PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-Sync/Freesync Erfahrungen


blaidd
2015-04-01, 22:59:05
Hey,

ich hab grad einen Acer XG270HU (http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/Acer-XG270HU-Freesync-1151087/) mit Freesync hier (zum Erfahrung sammeln mit G-Sync/Freesync) und will einfach mal meine Erfahrungen mitteilen. Die sollen ruhig als Diskussionsbasis dienen, eventuell lerne ich so auch schneller, worauf ich zu achten habe. Hier mal die ersten drei Spiele die ich ausprobiert habe (1440p, maximale Details ohne Hardware-Kantenglättung, falls vorhanden, keine Nvidia-Extras) die Frameraten liegen in allen Spielen zischen 60+ und knapp unter 40.

Far Cry 4: Funktioniert nicht wie es soll. Das Spiel läuft zwar jetzt (endlich) ziemlich rund, zeigt aber eine Eigenheit: Fallen die Fps auch nur einen oder zwei Frames unter 60, ruckelt's im Spiel. Nur recht leicht, kann man aber gut erkennen, wenn man sich einer Wand gegenüberstellt, ein paar Meter entfernt und diese mit dem Blick darauf entlangstraft. An der Mauer(kante) zeigen sich dann kleine Sprünge. Klappt auch gut mit Bäumen. Sämtliche Vsync-Einstellungen (Spiel, Treiber, aus) zeigen das gleiche Phänomen. Ich versuch' das gleich mal noch in einem Video zu zeigen (die Ruckler, nicht Freesync - offenkundig). Das funktioniert am besten ab rund 55 Fps. Hier würde mich mal eine Gsync-Erfahrung interessieren - kann mir nur schwer vorstellen, dass es dort anders ist, das scheint das Spiel, bzw. die Streaming-Engine zu sein. Am besten mal mit einer wie oben beschriebener Szene versuchen. Würde das zutreffen, kann eine Framesynchro da natürlich wenig ausrichten.

Assassin's Creed Unity: Scheint zu funktionieren, kleinere Stocker sind aber dennoch wahrzunehmen (eventuell Speicherruckler), die Bildrate ist ansonsten gefühlt sehr flüssig - muss ich mir nochmal genauer ansehen.

Dying Light: Funktioniert bis ungefähr 42 Fps, darunter wird das Bild plötzlich unruhig. Macht einen positiven Eindruck, leider müsste ich für durchgehend ü40 Fps auf ein paar Details verzichten, das sollte aber kein Drama sein, ich komm in heftigen Szenen mit hoher CPU-Last auf knapp unter 40.

Ich teste mal noch ein bisschen,
bis dahin,
blaidd

transstilben
2015-04-01, 23:06:39
Von welcher Grafikkarte reden wir hier ? Nvidia ? Und das in Kombination mit Freesync ? Hab ich da was verpasst ?

blaidd
2015-04-01, 23:08:49
Ups, ne natürlich nicht. ;) Ist eine R9 290X (@1.150 MHz). CPU ist ein i7-5820K @ 4,2 GHz, 16 GiByte RAM, Spiele auf SSD.

Ich hab aber auch Zugriff auf Nvidia-Hardware. Momentan konzentriere ich mich aber auf Freesync. Mich würden aber entsprechende Erfahrungen mit Gsync interessieren, das spart mir eventuell ein bisschen Arbeit ;) Und ganz uninteressant dürfte das generell nicht sein, denke ich.

ndrs
2015-04-01, 23:09:37
Treten die Ruckler auch mit deaktiviertem aSync auf? Wenn es potentiell am Spiel selber liegt, müsste ja die Aufzeichnung der Frametimes Aufschluss geben.
Wenn die Probleme in Dying Light nicht auftreten muss es eigentlich an den schwankenden FPS liegen. Aus welchem Grund sollte FreeSync Anwendungsabhängig verschiedenes Verhalten zeigen?

PS: Technologie-Subforum, really?

transstilben
2015-04-01, 23:15:36
Damit das Ganze vergleichbarer wird, sollte man noch Treiber / Betriebssytem ergänzen ;-)

blaidd
2015-04-01, 23:30:37
Die Ruckler treten immer auf. Freesync an/aus, Vsync an/aus, sowohl per Treiber als auch direkt im Spiel. 144 Hz Refreshrate, im Übrigen.

Win 8.1 x64, Catalyst 15.3 Beta (anderen gibt's noch nicht mit Freesync, nur den etwas älteren Presse-Treiber, der aber weitestgehend mit dem öffentlichen übereinstimmt ;))

Kartenlehrling
2015-04-01, 23:35:43
Hast du die max Monitor Hz auf 144Hz oder 120Hz stehen?
Wenn du sowieso unter 60fps spielst versuch mal den Monitor auf 100Hz bzw. 120Hz.
Und wenn man die letzten Tage gelesen hat sollte die minFPS nicht unter 40fps bzw. bei LG-21:9 48fps sein.

Und overdrive ausschalten.

blaidd
2015-04-01, 23:42:51
Hab 60/120/144 Hz versucht, Overdrive ist aus. Ich bin mir zu fast 100 % sicher, das ist das Spiel. Dann bringt Freesync auch entsprechend wenig. Sieht man ja auch im Video (lad ich hoch, sobald ich es umgewandelt hab, 3 GiByte für 20 Sek. sind mir doch ein bisschen viel. Und übrigens ja, das Geruckel sollte man in den Frametimes sehen ;)

Kartenlehrling
2015-04-01, 23:48:37
Test mal SW:tor-Online oder Borderland2 und vorallem von Civ:BE Benchmark würde ich ein 120fps Video gern sehen.

blaidd
2015-04-02, 00:00:45
In Civ:BE (bzw. dem Benchmark) schafft meine Möhre keine 120 Fps mit Recording dürft's nochmal schwieriger werden. Ich film's ja auch nicht ab, daher kann man Freesync im Video auch nicht sehen. ;) Oder worauf willst du hinaus? Aber testen kann ich's ja mal. Borderlands wollt ich sowieso mal ausprobieren. :)

ndrs
2015-04-02, 00:02:21
Wenn die Ruckler auch bei FreeSync aus auftreten, warum diskutieren wir dann hier darüber ... Das hat ja dann Null mit dem Thema zu tun.

blaidd
2015-04-02, 00:10:55
Weil's dann nicht funktioniert. Und nicht viel bringt. Und mich mal interessieren würde, ob das Ruckeln bei Gsync auch auftritt. Ich hab unzählige Posts gelesen, die besagen, dass die Bildausgabe mit Gsync in FC4 ach so butterweich ist.

Das sollen ja auch Erfahrungsberichte sein, keine Lobudelei. Da können durchaus auch mal ein paar negative dabei sein, oder? ;)

https://youtu.be/FDPdQOpFw_Q

Fps liegen mit Recording bei rund 50-55, am äußeren, linke Ende der Mauer ~46.

Kartenlehrling
2015-04-02, 00:29:18
Nvidia behaupt ja das Frame Capture Analysis Tool (FCAT) funktioniert mit g-sync weil die Gpu ja nur das ausgibt was wirklich zählt.
System aufbauen wie für FCAT ein 1.2a Displayport switch + ein capturekarte die 1080p/120fps aufnehmen kann.

http://www.computerbase.de/forum/attachment.php?attachmentid=453549&d=1415910541


Video

Das schöne ist das man bei youtube die abspiel-geschwindigkeit beeinflussen kann, nach flüssig sieht das wirklich nicht aus,
warum vermatscht das Gras eigenlich soo, liegt es an youtube reduzierung?

blaidd
2015-04-02, 00:43:18
Ich wills doch nur mal ausprobieren und ein paar Erfahrungen sammeln, nicht 3 Wochen lang intensiv testen. Dafür bin ich nicht zuständig ;)

Es könnte natürlich auch daran liegen, dass AMD in FC4 crappy Frametimes zeigt, aber mit 60 Fps wird's plötzlich ziemlich flüssig. Wehe, die Bildrate fällt aber auch nur einen Frame ab. Hat keiner Gsync und FC4 und kann das einfach mal ausprobieren? Ich hab's zuletzt mit einer GTX 980 und Version 1.8.0 ausprobiert, da hat's noch deutlich geruckelt. 1.9.0 hat aber ordentliche Verbesserungen gebracht.

Das Video soll ja auch hauptsächlich dazu dienen, um das Problem mal nachzustellen -oder es zumindest zu versuchen. Der Ort ist übrigens Kyra Tea Terrasses

[Edit:] Das dürfte tSMAA + Youtube-Kompression sein. Hab verpennt die Kantenglättung auszuschalten.

Palpatin
2015-04-02, 07:18:24
Dying Light: Funktioniert bis ungefähr 42 Fps, darunter wird das Bild plötzlich unruhig. Macht einen positiven Eindruck, leider müsste ich für durchgehend ü40 Fps auf ein paar Details verzichten, das sollte aber kein Drama sein, ich komm in heftigen Szenen mit hoher CPU-Last auf knapp unter 40.


Das spielt sich bei mir (spiele mit Pad) und 32-37 FPS Gsync ruckelfrei, ohne Gsync klar schlechter. Auch ein wenig runtergestellt aber 4k.

OC_Burner
2015-04-02, 08:15:55
Nvidia behaupt ja das Frame Capture Analysis Tool (FCAT) funktioniert mit g-sync weil die Gpu ja nur das ausgibt was wirklich zählt.
System aufbauen wie für FCAT ein 1.2a Displayport switch + ein capturekarte die 1080p/120fps aufnehmen kann.

Ich bezweifle das die gängige Capturekarte die bei FCAT zum Einsatz kommt mit FreeSync/G-Sync Signalen umgehen kann. Der DVI Anschluss macht es nicht besser.;)

Grestorn
2015-04-02, 08:18:27
Far Cry 4: Funktioniert nicht wie es soll. Das Spiel läuft zwar jetzt (endlich) ziemlich rund, zeigt aber eine Eigenheit: Fallen die Fps auch nur einen oder zwei Frames unter 60, ruckelt's im Spiel. Nur recht leicht, kann man aber gut erkennen, wenn man sich einer Wand gegenüberstellt, ein paar Meter entfernt und diese mit dem Blick darauf entlangstraft.

Ich würde sagen, das liegt an FC4 selbst. Das Spiel ist bis heute nicht wirklich smooth, auch nicht auf nVidia und GSync. Wenn man die Frametimes messen würde, würdest Du sehen, dass es immer wieder Ausreißer nach oben gibt.

Dying Light: Funktioniert bis ungefähr 42 Fps, darunter wird das Bild plötzlich unruhig. Macht einen positiven Eindruck, leider müsste ich für durchgehend ü40 Fps auf ein paar Details verzichten, das sollte aber kein Drama sein, ich komm in heftigen Szenen mit hoher CPU-Last auf knapp unter 40.

Das klingt nach dem Problem der unteren Frameraten-Grenze bei Freesync? Hast Du VSync an oder aus? Wenn Du es ausschaltest, sollte es auch unterhalb der Grenze smooth bleiben, aber es sollte wieder sichtbares Tearing geben. Mit eingeschaltetem VSync hast Du unterhalb der Freesync-Grenze (die kleinste Wiederholrate, die der Monitor verträgt) die üblichen VSync-Nachteile nur in "schmlimmer", da die Wiederholrate nochmal ein ganzes Stück niedriger ist (eben 42 Hz) und dadurch Lag und Sprünge der Framerate um so auffälliger sind.

Es geht aber die Theorie um, dass AMD das durch einen Treiberupdate beheben können sollte.

blaidd
2015-04-02, 08:58:04
Ich würde sagen, das liegt an FC4 selbst. Das Spiel ist bis heute nicht wirklich smooth, auch nicht auf nVidia und GSync. Wenn man die Frametimes messen würde, würdest Du sehen, dass es immer wieder Ausreißer nach oben gibt.



Das klingt nach dem Problem der unteren Frameraten-Grenze bei Freesync? Hast Du VSync an oder aus? Wenn Du es ausschaltest, sollte es auch unterhalb der Grenze smooth bleiben, aber es sollte wieder sichtbares Tearing geben. Mit eingeschaltetem VSync hast Du unterhalb der Freesync-Grenze (die kleinste Wiederholrate, die der Monitor verträgt) die üblichen VSync-Nachteile nur in "schmlimmer", da die Wiederholrate nochmal ein ganzes Stück niedriger ist (eben 42 Hz) und dadurch Lag und Sprünge der Framerate um so auffälliger sind.

Es geht aber die Theorie um, dass AMD das durch einen Treiberupdate beheben können sollte.

Thx. Wie gesagt, ich will neben der Arbeit eigentlich nur ein paar Erfahrungen sammeln und dabei möglichst wenig Arbeiten ;) Aber eventuell komm ich da nicht drum rum. Gleich das erste Spiel, das ich ausprobiere grätscht mir dazwischen :freak:

Die ~42 Fps sind wohl die untere Grenze, ja. Keine Ahnung, ob das wirklich von AMD zu retten ist, ich fürchte, dass liegt an den Displays, da hilft wahrscheinlich nur auf bessere warten. Ich werd das bei Gelegenheit mal mit anderen vergleichen. Darüber ist das Bild aber schön smooth, das ist wirklich ein deutlicher Gewinn.

Kartenlehrling
2015-04-02, 09:11:46
Man nimmt sich aber auch keine "Arbeit" mit nach Hause,
ausser natürlich einen IPS Freesync/G-sync Monitor und eine TitanX.

MartinRiggs
2015-04-02, 09:14:27
Ich würde auch gerne mal Erfahrungen sammeln mit G/Freesync, aber was kaufen ;(
Ich möchte mich nicht auf einen IHV festlegen und genau da fangen die Probleme an.

Nvidia bewegt sich nicht von G-Sync weg zu Freesync und umgekehrt macht AMD auch keine Anstalten, das kotzt mich sowas von an....

Grestorn
2015-04-02, 09:22:34
Wenn AMD nicht über den Treiber nachbessern kann, was die untere Grenze der vom Panel unterstützten Frequenz angeht, wäre das allerdings auch ein guter Grund für die aufwendige Lösung von GSync.

Wobei mir kein Grund einfällt, warum das nicht über den Treiber lösbar sein sollte. Aber ich kenne auch die technischen Herausforderungen nicht.

PHuV
2015-04-02, 12:34:53
Ich würde sagen, das liegt an FC4 selbst. Das Spiel ist bis heute nicht wirklich smooth, auch nicht auf nVidia und GSync. Wenn man die Frametimes messen würde, würdest Du sehen, dass es immer wieder Ausreißer nach oben gibt.
Was man aber sagen kann, daß mit FC4 der G-Sync-Effekt am besten und deutlichsten zu sehen ist, bei mir mit einem Acer XB280HK in UHD. Alle anderen Spiele wie CoD AW und Co. haben nicht so deutlich gut darauf reagiert, was wohl daran liegt, daß sie eh meistens über 50 FPS liefen. Crysis 3 hatte bei mir nur 22-25 FPS mit einer GTX 980, da war eh nix zu holen. :tongue:

Sunrise
2015-04-02, 14:54:24
Ich würde auch gerne mal Erfahrungen sammeln mit G/Freesync, aber was kaufen ;(
Ich möchte mich nicht auf einen IHV festlegen und genau da fangen die Probleme an.

Nvidia bewegt sich nicht von G-Sync weg zu Freesync und umgekehrt macht AMD auch keine Anstalten, das kotzt mich sowas von an....
Das mit der IHV-Bindung ist wirklich denkbar schlecht für alle, sollte es aber bald vergleichbare Monitore-Angebote geben, wird sich das entschärfen, sofern NV nicht plötzlich etwas Neues mit G-Sync vorhat (was evtl. die alten Monitore aber inkompatibel macht -> min. einschicken wäre dann angesagt).

Wenn Fiji draußen ist, spätestens aber Ende des Jahres wird es genug Angebot geben. Das Problem aktuell ist in der Tat ein Hänne Ei-Problem.

Von den Leuten die halbwegs informiert sind kauft sich kaum noch einer eine 290/290X oder tiefer, wenn es bald mit den neuen Karten losgeht. Und dann sollte AMD hoffentlich auch die Treiber soweit haben, dass hier kein Bug bei FreeSync mehr drin ist, denn aktuell sieht das nicht gerade so aus, als würde das so laufen wie gedacht. Man darf aber auch nicht vergessen, dass dieser Teil im Treiber mehrere Jahrzehnte lang immer identisch war. Da wurde wahrscheinlich seit den CRT-Zeiten nicht wirklich viel mehr verändert, es wurde einfach immer stumpfsinnig auf die entsprechenden Intervalle gewartet und das Bild ausgegeben, da wusste man immer, das funktioniert. Jetzt auf einmal muss man aber an Stellen im Treiber rumdoktorn, die Jahrelang nicht angefasst wurden und wieder vollkommen neu gebaut werden müssen.

Das liegt aber auch nicht nur an FreeSync, sondern scheinbar auch an den Monitoren selbst, wie im G-Sync-Thread im Spekulationsforum schon besprochen. Wir sind alle einfach sehr ungeduldig, weil es endlich mal eine Lösung für ein Problem in greifbarer Nähe gibt, aber derzeit einfach alles noch sehr nach "Betatest" aussieht. Und für Betatests in der Öffentlichkeit gebe ich noch kein Geld aus. Da müssen schon min. Asus oder Eizo und auch AMD an einem Strang ziehen und das zusammen auf ein Niveau bringen, das auch für die Endkunden OK ist. Es kann wohl kaum das Ziel sein, dass wir als Endkunden da jetzt Monitore kaufen und auf gut Glück selbst testen müssen.

G-Sync mag aktuell gut sein, es gibt aber auch da noch keinen passenden Monitor (für mich), den ich mir kaufen würde. Und ob Eizo jemals G-Sync-Monitore bringt, da setze ich mal ein dickes Fragezeichen.

pr0g4m1ng
2015-04-02, 15:34:29
Ich möchte mal kurz meine Erfahrungen zu dem Thema loswerden:

Langfassung
Ich habe mir im Herbst letzten Jahres eine GTX 970 zugelegt und damals auch mit dem Gedanken gespielt endlich auf mehr als 60Hz umzusteigen. Irgendwie war ich dem Hype etwas verfallen und spielte mit dem Gedanken mir einen Asus PG278Q zuzulegen, es gab aber ein paar Probleme: Erstens habe ich mir irgendwann mal geschworen nie wieder mehr als 650€ für einen Bildschirm auszugeben und der Asus kostete damals (soweit er denn verfügbar war) eher 800€, zweitens wusste ich nicht ob mir die Auflösung zu hoch oder die Diagonale zu groß sein könnte (bei Multiplayerspielen IMO wirklich ein Problem) und schließlich wollte ich eigentlich kein TN-Display mehr haben. Glücklicherweise bot mir dann ein guter Freund aus seinen PG278Q einfach auszuleihen, während er für ein paar Wochen durch Australien wanderte. Ich habe das Angebot gerne angenommen - wann hat man schon mal fast zwei Monate Zeit um sich ein Produkt genau anzuschauen?

Ich war vorgewarnt, doch irgendwie war ich dann doch überrascht als ich doch massive Probleme mit Displayport hatte. Solange ich nur einen Bildschirm an meiner GTX 970 hatte ging es noch, sobald ich meinen zweiten NEC IPS zusätzlich anschloss begann das Glücksspiel: Es konnte tagelang alles ohne Probleme funktionieren und dann plötzlich hatte ich nach dem Booten oder nach dem Start eines Spiels oder einer Vollbildanwendung kein Bild mehr. Das Problem ist bekannt und kann bei GTX 970 und GTX 980 Karten auftreten. Bei mir ist es seit ich eine GTX 980 habe sehr viel schlimmer geworden, dabei habe ich alle möglichen Fehlerquellen überprüft (neues Kabel, neuer Monitor, neue Grafikkarte, neues Grafikkartenbios, etc.).
Davon ab war ich erstmal positiv überrascht wie gut die Farben des Bildschirms so im Alltagsbetrieb sind. Ich würde nicht anfangen und irgendwelche Bildbearbeitung mit grauen Farbverläufen erstellen aber mit etwas Feintuning kann man aus dem Asus ein für ein TN-Panel sehr farbenfrohes Bild rausholen.

Nun aber zu G-Sync: Im ersten Moment war ich tatsächlich begeistert. Ich habe AC:Black Flag mit Downsampling gespielt und hatte zunächst den Eindruck bei unter 40fps ein vollkommen flüssiges Spielerlebnis zu haben. Ich habe viel gespielt und mitunter konnte ich dann doch ein leichtes Haken ausmachen, ohne dass dabei die FPS deutlich unter 35fps fielen. Trotzdem im Vergleich zu Vsync on deutlich angenehmer zu spielen und im Vergleich zu meinem 60Hz IPS gar kein Tearing.
Allerdings habe ich für Spiele in denen mein System mühelos dreistellige FPS erreicht G-Sync immer manuell deaktiviert nachdem ich nach ein paar kleinen Tests merkte dass sich das irgendwie noch direkter anfühlt. So passierte es dann das ich irgendwann vergas G-Sync wieder zu aktivieren. Nachdem ich einige Zeit lang gespielt hatte fiel mir dann in einer Zwischensequenz Tearing auf. Erst da habe ich es gemerkt.

Irgendwie hat das meine Sicht doch nachhaltig verändert: Ja, G-Sync funktioniert. Gegenüber V-Sync on ist es eine riesige Verbesserung. Aber genau da liegt die Krux: Mich stört Tearing, aber ich ich kippe auch nicht aus den Latschen wenn es mal passiert und ich glaube viele würden es ähnlich sehen wenn sie 144Hz gegen 144Hz und G-Sync vergleichen würden und nicht 60Hz gegen G-Sync, denn bei 144Hz tritt Tearing (zumindest gefühlt) deutlich seltener auf.

robbitop
2015-04-02, 15:47:28
G-Sync mit FPS > der maximalen Panelrefreshrate = V-Sync.
Ich frage mich, wie man beim SWIFT nicht merken kann, dass G-Sync aus ist. Die LED bleibt weiß, wenn G-Sync aus ist. :)

144 Hz mit V-Sync off kommt fast an die Erfahrung mit G-Sync ran - habe ich auch desöftern mal gepostet. Allerdings teart es doch ein wenig. (oft mehr als eine Teargrenze pro Bild wegen der hohen Refreshrate)

pr0g4m1ng
2015-04-02, 16:08:29
G-Sync mit FPS > der maximalen Panelrefreshrate = V-Sync.
Ich frage mich, wie man beim SWIFT nicht merken kann, dass G-Sync aus ist. Die LED bleibt weiß, wenn G-Sync aus ist. :)
[...]

I am not a clever man. :freak:

Zu meiner Ehrenrettung: Das war gleich am ersten Tag. Da war mir das wirklich noch nicht aufgefallen. :freak:

Grestorn
2015-04-02, 16:24:50
G-Sync mit FPS > der maximalen Panelrefreshrate = V-Sync.
Ich frage mich, wie man beim SWIFT nicht merken kann, dass G-Sync aus ist. Die LED bleibt weiß, wenn G-Sync aus ist. :)

144 Hz mit V-Sync off kommt fast an die Erfahrung mit G-Sync ran - habe ich auch desöftern mal gepostet. Allerdings teart es doch ein wenig. (oft mehr als eine Teargrenze pro Bild wegen der hohen Refreshrate)

Ich hatte in der Tat erst nach einer vollen Woche gemerkt, dass da überhaupt eine LED ist ... :redface:

Sunrise
2015-04-02, 16:33:09
I am not a clever man. :freak:

Zu meiner Ehrenrettung: Das war gleich am ersten Tag. Da war mir das wirklich noch nicht aufgefallen. :freak:
Ist auch gut so, scheinbar hast du dich aus diesem Grund auch deutlich mehr rein auf Spielgefühl konzentriert und das zählt im Endeffekt. So ein Lampe ist toll - und trügerisch.

Das ist bei mir im Übrigen ähnlich, kommt aber aufs Spiel an.

144 Hz mit V-Sync off kommt fast an die Erfahrung mit G-Sync ran - habe ich auch desöftern mal gepostet. Allerdings teart es doch ein wenig. (oft mehr als eine Teargrenze pro Bild wegen der hohen Refreshrate)
Kommt eben drauf an, ob das Spiel das du spielst stark zum Tearing neigt oder nicht. Meine Präferenz liegt irgendwo dazwischen, ich will jedenfalls sehr ungern auf eine sehr direkte Steuerung verzichten, was mit der Zeit der schnellen Shooter und CRTs zu tun hat. Meine Sensorik is da extrem sensibel darauf trainiert. Da haben wir auch heute noch viel nachzuholen. Und ja, BF ist für mich kein schneller Shooter, das kommt dem nichtmal in die Nähe.

robbitop
2015-04-02, 16:57:40
So ein Lampe ist toll - und trügerisch.
Warum trügerisch? Die LED zeigt reproduzierbar an wann und ob G-Sync läuft. Ich weiß sofort, wenn ein Spiel bspw G-Sync nicht nutzt. Cities Skylines z.B. wegen des Borderless Windows. Das fiel mir sofort auf, bevor ich sah, woran es lag.



Kommt eben drauf an, ob das Spiel das du spielst stark zum Tearing neigt oder nicht. Meine Präferenz liegt irgendwo dazwischen, ich will jedenfalls sehr ungern auf eine sehr direkte Steuerung verzichten, was mit der Zeit der schnellen Shooter und CRTs zu tun hat. Meine Sensorik is da extrem sensibel darauf trainiert. Da haben wir auch heute noch viel nachzuholen. Und ja, BF ist für mich kein schneller Shooter, das kommt dem nichtmal in die Nähe.
Mit genügend FPS, einer Engine die saubere Frametimes ausgibt und auch die Inputs direkt koppelt ist das doch gegeben. Ist halt stark spielabhängig.

Eine hohe Refreshrate und G/A-Sync sind jedenfalls nur hilfreich dafür. IMO zumindest im Falle von G-Sync frei von Nachteilen. Aber ein Zaubermittel ist es natürlich auch nicht.

Sunrise
2015-04-02, 17:10:14
Warum trügerisch? Die LED zeigt reproduzierbar an wann und ob G-Sync läuft. Ich weiß sofort, wenn ein Spiel bspw G-Sync nicht nutzt. Cities Skylines z.B. wegen des Borderless Windows. Das fiel mir sofort auf, bevor ich sah, woran es lag.
Trügerisch im Sinne der Psyche. Sie hat Auswirkungen auf das, was du empfindest.

Wenn man sich schon sehr stark an G-Sync gewöhnt hat wird einem das wohl oft auch ohne Lampe auffallen, aber ich bin mir recht sicher, dass man bei 144Hz und V-Sync OFF und sehr hohen FPS oft Probleme bekommt, das zu unterscheiden, wäre die Lampe nicht da, die dir sagt "G-Sync ist an". Wie gesagt, ist auch spieleabhängig (aufgrund der Tearinganfälligkeit).

Dass so eine Lampe im Optimalfall natürlich auch das Tatsächliche abbildet ist natürlich wichtig, aber allein darauf verlassen würde ich mich nicht. Ist halt als Zusatz ein Pluspunkt.

Schnoesel
2015-04-02, 18:28:11
hier stand was altes, nutzloses einfach so rum ;-)

blaidd
2015-04-03, 17:31:17
Okay hab mal ein bisschen mit Borderlands: TPS herumgespielt:

Das Spiel läuft nur mit 60 Hz :down: (kann man die Refreshrate irgendwo in der ini umstellen? War zu faul zu suchen)

1080p, 1440p sind damit witzlos. Zwischen 60 Fps mit Vsync und Freesync kann ich keinen Unterschied feststellen, außer eventuell einen leichten Input-Lag durch Triple-Buffering mit Vsync, der bei Freesync oder gelockter Framerate nicht so auffällt. Kann aber auch Placebo sein, müsste ich blind versuchen, klappt allein natürlich nicht. Tearing bei Framelock von 72, 120 Fps (Bullshit! :mad:) Ohne Vsync oder Framelock bei 1080p ~120-150 Fps, bei 1440p ~70-90 Fps.

Downsampling via GeDoSaTo: Rund 50 Fps in 2160p. Mit Freesync sehr ruhiges und flüssiges Bild, kein zusätzliches Lag gegenüber 60 Fps festzustellen - geht doch :up:. Daran könnte ich mich wirklich gewöhnen. Ohne Freesync Tearing und unruhiges Bild.

Untere Grenze für Freesync beim Acer sind übrigens 40 Fps, nicht 42 und da bleibt er auch wie festgetackert, falls die Frameraten weiter abfallen. Wenn die Bildraten aber zwischen ~42 und 38 pendeln wirkt das Bild unruhig - man will definitiv konstant 40+ Fps. Ausprobiert mit verschiedenen DS-Auflösungen und dem OSD - in dem die Hz-Zahl angegeben wird. Da hätte ich mal früher draufkommen können :freak:

EDIT: Nachtrag: Monitor hatte grade eine kleine Macke: Eine hübsche rosa Linie von oben bis unten mitten durchs Bild (linke Bildschirmseite). In Spielen, unter Windows, aber auch im Bootscreen (bei Neustart). War zwischendurch beim Umschalten kurz weg. Reset der Settings hat nix gebracht, kurz an- und ausschalten auch nichts. Zwei, drei Minuten ausschalten, dann wieder ein jedoch schon. Ich dachte schon, ich hätte das gute Stück geschrottet :) Ansonsten ist's ein ganz schickes Ding, tolle Schwarzwerte. Die 27 Zoll kommen mir aber mittlerweile ein bisschen zu klein vor und 1440p sind mir für ein neues Display auch ein bisschen wenig. Und während ich das hier schreibe taucht die verdammte Linie wieder auf. Selbe Stelle, dieses Mal jedoch weiß... werd das Teil wohl mal länger ausgeschaltet lassen. :uclap:

dargo
2015-04-03, 17:48:41
Okay hab mal ein bisschen mit Borderlands: TPS herumgespielt:

Das Spiel läuft nur mit 60 Hz :down: (kann man die Refreshrate irgendwo in der ini umstellen? War zu faul zu suchen)

Ist das nicht die UE3? Dann sollte es über ini gehen.

aufkrawall
2015-04-03, 17:51:26
Man sollte das Framerate Smoothing einfach in den Spieloptionen abstellen können.

blaidd
2015-04-03, 17:55:46
Framesmoothing kann man direkt ausschalten, das bringt aber nix für die maximale Refreshrate. Das Display springt gar nicht erst auf höhere. Ich schau nacher mal in die Ini, jetzt muss ich erstmal diesen dämlichen Anzeigefehler weg bekommen (siehe Edit oben) ;)

mironicus
2015-04-03, 18:00:12
Ich frage mich manchmal ob bei G-Sync/Freesync Monitoren der ständige Frequenzwechsel das Panel so belasten könnte das sie schneller kaputt gehen als "normale" Monitore... nur so ein Gedanke. ^^

Kartenlehrling
2015-04-03, 18:04:26
baseEngine.ini
bSmoothFrameRate=TRUE
MinSmoothedFrameRate=22
MaxSmoothedFrameRate=62

ja in der BaseEngine.ini

da finde man es auch für Batman

Grestorn
2015-04-03, 18:05:35
Das Spiel läuft nur mit 60 Hz :down: (kann man die Refreshrate irgendwo in der ini umstellen? War zu faul zu suchen)

Wenn das Spiel nur einen 60 HZ Modus verwendet: Das kann man im Treiber regeln:

Kartenlehrling
2015-04-03, 18:12:38
Das kann man im Treiber regeln:

naja wenn freesync bzw. Acer Monitor mit <40Hz probleme macht dann würde es doch Sinn machen MinSmoothedFrameRate=40 einzustellen, anstatt 22.

blaidd
2015-04-03, 18:13:26
Hmm, könnte ich mir zumindest vorstellen. Aber vielleicht ist auch eine konstant hohe Frequenz schädlicher. Das könnte vielleicht jemand mit massiv Ahnung aushelfen.

Das Problem ist aber wohl irgendwas mechanischer Natur: Ein leichter Druck an den Displayrand lässt die Linie verschwinden, bei Druck auf eine andere Stelle erscheint sie wieder...eventuell ist da irgendwas verspannt. Der Monitor hat vielleicht schon mal was abbekommen, ist ja auch ein harter Job in so einer Redaktion ;) Und ein paar mal durch die Gegend geschickt worden ist das Ding dazu noch.

Eben, beim Ein- und Ausschalten hab ich das Display wohl versehentlich verschoben - und damit kurzfristig gefixt, bevor die Linie zum zweiten mal erschienen ist, habe ich Fingerabdrücke von der Folie gewischt. Problem erkannt und jetzt auch (zumindest zeitweise) behoben. :)

@Grestorn: Oh, du hast Recht... okay. Einige Spiele können das aber wohl auch überschreiben, bei den anderen getesteten ging's mit den Display-Settings. Thx :)

EDIT: Nice, jetzt ist auch der Desktop und Scrollen im Browser viel angenehmer :)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51550&stc=1&d=1428077839

Godmode
2015-04-03, 18:15:15
Weil ich wieder eine GPU hab kann ich jetzt mal was dazu sagen. Ich hab heute ewig Heaven 4.0 laufen gehabt um den Takt auszuloten. Anfangs war G-Sync aktiv, das habe ich dann für das Testen deaktiviert. Kurz und knapp: Unglaublich wie flüssig es mit G-Sync ist und unglaublich wie stark es ohne G-Sync stottert. Ich muss noch mehr Spiele damit testen, aber wenn es überall so gut funktioniert, ist es jeden Euro wert. Schade das man sich auf einen IVH fixieren muss, sonst wäre es wirklich ein Feature ohne Kompromisse.

Kartenlehrling
2015-04-03, 18:22:31
Godmode hast du kein iphone6, wo du uns mal Civ:BE Benchmark, vSyncOff, VsyncOn, G-sync in 120fps aufnehmen kannst?
Würde gern diesen Test mal sehen, weil da muss der Monitor den vollen Bereich von 120fps bis runter auf 30fps alles abdecken.

Godmode
2015-04-03, 18:26:37
Nö leider nur ein 5S. Außerdem kein Civ und GSync kann man leider nicht filmen, IIRC.

Kartenlehrling
2015-04-03, 18:36:05
Außerdem kein Civ

Die Civ:BE gibts bei steam als Demo, da kann man den Benchmark auch aktivieren, nur Mantle nicht.

blaidd
2015-04-03, 18:42:10
Schade das man sich auf einen IVH fixieren muss, sonst wäre es wirklich ein Feature ohne Kompromisse.

Ja, ein(!) Framesync sollte sich wirklich zum Standard entwickeln, alles andere ist einfach lächerlich - und selbst mit den aktuellen Kinderkrankheiten ist Freesync schon ein echter Zugewinn, G-sync ist wohl momentan noch einen Tick besser. Aber das ist und bleibt definitiv an Nvidia-GPUs gekoppelt, das kommt für mich nicht in Frage. Ist natürlich nett für Nvidia, wenn man sich einen G-Sync-Monitor holt, damit ist man quasi über Jahre garantierter Nvidia-Käufer.

Freesync muss noch ein paar der Kinderkrankheiten loswerden, aber das hat definitiv Potenzial - auch dazu, Gsync von der Frequenzbandbreite zu übertreffen - und zumindest besteht eine gewisse Wahrscheinlichkeit, dass der Kram irgendwann auch mal mit einer Nvidia-GPU funktioniert. Mal sehen, wie lang die sich noch quer stellen können.

Für mich ist momentan noch kein vernünftiges Freesync-Display dabei und eine ordentliche Aufrüstoption für meine GPU ist auch noch nicht erschienen. Ein bisschen Warten muss ich also eh noch ;)

So, jetzt check ich mal, wo die obere Frequenzschwelle für Freesync beim Acer ist... Das 60-Fps-Problem hab ich ja gelöst bekommen (:facepalm:)

EDIT: Uhhh, nice. Geht bis 144 Hz durch. Also 40-144 Hz :) Das ist jetzt wirklich(!) butterweich - und kein Tearing :up: Mist, jetzt will ich wirklich so ein Display :D

aufkrawall
2015-04-03, 18:48:35
Ja, ein(!) Framesync sollte sich wirklich zum Standard entwickeln, alles andere ist einfach lächerlich - und selbst mit den aktuellen Kinderkrankheiten ist Freesync schon ein echter Zugewinn, G-sync ist wohl momentan noch einen Tick besser.

Wenn es quasi gar keine Untergrenze gibt, anstatt eine solche nahe 40fps, ist das imho schon deutlich mehr als nur einen Ticken besser.
AMD muss in die Pötte kommen.

Kartenlehrling
2015-04-03, 18:58:29
Mist, jetzt will ich wirklich so ein Display

In 4 Wochen kommt doch der MG279Q,
der für für AMD User für längere Zeit das Mass der Dinge sein wird, ausser Samsung bringt wirklich ein 4k-VA mit >75Hz .

dargo
2015-04-03, 19:01:30
Für mich ist momentan noch kein vernünftiges Freesync-Display dabei und eine ordentliche Aufrüstoption für meine GPU ist auch noch nicht erschienen. Ein bisschen Warten muss ich also eh noch ;)

Willkommen im Club. :freak:

Bei mir entscheidet wohl auch erst der passende Freesync Bildschirm wann ich mir die nächste Grafikkarte kaufe. Ich hoffe noch 2015. :ulol:

blaidd
2015-04-03, 19:05:39
In 4 Wochen kommt doch der MG279Q,
der für für AMD User für längere Zeit das Mass der Dinge sein wird, ausser Samsung bringt wirklich ein 4k-VA mit >75Hz .

27 Zoll, WQHD meh... ;) Naja, wenn's sein muss, jetzt bin ich wirklich angefixt. Der Acer ist dahingehend aber auch nicht schlecht... :)

Wenn es quasi gar keine Untergrenze gibt, anstatt eine solche nahe 40fps, ist das imho schon deutlich mehr als nur einen Ticken besser.
AMD muss in die Pötte kommen.

Wenn's wirklich mal bis 9 Hz runtergeht, alle Achtung. Aber die momentane Situation ließe sich ja auch mit einer fetten GPU lösen - die will ich sowieso. Ich muss wohl mal anfangen das Sparschwein zu füttern.

EDIT: Das wäre auch zum Testen klasse, damit würden die ganzen Nebeneffekte von schwankenden Frameraten verschwinden und nur Speicher-, Streaming- und CPU-Ruckler übrig bleiben. Das würd's mir wirklich einfacher machen... hmm.

aufkrawall
2015-04-03, 19:10:55
Bei Gsync soll es laut pcper ja quasi egal sein, wenn die minimale Refreshrate unterschritten wird, da auf ein Vielfaches einer passenden umgeschaltet wird.

Schaffe89
2015-04-03, 19:16:59
Quatsch. Das shreibt niemand außer PcPer

blaidd
2015-04-03, 19:24:47
Klingt logisch, das könnte nach meinem Verständnis funktionieren - das sollte aber eine GPU auch hinbekommen können, oder? EDIT: hmm, so könnte AMD das wie von Grestorn angesprochen vielleicht auch geregelt bekommen.

Die Frage ist aber außerdem, ob das unterhalb einer bestimmten Framerate aber noch Sinn macht... 40 Fps fühlen sich zäher an als 60, die wiederum deutlich(!) zäher als 144, auch mit Freesync - ist ja auch logisch, mit 5 Fps ist ein Spiel einfach nicht flüssig, da kannst du so viel synchronisieren wie du willst ;) Du spürst nur die Fluktuationen nicht so stark. Und mit Freesync hast du dazu keine Bildrisse oder andere Unruhe im Bild - wenn die Bildraten aber massiv abfallen, bekommst du das schon mit. Gsync steht aber auch noch auf meiner To-Do-List, aber weil ich tendenziell eher faul bin und schon eine AMD-GPU im Rechner habe, habe ich eben mit Freesync angefangen ;)

Das 144 Hz sich so flüssig anfühlen, hätte ich aber selbst nicht gedacht - holy crap! Wie hab ich denn Jahrzehntelang mit 60 spielen können? :freak:

fondness
2015-04-03, 19:29:18
EDIT: Nice, jetzt ist auch der Desktop und Scrollen im Browser viel angenehmer :)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51550&stc=1&d=1428077839

Warum kannst du bei deinem Monitor bis zu 25Hz auswählen, obwohl ja nur minimal 40Hz unterstützt werden? Oder stehe ich gerade auf dem Schlauch?

[..], ausser Samsung bringt wirklich ein 4k-VA mit >75Hz .

Das gibt DP 1.2 gar nicht her.

blaidd
2015-04-03, 19:34:53
Warum kannst du bei deinem Monitor bis zu 25Hz auswählen, obwohl ja nur minimal 40Hz unterstützt werden? Oder stehe ich gerade auf dem Schlauch?

Der Monitor kann auch weniger als 40 Hz, aber für Freesync lockt der die Wiederholrate da. Ich müsste mal probieren, ob mit Freesync jetzt 30 Fps crappy aussehen, weil der Monitor mit 40 Hz läuft... Das wäre natürlich Murx. Warum genau der mit angeschaltetem Freesync nicht auch tiefer geht, kapiere ich allerdings auch nicht so ganz... vielleicht gibt's bei einer bestimmten, tiefen Frequenz irgendwelche Bildfehler, obwohl mir das spanisch vorkommt. Ich hab langsam den Verdacht, dass AMD da Bullshit verzapft hat. ;) Das würde ich tendenziell vielleicht sogar vorzieen, denn dann könnte sich bezüglich niedrigerer Wiederholraten wirklich noch was tun, auch bei den schon erhältlichen Displays.

EDIT:: Nö, 30 Fps mit Framelock zeigen keine Auffälligkeiten (also kein Tearing bspw.). Außer dass es nun ruckelig wie die Pest wirkt. Da passiert eventuell also treiberseitig irgendwas.

EDIT2: Hmm, ich hab grad noch mal ein bisschen mit Battlefield herumgespielt, da kann man ja praktischer Weise die Framerate on the Fly festlegen. Der Monitor versucht offenbar auf 40 Fps zu locken, mit ein bisschen Gewalt geht er aber auch runter bis 35 Hz. 39, 38, 37, 36 Hz hab ich auch kurzfristig hinbekommen. So richtig funktioniert das aber nicht, mal geht's dann wieder nicht. Klettert immer wieder auf 40 Hz zurück, nur kurz zeigt sich mal eine niedrigere Rate. Unter 35 scheint aber nix mehr zu kommen. Es sind also weiterhin nur 40-144 Hz nutzbar, darunter will Freesync nicht, das Bild wird merklich unruhiger. Mit 40 Fps-Lock geht's aber gut. Mehr sind trotzdem besser ;)

dargo
2015-04-03, 20:19:59
Die Frage ist aber außerdem, ob das unterhalb einer bestimmten Framerate aber noch Sinn macht... 40 Fps fühlen sich zäher an als 60, die wiederum deutlich(!) zäher als 144, auch mit Freesync - ist ja auch logisch, mit 5 Fps ist ein Spiel einfach nicht flüssig, da kannst du so viel synchronisieren wie du willst ;)
Psst... erzähl das bloß nicht der Fraktion mit 30fps und G-Sync würde man flüssig spielen können sonst lösen sich die Träume gleich in Luft auf. ;)

aufkrawall
2015-04-03, 20:28:07
Sind Filme mit 24fps unschaubar?

blaidd
2015-04-03, 20:35:37
Psst... erzähl das bloß nicht der Fraktion mit 30fps und G-Sync würde man flüssig spielen können sonst lösen sich die Träume gleich in Luft auf. ;)


Das wirkt halt ruhiger... aber sind immer noch 30 Fps. Das ist eben höchstens so flüssig wie geschmolzener Käsen. ;) Warum sollten die Grafikkartenhersteller sonst auch ein Interesse haben, so was zu entwickeln? Damit würden sie sich dann ja gleich den ganzen High-End-Markt versauen und würden nur noch maximal Mittelklasse-GPUs verkaufen können :freak:

Wie kommt man eigentlich auf so eine Idee? ;D

Sind Filme mit 24fps unschaubar?
Ohne Witz, siehts du da nix ruckeln? :eek: Find ich persönlich extrem nervig. Für so was gibt's dann ja auch FluidMotion und so was, das ist ein Segen.
gZLsYpSAouo

EDIT: Kann dein Display 30 Hz? Stell einfach die Wiederholrate da drauf und aktivier im Spiel V-Sync. Gleicher Effekt wie Gsync/Freesync bei 30 Fps. Probier's selbst aus. :cool:

aufkrawall
2015-04-03, 20:47:44
Ohne Witz, siehts du da nix ruckeln? :eek: Find ich persönlich extrem nervig. Für so was gibt's dann ja auch FluidMotion und so was, das ist ein Segen.
http://youtu.be/gZLsYpSAouo
Das Youtube-Video hat 30fps. Wenn links das Original mit 24fps gecapturet wurde, müssen natürlich Frames wiederholt werden -> Ruckler.

Es war davon ab auch eher als Fangfrage gedacht: 24fps für Video gehen natürlich schon, wenn auch nicht toll.
Aber weshalb gehen die? Weil es idealerweise kein Tearing und keine wiederholten Frames gibt. Also genau das, was man mit Gsync offenbar jetzt schon bei Spielen <30fps hat.
Gibt keinen Grund, das runterzuspielen. Dürfte genügend Leute geben, die Witcher 3 lieber in Bombast-Optik anstatt hohen fps erleben möchten.

blaidd
2015-04-03, 20:59:14
Das Youtube-Video hat 30fps. Wenn links das Original mit 24fps gecapturet wurde, müssen natürlich Frames wiederholt werden -> Ruckler.

Es war davon ab auch eher als Fangfrage gedacht: 24fps für Video gehen natürlich schon, wenn auch nicht toll.
Aber weshalb gehen die? Weil es idealerweise kein Tearing und keine wiederholten Frames gibt. Also genau das, was man mit Gsync offenbar jetzt schon bei Spielen <30fps hat.
Gibt keinen Grund, das runterzuspielen. Dürfte genügend Leute geben, die Witcher 3 lieber in Bombast-Optik anstatt hohen fps erleben möchten.

Ja, stimmt. Ich dachte du meinst Filme am PC. Aber das kennst du doch sogar aus dem Kino. Und da werden sogar noch 2-3 Zwischenbilder eingefügt und auch noch interpoliert - das ist trotzdem viel zäher als in der Realität, selbst wenn du effektiv wegen der schwarzen Zwischenbilder von modernen Projektoren das Bild quasi mit 48-72 fps wahrnimmst - die fehlenden ergänzt dein Hirn - wie bei einem hochfrequenten Stroboskop - das sieht trotzdem leicht ruckelig aus. Deswegen gibt's ja auch Zwischenbildberechnung bei neueren TVs oder Beamern (FluidMotion ist im Prinzip das gleiche). ;) Und bei Filmen musst du ja auch nur zusehen, das klappt bei Spielen ja auch besser, wenn du nur 30 Fps hast. Wenn du so aber selbst spielen musst, wirkt das doch viel träger.

Ich hätte für The Witcher 3 gern beides... 45 Fps mit Framesync sollten aber wohl ganz anständig aussehen. 30 Fps will ich aber sicher nicht, Framesync hin oder her. Da verzichte ich notfalls lieber auf ein paar Details - oder warte, bis endlich mal eine gescheite GPU auftaucht.

dargo
2015-04-03, 21:11:28
Sind Filme mit 24fps unschaubar?
Jetzt kommt das schon wieder. Was steuerst du so alles in Filmen?


Ohne Witz, siehts du da nix ruckeln? :eek: Find ich persönlich extrem nervig. Für so was gibt's dann ja auch FluidMotion und so was, das ist ein Segen.
http://youtu.be/gZLsYpSAouo

Ganz nett, allerdings ruckelt der rechte Teil ebenso. Nur die Intensität der Ruckler ist geringer. Könnte allerdings an YT liegen wie ich hier lese:
http://www.tweakpc.de/hardware/tests/treiber/amd_catalyst_omega/s05.php

Das wirkt halt ruhiger... aber sind immer noch 30 Fps.
Das ist eben das was ich immer sage. Die Bilddarstellung wirkt durch G-Sync zwar ruhiger, die Steuerung bleibt aber dennoch durch fehlende niedrige Frames zäh. Hohe Frames sind durch nichts zu ersetzen sofern man ein Game butterweich steuern will. Und das gehört für mich persönlich genauso in die Fraktion "flüssig" wie eine ruckelfreie Bilddarstellung.

aufkrawall
2015-04-03, 21:30:31
Jetzt kommt das schon wieder. Was steuerst du so alles in Filmen?

Was steuerst du in Spielen? Wohl kaum immer nur ein Zielkreuz.
Ansonsten solltest du dir mal angewöhnen, etwas über den Tellerrand hinauszuschauen, oder wenigstens Leute selber entscheiden lassen, wie sie ihre Spiele zu spielen haben.

dargo
2015-04-03, 21:36:18
Was steuerst du in Spielen?
:confused:

Dachte der 1. April wäre vorbei.

blaidd
2015-04-03, 21:46:53
Ich zitiere mich einfach mal selbst:

Das Spiel läuft nur mit 60 Hz :down:
1080p, 1440p sind damit witzlos. Zwischen 60 Fps mit Vsync und Freesync kann ich keinen Unterschied feststellen, außer eventuell einen leichten Input-Lag durch Triple-Buffering mit Vsync, der bei Freesync oder gelockter Framerate nicht so auffällt.

Das war lame.

Downsampling via GeDoSaTo: Rund 50 Fps in 2160p. Mit Freesync sehr ruhiges und flüssiges Bild, kein zusätzliches Lag gegenüber 60 Fps festzustellen - geht doch :up:. Daran könnte ich mich wirklich gewöhnen. Ohne Freesync Tearing und unruhiges Bild.

Das war nett.

Uhhh, nice. Geht bis 144 Hz durch. Also 40-144 Hz :) Das ist jetzt wirklich(!) butterweich - und kein Tearing :up: Mist, jetzt will ich wirklich so ein Display :D

Das 144 Hz sich so flüssig anfühlen, hätte ich aber selbst nicht gedacht - holy crap! Wie hab ich denn Jahrzehntelang mit 60 spielen können? :freak:

Das hat mich weggeblasen.

Ich kann natürlich nur für mich selbst sprechen, aber anstatt dass ich mich mit Freesync jetzt auch mit weniger Fps zufriedengeben würde (die mit F-Sync tatsächlich angenehmer sind), hat das ganze auf mich den genauen Gegeneffekt. Jetzt will ich mehr Fps als vorher, weil das sich Borderlands mit 144-120 Fps und Freesync so unglaublich direkt anfühlt und wirklich(!) butterweich ist. Ohne Framesync hast du bei so hohen Bildraten ein ziemlich unruhiges Bild, außer du bekommst die fest auf 120 oder 144 Fps gesetzt (entsprechendes Display vorausgesetzt). Bis dahin fand ich Freesync so lala, aber als BL mit 144 Hz funktioniert hat - wow. Das kann man denke ich auch aus dem Ton der Posts herauslesen...

Und das passt auch besser als Konzept für die Hardware. Mit Framesync und einem Display mit hoher Refreshrate (warum haben die bloß nicht alle nur 30 oder vielleicht 50 Hz? ;)) bekommst du auch Appetit auf flottere GPUs. Mucho Money, ey? ;-)

Ich wollt mir ja eigentlich ein UHD-Display hohlen, aber der Plan ist wohl heute gestorben. Jetzt überlege ich mir tatsächlich ein 1440p-Display zu nehmen - das fühlt sich wirklich grandios an! Wirklich empfehlenswert. Wer kann, unbedingt mal mit hohen Bildraten ausprobieren!

dargo
2015-04-03, 22:03:19
@blaidd

Ich sehe das im Prinzip genauso wie du. Hohe fps + Freesync = Gamingporno. :D Die Frage die ich mir persönlich dabei nur noch stelle... mache ich mit einem 120Hz (das reicht mir, ich brauche jetzt nicht unbedingt 144Hz, 100Hz würden mir auch reichen) IPS Panel jetzt wirklich den Downgrade was den Schwarzwert angeht (ich stehe auf sattes Schwarz)? Oder weiter warten (eventuell noch bis weit ins Jahr 2016) bis endlich ein 100-120Hz VA kommt? Letzteres wäre schon ziemlich übel. :usad:

aufkrawall
2015-04-03, 22:05:49
Natürlich machst du ein Downgrade. Wegen des Glows wär es selbst von TN auf IPS quasi eines.

dargo
2015-04-03, 22:16:43
Wenn ich gerade auf das Display schaue und es ist nicht sichtbar dann stört mich das nicht. Aber sowas hier geht natürlich gar nicht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10576880&postcount=4102

Mir gings aber eher darum, was ist das kleinere Übel? Guter Schwarzwert + kein Freesync oder schlechter Schwarzwert + Freesync. Ich kann mich nicht entscheiden. :usad:

blaidd
2015-04-03, 22:20:22
@blaidd

Ich sehe das im Prinzip genauso wie du. Hohe fps + Freesync = Gamingporno. :D Die Frage die ich mir persönlich dabei nur noch stelle... mache ich mit einem 120Hz (das reicht mir, ich brauche jetzt nicht unbedingt 144Hz, 100Hz würden mir auch reichen) IPS Panel jetzt wirklich den Downgrade was den Schwarzwert angeht (ich stehe auf sattes Schwarz)? Oder weiter warten (eventuell noch bis weit ins Jahr 2016) bis endlich ein 100-120Hz VA kommt? Letzteres wäre schon ziemlich übel. :usad:

Hmmm, schwierige Frage, mit VA-Panels hab ich nur sehr begrenzt Erfahrung. Das Acer hier hat aber ein sehr anständiges Schwarz, das hat mich vom Bild her am ehesten beeindruckt - hatte ich glaube ich irgendwo erwähnt.

Wie sieht's denn eigentlich mit der Reaktionszeit bei VA-Panels aus, die ist schon mit dem IPS-Display grenzwertig bei so hohen Frameraten (in BL war mit 120+ Fps deutliches Ghosting zu erkennen). Ich persönlich bin jetzt aber zu rattig, um noch lange zu warten, ich werd wohl das Asus-Display noch abwarten und mich dann entscheiden. Praktischerweise ist meine R9 290X für 1440p auch einigermaßen ausreichend, eine neue GPU könnte dann statt mehr Pixeln mehr Fps bringen, das ist mir grad wichtiger als die IQ geworden. Eine neue GPU muss aber trotzdem her :cool:

aufkrawall
2015-04-03, 22:26:40
Wenn ich gerade auf das Display schaue und es ist nicht sichtbar dann stört mich das nicht. Aber sowas hier geht natürlich gar nicht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10576880&postcount=4102

Mir gings aber eher darum, was ist das kleinere Übel? Guter Schwarzwert + kein Freesync oder schlechter Schwarzwert + Freesync. Ich kann mich nicht entscheiden. :usad:
Der Vorführmonitor ist schon recht heftig. Das sollte natürlich nicht so sein, sonst wird ja kaum ein Kunde einen behalten.
Im Zweifel dann erstmal bestellen und sich ein eigenes Bild vom eigenen Monitor machen.
Den Glow wirst du aber auch bei unauffälligen Monitoren bei zentraler Sitzposition nicht ganz los. Genau so wenig, wie bei TN den Negativeffekt in der oberen Bildhälfte oder bei VA den Gammashift zu den Rändern hin.

VA + A-Sync scheint aber noch in weiter Ferne zu sein. Ich hab schon mit dem Gedanken gespielt, mir nicht doch mal 4k TN mit 10 Bit und A-Sync anzuschauen...
Edit: Sehe, der Acer ist gar nicht 10 bittig.

dargo
2015-04-03, 22:28:22
Hmmm, schwierige Frage, mit VA-Panels hab ich nur sehr begrenzt Erfahrung. Das Acer hier hat aber ein sehr anständiges Schwarz, das hat mich vom Bild her am ehesten beeindruckt - hatte ich glaube ich irgendwo erwähnt.

Naja... das hängt immer davon ab was du vorher hattest. IPS kann schon aus Prinzip keinen guten Schwarzwert liefern wenn der Kontrast nur um die 1000:1 liegt.


Wie sieht's denn eigentlich mit der Reaktionszeit bei VA-Panels aus...
Dank gut dosiertem Overdrive für mich noch akzeptabel. Hatte aber schon VAs hier die richtig grottig waren. Entweder immer noch mit Overdrive zu langsam (Kopfschmerzen) oder mit zu scharf gewähltem Overdrive zwar minimal schneller als meiner, dafür aber störendem Ghosting. Dieser hier soll aber angeblich brauchbar sein.
http://geizhals.at/de/eizo-foris-fg2421-schwarz-fg2421-bk-a1024965.html?hloc=at&hloc=de

Von daher würde ich jetzt nicht allgemein sagen VA wäre zu langsam.

PS: der Acer würde schon alleine für mich wegen fehlender Ergonomie nicht in Frage kommen. Bildschirm muss höhenverstellbar sein. Ist aber ein anderes Thema, konzentrieren wir uns erstmal nur auf das Panel. :wink:

aufkrawall
2015-04-03, 22:35:24
Wer behauptet den Unfug über den Eizo? Dessen Overdrive bzw. Reaktionsverhalten im Allgemeinen kannst du komplett vergessen. Ich hab noch nie so hell leuchtende Farbartefakte in Bewegung gesehen wie mit dem Teil...

dildo4u
2015-04-03, 22:41:04
Dissecting G-Sync and FreeSync - How the Technologies Differ

https://youtu.be/VkrJU5d2RfA

dargo
2015-04-03, 22:41:05
Wer behauptet den Unfug über den Eizo?
Das Internet, wie so oft. :redface:

transstilben
2015-04-04, 00:23:15
Dissecting G-Sync and FreeSync - How the Technologies Differ

https://youtu.be/VkrJU5d2RfA

Danke ! Sehr interessant.
Hab mir daraufhin gerade mal die Nvidia Gsync Demo gezogen
(http://www.nvidia.de/coolstuff/demos#!/g-sync).
Keine Ahnung ob der Link hier schon gepostet wurde.
Die Demo läuft jedenfalls auch wunderbar auf meiner AMD 7970 und mit meinem 60 Hz "Festfrequenz"-Monitor Dell 3007HC

Grestorn
2015-04-04, 00:26:41
Warum sollte sie auch nicht laufen? Darum geht es bei der Demo ja auch nicht.

Was Du aber sehen können solltest, ist dass es bei 60 fps und 60 Hz mit VSync sehr smooth aussieht. Sobald Du aber die 60 fps verlässt, wird's unrund - Jutter oder Tearing, je nachdem ob VSync an ist oder nicht.

transstilben
2015-04-04, 00:31:49
Wegen der System Requirements :

Display powered by NVIDIA® G-SYNC™
GPU: GeForce GTX 650 Ti Boost (or better)
OS: Microsoft Windows 7, 8, or 8.1
Driver: 331.82 (or newer)

Grestorn
2015-04-04, 00:32:33
Das sind die Anforderungen für GSync, nicht für die Demo. Die Demo zeigt nur, wie sich GSync auswirkt und läuft deswegen natürlich auch auf Hardware, die kein GSync oder Freesync unterstützt.

transstilben
2015-04-04, 01:50:09
Das sind die Anforderungen für GSync, nicht für die Demo. ...
Vielleicht einigen wir uns darauf, dass die Demo selbst nicht so genau weiß,
was sie voraussetzt. :freak:

blaidd
2015-04-04, 01:58:52
@PcPer-Review:

Da gibt es sicher kontroverse Ansichten. Gsync hat wohl im Low-Fps-Bereich Vorteile - und das muss ich natürlich auch noch ausprobieren. Aber ich sehe den Vorteil von Framesync eben bei hohen Fps. Ich hatte schon vorher 120- und 144-Hz-Displays aber holy shit, das ist mit Freesync eine so andere Erfahrung, dass sie einen 60-Fps-Gamer mit starkem Fokus auf BQ (vielleicht nicht ganz so stark wie Raff ;) - Dias sind ja vielleicht ganz nett, aber jeder weiß, dass ein Foto von einer Stripperin nie so gut aussehen kann, wie eine Stripperin in geschmeidiger Bewegung) fast sofort bekehren kann. Ich hab grad Titanfall gezockt... 1440p klappen selbst mit zusätzlichem HBAO+ mit deutlich(!) über 100 Fps und mit Sync ist das so flüssig wie heiße Butter auf Speed, die man eine 100-prozentige Schräge hinunterlaufen lässt - OMG ist das gut :)

Grestorn
2015-04-04, 09:25:16
Zunächst: Ich glaube ehrlich gesagt nicht, dass der GSync-Vorteil bei niedrigen Frameraten lange bestehen wird, denn warum sollte AMD das nicht über eine entsprechende Anpassung in ihrem Treiber nachbilden können?

(Auch wenn es diese gehässige Stimme in mir gibt, die den doofen AMD-Jüngern ein "Ich wusste es doch immer schon, ihr AMD..." entgegenschleudern möchte. "Sei still, Du deppertes nVidia-Fanteufelchen in mir! Kusch! Ab ins Eck mit Dir!")

Fakt ist aber auf jeden Fall, dass die Vorteile sowohl von GSync als auch von Freesync um so augenfälliger sind, je niedriger die Framerate ist. Wenn man sich im Bereich von über 100 fps / Hz bewegt, sieht das geübte Auge das zwar durchaus - eben da kein Tearing und kein Jutter vorhanden ist - aber unterhalb von 60 fps sieht es selbst der Blinde mit dem Krückstock :)

fondness
2015-04-04, 09:32:48
Wenn ich gerade auf das Display schaue und es ist nicht sichtbar dann stört mich das nicht. Aber sowas hier geht natürlich gar nicht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10576880&postcount=4102

Mir gings aber eher darum, was ist das kleinere Übel? Guter Schwarzwert + kein Freesync oder schlechter Schwarzwert + Freesync. Ich kann mich nicht entscheiden. :usad:

IMO ist IPS nach wie vor der beste Kompromiss wenn man auch spielen will. Gerade jetzt wo auch 144hz IPS Bildschirme kommen. TN ist für mich durch die Blickwinkel unbrauchbar, gerade wenn man auch Arbeiten will. Der Schwarzwert von VA ist nett, aber IMO mit zu vielen Kompromissen hinsichtlich Reaktionszeit/Schlieren verbunden. IPS ist relativ schnell und liefert trotzdem ein brauchbares Bild. Aber das hängt im Detail natürlich immer vom Monitor ab und ist Geschmackssache.

Fakt ist aber auf jeden Fall, dass die Vorteile sowohl von GSync als auch von Freesync um so augenfälliger sind, je niedriger die Framerate ist. Wenn man sich im Bereich von über 100 fps / Hz bewegt, sieht das geübte Auge das zwar durchaus - eben da kein Tearing und kein Jutter vorhanden ist - aber unterhalb von 60 fps sieht es selbst der Blinde mit dem Krückstock :)

Ist das nicht egal solange der Monitor mit 144hz refreshed?

akuji13
2015-04-04, 10:40:40
Das wirkt halt ruhiger... aber sind immer noch 30 Fps. Das ist eben höchstens so flüssig wie geschmolzener Käsen. ;)

Aber da sind wir schon wieder im persönlichen Bereich.

Natürlich sind 60fps besser als 30, aber auch die können je nach engine, Art des Spiels (Rollenspiel, Strategie) für user ausreichend sein.
Und dann sind 30fps@sync trotzdem besser als ohne.

Mir persönlich war G-Sync in der Hauptsache für die Problembereiche wichtig, also sehr fordernde Spiele/Situation oder drops.

Dieser hier soll aber angeblich brauchbar sein.
http://geizhals.at/de/eizo-foris-fg2421-schwarz-fg2421-bk-a1024965.html?hloc=at&hloc=de

Hätte ich das gewusst hätte ich dir meinen verkauft. :devil:

@topic

Meine Erfahrungen mit G-Sync sind sehr gut mit kleinen Einschränkungen.

Die Einschränkungen sind (bzw. waren?) das Spiele wie Wolfenstein nicht damit liefen und das es nicht nicht mit SLI/DSR gemeinsam lief.

Außerdem war der Unterschied je nach engine oder fps mehr oder weniger spürbar.

Titel wie "State of Decay" allerdings waren dann Paradebeispiele für die Technik.
Aus einer Ruckelorgie wurde ein ganz anderes Erlebnis.

Ich denke das Freesync in solchen Problemtiteln nicht hinten anstehen wird.

Grestorn
2015-04-04, 10:43:35
Ist das nicht egal solange der Monitor mit 144hz refreshed?

Bei einem 144 Hz Monitor sind die negativen Effekte weniger stark ausgeprägt, da man bei einem solchen Monitor mit VSync immerhin zwischen den Frameraten 24, 28.8, 36, 48 und 72 springen kann (vgl. mit 20, 30 und 60 bei einem 60 Hz Monitor). Aber es sind immer noch Sprünge und es gibt immer noch Judder deswegen.

Und das Bild zerreißt weiterhin genauso stark, wenn man VSync ausschaltet, auch bei einem 144 Hz Monitor, wenn die Frameraten niedrig sind.

aufkrawall
2015-04-04, 10:55:32
Da hat er recht.
144Hz als Wunderwaffe gegen Tearing klappt nur gut, so lange die fps hoch sind.
Bei Bereichen wie ~30fps gibts auch wieder deutlich wahrnehmbares Tearing und so Sachen wie flackernde Lichtquellen etc. sind weiterhin höchst unangenehm.

Der persönliche 144hz-Hype hatte sich bei mir recht schnell durch die damals noch meist grottenschlechte TN-Farbdarstellung gelegt. Immerhin hat TN da zugelegt.

Ist dann jetzt mit jeglichem G-Sync-Monitor das Flackern unterhalb von 40Hz per Treiber gefixt?
Ausgenommen natürlich 0fps.

Troyan
2015-04-04, 11:03:40
Das Flackern tritt nur auf, wenn man Stalls hat - Ladebildschirm etc.
Im Spiel bemerkt man es nicht, da der Monitor nach einer bestimmten Schwelle erneuert wird.

akuji13
2015-04-04, 11:21:06
Bei Bereichen wie ~30fps gibts auch wieder deutlich wahrnehmbares Tearing und so Sachen wie flackernde Lichtquellen etc. sind weiterhin höchst unangenehm.

Oh ja, z. B. in Watch Dogs wenn es Gewitter bzw. Blitze gibt.

PHuV
2015-04-04, 11:21:07
DIst dann jetzt mit jeglichem G-Sync-Monitor das Flackern unterhalb von 40Hz per Treiber gefixt?
Ausgenommen natürlich 0fps.
Echt jetzt? :eek: Ist mir bisher noch gar nicht aufgefallen.

aufkrawall
2015-04-04, 11:27:04
Wird etwa in dem Test behauptet:
http://www.digitaltrends.com/monitor-reviews/acer-xb280hk-review/

akuji13
2015-04-04, 11:27:06
@PHuV

Wenn du das Flimmern vom Philips (unterhalb 100% Helligkeit) auch nicht siehst bist du davon eh nicht betroffen. :wink:

PHuV
2015-04-04, 13:16:58
Der Philips flimmert? :eek::eek:

Leute, Ihr macht mich echt fertig.

EPIC_FAIL
2015-04-04, 13:32:52
Der Philips flimmert? :eek::eek:

Leute, Ihr macht mich echt fertig.

Sieht man ja im Prad Test. So grob 240Hz waren das auf 140cd. Das ist schon niedrig. Hatte mal nen Moni mit ähnlicher Frequenz, da musste ich mir dann doch die Augen rausreissen, äh das Teil zurückschicken :freak:

akuji13
2015-04-04, 13:46:35
@PHuV

http://www.tftcentral.co.uk/reviews/content/philips_bdm4065uc.htm#panel
http://www.prad.de/new/monitore/test/2015/test-philips-bdm4065uc-teil8.html

Wenn du bislang nix bemerkt hast ist alles gut. :wink:
Ich konnte beim Swift teilweise Flimern sehen durch G-Sync, gestört hats mich aber ebenso wenig wie beim Philips.

Da bin ich zum Glück nicht so empfindlich.

Grestorn
2015-04-04, 16:23:59
Ich kann Flimmern grundsätzlich beim Swift nur bei Standbildern sehen. Sonst nie.

PHuV
2015-04-04, 20:31:16
@PHuV
Wenn du bislang nix bemerkt hast ist alles gut. :wink:
Ich konnte beim Swift teilweise Flimern sehen durch G-Sync, gestört hats mich aber ebenso wenig wie beim Philips.
Ich saß jahrelang vor einem Commodore 1084 (für Jüngere, daß war ein Monitor für den Amiga 1000, mit 50 Hz). Das hat wohl meine Augen dafür endgültig ruiniert.

blaidd
2015-04-05, 14:43:01
Also, ich hab jetzt noch mal ausgiebig mit Far Cry 4 und Metro 2033 Redux (aber auch ein paar anderen Spielen, teils mit in bestimmten Bereichen festgelegter Framerate) herumgespielt. In FC4 und Metro liegend die Bildraten in 1440p die meiste Zeit bei rund 55 Fps (Metro kann tatsächlich nicht mehr als 60), aber auch mal darunter, hin und wieder fallen sie auch mal kurz unter 40. dann funktioniert Freesync nicht mehr, das ist dann ziemlich irritierend - das wäre wohl ein Vorteil für G-Sync. In FC4 klettern sie auch schon mal auf rund 90.

Freesync bringt schon einen sehr deutlichen Vorteil. :up: (auch im mikroruckelnden Far Cry 4). Der Unterschied ist besonders krass, wenn man sich erst mal an die ruhige Bildausgabe durch Framesync gewöhnt hat. Das war ich anfangs natürlich nicht, aber jetzt hab ich bestimmt 8 Stunden am Stück mit Freesync gespielt und es dann nochmal im Wechsel betrachtet...

~45 Fps ohne Freesync sind jetzt praktisch nicht mehr auszuhalten, unfassbar wie unsauber das Bild wirkt. Ich hab mir wohl grad die Augen "verdorben"... - So ähnlich wie nach der Geschichte mit der GTX 970, die mich dazu gebracht hat, mir die Bildausgabe genauer anzusehen und mich jetzt fast überall Microstuttering sehen lässt. :freak:

Die Frameraten sind aber wie gesagt immer noch ein kritischer Faktor, ich kann zwischen 40 und 60 Fps jeden 5-Schritt (45-50, 55, 60) auch mit Freesync deutlich spüren. Ich könnte schwören, sogar deutlicher als vorher, weil andere Faktoren wie Tearing wegfallen. Erst ab 60 finde ich das Bild wirklich okay. Vorher sieht man bei ruhigen gleichmäßigen Bewegungen mit der Maus die Sprünge zwischen den einzelnen Bilder zu deutlich (da liegen ja auch mit Freesync noch 17+ ms dazwischen, das kann man in Bewegung schon recht deutlich sehen)

Das hat natürlich auch mit FC4 und dem Microstuttering zu tun, aber Framerate bleibt immer noch Framerate, auch mit Freesync. 60, 75, 90 lassen sich ohne Zweifel unterscheiden und auch 90, 120, 144 machen noch einen Unterschied, obwohl's da oben langsam ziemlich subtil wird. So richtig angenehm empfinde ich jetzt Bildraten um die 90 Fps - zumindest in Shootern. Und Assetto Corsa - das profitiert auch deutlich von höheren Fps, der Unterschied ist am Streckenrand bei hohen Geschwindigkeiten für mich offensichtlich und die Eingabe außerdem wesentlich direkter.

Wie gesagt, ich kann natürlich nur für mich sprechen aber ich will jetzt tendenziell eher noch höhere Bildraten - aber ich bin da wahrscheinlich mittlerweile auch ein ziemliches Sensibelchen :wink:. Ich probier jetzt mal mit ein paar anderen Spielen mit Third-Person-Perspektive rum, auch mal was vom Spieltempo eher lahmarschiges wie Life is Strange.

aufkrawall
2015-04-05, 14:48:42
Kannst ja mal Garden Warfare anschmeißen, das hat quasi perfekte Frametimes.
Wenn bei Gärten und Friedhöfe in den Gärten die Hölle los ist, können die fps zudem auch noch stark einbrechen.
Über die Config lassen sich übrigens auch MSAA & DS nutzen.

blaidd
2015-04-05, 14:56:25
Kannst ja mal Garden Warfare anschmeißen, das hat quasi perfekte Frametimes.
Wenn bei Gärten und Friedhöfe in den Gärten die Hölle los ist, können die fps zudem auch noch stark einbrechen.
Über die Config lassen sich übrigens auch MSAA & DS nutzen.

Das klappt jetzt? Nice. Ja, probiere ich mal, obwohl ich denke, dass da hohe Fps wegen der flotten Mauseingabe auch relativ deutlich zu spüren sein werden und ich wahrscheinlich wieder zum gleichen Schluss komme. Bei der Frostbite kann man außerdem netterweise die Fps mit GameTime.MaxFps On-the-Fly genau festlegen, das erleichtert Herumprobieren mit bestimmten Frameraten.

Ich werd's mir auch mal ein bisschen schwer machen und mir Dragon Age und The Witcher 2 anschauen und das Ganze mal mit dem Gamepad ausprobieren - mal sehen, ob dann hohe Fps immer noch so deutlich zu spüren sind :devil:

aufkrawall
2015-04-05, 15:09:52
Echtzeit-Konsole gibts immer noch nicht.
Du musst alles per user.cfg einrichten. Der Befehl für DS/US war render.resolutionscale x.xx.

horn 12
2015-04-05, 17:17:31
Hoffe der NEUE ASUS mit Freesync bringt Besserung,- soll wohl unter 40 fps auch funktionieren
ACER ist halt die "Billig-Marke"

aufkrawall
2015-04-05, 17:42:22
AMD muss automatische Refreshratenvervielfältigung per Treiber einführen, was hat das mit dem verwendeten Monitor zu tun?

Kartenlehrling
2015-04-05, 18:16:37
AMD muss automatische Refreshratenvervielfältigung per Treiber einführen,...

Das ist leider dann immer noch nicht das Heilmittel,
es müsste zusätzlich zur Verdoppelung ein ULMB aktivert werden, damit die Schlieren 100% weg sind.

Es gibt eine tolle White Paper von 240 Motion von Eizo. (http://gaming.eizo.com/wp-content/uploads/file/turbo240_whitepaper.pdf)

fondness
2015-04-05, 18:25:22
AMD muss automatische Refreshratenvervielfältigung per Treiber einführen, was hat das mit dem verwendeten Monitor zu tun?

Wenn es einen Monitor geben würde der bis 20Hz runter syncen kann wäre mir das auch schon egal.

Kartenlehrling
2015-04-05, 18:43:57
Hier das passende Testprogram für MotionBlur.

http://www.eizo.de/support/kompetenz-center/tipps-tools/motion-blur-checker.html
Testsoftware für Motion Blur – Bewegungsunschärfe sichtbar gemacht

Sunrise
2015-04-05, 19:09:01
Wenn es einen Monitor geben würde der bis 20Hz runter syncen kann wäre mir das auch schon egal.
Die neuen Eizo CGs gehen bis 22,5Hz runter und das mit einem IPS-Panel. Allerdings ist das für den typischen Spieler nicht bezahlbar und generell auch vom Inputlag nicht unbedingt für Gaming tauglich.

So sind 30Hz als unterste Grenze schon Luxus, 24Hz wären dann perfekt.

aufkrawall
2015-04-05, 19:26:05
Gar keine Grenze wäre perfekt. Ich will nicht bei irgendeinem Einbruch oder Hakler auf einmal wieder Tearing sehen müssen, wenn sich das auch mit etwas Mühe seitens AMD vermeiden ließe.

Sunrise
2015-04-05, 19:54:39
Gar keine Grenze wäre perfekt. Ich will nicht bei irgendeinem Einbruch oder Hakler auf einmal wieder Tearing sehen müssen, wenn sich das auch mit etwas Mühe seitens AMD vermeiden ließe.
Es geht ja erstmal nur um die Grenze für den Refresh der Monitore. Alle Tricks die du dann noch zusätzlich per Treiber unter der Grenze anwenden kannst (siehe G-Sync) habe ich da garnicht berücksichtigt.

Natürlich muss auch alles unter der minimalen VRR dann entsprechend abgefangen werden. NV löst das eben mit einer Vervielfachung. Das kann AMD aber ebenso tun, wenn sie wollen.

Aber ganz gleich, wie es gelöst wird und ob man da theoretisch dann noch weiter runter könnte, alles unter 20Hz ist eigentlich nicht wirklich sinnvoll, das ist nicht spielbar. Native 24Hz auf meinem Eizo CG empfinde ich schon als absolut unspielbar. Ich bin aufgrund dieser extrem schwammigen Maus dann auch eher dazu geneigt, 24Hz garnicht erst zu aktivieren und baue mir dann einfach ein Vielfaches davon im NV-Panel. Daher ist die Lösung von NV auch eigentlich ziemlich genial, da hat man sich definitiv am Wissen aus anderen Bereichen bedient.

aufkrawall
2015-04-05, 19:59:37
Es gibt offenbar keinen Grund, das nicht zu wollen, weshalb das Fehlen kritisiert werden muss.
Wie das Endergebnis zustande kommt, ist doch erstmal nebensächlich.

fondness
2015-04-05, 20:03:17
Wie ist das eigentlich mit dem vervielfachen, das muss ja zu extremen Sprüngen der Refreshrate in kurzer Zeit führen wenn da umgeschaltet wird zB von verdoppelt auf verdreifachen der fps und wieder zurück. Wie gut sieht das in der Praxis dann aus? Auf jeden Fall wäre eine niedrigere Grenze in jemand Fall vorzuziehen.

Sunrise
2015-04-05, 20:19:19
Wie ist das eigentlich mit dem vervielfachen, das muss ja zu extremen Sprüngen der Refreshrate in kurzer Zeit führen wenn da umgeschaltet wird zB von verdoppelt auf verdreifachen der fps und wieder zurück. Wie gut sieht das in der Praxis dann aus? Auf jeden Fall wäre eine niedrigere Grenze in jemand Fall vorzuziehen.
Vereinfacht ausgedrückt:
Du sieht zwar mehr fps (bzw. Hz, da ja Sync), aber tatsächlich merkst du diese extreme Schwammigkeit immernoch. Insofern wirst du beim Umschalten von Vielfachen da mit Sicherheit starke Auswirkungen am Spielgefühl spüren. Aber nicht aufgrund der Vervielfachung selbst, die sollte nicht wirklich sichtbar sein (man bleibt ja immer am oder über dem minimalen Refresh vom Monitor kleben (der auch ohne A-Sync keine Artefakte produzieren sollte), sondern eher aufgrund der immer niedriger werdenden nativen fps.

Der wirklich einzige Vorteil ist, dass die Vervielfachung keine zusätzlichen sichtbaren Artefakte verursachen sollte, weiterhin aber alle Vorteile vom Sync mit dem Monitor hat. Zumindest dann, wenn es ohne Nebeneffekte implementiert ist.

Das kann aktuell bestimmt auch jeder G-Sync-Benutzer bestätigen.

Kartenlehrling
2015-04-05, 20:57:59
Am einfachsten wär es wenn Assasine Creed Unity 2k-noAA mit einer gtx970 >60fps hätte.

dargo
2015-04-05, 21:13:29
Vereinfacht ausgedrückt:
Du sieht zwar mehr fps (bzw. Hz, da ja Sync), aber tatsächlich merkst du diese extreme Schwammigkeit immernoch. Insofern wirst du beim Umschalten von Vielfachen da mit Sicherheit starke Auswirkungen am Spielgefühl spüren. Aber nicht aufgrund der Vervielfachung selbst, die sollte nicht wirklich sichtbar sein (man bleibt ja immer am oder über dem minimalen Refresh vom Monitor kleben (der auch ohne A-Sync keine Artefakte produzieren sollte), sondern eher aufgrund der immer niedriger werdenden nativen fps.

Der wirklich einzige Vorteil ist, dass die Vervielfachung keine zusätzlichen sichtbaren Artefakte verursachen sollte, weiterhin aber alle Vorteile vom Sync mit dem Monitor hat. Zumindest dann, wenn es ohne Nebeneffekte implementiert ist.

Das kann aktuell bestimmt auch jeder G-Sync-Benutzer bestätigen.
Ich kapiere das mit der Vervielfachung ehrlich gesagt immer noch nicht. Wenn ich in Bewegung das gleiche Bild 2x sehe dann führt das doch zwangsläufig zum sichtbaren Stuttering oder habe ich gerade einen Denkfehler?

Pumpi74
2015-04-06, 05:58:54
Die neuen Eizo CGs gehen bis 22,5Hz runter und das mit einem IPS-Panel. Allerdings ist das für den typischen Spieler nicht bezahlbar und generell auch vom Inputlag nicht unbedingt für Gaming tauglich.

So sind 30Hz als unterste Grenze schon Luxus, 24Hz wären dann perfekt.

Laut Datenblatt geht der neue, sehr bezahlbare ASUS PB258Q, von 23-80hz. Da wäre er mit seinen 25" @ 1440p und AH-IPS eigentlich ein super A-Sync Monitor.

http://www.asus.com/Monitors_Projectors/PB258Q/specifications/

Grestorn
2015-04-06, 07:43:30
Wie ist das eigentlich mit dem vervielfachen, das muss ja zu extremen Sprüngen der Refreshrate in kurzer Zeit führen wenn da umgeschaltet wird zB von verdoppelt auf verdreifachen der fps und wieder zurück. Wie gut sieht das in der Praxis dann aus? Auf jeden Fall wäre eine niedrigere Grenze in jemand Fall vorzuziehen.

Man merkt es nicht, was auch logisch ist. Schau Dir das PCPer Video an, dort wird es genau erklärt.

Ich kapiere das mit der Vervielfachung ehrlich gesagt immer noch nicht. Wenn ich in Bewegung das gleiche Bild 2x sehe dann führt das doch zwangsläufig zum sichtbaren Stuttering oder habe ich gerade einen Denkfehler?

Ja, hast Du.

Beispiel: Angenommen die Verdoppelung passiert bei 30 fps.

Das Spiel liefert gerade 31 fps. Die werden also 1:1 wiedergegeben. Jetzt fällt die Framerate auf 29 fps. Das GSync Modul verdoppelt also jedes Frame, verdoppelt aber auch die Framerate. D.h. es werden jetzt 58 Frames pro Sekunde ausgegeben, von denen aber jeweils 2 den exakt gleichen Inhalt haben. Optisch siehst Du jetzt also 29 unterschiedliche Frames pro Sekunde, technisch werden aber 58 Frames an das Panel weitergegeben.

Der Übergang ist völlig unsichtbar für das Auge.

dargo
2015-04-06, 08:33:24
Beispiel: Angenommen die Verdoppelung passiert bei 30 fps.

Das Spiel liefert gerade 31 fps. Die werden also 1:1 wiedergegeben. Jetzt fällt die Framerate auf 29 fps. Das GSync Modul verdoppelt also jedes Frame, verdoppelt aber auch die Framerate. D.h. es werden jetzt 58 Frames pro Sekunde ausgegeben, von denen aber jeweils 2 den exakt gleichen Inhalt haben. Optisch siehst Du jetzt also 29 unterschiedliche Frames pro Sekunde, technisch werden aber 58 Frames an das Panel weitergegeben.

Der Übergang ist völlig unsichtbar für das Auge.
Bist du dir da ganz sicher? Oder nur für manche Augen? Die Wahrnehmung was flüssig bedeutet ist schließlich sehr unterschiedlich ausgeprägt.

Laut Datenblatt geht der neue, sehr bezahlbare ASUS PB258Q, von 23-80hz. Da wäre er mit seinen 25" @ 1440p und AH-IPS eigentlich ein super A-Sync Monitor.

http://www.asus.com/Monitors_Projectors/PB258Q/specifications/
Der wäre wirklich fein mit Freesync. Schöne Größe für 1440p. =)

Grestorn
2015-04-06, 08:41:15
Bist du dir da ganz sicher? Oder nur für manche Augen? Die Wahrnehmung was flüssig bedeutet ist schließlich sehr unterschiedlich ausgeprägt.


Anders gefragt: WARUM sollte man das wahrnehmen können? Was ist der optisch sichtbare Unterschied zwischen 1 Bild mit 33ms Standzeit oder 2 völlig identischen Bildern mit je 16 ms Standzeit?

Nur wenn das Panel selbst hier einen Unterschied macht (z.B. heller ist wenn öfter refreshed wird) kann das überhaupt sichtbar werden. Und um so etwas zu vermeiden werden ja überhaupt nur die zusätzlichen Bilder eingefügt.

PatkIllA
2015-04-06, 09:13:58
Anders gefragt: WARUM sollte man das wahrnehmen können? Was ist der optisch sichtbare Unterschied zwischen 1 Bild mit 33ms Standzeit oder 2 völlig identischen Bildern mit je 16 ms Standzeit?Wenn man konstant bei 29 bleibt wäre es nicht das Problem. Aber wenn man ab und zu mal unter das Minium des Monitors fällt, dann hat man doch wieder unterschiedliche Frametimes => Microruckeln.

Je nach Spiel würde ich bei im Schnitt 50 bis 60 fps überlegen noch Details/AA zuzuschalten und da fällt man gelegentlich auch mal auf unter 40 fps. Das Problem ist der Übergang zwischen genug Frames und Frameverdoppelung.

Laut Datenblatt geht der neue, sehr bezahlbare ASUS PB258Q, von 23-80hz. Da wäre er mit seinen 25" @ 1440p und AH-IPS eigentlich ein super A-Sync Monitor. Diese Angaben sind meist nur was der Monitor annimmt. Viele laufen intern stumpf mit 60Hz. Andere verdoppeln bei z.B. 23/30 Hz weil das Panel selbst damit nicht zurecht kommt.

Grestorn
2015-04-06, 09:19:12
Wenn man konstant bei 29 bleibt wäre es nicht das Problem. Aber wenn man ab und zu mal unter das Minium des Monitors fällt, dann hat man doch wieder unterschiedliche Frametimes => Microruckeln.

Warum genau? Versuch das mal anhand eines Beispiels zu demonstrieren. Am besten mit Zeitachse, wann genau ein Bild gerendert und wann es dargestellt wird.

dargo
2015-04-06, 09:26:03
@Grestorn

Ich muss dein Beispiel oben mit den 29fps nochmal aufgreifen. Du meinst also es passiert genau das selbe wie bei einem 60Hz Bildschirm ohne G-Sync/Freesync und 30fps? Sprich, es werden zwei gleiche Frames wiedergegeben? Das stuttert doch ständig im gleichen Rhythmus. Gerade mit GRID Autosport @lowest Details mit 30 und 60fps im Vergleich probiert. Dafür reicht noch die HD6450 aus. :biggrin:

Grestorn
2015-04-06, 09:31:03
Naja, es stuttert halt so, wie 30 fps nun mal grundsätzlich stuttern. Wie sonst sollte es denn stuttern?

Nochmal, es gibt keinen optischen Unterschied zwischen 30 diskreten Frames pro Sekunde und 30 x je zwei gleichen Frames pro Sekunde. Ich weiß gar nicht, wie Du darauf kommst, dass sich in irgendeiner Weise unterscheiden könnte? Das optische Ergebnis ist zu 100% identisch.

dargo
2015-04-06, 09:38:31
Naja, es stuttert halt so, wie 30 fps nun mal grundsätzlich stuttern. Wie sonst sollte es denn stuttern?

Mir gehts nur darum, dass diese Vervielfachung der Frames von G-Sync unter 30fps für mich persönlich Null Mehrwert hat da die Renderframes bereits viel zu weit unten für mein Empfinden von flüssig sind. Gerade eben auch mal 25fps @50Hz probiert, einfach nur eklig. Dagegen wirken 50fps @50Hz wie ein Segen.

PatkIllA
2015-04-06, 09:46:11
Warum genau? Versuch das mal anhand eines Beispiels zu demonstrieren. Am besten mit Zeitachse, wann genau ein Bild gerendert und wann es dargestellt wird.

Um mal bei dem Beispiel mit 30 Hz zu bleiben. Wechsel zwischen 33 und 34 ms Rendertime.

Frame 1 mit 33 ms wird einmal angezeigt => 33 ms
Frame 2 mit 34 ms wird zweimal angezeigt => 68 ms (da bin ich mir gerade nicht sicher, aber es ist auf jeden Fall mindestens 2/minimum refresh)
Frame 3 mit 33 ms wird einmal angezeigt => 33 ms

Müsste man mal genau mit Zeitachse aufzeichnen, aber IMO bist du da eher in der Pflicht, warum das nicht ruckeln sollte, wenn ein Bild doppelt so lange angezeigt wird wie das Bild vorher/nachher.

Bei konstant unter 30 fps bin ich bei dir. Das sollte ohne extra Ruckler laufen, wenn einfach jedes Frame verdoppelt wird.

Es ist ja auch nicht so, dass der Monitor das Verdoppeln abbricht, um direkt das neue anzuzeigen, wenn es fertig ist. Oder doch?

Schickt die Grafikkarte eigentlich aktiv ein Signal, dass das letzte Bild verdoppelt werden muss oder schickt sie selbsständig das gleiche Bild nochmal? Oder macht die Karte einfach gar nichts und der Monitor muss das erkennen?

Mir gehts nur darum, dass diese Vervielfachung der Frames von G-Sync unter 30fps für mich persönlich Null Mehrwert hat da die Renderframes bereits viel zu weit unten für mein Empfinden von flüssig sind. Gerade eben auch mal 25fps @50Hz probiert, einfach nur eklig. Dagegen wirken 50fps @50Hz wie ein Segen.Mit zeitweise unter 40 fps konnte ich ohne ASync Monitor bisher meistens leben. Da wäre es dann doof wenn man durch den Wechsel immer mal wieder Microruckeln hat.
Ich kann auch ziemlich zuverlässig in wenigen Minuten erkennen, wenn ich einen der wenigen 24,00fps Filme mit meiner üblichen 23,976 Hz Ausgabe anschaue. (wo es einen einzigen Microruckler alle 40 Sekunden gibt)
Mittlerweile schaue ich das meiste mit madVR Smooth Motion auf 60 Hz.

Grestorn
2015-04-06, 10:04:51
Mir gehts nur darum, dass diese Vervielfachung der Frames von G-Sync unter 30fps für mich persönlich Null Mehrwert hat da die Renderframes bereits viel zu weit unten für mein Empfinden von flüssig sind. Gerade eben auch mal 25fps @50Hz probiert, einfach nur eklig. Dagegen wirken 50fps @50Hz wie ein Segen.

Natürlich sind 50 fps besser als 25. Welch Überraschung... :)

Das Thema ist aber, was passiert, wenn die Framerate mal unter 45 fps fällt (oder wo die Grenze bei dem jeweiligen Monitor liegt). Bei Freesync springt das Bild dann und man bekommt unterhalb dieser Grenze zusätzlich zu dem sichtbaren, gleichmäßigen Ruckeln auf Grund der niedrigen Framerate noch obendrein ein unregelmäßiges Judder. Das entfällt bei GSync. Sprich: Unterhalb dieser magischen Grenze ist Freesync sogar schlechter als die selbe Framerate auf einem 60 Hz Monitor.

Das heißt ja nicht, dass man es mag, permanent mit weniger als 45 fps zu spielen. Aber es kommt halt schon vor, bei fast jeden Spiel.

Und so lange AMD da ihren Treiber nicht verbessert halte ich das schon für einen massiven Nachteil von Freesync.

dargo
2015-04-06, 10:13:22
Tjo... mir ist es wiederum egal. Die min. 40Hz von den meisten Freesync Bildschirmen reichen mir völlig aus. Die unterschreite ich eh zu 99% nicht. Sollte es mal vorkommen wird halt das eine oder andere Detail leicht reduziert und gut ist. Oder es muss halt irgendwann eine schnellere Graka her. :)

Edit:

Das Thema ist aber, was passiert, wenn die Framerate mal unter 45 fps fällt (oder wo die Grenze bei dem jeweiligen Monitor liegt). Bei Freesync springt das Bild dann und man bekommt unterhalb dieser Grenze zusätzlich zu dem sichtbaren, gleichmäßigen Ruckeln auf Grund der niedrigen Framerate noch obendrein ein unregelmäßiges Judder. Das entfällt bei GSync. Sprich: Unterhalb dieser magischen Grenze ist Freesync sogar schlechter als die selbe Framerate auf einem 60 Hz Monitor.

Das verstehe ich allerdings nicht ganz. Wieso sollte es unter 40Hz schlechter sein wenn Freesync dann automatisch deaktiviert ist und das stinknormale Vsync Off greift? Da dürfte es dann eigentlich gar keinen Unterschied geben.

Grestorn
2015-04-06, 10:18:55
Um mal bei dem Beispiel mit 30 Hz zu bleiben. Wechsel zwischen 33 und 34 ms Rendertime.

Frame 1 mit 33 ms wird einmal angezeigt => 33 ms
Frame 2 mit 34 ms wird zweimal angezeigt => 68 ms (da bin ich mir gerade nicht sicher, aber es ist auf jeden Fall mindestens 2/minimum refresh)
Frame 3 mit 33 ms wird einmal angezeigt => 33 ms

Na, so ist es ja nicht.

Lassen wir die Frames mal durchnumeriert von 1-9:

32 fps:
1-----2-----3-----4-----5-----6-----7-----8-----9

jetzt fällt die Rate leicht auf unter 30 fps:

1--1--2--2--3--3--4--4--5--5--6--6--7--7--8--8--9--9

Jetzt schauen wir mal an, was passiert, wenn das GSync eigentlich von 32fps ausgeht, ein Frame aber zu lange auf sich warten lässt, und er Frame 1 deswegen nochmal einfühgen muss. Gleich darauf kommt dann aber doch das nächste Bild:

1------1-2--2---3--3--4--4-5--5--6--6-7-7-8-8-9----10----11

Es gibt dadurch vielleicht einmal eine mininale Verzögerung, weil Bild 2 evtl. erst 7 ms später angezeigt wird, wie es möglich gewesen wäre, wenn man Bild 1 nicht hätte verdoppeln müssen. Danach ist GSync aber im "2 Wiederholungen / Frame" Modus und kann das dann wieder frei floaten, in dem er die Abstände verkleinert oder vergrößert, wie benötigt. Durch die Hysterese wird er erst wieder dann auf 1 Wiederholung zurückschalten, wenn die Framerate deutlich über der Grenze liegt, also z.B. bei 38 fps.

De fakto merkt man den Übergang überhaupt nicht. Das ganze wirkt optisch so, als gäbe es keine Untergrenze.

Es ist ja auch nicht so, dass der Monitor das Verdoppeln abbricht, um direkt das neue anzuzeigen, wenn es fertig ist. Oder doch?

Er zeigt ein neues Bild spätestens 7 ms (1 /144s) nachdem es verfügbar ist, an. Mehr Verzögerung gibt es nicht, warum sollte es die geben? GSync muss ja auf nichts warten.

Schickt die Grafikkarte eigentlich aktiv ein Signal, dass das letzte Bild verdoppelt werden muss oder schickt sie selbsständig das gleiche Bild nochmal? Oder macht die Karte einfach gar nichts und der Monitor muss das erkennen?

Man geht davon aus, dass das Verdoppeln das GSync Modul im Monitor selbst macht. Nachgewiesen hat das keiner, es ist aber technisch mehr als sinnvoll.

Bei Freesync müsste es wohl so gelöst werden, dass der Treiber das Bild tatsächlich zweimal schickt. Das dürfte im Endergebnis aber auf absolut das gleiche Ergebnis hinauslaufen.

Grestorn
2015-04-06, 10:20:57
Das verstehe ich allerdings nicht ganz. Wieso sollte es unter 40Hz schlechter sein wenn Freesync dann automatisch deaktiviert ist und das stinknormale Vsync Off greift? Da dürfte es dann eigentlich gar keinen Unterschied geben.

Bei VSync off hat man halt Tearing. Und das bei nur 40 Hz. Entsprechend heftig sind die Risse (sprich, das Delta zwischen zwei Frames ist sehr groß, entsprechend heftig wirkt der Riss).

Ich finde es bemerkenswert, dass Du 40 fps nie unterschreitest. Das passiert mir ständig. Z.B. bei DA:I, das ich derzeit ohne SLI betreiben muss (da kaputter Nebel mit SLI).

dargo
2015-04-06, 10:27:01
Na, so ist es ja nicht.

Lassen wir die Frames mal durchnumeriert von 1-9:

32 fps:
1-----2-----3-----4-----5-----6-----7-----8-----9

jetzt fällt die Rate leicht auf unter 30 fps:

1--1--2--2--3--3--4--4--5--5--6--6--7--7--8--8--9--9

Jetzt schauen wir mal an, was passiert, wenn das GSync eigentlich von 32fps ausgeht, ein Frame aber zu lange auf sich warten lässt, und er Frame 1 deswegen nochmal einfühgen muss. Gleich darauf kommt dann aber doch das nächste Bild:

1------1-2--2---3--3--4--4-5--5--6--6-7-7-8-8-9----10----11

Es gibt dadurch vielleicht einmal eine mininale Verzögerung, weil Bild 2 evtl. erst 7 ms später angezeigt wird, wie es möglich gewesen wäre, wenn man Bild 1 nicht hätte verdoppeln müssen. Danach ist GSync aber im "2 Wiederholungen / Frame" Modus und kann das dann wieder frei floaten, in dem er die Abstände verkleinert oder vergrößert, wie benötigt. Durch die Hysterese wird er erst wieder dann auf 1 Wiederholung zurückschalten, wenn die Framerate deutlich über der Grenze liegt, also z.B. bei 38 fps.

De fakto merkt man den Übergang überhaupt nicht. Das ganze wirkt optisch so, als gäbe es keine Untergrenze.

Also wenn ich mir deine Zahlenreihenfolge so anschaue dann muss ich gleich an die Nachteile von AFR denken. Jede Verzögerung Ungleichmäßigkeit in der Bildabfolge führt zwangsläufig zum Stuttering. Ob man dieses Stuttering dann wahrnimmt ist wieder eine andere Geschichte. Das ist wie schon gesagt bei jedem etwas anders ausgeprägt was die Wahrnehmung angeht.

PatkIllA
2015-04-06, 10:30:32
Er zeigt ein neues Bild spätestens 7 ms (1 /144s) nachdem es verfügbar ist, an. Mehr Verzögerung gibt es nicht, warum sollte es die geben? GSync muss ja auf nichts warten. Stimmt
Da ist ja eher das maximale Refresh des Panels ausschlaggebend.
Außerhalb von den schnellen GSync Monitoren ist man aber meist noch auf 60 Hz begrenzt. Dann sind es schon 16 ms vs fast nichts. Könnte man immer noch merken.

Gibt es Details zu der Hysterese? Das ist doch schon sehr von der konkreten Umsetzung abhängig.

dargo
2015-04-06, 10:32:00
Bei VSync off hat man halt Tearing. Und das bei nur 40 Hz. Entsprechend heftig sind die Risse (sprich, das Delta zwischen zwei Frames ist sehr groß, entsprechend heftig wirkt der Riss).
Darum ging es doch gar nicht. Du sagtest vorhin bei Unterschreiten der min. Frequenz bei Freesync hätte ich größere Nachteile als auf einem 60Hz Bildschirm ohne Freesync. Das ergibt für mich keinen Sinn, oder ich habe dich falsch verstanden.


Ich finde es bemerkenswert, dass Du 40 fps nie unterschreitest. Das passiert mir ständig. Z.B. bei DA:I, das ich derzeit ohne SLI betreiben muss (da kaputter Nebel mit SLI).
Ich bin aus gutem Grund noch bei 1080p. ;) Zudem fahre ich nicht in jedem Game max. Details. Es gibt immer wieder mal Spiele die bei dem einen oder anderen Detail kaum besser aussehen, die Kosten aber sehr hoch sind. Der Kosten/Nutzen Faktor also ziemlich schlecht ist. Der nächste Schritt wäre 1440p, dann aber erst mit ähnlicher Rohleistung der Titan X und/oder 390X.

Grestorn
2015-04-06, 10:52:57
Also wenn ich mir deine Zahlenreihenfolge so anschaue dann muss ich gleich an die Nachteile von AFR denken. Jede Verzögerung Ungleichmäßigkeit in der Bildabfolge führt zwangsläufig zum Stuttering. Ob man dieses Stuttering dann wahrnimmt ist wieder eine andere Geschichte. Das ist wie schon gesagt bei jedem etwas anders ausgeprägt was die Wahrnehmung angeht.

Die selbe Bildreihe ohne dass ich die verdopplten Bilder extra nochmal hinschreibe:

1--------2------3-----4----5-----6----7---8---9----10----11

So sieht es der Spieler - die Verdopplung ist ja nicht sichtbar.


Und bei AMD, wo es keine Verdoppelung sondern ein unteres Cap auf 40 fps gibt, sieht es dann so aus (bei VSync an)

1------1------2------3------5------5------7------9------10------11

Das soll besser sein?!

Freesync ohne VSync sieht dann ganz ähnlich aus, die das GSync Beispiel, nur eben mit Tearing.

Gibt es Details zu der Hysterese? Das ist doch schon sehr von der konkreten Umsetzung abhängig.

Nur was PCPer in dem Video ermittelt hat. Da sieht es so aus, dass beim Unterschreiten von etwa 34 fps verdoppelt wird und beim Überschreiten von 38 fps wieder auf einfache Frames zurückgeschaltet wird. Beim Swift.

robbitop
2015-04-06, 10:56:32
Das ist leider dann immer noch nicht das Heilmittel,
es müsste zusätzlich zur Verdoppelung ein ULMB aktivert werden, damit die Schlieren 100% weg sind.

Es gibt eine tolle White Paper von 240 Motion von Eizo. (http://gaming.eizo.com/wp-content/uploads/file/turbo240_whitepaper.pdf)
UMLB und dynamische Refreshraten gehen nach aktuellem Stand der Technik nicht. Heißt aber nicht, dass es technisch unmöglich ist.

dargo
2015-04-06, 11:06:33
Nur was PCPer in dem Video ermittelt hat. Da sieht es so aus, dass beim Unterschreiten von etwa 34 fps verdoppelt wird und beim Überschreiten von 38 fps wieder auf einfache Frames zurückgeschaltet wird. Beim Swift.
Nanu? Das würde bedeuten, dass G-Sync eine min. Frequenz von 38-39Hz hat und nicht wie immer behauptet 30Hz, zumindest beim Swift. Ich blick hier bald nicht mehr durch. :freak:

robbitop
2015-04-06, 11:20:19
Ich glaube, dass manche noch nicht ganz verstanden haben, dass der eigentliche Refreshdauer - also der Bildaufbau mit der maximalen Frequenz des Monitors passiert.

Egal welche Framerate anliegt. Die Dauer, bis das Frame fertig auf dem Bildschirm leuchtet ist 1/Refreshrate des Monitors.

Bei einem 144 Hz Montor also 1/144 sek. Also in etwa 7 ms. Das Bild wird dann so lange gehalten bis das nächste Bild gerendert werden soll - oder die maximale Dauer vergangen ist, an der das angezeigte Bild sich aus technischen Gründen abbaut.

Ein Frame kann beim Swift bspw zwischen 7 ms (1/144s) und 33 ms (1/30 s) angezeigt werden. Werden die 33 ms gerissen, wird das Bild neu gerefresht. Das dauert bei einem schnellen 144 Hz Panel aber nur 7 ms. Bei einem lahmen 60 Hz Panel hingegen weitere 16 ms.

Das gedoppelte Bild bei 29 fps wird also ca. 33 ms (maximale Anzeigedauer) + 7 ms (Refresh) angezeigt. Danach kann das nächste Frame kommen.

Das Panel an sich refresht immer mit nativer Refreshrate. Nur die Wartezeit zum nächsten Frame ist variabel.

Obiges Beispiel zeigt, dass eine hohe Refreshrate bei G-Sync Monitoren (und hoffentlich auch bei A-Sync) auch hilfreich unterhalb der minimalen Framerate ist.

Grestorn
2015-04-06, 11:42:31
Nanu? Das würde bedeuten, dass G-Sync eine min. Frequenz von 38-39Hz hat und nicht wie immer behauptet 30Hz, zumindest beim Swift. Ich blick hier bald nicht mehr durch. :freak:

Die minimale Frequenz hängt vom Panel ab, nicht von GSync. Für GSync wurde nie eine untere Grenze angegeben. Und durch die Verfielfachung der Frames ist die untere Grenze bei GSync de fakto 0. Es gibt keine untere Grenze, bei denen GSync aufhört, zu funktionieren oder bei der unnötige Verzögerungen hinzukämen.

Kartenlehrling
2015-04-06, 12:01:58
Flackert dein Bild nicht wenn du auf <20fps begrenzt, du hast ja ein Swift?

Grestorn
2015-04-06, 12:50:12
Nein, es flackert nicht. Das Flackern tritt genau nur in einer einzigen Situtation auf: Bei Standbildern.

P.S.: Was meinst Du mit "auf 20 fps begrenzt"? Meinst Du per Framelimiter auf 20 fps begrenzen? Ich teste mal zur Sicherheit ein Limit von 10 fps... :)

/edit: Nein, auch mit 10 fps kein Flackern.

akuji13
2015-04-06, 14:04:06
Es gibt keine untere Grenze, bei denen GSync aufhört, zu funktionieren oder bei der unnötige Verzögerungen hinzukämen.

http://www.computerbase.de/2013-12/nvidia-gsync-test/3/

/edit: Nein, auch mit 10 fps kein Flackern.

Ist das Flackern z. B. in Ladebildschirmen nun also behoben?

aufkrawall
2015-04-06, 14:37:31
Jetzt wär die Frage, ob 60Hz-Panels in dem niedrigen fps-Bereich ähnlich gut klarkommen wie 144Hz.
Könnte Sinn machen, das mal bei pcper anzufragen.

blaidd
2015-04-06, 14:42:24
Bei VSync off hat man halt Tearing. Und das bei nur 40 Hz. Entsprechend heftig sind die Risse (sprich, das Delta zwischen zwei Frames ist sehr groß, entsprechend heftig wirkt der Riss).

This. Das Problem ist eigentlich, dass es extrem auffällig ist, wenn Freesync dann plötzlich nicht mehr aktiv ist. Bei mir fallen die Fps in FC4 ab und an mal unter 40, beispielsweise bei der Außenszene der Arena (Namen vergessen). Da machen 40 vs 39 Fps einen gewaltigen Unterschied - ist echt heftig und das willst du wirklich nicht sehen. Da hat Gsync dann eventuell einen recht deutlichen Vorteil (kann's noch nicht bestimmt sagen, da ich's bislang nicht ausgiebig getestet hab) - Das dürfte aber "behebbar" sein.

Bzgl. Frameverdopplung: Ich weiß noch nicht so recht, was ich davon halten soll, prinzipiell ist das sicher besser als kein Sync, aber das dürfte sich das schon sehr schwammig anfühlen. Aber ich persönlich will ja Fps-technisch eh nicht so weit runter ;)

blaidd
2015-04-06, 14:48:24
EDIT: Ass. Zitieren statt Bearbeiten erwischt. Sorry für Doppelpost.

Jetzt wär die Frage, ob 60Hz-Panels in dem niedrigen fps-Bereich ähnlich gut klarkommen wie 144Hz.

Zumindest generalisiert, nein. 144-Hz-Displays sind auch im unteren Bereich flexibler. Das des Acer kann beispielsweise 60, 56, 50, 40 [F-Sync], 35, 29, 25 Hz. Das kann wohl kaum ein 60-Hz-Display. Und wenn ein 144-Hz-Display nicht wirklich soweit runter muss (wegen Frameverdopplung, o. Ä.) refresht es eventuell auch öfter - das ist schon angenehmer für's Auge.

aufkrawall
2015-04-06, 14:48:47
Es soll sich ja nicht schwammiger anfühlen als ohne Sync, eben weil das wiederholte Bild nur sehr kurz angezeigt wird.
Mikroruckler durch starkes Tearing werden klar die schlechtere Alternative sein.

blaidd
2015-04-06, 14:57:00
Es soll sich ja nicht schwammiger anfühlen als ohne Sync, eben weil das wiederholte Bild nur sehr kurz angezeigt wird.
Mikroruckler durch starkes Tearing werden klar die schlechtere Alternative sein.

Es fühlt sich einfach generell schwammig an, wenn nicht genügend Fps dargestellt werden - das versuche ich doch die ganze Zeit zu kommunizieren...

Mit einer Frameverdopplung würde aber eine Art Mikroruckler entstehen, bzw. eine Latenz, jedenfalls nach meinem Verständnis. Du bewegst die Maus zwischen zwei Frames (die wegen der Verdopplung die gleichen sind) und nix passiert. Und im Low-Fps-Bereich sind das vielleicht 30-50 ms. Das merken Sensibelchen wie ich ;) Aber Tearing würd noch mehr nerven, keine Frage. Ich will aber wenn's geht gar nicht in diesen Bereich, dass ist eh vom Spielgefühl höchst grenzwertig - manchmal passiert's aber eben doch, also dürfte eine Frameverdopplung schon sehr positiv zu sehen sein - also her damit, AMD.

Grestorn
2015-04-06, 15:00:56
http://www.computerbase.de/2013-12/nvidia-gsync-test/3/

ComputerBase irrt sich. Das Video von PCPer zeigt das eindeutig: https://www.youtube.com/watch?v=VkrJU5d2RfA

Ist das Flackern z. B. in Ladebildschirmen nun also behoben?

Nein, wie gesagt, Standbilder (zu denen Ladeschirme oft gehören) haben weiterhin ein leichtes Flackern.

Mit einer Frameverdopplung würde aber eine Art Mikroruckler entstehen, bzw. eine Latenz, jedenfalls nach meinem Verständnis. Du bewegst die Maus zwischen zwei Frames (die wegen der Verdopplung die gleichen sind) und nix passiert. Und im Low-Fps-Bereich sind das vielleicht 30-50 ms. Das merken Sensibelchen wie ich ;) Aber Tearing würd noch mehr nerven, keine Frage. Ich will aber wenn's geht gar nicht in diesen Bereich, dass ist eh vom Spielgefühl höchst grenzwertig - manchmal passiert's aber eben doch, also dürfte eine Frameverdopplung schon sehr positiv zu sehen sein - also her damit, AMD.

Die Verdoppelung sollte sich überhaupt nicht auf die Latenz (und Schwammigkeit) auswirken, da dadurch ja kein Frame verzögert ausgegeben wird. Woher Du 30-50 ms hast weiß ich nicht. GSync muss ja nicht warten, bis 1/30tel Frame rum ist, der Monitor kann das Frame jederzeit (spätestens nach 1/44tel bei einem 144Hz Monitor) austauschen.

Schneller wird die Grafikkarte dadurch natürlich auch nicht. D.h. es fühlt sich dadurch genauso an, wie wenn man ohne VSync spielt, nur dass eben ganze Frames (und nicht nur ein halbes) aktualisiert wird, sobald die Karte das neue Frame bereitstellen kann. Also in jeder Hinsicht nur besser.

aufkrawall
2015-04-06, 15:04:09
Und im Low-Fps-Bereich sind das vielleicht 30-50 ms.
Kann eigentlich nicht sein, sonst hätten pcper über Ruckler berichten müssen. Sie sagen aber, es läuft, wie bei variablem Vlank erwartbar, flüssig.

blaidd
2015-04-06, 15:07:19
Du hast bei 30 Fps sowieso schon eine Latzenz von ~33 ms zwischen zwei Frames - G-Sync, Freesync oder nicht. Ist das denn so schwer? :freak: Hast du 29 Frames und einer wird verdoppelt, hast du eben noch mehr, mit einem "Mikroruckler" dazwischen.

Grestorn
2015-04-06, 15:09:10
Du hast bei 30 Fps sowieso schon eine Latzenz von ~33 ms zwischen zwei Frames. Ist das denn so schwer? :freak: Hast du 29 Frames und einer wird verdoppelt, hast du eben noch mehr.

Du hast Latenz durch die Berechnung der Szene, daran ändert GSync nichts. Es verschlimmert es aber auch nicht, auch nicht durch die Verdopplung. Und das ist ja, was Du - zumindest nach meinem Verständnis - behauptet hast.

Die "Verdopplung" wirkt sich doch nicht auf die Berechnung der Frames aus. Man hat doch durch die Verdopplung der Frames keine doppelte Standzeit des gleichen Bildes (der beiden Frames zusammen), denn dann würde sich ja die Framerate de Fakto von 30 fps nur noch 15 fps reduzieren.

Ich denke, Du hast da ganz grundsätzlich was missverstanden. Schau Dir das Video von PCPer nochmal an.

blaidd
2015-04-06, 15:15:46
Aso, jetzt hab ich's gecheckt (glaub ich): Die Grafikkarte gibt die Frames natürlich gleichmäßig aus. Aber auf's Auge wirkt das anders, wenn bei 30 Fps ein Frame doppelt ausgegeben wird. Dann hast du zwei gleiche Bilder und insgesamt 67 ms in denen nichts passiert, wenn du eine Eingabe machst... Das kann übrigens das tolle Messequipment von PcPer natürlich nicht anzeigen, das ist was menschlich wahrgenommenes, nichts technisches ;)

Grestorn
2015-04-06, 15:20:13
Aso, jetzt hab ich's gecheckt (glaub ich): Die Grafikkarte gibt die Frames natürlich gleichmäßig aus. Aber auf's Auge wirkt das anders, wenn bei 30 Fps ein Frame doppelt ausgegeben wird. Dann hast du zwei gleiche Bilder und insgesamt 67 ms in denen nichts passiert, wenn du eine Eingabe machst... Das kann übrigens das tolle Messequipment von PcPer natürlich nicht anzeigen, das ist was menschlich wahrgenommenes, nichts technisches ;)

Nein. 30 fps bedeutet 33ms pro Frame. Durch die Verdopplung erhöht sich die phsysische Framerate des Monitors auf 60 fps (16ms), wobei immer zwei gleiche Bilder angezeigt werden. Die vom Auge wahrgenommene Darstellungszeit eines Frames bleibt also unverändert bei 33 ms.

Wenn die Karte ein neues Bild bereitstellen kann, wird das sofort angezeigt. Es muss nicht 33 ms oder gar 67 ms gewartet werden, um das neu berechnete Bild anzuzeigen. Sobald die Berechnung abgeschlossen ist, wird es an den Monitor übertragen und angezeigt. Bei einem 144 Hz Monitor dauert das 7ms.

Also nochmal: Die Verdopplung führt keine weitere Verzögerung oder Lag ein.

Das Equipment der PCPer zeigt genau, was das Auge sieht. Die haben nämlich einen Sensor am Monitor angebracht, der genau erkennen kann, wann das Bild refreshed wird. Man kann diesen Sensor wunderbar im Video sehen.

blaidd
2015-04-06, 15:27:22
Nein. 30 fps bedeutet 33ms pro Frame. Durch die Verdopplung erhöht sich die phsysische Framerate auf 60 fps (16ms), wobei immer zwei gleiche Bilder angezeigt werden. Die vom Auge wahrgenommene Darstellungszeit eines Frames bleibt also unverändert bei 33 ms.

Wenn die Karte ein neues Bild bereitstellen kann, wird das sofort angezeigt. Es muss nicht 33 ms oder gar 66 ms gewartet werden, um das neu berechnete Bild anzuzeigen. Sobald die Berechnung abgeschlossen ist, wird es an den Monitor übertragen und angezeigt. Bei einem 144 Hz Monitor dauert das 7ms.

Also nochmal: Die Verdopplung führt keine weitere Verzögerung oder Lag ein.

Du hast Recht. Teilweise ;)

Natürlich bekommst du eine höhere (Eingabe- und wahrgenommene) Latenz, wenn du mehr gleiche Bilder pro Sekunde angezeigt bekommst. Spiel mal mit 30 Fps bei 60 Hz. Da hast du dann 16,7 ms Verzögerung von der Anzeige her, von Input und Wahrnehmung aber 33,3 ms... Das ist ja auch das generelle Problem an der ganzen Geschichte: Flüssig oder nicht bestimmen immer noch die Bilder, die du tatsächlich zu sehen/fühlen bekommst, nicht unbedingt die, die die GPU tatsächlich berechnet. Da hilft auch eine Framesynchro nicht.

Das Equipment der PCPer zeigt genau, was das Auge sieht. Die haben nämlich einen Sensor am Monitor angebracht, der genau erkennen kann, wann das Bild refreshed wird. Man kann diesen Sensor wunderbar im Video sehen
Das ist NICHT! das gleiche, was du wahrnimmst. Ein Standbild, das 60 mal pro Sekunde neu berechnet/angezeigt wird, ist für's Auge immer noch ein Standbild. Für die GPU aber genau das gleiche wie eine bewegte Szene mit 60 Fps. Das würde das Messequipment übrigens auch nicht unterscheiden können - dafür ist das nicht geeignet/zu simpel.

Wir reden ein bissl aneinander vorbei... ;)

Grestorn
2015-04-06, 15:35:26
Du hast Recht. Teilweise ;)

Natürlich bekommst du eine höhere (Eingabe- und wahrgenommene) Latenz, wenn du mehr gleiche Bilder pro Sekunde angezeigt bekommst. Spiel mal mit 30 Fps bei 60 Hz. Da hast du dann 16,7 ms Verzögerung von der Anzeige her, von Input und Wahrnehmung aber 33,3 ms... Das ist ja auch das generelle Problem an der ganzen Geschichte: Flüssig oder nicht bestimmen immer noch die Bilder, die du tatsächlich zu sehen/fühlen bekommst, nicht unbedingt die, die die GPU tatsächlich berechnet. Da hilft auch eine Framesynchro nicht. Wir reden ein bissl aneinander vorbei... ;)

Puh. Das ist Schwierig mit Dir ... :)

Latenz bedeutet doch: Verzögerung vom Steuerbefehl bis zum sichtbaren Resultat. Alles, was diese Zeit verlängert wird als zusätzliche Lag und als "Schwammig" empfunden.

Wenn die Grafikkarte 30ms braucht, um ein Bild zu berechnen, dann ist der Lag nun mal mindestens 30 ms. Das lässt sich dann auch nicht reduzieren - außer eben die Berechnung irgendwie zu verkürzen.

Die Frage ist: Führt der Monitor ein weiteren Lag ein? Bei VSync an ist die Antwort: Ja. Bei 60 Hz kann der zusätzliche Lag im schlimmsten Fall bis zu 1/60tel, also 16 ms betragen.

Und jetzt zu GSync: Es ist egal, ob GSync Frames verdoppelt oder nicht. Das neue Frame kann genau dann ausgegeben werden, wenn die Karte es berechnet hat. Egal ob das vorhergehende Frame 1, 2 oder 5 mal ausgegeben worden ist: Das neue kommt sofort. 0 Verzögerung. Wenn man alle Komponenten (Übertragung zum Monitor, interne Verarbeitung) mit einkalkuliert, ist es wohl nicht exakt 0, aber definitiv deutlich weniger als 7 ms (es muss weniger sein bei einem 144Hz Monitor).

Ergo: Nein GSync verschlimmert den Lag nicht. Es wird dadurch nicht schwammiger als ohne. Egal bei welcher Framerate. Die ohenhin vorhandene Schwammigkeit bei 30 fps (ohne VSync) kann es aber natürlich auch nicht magisch beheben. Es ist aber wesentlich besser als 30 fps bei VSync AN, weil eben die 16 ms (die auch noch nicht mal konstant sind) eliminiert.

Das ist NICHT! das gleiche, was du wahrnimmst. Ein Standbild, das 60 mal pro Sekunde berechnet wird, ist für's Auge immer noch ein Standbild. Für die GPU aber genau das gleiche wie eine bewegte Szene mit 60 Fps. Das würde das Messequipment übrigens auch nicht unterscheiden können.Dass Equipment sieht nur, wie oft der Monitor das Bild refresht, es erkennt nicht, ob es sich dabei um das gleiche oder ein anderes Frame handelt. Aber das ist für die Betrachtung der Schwammigkeit auch völlig bedeutungslos!

akuji13
2015-04-06, 15:38:43
ComputerBase irrt sich. Das Video von PCPer zeigt das eindeutig: https://www.youtube.com/watch?v=VkrJU5d2RfA

Wäre natürlich auch möglich das das der Nachrüstung geschuldet war.

Ergo: Nein GSync verschlimmert den Lag nicht. Es wird dadurch nicht schwammiger als ohne. Egal bei welcher Framerate.

Nimm das! :D
http://www.blurbusters.com/gsync/preview2/

Könnte natürlich auch an der Nachrüstung liegen. ;)

Wobei bei solchen Differenzen sowieso die Frage wäre ob das noch bemerkbar ist.

Grestorn
2015-04-06, 15:44:41
Mir wird gerade klar, wo blaidd's Denkfehler vermutlich ist:

30 fps heißt nicht, dass der Schirm ein Bild 33ms lang anzeigen *muss*. Es bedeutet nur, dass die GraKa 33ms braucht, ein neues Frame zu berechnen!

Ein 60 Hz Monitor zeigt jedes Bild exakt 16ms lang an. Immer.

Ein 144 Hz Monitor zeigt jedes Bild exakt 7ms lang an. Egal wie hoch die Framerate ist!

Ein 144Hz GSync Monitor kann ein Bild nun zwischen 7 und 33 ms lang anzeigen. Das heißt, auch wenn gerade eine Szene mit 30 fps (33 ms pro Bild) angezeigt wird, hindert nichts den Monitor daran, das nächste Frame bereits nach 7 ms zu aktualisieren, wenn die Grafikkarte denn zu diesem Zeitpunkt ein neues Frame verfügbar hat.

blaidd
2015-04-06, 15:45:50
Ich bin halt schwierig... ;)

Im Grunde ist das Missverständnis aber einfach zu klären: Du redest von der Latenz zwischen zwei Fps, wie sie von der GPU berechnet werden, ich von der, die du als Spieler wahrnimmst. Das ist ein Unterschied ;)

30 Fps sind schwammig, rein von der Wahrnehmung her. Nicht unbedingt, wenn man eine GPU ist. Bin ich aber eben nicht ;)

Ergo: Nein GSync verschlimmert den Lag nicht.

Bist du sicher? Durch das zusätzliche Modul müsste eigentlich schon durch den längern elektronischen Weg eine gewisse Latenz hinzukommen (ich würd aber mal behaupten, dass die paar Nanosekunden ziemlich bedeutungslos sein dürften). :cool:

Ansonsten kann ich dir voll zustimmen.

EDIT: Denkfehler?! Ehrlich? Das ist kein Denkfehler, sondern das sind zwei verschiedene Ansichten ;) Menschlich wahrgenommen vs technisch. Mir geht's als Spieler primär um das Erste...

akuji13
2015-04-06, 15:45:53
Genau deshalb habe ich auch schon immer gesagt das ein 120Hz/144Hz Monitor auch bei 40 fps besser ist.

Grestorn
2015-04-06, 15:49:55
EDIT: Denkfehler?! Ehrlich? Das ist kein Denkfehler, sondern das sind zwei verschiedene Ansichten ;)

Du hast geschrieben "Mit einer Frameverdopplung würde aber eine Art Mikroruckler entstehen, bzw. eine Latenz, jedenfalls nach meinem Verständnis."

Und das stimmt nun mal nicht. Das hat auch nichts mit einem Missverständnis zu tun ... :)

@akujii: Bei der Messung von blurbusters konnte bei einer Messung eine zusätzliche Latenz von 4 ms gemessen werden. Bei der zweiten nicht mehr. Das ist für mich Rauschen im Rahmen der Messungenauigkeit.

Wobei ich es für absolut möglich halte, dass es eine zusätzliche Verzögerung durch die Logik von 2-4 ms gibt. Wenn das alles ist ... ;)

aufkrawall
2015-04-06, 15:49:55
Nimm das! :D
http://www.blurbusters.com/gsync/preview2/

Könnte natürlich auch an der Nachrüstung liegen. ;)

Wahrscheinlich hat das fps-Limit bei 143 nicht zuverlässig genug das Erreichen der maximalen Refreshrate von 144Hz verhindert.
Mit 142 wär der Lag vielleicht schon wieder im erwarteten niedrigen Bereich gewesen.
Auffällig ist ja, dass bei CS:GO die fps wesentlich höher sind als bei den anderen Spielen dort.

robbitop
2015-04-06, 15:52:28
Ein 144Hz GSync Monitor kann ein Bild nun zwischen 7 und 33 ms lang anzeigen. Das heißt, auch wenn gerade eine Szene mit 30 fps (33 ms pro Bild) angezeigt wird, hindert nichts den Monitor daran, das nächste Frame bereits nach 7 ms zu aktualisieren, wenn die Grafikkarte denn zu diesem Zeitpunkt ein neues Frame verfügbar hat.
So ist es. Ich verstehe nach all den Artikeln und Erklärungen nicht, wieso das immer noch bei vielen nicht klar ist.

In der Praxis ist der Bereich allerdings fast irrelevant, wenn man wirklich flüssiges Spielen mag. Alles unter 40...45 fps macht IMO auch mit G-Sync kaum Spaß. Einfach wegen Inputlag (Spiel- und Frameratenbedingt) und Flüssigkeit. G/A-Sync können nicht hexen - nur verbessern.

blaidd
2015-04-06, 15:53:40
Du hast geschrieben "Mit einer Frameverdopplung würde aber eine Art Mikroruckler entstehen, bzw. eine Latenz, jedenfalls nach meinem Verständnis."

Und das stimmt nun mal nicht ... :)

Doch, Herrschaftszeiten! =) Du bekommst 28 unterschiedliche Bilder und zwei gleiche. Und jetzt mal völlig irrelevant, was die GPU oder der Monitor macht, diese zwei gleichen Bilder sorgen für eine wahrgenommene Latenz, 28+2 sind nicht gleiche wie 28+1+1. Wann checkt ihr mal, dass man nicht so einfach alles messen oder rechnerisch erklären kann?

robbitop
2015-04-06, 15:59:05
So funktioniert das nicht. Du musst von fps wegkommen. Sobald 33 ms Dauer pro Frame überschritten werden, wird der Frame neu refresht. Also mind + 7ms extra. Wenn du konstante 29 fps hast, hat jedes dieser Frames > 33 ms - wird also doppelt refresht.

Dein Szenario würde nur passieren, wenn man quasi nur für 1x Frame diese 33 ms Grenze reißt.

Grestorn
2015-04-06, 15:59:21
Doch, Herrschaftszeiten! =) Du bekommst 28 unterschiedliche Bilder und zwei gleiche. Und jetzt mal völlig irrelevant, was die GPU oder der Monitor macht, diese zwei gleichen Bilder sorgen für eine wahrgenommene Latenz, 28+2 sind nicht gleiche wie 28+1+1.

Nein. Genau das stimmt nicht. Selbst im Szenario, bei dem wir konstant 30 fps haben, und nur ein einziges Frame statt in 33 ms erst in 35 ms berechnet wird, so dass GSync ein einziges Mal ein zusätzliches Frame einfügen muss, kommt es zu keiner Verzögerung:

-----1-----2-----3-----4-----5-----5-6-----7-----8

Der zeitliche Abstand zwischen der zweiten Darstellung von Frame 5 und Frame 6 beträgt maximal 7 ms. Eher weniger.

Jetzt klar?

robbitop
2015-04-06, 16:03:28
Nein. Genau das stimmt nicht. Selbst im Szenario, bei dem wir konstant 30 fps haben, und nur ein einziges Frame statt in 33 ms erst in 35 ms berechnet wird, so dass GSync ein einziges Mal ein zusätzliches Frame einfügen muss, kommt es zu keiner Verzögerung:

-----1-----2-----3-----4-----5-----5-6-----7-----8

Der zeitliche Abstand zwischen der zweiten Darstellung von Frame 5 und Frame 6 beträgt maximal 7 ms. Eher weniger.

Jetzt klar?
This! :)

blaidd
2015-04-06, 16:10:29
*Raahh* :)

1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,16,18,19,20,21,22,23,24,25,26,27,28,29,30

Überall passiert was, wenn du die Maus bewegst. Nur zwischen 16 und 16, wo eigentlich eine 17 stehen sollte nicht - Latenz, in der Eingabe merklich, eventuell auch optisch als Mikroruckler. Gefühlt, nicht technisch. Monitor und Grafikkarte machen genau das, was sie sollen. Aber das kannst du trotzdem wahrnehmen. Völlig irrelevant, was die GPU und der Monitor da macht und die Refreshrate machen in der Hinsicht auch keinen Unterschied, es sei denn, der Monitor kann Zwischenbildberechnung und ein NEUES(!!!!) Bild dazwischen schummeln. Du brauchst unterschiedliche(!!!) Bilder, um dem Auge eine Bewegung zu suggerieren und auch eine Reaktion auf deine Eingabe mit der Maus, damit sich das smooth anfühlt. Wenn da nix passiert, weil da immer das gleiche Bild angezeigt wird (übertrieben ausgedrückt), kriegst du das mit, egal was Monitor oder Grafikkarte berechnet/anzeigt.

Technisch sind das 30 Fps und 33,3 ms. Aber nicht gefühlt/wahrgenommen.

Grestorn
2015-04-06, 16:13:26
In Deiner Grafik sieht es so aus, als würde jedes Deiner 30 Bilder gleichlange sichtbar. Das ist aber eben gerade nicht der Fall. Weder gefühlt noch tatsächlich.

Für das Auge sind die beiden Bilder "16" auch nicht zwei Bilder, sondern nur eines, da es sich ja nicht ändert. Das (in Deiner Grafik) eben doppelt so lange sichtbar ist. Bei GSync aber eben gerade nicht doppelt so lange.


Hast Du meine Grafik verstanden? Die Abstände zwischen den Zahlen gibt die abgelaufene Zeit wieder! Dass die 5 zweimal dasteht, sieht das Auge nicht. Das Auge sieht nur, dass die Zeit zwischen Bild 5 und 6 in meinem Beispiel etwas länger ist als z.B. zwischen Bild 2 und 3.

Und: Ich stimme Dir zu, "Raahhh"... ;)

robbitop
2015-04-06, 16:16:22
Warum sollte denn nur Bild 16 über 33 ms gehen? Wenn du unter 30 fps bist, ist die Wahrscheinlichkeit sehr sehr hoch, dass soziemlich jedes der Frames um 7 ms refresht werden muss.

Außerdem verlängert der Refresh die 33 ms doch nur marginal. Nämlich um 7 ms. Die Anzeigedauer des Bilds wird also nicht verdoppelt sondern in diesem Fall maximal um 20 % verlängert. Bei 28 fps bspw muss ein Bild 36 ms angezeigt werden. Nach 33 ms gibt es einen Refresh und insgesamt wird es dann 40 ms angezeigt. Also nur 4 ms zu viel. Bei 26 und 27 fps wird der Unterschied noch kleiner. Zumindest bei einem 144 Hz Monitor (wenn dieser auch mit 144 Hz vom Spiel angesteuert wird).

blaidd
2015-04-06, 16:30:18
Ihr denkt immer noch zu technisch. Und das war auch nur ein simplifiziertes Beispiel, um meinen Standpunkt verständlicher zu formulieren (was nicht so ganz zu funktionieren scheint ;)).

Ja, bei der Frameverdoppelung würde sich wahrscheinlich keine doppelt so hohe Latenz einstellen, weil der nächste Frame fast, aber eben nicht ganz fertig berechnet wurde. Er steht also beim nächsten Refresh des Monitors (lassen wir's von mir aus 7 ms sein) zur Verfügung. Das war wie gesagt simplifiziert. Aber soweit ich mitbekommen habe, sprechen wir hier sowieso von einem theoretischen Szenario von 29 vs 30 Fps.

30 Fps setzen sich im besten Szenario aus 30 unterschiedlichen Bildern zusammen, die dem Auge Bewegung suggerieren - und das wirkt schon in diesem optimalen Szenario nur grenzwertig flüssig. Fehlt quasi ein Frame (so wird es vom Auge dann wahrgenommen, auch mit Frameverdopplung) sind es dann tatsächlich nur 29 unterschiedliche Bilder, nicht 30, das kompromittiert den Eindruck von Bewegung zusätzlich. Das in der Zeit keine Reaktion auf die Eingabe angezeigt wird, beim nächsten Frame dann plötzlich umso mehr verstärkt das ganze dann noch.

robbitop
2015-04-06, 16:35:35
Je nach Framerate sind es zwischen 1-7ms Latenz. (je nach Dauer des Frames - siehe oben) Das ist ziemlich wenig. Ich behaupte mal, dass es nicht viel besser wäre, wenn das Display ein Bild unendlich lange anzeigen könnte und somit nie ein zusätzlicher Refresh nötig wäre.
In dem fps Bereich ist es so oder so laggy und unsmooth.

Was du weiterhin vergisst, ist dass die Framerate und somit die Frametimes per se in diesem Bereich idR schwanken und nicht konstant sind. Somit hättest du auch bei obig beschriebenen Display ohne Refresheinschränkungen kleinere Judder.

akuji13
2015-04-06, 16:41:15
@akujii: Bei der Messung von blurbusters konnte bei einer Messung eine zusätzliche Latenz von 4 ms gemessen werden. Bei der zweiten nicht mehr. Das ist für mich Rauschen im Rahmen der Messungenauigkeit.

Ich meinte eher den Extremfall CS:GO mit einem Unterschied von 26 zu 39 bei fps_max=300.

blaidd
2015-04-06, 16:53:58
Ich behaupte mal, dass es nicht viel besser wäre, wenn das Display ein Bild unendlich lange anzeigen könnte und somit nie ein zusätzlicher Refresh nötig wäre.
In dem fps Bereich ist es so oder so laggy und unsmooth.

Das ist praktisch genau das, was ich versuche zu sagen :freak: Aber wenn du 30 Fps hast, zählt eben jedes Bild, das vom davorigen abweicht, um dir eine Bewegung zu suggerieren, besonders. Wenn dann eins wegfällt, ist das umso aufälliger.

Was du weiterhin vergisst, ist dass die Framerate und somit die Frametimes per se in diesem Bereich idR schwanken und nicht konstant sind.

Das hab ich nicht vergessen, sondern absichtlich außer Acht gelassen, weil das Thema selbst vereinfacht für drei wahrscheinlich nicht allzu blöde Köpfe offensichtlich kompliziert genug ist. Ja, wenn die Frameraten bzw. -times (beides eigentlich unpassende Bezeichnungen für das was ich meine - tatsächlich unterschiedliche Bilder) beständig schwanken, fällt das theoretische Problem natürlich nicht so stark auf - aber im hypothetischen 40-25 Fps-Bereich ist das Bild generell unruhig und die Suggerierung einer Bewegung nicht optimal - Sync hin oder her.

Somit hättest du auch bei obig beschriebenen Display ohne Refresheinschränkungen kleinere Judder.
JA! Genau das meine ich ;D Den Judder hast du sowieso bei niedrigen Fps. Wenn aber dann noch ein Bild wegfällt/doppelt angezeigt wird, ist es umso deutlicher, selbst wenn es nur eins ist.

Hast Du meine Grafik verstanden? Die Abstände zwischen den Zahlen gibt die abgelaufene Zeit wieder! Dass die 5 zweimal dasteht, sieht das Auge nicht. Das Auge sieht nur, dass die Zeit zwischen Bild 5 und 6 in meinem Beispiel etwas länger ist als z.B. zwischen Bild 2 und 3.

Das ist auch das was ich meine. Und in der Zeit kann auch keine Reaktion auf eine Eingabe passieren. Was war nochmal Latenz (http://de.wikipedia.org/wiki/Latenz)? ;)

robbitop
2015-04-06, 16:59:58
Das hat aber alles nichts mit G-Sync bzw. seinen Einschränkungen zu tun.

blaidd
2015-04-06, 17:07:19
Das hat aber alles nichts mit G-Sync bzw. seinen Einschränkungen zu tun.

Nicht direkt, stimmt... Aber Gsync/Freesync mit oder ohne Frameverdoppelung kann dahingehend auch nicht helfen, das Problem höchstens ein bisschen kaschieren. Niedrige Frameraten sind niedrige Frameraten - das versuche ich auch ungefähr seit Post #1 zu kommunizieren. :wink:

Bzgl. Frameverdopplung: Ich weiß noch nicht so recht, was ich davon halten soll, prinzipiell ist das sicher besser als kein Sync, aber das dürfte sich das schon sehr schwammig anfühlen. Aber ich persönlich will ja Fps-technisch eh nicht so weit runter

Da unten ruckelt es sowieso, mit Sync ist es wahrscheinlich aber weniger auffällig... Weil dann eben kein zusätzlich Tearing auftritt. Die Frameraten bleiben aber niedrig und ein Zwischenframe macht aus 29 Fps nur technisch 30, nicht zwangsweise wahrgenommene 30. Worüber haben wir nochmal gestritten? ;)

Grestorn
2015-04-06, 17:13:51
Nicht direkt, stimmt... Aber Gsync/Freesync mit oder ohne Frameverdoppelung kann dahingehend auch nicht helfen, das Problem höchstens ein bisschen kaschieren. Niedrige Frameraten sind niedrige Frameraten - das versuche ich auch ungefähr seit Post #1 zu kommunizieren. :wink:

Sorry, aber Dein Satz "Mit einer Frameverdopplung würde aber eine Art Mikroruckler entstehen, bzw. eine Latenz, jedenfalls nach meinem Verständnis." sagt weiterhin etwas ganz anderes. Sieh bitte zumindest ein, dass dieser Satz schlicht falsch ist.

blaidd
2015-04-06, 17:25:45
Die Abstände zwischen den Zahlen gibt die abgelaufene Zeit wieder! Dass die 5 zweimal dasteht, sieht das Auge nicht. Das Auge sieht nur, dass die Zeit zwischen Bild 5 und 6 in meinem Beispiel etwas länger ist als z.B. zwischen Bild 2 und 3.

Mit einer Frameverdopplung würde aber eine Art Mikroruckler entstehen, bzw. eine Latenz

Wir reden hier über genau das gleiche Phänomen, nutzen nur andere Worte. Wenn ich das dahingehend missverständlich ausgedrückt habe, möchte ich mich entschuldigen. Das ist was ich meinte, du kannst dafür gern auch deine Worte nutzen :)

Also nochmal: Die Verdopplung führt keine weitere Verzögerung oder Lag ein.

Stimmt. Die ist schon da. Aber die geht auch nicht weg. Der doppelte Frame ist! die Verzögerung/Latenz

dargo
2015-04-06, 17:35:34
Nein. 30 fps bedeutet 33ms pro Frame. Durch die Verdopplung erhöht sich die phsysische Framerate des Monitors auf 60 fps (16ms), wobei immer zwei gleiche Bilder angezeigt werden. Die vom Auge wahrgenommene Darstellungszeit eines Frames bleibt also unverändert bei 33 ms.

Wenn die Karte ein neues Bild bereitstellen kann, wird das sofort angezeigt. Es muss nicht 33 ms oder gar 67 ms gewartet werden, um das neu berechnete Bild anzuzeigen. Sobald die Berechnung abgeschlossen ist, wird es an den Monitor übertragen und angezeigt. Bei einem 144 Hz Monitor dauert das 7ms.

Also nochmal: Die Verdopplung führt keine weitere Verzögerung oder Lag ein.

Man oh man, danke für die Erklärung. Jetzt habe ich es auch kapiert und sehe meinen Denkfehler vorhin. Was bleibt ist also nur die niedrige Framerate die nicht bei jedem flüssig wirkt und natürlich der hohe Input-Lag, wieder aufgrund der niedrigen Framerate. :)

blaidd
2015-04-06, 17:39:38
Man oh man, danke für die Erklärung. Jetzt habe ich es auch kapiert und sehe meinen Denkfehler vorhin. Was bleibt ist also nur die niedrige Framerate die nicht bei jedem flüssig wirkt und natürlich der hohe Input-Lag, wieder aufgrund der niedrigen Framerate. :)

Japp =) Das mit den Millisekunden in meinen Posts ist versimplifiziert, da gehe ich von einer gleichmäßigen Ausgabe von Frame zu Frame aus. Das gibt's in der Praxis so natürlich nur höchst selten. Das ist aber der Kern des Problems: Die Refreshrate des Monitors sind meinetwegen 7 ms, wenn von Frame zu Frame die Berechnung allerdings länger dauert, das Bild also öfter angezeigt wird, ändert das aber nichts an der wahrgenommenen Bildrate/Input. Die Synchro hilft nur, das Bild sauberer und so für's Auge angenehmer (aka flüssiger) auszugeben, nicht aber wahrgenommen schneller/direkter/flüssiger (;)). Ist schon ein bisschen schwierig zu kommunizieren... :freak:

dargo
2015-04-06, 17:57:59
Japp =) Das mit den Millisekunden in meinen Posts ist versimplifiziert, da gehe ich von einer gleichmäßigen Ausgabe von Frame zu Frame aus. Das gibt's in der Praxis so natürlich nur höchst selten. Das ist aber der Kern des Problems: Die Refreshrate des Monitors sind meinetwegen 7 ms, wenn von Frame zu Frame die Berechnung allerdings länger dauert, das Bild also öfter angezeigt wird, ändert das aber nichts an der wahrgenommenen Bildrate/Input. Die Synchro hilft nur, das Bild sauberer und so für's Auge angenehmer (aka flüssiger) auszugeben, nicht aber wahrgenommen schneller/direkter/flüssiger (;)). Ist schon ein bisschen schwierig zu kommunizieren... :freak:
Es ist ein kompliziertes Thema weils eben kein Film sondern ein Spiel ist. Da erwartet man im besten Fall auch die direkte Inputreaktion.

Und gut, dass wir gerade darüber sprechen... weil einen Punkt verstehe ich noch nicht ganz. Ich habe jetzt ja einen 60Hz Bildschirm. Das Bild wird vom Bildschirm also jede 16,67ms aktualisiert. Wenn ich einen schnellen MP-Shooter wie bsw. Battlefield spiele spiele ich meistens mit wesentlich höheren Framerate wie zb. 110-120fps weil sich die Steuerung einfach deutlich direkter anfühlt als bsw. mit 60fps. Jetzt stellt sich mir die Frage... ist der Bildschirmrefresh überhaupt an den Input gekoppelt? Wenn es so wäre dürfte sich doch meine Maus gar nicht direkter anfühlen mit mehr als 60fps. :confused: Hier blicke ich echt noch nicht durch. Nach meinem Verständnis müsste der Input somit nur an die Renderframes gekoppelt sein.

Grestorn
2015-04-06, 18:04:55
Und gut, dass wir gerade darüber sprechen... weil einen Punkt verstehe ich noch nicht ganz. Ich habe jetzt ja einen 60Hz Bildschirm. Das Bild wird vom Bildschirm also jede 16,67ms aktualisiert. Wenn ich einen schnellen MP-Shooter wie bsw. Battlefield spiele spiele ich meistens mit wesentlich höheren Framerate wie zb. 110-120fps weil sich die Steuerung einfach deutlich direkter anfühlt als bsw. mit 60fps. Jetzt stellt sich mir die Frage... ist der Bildschirmrefresh überhaupt an den Input gekoppelt? Wenn es so wäre dürfte sich doch meine Maus gar nicht direkter anfühlen mit mehr als 60fps. :confused: Hier blicke ich echt noch nicht durch. Nach meinem Verständnis müsste der Input somit nur an die Renderframes gekoppelt sein.

Wenn VSync aus: Der vom Monitor angezeigte Framebuffer wird geflippt, während das Bild gerade (von oben nach unten) an den Monitor übertragen wird und von diesem dargestellt wird.

D.h. ab der Zeile, an der der Monitor bei der Umschaltung gerade ist, werden nach unten alle Zeilen schon aus dem neuen Buffer angezeigt, während man überhalb der Zeile noch den Inhalt des alten Buffers sieht. An der Zeile selbst hat man das berühmte Tearing.

Solche Risse können ohne VSync 1 bis n mal pro Bild auftreten. Im Extremfall kann man nur einige wenige Zeilen eines Frames tatsächlich sehen. Das Ganze ist dann auch ziemlich für den Eimer, wenn ich von einem voll gerenderten Frame mit 1080 Zeilen gerade mal 20 sehe (die das Hirn eh nie als Bild erkennt).

nVidia hat das mit FCAT mal sehr plastisch dargestellt.

Mit VSync wird die Ausgabe bekannter maßen auf 60 fps limitiert. Mit Lag und allem drum und dran.

Ohne VSync gibt es zwar keinen Lag, von den super schnell berechneten Bilder, die die Mausbewegung so toll wiedergeben, sieht man oft aber kaum mehr als einen kleinen Bruchteil des ganzen Bildes.

blaidd
2015-04-06, 18:08:20
Es ist ein kompliziertes Thema.

Und gut, dass wir gerade darüber sprechen... weil einen Punkt verstehe ich noch nicht ganz. Ich habe jetzt ja einen 60Hz Bildschirm. Das Bild wird vom Bildschirm also jede 16,67ms aktualisiert. Wenn ich einen schnellen MP-Shooter wie bsw. Battlefield spiele spiele ich meistens mit wesentlich höheren Framerate wie zb. 110-120fps weil sich die Steuerung einfach deutlich direkter anfühlt als bsw. mit 60fps. Jetzt stellt sich mir die Frage... ist der Bildschirmrefresh überhaupt an den Input gekoppelt? Wenn es so wäre dürfte sich doch meine Maus gar nicht direkter anfühlen mit mehr als 60fps. :confused: Hier blicke ich echt noch nicht durch. Nach meinem Verständnis müsste der Input somit nur an die Renderframes gekoppelt sein.

Nein, der Input ist an die Framerate bzw. Frametime gekoppelt, das was du siehst ist aber an das, was der Monitor ausgibt, bei den von der Bildfrequenz abweichenden Frameraten in Form von "Bildfehlern". G-Sync/Freesync beseitigt die "Bildfehler" und synchronisiert genau diese beiden Wahrnehmungen und genau das ergibt den sehr "flüssigen" Eindruck. Weil Hand und Auge das gleiche wahrnehmen - und das ist toll. In der Hinsicht habe ich gar keine Gegenargumente. Aber das "flüssige" (extrem missverständlicher Ausdruck, daher gibt's wohl unter Umständen auch so viel Potenzial zu Missverständnissen bezüglich Framesync) Spielgefühl, dass du durch die Eingabe hast und was deine Augen wahrnehmen ist immer noch abhängig von der Framerate/Frametimes - niedrige oder stark abweichende nimmst du immer noch als verzögert/langsam/ruckelig wahr und um deinem Hirn eine Bewegung zu suggerieren, brauchst du immer noch eine gewisse Bildrate. Je höher und gleichmäßiger, desto besser. Stark schwankende oder zu niedrige Fps oder regelmäßiges Mikroruckeln kann man beispielsweise immer noch deutlich sehen/spüren. Eventuell ist das nun sogar auffälliger, weil andere Faktoren (die "Bildfehler") nicht mehr zu sehen sind.

"Bildfehler":
D.h. ab der Zeile, an der der Monitor bei der Umschaltung gerade ist, werden nach unten alle Zeilen schon aus dem neuen Buffer angezeigt, während man überhalb der Zeile noch den Inhalt des alten Buffers sieht. An der Zeile selbst hat man das berühmte Tearing. <- Das da. ;)

dargo
2015-04-06, 18:09:38
Och Grestorn... ich spreche gerade nicht von dem was ich sehe (da ist Tearing etc. überhaupt nicht das Thema) sondern von dem was ich in der Steuerung fühle! :) Und natürlich meine ich Vsync Off, sonst hätte ich keine 110-120fps gesagt.

Grestorn
2015-04-06, 18:12:38
Aber was Du fühlst ist doch die Rückkopplung von dem was Du siehst. Lies nochmal langsam was ich schrieb. Genau darauf läuft es hinaus: Ohne VSync hast Du zwar ein verzögerungsfreies Bild, das Du aber kaum zu Gesicht bekommst.

Noch plastischer: Wenn die Framerate 3x so hoch wie die des Schirms ist (180fps), dann hast Du ein dreigeteiltes Bild (leider mit sich ständig verschiebenden Trennzeilen). Und nur das unterste Drittel des Bildes bewegt sich am schnellsten mit Deiner Mausbewegung mit, die oberen Teile laggen immer hinterher.

Das kann man auch sehr schön nachvollziehen, wenn man Mausschwenks macht.

dargo
2015-04-06, 18:19:46
Hmm... hab das noch nie so in der Praxis wahrgenommen. Wahrscheinlich weil die Frequenz fürs Auge schon zu hoch ist.

Grestorn
2015-04-06, 18:21:36
Achte mal drauf. Nimm HL2 oder irgendein anderes, altes Spiel mit sehr hoher Framarate. Beweg die Maus horizontal. Es sieht immer so aus, als würde der untere Bildbereich "vorweglaufen" und der obere Bereich "hinterherhinken".

blaidd
2015-04-06, 18:28:05
Achte mal drauf. Nimm HL2 oder irgendein anderes, altes Spiel mit sehr hoher Framarate. Beweg die Maus horizontal. Es sieht immer so aus, als würde der untere Bildbereich "vorweglaufen" und der obere Bereich "hinterherhinken".

Am Besten bei irgendeinem großen, möglichst einfarbigen Objekt und bei gleichmäßiger Mausbewegung. Dann sticht's richtig ins Auge, weil das Objekt in mehrere "Zeilen" unterteilt wird ;)

dargo
2015-04-06, 18:32:20
Am Besten bei irgendeinem großen, möglichst einfarbigen Objekt und bei gleichmäßiger Mausbewegung. Dann sticht's richtig ins Auge, weil das Objekt in mehrere "Zeilen" unterteilt wird ;)
Nun mal langsam... da ich immer aktuelle Games spiele kommt selbst sowas wie HL2 nicht in Frage. ;) Wenns in der Theorie unter "gestellten Bedingungen" extrem auffällt ists zwar schön, für mich aber nicht relevant. Mich interessieren nur neue, voll mit Details gepackte Spiele. :)

blaidd
2015-04-06, 18:39:07
Nun mal langsam... da ich immer aktuelle Games spiele kommt selbst sowas wie HL2 nicht in Frage. ;) Wenns in der Theorie unter "gestellten Bedingungen" extrem auffällt ists zwar schön, für mich aber nicht relevant. Mich interessieren nur neue, voll mit Details gepackte Spiele. :)

Das siehst du in jedem Spiel, wenn du darauf achtest (es sei denn, die Bildrate ist mit dem Monitor in Einklang). Das sind nur Szenarien, wo es "Faust auf's Auge" ist. Nimm halt was du willst, beispielsweise Battlefield, beweg die Maus ruhig und gleichmäßig im Kreis und sieh zu, wie's dir das Bild zerfetzt ;)

Aber Achtung, einmal gesehen, ist es schwer es nicht mehr zu sehen und dann wird's dir mit ziemlicher Sicherheit auf den Sack gehen :tongue:

dargo
2015-04-06, 18:52:53
Das siehst du in jedem Spiel, wenn du darauf achtest (es sei denn, die Bildrate ist mit dem Monitor in Einklang). Das sind nur Szenarien, wo es "Faust auf's Auge" ist. Nimm halt was du willst, beispielsweise Battlefield, beweg die Maus ruhig und gleichmäßig im Kreis und sieh zu, wie's dir das Bild zerfetzt ;)

Auch das ist ein gestelltes Szenario, sozusagen Worst Case (genauso übrigens wie die G-Sync Pendeldemo) welches ich nie in einem schnellen Shooter real nachstellen würde. ;)

Grestorn
2015-04-06, 19:01:27
Man sieht das in jedem Spiel ohne VSync. Sogar wenn die Framerate unterhalb der Monitorrate ist.

Je höher die Framerate, desto besser sieht man den Effekt.

Einzige Voraussetzung sind schnelle, horizontale Schwenks.

akuji13
2015-04-06, 19:24:47
Erstaunlich das jemand der so empfindlich ist was frametimes angeht das nicht sieht. :eek:

blaidd
2015-04-06, 19:25:26
Auch das ist ein gestelltes Szenario, sozusagen Worst Case (genauso übrigens wie die G-Sync Pendeldemo) welches ich nie in einem schnellen Shooter real nachstellen würde. ;)

Wir wollen's dir ja auch zeigen. Bei sowas muss man manchmal mit dem Finger drauf deuten oder die Nase drauf stoßen ;) Wenn du's dann erstmal wahrgenommen hast, merkst du's jederzeit von ganz allein, keine Sorge :tongue:

Erstaunlich das jemand der so empfindlich ist was frametimes angeht das nicht sieht. :eek:

Stimmt. Das find ich auch ein bisschen schräg. :)

dargo
2015-04-06, 19:37:51
Ähm Leute... ich habe nirgendwo gesagt, dass ich kein Tearing sehen würde. ;) Wie kommt ihr überhaupt drauf? Ich habe nur gesagt, dass mir noch kein gedritteltes Bild aufgefallen ist. Was wohl daran liegt, dass ich nur selten 180fps zu Gesicht bekomme. Tearing ist ein sehr dehnbarer Begriff. Es gibt nicht nur eine Intensität davon. Genauso wie beim Stuttering. Manchmal stört es mehr, manchmal weniger. Jedenfalls stört mich schwammige Steuerung und Stuttering ab Intensität X stärker als Tearing. Natürlich ist Tearing ab einem gewissen Punkt auch für mich indiskutabel. Das wäre zb. der Fall bei Vsync Off @60Hz und exakt 60fps durch einen Framelimiter.

aufkrawall
2015-04-06, 19:42:46
So ein Fall wäre auch eine Cutscene. Die haben gerne mal höhere Anforderungen als der eigentliche Spielablauf. Gleichzeitig sind dann auch ständig Kameraschwenks dabei. Oder irgendetwas anderes bewegt sich groß.
Tearing killt da einiges an Immersion.
Ich will kein Tearing, mindestens bis 30fps runter nicht.

Auch im Spiel abgespielte Videos sind so ein Fall. Dann gibts auf einmal ein Lock bei 30fps, und zack...

Kartenlehrling
2015-04-06, 20:28:11
Ich finde Batman:A.city kann man Ruckler und Tearing schön reproduzieren,
einfach ins Industriegebiet fliegen wo die ganzen Schornsteine sind und sich um die Achse drehen.
Und nicht vergessen den smoothbereich einstellen.

akuji13
2015-04-06, 20:56:36
Ich habe nur gesagt, dass mir noch kein gedritteltes Bild aufgefallen ist. Was wohl daran liegt, dass ich nur selten 180fps zu Gesicht bekomme. Tearing ist ein sehr dehnbarer Begriff. Es gibt nicht nur eine Intensität davon.

Wundert mich trotzdem das es dir bei Watch Dogs nicht sofort ins Auge gestochen ist, der Titel ist da sehr anfällig.

Da braucht es auch keine hohen fps.

dargo
2015-04-07, 06:32:23
Wundert mich trotzdem das es dir bei Watch Dogs nicht sofort ins Auge gestochen ist, der Titel ist da sehr anfällig.

Da braucht es auch keine hohen fps.
Watch Dogs habe ich mit Framelimiter + Vsync On @60Hz und 60fps (manchmal 50Hz und 50fps) gespielt, da gibts kein Tearing. ;)

akuji13
2015-04-07, 07:51:16
Na dann. =)

Für mich ist V-Sync wie auch in FC4 völlig unbrauchbar, die Steuerung wird dort extrem schwammig mMn.

dargo
2015-04-07, 09:13:40
FC4 habe ich nicht wegen den teilweise miesen Frametimes. Da wundert es mich dann nicht, dass man beim Input abkotzt (mit Vsync On entsprechend noch höher). WD habe ich mit High-Texturen gespielt, dort hatte ich dann fast durchgehend ne Flatline. Aber ja... wegen dem erhöhten Input-Lag dank Vsync On habe ich schon etwas gekotzt (etwas weil es halt kein BF oder Ähnliches ist). Deshalb will ich ja so schnell wie möglich zu Freesync. Nur die Hersteller kommen nicht hinterher. :cool:

Kartenlehrling
2015-04-07, 18:20:33
HEHE ...

Nvidia hat ein Video veröffentlicht,
in dem für den Laien nochmal erklärt wird, wie G-Sync funktioniert.

http://www.pcgameshardware.de/Nvidia-G-Sync-Hardware-259943/Videos/Funktionsweise-erklaert-Video-1155668/
Nvidia G-Sync: Funktionsweise noch mal im Video erklärt

dargo
2015-04-07, 19:23:20
Lustig in dem Video ist die Tatsache, dass selbst die G-Sync Demonstration bei mir ruckelt. :biggrin:

Effe
2015-04-07, 19:26:33
Super Smooth bei 30FPS-Webplayer. ROFL

gnomi
2015-04-13, 10:16:49
Also ich habe einfach super Erfahrungen mit GSync gemacht. :up:
Vereinzelte Probleme hinsichtlich Frametimes und Optimierungen bleiben nur leider je nach Engine und Spiel.
Battlefield Hardlines oder Far Cry 4 sowie Watch Dogs @ Ultra laufen zumindest bei mir mit einer 980 OC eben immer noch nicht ganz perfekt, wenn man da mal mit extremem Anspruch drangeht.
Man wünscht sich da mehr Hingabe und Entwicklungsspielraum, aber dazu müssten imho auch deutlich mehr Games vom Start weg zum Vollpreis gekauft werden.
Die Keule mit Titan X möchte ich auch nicht rausholen, denn fast immer ist es die Software. (Nachfolger mit aufgebohrter Engine laufen um Längen besser)

videre
2015-05-22, 21:22:28
Hi, habe den LG Electronics 29UM67-p geliehen bekommen, könnt ihr mir sagen ob es irgendwo die Windmühlen Demo gibt oder sonstiges kleines Programm?
Würde gerne erstmal FreeSync direkt testen ohne Spiel. :freak:

Kartenlehrling
2015-05-22, 21:29:48
http://www.asus.com/support/Search-Result-Detail/5138EA9F-0612-492D-88F5-D6AEA2A39423/?keyword=MG279Q

h XX p://www.asus.com/support/Search-Result-Detail/5138EA9F-0612-492D-88F5-D6AEA2A39423/?keyword=MG279Q

h XX ps://www.asuswebstorage.com/navigate/s/2B197749034A48E1B00E4B3B5EDFFC66Y

Am besten 15.4.1beta (freesync treiber) installieren, freesync aktivieren, vsync-AUS und den FPS-Limiter auf 74fps einstellen.

videre
2015-05-22, 21:30:31
http://www.asus.com/support/Search-Result-Detail/5138EA9F-0612-492D-88F5-D6AEA2A39423/?keyword=MG279Q

Am besten 15.4.1beta (freesync treiber) installieren, freesync aktivieren, vsync-AUS und den FPS-Limiter auf 74fps einstellen.
Hi, dank dir, habe eben die Demo endlich gefunden.
Dann mal sehen.

Edit:
Ich habe endlich die Demo runtergeladen...mit 70 kb/s.
Wie dem auch sei, also die demo ist seltsam.
Ich wähle 55 FPS oder 60 FPS aus, tearing, schalte ich V-Sync an, ist logischerweise kein Tearing mehr vorhanden.
Schalte ich FreeSync ein/aus, merke ich irgendwie keinen Unterschied, ist der Unterschied so gering?
Soweit ich gelesen habe, soll es ohne FreeSync ruckeln...ich sehe irgendwie nichts.
Natürlich habe ich Catalyst 15.4 beta, FreeSync auch eingeschaltet im Catalyst und außerdem beim Monitor eingeschaltet.
Besonders beim Pattern macht es so gut wie keinen Unterschied ob FreeSync an ist oder nicht.

mironicus
2015-05-23, 00:01:38
Du musst am Monitor erst Freesync aktivieren. Es ist standardmäßig aus.
Die Grafikkarte muss am Displayport angeschlossen sein, und im Catalyst-Treiber muss Freesync ebenfalls noch aktiviert werden.

videre
2015-05-23, 00:28:05
Du musst am Monitor erst Freesync aktivieren. Es ist standardmäßig aus.
Die Grafikkarte muss am Displayport angeschlossen sein, und im Catalyst-Treiber muss Freesync ebenfalls noch aktiviert werden.
Natürlich, dass weiß ich doch!
Habe doch extra ein DisplayPort genommen, und wie erwähnt überall FreeSync aktiviert.

Kartenlehrling
2015-05-23, 00:40:41
Edit:
Ich habe endlich die Demo runtergeladen...mit 70 kb/s.
Wie dem auch sei, also die demo ist seltsam.
Ich wähle 55 FPS oder 60 FPS aus, tearing, schalte ich V-Sync an, ist logischerweise kein Tearing mehr vorhanden.
Schalte ich FreeSync ein/aus, merke ich irgendwie keinen Unterschied, ist der Unterschied so gering?
Soweit ich gelesen habe, soll es ohne FreeSync ruckeln...ich sehe irgendwie nichts.
Natürlich habe ich Catalyst 15.4 beta, FreeSync auch eingeschaltet im Catalyst und außerdem beim Monitor eingeschaltet.
Besonders beim Pattern macht es so gut wie keinen Unterschied ob FreeSync an ist oder nicht.

Kannst du im Monitor Menu 75Hz einstellen das soll nur unter freesync + Displayport gehen?!
Und wie ich schon geschrieben habe um das problem mit dem unteren Limit( 40? 48Hz?) zu umgehen >>> freesync aktivieren, vsync-AUS und den FPS-Limiter auf 74fps einstellen.

videre
2015-05-23, 00:43:39
Kannst du im Monitor Menu 75Hz einstellen das soll nur unter freesync + Displayport gehen?!
Und wie ich schon geschrieben habe um das problem mit dem unteren Limit( 40? 48Hz?) zu umgehen >>> freesync aktivieren, vsync-AUS und den FPS-Limiter auf 74fps einstellen.
Genau die gleichen Einstellungen habe ich auch, 75 Hz kann ich nur im Catalyst einstellen (Desktop-Eigenschaften).
Wo kann ich den fps limiter einstellen? oder thirdparty programm?

Kartenlehrling
2015-05-23, 00:45:44
und Vollbild Modus, kein Fenstermode oder hat sich da was geändert?

75 Hz kann ich nur im Catalyst einstellen (Desktop-Eigenschaften).

da meine ich ja.


Wo kann ich den fps limiter einstellen? oder thirdparty programm?

Sie wollen es ins CCC aktivieren, zur not nimmt du halt MSI Afterburner und stellt unter "Global" 74fps .

http://s13.postimg.org/k3o1xv26f/fps_limit2.png

Aber du muss es doch im AMD-Test Windmühle sehen können, da kann man doch freesync an- und ausschalten.

videre
2015-05-23, 01:01:42
und Vollbild Modus, kein Fenstermode oder hat sich da was geändert?

da meine ich ja.

Sie wollen es ins CCC aktivieren, zur not nimmt du halt MSI Afterburner und stellt unter "Global" 74fps .
Ne, vollbild.
Ja, ich nutze immer Bandicam für so etwas, ist praktisch und klein.
Ich habe eben Robocraft installiert und getestet, starkes Tearing, wie kann das sein :eek:?
Wie erwähnt, habe ich FreeSync im Monitor/CCC aktiviert und ein DisplayPort Kabel...
Frames im Spiel liegen bei 60, das Spiel limitiert glaube ich, VSync ist per CCC aktiviert.
Ich verstehe es einfach nicht.

Kartenlehrling
2015-05-23, 01:12:15
Trenne mal den Monitor, der Rechner muss aber an sein, vom Strom (stecker ziehen),..... aber das kann es auch nicht sein,
weil sonst könnes du freesync überhaupt nicht im CCC sehen wenn er keine freesync tauglichen Monitor erkennt.

Schön sehen kannst du es im CiV:BE Benchmark, gibts auch als Demo wenn du es nicht hast.

videre
2015-05-23, 01:21:06
FreeSync funktioniert einfach nicht richtig und wenn, dann nur sporadisch...
Mal geht es, mal nicht, ich weiß nicht was es dauernd ausschaltet.
Vielleicht liegts an den Betatreibern, ich warte erstmal bessere Treiber ab.

Demogod
2015-07-11, 17:51:34
Haste jetzt mal mit dem 15.7er getestet?