PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Das Adaptive-Sync-Dilemma


MadManniMan
2018-07-03, 09:17:35
Meine These in Kurzform: G-Sync verhindert Progression im Gaming. Ist jetzt sicher kein spektakulär neuer Gedanke, dass proprietäre Technik zur Gewinnmaximierung und nicht zum Wohle aller genutzt wird, aber ich wollte gern mal Gegenargumente hören.

Ich habe hier einen 22-Zoll-TN vor mir stehen, der hoffentlich bald mal ersetzt wird. Aktuell habe ich eine GTX 1060 im Rechner, weswegen ich von Freesync nix hätte. Schaue ich nun nach Monitoren mit Adaptive Sync, finde ich solche mit (willkürliche, intuitive Beschränkung) Freesync und 144 Hz gleich 16 Stück zwischen 200 und 250 Euro (https://geizhals.de/?cat=monlcd19wide&bpmax=250&v=e&hloc=de&filter=aktualisieren&sort=t&bl1_id=30&xf=11963_144~11992_Adaptive+Sync%2FAMD+FreeSync), mit G-Sync und 144 Hz sind es nur noch 3 Geräte - und zwar zwischen 350 und 400 Euro (https://geizhals.de/?cat=monlcd19wide&bpmax=400&v=e&hloc=de&filter=aktualisieren&xf=11992_NVIDIA+G-Sync~11994_144) (nach oben offen natürlich mehr).

Das ist doch Scheiße. Wenn ich wirklich einen großen Sprung und den neuesten Scheiß haben will, muss ich entweder tief in die Tasche greifen und den Teufelskreis Lock-In-Syndrom weiter befeuern (indem ich mich auf Nvidia beschränke), oder ich muss wieder andere Kompromisse eingehen und neue Radeons kaufen ... argh ...

Ich hatte das Problem vor 10 Jahren schonmal. Da wollte ich unbedingt 3D-Vision und habe deswegen keine 4800er-Radeon ins Auge gefasst und mir eine 9800 GT besorgt. Aber: damals war das keine solche dichotome Frage wie bei den oben genannten Monitoren ...

Also nochmal: was ist an der Situation gut? Was verkenne ich?

Kartenlehrling
2018-07-03, 09:48:11
Dieses Dilemma wird dir keiner abnehmen können, VRR über HDMI2.1 wird Nvidia können,
nur wollen werden sie dieses nicht nachdem sie auf der CES2018 die G-Sync Grossmonitor vorgestellt haben.

400€ für G-sync 144Hz sind doch gut. :rolleyes:

MadManniMan
2018-07-03, 10:12:57
Vielleicht ist eine Budget-Perspektive ein wenig abseitig, da ich bspw. die 150 Euro Differenz zwischen Freesync- und G-Sync-Geräte gut in ein Smartphone investieren könnte (in diesem Preisbereich gucke ich für üblich), aber sind 400 Euro für einen G-Sync-Monitor tatsächlich kein Problem? Was bekommt man denn sonst so für 150 Euro Aufpreis bei Monitoren?

Oder anders: was rechtfertigt konkret diese beiden völlig unterschiedlichen (meine Wahrnehmung!) Preisbereiche?

dargo
2018-07-03, 10:13:30
Also nochmal: was ist an der Situation gut? Was verkenne ich?
Gar nichts. Nur der Kunde hat es in der Hand indem er keine Nvidia-Hardware kauft! Das muss aber erstmal in die Köpfe der Masse, was offenbar für viele zu komplex ist. Erst wenn Nvidia es in der eigenen Tasche weh tut wird man auf adaptiv Sync am Desktop eingehen.


Oder anders: was rechtfertigt konkret diese beiden völlig unterschiedlichen (meine Wahrnehmung!) Preisbereiche?
Nvidia verwendet einen teuren FPGA (vom Wechsel auf einen ASIC habe ich jedenfalls noch nichts gelesen), was den Monitor nur unnötig verteuert. Diese Kosten kannst du nicht mehr im Budget Bereich bei den Monitoren unterbringen, bzw. sie sind entsprechend teurer. Richtig albern wirds bei den beiden neuen 4k 144Hz G-Sync Bildschirmen wo man davon ausgeht, dass alleine der neue FPGA um die 500$ kostet. :crazy:

SKYNET
2018-07-03, 10:13:47
Dieses Dilemma wird dir keiner abnehmen können, VRR über HDMI2.1 wird Nvidia können,
nur wollen werden sie dieses nicht nachdem sie auf der CES2018 die G-Sync Grossmonitor vorgestellt haben.

400€ für G-sync 144Hz sind doch gut. :rolleyes:

nur das samsung druck macht und alle anderen TV hersteller werden auch auf freesync setzen, heisst g-sync ist eigentlich eine totgeburt.

Lowkey
2018-07-03, 10:16:23
Die konkrete Frage lautet immer noch, wie G-Sync oder Free-Sync realisiert wird, denn Adaptive-Sync ist Teil der DP Norm. Nur ist Adaptive-Sync sowas wie der kleinste Nenner von Free-Sync.

In dicken 4k 144hz Monitoren geht das Modul für G-Sync über die 500 Euro Grenze und braucht aktive Kühlung (wir haben ja alle die News gelesen). Aber in Notebooks darf man nur zertifizierte Displays einbauen.

Also stellt sich mir jeden Tag die Frage, was G-Sync aktuell ist. Ist es ein Modul oder eine Zertifizierungskette wie bei Intel, wo Intel die Eigenschaften mehrerer Produkte in Kombination vorschreibt, damit man das Logo bekommt. Steckt in jedem G-Sync Notebook eine Platine von Nvidia?

Monitore explodieren im Preis seit ein paar Jahren und der Aufpreis wird sogar bezahlt. Hätte AMD ein Gegenstück zur 1080 Ti, dann sähe der Markt vllt anders aus.

dargo
2018-07-03, 10:21:54
Monitore explodieren im Preis seit ein paar Jahren und der Aufpreis wird sogar bezahlt. Hätte AMD ein Gegenstück zur 1080 Ti, dann sähe der Markt vllt anders aus.
Wieso wird VRR jetzt plötzlich auf die schnellsten Grafikkarten am Markt reduziert? :confused: Und wo explodieren die Monitorpreise? Ich sehe davon nichts. Ich schaue mich aber auch nicht bei G-Sync Monitoren um.

SKYNET
2018-07-03, 10:30:56
Hätte AMD ein Gegenstück zur 1080 Ti, dann sähe der Markt vllt anders aus.


ehm, die wenigsten haben ne 1080/Ti oder vega56/64 im rechner, eher eine gruppe drunter = 1060/1070 und 570/580... :wink:

MadManniMan
2018-07-03, 11:21:32
Braucht Freesync eigentlich keine Hardware? Und wenn nein: ist an G-Sync-Modulen irgendwas trotzdem ... "besser"?

PatkIllA
2018-07-03, 11:37:33
Braucht Freesync eigentlich keine Hardware? Und wenn nein: ist an G-Sync-Modulen irgendwas trotzdem ... "besser"?
Das ist im ASIC des Monitors drin. Ob und was besser ist hängt also an der Umsetzung.
Meist haben die aber schon mal einen deutlich geringeren Bereich.
UHD mit mehr als 60 Hz gibt es AFAIK derzeit auch nur bei G-SYNC. Das ist dann aber das Teil mit Lüfter für etliche hundert Euro Aufpreis.

VRR über HDMI2.1 wird Nvidia können, Ist das offiziell? Monitore oder TVs, die das können gibt es aber auch noch nicht oder? Oder nur mit der alten Bandbreite/Farbunterabtastung?!

MartinRiggs
2018-07-03, 11:40:56
Und warum darf ein Monitor keine 400€ kosten?
Klar ist die Beschränkung von G-Sync nicht schön, solange es von AMD keine gescheiten Grafikkarten gibt aber müßig sich darüber aufzuregen.
Schau mal in Ebay Kleinanzeigen, da habe ich meinen 27er gefunden für fast die Hälfte vom NP.

Screemer
2018-07-03, 11:40:57
Uhd mit mehr als 60hz? Gibt's das schon? ach ja die sackteuren neuen prädatoren.

@martinriggs: weil man eben nicht mehr ausgeben möchte oder kann?!

Lowkey
2018-07-03, 11:51:49
Wieso wird VRR jetzt plötzlich auf die schnellsten Grafikkarten am Markt reduziert? :confused: Und wo explodieren die Monitorpreise? Ich sehe davon nichts. Ich schaue mich aber auch nicht bei G-Sync Monitoren um.
ehm, die wenigsten haben ne 1080/Ti oder vega56/64 im rechner, eher eine gruppe drunter = 1060/1070 und 570/580... :wink:

Das wurde doch mal vor Jahren festgestellt, dass der Hersteller mit dem schnellsten Modell auch mehr schwächere Grafikkarten verkauft und damit mehr Marktanteile hält, was wiederum für mehr Support von Dritten sorgt. In dem Fall bedeutet: mehr Nvidia Grafikkarten = mehr G-Sync.

Keine Monitor-Preisexplosion?

Was ist das?
https://geizhals.de/acer-predator-x27bmiiphzx-um-hx0ee-009-a1615513.html

Oder die Kosten für G-Sync Module

https://www.computerbase.de/2018-06/uhd-monitore-144-hz-g-sync-modul-kosten/

Von 200 auf 810 Dollar ...

Oder die aktuelle Überproduktion von Panels zur WM 2018 an 4k Fernsehern:

http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Monitor-Hersteller-sollen-hoeheraufloesende-Panel-via-Firmware-beschneiden-1259302/

(32" Noname für 80 Euro, 55" für 333 Euro,... je mit Reciever ist bei Fernsehern neuer Tiefstpreisrekord).

Im Kontrast dazu immer noch der Samsung 2233, der damals mit Teils unter 200 Euro als erster 22" 120hz 3D Vision Monitor ein Schnäppchen war. Und heute ist ein Gaming Monitor eben ein 1000 Euro Monster mit 34" und 120hz. Selbst ein Profi Monitor vor 10 Jahren kostete nicht 1000 Euro.

Die Preise für 144hz oder 240hz fallen etwas. 144hz mit Free-Sync gibt es schon mal unter 200 Euro und 240hz im Angebot weit unter 300 Euro. Nur die G-Sync Modelle fallen seltener im Preis.

maguumo
2018-07-03, 11:51:57
Steckt in jedem G-Sync Notebook eine Platine von Nvidia?


Nein. Notebook Panels haben keinen Scaler sondern hängen über eDP direkt an der GPU. Variable Refreshrate gibt es da schon länger als Free/Gsync als Stromsparfeature.

MadManniMan
2018-07-03, 11:54:11
Das ist im ASIC des Monitors drin. Ob und was besser ist hängt also an der Umsetzung.
Meist haben die aber schon mal einen deutlich geringeren Bereich.
UHD mit mehr als 60 Hz gibt es AFAIK derzeit auch nur bei G-SYNC. Das ist dann aber das Teil mit Lüfter für etliche hundert Euro Aufpreis.

Also gibt es mit den "normales" ASICs bestimmte harte Grenzen für adaptive Synchronisation? Wo liegen diese?


Und warum darf ein Monitor keine 400€ kosten?

Ich sage nicht, dass Monitore weniger als 250 Euro kosten müssen.* Aber ich frage mich: was rechtfertigt den Aufpreis der Monitore in meinem ersten Posting in diesem Thread? Zur Erinnerung: ab 144 Hz mit Freesync < 250 Euro, ab 144 Hz mit G-Sync > 250 Euro.

*außerhalb vom Zocken reicht natürlich auch viel weniger - Kommilitone hat sich zum Arbeiten ein x-beliebiges 24"-HD-IPS-Gerät für 140 Euro geholt

Lowkey
2018-07-03, 11:54:19
Nein. Notebook Panels haben keinen Scaler sondern hängen über eDP direkt an der GPU. Variable Refreshrate gibt es da schon länger als Free/Gsync als Stromsparfeature.

Angenommen ich bekomme irgendwann ein eDP to DP Adapter, dann kann ich doch dennoch kaum G-sync im Treiber aktivieren?

Lowkey
2018-07-03, 11:55:18
AAber ich frage mich: was rechtfertigt den Aufpreis der Monitore in meinem ersten Posting in diesem Thread?

Solange der Geldbeutel voll ist, wird es bezahlt.

HisN
2018-07-03, 11:55:49
Das Gerät das am längsten hält, muss natürlich auch billiger als die Graka sein, besonders wenn es mehrere davon überlebt?

Ich weiss gar nicht warum man als 144Hz User überhaupt ein Hardware-sync braucht.
Da feiert man die 144Hz Displays, weil sie so schön schnell schalten und wenig schlieren, und schaltet den Monitor, begrenzt durch das Sync, schön langsam, damit wieder mehr Schlieren erscheinen, sofern man keine 144FPS erreicht? Was soll das bitte? Reiner Selbstbeschiss. Kann ich nur bei 60Hz Monitoren verstehen. Darüber tuts Fastsync um Tearing zu verhindern, hauptsache das Panel schaltet schnell.
Nochmal meine Frage in Kurz: Warum kauft man sich ein 144Hz Display und lässt es dann vom Hardwaresync einbremsen/schlieren?

Kartenlehrling
2018-07-03, 12:03:58
Ist das offiziell? Monitore oder TVs, die das können gibt es aber auch noch nicht oder?
Oder nur mit der alten Bandbreite/Farbunterabtastung?!


Es scheint ja auf dem NU8000 2018er Modell zu funktionieren. (https://youtu.be/HyfexS66LLA?t=78)

Nightspider
2018-07-03, 12:08:28
Bin jetzt auch kein Fan von Nvidias eigener G-Sync Lösung aber auf der anderen Seite gibts doch nicht mal Alternativen für 4K+G-Sync+HDR+144Hz oder?

Da könnten ja locker nochmal 2 Jahre ins Land gehen bis FreeSync oder Adaptive Sync HDR+4K+144Hz+Sync supporten oder?

Wenn ich mir die riesige NV Platine mit 3GB RAM und großen FPGA ansehe....

Bis da die einzelnen Monitorhersteller sowas in Hardware gegossen haben wird das noch ewig dauern.

PatkIllA
2018-07-03, 12:15:36
Also gibt es mit den "normales" ASICs bestimmte harte Grenzen für adaptive Synchronisation? Wo liegen diese?Das hängt von der Hardware ab. Genauso gibt es bei GSYNC ja auch Grenzen. Meist aber weitere.
Bis da die einzelnen Monitorhersteller sowas in Hardware gegossen haben wird das noch ewig dauern.Solange ja auch nicht und für Dinge wie HDMI 2.1 und was über UHD mit 60 Hz hinausgeht braucht man eh was neues. Irgendwann ist das jedem Billigteil mit drin, wenn mehr als ein Hersteller das hat.
Ich weiss gar nicht warum man als 144Hz User überhaupt ein Hardware-sync braucht.
Da feiert man die 144Hz Displays, weil sie so schön schnell schalten und wenig schlieren, und schaltet den Monitor, begrenzt durch das Sync, schön langsam, damit wieder mehr Schlieren erscheinen, sofern man keine 144FPS erreicht? Was soll das bitte? Reiner Selbstbeschiss. Kann ich nur bei 60Hz Monitoren verstehen. Darüber tuts Fastsync um Tearing zu verhindern, hauptsache das Panel schaltet schnell.
Nochmal meine Frage in Kurz: Warum kauft man sich ein 144Hz Display und lässt es dann vom Hardwaresync einbremsen/schlieren?Warum sollte das mehr schlieren. Die Umschaltzeiten des Panels bleiben doch die gleichen.

gnomi
2018-07-03, 12:26:17
Der Preis war grenzwertig, aber ich habe mich dann doch 2014 für GSync mit WQHD bei 27 Zoll und 144 Herz entschieden und bin damit immer noch super zufrieden. :up:
Man muss auch bedenken, dass die Technik in Verbindung mit deren GPU's am frühsten rauskam und imho einfach bis heute auch das beste Spielerlebnis bringt.
Der Aufpreis war unschön, aber hielt sich noch halbwegs im Rahmen.
Aktuell wird es aber dann doch ein wenig kurios mit HDR & 4k.
Das soll jetzt nochmal das Dreifache bei gleicher Bildschirmgröße kosten? :O :freak:
Ich bin gespannt, wer das mitmacht, und ob wir nicht doch schnell mehr Konkurrenz sehen.

HisN
2018-07-03, 12:34:56
Warum sollte das mehr schlieren. Die Umschaltzeiten des Panels bleiben doch die gleichen.


Öhm, bitte...

Da eiern alle rum und erzählen 60hz-Displays sind ein graus und schlieren wie verrückt man braucht ein 144hz Panel.
Und dann lässt man das schöne 144Hz-Panel mit 60Hz laufen, weil man nicht mehr FPS hinbekommt und plötzlich schliert es weniger?

Die Umschalt-Zeiten der einzelnen Pixel der 144Hz-Panels sind ja jetzt nicht plötzliche so dermaßen besser. Es sind sogar fast die gleichen wie bei 60Hz-Panels, was wohl der LCD-Technik geschuldet ist. Nur der Refresh des Panels wurde schneller gemacht, und genau den "Vorteil" gibt man durch Gsync wieder auf, sofern man die Refresh-Zeiten nicht mit den FPS erreicht.

dargo
2018-07-03, 13:14:49
Das wurde doch mal vor Jahren festgestellt, dass der Hersteller mit dem schnellsten Modell auch mehr schwächere Grafikkarten verkauft und damit mehr Marktanteile hält, was wiederum für mehr Support von Dritten sorgt. In dem Fall bedeutet: mehr Nvidia Grafikkarten = mehr G-Sync.

In welcher Traumwelt lebst du? Wie viele G-Sync Bildschirme gibt es und wie viele Freesync? Ein Blick bei GH zu riskieren reicht völlig aus. Und auch hier zeige ich dir gerne nochmal die baugleichen Bildschirme.
https://www.mindfactory.de/product_info.php/24Zoll--60-96cm--AOC-G2460PF-schwarz-1920x1080-1xDisplayPort-1xDVI-1xHD_1022037.html
https://www.mindfactory.de/product_info.php/24Zoll--60-96cm--AOC-g2460Pg-schwarz-1920x1080-DisplayPort_974516.html

Das Freesync Pendant verkaufte sich bis heute (und der G-Sync Bildschirm hatte sogar über 1 Jahr Vorsprung) 7x so viel.




Keine Monitor-Preisexplosion?

Was ist das?
https://geizhals.de/acer-predator-x27bmiiphzx-um-hx0ee-009-a1615513.html

Und das ist jetzt repräsentaitv für alle Monitore? :facepalm: Wie wärs gleich damit?
https://geizhals.de/eizo-coloredge-prominence-cg3145-a1678499.html?hloc=de


Ich weiss gar nicht warum man als 144Hz User überhaupt ein Hardware-sync braucht.
Da feiert man die 144Hz Displays, weil sie so schön schnell schalten und wenig schlieren, und schaltet den Monitor, begrenzt durch das Sync, schön langsam, damit wieder mehr Schlieren erscheinen, sofern man keine 144FPS erreicht? Was soll das bitte? Reiner Selbstbeschiss. Kann ich nur bei 60Hz Monitoren verstehen. Darüber tuts Fastsync um Tearing zu verhindern, hauptsache das Panel schaltet schnell.
Nochmal meine Frage in Kurz: Warum kauft man sich ein 144Hz Display und lässt es dann vom Hardwaresync einbremsen/schlieren?
Oh Gott, bitte befasse dich mal genauer mit VRR bevor es hier wieder lächerlich wird.

unl34shed
2018-07-03, 13:17:08
Nein, die 150€ sind eigentlich nicht gerechtfertigt und das Nvidia erster am Markt war liegt wohl ausschließlich am FPGA, der auf ihren Modulen werkelt.

PatkIllA
2018-07-03, 13:18:18
Öhm, bitte...

Da eiern alle rum und erzählen 60hz-Displays sind ein graus und schlieren wie verrückt man braucht ein 144hz Panel.
Und dann lässt man das schöne 144Hz-Panel mit 60Hz laufen, weil man nicht mehr FPS hinbekommt und plötzlich schliert es weniger?

Die Umschalt-Zeiten der einzelnen Pixel der 144Hz-Panels sind ja jetzt nicht plötzliche so dermaßen besser. Es sind sogar fast die gleichen wie bei 60Hz-Panels, was wohl der LCD-Technik geschuldet ist. Nur der Refresh des Panels wurde schneller gemacht, und genau den "Vorteil" gibt man durch Gsync wieder auf, sofern man die Refresh-Zeiten nicht mit den FPS erreicht.
Ohne GSync doch aber auch nur das gleiche Bild noch mal ausgegeben. Wo soll der Nachteil enstehen, wenn man das gleiche Bild einfach etwas länger stehen lässt?

MadManniMan
2018-07-03, 13:18:56
Solange der Geldbeutel voll ist, wird es bezahlt.

... was nichts daran ändert, das es somit ein Enthusiastenfeature bleibt, richtig? Bzw. nochmal anders: aus Gründen™ wird G-Sync teuer bezahlt, Freesync nicht?


Das hängt von der Hardware ab. Genauso gibt es bei GSYNC ja auch Grenzen. Meist aber weitere.

Naja, G-Sync-Module gab es ja von Anfang an in den "kleinsten" Ausführungen, also (wenn ich mich richtig erinnere) bei ~120/144 Hz in Full HD. Offenbar braucht es diese für Freesync mit 144 Hz in WQHD nicht. Zumindest nicht mehr. (https://geizhals.de/?cat=monlcd19wide&xf=11963_144~11992_Adaptive+Sync%2FAMD+FreeSync~13263_25601440)


Da eiern alle rum und erzählen 60hz-Displays sind ein graus und schlieren wie verrückt man braucht ein 144hz Panel.
Und dann lässt man das schöne 144Hz-Panel mit 60Hz laufen, weil man nicht mehr FPS hinbekommt und plötzlich schliert es weniger?

Bist Du sicher, dass Du Adaptive Sync richtig verstanden hast? Wie kommst Du auf die 60-Hertz-Beschränkung?

maguumo
2018-07-03, 13:20:41
Angenommen ich bekomme irgendwann ein eDP to DP Adapter, dann kann ich doch dennoch kaum G-sync im Treiber aktivieren?
Keinen Plan, da musst du wen Fragen der tatsächlich versteht wie der Kram funktioniert. Vielleicht schaut ja wer davon mal hier im Thread vorbei.

Rancor
2018-07-03, 13:23:41
Öhm, bitte...

Da eiern alle rum und erzählen 60hz-Displays sind ein graus und schlieren wie verrückt man braucht ein 144hz Panel.
Und dann lässt man das schöne 144Hz-Panel mit 60Hz laufen, weil man nicht mehr FPS hinbekommt und plötzlich schliert es weniger?

Die Umschalt-Zeiten der einzelnen Pixel der 144Hz-Panels sind ja jetzt nicht plötzliche so dermaßen besser. Es sind sogar fast die gleichen wie bei 60Hz-Panels, was wohl der LCD-Technik geschuldet ist. Nur der Refresh des Panels wurde schneller gemacht, und genau den "Vorteil" gibt man durch Gsync wieder auf, sofern man die Refresh-Zeiten nicht mit den FPS erreicht.

Wenn du aufn nem 144 Hz Panel nur 80 FPS hast, dann bringt dir das recht wenig außer Tearing....
Mit Adaptive Sync haste das wenigstens eliminiert. 80 FPS @80 HZ sind besser als 80 FPS @ 144 HZ.

dargo
2018-07-03, 13:27:54
Bin jetzt auch kein Fan von Nvidias eigener G-Sync Lösung aber auf der anderen Seite gibts doch nicht mal Alternativen für 4K+G-Sync+HDR+144Hz oder?

Es gibt noch nicht mal ausreichend schnelle Grafikkarten für 4k (nein, auch nicht bei Nvidia), von daher sehe ich da noch keinen Nachteil.

... was nichts daran ändert, das es somit ein Enthusiastenfeature bleibt, richtig?

Vollkommen richtig, aber nur bei Nvidia!

Wenn du aufn nem 144 Hz Panel nur 80 FPS hast, dann bringt dir das recht wenig außer Tearing....

Nicht nur Tearing, auch Stuttering.

N0Thing
2018-07-03, 13:28:21
Braucht Freesync eigentlich keine Hardware? Und wenn nein: ist an G-Sync-Modulen irgendwas trotzdem ... "besser"?

Also gibt es mit den "normales" ASICs bestimmte harte Grenzen für adaptive Synchronisation? Wo liegen diese?


Die harten Grenzen für adaptive Sync liegen laut AMD zwischen 9Hz und 240Hz bei Free-Sync. Das ist natürlich nur ein theoretischer Wert, denn in der Praxis bestimmt der Scaler des Monitors die Grenzen und eventuell auch die Arbeit, die ein Hersteller in die Abstimmung zwischen Elektronik und Panel stecken will. Welcher Scaler in einem Monitor steckt und was die können, ist für einen Laien von außen nicht ersichtlich.

Die Vorteile von g-Sync liegen darin, dass durch den FPGA leichter (?) das Maximum des Panels genutzt werden kann, ohne dass es zu Bildfehlern oder Flackern kommt. In der Praxis bedeutet das oft einen größeren Bereich, in dem g-sync im Vergleich zu Free-Sync funktioniert. Als Beispiel, der g-sync Monitor schafft 30Hz-100Hz, der Free-Sync Monitor 30-75Hz.

HisN
2018-07-03, 13:32:10
Mit Adaptive Sync haste das wenigstens eliminiert. 80 FPS @80 HZ sind besser als 80 FPS @ 144 HZ.

Und genau das bezweifle ich. Gegen Tearing hab ich Fastsync, hauptsache das Panel schaltet mit 144hz und ich hab keine/weniger Schlieren.

Aber so halt jeder wie er möchte, es gibt wohl keine "perfekte" Lösung.

dargo
2018-07-03, 13:34:00
Die Vorteile von g-Sync liegen darin, dass durch den FPGA leichter (?) das Maximum des Panels genutzt werden kann, ohne dass es zu Bildfehlern oder Flackern kommt. In der Praxis bedeutet das oft einen größeren Bereich, in dem g-sync im Vergleich zu Free-Sync funktioniert. Als Beispiel, der g-sync Monitor schafft 30Hz-100Hz, der Free-Sync Monitor 30-75Hz.
Dafür hätte ich gerne erstmal einen Beweis! Die ganzen G-Sync Angaben sind komplett falsch. Erstens gibt es keine untere Grenze bei 30Hz. Zweitens weiß niemand ab wieviel fps bzw. Hz der G-Sync Bildschirm X Framevervielfältigung betreibt. PCper hatte sich diesbezüglich zur Anfangszeit von G-Sync einen einzigen 144Hz Bildschirm angeschaut. Und dieser hatte eine Range von afaik 36-144Hz oder 37-144Hz. Genau weiß ich es nicht mehr. Es gibt ein ausführliches Video davon bei YT.

N0Thing
2018-07-03, 13:38:58
Das war ein einfaches Beispiel von meinem Monitor, wo das Free-Sync Modell die genannten 30-75Hz Range hat und das g-sync Modell die genannten 30-100Hz. Für Beweise kannst du dich durch die Reviews der entsprechenden Monitore lesen, keine Ahnung wo und wie genau die Range vermessen wurden, aber ich weiß zumindest von meinem Modell, dass Free-Sync tatsächlich innerhalb des 30-75 Bereichs funktioniert und ich wüsste keinen Grund, warum das bei den g-sync Modellen anders ist.

dargo
2018-07-03, 13:41:41
Das war ein einfaches Beispiel von meinem Monitor, wo das Free-Sync Modell die genannten 30-75Hz Range hat und das g-sync Modell die genannten 30-100Hz. Für Beweise kannst du dich durch die Reviews der entsprechenden Monitore lesen, keine Ahnung wo und wie genau die Range vermessen wurden, aber ich weiß zumindest von meinem Modell, dass Free-Sync tatsächlich innerhalb des 30-75 Bereichs funktioniert und ich wüsste keinen Grund, warum das bei den g-sync Modellen anders ist.
Nur weil Panel X mit 30-75Hz refreshed heißt es nicht automatisch, dass Panel Y dies auch tut. Ein Panel hat immer eine untere Grenze. Drunter greift die Framevervielfältigung die es sowohl bei G-Sync als auch Freesync gibt. Bei Freesync muss der Bildschirm dafür natürlich LFC beherrschen.

Rancor
2018-07-03, 14:03:51
Und genau das bezweifle ich. Gegen Tearing hab ich Fastsync, hauptsache das Panel schaltet mit 144hz und ich hab keine/weniger Schlieren.

Aber so halt jeder wie er möchte, es gibt wohl keine "perfekte" Lösung.

FastSync bringt dir aber überhaupt nichts wenn du die 144FPS garnicht erst erreichst.
Ich habe hier einen G-Sync Monitor mit 165HZ und einen Benq mit 144 HZ ohne G-Sync und der direkte Vergleich gibt mir recht. 80 FPS @ G-Sync sind wesentlich fluffiger als ohne ;)

BlacKi
2018-07-03, 14:23:17
Ist jetzt sicher kein spektakulär neuer Gedanke, dass proprietäre Technik zur Gewinnmaximierung und nicht zum Wohle aller genutzt wird, aber ich wollte gern mal Gegenargumente hören.
naja, es ist deutlich anwenderfreundlich. reinstecken glücklich sein. es ist direkt aktiv ohne eine einstellung vornehmen zu müssen. mein freesync setup damals lief nicht von anfang an und auch nur 48-60hz obwohl laut hersteller 48-144hz mit freesync unterstützt wurden. der vorteil des moduls ist einfach reinstecken und glücklich sein. 30-max hz sofort und ohne nachteile gesynct. dafür scheint die platine wohl gut zu sein. das lässt sich nv wohl einfach bezahlen. man betrachte einfach den freesync /gsync fred. 90% geht nur um freesync und dessen tuning. dafür halt günstiger.

was an gsync irgendwie nervt ist, das amd keine gsync monitore unterstützt. wenn das laufen würde, dann könnte man ohne nachzudenken den grafikk.hersteller wechseln wie man möchte.

ich hab seit 1-2 wochen (vorrübergehend :) )einen gsync monitor, genauer, den omen27, wqhd 165hz gsync 30-165hz, mit tn panel. kostenpunkt war 440€. wenn man die eigenschaften betrachtet geht der preis gerade so in ordnung, die freesync modelle kosten 400€, können aber nur 48-144hz synct.

die kleineren monitore leiden unter dem druck möglichst günstig zu sein. deshalb gibts nur günstige freesync modelle IMO verbietet nv den herstellern gsync in schlechte monitore zu verbauen um die qualität zu wahren.

das werden hier einge anders sehen deswegen schreib ich IMO.

amd zieht übrigens nach und lässt nicht jeden monitor mehr als freesync 2 monitor verkaufen. der ruf nach einem siegel für unproblematische monitore bringt amd auch zu einer abgrenzung von schlechten monitoren. das hat nv direkt am anfang über gsync geregelt.

THEaaron
2018-07-03, 14:24:51
Und genau das bezweifle ich. Gegen Tearing hab ich Fastsync, hauptsache das Panel schaltet mit 144hz und ich hab keine/weniger Schlieren.

Aber so halt jeder wie er möchte, es gibt wohl keine "perfekte" Lösung.

Aber er hat Recht. Was hab ich von 144hz wenn die Frames nicht sauber darauf verteilt werden? Letzten Endes möchte ich so viel FPS wie möglich die entweder ein Teiler der Refreshrate sind oder am besten sogar der Refreshrate entsprechen.

80FPS @ 144hz = Judder
80FPS @ 80hz = kein Judder

Wenn ich Overwatch spiele hab ich dann 118fps @ 118hz. Dafür braucht man dann 144hz UND vrr. Das ist im Endeffekt VSYNC ohne input Lag.

HisN
2018-07-03, 14:27:56
Wie gesagt .. Judder und wenig Schlieren oder kein Judder und mehr Schlieren. Pest oder Cholera?
Und geht es bei Dimensionen um 120 FPS überhaupt noch um Inputlag? So für Normalsterbliche?

dargo
2018-07-03, 14:30:53
naja, es ist deutlich anwenderfreundlich. reinstecken glücklich sein. es ist direkt aktiv ohne eine einstellung vornehmen zu müssen.
Stelle dir vor... bei meinem Freesync Bildschirm ist es genau so. :eek:


was an gsync irgendwie nervt ist, das amd keine gsync monitore unterstützt. wenn das laufen würde, dann könnte man ohne nachzudenken den grafikk.hersteller wechseln wie man möchte.

AMD soll G-Sync verwenden? :lol:


ich hab seit 1-2 wochen (vorrübergehend :) )einen gsync monitor, genauer, den omen27, wqhd 165hz gsync 30-165hz, mit tn panel. kostenpunkt war 440€. wenn man die eigenschaften betrachtet geht der preis gerade so in ordnung, die freesync modelle kosten 400€, können aber nur 48-144hz synct.

Ihr rafft es immer noch nicht oder? Die Angabe von 30-165Hz bei deinem G-Sync Bildschirm ist irreführend! Niemand außer dem Monitorhersteller und womöglich Nvidia weiß genau mit welcher Frequenz dein Bildschirm im unteren Bereich refreshed weil sich das keiner genauer anschaut. Die ganzen Ranges bei Nvidia ist nichts weiter als Marketing.


die kleineren monitore leiden unter dem druck möglichst günstig zu sein. deshalb gibts nur günstige freesync modelle IMO verbietet nv den herstellern gsync in schlechte monitore zu verbauen um die qualität zu wahren.

Alter... :facepalm:

Wie gesagt .. Judder und wenig Schlieren oder kein Judder und mehr Schlieren. Pest oder Cholera?

Man hat dich schon mehrmals darauf hingewiesen, dass du Äpfel und Birnen vergleichst. Wie lange soll das noch so weiter gehen?

BlacKi
2018-07-03, 14:33:34
mehr judder+tearing vs mehr schlieren. dann lieber mehr schlieren. wer würde das anders entscheiden?

Screemer
2018-07-03, 14:34:30
hisn

Savay
2018-07-03, 14:35:05
AMD soll G-Sync verwenden? :lol:

Dürften sie sicher...gegen eine bescheidene Lizenzgebühr von sagen wir 100€ pro GPU! :rolleyes:

Ist ja auch klar die bessere alternative als wenn nV einfach den bereits etablierten offenen Standard nutzen würde der sie im Endeffekt eh nix kosten würde. :facepalm:

BlacKi
2018-07-03, 14:36:36
Stelle dir vor... bei meinem Freesync Bildschirm ist es genau so. :eek:


AMD soll G-Sync verwenden? :lol:
dann hätte man wenigsten einen monitor den beides kann. es hätte auch den vorteil, das amd vl ein paar karten mehr verkaufen würde. stell dir vor, eine grafikkarte könnte beides nutzen, das wäre ein großer vorteil!

dargo, bei mir und meinem freesync war das nicht so und die berichte und freesync 2 unterstützen meine these zur anfälligkeit voin fs1.

Dürften sie sicher...gegen eine bescheidene Lizenzgebühr von sagen wir 100€ pro GPU! :rolleyes:

Ist ja auch klar die bessere alternative als wenn nV nen Offenen Standard nutzen würde der sie im Endeffekt eh nix kosten würde. :facepalm:
über dinge die nicht passieren werden zu schwadronieren... die probleme mit dem offenen standard habe ich vorne schon erklärt.

HisN
2018-07-03, 14:40:23
mehr judder+tearing vs mehr schlieren. dann lieber mehr schlieren. wer würde das anders entscheiden?

Ist Tearing nicht in dem Augenblick weg, wo ich Fastsync aktiviert habe? Bleibt nur Judder übrig. Judder oder Schlieren.

dargo
2018-07-03, 14:41:33
dann hätte man wenigsten einen monitor den beides kann.
Stell dir vor das hätten wir schon lange wenn Nvidia sich mal an Standards halten würde!!! :eek:

Edit:
Wo wir schon beim Thema wieder sind... mich würde bsw. interessieren wie Nvidia das Problem bei 4k 60Hz Bildschirmen mit der Framevervielfältigung löst. Bis heute habe ich keine Antwort darauf. Es ist zb. auffällig, dass es noch keinen 4k Freesync Bildschirm mit 30-60Hz gibt. Sind die 4k Panels die mit 30Hz refreshen können exklusiv für Nvidia oder trickst hier NV einfach nur durch ein Übertakten vom Panel? Letzteres würde mich kein Stück wundern wo viele G-Sync Bildschirme über der Spezifikation betrieben werden. Aktuelles Beispiel sind die beiden 4k 144Hz HDR G-Sync Bildschirme die keine 144Hz Panels sondern nur 120Hz verwenden.

Savay
2018-07-03, 14:42:29
Ist Tearing nicht in dem Augenblick weg, wo ich Fastsync aktiviert habe?

Dafür kann ich auch normal VSync anmachen.

Fastsync und Co braucht zum korrekten funktionieren eigentlich signifikant mehr FPS als der Monitor in Hz darstellen kann.
Eigentlich ist das nur das althergebrachte (echte) Triplebuffering....unterhalb der Refreshrate bringt dir das auch eigentlich garnix da du dann entweder normal VSyncst mit judder und lag oder es halt doch wieder teart.

Wenn du von den FPS irgendwo um die Refreshrate rumeierst kann es die Frametimes übrigens sogar unnötig verschlechtern!


über dinge die nicht passieren werden zu schwadronieren... die probleme mit dem offenen standard habe ich vorne schon erklärt.

Du hast doch damit angefangen! :tongue:

FS hat eh nur ein einziges echtes "Problem"...und zwar das LFC nicht obligatorisch ist...lässt sich aber super umgehen indem man bei Bedarf einfach ein Modell kauft das es kann.
So selten oder schwer zu finden sind die nun auch wieder nicht.

BTW...geht auch ohne ganz gut...vor allem bei 60Hz Monitoren wird es mMn überdramatisiert.

BlacKi
2018-07-03, 14:50:27
Ist Tearing nicht in dem Augenblick weg, wo ich Fastsync aktiviert habe? Bleibt nur Judder übrig. Judder oder Schlieren.
fastsync ist doch keine option ausser für spiele wo die fps die hz zahl deutlich übertrifft. ausserdem lässt man rechenpower einfach verfallen. das ist für die wenigsten praktikabel und auch garnicht erreichbar.

selbst bei 60hz und 75fps ist fastsync nur eine option wenn man kein VRR hat. aber vom spielgefühl her nicht besser.

@savay ich glaube eher daran, das amds karten gsync unterschützen würden als das nv async unterstützt. deshalb hab ich das so formuliert.

@dargo, auf dein gehate gehe ich nicht ein. ich hab weiter oben geschrieben warum es wohl so ist wie es ist.

HisN
2018-07-03, 14:51:40
Wenn das Spielgefühl gleich ist, dann passt es doch in unsere Diskussion.
Und wenn man bei 80 FPS hängt, dann wäre vsync tatsächlich auch kein Weltuntergang.

Der_Korken
2018-07-03, 14:52:23
Also nochmal: was ist an der Situation gut? Was verkenne ich?

An der Situation ist eigentlich nichts gut. Der Ball liegt hier allerdings bei Nvidia, denn die könnten vermutlich ohne große Änderungen FreeSync für Geforce bringen (hat sowas eigentlich schon mal jemand mit gemoddeten Treibern oder BIOS hinbekommen?). Als Kunde kann man relativ wenig dagegen tun, außer sich mit AMD+FreeSync zu begnügen. Dumm nur, dass von AMD wohl bis 2019 nichts mehr für Gaming kommt, weswegen man auf jeden Fall in einen sauren Apfel beißen muss.

Savay
2018-07-03, 14:55:37
Es ist zb. auffällig, dass es noch keinen 4k Freesync Bildschirm mit 30-60Hz gibt.

Doch...gibt es:

http://www.tftcentral.co.uk/reviews/acer_prodesigner_pe320qk.htm
:biggrin:

inkl. "HDR" und DCI-P3

Das hat am Ende garantiert am ehesten was mit dem Scaler zu tun!

=Floi=
2018-07-03, 14:58:39
warum braucht NV eigentlich so teure hardware? der FPGA ist ja ein riesen trümmer.
Was macht NV anders? Besser?

dargo
2018-07-03, 15:03:18
Doch...gibt es:

http://www.tftcentral.co.uk/reviews/acer_prodesigner_pe320qk.htm
:biggrin:

inkl. "HDR" und DCI-P3

Das hat am Ende garantiert am ehesten was mit dem Scaler zu tun!
Interessant, ist an mir vorbei gegangen. Dann lag es tatsächlich an der Faulheit der Monitorhersteller entsprechenden Scaler zu liefern. Das beweist leider aber immer noch nicht ob tatsächlich jeder 4k 60Hz G-Sync Bildschirm mit 30Hz refreshen kann. :) Schade, dass sich niemand mal stichprobeartig 2-3 verschiedene Hersteller schnappt und das untersucht. Gleiches gilt übrigens für die neuen 4k "144"Hz Panels.


@dargo, auf dein gehate gehe ich nicht ein.
Sorry, aber ich kann deine Fake News (*hust*) nicht so stehen lassen.

robbitop
2018-07-03, 15:16:21
G-Sync ist im Gegensatz zu ASync kein offener Standard. Kann AMD nicht nutzen, selbst wenn sie es wollten.

Ich finde einen zweistufigen Ansatz sinnvoll.

VESA Standard für Budget VRR
Hersteller Standard für Premium VRR

So macht es AMD mit Freesync 2. Ich hoffe, dass NV dem Budget VRR ab HDMI 2.1 auch keine Steine mehr in den Weg legt.

Leider hat man als High End Nutzer ja im Moment keine andere Wahl als G-Sync. Ein 1080ti Pendant gibt es nicht. Die 1180 wird das noch weiter verschlimmern.

Im Mainstream hingegen ist Polaris immerhin eine valide Option und die günstigste Möglichkeit an VRR zu kommen.

BlacKi
2018-07-03, 15:17:12
@dargo, was für fake news, ich fände es trotzdem von vorteil wenn amd gsync könnte. oder vl anders wenn ein monitor beides könnte. also was weiß ich, ein displayport mit FS und einer mit gsync.

G-Sync ist im Gegensatz zu ASync kein offener Standard. Kann AMD nicht nutzen, selbst wenn sie es wollten.
ist doch nur eine annahme deinerseits. offiziell gibts dazu keine stellungnahme.

aber sehe das genauso, ab hdmi2.1 gibts da hoffentlich keine probleme mehr.

Mr.Magic
2018-07-03, 15:21:09
Ich weiss gar nicht warum man als 144Hz User überhaupt ein Hardware-sync braucht.

Um Ruckler, Input Lag und Schlieren zu beseitigen.

Das mit den Schlieren hatte ich mal mit Vice (C64) getestet. Der 50Hz PAL Scrolltext sah mit G-Sync nicht verschmierter aus als mit 165Hz, dafür waren die Ruckler weg. Das Bild wird mit Multiplier entweder auf 100Hz oder 150Hz dargestellt. Dummerweise verrät NV niemandem was genau die Hardware macht.

Ansonsten das hier lesen: https://www.blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/

Edit: Tearing will natürlich auch keiner haben.

ps: 50Hz ohne G-Sync hatte ich natürlich auch getestet. Damit war der Lauftext kaum lesbar.

dargo
2018-07-03, 15:22:32
@dargo, was für fake news, ich fände es trotzdem von vorteil wenn amd gsync könnte. oder vl anders wenn ein monitor beides könnte. also was weiß ich, ein displayport mit FS und einer mit gsync.

Wird es nie geben, also verabschiede dich gleich von der absurden Idee. Das G-Sync Modul verteuert nur unnötigerweise den Monitor.


Leider hat man als High End Nutzer ja im Moment keine andere Wahl als G-Sync. Ein 1080ti Pendant gibt es nicht.
Natürlich gibt es das, nennt sich RX Vega64. Oder was kann ich mit dieser Grafikkarte in 1440p nicht performant genug spielen? Für 4k ist wie gesagt auch eine 1080TI zu langsam.

HisN
2018-07-03, 15:23:27
Leider hat man als High End Nutzer ja im Moment keine andere Wahl als G-Sync.



Echt? Was hat das eine mit dem anderen zu tun?
Nix gegen technischen Fortschritt, aber es zwingt einen doch niemand VRR zu nutzen. Es gibt einfach genug Szenarien wo es nicht nötig ist und die letzten 20 Jahre ist niemand am fehlenden VRR gestorben.
Genau so kann man sich weiter ein bisschen zusammenreißen und die Geschichte an sich vorbeigehen lassen, solange bis sich die Hersteller geeinigt haben und weiterhin kassisches oder erweitertes vsync benutzen, oder gleich ganz auf Sync verzichten, wie es wahrscheinlich alle "supergeilen gewinnorientiert spielenden superprofis" (wer sich angesprochen fühlt und wer nicht bitteschön^^) machen.

Ich bekomme (wenn ich das möchte) auch UHD+HDR+120Hz ohne ein 600 Dollar FPGA von Intel mit 3GB RAM.

dargo
2018-07-03, 15:29:43
Nix gegen technischen Fortschritt, aber es zwingt einen doch niemand VRR zu nutzen. Es gibt einfach genug Szenarien wo es nicht nötig ist und die letzten 20 Jahre ist niemand am fehlenden VRR gestorben.

Welche Szenarien sollen das sein? Ich kenne kein einziges. Und der letzte Punkt ist einfach nur lächerlich. Etwas ist immer gut genug bis du was besseres kennst.

BlacKi
2018-07-03, 15:33:04
Natürlich gibt es das, nennt sich RX Vega64. Oder was kann ich mit dieser Grafikkarte in 1440p nicht performant genug spielen? Für 4k ist wie gesagt auch eine 1080TI zu langsam.
ding dong, bald ist die neue gen von nv vor der tür. was willst du mit deiner mainstream gpu da noch anstinken? bald ist vega64 vl nur noch für fhd 144hz gut wenn die anforderungen bald steigen.

HisN
2018-07-03, 15:33:53
@Dargo
Du stemmst die FPS die das Panel bietet und nimmst Vsync
Du stemmst so viel mehr FPS als das Panel bietet und lässt ohne Sync oder fastsync laufen
Du schaust Filmchen oder nutzt Anwendungen die nicht FPS-Wütig sind und lässt vsync laufen.

Welche Anwendungen sind denn so zwingend auf VRR angewiesen, dass Du gar nicht mehr ohne leben kannst als "High-End-Nutzer" (bitte Definition was das überhaupt ist).

Den einzige "relevanten" Anwendungsfall von VRR sehe ich in den Regionen von 30-60 FPS, weil einem dort das Bild tatsächlich flüssiger erscheint. Wobei das bei 60 FPS schon fast nicht mehr zu erkennen ist und darüber hinaus nur noch das fehlende Tearing als "FEATURE" bei mir ankommt. Es soll ja abseits von Dir tatsächlich noch User geben die nix von Inputlag oder 15ms-Displays merken, wenn sie davor sitzen. Oder sind das die Low-End-User? *g*

Wenn ich da an die Endlosen Diskussionen von Dir denke, was Du nicht alles an Rucklern merkst ..... dann weiß ich ja jetzt endlich was ein High-End-User ist^^ Schreib doch lieber hochsensibel, das würde in Deinem Fall eventuell treffender sein, und dann würde eventuell auch keine so riesen Story daraus werden. Du bist und bleibst einfach mal ein Sonderfall in der Hinsicht. Und tatsächlich verhindert VRR doch gar keine Ruckler an sich^^

Der_Korken
2018-07-03, 15:34:46
@dargo, was für fake news, ich fände es trotzdem von vorteil wenn amd gsync könnte. oder vl anders wenn ein monitor beides könnte. also was weiß ich, ein displayport mit FS und einer mit gsync.


ist doch nur eine annahme deinerseits. offiziell gibts dazu keine stellungnahme.

Ich denke nicht, dass AMD so ohne weiteres GSync verwenden kann, sonst hätten sie es schon längst gemacht - warum auch nicht? Sie verdienen an FreeSync-Monitoren nichts, also ist es denen egal, wenn die Leute GSync kaufen. Da gibt es sicherlich Hardware-Hürden. Und vielleicht noch Lizenzkosten, die das völlig unrentabel machen würden.

PatkIllA
2018-07-03, 15:36:25
Es gibt einfach genug Szenarien wo es nicht nötig ist und die letzten 20 Jahre ist niemand am fehlenden VRR gestorben. Ich habe aber 20 jahre danach gesucht ruckelfrei Video per PC zu gucken. Das geht mit den Standard 60 Hz gar nicht und selbst bei nominell passender Refreshrate ist der Takt von Video und Audio auseinander gelaufen. Das wäre mit VRR auch gegangen.

BlacKi
2018-07-03, 15:38:35
das thema ist schon alt und die lösung steht verm. eh vor der tür.

HisN
2018-07-03, 15:40:53
Für 4k ist wie gesagt auch eine 1080TI zu langsam.

Also für mich ist die schon in FHD zu langsam.
https://abload.de/thumb/gta5_2017_06_22_17_54p2up5.jpg (http://abload.de/image.php?img=gta5_2017_06_22_17_54p2up5.jpg)

Oder nicht?
https://abload.de/thumb/gta5_2017_06_22_17_50lyuan.jpg (http://abload.de/image.php?img=gta5_2017_06_22_17_50lyuan.jpg)

Oder kann man das vielleicht nicht so pauschal erzählen, wie Du das gerade machst?

ChaosTM
2018-07-03, 15:42:11
Eine offene Lösung wird kommen aber dank NV 10 Jahre später als möglich gewesen wäre. Die tun seit 20 Jahren nix anders als offene Standards zugunsten ihrer dummen, proprietären Lösungen zu unterdrücken.
Deshalb auch meine tiefe Verachtung für diese Firma. ;)

robbitop
2018-07-03, 15:44:32
ist doch nur eine annahme deinerseits. offiziell gibts dazu keine Stellungnahme.

Für einen offenen Standard musst du aber so einiges offenlegen. Das ist nicht der Fall. Ein offener Standard kann es ergo nicht sein. Aber NV könnte natürlich auch einen geschlossenen Standard an AMD lizensieren. Ob es diese Möglichkeit gibt, kann man ohne Statement nicht sagen. Aber IMO höchst unwahrscheinlich. G-Sync (unabhängig von der technischen Umsetzung) erscheint offenkundig für Kundenbindung genutzt zu werden. Einen Monitor kauft man nicht so oft wie neue GPUs. Wird ein G-Sync Monitor gekauft, ist es nicht unwahrscheinlich, dass die Nachfolge GPU auch von NV ist.

Aus ökonomischer Sicht absolut korrekt. Chancen erkannt und genutzt.

Für den Konsument aber weniger gut. Ich bin mir aber recht sicher, dass Intel (sofern ihre GPUs erfolgreich sein werden) hier erneuten Druck erzeugen werden (ich nehme an, dass sie den VESA Standard unterstützen).

AMD ist im Moment leider zu dünn aufgestellt. Und wie man bei Ryzen gesehen hat, belebt erst richtige Konkurrenz das Geschäft. Auf einmal gibt es Fortschritt und besseres P/L.


Natürlich gibt es das, nennt sich RX Vega64. Oder was kann ich mit dieser Grafikkarte in 1440p nicht performant genug spielen? Für 4k ist wie gesagt auch eine 1080TI zu langsam.
Als High End Nutzer will ich das schnellste Produkt. GP110 ist nunmal ein gutes Stück schneller als V64. Entsprechend kann ich mehr in IQ investieren oder höhere Frameraten fahren. 1440p mit 144 Hz. Sind schnell >20 fps mehr. -> bessere Bewegtschärfe.
Und wenn Turing in ein paar Monaten noch ein paar Schippen draufpackt, verstärkt sich die Situation. Ich hoffe ja auf eine 6xx mm² GPU mit 384 bit SI -> da ist die Wahrscheinlichkeit groß, dass da ein paar Schippen drauf kommen. Bei einem klassischen 104 (~Ti Performance der last gen) würde mich persönlich das völlig kalt lassen...

Echt? Was hat das eine mit dem anderen zu tun?
Nix gegen technischen Fortschritt, aber es zwingt einen doch niemand VRR zu nutzen. Es gibt einfach genug Szenarien wo es nicht nötig ist und die letzten 20 Jahre ist niemand am fehlenden VRR gestorben.
Genau so kann man sich weiter ein bisschen zusammenreißen und die Geschichte an sich vorbeigehen lassen, solange bis sich die Hersteller geeinigt haben und weiterhin kassisches oder erweitertes vsync benutzen, oder gleich ganz auf Sync verzichten, wie es wahrscheinlich alle "supergeilen gewinnorientiert spielenden superprofis" (wer sich angesprochen fühlt und wer nicht bitteschön^^) machen.

Ich bekomme (wenn ich das möchte) auch UHD+HDR+120Hz ohne ein 600 Dollar FPGA von Intel mit 3GB RAM.
Ernsthaft? VRR ist seit der SSD die tollste Erfindung im Bereich 3D-Gaming. IMO.
Hat man das einmal genutzt, will man nicht mehr ohne. Das ist für mich ein Axiom, über dass es sich nicht zu diskutieren lohnt.

Gehen tut vieles. Aber man gewöhnt sich nun mal an Fortschritt. Gerade als High End User. Ich finde es auch nicht toll, wenn Monitore wegen dem proprietärem Standard teurer werden. Aber ich persönlich will das Maximum. Wird sicherlich auch anderen High End Usern so gehen.

PatkIllA
2018-07-03, 15:50:17
Eine offene Lösung wird kommen aber dank NV 10 Jahre später als möglich gewesen wäre. Die tun seit 20 Jahren nix anders als offene Standards zugunsten ihrer dummen, proprietären Lösungen zu unterdrücken.
Deshalb auch meine tiefe Verachtung für diese Firma. ;)
Den hätte man direkt bei Einführung der LCDs und digitalen Schnittstellen haben können.
Stattdessen hat man den analogen Standard mit fixer Refreshrate und Abtastlücke übernommen. Bei HDMI hat man sogar den Mist mit 16 = Schwarz und 235 = Weiß übernommen.

HisN
2018-07-03, 15:52:41
Ernsthaft? VRR ist seit der SSD die tollste Erfindung im Bereich 3D-Gaming. IMO.
Hat man das einmal genutzt, will man nicht mehr ohne. Das ist für mich ein Axiom, über dass es sich nicht zu diskutieren lohnt.

Ernsthaft, was siehst Du davon noch oberhalb von 60 FPS außer dem fehlenden Tearing?
Und warum würde man sich als "High-End-User" selbst im Refresh seines Monitores beschränken? Wenn ich High-End-User bin, dann sehe ich zu dass ich die 144Hz meines Monitores auch vollständig ausgelastet bekomme und nicht mit 80 FPS meinem Monitor die Hälfte seiner "Geschwindigkeit" wegnehme. Denn genau aus dem Grund hab ich doch einen 144Hz-Monitor gekauft. Sonst hätte ich doch beim 60Hz Monitor bleiben können :-)

Screemer
2018-07-03, 15:56:23
Grad tearing ist doch der größte Immersionbrecher überhaupt. Auch bei 144hz hast du tearing und das hast du eben nicht wenn dein Display neben 144hz auch noch VRR unterstützt. Was gibt's denn da zu diskutieren?

HisN
2018-07-03, 15:58:22
Dagegen hat auch niemand was gesagt. Glaube ich^^

Aber ich würde wirklich lieber 144FPS mit Vsync erreichen wollen, als mein 144Hz-High-End-User-Panel nur mit 80Hz zu betreiben und dann zu erzählen wie toll das ist. Und sobald ich genug Power für vsync habe, interessiert mit VRR nicht mehr.
Und wenn ich allergisch gegen Input-Lag bin, dann nutze ich weder VRR noch irgendwelche Sync-Arten. Also wo ist der Punkt? Es bleibt weiterhin eine Krücke, es sei denn man stellt sich als High-End-User hin und sagt: 80 FPS ist genau das was ich brauche. Oder 120 FPS ist genau das was ich brauche. Dann kaufe ich mir ein 75 oder ein 120Hz Panel :-)

robbitop
2018-07-03, 16:01:17
Mehr als 60 fps -> bei schlechtem Framepacing und/oder langer Inputkette der Renderpipeline wird die gefühlte Flüssigkeit besser.
Mehr als 60 fps -> deutlich bessere Bewegtschärfe.

Das sehe ich im absoluten Blindtest und will von >60 fps nicht mehr weg. Bis 90 fps merke ich noch klare Unterschiede in Bezug auf Bewegtschärfe, Flüssigkeit, Pacing und Input (letzteres je nach Spiel).

Außerdem bedeutet VRR, dass ich nicht mehr überdimensionieren muss. Sagen wir mal 75 fps mit VSync würde mir immer und überall reichen. Dann muss ich aber die Leistung der GPU überdimensionieren (oder Auflösung und Detailrunterstellen) um immer und überall nie einen Frame zu droppen. Es liegt ja in der Natur von Spielen, dass Szenenabhängig unterschiedliche Bottlenecks und Lastzustände auf den limitierenden Komponenten vorliegen und somit eine inkonstante Renderzeit pro Frame. Mache ich also VSync ohne Droppen von Frames, so verschwende ich folglich Leistung.
VRR erledigt da in einem gewissen Band selbst. Ist die effizientest mögliche Nutzung von Rechenleistung in Spielen. Sowohl CPU als auch GPU (je nach dem was limitiert).

Ich bin mir aber sicher, dass du das als High End User sicherlich alles selbst kennst.

Als ich 2014 den ersten 1440p 144 Hz G-Sync Monitor gekauft habe (ROG Swift) war das für mich eine Tag-Nachtumstellung.

Ohne VRR? Nie wieder...
Geht es ohne? Na klar (siehe z.B. Digital Foundry Videos zu 4K Budget Videoserie). Geht es mit VRR besser? Aber sicher!

THEaaron
2018-07-03, 16:02:12
Eine perfekte 144hz vsync Option ist nur absolut unrealistisch. Vorher gibt es massiv input Lag und co.

Da ist VRR die wesentlich bessere Alternative.

maguumo
2018-07-03, 16:02:52
@HisN
Das kannst du aber nicht. Selbst wenn du um die 144 FPS hast gibt es noch drops die zu tearing führen. Abgesehen davon das du die 144FPS in manchen Spielen mit aktueller Hardware schlicht nicht erreichen kannst. Abgesehen davon verbrennst du auch nicht unnötig Leistung. Mit VRR dürfen die FPS ruhig mal ein bisschen droppen, merkst du nichts von. Die frei werdende Leistung kannst du in bessere BQ stecken.

HisN
2018-07-03, 16:10:40
Aber da drehen wir uns halt wieder im Kreis,
ich kauf mir ein 144Hz-Panel weil es schnell ist, ich möchte nicht (in keinem Fall) das es nicht mit 144hz refreshed, weil ich dann mehr Schlieren sehe.

Eventuell bin ich einfach zu alt um oberhalb von 60 FPS noch den VRR-Unterschied zu sehen (bis aufs Tearing)



Das sehe ich im absoluten Blindtest und will von >60 fps nicht mehr weg. Bis 90 fps merke ich noch klare Unterschiede in Bezug auf Bewegtschärfe, Flüssigkeit, Pacing und Input (letzteres je nach Spiel).
Als ich 2014 den ersten 1440p 144 Hz G-Sync Monitor gekauft habe (ROG Swift) war das für mich eine Tag-Nachtumstellung.

Und Du bist Dir sicher dass das von Dir erwähnte am VRR liegt? Das hört sich nämlich alles nach 144hz-Panel an und nicht nach VRR, bzw. das VRR spielt da nur mit rein. Denn wenn es eher am Panel liegt, dann würdest Du ja z.b. bei der Bewegtschärfe durch das Betreiben unterhalb der Refreshrate durch VRR Abstriche in Kauf nehmen.

@maguumo
Die Ruckler durch Drops nimmst Du doch mit VRR genau so wahr wie ohne VRR, wenn sie in üble Regionen kommen. VRR verhindert die Drops ja nicht. Du musst doch eher schon Methoden schaffen, damit Du nicht an die Grenze der Refresh-Rate vom Monitor kommst, damit sich nicht ständig das VRR abschaltet. Also machst Du am Ende doch wieder vsync oder einen Begrenzer an.

fondness
2018-07-03, 16:11:40
dargo, bei mir und meinem freesync war das nicht so und die berichte und freesync 2 unterstützen meine these zur anfälligkeit voin fs1.


Ist ja auch sehr glaubwürdig, wenn du das sagst.

robbitop
2018-07-03, 16:14:58
Aber da drehen wir uns halt wieder im Kreis,
ich kauf mir ein 144Hz-Panel weil es schnell ist, ich möchte nicht (in keinem Fall) das es nicht mit 144hz refreshed, weil ich dann mehr Schlieren sehe.

Eventuell bin ich einfach zu alt um oberhalb von 60 FPS noch den VRR-Unterschied zu sehen (bis aufs Tearing)
Du würdest im Blindtest aber vermutlich bis zu einem bestimmten Punkt (~100...120 fps) aber @VRR wohl keinen Unterschied zu 144 Hz sehen. Brauchst aber ~20% weniger Leistung. Je nach Bottleneck CPU und GPU Leistung.

MadManniMan
2018-07-03, 16:17:54
HisN, irgendwie drehen wir uns hier die ganze Zeit im Kreis. Leider kommen wir dadurch vom eigentlichen Thema (das Lock-In-Problem bei Adaptive Sync) ab. Daher frage ich nochmal:

Da eiern alle rum und erzählen 60hz-Displays sind ein graus und schlieren wie verrückt man braucht ein 144hz Panel.
Und dann lässt man das schöne 144Hz-Panel mit 60Hz laufen, weil man nicht mehr FPS hinbekommt und plötzlich schliert es weniger?

Bist Du sicher, dass Du Adaptive Sync richtig verstanden hast? Wie kommst Du auf die 60-Hertz-Beschränkung?

Savay
2018-07-03, 16:18:22
weil ich dann mehr Schlieren sehe.


"Schlieren" kommen aber eigentlich erstmal eher von der Schaltzeit und sind ziemlich unabhängig davon ob mit 80, 100, 120 oder 144Hz refreshed wird! :freak:

Das Hold-Type "Blur" ist darüberhinaus idR mehr ein durch Augenbewegungen erzeugtes verwischen.
Bei grenzperfekten Schaltzeiten (wie bei nem OLED) "blurt" das dementsprechend bis zu nem bestimmten Grenzwert auch nicht wenn man sich mal richtig drauf konzentriert, sondern "ruckelt" tatsächlich einfach nur.
Deswegen finde ich bspw. nen OLED ohne Zwischenbildberechnung gradezu unerträglich...kann ich mir nicht anschauen...LCDs sind da erstmal etwas genügsamer meiner Erfahrung nach, da die Frames quasi "verschliffen" werden.

HisN
2018-07-03, 16:20:22
Dann können wir es auch gerne Blurr nennen wenn Du möchtest.




Bist Du sicher, dass Du Adaptive Sync richtig verstanden hast? Wie kommst Du auf die 60-Hertz-Beschränkung?
Wenn Dein Rechner nur 100 FPS stemmt, dann besorgt VRR, dass Dein Display auch nur 100Hz Refresh betreibt anstatt der 144Hz die das Display leisten könnte. Liege ich da falsch? Die 60Hz waren einfach nur ein aus der Luft gegriffener Wert. Sorry, wenn ich dabei in der Nähe von Vsync war.

Du würdest im Blindtest aber vermutlich bis zu einem bestimmten Punkt (~100...120 fps) aber @VRR wohl keinen Unterschied zu 144 Hz sehen. Brauchst aber ~20% weniger Leistung. Je nach Bottleneck CPU und GPU Leistung.


Also ist es extrem davon abhängig wie weit ich mit meinem Rechner tatsächlich komme? *g* Bzw. wie ich meine Software einstellen kann um das hinzubekommen was ich erreiche möchte an FPS? Oder muss ich den Bottleneck sogar selbst besorgen, damit ich nicht aus der VRR-Range vom Monitor rausfalle? Funktioniert bei Dir VRR ohne vsync (böseböse^^) oder Limiter? Und sobald Du eins von beiden benutzt, hätten wir wieder den bösen Judder, weswegen ja die Anschaffung von VRR überhaupt getätigt wurde :-)

RaumKraehe
2018-07-03, 16:21:35
warum braucht NV eigentlich so teure hardware? der FPGA ist ja ein riesen trümmer.
Was macht NV anders? Besser?

Ich frage mich wozu man da überhaupt Hardware braucht. Sollte es nicht reichen wenn der Monitor eben bis das nächste Bild kommt wartet? Ich kann mir leider auch nicht erklären warum man da ein FPGA Chip braucht.

Besonders da wir nicht in Zeiten von Röhrenmonitoren leben.

robbitop
2018-07-03, 16:23:17
"Schlieren" kommen aber von der Schaltzeit und de sind erstmal unabhängig davon ob mit 75, 100 oder 144Hz refreshed wird! :freak:

Das was als Hold-Type "Blur" ist mehr durch Augenbewegungen erzeugt.
Bei grenzperfekten Schaltzeiten (wie bei nem OLED) "blurt" das dementsprechend auch nicht wenn man sich mal richtig drauf konzentriert, sondern "ruckelt" tatsächlich einfach nur.
Schaltzeiten limitieren eigentlich heutzutage nicht mehr die Bewegtschärfe (flatpanels misst dieses ja - sind sämtliche Schaltzeiten <1/refreshrate schliert es nicht).
Für mich war klar, dass er den hold-type Effekt meint. Der limitiert uns leider alle. Durch BFI verbesserbar - kostet aber Helligkeit und geht nicht in Kombination mit VRR. Ergo hilft nur stumpf eine höhere Framerate + Refreshrate. :)

Mir persönlich genügen ~90fps.

Savay
2018-07-03, 16:26:17
Schaltzeiten limitieren eigentlich heutzutage nicht mehr die Bewegtschärfe

Naja...wenn man nen OLED (ohne Zwischenbildberechnung) neben nen LCD stellt ist der Unterschied schon sichtbar.
Ab ner bestimmten Wiederholrate geht das Problem des "ruckelns" beim OLED zwar weg, aber die Grenze ist ja bei jedem mehr oder weniger anders.

Grade bei LCD Panels an der Kotzgrenze (die meisten 144+Hz IPS halt und fast alle VAs mit >60Hz) werden die Themen oft vermischt...dabei äussert sich der Effekt IMO schon klar anders.
Wirkliche schlieren im Bild, also tatsächlich verwischte Konturen und Farben, kommen eher nur durch die Schaltzeiten zustande und sind nicht wirklich abhängig von der tatsächlich anliegenden Wiederholrate....das Hold-Type "Problem" ist mehr eines der Wahrnehmung und hängt somit auch davon ab wo man hinschaut und worauf man sich konzentriert.

Durch BFI verbesserbar

und flimmert und ruckelt wieder...für mich ist das nicht wirklich eine Option solange wir da nicht bei signifikant über 144Hz raus kommen.

HisN
2018-07-03, 16:33:37
Ergo hilft nur stumpf eine höhere Framerate + Refreshrate. :)
Mir persönlich genügen ~90fps.

Damit kommen wir dem ganzen doch schon ein Schritt näher :-)

maguumo
2018-07-03, 16:35:32
@maguumo
Die Ruckler durch Drops nimmst Du doch mit VRR genau so wahr wie ohne VRR, wenn sie in üble Regionen kommen. VRR verhindert die Drops ja nicht. Du musst doch eher schon Methoden schaffen, damit Du nicht an die Grenze der Refresh-Rate vom Monitor kommst, damit sich nicht ständig das VRR abschaltet. Also machst Du am Ende doch wieder vsync oder einen Begrenzer an.
Nein, du merkst von den Rucklern deutlich weniger wenn dir das Panel das gleiche Bild einfach ein paar ms länger anzeigt statt über zwei Refreshzyklen nicht zu wechseln.

HisN
2018-07-03, 16:37:29
Bei einem Panel das 7ms Refresh-Zyklus hat? Was sind da ein paar ms? 2 oder 3? *g*
Viele FPS sind das nicht, die da "ausgeglichen" werden können.

robbitop
2018-07-03, 16:40:43
Naja...wenn man nen OLED (ohne Zwischenbildberechnung) neben nen LCD stellt ist der Unterschied schon sichtbar.
Ab ner bestimmten Wiederholrate geht das Problem des "ruckelns" beim OLED zwar weg, aber die Grenze ist ja bei jedem mehr oder weniger anders.

Grade bei LCD Panels an der Kotzgrenze (die meisten 144+Hz IPS halt und fast alle VAs mit >60Hz) werden die Themen oft vermischt...dabei äussert sich der Effekt IMO schon klar anders.
Wirkliche schlieren im Bild, also tatsächlich verwischte Konturen und Farben, kommen eher nur durch die Schaltzeiten zustande....das Hold-Type "Problem" ist mehr eines in der Wahrnehmung und häng somit auch davon ab wo man hinschaut und worauf man sich konzentriert.



und flimmert und ruckelt wieder...für mich ist das nicht wirklich eine Option solange wir da nicht bei signifikant über 144Hz raus kommen.

Die schnellen AHVAs und TNs packen die 1/144 Sekunde für alle Farbwechsel. Somit unproblematisch. Aber die VAs hingegen haben Farbwechsel, die extrem lange dauern - dann schliert es.

Hold Type ist, wie du sagst, eine Frage der Bildverarbeitung des menschlichen Gehirns. Entgehen kann man dem nur leider nicht. Nur durch höhere refreshrate + framerate.

BFI hast du Recht. Macht erst dann sinn, wenn es nicht mehr flimmert (hohe refreshrate). Ist dann allerdings wirksam gegen hold type...

Damit kommen wir dem ganzen doch schon ein Schritt näher :-)
Hohe Refreshrate und VRR schließen sich ja zum Glück nicht aus. Beides kombiniert ist am besten.

maguumo
2018-07-03, 16:40:59
Bei einem Panel das 7ms Refresh-Zyklus hat? Was sind da ein paar ms? 2 oder 3? *g*
Viele FPS sind das nicht, die da "ausgeglichen" werden können.


Du hast ja auch nie perfekt konstante Frametimes, selbst wenn da keine üblen Spikes drin sind schwanken die Berechnungszeiten pro Bild beachtlich.

HisN
2018-07-03, 16:44:45
Hohe Refreshrate und VRR schließen sich ja zum Glück nicht aus. Beides kombiniert ist am besten.

Deshalb versteife ich mich halt so darauf, dass man sich mit VRR im 80er oder 90er Bereich um die Vorteile seines 144Hz Panels bringt.

Savay
2018-07-03, 16:49:18
Deshalb versteife ich mich halt so darauf, dass man sich mit VRR im 80er oder 90er Bereich um die Vorteile seines 144Hz Panels bringt.

Nur Wieso?
Grade ein 144Hz Panel macht mit VRR erst richtig Sinn, solange es keine PCs gibt die in jeder Situation für jedes Spiel dauerhaft deutlich mehr als 144FPS rendern können. (damit Fastsync zieht)

Um mit stumpfen 144Hz auszukommen und ein vergleichbares Ergebnis zu bekommen musst du schon deutlich mehr Overhead einrechnen und hinkst salop gesagt quasi ständig 1,5 Generationen hinterher!
Kannst du machen..ist aber die pure Holzhammer Methode...VRR ist da schlicht viel smarter.
Mit fixen 60Hz kannst du sowas schon viel eher Gewährleisten.

Ich fahr mein Auto davon abgesehen auch nicht durchgehend mit 6500rpm nur weil der Motor das kann! :freak:

dargo
2018-07-03, 17:02:50
ding dong, bald ist die neue gen von nv vor der tür. was willst du mit deiner mainstream gpu da noch anstinken?
Und warum sollte mich das jucken? Laufen die Spiele dann schlechter nur weil NV eine neue Gen raus bringt? Bis die ersten PS5 Games kommen (2020-2021) bin ich hier vollkommen tiefenentspannt. ;)


Welche Anwendungen sind denn so zwingend auf VRR angewiesen, dass Du gar nicht mehr ohne leben kannst als "High-End-Nutzer" (bitte Definition was das überhaupt ist).

Verstehe die Frage nicht... jedes Spiel ist darauf angewiesen. VRR ist die Immersion schlecht hin im Computerbereich. Ohne kann ich gar nicht mehr. Als ich VRR zum ersten Mal erlebt habe fragte ich mich ständig wie ich das Geruckel vorher überhaupt ertragen konnte. Man kannte halt nichts anderes und hat es als normal abgestempelt.

Ernsthaft, was siehst Du davon noch oberhalb von 60 FPS außer dem fehlenden Tearing?

Wenn du oberhalb von 60fps bei festen 144Hz kein Stuttering siehst dann kannst du dich glücklich schätzen. Ich kann diesen Luxus leider nicht genießen. Dafür bräuchte ich höchstwahrscheinlich 360-480Hz. Bei 240Hz bin ich mir noch unsicher ob das reicht.

HisN
2018-07-03, 17:10:54
Nur Wieso?
Grade ein 144Hz Panel macht mit VRR erst richtig Sinn, solange es keine PCs gibt die in jeder Situation für jedes Spiel dauerhaft deutlich mehr als 144FPS rendern können. (damit Fastsync zieht)

Kein Mensch interessiert jedes Game, da niemand die Zeit oder das Geld dafür hat. Mich interessieren nur meine Games. Und ich versuche nicht von meinen Games auf Deine zu schließen und andersrum funktioniert das auch nicht. Und stumpfe Autovergleiche ziehen nur im richtigen Kontext. Wenn Du Rennfahrer bist, dann drehst Du Deinen Motor so oft wie möglich auf 14400 Touren, weil Du sonst die Leistung nicht abrufst die möglich ist, und damit das Ziel nicht zu erreichen ist.

Wer kauft sich nen 144Hz Bildschirm, wenn er in keinem seiner Games auch nur 60 FPS erreicht?

@Dargo
Krass, ich musste zwei Bildschirme (60hz damals noch, einer mit und einer ohne vrr) nebeneinander Stellen um den Unterschied überhaupt zu bemerken. Ich sagt ja ... nicht alle sind hypersensibel :-)

x-force
2018-07-03, 17:14:11
du kannst auch auf halb adaptive spielen und die vorteile der schaltzeit mitnehmen.

Gipsel
2018-07-03, 17:20:07
Ist Tearing nicht in dem Augenblick weg, wo ich Fastsync aktiviert habe? Bleibt nur Judder übrig. Judder oder Schlieren.Das ist schlicht nicht die Wahl. Die lautet:
a) Judder und prinzipbedingte Hold-Type Bewegungsunschärfe bei fester Refreshrate
b) kein Judder und identische Hold-Type Bewegungsunschärfe bei variabler Refreshrate

Nur weil man eine variable Refreshrate nutzt, schaltet doch das Display nicht langsamer (zumindest wenn der Hersteller nicht die Ansteuerung verbockt hat). Option b) ist schlicht besser.

BlacKi
2018-07-03, 17:26:50
Als ich 2014 den ersten 1440p 144 Hz G-Sync Monitor gekauft habe (ROG Swift) war das für mich eine Tag-Nachtumstellung.
lol, bei mir überhaupt nicht^^ zusammenfassend würde ich meinen umstieg auf wqhd und 165hz nur als leichtes upgrade zusammenfassen, etwas schärfer (von 1080p und erhöhter screenscale) und deaktiviertem tearing. niedrige fps also sub 100fps hatte ich vorher schon nicht, also damit auch keine erfahrungen gemacht. überrascht von dem übergang wurde ich nicht. eher nur das was ich erwartet habe ist auch eingetroffen.

Ist ja auch sehr glaubwürdig, wenn du das sagst.
?

Deshalb versteife ich mich halt so darauf, dass man sich mit VRR im 80er oder 90er Bereich um die Vorteile seines 144Hz Panels bringt.
das ist zwar richtig, aber zumindest aus meiner sicht auch kein bereich in dem ich mich dauerhaft aufhalten möchte. zumal auch mit 144hz vsync einen delay produziert der mit vrr weg ist.

MadManniMan
2018-07-03, 17:29:17
Wenn Dein Rechner nur 100 FPS stemmt, dann besorgt VRR, dass Dein Display auch nur 100Hz Refresh betreibt anstatt der 144Hz die das Display leisten könnte. Liege ich da falsch? Die 60Hz waren einfach nur ein aus der Luft gegriffener Wert. Sorry, wenn ich dabei in der Nähe von Vsync war.

Ja, die 60 Hz waren tatsächlich ungünstig gewählt, alles klar ^^

Vielleicht hätte ich das Thema auch splitten sollen, da eine variable Wiederholrate erstmal nix mit höheren Hz-Zahlen zu tun hat - aber praktisch möchte man ja eigentlich immer alle tollen neuen Features kombinieren, wenn es denn geht.

Ich verstehe Dich jetzt so, dass für Dich persönlich die Kombination aus hohen FPS und Synchronisation nicht so wichtig sind. Das Thema habe ich aber eher mit einer grundsätzlichen Perspektive im Auge eröffnet.

Grade bei LCD Panels an der Kotzgrenze (die meisten 144+Hz IPS halt und fast alle VAs mit >60Hz) werden die Themen oft vermischt...dabei äussert sich der Effekt IMO schon klar anders.

Vor allem aus finanzielle Gründen kenne ich persönlich keine Displays > 60 Hz live. Was bedeutet Kotzgrenze im Zusammenhang mit IPS und VA?

HisN
2018-07-03, 17:44:18
Nur weil man eine variable Refreshrate nutzt, schaltet doch das Display nicht langsamer (zumindest wenn der Hersteller nicht die Ansteuerung verbockt hat). Option b) ist schlicht besser.
Dann verstehe ich VRR tatsächlich falsch. Mir war so als würde VRR dafür sorgen, genau dann einen Refresh zu machen, wenn die Graka ein Bild liefert.
Ich würde mich sehr freuen, wenn Du mich da auf den aktuellen Stand bringen könntest.

Mortalvision
2018-07-03, 17:53:55
Ahva ist quasi 144 Hz IPS, oder?

Flusher
2018-07-03, 17:54:00
Das Absurde ist doch, dass VRR vor allem auf schwächeren GPUs als Vorteil zum tragen kommt, also vermehrt bei Mainstream und Performance Karten, diese ganzen G-Sync Teile aber zu High-End Preisen verkauft werden. Das heißt, optimalerweise kauft sich der preissensitive Durchschnitts-Gamer eine 1060 GTX und dazu einen überteuerten G-Sync Monitor. :freak:

Die Preispolitik macht gar keinen Sinn.

PatkIllA
2018-07-03, 18:10:01
Das Absurde ist doch, dass VRR vor allem auf schwächeren GPUs als Vorteil zum tragen kommt, also vermehrt bei Mainstream und Performance Karten, diese ganzen G-Sync Teile aber zu High-End Preisen verkauft werden. Das heißt, optimalerweise kauft sich der preissensitive Durchschnitts-Gamer eine 1060 GTX und dazu einen überteuerten G-Sync Monitor. :freak:

Die Preispolitik macht gar keinen Sinn.Die Grafikkarten können das auch alle oder? Sowohl bei AMD als auch bei NVIDIA. Was ist eigentlich mit den iGPUs von Intel.
Als Billigfeature vermarktet NVIDIA das auch nicht oder?

Mr.Magic
2018-07-03, 18:21:07
Das Absurde ist doch, dass VRR vor allem auf schwächeren GPUs als Vorteil zum tragen kommt, also vermehrt bei Mainstream und Performance Karten, diese ganzen G-Sync Teile aber zu High-End Preisen verkauft werden. Das heißt, optimalerweise kauft sich der preissensitive Durchschnitts-Gamer eine 1060 GTX und dazu einen überteuerten G-Sync Monitor. :freak:

Die Preispolitik macht gar keinen Sinn.

Dem kann ich nicht zustimmen. Ich bekomme z.B. mit einer GTX 1080 und "optimierten" Grafikoptionen durchschnittlich 80FPS in ACO. Maximiert sind es in 1440p deutlich unter 60FPS. Um meinen 165Hz Monitor ruckelfrei zu nutzen, bräuchte es mit dem alten VSync also eine Karte, die mindestens die dreifache Leistung hat.

Spiele mit Zwangslimiter und Emulatoren profitieren auch massiv von VRR.

Savay
2018-07-03, 18:21:27
Wer kauft sich nen 144Hz Bildschirm, wenn er in keinem seiner Games auch nur 60 FPS erreicht?

Niemand...nur bist du mit 144Hz@VRR nicht dazu verdammt dauerhaft >144FPS zu halten. :rolleyes:
Du nutzt die Hardware am Ende schlicht effizienter aus und hast einfach viel mehr Spielraum an den Detailreglern etc. pp. zu drehen.

Dann tarierst du je nach Spiel einfach aus was dafür in der jeweiligen Situation angemessen und möglich ist (mal 60-80...mal 80-120...mal 144+ oder was auch immer) und gut ist und musst dir nicht ständig Gedanken machen wie du jetzt die auf Gedei und Verderb die 144+FPS knacken willst....falls es überhaupt möglich ist. :freak:
Nen Monitor kauf ich doch nicht damit ich ihn nur mit einer Grafikkartengeneration bei einem bestimmten Spiel nutzen kann wo das halt mal zufällig halbwegs hinhaut oder stelle jedesmal den Monitor um damit die Refreshrate halbwegs zum Hardwarelimit passt...wenn es (für quasi umsonst...wenn man sich nicht grade an nV gebunden hat) ein System gibt, dass letzteres einfach schön on-the-fly für mich erledigt und alle Probleme einer fixen Wiederholrate eliminiert.

unl34shed
2018-07-03, 18:29:47
Dann verstehe ich VRR tatsächlich falsch. Mir war so als würde VRR dafür sorgen, genau dann einen Refresh zu machen, wenn die Graka ein Bild liefert.

Das ist auch soweit korrekt. Aber es werden auch Bilder doppelt ausgegeben, wenn die FPS zu niedrig sind. Aus 60FPS werden dann 120Hz etc.

Damit hast du dann:
- kein tearing da nur komplette Bilder ausgegeben werden
- das kleinst mögliche input lag, da der Monitor auf die GPU wartet für das nächste Bild
- ein deutlich ruhigeres Bild, da die zeitlichen Abstände der Bilder zueinander passen (120 FPS auf einem 144Hz Monitor hätte ständige wechseln von 1 Bild und 2 gleiche hintereinander, das entfällt bei VRR)

Wenn man immer über 144Hz bleibt ist das natürlich nicht zwingend notwendig. Aber VRR erlaubt es, die Settings etwas höher zu schrauben bzw an der Hardware zu sparen, da man nicht mehr immer die 144FPS braucht (bzw im Idealfall ja noch etwas mehr als Puffer für drops).


Ich frage mich wozu man da überhaupt Hardware braucht. Sollte es nicht reichen wenn der Monitor eben bis das nächste Bild kommt wartet? Ich kann mir leider auch nicht erklären warum man da ein FPGA Chip braucht.

Das Modul wird einfach nur Tripple-Buffering direkt am Monitor machen. Warum das nicht die Grafikkarte macht? Vielleicht zu viel bei den Desktop Karten Weggekürzt? Die Mobile GTX können es ja....

Wenn man jetzt gemein wäre, könnte man ja behaupten, das als Adaptive Sync bei VESA das erste mal vorgestellt wurde Nvidia bei Tests festgestellt hat, dass sie es nicht können und das die ersten FPGAs die Prototypen aus dem Nvidia Labor sind, wie man es doch noch irgendwie hin bekommt mit VRR. Zeitlich könnte das schon irgendwie passen.

Gipsel
2018-07-03, 18:37:28
Deshalb versteife ich mich halt so darauf, dass man sich mit VRR im 80er oder 90er Bereich um die Vorteile seines 144Hz Panels bringt.das ist zwar richtig,Was ist daran richtig? Mit VRR mit ~80fps bringt man sich genau wie um die Vorteile des schnelleren Refresh bzw. den üblicherweise schnelleren Schaltzeiten eines 144Hz Panels? Der eigentliche Refresh eines mit VRR arbeitenden 144Hz Panels dauert immer nur knapp 7ms. Egal bei welcher Framerate man spielt. Man eliminiert nur wahlweise den Judder (im Vergleich mit VSync und klassischem ["echtem"] Triple Buffering [FastSync]), das Tearing (im Vergleich zu ohne VSync) oder die Halbierung (Drittelung/Viertelung usw.) der Framerate (mit VSync ohne klassisches Triple Buffering). Man ist also eigentlich immer im Vorteil.

=============================

Dann verstehe ich VRR tatsächlich falsch.Das geht vermutlich nicht nur Dir so. ;)
Mir war so als würde VRR dafür sorgen, genau dann einen Refresh zu machen, wenn die Graka ein Bild liefert.Soweit stimmt das ja auch.
Der Refresh findet aber immer mit der maximalen Geschwindigkeit statt, die das Panel (oder auch der Link von GraKa zum Monitor) kann (das ist tatsächlich völlig unabhängig von der Framerate/aktuellen Refreshrate; die Dauer des Refreshes ist immer der Kehrwert der mit VRR maximal unterstützen Refreshrate). Das Bild wird also im Vergleich z.B. zu FastSync nicht unschärfer, man entfernt nur den Judder.

Rancor
2018-07-03, 18:46:07
Natürlich gibt es das, nennt sich RX Vega64. Oder was kann ich mit dieser Grafikkarte in 1440p nicht performant genug spielen? Für 4k ist wie gesagt auch eine 1080TI zu langsam.

Der Witz war gut. Haste noch so einen auf Lager?

dargo
2018-07-03, 18:46:54
@Gipsel

Ich bewundere deinen Geduldsfaden. ;)

Im Prinzip wurden die ganzen Details zu VRR schon zig mal hier diskutiert.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=549697

Jetzt geht die gleiche Diskussion hier von vorne los. :freak:

fondness
2018-07-03, 19:07:55
@Gipsel

Ich bewundere deinen Geduldsfaden. ;)

Im Prinzip wurden die ganzen Details zu VRR schon zig mal hier diskutiert.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=549697

Jetzt geht die gleiche Diskussion hier von vorne los. :freak:

Das ist doch längst jeden hier bekannt und offensichtlich. Nur da G-Sync gelinde gesagt suboptimal für den Kunden ist (für NV erfüllt es den Zweck keine Frage), muss man eben das ganze Feature in Frage stellen um nicht sein Gesicht zu verlieren. Natürlich könnte man auch sein Kaufverhalten in Frage stellen.

HisN
2018-07-03, 19:41:29
Was ist daran richtig? Mit VRR mit ~80fps bringt man sich genau wie um die Vorteile des schnelleren Refresh bzw. den üblicherweise schnelleren Schaltzeiten eines 144Hz Panels?


Da fehlt irgend ein Wort im Satz, und ich komme nicht drauf, welches.

x-force
2018-07-03, 19:43:04
Da fehlt irgend ein Wort im Satz, und ich komme nicht drauf, welches.
das war eine frage;)

genau wie bringt man sich damit um die vorteile?

MadManniMan
2018-07-03, 20:24:06
Sorry BlacKi, vor lauter Offtopic ist mir Deine Antwort glatt durchgerutscht!

naja, es ist deutlich anwenderfreundlich. reinstecken glücklich sein. es ist direkt aktiv ohne eine einstellung vornehmen zu müssen. mein freesync setup damals lief nicht von anfang an und auch nur 48-60hz obwohl laut hersteller 48-144hz mit freesync unterstützt wurden. der vorteil des moduls ist einfach reinstecken und glücklich sein. 30-max hz sofort und ohne nachteile gesynct. dafür scheint die platine wohl gut zu sein. das lässt sich nv wohl einfach bezahlen. man betrachte einfach den freesync /gsync fred. 90% geht nur um freesync und dessen tuning. dafür halt günstiger.

Wir haben also Plug & Play vs. Plug & Pray?

Das macht tatsächlich viel aus - aber was bedeutet es genau? Details dazu gern auch woanders, aber wenn man pauschal

"Vielleicht ist es nicht 400 vs. 250 Euro Wert, aber wegen der besseren Funktionalität schon einen gewissen Aufpreis"

sagen kann, ist das ja auch schonmal eine Erkenntnis.

dargo
2018-07-03, 20:28:40
Und schon wird aus einer Fake News Realität. :freak:

Nochmal... diese Information ist von Blacki schlicht und ergreifend falsch! Bei Freesync heißt es genau so Bildschirm anstecken und Freesync ist direkt aktiv. Das zeigt dir auch der Treiber an nachdem er installiert wurde. Ich hatte bisher zwar nur zwei verschiedene Freesync Bildschirme hier im Einsatz. Bei beiden war es so. Höchstwahrscheinlich war das bei Blacki ein Treiberbug. Oder was mir gerade eingefallen ist... wenn in Windows die Refreshrate auf 60Hz stand dann sind halt bei einem 48-144Hz Bildschirm 48-60Hz aktiv. In dem Fall muss man einfach nur in Windows die Refreshrate ändern.

MadManniMan
2018-07-03, 20:31:15
Okay, danke für diese Info! Deswegen habe ich ja lieber auch nochmal nachgefragt ^^

Nennt mich naiv, aber irgendwie erwarte ich mir vom 3DCF eher, nun, Fakten.

BlacKi
2018-07-03, 20:56:05
und ich hab einen getestet, er hat weder direkt FS aktiv angezeigt noch die FS range die angegeben war, war nutzbar. https://geizhals.de/aoc-agon-ag322qcx-a1609741.html?hloc=de

wurde auf einer r9 290 getestet mit 2 verschiedenen treibern. hilfe kam auch keine. https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11447067#post11447067

Screemer
2018-07-03, 21:04:47
Der agon lief bei mir ootb einwandfrei, genau wie der Omen und noch einer der nächsten Grad nicht einfallen will. Durch den Switch auf die 980ti vermisse ich VRR schon sehr.

ezzemm
2018-07-04, 07:18:26
Ich persönlich verstehe nicht wieso man einen 144Hz-Monitor samt VRR nicht als den aktuellen Gold-Standard fürs Gaming sehen kann.

Die meisten Games stelle ich so ein dass ich dreistellige FPS-Werte habe. Abhängig von der Szene schwankt es dann zwischen 90 & 144Hz, anfühlen tut es konsistent flüssig. Spiele ich dann mal CSGO liegen die FPS konstant bei 250, und mein Monitor leistet mehr als meine persönliche Reaktionszeit. Spiele ich ein Singleplayer-Grafikbrett habe ich FPS zwischen 60 und 80Hz, und wenigstens kein Ruckeln oder Tearing.

@Hisn: Vielleicht hast du ein grundsätzlich anderes Gamingverhalten und für dich macht deswegen ein solcher Monitor keinen Sinn. Aber verallgemeinern sollte man das nicht

MadManniMan
2018-07-04, 07:45:44
Die 90 Hz der VR-Brillen sind sicherlich auch ein Wert, an dem man sich ein wenig orientieren kann.

RaumKraehe
2018-07-04, 10:07:52
Die 90 Hz der VR-Brillen sind sicherlich auch ein Wert, an dem man sich ein wenig orientieren kann.

Die GearVR nutzt nur 60 Hz, aber auch das ist im Grunde kein Problem wenn die Kopfbewegungen präzise umgesetzt werden.

MadManniMan
2018-07-04, 10:41:55
Die GearVR nutzt nur 60 Hz, aber auch das ist im Grunde kein Problem wenn die Kopfbewegungen präzise umgesetzt werden.

Naja, das dürfte eher der Kompatibilität mit/von Smartphone-Displays geschuldet sein.

Was ich damit sagen wollte: Ich finde es nur konsequent, gleich von 60 Hz wie früher™ auf 144 Hz VRR zu gehen, aber irgendwas dazwischen dürfte auch gut Sinn ergeben - bspw. die 90 FPS, die die "richtigen" VR-Systeme benutzen.

iuno
2018-07-04, 10:55:43
Mit VRR mit ~80fps bringt man sich genau wie um die Vorteile des schnelleren Refresh bzw. den üblicherweise schnelleren Schaltzeiten eines 144Hz Panels? Der eigentliche Refresh eines mit VRR arbeitenden 144Hz Panels dauert immer nur knapp 7ms. Egal bei welcher Framerate man spielt. Man eliminiert nur wahlweise den Judder (im Vergleich mit VSync und klassischem ["echtem"] Triple Buffering [FastSync]), das Tearing (im Vergleich zu ohne VSync) oder die Halbierung (Drittelung/Viertelung usw.) der Framerate (mit VSync ohne klassisches Triple Buffering). Man ist also eigentlich immer im Vorteil.

Da muss ich mal widersprechen. Mein 144 Hz FreeSync Monitor schmiert bei schnellen Bewegungen, weil er eben die ~6,9ms nicht schafft. Ist halt ein IPS Panel, gibts da ueberhaupt welche, die so schnell sind?

Prinzipiell ist die Aussage, die Schaltzeit sei refreshratenunabhaengig aber natuerlich richtig.

edit: habe gerade noch einen Test zu meinem gefunden, der beide Aussagen untermauert
Bei 144 Hz und deaktivierter Beschleunigung TraceFree „0“ benötigt der MG279Q für den Schwarz-Weiß-Wechsel 10,6 ms und somit exakt die gleiche Zeit wie bei 60 Hz.
https://www.prad.de/testberichte/test-monitor-asus-mg279q/5/#Reaktionsverhalten

robbitop
2018-07-04, 11:02:17
zB der ASUS PG279Q:
http://www.tftcentral.co.uk/reviews/asus_rog_swift_pg279q.htm#response_times

@OD Normal @144Hz ist der schlechteste Farbwechsel von 255->0 in der dort angegebenen Tabelle mit 6,5 ms. Passt also.

MadManniMan
2018-07-04, 11:05:07
Du berichtigst Dich gleich selbst im zweiten Absatz, dennoch möchte ich es nochmal unterstreichen: Responsezeiten sind ungleich Refreshzeiten!

Wenn das LCD zu langsam ist, nützt auch die höchste Hertz-Zahl nix.

Savay
2018-07-04, 11:07:34
Es "verschleift" die Frames trotzdem zu einem gewissen grad...auch wenn die Schaltzeit grade so in den Refresh passt, verhindert das doch eigentlich erstmal primär störende Overdrive-Artefakte und Ghosting.
60Hz sehen so auf nem OLED deswegen im Endeffekt auch ruckeliger aus als auf nem IPS...selbst wenn dessen Schaltzeiten ziemlich bequem in die 16ms passen.

iuno
2018-07-04, 11:23:02
@Robbitop: Danke, aber das ist mit Overdrive. Das geht bei mir auch, verbessert die Situation zwar auch im Regelfall, perfekt ist es aber nicht und dafuer sieht man dessen Artefakte an anderer Stelle deutlich.

Ich moechte aber auch mal darauf hinweisen, dass, gerade wenn die Schaltzeit eh schon hoeher ist als ein das Bild ueberhaupt angezeigt wird hoehere Bildraten natuerlich vorteilhaft sind. Dann sind die Schritte naemlich kleiner. Als Beispiel nehme ich mal das hier (https://testufo.com/framerates-marquee) heran. Wir sagen jetzt einfach mal, dass sich mit 30 Hz pro Refresh der Text um einen Buchstaben nach links verschiebt. Wenn das Panel schmiert, habe ich also das Problem, dass in jedem Buchstaben der vorangegangene nochmal halb durchscheint. Gehe ich auf 60 Hz hoch, ist es nur noch ein halber Buchstabe, bei 120 Hz nochmal nur noch die Haelfte, bis praktisch nur noch die Kanten verschwimmen, anstatt dass man ganze Buchstaben durcheinander wirft. Ein grosser Anteil des besseren Gefuehls kommt also sicherlich weiterhin durch die hohe Refreshrate und die besseren Schaltzeiten spielen imho eher eine geringe Rolle.

robbitop
2018-07-04, 11:37:19
OD=normal ist idR Werkseinstellung und bringt, wie du ja anmerkst, einiges. Die Ausprägung des Überschwingen ist idR bei "normal" vernachlässigbar. Bei "high"/"extreme" hingegen werden die Schaltzeiten kaum noch besser - aber das Überschwingen nimmt überproportional zu. Insofern IMO der beste Kompromiss.
Ohne Overdrive gehen die Schaltzeiten natürlich überproportional nach oben. Ohne OD ginge das nur noch mit TN IMO.

Tesseract
2018-07-04, 11:48:02
ohne OD ist selbst TN schnarchlangsam, besonders subjektiv.

iuno
2018-07-04, 12:08:59
Ja, bei mir gibts 6 Stufen, keine 3 (0-100 in 20er Schritten), wobei ich mich auch damals auf 60 festgelegt habe. Es haengt aber vom Inhalt ab, finde ich. Z.B. kann das was hier (https://testufo.com/ghosting) gut ausschaut beim Scrollen durch s/w Text schon unangenehm sein. Das muss man halt ausprobieren. Ich weiss gar nicht mehr, was bei mir Standardeinstellung war.
Ich wollte nur wissen, ob es prinzipiell IPS Panels gibt, die auch ohne OD hin kommen wuerden. Aber wenn selbst TN OD "brauchen", ist die Frage wohl hinfaellig ;)

Aber mal um aufs Thema zurueckzukommen; mein MG279Q kostet immer noch fast dasselbe wie vor 3 Jahren. Der eben genannte PG279Q kostet auch immer noch so viel, das sind 200€ mehr als die FreeSync Variante, wobei man beruecksichtigen muss, dass der mit G-Sync von Haus aus 30-144 bzw. sogar 165 Hz unterstuetzt, meinen musste ich erst per custom EDID zu einer 56-144 Hz Range ueberreden. Ich denke, es ist also nicht nur Nvidia schuld*, sondern der Monitormarkt hat auch ein ganz generelles Problem. Den meisten tut es halt das billigste TN Panel und Full HD auf 24-27 Zoll. Nur ein kleiner Bruchteil sucht sich bewusst Features wie IPS, hohe Refreshraten, A/G-Sync und hoehere Aufloesungen aus. Waehrend man im TV Markt inzwischen UHD Modelle nachgeworfen und die Leute dazu ueberredet bekommt, dass sie das brauchen, obwohl sie nur 720p im TV schauen, tut sich bei PC Monitoren da vergleichsweise gar nichts. Woran liegt das?

*zu deren Verhalten wurde denke ich eh schon alles gesagt. Ich hoffe immer noch darauf, dass Intel/AMD/die Linux Community sich endlich bzgl. Adaptive Sync einig wird und dann Nouveau devs spasseshalber Adaptive-Sync implementieren. Es kann doch nicht sein, dass man es im Notebook und bei HDMI 2.1 ohne G-Sync Modul hin bekommt und mit DP nicht. Ich finde es ja okay, dass G-Sync als Zertifizierung und "Qualitaetssiegel" dient, aber das koennte man auch weiterhin so fortfuehren, ohne den eigenen Kunden den Zugang zu VRR zu verwehren. Man muss es halt besser anstellen als AMD das mit "FreeSync 2" gemacht hat. Ich meine, ein GTX 1050 Kunde wird sicherlich keinen 144 Hz UHD G-Sync Monitor kaufen, wuerde aber trotzdem von VRR profitieren, auch wenn es dafuer die Budget-Variante ist.

Tesseract
2018-07-04, 15:36:48
gut implementiertes OD hat keine nachteile, es gibt also keinen grund OD ganz wegzulassen außer vielleicht um entwicklungskosten zu sparen. ist halt schade wenn der hersteller es nicht ohne überschwinger hingekommt, das wäre aber ein vermeidbares problem.

Kartenlehrling
2018-07-04, 15:59:42
Overdrive bringt ja eigentlich nur was wenn man die fps/Hz fest hält,
weil die OD Stufen abgestimmt sein müssen mit der fps/Hz 60-100-120-144hz, somit wär es nur was ohne Adaptiv-Sync.

Tesseract
2018-07-04, 16:21:20
nein, muss es nicht, wie kommst du auf sowas? wenn die zelle einen wert auf einen anderen umschaltet springt OD an und beschleunight den übergang durch intelligente übersteuerung des signals. VRR hat nur damit zu tun ob der neue wert dann 6ms, 10ms, 20ms oder wie lange auch immer stehen bleibt bis die nächste änderung kommt. diese techniken sind prinzipiell vollkommen unabhängig, es sei denn es funktioniert aus unerklärlichen gründen einfach nicht wie das bei fast allen (allen? gibt es inzwischen schon welche die es können?) freesyncgeräten der fall war.

Gipsel
2018-07-04, 17:13:41
Mit VRR mit ~80fps bringt man sich genau wie um die Vorteile des schnelleren Refresh bzw. den üblicherweise schnelleren Schaltzeiten eines 144Hz Panels? Der eigentliche Refresh eines mit VRR arbeitenden 144Hz Panels dauert immer nur knapp 7ms. Egal bei welcher Framerate man spielt. Man eliminiert nur wahlweise den Judder (im Vergleich mit VSync und klassischem ["echtem"] Triple Buffering [FastSync]), das Tearing (im Vergleich zu ohne VSync) oder die Halbierung (Drittelung/Viertelung usw.) der Framerate (mit VSync ohne klassisches Triple Buffering). Man ist also eigentlich immer im Vorteil.Da muss ich mal widersprechen. Mein 144 Hz FreeSync Monitor schmiert bei schnellen Bewegungen, weil er eben die ~6,9ms nicht schafft. Ist halt ein IPS Panel, gibts da ueberhaupt welche, die so schnell sind?Dann redest Du aber von verschiedenen Sachen. Der Refresh meint die Dauer die benötigt wird, die neuen Farbwerte in die Pixelmatrix zu schreiben. Das dauert bei jedem 144Hz Monitor notgedrungen immer 6,x ms. Wenn natürlich die Pixelschaltzeiten Deines Monitors schlecht sind, ändert daran der VRR-Support gar nichts (die Schaltzeiten können deutlich länger als die Refreshdauer sein oder aber auch andersrum). Aber Du verlierst mit VRR auch nichts (die Schaltzeiten werden dadurch nicht größer).
Prinzipiell ist die Aussage, die Schaltzeit sei refreshratenunabhaengig aber natuerlich richtig.Genau. Damit hast Du mir im Grunde nirgendwo widersprochen ;). VRR kann natürlich langsam schaltende (oder anderweitig schlecht abgestimmte) Panels nicht ausgleichen.

===================

nein, muss es nicht, wie kommst du auf sowas? wenn die zelle einen wert auf einen anderen umschaltet springt OD an und beschleunight den übergang durch intelligente übersteuerung des signals. VRR hat nur damit zu tun ob der neue wert dann 6ms, 10ms, 20ms oder wie lange auch immer stehen bleibt bis die nächste änderung kommt. diese techniken sind prinzipiell vollkommen unabhängig, es sei denn es funktioniert aus unerklärlichen gründen einfach nicht wie das bei fast allen (allen? gibt es inzwischen schon welche die es können?) freesyncgeräten der fall war.Im Prinzip gibt es schon eine gewisse Wechselwirkung. Dadurch daß die meisten üblichen Panels die Farbwerte in der Matrix nicht sehr lange halten können (irgendwer sollte wirklich mal vernünftige IGZO-Panels für VRR-Monitore bringen), ändern sich die Farben der Pixel im Prinzip zwischen den Refreshes leicht. Insbesondere bei niedrigeren Refreshraten muß also für eine gute Farbwiedergabe der an die Matrix gesendete Farbwert leicht korrigiert werden, so daß er zumindest im Schnitt zwischen den Refreshes stimmt (was dann auch eine untere Grenze für die minimale Refreshrate des Panels bildet, weil irgendwann fängt es an, merklich zu flackern). Dies ist ebenso wie die Höhe des Overdrive-Impulses (der ist sowohl vom alten Farbwert des Pixels als auch vom neuen Farbwert abhängig) vom angestrebten Farbwert des Pixels abhängig (weil verschiedene Werte sich auch verschieden schnell verändern). Idealerweise kombiniert man das also (und benutzt auch gleich eine einfache Heuristik für die erwartete Dauer bis zum nächsten Refresh [genau so lang wie beim aktuellen]). Wenn man da was verbockt, geht es also nicht richtig (oder man läßt die Optimierung für sehr lange Refreshintervalle weg [also die leichte Farbkorrektur] und betreibt VRR z.B. nur zwischen 60-144Hz, was mit LFC üblicherweise reichen sollte).
Und soweit ich weiß, gibt es auch FS-Monitore, wo OD funktioniert (angeblich ließ sich das bei einigen Modellen sogar per Firmware-Update nachrüsten).

Tesseract
2018-07-04, 18:09:36
in dem zeitfenster in dem TFTs schalten ändern sich die farben/werte aber kaum, da müsste man schon eher in den bereich ~30-40ms gehen, und ich bin mir garnicht mal sicher ob OD überhaupt rücksicht auf den aktuellen zustand der zelle nimmt, sonst würden wir wohl nicht so viele überschwinger in verschiedenen monitoren sehen. die hersteller werden OD wohl so einstellen, dass nach z.B. 6ms der zustand der zelle nah genug am zielwert ist, damit sich der kumulative fehler durch OD im nächsten refresh nicht weit genug aufschauckelt um sichtbar zu werden. und wenn der gamble nicht ganz aufgeht hat man halt überschwinger - den eindruck macht es zumindest wenn man sich die messwerte ansieht. dass der OD-impuls vom alten und neuen zielwert abhängt ist natürlich klar.

Gipsel
2018-07-04, 18:29:53
Zumindest einige Monitore dürften schon für die verschiedenen unterstützten Refreshraten unterschiedliche Lookuptables für die Overdrivesettings haben. Zumindest kann man offenbar Schaltzeitunterschiede messen. Und ein Argument von nV für die Nötigkeit des GSync-Moduls (bzw. eines Vorteils davon) war gerade auch das vom Refreshintervall abhängige Farbmapping (was man im Prinzip auch mit einer kleinen Lookuptable ganz billig im Scaler erledigen kann, aber egal). Das wird bei niedrigen Refreshraten also zumindest bei den besseren Monitoren vermutlich durchaus gemacht. Und bei den Panels mit mangelhaften Haltedauern der Pixel (bzw. wo der Hersteller tendentiell zu niedrige Refreshraten freigegeben hat) kann man doch sogar das Beginnen von Bildflackern aufgrund der Veränderung des Farbwertes zwischen zwei Refreshes sehen (bzw. ändern sich die Farben durchaus merklich abhängig von der Refreshrate). Also mit 30ms Haltdauer bekommen einige Panels schon ihre argen Probleme (sprich die Farben ändern sich über die Zeit zwischen den Refreshes bereits etwas). Wäre es anders, wäre es ja kein Problem Monitore mit niedrigem Minimalrefresh zu bauen. ;)

MadManniMan
2018-07-04, 18:51:03
Ich hatte es schonmal gefragt, aber es ist wohl untergegangen:


Grade bei LCD Panels an der Kotzgrenze (die meisten 144+Hz IPS halt und fast alle VAs mit >60Hz) werden die Themen oft vermischt...dabei äussert sich der Effekt IMO schon klar anders.

Was bedeutet Kotzgrenze im Zusammenhang mit IPS und VA? Wo haben diese Probleme?

TN weil man nun ja wirklich kaum mehr ...

Savay
2018-07-04, 19:05:40
Was bedeutet Kotzgrenze im Zusammenhang mit IPS und VA? Wo haben diese Probleme?

Es meinte eigentlich das worum es hier fast schon die ganze Seite geht.

Bei IPS und vor allem VA sind die Schaltzeiten (selbst mit OD zum Teil) eher etwas zu lang um bei HFR Bildschirmen vollständig und in jedem Fall in den Refresh zu passen.
Das führt dann ggf. zu "schlieren", verwaschenen Konturen oder Ghosting...quasi nen (tw. Farbwechseläbhängiger) Hardware-Motion-Blur.

Manche Panels sind besser als andere aber die verschiedenen Panelarten haben halt grundlegende Eigenschaften die bestimmten wie schnell sich die Kristalle in ihre Ausrichtung verändern können und das ändert sich ja nicht fundamental nur weil man sie mit ner beliebigen Frequenz refresht. :wink:
VA ist ganz grob bis 60Hz safe (nen gut optimiertes vlt. ein bisschen mehr), IPS&Co taugt vlt für solide 120-144Hz...

Gipsel
2018-07-04, 19:08:26
Ich hatte es schonmal gefragt, aber es ist wohl untergegangen:

Was bedeutet Kotzgrenze im Zusammenhang mit IPS und VA? Wo haben diese Probleme?In dem Beitrag meint er Panels, bei denen die Schaltzeiten gerade mal in etwa dem Refreshintervall entsprechen, also die relativ zur Refreshrate recht langsam schalten. Die Anmerkungen zum Unterschied, den er in dem Beitrag macht (also zwischen den Auswirkungen von langsamen Pixelschaltzeiten und der empfundenen Bewegungsunschärfe von Hold-Type-Displays [die auftritt, wenn man ein bewegtes Objekt auf dem Schirm verfolgt]) kann ich übrigens nur zustimmen.

Refresht man schneller, als die Pixel überhaupt schalten, sind Konturen bewegter Objekte auf dem Schirm schlicht blurry, je höher man die Refreshrate bei gleichbleibenden Schaltzeiten der Pixel treibt um so mehr (das Ghosting geht also in einen regelrechten Blur über, weil mehr aufeinander folgende Frames ineinander geblendet werden; kann man anhand von mit unbewegter Kamera gemachten Fotos [Belichtungszeit kleiner als Refreshintervall] zeigen). Die Hold-Type-Unschärfe sieht man dagegen, wenn man ein Objekt auf dem Schirm verfolgt (was man mit Fotos [größere Belichtungszeit über mehrere Refreshes] einer geeignet bewegten Kamera objektiv nachvollziehen kann [das Setup ist etwas schwieriger zu bauen]). Hier ergibt sich eine (selbst bei Schaltzeiten der Pixel von Null) durch die Refreshrate des Panels (bzw. der Framerate des dargestellten Contents) limitierte minimale Bewegungsunschärfe (bei niedrigen Frame-/Refreshraten kann es anfangen, sichtbar zu ruckeln [insbesondere bei schnellem Schalten, z.B. OLEDs, ist das auffällig, wenn der durch die langsamen Schaltzeiten verursachte oder z.B. bei Kinomaterial künstlich hinzugefügte Blur nicht verschleiert]). Auf die kommt die durch die Schaltzeiten der Pixel noch obendrauf. Ist das also in etwa gleich groß (also Schaltzeit und Refreshintervall) vermengt man bei der Bewegungsunschärfe beide Effekte (und sollten die Pixel deutlich langsamer schalten als das Refreshintervall, ist die Refreshrate mitsamt Hold-Type-Unschärfe nebensächlich für die beobachtete Unschärfe).

PatkIllA
2018-07-04, 19:21:09
Eigentlich wäre doch OLED ideal für Gamer. Fix und höchstens ein bisschen vom HUD steht fix.
Kriegen die LGs von diesem Jahr nicht sogar noch VRR per Update? Wenn auch nur mit niedrigen Refreshraten.
Nächstes Jahr dann mit voller Bandbreite von HDMI 2.1.
Und das ohne Vendor lockin. Als 40 Zoll würde ich mir das sogar auf den Schreibtisch stellen.

dargo
2018-07-04, 19:26:34
Eigentlich wäre doch OLED ideal für Gamer.
Eher nicht wegen dem Einbrennrisiko. Und irgendwelche Algorithmen regelmäßig dann auch am PC durchlaufen lassen zu müssen, da hätte ich jetzt auch nicht unbedingt Bock drauf.

Tesseract
2018-07-04, 19:27:22
Also mit 30ms Haltdauer bekommen einige Panels schon ihre argen Probleme (sprich die Farben ändern sich über die Zeit zwischen den Refreshes bereits etwas). Wäre es anders, wäre es ja kein Problem Monitore mit niedrigem Minimalrefresh zu bauen. ;)

ich sehe am PG279Q auf 33fps nix flackern und irgendwer von nvidia hat damals auch gemeint das ist der grund warum man 30Hz als untere schranke gewählt hat IIRC. glaub sichtbar wurde es mit ~24Hz oder sowas in die richtung.

iuno
2018-07-04, 19:31:07
gut implementiertes OD hat keine nachteile, es gibt also keinen grund OD ganz wegzulassen außer vielleicht um entwicklungskosten zu sparen. ist halt schade wenn der hersteller es nicht ohne überschwinger hingekommt, das wäre aber ein vermeidbares problem.
Wie gesagt, ich wusste halt nicht, ob es technisch auch ohne machbar waere oder eben nicht.
Bei meinem wurden jedenfalls in dem verlinkten Test auch ~5ms Reaktionszeit im worst case genannt, dementsprechend duerfte man von ghosting oder Schlieren nichts sehen, das ist bei mir aber nicht der Fall. Es ist natuerlich je nach OD Einstellung mehr oder weniger stark in die eine oder andere Richtung, aber doch immer noch wahrnehmbar. Dementsprechend kann es ja gar nicht sein, dass ausnahmslos jeder Wechsel wirklich innerhalb der 7 ms "rueckstandslos" abgeschlossen ist. Heisst das nun, dass die OD Implementierung unzureichend, das Panel zu lahm, die technologische Grenze von IPS erreicht ist oder dass ich ein kaputtes oder besonders schlechtes Modell habe? :freak:

Eigentlich wäre doch OLED ideal für Gamer. Fix und höchstens ein bisschen vom HUD steht fix.
Und dann Ersatzbildschirm fuer die Arbeit oder gleich eingebrannte Windows-Taskbar oder das HUD von einem Spiel, das man oft spielt eingebrannt?
Das kauft doch auch keiner. Wenn es guenstig und einfach waere, ein verbrauchtes Panel zu wechseln, vielleicht, aber das sehe ich nicht. Oder hat man in die Richtung mal was gehoert? Liessen sich ausgebrannte OLED Panels eigentlich auch wieder aufbereiten oder irgendwas davon wirtschaftlich recyclen oder kommt das Zeug einfach nur auf den Muell?

dargo
2018-07-04, 19:39:38
ich sehe am PG279Q auf 33fps nix flackern und irgendwer von nvidia hat damals auch gemeint das ist der grund warum man 30Hz als untere schranke gewählt hat IIRC. glaub sichtbar wurde es mit ~24Hz oder sowas in die richtung.
Wie meinst du das jetzt? Nicht jeder G-Sync Monitor kann mit 30Hz refreshen. Ein Acer XB270HU kann bsw. min. 37Hz.
https://www.youtube.com/watch?v=VkrJU5d2RfA
https://www.pcper.com/reviews/Graphics-Cards/Dissecting-G-Sync-and-FreeSync-How-Technologies-Differ

Die Angaben von Nvidia bei jedem Monitor mit G-Sync bzw. den Monitorherstellern @min. 30Hz sind nichts weiter als Marketing. Man hält sich da einfach bedeckt was die tatsächlichen Ranges angeht. Und wenn der Bildschirm im OSD keine Frequenzanzeige hat brauchst du erstmal ein entsprechendes Equipment um die tatsächlichen Refreshraten im unteren Bereich zu prüfen.

btw.
Kann dein PG279Q wirklich 33Hz oder sind es eher 66Hz?

Tesseract
2018-07-04, 19:48:09
Bei meinem wurden jedenfalls in dem verlinkten Test auch ~5ms Reaktionszeit im worst case genannt, dementsprechend duerfte man von ghosting oder Schlieren nichts sehen

hold-type-unschärfe siehst du immer, schaltzeit kommt dann noch oben drauf. es gibt keinen magischen wert ab dem schlieren plötzlich weg sind, ne niedriger die schaltzeit und je höhere die Hz umso schärfer ist das ding in bewegung. wenn die schaltzeit allerdings höher als die refreshzeit ist kommen recht schnell große sichtbare artefakte dazu - z.B. schwanken bewegte objekt mit sehr kontrastreichen texturen in der gesamthelligkeit je nach dem wie schnell sie gerade sind und solche dinge. wenn allerdings 140fps deutlich unschärfer als 144fps (bzw. fixed refresh) sind, dann ist VRR+OD kaputt.

hier (http://www.lagom.nl/lcd-test/response_time.php#response_time_gif), start das mal und schau wie sich die kästchen verhalten. am PG297Q auf 165Hz sehe ich H-D, B und A gleichmäßig hell, nur C schwankt ganz leicht leicht in der helligkeit, hat aber keinen farbstich. auf 144Hz sind dann alle sauber. mit OD off blinken die dann wie verrückt rot und mit OD extreme wie verrückt blau.

Die Angaben von Nvidia bei jedem Monitor mit G-Sync bzw. den Monitorherstellern @min. 30Hz sind nichts weiter als Marketing.
was soll das heißen?

Kann dein PG279Q wirklich 33Hz oder sind es eher 66Hz?

im datenblatt steht 30, ob es wirklich 30 sind kann ich dir aber nicht sagen da LFC so gut funktioniert dass auch 24 native aussehen. im endeffekt also relativ egal.

Gipsel
2018-07-04, 19:50:13
ich sehe am PG279Q auf 33fps nix flackern und irgendwer von nvidia hat damals auch gemeint das ist der grund warum man 30Hz als untere schranke gewählt hat IIRC. glaub sichtbar wurde es mit ~24Hz oder sowas in die richtung.1. Da ist kein Wald- und Wiesenpanel drin. Und zu dem Preis kann man erwarten, daß der Monitor halbwegs vernünftig abgestimmt ist. Wie sieht das aber bei einem 200€-Teil aus?
2. Wie sicher bist Du bei der wirklich anliegenden Refreshrate (also daß das nicht intern vervielfacht wird)? Das läßt sich nämlich mit Hausmitteln nur schwer feststellen (zur Nachmessung benötigt man mehr Aufwand, als man typischerweise zu Hause rumliegen hat). Bei ein paar frühen GSync-Monitoren hat das mal eine Seite gemacht und da griff ab ~33Hz eine Verdopplung der Framerate. Bei anderen Modellen (Panel hält die Farbwerte der Pixel nicht so lange?) liegt die Grenze wohl sogar noch etwas höher.

Also doch, Haltezeiten von 30ms zu erreichen, kann ein Problem sein. Ansonsten würde es viel mehr billige Monitore geben, die das können (ohne Änderung des Farbeindrucks bei verschiedenen Refreshraten, ja sowas ist bei einigen Modellen beobachtbar).

Tesseract
2018-07-04, 19:55:07
Und zu dem Preis kann man erwarten, daß der Monitor halbwegs vernünftig abgestimmt ist.
könnte man glauben, bekommen aber die wenigsten (auch teurere nicht) hin.

Wie sicher bist Du bei der wirklich anliegenden Refreshrate (also daß das nicht intern vervielfacht wird)?

ich kann dir nur sagen was ich sehe, und das ist kein flackern in diesem bereich. gemessen habe ich da nix.

dargo
2018-07-04, 19:57:54
was soll das heißen?

Habs im letzten Post editiert, aber gerne noch mal.

Die G-Sync Angaben geben nicht unbedingt bei jedem Monitor die tatsächlichen Ranges die das Panel kann wieder. Wenn ich dein Beispiel mit den 33fps nehmen darf... dein Bildschirm kann das genauso mit 66Hz wiedergeben. Ohne eine entsprechende Anzeige im OSD vom Monitor tappst du da komplett im Dunkeln. Oder du beschaffst dir entsprechendes Equipment um dies zu messen. Siehe Video von pcper.

Edit:
Mal ne ganz blöde Frage in den Raum geworfen... hat überhaupt irgendein G-Sync Monitor eine eigene Refreshanzeige im OSD? Denn falls nicht, wisst ihr jetzt warum. Der Kunde soll gar nicht erst erfahren wo die untere Grenze vom Panel liegt. ;)

btw.
Nicht, dass wir uns falsch verstehen. Nicht jeder Freesync Bildschirm hat eine eigene Refreshanzeige im OSD. Ein Asus MG279Q hat diese aber.

Beispiel:
https://www.youtube.com/watch?v=y_z4n1zJyNM

Gipsel
2018-07-04, 20:06:59
könnte man glauben, bekommen aber die wenigsten (auch teurere nicht) hin.Was erwartest Du denn von einem Monitor zum Drittel des Preises von Deinem? :rolleyes:
ich kann dir nur sagen was ich sehe, und das ist kein flackern in diesem bereich. gemessen habe ich da nix.Genau das war der Punkt. ;)

==================

Wie gesagt, ich wusste halt nicht, ob es technisch auch ohne machbar waere oder eben nicht.
Bei meinem wurden jedenfalls in dem verlinkten Test auch ~5ms Reaktionszeit im worst case genannt, dementsprechend duerfte man von ghosting oder Schlieren nichts sehen, das ist bei mir aber nicht der Fall. Es ist natuerlich je nach OD Einstellung mehr oder weniger stark in die eine oder andere Richtung, aber doch immer noch wahrnehmbar. Dementsprechend kann es ja gar nicht sein, dass ausnahmslos jeder Wechsel wirklich innerhalb der 7 ms "rueckstandslos" abgeschlossen ist. Heisst das nun, dass die OD Implementierung unzureichend, das Panel zu lahm, die technologische Grenze von IPS erreicht ist oder dass ich ein kaputtes oder besonders schlechtes Modell habe? :freak:Nun, wenn ein Pixel 5ms benötigt, um vom alten Farbwert zum neuen zu wechseln, hast Du natürlich immer noch ein wenig Ghosting. Mal ganz vereinfacht angenommen, das wären die Schaltzeiten von 0% neuer Wert (also komplett alter Wert) zu 100% neuer Wert (üblicherweise werden die Zeit von 10% bis 90% des Überganges angegeben), dann bedeutet das doch, daß für 5ms der 7ms zwischen den Refreshes eine Mischung aus altem und neuem Frame angezeigt wird. Nur 2ms hast Du wirklich den neuen Frame auf dem Schirm (und bei einem strobed backlight schaltet man die Hintergundbeleuchtung dann hoffentlich nur für genau diese 2ms ein ;)). Das nennt man meist Ghosting. Sollte immerhin nur 1 Frame sein, bei einigen Monitoren sieht man ja zwei, drei oder im worst case noch mehr.

Tesseract
2018-07-04, 20:14:58
Mal ne ganz blöde Frage in den Raum geworfen... hat überhaupt irgendein G-Sync Monitor eine eigene Refreshanzeige im OSD?

der PG279Q hat eine fps-anzeige, die ist aber LFC-transparent, d.h. wenn man 10fps rendert zeigt die auch 10 an.

Was erwartest Du denn von einem Monitor zum Drittel des Preises von Deinem? :rolleyes:

eigentlich erwarte ich, dass das bei jedem monitor passt weil das keine sache des preises sein sollte.

dargo
2018-07-04, 20:24:14
Naja... fps ist nicht in jeder Situation = Hz. ;)

Tesseract
2018-07-04, 20:26:19
es ist das was der monitor tatsächlich anzeigt, ob mit verdoppelung oder nicht, und insofern ein sehr aussagekräftiger wert. damit sieht man z.B. ob das panel tatsächlich 24fps anzeigt wenn ein video läuft und solche dinge.

Gipsel
2018-07-04, 20:28:33
es ist das was der monitor tatsächlich anzeigt, ob mit verdoppelung oder nicht, und insofern ein sehr aussagekräftiger wert.Aber es ist kein Argument dafür, daß jedes Panel (oder auch nur die meisten) die Farbwerte eines Pixels locker mal 30ms hält. ;)
Das ist nämlich nicht so.

Savay
2018-07-04, 20:31:15
Aber nicht für die Haltezeit...und darum ging es doch oder nicht?!

EDIT: Viel zu langsam. :freak:

iuno
2018-07-04, 20:37:30
hier (http://www.lagom.nl/lcd-test/response_time.php#response_time_gif), start das mal und schau wie sich die kästchen verhalten. am PG297Q auf 165Hz sehe ich H-D, B und A gleichmäßig hell, nur C schwankt ganz leicht leicht in der helligkeit, hat aber keinen farbstich. auf 144Hz sind dann alle sauber. mit OD off blinken die dann wie verrückt rot und mit OD extreme wie verrückt blau.
Bei mir hat OD hier ueberhaupt keinen Einfluss aufs Ergebnis.
C+D flimmern am staerksten und deutlich roetlich, B+E immer noch gut wahrnehmbar, aber nur noch sehr leicht ins Roetliche und beim Rest ist es dann besser, aus etwas Abstand wuerde ich sagen "gut" :freak:. Ist egal, ob ich 0,20,40,60,80,100% OD einstelle.

dargo hat glaube ich auch den MG279, wuerde mich jetzt mal interessieren was der dort sieht.

edit: ok, wenn man in den Presets und insbesondere der Schaerfe rum schaltet, bekommt man die Kaestchen weitestgehend weg. Dann wird das Bild aber schlechter, insofern natuerlich Quatsch fuer mich.

Tesseract
2018-07-04, 20:38:12
Aber es ist kein Argument dafür, daß jedes Panel (oder auch nur die meisten) die Farbwerte eines Pixels locker mal 30ms hält. ;)
Das ist nämlich nicht so.

habe ich das behauptet? dargo hat gefragt was der monitor anzeigen kann, ich habe geschrieben was die anzeige genau macht.

Kartenlehrling
2018-07-04, 20:39:58
LFC-Transparenz
Was ist das, die Offenlegung des Verhalten von LFC?

Bei 10fps müsste der Monitor eine doppelte oder dreifache vierfache Hz haben,
jedenfall war das so bei den Monitor die eine G-sync Range von 38-144Hz hatten.
Da war 38fps > 76Hz und 18fps > 54Hz, kein Tester und
auch nicht Nvidia hat je danach neue Ergebnisse Veröffentlicht, jedenfall weiß ich von keine.

https://pc4u.org/wp-content/uploads/2017/01/FreeSync-8.jpg

Gipsel
2018-07-04, 20:41:33
habe ich das behauptet? dargo hat gefragt was der monitor anzeigen kann, ich habe geschrieben was die anzeige genau macht.
Du hast auf einen Post von mir geantwortet (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11738267#post11738267) und genau das implizit gesagt. Also ja. ;)

fondness
2018-07-04, 20:46:55
Was ist das, die Offenlegung des Verhalten von LFC?

Bei 10fps müsste der Monitor eine doppelte oder dreifache vierfache Hz haben,
jedenfall war das so bei den Monitor die eine G-sync Range von 38-144Hz hatten.
Da war 38fps > 76Hz und 18fps > 54Hz, kein Tester und
auch nicht Nvidia hat je danach neue Ergebnisse Veröffentlicht, jedenfall weiß ich von keine.

https://pc4u.org/wp-content/uploads/2017/01/FreeSync-8.jpg

Genau das ist der Punkt, das ist natürlich bewusst nicht transparent gehalten. So kann man toll eine untere Schwelle von 30hz auf das marketingplakat schreiben und kontrollieren kann es ohnehin niemand.

Gipsel
2018-07-04, 20:51:11
Genau das ist der Punkt, das ist natürlich bewusst nicht transparent gehalten. So kann man toll eine untere Schwelle von 30hz auf das marketingplakat schreiben und kontrollieren kann es ohnehin niemand.
Gehen tut es schon, es ist nur mit etwas Aufwand verbunden. Aber ich verstehe auch den Punkt, daß es im Prinzip nur ein (wenn vielleicht auch interessantes) technisches Detail der Umsetzung ist, die die meisten Endkunden solange nicht wirklich interessiert, wie LFC vernünftig funktioniert (also z.B. eine Spanne von möglichst Faktor 2,5 oder so zwischen echter Minimal- und Maximalrefreshrate liegt). Ein Monitor mit z.B. 50-144Hz VRR-Range sollte schon ziemlich gut funktionieren. Ein größerer Bereich (also z.B. 40-144Hz) reduziert nur noch etwas die Wahrscheinlichkeiten von "Kollisionen" beim Refresh, wenn gleichzeitig Framevervielfachung stattfindet und die Frameraten dazu auch noch relativ stark schwanken (so daß die Framevervielfachung es schwer hat, die voraussichtliche Dauer zum nächsten von der GPU kommenden Frame vorherzusagen [das funktioniert nach der einfachen Annahme, daß es vermutlich genau so lange dauert wie beim letzten Frame]).

dargo
2018-07-04, 20:52:30
es ist das was der monitor tatsächlich anzeigt, ob mit verdoppelung oder nicht, und insofern ein sehr aussagekräftiger wert. damit sieht man z.B. ob das panel tatsächlich 24fps anzeigt wenn ein video läuft und solche dinge.
Was macht dich jetzt so sicher, dass ein 24p Video nicht mit 48Hz ausgegeben wird?

iuno
2018-07-04, 20:54:21
Das hat er doch ueberhaupt nicht behauptet, sondern das Gegenteil. Das OSD zeigt an, wie viele Frames pro Sekunde rein kommen, nicht wie viele am Panel dargestellt werden.

Tesseract
2018-07-04, 20:54:46
Du hast auf einen Post von mir geantwortet (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11738267#post11738267) und genau das implizit gesagt. Also ja. ;)

wir reden aneinander vorbei. in meinen letzten 2,5 postings ging es nur um die OSD-anzeige.

Was ist das, die Offenlegung des Verhalten von LFC?

wenn in software etwas transparent ist, dann bedeutet das die anderen komponenten sehen den zustand nicht. LFC-transparenter fps-counter bedeutet er zeigt nicht an ob LFC aktiv ist oder nicht sondern wieviele frames angezeigt werden, egal in wie vielen scanouts das passiert.

Was macht dich jetzt so sicher, dass ein 24p Video nicht mit 48Hz ausgegeben wird?
das habe ich nicht behauptet und das ist auch vollkommen egal. wenn ich einen player starte und die fps bleiben auf 165 dann ist irgendwas faul, wenn sie auf 24 runter gehen weiß ich dass gsync aktiv ist. erleichtert das "debuggen" wenn man videos mit besseren scalern und ähnlichem aufwertet.

Gipsel
2018-07-04, 21:00:53
wir reden aneinander vorbei. in meinen letzten 2,5 postings ging es nur um die OSD-anzeige.Mir ist schon klar, was Du dort geschrieben hast. Es hat aber Auswirkungen auf die Gültigkeit von Aussagen in vorherigen Posts, in denen Du bezweifelt hast, daß viele Panels die Farbwerte nicht vernünftig für 30ms halten können und als Gegenargument Deinen Monitor angeführt hast. Und das habe nicht nur ich erkannt, sondern z.B. auch Savay. Und auch dargo hat sich ursprünglich auf die Aussage mit den Haltezeiten der Farbwerte bezogen. Also darum ging es schon ;).

Darkseth
2018-07-04, 21:03:30
Ich weiss gar nicht warum man als 144Hz User überhaupt ein Hardware-sync braucht.
Da feiert man die 144Hz Displays, weil sie so schön schnell schalten und wenig schlieren, und schaltet den Monitor, begrenzt durch das Sync, schön langsam, damit wieder mehr Schlieren erscheinen, sofern man keine 144FPS erreicht? Was soll das bitte? Reiner Selbstbeschiss. Kann ich nur bei 60Hz Monitoren verstehen. Darüber tuts Fastsync um Tearing zu verhindern, hauptsache das Panel schaltet schnell.
Nochmal meine Frage in Kurz: Warum kauft man sich ein 144Hz Display und lässt es dann vom Hardwaresync einbremsen/schlieren?
Vollkommen falsch^^ Kein Selbstbeschiss, sondern ein Segen.

Um deine Frage erstmal zu beantworten: Weil ICH weder Tearing, noch Stuttering haben will. Und das geht entweder NUR mit G-Sync (/Freesync), oder mehr fps als Hz + V-Sync an. Letzteres war die einzige Möglichkeit, wie ich mit meinem alten 1080p / 60 Hz Monitor flüssig zocken konnte. Anders keine chance. Weniger als 60 fps = nicht flüssig. egal ob mit oder ohne V-Sync. Ständig hat irgendwas gestört.
Bei 144 Hz sind die Risse kleiner, aber man sieht sie immer noch. Und mich stört das. Denn wenn ich einen Riss einmal sehe, guck ich immer wieder dahin.
Das selbe mit stuttering wenn der Monitor mit V-Sync doppelte frames darstellt, bzw "die fps sich halbieren".

Wohingegen ich erhöhtes schlieren überhaupt nicht wahrnehme. Da seh ich bei 55 fps/hz genau so wenig wie bei 140.
Liegt aber wohl auch daran, dass ich ein TN Panel habe, bei TN sind die Pixelschaltzeiten eh um ein vielfaches schneller als bei jedem VA Panel. Da hat man das problem mit schlieren eher gar nicht.
Wenn doch, ULMB nutzen, womit du mit Backlightstrobing die mit Abstand geringste schlierenbildung hast - ist auch ein "trick", den einige VA Panels nutzen, um im Datenblatt 1ms hinschreiben zu können.

Erst mit G-Sync / Fressync sind bewegungen erst vollkommen smooth.

Beispiel, 45 fps~ in Witcher 3 sehen für mich dank G-Sync (= 45 Hz) bedeutend flüssiger/smoother aus, als 55-58 fps auf meinem 60 Hz Monitor, wo es aufgrund V-Sync zu doppelten frames kommt. Das spielerlebnis ist einfach deutlich besser und sauberer, obwohl man prozentual gute 20% weniger fps hat.

Selbes beim Monitor. Ich spiel 100 mal lieber in 100-120 fps mit G-Sync, als 200 fps auf 144 Hz inklusive Bildrisse^^

Fast Sync ist übrigens keine option, und etwas völlig anderes - und funktioniert auch nicht perfekt.
Technisch, damit es möglichst sauber funktioniert, muss man etwa 2x soviele fps haben, wie Hz.
Bei nem 144 Hz Monitor müsste ich meine Games daher auf 288 fps bringen, damit es halbwegs sauber klappt, und selbst dann wird es nicht so perfekt funktionieren wie G-Sync, da es IMMER mal etwas ungleiche Frametimes oder microruckler geben kann. Bei CS:GO kein Problem, aber in Witcher 3 würde ich das selbst auf niedrigsten Settings nicht schaffen.

144 Hz Display, aber 70 fps... Da siot Fast Sync etwas suboptimal. Man hat zwar kein tearing, kann dafür aber höheren input lag haben, bzw "microstuttering": https://www.youtube.com/watch?v=L07t_mY2LEU

Kann daher aus Erfahrung sprechen: G-Sync an, auch bei 144 Hz bzw sogar 165 Hz bietet das flüssigste, smootheste spielerlebnis, zumindest für mich.
Auch in Witcher 3 auf Ultra, wo ich nur 75-80~ fps schaffe. Da ist das Bild mit G-Sync an (75-80 Hz) bedeutend sauberer, "cleaner", smoother, als wenn G-Sync aus ist, und das Panel mit 144-165 Hz läuft - denn wegen nem Treiberreset war G-Sync mal plötzlich deaktiviert, und das hab ich ingame innerhalb 5 sekunden anhand der Bildrisse gesehen - und musste sofort im Treiber nachsehen. Und wie ich dachte, G-Sync war aus. Bzw, G-Sync war auf "Fullscreen only", und ich hatte damals Borderless windowed.


Du musst ja meine Lösung nicht benutzen, ganz klar. Deswegen gibt es nen haufen verschiedener Optionen. Aber wenn du das selbstbeschiss nennst, kann ich diese Aussage einfach nur mit einem dicken fetten Falsch kommentieren^^

Mal ne Frage an der Stelle: Hast du denn G-Sync selbst mit einem 144 Hz Monitor schon halbwegs ausführlich getestet? Wenn ja, welcher Monitor, bzw welches Panel war da drin?

[QUOTE=HisN;11737137und die letzten 20 Jahre ist niemand am fehlenden VRR gestorben. [/QUOTE]
Das ist so ein Käse, das hat die bezeichnung "Argument" nicht ansatzweise verdient...

Vor 300 Jahren ist auch niemand an fehlendem Klopapier oder überhaupt Toiletten gestorben. Einfach in ne ecke machen, der Diener macht es schon weg. Oder in ne Pfanne, und Abends vor die Haustür kippen. Warum nutzt du also nun toiletten und Klopapier?
Nur weil man bisher überlebt hat, ist das in keinster Weise ein Argument, einen fortschritt zu ignorieren, bzw für nichtig/überflüssig/negativ zu erklären.
Vor 100 Jahren gab es auch keine videospiele. Also warum nutzt du diese Produkte? Hör auf zu Zocken, ging vor 100 jahren ja auch ohne zu sterben.^^

Ganz einfach, weil es eine verbesserung zu vorher ist.
Klopapier zu haben ist besser als keins zu haben.
Videospiele als hobby zu haben für Spaß und Freude ist besser als darauf zu verzichten bzw was anderes suchen zu müssen als Zeitvertreib.
VRR nutzen zu können jetzt wo es da ist, um endlich die ruckler / Risse wegzubekommen, und überhaupt mal flüssige bewegungen zu haben ohne Nachteile.

Und ich sehe nicht nur auf dem Papier, sondern live in der Praxis ausschließlich solch enorme vorteile in G-Sync, bzw generell VRR; dass ich niemals wieder ohne Zocken könnte. Könnte schon, aber mit dem dicken fetten Kompromiss, dass mein Game nicht mehr flüssig laufen wird.

Tesseract
2018-07-04, 21:12:55
Mir ist schon klar, was Du dort geschrieben hast. Es hat aber Auswirkungen auf die Gültigkeit von Aussagen in vorherigen Posts, in denen Du bezweifelt hast, daß viele Panels die Farbwerte nicht vernünftig für 30ms halten können und als Gegenargument Deinen Monitor angeführt hast. Und das habe nicht nur ich erkannt, sondern z.B. auch Savay. Und auch dargo hat sich ursprünglich auf die Aussage mit den Haltezeiten der Farbwerte bezogen. Also darum ging es schon ;).

die grundlage für meine ursprüngliche aussage war die aussage von nvidia bzgl. der persistenz von TFT zellen, leider finde sie gerade nicht. kann gut sein, dass das nicht für alle panel stimmt, ich habe von euch aber auch noch kein einziges gegenbeispiel gesehen, nur behauptungen des gegenteils. meinen monitor habe ich deswegen als beispiel angegeben weil die range laut datenblatt 30-165Hz ist, falls das nicht stimmen sollte dann ist die flimmerfreiheit natürlich kein argument, allerdings auch kein gegenbeweis.

PatkIllA
2018-07-04, 21:17:33
Was macht dich jetzt so sicher, dass ein 24p Video nicht mit 48Hz ausgegeben wird?24 kann doch eh kein Monitor. Weder GSync noch FreeSync
das habe ich nicht behauptet und das ist auch vollkommen egal. wenn ich einen player starte und die fps bleiben auf 165 dann ist irgendwas faul, wenn sie auf 24 runter gehen weiß ich dass gsync aktiv ist. erleichtert das "debuggen" wenn man videos mit besseren scalern und ähnlichem aufwertet.Das greift doch eh nur, wenn der Player exklusiv im Vollbild läuft.
Gibt es überhaupt einen Videoplayer mit dem das klappt? Was macht madVR?

dargo
2018-07-04, 21:20:51
24 kann doch eh kein Monitor. Weder GSync noch FreeSync

Ich meine 24p können manche. Bin mir jetzt aber bei dem Thema echt nicht sicher. Moment... also zumindest mein Asus MG279Q kann das in Games wenn ich die Range auf 24-60Hz verschiebe.

Tesseract
2018-07-04, 21:21:46
Das greift doch eh nur, wenn der Player exklusiv im Vollbild läuft.
Gibt es überhaupt einen Videoplayer mit dem das klappt? Was macht madVR?

smplayer mit aktiver GPU-beschleunigung (OGL oder vulkan) macht das mit den meisten videos/codecs. mad-VR... ka, den verwende ich nicht.

24 kann doch eh kein Monitor. Weder GSync noch FreeSync

mit LFC sind 24fps videos perfekt flüssig, so wie mit nativen 24Hz und besser als z.B. mit resampling auf 165.

iuno
2018-07-04, 21:23:08
Das greift doch eh nur, wenn der Player exklusiv im Vollbild läuft.
Gibt es überhaupt einen Videoplayer mit dem das klappt? Was macht madVR?
G-Sync geht glaube ich schon laenger auch ohne exklusiven Vollbildmodus und FreeSync seit einiger Zeit auch. mpv kann man z.B. auch mit FreeSync benutzen.

Dass der Monitor im OSD auch mal 10 FPS anzeigt ist uebrigens ein interessanter Punkt. Ist es denkbar, dass Nvidias Displaycontroller Probleme mit LFC haette und sie deshalb auf das Modul bestehen?

Ich finde LFC eh ein interessantes Thema. Wie setzt man das ueberhaupt am besten um? Wie weiss das G-Sync Modul (oder der Displaycontroller), ob und vor allem wann es einen Frame nochmal refreshen soll?
Mal angenommen die minimale Refreshrate am Panel laege bei 40 Hz, maximal 100 Hz, entspricht Frametimes von maximal 25ms und minimal 10 ms.
Jetzt kommen ein paar Frames rein, ich male mal eine Zeitachse auf:


Zeit (ms) 0----5---10---15---20---25---30---35---40---45---50---55---60---65---70---75---80
Frame (in) # 1-------------------------2-------------------------3-------------------------4--
Frame (out)# 1------------------------1---------2----------------3------------------------3---
Frame (out)# 1-------------1-----------2------------2------------3------------3------------4--

Die erste Variante waere, man wartet so lange wie moeglich auf einen neuen Frame und refreshe nur wenn es unbedingt sein muss. Im Beispiel verpasst man dann gerade um 1ms immer den neuen Zyklus, also wird das alte Bild 1ms bevor das neue eingetroffen ist refresht. Dann muss man bloederweise erstmal warten, bis man wieder refreshen kann und hat zusaetzlichen Input-Lag und vor allem ist die Ausgabe "unrund".

In der zweiten Variante "weiss" der Controller (z.B. aus Historie oder von der GPU?), dass die Framerate momentan zu niedrig ist und er refreshen muss und tut das dann so, dass moeglichst wenige Konflikte gibt. Kann natuerlich auch mal danebengehen, ist aber vermutlich im Regelfall runder als die erste Variante. Haben die Displaycontroller von AMD und das G-Sync Modul denn hinreichend Logik, um sowas zu machen oder ist darueber irgendwas bekannt?

PatkIllA
2018-07-04, 21:38:53
mit LFC sind 24fps videos perfekt flüssig, so wie mit nativen 24Hz und besser als z.B. mit resampling auf 165.Wobei ich mit dem SmoothVision echt zufrieden bin. Ich bin jedenfalls mittlerweile zu faul für einen Film auf dem Beamer auf 24Hz umzuschalten und lasse das auf 60Hz umrechnen.
Und wirklich einen Unterschied sehe ich auch nicht. Mit 24 Hz kann echt nichtmal surfen oder Solitair spielen.

Der_Korken
2018-07-04, 21:44:32
Ich mutmaße einfach mal, dass der Durchschnitt der letzten k Frametimes eine gute Näherung für die nächste Frametime ist. k sollte größer als 1 sein, um nicht ausreißeranfällig zu sein, vielleicht reichen schon 2. Das löst natürlich nicht die Extremfälle auf, die du skizziert hast, aber die kommen vermutlich zu selten vor. Falls sie doch oft vorkommen, dann stimmt irgendwas grundsätzlich nicht und das Spielgefühl ist allein durch die Frametimes schon total im Eimer.

Edit: Post war an iuno gerichtet.

Vanilla
2018-07-04, 22:07:51
Ich bin selbst wegen dieser Inkompatibilität von Nvidia zu AMD gewechselt, die Preise für G-Sync waren mir zu hoch.
Aber die Preisentwicklung ist in jedem Fall übel. Wenn man in Zeiten einer GTX760 noch neine Grafikkarte + Monitor gekauft hat, hat man vielleicht 400€ bezahlt und hatte gehobene Mittelklasse. Heute muss man schon fast das doppelte ausgeben.
OK man hat einen Mehrwert da das Tearing eliminiert wird und durch die höheren Hz sind die bewegten Bilder weicher, aber der Aufpreis ist schon übel.

dargo
2018-07-04, 22:25:32
@Darkseth

Schön zusammen gefasst. :)

Hinzufügen möchte ich noch... vor nicht allzulanger Zeit haben wir am Desktop mit 1280x720 bzw. 1280x1024 gespielt. Heute würde ich mir das auch nicht mehr antun wollen. ;)


Erst mit G-Sync / Fressync sind bewegungen erst vollkommen smooth.

Beispiel, 45 fps~ in Witcher 3 sehen für mich dank G-Sync (= 45 Hz) bedeutend flüssiger/smoother aus, als 55-58 fps auf meinem 60 Hz Monitor, wo es aufgrund V-Sync zu doppelten frames kommt. Das spielerlebnis ist einfach deutlich besser und sauberer, obwohl man prozentual gute 20% weniger fps hat.

Da sprichst du einen interessanten Punkt an. Ich muss nämlich immer schmunzeln wenn wieder irgendeiner daher kommt und die Grafikkarte X als das nonplusultra deklariert (von wegen der Killer ;)) und diese Karte nur 10-15% schneller ist als Grafikkarte Y. Und derjenige der damit ankommt noch ohne VRR spielt. :biggrin:

MadManniMan
2018-07-05, 00:13:56
VA ist ganz grob bis 60Hz safe (nen gut optimiertes vlt. ein bisschen mehr), IPS&Co taugt vlt für solide 120-144Hz...

Also sind IPS-Panels eher zum Zocken geeignet als VAs?

Tesseract
2018-07-05, 00:29:21
von den schaltzeiten her ja, eindeutig. wie wichtig einem der bessere kontrast vom VA ist muss jeder für sich entscheiden.

MadManniMan
2018-07-05, 00:40:42
Danke, das war mir nicht klar! Ich habe bisher noch nie bewusst ein VA-Display in Aktion gesehen und hatte irgendwie abgespeichert, dass sie verglichen mit IPS besser zum Zocken wären.

Ich werde wohl irgendwann mal verschiedene Geräte gleichzeitig bestellen müssen ;)

Ex3cut3r
2018-07-05, 00:51:28
Ist ja nicht nur der Kontrast, sondern auch der IPS Glow aka Pissecken welche dir je nach Ausprägung alle dunkle Szenen kaputt macht, auf VA gibt es so etwas nicht, da hast du höchstens BLB welcher aber weiß ist. Tesseract hat mit seinem IPS die Panel Lotterie gewonnen, das ist nicht die Norm.

Gipsel
2018-07-05, 02:44:35
die grundlage für meine ursprüngliche aussage war die aussage von nvidia bzgl. der persistenz von TFT zellen, leider finde sie gerade nicht. kann gut sein, dass das nicht für alle panel stimmt, ich habe von euch aber auch noch kein einziges gegenbeispiel gesehen, nur behauptungen des gegenteils.Zu dem Thema des Designs von TFTs und deren Charakteristiken gibt es sogar entsprechende Abschnitte in Büchern (https://books.google.de/books?id=zmlQDwAAQBAJ&pg=PA165#v=onepage&q&f=false). Dort wird sogar explizit gezeigt, wie die Elemente in einem TFT-Pixel zu dimensionieren sind, damit man die Ladung (und damit den Farbwert) dort auf z.B. 1% genau zwischen zwei Refreshes erhält (und 1% Variationen mit 30Hz fangen übrigens an, für die meisten Leute sichtbar zu werden). Und leider trifft man dort auf widersprüchliche Anforderungen:
Für hohe Auflösung und hohe Refreshraten muß die Kapazität der Pixel gering sein, damit man mit der arg begrenzten Leitfähigkeit der meist aus amorphen Silizium gebauten TFTs genügend Spannung für die gewünschte Farbe draufbringen kann (das wird noch etwas dringender, wenn man mit Overdrive arbeitet, um die Pixel schneller zu schalten). Geringe Kapazität bedeutet aber auch, daß die Spannung im Pixel auch nur relativ kurz gehalten werden kann, da sich die Kapazität relativ schnell entlädt (sowohl über die Flüssigkristallzelle selber aber vor allem durch Leakage über den Transistor im Pixel). Außerdem will man ja den transparenten Teil des Pixels möglich groß machen, ist also bei der Größe von Kondensator und Transistor begrenzt (außerdem soll das auch längerfristig zuverlässig funktionieren, was die Möglichkeiten bei der Wahl der Parameter ebenfalls einschränkt). Das ist also im Prinzip ein Optimierungsproblem, welches sich mit Transistoren, die ein möglichst großes Verhältnis von I_on/I_off besitzen, doch etwas vereinfacht. Also entweder 2 Transistoren pro Pixel in Reihe (gibt es tatsächlich, die können dann oft auch einen sehr niedrigen Refresh zum Preis einer komplizierteren Ansteuerung) oder ein anderes Substrat (polykristallines Silizium oder IGZO). Letzteres hat dann auch den zusätzlichen Vorteil, daß sie bei niedrigen Refreshraten nicht so schnell kaputt gehen (die Stabilität/Lebensdauer von normalen [1 Transistor] aSi-TFT-Pixeln sinkt tatsächlich mit sinkender Refreshrate, als kritische Grenze wird oft ~10Hz genannt). Dies ist vermutlich auch mit ein Grund, warum kaum ein Panel so ausgelegt ist, die Pixelwerte so lange zu halten, daß man überhaupt in die Nähe des gefährlichen Bereiches kommen könnte.

==============================

Egal. Hier dann mal die konkrete Begründung:

Wenn man weiß, daß der Farbwert (also Helligkeitswert eines Subpixels) in eine Spannung gewandelt wird, mit der ein Kondensator im Pixel geladen wird, der für die Zeit zwischen den Refreshes diesen Farbwert in analoger Form speichert, dann ist automatisch klar, daß die anliegende Spannung (und damit der Zielwert für die Farbe) über die Zeit wohl exponentiell abfällt. Die tolerable Abweichung dürfte bei niedriger Framerate unter 1% betragen (wieviel genau, ist hier für das Argument völlig egal), bevor ein Flackern merklich wird. In diesem Bereich ist der Zeitverlauf der anliegenden Spannung noch ziemlich linear.
Du meintest, nV sagte es fängt unter 30Hz an zu flackern (also z.B. bei 24Hz). Physik sagt, dieses Flackern geht in dem Bereich linear mit dem Refreshintervall. Es gibt also keine wirklich harte Grenze. Flackert der Helligkeitswert bei 24Hz Refresh z.B. um intolerable 1,5%, würde er bei 36Hz immer noch mit 1% Helligkeitsunterschieden flackern. Das ist eigentlich nur marginal besser.
Und insgesamt hängt das natürlich von der Kapazität der Pixel und dem Leakage der Spannung dort ab. Damit kann man das in gewissen Grenzen durch das Design der Panels verschieben. Es müssen also notgedrungen einige Panels etwas resistenter dagegen sein als andere (die z.B. aus Kostengründen schon nur für 1% Helligkeitskonstanz innerhalb eines 60Hz Refreshzyklus designt wurden).

Und praktisch gibt es z.B. bei Blurbuster auch Diskussionen zu Artefakten (hauptsächlich verschieden ausgeprägten Farbverfälschungen/Flicker) bei sehr niedrigen Refreshraten, unter anderem auch speziell bei GSync-Monitoren (bevorzugt welchen mit TN-Panel). Es sind also je nach Panel tatsächlich bei 30Hz sichtbare Artefakte möglich. Und die Vielzahl an VRR-Monitoren mit höherem minimalen Refresh (z.B. 48Hz) deutet darauf hin, daß das ganz offenbar bei vielen Panels ein merkliches Problem darstellt. Natürlich auch immer abhängig davon, wie viel Flackern/Artefakte der Hersteller dem Nutzer zutrauen und er selbst Arbeit investieren will (Auswahl und Abstimmung des Panels).

Liszca
2018-07-05, 17:58:42
Der Pixio PX277 funktioniert scheinbar auch mit Geforce Karten:
https://www.youtube.com/watch?v=j_KFd8TASdc

BlacKi
2018-07-05, 18:05:46
Der Pixio PX277 funktioniert scheinbar auch mit Geforce Karten:
https://www.youtube.com/watch?v=j_KFd8TASdc
ach quatsch. typischer clickbait titel. letztendlich wollte er nur darauf hinaus, das man auf VRR mit 144hz notfalls auch verzichten kann. diese meinung teile ich nicht wirklich. wenn man keine schnelle hardware hat, ist man mit 60fps vrr besser dran als mit 70-80fps und 144hz. wenn du die hardware hast für 144fps, dann ist der vorteil von Gsync freesync gering, aber dann hat man auch das geld für VRR und nen neuen monitor.

iuno
2018-07-05, 22:22:27
Genau das zeigt aber das Dilemma, um das es hier geht und das man als (potenzieller) Nvidia-Kunde hat, doch nochmal deutlich auf.

JVC
2018-07-07, 09:29:49
Besteht eigentlich die Hoffnung das NV auch mal den Standard unterstützt ?

Ich benutze Fernseher als Monitor und da Free-Sync ja bald auf Fernsehern ( in breiter Maße ) Standard werden soll ( Konsolen unterstützen es ja auch ;) ) und ich leider eine NV im Rechner habe ... die Frage ist wie lange sich NV den öffentlichen Standards noch verwehren will :confused:

Das sie Free-Sync können sehen wir ja bei den Laptops ... ich frag mich nur wenn sie es endlich auch mal wollen :motz:

m.f.g. JVC

iuno
2018-07-07, 09:46:31
Da mir HDMI 2.1 VRR glaube ich verpflichtend ist, würde ich schon davon ausgehen, dass Nvidia das irgendwann unterstützt. Ich denke mal so abgehoben sind sie nicht, zu glauben, die könnten jetzt dort noch G-Sync durchsetzen. Es wird dort aber imho keinen Zeitdruck geben und sich auch nicht auf Monitore abseits von TVs auswirken. aber sicher sagen kann dir das momentan nur Nvidia selbst ;)

Troyan
2018-07-07, 10:07:06
Genau das ist der Punkt, das ist natürlich bewusst nicht transparent gehalten. So kann man toll eine untere Schwelle von 30hz auf das marketingplakat schreiben und kontrollieren kann es ohnehin niemand.

nVidia bewirbt G-Sync nicht mit einer Untergrenze. Einzig das Modul wurde damit angegeben.

Was machen eigentlich die realen 1Hz Monitore bei Freesync? ;D

N0Thing
2018-07-07, 12:11:55
Was sind reale 1Hz Monitore?

dargo
2018-07-07, 12:40:28
Nichts, nur wieder Hirngespinste bei Troyan.

SKYNET
2018-07-07, 12:48:08
Was sind reale 1Hz Monitore?

gerahmte bilder X-D

cat
2018-07-07, 14:21:29
Das Gerät das am längsten hält, muss natürlich auch billiger als die Graka sein, besonders wenn es mehrere davon überlebt?

Ich weiss gar nicht warum man als 144Hz User überhaupt ein Hardware-sync braucht.
Da feiert man die 144Hz Displays, weil sie so schön schnell schalten und wenig schlieren, und schaltet den Monitor, begrenzt durch das Sync, schön langsam, damit wieder mehr Schlieren erscheinen, sofern man keine 144FPS erreicht? Was soll das bitte? Reiner Selbstbeschiss. Kann ich nur bei 60Hz Monitoren verstehen. Darüber tuts Fastsync um Tearing zu verhindern, hauptsache das Panel schaltet schnell.
Nochmal meine Frage in Kurz: Warum kauft man sich ein 144Hz Display und lässt es dann vom Hardwaresync einbremsen/schlieren?

Zum Beispiel weil das System die meiste Zeit deutlich mehr als 60FPS schafft,
aber auch häufiger darunter fällt, weil man z.B.:
- keine 300,- 5GHz+ OC CPU nutzt
- krass unterschiedliche Game-Typen spiel, das eine permanent im GPU-Limit mit Augenschmaus ganz hoch und daneben auchmal CounterStrike im CPU-Limit etc.
- Das Panel soll dann zu einem eigentlich budgetmäßig gut ausbalancierten System passen und nicht "preislich über die Stränge schlagen".
- oder ganz simpel Geld is alle.

FRAGE:
Man hat doch bei einem "144Hz Panel ohne Sync" bei Nichtübereinstimmung "FPS = Hz" trotzdem Tearing/Zerreißen oder ?

Screemer
2018-07-07, 14:30:49
FRAGE:
Man hat doch bei einem "144Hz Panel ohne Sync" bei Nichtübereinstimmung "FPS = Hz" trotzdem Tearing/Zerreißen oder ?
einfache antwort: ja.

BlacKi
2018-07-07, 16:12:26
FRAGE:
Man hat doch bei einem "144Hz Panel ohne Sync" bei Nichtübereinstimmung "FPS = Hz" trotzdem Tearing/Zerreißen oder ?
ja, aber umso höher, umso weniger bemerkbar.

Darkseth
2018-07-07, 22:31:54
Besteht eigentlich die Hoffnung das NV auch mal den Standard unterstützt ?
Vielleicht, wenn G-Sync mal nicht mehr rentabel wird?!

FRAGE:
Man hat doch bei einem "144Hz Panel ohne Sync" bei Nichtübereinstimmung "FPS = Hz" trotzdem Tearing/Zerreißen oder ?

Etwas falsche formulierung ;-)
Du kannst auch 60 fps auf 60 Hz haben (fps-limiter, wie die ingame oder Riva tuner), oder 144 fps auf 144 Hz glatt. Und du wirst Tearing haben.

Korrekt wäre die formulierung: Tearing hast du IMMER, wenn die Bildausgabe der grafikkarte NICHT synchron ist mit der Widerholrate des Monitors.
Kein Tearing hast du also nur mit -Sync. Ob die Grafikkarte sich an den Monitor Anpasst (V-Sync, oder Fast sync) oder der Monitor sich an die Grafikkarte anpasst (Freesync/Adaptive Sync / G-Sync) egal. Sind unterschiedliche Wege um tearing weg zu bekommen.

Aber wenn du z.B: kein Sync hast, und 144 fps bei 144 Hz hast, kannst du auch tearing haben. Warum?
Ganz einfach. Es KANN sein, dass der "Scan" vom Monitor genau dann passiert, wenn die Grafikkarte das Bild zu 50% fertig hat. Dann hast du den "Riss" immer genau in der Mitte.
Oder bei 30% von oben.
oder zufällig bei 0%, dann siehst du das tearing nicht, weil beide zufällig synchron laufen - auch das kann sein. Muss aber nicht.

Wie stark man tearing erkennt, hängt von mehreren faktoren ab.
Mehr Hz = weniger tearing, weil die abstände der Risse (bzw der "Versatz" zweier Bilder) kürzer wird.
Mehr fps können auch weniger zum tearing neigen - z.B: dass du mit 120 fps weniger vom tearing siehst, als bei 50 fps.
Und natürlich das game selbst. Manche Engines sind da sehr empfindlich auf Tearing, bei anderen erkennst du es kaum.

exxo
2018-07-08, 21:05:51
G Sync ist zwar klasse, aber erinnert mich aufgrund des fiesen Vendor Lock-In irgendwie an die Zeiten von 3dfx Glide oder S3 Metal...

Es wäre auf jeden Fall ein feiner Zug von Nvidia wenn sie Adaptive Sync unterstützen würden und somit die Nvidia User mit wenig Geld ein Low Budget Freesync Display mit zumindest eingeschränkter Range nutzen könnten.

Das Gerät das am längsten hält, muss natürlich auch billiger als die Graka sein, besonders wenn es mehrere davon überlebt?

Ich weiss gar nicht warum man als 144Hz User überhaupt ein Hardware-sync braucht.
Da feiert man die 144Hz Displays, weil sie so schön schnell schalten und wenig schlieren, und schaltet den Monitor, begrenzt durch das Sync, schön langsam, damit wieder mehr Schlieren erscheinen, [..]

Beide Annahmen sind nicht ganz korrekt.

Natürlich kann ein Display auch mehr als 250 Euro kosten. Der TE benutzt eine 1060. Die kostet 250 bis 300 Euro. Ergo kann oder will er nicht so viel für Hardware ausgeben.

Gegenfrage: Warum muss das Display ein vielfaches der Grafikkarte kosten wenn der Kunde nicht so viel Geld hat?

Der zweite Absatz suggeriert das du weder Adaptive, noch Gsync verstanden hast. Beide Technologien verhindern Tearing ;)

Effe
2018-07-08, 21:42:59
Wenn Intel 2020 Grafikkarten auf den Markt bringen sollte, dann werden sie wohl eher Adaptive Sync unterstützen als Nvidias Solo-Nische.
Spätestens dann sollte NV wenigstens den offenen Standard unterstützen.
Wenn man mit G/Freesync einmal gezockt hat, dann hat man keinen Bock mehr auf ohne. 144Hz hin oder her

iuno
2018-07-09, 01:15:46
Da bin ich mir sicher. Intel hat schon vor Jahren angesagt, dass sie A-Sync unterstuetzen werden. Kann mir auch vorstellen, dass deren aktuelle Hardware dafuer faehig waere aber sie noch keinen Bock hatten, Treiber zu schreiben. Die koennen schliesslich auch eDP panel self refresh und etwas, das sie dynamic refresh rate switching (DRRS) nennen, wobei die Bildrate im seamless mode auch ohne kompletten modeset, also auch ohne dass der Bildschirm kurz schwarz wird, abgesenkt werden kann, um Strom zu sparen.

Elite_Warrior
2018-07-09, 11:52:21
Wenn Intel 2020 Grafikkarten auf den Markt bringen sollte, dann werden sie wohl eher Adaptive Sync unterstützen als Nvidias Solo-Nische.
Spätestens dann sollte NV wenigstens den offenen Standard unterstützen.

Gerade bei sowas befürchte ich, dass es eher Wunschdenken denn Realität ist. Man muss erstmal abwarten wo sich Intel Karten Leistungsmäßig platzieren werden. Selbst wenn sie im Midrange landen, hat Nvidia noch für lange Zeit eine Vormachtsstellung die sicherlich nicht so schnell weggeht. Auch im Midrange ist VRR sicherlich ganz nett aber vermutlich doch nicht die Hype Technologie die zum Umschwenken, abseits der Tech-Foren, lenkt. Der 08/15 LoL Zocker braucht das einfach nicht. Sollte mal meinen "Casual" Kollegen fragen was er davon hält.

BlacKi
2018-07-09, 12:02:03
ich kann ohne probleme über die integrierte gpu von intel mein von nv gerendertes bild ausgeben lassen, wenn intels eingebaute gpus async könnten, dann könnte man wahrscheinlich async auf nv zum laufen bekommen. mit einer amd gpu als ausgabegerät funktioniert das nicht richtig. leider.

JVC
2018-07-11, 10:17:03
Async funktioniert ja im grunde auch auf Gfurz Grakas ...
NV will nur nicht das es nutzbar ist ...

m.f.g. JVC

vinacis_vivids
2018-07-11, 11:33:15
Async funktioniert ja im grunde auch auf Gfurz Grakas ...
NV will nur nicht das es nutzbar ist ...

m.f.g. JVC

Würde auch die Leistung wieder schmälern, weil die Synchronisation keine Treibertricks mit proprietären Modulen erlaubt.

N0Thing
2018-07-11, 17:15:38
Hast du auch irgendwelche Belege für deine Anschuldigungen?

AMD sieht die Sache wohl ganz anders:


In der offiziellen FreeSync-Präsentation hat AMD außerdem mehrfach eine weiteren (vermeintlichen) Unterschied zwischen G-Sync und FreeSync betont: Nvidias Technologie soll demnach durch die Kommunikation zwischen G-Sync-Modul und Monitor einen Leistungsverlust von drei bis fünf Prozent mit sich bringen, während FreeSync keinerlei Einfluss auf die durchschnittlichen fps haben soll. Unseren Benchmarks zufolge (siehe Seite 5) liegen die fps mit G-Sync aber höchstens ein bis zwei Prozent niedriger als ohne, was teilweise auch mit FreeSync vorkommt und außerdem eher im Rahmen der Messungenauigkeit liegt, als das es ein wirklich nennenswerter Faktor wäre.


https://www.gamestar.de/artikel/amd-freesync-freesync-gegen-g-sync,3084014.html

JVC
2018-07-20, 10:14:44
Eine NV Karte kaufe ich erst wieder wenn der Async Standard unterstützt wird.

Ich wäre positiv überrascht wenn die nächsten Karten das schon könnten
( ist ja auf den jetzigen Karten auch schon möglich ... nur will NV nicht )
... dann würde mich die neue Ti mit 16GB wirklich reizen.

m.f.g. JVC

und nen fetten + Punkt könnte sich NV bei mir holen wenn sie es auf allen ( auch alten Karten ) freischalten :up: