PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G-SYNC - Mark Rein: "most amazing thing made by Nvidia"


Seiten : 1 2 3 [4] 5

RLZ
2013-10-22, 09:42:19
Ich will mich momentan noch nicht in die Debatte einmischen aber es ist eine tragische Tatsache dass ein IHV wie NV die Technologie-Schwaechen der (LCD) display Hersteller korrigiert.
Kommt halt auf die Sichtweise an.
Es handelt sich ja eigentlich um die Schnittstelle zwischen den beiden Bereichen.

Da momentan ja das erste Mal seit langer Zeit die aktuelle Art und Weise der Kopplung in Frage gestellt wird (vor allem im Mobilbereich wegen Stromverbrauch) ist nun ein günstiger Zeitpunkt, um mal einen Vorschlag auf den Tisch zu legen, wie es aus IHV Sicht aussehen müsste.

Badner1972
2013-10-22, 09:45:45
Right! Dem ist absolut nichts hinzuzufügen!
Nur sehr schade,das ein Grafikkartenhersteller drauf kommen muß..dabei wäre das für die Hersteller technisch kein großes Problem.Vermutlich ist es eher eine Frage der Wirtschaftlichkeit,
es würde in Großserienfertigung sicher nur einige € ausmachen .

Iceman346
2013-10-22, 10:02:54
Eine proprietäre Lösung für ein Problem welches mich nicht tangiert. Ergo so ziemlich die uninteressanteste Entwicklung im PC Hardwarebereich aktuell.

Ich weiß nicht warum, aber Tearing hat mich noch nie sonderlich gestört, das muss schon richtig extrem sein damit es mir negativ auffällt und das habe ich selten. Darum spiele ich seit schon quasi immer ohne Vsync.

Dazu ist das eine weitere Nvidia only Lösung die nicht nur den Kauf der passenden Grafikkarte (wie PhysX) sondern auch noch den Kauf eines passenden Monitors oder eines entsprechenden Kits erfordert. Totgeburt incoming!

Hugo78
2013-10-22, 10:30:31
Damit bist du aber eben nicht Lag frei. :(

Gerade kompetive Spieler zocken ja mit reduzierten Details und auch mit >>60 Hz an nem 60 Hz Monitor, damit Sie eben die Chance haben, etwas halt einen Frame früher zu sehen.

:facepalm:

Das ist so typisch für dich, wenn es nichts zu meckern gibt,
denkst du dir Müll aus und heulst dann über dies völlig absurde Zeug.
Als ob G-Sync die Refreshrate des TFT beschleunigen kann ...

Und btw ... "kompetive Spieler" zocken heut nicht mehr mit 60Hz, ausser sie sind völlig borniert oder haben grad keine Kohle für 120/144Hz Displays.

Iruwen
2013-10-22, 10:50:49
Vermutlich doofe Frage, aber kommt G-SYNC überhaupt für 60Hz Displays? Die Partner sind doch soweit Asus, Benq, Phililps und Viewsonic, das sind bisher bis auf Viewsonic genau die die auch 144Hz Displays anbieten.

Hugo78
2013-10-22, 10:52:44
Auch Viewsonic hat zumindest 120Hz Displays.

Botcruscher
2013-10-22, 10:58:36
60Hz wären doch eh Perlen für die Säue.

Godmode
2013-10-22, 11:00:25
Damit bist du aber eben nicht Lag frei. :(

Gerade kompetive Spieler zocken ja mit reduzierten Details und auch mit >>60 Hz an nem 60 Hz Monitor, damit Sie eben die Chance haben, etwas halt einen Frame früher zu sehen.

Hier wurde ja suggeriert, dass das bei GSync auch so sei, also die Bilddaten so schnell ausgegeben werden, wie es geht, nur eben ohne Tearing. Dem ist aber eben nicht so. Ich sagte ja "Lag frei" kann viel bedeuten... Da waren hier wieder einige viel zu euphorisch. :rolleyes:

Aber nicht nur das, wer skeptisch war, der wurde ja direkt als Fanboy und Miesepeter abgetan... Ich bin mal gespannt, ob da der eine oder andere seine Aussagen nochmals revidiert.


Ich habe mir das ganze jetzt noch einmal genau angesehen und verstehe nun was du meinst.

Mit VSync off sehe ich halt Teile des Bildes etwas früher. Auf Folie 9 schreiben sie ja:
No Stutter, Less Lag, No Tearing

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-G-Sync-Daten-1093359/galerie/2111011/#?a_id=1093359&g_id=-1&i_id=2111009

Prinzipbedingt kannst du niemals Tearing frei anzeigen und den Lag auf die selben Werte wie V-Sync off bringen. Das geht nur wenn der Scanout ein vielfaches schneller wäre, als die GPU rendert. G-Sync weißt weniger Lag auf als V-Sync On und das dürfte schon für viele ein Vorteil sein. Was ich aber als viel wichtiger erachte ist die Verminderung von Stutter Effekten. Generell sollte man einfach Reviews und Tests abwarten.

edit:
Mit 120+ Hz Monitoren wird der Lag natürlich noch viel geringer. Mit VSync on hab ich einen ganzen Frame verzögerung. Mit G-Sync ist es eben nur mehr ein kleiner Teil eines Frames und dafür habe ich kein Tearing.

PatkIllA
2013-10-22, 11:00:56
60Hz wären doch eh Perlen für die Säue.
Aber gerade da bringt es doch am meisten. Und spätestens bei 4K wird das wohl so schnell nichts mit mehr als 60 Hz.
Wenn man die meiste Zeit unter 60 fps bleibt kann man mit G-Sync doch fast auf mehr Hz verzichten.

Hugo78
2013-10-22, 11:18:31
Aber gerade da bringt es doch am meisten. Und spätestens bei 4K wird das wohl so schnell nichts mit mehr als 60 Hz.
Wenn man die meiste Zeit unter 60 fps bleibt kann man mit G-Sync doch fast auf mehr Hz verzichten.

Ja G-Sync bringt in beide Richtungen was.
Nur spielen 60Hz TN Panels zum Glück ja nur noch in der ganz billigen Einsteigerklasse eine Rolle.
Darüber werden sie von günstigen E-IPS & Co. abgelöst.
TN hat zum zocken nur noch ab 120hz aufwärts eine Daseinsberechtigung.

edit:
Mit 120+ Hz Monitoren wird der Lag natürlich noch viel geringer. Mit VSync on hab ich einen ganzen Frame verzögerung. Mit G-Sync ist es eben nur mehr ein kleiner Teil eines Frames und dafür habe ich kein Tearing.

Das was man auf NVs Folie als Lag interpretieren kann ist nur die Reduzierung der Displayframerate.
Dauert das zeichnen des Frame länger als z.b 6,94ms bei einem 144Hz TFT, dann "taktet" das Display scheinbar runter.

Screemer
2013-10-22, 11:21:24
Ich habe mich bisher noch nicht zu dem Thema eingelesen aber wie stehen prinzipiell die Chancen, das man G-Sync auf den Korea Monitoren zum laufen bekommt?

1440p+96Hz+G-Sync wäre bestimmt sehr geil.
keiner der oc-monitore bietet dp, außer der catleap und der ist wohl nur minimal übertaktbar, wenn überhaupt. über dvi wird das ganze nicht funktionieren.

allerdings ist die frage warum, denn die koreaner haben weder scaler noch osd.

Right! Dem ist absolut nichts hinzuzufügen!
Nur sehr schade,das ein Grafikkartenhersteller drauf kommen muß..dabei wäre das für die Hersteller technisch kein großes Problem.Vermutlich ist es eher eine Frage der Wirtschaftlichkeit,
es würde in Großserienfertigung sicher nur einige € ausmachen .dem ist aber nicht so. auch intel hat es etwas ähnliches im mobilen markt schon vorgeführt. wie die das genannt haben und wie die technik dahinter war kann ich nicht mehr sagen. ging in der präsentation damals hauptsächlich ums stromsparen. vielleicht find ichs noch mal.
Ich hab keine Ahnung davon, aber scheinbar geht G-Sync prinzipiell mit allen Monitoren die LVDS (http://en.wikipedia.org/wiki/Low-voltage_differential_signaling) benutzen, auch IPS-Panels. Das wär schon mal gutdas wären ja quasi alle lcd-displays oder nicht? intern werden doch alle panels mit lvds angesprochen, wenn ich richtig informiert bin. da sitzt dann eben ein controller zwischen dvi/hdmi/dp und panel, welcher das signal in lvds für die pixel generierung in nem anderen chip "übersetzt". war nicht auserdem die rede davon, dass die display-hersteller von lvds weg wollen und intern auch auf dp setzten möchten. zumindest intel und amd haben 2010 schon mal verkündet, dass ihre chips ab ende 2013 kein lvds mehr unterstützen werden (http://newsroom.intel.com/community/intel_newsroom/blog/2010/12/08/leading-pc-companies-move-to-all-digital-display-technology-phasing-out-analog). ist in dem fall ja eher für notebooks/mobile interessant. sollte das auch auf den desktop markt zutreffen, dann wäre eine kopplung von gsync an lvds doch ziemlich hirnrissig, denn dann müsten 2 technologien gepflegt werden.

klutob
2013-10-22, 12:03:30
keiner der oc-monitore bietet dp, außer der catleap und der ist wohl nur minimal übertaktbar, wenn überhaupt. über dvi wird das ganze nicht funktionieren.

allerdings ist die frage warum, denn die koreaner haben weder scaler noch osd.



Würde ich noch abwarten wie das "do it yourself" G-sync Modul aussehen wird. Bisher ist nur bekannt, dass man LVDS unterstützt, vllt. hat das Ding noch einen DP Port drauf und der Weg wäre frei auch die Korea Monitore anzusteuern.
Außerdem sagte der Chef? von Overlord, dass er von Nvidia eingeladen worden ist, ich denke da kann man bald mit einem 27" 1440p IPS von denen rechnen (oder Upgradekit).

PatkIllA
2013-10-22, 12:07:32
Würde ich noch abwarten wie das "do it yourself" G-sync Modul aussehen wird. Bisher ist nur bekannt, dass man LVDS unterstützt, vllt. hat das Ding noch einen DP Port drauf und der Weg wäre frei auch die Korea Monitore anzusteuern.Wieso vielleicht?
von der Grafikkarte zum DisplayPort am Modul und dann ans LVDS des Panels.
Klingt aber in der Tat nach einer ziemlichen Bastellösung, wenn man das wirklich an einen mehr oder weniger beliebigen Monitor flanscht.
das wären ja quasi alle lcd-displays oder nicht? intern werden doch alle panels mit lvds angesprochen, wenn ich richtig informiert bin. da sitzt dann eben ein controller zwischen dvi/hdmi/dp und panel, welcher das signal in lvds für die pixel generierung in nem anderen chip "übersetzt". war nicht auserdem die rede davon, dass die display-hersteller von lvds weg wollen und intern auch auf dp setzten möchten. zumindest intel und amd haben 2010 schon mal verkündet, dass ihre chips ab ende 2013 kein lvds mehr unterstützen werden (http://newsroom.intel.com/community/intel_newsroom/blog/2010/12/08/leading-pc-companies-move-to-all-digital-display-technology-phasing-out-analog). ist in dem fall ja eher für notebooks/mobile interessant. sollte das auch auf den desktop markt zutreffen, dann wäre eine kopplung von gsync an lvds doch ziemlich hirnrissig, denn dann müsten 2 technologien gepflegt werden.
DisplayPort war da ja von anfang an für vorgesehen. IMO gehört die Monitorbranche mit zur konservativsten und wenig inovationsfreudigsten im ganzen IT-Sektor.

Iruwen
2013-10-22, 12:09:07
PCPer Live! NVIDIA G-Sync Discussion with Tom Petersen, Q&A (http://www.pcper.com/news/Graphics-Cards/PCPer-Live-NVIDIA-G-Sync-Discussion-Tom-Petersen-QA/)

M4xw0lf
2013-10-22, 12:11:11
PCPer ist schon so die Nvidia-Hauspost ne ^^

Ailuros
2013-10-22, 12:22:54
Kommt halt auf die Sichtweise an.
Es handelt sich ja eigentlich um die Schnittstelle zwischen den beiden Bereichen.

Da momentan ja das erste Mal seit langer Zeit die aktuelle Art und Weise der Kopplung in Frage gestellt wird (vor allem im Mobilbereich wegen Stromverbrauch) ist nun ein günstiger Zeitpunkt, um mal einen Vorschlag auf den Tisch zu legen, wie es aus IHV Sicht aussehen müsste.

Die jeglichen "LCD-relevante-Probleme" sind nichts Neues sondern werden schon seit etlichen Jahren mitgeschleppt. IMHO ist es im gegebenen Fall das Problem vom eigentlichen display wie es vsync behandelt und nicht der GPU sonst haette NV die relevante hw auch in eine GPU integriert. Aber stets wie in vielen anderen Maerkten Quantitaet vor Qualitaet.

Screemer
2013-10-22, 12:33:57
Würde ich noch abwarten wie das "do it yourself" G-sync Modul aussehen wird. Bisher ist nur bekannt, dass man LVDS unterstützt, vllt. hat das Ding noch einen DP Port drauf und der Weg wäre frei auch die Korea Monitore anzusteuern.
Außerdem sagte der Chef? von Overlord, dass er von Nvidia eingeladen worden ist, ich denke da kann man bald mit einem 27" 1440p IPS von denen rechnen (oder Upgradekit).das upgradkit kostet dann soviel wie der monitor :D bin schon gespannt. ich hab für meinen x-star grad mal 280€ inkl. eust auf den virtuellen ladentisch gelegt und das overlord-pcb kostet allein schon gute $200. bei $100 und kompatibilität zu amd-karten würde ich sogar ins grübeln kommen.

PatkIllA
2013-10-22, 12:54:41
Was auch noch interessant ist.
Man kann im Multimonitorbtrieb endlich auch den Speicher runtertakten.

M4xw0lf
2013-10-22, 13:01:19
Was auch noch interessant ist.
Man kann im Multimonitorbtrieb endlich auch den Speicher runtertakten.
Naja, dafür sitzt dann halt Speicher im GSync-Modul der die Energieersparnis wieder mehr als auffrisst ^^

PatkIllA
2013-10-22, 13:04:10
Naja, dafür sitzt dann halt Speicher im GSync-Modul der die Energieersparnis wieder mehr als auffrisst ^^
Die Erklärung warum da mehr Speicher als für ein Bild und ein bisschen Firmware drauf sein muss ist steht ja immer noch aus. Mit passendem ASIC dürfte das wegen weniger Refresh eher noch weniger Strom brauchen als jetzige Monitorelektronik.

In Smartphones kommt das ja jetzt.
Bei optimistischer Schätzung gibt es das dann 2020 auch in Monitoren.

Schaffe89
2013-10-22, 13:26:56
Sieht ganz danach aus, als ob der Lag mit G-sync troztdem höher ist, als wenn man ohne V-sync spielt.
Dann ist das aber recht uninteressant, zumindest für Pro Gamer die immer wollen, dass das Bild so schnell wie möglich ankommt und nicht zurückehalten wird, oder sehe ich das falsch?

PatkIllA
2013-10-22, 13:29:05
Sieht ganz danach aus, als ob der Lag mit G-sync troztdem höher ist, als wenn man ohne V-sync spielt.
Eigentlich nur wenn man mehr fps berechnet als der Monitor annehmen kann. Oder wenn bedenkt, dass man ohne VSync eher die Mitte des neuen Bildes sieht, wenn mittendrin umgeschaltet wird.

klutob
2013-10-22, 13:44:12
In Smartphones kommt das ja jetzt.
Bei optimistischer Schätzung gibt es das dann 2020 auch in Monitoren.
;D Leider ist das wohl ziemlich nah an der Wahrheit.
Sieht ganz danach aus, als ob der Lag mit G-sync troztdem höher ist, als wenn man ohne V-sync spielt.
Dann ist das aber recht uninteressant, zumindest für Pro Gamer die immer wollen, dass das Bild so schnell wie möglich ankommt und nicht zurückehalten wird, oder sehe ich das falsch?
Man will vor allem eine flüssige Bildfolge, um möglichst schnell die Situation zu antizipieren, Tearing hilft nicht da nicht weiter.
Vsync ist selbst bei 120Hz heute keine Option, da die meisten Spiele dann ein Gummiband auswerfen, welches nicht allein mit TB-Vsync zu erklären ist.

Schaffe89
2013-10-22, 13:51:39
Man will vor allem eine flüssige Bildfolge, um möglichst schnell die Situation zu antizipieren, Tearing hilft nicht da nicht weiter.

Warum sollte ich als Onlinespieler G-sync einschalten? Erklär mal warum? Ich habe einen Inputlag Nachteil gegenüber Spielern die kein G-sync eingeschaltet haben, denn der Inputlag wird von Nvidia bezüglich nur mit Vsync verglichen und da wird er laut Aussage von Nvidia reduziert, nicht weggebügelt, das geht ja auch nicht.
Ich meine Tearing ist ja jetzt nicht allgegenwärtig und bei hohen FPS wirds immer weniger, so langsam wird mir G-sync immer unnützer, aber vielleicht rede ich mir das auch ein.

Eggcake
2013-10-22, 14:02:09
Also so wie ich das verstehe ist ja der Inputlag gleich wie bei VSync Off oder sehe ich da was falsch?
Nochmals zu diesem Bild:
http://abload.de/img/g-sync3roe8.jpg

Bei VSync off sähe das ja im Prinzip genau gleich aus, nur dass der erste gezeigte Scan quasi noch mit dem "alten" Frame arbeitet und dann mitten drin mit dem neuen Frame? Wegen dem hat man ja nicht weniger Lag sondern einfach Tearing oder verstehe ich da was falsch?

Hugo78
2013-10-22, 14:09:42
Leute schaut euch doch einfach Tom Petersen ab 27min 41s nochmal an.

http://www.youtube.com/watch?v=KhLYYYvFp9A&feature=youtu.be&t=27m41s

#44
2013-10-22, 14:12:34
Warum sollte ich als Onlinespieler G-sync einschalten? Erklär mal warum?
Was für eine Argumentation soll das werden?

Weil du es nicht willst/brauchst ist es schlecht?
Leute die andere Prioritäten haben sind doof?

Tearing dürfte bei FPS jenseits der max. Wiederholrate eines Bildschirms eher zu als abnehmen...

Also so wie ich das verstehe ist ja der Inputlag gleich wie bei VSync Off oder sehe ich da was falsch?
Nochmals zu diesem Bild:
http://abload.de/img/g-sync3roe8.jpg

Bei VSync off sähe das ja im Prinzip genau gleich aus, nur dass der erste gezeigte Scan quasi noch mit dem "alten" Frame arbeitet und dann mitten drin mit dem neuen Frame? Wegen dem hat man ja nicht weniger Lag sondern einfach Tearing oder verstehe ich da was falsch?
Ein tearendes Bild dürfte als dirketer, weniger laggy wahrgenommen werden. Teile des Bildausschnittes sind ja schließlich aktueller.
Ein Bild verzögern, um es ohne Tearing darzustellen kann nur zu mehr Latenz für dieses Bild führen. Das wird aber erst relevant, wenn die Framerate über die max. Wiederholrate des Monitors steigt.

klutob
2013-10-22, 14:25:57
Warum sollte ich als Onlinespieler G-sync einschalten? Erklär mal warum? Ich habe einen Inputlag Nachteil gegenüber Spielern die kein G-sync eingeschaltet haben, denn der Inputlag wird von Nvidia bezüglich nur mit Vsync verglichen und da wird er laut Aussage von Nvidia reduziert, nicht weggebügelt, das geht ja auch nicht.
Ich meine Tearing ist ja jetzt nicht allgegenwärtig und bei hohen FPS wirds immer weniger, so langsam wird mir G-sync immer unnützer, aber vielleicht rede ich mir das auch ein.

Tearing ist immer da, ich finde es auch mit 120Hz störend, es lenkt einfach vom Spielgeschehen ab verglichen mit Vsync on. Wenn sich G-sync so verhält wie beschrieben, habe ich nie Tearing/kein Display-Microstutter selbst wenn die Framerate unter 120 fällt.
Der Inputlag "Aufschlag" liegt im Worstcase bei ~8ms, allerdings ist für mich ein zerschnittenes Bild bei Vsync-OFF kein Gewinn in der gefühlten Flüssigkeit, eher das Gegenteil ist der Fall.
8ms sind für mich auch kein Wert den ich im Blindtest sicher unterscheiden würde, merke auch nicht den Unterschied beim Mauspolling zwischen 125Hz und 1000Hz. Selbst gute Pro-Spieler fahren ihre Mäuse mit <<500Hz, weil sie keinen positiven Einfluss bemerken.
Dazu kommt noch der low-persistent-Modus, der deutlich besser als der Lightboosthack funktionieren soll und bei schnellen Bewegungen die Unschärfe abschwächt.

edit:

Ein tearendes Bild dürfte als dirketer, weniger laggy wahrgenommen werden. Teile des Bildausschnittes sind ja schließlich aktueller.


Also ich nehme Tearing nicht als Informationplus wahr, eher als störendes, verlorenes Bild.

#44
2013-10-22, 14:39:41
Also ich nehme Tearing nicht als Informationplus wahr, eher als störendes, verlorenes Bild.
Es mag störend und unschön sein, das es die Aktualität der dargestellten Information erhöht ist aber unbestreitbar.

Jemand der bei der BQ sehr unempflindlich ist, dafür aber beim Timing empfindlich wird das genau anders herum bewerten.

Letztlich geht es doch darum, jedem Empfinden eine möglichst passende Option anzubieten.

Schaffe89
2013-10-22, 14:42:14
Was für eine Argumentation soll das werden?

Weil du es nicht willst/brauchst ist es schlecht?
Leute die andere Prioritäten haben sind doof?

Nö, darum gehts überhaupt nicht, es geh mir darum, welche Reaktionszeit Pro Gamer von G-sync haben und ob das eine Alternative ist zu v-sync off.

Ist halt die Frage ob es wirklich besser ist mit vsync off zu Spielen oder mkit g-sync on, ich kann mir da keine Meinung bilden, da gibts bisher zu wenig Material.

Eggcake
2013-10-22, 14:42:16
@#44

Okay, einleuchtend (ich schaue mir gerade das verlinkte Video an, erklärt das Ganze sehr gut). Dann dürfte also bis 144FPS (im Falle des Asus Monitors) quasi tearing, stuttering und der input lag komplett weg sein, über 144FPS ist nur noch tearing und stuttering komplett weg, input lag nimmt aber etwas zu - das habe ich so richtig verstanden oder? :)

Gebrechlichkeit
2013-10-22, 14:55:29
Leute schaut euch doch einfach Tom Petersen ab 27min 41s nochmal an.

http://www.youtube.com/watch?v=KhLYYYvFp9A&feature=youtu.be&t=27m41s

Wenn man die Szene genau beobachtet, erkennt man leichtes "stuttering" selbst bei der G-sync demo/video ("Decke des mini-Parthenon" kurz vor dem Umschalten auf v-ysnc....).

http://saved.im/mtg5mty3ogl2/untitled.png

M4xw0lf
2013-10-22, 14:57:20
Wenn man die Szene genau beobachtet, erkennt man leichtes "stuttering" selbst bei der G-sync demo/video ("Decke des mini-Parthenon" kurz vor dem Umschalten auf v-ysnc....).

http://saved.im/mtg5mty3ogl2/untitled.png

VIDEO.

Iruwen
2013-10-22, 15:04:33
Zum etwa eine millionsten Mal.

Eggcake
2013-10-22, 15:08:27
Also wenn das Ding wirklich ALLES behebt zwischen ~30 und 100+ FPS dann ist das schon verdammt geil.
Habe nur Mühe meinen Monitor an einen GPU Hersteller zu binden :( Auf jeden Fall sehr vielversprechend, ich hoffe dass sich das durchsetzt.

Gebrechlichkeit
2013-10-22, 15:11:09
VIDEO.

Dann ist das Wort "Visual Induction Demodulation Entry Observation" die perfekte Antwort auf alles. V-Sync doch nicht so schlecht? Warum wurde wohl der Bildschirm-Screen nicht mit der gleichen 2600fps cam (Gysnc enabled) abgefilmt und bei pcper vorgefuehrt, wenn die Technik dahinter so gut sein soll? :wink:

http://saved.im/mtg5mty4ztli/gmp20splash.jpg my ...

schreiber
2013-10-22, 15:21:00
Vsync ist dann vergleichbar, wenn man es schafft, Framedrops zu verhindern. Ergo wenn man die Gamedetails soweit runterdreht, dass die benötigten Frames immer erreicht werden. Also quasi nie.

Screemer
2013-10-22, 15:21:56
vsync lass ich doch eigentlich eh nur in games laufen in denen ich sicher bin, dass ich die 60fps auch erreiche. dann fällt doch der ab 37:00 (www.youtube.com/watch?v=KhLYYYvFp9A&feature=youtu.be&t=37m00s) beschriebene stutter auch weg oder?

aufkrawall
2013-10-22, 15:23:03
Jein, durchs Tearing wirkt es auch weniger flüssig, auch wenn man das Tearing mal nicht wahrnimmt

#44
2013-10-22, 15:24:14
@#44

Okay, einleuchtend (ich schaue mir gerade das verlinkte Video an, erklärt das Ganze sehr gut). Dann dürfte also bis 144FPS (im Falle des Asus Monitors) quasi tearing, stuttering und der input lag komplett weg sein, über 144FPS ist nur noch tearing und stuttering komplett weg, input lag nimmt aber etwas zu - das habe ich so richtig verstanden oder? :)
Also ab der max. Wiederholrate des Monitors müsste das verhalten mit VSync ohne TB identisch sein - Tom Petersen sagt sowas ja auch in dem Video.

Die Latenz sollte also nicht steigen, dafür gibt's ggf. ein Ruckeln. Wobei das mit den 7ms eines 144Hz Monitor sowieso Welten von den 16,66ms der 60Hz Bildschirme entfernt ist.
Aber ich bin mir noch nicht sicher, ob ich das komplett richtig verstanden habe.

Screemer
2013-10-22, 15:31:53
Jein, durchs Tearing wirkt es auch weniger flüssig, auch wenn man das Tearing mal nicht wahrnimmt
tearing mit vsync bei 60Hz und 60fps? dachte da gäbs kein tearing mehr oder muss dazu auch noch triple-buffering aktiv sein. im tb-beispiel aus dem video seh ich kein tearing mehr. sollte eigentlich auch mit doppeltem buffer funktionieren. mal der mal der und das bei 60fps.

Skysnake
2013-10-22, 15:35:59
Sag ich ja, dass ichs nicht versteh. :D
Die Refreshrate ist ja reine Sache der Monitorhersteller, G-Sync geht afaik bis 177 Hz. Wenn man mal von 100 fps im Schnitt ausgeht, dann ist da ordentlich Raum für Schwankungen sowohl nach oben als auch nach unten. Natürlich nicht unendlich, weil kein Monitor unendlich schnell ist. Du hast dir (bzw. andere Leute haben sich) irgendeine secret sauce erhofft, die den Monitor praktisch "unendlich schnell" macht?

Naja, für die Darstellung von Inhalten, bei denen die Zeitdifferenz zwischen zwei Frames größer als die Refreshzeit ist, hast du quasi keinen Outputlag, da du einfach auf den Output wartest.

Wenn das neue Bild aber schneller kommt als die Refrehrate zulässt, dann haste verloren und landest genau wieder da, wo du auch mit VSync landen würdest.


Also, schon klar dass es ganz andere Möglichkeiten gibt wenn man das "Scannen" komplett aufgibt. Das hätte ich mir von G-Sync jetzt nicht erwartet...
Naja, die Refreshrate des Monitors ist wichtig. Je höher die ist, desto geringer sollte der Outputlag sein, wenn ein Bild früher ankommt. Die Frage ist halt, ob das auch mit 120 Hz geht, oder nur mit 60 Hz. Ich glaub nVidia hat bisher nur von 60 Hz in Zusammenhang mit GSync gesprochen.

Auf jeden Fall deutlich besser, oder willst du sagen dass alle die auf der Präsentation waren und darüber positiv geschrieben haben blind und/oder gekauft waren? :rolleyes:

/e: hat überhaupt jemand von keinem Lag gesprochen? Dass jedwedes Processing eine gewisse Latenz hat ist logisch.
Ja, mehr als ein paar.... Und als ich meine Bedenken dahingehend geäußert habe, das es ohne Lag gar nicht gehen kann, wurde ich dumm von der Seite angemacht und als Miesepeter/Meckerer hingestellt... Soll ich die Beiträge mal raussuchen, oder glaubste mir auch so...

:facepalm:

Das ist so typisch für dich, wenn es nichts zu meckern gibt,
denkst du dir Müll aus und heulst dann über dies völlig absurde Zeug.
Als ob G-Sync die Refreshrate des TFT beschleunigen kann ...

Natürlich geht das nicht, wie es scheint wird aber nicht die Maximale Refreshrate genutzt, sondern man geht auf ein Target, wie heir z.B. 60Hz.

Zudem wissen wir ja, das die Monitore etwas mehr als die 60/120/144 Hz mitmachen, mit denen Sie normal laufen. Eigentlich war es zu erwarten gewesen, das man das hier ausreizt. Macht man aber anscheinend nicht.

[/quote]
Und btw ... "kompetive Spieler" zocken heut nicht mehr mit 60Hz, ausser sie sind völlig borniert oder haben grad keine Kohle für 120/144Hz Displays.[/QUOTE]
Du willst oder kannst es wohl nicht verstehen. Du hast außer in den Fällen, in denen du unter die Refreshrate des Monitors dropst, immer einen Outputlag, der genau so groß ist, wie bei VSync on im Vergleich zu VSync off. Damit ist es eigentlich schon tot für Progamer. Zumindest von den PRogramer, von denen ihr immer redet...

Ich habe mir das ganze jetzt noch einmal genau angesehen und verstehe nun was du meinst.

Danke. Es ist wirklich erbauend, das zumindest manch einer zuhört und versucht die Sachen zu vestehen :up:


Mit VSync off sehe ich halt Teile des Bildes etwas früher. Auf Folie 9 schreiben sie ja:
No Stutter, Less Lag, No Tearing

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-G-Sync-Daten-1093359/galerie/2111011/#?a_id=1093359&g_id=-1&i_id=2111009

Richtig, wobei eben noch WICHTIG! wäre zu klären, wie die Refreshrate genau definiert ist. Also 120/144 Hz oder 60 Hz, auch wenn ich <60FPS hab im Schnitt. Soweit ich das verstanden habe, läuft GSync mit 60 Hz, und nicht mit 120Hz. Wenn es mit der maximalen Refreshrate des Monitors laufen würde, wäre es besser. Für Progamer zwar immer noch nichts, aber deutlich besser als mit 60 Hz.


Prinzipbedingt kannst du niemals Tearing frei anzeigen und den Lag auf die selben Werte wie V-Sync off bringen. Das geht nur wenn der Scanout ein vielfaches schneller wäre, als die GPU rendert. G-Sync weißt weniger Lag auf als V-Sync On und das dürfte schon für viele ein Vorteil sein.

Aber NUR! Wenn die Bilder weiter auseinander liegen als die Refreshrate des Monitors. Immer wenn es drunter fällt, haste den genau gleichen Lag.

Damit kann es eben auch zu ganz doofen Situationen kommen:

60Hz Refreshrate
Bildausgabe
Vsync on
Gsync
1111122222333334444455555666667777
11111112223333344444445555555566666
11111111113333344444444445555566666
11111112222233333444445555555566666

Das ist ja das was ich auch schonmal angesprochen habe. Es MUSS! die Möglichkeit geben, auch mal kürzer einen Frame anzuzeigen, als die native Refreshrate das zulässt. Ansonsten schleppt man einen lagg so lange mit, bis eben wieder ein Frame kommt, der länger ist. Das kann ganz schon fatal werden, weil man eben sehr sehr lange diesen kleinen Lag mitschleppen würde.

Ich vermute mal, das daher, dass die Refreshrate des Monitors ein Vielfaches der gewählten Anzeigefrequenz betragen muss, um eben diesesn Effekt dadurch ausgleichen zu können, das eben fast jede Bildfolge länger dauert als die gewählte Refreshrate (60Hz).

Screemer
2013-10-22, 15:39:18
@sky:

ich verstehe gsync eher so, dass der monitor dann refreshed wenn ein frame fertig ist. ist einer schneller fertig als der davor, dann kommt er halt an die reihe. gewartet wird nur, wenn ein frame länger braucht.

allerings versteh ich auch nicht, warum da so ein hardware-aufwand betrieben werden muss. mit dp sollte sich das doch schon fast im standard bewegen.

Eggcake
2013-10-22, 15:40:29
@Snake

GSync geht so hoch wie die Refreshrate des Monitors (als Bsp. beim ASUS funktioniert GSync zwischen ~30Hz und 144Hz).

So wie ich das jetzt verstanden habe sind die GPU und die Refreshrate in diesem Bereich immer in Synchronisation, das heisst es entsteht auch kein zusätzlicher Lag wie bei VSync On. Darüber und darunter ist's eine andere Geschichte, aber das ist ja ein riesiger Bereich und darin dürften sich auch die meisten Leute bewegen.

M4xw0lf
2013-10-22, 15:43:01
Dann ist das Wort "Visual Induction Demodulation Entry Observation" die perfekte Antwort auf alles. V-Sync doch nicht so schlecht? Warum wurde wohl der Bildschirm-Screen nicht mit der gleichen 2600fps cam (Gysnc enabled) abgefilmt und bei pcper vorgefuehrt, wenn die Technik dahinter so gut sein soll? :wink:

http://saved.im/mtg5mty4ztli/gmp20splash.jpg my ...
Ich weiß nicht was du mir sagen willst, aber was ich dir sagen will ist: Das Abfilmen mit einer nicht synchronen Kamera, als auch die Wiedergabe mit einem nicht synchronen Bildschirm erzeugt selbst das Tearing, das du da entdeckt hast.

N0Thing
2013-10-22, 15:43:13
Dann ist das Wort "Visual Induction Demodulation Entry Observation" die perfekte Antwort auf alles. V-Sync doch nicht so schlecht? Warum wurde wohl der Bildschirm-Screen nicht mit der gleichen 2600fps cam (Gysnc enabled) abgefilmt und bei pcper vorgefuehrt, wenn die Technik dahinter so gut sein soll? :wink


Ich weiß nicht ob es die PCPER-Kamera war, aber im hier verlinkten Video von PCPER zeigen sie Aufnahmen von Nvidia mit Hochgeschwindigkeitskameras, damit man die Chance hat, auf seinem PC zu Hause die Vorteile und Veränderung wahrnehmen zu können. ;)

Skysnake
2013-10-22, 15:53:13
@Snake

GSync geht so hoch wie die Refreshrate des Monitors (als Bsp. beim ASUS funktioniert GSync zwischen ~30Hz und 144Hz).

So wie ich das jetzt verstanden habe sind die GPU und die Refreshrate in diesem Bereich immer in Synchronisation, das heisst es entsteht auch kein zusätzlicher Lag wie bei VSync On. Darüber und darunter ist's eine andere Geschichte, aber das ist ja ein riesiger Bereich und darin dürften sich auch die meisten Leute bewegen.
Wurde das irgendwo schon expliziet gesagt?

Denn dann wäre es nur ein Problem, wenn man Zeiten zweischen zwei Frames hätte, die unterhalb derer der maximalen Refreshrate liegen.

Bleibt aber immer noch die Frage, was man dann in genau so einem Fall macht. Bei 120/144 Hz sollte es aber fast keine Rolle spielen. Die Frage ist dennoch spannend.

Screemer
2013-10-22, 15:54:58
das wird im oben verlinkten video kurz nach min 37 angesprochen. lass einfach mal 15 min laufen.

ich bin ja nach wie vor nicht überzeugt, dass sich das als proprietäre technik behaupten wird. aus gamersicht finde ich es jedoch top.

#44
2013-10-22, 15:56:22
@sky:

ich verstehe gsync eher so, dass der monitor dann refreshed wenn ein frame fertig ist. ist einer schneller fertig als der davor, dann kommt er halt an die reihe. gewartet wird nur, wenn ein frame länger braucht.
Die G-Sync Monitore werden schon eine maximale Wiederholrate haben - wie jeder andere Monitor auch.
Das bedingen schon die Schaltzeiten und vermutlich noch ein gewisses Timing, dass eingehalten werden muss, damit der Nutzer nicht nur noch Matsche sieht.

Screemer
2013-10-22, 15:59:03
na sicher. das geht aber doch mit einem gewissen leistungstarget einher und kommt in zeiten des stromsparens eher gelegen. könnte die karte mehr, spuckt sie einfach nicht mehr aus. verhält sich wohl wie ein framelimiter, welcher sich allerdings an der leistungsfähigkeit des displays orientiert. der asus hat 144Hz@max. im video wird auch gesagt, dass gsync am maximum sich quasi wie vsync on ohne/mit weniger lag verhält und die lösungen quasi äquivalente ergebnisse liefern.

Eggcake
2013-10-22, 16:01:12
@Skysnake
Ja, das wird in dem Video explizit erwähnt. GSync funktioniert, im Falle des ASUS Monitors, zwischen ~30 und 144 FPS. Darüber und darunter entstehen halt diverse Artefakte, welche man mit VSync On auch hätte.

Ich war zuerst auch skeptisch, da ich auch dachte es ginge nur bis max. 60Hz - aber 144Hz ist natürlich eine andere Geschichte. 30-144FPS sind eine super Range die man da hat und ich glaube die wenigsten brauchen wirklich über 144FPS (bzw das wird eh kaum erreicht).

Edit: An dieser Stelle wird die Range beschrieben:
http://www.youtube.com/watch?v=KhLYYYvFp9A&feature=youtu.be&t=40m30s

Skysnake
2013-10-22, 16:07:59
das wird im oben verlinkten video kurz nach min 37 angesprochen. lass einfach mal 15 min laufen.

ich bin ja nach wie vor nicht überzeugt, dass sich das als proprietäre technik behaupten wird. aus gamersicht finde ich es jedoch top.
Danke :up:

Damit rennt der Monitor eigentlich immer mit der Maxrefreshrate und verzögert dann halt so lange wie es nötig ist.

Man muss also nur noch aufpassen, wenn die Frames zu schnell nacheinander kommen. Das wird bei 120/144 Hz aber nur 1-2 Frames ancheinander sein.

Bei MultiGPU könnte es aber schon eher ein Problem werden, wobei man da mit Framepacing ja durchaus schon versucht das so gut wie möglich zu verhindern.

Gut das das geklärt ist.

Ich frag mich allerdings noch immer, wie man so viel Hardware brauchen kann :ugly: Damit läuft das echt auf nen unterbrechen der Clock hinaus :ugly: Das sollte echt mit nen paar Centbauteilen eigentlich machbar sein.

N0Thing
2013-10-22, 16:08:27
@sky:

ich verstehe gsync eher so, dass der monitor dann refreshed wenn ein frame fertig ist. ist einer schneller fertig als der davor, dann kommt er halt an die reihe. gewartet wird nur, wenn ein frame länger braucht.

Jep. So verstehe ich das auch. Nicht mehr der Monitor gibt den Takt an, sondern die GPU und der Monitor "wartet" auf Grafikkarte und nicht umgekehrt. Solange die FPS unterhalb der maximalen Refreshrate des Monitors liegen, könnte es sogar weniger Lag geben, weil der Monitor nicht versucht, das Bild in festen Intervallen darzustellen.

Eggcake
2013-10-22, 16:10:38
Auf die Frage warum soviel RAM verbaut wurde wollte er ja nicht eingehen... :)

Hugo78
2013-10-22, 16:21:43
Natürlich geht das nicht, wie es scheint wird aber nicht die Maximale Refreshrate genutzt, sondern man geht auf ein Target, wie heir z.B. 60Hz.
:facepalm:


Zudem wissen wir ja, das die Monitore etwas mehr als die 60/120/144 Hz mitmachen, mit denen Sie normal laufen. Eigentlich war es zu erwarten gewesen, das man das hier ausreizt. Macht man aber anscheinend nicht.
Ich wette wenn Nvidia das gemacht hätte, würdest du hier seiten lang rumspamen, dass man Display OC ausserhalb der Specs betreibt. :ufinger:


Du willst oder kannst es wohl nicht verstehen. Du hast außer in den Fällen, in denen du unter die Refreshrate des Monitors dropst, immer einen Outputlag, der genau so groß ist, wie bei VSync on im Vergleich zu VSync off. Damit ist es eigentlich schon tot für Progamer. Zumindest von den PRogramer, von denen ihr immer redet...


Wenn du mit 100 fps auf einem 60Hz zockst, ja sicher, aber Pro-Gamer zocken nicht mit Papas Office PC von anno 2003.
Bei 144Hz hat man erst ab 145fps einen Sync-Lag, entsprechend des Bildaufbaus... schneller geht es aber sowieso nicht.

#44
2013-10-22, 16:29:49
Damit rennt der Monitor eigentlich immer mit der Maxrefreshrate und verzögert dann halt so lange wie es nötig ist.
Nein. Entweder es wird was verzögert oder eben nicht. Beides gleichzeitig geht nicht.
Der Monitor refresht so schnell er die Bilder kriegt, maximal mit 144Hz.

Man muss also nur noch aufpassen, wenn die Frames zu schnell nacheinander kommen. Das wird bei 120/144 Hz aber nur 1-2 Frames ancheinander sein.
Das habe ich nicht so verstanden.

Wo will die Grafikkarte denn weitere Frames hin rendern? In den Buffer der gerade angezeigt wird macht keinen Sinn. In den, der noch nicht angezeigt wurde auch nicht. Und einen dritten Buffer hat das Schema nicht gezeigt.
Da ist wohl eher Pause für die GraKa angesagt.

Screemer
2013-10-22, 16:33:12
Wo will die Grafikkarte denn weitere Frames hin rendern? In den Buffer der gerade angezeigt wird macht keinen Sinn. In den, der noch nicht angezeigt wurde auch nicht. Und einen dritten Buffer hat das Schema nicht gezeigt.
Da ist wohl eher Pause für die GraKa angesagt.
so hab ich das auch verstanden und so war der fps-limiter auf hardwareebene weiter oben auch gemeint. karte macht einfach mal pause.

Konami
2013-10-22, 17:31:29
Naja, für die Darstellung von Inhalten, bei denen die Zeitdifferenz zwischen zwei Frames größer als die Refreshzeit ist, hast du quasi keinen Outputlag, da du einfach auf den Output wartest.

Wenn das neue Bild aber schneller kommt als die Refrehrate zulässt, dann haste verloren und landest genau wieder da, wo du auch mit VSync landen würdest.
Ja. Natürlich.

Naja, die Refreshrate des Monitors ist wichtig. Je höher die ist, desto geringer sollte der Outputlag sein, wenn ein Bild früher ankommt. Die Frage ist halt, ob das auch mit 120 Hz geht, oder nur mit 60 Hz. Ich glaub nVidia hat bisher nur von 60 Hz in Zusammenhang mit GSync gesprochen.
Arghs! Ja! Natürlich! Wie gesagt, angeblich (laut diesem Artikel (http://www.guru3d.com/articles_pages/nvidia_g_sync_preview_article,1.html)) sogar 177 Hz, aber bisher wurde diese Zahl noch nirgends sonst erwähnt, also hat vielleicht der Autor einfach mit Wurstfingern auf seinem Numpad rumgehauen und meinte eigentlich 144 Hz.

In jedem Fall natürlich weit höher als 60 Hz. Also wenn das dein Aufhänger war, dann haben wir vorher massiv aneinander vorbeigeredet. :ugly:

#44
2013-10-22, 17:49:49
Die 177Hz sind wohl, was das G-Sync Modul packt - aber da gibt es wohl noch kein Panel, dass mithält.

Hugo78
2013-10-22, 18:05:51
so hab ich das auch verstanden und so war der fps-limiter auf hardwareebene weiter oben auch gemeint. karte macht einfach mal pause.

Und genau das will uns Skysnake als "Outputlag" verkaufen.
Laut Carmack kann das menschliche Auge 240 Lichtimpulse/s ans Hirn senden, was das Hirn dann draus macht, steht auf einem anderen Blatt.
Aber sei es drum. Sagen wir "theoretisch optimal" zockt man mit 240fps an einem 144Hz TFT VSync Off, schert sich nicht um Tearing und wird jetzt von G-Sync auf 144Hz/fps limitiert,
dann hat man einen zusätzlichen "Lag" von 2,8ms (6.9ms Bildaufbau ggü. 4,1ms Rendertime auf der GPU) ... das wärs dann schon mit dem "Worstcase" für Flash Gordon, Superman und Speedy Gonzales.
Wenn man aber bisschen normal "langsam" in der Birne ist und dein Hirn eigentlich sowieso nur sagen wir mal jeden 2. Lichtimpuls in ein Bild umwandeln kann, ist es eh wurscht, dann wären 144Hz schon der Overkill.

Skysnake
2013-10-22, 23:43:59
Ich wette wenn Nvidia das gemacht hätte, würdest du hier seiten lang rumspamen, dass man Display OC ausserhalb der Specs betreibt. :ufinger:

Wenn es durch die Hersteller und deren Specs, also die Garantie gedeckt ist, dann gibt es daran nichts zu kritisieren. Es ist nur wichtig, dass diese Punkte eben erfüllt SIND! Dann ist es aber auch kein OC mehr....

Bei GSync macht es ja auch durchaus Sinn, die Specs und die Garantie eben weiter zu fassen als im Normalfall. Also unterlass bitte solche Unterstellungen...

[quot€]
Wenn du mit 100 fps auf einem 60Hz zockst, ja sicher, aber Pro-Gamer zocken nicht mit Papas Office PC von anno 2003.
Bei 144Hz hat man erst ab 145fps einen Sync-Lag, entsprechend des Bildaufbaus... schneller geht es aber sowieso nicht.[/QUOTE]
DAS war ja aber die Frage.... Jetzt tu mal nicht so, als ob das alles von Anfang an klar gewesen sei... :P

Wenn dir alles so klar ist, dann sag mir mal, was passiert, wenn ne Engine mit einem internen Zeitinerfall von 1/60s rendert, die Bilder aber in folgender Folge aus der GPU raus ploppen


Bildausgabe GPU
60Hz VSync on
GSync??
(Eine Zahl = 1/240s)
122222223444444456666..
111122223333444455556..
112222223344444455666..

Na ist es unter der Konstellation jetzt gut, dass die Bilder mit der maximal möglichen Refreshrate des Monitors ausgegeben werden?

Also erzähl mir nicht, dass das sooo Sonnenklar war, das GSync so arbeitet...

Ja. Natürlich.


Arghs! Ja! Natürlich! Wie gesagt, angeblich (laut diesem Artikel (http://www.guru3d.com/articles_pages/nvidia_g_sync_preview_article,1.html)) sogar 177 Hz, aber bisher wurde diese Zahl noch nirgends sonst erwähnt, also hat vielleicht der Autor einfach mit Wurstfingern auf seinem Numpad rumgehauen und meinte eigentlich 144 Hz.

Wie werden es sehen. Ich kann mir schon vorstellen, dass die Monitorhersteller das offiziell freigeben für GSync.


In jedem Fall natürlich weit höher als 60 Hz. Also wenn das dein Aufhänger war, dann haben wir vorher massiv aneinander vorbeigeredet. :ugly:
Ich hab mir nochmal paar Gedanken darüber gemacht. Ist wohl doch nicht die optimale Lösung, immer alles so schnell aus zu geben, wie es geht. Gerade MultiGPU kann da Problematisch werden. Wenn ich das richtig überblicken kann, sollte es die Microruckler, die aus einem auseinanderlaufen der Ingamezeit und der Darstellungszeit kommen keine Verbeserung geben. Also bezogen auf Framepacing.

MAn kann wie man oben sieht auch wieder Konstellationen antreffen, in denen GSync nicht optimal funktioniert, wenn man so schnell ausgibt wie man kann, also keine Targetfrequenz hat. Ganz schon kompliziert. Ohne Wissen, was die Engine genau macht, und wie die Zeit Ingame abläuft, kann man einfach nicht alle Fälle abdecken. Es gibt immer patologische Konstellationen, in denen es dann schlechter läuft. Bei den großen Framedifferenzen, die man hat, wird man sicherlich immer wieder auf alle Möglichkeiten treffen, wenn wohl auch mit jeder Neuerung auch etwas weniger stark.

AMD und nVidia sollten sich echt mit den Spieleentwicklern/API-Gremien zusammensetzen, und Funktionen implementieren, die dem Spiel die Rückkopplung der Ausgabe/Renderdaten ermöglicht. Da könnte man dann mal die Probleme echt an der Wurzel angehen. Das funktioniert aber nur, wenn die beiden sich mal zusammenreisen und wieder vernünftig zusammenarbeiten...:mad:

Hugo78
2013-10-23, 00:38:34
Wenn dir alles so klar ist, dann sag mir mal, was passiert, wenn ne Engine mit einem internen Zeitinerfall von 1/60s rendert, die Bilder aber in folgender Folge aus der GPU raus ploppen

Wenn eine Engine nicht über 60Hz kommt, dann hat man genau zwei Möglichkeiten.
1. Die Engine ist schlicht weg nicht zeitgemäss und
2. Man begrenzt ebend wieder auf 60Hz, damit das Game mit den benötigten Fps läuft.

Geht mir auch mit Skyrim so.
Wenn dort mehr als 60fps gerendert werden, spielt die Havok Physic verrrückt. Dinge fliegen plötzlich durch die Gegend ect., Skripte laufen zuschnell.
Ich bin hier allgemein zurück auf 120Hz, hab per NV Inspector im Skyrim Profil unter Vsync "1/2 Refresh Rate" gesetzt und das Spiel läuft dann mit 60Hz.

Mit G-Sync muss man dann halt seinen Framelimiter auf 60Hz setzen, dann läuft G-Sync von 25 oder 30 bis 60fps.

Skysnake
2013-10-23, 00:51:17
DAS ist doch aber die Frage die schon lange im Raum steht von mir. Geht es mit mehr als 60 FPS, geht es immer mit mehr als 60 FPS, also 120/144FPS, oder muss man es einstellen bei jeder Anwendung? Oder anders rum, kann man es einstellen bei jeder Anwendung?

Soweit ich das überblicken kann, fehlt die Möglichkeit, das GSync selbst fest stellt, was jetzt besser ist. Man muss also von Hand gewisse Limits setzen. Das ist nicht wirklich optimal. Einige würden es als "Gefrickel" bezeichnen.

Ich seh nach dem was aktuell bekannt ist aber keine Möglichkeit, alle denkbaren/auftretbaren Nachteile zu elemenieren. Dazu fehlt GSync einfach die nötigen Informationen aus dem Spiel heraus.

Ailuros
2013-10-23, 08:34:00
Keine Ahnung ob es schon erwaehnt wurde, aber Ihr habt wohl verstanden dass gsync nur etwas fuer LCD displays nutzt oder?

#44
2013-10-23, 08:59:43
Wenn dir alles so klar ist, dann sag mir mal, was passiert, wenn ne Engine mit einem internen Zeitinerfall von 1/60s rendert, die Bilder aber in folgender Folge aus der GPU raus ploppen


Bildausgabe GPU
60Hz VSync on
GSync??
(Eine Zahl = 1/240s)
122222223444444456666..
111122223333444455556..
112222223344444455666..

Na ist es unter der Konstellation jetzt gut, dass die Bilder mit der maximal möglichen Refreshrate des Monitors ausgegeben werden?

Also erzähl mir nicht, dass das sooo Sonnenklar war, das GSync so arbeitet...

Das sieht jetzt erst einmal negativ aus. ABER dadurch, dass diese Frames näher an dem Zeitpunkt dargestellt werden, an den sie gehören, ergibt sich dennoch ein flüssigeres, weniger abgehacktes Erlebnis. Es sollte für schnellere Frames ja auch weniger Gametime vergehnen.

Sollte die Engine durch Zeitmittel über mehrere Frames die Gametime voranbringen, dann kriegt sich das mit G-Sync in die Haare. Je Fall sind solche Ideen aber als komisches bis schlechtes Enginedesign anzusehen und wohl eher selten.

Ein 120Hz Monitor VSync OFF würde sich in diesem Fall im übrigen zu G-Sync ähnlich verhalten - also bis aufs Tearing. VSync On dürfte stuttern, da nur jeder dritte Frame zum passenden Zeitpunkt am Bildschirm dargestellt wird.

Abgesehen davon, muss man sich mal fragen wie realistisch es ist, dass jeder zweite Frame 6x länger braucht als der Vorhergehende.

Es gibt natürlich realistische, ungünstige Szenarien - das ist schon klar. Nur führen die auch in den anderen Fällen zu einem beeinträchtigten Erlebnis! Wenn sich also nicht ein Fall findet, der zumindest gelegentlich auftritt und dabei G-Sync schlechter darsteht als V-Sync off UND V-Sync on sehe ich das als den Versuch etwas schlecht zu reden.

N0Thing
2013-10-23, 09:24:20
Wenn dir alles so klar ist, dann sag mir mal, was passiert, wenn ne Engine mit einem internen Zeitinerfall von 1/60s rendert, die Bilder aber in folgender Folge aus der GPU raus ploppen


Bildausgabe GPU
60Hz VSync on
GSync??
(Eine Zahl = 1/240s)
122222223444444456666..
111122223333444455556..
112222223344444455666..

Na ist es unter der Konstellation jetzt gut, dass die Bilder mit der maximal möglichen Refreshrate des Monitors ausgegeben werden

Die GPU wird kaum mehr Bilder pro Sekunde ausgeben als die Anwendung an sie zur Berechnung weitergibt, oder?
Außerdem wird die GPU in deinem Beispiel kaum Bild 2 Ausgeben können, bevor die Anwendung Bild 2 intern gerendert hat.

Skysnake
2013-10-23, 10:16:06
Hä?

Nö wie kommst du darauf? :freak:

Ganz oben ist die Bildausgabe, dann kommt VSync und ganz unten GSync. Das past schon alles.

Das sieht jetzt erst einmal negativ aus. ABER dadurch, dass diese Frames näher an dem Zeitpunkt dargestellt werden, an den sie gehören, ergibt sich dennoch ein flüssigeres, weniger abgehacktes Erlebnis. Es sollte für schnellere Frames ja auch weniger Gametime vergehnen.
Theoretisch in einer "Wünschdirwaswelt" ja. Games haben aber oft/teilweise auch noch statische Zeitintervalle. Jeder Frame bedeutet eine Zeitspanne X. Da hängts dann halt davon ab, was eigentlich die Zielfrequenz ist. Meist 60 FPS. Mit GSync würde das Bild aber zu früh ausgegeben. Und damit würde es zu einem vermeindlichen Ruckeln kommen, weil die Zeitintervalle immer hin und her springen.

Das ist ein ganz grundsätzliches Problem, welches auch bei Framepacing auftreten kann. Und selbst bei den Spielen, die eine Analyse haben, wieviel Zeit vergehen soll, kann die halt auch mal danebenhauen. Je mehr Variablen, und vor allem je größer die werden, desto größer werden halt auch die Worstcases.


Sollte die Engine durch Zeitmittel über mehrere Frames die Gametime voranbringen, dann kriegt sich das mit G-Sync in die Haare. Je Fall sind solche Ideen aber als komisches bis schlechtes Enginedesign anzusehen und wohl eher selten.

Wie willst du es sonst machen? Du weißt ja apriori nicht, wie schnell der Frame gerendert sein wird. Die Anwendung hat ja keinerlei INformationen von der GPU, ob da noch irgendwas anderes rödelt, ob auf der CPU noch was rödelt usw usw. Du wirst sowas also im Endeffekt immer haben.

Deswegen hatte ich ja schon als nVidia FCAT durch die Medien getrieben hat, darauf hingewiesen, dass das mit Framepacing usw alles ja ganz nett ist, aber man lieber den Spieleentwicklern eine leicht zu bedienende API-Schnittstelle in die Hand drücken sollte, die es ihnen ermöglicht, die reale Zeit mit der Ingamezeit zu synchronisieren. Damit könnte man die Abweichung wirklich auf ein absolutes Minimum drücken. Vor allem könnte man sogar auf der GPU geziehlt den Turbo zünden bei Frames, bei denen man durch Logs weiß, das es knapp wird mit der Berechnung.



Ein 120Hz Monitor VSync OFF würde sich in diesem Fall im übrigen zu G-Sync ähnlich verhalten - also bis aufs Tearing. VSync On dürfte stuttern, da nur jeder dritte Frame zum passenden Zeitpunkt am Bildschirm dargestellt wird.

Ähm ja, das stimmt wohl. Im Prinzip sogar noch etwas schlimmer, da es eben wie du sagst zu Tearin kommen würde und man sogar noch etwas früher beginnt den einen Frame dar zu stellen.


Abgesehen davon, muss man sich mal fragen wie realistisch es ist, dass jeder zweite Frame 6x länger braucht als der Vorhergehende.

Es war jetzt nur ein Beispiel für SGPU ;)

Dass das in der Folge nicht auftritt ist denke ich jedem klar. Ich hoffe es zumindest :ugly:

Es reicht ja aber schon, wenn einfach mal die Framerate nen heftigen drop hat, und das passiert halt doch leider immer mal wieder. GSync ist halt auch kein Wundermittel. Das "perfekte" Spielerlebnis bekommste damit halt auch nicht in jeder Situation. Im Prinzip ist der Grundansatz aber gar nicht schlecht. Man müsste jetzt "einfach" noch über ne API der Software ermöglichen alles direkt zu beeinflussen. Das wäre dann echt optimal.

Bei Multi-GPU, bei dem es ja hier schon hies, das GSync dafür ja perfekt sei, tritt das ganze halt deutlich wahrscheinlicher auf. Muss man also gerade da im Auge behalten.


Es gibt natürlich realistische, ungünstige Szenarien - das ist schon klar. Nur führen die auch in den anderen Fällen zu einem beeinträchtigten Erlebnis! Wenn sich also nicht ein Fall findet, der zumindest gelegentlich auftritt und dabei G-Sync schlechter darsteht als V-Sync off UND V-Sync on sehe ich das als den Versuch etwas schlecht zu reden.
Über das wieoft kann ich keine Aussage treffen, und aus dem stehgreif hier wohl gar keiner. Da müsste man Frameanalysen laufen lassen.

Vor allem hat man sich ja noch gar nicht angeschaut, inwieweit sich die zwei bis drei von mir genannten Effekte summieren, bzw halt kohärent auftreten.

Ist halt das gleiche "Spiel" wie bei FCAT. Auch da wurde gesagt, dass das "perfekt" sei, und es damit keine Mikroruckler mehr gibt. Redaktionen haben aber gesagt, dass es Sie dennoch teils gibt. Zwar (deutlich) weniger, aber es gibt Sie immer noch. So wird das mit GSync wohl auch laufen.

Einfach so jetzt die Ausgabe mitloggen reicht aber nicht. Man weiß ja gar nicht, ab welchem Schwellwert, den Leuten die Darstellung als "nicht richtig" erscheint.

Im Prinzip müsste man Leute also vor den Rechner setzen, Sie zocken lassen und am Boden ne Druckplatte befestigen, durch deren Druck Sie angeben, wann sie ein ungutes Spielgefühl hatten. Mach das von 10-100 Leuten, und man hätte echt ne schön empirische Grundlage.

Das wirds aber leider nicht geben:usad: Es wird ja nicht mal geschafft, nen doppeltblindtest zu AMD<->nVidia MGPU Systemen wegen µRuckler, oder wegen dem Texturflimmern zu machen, und das wäre ja deutlich einfacher. Die Hoffnung darf man daher getrost zu Grabe tragen :(

Und das AMD und nVidia sich mal zusammenreisen und die ganzen Ausgabeprobleme an der Wurzel anpacken darf man eh ins Reich der Träume verabschieden.... Die sind doch wies mir scheint beide zur Zeit auf den "ich mach was propritäres um dem Anderen so richtig ins Knie zu ficken"-Trip :down:

N0Thing
2013-10-23, 11:23:39
Hä?

Nö wie kommst du darauf? :freak:

Ganz oben ist die Bildausgabe, dann kommt VSync und ganz unten GSync. Das past schon alles.

Ich habe alles zitiert, was nötig ist, aber nochmal langsam für dich:

Du schreibst von 1/60s Renderzeit der Engine und 1/240s Ausgabeintervall der GPU. Und da kommt dann die Frage auf, woher die GPU bei ihrem zweiten 1/240s Intervall schon das zweite Bild berechnen konnte.

#44
2013-10-23, 11:27:09
Wie er darauf kommt? Wenn mit fixen 60 FPS gerendert werden, kann kaum ein Frame weniger als 4*1/240s lang angezeigt werden :wink:

Theoretisch in einer "Wünschdirwaswelt" ja. Games haben aber oft/teilweise auch noch statische Zeitintervalle. Jeder Frame bedeutet eine Zeitspanne X. Da hängts dann halt davon ab, was eigentlich die Zielfrequenz ist. Meist 60 FPS. Mit GSync würde das Bild aber zu früh ausgegeben. Und damit würde es zu einem vermeindlichen Ruckeln kommen, weil die Zeitintervalle immer hin und her springen.
G-Sync kann nichts vor dem Rendern ausgeben. Und sobald gerendert ist - wo ist das Problem das anzuzeigen?

Zumal fixe Zeitintervalle über die Framerate nur mit einem Frame-Limiter funktioniert und zu Slowdowns führt sobald man unter die Zielfrequenz abfällt. Ich glaube kaum, dass das irgendwo gemacht wird.

Wie willst du es sonst machen? Du weißt ja apriori nicht, wie schnell der Frame gerendert sein wird. Die Anwendung hat ja keinerlei INformationen von der GPU, ob da noch irgendwas anderes rödelt, ob auf der CPU noch was rödelt usw usw. Du wirst sowas also im Endeffekt immer haben. Das ist ja auch egal. Wieso soll die Engine überhaupt vorhersagen wollen, wann der nächste Frame gerendert/zu sehen sein wird? Sobald es zu slowdowns oder speedups kommt, dürfte das zum totalen Gummiband werden.

Dann lagt die Gametime der Realzeit halt einen Frame hinterher - neue Eingaben kann man eh nicht verwerten, sobald mit dem Rendern beginnt.
Was relevant ist, ist wie viel Zeit seit dem letzten Frame vergangen ist. Und das lässt sich messen.

Hugo78
2013-10-23, 12:28:25
Soweit ich das überblicken kann, fehlt die Möglichkeit, das GSync selbst fest stellt, was jetzt besser ist. Man muss also von Hand gewisse Limits setzen. Das ist nicht wirklich optimal. Einige würden es als "Gefrickel" bezeichnen.

Oh Gott ...

1. natürlich kennt G-Sync nicht alle Problem Engines und das kannte aber auch ein V-Sync off nicht und das weißt du auch.
2. dafür gibt es Profile.
3. standardmässig wird G-Sync immer mit der max. Refreshrate arbeiten, dafür holt man sich ja einen schneller 60Hz TFT.

Iruwen
2013-10-23, 12:31:30
Meisterlich wie er immer neue Kritikpunkte aus dem Hut zaubert, chapeau.

Skysnake
2013-10-23, 14:04:41
Sag das bitte den Leuten, die schon wieder den "heiligen Gral" vor sich sehen....

Ich habe alles zitiert, was nötig ist, aber nochmal langsam für dich:

Du schreibst von 1/60s Renderzeit der Engine und 1/240s Ausgabeintervall der GPU. Und da kommt dann die Frage auf, woher die GPU bei ihrem zweiten 1/240s Intervall schon das zweite Bild berechnen konnte.
....
Dann les bitte richtig. Das habe ich NICHT gesagt.

Ich habe gesagt:

Wenn dir alles so klar ist, dann sag mir mal, was passiert, wenn ne Engine mit einem internen Zeitinervall von 1/60s rendert, die Bilder aber in folgender Folge aus der GPU raus ploppen

Was ist daran nicht zu verstehen? Bei jedem neuen gerenderten Bild, geht die Engine von 1/60s vergangener Zeit aus für die ganzen internen Berechnungen, wohin sich etwas bewegt hat usw usw.

Wie lange die GPU am Ende braucht um das auch zu berechnen ist was ganz anders! Und den Monitor interessiert eben nur, wann die Bilder fertig sind, und nicht, wann Sie angefangen werden zu rendern, und auch nicht wieviel IngameZeit verstrichen ist...

Ich versteh nicht, wie man ein derart simples Beispiel, welches etwas verdeutlich soll, nicht verstehen kann. Simpler gehts nun wirklich nicht mehr...

Meisterlich wie er immer neue Kritikpunkte aus dem Hut zaubert, chapeau.
Das ist ganz normales analytisch deduktives vorgehen :ugly: Man schaut sich einen Punkt nach dem anderen an, und überlegt sich, welche Konsequenzen sich aus welche Schlussfolgerungen ergeben. Wie willst du es sonst analysieren, wenn du die Funktionsweise des Systems nicht zu 100% kennst? Wenn man alle Randbedingungen kennt, kann man natürlich sofort alle Cornercases darstellen, aber wir kennen das System halt nicht, und müssen uns daher die Sachen erarbeiten...

Manchmal komm ich mir hier wie im Mittelalter vor.... Der Überbringer von "schlechten/unangenehmen" Wahrheiten wird gelyncht...

Total behämmert sowas. Es ist doch gut, wenn man die Grenzen eines Systems kennt. Dann kann man sich besser darum kümmenrn, unter welchen Voraussetzungen die Limitierungen eintreten, wie ich Sie umgehen kann, und überhaupt auch entscheiden, welches System für mich besser ist.

Iruwen
2013-10-23, 14:38:28
Spielspezifische Optimierungen und Profile sind nichts Neues, und der Anteil der Spiele bei denen es out of the Box funktioniert dürfte bei dieser Technik recht groß sein. Die geschickt gewählte Formulierung des letzten Satzes macht es auch nicht besser.

ndrs
2013-10-23, 14:43:38
@Skysnake:
Ignorier solche Kommentare, wie über dir einfach. Die kommen ja eh immer von den gleichen. Manche können halt mit wissenschaftlicher Arbeitsweise nichts anfangen. Ich find's gut, wie du das versuchst aufzudröseln. Das ist ne schöne Auflockerung während der Arbeit :) Würde mich auch selbst beteiligen, wenn ich mehr Ahnung von dieser Ingame-Zeit-Geschichte hätte. Aber soweit reichts bei mir leider nicht. Trotzdem: Weitermachen!

Tesseract
2013-10-23, 15:04:25
Bei jedem neuen gerenderten Bild, geht die Engine von 1/60s vergangener Zeit aus für die ganzen internen Berechnungen, wohin sich etwas bewegt hat usw usw.
das stimmt ganz einfach nicht. abgesehen von ein paar indie-platformern berechnet keine engine updates anhand solcher annahmen. die kumulativen fehler würden da innerhalb von sekunden zu völlig indeterministischem engineverhalten führen, selbst bei so trivialen dingen wie einer kameradrehung. wenn du da einmal die maus nach links und dann wieder die selbe distanz nach rechts reißt hättest du wahrscheinlich schon abweichungen von 20° oder mehr drin.

die brechnungen basieren natürlich alle direkt oder indirekt auf der absoluten systemzeit. ob ein frame da ein paar prozent schneller ist oder nicht ist vollkommen egal solange die differenz nicht so dermaßen groß ist, dass es z.B. zu fehlern bei der collision detection kommen kann weil ein objekt ein anderes zwischen 2 frames vollkommen durchdringt und deswegen in beiden frames-snapshots außerhalb davon liegt. aber selbst sowas kann man berücksichtigen.

Skysnake
2013-10-23, 15:08:17
Ach das ist eigentlich ganz simpel. ;D

Die Engine muss ja für gewisse Dinge einfach eine Zeit für sich selbst darstellen. Wenn ich die Geschwindigkeit eines Gegners, Fahrzeugs oder Kugel habe, wo befindet sich die entsprechend im nächsten Frame usw usw.

Da gibts halt die unterschiedlichsten Möglichkeiten, wie man das handhaben kann. Ganz früher war es komplett fix. Da ist zwischen zwei Frames immer die Zeitspanne X vergangen. Das hatte dann zur Folge, das Spiele auf schnelleren Rechnern schneller gelaufen sind, und damit mit der Zeit unspielbar wurden ;D

Es gibt halt drei Variable Zeiten:
Zeit(differenzen) der Engine, Zeit die ein Bild braucht um gerendert zu werden und dann noch die Zeit, die benötigt wird um ein Bild auch aus zu geben.

Im Optimalfall kompensiert sich alles so, das am Ende der Nutzer ein für ihn flüssiges Geschehen wahrnimmt. Alle drei Variablen sind aber gewissen Schwankungen/Limitierungen unterworfen. Die Versucht man durch Eingriffe jeweils an anderen Stellen zu kompensieren. Das Problem ist, das klappt nicht immer gleich gut, und wenns dumm läuft, verschlimmbessert man die Sachen auch noch....

Im Prinzip gibt es halt einfach "nur" verdammt viele Variationsmöglichkeiten, wie die SAchen aufeinander treffen können. Da gilt es halt heraus zu finden, welche zu einem schlechten Spielgefühl führen und welche nicht, und da kommen die absoluten Werte dann rein, durch die es halt sehr sehr schwierig wird :(

Skysnake
2013-10-23, 15:12:44
das stimmt ganz einfach nicht. abgesehen von ein paar indie-platformern berechnet keine engine updates anhand solcher annahmen. die kumulativen fehler würden da innerhalb von sekunden zu völlig indeterministischem engineverhalten führen, selbst bei so trivialen dingen wie einer kameradrehung. wenn du da einmal die maus nach links und dann wieder die selbe distanz nach rechts reißt hättest du wahrscheinlich schon abweichungen von 20° oder mehr drin.

die brechnungen basieren natürlich alle relativ zur absoluten systemzeit. ob ein frame da ein paar prozent schneller ist oder nicht ist vollkommen egal solange die differenz nicht so dermaßen groß ist, dass es zu fehlern bei der collision detection kommen kann weil ein objekt sich zwischen 2 frames z.B. so weit bewegt, dass es ein anderes zwischen 2 frames vollkommen durchdringt und deswegen in beiden frames-snapshots außerhalb liegt und solche dinge.
Darauf ist vor ner weile mal Coda eingegangen, als es um Framepacing ging.

Es wird halt nicht nur "einfach" die Systemzeit genommen, sondern teils heuristiken gefahren. Das ist ja das Blöde an der Sache, die GPU und der ganze Rest weiß nicht, welchen "fancy shit" die Engine macht.

Soll man jetzt für BEISPIELE! die ganzen komplizierten Cornercases im Detali inkl Entstehungsgeschichte aufzeigen, oder soll man sich auf simple Beschreibungen limitieren, um die grundlegenden Problematiken erstmal heraus zu arbeiten, um dann in einem zweiten Schritt zu schauen, wo Sie dann wirklich in welchem Umfang unter welchen Voraussetzungen eintreten?

Man kann auch drei Schritte auf einmal machen. Schön. Das trägt aber nichts zum Verständnis bei...

Tesseract
2013-10-23, 15:21:48
Darauf ist vor ner weile mal Coda eingegangen, als es um Framepacing ging.

beim frame pacing geht es darum die renderzeit der frames halbwegs unter kontrolle zu haben. ein frame ist trotzdem immer eine momentaufnahme der szene zu einem bestimmten zeitpunkt und am ende muss die engine trotzdem mit mehr oder weniger stark abweichenden renderzeiten umgehen können.

N0Thing
2013-10-23, 16:08:02
Was ist daran nicht zu verstehen? Bei jedem neuen gerenderten Bild, geht die Engine von 1/60s vergangener Zeit aus für die ganzen internen Berechnungen, wohin sich etwas bewegt hat usw usw.

Wie lange die GPU am Ende braucht um das auch zu berechnen ist was ganz anders! Und den Monitor interessiert eben nur, wann die Bilder fertig sind, und nicht, wann Sie angefangen werden zu rendern, und auch nicht wieviel IngameZeit verstrichen ist...


Du hast nach diesem Satz auch noch eine Tabelle (siehe Zitat in meinem letzten Beitrag) angefügt, mit den vom Monitor angezeigten Bildern. Deshalb bin ich auch davon ausgegangen, daß die Spiele-Engine nur alle 1/60s ein neues Bild an die Grafikkarte weitergibt, oder Bescheid weiß, daß sie gerade ein neues Bild an die Grafikkarte weitergegeben hat.
Da habe ich dich wohl tatsächlich mißverstanden, denn ich bin davon ausgegangen, daß dein Beispiel irgendeinen praktischen Bezug zur Alltagsrealität hat.
Daß du tatsächlich ein Beispiel konstruierst, das heute keine praktische Relevanz hat und zudem sowohl mit als auch ohne V-Sync Probleme bereiten würde, davon bin ich nicht ausgegangen. Mea culpa.


Soll man jetzt für BEISPIELE! die ganzen komplizierten Cornercases im Detali inkl Entstehungsgeschichte aufzeigen, oder soll man sich auf simple Beschreibungen limitieren, um die grundlegenden Problematiken erstmal heraus zu arbeiten, um dann in einem zweiten Schritt zu schauen, wo Sie dann wirklich in welchem Umfang unter welchen Voraussetzungen eintreten?

Man kann auch drei Schritte auf einmal machen. Schön. Das trägt aber nichts zum Verständnis bei...

Warum nimmst du dann solche Cornercases, wie die von dir beschriebene Spieleengine mit fixer Renderzeit, in der alles was von einer Ausgabe von 1/60s abweicht zur Unspielbarkeit führen würde? Ich habe tatsächlich solche Spiele noch gespielt, allerdings handelte es sich dabei um Speedball und Wing Commander (ja, Teil 1), also nichts, was heute noch relevant wäre.

Übriegens, statt des Vergleichs mit einem Lynchmob, der dich für dein Engagement bedroht, kommt mir eher der Autofahrer in den Sinn, der auf der Autobahn hunderte von Geisterfahrern sieht. :D

Tesseract
2013-10-23, 16:17:03
Ich habe tatsächlich solche Spiele noch gespielt, allerdings handelte es sich dabei um Speedball und Wing Commander (ja, Teil 1), also nichts, was heute noch relevant wäre.

super meat boy macht das z.B. auch. aber das sind, wie gesagt, einzelfälle die nur bei sehr speziellen genres unter bestimmten bedingungen funktionieren. im fall von SMB also einem sehr geringen workload und festem vsync zusammen mit einer spielmechanik, die bei kleineren abweichungen zwar schneller oder langsamer wird aber in sich trotzdem konsistent bleibt.

mit festem vsync muss gsync aber sowieso deaktiviert sein. gsync kann nur funktionieren wenn es aus sicht des spiels keine synchonisation gibt.

Skysnake
2013-10-23, 16:23:41
Es ist eben nicht ohne jedweden Bezug zur "Alltagsrealität". Es ist nur deutlich schwerer zu erkennen und vor allem zu beschreiben ;)

Am Besten dann noch mit den jeweils möglichen Fixes, die man in GSync einarbeiten kann usw usf. Dann steigt doch keine Sau mehr durch und der Blick aufs wesentliche geht verloren.

Was die Engine GENAU intern macht spielt ja keine Rolle. Wichtig ist ja nur die Bildfolge, und die bezieht sich im Prinzip auf minimal zwei/drei Frames. Das ist also nichts, was nicht auch bei Engines passieren kann, die gewisse Heuristiken verwenden. Vor allem wenn die davon ausgehen, das eigentlich VSync on/off ist (muss man noch genau anschauen, was je nachdem, unter welchen Umständen eintreten kann). Egal welche Engines du dir da draußen anschauen wirst, keine wird GSync kennen. Man wird also die Engines rund um VSync off/on gebaut haben. Gsync verhält sich ja aber weder wie VSync on noch off, sondern was dazwischen. Die ganzen "fancy shit" Tricks der Entwickler, um möglichst ein gutes Spielgefühl dem Nutzer zu geben können bei GSync genau das Gegenteil bewirken.

Deswegen ist es ja auch so interessant und wichtig, sich die Corner-Cases an zu schauen, denn das sind die Punkte, an denen halt leicht/gern was schief geht, und bei den Frameverläufen, die man heutzutage hat in Spielen, bekommt man unglaublich viele Variationen vor die Füße geworfen. Das ein System, welches der Engine nicht die volle! Information und Kontrolle in die Hand drückt, alle Untiefen gekonnt umschiffen kann, kann ich mir nicht vorstellen. Dafür kann einfach zu viel an zu vielen stellen schief gehen...

Ist halt wie mit den µRucklern. Bringste ne Neuerung, haste vielleicht nur noch 10% µRuckler, aber halt 1-x% neue Probleme geschaffen die wieder zu µRuckler führen. Man doktort halt nur dran rum. Das ist besser als nichts zu tun, aber der Weißheit letzter Schluss ist es auch nicht...

Tesseract
2013-10-23, 16:26:58
Gsync verhält sich ja aber weder wie VSync on noch off, sondern was dazwischen.

gsync verhält sich aus enginesicht wie vsync off mit einem framelimiter auf der höhe der maximalen refreshrate.

Skysnake
2013-10-23, 17:08:02
Öhm.

Ja, das sollte es eigentlich genau treffen. Hab ich jetzt aber nicht intensiv drüber nachgedacht! Sollte aber eigentlich stimmen, mir fällt zumindest nichts spontan ein, was dagegen spricht.

sloth9
2013-10-23, 19:45:09
...

Also erzähl mir nicht, dass das sooo Sonnenklar war, das GSync so arbeitet...

...



Natürlich war es das. Weil G-Sync anders gar keinen Sinn ergibt, wenn man mal nachdenkt.
Deine bisherigen Postings zu diesem Thema waren also fürn....

Iruwen
2013-10-24, 10:42:43
Wäre das also auch geklärt :biggrin:

Hübie
2013-10-24, 11:34:46
Ich gebe zu hier nur kurz reingeschaut und nur kurz gelesen zu haben. Eine kurze Frage: kann man Gsync am alten Monitor "nachrüsten" (lassen)?

Edit: in meinem Fall ein BenQ XL2410T.

schreiber
2013-10-24, 11:36:31
Dazu ist bislang afaik nichts bekannt. Ich glaub, das ist eher unwahrscheinlich.

Hugo78
2013-10-24, 11:40:00
Es soll ein - zwei Nachrüstkits geben, aber Nvidia sagt selber man soll sich da keine große Hoffnung machen.

Hübie
2013-10-24, 11:41:57
Okay vielen Dank :smile:

Blaire
2013-10-25, 22:27:05
ComputerBase: Erster eigener Eindruck zu Nvidias G-Sync
http://www.computerbase.de/news/2013-10/erster-eigener-eindruck-zu-nvidias-g-sync/

Gipsel
2013-10-25, 22:46:33
ComputerBase: Erster eigener Eindruck zu Nvidias G-Sync
http://www.computerbase.de/news/2013-10/erster-eigener-eindruck-zu-nvidias-g-sync/
Da sollte auch noch mal irgendwer die Artikel korrekturlesen. Gleich im ersten Absatz:
Nvidia schickt dieser Tage G-Sync ins Rennen. G-Sync hohe Bildwiederholraten trotz Tearing ermöglichen.Das ist noch nicht einmal ein Satz. :freak:
G-Sync soll hohe Bildwiederholraten ohne Tearing ermöglichen? Trifft es nicht ganz.
G-Sync soll niedrige Bildwiederholraten ohne Tearing ermöglichen? Auch nicht.
G-Sync soll einen flüssigen Bildeindruck ohne Tearing bei allen Frameraten ermöglichen!

Edit:
Jetzt haben sie sich für meine erste Variante entschieden. Trifft es aber wie gesagt nicht so richtig. :rolleyes:

aufkrawall
2013-10-25, 22:49:49
Dieses "klinisch"-Argument ist dermaßen für die Tonne, besonders für Spiele.
Als ob Ruckler irgendwas authentischer wirken lassen, das muss ich erstmal verdauen...

Nightspider
2013-10-25, 22:53:51
Soap-Effekte in Spielen, darauf habe ich schon lange gewartet. :ulol:

Thomas Gräf
2013-10-25, 22:54:36
Was heißt denn nu "klinischer" ? OK, ich hab das Schnellfeuerposten verloren. ;)
Außerdem keiner will eine neue "revolutionäre" Technik auf allerwelts 24'er...Hosen runter und gleich 27'er supporten. ;)

aufkrawall
2013-10-25, 22:58:57
Soap-Effekte in Spielen, darauf habe ich schon lange gewartet. :ulol:
Das muss man sich mal reinziehen.
Es würde bedeuten, dass man absichtlich bei 60Hz mit TB Vsync unter 60fps bleibt, um ja keinen Soap Opera Effect zu haben.
:facepalm:

Am besten ne hardwareseitige Sperre einbauen, dass nicht mehr als 24fps ausgegeben werden können...

Knuddelbearli
2013-10-25, 22:59:50
klingt nicht besonders berauschen.

gerade wo Cb Redakteure für solche Probleme ein geübtes Auge haben sollten
Sie sicher massiv auf den Effekt geachtet haben
und NV sicher die 2 Spiele hergenommen hat wo es sich am stärksten auswirkt

und dann kommt CB zum Fazit:
. Das Spielgefühl fanden wir mit G-Sync besser, doch ist die Differenz zu deaktiviertem VSync nicht so groß

Mir ist Tearing eh noch nie negativ aufgefallen, dafür bin ich extrem Lag empfindlich.

Außerdem verstehe ich CBs Argumentation nicht. Wieso sollte GSynch hohe FPS und dadurch niedrigen Inputlag verursachen?
FPS können ja nicht über Minitorfrequenz steigen, geanu wie bei VSynch, nur der 1 Bild Inputlag fällt weg. Bei 120/144 ist der aber doch eh schon sogut wie unspürbar für mich obwohl ich da eigentlich so sensibel bin

aufkrawall
2013-10-25, 23:05:44
Bei 120/144 ist der aber doch eh schon sogut wie unspürbar für mich obwohl ich da eigentlich so sensibel bin
Schon mal in Erwägung gezogen, dass du vielleicht doch nicht so ein Sensibelchen bist?

Thomas Gräf
2013-10-25, 23:08:10
Bevor das nicht von Gamern auf 27'er Monis ausgetestet wurde bin ich auch mißtrauisch.

Hugo78
2013-10-25, 23:14:08
Oh Gott, der CB Artikel hätte an vielen Ecken deutlich besser ausformuliert werden müssen.
Der wird so, der Sache nicht gerecht.

Nazar
2013-10-28, 11:46:15
Natürlich war es das. Weil G-Sync anders gar keinen Sinn ergibt, wenn man mal nachdenkt.

Der Satz ist so geil... darüber sollte man wirklich mal sehr intensiv nachdenken! ;D

Deine bisherigen Postings zu diesem Thema waren also fürn....

Hier merkt man eindeutig, dass die Erkenntnis selbst, trotz der Ausführung oben, so überhaupt nicht begriffen wurde! :freak:

Hier der bereinigte Satz:
G-Sync ergibt derzeit gar keinen Sinn für "Otto normal" Spieler, wenn man mal darüber nachdenkt! :wink:

aufkrawall
2013-10-28, 11:50:49
Hier der bereinigte Satz:
G-Sync ergibt derzeit gar keinen Sinn für "Otto normal" Spieler, wenn man mal darüber nachdenkt! :wink:
Für den wurde es auch gar nicht konzipiert. Wir kommen also wieder darauf zurück, dass die Diskussion fürn Ar...
Es ist ein exklusives Feature für Hardcore-Gamer. NV ist klug, dass sie sich das so fürs Marketing dienlich machen, bevor es mit weiterer DP-Verbreitung eh irgendwann für alle kommt.

Schaffe89
2013-10-28, 13:37:45
Ich würde mal sagen, dass Nvidia da grade ne ganz große Blase pusht die dann irgendwann platzt wenn G-sync mal im Paxiseinsatz getestet wird. Die Techdemos sind nicht repräsentativ und CB schreibt, dass der Effekt bei regulären Spielen weit geringer ist.

DP-Verbreitung eh irgendwann für alle kommt.

Vermute eher nicht, dass das kommt, viel eher kommt eine bessere Softwarelösung, etwa sowas wie dynamischer Framelimiter vor dem V-sync wert, denn wenn ich mir die CB Kommentare dazu anschaue, kann man sich G-sync eigentlich komplett schenken.

" Der Vorteil kann also groß oder auch so gut wie nicht vorhanden sein – unabhängig der Framerate."

Wenn ich einen Framelimiter vors V-sync auf 59 FPS schalte und V-sync auf 60 FPS schalte, dann habe ich wohl wahrscheinlich ein völlig gleichwertiges Ergebnis als G-sync und bevor ich mir als Gamer einen Lag durch G-sync aufhalse, kann ich online ohne V-sync spielen und kann schneller reagieren.

Gipsel
2013-10-28, 13:40:38
Wenn ich einen Framelimiter vors V-sync auf 59 FPS schalte und V-sync auf 60 FPS schalte, dann habe ich wohl wahrscheinlich ein völlig gleichwertiges Ergebnis als G-syncNein. Du hast einmal pro Sekunde ein Frame, was doppelt so lange angezeigt wird, also jede Sekunden genau einen kurzen Hacker.

Eggcake
2013-10-28, 13:54:59
@Schaffe
Naja, ich sehe selbst Tearing in etlichen Spielen. Und diese sind mit GSync weg (das ist ja ein Fakt, dafür brauche ich mir keine Techdemo ansehen).
Dass der Effekt bei der Techdemo wohl übertrieben war, mag zwar stimmen, aber je nach Spiel nervt mich Tearing derzeit doch massiv. Bei den meisten Spielen ist es mir egal oder ich nehme es halt hin (weile es schlicht keine andere Lösung gibt, da meine Graka selten die 60FPS schafft), das heisst aber nicht, dass ich gerne mit Tearing lebe.

Wenn meine Grafikkarte stets die 60FPS machen würde, dann wäre mir GSync ja egal, aber so ist es halt nicht.


Das mit dem Soap Opera Effekt, welcher CB beschreibt, kann ich aber nicht ganz nachvollziehen. Alles was ja (eigentlich) passieren sollte ist, dass quasi das Tearing auch bei niedrigeren FPS verschwindet. Ansonsten verhält es sich ja genau gleich wie VSync Off (mal abgesehen davon, dass wohl kleinere Ruckler auch noch verschwinden). Will CB uns damit sagen, dass Tearing wünschenswert ist?!

aufkrawall
2013-10-28, 13:59:10
und bevor ich mir als Gamer einen Lag durch G-sync aufhalse
Der soll geringer sein als mit Vsync. Keine Ahnung, warum du bei G-Sync immer Lag als Argument dagegen anführst.
Das hat noch niemand wirklich berurteilen können. Ist anmaßend, da einfach irgendwas zu behaupten.

Und diesen fps-Limit Mist kann ich echt nicht mehr hören, hab ich hier schon xmal widerlegt...

Timbaloo
2013-10-28, 14:02:02
denn wenn ich mir die CB Kommentare dazu anschaue, kann man sich G-sync eigentlich komplett schenken.
Ist schon interessant wie du das aus einem Artikel herausliest der sich selbst kein Fazit zutraut, eben weil man nicht genügend Material hat :rolleyes:

N0Thing
2013-10-28, 14:02:09
Ich würde mal sagen, dass Nvidia da grade ne ganz große Blase pusht die dann irgendwann platzt wenn G-sync mal im Paxiseinsatz getestet wird. Die Techdemos sind nicht repräsentativ und CB schreibt, dass der Effekt bei regulären Spielen weit geringer ist.

Die Techdemo ist ja auch ein Showcase, um das Prinzip zu verdeutlichen. Bisher haben alle Redakteure auch bei echten Spielen einen Unterschied bemerkt (auch CB) und es als eine positive Entwicklung beschrieben, wenn nicht gar noch positiver. Es wurde also schon im Praxiseinsatz getestet.

Ich freue mich auch schon darauf, wenn es nach offiziellem Release mehr und ausführlichere Tests geben wird. Vorab ein Haar in der Suppe zu suchen, wo alle "Experten" der Medien kein schlechtes Wort über g-sync sagen, empfinde ich eher als "Hype".

Ätznatron
2013-10-28, 14:07:52
Wenn g-sync eine absolut gleiche Frametimeverteilung ermöglicht und Tester somit 30 FPS als absolut angenehm spielbar bezeichnen, wozu dann noch "höherhertzige" Monitore, wozu dann noch Grafikkarten für 100 FPS und mehr?

30 FPS sollten dann doch aus der Gamerperspektive völlig ausreichend sein für alles.

N0Thing
2013-10-28, 14:11:50
Hast du nen Link zur der "30 fps reichen für alles aus" Aussage der Tester?

aufkrawall
2013-10-28, 14:13:23
Wenn g-sync eine absolut gleiche Frametimeverteilung ermöglicht und Tester somit 30 FPS als absolut angenehm spielbar bezeichnen, wozu dann noch "höherhertzige" Monitore, wozu dann noch Grafikkarten für 100 FPS und mehr?

Na ja, GPU-Leistung kann man immer sinnvoll verbraten (AA).
Und 30fps haben schon wieder viel zu viel Motion Judder und die Steuerung wird auch ohne Vsync-Lag schon zäh.
Mehr fps sind also nach wie vor gut. Bei dem mit dem Monitor würd ich dir aber zustimmen. Ein IPS-Monitor für G-Sync (und vielleicht sogar Lightboost) mit 75Hz und mehr sowie akzeptablem Reaktionsverhalten würde TNs relativ überflüssig machen.

Ätznatron
2013-10-28, 14:19:56
Hast du nen Link zur der "30 fps reichen für alles aus" Aussage der Tester?

Tester beschreiben ein angenehmes Spielgefühl bei 30 FPS.

Also schließe bzw. vermute ich daraus - denn immerhin ist die Einzelbildabfolge ja dann in etwa identisch zu der ruckelfrei erlebten Einzelbildabfolge von Kinofilmen -, dass diese 30 FPS völlig ausreichen.

aufkrawall
2013-10-28, 14:23:10
Tester beschreiben ein angenehmes Spielgefühl bei 30 FPS.

Das kann nicht sein, weil es bei unter 30fps nicht mehr funktioniert, und da kommt man mit 30fps avg hin.


Also schließe bzw. vermute ich daraus - denn immerhin ist die Einzelbildabfolge ja dann in etwa identisch zu der ruckelfrei erlebten Einzelbildabfolge von Kinofilmen -, dass diese 30 FPS völlig ausreichen.
Kinofilme ruckeln auch. Merkst du bei seitlichen Kameraschwenks, die deshalb kaum gemacht werden.

Ätznatron
2013-10-28, 14:34:03
Das kann nicht sein, weil es bei unter 30fps nicht mehr funktioniert, und da kommt man mit 30fps avg hin.


Kinofilme ruckeln auch. Merkst du bei seitlichen Kameraschwenks, die deshalb kaum gemacht werden.

Ich bin davon ausgegangen, dass gerade bei niedrigen FPS g-sync seine eigentliche Wirkung entfaltet und durch die gleichmäßige Verteilung dann dafür sorgt, dass dem menschliche Auge eine höhere FPS-Anzahl vergegauckelt wird, als ihm tatsächlich eigentlich geboten wird, das subjektive Empfinden dadurch aber trotzdem dem bei wesentlich höheren FPS entspricht.

Wenn das nicht der Fall ist, dann ist die Sache doch nicht der weiteren Rede wert.

#44
2013-10-28, 14:39:17
Ich bin davon ausgegangen, dass gerade bei niedrigen FPS g-sync seine eigentliche Wirkung entfaltet und durch die gleichmäßige Verteilung dann dafür sorgt, dass dem menschliche Auge eine höhere FPS-Anzahl vergauckelt wird, als ihm eigentlich geboten wird, das subjektive Empfinden aber dem bei wesentlich höheren FPS entspricht.

Wenn das nicht der Fall ist, dann ist die Sache doch nicht der weiteren Rede wert.
Es gibt keine gleichmäßigere Verteilung. Das kann G-Sync schlicht nicht leisten.
Der Vorteil ist, dass man nicht auf einige wenige feste Frameraten beschränkt ist.

Leistung für 44 FPS führt dann halt auch zu 44 tatsächlichen FPS.
Und nicht wie bei V-Sync zu 30 beim 60Hz Monitor, 40 beim 120Hz Monitor oder 36 beim 144Hz Monitor.

aufkrawall
2013-10-28, 14:44:22
Ich bin davon ausgegangen, dass gerade bei niedrigen FPS g-sync seine eigentliche Wirkung entfaltet und durch die gleichmäßige Verteilung dann dafür sorgt, dass dem menschliche Auge eine höhere FPS-Anzahl vergegauckelt wird, als ihm tatsächlich eigentlich geboten wird, das subjektive Empfinden dadurch aber trotzdem dem bei wesentlich höheren FPS entspricht.

Wenn das nicht der Fall ist, dann ist die Sache doch nicht der weiteren Rede wert.
Mir fällt gerade kein Spiel ein, dass ich mit weniger als 30fps gespielt habe. Außer Crysis 1 vor sechs Jahren.

Sven77
2013-10-28, 14:48:21
Kinofilme ruckeln auch. Merkst du bei seitlichen Kameraschwenks, die deshalb kaum gemacht werden.

Filme haben zeitliches Antialiasing in Form von Belichtungszeit sonst wären 24p nicht nur bei Schwenks zu wenig. Man kann Kino/Video nicht mit diskreten Bildern aus Echtzeitgrafik vergleichen

Hugo78
2013-10-28, 14:50:08
Ich bin davon ausgegangen, dass gerade bei niedrigen FPS g-sync seine eigentliche Wirkung entfaltet

Tut es auch, zwischen 30 - 177Hz/fps, hat man mit G-Sync immer ein flüssigeres Bild als ohne.

Ätznatron
2013-10-28, 14:52:47
Es gibt keine gleichmäßigere Verteilung. Das kann G-Sync schlicht nicht leisten.
Der Vorteil ist, dass man nicht auf einige wenige feste Frameraten beschränkt ist.

Leistung für 44 FPS führt dann halt auch zu 44 tatsächlichen FPS.
Und nicht wie bei V-Sync zu 30 beim 60Hz Monitor, 40 beim 120Hz Monitor oder 36 beim 144Hz Monitor.

Dann ist es ein nettes Feature, aber mehr auch nicht.

"Most amazing thing ever"?

Nee.

@aufkrawall

Da gibt's bei mir so einige jedenfalls, vorwiegend aus dem Bereich Simulation.

PS: Den Beitrag oben habe ich vorhin ein wenig geändert (umformuliert), ich hoffe nicht, dass es euch stört. Die darin gemachte Aussage hat sich jedenfalls nicht ändern sollen.

aufkrawall
2013-10-28, 15:02:55
Dann ist es ein nettes Feature, aber mehr auch nicht.

"Most amazing thing ever"?

Nee.

Finde schon. Dass es unterhalb von 30fps nicht geht, ist eventuell der Kompatibilität mit den Monitoren geschuldet.

N0Thing
2013-10-28, 15:21:33
Tester beschreiben ein angenehmes Spielgefühl bei 30 FPS.

Also schließe bzw. vermute ich daraus - denn immerhin ist die Einzelbildabfolge ja dann in etwa identisch zu der ruckelfrei erlebten Einzelbildabfolge von Kinofilmen -, dass diese 30 FPS völlig ausreichen.

Ein Spiel ist kein Film. Dementsprechend mögen 30 fps mit g-sync angenehmer sein als mit v-sync, nur hat das keine Aussagekraft darüber, ob 60 fps nicht generell angenehmer wären. Und das sind sie in den meisten Spielen, denn es kommt ja auch auf die Eingabe des Spielers und die Rückmeldung des Spiels an den Spielers an.

Dann ist es ein nettes Feature, aber mehr auch nicht.

"Most amazing thing ever"?

Nee.


Abseits vom Marketing ist g-sync das, was es sein soll. Eine bessere Alternative zu v-sync "on" (z.B. kein Verlust der fps) und v-sync "off" (kein tearing), sofern nicht irgendwann ein Nachteil bekannt wird.

"Most amazing thing ever" ist natürlich Marketing, das sollte dir eigentlich auch bewußt sein, oder? Andererseits, was gab es in den letzten 10 Jahren, das ähnlich viele Vorteile gebracht hat?

Knuddelbearli
2013-10-28, 16:07:24
man muss weiterhin min fps über 30 haben?

mäh dann nützt es mir ja noch weniger. spieel vor allem rpgs ( gothic witcher ) und Strategiespiele. da sind avg 40 fps meist locker genug, 40füs bedeutet aber auch das man öfters mal unter 30 fps kommt

Iruwen
2013-10-28, 16:16:58
Ich frag mich wovon einige nachts träumen. Zaubern kann NV auch nicht :rolleyes:

Knuddelbearli
2013-10-28, 16:19:51
naja sag mir einen grund wieso es ein 30 fps limit geben sollte ?

falls das die Hintergrundbeleuchtung nicht schafft könnte man Frequenz ja einfach verdoppeln und das bild 2 mal darstellen. ist immer noch besser als gar nichts.

Hat für mich den faden Beigeschmack das da NV einfach sparen wollte, und das wo man bei der Karte schon NV Aufschlag zahlt einen speziellen Monitor benötigt der sicher schon mehr kostet als vergleichbare und dann nochmal 100e für den Adapter

#44
2013-10-28, 16:24:03
könnte man Frequenz ja einfach verdoppeln und das bild 2 mal darstellen. ist immer noch besser als gar nichts.
Genau das passiert auch. Es ist nicht so, dass dann kein Bild mehr kommt oder die physikalische Darstellung leidet.
Aber dann ist's halt vorbei mit der Stotterfreiheit und man kann zu recht sagen G-Sync funktioniert nicht mehr.

Knuddelbearli
2013-10-28, 16:25:21
wrenn das so gemacht wird wieso sollte es mit stotterfreiheit vorbei sein?

Gipsel
2013-10-28, 16:26:10
naja sag mir einen grund wieso es ein 30 fps limit geben sollte ?

falls das die Hintergrundbeleuchtung nicht schafft könnte man Frequenz ja einfach verdoppeln und das bild 2 mal darstellen. ist immer noch besser als gar nichts.Die Hintergrundbeleuchtung sollte kein Problem sein. Aber es gibt irgendwo ein Limit der Halteschaltung für die einzelnen Pixel, so daß die anfangen, ihren Wert zu vergessen. Da kann es sein, daß Panels, die für 144Hz ausgelegt wurden, deutliche Schwächen aufweisen (also bei deutlich mehr als 30ms zwischen den Refreshs anfangen würden, die Farben zu verändern). Aber mit einem entsprechenden Paneldesign, sollten auch unter 30Hz kein Problem darstellen.
Das ist halt auch ein Teil des Unverständlichen an dieser G-Sync-Platine zum Einsatz in Monitoren (neben dem Fakt, daß absolut unklar ist, für was der riesige Chip und die Menge Speicher darauf eigentlich nötig sind, normalerweise sollte das für die Panelhersteller sehr kostengünstig durch kleine Modifikationen in der Treiberelektronik für das Panel machbar sein): die optimalen Parameter zur Ansteuerung sind panel-spezifisch.

#44
2013-10-28, 16:33:55
wrenn das so gemacht wird wieso sollte es mit stotterfreiheit vorbei sein?

Bei 30 klappt es noch.
Bei 29 muss dann schon ein Frame dupliziert werden.
Bei 28 werden 2 Frames dupliziert.
etc.

Wenn unregelmäßig Frames dupliziert werden, dann gibt es halt ein Stottern.

Man könnte jetzt sagen: Dann verdoppeln wir jeden Frame - problem gelöst, selbst ein 60Hz Display kommt mit 58 (2x29)Frames klar.
Ist aber nicht. Solange man nicht 100% vorhersagen kann wann der Nächste echte Frame kommt ist die Verdopplung problematisch. Zu früh und ich muss verdreifachen. Zu spät und ich kann den nächsten Frame nicht in dem Moment anzeigen in dem er da ist.

Das ist jetzt aber Spekulation meinerseits - wie es konkret funktioniert weiß ich noch nicht. Google ist da nicht sehr ergiebig.

Knuddelbearli
2013-10-28, 16:37:17
wieso muss bei 28 fps 2 frames dupliziert werden?

Monitor wird einfach auf 58 Hz gefahren und das bild 2 mal ausgegeben. und das problem das man nicht weiss wann der nächste frame kommt gibt es ja auch über 30 fps

Hugo78
2013-10-28, 16:37:58
einen speziellen Monitor benötigt der sicher schon mehr kostet als vergleichbare und dann nochmal 100e für den Adapter

Es sind normale 120/144 Monitore und der Aufpreis ggü. dem Model ohne G-Sync beträgt nach Stand der Dinge $50.

Hübie
2013-10-28, 16:39:51
Und was für einen Adapter meint er? :|

Hugo78
2013-10-28, 16:42:40
Es soll ein Nachrüstkit für den ASUS VG248QE geben, als Preis stehen hier $75 im Raum.
Da mach ich mir auch noch Hoffnung drauf, weil mein ASUS VG278HE nur eine Nummer größer ist, aber ansonst baugleich ist.

#44
2013-10-28, 16:42:45
wieso muss bei 28 fps 2 frames dupliziert werden?

Monitor wird einfach auf 58 Hz gefahren und das bild 2 mal ausgegeben. und das problem das man nicht weiss wann der nächste frame kommt gibt es ja auch über 30 fps
Ja, aber man kriegt halt im schlimmsten Fall einen ganze Mindestdauer des Refreshcycle an Lag. Und da kann man schlicht nicht mehr sagen: Funktioniert wie beschrieben.
Ohne Duplizieren kann man sich halt absolut sicher sein, dass der aktuelle Frame zeitlich genau dahin gehört wo er ausgegeben wird.

Im Detail ist es wohl so: Der Monitor wartet 33ms - wenn dann kein Frame kommt wird dupliziert.
http://techreport.com/blog/25542/a-few-thoughts-on-nvidia-g-sync

Knuddelbearli
2013-10-28, 16:45:49
Also mein Informationsstandard ist bisher so

es gibt 2 Möglichkeiten.

Monitor mit Adapterplatz zum selbernachrüsten. Monitor kostet 10-20€ mehr ( bei exotischen Modellen wie ips + 120 HZ sicher auch deutlich mehr wenns überhaupt welche dafür gibt ) und dazu die Platine / Adapter für 100$

Oder Monitor der bereits G-Synch ready ist, also alles bereits verbaut ist, wo man bisher aber noch nix genaueres zum Preispunkt weiss.

Falls ich wo falschliege bitte mit Quelle berichtigen.

Knuddelbearli
2013-10-28, 16:47:58
Im Detail ist es wohl so: Der Monitor wartet 33ms - wenn dann kein Frame kommt wird dupliziert.
http://techreport.com/blog/25542/a-few-thoughts-on-nvidia-g-sync

Habe den Artikel jetzt nur überflogen da mein Eng leider sehr mies aber wenn das wirklich so funktioniert. Wie sollte man da bitte einen brauchbaren Inputlag zusammenbekommen? Er mag zwar kleiner sein wie mit Vsynch aber genau wie bei dynamischen Vsynch gibt es dafür das Problem das es andauernd unterschiedlich großen Inputlag gibt

Hübie
2013-10-28, 16:48:24
Ich hatte es so verstanden: Platine für exklusive Modelle zum (selber) nachrüsten und Monitor mit integriertem G-Sync Modul.

Knuddelbearli
2013-10-28, 16:50:36
jau genau so habe ich es auch verstanden!

man zahlt also bis zu 3 mal!
NV Aufpreis, Monitoraufpreis und Modul ( wobei es letzere 2 auch zusammen gibt wird aber vermutlich da die nachfrage nicht extrem hoch sein wird meistens bei nachrüstbar bleiben )

Und wenn es jetzt wirklich nicht unter 30 FPS funktioniert sehe ICH wirklich keinen Sinn mehr dahinter da es doch gerade dort am meisten nutzen würde

#44
2013-10-28, 16:53:10
Habe den Artikel jetzt nur überflogen da mein Eng leider sehr mies aber wenn das wirklich so funktioniert. Wie sollte man da bitte einen brauchbaren Inputlag zusammenbekommen? Er mag zwar kleiner sein wie mit Vsynch aber genau wie bei dynamischen Vsynch gibt es dafür das Problem das es andauernd unterschiedlich großen Inputlag gibt
Naja, dass ist ja ein Problem des Outputs wenn man unter 30Hz fällt. Das dargestellte Spiel läuft auf dem PC ja ohne etwas davon zu wissen.

Und dass man mit niedrigen (schwankenden) Framerates kein ansprechendes Eingabeverhalten hat, ist auch ohne G/VSync nichts neues.

Hübie
2013-10-28, 16:53:31
Na du vielleicht nicht :tongue:
Scott schreibt übrigens dass jenseits der 30-ms-Grenze das vorherige Bild erneut gezeichnet wird.

Knuddelbearli
2013-10-28, 16:55:40
also doch so wie von mir angedacht? wieso sagt dann aufkrawall dass das nicht funktioniert?

@ 44 das mit dem schwankendem inputlag bezieht sich aber auch alle fps nicht nur auf die niedrigen

Hübie
2013-10-28, 17:01:32
Na ja. Kehrwert is ja Millisekunden und die verringern sich mit steigender Bildrate logischerweise ;)

N0Thing
2013-10-28, 17:02:54
jau genau so habe ich es auch verstanden!

man zahlt also bis zu 3 mal!
NV Aufpreis, Monitoraufpreis und Modul ( wobei es letzere 2 auch zusammen gibt wird aber vermutlich da die nachfrage nicht extrem hoch sein wird meistens bei nachrüstbar bleiben )

Und wenn es jetzt wirklich nicht unter 30 FPS funktioniert sehe ICH wirklich keinen Sinn mehr dahinter da es doch gerade dort am meisten nutzen würde

Du zahlst einmal mehr. Nämlich für den Monitor, der durch das g-sync Modul mehr kostet als das gleiche Modell ohne.
Einzelne Module zum nachrüsten wird es vereinzelt für kompatible Monitore geben, das ist wird aber scheinbar die Ausnahme sein.

Wenn du generell mit Einstellungen spielst, bei denen die Frameraten öfters unterhalb von 30fps fallen, gehörst du einfach nicht zur Zielgruppe dieses Produktes.
Möglich ist das Spielen auch mit Frameraten unterhalb von 30fps auch mit g-sync, aber die Monitortechnologie ist darauf (noch?) nicht eingestellt. Ohne Zwischenbilder würde es ein pulsierendes Bild ergeben, weil die Helligkeit der Monitore nicht so lange konstant bleibt. Das liegt nicht an der Hintergrundbeleuchtung, sondern an den Kristallen in den LC-Displays, die ihre Ausrichtung verlieren.

Iruwen
2013-10-28, 17:03:05
man zahlt also bis zu 3 mal!
NV Aufpreis, Monitoraufpreis und Modul
Was :confused:

Hugo78
2013-10-28, 17:20:50
Also mein Informationsstandard ist bisher so

es gibt 2 Möglichkeiten.

Es gibt eine Möglichkeit die zu 99,9% der Fall sein wird.
Man kauft einen Monitor der G-Sync kann.

Tom Peterson erklärt aus 1. Hand.
http://youtu.be/KhLYYYvFp9A?t=16m

Was :confused:

Er will es so sehen, trolling halt.

Eggcake
2013-10-28, 17:25:11
Zu 30FPS Min:
Irgendwann wird doch die Bildwiederholrate viel zu gering, das heisst der Monitor fängt an zu flackern. Das nannte Petersen auch als Grund für das Limit.

#44
2013-10-28, 17:26:37
@ 44 das mit dem schwankendem inputlag bezieht sich aber auch alle fps nicht nur auf die niedrigen
Wenn du ohne VSync keine Probleme damit hast, dann würde ich mit GSync auch keine erwarten.

Wenn das ohne VSync schon problematisch ist, dann kann G-Sync auch nichts mehr retten - klar. Aber da liegen die Probleme eh an ganz anderer Stelle.

Knuddelbearli
2013-10-28, 17:36:11
naja inputlag schwankt mit G-Synch doch viel mehr oder vestehe ich da was falsch?

ohne Vsynch habe ich nur die schwanklung die durch die FPS verursacht werden ( 1 Frame )

Bei G-Synch kommt aber ein weiterer inputlag dazu da das system ja nie auf die ms genau wissen wann kann das nächste bild kommt.

Klar ist es nicht viel aber zumindest für mich ist wechselnder inputlag tausendmal schlimmer als gleichbleibender, weshalb ich auch kaum Probleme mit Vsynch @ 60 habe und bei 120 / 144 gar keine mehr

Knuddelbearli
2013-10-28, 17:38:42
Zu 30FPS Min:
Irgendwann wird doch die Bildwiederholrate viel zu gering, das heisst der Monitor fängt an zu flackern. Das nannte Petersen auch als Grund für das Limit.

deshalb auch Bild 2 mal darstellen dann werden aus 29 Hz wieder 58 Hz, klar erzeugt das auch Probleme aber krawall meinte ja das es unter 30 Hz nicht funktioniert und das wäre deutlich schlimmer.

Gibts eigentlich ne Info dazu ob NV vielleicht endlich Lightboost für 2D offiziel erlaubt / freischaltet? ( man es also im Idealfall auch in non 3D Monitoren verbauen kann )

Das zusammen mit G-Synch dürfte schon viel eher als Heiliger Gral gelten als G-Synch alleine

N0Thing
2013-10-28, 17:39:55
Bei G-Synch kommt aber ein weiterer inputlag dazu da das system ja nie auf die ms genau wissen wann kann das nächste bild kommt.

Das weiß das System, der Monitor und Grafikkarte auch nicht ohne v-sync und auch nicht mit v-sync. Das Gute an g-sync im Gegensatz zu v-sync ist, daß es dort auch gar keine Rolle spielt. Der Monitor stellt das Bild dar, sobald es fertig ist und nicht in einem festen Rhythmus. Ergo auch kein extra Inputlag.

Skysnake
2013-10-28, 17:42:11
Sorry, aber das ganze <30 Herz geblubber ist doch echt fürn Arsch. Sorry wenn ich das jetzt so direkt sage, aber bevor man da für GSync oder sonst was Geld ausgibt, sollte man lieber ne schnellere oder zweite GPU kaufen. DA hat man mehr von...

GSync ist interessant wenn man knapp unter 60 FPS ist, oder etwas über 60 ist. Alles andere ist für die Katz.

Hugo78
2013-10-28, 17:47:00
naja inputlag schwankt mit G-Synch doch viel mehr oder vestehe ich da was falsch?

Falsch, genau das Gegenteil ist der Fall.
Inputlag wird bis runter auf 30fps eliminiert.

Bisher hat ein Frame der länger zum zeichnen gebraucht hat, als die Bildwiederholrate des TFTs, immer zwei mal diese Bildwiederholrate erzeugt.
zb. 45fps = 22ms/frame ; 60Hz = 16,6ms/frame (2x) = 33,3ms = 11,3ms Inputlag / Bild = bis zu 339ms Input lag / Sekunde.
Dabei werden dann sogar noch Bilder die die GPU liefert, garnicht vom TFT dargestellt bei fixen 60Hz, weil er nur 30*(2*16,6ms) darstellen kann.

http://www7.pic-upload.de/28.10.13/g35w8oo8tadw.jpg (http://www.pic-upload.de/view-21163188/gsync01.jpg.html)

http://www7.pic-upload.de/28.10.13/8idtx8oa642.jpg (http://www.pic-upload.de/view-21163189/gsync02.jpg.html)

Knuddelbearli
2013-10-28, 17:47:27
hmm ...
glaube so langsam verstehe ichs, dachte das funktioniert anders rum

wie wird das dann das aber geregelt wen fps über Monitor Hz steigen?
FPS Limiter?

und sehe dann erst recht nicht wo das Problem unter 30 fps sein, theoretisch müsste nur der Abstand der letzten 2 Bilder durch 2 dividiert werden, wenn es länger dauert bleibt halt Bild 2 minimal länger wenn es schneller geht minimal kürzer. Ist jetzt für extrem sensible sicher ein unterschied zum verhalten bei 30 fps und mehr aber hundertmal besser als gar kein synch.

Und da die meisten leute kein so geübtes Auge haben oder so sensibel sind würde das auchd eutlich mehr bringen da gerade bei so niedrigen FPS sich G-Synch viel stärker auswirkt

#44
2013-10-28, 17:48:31
naja inputlag schwankt mit G-Synch doch viel mehr oder vestehe ich da was falsch?

ohne Vsynch habe ich nur die schwanklung die durch die FPS verursacht werden ( 1 Frame )

Bei G-Synch kommt aber ein weiterer inputlag dazu da das system ja nie auf die ms genau wissen wann kann das nächste bild kommt.

Klar ist es nicht viel aber zumindest für mich ist wechselnder inputlag tausendmal schlimmer als gleichbleibender, weshalb ich auch kaum Probleme mit Vsynch @ 60 habe und bei 120 / 144 gar keine mehrIn Hinsicht auf Lag verhält es sich nicht anders als VSync off.
Wenn ein Bild fertig ist, wird es ausgegeben. Keine weiteren Umwege.
Nur dass der Monitor sein Timing nicht mehr unabhängig selbst bestimmt und damit nicht Tearen kann.

Erst bei der Maximalrate des Monitors kommt es zu verzögernden Effekten durch die Limitierung. Da wird allerdings nicht die Ausgabe am Monitor verzögert, sondern es sollte die komplette GPU warten müssen - das Gefühl sollte sich von konstanten, durch die Leistung der verbauten GPU limitierten 144fps nicht unterscheiten.

G-Sync interessiert sich ausserdem nicht für den nächsten Frame - für die Funktion ist schlicht unwichtig wann er kommt. Ausser unterhalb der 30fps mit dem Zwangsrefresh.

und sehe dann erst recht nicht wo das Problem unter 30 fps sein, theoretisch müsste nur der Abstand der letzten 2 Bilder durch 2 dividiert werden, wenn es länger dauert bleibt halt Bild 2 minimal länger wenn es schneller geht minimal kürzer. Ist jetzt für extrem sensible sicher ein unterschied zum verhalten bei 30 fps und mehr aber hundertmal besser als gar kein synch.
Die Idee ist ja kein Hexenwerk. Daher gehe ich davon aus, dass man sich bei NVidia schon Gedanken darüber gemacht hat. Und das anschließend verworfen wurde weil es eben nicht so ist.

Skysnake
2013-10-28, 17:58:20
G-Sync interessiert sich ausserdem nicht für den nächsten Frame - für die Funktion ist schlicht unwichtig wann er kommt. Ausser unterhalb der 30fps mit dem Zwangsrefresh.

Das würde ich jetzt nicht sagen. Wir wissen noch nicht, wie das genau läuft!

Wenn du gar keine Rücksicht nimmst, kann! es wieder zu µRucklern kommen.

aufkrawall
2013-10-28, 18:00:18
GSync ist interessant wenn man knapp unter 60 FPS ist, oder etwas über 60 ist. Alles andere ist für die Katz.
Ne, für SP-Spiele könnens schon weniger sein.
60fps sind eh nicht flüssig, get over it...

#44
2013-10-28, 18:03:28
Wenn du gar keine Rücksicht nimmst, kann! es wieder zu µRucklern kommen.
Daran zweifle ich mal sehr stark. Wie soll es da zu mehr Microruckeln kommen, als bei jeder anderen Single-GPU? Zu so einer Behauptung hätte ich gerne ein konstruiertes, plausibles Fallbeispiel.

Skysnake
2013-10-28, 18:08:29
Gibts hier schon im Thread. Einfach paar SEiten zurückblättern.

Man sollte eine Zielfrequenz haben, ansonsten kann es zu großen Schwankungen in der DArstellung kommen.

#44
2013-10-28, 18:11:23
Gibts hier schon im Thread. Einfach paar SEiten zurückblättern.
Gibt es nicht - wenn du dein Beispiel meinst, in dem jeder 2. Frame auf unerklärt magische Weise 6x so viel Rechenleistung benötigt.

Das hätte auch bei Single-GPU ohne G-Sync zu Mikroruckeln geführt. Das ist letztlich einfach nicht plausibel.

Gipsel
2013-10-28, 18:30:50
Zu 30FPS Min:
Irgendwann wird doch die Bildwiederholrate viel zu gering, das heisst der Monitor fängt an zu flackern. Das nannte Petersen auch als Grund für das Limit.Das ist aber völliger Schwachsinn. Was soll bei kontinuierlich leuchtendem LED-Backlight flackern?
Vermutlich ist bei einigen Panels die Halteschaltung der Pixel nicht stabil genug, so daß nach zu langer Wartezeit die Farbwerte in den Pixeln anfangen wegzulaufen. Aber das ist stark panelspezifisch (also muß nV da konservativ rangehen) und zeigt, daß die Panelhersteller das am besten selber vorsehen sollten und daß das nachträglich Ranfrickeln suboptimal ist. Denn die allermeisten Panels sollten wohl auch mit deutlich unter 30Hz Refreshrate noch klarkommen.

Hugo78
2013-10-28, 18:36:12
Das ist aber völliger Schwachsinn. Was soll bei kontinuierlich leuchtendem LED-Backlight flackern?

Zumindest PWM Backlight flimmert.
http://www.prad.de/new/monitore/specials/backlight.html
http://www.prad.de/new/monitore/specials/backlight-teil2.html

Hatte ich auch an meinem 60Hz Dell IPS, da wurde man schnell müde.

Beim aktuellen 144Hz Display verwendet ASUS deutlich höhere Frequenzen.
http://www.prad.de/new/monitore/test/2012/test-asus-vg278he-teil7.html#Backlight

StefanV
2013-10-28, 18:37:53
Wenn du gar keine Rücksicht nimmst, kann! es wieder zu µRucklern kommen.
Genau das ist das Problem, was ich hier sehe. Man hat ja einen völlig asymetrischen Abstand zwischen den Frames (worst case). Also genau das, was man eigentlich als µRuckler bezeichnen würde. Bzw was wir so bezeichnen. Eben nun verursacht durch den Schirm.

Also ich weiß jetzt echt nicht, ob das jetzt soo ein Vorteil ist. Man tauscht hier etwas Lag bzw Tearing gegen µRuckler...
Daran zweifle ich mal sehr stark. Wie soll es da zu mehr Microruckeln kommen, als bei jeder anderen Single-GPU? Zu so einer Behauptung hätte ich gerne ein konstruiertes, plausibles Fallbeispiel.
1. WAS sind µRuckler?!
Antwort: Asymetrischer Abstand zwischen einzelnen Frames. Also einmal 5ms, dann 50ms usw.

2. Was macht G-Sync?!
Antwort: Asymetrische Abstände zwischen Frames.

Wo willst jetzt keine µRuckler haben?! Gut, mag nicht soo stark sein, aber immer noch nicht das, was man eigentlich haben will...

Schaffe89
2013-10-28, 18:42:41
Ich binja gespannt wie das in der Praxis dann beurteilt wird, tippe darauf dass es ein Reinfall wird, weil es technisch bedingt sehr oft nicht funktionieren wird, bei der Kombination bestimmter Engines mit dem Treiber und G-sync.

Ich tippe darauf dass die Nachteile die man ohen Gsync hat nicht aufgewogen werden können, das ist jetzt Schwarzmalerei.

Ronny145
2013-10-28, 18:44:39
Ich binja gespannt wie das in der Praxis dann beurteilt wird, tippe darauf dass es ein Reinfall wird, weil es technisch bedingt sehr oft nicht funktionieren wird, bei der Kombination bestimmter Engines mit dem Treiber und G-sync.

Ich tippe darauf dass die Nachteile die man ohen Gsync hat nicht aufgewogen werden können, das ist jetzt Schwarzmalerei.



Du tippst es nicht sondern erhoffst es dir.

Skysnake
2013-10-28, 19:00:21
Gibt es nicht - wenn du dein Beispiel meinst, in dem jeder 2. Frame auf unerklärt magische Weise 6x so viel Rechenleistung benötigt.

Das hätte auch bei Single-GPU ohne G-Sync zu Mikroruckeln geführt. Das ist letztlich einfach nicht plausibel.
1. Ist es ein Beispiel, dass den Sachverhalt möglichst deutlich und einfach zeigen soll
2. Tritt der Effekt auch auf, wenn man die Differenz kleiner macht
3. Ist die Anzahl der Wiederholungen völlig egal. Es sollte nur die Sache verdeutlichen. Der Effekt tritt ja aber auch sonst auf
4. Hätte es in dem Beispiel eben NICHT! mit VSync on zu Rucklern geführt... Darum dreht sich ja das Beispiel... Es zeigt, das bei "blöder" Konstellation man wieder sic µRuckler einfängt, wenn man kein Framemetering macht, und eben eine Zielfrequenz vorgibt. Wenn man das aber macht, wird der Lag zwischen VSync off und GSync aber wieder größer.

Ich binja gespannt wie das in der Praxis dann beurteilt wird, tippe darauf dass es ein Reinfall wird, weil es technisch bedingt sehr oft nicht funktionieren wird, bei der Kombination bestimmter Engines mit dem Treiber und G-sync.

Im Schnitt sollte es eigentlich mit hoher Wahrscheinlichkeit ganz gut funktionieren. Aber ob "ganz gut" ausreichend ist? Wenns statt alle 30s halt nur alle 2min ruckelt, hat man nicht wirklich arg viel gewonnen. Zumindest nicht für den Aufwand, der da betrieben wird.


Ich tippe darauf dass die Nachteile die man ohen Gsync hat nicht aufgewogen werden können, das ist jetzt Schwarzmalerei.
Ja, das wird wohl Schwachrzmalerei sein. Besser wird es schon werden, aber ob es eben den Aufwand rechtfertigt, daran darf durchaus gezweifelt werden.

#44
2013-10-28, 19:21:20
Genau das ist das Problem, was ich hier sehe. Man hat ja einen völlig asymetrischen Abstand zwischen den Frames (worst case). Also genau das, was man eigentlich als µRuckler bezeichnen würde. Bzw was wir so bezeichnen. Eben nun verursacht durch den Schirm.

Also ich weiß jetzt echt nicht, ob das jetzt soo ein Vorteil ist. Man tauscht hier etwas Lag bzw Tearing gegen µRuckler...

1. WAS sind µRuckler?!
Antwort: Asymetrischer Abstand zwischen einzelnen Frames. Also einmal 5ms, dann 50ms usw.

2. Was macht G-Sync?!
Antwort: Asymetrische Abstände zwischen Frames.

Wo willst jetzt keine µRuckler haben?! Gut, mag nicht soo stark sein, aber immer noch nicht das, was man eigentlich haben will...
Das Mikroruckler (teils rythmisch) ungleichmäßige Frameverteilung ist, ist mir sehrwohl bewusst. Das beschreibt ihre Existenz, erklärt aber nicht WIE soetwas bei einer Single-GPU aufteten können soll. Bei Multi-GPU ist das klar beschreibbar warum es zu ungleichmäßigen Framezeiten kommt. Für G-Sync wurde postuliert es könnte passieren aber in keiner Weise auch nur annähernd - von schlüssig reden wir noch nicht mal - der Ursprung benannt.

1. Ist es ein Beispiel, dass den Sachverhalt möglichst deutlich und einfach zeigen soll
Es ist Bullshit weil nicht einmal begründet ist wie es zu diesem Verlauf kommen soll. Bei Multi-GPU kann man begründen worin die Ursache liegt.
Ergo: Ohne diese Begründung existiert kein plausibles Beispiel.

Schaffe89
2013-10-28, 19:32:02
Du tippst es nicht sondern erhoffst es dir.

Ich erhoffe es mir nicht, sondern ich gehe davon aus, dass das Feature untergehen wird, weil gebunden an einen Hersteller und sich keine Sau für interessiert, außer wenige.

Ergo wird das wieder abgesetzt und die Verantwortung zurück an die Monitorhersteller gegeben, oder AMD macht etwas offenen zusammen mit den Monitorherstellern.

N0Thing
2013-10-28, 19:47:11
Genau das ist das Problem, was ich hier sehe. Man hat ja einen völlig asymetrischen Abstand zwischen den Frames (worst case). Also genau das, was man eigentlich als µRuckler bezeichnen würde. Bzw was wir so bezeichnen. Eben nun verursacht durch den Schirm.

Also ich weiß jetzt echt nicht, ob das jetzt soo ein Vorteil ist. Man tauscht hier etwas Lag bzw Tearing gegen µRuckler...

1. WAS sind µRuckler?!
Antwort: Asymetrischer Abstand zwischen einzelnen Frames. Also einmal 5ms, dann 50ms usw.

2. Was macht G-Sync?!
Antwort: Asymetrische Abstände zwischen Frames.

Wo willst jetzt keine µRuckler haben?! Gut, mag nicht soo stark sein, aber immer noch nicht das, was man eigentlich haben will...

Es gibt keinen Grund, warum man mit G-sync mehr µRuckler haben sollte als mit v-sync off. Da sich bisher niemand über µRuckler bei Single-GPu beschwert hat, abseits von der AMD-Problematik bei Skyrim und Borderlands 2 mit älteren Treibern, sehe ich da mit G-sync keine neuen Probleme aufkommen.

N0Thing
2013-10-28, 19:53:21
Ich erhoffe es mir nicht, sondern ich gehe davon aus, dass das Feature untergehen wird, weil gebunden an einen Hersteller und sich keine Sau für interessiert, außer wenige.

Ergo wird das wieder abgesetzt und die Verantwortung zurück an die Monitorhersteller gegeben, oder AMD macht etwas offenen zusammen mit den Monitorherstellern.

Ich glaube auch nicht an eine Verbreitung im Massenmark. Wird genauso eine Nische bleiben wie 120Hz/144Hz Monitore.
Aber vielleicht wir dadurch eine Entwicklung angestoßen, die später mal allen zu Gute kommt.
Zumindest kann ab nächstem Jahr jeder, der daran Interesse hat und über das nötige Geld verfügt, diese Technologie nutzen.

Iruwen
2013-10-28, 20:00:34
Im Schnitt sollte es eigentlich mit hoher Wahrscheinlichkeit ganz gut funktionieren. Aber ob "ganz gut" ausreichend ist? Wenns statt alle 30s halt nur alle 2min ruckelt, hat man nicht wirklich arg viel gewonnen. Zumindest nicht für den Aufwand, der da betrieben wird.

Deutlich weniger Ruckler als vorher bei weniger Input lag dürfte den meisten die sich dafür interessieren einmalige 100€ absolut wert sein wenn man sich ansieht was Hardware im Enthusiastenbereich für weniger Effekt sonst ausgegeben wird. Um Ottonormaluser gehts dabei ja gar nicht.

Gipsel
2013-10-28, 20:36:23
Zumindest PWM Backlight flimmert.
http://www.prad.de/new/monitore/specials/backlight.html
http://www.prad.de/new/monitore/specials/backlight-teil2.html

Hatte ich auch an meinem 60Hz Dell IPS, da wurde man schnell müde.

Beim aktuellen 144Hz Display verwendet ASUS deutlich höhere Frequenzen.
http://www.prad.de/new/monitore/test/2012/test-asus-vg278he-teil7.html#BacklightDie Modulationsfrequenz des Backlights zur Helligkeitsregelung mit PWM sollte weit höher liegen als die Refreshrate und davon unabhängig sein. Oder da ist irgendwas kaputt oder es ist einfach ein Schrottpanel.
Was flimmern kann, ist wenn die Panels mit Black Stripe-Insertion arbeiten und einen festen duty cycle benutzen (z.B. 55%, bei 60Hz sind das 8,66ms an, 8ms aus, bei 30 Hz flimmert es wie Sau, weil das Backlight dann volle 16 ms aus wäre). Aber da würde ich die Schuld auch dem Panel-Hersteller bzw. dessen Ansteuerung geben.

Edit: Dein letzter Link für den Asus VG278HE ist so ein Beispiel. Warum zur Hölle benutzen die für's PWM nur eine Modulationsfrequenz von 100Hz bei 50Hz Refreshrate (bzw. 120/60Hz)? Das ist ein Bereich, den ich noch nicht wirklich als PWM ansehen würde. Und warum ist das an die Refreshrate gekoppelt? Da wurden wirklich ein paar idiotische Designentscheidungen getroffen. Mit CCFL-Backlight war das vielleicht notwendig bzw. kam man nicht höher, aber bei LEDs spricht nicht wirklich was dagegen, z.B. 1kHz oder gar noch höher als Modulationsfrequenz zu wählen. So eine LED bekommst Du innerhalb von wenigen µs an und auch wieder ausgeschaltet. Und entsprechend schnelle Schalter sind auch kein Problem (zum Vergleich, die Schaltregler zur Stromversorgung von CPUs und GPUs laufen oft mit Frequenzen im MHz-Bereich).
Eine stroboskopische Beleuchtung von sehr kleinen (50µm), sich schnell bewegenden (~60m/s) Objekten habe ich selber schon mal gebastelt. Da hat eine 5W-LED <5µs lange Lichtblitze mit Wiederholraten von bis zu 100kHz abgegeben. Das ist eigentlich recht einfach. Und da siehst Du garantiert nichts mehr flimmern. Da benötigst Du auf jeden Fall technische Hilfsmittel, um die Pulsbreiten zu messen und überhaupt zu sehen, daß die LED nicht einfach immer an ist.

Hugo78
2013-10-28, 21:13:28
Ich kann dir nur sagen, was mir zu dem Thema bisher aufgefallen ist.
Mein vorheriger u2311h 60Hz IPS von Dell hatte (anscheinend) eine sehr niedrige PWM Frequenz.
Ich hab das nicht gesehen, aber bemerkt dass ich an dem Gerät schnell müde geworden bin.
Erst denkst du du wirst alt, was auch der Fall ist, dann hab ich den PRAD-artikel dazu entdeckt und wie ich dann den 144Hz hatte,
konnte ich das für mich auch bestätigen, an dem Gerät kann ich wieder bis "zum umfallen" sitzen. :smile:

Warum die Hersteller das so bauen, keine Ahnung.
Aber ich nehm Tom Peterson schon ab, dass man nicht unter 30fps geht, weil es dann zum flimmern kommen kann.
Das muss ja nicht bedeuten, dass alle Hersteller gleich schlecht arbeiten mit PWM Backlight.
Aber die schlechteste Lösung muss Nvidia ebend als unterestes Limit berücksichtigen.

Btw ... zum Dell gibts auch einen Clip auf der Röhre.
BogPfvzTTPc

robbitop
2013-10-29, 09:26:41
Ne, für SP-Spiele könnens schon weniger sein.
60fps sind eh nicht flüssig, get over it...
Ich vermute, dass man das so pauschal gar nicht sagen kann.

Das hängt von mehreren Komponenten ab:

- Maß der gleichmäßigen Verteilung der Frames über die Zeitachse
- Eingabelatenz in der Renderpipeline
- ob zwischen den Bildern gestrobt wird

Wenn diese Voraussetzungen natürlich suboptimal sind, kommen einem 60 fps nicht flüssig vor. Es ist schwierig realisierbar, dass diese Voraussetzungen immer und zu jedem Zeitpunkt passen.

Skysnake
2013-10-29, 10:49:24
Definitiv,

wenn man dem neusten Bericht von Wccftech (http://wccftech.com/nvidia-g-sync-asus-monitors-brands-q3-2014/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29) aber glauben schenken darf, dann ist GSync eh erstmal gar kein Thema.

Wenn die meisten erst in Q3/14 kommen, dann ist GSync erstmal völlig irrelevant bzgl nVidia vs AMD für diese Generation.

Ich versteh echt nicht, warum man mit so ner Technik soooo früh kommt. Im Prinzip könnte AMD die Zeit locker nutzen um was ähnliches zu entwickeln oder die Kompabilität her zu stellen. Zudem wird der GSync hype bis zum Launch schon wieder extrem abgeflaut sein.

Das Einzige was man damit gerade erreicht hat sind einige Nebelkerzen zum Launch der R9 290X.

Jetzt ist vielleicht auch klar, warum das son fettes Ding war... Die haben einfach irgend Developerboard von den Monitorherstellern oder so genommen, womit womöglich sogar CPUs emuliert werden, und haben da halt was drauf gekippt.

Das macht die Entwicklung deutlich einfacher. Man hat nen fertiges Board, das funktioniert, und man hat deutlich weniger Probleme mit Routing und Timing.

Nach der NAchricht glaub ich nicht, das wir die Platine wirklich mal so in Endkundengeräten sehen werden.

aufkrawall
2013-10-29, 10:54:10
Ich meinte natürlich 60 Vollbilder bei regelmäßigen 16,6ms Abstand.
Der Input Lag ist auch mit Vsync immer eher zu hoch (Frostbite 2/3 mit NV smooth adaptivem Vsync ist da das geringste was ich kenne).

Fakt ist, dass das menschliche Auge weit mehr als 60fps wahrnehmen kann. So gesehen können 60fps nur relativ flüssig sein.
Ich glaub kaum jemand mit 120+Hz Monitor findet 60fps wirklich flüssig. Es gibt noch wahrnehmbaren Motion Judder.

Was soll denn das Strobing bewirken?

klutob
2013-10-29, 11:10:21
Was soll denn das Strobing bewirken?

Mehr Bildschärfe bei Bewegungen, der sogenannte Sample and Hold Effekt.

aufkrawall
2013-10-29, 11:16:30
Ohne Motion Blur wirds noch ruckeliger.

StefanV
2013-10-29, 12:17:47
Ab wann kann man denn die ersten G-Sync Monitore kaufen?

Iruwen
2013-10-29, 12:21:55
Den von Asus bald, andere wohl erst ab Ende 2014:
http://wccftech.com/nvidia-g-sync-asus-monitors-brands-q3-2014/

Schaffe89
2013-10-29, 14:33:07
Haha, lol reine Nebelkerzen von Nvidia, vernünftig kaufbar erst ab Mitte bis Ende 2014, ( also in einem Jahr) vorher spielt man wohl Betatester.

Dafür das die Akündigungen so groß waren ist das ne ziemliche Lachnummer.

Statt "Most Amazing Thing" trifft es wohl eher " Nur vorgestellt weil AMD den Launch der neuen Karten vollzieht und kaum eine Hardware vorzuweisen"

StefanV
2013-10-29, 14:39:08
Den von Asus bald, andere wohl erst ab Ende 2014:
http://wccftech.com/nvidia-g-sync-asus-monitors-brands-q3-2014/
Was ist 'bald'?

'Bald' kann auch in 3 Monaten sein oder in 3 Jahren...

N0Thing
2013-10-29, 14:53:45
Haha, lol reine Nebelkerzen von Nvidia, vernünftig kaufbar erst ab Mitte bis Ende 2014, ( also in einem Jahr) vorher spielt man wohl Betatester.

Davon steht in dem Artikel gar nichts. Nur daß Asus bis dahin einen Exklusivdeal hat. Und Asus wäre schlecht beraten, wenn sie diesen Zeitvorteil nicht nutzen würden, um bis dahin ein komplettes Angebot auf den Markt zu bringen.

Und warum spielt man Beta-Tester? :confused:

klutob
2013-10-29, 15:05:44
Ohne Motion Blur wirds noch ruckeliger.
Ne, das ist nicht mit Motionblur vergleichbar, man erkennt einfach garnichts. Bewege mal ein Fenster schnell über den Desktop und versuche Einzelheiten zu erkennen, das ist "Sample and Hold". Bei einem CRT oder z.B. 2D Lightboost 120Hz LCD, ist das nicht der Fall oder deutlich schwächer.

Schaffe89
2013-10-29, 15:23:29
Und Asus wäre schlecht beraten, wenn sie diesen Zeitvorteil nicht nutzen würden, um bis dahin ein komplettes Angebot auf den Markt zu bringen.

Jetzt muss man also zwingend Kepler, nen Asus Monitor mit Kit haben, noch mehr Nische geht ja gar nicht, wenn das nicht was für Beta User ist, dann weiß ich auch nicht.

Dassele Spiel bei Mantle, erst dachten die meisten die Konsolen würden es unterstützen und jetzt ist es nur eine Portierungsunterstützung, maßgeschneidert auf GCN.

Zudem wenn scheinbar Asus da mitentwickelt hat, sind die ja schön blöd AMD Karten nicht bald auch zu unterstützen, damit nehmen sie sich ordentlich Potenzial.

>Ich würde mal meinen, dass sich die Exclusivität nicht lange hält oder von AMD ein Gegenstück präsentiert wird, immerhin hat AMD noch bis ende 2014 Zeit da was zu machen, denn ab dann könnte es notwenig sein.

N0Thing
2013-10-29, 15:38:53
Beta heißt nicht fertig, in der Testphase. Was das mit Herstellerbindung zu tun hat, sehe ich nicht. Für Freaks, Nerds, Enthusiasten, Fans, Technikinteressierte, Early-adopter, das kann ich unterschreiben. Aber Betatester sind einfach was anderes.

Ob Asus mitentwickelt hat oder nicht, ebenfalls nicht ob andere Hersteller beteiligt waren oder nicht. Kannst du einen Link posten aus dem das klar ersichtlich wird?

Deine Hoffnungen auf AMD in allen Ehren, ich kann mir nicht vorstellen, daß AMD noch Kapazitäten hat, um eine weitere Baustelle auf zumachen und innerhalb von kürzester Zeit (ein Jahr) ein Konkurrenzprodukt bringt.
Ich würde mich freuen, wenn das Prinzip von g-sync zum Standard wird und auf Wunsch mit jedem Monitor an jeder Grafikkarte funktioniert, aber da sehe ich eher die Monitorhersteller als Antreiber und weniger AMD.

gnomi
2013-10-29, 15:53:40
Es ist irgendwie schade, dass beide GPU Hersteller jetzt gerade mit G-Sync und Mantle ihr eigenes Süppchen kochen.
Für mich ist ersteres aber imho fast schon Pflicht. (zu Mantle lässt sich leider noch nichts sagen)
Ich brauche sowieso mal einen besseren Monitor mit mehr als 60 Herz und VSync ist auch mit adaptivem VSync eben noch ein großes Thema.

Iruwen
2013-10-29, 16:10:42
Schön dass Schaffe auf dieser Seite mal wieder seine Denkweise so deutlich nach außen trägt.

PrefoX
2013-10-29, 17:23:10
Wenn g-sync eine absolut gleiche Frametimeverteilung ermöglicht und Tester somit 30 FPS als absolut angenehm spielbar bezeichnen, wozu dann noch "höherhertzige" Monitore, wozu dann noch Grafikkarten für 100 FPS und mehr?

30 FPS sollten dann doch aus der Gamerperspektive völlig ausreichend sein für alles.
30fps ruckeln doch total... egal ob jetzt mit delay, der natürlich dann doppelt so hoch ist, oder nicht.
60fps kann das auge schon gut sehen. Deswegen isses auch der Standart geworden

Iruwen
2013-10-29, 17:27:52
Ob 30 FPS "total" ruckelig wirken oder nicht hängt auch stark vom Spiel und der Szene ab. Dauerhaft sollte man natürlich nicht so tief liegen, aber wenn der Bereich knapp über 30 spielbar bleibt werden Ausreißer nach unten weniger nervig. Und die 60 wird man dann so oder so nicht durchgängig erreichen. Optimal sind natürlich 100+.

Hugo78
2013-10-30, 00:22:09
Wenn es so kommt, dass ASUS die ersten sechs Monate einen Exklusiv-Deal über G-Sync hat,
unterstreicht es doch nur wie wichtig die Technik für ASUS und wie fokusiert ASUS allgemein im Monitorgeschäft ist.
ASUS kann aktuell auch als einizge Firma schon Ultra HD in Menge liefern.
http://geizhals.at/eu/?cat=monlcd19wide&xf=98_3840x2160

Und es würde mich auch nicht wundern, wenn ASUS G-Sync als erste Firma für ihre Gaming-Notebooks bringt.
Asus hat dieses Jahr 72 Notebooks vorgestellt, kein einziges davon mit einer AMD APU oder AMD dGPU,
sind alles Intel Geräte und 2/3 davon haben eine Geforce als dGPU an Bord.
http://geizhals.at/de/?cat=nb&xf=9_1920x1080~525_ASUS~3310_2013#xf_top

G-Sync wäre die perfekte Ergänzung und Abgrenzung zu Lenovo, HP, Samsung, Sony, Dell oder Acer ect..

Skysnake
2013-10-30, 00:34:22
Asus musste aber gleichzeitig auch massiv Federn lassen, soweit ich die Zahlen richtig im Kopf habe.

Hugo78
2013-10-30, 00:47:39
Wäre um so mehr ein Grund für ASUS sich ein Feature wie G-Sync was kosten zulassen.

maximus_hertus
2013-10-30, 00:53:50
Mindestens 9 Note/Net/Ultrathin-Books sind 2013 mit AMD APUs von ASUS releast worden.

http://geizhals.de/?cat=nb&xf=1482_AMD~525_ASUS~3310_2013#xf_top


Ansonsten ist G-Sync ganz nett auf dem Papier - wird aber wohl keine all zu große Marktrelevanz besitzen (alle TFTs über 200 Euro haben es sehr sehr schwer, idR ist die Granze bei den meisten Kunden bei 150 Euro).

LadyWhirlwind
2013-10-30, 01:09:20
Fraglich ob sich Nvidia mit der Exklusiv-Deal einen gefallen tut. Der Otto-Normalverbraucher wird erstmal nicht wissen was er mit G-Sync überhaupt anfangen soll und darum auch keinen Grund sehen 100 EUR aufpreis zu zahlen, sondern zu einem Monitor in der 150-200 EUR Klasse greifen. Jene die auf gute Bildqualität stehen werden wohl auch schön höherwertige Monitore haben und wohl kaum direkt in den Laden rennen um so ein Monitor zu kaufen.

Nvidia lässt damit der Konkurenz viel Zeit darauf zu reagieren. Was macht wenn AMD in einem halben Jahr hingeht und eine vergleichbare Lösung offen standartisiert?

Knuddelbearli
2013-10-30, 04:19:38
vermutlich hatte Asus da nur irgend ein Patent oder so und hat das nur für exklusivität rausgerückt

Sunrise
2013-10-30, 16:55:07
Kommt ja wie gerufen. Zumindest EIZO hat nun endlich auch offiziel ein 120Hz-(240Hz)Panel.

http://www.computerbase.de/news/2013-10/24-zoll-gaming-monitor-mit-240-hz-panel-von-eizo/

Allerdings auch hier kein G-Sync-Support. Hoffentlich kommt das nach.

Hugo78
2013-10-30, 17:34:30
PCGH hat dazu auch einen Test.
http://www.pcgameshardware.de/LCD-Hardware-154105/Tests/Eizo-Foris-FG2421-Test-1094860/

Der 240Hz Modus ist/wäre natürlich sinnfrei für G-Sync, aber ein 120Hz VA Panel klingt für sich schon sehr lecker.

Timbaloo
2013-10-30, 19:03:24
Oh, das ist sehr nice.

StefanV
2013-10-30, 20:03:53
Jo und bei 'nem 240'Hz' Monitor dürftest auch wenigier Lag und weniger Tearing haben, theoretisch. Also etwas, was G-Sync überflüssig macht ;)

Timbaloo
2013-10-30, 20:07:20
Und würde man sich ein wenig informieren, dann hätte man auch gelesen, dass der input lag im Turbo 240 Modus größer wird.
:facepalm:

Konami
2013-10-30, 20:45:27
Jo und bei 'nem 240'Hz' Monitor dürftest auch wenigier Lag und weniger Tearing haben, theoretisch. Also etwas, was G-Sync überflüssig macht ;)
240 Hz (sofern sie denn echte Hz wären, nicht wie in diesem Fall Frameverdopplung) reduzieren zwar Inputlag und Stuttering, machen aber nicht G-Sync überflüssig, was diese Probleme auf eine völlig andere Art löst.

Wieso hast du eigentlich dieses große Bedürfnis hier rumzutrollen? Gehen die nVidia-Fanbois in die Mantle- und TrueAudio-Threads, um dort allen zu erklären wie überflüssig diese Technologien sind? Glaube nicht.

Hugo78
2013-10-30, 21:17:05
Jo und bei 'nem 240'Hz' Monitor dürftest auch wenigier Lag und weniger Tearing haben, theoretisch. Also etwas, was G-Sync überflüssig macht ;)
Komplett Falsch.
Intern werden laut des Herstellers die Bilder verdoppelt und mit 240 Hertz ausgegeben.
- http://www.pcgameshardware.de/LCD-Hardware-154105/Tests/Eizo-Foris-FG2421-Test-1094860/

Die basteln da nur immer ein komplett schwarzes Bild rein, was das Bild schärfer erscheinen lässt.
Kennt man ähnlich auch schon vom TV, wo es ja schon "400" und gar "800 Hz" gibt.

Mir wärs egal, ich brauch den Turbo bei echten 120 Hz nicht, nehm dafür die höhere Helligkeit mit,
was im pseudo 240 Hz, technikbedingt immer etwas dunkler ist.

robbitop
2013-11-02, 15:39:46
Im Nachbarthread bereits als Frage gestellt.

Ich kann mir aber immernoch nicht vorstellen, wie G-Sync mit Black Frame Insertion funktionieren soll. Das Backlight würde inkonstant pulsieren und außerdem weiß er gar nicht im Voraus, wie lange er die Beleuchtung ausmachen soll, weil er die fps/Frameberechnungszeit des nächsten Frames noch nicht kennt. Das ginge nur, wenn man 2 Frames verzögern würde. Das führt dann wieder zu LAG. Kann mir das jemand erklären?

RLZ
2013-11-02, 16:43:20
Ich kann mir aber immernoch nicht vorstellen, wie G-Sync mit Black Frame Insertion funktionieren soll. Das Backlight würde inkonstant pulsieren und außerdem weiß er gar nicht im Voraus, wie lange er die Beleuchtung ausmachen soll, weil er die fps/Frameberechnungszeit des nächsten Frames noch nicht kennt. Das ginge nur, wenn man 2 Frames verzögern würde. Das führt dann wieder zu LAG. Kann mir das jemand erklären?
Ich habe noch nirgends gelesen, dass die Implementierungen von GSync nicht die Ausgabe mit einer bestimmten Frequenz (e.g. mit strobing Backlight) im Bildschirm synchronisieren.

Falls wirklich keine Synchronisierung passiert, hat man immer noch eine gewisse Vorwarnzeit, weil sich der Framebuffer nicht einfach im Monitor materialisiert, sondern auch einige Zeit zur Übertragung braucht.

Gipsel
2013-11-02, 18:45:01
Ich habe noch nirgends gelesen, dass die Implementierungen von GSync nicht die Ausgabe mit einer bestimmten Frequenz (e.g. mit strobing Backlight) im Bildschirm synchronisieren.

Falls wirklich keine Synchronisierung passiert, hat man immer noch eine gewisse Vorwarnzeit, weil sich der Framebuffer nicht einfach im Monitor materialisiert, sondern auch einige Zeit zur Übertragung braucht.
Das Problem ist die Helligkeit. Wenn Du strobest und das für eine gewisse Helligkeit bei z.B. 120Hz reichen würde, was machst Du, wenn nach 8,3ms kein neues Frame da ist, sondern das z.B. 25ms (bei 40fps) dauert? Geht dann die Helligkeit auf ein Drittel runter? Frameratenabhängige Helligkeit des Bildes ist ja wohl kaum ein gangbarer Weg. Außerdem flimmert das dann wie die Hölle (40Hz Flimmern sieht man bereits sehr gut und ist extrem störend; das wäre bei LCDs sogar noch schlimmer als ein CRT mit 40Hz; im Prinzip ist alles unter 100Hz mit Strobing inakzeptabel, selbst 120Hz sehen viele noch leicht).
Momentan geht mit GSYNC kein Backlight-Strobing. Wurde auf dem nV-Event auch gesagt (z.B. von Carmack).

Den Ausweg habe ich übrigens hier im Thread (oder auch im Technologie-Thread) bereits beschrieben: Ein Blend von Strobing zu kontinuierlichem Backlight. Backlight geht aus bei Ankunft des neuen Frames (Pixelmatrix wird geschrieben), dann der Strobe und anschließend (quasi-)kontinuierliches Backlight, was dann nach dem Strobe solange anbleibt, bis der nächste Frame kommt (der das Backlight dann wieder ausknippst). Dann hat man konstante Helligkeit für alle Frameraten ohne vorher wissen zu müssen, wie lange der Frame dargestellt werden soll, kein Flimmern bei niedrigen Frameraten und trotzdem die bessere Bewegungsschärfe (zumindest bei hohen Frameraten), die dann hin zu langsameren Frameraten kontinuierlich in den bekannten Weichzeichnereffekt bei Bewegungen durch das Hold-Type-Display übergeht. Man hat es immer so gut, wie es bei der Framerate halt geht.

robbitop
2013-11-02, 20:34:58
Was bedeutet eigentlich "Strobe"? Mit der LCD Matrix einen schwarzen Streifen erzeugen bzw ein schwarzes Bild?

Bezüglich der Flüssigkeit der Darstellung und des Lags müsste, sofern man auf VSync verzichten (also mit Tearing leben kann) kann, eine hohe Abtastrate und pulsierendes Backlight ja schon ähnliche Effekte bringen, oder?

Gipsel
2013-11-02, 21:44:33
Was bedeutet eigentlich "Strobe"? Mit der LCD Matrix einen schwarzen Streifen erzeugen bzw ein schwarzes Bild?

Bezüglich der Flüssigkeit der Darstellung und des Lags müsste, sofern man auf VSync verzichten (also mit Tearing leben kann) kann, eine hohe Abtastrate und pulsierendes Backlight ja schon ähnliche Effekte bringen, oder?Das LED-Backlight mal kurz (mit maximaler Helligkeit, die die LEDs hergeben) aufblitzen zu lassen, genau einmal pro Frame. Während des Änderns der Pixel ist das Backlight also aus (reduziert Geisterbilder durch endliche Schaltzeit der Pixel wie bei Black-Stripe-Insertion), und da es nur kurz an ist, vermindert man den Blur-Effekt von bewegten Objekten auf dem Bildschirm (denen man mit dem Auge folgt), einem typischen Artefakt von Hold-Type-Displays.
Vermutlich meinst Du das schon mit dem "pulsierenden Backlight", aber das kann alles mögliche bedeuten. Ein pulsierendes Backlight (mit mehreren Pulsen pro Frame wie bei der PWM-Helligkeitsregelung) tut gegen die hold-type-Bewegungsunschärfe z.B. gar nichts. Strobing hilft eben nur, wenn pro Frame nur genau ein Lichtpuls genutzt wird (was bei variablen Frameraten so alleine erstmal nicht wirklich praktikabel ist). Weiterhin flimmert das unter 120Hz erkennbar (mit Rechteckpulsen registriert man eher das Flimmerns als bei CRTs mit etwas nachleuchtender Phophorschicht oder ebenfalls etwas nachleuchtenden Kaltkathoden- bzw. Leuchtstoffröhren oder Energiesparlampen [die mit 100Hz flimmern, auffällig wird es erst, wenn sie kaputtgehen und auf 50Hz runtergehen]). Bei TVs wird das deswegen mit Zwischenbildberechnung kombiniert (das sind die 200/400/800Hz-Fernseher), was bei Gaming wegen der zusätzlichen Latenz nicht ratsam erscheint.

Skysnake
2013-11-03, 00:09:46
Wobei einen ja auch keiner zwingt, einen Rechteckpuls zu benutzen. Das Problem ist ja "nur", das man bei unkenntnis der Darstellungszeit merkliche Helligkeitsunterschiede zwischen den Bildern bekommen kann.

Ich geh immer noch davon aus, das man mit einer target-Framerate arbeitet.

AnarchX
2013-12-12, 15:11:23
Computerbase mit G-Sync Test: http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-g-sync-im-praxistest/

Offenbar wird eine SLI-fähige GPU benötigt.

Iruwen
2013-12-12, 15:39:24
Grund für dieses Verhalten ist die Tatsache, dass Anno 2070 nicht mit Double- oder gar Triple-Buffer arbeitet.

Wa?

Sven77
2013-12-12, 15:50:20
Gibt es schon einen Anhaltspunkt was das Nachrüstset kosten wird?

aufkrawall
2013-12-12, 15:51:01
Hat CB das eigentlich mal getestet, oder warum schwatzen sie einfach nach, dass es unterhalb von 30Hz auf LCDs ohne Strobing flimmern würde? :rolleyes:
Und diese Aussagen, Tearing würde von der "Engine" abhängen, maan.. :frown:
Bei TombRaider mit Vsync, ist die Bewertung der Frametimes auch käse.
144Hz sind nur eine mittelmäßige Alternative, bei niedrigen fps wird das Tearing wieder sichtbarer und macht etwa Sidescroller unspielbar.

Ich hätte den Test machen sollen. :cool:

MechWOLLIer
2013-12-12, 16:34:29
Dann Bewerbe dich bei uns wenn du so gut bist :)

Die Aussage mit den 30 Hz und Flimmern stammt von Nvidia - die sollten es schon wissen. Wir können es nicht testen, da der Monitor mit G-Sync nunmal nicht unter 30 Hz geht.

Tearing per se hängt nicht von der Engine, das ist richtig. Ändert aber nichts daran, dass das Tearing von Spiel zu Spiel unterschiedlich stark auffällt - bei selber Framerate.

Was genau ist bei den Frametimes bei Tomb Raider Käse?

Die Frameraten bei unserem 144-Hz-Test lagen meistens bei 30-60 FPS, schwankend. Und in dem Bereich gab es immer um Meilen weniger Tearing als bei 60 Hz. Bei 30 FPS gabs auch kaum mehr Tearing als bei einer höheren Framerate. Auch beim Seitwärtsscrollen. Da ist nichts unspielbar.

aufkrawall
2013-12-12, 22:04:41
Dann Bewerbe dich bei uns wenn du so gut bist :)

War etwas getrollt. Handwerklich seh ich da keine groben Schnitzer, mich stören aber die Schlussfolgerungen.


Die Aussage mit den 30 Hz und Flimmern stammt von Nvidia - die sollten es schon wissen. Wir können es nicht testen, da der Monitor mit G-Sync nunmal nicht unter 30 Hz geht.

Warum sollte es denn mit 28Hz flackern und mit 30 nicht?
Kann ohne Probleme meinen TN mit 24Hz fahren und da flackert nichts.


Tearing per se hängt nicht von der Engine, das ist richtig. Ändert aber nichts daran, dass das Tearing von Spiel zu Spiel unterschiedlich stark auffällt - bei selber Framerate.

Das liegt an den Frametimes. Wenn du die mit fps-Limiter glättest, teart jede Anwendung relativ gleich. Dass es ohne Limit mehr oder weniger teart, ist reiner Zufall. Das kann bei gleicher Anwendung bei verschiedener Szene auch schon wieder komplett anders aussehen.


Was genau ist bei den Frametimes bei Tomb Raider Käse?

Es fehlt ein Hinweis auf den fehlenden Triple-Buffer. Du hast einfach "Vsync" geschrieben. Das ist irreführend. So muss man denken, Vsync versagt allgemein.
Mir war auch so, als ob man bei TR auch den TB in den Optionen einschalten kann. Möglich, dass das nicht richtig funzt, aber es gibt ja noch andere Möglichkeiten.
Sofern kein Bug vorliegt, sollte Vsync keinen negativen Einfluss auf die Frametimes haben (einige Frames werden halt länger angezeigt, was es auch schon gewesen sein sollte).


Die Frameraten bei unserem 144-Hz-Test lagen meistens bei 30-60 FPS, schwankend. Und in dem Bereich gab es immer um Meilen weniger Tearing als bei 60 Hz. Bei 30 FPS gabs auch kaum mehr Tearing als bei einer höheren Framerate. Auch beim Seitwärtsscrollen. Da ist nichts unspielbar.
Rayman Legends hat so ein nerviges fps-Limit, und wenn man da bei 144Hz über den Treiber Vsync deaktiviert (das Spiel fordert es immer an), hat man grausames Tearing.
Motion Blur sorgt auch für eine leichte Reduzierung des Tearings, den sollte man ausschalten.

Du hast geschrieben, es sollen auch 60Hz Monitore mit G-Sync erhältlich werden. Gibts da weitere Infos zu?
Von "Bildqualität" würd ich bei TN nicht schreiben. ;)

MechWOLLIer
2013-12-12, 22:41:27
War etwas getrollt. Handwerklich seh ich da keine groben Schnitzer, mich stören aber die Schlussfolgerungen.

Dann sprich einfach an was dich stört - trollen, wie du selber sagst, hilft niemanden :)

Warum sollte es denn mit 28Hz flackern und mit 30 nicht?
Kann ohne Probleme meinen TN mit 24Hz fahren und da flackert nichts.
Nvidias OTon lautete in etwa: Wir haben festgestellt, dass bei Frequenzen von unter 30 Hz erste (!) Testpersonen ein Flimmern des Monitors wahrnehmen. Es soll nur eine Minderheit gewesen sein, doch auf die muss man als Hersteller eben auch acht nehmen.

Das liegt an den Frametimes. Wenn du die mit fps-Limiter glättest, teart jede Anwendung relativ gleich. Dass es ohne Limit mehr oder weniger teart, ist reiner Zufall. Das kann bei gleicher Anwendung bei verschiedener Szene auch schon wieder komplett anders aussehen.
Nunja, der Zufall war über eine längere Zeit ziemlich reproduzierbar^^
Das Tearing von Szene zu Szene unterschiedlich ausfällt, kann und will ich gar nicht bestreiten.

Es fehlt ein Hinweis auf den fehlenden Triple-Buffer. Du hast einfach "Vsync" geschrieben. Das ist irreführend. So muss man denken, Vsync versagt allgemein.
Mir war auch so, als ob man bei TR auch den TB in den Optionen einschalten kann. Möglich, dass das nicht richtig funzt, aber es gibt ja noch andere Möglichkeiten.
Sofern kein Bug vorliegt, sollte Vsync keinen negativen Einfluss auf die Frametimes haben (einige Frames werden halt länger angezeigt, was es auch schon gewesen sein sollte).
Ja, TR hat verschiedene V-Sync-Optionen, inklusive TB. Doch war das auch nicht wirklich besser - weder spür-, noch messbar. Kann natürlich ein Bug im Spiel sein, doch tritt es bei allen V-Sync-Optionen auf. Wenn auch nicht genau gleich stark

Rayman Legends hat so ein nerviges fps-Limit, und wenn man da bei 144Hz über den Treiber Vsync deaktiviert (das Spiel fordert es immer an), hat man grausames Tearing.
Motion Blur sorgt auch für eine leichte Reduzierung des Tearings, den sollte man ausschalten.

Du hast geschrieben, es sollen auch 60Hz Monitore mit G-Sync erhältlich werden. Gibts da weitere Infos zu?
Von "Bildqualität" würd ich bei TN nicht schreiben.
Rayman Legends kenne ich nicht, dazu kann ich nicht sagen. Ich sag ja auch gar nicht, dass es auch mit 144 Hz Displays nocht mal ordentlich tearen kann, wenns mal dumm läuft. Doch die zwei Hand Spiele die ich mit 144 Hz ausprobiert hatte, tearten alle deutlich weniger als mit 60 Hz - wenn es natürlich auch nicht völlig verschwunden gewesen ist.

Ja, es soll laut Nvidia auch 60 Hz Monitore it G-Sync geben. Auch welche mit nicht TN-Panels. Wann ist aber eine andere Frage...sprich unbekannt.

Screemer
2013-12-12, 23:43:17
teart es auf nem 120Hz- o. 144Hz-Screen auch bei niedrigerer FPS (z.b. 40-70) weniger als auf nem 60Hz. Wie siehts denn allgemein bei 96Hz aus?

aufkrawall
2013-12-12, 23:49:26
Ja, es teart bei mehr Hz immer weniger ohne Vsync.
Bei so Sachen wie flackerndem Licht kann es aber trotzdem ätzend aussehen, daher G-Sync.

Tesseract
2013-12-13, 01:49:15
Warum sollte es denn mit 28Hz flackern und mit 30 nicht?
Kann ohne Probleme meinen TN mit 24Hz fahren und da flackert nichts.

der zustand der zellen degeneriert nach der zeit. zwischen 30, 28 und 24 wird nicht viel unterschied sein, wenn man aber deutlich darunter geht wird das flimmern zunehmen. wenn z.B. eine 100% geschlossene zelle (schwarz) am ende des refreshzyklus nur noch 50% dicht ist flimmert das backlight durch.

30 ist halt ein runder wert, der einerseits so niedrig ist damit er in der praxis nicht stört, andererseits aber hoch genug ist um als "stabil" zu gelten.

Iruwen
2013-12-13, 11:52:15
http://anandtech.com/show/7582/nvidia-gsync-review

Botcruscher
2013-12-13, 12:24:30
nabling G-Sync does have a small but measurable performance impact on frame rate. After the GPU renders a frame with G-Sync enabled, it will start polling the display to see if it’s in a VBLANK period or not to ensure that the GPU won’t scan in the middle of a scan out.

Sorry ich verstehe es nicht. Wozu ist die ganze Hardware nötig?!?
Ein TFT hält den Zustand bis das nächste Bild kommt. Warum schreibt die GraKa nicht einfach das Bild direkt? 144Hz mit direkten variablem Takt von der Graka, darüber ohne "Vsync".

Warum passt man mit hängen und würgen die Grafikkarte an den Monitor an und nicht einfach den Monitor an die Grafikkarte?

N0Thing
2013-12-13, 15:09:07
Die Aussage macht eigentlich nur dann Sinn, wenn g-sync nicht aktiv ist. Denn der Witz von g-sync ist doch gerade der, daß der Monitor auf die Grafikkarte wartet und nicht umgekehrt.

Tesseract
2013-12-13, 15:24:55
versteh ich auch nicht. die einzige situation in der die graka auf den monitor warten muss ist doch wenn diese schneller als das maximum (z.B. 144Hz) rendert, was ja auch logisch ist da der monitor das bild nicht schneller als in z.B. 7ms updaten kann.

Sunrise
2013-12-13, 15:53:29
der zustand der zellen degeneriert nach der zeit. zwischen 30, 28 und 24 wird nicht viel unterschied sein, wenn man aber deutlich darunter geht wird das flimmern zunehmen. wenn z.B. eine 100% geschlossene zelle (schwarz) am ende des refreshzyklus nur noch 50% dicht ist flimmert das backlight durch.

30 ist halt ein runder wert, der einerseits so niedrig ist damit er in der praxis nicht stört, andererseits aber hoch genug ist um als "stabil" zu gelten.
Ich denke unter 23,976 bzw. 24Hz ist es sowieso praxisfern und entsprechende Monitore stellen zumindest bis zu diesem "Limit" auch völlig flimmerfrei dar. Zumindest ist das mit meinem CG243W so, der mit älterer Firmware bei 25er Teilern flimmerte, dies aber nun auch durch ein Firmware-Update behoben wurde. Natürlich wird das Bild dann auf dem Desktop nichtmehr flüssig sein (Mauszeiger), füttere ich aber native 24fps mit entsprechend genauen Einstellungen bei 24Hz, dann habe ich ein bombenfestes, stabiles Bild.

Die Grenze von 30 klingt für mich daher in der Tat nach einer sicheren Grenze, die nicht stört, aber auch irgendwie nach einer Teilersache, denn 30, 60, 90, 120, sind eben Schritte, die viele Monitore zulassen, bzw. darstellen können (im Gaming-Bereich) und das deckt sich eben mit den Anforderungen für Spieler. Wenn da wirklich Leute dabei waren, die sagen wir mal, im Bereich von 23 bis 30Hz ein Flimmern wahrnehmen konnten, dann würde ich mal sagen, hat das eher etwas mit der Implementation (oder dem Zusammenspiel) vom ASUS und G-Sync zu tun. Mal davon ab, dass die wenigsten Spiele mit solch niedrigen fps überhaupt noch vernünftig spielbar sind.

Unter 30Hz wäre halt trotzdem schön, auszuprobieren, vielleicht gibt es da einen overwrite für diejenigen, die das evtl. mal für Filme ausprobieren wollen (oder man nimmt hier einfach ein Vielfaches der nativen fps als Alternative).

Iruwen
2013-12-13, 16:09:14
versteh ich auch nicht. die einzige situation in der die graka auf den monitor warten muss ist doch wenn diese schneller als das maximum (z.B. 144Hz) rendert, was ja auch logisch ist da der monitor das bild nicht schneller als in z.B. 7ms updaten kann.
Wenn die Graka nicht auf den Monitor wartet hat man doch wieder Tearing.

dildo4u
2013-12-17, 18:58:10
Nvidia G-SYNC Demovideo

http://international.download.nvidia.com/geforce-com/international/videos/NVIDIA_GSYNC_Product_Video.mp4

Tesseract
2013-12-17, 19:56:51
Wenn die Graka nicht auf den Monitor wartet hat man doch wieder Tearing.

nein hat man nicht, genau das ist ja der punkt vom ganzen gsync. der monitor baut in z.B. 7ms das bild auf und wartet dann bis die graka anfängt das neue bild zu übertragen. klassisch hätte der monitor sofort nach dem das das letzte pixel des ersten bildes übertragen wurde angefangen das erste vom nächsten bild zu schalten. und die zeit, die er monitor für einen kompletten bildwechsel braucht (z.B. die 7ms) entsprechen dann der maximalen refreshrate und sind der grund warum man einen gsync-monitor nicht mit 2345Hz ansteuern kann. die graka wartet nur dann wenn sie schneller fertig ist als der monitor das bild überhaupt aufbauen kann was de facto einem refreshratenmaximum entspricht.

Iruwen
2013-12-18, 10:38:41
Ah jetzt hab ichs verstanden.

schreiber
2014-01-05, 15:55:05
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-DIY-Upgrade-Kit-Installation-and-Performance-Review?utm_source=twitterfeed&utm_medium=twitter

http://cdn.pcper.com/files/review/2014-01-03/DSC01229.JPG

aufkrawall
2014-01-05, 16:22:25
Aha, das Asus-Panel soll mit weniger als 30Hz nicht klarkommen.
Mein IPS fängt bei weniger als 30Hz übrigens auch an zu flimmern, der BenQ TN jedoch nicht.
Ist also wohl eine reine Panel-Geschichte, das kann noch besser werden. Ich fürchte aber, dass da auch wieder nur TN-Panels dazu in der Lage sein zu werden.
Diese Framerate ist ohnehin eher zu niedrig.

So, jetzt soll NV aber mal nicht rumeiern, sondern daran arbeiten, den low persistence Modus mit gleichzeitigem G-Sync ans Laufen zu bekommen.
Das könnte noch spannend werden, auch mit besseren (IPS) Monitoren.

=Floi=
2014-01-05, 17:40:38
der artikel ist ganz sehenswert. der umbau ist ja für viele ein nogo. Der altera FPGA ist ganz nett und macht die sache wohl so teuer.

blöd sind die fehlenden anschlüsse.
NV soll mal die technik für nen 27" 1440p ips monitor bringen und dort dann 4 anschlüsse ermöglichen. die restlichen anschlüsse sollte man auch so noch nutzen können.

robbitop
2014-01-05, 18:17:21
Die Technik ist AFAIK für alle lizensierbar. Umsetzen müssen es die Monitorhersteller. Im Falle des Asus Bildschirms hat NV die Arbeit für ASUS erledigt. Aber das wird eine von wenigen Ausnahmen sein. Die Bildschirmhersteller müssen das G-Sync Board selbstständig in ihr Design implementieren. Das dauert dann sicher.

Ggf. zögern auch einige Hersteller, da die FPGA Lösung noch teuer ist. Oder weil es kein Standard ist und somit nur die NV Käufer den Vorteil bezahlen würden. Ein offener Standard würde eine Verbreitung deutlich erleichtern.

aufkrawall
2014-01-05, 18:21:13
Sind ja schon mehrere Hersteller mit im Boot.

Skysnake
2014-01-05, 19:58:15
Und die haben wieviele Monitore mit G-Sync im Angebote? :rolleyes:

fondness
2014-01-06, 10:50:38
Displays "frühestens im zweiten Quartal"
http://www.computerbase.de/news/2014-01/displays-mit-nvidias-g-sync-kommen-spaeter/

Ausnahme soll das Asus Display sein das bald mal kommen soll.

Mancko
2014-01-06, 10:50:43
In Q2 dann ein paar. Im Endeffekt braucht es hier auch kein riesen Angebot. Die Technologie richtet sich an Gamer.

Ich werde mir so ein Teil nur fürs Gaming holen. Fürs Arbeiten bleibts beim alt bewährten IPS Panel.

Mancko
2014-01-06, 10:52:16
Ein offener Standard würde eine Verbreitung deutlich erleichtern.

Solange die anderen Anbieter dann Lizenzen zahlen hätte ich damit kein Problem.

Skysnake
2014-01-06, 10:54:05
Natürlich zahlen die dann dafür :ugly:

Dafür entwickelt man ja für nen "Standard". Man kassiert die Lizenzgebühren für sehr viele Geräte und hat ne sichere Einnahmequelle.

Botcruscher
2014-01-06, 11:49:03
Wie sieht es eigentlich mit der Lizenz Richtung Intel und AMD aus?

Mancko
2014-01-06, 11:54:00
Natürlich zahlen die dann dafür :ugly:

Dafür entwickelt man ja für nen "Standard". Man kassiert die Lizenzgebühren für sehr viele Geräte und hat ne sichere Einnahmequelle.

Dazu müssen die anderen dann aber auch mitspielen. Vielleicht wollen die aber nichts bezahlen. Bei AMD würde mich das ja nicht wundern. Man schaue sich doch nur deren Kundschaft an. Dort ist die Geiz ist Geil Mentalität in der Regel das erste Kaufkriterium :) und weniger die Hardwareeigenschaften.

Auf der anderen Seite kann es ja auch sein, dass ein Hersteller es für sich als besser erachtet, wenn etwas nicht Standard wird und er einen schönen Wettbewerbsvorteil hat. x86 z.B. ist auch kein Standard :) Wäre das ein Standard könnte Intel damit beginnen die Hälfte seines Personals abzubauen.

Da Nvidia primär bei der gut zahlenden PC Gaminggemeinde fischt ist es für mich nachvollziehbar, wenn man so etwas nicht unbedingt als Standard haben möchte. Bei dieser Kundschaft existiert nicht so ein Preisverfall wie in anderen PC Regionen. Manchmal ist es ja auch so, dass etwas erst im zweiten Schritt zum Standard wird. Erstens dauert es auf Grund diverser Verhandlungen und zweitens möchte eventuell das Unternehmen, welches den initialen Invest hatte eine Art Vorsprung haben. Das z.B. macht aber aus meiner Sicht für Nvidia gar keinen Sinn, weil es nur ein kurzfristiger Vorsprung wäre. PC Hardware wird regelmäßig getauscht insofern hätte man nur 2 - maximal 4 Quartale den Vorsprung. Wenn es Nvidia exklusiv ist, dann hat man den Vorsprung wohl etwas länger bzw. hat auch bei den Ersatzzyklen von PC Hardware etwas davon. Die anderen müssen dann ja auch erst mal etwas ähnliches entwickeln. Das kostet die zum einen auch Geld und zweitens müssen die aufpassen keine Patente zu verletzten, da ansonsten der Product Ban droht.

Skysnake
2014-01-06, 11:59:03
Dazu müssen die anderen dann aber auch mitspielen. Vielleicht wollen die aber nichts bezahlen. Bei AMD würde mich das ja nicht wundern. Man schaue sich doch nur deren Kundschaft an. Dort ist die Geiz ist Geil Mentalität in der Regel das erste Kaufkriterium :) und weniger die Hardwareeigenschaften.

Wat ein Blödsinn... Sorry, aber deswegen lizensiert AMD ja auch die Audio-DPSs für die neuen GPUs. Richtig?

Oder die ganzen Lizenzen für die Codecs in der Hardware als FFU für De-/Entcoden.

Oder HDMI + Displayport, oder OpenCL, OpenGL und was weiß ich was noch alles....

Gerade AMD hat doch im Normalfall eigentlich wirklich fast alles drin, was man nur irgendwie am Markt auch erwerben kann....


Auf der anderen Seite kann es ja auch sein, dass ein Hersteller es für sich als besser erachtet, wenn etwas nicht Standard wird und er einen schönen Wettbewerbsvorteil hat. x86 z.B. ist auch kein Standard :) Wäre das ein Standard könnte Intel damit beginnen die Hälfte seines Personals abzubauen.

Da Nvidia primär bei der gut zahlenden PC Gaminggemeinde fischt ist es für mich nachvollziehbar, wenn man so etwas nicht unbedingt als Standard haben möchte. Bei dieser Kundschaft existiert nicht so ein Preisverfall wie in anderen PC Regionen.
Du meinst wohl eher, man muss sich einfach gar keinem echten Wettbewerb stellen.

Mancko
2014-01-06, 12:01:06
Wie sieht es eigentlich mit der Lizenz Richtung Intel und AMD aus?

Glaube nicht das sich da etwas tut. Die Technologie ist noch frisch und muss erst mal im Alltag genutzt werden. Wenn dann kommt ohnehin nur AMD in Frage. Intel wird sich dafür wahrscheinlich nicht wirklich interessieren.

Mancko
2014-01-06, 12:07:36
Du meinst wohl eher, man muss sich einfach gar keinem echten Wettbewerb stellen.

Das lernt man m.E. bereits im Erstsemester BWL. Nennt sich Unique Selling Point (USP). Versuch ich mit meiner Firma auch jeden Tag. Ist mir/uns in der Softwareentwicklung leider noch nicht gelungen. In der Beratung schon etwas mehr aber das ist noch zu wenig. Ja das ist ein Kernziel jedes Unternehmens. Wer so etwas nicht hat geht in der Regel mittelfristig unter.

Warum forderst Du nicht erst mal, dass x86 Allen nach dem FRAND Prinzip zur Verfügung gestellt wird. Du krabbelst Dich an Dingen wie G-Synch hoch, dabei ist das doch im Gesamtmarkt erheblich irrelevanter als x86 zum Beispiel. Das ist ein Fliegenfurz dagegen.

Spielen wir das Ganze doch mal durch. x86 wird an Alle die wollen vernünftig lizensiert. Dann haben wir neben Intel und AMD plötzlich Nvidia, Samsung (die sind auch noch fetter OEM), IBM (auch OEM) die da mitmischen und wahrscheinlich noch eine ganze Horde von Chinesen. Das wäre doch eigentlich für den Kunden das allerbeste was passieren könnte.
Intel müsste erheblich Personal abbauen und würde seine Marktmacht ganz massiv einbüßen. Warum forderst DU das eigentlich hier nicht mit dem gleichen Nachdruck. Kann es sein, weil Du dann Angst hättest das AMD das nicht überlebt? :), denn das würden die in der heutigen Form nicht.

Sunrise
2014-01-06, 12:14:25
Natürlich zahlen die dann dafür :ugly:

Dafür entwickelt man ja für nen "Standard". Man kassiert die Lizenzgebühren für sehr viele Geräte und hat ne sichere Einnahmequelle.
Und ab den Kepler-Karten hat NV wieder ein Argument mehr, ihre Grafikkarten zu hohen Preisen zu verkaufen, sehr hohe Margen einzufahren und sich das Standbein möglichst lange zu halten.

Das ist für NV wohl aktuell die wirtschaftlichste und intelligenteste Lösung. Offene Standards helfen NV aktuell nicht.

Und nur darum geht es.

Aha, das Asus-Panel soll mit weniger als 30Hz nicht klarkommen.
Mein IPS fängt bei weniger als 30Hz übrigens auch an zu flimmern, der BenQ TN jedoch nicht.
Ist also wohl eine reine Panel-Geschichte, das kann noch besser werden. Ich fürchte aber, dass da auch wieder nur TN-Panels dazu in der Lage sein zu werden.
Wie schon gesagt, am Panel selbst liegt es nicht, das hat sowohl mit der Elektronik als auch der Ansteuerung (Firmware) etwas zu tun. Professionelle Monitore auf IPS-Basis haben damit auch absolut kein Problem.

Iruwen
2014-01-06, 14:12:11
Das lernt man m.E. bereits im Erstsemester BWL. Nennt sich Unique Selling Point (USP).

Kennt jeder als Alleinstellungsmerkmal. Klingt aber natürlich nicht so cool.

Skysnake
2014-01-06, 14:47:55
Das lernt man m.E. bereits im Erstsemester BWL. Nennt sich Unique Selling Point (USP). Versuch ich mit meiner Firma auch jeden Tag. Ist mir/uns in der Softwareentwicklung leider noch nicht gelungen. In der Beratung schon etwas mehr aber das ist noch zu wenig. Ja das ist ein Kernziel jedes Unternehmens. Wer so etwas nicht hat geht in der Regel mittelfristig unter.

Ach wirklich?

Dann frag ich mich, wie nur Firmen wie IBM und Samsung überleben können, die ne Menge an Technologie entwickeln und über Lizenzen unters Volk bringen...

Es ist immer die Frage WIE man so was macht. Schau dir die ganze Automobilbranche an.

Sicherheitsgurt, Airbag, ABS, ESP usw usw usw. Alles noch und nöcher lizensiert.

Wenn man ein einzigartiges Produkt hat, was nicht Lebensnotwendig ist, aber eben sehr nützlich, macht es mittelfristig sinn, es zur Lizensierung frei zu geben. Denn dadurch nimmt man den Druck raus bei der Konkurrenz etwas eigenes zu enwickeln. Die rechnen nämlich auch.

Machste das nicht, zwingst du die Konkurrenz mehr oder weniger stark weiter zu arbeiten und besser zu sein. Tja ganz doof wenn die Konkurrenz stärker ist als man selbst. Da kann es dann nämlich auch mal schnell passieren, dass die eigene Technik komplett wertlos wird, weil die Konkurrenz halt was besseres gebracht hat und allen anbietet.

Du musst dir einfach anschauen, WO nVidia arbeitet. Die sind allein nen feuchter Dreck und nicht überlebensfähig. Die sind immer auf die Kooperation mit anderen angewiesen, wie JEDE! Verschissene Firma in der Hardwarebranche. Selbst IBM, Oracle usw sind zumindest auf Teilgebieten immer auf die Zusammenarbeit mit anderen angewiesen. Sonst könnten die nämlich bald alle den Laden dicht machen, und das wissen alle. Daher arbeiten Sie auch da wo es nötig ist Hand in Hand. Leben und leben lassen ist da die Devise.



Warum forderst Du nicht erst mal, dass x86 Allen nach dem FRAND Prinzip zur Verfügung gestellt wird. Du krabbelst Dich an Dingen wie G-Synch hoch, dabei ist das doch im Gesamtmarkt erheblich irrelevanter als x86 zum Beispiel. Das ist ein Fliegenfurz dagegen.

Spielen wir das Ganze doch mal durch. x86 wird an Alle die wollen vernünftig lizensiert. Dann haben wir neben Intel und AMD plötzlich Nvidia, Samsung (die sind auch noch fetter OEM), IBM (auch OEM) die da mitmischen und wahrscheinlich noch eine ganze Horde von Chinesen. Das wäre doch eigentlich für den Kunden das allerbeste was passieren könnte.
Intel müsste erheblich Personal abbauen und würde seine Marktmacht ganz massiv einbüßen. Warum forderst DU das eigentlich hier nicht mit dem gleichen Nachdruck. Kann es sein, weil Du dann Angst hättest das AMD das nicht überlebt? :), denn das würden die in der heutigen Form nicht.
Weil x86 Intel gehört, und die sich mit Händen und Füßen dagegen wehren? Es macht einfach keinen Sinn das zu fordern. Ich hätte es zwar schön gefunden, wenn z.B. nVidia ne x86 Lizens bekommen hätte, aber das wollte Intel halt nicht, und Intel ist in der Hinsicht halt nen Aasgeier...

Ich bleib da halt lieber bei den Dingen, die auch möglich sind. Ich kann mir ja auch wünschen das ich nächste Woche im Lotto gewinne, nur dran ändern wird sich wohl rein gar nichts...

Und ab den Kepler-Karten hat NV wieder ein Argument mehr, ihre Grafikkarten zu hohen Preisen zu verkaufen, sehr hohe Margen einzufahren und sich das Standbein möglichst lange zu halten.

Das ist für NV wohl aktuell die wirtschaftlichste und intelligenteste Lösung. Offene Standards helfen NV aktuell nicht.

Für aktuell jetzt gerade in diesem Moment ja, aber bereits mittelfristig, also die nächsten 4-6 Jahre ist es halt nen Schuss ins eigene Knie.

Man behindert sich und den Markt den man bedienen will ständig selbst. Damit verkrault man die eigene Kundschaft. Das ist nicht gerade eine solide Firmenausrichtung.

aufkrawall
2014-01-06, 14:47:58
Wie sieht es eigentlich mit der Lizenz Richtung Intel und AMD aus?
Wird wohl nichts, Tom Petersen hatte das bei pcper für sehr unwahrscheinlich erklärt.

robbitop
2014-01-06, 14:52:43
Kennt jeder als Alleinstellungsmerkmal. Klingt aber natürlich nicht so cool.
BWL = viel BS-Bingo. Wenn jemand damit anfängt, nehme ich ihn schon gar nicht mehr ernst. :D

StefanV
2014-01-06, 15:09:54
Wat ein Blödsinn... Sorry, aber deswegen lizensiert AMD ja auch die Audio-DPSs für die neuen GPUs. Richtig?
Oder die ganzen Lizenzen für die Codecs in der Hardware als FFU für De-/Entcoden.
Oder HDMI + Displayport, oder OpenCL, OpenGL und was weiß ich was noch alles....
Gerade AMD hat doch im Normalfall eigentlich wirklich fast alles drin, was man nur irgendwie am Markt auch erwerben kann....

Du hast die S-ATA Ports vergessen, die man auch eingekauft hat. Früher, ganz zu Anfang warens Sil3112, später dann wohl Marvell und bei neueren wars dann wohl Promise...

Skysnake
2014-01-06, 15:26:12
Ach da wird so viel lizensiert, da kann man nicht alles im Auge behalten, zumal ich mich eigentlich auch auf GPUs beschränkt habe ;)

In dem Markt geht halt nicht wirklich was ohne Zusammenarbeit. Kein Mensch hat an sich bock auf irgendwelchen propritären Müll, der nicht immer und überall funktioniert.

Einschalten und loslegen ist die Devise. Der Kunde will es einfach haben.

Mancko
2014-01-06, 15:31:33
Ach wirklich?

Dann frag ich mich, wie nur Firmen wie IBM und Samsung überleben können, die ne Menge an Technologie entwickeln und über Lizenzen unters Volk bringen...

Es ist immer die Frage WIE man so was macht. Schau dir die ganze Automobilbranche an.

Sicherheitsgurt, Airbag, ABS, ESP usw usw usw. Alles noch und nöcher lizensiert.


Gibt aber auch dort genügend Dinge die nicht lizensiert sind :) Warte mal ab was erst losgeht, wenn BMW mit seine Carbon Allianz Erfolg hat bei SGL Carbon. Dann kauft die Quandt kurzerhand den Rest von SGL und alle anderen werden draußen bleiben.


Wenn man ein einzigartiges Produkt hat, was nicht Lebensnotwendig ist, aber eben sehr nützlich, macht es mittelfristig sinn, es zur Lizensierung frei zu geben. Denn dadurch nimmt man den Druck raus bei der Konkurrenz etwas eigenes zu enwickeln. Die rechnen nämlich auch.


Natürlich rechnen die und natürlich wollen die auch was eigenes entwickeln. Intel wollte auch schon immer GPU Kerne entwickeln. Leider können Sie ohne Nvidia's "Ja" nicht. Etwas zu wollen ist das eine aber es so zu machen, dass andere Patente nicht verletzt werden ist etwas anderes.


Machste das nicht, zwingst du die Konkurrenz mehr oder weniger stark weiter zu arbeiten und besser zu sein. Tja ganz doof wenn die Konkurrenz stärker ist als man selbst. Da kann es dann nämlich auch mal schnell passieren, dass die eigene Technik komplett wertlos wird, weil die Konkurrenz halt was besseres gebracht hat und allen anbietet.


Damit kann AMD schon mal nicht gemeint sein. Denn die sind allenfalls schwächer als Nvidia. Finanziell sowieso. Bleibt im PC Segment also Intel. Die haben aber ihre Kartellzwänge und müssen halt aufpassen, zudem können Sie derzeit ohne Nvidia im GPU Markt gar nichts machen. In 4-5 Jahren läuft der Contract aus. Danach wirds dann wieder interessant. Ich vermute mal sie werden sich wieder einigen und Intel wird weiter zahlen.


Du musst dir einfach anschauen, WO nVidia arbeitet. Die sind allein nen feuchter Dreck und nicht überlebensfähig. Die sind immer auf die Kooperation mit anderen angewiesen, wie JEDE! Verschissene Firma in der Hardwarebranche. Selbst IBM, Oracle usw sind zumindest auf Teilgebieten immer auf die Zusammenarbeit mit anderen angewiesen. Sonst könnten die nämlich bald alle den Laden dicht machen, und das wissen alle. Daher arbeiten Sie auch da wo es nötig ist Hand in Hand. Leben und leben lassen ist da die Devise.


Natürlich sind die auf Kooperationen angewiesen. Und sie kooperieren auch. Sie kooperieren mit Google, mit IBM, mit M$ und mit ganz vielen OEMs usw... Sie kooperieren halt nur nicht überall und nicht mit jedem. Mit AMD z.B. müssen sie m.E. nur sehr wenig kooperieren. AMD hat für sie nichts positives beizutragen.

EDIT:
Hier mal ganz aktuell ein Beispiel, dass Nvidia durchaus auch kooperiert:
http://www.heise.de/newsticker/meldung/Google-Mit-Android-per-Open-Automotive-Alliance-ins-Auto-2075923.html

Das wird halt in jedem Fall einzeln abgewogen. Am Ende wird sich jeder für sich fragen: Macht eine Kooperation bzw. ein Konsortium ein offener Standard Sinn oder schlachte ich das Thema lieber alleine aus. Nur weil Nvidia bei dem ein oder anderen Thema sein Süppchen kocht heißt das nicht, dass sie nicht kooperieren. Sie machen nichts anderes, als was alle anderen auch machen.


Weil x86 Intel gehört, und die sich mit Händen und Füßen dagegen wehren? Es macht einfach keinen Sinn das zu fordern. Ich hätte es zwar schön gefunden, wenn z.B. nVidia ne x86 Lizens bekommen hätte, aber das wollte Intel halt nicht, und Intel ist in der Hinsicht halt nen Aasgeier...


G-Synch scheint Nvidia zu gehören. Finde da gerade keinen Unterschied sorry.


Für aktuell jetzt gerade in diesem Moment ja, aber bereits mittelfristig, also die nächsten 4-6 Jahre ist es halt nen Schuss ins eigene Knie.

Man behindert sich und den Markt den man bedienen will ständig selbst. Damit verkrault man die eigene Kundschaft. Das ist nicht gerade eine solide Firmenausrichtung.

Also mich vergrault Nvidia ehrlich gesagt nicht. Ich habe eine GTX780Ti. Ich glaube mit der geht G-Synch oder etwa nicht? Wenn ich als Gamer das Feature haben will und es mir wichtig ist, dann werde ich wohl die entsprechende Hardware dazu kaufen. Ist ja nicht so, dass mir signifikant etwas verloren geht, wenn ich auf AMD's Hawaii GPUs verzichte und lieber einen GK110 Ableger nutze. Und darum geht es am Ende des Tages. Sich von der Konkurenz so abheben, dass der Kunde geneigt ist einen Aufpreis zu bezahlen oder in die entsprechende Richtung beim Produktkauf tendiert.

Gipsel
2014-01-06, 15:44:05
G-Synch scheint Nvidia zu gehören. Finde da gerade keinen Unterschied sorry.Variable Frameraten sind auch im eDP-Standard (hauptsächlich für mobile Anwendungen aus Stromspargründen) mit drin. Das auf normale Displays auszudehnen ist jetzt nicht so schwierig und die Patentierbarkeit von GSYNC sollte somit nicht übermäßig hoch liegen.
In dem Zusammenhang ist es auch immer noch unklar, was nV da eigentlich mit dem FPGA macht. Der ist eigentlich unnötig, wenn die Panelhersteller ein paar kleine Modifikationen an der Treiberelektronik der Panels einführen (das kostet eher nur Cent-Beträge), so daß die direkt damit klarkommen. Nur dann kann nV es eben nicht mehr an ihre GPUs koppeln, sondern es läuft mit Allem, was variable Frameraten unterstützt (Kabini unterstützt das übrigens über eDisplayPort).

AnarchX
2014-01-06, 16:09:22
Laut den letzten Infos basiert das ganze wohl auf SLI, deswegen auch die Einschränkung auf 650 Ti Boost und höher.