Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G-SYNC - Mark Rein: "most amazing thing made by Nvidia"


Seiten : 1 [2] 3 4 5

Gimmick
2013-10-18, 16:43:41
Shadowplay Artikel von Nvidia

http://www.geforce.com/whats-new/articles/geforce-shadowplay-beta-available-october-28

Ah 5-10% warns :D thx für den Link.

Immer dieses ewige super dramatische Reden über Sachen, die eh jeder weiß. *schnarch*

Superheld
2013-10-18, 16:44:42
werd fertig..

Iruwen
2013-10-18, 16:45:48
..

http://www.neogaf.com/forum/showpost.php?p=86529052&postcount=834

Warum das Limit unter Windows 7? Fällt mir gerade keine Begründung für ein.

M4xw0lf
2013-10-18, 16:45:51
Er erklärt uns immer noch Tearing. Meine Güte.

boxleitnerb
2013-10-18, 16:47:28
Das G-Sync Modul ersetzt den Scaler, 4 Partner sind schon mit dabei. Asus, BenQ, Philips und Viewsonic.

dildo4u
2013-10-18, 16:47:50
http://img854.imageshack.us/img854/529/c5xu.jpg

Iruwen
2013-10-18, 16:47:53
Köppe ausm Bild ihr Splasher.

mironicus
2013-10-18, 16:48:09
Vermutlich passt sich die Hz-Rate des Monitors dann der Framerate der GPU automatisch an?

M4xw0lf
2013-10-18, 16:48:51
Etwas nicht im Monitor verbautes wär irgendwie prickelnder.

Iruwen
2013-10-18, 16:50:58
Etwas nicht im Monitor verbautes wär irgendwie prickelnder.
Wie willste das sonst machen, die Hardware muss sich ja abstimmen.

aufkrawall
2013-10-18, 16:51:17
Etwas nicht im Monitor verbautes wär irgendwie prickelnder.
Drauf geschissen. Wenn das gut funzt, will ichs haben.

boxleitnerb
2013-10-18, 16:52:18
Die fps kann man aber trotzdem noch irgendwie begrenzen oder? Ob der fps-Limiter da mit Bestandteil ist?

Iruwen
2013-10-18, 16:53:02
Die fps kann man aber trotzdem noch irgendwie begrenzen oder? Ob der fps-Limiter da mit Bestandteil ist?

Spätestens bei 60 bzw. 120Hz wird der Monitor begrenzen :D

/e: stimmt, die 3D Vision Brillen müssen das auch erstmal können.

Sven77
2013-10-18, 16:53:28
The end of tearing.. haben will..

aufkrawall
2013-10-18, 16:54:26
Spätestens bei 60 bzw. 120Hz wird der Monitor begrenzen :D

TN kann ja jede Refreshrate darunter.

Blaire
2013-10-18, 16:54:28
Drauf geschissen. Wenn das gut funzt, will ichs haben.

Musst dich noch gedulden, es ist nicht sofort verfügbar.

M4xw0lf
2013-10-18, 16:54:28
Haha, jetzt bekommen alle nochmal schnell erklärt dass sie den Effekt natürlich nicht filmen können - DAUs around the world würden sich sonst sicher über das Tearing beschweren ^^

Timbaloo
2013-10-18, 16:55:12
Das + 120Hz+ bei Full-HD!

aufkrawall
2013-10-18, 16:58:59
Musst dich noch gedulden, es ist nicht sofort verfügbar.
Macht ja nix, mit 144Hz kann ichs noch etwas aushalten. :D

mironicus
2013-10-18, 16:59:12
Wenn man das Tearing-Problem gelöst hat bräuchte man theoretisch auch kein teures SLI mehr, die Mindestframerate wäre jetzt nicht mehr so wichtig.

Ist natürlich blöd, dass man den Eindruck nicht live miterleben kann.

M4xw0lf
2013-10-18, 16:59:26
Hmmm... wenn das Ding die Bilder an den Monitor verteilt - beendet es Microruckeln ein für alle mal? MultiGPU-Perfektion? :uponder:

Gunslinger
2013-10-18, 17:00:41
Wer den pcper Stream hat, Linus filmt auch die Demo

http://www.twitch.tv/linustech

Eggcake
2013-10-18, 17:01:07
Mh aber wenn die FPS mal etwas absacken, sagen wir 30, dann hat man ja dann doch ein ziemliches Problem wenn der Monitor auch nur 30Hz refreshrate hat?

boxleitnerb
2013-10-18, 17:01:29
Wenn man das Tearing-Problem gelöst hat bräuchte man theoretisch auch kein teures SLI mehr, die Mindestframerate wäre jetzt nicht mehr so wichtig.

Ist natürlich blöd, dass man den Eindruck nicht live miterleben kann.

Die fps beeinflussen aber auch den Inputlag. Wenig fps = höherer Lag. Ob das dann auch damit gelöst wird? Ich muss gestehen, ich kann ja nur einen Lag wahrnehmen - ob es da verschiedene "Unter"lags gibt, von denen nur einer von GSync beeinflusst wird, weiß ich nicht.

aufkrawall
2013-10-18, 17:01:46
Wenn man das Tearing-Problem gelöst hat bräuchte man theoretisch auch kein teures SLI mehr, die Mindestframerate wäre jetzt nicht mehr so wichtig.

Unsinn. Man will ja auch viele fps haben, und da brauchts wieder mGPU mit max Quality. Auch gesyncte 20fps sind nicht flüssig.

Iruwen
2013-10-18, 17:05:26
Mh aber wenn die FPS mal etwas absacken, sagen wir 30, dann hat man ja dann doch ein ziemliches Problem wenn der Monitor auch nur 30Hz refreshrate hat?
Warum?

Gipsel
2013-10-18, 17:06:13
Unsinn. Man will ja auch viele fps haben, und da brauchts wieder mGPU mit max Quality. Auch gesyncte 20fps sind nicht flüssig.Ja. Aber es dürfte helfen, wenn man z.B. die 60fps nicht halten kann. so in dem Bereich 40 bis <60fps sollte es schon merklich flüssiger aussehen.

aufkrawall
2013-10-18, 17:08:11
Ja. Aber es dürfte helfen, wenn man z.B. die 60fps nicht halten kann. so in dem Bereich 40 bis <60fps sollte es schon merklich flüssiger aussehen.
Auf jeden Fall, aber das hat mit SLI ja nichts zu tun.
Mit 144Hz ist es dabei auch schon deutlich flüssiger als mit 60.

Iruwen
2013-10-18, 17:10:03
Bei 30 Frames hat man halt 33ms Delay, das merkt man am PC schon recht deutlich.

Gipsel
2013-10-18, 17:10:49
Auf jeden Fall, aber das hat mit SLI ja nichts zu tun.
Mit 144Hz ist es dabei auch schon deutlich flüssiger als mit 60.Das stimmt natürlich, mit einem 144Hz Monitor sind die VSync-Stufen ja erheblich dichter zusammen (144, 72, 48, 36, 28,8) als bei 60Hz (60, 30, 20, 15).

boxleitnerb
2013-10-18, 17:12:15
Würde mir das auch etwas bringen, wenn ich mit VSync und einem fps-Limiter spiele? Dass der Lag durch so einen Limiter dramatisch reduziert wird, ist ja erwiesen - das merkt man schon im Menü beim Mauszeiger.

Eggcake
2013-10-18, 17:14:12
Also wenn ich bei meinem Monitor auf 30Hz runterstelle, habe ich übelstes Flimmern, aber das kann auch am IPS-Panel/Monitor liegen.

Wenn das gut funzt wäre das aber schon arschgeil. Mann, wird immer schwerer zwischen AMD und NV zu entscheiden :>

aufkrawall
2013-10-18, 17:14:19
Das stimmt natürlich, mit einem 144Hz Monitor sind die VSync-Stufen ja erheblich dichter zusammen (144, 72, 48, 36, 28,8) als bei 60Hz (60, 30, 20, 15).
Dieses DB-Verhalten hat man ja eigentlich nirgends mehr (außer mit NV Smooth AFR-Vsync ohne adaptiv), aber das meinte ich nicht.
Auch ohne Vsync ist es flüssiger, einfach weil die Frames weniger grob zerrissen sind bzw. so rüberkommen.
Mit Vsync würd ich bei den fps nicht spielen wollen, da ist der Input Lag die Hölle. Kann man bei Nv nachvollziehen, indem man bei 60hz einfach Vsync 1/2 Refreshrate nimmt.

Edit: @boxleitnerb: Der Lag soll mit Gsync ja auch geringer sein. fps-Limiter passt da nicht in das Konzept (fps sind ja immer = Refreshrate).

AnarchX
2013-10-18, 17:16:46
http://videocardz.com/images/2013/10/GSYNCVERTICAL1.jpg

http://videocardz.com/46943/nvidia-announces-g-sync

boxleitnerb
2013-10-18, 17:17:24
Edit: @boxleitnerb: Der Lag soll mit Gsync ja auch geringer sein. fps-Limiter passt da nicht in das Konzept (fps sind ja immer = Refreshrate).

Okay, aber was mache ich dann, wenn meine Karte(n) 50-100 fps raushauen können, ich aber nur z.B. 70 brauche, weil mir das ausreicht. VSync und Limiter zum Begrenzen der fps hab ich dann ja nicht...

Gipsel
2013-10-18, 17:17:58
Auch ohne Vsync ist es flüssiger, einfach weil die Frames weniger grob zerrissen sind bzw. so rüberkommen.Wie schon im Monitor-Thread gesagt, das Tearing ist eigentlich genauso, Du siehst es nur kürzer (weil es schneller mit einem vollständig geupdatetem Bild ersetzt wird), was die Linderung verursacht.

Iruwen
2013-10-18, 17:18:09
http://videocardz.com/images/2013/10/GSYNCVERTICAL1.jpg

http://videocardz.com/46943/nvidia-announces-g-sync

http://www.pcper.com/news/Graphics-Cards/NVIDIA-Announces-G-Sync-Variable-Refresh-Rate-Monitor-Technology

Eggcake
2013-10-18, 17:21:34
Meine Güte, komm zum Punkt :ulol:

aufkrawall
2013-10-18, 17:21:55
Okay, aber was mache ich dann, wenn meine Karte(n) 50-100 fps raushauen können, ich aber nur z.B. 70 brauche, weil mir das ausreicht. VSync und Limiter zum Begrenzen der fps hab ich dann ja nicht...
Ich würd wie Iruwen davon ausgehen, dass man einfach eine maximale Refreshrate einstellen müsste (bei TN beliebig). Aber gut möglich, dass es da noch komfortablere Parameter zur Deckelung geben wird.

Wie schon im Monitor-Thread gesagt, das Tearing ist eigentlich genauso, Du siehst es nur kürzer (weil es schneller mit einem vollständig geupdatetem Bild ersetzt wird), was die Linderung verursacht.
Daher mein "bzw. so rüberkommen". :)

AnarchX
2013-10-18, 17:28:06
http://www.geforce.com/whats-new/articles/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming

Das G-Sync Modul kann man selbst in einen ASUS VG248QE einbauen.

Iruwen
2013-10-18, 17:29:05
http://i.imgur.com/bYoGXXcl.jpg

Alle the nerds are on stage now :D

aufkrawall
2013-10-18, 17:30:49
http://www.geforce.com/whats-new/articles/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming

Das G-Sync Modul kann man selbst in einen ASUS VG248QE einbauen.
Hrmpf, beim XL2411T hat BenQ DP weggespart...

Gebrechlichkeit
2013-10-18, 17:31:24
Angeblich funktioniert das "Ding" nur mit TN-Panels LCD.... nix mit IPS und Co.

Source : random fat dude (stream)

Iruwen
2013-10-18, 17:33:01
Gänsehaut. Jetzt kommts.

/e: k, that was expected :D

aufkrawall
2013-10-18, 17:33:02
Angeblich funktioniert das "Ding" nur mit TN-Panels LCD.... nix mit IPS und Co.

Jensen hat ja die Problematik bei LCDs angesprochen, alles außer TN ist wahrscheinlich zu lahm.

aufkrawall
2013-10-18, 17:38:11
Shadow Play am 28.10 verfügbar.

qu3x^
2013-10-18, 17:38:35
nvidia.com brauch grad ein wenig :freak:

wurde das schon gepostet, ich habs verschlafen gibts dazu mehr info?
tnEB5xRQtpw

Iruwen
2013-10-18, 17:43:15
http://de.twitch.tv/linustech
Da gehts noch weiter.

Hugo78
2013-10-18, 17:58:14
Mark Rein was right.

L233
2013-10-18, 18:02:37
Angeblich funktioniert das "Ding" nur mit TN-Panels LCD.... nix mit IPS und Co.

Eh, schade. Damit fällt's selbst für mich als überzeugten nVidiot flach.

Timbaloo
2013-10-18, 18:06:01
Ist das Event nun zu Ende oder nur eine Pause?

Konami
2013-10-18, 18:07:04
Sweeney, Andersson und Carmack kommen noch zurück auf die Bühne.

Hugo78
2013-10-18, 18:07:43
Eh, schade. Damit fällt's selbst für mich als überzeugten nVidiot flach.

OLED sollte aber die Alternative zu TN werden ... ist ja nicht mehr so weit weg, hoffentlich.

Gipsel
2013-10-18, 18:11:50
OLED sollte aber die Alternative zu TN werden ... ist ja nicht mehr so weit weg, hoffentlich.Da hat man auch nicht mehr das Problem mit der Reaktionszeit und flashing backlight oder was auch immer, so daß die Synchronisation des Displays auf die Ausgabe eigentlich absolut straightforward sein sollte. Ich frage mich sowieso, inwieweit nV da den Finger drauf hat, es ist ja eigentlich eine Monitortechnologie, die innerhalb des DisplayPort-Standards arbeitet (wenn nV da nicht ganz seltsame Sachen macht). Im Prinzip müßten Intel und AMD (alle GPU-Hersteller) das an einem Displayport-Ausgang mit minimalen Änderungen unterstützen können.

gnahr
2013-10-18, 18:21:18
"The End of Tearing" ist auf jeden fall geiler als "Wir überarbeiten Crossfire" wo sich dann viele ausmalen es würde was gegen tearing helfen. :P
geile sache, passt zum feature target frame rate um eben mit dem eigenen minimum an bildern auszukommen und damit effektiv die gpu(s) zu entlasten und runter zu kühlen um im kritischen moment aggressiv und dynamisch boosten zu können.

mark told us the truth!

aufkrawall
2013-10-18, 18:22:10
Bis dahin ist TN eh das Maß der Dinge für Spiele.
Immerhin gibts das jetzt schon ohne PWM von BenQ und etwas an der BQ schrauben können die Hersteller sicher noch.

Endlich mal wieder (voraussichtlich) ein echter Fortschritt fürs PC-Gaming.

Thomas Gräf
2013-10-18, 18:22:46
Gibts denn so gute TN-Panele wo sich dieser Aufwand lohnt? Wenn dann sowieso auf einem 27''er, den 24'er lassen wir mal aus, oder?

PS: funzt das Ganze auch mit Tiple Screen???

aufkrawall
2013-10-18, 18:24:04
Gibts denn so gute TN-Panele wo sich dieser Aufwand lohnt?
Ist subjektiv, ich find IPS & VA für Gaming ätzend.

Iruwen
2013-10-18, 18:24:39
Carmack hat beim Essen offenbar schon erzählt, dass sowas für Rift nice to have wäre aber erstmal nicht kommt.

Timbaloo
2013-10-18, 18:25:22
G-Sync oder Rift? :freak:

Iruwen
2013-10-18, 18:26:32
G-Sync für die Rift halt.

http://de.twitch.tv/linustech
Hat er grad erzählt. Holt sich wohl grad nochmal 'ne Portion :D

/e: STOP EATING, ASK CARMACK :D

http://i.imgur.com/RKBVh2Kl.png

Da wäre ich jetzt auch gerne :\

Knacki99
2013-10-18, 18:36:22
Jup. Vorsprung durch Technik. In diesem Fall.

Skysnake
2013-10-18, 18:51:51
Hmmm... wenn das Ding die Bilder an den Monitor verteilt - beendet es Microruckeln ein für alle mal? MultiGPU-Perfektion? :uponder:
Nein mit Microruckeln hat das rein gar nichts zu tun eigentlich.

Da hat man auch nicht mehr das Problem mit der Reaktionszeit und flashing backlight oder was auch immer, so daß die Synchronisation des Displays auf die Ausgabe eigentlich absolut straightforward sein sollte. Ich frage mich sowieso, inwieweit nV da den Finger drauf hat, es ist ja eigentlich eine Monitortechnologie, die innerhalb des DisplayPort-Standards arbeitet (wenn nV da nicht ganz seltsame Sachen macht). Im Prinzip müßten Intel und AMD (alle GPU-Hersteller) das an einem Displayport-Ausgang mit minimalen Änderungen unterstützen können.
Ja, das sehe ich auch so.

Vor allem ist es wohl mit einem ziemlichen HArdwareaufwand verbunden.

Hab den STream leider nicht verfolgen können. Kannst du die Technik mal kurz erklären?

Weil im Prinzip gibt es ja nur zwei möglichkeiten. Man verzögert das Refresh-Signal, was dann halt ein Bild länger dargestellt lässt, oder man resetet den Refresh. Mehr möglichkeiten gibts ja nicht.

Überzeugen tun mich beide nicht wirklich, weil beides halt so seine Nachteile hat.

Hugo78
2013-10-18, 18:55:22
/e: STOP EATING, ASK CARMACK :D

He is back
http://de.twitch.tv/linustech

Iruwen
2013-10-18, 18:59:03
Überzeugen tun mich beide nicht wirklich, weil beides halt so seine Nachteile hat.
Natürlich tun sie das nicht, kommt ja auch von NV :rolleyes:
Wenn Sweeney, Rein, Carmack und Andersson sagen, dass das gut funktioniert, wird das wohl auch so sein.
Mehr als diese Infos gibts momentan nicht:
http://www.geforce.com/whats-new/articles/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming

/e: pcper hat seinen Artikel auch nochmal aktualisiert:
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-Death-Refresh-Rate

Konami
2013-10-18, 19:08:49
http://abload.de/img/jensenumx1h.jpg

lol.

Hugo78
2013-10-18, 19:11:18
tim sweeney now

Iruwen
2013-10-18, 19:13:01
Wow, kein Wunder dass die Leute lieber Carmack zuhören. Enthusiasmus und Aussprache eines Schlaganfallpatienten :freak:

/e: was 'ne Lache. Der König der Kellerkinder :biggrin:

OC_Burner
2013-10-18, 19:19:00
Backlightstrobing für schärfere Bewegtbilddarstellung oder 3D ist damit wohl auch Geschichte? Die Synchronisierung bei sich ständig wechselnder Bildwiderholrate dürfte ungleich aufwändiger sein.

Und ist das richtig, dass dieses G-Sync Modul theoretisch sogar in bereits erhältlichen Monitoren mit 3DVision2-Support verbaut werden kann? Z.B. den BenQ XL2420T?

Iruwen
2013-10-18, 19:21:29
Die Reise geht doch eh in Richtung OLED.

/e: geht weiter. Hakt aber grad wie sau bei pcper.

Konami
2013-10-18, 19:26:20
Q&A mit Tim Sweeney, Johan Andersson und John Carmack: http://www.twitch.tv/pcper

-/\-CruNcher-/\-
2013-10-18, 19:29:04
Irre Crytek wird ignoriert

Sousa nicht eingeladen ?

ist das die rache für Yerlis "Together we AMD/Crytek will redefine PC Gaming" ;)

Iruwen
2013-10-18, 19:35:24
Dass Carmack sich die letzten Wochen eingeschlossen hat glaubt man sofort. Könnten auch Monate bis Jahre gewesen sein :D

mczak
2013-10-18, 19:41:10
PS: funzt das Ganze auch mit Tiple Screen???
Du meinst wohl Triple Screen? Wieso nicht? Das Ganze ist primär eine Monitortechnologie - der Monitor muss fähig sein das Display vernünftig anzusteuern auch wenn die Frames nicht in fixen Zeitintervallen angeliefert werden. Geht allerdings nur mit DisplayPort (dvi/hdmi leiten den Pixeltakt ja vom Signaltakt ab, muss also fix sein), du brauchst also entsprechende Ausgänge (aber mit Multistream sollte das kein grosses Problem sein).
Auf Seite der Grafikkarte ist so gut wie gar nichts notwendig, ausser dass der entsprechende DisplayController statt fix alle n Millisekunden ein neues Bild in den Stream schreibt das eben nur macht falls ein neues Bild fertig ist (ob das bei existierenden AMD oder intel Chips jetzt gehen würde weiss ich nicht ist aber vorstellbar - der Monitor wird das wohl sowieso verweigern wenn das Bildsignal nicht mit einem Nvidia-Key verschlüsselt wurde :-)).

gnahr
2013-10-18, 19:45:05
Backlightstrobing für schärfere Bewegtbilddarstellung oder 3D ist damit wohl auch Geschichte? Die Synchronisierung bei sich ständig wechselnder Bildwiderholrate dürfte ungleich aufwändiger sein.
seit der ersten gen ist extra ein kleiner würfel (oder bei guten schirmen in den rahmen integriert) ein sender dabei, der die syncronisierung beliebig vieler brillen im sichtfeld übernimmt. wo ist das problem?
"why cant we have both/all features?" "yes, you can."

AnarchX
2013-10-18, 20:00:40
Für was benötigt G-Sync eigentlich 768MiB DDR3 RAM (http://www.skhynix.com/products/consumer/view.jsp?info.ramKind=19&info.serialNo=H5TC2G63FFR)?

ilibilly
2013-10-18, 20:03:45
Vsync on und gut iss ;)

MadManniMan
2013-10-18, 20:11:54
Vsync on und gut iss ;)

:facepalm:

Timbaloo
2013-10-18, 20:14:56
Ich habe das als Witz interpretiert :D

Skysnake
2013-10-18, 20:46:31
Natürlich tun sie das nicht, kommt ja auch von NV :rolleyes:
Wenn Sweeney, Rein, Carmack und Andersson sagen, dass das gut funktioniert, wird das wohl auch so sein.
Mehr als diese Infos gibts momentan nicht:
http://www.geforce.com/whats-new/articles/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming

/e: pcper hat seinen Artikel auch nochmal aktualisiert:
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-Death-Refresh-Rate
Hab jetzt beides gelesen. Der Artikel von nVidia ist mal voll fürn Popo, außer: "Das ist sooo toll!!!!" steht da gar nichts drin.

Bei PCPer ist es schon informativer. Aber wenn ich das genau verstehe, kann der Monitor einfach die Refreshrate dynamisch wählen. Also z.B. in 1ms Schritten entscheiden, wie lang jetzt ein Bild dargestellt wird.

Bei 60 FPS bringt das also maximal <16,66... ms Latenzreduzierung im Vergleich zu adaptivem VSync. Was man nicht mehr braucht ist halt Tripplebuffering. Bei Doublebuffering bin ich mir nicht sicher, aber sollte man eigentlich trotzdem haben.

Man kann aber auch zusätzlichen Lag haben. So wie es aussieht, wird ja immer ein komplettes Bild gesendet. Wenn ich >Refreshrate des Monitors habe, dann wirds seltsam, denn da hätte ich ja gerade beim kompetitiven zocken wird das interessant. Da hat man zwar kein Tearing mehr, aber Bilddaten werden später angezeigt als minimal möglich. :ugly:

Die Monitorhersteller haben da wohl einiges an Hardware in ihre Monitore gesteckt. Das Zusatzmodul sieht aber auch ziemlich heftig groß aus. Ob der Aufwand da gerechtfertigt ist?

Blediator16
2013-10-18, 22:54:05
Wird da noch etwas kommen? Ich meine das sollten mehr als zwei Tage werden. Am 21. vielleicht?

dildo4u
2013-10-18, 22:55:03
Wird da noch etwas kommen? Ich meine das sollten mehr als zwei Tage werden. Am 21. vielleicht?
Es sollten zwei Tage sein am 21 zeigt PCper noch mal die neuen Monitor Tech.

Blediator16
2013-10-18, 22:57:15
Ich glaube ich habe irgendwo gelesen, dass am 21. auch noch etwas kommen soll. Oder ich habe mich einfach nur verlesen oder etwas verwechselt.

DarkShark
2013-10-18, 23:06:42
Was genau soll denn da kommen?

Sunrise
2013-10-18, 23:09:20
Was ich bei dieser G-Sync-Geschichte nicht richtig verstehe ist, warum es plötzlich möglich sein soll, bei einem LCD dynamisch die Hz frei zu wählen. Umgeht man da einfach die interne Post-Processing-Elektronik komplett und steuert des Panel "direkt" an, statt durch einen Scaler bzw. Post-Processing-ASIC zu gehen?

Wenn ich das jetzt richtig verstehe, ersetzt das G-Sync Modul ja den Scaler-Teil, soviel ist also schonmal klar. Aber warum ist es dann plötzlich möglich, die Hz-Schritte so fein frei zu wählen?

Warum muss man aktuell denn überhaupt erst sauteure Monitore kaufen, bei denen man echte, native Hz-Modi hat (keine gefakten Hz-Varianten, bei denen intern auf das native 60Hz-Panel umgerechnet wird und es deshalb zum Flimmern kommt), wenn das jetzt plötzlich mit G-Sync in dieser extremen Freiheit gehen soll?

Das wäre doch auch für Film und Video perfekt? Zumindest soweit, wie ich sagen könnte (was aber wohl nicht geht, weil in der Präsentation von einem 3D-Mode gesprochen wurde), dass sich der Monitor immer mit den fps meines Videos synct (z.B. per Exclusive Fullscreen) und es dann nie wieder juddert.

Wäre schön, wenn jemand anhand der spärlichen Infos mal ein paar Gedanken darüber niederschreiben könnte. Ich habe da nämlich einen ganzen Sack voll Fragen, weiß garnicht, wo ich anfangen soll.

Woklbokl
2013-10-18, 23:10:04
Was genau soll denn da kommen?

Nichts, da zeigt Pcper G-Sync nur noch mal im Livestream bei denen im Studio.

Blediator16
2013-10-18, 23:22:48
Was genau soll denn da kommen?

most amazing thing made by nvidia eben.

M4xw0lf
2013-10-18, 23:29:00
most amazing thing made by nvidia eben.
Na das war doch eindeutig das heute.

StefanV
2013-10-18, 23:30:40
Wo ist jetzt diese angekündigte Revolution?!

Wenn man böse ist, würde man hier von einem Störfeuer sprechen...

M4xw0lf
2013-10-18, 23:33:18
Wo ist jetzt diese angekündigte Revolution?!

Wenn man böse ist, würde man hier von einem Störfeuer sprechen...

GSync wird vielleicht eine Nischenlösung bleiben, aber hat schon das Zeug zur Revolution... wenn es nicht exklusiv an Nvidia oder sogar nur an Kepler gebunden bliebe.

gnahr
2013-10-18, 23:40:46
so viel technik wie auf die platine im bildschirm passt, darf man doch noch hoffen...
und selbst wenn, da kepler bis runter zu den 50€ karten verfügbar ist kann man getrost die älteren abschreiben.
wer mit ner gtx580 spielt wird wohl nächstes jahr keinen 350€ bildschirm kaufen. ;)

Botcruscher
2013-10-18, 23:42:43
Abwarten. Wenn es bei 16:9 und 1080 stehen bleibt kann es mir wie 120Hz erst mal am Arsch vorbei gehen. Alles unter 1200 Pixeln ist Müll.

Hugo78
2013-10-18, 23:44:06
Wenn man böse ist, würde man hier von einem Störfeuer sprechen...

Ne, das nun wirklich nicht.
G-Sync ist vielleicht kein Feuerwerk, zumal OLED, sobald es bezahlbar wird, die selben Eigenschaften haben sollte,
aber bis dahin ist G-Sync eine Technik die einfach verdammt überfällig war, bei der aktuellen, bezahlbaren Displaytechnik.

Sunrise
2013-10-18, 23:48:27
Abwarten. Wenn es bei 16:9 und 1080 stehen bleibt kann es mir wie 120Hz erst mal am Arsch vorbei gehen. Alles unter 1200 Pixeln ist Müll.
Wo steht denn explizit etwas über aspect ratio und pixel resolution? Das sollte solange funktionieren, solange du genug Bandbreite hast, die du über deinen Anschluss bzw. Anschlüsse (z.B. DP 1.2) jagen kannst. Wäre natürlich noch wichtig zu wissen, für was der große Pufferspeicher gebraucht wird. Ich kann mir aber nicht vorstellen, dass da keine 4K bei min. 30fps eingeplant sind.

StefanV
2013-10-18, 23:49:39
GSync wird vielleicht eine Nischenlösung bleiben, aber hat schon das Zeug zur Revolution... wenn es nicht exklusiv an Nvidia oder sogar nur an Kepler gebunden bliebe.
Naja, ich find das jetzt nicht soo spannend, zumal das auch (nVidia typisch) eine komplette Insellösung ist.
Auch dass das ganze nur mit TN Schirmen funktionieren soll, ist einfach doof.

Dazu: Dieses Modul schaut nicht gerade billig aus. Schätze, dass es mal locker 100€ kosten werden wird. Und da ist dann wieder der Punkt, warum man diese Kohle für einen standard 08/15 TN Schirm ausgeben wird (klar, gibt es einige 'Fans', die das tun werden, die überwiegende Mehrheit wird es aber nicht).

Ich kann diesem G-Sync nicht wirklich was abgewinnen. Zumal noch nicht bekannt ist, wie das genau funktioniert!
Ist das jetzt ein (proprietärer) Controller für das Panel, dass die bestehende Elektronik übergeht oder ist das eher ein Pufferschaltkreis, der an die bestehende Elektronik dran gepappt wird??
UNd wie sind die Auswirkungen denn genau? Sprich wie hoch ist der (zusätzliche) lag?!

Erstens gibts dazu wirklich nicht genug Informationen, um was sagen zu können und zweitens ist das ganze auch nicht wirklich spannend, zumal man das ganze auch mit Geld erschlagen kann.

Womit wir wieder an dem Punkt der Sinnhaftigkeit sind: Denn wirklich sinn machts für die Leute, die Geld haben nicht wirklich. Denn die haben auch genug Asche, um sich auch 'mal eben' 2-3 Grafikkarten mit der besten Performance zu kaufen...
Und da ist die Frage, ob diese Leute nicht lieber 'nen tausender ausgeben, um an 'nem 30" IPS TFT zu zocken als 500€ für 'nen Standard 27" TN Display mit G-Sync...

Also 'ne wirkliche Zielgruppe sehe ich nicht, ob Probleme gelöst werden, ohne neue zu schaffen, bleibt abzuwarten...
Auf jeden Fall ist es nicht soo spannend, wie verkündet wurde (was aber zu erwarten war...)

So kann man am Ende nur nV unterstellen eine Nebelkerze gezündet zu haben, um den Launch der R9-290 zu stören - was aber eher nach hinten los gegangen ist (völlig zurecht!)

Timbaloo
2013-10-18, 23:54:24
Womit wir wieder an dem Punkt der Sinnhaftigkeit sind: Denn wirklich sinn machts für die Leute, die Geld haben nicht wirklich. Denn die haben auch genug Asche, um sich auch 'mal eben' 2-3 Grafikkarten mit der besten Performance zu kaufen...
:facepalm:

aufkrawall
2013-10-19, 00:03:27
zumal das auch (nVidia typisch) eine komplette Insellösung ist.

War Lightboost auch, ist trotzdem beliebt.


Auch dass das ganze nur mit TN Schirmen funktionieren soll, ist einfach doof.

NV kann sich auch nicht über die Grenzen der Physik hinwegsetzen.
Für den Gamer-Enthusiasten gibts eh keine Alternative zu TN.

(klar, gibt es einige 'Fans', die das tun werden, die überwiegende Mehrheit wird es aber nicht).

Das wird sich öfter verkaufen als du glaubst.


Ich kann diesem G-Sync nicht wirklich was abgewinnen. Zumal noch nicht bekannt ist, wie das genau funktioniert!

Ein Oxymoron, hätt ich dir gar nicht zugetraut...


UNd wie sind die Auswirkungen denn genau? Sprich wie hoch ist der (zusätzliche) lag?!

Wie hoch soll der denn sein, wenn NV mit geringerem Lag wirbt?


Womit wir wieder an dem Punkt der Sinnhaftigkeit sind: Denn wirklich sinn machts für die Leute, die Geld haben nicht wirklich. Denn die haben auch genug Asche, um sich auch 'mal eben' 2-3 Grafikkarten mit der besten Performance zu kaufen...
Und da ist die Frage, ob diese Leute nicht lieber 'nen tausender ausgeben, um an 'nem 30" IPS TFT zu zocken als 500€ für 'nen Standard 27" TN Display mit G-Sync...

Was ein Blödsinn...


Auf jeden Fall ist es nicht soo spannend, wie verkündet wurde (was aber zu erwarten war...)

Deine Meinung. Soll Leute geben, die sehnsüchtig auf so etwas gewartet haben.


So kann man am Ende nur nV unterstellen eine Nebelkerze gezündet zu haben, um den Launch der R9-290 zu stören - was aber eher nach hinten los gegangen ist (völlig zurecht!)
Hm, meinste? Glaub nicht.

Sunrise
2013-10-19, 00:05:37
Ich glaube ich habe irgendwo gelesen, dass am 21. auch noch etwas kommen soll. Oder ich habe mich einfach nur verlesen oder etwas verwechselt.
Laut pcper.com:

10/21 @ 11:00am PDT / 2:00pm EDT
NVIDIA G-SYNC Live Stream

gnahr
2013-10-19, 00:05:53
es gibt in der tat dinge die man für geld nicht kaufen kann. auch nicht mit 2-3 grafikkarten.
Dazu: Dieses Modul schaut nicht gerade billig aus. Schätze, dass es mal locker 100€ kosten werden wird. Und da ist dann wieder der Punkt, warum man diese Kohle für einen standard 08/15 TN Schirm ausgeben wird.
wie kann man denn bitte so verballert sein die pixel-technologie tn als miesen default anzusehen? habt ihr den hauch einer ahnung wieviel scheiße umgesetzte ips-panels es gibt? mäßige farbe (dank scheiß rauer oberfläche) UND langsame schaltzeit. nein danke!
tn ist nicht aus zufall in die breite gegangen damals, sondern ne sehr gute lösung für spieler. aber wenn die kids immer zum thema farbraum und betrachtungsraum off-jerken müssen...

Ronny145
2013-10-19, 00:20:19
Falls noch nicht gepostet:

http://www.youtube.com/watch?v=WiZ9l3I26ec


Hier sieht man es in der Vorführung.

Thomas Gräf
2013-10-19, 00:25:07
Du meinst wohl Triple Screen? Wieso nicht? Das Ganze ist primär eine Monitortechnologie - der Monitor muss fähig sein das Display vernünftig anzusteuern auch wenn die Frames nicht in fixen Zeitintervallen angeliefert werden. Geht allerdings nur mit DisplayPort (dvi/hdmi leiten den Pixeltakt ja vom Signaltakt ab, muss also fix sein), du brauchst also entsprechende Ausgänge (aber mit Multistream sollte das kein grosses Problem sein).
Auf Seite der Grafikkarte ist so gut wie gar nichts notwendig, ausser dass der entsprechende DisplayController statt fix alle n Millisekunden ein neues Bild in den Stream schreibt das eben nur macht falls ein neues Bild fertig ist (ob das bei existierenden AMD oder intel Chips jetzt gehen würde weiss ich nicht ist aber vorstellbar - der Monitor wird das wohl sowieso verweigern wenn das Bildsignal nicht mit einem Nvidia-Key verschlüsselt wurde :-)).

Danke, ja ich meine Triple Screen. Bis dato hadere ich damit wobei es für einige Sachen (Racesims) derzeit das Ding überhaupt ist. Aber solch eine Konfig darf -für mich- auf keinen Fall rum laggen...deswegen könnte das hier ja sehr interessant werden.
Na schaun ma mal was in real daraus wird.
Öhem ja diese Technik wird Nv-Key haben das is doch keine Frage. ;)

Blediator16
2013-10-19, 00:27:49
So wie es aussieht, wird man entweder spezielle Monitore kaufen müssen oder irgendwelche Addonplatinen(samsung evo kit anyone), die einen teuren Monitor bereits vorraussetzen. Es hätte ein Standard werden müssen und von allen Produzenten gleichermaßen kommen müssen.

dildo4u
2013-10-19, 00:34:22
So wie es aussieht, wird man entweder spezielle Monitore kaufen müssen oder irgendwelche Addonplatinen(samsung evo kit anyone), die einen teuren Monitor bereits vorraussetzen. Es hätte ein Standard werden müssen und von allen Produzenten gleichermaßen kommen müssen.
Die Monitore sind nich wirklich teuer das ist der Kackpunkt,viele kotzen schon weil es erstmal keine IPS Modelle gibt.

Thomas Gräf
2013-10-19, 00:35:01
Falls noch nicht gepostet:

http://www.youtube.com/watch?v=WiZ9l3I26ec


Hier sieht man es in der Vorführung.

Hmm, auf dem li Moni mögen meine Augen der Inschrift nicht folgen, auf dem re Moni gehts augenfreundlicher.

So, na klar müssen die Moni Hersteller jetzt was machen, nV hats sie beim "krassen fuschen" erwischt....was keine Kunst is bei dem Stand der Dinge. ;)

Blediator16
2013-10-19, 00:39:27
Die Monitore sind nich wirklich teuer das ist der Kackpunkt,viele kotzen schon weil es erstmal keine IPS Modelle gibt.

Der VG248QE ohne dem g sync addon kostet bereits 300€ und das g sync wird mit Sicherheit mind. 100€ kosten wenn nicht mehr. Besonders preiswert ist das nicht. Vorallem wem bringt das überhaupt? Ich habe eine 660oc wie viele andere Menschen, die auch meistens im 150-200Segment kaufen, werden sie sicher keine 400-500€ für einen Monitor ausgeben. Da sind 200€ das höchste der Gefühle. Ohne Konkurrenz wird das nie im Preis runter gehen und ich bin mir sicher, dass andere auch in der Lage gewesen wären sowas zu entwickeln, wenn es einen (Massen)Markt dafür geben würde, sodass die Preise sich irgendwann im normalen Bereich ansiedeln würden.

aufkrawall
2013-10-19, 00:44:11
Es hat aber offenbar bisher niemand es sonst entwickelt und bis zur Marktreife gebracht. Ein vermeintlich teures Angebot ist immer noch besser als gar keins.
Besagte Hersteller werden jedenfalls wohl kaum mehr einen Gamer-Monitor ohne das Feature rausbringen, das kann sich preislich dann noch etwas normalisieren.

Thomas Gräf
2013-10-19, 00:46:40
@Blediator16 tja hast schon recht, aber gerade wir "Augenmenschen" geben uns wohl mit sehr wenig zufrieden. Problem is nur wenn man älter wird und die Augen all den Quark nicht mehr mitmachen wollen.

Sunrise
2013-10-19, 00:48:01
So wie es aussieht, wird man entweder spezielle Monitore kaufen müssen oder irgendwelche Addonplatinen(samsung evo kit anyone), die einen teuren Monitor bereits vorraussetzen. Es hätte ein Standard werden müssen und von allen Produzenten gleichermaßen kommen müssen.
Das ist doch genau das Problem. Scheinbar wollte da jahrelang keiner Zeit und Geld investieren um solch ein Problem zu lösen. Wie denn auch, wenn du als Monitorhersteller andere Monitorhersteller überzeugen musst, und zusätzlich noch alle GPU-Hersteller. Und woher das Know-How nehmen?

Aktuell fällt jetzt die Monitorkonkurrenz weg, also besteht die Konkurrenzsituation "nur" noch aus AMD und evtl. noch Intel.

Die Monitorhersteller haben etwas davon (wenn es sich gut verkauft, NV hat ja die ganze Entwicklung geschultert, die Hersteller müssen das Ding "nur" noch einbauen), NV hat etwas davon und wenn sich das Ding nicht zu teuer lizenzieren lässt, müsste "nur" noch AMD bereit sein, das zu integrieren.

Allemal besser als dass jeder wieder auf "Nummer sicher" geht und wir garkeine sinnvollen Neuerungen sehen.

Und was teuer oder nicht teuer ist, ist doch relativ, wir wissen schlichtweg noch garnichts zu irgendwelchen Preisen. Wenn man sich etwas nicht leisten kann, dann sollte man nicht grundsätzlich schonmal negativ auf etwas eingestellt sein, nur weil man das Geld nicht hat.

Schaffe89
2013-10-19, 00:49:26
Und wie immer wird von den alten Bekannten schlecht geredet und schöngeredet.
Ich muss mich erst überzeugen was dasbringen soll, wieso kein Vsync oder Adaptives? Gibs bei NV und AMD.

Klärt mich bitte auf.

del_4901
2013-10-19, 01:17:05
Falls noch nicht gepostet:

http://www.youtube.com/watch?v=WiZ9l3I26ec


Hier sieht man es in der Vorführung.
Das Video ist nicht repräsentativ, da die Kamera und euer Monitor mit einer diskreten und uniformen Abtastrate arbeiten.

Sven77
2013-10-19, 01:31:58
Einige Posts hier sind so bescheuert das sie mir seelische Schmerzen bereiten...

Coda
2013-10-19, 01:43:36
Ich frag mich was dieser riesige Chip soll.

StefanV
2013-10-19, 01:48:06
Ich frag mich was dieser riesige Chip soll.
Nicht nur das. Wozu braucht dieser Chip auch noch 768MiB Speicher?!
Dazu schauts so aus, als ob der auch noch gekühlt werden muss (also ordentlich abwärme produziert)...

Wäre interessant zu wissen, was das für ein Chip ist, was der genau kann und vorallen was der macht...
Und auch wie die Rückseite ausschaut, wäre äußerst interessant!


Momentan kann man echt mal rein gar nichts über dieses neue Feature sagen...

Coda
2013-10-19, 01:58:16
Das sieht irgendwie so aus, als würden sie da einfach eine zusätzliche GPU drauflöten. Aber wtf?

-/\-CruNcher-/\-
2013-10-19, 02:03:24
@Coda

Und wieso wurde der Crytek Lead nicht eingeladen zu unwichtig ?
Wer ist eigentlich der momentane Engine Lead bei Crytek (Lead Graphics Programmer) nach dem wechsel von Mittring zu Epic ?
Tiago ist ja eher R&D (Principal Graphics Programmer) :)
Also hätte schon erwartet das einer der Crytek Engineers representativ da mit auf der Bühne steht da bin ich doch sehr verwundert drüber ?

Unreal, Frostbite und Idtech dabei hat doch gerade CryEngine einen relativ großen Beitrag zum Realtime Gaming damals mit Nvidia geleistet ?

del_4901
2013-10-19, 02:08:54
Und wieso wurde der Crytek Lead nicht eingeladen zu unwichtig ?
Crytek hat einfach besseres zu run. Schau dir einfach nur die #rysefacts an.

StefanV
2013-10-19, 03:02:50
Das sieht irgendwie so aus, als würden sie da einfach eine zusätzliche GPU drauflöten. Aber wtf?
Ja, so von weitem schaut das nach 'nem ~120mm² Chip mit ev. 'nem 96bit Speicherinterface (ev. 192bit???) aus...

Keine Ahnung, warum solch ein 'dickes Ding' dafür nötig ist...

mczak
2013-10-19, 04:07:32
Ja, so von weitem schaut das nach 'nem ~120mm² Chip mit ev. 'nem 96bit Speicherinterface (ev. 192bit???) aus...

Das sind 16bit breite ddr3 Chips, was man sieht ist also "nur" ein 48bit interface (bestückt mit 768MB Speicher - genaugenommen sind die 48bit auch nicht sicher denn es könnten ja mehrere Chips denselben Speicherkanal nutzen).
Datenblatt zu den Chips habe ich keines gefunden aber nach dem Part Decoder sind die "H5TC2G63F" decodiert "H" hynix - "5" dram "T" ddr3 - "C" 1.35V -
"2G" 2gbit - "6" x16 - "3" 8 banks - "F" 7th gen - "F" FBGA single die package - "R" lead/halogen free. Beim Speed muss ich aber passen sieht zwar nach "11C" aus das lässt sich mit dem Decoder den google ausgespuckt hat aber nicht decodieren (also das C schon, "Commercial Temp & Normal Power", aber statt der 11 sollte da eine Buchstaben/Zahlenkombination stehen).

Keine Ahnung, warum solch ein 'dickes Ding' dafür nötig ist...
Das hingegen verstehe ich auch nicht, das ist schon enorm (auch die Speichermenge, 100 Frames zu speichern ist ja wohl kaum Sinn der Sache...).

Es sei denn das Bild ist bloss ein Fake. Bei nvidia weiss man ja nie da gab's auch schon Graka's mit Holzschrauben :-)

AnarchX
2013-10-19, 09:07:42
Möglicherweise erlaubt das Modul auch noch diverse Frame-Interpolation-Fähigkeiten, die man später erst aktiviert. 4K-Ready könnte das Teil auch schon sein.

fondness
2013-10-19, 09:16:05
Ein "amazing thing" wäre das vielleicht, wenn es nicht eine offensichtlich ziemlich teure dezidierte Hardware im Monitor bräuchte. Wenn da tatsächlich eine zusätzliche GPU drinnen streckt womöglich sogar mit aktiver Kühlung^^. Nur den wenigsten wird es wert sein hier einen neuen Monitor zu kaufen und deswegen einen beträchtlichen Mehrpreis zu zahlen. Vor allem wo man noch nicht mal weiß ob sich das durchsetzt und wie lange NV Support leistet falls es sich nicht durchsetzen sollte und die Monitorhersteller abspringen. Dazu kommt dann noch die Einschränkung mit TN-only. So wird das Maximal ein Nischenprodukt.

Sunrise
2013-10-19, 09:25:11
Möglicherweise erlaubt das Modul auch noch diverse Frame-Interpolation-Fähigkeiten, die man später erst aktiviert. 4K-Ready könnte das Teil auch schon sein.
In die Richtung geht auch meine Denke. Die Gamer-Displays haben ja jetzt schon weit mehr Funktionalität und wenn ich das richtig verstehe, wird eben anstatt eigene Logik dann das G-Sync-Modul verbaut, das den kompletten Scalerteil des Monitors ersetzt. Wenn man die stärken des Panels optimal nutzen möchte, dann sollte dort auch auch kein weiterer Chip das Bild erneut bearbeiten müssen, was aber wiederum heißt, dass alles von diesem Modul abhängt.

Das Package des Chips sieht übrigens irgendwie auch aus (vorausgesetzt das ist kein Vorserien-Modul bzw. nur zu Illustrations-Zwecken) wie die alten Packages von damals (Riva TNT, etc.). Könnte da evtl. sogar nen programmierbarer Controller (FPGA) drunter sein und das Teil ist deshalb so groß? Der 21. wird interessant.

Ein "amazing thing" wäre das vielleicht, wenn es nicht eine offensichtlich ziemlich teure dezidierte Hardware im Monitor bräuchte. Wenn da tatsächlich eine zusätzliche GPU drinnen streckt womöglich sogar mit aktiver Kühlung^^. Nur den wenigsten wird es wert sein hier einen neuen Monitor zu kaufen und deswegen einen beträchtlichen Mehrpreis zu zahlen. Vor allem wo man noch nicht mal weiß ob sich das durchsetzt und wie lange NV Support leistet falls es sich nicht durchsetzen sollte und die Monitorhersteller abspringen. Dazu kommt dann noch die Einschränkung mit TN-only. So wird das Maximal ein Nischenprodukt.
Das Problem ist wohl eher, dass das Ganze nicht frei bzw. offen ist und für alle verfügbar (Lizenzgebühren). Auch wird der Monitor-Hersteller wohl das Scaler-Modul von NV kaufen müssen, wodurch NV erneut mitverdient. Ansonsten ersetzt dieses Modul ja nur den Scaler, der sowieso drin ist und den kann sich der Monitorhersteller dann wohl sparen. Das ist allerdings Spekulation, denn das Signal durch 2 Chips leiten, die das Signal bearbeiten kann nicht das Ziel dieser Lösung sein. Das ist wie bei professionallen, schnellen IPS-Displays wie Eizo, die haben da weit mehr "magic sauce" in so einem Chip, der aber wiederrum einen Delay erzeugt, obwohl das IPS-Panel eigentlich deutlich schneller ist (ohne Nebeneffekte).

Und die Einschränkung mit TN-only glaube ich auch nicht so recht. Wenn ich etwas synce, macht es keinen Unterschied, ob da ein TN-Panel oder etwas anderes verbaut ist. Ich glaube der Eindruck entsteht nur rein dadurch, weil IPS-Displays etwas langsamer sind und deshalb unflexibler als TN-Panels.

Skysnake
2013-10-19, 09:25:57
Was ich bei dieser G-Sync-Geschichte nicht richtig verstehe ist, warum es plötzlich möglich sein soll, bei einem LCD dynamisch die Hz frei zu wählen. Umgeht man da einfach die interne Post-Processing-Elektronik komplett und steuert des Panel "direkt" an, statt durch einen Scaler bzw. Post-Processing-ASIC zu gehen?

Naja, man wird wohl einfach die HArdware mit nem deutlich schnelleren und modularen Taktgeber versorgen. Das wars dann auch schon bzgl Darstellung. Das sorgt nicht dafür, das man die Bilder schneller aufbauen kann, sondern nur dafür, das man ein Bild länger darstellen kann, und halt die Taktflanke verschieben kann.


Wenn ich das jetzt richtig verstehe, ersetzt das G-Sync Modul ja den Scaler-Teil, soviel ist also schonmal klar. Aber warum ist es dann plötzlich möglich, die Hz-Schritte so fein frei zu wählen?

Siehe oben. Die Taktgeber sind wohl einfach anders.


Das wäre doch auch für Film und Video perfekt? Zumindest soweit, wie ich sagen könnte (was aber wohl nicht geht, weil in der Präsentation von einem 3D-Mode gesprochen wurde), dass sich der Monitor immer mit den fps meines Videos synct (z.B. per Exclusive Fullscreen) und es dann nie wieder juddert.

Für Video hat das GAR KEINE Relevanz. Du hast da ja ein vorgegebenes Intervall beim Quellmaterial.


Wäre schön, wenn jemand anhand der spärlichen Infos mal ein paar Gedanken darüber niederschreiben könnte. Ich habe da nämlich einen ganzen Sack voll Fragen, weiß garnicht, wo ich anfangen soll.
Ja, der INformationsgehalt war schon sehr beschränkt.

GSync wird vielleicht eine Nischenlösung bleiben, aber hat schon das Zeug zur Revolution... wenn es nicht exklusiv an Nvidia oder sogar nur an Kepler gebunden bliebe.
hm... Revolution ist ein starkes Wort.

Für eine "Revolution", also etwas, das sich auch durchsetzt, scheint mir das zu Komplex und damit zu teuer zu sein. Mir kommt da irgendwie sofort Thunderbolt in der Hinterkopf...

Naja, ich find das jetzt nicht soo spannend, zumal das auch (nVidia typisch) eine komplette Insellösung ist.

Schaumer mal, aber man muss es wohl befürchten. :(


Auch dass das ganze nur mit TN Schirmen funktionieren soll, ist einfach doof.

Das ist eigentlich verschmerzbar, aber der nächste Punkt ist da wirklich ein Problem


Dazu: Dieses Modul schaut nicht gerade billig aus. Schätze, dass es mal locker 100€ kosten werden wird. Und da ist dann wieder der Punkt, warum man diese Kohle für einen standard 08/15 TN Schirm ausgeben wird (klar, gibt es einige 'Fans', die das tun werden, die überwiegende Mehrheit wird es aber nicht).

/sign. "Günstig", geschweige denn "billig" sieht das nicht aus. Das ist nen ziemlicher Hardwareklotz... Da versucht man scheinbar ein Problem mit dem Holzhammer, ähhhh.. Vorschlaghammer/Abrissbirne, zu erschlagen.


Ich kann diesem G-Sync nicht wirklich was abgewinnen. Zumal noch nicht bekannt ist, wie das genau funktioniert!

Schaumer mal. Vielleicht haben Sie ja ganz pfiffige Ideen. Wenn man sich die Platine aber so anschaut, kommen da bei mir so gewisse Zweifel auf :(


Ist das jetzt ein (proprietärer) Controller für das Panel, dass die bestehende Elektronik übergeht oder ist das eher ein Pufferschaltkreis, der an die bestehende Elektronik dran gepappt wird??
UNd wie sind die Auswirkungen denn genau? Sprich wie hoch ist der (zusätzliche) lag?!

Genau so wirds wohl sein.

Die GPU ballert die Bilder über das Verbindungskabel so schnell raus wie Sie kann, und der Monitor entscheidet dann, wann er welches Bild wie lange anzeigt.

Dabei gibt es allerdings ein Problem.... Der Monitor weiß ja gar nicht, wie die einzelnen Frames zeitlich zueinander stehen. Er kann also eigentlich nur versuchen eine Mittelung zu machen, oder halt so schnell wie möglich alles raus zu hauen... Man hängt also extrem davon ab, wie die statistische Verteilung der Zuspielung ist. nVidia hat das ja in ihrem Beispiel schön kontinuierlich gemacht. Also dieses Problem komplett ausgeklammert.

Also ich weiß nicht, ob man sich da nicht wieder genau so viele andere PRobleme einfängt, wie man versucht zu lösen. :confused:


Erstens gibts dazu wirklich nicht genug Informationen, um was sagen zu können und zweitens ist das ganze auch nicht wirklich spannend, zumal man das ganze auch mit Geld erschlagen kann.

Muss man sehen, aber im Moment tendiere ich bei beidem zu einem "Ja".


Womit wir wieder an dem Punkt der Sinnhaftigkeit sind: Denn wirklich sinn machts für die Leute, die Geld haben nicht wirklich. Denn die haben auch genug Asche, um sich auch 'mal eben' 2-3 Grafikkarten mit der besten Performance zu kaufen...
Und da ist die Frage, ob diese Leute nicht lieber 'nen tausender ausgeben, um an 'nem 30" IPS TFT zu zocken als 500€ für 'nen Standard 27" TN Display mit G-Sync...

Also 'ne wirkliche Zielgruppe sehe ich nicht, ob Probleme gelöst werden, ohne neue zu schaffen, bleibt abzuwarten...
Auf jeden Fall ist es nicht soo spannend, wie verkündet wurde (was aber zu erwarten war...)

So kann man am Ende nur nV unterstellen eine Nebelkerze gezündet zu haben, um den Launch der R9-290 zu stören - was aber eher nach hinten los gegangen ist (völlig zurecht!)
Ja, die Sinnhaftigkeit ist wirklich ne gute Frage. Vor allem halt im realen Einsatz muss sich zeigen, welche Probleme es gibt, wenn man eben keine schön verteilten Bilder hat!

Und da kommen wir wieder zu FCAT.... Äh... ich meine ALF&CAT... Das wäre hier nämlich auch ein perfektes Werkzeug, um das alles in Verbindung mit einer Highspeedkamera zu analysieren. Direkt am Monitor abgreifen geht da ja leider nicht.


Wie hoch soll der denn sein, wenn NV mit geringerem Lag wirbt?

Die Frage ist unter welchen Vorraussetzungen. Also dann wenn man <60 FPS hat, oder auch bei genau 60 FPS? Man hat ja zusätzliche Logik, und davon scheinbar nicht gerade wenig. Das wird schon sehr interessant, inwieweit man da keinen zusätzlichen Lag hinbekommen will. Das geht eigentlich nur, wenn man die komplette normale Logik, oder halt genug davon umgeht. Das wäre aber shcon ein ziemlicher Knaller bzgl Hardwareaufwand.


Deine Meinung. Soll Leute geben, die sehnsüchtig auf so etwas gewartet haben.

Das ist ne gewagte Aussage. Wir wissen ja noch nicht, wie es genau FUnktioniert. Da wird es genug Konstellationen geben, in denen es nicht besser oder gar schlechter als mit nem ganz stink normalen Monitor funktioniert. Vor allem scheint es ja nur relevanz zu haben, wenn man FPS unterhalb der Refreshrate des Monitors hat. Das ist ja eigentlich was, was man grundsätzlich gar nicht haben will.

So wie es aussieht, wird man entweder spezielle Monitore kaufen müssen oder irgendwelche Addonplatinen(samsung evo kit anyone), die einen teuren Monitor bereits vorraussetzen. Es hätte ein Standard werden müssen und von allen Produzenten gleichermaßen kommen müssen.
Ja, das wäre deutlich besser als irgend was Propritäres.

Hmm, auf dem li Moni mögen meine Augen der Inschrift nicht folgen, auf dem re Moni gehts augenfreundlicher.

So, na klar müssen die Moni Hersteller jetzt was machen, nV hats sie beim "krassen fuschen" erwischt....was keine Kunst is bei dem Stand der Dinge. ;)
...

Das ist sicherlich KEIN Pfusch, was die Monitorhersteller bisher gemacht haben... DAs war sogar fucking intelligend an verdammt vielen Stellen, weil es einfach verdammt einfache und billige Hardware ermöglicht hat!

Wenn mir Kosten/Geld scheis egal sind, kann ich natürlich ganz anders arbeiten, aber ob das immer sinnvoll ist?

Der VG248QE ohne dem g sync addon kostet bereits 300€ und das g sync wird mit Sicherheit mind. 100€ kosten wenn nicht mehr. Besonders preiswert ist das nicht. Vorallem wem bringt das überhaupt? Ich habe eine 660oc wie viele andere Menschen, die auch meistens im 150-200Segment kaufen, werden sie sicher keine 400-500€ für einen Monitor ausgeben. Da sind 200€ das höchste der Gefühle. Ohne Konkurrenz wird das nie im Preis runter gehen und ich bin mir sicher, dass andere auch in der Lage gewesen wären sowas zu entwickeln, wenn es einen (Massen)Markt dafür geben würde, sodass die Preise sich irgendwann im normalen Bereich ansiedeln würden.
Wenn ich mir so die Platine anschaue, dann würde ich nicht davon ausgehen, dass das irgendwann ganz arg doll billig wird. Ist wie mit TB. Da ist einfach verdammt viel Technik drin, weshalb es auch nicht in billig kommt.

Es hat aber offenbar bisher niemand es sonst entwickelt und bis zur Marktreife gebracht. Ein vermeintlich teures Angebot ist immer noch besser als gar keins.
Besagte Hersteller werden jedenfalls wohl kaum mehr einen Gamer-Monitor ohne das Feature rausbringen, das kann sich preislich dann noch etwas normalisieren.
Ich sag nur TB... Das Ding sieht schon sehr teuer und komplex aus.

Das ist doch genau das Problem. Scheinbar wollte da jahrelang keiner Zeit und Geld investieren um solch ein Problem zu lösen. Wie denn auch, wenn du als Monitorhersteller andere Monitorhersteller überzeugen musst, und zusätzlich noch alle GPU-Hersteller. Und woher das Know-How nehmen?

Keine Sorge, die Monitorhersteller haben das Know-How so was zu machen, die Frage ist da eher, ob Sie das auch wollen.

Das Video ist nicht repräsentativ, da die Kamera und euer Monitor mit einer diskreten und uniformen Abtastrate arbeiten.
Definitiv, aber die Live-Vorführung war AUCH nicht repräesentativ.

Wo hat man denn schon eine harmonische Schwingung, an Hand derer Unstimmigkeiten sehr leicht auffallen? Und vor allem, wo hat mann denn eine Quelle, die immer genau mit einem bestimmten FPS-Wert zu spielt, der <60FPS aber >30 FPS ist?

Das sieht irgendwie so aus, als würden sie da einfach eine zusätzliche GPU drauflöten. Aber wtf?
hm... Am Anfang hab ich echt gedacht: "Wasn das für ne verschrobene Idee von Coda"

Aber nachdem ich die Antwort auf die Beiträge jetzt das zweite mal schreiben musste wegen nem Bug im Forum (Ich kann Änderungen Rückgänig machen, aber dann verschwinden ALLE Änderungen am Beitrag und die lassen sichauch nicht wiederherstellen...) konnte ich noch ein bsichen intensiver drüber nachdenken, was das eigentlich alles soll.

Und weiste was? Deine Idee ist eigentlich gar nicht so doof! Das kann im Prinzip schon so was sein, nur eben nicht ne GPU im eigentlichen Sinne, sondern halt ein eigener Zuspieler für das Display. Das Ding würde dann mit der höchsten Rate laufen die geht, und immer nen Refresh auslösen, wenn nötig. JE nachdem könnte man da auch dann Zwischenbildberechnung machen, um die Darstellung zu glätten.

Wäre halt ziemlich spekulativ, aber kann ich mir schon vorstellen. Das würde halt zu einer smooveren Bewegung führen, und auch erklären, was man mit so viel sPeicher will. So 3-4 Bilder würden ja schon durchaus ausreichen, um eine recht gute Interpolation zu erreichen.

AnarchX
2013-10-19, 09:26:03
Offenbar ist auch 1440p IPS geplant:
A while ago I was surprised by an email from Nvidia wanting me to come down and test drive their revolutionary new tech, then tentatively entitled VRR, now known as G-Sync. It was pretty cool wandering the halls and seeing into the secret tech facilities at Nvidia and it was even cooler still discussing creating an IPS 1440 120Hz G-Sync enabled display for the hardcore gaming community.
http://overlordforum.com/topic/603-nvidia-g-sync/

Trap
2013-10-19, 09:37:28
Für Video hat das GAR KEINE Relevanz. Du hast da ja ein vorgegebenes Intervall beim Quellmaterial.
Ja, hat man. Allerdings ist es nicht einfach das auch dem Monitor beizubringen. Selbst wenn man versucht die korrekte Refresh-Rate am Monitor einzustellen, weicht sie meist doch genug ab um häufiger sichtbare Fehler zu erzeugen.

Skysnake
2013-10-19, 09:40:33
Dann funktioniert bei der Synkronisation aber was nicht. Normal sollte es da rein gar keine Probleme geben.

Sunrise
2013-10-19, 09:45:54
Für Video hat das GAR KEINE Relevanz. Du hast da ja ein vorgegebenes Intervall beim Quellmaterial.
Ich glaube wir denken da in verschiedene Richtungen, bzw. ich bin da schon einen Schritt weiter (was anhand der aktuellen Infos wohl generell mit G-Sync möglich wäre).

Du hast bei den teuren Eizo-Displays (CG-Serie) native Refreshraten, die recht stabil gehalten werden, die du für die native Wiedergabe des Video-Quellmaterials (23.978, 24, 25, 29.970 und höher) nutzen kannst. Ebenso gibt es ja direkte multiple Versionen davon. Der Witz an der Sache ist, dass Eizo bei den CGs auch "nur" übliche Panels von LG verbaut (H-IPS ohne Polarisation) bzw. auch neuerdings LED-Panels (im CG246). Die Magie steckt im Scaler-Chip, den NV ja durch das G-Sync-Modul ersetzt.

Manche Video-Renderer (madVR etc.) gehen ja direkt über D3D (bei fullscreen direkt über fullscreen exclusive) und haben somit theoretisch (3D-Mode laut Präsentation) auch den Vorteil, diese ganzen Refreshraten nutzen zu können, die aktuell von den wenigsten Bildschirm überhaupt nativ unterstützt werden. Man hätte damit also eine vollkommen judderfreie Videowiedergabe (Jensen sprach von Judder, in der Video-Welt) bei allen möglichen Refreshraten, die man sich vorstellen kann.

Aktuell muss man dafür sehr umständlich über Custom Modes im NV-Panel alle Parameter manuell so wählen, dass du in die Nähe dieser Refreshraten kommst, sodass keine Frames verworfen oder doppelt dargestellt werden. Andernfalls siehst du das. Und diese Annäherung ist auch nie wirklich perfekt. Das ist derzeit einfach nur ein Chaos, weil sich da fast jeder Monitor und Grafikkate anders verhalten. Das kostet jedesmal Zeit und Nerven, wenn es überhaupt geht (die Elektronik deine manuellen Einstellungen akzeptiert).

Das einzige was mich derzeit noch skeptisch macht, ist, ob da unter 30Hz refresh generell nicht unterstützt werden (in der NV-Meldung auf Geforce Experience steht beim Asus-Panel nur 30-144Hz drin) oder ob das nur für diesen Monitor gilt. Dann könnte man aber immernoch ein Vielfaches davon als refresh nutzen, was ja wiederrum innerhalb dieses Bereichs liegt.

Trap
2013-10-19, 09:45:55
Dann funktioniert bei der Synkronisation aber was nicht. Normal sollte es da rein gar keine Probleme geben.
Bei einer Abweichung von 0,1% zwischen Refreshrate Monitor und Bildrate Film musst du alle 1000 Frames entweder einen Frame überspringen/doppelt anzeigen, sonst desynchronisiert sich Ton und Bild (und zwar immer in die gleiche Richtung).

PatkIllA
2013-10-19, 09:51:38
Bei einer Abweichung von 0,1% zwischen Refreshrate Monitor und Bildrate Film musst du alle 1000 Frames entweder einen Frame überspringen/doppelt anzeigen, sonst desynchronisiert sich Ton und Bild (und zwar immer in die gleiche Richtung).
Und genau das erzeugt ein gelegentliches Microruckeln.
Das will man ja auch nicht haben.

Es ist für Video alleine schon deshalb nützlich weil in einem normalen PC Audio und Video teil nicht synchronisiert sind und alleine deshalb schon auseinanderlaufen.
Die genaue Bildrate ist auch nur für LiveTV wichtig. Bei "normaler" Wiedergabe ist der Audioteil der Mastertaktgeber. Deshalb ist auch völlig egal ob der Monitor oder die Grafikkarte genau die Frequenz treffen.

AnarchX
2013-10-19, 10:01:01
Das einzige was mich derzeit noch skeptisch macht, ist, ob da unter 30Hz refresh generell nicht unterstützt werden (in der NV-Meldung auf Geforce Experience steht beim Asus-Panel nur 30-144Hz drin) oder ob das nur für diesen Monitor gilt. Dann könnte man aber immernoch ein Vielfaches davon als refresh nutzen, was ja wiederrum innerhalb dieses Bereichs liegt.
If the frame rate drops below 30 fps, the display will present duplicates of each frame.
http://anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

Beim VG248QE beträgt der G-Sync Aufpreis $120.

Sunrise
2013-10-19, 10:13:06
http://anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

Beim VG248QE beträgt der G-Sync Aufpreis $120.
Danke.

NVIDIA demonstrated the technology on 144Hz ASUS panels, which obviously caps the max GPU present rate at 144 fps although that's not a limit of G-Sync. There's a lower bound of 30Hz as well, since anything below that and you'll begin to run into issues with flickering. If the frame rate drops below 30 fps, the display will present duplicates of each frame.
Hmm. Das liest sich komisch.

Wenn ich auf meinem CG243W native 24Hz fahre, dann sehe ich kein flickering, ich bemerke aber, dass der Mauszeiger sehr träge ist und "springt", so wie das auch sein sollte, bei 24Hz. Wenn ich 48Hz nativ fahre, dann habe ich einen schnelleren Mauszeiger (doppelter refresh zu vorher) und auch kein flickering. Ich denke mal Anand schlussfolgert hier nur, ob das jetzt am Monitor oder der G-Sync-Implementation liegt, ist die Frage.

(del676)
2013-10-19, 10:16:09
Klingt fuer mich recht langweilig. Ich spiele durchgehend mit 60fps im Vsync, und habe absolut keine Lag Probleme. Gut, ich kaufe ich nicht den billigsten Scheissmonitor mit 30ms Inputlag. :rolleyes:

gnahr
2013-10-19, 10:18:46
Vor allem wo man noch nicht mal weiß ob sich das durchsetzt und wie lange NV Support leistet falls es sich nicht durchsetzen sollte und die Monitorhersteller abspringen.
das ist doch das schöne, es ist dedizierte hardware die allein mit der fps-zahl arbeitet (von der wir uns sicher nicht trennen werden solange wir bilder der reihe nach zeichnen^^) und damit ist eine breite marktdurchdringung nicht nötig, damit enthusiasten davon profitieren können.

Also ich weiß nicht, ob man sich da nicht wieder genau so viele andere PRobleme einfängt, wie man versucht zu lösen. :confused:
und er macht es schon wieder... kein plan von der umsetzung, nur pseudo-akademisches gelaber über "mögliche probleme" und das in einer quote-wall sondergleichen. mach dir n blog auf! das demo-video der 2 monitore nebeneinander hat deine letzten bedenken doch schon als blödsinn enttarnt und nun kommen die nächsten sachen.
und dann immer die querschläge zu thunderbolt... das ist keine technik-disskusion sondern gossip. schämt euch!

AnarchX
2013-10-19, 10:21:36
Klingt fuer mich recht langweilig. Ich spiele durchgehend mit 60fps im Vsync, und habe absolut keine Lag Probleme.
Da investierst du wohl möglich 70-80 FPS für die konstanten 60 FPS, wo G-Sync mit 40 FPS möglicherweise ebenso flüßig wäre und 50% der Leistung in bessere Grafik investieren könnte.

boxleitnerb
2013-10-19, 10:23:44
Mit VSync hat man immer einen gewissen Lag. Ich glaube, einige haben sich schon so sehr an VSync gewöhnt, dass sie gar nicht mehr das lag-frei(ere) Gefühl ohne kennen.

Sunrise
2013-10-19, 10:28:52
Klingt fuer mich recht langweilig. Ich spiele durchgehend mit 60fps im Vsync, und habe absolut keine Lag Probleme. Gut, ich kaufe ich nicht den billigsten Scheissmonitor mit 30ms Inputlag. :rolleyes:
Das wird alles erst bei einem Direktvergleich ersichtlich. Du hast mit Vsync immer einen gewissen Lag, der je nach Situation und Spiel unterschiedlich stark ausgeprägt ist.

Zudem hast du bei höherem refresh eben noch eine dynamischere, flüssigere Wiedergabe (sofern die GPU(s) die Leistung aufbringen kann/können). Wenn du damals CRTs zuhause hattest und schnelle Shooter gespielt hast, solltest du noch wissen, dass das ein ganz anderes Spielgefühl war. 60Hz sind ein nötiges Übel (Bandbreite, Elektronik, etc.) aber sicher nicht das Optimum. Wenn du zukünftig deine Investition in Grafikkarten noch besser nutzen kannst, passt das doch.

Wenn du mal einen Vergleich eines 60Hz und eines besseren (schnelleren) Panels nebeneinander hast, dann willst du eigentlich nichtmehr zurück. Aber man gewöhnt sich eben an fast alles.

Gipsel
2013-10-19, 10:49:10
Ich frag mich was dieser riesige Chip soll.
Ja.
Also wenn man mich fragt, müßte das ganze auch mit relativ einfachen Änderungen der Ansteuerelektronik in Monitoren mit LED-Backlight funktionieren. Ist ja nicht so, als wenn es da nicht bereits was gäbe. Im Prinzip hält jeder Pixel eines LCD-Displays sowieso seinen Zustand, solange nichts Neues geschrieben wird. Der Takt kommt ja eigentlich nur von den alten Display-Schnittstellen, die Anzeige hat ja erstmal gar keinen. Der kommt nur rein, um Unschärfen beim Schalten der Pixel zu verringern (z.B. durch blinking/strobing backlight). Um da eine konstante Helligkeit der Darstellung bei variabler Framerate zu ereichen, muß man das im einfachsten Fall schlicht deaktivieren und mit konstantem Backlight arbeiten. Dies geht am besten bei TN-Displays, die anderen schalten langsamer, haben da also backlight strobing nötiger. Ansonsten muß man das Strobing etwas komplizierter gestalten und die Helligkeit über die Länge des Frames zurückfahren (aus beim Wechsel der Pixel, danach maximale Helligkeit, dann nach einer bestimmten Zeitdauer runter auf durchschnittliche Helligkeit, damit das unabhängig von der Anzeigedauer immer gleich hell aussieht). Aber gehen würde es und es ist nichts, was auch nur annähernd so ein riesiges Modul mit 768MB oder gar 1,5GB Speicher (Rückseite ebenfalls bestückt) benötigen würde (das veröffentlichte Bild kommt übrigens aus Photoshop). Edit: Das auf der nV-Seite war geshopped, aber offenbar sieht es im Original sehr ähnlich aus.

Oder wie jemand schon bei B3D spaßenshalber gefragt hat: Hat nV so viele ungenutzte Tegras rumliegen, daß die die dafür recyclen? Immmerhin könnte man dann auch gleich einen standardisierten nV-Smart-TV draus basteln. :freak:

(del676)
2013-10-19, 10:51:04
Jaja, diese Pseudoaussagen, wie ich sie liebe.
Nein, ich habe mit Vsync und Flipqueue Size 1 keinen merkbaren Inputlag.
Mit Flipqueuesize 3 sehr wohl. Ebenso mit Flipqueuesize 1 und einem PlasmaTV.

Haengt alles von eurem Monitor und euren Eingabegeraeten an.
30ms InputlagTFT + 8ms 125Hz Usb Maus + FlipQueuesize 3 (50ms) = 88ms -> megalag
7ms Inputlag TFT + 1ms 1000Hz Usb Maus + FlipQueuesize 1 = 24ms -> so geringer Inputlag, dass man ihn nicht merkt.

Aber die ProGamer hier wissen es sicherlich besser. ;)

AnarchX
2013-10-19, 10:53:11
Aber gehen würde es und es ist nichts, was auch nur annähernd so ein riesiges Modul mit 768MB oder gar 1,5GB Speicher (Rückseite ebenfalls bestückt) benötigen würde (das veröffentlichte Bild kommt übrigens aus Photoshop).



Das Modul ist nur einseitig bestückt:
http://www.guru3d.com/news_story/nvidia_announced_g_sync_eliminates_stutter_and_screen_tearing_with_a_daughter_mo dule.html

Gipsel
2013-10-19, 10:59:50
Das Modul ist nur einseitig bestückt:
http://www.guru3d.com/news_story/nvidia_announced_g_sync_eliminates_stutter_and_screen_tearing_with_a_daughter_mo dule.htmlÄndert auch nichts daran, daß man das (768MB und so einen riesigen Chip) für den G-Sync-Zweck nicht benötigt.

Sunrise
2013-10-19, 11:04:23
Jaja, diese Pseudoaussagen, wie ich sie liebe.
Nein, ich habe mit Vsync und Flipqueue Size 1 keinen merkbaren Inputlag.
Mit Flipqueuesize 3 sehr wohl. Ebenso mit Flipqueuesize 1 und einem PlasmaTV.

Haengt alles von eurem Monitor und euren Eingabegeraeten an.
30ms InputlagTFT + 8ms 125Hz Usb Maus + FlipQueuesize 3 (50ms) = 88ms -> megalag
7ms Inputlag TFT + 1ms 1000Hz Usb Maus + FlipQueuesize 1 = 24ms -> so geringer Inputlag, dass man ihn nicht merkt.

Aber die ProGamer hier wissen es sicherlich besser. ;)
Es geht hier nicht primär um Inputlag. Der kommt aber auch noch dazu (Vsync trägt dazu bei). Du hast also ein Problem gemindert, das andere kann auch deine Monitor-Grafikkarten-Kombi aktuell nicht lösen, weil sie sich nicht dynamisch anpassen und dennoch perfekt synchron sein können in jeder Situation, die garnicht voraussehbar ist.

Und wie gesagt, was merkbar ist und was nicht, kannst du nur bei einem Direktvergleich herausfinden. Das mag für dich aktuell ausreichend sein, aber das heißt nicht, das es nicht besser geht.

Skysnake
2013-10-19, 11:36:13
das ist doch das schöne, es ist dedizierte hardware die allein mit der fps-zahl arbeitet (von der wir uns sicher nicht trennen werden solange wir bilder der reihe nach zeichnen^^) und damit ist eine breite marktdurchdringung nicht nötig, damit enthusiasten davon profitieren können.

Die Hardware wird aber nicht schneller durch solche Aktionen. Man nutzt Sie höchstens effizienter aus.


und er macht es schon wieder... kein plan von der umsetzung, nur pseudo-akademisches gelaber über "mögliche probleme" und das in einer quote-wall sondergleichen. mach dir n blog auf! das demo-video der 2 monitore nebeneinander hat deine letzten bedenken doch schon als blödsinn enttarnt und nun kommen die nächsten sachen.
und dann immer die querschläge zu thunderbolt... das ist keine technik-disskusion sondern gossip. schämt euch!
Sorry, das ich dich schon wieder zum Heulen bringe. Ich werde in Zukunft versuchen mich extra für dich einfacher aus zu drücken, damit du nicht überfordert bist.

Also nochmals.

Wenn man ein Bild refreshed, dann refreshed man dieses. Es gibt da genau zwei Möglichkeiten, wenn ein Neues Bild kommt, während man das alte beginnt darzustellen 1. Das Bild wird komplett gezeichnet (kein Tearing, aber zusätzlicher Lag) oder 2. es wird sofort begonnen die neuen Bilddaten dar zu stellen (Tearing, aber kein zusätzlicher Lag)

Die zwei Möglichkeiten gibt es, wenn man sich mal entschieden hat, ein Bild dar zu stellen.

Was man machen kann ist, die "Hold"time eines Bildes zu variieren. Soweit ich das jetzt rausgelesen habe aus den Infos, kann das bis runter zu 33,3ms Darstellungsdauer eines Bildes reichen. Sind es mehr, muss ein neues Bild gezeichnet werden. Die Frage ist jetzt, wie lange dauert es dann, bis neue Bilddaten dargestellt werden können?

Eigentlich ganz einfach. Bei nem 60 Hz Monitor halt 16,66ms. Das ist also der maximale Lag, der allein aus einer ungünstigen Verteilung der Bildfolge kommen kann im Vergleich zu normalem VSync. Wobei der Cornercase wohl etwas drunter liegen wird. Müsste man nochmal genau durchspielen, wie die Bildfolgen aussehen können. Ich vermute aber mal, dass das alles 120 Hz Monitore sein werden. Damit würde sich die Zeitspanne schonmal halbieren, weil man schneller den Refresh bringen kann.

Problematisch sind also auf jeden Fall Darstellungsdrops unter 30 FPS.

Was mir auch noch nicht ganz klar ist, ist wie Sie mit Bildern umgehen, die normal angezeigt werden sollen.

Also 60FPS->59,5FPS->60FPS. Da würde es ja normal genau in einem Bild zu Tearing kommen. Was macht man dann aber? Wirft man das eine Bild komplett weg, oder wird ist man dann "einfach" ein halbes Bild hinten dran, also Outputlag?

Wenn Zweites, wird dann das entzerrt über mehrere Frames, oder wird das eine Bild nur kürzer dargestellt? Und wenn ja, wo ist dann die Grenze? Also muss für G-Sync zwingend die echte Refreshrate des Displays höher liegen als die verwendete?

Also z.B. Display kann 120Hz, man darf aber maximal 60/75/90? Hz verwenden, um die Frames hin und her schieben zu können?

Für nen 120 Hz Sync brüchte man dann wohl nen 144Hz Display. Würde ja durchaus gehen, und auch ne gute Berechtigung für solche Displays liefern.

Was auf jeden Fall sehr interessant wird ist, wenn die Bildausgabe eine große Varianz hat. Das war ja beim Beispiel von nVidia NICHT der Fall. Da sind die Bilder immer genau im gleichen zeitlichen Abstand gekommen. Da verliert normales VSync natürlich maximal.

Sven77
2013-10-19, 11:41:52
Klingt fuer mich recht langweilig.

Langweilig? Im Prinzip werden alle Nachteile von mGPU damit nichtig ohne so Workaround Quatsch mit VSync.. wenn meine Grakas in einer Situation 100fps schaffen und mein Monitor das Ganze auf 60 runterregelt ist das doch nur ein fauler Kompromiss. Das gleiche wenn man mal unter 60fps kommt..

boxleitnerb
2013-10-19, 11:44:00
Was auf jeden Fall sehr interessant wird ist, wenn die Bildausgabe eine große Varianz hat. Das war ja beim Beispiel von nVidia NICHT der Fall. Da sind die Bilder immer genau im gleichen zeitlichen Abstand gekommen. Da verliert normales VSync natürlich maximal.

NVIDIA then dropped the frame rate even more, down to an average of around 45 fps but also introduced variability in frame times, making the demo even more realistic. Once again, the traditional setup with v-sync enabled was a stuttering mess while the G-Sync system didn't skip a beat.
http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

Skeptizismus ist ja schön und gut, aber du bist eigentlich IMMER zu voreilig und preschst mit deinen Zweifeln und Einwänden vor, ohne überhaupt alles gelesen zu haben. Wie ernst kann man deine Ausführungen denn dann überhaupt nehmen?

S940
2013-10-19, 11:55:06
Da auf der letzten Seite über Preise geredet wurde, irgendwo auf der Seite gestern hieß es, dass das Monitormodul 300 Dollar kosten würde, aber NV hofft das auf 100 Dollar in der Massenprod. drücken zu können.

Gipsel
2013-10-19, 11:57:16
Da auf der letzten Seite über Preise geredet wurde, irgendwo auf der Seite gestern hieß es, dass das Monitormodul 300 Dollar kosten würde, aber NV hofft das auf 100 Dollar in der Massenprod. drücken zu können.Dann machen die was Grundlegendes falsch. :freak:

Skysnake
2013-10-19, 11:59:14
Wird weder im Video von PCper, noch im Artikel bei denen, noch von nVidia erwähnt.

Schön das Anandtech das ausführt. Leider wird nicht gesagt, wie groß die Varianz ist :(

Also im Bereich von 16ms, oder 0,1ms?

Aber schön, dass Sie das in ihrer Demo drin haben. Das ist nämlich ehrlich. Real hat man ja nie konstante Bildfolgen.

Wenn das System damit gut klar kommt, dann ist das natürlich wirklich toll. Die Frage ist halt nur, WIE Sie damit umgehen.

PS:
Was meint ihr jetzt eigentlich bzgl nutzbarer Wiederholrate und realer Wiederholrate des Displays? Die nutzbare muss doch zwingend unterhalb derer des Displays liegen oder? Sonst kann man ja nicht in beide Richtungen schieben, was zu Framedrops führen müsste.

PPS:
Ist das überhaupt ein Problem? Die Displays schaffen ja wohl eh immer etwas mehr, als man real nutzt. Man würde diesen Sicherheitspuffer für die Fertigung dann wohl nutzen oder?

AnarchX
2013-10-19, 11:59:24
Da auf der letzten Seite über Preise geredet wurde, irgendwo auf der Seite gestern hieß es, dass das Monitormodul 300 Dollar kosten würde, aber NV hofft das auf 100 Dollar in der Massenprod. drücken zu können.
$399 kostet der Asus mit Modul, $280 ohne.

Skysnake
2013-10-19, 12:01:48
Ja wat denn nu?

Kostet das Modul 300$ und nVidia legt erstmal drauf, Sie hoffen aber die Kosten zu drücken, oder haben Sie die Kosten schon auf 100$ gedrückt?

Und selbst wenn, sind das dann wirklich 100$ echte Fertigungskosten, oder sind da schon Gewinnmargen usw drinne?

Wenns ohne Margen ist, dann sind die 100$ immer noch verdammt viel. Die Hersteller wollen ja auch Gewinn machen. Das Ding müsste also min 150-200$ kosten, wenn die Fertigungskosten allein 100$ sind.

aufkrawall
2013-10-19, 12:06:27
Langweilig? Im Prinzip werden alle Nachteile von mGPU damit nichtig ohne so Workaround Quatsch mit VSync.. wenn meine Grakas in einer Situation 100fps schaffen und mein Monitor das Ganze auf 60 runterregelt ist das doch nur ein fauler Kompromiss. Das gleiche wenn man mal unter 60fps kommt..
Ob AFR damit gleich gelöst ist, sollte man erstmal abwarten. Vielleicht brauchts da noch zusätzlich eine entsprechende Logik auf den Karten.
Geil wärs. :)

Darkness
2013-10-19, 12:16:20
Sorry wenn ich jetzt doof Frage:
Kann das G-sync noch was "anderes" außer für stabiliere Frameverläufe sorgen ?

gnahr
2013-10-19, 12:16:46
Die Hardware wird aber nicht schneller durch solche Aktionen. Man nutzt Sie höchstens effizienter aus.
und in beiden fällen wird das ergebniss einfach besser.
aber typisch skysnake, erstmal rumnölen und schlechtmachen.
dir ist schon klar was bei den nächsten benchmarks passiert? nvidia-fps sind schon wieder keine amd-fps. erst die default-filterqualität, µ-ruckler-gate und nun g-sync.

den rest können wir ignorieren. was für lügen gilt, gilt auch für dummheiten:
nur weil du deine ständig wiederholst und moduliert den leuten ans bein rotzt werden sie nicht wahrer.

Sunrise
2013-10-19, 12:17:20
Ja wat denn nu?

Kostet das Modul 300$ und nVidia legt erstmal drauf, Sie hoffen aber die Kosten zu drücken, oder haben Sie die Kosten schon auf 100$ gedrückt?

Und selbst wenn, sind das dann wirklich 100$ echte Fertigungskosten, oder sind da schon Gewinnmargen usw drinne?

Wenns ohne Margen ist, dann sind die 100$ immer noch verdammt viel. Die Hersteller wollen ja auch Gewinn machen. Das Ding müsste also min 150-200$ kosten, wenn die Fertigungskosten allein 100$ sind.
Laut der G-Sync FAQ (http://www.geforce.com/hardware/technology/g-sync/faq) von NV kostet zumindest das DIY-Kit $175. Da ist (ist ja ein Endkundenpreis) also sicher schon ordentlich Marge drin. Wenn man jetzt im Falle von ASUS die Dinger von NV in größerer Menge direkt abnimmt, kann ich mir schon vorstellen, dass die $120 Differenz relativ realistisch sind, zumal ASUS sich wohl auch die eigene Scaler-Komponente sparen kann. Haben also beide etwas davon.

$300 wären wohl nur vorstellbar, wenn du das Ding in handverlesener Kleinserie produzierst. Wir wissen ja nichtmal, ob NV das ASIC einfach nur zweckentfremdet (kann ich mir nicht vorstellen). Ein custom-ASIC, FPGA oder sonstwas, damit man diesen per Software auch updaten und auf mehrere Monitore anpassen kann, wäre schon wahrscheinlicher.

Gipsel
2013-10-19, 12:23:06
Bei einem TN-Display mit strobed LED-backlight wie dem Asus-Screen, ist der Mehraufwand völlig übertrieben. Das sollte wie gesagt mit ein paar kleinen Änderungen an der Ansteuerung getan sein (das kostet in Serie eher cent-Beträge). Selbst wenn die da noch zusätzlich RAM draufpacken müssen für einen Zwischenpeicher des Framebuffers (was eigentlich nur nötig sein sollte, wenn die GraKa-Ausgabe nicht flexibel genug ist mit dem Senden der neuen Frames) wäre das bei den geringen Mengen ein einstelliger Dollar-Betrag. Die 768MB RAM und der Riesenchip da drauf sind absolut unnötig. Keine Ahnung, was nV da macht.

RLZ
2013-10-19, 12:25:03
Sorry wenn ich jetzt doof Frage:
Kann das G-sync noch was "anderes" außer für stabiliere Frameverläufe sorgen ?
Es eliminiert Tearing, Juddering und reduziert den Inputlag, da die Daten nun immer mit maximaler Datenrate übertragen werden.

Reicht das nicht?

-/\-CruNcher-/\-
2013-10-19, 12:27:11
So lange Samsung und LG das nicht integrieren ist es nur heise luft :)

gnahr
2013-10-19, 12:28:11
Es eliminiert Tearing, Juddering und reduziert den Inputlag, da die Daten nun immer mit maximaler Datenrate übertragen werden.

Reicht das nicht?
sozusagen das pedant zur 1000Hz usb-maus.

aufkrawall
2013-10-19, 12:29:03
So lange Samsung und LG das nicht integrieren ist es nur heise luft :)
Ja, auf Monitoren von Asus oder BenQ läuft es bestimmt beschissen, bis das passiert ist...

Sunrise
2013-10-19, 12:33:49
Bei einem TN-Display mit strobed LED-backlight wie dem Asus-Screen, ist der Mehraufwand völlig übertrieben. Das sollte wie gesagt mit ein paar kleinen Änderungen an der Ansteuerung getan sein (das kostet in Serie eher cent-Beträge). Selbst wenn die da noch zusätzlich RAM draufpacken müssen für einen Zwischenpeicher des Framebuffers (was eigentlich nur nötig sein sollte, wenn die GraKa-Ausgabe nicht flexibel genug ist mit dem Senden der neuen Frames) wäre das bei den geringen Mengen ein einstelliger Dollar-Betrag. Die 768MB RAM und der Riesenchip da drauf sind absolut unnötig. Keine Ahnung, was nV da macht.
In einem Eizo CG246 steckt ein (zumindest vom Package her) ähnlicher Chip:
http://www.eizo.com/global/products/coloredge/cg246/ASIC.jpg

Allerdings macht das Teil noch deutlich mehr als das, was NV hier wohl für die reine G-Sync-Geschichte benötigt. Wenn das Teil aber den Scaler komplett ersetzt, wird hier mehr als nur G-Sync drin sein.

Die dargestellte Größe des Chips finde ich persönlich generell aber erstmal irrelevant, da wir nicht wissen, in welchem Prozess das Ding gerfertigt ist und wie komplex das Ding ist.

Bei aktueller Informationlage sieht das aber in der Tat so aus, als würde man mit Kanonen auf Spatzen schießen. Was auch komisch ist, das man in der G-Sync FAQ angibt, dass das DIY-Kit exklusiv für den ASUS ist.

EDIT: Das Modul scheint nicht zuerst universell, sondern ausschließlich für den ASUS zu sein.

Skysnake
2013-10-19, 12:44:05
Sorry wenn ich jetzt doof Frage:
Kann das G-sync noch was "anderes" außer für stabiliere Frameverläufe sorgen ?
Nö, die Frameverläufe werden dadurch nicht stabiler, also nicht wenn du mit VSync off bzw dynVSync vergleichst. Was man eleminiert ist das Tearing, wobei mir immer noch nicht klar ist unter welchen Voraussetzungen/Limitierungen.

Im Vergleich zu VSync on verhindert es halt den Drop auf die nächste Wiedergabefrequenz. Das kann aber eigentlich auf dynVSync, wobei es da zu Tearing kommen können sollte.

Daran wie die GPU die Frames berechnet sollte sich eigentlich nichts ändern.

und in beiden fällen wird das ergebniss einfach besser.

Das rechtfertigt aber nicht jedweden Hardwareaufwand...


aber typisch skysnake, erstmal rumnölen und schlechtmachen.

Das hat nichts mit schlecht machen zu tun, sondern mit Hinterfragen. Es gibt nichts umsonst, und die meisten Verbesserungen an Stelle X bringen einem neue Probleme an anderen Stellen. Daher sind vermeindlich ganz tolle Verbesserungen unterm Strich auch total fürn Arsch, weil man nen riesen Aufwand betreiben muss, um minimale Verbesserungen zu erreichen.


dir ist schon klar was bei den nächsten benchmarks passiert? nvidia-fps sind schon wieder keine amd-fps. erst die default-filterqualität, µ-ruckler-gate und nun g-sync.

Man kann aus Mücken auch Elefanten machen, zumal die Grundproblematik eben noch immer nicht angegangen wurde. G-Sync in Verbindung mit dem Framepacing könnte aber durchaus interessante Ergebnisse liefern. Man muss aber schauen wie stabil die sind. Sowas kann auch immer schnell aus dem Ruder laufen, wenn man an zu vielen Stellschrauben gleichzeitig dreht.

Wobei die Frage halt auch da ist, ob Framepacing überhaupt noch Sinn damit macht.:confused:

Ich geb ja lieber nen Frame dann aus, wenn es da ist, anstatt die Ausgabe zu verzögern. Hm... Man müsste dem Monitor praktisch darüber die Kontrolle geben, beides zu entscheiden. Damit würde FCAT aber nicht mehr funktionieren. hm... Bin mal gespannt, was Sie jetzt mit FCAT machen.


den rest können wir ignorieren. was für lügen gilt, gilt auch für dummheiten:
nur weil du deine ständig wiederholst und moduliert den leuten ans bein rotzt werden sie nicht wahrer.
Da ich weder Lügen noch Dummheiten verbreite musst du wohl einen gramatikalischen Fehler in deinem Text gehabt haben. Ich nehm dir das jetzt mal nicht böse ;)

Gipsel
2013-10-19, 12:45:21
Das Modul muss aber universell nutzbar sein, wenn ich das richtig verstanden habe. Brauche ich dann nicht zwangsläufig unterschiedliche Ansteuerungslogik für unterschiedliche Panels und Paneltypen? In einem Eizo CG246 steckt ein (zumindest vom Package her) ähnlicher Chip:
http://www.eizo.com/global/products/coloredge/cg246/ASIC.jpg

Allerdings macht das Teil noch deutlich mehr als das, was NV hier für die reine G-Sync-Geschichte benötigt, ab hier bin ich bei dir. Beim RAM bin ich da auch bei dir, das erschließt sich mir auch nicht ganz.

Die dargestellte Größe des Chips finde ich persönlich generell aber erstmal irrelevant, da wir nicht wissen, in welchem Prozess das Ding gerfertigt ist und wie komplex das Ding ist.

Bei aktueller Informationlage sieht das aber in der Tat so aus, als würde man mit Kanonen auf Spatzen schießen.
Das Modul muß nicht universell nutzbar sein, es ist schlicht größtenteils überflüssig.
Ich habe doch gesagt, daß in den Panels bereits jede Menge Ansteuerelektronik steckt. Man benötigt im Prinzip nur eine kleine Modifikation derselben, was praktisch kaum irgendwas kosten dürfte. Und man muß mit einem EDID-Flag oder wie auch immer der Grafikkarte signalisieren, daß man so einen variablen Refresh-Modus unterstützt. Wenn das der Fall ist, schickt die Grafikkarte halt nur noch Bilder, wenn es was Neues gibt (ähnlich wie beim bereits existierenden Self-Refresh-Modus).
Ob das mit existierenden klappt oder nicht, entscheidet sich daran, wie flexibel die Display-Pipelines der GPU sind. Bei Kepler geht es offenbar, bei anderen müßte man mal sehen, ob es ohne Änderungen geht oder man da auf die nächste GPU-Generation warten muß. Sowas wäre eigentlich optimalerweise was für den DP1.3-Standard.

gnahr
2013-10-19, 12:46:36
Das rechtfertigt aber nicht jedweden Hardwareaufwand...das hat wer zu entscheiden? du?
ich muss mal kurz zum lachen in den keller...

Skysnake
2013-10-19, 12:53:19
Tja gnahr, wenn man keine Argumente hat, muss man beleidigend werden nicht? :down:

@Gipsel:
Eigentlich braucht man doch nur einen dynamischen highprecision Taktgeber, der die sonstige Logik steuert. Das Display weiß ja im Prinzip nicht, ob es jetzt ein Bild 16,6, 16,2 , 14 oder 20ms hält. Die GPU muss in dem Fall eigentlich nur noch die Daten so schnell raus ballern, wie es geht über den Displayanschluss. Halt mit doublebuffering.

Man wird da also garantiert noch einiges mehr machen, und wenn man sich die Erweiterungskarte so anschaut nicht wenig. Ich tippe noch immer auf irgend eine Zwischenbildberechnung. Fragt sich halt nur wie und wo. Vor allem aufgrund welcher Daten und mit welchem Sinn ?

AwesomeSauce
2013-10-19, 12:55:16
Bei deinen gesucht pessimistischen geistigen Ergüssen hat er ja auch keine andere Wahl.

AnarchX
2013-10-19, 12:55:33
Vielleicht braucht man den Chip dafür:
U.S. Application Publication No. 2006/0146056 describes one technical approach for dynamically controlling the refresh rate of a display device. This technical approach, also described as a “temporal entropy approach using intra-frame entropy detection”,
http://patents.justia.com/patent/8334857

dargo
2013-10-19, 12:57:03
Da investierst du wohl möglich 70-80 FPS für die konstanten 60 FPS, wo G-Sync mit 40 FPS möglicherweise ebenso flüßig wäre und 50% der Leistung in bessere Grafik investieren könnte.
Verständisfrage... was bringt mir eine eventuell flüssigere Bilddarstellung bei den besagten 40fps wenn meine Steuerung sich zäh anfühlt?

Gipsel
2013-10-19, 13:01:11
Vielleicht braucht man den Chip dafür:

http://patents.justia.com/patent/8334857
Nee, da errechnen die einen Unterschied zwischen Frames, um zu entscheiden, ob bzw. welche Bildschirmbereiche (die mit größeren Änderungen haben Priorität) man updaten soll. Ist eher was für den Mobilbereich.

V2.0
2013-10-19, 13:02:27
Weniger zäh da die Anzeige nun immer im Gleichtakt läuft. Zäh entsteht ja durch Verzögerungen zwischen Eingabe und Anzeige.

dargo
2013-10-19, 13:05:36
Weniger zäh da die Anzeige nun immer im Gleichtakt läuft.
Was soll das denn bringen? Wenn ich einen Framelimit (kein Vsync) von 40fps setze dann fühlt sich die Steuerung einfach mies an, im Vergleich zu bsw. festgesetzten 70fps. Die Abtastrate der Steuerung ist doch an die Render-Framerate gebunden. Hohe fps = weniger Inputlag.

Skysnake
2013-10-19, 13:06:10
Bei deinen gesucht pessimistischen geistigen Ergüssen hat er ja auch keine andere Wahl.
Was hat das mit pessimismus zu tun? Das interessante sind doch IMMER die Cornercases, an denen was schiefgehen kann. Und wie auch andere, z.B. Gipsel sagen, schiest man hier wohl mit Kanonen auf Spatzen. Da muss man sich schon fragen, was die da eigentlich machen, und ob der Aufwand gerechtfertigt ist. Ganz zu schweigen davon, in welchen Situationen das überhaupt hilft.

Ein erfreulicher Punkt ist so doch schon rausgekommen. Es funktioniert anscheinend auch bei gegebener Varianz des Bildinputs an den Monitor. Das ist NICHT selbstverständlich. Und das nVidia das gezeigt hat, zeigt ganz klar, dass Sie sich darüber gedanken gemacht haben und eine zumindest akzeptable Lösung gefunden haben.

Dafür muss man sich halt die richtigen Fragen stellen, und solche Fragen sind halt nunmal meist unangenehm. Deswegen muss man sich sich aber dennoch stellen.

Vielleicht braucht man den Chip dafür:

http://patents.justia.com/patent/8334857
Hä? Bitte was? :freak:

Nur damit ich sicher bin es verstanden zu haben.

Man macht ein Framemetering und setzt darauf aufbauen andere Frameraten fest?

Was soll das bringen :confused: Würde das nicht auch wieder auf Framepacing hinauslaufen und eben gezieltes Verzögern der Frameausgabe?

Oder nimmt man etwa die gesammelten Daten und interpoliert darauf aufbauend dann die Bilddaten? :freak: Das wäre ja freaky

RLZ
2013-10-19, 13:08:48
Was soll das denn bringen? Wenn ich einen Framelimit (kein Vsync) von 40fps setze dann fühlt sich die Steuerung einfach mies an, im Vergleich zu bsw. festgesetzten 70fps.
Eigentlich müsste sich das auch verbessern, da die Zeit zwischen fertiger Berechnung des Bildes und Anzeige auf dem Bildschirm drastisch reduziert wird.

gnahr
2013-10-19, 13:09:52
Tja gnahr, wenn man keine Argumente hat, muss man beleidigend werden nicht? :down:
eben nicht und da irrt auch gipsel. du nimmst dir raus bei den großen chips computing-features quersubventioniert zu bekommen (und wetterst entsprechend gegen die gleiche firma) und hier wird verächtlich gesprochen, dass da vielleicht noch features drinnen stecken und man leistungsfähige hardware verplant hat. das ist schizophren!

aufkrawall
2013-10-19, 13:10:24
Verständisfrage... was bringt mir eine eventuell flüssigere Bilddarstellung bei den besagten 40fps wenn meine Steuerung sich zäh anfühlt?
Wieder alles relativ, 60Hz fühlen sich gegenüber 144 immer zäh an und trotzdem spielst du damit.

dargo
2013-10-19, 13:10:34
Eigentlich müsste sich das auch verbessern, da die Zeit zwischen fertiger Berechnung des Bildes und Anzeige auf dem Bildschirm drastisch reduziert wird.
Also das glaube ich erst wenn ich es selbst teste. :)

Wieder alles relativ, 60Hz fühlen sich gegenüber 144 immer zäh an und trotzdem spielst du damit.
Ich rede von der Steuerung und nicht der Refreshrate vom Bildschirm. Und nein... wo es drauf ankommt (zb. MP) reichen mir keine 60fps für eine butterweiche, direkte Steuerung aus. Da brauche ich eher 70-80fps.

Skysnake
2013-10-19, 13:23:45
eben nicht und da irrt auch gipsel. du nimmst dir raus bei den großen chips computing-features quersubventioniert zu bekommen (und wetterst entsprechend gegen die gleiche firma) und hier wird verächtlich gesprochen, dass da vielleicht noch features drinnen stecken und man leistungsfähige hardware verplant hat. das ist schizophren!
AH ja, und wenn du dir "raus nimmst" über andere zu entscheiden, dann ist das ok ;)

Ich weiß ja nicht, inwieweit du selbst mal was entwickelt hast, aber die Kunst ist es etwas effizient zu gestalten. Wenn Geld "keine" Rolle spielt, dann ist es ein leichtes alles mögliche zu schaffen. So was setzt sich aber nicht durch, einfach weil es ineffizient ist.

Wenn da noch andere "Features" drin stecken, dann Hose runter und zeigen. Ansonsten ist es halt schön für Sie, aber es ist halt fürn Poppes, wenn es nicht genutzt wird.

Und ich weiß nicht was daran Schizophren sein soll, wenn man Produkte betrachtet und nicht Firmen :ugly: Ist doch scheis egal, von welcher Firma etwas kommt! Hauptsache es ist gut! Und so Sachen wie RDMA/GPUDirect (2.0) sind ziemlich gut ;) Vor allem sind Sie wirklich intelligent umgesetzt! Das hier sieht aber leider bisher nicht danach aus.

Gipsel
2013-10-19, 13:25:01
@Gipsel:
Eigentlich braucht man doch nur einen dynamischen highprecision Taktgeber, der die sonstige Logik steuert.Den hat man sowieso. Und so hochpräzise muß der gar nicht sein.
Das Display weiß ja im Prinzip nicht, ob es jetzt ein Bild 16,6, 16,2 , 14 oder 20ms hält.Was die Geschichte mit dem Backlight-Strobing etwas komplizierter macht, wie ich oben beschrieben habe.
Oder nochmal mit Zahlen für ein 120Hz-Display:
- neues Bild kommt => Backlight geht aus
- neue Pixelwerte werden in der Displaymatrix geschrieben
- kurz warten, bis sich die Pixel stabilisiert haben (sagen wir mal, das dauert insgesamt 5ms)
- Backlight an für 3,3 ms (auf voller Helligkeit)
Jetzt sind 8,3ms um und der früheste Zeitpunkt, wann wieder ein neues Bild kommen kann. Wenn man jetzt einfach wartet, wird das Display umso heller, je länger es dauert, geht also nicht. Also:
- Backlight runter auf 3,3/8,3 =40% der Helligkeit
Das war's eigentlich schon und man kann eigentlich so tief mit der Refresh-Rate gehen wie man will. Die Pixel selber halten wie gesagt ihren Zustand sowieso beliebig lange (zumindest bei allen TFTs).
Die GPU muss in dem Fall eigentlich nur noch die Daten so schnell raus ballern, wie es geht über den Displayanschluss. Halt mit doublebuffering.Die GPU muß das Maximum der Framerate beachten (macht sie aber jetzt ja auch schon) und aufpassen, daß bei Bufferflips der gerade an das Display gesendete Buffer nicht geflippt wird (ergibt Tearing). Also im Prinzip triple Buffering (das echte, keine Framequeue), wo das Senden an das Display mit dem Bufferflip anfängt, solange die maximale Refreshrate nicht überschritten wird. Alternativ speichert man den zusätzlich nötigen dritten Buffer im Display selber (wie bei Self-Refresh), ist aber eigentlich unnötig.
Man wird da also garantiert noch einiges mehr machen, und wenn man sich die Erweiterungskarte so anschaut nicht wenig. Ich tippe noch immer auf irgend eine Zwischenbildberechnung. Fragt sich halt nur wie und wo. Vor allem aufgrund welcher Daten und mit welchem Sinn ?Richtig, es macht keinen Sinn. ;)

Tesseract
2013-10-19, 13:47:14
ein backlight-strobe macht sowieso nur dann wirklich sinn, wenn

a) der blitz möglichst kurz und hell ist, im idalfall deutlich unter 1ms
b) der zeitpunkt des blitzes zeitlich mit der kontunuität des angezeigen, bewegten contents überein stimmt. (d.h. unter anderem keine frameverdoppelungen und kein jitter)
c) der strobe, d.h. indirekt auch die framerate, niemals unter den wert fällt, ab dem man das flimmern sehen kann.

so ein strobe wär mit einer dynamischen refreshrate alles andere als trivial.

RLZ
2013-10-19, 13:50:29
Wobei G-Sync ja einen Low-Persistence Mode haben soll.
Da muss man einfach abwarten.

Gipsel
2013-10-19, 13:51:18
ein backlight-strobe macht sowieso nur dann wirklich sinn, wenn

a) der blitz möglichst kurz und hell ist, im idalfall deutlich unter 1ms
b) der zeitpunkt des blitzes zeitlich mit der kontunuität des angezeigen, bewegten contents überein stimmt. (d.h. unter anderem keine frameverdoppelungen und kein jitter)

so ein strobe wär mit einer dynamischen refreshrate alles andere als trivial.Das Auge integriert sowieso. Backlight Strobes maskieren primär die endliche Schaltgeschwindigkeit der Pixel (und bei 3D per Shutterbrille die Schaltgeschwindigkeit dieser). 1ms Strobes sind nur erforderlich, wenn man 240Hz Displays mit Zwischenbildberechnung hat. Bleibt das Bild unverändert, dann muß man natürlich nicht stroben. Und wie es mit dynamischer Refreshrate geht, habe ich doch beschrieben.

Skysnake
2013-10-19, 13:51:55
Den hat man sowieso. Und so hochpräzise muß der gar nicht sein.
Naja, im Vergleich zu sonst halt ;)

Da hat man ja nen 60Hz Signal/Takt mit +/- 0,x% wohl.
Wenn man die Anzeigedauer aber dynamisch macht, braucht man wohl nen minimum 0,6-60kHz Signal/Takt möglichst mit der gleichen Genauigkeit. Man will ja die Frames möglichst feingranular hin und her schieben können.

Was die Geschichte mit dem Backlight-Strobing etwas komplizierter macht, wie ich oben beschrieben habe.
Oder nochmal mit Zahlen für ein 120Hz-Display:
- neues Bild kommt => Backlight geht aus
- neue Pixelwerte werden in der Displaymatrix geschrieben
- kurz warten, bis sich die Pixel stabilisiert haben (sagen wir mal, das dauert insgesamt 5ms)
- Backlight an für 3,3 ms (auf voller Helligkeit)
Jetzt sind 8,3ms um und der früheste Zeitpunkt, wann wieder ein neues Bild kommen kann. Wenn man jetzt einfach wartet, wird das Display umso heller, je länger es dauert, geht also nicht. Also:
- Backlight runter auf 3,3/8,3 =40% der Helligkeit
[/quote]
/sign, wobei die Stabilisierung der Pixel wohl schneller als 5ms geht, aber ob jetzt 2 oder 5 spielt eigentlich keine rolle.

Der Punkt ist, man hat schon einen ziemlichen Overhead, wo man halt nichts machen kann.

Summa Summarum sind das hier z.B. schon mal die von dir genannten 8,3ms. Das ist schon nen ganz schöner Overhead. Da bleibt im Vergleich zu "normalem" vSync nicht mehr viel übrig zum "spielen". Gut, wenn man auf 30Hz runter klatscht, dann ist das natürlich ein Unterschied. Aber mit adaptivem vSync sollte das ja eigentlich eh "Geschichte" sein.

Ich frag mich echt, in wieweit da noch ein Vorteil da ist, der den Aufwand rechtfertigt.


Das war's eigentlich schon und man kann eigentlich so tief mit der Refresh-Rate gehen wie man will. Die Pixel selber halten wie gesagt ihren Zustand sowieso beliebig lange (zumindest bei allen TFTs).

Theoretisch ja, praktisch gibt es da drifts, was die maximale Dauer beschränkt.


Richtig, es macht keinen Sinn. ;)
Na da bin ich froh, das ich nichts übersehen hab und es echt keinen Sinn machen würde ;D

Tesseract
2013-10-19, 13:54:32
Das Auge integriert sowieso. Backlight Strobes maskieren nur die endliche Schaltgeschwindigkeit der Pixel (und bei 3D per Shutterbrille die Schaltgeschwindigkeit dieser). 1ms Strobes sind nur erforderlich, wenn man 240Hz Displays mit Zwischenbildberechnung hat. Bleibt das Bild unverändert, dann muß man natürlich nicht stroben. Und wie es mit dynamischer Refreshrate geht, habe ich doch beschrieben.

was meinst du mit "Das Auge integriert sowieso"? je weiter man von meinem beschrieben idealfall weg ist, umso mehr zerläuft das bewegte bild wieder in richtung hold-type.

Gipsel
2013-10-19, 14:02:30
was meinst du mit "Das Auge integriert sowieso"? je weiter man von meinem beschrieben idealfall weg ist, umso mehr zerläuft das bewegte bild wieder in richtung hold-type.
Daß Du oberhalb von 120Hz effektiv kaum einen Unterschied mehr siehst, weil eben das Auge die Intensität integriert. Wenn Du 40Hz mit Backlight-Strobing machst, hat Du keine Strobes mehr, Du schaltest nur das Backlight jeweils für wenige (<10) Millisekunden aus, sonst flimmert es. Die ganze Geschichte mit G-Sync betont ja gerade den Hold-Type-Charakter von TFTs. Ohne Zwischenbildberechnung bleibt wie gesagt nur die Maskierung der Schaltzeiten übrig.

edit:
Theoretisch ja, praktisch gibt es da drifts, was die maximale Dauer beschränkt.Na okay, wenn man unter 1 fps sinkt, dann hat man aber auch andere Probleme.
Und Deine Argumentation mit den 8,3ms verstehe ich nicht ganz. Das ist halt die Frametime bei 120Hz. Bringen tut die variable Refreshrate nur unterhalb davon etwas und da hat man eben nicht diese 8,3ms Latenz zusätzlich.

dildo4u
2013-10-19, 14:02:55
Eurogamer Artikel zu G-SYNC

http://www.eurogamer.net/articles/digitalfoundry-nvidia-g-sync-the-end-of-screen-tear-in-pc-gaming


Er meint es könnte kontraproduktiv für NV sein da man weniger GPU Power braucht für flüssiges zocken.

Skysnake
2013-10-19, 14:03:17
Die Proteine(?) im Auge brauchen eine gewisse Zeitspanne, um sich wieder zu regenerieren ADP und so Sachen halt. Dazu kommt noch die Bündelung von Signalen. Das führt alles dazu, dass das menschliche Gehirn+Augen nur sehr begrenzt zeitlich auflösen kann.

Deswegen macht es auch kaum einen Unterschied, ob du bei sehr keinen Zeitspannen jetzt eine gewisse Intensität punktuell oder eben verteilt über eine etwas größere abgibst. Wichtig ist nur die Summe/Zeitintegral.

Deswegen funktionieren "Bewegtbilder" ja überhaupt erst ;)

Während dem Schaltvorgang der Pixel muss man halt das Licht ausschalten, wie ist erstmal egal. Wenn man es nicht machen würde, würde man aber falsche Farbdarstellungen bekommen, je nachdem wie stark die Kristalle sich halt drehen müssen. Das wäre verdammt hässlich.

aufkrawall
2013-10-19, 14:07:03
Ich rede von der Steuerung und nicht der Refreshrate vom Bildschirm. Und nein... wo es drauf ankommt (zb. MP) reichen mir keine 60fps für eine butterweiche, direkte Steuerung aus. Da brauche ich eher 70-80fps.
Ich hab von Hz gesprochen und die wirken sich natürlich auch auf die subjektive Umsetzung der Steuerung aus.
Der Input Lag wird mit Gsync bei 30-40fps wohl kaum niedriger sein als mit fps-Limiter, wie sollte das gehen?

boxleitnerb
2013-10-19, 14:08:56
Die Frage ist, wirkt der fps-Limiter überhaupt bzw. genauso gut auch wenn das Limit nicht greift? Also 50 fps Limit und dann 35 fps z.B. Ohne Messung mag ich mich da nicht festlegen, ist doch sehr subjektiv eigentlich.

Gipsel
2013-10-19, 14:12:02
Während dem Schaltvorgang der Pixel muss man halt das Licht ausschalten, wie ist erstmal egal. Wenn man es nicht machen würde, würde man aber falsche Farbdarstellungen bekommen, je nachdem wie stark die Kristalle sich halt drehen müssen. Das wäre verdammt hässlich.Machen billigere (und auch viele teure) Monitore nicht. Gibt dann halt Schlieren und Echos bei bewegten Bildern, je nach dem wie langsam oder schnell die schalten.

samm
2013-10-19, 14:15:06
Ich finde die Technik ja äusserst vielversprechend, besonders, wenn es denn generisch über die entsprechende Displayport-Funktion nutzbar wäre ;)

Wo ich mich noch etwas mehr einlesen, und bei Gelegenheit "einsehen" muss, ist der Flimmereffekt. Zu CRT-Zeiten war 100Hz gerade so ok für mich, bei aktuellen TFTs führt längeres Sitzen an "langsam" PWM-helligkeitsregulierten Monitoren zu Konzentrationsschwächen und mit der Zeit Schwindel - wenn nun das Backlight wieder rumzuflackern beginnt wie in den schlechten alten Zeiten... mal sehen, wie ich damit zurechtkomme. Der Schärfegewinn ist ja schon beachtlich.

Tesseract
2013-10-19, 14:20:05
Daß Du oberhalb von 120Hz effektiv kaum einen Unterschied mehr siehst, weil eben das Auge die Intensität integriert. Wenn Du 40Hz mit Backlight-Strobing machst, hat Du keine Strobes mehr, Du schaltest nur das Backlight jeweils für wenige (<10) Millisekunden aus, sonst flimmert es.

Deswegen macht es auch kaum einen Unterschied, ob du bei sehr keinen Zeitspannen jetzt eine gewisse Intensität punktuell oder eben verteilt über eine etwas größere abgibst. Wichtig ist nur die Summe/Zeitintegral.

das ist schon klar, das ändert aber nichts daran, dass bei einem strobe die blitzzeit kurz sein muss damit das bild in bewegungs scharf ist. je länger das bild angezeigt wird, umso mehr "verschmiert" dir die bewegung die schärfe.

ist total analog zu einer fotokamera: du kannst lange mit wenig licht oder kurz mit viel licht belichten. wenn die summe des einfallenden lichts über die belichtungsdauer gleich ist wird das bild gleich hell sein. mit einer kürzeren belichtung sind bewegungen aber schärfer. der optimalfall ist dann sowas wie ein echter, synchonisierter blitz bei dem jedes bild immer bewegungsscharf ist.

mironicus
2013-10-19, 14:21:46
Die sollten diese Technik als eigenes Modul zwischen Grafikkarte und Monitor herausbringen. Stellt euch mal einen AV-Receiver mit HDMI-Eingängen (für Xbox, HTPC, PS4...) vor und dann könnte man von jeglicher Quelle und mit jedem normalen Fernseher/Monitor ohne Tearing spielen.

Tesseract
2013-10-19, 14:23:33
Die sollten diese Technik als eigenes Modul zwischen Grafikkarte und Monitor herausbringen. Stellt euch mal einen AV-Receiver mit HDMI-Eingängen (für Xbox, HTPC, PS4...) vor und dann könnte man von jeglicher Quelle und mit jedem normalen Fernseher/Monitor ohne Tearing spielen.

das geht nicht sonst hätte man das schon vor ewigkeiten in die graka integriert. damit das funktioniert muss der monitor flexibel das bild refreshen können.

Gipsel
2013-10-19, 14:23:55
Wo ich mich noch etwas mehr einlesen, und bei Gelegenheit "einsehen" muss, ist der Flimmereffekt. Zu CRT-Zeiten war 100Hz gerade so ok für mich, bei aktuellen TFTs führt längeres Sitzen an "langsam" PWM-helligkeitsregulierten Monitoren zu Konzentrationsschwächen und mit der Zeit Schwindel - wenn nun das Backlight wieder rumzuflackern beginnt wie in den schlechten alten Zeiten... mal sehen, wie ich damit zurechtkomme. Der Schärfegewinn ist ja schon beachtlich.Schärfe gewinnst Du gar nicht, es gibt halt kein Tear mehr. Wie Tesseract ja schon auffiel, kann das sogar zu einer etwas größeren empfundenen Unschärfe von bewegten Objekten führen, was aber nicht unbedingt schlecht sein muß (Spiele rechnen oft ja sowieso Motionblur rein). Und es paßt zu dem, was die Leute berichtet haben (butterweich).

Gebrechlichkeit
2013-10-19, 14:24:42
Eurogamer Artikel zu G-SYNC

Er meint es könnte kontraproduktiv für NV sein da man weniger GPU Power braucht für flüssiges zocken.

Nix was man nicht via eines firmware patch, Microsoft "up2date" TFT driver nicht "gerade biegen kann".

Oder ?

V2.0
2013-10-19, 14:29:26
Ich hab von Hz gesprochen und die wirken sich natürlich auch auf die subjektive Umsetzung der Steuerung aus.
Der Input Lag wird mit Gsync bei 30-40fps wohl kaum niedriger sein als mit fps-Limiter, wie sollte das gehen?

Gefühlt müsste es besser sein, weil das gerenderte Bild sofort vollständig erscheint, heute hast Du das Tearing so, dass die vollständige Darstellung des nächsten Frames immer erst mit dem nächsten erfolgt.

samm
2013-10-19, 14:29:33
Schärfe gewinnst Du gar nicht, es gibt halt kein Tear mehr. Wie Tesseract ja schon auffiel, kann das sogar zu einer etwas größeren empfundenen Unschärfe von bewegten Objekten führen, was aber nicht unbedingt schlecht sein muß (Spiele rechnen oft ja sowieso Motionblur rein). Und es paßt zu dem, was die Leute berichtet haben (butterweich).Ich seh schon, muss mich wirklich einlesen, habe gedacht, dass das wie beim Lightboost-Hack funktioniert ;)

Sunrise
2013-10-19, 14:32:15
Wobei G-Sync ja einen Low-Persistence Mode haben soll.
Da muss man einfach abwarten.
Hier übrigens nochmal ein interessanter Link, wo Carmack behind the stage etwas detailierter wird (er spricht auch den Low-Persistence Mode an):

http://www.twitch.tv/linustech/b/471263848?t=1h44m

Geldmann3
2013-10-19, 14:38:06
Naja, im Endeffekt wird Gsync eine Randerscheinung für Nerds bleiben, schon weil es eine proprietäre Technologie ist. Wir werden es nie in hoher Verbreitung sehen und somit ist es für mich nicht sehr interessant.

Sinnvoll wird sowas für die Allgemeinheit erst, wenn es von der gesamten Monitor/TV/GPU Industrie standardisiert wird. Und dann auch mit AMD/Intel GPU's lauffähig wäre.

Doch vielleicht wird man irgendwann in der IT-Geschichte auf Gsync zurückblicken und sagen:,,Guck, damals hatte Nvidia schon die Idee gehabt, leider hatte sich das so nicht durchsetzen können"

Tesseract
2013-10-19, 14:42:13
Hier übrigens nochmal ein interessanter Link, wo Carmack behind the stage etwas detailierter wird (er spricht auch den Low-Persistence Mode an):

http://www.twitch.tv/linustech/b/471263848?t=1h44m

carmack bestätigt sogar, dass strobe und gsync zusammen funktionieren werden. sehr nice.

Gipsel
2013-10-19, 14:42:14
das ist schon klar, das ändert aber nichts daran, dass bei einem strobe die blitzzeit kurz sein muss damit das bild in bewegungs scharf ist. je länger das bild angezeigt wird, umso mehr "verschmiert" dir die bewegung die schärfe.Das angezeigte Bild ändert sich doch nicht, das ist also objektiv gesehen scharf, völlig unabhängig von der Länge des Strobes.

Was sich ändert, ist wie es wirkt, wenn Du ein bewegtes Objekt fokussierst und verfolgst, also wirklich per Augen-/Kopfbewegung verfolgst. In so einem Fall sieht ein echtes bewegtes Objekt scharf aus, ebenso eins mit kurzen Strobes produziertes, während ein normaler LCD eine leichte Bewegungsunschärfe zeigt (weil man ein zeitweise feststehendes Objekt mit einer bewegten "Kamera" abbildet). Aber ohne Zwischenbildberechnung hast Du davon nichts, wie Du im Prinzip selber gesagt hast. Mit 60Hz kannst Du nicht in dem Sinne stroben, das flimmert wie die Hölle. Und bei den hier diskutierten Bildfrequenzen von 30-60 Hz, wo es am meisten bringt, kannst Du das mit 1ms Strobes absolut vergessen. Alles was da an Funtionalität übrig bleibt, ist die Maskierung der Pixelschaltzeiten und den davon verursachten Geisterbildern und Blur.
ist total analog zu einer fotokamera: du kannst lange mit wenig licht oder kurz mit viel licht belichten. wenn die summe des einfallenden lichts über die belichtungsdauer gleich ist wird das bild gleich hell sein. mit einer kürzeren belichtung sind bewegungen aber schärfer. der optimalfall ist dann sowas wie ein echter, synchonisierter blitz bei dem jedes bild immer bewegungsscharf ist.Das ist mir vollkommen klar (außer daß es hier eigentlich auch eine bewegliche Kamera wesentlich ist). Die Sache ist wie gesagt so, daß nur ein Objekt was wir fokussieren und aktiv verfolgen scharf aussieht. Tun wir das nicht, bildet ein LCD ohne Strobing das bereits gut ab. Auch deswegen ist Motionblur in Spielen ohne Eyetracking eigentlich auch ein lost cause.

mironicus
2013-10-19, 14:44:58
Vor Frühjahr 2014 kommen keine Monitore mit dieser Technik auf den Markt.

dargo
2013-10-19, 14:49:41
Ich hab von Hz gesprochen und die wirken sich natürlich auch auf die subjektive Umsetzung der Steuerung aus.

Nicht, dass ich wüßte. Als ich vor Jahren mal auf nem CRT gespielt habe war es für die Steuerung auch egal ob der Bildschirm mit 75Hz oder 100Hz "geflimmert" hat solange die Framerate sehr hoch war.


Der Input Lag wird mit Gsync bei 30-40fps wohl kaum niedriger sein als mit fps-Limiter, wie sollte das gehen?
Keine Ahnung was du mir damit jetzt sagen möchtest. Für mich ist nur eins interessant... fühlt sich die Steuerung bei sagen wir mal 40fps mit GSync genauso direkt an wie mit festgetackerten 70fps ohne GSync oder nicht? Im letzteren Fall können sie dieses GSync gleich begraben. Dann wäre das für mich wie eine Zwischenbildberechnung. Nur habe ich beim Zocken nichts davon wenn die Bildrate flüssiger rüberkommt, aber die Steuerung zäh bleibt.

Tesseract
2013-10-19, 14:52:04
Die Sache ist wie gesagt so, daß nur ein Objekt was wir fokussieren und aktiv verfolgen scharf aussieht. Tun wir das nicht, bildet ein LCD ohne Strobing das bereits gut ab.
diese situation ist aber der normalfall in fast jedem 3D-spiel, das es gibt. jede änderung der blickrichtung weitet das problem auf fast 100% des bildschirminhaltes aus. das ist mehr als ein kleines randproblem für irgendwelche sonderfälle.

Gipsel
2013-10-19, 14:52:58
carmack bestätigt sogar, dass strobe und gsync zusammen funktionieren werden. sehr nice.Im Prinzip sagt er, daß es ziemlich so funktioniert, wie ich das beschrieben habe. Die "low persistence" wird zur full persistence bei niedrigen Frameraten.

Godmode
2013-10-19, 14:55:10
G-Sync = V-Sync Aus und trotzdem kein Tearing :up:

G-Sync in einem 4k Monitor mit 144 Hz und ich habe den neuen Monitor für die nächsten Jahre.

aufkrawall
2013-10-19, 14:56:36
Nicht, dass ich wüßte. Als ich vor Jahren mal auf nem CRT gespielt habe war es für die Steuerung auch egal ob der Bildschirm mit 75Hz oder 100Hz "geflimmert" hat solange die Framerate sehr hoch war.

Ist dann mit LCD anders.


Keine Ahnung was du mir damit jetzt sagen möchtest. Für mich ist nur eins interessant... fühlt sich die Steuerung bei sagen wir mal 40fps mit GSync genauso direkt an wie mit festgetackerten 70fps ohne GSync oder nicht? Im letzteren Fall können sie dieses GSync gleich begraben. Dann wäre das für mich wie eine Zwischenbildberechnung. Nur habe ich beim Zocken nichts davon wenn die Bildrate flüssiger rüberkommt, aber die Steuerung zäh bleibt.
Der Vergleich ist doch komplett sinnfrei, höhere fps haben immer eine niedrigere Latenz.
Es ist auch in MP-Spielen überhaupt nicht sinnlos, weil so der Lag und die "Smoothness" immer so gut sind, wie es halt maximal möglich ist.
Du schaffst ja die meiste Zeit mehr als 60fps, und dann hättest du halt deine 70fps@gesyncte 70Hz mit niedrigerem Lag als mit normalem Vsync.
Was daran unsinnig sein soll, erschließt sich mir nicht.

ilibilly
2013-10-19, 14:57:14
schade für couchpotatoes die lieber an einem 60" plasma ihre games zocken ist das wohl nicht nutzbar.
Vielleicht hätte nvidia den weg mit allen monitor und tv herstelleren beschreiten sollen und so einen industriestandard ins leben rufen können,denn so werden imho wohl nur ein paar nerds und progamer sich sowas zulegen ,bleibt wohl ein nischenprodukt.
Sollten lieber schauen das sie hardwaremäßig die microruckler bveseitigen,da hätten alle was davon und sli würde sinn machen.

aufkrawall
2013-10-19, 14:58:54
Sollten lieber schauen das sie hardwaremäßig die microruckler bveseitigen,da hätten alle was davon und sli würde sinn machen.
Das könnte damit ja noch kommen. SLI ist btw. auch ein Nischenprodukt.
Die meisten Leute haben eh kaum Anspruch, da ists um diese "Exklusivität" imho nicht besonders schade.

Gipsel
2013-10-19, 15:00:03
diese situation ist aber der normalfall in fast jedem 3D-spiel, das es gibt. jede änderung der blickrichtung weitet das problem auf fast 100% des bildschirminhaltes aus. das ist mehr als ein kleines randproblem für irgendwelche sonderfälle.Wenn Du dich umdrehst, muß Dein Blick typischerweise unscharf werden (weil das Auge eben integriert). Nur ein Objekt, dem du eventuell folgst, was also während der Drehung im Zentrum Deines Blickfeldes bleibt, darf scharf bleiben. Ansonsten ist es unnatürlich.
Aber ist ja auch egal, bei 30-40fps wird es nie vollkommen flüssig aussehen, das geht prinzipiell nicht, wenn Du Dich nicht auf Zwischenbildberechnung mitsamt der daraus resultierenden zusätzlichen Latenz einlassen willst (was bei Games wohl so sein dürfte).

Blediator16
2013-10-19, 15:00:32
Dieses Modul kostet 175$ und wenn sowas mal in Deutschland zu kaufen gibt wahrscheinlich 199€.

dargo
2013-10-19, 15:01:08
Ist dann mit LCD anders.

Inwiefern?


Der Vergleich ist doch komplett sinnfrei, höhere fps haben immer eine niedrigere Latenz.

Siehst du... also ist dieses GSync für mich sinnfrei.

aufkrawall
2013-10-19, 15:04:53
Inwiefern?

Stell dir nen 144Hz-LCD hin und probier mal z.B. ein Source Engine-Spiel mit festgetackerten 120fps ohne Vsync aus. Das fühlt sich direkter an als mit 60Hz.
Ist ja auch klar, die Latzenz ist durch mehr dargestellte fps geringer.


Siehst du... also ist dieses GSync für mich sinnfrei.
Da fällt mir dann nur noch :facepalm: ein.
Es kann nie sinnfrei sein, dass es mit den gleichen fps flüssiger läuft, nicht teart und weniger lagt...

mironicus
2013-10-19, 15:10:12
schade für couchpotatoes die lieber an einem 60" plasma ihre games zocken ist das wohl nicht nutzbar.
Vielleicht hätte nvidia den weg mit allen monitor und tv herstelleren beschreiten sollen und so einen industriestandard ins leben rufen können,denn so werden imho wohl nur ein paar nerds und progamer sich sowas zulegen ,bleibt wohl ein nischenprodukt.

Das ist doch genau der Weg den NVidia schon immer beschritten hat, man grenzt sich ab mit einer Technik die nur auf einer Hardware läuft.

Das ermöglichte z.B. das man Displays mit schlechten Blickwinkeln für über 300 Euro verkaufen kann, und bald kosten sie dann 500 Euro mit G-Sync. :)

Ich warte lieber auf bezahlbare OLED-Displays für eine flüssige Darstellung, alles andere ist Käse.

Tesseract
2013-10-19, 15:13:43
Wenn Du dich umdrehst, muß Dein Blick typischerweise unscharf werden (weil das Auge eben integriert). Nur ein Objekt, dem du eventuell folgst, was also während der Drehung im Zentrum Deines Blickfeldes bleibt, darf scharf bleiben. Ansonsten ist es unnatürlich.
das auge ist wärend einer drehung fast immer auf irgendeinen punkt im bild fokusiert.

Ich warte lieber auf bezahlbare OLED-Displays für eine flüssige Darstellung, alles andere ist Käse.
ein OLED mit fester refreshrate und hold-type-charakeristik hast fast genau die gleichen probleme wie ein TFT, nur eben ohne zusätzlicher sichtbarer zellenschaltzeit.

dargo
2013-10-19, 15:20:17
Stell dir nen 144Hz-LCD hin und probier mal z.B. ein Source Engine-Spiel mit festgetackerten 120fps ohne Vsync aus. Das fühlt sich direkter an als mit 60Hz.
Ist ja auch klar, die Latzenz ist durch mehr dargestellte fps geringer.

Das ist nicht die Antwort auf meine Frage. Zudem... solche Uraltschinken wie die Source-Engine interessiert mich nicht. Bitte was Modernes wenn schon. Und selbst wenn sich das bei 144Hz noch etwas direkter anfühlt... mir reicht das Ansprechverhalten der Steuerung @60Hz und 70-80fps aus.


Da fällt mir dann nur noch :facepalm: ein.
Es kann nie sinnfrei sein, dass es mit den gleichen fps flüssiger läuft, nicht teart und weniger lagt...
Letzteres weißt du noch gar nicht. Also erstmal locker bleiben. Bei Lags würde ich mich noch nicht mal auf irgendwelche Reviews verlassen. Nicht jeder nimmt das gleichermaßen negativ auf. Schon gar nicht mit einem Gamepad. Wenn schon dann nur eine sehr schnelle Maus. Leichtes Tearing hat mich noch nie gestört. Habe ich auch kaum, es sei denn die Framerate fällt mal knapp unter 60fps, was eher selten vorkommt.

RLZ
2013-10-19, 15:40:28
Letzteres weißt du noch gar nicht.
Es ist zumindest das was Nvidia verspricht und technisch auch Sinn macht.
(weil weniger Buffering + schnellere Datenübertragung zum Display)

Skysnake
2013-10-19, 15:54:56
Machen billigere (und auch viele teure) Monitore nicht. Gibt dann halt Schlieren und Echos bei bewegten Bildern, je nach dem wie langsam oder schnell die schalten.
What? :freak:

Ist das der Rationalisierung/Preisen zum Opfer gefallen oder was? Das war ja sogar bei uns im Studium drin, als wie die Konzepte von Flüssigkristallen usw mal durchgequatscht haben, als Anwendung der Optik.

das ist schon klar, das ändert aber nichts daran, dass bei einem strobe die blitzzeit kurz sein muss damit das bild in bewegungs scharf ist. je länger das bild angezeigt wird, umso mehr "verschmiert" dir die bewegung die schärfe.

Nein muss es nicht. :ugly: Während der Anzeige bewegt sich ja rein gar nichts. ;D DAs sind immer statische Bilder ohne Bewegung. Die Bewegung passiert ja erst in deinem Gehirn ;)


ist total analog zu einer fotokamera: du kannst lange mit wenig licht oder kurz mit viel licht belichten. wenn die summe des einfallenden lichts über die belichtungsdauer gleich ist wird das bild gleich hell sein. mit einer kürzeren belichtung sind bewegungen aber schärfer. der optimalfall ist dann sowas wie ein echter, synchonisierter blitz bei dem jedes bild immer bewegungsscharf ist.
Nein ist es nicht, weil da eben eine echte Bewegung stattfindet, die du einfrieren musst. Hier gibt es ja aber gar keine Bewegung bis zum nächsten Schaltvorgang.

@Gipsel:
Haben die eigentlich gesagt, wie groß die Varianz sein kann bzgl dem wie lange man ein Bild länger hält?

Im Prinzip ginge das ja auch, wenn man den Monitor einfach mit 120/144/240 Hz laufen lassen würde :ugly: Die Varianzen wären dann halt entsprechend.

Ich raffs echt auf keinem Auge, für was die da so viel Hardware verbauen.

Tesseract
2013-10-19, 16:12:32
Nein muss es nicht. :ugly: Während der Anzeige bewegt sich ja rein gar nichts. ;D DAs sind immer statische Bilder ohne Bewegung. Die Bewegung passiert ja erst in deinem Gehirn ;)

wenn sich das auge um +x° bewegt, bewegt sich das bild relativ zum auge um -x°. dieser winkel über zeit erzeugt eine unschärfe und je kürzer der blitz ist umso kleiner ist der winkel und damit das bild schärfer.
wäre dem nicht so würde eine bewegung am TFT genau so aussehen wie am CRT.

OC_Burner
2013-10-19, 17:07:55
Inwiefern?
Siehst du... also ist dieses GSync für mich sinnfrei.
Da fällt mir dann nur noch :facepalm: ein.
Es kann nie sinnfrei sein, dass es mit den gleichen fps flüssiger läuft, nicht teart und weniger lagt...

Das wesentlichste und auffälligste Feature ist doch die Eliminierung von Judderartefakten. Allein dafür ist G-Sync primär gedacht (siehe Pendeldemo). Aber ohne es mal live gesehen zu haben kann man unmöglich darüber eine Aussage treffen. Die Bildausgabe erscheint zu jeden Zeitpunkt sehr gleichmäßig, egal ob nun 40, 48, 55, oder 60FPS gerendert werden. Dieses Zuckeln das in konstanten Intervallen auftritt wenn von der Monitorrefreshrate abgewichen wird entfällt mit G-Sync.

AnarchX
2013-10-19, 17:22:51
In der 120FPS Aufnahme von Digital Foundry kann man die Vorteile von G-Sync schon etwas erahnen: http://www.youtube.com/watch?v=NffTOnZFdVs

StefanV
2013-10-19, 17:35:05
Sorry wenn ich jetzt doof Frage:
Kann das G-sync noch was "anderes" außer für stabiliere Frameverläufe sorgen ?
Nein, mit der Berechnung im PC hat es nix zu tun, nur was mit der Darstellung der Bilder auf dem Schirm.

Naja, im Endeffekt wird Gsync eine Randerscheinung für Nerds bleiben, schon weil es eine proprietäre Technologie ist.
Genau wie damals ESA auch...
Zumal das auch nur auf High End Boards möglich war und nicht auf allen Boards mit eigenem Chipsatz...
Entsprechend rar waren auch ESA Komponenten (wie Netzteile)...

Gut, letztendlich kanns nur besser als ESA werden (http://www.nvidia.com/docs/IO/46624/ESA_Certified_Components.pdf)...

dargo
2013-10-19, 18:08:03
Das wesentlichste und auffälligste Feature ist doch die Eliminierung von Judderartefakten. Allein dafür ist G-Sync primär gedacht (siehe Pendeldemo). Aber ohne es mal live gesehen zu haben kann man unmöglich darüber eine Aussage treffen. Die Bildausgabe erscheint zu jeden Zeitpunkt sehr gleichmäßig, egal ob nun 40, 48, 55, oder 60FPS gerendert werden. Dieses Zuckeln das in konstanten Intervallen auftritt wenn von der Monitorrefreshrate abgewichen wird entfällt mit G-Sync.
Ich stimme dir da zu OC_Burner. Die Bildausgabe ist aber nun mal ein Faktor in Spielen, die Steuerung ein weiterer. Würde es hier nur um Videos gehen wäre das was anderes. Aber wie du schon sagst... um das richtig beurteilen zu können muss man es wohl erst selbst testen.

In der 120FPS Aufnahme von Digital Foundry kann man die Vorteile von G-Sync schon etwas erahnen: http://www.youtube.com/watch?v=NffTOnZFdVs
Naja... wird schon einen Grund haben warum man 1/4 Speed nimmt. ;) So ein starkes Tearing wie in der ersten Szene zu sehen habe ich auf meinem Bildschirm noch nie gesehen. Hier treffen viele Faktoren gleichzeitig aufeinander zu.

1. Kameraführung
2. Speed
3. Eventuell ungünstige Frameverteilung

Tesseract
2013-10-19, 18:58:15
Naja... wird schon einen Grund haben warum man 1/4 Speed nimmt. ;)

weil man auf diesem "bootleg", das unter schlechten bedingungen in irgendeiner halle aufgenommen und für youtube transkodiert wurde sonst sowieso nix gesehen hätte.
an dem tearing ist absolut nichts außergewöhnlich. genau sowas entsteht immer wenn man über- oder unterhalb des refreshes geht.

Virtual
2013-10-19, 19:08:04
In der 120FPS Aufnahme von Digital Foundry kann man die Vorteile von G-Sync schon etwas erahnen: http://www.youtube.com/watch?v=NffTOnZFdVs
"Erahnen" ist hier wohl sicher das falsche Wort. "...Vorteile von G-Sync überzogen dargestellt:" trifft es wohl eher. Mittlerweile wohl unbestritten hat G-Sync eine Vorteil gegenüber klassischem VSync, allerdings wird eine 120Hz Aufname, abgespielt mit 30 Bilder, dazu mißbraucht, Tearing für das menschliche Auge überdeutlich sichtbar und damit für das Gehirn weit mehr wahrnehmbar zu machen. Die gleiche Szene mit 60Hz aufgenommen und ebenso abgespielt, würde das Tearing deutlich weniger "offensichtlich" machen. Insofern ist dient das Video nicht dazu, beim "erahnen" der Vorteile hilfreich zu sein, sondern ist quasi eine überzogene Visualisierung von Tearing, die man so vor dem Bildschirm nie wahrgenommen hätte! Marketing eben!

Virtual
2013-10-19, 19:13:48
weil man auf diesem "bootleg", das unter schlechten bedingungen in irgendeiner halle aufgenommen und für youtube transkodiert wurde sonst sowieso nix gesehen hätte.
an dem tearing ist absolut nichts außergewöhnlich. genau sowas entsteht immer wenn man über- oder unterhalb des refreshes geht.Hallo! Das ist eine "Tearing"-Zeitlupe, zuvor mit einer "Hochgeschwindigkeitkamera" aufgenommen. So kann ich auch (überzogen dargestellt!) einem Kolibri bequem beim Flügelschlag zuschauen. Ohne dieses "Hilfsmittel" wird dein Gehirn Schwierigkeiten, die Flügelschläge (Tearing) so deutlich wahrzunehmen!

dargo
2013-10-19, 19:16:44
"Erahnen" ist hier wohl sicher das falsche Wort. "...Vorteile von G-Sync überzogen dargestellt:" trifft es wohl eher. Mittlerweile wohl unbestritten hat G-Sync eine Vorteil gegenüber klassischem VSync, allerdings wird eine 120Hz Aufname, abgespielt mit 30 Bilder, dazu mißbraucht, Tearing für das menschliche Auge überdeutlich sichtbar und damit für das Gehirn weit mehr wahrnehmbar zu machen. Die gleiche Szene mit 60Hz aufgenommen und ebenso abgespielt, würde das Tearing deutlich weniger "offensichtlich" machen. Insofern ist dient das Video nicht dazu, beim "erahnen" der Vorteile hilfreich zu sein, sondern ist quasi eine überzogene Visualisierung von Tearing, die man so vor dem Bildschirm nie wahrgenommen hätte! Marketing eben!
Oder so. :D

Was ich aber bei diesem Video mit 1/4 Speed lustig finde. Die Säule hat zwar keinen sichtbaren Cut wie ohne G-Sync, dafür schwabelt die aber ständlich vor sich hin.

Tesseract
2013-10-19, 19:18:24
Hallo! Das ist eine "Tearing"-Zeitlupe, zuvor mit einer "Hochgeschwindigkeitkamera" aufgenommen. So kann ich auch (überzogen dargestellt!) einem Kolibri bequem beim Flügelschlag zuschauen. Ohne dieses "Hilfsmittel" wird dein Gehirn Schwierigkeiten, die Flügelschläge (Tearing) so deutlich wahrzunehmen!

ich hatte noch nie schwierigkeiten damit tearing zu sehen. die bilder laufen natürlich real schneller ab, aber die sprungweiten des tearings sind durchaus vergleichbar und ich sehe sie absolut problemlos.

dargo
2013-10-19, 19:20:42
Hallo! Das ist eine "Tearing"-Zeitlupe, zuvor mit einer "Hochgeschwindigkeitkamera" aufgenommen. So kann ich auch (überzogen dargestellt!) einem Kolibri bequem beim Flügelschlag zuschauen. Ohne dieses "Hilfsmittel" wird dein Gehirn Schwierigkeiten, die Flügelschläge (Tearing) so deutlich wahrzunehmen!
Mich errinert das irgendwie an die Mikrorucklerproblematik beim AMD-Treiber wo eine Hochgeschwindigkeitskamera genommen wurde und es dann in Zeitlupe abgespielt wurde um die Mikroruckler sichtbar zu machen. :D

Tesseract
2013-10-19, 19:23:00
Was ich aber bei diesem Video mit 1/4 Speed lustig finde. Die Säule hat zwar keinen sichtbaren Cut wie ohne G-Sync, dafür schwabelt die aber ständlich vor sich hin.
weil das bild zeilenweise refresht wird und nicht auf einmal. schieb mal das browserfenster hin und her und schau genau hin: das fenster wobbelt auch nach und vertikale kanten werden leicht schräg.
carmack hat sogar mal scherzhaft gesagt es wär sinnvoller das bild von unten nach oben statt von oben nach unten aufzubauen weil der untere teil des bildes, in dem meist das "wichtigere" passiert dann minimal aktueller wäre.

davon kommt ja auch das tearing: der refresh ist z.B. in zeile 534, dann swappt die graka auf den aktuelleren framebuffer, zeile 535 wird aus dem aktuelleren refresht und da sich das bild im neueren framebuffer schon etwas weiterbewegt hat gibt es an der stelle einen tear.

dargo
2013-10-19, 19:25:15
ich hatte noch nie schwierigkeiten damit tearing zu sehen. die bilder laufen natürlich real schneller ab, aber die sprungweiten des tearings sind durchaus vergleichbar und ich sehe sie absolut problemlos.
Hier fehlen jede Menge Informationen. Unter welchen Bedingungen (Framerate, Szene, Spiel)? Mit welchen Bildschirm? Ich habe ab und zu mal auch sichtbares Tearing, aber das ist kaum der Rede wert weil es sehr selten vorkommt. Oder ich spiele die falschen Spiele. :freak:

Botcruscher
2013-10-19, 19:30:59
Tearing ist halt nicht gleich. Die Auffälligkeit nimmt mit zunehmender Bildwiederholungsrate extrem ab. Der Inhalt ist auch entscheidend. Bei einem Standbild sieht man null und mit steigender Geschwindigkeit der Objekte nimmt es zu. Rennspiele sind gut wenn du etwas bemerken willst.

Also Vsync ganz aus und VMax.

dargo
2013-10-19, 19:32:16
schieb mal das browserfenster hin und her und schau genau hin: das fenster wobbelt auch nach und vertikale kanten werden leicht schräg.

Keine Ahnung was du meinst. Ich kann hier nichts ungewöhnliches feststellen. Außer, dass die Schrift typischerweise für MVA etwas nachzieht.

Tesseract
2013-10-19, 19:33:03
Ich habe ab und zu mal auch sichtbares Tearing, aber das ist kaum der Rede wert weil es sehr selten vorkommt. Oder ich spiele die falschen Spiele. :freak:
das ist eine von diesen aussagen, die ich schon oft gehört aber noch nie nachvollziehen habe können: wie kann man "manchmal" tearing haben außer mit adaptivem vsync? entweder das tearing ist eher gleichmäßig verteilt oder es ist lokaler (z.B. mit framelimiter), manchmal ist es scheinbar periodisch, manchmal scheinbar chaotisch aber es ist IMMER vorhanden. damit das tearing de facto unsichtbar wird muss das spiel schon mit 400+ fps laufen oder einen vollkommen kontrastlosen content haben.

Keine Ahnung was du meinst. Ich kann hier nichts ungewöhnliches feststellen. Außer, dass die Schrift typischerweise für MVA etwas nachzieht.
dann bin ich wohl einfach empfindlicher auf solche dinge als andere.

Konami
2013-10-19, 19:38:15
Mich errinert das irgendwie an die Mikrorucklerproblematik beim AMD-Treiber wo eine Hochgeschwindigkeitskamera genommen wurde und es dann in Zeitlupe abgespielt wurde um die Mikroruckler sichtbar zu machen. :D
Wären sie nicht sichtbar, wären sie nie jemandem aufgefallen. Dass man Werkzeuge benutzen muss, um ein Problem z.B. für YouTube (was maximal 30 fps unterstützt) anschaulich zu machen, bedeutet nicht dass es einen nicht beim zocken stören kann.

dargo
2013-10-19, 19:38:49
das ist eine von diesen aussagen, die ich schon oft gehört aber noch nie nachvollziehen habe können: wie kann man "manchmal" tearing haben außer mit adaptivem vsync? entweder das tearing ist eher gleichmäßig verteilt oder es ist lokaler (z.B. mit framelimiter), manchmal ist es scheinbar periodisch, manchmal scheinbar chaotisch aber es ist IMMER vorhanden. damit das tearing de facto unsichtbar wird muss das spiel schon mit 400+ fps laufen oder einen vollkommen kontrastlosen content haben.

Tja... und ich kann nicht nachvollziehen wie einige über so viel Tearing klagen können. Lese das sehr oft bei Konsoleros. Wird sicherlich auch damit zu tun haben, dass die Konsolenspiele sehr oft mit einer niedriegen Framerate laufen. Und eventuell hats auch etwas mit der Bildschirmgröße zu tun was die Wahrnehmung angeht.


dann bin ich wohl einfach empfindlicher auf solche dinge als andere.
Möglich.

Gipsel
2013-10-19, 19:43:48
Was ich aber bei diesem Video mit 1/4 Speed lustig finde. Die Säule hat zwar keinen sichtbaren Cut wie ohne G-Sync, dafür schwabelt die aber ständlich vor sich hin.weil das bild zeilenweise refresht wird und nicht auf einmal. schieb mal das browserfenster hin und her und schau genau hin: das fenster wobbelt auch nach und vertikale kanten werden leicht schräg.Und ein Zeichen dafür, daß die bei 43-51 fps kein Backlight Strobing benutzen, genau wie Dein Monitor, an dem Du das gesehen hast ;).

Schaffe89
2013-10-19, 19:50:06
Also um das mal zusammenzufassen.
G-Sync wirkt vor allem dann, wenn die FPS unter der Hertz Rate des Monitors liegen.

Sagen wir mal 30 FPS bei 60 Hertz.

Ansonsten dürfte der Effekt nicht der Rede Wert sein.

Wenn der Monitor allerdings immer dynamisch die Hertz ändert und immer an die Bildrate, welche die Graka liefern kann anpasst, muss das doch zwangsweise auch Nebeneffekte/Verzögerungen haben oder nicht?

Gipsel
2013-10-19, 19:52:36
What? :freak:

Ist das der Rationalisierung/Preisen zum Opfer gefallen oder was? Das war ja sogar bei uns im Studium drin, als wie die Konzepte von Flüssigkristallen usw mal durchgequatscht haben, als Anwendung der Optik.Es gibt Unmengen an Displays mit continuous Backlight. Darunter fallen die meisten mit Kaltkathoden-Hintergrundbeleuchtung, die lassen sich nicht so gerne schalten. Und es funktioniert auch. Gibt halt nur ein paar Schlieren bei Bewegungen. Genau das ist der Grund, warum man als Gamer traditionell meist auf TN-Displays setzt (schnellere Schaltzeiten, deswegen weniger Schlieren auch ohne Backlight Blinking/Flashing/Strobing).

Konami
2013-10-19, 19:54:19
Also um das mal zusammenzufassen.
G-Sync wirkt vor allem dann, wenn die FPS unter der Hertz Rate des Monitors liegen.

Sagen wir mal 30 FPS bei 60 Hertz.

Ansonsten dürfte der Effekt nicht der Rede Wert sein.
Nur wenn man sich absolut darauf verlassen kann, dass die Grafikkarte immer 60 fps liefert. Sonst müsste man Triple Buffering verwenden, was auch bei 60 fps erhöhten Inputlag bedeutet.
Oder eben Adaptive VSync, was bei <60 fps wiederum Tearing ermöglicht, usw.

Es gibt halt bis jetzt nur lauter Kompromisse, gegen die G-Sync sozusagen eine eierlegende Wollmilchsau ist.

Trap
2013-10-19, 20:02:50
G-Sync wirkt vor allem dann, wenn die FPS unter der Hertz Rate des Monitors liegen.

Sagen wir mal 30 FPS bei 60 Hertz.
Oder 135 FPS bei 144 Hz.

wn612953
2013-10-19, 20:04:05
Naja... wird schon einen Grund haben warum man 1/4 Speed nimmt. ;)


Der Grund wird wahrscheinlich sein, dass man heutzutage für maximale Abspiel-Kompatibilität von Internetvideos, diese nicht mit mehr als 30 fps encodieren kann/sollte.

Die meisten Internetvideo-Portale, wie beispielsweise YouTube, unterstützen derzeit zudem auch nur maximal 30 fps AFAIK.

Was macht man also wenn man ein 120 fps Quellvideo aus Kompatibilitätsgründen nicht als 120 fps Encode anbieten kann, sondern auf ein 30 fps Encode beschränkt ist und gleichzeitig aber keine Frames "wegschmeißen" will?

Korrekt, man reduziert die Geschwindigkeit der 120 fps Quelle auf 1/4, um auf 30 fps zu kommen... :tongue:

Also um das mal zusammenzufassen.
G-Sync wirkt vor allem dann, wenn die FPS unter der Hertz Rate des Monitors liegen.

Sagen wir mal 30 FPS bei 60 Hertz.


Falsch... :rolleyes:

Gerade bei 30 fps @ 60 Hz würde es eigentlich nichts bringen...

Bei 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59 fps @ 60 Hz würde es hingegen schon etwas bringen ;).

Da dann der Pulldown wegfällt.

aufkrawall
2013-10-19, 20:05:49
Gerade bei 30 fps @ 60 Hz würde es eigentlich nichts bringen...

Bei 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59 fps @ 60 Hz würde es hingegen schon etwas bringen ;).

Da dann der Pulldown wegfällt.
Tut er nicht, sofern es nicht nur DB ist.

wn612953
2013-10-19, 20:10:33
Tut er nicht, sofern es nicht nur DB ist.


Falsch...

30 fps @ 60 Hz ist immer ohne störenden Pulldown*, völlig unabhängig davon ob double buffering oder triple buffering verwendet wird.

*ohne störenden Pulldown soll meinen: es handelt sich lediglich um einen 2:2 Pulldown, durch welchen kein Ruckeln entsteht.

wn612953
2013-10-19, 20:23:46
PS:


Also um das mal zusammenzufassen.
G-Sync wirkt vor allem dann, wenn die FPS unter der Hertz Rate des Monitors liegen.



G-Sync bewirkt, dass der Monitor eben keine fixe "Hertz Rate" (Refresh rate / Bildwiederholrate) mehr hat...

Sondern stattdessen eine variable.

Tesseract
2013-10-19, 20:27:38
pulldowns gibt es nur bei videos mit festgelegter framerate der quelle, das hat mit dem thema nur peripher etwas zu tun.
überall wo gerendert wird bringt gsync in erster linie eine optimalere auslastung der hardware.
einen 60Hz-monitor solllte man, wenn möglich, mit hardware betreiben die deutlich über 60Hz schafft (eher sowas in richtung 70-100) um gutes verhalten zu erreichen. auf einem 120Hz-gsync-panel kann sich hardware, die im schnitt ~60fps schafft, hingegen voll austoben. von jedem spike nach oben profitiert man und die spikes nach unten machen sich weniger stark bemerkbar.

MartinRiggs
2013-10-19, 20:31:20
Wenn die Grafikkarte genug FPS schafft ist das Spiel auch schön fluffig spielbar, sehe da irgendwie den Sinn von Gay-Sync nicht, außer Geld zu verbrennen.

Ist aber nur meine Meinung

OC_Burner
2013-10-19, 20:37:31
Wenn der Monitor allerdings immer dynamisch die Hertz ändert und immer an die Bildrate, welche die Graka liefern kann anpasst, muss das doch zwangsweise auch Nebeneffekte/Verzögerungen haben oder nicht?

Welche Nebeneffekte schweben dir vor? Das Spiel sollte von der dynamischen Refreshrate nichts mitbekommen, da diese vom G-Sync Modul im Monitor geregelt wird. Optimalerweise wählt man wohl im Spiel die höchste verfügbare Refreshrate z.B. 1920x1080@120hz aus und gut ist. Im Spiel braucht wohlmöglich noch nicht einmal V-Sync aktiviert werden da die Bilder nacheinander progressiv aus der Grafikkarte gehauen werden und im G-Sync Modul aufgenommen werden.

aufkrawall
2013-10-19, 20:39:49
Falsch...

30 fps @ 60 Hz ist immer ohne störenden Pulldown*, völlig unabhängig davon ob double buffering oder triple buffering verwendet wird.

*ohne störenden Pulldown soll meinen: es handelt sich lediglich um einen 2:2 Pulldown, durch welchen kein Ruckeln entsteht.
Es ist eben nicht genau 2:2, weil der Monitor nicht mit genau 60Hz läuft.

AffenJack
2013-10-19, 20:41:14
Bei einem TN-Display mit strobed LED-backlight wie dem Asus-Screen, ist der Mehraufwand völlig übertrieben. Das sollte wie gesagt mit ein paar kleinen Änderungen an der Ansteuerung getan sein (das kostet in Serie eher cent-Beträge). Selbst wenn die da noch zusätzlich RAM draufpacken müssen für einen Zwischenpeicher des Framebuffers (was eigentlich nur nötig sein sollte, wenn die GraKa-Ausgabe nicht flexibel genug ist mit dem Senden der neuen Frames) wäre das bei den geringen Mengen ein einstelliger Dollar-Betrag. Die 768MB RAM und der Riesenchip da drauf sind absolut unnötig. Keine Ahnung, was nV da macht.

Wenns so einfach ist wie du sagst, wieso hat das dann bisher noch keiner gemacht und wieso lizensieren die Hersteller nen teures Modul von Nvidia, statt das billig selber zu entwickeln und für paar cent zu verbaun? Ich hab keine Ahnung wie schwer oder einfach das ist, aber es wundert mich einfach. Patentschwierigkeiten kann man meist irgendwie durch ne andere Implementierung umschiffen. Bei Asus als Nv Partner kann ichs auch noch verstehen, aber Viewsonic und Philips? Da sollte das doch kein Problem sein sowas dann selber zu machen.

wn612953
2013-10-19, 20:41:36
pulldowns gibt es nur bei videos mit festgelegter framerate der quelle, das hat mit dem thema nur peripher etwas zu tun.


Warum :rolleyes:?

Was ist das denn dann wenn ein Spiel mit beispielsweise 38 fps oder 45 fps auf einem 60 Hz Display angezeigt wird, wenn kein Pulldown?

AFAICT hat genau dies (unter anderem) mit dem Thema zu tun.

Hier auch noch mal von Digital Foundry erklärt:




http://www.eurogamer.net/articles/digitalfoundry-nvidia-g-sync-the-end-of-screen-tear-in-pc-gaming

[...]

The first demo took the form of a stone gazebo with a swinging pendulum in the middle. Zooming in on the pendulum we see some text. First up, we saw the demo operating at the optimal 60fps on both systems and the result was - as expected - identical. After that, the frame-rate was artificially lowered on the traditional system, first to 50fps, then to 40fps. The result was as expected: judder, caused by repeat frames being packed into the 60Hz time-frame. Then the same artificial frame-rate caps were introduced on the G-Sync system next door, the result being no perceptual difference in fluidity - the demo remained super-smooth.

[...]



:tongue:

Tesseract
2013-10-19, 20:42:10
Wenn die Grafikkarte genug FPS schafft ist das Spiel auch schön fluffig spielbar, sehe da irgendwie den Sinn von Gay-Sync nicht, außer Geld zu verbrennen.
was ist "genug"? ohne vsync bekommst du quasi gratis eine synchonisation dazu und vergleichen mit aktivem vsync brauchst du, je nach framehistogramm, deutlich weniger rohleitung für ein vergleichbares verhalten.

Was ist das denn dann wenn ein Spiel mit beispielsweise 38 fps oder 45 fps auf einem 60 Hz Display angezeigt wird, wenn kein Pulldown?
ohne vsync ist dann mindestens ein frame zerstückelt wobei ein teil neuer ist als der andere. mit vsync ist innerhalb des messzeitraums des fps-counters mindestens ein frame verdoppelt.
es gibt aber keine ausgangsframes die man "down pullen" könnte, es wird stattdessen direkt in den renderprozess eingegeiffen. der begriff passt in diesem zusammenhang einfach nicht

wn612953
2013-10-19, 20:57:12
Naja, wie dem auch sei...

Aber davon mal abgesehen:

Die Sache mit G-Sync, bzw. Displays bzw. Displayansteuerung mit variabler refresh rate ist ja an sich super, aber... mal ernsthaft... seit wann ist eine variable Framerate bei Spielen gut :tongue:?

Mit G-Sync fällt zwar das Tearing und der Pulldown (:tongue:) weg wenn die Framerate einbricht, aber der Framerateeinbruch ist halt immer noch da und den Framerateinbruch wird man während des Spielens ja wohl trotzdem noch sehen und spüren... (was IMHO schlecht ist) ;)