PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia will mit "G-Sync" alle Vsync-Probleme lösen


Leonidas
2013-10-19, 17:14:45
Link zur News:
http://www.3dcenter.org/news/nvidia-will-mit-g-sync-alle-vsync-probleme-loesen

foenfrisur
2013-10-19, 17:21:36
das wäre wirklich ein absoluter traum.
proprietär allerdings so schlecht, wie physx.

mfg

RLZ
2013-10-19, 17:45:19
Ich warte ja immer noch auf die Begründung, was daran schlecht für den freien Markt ist, dass Hersteller im Alleingang neue Features implementieren.

Das wird nun seit ewigen Zeiten hier in den News gepredigt.

gnahr
2013-10-19, 17:47:53
stimmt, mal gucken wer sich bei amds audio-feature darüber beschwert hat und es nun selbst predigt^^

aufkrawall
2013-10-19, 17:58:06
Ich warte ja immer noch auf die Begründung, was daran schlecht für den freien Markt ist, dass Hersteller im Alleingang neue Features implementieren.

Das wird nun seit ewigen Zeiten hier in den News gepredigt.
In dem Fall diesen Zusammenhang herzustellen, ist auch komplett dämlich.
AMD & Intel können sich ja auch an die Monitorhersteller mit so etwas wenden. Wenn sie es nicht tun, selbst schuld.

Das Feature ist auch mehr wert als PhysX oder Mantle, weil es in jedem Spiel (und auch Video) einen Mehrwert bringt.

Konami
2013-10-19, 18:08:30
"Schlecht" ist es in der Hinsicht, dass man sich als Kunde nicht einfach nach fps (und von mir aus noch Bildqualität) pro Euro entscheiden kann, sondern einem Dschungel von komplett verschiedenen Features gegenübersteht und jeder Kauf einen Kompromiss darstellt, weil man zwangsweise auf die Features des anderen Herstellers verzichtet. Natürlich ist das nicht wirklich schlecht für den Wettbewerb, sondern vielmehr Teil des Wettbewerbs. Aber es ist halt eine Unannehmlichkeit für den Kunden.

Zu hoffen bleibt, dass keine dieser Technologien (TrueAudio, G-Sync) zum abgeschotteten kleinen System wird, sondern jeweils die Konkurrenz zum Nachziehen bringt.

time_me
2013-10-19, 18:29:43
Das wird ziemlich schwer zu bewerben sein. Bei PhysX (tolle effekte) oder TrueAudio (toller Sound) ist das ja noch ziemlich einfach, hier aber sehe ich einige Probleme. Zum einen weiß ein Großteil der Grafikkartenkäufer nicht, was er von "G-Sync" für Vorteile hätte und zum anderen ist es nicht damit getan eine Geforce zu kaufen und einzubauen. Man braucht halt zusätzlich noch einen passenden Monitor, dessen Kosten geschätzt auch nicht ganz gering sein dürften.

schreiber
2013-10-19, 18:33:58
Wenn es in der Praxis gut funktioniert und besagte Vorteile eintreffen, werden sich die Infos dazu schon verbreiten. Gibt ja dieses #neuland, von dem ich kürzlich von unserer Kanzlerin hörte.

Konami
2013-10-19, 19:11:14
@Leo - der Hauptdiskussionsthread ist eher hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=546127

naret
2013-10-20, 04:16:41
stutter wird dabei aber nicht geloest!
es entsteht dadurch, dass man am anfang eines frames nicht weiss wie lange es dauern wird bis es fertig gerendert wird. wenn also mal irgendwo eine explosion ist mit vielen partickeln oder man loslaeuft und motion blur triggert, wird das frame laenger dauern.

ab T=0ms rendert man frame 0
bei T=16ms zeigt man es an und rendert frame 1 und verschiebt die zeit im spiel um 16ms, aber es gibt eine explosion
bei T=48ms zeigt man nun frame 1, verschiebt die zeit um 32ms und rendert frame 2
bei T=64ms zeigt man frame 2, verschiebt die zeit im spiel um 16ms und rendert frame 3
bei T=80ms zeigt man frame 3,verschiebt die zeit im spiel um 16ms und rendert frame 4

der spieler sieht also
T=16ms-48ms frame T=0ms
T=48ms-64ms frame T=16ms
T=64ms-80ms frame T=48ms
...

das problem ist schlicht, dass bei nicht konstanter renderzeit, nicht vorhergesehen werden kann wieviel die engine voraus eingestellt werden muss, damit wird ein bild fuer ein 16ms delta 32ms lang gezeigt und das bild danach vom 32ms delta fuer 16ms.

Flusher
2013-10-20, 12:28:12
stimmt, mal gucken wer sich bei amds audio-feature darüber beschwert hat und es nun selbst predigt^^

Hrhr...Mantle, TressFX, um mal zwei Beispiele zu nennen. AMD scheint mir da deutlich sozialer zu sein.

CD-LABS
2013-10-20, 18:39:50
Bei jeder News zu VSYNC-Alternativen frag ich mich, ob die Hersteller noch nie was von TriBuf+58FPS-FrameLimit gehört haben:
Keinen Lag und kein Tearing und das für nur 2 FPS weniger...

aufkrawall
2013-10-20, 20:00:51
Und jedes Mal muss man dazu in einem Comment diesen Blödsinn lesen.
Nun ja, nicht so schlimm. Wer die Ruckler nicht wahrnimmt, wird auch mit G-Sync wenig anfangen können.

CD-LABS
2013-10-20, 23:12:22
Und jedes Mal muss man dazu in einem Comment diesen Blödsinn lesen.
Nun ja, nicht so schlimm. Wer die Ruckler nicht wahrnimmt, wird auch mit G-Sync wenig anfangen können.
Was für eine Art von "Ruckler" meinst du jetzt genau?

Inputlag? Tritt manchmal auf, dann nimmt man halt 59 statt 58 und dann hat es sich...
Framedrops? Passiert bei manchen Titeln merkwürdigerweise dann bei jeder Bewegung minimal(auf 56 oder 55), aber mit maximal unangenehmer Wirkung. Ich geh dann entweder bis auf 45 oder 50 runter oder es klappt halt einfach nicht.

Oder meintest du etwas ganz anderes?

aufkrawall
2013-10-20, 23:33:37
Einige Bilder müssen länger angezeigt werden als andere, das führt zu Rucklern.
Wenn man in einem Shooter stur geradeaus läuft, fällt das vielleicht noch nicht ganz so extrem auf.
Aber probier das mal bei nem Sidescroller wie Trine 2. Von dem Geruckel krieg ich Kopfschmerzen.

StefanV
2013-10-21, 02:03:11
Und jedes Mal muss man dazu in einem Comment diesen Blödsinn lesen.
Warum?! Er hat doch recht!

Sofern man 60fps @ 60Hz hat, braucht man kein G-Sync. Das braucht man nur, wenn die Grafikkarte langsamer ist als das.

schreiber
2013-10-21, 02:16:01
Warum?! Er hat doch recht!

Sofern man 60fps @ 60Hz hat, braucht man kein G-Sync.
Und in welchem aktuellen Spiel erreichst du das? Und wie?

StefanV
2013-10-21, 03:25:23
Zum Beispiel Devil May Cry erreicht man das ohne Probleme.

Der Punkt ist doch: Wenn die Entwickler darauf wert legen würden, würden sie es auch schaffen, dass moderne Spiele auf mittelprächtigen Systemen (wie 'nen FX8350 mit 'ner 7970) auch in jeder Lage die 60fps erreichen. Bzw überwiegend...
Allerdings muss man dann auch ggF auf das eine oder andere Detail verzichten. Is halt der Preis dafür...

Wobei moderne (HDMI) Bildschirme auch viele verschiedene Widerholraten beherrschen. Zum Beispiel 23Hz, 24Hz, 30Hz (Interlaced :-/), 50Hz. Da ist dann für jeden was dabei. NAtürlich ist der Lag bei 24Hz 'nen bisserl höher, aber irgendwas is ja immer...

boxleitnerb
2013-10-21, 07:17:55
Warum?! Er hat doch recht!

Sofern man 60fps @ 60Hz hat, braucht man kein G-Sync. Das braucht man nur, wenn die Grafikkarte langsamer ist als das.

Du ignorierst dabei:
a) Lag durch VSync
b1) verschenkte Performance durch VSync
b2) evtl. Ruckler, wenn man doch unter 60 fällt

fps sind in Spielen immer variabel, d.h. wenn du ein bestimmtes fps-Level einstellst, gehst du auch immer Kompromisse ein. Und die fallen mit G-Sync halt weg.

CD-LABS
2013-10-21, 09:57:31
Du ignorierst dabei:
a) Lag durch VSync
b1) verschenkte Performance durch VSync
b2) evtl. Ruckler, wenn man doch unter 60 fällt

fps sind in Spielen immer variabel, d.h. wenn du ein bestimmtes fps-Level einstellst, gehst du auch immer Kompromisse ein. Und die fallen mit G-Sync halt weg.
Auch ich geb zu, dass es schon ein "Rest-Risiko" gibt.
Insgesamt seh ich das Problem aber eher wo anders:

Hätten AMD und Nvidia verstanden, wozu ein GPU-Boost gut ist (nämlich um ein vordefiniertes FPS-Target zu halten), dann hätten wir auch insgesamt deutlich stabilere Framerates.
Dank diesen neunmalklugen Graka-Herstellern haben wir aber nun ein Feature, dass die Karte höher taktet, wenn der Anspruch an die Graka in der Szene geringer ist... :facepalm:

Naja, ganz allgemein hätte ich halt eh lieber komplett stabile Framerates als irgendeine Herz-Regulierierung. Aber immerhin, sollte es sich breitenwirksam durchsetzten kommen AMD und Nvidia vllt. ja dann auch selber mal darauf, dass Stabile Framrates > langer Benchmarkbalken sind...

aufkrawall
2013-10-21, 09:59:14
Warum?! Er hat doch recht!

Sofern man 60fps @ 60Hz hat, braucht man kein G-Sync. Das braucht man nur, wenn die Grafikkarte langsamer ist als das.
Komisch, darum ging es gar nicht.
Mit deiner Relativierung des Lags machst du dich auch mal wieder lächerlich.
"Interlaced", jetzt schlägts aber 13... :uwoot:

boxleitnerb
2013-10-21, 12:29:19
Auch ich geb zu, dass es schon ein "Rest-Risiko" gibt.
Insgesamt seh ich das Problem aber eher wo anders:

Hätten AMD und Nvidia verstanden, wozu ein GPU-Boost gut ist (nämlich um ein vordefiniertes FPS-Target zu halten), dann hätten wir auch insgesamt deutlich stabilere Framerates.
Dank diesen neunmalklugen Graka-Herstellern haben wir aber nun ein Feature, dass die Karte höher taktet, wenn der Anspruch an die Graka in der Szene geringer ist... :facepalm:

Naja, ganz allgemein hätte ich halt eh lieber komplett stabile Framerates als irgendeine Herz-Regulierierung. Aber immerhin, sollte es sich breitenwirksam durchsetzten kommen AMD und Nvidia vllt. ja dann auch selber mal darauf, dass Stabile Framrates > langer Benchmarkbalken sind...

Das ist natürlich richtig, allerdings bleibt ein Haken dabei:

Wenn die Karte trotz höchstem Takt keine gescheiten (60?) fps zustande bringt, was dann? Soll sie dann so takten, dass die 40 fps gehalten werden, obwohl oft auch 60 oder mehr gingen? Darum wird man nicht herumkommen. Die Last wird immer so variabel sein, dass man dieses Problem hat.