PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : V-Sync ein oder aus?


Chip4000
2010-01-02, 21:34:22
Hallo!
Kann mir jemand sagen, ob man auf einem TFT beim zocken Vsync lieber ein oder ausschalten soll?
Was könnt ihr mir empfehlen?

joehler
2010-01-02, 21:38:02
Ich schalte es immer ein. Dann ist das Bild ruhiger und das ist mir lieber als über 60 FPS.

JOEHLER

Gast
2010-01-02, 21:39:45
Ein! Für mich gibts keinen Grund es zu deaktivieren! Es sei denn man wünscht wischiwaschi bei schnellen Bewegungen.

Liszca
2010-01-02, 21:44:52
Hallo!
Kann mir jemand sagen, ob man auf einem TFT beim zocken Vsync lieber ein oder ausschalten soll?
Was könnt ihr mir empfehlen?

Ich schalte es immer ein, aus 3 gründen:
1. ruhigeres bild
2. kein spulenfiepen
3. konstante bildrate

Radon
2010-01-02, 21:46:15
Ich hab mal aufgeschnappt dass mit VSync die Framerate angeblich immer 'n Teiler von 60 ist, 30, 15 oder sowas, aber das ist doch Schwachsinn oder?

Edit: Ah selber auf die Lösung gekommen, das tritt nur auf wenn man kein Triple Buffering verwendet
Doppelpufferung und VSync

Durch den Einsatz von VSync wird der Swap-Befehl, der Front- und Backbuffer tauscht, so lange nicht umgesetzt, bis das aktuelle Bild aus dem Frontbuffer komplett auf dem Bildschirm dargestellt wurde. Ist die Berechnung des neuen Frames im Backbuffer abgeschlossen, muss die GPU also bis zum nächsten VSync warten, um mit dem nächsten Frame weiterzumachen. Die effektive Rechenzeit pro Bild ist somit immer gleich der oder ein ganzes Vielfaches der Zeit, die der Monitor zum Anzeigen eines Bilds benötigt. Wenn die Bildrate der GPU also zum Beispiel knapp unter der des Monitors liegt, ist die effektive Bildrate nur die Hälfte der Monitorbildrate (da die GPU be jedem zweiten VSync noch nicht mit dem Rendern des Bilds fertig ist). Wenn sie unter der Hälfte liegt wird sie ein Drittel der Monitorbildrate usw.

Dreifachpufferung und VSync

Durch einen weiteren Backbuffer kann die Bildrate des Monitors von der der GPU entkoppelt werden. Wenn ein Bild fertig gestellt ist, muss die GPU nun nicht mehr warten, bis der Swap-Befehl ausgeführt wird, sondern kann direkt im anderen Backbuffer weiterarbeiten. Beim Auftreten des Swap-Befehls werden also die beiden Backbuffer vertauscht, während beim Auftreten von VSync der Frontbuffer und der fertig berechnete Backbuffer vertauscht werden. Es kommt also zu keinem Leistungsverlust gegenüber dem ungepufferten Fall.

von Wikipedia (http://de.wikipedia.org/wiki/Dreifachpufferung) (hey da wird sogar auf nen 3DCenter Artikel von aths als Quelle verlinkt)


Bei mir ist VSync auch immer eingeschaltet und natürlich Triple Buffering aktiviert.

san.salvador
2010-01-02, 21:57:23
[x] ein

TriBuff ist bei nV unter Direct 3D immer aktiv, wenn Vsync an ist. Das lässt sich nur für OGL selbst einstellen.

Chip4000
2010-01-02, 21:57:33
Ja, mit Vsync ist das Bild ruhiger und gleichmäßiger.
Ich schalte Trible Buffering noch mit an.
Gibt es mit Vsync und Trible Buffering einen Leistungsverlust?
Ach ja, danke für Eure Antworten.

Liszca
2010-01-02, 21:58:41
Ich hab mal aufgeschnappt dass mit VSync die Framerate angeblich immer 'n Teiler von 60 ist, 30, 15 oder sowas, aber das ist doch Schwachsinn oder?

Edit: Ah selber auf die Lösung gekommen, das tritt nur auf wenn man kein Triple Buffering verwendet



Bei mir ist VSync auch immer eingeschaltet und natürlich Triple Buffering aktiviert.

Ich finde das nicht so schlimm wenn es denn mal auf 30 fps geht, drunter ist aber für mich inakzeptabel. im multiplayer habe ich es gerne so dass es konstant 60 sind.

mit triple buffer muss ich mich mal auseinander setzen habe es bisher nur in verbindung mit vsync ausprobiert, und das liegt mir garnicht.

Liszca
2010-01-02, 21:59:56
[x] ein

TriBuff ist bei nV unter Direct 3D immer aktiv, wenn Vsync an ist. Das lässt sich nur für OGL selbst einstellen.

sicher? ich merke da einen Rießen unterschied bei wenn ich tribuff & vsync aktiviere.

Daredevil
2010-01-02, 22:12:25
[x]Kommt drauf an

Bei schnellen Spielen und Spielen wo ich mehr als 60 fps benötige und dementsprechend schnelle Reaktionen isses aus. Ansonsten immer an.

Vsync und Tri Buffering erzeugt Input Lag und Input Lag ist tödlich bei Ego Shootern.

san.salvador
2010-01-02, 22:27:16
sicher? ich merke da einen Rießen unterschied bei wenn ich tribuff & vsync aktiviere.
Sicher.

Wer oder was ist ein(e) "Rießen"? :|

The Nemesis
2010-01-02, 22:37:00
Ist das hier eigentlich noch aktuell?
http://www.3dcenter.org/artikel/was-heisst-vsync-und-wie-wendet-man-es/triple-buffering
Sprich wenn ich in einem Spiel generell regelmäßig unter die 60fps komme lasse ich Vsync aus Prinzip immer aus, da ich mir dadurch durchaus Performance verspreche.

san.salvador
2010-01-02, 22:43:27
Zitier mal worauf du dich beziehst. Ich sehe da nix, was deine Aussage untermauern würde. :|

pXe
2010-01-02, 22:50:02
Sicher.
...

Hmm, dann aber erst ab einer bestimmten halbwegs aktuellen Treiberversion, ich kann mich jedenfals noch gut erinnern, dass ich öfters in Spielen nur Double Buffering und damit die FPS Sprünge hatte.


pXe

The Nemesis
2010-01-02, 22:54:46
Natürlich gibt es mit Triple Buffering auch Nachteile. Einerseits wird die Bildausgabe um ein weiteres Frame verzögert. Andererseits steht weniger Speicher für Texturen zur Verfügung, da ein kompletter Backbuffer nicht gerade klein ist. Bei 1024x768 verbraucht man mit Triple Buffering immerhin 3 MB zusätzlichen Framebuffer-Speicherplatz, bei 4x Anti-Aliasing "on Scanout" (auf GeForceFX ab NV35) sind es sogar 12 MB.
Ich vermute als Laie jetzt einfach mal, dass ein aktuelles Frame in Crysis auf 1680x1050 deutlich mehr als 12 MB verbraucht.
Vermutlich ist es aber trotzdem Quatsch davon heutzutage auf Performancegewinn in aktuellen Situationen bei VSync off und Double Buffering zu schließen, wie ich aus deiner Antwort interpretiere :D

LovesuckZ
2010-01-02, 23:52:36
Hmm, dann aber erst ab einer bestimmten halbwegs aktuellen Treiberversion, ich kann mich jedenfals noch gut erinnern, dass ich öfters in Spielen nur Double Buffering und damit die FPS Sprünge hatte.


pXe

Seit dem G80 ist TB für alles >=G80 wohl aktiv, wenn man Vsycn anstellt. Das war das erste, was mir vor drei Jahren sofort aufgefallen ist.

san.salvador
2010-01-03, 00:53:53
Hmm, dann aber erst ab einer bestimmten halbwegs aktuellen Treiberversion, ich kann mich jedenfals noch gut erinnern, dass ich öfters in Spielen nur Double Buffering und damit die FPS Sprünge hatte.


pXe
Deine Antwort steckt da drin:
Seit dem G80 ist TB für alles >=G80 wohl aktiv, wenn man Vsycn anstellt. Das war das erste, was mir vor drei Jahren sofort aufgefallen ist.
In manchem Spielen lässt sich Vsync nicht per Treiber erzwingen. Ergo ist auch die TriBuff-Einstellung dann vom Spiel, nicht vom Treiber abhängig.

DirtyH.
2010-01-03, 15:31:57
Natürlich gibt es mit Triple Buffering auch Nachteile. Einerseits wird die Bildausgabe um ein weiteres Frame verzögert. Andererseits steht weniger Speicher für Texturen zur Verfügung, da ein kompletter Backbuffer nicht gerade klein ist. Bei 1024x768 verbraucht man mit Triple Buffering immerhin 3 MB zusätzlichen Framebuffer-Speicherplatz, bei 4x Anti-Aliasing "on Scanout" (auf GeForceFX ab NV35) sind es sogar 12 MB.
Ich vermute als Laie jetzt einfach mal, dass ein aktuelles Frame in Crysis auf 1680x1050 deutlich mehr als 12 MB verbraucht.
Vermutlich ist es aber trotzdem Quatsch davon heutzutage auf Performancegewinn in aktuellen Situationen bei VSync off und Double Buffering zu schließen, wie ich aus deiner Antwort interpretiere :D


ist sowas bei aktuellen grakas mit 1gb und mehr speicher überhaupt noch relevant?

HisN
2010-01-03, 15:34:51
[x] EIN
60 FPS ist für mich als Non-Hardcore-Online-Zocker genau richtig. Tearing hasse ich.
Ausserdem ist es doch schön wenn die Hardware nicht voll ausgelastet wird (wenns denn möglich ist) und kühl bleibt und weniger Strom verbraucht.

Demogod
2010-01-03, 22:48:06
Idle-t die Graka dann tatsächlich rum und verbaucht weniger Strom? Kann das mal jemand mit Q3 oder so nachprüfen (plz)?

Edit: ich versuchs grad selber mal mom..
Edit2: Ja tut sie.
Erster Test Vsync Off Tripple On zwischen 280 und 295 Watt
Zweiter Test Vsync On Tripple On zwischen 273 und 283 Watt

PS.: ist aber nur nen Laientest da blos Voltcraft 3000 und da Sound On und auch noch Modem und Router mit dranhängen.

RavenTS
2010-01-04, 02:15:20
Meistens aus, da mich lags deutlicher stören als tearing und ich mangels Hardwarepower und aufgrund Nutzung von AA & AF meist auch nur zwischen 30 und 60 fps hinbekomme...

Darkman.X
2010-01-04, 05:37:00
Seit dem G80 ist TB für alles >=G80 wohl aktiv, wenn man Vsycn anstellt. Das war das erste, was mir vor drei Jahren sofort aufgefallen ist.

Dann muss man VSync aber im Treiber erzwingen und nicht die Einstellung im Spiel nutzen, oder ? Ich habe eine GTX280 und Treiber v195.62 installiert und gerade erst vor 2 Wochen CoD6 gespielt. Mit aktiviertem VSync (im Spiel aktiviert, im Treiber anwendungsgesteuert) hatte ich die üblichen Einbrüche von 60 auf 30 fps erlebt. Und auch mit älteren Treibern und Karten hatte ich bisher die üblichen Einbrüche. Deshalb bin ich so über diese neuen Aussagen hier so erstaunt...

san.salvador
2010-01-04, 06:00:10
Dann muss man VSync aber im Treiber erzwingen und nicht die Einstellung im Spiel nutzen, oder ? Ich habe eine GTX280 und Treiber v195.62 installiert und gerade erst vor 2 Wochen CoD6 gespielt. Mit aktiviertem VSync (im Spiel aktiviert, im Treiber anwendungsgesteuert) hatte ich die üblichen Einbrüche von 60 auf 30 fps erlebt. Und auch mit älteren Treibern und Karten hatte ich bisher die üblichen Einbrüche. Deshalb bin ich so über diese neuen Aussagen hier so erstaunt...
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7749391#post7749391

:rolleyes:

Shaft
2010-01-04, 12:22:36
[X] V-Sync + Triple Buffer

Ruhiges Bild ist mir wichtiger.

Skusi
2010-01-04, 12:59:54
Was ich immer nicht verstehe, dass die Leute so viel Wert auf AA/AF legen und dann mit Vsync off durch wabernde/zerissene Welten laufen.
Von BQ kann man da eigentlich nur beim Standbild reden.:freak:

cR@b
2010-01-04, 13:19:07
Seit dem ich zu dem hässlichen Zerreißen des Bildes einen Namen finden konnte (tearing), war mir klar ich "brauch" V-Sync dringender als hohe Auflösungen. Allerdings frisst dieses Feature ungemein Ressourcen und selbst mein System bricht ab und zu auf 1280x1024 (mit AA+AF selbstverständlich) ein. Manchmal hilft auch kein TB oder zieht zumindest nicht in allen Games!

Dennoch würde ich auf dieses Feature niemals verzichten wollen und ein Grakareview mit V-Sync an würde ich bevorzugen :D Mal sehen welche Graka die Rohleistung hat durchgehend die 60fps zu halten... ich glaube keine :(

san.salvador
2010-01-04, 13:34:28
Vsync frisst keine Leistung.

MiamiNice
2010-01-04, 13:45:33
Hallo!
Kann mir jemand sagen, ob man auf einem TFT beim zocken Vsync lieber ein oder ausschalten soll?
Was könnt ihr mir empfehlen?

Wen Du Onlineshooter spielst unbedingt aus machen. Und wen Du schon mal dabei bist gleich AA ausmachen und prerender Frames auf 0 stellen. Das zieht alles den Skill runter. Alles was nicht Online und schnell ist, kannste den Kram ruhig anmachen.

Raff
2010-01-04, 13:56:59
Vsync frisst keine Leistung.

Ohne Triple Buffering halbiert sich jedoch die Framerate, wenn das 60-Fps-Limit nicht erreicht wird. Insofern frisst das sehr wohl Leistung (im Ernstfall konstant 50 Prozent oder sogar mehr). Ein dreifacher Bildpuffer (anstatt zweier) kostet etwas Videospeicher, was wiederum in anspruchsvolleren Einstellungen eng werden kann – außerdem erhöht sich die Eingabeverzögerung. Triple Buffer plus Vsync bringt jedoch die weichesten Bildabläufe.

MfG,
Raff

Multipler Miggs
2010-01-04, 14:22:25
Gibt es denn eine möglichkeit Triple Buffering unter D3d bei NV auszuschalten?
Gruss Miggs

Raff
2010-01-04, 14:23:25
Warum sollte man das? Speichermangel? Sooo viel macht das auch nicht aus. Die "Smoothness"-Verbesserung durch TB macht das klar wett.

MfG,
Raff

Sven77
2010-01-04, 14:27:17
Input Lag z.B... bei Source Shootern sollte ja fast jede aktuelle Grafikkarte 60fps durchgehend packen, und da sind ein paar ms schon manchmal der Unterschied zwischen Leben und Tod ;)

Multipler Miggs
2010-01-04, 14:28:31
Warum sollte man das? Speichermangel? Sooo viel macht das auch nicht aus. Die "Smoothness"-Verbesserung durch TB macht das klar wett.

MfG,
Raff
Mir wären konstante 30 FPS lieber als der dauernde Sprung in den vorgegebenen Schritten.
Eigentlich macht Vsync nur dann Sinn wenn man konstant die 60 FPS auch halten kann,und vom Inputlag den ich noch nie irgendwie beseitigen konnte will ich gar nicht reden.
Shooter kann ich so nicht spielen.
Nur bei Games die sich mit dem MS Pad spielen lassen fällt der Inputlag nicht so auf.

Gruss Miggs.

Aso..trotzdem die Frage,kann man TB ausschalten?

MiamiNice
2010-01-04, 15:32:07
Input Lag z.B... bei Source Shootern sollte ja fast jede aktuelle Grafikkarte 60fps durchgehend packen, und da sind ein paar ms schon manchmal der Unterschied zwischen Leben und Tod ;)

Input Lag ist das schlimmste was es gibt(zumindest für den ambitionierten Shootergamer), deswegen sollte man schon beim Hardwarekauf ganz genau hinschauen. Es gibt Monitore die einen Lag von über 50ms haben :eek:. Tastaturen und Mäuse ohne Kabel sind ein ähnliches No-Go. Wen man die Einstellungen im NV Treiber versaut hat man auch mit Lag zu kämpfen. Und wen die Pings over 20ms gehen kann man auch gleich von Server gehen. Man spielt online halt in der Vergangenheit. Wie weit, entscheidet die Hardware und die Internetverbindung. Je weiter man in der Vergangenheit spielt desto weniger Chancen hat man, ganz einfach.
Als Spieler hat man es halt nicht leicht :) Aber wen alles passt hat man schon einen grossen Vorteil gegenüber den anderen Spielern. Und am Ende ist doch eh nur das wichtig was auf dem Scoreboard steht ;)

san.salvador
2010-01-04, 15:33:33
Ohne Triple Buffering halbiert sich jedoch die Framerate, wenn das 60-Fps-Limit nicht erreicht wird. Insofern frisst das sehr wohl Leistung (im Ernstfall konstant 50 Prozent oder sogar mehr). Ein dreifacher Bildpuffer (anstatt zweier) kostet etwas Videospeicher, was wiederum in anspruchsvolleren Einstellungen eng werden kann – außerdem erhöht sich die Eingabeverzögerung. Triple Buffer plus Vsync bringt jedoch die weichesten Bildabläufe.

MfG,
Raff
Er hat eine nV, somit sollte Vsync effektiv keine Leistungseinbußen mit sich bringen. ;)

xiao didi *
2010-01-04, 15:51:40
Überrascht mich, dass hier so viele auf V-Sync stehen.

Bei dem dabei entstehenden Inputlag hab ich immer das Gefühl, ich würde auf Eiern tanzen als ein Spiel zu spielen. ;(

Dicker Igel
2010-01-04, 16:02:06
Inputlag ? Hmm, merke ich nix davon ^^

<- [x] VSync ein

Raff
2010-01-04, 16:10:48
Überrascht mich, dass hier so viele auf V-Sync stehen.

Bei dem dabei entstehenden Inputlag hab ich immer das Gefühl, ich würde auf Eiern tanzen als ein Spiel zu spielen. ;(

Tja, Vsync bedingt (IMO), dass das Spiel konstant mit 60 Fps läuft. Auf Eiern tanzt du eigentlich nur, wenn Double Buffering an ist. Ohne Vsync ist DB optimal.

Ich spiele auch meist mit Vsync off plus DB, aber in Rennspielen kommt Vsync + TB echt fein. =) Einfach ausprobieren.

MfG,
Raff

Chip4000
2010-01-04, 16:54:04
Mann, dass artet ja zu ner Massendiskussion aus.
Also, ich werde mal, gerade bei Unreal 3 Engine-Games VSync und Trible Buffer anlassen, wobei ich zwischendrin auch mal Lags habe, aber das Bild an sich ruhiger ist.
Bei anderen Games wie Crysis werde ich mal VSync auslassen.
Danke nochmal an alle.

Sven77
2010-01-04, 16:59:50
Input Lag ist das schlimmste was es gibt(zumindest für den ambitionierten Shootergamer), deswegen sollte man schon beim Hardwarekauf ganz genau hinschauen. Es gibt Monitore die einen Lag von über 50ms haben :eek:. Tastaturen und Mäuse ohne Kabel sind ein ähnliches No-Go. Wen man die Einstellungen im NV Treiber versaut hat man auch mit Lag zu kämpfen. Und wen die Pings over 20ms gehen kann man auch gleich von Server gehen. Man spielt online halt in der Vergangenheit. Wie weit, entscheidet die Hardware und die Internetverbindung. Je weiter man in der Vergangenheit spielt desto weniger Chancen hat man, ganz einfach.
Als Spieler hat man es halt nicht leicht :) Aber wen alles passt hat man schon einen grossen Vorteil gegenüber den anderen Spielern. Und am Ende ist doch eh nur das wichtig was auf dem Scoreboard steht ;)

Also so schlimm ist es nun nicht.. mein Monitor hat ein spuerbares Inputlag (Dell 7209W) un das geht trotzdem.. nur nochmal das Lag des TB aufsummiert, wirds schon schwer. Bei Battlefield juckt das nicht, bei DoD:Source wirds schon happig. Man koennte es auch als erhoehten Schwierigkeitsgrad sehen ;)

master_blaster
2010-01-04, 17:56:17
Wen Du Onlineshooter spielst unbedingt aus machen. Und wen Du schon mal dabei bist gleich AA ausmachen und prerender Frames auf 0 stellen. ...
Ist das maximale Pre-Render-Limit nicht mindestens "1"? Zumindest performancetechnisch tut sich da nichts, wenn ich es von "0" auf "1" setze. Eigentlich müssten die FPS ja leicht runtergehen. Von "1" auf "2" oder "3" gibt's jedenfalls mehr im PenixMark3D-Punkte.
Mit "0" habe ich aber nicht weniger als mit "1". Und fühlen kann man diesen Lag wohl auch nicht mehr. "3" spürt man, bei "2" ist es wohl schon mehr Einbildung auf Grund des Wissens ... Das merkt man höchstens noch bei UT oder Quake.
Meine auch mal gelesen zuhaben, dass "0" zwar ausgewählt werden kann, aber nicht funktioniert. Weiss da jemand was?

MiamiNice
2010-01-04, 18:47:05
Bei meiner alten 88er ging das Prerender Limit nur bis 1 runter. Auf 0 hatte ich Bsod´s. Mit der 280er geht es ohne Probs auf 0. Den Unterschied zwischen 0 und 1 merke ich nicht aber den von 1 auf 2 schon.
Auf Monitoren mit zu hohem Lag oder allgemein an PC´s mit komischer HW (Funkmäuse und Tastaturen oder PC zu langsam) kann ich Online FPS Games gar nicht spielen, ich treffe einfach nix. Ich brauche konstante 70-100FPS (fixe die Games meist auf 100 FPS) und den minimalsten Lag den ich erreichen kann um anständig zu spielen.
Wen ich z.b. abends GTR Evolution gezockt habe (16xAF, 16x AA, Vsync ON) und mich dann am nächsten Tag an den PC setze treffe ich erstmal gar nix bis mir einfällt warum. Sobald AA und Vsync aus sind treffe ich wie ein junger Gott obwohl ich die gleichen FPS habe, nämlich immer genau 100.

Klingone mit Klampfe
2010-01-04, 18:55:50
en Unterschied zwischen 0 und 1 merke ich nicht aber den von 1 auf 2 schon.

Soweit ich weiß springt der Treiber bei 0 intern sowieso wieder auf 1, ergo 0=1.

Banshee18
2010-01-04, 19:21:34
Ich spiele auch meist mit Vsync off plus DB, aber in Rennspielen kommt Vsync + TB echt fein. =) Einfach ausprobieren.
:eek: Das überrascht mich, wo du doch so ein Bildqualitätsfreak bist. VSync/TB finde ich fast noch wichtiger als AA und AF. Inpulag bemerke ich nicht, was aber daran liegen könnte, dass ich schon immer mit VSync und TB spiele und es deshalb gewohnt bin.

Raff
2010-01-04, 19:54:50
Tjo, da ich meist Shooter spiele (Lag = pöööse) und wegen SSAA keine Reserven für 60 Fps habe, läuft's da meist auf Vsync off und DB hinaus. Man kann eben nicht alles haben. :D

MfG,
Raff

master_blaster
2010-01-04, 21:24:57
Soweit ich weiß springt der Treiber bei 0 intern sowieso wieder auf 1, ergo 0=1.
Genau das meinte ich - gilt das also immernoch?

Dicker Igel
2010-01-05, 02:44:50
Auf Eiern tanzt du eigentlich nur, wenn Double Buffering an ist. Ohne Vsync ist DB optimal.


Double Buffering ?

Raff
2010-01-05, 09:39:09
Double Buffering ?

Was heißt "VSync" - und wie wendet man es an? (http://www.3dcenter.org/artikel/was-heisst-vsync-und-wie-wendet-man-es) =)

Alles, was du wissen möchtest.

MfG,
Raff

jorge42
2010-01-05, 10:42:43
Tjo, da ich meist Shooter spiele (Lag = pöööse) und wegen SSAA keine Reserven für 60 Fps habe, läuft's da meist auf Vsync off und DB hinaus. Man kann eben nicht alles haben. :D

MfG,
Raff
jo mein Problem, aber vsync off fällt ja auch nicht bei allen Spielen auf. Schlimm ist es bei Spielen die durch blinkende Lichteffekte Stimmung erzeugen (AvP2), ohne vsync ist das schrecklich.

Letztens wieder aufgefallen ist mir das Tearing bei der Demo zu "Wings of Prey" auch ganz schlimm.

Aber leider bringt mein System nicht genug Performance um vsync immer an zu haben.

MiamiNice
2010-01-05, 10:59:55
Wo wir mal gerade so dabei sind. Gibt es eigendlich im ATI Treiber die Option für das Prerender Limit? Und wen nicht, auf was steht es dann fest im Treiber?
Das würde mir ggf. eine Frage beantworten die ich mir schon lange stelle.

MfG

DerRob
2010-01-05, 11:09:52
Nahezu immer

[x] AUS

Besonders, wenn die FPS in den Keller gehen. Bei hohen FPS fällt das Tearing kaum auf (wenn man nicht gerade ständig 180 Grad Drehungen macht), und bei niedrigen FPS wird mir der Input-Lag sonst einfach zu hoch (mir wird davon sogar richtig schlecht, wenn die Verzögerung zu groß wird). Gehen die FPS mal auf z.B. 20 runter, sind das nämlich nochmal 50 ms zusätzliche Verzögerung durch den 3. Buffer...

Chip4000
2010-01-05, 11:29:58
Wenn ich Games mit einer Auflösung von 1680 x 1050 Pixel zocke, habe ich ohne VSync dieses Tearing, mit Vsync läuft es sauber, allerdings gehen tatsächlich die Frameraten etwas nach unten, trotz aktiviertem Trible Buffer.
Schraube ich die Auflösung auf 1280 x 1024 runter, ist das Tearing so gut wie nicht sichtbar.

cR@b
2010-01-05, 12:01:06
Er hat eine nV, somit sollte Vsync effektiv keine Leistungseinbußen mit sich bringen. ;)

Tja leider ist dem nicht so aber dennoch V-Sync ist das beste Feature der Grafikkartenwelt um saubere Bildqualität zu erzeugen! Wer das ausschaltet und sagt er merke nichts, hat ein Augenproblem ;)

MiamiNice
2010-01-05, 12:06:29
Tja, und leider ist der V-Sync das beste Mittel um einen die Online-Baller-Session so richtig zu vermiesen. Wer das anschaltet und sagt er merkt nix sollte besser Single Player zoggern :biggrin:

Wo wir mal gerade so dabei sind. Gibt es eigendlich im ATI Treiber die Option für das Prerender Limit? Und wen nicht, auf was steht es dann fest im Treiber?
Das würde mir ggf. eine Frage beantworten die ich mir schon lange stelle.

MfG

Weiss dazu keiner was?

kmf
2010-01-05, 12:39:01
^^ Wir sind doch hier im grünen Bereich. :devil:

/edit Hier (http://www.3dcenter.org/artikel/was-heisst-vsync-und-wie-wendet-man-es/prerender-limit) steht ... das Prerender Limit ist, welches sich auf GeForce-Karten einstellen lässt ...

Sven77
2010-01-05, 13:00:30
Tja, und leider ist der V-Sync das beste Mittel um einen die Online-Baller-Session so richtig zu vermiesen. Wer das anschaltet und sagt er merkt nix sollte besser Single Player zoggern :biggrin:


Wenn man nix merkt, und trotzdem alle umschiesst soll man Single-Player zocken?? Wasn das für ne Logik ^^

raffa
2010-01-05, 13:00:37
Bei ATI heissts "FlipQueueSize", mehr weiss ich dazu aber auch nicht.

Raff
2010-01-05, 13:02:25
AFAIR kann man den Wert in den Ati Tray Tools (Advanced Tweaks) befummeln – Angabe ohne Schrotflinte.

MfG,
Raff

BK-Morpheus
2010-01-05, 13:05:13
ich hab's eigentlich immer aus, es sei denn mir fällt Tearing auf.

raffa
2010-01-05, 13:13:58
Jo, in den Tray Tools gehts unter Direct3D->Additional. (Im CCC gibts aber keine Option).
Der RegKey ist ein Binary namens <driverregkey>/UMD/FlipQueueSize, default ist 30 00. (ah, richtig, default ist undefined, d.h. der Key existiert nicht)
Allerdings auch schwer ohne Gewähr, bin hier derzeit mit dem Legacy Catalyst und ohne Tray Tools unterwegs.

Raff
2010-01-05, 13:16:23
Jo, in den Tray Tools gehts unter Direct3D->Additional. (Im CCC gibts aber keine Option).

Hast Recht – habe gerade nachgesehen. :) "3D Settings" – "Additional" – "Flip Queue Size", dort gibt's Werte von 0 bis 5; Standard ist "Undefined".

MfG,
Raff

N0Thing
2010-01-05, 13:27:54
V-Sync schalte ich nur ein, wenn mir Tearing auffällt und das Spiel kein Online-Shooter ist. Da wird dann eher auf SSAA verzichtet, damit auch ohne V-Sync kein Tearing zu erkennen ist.

MiamiNice
2010-01-05, 13:47:53
"Undefined" wäre dann wohl MS standard oder sehe ich das verkehrt? Das wäre dann wohl imho 3. Warum fällt das Prerender Limit bei ATI Karten nicht so auf? Auf einer ATI Karte fühlt sich 3 anders an als auf einer NV. Dürfte es doch aber eigendlich nicht. Das Prerender Limit gibt doch die Länge des Befehlsqueue´s der GPU an in Frames. Der Effekt sollte doch gleich sein.

kmf
2010-01-05, 15:44:24
Undefiniert bei ATi bedeutet, den gibt es nicht. Wieso schließt du jetzt auf 3 wie bei Nvidia bzw. 3 wäre MS-Standard? :upara:

Das ist wohl ein Treiberfeature von Nvidia. Bei Ati scheint das irgendwie anders gelöst. Evtl. ist dies mit ein Grund, warum die Geforce's bei gleichem Speicherausbau gegenüber den Radeons das Nachsehen haben.

Klingone mit Klampfe
2010-01-05, 16:03:44
Undefiniert bei ATi bedeutet, den gibt es nicht. Wieso schließt du jetzt auf 3 wie bei Nvidia bzw. 3 wäre MS-Standard? :upara:

Wenn ich mich recht erinnere ist "3" der Wert, der in der Registry eingetragen wird, wenn man auf "undefined" stellt bzw. einen ATI-Treiber frisch aufsetzt. ATITrayTools ist ja letztlich auch nur ein automatisierter Registy-Editor.

Flip Queue Size: This setting is similar to the 'Max Frames to Render Ahead' Nvidia setting which has been made famous by Oblivion - see this page of my Oblivion Tweak Guide. It works in much the same way, controlling the number of frames which are calculated in advance of being displayed. The default is 3, or Undefined, however by lowering this setting you may be able to resolve mouse lag problems, and even prevent graphics freezes in certain games. Experiment by setting this value to 2 first, and then if necessary try an extreme value like 0. For most people however I recommend either 3, 2 or 1 at the lowest as setting a value of 0 can disable the performance benefits of dual core CPUs for example, and in general lowering this setting will reduce overall FPS the lower the setting. You can try raising it if you want to see if you can gain performance, however again you may experience mouse lag or input lag.

http://www.tweakguides.com/ATICAT_9.html

MiamiNice
2010-01-05, 16:32:09
Undefiniert bei ATi bedeutet, den gibt es nicht. Wieso schließt du jetzt auf 3 wie bei Nvidia bzw. 3 wäre MS-Standard? :upara:

Das ist wohl ein Treiberfeature von Nvidia. Bei Ati scheint das irgendwie anders gelöst. Evtl. ist dies mit ein Grund, warum die Geforce's bei gleichem Speicherausbau gegenüber den Radeons das Nachsehen haben.

Nachdem wir geklärt haben das 3 standard ist würde mich jetzt das fette aus Deinem Post interessieren. Wie kann ATI das anders lösen? Es bleibt die "Warteschlangenlänge" der GPU in Frames gemessen. Löscht ATI jetzt Frames aus der Warteschlange oder warum merkt man bei ATI keinen Mouselag auf Undefiniert.
Nicht das es irgendwie wichtig ist, würde mich jetzt aber mal wirklich interessieren. Gefühlt hat eine ATI Karte keinen Mouselag auf Standardeinstellungen das sollte aber anders sein.

kmf
2010-01-05, 17:00:54
Also wenn ich in der Registry im Rechner meiner Frau nachgucke, ist der Eintrag gar nicht vorhanden. :(

OK, mag im Treiber per Default mit 3 belegt sein. Ich weiß es nicht.