Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX970 mikroruckelt in einigen Spielen...


Seiten : 1 2 [3] 4 5 6

Seph
2014-10-25, 23:19:29
Wo kann man die Demo saugen?

dargo
2014-10-25, 23:22:57
http://www.geforce.com/hardware/technology/g-sync/downloads

Seph
2014-10-26, 00:10:31
Läuft bei mir einwandfrei ohne Ruckler mit 59,xx und 60,0000xxx frames. Schon krass, dass es Menschen gibt, die ohne Vsync spielen. Sofortiger Gehirnkrebs bei dem Geruckel. Then again, all die Konsolenzocker sind ja schon lange vollkommen schmerzbefreit. Die Industrie hat ihnen in den letzten 10 Jahren ja nur technischen Müll gefüttert.

-/\-CruNcher-/\-
2014-10-26, 04:48:11
Was passiert, wenn du mit RTSS limitierst?

Viel besser sehr viel weniger tearing als mit dem internen in der Demo selbst, bzw überhaupt keins dafür leichtes stutter

Interessant ist nach einer weile stabilisiert sich der stutter das passiert exakt dann wenn der lüfter aufdreht ;)

Vor allem das Supersampling ist sehr tearing instabill

Wenn die Szene auch mit Limit teared hilft es es mal kurz abzuschalten und wieder an


Ohne Vsync ist das ganze verdamt Zeitkritisch, jedenfalls im jetzigen Dual GPU Mode (IGPU + Discrete Framebuffer)


Denke mal das kann je nach System verdammt anders aussehen ;)


Könnte mir vorstellen das des durch die variabilität des Boost und jetzt Boost 2.0 Systems komplexer geworden ist für Nvidia ;)

Läuft bei mir einwandfrei ohne Ruckler mit 59,xx und 60,0000xxx frames. Schon krass, dass es Menschen gibt, die ohne Vsync spielen. Sofortiger Gehirnkrebs bei dem Geruckel. Then again, all die Konsolenzocker sind ja schon lange vollkommen schmerzbefreit. Die Industrie hat ihnen in den letzten 10 Jahren ja nur technischen Müll gefüttert.

Der vergleich ist nicht korrekt vor allem nicht bei der PS4

Hübie
2014-10-26, 08:06:43
Läuft bei mir einwandfrei ohne Ruckler mit 59,xx und 60,0000xxx frames. Schon krass, dass es Menschen gibt, die ohne Vsync spielen. Sofortiger Gehirnkrebs bei dem Geruckel. Then again, all die Konsolenzocker sind ja schon lange vollkommen schmerzbefreit. Die Industrie hat ihnen in den letzten 10 Jahren ja nur technischen Müll gefüttert.

Beweise! Ich behaupte mal dass du die nur nicht wahr nimmst. Ich seh hier selbst auf einem 120 Hz-Screen kleinste Aussetzer mit V-Sync. Egal ob ich dann mit D3DOverrider, RTSS oder sonst was bei gehe.
Und egal welche Konstellation (prerenderlimit etc) es ist nie super flüssig bis es eben 120 fps sind. Also auch nicht bei dir.
Ohne V-Sync sehe ich im Pendel ab und zu mal einen Versatz / Verriss. Das wars.

dargo
2014-10-26, 08:23:21
@-/\-CruNcher-/\-

Ich habe bei der Pendel-Demo auch was Interessantes entdeckt. Kannst du mir das erklären?

Vsync Off, 60fps der Demo:
50027

Vsync On, 60fps der Demo:
50029

Vsync Off, Framelimit 60fps, 60fps der Demo:
50028

Vsync On, Framelimit 60fps, 60fps der Demo:
50026

PS: Framelimit über Afterburner 4.00.

PPS: die Zeitachse beträgt 250ms, also jede 1/4 Sekunde eine Aufzeichnung. Ist im Prinzip jetzt der gleiche Graphen wie in PvZ: GW und BF4. Dort wird auch jede 250ms aufgezeichnet. Oder waren das jede 125ms? :uponder:

Übrigens... dieses Phänomen mit Vsync On ohne Framelimit ist in Assetto Corsa noch viel stärker ausgeprägt, später mehr dazu.

-/\-CruNcher-/\-
2014-10-26, 08:38:20
@-/\-CruNcher-/\-

Ich habe bei der Pendel-Demo auch was Interessantes entdeckt. Kannst du mir das erklären?

Vsync Off, 60fps der Demo:
50027

Vsync On, 60fps der Demo:
50029

Vsync Off, Framelimit 60fps, 60fps der Demo:
50028

Vsync On, Framelimit 60fps, 60fps der Demo:
50028

PS: Framelimit über Afterburner 4.00.

PPS: die Zeitachse beträgt 250ms, also jede 1/4 Sekunde eine Aufzeichnung. Ist im Prinzip jetzt der gleiche Graphen wie in PvZ: GW und BF4. Dort wird auch jede 250ms aufgezeichnet. Oder waren das jede 125ms? :uponder:

Übrigens... dieses Phänomen mit Vsync On ohne Framelimit ist in Assetto Corsa noch viel stärker ausgeprägt, später mehr dazu.


Einzige Erklärung die ich momentan hätte die schnellen Taktschwankungen des Boost, also das was du auch bei THG im Power Output Ergebnis sehr schön siehst ;)

http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652-3.html

Hast du einen stabilen tearing freien output mit internen oder externem limit bei dir ohne Vsync (ohne Messung) ?

dargo
2014-10-26, 08:41:49
Einzige Erklärung die ich momentan hätte die schnellen Taktschwankungen des Boost :)
Aber die gibts doch in jeder der vier Durchgänge. :confused: Erst mit zusätzlichem 60fps Limit beim Afterburner erreiche ich absolut saubere 60fps, auch bei den Frametimes. Egal ob Vsync Off oder On.


Hast du einen stabilen tearing freien output mit internen oder externem limit bei dir ohne Vsync (ohne Messung) ?
Wie meinen? Ich verstehe dich nicht.

-/\-CruNcher-/\-
2014-10-26, 08:56:37
Also mit RTTS und 60 FPS limit hast du ein tear freies Ergebnis und das sofort auch ohne Vsync in der Demo ?

Natürlich gibt es die Schwankungen aber erst Vsync + Limit hält sie stabil Vsync ohne Limit fluktuiert bei den Frametimes da es versucht immer maximum effizienz zu erreichen springen die Frametimes hin und her das siehst du nicht in den FPS aber du merkst es unter umständen ;)

dargo
2014-10-26, 09:03:45
Also mit RTTS und 60 FPS limit hast du ein tear freies Ergebnis und das sofort auch ohne Vsync in der Demo ?
Nein... Tearing habe ich immer ohne Vsync. Egal ob 60fps Limit oder nicht. Mit 60fps Limit @RTSS sieht es nur anders aus. Dann teared es doppelt an den Säulen und es wandert nicht vertikal, es teared immer an der gleichen Stelle. Ohne 60fps Limit wandert Tearing ganz normal vertikal wie es sein sollte. Soll ich Videos aufnehmen? Wobei ich mir nicht sicher bin ob das in Videos dann sichtbar ist.

Edit:
Nochmal genauer hingeschaut.

Mit 60fps Limit über RTSS wandert Tearing vertikal auch, aber nur geschätzte ~2cm rauf und runter.

Grestorn
2014-10-26, 09:18:19
Meines Erachtens ist es gar nicht möglich, ohne GSync/Freesync eine absolut ruckel- und tearfreie Darstellung zu bekommen. Denn keine Rendering-Engine wird sich immer und jederzeit exakt auf 30, 40, 60 oder 120 Hz synchronisieren lassen. Also wird es immer mal ein Aussetzer von einem Frame geben mit VSync. Und ohne eben Tears.

-/\-CruNcher-/\-
2014-10-26, 09:20:44
Interessant :)

ich hab ein paar sachen suspended die CPU zeit nahmen (im Mircobereich) nun teared auch das interne limit nicht mehr der Demo :)

ich glaube Firefox DX11 Renderer interferiert hier hauptsächlich, der CPU load alleine glaub ich nicht :)

dargo
2014-10-26, 09:25:52
Jetzt habe ich was völlig beklopptes hier. :freak:

Ich habe Geforce Experience gerade installiert um mit Shadowplay ein Video aufnehmen zu können. Ich aktiviere also Shadowplay und starte die Pendel-Demo mit 60fps Limit @RTSS, Demo @60fps und Orbit Camera. Plötzlich habe ich starkes Stuttering. Ich beende die Pendel-Demo und schaue mir die Daten vom Afterburner an. Meine GPU taktete nur noch auf 540Mhz (:|), Speicher weiterhin mit normalen 3505Mhz. Wat läuft denn hier schräg? :freak:

PS: beim erneuten Start der Pendeldemo wieder nur 540Mhz an der GPU. :confused:

-/\-CruNcher-/\-
2014-10-26, 09:28:13
Jetzt habe ich was völlig beklopptes hier. :freak:

Ich habe Geforce Experience gerade installiert um mit Shadowplay ein Video aufnehmen zu können. Ich aktiviere also Shadowplay und starte die Pendel-Demo mit 60fps Limit @RTSS, Demo @60fps und Orbit Camera. Plötzlich habe ich starkes Stuttering. Ich beende die Pendel-Demo und schaue mir die Daten vom Afterburner an. Meine GPU taktete nur noch auf 540Mhz (:|), Speicher weiterhin mit normalen 3505Mhz. Wat läuft denn hier schräg? :freak:

PS: beim erneuten Start der Pendeldemo wieder nur 540Mhz an der GPU. :confused:

Hehe vermisch keine sachen das wird noch komplizierter, alles mit ruhe und bedacht ;)

dargo
2014-10-26, 09:30:45
Hehe vermisch keine sachen das wird noch komplizierter, alles mit ruhe und bedacht ;)
Lol... das ist einfacher gesagt als getan. :tongue: Also doch wieder GFE runter schmeißen?

Edit:
Gerade eben GFE deinstalliert. Ich starte die Pendeldemo und die GPU taktet immer noch mit nur 540Mhz. :| Erst ein Neustart vom Rechner hat geholfen, jetzt liegen wieder die 1316Mhz an. Meine Güte... hier gibts Fehler in der Software, die sind nicht mehr feierlich. Grundsätzlich also erstmal die Finger von GFE weg lassen würde ich sagen.

-/\-CruNcher-/\-
2014-10-26, 09:49:21
@Grestorn

Mit RTTS alleine ist es machbar das pooling von Afterburner ist schon zu viel für die Demo ;)

http://www.ld-host.de/uploads/images/04e36e6e09863704d12989b7075a1e53.png

dargo
2014-10-26, 09:50:09
Meines Erachtens ist es gar nicht möglich, ohne GSync/Freesync eine absolut ruckel- und tearfreie Darstellung zu bekommen. Denn keine Rendering-Engine wird sich immer und jederzeit exakt auf 30, 40, 60 oder 120 Hz synchronisieren lassen. Also wird es immer mal ein Aussetzer von einem Frame geben mit VSync. Und ohne eben Tears.
Also ich kann bei der Pendeldemo beim besten Willen mit Vsync On keinen Ruckler und auch kein Tearing hier entdecken. Sollte was da sein, liegt es unter meiner Wahrnehmungsgrenze. Oder die GPUs verhalten sich wirklich bei jedem anders, so verrückt es klingen mag. :freak:

@-/\-CruNcher-/\-
Das ist echt verrückt. Jetzt weiß ich was du mit Interferenzen durch Firefox meinst.

Vsync On, 60fps der Demo (kein Firefox im Hintergrund):
50030

Plötzlich habe ich eine Schwankung bei den Frametimes von nur noch 1-2ms (mit wenigen Ausnahmen). Zur Erinnerung... hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401040&postcount=506

waren es noch ca. 5ms wo Firefox im Hintergrund lief.

Lowkey
2014-10-26, 10:04:09
Firefox läuft doch grundsätzlich durch die Grafikkarte "hardwarebeschleunigt", also zumindest der Flashplayer?

Hat nicht jede Grafikkarte ein eigenes Powerlimit, da die Qualität des Grafikchips bei jedem User anders ausfällt?

dargo
2014-10-26, 10:06:20
Ohne Vsync ist das ganze verdamt Zeitkritisch, jedenfalls im jetzigen Dual GPU Mode (IGPU + Discrete Framebuffer)


Denke mal das kann je nach System verdammt anders aussehen ;)

Hier muss ich genauer nachhaken.

Wie du weißt habe ich einen Xeon ohne iGP. Wie verhält sich das bei dir wenn du die dedizierte Grafikkarte nutzt? Wird die iGP komplett deaktiviert? Falls nicht wundert es mich dann nicht, dass sich das ganze bei mir anders verhalten kann.

InsaneDruid
2014-10-26, 10:08:46
Pendeldemo, erster Bereich Fenstermodus, danach Vollbild. Vsync und simulate 60FPS in der Demo eingestellt, nichts mit externen Tools erzwungen. Ab Umschaltung auf Vollbild (rote linie) 16.xx ms Frametimes.

http://abload.de/img/untitled-1z7oa4.png

PS: ob mit oder ohne Firefox ist hier den Frametimes auch völlig wurst.

-/\-CruNcher-/\-
2014-10-26, 10:11:43
Hier muss ich genauer nachhaken.

Wie du weißt habe ich einen Xeon ohne iGP. Wie verhält sich das bei dir wenn du die dedizierte Grafikkarte nutzt? Wird die iGP komplett deaktiviert? Falls nicht wundert es mich dann nicht, dass sich das ganze bei mir anders verhalten kann.

Kannst du aber ich nutze sie simultan für verschiedene Workflows :)

Geldmann3
2014-10-26, 10:38:59
Ok, jetzt mal aus reinem Interesse. Hast du die Ruckler auch, wenn du das Game mit Fraps aufzeichnest? Wenn ja, dann hau mit dem RivaTunerServer mal den frame color indicator rein. Alternativ mit einer Hochgeschwindigkeitskamera am besten @240FPS aufzeichnen. Dann können wir anhand des Farbindikators sicher sagen, ob es Tearing oder Ruckler sind.

Meines Erachtens ist es gar nicht möglich, ohne GSync/Freesync eine absolut ruckel- und tearfreie Darstellung zu bekommen. Denn keine Rendering-Engine wird sich immer und jederzeit exakt auf 30, 40, 60 oder 120 Hz synchronisieren lassen. Also wird es immer mal ein Aussetzer von einem Frame geben mit VSync. Und ohne eben Tears.
Praktisch schon, denn es gibt zwar immer kleine Differenzen in den Frametimes, doch die "Tearing Grenze" bleibt dann im unteren bzw. oberren Bereich des Bildes, sodass nur wenige Pixelreihen davon betroffen sind, die man nicht wahrnimmt. Wichtig ist nur, dass man immer felsenfest an einer FPS Grenze klebt. Wie 30 oder 60FPS. Sollte die Framerate um 10% fallen, hat man dann immernoch nicht zwingend Tearing, da Frames vorgehalten werden können. Jedoch könnte die Spielgeschwindigkeit inkonsistent wirken, je nachdem, weil einige Frames beispielsweise schneller oder langsamer gerendert wurden als sie dann zuletzt ausgegeben werden. Dann hat man ein kurzes Slowdown.

Meine Erfahrung mit 2 R 290 ist (und das ist sogar ein anfälliges DualGPU Gespann), dass bei stabilen 60 oder 30FPS +Vsync weder Ruckler noch Tearing auftreten. Es sei denn, es sind Nachladeruckler. Ich zocker daher immer mit Framelock+VSync. So gehe ich dem Microrucklerproblem völlig aus dem Weg. Mir ist allerdings aufgefallen, dass die Qualität der unterschiedlichen Framelimiter variiert. Der in GeDoSaTo lässt Microruckler beispielsweise irgendwie zu. Beim RTSS kommt es auf das Game an. Sollte der mal nicht zufriedenstellend limitieren weiche ich auf den Limiter in DxTory aus. Der macht seinen Job meist ganz ordentlich. Ich weiß nicht, wie sich diese Limitier von der Funktionsweise unterscheiden, doch es scheint etwas anderst zu sein. Auf meinem alten Rechner mit einer HD6990 wollte RTSS (Das alte) NFS Most Wanted beispielweise gar nicht limitieren. Der 30FPS Limitier hatte keine Wirkung. DxTory hat es hingegen geschafft. Genauso bei Burnout Paradise+GeDoSaTo. GeDoSaTo hat hier nicht ordentlich limitiert, sodass 30FPS sehr unflüssig waren. Die Spielgeschwindigkeit hat sozusagen varriert. RTSS wollte gar nicht, doch DxTory konnte es irgendwie ordentlich.

dargo
2014-10-26, 10:39:55
Ok... ich spreche jetzt mal ein Thema an in Bezug auf das Spiel Assetto Corsa.

Ich hatte gestern über ICQ eine längere Unterhaltung mit dem 3DC-Member '[dzp]Viper' gehabt. Wir haben auch einige Tests gemacht. Er hat ebenfalls eine MSI GTX970 Gaming 4G und auch Windows 7 installiert. Wir hatten die gleichen Ingamesettings genommen. Er hat nur eine andere CPU, Mainboard, Speicher und Bildschirm (nur die relevanten Sachen aufgezählt).

Wir sind also eine ganze Runde auf Monza gefahren und haben die Daten mitgeloggt. Ohne Vsync sah es bei uns praktisch identisch aus. Schwankungen bei den Frametimes von ca. 5ms. Mit Vsync On gabs aber riesen Unterschiede. Das sieht bei mir so aus.
50032

Man sieht hier sehr gut die kurzen Aussetzer Richtung 33,33ms und einen langen. Den langen spürt man Ingame besonders stark, gibt richtige Framedrops und Stuttering. Komischerweise passiert das bei Viper nicht. :confused:

Jetzt sieht mir das so aus als ob hier sich stellenweise Doublebuffering bemerkbar macht. Was für mich allerdings unlogisch ist da ohne Vsync die Framerate immer über 60fps bleibt. Und eigentlich sollte die Framerate bei Doublebuffering direkt auf 30fps fallen ohne Zwischenschritte (oder verstehe ich hier was falsch?). Wenn ich dann Triplebuffering über den D3D-Overrider aufzwinge ist (fast) alles in bester Ordnung.
50033

Das ist auch in etwa das Ergebnis welches Viper ohne das Aufzwingen von Triplebuffering erreicht. Wie kann es sein, dass das Buffering bei zwei Systemen (gleicher Grafikkarte und sogar Hersteller) sich so unterschiedlich verhält? :confused:

OC_Burner
2014-10-26, 10:43:36
1000/60=16.666666... Sind halt immer mit Rundungen verbunden. 40, 50, 100 und 125FPS haben das Problem nicht. 64FPS mit 15,625ms und 80FPS mit 12,5ms haben das Problem auch nicht. Testweise mal mit diesen Refreshraten fahren.

EDIT: Bezieht sich jetzt auf die Antworten der letzten Seite.

-/\-CruNcher-/\-
2014-10-26, 10:46:34
Sehr gut erfasst Geldmann3 das riesenproblem bleibt aber das OS ;)

dargo
2014-10-26, 10:48:40
1000/60=16.666666... Sind halt immer mit Rundungen verbunden. 40, 50, 100 und 125FPS haben das Problem nicht. 64FPS mit 15,625ms und 80FPS mit 12,5ms haben das Problem auch nicht. Testweise mal mit diesen Refreshraten fahren.

EDIT: Bezieht sich jetzt auf die Antworten der letzten Seite.
Das ist ja interessant. Du meinst also ich soll mir eine benutzerdefinierte Auflösung von 1920x1080 @64Hz erstellen und damit das Game testen? Assetto Corsa nimmt die 64Hz dann sogar ohne auf CRU zurückgreifen zu müssen.

-/\-CruNcher-/\-
2014-10-26, 10:52:49
@OC_Burner

Mein Samsung sagt mir aber

Optimaler Modus = 60 Hz

dargo
2014-10-26, 10:54:14
Meine Erfahrung mit 2 R 290 ist (und das ist sogar ein anfälliges DualGPU Gespann), dass bei stabilen 60 oder 30FPS +Vsync weder Ruckler noch Tearing auftreten. Es sei denn, es sind Nachladeruckler. Ich zocker daher immer mit Framelock+VSync. So gehe ich dem Microrucklerproblem völlig aus dem Weg. Mir ist allerdings aufgefallen, dass die Qualität der unterschiedlichen Framelimiter variiert. Der in GeDoSaTo lässt Microruckler beispielsweise irgendwie zu. Beim RTSS kommt es auf das Game an. Sollte der mal nicht zurfriedenstellend limitieren weiche ich auf den Limiter in DxTory aus. Der macht seinen meist ganz ordentlich. Ich weiß nicht, wie sich diese Limitier von der Funktionsweise unterscheiden, doch es scheint etwas anderst zu sein. Auf meinem alten Rechner mit einer HD6990 wollte RTSS (Das alte) NFS Most Wanted beispielweise gar nicht limitieren. Der 30FPS Limitier hatte keinen Sinn. DxTory hat es hingegen geschafft. Genauso bei Burnout Paradise+GeDoSaTo. GeDoSaTo hat hier nicht ordentlichj limitiert, sodass 30FPS sehr unflüssig waren. Die Spielgeschwindigkeit hat sozusagen varriert. RTSS wollte gar nicht, doch DxTory konnte es irgendwie ordentlich.
Alter Schwede... wie soll dabei der 08/15 Hans durchblicken der einfach nur spielen will? :crazy:

@OC_Burner

Mein Samsung sagt mir aber

Optimaler Modus = 60 Hz
Das sagt jeder 60Hz Bildschirm, nicht nur dein Samsung. ;)

-/\-CruNcher-/\-
2014-10-26, 10:58:47
Geldmann3 hat recht zum teil ist Dxtorys Code sogar besser als Unwinders ;)

Alter Schwede... wie soll dabei der 08/15 Hans durchblicken der einfach nur spielen will?

Da versucht Nvidia ihren internen Limiter ins Spiel zu bringen bzw mit Gsync das ganze komplett zu Obsoleten mit Gewinn ;)

OC_Burner
2014-10-26, 11:19:15
@OC_Burner

Mein Samsung sagt mir aber

Optimaler Modus = 60 Hz

Das ist ja interessant. Du meinst also ich soll mir eine benutzerdefinierte Auflösung von 1920x1080 @64Hz erstellen und damit das Game testen? Assetto Corsa nimmt die 64Hz dann sogar ohne auf CRU zurückgreifen zu müssen.

War halt nur ein kurzer Gedankengang der mir beim durchlesen der letzten Seite kam. Krumme Werte ziehen doch einen immer länger werdenden Rattenschwanz an noch krummeren Zahlen hinterher. Diese 60FPS sind doch mehr oder weiger immernoch ein Überbleibsel der amerikanischen Netztfrequenz und des darauf ausgelegten TV-Signals. Da sind Refreshraten von 50 oder 100 klar besser duch 1000ms teilbar.

dargo
2014-10-26, 11:21:55
Da versucht Nvidia ihren internen Limiter ins Spiel zu bringen bzw mit Gsync das ganze komplett zu Obsoleten mit Gewinn ;)
Na... das sind aber böse Unterstellungen. :wink:

@OC_Burner

Mit 64Hz @64fps wirds nicht viel besser. Habe dafür auf 4xMSAA verzichtet damit die Framerate immer gehalten werden kann.

64Hz @64fps Vsync Off (tiefste Framerate 65fps):
50035

64Hz @64fps Vsync On:
50034

War halt nur ein kurzer Gedankengang der mir beim durchlesen der letzten Seite kam. Krumme Werte ziehen doch einen immer länger werdenden Rattenschwanz an noch krummeren Zahlen hinterher. Diese 60FPS sind doch mehr oder weiger immernoch ein Überbleibsel der amerikanischen Netztfrequenz und des darauf ausgelegten TV-Signals. Da sind Refreshraten von 50 oder 100 klar besser duch 1000ms teilbar.
Verstehe... aber wo ist das Problem der Software zu sagen mache aus 16,66666666666667ms 16,7ms (oder was auch immer) draus? Gehst du hier von einem Rundungsfehler im Treiber aus?

Ich kann leider nicht mit 80Hz testen, bei 72Hz ist hier Schluss. Wäre interessant zu sehen was passiert wenn es nur eine Stelle hinterm Komma gibt.

-/\-CruNcher-/\-
2014-10-26, 11:29:53
Na... das sind aber böse Unterstellungen. :wink:

@OC_Burner

Mit 64Hz @64fps wirds nicht viel besser. Habe dafür auf 4xMSAA verzichtet damit die Framerate immer gehalten werden kann.

64Hz @64fps Vsync Off (tiefste Framerate 65fps):
50035

64Hz @64fps Vsync On:
50034


Verstehe... aber wo ist das Problem der Software zu sagen mache aus 16,66666666666667ms 16,7ms (oder was auch immer) draus? Gehst du hier von einem Rundungsfehler im Treiber aus?

Ich kann leider nicht mit 80Hz testen, bei 72Hz ist hier Schluss. Wäre interessant zu sehen was passiert wenn es nur eine Stelle hinterm Komma gibt.

Nicht vergessen Afterburner selbst erzeugt Microruckler je nachdem wie du das pooling interval ansetzt mehr oder weniger ;)

dargo
2014-10-26, 11:33:07
Nicht vergessen Afterburner selbst erzeugt Microruckler ;)
Das was hier bei Assetto Corsa mit Vsync ohne aufgezwungenes Triplebuffering passiert sind keine Mikroruckler mehr. ;)

Mir fällt aber gerade was ein. Ich könnte mit 50Hz testen. Das gibt sogar eine Runde Zahl durch 1000. :cop:

Edit:
Das gibts doch gar nicht. X-D OC_Burner... ich könnte dich :love3:. Dein Gedankengang war vollkommen richtig! Hier gibt es offenbar einen Rundungsfehler in der Software mit ganz üblen Nebeneffekten. 1000/50 ergibt arschglatte 20ms.

50Hz @50fps mit Vsync On:
50039

Ich wusste es, dass das kein Hardwaredefekt sein kann. Weder bei der Grafikkarte noch bei den anderen Komponenten.

Edit 2:
In der Pendeldemo habe ich allerdings immer noch den Versatz von ca. 5ms mit Vsync On, trotz 50Hz.
50040

Crysis 3 sieht aber immer noch sehr übel bei 50Hz @50fps und Vsync On aus. X-D
50042

Geldmann3
2014-10-26, 12:37:06
Schon mal versucht den Rechner komplett neu aufzusetzen?

dargo
2014-10-26, 12:46:41
Schon mal versucht den Rechner komplett neu aufzusetzen?
Mindestens 8x. :freak:

Selbst mit aufgezwungenem Vsync + Triplebuffering + 50fps Limit @RTSS und 50Hz ist Crysis 3 hier nicht zu bändigen. :freak:
50044

Das sind richtig schöne Bildstopper die meistens beim Rennen und einer schnellen Mausbewegung kommen.

-/\-CruNcher-/\-
2014-10-26, 12:57:57
Da ich jetzt 4 GB Vram nutzen kann denk ich mal macht es keinen sinn mehr den minimalen Aero overhead (memory,latency) gegenüber den vorzügen noch zu ignorieren vor allem da Nvidia alle ihre applikationen und verhalten nur noch auf Aero abstimmen zu scheint im Treiber seit es Default wurde mit Windows 8 ;)

aufkrawall
2014-10-26, 13:18:03
Windows 8 hat kein Aero mehr und damit wurde der DWM stark überarbeitet.

-/\-CruNcher-/\-
2014-10-26, 13:23:11
Ich weiss es wurde beides vereint für Metro und die Latenz optimiert trotzdem sind die basics die selben und daraufhin wird nur noch optimiert so das Multithreading zwischen CPU und GPU irgendwann richtig Preemptive wird ohne irgendwelche clash probleme im UI.

Von DX12 in Win 10 erhofe ich da den Durchbruch wie damals bei der Roadmap hin zu WDDM 2.0/2.1 verkündet :)

robbitop
2014-10-26, 13:33:46
Wenn ich das so sehe - können wir froh sein, dass mittelfristig eine adaptive Abtastung des Framebuffers vorgenommen wird anstatt diese antike fest Abtastung mit 60 Hz.

InsaneDruid
2014-10-26, 13:36:12
Ich bekomm immer mehr Lust, dir mal meine 970 zu schicken, damit du endlich siehst dass deine wohl einen Schuss hat. Aller 3 Seiten kommt ein "heureka es war doch xYz", nur um im selben Edit "ach nee"...

-/\-CruNcher-/\-
2014-10-26, 13:41:33
Wenn ich das so sehe - können wir froh sein, dass mittelfristig eine adaptive Abtastung des Framebuffers vorgenommen wird anstatt diese antike fest Abtastung mit 60 Hz.

Jo langfristig funktioniert es auch nicht anders alles wird adaptiv irgendwo und passst sich dem Verbrauch an nur der PC humpelt bei seinen alten tugenden rum und workarrounded überall mit interessanten Ergebnisen die immer mehr Auffallen ;)

Und Konsole und Mobile anfangen den PC langsam aber sicher zu Obsoleten in seiner antiken Architektur

dargo
2014-10-26, 13:55:04
Ich bekomm immer mehr Lust, dir mal meine 970 zu schicken, damit du endlich siehst dass deine wohl einen Schuss hat. Aller 3 Seiten kommt ein "heureka es war doch xYz", nur um im selben Edit "ach nee"...
Das stimmt so nicht, oder du liest nicht richtig. ;)

Ein Alan Wake läuft hier perfekt, ist allerdings DX9. Ein Crysis 3 (DX11) läuft wie Gülle, ist für mich völlig unspielbar. Für ein Assetto Corsa (DX11) gibts zwei Lösungen damit es mit Vsync On perfekt läuft (Vsync Off läuft mit 5ms Versatz recht gut). Entweder bei 60Hz Triplebuffering aufzwingen oder 50Hz nutzen. Im letzten Fall ist kein Aufzwingen von Triplebuffering notwendig. Ein GRID 2 (DX11) läuft mit Vsync On @60Hz ebenfalls subjektiv perfekt. Hier werde ich mir allerdings noch die Frametimes anschauen, das hatte ich noch nicht. Ohne Vsync läuft GRID 2 recht gut würde ich sagen, aber nicht perfekt. Wenn mich meine Erinnerung nicht täuscht hatte ich da einen Versatz von 14ms.

Jetzt finde die Ursache. ;D :freak:

Edit:
Da ist es... 14ms.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10400156&postcount=495

Das kann natürlich je nach Strecke auch etwas variieren. Ist aber jedenfalls keine Katastrophe wie Crysis 3.

-/\-CruNcher-/\-
2014-10-26, 14:05:37
Sagte schonmal nicht so auf Crysis 3 Konzentrieren sondern Ryse ;)

Seph
2014-10-26, 14:08:31
Wenn ich das so sehe - können wir froh sein, dass mittelfristig eine adaptive Abtastung des Framebuffers vorgenommen wird anstatt diese antike fest Abtastung mit 60 Hz.

Der Weg ist noch weit. Wir sind in der Minderheit. Ich denke nicht, dass diese Technologie sich durchsetzt, VR wird sich vorher etablieren. Dann muss auch die breite Masse plötzlich auf Framerates und Frametimes achten und die Entwickler werden dies berücksichtigen, wenn sie ihre Engines entwickeln. Denn nur darum geht es hier in erster Linie.

-/\-CruNcher-/\-
2014-10-26, 14:11:31
Die Entwickler können soviel machen wie sie wollen die Grundsteine legen immernoch Microsoft und die IHVs

Seph
2014-10-26, 14:19:02
Die Entwickler können soviel machen wie sie wollen die Grundsteine legen immernoch Microsoft und die IHVs

Das kommt noch dazu. Es ist ein komplexes Problem, Fehler können an verschiedenen Stellen passieren. Kein Wunder, dass Nvidia Gsync entwickelt hat. Aber diese Technologie ist keine Lösung, zu eingeschränkt. Bestenfalls eine Übergangslösung für einige wenige Nutzer. Für mich ist es bspw. nichts, da ich meistens am TV spiele.

dargo
2014-10-26, 14:19:15
Sagte schonmal nicht so auf Crysis 3 Konzentrieren sondern Ryse ;)
Schon klar. Da warte ich aber noch den nächsten Treiber ab da der Performancetreiber FW344.48 das Lüfterproblem bei MSI hat. Ich kann mich aber wirklich nicht daran erinnern mich mit der Radeon in Crysis 3 (komplett damit durchgespielt) so durchgeruckelt zu haben. Das kann man auch kaum Ruckler bezeichnen, sind eher komplette Bildstopper stellenweise.

-/\-CruNcher-/\-
2014-10-26, 14:23:39
Hast du vergleiche mit Crysis 2 und AMD ?

robbitop
2014-10-26, 14:26:03
Ich würde nie wieder ohne G-Sync und 144 Hz wollen. Dagegen sind 60Hz und Vsync einfach nur ruckelig.

-/\-CruNcher-/\-
2014-10-26, 14:41:15
Wenn du ein Spiel hast was z.b 20 Hz animationen nutzen würde würde es auch keinen großen unterschied machen ob der rest smooth läuft ;)

Es würde sich immernoch scheisse anfühlen genauso mit gesyncter physik auf 30 Hz ;)

dargo
2014-10-26, 14:42:37
Hast du vergleiche mit Crysis 2 und AMD ?
Crysis 2? Die AMD ist schon lange verkauft. Das Spiel Crysis 2 habe ich aber noch. Das könnte ich natürlich mit der GTX970 noch testen. Ich muss eh erstmal am besten alles downloaden was ich so habe und testen. Das wären zusätzlich dann halt:

* Crysis 2
* Battlefield 3
* Metro: LL
* Bioshock Infinite
* Aliens: Colonial Marines
* Left 4 Dead 2
* Dead Island
* Splinter Cell: Conviction
* Max Payne 3
* Serious Sam 3 BFE
* Shift 2: Unleashed
* Tomb Raider 2013
* Metro 2033

Das müsste in etwas alles sein. Dann habe ich wohl ne bessere Übersicht. Dafür bräuchte ich allerdings mindestens 2 Wochen Sonderurlaub. ;D :freak:

Ich würde nie wieder ohne G-Sync und 144 Hz wollen. Dagegen sind 60Hz und Vsync einfach nur ruckelig.
Robbitop, du sprichst hier was völlig anderes an. Solange die Frametimes passen ist mir hier bei 60fps @60Hz nichts ruckelig. Und damit meine ich reine Bildausgabe, lassen wir die Steuerung (Stichwort Inputlag) weg. In diesem Thread gehts um was ganz anderes. Das soll jetzt natürlich nicht heißen, dass mehr fps sich nicht noch flüssiger anfühlen, besonders mit Vblank.

Edit:
Selbst diese 5ms Schwankung bei der Pendeldemo mit Vsync On fällt mir nicht negativ auf.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401040&postcount=506

Ich bezweifle auch stark, dass 5ms überhaupt jemand wahrnehmen kann. Und wenn doch, dann nur sehr wenige.

aufkrawall
2014-10-26, 15:11:55
besonders mit Vblank.

Variablem. ;)

dargo
2014-10-26, 15:17:08
Ups... V-Vblank. :wink:

robbitop
2014-10-26, 16:05:38
Dargo,

Ja aber dazu musst du eine feste Framerate einhalten. Ansonsten kann es juddern. Das löst G/Sync. Eine höhere Abtastrate bewirkt übrigens Ähnliches.

-/\-CruNcher-/\-
2014-10-26, 16:08:55
Galax GTX 970 Exoc Stock Pendulum test Vsync On RTTS Limit 60 FPS (Default Entry Scene,Supersampled)

http://www.ld-host.de/uploads/images/d9b66c5b9c2ff676daa84fe3d95157ca.png



Subjektives Ergebnis

Keine sichtbaren Microruckler


Fullspeed Kamera Spin test und Firefox Background test folgen

http://www.ld-host.de/uploads/images/68506810b5175dd9f80033c21b23e22b.png


Ablauf des Tests:

Karte Warmlaufen 75°C in der Default Entry Scene (nach nicht mehr ansteigendem geräuschpegels des lüfters abgeschätzt wann erreicht)

Kamera Spin voll aufdrehen (so schnell wie möglich)

Fixierung Pendel = OK

Fixierung Säule = OK

Fixierung Reflection = OK

Fixierung Textur = OK

Afterburner Overhead = ~ 0,35 CPU


Subjektives Ergebnis

Alle Objekte Fixier und Verfolgbar keine sichtbaren Microruckler weder im Spin selbst noch an den Objekten erkennbar


Spin test mit Firefox DX 11 Overhead ~ 0,25 CPU / ~ 0,20-0,40 GPU

http://www.ld-host.de/uploads/images/65f1edb3b28a72e3cb09bbc53e55f26c.png


Subjektives Ergebnis

Fixierungstests = OK

Keine sichtbaren Microruckler

Sichtbares Problem = plötzliche Erhöhung der Lüftergeschwindigkeit in intervalen von ca 4 minuten durch Firefox load

dargo
2014-10-26, 17:05:42
@Cruncher
Nimm bitte wenns geht den Afterburner 4.00, damit wir besser vergleichen können. Alles was von mir bisher kam war mit Version 4.00.

captain_drink
2014-10-26, 17:13:00
Ich glaube, dass Crysis 3 kein internes Triple Buffering hat (bei Vsync). Wenn die Ruckler also vom Double Buffering kommen, dann muss der D3DOverrider ran, wobei der m.W. nur mit 32-Bit-Anwendungen funktionieren sollte.

Seph
2014-10-26, 17:52:24
Galax GTX 970 Exoc Stock Pendulum test Vsync On RTTS Limit 60 FPS (Default Entry Scene,Supersampled)

http://www.ld-host.de/uploads/images/d9b66c5b9c2ff676daa84fe3d95157ca.png



Subjektives Ergebnis

Keine sichtbaren Microruckler


Fullspeed Kamera Spin test und Firefox Background test folgen

http://www.ld-host.de/uploads/images/68506810b5175dd9f80033c21b23e22b.png


Ablauf des Tests:

Karte Warmlaufen 75°C in der Default Entry Scene (nach nicht mehr ansteigendem geräuschpegels des lüfters abgeschätzt wann erreicht)

Kamera Spin voll aufdrehen (so schnell wie möglich)

Fixierung Pendel = OK

Fixierung Säule = OK

Fixierung Reflection = OK

Fixierung Textur = OK

Afterburner Overhead = ~ 0,35 CPU


Subjektives Ergebnis

Alle Objekte Fixier und Verfolgbar keine sichtbaren Microruckler weder im Spin selbst noch an den Objekten erkennbar


Spin test mit Firefox DX 11 Overhead ~ 0,25 CPU / ~ 0,20-0,40 GPU

http://www.ld-host.de/uploads/images/65f1edb3b28a72e3cb09bbc53e55f26c.png


Subjektives Ergebnis

Fixierungstests = OK

Keine sichtbaren Microruckler

Sichtbares Problem = plötzliche Erhöhung der Lüftergeschwindigkeit in intervalen von ca 4 minuten durch Firefox load

Dito hier. Mit MSI Framelimiter komplette Flatline, ohne 98%. Wie schon 100 x gesagt - es gibt kein Problem mit der 970, der TE entdeckt gerade nur die große komplexe Welt der Framerates und unangepassten Spieleengines und lebt dabei seine Neurose aus. Der Thread kann m.E. zu, der Titel geändert werden. Hier gibt es nichts herauszufinden, hier wird nichts herausgefunden. Es ist verschwendete Zeit.

dargo
2014-10-26, 18:18:33
Ich glaube, dass Crysis 3 kein internes Triple Buffering hat (bei Vsync). Wenn die Ruckler also vom Double Buffering kommen, dann muss der D3DOverrider ran, wobei der m.W. nur mit 32-Bit-Anwendungen funktionieren sollte.
Guckst du. :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401307&postcount=535

Vsync + Triplebuffering war über den D3D-Overrider aufgezwungen.

Dito hier. Mit MSI Framelimiter komplette Flatline, ohne 98%. Wie schon 100 x gesagt - es gibt kein Problem mit der 970, der TE entdeckt gerade nur die große komplexe Welt der Framerates und unangepassten Spieleengines und lebt dabei seine Neurose aus. Der Thread kann m.E. zu, der Titel geändert werden. Hier gibt es nichts herauszufinden, hier wird nichts herausgefunden. Es ist verschwendete Zeit.
Seit wann hast du in diesem Forum zu entscheiden ob ein Thread zugemacht wird oder nicht? Tue uns allen bitte einen großen Gefallen und bleibe diesem Thread fern, danke. :)

Einfach daran halten, ist nicht schwer.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10400055&postcount=484

-/\-CruNcher-/\-
2014-10-26, 18:26:02
@dargo

Jo werd Afterburner updaten hab gerade gemerkt das Nvenc garnicht funktioniert mit der 3.01 auf Maxwell

Cool war echt bei dem Test zu sehen das ich keinen Microruckler sah weder mit Afterburner noch mit RTTS aktiv, wenn das jetzt stabil sein sollte lass ich es für immer laufen ist einfach ein must have analyse tool :)

es scheint auch so als hat Nvidia selbst ordentlich mitgeholfen das überall jetzt zu berücksichtigen immerhin ist es ja quasi Standard für alle Nvidia AIBs geworden :D

aufkrawall
2014-10-26, 18:31:07
Guckst du. :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401307&postcount=535

Vsync + Triplebuffering war über den D3D-Overrider aufgezwungen.

Wenn man mit Hooks in den Prozessen rumwurschtelt, darf man sich auch nicht über Overhead oder sonstige Späße wundern.

-/\-CruNcher-/\-
2014-10-26, 18:34:08
Wenn man mit Hooks in den Prozessen rumwurschtelt, darf man sich auch nicht über Overhead oder sonstige Späße wundern.

Sag das mal Nvidia (GFE) und es kommt ja auch immernoch auf die Programmierung an aber D3D-Overrider würd ich eher nicht mehr nutzen (ausser unter NT 5) lieber dann Borderless Window was quasi jeder mitlerweile by default zur Verfügung stellt in den Setup Optionen und auch bei Crysis 3 vorhanden ist ;)

dargo
2014-10-26, 18:37:16
Wenn man mit Hooks in den Prozessen rumwurschtelt, darf man sich auch nicht über Overhead oder sonstige Späße wundern.
Moment mal... hier wurde doch behauptet in Crysis 3 ist Vsync + Triplebuffering über D3D-Overrider + FPS-Limit @RTSS Pflicht um sauber spielen zu können. Könnt ihr euch mal entscheiden? :)

aufkrawall
2014-10-26, 18:37:17
Hab mit GFE noch keine Probleme gehabt, abseits von einem allgemeinen Bug.

@dargo: Das liest sich furchtbarer als es sich wahrscheinlich schon anfühlt. Bei Crysis 3 würd ich schon wegen des Lags Vsync auslassen.

captain_drink
2014-10-26, 18:38:45
Guckst du. :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401307&postcount=535

Vsync + Triplebuffering war über den D3D-Overrider aufgezwungen.


Ich hab grad auch nachgeschaut, Crysis 3 ist eine 32-Bit-Anwendung. Insofern sollte der D3DOverrider funktionieren, wenngleich auch das nicht garantiert ist. Eventuell könnte es auch noch helfen, die Detection zusätzlich auf High zu stellen.

aufkrawall
2014-10-26, 18:39:59
Was wollt ihr mit TB? Das fängt immer an zu stottern, wenn die fps/die Refreshrate nicht gehalten werden können und erhöht immer den Input Lag.

-/\-CruNcher-/\-
2014-10-26, 18:42:29
Kann man sehr schön bei Watch_Dogs sehen das Spiel ist verdammt Latenz empfindlich man merkt es sofort :)

captain_drink
2014-10-26, 18:49:37
Was wollt ihr mit TB? Das fängt immer an zu stottern, wenn die fps/die Refreshrate nicht gehalten werden können und erhöht immer den Input Lag.

Das technische Prinzip hinter TB hast du aber schon verstanden, oder?
http://www.anandtech.com/show/2794/2

aufkrawall
2014-10-26, 18:54:34
Dieses "echte" TB gibt es wohl nur noch im Fenstermodus per DWM. Im FSE hast du einfach ein Frame mehr in der Anzeige-Queue, was zu den von mir beschriebenen Effekten führt.
Wohl nicht sehr empfindlich gegenüber Lag? :D

-/\-CruNcher-/\-
2014-10-26, 18:56:07
Dann sollte man aber definitiv Borderless präferieren das funktioniert besser und auch bei 64 Bit ;)

aufkrawall
2014-10-26, 18:59:03
Das ist ja technisch quasi das gleiche. Klar, dass man keinen Rand haben will. :cool:
Wobei mir das nicht so smooth zu laufen scheint wie Vsync im FSE, sofern die fps über der Refreshrate liegen.
Variabler Vblank ist durch nichts zu ersetzen.

captain_drink
2014-10-26, 19:00:13
Dieses "echte" TB gibt es wohl nur noch im Fenstermodus per DWM. Im FSE hast du einfach ein Frame mehr in der Anzeige-Queue, was zu den von mir beschriebenen Effekten führt.
Wohl nicht sehr empfindlich gegenüber Lag? :D

Mit D3DOverrider geht 'echtes' TB in 99% aller Fälle, auch im Vollbild. Flip Queue Size/Pre-rendered Frames erhöhen natürlich den Inputlag, aber das nutze ich auch nicht.

-/\-CruNcher-/\-
2014-10-26, 19:06:14
Das ist ja technisch quasi das gleiche. Klar, dass man keinen Rand haben will. :cool:
Wobei mir das nicht so smooth zu laufen scheint wie Vsync im FSE, sofern die fps über der Refreshrate liegen.
Variabler Vblank ist durch nichts zu ersetzen.

Hoffentlich wird es schnell bezahlbar ;)

dargo
2014-10-26, 19:15:38
Ich hab grad auch nachgeschaut, Crysis 3 ist eine 32-Bit-Anwendung. Insofern sollte der D3DOverrider funktionieren, wenngleich auch das nicht garantiert ist. Eventuell könnte es auch noch helfen, die Detection zusätzlich auf High zu stellen.
Das war meine Einstellung. :)
50055

aufkrawall
2014-10-26, 19:21:53
Das alte Programm will hier gerade leider nicht mit HL2, aber ich bin mir ziemlich sicher, dass der Input Lag mit D3DOverrider TB Vsync höher ist als mit adaptivem.

dargo
2014-10-26, 19:25:08
@dargo: Das liest sich furchtbarer als es sich wahrscheinlich schon anfühlt. Bei Crysis 3 würd ich schon wegen des Lags Vsync auslassen.
Lieber aufkrawall (ich fange mal so an :wink:)... ich habe gefühlte 10x gesagt, dass Crysis 3 bei mir ohne Vsync unberechenbar..., ähm völlig unspielbar ist. Ich weiß, dass der Thread langsam etwas unübersichtlich ist. Ich versuche nächste Woche mal eine Zusammenfassung über mehrere Spiele zu erstellen. Sowohl mit Vsync als auch ohne.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10400072&postcount=485

@dargo

Jo werd Afterburner updaten hab gerade gemerkt das Nvenc garnicht funktioniert mit der 3.01 auf Maxwell

Danke... ist auch imho besser wenn wir hier was vergleichen. Ich werde auch gleich noch ein wenig testen. Brauchte paar Stunden Auszeit um klaren Kopf zu bekommen. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401710&postcount=5033

aufkrawall
2014-10-26, 19:34:36
Lieber aufkrawall (ich fange mal so an :wink:)... ich habe gefühlte 10x gesagt, dass Crysis 3 bei mir ohne Vsync unberechenbar..., ähm völlig unspielbar ist. Ich weiß, dass der Thread langsam etwas unübersichtlich ist. Ich versuche nächste Woche mal eine Zusammenfassung über mehrere Spiele zu erstellen. Sowohl mit Vsync als auch ohne.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10400072&postcount=485

Teste doch mal bitte den Fields Level mit niedrigsten Details (außer Texturen) in 4k oder höher. Ruckelt das auch?
Tat es bei mir definitiv nicht (SMAA 2Tx).
Kauf dir mal eine günstige kleine Radeon zum Vergleich. Ich seh sonst keine Möglichkeit, wie du weiterkommen willst.

dargo
2014-10-26, 19:38:16
Teste doch mal bitte den Fields Level mit niedrigsten Details (außer Texturen) in 4k oder höher. Ruckelt das auch?

Mache ich noch.


Kauf dir mal eine günstige kleine Radeon zum Vergleich. Ich seh sonst keine Möglichkeit, wie du weiterkommen willst.
Ich könnte eventuell noch an die HD7950 vom Arbeitskollegen kommen wenn ich ganz lieb frage. :D Aber dann erst nächste Woche, diese hatte ich frei. Ansonsten würde ich das ganze Theater nicht über mich ergehen lassen. Das Kack-Wetter passte ja auch ganz gut dafür. :freak:

Edit:
3840x2160 - SMAA T2x/16xAF, min. Details, Vsync Off. Framerate laut Framecounter ca. 42-48fps.
50056

Der höchste Ausschlag ist 198ms, im Graphen gar nicht mehr sichtbar. Grenze habe ich auf 50ms gesetzt. Es ist also noch deutlich schlimmer mit 4k und min. Details.

Edit 2:
Hier mal die Frametimes von GRID 2 (DX11) mit Vsync On @60Hz:
50057

Schön glatte 60fps. Es kommt zwar teilweise was durch. Bedenke bitte aber, dass ich ein Intervall von 250ms auf der Zeitachse habe. Dh... die "Einbrüche" dauern 0,5-0,75 Sekunden. Subjektiv läufts butterweich. Aber... und das ist mir noch gar nicht so aufgefallen. Wie kann es sein, dass ich bei 60fps glatte 18,2ms habe? :| Bei 60fps sollten es doch eigentlich 16,7ms sein. :uconf2:

Edit 3:
Kann mir einer das hier erklären?
50058

Der Framelimiter machts richtig.
50059

Hübie
2014-10-27, 06:54:18
Vergiss bitte nicht das FRPAS nur den zeitlichen Abstand zwischen den Present-Aufrufen misst. Es ist also naheliegend dass auch alle anderen Anzeigeprogramme so verfahren. Die Frametimes stimmen vielleicht einfach nicht weil da Rundungstoleranzen sind. Wer weiß :freak:

Ich habe am Wochenende mal Crysis 3 installiert und muss sagen, dass das Streaming hier auch bescheiden ist. Ich hatte mich an exakt die gleiche Stelle wie du gestellt und Bewegungen ausgeführt. Dabei stockte es IMMER bei einer Linksdrehung der eine Rechtsdrehung voran ging. Also rechts flüssig, dann wurde wohl alles was im Winkel X war verworfen. Dann wieder nach links uns zack kaum kam der Eisenbahnwagon stockte es kurz.
Die Frametimes habe ich nicht aufgezeichnet, aber wenn du mir deine exakten Einstellungen (intern wie extern) mal nennst stelle ich das gerne auch nach. D3D-Overrider is nun auch drauf.
Mit einem 120-Hz Bildschirm hat man zumindest den Vorteil das Tearing sehr schwach ist wenn die fps bei 60 bleiben und man so nicht auf V-Sync angewiesen ist. Manche Engines neigen aber stärker dazu (da denke ich immer ganz krass an Timeshift), manche weniger stark.

Offizielle 120-Hz-IPS kommen ja bald ;D Also vielleicht solltest du dich dann neu orientieren.

Edit: Diese unpräzisen Messungen sind halt der "luschigen" Vorgabe seitens MS geschuldet. Normalerweise sollte ein Buffer nur dann "freigegeben" werden wenn der Inhalt zur Ausgabe gescannt wird. Dies ist nicht immer der Fall.

dargo
2014-10-27, 08:09:32
Vergiss bitte nicht das FRPAS nur den zeitlichen Abstand zwischen den Present-Aufrufen misst. Es ist also naheliegend dass auch alle anderen Anzeigeprogramme so verfahren. Die Frametimes stimmen vielleicht einfach nicht weil da Rundungstoleranzen sind. Wer weiß :freak:

Edit: Diese unpräzisen Messungen sind halt der "luschigen" Vorgabe seitens MS geschuldet. Normalerweise sollte ein Buffer nur dann "freigegeben" werden wenn der Inhalt zur Ausgabe gescannt wird. Dies ist nicht immer der Fall.
Verstehe ich dich richtig? Die Frameratenangaben passen also immer, die Frametimes bzw. Errechnung der Framerate (1000/XXXms) aber nicht oder nicht unbedingt? Warum passt es dann exakt wenn ein Framelimiter dazu kommt?


Ich habe am Wochenende mal Crysis 3 installiert und muss sagen, dass das Streaming hier auch bescheiden ist. Ich hatte mich an exakt die gleiche Stelle wie du gestellt und Bewegungen ausgeführt. Dabei stockte es IMMER bei einer Linksdrehung der eine Rechtsdrehung voran ging. Also rechts flüssig, dann wurde wohl alles was im Winkel X war verworfen. Dann wieder nach links uns zack kaum kam der Eisenbahnwagon stockte es kurz.
Die Frametimes habe ich nicht aufgezeichnet, aber wenn du mir deine exakten Einstellungen (intern wie extern) mal nennst stelle ich das gerne auch nach.

Das wäre super. =)

Aber nimm bitte nur eine Grafikkarte, ich sehe du hast ja SLI. Die Settings sind im Prinzip egal. Trotzdem, ich nehme 1920x1080 SMAA T2x/16xAF, max. Details und kein Motionblur. Da eine GTX770 etwas schwächer ist kannst du auch gerne eine kleinere Auflösung nehmen (720p oder 900p). Falls du sonst noch irgendwelche Angaben brauchst einfach fragen, gerne auch über PN.


Mit einem 120-Hz Bildschirm hat man zumindest den Vorteil das Tearing sehr schwach ist wenn die fps bei 60 bleiben und man so nicht auf V-Sync angewiesen ist. Manche Engines neigen aber stärker dazu (da denke ich immer ganz krass an Timeshift), manche weniger stark.

Offizielle 120-Hz-IPS kommen ja bald ;D Also vielleicht solltest du dich dann neu orientieren.

Wenn ich den Monitor wechsle dann eher 120/144Hz mit Freesync. Meinen Standpunkt zu G-Sync kennst du ja. Zu IPS eigentlich auch. Das ist dann auch ein Kompromiss zu dem ich erstmal bereit sein muss.

Hübie
2014-10-27, 08:31:32
Nein die Framerate passt eben nicht immer. Das ist aber von Engine zu Engine sehr unterschiedlich wie das gehandhabt wird. D3D schreibt afaik immer mindestens einen Frontbuffer und einen Backbuffer vor. Es können aber auch zwei Front- und ein Backbuffer o.ä. sein. In den Frontbuffer kommen dann die Present-calls. Genau die misst Fraps. Ist dieser Frame gerendert kommt das Bild in den Backbuffer und wird von DX bzw. dem Treiber "freigegeben". Dennoch kann danach noch eine Bearbeitung statt finden was den eigentlichen Scanout verhindert. Dennoch zeigt Fraps den Presentcall an. Es kann also sein dass die Frametimes den scanout darstellen. Obwohl die dann immer >=FPS sein müsste :|
Das ist zumindest dass was ich noch weiß.

dargo
2014-10-27, 09:02:51
Etwas kompliziertes, aber interessantes Thema. :)

Ich habe mir jetzt mal Battlefield 4 (DX11) angeschaut. Ohne Vsync alles bestens.
http://abload.de/thumb/bf4_2014_10_27_08_33_a9xp5.jpg (http://abload.de/image.php?img=bf4_2014_10_27_08_33_a9xp5.jpg)

Hier wieder lustig zu sehen, dass beide Framecounter unterschiedliche Daten erfassen. :D Die Frametimes sind perfekt, so in etwa kenne ich das von Mantle @Tahiti. Wobei man da quasi durchgehend eine Abweichung bei den GPU-Frametimes von ~1ms hatte. Unter D3D war es mit Radeon aber auch etwas schlechter. Das Bild ist im Stillstand entstanden. In Bewegung sind die Frametimes etwas schlechter, was normal ist.
50062

Alles bestens, bis auf den einen kleinen Ausrutscher. Aber das ist gar nichts, Dauer 1/4 Sekunde. Subjektiv läuft BF4 ohne Vsync hier spitze.

Mit Vsync ist es dann aber unspielbar. :freak:
http://abload.de/thumb/bf4_2014_10_27_08_43_uwsk4.jpg (http://abload.de/image.php?img=bf4_2014_10_27_08_43_uwsk4.jpg)

50063

Ich bin mir jetzt nur nicht ganz sicher ob das nicht die Eigenart von Windows 7 ist. Aufkrawall hatte sich damit glaube ich länger beschäftigt und kann bestimmt mehr dazu sagen.

Edit:
Das ist auch komisch.

2xMSAA:
http://abload.de/thumb/bf4_2014_10_27_09_14_ppcvs.jpg (http://abload.de/image.php?img=bf4_2014_10_27_09_14_ppcvs.jpg)

kein MSAA:
http://abload.de/thumb/bf4_2014_10_27_09_14_7fsf4.jpg (http://abload.de/image.php?img=bf4_2014_10_27_09_14_7fsf4.jpg)

Man ist ja quasi "gezwungen" (bei Nvidia oder nur Maxwell?) 2xMSAA in BF4 zu verwenden. Oder ist das auch nur wieder eine Eigenart von Windows 7 und diesem Spiel?

Hübie
2014-10-27, 10:11:28
Der Zusammenhang ist mir irgendwie nicht ganz klar. Könnte mit framemetering zusammenhängen :freak: Aber da kann uns AlphaTier mehr zu sagen ;)
Abgesehen vom Bughaufen BF4 ist die FB 3.0 an sich eine recht vorbildliche Engine

dargo
2014-10-27, 10:37:43
@Hübie
Ich werds später auch noch mit PvZ: GW testen, ist ja auch die FB3. :)

Metro: Last Light (DX11) habe ich mir gerade angeschaut, das sieht auch sehr übel aus.

Vsync Off:
50065

Vsync On:
50066

Vorsicht, Graphen für bessere Übersicht angepasst. Die Ausschläge sind Ingame sehr gut als Ruckler vernehmbar.

Der Zusammenhang ist mir irgendwie nicht ganz klar. Könnte mit framemetering zusammenhängen :freak: Aber da kann uns AlphaTier mehr zu sagen ;)

Leider lässt der sich hier nicht blicken. :( Ich vermisse auch Coda, Demirug und Co. ;(

PS: kann man eigentlich die Beschriftungen im Afterburner für den Graphen noch verfeinern? Ich habe jetzt bei den Frametimes 10ms Schritte. Wenn man jeden 10ms Schritt beschriften könnte wäre das noch besser für die Übersicht.

Edit:
Übrigens... ich sehe gerade, dass die GUI vom Afterburner im Schnitt (schwankt etwas) ca. 1,3ms verschlingt.
50068

Wenn ich das von den ~18ms abziehe dann würde das ziemlich genau mit den 16,7ms und 60fps passen. Keine Ahnung ob es hier einen Zusammenhang gibt, nur so ein Gedanke.

InsaneDruid
2014-10-27, 11:18:10
Die Graphen sind für die Tonne. In COH1 (Benchszene) zeigts ingame im Overlay 16,6ms an, im Graph wird daraus 24ms

dargo
2014-10-27, 11:22:06
Gut zu wissen InsaneDruid, und danke für den Hinweis. Jetzt müsste man nur erfahren obs bei Kepler genauso ist. Auf was können wir mit Maxwell ausweichen? Das hier?
http://www.geforce.com/hardware/technology/fcat/downloads

Wurde afaik schon mal in diesem Thread vorgeschlagen.

Edit:
Hattest du bei deinem Test im Hintergrund paar Sachen wie zb. FireFox am laufen?

Edit 2:
Bioshock: Infinite (DX11) - intergrierter Benchmark
50069

Sieht auch sehr übel aus und das Stuttering ist auch gut vernehmbar. Was hier kurioses auffällt... die ersten ~4 Sekunden vom Benchmark scheint Vsync aktiv zu sein obwohl deaktiviert. Der Framecounter Ingame klebt dort bei 60fps. Erst nach diesen ~ 4 Sekunden schießen die Frames nach oben. Den Frameeinbruch den man in den ersten 4 Sekunden im Graphen sieht sieht man Ingame nicht. Da ist wohl die Anzeige zu lahm. Ich meine die wird nur jede Sekunde aktualisiert.

Hübie
2014-10-27, 12:04:32
Wie sieht dass denn aus wenn du da wo es geht borderless windows benutzt? DWM hat afaik eine queue depth von drei frames, was prinzipiell triple buffering entspricht. Ich weiß jedoch gerade nicht wie das mit Win7 noch mal genau war. Glaube du musst Aero dann an lassen. Probier sonst mal etwas mit den Variablen herum.
Als ich Crysis gezockt habe hatte ich hin und her probiert. Mal war RTSS an, mal D3D OVerrider, mal GFE (Shadowplay), mal gar nix. Aber Browser o.ä. lief nicht. Kein Virenscanner oder sonst was. Nur Maus- und Soundkartensoftware plus den Windows-üblichen-Müll.

dargo
2014-10-27, 12:10:02
Wie sieht dass denn aus wenn du da wo es geht borderless windows benutzt?
Du meinst Fenstermodus? Soll das Fenster jetzt maximiert sein oder klein, oder egal?

Hübie
2014-10-27, 12:12:42
Borderless Window ist halt maximiertes Fenster nur eben ohne Rand. Sieht genau so aus als würde man im Vollbild zocken. Kann man oft in modernen Spielen einschalten.

dargo
2014-10-27, 12:14:45
Borderless Window ist halt maximiertes Fenster nur eben ohne Rand. Sieht genau so aus als würde man im Vollbild zocken. Kann man oft in modernen Spielen einschalten.
Achso, ohne Rand. Das kenne ich aber nur von BF4, nennt sich randlos in den Grafikoptionen. Wie schalte ich das denn bei anderen Games ein?

Edit:
Ich habe hier was gefunden.
http://steamcommunity.com/groups/WindowedBorderlessGaming?l=german

Bezieht sich das dann auf alle Steam Games? Kennst du das?

InsaneDruid
2014-10-27, 12:31:08
Einige Games können das aber von alleine, Coh2, Borderlands2 beispielsweise. Die haben entsprechende Settings bzw Startparameter. Das Tool funktioniert auch, aber wenn es ein Game von sich aus kann versuche ich auf Tools zu verzichten.

EDIT: auchja das mit Coh war ohne Firefox. Wobei das generell strange reagiert, im Startbildschirm bei 60FPS 30ms, im Optionenbildschirm 16ms... weird.

dargo
2014-10-27, 12:36:24
Einige Games können das aber von alleine, Coh2, Borderlands2 beispielsweise.

Habe leider beides nicht.


Das Tool funktioniert auch, aber wenn es ein Game von sich aus kann versuche ich auf Tools zu verzichten.

Dann probiere ich das mal.


EDIT: auchja das mit Coh war ohne Firefox. Wobei das generell strange reagiert, im Startbildschirm bei 60FPS 30ms, im Optionenbildschirm 16ms... weird.
Na ich bin ja froh, dass ich nicht der einzige hier bin dem gewisse Kuriositäten auffallen. :tongue: Welche Karte hast du nochmal genau inkl. Hersteller? OS? Treiber?

Edit:
Ich habe das Problem mit den ersten 4 Sekunden in Bioshock: Infinite gefunden wo ich vermutet habe, dass Vsync dazwischen funkt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10402309&postcount=586

Es ist wirklich so. Vorher stand der Treiber beim Vsync auf anwendungsgesteuert und Ingame Vsync Off. Jetzt habe ich Vsync Off über den Grafiktreiber forciert und schon sind die Frames auch am Anfang oben.
50070

Idea... was ist wenn bei mir in vielen Spielen einfach in kurzen Abständen Vsync dazwischen funkt (aus welchen Grund auch immer?) und es deshalb zu diesen sehr schlechten Frametimes, ergo Stuttering kommt?

InsaneDruid
2014-10-27, 12:48:14
Gigabyte G1 970 stock clocks, Windows 8.1, Treiberversion 344.48. Das Ganze auf einem angestaubten i5 760 mit 3,7Ghz, Gigabyte P55-USB3 und 12GB Ram.

Coh1 muss man aber mit Vorsicht genießen. Ist jetzt auch 8 Jahre alt, zeigt Videos im Hintergrund der Bildschirme (könnte ursächlich der strangen Unterschiede sein) und ist generell kein Spiel das große FPS-Ansprüche stellt.

dargo
2014-10-27, 15:30:50
@Hübie

Hast du gute Fachkenntnisse was die gesamte Renderkette angeht? Ich habe jetzt wirklich den Verdacht bei mir kommt in einigen Games Vsync dazwischen mit Doublebuffering obwohl es gar nicht passieren darf wenn es entweder per Treiber oder Spiel deaktiviert ist. Stelle dir bitte vor du läuft durch einen Level mit über 100fps und plötzlich schaltet sich Vsync + DB für einen Bruchteil der Sekunde ein und wieder aus. Da ist es dann kein Wunder, dass es zum Stuttering kommt. Und das passiert in manchen Games fast ständig. Das erklärt jetzt natürlich nicht warum ich in manchen Games Ausschläge deutlich über 33,33ms (30fps) habe. Aber eventuell addiert sich hier irgendwas falsches an Werten. Zb. ist es in Assetto Corsa sehr auffällig gewesen, dass die Spitzen immer bei 33,33ms lagen (mit Vsync On) obwohl ohne Vsync die Framerate immer über 60fps lag.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401144&postcount=523

captain_drink
2014-10-27, 17:08:02
Dargo, du solltest Vsync im NVCP auf alle Fälle nicht immer auf application controlled stellen. Das hat bei mir auch nur Probleme verursacht. Entweder an oder eben aus, meinetwegen auch adaptiv.

dargo
2014-10-27, 18:26:23
Dargo, du solltest Vsync im NVCP auf alle Fälle nicht immer auf application controlled stellen. Das hat bei mir auch nur Probleme verursacht. Entweder an oder eben aus, meinetwegen auch adaptiv.
Check. :)

Ich probiere das noch heute wenn ich zu Hause bin. Also auf keinen Fall im Treiber anwendungsgesteuert. Warum gibts diese Option dann überhaupt noch wenn die so viele Probleme bereitet? Wenn ich jetzt Vsync Off haben will Treiber also auf Vsync Off. Was ist mit dem Spiel? Sollte im Spiel auch immer Vsync Off stehen oder überschreibt der Treiber das garantiert auch wenn das Spiel auf Vsync On steht?

captain_drink
2014-10-27, 20:49:41
Wenn ich Vsync aus haben will, dann mache ich es im Spiel und im Treiber aus, im gegenteiligen Fall ergo umgekehrt. Zumindest im ersteren Fall sind Konflikte somit ausgeschlossen, im zweiten zumindest mir noch keine untergekommen.

Hübie
2014-10-27, 21:36:40
Also als gut würde ich meine Kenntnisse nicht beschreiben, aber vage vorhanden ;D
Was ich noch so weiß: DWM ist mit Win8(.1) fester Bestandteil und ist nicht mehr deaktivierbar. Im Desktop wird jedes Bild in einen "reservierten" (?) Speicherbereich gerendert und hat eine Bildanzeigedauer (frameduration) die mindestens der scanoutrate (refreshrate) des Monitors entspricht. Ob das standardmäßig und programmübergreifend ist weiß ich nicht. Ich weiß auch nicht ob es synchron zum v-blank gehalten wird. Wie gesagt brauchts da Experten.
Mit Windows 7 ging es noch DWM zu deaktivieren und exklusiv zu rendern.
Wenn ich das jetzt richtig verstanden habe dann ist der Backbuffer der 3D-Spiele im Speicherbereich vom DWM der dann die Ausgabe "steuert". Man möge mich bitte korrigieren falls das Blödsinn ist :smile:
Wenn du also DWM mal deaktivierst (<Win7 only) dann sollte eigentlich der Treiber und die Engine jeweils "entscheiden" wie die Ausgabe gehandhabt wird.

dargo
2014-10-27, 22:29:23
Wenn ich Vsync aus haben will, dann mache ich es im Spiel und im Treiber aus, im gegenteiligen Fall ergo umgekehrt. Zumindest im ersteren Fall sind Konflikte somit ausgeschlossen, im zweiten zumindest mir noch keine untergekommen.
Ok, hilft leider hier nicht bei den betroffenen Games.

@Hübie
Ohne DWM unter Win7 keine Besserung hier.

Hübie
2014-10-28, 03:03:52
Hm okay. Ich habe mal auf blauen Dunst die Frametimes in Anno 2070 und noch mehr mit afterburner aufgezeichnet. Was soll ich sagen: finde die mehr als gut. Das ist out of the box ohne v-sync. Framerate war meisten so bei 63 (herausgezoomt), 70+/-2 (´Standardzoom) oder 80 wenn ich näher ran ging. Das Spiel lief ca. 4 Stunden.

Intervall 100 ms, kein OC, 2560x1440 @max Details.
http://abload.de/thumb/frametimes_anno2070_mq2sry.png (http://abload.de/image.php?img=frametimes_anno2070_mq2sry.png)


Auf Crysis 3 hatte ich kein Nerv - brauchte was seeeehr ruhiges X-D

dargo
2014-10-28, 08:15:50
Das sieht bei dir auch sehr gut aus Hübie. Anno 2070 habe ich leider nicht für einen Vergleich.

Hübie
2014-10-28, 08:23:15
Ach ja dass hatte ich vergessen: Es gibt eine Demo bei Steam vom Spiel :smile: Ist auch nicht sehr groß und sollte schnell heruntergeladen sein. :up:

dargo
2014-10-28, 08:37:07
Ach ja dass hatte ich vergessen: Es gibt eine Demo bei Steam vom Spiel :smile: Ist auch nicht sehr groß und sollte schnell heruntergeladen sein. :up:
Ah ok, dann lade ich mir das mal. Wobei Anno so gar nicht mein Genre ist, aber egal.

PS: das hatten wir auch noch nicht (muss natürlich nicht unbedingt das selbe wie bei mir sein).
http://www.baudusau.tv/t/3935/1/game-laeuft-schlecht-mit-geforce-gtx-970

Das hier ist auch interessant:
http://www.hartware.de/news_54887.html

Diese Probleme damals sind an mir völlig vorbeigegangen. Jetzt haben wir bei Maxwell GPU-Boost 2.0. Erkennst jemand Zusammenhänge? :wink:

PS: ok, GPU-Boost 2.0 gabs ja schon ab GTX7xxx. Aber die Maxwell-Architektur ist dann wohl doch eine andere Herausforderung.

Hübie
2014-10-28, 08:54:12
Soll ja nur zum gegentesten dienen. Anno ist laaaaangwierig :freak:

Das Problem bei dem Typen scheint mir ein anderes zu sein.
Hast du eigentlich alle config-Dateien der Spiele die du testest gelöscht und neu erstellen lassen?

dargo
2014-10-28, 08:55:54
Hast du eigentlich alle config-Dateien der Spiele die du testest gelöscht und neu erstellen lassen?
Ich habe sogar die ganze Spielepartition (400GB) platt gemacht und alle Spiele neu runtergeladen. :freak:

Edit:
Lol... ich suche hier die Anno 2070 Demo bei Steam, uPlay und finde nichts. Und dann sehe ich, dass man die einfach so testen kann. X-D
http://www.4players.de/4players.php/download_info/Downloads/Download/57292/ANNO_2070/Demo.html

Hübie
2014-10-28, 09:21:55
Ach wurde die bei steam entfernt? :| Na wie auch immer jetzt kannst du ja gegen testen. Wenn heute Abend noch Zeit und Motivation ist teste ich Crysis 3 erneut. Dann bastel ich n Graphen. Das hat aber definitiv streaming-Probleme. Ich habe schon das GI auf 7 frames im voraus gestellt aber das wars dann nicht. Vielleicht Geometrie und somit CPU-gebunden. Da weiß ich jedoch nicht ob man gegenhalten kann...

dargo
2014-10-28, 09:26:43
Anno 2070 Demo - Vsync Off:
50074

Sieht schlecht aus. Die Ausschläge sind auch Ingame spürbar. Man erkennt hier aber ganz gut, dass auch dabei paar Abschnitte sind wo wenige Sekunden so laufen wie es sein sollte.

@Hübie
Da bei dir offenbar alles normal läuft. Könntest du bitte bei dir mit dem Windows-Timer-Tester prüfen welche Frequenz bei dir anliegt? Vielleicht sollte ich da nochmal ansetzen? :uponder:

Edit:
Hier nochmal ne Runde Alan Wake und Vsync Off:
50075

Alles bestens, mehr kann man dazu nicht sagen. Deshalb gehe ich hier auch von keinem Hardwaredefekt aus. Egal ob Graka oder Rest vom System.

Edit 2:
Rendertest von GPU-Z V0.8.0 im Fenstermodus (DX9):
50076

Auch hier alles bestens, diese kurzen Spitzen von max. ~6ms für 1/4 Sekunde merkt eh kein Mensch.

Edit 3:
MSI-Kombustor - GPU-BurnIn mit 1280x720 4xMSAA und DX11, Vsync Off:
50077

Perfekte Frametimes trotz DX11. Dass es nicht explizit an DX11 liegt war ja schon vorher ersichtlich, BF4 läuft einwandfrei. Für mich ist der Fall klar. Entweder ein Grafiktreiberproblem (irgendwas übersieht hier Nvidia) oder ein spezielles MSI GTX970 Gaming 4G Biosproblem. Letzteres eher unwahrscheinlicher als ersteres. Ich würde die Erkenntnisse zu gern mal im Nvidia-Forum posten damit es vorangeht. Leider nur englisch. :( Mit Blaire kann ich mich über das ganze Thema auch nicht wirklich vernünftig unterhalten der hat kein Headset. :( Alles mögliche abtippen, da kriegste einen an der Waffel. Also bin ich wohl gezwungen auf weitere Grafiktreiber zu warten und hoffen, dass der Fehler möglichst schnell behoben wird. (no)

dargo
2014-10-29, 00:13:30
Ich habe mir jetzt mal durchgelesen wie genau GPU-Boost 2.0 funktioniert. Der Takt wird also in einem Intervall von unter 100ms abhängig von der GPU-Temperatur und der Verlustleistung immer wieder angepasst. Und genau hier liegt das Problem bei meiner Grafikkarte im System. Ich habe mir dafür den intergrierten Benchmark von Bioshock: Infinite unter die Brust genommen weil der Ablauf immer gleich ist und somit perfekt reproduzierbar. In den Tests war Vsync immer deaktiviert, Auflösung betrug 1920x1080.

max. Details, kein Framelimit
http://abload.de/thumb/bioshock_inf_vsync_ofioo9f.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofioo9f.png)

max. Details, Framelimit 60fps
http://abload.de/thumb/bioshock_inf_vsync_of2ie8b.png (http://abload.de/image.php?img=bioshock_inf_vsync_of2ie8b.png)

very low Details, Framelimit 100fps
http://abload.de/thumb/bioshock_inf_vsync_ofugq3v.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofugq3v.png)

very low Details, Framelimit 80fps
http://abload.de/thumb/bioshock_inf_vsync_ofardn0.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofardn0.png)


very low Details, Framelimit 60fps
http://abload.de/thumb/bioshock_inf_vsync_ofvnc40.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofvnc40.png)


very low Details, Framelimit 50fps
http://abload.de/thumb/bioshock_inf_vsync_ofewcip.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofewcip.png)

very low Details, Framelimit 30fps
http://abload.de/thumb/bioshock_inf_vsync_ofboupk.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofboupk.png)

Der Benchmark beginnt übrigens nach dem ersten großen Ausschlag, dort wird noch nachgeladen. Erkennt schon jemand die Zusammenhänge? ;) Nehme ich der GPU eine gute Portion GPU-Last weg (und dafür reichen nach diesem Test schon very low Details mit 100fps Limit aus) gibt es kein durcheinander mehr im GPU-Boost 2.0. Ich kann jetzt nicht sagen ob dadurch der GPU-Boost komplett deaktiviert wird oder nur weniger agressiv seine Arbeit verrichtet.

Seph
2014-10-29, 00:46:03
Ich habe mir jetzt mal durchgelesen wie genau GPU-Boost 2.0 funktioniert. Der Takt wird also in einem Intervall von unter 100ms abhängig von der GPU-Temperatur und der Verlustleistung immer wieder angepasst. Und genau hier liegt das Problem bei meiner Grafikkarte im System. Ich habe mir dafür den intergrierten Benchmark von Bioshock: Infinite unter die Brust genommen weil der Ablauf immer gleich ist und somit perfekt reproduzierbar. In den Tests war Vsync immer deaktiviert, Auflösung betrug 1920x1080.

max. Details, kein Framelimit
http://abload.de/thumb/bioshock_inf_vsync_ofioo9f.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofioo9f.png)

max. Details, Framelimit 60fps
http://abload.de/thumb/bioshock_inf_vsync_of2ie8b.png (http://abload.de/image.php?img=bioshock_inf_vsync_of2ie8b.png)

very low Details, Framelimit 100fps
http://abload.de/thumb/bioshock_inf_vsync_ofugq3v.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofugq3v.png)

very low Details, Framelimit 80fps
http://abload.de/thumb/bioshock_inf_vsync_ofardn0.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofardn0.png)


very low Details, Framelimit 60fps
http://abload.de/thumb/bioshock_inf_vsync_ofvnc40.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofvnc40.png)


very low Details, Framelimit 50fps
http://abload.de/thumb/bioshock_inf_vsync_ofewcip.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofewcip.png)

very low Details, Framelimit 30fps
http://abload.de/thumb/bioshock_inf_vsync_ofboupk.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofboupk.png)

Der Benchmark beginnt übrigens nach dem ersten großen Ausschlag, dort wird noch nachgeladen. Erkennt schon jemand die Zusammenhänge? ;) Nehme ich der GPU eine gute Portion GPU-Last weg (und dafür reichen nach diesem Test schon very low Details mit 100fps Limit aus) gibt es kein durcheinander mehr im GPU-Boost 2.0. Ich kann jetzt nicht sagen ob dadurch der GPU-Boost komplett deaktiviert wird oder nur weniger agressiv seine Arbeit verrichtet.

Die einzige Kausalität die du daraus ableiten kannst, ist, dass der Infinte Benchmark/die Engine bei maximalen Details schlechtere Frametimes liefert. Das war es. Und ja, das wird 100% auch bei anderen Engines der Fall sein, wenn die Berechnungen komplexer werden. Und ja, das wird auch auf einer AMD Karte der Fall sein. Nochmal: Du jagst Gespenster. Von einem fehlerhaften Gamepad und Mousesettings bist du mittlerweile beim GPU Boost angelangt und weißt soviel wie zuvor. Nämlich nix. Wann erbarmt sich ein Mod?

Rente
2014-10-29, 01:06:41
Davon mal ab fehlen wieder essentielle Informationen: PT? TT? Mod-Bios? Adaptive im Treiber? Framelimit womit? Spielst du noch oder jagst du Frametimes? (;))

Hübie
2014-10-29, 03:59:18
Hallo dargo. Ich habe BI ebenfalls durchlaufen lassen und es sieht bei mir deutlich (?) gleichmäßiger aus. Ich lade das demnächst hoch. Ich nutze 1440p alles Ultra und kein v-sync. Es könnte sich also in der Tat um Treiberprobleme handeln.
Windows Timer Tester sagt 3.57**** MHz und ein nicht abweichendes 1.000:1 Verhältnis. Diese 14 MHz sind eher Paranoia, da es immerhin 14 Millionen Updates in einer Sekunde sind. So präzise timed keine mir bekannte game engine. Zum Vergleich: Skyrim z. B. synchronisiert nur "60" Mal pro Sekunde die Bewegungen von Objekten. Mal Anzahl der Objekte = weit weit unter dem was HPET an Zeitstempel vergeben könnten (salopp formuliert).

dargo
2014-10-29, 08:08:16
Davon mal ab fehlen wieder essentielle Informationen: PT? TT? Mod-Bios? Adaptive im Treiber? Framelimit womit? Spielst du noch oder jagst du Frametimes? (;))
Alles Standard. :)

Powertarged = 100%
Temperaturtarged = 79°C (vom NV-Inspector abgelesen)
Original Bios der Grafikkarte (84.04.1F.00.F1)
Vsync Off (schreibe ich übrigens dabei)
Framelimit über RTSS beim Afterburner

PS: nur spielen ist langweilig. ;)


Windows Timer Tester sagt 3.57**** MHz und ein nicht abweichendes 1.000:1 Verhältnis. Diese 14 MHz sind eher Paranoia, da es immerhin 14 Millionen Updates in einer Sekunde sind. So präzise timed keine mir bekannte game engine.
Nur fürs Protokoll... bei mir sinds 3.22176Mhz.

Lowkey
2014-10-29, 09:00:02
Wieso wird es als Vorteil der Mod VGA Biose angeführt, dass der Turbo deaktiviert wurde?

dargo
2014-10-29, 09:15:00
Wieso wird es als Vorteil der Mod VGA Biose angeführt, dass der Turbo deaktiviert wurde?
Meinst du mit Turbo diese Paar Mhz die auf den Boost draufgeschlagen werden? Meine MSI boostet ja standardmäßig auf 1253Mhz, der Takt geht aber auf 1316Mhz in der Regel.

Lowkey
2014-10-29, 10:00:13
Argh ich meinte natürlich den Boost. Ich lese mich gerade in den Kepler Bios Tweaker ein.

dargo
2014-10-29, 10:33:48
Das ist auch verdammt interessant.

Immer noch Bioshock Infinite Benchmark wegen perfekter Reproduzierbarkeit ohne Vsync und 1920x1080. Diesmal immer mit max. Details.

58fps Limit über den NV-Inspector
http://abload.de/thumb/bioshock_inf_vsync_of00fwa.png (http://abload.de/image.php?img=bioshock_inf_vsync_of00fwa.png)


59fps Limit über den NV-Inspector
http://abload.de/thumb/bioshock_inf_vsync_ofyejbp.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofyejbp.png)

60fps Limit über den NV-Inspector
http://abload.de/thumb/bioshock_inf_vsync_ofzhkar.png (http://abload.de/image.php?img=bioshock_inf_vsync_ofzhkar.png)

Zur Erinnerung... der interne Framelimiter ist verbugt, was Nvidia laut Blaire bereits bekannt ist. Es werden falsche Hexwerte interpretiert. Leider ist der Fehler selbt beim FW344.48 noch nicht behoben. Bei z.B einem 59fps Limit über den NV-Inspector habe ich Ingame ca. 60,6fps. Dieser Bug ist also auch insofern blöd, dass keine ganzen Frames draufgelegt werden. Das kann ich also auch nicht exakt ausgleichen. Aber eventuell geht das über die Hexwerte vom NV-Inspector?

59fps (Ingame ca. 60,6fps) sind beim Maxwell 0xF000003B. Kann mir jemand daraus Ingame exakte 60fps für die Hexwerte errechnen falls möglich?

PS: bei dem internen 59fps Limit sieht man sehr gut, dass der erste Teil des Benchmarks (es gibt zuerst eine Indoorszene und später Outdoor) quasi schon perfekt läuft. Es gibt einen einzigen Ausschlag Richtung ~15ms, aber auch hier nur für 1/4 Sekunde. Im Benchmark selbst sah es subjektiv ruckelfrei in diesem Bereich aus.

Edit:
Nochmal zusammenfassend...

58fps Limit über NV-Inspector (Ingame ca. 59,6fps) = 0xF000003A
59fps Limit über NV-Inspector (Ingame ca. 60,6fps) = 0xF000003B
60fps Limit über NV-Inspector (Ingame ca. 61,6fps) = 0xF000003C

InsaneDruid
2014-10-29, 10:42:46
Du musst immer bedenken dass du nur aller 100 oder gar 1000 (wenn du nichts eingestellt hast) Milisekunden die Werte samplest und gerade FPS als Mittelwert über eine Sekunde (denn genau das sind FPS) dargestellt wird. Du erkennst schon im unlimitierten Bild, dass die Max-Settings große Frametimesprünge aufweisen, die die fps sacken lassen. Auch wenn der FPS-Graph im unlimitierten Setting vermuten lässt, das immer mehr als 60fps gehalten werden können ist dem eben nicht so, wie die Frametimes und eben der auf 60fps gecappte Screen zeigen.

Wie schon gesagt, was du zeigst ist, dass niedrige FPS höhere Frametimes sind, und dass niedrigere Settings bessere FPS bedeuten. Also nicht auf den FPS-Graphen verlassen, um zu messen, ob das System eigentlich durchweg 60fps halten kann. Der fps-Graph laggt immer der Realität hinterher, eben weil es Frames pro Sekunde sind, und in dieser Sekunde ziemlich viel passieren kann.

EDIT: nochmal etwas klarer:

du lässt ein Game ohne fps-limit laufen, und loggst die fps. Die scheinen recht hoch. Daraus schlussfolgerst du, dass du jederzeit, zu jedem Zeitpunkt Frames mit Framezeiten von ca 16ms rendern kannst. Dieser Schluss ist falsch. Denn bei unlimitierten FPS kann ein hoher maximalwert einen darauffolgenden Minimalwert verschleiern, es werden dennoch recht hohe FPS geloggt, denn FPS ist nur ein Mittelwert. Eine halbe Sekunde lang ganz viele Frames hintereinander, und dann die nächste halbe Sekunde ein einziger Frame sind eben immer noch hohe fps. Was nicht heißt, das jeder Frame maximal 16ms lang ist. Einer war halt 500ms lang.

Du denkst jetzt, dein Rig kann die Benchszene mit durchgehend <16ms Frametimes rendern, dem ist schlicht und ergreifend nicht so.

dargo
2014-10-29, 10:53:10
Du musst immer bedenken dass du nur aller 100 oder gar 1000 (wenn du nichts eingestellt hast) Milisekunden die Werte samplest und gerade FPS als Mittelwert über eine Sekunde (denn genau das sind FPS) dargestellt wird.
Das ist mir alles bewusst. :wink:

Das Mitloggen über den Afterburner steht standardmäßig auf 1000ms, ergo jede Aktualisierung findet in einem Abstand von einer Sekunde statt. Minimal lassen sich 100ms einstellen was 1/10 Sekunde bedeutet. Finde ich ein wenig schade, gerade wo der GPU-Boost 2.0 unter 100ms stattfindet. ;) Ich bin momentan bei 250ms bei meinem Graphen, ergo 1/4 Sekunde was ich schon öfter erwähnt habe.

Edit:
Kurze Frage InsaneDruid. Wenn du über den NV-Inspector die Frames bsw. auf 58fps limitierst... hast du dann Ingame auch ca. 59,6fps oder exakt 58fps mit deiner GTX970? Nicht, dass dieser Bug nur auf bestimmte Hardwarekombinationen zutrifft die ich genau habe wie man sieht.

InsaneDruid
2014-10-29, 10:56:58
Lies meinen Edit. Du ziehst einfach nur falsche Schlüsse, aus dem Grund warum eben in den letzten Jahren vom FPS-Wert Abstand genommen wurde.

Hier eine Übereinanderlegung deines unlimitierten und 60fps gecappten Logs. Man sieht, wie genau die Spikes wiederkehren, und dass alles, was im unlimitierten über 16ms war, auch jetzt über 16ms ist. Und wie nichtssagend fps sind. Dass der fps Graph irgendwo bei 70 herum lag sagt einfach nicht, dass du überall unter 16ms kommst.

http://abload.de/img/bioshock_inf_vsync_of5gry2.png

PS: das mit dem Limit werde ich real soon testen.

EDIT2: bei 58cap im Inspector werden ca 59.6fps vom Afterburner im Hud angezeigt, geloggt werden 59 und 60.

dargo
2014-10-29, 11:06:11
EDIT: nochmal etwas klarer:

du lässt ein Game ohne fps-limit laufen, und loggst die fps. Die scheinen recht hoch. Daraus schlussfolgerst du, dass du jederzeit, zu jedem Zeitpunkt Frames mit Framezeiten von ca 16ms rendern kannst. Dieser Schluss ist falsch.

Hä? Wo habe ich das denn gesagt? :confused: Da musst du mich falsch verstanden haben. :)

Es ist doch wohl klar, dass wenn ich Ingame in Sekunde 1 60fps (16,66ms) habe und in der zweiten 80fps, dass der Graphen eben in der zweiten Sekunde 12,5ms anzeigt. Sind es in Sekunde 2 100fps sinds eben 10ms im Graphen. Das ist doch völlig normal und hat absolut nichts mit den starken Frametimeausschlägen in bestimmten Games bei mir zu tun. Da gehts innerhalb von 1/4, 1/2 oder 3/4 Sekunde sprunghaft in Richtung bsw. 92ms hoch, was ~11fps entspricht und schlagartig wieder runter auf die 10ms, ergo 100fps. Das sind eben die Stotterer die ich vernehme und die definitiv nicht normal sind.

PS: diesen Einbruch auf 11fps siehst du im Framecounter Ingame natürlich so extrem nicht. Das liegt daran, dass der Framecounter Ingame zu langsam reagiert. Afaik aktualisiert sich der Framecounter jede 1000ms. Deshalb sehe ich dann Ingame keine 11fps sondern einen gemittelten Wert von zb. 52fps.

Edit:
Hier habe ich beispielsweise Alan Wake mitgeloggt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10403220&postcount=607

Hier siehst du wunderbar wie sauber die Frameausgabe (Frametimes) ist trotz stark schwankenden Frameraten. Genau so sollte es in jedem Game aussehen sofern alles richtig funktioniert.


EDIT2: bei 58cap im Inspector werden ca 59.6fps vom Afterburner im Hud angezeigt, geloggt werden 59 und 60.
Gut zu wissen, also ist dieser Bug allgemein für GM204 gültig. Hast du zufällig Bioshock Infinite?

InsaneDruid
2014-10-29, 11:13:59
Und sie sind offenbar vom Detailgrad des Games abhängig, nicht vom Vsync. Siehe die übereinandergelegten Graphen. Dort wo es ohne Vsync zuckt, zuckt es auch mit. Erst wenn du die Details runterdrehst ist alles ok. Es liegt also nicht im Limit, am Sync, an den Hz zahlen, der Maus... Dein Sys kanns nur nicht besser. Daher vermute ich: entweder du überschätzt sein System, oder es hat irgendwas im System einen Hardwareschaden, und ist langsamer als baugleiche Hardware. Was erklären würde, warum manche Games bei dir mieser laufen als bei anderen.

-/\-CruNcher-/\-
2014-10-29, 12:05:23
Das ist mir alles bewusst. :wink:

Das Mitloggen über den Afterburner steht standardmäßig auf 1000ms, ergo jede Aktualisierung findet in einem Abstand von einer Sekunde statt. Minimal lassen sich 100ms einstellen was 1/10 Sekunde bedeutet. Finde ich ein wenig schade, gerade wo der GPU-Boost 2.0 unter 100ms stattfindet. ;) Ich bin momentan bei 250ms bei meinem Graphen, ergo 1/4 Sekunde was ich schon öfter erwähnt habe.

Edit:
Kurze Frage InsaneDruid. Wenn du über den NV-Inspector die Frames bsw. auf 58fps limitierst... hast du dann Ingame auch ca. 59,6fps oder exakt 58fps mit deiner GTX970? Nicht, dass dieser Bug nur auf bestimmte Hardwarekombinationen zutrifft die ich genau habe wie man sieht.


Man ihr seit unter Windows das ist kein RTOS vergess nicht je schneller das pooling je instabiler das OS

dargo
2014-10-29, 12:08:41
So langsam wird hier einiges klarer. :)

Ich habe mal testweise Alan Wake mit max. Details und nur 324Mhz GPU-Takt mitgeloggt.
50084

Auch hier, trotz fast 1000Mhz GPU-Takt weniger perfekte Frametimes. Jetzt habe ich mir Crysis 3 angesehen da das bisher der schlimmste Titel was Stuttering angeht @Maxwell bei mir ist. Wieder mit Standardtakt @1316Mhz.

Crysis 3 ohne mich zu bewegen.
50085

Wie man sieht alles perfekt. Ist aber auch irgendwo logisch. Es wird immer der gleiche Bildausschnitt dargestellt. Somit braucht GPU-Boost 2.0 entweder gar nicht oder nicht agressiv eingreifen. Schon eine Mausbewegung (bin auf der Stelle stehen geblieben und habe versucht einigermaßen gleichmäßig mich mit der Maus nach links und rechts zu drehen) bringt den Boost völlig aus dem Konzept.
50086

Kannst du dich noch daran erinnern als ich fälschlicherweise die Maus in Verdacht hatte, in Tomb Raider dann den Joystick angeschlossen habe und es subjektiv besser war was das Stuttering angeht? Mit dem Joystick hatte ich eine langsamere, gleichmäßigere Bewegung ausgeführt. Deshalb denke ich war die Reaktion von GPU-Boost 2.0 weniger agressiv, ergo kein Stuttering. Ich versuche das mal noch mit einer sehr langsamen Mausbewegung (eventuell noch zusätzlich die Empfindlichkeit reduzieren) in Crysis 3 nachzustellen.

-/\-CruNcher-/\-
2014-10-29, 12:13:07
Dargo installier mal EVGA Precission und teste die KBOOST option

Das mit den Frametimes ist auch so eine sache Alan Wake hat weniger Shader overhead als wie Crysis 3 garantiert

N0Thing
2014-10-29, 12:28:11
Zur Erinnerung... der interne Framelimiter ist verbugt, was Nvidia laut Blaire bereits bekannt ist. Es werden falsche Hexwerte interpretiert. Leider ist der Fehler selbt beim FW344.48 noch nicht behoben. Bei z.B einem 59fps Limit über den NV-Inspector habe ich Ingame ca. 60,6fps. Dieser Bug ist also auch insofern blöd, dass keine ganzen Frames draufgelegt werden. Das kann ich also auch nicht exakt ausgleichen. Aber eventuell geht das über die Hexwerte vom NV-Inspector?

59fps (Ingame ca. 60,6fps) sind beim Maxwell 0xF000003B. Kann mir jemand daraus Ingame exakte 60fps für die Hexwerte errechnen falls möglich?

PS: bei dem internen 59fps Limit sieht man sehr gut, dass der erste Teil des Benchmarks (es gibt zuerst eine Indoorszene und später Outdoor) quasi schon perfekt läuft. Es gibt einen einzigen Ausschlag Richtung ~15ms, aber auch hier nur für 1/4 Sekunde. Im Benchmark selbst sah es subjektiv ruckelfrei in diesem Bereich aus.

Edit:
Nochmal zusammenfassend...

58fps Limit über NV-Inspector (Ingame ca. 59,6fps) = 0xF000003A
59fps Limit über NV-Inspector (Ingame ca. 60,6fps) = 0xF000003B
60fps Limit über NV-Inspector (Ingame ca. 61,6fps) = 0xF000003C


Wie Blaire dir schon gesagt hat, der Limiter ist verbuggt. Es ist nicht möglich HEX-Werte einzugeben, die auf eine glatte Zahl wie z.B. 59fps hinaus laufen. Zwischen 3B (59) und 3C (60) gibt es keinen weiteren Wert.

dargo
2014-10-29, 12:31:22
Das mit den Frametimes ist auch so eine sache Alan Wake hat weniger Shader overhead als wie Crysis 3 garantiert
Mir ist schon klar, dass ein Alan Wake ganz andere Anforderungen an die GPU hat als ein Crysis 3. ;) Die Shaderlast in Crysis 3 kann ich nur reduzieren wenn ich ein sehr starkes Framelimit (30fps oder noch besser 15fps) setze und die Details reduziere. Dann kriege ich auch ein Crysis 3 fast in den Griff. Aber eben nur fast. Und deshalb auch hier mein Verdacht auf GPU-Boost 2.0. Ich hätte jetzt zu gern eine Software mit der ich den GPU-Takt in 10ms oder noch besser 1ms Intervallen mitloggen könnte.

Es ist nicht möglich HEX-Werte einzugeben, die auf eine glatte Zahl wie z.B. 59fps hinaus laufen. Zwischen 3B (59) und 3C (60) gibt es keinen weiteren Wert.
Ok... auch gut zu wissen. Ich hätte jetzt gedacht durch Änderung der Nullen davor hätte man die Kommastellen beeinflussen können.

Dargo installier mal EVGA Precission und teste die KBOOST option

Mache ich eventuell erst nach 22 Uhr, wird jetzt langsam eng mit der Zeit.

Rente
2014-10-29, 12:40:59
Diese theoretische Software würde dir auch nichts bringen, du kannst Frametimes auf deinem PC nicht korrekt messen, du näherst dich höchstens dem korrekten Wert an.
-/\-CruNcher-/\- hat da schon genau Recht (hab ich das wirklich geschrieben? ;)), Windows ist kein vollständiges Realtime-OS und die Tools die es für Messungen gibt führen wieder zu neuen Problemen.

Ernsthaft: Tausch die Karte aus oder teste sie in einem anderen Rechner, alternativ hör endlich auf zu messen, es führt zu nichts.
Bitte nimm es mir nicht übel, aber wie viel Zeit du darin versenkst statt aktuelle Knaller zu spielen macht mich traurig.

dargo
2014-10-29, 12:51:58
Diese theoretische Software würde dir auch nichts bringen, du kannst Frametimes auf deinem PC nicht korrekt messen, du näherst dich höchstens dem korrekten Wert an.

Wer redet gerade von Frametimes? Ich spreche von der Erfassung des GPU-Taktes in einem sehr niedrigen Intervall. Da ich nicht genau weiß wie schnell GPU-Boost 2.0 den Takt wechselt (habe von unter 100ms gelesen) würde man mit entsprechenden Software genau sehen was mit dem GPU-Takt bei zb. einem Intervall von 10ms passiert. Ich gehe davon aus, dass da wo ich die großen Ausschläge bei den Frametimes habe die GPU für Zeit X stark runtertaktet, warum auch immer? PT sowie Temperatur ist beides weit im grünen Bereich.

PS: möglich wäre auch, dass da irgendwelche Schutzmechanismen greifen weil die Spannungswandler ansonsten zu heiß werden. Nur ob sowas bei der Karte überwacht wird? Die Temperatur der Spawas kann ich bei NV leider nicht überwachen. Es kann aber genauso ein Fehler in der Software sein.

-/\-CruNcher-/\-
2014-10-29, 13:00:36
Vergiss es das kannst du mit Windows nicht erfassen, schau dir die Power Daten von THG an da siehst du am deutlichsten was der Boost macht

Das Interview bei PCPer mit einem EVGA mitarbeiter ist sehr interessant der plaudert eine menge interna aus über das testing und Nvidias Zertifiezierung, dort wird auch Kboost angesprochen, der faktisch das Boost System deaktivieren soll ;)

Aber solange man keine erfassbaren Probleme mit dem Boost System hat auf seinem System ist es ziemlich sinloss da rumzuschrauben, da man auf jedenfall Effizienz einbüst.

Allerdings halte ich Nvidias Boost selbst in 2.0 noch nicht so effizient wie Intels Speedstep ;)

auch sollte man nicht vergessen das die Hardware mit dem Boost im sinn gebaut wurde und schneller instabil werden könnte wenn sie dynamisch keine möglichkeit hat mehr sich zu regeln, da sie automatich mehr verlust aufweist.

InsaneDruid
2014-10-29, 13:03:43
Dann müsste das auch jede karte machen. Und nicht erst ab den 970. Und es sollte mit sinkenden Details nicht verschwinden.

EDIT: grade in deinen very low details @60 der vorigen Seite hat man definitiv umtakter, die genau keine Auswirkung haben.

dargo
2014-10-29, 13:11:28
Vergiss es das kannst du mit Windows nicht erfassen, schau dir die Power Daten von THG an da siehst du am deutlichsten was der Boost macht

Kenne ich. ;)
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652-3.html


Das Interview bei PCPer mit einem EVGA mitarbeiter ist sehr interessant der plaudert eine menge interna aus über das testing und Nvidias Zertifiezierung, dort wird auch Kboost angesprochen, der faktisch das Boost System deaktivieren soll ;)

Wie gesagt, heute Abend erst. Wenn meine Theorie richtig ist und GPU-Boost 2.0 wirklich mit Kboost deaktiviert wird sollten die Stotterer bei mir aufhören, bin schon gespannt.

-/\-CruNcher-/\-
2014-10-29, 13:18:11
Dann müsste das auch jede karte machen. Und nicht erst ab den 970. Und es sollte mit sinkenden Details nicht verschwinden.

EDIT: grade in deinen very low details @60 der vorigen Seite hat man definitiv umtakter, die genau keine Auswirkung haben.

jep deswegen sage ich ja ich habe bis jetzt in meiner Systemkonfiguration noch keine Problematik mit Boost 2.0 feststellen können.

Das kann aber sehr abhängig auch von der Optimierung des Bios des GPU AIBs sein und in wie weit er alles an die Grenze fährt vor allem liegt ja das Gerücht in der Luft das Timings verändert werden um das letzte aus dem OC zu holen.


Und ich bin mir sehr sehr sicher das nur wenige Engines mit Boost in mind optimiert wurden ist ja zum teil auf CPUs noch Katastrophe ;)


Kenne ich. ;)
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652-3.html


Wie gesagt, heute Abend erst. Wenn meine Theorie richtig ist und GPU-Boost 2.0 wirklich mit Kboost deaktiviert wird sollten die Stotterer bei mir aufhören, bin schon gespannt.

Ich auch

kruemelmonster
2014-10-29, 13:57:56
Das Mitloggen über den Afterburner steht standardmäßig auf 1000ms, ergo jede Aktualisierung findet in einem Abstand von einer Sekunde statt. Minimal lassen sich 100ms einstellen was 1/10 Sekunde bedeutet. Finde ich ein wenig schade, gerade wo der GPU-Boost 2.0 unter 100ms stattfindet. ;) Ich bin momentan bei 250ms bei meinem Graphen, ergo 1/4 Sekunde was ich schon öfter erwähnt habe.

Völlig kontraproduktiv. Je öfter du die Hardware durch den Treiber abfragen lässt desto mehr Last erzeugst du für den Treiber und die HW, egal ob nun GPU-Z oder MSI AB genutzt wird. 2000ms reichen imo dicke für die Überwachung ohne gleichzeitig dem Treiber zuviel Last für die Auslesung aufzubürden.

Hübie
2014-10-29, 15:36:14
Durch das Deaktivieren des boosts schaltet man nur einen Faktor aus. Das streaming und die kontinuierlichen Neuberechnungen bleiben aber. CryEngine ist da offenbar extrem latenzabhängig. Ich weiß auch noch nicht wie man dem entgegen wirken kann. Bei BI stellte ich ebenfalls ein heftiges in-out-streaming bei relativ schnellen Bewegungen fest. Ich muss das mal mit Batman-Titeln vergleichen, da hier die gleiche Engine zu Grunde liegt. Batman-Titel haben dieses Problem nicht.
Übrigens sind die Frametimes IST-Zustand während die fps gemittelt aus den vorangegangenen frames errechnet werden. Daher die Differenzen. Hab da gestern noch mal drüber seniert ;) Ich gebe MSI-AB einen eigenen CPU-Kern und logge mit 100 ms Intervall.
Kann man dieses EVGA-Tool mit jeder Karte nutzen und geht das auch mit Kepler?

-/\-CruNcher-/\-
2014-10-29, 15:42:35
Es ist Afterburner (Rivatuner) hat nur einen anderen skin und eben Kboost ansonsten nix anderes

Alle AIB tools sind mitlerweile bassierend auf dem Rivatuner Code von Unwinder unterscheiden sich eigentlich nur vom Skin nur EVGA Precission ist hier eine Ausnahme mit Kboost als eine Option die es so nirgends bei den anderen gibt ;)

Die eigenen AIB tools wahren zum Teil grottenschlecht programmiert (low level).


Ja geht du kannst alle mit jeder Nvidia karte nutzen wenn nicht bassiert es nicht auf Rivatuner oder wurde limited für den AIB ;)
Kboost wurde vor allen für static Overclocker und eben den ersten Boost eingeführt das K steht sinnigerweise für Kepler Kboost = Kepler Boost ;)

In diesem Mode mit Computelast testen sie auch die maximale frequenz des Chips (wohlmöglich spezieler bench der noch weitaus mehr async sachen testet) macht ja auch sinn ist ja dauer mehr belastet als wie dynamisch (DFS).

Angiesan
2014-10-29, 15:59:50
Nur bis zur Version 4.2.1 danach ist es was anderes

-/\-CruNcher-/\-
2014-10-29, 16:16:52
Oh ich sehe gerade im Changelog zu 5.0

*Improved K-Boost function

interessant dann sollte man sich wohlmöglich auch nochmal 4.2.1 anschauen :)

Updated EVGA Voltage Tuner utility

K-Boost no longer requires system reboot after enabling
K-Boost can now be enabled with SLI enabled


allerdings verstehe ich hieraus das es vorher eher ein overvoltage mode gewesen ist ?

dargo
2014-10-29, 17:08:30
Und es sollte mit sinkenden Details nicht verschwinden.

Mit reduzierten Details senkst du die Shaderlast, mit einem Framelimit ebenso.


EDIT: grade in deinen very low details @60 der vorigen Seite hat man definitiv umtakter, die genau keine Auswirkung haben.
Moment... wir sprechen hier von GPU-Boost 2.0 und nicht den P-States. Das was du da siehst sind nur die P-States. Die Reaktion der P-States ist im Vergleich zu GPU-Boost 2.0 arschlahm. ;)

Edit:
Die Folgen der ständigen Taktratenanpassung durch GPU-Boost 2.0 siehst du bei THG ganz gut.
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652-3.html

Wobei selbst THG noch ein recht "grobes" Intervall verwendet. Ich kann die Striche jetzt nicht exakt deuten. Ein Strich könnte aber irgendwas zwischen 100 und 200ms sein. Zur Erinnerung... die Grafikkarte passt den Takt abhängig vom Powertarget und Temperaturtarged in einem Intervall unter 100ms an.
http://www.tomshardware.de/geforce-gtx-titan-gk110-Test-Review,testberichte-241211-4.html

Die Taktrate kann sich also innerhalb einer Sekunde 10x oder sogar öfter ändern.

InsaneDruid
2014-10-29, 18:22:58
Ja eben. Du selbst hast einen wunderbaren Graph bei dem deine Karte mal eben kurz unter den Basetakt geht, wieder hochkommt und dann sogar unter dem Basetakt verweilt. Wahrscheinlich das Ram noch mitnimmt beim Taktwechsel, und das Ganze ohne dass sich bei den Frametimes ein Furtz ändert. Aber Boost, was bei anderen und auch bei dir (in vielen Fällen) keine Auswirkung hat, solls jetzt sein?

Seph
2014-10-29, 19:01:40
Ja eben. Du selbst hast einen wunderbaren Graph bei dem deine Karte mal eben kurz unter den Basetakt geht, wieder hochkommt und dann sogar unter dem Basetakt verweilt. Wahrscheinlich das Ram noch mitnimmt beim Taktwechsel, und das Ganze ohne dass sich bei den Frametimes ein Furtz ändert. Aber Boost, was bei anderen und auch bei dir (in vielen Fällen) keine Auswirkung hat, solls jetzt sein?

Der Witz ist ja: Selbst wenn es in diesem speziellen Fall der Boost wäre, der in Crysis 3 Ruckler auslöst, wäre das eben eine Beobachtung, die nur in diesem speziellen Kontext relevant ist. Schon mit dem nächsten CryEngine-Spiel kann es anders sein. Dann löst vielleicht die HDD Ruckler aus. Oder die CPU. Oder der RAM. Oder ein Fehler im Treiber oder im Spiel. Irgendein VSync-Problem. Der Download im Hintergrund. Ein Virus. Die Mausabtastrate.

Oder oder oder...eine Verallgemeinerung, nach der hier gesucht wird, warum ein Spiel ruckelt, kann nicht gefunden werden. Warum? Weil dieser Grund nicht existiert.

-/\-CruNcher-/\-
2014-10-30, 12:24:52
Jep aber diese Microruckler können schon böse werden, vor allem je nach Kamerafahrt und beschleunigung erkennt man sie recht schnell, da brauch man nichtmal analysieren mit gewissen test szenen sind diese Probleme schnell erkennbar.

Da kann man sich jeden Measuring overhead sparen wenn man ein sauberes 60 FPS Motion Ergebnis anstrebt bei 1080p, nehme jetzt meinen eigenen Mod sachen als Benchmark dafür die Etwas komplexer sind als der Pendulum test

Bei der Optimierung auf Fermi und 30 FPS hab ich sie nicht so wahrgenommen wie das jetzt der fall ist schon krasser subjektiver unterschied selbst die kleinste intolleranz (abweichung) wird zum problem

Seph
2014-10-30, 12:35:22
Optimierung auf 30FPS und Fermi? 30FPS ruckeln per se. Und es war schon immer so, dass kleinste Abweichung zu Rucklern geführt haben. Technisch geht es gar nicht anders, wurstegal welche Grafikkarte. Das war vor 20 Jahren schon nicht anders.

-/\-CruNcher-/\-
2014-10-30, 12:37:14
Jep nur spiegeln wie du schon sagtes die FPS in keinster weise diese Aussetzer wieder

Bin gespannt ob ich diese Aussetzter die ich momentan sehe mit den Frametimes und AB erfassen kann ohne noch mehr probleme zu generieren, das gute sie sind im Ablauf reproduzierbar in der Test Szene immer im selben Kamera verlauf :)

Seph
2014-10-30, 12:44:15
Jep nur spiegeln wie du schon sagtes die FPS in keinster weise diese Aussetzer wieder

Richtig. Ich habe bspw. immer wieder heftige Ruckler in Killer is Dead bei 60FPS und 16.6ms - es sind eindeutige Nachladeruckler. GTAIV läuft bei mir immer noch nicht mit stabilen FPS, sobald ich fahre, knicken die auf 40 ein - ohne erkennbaren Grund und völlig unabhängig von der Last. Dann gab es Spiele wie Shadow of Mordor oder Splinter Cell, wo ich jede Menge experimentieren musste mit den verschiedenen VSYNC-Optionen und borderless window etc. pp. bevor ich weitgehend (!) Ruckelfrei war. Und selbst dann passiert's halt einfach noch ab und an. Es kommt auf die Engine an. Ein Spiel wie Trackmania bspw. was auf die 60FPS optimiert wurde bis zum Anschlag, hat eine perfekte Flatline bei 16.6ms und droppt nie an keiner Stelle auch nur einen Frame.

Am PC gibt es fast nur Einzelfallbeurteilung. PCs an sich aber auch die Engines sind zu komplex für generelle Urteile und deshalb ist der Thread hier auch kompletter Unsinn.

-/\-CruNcher-/\-
2014-10-30, 12:55:58
Ja aber wenn du in diese Timing Komplexität dann auch noch Boost mit einberechnest kannst du das als Problemquelle auch nicht erst mal zu 100% ausschliesen.
Ich werde das jedenfalls nicht tun wenn ich dieses Problem trotz boost stabil bekomme ok aber vorher fälle ich da kein Urteil drüber.

IO bedingte Probleme kann ich hier vollkommen ausschliesen in dem Test aber ich gehe auch davon aus das des hauptproblem ein ganz normales performance issue ist da der Spin test im Pendulum von der Beschleunigung her ähnlich war und dort keine Probleme zu sehen waren allerdings ohne irgendwelchen CPU load.

dargo
2014-10-30, 13:15:03
@Cruncher

Gestern war ich abends schon zu müde zum testen. Weißt du eigentlich ganz genau was dieses kboost macht? Bist du sicher, dass der komplette Mechanismus @GPU-Boost 2.0 damit ausgehebelt wird? Seitdem ich dieses EVGA Precision Tool installiert habe und einmal kboost aktiviert/deaktiviert habe läuft Crysis 3 nicht nur fühlbar, sondern auch messbar bei mir besser. Nicht gut genug aber schon besser. Frag mich nicht warum, ich habe keinen blassen Schimmer. Jedenfalls habe ich seltsamerweise diese kompletten Bildaussetzer bei einer schnellen Drehung heute morgen bei einigen Tests nicht mehr gehabt. Also kurz gesagt... die extremen Bildstopper sind erstmal weg, zu hohe Ausschläge bei den Frametimes, ergo Ruckler sind unter bestimmten Bedingungen immer noch da. Genaueres gibts in 1-2 Tagen. Muss mir da noch einiges genauer anschauen.

-/\-CruNcher-/\-
2014-10-30, 13:19:56
Interessant die werden doch nicht am PowerMizer rumspielen ;)

das ist auch wieder so eine sache Nvidias Entscheidung bezüglich dessen und dem Fermi Gating problem ob das bei Kepler und Maxwell jetzt durchschlägt sorry ich weiss es noch nicht ich stehe da selbst am Anfang mir einen Reim drauf zu machen ;)

Das sind so viele neue Faktoren gegenüber Fermi da muss ich mich erstmal einleben ;)

Seph
2014-10-30, 13:31:24
Ja aber wenn du in diese Timing Komplexität dann auch noch Boost mit einberechnest kannst du das als Problemquelle auch nicht erst mal zu 100% ausschliesen.
Ich werde das jedenfalls nicht tun wenn ich dieses Problem trotz boost stabil bekomme ok aber vorher fälle ich da kein Urteil drüber.

IO bedingte Probleme kann ich hier vollkommen ausschliesen in dem Test aber ich gehe auch davon aus das des hauptproblem ein ganz normales performance issue ist da der Spin test im Pendulum von der Beschleunigung her ähnlich war und dort keine Probleme zu sehen waren allerdings ohne irgendwelchen CPU load.

Ne, kann ich nicht ausschließen. Die Frage ist nur, was die Erkenntnis bringt, insb. im Kontext der Verallgemeinerung? Fast nix. Wenn der GPU Boost grdstl. Probleme machen würde, hätten wir ihn nicht mehr. Wenn es Probleme gibt, dann nur im Kontext ausgewählter Engines und da geht es wahrscheinlich nur ausgewählte Szenen oder Versionen....es ist einfach müßig.

-/\-CruNcher-/\-
2014-10-30, 13:38:34
Das ist absolut richtig Verallgemeinerung bringt nix zu viele Faktoren
Diese Verallgemeinerung könnten wir auf einer Konsole ohne Probleme machen aber nicht hier auf dem PC ;)
Dennoch ist es wichtig erkentnisse von vielen systemen zu sammeln um vielleicht doch durch glück und hartnäckigkeit etwas zu finden was Generel Probleme macht, die sich nur eben je nach Systemkonfiguration mehr oder weniger zeigen ;)

Und 60 FPS Motion Ergebnise eignen sich hier perfekt meiner Ansicht nach nachdem was ich bis jetzt selbst erlebe :)

Weil es auch die GTX 970 (GM204) hergibt das zu erreichen bei 1080p :)

Und das mit einem echt super angenehmen geräuschlevel, wo das ganze nicht weit von voll Passiv kühlbar ist :)

dargo
2014-10-30, 14:06:58
Interessant die werden doch nicht am PowerMizer rumspielen ;)

das ist auch wieder so eine sache Nvidias Entscheidung bezüglich dessen und dem Fermi Gating problem ob das bei Kepler und Maxwell jetzt durchschlägt sorry ich weiss es noch nicht ich stehe da selbst am Anfang mir einen Reim drauf zu machen ;)

Das sind so viele neue Faktoren gegenüber Fermi da muss ich mich erstmal einleben ;)
Dieses kboost ist für mich ebenfalls Neuland. Was ich schon komisch fand... wenn man den kboost aktiviert hat man erstmal permanent 540Mhz bei der GPU. Ist das nicht irgendein P-State? Ich meine das wäre so. Bin jetzt auf Arbeit, kann es also nicht prüfen. Das ist noch nicht so ungewöhnlich. Bei der Version 4.2.1 ist afaik ein Neustart Pflicht. Und nach dem Neustart habe ich auch permanent meine 1316Mhz. Was ich aber ungewöhnlich finde... wenn ich Crysis 3 spiele, auf den Desktop raustabe. Den kboost wieder deaktiviere und ins Spiel reintabe gehts gar nichts mehr. Dann habe ich nur noch einen Blackscreen und du kommst aus der Misere nur noch mit dem Taskmanager raus indem du die Exe killst, mit entsprechenden Fehlermeldung. Dieses kboost greift mir ehrlich gesagt schon zu tief ins System rein.

-/\-CruNcher-/\-
2014-10-30, 14:20:03
Nicht vergessen 4.2.1 ist anscheinend sehr different zudem wie 5.0 funktioniert

Gehe mal davon aus das 4.2.1 ein test war ausgerichtet auf Kepler only (Boost 1.0) von was auch immer und ab 5.0 eine bessere implementation des ganzen ausgerichtet auf Boost 2.0 (Titan,Maxwell).


Ich denke mal Kboost switched einfach auf das alte Fermi verhalten P-State only zurück und in der 4.2.1 version wird vieleicht der stabilität wegen deshalb die voltage zusätzlich erhöht für Kepler

Aber 100% kann ich es nicht sagen hab es noch nicht getestet da ich erstmal sehen will ob ich das Microruckeln so unter kontrolle bekomme

dargo
2014-10-30, 14:25:41
Würdest du also empfehlen gleich zur V5.2.4 zu greifen?

-/\-CruNcher-/\-
2014-10-30, 14:32:57
beides testen aber eher zu 5.2.4 tendieren ja

TobiWahnKenobi
2014-10-30, 15:14:57
Dieses kboost ist für mich ebenfalls Neuland. Was ich schon komisch fand... wenn man den kboost aktiviert hat man erstmal permanent 540Mhz bei der GPU. Ist das nicht irgendein P-State?

bei meiner keplerkarte ist 540MHz der P-state, aus dem die karte nur rauskommt, wenn das system einen neustart hinlegt. den erreiche ich auch nur, wenn ich die karte "ver"takte.


(..)

mfg
tobi

dargo
2014-10-30, 17:30:21
Ich bekomme morgen die HD7950 vom Kollegen. =) Es wird noch besser, ich bekomme sogar den ganzen Rechner von ihm. Ein i5-750 @3,6Ghz mit Asus P7P55D und 2x4GB Ram. So kann ich die HD7950 in Ruhe in meinem Rechner testen und die GTX970 in seinem. Das OS muss ich eh bei ihm neu aufsetzen. Das blöde nur... bin übers WE ziemlich ausgebucht, weiß gar nicht wie ich das zeitlich alles bewerkstelligen soll? Und spitzen Wetter ist auch noch angesagt. :usad:

captain_drink
2014-10-30, 17:53:33
dargo, Zwischenfrage: Welches Netzteil hast du?

dargo
2014-10-30, 18:02:41
Klick mal auf den Rechner unter dem Avatar. :wink:

captain_drink
2014-10-30, 18:12:10
Das sollte eigentlich passen, auch wenn die gruppenregulierte Plattform des E9 bzgl. den Spannungswechseln mit Boost 2.0 von GM204 nicht optimal ist.

dargo
2014-10-30, 18:23:21
Also vom Netzteil gehe ich am wenigsten aus. Wenn es da Probleme gäbe würde entweder das NT abschalten (Schutzschaltung) oder das Game abstürzen.

Hübie
2014-10-30, 18:28:27
Bei mir ist k-Boost nur grau unterlegt. Kann da raufklicken bis die Pfoten glühen, aber aktivieren lässt es sich nicht :(

captain_drink
2014-10-30, 18:41:11
Also vom Netzteil gehe ich am wenigsten aus. Wenn es da Probleme gäbe würde entweder das NT abschalten (Schutzschaltung) oder das Game abstürzen.

Nicht unbedingt. Der Boost der neuen Maxwells ist bzgl. der Spannungsversorgung relativ anspruchsvoll, da die Spannungswechsel sehr schnell erfolgen, was nicht jedes NT mitmacht und in Stuttering/Drops u.ä. resultieren kann.

dargo
2014-10-30, 18:42:43
Nicht unbedingt. Der Boost der neuen Maxwells ist bzgl. der Spannungsversorgung relativ anspruchsvoll, da die Spannungswechsel sehr schnell erfolgen, was nicht jedes NT mitmacht und in Stuttering/Drops u.ä. resultieren kann.
Hast du dafür eine Quelle? :)

Ich meine die schnellen Spannungswechsel erledigt das PCB bsw. die Spawas der Grafikkarte. Diese muss nur mindestens mit 11,4V in der stressigsten Situation versorgt werden.

captain_drink
2014-10-30, 18:55:12
Hast du dafür eine Quelle? :)

Ich meine die schnellen Spannungswechsel erledigt das PCB bsw. die Spawas der Grafikkarte. Diese muss nur mindestens mit 11,4V in der stressigsten Situation versorgt werden.

Zur grundsätzlichen Problematik: http://www.tomshardware.de/leistungsaufnahme-grafikkarte-netzteil-wechselwirkung-messung,testberichte-241622-2.html

In Bezug auf Maxwell habe ich in Erfahrungsberichten schon ein paar Mal gelesen, dass sich Drops/Stuttering/Spulenfiepen durch einen Wechsel des Netzteils beheben ließen. Das waren dann allerdings meistens auch irgendwelche Billigdinger.

dargo
2014-10-30, 19:21:07
Zur grundsätzlichen Problematik: http://www.tomshardware.de/leistungsaufnahme-grafikkarte-netzteil-wechselwirkung-messung,testberichte-241622-2.html

Das kenne ich.


In Bezug auf Maxwell habe ich in Erfahrungsberichten schon ein paar Mal gelesen, dass sich Drops/Stuttering/Spulenfiepen durch einen Wechsel des Netzteils beheben ließen. Das waren dann allerdings meistens auch irgendwelche Billigdinger.
Ich meinte eher Quellen speziell die GM204 und die E9 Serie betreffen. Dennoch würden mich die Quellen interessieren wo es um die "Billigdinger" ging.

Hübie
2014-10-30, 19:54:41
Weiß jemand wie ich kBoost anschalten kann? :D

captain_drink
2014-10-30, 20:15:48
Ich meinte eher Quellen speziell die GM204 und die E9 Serie betreffen. Dennoch würden mich die Quellen interessieren wo es um die "Billigdinger" ging.

Zu GM204 und E9 habe ich nichts, wobei es mich auch überraschen würde, wenn es damit zu Problemen käme. Bzgl. Framedrops/NT fällt mir spontan das hier ein: http://www.mindfactory.de/product_info.php/tab/reviews/4096MB-Palit-GeForce-GTX-970-JetStream-Aktiv-PCIe-3-0-x16--Re_977473.html#reviews (Nutzer "Marcel")

dargo
2014-10-30, 21:18:20
Danke. :)

Etwas schade, dass er nicht schreibt welches Netzteil er vorher hatte und wie alt es war.

Seph
2014-10-30, 21:45:27
Würde sowieso keine Rolle spielen. Es hängt einzig von der Engine ab.

Ziemlich perfekte Frametimes liefert (bei mir) übrigens Metro: Last Light. Alles Max Settings @1080p, kein SGSAA, Graka-Auslastung bei um die 50% bis 65%, maximaler Boost bei 1480mhz durchgängig - nicht eine ms Abweichung, nicht ein minimaler Framedrop. 10 Minuten getestet in einer grafisch intensive Szene (Oberfläche, draußen, bei Regen, im Kampf mit vielen Gegnern).

dargo
2014-10-31, 08:40:24
Ich habe mir jetzt nochmal sehr genau Crysis 3 mit einem Savegame angeschaut, ergo exakt reproduzierbar. Hier hatte ich folgendes geschrieben.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10404286&postcount=623

Das stimmt nur teilweise. Auch wenn ich mich mit der Tastatur nach vorne/hinten bewege ist noch alles prima. Dann sieht es so aus.
50096

Erst wenn eine Mausbewegung dazu kommt gibts dieses Stuttering. Und auch nur dann wenn Geschwindigkeit X überschritten wird.

sehr langsame Mausbewegung (bei dem einem kleinen ~24ms Ausschlag habe ich diese "X-Grenze" schon leicht überschritten), hier die Mausintensität von 5% auf 0% reduziert
50097

normale Mausbewegung
50098

Doch Streamingprobleme (davon sprach schon grestorn vor einigen Seiten), eventuell in Verbindung mit GPU-Boost 2.0? :uponder:

PS: dabei fällt mir gerade ein... Spieler, die ihre Games bsw. mit einem X-Box Controller spielen werden das Problem (sofern eins bei denen existiert) u.U. gar nicht bemerken. Oder zumindest nicht in dem Ausmaß.

Hübie
2014-10-31, 09:56:47
Genau das beobachtete ich ebenfalls in Crysis 3. Hatte nur leider noch nicht die Zeit das hier zu dokumentieren. Ich habe probehalber die Auflösung auf 1024 * 768 gesetzt, aber die Details so gelassen. Ist dann jedoch genauso spürbar. Irgendwas ist da kaputt. Vielleicht stark CPU-abhängig??? :| Aber 12 Threads @4 GHz sollten imo reichen... Watch Dogs wie eh und je am stottern. Da kennt mans ja. Aber Crysis... Hm.

dargo
2014-10-31, 10:35:14
Genau das beobachtete ich ebenfalls in Crysis 3. Hatte nur leider noch nicht die Zeit das hier zu dokumentieren. Ich habe probehalber die Auflösung auf 1024 * 768 gesetzt, aber die Details so gelassen. Ist dann jedoch genauso spürbar. Irgendwas ist da kaputt. Vielleicht stark CPU-abhängig??? :| Aber 12 Threads @4 GHz sollten imo reichen...
Ich gehe nicht davon aus, dass es am CPU-Limit liegt da ich die gleichen Probleme auch im GPU-Limit habe.

Was haben deine Tests eigentlich mit Bioshock Infinite und dem intergrierten Benchmark ergeben?

InsaneDruid
2014-10-31, 10:46:50
So, Bioshock Infinite installiert grade...

dildo4u
2014-10-31, 11:46:29
Ryse wurde ja gepatcht vielleicht gibt es wirklich ein Problem mit Maxwell und der Cryengine.Natürlich wird für Crysis 3 vermutlich nix mehr kommen aber hoffentlich ist es für zukünftige Games mit der Engine gelöst.

dargo
2014-10-31, 12:19:39
Weiß jemand wie ich kBoost anschalten kann? :D
Ich weiß jetzt gar nicht ob die GTX770 überhaupt kBoost unterstützt? Afaik gilt das nur für GPUs mit GPU-Boost 2.0, ergo Titan und Maxwell. Kann mich aber auch irren. Ich würde aber von diesem kBoost eh abraten solange wir nicht genau wissen was es macht. Das einzige was ich sehe ist, dass mit kBoost immer der maximale Takt der GPU anliegt, auch in Idle. Cruncher meinte mit kBoost bzw. mit ausgehebelten GPU-Boost 2.0 wäre die Effizienz von Maxwell dahin. Ich kann das nicht bestätigen. Als ich Crysis 3 mit meinem Savegame reproduzierbar getestet habe hatte ich ohne kBoost 83% Power, mit kBoost 84%. Der 1% Unterschied ist gar nichts. Wenn man das grob hochrechnet... 100% sind bei der MSI 200W im Schnitt. 83% wären somit 166W, 84% 168W. Wir sprechen hier also von lächerlichen 2W Unterschied (und nein, die Lüfter haben nicht schneller gedreht, die üblichen ~20-50rpm Schwankungen). Ohne GPU-Boost 2.0 müsste mir der Stromverbrauch durch die Decke gehen. Das werden also entweder Messschwankungen sein oder mit kBoost war die GPU-Temp. ein klein wenig höher, ergo minimal höherer Verbrauch. Als ich mit kBoost bessere Frametimes gemerkt habe lag das wahrscheinlich nur daran, dass ich "geschmeidiger" mit der Maus durch die Map gewandert bin. Die Maussteuerung hat einen signifikanten Einfluss auf die Frametimes, siehe meinen Vergleich oben.

Ryse wurde ja gepatcht vielleicht gibt es wirklich ein Problem mit Maxwell und der Cryengine.
Es geht schon lange nicht mehr nur um Crysis 3 dildo. :) Das einzige wo ich noch nicht ganz durchblicke ist der Benchmark von Bioshock Infinite. Dort wird ja keine Maus bewegt, der Benchmark läuft ja von alleine. Möglicherweise gibts also zwei Probleme die die selbe Wirkung zeigen.

N0Thing
2014-10-31, 13:16:30
Ich habe mir jetzt nochmal sehr genau Crysis 3 mit einem Savegame angeschaut, ergo exakt reproduzierbar. Hier hatte ich folgendes geschrieben.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10404286&postcount=623

Das stimmt nur teilweise. Auch wenn ich mich mit der Tastatur nach vorne/hinten bewege ist noch alles prima. Dann sieht es so aus.
50096

Erst wenn eine Mausbewegung dazu kommt gibts dieses Stuttering. Und auch nur dann wenn Geschwindigkeit X überschritten wird.

Probiere mal aus, ob es einen Unterschied macht, wenn du nach vorne/hinten gehst und wenn du nach rechts/links gehst. Einfach nur über die Tastatur, ein paar Sekunden in die eine Richtung, dann in die andere.

Angiesan
2014-10-31, 16:08:46
Weiß jemand wie ich kBoost anschalten kann? :D
Geht nicht mit GK 104

Hübie
2014-10-31, 19:21:27
In der alten Version ging das aber. Ab 5.0 gehts nicht mehr.

dargo
2014-10-31, 22:10:07
Probiere mal aus, ob es einen Unterschied macht, wenn du nach vorne/hinten gehst und wenn du nach rechts/links gehst. Einfach nur über die Tastatur, ein paar Sekunden in die eine Richtung, dann in die andere.
vorne/hinten mit Tastatur
50104

links/rechts mit Tastatur
50105

willkürlich mit Tastatur (vorne/hinten, links/rechts, schräg vorne/hinten usw.)
50106

Ist das nicht bescheuert? :freak: Sobald die Maus dazu kommt fast unspielbar.

Grestorn
2014-10-31, 22:21:41
Abtastrate der Maus reduzieren? Anderen USB Port und/oder anderer USB Treiber? Mal ne PS/2 Maus testen?

dargo
2014-10-31, 22:35:59
Das gibts doch nicht. X-D Ich habe den Fehler gefunden!!! :massa: :massa: :massa:

Evil Ash
2014-10-31, 22:37:20
Endlich.
Die Maus? Der USB-Controller?

dargo
2014-10-31, 22:50:33
Nein, es ist wohl der Grafiktreiber. Ich bin jetzt alle Grafikoptionen im CP durchgegangen. Es gibt offenbar einen Bug im Grafiktreiber der nicht jedes System betrifft.

Gammakorrektur On (Standard) mit normalen Mausbewegung
50113

Gammakorrektur Off mit normalen Mausbewegung
50114

Solange ich stehe und mich mit der Maus drehe ist alles bestens. Wenn ich aber laufe und schnelle Drehungen mit der Maus mache kommt es dennoch immer noch zum einzelnen Stuttering. Aber hier sollte man auf jeden Fall ansetzen. Der Unterschied zwischen Gammakorrektur Off und On ist riesig. Ich könnte jetzt sagen Crysis 3 ist einigermaßen gut spielbar. Der Fehler ist aber damit nicht komplett behoben.

Ich werde auf jeden Fall jetzt mal andere Games mit Gammakorrektur Off testen. =)

Grestorn
2014-10-31, 22:54:20
Meinst Du die Anti-Aliasing Gamma Korrektur? Oder die für den Desktop?

dargo
2014-10-31, 22:57:10
50116

Edit:
Bioshock Infinite Benchmark mit maximalen Details.

Gammakorrektur On, Vsync Off
50117

Gammakorrektur Off, Vsync Off
50118

Gammakorrektur On, Vsync Off + 60fps Limit
50124

Gammakorrektur Off, Vsync Off + 60fps Limit
50123

Auch hier eine deutliche Verbesserung. Es gibt zwar immer noch sichtbares Stuttering, aber nicht mehr so extrem.

InsaneDruid
2014-10-31, 23:45:11
Holy Moly. Wer hätte das gedacht. Sieht in BSI ja jetzt echt nur noch nach Rucklern durch Framerate unter 60 aus.

dargo
2014-11-01, 00:01:42
Holy Moly. Wer hätte das gedacht. Sieht in BSI ja jetzt echt nur noch nach Rucklern durch Framerate unter 60 aus.
Täusche dich da nicht, die Framerate ist ohne 60fps Limit nie unter 60fps. Komplett behoben ist der Fehler also noch gewiss nicht. Ich frage mich gerade ob das vielleicht doch nicht was mit einer fehlerhaften Speicher-Kompression beim GM204 zu tun hat? :uponder: Aber auch hier, warum sind davon nicht alles Systeme betroffen? :confused:

InsaneDruid
2014-11-01, 01:42:07
Wie ich schon sagte, aufpassen bei FPS-Angaben, die sind in ihrer Natur gemittelt. Wenn man sich die Frametimes anschaut hat man ca 30ms dabei -> das sind "punktuell" unter 60fps, auch ohne Vsync.

Thunder99
2014-11-01, 02:02:31
Interessant. Hab jetzt nicht den ganzen Thread verfolgt aber dennoch eine Frage: Macht sich dein Problem nur bei Frames um die 60fps aus oder auch deutlich darunter?

dargo
2014-11-01, 07:55:29
Wie ich schon sagte, aufpassen bei FPS-Angaben, die sind in ihrer Natur gemittelt. Wenn man sich die Frametimes anschaut hat man ca 30ms dabei -> das sind "punktuell" unter 60fps, auch ohne Vsync.
Argh... sorry, da habe ich nicht weit genug gedacht. War schon etwas spät gestern. Du hast natürlich recht. Nicht nur, dass die Frameraten gemittelt sind, der Framecounter Ingame ist auch zu lahm. Dazu passt auch der Hiweis von Hübie.

Übrigens sind die Frametimes IST-Zustand während die fps gemittelt aus den vorangegangenen frames errechnet werden. Daher die Differenzen. Hab da gestern noch mal drüber seniert

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10404486&postcount=634

Interessant. Hab jetzt nicht den ganzen Thread verfolgt aber dennoch eine Frage: Macht sich dein Problem nur bei Frames um die 60fps aus oder auch deutlich darunter?
Unabhängig der fps. Es ist auch egal ob ein stärkeres GPU- oder CPU-Limit herrscht.

PS: gibt es eigentlich Tools mit denen man die Speicherkompression beim GM204 deaktivieren kann?

@Cruncher
Neue Idee... fehlerhafte (Treiberbug) Speicherkompression beim GM204?

* Warum nur bestimmte Games betroffen sind? Weil entweder in manchen Games gar nicht komprimiert oder geringfügig komprimiert wird.
* Warum im Benchmark von Bioshock Infinite trotz keiner Mausbewegung eine Verbesserung ohne Gammakorrektur sichtbar und fühlbar ist? Weil es in diesem Benchmark auch sehr schnelle Kameraschwenks und somit schnell neuen Bildinhalt gibt.

Diese Mausbewegung in Crysis 3 hat mich schon zwar in die richtige Richtung geleitet, die Ursache ist aber offenbar ne ganz andere. Und die deaktivierte Gammakorrektur lindert nur die Symptome, sie werden nicht komplett beseitigt.

Das wäre erstmal so meine Überlegung/Idee.

Edit:
Kann sich noch jemand an Assetto Corsa erinnern?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401144&postcount=523

Ich habe jetzt einen neuen Test mit dem Spiel gestartet. Jetzt verhält sich das Spiel anders. Hier muss man aber aufpassen. In der Zwischenzeit hat der Entwickler dem Spiel ein Update verpasst, ergo könnte es daran liegen. Außerdem bin ich jetzt anders vorgegangen und exakte Reproduzierbarkeit zu gewährleisten. Bin also eine Runde auf Monza gefahren und das Replay abgespeichert. So kann ich jetzt jedes Mal dieses Replay abspielen mit perfekter Reproduzierbarkeit.

Vsync Off, Gammakorrektur Off
50125

Vsync Off, Gammakorrektur On
50126

Vsync On, Gammakorrektur Off
50127

Vsync On, Gammakorrektur On
50128

Bei Vsync Off gibts kaum einen Unterschied (hier läuft auch alles bestens was Frametimes angeht). Bei Vsync On sind die Unterschiede auch nicht sehr groß. Man sieht aber, dass die zweite Spitze komplett verschwindet und hinten die Spitzen sich auch leicht verändern. In diesem Spiel ist aber wie gesagt die Wirkung von Gammakorrektur nicht besonders groß.

Edit 2:
Mir fällt gerade noch was ein. Ich hatte mich ja gewundert warum der 3DC-Member Viper mit Vsync On diese Einbrüche nicht hatte. Seine GTX970 war übertaktet, meine nicht. Sowohl bei der GPU als auch Speicher. Wenn meine Theorie hier bezüglich fehlerhaften Speicherkompression richtig ist könnte sein, dass diese Problematik bei Viper durch die höhere Speicherbandbreite verschleiert bzw. gelindert wird. :uponder: Die Speicherkompression ist ja nichts anderes als Speicherbandbreite zu sparen.

dargo
2014-11-01, 09:47:12
Leute... das ist es. :up: Ich glaube wir haben es langsam, jetzt bin ich mir sogar ziemlich sicher, dass es an der Speicherkompression liegt. =) Ich hoffe endlich, dass ich damit richtig liege, Vermutungen gabs schon viele. :freak:

Assetto Corsa Replay - Vsync On, Gammakorrektur On, 1316/3506Mhz
50129

Assetto Corsa Replay - Vsync On, Gammakorrektur On, 1316/3703Mhz
50130

Das bedeutet also mit Gammakorrektur Off spart man Speicherbandbreite ein. Wirkt sich in Assetto Corsa noch gering aus, in einem Crysis 3 aber wesentlich größer.

InsaneDruid
2014-11-01, 10:09:39
Ich glaube nicht, dass Gammakorrektur ein Bandbreitenhog ist. Wenn es so wäre, so dass die Bandbreite der Karte nicht hinreicht (und andere Karten haben viel langsamere Interfaces), nur durch dieses Feature, dann wäre der Vorteil von 10% Übertaktung nicht groß genug, um es zu verstecken. Und, dann müsste das Problem durch Untertakten des Speichers vergrößert werden. Is das nicht nur eine art LUT?

Offensichtlich scheint es ein Problem damit zu geben, aber imho nicht an der Bandbreite.

Seph
2014-11-01, 10:10:26
No shit, Du veränderst Grafikeinstellungen und die Frametimes im Spiel verändern sich!?? Das ist...ein bewegender Moment für uns alle. Wir sollten Nvidia informieren.

Im Ernst: Wieviele Tage und Stunden brauchst Du noch, um zu erkennen, dass es in erster Linie keine Frage der Einstellungen ist, sondern der Engine und dass wir es hier (leider) mit dem aktuellen Stand der Technik zu tun haben?

Neues Worst-Case-Beispiel: Die Evil Within Demo auf Steam. Selbst mit 60FPS und 16.6ms konstant, sieht das Spiel aus und fühlt sich so an als wäre es sub 30FPS. Es zuckelt konstant. Zuvor habe ich Killer is Dead @4K mit konstanten 60FPS ohne den kleinsten Ruckler gezcokt (nachladen ausgenommen). Dafür musste ich aber erstmal die .ini editieren, den MSI Afterburner anschmeißen und D3D OVerrider dazu nehmen. Mit InGame-Vsync war es ein konstantes Ruckeln. Das 6-8 Jahre alte GTA IV läuft heute noch nicht mit ordentlichen Frametimes, obwohl ich das 100fache an Power draufwerfe, was es braucht. Deadly Premonition ruckelt und teart wie Hölle, bei Flatline 16.6ms. Bei Need for Speed Most Wanted muss ich erst einmal aus Fullscreen raus und wieder reintabben, damit die Frame Skips verschwinden. Trackmania (und auch einige andere Spiele) laufen out of the Box mit perfekten Framerates.

Die Situation von PCs hat sich in den letzten Jahren sicher verbessert, aber sie ist keineswegs gut und weit weg von Plug'n Play, jedenfalls dann, wenn man das Optimum aus den Spielen rausholen will. Es gibt gute Engines und schlechte, gute Ports und schlechte. Es gibt Spiele, die haben das Ziel, perfekt und smooth mit 60FPS zu laufen (bspw. Trackmania oder Battlefield) und dann gibt es Spiele, die schmeißen einfach nur soviele Shader wie möglich auf'n Schirm, wurstegal, wie die Engine scrollt. Sieht man ja nicht auf Screenshots (Evil Within, Crysis 3, Crysis 1 ist HEUTE noch nicht 100% ruckelfrei zu spielen!!).

Du solltest einfach verstehen: Du hast dich in etwas verrannt und suchst nach einer Regel, die es nicht gibt. Nach einer pauschalen Lösung für individuelle Probleme. Du wirst keinen Erfolg haben, egal wieviele Stunden Lebenszeit Du noch investierst. Und jeder, der dich hier belabert und "unterstützt", stürzt dich nur tiefer in Deine Neurose.

dargo
2014-11-01, 10:16:32
Ich glaube nicht, dass Gammakorrektur ein Bandbreitenhog ist. Wenn es so wäre, so dass die Bandbreite der Karte nicht hinreicht (und andere Karten haben viel langsamere Interfaces), nur durch dieses Feature, dann wäre der Vorteil von 10% Übertaktung nicht groß genug, um es zu verstecken. Und, dann müsste das Problem durch Untertakten des Speichers vergrößert werden. Is das nicht nur eine art LUT?

Offensichtlich scheint es ein Problem damit zu geben, aber imho nicht an der Bandbreite.
Was ist ein LUT?

Übrigens ist die ganze Sache komplizierter als gedacht. Wo bei Assetto Corsa die Erhöhung der Speicherbandbreite noch zum Erfolg geführt hatte ist es im Benchmark von Bioshock Infinite eher kontraproduktiv. :crazy:

max. Details, 60fps Limit, 1316/3506Mhz, Vsync Off, Gammakorrektur On
50131

max. Details, 60fps Limit, 1316/3703Mhz, Vsync Off, Gammakorrektur On
50132

max. Details, 60fps Limit, 1316/3703Mhz, Vsync Off, Gammakorrektur Off
50133

Da soll man von schlau werden. :freak:

InsaneDruid
2014-11-01, 10:21:05
Mit welchen Parametern startet du das Bioshock Bench tool?

UltraDX11_DDoF. UltraDX11?

1920*1080 hab ich

aufkrawall
2014-11-01, 10:25:31
Bioshock: I hatte schon immer gerne gestockt.
Abgesehen davon können sich die per Hook abgegriffenen Frametimes deutlich zu den realen unterscheiden, wie sich bei pcper mit dem neuen Civ & NV gezeigt hat.

dargo
2014-11-01, 10:27:59
Mit welchen Parametern startet du das Bioshock Bench tool?

UltraDX11_DDoF. UltraDX11?

1920*1080 hab ich
2, 2, 1, 4

Was haben eigentlich deine Bioshock Infinite Messungen ergeben würde mich interessieren. Decken sie sich mit meinen oder hast du komplett was anderes?

InsaneDruid
2014-11-01, 10:31:32
Ich bin grade am bechen, die 15GB mussten sich gestern noch durch mein DSL6000 ins heimische Steam quälen^^

dargo
2014-11-01, 10:33:28
Ich bin grade am bechen, die 15GB mussten sich gestern noch durch mein DSL6000 ins heimische Steam quälen^^
Autsch. :usad:

Mit Install dachte ich meinst du den Install ansich und nicht den Download. :freak:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10406615&postcount=672

InsaneDruid
2014-11-01, 11:02:14
Ok, hier mal meine Graphen, mit und ohne Gammakorrektur und vsync on/off auf 60Hz. prerendered frames sind 1 (meine standardeinstellung) nach dem post bench ich nochmal mit den default 3. Sampleintervall 100ms

Der grüne Graph ist immer Gammakorrektur ON, der Pinke Gamma off.

Ohne Vsync: FPS-Verlauf und Frametimes sind so gut wie identisch
http://abload.de/img/gammaabsh6.png

Mit Vsync: Auf den ersten Blick identisch, mit leichten Vorteilen für Gamma off (ein paar weniger Spikes in den schnellen Bereichen, kann auch Messungenauigkeit sein, in den langsameren Bereichen unter 60FPS aber ziemlich identisch)
http://abload.de/img/vsyncgammam8sob.png

Generell hab ich weniger FPS, da älteres Sys. Ist ein i5 760 @3,7 mit einem P55 USB3 Mobo und 12GB Ram @740Mhz

Der große Spike in der Mitte des Benches ist genau im Bereich der Szenenumblendung. Kann ich hier immer ganz gut am Zweitschirm verfolgen.

EDIT:
Hier nochmal Vsync, Gamme Correction ON und Prerenderlimit3:
http://abload.de/img/vsyncgammaonthreeframgqs4l.png

trotz Gamma on sind hier, die Spikes in den schnellen Passagen weniger, was ich als leichte Vorteil von Gamma off beschrieben hab in den Fällen mit Prerender1. Also nicht wirklich ein Unterschied zwischen Gamma on/poff zu sehen auf meinem Sys.

Gast
2014-11-01, 11:16:01
Also andere haben nicht festgestellt das die Delta Kodierung Schuld sein könnte. Auch nicht unter Crysis 3 und die dürften mehrere Level über dir stehen was das Verständnis angeht: http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32697-nvidia-geforce-gtx-980-und-970-mit-maxwell-architektur-im-xxl-test.html?start=28 Die Unterschiede sind zu gering als das man die Komperession dafür verantwortlich machen kann. Selbst wenn es wäre sind die alten mehrfach aufgebohrten Engine eben nicht kompatibel. Wo wäre das problem. Denkst du ich will 100 mal Crysis 3 durchzocken.

Morgen ist wahrscheinlich einfach das nVidia-Logo Schuld. Les mal was seph schreibt! Das www ist voll von Beiträgen die sich über ruckeln und zuckeln mancher Engines beschweren. Zuletzt hat irgendeiner bei Sony behauptet das ist gewollt um sich filmischen Ansätzen und Effekten zu nähern.

Kann diesen Quatsch hier endlich mal jemand beenden. Das führt doh zu keinem Ergebnis.

InsaneDruid
2014-11-01, 11:56:03
Kannst ja einfach weglesen. Ich finds nicht uninteressant mal darüber zu labern und rumzutesten. Am Ende viel besser als das übliche NV vs ATI oder "unter 4K zock ich nicht ihr Säcke, mein TN ist besser als dein Real Live"-Gesülze.

Ich hab jetzt mal die Settings nach diesem Tipp eingestellt (Ingame alles max, bis auf Dynamic Shadows + ini Settings geändert), Ambient Occ. hab ich im Gegengensatz zum Video an, das ganze wieder in meinen 72Hz im Borderless Windowed Mode (vsync ingame aus). Jetzt läuft der Benchmark, wenn man ihn diese Settings nutzen lässt, gefühlt deutlich smoother. Ich seh leichtes rucken wenn die Cam in der Anfangsszene die 180°-Wende auf die Statue zu macht (dort fallen auch die FPS), ab da läufts Butter, rein vom Gefühl. In der zweiten Szene hatte ich sonst 2-3 richtig fiese Hakler, auch die sind weg, Szene zwei läuft rein vom sichtbaren echt sauber.

Frametimes haben zwar noch ausreißer, aber... damit kann ich leben, wenn sie nicht wirklich fühlbar sind.
http://abload.de/img/mysettings2ojsh3.png
Skalen wieder 0-150 und 0-100

dargo
2014-11-01, 12:11:27
Also andere haben nicht festgestellt das die Delta Kodierung Schuld sein könnte. Auch nicht unter Crysis 3 und die dürften mehrere Level über dir stehen was das Verständnis angeht: http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32697-nvidia-geforce-gtx-980-und-970-mit-maxwell-architektur-im-xxl-test.html?start=28 Die Unterschiede sind zu gering als das man die Komperession dafür verantwortlich machen kann.

Lieber Gast... mit deinem Link bist du leider völlig am Thema vorbei. Noch vor kurzen hatten wir das Thema gemittelte Frameraten anhand der "Echtzeit" Frametimes.


Les mal was seph schreibt!
Was der schreibt interessiert mich schon lange nicht mehr. Er wollte doch nicht stören.

dargo
2014-11-01, 12:19:22
Der große Spike in der Mitte des Benches ist genau im Bereich der Szenenumblendung. Kann ich hier immer ganz gut am Zweitschirm verfolgen.

Das ist schon mal gut zu wissen. Dann kann man den einen Ausschlag schon ignorieren. Bei dem Szenenwechsel wird das Bild ja schwarz. Was nicht dargestellt wird kann auch nicht stören. :wink: Wenn ich das aber richtig überblicke hast du auch einzelne Ausreißer von ~35ms, die du eigentlich wahrnehmen solltest. Ist natürlich was anderes als die stellenweise ~60ms bei mir. Ich habe natürlich auch eine andere CPU und auch noch 4C/8T anstatt 4C/4T.

PS: Crysis 3 und Assetto Corsa hast du nicht zufällig? Sorry, falls schon gefragt.

PCXY
2014-11-01, 12:52:07
Hab auch eine 970, und da ruckelt und zuckelt nix.

-/\-CruNcher-/\-
2014-11-01, 12:57:35
In einer akuten Psychose ist es typisch, dass Ratio ignoriert wird. Vielleicht erbarmt sich ja ein Mod. Ontopic ist das hier schon lange nicht mehr.

Schon mal drüber nachgedacht das es sinvoll sein könnte Devs und Publisher mit sowas zu konfrontieren auf breiter ebene damit die sich mehr mit diesen problemen ihrer Engines ausseinandersetzen und nicht einfach sagen ach Deadline das patchen wir nach oder schlimmer (merkt doch eh keiner) ;)

Vor allem wenn jetzt in der AMD Konsollen Konvergenz Nvidia beinträchtigt wird

Offtopic ist hier garnix da es sich im Hilfe Forum befindet und im Zuge eines Systems das probleme aufzeigt diskutiert wird :)

Nur weil Herr Seph meint das es unnütz ist über diese Problematik in welchem Kontext auch immer zu diskutieren wird hier sicher nix geschlossen werden, du kannst dich dem ganzen ja fernhalten zwingt dich doch niemand hier mitzulesen, wir haben deine bedenken ja schon aussreichend zur kenntnis genommen hier.

Im Nvidia treiber gibt es noch weitaus mehr faktoren die noch viele nicht beleuchtet haben nirgends, weil es eben Aufwändig ist vor allem die Relationen zu einander zu verstehen ohne Code, vor allem für eine neue Architektur die vom Ansatz doch sehr abweichend zu den letzten ist.
Zudem verdammt viele neue Faktoren hinzugekommen sind die Nvidia selbst erstmal auf die Reihe kriegen muss und da bedarf es immer Feedback.

dargo
2014-11-01, 13:40:19
Danke Cruncher, wenigstens einer der versteht worum es geht. Dieses "Fanboy"gelaber einzelner Personen in diesem Forum ist hier echt fehl am Platz. :down: Wie du schon sagst... neue Hardware, neue Herausforderungen.

Kleiner Zwischenstand... ich habe jetzt schnell die HD7950 vom Kollegen in meinen Rechner verbaut. Vorher mit der GTX970 über die Systemsteuerung den Grafiktreiber und PhysX Treiber deinstalliert (mehr hatte ich nicht drauf). Danach mit DDU alles was mit Nvidia zu tun hat entfernt und anschließend die Radeon verbaut. Den Catalyst 14.9.2 Beta installiert. Kurzer Schnelltest mit Crysis 3... keine Ruckler, kein Stuttering!!! Egal wie schnell ich mich mit der Maus drehe oder laufe/gehe. Genaue Messdaten folgen erst heute Abend (hoffe ich), ansonsten erst morgen. Ich muss mich gleich fertig und bald auf den Weg machen.

-/\-CruNcher-/\-
2014-11-01, 15:10:11
Danke Cruncher, wenigstens einer der versteht worum es geht. Dieses "Fanboy"gelaber einzelner Personen in diesem Forum ist hier echt fehl am Platz. :down: Wie du schon sagst... neue Hardware, neue Herausforderungen.

Kleiner Zwischenstand... ich habe jetzt schnell die HD7950 vom Kollegen in meinen Rechner verbaut. Vorher mit der GTX970 über die Systemsteuerung den Grafiktreiber und PhysX Treiber deinstalliert (mehr hatte ich nicht drauf). Danach mit DDU alles was mit Nvidia zu tun hat entfernt und anschließend die Radeon verbaut. Den Catalyst 14.9.2 Beta installiert. Kurzer Schnelltest mit Crysis 3... keine Ruckler, kein Stuttering!!! Egal wie schnell ich mich mit der Maus drehe oder laufe/gehe. Genaue Messdaten folgen erst heute Abend (hoffe ich), ansonsten erst morgen. Ich muss mich gleich fertig und bald auf den Weg machen.

Dargo welche optionen nutzt du in Crysis 3 beim testen ?

ist das MB aktiv das DOF das SSDO ?

Hübie
2014-11-01, 15:26:12
Hallo dargo.

Schön dass du wenigstens einen Teil des Problems eingrenzen konntest. Ich selber habe global die Gamma-Korrektur an und schalte die individuell in manchen Spielen ab. Also liegt da auch die Gemeinsamkeit bei unseren Tests. Ich mache das seit Jahren und denke gar nicht darüber nach. Wenn ich Zeit finde werde ich das im nVidia-Forum mal weiterleiten.
Vielleicht schaffe ich das heute Abend wenn ich mit meinem Scheiß hier durch bin.
Wenn eine Radeon HD7950 out of the box ruckelfrei läuft dann ist definitiv was Faul. Ob nun mit der Abstraktion des Treiber oder der Engine müsste man eben noch feststellen. An einen Hardwarefehler mag ich erst mal nicht glauben, da auch meine Kepler mit delta-compression 2.0 stottern.

Ich bitte alle anderen hier fernzubleiben die kein Interesse daran haben ruckelfreie Spiele zu spielen. Eure unnützen Beiträge kosten einfach nur Zeit und bringen niemanden voran. Ich finde es gut dass dargo trotz so blödsinnigen Gegenwind hartnäckig bleibt und weiter investigativ forscht und testet.

@cruncher: Wahre Worte!

Seph
2014-11-01, 15:32:34
Was ein Bullshit, Hübie. Investigativ ist da gar nichts, nur zufällig. Die Methode ist Skandal und Aberglaube, von einem Irrtum in den anderen. Von der Maus zur Gammakorektur. Was ein Scherz. Die Lösung AMD. Der Erkenntnissgewinn null. Ich beschäftige mich seit Jahren mit nichts anderem als Spiele möglichst ruckelfrei zu bekommen, spiele nur Spiele ernsthaft die smooth laufen. Alles andere wird deinstalliert. Ich hatte Karten von amd und welche von nvidia. Die einzige Regel die es gibt lautet: von Fall zu Fall entscheiden und neu arrangieren.

dildo4u
2014-11-01, 15:42:48
Wie schon geschrieben die Engine hat ein Problem mit Maxwell daher wurde Ryse gepatcht,immer wieder Crysis 3 als Vergleich zu nutzen ist Unsinn.

http://www.computerbase.de/2014-10/ryse-patch-beschleunigt-nvidia-amd-grafikkarten/

Hübie
2014-11-01, 16:00:34
Was ein Bullshit, Hübie. Investigativ ist da gar nichts, nur zufällig. Die Methode ist Skandal und Aberglaube, von einem Irrtum in den anderen. Von der Maus zur Gammakorektur. Was ein Scherz. Die Lösung AMD. Der Erkenntnissgewinn null. Ich beschäftige mich seit Jahren mit nichts anderem als Spiele möglichst ruckelfrei zu bekommen, spiele nur Spiele ernsthaft die smooth laufen. Alles andere wird deinstalliert. Ich hatte Karten von amd und welche von nvidia. Die einzige Regel die es gibt lautet: von Fall zu Fall entscheiden und neu arrangieren.

Jahrelang beschäftigt und dann nur so eine schwache Erkenntnis. Das nennt man Zeitverschwendung. Aber danke für deinen persönlichen Bullshit. Du stellst in Sekunden sicher dass man dich nicht ernst nehmen braucht.

@dildo4u: Es ist aber mit Kepler genau so. Ryse hat auch nach dem Patch ein Problem in Bewegung. Stehe ich still sind die frametimes konstant (auch wenn auf dem Schirm Bewegungen sind). Sobald ich mich drehe stottern die hin und her. Crysis 3 genau das gleiche Problem.

Seph
2014-11-01, 16:03:37
Schwach? Ich würde sagen eher wesentlich. Vorallem wesentlicher als die pseudo - Wissenschaft, die hier gerade intensiv betrieben wird.

Ihr werdet zur gleichen Erkenntnis kommen.

dargo
2014-11-01, 19:04:41
Ok... die ersten Vergleiche mit Crysis 3 sind fertig.

Als Test habe ich mein Savegame genommen und mich selbst nicht von der Stelle bewegt sondern nur eine möglichst gleichmäßige Mausbewegung, ergo Drehung links/rechts ausgeführt.

GTX970 @1920x1080, max. Details, kein Motionblur, Vsync Off
50148

HD7950 @1280x720, max. Details, kein Motionblur, Vsync Off
50145

HD7950 @1920x1080, max. Details, kein Motionblur, Vsync Off
50146

HD7950 @1280x720, max. Details, kein Motionblur, Vsync Off, freier Lauf mit wilden Schwenks mit Hilfe der Maus
50147

720p bei der Radeon gewählt um vergleichbare Frameraten zur GTX970 zu erreichen. Zur GTX970 habe ich jetzt leider keine Messdaten zum freien Lauf, dort sieht es aber sehr übel aus. Muss ich nachholen wenn die Karte wieder im System steckt. Im schlimmsten Fall sind die Ausschläge also bei der Radeon bis zu ~20ms, für mich nicht also Stuttering Ingame wahrnehmbar. Bei der GTX970 sinds beim Test im schlimmsten Fall bis zu ~70ms. Das vernehme ich sehr gut als Ruckler/Stotterer.

PS: Timer Resolution in beiden Fällen bei 1ms.

Wie schon geschrieben die Engine hat ein Problem mit Maxwell daher wurde Ryse gepatcht,immer wieder Crysis 3 als Vergleich zu nutzen ist Unsinn.

http://www.computerbase.de/2014-10/ryse-patch-beschleunigt-nvidia-amd-grafikkarten/
Du kommst schon wieder mit nichts sagenden Frameraten. :freak: Frameraten sind heute nichts mehr wert. Das wissen SLI/CF User nur zu gut.

Dargo welche optionen nutzt du in Crysis 3 beim testen ?

ist das MB aktiv das DOF das SSDO ?
Maximale Details ohne Motion Blur. Die Details spielen aber eine unwesentliche Rolle imo.

Hallo dargo.

Schön dass du wenigstens einen Teil des Problems eingrenzen konntest. Ich selber habe global die Gamma-Korrektur an und schalte die individuell in manchen Spielen ab. Also liegt da auch die Gemeinsamkeit bei unseren Tests. Ich mache das seit Jahren und denke gar nicht darüber nach. Wenn ich Zeit finde werde ich das im nVidia-Forum mal weiterleiten.

Das wäre super. Wie gesagt ist das Problem mit Gammakorrektur Off nicht komplett aus der Welt @GM204 in Crysis 3. Es ist aber schon eine wesentliche Verbesserung. Es wäre echt schön zu erfahren woran es denn nun dort klemmt.


Wenn eine Radeon HD7950 out of the box ruckelfrei läuft dann ist definitiv was Faul. Ob nun mit der Abstraktion des Treiber oder der Engine müsste man eben noch feststellen. An einen Hardwarefehler mag ich erst mal nicht glauben, da auch meine Kepler mit delta-compression 2.0 stottern.

Das ist ja interessant. Da du einen Kepler hast... könntest du mir einen Gefallen tun? Teste bitte wenn du mal etwas mehr Zeit hast einen älteren Grafiktreiber in Crysis 3 bevor dieser DX11 Overhead reduziert wurde (weiß jetzt nicht welcher letzter Treiber ohne die Verbesserungen war). Ich kanns mit Maxwell leider nicht. Es muss natürlich nichts damit zu tun haben, aber wer weiß? Vielleicht hat sich da einfach nur ein blöder Bug eingeschlichen.

Edit:
Bioshock Infinite Benchmark mit max. Details @1920x1080, Vsync Off.

GTX970
http://abload.de/thumb/bioshock_inf_vsync_offaqv1.png (http://abload.de/image.php?img=bioshock_inf_vsync_offaqv1.png)

HD7950
http://abload.de/thumb/bioshock_infinite_vsyf9q4m.png (http://abload.de/image.php?img=bioshock_infinite_vsyf9q4m.png)

Subjektiv kein Stuttering bei der Radeon sichtbar, nur Tearing. Der mittlere Ausschlag ist wie schon von InsaneDruid bestätigt Szenenwechsel.

Bei GM204 ist alles bestens, ja ne ist klar. :rolleyes:

aufkrawall
2014-11-01, 19:41:01
Schwach? Ich würde sagen eher wesentlich. Vorallem wesentlicher als die pseudo - Wissenschaft, die hier gerade intensiv betrieben wird.

Ihr werdet zur gleichen Erkenntnis kommen.
Ich les auch nur noch mit Popcorn.
970 Gaming ist nun hier eingebaut, kein ominöses Ruckeln irgendwo...

dargo
2014-11-01, 19:49:29
Jetzt wo die HD7950 verbaut ist fällt mir auf, dass ich in diesem Post...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10406941&postcount=8571

kein Tearing habe wenn ich das Bild mit dem Balken unten links/rechts verschiebe. Bei der GTX970 hatte ich dort starkes Tearing.

Ich les auch nur noch mit Popcorn.
970 Gaming ist nun hier eingebaut, kein ominöses Ruckeln irgendwo...
Ich brauche Messdaten, kein dummes Gequatsche. Savegame für Crysis 3 kann ich liefern. Wenn bei dir alles bestens ist muss man dann weiter schauen was die Ursache sein könnte. Schließlich ist das einzige im System was bei uns gleich ist nur die Grafikkarte.

aufkrawall
2014-11-01, 19:57:28
Deine Messdaten sind unter Umständen wesentlich weniger wert als mein dummes Gequatsche, weil mein Hirn im Gegensatz zu Fraps/Afterburner die tatsächliche Bildausgabe mitbekommt.
Ich habe schon auf pcper verwiesen. Nur weil eine Methode objektiv ist, heißt das nicht, dass die Validität gegeben ist.

dargo
2014-11-01, 20:02:29
Deine Messdaten sind unter Umständen wesentlich weniger wert als mein dummes Gequatsche, weil mein Hirn im Gegensatz zu Fraps/Afterburner die tatsächliche Bildausgabe mitbekommt.

Na du musst ein Superhirn haben wenn du noch Ausschläge merkst die ein Afterburner kaum mehr erfasst. :rolleyes: Vergiss es einfach. Wenn du eh nichts konstruktives beitragen kannst, ähm... willst bleibe auch du bitte diesem Thread fern.

InsaneDruid
2014-11-01, 20:09:50
Jetzt wo die HD7950 verbaut ist fällt mir auf, dass ich in diesem Post...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10406941&postcount=8571

kein Tearing habe wenn ich das Bild mit dem Balken unten links/rechts verschiebe. Bei der GTX970 hatte ich dort starkes Tearing.


Strange, hab ich nicht. Tearing im Browser?

Seph
2014-11-01, 20:13:14
Deine Messdaten sind unter Umständen wesentlich weniger wert als mein dummes Gequatsche, weil mein Hirn im Gegensatz zu Fraps/Afterburner die tatsächliche Bildausgabe mitbekommt.
Ich habe schon auf pcper verwiesen. Nur weil eine Methode objektiv ist, heißt das nicht, dass die Validität gegeben ist.

Richtig. Evil Within Demo stottert konstant und heftig, obwohl die Frametimes eine Flatline sind. Und rund geht es im Kreis... :)

dargo
2014-11-01, 20:20:59
Strange, hab ich nicht. Tearing im Browser?
Jep.

Metro: Last Light - hier muss man etwas aufpassen. Die Testszene ist nicht 100% reproduzierbar. Ich laufe noch ziemlich am Anfang vom Spiel in den engen Gängen wo man sich in der Waffenkammer seine Waffen besorgen soll. Für einen Vergleich um die Problematik zu zeigen reicht es aber. Auch hier bei der Radeon 720p gewählt um wenigstens ansatzweise vergleichbare Frameraten zu erzielen.

GTX970 @1080p
50149

HD7950 @720p
50150

HD7950 @1080p
50161

Hier sieht man ganz gut, dass die Frametimes in Metro: LL bei der Radeon mit stärkeren GPU-Last schlechter ausfallen. Wenn also beide nicht optimal laufen würde ich es eher auf das Spiel schieben. Allerdings läuft die GTX970 trotz geringerer GPU-Last über die Testszene schlechter.

fondness
2014-11-01, 20:29:43
Deine Messdaten sind unter Umständen wesentlich weniger wert als mein dummes Gequatsche, weil mein Hirn im Gegensatz zu Fraps/Afterburner die tatsächliche Bildausgabe mitbekommt.
Ich habe schon auf pcper verwiesen. Nur weil eine Methode objektiv ist, heißt das nicht, dass die Validität gegeben ist.

Das gilt allerdings auch für FCAT und damit pcper. Um tatsächlich die Bildausgabe zu messen müsste man diese direkt am Ausgang der Grafikkarte abgreifen.

Ansonsten: Das Nvidias Multi-Core Optimierung die DX11-Specs verletzt ist kein Geheimnis, da NV Dinge parallelisiert wo eine sequentielle Ausführung vorgesehen ist. Dass das zu einer ungleichmäßigen Frameausgabe führen kann ist möglich, da die Threads alleine schon durch den Scheduler des OS und diversen anderen Seiteneffekten in unterschiedlicher Geschwindigkeit ausgeführt werden. Dazu müsste man allerdings wissen was NV genau macht.

aufkrawall
2014-11-01, 20:32:47
Es ist logisch, dass FCAT wesentlich näher dran ist als alles andere.

dargo
2014-11-01, 21:14:57
Pendeldemo von Nvidia.

GTX970 @Vsync On mit Firefox im Hintergrund
50153

GTX970 @Vsync On ohne Firefox im Hintergrund
50156

HD7950 @Vsync On mit Firefox im Hintergrund
50155

HD7950 @Vsync On ohne Firefox im Hintergrund
50154

-/\-CruNcher-/\-
2014-11-01, 22:03:43
Das gilt allerdings auch für FCAT und damit pcper. Um tatsächlich die Bildausgabe zu messen müsste man diese direkt am Ausgang der Grafikkarte abgreifen.

Ansonsten: Das Nvidias Multi-Core Optimierung die DX11-Specs verletzt ist kein Geheimnis, da NV Dinge parallelisiert wo eine sequentielle Ausführung vorgesehen ist. Dass das zu einer ungleichmäßigen Frameausgabe führen kann ist möglich, da die Threads alleine schon durch den Scheduler des OS und diversen anderen Seiteneffekten in unterschiedlicher Geschwindigkeit ausgeführt werden. Dazu müsste man allerdings wissen was NV genau macht.

Jo, allerdings hat sich die Auswirkungen auch niemand wirklich direkt angeschaut vor allen in Multitasking Szenarios die meisten waren nur auf FPS fixiert

Pendeldemo von Nvidia.

GTX970 @Vsync On mit Firefox im Hintergrund
50153

GTX970 @Vsync On ohne Firefox im Hintergrund
50156

HD7950 @Vsync On mit Firefox im Hintergrund
50155

HD7950 @Vsync On ohne Firefox im Hintergrund
50154


Wow

Aber wie gesagt auf meinem system sehe ich die fluktuationen aber sie schlagen sich nicht merkbar auf die frametimes aus erzeugen nur den lüfter spike in intervalen

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10401505#post10401505

und gestotere hatte ich weder beim Pendulum noch beim Pendulum Spin test mit Limiter, einen ständigen Limiter von 60 FPS ist eh sehr ratsam aus verschiedenen gründen ausser beim Video Playback da würde ich keinen Limiter forcieren.

Kartenlehrling
2014-11-01, 22:54:40
Ich warte ja darauf das ein Nvidia Mitarbeiter hier in den Thread kommt und @Dargo eine TitanZ anbiete damit er endlich ruhe gibt.

Darque
2014-11-01, 23:43:48
@ Dargo

Hier als kurzer Vergleich mit meiner Asus Strix GTX 970 mit der Pendeldemo @ 1920x1200 und V-Sync @ 60Hz.
FPS sind stabil, ob Firefox im Hintergrund läuft oder nicht, spielt keine Rolle.
Werte verhalten sich immer gleich stabil.

Meine Spiele die ich momentan drauf habe:
- Risen 3
- Alien Isolation
- Sonic Generations
- Mechwarrior Online (CryEngine 3)
- Batman: Arkham Origins

Keines hat irgendwelche (Mikro)Ruckler, Aussetzer oder sonstige Macken mit V-Sync.
60fps sind stabil wenn nicht gerade etwas nachgeladen werden muss.
Sonic Generations @ 2400p DSR wo die Kamera oft mal sehr schnell dreht läuft auch butterweich.

Am Treiber 344.48 habe ich außer AF HQ und DSR x4 nichts verstellt.

Gast
2014-11-02, 00:26:22
Pendeldemo von Nvidia.
GTX970 @Vsync On mit Firefox im Hintergrund
50153
Denke mal die Karte ist kaputt @dargo, dürfte die digitale VRM sein oder eine Rail deines Netzteil hat es hinter sich. Sieh dir mal bitte die in Abständen auftretenden Fluktuationen des GPU Taktes an. Hast du irgendetwas verstellt oder dergeichen, rennt die GPU ins Templimit oder PT? Wenn nicht ist sie definitiv defekt. Könnte auch mit deinem Mainbord zusammenhängen.

Gast
2014-11-02, 01:31:52
Die Karte ist übertaktet und rennt ins PT, dass ist doch hier die reinste Verarsche. Boost ab Werk sind 1253Mhz und in der Tabelle liegen 1315Mhz an. Wer weiß was dort eingestellt ist.

dargo
2014-11-02, 08:18:47
Wow

Aber wie gesagt auf meinem system sehe ich die fluktuationen aber sie schlagen sich nicht merkbar auf die frametimes aus erzeugen nur den lüfter spike in intervalen

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10401505#post10401505

und gestotere hatte ich weder beim Pendulum noch beim Pendulum Spin test mit Limiter, einen ständigen Limiter von 60 FPS ist eh sehr ratsam aus verschiedenen gründen ausser beim Video Playback da würde ich keinen Limiter forcieren.
Cruncher, Stuttering habe ich bei der Pendeldemo auch nicht. Die Schwankungen in der Pendeldemo betragen gerade mal 5ms, das merkst du nicht. Wenn du das merkst läuft nahezu kein Spiel flüssig da dieser Bereich in vielen Spielen völlig normal ist @DX. Zudem... du hast zusätzlich einen Framelimiter benutzt, ich nicht. Mit 60fps Limit hatte ich auch glatte 16,xxms.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401040&postcount=506

Da stelle ich mal die berechtigte Frage... warum ist bei Tahiti zusätzlich kein 60fps Limit nötig, bei GM204 aber schon?

@ Dargo

Hier als kurzer Vergleich mit meiner Asus Strix GTX 970 mit der Pendeldemo @ 1920x1200 und V-Sync @ 60Hz.
FPS sind stabil, ob Firefox im Hintergrund läuft oder nicht, spielt keine Rolle.
Werte verhalten sich immer gleich stabil.

Meine Spiele die ich momentan drauf habe:
- Risen 3
- Alien Isolation
- Sonic Generations
- Mechwarrior Online (CryEngine 3)
- Batman: Arkham Origins

Keines hat irgendwelche (Mikro)Ruckler, Aussetzer oder sonstige Macken mit V-Sync.
60fps sind stabil wenn nicht gerade etwas nachgeladen werden muss.
Sonic Generations @ 2400p DSR wo die Kamera oft mal sehr schnell dreht läuft auch butterweich.

Am Treiber 344.48 habe ich außer AF HQ und DSR x4 nichts verstellt.
Ich sehe da bei dir auch keine absolut glatte Linie bei den Frametimes. Dein Graphen ist aber auch viel zu klein um das genau zu deuten. Schmeiß mal bitte den ganzen anderen Balast weg und lasse am besten nur den GPU-Takt, die Framerate und die Frametimes erfassen. Schon kann man es besser sehen.

Denke mal die Karte ist kaputt @dargo, dürfte die digitale VRM sein oder eine Rail deines Netzteil hat es hinter sich. Sieh dir mal bitte die in Abständen auftretenden Fluktuationen des GPU Taktes an.
Das liegt nur an der Pendeldemo mit SSAA. Dort ist offenbar die Shaderlast sehr hoch. In keinem Spiel ist mir das so vorgekommen. In einem Crysis 3 bin ich beim PT und Full-HD bei gerade mal ~84%. Wenn man sich dem PT nähert ist klar, dass die Karte dann minimal runtertaktet. Das ist halt auch GPU-Boost 2.0. Wahrscheinlich würde ein PT von 103-105% schon reichen um die 1316Mhz immer halten zu können in der Pendeldemo.

Diese Taktschwankungen bei der GPU sind übrigens mit zusätzlichem 60fps Limit noch da und trotzdem gibts aalglatte 16,xxms.
www.forum-3dcenter.org/vbulletin/showpost.php?p=10401040&postcount=506/showpost.php?p=10401040&postcount=506

Die Karte ist übertaktet und rennt ins PT, dass ist doch hier die reinste Verarsche. Boost ab Werk sind 1253Mhz und in der Tabelle liegen 1315Mhz an. Wer weiß was dort eingestellt ist.
:rolleyes:

Schau dir mal den Graphen von Darque an. Seine Asus boostet auch nur bis 1253Mhz. Bei Cruncher mit seiner Galax ist es auch nicht anders... max. Takt 1304Mhz, trotz 1266Mhz Boost.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10401505&postcount=555
http://www.galax.net/europe/970exoc.html


Ansonsten: Das Nvidias Multi-Core Optimierung die DX11-Specs verletzt ist kein Geheimnis, da NV Dinge parallelisiert wo eine sequentielle Ausführung vorgesehen ist. Dass das zu einer ungleichmäßigen Frameausgabe führen kann ist möglich, da die Threads alleine schon durch den Scheduler des OS und diversen anderen Seiteneffekten in unterschiedlicher Geschwindigkeit ausgeführt werden. Dazu müsste man allerdings wissen was NV genau macht.
Das ist mir alles zu schnell ohne genug Gegentests geurteilt. Ich sehe das auch etwas neutraler als du (:wink:) da ich keine Sympathie zu irgendeinen IHV entwickle. Mir ist es schei... egal ob in meinem Rechner Intel/AMD oder Nvidia steckt. Ich schau mir die Sachen an was sie pro Euro bieten und danach fällt die Kaufentscheidung.

Ich glaube zb. an ein generell kaputtes Multithreading nicht wirklich. Dafür gibt es paar Gründe.
1. Es gibt bei mir DX11 Spiele die mit sauberen Frametimes (im Rahmen der Möglichkeiten von DX) laufen.
2. Mit deaktivierter Antialiasing-Gammakorrektur läuft plötzlich Crysis 3 bei mir wesentlich besser. Was hat Gammakorrektur mit Multithreading zu tun? Klingt für mich erstmal unlogisch.
3. Dann konnte ich bei Assetto Corsa trotz Gammakorrektur On bei 60Hz mit Vsync On nur durch die Anhebung der Speicherbandbreite um knapp 6% die einzelnen Spikes komplett eliminieren.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10407505&postcount=690

Ich hätte jetzt eigentlich nicht gedacht, dass gerade die GTX970 so stark an der Bandbreite hängt. GTX980 schon eher, aber GTX970?

Das schlimme in diesem Thread ist... es wird zwar viel diskutiert, bei mir läuft alles super usw., aber Messdaten kommen praktisch von keinem. Außer bisher InsaneDruid, und dafür bin ich ihm sehr dankbar. Denn auch bei ihm sieht man in dem Benchmark von Bioshock Infinite, dass dort nicht alles sauber gerendert wird. Einen Vergleich mit HD7950 hatte ich bereits geliefert. Die Spikes sind bei InsaneDruid zwar geringer als bei mir mit der GTX970. Der hat aber auch einen übertakteten Lynnfield mit 4C/4T. Es wäre also durchaus möglich, dass es daran liegt. Stattdessen haut man mir Frametimes diverser Reviews vom GM204 um die Ohren. Dabei hatte ich bereits gesagt, dass diese für mich solange wertlos sind solange wir als Privatanwender keinen Zugrif auf den FW344.07 haben. Ist leider bei einigen offenbar immer noch nicht angekommen. Ich würde zu gerne auch mit dem FW344.07 testen, leider nicht zugänglich.

Edit:
Ich habe jetzt noch Tomb Raider 2013 und Ryse mit der Radeon getestet. Wenn die GTX970 wieder drin ist teste ich diese dann auch noch. Eins vorweg... Ryse läuft was Frametimes angeht bei der Radeon nicht wirklich gut. Als nächstes steht heute auf dem Plan die GTX970 in folgendem System vom Kollegen testen:

i5-750@3,6Ghz
Asus P7P55D
2x 4GB DDR3-1866
1TB HDD
XFX Pro 550W Netzteil

Hier wird allerdings Windows 8.1 verwendet. Wie ich aber durch jede Menge Tests feststellen durfte spielt das bei der GTX970 keine Rolle ob Windows 7 oder Windows 8.1.

Darque
2014-11-02, 11:09:33
Hier, bitte. Nur deine genannten Dinge im Graphen.
Interessant dabei ist, dass nach dem deaktivierender der anderen Werte, die Frametime quasi konstant bei 17.xx und 18.xx war, und nicht wie davor ständig zwischen 17.xx und 19.xx hin und her sprang.
17 und 18 wechseln sich erst nach vielen Minuten ab und bleiben dann erstmal so. Größtenteils läuft es aber mit 17.xx.

Aber ganz ehrlich, was mir hier irgendwelche Tools anzeigen, interessiert mich nicht.
So lange ich beim SPIELEN keine Probleme habe, läuft auch kein Monitoring-Tool im Hintergrund mit.

Wenn ich z.B. im Treiber das Prerender-Limit von Standard auf 1 ändere, bekomme ich (je nach Spiel) auch manchmal Mikroruckler.

Wie gesagt, beim spielen habe ich weder Ruckler, Aussetzer oder sonstige störende Probleme mit V-Sync. Auch habe ich nur AF HQ und DSR x4 eingestellt.

Ich hatte davor eine Sapphire Radeon HD 7950. Vom Spielgefühl her wars gleich.
Die Nvidia hat nun halt mehr Leistung und ich muss für 60 fps V-Sync keine großartigen Kompromisse bei den Grafiksettings machen.

Wenn du kannst, dann könntest du ja auch mal einen anderen Monitor probieren.
Könnte ja sein, dass deine Grafikkarte hier und da Synchronisationsprobleme hat.

dargo
2014-11-02, 11:19:34
Hier, bitte. Nur deine genannten Dinge im Graphen.
Interessant dabei ist, dass nach dem deaktivierender der anderen Werte, die Frametime quasi konstant bei 17.xx und 18.xx war, und nicht wie davor ständig zwischen 17.xx und 19.xx hin und her sprang.
17 und 18 wechseln sich erst nach vielen Minuten ab und bleiben dann erstmal so. Größtenteils läuft es aber mit 17.xx.

Das könnte eventuell am höheren Overhead liegen wenn du viel mehr Daten erfasst. Du kannst dir den Overhead im Graphen mit "Zeige Status" anzeigen lassen.


Aber ganz ehrlich, was mir hier irgendwelche Tools anzeigen, interessiert mich nicht.
So lange ich beim SPIELEN keine Probleme habe, läuft auch kein Monitoring-Tool im Hintergrund mit.

Du hast dir mit der Pendeldemo ganz schlechtes Beispiel ausgesucht. Dort habe ich auch kein vernehmbares Stuttering. Spiele wie zb. Crysis 3 oder der Bioshock Infinite Benchmark wäre viel interessanter zu sehen wie es sich bei dir verhält.


Wenn ich z.B. im Treiber das Prerender-Limit von Standard auf 1 ändere, bekomme ich (je nach Spiel) auch manchmal Mikroruckler.

Aha... interessant. Messdaten wären hier hilfreich.


Wenn du kannst, dann könntest du ja auch mal einen anderen Monitor probieren.
Könnte ja sein, dass deine Grafikkarte hier und da Synchronisationsprobleme hat.
Hatte ich schon, Panasonic GW20 Plasma, die gleichen Probleme.

dildo4u
2014-11-02, 11:45:23
Bei den Pendel Demo sieht man doch schon das es bei dir unsauberer läuft da brauchste nicht weiter testen.Diese Demo ist sogar der ideal Fall um das zu testen,das sie kaum CPU Last erzeugt.

aufkrawall
2014-11-02, 11:50:32
Diese Demo ist für Monitore ohne Gsync leider dämlich, da immer ein fps-Limit vorliegt.

Darque
2014-11-02, 11:59:15
Du hast dir mit der Pendeldemo ganz schlechtes Beispiel ausgesucht. Dort habe ich auch kein vernehmbares Stuttering. Spiele wie zb. Crysis 3 oder der Bioshock Infinite Benchmark wäre viel interessanter zu sehen wie es sich bei dir verhält.
Deine Pendeldemo-Screens sind im Vergleich zu meinen aber sehr unruhig. FPS und GPU-Takt sind nicht stabil und die Frametimes sehen auch sehr unruhig aus.

Crysis 3 habe ich nicht, momentan nur MWO das auch die CryEngine 3 benutzt. Aber auch hier keine Mikroruckler bei DX11 und max. Details @ V-Sync.
Bioshock Infinite müsste ich mir erstmal wieder runterladen, was bei meiner lahmen Verbindung dauern wird.
Könnte das dann morgen testen.

Aha... interessant. Messdaten wären hier hilfreich.
Wenn du mir ein Beispiel nennst, wo ich das machen könnte, könnte ich das ja mal bei Gelegenheit machen.
Ansonsten suche ich mir selbst bestimmte/betroffene Stellen aus.

Hatte ich schon, Panasonic GW20 Plasma, die gleichen Probleme.
Ich meinte eigentlich einen normalen Monitor über DVI oder DisplayPort.

dargo
2014-11-02, 12:27:09
Deine Pendeldemo-Screens sind im Vergleich zu meinen aber sehr unruhig. FPS und GPU-Takt sind nicht stabil und die Frametimes sehen auch sehr unruhig aus.

Ja... das ist richtig. Ich bin aber nicht der einzige. Bei Cruncher sieht es ähnlich aus. Er kriegt nur die Frametimes in der Pendeldemo ruhig gestellt wenn er zusätzlich mit RTSS die Frames auf 60fps limitiert. Ist bei mir genau das selbe. Einen Test mit Vsync On ohne externen Framelimit bleibt uns Cruncher noch schuldig (@Cruncher ;)). Ich bin mir jetzt zwar nicht sicher ob das der Grund ist, aber wir vergleichen hier zu viel quer. Ich sehe zb. aus deinem Post, dass du den FW344.48 verwendest. Ich und Cruncher konzentrieren uns immer noch auf den FW344.11. Wenn ich die GTX970 wieder im Rechner habe muss ich mir speziell die Pendeldemo mit Vsync On ohne externen Framelimit von 60fps mit dem FW344.48 anschauen. Es wäre durchaus denkbar, dass es hier schon besser läuft. Nur so eine Idee erstmal. :)


Crysis 3 habe ich nicht...

Ist zwar schade, kann man dann nichts machen.


Bioshock Infinite müsste ich mir erstmal wieder runterladen, was bei meiner lahmen Verbindung dauern wird.
Könnte das dann morgen testen.

Das wäre prima, mache das bitte. Weil dann hätten wir schon 3 verschiedene Systeme im Vergleich. Und dann gib bitte immer den Grafiktreiber dabei als Info. :)


Wenn du mir ein Beispiel nennst, wo ich das machen könnte, könnte ich das ja mal bei Gelegenheit machen.
Ansonsten suche ich mir selbst bestimmte/betroffene Stellen aus.

Wie soll ich dir Beispiele geben wenn ich noch nicht mal weiß was du so alles an Spielen hast? :usad: Suche dir am besten die Stellen gut reproduzierbar raus wo dir schon beim Spielen Mikroruckler auffallen und dann messe nach. Wenn ich die gleichen Spiele habe kann ich es dann versuchen nachzustellen.


Ich meinte eigentlich einen normalen Monitor über DVI oder DisplayPort.
Dann müsste ich mir einen TFT von der Arbeit klauen, ähm... ausleihen. :tongue: Ich meine wir haben sogar einen 19 Zöller mit 1280x1024 auf Reserve. :uponder: Eventuell lässt sich da nächste Woche wirklich was machen.

Diese Demo ist für Monitore ohne Gsync leider dämlich, da immer ein fps-Limit vorliegt.
Da ist leider was Wahres dran. Die Frage bleibt dennoch offen warum ich Schwankungen von ~5ms mit dem FW344.11 @Vsync On und dem Framelimit der Pendeldemo habe solange der FF im Hintergrund läuft?

Edit:
Und nochmal an alle der Hinweis! Ich bin nicht der einzige in diesem Forum der Probleme mit Stuttering und GM204 in verschiedenen Spielen (nicht allen!) hat!!!

Ich habe nebenbei auch einige Unterhaltungen mit Grestorn über PMs. Er ist ebenfalls vom Stuttering betroffen. Warum er erstmal dazu nichts schreibt?

In Crysis 3 hatte ich eigentlich nie Probleme. Ich verfolge Deinen Thread ein wenig, es sieht ja so aus, als könnten Deine Probleme auch von einem CPU Limit kommen. Da würde sich mein Rechner sicher ganz anders verhalten. Die Probleme, die ich habe, kommen jedenfalls definitiv nicht von der CPU (die unter Win7 nicht anders ist und mein alter Rechner hatte eine weitaus schwächere CPU).

Ich hab für den Moment das Thema ad Akta gelegt, da ich momentan Mordor spiele, und das sehr rund läuft.


Mit der Erlaubnis von Grestorn habe ich mir erlaubt diesen Post hier öffentlich zu machen.

In dem Sinne wäre es wirklich angebracht hier sachlich zu bleiben, entsprechende Daten auf verschiedenen Systemen zu sammeln und diese an Nvidia weiterzuleiten. Nur so kann man was erzielen!

-/\-CruNcher-/\-
2014-11-02, 12:41:27
Das Haupt Problem bei Crysis 3 es ist für AMD optimiert ;)

Dies bleibt weiterhin bis zum 1 Patch ein Problem bei Ryse und das maximum für Nvidia ist sicher noch nicht erreicht

Nvidia wird sicher versuchen Crysis 3 performanter auf Maxwell zu bekommen und einige von Cryteks Shadern austauschen

dargo
2014-11-02, 12:47:08
Das Haupt Problem bei Crysis 3 es ist für AMD optimiert ;)

Optimierung hin oder her. Dass Crysis 3 grundsätzlich wie Gülle bei mir und Maxwell läuft nehme ich dir aus diesem Grund nicht ab.
http://www.pcper.com/image/view/46565?return=node%2F61245

Aber auch hier nochmal mein Hinweis... FW344.07, den wir nicht haben. Zudem weiß ich nicht welche Szene dort genau getestet wurde. Und ob überhaupt die Maus bewegt wurde oder einfach eine Benchmarkszene von selbst lief?


Dies bleibt weiterhin bis zum 1 Patch ein Problem bei Ryse und das maximum für Nvidia ist sicher noch nicht erreicht

Ich habe jetzt noch Tomb Raider 2013 und Ryse mit der Radeon getestet. Wenn die GTX970 wieder drin ist teste ich diese dann auch noch. Eins vorweg... Ryse läuft was Frametimes angeht bei der Radeon nicht wirklich gut.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10408535&postcount=733

;)

Hübie
2014-11-02, 13:07:11
Also Crysis 3 ist in der Tat problematisch. Habe ein 1,7 GB Video aufgenommen (Kamera) wo ich drauf eingehe. Habe alle möglichen Kombinationen durch. Aktuell ist ein alter Treiber (332.21) installiert der noch nicht diese Optimierung drin hat. Ergebnis ist das gleiche. Egal welche BQ ich einstelle, egal ob 6C/6T oder 6C/12T, ob 3,5 oder 4,5 GHz, egal ob auf SSD oder HDD, Boost nicht boost, PCIE 2.0/3.0, FullHD oder 4k. Es stottert... Ryse ebenfalls. Bewege ich mich in Ryse brechen die Frametimes locker um 15% ein. Call of Duty, Payday 2, Batman Arkham Origins oder Anno 2070 liefen in direkten Anschlusstests flüssig. The Bureau XCOM Declassified bockte etwas. Das prüfe ich gerade. Ich bin wie immer short of time :( Würde gerne eine Zusammenfassung schreiben.

Seph
2014-11-02, 13:35:18
Ich habe Crysis 3 auf meiner 970, nachladen ausgenommen, ruckelfrei durchgespielt. In Kombination mit d3d overrider und MSI Afterburner limit.

-/\-CruNcher-/\-
2014-11-02, 14:06:46
Wie gesagt man sollte auf den Limiter nicht mehr verzichten hier ist das Ergebniss mit Limiter einfach das beste und flüssigste, es entlastet einfach alles unheimlich und zwingt die Shader effizienter zu sein :)

Zudem wird die geräuschkullise einfach super angenehm :)

Was will man den mehr ?

Ich werde noch den Internen Nvidia limiter testen weil ich nicht unbedingt den extra Afterburner overhead die ganze zeit fahren will wenn Nvidias overhead eh schon da ist und dann werd ich nie wieder tests ohne limiter machen ;)


Hier fehlt nur noch das Nvidia Limiter result

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10408305#post10408305

Natürlich bleibt die Frage offen wieso Nvidias Vsync ON so reagiert wie es reagiert im Vergleich zu AMD fakt ist

Nvidia Vsync ON + Limiter (liefert einfach die besten Ergebnise auf den meisten Konfigs)

Auszugehen ist davon das Nvidia aufgrund von G-Sync und Virtual Reality einige extreme Veränderungen am Vsync part vorgenommen hat, vielleicht haben sie dieses Backfire auch noch nicht richtig unter kontrolle.

kruemelmonster
2014-11-02, 14:19:00
Hier, bitte. Nur deine genannten Dinge im Graphen.
Interessant dabei ist, dass nach dem deaktivierender der anderen Werte, die Frametime quasi konstant bei 17.xx und 18.xx war, und nicht wie davor ständig zwischen 17.xx und 19.xx hin und her sprang.
17 und 18 wechseln sich erst nach vielen Minuten ab und bleiben dann erstmal so. Größtenteils läuft es aber mit 17.xx.Das könnte eventuell am höheren Overhead liegen wenn du viel mehr Daten erfasst. Du kannst dir den Overhead im Graphen mit "Zeige Status" anzeigen lassen.


Je öfter du die Hardware durch den Treiber abfragen lässt desto mehr Last erzeugst du für den Treiber und die HW, egal ob nun GPU-Z oder MSI AB genutzt wird. 2000ms reichen imo dicke für die Überwachung ohne gleichzeitig dem Treiber zuviel Last für die Auslesung aufzubürden.

:whistle:

FW344.07, den wir nicht haben

Es gibt auf http://laptopvideo2go.com/drivers zumindest den 344.00 und 344.05, der 07 war wohl nur der Presse zugänglich.

Hübie
2014-11-02, 14:31:43
Ich habe Crysis 3 auf meiner 970, nachladen ausgenommen, ruckelfrei durchgespielt. In Kombination mit d3d overrider und MSI Afterburner limit.

Hab ich ebenfalls getestet :rolleyes: Ich habs zu Release das letzte mal gezockt und da ebenfalls ruckelfrei. Und ohne Beweise glaube ich dir sowie so nix. Hast schließlich schon genug Unsinn verbreitet um deine Glaubwürdigkeit berechtigt anzuzweifeln.

Wie es scheint is mir letzte Nacht ne Graka abgeraucht. Die ollen MSI-Dinger halten offenbar immer nur knapp ein Jahr dann gehen die kaputt. Und wieder 6 Wochen auf den Shop warten um die dann anzumahnen :rolleyes:

aufkrawall
2014-11-02, 14:34:58
Hier ruckelt es auch nicht im GPU-Limit. Sind jetzt alle, bei denen das so ist, unglaubwürdig?
Ihr machts euch ja einfach.

-/\-CruNcher-/\-
2014-11-02, 14:35:09
Meine MSI GTX 460 Hawk hat über 3 jahre gehalten und läuft immernoch bis auf das die lüfter nicht mehr rund laufen ;)

dargo
2014-11-02, 15:04:53
@Cruncher

Wenn das die Lösung momentan bei Nvidia sein soll (immer Framelimit X) dann habe ich nichts dagegen. Aber ob das im Sinne von Nvidia ist bezweifle ich recht stark. Aber du könntest durchaus Recht damit haben, dass Nvidia mit G-Sync und Virtual Reality Vsync aus den Augen verliert. Mir ist nämlich im direkten Vergleich mit der HD7950 folgendes aufgefallen. Wenn im CCC Vsync Off steht und in Assetto Corsa Vsync On ist Ingame auch tatsächlich Vsync On. Dann habe ich hier glatte 30fps (AC nutzt also Doublebuffering) weil die Radeon mit den Settings die 60fps nicht halten kann. Das ist so der große Unterschied der mir zwischen Nvidia und AMD bezüglich Vsync auffällt. Bei Nvidia wird die Spieleinstellung völlig ignoriert. Ist im CP Vsync Off eingestellt ist Ingame auch Vsync Off aktiv.

:whistle:

Du vergisst dabei nur leider einen wichtigen Punkt. Ich erfasse die gleichen Daten mit der Radeon über den Afterburner mit dem selben Zeitintervall. Und oh Wunder... der Overhead im Afterburner ist sogar mit ~2,5ms ca. 1,2ms höher als bei Nvidia.
50168

Dh. Nvidia ist bei den Messungen sogar im Vorteil. Dort lag der Overhead bei ~1,3ms.


Es gibt auf http://laptopvideo2go.com/drivers zumindest den 344.00 und 344.05, der 07 war wohl nur der Presse zugänglich.
Na immerhin etwas. Dummerweise habe ich aber gerade Windows 7 drauf. :usad:

Hab ich ebenfalls getestet :rolleyes: Ich habs zu Release das letzte mal gezockt und da ebenfalls ruckelfrei. Und ohne Beweise glaube ich dir sowie so nix. Hast schließlich schon genug Unsinn verbreitet um deine Glaubwürdigkeit berechtigt anzuzweifeln.

Er versteht immer noch nicht, dass er mit den externen Helferlei u.U. nur die Symptome lindert.

Hier ruckelt es auch nicht im GPU-Limit. Sind jetzt alle, bei denen das so ist, unglaubwürdig?
Ihr machts euch ja einfach.
Du machst es dir noch einfacher, von dir kamen bisher absolut Null Daten. Und was soll dieser Hinweis mit GPU-Limit genau bedeuten? Ruckelt es im CPU-Limit?

aufkrawall
2014-11-02, 15:09:59
Oh man. Bei AMD ist die Vsync-Option einfach ein Placebo. Und vielleicht solltest du mal nachschlagen, was "force off" bedeutet...

dargo
2014-11-02, 15:40:04
Oh man. Bei AMD ist die Vsync-Option einfach ein Placebo. Und vielleicht solltest du mal nachschlagen, was "force off" bedeutet...
Du musst nicht gleich alles so negativ aus dem Zusammenhang reißen. Ich sage weder das es bei Nvidia/AMD gut oder schlecht ist. Obs Placebo ist weiß ich nicht. Jedenfalls hat man afaik mit DX11 in jedem Spiel die Option zu Vsync eingeführt (bei DX9 Games war das afaik nicht oder nicht immer so). Es könnte also auch sein, dass AMD bei DX11 dem Game den Vorrang gibt. Genau weiß ich es nicht. Da ich aber eh zu Testzwecken Alan Wake installiert habe könnte ich es dort mal prüfen.

Also Crysis 3 ist in der Tat problematisch. Habe ein 1,7 GB Video aufgenommen (Kamera) wo ich drauf eingehe. Habe alle möglichen Kombinationen durch. Aktuell ist ein alter Treiber (332.21) installiert der noch nicht diese Optimierung drin hat. Ergebnis ist das gleiche.
Das ist eine sehr wichtige Information für mich, danke. :up:

freeforce
2014-11-02, 15:52:11
@dargo

schonmal dran gedacht ne röhre an den pc zu hängen?

mit nem lcd nimmst du in schnellen szenen doch eh höchsten die hälfte des dargestellten wahr. für deinen test brauchst du eigentlich ne 100hz röhre.

dargo
2014-11-02, 16:02:39
@freeforce

Bitte nicht zu sehr ins OT gehen. :)

Wenn ich den Bildschirm wechsle dann nur TFT mit Freesync. Ob 60Hz (den man in der Regel mit 72Hz fahren kann) oder doch eher 120Hz weiß ich noch nicht. Auf jeden Fall kein TN. IPS ist auch so ne Sache mit dem Schwarzwert, mich konnte kein IPS bisher überzeugen. Ich bevorzuge VA.

kruemelmonster
2014-11-02, 16:39:38
Du vergisst dabei nur leider einen wichtigen Punkt. Ich erfasse die gleichen Daten mit der Radeon über den Afterburner mit dem selben Zeitintervall. Und oh Wunder... der Overhead im Afterburner ist sogar mit ~2,5ms ca. 1,2ms höher als bei Nvidia.
50168

Dh. Nvidia ist bei den Messungen sogar im Vorteil. Dort lag der Overhead bei ~1,3ms.

ANY option affecting system performance (hardware monitoring data polling period, software fan speed update period, OSD rendering options and so on)...
Polling hardware sensors, accessing fan controller and performing other realitme hardware access and programming tasks WILL stall the system. Amount of time periodically spent on such things directly affect stutter feeling.

Hast du denn wenigstens mal ausprobiert ob eine höhere Polling Rate ein höheres Polling Interval was bewirkt? Im Gegensatz zur Gammakorrektur und dem Maustreiber kann ich da nämlich einen logischen Zusammenhang erkennen, von der einfachen Möglichkeit "Karte kaputt" mal abgesehen.
So sieht das AB OSD mit meiner GTX 670 aus, und von schlecht portierten Ruckelhöllen wie XCOM The Bureau mal abgesehen läuft alles geschmeidig:

http://abload.de/img/abplaiuq6.jpg (http://abload.de/image.php?img=abplaiuq6.jpg)