PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA GeForce-Drivers 344.80 Hotfix-Release


Blaire
2014-11-21, 22:31:07
This is a beta driver that addresses the following issues:

• GeForce GTX 980 displays texture shimmering when Texture Filtering Quality set to High Quality.
• GPU outputs fuzzy lines over DisplayPort after a period of time following driver updates.
• System hang up and black screen after power on with some monitors (DP1.2 & 4K/60Hz) + GTX980

Desktop-Drivers:

Windows Vista/7/8/8.1 64-Bit
International Version: http://international.download.nvidia.com/Windows/344.80/344.80-desktop-win8-win7-winvista-64bit-international-whql.exe

Windows Vista/7/8/8.1 32-Bit
International Version: http://international.download.nvidia.com/Windows/344.80/344.80-desktop-win8-win7-winvista-32bit-international-whql.exe

Notebook-Drivers:

Windows Vista/7/8/8.1 64-Bit
International Version: http://international.download.nvidia.com/Windows/344.80/344.80-notebook-win8-win7-64bit-international-whql.exe

Windows Vista/7/8/8.1 32-Bit
International Version: http://international.download.nvidia.com/Windows/344.80/344.80-notebook-win8-win7-32bit-international-whql.exe

Nur als Zusatzinfo: Der HighQuality-Texture Filter Bug bezieht sich nur auf neuere GTX 970/980, der Modus war seit offiziellen Release für >DX10/DX11 kaputt und hatte mit Texture-Shimmering zu kämpfen, das wurde nun mit diesem Hotfix fehlerbereinigt. Spezieller Dank nochmal an aufkrawall, welcher mit mir zusammen diese Unstimmigkeiten feststellte. NV hat sich derer angenommen und den Bug nun beseitigt.

http://nvidia.custhelp.com/app/answers/detail/a_id/3607

aufkrawall
2014-11-21, 23:55:35
Super, dass der Fix so schnell verfügbar ist. :)

Hab auf die Schnelle mal die fps in AC: U verglichen (vollständiges GPU-Limit, FXAA + Lumasharpen, alles max bis auf soft shadows):

HQ: 41,2fps (max fps):
http://abload.de/thumb/acu_2014_11_21_23_46_68c9q.png (http://abload.de/image.php?img=acu_2014_11_21_23_46_68c9q.png)

Q tril Optm. an: 42,4fps (Treiber-Standard, max fps):
http://abload.de/thumb/acu_2014_11_21_23_48_cne0b.png (http://abload.de/image.php?img=acu_2014_11_21_23_48_cne0b.png)

Konnte in BF4 auf Rogue Transmission auch keine Auffälligkeiten feststellen, was früher mal mit Kepler der Fall war (Q tril. Opt. aus entspricht dem neuen HQ, bis auf gefixte LOD-Verschiebung). Konnte auch keinen Unterschied zu aktuell GK110 Q tril. Optm. aus feststellen (Letzteres nur subjektiv & bei verschiedener Auflösung allerdings).

Scheint nun alles bestens zu sein. :)

Edit: Sehe gerade, bei den Screens ist das Wetter verschieden. Man kann sicherlich noch bessere Beispiele finden.

Raff
2014-11-22, 00:13:43
Ah, das betraf nur DX1x. Erklärt, warum das nicht überall sichtbar war und ich es u. a. mit Skyrim nicht nachstellen konnte. Unfassbar, dass sowas beiden IHVs immer noch passiert. Irgendwie glaube ich da nicht mehr an Bugs - kostet der/die/das Fix Leistung? GM204 hat recht wenig Texfill, daher ist Skepsis angebracht.

MfG,
Raff

Blaire
2014-11-22, 00:26:10
Es war ein Bug, keine Verschwörungstheorien. :) Raff fragt von PCGH selber bei NV nach, ich kann da nicht viel zu schreiben.

Schrotti
2014-11-22, 09:12:38
Ohh ja geiler Treiber.

Versuch 1.
Treiber wie immer normal rüber bügeln -> während der Installation kein Bild (reset Knopf -> bämmm)

Versuch 2.
Treibersignatur deaktiviert -> Start Installation -> kein Bild nach install des 344.80 -> reset Knopf (bämmm)

Versuch 3.
Abgesicherter Modus -> alten 344.75 manuell deinstalliert -> Neustart -> Install 344.80 starten -> läuft

PHuV
2014-11-22, 10:02:47
Hm, eigentlich entfernt der Treiber ja selbst die Vorgängerversion.

Update: Die Probleme mit DP sind leider nicht besser geworden, und aktuell bekomme ich wieder beide Monitore gleichzeitig nicht zum laufen.

kleeBa
2014-11-22, 10:42:47
This is a beta driver that addresses the following issues:

[...]
• System hang up and black screen after power on with some monitors (DP1.2 & 4K/60Hz) + GTX980
[...]


OK, andere Baustelle, aber ich habe immer einen Black Screen (d.h. der Monitor bleibt im Standby] wenn ich den PC aus dem Ruhemodus wecke. System an sich hängt aber nicht.
GTX 970 Asus Strix + Dell U2312HM via DP.

Döner-Ente
2014-11-22, 12:22:48
Installiert und werde berichten...ich hatte das "Fuzzy Lines"-Problem mit DP.

Edit: Fein, läuft...nachm Aufwachen ausm Standby keine komischen Linien mehr :).

-/\-CruNcher-/\-
2014-11-22, 12:31:18
Ah, das betraf nur DX1x. Erklärt, warum das nicht überall sichtbar war und ich es u. a. mit Skyrim nicht nachstellen konnte. Unfassbar, dass sowas beiden IHVs immer noch passiert. Irgendwie glaube ich da nicht mehr an Bugs - kostet der/die/das Fix Leistung? GM204 hat recht wenig Texfill, daher ist Skepsis angebracht.

MfG,
Raff

Der Leistungs impact bei aufkrawall scheint minimal aber das sind ja nur FPS ;)

Nichts destotrotz bei Balken Benchmarks kann es das schon sein was den Reviewer Win bei AMD vs Nvidia ausmacht ;)

Nur man sollte eben auch wissen das Nvidia bei default auf Qualität Balanced und nicht auf "High Quality" ;)


Was man im Treiber letztendlich auswählen kann sollte daher auch nicht wirklich beachtet werden, wenn das user machen die gerne umstellen gut aber man muss sich drauf einstellen das Quality der Standard bei Nvidia ist und mit dem Standard von AMD vergleichen nicht irgendwelche höheren Setups ;)

Oder man peitscht beide an ihr Qualitäts Limit und testet dann ;)

Mit diesen gefixten Einstellungen sollte man sich auch nochmal das GFXbench PSNR result anschauen auf High Quality :)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10385882#post10385882

dargo
2014-11-22, 17:17:40
Dieser Treiber ist ne einzige Katastrophe in Ryse. In einer Szene min. 38fps gehabt. Danach den Treiber runtergeschmissen und den 344.48 installiert. Ergebnis min. 66fps. :freak:

dildo4u
2014-11-22, 17:30:41
Ich bleib beim 344.75 mich wundert was für ein Monster die 970 in Frostbite ist egal ob BF4 oder Dragon Age 3,nach dem ganzen Mantle Gehype.Liegt bei BF4 vermutlich auch am MFAA,endlich sind wird das ineffektive MSAA los.

aufkrawall
2014-11-22, 17:39:36
MFAA verursacht in BF4 unschönes Kantenflimmern - wie wahrscheinlich überall.

dildo4u
2014-11-22, 17:43:46
Fällt mir mit Super Sampling nicht wirklich auf ich hoffe NV reicht es bald für DA3 nach.

-/\-CruNcher-/\-
2014-11-22, 18:58:35
Fällt mir mit Super Sampling nicht wirklich auf ich hoffe NV reicht es bald für DA3 nach.


Und genau dafür wurde es ja anscheinend optimiert :)

Es soll anscheinend eben stabilere 2K und 4K Ergebnisse liefern bei 1080 P wird es anscheinend zu sichtbar ;)

Auch Nvidias Performance Demonstration damals mit ihren schönen slides läst diesen Schluss zu das es eben direkt für 2K und 4K Ergebnise hin optimiert wurde sprich auch in Verwendung mit DSR ;).

Weil eben 2K und 4K unheimlich drücken vom overhead und MFAA das abfedern soll vor allem für GTX 970 user ;)

TurricanM3
2014-11-22, 19:12:39
Ist das bekannt Blaire:
Ich habe in BF4 mit den neuen Treibern Grafikfehler mit aktiviertem MFAA hier und da:

http://abload.de/thumb/screenshotwin32-0001tnf2b.jpg (http://abload.de/image.php?img=screenshotwin32-0001tnf2b.jpg)

Kann man in Siege of Shanghai nachstellen. Aus der China Base rausfahren, da findet man die Stelle.
Manche Schatten sind zudem pixelig mit 4x MFAA, 2x nicht mehr. Irgendwas stimmt da noch nicht.

Blaire
2014-11-22, 20:40:53
Das kann ich hier nachstellen, ne Art Rasterisierungslinie sieht man wandern sobald 4xMFAA aktiv ist, mit 2x MFAA oder 4xMSAA (ohne MFAA) tritt dieser Effekt nicht auf.
Kann versuchen, das als MFAA-Bug zu melden, da Battlefield4 auch als unterstütztes Game gilt. Danke für die Info.

OK, andere Baustelle, aber ich habe immer einen Black Screen (d.h. der Monitor bleibt im Standby] wenn ich den PC aus dem Ruhemodus wecke. System an sich hängt aber nicht.
GTX 970 Asus Strix + Dell U2312HM via DP.

Gab es das Problem auch mit den 344.11 bzw. 344.16 oder trat das erst mit darauffolgenden Treibern auf?

Dieser Treiber ist ne einzige Katastrophe in Ryse. In einer Szene min. 38fps gehabt. Danach den Treiber runtergeschmissen und den 344.48 installiert. Ergebnis min. 66fps. :freak:

Klingt nach dem Windows Timer-(SMT)-Bug, gab ja mit den letzten Patch einen Workaround, dazu einfach "sys_highrestimer = 1" in der vorhandenen System.cfg im Ryse-Directory hinzufügen und es sollte kein Problem mehr geben.

Installiert und werde berichten...ich hatte das "Fuzzy Lines"-Problem mit DP.
Edit: Fein, läuft...nachm Aufwachen ausm Standby keine komischen Linien mehr :).

Gut zu wissen. :)

aufkrawall
2014-11-22, 21:19:22
Habe mir gerade nochmal die Filterung auf GK110 angeschaut: Q tril. Optm. aus entspricht definitiv dem "neuen" HQ-Modus von Maxwell 2.0, bis auf das gefixte negative LOD-Bias (ist Pixel-identisch).
Das entspricht wohl auch dem HQ-Modus von schon G80.

Die "neue" Filterung ist schärfer und flimmert weniger, ich konnte gerade keine Probleme auf Rogue Transmission feststellen (die "Planke" zur Schüssel hoch weist auch mit Kepler HQ starkes Flimmern auf und im Sonnenlicht gibts auf der Schüssel ebenfalls Moires, also keine Eigenart des neuen HQ-Modus').
Man kann im Filtertester mit 8xSGSSAA LOD auf -3 stellen, ohne dass es mehr flimmert als die ALU-Referenz. Ebenso lässt sich ohne SGSSAA positives LOD-Bias bis mindestens +3 ebenfalls nicht von ALU-Referenz unterscheiden. Da würd wohl jeder bei Blindtests scheitern.

Also alles so, wie man es eigentlich haben will (sofern keine neuen problematischen Szenarien gefunden werden).

4Fighting
2014-11-22, 21:23:01
ich frage mich weiterhin warum mafia 2 bei mir im p2 mode hängen bleibt...kann das zufällig wer reproduzieren :) ?

aufkrawall
2014-11-22, 21:24:40
Eventuell liegt es an GPU-PhysX, das CUDA nutzt?

dargo
2014-11-22, 22:01:02
Klingt nach dem Windows Timer-(SMT)-Bug, gab ja mit den letzten Patch einen Workaround, dazu einfach "sys_highrestimer = 1" in der vorhandenen System.cfg im Ryse-Directory hinzufügen und es sollte kein Problem mehr geben.

Oh man... ich werde langsam alt. Du hast völlig recht, ich habe bei Ryse das mit der Timer Resolution wieder völlig vergessen. Hatte mich schon etwas gewundert, dass ich nur min. 66fps habe obwohl ich vorher mehr fps hatte. Zudem lief Ryse irgendwie fühlbar zäher was man auch an schlechteren Frametimes sehen konnte. Hatte mir gedacht... ok, wird wohl die Grafik später anspruchsvoller gewesen sein. Jetzt schaue ich nach der TR... 10ms. :facepalm: Was hatte ich dann mit dem 344.80? 15,6ms? :uroll: Na jedenfalls habe ich jetzt bei dem 344.48 die gewohnten ~85-105fps und das Spiel fühlt sich wieder astrein an. Also wieder zurück zum 344.80 und weiter testen. :freak:

Edit:
Das mit der vermurksten Timer Resolution ist in Ryse echt krass. 0,5ms vs. 10ms macht bei mir mal eben +50% fps. :ugly:

Mein Gefühl hatte mich aber beim 344.80 was die Zähigkeit angeht doch nicht getäuscht. Beide Tests mit je 0,5ms und dem gleichen Savegame.

344.80
50388

344.48
50389

Wie können so krasse Unterschiede zustande kommen? Eigentlich sollte man meinen die Optimierungen im 344.48 für Ryse wären im gleichen Maße im 344.80 enthalten. Ich bleibe jetzt beim 344.48. Ob es beim 344.75 genauso gut in Ryse aussieht kann ich jetzt nicht sagen.

kleeBa
2014-11-22, 22:34:23
Gab es das Problem auch mit den 344.11 bzw. 344.16 oder trat das erst mit darauffolgenden Treibern auf?


Durchgehend seit dem GTX 9xx Release Treiber (344.16?).

aths
2014-11-23, 19:59:37
Hm, eigentlich entfernt der Treiber ja selbst die Vorgängerversion.

Update: Die Probleme mit DP sind leider nicht besser geworden, und aktuell bekomme ich wieder beide Monitore gleichzeitig nicht zum laufen.
Die Falschdarstellungsprobs hatte ich bislang nicht mehr. Aber das Problem, dass der DVI-Monitor manchmal nicht erkannt wird beim Windows-Start besteht weiter.

Beobachter
2014-11-23, 20:08:05
Ah, das betraf nur DX1x. Erklärt, warum das nicht überall sichtbar war und ich es u. a. mit Skyrim nicht nachstellen konnte.


So genau schaut ihr eben nicht hin wie zuletzt behauptet im Heft. Der Experte nutzt auch immer den Standard. Hättet ihr den Filtertester ausprobiert, wäre es euch sofort ins Auge gefallen. Vor allem da ihr mit HQ testet, müsstet ihr HQ genauer untersuchen. Denn sonst wäre es seit Launch bekannt und der Bug womöglich schon viel früher behoben. Leider halten CB, PCGH und Co. AF Tests in letzter Zeit für unnötig. Es ist immer Eigeninitiative angesagt, auf bezahlte Tester kann man sich nicht mehr verlassen.

aths
2014-11-23, 20:15:52
MFAA verursacht in BF4 unschönes Kantenflimmern - wie wahrscheinlich überall.
Geht MFAA nach wie vor nur in bestimmten Spielen?

aths
2014-11-23, 20:22:45
So genau schaut ihr eben nicht hin wie zuletzt behauptet im Heft. Der Experte nutzt auch immer den Standard. Hättet ihr den Filtertester ausprobiert, wäre es euch sofort ins Auge gefallen. Vor allem da ihr mit HQ testet, müsstet ihr HQ genauer untersuchen. Denn sonst wäre es seit Launch bekannt und der Bug womöglich schon viel früher behoben. Leider halten CB, PCGH und Co. AF Tests in letzter Zeit für unnötig. Es ist immer Eigeninitiative angesagt, auf bezahlte Tester kann man sich nicht mehr verlassen.
Ich hatte kurz nach dem Launch einen Test von HQ gemacht (mit Codas D3D-AF-Tester) und erhielt bei HQ ein Ergebnis das zur ALU-Version fast pixelidentisch war.

aufkrawall
2014-11-23, 20:25:45
Geht MFAA nach wie vor nur in bestimmten Spielen?
Ich habe es nicht getestet, aber es wird so sein. In BF4 bekomme ich ohne MSAA auch weiterhin keine Zwischenstufen.

Ich hatte kurz nach dem Launch einen Test von HQ gemacht (mit Codas D3D-AF-Tester) und erhielt bei HQ ein Ergebnis das zur ALU-Version fast pixelidentisch war.
Mit welchem Treiber war das? Ich halte es ehrlich gesagt für unwahrscheinlich.

Gast
2014-11-23, 20:39:11
Ich hatte kurz nach dem Launch einen Test von HQ gemacht (mit Codas D3D-AF-Tester) und erhielt bei HQ ein Ergebnis das zur ALU-Version fast pixelidentisch war.


Was auch immer du gemacht hast, es war Müll.

Dragon
2014-11-23, 21:08:36
Ohh ja geiler Treiber.

Versuch 1.
Treiber wie immer normal rüber bügeln -> während der Installation kein Bild (reset Knopf -> bämmm)

Evtl. wird das Bild aus mir unbekannten Gründen über die iGPU ausgegeben. Monitor umstecken hat bei mir geholfen.

Thunder99
2014-11-24, 18:21:03
Komisches Verhalten des Treibers mit den Frametimes. Dargo hatte es schon in Ryse bemerkt und ich nun in SWOTOR mit SGSSAA und alles max. (2048er Schattenauflösung)@ 1080p

Spiel fühlt sich nicht rund an... , Test ist mit und ohne OC etwas merkwürdig (die mega Spikes kommen vom raus und reintappen)

Edit: Mess und spürbar in den Außenareale

dargo
2014-11-24, 18:55:48
Komisches Verhalten des Treibers mit den Frametimes. Dargo hatte es schon in Ryse bemerkt und ich nun in SWOTOR mit SGSSAA und alles max. (2048er Schattenauflösung)@ 1080p

Spiel fühlt sich nicht rund an... , Test ist mit und ohne OC etwas merkwürdig (die mega Spikes kommen vom raus und reintappen)

Edit: Mess und spürbar in den Außenareale
Der Graphen bei dir ist aber echt schräg. :freak:

Das sieht so aus als ob stellenweise ständig von ~30fps auf 60fps und wieder zurück gewechselt wird. Die Spikes sind eigentlich in die falsche Richtung. :D Und eine Sache kapiere ich hier auch nicht... es werden ~32ms angezeigt und gleichzeitig 54-55fps? :| Da passt so einiges nicht zusammen. War dabei Vsync aktiv?

Thunder99
2014-11-24, 20:02:25
Der Graphen bei dir ist aber echt schräg. :freak:

Das sieht so aus als ob stellenweise ständig von ~30fps auf 60fps und wieder zurück gewechselt wird. Die Spikes sind eigentlich in die falsche Richtung. :D Und eine Sache kapiere ich hier auch nicht... es werden ~32ms angezeigt und gleichzeitig 54-55fps? :| Da passt so einiges nicht zusammen. War dabei Vsync aktiv?
VSync ingame und Treiber aktiv sowie fps limiter auf 58fps

Blaire
2014-11-25, 00:16:29
OK, andere Baustelle, aber ich habe immer einen Black Screen (d.h. der Monitor bleibt im Standby] wenn ich den PC aus dem Ruhemodus wecke. System an sich hängt aber nicht.
GTX 970 Asus Strix + Dell U2312HM via DP.

Welches OS hast du aktuell installiert? Kannst du mir noch V-Bios Version deiner GTX 970 Asus Strix mitteilen? Kannst du entweder über GPU-Z oder direkt im NV Control-Panel unter Hilfe / System-Informationen (http://abload.de/img/vbios61aii.png) ausfindig machen. Ich hab noch 1-2 weitere Fragen und dir deshalb eine PM geschickt. Vielen Dank schonmal.

aths
2014-11-25, 10:43:16
Diese Bilder hatte ich kurz nach dem Launch gemacht.


http://www.aths.net/files/3dcf/980_AF_Standard.png

Treiber-Standard "Quality": Keine durchgehende trilineare Filterung


http://www.aths.net/files/3dcf/980_AF_HighQuality.png

High-Quality-Modus: Die TMU-Filterung sieht beinahe aus wie die ALU-Version.


edit: Jetzt sehe ich den Unterschied auch.


http://www.aths.net/files/3dcf/980_AF_Fix.png

Echter HQ-Modus: Keine Unterfilterung an bestimmten Stellen.

Thunder99
2014-11-25, 12:57:40
2 Monitore, beide DVI. Über erweiterten Desktop keine Probleme. Wenn ich auf den Primären umschalte (nur "PC") bleibt der Bildschirm schwarz und es kommt kein Signal

Zu SWOTOR, bei vielen Effekten treten die messbaren und teilweise spürbaren µRuckler auf.

Schrotti
2014-11-25, 16:23:55
Evtl. wird das Bild aus mir unbekannten Gründen über die iGPU ausgegeben. Monitor umstecken hat bei mir geholfen.

Bei einer Sockel 2011 CPU funktioniert das nicht.

Match-Maker
2014-11-25, 17:38:04
In Anno 1701 (http://filehorst.de/d/bFbjqEzg) & CoD 5 (http://filehorst.de/d/bIoDfxuu) habe ich Grafikfehler (ich habe jeweils ein Video davon gemacht).
Trat auch beides bereits mit früheren Treibern auf.

aufkrawall
2014-11-25, 17:54:51
Diese Bilder hatte ich kurz nach dem Launch gemacht.


http://www.aths.net/files/3dcf/980_AF_Standard.png

Treiber-Standard "Quality": Keine durchgehende trilineare Filterung


http://www.aths.net/files/3dcf/980_AF_HighQuality.png

High-Quality-Modus: Die TMU-Filterung sieht beinahe aus wie die ALU-Version.


edit: Jetzt sehe ich den Unterschied auch.


http://www.aths.net/files/3dcf/980_AF_Fix.png

Echter HQ-Modus: Keine Unterfilterung an bestimmten Stellen.

Es ist sinnvoll, sich das mit echten Texturen wie ground2 in Bewegung anzuschauen. Etwa y -0,02, -0,04, -0,4.

kleeBa
2014-11-25, 19:29:11
Welches OS hast du aktuell installiert? Kannst du mir noch V-Bios Version deiner GTX 970 Asus Strix mitteilen? Kannst du entweder über GPU-Z oder direkt im NV Control-Panel unter Hilfe / System-Informationen (http://abload.de/img/vbios61aii.png) ausfindig machen. Ich hab noch 1-2 weitere Fragen und dir deshalb eine PM geschickt. Vielen Dank schonmal.
PM ist raus. :)

Blaire
2014-11-25, 19:36:33
In Anno 1701 (http://filehorst.de/d/bFbjqEzg) & CoD 5 (http://filehorst.de/d/bIoDfxuu) habe ich Grafikfehler (ich habe jeweils ein Video davon gemacht).
Trat auch beides bereits mit früheren Treibern auf.

Das Problem in Anno1701 trat erstmals mit der GTX980 auf? Welche Grafikkarte hast du vorher? Könntest du auch ein Screenshot der verwendeten Ingame- Grafiksettings posten?
Call of Duty 5 sieht aus wie ein typisches Bleeding-Problem mit HBAO+, hattest du Ambient Occlusion im Treiber aktiviert?

De Fallen
2014-11-26, 01:53:35
Hi Leute, ich hab da ein Problem mit ShadowPlay. Alle Aufnahmen haben einen Grauschleier wenn ich sie hinterher anschaue. Woran liegt das?

Razor
2014-11-26, 06:27:31
Wie können so krasse Unterschiede zustande kommen? Eigentlich sollte man meinen die Optimierungen im 344.48 für Ryse wären im gleichen Maße im 344.80 enthalten. Ich bleibe jetzt beim 344.48. Ob es beim 344.75 genauso gut in Ryse aussieht kann ich jetzt nicht sagen.
Weil es schlicht nicht die gleichen Entwicklungslinien sind... auch wenn dies hier der eine oder andere anders sehen mag.
344.11 WHQL 14.09.2014 r343_98-7 nVidia Alle GPU (GTX970/980 Release Driver)
344.16 WHQL 19.09.2014 r343_98-9 nVidia GTX 980/970 only...
344.48 WHQL 16.10.2014 r344_32-7 nVidia GameReady-Driver: diverse...
344.60 WHQL 30.10.2014 r344_32-11 nVidia GameReady-Driver: Call of Duty - Advancved Warfare
344.65 WHQL 04.11.2014 r343_00-295 nVidia GameReady-Driver: Assassin’s Creed - Unity
344.75 WHQL 13.11.2014 r343_00-311 nVidia GameReady-Driver: FarCry4, DA:I etcpp.
344.80 WHQL 21.11.2014 r344_75-2 nVidia GTX980 Hotfix-Driver...Selten eine Treiber-Reihe gesehen, die derart stark in den Branches "springt"...
Dürfte an dem Maxwell-Release liegen.

Hier würde ich vermuten, dass die Fixes aus 344.48 in 344.65/.75 enthalten sind.
Beim 344.80 muss das nicht der Fall sein, weil dieser u.U. nicht der aktuellen Entwicklungslinie entstammt, sondern früher "abgezweigt" wurde.
Ist ja auch nur ein "Hotfix-Treiber"... wenn's der bringt, dann fließen seine Änderungen ggf. auch in den Standard ein.

Razor

dargo
2014-11-26, 08:29:05
Weil es schlicht nicht die gleichen Entwicklungslinien sind... auch wenn dies hier der eine oder andere anders sehen mag.
344.11 WHQL 14.09.2014 r343_98-7 nVidia Alle GPU (GTX970/980 Release Driver)
344.16 WHQL 19.09.2014 r343_98-9 nVidia GTX 980/970 only...
344.48 WHQL 16.10.2014 r344_32-7 nVidia GameReady-Driver: diverse...
344.60 WHQL 30.10.2014 r344_32-11 nVidia GameReady-Driver: Call of Duty - Advancved Warfare
344.65 WHQL 04.11.2014 r343_00-295 nVidia GameReady-Driver: Assassin’s Creed - Unity
344.75 WHQL 13.11.2014 r343_00-311 nVidia GameReady-Driver: FarCry4, DA:I etcpp.
344.80 WHQL 21.11.2014 r344_75-2 nVidia GTX980 Hotfix-Driver...Selten eine Treiber-Reihe gesehen, die derart stark in den Branches "springt"...
Dürfte an dem Maxwell-Release liegen.

Hier würde ich vermuten, dass die Fixes aus 344.48 in 344.65/.75 enthalten sind.

Dem ist speziell was Ryse angeht nicht so, jedenfalls was den 344.75 angeht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10433332&postcount=1132

Dem Branch nach müsste der 344.60 genauso gut wie der 344.48 in Ryse performen. Mal schauen ob ich Lust habe das zu testen. :)

Thunder99
2014-11-26, 08:50:22
Also ich verstehe das nicht mit den Frame Times. Lade später was von StarCraft 2 hoch. Lässt sich wunderbar spielen aber Graph sieht interessant aus :freak:

Edit: Hier das versprochene Bild. Wie gesagt das Spiel lässt sich aber wunderbar spielen bzw. hat im Multiplayer keine negativen Auswirkungen :). Settigs sind default Takt, max. BQ mit teurem MSAA (Bits)

dargo
2014-11-26, 09:44:53
Also ich verstehe das nicht mit den Frame Times. Lade später was von StarCraft 2 hoch. Lässt sich wunderbar spielen aber Graph sieht interessant aus :freak:

Edit: Hier das versprochene Bild. Wie gesagt das Spiel lässt sich aber wunderbar spielen bzw. hat im Multiplayer keine negativen Auswirkungen :). Settigs sind default Takt, max. BQ mit teurem MSAA (Bits)
Also das kann ich dir beim besten Willen nicht abnehmen. :) Du hast da ständig Wechsel zwischen ~30 und 60fps mit einzelnen Standbildern.

Edit:
Hier noch der Vergleich in Ryse mit dem 344.60.

Kampf auf dem Turm mit 5 Gegnern.
50437

Freier Lauf nach dem Kampf auf dem Turm.
50438

Ist jetzt nicht so eine Katastrophe wie die 344.75/80. Dennoch bleibt der 344.48 in Ryse ungeschlagen.

mischi
2014-11-26, 10:26:15
OK, andere Baustelle, aber ich habe immer einen Black Screen (d.h. der Monitor bleibt im Standby] wenn ich den PC aus dem Ruhemodus wecke. System an sich hängt aber nicht.
GTX 970 Asus Strix + Dell U2312HM via DP.
Ich habe das Problem in ähnlicher Konstellation: Asus GTX 970 Strix + LG 34UM95 Monitor mit DP Kabel. Allerdings habe ich den Blackscreen nicht jedesmal nach einem Resume aus dem Standby, teilweise geht es auch mehrfach problemfrei. Das Problem tritt erst auf, seit ich den LG Monitor habe, mit dem alten Monitor über DVI hatte ich das Problem nicht.
Bisher brachte kein Treiber Besserung, auch der 344.80 nicht.

Thunder99
2014-11-26, 11:41:27
Äh, Dargo das sind die Frame Time Messungen wo der Wechsel da ist, nicht die FPS :confused: oder ich verstehe nicht was du damit sagen möchtest

Drogenbaron
2014-11-26, 12:12:53
Dürfte an dem Maxwell-Release liegen.
Und an den vielen AAA-Titeln in diesen Tagen.

Man kann ja schlecht alle Änderungen in einen Branch reinprügeln, dann läuft am Ende gar nichts mehr.

Seth
2014-11-26, 12:16:58
Äh, Dargo das sind die Frame Time Messungen wo der Wechsel da ist, nicht die FPS :confused: oder ich verstehe nicht was du damit sagen möchtest

Die fps sind der Kehrwert der frametime.
Geht die frametime während der Spikes rauf, geht die Bildrate in dem Moment runter.

aufkrawall
2014-11-26, 12:18:18
fps sind allerdings wesentlich stärker geglättet bzw. Frametimes gar nicht, wenn es die max-Werte sind (oder einfach Wert x zu bestimmtem Zeitpunkt).

dargo
2014-11-26, 12:36:00
Äh, Dargo das sind die Frame Time Messungen wo der Wechsel da ist, nicht die FPS :confused: oder ich verstehe nicht was du damit sagen möchtest
Schau dir mal die Frametimes genauer an. Eine Zeile sind bei dir 10ms. Die untere Spitze liegt bei etwa 17ms, die obere bei ca. 33ms. Was so ziemlich in der Nähe von 60 und 30fps liegt. Die Framerate ansich ist viel zu lahm um das in der gleichen Geschwindigkeit zu erfassen. Zudem ist die Framerate nur der Schnitt der vorigen Frametimes (ich meine Hübie sagte mal was vom Schnitt der letzten Sekunde). Das siehst du in deinem Graphen auch sehr gut. Teilweise gehen die Frametimes für einen Bruchteil der Sekunde auf 100ms hoch (das sind 10fps) was schon Standbilder sind. Besonders das solltest du als deutliches Stuttering wahrnehmen. Diese ständigen Wechsel zwischen ~17 und 33ms deuten entweder auf kaputtes Vsync hin (hier mit Doublebuffering) oder du bewegst sich gerade so am Limit der 60fps, deswegen immer der Wechsel zwischen 60 und 30fps. Um das herauszufinden teste es einmal ohne Vsync. Und einmal mit reduzierten Details, so dass die Grafikkarte wesentlich mehr als 60fps rendern kann und dann halt mit Vsync On.

Für die großen Spikes (über 33,33ms) gibts nur 2 Möglichkeiten. Entweder ist die Engine Murks oder der Treiber. Je nach Spiel kann es auch am Speichervorgang liegen. Ich glaube aber kaum, dass bei dir so oft in den kurzen Abständen gespeichert wurde.

Thunder99
2014-11-26, 13:16:57
Werte/Bild ist von einem Multiplayer Spiel 3vs3 in den ersten 5min,

Spiele an sich immer mit VSync und TB, aber wenn das "kaputt" ist wäre das extrem shit :( Teste es mal und berichte

aths
2014-11-26, 13:18:36
Hi Leute, ich hab da ein Problem mit ShadowPlay. Alle Aufnahmen haben einen Grauschleier wenn ich sie hinterher anschaue. Woran liegt das?
Im Control Panel die Video-Wiedergabe auf Full 0-255 stellen.

Raff
2014-11-26, 16:13:40
Geforce GTX 980/970: Nvidia beseitigt Texturflimmern bei HQ-AF - Geforce 344.80 im Praxistest (http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Geforce-GTX-980-970-Texturflimmern-HQ-AF-1143782/)

Video, Bilder, Benchmarks. Läuft. :up:

MfG,
Raff

aufkrawall
2014-11-26, 16:40:28
Immerhin Werbung für Texturfilterung.
Allerdings entspricht das "neue" HQ nicht dem alten HQ auf Kepler (Fermi kann ich nicht mit Gewissheit sagen, da keine Karte hier), sondern Q ohne tril. Optimierung (und ohne gefixtes negatives LOD-Bias).
Versteh auch nicht, warum ihr krampfhaft daran festhalten wollt, dass das HQ-AF von GCN (pre Tonga) vergleichbar gut wäre. Es ist klar schlechter, frag mal Tesseract.

Als Workaround konnte man übrigens ohne Probleme Q ohne tril. Optm. nutzen.

Raff
2014-11-26, 16:46:57
Was hat Tesseract denn gemacht, dass das GCN-AF grützig aussieht?

MfG,
Raff

aufkrawall
2014-11-26, 16:51:27
Nicht grützig, aber klar schlechter. Als das neue alte NV-HQ sowieso, bei dem sieht man mit den mitgelieferten Texturen im Filtertester keinen Unterschied zwischen TMU und ALU-Referenz.
Bei der ground2-Textur sieht man mit den Radeons im Vordergrund mit HQ klar ein breitflächiges Schimmern, auch im Hintergrund gibt es einen Streifen. Eindeutig schlechter als ALU-Referenz.
http://www.computerbase.de/downloads/system/grafikkarten/af-videos-zu-gcn/

captain_drink
2014-11-26, 16:56:13
(und ohne gefixtes negatives LOD-Bias)

Ernsthaft? Weiß man dazu Näheres, warum das nicht übernommen wurde nach der Einführung mit R320? Das sollte doch nur SGSSAA ab D3D10+ betreffen, oder?

aufkrawall
2014-11-26, 17:29:11
Das LOD-Bias ist natürlich weiterhin gefixt mit HQ, nur, wie bisher auch schon, mit Q nicht.
Ansonsten sind HQ und Q ohne tril. Optm. mit Maxwell 2.0 offenbar völlig identisch.

Bei Kepler ist HQ etwas flimmriger und unschärfer als Q ohne tril. Optm.
Dort kann man derzeit also nicht gefixtes LOD-Bias (ab D3D10) und beste Grundfilterung gleichzeitig haben.
Ist aber auch kein Beinbruch, dieser HQ-Modus ist immer noch besser als GCN. Außerdem ist das negative LOD-Bias bei GCN ja eh kaputt.

captain_drink
2014-11-26, 17:36:06
Ok, dann hab ich das falsch verstanden.

Grad noch mal nachgeschaut, der Fix für negatives LOD-Bias unter D3D10+ und SGSAA ab D3D9 kam bereits mit R313: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9633331&postcount=413

R320 hatte den AA-Fix für SGSSAA und 10C1-Bits.

De Fallen
2014-11-26, 17:40:52
Im Control Panel die Video-Wiedergabe auf Full 0-255 stellen.hilft leider nicht. bei Fraps habe ich das nicht

Thunder99
2014-11-26, 17:42:13
Unschön, Karte taktet sich beim scrollen im Browser FF 33.1 hoch, war früher nicht so :(

Edit: Mit FF 33.1.1 geht die Karte nur kurz hoch und geht runter auf 800MHz

aufkrawall
2014-11-26, 19:31:16
R320 hatte den AA-Fix für SGSSAA und 10C1-Bits.
Sogar für AA mit <=D3D9 allgemein (flackernde Pixel). :redface:

Razor
2014-11-26, 20:13:38
Dem ist speziell was Ryse angeht nicht so, jedenfalls was den 344.75 angeht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10433332&postcount=1132

Dem Branch nach müsste der 344.60 genauso gut wie der 344.48 in Ryse performen. Mal schauen ob ich Lust habe das zu testen. :)
Tjo... dann sind wir wieder in der "guten alten Zeit", wo Spiele-Optimierungen in "eigenen" Branches vorgenommen werden.
Ist für die Entwickler natürlich einfacher, für den Nutzer aber "krass".

Andere Variante: Optimierungen für andere Spiele haben das Problem bei Ryse verursacht.
Ist ja schließlich nicht so, dass nVidia für alle Optimierungen zwingend das konkrete Spiel "erkennt"...

Woll'n mal schaun':
344.11 (r343-98) = Borderlands: The Pre-Sequel, The Evil Within, F1 2014, and Alien: Isolation
344.16 (r343-98) = GTX980 "fix" für 344.11
344.48 (r344-32) = Lords of the Fallen, Civilization: Beyond Earth, and Elite: Dangerous
344.60 (r344-32) = Call of Duty: Advanced Warfare
344.65 (r343-00) = Assassin’s Creed: Unity
344.75 (r344-00) = Far Cry 4, Dragon Age: Inquisition, The Crew, and World of Warcraft: Warlords of Draenor
344.85 (r344-75) = GTX9x0 "fix"

Und was lernen wir daraus? Ryse wird nicht erwähnt...
Die gute Performance war schlicht ein Fehler :ugly:

Und an den vielen AAA-Titeln in diesen Tagen.
Man kann ja schlecht alle Änderungen in einen Branch reinprügeln, dann läuft am Ende gar nichts mehr.
Macht schon Sinn... nur was machen die "armen Drops", die es wagen, Spiele aus unterschiedlichen Branches Ihr Eigen zu nennen?
Jedes mal den "passenden" Treiber installieren, bevor das Spiel gestartet wird?
Das meine ich mit "krass" :D

Razor

Blaire
2014-11-26, 20:18:05
Ich habe das Problem in ähnlicher Konstellation: Asus GTX 970 Strix + LG 34UM95 Monitor mit DP Kabel. Allerdings habe ich den Blackscreen nicht jedesmal nach einem Resume aus dem Standby, teilweise geht es auch mehrfach problemfrei. Das Problem tritt erst auf, seit ich den LG Monitor habe, mit dem alten Monitor über DVI hatte ich das Problem nicht.
Bisher brachte kein Treiber Besserung, auch der 344.80 nicht.

Welches OS kommt zum Einsatz und könntest du auch mal die VBios-Version (http://abload.de/img/vbios61aii.png) deiner GTX 970 Strix mitteilen? Danke.

Geforce GTX 980/970: Nvidia beseitigt Texturflimmern bei HQ-AF - Geforce 344.80 im Praxistest (http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Geforce-GTX-980-970-Texturflimmern-HQ-AF-1143782/)
Video, Bilder, Benchmarks. Läuft. :up:


Gut geschrieben und wie gesagt, NVIDIA ging sehr offen damit um, das zeigt schon das es wirklich nur ein Bug war.

dargo
2014-11-26, 20:28:56
@Razor

Der 344.48 kam explizit auch für Ryse.
http://www.computerbase.de/2014-10/ryse-patch-beschleunigt-nvidia-amd-grafikkarten/

aufkrawall
2014-11-26, 20:34:07
Und worauf will sich CB bezogen haben?

-/\-CruNcher-/\-
2014-11-27, 00:36:23
Tjo... dann sind wir wieder in der "guten alten Zeit", wo Spiele-Optimierungen in "eigenen" Branches vorgenommen werden.
Ist für die Entwickler natürlich einfacher, für den Nutzer aber "krass".

Andere Variante: Optimierungen für andere Spiele haben das Problem bei Ryse verursacht.
Ist ja schließlich nicht so, dass nVidia für alle Optimierungen zwingend das konkrete Spiel "erkennt"...

Woll'n mal schaun':
344.11 (r343-98) = Borderlands: The Pre-Sequel, The Evil Within, F1 2014, and Alien: Isolation
344.16 (r343-98) = GTX980 "fix" für 344.11
344.48 (r344-32) = Lords of the Fallen, Civilization: Beyond Earth, and Elite: Dangerous
344.60 (r344-32) = Call of Duty: Advanced Warfare
344.65 (r343-00) = Assassin’s Creed: Unity
344.75 (r344-00) = Far Cry 4, Dragon Age: Inquisition, The Crew, and World of Warcraft: Warlords of Draenor
344.85 (r344-75) = GTX9x0 "fix"

Und was lernen wir daraus? Ryse wird nicht erwähnt...
Die gute Performance war schlicht ein Fehler :ugly:


Macht schon Sinn... nur was machen die "armen Drops", die es wagen, Spiele aus unterschiedlichen Branches Ihr Eigen zu nennen?
Jedes mal den "passenden" Treiber installieren, bevor das Spiel gestartet wird?
Das meine ich mit "krass" :D

Razor

Nice sind aber nicht alle treiber es gibt ja noch ne menge mehr dazwischen

z.b wo ich einen merkbaren Performance anstieg auf Maxwell gemerkt hab vor allem für Far Cry 4 das war mit dem 344.24


@Razor

Der 344.48 kam explizit auch für Ryse.
http://www.computerbase.de/2014-10/ryse-patch-beschleunigt-nvidia-amd-grafikkarten/

So kam es mir aber auch vor Crytek Released Patch Nvidia treiber dafür ;)

Es ging ja um das Tiled Shading und Performance improvements dort.


Jetzige Treiber den ich teste der auch sehr gut performt :)

344.47 [r343_00-266]

-/\-CruNcher-/\-
2014-11-27, 00:39:30
DBl post

dargo
2014-11-27, 10:06:22
So kam es mir aber auch vor Crytek Released Patch Nvidia treiber dafür ;)

Es ging ja um das Tiled Shading und Performance improvements dort.

Der Spielpatch hat natürlich die allgemeine Performance etwas gesteigert. Das gilt dann aber für alle Treiber. Ändert nichts daran, dass der 344.48 (jedenfalls bei mir, Blaire testet es noch bei sich) der beste Treiber in Ryse ist, liefert die sauberste Frameausgabe.

aths
2014-11-27, 11:53:39
Gut geschrieben und wie gesagt, NVIDIA ging sehr offen damit um, das zeigt schon das es wirklich nur ein Bug war.
Das Gute ist, dass PCGH mit HQ-Einstellung testet, also mit den Einstellungen die das Spiel anfordert und nicht mit Q, also Einstellungen wo der Treiber meint, in das User-Erlebnis eingreifen zu dürfen.

aufkrawall
2014-11-27, 13:05:33
Das ist allerdings auch keine unsichtbare Bevormundung, sondern ist allein der Option "trilineare Optimierung" geschuldet.

mischi
2014-11-27, 13:49:51
Welches OS kommt zum Einsatz und könntest du auch mal die VBios-Version (http://abload.de/img/vbios61aii.png) deiner GTX 970 Strix mitteilen? Danke.
Ich habe Windows 7 64Bit am laufen, mit aktuellen Patches.
Vbios siehe: vbios.png (http://abload.de/image.php?img=vbioszlj0y.png)

Match-Maker
2014-11-27, 21:49:33
Das Problem in Anno1701 trat erstmals mit der GTX980 auf? Welche Grafikkarte hast du vorher? Könntest du auch ein Screenshot der verwendeten Ingame- Grafiksettings posten?
Call of Duty 5 sieht aus wie ein typisches Bleeding-Problem mit HBAO+, hattest du Ambient Occlusion im Treiber aktiviert?
Mit ner HD 7870 & GTX 780 Ti hatte ich das Problem damals nicht. Bin mir ziemlich sicher, dass es erst seit Maxwell auftritt.

50448
Dies sind meine Ingame-Grafiksettings. Habe zusätzlich im Treiber noch 8xSGSSAA aktiviert.

Bei Call of Duty 5 hast du recht. Es liegt an HBAO+. Ich hatte zuerst die MW3-AO-Bits verwendet. Mit den standardmäßigen Bits wird das Bleeding noch deutlich schlimmer. Man sollte in dem Game also generell kein HBAO+ verwenden (muss ich gleich mal im entsprechenden Thread melden!).

aths
2014-11-27, 22:27:11
Das ist allerdings auch keine unsichtbare Bevormundung, sondern ist allein der Option "trilineare Optimierung" geschuldet.
Trilinear ist eben was anderes als was der Treiber-Standard berechnet.

Blaire
2014-11-28, 11:17:24
Mit ner HD 7870 & GTX 780 Ti hatte ich das Problem damals nicht. Bin mir ziemlich sicher, dass es erst seit Maxwell auftritt.

50448
Dies sind meine Ingame-Grafiksettings. Habe zusätzlich im Treiber noch 8xSGSSAA aktiviert.

Danke , kannst du mal testen ob diese Blöckchenbildung auch ganz ohne SGSSAA auftritt?

Bei Call of Duty 5 hast du recht. Es liegt an HBAO+. Ich hatte zuerst die MW3-AO-Bits verwendet. Mit den standardmäßigen Bits wird das Bleeding noch deutlich schlimmer. Man sollte in dem Game also generell kein HBAO+ verwenden (muss ich gleich mal im entsprechenden Thread melden!).

Ich mache dir da keine großen Hoffnungen, das es dazu irgendwelche Änderungen per Treiber geben wird. Anders sähe die Sache aus, wenn HBAO+ garnicht funktioniert oder zu fehlerhaft, sich stellenweise deaktiviert o.ä.

Ich habe Windows 7 64Bit am laufen, mit aktuellen Patches.
Vbios siehe: vbios.png (http://abload.de/image.php?img=vbioszlj0y.png)

Danke sehr hilfreich, ich hoffe das lässt sich bei NV irgendwie reproduzieren.

Thunder99
2014-11-28, 13:05:23
Ne Frage:

Wenn die Frameraten so um die 30 oder niedriger sind ist es dann normal das es mittlere bis große Verzögerungen in den Frametimes gibt? :confused:

dildo4u
2014-11-28, 13:09:41
Ja deshalb will man allgemein mindestens locked 30 auf Konsole.

Hier ist ein Frametimes Grafik dabei ideal ist ne glatte Linie.

http://youtu.be/v3UEkBx-FHQ

cantstopme
2014-11-28, 15:23:25
ohne limiter wie vsync oder ein normales fps limit hast du immer schwankende frametimes!

dargo
2014-11-28, 15:58:53
Ne Frage:

Wenn die Frameraten so um die 30 oder niedriger sind ist es dann normal das es mittlere bis große Verzögerungen in den Frametimes gibt? :confused:
Nein.

Frametimes sollten immer unabhängig davon wie hoch oder tief sie sind sauber sein. Ein Bild wäre aber hilfreich. Ist schwer einzuschätzen was du unter "mittel" oder "groß" verstehst. Kleine Fluktuationen sind natürlich völlig normal ohne Vsync und/oder FPS-Limit. Eine absolut saubere Linie kriegst du nur damit hin sofern das System dauerhaft die 33,33ms liefern kann. Ich denke aber darum gehts dir gerade nicht.

Thunder99
2014-11-28, 16:45:36
Genau richtig erkannt. Mir geht es darum auch zu verstehen was normal sein soll und was nicht um dazu beitragen zu können den Fehler zu finden oder einzugrenzen :).

Mit mittleren Spikes sind Abweichungen ~50ms und große >50ms gemeint.

Wie gesagt die Graphen bei SC2 sind von einem Strategiespiel aber sollten die nicht sauberer verlaufen? Auch ohne VSync aber mit Limiter gibt es die unsaubere Ausgabe. Dort ist es aber nicht schlimm da die wirklichen Probleme wo anders herkommen (Lags wegen Kack Internet von 1&1).

Werte von SWOTOR habe ich Blaire geschickt wo ich auf einem Planeten war und wo es einen Kampf gegeben hat im PvP. Dort ist es störend :( (siehe Anhang)

Match-Maker
2014-11-28, 16:52:24
Danke , kannst du mal testen ob diese Blöckchenbildung auch ganz ohne SGSSAA auftritt?
Ohne ist die Blöckchenbildung deutlich weniger stark ausgeprägt, tritt aber trotzdem auf. SGSSAA + negatives LoD verstärken die Symptome (wahrscheinlich werden die Blöcke vom SGSSAA nicht erfasst und flimmern durch das negative LoD nur noch stärker).

dargo
2014-11-28, 17:59:50
Mit mittleren Spikes sind Abweichungen ~50ms und große >50ms gemeint.

50ms Schwankung oder gar mehr ist schon viel zu viel. Nehmen wir mal an du hast eine Szene mit 16,66ms was 60fps entspricht. Direkt danach 66,66ms, das wären 15fps. Das ist schon ein gut spürbarer und sichtbarer Ruckler. Wenn sowas vorkommt ist wie gesagt die Spielengine und/oder der Grafiktreiber Mist. Speicherpunkte mal außen vorgelassen.


Wie gesagt die Graphen bei SC2 sind von einem Strategiespiel aber sollten die nicht sauberer verlaufen? Auch ohne VSync aber mit Limiter gibt es die unsaubere Ausgabe.
Womit limitierst du?

aufkrawall
2014-11-28, 19:41:46
Dieses Verhalten, dass die Karte nur in P2 taktet, wenn CUDA genutzt wird, ist komplett dämlich. Das passiert etwa bei JC2 wegen der CUDA Wasser-Sim.
Der Speicher taktet nur auf 3Ghz, was Leistung verspielt.

Standard:
http://abload.de/thumb/justcause2_2014_11_28tcknv.jpg (http://abload.de/image.php?img=justcause2_2014_11_28tcknv.jpg)

Manuell P2 VRAM übertaktet:
http://abload.de/thumb/justcause2_2014_11_28gbkbb.jpg (http://abload.de/image.php?img=justcause2_2014_11_28gbkbb.jpg)

Damit sollte Maxwell bei Compute-Benchmarks sogar noch etwas besser abschneiden als es eh schon tut mit nur geringfügig höherem Stromverbrauch. :freak:
Melde das mal bitte, Blaire...

Razor
2014-11-28, 20:58:06
@Razor
Der 344.48 kam explizit auch für Ryse.
http://www.computerbase.de/2014-10/ryse-patch-beschleunigt-nvidia-amd-grafikkarten/
Computerbase schreibt zwar davon... nVidia aber nicht.
Und worauf will sich CB bezogen haben?Danke.
Nice sind aber nicht alle treiber es gibt ja noch ne menge mehr dazwischen
...344.24...344.47 [r343_00-266]
Hmmm... weiß ich nichts von.
Und zu Maxwell 2.0 fällt mir 'eh nicht viel ein... als Kepler-User.
Der Spielpatch hat natürlich die allgemeine Performance etwas gesteigert. Das gilt dann aber für alle Treiber. Ändert nichts daran, dass der 344.48 (jedenfalls bei mir, Blaire testet es noch bei sich) der beste Treiber in Ryse ist, liefert die sauberste Frameausgabe.
Schon klar... die Frage ist, ob das beabsichtigt war :)

Razor

dargo
2014-11-28, 21:21:01
Schon klar... die Frage ist, ob das beabsichtigt war :)

*g

Falls nicht... bitte mehr von diesen "Fehlern". :biggrin: Vorallem für Watch Dogs. :naughty:

Blaire
2014-11-28, 22:13:07
Ohne ist die Blöckchenbildung deutlich weniger stark ausgeprägt, tritt aber trotzdem auf. SGSSAA + negatives LoD verstärken die Symptome (wahrscheinlich werden die Blöcke vom SGSSAA nicht erfasst und flimmern durch das negative LoD nur noch stärker).

Ok alles klar, werde es als Bug melden.

Dieses Verhalten, dass die Karte nur in P2 taktet, wenn CUDA genutzt wird, ist komplett dämlich. Das passiert etwa bei JC2 wegen der CUDA Wasser-Sim.
Der Speicher taktet nur auf 3Ghz, was Leistung verspielt.

Standard:
http://abload.de/thumb/justcause2_2014_11_28tcknv.jpg (http://abload.de/image.php?img=justcause2_2014_11_28tcknv.jpg)

Manuell P2 VRAM übertaktet:
http://abload.de/thumb/justcause2_2014_11_28gbkbb.jpg (http://abload.de/image.php?img=justcause2_2014_11_28gbkbb.jpg)

Damit sollte Maxwell bei Compute-Benchmarks sogar noch etwas besser abschneiden als es eh schon tut mit nur geringfügig höherem Stromverbrauch. :freak:
Melde das mal bitte, Blaire...

Wird nichts bringen, das ist normal by Design, Speicher und Fehlerkorrektur (ECC) usw.

cantstopme
2014-11-29, 08:39:22
Wird nichts bringen, das ist normal by Design, Speicher und Fehlerkorrektur (ECC) usw.

wirklich? für mich ist das fail by design.

der treiber muss erkennen, ob ein spiel oder eine cuda anwendung geladen wird. im grunde ist das sogar ein produktmangel, da darauf nirgendwo hingewiesen wird und ich als spieler dann minderleistung erhalte, obwohl mir was anderes versprochen wurde.

Gast
2014-11-29, 21:08:34
Audio virtual Treiber...? Was ist das denn nun schon wieder...steht jetzt ohne Treiber mit ? in der Systemsteuerung..

Gast
2014-11-29, 21:10:04
wirklich? für mich ist das fail by design.

der treiber muss erkennen, ob ein spiel oder eine cuda anwendung geladen wird. im grunde ist das sogar ein produktmangel, da darauf nirgendwo hingewiesen wird und ich als spieler dann minderleistung erhalte, obwohl mir was anderes versprochen wurde.

und da hat er völlig recht! in früheren games ging das auch...

Thunder99
2014-11-30, 11:31:05
50ms Schwankung oder gar mehr ist schon viel zu viel. Nehmen wir mal an du hast eine Szene mit 16,66ms was 60fps entspricht. Direkt danach 66,66ms, das wären 15fps. Das ist schon ein gut spürbarer und sichtbarer Ruckler. Wenn sowas vorkommt ist wie gesagt die Spielengine und/oder der Grafiktreiber Mist. Speicherpunkte mal außen vorgelassen.


Womit limitierst du?
Inspector.

Ja die Ruckler sind wahrnehmbar aber beim Stratiegie Spiel wie SC2 springt man sowieso von einem Punkt zum anderen wo es sich nicht negativ auswirkt (außer bei Kämpfen wenn die Verzögerungen echt davon kommen, bin da aber nicht sicher)

Am Anfang habe ich ein CPU Limit, später ein GPU-Limit (teures MSAA), wobei gerne auch Mitspieler bremsen...

dargo
2014-12-01, 06:40:59
Inspector.

Der interne Limiter ist bei Maxwell leider immer noch kaputt. Ist das Verhalten identisch wenn du mit dem RTSS limitierst?

Merkor
2014-12-01, 07:12:03
Trotz deaktivierter Hardwarebeschleunigung taktet diese Version meine 970 beim Scrollen in Firefox hoch. Ich denke, dass dies bei den beiden Vorgängern nicht der Fall war.

Grestorn
2014-12-01, 07:33:22
Der interne Limiter ist bei Maxwell leider immer noch kaputt. Ist das Verhalten identisch wenn du mit dem RTSS limitierst?

Ich dachte, er wäre nur um ein paar fps verschoben? Das ist doch etwas anderes als kaputt, oder bin ich falsch informiert?

dargo
2014-12-01, 09:35:35
Ich dachte, er wäre nur um ein paar fps verschoben? Das ist doch etwas anderes als kaputt, oder bin ich falsch informiert?
Ich bin mir immer noch nicht sicher inwiefern das zu Nebenwirkungen führt. Die 17,xxxms mit Vsync On bei 60Hz kommen mir bsw. merkwürdig vor. Zudem ist diese Verschiebung nicht um ganze 2 Frames sondern um 1,xxfps. Wie dem auch sei... so langsam sollte NV das fixen. Bald ist Maxwell 3 Monate auf dem Markt.

aufkrawall
2014-12-01, 13:47:32
Was du immer mit Maxwell hast...
Kleiner Tipp: Die Welt dreht sich nicht nur um dich mit Maxwell. Der Treiber-Limiter hat schon immer gesponnen, auf vielfältigste Weise bis hin zu bsods.
nimm nen anderen ffs

Thunder99
2014-12-01, 13:56:08
ok, dann deaktiviere ich es wieder und lasse es sein. Mag keine 1000 Tools auf den PC :freak: nur um es anders zu lösen

Sunny1992
2014-12-02, 23:50:25
Weiß wer wie man MFAA im neuen Treiber aktiviert? Besitze 2x die GTX 970 und habe den 344.80 Treiber. aber in der Nvidia Systemsteung habe ich keine Option in den 3D einstellungen um MFAA zu aktivieren wie es auf der hp steht -.-

aufkrawall
2014-12-03, 00:14:01
Wird noch nicht unterstützt mit SLI.

aths
2014-12-03, 13:51:21
Ich vermisse die Zwangsaktivierung von MFAA per Tool wie Nvidia Inspector. Das hat mit einem vorherigen Treiber noch geklappt. In Shadow of Mordor wurde dann aus "No AA" etwas Ähnliches wie "2x AA".

Grestorn
2014-12-03, 13:56:47
Was vermutlich daran liegt, dass 344.80 aus einem anderen Branch als 344.75 stammt. Momentan hat man die Wahl zwischen Problemen mit DisplayPort und AF einerseits oder optimaler Game-Performance und MFAA andererseits.

Blaire
2014-12-03, 17:15:42
Ich vermisse die Zwangsaktivierung von MFAA per Tool wie Nvidia Inspector. Das hat mit einem vorherigen Treiber noch geklappt. In Shadow of Mordor wurde dann aus "No AA" etwas Ähnliches wie "2x AA".

Sollte sich mit dieser neuen Funktion (http://abload.de/img/mfaatxf7z.png) unter "Other" steuern lassen. Entweder über Global oder Profil.
0 steht für MFAA deaktiviert
1 für MFAA aktiviert

Weiß wer wie man MFAA im neuen Treiber aktiviert? Besitze 2x die GTX 970 und habe den 344.80 Treiber. aber in der Nvidia Systemsteung habe ich keine Option in den 3D einstellungen um MFAA zu aktivieren wie es auf der hp steht -.-

MFAA SLI-Support wirds erst in einem späteren Treiber geben.
http://nvidia.custhelp.com/app/answers/detail/a_id/3605

dargo
2014-12-03, 19:07:39
ok, dann deaktiviere ich es wieder und lasse es sein. Mag keine 1000 Tools auf den PC :freak: nur um es anders zu lösen
Hier hast du die Antwort warum du den internen Limiter und Vsync On @Maxwell auf keinen Fall verwenden solltest.
50484

Das war eine Runde in Assetto Corsa mit 58fps Limit über den Inspector + Vsync On.

aths
2014-12-03, 19:20:06
Sollte sich mit dieser neuen Funktion (http://abload.de/img/mfaatxf7z.png) unter "Other" steuern lassen. Entweder über Global oder Profil.
0 steht für MFAA deaktiviert
1 für MFAA aktiviertKeine Funktion bei mir. Ich aktiviere Sample Interleaving und diese neue, unbenannte Funktion, aber habe kein Sample Interleaving.

Thunder99
2014-12-04, 00:44:18
Danke Dargo für den Vergleich. Dann warte ich bis sie es in einem späteren Treiber gefixed haben :)

Blaire
2014-12-04, 02:50:21
Keine Funktion bei mir. Ich aktiviere Sample Interleaving und diese neue, unbenannte Funktion, aber habe kein Sample Interleaving.

Interessant, welche Games hattest du denn getestet bzw. funktionierten noch mit früheren Treibern?

Grestorn
2014-12-04, 09:24:29
Hier hast du die Antwort warum du den internen Limiter und Vsync On @Maxwell auf keinen Fall verwenden solltest.
50484

Das war eine Runde in Assetto Corsa mit 58fps Limit über den Inspector + Vsync On.

Erklär mir mal bitte kurz, warum ein Limiter auf 58fps bei VSync on sinnvoll sein soll? Nach meinem Verständnis muss die Frametime dann immer abwechselnd zwischen 1/60s (=16ms) und 1/30s (=32ms) oszillieren. Was Dein Graph ja auch bestätigt.

aufkrawall
2014-12-04, 10:27:13
Nein, dann würde es konstant mit 33ms laufen. Abgesehen davon wird TB an sein.

Drogenbaron
2014-12-04, 10:43:16
Nein, dann würde es konstant mit 33ms laufen. Abgesehen davon wird TB an sein.
Nein, er hat schon Recht.

Das Display refresht alle 16,6ms (=60fps), das Game rendert aber nur alle 17,2ms ein neues Bild.

Ergo ist bei jedem zweiten Displayrefresh ein neuer Frame da -> anzeigen, bei jedem zweiten allerdings um genau 1,2ms nicht -> 30fps.

Passt also von seiner Theorie her.

aufkrawall
2014-12-04, 10:56:35
Nein, durch den Limiter werden nie die 60fps erreicht, folglich kann es auch nie zwischen halber und ganzer Refreshshrate hin- und her schwanken (wenn es wirklich nie über 58fps sind, der Limiter muss schon funzen).
Ohne TB wäre es dann die ganze Zeit auf halben Refresh begrenzt, ohne irgendwelche Spikes. Und mit sollte es idealerweise eine glatte Linie sein.

Drogenbaron
2014-12-04, 11:20:27
Nein, durch den Limiter werden nie die 60fps erreicht, folglich kann es auch nie zwischen halber und ganzer Refreshshrate hin- und her schwanken (wenn es wirklich nie über 58fps sind, der Limiter muss schon funzen).
Doch, der Frame wird eben (für den Refresh) 1,2 ms zu spät fertig, ist also für den nächsten Refresh des Monitors bereit. Dann kann er ihn direkt anzeigen. Für den übernächsten Refresh 16 ms später ist der Frame aber nicht da.

InsaneDruid
2014-12-04, 12:03:07
Nein, durch den Limiter werden nie die 60fps erreicht, folglich kann es auch nie zwischen halber und ganzer Refreshshrate hin- und her schwanken (wenn es wirklich nie über 58fps sind, der Limiter muss schon funzen).
Ohne TB wäre es dann die ganze Zeit auf halben Refresh begrenzt, ohne irgendwelche Spikes. Und mit sollte es idealerweise eine glatte Linie sein.

Framerate und Frametime beachten. Hängt zusammen, sagt aber nicht direkt das Identische aus. Nur weil es nicht eine Sekunde lang 16,6er Frametimes erreichen kann (entspricht 60fps) heisst das nicht, das was anderes rauskommt als Grestorn sagt.

Grestorn
2014-12-04, 12:28:42
*Kann gelöscht werden, ihr habt es aufkrawall schon perfekt erklärt...*

InsaneDruid
2014-12-04, 12:43:09
Ich habs sogar nochmal nachgerechnet mit einer Excel-Tabelle, nach den ersten Frames bleibt es eine Zeit lang perfekt, aber aller halben Sekunde hat man einen Hickup, wie angedacht und was der Graph auch schön zeigt.


Refresh Frametime
0,016667 0,017241
0,033333 0,034483
0,050000 0,051724
0,066667 0,068966
0,083333 0,086207
0,100000 0,103448
0,116667 0,120690
0,133333 0,137931
0,150000 0,155172
0,166667 0,172414
0,183333 0,189655
0,200000 0,206897
0,216667 0,224138
0,233333 0,241379
0,250000 0,258621
0,266667 0,275862
0,283333 0,293103
0,300000 0,310345
0,316667 0,327586
0,333333 0,344828
0,350000 0,362069
0,366667 0,379310
0,383333 0,396552
0,400000 0,413793
0,416667 0,431034
0,433333 0,448276
0,450000 0,465517
0,466667 0,482759
0,483333 0,500000
0,500000
0,516667 0,517241
0,533333 0,534483
0,550000 0,551724
0,566667 0,568966
0,583333 0,586207
0,600000 0,603448
0,616667 0,620690
0,633333 0,637931
0,650000 0,655172
0,666667 0,672414
0,683333 0,689655
0,700000 0,706897
0,716667 0,724138
0,733333 0,741379
0,750000 0,758621
0,766667 0,775862
0,783333 0,793103
0,800000 0,810345
0,816667 0,827586
0,833333 0,844828
0,850000 0,862069
0,866667 0,879310
0,883333 0,896552
0,900000 0,913793
0,916667 0,931034
0,933333 0,948276
0,950000 0,965517
0,966667 0,982759
0,983333 1,000000
1,000000
1,016667 1,017241
1,033333 1,034483

Gast
2014-12-04, 12:47:33
Seit wann wird ein Frame immer zu gleichen Zeit gefertigt, da ßhängt ja wohl von der Kompelxität der Szene ab. Natürlich variiert die Frametimes dann. Es gibt Szenen die weniger als 16,6ms für die Ausgabe benötigten. Die GPU hält die Ausgabe dann zurück, bis der Monitor in der Lage ist das Bild ausgeben. Zudem werden bis zu 3 Bilder im Speicher gehalten. Wenn ich die Ausgabe auf 58fps limitiere erhalte ich ene durchschnittliche Frametimes von 17,24ms was im Sinne der Komplexität des Szenenablauf und der eingestellten Qualitatsmodi besser passen kann.

aufkrawall
2014-12-04, 13:02:16
Framerate und Frametime beachten. Hängt zusammen, sagt aber nicht direkt das Identische aus. Nur weil es nicht eine Sekunde lang 16,6er Frametimes erreichen kann (entspricht 60fps) heisst das nicht, das was anderes rauskommt als Grestorn sagt.
Leute, beachtet den Zusammenhang...
Es ging um ein fps-Limit bei 58 (da ist idealerweise Frametime = fps). Sobald nicht mehr die Refreshrate in fps Frametimes erreicht werden kann, fällt es mit DB auf die Hälfte zurück und bleibt auch da. Das springt nur hin und her, wenn die fps schwanken.

Grestorn
2014-12-04, 14:42:41
Wenn Du konstant 30 fps haben willst, würde ich den Framelimiter auf 31fps setzen.

Eigentlich sollte man auch nicht einen Framelimiter konfigurieren können, sondern eine minimale(!) Frametime. Die sollte eben 33,3ms betragen. Kann aber gut sein, dass der Framelimiter de fakto genau das macht (also die Frametime aus der gegebenen fps berechnet und dann als Minimum betrachtet).

Eine minimale Frametime von z.B. 18ms garantiert Dir bei 60Hz und VSync eben nicht, dass nicht auch mal zwei Frames unmittelbar hintereinander ausgegeben werden, d.h. Du wirst keine konstanten 30 fps ohne Ruckler haben, sondern immer wieder auch 60 fps und damit einen Ruckler.

dargo
2014-12-04, 14:47:07
Erklär mir mal bitte kurz, warum ein Limiter auf 58fps bei VSync on sinnvoll sein soll?

Ich habe nirgendwo geschrieben es wäre sinnvoll. :confused: Das war nur das Setting welches Thunder99 benutzt hatte.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10433799&postcount=31

Und als er gesagt hat er würde den internen Limiter nutzen gab ich nur den Hinweis, dass man diesen auf keinen Fall mit Maxwell nutzen sollte weil er eben kaputt ist und zu solchen Nebenwirkungen wie du oben im Graphen siehst führt. Der interne Limiter ist nicht nur im Sinne von kaputt, dass er 1,xxfps drauflegt sondern auch, dass die Frametimes völlig aus dem Takt geraten (siehe wieder Graphen oben).


Nach meinem Verständnis muss die Frametime dann immer abwechselnd zwischen 1/60s (=16ms) und 1/30s (=32ms) oszillieren. Was Dein Graph ja auch bestätigt.
:confused:

So sieht es mit 58fps Limit und Vsync On aus wenn der Limiter einwandfrei funktioniert (mit RTSS limitiert).
50493

Vsync On ist dabei natürlich ziemlich sinnfrei wenn es schon einen sauberen Cut bei 17,2xxms gibt.

aufkrawall
2014-12-04, 15:08:46
Wenn Du konstant 30 fps haben willst, würde ich den Framelimiter auf 31fps setzen.

Will ich aber gar nicht, darum ging es nämlich nicht.


Eine minimale Frametime von z.B. 18ms garantiert Dir bei 60Hz und VSync eben nicht, dass nicht auch mal zwei Frames unmittelbar hintereinander ausgegeben werden, d.h. Du wirst keine konstanten 30 fps ohne Ruckler haben, sondern immer wieder auch 60 fps und damit einen Ruckler.
Was ausgegeben wird, wissen wir gar nicht, weil wir nicht mit FCAT messen.


Ich schätze, Afterburner erzählt einem Mist.
Ich habe gerade mal in BF4 die Frametimes per Afterburner gelockt und laut dessen Messungen waren sie die ganze Zeit wie festgetackert.
Nun habe ich aber auch mal gleichzeitig Fraps mitmessen lassen, und das erzählt mir das:
http://abload.de/thumb/frametimestlkx9.jpg (http://abload.de/image.php?img=frametimestlkx9.jpg)

Wenn ich den in-game fps-Limiter statt RTSS dessen laufen lasse, ist wieder eine gewisse Varianz in den Frametimes laut Afterburner drin. Fraps sagt aber, dass die Frametimes nicht nennenswert anders sind.

Nicht immer alles glauben, was irgendwelche Tools erzählen. Hab ich übrigens schon von Anfang an drauf hingewiesen. Vermutlich hört Afterburner mit dem Messen einfach auf, wenn man seinen Limiter nutzt, und gibt stattdessen einfach nur den Limit-Wert an Edit:, so lange der Limiter limitiert...

dargo
2014-12-04, 15:22:18
Ich schätze, Afterburner erzählt einem Mist.
Ich habe gerade mal in BF4 die Frametimes per Afterburner gelockt und laut dessen Messungen waren sie die ganze Zeit wie festgetackert.
Nun habe ich aber auch mal gleichzeitig Fraps mitmessen lassen, und das erzählt mir das:
http://abload.de/thumb/frametimestlkx9.jpg (http://abload.de/image.php?img=frametimestlkx9.jpg)

Wenn ich den in-game fps-Limiter statt RTSS dessen laufen lasse, ist wieder eine gewisse Varianz in den Frametimes laut Afterburner drin. Fraps sagt aber, dass die Frametimes nicht nennenswert anders sind.

Was heißt genau "gleichzeitig"? Zwei Hooks waren noch nie gut. Zudem... mit welchen Pooling erfasst Fraps die Frametimes?


Nicht immer alles glauben, was irgendwelche Tools erzählen. Hab ich übrigens schon von Anfang an drauf hingewiesen. Vermutlich hört Afterburner mit dem Messen einfach auf, wenn man seinen Limiter nutzt, und gibt stattdessen einfach nur den Limit-Wert an Edit:, so lange der Limiter limitiert...
Dagegen würde sprechen, dass es ne gewisse Variation hinter dem Komma gibt.

aufkrawall
2014-12-04, 15:31:39
Was heißt genau "gleichzeitig"? Zwei Hooks waren noch nie gut. Zudem... mit welchen Pooling erfasst Fraps die Frametimes?

Es heißt "Polling", bitte nicht Crunchers Wort-Vergewaltigungen übernehmen.
Offenbar ist es ziemlich feingranulär.
Ein Hook war auch noch nie gut. Abgesehen davon sind die Fraps-Werte keine Fantasiezahlen, sondern plausibel.


Dagegen würde sprechen, dass es ne gewisse Variation hinter dem Komma gibt.
Wo gibt es die? Sehe ich bei den Frametimes nicht.
Verdächtig ist aber, dass die von AB angezeigte fps-Rate leicht schwankt, während die Frametimes angeblich fix sind. Das Programm widerspricht sich selbst. Das spricht auch dafür, dass Fraps recht hat.

InsaneDruid
2014-12-04, 15:41:10
Seit wann wird ein Frame immer zu gleichen Zeit gefertigt, da ßhängt ja wohl von der Kompelxität der Szene ab. Natürlich variiert die Frametimes dann. Es gibt Szenen die weniger als 16,6ms für die Ausgabe benötigten. Die GPU hält die Ausgabe dann zurück, bis der Monitor in der Lage ist das Bild ausgeben. Zudem werden bis zu 3 Bilder im Speicher gehalten. Wenn ich die Ausgabe auf 58fps limitiere erhalte ich ene durchschnittliche Frametimes von 17,24ms was im Sinne der Komplexität des Szenenablauf und der eingestellten Qualitatsmodi besser passen kann.

Dann müsste ohne Vsync nur mit Limiter kein Tearing auftreten. Der Limiter wird mit an Sicherheit grenzender Wahrscheinlichkeit das Bild nur verzögern, mit festen Wert, nicht noch auf den Blank wartend.

dargo
2014-12-04, 15:58:35
Offenbar ist es ziemlich feingranulär.

Mit Zahlen kann ich mehr anfangen. Und sollte es unter 100ms liegen (wobei ich mit 250ms im AB mitlogge, das reicht mir) sollte man sich auch fragen ob das keine negativen Einflüsse auf die Frametimes hat.


Ein Hook war auch noch nie gut. Abgesehen davon sind die Fraps-Werte keine Fantasiezahlen, sondern plausibel.

Und was macht dich da so sicher? Die letzte Version von Fraps wird im kommenden Februar 2 Jahre alt. Die letzte Afterburner Version ist afaik von September 2014.


Wo gibt es die? Sehe ich bei den Frametimes nicht.

58fps Limit über RTSS und Vsync Off
50494

Da wo du die glatte Linie siehst liegt der Bereich bei 17,241-17,258ms. Die beiden Miniausreißer liegen bei 17,266-17,267ms.


Verdächtig ist aber, dass die von AB angezeigte fps-Rate leicht schwankt, während die Frametimes angeblich fix sind. Das Programm widerspricht sich selbst. Das spricht auch dafür, dass Fraps recht hat.
Kann ich absolut nicht bestätigen. Die beiden Miniausreißer hatte ich auch im Framecounter mit 57,7 und 57,9fps gesehen. Der Rest mit der glatten Linie lag beim Framecounter wie angenagelt bei 58,0fps.

Gast
2014-12-04, 16:04:41
i wenn es schon einen sauberen Cut bei 17,2xxms gibt.
Das bezieht sich dann aber insgesamt nur mit den von dir im Hintergrund eingeschalteten und laufenden Programmen (wie AB und all solch Zeugs) und hat dann weniger mit dem tatsächlichen Frameverlauf im Spiel und dessen Enginemöglichkeiten zu tun (siehe auch Assassin's Creed Unity). Da hat nur ein Patch etwas Abhilfe geschaffen.

Wenn du im Fenstermode den Graphen mitlaufen lässt, beeinflusst dieser das Frametimeergebnis genauso. Für die GPU wird die gesamte Bildausgabe dabei "aufwendiger bzw. auch weniger aufwendig zu rendern" sein und zwischen durch mischt sich dann auch noch der Windowsmode ein.

AB zeigt sowieso nur laienhafte Durchschnittswerte. Das war schon immer so. Desto höher du den Wert in ms des Refresh in AB zur Graphenanzeige der Framtimes setzt, desto mehr dürfte dies die Hardware beeinflussen und das Ergebnis wieder verfälschen. Bei hochgesetzten Modi AA++/AF++ dürfte das fatal wirken. Sowas an Graphen statt denn am wirklichen Bildfluss im Spiel festzumachen ist unsinnig und das haben hier auch schon mehrere geschrieben.

Zudem kanns einfach an der Engine liegen, wie du selbst schon festgestellt hat und da kann man mit technischen Möglichkeiten (ob hardwaremäßig oder treibertechnisch) oder Einstellungen kaum etwas ändern. Das muss der Spielentwickler dann zusammen mit dem entsprechenden Treiberteam selbst lösen soweit ihn das erforderliche Feedback erreicht. Zeitgleich beeinflussen Turbomode und Boost der Hardware das Ergebnis nochmals.

Etwas an starren Frametimes und Bildwiederhol- oder Refreshraten festzumachen ist lange vorbei. AMD scheint die Ausgabe treibertechnisch künstlich zu beeinflussen und verzichtet dabei wohl auf höchste fps-Ausgabemodi. Wenn ein Spiel-Spielengine für die entsprechende Hardware optimiert wurde, dauert es zudem bis der Konkurrent das gepatcht hat.

Desto weniger leistungsfähig die Hardware ist, desto weniger fällt das Problem dann um 30fps auf. Soviel zu den behuldigten neuen Konsolengenerationen, die den Markt so positiv beeinflussen können. Die sind wohl schon kurz nach erscheinen hardwaretechnisch veraltet.

dargo
2014-12-04, 16:31:58
Das bezieht sich dann aber insgesamt nur mit den von dir im Hintergrund eingeschalteten und laufenden Programmen (wie AB und all solch Zeugs) und hat dann weniger mit dem tatsächlichen Frameverlauf im Spiel und dessen Enginemöglichkeiten zu tun (siehe auch Assassin's Creed Unity). Da hat nur ein Patch etwas Abhilfe geschaffen.

Weiß jetzt nicht was du mir damit sagen möchtest.


Wenn du im Fenstermode den Graphen mitlaufen lässt, beeinflusst dieser das Frametimeergebnis genauso. Für die GPU wird die gesamte Bildausgabe dabei "aufwendiger bzw. auch weniger aufwendig zu rendern" sein und zwischen durch mischt sich dann auch noch der Windowsmode ein.

Fenstermodus interessiert mich nicht, nur Fullscreen.


AB zeigt sowieso nur laienhafte Durchschnittswerte. Das war schon immer so. Desto höher du den Wert in ms des Refresh in AB zur Graphenanzeige der Framtimes setzt, desto mehr dürfte dies die Hardware beeinflussen und das Ergebnis wieder verfälschen.

Sehe absolut nichts davon.

1000ms Polling
50495

250ms Polling
50496

100ms Polling
http://abload.de/thumb/100msajkpd.png (http://abload.de/image.php?img=100msajkpd.png)

Könnte an der 8 Thread CPU liegen. Cruncher meinte mit einer 4 Thread CPU schon irgendwelche Auswirkungen beim 100ms Polling gesehen zu haben. Ich will da auch keine Wissenschaft draus machen. Ich kann mich nur wiederholen. Der AB spiegelt bildlich sehr gut das wieder was ich Ingame sehe bzw. wahrnehme sollte irgendwelches Stuttering auftreten.

aths
2014-12-04, 16:37:36
Interessant, welche Games hattest du denn getestet bzw. funktionierten noch mit früheren Treibern?
Shadow of Mordor, Metro 2033, Lords of the Fallen, Ryse (ist hier zwar sinnlos dank TAA-Option, aber hatte früher Auswirkungen.)

Den alten Treiber habe ich jetzt nicht noch mal zum Nachtest installert.

Es ging auch in Max Payne 3 und Star Citizen. Dort erzeugte es seltsame Grafikfehler. Es geht jetzt nirgends mehr.

Thunder99
2014-12-04, 17:06:16
Kann zu den Frametime und deren Schwankungen eher nichts mehr beitragen da meine Spiele selber die Spikes oftmals verursachen. :usad:

Steige da noch nicht so durch was da "normal" ist da ich vorher nie was gemessen hatte

Blaire
2014-12-04, 17:18:00
Keine Funktion bei mir. Ich aktiviere Sample Interleaving und diese neue, unbenannte Funktion, aber habe kein Sample Interleaving.

Habs gerade nochmal testet, bei mir funktionierts. MFAA wird zwar in den Ingame-AA Optionen nicht angezeigt, aber es lässt sich dennoch mit 2x, 4x oder 8x MSAA aufwerten. (Vorraussetzung ist Ingame MSAA-Support und funktioniert nur mit DX10 aufwärts)

Hier der Proof (mit ShadowPlay aufgezeichnet) Max Payne 3 (wenn auch nicht ganz fehlerfrei, aber es gibt eine sichtbare Verbesserung)
2xMSAA und zusätzlich MFAA:
http://abload.de/thumb/mfaa_disabledcsyo5.png (http://abload.de/image.php?img=mfaa_disabledcsyo5.png)http://abload.de/thumb/mfaa_enabled1nlhz.png (http://abload.de/image.php?img=mfaa_enabled1nlhz.png)http://abload.de/thumb/max1uaesf.png (http://abload.de/image.php?img=max1uaesf.png)http://abload.de/thumb/max2owk2h.png (http://abload.de/image.php?img=max2owk2h.png)

Shadow of Mordor, Metro 2033, Lords of the Fallen, Ryse (ist hier zwar sinnlos dank TAA-Option, aber hatte früher Auswirkungen.)

Den alten Treiber habe ich jetzt nicht noch mal zum Nachtest installert.

Es ging auch in Max Payne 3 und Star Citizen. Dort erzeugte es seltsame Grafikfehler. Es geht jetzt nirgends mehr.

Vieleicht hattest du nur vergessen MFAA im Profil zusätzlich zu aktivieren?

dargo
2014-12-04, 17:18:50
@aufkrawall

Wenn man im AB den Graphen feiner einstellt sieht man die Variationen auch besser. Immer noch 58fps Limit.
50497

Gast
2014-12-04, 18:18:57
Der AB spiegelt bildlich sehr gut das wieder was ich Ingame sehe bzw. wahrnehme sollte irgendwelches Stuttering auftreten.
Denke ich nicht. Ich denke dir fehlen wesentliche Grundlagen was die Resourccenverteilung bei einer Mehrfachanwendung angeht!

Du denkst also das der gestartete AB im Hintergrund keinerlei Resourccen verbraucht? Und wenn du Einstellungen in oder an diesem änders, dass das absolut nichts bewirkt?

Genausogut könnte ich behaupten, dass die Anwendung zu einem Asychronous und damit auch suboptimalen Resourccenverteilung führt (mal des öfteren die CPU Auslastung beobachtet). Der hardwarebasierende Virtualisierungsprozeß eine unerwünschte (auch unwahre/unvorhershebare) Verteilung auf dem System bewirkt.

Wäre dann noch die Frage, wollen sich die Hardwarehersteller so tief in den Ausschnitt gucken lassen? Ich denke ja nicht.Reicht also schon völlig aus, wenn man diese Spielerei installiert. Da gab es in der Vergangenheit auch Probleme mit Dxtory. Wüsstest Du denn was mit wie "Plesiochron" anzufangen?

Ja, der Einzige der das hier beobachtet und sich darüber Gedanken macht, ist der den du gerade angesprochen hast. Dich interessiert das nicht die Bohne. Wie sollte es auch, wenn man darüber garnichts weiß.

Wer den Schrott AB benutzt ist selbst Schuld. Ihr seit schon ziemlich lustig hier.

dargo
2014-12-04, 18:21:10
Du denkst also das der gestartete AB im Hintergrund keinerlei Resourccen verbraucht? Und wenn du Einstellungen in oder an diesem änders, dass das absolut nichts bewirkt?

Wo habe ich das gesagt?

aufkrawall
2014-12-04, 18:42:54
Habs gerade nochmal testet, bei mir funktionierts. MFAA wird zwar in den Ingame-AA Optionen nicht angezeigt, aber es lässt sich dennoch mit 2x, 4x oder 8x MSAA aufwerten. (Vorraussetzung ist Ingame MSAA-Support und funktioniert nur mit DX10 aufwärts)

Tatsächlich, in Garden Warfare funktioniert es auch (MSAA in PROF_SAVE_profile unter Documents einschalten).
Es sieht quasi aus wie 4x, ist aber deutlich günstiger. TrSSAA brauchts allerdings immer noch.
Geil. :)

aths
2014-12-05, 20:07:30
Habs gerade nochmal testet, bei mir funktionierts. MFAA wird zwar in den Ingame-AA Optionen nicht angezeigt, aber es lässt sich dennoch mit 2x, 4x oder 8x MSAA aufwerten. (Vorraussetzung ist Ingame MSAA-Support und funktioniert nur mit DX10 aufwärts)

Hier der Proof (mit ShadowPlay aufgezeichnet) Max Payne 3 (wenn auch nicht ganz fehlerfrei, aber es gibt eine sichtbare Verbesserung)
2xMSAA und zusätzlich MFAA:
http://abload.de/thumb/mfaa_disabledcsyo5.png (http://abload.de/image.php?img=mfaa_disabledcsyo5.png)http://abload.de/thumb/mfaa_enabled1nlhz.png (http://abload.de/image.php?img=mfaa_enabled1nlhz.png)http://abload.de/thumb/max1uaesf.png (http://abload.de/image.php?img=max1uaesf.png)http://abload.de/thumb/max2owk2h.png (http://abload.de/image.php?img=max2owk2h.png)



Vieleicht hattest du nur vergessen MFAA im Profil zusätzlich zu aktivieren?
Zuvor funktionierte es auch ohne jedes MSAA. Das geht jetzt nicht mehr, wäre aber sinnvoll, weil in Shadow of Mordor MSAA keine Auswirkung hat. (Wird es via Treiber oder NVInspector aktiviert, hat man trotzdem kein MSAA und auch kein MFAA.)

Gleiches gilt für WoW: DX11, aber kein MSAA, auch Aktivierung via Treiber bringt nichts. MFAA auf AA-Off-Grundlage würde praktisch 2x AA bringen.

dargo
2014-12-06, 09:41:52
Ich wollte jetzt dafür keinen extra Thread aufmachen deshalb packe ich das hier rein da ich gerade den 344.80 drauf habe. Sieht mir nach einem Bug aus.

G-Sync Pendeldemo

Vsync steht im Treiber auf anwendungsgesteuert und wird in der Pendeldemo aktiviert.

Vsync On
50518

Vsync On mit einem direkten Switch auf den Desktop und wieder zurück zur Demo und auf Fullscreen über Alt+Enter
50519

Ersteres mit der Zickzack Linie war mir bereits bekannt. Zweiteres ist mir allerdings neu. Das ganz kuriose dabei... im ersten Fall heizt sich die Graka gut auf. Das merkt man daran, dass die Lüfter deutlich schneller drehen und wie man sieht der Takt nicht mehr gehalten werden kann (außerdem schwankt die Framerate ständig zwischen 59,7 und 60,3fps). Im zweiten Fall bleibt die Graka schön ruhig. Wie kann sich die Graka mit Vsync On im ersten Fall dermaßen aufheizen wenn die Frames durch Vsync auf ~60fps limitiert sind? Da komme ich nicht mit. :freak:

Edit:
Hier sieht man besser was ich meine. Messdauer in beiden Fällen ca. 2 Minuten.

Vsync On
50523

Vsync On mit einem direkten Switch auf den Desktop und wieder zurück zur Demo und auf Fullscreen über Alt+Enter
50524

Man achte besonders auf den Verbrauch (~198W vs. ~126W bei gleichen Frames wobei ersteres sogar gedrosselt damit Powertarget von 100% nicht überschritten wird). WTF? :|

Drogenbaron
2014-12-06, 13:38:50
Danke, dargo.

Inzwischen weiß ich dank dir, was mein Messtechnik-Professor damals mit dem Ausspruch "Wer misst, misst Mist" gemeint hatte.

Konnte ich mir damals nicht so recht erklären, dank deiner "Messungen" wird es mir aber langsam klar...

dargo
2014-12-06, 13:53:55
Hast du im Ansatz verstanden worum es geht oder wolltest du nur trollen?

Drogenbaron
2014-12-06, 14:38:46
Hast du im Ansatz verstanden worum es geht oder wolltest du nur trollen?
Wenn ich ehrlich bin würde ich jetzt antworten, dass ich sehr gut verstanden habe, dass du schlicht keinerlei Plan hast und irgendwas misst um dann irgendwelche unsinnigen Fragen in den Raum zu werfen.

Um dich mal etwas zum nachdenken zu bewegen:

Was möchtest du mit dem Test konkret bewirken?

"mit einem direkten Switch auf den Desktop und wieder zurück zur Demo und auf Fullscreen über Alt+Enter"

Was soll das Testen? Was ist der Unterschied ob du eine D3D-Applikation startest oder diese gestartet, dann minimiert und wieder aufgerufen wurde? Was sind eigentlich die Settings im Desktop? War Aero aktiv? Wurde Aero auf Basic geändert, weil Windows die D3D-Applikation bemerkt hat? Ist die Applikation überhaupt ein valider Test oder gibt es z.B. Bugs? Oder kann die Applikation (da auf G-Sync auslegt), gar Probleme mit einem normalen V-Sync haben?

dargo
2014-12-06, 14:55:56
Was möchtest du mit dem Test konkret bewirken?

"mit einem direkten Switch auf den Desktop und wieder zurück zur Demo und auf Fullscreen über Alt+Enter"

Was soll das Testen? Was ist der Unterschied ob du eine D3D-Applikation startest oder diese gestartet, dann minimiert und wieder aufgerufen wurde? Was sind eigentlich die Settings im Desktop? War Aero aktiv? Wurde Aero auf Basic geändert, weil Windows die D3D-Applikation bemerkt hat? Ist die Applikation überhaupt ein valider Test oder gibt es z.B. Bugs? Oder kann die Applikation (da auf G-Sync auslegt), gar Probleme mit einem normalen V-Sync haben?
Wir sind hier in einem Treiber-Feedback-Thread oder nicht? Was ich bewirken will? Ich möchte vorhandene Bugs aufzeigen. Ob die vom Treiber oder der Anwendung kommen weiß ich erstmal nicht. Deshalb poste ich das hier um Vergleiche zu anderen Usern zu haben. Aber stattdessen habe ich hier nur noch überwiegend mit Trollen zu tun die u.U. noch nicht mal Maxwell haben um überhaupt mitreden zu können. Es ist mittlerweile schon so weit, dass ich mich mit einzelnen 3DC-Membern lieber über PNs unterhalte als in diesem Forum offiziell. :rolleyes:

Ansonsten...

Desktop = 1920x1080 @60Hz mit Standard Settings von Windows 8.1 x64.

captain_drink
2014-12-06, 15:57:39
Dargo, das hat mit dem spezifischen Release nichts zu tun, sondern hängt generell mit dem seltsamen Verhalten des Treibers zusammen, sobald Vsync auf application controlled steht. Bei Qake Live z.B. konnte ich damit den Effekt erzielen, einen FPS-Lock von 60 und Tearing zu erhalten. Umgekehrt hatte ich auch ungelockte FPS und Tearing, obwohl ingame Vsync aktiv war. Stell im NVCP entweder an oder aus, dann gibt es auch keine seltsamen Probleme.

dargo
2014-12-06, 20:53:15
@captain_drink

Danke für dein Feedback, endlich mal einer der wenigen mit denen man vernünftig diskutieren kann. Wird leider immer seltener in diesem Forum in letzter Zeit.

Am anwendungsgesteuerten Vsync liegt es aber nicht. Im Treiber Vsync On gestellt. Die Pendeldemo gestartet und der Stromverbrauch schießt trotzdem durch die Decke bei nur 60fps mit Drosselung vom Takt.

-/\-CruNcher-/\-
2014-12-06, 21:22:05
Denke ich nicht. Ich denke dir fehlen wesentliche Grundlagen was die Resourccenverteilung bei einer Mehrfachanwendung angeht!

Du denkst also das der gestartete AB im Hintergrund keinerlei Resourccen verbraucht? Und wenn du Einstellungen in oder an diesem änders, dass das absolut nichts bewirkt?

Genausogut könnte ich behaupten, dass die Anwendung zu einem Asychronous und damit auch suboptimalen Resourccenverteilung führt (mal des öfteren die CPU Auslastung beobachtet). Der hardwarebasierende Virtualisierungsprozeß eine unerwünschte (auch unwahre/unvorhershebare) Verteilung auf dem System bewirkt.

Wäre dann noch die Frage, wollen sich die Hardwarehersteller so tief in den Ausschnitt gucken lassen? Ich denke ja nicht.Reicht also schon völlig aus, wenn man diese Spielerei installiert. Da gab es in der Vergangenheit auch Probleme mit Dxtory. Wüsstest Du denn was mit wie "Plesiochron" anzufangen?

Ja, der Einzige der das hier beobachtet und sich darüber Gedanken macht, ist der den du gerade angesprochen hast. Dich interessiert das nicht die Bohne. Wie sollte es auch, wenn man darüber garnichts weiß.

Wer den Schrott AB benutzt ist selbst Schuld. Ihr seit schon ziemlich lustig hier.

Entschuldige mal Schrott du hast keine richtige Ahnung was du redest das ding ist mitlerweile zum Standard geworden (Unwinders Code), weil Asus und Co nur scheisse gebastelt haben über die Jahre und schon damals konnte keiner Unwinders polling effizienz erreichen du hast zwar recht aber der Kernel treiber verbraucht minimal an resourcen so gesehen ist was er in 100 ms lesen kann ohne merkbar die Anwendung zu beinflussen schon enorm.
Bezweifele sehr start das z.b Obmuks2k Sensor Pooling und Display so effizient ist im Nvidia Inspector sicher nicht.

Der GUI Rendering overhead selbst kann auch minimiert werden einfach das fenster kleiner ziehen das bringt die CPU cycles auf ein minimum im micro berreich 0,xx %


Effizienteste in App Frametime pooling was ich bis jetzt gesehen hab ist definitiv Frostbites Engines Debug Graph

Selbst Aida und Co damals Everest, die franzosen von cpuid, waren alle damals nicht in der Lage Unwinders effizienz zu schlagen, die die das erkannt haben waren MSI und haben sich Unwinder gesichert und hatten plötzlich das beste tool danach hat Nvidia sich dafür eingesetzt das es geshared wird die ersten waren EVGA die Unwinders code übernahmen.

Jetzt ist es so gut wie bei allen Nvidia AIBs Standard,sowas als Schrott zu bezeichnen kann nur wie gesagt von jemandem kommen der von Windows und effizienter low level Programmierung (Zeitkritischer non RTOS) anscheinend keine Ahnung hat.

Wenn ich ehrlich bin würde ich jetzt antworten, dass ich sehr gut verstanden habe, dass du schlicht keinerlei Plan hast und irgendwas misst um dann irgendwelche unsinnigen Fragen in den Raum zu werfen.

Um dich mal etwas zum nachdenken zu bewegen:

Was möchtest du mit dem Test konkret bewirken?

"mit einem direkten Switch auf den Desktop und wieder zurück zur Demo und auf Fullscreen über Alt+Enter"

Was soll das Testen? Was ist der Unterschied ob du eine D3D-Applikation startest oder diese gestartet, dann minimiert und wieder aufgerufen wurde? Was sind eigentlich die Settings im Desktop? War Aero aktiv? Wurde Aero auf Basic geändert, weil Windows die D3D-Applikation bemerkt hat? Ist die Applikation überhaupt ein valider Test oder gibt es z.B. Bugs? Oder kann die Applikation (da auf G-Sync auslegt), gar Probleme mit einem normalen V-Sync haben?

Hieran sieht man wie du aufpasst das ist eindeutig Windows 8 auf dem Screenshot somit ist Aero immer aktiv bzw es exestiert nicht mehr offiziel ;)

Die Pendeldemo erfasst Afterburner sehr ordentlich es kann auch das kurven muster erfassen und zeichnen das Nvidia nutzt zur 60-40 simulation :)

http://www.ld-host.de/uploads/images/c2d76d7f0ef002caeae3df089816086f.jpg


16-20 ms sind perfekt

alles darüber kann bei 60 FPS als Render Ziel quasi überhaupt nicht mehr akzeptiert werden an shader execution time vor allen in schnellen temporalen situationen.

captain_drink
2014-12-07, 00:50:05
Am anwendungsgesteuerten Vsync liegt es aber nicht. Im Treiber Vsync On gestellt. Die Pendeldemo gestartet und der Stromverbrauch schießt trotzdem durch die Decke bei nur 60fps mit Drosselung vom Takt.

Das ist dann aber tatsächlich seltsam. Wie verhält es sich mit Framelimit und/oder D3DOverrider?

dargo
2014-12-07, 10:40:03
Nur minimal besser.

60fps Limit über RTSS + Vsync Off im Treiber
50533

Vsync On im Treiber + Vsync On und Triplebuffering @D3D-Overrider
50534

Edit:
Das ist übrigens kein direkter Bug mit Vsync sondern der Treiber allgemein oder die Anwendung.

Vsync Off + 60fps Limit mit einem direkten Switch auf den Desktop und wieder zurück zur Demo und auf Fullscreen über Alt+Enter
50535

Schon merkwürdig. Ohne diesen Switch auf den Desktop und wieder zurück werden offenbar deutlich mehr Frames gerendert obwohl gar nicht notwendig. Dadurch der deutlich höher Verbrauch.

Seph
2014-12-07, 16:14:23
Gibt es eine alternative zu K-Boost um den Boost zu locken? Der boost kann bei OC zu crashes führen, wenn Voltage zu spät nachtaktet. Lässt sich komplett umgehen durch einen Boost-Lock.

-/\-CruNcher-/\-
2014-12-07, 17:21:08
Nicht bekannt K-Boost ist auf die dynamik des Boost Systems ausgelegt ein zurück gibt es scheinbar nicht mehr.

Man kann das wie ich finde gut mit Intels OC Entscheidung damals vergleichen bei Einführung von Sandy Bridge ;)

Alles nur noch dynamisch und mit Nvidias Regeln dafür ;)

So fordert es im Endeffekt ja auch Microsoft von den IHVs seit Jahren schon bei ihrer Hardware, Kepler war der erste Schritt Maxwell verschärft es.


Und sorry Seph das du das nicht hören willst aber das ist auch der Richtige schritt OC ist schon lange tot, der user Entscheidet nicht mehr das System der Algo tut es die Zukunft ist schlauere Hardware die sich dynamisch anpässt siehe Mobile ;)

Was du als OC siehst ist nur noch dazu da leute wie dich zu befriedigen und etwas extra bucks an ihnen zu verdienen ;)

aufkrawall
2014-12-07, 17:52:39
Gibt es eine alternative zu K-Boost um den Boost zu locken? Der boost kann bei OC zu crashes führen, wenn Voltage zu spät nachtaktet. Lässt sich komplett umgehen durch einen Boost-Lock.
Im Bios Spannung für P0 fixieren.

-/\-CruNcher-/\-
2014-12-07, 17:59:20
Und Garantie verlieren eigentlich sollten diese Bios Modifikationen nicht mehr gehen denke mal spätestens mit Volta ist der Bios lock endgültig und sie machen keine Fehler mehr bei den Keys und somit nur noch zertifizierte biose des jeweiligen AIBs ;)

Thunder99
2014-12-08, 16:12:29
2 Monitore, beide DVI. Über erweiterten Desktop keine Probleme. Wenn ich auf den Primären umschalte (nur "PC") bleibt der Bildschirm schwarz und es kommt kein Signal

...
.
Mein Fehler :redface:, wenn der Hauptmonitor am sekundären DVI Port hängt und dann auf Einzel-Display umgeschaltet wird kann kein Bild kommen :smile:

Ergo aufpassen beim anschließen. DVI-I ist Hauptanschluss und DVI-D sekundär

aufkrawall
2014-12-08, 16:40:18
Und Garantie verlieren eigentlich sollten diese Bios Modifikationen nicht mehr gehen denke mal spätestens mit Volta ist der Bios lock endgültig und sie machen keine Fehler mehr bei den Keys und somit nur noch zertifizierte biose des jeweiligen AIBs ;)
Wer weiß.
Jedenfalls wird es bei einem vernünftigem Grund-Bios wenig bringen.
Man kauft einfach von Anfang an die richtige Karte.

Thunder99
2014-12-08, 16:57:42
Wird aber mehr zu Rückläufern führen da niemals alle Karte am Anfang getestet werden (können).

Klar wird es nicht alle betreffen aber wir Nerds eher schon

-/\-CruNcher-/\-
2014-12-08, 18:06:41
Das Problem was ich eher sehe manchmal scheint das Boost system immernoch zu träge zu reagieren in gewissen situationen dargo ist das auch schon aufgefallen die Frames brechen dann plötzlich weg und es brauch zeit sich zu stabilisieren.

Solche geschichten kenne ich von Fermi nicht, da hatte man 3 states die sofort aktiv wurden hier springt es so schnell hin und her dynamisch das man darauf schon optimieren sollte.

In diesem hinblick am Bios rumzufummeln wer weiss welche Auswirkungen das hat abseits von Nvidias Tuning ;)

Allerdings scheint Nvidia schon den Level von Intels Speedstep erreicht zu haben was Stabilität angeht mit Boost 2

Solche sachen die du als Nerd bezeichnet sind eher das gegenteil weil das nerdige ist ja es zu dynamisieren wie bei der CPU, sprich nur die resourcen super schnell anzufragen die auch gebraucht werden und nur den Strom zu verbrauchen der auch Absolut notwendig ist in der ms und das am besten noch von GPU und CPU gleichzeitig parallel und in Einklang ;)

Da versucht man immer besser zu werden das ist das richtig nerdige (HSA) ;)

Die neuen Konsolen sind hier der Prototyp

aufkrawall
2014-12-08, 18:14:55
Das Problem was ich eher sehe manchmal scheint das Boost system immernoch zu träge zu reagieren in gewissen situationen dargo ist das auch schon aufgefallen die Frames brechen dann plötzlich weg und es brauch zeit sich zu stabilisieren.

Hast du ein Beispiel? Ich konnte nichts dergleichen beobachten.
Allerdings benutze ich auch immer das maximum performance Setting bei Spielen.

-/\-CruNcher-/\-
2014-12-08, 18:30:59
Beim gleichzeitigen Recording eher aber das ist alles sehr Zeitkritisch stabile Frametimes ohne brakeups das sollte das Ziel sein und mit so wenig fluktuationen wie möglich, daraufhin tune ich momentan mein GTX 970 Windows system und so gut wie alle Engine ergebnise unter Maxwell :)

Vor allen Open World wo viele faktoren immer gleichzeitig aufeinanderprallen der Performance zuwachs kommt dann in weniger komplexen Spielen wie von selbst unter DX ;)

vorher bei Fermi war das Ziel noch 30 FPS das war weitaus einfacher da man die aussetzer nicht wirklich in der intensität wahrnimmt als wie wenn man von stabilen 60 FPS fällt

Und nur wenn es in diesem Kontext überhaupt Sinn macht pack ich den OC knüppel aus aber nicht nur rein spaß an der Freud und nicht nur wenn es minimalen impact hat aber dadurch den Stromverbrauch negativiert ;)

Bis jetzt musste ich da noch nicht dran rumschrauben und komme mit stock ganz gut hin :)

Thunder99
2014-12-08, 19:49:01
Vieleicht war der Ausdruck von Nerd nicht ganz richtig aber meinte damit ja wir Freaks achten mehr auf so Feinheiten wie der Otto-Normal Nutzer.

Was mir aber auffällt und teilweise spürbar ist das wenn aufgrund bestimmter Effekte/Bedingungen die Leistungsaufnahme über dem gesetzten Maxmum steigt greift ja der Boostlimit ein was in sinkende FPS Zahlen niederschlägt und höhere Frametimes. Evt ein negativer Aspekt von Boost 2.0/ voll dynamischen Boost? :( :confused:

aufkrawall
2014-12-16, 19:55:30
Neue GFE-Version:
http://de.download.nvidia.com/GFE/GFEClient/2.1.5.0/GeForce_Experience_v2.1.5.0.exe

Fixt etwa, dass die ausgewählte Bitrate von 130mbit immer auf 50mbit nach einem Neustart springt.
Eventuell bringt es auch was bezüglich des Hängenbleibens in P0, mal schauen.

Edit: Nein, nach einer Aufnahme in Garden Warfare lässt nvspcaps64.exe die Karte immer noch in P0 hängen...

Blaire
2014-12-16, 21:31:20
Der Bitrate-Bug ist gefixt, gut zu wissen. :)

Zu dem P0-Bug passiert das nur in PvZ: Garden Warfare oder lässt sich das auch in anderen Games nachstellen? Mit welchen GFE-Settings genau, ich kann es leider nicht selber prüfen , da ich das Game nicht besitze.
Im Treiber war auch ganz sicher Adaptiv statt Max. Leistung unter Energieverwaltung ausgewählt?

aufkrawall
2014-12-17, 15:42:47
Ich konnte es gerade auch sofort mit BF4 reproduzieren (347.07), global steht auf adaptiv.
GFE ist auf manuelle Aufnahme, 4k & 130mbit eingestellt. Desktop-Erfassung an oder aus scheint egal zu sein.

Blaire
2014-12-18, 00:18:36
Ok mit zusätzlich Max. Leistung bevorzugen (Energieverwaltung) im Battlefield4-Profile kann ich es hier nun auch reproduzieren. ShadowPlay sollte da flexibler und nicht länger im P0-State verweilen, wenn BF4 längst beendet wurde. Werde es als Bug melden.

Gast
2014-12-20, 13:46:57
ich bin der gast mit dem dsr problem und dem hdmi tv und 347.09.

gezwungenermaßen bin ich ja jetzt wieder mit einem alten treiber unterwegs und der 344.80 scheint ein problem mit opencl zu haben.
madvr sagt unsopported version 4.2, current version is 4.1

mit dem 344.75 geht alles.

Gast
2014-12-20, 14:02:01
korrektur:

es liegt an den überaus genialen installationsroutinen im treiber.

da ist beim up/downgrade irgendwas schief gegangen und ich bin jedesmal gewzungen die einstellungen zurückzusetzen.

das ist arm. im jahr 2014 sollten sich mit win 8.1 ohne probleme treiber up/downdaten lassen.

ManuelG_NVIDIA
2015-03-30, 18:34:36
Ich konnte es gerade auch sofort mit BF4 reproduzieren (347.07), global steht auf adaptiv.
GFE ist auf manuelle Aufnahme, 4k & 130mbit eingestellt. Desktop-Erfassung an oder aus scheint egal zu sein.

Wir haben gerade diesen Fehler mit der neuesten Version von GFE gefixt. Sie können dort laden: http://www.geforce.com/whats-new/articles/geforce-experience-and-shield-hub-updates-simplify-remote-gamestream

aufkrawall
2015-03-30, 18:37:32
I'd like to test it but ShadowPlay can't be activated since the corresponding Nvidia server can't be reached (GFE can't download the changelog either).

Edit: I suppose I'm not the only one who thinks that this online check is a very questionable design decision.

Razor
2015-03-31, 07:52:06
Soll das heißen, dass der Logon unter GFE erzwungen wird, um eigene Geräte miteinander zu koppeln?
Kann ja wohl nicht deren Ernst sein!
:hammer:

Ich muss sagen, dass mir nVidia immer unsympathischer wird.
Evtl. also doch mal wieder ins andere Lager wechseln?
:weg:

Razor