PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA GeForce Drivers 347.88 WHQL


Blaire
2015-03-17, 19:49:33
Just in time for the highly anticipated title Battlefield Hardline, this new GeForce Game Ready Driver ensures you'll have the best possible Gaming Experience. With support from GeForce SLI Technology and one-click Game Setting Optimizations within GeForce Experience, you’ll have the best possible Performance and Image Quality during Gameplay. In addition, this Driver is aligned with Today’s Launch of the World’s fastest Gaming GPU: the GeForce GTX Titan X (http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan-x)

http://www.geforce.com/whats-new/articles/geforce-344-88-whql-driver-released

Game Ready
Best gaming experience for Battlefield Hardline, including support for SLI Technology and GeForce Experience one-click optimizations.

New GeForce GPU
Supports the new GeForce GTX Titan X (http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan-x), based upon the second-generation Maxwell architecture.

Desktop-Drivers:

Windows Vista/7/8/8.1 64-Bit
International Version: http://us.download.nvidia.com/Windows/347.88/347.88-desktop-win8-win7-winvista-64bit-international-whql.exe

Windows Vista/7/8/8.1 32-Bit
International Version: http://us.download.nvidia.com/Windows/347.88/347.88-desktop-win8-win7-winvista-32bit-international-whql.exe

WindowsXP 64-Bit
International Version: http://us.download.nvidia.com/Windows/347.88/347.88-desktop-winxp-64bit-international.exe

WindowsXP 32-Bit
International Version: http://us.download.nvidia.com/Windows/347.88/347.88-desktop-winxp-32bit-international.exe

Supported Products

GeForce 900 Series:
GeForce GTX TITAN X , GeForce GTX 980, GeForce GTX 970 , GeForce GTX 960

GeForce 700 Series:
GeForce GTX TITAN Z, GeForce GTX TITAN Black, GeForce GTX TITAN, GeForce GTX 780 Ti, GeForce GTX 780, GeForce GTX 770, GeForce GTX 760, GeForce GTX 760 Ti (OEM), GeForce GTX 750 Ti, GeForce GTX 750, GeForce GTX 745, GeForce GT 740, GeForce GT 730, GeForce GT 720

GeForce 600 Series:
GeForce GTX 690, GeForce GTX 680, GeForce GTX 670, GeForce GTX 660 Ti, GeForce GTX 660, GeForce GTX 650 Ti BOOST, GeForce GTX 650 Ti, GeForce GTX 650, GeForce GTX 645, GeForce GT 645, GeForce GT 640, GeForce GT 630, GeForce GT 620, GeForce GT 610, GeForce 605

GeForce 500 Series:
GeForce GTX 590, GeForce GTX 580, GeForce GTX 570, GeForce GTX 560 Ti, GeForce GTX 560 SE, GeForce GTX 560, GeForce GTX 555, GeForce GTX 550 Ti, GeForce GT 545, GeForce GT 530, GeForce GT 520, GeForce 510

GeForce 400 Series:
GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 460 SE v2, GeForce GTX 460 SE, GeForce GTX 460, GeForce GTS 450, GeForce GT 440, GeForce GT 430, GeForce GT 420

Notebook Drivers:

Windows Vista/7/8/8.1 64-Bit
International Version: http://us.download.nvidia.com/Windows/347.88/347.88-notebook-win8-win7-64bit-international-whql.exe

Windows Vista/7/8/8.1 32-Bit
International Version: http://us.download.nvidia.com/Windows/347.88/347.88-notebook-win8-win7-32bit-international-whql.exe

Supported Products

GeForce 900M Series (Notebooks)
GeForce GTX 980M, GeForce GTX 970M, GeForce GTX 965M
GeForce 800M Series (Notebooks)
GeForce GTX 880M, GeForce GTX 870M, GeForce GTX 860M, GeForce GTX 850M, GeForce 840M, GeForce 830M, GeForce 820M, GeForce 810M
GeForce 700M Series (Notebooks)
GeForce GTX 780M, GeForce GTX 770M, GeForce GTX 765M, GeForce GTX 760M, GeForce GT 755M, GeForce GT 750M, GeForce GT 745M, GeForce GT 740M, GeForce GT 735M, GeForce GT 730M, GeForce GT 720M, GeForce 710M
GeForce 600M Series (Notebooks)
GeForce GTX 680MX, GeForce GTX 680M, GeForce GTX 675MX, GeForce GTX 675M, GeForce GTX 670MX, GeForce GTX 670M, GeForce GTX 660M, GeForce GT 650M, GeForce GT 645M, GeForce GT 640M, GeForce GT 640M LE, GeForce GT 635M, GeForce GT 630M, GeForce GT 625M, GeForce GT 620M, GeForce 610M
GeForce 500M Series (Notebooks)
GeForce GTX 580M, GeForce GTX 570M, GeForce GTX 560M, GeForce GT 555M, GeForce GT 550M, GeForce GT 540M, GeForce GT 525M, GeForce GT 520M, GeForce GT 520MX
GeForce 400M Series (Notebooks)
GeForce GTX 485M, GeForce GTX 480M, GeForce GTX 470M, GeForce GTX 460M, GeForce GT 445M, GeForce GT 435M, GeForce GT 425M, GeForce GT 420M, GeForce GT 415M, GeForce 410M

Release-Notes:
http://us.download.nvidia.com/Windows/347.88/347.88-win8-win7-winvista-desktop-release-notes.pdf

Profil-Changes:
• 3DMark14 – added Profile
• Battlefield Hardline – updated Profile, added 3D-Support
• DiRT 4 – added SLI Profile
• Dragon Age: Inquisition - updated Profile
• Dying Light added 3D-Support
• Homeworld Remastered - added SLI Profile
• Life is strange - added SLI Profile
• Mad Max - added SLI Profile
• Medieval Engineers - added SLI Profile
• Middle-Earth: Shadow of Mordor - added 3D-Support
• Nascar 2014 – added Profile
• Project CARS – updated Profile, added HBAO+ and 3D-Support
• Saint`s Row - Gat out of Hell – updated Profile, added 3D-Support
• Total War: Attila – updated Profile, added 3D-Support
• Trine 3 - added SLI Profile
• Zombie Army Trilogy - added SLI Profile

some End-User Bugfixes:
• allows Overclocking for Maxwell Notebook GPUs
• (Maxwell) fixed Memory clocks down in several Games with CUDA-Effects (Rage, Batman: Arkham Asylum, Just Cause 2, Mafia II, NASCAR’14)
• (Maxwell) Risen 2 Dark Waters- Graphic Corruptions-Fix
• Partial Fix for P-State Clock-Issue with GFE/ShadowPlay

Additional Details:
• PhysX System Software 9.14.0702
• HD Audio 1.3.33.0
• CUDA - version 7.0.29
• GeForce Experience 2.2.2

4Fighting
2015-03-17, 19:53:50
3Dmark 14? Produkt-Ankündigung via Treiber? :D

dildo4u
2015-03-17, 19:55:45
Dirt 4 ist wohl interessanter. ;) Den 3D Mark haben sie schon mal gezeigt.

https://youtu.be/rFhu4lpRAKw

tdon
2015-03-17, 20:02:37
Trine 3?

Wake
2015-03-17, 20:05:26
Auch schon vor 2 Wochen angekündigt (https://www.youtube.com/watch?v=0tS05xEHKbQ) worden.

Blaire
2015-03-17, 20:10:33
Trine 3?

Was SLI-Support angeht ist NVIDIA ziemlich auf Zack :D

Chip4000
2015-03-17, 20:11:33
Danke, aber der Download dauert hier über 2 Stunden.

Wake
2015-03-17, 20:21:41
Mit Jdownloader 2 schnell geladen, der baut wie viele andere DL-Manager mehrere Verbindungen zum Server auf wenn möglich.

Cyris
2015-03-17, 20:23:26
"P-State Clock-Issue fixed", na das lässt ja mal hoffen.

Wake
2015-03-17, 20:26:18
"Partial" ;)

-/\-CruNcher-/\-
2015-03-17, 20:33:58
Dragon Age: Inquisition - updated Profile

Was wurde im Profil genau verändert ?

soll die Veränderung gegen die brakes helfen die im release note als (open issues) erwähnt wurden ?

PS: Scheint so in den release notes taucht es anscheinend nicht mehr auf, scheinen den übeltäter gefunden zu haben :)

ist verschwunden :)

Windows Vista/Windows 7 64-bit Issues
Single GPU Issues
Dragon Age Inquisition runs poorly (stutters) on NVIDIA hardware. [1588023]


man könnte das gefühl bekommen es hat mit BF Hardline optimierungen zu tun ;)

Chip4000
2015-03-17, 20:43:55
Mit Jdownloader 2 schnell geladen, der baut wie viele andere DL-Manager mehrere Verbindungen zum Server auf wenn möglich.

Danke, hab ihn von hier geladen.
us.download.nvidia.com/Windows/347.88/347.88-desktop-win8-win7-winvista-64bit-international-whql.exe

DaTraS
2015-03-17, 20:59:25
Nur zur Info, es gibt noch keine Profile für AC:Rogue, Cities: Skylines und Ori and the Blind Forest.

Blaire
2015-03-17, 22:23:34
"P-State Clock-Issue fixed", na das lässt ja mal hoffen.

Bezieht sich auf die letzte GFE-Beta v2.3.10.37 + P0-State-Bug nach einer beliebigen Aufzeichnung, dies wurde behoben.
Ein ähnlich gelagertes Problem, allerdings Profil-basiert ist hingegen noch offen.

Was wurde im Profil genau verändert ?
man könnte das gefühl bekommen es hat mit BF Hardline optimierungen zu tun ;)

Stability-Fix für Dragon Age Inquisition für bestimmte PC Konfigs, kann aber auch für Battlefield Hardline (auch FB3) nützlich sein.

Nur zur Info, es gibt noch keine Profile für AC:Rogue, Cities: Skylines und Ori and the Blind Forest.

Cities: Skylines ist nicht AFR-Friendly hatte ich vorhin erfahren, wird kein SLI Profil für kommen. Für Assassins Creed Rogue und Ori and the Blind Forest ist noch keine Rückmeldung da.

hellibelli
2015-03-18, 08:24:59
Immer noch kein DSR für SLI-Besitzer?

Wann soll dass denn endlich mal kommen. Warte da schon eine ganze weile drauf.

DaTraS
2015-03-18, 08:51:31
Öhm DSR geht mit SLi schon die ganze Zeit?! Nur in Verbindung mit Gsync gehts wohl nicht, genauso wenig wie MFAA.

Mr.Magic
2015-03-18, 10:15:14
Bei hochauflösenden Monitoren funktioniert DSR nur bei inaktivem SLI. Angeblich wird daran gearbeitet.

http://nvidia.custhelp.com/app/answers/detail/a_id/3597/~/dynamic-super-resolution-(dsr)-support-reference-chart

Tomi
2015-03-18, 10:19:18
Vermutlich wurde die Frage schon mal gestellt, aber warum werden 8xx Chips nicht unterstützt? Ich hab ne GTX870M im Notebook und 347.09 ist der letzte Offizielle dafür? Seitdem heißt es "nix neues an der Treiberfront" in der Nvidia Experience.

robbitop
2015-03-18, 10:31:52
Cities: Skylines ist nicht AFR-Friendly hatte ich vorhin erfahren, wird kein SLI Profil für kommen. Für Assassins Creed Rogue und Ori and the Blind Forest ist noch keine Rückmeldung da.
Im DX9 Modus sollte es machbar sein. Das Cities in Motion 2 Profil funktioniert prinzipiell. Wird aber instabil. Sollte also zu machen sein.

4Fighting
2015-03-18, 10:42:31
was hat eigentlich das Undefinied Bit 0x704D456E zu bedeuten?

Some objects render at wrong depth. Some effects render incorrectly.

Godmode
2015-03-18, 13:08:55
was hat eigentlich das Undefinied Bit 0x704D456E zu bedeuten?

Das wird wohl ein 3DVision bit sein?

4Fighting
2015-03-18, 13:15:45
Das wird wohl ein 3DVision bit sein?

Ist bei Hardline im Profil. Bei BF4 hatte ich es nämlich nicht gesehen:confused:

Blackland
2015-03-18, 13:23:11
Danke, aber der Download dauert hier über 2 Stunden.
Geh auf computerbase.de, da flutscht es. ;)

Gast
2015-03-18, 14:49:26
Kann ich den Miracasttreiber, Experience und die 3D Visions-Treiber wieder deinstallieren? Habe kein 3D fähiges Display und ich will keinen verlinkten Kontakt zu nVidia. Daher brauche ich kein Experience. Wenn ich die Treiber einzeln entfernen will bleibt die Deinstallation hängen. Es passiert nichts.

Blaire
2015-03-18, 18:18:57
Vermutlich wurde die Frage schon mal gestellt, aber warum werden 8xx Chips nicht unterstützt? Ich hab ne GTX870M im Notebook und 347.09 ist der letzte Offizielle dafür? Seitdem heißt es "nix neues an der Treiberfront" in der Nvidia Experience.

Wie kommst du darauf, die GTX 870M wird doch ganz normal von diesem und auch älteren 347.xx Treibern unterstützt?

Immer noch kein DSR für SLI-Besitzer?

Wann soll dass denn endlich mal kommen. Warte da schon eine ganze weile drauf.

Leider gibt es nichts neues zu berichten.

Im DX9 Modus sollte es machbar sein. Das Cities in Motion 2 Profil funktioniert prinzipiell. Wird aber instabil. Sollte also zu machen sein.

Es gibt doch garkein off. SLI Profil für Cities und Motion 2? Bei NV ist man da sehr genau, es braucht nur kleinere Grafikfehler oder irgendwo negative Performance ggü. sGPU geben, dies reicht schon aus um SLI Support zu verweigern.

Kann ich den Miracasttreiber, Experience und die 3D Visions-Treiber wieder deinstallieren? Habe kein 3D fähiges Display und ich will keinen verlinkten Kontakt zu nVidia. Daher brauche ich kein Experience. Wenn ich die Treiber einzeln entfernen will bleibt die Deinstallation hängen. Es passiert nichts.

Dann wäre es vieleicht mal an der Zeit alte Treiberreste zu entfernen und den Treiber frisch zu installieren?
Danach mit benutzerdefinierter Treiber-Installation, die einzelnen Parts abwählen welche nicht mitinstalliert werden sollen und gut ist. Alternativ kannst du selbstverständlich auch die einzelnen Ordner zu GFE, Streaming,ShadowPlay, 3DVision bzw. Miracast im Treiber-Ordner ( "C:\NVIDIA\DisplayDriver\347.88\Win8_WinVista_Win7_64\International\") direkt vorher löschen und mit der Express-Installation fortfahren.
Manuelle Deinstallation der einzelnen NV-Services über Windows /Systemsteuerung /Programme und Features sollte aber ebenso problemlos klappen.

Gast
2015-03-18, 19:16:22
Dann wäre es vieleicht mal an der Zeit alte Treiberreste zu entfernen und den Treiber frisch zu installieren?
Danach mit benutzerdefinierter Treiber-Installation, die einzelnen Parts abwählen welche nicht mitinstalliert werden sollen und gut ist. Alternativ kannst du selbstverständlich auch die einzelnen Ordner zu GFE, Streaming,ShadowPlay, 3DVision bzw. Miracast im Treiber-Ordner ( "C:\NVIDIA\DisplayDriver\347.88\Win8_WinVista_Win7_64\International\") direkt vorher löschen und mit der Express-Installation fortfahren.Manuelle Deinstallation der einzelnen NV-Services über Windows /Systemsteuerung /Programme und Features sollte aber ebenso problemlos klappen.
Hab ich jetzt so gemacht und geht, dachte nicht das nV damit Probleme hat, weil ich sonst immer nur drüber installiert habe. Jetzt geht es nach Rechnerneustart. Alles o.k. danke.

Gast
2015-03-18, 19:21:55
@Blaire
Der Deinstalltionsbalken (die grüne Anzeige) lief bis Ende durch, die Deinstallation blieb dann aber im Menü (Bildschirm) so hängen. War Windows 8. Vielleicht interessiert es dich ja.

TurricanM3
2015-03-18, 20:01:44
P0 Bug zum Teil gefixed? Werd ich gleich mal testen.

BTW: Ich installiere beide 3DV Treiber, Miracast und HD-Audio nie mit. Ich weiß gar nicht was mir letztere beide bringen sollten.

robbitop
2015-03-18, 20:07:03
Es gibt doch garkein off. SLI Profil für Cities und Motion 2? Bei NV ist man da sehr genau, es braucht nur kleinere Grafikfehler oder irgendwo negative Performance ggü. sGPU geben, dies reicht schon aus um SLI Support zu verweigern.


Ist das Profil aus der Liste im 3DCF.

Willst du mich btw verarschen? :D In gefühlt der Hälfte aktueller Spiele hat man immer mal wieder flackernde Texturen. Von wegen NV ist da "genau". :freak:

Ist ggf. nicht NVs Schuld - aber SLI ist genau wie Crossfire eine hässliche AFR Krücke. IMO müssten beide da deutlich mehr auf die Studios einwirken während der Spielentwicklung, dass die Spiele das von Anfang an sauber supporten.

Wenns bei nem aktuellen Titel tatsächlich mal sauber läuft (was gefühlt out of the box selten ist!), wirds häufig kaputt gepatcht. :D

TurricanM3
2015-03-18, 20:13:32
P0 Bug zum Teil gefixed? Werd ich gleich mal testen.


http://gpuz.techpowerup.com/15/03/18/474.png

Klappt wunderbar.
Das beste ist aber noch, es hilft nicht einmal mehr ShadowPlay kurz off/on zu stellen. Seit irgendeinem Treiber muss man die Kiste komplett neu starten. (y)

aufkrawall
2015-03-18, 20:15:30
Bei mir hatte vorhin SP deaktivieren geholfen.
Ist aber echt lächerlich, das Problem ist seit ca. einem halben Jahr bekannt.

TurricanM3
2015-03-18, 20:23:20
Bei mir leider nicht (mehr), schon mit dem letzten Treiber (oder GFE) nicht mehr. Hatte sonst auch alles geschlossen um einen anderen Einfluss ausschließen zu können.

Das verbrät so viel mehr Strom, bei mir ist durch den Bug idle der Verbrauch des gesamten Systems 42% höher und das absolut sinnlos! Mich wunderts auch das dem nicht nachgegangen wird.

Raff
2015-03-18, 20:26:26
P0 Bug zum Teil gefixed? Werd ich gleich mal testen.

Was ist der "P0-Bug"? Grafikkarte bleibt unter bestimmten Umständen im 3D-Modus hängen?

MfG,
Raff

TurricanM3
2015-03-18, 20:29:09
Ja, taktet dann einfach nicht herunter wenn ShadowPlay aktiviert ist. Man muss keine Aufnahme starten. Bei mir reicht es in BF4 einmal kurz auf die Testrange und direkt wieder Spiel beenden. Kommt dann oben der Screen raus. Und das schon seit Launch! :/

Blaire
2015-03-18, 21:11:04
Willst du mich btw verarschen? :D In gefühlt der Hälfte aktueller Spiele hat man immer mal wieder flackernde Texturen. Von wegen NV ist da "genau". :freak:

Da muss man auch differenzieren, wenn möglicherweise Probleme bestehen, welche vom Entwickler in Aussicht gestellt wurden diese zu fixen, gibt es auch ein off. SLI Profile im Treiber (z.b. Dragon Age Inquisition). Da steht dann der Entwickler in der Pflicht. Und Gameworks - Titel liefen zuletzt eigentlich alle einwandfrei im SLI zusammen, es ist auch nicht die Schuld von NV wenn Games im nachhinein "kaputtgepatcht" werden. ;) Insgesamt ist die Tendenz aber eindeutig, Gameworks-Titel meist von Anfang an über SLI-Support verfügten. Auch Witcher3 (http://www.geforce.com/games-applications/pc-games/the-witcher-3-wild-hunt) wird dazu gehören.

Ja, taktet dann einfach nicht herunter wenn ShadowPlay aktiviert ist. Man muss keine Aufnahme starten. Bei mir reicht es in BF4 einmal kurz auf die Testrange und direkt wieder Spiel beenden. Kommt dann oben der Screen raus. Und das schon seit Launch! :/

Das tritt aber nur dann auf, wenn der Energieverwaltungsmodus über ein beliebiges Treiber-Profil auf "Max. Leistung bevorzugen" gesetzt ist, das solltest besser erwähnen. :) Mit Treiber-Defaults wie es die wohl meisten Leute verwenden, passiert dies nicht. Ja, dafür steht noch ein Treiber-Fix aus.
Der P0-State Bugfix in diesem Treiber bezieht sich auf die letzte GFE-Beta v2.3.10.37 wo dieses Problem prinzipiell immer auftrat ( völlig egal ob Global-, Profil basiert, Treiber-Defaults oder nicht.)

TurricanM3
2015-03-18, 22:39:14
Das tritt aber nur dann auf, wenn der Energieverwaltungsmodus über ein beliebiges Treiber-Profil auf "Max. Leistung bevorzugen" gesetzt ist, das solltest besser erwähnen. :) Mit Treiber-Defaults wie es die wohl meisten Leute verwenden, passiert dies nicht. Ja, dafür steht noch ein Treiber-Fix aus.
Der P0-State Bugfix in diesem Treiber bezieht sich auf die letzte GFE-Beta v2.3.10.37 wo dieses Problem prinzipiell immer auftrat ( völlig egal ob Global-, Profil basiert, Treiber-Defaults oder nicht.)


Kann ich nicht bestätigen, tritt bei mir immer auf:

http://abload.de/img/unbenanntuqqdj.png (http://abload.de/image.php?img=unbenanntuqqdj.png)

Blaire
2015-03-19, 02:04:16
Kann ich nicht bestätigen, tritt bei mir immer auf:

http://abload.de/img/unbenanntuqqdj.png (http://abload.de/image.php?img=unbenanntuqqdj.png)

Mit Google Chrome und GFE 2.2.2? Oder welche Version? Möglich das es ein weiteres Problem mit Google-Chrome gibt, ich habe deine Daten + Settings gespeichert, ich schau mir das morgen im Laufe des Tages erneut an. Mit Firefox konnte ich das damals auch nie reproduzieren, siehe mein Youtube (http://youtu.be/Zl9LB-di52I)-Video was ich dir damals verlinkt hatte.
Lediglich dieses profilbasierte (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10457883#post10457883) Problem (Adaptive vs. High Performance) was auch User aufkrawall bestätigen konnte.

Gast
2015-03-19, 08:18:48
Hat der Treiber wieder den Bug mit dem AF? Der flimmert im Vergleich zu dem direkten Vorgänger sichtbar mehr bei Dying Light.

-/\-CruNcher-/\-
2015-03-19, 13:46:12
Mit Google Chrome und GFE 2.2.2? Oder welche Version? Möglich das es ein weiteres Problem mit Google-Chrome gibt, ich habe deine Daten + Settings gespeichert, ich schau mir das morgen im Laufe des Tages erneut an. Mit Firefox konnte ich das damals auch nie reproduzieren, siehe mein Youtube (http://youtu.be/Zl9LB-di52I)-Video was ich dir damals verlinkt hatte.
Lediglich dieses profilbasierte (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10457883#post10457883) Problem (Adaptive vs. High Performance) was auch User aufkrawall bestätigen konnte.

Relation in Zusammenhang mit Windows NT 6 Internen Power Shemes getestet ?

Ehrlichgesagt nutze ich Shadowplay nicht (zu unflexible, im Vergleich zu was die NVEnc API direkt supportet) zu viel Service Balast.
GFE selbst ist auch Balast auf den man sehr gut verzichten kann ;)

Mit Windows 10 wird es interessant wenn Microsoft Recording Native macht (zumindestens via Xbox App) für alle GPUs DSPs und interfaces ;)
da wird Nvidia ordentlich wieder user verlieren für ihren APP alleingang auch viele 3rd parties werden verluste erleiden ;)
Die sind bestimmt schon alle am Zittern in wie weit das ihre Buisness Models betrift vor allem auf der Application Side selbst und klingeln seit dem Announcement Sturm bei Microsoft ;)

Feuerteufel
2015-03-19, 17:26:01
Folgende Auffälligkeiten nach der Installation mit SLI:

Habe den Treiber direkt über Geforce Experience geladen und installiert.
Bei SLI muss man ja nach einer Treiberinstallation SLI wieder aktivieren.

Dies klappt in Zusammenspiel mit Avast Antivirus (2015.10.2.2214) nicht mehr. Nachdem ich auf "übernehmen" klicke erscheint ein Fenster ich soll die avastui.exe schließen.

Lösung ist bisher:
1. Selbstschutzsteuerung von Avast deaktivieren (Einstellungen, Fehlerbehandlung, "Avast Selbstschutz Funktion aktivieren" haken raus.
2. Avast bis zum nächsten Start deaktivieren
3. Verbleibende Avast Module aus dem Taskmanager abschießen

danach klappt die SLI Aktivierung

VoiD
2015-03-19, 21:08:01
...
Der P0-State Bugfix in diesem Treiber...

hat den Bug bei mir (GTX970) erst eingeführt. Hatte ich vorher nie. Also wieder zurück zu 347.71.
Schade, 347.88 hatte das leichte stottern bei Elite: Dangerous eleminiert.

Lowkey
2015-03-20, 10:40:09
347.52
- in D3 bekommt man alle paar Tage laufend einen Treiber Reset im Spiel bei wenig Last.
347.88
- Firefox hat auf sämtlichen Seiten Probleme mit Bildern, also das 3DCenter Logo ist manchmal schwarz oder Fotos sind komplett verpixelt. D3 lief bis jetzt sehr gut.

aufkrawall
2015-03-20, 10:41:46
Bei FF ist was in Version 36 kaputt. Man darf ihn etwa zu lange nicht minimiert lassen.
Auf Radeons gab es noch andere Fehler. Installier mal testweise 37 Beta.

Andi_669
2015-03-20, 10:56:17
der P0-Bug tritt aber nur im Zugsamenhang mit ShadowPlay oder ?

dann wäre es mir egal, ShadowPlay benutze/Installiere ich nicht,

aufkrawall
2015-03-20, 10:58:08
Ja.

aufkrawall
2015-03-20, 13:15:09
P0 Bug tritt hier tatsächlich mit adaptivem Energieprofil nicht mehr auf.
Immerhin.

Michael-OC
2015-03-20, 13:40:58
Neuer Treiber neues Glück ;D klappt wieder nicht mit meinem Yamaha receiver (RX-471). Sobald der receiver an ist (standby reicht schon) startet das NV Control panel gar nicht mehr und DSR ist nicht mehr verfügbar. Ist der receiver aus klappt alles wunderbar. Mit irgendeinm alten Treiber ging das im Klonmodus alles problemlos, jetzt seit den 3-4 letzten Treibern eben nicht :confused:

labecula
2015-03-20, 15:31:12
Neuer Treiber neues Glück ;D klappt wieder nicht mit meinem Yamaha receiver (RX-471). Sobald der receiver an ist (standby reicht schon) startet das NV Control panel gar nicht mehr und DSR ist nicht mehr verfügbar. Ist der receiver aus klappt alles wunderbar. Mit irgendeinm alten Treiber ging das im Klonmodus alles problemlos, jetzt seit den 3-4 letzten Treibern eben nicht :confused:

dto. bei einem Onkyo Receiver... ebenfalls Clone. danke NV!

Gast
2015-03-20, 15:44:39
bei mir hier ist alles top! endlich geht dsr auf der receiver(pio)+tv kombi wieder.

Michael-OC
2015-03-20, 16:14:07
Jetzt wird es echt merkwürdig... wenn ich zu einem anderen Benutzer wechsle geht das control panel auf einmal wieder. Wieder zurück und es geht nicht mehr. Wieder gewechselt und es funktioniert :freak::freak:

Möchte ungern jedes Mal hin und her wechseln :P was die einzelnen Nutzerprofile damit zu tun haben weiß ich jetzt allerdings auch nicht ;D

Grestorn
2015-03-20, 16:18:11
Lösch doch mal "C:\Users\<Username>\AppData\Local\nVidia" und "C:\Users\<Username>\AppData\Local\NVIDIA Corporation" komplett.

Da sind die UserProfil-abhängigen Einstellungen von nVidia drin.

Wenn Du sichergehen willst, kannst Du die Verzeichnisse vorher kopieren oder einfach nur umbenennen. Danach abmelden und neu anmelden. Und dann testen.

Michael-OC
2015-03-20, 16:29:54
Lösch doch mal "C:\Users\<Username>\AppData\Local\nVidia" und "C:\Users\<Username>\AppData\Local\NVIDIA Corporation" komplett.

Da sind die UserProfil-abhängigen Einstellungen von nVidia drin.

Wenn Du sichergehen willst, kannst Du die Verzeichnisse vorher kopieren oder einfach nur umbenennen. Danach abmelden und neu anmelden. Und dann testen.

Unter keinem Benutzer ist dort ein Nvidia Ordner vorhanden hm...

Grestorn
2015-03-20, 16:39:54
Das ist aber sehr eigenartig... Du weißt, dass Du AppData erst sichtbar machen musst?

Gast
2015-03-20, 17:47:08
DSR funzt über meinen TV per AVR übrigens immer noch nicht. Die Auflösung wird zwar korrekt angezeigt im CP, wenn ich sie einstelle bleibt das Bild jedoch schwarz.
Irgendwas wurde da seit dem vorletzten Treiber geändert, da ging das nämlich noch. So bleibt zu sagen, dass das Feature leider seit einigen Wochen total verbuggt ist.

Blaire
2015-03-20, 18:38:46
bei mir hier ist alles top! endlich geht dsr auf der receiver(pio)+tv kombi wieder.

Gut zu wissen. DSR/Receiver/HDTV -Bugfix war schon teils enthalten, es werden nur noch nicht alle Auflösungen korrekt unterstützt. Erst mit dem nächsten Treiber-Release.

Neuer Treiber neues Glück ;D klappt wieder nicht mit meinem Yamaha receiver (RX-471). Sobald der receiver an ist (standby reicht schon) startet das NV Control panel gar nicht mehr und DSR ist nicht mehr verfügbar. Ist der receiver aus klappt alles wunderbar. Mit irgendeinm alten Treiber ging das im Klonmodus alles problemlos, jetzt seit den 3-4 letzten Treibern eben nicht :confused:

344.75 sollte der letzte funktionierende Treiber gewesen sein? Kannst du das bestätigen bzw. nochmal überprüfen?

Michael-OC
2015-03-20, 19:14:50
Das ist aber sehr eigenartig... Du weißt, dass Du AppData erst sichtbar machen musst?

Ja weiß ich. Ist nirgends ein NV Ordner vorhanden

Michael-OC
2015-03-20, 19:15:49
Gut zu wissen. DSR/Receiver/HDTV -Bugfix war schon teils enthalten, es werden nur noch nicht alle Auflösungen korrekt unterstützt. Erst mit dem nächsten Treiber-Release.



344.75 sollte der letzte funktionierende Treiber gewesen sein? Kannst du das bestätigen bzw. nochmal überprüfen?

Weiß nicht genau welcher der letzte funktionierende war. Möchte gerade aber auch kein "driver testing" veranstalten sorry.

Gast
2015-03-20, 19:22:41
347.52
- in D3 bekommt man alle paar Tage laufend einen Treiber Reset im Spiel bei wenig Last.
347.88
- Firefox hat auf sämtlichen Seiten Probleme mit Bildern, also das 3DCenter Logo ist manchmal schwarz oder Fotos sind komplett verpixelt. D3 lief bis jetzt sehr gut.

Doom 3?

Ansonsten evtl. mal ausschreiben und die Faulheit zu Hause lassen... es gibt ja mehrere D3 Spiele zur Auswahl!

Gast
2015-03-20, 19:28:23
Bei FF ist was in Version 36 kaputt. Man darf ihn etwa zu lange nicht minimiert lassen.
Auf Radeons gab es noch andere Fehler. Installier mal testweise 37 Beta.

Wenn FF länger läuft, ruckelt es arg beim scrollen (144Hz), hat das was mit dem P0 Bug zu tun?

TurricanM3
2015-03-20, 20:21:45
Mit Google Chrome und GFE 2.2.2? Oder welche Version? Möglich das es ein weiteres Problem mit Google-Chrome gibt, ich habe deine Daten + Settings gespeichert, ich schau mir das morgen im Laufe des Tages erneut an. Mit Firefox konnte ich das damals auch nie reproduzieren, siehe mein Youtube (http://youtu.be/Zl9LB-di52I)-Video was ich dir damals verlinkt hatte.
Lediglich dieses profilbasierte (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10457883#post10457883) Problem (Adaptive vs. High Performance) was auch User aufkrawall bestätigen konnte.

Ich habe GFE 2.4.0.9 und Chrome. Aber pass auf: der Bug ist gerade das zweite mal schon mit deaktiviertem SP (!) in Cities Skylines (4k DSR) aufgetreten. Würde auch erklären warum SP off/on nichts mehr bringt. Und tut mir leid, aber ich habe keine Muße mehr da rumzustesten. Wie die letzten Monate gezeigt haben bringt das einfach nichts. Evtl. liegt das an meinem Windows oder der HW-Konstellation, beta GFE oder sonst was und wir testen da ewig ohne Ergebnis. Die 980 kommt sowieso bald wieder weg und vielleicht geht damit auch der Fehler. Danke trotzdem für deine Mühe auch per PN.

-/\-CruNcher-/\-
2015-03-20, 21:24:29
Also stabil scheint er zu sein

I-Ray Rendering (Interactive Optix Prime)
DX 11 DWM
Firefox DX 11 39 und Video aufnahme gleichzeitig kein Problem, so muss es sein :D

Vielleicht nochmal DSR reinhauen um noch mehr zu stressen ;)

TheRealVampire
2015-03-21, 17:17:56
Ich habe Treiber Resets mit meiner GTX 970 , mit dem 347.52 hatte ich sowas nicht,tritt bei mir in D3 (Diablo 3) auf.

quantus
2015-03-21, 22:42:28
Microsoft hat den 347.90 WHQL als wichtiges Update im Angebot! Ist das vielleicht wieder ein Hotfix für irgendwas? Leider steht da ja nie genau dabei wieso und weshalb.

http://download.windowsupdate.com/d/msdownload/update/driver/drvs/2015/03/20722154_16262aedb808c3093b31a0c84d31d7625e57b39b.cab

hgf45t
2015-03-22, 02:16:05
Ich habe Treiber Resets mit meiner GTX 970 , mit dem 347.52 hatte ich sowas nicht,tritt bei mir in D3 (Diablo 3) auf.

Habe ab und an Treiberreset beim hochfahren des Rechners (Weißer Bildschirm) GTX 660.

TheRealVampire
2015-03-22, 13:07:13
So bin wieder zurück zum 347.52 er Treiber. Keine Treiber resetes mehr :-)
Irgendwas laüft da wohl nicht ganz rund mit dem neuen Treiber :-(

VooDoo7mx
2015-03-22, 14:41:11
P0 Bug tritt hier tatsächlich mit adaptivem Energieprofil nicht mehr auf.
Immerhin.

Was genau ist denn der P0 Bug? Ich weiß es wirklich nicht.

dildo4u
2015-03-22, 14:56:05
Das sich der Takt im Desktop bzw beim Surfen nich mehr absenkt nach dem er mal hochgefahren wurde.

Gast
2015-03-22, 17:37:44
Das sich der Takt im Desktop bzw beim Surfen nich mehr absenkt nach dem er mal hochgefahren wurde.
Dauert trotzdem Minuten lang bis der Takt vom Spielen im Desktop wieder auf Idle Werte geht. GTX780. Weiß nicht was NVidia da für Probleme hat. Naja irgendwann gehts dann mal.

-/\-CruNcher-/\-
2015-03-22, 18:33:06
Jedem sollte bewusst sein das seit NT 6 DirectX (D3D) in form von DWM in die Desktop Composition gewandert ist und vor allem Firefox zeigte hier schon öfters probleme mit seinem nicht optimalen Rendering Stack, jede Application die D2D oder D3D verwendet und läuft kann zu einem Problem werden ;)

Firefox hat schon oft demonstriert wie es TRDs verursachen kann mit Nvidia GPU & Treibern ;)

Vor allem Overclocker oder Pre Overclocked Karten Owner müssen höllisch aufpassen ;)

Wenn Power Management sprich Timer und Frequency Scaling hinzukommen wird es noch komplizierter ;)

Ehrlichgesagt fand ich es gut das Nvidia endlich schluss mit Overclocking machen wollte aber sie haben den Arsch nicht in der Hose dafür und wenn andere weiterhin auf dem Geschäftsmodel aufbauen wollen bringt es auch nicht viel ;)

Blaire
2015-03-22, 22:42:57
Microsoft hat den 347.90 WHQL als wichtiges Update im Angebot! Ist das vielleicht wieder ein Hotfix für irgendwas? Leider steht da ja nie genau dabei wieso und weshalb.

http://download.windowsupdate.com/d/msdownload/update/driver/drvs/2015/03/20722154_16262aedb808c3093b31a0c84d31d7625e57b39b.cab

Keine weiteren Änderungen ggü. 347.88 lediglich Profile-Updates (Oddworld New n Tasty,Project CARS etc.) Als nächstes sollte dann R349 erscheinen.

34987
2015-03-23, 00:00:28
Firefox hat schon oft demonstriert wie es TRDs verursachen kann mit Nvidia GPU & Treibern ;)

Vor allem Overclocker oder Pre Overclocked Karten Owner müssen höllisch aufpassen ;)



Naja, die GTX 460 (worauf ich das mal deute) endete nicht nur bei laufendem Firefox in einem TDR mit anschließendem Reset, weil nichts mehr geht...
Zum Glück hat NVIDIA den Fehler behoben, nach einer sehr, sehr langen Zeit...

cR@b
2015-03-23, 08:14:46
Schade, 347.88 hatte das leichte stottern bei Elite: Dangerous eleminiert.

Ist das wirklich so oder nur Placeboeffekt? Wäre eine Revolution, sofern das zutriftt!

quantus
2015-03-23, 11:15:09
Keine weiteren Änderungen ggü. 347.88 lediglich Profile-Updates (Oddworld New n Tasty,Project CARS etc.) Als nächstes sollte dann R349 erscheinen.


Danke.

Trotzdem noch ein paar Infos:

WHQL driver v347.88 got a known bug ... siehe: https://forums.geforce.com/default/topic/819148/geforce-drivers/official-nvidia-347-88-whql-driver-feedback-thread/post/4486784/#4486784 ... and so v347.90 is/might be the "new 347.88" release ;)
"...

Bug-Info^^: ...This release has a known bug that affects Optimus and Hybrid-based systems, preventing the "manage updates" button in the NVIDIA Control Panel from working correctly. This will be fixed in a subsequent driver update planned for next week.
..."

Cuda von 7.029 auf 7.0.31

-/\-CruNcher-/\-
2015-03-23, 11:57:35
Naja, die GTX 460 (worauf ich das mal deute) endete nicht nur bei laufendem Firefox in einem TDR mit anschließendem Reset, weil nichts mehr geht...
Zum Glück hat NVIDIA den Fehler behoben, nach einer sehr, sehr langen Zeit...

Ich konnte es bei mir nur auf Firefox zurückführen in Game Engines gab es nie einen TDR die TDRs tratten immer auf dem Desktop (DWM auf) zu der Zeit nutzte sogar den Problematischen Treiber ohne Probleme nach neuer Firefox Nigthtly eine Zeit lang.
Wobei TDR war ja ein gutes zeichen meistens lief es ja so ab (Mouse slowdown,Complete System Freeze).

Air Force One
2015-03-23, 14:03:54
ich bekomme immer die Fehlermeldung mit PhysX:
http://fs2.directupload.net/images/150323/vrdcngv2.png (http://www.directupload.net)

Kennt jemand da den Grund für?

8094586
2015-03-23, 17:31:32
ich bekomme immer die Fehlermeldung mit PhysX:
http://fs2.directupload.net/images/150323/vrdcngv2.png (http://www.directupload.net)

Kennt jemand da den Grund für?

Einmal DDU im abgesicherten Modus ausführen und dann noch einmal berichten bitte.

http://www.wagnardmobile.com/DDU/

Godmode
2015-03-23, 17:32:29
Er hat schon das OS platt gemacht, das hat geholfen. :)

Gast
2015-03-23, 17:34:57
Er hat schon das OS platt gemacht, das hat geholfen. :)

http://i1.kym-cdn.com/entries/icons/original/000/000/554/facepalm.jpg

Air Force One
2015-03-23, 20:39:56
Nein das musste ich machen.
Daher kannst du dir dein Facepalm getrost in deine eigene Fresse klatschen.


DDU hat nichts gebracht, abgesicherter Modus ebenfalls nicht.
Habe dann gelesen das es für Office einen ähnlichen Fehlercode gibt.
Dort lag es am defekten Installation von Windows.
Da mein System ohnehin praktisch eine frisch installation war, war es einfacher das System platt zumachen.

Trotzdem Danke für die Hilfe 8094586 und Godmode :)

Gast
2015-03-23, 23:08:05
hat ich auch schon liegt an einer fehlerhaften deinst.einer vorherigen Version..treiberreste in dem ordner... DDU drüber und gut ist beim nächstenmal.

Gast
2015-03-23, 23:09:20
hat ich auch schon liegt an einer fehlerhaften deinst.einer vorherigen Version..treiberreste in dem ordner... DDU drüber und gut ist beim nächstenmal.

hmmm DDU hat nix gebracht....eigenartig das löscht alle verzeichnisse und dateien

slimSpencer
2015-03-24, 02:00:09
• (Maxwell) fixed Memory clocks down in several Games with CUDA-Effects (Rage, Batman: Arkham Asylum, Just Cause 2, Mafia II, NASCAR’14)


Hallo,

habe eine 970er (seit Dez 14) - mir ist schon von Anfang an aufgefallen, dass diese in CUDA-Anwendungen (OctaneRender u. Blender-Cycles) den Speichertakt nur auf 1,5GHz (statt 1,75 in Spielen) hält.

Ist das noch jemandem aufgefallen oder ggf. sogar so gewollt?

VG

-/\-CruNcher-/\-
2015-03-24, 02:33:28
Sehr wahrscheinlich gewollt da die Belastung enorm ist auf der gesamten Hardware nicht nur GPU, da ist enorm viel druck auf den 28nm und allen komponenten bei einigen AIB Designs kann man das dann sogar hören ;)

Ich hab es auch mal Geschaft bei der GTX 460 die Shader zu überladen, mit zusätzlichem Compute CUDA/Directcompute was immer mehr wird steigt auch die Belastung und wenn ein Entwickler es übertreibt dann rumst es schnell bei Karten die am Limit gebaut sind ;)

Wobei bei Raytracing nur der Photoreal Mode (da kann dann selbst der Windows Kernel Probleme bekommen, das system responsive zu halten) von Optix wirklich heftig ist die Interactive Modes gehen ja noch ;)

slimSpencer
2015-03-24, 02:47:00
na dann...

Etwas merkwürdig finde ich nur, dass
1) bei den Vorgängern (750Ti, 670, 580) der Speichertakt bei 100% lag (zumindest meine ich, mich so daran erinnern zu können).
2) das Power-Level bei etwa 70% stagniert, der Core-Takt dafür aber recht hoch ist (1.266 MHz)

Wie auch immer, bin sehr zufrieden mit dem Ding in CUDA. Wenn ich nur dran denk, was die 670er für ne Krücke im Vergleich war.

Schönen Abend/Nacht Dir noch!

P.S.: Ne 460er hatte ich auch mal, hatte aber leider doch zu wenig VRAM zum Rendern. :wink:

VG

Blaire
2015-03-24, 03:41:25
Hallo,

habe eine 970er (seit Dez 14) - mir ist schon von Anfang an aufgefallen, dass diese in CUDA-Anwendungen (OctaneRender u. Blender-Cycles) den Speichertakt nur auf 1,5GHz (statt 1,75 in Spielen) hält.

Ist das noch jemandem aufgefallen oder ggf. sogar so gewollt?

Ja ist normal, einer der Gründe ist die höhere Präzision für CUDA Applications wie es auch typisch für Workstation (Quadro-) Cards welche bei niedrigeren Taktraten performen. NVIDIA arbeiten aber an einem App Profile-System um dies besser unterscheiden zu können, der Speichertakt für Endverbraucher-Anwendungen dann nicht mehr gedrosselt wird.
Für Games welche Cuda für verschiedenste Effekte nutzen, wurde das bereits im aktuellen 347.88 WHQL berücksichtigt.

versus01091976
2015-03-24, 10:55:28
wann ist denn diese Woche mit dem neuen Treiber zu rechnen?

Lotzi
2015-03-24, 13:01:04
heute abend

Gast
2015-03-25, 14:20:39
heute abend


ist wohl ein deeeeeeehnbarer Begriff was?

Godmode
2015-03-26, 09:52:28
Was ist eigentlich mit GSYNC+SLI+DSR, kommt das noch oder haben sie das gestrichen? Schon extrem nervig, das man was ankündigt und dann nichts kommt. :/

BK-Morpheus
2015-03-26, 23:19:15
und wieder zurück zum 340.52....

mit dem 347.88 hatte ich häufiger Mikroruckler in WoW (egal ob mit oder ohne Shadowplay am laufen) und der VLC Player hat schwarz nimmer schwarz dargestellt (dazu reicht es eigentlich in den Nvidia Farbsettings beim jeweiligen Monitor den Dynamikumfang auf "voll" (0-255) zu setzen, aber der 347.88 hat das nicht richtig umgesetzt (beim wechsel zwischen versch. Videos hat der VLC Player die ersten 500ms ein sauberes Videobild gezeigt und dann bämm, sind die Schwarzen Bereiche plötzlich dunkelgrau geworden, wie bei eingegrenztem Dynamikumfang).

Vielleicht kommt ja 2016 wieder ein guter Treiber raus :freak:

GTX 760, Dualmonitor, Shadowplay aktiviert inkl. Desktop Erfassung (aber Aufnahmemodus = Manuell)

Gast
2015-03-27, 00:53:11
und wieder zurück zum 340.52....

mit dem 347.88 hatte ich häufiger Mikroruckler in WoW (egal ob mit oder ohne Shadowplay am laufen) und der VLC Player hat schwarz nimmer schwarz dargestellt (dazu reicht es eigentlich in den Nvidia Farbsettings beim jeweiligen Monitor den Dynamikumfang auf "voll" (0-255) zu setzen, aber der 347.88 hat das nicht richtig umgesetzt (beim wechsel zwischen versch. Videos hat der VLC Player die ersten 500ms ein sauberes Videobild gezeigt und dann bämm, sind die Schwarzen Bereiche plötzlich dunkelgrau geworden, wie bei eingegrenztem Dynamikumfang).

Vielleicht kommt ja 2016 wieder ein guter Treiber raus :freak:

GTX 760, Dualmonitor, Shadowplay aktiviert inkl. Desktop Erfassung (aber Aufnahmemodus = Manuell)

DDU getestet?

BK-Morpheus
2015-03-27, 09:43:15
DDU getestet?
Zum Zeitpunkt meines letzten Beitrags nicht.
Jetzt schon.

Ingame konnte ich heute morgen nicht ausführlich testen, aber wenn ich 3-4 versch. Videos im VLC einreihe und dann mit "N" und "P" durch die Videos wechsle, dann tritt der Bug mit dem Dynamikumfang unverändert auf.

Komischerweise tritt selbst das nicht auf, wenn nur ein Video geöffnet wird, sondern erst, wenn ich da zwischen mehreren Videos durchzappe...ich vermute dass es evtl. mit bestimmten Container- oder Codec-Formaten auftritt.

Bevor ich da aber wieder viel Zeit in die genaue Fehlersuche investiere, bin ich zurück zum genannten 340.52, denn damit habe ich keines der genannten Probleme.

phoenix887
2015-03-27, 16:51:17
Ist das ein Bug im DSR Modus?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10567567&postcount=1537

Blaire
2015-03-27, 20:43:54
Was ist eigentlich mit GSYNC+SLI+DSR, kommt das noch oder haben sie das gestrichen? Schon extrem nervig, das man was ankündigt und dann nichts kommt. :/

Dauert noch länger, wird aber kommen hab ich mir bestätigen lassen. Gibt aber kein ETA im Moment, ich weiß es ist ärgerlich, da man SLI-Support gerade da gut brauchen könnte. Immerhin wurde es in Aussicht gestellt, das sind Feature-Enhancements und nicht selbstverständlich. Auch MFAA SLI-Support dauert noch.

Ist das ein Bug im DSR Modus?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10567567&postcount=1537

Nein, so wie DSR halt prinzipbedingt funktioniert, aus den EDID-Timings des Monitors zu lesen und die vorhandene Auflösung nicht zu überschreiben. Wenn dir das Game keine Wahl lässt, die Refresh-Rate manuell zu wählen, ist das natürlich blöd. So bleibt nur der Umweg über Desktop die 1620p@144Hz zu forcieren oder die Monitor-Edid zu modifizieren und die Standard Refresh-Rate von 60 auf 144Hz zu erhöhen, was wiederum problematisch sein könnte, falls du einen G-Sync Monitor verwendest.

Godmode
2015-03-27, 20:45:45
Dauert noch länger, wird aber kommen hab ich mir bestätigen lassen. Gibt aber kein ETA im Moment, ich weiß es ist ärgerlich, da man SLI-Support gerade da gut brauchen könnte. Immerhin wurde es in Aussicht gestellt, das sind Feature-Enhancements und nicht selbstverständlich. Auch MFAA SLI-Support dauert noch.


Also kann das theoretisch auch noch ein Jahr dauern oder überhaupt nicht kommen? :confused:

Troyan
2015-03-27, 20:46:57
Ist das ein Bug im DSR Modus?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10567567&postcount=1537

Schau im CP. Dort sollte es eine Option geben, dass 120/144Hz in Anwendungen erzwungen werden kann - "Bevorzugte Aktualisierungsrate".

aufkrawall
2015-03-27, 21:24:59
Also kann das theoretisch auch noch ein Jahr dauern oder überhaupt nicht kommen? :confused:
Ich würde da konsequent sein und das AFR-Geraffel einfach bleiben lassen.
Es verdirbt einem doch so viel, bei zweifelhaftem Nutzen.

Gast
2015-03-27, 22:44:06
Schau im CP. Dort sollte es eine Option geben, dass 120/144Hz in Anwendungen erzwungen werden kann - "Bevorzugte Aktualisierungsrate".

Zumindest bei ghostbusters funktioniert das nicht. Bleibt bei 60 hz...

Godmode
2015-03-27, 22:47:40
Ich würde da konsequent sein und das AFR-Geraffel einfach bleiben lassen.
Es verdirbt einem doch so viel, bei zweifelhaftem Nutzen.

Bei mir ist alles auf AFR ausgelegt, Board, CPU und Wakü. Wenn ich jetzt nur mehr eine Karte reinstecke, wäre das irgendwie Verschwendung, so blöd das auch klingen mag. Zumindest geht GSYNC mit SLI, das ist ja auch was wert. Dann muss ich mir halt auch noch einen 4K GSYNC Monitor kaufen.

Darkman.X
2015-03-27, 23:49:59
Nein, so wie DSR halt prinzipbedingt funktioniert, aus den EDID-Timings des Monitors zu lesen und die vorhandene Auflösung nicht zu überschreiben. Wenn dir das Game keine Wahl lässt, die Refresh-Rate manuell zu wählen, ist das natürlich blöd. So bleibt nur der Umweg über Desktop die 1620p@144Hz zu forcieren oder die Monitor-Edid zu modifizieren und die Standard Refresh-Rate von 60 auf 144Hz zu erhöhen, was wiederum problematisch sein könnte, falls du einen G-Sync Monitor verwendest.

Ich hatte das ja schon mal in einem vorherigen Treiber-Thread angeprangert. Mir ist auch immer noch nicht klar, wieso ausgerechnet nur bei DSR-Auflösungen die Monitor-Edid-Infos so wichtig sind?

Wenn ich meinen Desktop auf 1080p @ 60 Hz einstelle (was laut CRU den Edid-Infos entspricht, trotz 144 Hz-TFT) und im Treiber das "Prefered Refreshrate" auf Highest umstelle, dann ignoriert der Treiber den Desktop und die Edid-Infos und lässt das Spiel mit 144 Hz laufen.
Aber bei einer DSR-Auflösung werden die Edid-Infos plötzlich so wichtig und sind ein unüberwindbaren Hindernis? Wie schafft es dann Windows, mir bei DSR-Auflösungen 144 Hz anzubieten? Windows liest doch auch nur die Edid-Infos aus. Vielleicht fehlt es mir an Background-Wissen (ich bitte dann um eine detaillierte Erklärung), aber es sieht für mich so aus, dass DSR + "Prefered Refreshrate" in dieser Hinsicht fehlerhaft umgesetzt ist.

Kannst du es bitte mal als Bug melden? Ich würde es ja selber tun, möchte mich jetzt aber wegen einem einzelnen Bug nicht extra registrieren.

Schrotti
2015-03-28, 02:11:27
Gibts vielleicht nen SLI Profil für World of Warships?

Aktuell läuft der Closed Beta Test.

http://worldofwarships.eu

Gast
2015-03-28, 05:23:10
Gibts vielleicht nen SLI Profil für World of Warships?

Oder WORD... wäre genial

Gast
2015-03-28, 18:45:55
"GameZone  berichten über die umfangreichen Möglichkeiten von CCP, dem isländischen Betreiber von EVE Online, welcher engagiert gegenüber Sexismus und Mobbing in seinem Weltraum-Epos vorgeht. So schneidet CCP jegliche Kommunkation auf den EVE-Servern mit und ist (allgemein bekannt) recht fix mit Spielerbanns bei Belästigungen und anderen Regelverstößen. Zudem existiert sogar ein direkter Draht zu Interpol, über welchen justizable Regelverstöße zur Weiterleitung an die jeweiligen nationalen Strafverfolger übermittelt werden. Die Qualität der weitergeleiteten Daten dürfte aufgrund der umfassenden "Vorratsdatenspeicherung" von CCP ausreichend gut sein – was die nationalen Strafverfolger dann daraus machen, steht wohl auf einem anderen Blatt. In jedem Fall sollte man sich darüber im klaren sein, daß Seximus und Mobbing online nicht nur (gar) nichts verloren haben, sondern vor allem auch im Rahmen einer kontrollierten Plattform wie eben eines Spiels wie EVE Online auch jederzeit und notfalls auch noch Jahre später rekonstruierbar und verfolgbar sind. Etwas schade allerdings, daß das ganze überhaupt noch mehr als 20 Jahre nach den ersten Kontinente umspannenden Online-Gefechten in Doom & Quake ein Thema ist."

Ich werd dir gleich sagen, was Schade ist:
Schade ist, dass solch kranker Dreck wie du immer noch ungestraft solchen kranken Scheiss ins Internet schreiben darf.
Schlussendlich werdet ihr Psychos allesammt das ernten, was ihr ALLE!!! so hemmungslos und in aller Selbstverständlichkeit jahrelang gesäht habt: ZENSUR und die absolut TOTALE Kontrolle und Unterdrückung der Bürger, inkl, ihrer Meinungen. Viel Spass damit, ihr kranken Psychos!
Ich mach jede Wette, dass ich am Schluss am allerwenigsten unter den Früchten eurer kranken hirnverbrannten Saat leiden werde.
Ich werde mich stundenlang schlapp lachen, über euch Vollidioten, wenns soweit ist.
Schaut her: Hier ist bereits ein kleines Vorgeschmack darauf:
"Muaaaaaaaaaaaaaaaaaaaaaaaaaaaaahahahahhahahahahahahahahahahahahahahaaaaaaaaaaaaa a :D "

Blaire
2015-03-28, 20:07:56
Ich hatte das ja schon mal in einem vorherigen Treiber-Thread angeprangert. Mir ist auch immer noch nicht klar, wieso ausgerechnet nur bei DSR-Auflösungen die Monitor-Edid-Infos so wichtig sind?

Wenn ich meinen Desktop auf 1080p @ 60 Hz einstelle (was laut CRU den Edid-Infos entspricht, trotz 144 Hz-TFT) und im Treiber das "Prefered Refreshrate" auf Highest umstelle, dann ignoriert der Treiber den Desktop und die Edid-Infos und lässt das Spiel mit 144 Hz laufen.
Aber bei einer DSR-Auflösung werden die Edid-Infos plötzlich so wichtig und sind ein unüberwindbaren Hindernis? Wie schafft es dann Windows, mir bei DSR-Auflösungen 144 Hz anzubieten? Windows liest doch auch nur die Edid-Infos aus. Vielleicht fehlt es mir an Background-Wissen (ich bitte dann um eine detaillierte Erklärung), aber es sieht für mich so aus, dass DSR + "Prefered Refreshrate" in dieser Hinsicht fehlerhaft umgesetzt ist.

Kannst du es bitte mal als Bug melden? Ich würde es ja selber tun, möchte mich jetzt aber wegen einem einzelnen Bug nicht extra registrieren.

Da ist kein Bug, deinem BenQ XL2420Z stehen ja mehrere Refreshrates zur Wahl, ob DSR enabled/disabled macht keinen Unterschied. Wenn du nun DSR-Factor 4.00x im NV Control Panel aktivierst, hast du mit 3840x2160 nicht nur eine "neue" Auflösung erstellt, die Standard-Bildwiederholfrequenzen von 60 (Default), 100, 110, 120 und 144Hz gelten auch weiterhin.
Preferered Refresh-Rate ist jedoch von DSR unabhängig und funktioniert nur auf Basis der gemeldeten EDID-Timings deines Monitors und ermöglicht diese zu überschreiben und forciert die höchst verfügbare Refreshrate, DSR unterstützt in der jetzigen Form jedoch kein EDID-Override.
Für Problemgames welche keine Wahl der Refreshrate zulassen, wäre aber solch eine Option/Erweiterung wünschenswert, da gebe ich dir recht und könnte man durchaus vorschlagen.

Darkman.X
2015-03-28, 22:13:19
Danke für diese Erklärung. Im vorherigen Thread war die Ursache des Problems (DSR unterstützt kein EDID-Override) für mich nicht so klar. Da hattest du zwar auch die EDID-Sache beschrieben, aber dort war deine Beschreibung nicht so eindeutig, weshalb ich mich dann fragte, wieso der EDID-Override in 1080p und niedrigeren Auflösungen klappt, aber bei DSR nicht.

Es wäre sehr nett, wenn du das als Verbesserungsvorschlag einreichen könntest. Oder als Bug melden könntest, denn aus User-Sicht sieht das ganze ja nach einem Bug aus, weil das "Prefered Refreshrate" (EDID-Override) sonst ja problemlos funktioniert.

HisN
2015-03-30, 10:16:31
Blaire
Hast Du nen Plan warum die Ton-Aufnahme in Shadowplay so grütze ist?


0d2wPGpAThA

IGixzSi2aXg

ManuelG_NVIDIA
2015-03-30, 18:57:34
Gibts vielleicht nen SLI Profil für World of Warships?

Aktuell läuft der Closed Beta Test.

http://worldofwarships.eu

eingereicht Anfrage

Godmode
2015-03-30, 19:20:07
War das ein Fake ManuelG oder warum wird der sofort gesperrt?

nalye
2015-03-30, 19:28:39
Offizielle Accs müssen durch den Admin hier verifiziert werden, bevor da nix kommt wird sowas gesperrt. Falls der echt ist, dann können wir ihn wieder entsperren

Blaire
2015-03-30, 19:31:47
Ja es ist ManuelG von NVIDIA kann ich bestätigen, für mögliche Rückfragen zu Treiber-Problemen usw. hat er sich hier einen Foren-Account erstellt. :wink:

Godmode
2015-03-30, 19:36:56
Offizielle Accs müssen durch den Admin hier verifiziert werden, bevor da nix kommt wird sowas gesperrt. Falls der echt ist, dann können wir ihn wieder entsperren

Ok das wusste ich nicht.

Gast
2015-03-30, 19:37:33
https://forums.geforce.com/member/1734590/

aufkrawall
2015-03-30, 20:17:06
Man kann ShadowPlay auch ohne Server Check Up nutzen, wenn man GFExperience.exe -shadowplay startet.
Er bleibt hier mit GFE 2.4.1.21 aber immer noch in P0 hängen, wenn im Spieleprofil max Performance eingestellt ist.
Toll...

HisN
2015-03-30, 20:51:34
Ich hab gerade mal den Gegentest gemacht.
Der grausame Ton liegt tatsächlich an Shadowplay. Wenn ich z.b. mit Action! aufnehme ist die Tonspur sauber. Habt ihr da schon von anderen Usern Problem-Meldungen bekommen?

Shadowplay
tQGmWG_vjeE

Action
bde_PW-MarA

Diesmal auch kein Multimonitor, alle anderen Monitore abgeklemmt

Settings: Titan X auf X99 mit 5960X
Treiber: 347.88
Experience Version 2.4.0.9
Auf Win8.1 X64

Nur ein Philips BDM4065uc per DP1.2 angeklemmt.

Sound übernimmt eine Asus Xonar Phoebus.

Edit: Wenn ich über den Afterburner per NVENC aufnehme ist der Ton auch sauber.

Edit: Tatsächlich. Shadowplay erkennt mein Headset-Mic als "Spielinterne Audioquelle"
Edit: Zig mal hin und herstellen zwischen Spielintern und Spielintern+Mic, hat es Shadowplay dann gerafft.
Alles gut nun. Ich zeichne mal weiter mit 130 Mbit auf^^

Blaire
2015-03-31, 02:16:42
Er bleibt hier mit GFE 2.4.1.21 aber immer noch in P0 hängen, wenn im Spieleprofil max Performance eingestellt ist.
Toll...

Gut möglich das GFE/Shadowplay einen neueren Treiber voraussetzt,damit der Fix ordentlich funktioniert. Scheint auch so als hätte das Problem ausschließlich mit dem Manuell-Modus zu tun, mit Hintergrund+Manuell sowie dem Shadow-Modus funktioniert auf meinen System mit GTX980 und 347.88 + GFE v2.4.1.21 (Windows 8.1) alles bestens und die Grafikkarte taktet brav herunter.

@HisN: Manchmal kann die Lösung so simpel sein lol btw. Watch Dogs sehr nett wirkt trotz 4k sehr flüssig (50-60fps) in deinen Videos, keine gröberen Memory-Swaps oder Streaming Ruckler mehr zu sehen, ja ein Game wie für TitanX gemacht. HF :D

Razor
2015-03-31, 07:59:04
Watch Dogs sehr nett wirkt trotz 4k sehr flüssig (50-60fps) in deinen Videos, keine gröberen Memory-Swaps oder Streaming Ruckler mehr zu sehen, ja ein Game wie für TitanX gemacht.
Du meinst wohl eher: ein Game, so dermaßen schlecht von Konsolen portiert... wie für Titan X gemacht :)
Ist doch schön - ein Game, welches für eine 400€ Konsole geproggt wurde, braucht auf dem PC eine 1200€ GraKa, um korrekt zu laufen!
Supie.
:hammer:

Razor

Grestorn
2015-03-31, 08:05:24
Das Spiel braucht einfach mehr VRAM, auf den Konsolen stehen eben bis zu 8 GB RAM zu Verfügung. Ich würde mich als außenstehender nicht einfach hinstellen, und von einem schlechten Port sprechen, ohne von den technischen Details Bescheid zu wissen.

Aber in den Foren wissen ja eh alle alles viel besser, als die Techniker selbst, das ist nichts neues.

Gast
2015-03-31, 08:31:27
Das Spiel braucht einfach mehr VRAM, auf den Konsolen stehen eben bis zu 8 GB RAM zu Verfügung. Ich würde mich als außenstehender nicht einfach hinstellen, und von einem schlechten Port sprechen, ohne von den technischen Details Bescheid zu wissen. Aber in den Foren wissen ja eh alle alles viel besser, als die Techniker selbst, das ist nichts neues.
Was bitte? Seit wann stehen einem Game die vollen 8GB VRAM einer Konsole zur Verfugung? Zudem dürfte das dann auf älteren Konsolen gar nicht laufen. WD ist ein GameWorkstitel und läuft auf dem PC beschissen. Ja es braucht eine 1150 Euro Karte damit es einigermaßen flüssig läuft und eine 2000 Euro Perepherie Super, Danke NVidia. Die dummen Forennerds, was die bloß haben.

dargo
2015-03-31, 08:35:34
Das Spiel braucht einfach mehr VRAM, auf den Konsolen stehen eben bis zu 8 GB RAM zu Verfügung. Ich würde mich als außenstehender nicht einfach hinstellen, und von einem schlechten Port sprechen, ohne von den technischen Details Bescheid zu wissen.

Fein... und wieviel davon für Spiele zur Verfügung stehen ist dir wohl entgangen. Und wenn wir schon beim Thema sind... wieviel Speicher davon werden zeitkritisch für die ~33,33ms bei den Konsolen benötigt?

Du meinst wohl eher: ein Game, so dermaßen schlecht von Konsolen portiert... wie für Titan X gemacht :)
Ist doch schön - ein Game, welches für eine 400€ Konsole geproggt wurde, braucht auf dem PC eine 1200€ GraKa, um korrekt zu laufen!
Supie.
:hammer:

Razor
Vergiss den 1.000€ Octacore von Intel dabei nicht. :ulol: Spaß bei Seite... WD läuft auch mit einer Titan X nicht absolut flüssig mit Ultra Texturen. Das Problem ist auch nicht der Vram in dem Spiel sondern die Anforderungen an die Streamingengine @16,66ms oder gar weniger. Obs jetzt am Spiel selbst oder an der API beim PC liegt lässt sich als Außenstehender schwer sagen. Zumal wir keine DX12, Mantle oder Vulkan Implementierung für einen Vergleich haben.

Grestorn
2015-03-31, 08:37:24
Du kennst den Unterschied zwischen "Bis zu 8GB" und "vollen 8GB"?

Auf den älteren Konsolen ist die Texturauflösung auch deutlich geringer.

Das Spiel selbst braucht für Code und interne Datenablage nicht viel Speicher, das absolute Groß geht für die Framebuffer und Texturen drauf, also genau das, wofür man VRAM braucht.

WD braucht keine 1150 Euro Karte sondern einfach nur mehr VRAM als 4 GB. Das kann man auch für deutlich weniger Geld haben, in Form einer 290X z.B.

Leider hängen am PC die GraKa Hersteller, speziell aber nVidia, den tatsächlichen VRAM Anforderungen einfach nun schon 1,5 Jahre hinterher.

@dargo: Auch wenn nicht die vollen 8 GB zur Verfügung stehen - genauso wenig, wie übrigens bei einer 4GB GraKa tatsächlich die vollen 4 GB VRAM einem Spiel zur Verfügung stehen, sondern i.d.R. nur etwas mehr als 3,5 GB - so sind es auf jeden Fall deutlich mehr, als bei aktuellen 4 GB Grafikkarten.

dargo
2015-03-31, 08:52:03
@dargo: Auch wenn nicht die vollen 8 GB zur Verfügung stehen - genauso wenig, wie übrigens bei einer 4GB GraKa tatsächlich die vollen 4 GB VRAM einem Spiel zur Verfügung stehen, sondern i.d.R. nur etwas mehr als 3,5 GB - so sind es auf jeden Fall deutlich mehr, als bei aktuellen 4 GB Grafikkarten.
Zeig mir mal die Quelle dazu, speziell für Watch Dogs, in ähnlicher Form wie damals bei Killzone.
http://www.play3.de/wp-content/uploads/2013/05/killzone-4-slide-2.jpg
http://scr3.golem.de/screenshots/1311/Killzone_Shadow_Fall_Technik/thumb620/Killzone-Shadow-Fall-03.jpg
http://static.giantbomb.com/uploads/original/11/118274/2482927-9560085948-x3pTG.jpg

Grestorn
2015-03-31, 08:52:36
Die Quelle zu was? Dass einem Computerspiel unter Windows nicht das volle VRAM zur Verfügung steht?
Dazu muss man sich nur die aktuelle VRAM Speicherauslastung anzeigen lassen.

Was sollen die bunten Bildchen, die Du verlinkt hast, denn nun genau zeigen?

Gast
2015-03-31, 08:55:18
Fein... und wieviel davon für Spiele zur Verfügung stehen ist dir wohl entgangen. Und wenn wir schon beim Thema sind...Obs jetzt am Spiel selbst oder an der API beim PC liegt lässt sich als Außenstehender schwer sagen. Zumal wir keine DX12, Mantle oder Vulkan Implementierung für einen Vergleich haben.
This… =)

NVidia hängt dem VRAM Ausbau hinterher, komisch noch vor nicht allzulanger Zeit hörte man von denen, braucht man nicht!

dargo
2015-03-31, 08:55:29
Die Quelle zu was?
Speicherbedarf + Aufteilung bei Watch Dogs für XBox One und/oder PS4.


Was sollen die bunten Bildchen, die Du verlinkt hast, denn nun genau zeigen?
http://www.giantbomb.com/playstation-4/3045-146/forums/killzone-shadow-fall-ps-meeting-demo-used-3gb-of-r-1436155/

Grestorn
2015-03-31, 08:58:10
Speicherbedarf + Aufteilung bei Watch Dogs für XBox One und/oder PS4.

Wozu brauch ich da eine Quelle anzugeben? Werden meine Feststellungen nur dann relevant, wenn ich exakt nachweisen kann, wieviel Speicher WatchDogs nutzt? Es ist doch mehr als offensichtlich, dass das Spiel jede Menge Speicher für Texturen braucht, oder willst Du das in Zweifel ziehen?

NVidia hängt dem VRAM Ausbau hinterher, komisch noch vor nicht allzulanger Zeit hörte man von denen, braucht man nicht!

Wer ist "denen"? Ich sag seit 2 Jahren, dass 4GB zu wenig sind. Das hat mir auch die 980er verhagelt.

Grestorn
2015-03-31, 08:58:58
*löschen*

dargo
2015-03-31, 08:59:24
Vergiss es einfach, bin schon weg.

Grestorn
2015-03-31, 09:01:01
Ich werde Dich gar schrecklich vermissen.

Gast
2015-03-31, 09:10:54
Das hat dir die 980 verhagelt? Alter du sprichst in Rätzeln, laut deinem Signum hast du zwei davon im Rechner, was das VRAM Problem noch forciert. Ich bin auch weg, aber mich wirst Du sicher auch nicht vermissen. Wir schweigen lieber alles tot und freuen uns über ach so tolle Hardware und 1% User die deren Geschwindigkeitsvorteil wohl aus finanzieller Sicht nutzen können. Super, was geht uns der Rest der Welt an.

Ich schreibe es nochmal, Watch Dogs ist ein GameWorkstitel, dass sagt schon alles. Ob Forennerd oder nicht, mir egal.

Grestorn
2015-03-31, 13:27:22
Das hat dir die 980 verhagelt? Alter du sprichst in Rätzeln, laut deinem Signum hast du zwei davon im Rechner, was das VRAM Problem noch forciert. Ich bin auch weg, aber mich wirst Du sicher auch nicht vermissen. Wir schweigen lieber alles tot und freuen uns über ach so tolle Hardware und 1% User die deren Geschwindigkeitsvorteil wohl aus finanzieller Sicht nutzen können. Super, was geht uns der Rest der Welt an.

Was ist daran so schwer zu verstehen? Die Tatsache, dass die 980 nur 4 GB hat, ist mir zu wenig, war es schon immer, habe ich auch schon immer gesagt. Sprich, die Tatsache hat mir den Spaß an den 980ern zumindest teilweise verhagelt.

Mit Totschweigen hat das doch mal überhaupt gar nichts zu tun. Ich verstehe gar nicht, was ihr eigentlich habt.

WD braucht eine Titan X nicht wegen deren Leistung sondern wegen deren Speicher. Und eine 8GB Karte täte es dafür genauso, auch wenn sie deutlich weniger Leistung hätte. Nichts anderes habe ich geschrieben.

Gast
2015-03-31, 14:07:27
Das ist doch Quatsch, wieviel Adressraum und physikalischen Speicher kann der Entwickler auf einer Konsole belegen? Nicht alles davon steht allein als VRAM zur Verfügung. Vielleicht sollte der Entwickler einfach sinnvoller mit dieser Ressouce umgehen. Nur weil es jetzt eine Karte mit 12 GB VRAM gibt heißt dies nicht das dies den PC Spielemarkt revolutioniert. 32bit Syteme begrenzen zuweilen die Nutzung. 4GB VRAM sind mehr als genug. Man muss es einfach nur berücksichten.

GameWorks zum Beispiel ist genau das was der Entwickler Plattformübergreifend nicht braucht. NVidia versucht doch immer mehr ein eigenes Umfeld aufzubauen, weg von einem gemeinsamen Ansatz. Wie weit man damit kommt ist offensichtlich, Monatelang muss man mittlerweile auf Treiberfixes warten damit etwas rund läuft. Du bejubelst diesen Kickifax auch noch. Das geht mir als derzeitiger NVidiaanwender tierisch auf den Nerv.

Man hätte damals Verantwortung übernehmen können indem man den Konsolenherstellern ein vernüftiges Angebot hätte machen können, das war denen aber nicht lukrativ genung, jetzt behindert man einen gemeinsamen Ansatz wo man kann.

Weder höhere DX FL noch mehr VRAM würden gebraucht, das wurde mehr als einmal kommuniziert. Jetzt stellt man sich als Heilsbringer hin? Die stehen sich selbst im Weg. Als erstes sollte man mal gucken wieviel RAM und VRAM im PC Segment allgemein weit verbreitet sind und nicht was technisch möglich und noch sinnvoll machbar sind. Sonst entwickelt man völlig am bestehenden Segment vorbei. Ich glaube nicht das der Großteil der PC Gamer bereit so viel zu investieren wie hier einige suggerieren. Da gibt es welche die sich nicht mal eine 980 leisten können und was NVidia mit der 970 Käuferschaft abgezogen hat ist bezeichnent was sich gerade abspielt und wie die sich sehen. Peinlich ist das mittlerweile. Der Wust der an diesen Modell mitverdient noch viel schlimmer. Man sollte sich mal fragen ob man sich damit nicht selbst abschafft.

WD ist einfach schrottig programmiert, halbfertig, undurchdacht und kaum ressourcenschonend, egal auf welcher Plattform. Solche Veröffentlichungen gehören mit Nichtkauf abgestraft.

dargo
2015-03-31, 14:39:05
WD braucht eine Titan X nicht wegen deren Leistung sondern wegen deren Speicher. Und eine 8GB Karte täte es dafür genauso, auch wenn sie deutlich weniger Leistung hätte. Nichts anderes habe ich geschrieben.
Nur ist beides Bullshit, bezogen auf WD.

Grestorn
2015-03-31, 14:42:00
Wenn Du meinst Mr. Ich weiß alles besser ohne ein Argument zu haben...

P.S. Wieso läuft WD dann auf der Titan X bitte ruckelfrei (lt. Raff)? Am schlechten Streaming kann die Karte schließlich nichts ändern.

Raff
2015-03-31, 14:55:13
Natürlich hilft der große Speicher in Watch Dogs, da ihn das Spiel nach Lust und Laune vollpumpen kann und somit immer gut läuft. Die hohe Rohleistung der Titan X ermöglicht "fiese" Einstellungen, die wiederum noch mehr Speicher brauchen. Mit 6 GiB ist man aber schon sehr gut bedient, hiermit sind zumindest mit starker Übertaktung Einstellungen spielbar, mit denen eine 4G-Karte wie die GTX 980 komplett absäuft. 20 Min-Fps gegenüber 8 - solche Größenordnungen gibt's mit entsprechendem Anti-Aliasing in UHD. Die Titan X bekommt man nicht dazu, Speicherruckler zu zeigen. Nie.

MfG,
Raff

TobiWahnKenobi
2015-03-31, 14:55:23
Wenn Du meinst Mr. Ich weiß alles besser ohne ein Argument zu haben...

P.S. Wieso läuft WD dann auf der Titan X bitte ruckelfrei (lt. Raff)? Am schlechten Streaming kann die Karte schließlich nichts ändern.

das lief schon auf meiner aufgerotzen 6GiB titan sauber und ich fand das geheule immer schwer nachvollziehbar. aber okee, ich kann auch nicht nachvollziehen, dass es immer wieder vorgekramt wird.. liegt aber daran, dass ich mir mehr drunter vorgestellt hatte und es dann doch irgendwie enttäuschend fand. es teilt sich eine schublade mit anderen selten benutzen spielen.. etwa modors schatten; auch ein spiel, das nur HDR-fans toll finden können und das man vorkramt, wenn man mit speichervorhaltung prahlen möchte.


(..)

mfg
tobi

dargo
2015-03-31, 15:08:27
Natürlich hilft der große Speicher in Watch Dogs, da ihn das Spiel nach Lust und Laune vollpumpen kann und somit immer gut läuft. Die hohe Rohleistung der Titan X ermöglicht "fiese" Einstellungen, die wiederum noch mehr Speicher brauchen. Mit 6 GiB ist man aber schon sehr gut bedient, hiermit sind zumindest mit starker Übertaktung Einstellungen spielbar, mit denen eine 4G-Karte wie die GTX 980 komplett absäuft. 20 Min-Fps gegenüber 8 - solche Größenordnungen gibt's mit entsprechendem Anti-Aliasing in UHD. Die Titan X bekommt man nicht dazu, Speicherruckler zu zeigen. Nie.

MfG,
Raff
Diskutiert ihr ernsthaft hier über 20fps und nehmt gleichzeitig das Wort "spielbar" in den Mund? :freak: Wenn ich von einwandfrei flüssig spielbar spreche dann rede ich selbstverständlich von konstanten 16,66ms! Leute... bei einem Einbruch auf 20fps wird das Streaming doch kaum mehr gefordert. Das sind ganz andere Anforderungen als bombenstabile 16,66ms bei voller Fahrt im dichten Stadtverkehr. So... jetzt könnt ihr weiter über eure Ruckelorgie mit einer 1150€ Graka sprechen. :uup:


P.S. Wieso läuft WD dann auf der Titan X bitte ruckelfrei (lt. Raff)?
Das möchte ich erstmal im dichten Stadtverkehr sehen. Und zwar mit Frametimes.

Grestorn
2015-03-31, 15:12:07
Dargo, natürlich kann man auch mit normalen Einstllungen und 60+ fps ruckelfrei spielen. In der neuen PCGH ist dazu ein schönes Frametime Diagramm abgebildet.

Dein unnötig aggressive Art die Wahrnehmung anderer Leute in Frage zu stellen (und ihre Meinung als Bullshit zu bezeichnen) ist echt manchmal sehr anstrengend!

dargo
2015-03-31, 15:27:34
Dargo, natürlich kann man auch mit normalen Einstllungen und 60+ fps ruckelfrei spielen. In der neuen PCGH ist dazu ein schönes Frametime Diagramm abgebildet.

Link bitte und ein Video der Testszene, ansonsten glaube ich das erstmal nicht.

Grestorn
2015-03-31, 15:31:28
Genau das meine ich. Ich hab keine Titan X, aber ich glaube Raff schon, dass er das Frametime Diagram nicht gefälscht hat.

Und Tobi glaub ich auch mal ziemlich uneingeschränkt.

Was genau - außer Deiner generellen Abneigung WD gegenüber und der vorgefassten Meinung, dass es nicht am VRAM liegen kann - hindert Dich daran, diesen Aussagen Glauben zu schenken?

4 GB sind nun mal << 8 GB (Konsolen), selbst wenn in die 8 GB auch noch Betriebssystem und Daten, die am PC im normalen RAM abgelegt werden, passen müssen. Das ist einfach und logisch. So logisch, dass ich mich schon wundere, dass man überhaupt darüber reden muss.

aufkrawall
2015-03-31, 15:34:35
Bei meinem letzten Versuch waren in 1440p SMAA selten mehr als 3,8GB mit der 980 belegt.
Außerdem gibts auch Messungen, die schlechte Frametimes auch mit viel VRAM zeigen.
Absolut hirnrissige Diskussion hier.

Grestorn
2015-03-31, 15:37:20
Hirnrissig ist nur derjenige, der ein solches Wort anderen gegenüber verwendet.

Solche Dinge machen nur Menschen, die voll auf Krawall gebürstet sind.

aufkrawall
2015-03-31, 15:38:15
Glückwunsch zu deinem wiederholten Thread-Derailing. So ein Ego möcht ich auch haben.

Grestorn
2015-03-31, 15:56:40
Stein und werfen....

dargo
2015-03-31, 16:06:36
Genau das meine ich. Ich hab keine Titan X, aber ich glaube Raff schon, dass er das Frametime Diagram nicht gefälscht hat.

Niemand spricht hier vom Fälschen. Ich kenne WD fast auswendig, genug damit auseinander gesetzt. Unter quasi jeder erdenklichen Situation und zig verschiedenen Treibern. Ich weiß genau welche Szenen unter welchen Voraussetzungen kritisch sind. Übrigens lief das Streaming in WD noch vor dem 347.09 erheblich schlechter. Der Treiber hat hier also auch einen sehr großen Einfluss drauf.


Und Tobi glaub ich auch mal ziemlich uneingeschränkt.

Ich nicht. Das liegt u.a. daran, dass er oftmals mit 30fps und Gamepad spielt. Das ist für mich kein Maßstab. Besonders nicht in WD in Bezug auf Anforderungen beim Streaming. Nochmal... die sind bei 33,33ms relativ unproblematisch. Bei 16,66ms sieht die Sache schon ganz anders aus.


Was genau - außer Deiner generellen Abneigung WD gegenüber und der vorgefassten Meinung, dass es nicht am VRAM liegen kann - hindert Dich daran, diesen Aussagen Glauben zu schenken?

Erfahrung mit dem Spiel, besonders auch mit Texturendetails unter Ultra und dem Streaming.


4 GB sind nun mal << 8 GB (Konsolen), selbst wenn in die 8 GB auch noch Betriebssystem und Daten, die am PC im normalen RAM abgelegt werden, passen müssen. Das ist einfach und logisch. So logisch, dass ich mich schon wundere, dass man überhaupt darüber reden muss.
Du hast es immer noch nicht verstanden. So gesehen habe ich am PC 16GB Speicher. :freak: Die Konsolen haben 8GB Speicher insgesamt. Von diesem Pool werden aber ~5,5GB für Spiele verwendet. Rest ist fürs OS und Videoaufnahmen reserviert. Und von diesen ~5,5GB Pool brauchst du auch noch was für den "Systemspeicher" für Spiele. Und dieser fällt sicherlich bei einem Openworlder wie WD größer aus als bei einem Schlauchshooter wie Killzone. Was glaubst du warum die Konsolenversion für die One und PS4 nur High Texturen verwenden?

Grestorn
2015-03-31, 16:08:19
16 GB DRAM sind aber eben nicht 8 GB potentielles VRAM.

Wenn Du für ein ruckelfreies Spielen nun mal 5,5 GB an Texturen, Framebuffer usw. ins VRAM laden musst, was dann?

Die restlichen Programmdaten passen auf der Konsole locker in die verbleibenden 2,5 GB.

Nimm Dir Skyrim. Das Spiel selbst - also die Welt - ist um ein Vielfaches größer als die von WD. Und trotzdem passt es lockerst in ca. 1,5 GB 32 bit Speicher (die Exe ist ja nur 32 bit).

Über ENB ist es möglich, die Texturen in einen extra 64 bit Prozess auszulagern, sonst wäre man schon lääängst am Ende mit all den Mods. Dadurch ist es möglich, nahezu unbegrenzten Texturspeicher in Skyrim zu nutzen, die eigentlichen Programmdaten bleiben aber weiterhin bei 1,5 GB...

robbitop
2015-03-31, 16:12:35
Zumindest vor einer Weile noch war die Texturstreaming Engine ziemlich beschränkt, so dass die Frametimes auch bei genug VRAM nicht durchgängig gut waren. Da gab es @Ultratextures Hickups.

Ich habe aber gelesen, dass Patches etwas nachgebessert haben und NV in ihren Treibern.

Ich habe es im September 2014 mit meinen Titans mal @Ultratextures probiert und es gab hickups. Die 6 GiB waren @1440p mit SMAA nicht voll. Das kann sich mittlerweile geändert haben. Cruncher hat sowas mal angedeutet.

Der Vergleich mit den Konsolen hinkt IMO ein wenig. Dort werden vermutlich keine Ultra Textures verwendet. Auflösung und Framerate sind geringer. Also viel weniger Arbeit für die Texturestreaming engine.

Dargo - du erzählst viel Wahres. Aber der Ton macht leider die Diskussion sehr sehr schwergängig.

dargo
2015-03-31, 16:17:44
Die restlichen Programmdaten passen auf der Konsole locker in die verbleibenden 2,5 GB.

Hast du das hier verstanden?
http://www.giantbomb.com/playstation-4/3045-146/forums/killzone-shadow-fall-ps-meeting-demo-used-3gb-of-r-1436155/

Mit Systemspeicher meine ich nicht so zeitkritische Daten wie Sound, AI, Physik etc. Sollte WD 2,5GB brauchen bleiben für den "Vram", also Daten die deutlich höhere Bandbreite brauchen, nur noch ~3GB übrig.


Der Vergleich mit den Konsolen hinkt IMO ein wenig. Dort werden vermutlich keine Ultra Textures verwendet. Auflösung und Framerate sind geringer. Also viel weniger Arbeit für die Texturestreaming engine.

Endlich einer der mich versteht. Und du liegst vollkommen mit den Texturen richtig. Die Konsolen verwenden nur High-Details (also auch Texturen). Zusätzlich fällt die Anforderung an den Speicher aufgrund von 720p-900p auch noch etwas geringer aus. Was sich natürlich auch positiver auf das Streaming auswirkt.


Dargo - du erzählst viel Wahres. Aber der Ton macht leider die Diskussion sehr sehr schwergängig.
Sorry, aber bei manchen Leuten ist es echt anstrengend.

Grestorn
2015-03-31, 16:31:09
Hast du das hier verstanden?
http://www.giantbomb.com/playstation-4/3045-146/forums/killzone-shadow-fall-ps-meeting-demo-used-3gb-of-r-1436155/

Mit Systemspeicher meine ich nicht so zeitkritische Daten wie Sound, AI, Physik etc. Sollte WD 2,5GB brauchen bleiben für den "Vram", also Daten die deutlich höhere Bandbreite brauchen, nur noch ~3GB übrig.

Ich habs überflogen. Irgendwie scheinst Du zu implizieren, dass auf der PS4 die 8 GB gar nicht voll verfügbar sind? Das kann ich dem aber nicht entnehmen. Was ich lese, ist das Killzone eben darauf optimiert ist, mit weniger Speicher auszukommen.

Was das mit unserer Diskussion zu tun hat, verstehe ich nicht so ganz, es sei denn, Du implizierst, dass auch WD weniger Speicher nutzt, in der Annahme, dass die Konsolen mal mit 4 GB geplant waren? Ist das Dein Argument?

Sorry, aber bei manchen Leuten ist es echt anstrengend.
Gehen wir mal davon aus, Du hast Recht. Sagen wir, WD nutzt tatsächlich nur 4 GB auf der PS4. Wenn Du dieser Meinung bist und sie gut begründen kannst, warum machst Du das dann nicht einfach? Statt dessen wirfst Du mit unterschwelligen Beleidigungen um Dich, statt ruhig und sachlich zu argumentieren.

Und Du nennst dann auch noch *mich* anstrengend, weil ich Deinen Gedankengängen, die Du nicht niederschreibst, nicht folgen kann? Und weil es mich nervt, wie Du (und andere) mit ihren Diskussionspartnern umspringst?

Zumal es ja einige hier im Thread gibt, durchaus nicht dumme oder unerfahrene Leute, die Dir genauso widersprechen wie ich...

Raff
2015-03-31, 16:32:07
Zumindest vor einer Weile noch war die Texturstreaming Engine ziemlich beschränkt, so dass die Frametimes auch bei genug VRAM nicht durchgängig gut waren. Da gab es @Ultratextures Hickups.

Ich habe aber gelesen, dass Patches etwas nachgebessert haben und NV in ihren Treibern.

Ich habe es im September 2014 mit meinen Titans mal @Ultratextures probiert und es gab hickups. Die 6 GiB waren @1440p mit SMAA nicht voll. Das kann sich mittlerweile geändert haben. Cruncher hat sowas mal angedeutet.

Watch Dogs läuft seit dem letzten Patch definitiv besser als früher. Das damalige Change Log meldete IIRC auch etwas zum Thema Streaming, das einen eigenen oder "besseren" Worker-Thread bekam.

€dit: Mehr als das konnte ich dazu auf die Schnelle nicht finden: http://forums.ubi.com/showthread.php/938949-New-PC-Patch-Oct-27-2014

MfG,
Raff

dargo
2015-03-31, 16:37:28
Ich habe aber gelesen, dass Patches etwas nachgebessert haben und NV in ihren Treibern.

Zum Patch nochmal kurz was. Ich habe sowohl V1.5xx als auch die letzte Version V1.6xx verglichen und keinen nennenswerten Unterschied feststellen können. Dagegen hatte der 347.09 deutliche Verbesserungen beim Streaming gebracht. Nicht nur messbar sondern auch sehr gut spürbar. Ich würde zugern das selbe Spiel mit einer low level API sehen. Mich würde wirklich brennend interessieren ob das Streaming damit dann besser läuft. Es ist schon etwas merkwürdig, dass ein IHV mehr als 6 Monate beim Treiber braucht um das Streaming zu verbessern. Möglich, dass NV hier einen Weg gefunden hat gewisse API-Limitierungen zu umgehen wodurch das Streaming nun besser läuft. Aber das ist nur reine Spekulation meinerseits.

Watch Dogs läuft seit dem letzten Patch definitiv besser als früher. Das damalige Change Log meldete IIRC auch etwas zum Thema Streaming, das einen eigenen oder "besseren" Worker-Thread bekam.

€dit: Mehr als das konnte ich dazu auf die Schnelle nicht finden: http://forums.ubi.com/showthread.php/938949-New-PC-Patch-Oct-27-2014

MfG,
Raff
Imo mehr Marketing als Wahrheit. Oder es hatte nur Auswirkungen bei einer 4, 12 und 16 Thread CPU, was ziemlich ungewöhnlich wäre. Bei meiner 8 Thread CPU konnte ich wie gesagt keinen nennenswerten Unterschied feststellen was die Fluktuationen bei den Frametimes angeht.

aufkrawall
2015-03-31, 16:41:06
WD läuft mittlerweile besser, aber noch längst nicht gut.
Das Spiel ist kaputt und EOD. Die es-nicht-checken-wollen-Fraktion tut sich mal wieder schwer, wie schon im 970 VRAM-Thread.

robbitop
2015-03-31, 16:41:14
@Grestorn

Bei der PS4 sind nicht die vollen 8 GiB nutzbar. 1 GiB bspw ist für das Gamestreaming reserviert. Weitere 2...2,5 GiB für OS, Multitasking (Browser, Appstore) und anderen Tineff.
IIRC waren es 5,5...6 GiB und 6 Cores, auf die vom Spiel Zugriff genommen werden können.

Ist ja auch kein Problem - denn die Detailgrade werden dafür dann halt angepasst (weniger Geometrie und Texturdetails).

Ich nehme an, dass der Texturestreamer von WD halt eher für die Medium/High Details aus der Konsolenversion optimiert war. Bei 60 fps + Ultra Details hatte er damals dann Hickups.

HisN
2015-03-31, 16:43:19
So... jetzt könnt ihr weiter über eure Ruckelorgie mit einer 1150€ Graka sprechen. :uup:


Das möchte ich erstmal im dichten Stadtverkehr sehen. Und zwar mit Frametimes.


wmvRN4OqjiM

Die Aufnahme kostet FPS.
In 4K sind wir in der Nähe der 16.6ms (18-21), allerdings muss man sich da glaub ich nicht sooo drauf versteifen^^.
Ich finde die Leistung (und man sieht, ich hab die Übertaktung extra zurückgenommen) schon recht ordentlich^^

Allerdings in meinen Settings auch nicht mal annähernd an 8Gibi, da ich kein AA zuschalten kann ohne eine Slideshow zu bekommen.
In kleineren Auflösungen mag ich das ausgehen. Von was sprechen wir hier? Full-HD?

Raff
2015-03-31, 16:48:26
Imo mehr Marketing als Wahrheit. Oder es hatte nur Auswirkungen bei einer 4, 12 und 16 Thread CPU, was ziemlich ungewöhnlich wäre. Bei meiner 8 Thread CPU konnte ich wie gesagt keinen nennenswerten Unterschied feststellen was die Fluktuationen bei den Frametimes angeht.

Also ich hab's auf meinem FX damals deutlich gemerkt, nachdem der Patch zuvor das Streaming sogar beim Laufen kaputtgemacht hat. ;) Wiederum zuvor trat es nur beim Fahren auf. Und seit dem Patch (v1.06.xxxx müsst's sein) wurde auch das Fahren geschmeidig – um es genauer zu machen: 40+ Fps. Das ist in meinen Settings eine feine Sache. Und man kann Watch Dogs definitiv auch mit 30 Fps spielen, sofern man eine Manythread-CPU (8+) und genügend Grafikspeicher (6+) hat. Wobei hier die Einschränkung gilt, dass die Radeon-Frametimes idR deutlich unruhiger sind als bei Geforces.

MfG,
Raff

dargo
2015-03-31, 16:55:08
Also ich hab's auf meinem FX damals deutlich gemerkt, nachdem der Patch zuvor das Streaming sogar beim Laufen kaputtgemacht hat. ;) Wiederum zuvor trat es nur beim Fahren auf. Und seit dem Patch (v1.06.xxxx müsst's sein) wurde auch das Fahren geschmeidig – um es genauer zu machen: 40+ Fps. Das ist in meinen Settings eine feine Sache. Und man kann Watch Dogs definitiv auch mit 30 Fps spielen, sofern man eine Manythread-CPU (8+) und genügend Grafikspeicher (6+) hat. Wobei hier die Einschränkung gilt, dass die Radeon-Frametimes idR deutlich unruhiger sind als bei Geforces.

MfG,
Raff
Raff, wir reden schon wieder aneinander vorbei. 30fps, ergo 33,33ms sind kaum eine Herausforderung für die Streamingengine. 40fps, ergo 25ms sind auch noch im Rahmen. Da hast du dann zwar paar Spikes, die aber nicht jeden stören. 60fps, ergo 16,66ms ist da ne ganz andere Hausnummer für die Streamingengine.

PS: mit welcher Graka war der FX kombiniert? NV oder AMD?

robbitop
2015-03-31, 17:07:06
NV scheint deutlich mehr optimiert auf dieses Spiel zu haben. Zusätzlich kommt noch die DX11 Overheadoptimierung dazu.

Gast
2015-03-31, 17:09:30
Von diesem Pool werden aber ~5,5GB für Spiele verwendet. Rest ist fürs OS und Videoaufnahmen reserviert. Und von diesen ~5,5GB Pool brauchst du auch noch was für den "Systemspeicher" für Spiele.
4,5 + 1=5,5GB sonst 4,5! Die sich aber nicht allein mit Texturen füllen lassen. Daher ist die Aussage mit den 6GB VRam völliger Dunst und dürfte wenn dann nur die PC Version betreffen. Im Übrigen wurden VRAM-Mengen überhaupt nicht empfohlen, sondern die minimale Menge an RAM in einem PC.

PCGH? den glaube ich gar nichts mehr, die gehören für mich zu dem Wust und haben auch die 970 als besonders empfehlenswert publiziert, nach bekannt werden des Speicher-SI-Ansatzes seitens NVIDIA. Nachweisbar schwarz auf weiß. Die stehen seitdem bei mir auf "ignor".

Was nutzt eine 8+Kern CPU wenn Windows nur einen Kern fürs spielen zulässt? Das ruckelte auch auf Low, der VRAM einer 280 wurde nicht ansatzweise gefüllt, die Kernauslastung lag bei 60%, was sollen das 12GB VRAM helfen. LOL. Das zeigt eher wie NVIDIA vorgeht.

Andere Spieleprogrammierer kriegen das auch hin, anstatt kranken und halbfertiges Mist zu launchen.

Crytek zum Beispiel jammerte schon als bekannt wurde das die neuen Konsolen nur 8GB RAM zur Verfügung haben, Gott, vor Jahren mussten sie mit 512mb auskommen...:rolleyes:

4GB VRAM reichen vollkommen, oder etwas das weniger als 0.1% der Spielerschaft wirklich brauchen.

robbitop
2015-03-31, 17:11:24
Wie gesagt - Konsole ist kein sinnvoller Vergleich. Dort werden idR nie Ultra Details genutzt. (also geringer aufgelöste Assets).

Grestorn
2015-03-31, 17:18:58
@Grestorn

Bei der PS4 sind nicht die vollen 8 GiB nutzbar. 1 GiB bspw ist für das Gamestreaming reserviert. Weitere 2...2,5 GiB für OS, Multitasking (Browser, Appstore) und anderen Tineff.
IIRC waren es 5,5...6 GiB und 6 Cores, auf die vom Spiel Zugriff genommen werden können.

Wow. Das wusste ich in der Tat nicht. Und es ist auch unverständlich für mich, dass Sony derart großzügig mit dem Speicher umgeht. Wozu bitte? So viel Speicher genehmigt sich ja noch nicht mal Windows wenn ein Spiel läuft.

Das entwertet natürlich mein Argument, dass 4 GB VRam auf dem PC nicht mehr reichen, wegen der neuen Konsolengeneration. Wobei... Es ist schon so, dass meine 4 GB permanent am Limit sind, und das passiert - mit Ausnahme von Skyrim - ausnahmslos bei Ports der aktuellen Konsolengeneration. Und ich verwende weder DSR (geht bei mir nicht) noch 4k (nur WQHD) noch extreme Einstellungen...

PCGH? den glaube ich gar nichts mehr, die gehören für mich zu dem Wust und haben auch die 970 als besonders empfehlenswert publiziert, nach bekannt werden des Speicher-SI-Ansatzes seitens NVIDIA. Nachweisbar schwarz auf weiß. Die stehen seitdem bei mir auf "ignor".Du liest Meinungen wohl auch nur, wenn sie zu 100% Deinen Ansichten entsprechen, oder wie? Es ist doch durchaus legitim, die 970 weiterhin zu empfehlen, auch trotz der Einschränkung.

Was nutzt eine 8+Kern CPU wenn Windows nur einen Kern fürs spielen zulässt?Meinst Du die Begrenzung der Rendering Pipeline durch DX 11? Die hat aber nichts mit dem Streaming zu tun. Das kann ja durchaus auf einen anderen Thread ausgelagert werden.

4GB VRAM reichen vollkommen, oder etwas das weniger als 0.1% der Spielerschaft wirklich brauchen.Meine VRAM-Auslastungsanzeige spricht eine andere Sprache, und im Zweifel verlass ich mich lieber auf die als auf Dich... :)

Gast
2015-03-31, 17:26:00
Das stimmt natürlich, nur darf man nicht so tun als käme jetzt jede GPU mit UHD klar, das schafft nicht mal GM200! Und weit verbreitet ist es auch nicht.

Das dies dann nicht sinnvoll optimiert wird ist klar, 1080p schaffen auch Konsolen und die haben weit weniger Rohleistung zur Verfügung als ein PC. Man braucht keine 12GB VRAM um UHD sauber und ruckelfrei dazustellen. Mods und andere Spielchen laufen auf den Engines zuweilen kaum sauber, da hilft auch kein VRAM.

Für den NVIDIA SLI Enthusiast mag die X ein Segen sein, für die große Spielerschaft nicht. Trotzdem haut ein 970 SLI der X manche Spiele um die Ohren, was zeigt das man die Karte was deren Rohleistung betrifft nicht braucht. Sie setzt nichts weiter als neue Höchstmarken beim Preis der sich auf das gesamte Portfolie auswirkt+gestrichener DP Power.

Was bekommt man derzeit für 300 Euro von NVIDIA. Eine Karte mit 4GB VRAM an 128Bit SI deren Power man schon vor Jahren kaufen konnte. Die sind krank im Kopf mehr nicht.

Passt aber nicht zum Thema weil Offtopic. Denn man.

dargo
2015-03-31, 17:49:06
Wow. Das wusste ich in der Tat nicht. Und es ist auch unverständlich für mich, dass Sony derart großzügig mit dem Speicher umgeht. Wozu bitte? So viel Speicher genehmigt sich ja noch nicht mal Windows wenn ein Spiel läuft.

Ok, das erklärt einiges. Hättest du mir das nicht früher sagen können? :freak: Die ~5,5GB die da für Spiele zur Verfügung stehen sind übrigens nicht das Ende vom Lied. Es gab durchaus Meldungen, dass man da noch etwas mehr herausholen möchte. Ich glaube von max. 6,5GB (oder warens sogar 7GB wenn man die zusätzlichen 1GB, die normalerweise für die Spieleaufnahmen reserviert sind, mitnimmt?) war die Rede. Und übrigens... bei der XBox One ist es nicht viel anders, betrifft also nicht nur Sony. Das sind halt die "Nachteile" wenn man eine Kiste anbieten will mit der man nicht nur spielen kann.

HisN
2015-03-31, 17:55:06
Das stimmt natürlich, nur darf man nicht so tun als käme jetzt jede GPU mit UHD klar, das schafft nicht mal GM200! Und weit verbreitet ist es auch nicht.
.
Kommt auf den Standpunkt an. Finde er macht das sehr gut.

aufkrawall
2015-03-31, 18:30:08
Das sind halt die "Nachteile" wenn man eine Kiste anbieten will mit der man nicht nur spielen kann.
Das ginge sicher auch alles effizienter. Problem ist imho auch die HDD mit schrecklichen Zugriffszeiten, die eine Auslagerung von dem ganzen Kram nicht unbedingt attraktiver macht.

Gast
2015-03-31, 21:23:47
Ich glaube von max. 6,5GB (oder warens sogar 7GB)
NEIN - denn die Info bezog sich darauf das allgemein 1GB fürs Betriebssystem freigehalten werden, was nicht bedeutet das man dann 7GB allein als VRAM zur Verfügung hätte, dass ist der Trugschluss der sich dann zusammengereimt wird. Zudem unterscheidet sich die Rohleistung der Konsolen noch erheblich.

@HisN
Macht das ganz gut? Für den Preis wohl eher nicht, stellt mal 4xAA+ bei UHD ein, und dann? Kackt das Ding ab. Der Preis ist viel zu hoch für die Kiste. Die 12GB Ram braucht keiner und eine SLI hat die gleichen Probleme wie jedes SLI. Die Titan X íst nichts als eine größe Enttäuschung.

Die 20-25w die man beim Speicherausbau gespart hätte wären bei der GPU sicher besser aufgehoben, nur dann dreht der Kühler völlig durch.

Die bringt man jetzt als ti oder GM200 Salvage mit 6GB für 850 Euro, witzlos ist das mittlerweile. Wer sowas gut heißt, der hat sie nicht mehr alle und sich sich der Verantwortung nicht bewußt die man anderen aufbürdet. Die Karten werden irgendwann unbezahlbar für Otto Normalo oder man bekommt lächerliche Leistung. (und das im 28nm Prozess, eine Frechheit mehr nicht)

HisN
2015-03-31, 21:33:30
@Gast
hast Du schon mal vor einem 4K-Display gesessen? Ist völlig unnötig. Warum soll ich da Power drauf verschwenden? Ist anderweitig besser investiert.
Weil Du keine Anwendungen für 12GB hast, braucht es keiner? Tellerrand?

Gast
2015-03-31, 22:03:08
@Gast
hast Du schon mal vor einem 4K-Display gesessen? Ist völlig unnötig. Warum soll ich da Power drauf verschwenden? Ist anderweitig besser investiert.
Lustig, ich habe schon gelesen was Du im PCGH Forum gepostet hast! Liest sich genauso.

Weil Du keine Anwendungen für 12GB hast, braucht es keiner? Tellerrand?
Ja genau darum geht es, ich bin zu blöd. Habt ihr nicht von Spielen gefaselt und man bräuchte dazu eine TitanX und deren Speicherausbau. Wenn nicht, dann reicht auch jede andere Karte die die Hälfte kostet und man muss sie nicht als UHD Offenbarung bewerben. Wir sprechen hier doch von NVIDIA Treibern unter Spielen und anderem, oder?

Vor einem UHD-Display, nein bestimmt nicht, zwei Samsung plus zwei Sony UHD!

Tellerrand naja fass Dich an die eigne Nase. Nur weil Du bei UHD darauf verzichtest heißt das nicht das man es nicht braucht, zum Beispiel in anderen Anwendungen. Mit welchen professionellen Anwendungesszenarien füllst Du denn den VRAM wenn man fragen darf?

Und wie machst Du das dann unter GSync mit den beiden Monitoren? Zumal HDMI 3840x2160/30 Hz oder 4096x2160/24Hz; DP 4096x2160/60Hz unterstützt und analog nicht volle Auflösung erreicht werden kann. Super durchdacht, aber Hauptsache UHD und 12GB VRAM. Echt bahnbrechend, wenn ich mal NVIDIA zitieren darf.:rolleyes:

Echt eine coole Gamerkarte für 115x Euro!

Chip4000
2015-03-31, 22:21:02
Kommt vor Ostern noch ein neuer Treiber, weiß hier jemand was?
Frage deshalb, weil ich am Karfreitag mein Windows neu aufsetzen will.

HisN
2015-03-31, 22:26:54
@Gast
Ist von mir, warum sollte es sich in einem anderen Forum nicht genau so anhören?

Und Du bist niedlich.
Auf der einen Seite sagst Du: Braucht NIEMAND
Und wenn man Dich darauf aufmerksam macht, das es Szenarios gibt die Dir gerade nicht einfallen kackst Du einen darauf an, nennst aber im gleichen Atemzug Szenarios die eventuell keinem anderen einfallen?

Komm klar.

Und warum sollte ich professionelle Anwendungen haben und dafür eine Gamer-Karte anschaffen? Ich dache es geht um Spiele :-)

Ich bekomme zur Zeit 8GB gefüllt mit knapp 60 FPS in UHD, und ich kenne leider keine Nvidia-Karte die 8GB VRAM hat. Da bleibt mir wohl nur die 12GB Karte.

Und Du kannst gerne mal Anwendungen nennen wo man 4xAA braucht um glücklich zu sein in UHD. Schaue ich mir gerne an (wenn ich sie dann habe) und sag Dir meine persönliche Meinung zu und was Die X dabei stemmt.

Dieses "pack mal 4xAA rein"-Todschlag-Argument kommt halt normalerweise von den Leuten die noch nie vor einem 4K-Bildschirm gesessen haben. Und deshalb vertrete ich auch meine persönliche Meinung, das man es nicht unbedingt braucht. Aber sagen wir es mal so ... es wird GENUG Games geben, wo man das wunderbar aktivieren kann, und in denen die X trotzdem spielbare FPS in UHD bringt.

Gastolele
2015-04-01, 00:07:08
In dem Test von PCGH jedenfalls nicht. Da kann man nicht mal GSync erwarten bei 20-25fps, da hat er schon Recht. Versprochen wurde etwas anderes. Die X ist da unwesentlich schneller als eine 980 oder Titan alt. Die Karte hat meines Erachtens zu wenig Leistung um so teuer zu sein. 60fps in 4K wo, nicht in neueren Spielen. Die Karte ist schnell genug für 2k, da braucht man aber keine 12gb Videospeicher.

HisN
2015-04-01, 00:10:55
Seit wann hat immer das Alter der Spiele was mit den Hardware-Anforderungen zu tun.
Ist Dir Watch Dogs nicht neu genug? Nicht fordernd genug? Oder ist das Video da weiter oben wo man 50+ FPS während eine Recording-Anwendung läuft in irgend einer Form zu langsam? Ich fahre da durch den dichten Verkehr und es gibt NICHT EINEN EINZIGEN RUCKLER. Nicht einen.
Werdet doch mal konkret anstatt hier immer Pauschalitäten loszulassen.
WO ist sie zu langsam?

4K-Beispiele
DA:I Ultra-Settings mit High-PP-AA 40+ FPS. Absolut ausreichend und noch jede Menge zum runterstellen. Ist kein schneller Shooter
BF4: 100 FPS AVG in Ultra-Settings mit FXAA
Crysis3: 60 FPS in High-Settings mit FXAA
Elite Dangerous: 80-170 FPS in Ultra-Settings mit FXAA
Lords of the Fallen 50+ FPS
Shadows of Mordor: 50+ FPS
Unity: 35+ FPS in Ultra mit FXAA. Da muss man etwas zurückstecken. Ich hab bis jetzt keine Lust gehabt mir was auszuknobeln, aber es geht bestimmt auch High :-)
FC4: 50 FPS in Ultra mit FXAA, wenn man ein bisschen zurücksteckt auch lockere 60 FPS.


Was zur Zeit gar nicht geht ist Star Citizen. Will ich nicht bestreiten. Aber das kommt auch erst in zwei Jahren auf den Markt.

Gastolele
2015-04-01, 00:29:02
Dann hast du noch keine zwei Displays an die Karte angeschlossen, zuweilen 4fps vor der 980. Das ist nichts. Und wirkliche 4K kannst du dann völlig vergessen. Da braucht es eben zwei davon, dass ist es nicht Wert. DSR mag ja gehen aber nativ reicht die Leistung als sGPU bei weitem nicht, die Drops mit normalem Standardkühler nicht zu vergessen oder eben Lärm. Die darf dann 25-30% mehr kosten, den Titanaufschlag bringt sie meines Erachtens so wie die Vorgänger nicht mit.

HisN
2015-04-01, 00:35:17
Öhm. Moment. Ich hab keine zwei Displays angeschlossen?
An eine Gaming-Graka zum zocken? Versteh ich jetzt nicht.
Ich muss also zwei 4K Displays anschließen zum zocken? Mit Monitorrand in der Mitte?
Und woher weißt Du dass ich keine zwei Displays angeschlossen habe?
Mein Arbeitsplatz ist manchmal etwas unvernünftig.
http://abload.de/thumb/desktop_kleinujuaw.jpg (http://abload.de/image.php?img=desktop_kleinujuaw.jpg)
Reichen 2x30" und ein 40"?
Zuweilen 4FPS vor der 980, im Mittel aber 25-30%. Das macht eventuell den Unterschied zwischen spielbar und unspielbar aus. Manche Leute wollen das honorieren, andere nicht.
Und die 980 macht keinen Lärm mit dem Standard-Kühler? Wenn Du mich so fragst gehört jede Graka unter Wasser.

Gast
2015-04-01, 00:54:12
Wieso auf beiden zocken hat doch niemand geschrieben. Kannst auch gerne einen zweiten 2k anschliessen. 20 vs 26fps macht bei dir den Unterschied und bei 1k Gpus die Details reduzieren? Da haben wir grundlegend andere Ansichten was eine Diskussion obsolet macht, auch was das nachträgliche unter Wasser setzen angeht. Für den Preis sollen sie das gefälligst mitliefern. Beispiele das es möglich ist gibt es ja. Man spart dann immerhin 10db weg bei um 60 Grad. 48 vs 38db.

HisN
2015-04-01, 01:10:40
Zwingt Dich doch niemand zum Kauf. Du wartest halt so lange bis es die Leistung die Du brauchst, für die Kohle die Du bereit bist auszugeben, gibt.
Ich Zocke so lange mit für mich angenehmen Details in 4k.
Da gibt es kein richtig und kein falsch. Aber ihr scheint da immer eins daraus machen zu müssen, jedenfalls kommt es mir so vor :-)
Oder warum höre ich immer Zocken in 4k geht nicht? Titan ist zu teuer?
Gibt es Alternativen von NV die nicht an 4GB kranken oder von AMD die ähnliche Leistung bringen?
Und dann ... weiß ich immer noch nicht wo ich jetzt unbedingt auf nur 20 FPS komme damit ich ausreichend Bildqualität habe. Ist mir halt noch nicht passiert.
Und was das ganze mit zwei Displays zu tun hat erschließt sich mir immer noch nicht. Ich kann halt nur noch vier von den sechs anklemmen, die vorher am SLI hingen, aber damit komme ich auch klar, das wusste ich vorher^^
http://abload.de/thumb/nvidia_monitoreeu7r.jpg (http://abload.de/image.php?img=nvidia_monitoreeu7r.jpg)

dargo
2015-04-01, 09:28:58
http://youtu.be/wmvRN4OqjiM

Die Aufnahme kostet FPS.
In 4K sind wir in der Nähe der 16.6ms (18-21), allerdings muss man sich da glaub ich nicht sooo drauf versteifen^^.
Ich finde die Leistung (und man sieht, ich hab die Übertaktung extra zurückgenommen) schon recht ordentlich^^

Allerdings in meinen Settings auch nicht mal annähernd an 8Gibi, da ich kein AA zuschalten kann ohne eine Slideshow zu bekommen.
In kleineren Auflösungen mag ich das ausgehen. Von was sprechen wir hier? Full-HD?
Konnte jetzt erst mir das Video anschauen. Was möchtest du mir damit aber genau zeigen? Das Video ruckelt doch ständig. Die Frametimeanzeige ist ebenso unbrauchbar da sie offenbar nur jede Sekunde aktualisiert wird. Für einen vernünftigen Test vom Streaming setze einfach Vsync ein @60Hz und runter mit der Auflösung bis die 60fps gehalten werden können.

Hier hast du mal ein Video was ich unter flüssig verstehe.
https://mega.co.nz/#!ZgxhEaRJ!MDNgumfJIA_LjCkmJJczpuXch3CYUfWsUJ1XqxSsfkE

Sehr wichtig dabei... den Bildschirm auf 50Hz setzen sofern man kein G-Sync/Freesync hat. Paar kleine Ruckler gibts im Video dennoch. Lag aber an der Frapsaufnahme. Shadowplay kann leider nicht mit 50fps aufnehmen. 50fps deshalb weil das ziemlich so der Sweet Spot für die Streamingengine bei mir war wo es noch flüssig lief. Und zwar nur mit High Texturen @GTX970 und Full-HD. Das sah dann so aus.
http://abload.de/image.php?img=wd_50fps_texturen_hig51ubz.png

robbitop
2015-04-01, 10:03:01
Wow. Das wusste ich in der Tat nicht. Und es ist auch unverständlich für mich, dass Sony derart großzügig mit dem Speicher umgeht. Wozu bitte? So viel Speicher genehmigt sich ja noch nicht mal Windows wenn ein Spiel läuft.

Das entwertet natürlich mein Argument, dass 4 GB VRam auf dem PC nicht mehr reichen, wegen der neuen Konsolengeneration. Wobei... Es ist schon so, dass meine 4 GB permanent am Limit sind, und das passiert - mit Ausnahme von Skyrim - ausnahmslos bei Ports der aktuellen Konsolengeneration. Und ich verwende weder DSR (geht bei mir nicht) noch 4k (nur WQHD) noch extreme Einstellungen...

@Verschwendung

Da bin ich deiner Meinung. Ist halt dieser Sociamedia + Streamingquatsch + Multitasking + Sinnlos Klickibuntifunktionen, die die Kids heute haben wollen. Ich würde es lieber sehen, dass alles den Spielen zur Verfügung steht. Aber offenbar sind diese Funktionen den Käufern wichtig. :D
Die Lets Player könnten ja weiterhin das HDMI Signal grabben. Ist aber nicht so "convenient". ^^

@RAM
Naja 1. sind die 5,5 GiB ja wirklich vollständig für das Spiel. (OS, Treiber etc. pp sind ja schon von den 2,5 GiB versorgt).

Ansonsten kommen Konsolen auch immer mit weniger RAM aus als PCs. Schlechtere Assets, höherer Fokus auf Streaming und harte Optimierung.

Von Konsolenspecs auf PC Specs zu schließen funktioniert halt selten. Sind halt schon zwei verschiedene Welten. :)

HisN
2015-04-01, 11:39:13
@Dargo
Ich will damit sagen, dass wir verschiedene Sichtweisen auf die Problemstellung haben. (Oder sagen wir auf fast alle Problemstellungen in letzter Zeit^^)

Grestorn
2015-04-01, 11:48:23
Hier hast du mal ein Video was ich unter flüssig verstehe.
https://mega.co.nz/#!ZgxhEaRJ!MDNgumfJIA_LjCkmJJczpuXch3CYUfWsUJ1XqxSsfkE

Auf welcher Hardware ist das Video entstanden? Es wirkt ja eher unscharf, was aber auch am Video/Capture liegen kann.

dargo
2015-04-01, 11:57:14
Xeon E3-1230 v3 @3,7Ghz + GTX970 @1450Mhz. Die leichte Unschärfe kommt vom temporalen Ingame-AA. Zudem sind das bloß 18,4Mbit. Ingame siehts natürlich besser aus.

TobiWahnKenobi
2015-04-01, 16:38:58
meine zeit reicht nicht für aufwendige videoaufzeichnungen + irgendwelche uploads, aber ich habe WD eben noch mal grandiose 11 minuten gespielt. lässt sich wie gewohnt auf TV/wand syncen (59Hz) und hat weder sichtbar geteart noch irgendwo störend geruckelt.

2015-04-01 15:50:44 - Watch_Dogs (1440P TSMAA)
Frames: 40174 - Time: 686125ms - Avg: 58.552 - Min: 46 - Max: 62

speicherverbrauch auf der graka habe ich nicht vorsätzlich beobachtet, aber da der arschbrenner wg. des OC lief (und noch läuft) und WD das einzige spiel war, das ich heute gestartet habe, verlasse ich mich mal auf die anzeige im graphen (http://abload.de/img/unbenanntq8u8i.jpg). die spricht davon, dass maximal 3996MB belegt waren.

@dargo
wo spiele ich denn spiele mit 30fps? wenn man ausnahmespiele ausklammert, die engineseitig gern solche frameraten hätten, ist mein ziel seit eh und je die tearfreie darstellung und das bedingt nicht selten irgendeine form von sync. zumindest abseits des schnellen schreibtisch-TFTs.


(..)

mfg
tobi

Gast
2015-04-01, 22:06:13
Wieso auf beiden zocken hat doch niemand geschrieben.
Das macht auch beim Zocken nicht viel Sinn, die Verzerrungen in 3D Shootern sind einfach Mist, auch wenn man an Immersion hinzugewinnt. Nimm einen 21x9 4K in vernüftiger Größe (zum Zocken, man kann auch 3 Dokumente nebeneinander öffnen) wenn die Auswahl vorhanden ist, denn das hauptsächliche Geschehen spielt sich eher in der Mitte des Bildes ab, das menchliche Auge ist eben so beschaffen die meisten Reize so aufzunehmen.

Bei Taktikspielen erpart man sich das zuweilen nervige herumgefahre mit der Maus vom ganz rechten Rand des rechten Monitors bis hin zum linken Rand des linken Monitors, bei 3 Bildschirmen echt grottig und zeitaufwendig das Kopfgeschwenke mal aussen vor.

Für einen ordentlichen 21x9 reicht die X alle male und etwas OC verhilft hier dann auch zu der Leistung die fast an ein 980SLI heranzureicht.

Ich warte auch noch auf AMD, aber dann könnte man irgendwann zuschlagen. Mal sehen wer die Nase vorne hat.=)

SamLombardo
2015-04-05, 22:05:55
Mit dem 347.88 wird meine OC980 satte 5 Grad heißer als mit dem 347.55 (85 vs 80 Grad). Getestet im Heaven 4.0. Hat das sonst noch jemand beobachtet?

Schrotti
2015-04-05, 22:22:45
Du zockst Heaven 4.0? Cool.

Wie motivierst du dich das Spiel länger zu "zocken"?

Dude!

Es ist wärmer draußen.
Wir haben Frühling und die Temperaturen steigen.
Du wunderst dich über 5°C mehr?

Ich würde eine Wakü für die Grafikkarte empfehlen.

SamLombardo
2015-04-05, 22:42:42
Was soll denn die Antwort? Naja vielleicht hab ich mich auch falsch ausgedrückt. Ich habe beide Treiber mehrfach installiert und deinstalliert, im Abstand von fünf Minuten, nicht Jahreszeiten. Mit dem .52er wird die Karte 80 Grad heiß, mit dem .88er sinds 85 Grad. Frühling hin oder her. Es hat auf jeden Fall mit dem Treiber zu tun.

Ex3cut3r
2015-04-05, 23:01:53
Vielleicht wird die Grafikkarte da wo sie wärmer wird, auch besser ausgelastet? Hast du auch mehr FPS?

SamLombardo
2015-04-05, 23:15:46
Ne, ich hatte sogar leicht weniger mit dem .88er. Deshalb bin ich überhaupt auf die Idee gekommen, mal genauer hinzuschauen. Da mein Temperaturtarget bei 83 Grad lag hat die Karte gethrottled. Erst als ich die das hochgestellt hatte hab ich gesehen, dass die Karte bis 85 Grad geht. Fps waren dann wieder wie immer (aber nicht mehr). .52er wieder drauf und wieder 80 Grad. Identische fps (+- ein paar Zehntel) Hm.

Angiesan
2015-04-10, 23:20:59
mhh gab es doch schon mal wie die GTX 780 rausgekommen ist, da wurde es mit einem Treiber auch etwas wärmer, da NV die Lüfterkurve etwas verändert hatte.

Arschhulio
2015-04-11, 01:23:37
Ich habe seit dem 347.52 das Problem, dass wen ich die Surround Anzeige Monitor per Tastenkombi strg+alt+s ein schalte, mein Rechner mit einem bluescreen abschmiert. Mit vorherigen Treibern existiert das Problem jedoch nicht :mad: Einem Mitglied aus unserem Forum ergeht es mit seiner GTX 780 genau so. Es das ein bekanntes Problem?