PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 980 und GTX 970: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20

Raff
2014-11-18, 19:06:02
Kosmisch das der PC nicht das neue Ubi AA bekommt.

HRAA? Meine Beobachtungen decken sich mit den Schilderungen von Digital Foundry bezüglich der PS4-Version. Ist denn sicher, dass HRAA nicht einfach eine "coole" Bezeichnung für das am PC angebotene T-SMAA ist?

MfG,
Raff

Thunder99
2014-11-18, 19:10:17
mal testen :D

aufkrawall
2014-11-18, 19:10:18
Doch. ;) Aber das T-SMAA in Far Cry 4 sieht in Kombination mit Downsampling (alter-nativ in UHD) wirklich ziemlich fesch aus. In 1080p ist's aber brutal unscharf, sobald man sich bewegt.

MfG,
Raff
Der temporale Filter ist zu aggressiv, ja. Gefällt mir aber besser als das Restflimmern durch schlecht greifendes MSAA (auf das TXAA aufbaut).
Etwas Lumasharpen ist mit dem SMAA angebracht.

-/\-CruNcher-/\-
2014-11-18, 19:31:16
HRAA? Meine Beobachtungen decken sich mit den Schilderungen von Digital Foundry bezüglich der PS4-Version. Ist denn sicher, dass HRAA nicht einfach eine "coole" Bezeichnung für das am PC angebotene T-SMAA ist?

MfG,
Raff

Anzunehmen

sehr positiv finde ich die Ergebnise von der SSBC implementation der unterschied mit HBAO+ ist wirklich klein im Vergleich noch zu Watch_Dogs MHBAO die Performance verdamt nice und SSAO hat 0 chance in der Balance :)

Der temporale Filter ist zu aggressiv, ja. Gefällt mir aber besser als das Restflimmern durch schlecht greifendes MSAA (auf das TXAA aufbaut).
Etwas Lumasharpen ist mit dem SMAA angebracht.

Sehe ich etwas anders vor allen wenn wir von 1080p optimierung sprechen da hat das SMAA keine chance was ergo bedeutet AMD user haben einen Nachteil der auch wirklich sichtbar wird

Da DSR auf Maxwell quasi nichts kostet müsste man sich nochmal DSR + SSMA anschauen auch vom temporalen verhalten und auch im Vergleich mit MFAA vor allen recht interessant in kombination mit dem jetzigen Vertex Fur Shader und demnächst Hairworks ;)

Der Content von FarCry 4 und AC:U ist echt eine Augenweide soviel High Frequency Details sieht man selten, Watch_Dogs war schon klasse aber die beiden toppen das Workflow nochmals :)

M4xw0lf
2014-11-18, 20:10:57
DSR kostet nichts? :freak:

Dr.Doom
2014-11-18, 21:03:31
DSR kostet nichts? :freak:Ist ja gratis im Treiber auswählbar! :freak:

Hübie
2014-11-18, 21:08:10
Hahahaa. Korrekt :biggrin:

aufkrawall
2014-11-18, 21:23:14
Was soll eigentlich diese "1080p optimierung" sein?

Thunder99
2014-11-19, 01:34:17
Man sieht das gut aus, 4k mit SMAA und 20% Filter in FarCry 4 :eek:

Nur ist es gerade so flüssig oder nicht je nach Empfinden und natürlich Szene :biggrin:

akuji13
2014-11-19, 07:52:28
Ja, 5760x3240 stehen dem Spiel wirklich gut.
Mit Auflösungen darüber bewegen wir uns im Bereich artwork. :eek:
Und mit allem auf low ist es für die ganz harten mit 20-35 fps sogar spielbar. :D

*Daumen drück für DSR mit SLI*

Grestorn
2014-11-19, 08:50:01
DSR und SLI gehen schon zusammen. Nur nicht, wenn man einen GSync Monitor verwendet. ;(

Was ausgesprochen schade ist. Denn das ist die Traumkobi. Ich hoffe, die kriegen das bald hin!

akuji13
2014-11-19, 09:20:37
Meinte ich doch. ;)

*Daumen drück für DSR mit SLI auf G-Sync Monitoren*

VooDoo7mx
2014-11-19, 16:37:26
Mit "nur" 1,21250V sind permanent >1500MHz wohl recht schwierig,
eventuell sind 1450-1500MHz ja auch ganz ok.

Meine schafft locker 1500MHz+ mit 1,93V. Kommt wohl eher auf die Chipqualität an. In den Punkt ist es wohl sinnlos den Chip mit noch mehr Spannung weiter zu grillen und zu quälen.

Von Palit gibt es auch ein OC Tool Thundermaster. Das scheint wie das von Evga und MSI Arschbrenner von Unwinder zu sein.
Damit kann ich auch den Speicher mehr Saft geben ohne jdoch einen festen Wert einzutragen. Damit komme ich beim Speicher auf über 4000. Meint ihr das ist gesund das so weiter laufen zu lassen? Der Verbrauch steigt damit noch weiter. Ich muss schon sagen die Palit GTX980

aufkrawall
2014-11-19, 16:41:59
Wie soll sich mit einem Tool der VRAM weiter takten lassen als mit nem anderen? Spannung erhöht?
Upai.

hq-hq
2014-11-19, 17:00:37
Meine schafft locker 1500MHz+ mit 1,93V. Kommt wohl eher auf die Chipqualität an. In den Punkt ist es wohl sinnlos den Chip mit noch mehr Spannung weiter zu grillen und zu quälen.

Von Palit gibt es auch ein OC Tool Thundermaster. Das scheint wie das von Evga und MSI Arschbrenner von Unwinder zu sein.
Damit kann ich auch den Speicher mehr Saft geben ohne jdoch einen festen Wert einzutragen. Damit komme ich beim Speicher auf über 4000. Meint ihr das ist gesund das so weiter laufen zu lassen? Der Verbrauch steigt damit noch weiter. Ich muss schon sagen die Palit GTX980

1,93V !!! :freak::biggrin:

jo also schätze es gibt nicht viele die mit 1,193v jede Lebenslage über
1500MHz meistern :smile: also dazu erstmal herzlichen Glückwunsch :)
Na wenn dich das PT nicht limitiert, kannst du ja mal schauen wie weit
du deinen Schatz hochtreiben kannst. :ulove:

das Tool von Zotac, damit kann man auch dem RAM mehr Saft geben,
zumindest 20mV ... lächerlich wenig freilich... Also um den RAM bei 4000MHz
muss man sich bestimmt keine Sorgen machen.
(Bei mir scheint es auch eher das Speicherinterface zu sein, dass schlapp macht.)

Und lass mich deinen Satz zum Ende bringen: "Ich muss schon sagen, die Palit GTX980 ist die Aphrodite unter den GTXen"

aths
2014-11-19, 18:56:13
Erst jetzt mit World of Warcraft merke ich wieder, wie gut die 980 wirklich ist.

Volle Framerate, kein nerviger Lüfter.

Bei der 680 und 285 habe ich die Framerate so weit drosseln müssen, dass es nicht mehr richtig flüssig war, ansonsten störte der Lüfter. Jetzt hingegen habe ich auch die Background-fps hochgezogen, da die Karte das anstandslos packt, ohne dass man den Lüfter raushört, geschweige denn dass er irgendwie nerven würde.

Braucht man für Supersamling in WoW AA-Bits?

aufkrawall
2014-11-19, 18:59:35
Musst du auf DX9 gehen, das schlechter performen soll.
Aber soll laufen (12C1, siehe AA-Thread).

Ich würde btw. die Güte einer Grafikkarte nicht von diesen unsäglichen Radiallüftern abmachen, die darauf verbaut werden.
Meine 970 Gaming ist mit 1475Mhz & 220W mit manueller Lüfterkurve (71°C) wahrscheinlich auch nur so laut wie die 295X im Leerlauf, wenn überhaupt. :freak:

aths
2014-11-19, 19:29:23
Verschlechterung im Treiber: MFAA hat in Shadow of Mordor keine Auswirkung mehr. Ich hoffe, dass es wenigstens über eine inoffizielle Treiber-Einstellung noch die Möglichkeit, MFAA zu erzwingen, nachgereicht wird. Es ging in den bisherigen Treibern ja auch.

aufkrawall
2014-11-19, 19:33:01
Liegt am Whitelist-Flag, das du für nicht offiziell unterstützte Spiele nun manuell setzen musst:
http://abload.de/thumb/mfaa73kca.png (http://abload.de/image.php?img=mfaa73kca.png)

Teste mal und gib bitte Feedback.

aths
2014-11-19, 20:26:33
Liegt am Whitelist-Flag, das du für nicht offiziell unterstützte Spiele nun manuell setzen musst:
http://abload.de/thumb/mfaa73kca.png (http://abload.de/image.php?img=mfaa73kca.png)

Teste mal und gib bitte Feedback.
Auf 1 gesetzt – keine Auswirkung. MFAA ist an und ich habe in Mordor auch nicht auf 30 fps limitiert.

aufkrawall
2014-11-19, 20:51:26
Hm, eventuell beschränkt sich die Wirkung von dem Flag aufs Control Panel.
Ich sehe bisher auch höchstens flimmernde Pixel mit MFAA, sonst nichts.

VooDoo7mx
2014-11-19, 21:24:19
1,93V !!! :freak::biggrin:

jo also schätze es gibt nicht viele die mit 1,193v jede Lebenslage über
1500MHz meistern :smile: also dazu erstmal herzlichen Glückwunsch :)
Na wenn dich das PT nicht limitiert, kannst du ja mal schauen wie weit
du deinen Schatz hochtreiben kannst. :ulove:

das Tool von Zotac, damit kann man auch dem RAM mehr Saft geben,
zumindest 20mV ... lächerlich wenig freilich... Also um den RAM bei 4000MHz
muss man sich bestimmt keine Sorgen machen.
(Bei mir scheint es auch eher das Speicherinterface zu sein, dass schlapp macht.)

Und lass mich deinen Satz zum Ende bringen: "Ich muss schon sagen, die Palit GTX980 ist die Aphrodite unter den GTXen"

Ich glaub mein Ergebnis ist nicht mal besonders. grestorn hat auch 2 custom 980er die 1500 packen. Die GM204 auf den GTX980 sind eben dann doch die hochwertigeren Chips und vertragen noch ein paar MHz mehr. Einen Bench Ren kann ich sogar mit 1600MHz durchlaufen lassen, nur dann sieht man schon gut Artefakte.

Was nutzt ihr denn um GM204 auf Stabilität/Artefakte zu testen?

aufkrawall
2014-11-19, 21:26:37
Risen 3 in den Himmel schauen.

-/\-CruNcher-/\-
2014-11-19, 21:35:07
ENB bei Skyrim krasse Water Displacement Settings und dann einfach nur aufs Wasser schauen ;)

M4xw0lf
2014-11-19, 21:51:03
Risen 3 in den Himmel schauen.
Echt jetzt? Oder check ich den Witz nicht? :uconf:

aufkrawall
2014-11-19, 21:54:07
Echt jetzt. Hat bei mir auf Anhieb rockstablen GPU-Takt ausgelotet.

Knuddelbearli
2014-11-19, 22:26:30
hmm GPU stürzt bei mir eher in Innenräumen ab da da auch die maximalen Taktraten getestet werden.

Für Vram ist der Nachthimmel aber ideal ja

aufkrawall
2014-11-19, 22:30:48
Es gibt am Himmel aber schnell Artefakte zu sehen. Dreh den Takt weiter auf und probiers aus. Etwa Taghimmel auf Takarigua am Meer. 1440p oder höher nutzen.

Knuddelbearli
2014-11-19, 22:38:27
spiele risen eh in 2400p ^^

fühlt sich zum Glück auch mit 40-50 FPS sehr "smooth" an.

Und hab den Takt der GPU schon von 1600 auf 1530 gesenkt aufgrund abstürze ( fast alle in Innenräume die meisten bei den Dämonenjägern ) am Himmel ist mir da aber nix aufgefallen.

In offenen Gebieten bricht ja auch der Takt stark ( ~1450 statt 1530 trotz 350W TDP ) ein da kann es die maximalen taktraten ja auch kaum testen

aufkrawall
2014-11-19, 22:44:37
Was sind denn das für Mistkarten, bei denen der Takt so einbricht?
Ich verliere irgendwann ab ~66°C eine Booststufe und Spannung (was quasi keinen Unterschied macht) und das wars dann, zumindest bis 71°C (wärmer wirds nicht). Würde mal testweise Bios-Flash empfehlen.

Knuddelbearli
2014-11-19, 23:30:05
na ok bei mir erreicht es 75C° als schon stück wärmer

Thunder99
2014-11-20, 01:10:56
Naja, auf meiner GTX970 EXOC "muss" ich ja auf 1496MHz gehen das diese dann immerhin in den anspruchsvollsten Szenen 1,4GHz macht, bei max. 85°C

hq-hq
2014-11-20, 02:06:52
Ich glaub mein Ergebnis ist nicht mal besonders. grestorn hat auch 2 custom 980er die 1500 packen. Die GM204 auf den GTX980 sind eben dann doch die hochwertigeren Chips und vertragen noch ein paar MHz mehr. Einen Bench Ren kann ich sogar mit 1600MHz durchlaufen lassen, nur dann sieht man schon gut Artefakte.

Was nutzt ihr denn um GM204 auf Stabilität/Artefakte zu testen?

Ja gut, die GTX970 leidet oftmals am niedrigen PT, die GTX980 ist da etwas stärker.
Ich glaube aber, unter 1,2V wirds auch bei der GTX980 schwierig die 1500MHz immer ohne Probleme zu halten.
Wär ja toll wenn ich falsch liege, der Aufpreis darf sich rechtfertigen.

Raff hat mich mit dem Anno2070 angefixt, ich hab die Demo geladen und
in DSR 4k mit max Details über der ersten Stadt auf der ersten Map zentral
maximal rausgezoomt killt es meine EVGA auf 1316MHz und die Zotac
auf rund 1450MHz. Natürlich sollte man die Szene ein paar Minuten laufen lassen :biggrin:

Ein Spiel ist kein Spiel aber das PT wird bei den kleineren GTX970 bestimmt geknackt :freak:
Falls du Zeit findest, die Demo hat nur 1GByte

Knuddelbearli
2014-11-20, 02:11:49
PT wird bei Standard 970 eigentlich immer geknackt. selbst meine mit 350W kommt mit OC ( Keine Spannungserhöhung 1530MHz ) öfters mal auf 90%. Standard 970 hat aber gerademal halb soviel

hq-hq
2014-11-20, 02:17:45
auf 90%

hm, wir haben doch das gleiche PCB bei der ZOTAC, bei mir gings noch
nicht über 76%... hast du denn wirklich unter 1,2v anliegen wenn du
bei 1500MHz herumboostest?

Schrotti
2014-11-20, 03:09:19
Wenn ich das hier so lese, bin ich froh zwei 980er gekauft zu haben.

Knuddelbearli
2014-11-20, 04:21:12
90% sind wirklich absolute worstcase kA ob das auch in Anno annliegt bei 2400p in Risen3 klettert es jedenfalls öfters mal da rauf und das obwohl der Takt nicht gehalten wird ( glaube ich schreibe die tage mal den Support an )

Womit liest du PT aus? die Werte unterscheiden sich je anch tool ja teils enorm.

zB MSI Afterburner 82% bei MSI Kombuster zeigt er zur selben Zeit nur 71% an
Zotacs Firestorm dagegen per USB Anschluss ausgelesen sagt 160W also knapp 50% bei 1,16V und 1530/4100MHz in Unigine Heaven Extreme Fenster 900p

VooDoo7mx
2014-11-20, 04:42:22
Ja gut, die GTX970 leidet oftmals am niedrigen PT, die GTX980 ist da etwas stärker.
Ich glaube aber, unter 1,2V wirds auch bei der GTX980 schwierig die 1500MHz immer ohne Probleme zu halten.
Wär ja toll wenn ich falsch liege, der Aufpreis darf sich rechtfertigen.

Raff hat mich mit dem Anno2070 angefixt, ich hab die Demo geladen und
in DSR 4k mit max Details über der ersten Stadt auf der ersten Map zentral
maximal rausgezoomt killt es meine EVGA auf 1316MHz und die Zotac
auf rund 1450MHz. Natürlich sollte man die Szene ein paar Minuten laufen lassen :biggrin:

Ein Spiel ist kein Spiel aber das PT wird bei den kleineren GTX970 bestimmt geknackt :freak:
Falls du Zeit findest, die Demo hat nur 1GByte

Naja man sollte unterscheiden ob die Karte die Freqenz nicht schafft und einen Absturz oder Bildfehler produziert oder ob sie in das PT rennt und dann runtertaktet. Da hilft es auch nicht die Spannung zu erhöhen, da diese im PT Limit ziemlich heftig gesenkt wird.

Ich hab von Anno 2070 die vollversion. Meinst du die Insel mit dem Staudamm? Da komme ich auf 1521MHz bei 1,15nochwas V. Taktrate und Spannung springt manchmal kurz etwas höher. Da limitiert das Power Target, ist da permanent bei 133%+. Alles bei Max Details @ 3840x2160. immerhin noch über 30fps und gut spielbar. Morgen mach ich mal Screenshots. Ein noch böserer "Heizer" ist aber Risen 3@3840x2160. Auf Antigua bei der Totenkopfhöhle ist kurz mal das PT auf 141% geschnippt.

Da meine 980 auch 1500+ noch bei 1,15nochwas Volt macht. Halte ich es für äußerst sinnlos da noch mehr Spannung drauf zu geben. Ich wäre eher an undervolting interessiert um zu vermeiden das die Karte in solchen Extremsituationen gegen das Power Target rennt.

Achja: GpuZ sagt, meine Palit GTX980 hat 87% ASIC Quality falls das irgendeine Relevanz hat.

Knuddelbearli
2014-11-20, 05:22:20
Hier mal ein Screen

http://oi61.tinypic.com/sblb0w.jpg

Am wahrscheinlichsten stimmt Kombustor da das Zotac eigene Tool ja sicher richtig ausliest und Kombuster dem sehr nahe kommt.
Komisch nur das Kombuster trotzdem meldet Powerlimit erreicht.

Alles in allem aber eine verdammt gute Karte nur halt 100% doch recht laut ^^
Aber über kurz oder lang kommt eh wakü drauf

mightyforce
2014-11-20, 06:37:29
Achja: GpuZ sagt, meine Palit GTX980 hat 87% ASIC Quality falls das irgendeine Relevanz hat.

glückwunsch!:love2:

das ist der beste wert von dem ich bisher gelesen habe. das höchste war bisher 83% und dann noch zwei weitere bis 79.5%.
hatte mich schon anfangs über meine 79% gefreut ;)

gibt auch leute in den niedrigen 60ern, da geht gar nichts.
imo sagt asic quality einiges aus. wie auch immer gpuz das ausliest oder berechnet.

hq-hq
2014-11-20, 10:03:10
Naja man sollte unterscheiden ob die Karte die Freqenz nicht schafft und einen Absturz oder Bildfehler produziert oder ob sie in das PT rennt und dann runtertaktet. Da hilft es auch nicht die Spannung zu erhöhen, da diese im PT Limit ziemlich heftig gesenkt wird.

Ich hab von Anno 2070 die vollversion. Meinst du die Insel mit dem Staudamm? Da komme ich auf 1521MHz bei 1,15nochwas V. Taktrate und Spannung springt manchmal kurz etwas höher. Da limitiert das Power Target, ist da permanent bei 133%+. Alles bei Max Details @ 3840x2160. immerhin noch über 30fps und gut spielbar. Morgen mach ich mal Screenshots. Ein noch böserer "Heizer" ist aber Risen 3@3840x2160. Auf Antigua bei der Totenkopfhöhle ist kurz mal das PT auf 141% geschnippt.

Da meine 980 auch 1500+ noch bei 1,15nochwas Volt macht. Halte ich es für äußerst sinnlos da noch mehr Spannung drauf zu geben. Ich wäre eher an undervolting interessiert um zu vermeiden das die Karte in solchen Extremsituationen gegen das Power Target rennt.

Achja: GpuZ sagt, meine Palit GTX980 hat 87% ASIC Quality falls das irgendeine Relevanz hat.

Ja super, du musst wirklich einen richtig guten Chip erwischt haben :uup:
Scho klar wenn das PT kommt bringt mehr Spannung natürlich weniger
anstelle mehr, insofern es schon sauber läuft.
Solang das PT immer so knapp ist, kann man sich fragen was man mit
der Option die Spannung weiter zu erhöhen anfangen soll :biggrin:

gnomi
2014-11-20, 10:18:25
Meine hat lediglich 62,6. :(
Mit knapp 1400 Mhz und Speicher 4000 bin ich aber trotzdem soweit zufrieden. =)

aths
2014-11-20, 11:07:36
glückwunsch!:love2:

das ist der beste wert von dem ich bisher gelesen habe. das höchste war bisher 83% und dann noch zwei weitere bis 79.5%.
hatte mich schon anfangs über meine 79% gefreut ;)

gibt auch leute in den niedrigen 60ern, da geht gar nichts.
imo sagt asic quality einiges aus. wie auch immer gpuz das ausliest oder berechnet.
Bei mir steht 78,1. Ich bin skeptisch inwieweit das was aussagen soll.

aths
2014-11-20, 11:14:06
Zwei Dinge fehlen zu meiner Zufriedenheit

• Die Monitor-Erkennung ist nach wie vor Glücksspiel bei mir. Manchmal bootet das System normal. Oft muss ich einen der beiden Monitore erst aktivieren.

Wenn der DVI-Monitor nicht erkannt wird, muss ich mit dem Nvidia-Panel diesen aktivieren. Wenn der DP-Monitor nicht erkannt wird, muss ich via Windows-Systemsteuerung noch mal eine Bildschirm-Erkennung durchführen.

Der DP-Monitor geht dann zwar an, aber manchmal hat er Zeilenflimmern. Dann muss ich noch mal temporär die Auflösung ändern und zurückstellen. Manchmal bootet das System auch direkt in dieses Zeilenflimmern rein.

Es kommt auch vor, dass auf dem mit DP angeschlossenem Monitor die Bildzeilen falsch sortiert sind. Dann muss ich den ganzen PC neu booten, weil beim Versuch, die Falschdarstellung mit einer zwischenzeitlichen Änderung der Bildschirmauflösung zu reparieren das Bild schwarz wird mit weit auseinandergezogenen Streifen und nicht mehr zur eigentlichen Darstellung zurückgeht.

• MFAA würde ich gerne, meinetwegen auch nur inoffiziell via entsprechenden Tools, für alle Spiele erzwingen können und ohne Multisampling-Modus nutzen können. Zwar gibt es wohl nur eine handvoll Titel bei denen das was bringt, in Shadow of Mordor war ich jedoch sehr glücklich über MFAA. Das geht jetzt mit dem aktuellen Treiber nicht.

Grestorn
2014-11-20, 11:14:36
Meine zwei haben nur 64 und 67%

Zumindest der DisplayPort ist im aktuellen Treiber echt buggy. Oft Fehldarstellungen und harte Systemcrashes (auch ohne OC), wenn ich mit Windows-P die Zusatz-Monitore abschalte (speziell, wenn es vorher Fehldarstellungen gibt).

Rebell
2014-11-20, 13:58:02
hab auch eine Gainward mit 79,5% und eine mit mitte 60. Klar macht die bessere Karte die Taktraten mit weniger Volt, aber braucht auf gleicher Voltstufe auch wesentlich mehr Strom.

Hatte mein SLI längere Zeit auf 1506/4000 problemlos laufen bis ich gestern bei The Evil Within an einer Stelle immer wieder Hänger hatte.

Hab beide Karten wieder auf 1400/4000 runtergeflasht und die max. Leistungsaufnahme etwas nach oben gedreht, damit sie den Takt immer halten. Die 100mhz Unterschied sind mir den Ärger einfach nicht mehr Wert.

Knuddelbearli
2014-11-20, 15:04:30
Hier mal ein Screen

http://oi61.tinypic.com/sblb0w.jpg

Am wahrscheinlichsten stimmt Kombustor da das Zotac eigene Tool ja sicher richtig ausliest und Kombuster dem sehr nahe kommt.
Komisch nur das Kombuster trotzdem meldet Powerlimit erreicht.

Alles in allem aber eine verdammt gute Karte nur halt 100% doch recht laut ^^
Aber über kurz oder lang kommt eh wakü drauf

mightyforce
2014-11-20, 21:58:46
nimm doch mal occt, alles andere lastet die grafik nicht wirklich aus. bei ~1400/3900 mhz und vollauslastung zieht eine 980 schon ca 280watt

aufkrawall
2014-11-20, 22:31:10
Wie soll man occt einstellen für maximalen Verbrauch?

mightyforce
2014-11-20, 22:48:26
shader auf 3,
fehlererkennung aus(das macht aber nicht viel aus und ist eigentlich sehr gut um das limit auszuloten, ich habs immer an mit 1900mb)
mind 1280*1024.

du kannst über das seitenverhältnis die auslastung skalieren. bei quadratischen fenstern wird der ganze chip eher homogen ausgelastet, während bei sehr breiten fenstern (900*300) der chip asymmetrisch ausgelastet wird. das sieht man dann daran, daß man 99% auslastung aber niedrige tdp hat.
spiel einfach mal ein bisschen damit rum. aber achtung, der fokus muss im fenster bleiben, sonst taktet die grafik sofort runter.

ich lass mir gleichzeitig mit dem afterburner einblenden wie tdp und takt sind.

PHuV
2014-11-20, 23:11:17
Achja: GpuZ sagt, meine Palit GTX980 hat 87% ASIC Quality falls das irgendeine Relevanz hat.
EVGA GTX 980 SC mit 84,1% ASIC Quality.

Godmode
2014-11-20, 23:31:36
EVGA GTX 980 SC mit 84,1% ASIC Quality.

Wie hoch geht die? Hast du sie unter Wasser? Meine haben 69,1 und 64,9 schaffen aber trotzdem um die 1500 MHz mit original BIOS unter Wasser.

Knuddelbearli
2014-11-21, 01:54:00
nimm doch mal occt, alles andere lastet die grafik nicht wirklich aus. bei ~1400/3900 mhz und vollauslastung zieht eine 980 schon ca 280watt

Und was nützt das wenn sie angeblich schon bei 50% im TDP Limit hängt? und ging mir ja nicht darum sondern das eben ejdes tool bei PT was anderes anzeigt

aufkrawall
2014-11-21, 08:34:41
Und was nützt das wenn sie angeblich schon bei 50% im TDP Limit hängt? und ging mir ja nicht darum sondern das eben ejdes tool bei PT was anderes anzeigt
vom Kaufvertrag zurücktreten. Meine läuft bei kombustor mit noch 1440 statt 1475.

Grestorn
2014-11-21, 08:58:14
vom Kaufvertrag zurücktreten. Meine läuft bei kombustor mit noch 1440 statt 1475.

Warum sollte man das tun? Ist irgendeine zugesicherte Eigenschaft nicht erfüllt?

PHuV
2014-11-21, 09:00:15
Wie hoch geht die? Hast du sie unter Wasser? Meine haben 69,1 und 64,9 schaffen aber trotzdem um die 1500 MHz mit original BIOS unter Wasser.
Ne, den normalen Kühler in der ersten Version, und ich komme auf ~1450 MHz

aufkrawall
2014-11-21, 09:19:32
Warum sollte man das tun? Ist irgendeine zugesicherte Eigenschaft nicht erfüllt?
die Karte wird für oc beworben und dieses runtergetakte könnte sogar ein Fehler sein. Mir war mit der ref 980 so ein verhalten nicht aufgefallen und die ließ ich 90 grad heiß werden.
Andererseits kann man sich natürlich auch vorher informieren und wer die 14 Tage Frist nicht wahrnimmt, ist auch selbst schuld.

Radeonfreak
2014-11-21, 09:26:30
Ne, den normalen Kühler in der ersten Version, und ich komme auf ~1450 MHz

Jupp. Hier auch.

Schrotti
2014-11-21, 10:54:44
Meine zwei haben nur 64 und 67%



Ich bin bei 62,8 und 70,7 bei meinen beiden.

Dr.Doom
2014-11-21, 11:23:01
Meine EVGA 980 Referenz hat 59,x.
Komm' ich jetz' in Fernseh'n?

Thunder99
2014-11-21, 11:30:42
Bekommst einen Keks :)

Rechtlich gesehen müssen die gar nichts. Außerdem halten ja alle Karten ihren normalen Boost außerhalb der synthetischen realitätsfernen Anwendungen

hq-hq
2014-11-21, 11:39:09
Meine EVGA 980 Referenz hat 59,x.
Komm' ich jetz' in Fernseh'n?

Wenn der Kameramann dreimal klingelt!

http://abload.de/img/horrormonitorzxu8x.png

Dr.Doom
2014-11-21, 11:42:23
Wenn der Kameramann dreimal klingelt!

http://abload.de/img/horrormonitorzxu8x.pngOk, dann kauf' ich mir sofort 10 neue 980er und schicke die neun mit der niedrigstens AQ wieder zurück. :freak:

aths
2014-11-21, 13:20:11
Meine zwei haben nur 64 und 67%

Zumindest der DisplayPort ist im aktuellen Treiber echt buggy. Oft Fehldarstellungen und harte Systemcrashes (auch ohne OC), wenn ich mit Windows-P die Zusatz-Monitore abschalte (speziell, wenn es vorher Fehldarstellungen gibt).
Windows-P habe ich getestet. Wenn die Bildschirme richtig erkannt sind, scheint es zu gehen. Ansonsten werden die Bildschirme schwarz und ich muss daas System mit einem Hard-Reset neu starten.

Manchmal startet Windows bei mir korrekt, beide Bildschirme sind aktiv, nix flackert. Oft muss ich erst eine Weile rumspielen oder sogar ganz neu booten, weil sich die vertauschten Bildspalten nicht manuell fixen lassen.

hq-hq
2014-11-21, 14:08:08
Ok, dann kauf' ich mir sofort 10 neue 980er und schicke die neun mit der niedrigstens AQ wieder zurück. :freak:

Wir sollten uns verschwören, nächstes mal kaufen wir zusammen 20 Grafikkarten und suchen uns die besten zwei drei oder vier aus, den Rest lassen wir zum Händler zurückgehen.
Dr.Doom, die Welt gehört uns ! :biggrin:

@aths

ich hatte nur mal versucht die Ausgänge der zweiten Grafikkarte zu nutzen, nach einem Neustart hat das zwar funktioniert aber wenn ich SLI aktiviert habe gab es immer einen Bluescreen,,, irgendwas war beim älteren 344.48 total faul... beim neuen hab ichs noch nicht probiert.

[dzp]Viper
2014-11-21, 16:13:10
ASIC Quality von 77,9% :ugly:

Aber wie "misst" der das überhaupt?

/edit: Ah der Wert sagt eigentlich nicht wirklich viel aus.. nur wieviele Leckströme die GPU wohl hat.

differenzdiskriminator
2014-11-21, 16:31:00
Viper;10430784']Aber wie "misst" der das überhaupt?
Wird "berechnet", ist aber Unfug.

Ich hatte eine "schlechtere" ASIC-Qualität bei meiner Notebook-Fermi, als bei meinem Modell im Desktop. Dabei kommen die besseren Chips natürlich in den Notebook, damit die nicht noch mehr Leistung aufnehmen.

TobiWahnKenobi
2014-11-21, 16:44:35
Wird "berechnet", ist aber Unfug.

Ich hatte eine "schlechtere" ASIC-Qualität bei meiner Notebook-Fermi, als bei meinem Modell im Desktop. Dabei kommen die besseren Chips natürlich in den Notebook, damit die nicht noch mehr Leistung aufnehmen.

wird nicht berechnet. und gibt idr den maximalen boost der karten an. so zumindest bei titan. die fachfrösche im lux haben da seinerzeit mal eine tabelle aufgestellt. oder anders - bei titan bedeutet 75% asic = 1006MHz boost. werte unter 70% sehen per se nie das gigahertz. werte aus dem 80iger bereich boosten gar auf 1019MHz.

denke nicht, dass sich das bei maxwell geändert hat - bestenfalls die werte.


(..)

mfg
tobi

Dural
2014-11-21, 16:53:13
in GPU-Z wird es ja schön beschrieben: hohe ASIC mit stock Kühler (LuKü) hohen OC Takt bei weniger Spannung, niedrige ASIC mit guter Kühlung (LN2 usw.) hoher OC Takt und verträgt auch besser viel Spannung.


Und ich kann das zumindest halbwegs bestätigen. Es bedeutet aber noch lange nicht das jede GPU mit einer höheren ASIC auch wirklich besser läuft. Ein zu hoher ASIC kann gerade für Leute die eine gute Kühlung montieren möchten und auch richtig Spannung geben sogar schlechter sein.

dargo
2014-11-21, 18:01:57
Es bedeutet aber noch lange nicht das jede GPU mit einer höheren ASIC auch wirklich besser läuft. Ein zu hoher ASIC kann gerade für Leute die eine gute Kühlung montieren möchten und auch richtig Spannung geben sogar schlechter sein.
So ist es, ich frage mich echt wie lange sich dieses Märchen noch hält... hoher ASIC-Wert = guter Chip (im Sinne von max. möglicher Takt)?

TobiWahnKenobi
2014-11-21, 18:19:28
So ist es, ich frage mich echt wie lange sich dieses Märchen noch hält... hoher ASIC-Wert = guter Chip (im Sinne von max. möglicher Takt)?

ich schätze, das märchen hält sich so lange, wie schwachköpfe die zusammenhänge nicht erkennen und von ASIC auf ihre manuell zurechtgepfuschten taktregler schliessen.


(..)

mfg
tobi

Liszca
2014-11-21, 18:58:01
So ist es, ich frage mich echt wie lange sich dieses Märchen noch hält... hoher ASIC-Wert = guter Chip (im Sinne von max. möglicher Takt)?

Es ist ein guter chip im sinne von verbrauch und leckströmen.

dargo
2014-11-21, 19:28:57
Es ist ein guter chip im sinne von verbrauch und leckströmen.
Deswegen philosophieren hier so viele über lächerliche +/-~50Mhz. Besonders lächerlich insofern, dass der Grundtakt schon relativ weit über 1000Mhz liegt. Was deine Definition von gutem Chip anbelangt... wir sind hier nicht im Mobilebereich wo jedes Watt eine Rolle spielt.

VooDoo7mx
2014-11-21, 20:25:50
wird nicht berechnet. und gibt idr den maximalen boost der karten an. so zumindest bei titan. die fachfrösche im lux haben da seinerzeit mal eine tabelle aufgestellt. oder anders - bei titan bedeutet 75% asic = 1006MHz boost. werte unter 70% sehen per se nie das gigahertz. werte aus dem 80iger bereich boosten gar auf 1019MHz.

denke nicht, dass sich das bei maxwell geändert hat - bestenfalls die werte.


Da ist was dran. Meine GTX980 mit 87% ASIC boostet trotz Referenz Basteakt 1127 auf 1316MHz.

Raff
2014-11-21, 20:31:19
Eine hohe ASIC-Quality bedeutet mehr Boost als ein Low-Quality-ASIC bei gleicher oder sogar noch weniger Spannung, ja. Gemäß meiner Erfahrung lassen sich HQ-GPUs minimal besser übertakten.

MfG,
Raff

differenzdiskriminator
2014-11-21, 21:41:13
wird nicht berechnet.
Es gab zu Beginn dieser "Funktion" Werte von >100%. Also wurde da irgendwas berechnet.

und gibt idr den maximalen boost der karten an.
Dann ist es nicht die ASIC "quality" sondern die maximale Taktfrequenz des AISC.

"quality" kann aber je nach Anwendungszweck was ganz anderes sein, als die Taktfrequenz, zum Beispiel die Leakage. Laut GPUZ ist hohe quality = niedrige Leakage.

Komisch nur, dass meine Notebook GPU eine niedrigere quality haben soll, als die Desktopversion - dabei hat sie eindeutig weniger Leakage.

IMHO ist die Funktion schlicht Gerate. Wer sowas programmieren kann, der sollte sich schleunigst bei NVIDIA, AMD, Intel oder sonst einem ASIC-Entwickler melden. Da winkt mehr als ein 6-stelliges Monatsgehalt...

-/\-CruNcher-/\-
2014-11-21, 21:55:56
Deswegen philosophieren hier so viele über lächerliche +/-~50Mhz. Besonders lächerlich insofern, dass der Grundtakt schon relativ weit über 1000Mhz liegt. Was deine Definition von gutem Chip anbelangt... wir sind hier nicht im Mobilebereich wo jedes Watt eine Rolle spielt.

Doch weil du diese Ergebnise direkt auf Mobile übertragen kannst und so auch genau siehst wo z.b AMD Mobile steht und Nvidia ;)

Mit Maxwell zeigen sie das AMD noch einen weg vor sich hat Mobile Nvidia einzuholen ;)

Thunder99
2014-11-21, 22:27:19
Wenn bei mobile ein niedriger Wert ist bedeutet es halt das dieser niedriger Taktet bei gleichem Power Budget. Ergo normal da diese ja sowirso nie max Takt des Desktop erreichen.

Es zu berechnen stelle ich mir jetzt nicht so schwer vor. Nur juckt es Nvidia nicht da die Chips gut genug sind

PHuV
2014-11-21, 23:03:46
Windows-P habe ich getestet. Wenn die Bildschirme richtig erkannt sind, scheint es zu gehen. Ansonsten werden die Bildschirme schwarz und ich muss daas System mit einem Hard-Reset neu starten.

Manchmal startet Windows bei mir korrekt, beide Bildschirme sind aktiv, nix flackert. Oft muss ich erst eine Weile rumspielen oder sogar ganz neu booten, weil sich die vertauschten Bildspalten nicht manuell fixen lassen.
Ich kann das Gezicke aktuell bestätigen, ich hab Probleme, 2 4k Monitore (Acer XB280HK und LG 31MU97-B) gleichzeitig zum Laufen zu bekommen, und ich verstehe es nicht. :confused: Ich bin jetzt nur am Rumstöpseln, welcher Anschluß in Kombination mit welchem von den dreien DPsfunktioniert. :mad:

Blaire
2014-11-21, 23:21:31
Gegen die Probleme mit Displayport und GTX 9x0 Maxwell-Cards ist vorhin ein neuer NVIDIA Beta-Hotfix Treiber erschienen, könnt ihr ja mal testen. :)
http://nvidia.custhelp.com/app/answers/detail/a_id/3607
oder
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=558820

Raff
2014-11-21, 23:47:13
Gegen die Probleme mit Displayport und GTX 9x0 Maxwell-Cards ist vorhin ein neuer NVIDIA Beta-Hotfix Treiber erschienen, könnt ihr ja mal testen. :)
http://nvidia.custhelp.com/app/answers/detail/a_id/3607
oder
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=558820

"GeForce GTX 980 displays texture shimmering when Texture Filtering Quality set to High Quality."

Gibt's dazu mehr Info? Ich hatte das auch schon beobachtet und wurde latent paranoid, aber richtig reproduzierbar war/ist das nicht.

MfG,
Raff

aufkrawall
2014-11-22, 00:03:23
Es war zu 100% reproduzierbar und fiel stellenweise arg störend auf. :redface:

Raff
2014-11-22, 00:05:43
Ich hab's nur in Grid Autosport und WoW bei bestimmten Oberflächen gesehen und fragte mich, was da faul ist; Zeit zum Erforschen war leider keine da. Komisch, keine Sau hat sich darüber echauffiert. Wär's eine AMD-GPU, hätt's wieder einen Skandal gegeben :tongue:

MfG,
Raff

aufkrawall
2014-11-22, 00:07:14
Das mit Tonga verlief doch jetzt auch im Sand, oder nicht?
Hoffentlich animiert dass jetzt mal PCGH & CB (oder meinetwegen HT4U), mal wieder genauer hinzusehen und auch die Stärke zu haben, sich eventuell unbeliebt bei den IHVs zu machen.
Lobhudel-Journalismus braucht kein Mensch. :frown:

Raff
2014-11-22, 00:09:22
Du meinst das generelle AF-Problem seit einem bestimmten Catalyst. Zeit bzw. dessen Mangel ist das Stichwort. Jetzt, wo der ganze grobe Kram durch ist, kann man mal wieder Feinheiten beleuchten. :)

MfG,
Raff

Blaire
2014-11-22, 00:14:00
"GeForce GTX 980 displays texture shimmering when Texture Filtering Quality set to High Quality."

Gibt's dazu mehr Info? Ich hatte das auch schon beobachtet und wurde latent paranoid, aber richtig reproduzierbar war/ist das nicht.


Es war schon sehr deutlich je nach Game und Content, hier mal eine Szene aus Crysis Warhead (DX10) welche ihr auf PCGH auch oft für Bildvergleiche verwendet, die Straßentextur ist doch ziemlich eindeutig im Vordergrund, das war auch in reichlich weiteren Games zu sehen. Im Filtertester ebenso. Wie auch immer, nun entspricht der HQ-Modus wieder dem bewährten der älteren Fermi-GeForces. :)

links (ohne) und rechts mit HQ-Fix
http://abload.de/thumb/crysis_377.75wdul9.png (http://abload.de/image.php?img=crysis_377.75wdul9.png)http://abload.de/thumb/crysis_hq_fixpouef.png (http://abload.de/image.php?img=crysis_hq_fixpouef.png)
TexturfilterTester, links (ohne) und rechts mit HQ-Fix
http://abload.de/thumb/maxwellfhj4m.png (http://abload.de/image.php?img=maxwellfhj4m.png)http://abload.de/thumb/filtertester_fixx3j33.png (http://abload.de/image.php?img=filtertester_fixx3j33.png)

Raff
2014-11-22, 00:15:20
Die Frage ist: Was war da los?

MfG,
Raff

Mr. Lolman
2014-11-22, 08:44:58
Naja, jetzt ists ja gefixt, und keinen hats vorher wirklich gestört. Also alles bestens. :smile:

fondness
2014-11-22, 09:26:23
Komisch, keine Sau hat sich darüber echauffiert. Wär's eine AMD-GPU, hätt's wieder einen Skandal gegeben :tongue:

MfG,
Raff

Ist doch ein bisschen ironisch wenn soetwas ein Redakteur sagt. Und ja bei AMD werden solche Bugs natürlich gerne skandalisiert - auch von PCGH. Selbst das bei Tonga wurde zumindest mehrmals erwähnt, um einen faden Beigeschmack zu hinterlassen.

Eggcake
2014-11-22, 10:33:16
Nunja, der Unterschied ist hier auch primär, dass es ein Treiberbug zu sein scheint der relativ rasch gefixt wurde.

Raff
2014-11-22, 11:45:49
Ist doch ein bisschen ironisch wenn soetwas ein Redakteur sagt. Und ja bei AMD werden solche Bugs natürlich gerne skandalisiert - auch von PCGH. Selbst das bei Tonga wurde zumindest mehrmals erwähnt, um einen faden Beigeschmack zu hinterlassen.

Ironisch ist, dass irgendwie keiner etwas sieht. Bei Tonga fiel's ja auch spontan auf und ließ sich schnell eingrenzen, gesehen hat's außer PCGH aber niemand. Wie gesagt, bei Mawell fehlte in den vergangenen Wochen einfach die Zeit. :(

Nunja, der Unterschied ist hier auch primär, dass es ein Treiberbug zu sein scheint der relativ rasch gefixt wurde.

Bei AMD ist's auch ein Treiberbug. Oder meinst du 'ne andere Geschichte?

MfG,
Raff

aths
2014-11-22, 13:50:11
Gegen die Probleme mit Displayport und GTX 9x0 Maxwell-Cards ist vorhin ein neuer NVIDIA Beta-Hotfix Treiber erschienen, könnt ihr ja mal testen. :)
http://nvidia.custhelp.com/app/answers/detail/a_id/3607
oder
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=558820
Habe jetzt nur ein paar Reboots nach der Treiber-Installation gemacht. In dieser Zeit kein Fehler am Monitor der mit DP angeschlossen ist, es kam aber vor dass der DVI-Monitor beim Start nicht erkannt wurde. Diesen Fehler gab es vorher auch schon. Der DVI-Monitor lässt sich dabei nicht mit der Windows-Einstellung aktivieren, man muss über das Nvidia-Controlpanel gehen.

aths
2014-11-22, 13:56:14
Raff,

fändest du auch, dass wir wie beim Fullscreen-SSAA eine inoffizielle Möglichkeit brauchen, MFAA auch für nicht unterstützte Spiele sowie ohne MSAA zu aktivieren?

aufkrawall
2014-11-22, 14:55:41
Ich merke jetzt nicht, wo GM204 nennenswert langsamer bei HQ-Filterung sein soll als bei Quality im Vergleich zu GK110.

Risen 3 (D3D9, 16:1AF):
Quality: 84,5fps
http://abload.de/thumb/risen3_2014_11_22_14_q6zsy.png (http://abload.de/image.php?img=risen3_2014_11_22_14_q6zsy.png)

High Quality: 82,4fps
http://abload.de/thumb/risen3_2014_11_22_14_ttz7s.png (http://abload.de/image.php?img=risen3_2014_11_22_14_ttz7s.png)

~2,5% Verlust

Garden Warfare (D3D11.1, 16:1AF forciert per Treiber):
Quality: 71,5fps
http://abload.de/thumb/pvz.main_win64_retailecla8.png (http://abload.de/image.php?img=pvz.main_win64_retailecla8.png)

High Quality: 69,5fps
http://abload.de/thumb/pvz.main_win64_retailzlxll.png (http://abload.de/image.php?img=pvz.main_win64_retailzlxll.png)

~2,8% Verlust

-/\-CruNcher-/\-
2014-11-22, 17:57:04
Noch kein sooo großer index aber schon nice :)

http://www.tomshardware.de/charts/vga-charts-2014/vergleichen,3615.html?prod%5B7038%5D=on&prod%5B7006%5D=on&prod%5B7114%5D=on&prod%5B7039%5D=on&prod%5B6781%5D=on

Schaffe89
2014-11-22, 18:30:52
Nice, die 290x genausoflott wie die GTX970.
Ich hab mir jetzt nen 4K Monitor geholt und bin mit GTX 970 und 8GB R9 290x ausgerüstet, ich freu mich auf die Benchmarks.

-/\-CruNcher-/\-
2014-11-22, 18:45:38
Nice, die 290x genausoflott wie die GTX970.
Ich hab mir jetzt nen 4K Monitor geholt und bin mit GTX 970 und 8GB R9 290x ausgerüstet, ich freu mich auf die Benchmarks.

Naja kannst du gerne so sehen aber du solltest die anderen Daten nicht ausser acht lassen das Gesamtbild sieht schon etwas anders aus wen man alle verfügbaren Daten Konsolidiert ;)

aufkrawall
2014-11-22, 21:20:24
Nochmal zur Texturfilterung:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10431995&postcount=17

Raff
2014-11-22, 22:43:33
Nice, die 290x genausoflott wie die GTX970.

Inwiefern ist das neu? :confused:

MfG,
Raff

Schaffe89
2014-11-23, 13:48:33
Nicht neu, ich hab die r9 290x nur bisschen günstiger bekommen als manch anderes, deswegen.^^

Ach... ih hab da die GTX 980 gemeint.

Naja kannst du gerne so sehen aber du solltest die anderen Daten nicht ausser acht lassen das Gesamtbild sieht schon etwas anders aus wen man alle verfügbaren Daten Konsolidiert

Du meinst, dass eine r9 290x PS+ 8GB prozentuel besser zu Ocen geht wie die Gainward GTX 970, bei 100 Watt mehr Verbrauch?^^

BlacKi
2014-11-23, 17:31:09
Noch kein sooo großer index aber schon nice :)

http://www.tomshardware.de/charts/vga-charts-2014/vergleichen,3615.html?prod%5B7038%5D=on&prod%5B7006%5D=on&prod%5B7114%5D=on&prod%5B7039%5D=on&prod%5B6781%5D=on

wow, 103watt mehr verbrauch, das entspricht 73% mehr hitze...

RoughNeck
2014-11-23, 17:51:13
Welcher Praktikant wohl bei Zotac da die Werbung macht?

Drogenbaron
2014-11-23, 18:19:52
wow, 103watt mehr verbrauch, das entspricht 73% mehr hitze...
Sieh an, die AMD-Karte ist sogar im Verbrauch 73% besser als die NVIDIA-Karte ;D

-/\-CruNcher-/\-
2014-11-23, 18:26:29
So gesehen schlägt sich Tonga nicht schlecht :)

Marodeur
2014-11-23, 18:53:04
Muss ein altes Posting von mir auch korrigieren. Dachte bisher meine GTX 970 macht keine Geräusche. Wegen SSD Einbau hatte ich die letzten Tage aber mal mein Gehäuse offen und als ich World of Tanks startete "brutzelte" es richtig laut aus richtung PC... Herrje... Gleich mal alles wieder dicht gemacht, dann hört mans jedenfalls vorerst nicht mehr so lang ich noch die relativ laute Eheim 1048 als WaKü Pumpe im System hab.

BlacKi
2014-11-23, 22:16:37
Muss ein altes Posting von mir auch korrigieren. Dachte bisher meine GTX 970 macht keine Geräusche. Wegen SSD Einbau hatte ich die letzten Tage aber mal mein Gehäuse offen und als ich World of Tanks startete "brutzelte" es richtig laut aus richtung PC... Herrje... Gleich mal alles wieder dicht gemacht, dann hört mans jedenfalls vorerst nicht mehr so lang ich noch die relativ laute Eheim 1048 als WaKü Pumpe im System hab.
ich hab ne laing auf 7v die hört man nicht und wenn der radiator aureichend dimensioniert ist macht das keinen untschied. ich frag mich sowieso wiso manche 2 laing pumpen im system haben und dann noch mit 12v laufen... das bringt nichtmal 1°

wie gesagt, durch ein netzteiltausch konnte ich das zirpen auf 0 reduzieren.

Hübie
2014-11-23, 23:24:47
Welcher Praktikant wohl bei Zotac da die Werbung macht?

X-D Das ist wieder typisch Zotac. Musst mal deren Pressemitteilungen lesen. 'Lachst dich schlapp :biggrin:

Simon
2014-11-24, 06:00:41
Hab seit heute eine GTX 970 im Reference Layout von hier (http://www.newegg.com/Product/Product.aspx?Item=N82E16814132038&nm_mc=KNC-GoogleAdwords-PC&cm_mmc=KNC-GoogleAdwords-PC-_-pla-_-Desktop+Graphics+Cards-_-N82E16814132038&gclid=CjwKEAjwrNeiBRD3goG_1s-0_XMSJADuGQQcSTCoijVlLzedUQk5UysZCxPEu10lRJAiHvvDZMhLSBoCsb3w_wcB) und bin bisher absolut begeistert =)
Die Karte haelt ihren Boost von ~1250MHz in BF4 und bleibt dabei genau so leise wie die MSI GTX 770 Lightning zuvor :freak:

Marodeur
2014-11-24, 11:24:30
wie gesagt, durch ein netzteiltausch konnte ich das zirpen auf 0 reduzieren.

Will aber äußerst ungern rein auf Verdacht mein gutes bQ Dark Power Pro tauschen. Da stopf ich lieber alles zu... :/

PHuV
2014-11-24, 13:45:39
Genau dieses mit dem Zirpen hatte ich bei meinem beQuiet Dark Power 1200 W P8. Das habe ich dann einfach mal beQuiet gemeldet, und die haben es anstandslos durch ein P10 ersetzt, wo das Zirpen dann weg war.

Marodeur
2014-11-24, 14:28:58
Hat das NT gezirpt oder die GraKa? Ist jetzt nicht so ganz klar.

Mein 550er ist noch ein P7, glaub kaum das ich da einfach so ein P10 bekäme. ;)

PHuV
2014-11-24, 14:45:01
Wenn das Netzteil ausgetauscht wurde, dann wirds wohl das selbige gewesen sein, oder? ;)

Ich hab damals das Zirpen noch aufgenommen, und es beQuiet mit Frequenzdiagramm zugeschickt. :cool:

aths
2014-11-24, 16:33:24
Hab seit heute eine GTX 970 im Reference Layout von hier (http://www.newegg.com/Product/Product.aspx?Item=N82E16814132038&nm_mc=KNC-GoogleAdwords-PC&cm_mmc=KNC-GoogleAdwords-PC-_-pla-_-Desktop+Graphics+Cards-_-N82E16814132038&gclid=CjwKEAjwrNeiBRD3goG_1s-0_XMSJADuGQQcSTCoijVlLzedUQk5UysZCxPEu10lRJAiHvvDZMhLSBoCsb3w_wcB) und bin bisher absolut begeistert =) Newegg liefert nach Deutschland?

Hat die 970 mit Refernz-Kühler auch die Backplate?

Simon
2014-11-24, 19:14:15
Newegg liefert nach Deutschland?
Ich wohn in California ;)

Hat die 970 mit Refernz-Kühler auch die Backplate?
Hat eine Backplate wie hier:
http://www.extremetech.com/wp-content/uploads/2014/09/NV-Backplate.jpg

aufkrawall
2014-11-24, 21:12:56
Ich habe mal in Risen 3 meine 970 OC (1470/3900 220W PT) gegen den üblichen Takt des "Referenzdesigns" laut CB (1180/3500 150W PT) verglichen:
~42fps vs ~33fps = ~27% Unterschied.
Dürfte immer vor einer stock 980 sein.

PHuV
2014-11-24, 22:51:08
Bgzl. der Problematik mit den DP-Anschlüssen: Ich habe auf anraten von Blaire den 344.11-Treiber installiert, und wild mit beiden Monitoren im 4k-Bereich rumgestöpselt, es geht mit diesem Treiber ganz klar besser. Beide Monitore reagieren sofort, auch im laufenden Betrieb. Alle Treiber darüber machen mit dem DP-Anschlüssen große Probleme, und ich muß mehrfach beide Monitore hin- und herstöpseln, bis sie richtig gehen.

Der Einfachheit halber habe ich beide Monitore in 3840x2160 und im Klon-Modus.

Peter Gräber
2014-11-25, 20:59:43
Monitor-Auffälligkeiten aktuell hier: unser Samsung 4K-Display wird sehr häufig mit Maxwell nicht final gestartet. Heißt: PC startet offenbar ganz normal. Nach dem Wechsel des Boot-Logo in den Windows-Desktop blieb der Bildschirm dann schwarz. Mit anderen Grakas so nicht nachzustellen. Booten an anderem Display ohne Probleme, danach ein Wechsel auf den 4K-Monitor ebenfalls ohne Probleme.

Die von Raff angesprochenen Tonga-Probleme hab ich nicht mitbekommen. Ging in der Tat komplett an mir vorbei. Ja, der liebe Stress.

EDIT: @Simon: Wie ich schon vermutet hatte - GTX 970 Referenz ist ein 980-Layout. Welcher Hersteller ist das, der die anbietet?

aufkrawall
2014-11-25, 21:14:03
Die von Raff angesprochenen Tonga-Probleme hab ich nicht mitbekommen. Ging in der Tat komplett an mir vorbei. Ja, der liebe Stress.

Liest du mich noch?
Wenn ja: War nicht nur auf Tonga bezogen, sondern auf einen neuen Treiber allgemein für GCN (zumindest auch Hawaii).

Unter >=D3D10 soll HQ weiter funktionieren, hat sich aber gegenüber Hawaii verändert. Ob zum Guten oder Schlechten, hat noch niemand bewiesen.
Dabei wäre es so einfach, eben den Filtertester anzuschmeißen. Mit ground2 fallen Veränderungen eigentlich sofort auf.

Ich fand es echt enttäuschend, dass ihr das bei Maxwell nur lapidar angegangen seid. In Watch Dogs waren einige Texturen so derbe kaputt, das muss selbst Konsolenspielern auffallen.

Btw. stimmte wohl schon mit Kepler oder gar Fermi was nicht ganz mit HQ auf NV, Q. tril. opt. aus war besser (und ist wohl der eigentliche HQ-Modus, den es ab G80 gab).
Warum hat das keiner gemerkt?

Simon
2014-11-26, 07:25:12
EDIT: @Simon: Wie ich schon vermutet hatte - GTX 970 Referenz ist ein 980-Layout. Welcher Hersteller ist das, der die anbietet?
Nvidia selber. Wird exklusiv ueber Best Buy in den USA verkauft. Die hatten dort auch von GTX 750 bis GTX 980 alles von Nvidia selber. Scheint so, als ist Best Buy exklusiver Retail Partner von nVidia.
Die Karte ist genau so leise wie die MSI GTX 770 Lightning, bin definitiv beeindruckt. In BF4 (1250MHz Boost) und Unigine Valley (1400 MHz Boost) haengt die Karte im Temperaturlimit. Hat 3 DP, 1 DVI und 1 HDMI.

Das ist der Karton - die kleine Schrift auf dem letzten Bild beachten:

Dural
2014-11-26, 12:19:28
habe mir gestern doch noch eine zweite 980er besorgt, mein Händler hatte gerade eine G1 an Lager und da hab ich zugeschlagen.

Gestern nur kurz getestet, ASIC irgend was um die 82%, Regler alle rauf und schnell 3D Mark gestartet und der der lief mit 1600/2000MHz ohne Bildfehler durch, krass :eek:

Raff
2014-11-26, 14:25:03
Und trotzdem wirst du für UHD-Volllast in "richtigen" Tests (Spiele!) rund 100 MHz abziehen müssen. ;)

MfG,
Raff

aufkrawall
2014-11-26, 14:26:45
Ich würd ja eine Wette abschließen, dass es bei Risen 3 artefaktet. :biggrin:

Dural
2014-11-26, 15:47:45
ich weis nicht, ihr ja auch nicht ;)

jede karte ist halt anders.

Raff
2014-11-26, 15:54:05
Es ist schlicht und ergreifend sehr unwahrscheinlich, dass sie in Risen 3, Crysis 3 & Co. die 1,6 GHz halten kann, ohne herumzuspacken. 1,55 GHz könnten klappen, aber nur mit viel Glück. Probier's einfach aus und poste dann – ehrlich. :biggrin:

MfG,
Raff

Thunder99
2014-11-26, 17:10:45
Ich sag nur spielt eine weile und es treten Grafikfehler auf wenn irgendwas überhitzt, bei mir war es Raster-Grafikfehler wie ein Schachbrett in SWOTOR. Daher sind meine 145x MHz (Boost max. 1496) nur bedingt stabil

Raff
2014-11-26, 18:06:22
Noch ohne das BIOS-Update, gell?

MfG,
Raff

Thunder99
2014-11-26, 20:28:46
Jo :D

mictasm
2014-11-26, 20:45:27
hat jemand eine glaskugel? werden die 970er im januar spürbar günstiger und durchgehend lieferbar sein?

akuji13
2014-11-27, 08:31:24
Nein. ;)

*Diese Angaben sind ohne Gewähr* :D

Dawn on Titan
2014-11-27, 08:35:56
Januar / Februar ja, weil neue Chips erscheinen werden.

Raff
2014-11-27, 08:46:15
Jo :D

Nun ja, eventuell kochen die Wandler >100 °C vor sich hin und die Mühle wäre nach dem Update mit ~1,5 GHz stabil, aber eben laut ... ;)

MfG,
Raff

akuji13
2014-11-27, 08:53:45
Januar / Februar ja, weil neue Chips erscheinen werden.

Die spielen doch preislich in einer ganz anderen Klasse.

Rogue
2014-11-27, 09:03:56
Ist es nicht denkbar das eine Consumer-Verson der GM200 in der 500€ Preisklasse kommt und die 980/970 entsprechend preislich nach unten rutscht?

Plage mich selbst grade mit der Frage: Jetzt ne 970 kaufen oder auf GM200 warten?

Raff
2014-11-27, 09:07:45
Vermutlich wird es sich Nvidia nach dem großen Titan-Erfolg nicht nehmen lassen, GM200 als Titan-Nachfolger um 999 Euro zu platzieren. Die GTX-9x0-Karten verkaufen sich zu den aktuellen Preispunkten bereits wie geschnitten Brot, insofern sind aus BWL-Sicht keine Änderungen nötig. GM200 wird ergo keine nennenswerten Auswirkungen auf den Rest des Portfolios haben. Doch natürlich ist das Spekulation.

[x] GTX 970 kaufen (die ist ja keineswegs schlecht)

MfG,
Raff

Dawn on Titan
2014-11-27, 09:08:20
Die 970 steht preislich imho ganz ok. Da geht es evtl. um 50 Euro runter, die 980 wird imho stärker fallen. Da erwarte ich Preise gegen 420-450 für die OC-Herstellerdesigns.

Rogue
2014-11-27, 09:17:13
Die Preisdifferenz zwischen 970 und 980 ist bezüglich der Leistungsdifferenz ein Witz oder?
Vernünftigerweise greift man da zur 970 denk ich.

Mein Favorit ist bisher die Gigabyte mit ihren 3 Lüftern.
Bisher hab ich ne Gainward Phantom, aber bei der 970 haben sie das Design auf 2x 80mm Lüfter reduziert.
Andere Modelle wie MSI und Asus hab ich wegen Verarbeitungsgerüchten (Lüfter schnell defekt, Steuerung verbuggt) , Spulenfiepen etc. mal aussortiert.

Palpatin
2014-11-27, 09:23:37
Die Preisdifferenz zwischen 970 und 980 ist bezüglich der Leistungsdifferenz ein Witz oder?
Vernünftigerweise greift man da zur 970 denk ich.
Richtig, gäbe es die 980 mit 8gb, würde ich auch bis zu 600 dafür hinlegen, aber 500€ für ne 4gb Karte nö.....

Rogue
2014-11-27, 09:43:08
Ich denke mal die Leistungsdifferenz zu meiner 580 ist groß genug das man jetzt ruhigen Gewissens mal updaten darf :D
Sind diese 40€ teureren OC Varianten ihr Geld wert?

Dawn on Titan
2014-11-27, 12:33:54
Ich würde ja sagen, weil die Kühler meist besser sind. Die Pallit Referenz-Version ist ein einziger Brummkörper.

Lowkey
2014-11-27, 13:07:55
Hat jemand zufällig eine 300-320 Euro 970 gekauft?

Gerade die Gigabyte 970 ITX lächelt mich an.

Plan B wäre eine 300 Euro Karte + Alpenföhn Peter 2 (liegt hier noch).

aths
2014-11-27, 14:50:42
Ist es nicht denkbar das eine Consumer-Verson der GM200 in der 500€ Preisklasse kommt und die 980/970 entsprechend preislich nach unten rutscht?

Plage mich selbst grade mit der Frage: Jetzt ne 970 kaufen oder auf GM200 warten?
Eine neue Graka sollte man imo dann kaufen, wenn man sie braucht.

Mit dem Erscheinen des großen Max dürften die Preise für 970 und 980 schon leicht runtergehen, aber die wesentliche Frage dürfte sein, was ATI aufzubieten hat. Sofern keine Notwendigkeit besteht, den dicken Max im 500-Euro-Bereich anzupreisen, könnte ich mir vorstellen, dass der Chip entweder deutlich teurer wird, oder einfach erst mal nicht erscheint, oder in einer Salvage-Variante erscheint welche die 970 / 980 nicht unter großen Druck setzen.

aths
2014-11-27, 15:02:52
Die Preisdifferenz zwischen 970 und 980 ist bezüglich der Leistungsdifferenz ein Witz oder?
Vernünftigerweise greift man da zur 970 denk ich.Die Preisdifferenz entsteht auch, weil die 970 auf einem kürzeren PCB und mit preiswerterem Lüfter betrieben werden kann.

Traditionell ist bei Nvidia die 70-er deutlich besser was das Preisleistungsverhältnis angeht.

Rogue
2014-11-27, 15:29:37
Naja ich hab das Gefühl seit FarCry4 "mehr" zu brauchen, aber ich will mich dann auch nicht ärgern wenn 1 Monat später ne GM200 Karte für unter 600€ rauskommt.

PHuV
2014-11-27, 15:51:45
Weißt Du was, was wir nicht wissen? Wo ist irgendwo ein GM200 angekündigt?

akuji13
2014-11-27, 15:54:29
Wir kennen doch alle NV. ;)

PHuV
2014-11-27, 15:57:56
Also wenn, dann müßten sie es jetzt machen, um das Weihnachstgeschäft noch mitzunehmen. Bei den GTX 980 und GTX 970 hat man doch schon vorher gewußt, daß was kommen wird. Vom GM200 hört man aktuell gar nichts. Daher schließe ich, daß dieses Jahr hier nichts mehr weiter kommen wird.

boxleitnerb
2014-11-27, 15:58:14
1600 €...jetzt stimmts :D
Wer erwartet GM200 unter 800 Euro? Eher 1000, wobei es vielleicht auch darauf ankommt, wie bald die 390X kommt und wie flott sie wird.

PHuV
2014-11-27, 16:11:53
Richtig. Wenn der GM200 wirklich knapp 40-50% mehr Leistung liefert, wird der Preis sich eher dort bewegen.

Sunrise
2014-11-27, 18:04:54
Naja ich hab das Gefühl seit FarCry4 "mehr" zu brauchen, aber ich will mich dann auch nicht ärgern wenn 1 Monat später ne GM200 Karte für unter 600€ rauskommt.
Du musst dich mal in die Lage von NV versetzen. Warum solltest du eine nagelneue High-End-Enthusiast-GPU, die auch im Workstation-Umfeld eingesetzt wird für 600 EUR raushauen? Doch nur dann, wenn du so starke Konkurrenz hast, dass du fürchtest Absatzprobleme zu bekommen. Davon sind wir aktuell aber weit weit entfernt.

Aktuell gibt es keine wirkliche Konkurrenz für GM204 und für einen Preis von 600 EUR für GM200 müsste AMD das aktuelle Spielfeld gehörig durcheinanderwürfeln. NV weiß mittlerweile genau, was sie verlangen können, die sind mit allen Wassern gewaschen. Die Käufer sind auch in Massen da. Passt also.

Du solltest dich eher darauf konzentrieren was du bereit bist zu bezahlen und dann das kaufen was aktuell verfügbar ist, wie aths auch schon geschrieben hat. Die 970 Palit JetStream scheint doch eine super Karte zu sein, was ich hier so rauslesen konnte. Kaufen und Spaß haben.

hq-hq
2014-11-27, 20:04:21
1600 €...jetzt stimmts :D
Wer erwartet GM200 unter 800 Euro? Eher 1000, wobei es vielleicht auch darauf ankommt, wie bald die 390X kommt und wie flott sie wird.

hehe, ja 1600€ werdens vielleicht net aber 600 :freak:
800€ - 990€ klingt gut.

aths
2014-11-27, 22:49:26
hehe, ja 1600€ werdens vielleicht net aber 600 :freak:
800€ - 990€ klingt gut.
Naja, "gut", für eine Grafikkarte ...

Thunder99
2014-11-27, 23:43:50
Nach der Titan und GTX700er Serie wissen wir das nvidia den GM200 für 1000€ raus bringen wird. Daher wer jetzt eine GTX970 für 300-350 kauft hat lange genug Spaß daran.

FarCry4 mit SMAA und 2,5k spielbar mit verdammt guter Grafik! :D

Hatstick
2014-11-28, 00:09:15
Ich habe leider keinen Thread speziell zu DSR gefunden, deswegen stelle ich die Frage mal hier...

Habe gestern den 344.80 installiert und jetzt mal bissl mit DSR 2,25x @ 3840x2160 + 15% DSR Smoothness rumprobiert. Klappt auch wunderbar.
Jetzt frage ich mich aber die ganze Zeit, macht dieses DSR Tools wie z.B. den Inspector nicht überflüssig oder habe ich da einen Denkfehler?

Dazu glättet DSR doch auch das komplette Bild (OGSSAA) im Gegensatz zu SGSSAA oder habe ich da was falsch verstanden?


Danke,

Hatstick

Mr.Magic
2014-11-28, 00:23:15
Abgesehen davon, dass DSR nicht immer funktioniert, kann man mit dem Inspector noch viele andere Dinge machen; u.a. Ambient Occlusion, Antialiasing & SLI compatibility bits, Frame Rate Limiter, MFAA...

SGSSAA glättet das ganze Bild, und zwar besser als OGSSAA. Für neuere DX9 Spiele benötigt man allerdings meistens compatibility bits, die teilweise Effekte töten, und oft das Spiel bremsen*. Bei DX10+ hat man dann komplett verloren.

*gegenüber DSR

Hatstick
2014-11-28, 00:24:09
Alles klar, vielen Dank für die Info!

Thunder99
2014-11-28, 12:58:20
@Raff:

Karte läuft aber wenn ich es einstelle nur mit einem typischen Boost von 1454MHz, die 1,5GHz liegen so gut wie nicht an oder wenn man sie nicht braucht (60pfs VSync/fps Limiter)

Wenn ich die Temp auf 82°C begrenze sogar nur mit knapp über 1,4GHz.

Hab dann doch lieber eine leise Karte und keine Laute :)

Rogue
2014-11-28, 13:25:29
http://www.caseking.de/shop/catalog/Black-Friday-Deals:_:1122.html

Was ist von der EVGA da zu halten?
299€ scheint gut

dildo4u
2014-11-28, 13:38:51
Ist doch schon weg.

Rogue
2014-11-28, 14:04:50
Mich irritieren die ganzen Reviews der 970er Custom-Kühler Karten.
Massiv widersprüchich das ganze.
Kaum hat man irgendwo eine interessante karte gefunden, findet man woanders auch schonwieder den Pferedefuß dazu.

So soll die MSI mit ihren 2 großen Lüftern zwar theoretisch gut sein, praktisch gibts da aber wohl jede Menge Lüfterdefekte.

Die Asus Strix wird "je nach Gehäuse" entweder als lauteste oder leiseste Karte gepriesen.

Die Palit Jetstream mal als "rundum gut" und mal als "unter last zu laut".

Dann scheint Spulenfiepen ein reines Glücksspiel zu sein.
Kaum ein Modell das als "sicher" davor gilt.

Das bremst die Kauffreude doch erheblich :/

aufkrawall
2014-11-28, 14:13:58
Wenn die MSI nicht kaputt ist oder an üblem Spulenfiepen leidet, ist sie wohl die beste Wahl.
Würde diese bestellen, gibt ja Rücktrittsrecht. Dass die VRMs kochend heiß werden, sollte egal sein. Meine läuft seit vier Wochen hervorragend, mit manueller Lüfterkurve auch unter OC äußerst leise.

dildo4u
2014-11-28, 14:20:03
Test der 970 mit 980 Kühler und verbesserten PCB

http://www.computerbase.de/2014-11/manli-geforce-gtx-970-im-test/3/

Mich irritieren die ganzen Reviews der 970er Custom-Kühler Karten.
Massiv widersprüchich das ganze.
Kaum hat man irgendwo eine interessante karte gefunden, findet man woanders auch schonwieder den Pferedefuß dazu.

So soll die MSI mit ihren 2 großen Lüftern zwar theoretisch gut sein, praktisch gibts da aber wohl jede Menge Lüfterdefekte.

Die Asus Strix wird "je nach Gehäuse" entweder als lauteste oder leiseste Karte gepriesen.

Die Palit Jetstream mal als "rundum gut" und mal als "unter last zu laut".

Dann scheint Spulenfiepen ein reines Glücksspiel zu sein.
Kaum ein Modell das als "sicher" davor gilt.

Das bremst die Kauffreude doch erheblich :/
Die Zotac Omega ist jetzt lieferbar für 350€.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10437838&

aufkrawall
2014-11-28, 14:28:34
Würd etwas für eine MSI oder Asus drauflegen, bei der Zotac spinnen die Taktraten rum.

Rogue
2014-11-28, 14:29:51
Für den Preis ein Rohrkrepierer. Ich würde auch keine Karte wollen wo das GPU-Temp-Limit erreicht wird.

Bin grade unentschlossen zwischen der Asus, der Gigabyte und der Palit.

Thunder99
2014-11-28, 14:31:52
Wenn es darum geht hilft nur eine Karte die unter 80°C zu jeder Zeit bleibt, auch bei OC um die max. Taktrate stabil zu erreichen. Da fallen die meisten OC/Custom Karten raus

Lowkey
2014-11-28, 14:32:37
Wenn es darum geht hilft nur eine Karte die unter 80°C zu jeder Zeit bleibt, auch bei OC um die max. Taktrate stabil zu erreichen. Da fallen die meisten OC/Custom Karten raus

Welche Modelle kommen dann überhaupt noch in Frage?

aufkrawall
2014-11-28, 14:36:05
Schaffen die Asus und MSI locker in nem entsprechenden Gehäuse.

dildo4u
2014-11-28, 14:37:22
Ich würd auf die letzten paar Mhz verzichten wenn sie nicht Pfeift,ob nun 1.35Ghz oder 1.4 ist Latte.Daher würd ich die Palit schon mal link's liegen lassen.

Rogue
2014-11-28, 14:39:16
Die Gigabyte packt das auch.

Thunder99
2014-11-28, 14:46:00
Nach allem was ich bis jetzt gelesen habe und selber gemerkt habe dürften das die Gigabyte G1, MSI und evt auch ASUS schaffen. Bei den Zotacs und EVGAs bin ich unsicher.

Wo auf jeden Fall der Kühler nicht langt die GPU unter 80°C zu halten sind die Galax EX OC (selbst auf 2600rpm langt es nicht in jeder Szene mit heavy GPU Last) und die Inno 3D Herlulez X2

dildo4u
2014-11-28, 14:47:26
Die könnte noch ein Geheimtipp sein leider ist nich viel dazu bekannt.

http://geizhals.de/msi-gtx-970-4gd5t-oc-v316-009r-v317-001r-a1168197.html?v=l

Rogue
2014-11-28, 15:08:45
Hauptunterschiede zur anderen MSI?

Wenn man in die Details geht kommen noch ein paar andere Dinge die wichtig sind.
So werden die meisten Karten kaum mit Zubehör ausgeliefert.
Ich habe z.B. kein Kabel für Mini Display Ports, da kämen für mich dann gleich wieder 12€ zur Karte hinzu.

Dann führen einige Karten einen Teil der Abwärme direkt durch Slotblech-Gitter hinaus, andere nicht.
Ist vielleicht für den ein oder anderen auch kein unwichtiges Detail.
Für die Wärmeentwicklung sicherlich gut wenns durchs Slotblech geht, akustisch betrachtet ists jedoch ein direkter Weg der Spulenfiepen nach draussen gibt. Wer ein Gehäuse mit vernünftiger akustischer Dämmung besitzt, ist da evtl. mit nem geschlossenen Slotblech im Vorteil.

Ist vielleicht ein wenig OT, aber welche Monitorverbindung ist zu bevorzugen? Dvi-I, Dvi-D, DP, HDMI ?

dildo4u
2014-11-28, 15:10:17
Der Kühler hat weniger Heatipes und scheint allgemein kleiner zu sein.

http://content.hwigroup.net/images/products/xl/253091/msi_geforce_gtx_970_gaming_4gb.jpg

http://content.hwigroup.net/images/products/xl/256395/msi_geforce_gtx_970_oc_4gb.jpg

cantstopme
2014-11-28, 15:18:12
Wenn es darum geht hilft nur eine Karte die unter 80°C zu jeder Zeit bleibt, auch bei OC um die max. Taktrate stabil zu erreichen. Da fallen die meisten OC/Custom Karten raus

das geht auch mit dem 980 referenzmodell@ 280watt tdp und 1475 mhz.

der preis dafür ist 80% lüfter, liquid ultra und eine gute gehäusebelüftung.
dafür bleibt sie unter 76°. oftmals gehts auch unter 70° bei ca 60% lüfter.
mit referenzbios und takt ist bei ziemlich leisen 50% schluß. dafür läuft man ins temp limit(78°).

der 70mm turbine scheint bei hohen drehzahlen enorm an durchsatz zuzulegen.

Lowkey
2014-11-28, 15:23:25
Der Kühler hat weniger Heatipes und scheint allgemein kleiner zu sein.

http://content.hwigroup.net/images/products/xl/253091/msi_geforce_gtx_970_gaming_4gb.jpg

http://content.hwigroup.net/images/products/xl/256395/msi_geforce_gtx_970_oc_4gb.jpg

2x 6-Pin PCIe statt 1x8 1x6
600g statt 800g

Die schwarze MSI hat vermutlich weniger Kühlung und ein kleineres TDP.

Rogue
2014-11-28, 15:37:37
So, genug lamentiert, Gigabyte G1 ist bestellt.
Anschlüsse und Kühlung sagen mir zu. Drückt mir die Daumen für fehlendes Spulenfiepen! :D

Genügts eigentlich bei aktuellem installiertem Nvidia Treiber die Karten einfach nur zu wechseln oder würdet ihr den Treiber grundsätzlich entfernen / neuinstallieren?

Lowkey
2014-11-28, 15:46:59
Der Treiber erkennt die Karte neu und installiert meistens den Treiber neu. Also startet Windows normal in eine kleinere Auflösung als gewohnt, erkennt und installiert die Karte neu und nach ein paar Sekunden wird das Bild auf die gewohnte Auflösung umspringen.

Thunder99
2014-11-28, 16:33:34
das geht auch mit dem 980 referenzmodell@ 280watt tdp und 1475 mhz.

der preis dafür ist 80% lüfter, liquid ultra und eine gute gehäusebelüftung.
dafür bleibt sie unter 76°. oftmals gehts auch unter 70° bei ca 60% lüfter.
mit referenzbios und takt ist bei ziemlich leisen 50% schluß. dafür läuft man ins temp limit(78°).

der 70mm turbine scheint bei hohen drehzahlen enorm an durchsatz zuzulegen.
GTX980 ungleich GTX970!

Wenn ich alle Gehäuselüfter auf 100% stellen würde hätte ich auch <80°C :rolleyes: DAS ist aber nicht Repräsentativ für mich da nicht alltagstauglich.

Die Galax ist daher mit dem 1. BIOS leiser, schneller und kühler als meine vorherige GTX680 Lightning. Und sie war lieferbar zu weniger Kosten als die MSI. Daher bin ich zufrieden :)

Eggcake
2014-11-28, 16:41:40
Mit Gehäuselüfter auf 800-900RPM geht bei mir die MSI 970 mit 1500MHz Coretakt kaum auf weit über 70°...dreht dabei mit 1400RPM, was eigentlich ziemlich leise ist.

dildo4u
2014-11-28, 17:09:23
So, genug lamentiert, Gigabyte G1 ist bestellt.
Anschlüsse und Kühlung sagen mir zu. Drückt mir die Daumen für fehlendes Spulenfiepen! :D


Hauptsache du hast genug Platz die Karte ist extrem lang.

Rogue
2014-11-28, 17:12:25
Hab ein Fractal Design Define Gehäuse und aktuell die GTX 580 Phantom von Gainward drin. Hab erhlich gesagt garnicht weiter geguckt ob das passt :/

dildo4u
2014-11-28, 17:15:27
Hab ein Fractal Design Define Gehäuse und aktuell die GTX 50 Phantom von Gainward drin. Hab erhlich gesagt garnicht weiter geguckt ob das passt :/
Musste halt nachmessen die Gigabyte ist ein Monster über 31cm.

Rogue
2014-11-28, 17:25:03
Holala, du hast recht. Glaub aber ich kann notfalls einen Laufwerkskäfig entfernen und dann sollte das wieder passen.
@Edit
Verdammt, ich hab ne alte Revision.
Schätze ich darf ein Stück aus den HDD-Käfigen aussägen :/

aufkrawall
2014-11-28, 17:38:02
Mit Gehäuselüfter auf 800-900RPM geht bei mir die MSI 970 mit 1500MHz Coretakt kaum auf weit über 70°...dreht dabei mit 1400RPM, was eigentlich ziemlich leise ist.
1400rpm sind mir mit offenem Aufbau (ohne Lüfter außer CPU) zu laut, schaffe die 70°C (220W) mit 1150rpm.

quantus
2014-11-28, 18:05:51
Das die Gigabyte G1 gekauft wird kann ich mir nur mit dem OC Potential erklären. Weil diese nervige Eigenschaft, dass der Lüfter beim PC Start aufdreht und erst in Windows ruhe gibt und bei Linux zum Dauerdröhner wird, dass hat Gigabyte ja leider beibehalten seit der Einführung dieses "Features" mit der GTX 670. Daher wurde es bei mir auch die MSI und nicht die Gigabyte, was ich schade finde, da ansonsten deren Karten klasse sind.


Mit Gehäuselüfter auf 800-900RPM geht bei mir die MSI 970 mit 1500MHz Coretakt kaum auf weit über 70°...dreht dabei mit 1400RPM, was eigentlich ziemlich leise ist.

Ich persönlich hätte mir aber auch mehr von der MSI erwartet was die Lautstärke betrifft. Aber das ist ja immer so eine subjektive Geschichte. Bis 1100 RPM ist die MSI top! Ab 1200 RPM höre ich die und bis 1300 RPM ist sie für mich gerade noch erträglich. Ich mags halt möglichst silent.

Deshalb habe ich mich auch vom max. OC verabschiedet und betreibe die Karte "nur" noch mit 1443 MHz undervoltet auf 1,1563V (vorher auf 1531 MHz bei 1,2125V, max. 71°/1468 RPM), Maxwell Bios Editor sei dank. Das ist für mich der beste Kompromiss. Die Lüfter drehen max. bis ~1300 RPM auf und die Temp geht max. auf 67°.

Wenn ich die Karte auf Standardboost 1253 MHz drossele, dann läuft sie mit 1.1000V mit ~800-900 RPM, was wirklich silent ist, aber dann halt auch weniger Leistung bietet, wobei der FPS verlust sich evtl. sogar in Grenzen halten würde. Max. 4 FPS bei ACU. Da hatte ich das getestet.

Was ich auch festgestellt habe. Je weniger VCore, desto weniger Spulenfiepen unter Last. Wobei die MSI relativ leise fiept ab 200 FPS plus und aus meinem gedämmten Fractal R4 nur bei genauer Fokussierung darauf herauszuhören ist, immer unter Last versteht sich. Und das zumeist auch nur in Benches wo keine Musik und weitere Geräusche das Fiepen unterdrücken. Ansonsten gilt Vsync on = null Fiepen.

Rogue
2014-11-29, 00:13:35
Die Karte macht einfach nen insgesamt soliden Eindruck.
Habe dafür heut erstmal ne Bresche in meinen Laufwerkskäfig gesägt...

cantstopme
2014-11-29, 08:19:56
Wenn ich alle Gehäuselüfter auf 100% stellen würde hätte ich auch <80°C :rolleyes: DAS ist aber nicht Repräsentativ für mich da nicht alltagstauglich.



mit dem kleinen entscheidenen unterschied, daß ich 60watt mehr wärme abführe, da dein tdp nur bis 225w geht ;)
von vollast sind die e.loops auch noch entfernt.... da gibts meistens max 1000 umdrehungen.

Eggcake
2014-11-29, 13:32:33
Also ich höre die MSI mit 1400rpm nur extrem schwach aus dem Gehäuse raus. Da sind die Gehäuselüfter (Enermax Silentdinger auf 900RPM unter Last) gefühlt lauter. Vielleicht bin ich aber auch geschädigt von der Evga 770 mit ihren 1200rpm...im idle :>
Da ich noch dazu mit Kopfhörern spiele fällt die Karte noch weniger auf. Ich teste das Ganze bei Gelegenheit noch, aber das Ding ist echt nur schwach hörbar aus dem geschlossenen Gehäuse. Und was lautes Ost sonst nicht wirklich da drin...

Matrix316
2014-11-29, 15:03:21
Aaaalso ich hab jetzt die EVGA GTX 970 Superclocked ACX 2.0 hier und viele werden sagen, es ist totaler Quatsch von einer 290X auf eine GTX 970 zu wechseln, aber die 290X ist viel zu laut. Zumindest die Gigabyte Windforce. Die EVGA ist im idle unhörbar, da die Lüfter sich nicht drehen :D und selbst unter Last ist sie kaum lauter als der Mugen 2 und das Netzteil. Die Windforce war so laut, dass selbst mit Kopfhörer man sie gehört hat. Wenn ich den Takt runtergesetzt habe, ging der Lüfter zwar zurück im Speed , aber das ist ja nicht Sinn der Sache. Eventuell wäre eine Wasserkühlung oder ein Arctic Cooler oder sowas auch eine Option gewesen aber ich hatte keine Lust zu basteln. Vom Speed her führt mal die 290X und mal die 970, aber für 2560x1440 @ Ultra (z.B. Far Cry 4 oder Dragon Age Inquisition oder Thief oder Watchdogs) reichen beide.

Lowkey
2014-11-29, 21:22:57
http://www.techpowerup.com/207609/asus-readies-geforce-gtx-970-directcu-mini.html

Mini ITX 970 nun auch von Asus.

BlacKi
2014-11-29, 23:03:22
unter wakü sind die karten noch viel leiser^^ gehäuse innentemperatur bleibt niedriger man benötigt weniger gehäuselüfter und man hat was zum angeben^^ der aufpreis ist zwar vorhanden aber ihr legt auch mehr geld an um eine besonders kühle karte zu bekommen.

Thunder99
2014-11-29, 23:54:07
mit dem kleinen entscheidenen unterschied, daß ich 60watt mehr wärme abführe, da dein tdp nur bis 225w geht ;)
von vollast sind die e.loops auch noch entfernt.... da gibts meistens max 1000 umdrehungen.
bis zu 250W ;)

Und ich führe nur gering weniger Abwärme ab als du (Grund TDP 145 zu 165). Meine hat aber 200W als 100% definiert

findaway
2014-11-30, 02:27:40
bis zu 250W ;)

Und ich führe nur gering weniger Abwärme ab als du (Grund TDP 145 zu 165). Meine hat aber 200W als 100% definiert

klar sry, ich war zu doof 25% auf 200w anzuwenden :whistle:

Raff
2014-11-30, 12:15:25
Würd etwas für eine MSI oder Asus drauflegen, bei der Zotac spinnen die Taktraten rum.

Bei welcher Zotac-Karte und was für Spinnereien sollen das sein?

MfG,
Raff

aufkrawall
2014-11-30, 12:37:36
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/3/

Knuddelbearli
2014-11-30, 14:27:19
kann ich bestätigen da scheint wohl irgend ein unterlimit im bios nicht korrekt gesetzt zu sein.

obwohl PT bei 3 Tools zwischen 40 und 60% liegt meldet OCCT bzw Kombuster ( die beide anzeigen können was limitiert ) Leistungsaufnahmelimit

in spielen sinds meist nur paar wenige MHz mit manchen Tools aber auch mal 500 MHz und das trotz 325W Powerlimit und 100% Lüfter wo nichts limitieren dürfte.

Läuft auf 1530Mhz ohne Spannungserhöhung

Rampage 2
2014-11-30, 15:58:37
Und trotzdem wirst du für UHD-Volllast in "richtigen" Tests (Spiele!) rund 100 MHz abziehen müssen. ;)

MfG,
Raff

Wie hoch ist denn nun die allgemeine Übertaktbarkeit der GTX 980? Damit meine ich die im Durchschnitt erreichten, stabilen Taktraten OHNE die Spannung/Temperatur MASSIV steigern zu müssen.

Sind 1.5GHz 24/7 der Regelfall?

R2

aufkrawall
2014-11-30, 16:17:41
Gerne wird Benchmark-stabil als allgemein stabil hingestellt.
Eventuell lassen sich die Custom Karten besser takten, auch, weil sie einfach kühler sind.
1,4 erreicht man wahrscheinlich äußerst häufig, 1,45 sind dann auch noch nicht so unwahrscheinlich.
1,5 sind ohne Spannungserhöhung vermutlich nicht so häufig drin.

Mehr als einen zusammenfassenden Eindruck aus Foren wird dir eh keiner geben können. Radakteure testen auch nicht bestimmte Taktraten stundenlang, sind da also wahrscheinlich nicht der beste Ansprechpartner.

Raff
2014-11-30, 17:08:49
Stundenlang nicht, aber zumindest mit den richtigen Anwendungen. ;) Ich kann aufkrawalls Zahlen bestätigen (Quelle: Testwerte von unzähligen Karten (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-12-2014-Magazin-Heft-PDF-Download-App-1140692/) – aber das beachtet ja kaum jemand). 1,4 GHz sind selbst mit Referenzkarten drin, 1,45 GHz noch oft, aber für stabile 1,5 GHz braucht's sowohl Glück als auch ein ordentliches Powertarget (die Kühlung kann mit entsprechender Lüfterdrehzahl auch das Referenzdesign leisten).

MfG,
Raff

Thunder99
2014-11-30, 20:53:24
Gibt es eigentlich Vorteile von den 64 ROP anstelle der 32 des GK104? Ich merke keinen Unterschied...

Rampage 2
2014-11-30, 21:50:16
aber für stabile 1,5 GHz braucht's sowohl Glück als auch ein ordentliches Powertarget (die Kühlung kann mit entsprechender Lüfterdrehzahl auch das Referenzdesign leisten).

MfG,
Raff

Muss man die Spannung massiv erhöhen, um 1.5GHz 24/7 zu ermöglichen? Und wieviel muss man das Power-Target mindestens für dieses Ziel erhöhen?

Andere wichtige Frage: Wie stark beeinflusst die ASIC-Qualität der Karte die Übertaktbarkeit und warum?

R2

hq-hq
2014-11-30, 22:44:39
Muss man die Spannung massiv erhöhen, um 1.5GHz 24/7 zu ermöglichen? Und wieviel muss man das Power-Target mindestens für dieses Ziel erhöhen?

Andere wichtige Frage: Wie stark beeinflusst die ASIC-Qualität der Karte die Übertaktbarkeit und warum?

R2
"massiv" nicht, 250Watt, weniger stark, weil äh höhere leckströme zwar verbrauch und temperatur erhöhen aber nichts über die stabilität bei hohen mhz zahlen aussagen

Knuddelbearli
2014-12-01, 02:27:03
Stundenlang nicht, aber zumindest mit den richtigen Anwendungen. ;) Ich kann aufkrawalls Zahlen bestätigen (Quelle: Testwerte von unzähligen Karten (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-12-2014-Magazin-Heft-PDF-Download-App-1140692/) – aber das beachtet ja kaum jemand). 1,4 GHz sind selbst mit Referenzkarten drin, 1,45 GHz noch oft, aber für stabile 1,5 GHz braucht's sowohl Glück als auch ein ordentliches Powertarget (die Kühlung kann mit entsprechender Lüfterdrehzahl auch das Referenzdesign leisten).

MfG,
Raff


Das wären was für Programme?Wenn ich dir so zuhöre scheine ich ja ( bis aufs teilweise nicht nachvollziehbare Drosselung der Taktraten in paar Spielen ) ja eine geniale karte zu haben mit 1530 / 4100
getestet wurde schon mit Anno, Risen und Witcher. Ego Shooter wie Bf4 besitze ich keine ^^

Dural
2014-12-01, 09:47:41
Naja, "gut", für eine Grafikkarte ...

Es soll auch Leute geben die zahlen 1000.- nur für eine CPU, die haben Heute nicht mal mehr einen Kühler dabei geschweige den Speicher usw.

aths
2014-12-01, 16:13:49
Muss man die Spannung massiv erhöhen, um 1.5GHz 24/7 zu ermöglichen? Und wieviel muss man das Power-Target mindestens für dieses Ziel erhöhen?

Andere wichtige Frage: Wie stark beeinflusst die ASIC-Qualität der Karte die Übertaktbarkeit und warum?

R2
Lasst euch doch nicht von dem Asic-Wert trollen. Chips haben eine unterschiedliche Güte, schon weil die Belichtung im Randbereich des Wafers nicht mehr so gut fokussiert ist. Wir können davon ausgehen dass alle Chips die nach der Herstellung selektiert werden, eigene kleine Testroutinen haben mit dessen Hilfe die Güte abgeschätzt werden kann. Es besteht aber bei dem was GPU-Z als Asic ausliest und bei dem, was der Chip mitmacht, kein 1:1-Zusammenhang. Man kann die Qualität eines Chips schlecht in einer einzigen Zahl ausdrücken und keiner weiß, wie diese Zahl genau bestimmt wird.

Ich spekuliere, dass dieser Wert eher schnell bestimmt wird, also ungenau ist, und anhand dieses Wertes eine Vorauswahl getroffen wird, bevor die Chips einem längeren Test unterzogen werden. Es kommt darauf an, ob eine GPU den Test für 980 oder 970 besteht oder nicht. Es kommt nicht auf eine einzelne Zwischengröße an.

Insbesondere, weil auf einer Graka die GPU nur ein Teil von vielen ist. Die Qualität der restlichen Komponenten hat ja auch einen Einfluss.

Dural
2014-12-01, 16:24:40
Wobei es beim GM204 sehr auffällig ist das die GPU mit hohem ASIC wert recht gut gehen. beim GK110 B war das so nicht der Fall, da liefen alle sehr ähnlich, der ASIC hatte viel weniger Einfluss. Es ist Wahrscheinlich auch entscheidend was im Chip zuerst Limitiert.

Habe übrigens mit meiner G1 (ASIC 82%) am Wochenende 2h FC4 gespielt @ 1580/2000MHz

Aber ja, es muss nicht immer stimmen...

Thunder99
2014-12-01, 17:06:50
Gibt es eigentlich Vorteile von den 64 ROP anstelle der 32 des GK104? Ich merke keinen Unterschied...
Weiß keiner was davon?

aths
2014-12-01, 18:51:30
Weiß keiner was davon?
In synthetischen Benchmarks dürfte es Vorteile geben. Die Chipfläche ist überwiegend von Rechenwerken, Cache und TMUs dominiert, dann 32 ROPs hinzuzufügen belastet die Chipfläche nur unwesentlich. Warum bei 32 ROPs bleiben wenn man 64 haben kann?

Thunder99
2014-12-01, 21:53:13
In synthetischen Benchmarks dürfte es Vorteile geben. Die Chipfläche ist überwiegend von Rechenwerken, Cache und TMUs dominiert, dann 32 ROPs hinzuzufügen belastet die Chipfläche nur unwesentlich. Warum bei 32 ROPs bleiben wenn man 64 haben kann?
Macht man nur wenn es einen Vorteil gibt. Nur wo? :confused:

aths
2014-12-01, 23:04:04
Macht man nur wenn es einen Vorteil gibt. Nur wo? :confused:
Pixelfüllrate, Antialiasing.

Thunder99
2014-12-02, 02:29:54
Nur komisch das GM204/Maxwell mehr Prozente bei AA verliert als GK104/Kepler :confused:
http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index50.php?dummy=&advancedFilter=false&prod[]=NVIDIA+GeForce+GTX+770+[1084+MHz]&prod[]=Inno3D+GeForce+GTX+970+[Maximum+Performance]&filter[0][]=1920&filter[2][]=1&filter[2][]=2&filter[2][]=2xSSAA&filter[2][]=4&filter[2][]=4xSSAA&filter[2][]=8&filter[2][]=Post+AA&filter[3][]=16&aa=all

Raff
2014-12-02, 08:52:34
Nicht komisch, die Speichertransferrate ist ggü. GK110 einfach geringer – Effizienz-Kniffe hin oder her. Neben dem bandbreitenabhängigen GK104 sieht GM204 aber verdammt gut aus.

Das wären was für Programme?Wenn ich dir so zuhöre scheine ich ja ( bis aufs teilweise nicht nachvollziehbare Drosselung der Taktraten in paar Spielen ) ja eine geniale karte zu haben mit 1530 / 4100
getestet wurde schon mit Anno, Risen und Witcher. Ego Shooter wie Bf4 besitze ich keine ^^

Wobei es beim GM204 sehr auffällig ist das die GPU mit hohem ASIC wert recht gut gehen. beim GK110 B war das so nicht der Fall, da liefen alle sehr ähnlich, der ASIC hatte viel weniger Einfluss. Es ist Wahrscheinlich auch entscheidend was im Chip zuerst Limitiert.

Habe übrigens mit meiner G1 (ASIC 82%) am Wochenende 2h FC4 gespielt @ 1580/2000MHz

Aber ja, es muss nicht immer stimmen...

1.500+/4.000+ MHz rockstable ist laut meiner Erfahrung definitiv überdurchschnittlich. Wobei die Bandbreite eigentlich nur unwesentlich auseinander geht – die schlechtesten Karten liegen im Bereich 1.450/3.800 MHz. Wie gesagt, wir reden hier von wirklich stabilen Settings, keinen 3DMark-/Unigine-Schnellschüssen. Das schreit eigentlich nach einem Poll. Mal sehen, was da geht. :D

MfG,
Raff

Knuddelbearli
2014-12-02, 10:32:26
also die Karte von palit die ich vorher hier hatte packte nichtmal 1350 ...

Raff
2014-12-02, 10:38:46
Poll: http://extreme.pcgameshardware.de/quickpolls/365709-gtx-980-970-nutzer-wie-gut-laesst-sich-euer-modell-uebertakten.html

Den kann gern jemand in diesem Forum (mit Quellen-/Querverweis) nachbauen, ich habe keinen Bock mehr auf das Gefrickel. :D

MfG,
Raff

Shaft
2014-12-02, 12:42:15
Ich wollte jetzt keinen extra Thread aufmachen, stelle einfach mal meine Frage hier rein.

Wie weit kann man den 6 auf 8 Pin PCIe Adapter trauen, bzw. sicher auch eine Frage des Netzteils?

Knuddelbearli
2014-12-02, 12:46:33
seit der 296X2 weiss man das die 8Pins weit merh abkönnen als man denkt. eher erwärmen sie sich durch das PCB der Karte ^^

zumindets bei den typischen Marken


@ Raff naja recht sinnfreie Umfrage ohne Feststellung was stabil ist. wundert mich jetzt sehr da du hier doch immer so darauf rumhackst ^^

Thunder99
2014-12-02, 12:50:52
@Raff: Meinte ja explizit die GTX680/770 aka GK104. Das GK110 mehr Bums hat als GK104 ist ja klar und evt besser mit den Ressourcen um geht als GM204 bei dem AA

Dural
2014-12-02, 13:33:36
Eine Umfrage mit ASIC und OC Takt wäre da viel interessanter, den so hätte man wenigsten einen Hinweis ob der ASIC wert wirklich was aussagt.

Raff
2014-12-02, 15:17:46
@ Raff naja recht sinnfreie Umfrage ohne Feststellung was stabil ist. wundert mich jetzt sehr da du hier doch immer so darauf rumhackst ^^

Es wird explizit gefragt, was stundenlang in jedem Spiel stabil ist. Genauer wird "Schwarmintelligenz" nicht. ;)

MfG,
Raff

aths
2014-12-02, 16:02:35
Nur komisch das GM204/Maxwell mehr Prozente bei AA verliert als GK104/Kepler :confused:
http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index50.php?dummy=&advancedFilter=false&prod[]=NVIDIA+GeForce+GTX+770+[1084+MHz]&prod[]=Inno3D+GeForce+GTX+970+[Maximum+Performance]&filter[0][]=1920&filter[2][]=1&filter[2][]=2&filter[2][]=2xSSAA&filter[2][]=4&filter[2][]=4xSSAA&filter[2][]=8&filter[2][]=Post+AA&filter[3][]=16&aa=all
Hab da jetzt nicht alle Werte verglichen, aber mit AA ist der 204-er in der Regel um einen größeren Prozentbetrag schneller als ohne AA.


@Raff: Meinte ja explizit die GTX680/770 aka GK104. Das GK110 mehr Bums hat als GK104 ist ja klar und evt besser mit den Ressourcen um geht als GM204 bei dem AA
Naja der 110-er hat mehr Ressourcen, bei ungefähr gleicher Rechenleistung immerhin rund 50% mehr rohe Speicherbandbreite. Besser umgehen mit der Bandbreite tut der 204-er. Auch mit aktiviem AA kann er den 110-er natzen.

dildo4u
2014-12-02, 16:09:14
Nur komisch das GM204/Maxwell mehr Prozente bei AA verliert als GK104/Kepler :confused:
http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index50.php?dummy=&advancedFilter=false&prod[]=NVIDIA+GeForce+GTX+770+[1084+MHz]&prod[]=Inno3D+GeForce+GTX+970+[Maximum+Performance]&filter[0][]=1920&filter[2][]=1&filter[2][]=2&filter[2][]=2xSSAA&filter[2][]=4&filter[2][]=4xSSAA&filter[2][]=8&filter[2][]=Post+AA&filter[3][]=16&aa=all
Scheint keine Regel zu sein Crysis 3 besser mit MSAA,bei FC3 besser mit MSAA,BF4 besser mit MSAA.Vermutlich würde fast alles besser laufen wenn NV sich ransetzt und noch mal optimiert.

aufkrawall
2014-12-02, 16:18:16
Wir sind bei Maxwell ja immer noch beim ersten Treiberbranch, Optimierungen auf breiterer Fläche sind nicht unwahrscheinlich.

dildo4u
2014-12-02, 16:31:14
Ich denke nicht das sich da viel bei den alten Schinken tut vermutlich wird man sich auf neuen Games konzentrieren.

VooDoo7mx
2014-12-02, 19:23:02
Gibt es eigentlich was neues zum Thema Undervolting beim GM204? Kann das jetzt irgendein Tool?

aufkrawall
2014-12-02, 21:02:34
Fast 8% mehr Performance in 4k ohne MSAA bei Alien: Isolation mit einer 970 OC durch VRAM-OC:
http://abload.de/thumb/ai_2014_12_02_20_58_0w0ck9.png (http://abload.de/image.php?img=ai_2014_12_02_20_58_0w0ck9.png) http://abload.de/thumb/ai_2014_12_02_20_57_1n5evp.png (http://abload.de/image.php?img=ai_2014_12_02_20_57_1n5evp.png)
Eine 980 mit 1,5Ghz dürfte durch Bandbreitenlimit unter ihren Möglichkeiten bleiben.

aths
2014-12-02, 22:25:50
Fast 8% mehr Performance in 4k ohne MSAA bei Alien: Isolation mit einer 970 OC durch VRAM-OC:
http://abload.de/thumb/ai_2014_12_02_20_58_0w0ck9.png (http://abload.de/image.php?img=ai_2014_12_02_20_58_0w0ck9.png) http://abload.de/thumb/ai_2014_12_02_20_57_1n5evp.png (http://abload.de/image.php?img=ai_2014_12_02_20_57_1n5evp.png)
Eine 980 mit 1,5Ghz dürfte durch Bandbreitenlimit unter ihren Möglichkeiten bleiben.
Ich behaupte jetzt mal, dass nur wenige 980-er einen 1500-MHz-Boost stabil schaffen. Auch die 4000 MHz Speichertakt in deinem Beispiel sind eher unrealistisch.

(Natürlich bleibt zu vermuten, dass der 204-er später mal mit etwas mehr GPU-Takt und vor allem erhöhtem Speichertakt neu verwurstet wird, wie GTX 680 zur 770.)

Radeonfreak
2014-12-02, 22:36:55
Also ich komme gerade mal auf 7470 MHZ Speichertakt. Alles darüber geht zwar in den meisten Spielen, bei Ryse z.B. gibt es mitunter dann grün aufblitzende Grafikfehler. Also nur weil eventuell 4000 MHZ in anderen Spielen läuft muss es nicht bei allen sein.

aufkrawall
2014-12-02, 22:38:18
Ich behaupte jetzt mal, dass nur wenige 980-er einen 1500-MHz-Boost stabil schaffen. Auch die 4000 MHz Speichertakt in deinem Beispiel sind eher unrealistisch.
Von 1500 zu 1450 ist der Sprung jetzt nicht riesig. Schätze, das schafft man mit Customs & Spannungserhöhung häufig.
4Ghz hab ich noch nicht auf rockstable getestet. 3,9 sind es aber. Soll relativ typisch mit Samsung-Speicher sein.

Was liest der Inspector bei euch als Speicher-Marke aus?

Radeonfreak
2014-12-02, 22:41:55
Samsung.

Thunder99
2014-12-03, 00:43:53
Samsung bei einer 970 Galax Ex OC. Hab aber nur +300 eingestellt was bis jetzt rock stabil ist

aths
2014-12-03, 02:11:36
Von 1500 zu 1450 ist der Sprung jetzt nicht riesig. Schätze, das schafft man mit Customs & Spannungserhöhung häufig.
4Ghz hab ich noch nicht auf rockstable getestet. 3,9 sind es aber. Soll relativ typisch mit Samsung-Speicher sein.

Was liest der Inspector bei euch als Speicher-Marke aus?
1450 läuft bei mir mit Ach und Krach noch okay, bei 1500 gibt es Grafikfehler. Ich würde meine Karte nur mit 1400 MHz auf Dauer laufen lassen, falls OC nötig sein sollte. Der Speicher (Samsung) macht gerade noch so 3900 mit, den würde ich aber nur auf 3800, maximal 3850 stellen.

Allerdings hatte ich mir die 980 gerade gekauft, um gar nicht erst übertakten zu müssen :biggrin:

Edgecrusher86
2014-12-03, 05:30:18
Gibt es eigentlich was neues zum Thema Undervolting beim GM204? Kann das jetzt irgendein Tool?

Kann man mit dem MBT machen -> BIOS Flash also. Meine 980er laufen mit minimalem GPU-OC mit 1,125V - tiefer hab ich zwar nicht getestet, aber das soll auch langen (ein gewisser Sicherheitspuffer ist ja nicht verkehrt).
Im P0 ohne GPU-Usage liegt der Baseclock an, ansonsten immer die 1304 MHz - das PT wurde auch noch erhöht - 225 - 237W - macht also im unteren Beispiel um die 180W +/-. ;)


Link zum MBT: http://www.hardwareluxx.de/community/f305/nvidia-geforce-gtx-980-gm204-sammelthread-faq-bei-fragen-erste-seite-1038553-34.html#post22816797


http://abload.de/img/unbenanntaci1e.png

AC Unity - 2880 + FXAA, Ultra - 980 Ref SLI
http://abload.de/img/unitysli-1304-1753mhzd4f2c.png

Zuvor mit demselben Power- und Temperature-Target sowie 1405/1853 MHz @ 1,175V haben die Karten um die 225W gezogen, was man ohne HS auch deutlich gehört hat. ;)

MfG
Edge

Dural
2014-12-03, 09:18:23
Meine erste 980 Referenz läuft mit 1,03Volt @ 1215 MHz ohne Boost.


Ich glaube übrigens nicht das der Speicher Takt abhängig vom Speicher ist, sondern mehr von der GPU selber. Deswegen gibt es wohl auch so grosse Takt unterschiede.

aufkrawall
2014-12-03, 11:38:49
1450 läuft bei mir mit Ach und Krach noch okay, bei 1500 gibt es Grafikfehler. Ich würde meine Karte nur mit 1400 MHz auf Dauer laufen lassen, falls OC nötig sein sollte. Der Speicher (Samsung) macht gerade noch so 3900 mit, den würde ich aber nur auf 3800, maximal 3850 stellen.

Allerdings hatte ich mir die 980 gerade gekauft, um gar nicht erst übertakten zu müssen :biggrin:
Sehe gerade, dass ich etwas missverständlich formuliert hatte. Ich meinte, die 1450 seien recht einfach zu erreichen.
Wieso will man nicht übertakten? Das ist wie ein Auto nie ausfahren. ;)

Dural, wie soll das zu erklären sein?

Ich geb mir nochmal Ryse mit dem NV-Patch. Mal sehen, was max bei VRAM hier geht.
Musste übrigens doch noch eine Booststufe runtertakten, bei Risen 3 gab es noch vereinzelt Geflacker in der Skybox (Bitch!).
Bin nun bei 1460Mhz nach Aufwärmen ohne Vcore-Erhöhung.

aths
2014-12-03, 13:58:21
Sehe gerade, dass ich etwas missverständlich formuliert hatte. Ich meinte, die 1450 seien recht einfach zu erreichen.
Wieso will man nicht übertakten? Das ist wie ein Auto nie ausfahren. ;)
Grakas übertakten war jahrelang mein beruflicher Alltag, das ist nicht mehr spannend.

Heute probiere ich lieber Ingame-Detail- und Antialiasing-Kombinationen aus.

PHuV
2014-12-03, 14:31:17
Mir ist die Mühe beim Übertakten für 1-2 FPS mehr auch nicht wert. Wenn ich sehe, daß ich mit meiner EVGA 980er SC auch nur auf 1450 trotz hohem ASIC-Wert komme, dann ist das doch eh eine homöopathischer Vorteil.

Das letzte Übertakten war ein i7-950 3,06 auf 4,2 GHz, wo es sich noch richtig gelohnt hat.

Raff
2014-12-03, 14:55:27
Wenn sich eine Übertaktung aus Leistungssicht nicht mehr lohnt, dann wird doch automatisch Undervolting spannend. Ich werde den geplanten i7-5820K gewiss mit höchstens 3 GHz betreiben und dabei die Spannung nach Möglichkeit Richtung 0,9 Volt senken. Aber mal ehrlich: CPU ist nicht GPU - letztere ist eigentlich immer zu langsam, wenn man nicht gerade an seinem HD-ready-TV spielt. ;)

MfG,
Raff

Blase
2014-12-03, 14:56:59
Ich habe jetzt aufgehört mich "verrückt" zu machen bezüglich dem letzten MHz, der Temperatur und der Lautstärke und vor allem Verfügbarkeiten - ich habe eigentlich noch nie nach speziellen Herstellern geschaut, wenn es um Grafikkarten geht. Und auch dieses Mal habe ich davon abgesehen.

Ich habe mir die "billigste" GTX 970 gekauft, die ich finden konnte (bei Mindfactory). Ich habe mir für 299.80 (inkl. Versand) die GALAX GTX 970 Black Edition gekauft. Die MSI Gaming 4G oder die Asus Strix - die sonst empfohlen werden - kosten beide inkl. Versand über 50 Euro mehr (und sind immer noch nicht verfügbar). Ich habe mich gefragt, sind diese 50 Euro (respektive 17 Prozent) Preisaufschlag gerechtfertigt? Ich bin da nicht sicher...

... Tatsache ist, dass ich erst seit gestern die Karte habe und auch entsprechend nicht wirklich zum Testen gekommen bin. Einige Spiele liefen bereits, aber für einen wirklichen Eindruck hat das noch nicht gereicht. Das werde ich heute jedenfalls nachholen.

Für alle diejenigen, die wie ich ebenfalls warten und/oder zweifeln, ob es eine "günstigere" GTX970 nicht auch tut - ich halte euch auf dem Laufenden ;-)

MfG Blase

ps. ich komme ursprünglich aus dem AMD Lager - was sind geeignete Tools, um die Grafikkarte zu überwachen und ggfs. auch an den Taktschrauben etc. zu drehen?

dargo
2014-12-03, 15:01:17
ps. ich komme ursprünglich aus dem AMD Lager - was sind geeignete Tools, um die Grafikkarte zu überwachen und ggfs. auch an den Taktschrauben etc. zu drehen?
MSI Afterburner 4.00.

Lowkey
2014-12-03, 15:04:22
@Blase

Was für ein Asic Level hat die Karte?

GPZ-Z und Nvidia Inspector sind quasi musthave.

Blase
2014-12-03, 15:18:55
@dargo - danke, werde ich mir besorgen

@Lowkey - auch Dir danke, schaue ich mir auch an. Mit schneller Google Hilfe habe ich jetzt zwar noch herausfinden können, dass ich diesen "Asic Level" über GPU-Z auslesen kann, aber wofür der gut ist, bzw. was der aussagt... kein Plan :wink: Hilf mir mal....

MfG Blase

akuji13
2014-12-03, 16:00:34
Mir ist die Mühe beim Übertakten für 1-2 FPS mehr auch nicht wert.

Ich mache mir da keine Mühe mehr.

Ich orientiere mich an anderen Ergebnissen im Mittelfeld und setze die Takte/Multis hoch.
Dann spiele ich.

Ist es stabil ohne/Grafikfehler gut.
Schmiert es ab wird gesenkt und weitergespielt bis es nicht mehr abschmiert.

Synthetische Programme lasse ich generell nicht mehr laufen.

BlacKi
2014-12-04, 00:13:10
Wieso will man nicht übertakten? Das ist wie ein Auto nie ausfahren. ;)


möchte ich mal sehen wie du von hamburg nach münchen immer die drehzahlnadel oben hältst.

auto computervergleiche sind immer zum scheitern verurteil, aber ich bringe lieber die lüfterdrehzahl nach unten und dreh die details zurück als das letzte bisschen ohne vernunft aus der karte rauszuholen. gerade gm204 bestraft jedes mhz mit stromverbrauch im quadrat (kommt einem so zumindest vor).

statt sich über eine schön leises kühles kleines schnelles kärtchen zu freuen und es gut sein zu lassen, dafür hab ich die 300€ hingelegt, nicht um eine 970 von 1300mhz bei 160w auf 1500mhz 250w zu fahren. um ganze 5-10%mehr fps zu haben bei einem 60hz monitor :freak:

aber hey jedem das seine...
Ps: speicher übertakten ist ne tolle sache, jedes mhz lohnt beim speicher.

aufkrawall
2014-12-04, 00:46:57
Wo hast du das mit dem Stromverbrauch her? Halte ich für Unsinn.
Vergiss die Leakage nicht.

Thunder99
2014-12-04, 00:52:35
Zu der ASIC:
Gibt dir ein Indiz wie gut deine Grafikkarte übertaktet werden kann unter Luft bzw Wasser. Je höher desto besser unter Luft.

Bei mir bringt die Übertaktung auch nicht einen dramatisch höheren Stromverbrauch sondern nur geringfügig höheren. Eher ist es die Szene die dargestellt wird was den Stromverbrauch maßgeblich beeinflusst ;)

aufkrawall
2014-12-04, 00:59:02
Trine 2 unter Wasser in 5k grillt übrigens ziemlich gut und durchgängig für ein Spiel. Noch höherer Stromverbrauch als in Anno 2070, zumindest mit dieser GPU.

Ryse lief hier übrigens bis nach York (wieder Rom) stabil mit 4Ghz VRAM-Takt in 4k.

BlacKi
2014-12-04, 01:04:54
Wo hast du das mit dem Stromverbrauch her? Halte ich für Unsinn.
Vergiss die Leakage nicht.
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652-4.html

speziell die kurven weiter unten sind ziemlich interessant

über 200w kommts einem so vor als kostet jedes mhz 1 watt mehr strom^^

aufkrawall
2014-12-04, 01:19:03
Drosselung durch PT/TT reduziert auch die Spannung und erhöht natürlich stark die Effizienz.
250W sind auch unnötig viel bei einem gescheiten Chip. Es ist relativ unsinnig, eine GPU unter Luft völlig unlimitiert laufen zu lassen. Das bringt keinen spübaren Vorteil mehr und verschlechtert die Effizienz massiv.
Der letzte Graph hat offenbar 250W PT beim OC? Muss man ja nicht machen.

Thunder99
2014-12-04, 01:51:22
Lasse ich bei mir auch laufen aber das sind Peaks und keine Durschnitt. Dieser liegt bei 105%

Knuddelbearli
2014-12-04, 04:24:30
Drosselung durch PT/TT reduziert auch die Spannung und erhöht natürlich stark die Effizienz.
250W sind auch unnötig viel bei einem gescheiten Chip. Es ist relativ unsinnig, eine GPU unter Luft völlig unlimitiert laufen zu lassen. Das bringt keinen spübaren Vorteil mehr und verschlechtert die Effizienz massiv.
Der letzte Graph hat offenbar 250W PT beim OC? Muss man ja nicht machen.

na den quote speicher ich mir mal ab und kram es bei der nächsten AMD Karte raus wo du dich aufregst das der Takt nicht gehalten wird ^^

skanti
2014-12-04, 07:17:28
wie sind den eure Erfahreungen zu Palit als Hersteller? Ich überlege mir dei Jetstream 970 zu kaufen. Für die gehypten Asus,MSI und Co. (deren Qualität ich nicht mindern möchte) sehe ich nicht ein so viel mehr Kohle auszugeben.