PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 980 Ti: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16

TurricanM3
2015-09-12, 19:58:39
Aso, dann muss es daran liegen, dass Zwiebel-Mettwurst eine schlechte Wärmeleitfähigkeit hat. :D

Hübie
2015-09-12, 20:02:40
X-D Oder das Lebertran-speedstepping funktioniert nicht richtig.

SRY4OT :D

TurricanM3
2015-09-13, 01:22:32
Evtl. zu früh gefreut, gerade nach ca. 25h den ersten Absturz gehabt:

http://abload.de/img/unbenannt3qjpr.png (http://abload.de/image.php?img=unbenannt3qjpr.png)

War in BF4, Bild schwarz und sofort der Fehler. Kenne das mit zu viel OC eher mit einem Hänger? Ich weiß jetzt nur nicht obs evtl. doch am Spiel liegt, hatte das mit der alten Karte meine ich sehr selten auch mal noch. Ich weiß auch von anderen mit diesem Problem die überhaupt kein OC fahren. Einer hat auch eine 980Ti.
Das ist das tolle am OC, wenns auch stock nicht rennt weiß schiebt mans gleich aufs OC. ^^
Werd erst mal alles so lassen.

aufkrawall
2015-09-13, 01:27:36
Das Spiel ist hier sowohl mit Kepler als auch Maxwell bei instabilem OC schon mit so einer (oder ähnlichen) Meldung gecrasht, oft auch erst zufällig nach Stunden.

TurricanM3
2015-09-13, 01:34:36
Ja ich weiß, aber ich kenns eher mit einem hängen bleibenden Bild und paar Sek. später kommt das Win-Geräusch und "Anzeigetreiber wurde wiederhergestellt" Info.
Ich hatte gerade zack Bild schwarz und direkt den Fehler, keine Info (oder nicht im Vordergrund bei Win10?)?

Monti hatte das mit seiner Stock 980Ti schon. Ohne OC!
Ich werds beobachten.

aufkrawall
2015-09-13, 01:37:02
Ich kenns auch mit Meldung. :)

phoenix887
2015-09-13, 04:52:04
Bei mir ist das auch mit Shadow of Modor, das bei zuviel OC, dass das Spiel crasht, ohne das sich der Treiber zurück setzt bzw. bei GTA V.

TurricanM3
2015-09-14, 14:33:00
Es gibt neues von den Instabilitätenfront:

Hatte in Windows nachdem Aufwachen aus dem Energiesparmodus und drücken auf Start rechts unten einen "Anzeigetreiber wurde wiederhergestellt". Seltsamerweise ohne Hänger oder so. Scheinbar ist das bei Win10 anders als 8.1.
Das klingt nach zu wenig Spannung für die Zwischenstufen, wegen der verschobenen Boost-Table, oder?
Die einzelnen CLKs anheben ist da nun ratsam?

Ich hoffe es liegt nicht an Chrome oder so, da gabs ja Probleme vor einiger Zeit (Win10 / v355.82).

Godmode
2015-09-14, 14:45:25
@Turri:

Ich dachte auch das meine gute Karte (80er ASIC) 1500 MHz mitmacht, bin dann aber doch auf 1450 runter gegangen. Das komische war, mit 1500 Mhz konnte ich ohne Probleme GTA V durchspielen (ca. 60h) . Auch beim Witcher gab es keine Probleme, aber dann plötzlich, nach x-Stunden ein TDR. Mit 1450 hatte ich bisher keine TDRs.

robbitop
2015-09-14, 14:53:59
Also der Durchfluss ist schon wichtig. Zuviel nimmt dem System die Möglichkeit die Wärme aufzunehmen und zu wenig staut das. Also hast alles richtig eingestellt :D
Eine Erhöhung des Durchflusses (auch gegen unendlich!) hat keine negative Auswirkung auf die Temperatur. Er hat bis zu einem bestimmten Punkt einen Einfluss auf den Wirkungsgrad der Kühler der Komponenten (turbulente Grenzschicht). Ansonsten bestimmt er nur, wie hoch das DeltaT der Wassertemperatur im System ist.

Das Wasser transportiert die Wärmemenge von der Quelle zur Senke. Die Wärmemenge ergibt sich aus der Temperaturdifferenz und dem Volumenstrom. Steigt der Volumenstrom, sinkt die Temperaturdifferenz (zwischen VL und RL).

----------------------------

@OC

Ist mit meiner GM200 (TitanX) auch so. Da werden noch vergleichsweise hohe Taktniveaus stundenlang vermeintlich stabil erreicht - aber hin und wieder gibt es dann Abstürze/Fehlermeldungen. Ist schwierig/müßig die Grenze auszuloten. Ich bin dann gleich deutlich runter gegangen, um mir das zu ersparen. Die letzen 5 % merkt man beim Spielen eh nicht.

Lowkey
2015-09-14, 14:57:01
Ich kann ohne OC eine Woche D3 zocken. Am 8 Tag gibt es dann mind. 2 D3 Fehler und einen TDR. Ich fürchte, dass der TDR in jedem Fall nicht mit dem OC zusammenhängt. Das hatte ich mit jede Nvidia Karte irgendwann.

Dural
2015-09-14, 15:13:37
naja, wenn eine karte nicht zu 100% stabil läuft und alle 20h mal einfriert wäre mir das egal. zudem ich 20h schon für sehr stabil halte und der reset nicht unbedingt was mit dem OC zu tun haben muss.

es ist aber schon so, umso komplexer die GPU werden umso schwieriger wird es den max. stabilen takt raus zu finden. habe gerade am wochenende etwas mit der fury x gespielt und da gab es auch ab und zu einen treiber reset obwohl im spiel keine bildfehler vorhanden waren.

Lowkey
2015-09-14, 15:19:29
Irgendwie ist es immer dasselbe: neue Nvidia - alte Probleme.

Das mit dem Aufwachen aus dem S3 klappt mit keiner Karte. Irgendwas in Windows verhindert den reibungslosen Betrieb. Wenn ich nun mit der 660 Ti dieselben Fehler wie mit der 980 Ti habe, dann muss der Fehler woanders liegen. Aber das System ist seitdem auch komplett verändert worden. Irgendwie habe ich den Verdacht, dass Nvidia Mist baut.

Edit: es war auch schon mit der GTX 460 und Firefox ein laufendes Problem, dass letztlich nach 3 Jahren gefixt wurde.

Dural
2015-09-14, 15:23:50
geht mit meinem win10 skylake system und der tx ohne probleme.

TobiWahnKenobi
2015-09-14, 15:30:09
standby und aufwachen hat mir auch noch keine sorgen bereitet. mit keiner karte, die je in diesem mainboard steckte. wäre aber auch fatal, so oft wie ich versehentlich standby mit der fernbedienung auslöse *gg*


(..)

mfg
tobi

Dural
2015-09-14, 15:45:03
Ich verwende den Standby ja eigentlich nie. Dies hat sich mit win10 jedoch geändert, den ich schalte den PC oft über den Power Schalter aus. Jedoch meint Win10 nicht das was ich damit meine :wink: ich habe das erst kürzlich per Zufall gesehen/festgestellt, da die LED der RAM noch gingen :freak:

akuji13
2015-09-17, 10:44:32
http://www.computerbase.de/2015-09/geforce-gtx-980-ti-sea-hawk-msi-setzt-auf-all-in-one-wasserkuehlung-von-corsair/

Hätte von MSI nicht erwartet das sie sowas bringen.

phoenix887
2015-09-17, 11:02:27
Weil wir grad bei MSI sind: (habe gestern irgendwo auch ein Bild der Seahawk gesehen, aber keine weitere Informationen gefunden, danke):

Hat mir die Post heute gebracht:


http://abload.de/thumb/20150917_103812mgzqk.jpg (http://abload.de/image.php?img=20150917_103812mgzqk.jpg)

Konnte dem Blink-Blink Marketing von MSI nicht wiederstechen;)

Bin mit der Karte höchst zufrieden. Endlich habe ich meine innere Ruhe gefunden, da jetzt die Kombi aus Lautstärke und Leistung stimmt.

Dank einem Asic von 78%, (hatte schon Bedenken, den die Amis bei Overclock.net, hatte bis jetzt alle unter 70%), kann ich folgendes OC in Witcher 3 4K ohne Spannungserhöhung fahren:

http://abload.de/thumb/msih8y17.jpg (http://abload.de/image.php?img=msih8y17.jpg)

In andere Spielen, kann ich auch noch höher gehen, bekomme aber dann in Witcher 3 Artefakte. Wenn die Karte in einem Spiel nicht sauber läuft, ist für mich das OC auch nicht stabil.

Der Kühler ist nochmal um einiges leistungsstärker als bei der G1. Habe erstmal mal beim Zocken in meine Case reingeleuchtet, ob die Lüfter sich wirklich drehen.:D Aber alles gut....

Selbst mit Spannungserhöhung in Witcher 3 4K höre ich beim zocken die Lightning nicht. Erst, wenn ich den Ton ausmache oder aus dem Spiel heraus gehe. Aber auch da ein sehr angenehmes Rauschen.... alle Gehäuselüfter laufen bei mir nur mit 600RPM und GPU Temps: mit Spannungserhöhung höchsten bei 80°C. Ohne Spannungserhöhung nur 75°C. Unter maximale Last, denn habe kein anderes Spiel jetzt das besser wärmt als Witcher 4k. Bei anderen Games sind die Temps natürlich niedriger.

Daher kann ich jetzt beruhigt mein Projekt, einen Waterblock auf die G1 zu schnallen verwerfen.

Etwas crazy die ganze Aktion, aber mit dem Verkauf der G1 und anderes Elektrozeug das ich nciht mehr brauche, gehe ich vielleicht mit 100 Euro Differenz raus. Kann ich damit leben, dafür das ich jetzt zufrieden bin...

Lasse sie jetzt im 24h Betrieb mit dem OC ohne Spannungserhöhung laufen. Mal schauen, wenn Ende diesen Monats der neue Afterburner erscheint, ob da noch etwas geht, denn kann ich die verschiedene Spannungen, wie Speicherspannung usw. einzeln ansteuern.

Hätte aber gleich MSI kaufen sollen. Mit Mainboards bin ich sowieso zufrieden, mit der 285GTX, 960GTX bin ich es auch gewesen.

Fazit: Am Rechner wird jetzt nichts mehr gemacht, bis eine Pascal Lightning kommt.:D

(del)
2015-09-17, 11:26:35
Ja, die Lightning ist sexy - meine Wasserpumpe ist auf Volllast lauter :)

Raus aus dem Karton und rein in den PC:
http://scontent-fra3-1.xx.fbcdn.net/hphotos-xtp1/v/t1.0-9/s720x720/11036209_1171256229557606_504661557797543004_n.jpg?oh=906acced784097a94260b36c16 328783&oe=56A97076

Schalte mal um aufs LN2-BIOS, hast ja zwei. Da kannst Du alles manuell einstellen und die Spannung geht auch notfalls noch deutlich höher. Die 1,5 GHz Boost solltest Du mit nur wenig mehr Saft locker und artefaktefrei schaffen, auch mit Witcher 3. Und übertreibs nicht mit dem RAM, auch wenn er gut mitgekühlt wird. :)

phoenix887
2015-09-17, 11:57:12
Einer der mich versteht^^

Das LN2 Bios kann ich gefahrlos unter Luft benutzen? Weil ja alle Sicherungen dann weg sind. Bei dem Teil kann man ja soviel tweaken:)

Gut das du das bestätigen kannst mit der Lautstärke. Habe schon gedacht, meine Erinnerung trückt mich bezüglich leiser als AiO.

Edit. Habe ja mit Absicht 1513mhz eingestellt. Denn in Witcher geht sie mit dem normalen BIOS im 60er Bereich eine Taktstufe runter. Komme somit auf 1500mhz@1.75V genagelt in Witcher 3 Artefaktfrei.

Erhöhen ich die Spannung auf 1.212 im normalen BIOS bekomme ich sofort Artefakte. Dürfte dann im LN2 BIOS nicht mehr gehen, da es ja die selbe Hardware ist, oder?

Dural
2015-09-17, 14:04:47
Lüfter auf 100% schalten ;) viel spass mit der MSI, 78% ASIC hören sich gut an :D

phoenix887
2015-09-17, 14:37:57
Bin am probieren gerade, gebe Rückmeldung, aber Danke :)

TurricanM3
2015-09-17, 14:49:19
Niemand Erfahrung mit dem Erhöhen der Spannung für die Zwischenstufen?

(del)
2015-09-17, 15:12:21
Naja, ab einer gewissen Preisgrenze ebbt der gar zu ungestüme Experimentierdrang ein wenig ab. Ich habe keine Skrupel, meiner Frau die Fury X unter Wasser zu setzen, aber Maxwell unter Luft im Grenzbereich zu tweaken... Oo ;)
Wenn Pascal kommt, werde ich es dann noch mal testen. Dann tut es auch nicht mehr ganz so aua, wenn es duster wird. :P

phoenix887
2015-09-17, 15:13:28
Habe jetzt mal das LN2 Bios probiert:

Unterschied, auf Default sind die Clocks auf Referenz gestellt.

Ok, wurden erhöht:

http://abload.de/thumb/ln28el7l.jpg (http://abload.de/image.php?img=ln28el7l.jpg)

Aber Verhält sich genau wie das andere: MaximalSpannung 1.212, und in Witcher habe ich wie vorher einmal ein runterschalten drin um 13mhz. Geht dann von 1.200 auf 1.175 runter, wenn ichdie Spannung nicht erhöhe.

In der Boostable ist auch, wie beim regulären maximal 350W möglich.

Dachte 450W wären dann freigeschaltet? 1,3V wären möglich? und GPU-Z zeigt ja immer noch die Sicherheitsmaßnahmen an. Oder habe ich was falsch verstanden?

(del)
2015-09-17, 15:20:34
Ich empfehle Dir den Afterburner Extreme. Allerdings musst Du Dich dafür dort mit der Seriennummer der Grafikkarte registrieren und verlierst damit automatisch die Garantie. Überleg halt, ob es Dir das wert ist. ;)

phoenix887
2015-09-17, 15:31:57
Ich empfehle Dir den Afterburner Extreme. Allerdings musst Du Dich dafür dort mit der Seriennummer der Grafikkarte registrieren und verlierst damit automatisch die Garantie. Überleg halt, ob es Dir das wert ist. ;)

Die sind schlau. Dann können die ja sehen, ob ich was mit der Karte getan habe:D

Und wenn ich mich anmelde und mir nur mal Afterburner Extreme anschaue? ;)

Edit: http://forum.hwbot.org/showthread.php?t=47952

hier richtig? Gibt es nirgends was offizielles von MSI?. Kenne den Typ nicht, dann könnte ja jeder meine SN verlangen.

Edit2: habe gerade gelesen, das die Extreme Version so eine Art Wasserzeichen hat. Also brauche ichnicht nach alternative Downloadquellen zu suchen? Komisch hatte vorher noch nie was von einer Extreme Version gehört.

Hübie
2015-09-17, 16:27:11
Scheint als sei deine Odyssee vorbei, Phoenix :up: Glückwunsch.

Igor: weißt du wer die Lüfter für MSI fertigt? Habt ja immer so nette Background-Infos. Bin ehrlich gesagt von der Strix in puncto Lautstärke enttäuscht. Das Kühlkonstrukt selber hat zu wenig Kontakt am Die und die Lüfter sind auch nicht sehr gut aus aerodynamischen Aspekten betrachtet. Palit Jetstream und halt MSI Lightning zeigen ja wie man es richtig macht.

phoenix887
2015-09-17, 16:29:22
Scheint als sei deine Odyssee vorbei, Phoenix :up: Glückwunsch.

Igor: weißt du wer die Lüfter für MSI fertigt? Habt ja immer so nette Background-Infos. Bin ehrlich gesagt von der Strix in puncto Lautstärke enttäuscht. Das Kühlkonstrukt selber hat zu wenig Kontakt am Die und die Lüfter sind auch nicht sehr gut aus aerodynamischen Aspekten betrachtet. Palit Jetstream und halt MSI Lightning zeigen ja wie man es richtig macht.

Danke. Ja die Reise ist vorbei:)

Na ich lass das aber mal mit Afterburner Extreme 1500/3900@1.175V sind mehr als ordentlich. Zudem, meine Erfahrung das mehr Spannung kaum etwas bringt unter Luft, im Gegensatz zu Kepler. Bin mal 100mhz VRAM zurück. Hatte bei Mordor eben einen Blackscreen mit blauen Quadrate. Tippe mal auf den VRAM.

aufkrawall
2015-09-17, 16:33:02
Klingen die Lüfter bei jeder vernünftigen Drehzahl sauber? Könntest du mal testen, was die Mindestdrehzahl ist?

phoenix887
2015-09-17, 17:03:22
Ja, hören sich in jeder Situation sauber an, im Gegensatz zur G1. Ohne Spannungserhöhung höre ich die Karte nicht.

Mit Spannungserhöhung, nur wenn ich den Ton ausmache, oder das Spiel beende. Ist aber ein sanftes angenehmes Rauschen. Ohne das ich das Gefühl habe, das der Rechner mir gleich auseinander fliegt.:freak:

Habe mal schnell geschaut mit dem Inspector, zwischen 550 und 600rpm, ist das niedrigste was ich kontinuierlich einstellen kann. Sind 20-25% auf dem Tacho.

Finde die Karte echt nice, die Leistung ohne Spannungserhöhung mit der Lautstärke, die einer AiO in nichts Nahe steht unter Luft, mehr als ich erhofft hatte :)

aufkrawall
2015-09-17, 17:31:36
Nett. Eigentlich will ich keine 3Lüfter-Karten mehr, aber MSI würd ichs zutrauen, da bei der QA nicht zu schlampen.
Die 550rpm sind wahrscheinlich auch bei absoluter Stille so gut wie unhörbar?

phoenix887
2015-09-17, 17:47:18
Nett. Eigentlich will ich keine 3Lüfter-Karten mehr, aber MSI würd ichs zutrauen, da bei der QA nicht zu schlampen.
Die 550rpm sind wahrscheinlich auch bei absoluter Stille so gut wie unhörbar?

Wie gesagt, Habe eine Aio auf der CPU, dalso ingesamt 5 Lüfter im Rechner, alle runtergeregelt auf 600RPM und habe sie eben nicht gehört bei 550rpm mit GPU-Z. Also hier wars ruhig.....Wohne alleine:biggrin:

Dural
2015-09-17, 17:52:24
Ja der Speicher ist halt so ein Thema bei Maxwell. Man hätte gerne viel Takt, aber mit der Stabilität ist es leider nicht so einfach.

(del)
2015-09-17, 17:58:20
Was heute noch stabil läuft, muss es in einigen Wochen oder Monaten schon nicht mehr. Speicher-OC deutlich über 1800 kneife ich mir meistens. Und das aus gutem Grund.

phoenix887
2015-09-17, 18:04:59
Man sollte aber den VRAM auch etwas mit hochziehen, damit das GPU OC voll durchschlägt oder bin ich auf dem Holzweg?

Mit 3900mhz, war jetzt nichts mehr. Wenn nochmal was kommt, geht es halt nochmal 100mhz runter.

Bin mir sicher das es der VRAM war, wäre der GPU-Takt zu hoch, hätte ich bei Witcher 3 schon die rote Artefakte gesehen. Die ja erscheinen, bevor die Karte abstürzt.

Ich weiß, jede Software verhält sich anderes, aber mit Witcher 3 in 3840x2160 bin ich mit Maxwell immer gut gefahren als OC-Test.

aufkrawall
2015-09-17, 18:05:09
Was heute noch stabil läuft, muss es in einigen Wochen oder Monaten schon nicht mehr. Speicher-OC deutlich über 1800 kneife ich mir meistens. Und das aus gutem Grund.
Bei vielen geht aber 2Ghz, so auch hier mit GM204.
Da muss man aber zwischen Spielen und OpenCL/Cuda unterscheiden.

(del)
2015-09-17, 18:30:57
Bei vielen geht aber 2Ghz, so auch hier mit GM204.
Da muss man aber zwischen Spielen und OpenCL/Cuda unterscheiden.

Games sind aber nichts, um echte Stabilitätsaussagen zu treffen. Was im Spiel noch nicht sichtbar wird, kann einem in richtig großen Workloads die Arbeit von Stunden zerstören. :(

-/\-CruNcher-/\-
2015-09-17, 18:33:19
Games sind aber nichts, um echte Stabilitätsaussagen zu treffen. Was im Spiel noch nicht sichtbar wird, kann einem in richtig großen Workloads die Arbeit von Stunden zerstören. ;)

Vor allem darf man nicht vergessen es gibt schon ein Workload was mehr belastet selbst bei Games und Gamern im Einsatz ist nennt sich Shadowplay bei Nvidia ;)

3D + Compute + DSP (Encoding/Decoding)

alles simultan ist ein guter Stabilitätstest ;)

da gibt es mehrere möglichkeiten solche durchzuführen

Aber Benchmarks die alles 3 gleichzeitig belasten gibt es nicht man kann einen solchen Stabilitätstest (Workload) aber relativ einfach selber basteln.

Bei AMD kann man je nachdem noch True Audio hinzufügen

Nividia hat hier aber eigentlich auch schon interne Sicherheitsverkehrungen getroffen für.

(del)
2015-09-17, 18:34:25
Was ich oben allerdings meinte, ist die Standfestigkeit, also die Haltbarkeit. Das geht eine Weile gut, dann setzt irgendwann die Elektromigration spürbar ein. Über Voids und Hillocks muss ich sicher nichts schreiben ;)

TurricanM3
2015-09-17, 18:35:00
Bei mir laufen die 2100MHz auch in W3 sauber. Hatte bislang in mittlerweile 30h Spielzeit einen einzigen Fehler in BF4 so (warum auch immer).
Da ich nur zocke ist das halb so schlimm. :smile:

-/\-CruNcher-/\-
2015-09-17, 18:56:00
Was ich oben allerdings meinte, ist die Standfestigkeit, also die Haltbarkeit. Das geht eine Weile gut, dann setzt irgendwann die Elektromigration spürbar ein. Über Voids und Hillocks muss ich sicher nichts schreiben ;)

Gut für Gamer momentan noch eher uninteressant mit vermehrt Compute wird es natürlich immer problematischer ;)
Und die die overclocking bis zum sankt niemerlein betreiben sollten sich ja schon bewusst sein das Haltbarkeit MTBF dadurch den Bach runter geht die die es aber betrifft wechseln eh ihre Hardware wie Socken und die anderen sind relativ sicher mit dem Vorberechneten OC und deren Sicherrungen wobei man ja sieht das des auch nicht so stimmt in der Praxis vor allem eben wenn neue Workloads vermehrt einzug halten ;)
Aber Nvidia reagiert hier eigentlich immer sehr schnell die timing probleme die vor allem mit und im Windows Treibermodel auftretten können aus der Welt zu schaffen ;)

Nvidia ist mit ihrem ersten anlauf ja gescheitert einen riegel davor zu schieben der 2te wird sitzen auch dank W10 ;)

aufkrawall
2015-09-17, 19:07:15
Games sind aber nichts, um echte Stabilitätsaussagen zu treffen. Was im Spiel noch nicht sichtbar wird, kann einem in richtig großen Workloads die Arbeit von Stunden zerstören. :(
Die Sache ist, dass 3D und reines Compute nicht vergleichbar sind.
Das handhabt der Treiber schon selbst so, im P2 State für OpenCL/Cuda gibts nur 1,5Ghz VRAM-Takt, während Spiele mit P0 1,75Ghz haben.
Schon diese 1,75Ghz können also wahrscheinlich schon mitunter bei Compute Fehler hervorrufen.
Deswegen können aber trotzdem 2Ghz in Spielen einwandfrei funktionieren.

(del)
2015-09-17, 19:25:30
Ich meine nicht die reinen Rechenanwendungen, sondern den eher wahrscheinlichen Fall, dass man z.B. mehrere Viewports aufhat (3D) und nebenher schon mal rendert oder bestimmte Abläufe simuliert (Compute). Da macht Nvidias Treiber nicht immer eine glückliche Figur.

Ein gutes Beispiel bieten da z.B. hochwertige Simulationsprogramme für Photovoltaik-Berechnungen, wo man einerseits die Verschattung (Gelände, Bebauung, andere Module) bereits in der Vorschau visualisiert sieht (Mehrere Viewports in 3D) und "nebenher" die genaue Verschattung pro PV-Modul und in der Summe auch die Einflüsse auf die verschiedenen Verschaltungsmöglichkeiten (Strings) berechnet werden. Neben der anzunehmenden Einstrahlung (Wetterdaten, langjähriges Mittel über 20 Jahre, Tag und Uhrzeit) und gerätespezifischen Dingen (Spannungen, Temperaturkoeffizienten) müssen auch die potentiell passenden Wechselrichter in allen Varianten mit einbezogen werden. Wenn man da mal ein ganzes Jahr über alle Tage und deren Stunden simuliert, dann kocht die Kiste :D

Ich bin echt froh, dass ich so ein Zeug nicht mehr programmieren muss. Das ist genauso fad, wie es sich liest. :D

-/\-CruNcher-/\-
2015-09-17, 19:30:02
Jo das ist eben ein Nachteil den sie momentan noch versuchen anderweitig zu kompensieren und wo AMD druck ohne Ende macht seit dem Konsolen Win ;)

Nvidia hat sich fast auschlieslich auf die Effizienz mit Tegra Konzentriert AMD ist eben Fusion geprägt ;)

Wegrennen tut beiden Intel, auch wenn das keiner so richtig wahrnimmt und noch eher belächelt ;)

(del)
2015-09-17, 19:34:00
OpenCL hat auch Vorteile, Intel hat da ordentlich aufgeholt, denn Iris Pro ist echt eine Rakete, wenn man die Leistung ins Verhältnis zur Leistungsaufnahme setzt.

NV kann froh sein, dass Intel keine dedizierten GPUs baut. Iris Pro in groß wäre ein Traum. Blieben dann nur noch die Treiber... Auf dem großen Broadwell läuft sogar GTA V in Full HD auf dem Level einer 750 non-Ti. Und das mit ollem DDR3L und bei deutlich unter 20 Watt Leistungsaufnahme. Halb soviel wie bei NV. :D

-/\-CruNcher-/\-
2015-09-17, 19:44:01
Da ist noch viel mehr was Intel besser macht viel viel mehr in den subsets den kleinen aber feinen parts des großen ganzen die weder Nvidia noch AMD in den ganzen jahren verbessert haben ;)

Aber gut wenn man quasi von 0 anfängt und nur das beste vom besten einkauft auch Man Power muss man sich nicht wundern ;)

akuji13
2015-09-18, 09:45:36
NV kann froh sein, dass Intel keine dedizierten GPUs baut. Iris Pro in groß wäre ein Traum. Blieben dann nur noch die Treiber... Auf dem großen Broadwell läuft sogar GTA V in Full HD auf dem Level einer 750 non-Ti. Und das mit ollem DDR3L und bei deutlich unter 20 Watt Leistungsaufnahme. Halb soviel wie bei NV. :D

Nur wird nach oben hin die Luft immer dünner.
Ob dann das Leistungsverhältnis noch so zu halten wäre ist fraglich.

Das es nicht so einfach ist Grafikkarten zu bauen hat Intel ja schon feststellen müssen.

phoenix887
2015-09-18, 10:00:15
Meinst du Projekt Larrabee?

Dural
2015-09-18, 10:04:51
Auf dem großen Broadwell läuft sogar GTA V in Full HD auf dem Level einer 750 non-Ti. Und das mit ollem DDR3L und bei deutlich unter 20 Watt Leistungsaufnahme. Halb soviel wie bei NV. :D

28nm gegen 14nm, beindruckt mich jetzt ehrlich gesagt gar nicht.


@Maxwell Speicher:
Gibt viele Karten mit den man über 2000MHz Zocken kann, die wenigsten machen die 2000MHz+ aber zu 100% stabil.

Lowkey
2015-09-18, 10:19:00
Ob ein Spiel auf dem Broadwell läuft ist eine Sache, aber wie erwähnt sind die Treiber nicht optimalst und spielbar heißt nicht "läuft rund". Selbst eine 750/750 Ti ist zwar ausreichend, aber das Spielgefühl mit einer stärkeren Karte ist deutlich besser, was nicht an den FPS liegt.

Ich finde es schade, dass der Support für den Broadwell so schlecht ist. Man kann ihn kaum bis an die Grenzen treiben. Dagegen hat Intel doch verlauten lassen, dass man jedes Jahr etwas Neues vorstellen müßte und ein einfacher Refresh reicht nicht aus. Ich erwarte damit stark mit dem Refresh einen eDRAM Prozessor auf Skylake Basis.

TurricanM3
2015-09-19, 12:36:37
So gestern nach weiteren 15h BF4 wieder den DXError gehabt. Karte läuft nicht stabil.

Ich würde ihr gerne eine Spannungsstufe mehr Voltage geben. Lief aktuell mit 1.187v. Wie stelle ich dann 1.199 ein?

EDIT:
Also ich habe mein Bios nun so gemoddet:

Um eine Stufe mehr Spannung zu kriegen, habe ich alle CLK die auf 1281mV lagen auf 1187mV herabgesetzt. Meine Karte overvolted 6mV und die gewünschten 1193mV liegen an.

Durch diese Änderung mit den CLKs boostet die Karte jetzt bis auf #74 was dann zuerst 1670MH gegeben hat. Ich habe #74 nun einfach auf 1507 angepasst und das kommt dabei raus:

http://gpuz.techpowerup.com/15/09/19/unc.png

Die Boost Table ist nun 165MHz niedriger und die Zwischenstufen kriegen so auch mehr Spannung.
Hier mal das Bios:
Datei von filehorst.de laden (http://filehorst.de/d/biEoBini)

Was ist denn bitte der Nachteil an der Methode? :confused:

TurricanM3
2015-09-19, 16:36:44
Nachdem durchschauen der Logs ist mir aufgefallen, dass meine Karte zwischendurch mal sowas hier macht:

1442.8, 2097.9, 1.1180v
1328.9, 2097.9, 1.0370v
(GPU/RAM/Volt.)

Evtl. läuft sie deswegen instabil? Gestern der ingame Absturz kam als ich mich zum Tippen versteckt hatte.

Ich hab mir das Bios nun komplett neu erstellt. Die Zwischenstufen kriegen nun die original-Spannung. Da ich vorher nur die Boost-Table verschoben hatte, lagen bei gleicher Spannung 278MHz mehr an, was wohl instabil war, daher auch der Treiberreset in Win.

Ich teste erst mal wieder mit den 1187mV.
Melde mich dann spät. beim nächsten Absturz wieder. :biggrin:

woodsdog
2015-09-19, 19:38:34
wieso denn nicht einfach 50MHz weniger...? o.O

Raff
2015-09-19, 19:48:12
Weil 1.500 MHz cool sind und die nicht jeder hat. :biggrin: Anscheinend gibt es kaum einen GM200, der das wirklich rockstable packt, auch wenn das gern behauptet wird. Ich bin davon auch abgekommen, dieser rein psychologische Unterschied reduziert nur die Lebenszeit. Turricans Karte traue ich aber zu, dass sie mit der richtigen Spannung 1.500 MHz schafft, die Kühlung ist immerhin optimal.

MfG,
Raff

TurricanM3
2015-09-19, 19:59:27
Ja ich probiere etwas herum, macht mir nichts aus. =)
Wenn mich das nerven würde klar, da wäre ich einfach auf 1400 runter gegangen.

-/\-CruNcher-/\-
2015-09-19, 20:14:06
Solange man nicht Treiber Threads unsicher macht und reported das seine eigene Frankenstein Karte zwischen OS,Treiber und 3rd Party Software Layer probleme macht ist das auch vollkommen in Ordnung ;)

Nvidia ist mit dem neuen Debug Mode einen genialen weg gegangen solche Frankenstein Creator kriegen gleich erstmal zu hören Debug Mode testen läuft es ist es dein Problem bzw wende dich an deinen AIB ;)

Raff
2015-09-19, 20:23:44
Welcher Debug-Mode? :)

MfG,
Raff

Hübie
2015-09-19, 20:27:19
Wovon redest du, cruncher? Debug-Mode? :|

Ich hatte die Tage diverse kleine Tests gemacht und zwischen den 1428 MHz und 1513 MHz gibt es abgesehen vom Verbrauch nur sehr geringe Unterschiede. Zumindest mit den Settings die ich nutze. Meistens 1440p oder höher und dann alle Regler hoch. Also bleib ich bei 1428 MHz bei 1187 mV (ist der default meiner Strix). Scheint optimal. Die 1513 brauchen 1237 mV. Ist angenehmer für Portemonnaie und Ohren. =)

phoenix887
2015-09-19, 20:28:00
Weil 1.500 MHz cool sind und die nicht jeder hat. :biggrin: Anscheinend gibt es kaum einen GM200, der das wirklich rockstable packt, auch wenn das gern behauptet wird. Ich bin davon auch abgekommen, dieser rein psychologische Unterschied reduziert nur die Lebenszeit. Turricans Karte traue ich aber zu, dass sie mit der richtigen Spannung 1.500 MHz schafft, die Kühlung ist immerhin optimal.

MfG,
Raff

Richtig, bist doch ein Fachmann:D Hatte gedacht bei meiner Lightning wären 1500/3900mhz@1,175V rockstable. Aber ist so nicht. In Shadow of Mordor einen Crash gehabt.

jetzt 1490mhz/3900mhz@1,175V und alles ist in Ordnung. Habe vorhin auch zu Format C gesagt per PN, weil wir es auch davon hatte und ich die 10mhz vergessen soll, das im OSD 1500mhz einfach schöner aussehen;D

PS: Zum ausloten des GPU Taktes kann ich besagtes Shadow of Modor empfehlen und für VRAM Witcher 3. Damit habe ich jetzt gut meine Karte ausgelotet. Aber allerdings unter 4K. Kann nicht sagen wie sich die Spiele in 1440p oder 1080p verhalten.

-/\-CruNcher-/\-
2015-09-19, 20:39:35
Welcher Debug-Mode? :)

MfG,
Raff

Den den Nvidia gerade am Testen ist

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10764348#post10764348

Er soll bei der Fehlerdiagnose helfen ein Rescue Mode der das ganze Bios auf Default settings forciert.

Ein Bios overrider aus dem Treiber heraus wird wohl alle Timings direkt umstellen können mit einem klick (der Wunschtraum eines jeden Low Level App Freaks) ;)

Da das Bios Modding so überhand genommen hat und Nvidias support rausfischen muss die Kosten durch Frankenstein Creator und übertreibenden AIBs steigen und die Unzufriedenheit auch geht man jetzt den nächsten schritt in der Analyse direkt beim Kunden.

Wohl auch um mit den Gewonnen Daten die Effizienz weiter zu steigern wobei dort ja das Geforce Experience Backend das System und den Programmablauf schon Analysiert beim Kunden :)

cR@b
2015-09-20, 14:06:17
So gestern nach weiteren 15h BF4 wieder den DXError gehabt. Karte läuft nicht stabil.

Ich würde ihr gerne eine Spannungsstufe mehr Voltage geben. Lief aktuell mit 1.187v. Wie stelle ich dann 1.199 ein?

EDIT:
Also ich habe mein Bios nun so gemoddet:

Um eine Stufe mehr Spannung zu kriegen, habe ich alle CLK die auf 1281mV lagen auf 1187mV herabgesetzt. Meine Karte overvolted 6mV und die gewünschten 1193mV liegen an.

Durch diese Änderung mit den CLKs boostet die Karte jetzt bis auf #74 was dann zuerst 1670MH gegeben hat. Ich habe #74 nun einfach auf 1507 angepasst und das kommt dabei raus:

http://gpuz.techpowerup.com/15/09/19/unc.png

Die Boost Table ist nun 165MHz niedriger und die Zwischenstufen kriegen so auch mehr Spannung.
Hier mal das Bios:
Datei von filehorst.de laden (http://filehorst.de/d/biEoBini)

Was ist denn bitte der Nachteil an der Methode? :confused:

Gibt kein Nachteil der Methode! Viele Wege führen nach Rom ;) Bei meiner TX funktioniert es wieder ganz anders, warum auch immer...

Wundert mich, dass der Debug Mode hier nicht bekannt ist. Ist in jedem Fall ne schlaue Sache nach den ganzen TDR die immer wieder gemeldet werden ;)

Lowkey
2015-09-23, 10:42:45
Schon wieder verschickt Ebay 10% Paypal Gutscheine... eventuell werde ich schwach.

mironicus
2015-09-23, 11:32:33
Warte noch auf 15 fach Punkte bei Payback, dann lohnt sich das noch mehr. Meine GTX 980 Ti erhielt ich dadurch für unter 600 Euro. :)

Nightspider
2015-09-23, 11:47:36
Wieso bekommt ihr dauernd 10% Gutscheine bei Ebay und ich nicht?

Mach doch gleich eine Sammelbestellung und bestelle was mit für andere hier. ;)

Frosty
2015-09-23, 21:01:03
Schon wieder verschickt Ebay 10% Paypal Gutscheine... eventuell werde ich schwach.


hm ich könnte die palit gtx 980 ti super jetstream für knapp 630 kriegen:ucoffee:
bin schwer mit mir am kämpfen:biggrin:
andererseits, ob sich das angesichts des nicht sehr großen leistungssprungs zu meiner jetztigen karte lohnt?:uconf2::usad:
hätte es den gutschein doch vor ein paar wochen gegeben, dann wäre es die o.g. karte geworden:frown:

horn 12
2015-09-23, 22:08:45
Hast ja die Fury oder nicht ?
Mit 980TI und! OC sollten + 25 bis 30 zur Fury drinn sein!

Frosty
2015-09-23, 22:26:56
Hast ja die Fury oder nicht ?
Mit 980TI und! OC sollten + 25 bis 30 zur Fury drinn sein!


ne, hab die gtx 980.

cR@b
2015-09-24, 07:28:20
ne, hab die gtx 980.

@1600?

RoughNeck
2015-09-24, 07:57:14
Hast ja die Fury oder nicht ?

Hast jetzt endlich eine Fury bestellt?

akuji13
2015-09-24, 08:09:27
hätte es den gutschein doch vor ein paar wochen gegeben, dann wäre es die o.g. karte geworden:frown:

Kannst ja den Gutschein auch verschenken oder falls nicht übertragbar mit einem user einen deal machen. :wink:

Matrix316
2015-09-24, 13:13:39
Heyyy, endlich gibt's mal einen Test der Gainward (auch wenn er schon ein paar Tage alt ist) und der bestätigt meine Eindrücke. ;):

http://www.tweakpc.de/hardware/tests/grafikkarten/gainward_geforce_gtx_980_ti_phoenix_gs/s06.php


Besonders gut gefallen haben uns an der neuen Karte die drei Lüfter. Zum einen arbeiten diese extrem leise und können mit extrem niedriger Drehzahl laufen. Und zum anderen ist auch die Lüftersteuerung der neuen Gainward Karte sehr gut gelungen. Der Übergang von passiv zu aktiv Modus ist bei der Karte kaum wahrzunehmen, die Lüfter laufen meist an, als ob man sie langsam anschieben würde ohne hochzudrehen. Wenig anspruchsvolle Games belasten die GeForce GTX 980 Ti Phoenix dabei so gering, dassdie Lüfter mitunter so langsam drehen, das man die Karte als unhörbar bezeichnen kann. Und selbst unter Vollast bei maximaler Drehzahl macht die GeForce GTX 980 Ti Phoenix auch noch eine gute Figur.

akuji13
2015-09-24, 14:31:30
Tests zur Lautstärke ohne Vergleichswerte anderer Karten finde ich immer super hilfreich. :rolleyes:

"Die maximale Lüfter-Drehzahl der Gainward Karte liegt bei etwa 3400 UPM. In diesem Setting wird die Karte zwar etwas lauter und landet bei 46.41 dBA, aber dafür sinkt die Temperatur auch noch einmal in Furmark auf 62 Grad. Insgesamt ist die Karte selbst in diesem Szenario nicht übermäßig laut und deutlich leiser als viele Modelle anderer Anbieter, die zum Teil deutlich über 50 dBA liegen."

:eek:

Frosty
2015-09-24, 20:13:59
Kannst ja den Gutschein auch verschenken oder falls nicht übertragbar mit einem user einen deal machen. :wink:


vielleicht gibt's zu weihnachten nochmal einen ebay-gutschein, spätestens dann wird die palit 980 ti super jetstream gekauft:ucoffee::)

aufkrawall
2015-09-24, 20:18:36
Warum hast du sie nicht gleich für ein paar Öcken mehr gekauft?
Sorry, aber du wirkst ein wenig konfus.

Frosty
2015-09-24, 20:24:23
Warum hast du sie nicht gleich für ein paar Öcken mehr gekauft?
Sorry, aber du wirkst ein wenig konfus.


paar öcken?
ich hab die 980 jetstream für 488€ gekriegt und die 980 ti super jetstream kostete zu dem zeitpunkt über 710€....:usad:
das konnte ich zu dem zeitpunkt nicht aufbringen;)
aber nachdem ich gesehen habe wie gut schon die 980 jetstream von der kühlkonstruktion ist, war eigentlich klar dass die nächste karte auch eine palit sein wird.

Nightspider
2015-09-24, 20:27:06
Welche GTX980ti würdet ihr denn von Ebay empfehlen mit 10% Gutschein?

Bin am überlegen eine zu kaufen.

Frosty
2015-09-24, 20:29:57
Welche GTX980ti würdet ihr denn von Ebay empfehlen mit 10% Gutschein?

Bin am überlegen eine zu kaufen.


die palit 980 ti super jetstream für 636€ inkl. gutschein:)

welcher whql-treiber ist eigentlich der launchtreiber für die 980 ti?

Nightspider
2015-09-24, 20:37:52
Stimmen die anderen dem zu?

Ist die Palit GeForce GTX 980Ti Super Jetstream 2,5 Slotblenden hoch?
Hätte an sich nichts dagegen wenn die Karte fetter ist und dafür besser kühlt als die Konkurrenz.

arcanum
2015-09-24, 21:04:11
kann die karte nur empfehlen. hat halt ein niedriges power target per default (bei max. 110% 'nur' 275watt) aber bei mir reicht es z.b. aus bei allen games 1400 mhz zu halten mit asic 72%.
die kühlleistung ist überragend. die karte wird selbst im betrieb nicht wirklich laut trotz 15xxrpm und hält die karte konstant bei 75-76°c, obwohl mein gehäuse nicht gerade zum abführen von soviel abwärme konzipiert ist. nur die fehlende hysterese nervt, wodurch die lüfter ständig an- und ausspringen sobald die karte abkühlt und ~55°c unterschreitet (und dann wieder überschreitet + repeat für 2 minuten).

die oben beschriebenen erfahrungswerte können natürlich stark schwanken je nach gehäuse/belüftung und asic, allerdings bin ich mit meiner topp zufrieden und die leistung ist überragend, auch ohne 300w+ power target.

Nightspider
2015-09-24, 21:07:25
Schafft die auch 1500Mhz vom Power Target?

arcanum
2015-09-24, 21:10:01
keine chance mit meiner karte... bei vielen games renne ich bereits bei ~1430mhz chip (und 3800 mhz speicher) ins power target.

Nightspider
2015-09-24, 21:11:46
Hmmm. Na dann kann ich drauf verzichten. Mir ist es wurscht ob die Karte bei 70 oder 90°C rennt und minimal lauter ist. Hauptsache sie geht recht weit.
Dann könnte ich mir ja gleich eine günstigere Karte kaufen oder?

Matrix316
2015-09-24, 21:18:33
Tests zur Lautstärke ohne Vergleichswerte anderer Karten finde ich immer super hilfreich. :rolleyes:

"Die maximale Lüfter-Drehzahl der Gainward Karte liegt bei etwa 3400 UPM. In diesem Setting wird die Karte zwar etwas lauter und landet bei 46.41 dBA, aber dafür sinkt die Temperatur auch noch einmal in Furmark auf 62 Grad. Insgesamt ist die Karte selbst in diesem Szenario nicht übermäßig laut und deutlich leiser als viele Modelle anderer Anbieter, die zum Teil deutlich über 50 dBA liegen."

:eek:
Wobei ich noch NIE erlebt habe, dass die Lüfter mit voller Drehzahl laufen. Das kenn ich eigentlich nur von AMD Karten.:biggrin:;)

(del)
2015-09-24, 21:23:08
Die 980 Ti Lightning hat nun endlich ein neues Zuhause. :)

UxEOnxgP_yc

phoenix887
2015-09-24, 21:37:43
Die 980 Ti Lightning hat nun endlich ein neues Zuhause. :)

http://youtu.be/UxEOnxgP_yc


Wie geil ist das Video denn. Lag eben lachend auf dem Boden ;D und biste zufrieden? Ich liebe meine Lightning. Schöne Ersatzbefriedigung, wenn keine Frau da ist:D

Schreibst du noch einen Test zu Lightning?

Muss es nochmal sagen, tolles Video;D

Nightspider
2015-09-24, 21:38:52
Du hast dir eine 980ti Lightning gegönnt? Nice. Wie viel macht die?

Nubert nuPro A200 -> gute Wahl!

Was hast du für ein verrücktes (und eher hässliches) Case? :D

phoenix887
2015-09-24, 21:49:54
Wenn du mich meinst. 1490mhz bei 1.175V und 3900mhz ohnr Spannungserhöhung. Teste aber grad das 2.Bios L2N. Scheint stabiler zu sein, kann aber auch Einbildung sein.

Nightspider
2015-09-24, 22:30:11
Nein dich meinte ich nicht aber seit wann hast du die Lightning?
Verkaufst du deine alte jetzt doch noch die du mir dann doch nicht verkaufen wolltest?

Monty
2015-09-24, 22:35:40
Da jetzt die 980ti ja schon ne Zeit am Markt ist und auch einigermaßen verfügbar, mal ne kurze Frage.

Wer von euch hat denn nun die MSI Gaming 6g ? Und was haltet ihr von den Temperaturen ?

(del)
2015-09-24, 22:56:25
Du hast dir eine 980ti Lightning gegönnt? Nice. Wie viel macht die?
Nubert nuPro A200 -> gute Wahl!
Was hast du für ein verrücktes (und eher hässliches) Case? :D

Gegönnt, naja, wie man es sieht. ;) Knapp 1500, der Rest wird albern.
NuPro A200 + NuPro AW350 (sieht man unterm Tisch) - wirklich gut.
Case ist nett, kommt nächste Woche auf den Markt. Schön modular. :)

Nightspider
2015-09-24, 23:05:19
Sollten mit einer 850 Euro Karte nicht mehr als 1,5 drin sein? ^^

(del)
2015-09-24, 23:34:41
Sicher ginge mehr, aber es macht keinen Sinn.

phoenix887
2015-09-24, 23:43:01
und 1,5 gehen, vor allem nicht mit der Lautstärke unter Luft mit anderen Karten, wenn man darauf Wert legt. ist nach meiner Meinung der beste Luftkühler.

Nightspider habe sie leider schon privat verkauft:frown:

Nightspider
2015-09-24, 23:43:21
Wieso dann nicht für 150 Euro weniger eine andere kühle und schnelle Karte?

Die Lightning ist ja wirklich primär für hardcore overclocker ;)


Nightspider habe sie leider schon privat verkauft:frown:

Du Arsch. :'(

phoenix887
2015-09-25, 01:34:33
Ehrlich gesagt hatte ich nicht mehr an dich gedacht, weil du umbedingt eine in den Semesterferien wolltest und ich dachte du holst dir dann wo anders eine her. Sorry...

Warum Lightning? Weils nice to have ist eine im Rechner zu haben, und selber an der Karte wollte ich nicht rum schrauben, ist mir schonmal eine Titan Classic abgeraucht. Kann zwar nicht genau sagen, ob es an der Montage damals lag, passierte erst 3 Monate danach, aber das Erlebnis hat mir gelangt:D

Raff
2015-09-26, 17:32:34
Hmmm. Na dann kann ich drauf verzichten. Mir ist es wurscht ob die Karte bei 70 oder 90°C rennt und minimal lauter ist. Hauptsache sie geht recht weit.
Dann könnte ich mir ja gleich eine günstigere Karte kaufen oder?

1.500 MHz ist etwas, das lange nicht jede GM200-Karte schafft. Schon gar nicht mit TDPs unter 300 Watt. Man braucht schon etwas Energie und Spannung, um das in jedem Fall rockstable zu sehen. Klar, viele Sparspiele laufen mit 1.500 MHz, auch moderne Grafikbomben, wenn man in Full HD oder mit abgeriegelter Bildrate anrückt. 1.500 MHz in unsynchronisiertem UHD oder mehr schafft aber fast keine Karte rockstable, das ist gewiss. Bei der Titan X ist das wohl fast ausgeschlossen, wobei ich nicht weiß, wie sich neuere GPUs auf neuen Platinen mit AiO-Wakü verhalten.

MfG,
Raff

Schnoesel
2015-09-26, 18:44:41
Nur leider wird diese Luftnummer immer und immer wieder von Leuten in Foren herausgetragen so also ob es das selbstverständlichtse der Welt ist, die Leute trauen sich ja schon fast nicht mehr weniger als 1500 in Ihre Sig einzutragen so peinlich ist das. Wie sich die Leute in Ihre eigene Tasche lügen ist wirklich faszinierend. ;D

aufkrawall
2015-09-26, 18:53:06
Ich finds auch fragwürdig, weil 1500 vs. 1400 eigentlich nie zu bemerken sind, und Letztere laufen häufig ohne jede Spannungserhöhung.

Hübie
2015-09-26, 18:57:28
Nur leider wird diese Luftnummer immer und immer wieder von Leuten in Foren herausgetragen so also ob es das selbstverständlichtse der Welt ist, die Leute trauen sich ja schon fast nicht mehr weniger als 1500 in Ihre Sig einzutragen so peinlich ist das. Wie sich die Leute in Ihre eigene Tasche lügen ist wirklich faszinierend. ;D

Da wäre mir FuryX peinlicher. SCNR X-D

@aufkrawall: Full ack. Exakt meine Beobachtung.

Edit: Ersteres ist auf die Aussage "overclockers dream" bezogen. DAS ist in die Tasche lügen.

Schnoesel
2015-09-26, 19:12:24
In die eigene Tasche lügen wäre wenn in meiner Sig ne Fanatsiezahl als Kerntakt steht, die sie vielleicht nur Sekundenlang und mit Grafikfehlern erreicht. Meine Fury läuft@ stock und dass Sie kein OC Dream ist wie vom Lockenkopf behauptet ließ sich zu Release in jedem Review rauslesen. Da brauch ich mir selbst nix vormachen.

Hübie
2015-09-26, 19:23:49
Null acht Fuffzehn User haben nur keine Stimme =)
Ich könnte es jetzt darauf anlegen und meine Ti mal durch alles mit 1500 MHz quälen was ihr vorschlagt. Dann würde man sehen ob 1500 wirklich nicht gehen oder eben doch. Mir selbst fehlt dazu der Antrieb aus o. g. Gründen. Per se würde ich also nicht sagen dass 1500 immer in die Tasche gelogen sind, sondern am Anspruch des Besitzers angepasst sind. Bei mir muss dass tagelang laufen, ohne abzukacken. Bei anderen 5 Stunden pro Abend.

Wer weiß wie du argumentieren würdest wenn du einen GM200 hättest oder allgemein weniger Markenaffin wärst ;)

Schnoesel
2015-09-26, 19:32:41
Per se würde ich also nicht sagen dass 1500 immer in die Tasche gelogen sind, sondern am Anspruch des Besitzers angepasst sind.

Für mich ist ein Kerntakt den meine Karte nicht zu absolut jeder Gegebenheit (mal so einen Käse wie Furmark ausgenommen) erreicht und gehalten wird sprich rockstable ist nichts wert. Aber das ist meine Meinung.

Wer weiß wie du argumentieren würdest wenn du einen GM200 hättest oder allgemein weniger Markenaffin wärst

Fanboykarte Srsly?

PS: Dass 1500 nicht gehen würde habe ich auch nie behauptet nur dass es eben nicht die Regel ist wie eben von Raff bereits dargelegt.

Nightspider
2015-09-26, 19:33:06
Ich will niemanden kritisieren aber ich finds halt immer komisch wenn manche Leute 150-200 Euro mehr ausgeben für eine Version einer Karte damit sie garantiert 50Mhz mehr erreichen aber dann nicht weiter wollen. Ich mein die 5% mehr Takt (3% mehr Leistung?) machen den Kohl dann auch nicht fett.

Wenn ich das Geld hätte würde ich mir ja auch solche Varianten holen aber dann auch bis an das Limit prügeln.

TurricanM3
2015-09-26, 20:01:09
Seit dem letzten Bios-Mod (Zwischenstufen angepasst) hab ich 19h absturzfrei gezockt (BF4 & Act of Aggression). Was ich aber ab und an habe: Wenn ich aus dem Energiesparmodus aufwache, gibts sofort die "Anzeigenfehler wurde zurückgesetzt" Meldung und ShadowPlay will dann meist auch nicht mehr. Obs nun am Treiber liegt oder OC kann ich nicht sagen. Leider nicht so leicht nachstellbar. Hab kein Problem damit von Instabilitäten zu berichten. =)
Im Leben hätte ich nicht gedacht, dass der RAM so hoch geht. Die Karten davor (980, 780Ti, Titan) wollten alle keine 4000.

VooDoo7mx
2015-09-26, 20:05:00
Nur leider wird diese Luftnummer immer und immer wieder von Leuten in Foren herausgetragen so also ob es das selbstverständlichtse der Welt ist, die Leute trauen sich ja schon fast nicht mehr weniger als 1500 in Ihre Sig einzutragen so peinlich ist das. Wie sich die Leute in Ihre eigene Tasche lügen ist wirklich faszinierend. ;D

Da stimme ich dir zu.
Dies ist aber kein 980Ti Problem. Aber wie Raff schon sagte, es gibt nur wenig Boards die wirklich stabil die 1500 schaffen. Wenn man aber in foren wie Hardwareluxx geht scheint es kaum eine zu geben wo dies nicht der Fall ist und die Idioten überschlagen sich.

Man kann sagen das jedes GM200 Board ind er Regel irgendwo zwischen 1400 und 1500 landet. Was man erreicht hängt hauptsächlich von 2 sachen ab.
1. Glück
2. Maximale Power Limit was die Karte zulässt.

Bei 1,4GHz+ in 4K zieht so eine 980Ti Boards mal gerne über 300W Strom.

Hübie
2015-09-26, 20:55:13
Für mich ist ein Kerntakt den meine Karte nicht zu absolut jeder Gegebenheit (mal so einen Käse wie Furmark ausgenommen) erreicht und gehalten wird sprich rockstable ist nichts wert. Aber das ist meine Meinung.

Ganz meine Meinung.

Fanboykarte Srsly?

Ach komm. Du musst schon zugeben dass du nVidia nicht wirklich in Erwägung gezogen hast. Die 980 Ti gibt es für 650 Euro und ist klar der bessere Deal. Wenn man eine Firma nicht mag ist das okay und man muss dazu stehen.
Wenn ich mich täusche wirkst du nach außen einfach nur so. Kenne dich ja nicht persönlich ;);) Ich meine das auch in keiner Weise negativ.

PS: Dass 1500 nicht gehen würde habe ich auch nie behauptet nur dass es eben nicht die Regel ist wie eben von Raff bereits dargelegt.

Hm. Okay. Dann hab ich das falsch aufgeschnappt. Im Luxx sind natürlich viele Spinner mit zuviel Zeit und Geld unterwegs die mal eben 5 Minuten "Schnullermark" (Copyright geht an TobiWahnKenobi:biggrin:) laufen lassen und dann sagen: "Ey guck mal 1650 MHz stable - voll geil..." und alle anderen verneigen sich dann vor der Zeitverbrennung.
Neben der Modebranche ist die Benchmarkszene für mich das Unnützeste (:freak:) auf diesem Planeten. Noch vor der Howard Carpendale und Roger Rabbit.

Schnoesel
2015-09-26, 21:48:13
Ach komm. Du musst schon zugeben dass du nVidia nicht wirklich in Erwägung gezogen hast. Die 980 Ti gibt es für 650 Euro und ist klar der bessere Deal. Wenn man eine Firma nicht mag ist das okay und man muss dazu stehen.

Stimmt das hat was mit Nichtmögen zu tun.

Die GTX 980TI war sicher auch auf meinem Schirm, aber ich habe persönlich meine Konsequenz aus der Affäre mit den 3,5 GB gezogen und bin dafür bereit auf etwas höhere Performance zu verzichten (wobei mir die fehlenden 2GB VRAM mehr wehtun). Zum anderen möchte ich auf gar keinen Fall einen G-Sync Monitor, das ist für mich einfach der falsche Weg. Das habe ich für mich entschieden und damit lebe ich (ganz gut eigentlich). Sollte Nvidia wieder vernünftig werden bediene ich mich gerne auch hier wieder. Es war hier also eine politische Entscheidung meinerseits.
Die GTX 980TI ist ne Super Karte ohne echte Schwächen und imo der bessere Deal, daher wundere ich mich auch immer wieder warum viele meinen unbedingt die 1,5k Kerntakt in der Sig haben zu müssen, hat die GTX gar nicht nötig.

Ich komme nur auf diese Thema weil das eigentlich schon immer so war (auch bei ATI/AMD). Ich kann mich noch gut erinnern wie meine 8800GT schon nach 30MHZ+ platt war oder meine 7950GT oder meine HD4870, da wurden auch immer Fabelwerte gepostet und du dachtest du bist das ärmste Schwein auf der Welt weil immer ich die eine miese Karte erwischt hatte :wink: Das gleich bei Hawaii, wie viele hier auf 1200MHZ Takt gekommen sein wollen. Selbst mit + 200mv und Wakü war der Takt einfach nicht drin.

Wenn mir langweilig ist takte ich Fiji mal. Aber erst wenn es möglich ist die Spannung zu ändern und was mit HBM OC ist weiß auch noch niemand sicher.

PS: Wenn ich stärker betrunken gewesen wäre, wäre es die TI geworden. Meine Maus ist beim Kaufbutton schon drübergehovered.

gedi
2015-09-26, 23:16:53
Ich finds auch fragwürdig, weil 1500 vs. 1400 eigentlich nie zu bemerken sind, und Letztere laufen häufig ohne jede Spannungserhöhung.

Meine läuft mit 1.52G undervoltet - und jetzt :tongue: (1.175V)

Ich glaube ich bau das Scheißteil aus, da mehr als 1.4G eh nichts bringen.

akuji13
2015-09-26, 23:29:28
Und da zwischen 1400 und 1300 auch keiner zu bemerken ist nimm doch besser gleich 1200. :D

phoenix887
2015-09-26, 23:51:54
Ganz meine Meinung.



Ach komm. Du musst schon zugeben dass du nVidia nicht wirklich in Erwägung gezogen hast. Die 980 Ti gibt es für 650 Euro und ist klar der bessere Deal. Wenn man eine Firma nicht mag ist das okay und man muss dazu stehen.
Wenn ich mich täusche wirkst du nach außen einfach nur so. Kenne dich ja nicht persönlich ;);) Ich meine das auch in keiner Weise negativ.



Hm. Okay. Dann hab ich das falsch aufgeschnappt. Im Luxx sind natürlich viele Spinner mit zuviel Zeit und Geld unterwegs die mal eben 5 Minuten "Schnullermark" (Copyright geht an TobiWahnKenobi:biggrin:) laufen lassen und dann sagen: "Ey guck mal 1650 MHz stable - voll geil..." und alle anderen verneigen sich dann vor der Zeitverbrennung.
Neben der Modebranche ist die Benchmarkszene für mich das Unnützeste (:freak:) auf diesem Planeten. Noch vor der Howard Carpendale und Roger Rabbit.

Dafür bist du aber im Luxx ziemlich aktiv. Ich bin wenigstens so konsequent und habe nach meinem dortigen letzten Post nichts mehr geschrieben. Grund Schnullermark:biggrin:

Hübie
2015-09-27, 00:01:38
Viele Spinner heißt nicht alle und ich hege Hoffnung zwischen all den dummen Kommentaren auch etwas Wissen erlangen oder verbreiten zu können. ;) Außerdem hat man was zum Lachen.

cR@b
2015-09-27, 01:37:37
Und da zwischen 1400 und 1300 auch keiner zu bemerken ist nimm doch besser gleich 1200. :D

Es ist erwiesen, dass obenrum die Skalierung abspackt... also mal nicht übertreiben. ;)

akuji13
2015-09-27, 07:57:14
Es ist erwiesen, dass obenrum die Skalierung abspackt... also mal nicht übertreiben. ;)

Das hat nichts mit übertreiben zu tun, sondern damit das es mMn Blödsinn ist das mit so festen Werten zu besetzen.

Es gibt nicht nur 100er Schritte.

Der Schritt von 1300 auf 1400 ist auch schon "oben rum" und skaliert schlechter als der Bereich davor.

Da kann man auch schon sagen das man das nicht mehr richtig bemerkt.

-/\-CruNcher-/\-
2015-09-27, 08:37:44
Sollten mit einer 850 Euro Karte nicht mehr als 1,5 drin sein? ^^

Du bezahlst doch für die Shader Anzahl nicht den takt ich finde 1300 MHz ist schon ordentlich für jeden Maxwell V2 und takt ausgleichen bringt dir einfach nicht viel (ausser mehr und mehr probleme) mit den neuen und kommenden workflows ;)

Hübie
2015-09-27, 09:30:55
Eben nicht. Die Anzahl der ALUs ist bei allen 980 Ti konstant. Takt nicht. Er wollte damit nur etwas sticheln. Die Lightning wird afaik auch nicht selektiert. Die 980 Ti gibt's übrigens schon ab 650 €. ;)

Raff
2015-09-27, 10:49:09
Meine läuft mit 1.52G undervoltet - und jetzt :tongue: (1.175V)

Ein paar Karten schaffen's eben doch. ;) In welchen Einstellungen spielst du eigentlich, wie warm wird die Karte und macht sie das dank hohem Powerlimit in jeder Anwendung? :) Interessiert mich wirklich, da ich noch kein einziges Exemplar in Händen hielt, das ansatzweise 1,52 GHz mit so wenig Spannung schafft.

MfG,
Raff

(del)
2015-09-27, 12:36:01
Ich schaffe mit der 980 Ti Lightning im aktuellen Aufbau zwar auch vorgeblich prestigeträchtige Boost-Werte über 1,5 GHz, vor allem wenn man das BIOS etwas optimiert, aber eben nicht wirklich rockstable. Größere CUDA- oder OpenCL-Workflows kacken sehr schnell ab und bereiten der ganzen Pimmellängenvermesserei ein jähes (aber ehrliches) Ende, während die meisten Games noch (irgendwie) laufen. Somit sind sicher fast alle der tollen Foreneinträge von überschwänglich jubelnden Usern eher Wunschtraum statt Realität.

Im direkten Vergleich über alle 12 Karten im Archiv und die 9 weiteren, die ich im Verlaufe der Zeit im Labor hatte, lag der höchste, wirklich verlässliche und langzeitstabile Wert bei 1495 MHz, gefolgt von drei Karten mit 1485 MHz und zwei weiteren, die noch knapp über 1470 MHz lagen. Der Rest war leicht darunter. Das Power Target spielt oberhalb von 300 Watt eh keine Rolle mehr, so lange man die Spannung nicht signifikant anheben kann und gescheit mit LN2 kühlt. Wasser und Luft enden bei 1,5 GHz oder knapp darunter, Amen und Isso (je nach Religion oder atheistischer Interpretation).

Glücksfälle gibt es natürlich immer wieder, so wie bei meiner einen GTX 960, die locker über 1.6 GHz ging. Nur hatte ich bei allen anderen Karten nie wieder so ein Glück, was auch nachvollziehbar war, da es sich um ein echtes Golden Sample handelte, das man mir zum Launch unterjubeln wollte. Da ich zwei modellgleiche Karten hatte, ist mir dies ziemlich schnell aufgefallen. :D

dildo4u
2015-09-27, 12:44:37
Normalerweise sollte doch eh die Titan die besten Chips bekommen, aber natürlich ist dort das Board nicht auf massives OC ausgelegt also selbst wenn man ne Wakü draufpackt hat man Nachteile.

TobiWahnKenobi
2015-09-27, 12:54:55
die aussagen in den anstrengenderen foren beziehen sich doch eh meist auf eng begrenzte testläufe mit weniger fordernden schnullermarks ;) wirklich spannend wird es für diese generation graka, wenn DX12 auf die karten losgelassen wird. ich fiebere diesbezüglich ja schon dem 13. oktober entgegen, wenn endlich mal wieder ein spiel rauskommt, auf das ich wirklich bock habe.

was die takte angeht, so sollten wir uns im grunde einig sein, dass das immer nur momentaufnahmen sind. ein neuer treiber oder anderer patchstand des spiels können das gefüge schon ins wanken bringen. zumindest wenn man sich an der kotzgrenze des noch möglichen bewegt.

mit damals zur verfügungstehender software lag diese "kotzgrenze" meiner Ti bei 1537MHz. die 1.5GHz waren grundsätzlich überall nutzbar. ab besagten 1537MHz aufwärts musste ich schon für jedes spiel die spannungen verändern. mal mehr - mal noch mehr.

einen künstlich erzeugten workload, der unter alltagsbedingungen beim daddeln nicht auftritt, halte ich für sinnlos. ähnlich wie stundenlanges geprime auf CPUs oder das festflashen irgendwelcher frequenzen im bios der karten. was ja leider und für mich absolut unverständlich in den anstrengenderen foren populär ist.

Normalerweise sollte doch eh die Titan die besten Chips bekommen, aber natürlich ist dort das Board nicht auf massives OC ausgelegt also selbst wenn man ne Wakü draufpackt hat man Nachteile.

titanX zeigt halt recht eindrucksvoll, dass die BGA-bauform beim speicher ihren zenit erreicht hat. mit der beidseitigen bestückung hat man ihn für mein dafürhalten sogar knapp überschnitten.


(..)

mfg
tobi

Hübie
2015-09-27, 13:47:54
Normalerweise sollte doch eh die Titan die besten Chips bekommen, aber natürlich ist dort das Board nicht auf massives OC ausgelegt also selbst wenn man ne Wakü draufpackt hat man Nachteile.

Die TX bekommt alles was 3072 ALUs hat. Punkt. Da kann die ASIC 62 sein, kann aber auch 82 sein.

@Tobi:Melde doch ein Markenzeichen auf Schnullermark an X-D

(del)
2015-09-27, 14:30:20
... einen künstlich erzeugten workload, der unter alltagsbedingungen beim daddeln nicht auftritt, halte ich für sinnlos...


Ich halte Dinge wie 3ds Max (iray,V-Ray) und Octane für sehr alltagstaugliche Anwendungen, weil nicht nur ich sie sehr ausgiebig nutze. :)

TurricanM3
2015-09-27, 14:58:30
Gibts da was kostenloses von?
Wäre vielleicht ein schöner schneller OC-Test, wenn das angeblich so reinhaut? =)

cR@b
2015-09-27, 15:14:14
Der Schritt von 1300 auf 1400 ist auch schon "oben rum" und skaliert schlechter als der Bereich davor.


Ja aber eben nicht so stark wie in den Regionen ganz oben. Ab einem gewissen Takt ist der Kosten/Nutzen Faktor ebenso total im Anus... Was ich damit sagen will ist, dass viele eben "nur" ihre Sig toll aussehen lassen wollen oder gar sich etwas selbst vorlügen.

phoenix887
2015-09-27, 15:17:40
Ich bin immer ehrlich:biggrin:

Wo ist eigentlich deine Signatur hin?

cR@b
2015-09-27, 15:27:13
Ich bin immer ehrlich:biggrin:

Wo ist eigentlich deine Signatur hin?

Schreibe vom Schmartfon aus, deswegen nicht vorhanden :D Nutze meine Sig ausschließlich als Info zum System, sofern es wieder Fragen/Probleme meinerseits gibt :)

qiller
2015-09-27, 16:01:00
...
einen künstlich erzeugten workload, der unter alltagsbedingungen beim daddeln nicht auftritt, halte ich für sinnlos. ähnlich wie stundenlanges geprime auf CPUs oder das festflashen irgendwelcher frequenzen im bios der karten. was ja leider und für mich absolut unverständlich in den anstrengenderen foren populär ist.
...

Bin ich anderer Meinung, außer es ist einem die Stabilität egal und gibt sich mit weniger zufrieden.

Gute Beispiele sind dafür der FMA3-Test von Prime28.x (wenn es Anwendungen gibt, die solche Last auf CPUs erzeugen, sollte man sich eben Gedanken machen und z.B. mit Strom- oder TDP-Grenzen arbeiten, adaptive VCore nutzen oder eben im Takt/Spannung runtergehen) oder im GPU-Bereich die TDRs/CTDs auf NVidia-Karten (Spiele laufen meist rund, aber bei Alt-Tab, Ladebildschirmen oder Regionswechsel kanns Probleme geben), die auch meist mit nicht sauber ausgeloteten Spannungen/Frequenzen zusammenhängen.

Ich bin was GPU/CPU-OC (RAM-OC kneif ich mir i.d.R., da meist ein geringer Leistungsgewinn einem potentiell hohem Stabilitätsverlust gegenübersteht) angeht mittlweile dazu übergegangen, die generischen und praxisbezogen Programme in meine OC-Strategie miteinzubeziehen.

Daher läuft mein i7-4770k auch "nur" mit 4.2GHz (@120W TDP-Grenze) und die 980Ti mit 1442/3800MHz obwohl bei beiden mehr geht. Läuft für mich ausreichend stabil, egal ob ich im FF Youtube-Videos oder Twitch-Streams gucke, GPU-beschleunigt per 3DVision und SVP gesmoothe 3D-Filme gucke, Witcher 3 in 4k-DSR oder 1080p mit OBS-Streaming zocke, in Word nen Schreiben aufsetze oder einfach Prime28.5 laufen lasse.

Und ja, ich lasse Prime95, Linx oder den Intel Linpack stundenlang laufen. Das mache ich aber nur so oft, bis ich die für mich passenden Core-/Uncore-Taktfrequenzen und Spannungen herausbekommen habe. Danach läuft die Kiste für mindestens 2 Jahre so vor sich hin. Ist ja nicht so, dass ich meinen Rechner anmache, nur um den Torture-Test von Prime95 laufen lassen zu können. :rolleyes:

Und das VBios flashen, um dauerhaft keine Zusatzpogramme nutzen zu müssen oder die Fan-Kurve anzupassen, findest du sinnlos? Also ich bin froh, dass bei mir nicht mit jedem Neustart Afterburner/nvinspector/whatever-oc-tool starten muss und der GPU-Fan Ruhe gibt.

mfg Oli

TurricanM3
2015-09-27, 16:36:24
Und das VBios flashen, um dauerhaft keine Zusatzpogramme nutzen zu müssen


Das mache ich schon ewig so und ist für mich die sauberere Lösung, genau wie bei der CPU. Muss letzten Endes jeder selbst wissen ob Software oder nicht. :smile:
Ich hab so systemnahe Software auch nicht so gerne. Brauche so auch nichts upzudaten. Und wenn ich mal was ändern möchte, einfach das Bios doppel klicken, ändern und gerade auf flash ziehen, Neustart und fertig. :smile:

akuji13
2015-09-27, 16:47:25
Größere CUDA- oder OpenCL-Workflows kacken sehr schnell ab

Betrifft das eigentlich auch Dinge wie CUDA in Just Cause 2 oder ist das weil es nur "nebenher" läuft nicht fordernd genug?

(del)
2015-09-27, 17:21:42
Betrifft das eigentlich auch Dinge wie CUDA in Just Cause 2 oder ist das weil es nur "nebenher" läuft nicht fordernd genug?

Das bisschen Compute in Games ist sicher kaum ein Maßstab. Man kann aber z.B. mit Octane die Karte fast so schon aufheizen wie mit Furmark. :P

Für Octane gibt es m.E. sogar eine kostenlose Demo mit einer Testszene. Bei Nvidias iray-Plugins oder V-Ray wird es schwerer, zumal es stets eine Vollversion der unterstützenden Basissoftware voraussetzt. Für die ganze hier laufende Software hätte ich mir auch einen Zweitwagen kaufen können, denn alles bekommt man leider auch als Medienfutzi nicht kostenlos lizensiert. :(

TurricanM3
2015-09-27, 18:00:50
Das bisschen Compute in Games ist sicher kaum ein Maßstab. Man kann aber z.B. mit Octane die Karte fast so schon aufheizen wie mit Furmark. :P

Für Octane gibt es m.E. sogar eine kostenlose Demo mit einer Testszene. Bei Nvidias iray-Plugins oder V-Ray wird es schwerer, zumal es stets eine Vollversion der unterstützenden Basissoftware voraussetzt. Für die ganze hier laufende Software hätte ich mir auch einen Zweitwagen kaufen können, denn alles bekommt man leider auch als Medienfutzi nicht kostenlos lizensiert. :(


Ich hab mir die Octane Demo mal direkt geladen und ein paar Test-Szenen.
Kannst du kurz erklären wie man da eine Art Belastungstest laufen lassen kann?
Ich hab den Octane Benchmark Trench 3x hintereinander laufen lassen:

http://abload.de/thumb/unbenannt34u9j.png (http://abload.de/image.php?img=unbenannt34u9j.png)

Hast du da Erfahrungen mit?
Sonderlich warm wird die Karte nicht. Gerade mal 2-3° Delta zum Wasser.

TobiWahnKenobi
2015-09-27, 18:08:58
Bin ich anderer Meinung, außer es ist einem die Stabilität egal und gibt sich mit weniger zufrieden.

Gute Beispiele sind dafür der FMA3-Test von Prime28.x (wenn es Anwendungen gibt, die solche Last auf CPUs erzeugen, sollte man sich eben Gedanken machen und z.B. mit Strom- oder TDP-Grenzen arbeiten, adaptive VCore nutzen oder eben im Takt/Spannung runtergehen) oder im GPU-Bereich die TDRs/CTDs auf NVidia-Karten (Spiele laufen meist rund, aber bei Alt-Tab, Ladebildschirmen oder Regionswechsel kanns Probleme geben), die auch meist mit nicht sauber ausgeloteten Spannungen/Frequenzen zusammenhängen.

Ich bin was GPU/CPU-OC (RAM-OC kneif ich mir i.d.R., da meist ein geringer Leistungsgewinn einem potentiell hohem Stabilitätsverlust gegenübersteht) angeht mittlweile dazu übergegangen, die generischen und praxisbezogen Programme in meine OC-Strategie miteinzubeziehen.

Daher läuft mein i7-4770k auch "nur" mit 4.2GHz (@120W TDP-Grenze) und die 980Ti mit 1442/3800MHz obwohl bei beiden mehr geht. Läuft für mich ausreichend stabil, egal ob ich im FF Youtube-Videos oder Twitch-Streams gucke, GPU-beschleunigt per 3DVision und SVP gesmoothe 3D-Filme gucke, Witcher 3 in 4k-DSR oder 1080p mit OBS-Streaming zocke, in Word nen Schreiben aufsetze oder einfach Prime28.5 laufen lasse.

Und ja, ich lasse Prime95, Linx oder den Intel Linpack stundenlang laufen. Das mache ich aber nur so oft, bis ich die für mich passenden Core-/Uncore-Taktfrequenzen und Spannungen herausbekommen habe. Danach läuft die Kiste für mindestens 2 Jahre so vor sich hin. Ist ja nicht so, dass ich meinen Rechner anmache, nur um den Torture-Test von Prime95 laufen lassen zu können. :rolleyes:

Und das VBios flashen, um dauerhaft keine Zusatzpogramme nutzen zu müssen oder die Fan-Kurve anzupassen, findest du sinnlos? Also ich bin froh, dass bei mir nicht mit jedem Neustart Afterburner/nvinspector/whatever-oc-tool starten muss und der GPU-Fan Ruhe gibt.

mfg Oli

lies was ich schreibe und interpretiere nicht wild umher. es geht um geänderte taktfrequenzen. es gibt flaschen da draußen, die flashen einer Ti oder TX mal eben pauschale 4GHz RAMtakt.

was das cpu OT und deine einstellung zum stromverschwenden angeht: jeder wird seinen übertakteten prozessor mit irgendwas auf stabilität testen.
wer allerdings szenarien kreieren muss, um last zu erzeugen, braucht das OC doch gar nicht. wozu auch, wenn im alltag gar keine software zum einsatz kommt, die es abruft. davon ab verrät dir prime einen scheiss, was die stabilität oder zuverlässigkeit eines produktivsystems angeht. eben wie bei grakas ein firestriketakt nicht der octanetakt ist.

btw,
mein letzter CPU-wechsel liegt schon drei jahre zurück. zum testen irgendwelcher grenzen, gebe ich erst wieder senf ab, wenn es mich betrifft. dann aber nicht in einem grafikthread.

boah, tippen aufm eipäd nervt. nur weil irgendwer nicht richtig liest, breche ich mir hier 15 min die pfoten.


@igor (heisst es igor oder eigor? *gg* wer ist der wolf?)
ist "grenzbereichs"OC denn überhaupt sinnvoll bei deiner softwareumgebung? ist zwischen einer evtl. zeitersparnis und einem kruden ergebnis nicht die relation falsch? es deutet ja auf ein produktivsystem und nicht auf ein spiel, wo drei frames zum sync fehlen.


(..)

mfg
tobi

Hübie
2015-09-27, 18:59:57
Mal in die Runde gefragt:
Habt ihr beim BIOS-Mod auch GPC, L2 und XBAR angehoben? Hab das alles pro Forma mal auf 1200 gesetzt, aber noch nix geflasht. Weiß noch nicht mal ob ich es überhaupt mache.
Könnte sich jemand das BIOS auch mal ansehen ob alles "okay" ist?

qiller
2015-09-27, 19:13:46
lies was ich schreibe und interpretiere nicht wild umher...


Sry, dass ich dich missverstanden hatte, dachte du bist generell gegen das Flashen des VBios. Ich hab meine OC-Frequenzen übrigens auch geflasht. Aber wie ich an deinem unpassenden Stromverschwendungs-Vergleich (Wenn man alle paar Jahre seine neue CPU durchtestet, ist man also ein "Stromverschwender". Und diese Aussage in einem 980Ti-Thread... :rolleyes:) sehe, bist du eben anderer Meinung.

mfg Oli

(del)
2015-09-27, 22:30:26
Grenzbereichs-OC ist eigentlich Schwachsinn. Ich nutze im Produktivbereich NIE übertaktete Sachen, aber viele der vorhandenen Programme, um den Grenzbereich Just4Fun auf Stabilität zu testen.

Unterm Strich ist eine Quadro M6000 unter Last voll aufgewärmt z.B. nur 10 MHz langsamer als eine Titan X @Stock. Gut, die Titan X kannst Du übertakten, aber viel kommt dabei auch nicht mehr rum. Am Ende des Tages ist durch den Taktvorsprung auch nicht signifikant mehr Arbeit fertig geworden. Nur der Raum heizt sich halt mehr auf. Dann besser ohne OC mit Originalhardware :P

Und bitte: Igor. :D

TurricanM3
2015-09-28, 20:30:06
Also der Octane-Benchmark läuft hier selbst mit 1575/4300 und Standardspannung.

http://abload.de/thumb/unbenannt0qap3.png (http://abload.de/image.php?img=unbenannt0qap3.png)

3DMark Firestrike läuft so nicht mal 2 Sek.

gedi
2015-09-28, 23:44:39
Da du noch immer auf Stabilität aus bist: F1 2015 - zu starkes GPU-OC in Relation zur Vcore mündet in Treiberresets, zu starkes Vram-OC in nicht mehr vorhandene Texturen. Heizt ebenfalls ordentlich und legt hier und da schön Power auf die CPU.

Vielleicht kannst du ja sehr günstig einen Key ergattern - was natürlich nur lohnt, wenn du Rennspiele magst. Die Grafik empfinde ich persönlich als sehr okay :)

TurricanM3
2015-09-29, 00:01:32
Thx, aber ich mag die Königsklasse nicht so, eher Straßenfahrzeuge / GT3. :/
Bin nun wieder bei ca. 25 Spielstunden ohne Absturz. Mal sehen. Letzte Änderung war ja das Anheben der Zwischenstufen auf original Spannung.

Ich hab ja ganz selten zwischendurch so komischen Taktraten:
1328.9, 2097.9, 1.0370v (Zwischenstufen nicht angepasst)

Sie legt laut log nun da schon die Standardspannung an:
1328.9, 2097.9, 1.1870v

Nur zur Info. Vielleicht für den ein oder anderen interessant.

Hübie
2015-09-29, 01:41:42
Ich möchte noch einmal auf meinen Beitrag hinweisen, da noch keine Antwort kam. =)

Mal in die Runde gefragt:
Habt ihr beim BIOS-Mod auch GPC, L2 und XBAR angehoben? Hab das alles pro Forma mal auf 1200 gesetzt, aber noch nix geflasht. Weiß noch nicht mal ob ich es überhaupt mache.
Könnte sich jemand das BIOS auch mal ansehen ob alles "okay" ist?

Zieht ihr die externen Taktraten mit hoch? Gibt es da Erfahrungswerte? Bringt wahrscheinlich nix außer ein ruhiges Gewissen, aber wollte halt mal nachfragen.

phoenix887
2015-09-29, 11:18:10
Ich möchte noch einmal auf meinen Beitrag hinweisen, da noch keine Antwort kam. =)



Zieht ihr die externen Taktraten mit hoch? Gibt es da Erfahrungswerte? Bringt wahrscheinlich nix außer ein ruhiges Gewissen, aber wollte halt mal nachfragen.

In dier BIOS Mod Anleitung von PCGH zur Titan X und GTX 980 Non-Ti, wird empfohlen das zu machen. Aber warum kann ich dir nicht sagen. Dann eher Raff.

qiller
2015-09-29, 15:42:04
Also selbst das hochgezüchtete Original Bios der Zotac Amp Extreme! hat für GPC, L2 und XBAR die Standardwerte einer Referenz-Karte. Warum soll man da was ändern?

Hübie
2015-09-29, 15:45:53
Weil die Intercoms eine Menge Datenverkehr machen und man so Bandbreite erhöht. Könnte also etwas bringen. Hat nur noch nie jemand getestet :biggrin:
Auf welche Werte habt ihr das denn?

qiller
2015-09-29, 16:32:03
GPC/XBAR/L2C: 1190/1080/1080

PS: Oder meintest du die Min-/Max-Werte in den Boost-States?

Hübie
2015-09-29, 16:38:18
Also Standard. Danke. Werd heut abend vielleicht mal flashen. Den Takt habe ich erst mal konservativ gewählt, da ich weiß was die Karte kann. So will ich feststellen ob GPC/L2/XBAR stabil laufen. =)
Mal sehen was passiert.

qiller
2015-09-29, 16:52:34
Na da bin ich ja mal gespannt. Allerdings bezweifel ich große Performance-Sprünge.

Hübie
2015-09-29, 18:19:07
Ich erwarte da auch nicht vielleicht holt man so noch etwas Potenzial heraus, ohne dass es sich krass auf die Energiebilanz auswirkt.;)

TurricanM3
2015-09-29, 18:38:49
Ich hab nur den P02 RAM-Takt auf P00 angehoben wegen CUDA-Senkung. Sonst nichts.

Wann flashst denn das mal? Sonst mach ichs gerade, bin da ziemlich schmerzfrei. :freak:

EDIT:
Bin von 1190/1080/1080 mal einfach auf 1250/1150/1150 hoch und die Karte läuft gerade Firestrike. Lasse mal paar min. laufen und erhöhe dann schrittweise. Mal schauen ob das mehr Points gibt.

aufkrawall
2015-09-29, 18:54:47
Ich hab nur den P02 RAM-Takt auf P00 angehoben wegen CUDA-Senkung. Sonst nichts.

Damit wär ich allerdings vorsichtig. Bei Spielen mit PhysX läuft das wohl, aber andere Cuda/OpenCL-Anwendungen können dann schon mal den Treiber crashen.

TurricanM3
2015-09-29, 19:07:28
Firestrike schwankt leider ziemlich in den Ergebnissen, ich hatte aber den höchsten Punktwert eben. 1290/1180/1180 liefen nun ein paar runs durch. Werde mal weiter erhöhen.

@aufkrawall
Ich habe das primär wegen dem ShadowPlay-Bug gemacht. Siehe hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10787270#post10787270

Octane läuft selbst mit 4300 noch. Würde ja gerne was testen um die Karte zum crashen zu bringen, aber da gibts wohl nichts kostenlos? Ich kann ja gerade runterflashen wenns dann doch abschmiert.

TurricanM3
2015-09-29, 23:40:23
1450/1350/1350 laufen auch, aber das bringt nichts. Kriege nicht mehr Punkte so. Wie sind deine Tests Hübie?

Achso, hier mal der Unterschied von 1400/3900:
http://abload.de/img/1400_3900_1440p36uql.png (http://abload.de/image.php?img=1400_3900_1440p36uql.png)

Zu 1500/4200:
http://abload.de/img/1500_4200_1440pj7uk5.png (http://abload.de/image.php?img=1500_4200_1440pj7uk5.png)

Auch wenn die Skalierung obenrum abnehmen mag, die knapp 10% nehme ich sehr gerne kostenlos mit. Finde ich keinesfalls unerheblich. Gerade in BF4 finde ich den Unterschied von 95 zu 105fps deutlich spürbar. :smile:

Hübie
2015-09-30, 00:29:55
So. Hatte heute die Zeit das zu flashen. Also es macht irgendwie keinen Unterschied. Hab aber irgendwie die Lüfterkurve geändert, ohne da Werte verstellt zu haben :|
Also mit 1212 mV gehen 1450. 1467 sind mir abgeschmiert. Temperatur war bei 75°C und Takt festgenagelt.
Also ich werde wohl wieder die Spannung auf 1187 mV bei 1418 MHz setzen. Dann mal langsam an GPC/L2/XBAR-OC rangehen und schauen was da max geht und mal Performance vergleichen. Melde mich dann.

Ich plage mich gerade mit Windows 10 herum. Baustelle hoch drei. Plötzlich geht kein rechtsklick auf Icons in der Taskbar und kein Startmenue mehr :confused:
Visual Basic spukt mir auch beim Start immer einen Fehler aus und is allgemein ne kleine Katastrophe. Also dauert es noch ein wenig =)

Edit: Warum hab ich 3958 Punkte in Full HD und du deutlich weniger? :|

http://www.abload.de/thumb/0iui8.jpg (http://www.abload.de/image.php?img=0iui8.jpg)

Edit. Haha. Gedreht X-D Sorry.

TurricanM3
2015-09-30, 00:45:22
Ist 1440p mit Extreme preset bei mir. Frag mich nicht warum er dort so einen Unsinn anzeigt. Du hast aber mit Valley getestet, ich Heaven.

Verwechsle ich dich? Ich dachte deine 77er ASIC Karte würde 1500 packen, oder womit hast sie nun zum abschmieren gebracht?

Hübie
2015-09-30, 00:49:57
Bei 1500 brauche ich 1237 mV :( ASIC 77,4%. Rennt bis 1420 MHz mit 1187. Danach wirds pervers mit Spannung.

Heaven hab ich noch nicht in 1440p. Mach ich sobald der Desktop hier mal fertig ist :D

phoenix887
2015-09-30, 01:33:00
Bei 1500 brauche ich 1237 mV :( ASIC 77,4%. Rennt bis 1420 MHz mit 1187. Danach wirds pervers mit Spannung.

Heaven hab ich noch nicht in 1440p. Mach ich sobald der Desktop hier mal fertig ist :D

Komisch. Habe 77,8 Asic. Und kann 1490/3900 ohne Spannungserhöhung fahren, also mit 1,175V. Scheint das PCB der Lightning schon was zu bringen bzw. das L2N Bios:freak:

TurricanM3
2015-09-30, 01:45:36
Mich wundert dein Ergebnis auch ein wenig bei der ASIC, Hübie. Hast mal gelogt und die Werte nach Absturz angeschaut? Wie viel PT kriegt deine Karte? 325W haben bei mir nicht gereicht.

Schönes Ergebnis Phoenix!

Hübie
2015-09-30, 01:49:07
Wenn das PT nicht reicht müsste der das doch drosseln und anzeigen, oder? :|
Hab ja zwei Monitore und sehe auf dem zweiten immer die Werte. Der Takt und die Spannung bewegen sich Null. PT ist stets <105%. Eher 95%. Hab Valley einfach eine ganze Weile laufen lassen. Das PCB der Strix steht dem der Lightning wohl kaum nach. ;)

Kann noch kein neues BIOS flashen. Übernehme gerade den Besitz von 580.000 Dateien :freak: Das dumme ist ich habe vergessen die Option mit reinzunehmen, dass links nicht verfolgt werden. Also wirds noch ne ganze Menge mehr. Das kann dauern.

Edit: Das BIOS im Anhang möchte ich als nächstes flashen.

phoenix887
2015-09-30, 02:20:47
Dann eben die Military Class Kompenenten auf dem PCB. Mache nur Spass;)

Aber bei dem Asic bin ich aber trotzdem verwundert.

@Turrican

Bin ich mit zufrieden und zocke nur noch. Besonders bei der Lautstärke und Temps, bin ich von der Lightning begeistert. Hatte ja mal eine mit AiO da, und die war kaum besser. Klar Fullcover ist dann nochmal ne andere Liga wie bei dir.

PS: Sehe ich eben erst gerade. Schöne Bilder vom PC. Richtig sexy. Hätte ich nur auch so ein Talent bei der Kabelführung :freak:

Hübie
2015-09-30, 02:44:42
Sind die gleichen nur andere Aufkleber bzw. anderer Aufdruck. Marketing bling bling. =) Die Lightning ist dennoch ein Sahnehäubchen. Klar.

phoenix887
2015-09-30, 02:48:25
Ich weiss doch :) Wäre ich dem Marketing nicht zum Opfer gefallen, hätte ich auch die G1 behalten. Aber mit dem Kühler und dem Certifikat über die Military Kompenenten, fühlt es sich einfach wertiger an am PC:freak::freak::freak:

Hübie
2015-09-30, 03:32:30
Ich frage mich eh wie man sich für Gigabyte entscheiden kann. Meine persönlichen Erfahrungen (Umkreis mit eingeschlossen) lassen nicht viel gutes an denen. Von daher freue ich mich mit dir dass du bei dem besseren Produkt gelandet bist. :up:
Wäre die Lightning etwas früher gekommen hätte ich sie mir geholt. Eindeutig die beste Lukü-980 Ti. K1ngpin lass ich mal weg. Kühler ist eh suboptimal.

Hab jetzt mal eben aus der Windows Reparatur-Konsole noch das BIOS geflasht :biggrin: Konnte nicht widerstehen. Teste das gleich mal am frischen Windows. Irgendwie geht Zocken und Arbeiten nicht an einem PC mit einem Benutzerkonto :(

Hübie
2015-09-30, 06:27:55
1450/1350/1350 laufen auch, aber das bringt nichts. Kriege nicht mehr Punkte so. Wie sind deine Tests Hübie?

Achso, hier mal der Unterschied von 1400/3900:
http://abload.de/img/1400_3900_1440p36uql.png (http://abload.de/image.php?img=1400_3900_1440p36uql.png)

Zu 1500/4200:
http://abload.de/img/1500_4200_1440pj7uk5.png (http://abload.de/image.php?img=1500_4200_1440pj7uk5.png)

Auch wenn die Skalierung obenrum abnehmen mag, die knapp 10% nehme ich sehr gerne kostenlos mit. Finde ich keinesfalls unerheblich. Gerade in BF4 finde ich den Unterschied von 95 zu 105fps deutlich spürbar. :smile:

Ne du. Das ist nie und nimmer dein score in 1440p. Hab das nachgestellt. 1440p sind 1500+ Punkte. 1067p, so wie du es hast, sind etwa 1600 Pkt.

http://abload.de/thumb/heaven_scoredep3r.png (http://abload.de/image.php?img=heaven_scoredep3r.png)

Das kommt wenn man den "Fokus" vom Fenster verliert. DSR geht nur in exclusive fullscreen und eben aktives Fenster (Fokus). Hast wohl während es lief etwas anderes angeklickt oder aktiv gehabt. Dann kommt sowas bei raus. :smile:

(del)
2015-09-30, 06:46:13
So, meine 980 Ti Lightning hängt jetzt an der Wand :D Das macht sie nicht schneller, aber wenigstens sieht sie jetzt gleich jeder ;)

http://media.bestofmicro.com/W/H/529937/gallery/Wall-Mount-Done_w_755.jpg

Robspassion
2015-09-30, 09:24:46
So, meine 980 Ti Lightning hängt jetzt an der Wand :D Das macht sie nicht schneller, aber wenigstens sieht sie jetzt gleich jeder ;)

http://media.bestofmicro.com/W/H/529937/gallery/Wall-Mount-Done_w_755.jpg

Richtig Sexy!

Nice

akuji13
2015-09-30, 09:28:26
Furchtbar! :D
Die ganzen sichtbaren Kabel und Schläuche, dazu das design der Karte. :eek:

Handwerklich aber top, das würde ich auch gerne können. =)

phoenix887
2015-09-30, 09:29:01
@Hübie

Weil es die erste Custom Karte war an die ich dran gekommen bin. Habe aber drauagelernt für Pascal. Ruhig bleiben und Reviews von Format C abwarten:freak:

@Format C

Du bist so schön sympathisch verrückt:DD

@Akuji

Warum schreckliches Design? Ich kann im Gesamtbild sogar ein Robotorgesicht erkennen ;)

TurricanM3
2015-09-30, 09:31:23
Ne du. Das ist nie und nimmer dein score in 1440p. Hab das nachgestellt. 1440p sind 1500+ Punkte. 1067p, so wie du es hast, sind etwa 1600 Pkt.

http://abload.de/thumb/heaven_scoredep3r.png (http://abload.de/image.php?img=heaven_scoredep3r.png)

Das kommt wenn man den "Fokus" vom Fenster verliert. DSR geht nur in exclusive fullscreen und eben aktives Fenster (Fokus). Hast wohl während es lief etwas anderes angeklickt oder aktiv gehabt. Dann kommt sowas bei raus. :smile:


Ja war windowed, steht ja auch da. Mir gings ja nicht um Punkte sondern den Unterschied zwischen 1400/1500 weil hier ja geschrieben wurde das bringe nichts. Der Unterschied stimmt trotzdem. =)

Hübie
2015-09-30, 09:41:25
So, meine 980 Ti Lightning hängt jetzt an der Wand :D Das macht sie nicht schneller, aber wenigstens sieht sie jetzt gleich jeder ;)

http://media.bestofmicro.com/W/H/529937/gallery/Wall-Mount-Done_w_755.jpg

Da hatta uffjeräumt und macht sich dit jemütlich :up: :D Zockst du auch mal Multiplayer? :naughty: Würde gern mal mit Opi in den Ring steigen. (Spaß)


B2t:
Ich check was nicht. Ich habe im BIOS 1187 mV und 1392 MHz. Der Takt geht wie gewollt auf 1405 MHz, aber die Spannung sollte nicht hoch. Ist jetzt aber bei 1193. Wie läuft das mit der Boost-Tabelle? Muss ich die "synchron" zu meinem Basis-Takt halten?
Insgesamt bin ich jetzt sehr zufrieden. 2 Stunden Witcher 3, eine Stunde Heaven & Valley in der Schleife, eine Stunde CUDA-Z heavy load + RTHDR parallel und halbe Stunde Diablo III liefen einwandfrei. Leiser als zuvor, und dafür 3 Grad wärmer.
Die Einbrüche in der Auslastung ist die Map in Witcher 3:
http://abload.de/thumb/oc_testffsrl.png (http://abload.de/image.php?img=oc_testffsrl.png)

In Diablo III hatte ich einmal einen Hänger von ~3 Sekunden. Keine Ahnung was das war :confused: Spiel ging dann weiter.

@TurricanM3: Mach das mal in Far Cry 4, Assassins Creed Black Flag / Unity, Diablo III, Two Worlds 2, GTA V und The Witcher 3. Da ist der Unterschied <10%. Eher 5%. Da du aber ne Wakü hast, hast du andere Prioritäten ;)

phoenix887
2015-09-30, 09:53:07
Ne, glaube mich zu erinnern, das Format C kein Multiplayer spielt, hat er mal irgendwo geschrieben, wenn ich jetzt nichts verwechsle.

Spiele auch kein Multiplayer, obwohl ich erst "33", ist mir zu hektisch, kostet zuviel Zeit usw.

Spiele lieber im Singleplayer in Ruhe, wann ich will und mit dem Tempo das ich will:D

akuji13
2015-09-30, 10:00:17
Warum schreckliches Design?

Das Gelb/Schwarz trifft nicht meinen Geschmack. ;)

(del)
2015-09-30, 10:04:24
Da hatta uffjeräumt und macht sich dit jemütlich

Der Schreibtisch ist IMMER aufgeräumt, der Rest je nach Fortschritt der meist parallel abzuarbeitenden Projekte. Im Raum stehen ja noch 4 Computer. Das Einzige, was ich entfernt habe, ist das Gin-Tonic-Glas. Abends bin ich Workalcoholic :P

Gezockt wird übrigens an dem da:
http://media.bestofmicro.com/Y/N/478175/gallery/Intro_w_600.jpg
http://media.bestofmicro.com/Z/H/478205/gallery/Tubes-02_w_600.jpg

Unordnung könnte ich mir zeitlich gar nicht leisten. Ich kloppe neben meiner Arbeit im Labor immerhin jeden Monat noch 8 Artikel für Tom's. Da wären Chaos und vertane Zeit durch sinnlose Suchaktionen echt mein Untergang :D

Hübie
2015-09-30, 10:07:35
Ich geh kaputt :D Du hast echt ein Händchen für ausgefallene Sachen. Was ist denn da verbaut dass du die Lightning links liegen lässt :O

cR@b
2015-09-30, 10:11:46
Ja war windowed, steht ja auch da. Mir gings ja nicht um Punkte sondern den Unterschied zwischen 1400/1500 weil hier ja geschrieben wurde das bringe nichts. Der Unterschied stimmt trotzdem. =)

Leider ist das nicht 1:1 auf alle Spiele übertragbar ;) Aber mit deinen Voraussetzungen würde ich auch @ 1500 fahren nur nachträglich der Aufwand umzurüsten, würde sich für mich definitiv nicht lohnen. 1450 schaffen die Meisten mit dem gm200 und da ist der Unterschied nochmals geringer...

phoenix887
2015-09-30, 10:18:23
Leider ist das nicht 1:1 auf alle Spiele übertragbar ;) Aber mit deinen Voraussetzungen würde ich auch @ 1500 fahren nur nachträglich der Aufwand umzurüsten, würde sich für mich definitiv nicht lohnen. 1450 schaffen die Meisten mit dem gm200 und da ist der Unterschied nochmals geringer...

Glauben ne Titan X mit 1450mhz, ist sowieso schneller als ne GTX 980 Ti mit 1500mhz.

(del)
2015-09-30, 10:19:16
Ich geh kaputt :D Du hast echt ein Händchen für ausgefallene Sachen. Was ist denn da verbaut dass du die Lightning links liegen lässt :O

Zwei 980er Strix samt Asus Mod-BIOS im SLI und ein 5960X @4.5 GHz. Das Teil haut unter Last mit allen zwei im Tisch verbauten PCs weit über 700 Watt in die Umgebung - schön für die kalte Jahreszeit. Nix für den Sommer. :P

Glauben ne Titan X mit 1450mhz, ist sowieso schneller als ne GTX 980 Ti mit 1500mhz.
Ist sie definitiv ;)

cR@b
2015-09-30, 11:03:27
Glauben ne Titan X mit 1450mhz, ist sowieso schneller als ne GTX 980 Ti mit 1500mhz.

Ja mag sein :D aber auch kaum der Rede wert. Mir gings nur darum, dass diese schlecht Macherei von Karten unter 1500 im Luxx z.B. total Banane sind! Hier gehts um Frames Unterschiede, die man nur messen und nicht spüren kann. Und ob ich jetzt 25fps oder 30fps habe, fühlt sich Beides kacke an :ugly:

TurricanM3
2015-09-30, 11:11:05
Ja und hier werden 1500 schlecht gemacht. :biggrin:
Ich finde den Unterschied durchaus lohnenswert. Hatte FC4 einen integrierten Benchmark? Würds ungern umsonst laden. Werde da vielleicht noch das ein oder andere Szenario testen.

B2t:
Ich check was nicht. Ich habe im BIOS 1187 mV und 1392 MHz. Der Takt geht wie gewollt auf 1405 MHz, aber die Spannung sollte nicht hoch. Ist jetzt aber bei 1193. Wie läuft das mit der Boost-Tabelle? Muss ich die "synchron" zu meinem Basis-Takt halten?
Insgesamt bin ich jetzt sehr zufrieden. 2 Stunden Witcher 3, eine Stunde Heaven & Valley in der Schleife, eine Stunde CUDA-Z heavy load + RTHDR parallel und halbe Stunde Diablo III liefen einwandfrei. Leiser als zuvor, und dafür 3 Grad wärmer.
Die Einbrüche in der Auslastung ist die Map in Witcher 3:
http://abload.de/thumb/oc_testffsrl.png (http://abload.de/image.php?img=oc_testffsrl.png)

In Diablo III hatte ich einmal einen Hänger von ~3 Sekunden. Keine Ahnung was das war :confused: Spiel ging dann weiter.

@TurricanM3: Mach das mal in Far Cry 4, Assassins Creed Black Flag / Unity, Diablo III, Two Worlds 2, GTA V und The Witcher 3. Da ist der Unterschied <10%. Eher 5%. Da du aber ne Wakü hast, hast du andere Prioritäten ;)


Hübie, das mit den Spannungen ist eigentlich relativ einfach. Im Luxx hatte ich gefragt und mir meins entsprechend gemoddet. Ist auch hier zu finden das Bios. Die Karten legen nicht genau die gesetzte Spannung an, manche over- andere undervolten. Musst halt schauen und dann einfach entsprechend setzen. Wenn du sowieso schon die Voltage Table änderst, würde ich in dem Schritt auch direkt die Zwischenstufen original setzen.

Dural
2015-09-30, 11:29:11
Generell wird Maxwell ab ca. 1500MHz recht Ineffizienz, Takt variiert je nach Anwendung. Die Bandbreite geht halt langsam aus und zweitens geht der Verbrauch ab diesem Takt extrem in die höhe.

Ich denke die meisten Karten laufen mit 1450/1900MHz recht anständig und Sinnvoll.

cR@b
2015-09-30, 11:31:30
@Turri

Schlecht gemacht nicht aber man sollte sich halt die Frage stellen bzgl. Kosten/Nutzen Faktor. Einige brauchen für 1500 mehr als 1,2V und ne Wakü, andere wiederum nicht. Ich mit meiner Ref. Kühlung will in jedem Fall wegen den paar % Mehrleistung nichts riskieren. Die Karte soll ja irgendwann verkauft werden und nicht abrauchen ;)

Niall
2015-09-30, 11:43:08
Phoa Jungs ich hätte auch so Bock meine 780 ti gegen eine 980 Ti unter Wasser zu tauschen. Ich ertappe mich schon wieder ständig beim lesen von Reviews und Co. Aber mal eben locker 800 Tacken inkl. Kühler auf den Tresen zu legen nur für DSR / SGSSAA / mehr Speicher und Co. sind mir echt ein bisschen happig. :freak:

Was würde man für eine Gainward Phantom 780 Ti inklusive EKWB CSQ Full Cover (Nickel) und EKWB Backplate noch bekommen? :D

Hübie
2015-09-30, 12:58:49
Ich tippe mal 300 Euro ins Blaue. Die Palit Jetstream ist leise und kostet 650 €. Plus Wakü 770€. 300 abziehen... Also geht doch :freak:

Und jetzt wo du hier bist fällt mir ein dass ich seit Tagen eine Freundschaftsanfrage von dir im Rockstar Games Social Club habe. Die nehm ich nur an wenn du Jensen dein Geld hin wirfst :biggrin:

Robspassion
2015-09-30, 14:26:03
Phoa Jungs ich hätte auch so Bock meine 780 ti gegen eine 980 Ti unter Wasser zu tauschen. Ich ertappe mich schon wieder ständig beim lesen von Reviews und Co. Aber mal eben locker 800 Tacken inkl. Kühler auf den Tresen zu legen nur für DSR / SGSSAA / mehr Speicher und Co. sind mir echt ein bisschen happig. :freak:

Was würde man für eine Gainward Phantom 780 Ti inklusive EKWB CSQ Full Cover (Nickel) und EKWB Backplate noch bekommen? :D


Naja aber der Sprung in der Performance von einer 780ti zur 980ti sind doch mal mindestens 40-45% mehr FPS je nach Spiel. Und mit 3 GB Vram geht eigentlich auch nicht mehr viel oder? Ok kommt auf die Auflösung drauf an. Ich merke bei meiner Krüppel 970 an vielen Stellen, dass da der Vram nicht reicht und der Nvidia Treiber auf Teufel komm raus versucht das irgendwie auf 3,5 GB zu begrenzen. Das ist einfach nicht so prall. Daher muss die 980ti her :D

Niall
2015-09-30, 14:34:43
Ich tippe mal 300 Euro ins Blaue. Die Palit Jetstream ist leise und kostet 650 €. Plus Wakü 770€. 300 abziehen... Also geht doch :freak:

Und jetzt wo du hier bist fällt mir ein dass ich seit Tagen eine Freundschaftsanfrage von dir im Rockstar Games Social Club habe. Die nehm ich nur an wenn du Jensen dein Geld hin wirfst :biggrin:

Sind immer noch 470 Euro. :D
Halb so wild, habe es seit längerem nicht mehr online gespielt. ;)

@Robspassion
Ja, die Perfomance ist schon in Bereichen in denen es vor mir selbst zu rechffertigen wäre. Speichertechnisch passt es *meistens* noch, da ich idR über den TV spiele und wenn nicht, der Monitor auch nur 1920x1200 hat. Ich muss nachdenken. ...und wir wissen alle wo das in spätestens einem Monat endet. :freak:

BlacKi
2015-09-30, 15:10:46
Was würde man für eine Gainward Phantom 780 Ti inklusive EKWB CSQ Full Cover (Nickel) und EKWB Backplate noch bekommen? :D

340-350€ ohne die wakü teile. vl 400€ zusammen? du hast vor 2 jahren sicherlich auch knapp 800€ auf den tisch gelegt für die karte.

mal ne andere frage, was schätzt ihr ist die 980 ti nächstes jahr nach dem erscheinen von gp104 und big pascal noch wert?

mehr als 400 oder gar mehr als 500€?

TobiWahnKenobi
2015-09-30, 15:20:08
wahrscheinlich etwas weniger als die dann aktuelle mittelklasse neu kostet. kommt aber auch ein bisschen darauf an, was für pferdefüße sich noch mit der aktuellen maxwell v2 generation in der freien wildbahn unter nativem DX12 auftun.


(..)

mfg
tobi

Hübie
2015-09-30, 15:22:36
Das ist schwer zu sagen, denn am Beispiel GTX 780 Ti <-> GTX 970 kann man sehr gut sehen, wie schnell ein Preisgefüge zerstört wird, wenn die Performance stimmt und obendrein der Preis attraktiv ist. Ich sag zu Release der 970, 780 Ti-Karten für 280 Euro weggehen.
GP104 dürfte nach GP100 kommen und der 980 Ti nicht so gefährlich werden, dass dies preislich ins Bodenlose rutscht. Also sind 450 Euro durchaus realistisch, wenn wir nicht von einer Stock-Ti zu Release reden ;)

BlacKi
2015-09-30, 15:23:22
wahrscheinlich etwas weniger als die dann aktuelle mittelklasse neu kostet. kommt aber auch ein bisschen darauf an, was für pferdefüße sich noch mit der aktuellen maxwell v2 generation in der freien wildbahn unter nativem DX12 auftun.


(..)

mfg
tobi
godmode schreibt von +30% mehrleistung gegenüber gm200. viel mehr als 400€ kann man für ne 980ti nichtmehr rechnen.

Das ist schwer zu sagen, denn am Beispiel GTX 780 Ti <-> GTX 970 kann man sehr gut sehen, wie schnell ein Preisgefüge zerstört wird, wenn die Performance stimmt und obendrein der Preis attraktiv ist. Ich sag zu Release der 970, 780 Ti-Karten für 280 Euro weggehen.
GP104 dürfte nach GP100 kommen und der 980 Ti nicht so gefährlich werden, dass dies preislich ins Bodenlose rutscht. Also sind 450 Euro durchaus realistisch, wenn wir nicht von einer Stock-Ti zu Release reden ;)
machen es die 20-30€ die man dafür mehr bekommt den bock wirklich fett?

Hübie
2015-09-30, 15:25:49
Das kommt auf die Zeitspanne an.
Und godmode tippt auch nur ins Blaue ;)

Godmode
2015-09-30, 17:44:20
Zwei 980er Strix samt Asus Mod-BIOS im SLI und ein 5960X @4.5 GHz. Das Teil haut unter Last mit allen zwei im Tisch verbauten PCs weit über 700 Watt in die Umgebung - schön für die kalte Jahreszeit. Nix für den Sommer. :P


Ist sie definitiv ;)

Ich lasse meine 1000W einfach in den Abfluss, weil das heizt mein Büro nur unnötig auf. ;D

Naja aber der Sprung in der Performance von einer 780ti zur 980ti sind doch mal mindestens 40-45% mehr FPS je nach Spiel.

Laut CB sind es 50% beim damaligen Launchtest im Schnitt.


Das kommt auf die Zeitspanne an.
Und godmode tippt auch nur ins Blaue ;)

50% mehr ALUs
etwas mehr Takt
hier und da eine kleine Optimierung
= 30%

aufkrawall
2015-09-30, 18:01:02
50% mehr ALUs
etwas mehr Takt
hier und da eine kleine Optimierung
= 30%
Da sollte mehr rauskommen, die Titan X ist bei gleichem Takt ja auch mehr als 30% schneller als die 980, und das ganz ohne Architektur-Optimierungen.

Godmode
2015-09-30, 18:03:17
Da sollte mehr rauskommen, die Titan X ist bei gleichem Takt ja auch mehr als 30% schneller als die 980, und das ganz ohne Architektur-Optimierungen.

Er redet von GP104 und nicht GP100.

aufkrawall
2015-09-30, 18:05:51
Es gab doch schon Anzeichen, dass auch der 104er Chip wahrscheinlich HBM haben wird?
Zur Not kann man auch immer noch die Caches weiter aufpumpen, siehe GM107.
Ich sehe keinen Grund, warum der kleinere Chip mit den von dir spekulierten Specs nur so schwach zulegen sollte.

TobiWahnKenobi
2015-09-30, 18:11:46
naja, salamitaktik nicht vergessen. @stock knapp schneller als die alte top-riege @ max OC wäre ja erstmal genug.


(..)

mfg
tobi

InsaneDruid
2015-09-30, 18:34:07
So, meine 980 Ti Lightning hängt jetzt an der Wand :D Das macht sie nicht schneller, aber wenigstens sieht sie jetzt gleich jeder ;)

http://media.bestofmicro.com/W/H/529937/gallery/Wall-Mount-Done_w_755.jpg

Ich werde nie verstehen warum man sich einen Rechner nebens Ohr hängt/stellt. Und wenns geht noch blinking lights, damit das Auge genauso angenervt wird.

Olle Tombman wusste den einzig wahren Weg: Der Rechner gehört in ein anderes Zimmer.

BlacKi
2015-09-30, 18:40:23
nicht jeder hat ein gäste wc, und manche nutzen ihr gäste wc als wc^^ und dem rechner extra ein zimmer zu reservieren hat schon was dekadentes an sich^^

(del)
2015-09-30, 19:18:15
@Insane Druid:
Lüfter auf inzwischen 600 rpm sind oben genau so leise wie unterm Tisch. Die Illumination ist mit einem einzigen Tastendruck aus - ich sehe da keinen Widerspruch :)
Um in meinem Auto die ganzen standardmäßig installierten LED zu zügeln, muss ich mich durch zwei Menüs hangeln. PC geht schneller...

TurricanM3
2015-09-30, 20:11:00
Ich hab mal BF4 ohne Limiter getestet noch.

1400/3900:
http://abload.de/img/screenshotwin32-0003zoota.png (http://abload.de/image.php?img=screenshotwin32-0003zoota.png)
mit 200% RS:
http://abload.de/img/screenshotwin32-000465rtj.png (http://abload.de/image.php?img=screenshotwin32-000465rtj.png)

1500/4200:
http://abload.de/img/screenshotwin32-0001e5oqx.png (http://abload.de/image.php?img=screenshotwin32-0001e5oqx.png)
mit 200% RS:
http://abload.de/img/screenshotwin32-0002xsqsz.png (http://abload.de/image.php?img=screenshotwin32-0002xsqsz.png)

:smile:
Der nächste der behauptet 1500 zu 1400 (genauso wie der RAM-Takt) bringen nichts kriegt gescheuert! :biggrin:

aufkrawall
2015-09-30, 20:35:58
Mit WK macht es immer Sinn, das Maximum rauszuholen. :P
1,6 werden übrigens noch schneller sein als 1,5. ;)

Hübie
2015-09-30, 20:52:03
X-D Meinst wirklich? Ich weiß auch gar nicht warum das so auf die Goldwaage gelegt wird. Es sind einfach meine Beobachtungen und ich habe für mich selbst entschieden dass ich bei 1430 MHz bleibe. Vielleicht teste ich in ein paar Wochen die 1450. Mehr aber nicht. Denn das ist mit <1200 mV realisierbar. Mir gehts da einfach um die Lautstärke. Ab 1,2 Volt merkt man halt doch schon, dass man entweder das TT erreicht oder einfach etwas mehr Lautstärke in Kauf nehmen muss.

So wie es gerade ist gefällt mir die Strix riiiichtig gut und ich bin happy. Turri auch. Phoenix auch. Quiller auch. So solls halt jeder für sich machen. :up:

TurricanM3
2015-09-30, 20:52:55
Mit WK macht es immer Sinn, das Maximum rauszuholen. :P
1,6 werden übrigens noch schneller sein als 1,5. ;)


1,6 schafft die Krücke aber nicht. http://abload.de/img/sfresse0xse3.gif

Ne im ernst, wenn sie 1.27v dafür gebraucht hätte, wäre ich auch eher runtergegangen. Meine CPU hab ich auch nur moderat laufen, ohne Spannungskeule.
Ich wollte nach den negativen Meinungen hier selbst wissen ob das so sinnlos ist.

gedi
2015-09-30, 23:39:37
1,6 schafft die Krücke aber nicht. http://abload.de/img/sfresse0xse3.gif

Ne im ernst, wenn sie 1.27v dafür gebraucht hätte, wäre ich auch eher runtergegangen. Meine CPU hab ich auch nur moderat laufen, ohne Spannungskeule.
Ich wollte nach den negativen Meinungen hier selbst wissen ob das so sinnlos ist.


... wobei 4.2G Vram-Takt bei lediglich 1.5G GPU-Takt nur äußerst selten was bringen dürften. Bei 1.5G liegt der SP bei 3.92G-3.95G.

Vielleicht mit einer 8xMSAA Keule in min. 1440p, ansonsten heizt der hohe Vram-Takt nur unnötig das PCB auf - imo ;)

TurricanM3
2015-10-01, 00:33:09
Mir sind selbst von 1400/3900 zu 1500/4200 keine höheren Temps aufgefallen. Das kann wenn dann nicht viel sein, vielleicht ein Grad? =)
Ob mehr GPU ginge hab ich nie getestet, ist durchaus möglich. Hab nur mal 3DMark kurz mit mehr Voltage (glaube 1.24v ging max) getestet, das ist aber bei 1570 oder sowas abgeschmiert. War mir dann auch egal. Ich lasse das jetzt auf 1500/4200, falls es nicht doch noch abschmiert. Werd nicht noch den Nutzen von 4000 vs. 4200 RAM testen, hehe. Wenns läuft freu ich mich, ansonsten back @4000.

akuji13
2015-10-01, 08:27:27
Der nächste der behauptet 1500 zu 1400 (genauso wie der RAM-Takt) bringen nichts kriegt gescheuert! :biggrin:

1500Mhz vs. 1400Mhz bringen nichts! :D

236 fps sind auch für einen 144Hz Monitor mit Sync genug, 84 fps sind für einen 60Hz Monitor mit Sync genug und 92 sind auch für einen 120/144Hz Monitor zu wenig. ;)

Mit WK macht es immer Sinn, das Maximum rauszuholen. :P

Außer man will nur niedrige Temperaturen und möglichst wenig Lärm.
Mir persönlich ist es viel zu fummelig mich da ans Limit zu robben.

Dural
2015-10-01, 09:03:52
Die Benchmarks sind lächerlich, die sagen betreffend den 100MHz mehr GPU Takt 0,0 nichts aus, da bei 1500MHz auch immer der Speicher mit hochgezogen wird.

Ich Wette das der grossteil dem Speicher zu zuschreiben ist, und nicht den 100MHz mehr GPU Takt. Mach mal einen Bench vergleich mit 1400/2000MHz vs 1500/2000MHz und du wirst dich Wundern.

InsaneDruid
2015-10-01, 09:42:25
@Insane Druid:
Lüfter auf inzwischen 600 rpm sind oben genau so leise wie unterm Tisch. Die Illumination ist mit einem einzigen Tastendruck aus - ich sehe da keinen Widerspruch :)
Um in meinem Auto die ganzen standardmäßig installierten LED zu zügeln, muss ich mich durch zwei Menüs hangeln. PC geht schneller...

Mag sein, ich finde auch 600upm Lüfter als wahnsinnig laut und nerfend. Dazu der ganze Coilwhine jeder Komponenten. Ich muss immer so lachen bei den Waküs ala "unhörbar". Yo. Klar. Ich zeig dir mal meinen Rechner denk ich dann immer. Wenn die Monitore aus sind ist es dort unmöglich festzustellen, ob der auf Vollast läuft oder aus ist.
Nachteil ist: ich kann mein Telefon nicht im Zimmer laden, dessen Steckernetzteil macht mich wahnsinnig, da es das lauteste im Zimmer ist.

Davon abgesehen ist die handwerkliche Arbeit aber tipptop, da gibt es nix zu meckern. Und das riesen Leuchtpanel sieht schon irgenwie cool aus, zugegeben. :)

cR@b
2015-10-01, 10:30:53
Die Benchmarks sind lächerlich, die sagen betreffend den 100MHz mehr GPU Takt 0,0 nichts aus, da bei 1500MHz auch immer der Speicher mit hochgezogen wird.

Ich Wette das der grossteil dem Speicher zu zuschreiben ist, und nicht den 100MHz mehr GPU Takt. Mach mal einen Bench vergleich mit 1400/2000MHz vs 1500/2000MHz und du wirst dich Wundern.

Genau! Und dann bitte auch gleich mit min. Frames Messung! Ne also mal ehrlich... sind trotzdem nur Peanuts aber mit WK... wayne?

cR@b
2015-10-01, 10:31:43
Mag sein, ich finde auch 600upm Lüfter als wahnsinnig laut und nerfend. Dazu der ganze Coilwhine jeder Komponenten. Ich muss immer so lachen bei den Waküs ala "unhörbar". Yo. Klar. Ich zeig dir mal meinen Rechner denk ich dann immer. Wenn die Monitore aus sind ist es dort unmöglich festzustellen, ob der auf Vollast läuft oder aus ist.
Nachteil ist: ich kann mein Telefon nicht im Zimmer laden, dessen Steckernetzteil macht mich wahnsinnig, da es das lauteste im Zimmer ist.

Davon abgesehen ist die handwerkliche Arbeit aber tipptop, da gibt es nix zu meckern. Und das riesen Leuchtpanel sieht schon irgenwie cool aus, zugegeben. :)

Na dann kommste mal zu mir... da fliegt jeden Abend ein Düsenjäger durchs Zimmer. Sowas gibts auch nicht oft!

akuji13
2015-10-01, 10:42:02
Na dann kommste mal zu mir... da fliegt jeden Abend ein Düsenjäger durchs Zimmer. Sowas gibts auch nicht oft!

Bei mir fliegen mehrfach die Woche die Tiger der Heeresflieger zu tief über meine Garage.
Bevorzugt Donnerstag Abend gegen 22 Uhr mit vollständiger Verdunklung.

Aber das finde ich äußerst ansprechend und möchte es nicht missen!
(Der Klang der ist einfach genial. :biggrin:)

Ebenso wenig wie Lüftergeräusche des Rechners.
Lautlose Rechner sind wie Elektroautos. :D

TurricanM3
2015-10-01, 12:24:09
... wobei 4.2G Vram-Takt bei lediglich 1.5G GPU-Takt nur äußerst selten was bringen dürften.Ich Wette das der grossteil dem Speicher zu zuschreiben ist, und nicht den 100MHz mehr GPU Takt.


Herrlich. ;D

Hübie
2015-10-01, 14:23:37
Zwei Behauptungen, keine Belege. Bitte meine Herren. Die Jagdsaison ist eröffnet.

dildo4u
2015-10-01, 19:16:28
GTX 980TI GAMING 6G GOLDEN EDITION (Vollkupfer Kühler)

http://abload.de/img/1024dcu9v.png

http://www.msi.com/product/vga/GTX-980Ti-GAMING-6G-GOLDEN-EDITION.html#hero-overview

akuji13
2015-10-01, 20:09:25
MMn hässlich und das Kupfer wird den überforderten Kühler auch nicht deutlich verbessern.

Raff
2015-10-01, 20:11:08
Ich find's schick – wünsche mir das aber für die schon als Alu-Version sackschwere 390(X)-Version des Kühlers. Triple-Slot-Copper, yeah! :biggrin:

MfG,
Raff

Megamember
2015-10-01, 20:15:53
GTX 980TI GAMING 6G GOLDEN EDITION (Vollkupfer Kühler)

http://abload.de/img/1024dcu9v.png

http://www.msi.com/product/vga/GTX-980Ti-GAMING-6G-GOLDEN-EDITION.html#hero-overview

Lecker, dazu noch ein cherry picked chip dann..:O

00riddler
2015-10-01, 20:25:51
Die Benchmarks sind lächerlich, die sagen betreffend den 100MHz mehr GPU Takt 0,0 nichts aus, da bei 1500MHz auch immer der Speicher mit hochgezogen wird.

Ich Wette das der grossteil dem Speicher zu zuschreiben ist, und nicht den 100MHz mehr GPU Takt. Mach mal einen Bench vergleich mit 1400/2000MHz vs 1500/2000MHz und du wirst dich Wundern.

Vielleicht hilft das ja.
Fire Strike Ultra mit folgenden Taktraten:

1400/4000
1500/4000
1500/4100
1540/4100

Edit:
Und aus Spass noch
1560/4200

TurricanM3
2015-10-01, 21:14:30
Firestrike Ultra schwankt bei mir locker 100 Punkte. Daher hab ich damit auch nicht groß getestet. Heaven liefert da genauere Ergebnisse.

Raff
2015-10-01, 21:25:31
Bedenkt, dass ein Test nur aussagt, wie die Skalierung in diesem Test aussieht. ;) Die Flaschenhälse bewegen sich teils schon innerhalb eines einzigen Spiels in Abhängigkeit zu Testszene und vor immer je nach AA-Modus.

MfG,
Raff

TurricanM3
2015-10-01, 21:32:21
Vor allem ist FSU oben ein kombinierter Test, daher schon weniger aussagekräftig für so Taktvergleiche. =)

00riddler
2015-10-01, 21:38:21
Bei Heaven und Valley waren die Unterschiede zu klein.
Da ist aber auch nicht so viel Last auf der Karte wie bei 3DMark, da waren es schlanke 40 Watt mehr Verbrauch.
Musst bei 3dMark ja auch nicht auf das Gesamtergebnis schauen die Graphicscore reicht ja zum Vergleich aus (es waren drei Durchläufe und ich hab immer die mittlere Score davon genommen).
Und die ist immerhin streng monoton steigend :)

Raff
2015-10-01, 21:43:07
3DMark, Heaven, Valley: meh. Alles doofe Synthies, deren hohe Popularität sich mir nicht erschließt. Für was kauft ihr die High-End-Schlitten? Genau: für Spiele! Mit denen kann man ganz vorzüglich testen. Crysis 3, Bioshock Infinite, Tomb Raider und Witcher 3 liefern (unter anderen) edel reproduzierbare Ergebnisse, mit denen man bestens eine Taktkalierung durchführen kann. =)

MfG,
Raff

Hübie
2015-10-01, 21:48:23
Vielleicht hilft das ja.
Fire Strike Ultra mit folgenden Taktraten:

1400/4000
1500/4000
1500/4100
1540/4100

Edit:
Und aus Spass noch
1560/4200

Bullshit. Mach mal was richtiges an, nicht so ein Schnullermark®. :biggrin:
Witcher 3 @4k oder so.

VooDoo7mx
2015-10-01, 22:12:06
Zwei Behauptungen, keine Belege. Bitte meine Herren. Die Jagdsaison ist eröffnet.

Ich denke das die Speicherbandbreite bei allen Maxwell 2 Chips relativ knapp ist. Alle skalieren gut mit bei steigenden Speichertakt wohingegen GCN Chips dank dicken Interface und ineffizienter Architektur eher wenig profitieren.

Wobei das Bandbreitenverhältniss bei der Titan X besser ist als bei der 980, da der Chiptakt niedriger ist. Bei der 980Ti ist es noch besser, da 2 SMM deaktiviert sind. Aber gerade bei OC Karten und zusätzlichen OC wird wieder mehr Bandbreite benötigt um die steigende Rechenleistung zu füttern. Vond aher würde ich sagen das GTX980Ti Boards gut mit steigenden Speichertakt skalieren.

Hübie
2015-10-01, 22:16:11
Noch eine Vermutung. ;)
Wie argumentierst du wenn ich dir sage, dass in einem streaming-intensiven Spiel wie FC4 der MC maximal bei 64% ausgelastet ist?

Edit: Siehe hier:
http://abload.de/thumb/fc4_oc2auju.png (http://abload.de/image.php?img=fc4_oc2auju.png)

00riddler
2015-10-01, 22:16:41
Bullshit. Mach mal was richtiges an, nicht so ein Schnullermark®. :biggrin:
Witcher 3 @4k oder so.

Ich kann euch gerade höchsten Assetto Corsa in 4K bieten, der PC wird gerade noch einmal neu aufgesetzt.

Da waren es im Schnelltest:

1240/4000 --> 93 FPS
1400/4000 --> 98 FPS
1500/4000 --> 102 FPS

Witcher und Tomb Raider kann ich morgen ggf. nachliefern.

aufkrawall
2015-10-01, 22:20:54
Ich denke das die Speicherbandbreite bei allen Maxwell 2 Chips relativ knapp ist. Alle skalieren gut mit bei steigenden Speichertakt wohingegen GCN Chips dank dicken Interface und ineffizienter Architektur eher wenig profitieren.

Ja klar, deshalb hat AMD ja auch nur so zum Spaß den VRAM-Takt beim Hawaii-Refresh von 1350 auf 1500Mhz angehoben...

Hübie
2015-10-01, 22:21:02
Also auch nicht der Rede wert. Ich konnte hier und da mal 5-7 fps mehr ergattern, aber in den meisten fällen unter 5 fps. Meine Karte braucht für 1500 die 1237 mV um stabil zu laufen. Das kostet Lautstärke. Bei Wakü wäre es mir wahrscheinlich egal.
Wakü kommt auch anderen Gründen jedoch nicht in Frage.

@aufkrawall: In neueren Benchmarks (wo der Treiber auch für R9 290 optmiert wurde) sieht man aber auch nur geringe Unterschiede. Also richtig überzeugt bin ich nicht. Klar bringts was. Aber wir reden hier von 37,5 MHz bzw. 6 vs 7 Gbps.

W4RO_DE
2015-10-01, 23:39:57
Ich wollte gerade meine GTX 980 Ti auf Effizienz trimmen und im Zuge dessen die Spannung verringern. Im MSI-Afterburner kann ich sie aber nur erhöhen, ist das normal, oder ist mir was entgangen? Geht Undervolting nur noch per BIOS-Mod?

Megamember
2015-10-02, 00:08:32
Ich wollte gerade meine GTX 980 Ti auf Effizienz trimmen und im Zuge dessen die Spannung verringern. Im MSI-Afterburner kann ich sie aber nur erhöhen, ist das normal, oder ist mir was entgangen? Geht Undervolting nur noch per BIOS-Mod?

Runter geht nicht, nur hoch. Per Bios mod gehts ist aber nicht einfach.

TurricanM3
2015-10-02, 00:45:34
Witcher 3 @4k oder so.


Hab ich gerade mal getestet.
Witcher 3 4K @Ultra

1400/3900 = 38fps
1500/4200 = 41-42fps (eher 41, ab und an 42)
1600/4300 = 43-44fps (schwankt hin und her)

Unterm Strich alles unspielbar. :biggrin:
Mache vielleicht noch 2k mal oder so.

W4RO_DE
2015-10-02, 00:50:41
Runter geht nicht, nur hoch. Per Bios mod gehts ist aber nicht einfach.

Schade, danke für die Auskunft.

Hübie
2015-10-02, 02:51:34
Hab ich gerade mal getestet.
Witcher 3 4K @Ultra

1400/3900 = 38fps
1500/4200 = 41-42fps (eher 41, ab und an 42)
1600/4300 = 43-44fps (schwankt hin und her)

Unterm Strich alles unspielbar. :biggrin:
Mache vielleicht noch 2k mal oder so.

Mach mal 1500 GPU
MEM:

3600
3800
4000
4200


Darum ging es doch ;)

TurricanM3
2015-10-02, 14:17:54
Mir gings eingangs ja eher um Tests von moderatem OC vs. 1500/4000+.
Ich muss leider für jeden anderen RAM Takt das Bios flashen weil das per OC Tools oft nicht will. Keine Ahnung warum. Mal schauen ob ich da Lust drauf habe.
Übrigens zeigt mir GPU-Z auch nur 53MHz als def. Memclock an sobald ich über 4000 gehe. Jemand eine Ahnung warum?

Thunder99
2015-10-02, 14:43:03
Ja klar, deshalb hat AMD ja auch nur so zum Spaß den VRAM-Takt beim Hawaii-Refresh von 1350 auf 1500Mhz angehoben...
Exakt :)

Kurzer 3D Mark Test zeigt eine Skalierung, TB 2013 eher nicht. Besser ist Chip Takt bei dem Test aber Speichertakt schlägt auch an. Bei Spielen müsste ich wissen welches auf beides reagiert und ob ich es dann hab :D. Wird bei Geforce 980 Ti nicht anders sein das der Speichertakt bei der hohen Rechenkraft doch mal zum Flaschenhals wird und demnach ab einem bestimmten Core Takt wieder mit skaliert :)

Meine Werte der R9 290 Vapor-X mit 1030/1400 ab Werk bei 3DMark:

1030/1400 -> 4918
1030/1475 -> 5021
1100/1400 -> 5053
1100/1475 -> 5261

Tombraider 2013 integrierter Benchmark

1030/1400 ca. 44-45fps avg
1030/1475 ca. 44-45fps avg
1100/1400 ca. 47 fps avg
1100/1475 ca. 47 fps avg

Fazit:
--> TB 2013 profitiert kaum von der erhöhten Bandbreite.
--> 3D Mark profitiert davon um die Rechenkraft besser auf die Straße zu bringen

Ergo kommt es darauf an ;) :)

gedi
2015-10-02, 23:07:21
Bei 1.5G Takt bringen mehr als 4.0G Vram-Takt in der Summe genau +/- 0!

Selbst mit einem totgedownsampeltem HL2 incl. 8xMSAA macht es frametechnisch exakt 0 Unterschied aus im Vergleich zu 3.93G Vram!

Und desto neu das Spiel, desto weniger profitabel der Vram-Takt. Die Gründe hierfür liegen defakto auf der Hand!

TurricanM3
2015-10-03, 00:11:30
Nichts für ungut gedi, aber selbst in 1080p Heaven ists schon ein Unterschied:

http://abload.de/img/3930ruses.png (http://abload.de/image.php?img=3930ruses.png)

http://abload.de/img/4200tnyff.png (http://abload.de/image.php?img=4200tnyff.png)

4200 geben ein um 3% besseres Ergebnis nicht viel, aber mehr als 0. :smile:

phoenix887
2015-10-03, 08:31:36
Format C, benutze seit einiger Zeit das LN2 Bios der Lightning. Sehe da aber keinen Unterschied, verhält sich genau wie eine normale Ti. Nur das die Werte auf Referenz gestellt sind bezüglich Takt. Ist das nicht einfach nur ein Backup-Bios? und ne Ahnung, wann der Afterburner 4.2.0 erscheint? Soll ja die Lightning besser unterstützen. Die ganze Zeit hiess es immer Ende September....

(del)
2015-10-03, 09:23:06
Die Arschbrenner-Beta hatte ich, war aber nicht stabil genug. Bissl Geduld noch, denke ich :)

Das LN2-BIOS ist ein Standard-BIOS ohne die werkseitige "Optimierung" und ohne gewisse Restriktionen, die aber nur mit geeigneter Software wirlich gelockert werden können. Bei vielen Kepler- und Maxwell-Karten ist es einfacher, den VR-Chip per Hard-Mod zu manipulieren. Entweder man setzt dessen Versorgungsspannung arg übers Limit (den Trick hatte MSI ja mit der 660 Ti und 670 Power Edition gemacht (http://www.tomshardware.de/MSI-GTX660Ti-Overvolting,testberichte-241108.html), indem man bei der Spannungsversorgung einfach beim Längsteiler einen SMD-Cap einsetzt hat), oder man holt sich übers Datenblatt die Pin-Belegung für die voreingestellte Spannung und trennt/lötet das Schema ein wenig um. Mehr Spannung geht immer, aber dann ist natürlich auch die Garantie im Eimer ;)

phoenix887
2015-10-03, 09:25:00
Ok danke. Welche Restriktionen sind das? Wird man die Sachen auch mit dem Afterburner 4.2.0 entlocken können oder nur mit der Extreme Version?

(del)
2015-10-03, 09:35:05
Ich denke mal, nur die Extreme.

phoenix887
2015-10-03, 12:12:22
Danke für die Infos.

TobiWahnKenobi
2015-10-03, 12:33:22
juhuu.. endlich bin ich das OSD los und kann trotzdem gucken, was sache ist :) temps und frames interessieren mich zwar perifer, aber auf die limits schaue ich doch ganz gern mal.

http://abload.de/thumb/img_0144wdorc.png (http://abload.de/image.php?img=img_0144wdorc.png)
arschbrenner app


(..)

mfg
tobi

qiller
2015-10-03, 18:37:08
Na hoffentlich ist die "Pagefile Usage" irreführend bezeichnet ;) - ansonsten gz :>

TobiWahnKenobi
2015-10-03, 19:15:00
irreführend? das ist die auslagerungsdatei - das sys arbeitet mit win10 und da lief der witscher. im desktopbetrieb sinds im moment knapp 5GiB RAM und 5.5GiB auslagerung..

und beim battlefield4-spielen sind es dagegen schon wieder 10,5 und 14GiB ;)

http://abload.de/thumb/img_0145ahp18.png (http://abload.de/image.php?img=img_0145ahp18.png)

würde ich mir keinen kopp machen - ist dynamisch, automatisch, unproblematisch.


(..)

mfg
tobi

phoenix887
2015-10-03, 19:40:08
Auslagerungsdatei, habe ich ganz ausgeschaltet, seit ich Win10 habe. Keine Probleme mit Spiele oder Programme bis jetzt.

aufkrawall
2015-10-03, 20:18:22
Für nennenswerte Unreal Editor Projekte sind 16GB zu wenig für kein Pagefile.

TobiWahnKenobi
2015-10-03, 20:27:04
kein pagefile ist eh absoluter nonsens, mit derartigen "tweaks" (samt ausnahmlos keinen oder negativen wirkungen) würde ich meine zeit nicht verkaspern, aber das müssen wir ja hier nicht als OT einführen.


(..)

mfg
tobi

phoenix887
2015-10-03, 21:26:44
Für nennenswerte Unreal Editor Projekte sind 16GB zu wenig für kein Pagefile.

Benutze ich nicht und habe ich nicht vor. Wenn mir etwas ausfällt, wird sie hält wieder angemacht. Ist ja kein Akt.

qiller
2015-10-03, 23:06:20
irreführend? das ist die auslagerungsdatei - das sys arbeitet mit win10 und da lief der witscher. im desktopbetrieb sinds im moment knapp 5GiB RAM und 5.5GiB auslagerung..

und beim battlefield4-spielen sind es dagegen schon wieder 10,5 und 14GiB ;)

http://abload.de/thumb/img_0145ahp18.png (http://abload.de/image.php?img=img_0145ahp18.png)

würde ich mir keinen kopp machen - ist dynamisch, automatisch, unproblematisch.


(..)



mfg
tobi

Wenn das wirklich die "Pagefile Usage" wäre, würde ich mir ernsthaft Gedanken machen :>. Daher hab ich "irreführend" geschrieben. Bei ner 14GB Auslagerungsdatei dürfte das System alles andere als reaktionsfreudig sein :>.

Edit: Ok dacht ich mir schon, der Wert im Afterburner entspricht dem virtuellen Speicher, der zugesichert wurde und je nach Bedarf können Teile davon auch ausgelagert werden. Es wird aber immer zu erst der physische Speicher benutzt. Der Wert sagt also nicht wirklich viel über die tatsächliche Verwendung der Auslagerungsdatei aus und entspricht dem Commit-Wert im Taskmanager:

http://blogs.technet.com/b/askperf/archive/2013/08/09/task-manager-in-windows-server-2012-and-windows-8.aspx

Hübie
2015-10-04, 01:06:14
Für nennenswerte Unreal Editor Projekte sind 16GB zu wenig für kein Pagefile.

In den "Genuss" bin ich auch gekommen. :redface: Werd mich demnächst mal nach einem 32 GB Kit umsehen.

TurricanM3
2015-10-04, 14:10:22
Gibt neues bez. Langzeittests:
Meine Karte ist mir gestern nach 42 stabilen Spielstunden mit 1500/4200 abgeschmiert. War in BF4.

http://abload.de/img/unbenannt28njju.png (http://abload.de/image.php?img=unbenannt28njju.png)

Werd mit der Spannung von stock 1.187v nun einen Schritt hoch auf 1.193v gehen. =)

phoenix887
2015-10-04, 15:17:50
Wobei einmal in 42 Stunden könnte man noch verkraften.

Mir ist der Treiber eben im Desktopbetrieb abgeschmiert im idle. Verstehe ich nicht ganz, da ich nichts im Bios verändert habe und das OC betrifft auch nicht die idle clocks:confused: