PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 980 Ti: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16

TurricanM3
2015-08-19, 19:23:20
Ich wollte gerade mal schauen wie viel mein RAM mitmacht, leider spinnt der Inspector bei mir:

http://abload.de/img/unbenannt26ssec.png (http://abload.de/image.php?img=unbenannt26ssec.png)

Passiert teilweise schon ab +650MHz am RAM.
Heaven läuft selbst mit Offset +750 noch ewig weiter?! :eek:
Mehr kriege ich nicht eingestellt wegen dem Fehler oben.

phoenix887
2015-08-19, 19:32:04
Krass, die Meldung habe ich auch noch nicht gesehen.

@Hübie

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10707187&postcount=1108

Datum und Uhrzeit;) Aber klar, stelle ja einfach nur so Behauptungen auf;)

TurricanM3
2015-08-19, 20:00:58
http://gpuz.techpowerup.com/15/08/19/434.png

300W, Firestrike Takt und Spannung recht stabil jetzt. :smile:

Die Backplate der Karte wird aber schon knallheiß, kann man keine 3s anpacken. Ich weiß, der Finger ist kein guter Indikator für sowas...

Mehr gebe ich ihr aber wohl erst mit Wakü.
Werde nachher mal BF4 testen, weiß aber nicht ob ich ihr gleich 1500/4000/300W geben soll. Will mir nicht das Kärtchen fetzen aber irgendwie auch wissen ob das läuft. :freak:

phoenix887
2015-08-19, 20:43:21
Netter Ergebnisse, für 1500mhz, muss ich schon deutlich mehr Spannung geben. Scheint der Asic doch seine Bedeutung zu haben. Habe 74%

dildo4u
2015-08-19, 20:46:09
Er hat nur Firestrike getestet das ist ein Witz im Vergleich zum Hexer.

AnnoDADDY
2015-08-19, 20:47:21
hier stand Mist....

phoenix887
2015-08-19, 20:52:12
Er hat nur Firestrike getestet das ist ein Witz im Vergleich zum Hexer.

Ok, habe das überlesen.

TurricanM3
2015-08-19, 20:54:06
Ja das war wie geschrieben nur ein Firestrike Kurztest. Stable ist das denke ich nicht. Werd noch berichten.

Rente
2015-08-19, 20:57:14
Meine Inno ist mit der gleichen Spannung in 4K im Witcher @1500 MHz stable (bei ASIC 76,1%), es ist also durchaus möglich das auch Turri Glück hat. ;)

Allerdings läuft meine mit 375 Watt-PT und unter Wasser.

phoenix887
2015-08-19, 21:05:17
Ist schon interessant. Selbst meine Inno3D Hybrid hat mit Asic 80,5% mehr Spannung gebraucht. Kann es aber leider jetzt nicht mehr testen, die ist erstmal unterwegs nach Berlin.

AnnoDADDY
2015-08-19, 21:06:33
dann könnte die wasserkühlung den ausschlag geben, aber sollte eig möglich sein mit ner guten Karte solche werte zu fahren, wenn sie die spannung stabil halten^^

Hübie
2015-08-19, 21:59:05
@Hübie

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10707187&postcount=1108

Datum und Uhrzeit;) Aber klar, stelle ja einfach nur so Behauptungen auf;)

Mein Gott, das war Seite 56! Als ob ich den ganzen Thread von Anfang an verfolge und alle Seiten auswendig könnte :rolleyes:

Wenn du einen Vergleich machen willst, dann nenne künftig die Bedingungen. Ich habe jetzt auch kein Bock das hier zu testen, aber jede Karte verhält sich anders und die ASUS verbrät schon mal weniger an den Wandlern als die billigen Referenzdesigns.

qiller
2015-08-19, 22:22:01
Für 1500MHz müsste ich wahrscheinlich 1.25+V geben, mein BIOS unlocken und mein Gehäuse aufmachen, damit die Wärme direkt wegkann^^. Ihr habt schon verdammtes Luck mit euren GPUs...

Godmode
2015-08-19, 22:40:44
Meine Inno ist mit der gleichen Spannung in 4K im Witcher @1500 MHz stable (bei ASIC 76,1%), es ist also durchaus möglich das auch Turri Glück hat. ;)

Allerdings läuft meine mit 375 Watt-PT und unter Wasser.

Was hast du den für GPU-Temperatur in zb. The Wichter 3 und den oben genannten Settings?

phoenix887
2015-08-19, 22:54:44
Mein Gott, das war Seite 56! Als ob ich den ganzen Thread von Anfang an verfolge und alle Seiten auswendig könnte :rolleyes:

Wenn du einen Vergleich machen willst, dann nenne künftig die Bedingungen. Ich habe jetzt auch kein Bock das hier zu testen, aber jede Karte verhält sich anders und die ASUS verbrät schon mal weniger an den Wandlern als die billigen Referenzdesigns.


Das war nicht das erste mal das ich das geschrieben habe, wie ich teste. Ich habe auch kein Vergleich verlangt, du hast mir einfach meine Beobachtung "für nicht gültig" erklärt. Als würde ich mir was ausdenken. Du hast angefangen mit deinem pampigen "eben nicht". Das hat mich provoziert. (ja ich weiss viele Du-Botschaften, sorry)

und das mit der billigen Referenzkarte hättest dir auch sparen können. waren alles Werte mit der G1. Also auch Custom.

Aber ok lassen wir das, durch die fehlende non-verbale Kommunikation im Netz, kann schonmal was falsch vom Sender an den Empfänger ankommen.

TurricanM3
2015-08-19, 23:27:32
Gerade nach knapp 2 Stunden BF4 mit 1500/4000/1.187v und 325W PT ists mir wieder abgestürzt. Lief immerhin schon länger. Obs am PT lag weiß ich leider nicht. Mal jemand versucht das in GPU-Z loggen zu lassen, sieht man den Spannungsabfall da?

@Rente
Wie viel Spannung braucht sie dafür und wie laufen die RAMs?

qiller
2015-08-19, 23:32:34
Hast du kein W3? W3+4k und du brauchst keine 2h spielen, um zu wissen, ob die Karte lüppt^^. Bei mir hat ich diese roten Bildfehler aber auch schon mit 1080p, 4k wäre nur dazu da, die Karte stärker aufzuheizen.

mfg Oli

TurricanM3
2015-08-19, 23:40:31
Nein, hab kein W3.
Ich spiele ja nicht wegen der Karte sondern weils Spaß macht. ^^
Richtig testen werde ich sowieso @Wakü.

phoenix887
2015-08-19, 23:41:31
Ja kann da quiller nur bestätigen. Was bei mir auch total empfindlich reagiert ist in 4k Schatten von Modor.

Edit: ok zu spät ;)

TurricanM3
2015-08-20, 00:42:05
Karte läuft selbst mit 325W noch in BF4 / 1080p ins PT (nicht alles auf Ultra). Spannung dropt auf 1.168v teilweise. Evtl. schmierts mir deshalb ab. Wie viel PT habt ihr denn so bei den Karten eingestellt?

cR@b
2015-08-20, 00:52:33
Wieviel Grad hat die Karte dabei? Läuft sie wirklich ins PT?

TurricanM3
2015-08-20, 01:27:34
Gerade mal das Log file angeschaut. Da sieht man das ja wunderbar. Ich dachte zuerst das sei wegen der Temp gerade. Habe nämlich drops bei 64° mehrfach, sowohl Takt (bis zu zwei Stufen) als auch Spannung gehen runter, aber dann hab ich den Lüfter mal runtergeregelt um sie künstlich auf 70° aufzuheizen. Sie hat die 1507 aber trotzdem gehalten? Wobei das PT nur um 80% lag. Greift die Absenkung dann nur in Kombination?
Eingestellt hatte ich 130% (Bios mit 250 bis 375) und es kommt da selten auch rein laut log.
Ich werds wohl erst mit Wakü sehen.

gedi
2015-08-20, 01:57:27
Gerade mal das Log file angeschaut. Da sieht man das ja wunderbar. Ich dachte zuerst das sei wegen der Temp gerade. Habe nämlich drops bei 64° mehrfach, sowohl Takt (bis zu zwei Stufen) als auch Spannung gehen runter, aber dann hab ich den Lüfter mal runtergeregelt um sie künstlich auf 70° aufzuheizen. Sie hat die 1507 aber trotzdem gehalten? Wobei das PT nur um 80% lag. Greift die Absenkung dann nur in Kombination?
Eingestellt hatte ich 130% (Bios mit 250 bis 375) und es kommt da selten auch rein laut log.
Ich werds wohl erst mit Wakü sehen.

Nein, die Absenkung erfolgt in mehreren Stufen (afair 3)- angefangen bei 64°C, die Temperatur betreffend. Zusätzlich kommen noch PT-Stufen, welche afaik BIOS- und somit abhängig vom Hersteller sind.

Normalerweise ist es so, dass pro Stufe -13Mhz und -18mV im BIOS hinterlegt sind, ausgehend vom max. Boost mit Default-Vcore (bei dir 1.199V). Das Problem am Boost ist, dass es Latenzen bez. der Angleichung Vcore und anliegendem Solltakt gibt und so die ganze OC-Geschichte defizil erscheinen lässt und leider schnell zu Instabilitäten führt. Problemlösung: Gib dem Teil 1.218V, oder takte die GPU 20Mhz herunter, oder aber deaktiviere den beknackten Boost per Bios-Mod. Der Vorteil: Die Target-Vcore liegt sofort an und das dämliche Rauf- und Runtergetakte hat ein Ende ;)

qiller
2015-08-20, 02:12:20
Die Tempdrossel lässt sich übrigens bei den 980Ti-Biosen nicht so leicht mit dem MBT 1.36 rausnehmen, da Version 1.36 die krummen Werte der 980Ti-Biose rausfiltert. Muss man erst per Hex-Editor die richtigen Stellen auf "glatte" Werte setzen (da gehts nur um die 3. Nachkommastelle, hat also keine praktische Relevanz) und dann zeigt MBT 1.36V auch die entsprechenden Schieberegler an. Für Leute mit Wakü sicherlich uninteressant, aber Luftkühler-User wie ich verlieren dank der Tempdrossel ohne Not eine Booststufe. Für Overclocker ist diese Boost-Geschichte sowieso eher hinderlich, kann schon verstehen, dass die Harcore-OCler dann am BIOS Hand anlegen.

mfg Oli

Hübie
2015-08-20, 03:17:34
Das war nicht das erste mal das ich das geschrieben habe, wie ich teste. Ich habe auch kein Vergleich verlangt, du hast mir einfach meine Beobachtung "für nicht gültig" erklärt. Als würde ich mir was ausdenken. Du hast angefangen mit deinem pampigen "eben nicht". Das hat mich provoziert. (ja ich weiss viele Du-Botschaften, sorry)

und das mit der billigen Referenzkarte hättest dir auch sparen können. waren alles Werte mit der G1. Also auch Custom.

Aber ok lassen wir das, durch die fehlende non-verbale Kommunikation im Netz, kann schonmal was falsch vom Sender an den Empfänger ankommen.


Ich glaube du bist etwas zu überempfindlich, da ich es keineswegs böse meine (was soll an den Worten "eben nicht" pampig sein? :|). Würdest du mir gegenüber sitzen würde ich es im normalen Ton dir mitteilen.
Und deine Beobachtungen können ja für dich gelten, aber nicht allgemein gesprochen.
Habe vorhin mal einfach den Taktregler im Inspector nach rechts geschoben. Zack lag automatisch mehr Spannung an. 1480 MHz bei 1,193 Volt liefen auf Anhieb. Habe aber nur kurz Valley mit 3D Vision laufen lassen. Lastet die GPU voll aus und PT bei 99%. Habe nächste Woche vielleicht mal Zeit OC zu testen und mir Mordor zu kaufen damit ich da gegen testen kann.

phoenix887
2015-08-20, 06:23:24
Wann habe ich gesagt das mein Posting heute Abend allgemein gilt? Habe nur meine Beobachtung geschrieben, und du dann einfach "eben nicht".

Musst nichts kaufen oder testen. Lassen wir es einfach. Alles gut;)

Merkor
2015-08-20, 06:29:48
Gerade nach knapp 2 Stunden BF4 mit 1500/4000/1.187v und 325W PT ists mir wieder abgestürzt. Lief immerhin schon länger. Obs am PT lag weiß ich leider nicht. Mal jemand versucht das in GPU-Z loggen zu lassen, sieht man den Spannungsabfall da

BF4 ist bei mir sehr sensitiv, was das OC meiner GTX 970 angeht. Ich konnte allerdings nie einen Zusammenhang zum PT, der Temperatur oder einem Spannungsabfall herstellen. Das kann bei dir natürlich anders sein, aber selbst wenn die Karte sich nicht auffällig verhält und den Takt hält, kann es gut sein, dass dir die Karte bei BF4 aussteigt. Das kann bei mir nach einer halben Stunde oder 2 Stunden sein, wenn der Takt zu hoch ist.

aufkrawall
2015-08-20, 07:09:24
Ich hatte bei risen 3 mit einer 970 mal den boost (und damit auch die spannungsabsenkung) deaktiviert, damit ging kein mhz mehr ohne artefakte.
Bf4 kann nach ein paar stunden mit instabilem oc crashen, muss aber nicht. In risen 3 und witcher auf artefakte achten dürfte erfolgversprechender sein.

akuji13
2015-08-20, 07:52:01
Ich habe jetzt auch kein Bock das hier zu testen, aber jede Karte verhält sich anders und die ASUS verbrät schon mal weniger an den Wandlern als die billigen Referenzdesigns.

Das hätte ich gerne mal bewiesen.

Ich hatte bei risen 3 mit einer 970 mal den boost (und damit auch die spannungsabsenkung) deaktiviert, damit ging kein mhz mehr ohne artefakte.

Sind exakt meine Erfahrungen mit Titan C und X.

Problemlösung: Gib dem Teil 1.218V, oder takte die GPU 20Mhz herunter, oder aber deaktiviere den beknackten Boost per Bios-Mod. Der Vorteil: Die Target-Vcore liegt sofort an und das dämliche Rauf- und Runtergetakte hat ein Ende ;)

Oder kühl das Teil ordentlich.
Bei mir taktet sich auch mit boost nix runter.

phoenix887
2015-08-20, 09:14:41
Sind exakt meine Erfahrungen mit Titan C und X.

.


Musste eben spontan an die Enterprise Bezeichnungen denken:D

cR@b
2015-08-20, 10:07:10
Gerade mal das Log file angeschaut. Da sieht man das ja wunderbar. Ich dachte zuerst das sei wegen der Temp gerade. Habe nämlich drops bei 64° mehrfach, sowohl Takt (bis zu zwei Stufen) als auch Spannung gehen runter, aber dann hab ich den Lüfter mal runtergeregelt um sie künstlich auf 70° aufzuheizen. Sie hat die 1507 aber trotzdem gehalten? Wobei das PT nur um 80% lag. Greift die Absenkung dann nur in Kombination?
Eingestellt hatte ich 130% (Bios mit 250 bis 375) und es kommt da selten auch rein laut log.
Ich werds wohl erst mit Wakü sehen.

Das Ding ist halt, dass die Karte nicht immer im Vollanschlag laufen muss, wenn es das Spiel nicht verlangt. Das ist halt Boost 2.0! Entweder schaltest du, wie bereits hier gesagt wurde, den Boost aus oder du erhöhst die Voltage der Zwischentakte (sämtliche CLK Stufen) bis zum max. Boost. Ich würde mir dahingehend auch gerne ein Bios basteln aber es gibt einfach keine für mich ausreichende Anleitung wo alles aber auch wirklich "alles" erklärt wird.

Hübie
2015-08-20, 11:44:39
Wann habe ich gesagt das mein Posting heute Abend allgemein gilt? Habe nur meine Beobachtung geschrieben, und du dann einfach "eben nicht".

Musst nichts kaufen oder testen. Lassen wir es einfach. Alles gut;)

Du benutzt das Wort" man" statt "ich" . Das ist ein Implizit für: "Ich hole alle in mein Boot".

Ich erreiche dass PT eben nicht so schnell. Weil ich auch keine 1,2 Volt anlege. Der Performance-Unterschied von 1392 zu 1500 MHz dürfte im Hexer @4k auch zu vernachlässigen sein schätz ich. Muss mir das mal ansehen.
Shadow of Mordor möchte ich mir eh zulegen. Nicht nur zu testen. ;)

@akuji: Wüsste nicht wie ich das hier beweisen soll. Aber das ist im Prinzip ein Schaltnetzteil. Und da gibt's auch effizientere und weniger effiziente. Ist also keine Hexerei.

gedi
2015-08-20, 12:05:45
Das hätte ich gerne mal bewiesen.



Sind exakt meine Erfahrungen mit Titan C und X.



Oder kühl das Teil ordentlich.
Bei mir taktet sich auch mit boost nix runter.

Ich bin mir sehr sicher dass Sie gut geht gekühlt ist.

akuji13
2015-08-20, 12:09:40
Wenn sie aufgrund der Temperatur (wie du sagst ab 64°) runtertaktet ist die Kühlung nicht gut genug.
Weder meine X noch meine Ti takten herunter weil sie kühl genug sind.

Da profitiere ich mehr vom boost als das er mich behindert.

Hübie
2015-08-20, 14:03:43
Hatte mal kurz Zeit: 1500 MHz, 1193 mV und 106% max PT. Eher 101-104%.

http://abload.de/thumb/witcher4k_ptkmonq.png (http://abload.de/image.php?img=witcher4k_ptkmonq.png)

Wenn ich länger testen würde, würde der Takt vielleicht eine Stufe herunter gehen. Weiß ich aber nicht gewiss.

TurricanM3
2015-08-20, 15:08:42
Mit ein bisschen Glück kriege ich endlich morgen den Wasserkühler. =)
Ich kanns kaum noch abwarten nach so langer Zeit.

Nein, die Absenkung erfolgt in mehreren Stufen (afair 3)- angefangen bei 64°C, die Temperatur betreffend. Zusätzlich kommen noch PT-Stufen, welche afaik BIOS- und somit abhängig vom Hersteller sind.

Normalerweise ist es so, dass pro Stufe -13Mhz und -18mV im BIOS hinterlegt sind, ausgehend vom max. Boost mit Default-Vcore (bei dir 1.199V). Das Problem am Boost ist, dass es Latenzen bez. der Angleichung Vcore und anliegendem Solltakt gibt und so die ganze OC-Geschichte defizil erscheinen lässt und leider schnell zu Instabilitäten führt. Problemlösung: Gib dem Teil 1.218V, oder takte die GPU 20Mhz herunter, oder aber deaktiviere den beknackten Boost per Bios-Mod. Der Vorteil: Die Target-Vcore liegt sofort an und das dämliche Rauf- und Runtergetakte hat ein Ende ;)


Meine Karte hat default 1.187v, oder wie kommst du auf die 1.199?
Den Boost deaktiviert hatte ich bei den letzten Karten eigentlich immer. Du meinst damit doch TDP Base Clock, 3D und Boost im Bios Tweaker auf den vollen Takt setzen oder?
Warum aber hat die Karte gestern nicht heruntergetaktet, als ich sie künstlich auf 70° habe aufheizen lassen?

BF4 ist bei mir sehr sensitiv, was das OC meiner GTX 970 angeht. Ich konnte allerdings nie einen Zusammenhang zum PT, der Temperatur oder einem Spannungsabfall herstellen. Das kann bei dir natürlich anders sein, aber selbst wenn die Karte sich nicht auffällig verhält und den Takt hält, kann es gut sein, dass dir die Karte bei BF4 aussteigt. Das kann bei mir nach einer halben Stunde oder 2 Stunden sein, wenn der Takt zu hoch ist.


Ja BF4 hat auch ziemlich bei der 980 (ASIC 78.5%) herumgezickt. Hab immer weiter die vGPU hochgeschraubt bis es bei 1.250v für 1500 dann nicht mehr abgeschmiert ist. Mit 1.225v lief es teilweise 20h und mehr. War ein wenig seltsam. Evtl. lags auch gar nicht an der Karte sondern am Treiber und meinem (alten) Win oder dem Spiel selbst und es wurde nach einem Patch ausgebessert.

Das Ding ist halt, dass die Karte nicht immer im Vollanschlag laufen muss, wenn es das Spiel nicht verlangt. Das ist halt Boost 2.0! Entweder schaltest du, wie bereits hier gesagt wurde, den Boost aus oder du erhöhst die Voltage der Zwischentakte (sämtliche CLK Stufen) bis zum max. Boost. Ich würde mir dahingehend auch gerne ein Bios basteln aber es gibt einfach keine für mich ausreichende Anleitung wo alles aber auch wirklich "alles" erklärt wird.


Ja das mit dem Bios basteln ist so eine Sache.
Könnte vielleicht hier jemand sein nonBoost Bios hochladen? Dann könnte ich mich daran orientieren.

@Hübie
In deinem Shot stehen 1.237v? Hast aber auch ein feines Kärtchen wie es scheint. =)

Hübie
2015-08-20, 15:14:02
Du guckst bei max. Das war auch bei max Takt (1526 MHz). Bei 1501 MHz sind es dann 1,193 Volt. ;)

phoenix887
2015-08-20, 16:00:56
Du benutzt das Wort" man" statt "ich" . Das ist ein Implizit für: "Ich hole alle in mein Boot".

Ich erreiche dass PT eben nicht so schnell. Weil ich auch keine 1,2 Volt anlege. Der Performance-Unterschied von 1392 zu 1500 MHz dürfte im Hexer @4k auch zu vernachlässigen sein schätz ich. Muss mir das mal ansehen.
Shadow of Mordor möchte ich mir eh zulegen. Nicht nur zu testen. ;)

@akuji: Wüsste nicht wie ich das hier beweisen soll. Aber das ist im Prinzip ein Schaltnetzteil. Und da gibt's auch effizientere und weniger effiziente. Ist also keine Hexerei.

Lese mal genauer. Der erste Satz habe ich allgemein gesagt. "Man" . Denn mit entpsrechendes Spiel und Auflösung zieht man mehr Watt als sonst. Das ist ja ein allgemeines Gesetz das die Karte je nach Anwendung und Auflösung mehr gefordert wird.

Aber da wo ich die PT Werte nenne, sage ich "meine" und "ich" brauche das Bios meiner Karte. Also impliziere ich gar nichts.

Fazit: allgemeine Feststellung durch meine Beobachtung mit dem darauffolgende Ergebnis für mich.

Schaue nochmal mein Screenshot an, nichts mit Spannung erhöht und trotzdem 111% PT erreicht. Warum sollte dann der selbe Chip sich anders verhalten?

Deswegen habe ich das Wort "man" benutzt. Vielleicht etwws ungeschickt formuliert. Hätte noch das Wort "kann" einfügen sollen. Aber ich führe bestimmt keine in Stein gemeisselte Gesetze auf. Dazu habe ich zu wenig Ahnung von Elektronik.

Lowkey
2015-08-20, 17:15:16
Neue PNY GeForce GTX 980 Ti XLR8 OC im Rechner. Surrt im IDLE zu laut bzw. Temperatur ist im IDLE schon jetzt auf über 40°. Man hört die kleinen Lüfter auf der Karte aus dem Gehäuse heraus.
Mit einer Anpassung der Lüfterkurve sollt die Karte leise laufen.

ASIC liegt bei guten 76%. Bei 1354 Mhz sind es 1.1990v, also relativ viel Spannung. Fiepen oder sonstige Geräusche kann ich noch nicht feststellen.

gedi
2015-08-20, 23:28:21
Wenn sie aufgrund der Temperatur (wie du sagst ab 64°) runtertaktet ist die Kühlung nicht gut genug.
Weder meine X noch meine Ti takten herunter weil sie kühl genug sind.

Da profitiere ich mehr vom boost als das er mich behindert.

:rolleyes:

Spiele mal bitte Fifa15. Hier kommt es vor, dass die GPU trotz 48°C und trotz 70% Auslastung runtertickert.

An der Kühlung kann es auch nicht liegen, denn die ist deiner wahrscheinlich überlegen :D

Sorry, es kann jeder halten wie er will, aber für mich ist der Boost nix anderes als eine DAU-Übertaktung, welche vielleicht noch was für Leute mit einem grünen Gewissen sein könnte. Also nix für mich

@Lowkey

Die Vcore hat nichts mit der ASIC zu tun, es hängt an den verbauten Wandlern ;)

TurricanM3
2015-08-20, 23:52:47
Ich habe eben noch mal BF4 gezockt genau 2 Stunden und dieses mal mit PT 375W. Ist mir nicht abgestürzt (@1507/4000/1.187v). Taktrate ist nicht gefallen, ebenso auch nicht die Spannung.

Drückt mir die Daumen, dass mein Wasserkühler morgen kommt. =)

cR@b
2015-08-21, 00:46:49
Seltsam... evtl. ne CPU limitierte Map erwischt?
Das nicht abstürzen ist klar bei durchgehendem max. Boost.

TurricanM3
2015-08-21, 01:02:44
Nein, habe auf dem gleichen Server wie die letzten 2 Tage gezockt (da laufen nur 2 Maps).
Laut log war das PT ein paar mal oberhalb von 130% (150% = 375W). Klar war mir das nicht, die alte Karte ist selbst nach 10h noch abgeschmiert.

cR@b
2015-08-21, 01:16:48
Ok dann waren die 300W tatsächlich zu wenig und du liegst so bei ~330W. Solltest du aber das Bios erneut anpassen, ohne die Zwischentakte mit entsprechend Voltage zu versorgen, kann im Zweifelsfall beim runter takten durch alt-tab z.B. die Karte abstürzen. Die Wahrscheinlichkeit ist natürlich gering in diesem kurzen Moment aber theoretisch dennoch möglich.

TurricanM3
2015-08-21, 01:55:30
Hast du dein Bios so gemoddet? Bist du evtl. nach einer Anleitung gegangen oder woran hast du dich gehalten?
Ich wüsste gerade nicht inwieweit ich die einzelnen CLK anheben sollte und dann gleich alle?

Hübie
2015-08-21, 01:57:12
:rolleyes:

Spiele mal bitte Fifa15. Hier kommt es vor, dass die GPU trotz 48°C und trotz 70% Auslastung runtertickert.

An der Kühlung kann es auch nicht liegen, denn die ist deiner wahrscheinlich überlegen :D

Sorry, es kann jeder halten wie er will, aber für mich ist der Boost nix anderes als eine DAU-Übertaktung, welche vielleicht noch was für Leute mit einem grünen Gewissen sein könnte. Also nix für mich

@Lowkey

Die Vcore hat nichts mit der ASIC zu tun, es hängt an den verbauten Wandlern ;)

Dann solltest du die Auslastung steigern. Boost ist OC-Funktion unter Effizienzaspekt. Bei 70% Auslastung gähnt die Karte und taktet logischerweise runter. Gibt es im Spiel ein fps Limit oder immer V-Sync? :|

Simon
2015-08-21, 02:28:14
@Lowkey

Die Vcore hat nichts mit der ASIC zu tun, es hängt an den verbauten Wandlern ;)
Aber sicher doch. Je besser die Chip-Güte, desto weniger Vcore notwendig bei gleichem Takt.

akuji13
2015-08-21, 07:41:22
An der Kühlung kann es auch nicht liegen, denn die ist deiner wahrscheinlich überlegen :D

Wenn du mit LN2 ect. kühlst mag das sein, ansonsten eher nicht.
48° würde meine Karte in Fifa gar nicht erreichen. ;)

Sorry, es kann jeder halten wie er will, aber für mich ist der Boost nix anderes als eine DAU-Übertaktung, welche vielleicht noch was für Leute mit einem grünen Gewissen sein könnte. Also nix für mich

Es tut mir leid dir das sagen zu müssen, aber OC ist heute grundsätzlich einfach im Vergleich zu früher.
Es wurde quasi DAUisiert, wie übrigens viele Bereiche des Lebens wo du den Komfort gerne mit nimmst.

Deine CPU taktet im idle bestimmt auch nicht runter und läuft immer mit maximalen Takt. :D

Bei 70% Auslastung gähnt die Karte und taktet logischerweise runter.

So ist es.
Ein Unreal taktet sich natürlich runter, während ein Witcher 3 dauerhaft am Anschlag läuft.

Aber sicher doch. Je besser die Chip-Güte, desto weniger Vcore notwendig bei gleichem Takt.

Ganz genau.
Meine ASUS hat für 1400 Mhz 1.199 bentötigt, die EVGA zieht nur noch 1.168.
Und die hatten beide stock PCBs.

phoenix887
2015-08-21, 08:09:08
Akuji, du redest von deiner Titan X und Ti? Wenn ja, kann man das so einfach vergleichen, weil die Titan X hat doch mehr Shadereinheiten. Braucht man da nicht automatisch eine höhere Spannung?

akuji13
2015-08-21, 08:16:58
Ich vergleiche natürlich die ASUS X mit der EVGA X. :wink:

In der Diskussion um den boost und sein Verhalten ist es egal ob Ti oder X.
Meine Ti taktet bei 50° ja auch nicht herunter im Witcher, bei 65° schon selbst wenn das PT nicht ausgeschöpft wird.

cR@b
2015-08-21, 10:34:11
Hast du dein Bios so gemoddet? Bist du evtl. nach einer Anleitung gegangen oder woran hast du dich gehalten?
Ich wüsste gerade nicht inwieweit ich die einzelnen CLK anheben sollte und dann gleich alle?

Bei deiner Karte bestätigt sich der Guide im CB Forum. Sobald du ein oder zwei Takstufen unter dem max. Boost bist, bekommen diese Takte zu wenig Voltage. Bei dieser Voltage "kann" die Karte abstürzen, deswegen richte ich mich erstmal auch danach. Man liest ja öfter Mal, dass die Karten mit OC dann nach mehreren Stunden Spielzeit doch nicht so stabil liefen wie gewünscht.

http://www.computerbase.de/forum/showthread.php?t=1406082&p=16457861#post16457861

Monty
2015-08-21, 11:23:28
Ich hab nochmal ne Frage an alle MSI 6G-Besitzer. Könntet ihr mal eure LastTemps posten. Also wenn der PC schon eine Stunde unter Last läuft.
Bitte nur die reellen Werte und keine geschönten 65° oder so ein Quatsch :biggrin:

(del)
2015-08-21, 14:28:56
73-74°C im Lian Li O7 meiner Frau - konstant, auch nach 4 Stunden Anno. :)

BTW:
Ich habe einem bekannten die Karte gemoddet, der war auf über 80. Die alte, schief aufgepappte Pampe fein abwischen und Gelid Extreme drauf. Der kommt nunmehr grad mal an die 70°C. Das werde ich meiner Frau auch noch gönnen - Zeitfrage. GC Extreme ist DER Burner für Grafikkarten. Vielleicht hat ja HWLuxx für den Test eine Karte gehabt, bei der schon mal jemand die Paste gewechselt hatte. Deshalb lehne ich diese Wanderhuren auch ab.;)

phoenix887
2015-08-21, 15:27:36
Ich vergleiche natürlich die ASUS X mit der EVGA X. :wink:

In der Diskussion um den boost und sein Verhalten ist es egal ob Ti oder X.
Meine Ti taktet bei 50° ja auch nicht herunter im Witcher, bei 65° schon selbst wenn das PT nicht ausgeschöpft wird.

Bei dir Blicke ich nicht mehr durch was du hast. X und Ti, X und X usw.:D

akuji13
2015-08-21, 15:41:01
Ja ich wechsle momentan doch häufig die hardware. :D
Vor allem boards und CPU.

Ist allerdings meiner Dusselligkeit geschuldet nicht ordentlich planen zu können. :eek::rolleyes:

In Sachen Grafikkarten ist es aber ganz einfach:
1.ASUS X gekauft, defekt, über RMA Geld zurück weil nicht mehr lieferbar, EVGA X gekauft
2.Fury X für den Bastel-Rechner gekauft, verkauft wegen Lärm und gegen 980Ti ersetzt

TurricanM3
2015-08-21, 16:28:48
Kühler samt aktiver Backplate sind eben gekommen, yaaay! :smile:
Später wird gebastelt, ich freu mich wie ein kleines Kind. :redface:

Bez. Wärmeleitpaste hab ich mir Kryonaut besorgt. Die soll ja das Nonplusultra sein und deutlich besser zu verarbeiten als die Geld Extr. (nicht so zäh).

@cR@b
Werds erst mal so versuchen und dann gegebenenfalls nachbessern, danke dir!

phoenix887
2015-08-21, 16:58:18
Ja ich wechsle momentan doch häufig die hardware. :D
Vor allem boards und CPU.

Ist allerdings meiner Dusselligkeit geschuldet nicht ordentlich planen zu können. :eek::rolleyes:

In Sachen Grafikkarten ist es aber ganz einfach:
1.ASUS X gekauft, defekt, über RMA Geld zurück weil nicht mehr lieferbar, EVGA X gekauft
2.Fury X für den Bastel-Rechner gekauft, verkauft wegen Lärm und gegen 980Ti ersetzt

oh, das mit der Asus habe ich gar nicht mit bekommen. Was war denn mit der?

akuji13
2015-08-21, 17:06:14
Hatte Bildfehler.

Sah so aus wie defekter RAM.

(del)
2015-08-21, 17:26:53
Bez. Wärmeleitpaste hab ich mir Kryonaut besorgt. Die soll ja das Nonplusultra sein und deutlich besser zu verarbeiten als die Geld Extr. (nicht so zäh).

Die GC Extreme ist doch nicht zäh? Nicht dünnflüssig, aber perfekt zu verarbeiten. Bei Grafikkarten muss man ja nun auch nicht spachteln, kleine Perle reicht völlig aus. Tipp: wem es trotzdem zu dick ist - vorher auf ca. 50°C erwärmen. Dann flutscht es geradezu. :tongue:

Die Kryonaut ist nicht schlecht, aber eher was für tiefste Temperaturen. Bei den für eine GPU typischen Temperaturen wird das am Ende keine 0,5 Kelvin Unterschied ausmachen, aber schau mal ins Portemonnaie! DEN Unterschied merkt man sofort. Im Übrigen büßt man durch suboptimales Auftragen oder falsche Mengen oft mehr ein, als man mit überteuerten Produkten wieder rausholen könnte. Aber es ist schon erstaunlich, in wie vielen Foren man z.B. Usertests mit Lobeshymnen lesen kann, zusammen natürlich mit Danksagungen an den fast immer gleichen Sponsor des Ganzen :wink:

TurricanM3
2015-08-21, 17:57:45
Die GC Extreme ist doch nicht zäh? Nicht dünnflüssig, aber perfekt zu verarbeiten. Bei Grafikkarten muss man ja nun auch nicht spachteln, kleine Perle reicht völlig aus. Tipp: wem es trotzdem zu dick ist - vorher auf ca. 50°C erwärmen. Dann flutscht es geradezu. :tongue:

Die Kryonaut ist nicht schlecht, aber eher was für tiefste Temperaturen. Bei den für eine GPU typischen Temperaturen wird das am Ende keine 0,5 Kelvin Unterschied ausmachen, aber schau mal ins Portemonnaie! DEN Unterschied merkt man sofort. Im Übrigen büßt man durch suboptimales Auftragen oder falsche Mengen oft mehr ein, als man mit überteuerten Produkten wieder rausholen könnte. Aber es ist schon erstaunlich, in wie vielen Foren man z.B. Usertests mit Lobeshymnen lesen kann, zusammen natürlich mit Danksagungen an den fast immer gleichen Sponsor des Ganzen :wink:


Ich habs immer wieder mal gelesen bez. Verarbeitung und kenne sowas von anderen Pasten, z.B. der Ectotherm die den EK Kühlern beiliegt. Ich verwende die schon gar nicht mehr. Bei genügend Anpressdruck wird zu viel WLP sowieso immer an den Rändern rausgedrückt. Ich wundere mich immer wie extrem viel WLP bei NVidia verwendet wird.
Bez. Kryonaut gibts inziwschen schon Userberichte die die super Leistung und den Komfort bestätigen. Aber ist doch eigentlich auch nicht so wichtig. Wenn du doch zufrieden bist und sogar günstiger weg kommst, ist doch alles prima. :smile:
So bin mal basteln jetzt.

(del)
2015-08-21, 18:44:34
So bin mal basteln jetzt.

Viel Spaß :smile:

Ich habe zu den extrem teuren Pasten ein eher gespanntes Verhältnis, nachdem ich mal 40 Stück von den Pampen am Stück getestet habe. Das ist am oberen Ende dann oft schon wie mit den guten alten Oehlbach-Kabeln. :freak:

Wenn man dann noch weiß, welche Firma wo was genau einkauft, dann ist es manchmal schon recht amüsant, diverse Reviews zu lesen, die ein und derselben Mixtur erstaunlich unterschiedliche Werte bescheinigen, obwohl alles aus dem gleichen Bottich kommt ;D

qiller
2015-08-22, 01:04:18
So, hab endlich den BIOS-Mod meiner Zotac 980Ti Amp Extreme abgeschlossen, nachdem ich die wichtigsten Hinweise zu MBT 1.36 und den 980Ti-Biosen im Overlock-Forum (http://www.overclock.net/t/1560073/mbt-1-36-and-gm200-bios-voltage-sliders-missing#post_24118504) gefunden habe. Hab jetzt folgendes angepasst:


GPU-/Mem-Clocks auf finale OC-Werte gesetzt
min Fan-Speed auf 27% (wegen merkwürdigem An-/Aus-Verhalten beim Überschreiten des Schwellenwertes)
Lüfter-Kurve abgeschächt -> Karte wird etwas heißer, Lüfter ist dafür ruhiger
Temp-Throttle- und externer Übertaktungsregler in der Voltage-Table des MBT 1.36 freigeschaltet (siehe Link oben)
max. Übertaktungsregler, Temp-Throttle- und externer Übertaktungsregler auf finale Spannung fixiert (1.237V)
Power-Target einzelner Rails etwas angehoben, um zu frühes Powerlimit zu umgehen


Finale Werte:

GPU-/Mem-Takt: 1480/3900MHz (kein Drop aufgrund der Temp- oder Powerlimits)
vGPU bei max Last: 1.237V
höchste Temp @Witcher3 4k: 77°C (25°C Raumtemp, geschlossenes, gedämmtes Gehäuse mit 4+3 Lüfter-Konfig)
max Fan-Speed: 2260rpm (deutlich hörbar, aber noch nicht unangenehm)
Spannung/Takt werden bei geringer Last trotzdem noch abgesenkt (z.B. Diablo 3 @Vsync)
keinerlei OC-Software nötig


MBT-Screens (die umrahmten Bereiche wurden von mir angepasst):

https://oli.new-lan.de/wp-content/uploads/2015/08/mbt1.pnghttps://oli.new-lan.de/wp-content/uploads/2015/08/mbt2.png
https://oli.new-lan.de/wp-content/uploads/2015/08/mbt3.png

Bin mehr als zufrieden jetzt. Wer Fragen zum Freischalten des externen Übertaktungs- und Temp-Throttle-Reglers hat, kann mich ja per PN kontaktieren. Wenn mans erstmal verstanden hat, isses eigt keine große Sache.

mfg Oli

gedi
2015-08-22, 01:12:48
Dann solltest du die Auslastung steigern. Boost ist OC-Funktion unter Effizienzaspekt. Bei 70% Auslastung gähnt die Karte und taktet logischerweise runter. Gibt es im Spiel ein fps Limit oder immer V-Sync? :|

Das weiß ich doch, allerdings kann ich dem Teil nicht mehr geben. Fifa halt. Temperaturbedingt gab es lediglich Kholat. Bei W3 gähnt meine Karte bei 56°C, bei gerade mal ein bisschen was über 300W.

Nochmals wegen der Vcore: Die hat nichts mit der ASIC zu tun. Standart sind bei jeder (außer vielleicht bei den EVGA irgendetwas-Dingern) 1.193V! Die schwankt allerdings um genau +/- 0.006V, je nach Wandler - und das hat nichts damit zu tun, wieviel Vcore man der Ti für einen bestimmten Takt geben muss.

cR@b
2015-08-22, 01:47:59
Nice @ qiller, ich komm auf dich zu :)

gedi
2015-08-22, 02:17:41
@qiller

1.237V sind mutig und wären mir unter 24/7 zu viel des Guten. BTW. - was bewirken die zusätzlichen Spannungsregler? Wenn man die Spannung unter 3D festtackern will, dann genügt es wenn man unter dem P0-State die linken 2 Regler jeweils auf die gewünschte Spannung anhebt. Und die PCIe-Rail würde ich an deiner Stelle lieber unberührt lassen, denn mehr als 75W fließen nicht durch den Slot, außer du hast ein Mobo, wo man die "AGP-Spannung" anpassen kann.

qiller
2015-08-22, 04:15:13
Ich will ja die P0-States nicht festtackern. Der soll bei lastschwachen Games ruhig runtertakten (bei D3@120Hz/fps VSync läuft die Karte z.B. nur mit 1290MHz und 1.09V). Und die PEG-Rail ist doch auf 75W? Bei den anderen beiden Rails bin ich noch nicht ganz durchgestiegen. Diese Werte hab ich nach langem Ausprobieren und Vergleichen rausgefunden - denke aber auch, dass das ne Zotac-Eigenart ist. Belasse ich die auf den Default-Werten (die 125W waren auf 105W und die 94W auf 89W), taktet die Karte mit PWR-Limit runter (egal was ich bei den 8Pol-Rails oder beim PT noch einstelle). Mit den jetzigen PWR-Settings hält die Karte geradeso den Takt (Afterburner zeigt in manchen Waldstellen von W3 bei PWR-Limit und bei Spannungs-Limit ne "1" an).

Und 1.237V find ich noch akzeptabel, solang die GPU unter 80°C bleibt. Die Größe des Kühlers der Amp Extreme ist da doch recht beruhigend :>.

mfg Oli

gedi
2015-08-22, 13:39:55
Zwecks der PCIe-Lane: Da habe ich mich verschaut - sorry.
Wenn du willst, dass die Grafikkarte bei niedriger Spielelast heruntertaktet, dann macht dein Argument Sinn.
Allerdings wären mir die 1.23V wegen den Wandlern zu viel, nicht wegen der GPU

Hübie
2015-08-22, 16:51:29
Nochmals wegen der Vcore: Die hat nichts mit der ASIC zu tun. Standart sind bei jeder (außer vielleicht bei den EVGA irgendetwas-Dingern) 1.193V! Die schwankt allerdings um genau +/- 0.006V, je nach Wandler - und das hat nichts damit zu tun, wieviel Vcore man der Ti für einen bestimmten Takt geben muss.

Wie kommst du darauf? Die ASIC bestimmt welcher Bereich in einer Tabelle genutzt wird und so ergeben sich bei unterschiedlichen Taktraten auch unterschiedliche Spannungen. Schau mal die Liste im HWL an.
Oder meinst du dass andersrum: Jede hat 1,193 Volt und bei dieser Spannung anderen Takt? Ist das gleiche in grün. Ergibt sich ebenfalls aus der Tabelle die mit der ASIC offset + oder - hat.
Bei meiner ists merkwürdig: Die wählt stumpf 1193 mV, auch wenn der Takt mehr benötigt. Hatte das bei 1520 MHz. Bräuchte da schon 1205 mV. Aber nimmt dennoch 1193. PT und TT waren nicht erreicht (letzteres hatte ich priorisiert).
Leider habe ich momentan keine Zeit das mal näher zu untersuchen. War Schnelltest in 5 Minuten. Kackte zweimal ab. Hat einer Rat? Am liebsten ohne BIOS Mod. :)

TurricanM3
2015-08-22, 17:44:44
Karte läuft inzwischen.
Hab die aktive Backplate (die eigentlich für die rückseitigen RAMs der TitanX gedacht ist) unter Zuhilfenahme von Pads so verbaut, dass sie die RAMs und VRMs mitkühlt. Wird alles beidseitig gekühlt, Sandwich Cooling sozusagen. :biggrin:

http://abload.de/thumb/01ozbcq.jpg (http://abload.de/image.php?img=01ozbcq.jpg) http://abload.de/thumb/02r6ajc.jpg (http://abload.de/image.php?img=02r6ajc.jpg) http://abload.de/thumb/03jlbxg.jpg (http://abload.de/image.php?img=03jlbxg.jpg) http://abload.de/thumb/04b0at7.jpg (http://abload.de/image.php?img=04b0at7.jpg) http://abload.de/thumb/06j1xwh.jpg (http://abload.de/image.php?img=06j1xwh.jpg)

Nach einer halben Stunde Heaven 1500/4000 sieht es so aus:

http://abload.de/img/gpuz84uoa.jpg (http://abload.de/image.php?img=gpuz84uoa.jpg)

Höchste GPU-Temp 38° (Wasser 32.2°).

Habe die Karte dann noch überall mit dem Laser abgefahren, auch in den Schlitz direkt seitlich auf einen VRM. Höchste gemessene Temp 48°. :smile:

http://abload.de/thumb/0530yxo.jpg (http://abload.de/image.php?img=0530yxo.jpg)

Ich weiß leider nicht wie viel das bringt, kenne die Temps im Bereich der SpaWas ohne Backplate nicht, aber ich bin total zufrieden.

akuji13
2015-08-22, 18:04:29
Sehr geil. =)
Vor allem die Temperaturen.

Auch wenn man es vielleicht nicht braucht, es gibt ein gutes Gefühl.

Wenn es bloß von denen einen hübschen Kühler für die Vorderseite geben würde hätte ich mir das auch geholt. :D
Die Rückseite sieht super aus.

phoenix887
2015-08-22, 19:06:29
In der Tat schöne Bilder. Hätte ich das Basteltalent und die Nerven meine Karte umzubauen, würde ich das sofort machen.

00riddler
2015-08-22, 20:33:57
Karte läuft inzwischen.
Hab die aktive Backplate (die eigentlich für die rückseitigen RAMs der TitanX gedacht ist) unter Zuhilfenahme von Pads so verbaut, dass sie die RAMs und VRMs mitkühlt. Wird alles beidseitig gekühlt, Sandwich Cooling sozusagen. :biggrin:

http://abload.de/thumb/02r6ajc.jpg (http://abload.de/image.php?img=02r6ajc.jpg)

Nach einer halben Stunde Heaven 1500/4000 sieht es so aus:

Höchste GPU-Temp 38° (Wasser 32.2°).

Habe die Karte dann noch überall mit dem Laser abgefahren, auch in den Schlitz direkt seitlich auf einen VRM. Höchste gemessene Temp 48°. :smile:

Ich weiß leider nicht wie viel das bringt, kenne die Temps im Bereich der SpaWas ohne Backplate nicht, aber ich bin total zufrieden.

Wie dick sind denn die blauen Pads die du für die Rückseite verwendet hast?
Ich bin nämlich auch gerade am überlegen ob ich mir die aktive Backplate kaufen soll.

gedi
2015-08-22, 20:45:30
Wie kommst du darauf? Die ASIC bestimmt welcher Bereich in einer Tabelle genutzt wird und so ergeben sich bei unterschiedlichen Taktraten auch unterschiedliche Spannungen. Schau mal die Liste im HWL an.
Oder meinst du dass andersrum: Jede hat 1,193 Volt und bei dieser Spannung anderen Takt? Ist das gleiche in grün. Ergibt sich ebenfalls aus der Tabelle die mit der ASIC offset + oder - hat.
Bei meiner ists merkwürdig: Die wählt stumpf 1193 mV, auch wenn der Takt mehr benötigt. Hatte das bei 1520 MHz. Bräuchte da schon 1205 mV. Aber nimmt dennoch 1193. PT und TT waren nicht erreicht (letzteres hatte ich priorisiert).
Leider habe ich momentan keine Zeit das mal näher zu untersuchen. War Schnelltest in 5 Minuten. Kackte zweimal ab. Hat einer Rat? Am liebsten ohne BIOS Mod. :)

Die Liste im Luxx interpretiere ich anders - zumal: Hier ASIC 80% und 1.199V Defaultspannung. Das BIOS ist allerdings werksseitig auf 1.193V eingestellt, die Wandler geben 0.006V mehr drauf.

Zum Rest: Per AB die Spannung um 2 Stufen höher stellen, dann kommen 1.205V raus.

cR@b
2015-08-22, 23:04:12
@Turri

Ich find die WK von vorne wie von hinten sehr geil! Sowas würde ich auch gerne haben aber dafür müsste ich komplett umstellen und in dieser Bastelstimmung bin ich nicht mehr...

Du zockst in 1080p BF4 oder?

Hübie
2015-08-23, 00:42:57
Karte läuft inzwischen.
Hab die aktive Backplate (die eigentlich für die rückseitigen RAMs der TitanX gedacht ist) unter Zuhilfenahme von Pads so verbaut, dass sie die RAMs und VRMs mitkühlt. Wird alles beidseitig gekühlt, Sandwich Cooling sozusagen. :biggrin:

http://abload.de/thumb/01ozbcq.jpg (http://abload.de/image.php?img=01ozbcq.jpg) http://abload.de/thumb/02r6ajc.jpg (http://abload.de/image.php?img=02r6ajc.jpg) http://abload.de/thumb/03jlbxg.jpg (http://abload.de/image.php?img=03jlbxg.jpg) http://abload.de/thumb/04b0at7.jpg (http://abload.de/image.php?img=04b0at7.jpg) http://abload.de/thumb/06j1xwh.jpg (http://abload.de/image.php?img=06j1xwh.jpg)

Nach einer halben Stunde Heaven 1500/4000 sieht es so aus:

http://abload.de/img/gpuz84uoa.jpg (http://abload.de/image.php?img=gpuz84uoa.jpg)

Höchste GPU-Temp 38° (Wasser 32.2°).

Habe die Karte dann noch überall mit dem Laser abgefahren, auch in den Schlitz direkt seitlich auf einen VRM. Höchste gemessene Temp 48°. :smile:

http://abload.de/thumb/0530yxo.jpg (http://abload.de/image.php?img=0530yxo.jpg)

Ich weiß leider nicht wie viel das bringt, kenne die Temps im Bereich der SpaWas ohne Backplate nicht, aber ich bin total zufrieden.

Aus der Sicht eines angehenden Wirtschaftsingeneurs kann ich dir versichern, dass die Herstellungskosten relativ hoch sind, wenn man das mit den meisten anderen Wakü-Konstrukten vergleicht. Das Warten hatte offensichtlich einen Grund. :smile:
Ohne den Preis zu kennen sag ich, dass du die 140€ geknackt hast. Das ist weit über psychologischen Grenzen.

@gedi: 80% ASIC, 1,199 Volt und welcher Takt ist maximal drin, wenn das nicht beschränkt wird?

TurricanM3
2015-08-23, 12:45:51
Die Karte hat BF4 nun 5 Stunden @1500/4000 @1.187v durchgehalten @375W. Laut GPU-Z lag der Verbrauch bei max. 332W.

Was mich etwas wundert: Ich kann die Spannung nicht um nur einen Schritt (18mV?) anheben. Der nächste Schritt den mir GPU-Z anzeigt sind gleich 1.212v bei 12.5v offset per inspector? Danach 1.23v. :confused:
Könnte man per Bios auf 1.199v kommen wenn mir die Karte mal doch noch abschmiert?

Werde mir die Karte jetzt mal auf die Taktraten flashen.

Wie dick sind denn die blauen Pads die du für die Rückseite verwendet hast?
Ich bin nämlich auch gerade am überlegen ob ich mir die aktive Backplate kaufen soll.


3mm. Bei den RAMs musst du sie dann aber schon etwas plätten, ansonsten ist der Abstand so hoch das die Schrauben nicht ans Gewinde kommen.

@Turri

Ich find die WK von vorne wie von hinten sehr geil! Sowas würde ich auch gerne haben aber dafür müsste ich komplett umstellen und in dieser Bastelstimmung bin ich nicht mehr...

Du zockst in 1080p BF4 oder?


Ich hab vor 10 Jahren auch noch ausgiebiger und öfter gebastelt. Inzwischen bin ich dann auch froh wenn die Kiste wieder läuft und ich keine Schwimmflügel brauche. :biggrin:
Den Kühler finde ich auch echt nice. Übers ganze PCB wäre schöner gewesen, aber naja. Die Karte ist btw sowas von schwer, das ist schon einiges an Gewicht.
Just gestern wurden übrigens die Watercool fullPCB vorgestellt, auf die ich ja eigentlich die ganzen Wochen gewartet hatte:
http://gpu.watercool.de/pics/HK_IV_VGA_TITAN_X_980_Ti_XL_5.jpg
http://gpu.watercool.de/pics/HK_IV_VGA_TITAN_X_980_Ti_XLNi-Bl_1.jpg
Lieferbar sind die aber immer noch nicht und von der aktiven Backplate gibts nicht einmal Bilder.

Ja, spiele in 1080p. Trotz heruntergeschraubter Grafik reicht die 1500/4000 Karte immer noch nicht um 122fps 100% stabil zu halten. ZB. bei viel Rauch oder Feuer bricht es immer noch recht stark ein. Das ist aber echt selten. Gut testen kann man die Perf. auf Shanghai nachdem der Turm eingestürzt ist. Die Ti ist da schon massiv besser als die 980. Hat sich für mich definitiv gelohnt. :smile:

TobiWahnKenobi
2015-08-23, 12:54:53
ja, finde auch, dass die karte in BF4 eine ganz gute figur macht.. zumindest ggü allem was ich davor so hatte.

inzwischen bin ich allerdings mit der Ti auch wieder an dem punkt, an dem ich vormals mit titan war.. alles läuft und ich spiele einfach nix.. *luft raus*

naja.. haben ist besser als brauchen - in diesem sinne - heppi sonntag! ich bastle jetzt ein bissl an meinen amigas *gg*


(..)

mfg
tobi

Christopher_Blair
2015-08-23, 16:48:12
Hi,

habe seit vorgestern meine Palit 980ti Super Jetstream.

Läuft auch alles soweit sehr gut (bin von einer 760 umgestiegen :eek:).

Soooo wirklich leise finde ich sie aber nicht.
Solange man nur in FHD spielt hört man sie eigentlich gar nicht.

Aber in 4K/mit Downsampling (ohne OC oder PT Anhebung) wird sie doch schon deutlich hörbar, nicht störend, aber ich hatte mehr erwartet.

An meiner Belüftung im Gehäuse (Fractal Design Arc Midi2) liegt es nicht, auch mit max Gehäuselüfter, komplett offenen etc. ändert sich nix. Scheint also kein Hitzestau im Gehäuse zu sein (habe auch mit mehr Luft rein als raus, umgekehrt etc. probiert).

ASIC ist 65%, Standard Vcore ist 1.193V (ist das viel höher als z.b. bei 75% ASIC?).

Was mir auch aufgefallen ist:
Ich habe die Karte im oberen PCIe Slot, dieser ist direkt unterhalb der CPU (asus z97-a). Die Karte bläst ihre warme Luft nach oben, also direkt in Richtung CPU raus :confused:
(Also wirklich nach oben, nicht nach vorne Richtung Gehäusewand)

Mindestens die Hälfte des Luftstroms wandert so direkt in Richtung CPU Kühler/Lüfter (ist ein Tower Kühler, thermalright venomous x) und wird dort auch scheinbar dann angesaugt.

Habe im letzten Jahr nach und nach alles auf geringe Laustärke umgerüstet (neues Gehäuse, Lüfter, neue leise Platte), bin ich nun bei der Grafikkarte am Ende der Möglichkeiten mit Lüftkühlung angekommen?

aufkrawall
2015-08-23, 16:52:19
Du hast nicht geschrieben, wie heiß die GPU wird.

Christopher_Blair
2015-08-23, 16:55:55
Du hast nicht geschrieben, wie heiß die GPU wird.

Oh, stimmt.

GPU wird ~72 Grad heiss, der Lüfter der Grafikkarte dreht ab dann hoch, und scheint sie bei der Temperatur halten zu wollen. Bis 50% gehts, danach wird es deutlich hörbar. Bei so 56-60% pendelt der Lüfter sich dann ein, je nach Spiel. Hier im Raum sinds ~25 Grad.

Eigene Lüfterkurve hab ich noch nicht probiert, die Backplate wird aber auch so schon sehr heiss.

aufkrawall
2015-08-23, 16:57:09
Das dürfte jede Backplate ohne Lüfter darauf gerichtet werden.
Die VRMs sind vom Hauptkühlkörper abgedeckt, ich würd die GPU heißer werden lassen.

phoenix887
2015-08-23, 17:41:31
Normal das die unter 4k heisser wird. Ist bei meiner G1 auch so. Habe ein eigenes Lüfterprofil mit AB angelegt. Um einiges leiser. Temps zwischen 80 und 85°C. Wenn das Temperaturlimit bei 83 angesetzt ist von Nvidia, kann ich mit den Temps leben bis meine Hybrid wieder da ist.

TurricanM3
2015-08-23, 18:16:33
Ich habe mir mein Bios jetzt recht simpel geändert:

PT @375W
Boost Table so verschoben das 1507MHz anliegen
RAM @4000
Spannungen nicht verändert (stock 1.187v)

Mal die Tage / Wochen schauen ob das wirklich stable ist. Hab eben noch ein paar mal 3DMark laufen lassen auch in 4K & 8K + Heaven.
Wäre natürlich zu schön wenn das einfach so liefe.

W4RO_DE
2015-08-23, 19:01:34
Sagt mal täuscht das, oder gibt die MSI Gaming ihre heiße Luft zu einem guten Teil nach vorne (Richtung Stromanschlüsse) ab? Hab gerade mal meine Hand rangehalten und es scheint so, als würde die warme Luft genau in den Luftstrom meiner vorderen (Luft ansaugenden) Gehäuselüfter abgegeben werden, sodass sie direkt wieder Richtung Grafikkarte gedrückt wird. Unterhalb der Karte war es hingegen nicht allzu heiß. Kann das jemand bestätigen, macht meine Beobachtung angesichts des Kühlerdesigns Sinn?

phoenix887
2015-08-23, 19:04:38
Hi,

habe seit vorgestern meine Palit 980ti Super Jetstream.

Läuft auch alles soweit sehr gut (bin von einer 760 umgestiegen :eek:).

Soooo wirklich leise finde ich sie aber nicht.
Solange man nur in FHD spielt hört man sie eigentlich gar nicht.

Aber in 4K/mit Downsampling (ohne OC oder PT Anhebung) wird sie doch schon deutlich hörbar, nicht störend, aber ich hatte mehr erwartet.

An meiner Belüftung im Gehäuse (Fractal Design Arc Midi2) liegt es nicht, auch mit max Gehäuselüfter, komplett offenen etc. ändert sich nix. Scheint also kein Hitzestau im Gehäuse zu sein (habe auch mit mehr Luft rein als raus, umgekehrt etc. probiert).

ASIC ist 65%, Standard Vcore ist 1.193V (ist das viel höher als z.b. bei 75% ASIC?).

Was mir auch aufgefallen ist:
Ich habe die Karte im oberen PCIe Slot, dieser ist direkt unterhalb der CPU (asus z97-a). Die Karte bläst ihre warme Luft nach oben, also direkt in Richtung CPU raus :confused:
(Also wirklich nach oben, nicht nach vorne Richtung Gehäusewand)

Mindestens die Hälfte des Luftstroms wandert so direkt in Richtung CPU Kühler/Lüfter (ist ein Tower Kühler, thermalright venomous x) und wird dort auch scheinbar dann angesaugt.

Habe im letzten Jahr nach und nach alles auf geringe Laustärke umgerüstet (neues Gehäuse, Lüfter, neue leise Platte), bin ich nun bei der Grafikkarte am Ende der Möglichkeiten mit Lüftkühlung angekommen?

Nochmal ich. Habe aufgrund Treiber Probleme die ganze Zeit in 16:9 also in 3840x2160 gespielt. Jetzt wieder 21:9. Was ich ja beim 40Zoll Philips anbietet in 3840x1632.

Sind 1/3 weniger Pixel als in 4K, dafür sinkt die Temps in fordernde Spielen wie Shadow of Mordor im Schnitt um 4°C. Mal abgesehen davon, das mir das Format besser gefällt, ein netter Nebeneffekt.

qiller
2015-08-23, 19:44:33
Ich habe mir mein Bios jetzt recht simpel geändert:

PT @375W
Boost Table so verschoben das 1507MHz anliegen
RAM @4000
Spannungen nicht verändert (stock 1.187v)

Mal die Tage / Wochen schauen ob das wirklich stable ist. Hab eben noch ein paar mal 3DMark laufen lassen auch in 4K & 8K + Heaven.
Wäre natürlich zu schön wenn das einfach so liefe.

Find ich schon ganz schön heftig, die Unterschiede:
Turris 1507Mhz@1.187V und meine 1480MHz@1.237V (Asic ~69). Mich würde doch glatt mal interessieren, wer hier keine 1500MHz packt? Habt ihr alle nur so ein Luck oder ich solch ein Pech? In solchen Foren ist es ja immer schwierig, eine vernünftige Stastitik aufzustellen. Oder kauft/verkauft ihr eure Karten solange, bis ihr ne gute erwischt habt?

Grestorn
2015-08-23, 19:47:18
Hier! Stable nur 1460 MHz.

AnnoDADDY
2015-08-23, 19:48:32
Find ich schon ganz schön heftig, die Unterschiede:
Turris 1507Mhz@1.187V und meine 1480MHz@1.237V (Asic ~69). Mich würde doch glatt mal interessieren, wer hier keine 1500MHz packt? Habt ihr alle nur so ein Luck oder ich solch ein Pech? In solchen Foren ist es ja immer schwierig, eine vernünftige Stastitik aufzustellen. Oder kauft/verkauft ihr eure Karten solange, bis ihr ne gute erwischt habt?

die 20Mhz merkste eh nicht, und wenn du 1450Mhz hast merkst das auch nicht, aber deine Karte braucht weniger weil weniger Spannung anliegt, ist doch nur ein Luxusproblem, vor 2/3Jahren hat man von soclhem Takt bei Grakas nur träumen können.

cR@b
2015-08-23, 20:26:38
Mir kommts so vor als würden die 980 Ti generell weniger Volt für hohen Takt benötigen. Dazu kommt noch der Asic Wert und alles ist gut. Die TX braichen in jedem Fall deutlich mehr, was u.U. auch an dem Vollausbau bzw. mehr Speicher liegen mag. Aber obs wirklich stabil läuft kann eh nur Jeder für sich selbst sagen...

qiller
2015-08-23, 20:32:09
Mir gings auch mehr um die benötigte Spannung, aber du hast schon recht, Luxusproblem :>. Ist wie die Genderdebatte, ka, ob es solche Diskussionen auch in Ländern gibt, denen es nicht so gut wie D geht. Find es halt komisch, wenn man nur Posts sieht, wo die Leute eigt überhaupt keine Probleme mit 1.5Ghz haben und am Ende nur die Frage steht, mit welcher Spannung sie die erreichen^^. Aber dank Grestorn fühl ich mich wieder etwas besser :>.

phoenix887
2015-08-23, 20:50:56
Mir gings auch mehr um die benötigte Spannung, aber du hast schon recht, Luxusproblem :>. Ist wie die Genderdebatte, ka, ob es solche Diskussionen auch in Ländern gibt, denen es nicht so gut wie D geht. Find es halt komisch, wenn man nur Posts sieht, wo die Leute eigt überhaupt keine Probleme mit 1.5Ghz haben und am Ende nur die Frage steht, mit welcher Spannung sie die erreichen^^. Aber dank Grestorn fühl ich mich wieder etwas besser :>.

Vor allem wenn man im Luxx mitlist. Da ist es noch schlimmer. Vielleicht unter 1080p. Aber bin mir sicher das die meisten instabil werden, sobald man die Auflösung erhöht bzw. mal etwas zockt und Firestrike vergisst.

Da ja die Hybrid wieder weg ist vorerst, habe ich die G1 wieder drin, mit leichter Spannungserhöhung, habe ich auch "nur" 1454/3900mhz@1,193V stabil. ( Musste etwas runter gehen, weil Trine 1^^ mit 3840x2160 und 2xSAA Instabilität aufzeigte) Mehr Spannung bringt einfach nichts oder kaum etwas, habe das Gefühl Maxwell skaliert mit der Spannung nicht so gut wie Kepler.

Hübie
2015-08-23, 21:08:32
Im Luxx sind die "3-Minuten-Terrinen". Lassen mal schnell nen Bench laufen und dann sagen se: "Ja, jaaa. Is alles super stable." :D Da würd ich erst mal gar nicht soviel geben. Außerdem ist das nicht wichtig.
Mal sehen wann ich mal Zeit finde das auszuloten, aber schätze dass die 1187 mV für 1507 MHz bei Turri zu wenig sind. Wie Phoenix887 sagt: Witcher 4k im Buckelsumpf. Wenns da läuft, läufts überall.
Kholat wird wahrscheinlich nur so ungebremst laufen, weil es dafür kein Profil gibt. Würde ich mal gegentesten.

phoenix887
2015-08-23, 21:12:40
Im Luxx sind die "3-Miunuten-Terrinen". Lassen mal schnell nen Bench laufen und dann sagen se: "Ja, jaaa. Is alles super stable." :D Da würd ich erst mal gar nicht soviel geben. Außerdem ist das nicht wichtig.
Mal sehen wann ich mal Zeit finde das auszuloten, aber schätze dass die 1187 mV für 1507 MHz bei Turri zu wenig sind. Wie Phoenix887 sagt: Witcher 4k im Buckelsumpf. Wenns da läuft, läufts überall.
Kholat wird wahrscheinlich nur so ungebremst laufen, weil es dafür kein Profil gibt. Würde ich mal gegentesten.


Schön das wir mal wieder eine Meinung sind:D

aufkrawall
2015-08-23, 21:25:42
Kholat wird wahrscheinlich nur so ungebremst laufen, weil es dafür kein Profil gibt. Würde ich mal gegentesten.
Das wird damit nichts zu tun haben. Wenn es ungebremst läuft, braucht es halt weniger Strom.

Hübie
2015-08-23, 21:41:58
Kann ich nicht sagen, da ich das Spiel nicht habe. Hatte damals mit Mars: War Logs. Ohne Profil heizte die obere SLi-Graka bis auf 94°C. Dann mit Profil und Bits "nur" noch 87°C bei identischer Performance. Daher meine Vermutung.
Es gibt ja viele Settings die nicht benannt sind und so kryptische Bezeichnungen haben, dass die in ASCII wie asiatische Schriftzeichen aussehen. Wer weiß ausserhalb von nV schon was die machen...? :confused:

Kurzum: Versuch macht kluch :biggrin:

TurricanM3
2015-08-23, 22:16:32
Ich glaube ja selbst nicht so wirklich daran, dass die 1500/4000 @1.187v stabil sind. Weiß niemand ob 1.199 als nächste Stufe möglich wären? Irgendwie kriege ich das mit dem normalen Bios nicht eingestellt per Tools. Als nächste Stufe nimmt er gleich 1.212.
Witcher 3 habe ich leider nicht (nicht mein Spiel), schade.
Womit könnte man denn noch testen? Ich spiele ja eigentlich nur BF4.
Project Cars wollte ich mir eigentlich noch zulegen, kann man damit gut testen?

phoenix887
2015-08-23, 23:05:34
Was bei mir sensible reagiert mit OC, in deinem Fall dann DSR 4K, Schadow of Modor, Trine + 3xSSAA, GTA V

gedi
2015-08-24, 00:01:46
Das wird damit nichts zu tun haben. Wenn es ungebremst läuft, braucht es halt weniger Strom.

Kholat heizt und die Grafikkarte säuft wie bei keinem anderen Game.

@Turrican

Im Bios entweder eine Stufe runter, oder aber eine Stufe rauf, dann wird es was mit den 1.199V. Alternativ kann ich dir mein Stock-BIOS schicken, da ist die Default-Spannung ebenfalls 1.199V. Den Rest kannst du ja dann anpassen.

Project Cars eignet sich imo gut um die Grafikkarte auf Stabilität zu prüfen. Anders als bei W3, crasht dir hier das Game allerdings sofort. Also nichts mit Arteffekts und so.

TurricanM3
2015-08-24, 01:34:12
SoM hab ich auch nicht.
Danke gedi. Das ist gut. Vielleicht kaufe ich mir Project Cars die Tage.

Traxx
2015-08-24, 09:42:39
Habt ihr alle nur so ein Luck oder ich solch ein Pech?

Hier auch, ich runde mal nach unten ab, meine EVGA ACX2.0+ geht kaum über 1440 (im Boost) stable, unabhängig vom zugeführten Saft (ohne Mods im Bios, nur über NV Insp.). ASIC 64,5. :freak:

phoenix887
2015-08-25, 00:20:52
ähm bin jetzt etwas verwirrt:confused:

Habe die ganze Zeit OC mit dem Afterburner gemacht. Soweit so gut. Habe jetzt den AB komplett deinstalliert und den EVG Precession 64Bit installiert.

Selbes OC eingestellt.

GPU Temp ca. 4°C weniger, Powertarget irgendwo bei 5-10 % weniger,obwohl ich maximal 390W eingestellt habe, beibe ich in den Games unter 280W, bei selben Einstellungen. Lüfter dreht auch ca. 200rpm langsamer, 2100rpm. Jetzt höre ich die G1 sogar in ruhigen Passagen nicht mehr, erst wenn ich die Boxen komplett ausmache.
Da ich unter 80°C jetzt bleibe, sind die 1,993V wie festgenagelt. Also Werte sogar mit +24mv Spannungserhöhung.

Selbe Spieleinstellungen wie vorher, 3840x1632 und die Games Maxout, habe das mit 2 Spielen ausprobiert. Wird bestätigt, die Werte.

Raumtemperatur, bzw. die Temperaturen im Gehäuse unverändert, sehe das ja an meine Luftsteuerung, die hat Fühler die ich im Gehäuse platziert habe.

Bin irgendwie total geschickt.....

Hat der Afterburner vielleicht Hintergrundprozesse, die irgendwie die Karte belasten?:confused:

Komme mir vor, als hätte ich gerade einen Außerirdischen gesehen. Kann mir die Werte aufeinmal nicht erklären.

Edit: Was ich noch geändert habe bevor ich das EVGA tool installiert habe, habe den NVIDIA GeForce Drivers 355.78 (Oculus 0.7) installiert.

Hübie
2015-08-25, 01:28:19
Ich verifiziere das mal eben. Hab noch den 355.60 drauf und werde gleich mal den 355.78 rauf machen und gegen testen.

ps: 1,993 Volt grillen deinen Chip :biggrin:

phoenix887
2015-08-25, 01:36:58
Meinte 1,193V^^

Kann mir das echt nicht erklären, warum die Werte auf einmal besser sind. Bei der neuen Version des EVGA Tools, haben die ja jetzt einen eigenen Server statt RivaTuner, vielleicht deswegen?

Sorry wenn ich mich anhöre wie ein Newbie, aber versuche mir gerade das zu erklären.

Habe jetzt nochmal Witcher 3 angeworfen, dass hat die von mir bekannte Werte, wobei ich da auch irgendwie das Gefühl habe, das die Karte jetzt besser reagiert. Bin ständig bei über 110%, also 310W, aber durchbreche mit meiner Lüfterkürve nicht mehr die 85°C Wand. Habe da als schon 87°C gesehen. Jetzt maximal 83°C. Heizt ja sowieso gut das Spiel und das nur mit 2200rpm, für die G1, extrem gut und super alltagstauglich die Lautstärke.

TurricanM3
2015-08-25, 07:29:56
@Turrican
Project Cars eignet sich imo gut um die Grafikkarte auf Stabilität zu prüfen. Anders als bei W3, crasht dir hier das Game allerdings sofort. Also nichts mit Arteffekts und so.


Also Project Cars hab ich nun über eine Stunde gespielt. Kein Absturz.
Dank eines netten Forenmitglieds kann ich mal in Witcher 3 reinschauen. Werde mal den Buckelsumpf versuchen zu testen.
EDIT:
Ich habe mir ein Savegame geladen, gibt es irgendwie eine Schnellreisefunktion oder sowas? Oder wie kommt man nach Velen?!

Hübie
2015-08-25, 09:06:03
Einfach an eines der Wegweiser an den Straßen stellen, benutzen drücken und dann ab in den Buckelsumpf. :smile:

Bei mir übrigens keine Veränderung durch den Treiber, Phoenix887. Vielleicht ist deine Umgebung nun einfach kühler oder Afterburner verursacht tatsächlich irgendwie Last. Wäre nur sehr ungewöhnlich, da dass Programm auf der GPU keine Berechnungen ausführt.

TurricanM3
2015-08-25, 09:26:09
Ok thx teste ich heute Abend mal.

akuji13
2015-08-25, 10:13:59
Hat der Afterburner vielleicht Hintergrundprozesse, die irgendwie die Karte belasten?:confused:

Oder er zeigt Blödsinn an.

So wie bei den frametime ms an einem Sync Monitor.

AnnoDADDY
2015-08-25, 10:26:41
Oder er zeigt Blödsinn an.

So wie bei den frametime ms an einem Sync Monitor.
das erklärt aber nicht die niedrigere Lautstärke...

phoenix887
2015-08-25, 10:34:25
das erklärt aber nicht die niedrigere Lautstärke...


Richtig, dann wäre die Karte nicht leiser, bzw. könnte keine niedrigere Lüfterkurve fahren.

Ja, bei den Frametimes, steht oft Quatsch, aber die andere Werte stimmen, habe sie mit GPU-Z abgeglichen.
Ist hier schon kühler geworden, schlafe auch nur mit gekippten Fenster im Wohnzimmer und Schlafzimmer, auch wenn es jetzt draußen Nachts nur 16°C sind. Aber die Fühler zeigen mir im Gehäuse die selben Temperaturen an wie vorher auch.

Naja ich nehme es mal so hin, geschenkter Gaul schaut man nicht ins Maul:biggrin:

Edit: habe jetzt nochmal Shadow of Modor in 3840x2160 und nicht in 3840x1632 getestet. Es ist ein Witz. Bleibe beim PT bei um die 90%. Da babe ich vorher auch die 100% durchbrochen. Obwohl 139% eingestellt habe. Maximal 76-77 GPU Temperatur bei knapp unter 2000rpm. Das war defenitiv vorher nicht so. Als hätte ich eine neue Karte drin. Taktraten stimmen und FPS.

Ich installiere später nach dem Dienst heute Abend den alten Treiber. Will wissen warum die Karte sich so verhält. ggf. Afterburner noch einmal.

akuji13
2015-08-25, 13:05:47
Sind die Sensoren so angbracht das sie direkt die angesaugte Luft vor der Karte messen?

gedi
2015-08-25, 14:55:12
Also Project Cars hab ich nun über eine Stunde gespielt. Kein Absturz.
Dank eines netten Forenmitglieds kann ich mal in Witcher 3 reinschauen. Werde mal den Buckelsumpf versuchen zu testen.
EDIT:
Ich habe mir ein Savegame geladen, gibt es irgendwie eine Schnellreisefunktion oder sowas? Oder wie kommt man nach Velen?!

Dann noch Kholat - wenn es da rennt dann ist es stabil. W3 ist kein Indikator!

Zudem hat Kholat neben einer angemessenen Grafik, auch was mystisches. Ich freu mich schon auf die Final :)

TurricanM3
2015-08-25, 15:02:31
Kholat hab ich leider nicht. Eine Demo gibts da wohl nicht von? Ich werd später mal W3 Buckelsumpf testen. Da dann einfach rumlaufen?

phoenix887
2015-08-25, 16:24:23
Ja, aber eigentlich zocken. Eine halbe Stunde dürfte langen. Bei zu hochem OC habe ich relativ schnell rote Artefakte gesehen.

TurricanM3
2015-08-25, 18:01:37
Toll, wollts gerade ausprobieren, aber ich kann nicht nach Velen. Kann es sein das mir die Wegpunkte dahin fehlen? Sehe nur lauter Ausrufezeichen auf der Karte und eine grüne Schatztruhe.
Könnte mir sonst jemand ein Savegame aus dem Buckelsumpf hochladen?

EDIT:
Hat sich erledigt, hab ein Savegame gefunden! (http://forum.worldofplayers.de/forum/threads/1434374-Savegames-f%C3%BCr-The-Witcher-3/page2)

TurricanM3
2015-08-25, 18:52:15
Also ich bin jetzt gerade über 20Min. im Buckelsumpf herumgelatscht. Keinerlei Artefakte zu sehen. Hab extra in 4K maxed out getestet.
Optisch sieht das wie gemalt aus so, sehr schöne Vegetation.

Ich kriege die Karte so auch nicht zum Absturz. :conf:

qiller
2015-08-25, 20:19:49
Die Artefakte tauchen ziemlich schnell auf (zumindest bei mir), das dauert keine 3min. Wenn es grenzwertig ist, hab ich noch ab und an Crash-to-Desktops.

Raff
2015-08-25, 20:33:43
Ja, Witcher 3 eignet sich gut, um GPU-Instabilität zu visualisieren - viele andere Spiele schmieren einfach ab, ohne dass man etwas sieht. Ich habe außerdem den Eindruck, dass es mit aktivem Hairworks noch deutlicher wird, auf meiner Titan X flackern die Haare sporadisch, wenn die Spannung für den gesetzten Takt nicht genügt. Das Spiel ist generell sehr gemein, selbst mit 1,212 Volt kriege ich mehr als 1.450 MHz nicht artefaktfrei. Sogar Risen 3 läuft mit 1.450 MHz bei 1,187 Volt fehlerfrei, obwohl es als einziger Titel die 100-Prozent-Verbrauchsgrenze erreicht.

MfG,
Raff

TurricanM3
2015-08-25, 20:55:05
Jemand im Luxx meinte Project Cars mit DS würde sehr reinhauen. Das hab ich eben auch noch mal ca. eine Stunde gezockt mit allen möglichen Settings, unter anderem 4K. Ist mir ebenso nicht abgestürzt. Bin ehrlich gesagt ziemlich verwundert dass das alles so mit nur 1.187v läuft. :smile:
Will mich aber auch nicht zu früh freuen. Mal die nächsten Wochen abwarten.
Evtl. liegt das ja mitunter an der relativ geringen Temperatur. Meine Karte ist bei den Tests heute max. 41° heiß geworden, bei ~35° Wasser (Lüfter laufen nur mit Anlaufdrehzahl ~440rpm).

phoenix887
2015-08-25, 21:11:23
Ja, Witcher 3 eignet sich gut, um GPU-Instabilität zu visualisieren - viele andere Spiele schmieren einfach ab, ohne dass man etwas sieht. Ich habe außerdem den Eindruck, dass es mit aktivem Hairworks noch deutlicher wird, auf meiner Titan X flackern die Haare sporadisch, wenn die Spannung für den gesetzten Takt nicht genügt. Das Spiel ist generell sehr gemein, selbst mit 1,212 Volt kriege ich mehr als 1.450 MHz nicht artefaktfrei. Sogar Risen 3 läuft mit 1.450 MHz bei 1,187 Volt fehlerfrei, obwohl es als einziger Titel die 100-Prozent-Verbrauchsgrenze erreicht.

MfG,
Raff

Meine Rede. Vielleicht hat das ja mehr Aussagekraft, wenn es ein PCGH Redakteur schreibt. Von wegen W3 ist kein Maßstab;)

Sind die Sensoren so angbracht das sie direkt die angesaugte Luft vor der Karte messen?

Nicht direkt. Installiere wieder den Treiber mitdem die Skalierung ohne Probleme funktionierte. Mich nervt im Moment das ich 21:9 nicht richtig nutzen kann. Mal schauen, wie dann die Werte sind.

Monty
2015-08-25, 21:22:35
Heute beim Schneiden mit Magix ist mein PC plötzlich abgestürzt. Meint ihr, dass kann an den Einstellungen der 980ti liegen ?

phoenix887
2015-08-25, 22:48:25
Mit dem 353.63 auch die besserem Werte. Keine Ahnung woran es liegt. Wahrscheinlich an was banales, wie vergessen Spannung rauszunehmen oder so:biggrin:

TurricanM3
2015-08-26, 13:48:23
Meine Rede. Vielleicht hat das ja mehr Aussagekraft, wenn es ein PCGH Redakteur schreibt. Von wegen W3 ist kein Maßstab;)


Im Luxx schreibt jemand W3 sei kein guter Test. Da packe seine Karte 50MHz mehr als stabil wäre?
Hab nun schon öfter gelesen Project Cars mit Downsampling wäre härter. Das läuft in 4k im Regen nur noch mit 45fps stellenweise, wirkt dabei aber seltsamerweise immer noch sehr flüssig. Hab mich ziemlich gewundert. Ich brauche eigentlich viel mehr FPS. Inputlag merkt man mit Pad auch nicht so. Grafik Fetischisten sollten sich das unbedingt mal geben, ist schon krank wie gut das Spiel so aussieht.

@Monty
Lass mal Prime95 v27.9 custom laufen oder LinX 0.6.4. =)

Godmode
2015-08-26, 14:23:51
Heute beim Schneiden mit Magix ist mein PC plötzlich abgestürzt. Meint ihr, dass kann an den Einstellungen der 980ti liegen ?

Schau in den Event Log, dort steht meistens drinnen was der Grund für den Absturz war.

TurricanM3
2015-08-26, 14:48:26
Ich tippe mal auf Kernel Power, womit ihm leider kaum geholfen wäre. Evtl. aber der Fehlerrcode.

phoenix887
2015-08-26, 22:49:58
Im Luxx schreibt jemand W3 sei kein guter Test. Da packe seine Karte 50MHz mehr als stabil wäre?
Hab nun schon öfter gelesen Project Cars mit Downsampling wäre härter. Das läuft in 4k im Regen nur noch mit 45fps stellenweise, wirkt dabei aber seltsamerweise immer noch sehr flüssig. Hab mich ziemlich gewundert. Ich brauche eigentlich viel mehr FPS. Inputlag merkt man mit Pad auch nicht so. Grafik Fetischisten sollten sich das unbedingt mal geben, ist schon krank wie gut das Spiel so aussieht.

@Monty
Lass mal Prime95 v27.9 custom laufen oder LinX 0.6.4. =)

Kann dir nur von meinen persönlichen Erfahrungen berichten, die ja von Raff bestätigt wurden.

TurricanM3
2015-08-27, 00:46:17
Ja sagen ja mehrere mit W3, wird schon was dran sein. Ich selbst hatte noch immer keinen Absturz, daher kann ich da nichts zu sagen, aber W3 spiele ich nicht. Hab nun noch 4 Stunden in PCars 4K abgespult.

gedi
2015-08-27, 00:56:25
W3 stresst auch nicht sonderlich - meine Meinung.

Project Cars 4k nativ oder via DSR? DSR ist imo ein NoGo in diesem Spiel da es relativ stark blurt.

Weitere Kandidaten um die Stabilität zu testen sind noch Kholat und (man höre und staune) F1 2015.

TurricanM3
2015-08-27, 01:10:06
DSR über den Treiber. Blurry ist das aber nicht (MSAA+SMAA).

dildo4u
2015-08-27, 09:12:50
PCars hat eingebautes Downsamling man muss kein DSR nutzen.Steht unter den AA Optionen DS2,4,6,9.

TurricanM3
2015-08-27, 11:13:05
Ist das evtl. blurry? Im Treiber hab ich die Glättung nämlich reduziert. Bin aber auf 1620p runter gestern zum Schluss. 4k ruckelt bei Starts im Regen etwas zu sehr.

dildo4u
2015-08-27, 11:35:55
Das ist 1080p mit 6XDS sieht recht klar aus.


http://abload.de/image.php?img=pcars64_2015_08_27_11jnu1m.png

gedi
2015-08-27, 22:39:34
PCars hat eingebautes Downsamling man muss kein DSR nutzen.Steht unter den AA Optionen DS2,4,6,9.

Wobei 4x unter 1440p bereits das Maximum mit einer Ti darstellt (G-Sync disabled).

Hübie
2015-08-28, 02:18:35
PCars hat eingebautes Downsamling man muss kein DSR nutzen.Steht unter den AA Optionen DS2,4,6,9.

Wobei hier die Frage ist ob es mehr oder weniger kostet als DSR. In BF4 kostet die Auflösungsskalierung mehr als das "alte" Downsampling. Wie es heutzutage mit DSR ausschaut weiß ich nicht.
Im Zweifelsfall erst mal die altbackene Methode testen. Wobei man hier immer den Nachteil hat, dass die Frequenz angepasst werden muss. Mit DSR kann man auch 120 / 144 Hz nutzen.

Meine Werkstatt ist in den nächsten 2-3 Tagen fertig und dann geht es an den Umbau meines Gehäuses :biggrin::D Freu mich schon.

Mal sehen ob die Graka dann auch davon profitiert.

phoenix887
2015-08-29, 10:26:04
An meiner Inno3D Hybrid war wirklich etwas an der Pumpe defekt. Bekomme aufjedenfall von Caseking den vollen Betrag wieder.

Werde jetzt meine G1 behalten und fertig;)

cR@b
2015-08-29, 10:47:31
An meiner Inno3D Hybrid war wirklich etwas an der Pumpe defekt. Bekomme aufjedenfall von Caseking den vollen Betrag wieder.

Werde jetzt meine G1 behalten und fertig;)

Sind die Pumpen doch noch nicht ausgereift?

Gute Entscheidung :) die paar Mhz mehr reissen es sowieso nicht raus.

phoenix887
2015-08-29, 12:10:39
Anscheinend nicht. Meine hatte unter Last klack klack gemacht.

Ja die paar Mhz reißen es nicht raus. Ging mir auch um die Lautstärke. Aber da es bei mir abgekühlt hat und ich meine eigene Fankurve angelegt habe mit dem Modbios von Overclock.net (behalte ja die Karte) ist auch das ok. Gibt sich ebfalls nicht mehr viel. Im idle habe ich mehr Ruhe da sich die Hybrid nicht ausschaltet.

Und ob ich jetzt 78°C oder 68°C habe, ist auch Wurst bei deaktiviertem Boost.

Hübie
2015-08-29, 12:26:29
Also ich hab bei mir den zero fan mode deaktiviert, da ich es für besser halte konstante Kühlung zu haben und die 690 Upm wirklich nicht wahrnehmbar sind. Dafür 33°C statt 50 und längere Boostzyklen. Des weiteren bilde ich mir ein, es wäre besser für Motor und Elektronik. Dazu gibt's halt keine Langzeiterfahrungen die auch dokumentiert sind.

TurricanM3
2015-08-29, 12:34:46
Das ist fürs menschliche Ohr sowieso leiser als ein Lüfter der immer wieder anspringt. =)
Man könnte das mit einer angepassten Hysterese vielleicht optimieren, aber das macht wenig Sinn, wenn der Lüfter nicht wahrnehmbar ist.

PS:
9 Stunden Project Cars jetzt und noch immer kein Absturz. :smile:

qiller
2015-08-29, 12:42:39
Also ich hab bei mir den zero fan mode deaktiviert, da ich es für besser halte konstante Kühlung zu haben und die 690 Upm wirklich nicht wahrnehmbar sind. Dafür 33°C statt 50 und längere Boostzyklen. Des weiteren bilde ich mir ein, es wäre besser für Motor und Elektronik. Dazu gibt's halt keine Langzeiterfahrungen die auch dokumentiert sind.

Dito@Zotac 980Ti Amp Extreme - zumal diese noch das An-Aus-An-Problem hatte, und das ist definitiv nerviger als die für mich unhörbaren, dauerhaft laufenden 760rpm@27%PWM.

SamLombardo
2015-08-29, 13:06:20
Huch, was ist denn da los? Ich hab mal aus Interesse in AC Unity 4x msaa angeschaltet und - mal abgesehen dass das Spiel damit in 3840x1620 zu langsam läuft (:freak:*) - zeigt mir Afterburner einen Vram Verbrauch von 7500 mb. Merkwürdig bei einer Karte mit 6 GB VRam.

http://abload.de/thumb/acu_2015_08_29_12_56_cisup.jpg (http://abload.de/image.php?img=acu_2015_08_29_12_56_cisup.jpg)

*aber zum Glück braucht man msaa in dieser Auflösung nicht wirklich. Mit FXAA und Lumasharpen sieht es genau so gut aus, wenn nicht sogar nen Tick besser (weniger Flimmern) und ich habe 40+ fps (und 5300mb Vram Verbrauch).

aufkrawall
2015-08-29, 13:08:56
Unter Windows 10 zeigt er wohl in den RAM ausgelagertes mit an.

SamLombardo
2015-08-29, 13:11:04
Unter Windows 10 zeigt er wohl in den RAM ausgelagertes mit an.
Alles klar, danke. Das erklärt es natürlich;)

Hübie
2015-08-29, 14:03:30
Das ist fürs menschliche Ohr sowieso leiser als ein Lüfter der immer wieder anspringt. =)
Man könnte das mit einer angepassten Hysterese vielleicht optimieren, aber das macht wenig Sinn, wenn der Lüfter nicht wahrnehmbar ist.

PS:
9 Stunden Project Cars jetzt und noch immer kein Absturz. :smile:

ASUS hat so eine Hysterese einprogrammiert. Der springt also nicht immer wieder an und geht dann wieder aus :smile: Project Cars steht auch auf meiner Wunschliste, aber ich komme gar nicht mehr zum Spielen :(

@SamLombardo: Windows 10 hat eine neue MMUIO mit WDM2.0 erhalten, welche den Speicherbereich zusammenfasst. Also hast du virtuell deinen VRAM+Menge X aus DRAM (glaube das 1,5-fache des VRAMs). Die API "sieht" nur den virtuellen Speicherbereich den Windows dieser zuordnet. Also alles wie gehabt, nur besser gemanaged :)

SamLombardo
2015-08-29, 15:28:13
@hübie, danke für die Erklärung.

TobiWahnKenobi
2015-08-29, 18:17:01
der nichtzocker in mir hat gesiegt.. meine Ti ist jetzt weg.. hoffe ich heule ihr nicht nach :)


(..)

mfg
tobi

Raff
2015-08-29, 20:14:12
Und jetzt? GTX 950 @ 1,5 GHz? ;)

MfG,
Raff

TobiWahnKenobi
2015-08-29, 21:18:38
hab aus gelegenheitszockergründen erstmal eine karte verbaut, die mir nicht mit ihrem kühlsystem das ganze system zuballert. jetzt passt sogar wieder meine X-Fi in den PCIe-slot über der grafikkarte. da stand bis heute nachmittag noch mein backside-cooler im weg.
schätze, ich werde jetzt wieder 80°C auf der kartenrückseite messen, wenn ich mal ein spiel starte. das passiert erschreckend selten.

aus wirtschaftlichen gründen musste ich diese karte verbauen; wir lernen uns grad kennen.

http://abload.de/thumb/tx1yzuhs.png (http://abload.de/image.php?img=tx1yzuhs.png)


(..)

mfg
tobi

Grestorn
2015-08-29, 21:29:39
aus wirtschaftlichen gründen musste ich diese karte verbauen; wir lernen uns grad kennen.

Der war gut. Grats! :)

gedi
2015-08-29, 21:41:42
Hat jemand von euch mal Ark angespielt? Ich weiß jetzt nicht, was der DX12-Patch bringen soll, denn man krebst mit 15-25FPS auf vollem GPU-Limit herum :freak:

TobiWahnKenobi
2015-08-29, 21:42:55
Der war gut. Grats! :)

und sollte nichtmal als scherz gedacht sein :) :) thx


die Ti hat mich 200€ gekostet.. aufpreis auf die GTX980. die 980 hat mich 430€ gekostet, von den 650€, die ich für die beiden 970er bekommen habe, die mich wiederum 510€ kosteten. die 510€ waren aus dem verkaufserlös (850€) für titan classic inkl. 3DV TFT. rechne ich jetzt noch das neue UHD-TFT und den accelero gegen, welcher der einzige aufpreis auf die 200€ Ti war (1:1 tausch mod-TI gegen stock TX) und der schon seit titan classic zeiten in meinem bestand ist, lagen zwischen 2012 und 2015 vielleicht 140€ (ohne) oder 180€ (mit AC4) "investitionen" für doch recht schmackhafte und vor allem aktuelle und interessante hardware. ich musste tauschen - titanX ist mit knapp über 1000€ gelistet und ne ref-TI kostet 700€. einen AC4 kriege ich für 40€.

hat sich alles halt nur von mai bis august hingezogen. aber unwirtschaftlich ist sicher etwas anderes. ;)



(..)

mfg
tobi

Raff
2015-08-29, 21:49:36
Hat jemand von euch mal Ark angespielt? Ich weiß jetzt nicht, was der DX12-Patch bringen soll, denn man krebst mit 15-25FPS auf vollem GPU-Limit herum :freak:

Heute zwei Stunden dank des Free-Weekends. TX @ 1.450/4.207 MHz und genau die Bildrate, die du nennst, in 1600p. Das Spiel läuft wahrlich supercrappy – ist aber eigentlich nichts Neues (http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/Specials/Test-Benchmarks-1161186/) –, der Hexer gleicht daneben Butter in der Sonne. +20 Prozent würde ich gern nehmen, das wären dann immerhin fast immer mehr als 20 Fps ... :ugly: Allerdings ist nicht davon auszugehen, dass DX12 im GPU-Limit so viel bringt.

MfG,
Raff

gedi
2015-08-29, 21:59:52
... wobei die HDR-Effekte imo bisher unübertroffen sind. Auch sonst brauchbarer MP und die Spielidee aus Mix von Survival First-Person Action mit Mindcraft-Elementen sind sehr nett und mal etwas Neues, nur leider die Performance - die ist schlicht nicht vorhanden.

Raff
2015-08-29, 22:09:14
Letzteres gilt aber nur für das "Epic"-Preset, die kleineren laufen deutlich besser – siehe die PCGH-Benchmarks, daran hat sich bis heute nur wenig geändert. Ich bin daher stark auf den DX12-Patch gespannt. Allerdings wird das wohl eher (nur) schnarchigen CPUs helfen. Hier hat das Spiel kein Problem; in 800p hatte ich vorhin 50+ Fps trotz nur 2,5 GHz CPU-Takt. Aber lassen wir uns überraschen. =)

MfG,
Raff

gedi
2015-08-29, 22:21:12
Ich spiele in 1440p im Epic-Preset. Grafisch wow, Spielidee wow, gnadenlos volle Server, eigentlich alles toll, bis auf das bereits Angesprochene. Sorry 4 OT.

Hübie
2015-08-29, 23:41:22
hab aus gelegenheitszockergründen erstmal eine karte verbaut, die mir nicht mit ihrem kühlsystem das ganze system zuballert. jetzt passt sogar wieder meine X-Fi in den PCIe-slot über der grafikkarte. da stand bis heute nachmittag noch mein backside-cooler im weg.
schätze, ich werde jetzt wieder 80°C auf der kartenrückseite messen, wenn ich mal ein spiel starte. das passiert erschreckend selten.

aus wirtschaftlichen gründen musste ich diese karte verbauen; wir lernen uns grad kennen.

http://abload.de/thumb/tx1yzuhs.png (http://abload.de/image.php?img=tx1yzuhs.png)


(..)

mfg
tobi

WTF?!

Der war gut. Grats! :)

Cooler Avatar :up:

und sollte nichtmal als scherz gedacht sein :) :) thx


die Ti hat mich 200€ gekostet.. aufpreis auf die GTX980. die 980 hat mich 430€ gekostet, von den 650€, die ich für die beiden 970er bekommen habe, die mich wiederum 510€ kosteten. die 510€ waren aus dem verkaufserlös (850€) für titan classic inkl. 3DV TFT. rechne ich jetzt noch das neue UHD-TFT und den accelero gegen, welcher der einzige aufpreis auf die 200€ Ti war (1:1 tausch mod-TI gegen stock TX) und der schon seit titan classic zeiten in meinem bestand ist, lagen zwischen 2012 und 2015 vielleicht 140€ (ohne) oder 180€ (mit AC4) "investitionen" für doch recht schmackhafte und vor allem aktuelle und interessante hardware. ich musste tauschen - titanX ist mit knapp über 1000€ gelistet und ne ref-TI kostet 700€. einen AC4 kriege ich für 40€.

hat sich alles halt nur von mai bis august hingezogen. aber unwirtschaftlich ist sicher etwas anderes. ;)



(..)

mfg
tobi

Okay, nun weiß ich Bescheid. :freak: Grats, Tobi. Somit bist du hier wohl raus :biggrin:

Meine Werkstatt ist zu 90% abgeschlossen. Kommende Woche wird das Gehäuse modifiziert. Ich überlege gerade enen 200er-Lüfter an die Seitwand zu montieren und auf die Strix pusten zu lassen, falls genug Platz ist.
Andererseits muss ich mir das Strömungsverhalten dann mal genauer ansehen. Wird ja deutlich turbulenter. :| Was denkt ihr?

phoenix887
2015-08-30, 00:13:04
Zero Mode ist genau richtig für mich. Da ich oft nur auf dem Desktop bin und nicht zum zocken komme, ist es ok, besser und wird das Kugellager der Lüfter schon aushalten, wenn ich doch mal ne Stunde was spiele.

Bei merhmaligen Lastwechsel am Tag, wäre das etwas worüber ich aber dann nachdenken würde.

dildo4u
2015-08-30, 10:44:20
MSI GTX 980 Ti Lightning Review


http://www.guru3d.com/articles_pages/msi_geforce_gtx_980_ti_lightning_review,10.html

Temps und Lautstärke sind excellent natrülich lässt sich das MSI gut bezahlen.

qiller
2015-08-30, 14:14:19
Nettes Teil, kommt nur übern Monat zu spät. Kühler sieht mir von der Masse her, wie der von der Zotac aus, aber wahrscheinlich mit besseren/leiseren Lüftern. Ansonsten Dual-Bios, aufgebohrtes PCB (2x8pol + 1x6pol ^^), Fullcover-Backplate, aber mal wieder kein Test in nem geschlossenen Gehäuse. Wer betreibt denn bitte ne ~850€ Grafikkarte dauerhaft in nem offenen Gehäuse oder Showcase. Preis sind nochmal 60€ mehr, als ich schon für meine Zotac bezahlt habe. Obs das wert ist, muss jeder selber entscheiden, besser übertakten lässt sich auch dieses Modell schonmal nicht...

gedi
2015-08-30, 23:37:58
Das Teil wäre imo den Preis wert, wenn ASIC 78+ garantiert wären. So bringen die ganzen Features ohne LN2 wie gesehen nichts.

Hübie
2015-08-31, 14:11:09
Müsste man mal nachfragen, ob die binnen... Ich schätze eher nicht ;)

Dural
2015-09-01, 14:41:29
Wer braucht da noch die Nano:

Mini-ITX-Gehäuse mit 7,25 Litern Volumen für Spieler

http://www.computerbase.de/2015-09/dan-cases-a4-sfx-mini-itx-gehaeuse-mit-7.25-litern-volumen-fuer-spieler/

phoenix887
2015-09-01, 17:39:26
Wer braucht da noch die Nano:



http://www.computerbase.de/2015-09/dan-cases-a4-sfx-mini-itx-gehaeuse-mit-7.25-litern-volumen-fuer-spieler/

und was hat das jetzt mit der Ti zu tun?:confused:

Übrigens hier 2 gute Videos von meinem Lieblingstechnik YouTuber JayzTwoCent:

Zum Thema Asic:

https://www.youtube.com/watch?v=S4sLDvMlfMs

Bestätigt meine Erfahrung mit 2 Tis mit jeweis 80,5% und einmal 74% Asic.

https://www.youtube.com/watch?v=BHAIe-fOTyM

Das Fazit wird wohl auch auf die Lighting passen. Also nicht vom Marketing verblenden lassen, außer ihr baut auf H20 oder L2N um;)

Godmode
2015-09-01, 17:53:04
und was hat das jetzt mit der Ti zu tun?:confused:


Spam halt...

Übrigens hier 2 gute Videos von meinem Lieblingstechnik YouTuber JayzTwoCent:

Zum Thema Asic:

https://www.youtube.com/watch?v=S4sLDvMlfMs

Bestätigt meine Erfahrung mit 2 Tis mit jeweis 80,5% und einmal 74% Asic.

https://www.youtube.com/watch?v=BHAIe-fOTyM

Das Fazit wird wohl auch auf die Lighting passen. Also nicht vom Marketing verblenden lassen, außer ihr baut auf H20 oder L2N um;)

Und was ist sein Fazit?

phoenix887
2015-09-01, 17:59:18
Das sie auch nicht mehr OC macht wie andere Karten, trotz Marketing "KingPin". Bzw das der Asic egal ist, bzw. der Asic nur ausagt wieviel Spannung man für einen bestimmten Takt braucht. Die OC-Fähigkeit unabhängig vom GPU zu GPU variert, aber nicht vom Asic. Wenn man alternative Kühlung installiert, dann isses soweiso egal, da man sich keinen Kopf mehr machen muss um Temps und das 2x8Pin Plus 1x6Pin erst dann etwas bringen. Stichwort 450W:D

Betont aber am Schluss, das es nur seine Erfahrungen sind, und eventuell andere Reviewer andere Erfahrungen machen, und sein Wort nicht in Stein gemeisselt ist. Aber wie gesagt, ist auch meine Beobachtung mit 2 Tis bezüglich Asic. Zur Kingpin kann ich nichts sagen, habe keine^^, aber wird schon was dran sein.

Godmode
2015-09-01, 18:02:10
Das sie auch nicht mehr OC macht wie andere Karten, trotz Marketing "KingPin". Bzw das der Asic egal ist, bzw. der Asic nur ausagt wieviel Spannung man für einen bestimmten Takt braucht. Wenn man alternative Kühlung installiert, dann isses soweiso egal, da man sich keinen Kopf mehr machen muss um Temps und das 2x8Pin Plus 1x6Pin erst dann etwas bringen. Stichwort 450W:D

Na gut, dann wissen wir das jetzt auch :)

phoenix887
2015-09-01, 18:06:31
Naja dir ist es vielleicht bekannt:D(falls bei dir Ironie^^ mitschwingt), wollte es nur mal mitteilen, da im Internet viele Halbwahrheiten zu dem Thema im Netz im Umlauf sind und man sich von EVGA nicht umbedingt abzocken lassen muss, bezüglich ASIC.

cR@b
2015-09-01, 18:28:18
Trotzdem gibts Hunderte die ihre neue Karte deswegen zurück schicken und beim Gebrauchtkauf darauf sogar achten. M.M.n. völlig überbewertet vorallem in den Taktregionen.

phoenix887
2015-09-01, 18:30:07
Trotzdem gibts Hunderte die ihre neue Karte deswegen zurück schicken und beim Gebrauchtkauf darauf sogar achten. M.M.n. völlig überbewertet vorallem in den Taktregionen.

Das meine ich ja. behalte meine mit nur "74%"^^. Aber vielleicht kommt der eine oder andere mal zum Nachdenken;)

The_Invisible
2015-09-01, 19:50:08
Überlege jetzt auch meine MSI GTX970 gegen eine 980Ti zu tauschen.

Das wichtigste für mich ist das sie leise ist, habe gerade alle meine HDDs gegen SSDs getauscht und ich höre den Rechner quasi nicht mehr. Meine derzeitige MSI (@1,5Ghz) ist derzeit eigentlich auch perfekt, sehr leise unter Last und Spulenfieben erst hörbar bei 2 - 3000 fps. Es könnten allerdings unter 1440p ein paar fps mehr sein.

Habe jetzt mal gesehen das die Palit (Super) Jetstream und MSI Gaming 6G vor allem in mein Profil passen würden, haben auch alle den Zero-Fan Modus. Die Palits sind aber ein gutes Stück günstiger als die MSI, wobei ich mit meiner derzeitigen MSI GTX970 sehr gute Erfahrungen gemacht habe.

Was sagt ihr dazu, gibts noch Alternativen oder wären diese Karten zu empfehlen, Danke.

phoenix887
2015-09-01, 21:12:39
Wenn dir die Lautstärke wichtig ist, könnte ich dir nur die Palit empfehlen. Habe ich auch so in allen Reviews gelesen.

Aber wenn du mit der MSI gute Erfahrung gemacht hast, denke das die Ti dann auch ok ist. Hatte mal die MSI 960 GTX und die war schön leise auch mit OC. Allerdings halt eine GTX960 und kleinerer Wattverbrauch.

Lese dir einfach mal ein paar Reviews durch zur MSI, wenn nicht dann die Palit.

Tamagothi
2015-09-01, 21:39:59
Wie wäre es mit einer Fury Tri-X ?

-Zero-Fan Modus
-unter 1 Sone unter Last ( 14 dBp )
-Gleiche/Bessere Leistung für 1440p als GTX 980

http://ht4u.net/reviews/2015/amd_radeon_r9_fury_-_mangelware_im_test/

VooDoo7mx
2015-09-01, 23:04:49
Überlege jetzt auch meine MSI GTX970 gegen eine 980Ti zu tauschen.

Das wichtigste für mich ist das sie leise ist, habe gerade alle meine HDDs gegen SSDs getauscht und ich höre den Rechner quasi nicht mehr. Meine derzeitige MSI (@1,5Ghz) ist derzeit eigentlich auch perfekt, sehr leise unter Last und Spulenfieben erst hörbar bei 2 - 3000 fps. Es könnten allerdings unter 1440p ein paar fps mehr sein.

Habe jetzt mal gesehen das die Palit (Super) Jetstream und MSI Gaming 6G vor allem in mein Profil passen würden, haben auch alle den Zero-Fan Modus. Die Palits sind aber ein gutes Stück günstiger als die MSI, wobei ich mit meiner derzeitigen MSI GTX970 sehr gute Erfahrungen gemacht habe.

Was sagt ihr dazu, gibts noch Alternativen oder wären diese Karten zu empfehlen, Danke.

Wenn Hauptsächlich Lautstärke ein wichtiger Faktor ist, ist die Palit die beste Karte am Markt. Es gibt zwar andere Karten die ähnlich leise sind, die haben dann aber meist eine deutliche schlechtere Kühlung. Wie z.b. die Inno X3 wo die GPU im Normalbetrieb über 80°C erreicht und die Spawas komplett ungekühlt sind.

Wenn man das Letzte MHz aus der Karte quetschen möchte, ist die Palit ab Werk nicht die beste Lösung, da nur Power Limit der Referenzkarten Maximum ist. Also 100%=250W und 110%=275W. Dem lässt sich mit einen Bios Mod Abhilfe schaffen, aber für wem das nichts ist, sei hiermit gewarnt. Mit OC und 4K kann man mit Witcher 3 z.B. mehr als 300W mit einen 980 Ti Board verbraten.

Mit der MSI macht man sicher auch nichts falsch, jedoch kann weder die Kühllösung. noch Lautstärke mit der Palit mithalten. Jedoch gibt MSI auch gerade 30€ Cashback wenn man eine kauft.

Disclaimer: Ich nutze selber eine Palit 980 Ti Super Jetstream mit Bios Mod auf 325W. ;)

Wie wäre es mit einer Fury Tri-X ?

-Zero-Fan Modus
-unter 1 Sone unter Last ( 14 dBp )
-Gleiche/Bessere Leistung für 1440p als GTX 980

http://ht4u.net/reviews/2015/amd_radeon_r9_fury_-_mangelware_im_test/

Geh wieder in deinen Sandkasten zurück.

Hübie
2015-09-02, 03:50:36
Überlege jetzt auch meine MSI GTX970 gegen eine 980Ti zu tauschen.

Das wichtigste für mich ist das sie leise ist, habe gerade alle meine HDDs gegen SSDs getauscht und ich höre den Rechner quasi nicht mehr. Meine derzeitige MSI (@1,5Ghz) ist derzeit eigentlich auch perfekt, sehr leise unter Last und Spulenfieben erst hörbar bei 2 - 3000 fps. Es könnten allerdings unter 1440p ein paar fps mehr sein.

Habe jetzt mal gesehen das die Palit (Super) Jetstream und MSI Gaming 6G vor allem in mein Profil passen würden, haben auch alle den Zero-Fan Modus. Die Palits sind aber ein gutes Stück günstiger als die MSI, wobei ich mit meiner derzeitigen MSI GTX970 sehr gute Erfahrungen gemacht habe.

Was sagt ihr dazu, gibts noch Alternativen oder wären diese Karten zu empfehlen, Danke.

Also eigentlich bleibt nur die Palit übrig, denn die hat mehr Reserven im Kühlsystem und ein eigenes PCB, was im Gegensatz zu den Inno3D ein Vorteil ist. Da machst du sicher nix falsch. Die haben afaik nur keinen deutschen Support, aber halb so wild.

@Tamagothi: Wir reden hier nicht von einer GTX 980 sondern GTX 980 Ti. Das sind gut und gerne mal 20-30% mehr Leistung ;)

The_Invisible
2015-09-02, 08:01:23
Danke, habe auch wieder mehr Reviews gelesen und die Super Jetstream scheint da erste Wahl zu sein, Sie ist komischerweise auch eine der günstigeren 980Tis.

BIOS Mod oder ähnliches habe ich nicht vor, habe nicht mal bei meiner derzeitigen Karte versucht per Software die Voltage anzupassen. Habe nur PowerTarget auf 110% und dann geschaut was mit default VCore geht.

@Tamagothi
Ist zwar interessant, da ich aber auch unter Linux arbeite/game ist eine AMD derzeit einfach keine Wahl für mich. Siehe auch http://www.phoronix.com/scan.php?page=article&item=nv-gtx950-fury&num=2 das darf einfach nicht vorkommen, auch nicht bei extremsituationen

dildo4u
2015-09-02, 11:27:58
ASUS GTX 980 TI Poseidon soll dank Wakü 30 Grad kühler bleiben

http://abload.de/img/2-1080.3078463670ysdb.jpg

http://www.computerbase.de/2015-09/asus-gtx-980-ti-poseidon-soll-dank-wakue-30-grad-kuehler-bleiben/

750€ ist ein ziehmlich guter Preis.

Hübie
2015-09-02, 12:51:27
NEEEEEEEEEEEEEEEIIIIIIIIIIIIIIIIIIIIIIN!
Jetzt kommt die Poseidon. Ohne Witz: Ich hatte überlegt diese zu nehmen und dann einen 360er Radi "an die Decke" zu bammeln damit ich CPU und Graka mit Wakü kühle. :mad: F*ck.

TobiWahnKenobi
2015-09-02, 12:52:54
den ärger kann ich nachvollziehen. :)


(..)

mfg
tobi

Hübie
2015-09-02, 12:57:34
Meine ASUS ist halt nicht leise genug um mir gerecht zu werden. Nun ists eh zu spät.

Godmode
2015-09-02, 13:12:17
NEEEEEEEEEEEEEEEIIIIIIIIIIIIIIIIIIIIIIN!
Jetzt kommt die Poseidon. Ohne Witz: Ich hatte überlegt diese zu nehmen und dann einen 360er Radi "an die Decke" zu bammeln damit ich CPU und Graka mit Wakü kühle. :mad: F*ck.

Kauf dir einen Block bei EKWB und fertig ist die eigenbau Poseidon. :P

Hübie
2015-09-02, 13:14:48
Für eine Strix? :P

Godmode
2015-09-02, 13:16:49
Für eine Strix? :P

Scheisse, daran hab ich wieder nicht gedacht... Aber du kannst ja deine Strix immer noch verkaufen und dafür eine Poseidon kaufen.

Hübie
2015-09-02, 13:49:45
Nö. Zu viel Aufwand bei zu wenig Zeit. Habe letzte Nacht endlich mal wieder gezockt und fand es total geil mit DSR sowie volle Pulle zu spielen :biggrin: War übrigens MGS V welches bei meiner Graka dabei war. Hat sich voll gelohnt!!!111einseinself :naughty:

Thunder99
2015-09-02, 14:21:59
Das sie auch nicht mehr OC macht wie andere Karten, trotz Marketing "KingPin". Bzw das der Asic egal ist, bzw. der Asic nur ausagt wieviel Spannung man für einen bestimmten Takt braucht. Die OC-Fähigkeit unabhängig vom GPU zu GPU variert, aber nicht vom Asic. Wenn man alternative Kühlung installiert, dann isses soweiso egal, da man sich keinen Kopf mehr machen muss um Temps und das 2x8Pin Plus 1x6Pin erst dann etwas bringen. Stichwort 450W:D

Betont aber am Schluss, das es nur seine Erfahrungen sind, und eventuell andere Reviewer andere Erfahrungen machen, und sein Wort nicht in Stein gemeisselt ist. Aber wie gesagt, ist auch meine Beobachtung mit 2 Tis bezüglich Asic. Zur Kingpin kann ich nichts sagen, habe keine^^, aber wird schon was dran sein.
Aber es ist nicht falsch wenn man sagt eine hohe ASIC Quali verursacht geringere Leckströme, Spannung, was eine niedrigere Temperatur und Leistungsaufnahme bedeutet. Ergo einen höheren Takt ermöglicht bevor man in das entsprechende Limit kommt (vorausgesetzt man modifiziert diese nicht) :D :freak:

Monty
2015-09-02, 15:32:34
Sein wir doch mal ehrlich. Der OC-Unterschied bei Standard und Powerkühlung ist doch bei der 980ti wirklich verschwindend gering. Meiner Meinung nach lohnt der Aufwand für 50-100 MHZ mehr GPU-Takt keineswegs.
Gerade diese ganze OC-Karten beweisen es einmal mehr. Selbst mit denen ist nicht viel mehr drin. Von Hardcore OC mit Stickstoff mal abgesehen ;)

Hübie
2015-09-02, 16:35:11
Da widerspreche ich dir. Mit anständiger Kühlung und entsprechender Option trennt sich allein durch die ASIC die Spreu vom Weizen mit gut und gerne 10%. Dazu noch VRAM-OC und wir landen bei 15%.

qiller
2015-09-02, 17:36:30
Ne Hübie du musst das in Relation sehen. Frag dich doch mal, wieviel 980Tis keine 1400MHz schaffen und wieviele über 1550MHz gehen? Und das sind dann schon die extremeren Beispiele. Das Gros der Karten wird 1450-1500MHz mitmachen, wenn es sonst keine Limitierungen (z.B. Pwr oder Temp) gibt (praktisch wirds aber bei Ref-Kühler nunmal Limits geben).

Was Monty aber übersieht, sind die Bedingungen, unter der die Karte dann arbeiten darf. Ne übertaktete Karte mit Standardkühler wird nunmal sehr wahrscheinlich sehr heiß werden. Wenn die Ref-Karte dann aufgrund der schlechteren Temp-Bedingungen runtertaktet, wird der Abstand zur "Powerkühler"-Karte wieder größer.

Da ich keine Ref-Karte habe, kann ich aber nicht sagen, wieviel Mehrtakt man gefahrlos rausholen kann. Wenn man bei 1300MHz schon an der 85°C-Marke kratzt und einem die Ohren weggepustet werden, haben die Custom-Kühler/-Design schon ihre Berechtigung.

Hübie
2015-09-02, 17:40:51
Die Relation besteht zwischen Spannung und Takt.

phoenix887
2015-09-02, 17:57:04
Aber es ist nicht falsch wenn man sagt eine hohe ASIC Quali verursacht geringere Leckströme, Spannung, was eine niedrigere Temperatur und Leistungsaufnahme bedeutet. Ergo einen höheren Takt ermöglicht bevor man in das entsprechende Limit kommt (vorausgesetzt man modifiziert diese nicht) :D :freak:

Habe ja nichts anderes gesagt. Man braucht weniger Spannung für zb 1500mhz, als mit einem niedrigen Asic. Dann ist die Karte kühler, ist ja logisch.

Aber beide machen halt nur 1500mhz, weil sie nicht mehr können unabhängig vom Asic. Asic sagt nur was über Spannung aus und nicht, wieviel OC geht. Die meisten haben halt noch Kepler im Kopf, da hat mehr Spannung noch was gebracht.

Ist halt mene Erfahrung mit einer TI mit 74% und einmal mit 80,5%. Beide haben 1520mhz gemacht. Letztere mit weniger Spannung. Deswegen lasse ich meine G1 mit 1453mh@1,74V laufen oder wenn sie knapp über 80°C geht (im Moment nur bei Witcher 3 der Fall) mit 1440@1,15V laufen. Könnte auch 1520mhz@1,237 laufen lassen, ist mir aber zuviel Abwärme, bzw. mir persönlich zu laut, deswegen hole ich mir auch keine andere Karte. Weil die 70 mhz schenke ich mir und an der Karte selber will ich auch nicht basteln.

Aber halte es so wie JayztwoCent, ist meine Beobachtung und Erfahrung, ist nicht in Stein gemeisselt, meine Aussage. Andere User könnten eventuell andere Erfahrungen machen, bin ja nicht der Nabel der Welt:freak:

qiller
2015-09-02, 18:16:09
Da widerspreche ich dir. Mit anständiger Kühlung und entsprechender Option trennt sich allein durch die ASIC die Spreu vom Weizen mit gut und gerne 10%. Dazu noch VRAM-OC und wir landen bei 15%.

Wie meinst du den Satz? Redest du vom maximalen OC-Ergebnis? Soweit mir bekannt, hat die Asic damit nämlich genau nüx zu tun.

Hübie
2015-09-02, 20:07:51
Ich beziehe mich auf die Kernaussage:
Der OC-Unterschied bei Standard und Powerkühlung ist doch bei der 980ti wirklich verschwindend gering.

Die Liste im Luxx zeigt das deutlich genug.

Bilder sagen mehr als Worte:

http://abload.de/thumb/asic-liste2ljkf.png (http://abload.de/image.php?img=asic-liste2ljkf.png)

Folge den roten Pfeilen ;) Bei relativ konstanten Spannungen ist der Taktunterschied out of the box mit steigender ASIC bei 100 MHz. Dafür muss man keinen Finger krumm machen. Wenn man jetzt priorize TT, PT110% einstellt und gut kühlt sind das noch weitaus mehr.

Edit: Also nein. Ich rede nicht vom absoluten Ergebnis. Wahrscheinlich kann man jede Karte mit annähernd 1,3 Volt auf 1.600 MHz quälen um einen Pimmelmark durchlaufen zu lassen und ein IHV sein Geld an diesen Menschen verbrennen kann, der die Menschheit - genau wie jeder Modedesigner - kein Stück weitergebracht hat. Merkt man meine Verachtung für Modedesigner und Benchmarker? :biggrin:

qiller
2015-09-02, 20:48:59
Sollte Monty drauf antworten, ich seh in Montys Aussage nämlich den Bezug auf die Asic gar nicht. Er redet von Standard-Kühlung vs "Power"-Kühlung und darauf bezog ich mich hiermit (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10763866#post10763866) wiederum.

Ich formulier mal deine sarkastische Aussage etwas um: Mit höherer Asic kann man "effizienter" übertakten. Stimmen wir da überein?

PS: Ich kann mit der Liste nix anfangen. Warum ist die erste jetzt "besser" als die letzte?

Hübie
2015-09-02, 20:51:16
Wir reden doch mittendrin ständig von der ASIC :confused: Er hat sonst niemanden explizit zitiert, also nehme ich immer an, der vorangegangen Beitrag ist der gültige. So kenne ich das jedenfalls ;)

qiller
2015-09-02, 21:36:09
Hatte montys Beitrag eher als Allgemein-Statement aufgefasst, unabhängig von der Asic-Problematik. Aber wie gesagt, kann nur Monty beantworten.

akuji13
2015-09-02, 21:50:45
Ist halt mene Erfahrung mit einer TI mit 74% und einmal mit 80,5%. Beide haben 1520mhz gemacht. Letztere mit weniger Spannung.

Gilt so (nicht mit genau den Spannungen/Hz) auch für meine zwei X die ich hatte.

Asus 77,9% und EVGA 71,8%, erstere ebenfalls weniger Spannung bei 1400 Mhz.

ChristianTHB
2015-09-02, 21:53:52
Ist zwar schon ne Weile her, aber nun hab ich die finale Version in passender Farbe verbaut.

http://abload.de/img/20150902_21422821qmy.jpg

Wer sich fragen sollte um was es geht -> Seite 86 schaun ;)

Da hast du die Farbe ja genau getroffen. :) Wie warm wird die Karte jetzt eigentlich bei dir?

gedi
2015-09-03, 03:19:20
Ich beziehe mich auf die Kernaussage:


Die Liste im Luxx zeigt das deutlich genug.

Bilder sagen mehr als Worte:

http://abload.de/thumb/asic-liste2ljkf.png (http://abload.de/image.php?img=asic-liste2ljkf.png)

Folge den roten Pfeilen ;) Bei relativ konstanten Spannungen ist der Taktunterschied out of the box mit steigender ASIC bei 100 MHz. Dafür muss man keinen Finger krumm machen. Wenn man jetzt priorize TT, PT110% einstellt und gut kühlt sind das noch weitaus mehr.

Edit: Also nein. Ich rede nicht vom absoluten Ergebnis. Wahrscheinlich kann man jede Karte mit annähernd 1,3 Volt auf 1.600 MHz quälen um einen Pimmelmark durchlaufen zu lassen und ein IHV sein Geld an diesen Menschen verbrennen kann, der die Menschheit - genau wie jeder Modedesigner - kein Stück weitergebracht hat. Merkt man meine Verachtung für Modedesigner und Benchmarker? :biggrin:


Was bedeutet High Asic eigentlich? Ich bin mir zu 100% sicher, dass meine GPU im Vergleich Völter/Takt so ziemlich alles platt macht - und meine GPU hat lediglich 79.9%!

1.425G -> 1.1V
1.5G -> 1.175V
1.54G -> 1.199V
1.583G -> 1.212V

Allerdings (!) - ist die Geschichte mit geringen Leckströmen und High Asic kompletter Mumpitz, denn exakt das Gegenteil ist der Fall. Soll heißen, meine GPU ist mit mehr als 1.212Völtern nicht mehr zu kühlen. Und ich spreche hier von einer GPU, welche W3@1.5G bei 23.7°C Raumtemperatur nach 2 Stunden gekühlt von einem MK-26, bei 54°C besänftigt wird.

Bei mir liegt der Sweet-Spot bei exakt 1.205V, was in etwa 1.57G entspricht. Nachteil: Hier reicht ein 390W-Bios manchmal nicht mehr aus.

Wie bereits erwähnt: High Asic unter Luft und Wasser das Beste was einem unterkommen kann, Low Asic - etwas für LN2! Bei High Asic skaliert die Vcore kaum bis überhaupt nicht ;)


In der Summe empfinde ich EVGAs Kinpin Angebot als das Beste: Einmal viel investieren und relativ sichere >1.5G um damit fast jede TX zu plätten ...

... oder aber weniger investieren, um dann durch exorbitante (und kostspielige) Kühl-Methoden, bedingt durch ein klasse PCB ( incl. Wandler, Ram usw.) das Letzte aus der Hardware zu holen.

Hübie
2015-09-03, 08:06:58
Also 79,9 ist viel. Wenn so ein Chip auf dem Package landet, wird dieser in einer Station getestet. Dabei wird ermittelt welche Module funktionieren, wieviel Mindestspannung anliegen muss, ob die SERDES alle arbeiten, clock distribution und und und. Das was wir am Ende beeinflussen können ist eine Taktdomäne, mit Spannungsversorgung die über ein Bus-Protokoll Werte nach außen geben kann. Diese Taktdomäne wird von einer Logik gesteuert, welche wiederum eine Tabelle mit Werten den MCU moduliert bzw. "steuert". Beim testen wird über verschiedene Parameter festgelegt von wo bis wo diese Tabelle geht. Daraus wird die ASIC errechnet. Ich kann mir denken dass diese über eine Bitsequenz irgendwo im ROM (non flash) gespeichert ist. GPU-Z liest afaik jedoch nur die Tabelle aus und errechnet diesen Wert. Das weiß ich jedoch nicht genau.

Leakage is sehr umfangreich und ich bin kein Elektroniker. Vielleicht hab ich nachher mal noch Zeit etwas dazu zu sagen. :) Muss nun weg.

cR@b
2015-09-03, 09:58:20
Sein wir doch mal ehrlich. Der OC-Unterschied bei Standard und Powerkühlung ist doch bei der 980ti wirklich verschwindend gering. Meiner Meinung nach lohnt der Aufwand für 50-100 MHZ mehr GPU-Takt keineswegs.
Gerade diese ganze OC-Karten beweisen es einmal mehr. Selbst mit denen ist nicht viel mehr drin. Von Hardcore OC mit Stickstoff mal abgesehen ;)

Ich gebe dir da zu 100% Recht, zumindest im Bezug auf den prozentualen Leistungsgewinn in Form von Frames! Was die Karte bei höheren Asic prozentual mehr Standard boosten kann, interessiert m.M.n. nicht und ist auch nicht zu 100% ausschlaggebend für das max. OC. Wie mehrfach erwähnt lässt die Leistungsskalierung in den Taktregionen von ~1400-1550 extrem nach...

Hübie
2015-09-03, 11:12:11
Ab ~1400 MHz muss man den Speichertakt mit anheben damit noch einigermaßen eine Skalierung heraus kommt. Beim estimated max Boost sind die Unterschiede dagegen recht deutlich. Von 1253 auf 1431 MHz macht das schon fett was aus.

qiller
2015-09-03, 13:34:50
Ich versteh die Tabelle immer noch nicht. Meine Zotac hat nen "est. Boost" von 1431MHz mitm Standard-Bios, Asic 69%. Und nun? Ich habe im Overclock-Forum andere mit der Amp Extreme gesehen mit 78% Asic, die haben genau dasselbe da stehen.

Kann es sein, dass die MHz-Zahlen da einfach von GPUZ/NvidiaInspector genommen werden? Die haben doch nix mit der Asic oder OC-Fähigkeit zu tun, das sind einfach Werte, die ausm BIOS ausgelesen werden, bzw aus diesen Werten berechnet werden. Bei meinem gemoddeten Bios steht da halt 1481MHz est. Max Boost. Kann ich mich in der Liste jetzt ganz oben eintragen? :P

@Speichertakt: Kann ich nur zustimmen, sollte man auf jeden Fall mit anheben.

LSSJBroly
2015-09-03, 13:40:46
Kann es sein, dass die MHz-Zahlen da einfach von GPUZ/NvidiaInspector genommen werden?
Nein, dort werden die Taktraten eingetragen, die ohne OC @ Stock maximal unter 60°C erreicht werden können - abgelesen per GPU-Z, Inspector, Afterburner oder sonstwas.


Die haben doch nix mit der Asic oder OC-Fähigkeit zu tun, das sind einfach Werte, die ausm BIOS ausgelesen werden, bzw aus diesen Werten berechnet werden.
Die Tabelle hat auch nichts mit weiterem OC zu tun, sie soll nur veranschaulichen, dass Karten ab Werk trotz, zum Beispiel, gleichem Modell teilweise deutlich schneller takten können.


Bei meinem gemoddeten Bios steht da halt 1481MHz est. Max Boost. Kann ich mich in der Liste jetzt ganz oben eintragen? :P
Nein, da nach ASIC sortiert wird.

cR@b
2015-09-03, 13:48:06
Estimated ist aber schon klar was das heißt? Prinzipiell geb ich dir bei 1250-1450 Recht, da merkt man durchaus was aber die 1400-1450 schafft nahezu jede Asic... und genau darum geht es mir. Ob ich nun 1 Liter mehr oder weniger verbrauche macht das Kraut auch nicht fetter. Bei vielen spielt sich das Problem im Kopf ab. Immer das Beste vom Besten haben wollen liegt ja bekanntlich in der Natur des Menschen. Find immer lustig wie im Luxx die Karten mit weniger gutem Asic verbal in Grund und Boden gestampft werden... einfach lächerlich :rolleyes:

qiller
2015-09-03, 14:15:39
Nein, dort werden die Taktraten eingetragen, die ohne OC @ Stock maximal unter 60°C erreicht werden können - abgelesen per GPU-Z, Inspector, Afterburner oder sonstwas.

Jo, kommt aufs selbe raus (zumindest bei mir).

Die Tabelle hat auch nichts mit weiterem OC zu tun, sie soll nur veranschaulichen, dass Karten ab Werk trotz, zum Beispiel, gleichem Modell teilweise deutlich schneller takten können.

Ahhh, jetzt ja, eine Insel! Damit das Sinn ergibt, muss man also innerhalb eines Grafikmodells bleiben und sich nicht gerade die Zotac Amp Extreme rauspicken. Z.B. TobiWahns EVGA GTX 980Ti SC und die von Tibone (letzte). Macht natürlich nur Sinn, wenn dieselben Modelle auch wirklich alle dasselbe Bios haben.

Dann machen für mich auch die Boost-Regler wieder einen Sinn, also warum es da Min- und Max-Regler gibt. Je nach GPU werden die Boost-Stufen dann mit mehr oder weniger Spannung angesteuert.

Nein, da nach ASIC sortiert wird.

Buh! :P

LSSJBroly
2015-09-03, 14:27:50
Ahhh, jetzt ja, eine Insel! Damit das Sinn ergibt, muss man also innerhalb eines Grafikmodells bleiben und sich nicht gerade die Zotac Amp Extreme rauspicken. Z.B. TobiWahns EVGA GTX 980Ti SC und die von Tibone (letzte). Macht natürlich nur Sinn, wenn dieselben Modelle auch wirklich alle dasselbe Bios haben.

Die Zotac AMP nutzt sowieso einen kleinen Trick für die hohen Taktraten (weswegen da auch nur +177 MHz statt die zu erwartenden +202/215 MHz steht) - man hat die Boosttabelle erhöht und die Werte für den Basistakt/Boosttakt nach oben gesetzt (Verglichen mit dem Referenz-BIOS und den meisten anderen müsste da aber 1.216 MHz Basistakt statt 1.253 MHz rauskommen (Stufe 43))


Buh! :P
;D;D

Hübie
2015-09-03, 14:29:37
Die Tabelle richtet sich nach der ASIC aus. Also wird zwar das gleiche BIOS programmiert, aber die Arbeitsreichweite ist eine andere. Wie ein Offset. Und diese wird eben von der Firmware über die ASIC bestimmt. Sind wohl ASIC-Bereiche.

TobiWahnKenobi
2015-09-03, 14:33:22
offensichtlich hat quiller die liste und die eingetragenen werte nicht verstanden. anleitung respektive erklärung steht allerdings im eröffnungspost im luxx.

die asicqualität bestimmt das taktoffset auf den basetakt, solange keine limits greifen. ergo: defaulttakt unter 60°C + taktoffset = ablesbarer wert, der in der tabelle landet.


(..)

mfg
tobi

qiller
2015-09-03, 14:46:23
Jop Hübie, das macht Sinn. Thx.

@Tobi, sry, keine Lust gehabt im Luxx den Thread zu suchen, hatte nur den Link von Hübie mit angeschaut und der ging nach abload.de und nicht zum Luxx.

Edit: Thread gefunden, hatte die Tabelle jetzt nicht im großen Sammelthread vermutet^^.

qiller
2015-09-03, 15:35:08
...

die asicqualität bestimmt das taktoffset auf den basetakt, solange keine limits greifen. ergo: defaulttakt unter 60°C + taktoffset = ablesbarer wert, der in der tabelle landet.



Zum besseren Verständnis mal ne hypothetische Frage:

Ich setze den Base-Clock per Bios-Mod einfach auf, sagen wir mal 1300Mhz. Versucht dann ne Asic 80%+-Karte dann immer noch ~250Mhz Offset auf die Karte zu packen?

LSSJBroly
2015-09-03, 15:46:47
Ich setze den Base-Clock per Bios-Mod einfach auf, sagen wir mal 1300Mhz. Versucht dann ne Asic 80%+-Karte dann immer noch ~250Mhz Offset auf die Karte zu packen?

Nur, wenn du die Boosttabelle passend anpasst. Dann ja. Im ersten Fenster des MBT nur 1.300 MHz eintragen funktioniert nicht.

Beispiel: meine Karte (ASIC 69,6% ergeben +202 MHz auf den Basistakt für den Maximaltakt).

Erhöhe ich den Basistakt auf 130(4) MHz, so Boostet die Karte dann bis auf 1507 MHz.

qiller
2015-09-03, 16:00:44
Ok, thx. Die Asic bestimmt also letztendlich die Anzahl der Booststufen, die auf den Baseclock aufgeschlagen werden (solang die Boost-Table, Leistungsaufnahme oder Temperatur nicht begrenzen natürlich).

LSSJBroly
2015-09-03, 16:01:27
Ok, thx. Die Asic bestimmt also letztendlich die Anzahl der Booststufen, die auf den Baseclock aufgeschlagen werden (solang die Boost-Table nicht begrenzt natürlich).

Richtig :)

TurricanM3
2015-09-03, 22:15:19
Was hat sich bei euch als guter Speichertest erwiesen?

Ich konnte ja vorher wegen dem Inspector Fehler nicht weit genug hoch mit dem Offset. Da ich die 1500/4000 ja inzwischen geflashed habe, reichts. Habs eben noch mal probiert. 4400 stürzen nach ein paar Minuten Heaven ab. 4300 laufen nun schon 10 Minuten. Ich glaube ich werde so gleich einfach mal zocken probieren, rein aus Neugierde. Spannung hab ich nicht erhöht, sind immernoch 1.187v. Seitdem ich das Bios gemoddet habe zeigt der Schieberegler im Inspector keinerlei Wirkung mehr?!
Jemand eine Idee wieso das so ist? Ich habe an der Voltage table überhaupt nichts geändert, vorher gings? :confused:

TurricanM3
2015-09-03, 23:05:53
BF4 hat sie 1500/4300 nach 45Min. die Grätsche gemacht. :freak:
Hätte ich ja fast früher erwartet. Wobei ich schon öfter mal gelesen habe, man müsse die vGPU erhöhen für mehr RAM. Ich probiere mal auf die Schnelle ein paar andere Games so.

Godmode
2015-09-03, 23:09:25
Ich habe das VRAM finetuning dann irgenwann lassen. Meine laufen jetzt mit 4,0 GHz, das reicht mir. Die zweite Karte schafft leider nicht mehr, die erste ginge sogar bis 4,2 GHz. Eine 980 Ti könnte beim VRAM Ocing wohl etwas besser sein, da weniger Chips verwendet werden, als bei der Tx.

Was erreichst du eigentlich für GPU Temperturen so über den Daumen, bei hat der das RAM Ocing nochmal gut eingeheizt, IIRC.

TurricanM3
2015-09-03, 23:48:26
Also W3 @Buckelsumpf hast erwartungsgemäß in 4k schneller Probleme mit 4300 RAM gemacht. Nach ca. 5 Minuten hatte ich kleine weiße Rechtecke hier und da im Bild. Bin dann mal auf 4200 runter und hab das 15 Min. getestet. Keine Bildfehler. Werde das die Tage mal in den anderen Spielen testen, falls das keine Probleme macht dann für 24/7 flashen.

@Godmode
Ich lasse die 4000 auch, es sei denn 4200 laufen einfach so (was ich nicht glaube). Temp war in W3 gerade diese bei 36.1° Wasser (habs gern leise):

http://gpuz.techpowerup.com/15/09/03/c24.png

Das ist nicht wärmer als mit 4GHz.
Ich weiß nicht obs zum Teil an der Kryonaut liegt, aber 5k Delta ist schon erstaunlich gut.

Godmode
2015-09-04, 00:16:21
41°C GPU Temperatur bei 36°C Wasser ist aber verdammt gut, oder?

TurricanM3
2015-09-04, 00:30:15
Ja sag ich ja. =)
Hatte im Heaven Bench max. 38° bei 32.2° Wasser (Link in der Sig). Achte da sonst nicht so drauf.
Wenn ich die Wakü auf 32° einstellen würde, bliebe die Karte wohl immer unter 40°, aber das bringt mir nichts außer Krach.

Edit:
Höä du hast meinen oben Beitrag editiert? :freak:

Godmode
2015-09-04, 00:33:33
Ich muss endlich von parallel auf seriell beim SLI umstellen, dann werde ich wohl auch noch einige Grade runterkommen. Das fehlende Teil kommt nächste Woche, dann gibts ein Update.

TurricanM3
2015-09-04, 00:44:15
Ich hatte vorher auf der 980 einen EKWB und der war nicht so gut. Allerdings auch normale WLP und 1.25v. Durchfluss ist bei mir relativ gering (um 65l meine ich) das wird denke ich nicht viel ändern.

Hübie
2015-09-04, 01:08:53
Geändert von Godmode (04.09.2015 um 00:15:52 Uhr) :confused::freak:

Godmode is undercover-admin!

Also der Durchfluss ist schon wichtig. Zuviel nimmt dem System die Möglichkeit die Wärme aufzunehmen und zu wenig staut das. Also hast alles richtig eingestellt :D

TurricanM3
2015-09-04, 01:39:27
Bei Düsenkühlern bringt mehr DF schon ein bisschen was, ja. Wenn ich die Pumpe voll aufdrehe geht die CPU Temp zeitgleich runter, sind aber nur ein paar Grad und mir auch da den Krach nicht wert. Hatte früher mal zwei Pumpen im Sys, war aber nur Spielerei. So lange der DF über 40l/h liegt ist normalerweise alles in Butter, darunter ists aber auch nicht gleich kritisch. Von was für Durchflusswerten reden wir denn da, wenn die Wakü das nicht mehr aufnehmen könne? Wurde das mal irgendwo getestet? Interessiert mich gerade. =)

Godmode
2015-09-04, 07:58:10
Edit:
Höä du hast meinen oben Beitrag editiert? :freak:

Bin aus versehen bei dir auf ändern gegangen. Habs dann natürlich wieder raus gelöscht und in einem eigenen Post verfasst. Es ist also nichts verändert worden.

Ich hatte vorher auf der 980 einen EKWB und der war nicht so gut. Allerdings auch normale WLP und 1.25v. Durchfluss ist bei mir relativ gering (um 65l meine ich) das wird denke ich nicht viel ändern.

Und was ist dieses Grizzly Zeug was du jetzt verwendest? Ich verwende die Gelid Extreme, die etwas hinter den Flüssigmetallen liegt.

Bei Düsenkühlern bringt mehr DF schon ein bisschen was, ja. Wenn ich die Pumpe voll aufdrehe geht die CPU Temp zeitgleich runter, sind aber nur ein paar Grad und mir auch da den Krach nicht wert. Hatte früher mal zwei Pumpen im Sys, war aber nur Spielerei. So lange der DF über 40l/h liegt ist normalerweise alles in Butter, darunter ists aber auch nicht gleich kritisch. Von was für Durchflusswerten reden wir denn da, wenn die Wakü das nicht mehr aufnehmen könne? Wurde das mal irgendwo getestet? Interessiert mich gerade. =)

Bei mir im SLI steigen die GPU Temperaturen um 10°C, wenn ich den Durchfluss auf 30l/h verringere vs 125l/h. Ich muss aber eben die Karten noch auf seriellen Durchfluss umbauen, weil jetzt sind sie parallel angeschlossen und das halbiert ja den Durchfluss pro Karte.

akuji13
2015-09-04, 08:26:33
Von was für Durchflusswerten reden wir denn da, wenn die Wakü das nicht mehr aufnehmen könne? Wurde das mal irgendwo getestet? Interessiert mich gerade. =)

In der aktuellen PCGH. :wink:

TurricanM3
2015-09-04, 18:16:13
Und was ist dieses Grizzly Zeug was du jetzt verwendest? Ich verwende die Gelid Extreme, die etwas hinter den Flüssigmetallen liegt.
Bei mir im SLI steigen die GPU Temperaturen um 10°C, wenn ich den Durchfluss auf 30l/h verringere vs 125l/h. Ich muss aber eben die Karten noch auf seriellen Durchfluss umbauen, weil jetzt sind sie parallel angeschlossen und das halbiert ja den Durchfluss pro Karte.


Grizzly ist wohl die beste Paste. Habe aber keinen Vergleich zu vorher da andere Karte. Bei 30l und parallel vermute ich mal das an den GPUs dann nicht mehr viel zirkuliert. So viel sollte das normalerweise nicht bringen. Dann sage mal noch jemand parallel sei nicht messbar schlechter. Ich finds richtig umgesetzt optisch aber schöner.

In der aktuellen PCGH. :wink:


Ich habe die 10/15 hier, wo denn da? :confused:

akuji13
2015-09-04, 18:46:38
Entschuldige bitte, ich stehe heute etwas neben mir.

Es war die 09/2015 Seite 80.

TurricanM3
2015-09-04, 19:08:55
Kenn ich. :biggrin:
Danke.

Monty
2015-09-04, 21:48:10
Ahhhh gut, dass ich den Thread gelesen habe. Hätte fast die PCGH vergessen. Die einzige Zeitschrift die ich mir noch regelmässig gönne :D

akuji13
2015-09-05, 00:04:04
Eines habe ich bei dem Artikel nicht verstanden.

Da wurden ja etliche Radis/Kühlkörper zusammengeschaltet...ein paar billige Schnellverbinder hätten es auch getan, damit habe ich meinen Durchfluß schon locker unter 30L bekommen. :D

TurricanM3
2015-09-05, 13:45:09
Nachdem BF4 5-6 Stunden mit 1500/4200 lief habe ich das inzwischen geflashed.
Hab zudem noch Project Cars in 4K mit DS9X im Replay laufen lassen so. Belegt 5.5GB und ruckelt sich zu tode (9-15fps ^^).
Mal schauen ob die Karte so 24/7 stable läuft die nächsten Wochen. Ist auf jeden Fall schon viel mehr als ich "einfach so" erwartet hätte. =)

phoenix887
2015-09-07, 00:19:25
Neue 980 Ti von Asus:

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Asus-ROG-Matrix-GTX-980-Ti-Platinum-IFA-1170365/

akuji13
2015-09-07, 08:15:40
Das design trifft nicht meinen Geschmack. :)

phoenix887
2015-09-07, 14:26:49
Ich finde die Karte optisch nicht schlecht. Nur den Sinn verstehe ich nicht ganz. Asus hat die Strix und die Poseidon. Wer soll die jetzt noch kaufen? Und ob die wirklich soviel leiser ist als die anderen Asus Karten, muss man mal im Direktvergleich sehen, wenn es soweit ist.

qiller
2015-09-07, 21:01:09
Ich seh da nurn Kühler.

phoenix887
2015-09-07, 21:25:13
Ich seh da nurn Kühler.

Stimmt, ist mir gar nicht aufgefallen:D

phoenix887
2015-09-11, 19:29:14
Habe Shadow of Modor in 38240x2160 etwas gespielt. Der VRAM ging zu bis 7GB:confused: Bekanntlich hat die Ti ja 6 GB VRAM.

Auslagerungsdatei habe ich aus, habe auch keine Ruckler, wie es ja üblich ist, wenn der VRAM voll läuft.. Ich nehme dann mal an, ein Lesefehler unter WIN10 mit Afterburner?

Rente
2015-09-11, 19:33:32
Der Afterburner (und auch alle anderen Tools die dafür die NVAPI nutzen) zeigt bei 10 den virtuellen VRAM-Speicher an. Das können auch über 6GB sein, trotzdem muss es nicht zu Rucklern kommen.

qiller
2015-09-11, 20:26:53
Das gabs ja auch schon zu AGP-Zeiten, dass der Arbeitsspeicher als VRAM-Auslagerungsspeicher genutzt werden kann. Wie das jetzt genau mit PCIe ist, weiß ich nicht. Hohe VRAM-Nutzung (egal ob physisch oder virtuell) sehe ich eigt je nach Engine eher positiv, da ich dann davon ausgehe, dass hier der VRAM/RAM als Zwischenspeicher genutzt wird und alles was schon im VRAM/RAM liegt, muss nicht nochmal von der SSD/HDD geladen werden.

Für sehr große gestreamte Welten (also ohne Ladebildschirm) kann ich mir aber vorstellen, dass das gar nicht so viel bringt (oder sogar nachteilig ist), da so oder so dauernd Daten ein- und ausgelagert werden müssen. Die VRAM-/RAM-Nutzung beziffert dann nur noch die vorgeladene Weltgröße bzw. deren Detail-/Texturtiefe um die Spielfigur/Kamera herum. Da man in einem Spiel aber selten nur auf einer Stelle steht bzw die Kamera nur an einem Fleck belässt (schon gar nicht in großen Openworld-Games), müssen dementsprechend Daten nachgeladen werden.

phoenix887
2015-09-11, 21:57:57
Ok, jetzt ist mir einiges klarer. Danke euch.

Hübie
2015-09-12, 03:15:57
http://www.hardwareluxx.de/community/f305/nvidia-geforce-gtx-980-ti-gm200-sammelthread-faq-1074450-240.html#post23834379

Da mal etwas deutlicher, um den Hintergrund zu erläutern. Viele sagen einfach es sei ein Auslesefehler, was ja nicht stimmt.

TurricanM3
2015-09-12, 12:10:53
Meine Karte scheint mit 1500/4200/1.187v echt stable zu laufen. Inzwischen über 20 Stunden gezockt so.

Hübie
2015-09-12, 16:55:38
Hast echt n Sahnehäubchen abbekommen =) Meine geht bis 1487 mit 1193 mV. Oder waren es 1493 bei 1187?:confused: Egal jedenfalls packt die keine 1500 ohne Spannungserhöhung. Ich lasse die eh @stock da immer auf 1405 MHz getaktet wird. In manchen Spielen sogar 1438 MHz.

Dural
2015-09-12, 17:14:46
Meine Karte scheint mit 1500/4200/1.187v echt stable zu laufen. Inzwischen über 20 Stunden gezockt so.

was hat sie den für eine asic?

cR@b
2015-09-12, 17:15:04
Meine Karte scheint mit 1500/4200/1.187v echt stable zu laufen. Inzwischen über 20 Stunden gezockt so.

Was haste damit jetzt durch? PC, W3 und BF4? Ok BF4 muss ich sagen drückt das TDP ziemlich hoch aber für OC Tests weniger geeignet, jedoch denke ich nach der langen Zeit kannste durchaus sagen, dass das Dingens stabil ist mit den 1,187v! Die 980er Ti´s sind teilweise pervers...

TurricanM3
2015-09-12, 17:33:32
ASIC ist 78.5%.

Hab Witcher 3 Buckelsumpf in 4k getestet. So 15 Min. Ist imho ein guter Artefakttest, bei 4300 flackern kleine Quadrate nach ein paar Min. 4200 nicht mehr. Ich spiele das Spiel aber nicht, daher nur dieser 15 Min. Test!
Project Cars hab ich in 4k laufen lassen eine Zeit lang (Replay im Loop). Dann noch in 1080p (+DS4x = 1620p?) normal gespielt ein paar Stunden.
BF4 halt nativ in 1080p.
3Dmark aktuell in 4K & normal paar mal laufen lassen und den 11er noch weil damals der Uboot Test schnell geflackert hatte. Dann noch Heaven Bench ein bisschen. Läuft bislang alles fehlerlos.

phoenix887
2015-09-12, 17:55:00
ASIC ist 78.5%.

Hab Witcher 3 Buckelsumpf in 4k getestet. So 15 Min. Ist imho ein guter Artefakttest, bei 4300 flackern kleine Quadrate nach ein paar Min. 4200 nicht mehr. Ich spiele das Spiel aber nicht, daher nur dieser 15 Min. Test!
Project Cars hab ich in 4k laufen lassen eine Zeit lang (Replay im Loop). Dann noch in 1080p (+DS4x = 1620p?) normal gespielt ein paar Stunden.
BF4 halt nativ in 1080p.
3Dmark aktuell in 4K & normal paar mal laufen lassen und den 11er noch weil damals der Uboot Test schnell geflackert hatte. Dann noch Heaven Bench ein bisschen. Läuft bislang alles fehlerlos.

Dachte W3, wäre kein guter Test?:D

TurricanM3
2015-09-12, 18:00:16
Ja sagen einige. In 4k bringt der Speicher schneller Fehler bei mir. BF4 ist eine dreiviertel Stunde mit 4300 gelaufen. Allerdings auch nur 1080p. Schmiert in 4k evtl. schneller ab. Nicht getestet.

Hübie
2015-09-12, 18:00:19
Passt schon :up: Glückwunsch jedenfalls zu deiner Perle. Bist ne Glückssau :biggrin:

Ich bin mit meinem Gehäuse-Umbau fertig. Resultat: zwei Stromkabel weniger, zwei Lüfter mehr, besserer Airflow, niedrigere Geräuschkulisse und gleiche GPU-Temperatur.
Leider wird meine CPU plötzlich 90°C heiß, wenn ich Prime95 28.5 im custom run mit inplace FFT laufen lasse :(
Habe mir nun neue WLP (Prolimatech PK-2) bestellt und schau mal ob da vielleicht der Hund begraben ist. Dabei schleife ich auch gleich mal den HS plan. Hoffentlich hilft das und hoffentlich ist die WLP kein allzu deutlicher Rückschritt zu meiner IC Diamond (die leider leer ist und mir nun zu teuer wurde).

Edit: Schrauben hatte ich übrigens noch mal nachgezogen, falls einer fragt ;)

Dural
2015-09-12, 18:13:08
na gut, bei so einer asic kann man es fast erwarten ;)

frage mich gerade was für eine spannung mein 82er gm204 bei 1500mhz benödigt, dürfte wohl auch in diesem bereich sein. meine tx hat leider nur 70%.

TurricanM3
2015-09-12, 18:20:19
Hübie, mit 28.5 (AVX2) testet man eigentlich nicht, warnt auch Asus vor. Weiß nicht ob du vorher evtl. die gängige 27.9 hattest? Siehe:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10497957#post10497957

@Dural
Meine 980 vorher hatte ebenso 78.5%. Für 1500 brauchte sie 1.250v. Weniger gab nach teils erst 10h Abstürze in BF4. 70% sind doch schon ordentlich.

Hübie
2015-09-12, 18:48:47
Meine Sandy hat doch gar kein AVX2 :|