PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce Titan X: 12GB, 8 Mrd. Transistoren, $999: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12

kokett
2015-05-21, 12:06:11
Hmm, ob da das Display nicht erkannt wird? Bei mir wird 4k übernommen.

Es wird unter "Mein Rig" alles korrekt erkannt. Ich glaube eher, dass nvidia eine einzelne Titan X für zu schwach hält und ihre "optimierten" Settings eben nur für 1440p für eine Titan X gedacht sind. Das Tool würde bei Titan X SLI vermutlich 4k nehmen bei meiner config.

Grestorn
2015-05-21, 13:34:57
Dazu drehe ich die Pumpe einfach auf Stufe 5. :D
Bez. Entlüften: ich habe meinen Kreislauf absichtlich so aufgebaut, dass die Komponenten nach den Radis/Pumpe kommen und danach direkt der AGB. Evtl. Luft nach Umbauten kann also gar nicht mehr in die Radis kommen. =)

Wie gesagt, wenn Ein- und Auslass der Kühlkörper nicht am höchsten Punkt sind - weil eben die Karten gedreht sind - hilft keine Pumpe der Welt und auch keine Anordnung des Kreislaufs. Das ist dann einfach doof. Aber wieder was gelernt für den nächsten Aufbau.

Allerdings: Ich hatte seinerzeit den Aufbau ausführlich mit einem Experten von Caseking besprochen. Dem hätte das eigentlich auffallen können, das ein Gehäuse mit gedrehtem Board-Einbau für Wakü subobtimal ist. Am besten wäre da wohl eigentlich immer ein Aufbau mit liegendem Board, also ein klassisches Desktop Gehäuse.... hm.

robbitop
2015-05-21, 14:34:31
Mit etwas Spüli, welches die Oberflächenspannung des Wassers reduziert, ist Entlüften mMn kein großes Problem mehr. Die großen Blasen werden in viele kleine "zerrissen" die einfach mit dem Volumenstrom mitgerissen werden. Pumpe auf höchste Stufe und diese dann immer an/aus/an/aus schalten und eine Weile durchlaufen lassen und dann ist die Luft idR raus.

Hat das bei dir nicht geholfen? Was meinst du eigentlich mit gedrehtem Board?

akuji13
2015-05-21, 14:36:28
Und das von dir! :D

https://www.google.de/search?q=Silverstone+Fortress+FT02&biw=1024&bih=606&source=lnms&tbm=isch&sa=X&ei=M9FdVZOhFIONsgG-9oDgAg&ved=0CAcQ_AUoAg

robbitop
2015-05-21, 15:26:58
Das mit dem Spüli oder die Frage?

Ich habe mal was von gespiegelten Gehäusen gehört - wo der Mainboardträger nicht auf der rechten Seite ist sondern auf der linken. Da wäre das Luft Problem aber nicht in Frage gekommen.
Nach oben gedrehte Gehäuse kenne ich noch gar nicht. Macht für den Luftstrom natürlich Sinn, da man Konvektion mitnehmen kann.

Grestorn
2015-05-21, 15:27:50
Mit etwas Spüli, welches die Oberflächenspannung des Wassers reduziert, ist Entlüften mMn kein großes Problem mehr. Die großen Blasen werden in viele kleine "zerrissen" die einfach mit dem Volumenstrom mitgerissen werden. Pumpe auf höchste Stufe und diese dann immer an/aus/an/aus schalten und eine Weile durchlaufen lassen und dann ist die Luft idR raus.

Nimm Dir ne GraKa mit WaKü und halte sie so vor Dich, dass der Zu- und Abfluss nach rechts zeigt und die Monitor-Anschlüsse nach oben. Dann stell Dir vor, was passiert, wenn Du Wasser einfüllst. Da dann sowohl zu- als auch Abfluss auf halber Höhe der Karte stehen, wird der obere Teil der Karte immer ohne Wasser sein. Da hilft auch kein Spüli oder sonst was, Du wirst die Karte schon drehen müssen, damit sich auch der obere Teil befüllt.

Hat das bei dir nicht geholfen? Was meinst du eigentlich mit gedrehtem Board?

Danke an Akuji :)

Ich finde das gedrehte Gehäuse an sich klasse, nur das mit dem Befüllen ist Mist. Aber man kann nicht alles haben :)

robbitop
2015-05-21, 15:30:13
Das klingt ziemlich ätzend...

OC_Burner
2015-05-21, 15:57:14
Nimm Dir ne GraKa mit WaKü und halte sie so vor Dich, dass der Zu- und Abfluss nach rechts zeigt und die Monitor-Anschlüsse nach oben. Dann stell Dir vor, was passiert, wenn Du Wasser einfüllst. Da dann sowohl zu- als auch Abfluss auf halber Höhe der Karte stehen, wird der obere Teil der Karte immer ohne Wasser sein. Da hilft auch kein Spüli oder sonst was, Du wirst die Karte schon drehen müssen, damit sich auch der obere Teil befüllt.



Danke an Akuji :)

Ich finde das gedrehte Gehäuse an sich klasse, nur das mit dem Befüllen ist Mist. Aber man kann nicht alles haben :)

Das die Wasserläufe im Kühler so groß und breit sind das Hohlräume mit Luft entstehen, hätte ich nicht gedacht. Hast du Acryldeckel drauf um das so genau wissen zu können?

Grestorn
2015-05-21, 16:46:31
Das die Wasserläufe im Kühler so groß und breit sind das Hohlräume mit Luft entstehen, hätte ich nicht gedacht. Hast du Acryldeckel drauf um das so genau wissen zu können?

Ja. Der ganzere obere (auf dem Bild linke) Teil ist erst mal komplett wasserfrei. Wenn Du Dir das Bild anschaust:
http://www.ekwb.com/shop/media/catalog/product/cache/1/image/5e06319eda06f020e43594a9c230972d/e/k/ek-fc980-gtx_np_fit1_800_1.jpg

dann wird Dir das auch sicher klar. Ganz gut, dass ich nen Acryldeckel habe, sonst wär mir das vermutlich gar nicht bewusst geworden.

boxleitnerb
2015-05-21, 16:50:29
Könnte mir jemand bitte kurz erklären, welche Werte ich hier ändern muss, um das Powertarget anzuheben vom Standardwert aus? Es gibt 10 Felder mit je min/default/max - was bedeutet hier was?

Ziel ist ein Powertarget von 300W, mehr brauche/möchte ich nicht. Danke :)
http://abload.de/thumb/maxwellbios6vshl.png (http://abload.de/image.php?img=maxwellbios6vshl.png)

kokett
2015-05-21, 16:57:10
Das was du markiert hast, ist der Eintrag vom 8 Pin Stecker, das drunter der 6 pin stecker und das dritte Feld der PCIE Slot. Die Zahlen limitieren die Stromaufnahme der Karte über den jeweiligen Anschluss. Weiter unten kommt dann das Powertarget, zu erkennen daran, dass 250000 und 275000 miliwatt in den Feldern stehen. Es gibt online genügend premodded bios files, die du als Vorlage nutzen kannst um zu sehen wie du die rails öffnen musst.

HisN
2015-05-21, 16:58:20
Default= Was ist 100% beim Power-Target.

Ist interessant für Deine Übertaktung,

boxleitnerb
2015-05-21, 17:14:44
Das was du markiert hast, ist der Eintrag vom 8 Pin Stecker, das drunter der 6 pin stecker und das dritte Feld der PCIE Slot. Die Zahlen limitieren die Stromaufnahme der Karte über den jeweiligen Anschluss. Weiter unten kommt dann das Powertarget, zu erkennen daran, dass 250000 und 275000 miliwatt in den Feldern stehen. Es gibt online genügend premodded bios files, die du als Vorlage nutzen kannst um zu sehen wie du die rails öffnen musst.

Ja die hab ich mir schon angeschaut, ich wüsste aber auch gerne, was alle 10 Felder machen :)
z.B. nimmt die Karte laut Original-BIOS dann 225W (8-pin) + 105W (6-pin) + 75W (PCIe) auf??? Das ist doch viel zu viel! :confused:

8-pin kann 150W ab, 6-pin 75W und der PCIe-Slot nochmal 75 (so mein Kenntnisstand).

OC_Burner
2015-05-21, 17:24:20
Ja die hab ich mir schon angeschaut, ich wüsste aber auch gerne, was alle 10 Felder machen :)
z.B. nimmt die Karte laut Original-BIOS dann 225W (8-pin) + 105W (6-pin) + 75W (PCIe) auf??? Das ist doch viel zu viel! :confused:

Das obere Kästchen ist nicht der 8-Pin Stecker, sondern vermutlich TDP.


http://www.overclock.net/t/1522651/disable-boost-and-bake-in-max-game-stable-clocks-for-maxwell/370
http://abload.de/img/5503b2ea_eltpmqxnnqy0.png

Einfach nach diesem Bild die 6&8-Pin-Stecker (evtl auch PCIe) anpassen und zusätzlich Powertarget sowie TDP anheben.

boxleitnerb
2015-05-21, 17:38:26
Danke, jetzt bin ich schlauer :)

kokett
2015-05-21, 17:48:05
OC_Burner hat natürlich recht, die beiden obersten Werte sind nur interne Limits. Je nachdem was du vorhast, musst du die trotzdem erhöhen, dass die Karte nicht heruntertaktet. PCIE würde ich nicht erhöhen, weil der auf 12V tatsächlich nur 66W liefert und bei den 75W soweit ich weiß noch 3,3V oder 5V (bin mir nicht mehr sicher) dazugerechnet werden. Die Maxwell Karten nehmen sich eh kaum Saft aus dem Slot selbst.

boxleitnerb
2015-05-21, 18:03:04
Was könnte der Eintrag bei meinem Bild ganz unten sein (87W default, 108W Max)? Das passt ja nicht so recht zu 6 pin und unterscheidet sich von OC_Burners Bild.

OC_Burner
2015-05-21, 18:14:57
Was könnte der Eintrag bei meinem Bild ganz unten sein (87W default, 108W Max)? Das passt ja nicht so recht zu 6 pin und unterscheidet sich von OC_Burners Bild.

Ups, das Bild stimmt wohl doch nicht so ganz aber wenn du 8-Pin und 6-Pin vertauschst passen die Werte wieder zu den spezifizierten Wattangaben.

Bedeutet für Titan X:


TDP

Internal Rail

PCIe Slot Rail

PSU 6-Pin Rail

PSU 8-Pin Rail

Power Target

???

???

???

???

F5.Nuh
2015-05-21, 18:34:25
https://www.youtube.com/watch?v=tXCbKOuq8N0

Ich habe diese Auswahl nicht im Afterburner. Kein wunder das ich das nicht gefunden habe. :redface:

Djudge
2015-05-21, 18:48:38
Warum solltest gerade du eine aktuelle?! Version installiert haben, welche diese Funktion nicht hat. Ich gebe zu, dass es durchaus nicht gleich beim erstenmal offensichtlich und leicht erkenntlich gestaltet ist, allerdings haben etliche User es geschafft. Daher guck nochmal genau oder stelle konkrete Fragen.

mfG

F5.Nuh
2015-05-21, 19:12:30
Warum solltest gerade du eine aktuelle?! Version installiert haben, welche diese Funktion nicht hat. Ich gebe zu, dass es durchaus nicht gleich beim erstenmal offensichtlich und leicht erkenntlich gestaltet ist, allerdings haben etliche User es geschafft. Daher guck nochmal genau oder stelle konkrete Fragen.

mfG

Gerade gelesen das der "on screen display server" gestartet werden muss um diese Funktion zu nutzen.

kokett
2015-05-22, 10:15:28
Ist zwar relativ OT, aber könnte mir ein Wakü Freak evtl helfen? Ich überlege mir meine X mit einer externen Wakü zu versehen. Mein Case hat Durchbrüche für sowas und die CPU wird schon von einer 280er AiO gekühlt, was ausreicht.

Würde ich mit der Zusammenstellung das realisieren können? Ich hatte vor 10 Jahren mal eine komplett interne Wakü, da hat sich doch einiges geändert seitdem und ich kenne mich null aus.

http://abload.de/thumb/wakuey8o4q.jpg (http://abload.de/image.php?img=wakuey8o4q.jpg)

Grestorn
2015-05-22, 10:44:15
Ich helf gern aus, aber erst heut abend, wenn ich zu hause bin. Du musst an einiges denken, wenn Du Dir ein Aquaduct zulegst.

kokett
2015-05-22, 10:54:41
Danke dir, keine Eile. Ich will es so hinkriegen, dass ich - ohne Wasser ablassen zu müssen - den Radiator vom Gehäuse trennen kann und/oder die Grafikkarte ausbauen kann. Das müsste ja mit den Koolance Anschlüssen so hinhauen, denke ich. Die Male/Male Variante soll in die Durchbrüche vom Case und dann kann ich die Female Dinger davor (außerhalb des Gehäuse) oder dahinter (im Gehäuse) abnehmen, ohne das Wasser austritt.

akuji13
2015-05-22, 11:39:34
http://abload.de/thumb/wakuey8o4q.jpg (http://abload.de/image.php?img=wakuey8o4q.jpg)

Die Artikelnummern kommen mir doch bekannt vor! :D

Ich hätte Bedenken wegen der plugins (bevorzuge geschraubtes).
Weiß jemand ob die besser geworden sind in den letzten Jahren?

Überleg dir auch gut ob die die Kühlfläche ausreicht, mir wäre das zu wenig.

kokett
2015-05-22, 11:58:00
Es ist halt ein 360er Radi für eine Titan X, das sollte doch ausreichen - eigentlich sogar für 2. das 720er duct ist mir zu sperrig.

Die Plugins hab ich genommen, weil die am aquaduct halt dran sind. Kann man die entfernen und 13/10 oder 16/13 Anschlüsse reinschrauben? Ich bin da Größentechnisch nicht limitiert, glaube allerdings dass es für mein Vorhaben keinen Unterschied macht ob ich nun 8/6 oder 13/10 nehme.

akuji13
2015-05-22, 12:21:50
Reichen tut das natürlich.

Allerdings möchte ich persönlich nicht nur das es reicht, sondern auch das es bei hohen Raumtemperaturen mit/ohne OC eine bestimmte GPU/Wassertemperatur nicht überschreitet.

Aktuell habe ich intern einen 360er+240er Radi und extern einen MO-RA 3.
Der 240er kommt im Zuge der Aufräumaktion weg, der bringt außer Widerstand und noch mehr Schläuchen nix mehr.

Vorher war es mir aber zu warm mit dem 360er+240er, allerdings ist das was du planst natürlich extern und erzielt bessere Temperaturen.

Mich würde an dem System stören das ich die Lüfter im Bedarfsfall nicht selbst tauschen könnte.

HisN
2015-05-22, 12:24:13
Ich benutze immer noch die Pushin Dinger. Seit Jahren. Wenn man weiß auf was man achten muss gibts keine Probleme. Ist mit allen Verbindern so, oder?

akuji13
2015-05-22, 12:28:27
Als die rauskamen gabs viele Probleme.

Einerseits sicher durch Fehlbedienung, andererseits durch mangelnde Erfahrung seitens der Hersteller.

Wie bei Schnellverbindern wurden die Dinger ja immer besser, da gibts ja auch wie überall einen Lernprozeß.

kokett
2015-05-22, 12:36:30
akuji, du hast schon recht mit dem was du schreibst. ich seh es halt pragmatisch: schau mal mit was für temps die hardware mit ihrer stock kühlung läuft - nicht nur die titan x sondern generell alles.

klar, das duct kann man kaum selber reparieren. der vorteil ist aber, dass es eine aufgeräumte komplettlösung ist, die man nur noch befüllen muss. auf interne wakü hab ich keine lust, das ist in meinem gehäuse auch nicht möglich da zu beengt und extern alles einzeln aufbauen (radi, pumpe, agb) sieht mir zu unordentlich aus. einen tod muss man sterben.

akuji13
2015-05-22, 12:51:51
Jup, die perfekte Lösung gibts leider nicht.
Für mich war der externe MO-RA das kleinste übel.

Und besser als die stock-Kühlung wirds mit deiner Lösung allemal, sowohl bei den ° als auch der Lautstärke.

Grestorn
2015-05-22, 19:07:53
akuji, du hast schon recht mit dem was du schreibst. ich seh es halt pragmatisch: schau mal mit was für temps die hardware mit ihrer stock kühlung läuft - nicht nur die titan x sondern generell alles.

klar, das duct kann man kaum selber reparieren. der vorteil ist aber, dass es eine aufgeräumte komplettlösung ist, die man nur noch befüllen muss. auf interne wakü hab ich keine lust, das ist in meinem gehäuse auch nicht möglich da zu beengt und extern alles einzeln aufbauen (radi, pumpe, agb) sieht mir zu unordentlich aus. einen tod muss man sterben.

Bevor ich losleg, Du willst noch Infos zum Aquaduct? Nicht dass man Dich hier schon von einer anderen Lösung überzeugt hat :)

Erste Sache, über die Du Dir Gedanken machen solltest, ist die Verschlauchung. Es ist ein Plug&Cool Schlauch dabei (6/8mm). Ich find das ganz gut und hatte auch null Dichtheitsprobleme damit. Ist sehr einfach im Handling.

Man kann aber jeden anderen Schlauch nutzen, auch die Anschlüsse am Aquaduct selbst lassen sich entsprechend tauschen.

Ein entscheidender "Nachteil" ist der Wasserdurchsatz. Ich habe mit dem Plug&Cool Schlauch nur knapp 40l/h. Den meisten WaKü Freaks ist das viel zu wenig, Fakt ist aber, dass man damit völlig problemlos 800Watt gekühlt bekommt (eine 5960X und zwei 980 alles auf absoluter Volllast). Viele haben auch die Ansicht, dass der Wasserdurchsatz letztlich gar keine sonderliche Rolle spielt für die Kühlleistung (so lange ein gewisser Mindestwert eingehalten wird), weil ein geringerer Durchsatz auch dafür sorgt, dass das Wasser länger im Radiator verbleibt und deswegen dort weiter runtergekühlt werden kann, als schnell fließendes Wasser.

Schreib hier, wenn Du noch mehr wissen willst. Es gibt einiges, an das man denken muss (Anschlussadapter, ggf. zusätzliche Temperaturfühler im Wasserkreislauf, je nach Schlauch auch Hilfsmittel beim Verschlauchen wie Knickschutz oder Schlauchwinkel usw.)

Schnoesel
2015-05-22, 19:20:07
Kann das Aquaduct auch nur empfehlen wenn man nicht selbst Hand anlegen möchte und nicht den Platz hat alles im Case unterzubringen.

Es gibt auch Kritikpunkte:

1. Pumpe könnte leiser sein, meine läuft auf 60% das ist dann doch recht leise mit ca. 40 L/h Durchsatz. Durchsatz reicht auch aus, habs mal getestet mit 72% und ca. 60 L/h resultiert in 1° weniger auf der GPU also nicht der Rede wert.

2. Die Lüfter sind nicht allzu leise, aber dennoch leiser als die meisten Luküs. Im idle sind die aus und springen erst ab einer gewissen Wassertemperatur an. Du kannst mit der Aquasuite umfangreiche Einstellungen machen ganz so wie es dir passt.

3. Teuer im Vergleich zu einem Mora z.B. aber ich werde das Ding ja auch so schnell nicht wieder austauschen.

@Grestorn

Hast du max. Pumpleistung? Liegt vielleicht an 2 GPUs wenn bei max. der Durchsatz so gering ist. Wenn ich mit Fiji oder GTX 980ti zulege werde ich mal auf konventionelle Schläuche umstellen, nutze derzeit auch noch die Plug&Cool die wirklich idiotensicher sind und auch dicht. Mal sehen ob das den Durchsatz erhöht. Ziel wäre es die Pumpenleistung noch mehr zu drosseln bei gleichzeitig gleichen/höherem Durchsatz.

kokett
2015-05-22, 20:04:13
Bevor ich losleg, Du willst noch Infos zum Aquaduct? Nicht dass man Dich hier schon von einer anderen Lösung überzeugt hat :)

Erste Sache, über die Du Dir Gedanken machen solltest, ist die Verschlauchung. Es ist ein Plug&Cool Schlauch dabei (6/8mm). Ich find das ganz gut und hatte auch null Dichtheitsprobleme damit. Ist sehr einfach im Handling.

Man kann aber jeden anderen Schlauch nutzen, auch die Anschlüsse am Aquaduct selbst lassen sich entsprechend tauschen.

Ein entscheidender "Nachteil" ist der Wasserdurchsatz. Ich habe mit dem Plug&Cool Schlauch nur knapp 40l/h. Den meisten WaKü Freaks ist das viel zu wenig, Fakt ist aber, dass man damit völlig problemlos 800Watt gekühlt bekommt (eine 5960X und zwei 980 alles auf absoluter Volllast). Viele haben auch die Ansicht, dass der Wasserdurchsatz letztlich gar keine sonderliche Rolle spielt für die Kühlleistung (so lange ein gewisser Mindestwert eingehalten wird), weil ein geringerer Durchsatz auch dafür sorgt, dass das Wasser länger im Radiator verbleibt und deswegen dort weiter runtergekühlt werden kann, als schnell fließendes Wasser.

Schreib hier, wenn Du noch mehr wissen willst. Es gibt einiges, an das man denken muss (Anschlussadapter, ggf. zusätzliche Temperaturfühler im Wasserkreislauf, je nach Schlauch auch Hilfsmittel beim Verschlauchen wie Knickschutz oder Schlauchwinkel usw.)

Ja, ich will noch infos zum Aquaduct. Entweder ich kaufe mir so eine externe All in One Lösung oder gar nix, auf selber frickeln habe ich keine Lust. Hast du das große 720er? Bin noch am überlegen ob ich lieber gleich das nehme, wobei das 360er halt so schön unter den Schreibtisch neben den PC passt. Das Große ist halt gleich nen Meter hoch, ob das befüllt noch so handlich ist? Vor Dienstag bestelle ich eh nichts.

Bei meiner ersten Wakü vor 10 Jahren hatte ich Schraubanschlüsse. Da hat sich dann immer der Schlauch verdreht, wenn man die fest zu machen wollte. Lösung: Ich hab auf die Schlauchenden da wo die Tülle drüberkam einfach wasserlösliches Gleitgel aufgetragen (ja, das zum .....) um die Verschraubungen richtig festmachen zu können (der Schlauch ist dann von der Tülle nicht verdreht worden sondern drunter durchgegleitet). Irgendwo hat jedes Verschlauchungssystem Vor und Nachteile, ich würde jetzt einfach mal das Plug and Cool System nehmen.

Ich hab oben ja die Einkaufsliste gepostet. Mein Ziel ist, am Gehäuse Schnellverschlüsse zu haben, sodass ich dort einerseits den Radi abmachen kann und andererseits im inneren des Gehäuse die Grafikkarte samt dem Schlauch bis zur Gehäuserückseite abmachen kann, um die Graka ausbauen zu können im Notfall. Das müsste eigentlich mit den Koolance Dingern gehen. Ich glaub direkt an das Aquaduct passen die Koolance Schnellverschlüsse nicht, weil die Gewinde beim Aquaduct zu Nahe am Boden und die Koolance Teile zu dick sind.

Bzgl. Lüftern und Pumpe bin ich nicht der absolute Silent Freak. Es gibt eine gewisse Grenze ab der es mich dann nervt und die ist ca. Titan X Lüfter @ 60%. Meine CPU wird von einer H110i gekühlt, die Lüfter von der auf 7V stören mich garnicht - obwohl sie nicht lautlos sind.

Schnoesel
2015-05-22, 20:12:56
Nun nur die GPU würde mit dem 320er passen. Beim 720er solltest auch gleich noch CPU mit einbinden. Obs für Plug&Cool Schnellverschlüsse gibt weiß ich grade nicht.

So laut wie ne Titan X auf 60% wird das Ding jedenfalls nie und nimmer.

PS: Hab auch den 720er XT MarkV

Grestorn
2015-05-22, 21:03:57
@Grestorn

Hast du max. Pumpleistung? Liegt vielleicht an 2 GPUs wenn bei max. der Durchsatz so gering ist. Wenn ich mit Fiji oder GTX 980ti zulege werde ich mal auf konventionelle Schläuche umstellen, nutze derzeit auch noch die Plug&Cool die wirklich idiotensicher sind und auch dicht. Mal sehen ob das den Durchsatz erhöht. Ziel wäre es die Pumpenleistung noch mehr zu drosseln bei gleichzeitig gleichen/höherem Durchsatz.

Wieviel Durchsatz hast Du denn?

Das ist ja schon mein zweiter Aquaduct 720, der erste war noch ein MK III. Den hab ich mit dem alten Rechner verkauft. Und auch bei dem war der Durchsatz in etwa gleich.

Ob ich zwei GPUs oder nur eine im System habe, macht kaum einen Unterschied. Ich hab ja jetzt nur noch eine Titan X drin, das hat vlt. 1l/h ausgemacht, wenn überhaupt.

Ich lass die Pumpe auf Automatik laufen, sie dreht dann zwischen 4300 und 4500, also Maximum. Trotzdem gerade im Moment nur 38,5 l/h.

Ja, ich will noch infos zum Aquaduct. Entweder ich kaufe mir so eine externe All in One Lösung oder gar nix, auf selber frickeln habe ich keine Lust. Hast du das große 720er? Bin noch am überlegen ob ich lieber gleich das nehme, wobei das 360er halt so schön unter den Schreibtisch neben den PC passt. Das Große ist halt gleich nen Meter hoch, ob das befüllt noch so handlich ist? Vor Dienstag bestelle ich eh nichts.Ja, der 720, den ich hab, ist schon hoch. Steht bei mir neben dem Schreibtisch und ist ein echter Eye-Catcher. Jeder Besucher frägt mich danach und natürlich ist damit auch das Display des Aquaero schön auf Augenhöhe.

Ein 360er dürfte schon ins Schnaufen kommen, wenn Du mehr als 500 Watt verbrätst. Und eine High-End CPU und eine übertaktete Gamer-GPU kommen da schon hin. Mit meinen zwei 980ern und dem 5960X hatte ich über 850 Watt, wenn ich alles an den Anschlag gebracht habe. Mit der Titan X mit BIOS Mod geht's immer noch bis um die 700 Watt. Da brauchst Du definitiv ne 720.

Bei meiner ersten Wakü vor 10 Jahren hatte ich Schraubanschlüsse. Da hat sich dann immer der Schlauch verdreht, wenn man die fest zu machen wollte. Lösung: Ich hab auf die Schlauchenden da wo die Tülle drüberkam einfach wasserlösliches Gleitgel aufgetragen (ja, das zum .....) um die Verschraubungen richtig festmachen zu können (der Schlauch ist dann von der Tülle nicht verdreht worden sondern drunter durchgegleitet). Irgendwo hat jedes Verschlauchungssystem Vor und Nachteile, ich würde jetzt einfach mal das Plug and Cool System nehmen.Ja, das Problem kenne ich. In meinem alten System habe ich die üblichen 13/10 Schläuche verbaut, und speziell die Verbindung zwischen den beiden SLI Karten, die ich zeitweise hatte, war echt problematisch wegen den sich verdrehenden Schläuchen. An allen anderen Stellen hatte ich frei drehbare Kupplungen verbaut.

Aber Plug & Cool ist einfach und völlig unproblematisch. Auch knicken die Schläuche nicht. Enge Winkel kann man mit Spezialführungen machen. Das geht echt gut.

Ich hab oben ja die Einkaufsliste gepostet. Mein Ziel ist, am Gehäuse Schnellverschlüsse zu haben, sodass ich dort einerseits den Radi abmachen kann und andererseits im inneren des Gehäuse die Grafikkarte samt dem Schlauch bis zur Gehäuserückseite abmachen kann, um die Graka ausbauen zu können im Notfall. Das müsste eigentlich mit den Koolance Dingern gehen. Ich glaub direkt an das Aquaduct passen die Koolance Schnellverschlüsse nicht, weil die Gewinde beim Aquaduct zu Nahe am Boden und die Koolance Teile zu dick sind.
Die Schnellverschlüsse hab ich nicht, damit hab ich keine Erfahrung. Ich hatte mal manuelle Ventile am Gehäuse, aber in der Praxis hab ich das nie gebraucht. Wenn man am Rechner baut, wird das Wasser eh ganz abgelassen.

Ich weiß nicht, ob die Schnellventile an die Plug & Cool Schläuche passen. Ich wär da eher etwas skeptisch. Aber ausprobieren kannst Du es.

Ich habs mir einfacher gemacht. Im Gehäuse geht's über die passenden Löcher des Slotblechs von Aquacomputer rein zum EK Kühlkörper auf der Titan X, dann zum CPU Kühlkörper und wieder über das Slotblech raus. Außerhalb vom Gehäuse hab ich noch Plug&Cool Kupplungen, damit ich an der Stelle trennen kann, aber auch das brauch ich eigentlich nicht. Von da geht's zum Aquaduct, dass ja eingebaute Ventile hat.

Zum Ablassen mach ich die Ventile am Aquaduct zu, zieh den Wassereingang vom Aquaduct ab. Da die Ventile zu sind, kommt nicht viel raus (ein Zewa unter das Aquaduct reicht locker). Dann in eine Schüssel oder ähnliches und die Ventile auf und die Pumpe an. Die Pumpe pumpt das Wasser dann raus. Den kleinen Rest kann man rausblasen.

Ach ja: Damit Du die Pumpe auch ohne Rechnernetzteil betreiben kannst, bietet Aquacomputer ein extra Netzteil mit passendem Anschluss an. Das ist sehr praktisch. Ich mags nicht, irgendwas mit Strom am Rechner zu haben, wenn ich be- oder entfülle..

Bzgl. Lüftern und Pumpe bin ich nicht der absolute Silent Freak. Es gibt eine gewisse Grenze ab der es mich dann nervt und die ist ca. Titan X Lüfter @ 60%. Meine CPU wird von einer H110i gekühlt, die Lüfter von der auf 7V stören mich garnicht - obwohl sie nicht lautlos sind.
Die Lüfter vom Aquaduct sirren nur ganz dezent, für mich nur hörbar, wenn ich darauf achte. Die Pumpe höre ich eigentlich gar nicht, wenn sie voll im Wasser steht. Das Wasser selbst hört man manchmal blubbern und plätschern, das find ich aber eher angenehm.

Jedenfalls kein Vergleich zum Radau, den die Titan X macht (die hab ich ja auch ne Woche Luftgekühlt betrieben).

kokett
2015-05-22, 22:12:32
Hm, ich seh schon, ich brauch auch das 720er. Ich wollte eh irgendwann Ende dieses Jahr oder nächstes Jahr auf dann PCIE4 und DDR4 umrüsten, da kann ich dann den Rest auch noch mit Wakü betreiben und das jetzige System (minus Graka) inklusive der H110 verkaufen und dann alles mit dem Duct kühlen.

So wie du das mit der Verschlauchung gelöst hast, will ich das halt nicht. Ich will es irgendwie hinkriegen, dass ich hinten am PC was lösen kann und der Rechner dann "frei" ist ohne immer alles ablassen zu müssen. Die Koolance Kupplungen sind laut Angabe für ID 6mm Schläuche geeignet, werd ich mal übers WE recherchieren müssen.

Spricht eigentlich was gegen den Titan X Kühler von Aquacomputer?

Grestorn
2015-05-22, 22:44:29
Spricht eigentlich was gegen den Titan X Kühler von Aquacomputer?Nicht das ich wüsste. Ich hab den EK Kühler gekauft, weil die zuerst lieferbar waren, weil ich die optisch ganz hübsch finde und auch gute Erfahrungen damit gemacht habe.

dildo4u
2015-05-22, 23:20:47
EVGA verkauft ACX 2.0+ als Nachrüstkühler für Titan X.

http://www.evga.com/Products/Product.aspx?pn=100-FS-2990-B9

akuji13
2015-05-23, 14:54:19
Bei meiner ersten Wakü vor 10 Jahren hatte ich Schraubanschlüsse. Da hat sich dann immer der Schlauch verdreht, wenn man die fest zu machen wollte.

Das hat mich auch immer genervt, aber heute gibts ja alle möglichen drehbaren Anschlüsse.
Die möchte ich nicht mehr missen.

Allerdings hatte ich da 2 undichte, eine solche Fehlerquelle ist bei einem festen natürlich von vorn herein ausgeschlossen.

Spricht eigentlich was gegen den Titan X Kühler von Aquacomputer?

Mir fällt auch nix ein.

Alles was ich von denen hatte war top.

Raff
2015-05-24, 16:36:13
EVGA verkauft ACX 2.0+ als Nachrüstkühler für Titan X.

http://www.evga.com/Products/Product.aspx?pn=100-FS-2990-B9

Hmm. Auf der GTX 980 Superclocked funktioniert der Kühler ganz gut. Die Titan X hat keine höhere TDP, aber ein anderes Layout. Da scheint sogar eine Backplate dabei zu sein, was ziemlich kuhl ist. Den muss ich mir mal ansehen. :)

MfG,
Raff

4Fighting
2015-05-25, 10:38:50
das wäre doch was für die PCGH:D

Pencil VMOD

http://overclocking.guide/nvidia-gtx-titan-x-volt-mod-pencil-vmod/

HisN
2015-05-25, 10:40:49
Hm, ich seh schon, ich brauch auch das 720er.
Ich hätte noch eins rumzufliegen. Steht im Luxx im Marktplatz für kleines Geld.

phoenix887
2015-05-25, 11:24:25
http://www.inno3d.com/products_detail.php?refid=197

Alle Daten sind jetzt vollständig. Vorher haben Boost usw. noch gefehlt. Scheint wohl das die Karte bald auf den Markt kommt. Mal schauen ob ich mich zurückhalten kann :D

Thunder99
2015-05-25, 13:32:48
Hmm. Auf der GTX 980 Superclocked funktioniert der Kühler ganz gut. Die Titan X hat keine höhere TDP, aber ein anderes Layout. Da scheint sogar eine Backplate dabei zu sein, was ziemlich kuhl ist. Den muss ich mir mal ansehen. :)

MfG,
Raff
Bitte Erfahrungswerte :D

akuji13
2015-05-25, 13:37:05
http://www.inno3d.com/products_detail.php?refid=197

Alle Daten sind jetzt vollständig. Vorher haben Boost usw. noch gefehlt. Scheint wohl das die Karte bald auf den Markt kommt. Mal schauen ob ich mich zurückhalten kann :D

Wenn du es bis jetzt geschafft hast, könnte das klappen. :D

Die backplate hätten sie auch gleich noch ins Kühlkonzept integrieren sollen.

Hmm. Auf der GTX 980 Superclocked funktioniert der Kühler ganz gut. Die Titan X hat keine höhere TDP, aber ein anderes Layout. Da scheint sogar eine Backplate dabei zu sein, was ziemlich kuhl ist. Den muss ich mir mal ansehen. :)

Als ob dir ein "ganz gut" reichen würde. :D

Godmode
2015-05-25, 13:47:21
das wäre doch was für die PCGH:D

Pencil VMOD

http://overclocking.guide/nvidia-gtx-titan-x-volt-mod-pencil-vmod/

Wozu soll das gut sein, wenn man mit Bios MOD auch schon 1,27v schafft? Meine TXen laufen damit zb. in GTA V mit 1500 MHz durchgehend.

ich auch
2015-05-25, 14:47:56
wer noch keine hat,na ja das alles Mal billiger wird ist ja nicht verwunderlich

Nvidia : Preis der GeForce Titan X fällt unter 1.000 Euro

http://www.computerbase.de/2015-05/nvidia-preis-der-geforce-titan-x-faellt-unter-1.000-euro/

Raff
2015-05-25, 14:56:46
Als ob dir ein "ganz gut" reichen würde. :D

Na zum Testen auf jeden Fall. :)

MfG,
Raff

phoenix887
2015-05-25, 15:47:56
Wenn du es bis jetzt geschafft hast, könnte das klappen. :D

Die backplate hätten sie auch gleich noch ins Kühlkonzept integrieren sollen.



Als ob dir ein "ganz gut" reichen würde. :D

Backplate ist doch dabei. In der Beschreibung steht es, und bei meiner GTX 980 ist das auch so.

akuji13
2015-05-25, 17:15:36
Die ist aber nicht ins Kühlkonzept integriert. ;)

Sie hätten sie wie die backplates der Wasserkühler von EK per pads einbinden sollen, dann würde die auch noch Wärme abführen.
Schaden kanns nicht.

Zumindest auf den Bildern kann ich nicht erkennen ob man das problemlos selbst nachholen kann.

BiG OnE
2015-05-25, 18:01:43
Ja, das kommt auf die Dicke der Abstandsbolzen an, so 2-3 mm könnte man gut mit Wärmeleitpads überbrücken.

phoenix887
2015-05-26, 02:57:51
Da ich noch nie eine H2O Kühlung von EK in der Hand hatte, weiss ich noch immer nicht was du meinst:freak::biggrin:

akuji13
2015-05-26, 08:38:00
http://abload.de/thumb/dsc02968dakzr.jpg (http://abload.de/image.php?img=dsc02968dakzr.jpg)

:wink:

Ja, das kommt auf die Dicke der Abstandsbolzen an, so 2-3 mm könnte man gut mit Wärmeleitpads überbrücken.

Die Frage wäre da, ob man sie getrennt abbauen kann (wegen Garantie).

phoenix887
2015-05-26, 10:00:38
Ah ok, danke. Sieht ja aus wie ein Taucheranzug:D

akuji13
2015-05-26, 10:25:52
:confused:
Wie meinen? :D

Aber würde ja passen, meine Schläuche sind ja auch Neopren. :wink:

Raff
2015-05-27, 09:07:48
Wer bereits eine oder mehrere Geforce GTX TitanX (http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan-x) sein Eigen nennt und Interesse an The Witcher 3 (http://www.geforce.com/games-applications/pc-games/the-witcher-3-wild-hunt) hat, sollte heute einen Blick auf die neueste GeForce Experience Version v2.4.3.31 (http://us.download.nvidia.com/GFE/GFEClient/2.4.3.31/GeForce_Experience_v2.4.3.31.exe) riskieren und Acht geben auf eine neue Funktion, ein kleines Symbol rechts oben im GFE-Client. Das Angebot gilt bis zum 19.6.2015 und nur solange der Vorrat reicht. :)

http://www.geforce.com/titan-x-geforce-experience-beta
http://www.geforce.com/titan-x-geforce-experience-beta/code-instructions
http://www.geforce.com/TITANXGFEBETA

Bei mir hat das eben nicht funktioniert, hmpf. Ist das schon durch?

MfG,
Raff

robbitop
2015-05-27, 09:29:05
Hast du dir etwa auch eine TX gegönnt? :D

cR@b
2015-05-27, 10:34:35
Bei mir hat das eben nicht funktioniert, hmpf. Ist das schon durch?

MfG,
Raff

Bei mir gings letzte Woche noch. Du hast aber kein SLI oder?

Raff
2015-05-27, 11:27:59
Es ging doch, ich musste GFE jedoch auf Englisch stellen. :ugly: Das ist mein Tipp für alle, die noch Keys abgreifen wollen, um den Preis der Titan X zumindest irgendwie zu senken. :biggrin:

MfG,
Raff

BiG OnE
2015-05-27, 13:23:45
Die ist/war doch schon unter 1000, praktisch also schon ein Schnäppchen.

Martin K.
2015-05-27, 13:32:06
Gestern war sie auf 998€, jetzt wieder bei 1071€...

MartinRiggs
2015-05-27, 13:41:08
Bei dem Preisbereich kommts darauf auch nicht mehr an, aber bezahlen würde ich das nie nur für ne Grafikkarte.

BiG OnE
2015-05-27, 13:52:50
Die Palit/Gainward gab es doch bei Mindfactory und Konsorten tagelang für 989€, wer da nicht zugeschlagen hat selber Schuld.

BiG OnE
2015-05-27, 13:57:39
Die Frage wäre da, ob man sie getrennt abbauen kann (wegen Garantie).
Wie meinst Du das, Du möchtest die Backplatte auf original Luftgekühlte montieren und machst Dir Sorgen wegen der Garantie?

Martin K.
2015-05-27, 14:00:41
Bei dem Preisbereich kommts darauf auch nicht mehr an, aber bezahlen würde ich das nie nur für ne Grafikkarte.

Überlegt habe ich ja gestern kurzzeitig, aber wofür. Mich nervt halt die Warterei auf die 980 Ti. Bin gerade nen Rechner am zusammenbauen und mir fehlt noch die Graka.

Das meiste was ich je für ne Graka gelöhnt habe waren damals 2006 ca 600€ für die X1900XT. :)

Ich erinnere mich noch an die Preise der GeForce 2 Ultra, die hat ja die 1000 DM Marke geknackt. Ui des waren noch Zeiten. ;)

akuji13
2015-05-27, 14:06:35
Die war sogar deutlich drüber (bis 1400 DM).
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/376263-geforce-gtx-titan-ii-x-gm200-anscheinend-als-reine-gamer-gpu-post7166692.html#post7166692

@BiG OnE

Nein. :wink:
Es geht hier nur um die Inno3D.

Und da stellt sich die Frage, ob eben jene backplate leicht entfernbar ist.

Anhand der bisherigen Bilder kann ich nicht erkennen ob sie separat angeschraubt ist oder mit dem Kühlkonstrukt der anderen Seite verbunden, was einen Garantieverlust nach sich ziehen könnte.

Gut, könnte ein Abschrauben der Platte auch, allerdings wäre da auch die Gefahr das was passiert geringer.

Die Frage hat sich für mich aber inzwischen eh erledigt, weil es mir zu lange gedauert hat mit dem Produkt.

The_Invisible
2015-05-27, 22:36:00
Überlegt habe ich ja gestern kurzzeitig, aber wofür. Mich nervt halt die Warterei auf die 980 Ti. Bin gerade nen Rechner am zusammenbauen und mir fehlt noch die Graka.

Das meiste was ich je für ne Graka gelöhnt habe waren damals 2006 ca 600€ für die X1900XT. :)

Ich erinnere mich noch an die Preise der GeForce 2 Ultra, die hat ja die 1000 DM Marke geknackt. Ui des waren noch Zeiten. ;)

ja, ich auch damals max 600EUR für ne 8800 Ultra, war eigentlich eh ein schnäppchen aber ist halt wirklich meine absolute schmerzgrenze. aber eine 980ti mit guten kühler wird auch davon meilenweit entfernt sein. wobei man heute wenigstens mehr hardware bekommt (mehr aktive einheiten / speicher), früher hatte ich nur mehr takt bekommen.

dildo4u
2015-05-27, 23:35:10
Neue MSI Afterburner Version 4.1.1

Added core voltage control for reference design NVIDIA GeForce GTX TITAN X series graphics cards

http://www.guru3d.com/files-details/msi-afterburner-beta-download.html

Spasstiger
2015-05-28, 09:05:40
wobei man heute wenigstens mehr hardware bekommt (mehr aktive einheiten / speicher), früher hatte ich nur mehr takt bekommen.
Eigentlich hat sich doch nur das Preisgefüge verschoben. Was früher die 8800er auf G80-Basis waren, sind heute Titan X und 980 Ti. Und das heutige vermeintliche High-End in Form der GTX 980 war früher im Performancesegment um 200€ angesiedelt wie z.B. die Radeon X1950 Pro, die parallel zur 8800 GTX verkauft wurde. Man kann gegenüber 2007 bei den Graka-Preisen einen Faktor 2 veranschlagen. Dafür sind die Entwicklungszyklen länger.

dildo4u
2015-05-29, 14:18:47
Zotac bringt Titan X mit Hybrid Kühler

http://abload.de/img/zotac-gtx-titan-x-arc1araq.jpg

http://www.techpowerup.com/212951/zotac-unveils-the-geforce-gtx-titan-x-arcticstorm-edition.html

Thunder99
2015-05-29, 18:13:57
Mich würde brennend Reviews von beiden Karten interessieren, die von EVGA und von Zotac

dildo4u
2015-05-29, 20:05:51
EVGA Hybrid Kühler.

http://i.picpar.com/3Vwb.jpg

http://abload.de/img/key-feature_7dbujh.jpg

http://i.picpar.com/5Vwb.jpg

http://www.evga.com/articles/00935/EVGA-GeForce-GTX-TITAN-X-HYBRID/

Raff
2015-05-29, 20:17:47
Ui, den gibt's sogar als Upgrade-Kit – für 109 Dollar. :ugly: Wird Zeit, dass Arctic den Hybrid III marktreif bekommt.

MfG,
Raff

-=Popeye=-
2015-05-29, 21:05:15
Die EVGA Dinger sind leider nicht lieferbar, dass der Hybrid auch auf der 980 was taugt und sogar auf die X passt hat hier doch schonmal jemand gepostet.

phoenix887
2015-05-29, 21:42:03
Die EVGA Dinger sind leider nicht lieferbar, dass der Hybrid auch auf der 980 was taugt und sogar auf die X passt hat hier doch schonmal jemand gepostet.

Ja war ich:freak: hatte damals ein Testvideo hier gepostet, und den Beitrag vom EVGA Forum eines Mitarbeiters, das der 980 Hybrid auch auf einer Titan X passt. Der einzigste Unterschied ist, das dann auf der Titan X von außen nur noch 980GTX zu lesen ist:D

Bleibe aber bei Inno3D, weil ich vom Hybrid auf meiner 980gtx begeistert bin. Frage mich nur wann endlich die Titan X Version davon kommt. Denn bei meiner 980 kann ich immer 1550mhz halten. für mich ein sehr guter Kompromiss, denn auf Air will ich nicht mehr, und richtige Wasserkühlung, traue ich mir noch nicht zu.

PHuV
2015-05-30, 02:10:53
Ui, den gibt's sogar als Upgrade-Kit – für 109 Dollar. :ugly:
Echt? :eek: Gekauft, wenn das Ding wirklich so gut funktioniert.

phoenix887
2015-05-30, 02:30:43
Auf der deutsche Seite von EVGA kann ich mich nochnicht vormerken:D Aber auf der US Seite, kostet die Titan X mit dem vorverbauten Hybridkühler 1099 Dollar. Was für ein Preis wird es dann bei uns haben. Ca. 1250 Euro oder?

Edit: http://www.computerbase.de/2015-05/evga-geforce-gtx-titan-x-hybrid-wasser-fuer-die-gpu-luft-fuer-den-rest/

Thunderburne
2015-05-30, 12:20:52
Meine Evga ist auch seit 2Tagen da bin sehr begeistert 78,8% Asic out of the box 1215MHZ boost.Wakühler ist bestellt und Modbios wird gebastelt.

derguru
2015-06-03, 12:20:46
eine neue alternative kühlung für titan x und co. kommt demnächst aber vor allem für die titan x interessant.

Corsair stellt Kompaktwasserkühler vor (http://www.tomshardware.de/computex-corsair-hydro-h110i-gtx-wasserkuhlung-cooling,news-252943.html)

KK Kingpin
2015-06-03, 22:36:25
EVGA Hybrid Kühler.

http://i.picpar.com/3Vwb.jpg

(...)


Ja, EVGA soll mal zusehen, meine TitanX schwitzt sich hier einen ab ;)


By the way:


Jen-Hsun Huang [CEO NVIDIA] zur TitanX und ihrer Abgrenzung zur 980 TI

Ab ca 2:40 wirds interessant...


ommjmc_mhs8

Skysnake
2015-06-04, 00:45:17
Was meinste? Seine 4k Ausschweifungen oder wie?

gnomi
2015-06-04, 08:29:45
Was neues erzählt er ja wohl kaum.
Titan X ist eben nicht das klassische Gaming Produkt und für den, der das Teil braucht, trotz Unkosten lohnenswert.
Preis/Leistung Diskussionen werden eh von vielen sehr in den Vordergrund gestellt. Bei 150-300 ist das aber viel wichtiger als in dem gehobenen Bereich.
Die TI ist ab 1440P die klare Wahl für Spieler und die 980 bis dahin. (wer will wegen ein paar Euro schon eventuelle Probleme mit den Frametimes haben wie bei der 970>völlig anderer Kundenkreis, obwohl noch mit einem Auge auf die Kosten schielend)
Die Aussagen zu 4K sind hingegen Marketing Bullshit.
Klar reicht es mit Gamepad, GSync und passend gewählten Settings, aber noch sind die GPU's strenggenommen zu langsam.

Skysnake
2015-06-04, 09:46:19
Gerade die TiX ist doch das Vorzeige-Gamerding. Komplett auf Gameing ausgerichtet, mit einer Extrahaube an RAM. Das wars dann aber auch.

Die Ur-Titan war durchaus was besonderers und kein 100% Gamerding, aber sicherlich nicht die TiX

Vegeta_77
2015-06-09, 20:52:42
Hallo zusammen.

@Raff
Sorry, wenn ich mich direkt an dich wende. Aber du könntest mir ja bitte ein QuickGuide antworteten. Das wäre cool.

Ist-Zustand:
2x Asus Titan X --> sind mit bester Ausstattung von EKWB wassergekühlt.

Habe das gleiche Bios per nvflash überspielt, wie du auf Seite 43 angibst...

Habe händisch über die Eingabeaufforderung "... nvflash filename.rom ..." als Befehl ausgeführt. Es tat sich auch direkt was auf dem Bildschirm. Die Auflösungen sind gesprungen und anschließend habe ich unter sehr geringer Auflösung, im Geräte-Manager gesehen, dass beide GPU's mit dem gelben Dreieck-Ausrufezeichen versehen war. Danach Neustart. Mit Asus GPU-Z sehe ich offensichtlich keinerlei Änderung!? Vor dem nvflash, habe ich über den GPU Tweak von Asus, 1300 MHz / 7250 MHz einstellen können und alles lief stabil. Jetzt nach dem nvflash, kann ich auf 1335 MHz / 7250 MHz erhöhen. Aber das kann doch nicht die Auswirkung des nvflash's sein!!!??? Wie sehe ich, ob dass modifizierte Bios wirklich auf beiden Karten aufgespielt ist? Muss ich SLI vorher deaktivieren oder so etwas?

Bitte gebe mir eine Kurzanleitung :-) Das wäre echt cool.

Vielen Dank.

Gruß
Vegeta_77

Vegeta_77
2015-06-09, 20:59:26
Hi Raff.

Ich habe 2 Titan X in Sli. Ich musste erst eine Karte vom Netz nehmen, d.h. Stromanschlüsse ziehen und erst dann hat es funktioniert.

Gruß
Vegeta_77

Vegeta_77
2015-06-09, 21:05:54
Diese Antwort bezieht sich auf das kostenlose The Witcher 3

Godmode
2015-06-09, 21:46:10
Du musst die Karten vor dem flashen im Gerätemanager deaktivieren. Im SLI musst du beim flashen noch den Index angeben, da du ja beide Karten flashen musst.

nvflash -i1 -4 -5 -6 name.rom

Wobei di einmal mit -i0 und einmal mit -i1 flashen musst.

TurricanM3
2015-06-09, 21:59:10
Die neueste nvflash Version sollte das alles automatisch erledigen. Manuelles deaktivieren ist auch nicht mehr notwendig. =)

Grestorn
2015-06-09, 23:18:51
Wo kriegt man diese Version?

TurricanM3
2015-06-09, 23:22:05
With the newest version of NVFlash landing on us (Thanks topway for letting me know!), you NO LONGER HAVE TO DISABLE YOUR CARD in the device manager. NVFlash will do this on it's own and re-enable it after it has flashed.


http://www.overclock.net/t/1521334/official-nvflash-with-certificate-checks-bypassed-for-gtx-970-980-980ti-titan-x

=)

phoenix887
2015-06-09, 23:33:25
http://www.overclock.net/t/1521334/official-nvflash-with-certificate-checks-bypassed-for-gtx-970-980-980ti-titan-x

=)

Danke für die Info

Grestorn
2015-06-09, 23:34:56
Danke!

Dural
2015-06-12, 10:51:14
Ich schaue seit Tagen die Lieferstände der TX nach, aber irgend wie gibt es bei uns keine Lager Karten, die wenigen die reinkommen gehen für offene Bestellungen raus.

Raff
2015-06-20, 18:30:30
Sagt mal, wie lauten eure Erfahrungen bezüglich des Verhältnisses aus Spannung und Taktbarkeit? Ich glaube, meine TX ist ... eigenartig. Was heißt glauben, ich weiß es. Als ich dachte, dass 1.500 MHz endlich stabil seien, ist sie mir in Watch Dogs abgeschmiert. Mit 1,261 Volt, also schon hart an der Grenze des Möglichen (1,274), Tolerierbaren und Kühlbaren. ;) Also beschloss ich, doch erst mal ein "Vernunft-BIOS" zu zimmern. Beim Speicher hatte ich aber enormes Glück, 4.196 MHz sind offenbar rockstable nutzbar, selbst mit niedriger VCore. Okay, die Kühlung hilft bestimmt auch.

Nun stellt sich raus: 1.400 MHz macht sie noch mit ~1,15 Volt. Mit 1,17 Volt konnte ich sogar eben fünf Minuten @ 1.450 MHz durch Watch Dogs heizen, ohne dass die Kiste einen Schwächeanfall bekommt. Zefack? :| 1.450 MHz mit 1,17 Volt genauso semi-stabil wie 1.500 MHz mit 1,26 Volt, ernsthaft? Sehr, sehr eigenartig. Einen derart fiesen Sweet Spot hatte ich noch nie. Ich habe eher im Verdacht, dass im Editor komische Dinge passieren, wenn man dort über die 1,5-GHz-Grenze steigt. Das 350-Watt-Powerlimit wird mit 1.450/4.196 MHz zu höchstens 90 Prozent ausgefahren, 300 sind zu wenig.

Wie sieht's bei euch aus? :)

MfG,
Raff

TurricanM3
2015-06-20, 18:34:59
Teilweise läufts mit weniger Spannung besser. Mag aber auch sein, dass sie dir abschmiert weil die Zwischenstufen dann zu wenig Saft kriegen. Ansonsten müsstest mal testweise alle darunter mit P0 Spannung versorgen oder halt die ganze voltage table anpassen.

robbitop
2015-06-20, 19:20:22
IMO ist seit den 350er Treibern (zumindest bei meiner TX) das OC etwas merkwürdig geworden. Es geht weniger Takt und manchmal rennt etwas ewig stabil und dann kurzer Hand stürzt es ab.

Ich hatte im 340er Risen 3 mit Modbios und maximaler Spannung mit 1485 MHz stabil. Mit dem 350er Treiber habe ich dann GTA5 gespielt. Dort sind es dann 1435 MHz.

Grats zu deiner TX, Raff. Was hat sie gekostet? :)

Godmode
2015-06-20, 20:35:39
Sagt mal, wie lauten eure Erfahrungen bezüglich des Verhältnisses aus Spannung und Taktbarkeit? Ich glaube, meine TX ist ... eigenartig. Was heißt glauben, ich weiß es. Als ich dachte, dass 1.500 MHz endlich stabil seien, ist sie mir in Watch Dogs abgeschmiert. Mit 1,261 Volt, also schon hart an der Grenze des Möglichen (1,274), Tolerierbaren und Kühlbaren. ;) Also beschloss ich, doch erst mal ein "Vernunft-BIOS" zu zimmern. Beim Speicher hatte ich aber enormes Glück, 4.196 MHz sind offenbar rockstable nutzbar, selbst mit niedriger VCore. Okay, die Kühlung hilft bestimmt auch.

Nun stellt sich raus: 1.400 MHz macht sie noch mit ~1,15 Volt. Mit 1,17 Volt konnte ich sogar eben fünf Minuten @ 1.450 MHz durch Watch Dogs heizen, ohne dass die Kiste einen Schwächeanfall bekommt. Zefack? :| 1.450 MHz mit 1,17 Volt genauso semi-stabil wie 1.500 MHz mit 1,26 Volt, ernsthaft? Sehr, sehr eigenartig. Einen derart fiesen Sweet Spot hatte ich noch nie. Ich habe eher im Verdacht, dass im Editor komische Dinge passieren, wenn man dort über die 1,5-GHz-Grenze steigt. Das 350-Watt-Powerlimit wird mit 1.450/4.196 MHz zu höchstens 90 Prozent ausgefahren, 300 sind zu wenig.

Wie sieht's bei euch aus? :)

MfG,
Raff

Ja das Ding verhält sich teilweise komisch. Bei mir hier laufen hier 1500 MHz auf beiden Karten. Die bessere braucht aber nur 1,180v (80er ASIC), die schlechter 1,237v (69er ASIC). Im SLI erreicht man aber sowiso höhere Takte, da beide Karten nicht so stark belastet werden, als wen nur eine Karte verwendet wird.

Teilweise läufts mit weniger Spannung besser. Mag aber auch sein, dass sie dir abschmiert weil die Zwischenstufen dann zu wenig Saft kriegen. Ansonsten müsstest mal testweise alle darunter mit P0 Spannung versorgen oder halt die ganze voltage table anpassen.

Ist bei mir auch so. In der Kitedemo zb. habe ich mit 1,27v schneller crashes als nur mit 1,2 zb. Alles sehr seltsam.

Raff
2015-06-21, 12:13:27
Ein Achtziger-ASIC? Dann hattest du großes Glück, ich hatte bisher alles Mögliche zwischen 56 (!) und 74 in den Händen - zum Glück ist meine auch so ein 74er, was in Ordnung ist. :D Bei der 980 Ti scheint man generell bessere ASICs zu bekommen, was eigenartig und interessant zugleich ist.

Ich bin mit den Tests noch am Anfang, aber anscheinend ist das "Direkt aus dem BIOS"-OC irgendwie anders als per Offset.

MfG,
Raff

TurricanM3
2015-06-21, 13:00:22
Ja, die Zwischenstufen kriegen evtl. zu wenig Spannung wenn du die Boost table hochziehst.

980 Ti bessere Asic? Im Luxx fassen einige zusammen, den Eindruck hatte ich bislang nicht.

HisN
2015-06-21, 13:02:56
Der 353.12 Hotfix scheint wieder etwas mehr Stabilität in die Sache zu bringen.
Jetzt funktionieren die Takte/Spannungen wieder, die ich mit dem Launch-Treiber erarbeitet hatte.
Als Test mal 75 Runden Nordschleife in PCars (Jede Runde etwas mehr als 7 Minuten).

http://abload.de/thumb/pcars64_2015_06_21_10o4spo.jpg (http://abload.de/image.php?img=pcars64_2015_06_21_10o4spo.jpg)

Ich hab durch den Treiber-Salat die Arbeit an einem OC-Bios erst mal aufgegeben, weil man nicht mehr gesehen hat ob es jetzt ein verhunztes Bios oder der wackelige Treiber war, der da die Abstürze produziert. Der Launch-Treiber ist zwar stabiler, aber produziert 2-Sekunden-Ruckler in Witcher. Deshalb war auch der keine Option für mich.

Raff
2015-06-21, 13:12:42
Ja, die Zwischenstufen kriegen evtl. zu wenig Spannung wenn du die Boost table hochziehst.

Bei meinem BIOS gibt's keine Zwischenstufen, da ich den Takt gleichsetze und dazu passend auch die Spannung dafür fixiere. Das darf und sollte nicht schwanken - bis auf den minimalen Drop, wenn die Temperatur Richtung 70 °C geht, aber dem versuche ich gerade mit einer getunten Lüfterkennlinie entgegen zu wirken. ~1.500 U/Min. beim Accelero Xtreme IV reichen offenbar, nur eben nicht für 1,25+ Volt. :ugly:

Der 353.12 Hotfix scheint wieder etwas mehr Stabilität in die Sache zu bringen.
Jetzt funktionieren die Takte/Spannungen wieder, die ich mit dem Launch-Treiber erarbeitet hatte.
Als Test mal 75 Runden Nordschleife in PCars (Jede Runde etwas mehr als 7 Minuten).

http://abload.de/thumb/pcars64_2015_06_21_10o4spo.jpg (http://abload.de/image.php?img=pcars64_2015_06_21_10o4spo.jpg)

Das ist schon ein Replay oder bist du echt seit gestern bis jetzt durchgefahren, um das zu testen? ;) Die 24 Stunden von Le Titans. ;D

Deine braucht 1,23 Volt für felsenfeste 1.455 MHz? Welche ASIC-Quality und Kühlung sind's bei dir?

Also bei mir hat wie gesagt Watch Dogs das scheinbar stabile OC-Ergebnis gekippt. Natürlich in fiesen Einstellungen: 3.840 x 2.400 oder gar 5.120 x 3.200 Pixel mit 2x oder 4x TXAA. Damit werden mindestens 6 GiB Speicher adressiert, was für ordentlich Last auf dem Interface sorgt. Kann ich nur empfehlen. GTA V und WoW, jeweils mit ähnlich perversen Settings, liefen stabil. Wie sich Project Cars eignet, weiß ich nicht.

MfG,
Raff

HisN
2015-06-21, 13:28:06
Ich hab die KI fahren lassen^^
Ich hab 68er Asic und die Karte ist unter Wasser (Fullcover) mit passiver Backplate hinten.
Mehr will meine Karte nicht dauerhaft. Klar kann ich mit 1506 Benchen, aber da läuft sie keine Stunden. Egal wieviel Spannung ich draufbrate.

Ich hab Project Cars gewählt, weil man da dauerhaft Last erzeugen kann, die wechselt je nachdem was in der Szene zu sehen ist, und weil die ersten Meldungen über Abstürze mit dem 353.06 zu PCars gekommen sind.

Godmode
2015-06-21, 21:02:29
Hab jetzt mal mit nur einer GPU getestet, einfach weils mich interessiert hat, was die 80er wirklich an Takt stemmt. Der erste Versuch mit 1.541 MHz lief über mehrere Stunden GTA5 in 2160p ohne Probleme. Spannung lies ich trotzdem erstmal auf 1,274v. Jetzt teste ich noch, ob da noch mehr geht.

cR@b
2015-06-22, 07:58:29
Der Launch-Treiber ist zwar stabiler, aber produziert 2-Sekunden-Ruckler in Witcher. Deshalb war auch der keine Option für mich.

Echt jetzt? Also bei mir läuft er im Vergleich zum aktuellen TDR Treiber gleich gut mit Ausnahme der Abstürze eben. Hattest du max prerendered frames 1 beim 347.88 gesetzt?

@All

Mit dem aktuellen Treiber muss man ca. 50Mhz runter für ein sauberes OC.

Raff
2015-06-22, 09:26:35
Hab jetzt mal mit nur einer GPU getestet, einfach weils mich interessiert hat, was die 80er wirklich an Takt stemmt. Der erste Versuch mit 1.541 MHz lief über mehrere Stunden GTA5 in 2160p ohne Probleme. Spannung lies ich trotzdem erstmal auf 1,274v. Jetzt teste ich noch, ob da noch mehr geht.

Glückspilz, sehr schick. :up:

MfG,
Raff

akuji13
2015-06-22, 10:08:03
Mit dem aktuellen Treiber muss man ca. 50Mhz runter für ein sauberes OC.

Würde erklären warum TW3 nun nicht mehr stabil ist bei mir mit 1400Mhz.

Mit 1350 klappts wunderbar.

ChaosTM
2015-06-22, 10:49:41
Hab jetzt mal mit nur einer GPU getestet, einfach weils mich interessiert hat, was die 80er wirklich an Takt stemmt. Der erste Versuch mit 1.541 MHz lief über mehrere Stunden GTA5 in 2160p ohne Probleme. Spannung lies ich trotzdem erstmal auf 1,274v. Jetzt teste ich noch, ob da noch mehr geht.

Wie viel zieht dein Sys. bei 1500+ ca. aus der Dose?

Godmode
2015-06-22, 11:07:05
Glückspilz, sehr schick. :up:

MfG,
Raff

Ja ich denke die ware interessant für einen richtigen Übertakter, mit LN2.

Wie viel zieht dein Sys. bei 1500+ ca. aus der Dose?

In Spielen so zwischen 600 und 1000 Watt, je nach Last. Wenn ich noch die CPU mit belaste, gehts klar über 1000 Watt. Müsste mal gucken.

cR@b
2015-06-22, 14:01:53
Kann mir eigentlich n8cht vorstellen, dass der Unterschied zwischen 80 und 74 Asic so groß ist. Wenn deine 1541 macht sollte die 74er die 1500 stabil schaffen. Die Frage ist, ob GTA 5 allein für eine stabile Aussage reicht.
Manchmal laufen diverse Games hunderte von Stunden stabil während genau Eines mittedrin bzw. schneller abkackt.

Godmode
2015-06-22, 14:21:45
Kann mir eigentlich n8cht vorstellen, dass der Unterschied zwischen 80 und 74 Asic so groß ist. Wenn deine 1541 macht sollte die 74er die 1500 stabil schaffen. Die Frage ist, ob GTA 5 allein für eine stabile Aussage reicht.
Manchmal laufen diverse Games hunderte von Stunden stabil während genau Eines mittedrin bzw. schneller abkackt.

Ich werde weiterhin berichten, was nun letzten Endes an Takt rauskommt, falls die 1541 doch nicht stabil sind.

Godmode
2015-06-22, 20:08:20
Hat jemand von euch eine Idee, warum die TX den Takt senkt, obwohl weder Temperatur- noch Powertarget erreicht wurden? Mir ist das in der Kite Demo gerade aufgefallen. Die Karte läuft mit 1550 MHz und taktet dann hin und wieder auf 765 Mhz runter?

Raff
2015-06-22, 20:15:55
Vermutlich ist das eine der vielen undokumentierten Zahlen im Maxwell BIOS Tweaker. Sprich: Irgendeine "Rail" wird doch ausgefahren und die Karte muss sich drosseln, obwohl das Gesamtlimit und evtl. die der beiden Strombuchsen genügen.

MfG,
Raff

Godmode
2015-06-22, 20:38:13
Ich habe jetzt kurz mal ein BIOS mit gleichen Rails erstellt, weil vom Netzteil kommen auch nur 3xMasse, 3xPhase und nicht 3+5 wie eigentlich vorgesehen. Werde berichten ob sich was verändert hat.

Schaffe89
2015-06-22, 20:42:29
Bei mir produziert der aktuelle Treiber wieder Abstürze und Treiberresets, trotz von MF ausgetauschter Karte Palit --> Gainward.

Schnoesel
2015-06-22, 20:50:45
Liegt wohl eher am Treiber, wenn ich mir die Kommentare so ansehe:

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Downloads/Geforce-Treiber-Download-1150422/

Raff
2015-06-22, 21:31:17
Woklbokl, falls du das liest: Stehst du in Kontakt mit svl7? Wir brauchen dringend ein vernünftiges BIOS für die Titanen, das ist doch kein Zustand. :ugly:

MfG,
Raff

ChaosTM
2015-06-22, 21:42:07
Woklbokl, falls du das liest: Stehst du in Kontakt mit svl7? Wir brauchen dringend ein vernünftiges BIOS für die Titanen, das ist doch kein Zustand. :ugly:

MfG,
Raff

hmm..
Kann man daraus schließen, dass die Titan @ 1500 sehr nahe oder knapp hinter einer voll übertakteten Fiji XT liegt; mit dem derzeitigen Bios?

..einen Versuch war es wert, aber so einfach verrät er sich nat. nicht :)

Raff
2015-06-22, 21:44:55
Nee, Fiji hat damit gar nichts zu tun. Ihr interpretiert einfach zu viel. Noch etwas Öl für das Feuer: Warum habe ich gerade erst eine Titan X gekauft, liegt das an der Fury X oder war's einfach nur Zufall wegen einer plötzlich aufgetauchten Gelegenheit? ;)

MfG,
Raff

Schaffe89
2015-06-22, 21:52:09
Fury X lässt sich beschissen übertakten, das weiß mittlerweile jeder. ;)

Woklbokl
2015-06-22, 21:57:00
Weil Huang dir eine geschenkt hat? ;D

Also der letzte Kontakt war am 31.03. :(

Da hat er mich hiermit geteased:

http://abload.de/thumb/teaserzbjyt.jpg (http://abload.de/image.php?img=teaserzbjyt.jpg)

Voltage Slider hat laut ihm funktioniert, aber es hat ihm optisch nicht gefallen. :rolleyes:

Danach kein Kontakt mehr zustande gekommen, er war auch schon ewig nichtmehr im TI online, bzw. wenn dann nur sehr selten und hat auch seine Moddingthreads für Notebooks im TI-Forum abgegeben.

Weiß also auch nicht mehr als du ;(

Raff
2015-06-22, 22:03:09
Fury X lässt sich beschissen übertakten, das weiß mittlerweile jeder. ;)

Neue Hardware braucht angepasste Tools.

Weil Huang dir eine geschenkt hat? ;D

Na logen. Ich bin letztens einfach zu ihm hinter die Bühne gepilgert, habe ihm etwas vom göttlichen NV1 vorgeschwärmt, wie revolutionär das Ding doch war und wie hart 3dfx damals gesuckt hat, da rückte er ein Titan-X-ES inklusive Autogramm und Herzchen (Magenta-Edding!) raus. Und die Fermi-Holzattrappe hat er noch obendrauf gelegt!

Da hier Leute ohne Humor und Vertrauen herumlaufen: Natürlich habe ich für die Titan X bezahlt, aber eben keine 1.000, sondern dank etwas Glück nur 750 Euro (plus Kosten für die neue Kühlung).

Also der letzte Kontakt war am 31.03. :(

Da hat er mich hiermit geteased:

http://abload.de/thumb/teaserzbjyt.jpg (http://abload.de/image.php?img=teaserzbjyt.jpg)

Voltage Slider hat laut ihm funktioniert, aber es hat ihm optisch nicht gefallen. :rolleyes:

Danach kein Kontakt mehr zustande gekommen, er war auch schon ewig nichtmehr im TI online, bzw. wenn dann nur sehr selten und hat auch seine Moddingthreads für Notebooks im TI-Forum abgegeben.

Weiß also auch nicht mehr als du ;(

Geil! Also das Schweigen ist ungeil, aber das BIOS sieht vielversprechend aus. Welche Möglichkeiten, ihn mal zu schubsen, hast du? Ich versuch's am besten auch mal, aber wenn er keine PNs liest, ist das eher aussichtslos.

MfG,
Raff

phoenix887
2015-06-22, 22:08:55
Raff also wurdest du geschmiert?:biggrin:

Macht mir nichts aus, wenn ich die nächste PCGH lese, bin sowieso NV-Fanboy:D

Woklbokl
2015-06-22, 22:09:11
Geil! Also das Schweigen ist ungeil, aber das BIOS sieht vielversprechend aus. Welche Möglichkeiten, ihn mal zu schubsen, hast du? Ich versuch's am besten auch mal, aber wenn er keine PNs liest, ist das eher aussichtslos.

MfG,
Raff

Nur per Mail, bzw allgemein seinen Google Account.
Habe aber so das dumpfe Gefühl das er nichts mehr in die Richtung machen möchte, gab ja damals schon Beef mit dem OCN-Forum. (Skyn3t)

gedi
2015-06-22, 22:14:42
Ich schätze Svl7 sehr, immerhin sind seine AW-Bios genial und er ist afair der einzige, welcher einen einen funktionstüchtigen Bios-Editor für GCN zum laufen gebracht hat. Was ich nicht verstehe: Man kann doch bei NV das BIOS selbst editieren (und der Editor erklärt sich eigentlich von selbst), warum brauche ich dann ein Bios von z.B. evga, svl7, Zotac usw.?

Raff
2015-06-22, 22:22:00
Raff also wurdest du geschmiert?:biggrin:

Macht mir nichts aus, wenn ich die nächste PCGH lese, bin sowieso NV-Fanboy:D
Nein, ich kaufe einfach nur zum gegebenen Zeitpunkt (und nicht zu jedem Preis) das für meine Ansprüche beste Produkt. Hätte die Fury X 8 GiByte, wäre das vielleicht diese Karte geworden. Immerhin: Haarscharf habe ich es mal wieder geschafft, meine bisherige Preisgrenze nicht zu überschreiten:

- Voodoo 5 6000: 750 Euro im Jahr 2006
- Titan Classic: 700 Euro im Jahr 2013
- Titan X: 750 Euro im Jahr 2015

... aber um mich geht's hier nicht. ;)

Nur per Mail, bzw allgemein seinen Google Account.
Habe aber so das dumpfe Gefühl das er nichts mehr in die Richtung machen möchte, gab ja damals schon Beef mit dem OCN-Forum. (Skyn3t)

Mit welchem Hintergrund, wo klemmte es denn? Ansonsten: Wenn du mir seine Email-Adresse per PN schickst, versuche ich mein Glück morgen. :)

Raff also wurdest du geschmiert?:biggrin:

Macht mir nichts aus, wenn ich die nächste PCGH lese, bin sowieso NV-Fanboy:D
Ich schätze Svl7 sehr, immerhin sind seine AW-Bios genial und er ist afair der einzige, welcher einen einen funktionstüchtigen Bios-Editor für GCN zum laufen gebracht hat. Was ich nicht verstehe: Man kann doch bei NV das BIOS selbst editieren (und der Editor erklärt sich eigentlich von selbst), warum brauche ich dann ein Bios von z.B. evga, svl7, Zotac usw.?

Ganz einfach: Jedes aktuelle BIOS ist ein Kompromiss. Entweder man rennt ans Powerlimit, hat aber den Vorteil der lastabhängig variierenden Spannungen und Frequenzen (Effizienz) ... oder man setzt alles manuell rauf, muss dann aber mit gesetzten Frequenzen und Spannungen unter Last leben.

Die früheren BIOSe von svl7 hebelten den ganzen Boost-Schmarrn aus und führten volle Konfigurierbarkeit ein: Takt und Spannungen können unabhängig voneinander explizit gesetzt werden. Spiel A ist anspruchslos? 1.000 MHz mit 0,9V als Afterburner-Profil. Spiel B tötet die Titan? Zweites Profil mit 1.500 MHz und 1,25 Volt daneben. Und so weiter. So war das früher und so ist das auch bei aktuellen AMD-Karten: Man kann das Teil maßschneidern, wie sich das für eine PC-Komponente gehört.

MfG,
Raff

Woklbokl
2015-06-22, 22:30:28
Sie haben Post.

Schaffe89
2015-06-22, 22:33:19
Neue Hardware braucht angepasste Tools.

Hamma wieda was rausgekitzelt?:biggrin:
Also mit extra Tool und mehr Spannung geht mehr? mhm..

phoenix887
2015-06-22, 22:34:43
Raff weiss ich doch wie du tickst, habe ja schon einiges was du schreibst gelesen. Ist nur Spass, alles in Ordnung:)

dildo4u
2015-06-22, 22:34:59
Hamma wieda was rausgekitzelt?:biggrin:
Also mit extra Tool und mehr Spannung geht mehr? mhm..

Nein das heisst es gibt noch keine Tools die das können.

gedi
2015-06-22, 22:35:28
schreib svl7 entweder übers Forum von Techinferno, oder aber über die aw-community an. Eigentlich antwortet er immer ;)

Schaffe89
2015-06-22, 22:54:54
Ja es gibt noch keine Tools, aber die wirds wie immer recht zeitig geben.
Die Frage ist allerdings warum AMD nicht gleich so etwas zur Verfügung stellt.

Dural
2015-06-25, 10:23:57
hab mir gestern eine TX bestellt.

ist für die karte ein mod bios bei ca. 1400/1900MHz nötig?

akuji13
2015-06-25, 10:36:34
Kommt auf das Spiel, die Karte und den Treiber an. :D

In den Spielen die ich spiele (GTA V, TW3) schafft es meine auch ohne.

Godmode
2015-06-25, 10:42:33
hab mir gestern eine TX bestellt.

ist für die karte ein mod bios bei ca. 1400/1900MHz nötig?

Kommt wirklich sehr auf die Karte drauf an. Du erreichst zwar mit manchen Karten auch ohne Mod die 1400 MHz, aber sie rennt dann oft ins PT rein, was sie dann runtertakten lässt. Also das Modbios ist hauptsächlich fürs PT unlocken da und weniger für die VCore. Zumindest meine 80,6er geht bis über 1470, ohne VCore Anhebung.

kokett
2015-06-25, 10:43:02
Ich hätte einfach gerne ein Bios mit

1. unlocked Power Target (geht jetzt schon)

2. 1,27V anlegen mittels tool (geht nicht)

ausgehebelten Boost bräuchte es nichtmal, unter Wasser takten die Karten eh nicht runter. Nice to have wäre es trotzdem.

derguru
2015-06-25, 11:50:46
Kommt auf das Spiel, die Karte und den Treiber an. :D

In den Spielen die ich spiele (GTA V, TW3) schafft es meine auch ohne.
wie, deine schafft ohne modbios die 1400 in witcher zu halten? spielst du in 720p?^^

meine fällt bis auf 1300 runter obwohl bei den meisten anderen spielen ~1400 anliegt.

akuji13
2015-06-25, 12:01:16
Nö, sondern in 3840x1620. =)

Eigentlich wären es 1425 Mhz, aber GTA V, TW3 und Watch Dogs drücken sie auf 1400 runter.

In Anno oder Risen 3 würde sie vermutlich noch weiter gedrückt, aber die habe ich nicht zwecks Test.

Dural
2015-06-25, 14:06:04
hat es einen einfluss (PT) wenn ich den lüfter auf 100% stelle?

HisN
2015-06-25, 14:08:00
Anno haste gerade für n 5er im SteamSale verpasst :-)

Troyan
2015-06-25, 14:08:47
Ja. Das Powerlimit ist die komplette Karte.
Je schneller der Lüfter dreht, umso mehr Strom benötigt er. Dies wird auf das Powerlimit drauf geschlagen.

Flash einfach ein Custom-Bios mit 350W oder so. Danach kannst du immer noch flexibel deine Wunscheinstellung finden.

Thunder99
2015-06-25, 14:10:06
kühlere Karte weniger Watt die verbraten werden, denke also schon. Nur wie viel das bringt weiß ich nicht. Meine vorherige GTX970 lief ins TT und wenn ich es zu weit erhöht hatte schmierte die Karte ab :freak:

Dural
2015-06-25, 14:11:00
Ich meinte ob die GPU Temperatur einen Einfluss aufs PT hat, sprich umso Kühler die GPU umso mehr Takt bei gleichem PT?

Bei Hawaii macht zb. die GPU Temperatur extrem viel aus.

Troyan
2015-06-25, 14:13:13
Nicht bei nVidia, da dann der Boost einfach höher ist.
Das wiederum wird dann durch den höheren Strombedarf der Kühlung negiert.

Mal davon abgesehen, dass der Kühler gerade so ausreichend ist, um die Karte auf 80°C zu halten, wenn man das Powerlimit auf 275W erhöht.

Dural
2015-06-25, 14:27:55
OK, eigentlich unglaublich das NV so ein High-End Modell noch künstlich einbremsen muss. Da lässt man wohl noch etwas Spielraum für eine neu Auflage :rolleyes:

derguru
2015-06-25, 15:23:37
Ja. Das Powerlimit ist die komplette Karte.
Je schneller der Lüfter dreht, umso mehr Strom benötigt er. Dies wird auf das Powerlimit drauf geschlagen.

Flash einfach ein Custom-Bios mit 350W oder so. Danach kannst du immer noch flexibel deine Wunscheinstellung finden.
wo bekomme ich ein custom- bios her? noch lieber wäre es bei meinem bios den powerlimit zuerhöhen, kann das hier jemand wenn ich mein bios uploade?

Troyan
2015-06-25, 15:26:41
Hier gibt es ein paar: http://www.overclock.net/t/1546747/official-nvidia-geforce-gtx-titan-x-owners-club

akuji13
2015-06-25, 15:47:13
noch lieber wäre es bei meinem bios den powerlimit zuerhöhen, kann das hier jemand wenn ich mein bios uploade?

Das dürften hier genug können.

derguru
2015-06-25, 16:38:05
dann mal hier mein bios aber sonst bitte nichts ändern, thx schonmal.:biggrin:
https://mega.nz/#!GN9lxY6I!7ebwjV8Ytll-0CMFUi3OlUOiREIi8ZOxmRma62oiTNk

Godmode
2015-06-25, 17:37:25
dann mal hier mein bios aber sonst bitte nichts ändern, thx schonmal.:biggrin:
https://mega.nz/#!GN9lxY6I!7ebwjV8Ytll-0CMFUi3OlUOiREIi8ZOxmRma62oiTNk

Hier gibts die Anleitung, es ist wirklich Idiotensicher.
http://www.computerbase.de/forum/showthread.php?t=1445972

derguru
2015-06-25, 17:47:56
supi, thx! mal schauen ob sich das für mich lohnt inkl. neuem kühler.

Grestorn
2015-06-25, 18:43:01
Hier gibts die Anleitung, es ist wirklich Idiotensicher.
http://www.computerbase.de/forum/showthread.php?t=1445972

Leider passt das mit der Voltage Table nicht für Titan X. Ich hab nur einen Voltage-Regler ganz oben (über P00), statt deren drei.

cR@b
2015-06-26, 07:19:57
Leider passt das mit der Voltage Table nicht für Titan X. Ich hab nur einen Voltage-Regler ganz oben (über P00), nicht nur drei.

Jop das hatte ich nachdem Guide auch erkannt, erklären konnte es mir bis Dato keiner.

OC_Burner
2015-06-26, 12:23:09
So besser?

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52377&stc=1&d=1435313554

Hatte letzte Woche ein bißchen im HEX-Editor rumgespielt aber seitdem noch nicht weiter rumgetestet. Es gibt noch ein weiteren Voltagereiter mit den Spannungen 1206.349mV & 1255.838mv der sich aber nicht im Maxwell Editor freischalten läßt.

Grestorn
2015-06-26, 12:35:13
Wie hast Du das gemacht?

Ich würde gern mein Original Palit BIOS modifizieren, wenn es möglich ist, und kein BIOS eines Fremdherstellers einsetzen. Ich würde das also gerne nachvollziehen, was Du gemacht hast.

Woklbokl
2015-06-26, 12:50:40
Hatte letzte Woche ein bißchen im HEX-Editor rumgespielt aber seitdem noch nicht weiter rumgetestet. Es gibt noch ein weiteren Voltagereiter mit den Spannungen 1206.349mV & 1255.838mv der sich aber nicht im Maxwell Editor freischalten läßt.


Woot? Kannst du damit ein Bios basteln welches man von 1V (oder niedriger) bis 1.275V hochregeln kann, wo der Takt immer fest ist und er bei Voltage-Erhöhung nicht steigt?

Bei der 980 ging das noch mit dem Editor mit den 3 Reglern oben, bei der Titan X hab ichs nicht hinbekommen bisher.

OC_Burner
2015-06-26, 13:28:31
Wie hast Du das gemacht?

Ich würde gern mein Original Palit BIOS modifizieren, wenn es möglich ist, und kein BIOS eines Fremdherstellers einsetzen. Ich würde das also gerne nachvollziehen, was Du gemacht hast.

In den farbig markierten Zeilen sind die aktuellen Änderungen zu finden. Die Offsets sollten Herstellerübergreifend gültig sein.


0x00007fed: 78 74 13 --> c8 37 14 ; max voltage (default 1275000)
0x000081a6: 00 50 c3 --> c0 77 cc ; max voltage (default 12800000)
0x000081ea: 00 50 c3 --> c0 77 cc ; max voltage (default 12800000)

0x0000804f: 53 cd 11 --> 04 bd 11 ; (default 1166675) voltage pattern for? (new voltage slider in editor)
0x00008053: 06 88 12 --> 54 80 12 ; (default 1214470) voltage pattern for? (new voltage slider in editor)

0x00008071: 4d 68 12 --> d0 12 13 ; (default 1206349) voltage pattern for?
0x00008075: 9e 29 13 --> 00 88 13 ; (default 1255838) voltage pattern for?

0x000080d7: 9c b3 0e --> 2e c8 0e ; (default 963484) voltage pattern for? (new voltage slider in editor)
0x000080db: 5b f1 0e --> 02 f9 0e ; (default 979291) voltage pattern for? (new voltage slider in editor)
0x000080df: c4 aa ab --> 40 5d c6 ; (default 11250372) voltage pattern for?


Woot? Kannst du damit ein Bios basteln welches man von 1V (oder niedriger) bis 1.275V hochregeln kann, wo der Takt immer fest ist und er bei Voltage-Erhöhung nicht steigt?

Bei der 980 ging das noch mit dem Editor mit den 3 Reglern oben, bei der Titan X hab ichs nicht hinbekommen bisher.

Theoretisch wäre das wohl möglich und einer dieser drei neuen Voltageregler dürfte bestimmt dieser ominöse Übertaktungsregler sein. Intensiv mit Hexeditor und Bios auseinander gesetzt habe ich mich aber seit Fermi nicht mehr. Aber die Struktur scheint im groben die selbe zu sein.

Grestorn
2015-06-26, 15:14:20
@OC_Burner:

Vielen Dank! Dein Patch führt in der Tat dazu, dass der Maxwell Tweaker die drei Regler anzeigt, auch mit den Werten aus Deinem Screenshot.

Ich hab den Tweaker das gepatchte BIOS neu speichern lassen, damit er die Checksumme korrigiert.

Dennoch verweigert nvflash mit der Option -6 das Flashen, weil die Signatur angeblich nicht stimmen würde (es handelt sich aber um das von mir selbst ausgelesene, mit dem Tweaker veränderte und wie von Dir beschrieben gepatchte BIOS). Ich nehme an, der manuelle Patch macht die Signatur ungültig. Kann man den Patch nicht so durchführen, dass sie Signatur korrigiert wird? Der Tweaker macht das ja auch irgendwie...

OC_Burner
2015-06-26, 15:54:29
@OC_Burner:

Vielen Dank! Dein Patch führt in der Tat dazu, dass der Maxwell Tweaker die drei Regler anzeigt, auch mit den Werten aus Deinem Screenshot.

Ich hab den Tweaker das gepatchte BIOS neu speichern lassen, damit er die Checksumme korrigiert.

Dennoch verweigert nvflash mit der Option -6 das Flashen, weil die Signatur angeblich nicht stimmen würde (es handelt sich aber um das von mir selbst ausgelesene, mit dem Tweaker veränderte und wie von Dir beschrieben gepatchte BIOS). Ich nehme an, der manuelle Patch macht die Signatur ungültig. Kann man den Patch nicht so durchführen, dass sie Signatur korrigiert wird? Der Tweaker macht das ja auch irgendwie...

Mit dem Editor habe ich auch die Checksumme fixen lassen. Die Signatur wird immer ungültig, daher auch mit dem Editor. Warum NVFlash bei dir auf einmal nicht geht weiß ich nicht. Ich benutze noch die alte Version bei der man im Geräte-Manager die Grafikkarte noch manuell deaktivieren muss.

Grestorn
2015-06-26, 17:38:32
Mit dem alten nvflash geht es tatsächlich. Da denke ich, ich nehm besser die neueste Version, und schon fall ich auf die Nase... o_O

Aber leider hat es nichts gebracht. Auch wenn ich die Spannungen im Tweaker nochmal leicht nach oben anhebe: Mehr als 1.230 V liegt an meiner TX niemals an. Sieht nach einem HW-Lock aus. Interessant nur, dass der bei jeder Karte offenbar anders liegt. Also ist nicht der ASIC Wert so entscheidend, bei der Wahl der Karte, sondern wie hoch sich die Spannung anheben lässt...

4Fighting
2015-06-27, 11:50:05
Aber leider hat es nichts gebracht. Auch wenn ich die Spannungen im Tweaker nochmal leicht nach oben anhebe: Mehr als 1.230 V liegt an meiner TX niemals an. Sieht nach einem HW-Lock aus. Interessant nur, dass der bei jeder Karte offenbar anders liegt. Also ist nicht der ASIC Wert so entscheidend, bei der Wahl der Karte, sondern wie hoch sich die Spannung anheben lässt...

das mit den 1.23v ist bei mir ähnlich.

Wobei ich auch sagen muss, dass mir 1,23v als Sweetspot erscheint. Die meisten kommen ja auf 1,5ghz nur mit 1,27V (wenn überhaupt). Da bin ich mit meinen knapp 1450 und 1,23v eigentlich ganz gut aufgestellt.

Hast Du schon mal das Bios von Jpmboy probiert?

http://www.overclock.net/t/1546747/official-nvidia-geforce-gtx-titan-x-owners-club/8370_90#post_23949591

Woklbokl
2015-06-27, 13:33:05
Theoretisch wäre das wohl möglich und einer dieser drei neuen Voltageregler dürfte bestimmt dieser ominöse Übertaktungsregler sein. Intensiv mit Hexeditor und Bios auseinander gesetzt habe ich mich aber seit Fermi nicht mehr. Aber die Struktur scheint im groben die selbe zu sein.


Hab gestern mal noch ein wenig rumprobiert mit deinem Bios.
Bin dank der neuen Regler aber auch kein Stück weitergekommen.
svl7 where are you :(

Grestorn
2015-06-27, 13:51:31
das mit den 1.23v ist bei mir ähnlich.

Wobei ich auch sagen muss, dass mir 1,23v als Sweetspot erscheint. Die meisten kommen ja auf 1,5ghz nur mit 1,27V (wenn überhaupt). Da bin ich mit meinen knapp 1450 und 1,23v eigentlich ganz gut aufgestellt.
Ja, das sind in etwa auch die Werte, die ich mit 1,23V erreiche.

Hast Du schon mal das Bios von Jpmboy probiert?

Ich habs jetzt mal probiert. Damit gehen tatsächlich 1,274V. Aber auch anderes verändert sich, so muss ich z.B. den Coretakt ca. um mehr als +50 weiter aufdrehen als mit dem Standart-BIOS um auf den selben Ziel Boost-Takt zu kommen. Außerdem ist die TDP Skalierung ganz anders, mit dem Jpmboy BIOS komme ich kaum mal auf 115% unter Last, obwohl Spannung 1,274V ist, Core weit über 1500MHz und VRAM auf 4000MHz.

Mit meinem eigenen BIOS komme ich locker über 125%, manchmal sogar über 130%, obwohl die Taktraten und Spannung deutlich niedriger sind.

Mit beiden BIOSen ist die PerfCap-Reason aber immer "VRel" (also "reliability Voltage").

Mit dem Jpmboy BIOS kann ich den Core-Takt knapp 86 MHz höher einstellen und gewinne knapp 600 Punkte (ca. 5,9%) im Firestrike Extreme:

Firestrike Extreme CPU 2400/100/43/39 - GPU 1460/1900/140%/1230mV: 9638 (http://www.3dmark.com/fs/5228821)
Firestrike Extreme CPU 2400/100/43/39 - GPU 1546/2000/150%/1274mV: 10204 (http://www.3dmark.com/fs/5228734)

Die GPU Temperatur ist mit der hohen Spannung nur 3-4° höher (ca. 67°).

Das ist schon ordentlich. Ich werd aber bei meinem eigenen BIOS bleiben, 1460 reichen locker und ich mag meine TX nicht permanent so quälen...

HisN
2015-06-27, 13:52:48
Du kannst ja für den Default-PT-Wert im Bios eintragen was Du lustig bist.

Persönlich würde ich den ja immer gleich dem setzen was ich als Maximum Eintrage, und dann keine Überschreitung mehr dulden.
Dann weiß ich das 100% von den 350W die ich setze auch tatsächlich 350W sind und muss nicht grübeln ob 115% jetzt 200 oder 400W bedeutet.

Grestorn
2015-06-27, 13:55:51
Du kannst ja für den Default-PT-Wert im Bios eintragen was Du lustig bist.

Stimmt, das hatte ich ganz vergessen. Ich hab bei meinen eigenen Modifikationen den Standard-PT immer unangetastet gelassen.

4Fighting
2015-06-27, 13:58:00
Ja, das sind in etwa auch die Werte, die ich mit 1,23V erreiche.



Ich habs jetzt mal probiert. Damit gehen tatsächlich 1,274V. Aber auch anderes verändert sich, so muss ich z.B. den Coretakt ca. um mehr als +50 weiter aufdrehen als mit dem Standart-BIOS um auf den selben Ziel Boost-Takt zu kommen. Außerdem ist die TDP Skalierung ganz anders, mit dem Jpmboy BIOS komme ich kaum mal auf 115% unter Last, obwohl Spannung 1,274V ist, Core weit über 1500MHz und VRAM auf 4000MHz.

Mit meinem eigenen BIOS komme ich locker über 125%, manchmal sogar über 130%, obwohl die Taktraten und Spannung deutlich niedriger sind.

Mit beiden BIOSen ist die PerfCap-Reason aber immer "VRel" (also "reliability Voltage").

Mit dem Jpmboy BIOS kann ich den Core-Takt knapp 86 MHz höher einstellen und gewinne knapp 600 Punkte (ca. 5,9%) im Firestrike Extreme:

Firestrike Extreme CPU 2400/100/43/39 - GPU 1460/1900/140%/1230mV: 9638 (http://www.3dmark.com/fs/5228821)
Firestrike Extreme CPU 2400/100/43/39 - GPU 1546/2000/150%/1274mV: 10204 (http://www.3dmark.com/fs/5228734)

Die GPU Temperatur ist mit der hohen Spannung nur 3-4° höher (ca. 67°).

Das ist schon ordentlich. Ich werd aber bei meinem eigenen BIOS bleiben, 1460 reichen locker und ich mag meine TX nicht permanent so quälen...

mit dem PT bist ja selbst drauf gekommen. 100% können alles heißen - je nach Bios eben.:)

Aber sonst bin ich voll bei Dir. Ggf. kann man die Karte ja später noch quälen, wenn man noch ein paar Prozent extra braucht.

Womit kühlst Du die karte denn?

Grestorn
2015-06-27, 14:45:23
Womit kühlst Du die karte denn?

Wasserkühlung, Externes Aquaduct 720.

Ph0b0ss
2015-06-27, 16:53:43
Wie regelt eigentlich Nvidia die Vgpu bei der Titan X? Also wenn man z.B. 1,20V vorgibt, was liegt dann real im Idle und unter Vollast an? Zeigen die Tools wie GPU-Z da Schwankungen an bzw. hat mal jemand mit nem Multimeter gemessen was real anliegt?

Die Frage stellt sich mir, da AMD bei der R9 290X ja mit Voffset und Vdroop arbeitet, ähnlich wie die Intel CPUs. Bei meiner 290 liegen z.B. bei eingestellten 1,35V Vgpu im Idle 1,32V an und unter richtig harter Last geht es dann bis ~1,2V runter!

Hat das bis jetzt noch niemand gemessen oder mit Tools ausgelesen? Speziell, was unter Last wirklich an Vgpu anliegt bei den hier im Thread eigestellten 1,23V/1,274V wär interessant!

4Fighting
2015-06-28, 11:09:54
Hat das bis jetzt noch niemand gemessen oder mit Tools ausgelesen? Speziell, was unter Last wirklich an Vgpu anliegt bei den hier im Thread eigestellten 1,23V/1,274V wär interessant!

http://www.overclock.net/t/1546747/official-nvidia-geforce-gtx-titan-x-owners-club/3780_90#post_23748459

Wenn ich das verstehe, liegen nicht viel mehr als 1,274V an

Godmode
2015-06-28, 12:03:14
Hat das bis jetzt noch niemand gemessen oder mit Tools ausgelesen? Speziell, was unter Last wirklich an Vgpu anliegt bei den hier im Thread eigestellten 1,23V/1,274V wär interessant!

Laut meinen eigenen Versuchen geht nicht mehr als 1,274V, egal was im BIOS eingestellt ist. Die 1,274 liegen bei mir aber nur an, wenn ich min und max eben auf diesen Wert setze.

Ph0b0ss
2015-06-28, 13:03:34
Interessant. Also arbeitet Nvidia ohne Voffset und Vdroop. Mal sehen wie AMD das beim Fiji gemacht hat.

Dural
2015-06-29, 09:18:05
Meine TX macht keine 1400MHz Stabil @ Stock 110% PT und Lüfter auf 100%

ASIC 70,8% Spannung laut GPU-Z rund 1,15Volt

Wo ist etwa der Durchschnitt?

cR@b
2015-06-29, 09:24:09
Meine TX macht keine 1400MHz Stabil @ Stock 110% PT und Lüfter auf 100%

ASIC 70,8% Spannung laut GPU-Z rund 1,15Volt

Wo ist etwa der Durchschnitt?

Naja mit Standard Voltage wäre das auch zu viel verlangt. Da brauchste dann schon ne high Asic oder eben auf 1.19V mal gehen...

Dural
2015-06-29, 09:33:28
Das ist schon klar, habe die Spannung mit Absicht auf Standard gelassen, da sie schon so in PT von 110% fällt und der Takt zwischen 1370-1410Mhz schwankt.

FC4 und WD laufen in 4K und alles auf max so aber wirklich schön rund.

Grestorn
2015-06-29, 09:45:04
Die Voltage zu erhöhen bringt's i.d.R. auch nicht so sehr. Wenn, dann müsste man das PT auf mehr als 110% erhöhen.

cR@b
2015-06-29, 09:48:05
Kommt drauf an... @1080p laufe ich sogut wie nie ins PT. Jetzt frag nicht warum 1080p aber für mich ist fps noch immer >Bildquali :D

Dural
2015-06-29, 09:51:39
Bei welchem Takt? und Kühlung?

cR@b
2015-06-29, 09:53:51
1350 mit Ref. Kühlung natürlich und ja ich höre meine Graka gerne arbeiten :ugly:

Dural
2015-06-29, 14:13:37
So habe über den Mittag noch etwas getestet, 1350/1900MHz laufen "stabil" die GPU läuft dank PT so weit ich im GPU-Z Diagramm gesehen habe mit 1320-1350MHz.

Komisch finde ich das die GPU gestern mit den eingestellten 1400MHz mit 1370-1400MHz lief, OK der Speicher lief auf dem standard Wert von 1750MHz.

OC_Burner
2015-06-29, 23:26:11
Hab gestern mal noch ein wenig rumprobiert mit deinem Bios.
Bin dank der neuen Regler aber auch kein Stück weitergekommen.
svl7 where are you :(

Habe die Tage noch ein paar mal drüber geschaut aber konnte immer noch nicht den Voltageslider so umgestalten das die Range von Defaultspannung bis 1.275V reicht oder sogar Undervolting anbietet.:(

Allerdings ist mir durch Zufall aufgefallen das der zweite Voltage-Reiter im Maxwell Editor bei bestimmter Stellung die freie Wahl von Standardspannung bis 1.261V zuläßt. Zugleich wird damit die Minimum Spannung für P0- und den P2-State festgelegt. Das Heißt die Karte unterschreitet die im Maxwell Editor eingestellte Minimumspannung keinesfalls, egal wie niedrig der Boost bzw. die Auslastung auch ist.

Ansonsten Konnte ich noch ein paar weitere Voltage-Reiter im Maxwell Editor freischalten (Nutzen unbekannt).

Dural
2015-06-30, 09:14:07
Hat NV etwas am SI des GM200 gearbeitet? Ich war gestern ziemlich überrascht das 2000MHz Speicher Takt ohne Spannungserhöhung laufen, bei meinen fünf 980 hat das genau eine geschafft.

Somit läuft die Karte mit den 110% auf 1320-1330 / 2000MHz, ich denke das ist OK.

cR@b
2015-06-30, 09:19:24
Klingt doch anständig! Umso höher umso schlechter die Skalierung... Läuft deine auch mit Luft?

Dural
2015-06-30, 10:19:03
Ja stock @ 100%, habe noch nichts dran gemacht. Zuerst mal richtig einfahren ;)

Übrigens finde ich den Kühler gar nicht so schlecht, bei diesen werten bleibt die GPU unter 70°C, da kann man nichts sagen. OK sind bis jetzt ja nur max 275Watt

-=Popeye=-
2015-07-22, 22:17:19
Hab mir mal den Hybrid (https://www.caseking.de/evga-hybrid-wasserkuehlung-geforce-gtx-titan-x-wase-266.html) für die TX bestellt um zu sehen was der OC und Temp-technisch so bringt, die Tests der 980/Ti Hybrid sehen jedenfalls vielversprechend aus.

akuji13
2015-07-22, 22:54:58
Ich bin mir sicher du wirst zufrieden sein.

Die Kühlleistung ist schon sehr gut und vor allem variabel:
Entweder sehr kühl oder sehr leise oder ein Mix aus beidem.

Godmode
2015-09-03, 22:44:36
Verwendet von euch eigentlich jmd. eine Backplate? Nach der Optimierung des externen Radis, wollte ich die internen Wakü Teile etwas optimieren, bzw. gegen schönere Varianten austauschen. Im Zuge dessen könnte ich gleich Backplates für die TXen montieren. Hat jmd. von euch gemessen, wie sich die Temperaturen mit und ohne Backplate verhalten? Ich würde die Backplate hauptsächlich aus optischen Gründen montieren.

HisN
2015-09-03, 22:56:07
<-- hat aus optischen Gründen eine (passive) drauf, und die RAMs machen trotzdem 4Ghz mit.

Grestorn
2015-09-03, 23:08:41
Verwendet von euch eigentlich jmd. eine Backplate? Noch der Optimierung des externen Radis, wollte ich die internen Wakü Teile etwas optimieren, bzw. gegen schönere Varianten austauschen. Im Zuge dessen könnte ich gleich Backplates für die TXen montieren. Hat jmd. von euch gemessen, wie sich die Temperaturen mit und ohne Backplate verhalten? Ich würde die Backplate hauptsächlich aus optischen gründen montieren.

Ich hab ein Backplate an meiner Wassergekühlten TX. An dem ist auch ein Temperaturfühler (über dem Hotspot) angebracht.

Die Temperatur läuft der des GPU Cores hinterher, mit viel Verzögerung. D.h. ist der Core auf 60°, geht die Backplate auch langsam gegen knapp 60°. Fällt der Core wieder auf 30, fällt die Backplate langsam und bleibt einen Tick heißer, also z.B. 31 oder 32°

Wobei ich natürlich meine Hand nicht für die Genauigkeit des Fühlers ins Feuer legen würde...

Godmode
2015-09-03, 23:13:43
Das wäre jetzt interessant, wenn der Sensor hinter der Backplate wäre. Ich messe trotz Wakü an der Rückseite der VRMs teilweise 70-75°C im Extremfall (6h Trine2 Hauptmenü in 4k+4xSSAA). Ich habe die Blöcke von EKWB du wohl von Aquacomputer? Nicht das mich die Temperatur jetzt beunruhigen würde, aber mir kam das etwas viel vor, weil eigentlich müsste das Wasser die meiste Abwärme mitnehmen. Die VRMs werden schließlich aktiv mit Wasser umströmt.

akuji13
2015-09-04, 08:45:28
Verwendet von euch eigentlich jmd. eine Backplate?

Meine X mit EK Kühler hat auch die passende backplate drauf.

Die wird zwar nicht aktiv gekühlt, aber ich hoffe das die pads noch etwas Wärme aus dem PCB abziehen...ordentlich heiß wird sie jedenfalls. :D

Zusätzlich ist es ein Schutz für Leute wie mich denen gerne mal was runterfällt und optisch gefällt es mir auch besser.
Eine aktiv gekühlte wäre noch schöner, aber da gibt's nicht viel und die dazu passenden Kühler gefallen mir nicht und waren ja auch ewig nicht lieferbar.

Verstehe ich auch nicht: WaKüs für solche Karten sind doch Artikel die die Käufer sofort haben wollen oder nicht?

Grestorn
2015-09-04, 08:50:56
Das wäre jetzt interessant, wenn der Sensor hinter der Backplate wäre. Ich messe trotz Wakü an der Rückseite der VRMs teilweise 70-75°C im Extremfall (6h Trine2 Hauptmenü in 4k+4xSSAA). Ich habe die Blöcke von EKWB du wohl von Aquacomputer? Nicht das mich die Temperatur jetzt beunruhigen würde, aber mir kam das etwas viel vor, weil eigentlich müsste das Wasser die meiste Abwärme mitnehmen. Die VRMs werden schließlich aktiv mit Wasser umströmt.

Du meinst den Sensor unter die Backplate? Da die aus Metall ist, dürfte das nur ein paar Grad unterschied machen. 75° ist wirklich viel, welche Temperatur hast Du dann im GPU Core?

Ich hab auch die EKWB, weil das seinerzeit der einzig verfügbare Wakü für die Titan X war. Ich hab auch schon überlegt auf die Aquacomputer-Lösung mit aktiver Backplate umzustellen, aber das bedeutet wieder einen Haufen Umbau-Arbeit mit damit verbundenem Risiko bei unterm Strich wenig Verbesserung.

Ich lass meine Gehäuselüfter, die den Luftstrom bei der TX verursachen, von der Temperatur der Backplate steuern. Das klappt sehr gut und, wie Du ja auch schreibst, sind die Temperaturen hoch aber akzeptabel.

Godmode
2015-09-04, 08:52:32
Ich verstehe auch nicht warum die Blöcke oft nicht sofort verfügbar sind. Gerade Highend-Karten sind oft nur bis zur nächsten Generation im Einsatz. Wenn man dann erstmal mehrere Monate auf die Blöcke warten muss, ist sind ja schon wieder 30% der Laufzeit der Karte vorbei. EKWB ist da zum Glück immer recht schnell.

@Grestorn: Die GPUs hatten in diesem Test wohl so um die 50°C. 6h Trine2 @4k+4xSSAA.

robbitop
2015-09-04, 11:10:58
Ich sehe nicht, wie eine Backplate ohne Kühlrippen zur Verbesserung der Kühlung beitragen soll. Immerhin wird die Oberfläche nicht erhöht (keine Kühlrippen). Hinzu kommt, dass sie noch einen zusätzlichen Wärmeübergangswiderstand bedeutet: Wärmequelle -> PCB -> (idealerweise!!) WLP (ist bei vielen Backlatpes aber auch ein Luftspalt) -> Backplate.

Die Rückseite des PCBs wird mit Fullcoverkühlern nicht so heiß wie bei normalen Kühlern. Aber natürlich geben die Leistungsbauteile auch Wärme über die Verdrahtung in's PCB ab.

Eine Backplate mit Kühlrippen (so wie beim Hybrid Kühler von AC) wäre IMO das einzig sinnvolle, um die PCB Rückseite weiter abzukühlen. Man könnte sicher auch einfach ein paar Alukühlkörper per WLP (ggf mit zusätzlicher Fixierung) auf der Rückseite montieren. Das würde aus Temperatursicht sinnvoll sein. Ich vermute, dass etwas Luftstrom auf der PCB Rückseite aber auch schon helfen würde.

Letztenendes sollte aber auch ohne zusätzliche Maßnahmen keinerlei Gefahr bestehen. NV liefert die Karte ohne Kühlmaßnahmen auf der Rückseite mit einem Luftkühler aus. Für alle Länder dieser Welt (auch warme Länder!) und auch für nicht ideal belüftete Gehäuse.

Was btw auch helfen sollte, sind Kühlkörper auf den rückseitigen RAM BGAs. Denn die nehmen auch wieder Wärmeleistung (von den BGAs) weg, die sonst in das PCB gehen würde.

IMO sind normale Backplates also thermisch nicht besser - sie dienen der Optik und der Stabilität der Karte.

akuji13
2015-09-04, 11:21:20
Ich sehe nicht, wie eine Backplate ohne Kühlrippen zur Verbesserung der Kühlung beitragen soll. Immerhin wird die Oberfläche nicht erhöht (keine Kühlrippen).

Die Oberfläche wird vergößert, weil die Wärme auf eine große Metallplatte übertragen wird, welche bei mir z. B. vom Luftstrom der Gehäuselüfter profitiert.
Natürlich wäre eine backplate alá Extreme IV mit noch größerer/feinerer Oberfläche noch besser.

EVGA gibt für seine backplates eine Temperatur Verbesserung von bis zu 2° an.
Nicht die Welt, ist auch auch nur eine dünne Platte mit verbesserungswürdiger Anbindung zum PCB (weshalb ich bei der Ti mehr pads einsetze als out-of-box).

Die Grundplatte der Karten (GPU seitig) beim stock cooler arbeitet auch mit pads und ohne nennenswerte Kühlrippen.
So sinnlos oder sich gar negativ auswirkend kann ich mir das Prinzip nicht vorstellen.

Man muss hier nur ganz klar unterscheiden zwischen backplates die nur Optik darstellen und solchen die wie meine per Paste/pads Kontakt zu den Bauteilen haben.

NV liefert die Karte ohne Kühlmaßnahmen auf der Rückseite mit einem Luftkühler aus. Für alle Länder dieser Welt (auch warme Länder!) und auch für nicht ideal belüftete Gehäuse.

Um damit je nach Land die 1-2 Jahre Gewährleistung zu überstehen.

Dural
2015-09-04, 11:32:14
Backplates sind meistens schlecht wenn es um die Temperatur geht.
PCB ohne irgendwas mit einem gezielten Luftstrom ist das Nonplusultra ;)

Generell sind solche billig "Kühler" für die Temperatur schlechter als gar keine, sieht man auch häufig bei Speicher Modulen wo die Kühler nicht mal
richtig kontakt zu den Chips haben, letztes Beispiel das ich gesehen habe ist die Fury DDR4 Serie.

Es sieht Optisch halt gut aus zudem Schützt es die Hardware vor einem Mechanischem Einfluss, zudem erwartet es der Konsument heute einfach.

akuji13
2015-09-04, 11:33:36
Backplates sind meistens schlecht wenn es um die Temperatur geht.
PCB ohne irgendwas mit einem gezielten Luftstrom ist das Nonplusultra ;)

Beweise diese Aussage.
Ich kann genau so behaupten das die kleinen Komponenten ohne Zusatzkühler aufgrund eben ihrer winzigen Oberfläche nur mit Luft nicht zu kühlen sind.

Warum hat NV eine Grundplatte die die VRMs kühlt wenn das auch ohne gehen würde?

Mein PCB bleibt mir backplate Kühler als ohne (Messfühler zwischen PCB und backplate auf dem PCB).

robbitop
2015-09-04, 11:38:31
Die Oberfläche wird vergößert, weil die Wärme auf eine große Metallplatte übertragen wird, welche bei mir z. B. vom Luftstrom der Gehäuselüfter profitiert.

So ein dünnes Aluminiumblech leitet auch nicht besonders toll die Hotspots ab. Das dürfte abzüglich des zusätzlichen Temperaturwiderstands im Bereich von Messfehlern liegen.

Luftstrom -> gut is
Alternativ richtiger Kühler drauf.

Backplates sind IMO nur was für's Gewissen.


Um damit je nach Land die 1-2 Jahre Gewährleistung zu überstehen.
Richtig. NV ist dafür bekannt, Premiumgrafikkarten zu bauen, die nach der Gewährleistung kaputt gehen. (Ironie darf jeder behalten, der sie findet ;D)

Das ist reine Auslegungssache. Die Karte ist dafür ausgelegt. Fullcover übererfüllt bereits die Anforderungen. Schaden kann die Backplate jedoch nicht. Aber effektiv helfen tut sie allein nicht. Siehe oben.


Mein PCB bleibt mir backplate Kühler als ohne (Messfühler zwischen PCB und backplate auf dem PCB).
Die Messung ergibt keinen Sinn.

Wenn dann muss man unter völlig gleichen Bedingungen (Raumtemperatur, Messstelle und Lastfall!) folgendes Messen:

Fühler am PCB ohne Backplate vs Fühler am PCB mit Backplate.

Aber nicht unter und über der Backplate als Vergleich. Warum das so ist, sollte selbsterklärend sein.

Godmode
2015-09-04, 11:43:16
Ich verwende übrigens keine Gehäuselüfter.

Dural
2015-09-04, 11:47:29
Beweise? über 15 Jahren Erfahrung mit PC Kühlung und davon 5 Jahre sogar Beruflich reichen mir ;)

Die Titan X ist aktuell ja das beste Beispiel, wenn es wichtig wäre hätte es die TX, sie hat es aber nicht. Dafür eine GTX 980 die eine TDP von nur 165Watt hat.

Ich sage nicht dass alle Backplats schlecht sind, aber sicher mal 90% davon, unter den meisten gibt es sogar eine Art Hitzestau (die Luft kann nicht mehr richtig zirkulieren, einzelne Bauteile erwärmen sich so deutlich mehr) und das ist definitiv kontraproduktiv ;)

akuji13
2015-09-04, 11:48:11
Das das falsch gemacht sogar kontraproduktiv sein kann da bin ich absolut bei dir.

Richtig. NV ist dafür bekannt, Premiumgrafikkarten zu bauen, die nach der Gewährleistung kaputt gehen. (Ironie darf jeder behalten, der sie findet ;D).

@stock würde Hübie sagen.
Welche der Karten hier läuft so? ;)

Wenn dann muss man unter völlig gleichen Bedingungen (Raumtemperatur, Messstelle und Lastfall!) folgendes Messen:

Fühler am PCB ohne Backplate vs Fühler am PCB mit Backplate.

Habe ich exakt so gemacht.

Außer du kommst mir damit das ~0.5° Raumtemperaturdifferenz der Grund sind für 20° Unterschied am PCB. :D

robbitop
2015-09-04, 11:52:06
@stock würde Hübie sagen.
Welche der Karten hier läuft so? ;)
Dafür ist die Kühlung mittels Fullcover auch um Welten besser. Das überkompensiert das ganze. Wenn es nicht so wäre, würden EK und Co noch extra Rückseitenkühler bauen. Die Backplates reißen es jedenfalls nicht.
Auch sind 70-80°C für Leistungsbauteile noch völlig unbedenklich.



Habe ich exakt so gemacht.

Außer du kommst mir damit das ~0.5° Raumtemperaturdifferenz der Grund sind für 20° Unterschied am PCB. :D
Deine 2K sind schnell bei herkömmlichen PT100 im Bereich der Messungenauigkeit. Da reicht schon eine leicht andere Luftfeuchtigkeit oder leicht andere Raumtemperatur oder andere Lüfterdrehzahl (die Lüfter in deinem Gehäuse haben sicher auch keine feste Drehzahl sondern sind geregelt, oder) - oder ein Kabel was anders im Luftstrom lag. Die Einflussmöglichkeiten bei der geringen Temperaturdifferenz sind riesig. 2K sprechen eine deutliche Sprache. Der Effekt ist vernachlässigbar - wenn nicht sogar vollständig im Bereich des Messfehlers und der nicht ganz konstanten Randbedingungen.

Long story short: BP sind was für die Optik und für's Gewissen. Wie Schüssler Salze. :D

akuji13
2015-09-04, 11:55:27
2K?
Lies bitte nochmal nach. ;)

Mit einem Extreme IV sind es vermutlich noch mehr wenn dieser aktiv belüftet wird.

robbitop
2015-09-04, 11:57:35
Stimmt du hast 20K geschrieben. Bisherige Erfahrungen sind da vollkommen andere. Wirkt auf mich nicht konkludent.

akuji13
2015-09-04, 12:04:04
Ich muss mich auch korrigieren, es waren nur 10°.
Habe gerade nochmal die Aufzeichnungen dazu aufgerufen.

Keine Ahnung warum ich 20° im Kopf hatte.
Muss was mit dem Extreme IV gewesen sein.

Wobei ich dem sogar noch mehr zutraue.
Da gehe ich mit dir konform, der ist einfach der bessere Kühler.

Leider passt der nicht zu meinem Wasserkühler. :D

Hübie
2015-09-04, 12:21:10
Die elektronischen Komponenten sind ja so gebaut dass Wärme nach außen abgegeben wird. Wenn kritische Bauteile keinen Übergangskontakt zur Rückplatte haben, tritt Dural's Fall ein. Es staut mehr Wärme als abgeführt werden kann.
Deshalb der Einwand, wenn man es richtig macht, wirkt sich das positiv aus.

nVidia kalkuliert in Hunderttausender Größenordnungen. Da eine verhältnismäßig teure und nicht benötigte Komponente einzubauen ist halsbrecherisch aus unternehmerischen Aspekten. Der Grund ist also keineswegs physikalischer Natur.

akuji13
2015-09-04, 12:24:13
Und die Grundplatte vorne gibt's weil es schlichtweg nicht ohne geht im Gegensatz zu hinten?

robbitop
2015-09-04, 13:36:35
Irgendwo musst du die Karte ja stabilisieren bei den schweren Kühlkörpern heutzutage. Zumal dort auch durch den Lüfter ein geführter Luftstrom fließt.

TobiWahnKenobi
2015-09-07, 16:12:38
ich verzichte derweil bei der TX auch auf eine backside-kühlung. muss mal schauen, dass ich die tage noch ein paar kleine aluprofile auf die rückseitigen BGAs hefte. mein IR thermometer hat bisher - auch beim spielen - keine besorgniserregenden werte der kartenrückseite gezeigt.




(..)

mfg
tobi

Grestorn
2015-09-07, 16:40:47
Welche Temperaturen würdest Du denn als besorgniserregend ansehen?

TobiWahnKenobi
2015-09-07, 16:53:41
die 100°C, die ich auf titan classic messen konnte, wenn ich den backside-cooler vom AC4 nicht aktiv belüftet habe.


(..)

mfg
tobi

Godmode
2015-09-09, 23:56:04
Gerade mal wieder seit Ewigkeiten Furmark Burn-In getestet. Die Rückseite der Karten (Bereich VRM) bekommen 95-100°C trotz 125L/h Durchfluss und 32°C Wasser. Das 450W BIOS macht aus den Karten richtig schöne Kochplatten. In spielen komme ich aber niemals an eine PT Auslastung von 90%, die liegt dort eher bei 70 bis maximal 75%.

TurricanM3
2015-09-10, 00:08:46
Abrucktest gemacht? Scheint mir relativ viel, wobei ich die Mehrbelastung schlecht einschätzen kann. Zu den EKWB hatte ich hier ja glaube schonmal was geschrieben bez. Anpressdruck / zus. WLP.
Hast du nur die Pads benutzt oder noch WLP?

Godmode
2015-09-10, 00:17:39
Nein, der Kühler sitzt perfekt. Ich habe Pads+Paste verwendet. Der Teil des Kühlkörpers aus Metall wird auch unglaublich heiß, somit dürfte die Wärmeübertragung funktionieren. Mein Rechner ist wie ein schwacher Wasserkocher (1100W).

TurricanM3
2015-09-10, 00:33:24
Ok, das ist aber schon brutal heiß für Wakü, aber wohl unbedenklich. Weißt du gerade wie heiß es beim Heaven Bench in 1080p bei dir wird mit standard vGPU und 1500MHz rum?

BlacKi
2015-09-10, 01:51:59
mit backplate kann ich die ram über 4000mhz takten ohne backplate ist oft schon bei 3900 schluss und selbst das nicht 100% stabil.

meine 970 wird ohne extra gehäuselüfter über 60° warm über 80° wird die platte selbst aber nicht. was die bauteile unter der plate betrifft hab ich mir nie gedanken drüber gemacht. aber allein vom takten her rentiert sich eine backplate meiner erfahrung nach.

Thunder99
2015-09-10, 01:52:02
Nein, der Kühler sitzt perfekt. Ich habe Pads+Paste verwendet. Der Teil des Kühlkörpers aus Metall wird auch unglaublich heiß, somit dürfte die Wärmeübertragung funktionieren. Mein Rechner ist wie ein schwacher Wasserkocher (1100W).

Dann weißt du ja was du machen musst wenn dein Wasserkocher defekt ist :freak:

Godmode
2015-09-10, 08:20:34
Ok, das ist aber schon brutal heiß für Wakü, aber wohl unbedenklich. Weißt du gerade wie heiß es beim Heaven Bench in 1080p bei dir wird mit standard vGPU und 1500MHz rum?

Ich weiß es jetzt nicht auswendig, aber es ist nicht der Rede wert, verglichen mit den obigen Werten.

TobiWahnKenobi
2015-09-11, 16:41:19
ich kenne den durchfluss meiner pumpe nichtmal.. dabei habe ich die bestimmt schon 15 oder mehr jahre..

was das PT angeht, so begnüge ich mich mit 250W (100%) + maximal 40%.

das stellt mich im jetzt und hier absolut zufrieden. die spannungen sind von 1.168 - 1.274 volt frei - wirklich damit ausgetobt habe ich mich aber noch nicht. auf den rückseitigen BGAs sind jetzt passive KK. das wurde ganz schön eng mit meiner dvb-c karte, aber passt. ohne an den reglern zu fummeln verhält sie sich wie eine standard-karte. ein zustand, den ich schon bei titan und den kleineren maxwells zu schätzen wusste.

bei der TX scheint alles oberhalb von 1450MHz fummelei zu sein. ähnlich wie bei meiner Ti frequenzen oberhalb von 1537MHz.

anyway.. es läuft erstaunlich gut und das geräusch macht auch freude. ich lasse das jetzt erstmal so als alltagseinstellung laufen. die zeit wird zeigen, welche anpassungen noch nötig sind.

heppi wiekend!



Titan X gekühlt mit grüner Materie!

http://abload.de/thumb/tx_15_40_fc4emu2i.jpg (http://abload.de/image.php?img=tx_15_40_fc4emu2i.jpg) http://abload.de/thumb/tx_15_40_gtavj7u02.jpg (http://abload.de/image.php?img=tx_15_40_gtavj7u02.jpg) http://abload.de/thumb/tx_15_40_thiefneu2l.jpg (http://abload.de/image.php?img=tx_15_40_thiefneu2l.jpg) http://abload.de/thumb/tx_15_40_tombraiderr1uqi.jpg (http://abload.de/image.php?img=tx_15_40_tombraiderr1uqi.jpg) http://abload.de/thumb/tx_15_40_witcher3xzutb.jpg (http://abload.de/image.php?img=tx_15_40_witcher3xzutb.jpg) http://abload.de/thumb/tx_15_40_alienisolaj0uqp.jpg (http://abload.de/image.php?img=tx_15_40_alienisolaj0uqp.jpg) http://abload.de/thumb/tx_15_35_hardline2ds2c.png (http://abload.de/image.php?img=tx_15_35_hardline2ds2c.png)

FarCry4, GTAV, Thief, Tomb Raider, Witchter3, Alien Isolation, Battlefield Hardline

http://abload.de/thumb/farcry4_2015_09_15_1786xdk.jpg (http://abload.de/image.php?img=farcry4_2015_09_15_1786xdk.jpg) http://abload.de/thumb/gta5_2015_09_15_17_5473y0s.jpg (http://abload.de/image.php?img=gta5_2015_09_15_17_5473y0s.jpg) http://abload.de/thumb/shipping-thiefgame_20d6oxm.jpg (http://abload.de/image.php?img=shipping-thiefgame_20d6oxm.jpg) http://abload.de/thumb/tombraider_2015_09_16ymre9.jpg (http://abload.de/image.php?img=tombraider_2015_09_16ymre9.jpg) http://abload.de/thumb/witcher3_2015_09_15_1oxbfd.jpg (http://abload.de/image.php?img=witcher3_2015_09_15_1oxbfd.jpg) http://abload.de/thumb/ai_2015_09_16_06_56_3wxpmg.jpg (http://abload.de/image.php?img=ai_2015_09_16_06_56_3wxpmg.jpg) http://abload.de/thumb/bfh_2015_09_16_07_14_nuqht.jpg (http://abload.de/image.php?img=bfh_2015_09_16_07_14_nuqht.jpg)




(..)

mfg
tobi

Dural
2015-09-12, 12:17:43
1500mhz für ein voller gm200 ist aber schon eine hausnummer! ich freue mich ja schon auf nächstes jahr wenn wir noch dickere chips und hbm2 bekommen werden, bandbreite ohne ende und die chips skalieren auch mit oc ordendlich :)

ich hoffe das uns die 16nm nicht in stich lassen. ich warte jedenfalls auf die neuen 16nm gpu bevor ich wieder bei einer grafikkarte handanlege, meine tx hat noch nicht mal ein modbios ;)

cR@b
2015-09-12, 14:34:07
Muss auch sagen der gm200 ist genrell echt genial und im Moment vermisse ich nichts, gerade aufgrund des brachialen OC´s. Pascal kann ruhig noch warten, bin aber trotzdem gespannt wie die Reise weitergeht! :D

PS: Bekommt man irgendwo auch einen günstigen aber guten Thermomesser?

mFuSE
2015-09-13, 13:55:43
Hi,

ne (n00b) Frage in die Runde:
Nachdem ich meine Titan ein Weilchen habe, hat es mich doch gereitzt mal bisschen rumzuspielen - und ein Mod Bios mit offenem Power Target draufzuspielen.
Soviel hat es allerdings nicht gebracht, die 1500/4000 hat meine auch mit Original Bios gerade so am 110er Limit mitgemacht, in Benchmarks mit offenem fps hat es schon eher mal limitiert, aber mit framelock auf 60 gab's eigentlich nie Probleme mit dem 110er Limit.

Nun kann ich mit dem Modbios aber auch nicht mehr Spannung drauf geben wie vorher.


Alle Themen die ich mir zum Thema Spannungsmod und Titan/Maxwell durchgelesen habe gingen eher in die Richtung dass man bei Spannungsanpassungen das dynamische Takten opfern muss.
Aber gerade das finde ich so toll an Maxwell - selbst mit OC auf 1500 passt sie die Spannung und Takt nahtlos an und skaliert von Leerlauf bis auf Max schön hoch - die Spannung auf einen (festen) hohen Wert locken wäre wirklich nur für Benchmarker intressant - im Alltag wäre so ein Setting ja völlig unintressant :(

Gibt es da mittlerweile nicht was neues? (z.B. weitere Spannungsstufe ab Takt xy hinzufügen?)

Godmode
2015-09-13, 17:46:33
Ich verwende das Mod BIOS nur um das Power Target zu öffnen. Die Spannungen hatte ich mal auf 1,27v festgetackert, bin dann aber wieder auf normale Spannungen zurück gegangen, weil die Mehrspannung nicht wirklich viel mehr Takt erlaubte. Bei mir sind die Spannungen jetzt dynamisch, nur das PT ist hoch genug, das der Takt zu jeder Zeit gehalten wird.

mFuSE
2015-09-13, 18:32:56
du hast ja sowieso eine besonders feine Karte wenn ich mich recht erinnere :D


Mit meiner ist bei 1,243 bei 1,5 Ghz Schluss
Bis 1540 Mhz kriege ich sie zwar, wirklich stabil ist das aber nicht.

Eigentlich muss ich sogar auf 1480 runter ... optisch sieht 1500 aber einfach schöner aus :freak:

Nur mit meinen 1,243 Vol max. hatte ich einmal einen Karten reset bei glatten 1500 - den ich aber nicht reproduziert kriege.
Ergo sind die 1500 damit auch nicht stabil :-(


aber ich spekuliere mal das nicht viel fehlen würde ... nur ein par Milivolt mehr :/



Edit: Selbst ohne Mod Bios hatte ich mit meiner eigentlich nie Probleme Taktraten um 1450 zu halten, erst ab 1480 und 4000Mhz fürn Ram wurde bei manchen Szenen runtergetaktet.
Insofern hat mir das GM200HC-425.rom nicht wahnsinnig viel gebracht, aber immerhin taktet jetzt gar nichts mehr runter, egal welche Einstellung anliegt.


Edit2:Ich sollte wirklich besser hinschauen - habe nur was mit "Air" gelesen und es gar nicht beachtet ... ist aber auch ein evga Hydro Copper Bios -> ergo perfekt zum ausprobieren auf meiner :D
Originally Posted by Sheyster View Post

New MAXAIR2 BIOS is attached.

This new one is based on the EVGA HydroCopper BIOS.

Features:

- 450w PT/TDP limit at 150% slider (300w default)
- +152 to core (same as default HydroCopper) - boosts to 1353 MHz by default
- Max voltage under load: 1.2563v


von 1,243v auf 1.2563v - trotz dynamischer Lastregelung - ideal - alles was ich gesucht habe :D

CannedCaptain
2015-10-01, 19:33:53
Meine Titan X lässt in Single Precision auf einer compute-intensiven CUDA-Anwendung die alte GK110 Titan um den Faktor 1,3 - 1,4 im Regen stehen. Nette Sache. In Double Precision ist allerdings die Tesla K40c weiterhin schneller.

my 2 cents

Raff
2015-10-01, 19:45:24
Gilt das auch, wenn du beide maximal übertaktet vergleichst? :D

MfG,
Raff

Hübie
2015-10-01, 19:47:43
Soweit kannst du GM200 nicht übertakten um auch nur in die Nähe der DP-Leistung einer GK110-SKU zu kommen.

CannedCaptain
2015-10-01, 19:54:02
Gilt das auch, wenn du beide maximal übertaktet vergleichst? :D

MfG,
Raff

Warum sollte ich eine 1000 Euro Graka übertakten?

CannedCaptain
2015-10-01, 19:55:40
Soweit kannst du GM200 nicht übertakten um auch nur in die Nähe der DP-Leistung einer GK110-SKU zu kommen.

Tesla K40c und Titan GK110 sind der gleiche Chip und trotzdem versägt die Tesla K40c die Titan fast um den Faktor zwei in Double Precision. Das lässt sich nur mit gewollten Eingriffen von Nvidia erklären.

/edit Typo

Godmode
2015-10-01, 19:57:15
Warum sollte ich eine 1000 Euro Graka übertakten?

Weil sie sonst viel zu langsam ist natürlich, was sonst. :biggrin:

akuji13
2015-10-01, 20:08:00
Aber wirklich.

Man kauft ja auch keinen Evo um den auf Standard PS zu lassen. :D

Raff
2015-10-01, 20:20:29
Es ist riskant, aber definitiv lohnenswert – die Titan X ist erst mit OC begehrenswert. Ansonsten wird sie von jedem Wald-und-Wiesen-Herstellerdesign der GTX 980 Ti abgezogen. Nochmal bravo, Nvidia, das ist einfach so affig. :ugly:

MfG,
Raff

CannedCaptain
2015-10-01, 20:21:40
Soweit kannst du GM200 nicht übertakten um auch nur in die Nähe der DP-Leistung einer GK110-SKU zu kommen.

Offensichtlich kann die Titan X sogar in Double Precision der Tesla K40c das Wasser reichen -- hier Radixsort (PCIe transfers suppressed, raw kernel time):

- Titan X (double precision (1GB Keys, 500MB Values) batched radix sort [1])

STATUS: Sort 4096 correlation arrays each of size 32768 on the GPU.
TIMING: 1016.1 ms (device_sort_correlated_genes)

- Titan X (double precision (500MB Keys, 500MB Values) batched radix sort [1])

STATUS: Sort 4096 correlation arrays each of size 32768 on the GPU.
TIMING: 553.533 ms (device_sort_correlated_genes)

- Tesla K40c (double precision (1GB Keys, 500MB Values) batched radix sort [1])

STATUS: Sort 4096 correlation arrays each of size 32768 on the GPU.
TIMING: 1251.67 ms (device_sort_correlated_genes)

- Tesla K40c (single precision (500MB Keys, 500MB Values) batched radix sort [1])

STATUS: Sort 4096 correlation arrays each of size 32768 on the GPU.
TIMING: 661.343 ms (device_sort_correlated_genes)

[1] CUB, CUDA Unbound, https://nvlabs.github.io/cub/structcub_1_1_device_radix_sort.html

mFuSE
2015-10-01, 21:11:13
Warum sollte ich eine 1000 Euro Graka übertakten?

Weil man's kann :freak:


Ich kann nur sagen, ich hab für mich den "Overlockers Dream" tatsächlich gefunden :freak:


Wie schon im Thread geschrieben wurde ... eine Schande dass die Titan im Default mit gerade mal nem Gigaherz läuft ... und dann natürlich in allen Benchmarks entsprechend schwach aussieht ...

Meine läuft immer noch - genauso wie mein alter Q9550 den ich seit Jahren versuche kaputt zu grillen ... aber er will einfach nicht kaputt gehen :usad:

Thunder99
2015-10-01, 21:36:07
Deine würde aber umso mehr abgehen wenn du eine neue CPU hättest. Skylake würde da richtig rein hauen :D

Hübie
2015-10-01, 22:04:10
Tesla K40c und Titan GK110 sind der gleiche Chip und trotzdem versägt die Tesla K40c die Titan fast um den Faktor zwei in Double Precision. Das lässt sich nur mit gewollten Eingriffen von Nvidia erklären.

/edit Typo


Das weiß ich durchaus. Und ja es sind gewollte Eingriffe. Nennt sich Produktdifferenzierung. Du kaufst mit Tesla auch Support und know how. Es sind ein paar Widerstände mehr auf dem PCB und ein andere BIOS. Sonst ist meistens alles identisch. Die Titan und Titan Black haben sogar als einzige Desktop-Karten zwei aktivierte DMA-copy-engines.

Offensichtlich kann die Titan X sogar in Double Precision der Tesla K40c das Wasser reichen -- hier Radixsort (PCIe transfers suppressed, raw kernel time):

- Titan X (double precision (1GB Keys, 500MB Values) batched radix sort [1])

STATUS: Sort 4096 correlation arrays each of size 32768 on the GPU.
TIMING: 1016.1 ms (device_sort_correlated_genes)

- Titan X (double precision (500MB Keys, 500MB Values) batched radix sort [1])

STATUS: Sort 4096 correlation arrays each of size 32768 on the GPU.
TIMING: 553.533 ms (device_sort_correlated_genes)

- Tesla K40c (double precision (1GB Keys, 500MB Values) batched radix sort [1])

STATUS: Sort 4096 correlation arrays each of size 32768 on the GPU.
TIMING: 1251.67 ms (device_sort_correlated_genes)

- Tesla K40c (single precision (500MB Keys, 500MB Values) batched radix sort [1])

STATUS: Sort 4096 correlation arrays each of size 32768 on the GPU.
TIMING: 661.343 ms (device_sort_correlated_genes)

[1] CUB, CUDA Unbound, https://nvlabs.github.io/cub/structcub_1_1_device_radix_sort.html

Ich hab mir den Code und das Programm selber jetzt nicht angesehen, aber entweder ist der speicherlastig oder nicht gut. Was in Hardware fehlt kannst du nicht durch Wunder ersetzen. Fakt ist dass Kepler in jeglicher DP deutlich besser da steht, wenn keine andere Limitierung (wie hier offenbar der Fall) vor liegt. Frage ist dann ob hier DP sinnvoll ist.

Edit: Der Treiber wählt entsprechend nach Modell den durchsatzoptimierten oder den latenzkritischen Modus. Kann man alles nachlesen ;)

mFuSE
2015-10-01, 22:04:47
Deine würde aber umso mehr abgehen wenn du eine neue CPU hättest. Skylake würde da richtig rein hauen :D

Jaaa.... das habe ich mir bei jedem Intel Launch gedacht ...
Aber mir ist's einfach zu schade ein völlig funktionales System zu verschrotten ...
Mein Mainboard ist ja noch älter, ein Gigabyte P35C-DS3R aus'm Juni 2007!

Bis auf Ram Riegel die ab und zu gefressen wurden, NT und SSD Tausch ist an dem Ding nie was gewesen .. und das obwohl von Tag 1 an übertaktet was ging...


Und naja ... mein Eizo S2110W - 21 Zoll 16:10 Monitor mit unglaublichen 1680*1050 Auflösung ist jetzt auch nicht so fordernd ....

Aber dafür kann ich schlicht alles an Qualität reinhauen was geht, die Karte hält ihre Strich 60fps dank fps Limiter.

Und mehr als das brauche ich nicht.


Es gibt par Stellen an denen die Karte ab und zu einbricht, das ist z.b. Witcher 2 mit Supersampling, das liegt wohl aber eher am Spiel. Witcher 3 läuft deutlich angenehmer und sieht dazu besser aus.
Aber ich glaube nicht dass hier eine CPU mehr bringen würde - das ist dann wohl eher tatsächlich ein Grafik/Engine Limit :freak:

Und vll kommen ja doch wieder Spiele raus die deutlich CPU fordernder sind und mich interessieren - dann kann ich ja doch mal wechseln - aber aktuell peile ich wieder den Skylake Refresh an ...

Hübie
2015-10-01, 22:25:50
Selbst Diablo III knickt bei mir manchmal ein (Brücke von Korsik oder wie das heißt). Ist also immer irgendwie aufs Programm zurückzuführen.
Und wo wir davon sprechen: Ich muss jetzt erst mal ne Runde daddeln :freak:

The_Invisible
2015-10-02, 08:09:17
Jaaa.... das habe ich mir bei jedem Intel Launch gedacht ...
Aber mir ist's einfach zu schade ein völlig funktionales System zu verschrotten ...
Mein Mainboard ist ja noch älter, ein Gigabyte P35C-DS3R aus'm Juni 2007!

Bis auf Ram Riegel die ab und zu gefressen wurden, NT und SSD Tausch ist an dem Ding nie was gewesen .. und das obwohl von Tag 1 an übertaktet was ging...


Und naja ... mein Eizo S2110W - 21 Zoll 16:10 Monitor mit unglaublichen 1680*1050 Auflösung ist jetzt auch nicht so fordernd ....

Aber dafür kann ich schlicht alles an Qualität reinhauen was geht, die Karte hält ihre Strich 60fps dank fps Limiter.

Und mehr als das brauche ich nicht.


Es gibt par Stellen an denen die Karte ab und zu einbricht, das ist z.b. Witcher 2 mit Supersampling, das liegt wohl aber eher am Spiel. Witcher 3 läuft deutlich angenehmer und sieht dazu besser aus.
Aber ich glaube nicht dass hier eine CPU mehr bringen würde - das ist dann wohl eher tatsächlich ein Grafik/Engine Limit :freak:

Und vll kommen ja doch wieder Spiele raus die deutlich CPU fordernder sind und mich interessieren - dann kann ich ja doch mal wechseln - aber aktuell peile ich wieder den Skylake Refresh an ...

In W3 limitiert die CPU wirklich arg an manchen stellen, ich hatte auch zuerst einen Q6700@3,2Ghz, in Novigrad an einer Stelle mit dem schiefen Haus hatte ich nur so 19fps, mit meinem 6700k sind es jetzt so 45fps, jetzt bin ich quasi in allem am GPU Limit.

Godmode
2015-10-02, 09:12:05
Es ist riskant, aber definitiv lohnenswert – die Titan X ist erst mit OC begehrenswert. Ansonsten wird sie von jedem Wald-und-Wiesen-Herstellerdesign der GTX 980 Ti abgezogen. Nochmal bravo, Nvidia, das ist einfach so affig. :ugly:

MfG,
Raff

Es ist absolut nicht riskant, außer man überfährt das PT total und scheißt auf eine entsprechend gute Kühlung.

Thunder99
2015-10-02, 13:31:07
Apropo gute Kühlung. Sapphire Vapor-X lässt die SpaWas kaum in Wallung bringen. Max. 70°C egal welche Belastung :naughty: . So sollte wenn es Luft gekühlt werden soll eine SpaWa Kühlung aussehen :freak:

TobiWahnKenobi
2015-10-02, 14:09:55
aber bitte nicht werkseitig - titan mit axial statt DHE -kühlung würde ich mir nicht kaufen.


(..)

mfg
tobi

cR@b
2015-10-02, 14:55:41
Dann wäre ich ja bestens bedient :ugly:

Hübie
2015-10-02, 16:48:50
Da es afaik keine nVidia-Karte nach außen gibt, kann man bei fast allen Designs nur spekulieren wie die Temps sind.

Godmode
2015-10-31, 15:43:41
Wurde irgendwas am Overclockingverhalten geändert mit den letzten Treibern? Ich war immer der Meinung, dass meine 80er Asic nur 1,5 GHz schafft. Plötzlich gehen auch 1,55 GHz und +600 MHz beim VRAM, seltsam. Das SLI ist ja jetzt Geschichte und daher kann ich die gute Karte endlich richtig ausfahren. Im SLI waren nur 1,45 GHz möglich, weil die zweite Karte (69er ASIC) nicht mehr Takt mitmachte.

mFuSE
2015-11-01, 12:52:27
mit nem 80er Asic sollte mehr als 1,5 drin gewesen sein.
Meine hat 7 irgendwas und schafft die 1480.
Bench aber nicht Game stabil sind auch 1540 drinnen... (Bei 1,243)

Mit Mod und 1.2563v sind dann auch die 1.5 kein Problem.

horn 12
2015-11-01, 13:13:52
Wie hoch taktet die Titan X standardmässig
Stock 1000 - Boost 1075 Mhz ?

Also ist eine mit 1500 Mhz Boost in etwa 30% schneller als eine Stock Titan X?

Raff
2015-11-01, 13:55:34
Genau, kommt hin. Wobei die 1.075 MHz der von Nvidia angegebene typische Boost einer DHE-gekühlten Referenzkarte ist. Es ist ein Mittelwert über eine Spannweite an Applikationen und Karten mit unterschiedlicher Chipqualität. Heißt: Je nach Spiel, Glück und Umgebungstemperatur kann der Boost mehr oder weniger hoch ausfallen. Nach allem, was ich in den letzten Monaten gesehen habe, sind ~1.100 MHz nach dem Aufheizen sowohl für die TX als auch für die 980 Ti im Mittel realistisch – wobei ich nur die mir vorliegenden Karten beurteilen kann, die Probenmenge ist also ausbaufähig.

Wurde irgendwas am Overclockingverhalten geändert mit den letzten Treibern? Ich war immer der Meinung, dass meine 80er Asic nur 1,5 GHz schafft. Plötzlich gehen auch 1,55 GHz und +600 MHz beim VRAM, seltsam. Das SLI ist ja jetzt Geschichte und daher kann ich die gute Karte endlich richtig ausfahren. Im SLI waren nur 1,45 GHz möglich, weil die zweite Karte (69er ASIC) nicht mehr Takt mitmachte.

"Nur 1,5 GHz" finde ich amüsant – wenn das wirklich rockstable ist, gehörst du zu einer winzigen Minderheit. 80er-ASICs sind selten. Mich fuchst etwas, dass meine Kiste das nicht schafft, Felsenfestigkeit ist bei langen High-Quality-Spielsessions nämlich wichtig. Das ist aber rein psychologisch, denn ob 1,45 oder 1,5 ist gefühlt gleich schnell – und beim Benchen bzw. für "normale" Auflösungen gehen bei mir auch 1,5. :D

MfG,
Raff

mFuSE
2015-11-01, 14:41:24
Mich fuchst etwas, dass meine Kiste das nicht schafft, Felsenfestigkeit ist bei langen High-Quality-Spielsessions nämlich wichtig. Das ist aber rein psychologisch, denn ob 1,45 oder 1,5 ist gefühlt gleich schnell

Was soll ich dann sagen :freak:
1480 Mhz ... mit original Bios - unter Wasser machbar.

aber schöne, glatte 1500 Mhz produzieren in einem von x Spieldurchläufen nen resett ...



Mit nem Mod Bios und 1.2563v geht das dann zwar auch ..... aber dann will man natürlich nicht bei nur 1500Mhz bleiben :freak:

... Aber dann ganz anderes Problem: Unter Volllast fängt mein Netzteil dann doch zu zirpen an :uclap:
Es hat ja nun doch par Järchen aufm Buckel ... nicht ganz so alt wie mein Q9550... aber auch nicht soviel jünger ...


Naja ... bei Skylake Refresh heißt dann, gib mal :devil:

Godmode
2015-11-02, 18:10:46
"Nur 1,5 GHz" finde ich amüsant – wenn das wirklich rockstable ist, gehörst du zu einer winzigen Minderheit. 80er-ASICs sind selten. Mich fuchst etwas, dass meine Kiste das nicht schafft, Felsenfestigkeit ist bei langen High-Quality-Spielsessions nämlich wichtig. Das ist aber rein psychologisch, denn ob 1,45 oder 1,5 ist gefühlt gleich schnell – und beim Benchen bzw. für "normale" Auflösungen gehen bei mir auch 1,5. :D

MfG,
Raff

Ich wollte sagen, dass ich dachte die Karte packt keine 1,5 GHz und jetzt packt sie es doch. Das werde ich noch weiter verfolgen, eventuell kommt der TDR ja noch.

HisN
2015-11-06, 10:28:25
Hmm.. ich sollte mein 350W PT überdenken.

Das erste Game, bei dem ich ins Power-Target renne. Und das nicht mal in UHD.


http://abload.de/thumb/anno2205_2015_11_06_14dkve.jpg (http://abload.de/image.php?img=anno2205_2015_11_06_14dkve.jpg) http://abload.de/thumb/anno2205_2015_11_06_1rgkvb.jpg (http://abload.de/image.php?img=anno2205_2015_11_06_1rgkvb.jpg)

Edit: Bei 375W passt es wieder

http://abload.de/thumb/anno2205_2015_11_06_1gnk08.jpg (http://abload.de/image.php?img=anno2205_2015_11_06_1gnk08.jpg) http://abload.de/thumb/anno2205_2015_11_06_1x2jus.jpg (http://abload.de/image.php?img=anno2205_2015_11_06_1x2jus.jpg)