PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce Titan X: 12GB, 8 Mrd. Transistoren, $999: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12

mironicus
2015-04-25, 15:14:06
Wahrscheinlich wird es dann von anderen Geräuschen übertönt, aber eigentlich zirpt so gut wie jede Grafikkarte die weit mehr als 100 Watt zieht (meine Erfahrung). Da ich vieles auf einem Testbench betreibe ist das leichter bemerkbar.

aufkrawall
2015-04-25, 15:16:48
So wird das sein. Mit bestimmten Lastszenarien zirpen auch eine 9600 GT oder 4670, die noch rumliegen, hörbar.
Der eine hört es, der andere nicht. Beim einen übertönt das Restsysstem es fast vollständig, beim anderen nicht. Der eine hat mitunter anfälligere Szenarien am laufen, der andere nicht.
Zirpen tun sie alle, nur nicht gleich laut.

Edit: Meine MSI 980 Gaming, die ich wegen des schwachsinnigen Lüfterverhaltens leider zurückschicken musste, stellte für mich einen neuen Rekord dar, im positiven Sinne. Ich hatte es fast immer nur gehört, wenn ich drauf geachtet habe.

robbitop
2015-04-25, 15:19:09
Dann zirpt sie eben so leise, dass ich sie nicht höre. ;)
Gemeint war wohl eher ob sie so laut zirpen wie manche 970er. Und nein das tun sie nicht. Mein Gehäuse ist extrem hellhörig und meine Lüfter drehen < 300 UPR. Ich höre leider jedes bisschen. Zirpen habe ich nicht vernommen. Muss also sehr leise sein.

Raff
2015-04-25, 15:45:57
Was ich hörte (3 Karten), war auch ziemlich unterdurchschnittlich. Laut wurde es erst bei vierstelligen Fps @ 1,274 Volt. :D

MfG,
Raff

Orbmu2k
2015-04-25, 16:44:03
nVInspector auch wenns in den Klammern nicht korrekt angezeigt wird. Vielleicht kann Orbmuk2k dazu was sagen. EVGA Precision Tool soweit ich weiß.

In den eckigen Klammern sollte normalerweise immer der Default Wert stehen. Grade bei der Spannung und grade bei Maxwell ist das aber eher unzuverlässig, das liegt aber nicht am Inspector.


Da hat sich beim Inspector in den letzten Versionen einiges verbessert (was den Autostart angeht). Das geht in der neuesten Version komplett automatisch mit einem RMB Click auf "Create Clock Shortcuts". Man muss da eigentlich gar nicht mehr manuell eingreifen.

Zur Not kann man die Scheduler-Einträge aber auch immer noch händisch machen oder anpassen.

Also die Funktionan sich ist eigentlich schon sehr alt. Damals war es jedoch noch so dass er einen Shortcut in den Startup gepackt hat. Seit NVIDIA der Meinung war bestimmte OC Funktionen nur noch mit Adminrechten zu erlauben hatte ich das eigentlich auf Tasks umgebaut.


Das von EVGA fand ich immer total unpraktisch und beim Inspector war ich immer zu doof da ein Profil mit autostart zum laufen zu bekommen. :D

Achso ok das wusste ich nicht. Danke für den Tipp! Gleich mal ausprobieren, wenn ich nach Hause komme. Bekommt man das irgendwo als Tipp sogar im Tool angezeigt? Glaub das schreckt einige ab. So ein Tool sollte selbsterklärend sein, damit es viele nutzen.

Wenn man Inspector kennt weiss man eigentlich, dass hinter den Buttons die in der unteren rechte Ecke so ein Knubbel haben noch eine Kontextmenu versteckt ist. ;-)

Für alle anderen steht das eigentlich in dem HOWTO von puntarenas... also ... RTFM! :-P
http://www.3dcenter.org/artikel/nvidia-inspector-bringt-komfortables-multi-display-power-saving

Eigentlich kann man auch immernoch einfach Shortcuts in den Autostart legen wenn man die UAC komplett deaktiviert hat. Für alle anderen ist die "Create Startup Task" die einfachste Möglichkeit.

Warum fangen eigentlich auf einmal mehr Leute an Inspector auch für OC zu nutzen? Hab ich was verpasst?

Hübie
2015-04-25, 17:05:13
Vielleicht weil die langsam peilen dass es kein klicki bunti Interface braucht um einem Controller mitzuteilen was der zu tun hat? ;D
Nutze den schon lang für OC. Entwickelst du eigentlich noch aktiv? War lange nicht auf deinem Blog.

Raff
2015-04-25, 17:06:17
Warum fangen eigentlich auf einmal mehr Leute an Inspector auch für OC zu nutzen? Hab ich was verpasst?

Beim Afterburner 4.1.0 sind u. a. die Spannungen ausgegraut und man kann sie auch nicht loggen – der nSpector kann's schon dank NVAPI. :)

MfG,
Raff

robbitop
2015-04-25, 17:07:50
Mit einem kleinen Eintrag im Profile kann man die Spannung ändern.

Hübie
2015-04-25, 17:11:06
Beim Afterburner 4.1.0 sind u. a. die Spannungen ausgegraut und man kann sie auch nicht loggen – der nSpector kann's schon dank NVAPI. :)

MfG,
Raff

Musst die Device ID in die cfg eintragen und gut :) Weiß nur nicht mehr bei welchem Controller.

ronin7
2015-04-25, 17:41:42
zirpen eigentlich eure Titan X's?

meine ganz leise und nur bei Volllast. bei geschlossenem Gehäuse höre ich nichts...dafür läuft se mit 1.380 ;D

http://postimg.org/image/5c02buc8l/
http://postimg.org/image/9m6uxo4zd/

aufkrawall
2015-04-25, 17:43:08
Warum fangen eigentlich auf einmal mehr Leute an Inspector auch für OC zu nutzen? Hab ich was verpasst?
Wahrscheinlich, weil er einfach macht was er soll, und im Hintergrund nicht irgendeine hidden sauce Probleme verursachen kann?

Raff
2015-04-25, 17:51:53
Mit einem kleinen Eintrag im Profile kann man die Spannung ändern.

Musst die Device ID in die cfg eintragen und gut :) Weiß nur nicht mehr bei welchem Controller.

Ach, ja, das hatte ich direkt nachdem ich's vor Wochen gelesen habe wieder vergessen. X-D Ja, das half in der Vergangenheit schon bei anderen Karten.

Wahrscheinlich, weil er einfach macht was er soll, und im Hintergrund nicht irgendeine hidden sauce Probleme verursachen kann?

Jo, zumal das dank des nahen Zugriffs schon zum Launch funktioniert (inklusive Einheiten-Auslesung), während andere Tools zu diesem Zeitpunkt gern herumspinnen. Sowas wünsche ich mir auch für AMD-GPUs.

MfG,
Raff

robbitop
2015-04-25, 17:54:50
Ich hab btw seit ich die Titan X habe ein kleines Problem: Ich habe 2x DP-Monitore dranhängen. Der Monitor an Port 2 geht hin und wieder mal kurz aus "no signal" und kommt dann wieder. Das war vorher nicht der Fall (1x DP an der Titan Classic und 1x DP an der IGP).

Ich meine mal etwas von einem Bug gelesen zu haben im Zusammenhang mit GM204 der so ähnlich war. Weiß jemand von euch was dazu?

Naennon
2015-04-25, 18:12:31
zirpen eigentlich eure Titan X's?


nur Abends beim Sonnenuntergang ;)

ronin7
2015-04-25, 18:21:09
Wahrscheinlich, weil er einfach macht was er soll, und im Hintergrund nicht irgendeine hidden sauce Probleme verursachen kann?

genau hab afterburner, das Evg Tool usw. alles schon durch. Der Inspector rules ;D

aufkrawall
2015-04-25, 18:23:17
P2 State VRAM übertakten für Cuda mit Maxwell fiele mir da auch noch ein.. :)

ronin7
2015-04-25, 22:07:27
Hi Leute, gibt's irgendwo ne gute Mod-Bios Anleitung?

akuji13
2015-04-25, 22:17:30
Ich schätze der gute hat Asus gegenüber nicht erwähnt, dass er MOD Bios, Kühlerwechsel + OC gefahren hat

Wenns bei Asus so läuft wie bei Zotac mit meiner Titan kann man das ruhig machen.

Das interessierte die 0.

Die email war schon fast "wegen sowas belästigen Sie uns? Bau den stock-Kühler wieder drauf und gut ist.".

@Umbau

Meine lebt noch...obwohl sie geflutet wurde.
Da war doch glatt ein neuer Anschluss undicht. :freak:

Ein hoch auf schlecht leitende Fertig-Mischungen. :D

Grestorn
2015-04-25, 23:33:24
Argh. Mach mir doch nicht immer alles nach :)

cR@b
2015-04-26, 00:29:13
In den eckigen Klammern sollte normalerweise immer der Default Wert stehen. Grade bei der Spannung und grade bei Maxwell ist das aber eher unzuverlässig, das liegt aber nicht am Inspector.


Wenn man Inspector kennt weiss man eigentlich, dass hinter den Buttons die in der unteren rechte Ecke so ein Knubbel haben noch eine Kontextmenu versteckt ist. ;-)

Für alle anderen steht das eigentlich in dem HOWTO von puntarenas... also ... RTFM! :-P
http://www.3dcenter.org/artikel/nvidia-inspector-bringt-komfortables-multi-display-power-saving

Eigentlich kann man auch immernoch einfach Shortcuts in den Autostart legen wenn man die UAC komplett deaktiviert hat. Für alle anderen ist die "Create Startup Task" die einfachste Möglichkeit.

Warum fangen eigentlich auf einmal mehr Leute an Inspector auch für OC zu nutzen? Hab ich was verpasst?

Naja wie auch immer aber Einige hier scheinen es nicht gekannt zu haben. Howto habe ich nie gelesen bzw. gar entdeckt *duck*

UAC ist bei mir komplett aus aber es reicht nicht aus ein Shortcut in den Autostart Ordner zu legen. Unter Win 8 zumindest ist ein registry Eintrag erforderlich, was die Sache für einige kompliziert macht ich aber das gemacht habe, weil ich von dem Autotask nichts wusste...

Warum OC mit deinem Tool? Weils einfach alles drinne hat was man benötigt. Wenn man noch eine Lüfterkurve einstellen könnte, wären alle anderen Tools überflüssig! Ich weigere mich strikt zig Tools für einzelne Dinge zu installieren. Mir ist es am Liebsten alles kompakt in einem Tool zu haben...

PHuV
2015-04-26, 00:49:34
Ich hab btw seit ich die Titan X habe ein kleines Problem: Ich habe 2x DP-Monitore dranhängen. Der Monitor an Port 2 geht hin und wieder mal kurz aus "no signal" und kommt dann wieder. Das war vorher nicht der Fall (1x DP an der Titan Classic und 1x DP an der IGP).

Ich meine mal etwas von einem Bug gelesen zu haben im Zusammenhang mit GM204 der so ähnlich war. Weiß jemand von euch was dazu?
Ich habe das Problem aktuell auch, auch mit nur einem Monitor dran. Momentan muß ich immer ein- und ausstöpseln, damit das Signal kommt.

aufkrawall
2015-04-26, 01:04:48
Ist aber übel, dass es das immer noch gibt. Ayayay, wer verteilt denn da die Prioritäten bei NV...

robbitop
2015-04-26, 08:12:10
Was immer noch gibt? Doch ein (bekannter) Bug?

ZapSchlitzer
2015-04-26, 08:48:05
aths hat/hatte mit seiner GTX 980 ähnliche Probleme.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10409935&postcount=3540

Orbmu2k
2015-04-26, 11:41:35
... Entwickelst du eigentlich noch aktiv? War lange nicht auf deinem Blog.

Es fehlt leider die Zeit. Deswegen nur das nötigste an Updates für Inspector und MBT ;)

Beim Afterburner 4.1.0 sind u. a. die Spannungen ausgegraut und man kann sie auch nicht loggen – der nSpector kann's schon dank NVAPI. :)

MfG,
Raff

Achso, fiel schon etwas auf dass sich nun Fragen zu den Inspector Basics häufen. Naja der AB nimmt dann auch NVAPI, kommt halt drauf an wie und ob man den Fallback bei unbekannten Karten implementiert.

Naja wie auch immer aber Einige hier scheinen es nicht gekannt zu haben. Howto habe ich nie gelesen bzw. gar entdeckt *duck*

UAC ist bei mir komplett aus aber es reicht nicht aus ein Shortcut in den Autostart Ordner zu legen. Unter Win 8 zumindest ist ein registry Eintrag erforderlich, was die Sache für einige kompliziert macht ich aber das gemacht habe, weil ich von dem Autotask nichts wusste...

Warum OC mit deinem Tool? Weils einfach alles drinne hat was man benötigt. Wenn man noch eine Lüfterkurve einstellen könnte, wären alle anderen Tools überflüssig! Ich weigere mich strikt zig Tools für einzelne Dinge zu installieren. Mir ist es am Liebsten alles kompakt in einem Tool zu haben...

Bei Win7 ging das noch, Win8 ist an mir völlig vorbei gegangen, ich denke Win10 wirds dann werden. :)

Lüftersteuerung wäre wieder mit Hintergrundprozess verbunden, abgesehen vom MDPS soll sowas nicht in den Inspector.

Vielleicht wäre ja auch die Lüfterkurve direkt im BIOS ne Option?

akuji13
2015-04-26, 13:26:49
Argh. Mach mir doch nicht immer alles nach :)

Ne ne, das war eine Reminiszenz an meine alten Tage. :D

Leider ist die Karte nun doch hin, den Ram hats zerschossen.
Keine Ahnung obs vom Kühlmittel kommt, ich beim Wechsel auf den anderen Kühler was beschädigt habe, es doch keine gute Idee war die tiefer liegenden Spulen mit Pads+Paste zu versehen oder es ein normaler defekt ist.

Werde erstmal ASUS anschreiben ob es noch sinnvoll ist eine Reklamation zu starten.

Viel wichtiger aber: Was nun?

Mit der Titan C bis Fiji warten oder zur Überbrückung doch wieder eine X? :confused:

kokett
2015-04-26, 13:30:07
Schreibst du denen echt, dass du beim Kühlerwechsel Wasser drübergekippt hast und die Karte reklamieren willst? Kannst du mal die Antwort von ASUS posten, würde mich interessieren wie die darauf reagieren :D .

robbitop
2015-04-26, 13:44:12
Mit der Titan C bis Fiji warten oder zur Überbrückung doch wieder eine X? :confused:
Wieso eine Fijii? Keiner weiß, wie gut die sein wird. Die X ist ordentlich gekeult kompromisslos gut und hat extrem viel VRAM. Hinzu kommt die DX11 Optimierung und G-Sync und wunderbar funktionierendes DSR.

Ich denke nicht, dass Fijii voll ausgefahren (gekeult) schneller sein wird als die X. Und wenn doch - dann vermutlich nicht nennenswert.
GM200 ist mit 600 sqmm am absoluten Rand des Machbaren in 28 nm und die µ-Arch ist schon sehr sehr effizient und es wurde diesmal kein GPGPU Kram mitgeschleppt. Sonderlich bandbreitenlimitiert ist die X auch nicht. Ich sehe da wenig Möglichkeiten, signifikant vorbeizuziehen.

akuji13
2015-04-26, 14:15:56
Schreibst du denen echt, dass du beim Kühlerwechsel Wasser drübergekippt hast und die Karte reklamieren willst? Kannst du mal die Antwort von ASUS posten, würde mich interessieren wie die darauf reagieren :D .

Ne ne, das Wasser lief schon vorher drüber weil 1 Anschluß defekt war. :D

Der Kühlerwechsel war später, dabei habe ich sie auch gleich gereinigt vom Kühlmittel.
Und dann lief sie ja auch noch etliche Stunden problemlos.

Ja das schreibe ich denen, man sieht ja sowieso das der Kühler getauscht wurde und mod-bios ist auch noch drauf (höchstens blind-flashen geht jetzt noch).

Da bin ich ehrlich und hoffe auf Kulanz.

derguru
2015-04-26, 14:38:26
als alternative zum Fijii gibt es noch die gtx 980 ti die noch angeblich im mai kommen soll. ich würde abwarten, gibt es eh nix besonderes zu daddeln bis the witcher 3 da ist.(gta 5 tssss)^^

bin auch auf die asus reaktion gespannt, sind imo nicht die kulantesten.

robbitop
2015-04-26, 14:40:24
Die 980 Ti ist auch in Ordnung, wenn sie so kommt wie angekündigt. Der VRAM sollte auch gerade so reichen bis GP100 kommt. Solange man kein SLI vorhat (dort kommt man in Regionen, wo es knapp werden kann mit VRAM) sollten 6 GiB wohl reichen.

The_Invisible
2015-04-26, 15:47:10
Naja, die 980Ti wird es auch nicht unter 700EUR geben, mit gutem luftkühler vielleicht sogar so 750 bis 800. und dann bekommt man dennoch nicht den vollen Speicherausbau

vor allem mit hohen auflösungen wird es interessant, ich habe erst vor kurzem witcher 1 (als vorbereitung für witcher 3) mit 5k dsr + 2x AA (max ingame) gespielt und dort wirden mal so knappe 2,1gb verbraten, in 1440p + 4xAA gerade mal knapp 900mb!! :freak:

wenn ich mir also einen 4/5k monitor zulege muss die grafikkarte schon ordentlich speicher haben, sonst wird das nix.

robbitop
2015-04-26, 15:49:09
5K wirst du 2x Titan X im SLI haben müssen - und selbst da wird man häufig mit Kompromissen leben müssen. Selbst 4K ist auf einer ge-octen Titan X häufig sehr grenzwertig (neuste Spiele).

Es gibt übrigens ein SGSSAA Profil für Witcher 1. SGSSAA >>>>> DSR. ;)

fondness
2015-04-26, 15:57:00
Naja, die 980Ti wird es auch nicht unter 700EUR geben, mit gutem luftkühler vielleicht sogar so 750 bis 800. und dann bekommt man dennoch nicht den vollen Speicherausbau


6GB GDDR5 kosten keine 50EUR, das NV alleine dafür womöglich 300-400EUR extra verlangt ist schon ziemlich Frech. Aber nun gut die Leute kaufen es dank dem TITAN-Label und glauben offenbar das sie dafür etwas "besonders" bekommen. Würde man eine 980Ti 6Gb und 12GB Version verkaufen wrde sich jeder verarscht vorkommen für den doppelten Speicher einen derartigen Aufpreis zahlen zu müssen.

Raff
2015-04-26, 15:57:12
Wer 5K anstrebt, sollte sich keinen Speicherkrüppel kaufen. 6 GiB sehe ich da als Minimum an. Wenn der Speicher dann noch für Spielchen wie Texturmods reichen soll, wird die Titan X wieder attraktiver. Mit 1.500 MHz ist das Teil verflucht schnell und kann so manches Spiel in 5K darstellen, ohne dass man Nachladeruckler fürchten muss. Das kann bei 6 GiB schon mal passieren. Aber wenn man nicht auf völlig wahnsinnige Einstellungen abfährt (ich bin so einer ;)), kann man auch einfach das AA um eine Stufe reduzieren und kommt mit 6 GiB bestens aus.

MfG,
Raff

aths
2015-04-26, 15:59:03
aths hat/hatte mit seiner GTX 980 ähnliche Probleme.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10409935&postcount=3540
Ich habe auch mit dem aktuellen Treiber das Problem, dass der via DP angeschlossene Monitor beim Windows-Start manchmal nicht erkannt wird. Das ist sehr lästig.

robbitop
2015-04-26, 15:59:11
6GB GDDR5 kosten keine 50EUR, das NV alleine dafür 300-400EUR extra verlangt ist mehr als Frech.
Das ist nunmal das Gesetz der Marktwirtschaft. Wir können uns da beim immer schwächer werdenden Marktbegleiter AMD bedanken. Wenn man bedenkt, was AMD vor 10 Jahren noch an Ressourcen hatte... Man hat den Laden wirklich hübsch heruntergewirtschaftet mit mittelmäßigen Produkten und Fehlentscheidungen.

fondness
2015-04-26, 16:00:55
Das hat erstmal wenig mit AMD zu tun, das Leute bereit sind für den doppelten Speicher solche Aufpreise zu zahlen. Aber okay mal abwarten wie die 980Ti dann wirklich aussieht und wie viele dann wirklich noch eine TITAN kaufen, aktuell hat man ja eh keine Wahl.

robbitop
2015-04-26, 16:05:23
Das Phenomen hast du doch in jeder Branche. Es gibt überall Enthusiasten, die bereit sind für wenig mehr unverhältnismäßig mehr Geld auszugeben.
Könnte AMD auch machen. Zur 290X hat man den OEMs verboten, 8 GiB Versionen zu bauen. Erst später - viel zu spät! - wurde das erlaubt.

Stelle dir mal zum Launch eine gekeulte Hawaii mit gutem Kühler mit 8 GiB Speicher vor. Die hätte die Titan Classic in allen Punkten deklassiert. Gekeult genug auch die Black. So viele Käufer gibt es in dem Bereich nicht - da hätte man schön selektieren können. Das ganze generiert dann tolle PR und Rufsteigerung für die restlichen Produkte.
Dann gibt man dem Produkt noch einen entsprechenden Namen ... was weiß ich "Zeus" oder sowas. Hätte funktionieren können.

Raff
2015-04-26, 16:10:46
Das hat erstmal wenig mit AMD zu tun, das Leute bereit sind für den doppelten Speicher solche Aufpreise zu zahlen. Aber okay mal abwarten wie die 980Ti dann wirklich aussieht und wie viele dann wirklich noch eine TITAN kaufen, aktuell hat man ja eh keine Wahl.

Die Titan X wird nach dem Release hochgezüchteter Custom-Versionen der GTX 980 Ti schlagartig unspannend und die Verkäufe werden absaufen, das ist jetzt schon abzusehen. Da werden wohl Ti-Karten mit 1,3 GHz Boost von den üblichen Verdächtigen kommen, vernünftig gekühlt. Der sinkenden Titanix ;) bleibt dann nur ihr Speicher. Das war bei Classic und Black aber nicht anders.

Das Phenomen hast du doch in jeder Branche. Es gibt überall Enthusiasten, die bereit sind für wenig mehr unverhältnismäßig mehr Geld auszugeben.
Könnte AMD auch machen. Zur 290X hat man den OEMs verboten, 8 GiB Versionen zu bauen. Erst später - viel zu spät! - wurde das erlaubt.

Stelle dir mal zum Launch eine gekeulte Hawaii mit gutem Kühler mit 8 GiB Speicher vor. Die hätte die Titan Classic in allen Punkten deklassiert. Gekeult genug auch die Black. So viele Käufer gibt es in dem Bereich nicht - da hätte man schön selektieren können. Das ganze generiert dann tolle PR und Rufsteigerung für die restlichen Produkte.
Dann gibt man dem Produkt noch einen entsprechenden Namen ... was weiß ich "Zeus" oder sowas. Hätte funktionieren können.

Sehe ich genauso. AMD hätte rasch eine R9 290X mit 8 GiB und 1.100/3.000 MHz bringen sollen. Auf der Cebit 2014 zeigte Sapphire eine Toxic mit vergleichbaren Taktraten (Speicher IIRC bei "nur" 2.8xx MHz), die aber nie heraus kam. Das wäre ein Hi-Res-Biest, das sogar Referenzversionen der GTX 980 in UHD gefährlich wird. Hawaii lässt sich mies übertakten, aber niemand macht sich die Mühe der Selektion. Die mild übertakteten 8G-Versionen (max. 1.030/2.750 MHz) sind abseits von Full HD jedenfalls angenehm schnell. Little known fact: Die schnellste Radeon ist immer noch eine der 250 Sonderkarten von Sapphire (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Videos/Sapphire-Vapor-X-8GB-Watch-Dogs-in-Ultra-HD-1122762/) (1.060/2.820 MHz), die Erstkäufer haben also doch einen minimalen Vorteil von den damals fälligen 700+ Euro gehabt.

MfG,
Raff

fondness
2015-04-26, 16:35:57
Hätte funktionieren können.

Hätte womöglich ja. Allerdings gab es damals noch zwei Unbekannte: Man wusste womöglich nicht ob man Fiji mit mehr als 4GB bringen konnte und man wollte sich etwas gegen GM204 in der Hinterhand behalten. Im Nachhinein hat natürlich der GM204-"Konter" in Form der 290X 8GB nicht sonderlich gezogen und es wäre wohl besser gewesen man hätte die Karte gleich so gebracht.

4Fighting
2015-04-26, 16:40:28
Die Titan X wird nach dem Release hochgezüchteter Custom-Versionen der GTX 980 Ti schlagartig unspannend und die Verkäufe werden absaufen, das ist jetzt schon abzusehen. Da werden wohl Ti-Karten mit 1,3 GHz Boost von den üblichen Verdächtigen kommen, vernünftig gekühlt. Der sinkenden Titanix ;) bleibt dann nur ihr Speicher. Das war bei Classic und Black aber nicht anders.


Naja meine bisherige Erfahrung zeigt das die Custom PCBs zwar immer viel versprechen, aber letztlich nicht so viel mehr OC ermöglichen.

Troyan
2015-04-26, 16:43:43
Stelle dir mal zum Launch eine gekeulte Hawaii mit gutem Kühler mit 8 GiB Speicher vor. Die hätte die Titan Classic in allen Punkten deklassiert. Gekeult genug auch die Black. So viele Käufer gibt es in dem Bereich nicht - da hätte man schön selektieren können. Das ganze generiert dann tolle PR und Rufsteigerung für die restlichen Produkte.
Dann gibt man dem Produkt noch einen entsprechenden Namen ... was weiß ich "Zeus" oder sowas. Hätte funktionieren können.

Reichen dir die 300W+ der Karte nicht aus? :freak:

Raff
2015-04-26, 16:43:45
Naja meine bisherige Erfahrung zeigt das die Custom PCBs zwar immer viel versprechen, aber letztlich nicht so viel mehr OC ermöglichen.

Das schon, aber eine werkseitig mit ~1,3 GHz und guter Kühlung arbeitende GTX 980 Ti für beispielsweise 750 Euro sieht neben einer Titan X mit ~1,1 GHz, ihrem Kühlschwächling und einem Preisschild von 1.100 Euro einfach besser aus. ;)

Reichen dir die 300W+ der Karte nicht aus? :freak:

Deswegen ja Selektion: Low-Leakage-ASICs herauspicken, die mit relativ wenig Spannung laufen können. Und wenn das nicht hilft, hätte man 2013 oder 2014 schon eine "WCE" machen können, mit der 295X2 hat das ja gut geklappt.

MfG,
Raff

Troyan
2015-04-26, 16:57:36
Trotzdem hat die 290X keine Chance gegen eine Titan, wenn man diese ebenfalls hochzüchtet.
Die 290X benötigt 300W, um mit einer 250W Titan mitzuhalten.

Mal davon abgesehen, dass ein paar Wochen später die GTX780Ti auf dem Markt kam...

Schaffe89
2015-04-26, 23:52:42
Der Verbrauch einer 8GB r9 290x Trix unterscheidet sich nicht von einer GTX Titan Black oder 780 Ti.
Hätte AMD Eier hätten sie die GTX 780 Ti mit einer Sonderedition ala 1100mhz und 8GB V-ram zum gleihen Preis angegriffen, aber AMD tut nichts gescheites.
3GB vs. 8GB+ mehr Leistung bei HIgh Res, das hätte gezogen.

AMD reizt seine Möglichkeiten nicht aus. Früher kam immer ganz schnell eine etwas verbesserte Version, ohne neuen Fertigungsprozess.
Warum das heute nicht mehr geht, ist mir ein Rätsel.

Dural
2015-04-27, 09:34:24
Weil der Chip schon mit 1000MHz über seinem vernünftigem Takt läuft, ist das so schwer zu verstehen?

Hawaii mit 1100MHz in einem Serien Produkt halte ich für fast unmöglich, eventuell mit Wakü. Und überhaupt, ein Hawaii mit 1100MHz braucht min. 50Watt mehr.

Da hatte die Titan ein deutlich besseres potential... AMD hätte es also rein gar nichts gebracht, nur noch einen weiteren Stromschlucker. :rolleyes:

robbitop
2015-04-27, 10:48:45
Liest du nicht was wir schreiben? Mit Selektion auf eine exklusive kleine Stückzahl hätte das gereicht. Damit hätte man wenig Geld verdient - das tut NV vermutlich mit ihreren Titans auch nicht (Stückzahl) - aber es gibt einen schönen RP Halo, der sich auf alle anderen Produkte auswirkt.

Godmode
2015-04-27, 11:18:40
Eine Frage zu den BIOS Mods: Ich hatte ja mein BIOS so verändert, dass die VCore fixiert blieb. Was mich daran jetzt stört ist, dass diese auch am Desktop anliegt und mein Rechner mit den zwei Monitoren 300-400W im Idle zieht. Das ist pure Verschwendung und das sollte doch auch anders gehen. Ist es möglich die VCore nur unter Last zu fixieren und in den anderen P-States variabel zu lassen?

robbitop
2015-04-27, 11:24:17
Ich kann nur das BIOS empfehlen, was du auf meine Karte gespielt hast. Die Übertaktung und Spannung stellst du eh nur einmal ein im Afterburner und diese wird dann bei jedem Systemstart appliziert. Was stört dich daran? So ist man immer flexibel, falls (so wie im Falle von GTA5 - was ja sehr OC penibel ist!) dochmal was umgestellt werden soll.

Im BIOS kann man, soweit ich gesehen habe, die Spannungen und Taktraten für jeden P-State einstellen. Aber da sind andere Leute fitter als ich. :)

Godmode
2015-04-27, 11:30:03
Irgendwie kann ich bei dem BIOS dann im Afterburner nicht die 1,27 Volt einstellen, geht das bei dir?

robbitop
2015-04-27, 11:37:40
Mit genau dem BIOS was du auf meine Karte drauf gemacht hast, kann ich +100 mV einstellen. Das sind dann glaube ich 1,27 V. Man muss aber eine Profildatei vom Afterburner vorher verändern, sonst hat man keinen Zugriff auf die Spannungen. Aber ich glaube das weißt du bereits. :)

Godmode
2015-04-27, 11:40:00
Ja das ist dann seltsam. Ich muss mir das heute Abend nochmal genau angucken.

Raff
2015-04-27, 12:52:19
Hmm. Es sollte genügen, im BIOS-Editor die Voltage Range des obersten Reglers auf 1,281, also den rechten Regler, zu ziehen. Dieser steht wohl bei jeder Karte auf einem anderen Wert und gibt die Maximalspannung vor. Die Titan X vor meiner Nase zeigt hier 1,25 Volt an. Die Regler darunter kannst du einfach bei der eingestellten Range lassen.

MfG,
Raff

phoenix887
2015-04-27, 12:56:48
Hmm. Es sollte genügen, im BIOS-Editor die Voltage Range des obersten Reglers auf 1,281, also den rechten Regler, zu ziehen. Dieser steht wohl bei jeder Karte auf einem anderen Wert und gibt die Maximalspannung vor. Die Titan X vor meiner Nase zeigt hier 1,25 Volt an. Die Regler darunter kannst du einfach bei der eingestellten Range lassen.

MfG,
Raff

Ja wird ja auch in eurem Artikel erklärt. Unter Last habe ich so immer die 1.275 und im idle die. 0.887 oder wie die lautet.

Kann ich den Artikel Modbios auch später so 1:1 auf eine Titan X oder 980ti umsetzen?

Godmode
2015-04-27, 13:02:31
Hmm. Es sollte genügen, im BIOS-Editor die Voltage Range des obersten Reglers auf 1,281, also den rechten Regler, zu ziehen. Dieser steht wohl bei jeder Karte auf einem anderen Wert und gibt die Maximalspannung vor. Die Titan X vor meiner Nase zeigt hier 1,25 Volt an. Die Regler darunter kannst du einfach bei der eingestellten Range lassen.

MfG,
Raff

Genau so hätte ich das gemacht, funktioniert aber nicht. Muss ich heute Abend nochmal genau gucken.

aths
2015-04-27, 17:47:10
Das Phenomen hast du doch in jeder Branche. Es gibt überall Enthusiasten, die bereit sind für wenig mehr unverhältnismäßig mehr Geld auszugeben.
Könnte AMD auch machen. Zur 290X hat man den OEMs verboten, 8 GiB Versionen zu bauen. Erst später - viel zu spät! - wurde das erlaubt.

Stelle dir mal zum Launch eine gekeulte Hawaii mit gutem Kühler mit 8 GiB Speicher vor. Die hätte die Titan Classic in allen Punkten deklassiert. Gekeult genug auch die Black. So viele Käufer gibt es in dem Bereich nicht - da hätte man schön selektieren können. Das ganze generiert dann tolle PR und Rufsteigerung für die restlichen Produkte.
Dann gibt man dem Produkt noch einen entsprechenden Namen ... was weiß ich "Zeus" oder sowas. Hätte funktionieren können.
Eine Kleinserie aufzulegen bzw. die Produkte entsprechend zu selektieren ist nicht unbedingt günstig. Man wünscht sich schon von AMD, öfter mal an die Grenze des Machbaren zu gehen, die Frage ist natürlich, ob solche Prestigeprojekte zur Marke passen. Wenn man sich an die FX 5800 Ultra erinnert, oder die GTX 480, kann der Versuch, die Karte maximal zu keulen, auch Häme produzieren.

robbitop
2015-04-27, 17:51:08
Die 480 erntete keine Häme. NV30 und R600 schon. Beide waren trotz hoher Leistungsaufnahme deutlich schlechter als das Produkt des Marktbegleiters. Das gilt auch für diesen 5 GHz Bulldozer von AMD.

Hawaii hingegen wäre und war nicht in dieser Misere. Der Kühler war schlecht. Das hat den Ruf versaut. Mit ordentlichem Kühler und etwas Selektion wäre bei nicht all zu viel Mehrverbrauch höhere Leistung als bei der Titan möglich gewesen.

PHuV
2015-04-27, 23:48:27
Blöde Frage, warum stockt es bei mir in GTA V trotz ca 60 FPS? :confused: Es sind zwischendrin immer so stockelnde Bewegungen beim Autofahren etc. drin. Ich spiele auf UHD mit angepaßter Auflösung. Mit HD habe ich dieses Stocken nicht drin.

aths
2015-04-28, 00:16:58
Die 480 erntete keine Häme. NV30 und R600 schon. Beide waren trotz hoher Leistungsaufnahme deutlich schlechter als das Produkt des Marktbegleiters. Das gilt auch für diesen 5 GHz Bulldozer von AMD.

Hawaii hingegen wäre und war nicht in dieser Misere. Der Kühler war schlecht. Das hat den Ruf versaut. Mit ordentlichem Kühler und etwas Selektion wäre bei nicht all zu viel Mehrverbrauch höhere Leistung als bei der Titan möglich gewesen.
R600 sehe ich milder. Ich bin froh, dass ATI es überhaupt probiert hatte. Und immerhin musste Nvidia bald die Preise der GTX-Karten senken.

Die Kühler sind bei AMD-Grafikkarten anscheinend oft ein Graus. Dahinter vermute ich den Druck der Boardpartner, in den Preiskampf gehen zu können und dann wird am Kühler gespart und gehofft, dass die Karten über den Preis weggehen. Hätte AMD mit einem guten Referenzkühler gepunktet, wären erst mal die Referenzmodelle teurer geworden.

Das zahlt sich wahrscheinlich langfristig aus. Oder härter formuliert, mit Nvidias Referenzkühllösungen im Markt ist das Nachziehen nicht mehr nur eine nette Option, sondern wird zum Muss. Vermutlich haben die es aber auf ein gutes fps-pro-Dollar-Verhältnis abgesehen und halten leise Kühlung im 3D-Betrieb für zweitrangig. In der Tat, die Benchmarkbalken zeigen fps, keine Lautstärke.

(Ich werde bei meinen Kaufentscheidungen immer intoleranter gegenüber der Lautstärke. Die 980 ist auch unter Volllast kaum hörbar. So muss es sein. Mich könnte auch die zehnfache Leistung nicht locken, wenn es mir auf die Nerven geht.)

Wenn du bei Hawaii zweigleisig fahren willst, mit Billo-Lüftern für die Masse und guten Kühlern für das Prestige, kommen Extra-Kosten auf dich zu. Auch eine entsprechende GPU-Selektierung ist nicht kostenfrei. Die Karten müssen nicht nur Prestige einfahren, die müssen direkt Geld erwirtschaften. Und ständig jaulen dir Boardpartner die Ohren voll, dass die Produktion zu teuer ist.

robbitop
2015-04-28, 00:19:01
Papperlapapp. Bekommt NV auch hin - kann also keine schwarze Magie sein.

Dural
2015-04-28, 09:22:04
naja die Referenz von NV sind aber immer teurer als Partnerkarten.

NV hat immer mehr Geld in die Referenz Karten gesteckt, mir fällt da nur die GTX285 ein wo NV etwas auf billig machen musste.

robbitop
2015-04-28, 09:48:02
Ist doch völlig egal. Es geht hauptsächlich um den Ruf. Und der wird nunmal stark von dem Eindruck, die Referenzdesigns zum Launch machen erzeugt.

N0Thing
2015-04-28, 11:03:20
naja die Referenz von NV sind aber immer teurer als Partnerkarten.

NV hat immer mehr Geld in die Referenz Karten gesteckt, mir fällt da nur die GTX285 ein wo NV etwas auf billig machen musste.

Ich habe eher den Eindruck, daß die Referenzdesigns erst seit der Titan gut genug geworden sind, um auch für einen leisen Betrieb geeignet zu sein. Sonst war fast immer ein anderer Lüfter Pflicht.

Matrix316
2015-04-28, 13:11:48
Eine Kleinserie aufzulegen bzw. die Produkte entsprechend zu selektieren ist nicht unbedingt günstig. Man wünscht sich schon von AMD, öfter mal an die Grenze des Machbaren zu gehen, die Frage ist natürlich, ob solche Prestigeprojekte zur Marke passen. Wenn man sich an die FX 5800 Ultra erinnert, oder die GTX 480, kann der Versuch, die Karte maximal zu keulen, auch Häme produzieren.
Das Hauptproblem bei AMD ist doch eigentlich, dass GPUs und CPUs schon jeweils an der Grenze des machbaren sind, weswegen sie so viel Strom verbrauchen, und trotzdem langsamer als Nvidias Karten oder Intels CPUs sind.

Bei Nvidia hab ich das Gefühl, dass die Titan X auch zur Not 2 GHz Chiptakt haben könnte, würde halt etwas mehr Strom verbrauchen und Wärme erzeugen. Intels CPUs könnten auch mit 5 GHz rauskommen und wären immer noch kühler als AMDs Extremversionen.

Hübie
2015-04-28, 13:21:14
Ich habe eher den Eindruck, daß die Referenzdesigns erst seit der Titan gut genug geworden sind, um auch für einen leisen Betrieb geeignet zu sein. Sonst war fast immer ein anderer Lüfter Pflicht.

Ich hatte neulich einen Kumpel mit PC zu Besuch und gemeinsam zu zocken und seine GTX980 ging mir gehörig auf den Sender. Klar: leiser als AMD aber laut genug um zu nerven :mad: Ich kenne kein leises Ref-Design der top dogs...

ps: Ich gucke jetzt schon jeden Tag nach Preisen und Verfügbarkeit der TX :rolleyes: Ihr müsst mich davon abhalten!!!!!!!!!!1111111einseinseinseinselfelf :eek:

Raff
2015-04-28, 13:26:07
Du musst nur Godmode belabern, der will seine zweite Karte gar nicht wirklich. *einred* :biggrin:

MfG,
Raff

Dural
2015-04-28, 13:31:15
Ich habe eher den Eindruck, daß die Referenzdesigns erst seit der Titan gut genug geworden sind, um auch für einen leisen Betrieb geeignet zu sein. Sonst war fast immer ein anderer Lüfter Pflicht.

8800GTX, 7900GTX, und auch die GTX280 hatte doch einen guten Kühler.


Das Hauptproblem bei AMD ist doch eigentlich, dass GPUs und CPUs schon jeweils an der Grenze des machbaren sind, weswegen sie so viel Strom verbrauchen, und trotzdem langsamer als Nvidias Karten oder Intels CPUs sind.

Bei Nvidia hab ich das Gefühl, dass die Titan X auch zur Not 2 GHz Chiptakt haben könnte, würde halt etwas mehr Strom verbrauchen und Wärme erzeugen. Intels CPUs könnten auch mit 5 GHz rauskommen und wären immer noch kühler als AMDs Extremversionen.

Das ist etwas sehr übertrieben formuliert, aber ja stimmt natürlich.

Hübie
2015-04-28, 13:31:27
SLi wäre für mich eh gestorben. Armer Teufel, unser godmode... =) Hab gestern mit Genuß das Abo vom SLi-Bit-Thread gelöscht...

Raff
2015-04-28, 13:34:34
8800GTX, 7900GTX, und auch die GTX280 hatte doch einen guten Kühler.

Nee, die GTX 280 war schon ziemlich laut (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Dem-GT200-unter-den-Heatspreader-geschaut-647599/5/), die davor gingen aber.

MfG,
Raff

Dural
2015-04-28, 13:36:38
Auf die Leistung bezogen nicht. Die 280 hat natürlich ordentlich gezogen. Zudem hatten viele das HS Problem, sprich keinen richtig guten sitz des Kühlers / Wärmeleitpaste.

akuji13
2015-04-28, 14:01:05
ps: Ich gucke jetzt schon jeden Tag nach Preisen und Verfügbarkeit der TX :rolleyes: Ihr müsst mich davon abhalten!!!!!!!!!!1111111einseinseinseinselfelf :eek:

Wenn meine ASUS in 14 Wochen aus der RMA zurück ist kaufst du einfach die. :biggrin:

phoenix887
2015-04-28, 20:33:52
Wenn meine ASUS in 14 Wochen aus der RMA zurück ist kaufst du einfach die. :biggrin:

Wenn sie da ist bitte bei mir melden, vielleicht verführst du mich ja wieder ;)

akuji13
2015-04-28, 21:59:46
Soll ich dir gleich noch einen Wasserkühler reservieren?

Da ich bei Caseking eine King-Mod Variante geordert habe hätte ich da zwei über. :D

phoenix887
2015-04-28, 22:08:57
Habe doch nur AiO^^ Dann müsste ich mir erst einen ganzen Kreislauf Aufbauen:freak:

Godmode
2015-04-28, 22:16:18
Du musst nur Godmode belabern, der will seine zweite Karte gar nicht wirklich. *einred* :biggrin:

MfG,
Raff

Da ich jetzt einen 4K Monitor habe und SLI in allen meinen Spielen gut funktioniert, werde ich die Karte sicher behalten. Ich hätte sofort, als ich die Titans bestellt habe, einen 4K Monitor mitbestellen sollen, dann hätte ich mir viel Arbeit erspart. Probleme machte ja wie schon bekannt der blöde G-Sync Monitor, aber der spielt jetzt erstmal die zweite Geige. Trine 3 in 4K + 4xSSAA ist schon eine Wucht, und mich und den Gigant freuts wenn die TXen etwas schwitzen. :) In Teil 2 pumpen die Kärtchen 90 FPS im besagten Setting, das ist schon nett.

Blaire hilft mir hier zum Glück weiter und er ist schon in Kontakt mit den entsprechenden Leuten.

SLi wäre für mich eh gestorben. Armer Teufel, unser godmode... =) Hab gestern mit Genuß das Abo vom SLi-Bit-Thread gelöscht...

Arm schon, aber nicht wegen SLI sondern weil viel Arbeit da liegt und ich jetzt nicht suchten kann. :frown:

akuji13
2015-04-28, 23:11:14
Habe doch nur AiO^^ Dann müsste ich mir erst einen ganzen Kreislauf Aufbauen:freak:

Die AiO hast du jetzt lange genug, nun wird es Zeit aufzurüsten. :D

Hübie
2015-04-29, 00:01:03
Ich habe ausdrücklich gesagt ihr sollt mich abhalten, nicht aufgeilen X-D

Tolle Nerds seid ihr mir...
@godmode: Als ich deinen Frust zu G-Sync und SLi sah wusste ich nicht ob Mitgefühl oder Schadenfreude* Oberhand hatten, aber mittlerweile weiß ich es: Mitgefühl. Zerstörte Euphorie ist scheiße. Ich betrink mich dann immer, guck n guten Film und scheiß auf den PC =)

*Schadenfreude weil ich von SLi die Nase voll habe.

Godmode
2015-04-29, 09:28:56
Ich habe ausdrücklich gesagt ihr sollt mich abhalten, nicht aufgeilen X-D

Tolle Nerds seid ihr mir...
@godmode: Als ich deinen Frust zu G-Sync und SLi sah wusste ich nicht ob Mitgefühl oder Schadenfreude* Oberhand hatten, aber mittlerweile weiß ich es: Mitgefühl. Zerstörte Euphorie ist scheiße. Ich betrink mich dann immer, guck n guten Film und scheiß auf den PC =)

*Schadenfreude weil ich von SLi die Nase voll habe.

Ich sage wie die TX im Werkszustand ausgeliefert wird, würde ich sie eher nicht kaufen, weil:
- zu wenig Abstand zur GTX 980
- dreht man den Lüfter auf, um die Karte schneller zu machen, wird sie recht laut
- zu hoher Preis

Setzt man die Karte unter Wasser + Mod-BIOS, wird sie allerdings wirklich brauchbar:
+ hoher Takt und leise
- Wakü kostet extra
- Mod einer 1k Karte (für das Geld erwartet man eigentlich von Haus aus eine kompromisslose GPU, was Leistung und Lautstärke angeht)

Suchs dir aus.

kokett
2015-04-29, 11:45:11
Ich hab mir jetzt für meine Karte ein eigenes Bios gemoddet, sodass sie mit 1278 - 1300 Mhz boostet ohne Tools nutzen zu müssen.
Evtl. hat der ein oder andere Interesse daran, daher stelle ich es mal hier rein.

Features (ohne Benutzung von nvinspector, afterburner oder anderen tools im Hintergrund):

- Powertarget 350W@100%
- kein Boostlimit
- Speichertakt 3905 Mhz
- angepasste Lüfterkurve
- aggressivere Boosttable
- an die Boosttable angepasste Voltage Table -> das Bios nutzt maximal 1.18V, die Booststufe nachdem die Karte warmgelaufen ist nimmt 1.143V)
- alle Stromsparmechanismen funktionieren weiterhin

Die Lüfterkurve habe ich dabei so austariert, dass die 350W PT bei der nvidia Vorgabe von 83°C durch den Referenzkühler gekühlt werden, ohne die Karte beim boosten zu behindern (PerfCap Reason "VRel").
Da nur extrem wenige Spiele die 350W tatsächlich ausnutzen (in meiner Sammlung nur Anno 2070), bedeutet das für die Praxis einen Boosttakt von 1304Mhz bei 70-75% Powertarget bei 60-65% Lüftergeschwindigkeit was in einer GPU Temperatur von 74-78°C resultiert.
Das Stockbios lässt eine unmodifizierte Karte immer auf 83°C hochkochen und landet dann bei 50-55% Lüftergeschwindigkeit, d.h. mit dem Modbios bleibt die Karte im Alltagsgebrauch sogar deutlich kühler als @ stock.

In Anno 2070 nutzt die Karte 100% vom neuen Powertarget und boostet mit 1278Mhz bei 83-84°C (Fan @ 70-75%), also immernoch eine deutliche Steigerung gegenüber Referenz. In diesem Fall throttelt sie dann auf 1278Mhz, weil sie simultan ins Power und Temperature Target rennt.
Ich persönlich halte mehr als 75W auf die nvidia Vorgabe @ stock für zu unsicher, deshalb habe ich das Bios so beschränkt. Wer unbedingt will, kann das Powertarget mittels Tools auf 425W @ 121% öffnen, ich rate allerdings explizit davon ab und würde das meiner eigenen Hardware nie antun.

Im alltäglichen Gebrauch benutzt man die Karte in - so denke ich jedenfalls - sicheren Grenzen: ca. 265-275W Verbrauch (das ist genausoviel wie das unmodifizierte Stockbios @ 110% PT), 1278-1304Mhz Boost Clock (+215Mhz), 3905Mhz VRAM (+400Mhz) bei 74-78°C (5-10°C kühler als @Stock).

Wie sich das Bios mit Wakü verhält, kann ich mangels Testmöglichkeit nicht sagen. Es könnte sein, dass eine wassergekühlte Karte damit deutlich höher boostet, weil der Core effizienter arbeiten kann. Die Motivation hinter dem Bios ist aber ganz klar die, das Maximum aus der Titan X mit montiertem Referenzkühler herauszuholen. Aus diesem Grund wird daher nicht mit fixen 3D Clocks gearbeitet, sondern mit Boost und intakten Power und Temperature Targets, da ich das für schonender/sicherer für die Hardware halte.

Enthalten sind 2 Bios files, eins für Luftkühler (luft.rom) und eins für Wakü (wasser.rom). Das Bios für Luftkühler ist zur Sicherheit auf maximal 1,2V beschränkt, das für Wakü hat eine etwas andere Voltage Table und eignet sich dann dafür mit z.B. Afterburner den Core höher zu takten.

Kenntnisse wie man nvflash bedient, setze ich voraus - wer nicht weiss wie: bitte bleiben lassen.
Außerdem empfehle ich in jedem Fall das eigene originale Bios vorher zu sichern (nvflash --save orig.rom).

Download (https://mega.co.nz/#!pxEHhJ7J!89fBH2CJ_bbQYT7Uy1sHGHfS05z7-faLnMDpz4Tzm4U)

Raff
2015-04-29, 22:20:37
Ich sage wie die TX im Werkszustand ausgeliefert wird, würde ich sie eher nicht kaufen, weil:
- zu wenig Abstand zur GTX 980
- dreht man den Lüfter auf, um die Karte schneller zu machen, wird sie recht laut
- zu hoher Preis

Setzt man die Karte unter Wasser + Mod-BIOS, wird sie allerdings wirklich brauchbar:
+ hoher Takt und leise
- Wakü kostet extra
- Mod einer 1k Karte (für das Geld erwartet man eigentlich von Haus aus eine kompromisslose GPU, was Leistung und Lautstärke angeht)

Suchs dir aus.

In Anno 2070 nutzt die Karte 100% vom neuen Powertarget und boostet mit 1278Mhz bei 83-84°C (Fan @ 70-75%), also immernoch eine deutliche Steigerung gegenüber Referenz. In diesem Fall throttelt sie dann auf 1278Mhz, weil sie simultan ins Power und Temperature Target rennt.

"Recht laut" ist gut. Mit 70+ Prozent, die man beim Referenzkühler für 350+ Watt braucht, hört sich das Ding an wie eine R9 290X. :ugly:

Wie man's dreht und wendet: Standardkühler und -BIOS sind bei diesem Preis ein ziemlich schlechter Scherz.

MfG,
Raff

Hübie
2015-04-29, 22:29:15
Suchs dir aus.

Ehrlich gesagt warte ich (hoffentlich) bis Fiji um wirklich eine Wahl zu treffen. Die habe ich aktuell nicht wirklich. Deswegen müsst ihr mich ja davon abhalten ;) ;)

Nein, aber mal im Ernst: soviel Selbstdisziplin bringe ich noch selber auf... auch wenns echt nicht leicht ist.

Godmode
2015-04-29, 22:42:37
Ehrlich gesagt warte ich (hoffentlich) bis Fiji um wirklich eine Wahl zu treffen. Die habe ich aktuell nicht wirklich. Deswegen müsst ihr mich ja davon abhalten ;) ;)

Nein, aber mal im Ernst: soviel Selbstdisziplin bringe ich noch selber auf... auch wenns echt nicht leicht ist.

Wenn du warten kannst ist es natürlich gut. Ich konnte es nicht und wenn ich ehrlich bin, glaube ich auch nicht wirklich das Fiji besser als TX wird, maximal billiger.

Hübie
2015-04-29, 22:51:22
Es geht mir nicht nur um Performance sondern wie immer ums Paket. Bin sogar bereit 3D-Vision sausen zu lassen ;) Technisch wird Fiji alle mal interessant. Ich finde sogar dass Maxwell die langweiligste Gen seit langem ist. Das mit der Effizienz haben die aber wirklich gut hinbekommen :smile:

Godmode
2015-04-29, 23:25:21
Es geht mir nicht nur um Performance sondern wie immer ums Paket. Bin sogar bereit 3D-Vision sausen zu lassen ;) Technisch wird Fiji alle mal interessant. Ich finde sogar dass Maxwell die langweiligste Gen seit langem ist. Das mit der Effizienz haben die aber wirklich gut hinbekommen :smile:

3D-Vision kann man wirklich sausen lassen, weil es nicht mehr wirklich unterstützt wird, was sehr schade ist. :frown:

cR@b
2015-04-30, 07:44:01
3D-Vision kann man wirklich sausen lassen, weil es nicht mehr wirklich unterstützt wird, was sehr schade ist. :frown:

Was heißt nicht mehr? Es gab kein Spiel, was ohne Helix nicht ohne Fehler lief...
3DVision ist totaler Müll, fast genauso wie SLI...

PHuV
2015-04-30, 08:33:09
3D-Vision kann man wirklich sausen lassen, weil es nicht mehr wirklich unterstützt wird, was sehr schade ist. :frown:
Watt? :eek: Wieso das den? Der Treiber unterstützt es doch nach wie vor noch. Ich vermute mal, die warten jetzt alle, wie sich das mit den 3D-Brillen entwickelt.

akuji13
2015-04-30, 09:01:29
Es gibt immer weniger wenn nicht sogar kein Spiel was out-of-box problemlos 3D Vision tauglich ist.
Das war mal anders.

Das Gefrickel wird immer mehr und ist auch der Hauptgrund warum ich damit aufgehört habe.
Ich bastle und tweake gerne aber irgendwann war der Punkt erreicht wo man 30 Stunden testet und macht für 10 Stunden Spiel.

Grestorn
2015-04-30, 09:07:56
Was heißt nicht mehr? Es gab kein Spiel, was ohne Helix nicht ohne Fehler lief...

Was aber letztlich immer an den Spielen liegt, Helix und andere Mods beheben ja nur die kaputten Shader in den Spielen. Es ist traurig, dass die Game-Produzenten da so wenig Interesse daran haben. Was natürlich wiederum am mangelnden Interesse der Kunden liegt.

Godmode
2015-04-30, 09:21:40
Was heißt nicht mehr? Es gab kein Spiel, was ohne Helix nicht ohne Fehler lief...
3DVision ist totaler Müll, fast genauso wie SLI...

SLI funktioniert zumindest halbwegs, bei 3DVision ging ja ohne Helix, etc. gar nichts mehr.

Watt? :eek: Wieso das den? Der Treiber unterstützt es doch nach wie vor noch. Ich vermute mal, die warten jetzt alle, wie sich das mit den 3D-Brillen entwickelt.

Er unterstützt es noch, aber jedes neuere Spiel hatte massive Probleme und wäre ohne Community Fixes nicht gelaufen. Den Combatibilty Mode zähle ich jetzt mal nicht, weil der ist scheisse.

Was aber letztlich immer an den Spielen liegt, Helix und andere Mods beheben ja nur die kaputten Shader in den Spielen. Es ist traurig, dass die Game-Produzenten da so wenig Interesse daran haben. Was natürlich wiederum am mangelnden Interesse der Kunden liegt.

Die Budgets und Zeit ist knapp, ich kann es durchaus verstehen. Es ist nicht sinnvoll/wirtschaftlich für eine sehr kleine Randgruppe ein Feature zu implementieren. Mich als User stört das natürlich, aber es gibt ja noch einige Entwickler die es drauf haben, gutes 3DVision zu implementieren, zb. das neue Trine 3 von Frozenbyte.

PHuV
2015-04-30, 09:56:52
Das Gefrickel wird immer mehr und ist auch der Hauptgrund warum ich damit aufgehört habe.
Ich bastle und tweake gerne aber irgendwann war der Punkt erreicht wo man 30 Stunden testet und macht für 10 Stunden Spiel.
Da sagst Du was Wahres. :mad: Wenn ich daran denke, wieviel Zeit ich mit diversen Zeugs verbracht habe, die rein gar nichts ergeben hatten (siehe LG-Desaster), auf so Zeugs habe ich kein Bock mehr.

Mit meinem Stottern bei GTA V auf UHD habe ich mich erst mal durch runterstellen auf HD beholfen.

Skysnake
2015-04-30, 10:02:16
Was sind denn das für ketzerische Töne?

AA-Bits und 3DVision sind doch eine göttliche Gabe, mit der man alles genau so machen kann wie man will, und daher AMD um Äonen überlegen. Und wer das nicht zu schätzen weiß, und es zu viel Arbeit/Aufwand ist, der ist doch eh kein Enthusiasst :rolleyes::ugly:

So wurde mir das zumindest noch bis vor kurzem kommuniziert, wenn ich mal meinte, dass das doch an sich ziemlich egal ist mit den AA-Bits usw, da es einfach nur ein Gefrickel ist, was VIEL zu viel Aufwand ist, für einen oft fragwürdigen Erfolg, und daher auch nicht in eine Bewertung einbezogen werden sollte, bzw nur sehr schwach, und nicht eben wie von vielen als ein "must have"-Feature, was eben die Konkurrenz gleich ausschliest, wenn Sie es nicht hat...

Hübie
2015-04-30, 10:15:21
Kann mir gut vorstellen dass da eine Strategie hinter steckt denn afaik forscht man noch an alternativen 3D-Technologien die nicht zweifache Berechnung benötigt. Ich meine auch mal vor etwa einem Jahr was von einer neuen Brille gelesen zu haben welche zwei Display versetzt hintereinander hat.
Na wie auch immer. Ich werde einfach bis Fiji warten denn dann hat man zwei Alternativen zur TX =)

akuji13
2015-04-30, 10:50:20
So wurde mir das zumindest noch bis vor kurzem kommuniziert, wenn ich mal meinte, dass das doch an sich ziemlich egal ist mit den AA-Bits usw, da es einfach nur ein Gefrickel ist, was VIEL zu viel Aufwand ist, für einen oft fragwürdigen Erfolg, und daher auch nicht in eine Bewertung einbezogen werden sollte, bzw nur sehr schwach, und nicht eben wie von vielen als ein "must have"-Feature, was eben die Konkurrenz gleich ausschliest, wenn Sie es nicht hat...

Es gibt genügend Leute die mit der Frickelei keinerlei Problem haben und es sogar gerne machen.

Und wenn es dann läuft ist es ein Genuß und kann die Immersion mMn grandios steigern.
Ein Metro mit 3DVision hat schon was. :eek:

Für die richtigen Fans von 3DVision macht eben so was den Unterschied aus der AMD Karten dann komplett ausschließt, andere sehen es neutral, wieder anderen ist es völlig egal.

Es ist immer gut die Wahl zu haben ein solches feature nutzen zu wollen oder können.
Das sollte dann auch als klarer Pluspunkt gewertet werden.

Außerdem ist der Aufwand nicht immer gleich hoch:
Mir war es mit SLI zusammen zuviel, mit einer Karte sind die Probleme geringer, neue Titel machen mehr Probleme als ältere, einige mehr als andere usw.

@X

Hurra, die Ersatz-X ist da. :)

Grestorn
2015-05-01, 14:59:21
Ich habe heute meine Palit Titan X unter Wasser gesetzt. Ohne Panne :)

Läuft wirklich gut, muss ich sagen :)

Ich hab jetzt nur das Power-Target per BIOS Mod auf 130% gesetzt, alles andere im BIOS unangetastet gelassen.

Damit komme ich auf 1510 MHz Core Takt. Wenn ich höher gehe, bekomme ich Treiber Resets.

Falls es Raff noch interessiert: Der ASIC ist, wie schon mal geschrieben, 75%. Bist Du noch an der Charge-Nummer interessiert?

Grestorn
2015-05-01, 16:14:33
Ich hab ein Problem mit dem BIOS-Modding, speziell mit der Spannung. Mein BIOS sieht so aus:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51788&stc=1&d=1430489498http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51789&stc=1&d=1430489498

Ich hab die Werte ganz oben und auch die CLKxx Werte ganz unten auf 1350 mV erhöht. Der Standardwert ist 1250 mV.

Die zusätzlichen Zeilen ganz oben, die im PCGH Artikel abgebildet sind, bei denen man auch eine maximal-Spannung auswählen kann, fehlen bei mir. Woran liegt das?

Und die von mir eingestellten Änderungen scheinen keine Wirkung zu zeigen. Im Inspector kann ich weiterhin nur +100 mV einstellen und der Basiswert ist weiterhin 1174 mV (Maximum also 1274 mV).

Irgendwie verstehe ich den Voltage Table Dialog nicht so recht und finde im ganzen Netz auch keine Infos dazu...

Godmode
2015-05-01, 17:27:01
Was willst du den erreichen? Wenn du eine fixe Spannung im 3D-Betrieb willst, dann musst du nur die ersten drei Regler auf jeweils 1.281v einstellen (min und max). Die anderen Voltages für die einzelnen Clocks, rührt man eigentlich nicht an.

Grestorn
2015-05-01, 17:32:18
Nein, ich will keine fixe Spannung. Ich will die Maximal Spannung von 1274 mV erhöhen. Aber das scheint ja u.U. auch gar nicht möglich zu sein. Ich dachte, dass die Spannung der Titan immerhin ein wenig mehr Spielraum nach oben hat als bei der 980...

Godmode
2015-05-01, 17:33:26
1.274 ist das mögliche Maximum, mehr geht nur mit Hardmods.

Grestorn
2015-05-01, 17:45:05
Merci!

HisN
2015-05-03, 12:34:57
Gabs in den letzten Tagen ein Update dass die Leistung der X in Unity angezogen hat?
Endlich schafft die single X in Unity 40+ FPS in hohen Settings (oder ich habe zufällig eine Stelle erwischt, die nicht so fordernd ist)

I LIKE

WS6Pd0GsrGo

Raff
2015-05-03, 13:15:35
Sicher, dass alles an ist? Das Spiel macht manchmal komische Sachen mit den Details ... ;)

Also meine letzten Erfahrungen mit ACU, Titan X und UHD-LCD in Kombination ist etwa drei Wochen her und da brauchte es noch 1.500/4.000 MHz für ~30-35 Fps, nur mit FXAA. Allerdings war/ist in der Testszene etwas mehr los als in deinem Video, es handelt sich um einen Lauf Richtung Kathedralenvorplatz (nicht vor Notre Dame), wo unzählige Leute demonstrieren.

MfG,
Raff

HisN
2015-05-03, 13:28:04
Dann liegt es an der Stelle.
Ich hab beim Umschalten von meinen üblichen Settings auf diese auf jeden Fall den Unterschied gesehen. Üblicherweise stehe ich auch vor einer Demo an der mehr los ist.

Godmode
2015-05-03, 16:44:27
Gabs in den letzten Tagen ein Update dass die Leistung der X in Unity angezogen hat?
Endlich schafft die single X in Unity 40+ FPS in hohen Settings (oder ich habe zufällig eine Stelle erwischt, die nicht so fordernd ist)

I LIKE

http://youtu.be/WS6Pd0GsrGo

Ich habs mit einer TX auf dem Rog Swift und DSR in 5K gespielt, das war echt spielbar.

Nijo44
2015-05-03, 21:41:28
Hallo zusammen
Also hab seit Freitag auch ein T'x Sli (WaKü) am laufen komm von einer 290x Lightning(WaKü) und die Leistung ist ja brachial, Ryse 4k mit 1.5 Supersampling 7,5Gb Vram Auslastung ,aber wie dass aussieht unglaublich und dennoch 30Fps.

Grestorn
2015-05-03, 21:43:34
Grats! :)

akuji13
2015-05-07, 10:22:31
Haben alle X ein identisches power target?

Ich frage deshalb, weil meine EVGA mit stock bios und 110% die 1400Mhz GPU Takt hält in GTA V,
das konnte die ASUS nicht.
Der ASIC der ASUS ist "besser", aber die EVGA benötigt nur 1.168 Vcore statt 1.19X.

Allerdings lief die auch noch mit dem Extreme IV und nicht mit WaKü.
Hängt das mit der besseren Kühlung zusammen wie einst bei der GTX470?

kokett
2015-05-07, 10:27:34
PT ist überall gleich, allerdings reizt GTA V die 110% Stock eh selten aus. Das wird an deiner Wakü liegen, teste mal Anno 2070 - da ist Feierabend.

Godmode
2015-05-07, 10:28:40
Haben alle X ein identisches power target?

Ich frage deshalb, weil meine EVGA mit stock bios und 110% die 1400Mhz GPU Takt hält in GTA V,
das konnte die ASUS nicht.
Der ASIC der ASUS ist "besser", aber die EVGA benötigt nur 1.168 Vcore statt 1.19X.

Allerdings lief die auch noch mit dem Extreme IV und nicht mit WaKü.
Hängt das mit der besseren Kühlung zusammen wie einst bei der GTX470?

Liegt wohl an der Wakü und war bei mir ähnlich.

Grestorn
2015-05-07, 10:39:12
Mit einer WaKü und PT 130% (per BIOS-Mod) reizt GTA V den maximalen Boosttakt von 1470 MHz bei mir eigentlich zu 99% der Zeit voll aus. Der tatsächlich benötigte TDP ist dabei aber immer ein ganzes Stück unter 130% (meist 105-120%).

akuji13
2015-05-07, 10:50:28
PT ist überall gleich, allerdings reizt GTA V die 110% Stock eh selten aus. Das wird an deiner Wakü liegen, teste mal Anno 2070 - da ist Feierabend.

PT bewegt sich bei etwa 106%.
Die "killer"-Spiele Anno 2070 und Risen 3 hab ich nicht. =)

Werde erstmal die nächsten Wochen abwarten ob in meinen Spielen die 1400 gehalten werden und dann evtl. später mein bios bearbeiten.

Godmode
2015-05-07, 22:41:02
Ich musste meinen Asus PB279Q ja zurückschicken, weil er Pixelfehler hatte. Jetzt spiele ich wieder auf dem Dell U2711 in 5K (1440p mit 4x DSR) und mit TX SLI läuft das echt fein. FC4 gesync auf 60 FPS und das wird auch fast immer gehalten. Wäre schön wenn es schon mehr 5K Displays gäbe.

dildo4u
2015-05-07, 23:26:35
4K Benches mit Titan X Quad SLI

https://youtu.be/EYOGMHGYlQI

Dural
2015-05-08, 17:39:43
Gibt es endlich einen takt zu takt vergleich von GM204 / GM200?

HisN
2015-05-08, 17:50:29
4K Benches mit Titan X Quad SLI

https://youtu.be/EYOGMHGYlQI


Unity in einem engen Tunnel ohne die ganzen Menschen-Massen und den Weitblick den man oben hat? Ein Schelm wer böses dabei denkt :-)
GTA5 in der Stadt .. ein Schelm wer böses dabei denkt :-)
Übel die Auslastung z.b. in Dying Light oder Hitman :-(

Peter Gräber
2015-05-08, 20:39:44
Mit meinem Stottern bei GTA V auf UHD habe ich mich erst mal durch runterstellen auf HD beholfen.

Wen wundert das? Ich habe hier Stellen in GTA V wo ne GTX 980 unter FullHD und max Details in die Region von 35 FPS abfällt. Da wird an vielen Bereichen 2560 bereits kritisch was die Flüssigkeit anbelangt. Wo willst du also mit ner X bei 4K hin? 2560 x 1440 könntest du vermutlich dauerhaft ruckelfrei schaffen, 4K wohl nicht.

4Fighting
2015-05-09, 18:18:21
habt ihr euer bios selber gemoddet?

finde irgendwie nix "fertiges" mit Spannung@1,274V und PT Mod. :)

Grestorn
2015-05-09, 18:55:18
Ja, modden ist nicht so schwer, man kriegt, was man will und geht nicht das Risiko ein, ein fremdes BIOS (das nicht auf die HW passt) auf die teure Titan zu flashen.

aufkrawall
2015-05-09, 18:59:13
Bei Referenzdesigns sollten Biose von unterschiedlichen Vendors kein Problem sein.

4Fighting
2015-05-10, 11:36:45
mit welchen settings habt ihr eure titan's laufen und welches spiel war bisher am zickigsten beim OC?

phoenix887
2015-05-10, 12:25:08
GTA V ist sehr empfindlich.

Raff
2015-05-10, 13:52:37
Bei Referenzdesigns sollten Biose von unterschiedlichen Vendors kein Problem sein.

Yep, kann ich ohne Zweifel bestätigen. Da passt alles auf alles – beim Flashen ist bei Abweichung lediglich ein ID-Override notwendig.

MfG,
Raff

TurricanM3
2015-05-11, 12:38:29
Raff du wolltest mal was bez. Aufdruck der Chips wissen? Ganz frisch von heute:

http://abload.de/img/txzzuj2.jpg (http://abload.de/image.php?img=txzzuj2.jpg)

Raff
2015-05-11, 12:49:50
Nice, danke! Der neueste Chip bisher. Welcher Hersteller, wann gekauft, welche ASIC-Quality? :)

MfG,
Raff

TurricanM3
2015-05-11, 12:53:43
Gekauft letzte Woche, ist eine Palit und die ASIC 74,X%, Nachkomma weiß ich gerade nicht mehr.

OC_Burner
2015-05-11, 17:58:24
Raff du wolltest mal was bez. Aufdruck der Chips wissen? Ganz frisch von heute:

http://abload.de/img/txzzuj2.jpg (http://abload.de/image.php?img=txzzuj2.jpg)

Aha, gleiche Kalenderwoche wie meine EVGA. Ebenfalls letzte Woche gekauft. ASIC 65,5%, läßt sich moderat takten und benötigt dabei eine ziemlich hohe Spannung.

http://abload.de/thumb/dsc05269iyuzl.jpg (http://abload.de/image.php?img=dsc05269iyuzl.jpg)

derguru
2015-05-13, 15:57:02
bedeutet in zahlen?

meine x + gsync monitor ist nun auch da, vom speed her ist es vergleichbar mit meinerm 970 im sli sys nur halt ohne mr problematik durch sli und rammangel und die leistung ist immer da wie z.b. aktuell in wolfenstein wo die id-engine im sli versagt. dsr spielerei ist auch wieder aktvierbar+ gsync. im grunde genommen nur vorteile außer preisaufschlag und lautstärke die bei mir aber wuppe ist.

hab mal humane +200/+400 oc (ohne spannungserhöhung)gemacht,das reicht erstmal für das referenzdesign.

horn 12
2015-05-13, 18:04:57
Warten will wohl niemand mehr von den Insidern auf AMD
Geschieht Ihnen auch etwas Recht, denn Infos zum Abhalten des Titan X Kaufes gibt es so gut wie Keine,- und dann soll mal AMD im Sommerloch die R9 390 (390X) loswerden.

Raff
2015-05-13, 21:01:03
Hat einer von euch seine Titan X per BIOS undervoltet? Das Exemplar hier trollt mich. Irgendwie. Gestern dachte ich noch, die BIOS-Mod für 906 Millivolt im P0 hätte funktioniert, aber heute bekomme ich ganz andere, viel höhere Werte. Gibt es gar ein BIOS im Stile der svl7-Titan-Mods, bei denen man von 0,9x bis 1,2x alles wählen kann?

MfG.
Raff

OC_Burner
2015-05-13, 22:09:26
Hat einer von euch seine Titan X per BIOS undervoltet? Das Exemplar hier trollt mich. Irgendwie. Gestern dachte ich noch, die BIOS-Mod für 906 Millivolt im P0 hätte funktioniert, aber heute bekomme ich ganz andere, viel höhere Werte. Gibt es gar ein BIOS im Stile der svl7-Titan-Mods, bei denen man von 0,9x bis 1,2x alles wählen kann?

MfG.
Raff

Ich nehme mal an dafür müsste man sämtliche CLK-Regler im Maxwell II Tweaker ein paar Stufen herunter setzen um dann später per Nvidia Inspector mittels Overvoltage +0.xx mV die genaue Voltage zu bestimmen.

Was willst du machen? Titan Classic vs herunter getaktete Titan X im Verbrauchsbenchmark?

@derguru

1400MHz/2000MHz @ 1.243V mit Wakü

Raff
2015-05-13, 22:27:26
Ich nehme mal an dafür müsste man sämtliche CLK-Regler im Maxwell II Tweaker ein paar Stufen herunter setzen um dann später per Nvidia Inspector mittels Overvoltage +0.xx mV die genaue Voltage zu bestimmen.

Was willst du machen? Titan Classic vs herunter getaktete Titan X im Verbrauchsbenchmark?

So ähnlich. :) Zunächst würde ich mir ein BIOS wünschen, bei dem man Takt und Spannung separat und zuverlässig fixen kann. Das hat mich damals endgültig dazu gebracht, die Classic zu kaufen, alles davor war nervig. So ist's nun auch bei der "Titanix".

Auf jeden Fall ist der Sweet Spot bei den Teilen offensichtlich und eine fiese Sache. 1.500 MHz braucht anscheinend auf allen Karten grotesk viel mehr Saft als 1.400 MHz. Die Möhre hier kann ich mit 1.005-1.030 Millivolt (je nachdem, auf was das BIOS gerade Bock hat :rolleyes: ) rockstable mit 1.200/4.001 MHz betreiben, die meisten Spiele laufen auch mit 1.250 MHz stabil und das Powerlimit wird dabei zu schlimmstenfalls 90 Prozent ausgelastet (= 225 Watt). Für 1.500 MHz braucht's für Felsenfestigkeit ~1,26 Volt und um die 400 Watt. :freak:

MfG,
Raff

Godmode
2015-05-13, 22:48:47
So ähnlich. :) Zunächst würde ich mir ein BIOS wünschen, bei dem man Takt und Spannung separat und zuverlässig fixen kann. Das hat mich damals endgültig dazu gebracht, die Classic zu kaufen, alles davor war nervig. So ist's nun auch bei der "Titanix".

Auf jeden Fall ist der Sweet Spot bei den Teilen offensichtlich und eine fiese Sache. 1.500 MHz braucht anscheinend auf allen Karten grotesk viel mehr Saft als 1.400 MHz. Die Möhre hier kann ich mit 1.005-1.030 Millivolt (je nachdem, auf was das BIOS gerade Bock hat :rolleyes: ) rockstable mit 1.200/4.001 MHz betreiben, die meisten Spiele laufen auch mit 1.250 MHz stabil und das Powerlimit wird dabei zu schlimmstenfalls 90 Prozent ausgelastet (= 225 Watt). Für 1.500 MHz braucht's für Felsenfestigkeit ~1,26 Volt und um die 400 Watt. :freak:

MfG,
Raff

Zockst du wirklich soviel, dass der Verbrauch ins Gewicht fällt? Ich würde drauf scheissen und 1.500 Mhz und 1,27v einstellen. Ich habe hier zwar top Hardware stehen, komme aber im Monat wohl auf keine 30h Spielzeit.

Bei meinen 800W Verbrauch (Rechner+Monitor) macht, dass dann bei einem Strompreis von 30c 86 Euro im Jahr. Selbst wenn ich 60h/Monat spielen würde, wäre das immer noch vernachlässigbar.

30h*12Monate*0,8kW*0,3€ = 86€/Jahr

Hübie
2015-05-13, 22:53:13
Raff ist einfach effizienzgeil. Glaube nicht dass es was mit der Energiekostenabrechnung zu tun hat ;)

robbitop
2015-05-14, 10:00:20
Raff hat halt einfach keine Wakü. ;)

Geächteter
2015-05-14, 10:23:25
Hat einer von euch seine Titan X per BIOS undervoltet? Das Exemplar hier trollt mich. Irgendwie. Gestern dachte ich noch, die BIOS-Mod für 906 Millivolt im P0 hätte funktioniert, aber heute bekomme ich ganz andere, viel höhere Werte. Gibt es gar ein BIOS im Stile der svl7-Titan-Mods, bei denen man von 0,9x bis 1,2x alles wählen kann?

Kann man bei Maxwell (2.0) eigentlich im P0-Modus noch unter 1 Volt kommen? Bei meiner 960 gehts jedenfalls nicht, minimal 1 Volt, aber nur bei über 65 °C, ansonsten 1,006 Volt. 0,9xx Volt habe ich nur manchmal kurz gesehen, wenn sie vom P8 in den P0 oder umgekehrt wechselt. Musst mal den P5-Modus mit dem Inspector erzwingen, da gibts die Idle-Spannung und man kann auch etwas am Takt spielen, beim Speicher muss man aber vorher unlocken.
Allerdings gehen beim Speicher bei mir nur 1100 Mhz stabil, weil anscheindend auch die Spannung für den Speicher im P5/P8-Modus niedriger ist. So ne Titan X müsste bei 0,85 Volt und maximiertem Takt die effizienteste Karte on earth sein.

Grestorn
2015-05-14, 10:37:49
Hier stand Müll

Raff
2015-05-14, 10:57:30
Ahoi!

Zockst du wirklich soviel, dass der Verbrauch ins Gewicht fällt? Ich würde drauf scheissen und 1.500 Mhz und 1,27v einstellen. Ich habe hier zwar top Hardware stehen, komme aber im Monat wohl auf keine 30h Spielzeit.

Bei meinen 800W Verbrauch (Rechner+Monitor) macht, dass dann bei einem Strompreis von 30c 86 Euro im Jahr. Selbst wenn ich 60h/Monat spielen würde, wäre das immer noch vernachlässigbar.

30h*12Monate*0,8kW*0,3€ = 86€/Jahr

Raff ist einfach effizienzgeil. Glaube nicht dass es was mit der Energiekostenabrechnung zu tun hat ;)

Eigentlich zocke ich zuhause sogar ziemlich wenig, das dürften im Mittel nur fünf Stunden pro Woche sein, mit unregelmäßigen Ausnahmen nach oben. Mir geht's in erster Linie darum, Kontrolle über meinen Rechner zu haben. Denn für was haben wir denn PCs statt Konsolen? Bei mir läuft soweit möglich nichts mit werkseitiger Spezifikation, alles ist händisch optimiert; mit ebenfalls manuell erstellten Presets für verschiedene Nutzzwecke.

Mich nervt es, wenn ich die Hardware nicht bis zum Rande optimieren kann. Da geht's weniger um die Stromrechnung, es macht mir einfach Spaß, das zu tun – und dann zu wissen, dass der Rechner schnellstmöglich läuft und dabei nicht sinnlos Strom säuft.

Raff hat halt einfach keine Wakü. ;)

Das ist es auch nicht. Klar, mit einer starken Wasserkühlung ist's egal, ob die Grafikkarte 300 oder 400 Watt zieht, weil man's eh nicht merkt. Mit dem Referenzschwächling sieht das definitiv anders aus, da sind schon 375 Watt kaum wegzukühlen und wenn, dann nur mit 100 Prozent PWM. Ich hatte das gestern eine Weile so laufen und bekam auf Dauer Kopfschmerzen. Da ich meine eigenen Grafikkarten aber mit starken Luftkühlern betreibe, ist die Lautstärke halb so wild.

Kann man bei Maxwell (2.0) eigentlich im P0-Modus noch unter 1 Volt kommen? Bei meiner 960 gehts jedenfalls nicht, minimal 1 Volt, aber nur bei über 65 °C, ansonsten 1,006 Volt. 0,9xx Volt habe ich nur manchmal kurz gesehen, wenn sie vom P8 in den P0 oder umgekehrt wechselt. Musst mal den P5-Modus mit dem Inspector erzwingen, da gibts die Idle-Spannung und man kann auch etwas am Takt spielen, beim Speicher muss man aber vorher unlocken.
Allerdings gehen beim Speicher bei mir nur 1100 Mhz stabil, weil anscheindend auch die Spannung für den Speicher im P5/P8-Modus niedriger ist. So ne Titan X müsste bei 0,85 Volt und maximiertem Takt die effizienteste Karte on earth sein.

Das war ja die Idee: Ein Nutzszenario mit beispielsweise 1 GHz (= Basistakt) und minimal dafür möglicher Spannung. =) P5-Spielchen fand ich schon immer nervig, aber das ist noch einen Versuch wert.

MfG,
Raff

HisN
2015-05-14, 11:09:21
Wen wundert das? Ich habe hier Stellen in GTA V wo ne GTX 980 unter FullHD und max Details in die Region von 35 FPS abfällt. Da wird an vielen Bereichen 2560 bereits kritisch was die Flüssigkeit anbelangt. Wo willst du also mit ner X bei 4K hin? 2560 x 1440 könntest du vermutlich dauerhaft ruckelfrei schaffen, 4K wohl nicht.


Echt jetzt? Ist alles ne Einstellungssache.
Gras auf Hoch anstatt Ultra
Nachbearbeitung auf Hoch anstatt Ultra
Und schon hat man in der Pampa 45+ und in der Stadt bis 90 FPS.
Dann ruckelt auch nix mehr.

http://abload.de/thumb/gta5_2015_05_14_10_48tojpc.jpg (http://abload.de/image.php?img=gta5_2015_05_14_10_48tojpc.jpg) http://abload.de/thumb/gta5_2015_05_14_10_49g7j3u.jpg (http://abload.de/image.php?img=gta5_2015_05_14_10_49g7j3u.jpg) http://abload.de/thumb/gta5_2015_05_14_10_50uyj2x.jpg (http://abload.de/image.php?img=gta5_2015_05_14_10_50uyj2x.jpg)

Grestorn
2015-05-14, 11:22:51
Sagt mal, könnt ihr beim Inspector den "Multi Display Power Saver" nutzen (rechte Maustaste auf den Button "Show Overclocking")?

Sobald ich den aktiviere, verlieren alle Monitore ihr Bild.

Auch schon bei meinen 980s konnte ich das nicht aktivieren, da hab ich das aber aufs SLI geschoben.

Ich würde gerne drei Monitore nutzen ohne dass ich unnötig Energie verbrate. Das scheint ootB aber wohl nicht zu gehen...

HisN
2015-05-14, 11:39:35
Sobald Du einen 4K-Monitor in Deiner Monitor-Gruppe hast, scheint der 2D-Takt zu niedrig zu sein.

Grestorn
2015-05-14, 12:08:58
Ich habe nur einen WQHD und einen 1920x1200 Monitor. Der dritte, den ich momentan nicht betreibe, ist Full HD (ich weiß, schrecklich drei Monitore mit unterschiedlicher Auflösung...).

Hast Du mal den Multi Display Power Saver erfolgreich aktiviert?

Es kann natürlich sein, dass das generell mit einem GSync Monitor nicht funktioniert.

Geächteter
2015-05-14, 12:46:01
Ich habe nur einen WQHD und einen 1920x1200 Monitor. Der dritte, den ich momentan nicht betreibe, ist Full HD (ich weiß, schrecklich drei Monitore mit unterschiedlicher Auflösung...).

Hast Du mal den Multi Display Power Saver erfolgreich aktiviert?

Es kann natürlich sein, dass das generell mit einem GSync Monitor nicht funktioniert.
Und wenn du den P8-Modus manuell höher auf Maximum taktest, gehts dann?
P5 muss auf jeden Fall gehen, weil das ist ja auch der Boot-Modus. Nur schade, dass man den nur umständlich per Shortcut wählen kann, das sonst geniale Tool 'Nividia Inspector' müsste noch um einen Button "P-State-Selector" ergänzt werden, wo man den gewünschten P-State einstellen kann und man auch eine Option hat, es per Autostart zu übernehmen.

Grestorn
2015-05-14, 13:31:00
Nope, selbst wenn ich auf P8 auf absurd hohe Taktraten gehe (z.B. 500/600MHz) kommt kein Bild mehr.

Wenn ich zwei Monitore betreibe, fällt die Karte ja sauber in den P8 zurück. Trotzdem kann ich den MDPS nicht einschalten, mehr als P8 zu erzwingen macht das doch eigentlich auch nicht, oder? Deswegen verstehe ich nicht, warum der Modus überhaupt einen Unterschied macht.

Auf dem Desktop ohne Last (ohne Eingriff per MDPS) habe ich bei dem CoreClock aber auch deutlich weniger als in der P8-Config vorgegeben. Dort sind 405 MHz eingestellt, de Fakto sind es aber 135 MHz. Die Memory-Clock stimmt aber.

Raff
2015-05-15, 21:38:24
Mittlerweile bin ich bei konstanten 962 Millivolt unter Last. Die Spannungsregler im Maxwell BIOS Tweaker scheinen "hier unten" aber keine Relevanz mehr zu haben, anscheinend ergibt sich die Spannung automatisch dadurch, dass ich alle Taktraten auf 797 (!) MHz gesenkt habe. Per Offset lässt sich die Kiste rockstable zu 1.100/4.001 MHz überreden, eventuell sogar 1.150 MHz; bei 1.200 schmiert sie aber schnell ab. Das Powertarget wird hierbei zu schlimmstenfalls 80 Prozent ausgenutzt, was ziemlich genau 200 Watt entspricht. Gefällt mir! 900 mV bei 1.000 MHz wären aber noch besser und IMO gar nicht so weltfremd. Wenn es denn ginge ...

MfG,
Raff

Woklbokl
2015-05-15, 21:49:45
Mittlerweile bin ich bei konstanten 962 Millivolt unter Last. Die Spannungsregler im Maxwell BIOS Tweaker scheinen "hier unten" aber keine Relevanz mehr zu haben, anscheinend ergibt sich die Spannung automatisch dadurch, dass ich alle Taktraten auf 797 (!) MHz gesenkt habe. Per Offset lässt sich die Kiste rockstable zu 1.100/4.001 MHz überreden, eventuell sogar 1.150 MHz; bei 1.200 schmiert sie aber schnell ab. Das Powertarget wird hierbei zu schlimmstenfalls 80 Prozent ausgenutzt, was ziemlich genau 200 Watt entspricht. Gefällt mir! 900 mV bei 1.000 MHz wären aber noch besser und IMO gar nicht so weltfremd. Wenn es denn ginge ...

MfG,
Raff

Leider ist unser Freund aus der Schweiz momentan nicht erreichbar, einen funktionierenden Prototypen gibt es aber schon.

Raff
2015-05-15, 21:53:15
Mit den gleichen Features wie bei den Classics? :eek: Großes Interesse! =)

MfG,
Raff

Arcanoxer
2015-05-15, 21:54:22
:love3:

Woklbokl
2015-05-15, 22:27:43
Mit den gleichen Features wie bei den Classics? :eek: Großes Interesse! =)

MfG,
Raff

Musst du leider warten bis es ein Lebenszeichen von ihm gibt.

Geächteter
2015-05-15, 23:27:34
Mittlerweile bin ich bei konstanten 962 Millivolt unter Last. Die Spannungsregler im Maxwell BIOS Tweaker scheinen "hier unten" aber keine Relevanz mehr zu haben, anscheinend ergibt sich die Spannung automatisch dadurch, dass ich alle Taktraten auf 797 (!) MHz gesenkt habe.

Dann TDP Base Clock, 3D Base Clock und Boost Clock zusammen auf 797 Mhz abgesenkt? Unter 797 Mhz tut sich dann nix mehr?


900 mV bei 1.000 MHz wären aber noch besser und IMO gar nicht so weltfremd. Wenn es denn ginge ...

Naja, ob die 62 Millivolt weniger noch einen nennenswerten Unterschied im Verbrauch nach unten ergeben würden, dürfte fraglich sein. Momentan dürftest du mit einen Einstellungen ganz nah am "Sweetspot" liegen.

F5.Nuh
2015-05-16, 01:45:45
Echt jetzt? Ist alles ne Einstellungssache.
Gras auf Hoch anstatt Ultra
Nachbearbeitung auf Hoch anstatt Ultra
Und schon hat man in der Pampa 45+ und in der Stadt bis 90 FPS.
Dann ruckelt auch nix mehr.

http://abload.de/thumb/gta5_2015_05_14_10_48tojpc.jpg (http://abload.de/image.php?img=gta5_2015_05_14_10_48tojpc.jpg) http://abload.de/thumb/gta5_2015_05_14_10_49g7j3u.jpg (http://abload.de/image.php?img=gta5_2015_05_14_10_49g7j3u.jpg) http://abload.de/thumb/gta5_2015_05_14_10_50uyj2x.jpg (http://abload.de/image.php?img=gta5_2015_05_14_10_50uyj2x.jpg)

Passt nicht ganz in den Thread aber was für ein Programm ist das oben rechts? Finde es recht super :)

-=Popeye=-
2015-05-16, 01:48:28
MSI Afterburner

Grestorn
2015-05-16, 10:23:03
*Um Stunden zu spät... Note to self: Thread bis zu ende lesen vor Antwort schreiben :) *

Raff
2015-05-16, 10:52:33
Musst du leider warten bis es ein Lebenszeichen von ihm gibt.

Hmpf, na gut. :D

Dann TDP Base Clock, 3D Base Clock und Boost Clock zusammen auf 797 Mhz abgesenkt? Unter 797 Mhz tut sich dann nix mehr?

Genau, ich habe alle Frequenzen auf 797 MHz gleichgesetzt. Im Voltage Table stehen die ersten paar Werte auf 800 mV, aber das wird ignoriert. Noch weiter runter bin ich nicht, aber das steht für jetzt auf der Agenda.

Naja, ob die 62 Millivolt weniger noch einen nennenswerten Unterschied im Verbrauch nach unten ergeben würden, dürfte fraglich sein. Momentan dürftest du mit einen Einstellungen ganz nah am "Sweetspot" liegen.

Jo, das definitiv. Aber mit 900 mV würde die Kiste erstmals dauerhaft unter 200 Watt landen, was rein psychologisch wertvoll ist. :biggrin: Sie hat gestern Abend übrigens gute zwei Stunden Wolfenstein: The Old Blood mit 1.100/4.001 MHz und 962 mV überlebt, ohne mit der Wimper zu zucken.

MfG,
Raff

Geächteter
2015-05-16, 13:08:48
Genau, ich habe alle Frequenzen auf 797 MHz gleichgesetzt. Im Voltage Table stehen die ersten paar Werte auf 800 mV, aber das wird ignoriert. Noch weiter runter bin ich nicht, aber das steht für jetzt auf der Agenda.

Musstest du auch an den Clock- und Boost-States "rumfummeln"?

Raff
2015-05-16, 13:20:37
Ja, ich habe alles bei P8 und P5 synchronisiert (jeweils die "Max"-Werte). Ob das notwendig ist, kann ich aber nicht sagen – ich hab's gemacht, damit die Kiste nicht doch irgendeine Domäne zu hoch taktet und dann ins Gras beißt.

Übrigens: Mission accomplished, ich bin nun bei 906 Millivolt. :biggrin: Damit packt die Kiste per Offset 1.000/4.001 MHz haarscharf stabil. Mit 645 MHz im BIOS (:ugly: ), resultierend in 893 Millivolt unter Last, ist mir WoW maxed abgeschmiert. Weniger geht also nicht, aber die Energieeffizienz ist schon ekelerregend hoch. Dagegen sieht auch der MDPS nicht mehr gut aus, zumal's damit viel langsamer wird.

MfG,
Raff

Geächteter
2015-05-16, 14:25:58
Übrigens: Mission accomplished, ich bin nun bei 906 Millivolt. :biggrin: Damit packt die Kiste per Offset 1.000/4.001 MHz haarscharf stabil. Mit 645 MHz im BIOS (:ugly: ), resultierend in 893 Millivolt unter Last, ist mir WoW maxed abgeschmiert. Weniger geht also nicht, aber die Energieeffizienz ist schon ekelerregend hoch. Dagegen sieht auch der MDPS nicht mehr gut aus, zumal's damit viel langsamer wird.

(y)

Was meinst du mit MDPS, der erzwingt doch den P8-Modus? Oder hat die Titan X soviel Power, dass manche neuere Games auch im Leerlauf gehen? :freak:
Oder hast du den Idle auf die maximal möglichen Werte hochgejagt?

Edit: Gerade mal mit meiner 960er auch mit 645 Mhz ausprobiert; kein Erfolg, Spannung geht nicht niedriger als 1 Volt und das auch nur bei über 66 °C, ansonsten bis ca. 45 °C 1012 mV, dann 1006 mV. Liegt wohl am Voltage Controller.

4Fighting
2015-05-17, 09:49:23
prügelt ihr eure karte mit 1,27V? Ich bin immer noch am Ausloten was meine Titan X kann, aber bei GTA 5 bin ich derweil bei 1,218V und 1441mhz angelangt...

Raff
2015-05-17, 10:58:27
(y)

Was meinst du mit MDPS, der erzwingt doch den P8-Modus? Oder hat die Titan X soviel Power, dass manche neuere Games auch im Leerlauf gehen? :freak:
Oder hast du den Idle auf die maximal möglichen Werte hochgejagt?

Ja, der MDPS forciert den P8. Aber 3.072 ALUs @ 405 MHz sind für die meisten Spiele völlig ausreichend – entspricht etwa (d)einer GTX 960 @ 1.200 MHz. :biggrin:

Edit: Gerade mal mit meiner 960er auch mit 645 Mhz ausprobiert; kein Erfolg, Spannung geht nicht niedriger als 1 Volt und das auch nur bei über 66 °C, ansonsten bis ca. 45 °C 1012 mV, dann 1006 mV. Liegt wohl am Voltage Controller.

Schade, dass der Trick dort nicht auch klappt. Oder das Herabsetzen der Spannungen hat doch einen Einfluss, nur eben keinen direkten. Hast du die Spannungen denn mitgesenkt (weit unter 1 Volt)?

prügelt ihr eure karte mit 1,27V? Ich bin immer noch am Ausloten was meine Titan X kann, aber bei GTA 5 bin ich derweil bei 1,218V und 1441mhz angelangt...

Siehe die letzten zehn Postings. Daher: jein. ;) 1.441 MHz bei 1,218 Volt klingt schon mal sehr gut, dann sind 1.400 MHz bei ~1,2 Volt stabil. Für 1.500 brauchst du dann wohl auch 1,25+.

MfG,
Raff

Geächteter
2015-05-17, 12:32:50
Ja, der MDPS forciert den P8. Aber 3.072 ALUs @ 405 MHz sind für die meisten Spiele völlig ausreichend – entspricht etwa (d)einer GTX 960 @ 1.200 MHz. :biggrin:

Aber den Speicher bekommst du doch im P8/P5 Modus auch nicht annähernd hochgetaktet?
Bei meiner 960 ist ca. bei 1000 Mhz Schluss, 1100 Mhz gibt schon schwere Bildfehler in manchen Spielen. Der Spannung des Speichers wird da anscheinend signifikant reduziert.
Aber hey, so lahm ist die GTX 960 in der overall performance doch gar nicht, meistens ist die Titan X doch "nur" ca. 2,2 Mal schneller, manchmal sogar deutlich weniger (Project Cars), wenn man den Benchs glauben kann. :redface:


Schade, dass der Trick dort nicht auch klappt. Oder das Herabsetzen der Spannungen hat doch einen Einfluss, nur eben keinen direkten. Hast du die Spannungen denn mitgesenkt (weit unter 1 Volt)?

An den oberen Spannungsreglern habe ich jetzt nix verändert, weder an den Max- noch Min-Werten. Aber 645 Mhz müsste CLK 15 sein, was bei mir mit 731,3 mV - 831,3 mV hinterlegt ist.
Das Einzige, was ich mal gemacht hatte, waren alle Spannungen an den Clock States ca. um 65 mV zu senken. Aber das Einzige, was das gebracht hat, war dass die Karte die Maximalspannung dementsprechend reduziert hat und nicht mehr in CLK 74 taktet. Dazu muss man jetzt wieder die Spannung durch einen Offset im Precision-Tool manuell erhöhen, dann taktet sie auch wieder maximal. Weiß der Geier, wie die reguliert.
Hat deine Karte eigentlich schon vorher weniger Spannung als 1 Volt genommen, wenn du sie mit Furmark und dem niedrigsten Power Target in die niedrigsten CLK-States gezwungen hast?

HisN
2015-05-17, 12:33:48
prügelt ihr eure karte mit 1,27V?

Zum Benchen: Ja
24/7: Nein

Für die von mir angelegten 1.4Ghz reicht deutlich weniger Spannung (<1.2v), und die letzten 50-100Mhz machen den Kohl nicht fett bzw. brauchen für mein Gefühl zu viel Spannung.

phoenix887
2015-05-17, 15:02:15
Habe zwar nur eine GTX980, aber ja, lasse sie 24/7 mit 1.27V laufen. Wenn ich nicht frei habe läuft sie wennüberhaupt mal 1-2h unter Volllast. Denke das kann die Karte abhaben.

robbitop
2015-05-17, 15:11:39
Ich lasse sie auch auf 1,27V laufen. In GTA5 sind 1435 MHz stabil - in allen anderen Spielen auch 1485 MHz.

Wozu auch nicht? Dank Wakü ist es eh kühl und flüsterleise. Und belastet wird die Karte eh nur beim Spielen. Im Desktop läuft sie mit niedlichen 135 MHz. Was solls?

Interessant ist es schon bei einem ASIC den Sweetspot auszuloten. Aber gerade bei der Grafikkarte hat man doch die limitierende Komponente was Performance angeht. Gerade wer auf BQ steht, will ungern Leistung liegen lassen.

Mit 1000 MHz lässt man fast 50 % Leistung (gutes OC) liegen. Als BQ Fetischist ein No-Go. Egal ob die Karte dann 100 W mehr braucht. Was solls?

akuji13
2015-05-17, 15:48:24
prügelt ihr eure karte mit 1,27V? Ich bin immer noch am Ausloten was meine Titan X kann, aber bei GTA 5 bin ich derweil bei 1,218V und 1441mhz angelangt...

Nö.

Hab aktuell nicht mal was am Bios gemacht und spiele zumindest GTA V (Takt)stabil mit 1400Mhz bei 1.168V.

4Fighting
2015-05-17, 16:28:52
Meine Titan X ist ein echter Hitzkopf (oder kann es daran liegen, dass diesmal die VRMs auch voll unter dem Kühler liegen?)

5°C wärmer gegenüber meiner bisherigen Black. Daher wollte ich noch nicht direkt mit 1,27V geben...

HisN
2015-05-17, 18:07:02
Meine ist gute 10° kühler als die Black vorher. Und das bei höherem Takt und gleicher Spannung.
Allerdings ist es auch noch nicht richtig warm. Das ändert sich sobald ich 10° mehr im Zimmer habe.

OC_Burner
2015-05-17, 19:01:39
Sagt mal, steigt bei euch auch der DVI/HDMI Port aus wenn die Karte zu warm wird? Durch absenken der Spannung bei OC habe ich heute zufällig bemerkt, dass durch die niedrigere Temperatur der Chip stabiler läuft und das schwarz werden des Bildschirms (Signal Lost) sich stark mindert. Sobald ca. 45°C erreicht werden, kommt es alle paar Minuten zu Bildaussetzern. Das Phänomen tritt nur bei OC ab ca. 1400Mhz auf. Die Displayporteingänge sind nicht betroffen. Am Displayport hängt zurzeit mein Primärdisplay auf dem gezockt wird und am HDMI-Ausgang sitzt das sekundäre Display auf dem sich der erweiterte Windowsdesktop befindet.

Durch die Bildaussetzer bekam der Chip von mir unnötigerweise zuviel Spannung, da ja der Gedanke nahe liegt, Fehler mit mehr Spannung zu bekämpfen.

1450Mhz bei 1.193V sind scheinbar gamestable und nach Abzug eines 50Mhz Puffers läuft die Karte weiterhin mit 1400Mhz aber bei 1.193V anstatt der hohen 1.243V. Beim spielen erreiche ich so eine Temp. von ca. 43°C. Aber trotzdem, da fehlt nicht viel bis 45°C und im Sommer könnte das eng werden:(

Wer kann ähnliches mit dem HDMI/DVI-Port reproduzieren?

Sagt mal, könnt ihr beim Inspector den "Multi Display Power Saver" nutzen (rechte Maustaste auf den Button "Show Overclocking")?

Sobald ich den aktiviere, verlieren alle Monitore ihr Bild.

Auch schon bei meinen 980s konnte ich das nicht aktivieren, da hab ich das aber aufs SLI geschoben.

Ich würde gerne drei Monitore nutzen ohne dass ich unnötig Energie verbrate. Das scheint ootB aber wohl nicht zu gehen...

Ich bin mir ziemlich sicher das dies am Takt der Videoclockdomain liegt, die man mit dem Maxwell Bios Tweaker übrigens ganz easy ändern kann. P0 und P2 laufen mit 540Mhz wohingegen P5 und P8 nur mit 405Mhz laufen. Das Phänomen ist mir noch vom klassichen Downsampling bekannt. Das Gleichsetzen auf 540Mhz für alle P-States stellt kein Problem dar, sogar das Anheben auf 1080Mhz geht ohne Probleme.


@Thema Classic Downsampling

Das anheben der Videoclockdomain auf 1080Mhz bringt komischerweise überhaupt keinen Vorteil mehr beim klassischen Downsampling. Mit Kepler und Fermi gingen auf diesem Wege höhere Refreshraten sowie Auflösungen und nun bei Maxwell nicht mehr.:confused:

Aber Maxwell II hat immer noch leicht bessere Classic-Downsamplingeigenschaften (bei nur 540Mhz Videoclockdomain) als ein GK110 Board mit Biosmod und 1080Mhz Videoclockdomain. Für Downsampling mit 4K Bildschirm bei 60hz wird es trotzdem verdammt eng.

derguru
2015-05-17, 21:30:25
ich glaub ich habe endlich mal ein guten erwicht, ~1400 /2000 (1.143V) mit der defaultspannung ist schon ganz nett, gibt es eine alternative zum wakü-kühler?

Raff
2015-05-17, 23:38:24
ich glaub ich habe endlich mal ein guten erwicht, ~1400 /2000 (1.143V) mit der defaultspannung ist schon ganz nett, gibt es eine alternative zum wakü-kühler?

Na ein Accelero. Welche ASIC-Quality hat deine GPU?

MfG,
Raff

derguru
2015-05-17, 23:39:24
79.5
hust 79.8^^

Raff
2015-05-17, 23:49:49
Das ist schon überdurchschnittlich gut. Und du nimmst den Referenzkühler? Der ist über 60 % IMO unerträglich.

Sagt mal, steigt bei euch auch der DVI/HDMI Port aus wenn die Karte zu warm wird? Durch absenken der Spannung bei OC habe ich heute zufällig bemerkt, dass durch die niedrigere Temperatur der Chip stabiler läuft und das schwarz werden des Bildschirms (Signal Lost) sich stark mindert. Sobald ca. 45°C erreicht werden, kommt es alle paar Minuten zu Bildaussetzern. Das Phänomen tritt nur bei OC ab ca. 1400Mhz auf. Die Displayporteingänge sind nicht betroffen. Am Displayport hängt zurzeit mein Primärdisplay auf dem gezockt wird und am HDMI-Ausgang sitzt das sekundäre Display auf dem sich der erweiterte Windowsdesktop befindet.

Durch die Bildaussetzer bekam der Chip von mir unnötigerweise zuviel Spannung, da ja der Gedanke nahe liegt, Fehler mit mehr Spannung zu bekämpfen.

1450Mhz bei 1.193V sind scheinbar gamestable und nach Abzug eines 50Mhz Puffers läuft die Karte weiterhin mit 1400Mhz aber bei 1.193V anstatt der hohen 1.243V. Beim spielen erreiche ich so eine Temp. von ca. 43°C. Aber trotzdem, da fehlt nicht viel bis 45°C und im Sommer könnte das eng werden:(

Wer kann ähnliches mit dem HDMI/DVI-Port reproduzieren?

Nope. Klingt eigenartig, fast nach einem Defekt. Ich hatte aber ein ähnliches Verhalten mit einer 290X Lightning, die hatte mit krankem Overvolting @ 1.250 MHz mit Bildausfällen zu kämpfen.

MfG,
Raff

derguru
2015-05-17, 23:56:32
ist doch bei mir nicht im selben raum, von daher ist die lautstärke egal. muss mal schauen ob sich das lohnt ein kühler drauf zuschnallen, erstmal die grenzen erreichen und dann mal sehen.

Raff
2015-05-17, 23:59:15
Mit 100 Prozent habe ich das Ding sogar durch zwei Türen brüllen gehört. Und damit bekommt man 400 Watt auch nur gerade so weg (nahe der 80-Grad-Marke). :ulol: Aber eines muss man dem DHE-Design lassen: Es hilft wirklich, den Gehäuse-Innenraum kühl zu lassen – meine Titan Classic mit Accelero heizt da drinnen sogar mit 0,96 Volt mehr!

MfG,
Raff

derguru
2015-05-18, 00:05:17
ich habe bisher nur auf auto gelassen und mehr als 66% habe ich noch nicht gesehen, morgen mal mit witcher 3 ne längere zocksession machen und schauen wie hoch der lüfter geht und nein, bei 66% höre ich bisher den lüfter nicht aus dem kabuff raus.:tongue:

Raff
2015-05-18, 00:08:56
Für Witcher 3 wirst du die Spannung wohl leicht erhöhen müssen. :D

MfG,
Raff

robbitop
2015-05-18, 09:27:37
Sagt mal, steigt bei euch auch der DVI/HDMI Port aus wenn die Karte zu warm wird? Durch absenken der Spannung bei OC habe ich heute zufällig bemerkt, dass durch die niedrigere Temperatur der Chip stabiler läuft und das schwarz werden des Bildschirms (Signal Lost) sich stark mindert. Sobald ca. 45°C erreicht werden, kommt es alle paar Minuten zu Bildaussetzern. Das Phänomen tritt nur bei OC ab ca. 1400Mhz auf. Die Displayporteingänge sind nicht betroffen. Am Displayport hängt zurzeit mein Primärdisplay auf dem gezockt wird und am HDMI-Ausgang sitzt das sekundäre Display auf dem sich der erweiterte Windowsdesktop befindet.

Durch die Bildaussetzer bekam der Chip von mir unnötigerweise zuviel Spannung, da ja der Gedanke nahe liegt, Fehler mit mehr Spannung zu bekämpfen.

1450Mhz bei 1.193V sind scheinbar gamestable und nach Abzug eines 50Mhz Puffers läuft die Karte weiterhin mit 1400Mhz aber bei 1.193V anstatt der hohen 1.243V. Beim spielen erreiche ich so eine Temp. von ca. 43°C. Aber trotzdem, da fehlt nicht viel bis 45°C und im Sommer könnte das eng werden:(

Wer kann ähnliches mit dem HDMI/DVI-Port reproduzieren?



Seit ich die TX habe, hat mein ROG SWIFT hin und wieder auf dem Displayport (er sitzt in Port Nr. 2) Aussetzer. Aber nur in Spielen (derzeit spiele ich nur GTA5/Online). Oft ist es sogar so, wenn er denn wieder kommt, dass das Bild total merkwürdig Pixelig wird. Als wenn ich 800x600 fahre. Die Auflösung kann ich einstellen wie ich will. Sobald ich wenn das passiert GTA5 verlasse, freezt das System bzw beide Monitore sind schwarz.

Ähnlich aber anders... GTA ist schon heftig was die GPU angeht.

Grestorn
2015-05-18, 09:53:14
Hm. Ich hab ja auch die Kombination TX und Swift. Diese Probleme habe ich bisher nicht. Nur dass in ganz seltenen Fällen nach dem Einschalten kein Bild kommt, dann aber auf keinem der Monitore.

robbitop
2015-05-18, 10:05:44
Hast du den Swift auch in DP Port Nr 2? Ggf. ist meine TX ja auch gegen das OC etwas allergisch. Da ist GTA aber wirklich überpenibel.

Grestorn
2015-05-18, 10:10:26
Der Swift zeigt beim Booten das BIOS an, wird im Windows aber als Display 2 geführt. Was mich übrigens stört, ich hätte ihn lieber als Display 1, aber wie gesagt, aus irgendeinem Grund besteht die TX darauf, das BIOS auf dem Monitor anzuzeigen, der dann in Windows als 2. Display enumeriert wird.

Wenn ich noch ein Monitor am DVI anschließe, wird letztlich dieser zum BIOS anzeigen herangezogen, was noch blöder ist für mich.

Echt sch... dass das bei nVidia so doof ist. Wenn ich mich recht erinnere, zeigen AMD Karten das BIOS auf allen Ports parallel an. So sollte es auch bei nVidia sein.

robbitop
2015-05-18, 11:13:49
Also mir ist es völlig egal wo das BIOS angezeigt wird. :) (bei mir ist es auf dem Swift - der BenQ auf DP Port 1 bleibt dunkel)

HisN
2015-05-18, 12:15:54
Der Swift zeigt beim Booten das BIOS an, wird im Windows aber als Display 2 geführt. Was mich übrigens stört, ich hätte ihn lieber als Display 1, aber wie gesagt, aus irgendeinem Grund besteht die TX darauf, das BIOS auf dem Monitor anzuzeigen, der dann in Windows als 2. Display enumeriert wird.

Wenn ich noch ein Monitor am DVI anschließe, wird letztlich dieser zum BIOS anzeigen herangezogen, was noch blöder ist für mich.


Liegt am Secure-Boot und CMS.

Ist nur Secure-Boot an, dann bekommt das DP-Kabel den Bios-Post.
Ist Secure-Boot an, und CMS an, dann bekommt das DVI-Kabel den Bios-Post.
Ist Secure-Boot abgeschaltet, dann zeigen alle angeschlossenen Displays den Bios-Post.

Ist jedenfalls bei mir so^^

Godmode
2015-05-18, 22:32:32
Seit ich die TX habe, hat mein ROG SWIFT hin und wieder auf dem Displayport (er sitzt in Port Nr. 2) Aussetzer. Aber nur in Spielen (derzeit spiele ich nur GTA5/Online). Oft ist es sogar so, wenn er denn wieder kommt, dass das Bild total merkwürdig Pixelig wird. Als wenn ich 800x600 fahre. Die Auflösung kann ich einstellen wie ich will. Sobald ich wenn das passiert GTA5 verlasse, freezt das System bzw beide Monitore sind schwarz.

Ähnlich aber anders... GTA ist schon heftig was die GPU angeht.

Ich hatte mit dem Rog Swift nur mehr Probleme, daher verwende ich ihn nicht mehr. Eventuell verkaufe ich ihn, weil er für mich mit SLI einfach nutzlos ist, ohne DSR.

@GTA: Mein TX SLI wird eigentlich nicht wirklich voll ausgelastet, das schaffe ich nur mit MSAA, was ich in 4K aber nicht benutze, da reicht mit FXAA.

robbitop
2015-05-19, 08:50:35
Ich meine nicht die Auslastung oder die TDP Auslastung. Es ist einfach super pingelig was OC angeht. Das wird massiv früher mit einem Fehler oder Crash quittiert als alle anderen Spiele, die ich kenne. Auch Spiele die mal eben 150 % über das TDP hinausschießen (Cities Skylines mit dynamic resolution mod).

Mein Swift macht für sich gesehen eigentlich keine Probleme. Ich habe den jetzt an DP Port 1 gesteckt und beobachte das mal. Noch habe ich keine Aussetzer gesehen. Bin immernoch extremst zufrieden.

Mit SLI ohne DSR wäre ich aber auch angepisst. Du brauchst nen 4K Monitor mit SLI. ;)

akuji13
2015-05-19, 08:54:36
Ich meine nicht die Auslastung oder die TDP Auslastung. Es ist einfach super pingelig was OC angeht. Das wird massiv früher mit einem Fehler oder Crash quittiert als alle anderen Spiele, die ich kenne.

Das kann ich was mein Spiele-Portfolio angeht bestätigen, konnte bislang nix finden was die Mhz mehr droppt oder zum Ausstieg führt.

Ist ein sehr angenehmer und sinnvoll nutzbarer Stabilitätstest. =)

robbitop
2015-05-19, 08:59:11
Hab meine Temperaturen jetzt übrigens massiv verbessert. Staubfilter rausgenommen und zack ging die Wassertemp um 8°C runter. Somit auch CPU und GPU Temp. (45°C GPU Temperatur in GTA5 nach 2 h bei voll aufgedrehter VCore und 52°C CPU -> Haswell Hitzkopf - 26°C Wasser)

Saubfilter saugen...:D(bzw nicht)

akuji13
2015-05-19, 09:06:21
Staubfilter habe ich keine an den Radi-Lüftern, gehen eh alle raus.

Ich werde aber nochmal alles umbauen, weil ich aktuell 5 Schnellverbinder von Phobya drin habe die den Durchfluß arg bremsen.

So ist das wenn man ein bestehendes Konzept nicht sinnvoll erweitert anstatt gleich nochmal alles richtig zu machen. :rolleyes:

Hinterher sinds dann noch 3 von Koolance und 1 Radiator weniger, dann dürfte das auch anders aussehen und ich kann die Pumpe wieder von Stufe 4 auf 2 runterdrehen.

Hübie
2015-05-19, 09:58:25
Scheiße die X für 990€ und The Witcher 3... Haltet mich auf! Ich will unbedingt auf Fiji warten.

robbitop
2015-05-19, 10:01:35
Titan X + Wasser und ab gehts. Das sag ich aber schon seit April. :D

Hübie
2015-05-19, 10:08:11
Mowl :biggrin: Aufhalten sollt ihr mich.

robbitop
2015-05-19, 10:10:24
Mowl :biggrin: Aufhalten sollt ihr mich.
http://fudzilla.com/news/graphics/37790-amd-fiji-aims-at-849-retail-price

Wenn du nach dem Lesen immer noch auf Fijii warten willst... :D

4 GiB - ich hoffe, dass sich das nicht bewahrheitet...

Grestorn
2015-05-19, 10:18:21
Alles auf Ultra (bis auf Foliage), Hairworks an, Schatten voll über die .ini optimiert wie auf der nVidia Seite vorgeschlagen.

Trotzdem Frameraten zwischen 50 und 70 fps. Mit einer Titan X (OC).

Das Spiel braucht allerdings kaum Speicher. Ich bin noch nicht über 3 GB VRAM Auslastung gekommen. Trotz manueller Erweiterung des Textur-Speichers in der .ini
Da langt auch locker ne 980Ti, sollte sie denn endlich erhältlich sein.

robbitop
2015-05-19, 10:22:49
Sprichst du von Witcher 3? :)

Ich finde die ini Tweaks von NV sinnlos. Die fressen offenbar richtig fies Performance (zumindest Bäume und Foilage) und in den Vergleichsbildern sieht es jetzt nicht viel anders aus. IMO ineffizient für ein kleines bisschen so viel Leistung zu opfern. Dann die Leistung lieber in DSR oder so stecken.

Grestorn
2015-05-19, 10:30:58
Ja, W3 natürlich :) Wollte Hübie teasen :)

Die Schattenoptimierung bringt schon was und kostet nur sehr moderat. Ich mag keine zackigen aliasenden Schatten. Das sieht man in Bewegung, nicht so sehr auf den Vergleichbildern.

Die Gras- und Foilage Optimierungen lass ich weg, die kostet viel zu viel. Ich hab Foilage auch nur auf High.

mironicus
2015-05-19, 10:36:14
Scheiße die X für 990€ und The Witcher 3... Haltet mich auf! Ich will unbedingt auf Fiji warten.

Hol dir eine Titan X von Amazon. Innerhalb der nächsten 30 Tage sollte es mehr Infos zu Fiji geben...

http://www.amazon.de/gp/offer-listing/B00UXOGCP0/ref=olp_tab_used?ie=UTF8&condition=used

Ph0b0ss
2015-05-19, 11:27:42
Wie regelt eigentlich Nvidia die Vgpu bei der Titan X? Also wenn man z.B. 1,20V vorgibt, was liegt dann real im Idle und unter Vollast an? Zeigen die Tools wie GPU-Z da Schwankungen an bzw. hat mal jemand mit nem Multimeter gemessen was real anliegt?

Die Frage stellt sich mir, da AMD bei der R9 290X ja mit Voffset und Vdroop arbeitet, ähnlich wie die Intel CPUs. Bei meiner 290 liegen z.B. bei eingestellten 1,35V Vgpu im Idle 1,32V an und unter richtig harter Last geht es dann bis ~1,2V runter!

akuji13
2015-05-19, 11:32:07
Ich finde die ini Tweaks von NV sinnlos. Die fressen offenbar richtig fies Performance (zumindest Bäume und Foilage) und in den Vergleichsbildern sieht es jetzt nicht viel anders aus.

Die GrasDistanceScale werde ich sicher auf 3 erhöhen, da sieht mMn ähnlich besser aus wie die ugrids in Skyrim.

http://international.download.nvidia.com/geforce-com/international/comparisons/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-grassdistancescale-config-file-tweak-interactive-comparison-1-3-vs-1-5.html

Und der hit ist vergleichsweise niedrig.

HisN
2015-05-19, 11:52:42
Das Spiel braucht allerdings kaum Speicher. Ich bin noch nicht über 3 GB VRAM Auslastung gekommen. Trotz manueller Erweiterung des Textur-Speichers in der .ini
Ich hab auch ohne das schon 3.7GB gesehen. Bin allerdings auch in 4K unterwegs.
Auf Hairworks werde ich dann doch verzichten.

http://abload.de/thumb/witcher3_2015_05_19_0vdpjv.jpg (http://abload.de/image.php?img=witcher3_2015_05_19_0vdpjv.jpg)

Godmode
2015-05-19, 18:05:53
Scheiße die X für 990€ und The Witcher 3... Haltet mich auf! Ich will unbedingt auf Fiji warten.

TW3 kannst du auch in 1-2 Monaten noch spielen. Ich hab momentan auch keine Zeit dafür, weil ich GTA V erstmal spielen wollte. Wenn das Geld locker sitzt, dann kauf dir ne Titan X, wenn nicht, warte noch auf Fiji und die 980 Ti.

Raff
2015-05-19, 18:31:11
Mowl :biggrin: Aufhalten sollt ihr mich.

Okay. Warte noch ein paar Wochen und überlege dann.

MfG,
Raff

derguru
2015-05-19, 18:38:02
Ich hab auch ohne das schon 3.7GB gesehen. Bin allerdings auch in 4K unterwegs.
Auf Hairworks werde ich dann doch verzichten.

http://abload.de/thumb/witcher3_2015_05_19_0vdpjv.jpg (http://abload.de/image.php?img=witcher3_2015_05_19_0vdpjv.jpg)
bin auch mit 4k unterwegs aber das ist schon ziemlich zäh, gibt es eine option die nicht direkt ins auge knallt aber ein performancschub ermöglicht außer von 4k runter zu gehen?

Godmode
2015-05-19, 19:03:33
Mit SLI ohne DSR wäre ich aber auch angepisst. Du brauchst nen 4K Monitor mit SLI. ;)

Den hab ich ja mittlerweile sogar und damit brauche ich auch kein DSR mehr.

Godmode
2015-05-19, 19:05:07
Mit SLI ohne DSR wäre ich aber auch angepisst. Du brauchst nen 4K Monitor mit SLI. ;)

Den hab ich ja mittlerweile sogar und damit brauche ich auch kein DSR mehr.

bin auch mit 4k unterwegs aber das ist schon ziemlich zäh, gibt es eine option die nicht direkt ins auge knallt aber ein performancschub ermöglicht außer von 4k runter zu gehen?

Schau mal hier vorbei:

http://www.geforce.com/whats-new/guides/the-witcher-3-wild-hunt-graphics-performance-and-tweaking-guide

Diese Guides finde ich immer recht nützlich. Da werden sogar Ini Tweaks beschrieben.

derguru
2015-05-19, 19:14:02
thx (y)

Blaire
2015-05-19, 19:26:26
Wer bereits eine oder mehrere Geforce GTX TitanX (http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan-x) sein Eigen nennt und Interesse an The Witcher 3 (http://www.geforce.com/games-applications/pc-games/the-witcher-3-wild-hunt) hat, sollte heute einen Blick auf die neueste GeForce Experience Version v2.4.3.31 (http://us.download.nvidia.com/GFE/GFEClient/2.4.3.31/GeForce_Experience_v2.4.3.31.exe) riskieren und Acht geben auf eine neue Funktion, ein kleines Symbol rechts oben im GFE-Client. Das Angebot gilt bis zum 19.6.2015 und nur solange der Vorrat reicht. :)

http://www.geforce.com/titan-x-geforce-experience-beta
http://www.geforce.com/titan-x-geforce-experience-beta/code-instructions
http://www.geforce.com/TITANXGFEBETA

Rente
2015-05-19, 19:29:37
Na toll, da sind die Nutzer von Windows 10 wohl ausgeschlossen (Version 2.4.4.24)... :D

Blaire
2015-05-19, 19:39:16
Na toll, da sind die Nutzer von Windows 10 wohl ausgeschlossen (Version 2.4.4.24)... :D

Du solltest schon die GFE v2.4.3.31 installieren, die neueren Beta Versionen haben diese Funktion noch nicht implementiert, du kannst die Previous-GFE Version aber jederzeit vorher deinstallieren.

Godmode
2015-05-19, 20:29:24
Wer bereits eine oder mehrere Geforce GTX TitanX (http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan-x) sein Eigen nennt und Interesse an The Witcher 3 (http://www.geforce.com/games-applications/pc-games/the-witcher-3-wild-hunt) hat, sollte heute einen Blick auf die neueste GeForce Experience Version v2.4.3.31 (http://us.download.nvidia.com/GFE/GFEClient/2.4.3.31/GeForce_Experience_v2.4.3.31.exe) riskieren und Acht geben auf eine neue Funktion, ein kleines Symbol rechts oben im GFE-Client. Das Angebot gilt bis zum 19.6.2015 und nur solange der Vorrat reicht. :)

http://www.geforce.com/titan-x-geforce-experience-beta
http://www.geforce.com/titan-x-geforce-experience-beta/code-instructions
http://www.geforce.com/TITANXGFEBETA

Coole Sache, hab so eben einen Key erhalten. Danke für den Tipp!:biggrin:

boxleitnerb
2015-05-19, 20:33:22
Danke :)

Lu
2015-05-19, 20:34:44
Danke Blaire, da haben sich die ganzen Beschwerden ja gelohnt :biggrin:
Den Code bekommt gleich mal ein Kumpel, arme Studenten ;D

robbitop
2015-05-20, 08:15:46
Dekadenz wird belohnt! :D Nice!
Verdammt NVs Gehirnwäsche wirkt - ich fühle, dass ich die nächste Titan wieder kaufen werde. Musss...wider...stehen... :D :D

Was solls - ich hätte mir W3 sowieso gekauft. Aber nice ist es trotzdem. (und nein ich kaufe immer das Schnellste - egal von wem)

akuji13
2015-05-20, 08:54:59
3 Stunden Witcher 3 am Stück ohne Probleme oder Mhz-drops werte ich mal als stabil. =)

Hübie
2015-05-20, 10:09:52
Okay. Warte noch ein paar Wochen und überlege dann.

MfG,
Raff

Das ist der Plan, aber hast du eine Vorstellung davon wie schwierig es ist? :freak:

Raff
2015-05-20, 10:20:27
Ja, jeden Tag. :ugly:

MfG,
Raff

Grestorn
2015-05-20, 10:38:55
Jetzt wo ich mein Wunsch-System so zusammengestellt habe, wie ich es mir schon seit Jahren vorgestellt hatte - und die Umsetzung immer wieder aufgeschoben hatte, wegen Geld, wegen "neue Generation X kommt bald" usw... muss ich sagen:

Schade. Nichts mehr, wovon man träumen kann. Alles toll uns so, aber die Planung, das Träumen und die Vorfreude ist und bleibt ungeschlagen. Selbst wenn man wie ich bald an die 50 geht :)

Godmode
2015-05-20, 11:30:10
Jetzt wo ich mein Wunsch-System so zusammengestellt habe, wie ich es mir schon seit Jahren vorgestellt hatte - und die Umsetzung immer wieder aufgeschoben hatte, wegen Geld, wegen "neue Generation X kommt bald" usw... muss ich sagen:

Schade. Nichts mehr, wovon man träumen kann. Alles toll uns so, aber die Planung, das Träumen und die Vorfreude ist und bleibt ungeschlagen. Selbst wenn man wie ich bald an die 50 geht :)

Du kannst ja jedes Jahr auf die neue schnellste GPU und CPU aufrüsten.

akuji13
2015-05-20, 12:01:52
Schade. Nichts mehr, wovon man träumen kann. Alles toll uns so, aber die Planung, das Träumen und die Vorfreude ist und bleibt ungeschlagen. Selbst wenn man wie ich bald an die 50 geht :)

Wie gut das ich immer Punkte habe bei den Rechnern die mir nicht gefallen. =)

Oder vielleicht aber auch nicht, je nachdem wie man das sieht. :D

HisN
2015-05-20, 12:15:53
Es geht immer besser.
Ich hab vorgestern meine zwei Laing DDCs gegen eine Laind D5 getauscht, und bin so hocherfreut wie leise der Titan X - Rechner plötzlich geworden ist, denn alles was ich gehört habe, war das Arbeitsgeräusch der Pumpen. Jetzt macht es noch mehr Freude ohne FPS-Begrenzung mehrere Stunden in Elite Dangerous zu hängen und auf dem 2. Monitor derweil ein paar Filme zu schauen und die Wassertemperatur zu beobachten :-)
Mal schauen wie hoch ich die X stabil in W3 bekomme, das könnte ein paar Extra-FPS gebrauchen, denn tatsächlich möchte ich Hairworks nicht abschalten.
http://abload.de/thumb/witcher3_2015_05_19_0fwrnk.jpg (http://abload.de/image.php?img=witcher3_2015_05_19_0fwrnk.jpg)

akuji13
2015-05-20, 12:22:51
Mich stört ja schon jeder Schlauch oder jedes Kabel...obwohl das Gehäuse geschlossen ist.
Aber das ist krankhaft, dessen bin ich mir bewusst. :freak:

Die Pumpen sind ein gutes Stichwort:
Meine Aquatuning D5 muss ich aktuell auf Stufe 3.5 laufen lassen (weil ich noch zuviel Durchfluß-Bremsen verbaut habe welche ich am WE beseitige).

Vorher war es Stufe 1.5-2 und nun hört man zwar nicht die Pumpe, aber das "Wasserfördergeräusch" das durch die hohe Drehzahl verursacht wird.

Klingt wie ein Zimmer-Springbrunnen. :D

robbitop
2015-05-20, 12:36:44
So richtig leise finde ich die D5 auch nicht. Die reguläre D5 ist bis ca. 7,5 V regelbar. Das entspricht 62 % Leistung. Die Aquacomputer D5 hat eine eigene Regelung, die immerhin ca. 45 % erlaubt. (die Skala in der Aquasuite ist aber anders normiert!)

Mach's wie ich und bau eine Dämmbox um die Pumpe herum. Das hilft.

akuji13
2015-05-20, 12:44:35
Brauche ich nach der neu-Verschlauchung nicht mehr.

robbitop
2015-05-20, 12:46:17
Meinst du? Ich finde die D5 ist selbst in ihrer Minimaleinstellung (7,5 V - bzw Stufe 1 auf der Rückseite der Pumpe) nicht wirklich besonders leise.

cR@b
2015-05-20, 12:49:35
Jetzt wo ich mein Wunsch-System so zusammengestellt habe, wie ich es mir schon seit Jahren vorgestellt hatte - und die Umsetzung immer wieder aufgeschoben hatte, wegen Geld, wegen "neue Generation X kommt bald" usw... muss ich sagen:

Schade. Nichts mehr, wovon man träumen kann. Alles toll uns so, aber die Planung, das Träumen und die Vorfreude ist und bleibt ungeschlagen. Selbst wenn man wie ich bald an die 50 geht :)

Da kommt der Mensch in dir durch... lass ihn nicht siegen. Erst alles haben wollen, dann haben und noch immer nicht zufrieden sein. Ach wie schön der Mensch doch tickt...

Ich muss zugeben, das ich bei den letzte drei Systemen schon sagte, wow so geil der PC besser gehts nicht... oh doch geht immer!

akuji13
2015-05-20, 12:52:44
Meinst du? Ich finde die D5 ist selbst in ihrer Minimaleinstellung (7,5 V - bzw Stufe 1 auf der Rückseite der Pumpe) nicht wirklich besonders leise.

Die Pumpe ansich höre ich bis Stufe 4 nicht.
Ab 3.5 dann aber die Geräusche durch die Flüssigkeit.

Liegt evtl. an meinem gedämmten Gehäuse.

robbitop
2015-05-20, 12:57:35
Ein Gedämmtes Gehäuse hat den gleichen Effekt - ja. :)

TurricanM3
2015-05-20, 13:44:17
So richtig leise finde ich die D5 auch nicht. Die reguläre D5 ist bis ca. 7,5 V regelbar. Das entspricht 62 % Leistung. Die Aquacomputer D5 hat eine eigene Regelung, die immerhin ca. 45 % erlaubt. (die Skala in der Aquasuite ist aber anders normiert!)

Mach's wie ich und bau eine Dämmbox um die Pumpe herum. Das hilft.


Evtl. hast du auch eine eher laute D5 erwischt, da gibt es schon Unterschiede. Auch die Einbaulage und die Schlauchlänge / Härte von selbigem ist entscheidend. Ich hatte meine testweise mal stehend (Schaufelrad vertikal) montiert, das war lauter. Hängend ist es am leistesten, also so:

http://abload.de/thumb/dsc041091luxgm2ys0.jpg (http://abload.de/image.php?img=dsc041091luxgm2ys0.jpg)

Stehend (also anders herum) darf sie nicht montiert werden, bevor das hier jemand probiert.
Ich habe meine auf 50% laut AS laufen und man hört sie aus dem geschlossenen Case echt nicht mehr, da musst du schon mit dem Ohr dran. Durchfluss ist irgendwas um 60-70l. Die fangen je nach Stärke gerne leicht zu heulen an, hängt aber auch vom Gegendruck des Systems ab.
Ich kenne keine leisere Pumpe und hatte als Silent-Freak sehr viele Pumpen. Aktuell die oft empfohlene DDC310, aber auch da empfinde ich die D5 (richtig eingestellt) als leiser. Die Entkoppelung ist auch relativ einfach, weil die Pumpen wenig vibrieren, ganz im Gegensatz zu den Eheim Modellen (1046/80, aquastream, Compact 600 etc.).

Grestorn
2015-05-20, 13:57:08
Da kommt der Mensch in dir durch... lass ihn nicht siegen. Erst alles haben wollen, dann haben und noch immer nicht zufrieden sein. Ach wie schön der Mensch doch tickt...

Ich muss zugeben, das ich bei den letzte drei Systemen schon sagte, wow so geil der PC besser gehts nicht... oh doch geht immer!

Wie schon einige geschrieben haben, alles nur eine Frage der Zeit, bis mein System wieder nach nem Update schreit ... :)

Ich habe mich die letzten Tage nur echt dabei ertappt, dass mir dieses Ziehen im Bauch abgeht, wenn ich nach Dingen surfe, die ich gerne haben würde ... Das geht so weit, dass ich jetzt schon angefangen habe, Konfiguratoren für ein neues KfZ zu starten, obwohl ein Autokauf frühestens wieder 2018 ansteht (dann ist der alte gut 8 Jahre alt und es wird eine LV fällig :) ). Verrückt, so ein Mensch!


Eure Ansprüche an die WaKü sind schon erlesen, muss ich sagen. Der Aquaduct Tower (http://shop.aquacomputer.de/product_info.php?products_id=2991) schafft wirklich viel Wärme weg und ist schön leise, aber ein unzweifelhafter Nachteil ist eben genau das "Wassergeblubber" wie bei einem Zimmerbrunnen. Mich stört das kaum, ich finde das eher entspannend. Ist halt ein echtes Aquäduct, das Teil :) Aber für Akuji wär's wohl eher nicht der Hit.

Thunder99
2015-05-20, 14:09:13
War OT...

akuji13
2015-05-20, 14:26:14
Ich kenne keine leisere Pumpe und hatte als Silent-Freak sehr viele Pumpen. Aktuell die oft empfohlene DDC310, aber auch da empfinde ich die D5 (richtig eingestellt) als leiser. Die Entkoppelung ist auch relativ einfach, weil die Pumpen wenig vibrieren, ganz im Gegensatz zu den Eheim Modellen (1046/80, aquastream, Compact 600 etc.).

Kann ich alles so bestätigen.

Hab früher mit der Compact 600 angefangen und egal was ich gemacht habe, früher oder später gabs Vibrationen.

Über die D5 habe ich viel gutes gelesen habe und sie auch hängend montiert.
Dabei ist sie einfach mit Schrauben am Gehäuse befestigt, noch nicht mal entkoppelt und trotzdem die leiseste die ich je hatte.

Aber für Akuji wär's wohl eher nicht der Hit.

Wobei ich mich inzwischen sogar fast dran gewöhnt habe. :D
Im Garten ists mir allerdings doch lieber.

Außerdem scheint es durch die weitere Entflüftung des Systems auch weniger geworden zu sein.
Nichtsdestotrotz muss ich nochmal ran...5 Phobya Schnellverbinder senken den Durchfluß derart, das hätte ich nie für möglich gehalten.

Auf Stufe 1 schafft die D5 es nicht mehr, das Kühlmittel durch den Kreislauf zu pumpen und es entsteht ein Hitzestau.
Zwischen Stufe 2 und 4 liegen 20° GPU Temperatur (61° vs 41°).

Nach dem Umbau ist 1 Radiator weniger drin und nur noch 3 highflow Verbinder von Koolance, ich erwarte nicht mehr als eine dramatische Verbesserung.

OC_Burner
2015-05-20, 15:26:22
Nichtsdestotrotz muss ich nochmal ran...5 Phobya Schnellverbinder senken den Durchfluß derart, das hätte ich nie für möglich gehalten.

Wem sagst du das.:freak: 5xMännlich + 5xWeiblich Phobya Schnellverbinder sind derart durchflusssenkend, dass bei einem Wakükreislauf mit eh schon hemmenden Komponenten kaum noch was durch kommt. Zwischenzeitlich lag mein Durchfluss sogar bei nur noch 20L/h. Im SLI-Verbund war das Wasser am Einlaß noch schön kalt und am Ende der zweiten Karte konnte man den Auslaßanschluss kaum noch anfassen.;D

Das blöde ist ja, das es keine kompakten Highflow-Verbinder für 10/8 gibt.

robbitop
2015-05-20, 17:50:36
Evtl. hast du auch eine eher laute D5 erwischt, da gibt es schon Unterschiede. Auch die Einbaulage und die Schlauchlänge / Härte von selbigem ist entscheidend. Ich hatte meine testweise mal stehend (Schaufelrad vertikal) montiert, das war lauter. Hängend ist es am leistesten, also so:

http://abload.de/thumb/dsc041091luxgm2ys0.jpg (http://abload.de/image.php?img=dsc041091luxgm2ys0.jpg)

Stehend (also anders herum) darf sie nicht montiert werden, bevor das hier jemand probiert.
Ich habe meine auf 50% laut AS laufen und man hört sie aus dem geschlossenen Case echt nicht mehr, da musst du schon mit dem Ohr dran. Durchfluss ist irgendwas um 60-70l. Die fangen je nach Stärke gerne leicht zu heulen an, hängt aber auch vom Gegendruck des Systems ab.
Ich kenne keine leisere Pumpe und hatte als Silent-Freak sehr viele Pumpen. Aktuell die oft empfohlene DDC310, aber auch da empfinde ich die D5 (richtig eingestellt) als leiser. Die Entkoppelung ist auch relativ einfach, weil die Pumpen wenig vibrieren, ganz im Gegensatz zu den Eheim Modellen (1046/80, aquastream, Compact 600 etc.).
Ich habe sie stehend montiert. Also sie steht auf dem Shoggy Sandwich 90° zu deiner Anordnung. Rotor selbst ist also vertikal (bzw die Drehachse des Rotors ist horizontal).

Der Tip, dass es hängend besser funktioniert - den hätte ich mal vorher wissen sollen. Jetzt läuft alles sehr leise dank Dämmbox. Das 900D ist aber auch out of the box extrem(!!!) hellhörig. Ich hörte bei meinem alten Board sogar Elektronikgeräusche, sobald ich die Maus bewegte.

Ich wüßte aber auch nicht, ob ich die D5 so einfach sinnvoll hängend montieren könnte. :D Vieleicht das nächste mal.

TurricanM3
2015-05-20, 18:13:04
Sorry für OT, ich packs mal in Spoiler:
Also bei mir war es hängend definitiv leiser. Ich hatte je nach Drehzahl Brummen "stehend". Das mag aber auch unterschiedlich sein und vom Rest abhängen. Es ist aber kein großer Unterschied. Müsstest evtl. mal testen.

Bei mir hört man die beiden Festplatten (WD Green RAID1) am ehesten, wenn das System semi passiv läuft. Das obwohl ich die Dinger schön kuschelig in einem passiven aquadrive habe:

http://www.abload.de/img/dsc03317eulp9.jpg

:freak:

Leider sind meine internen Radiator Lüfter (Noiseblocker PK1) selbst bei Startdrehzahl (~420rpm) schon das lauteste am ganzen Rechner. Ich wünschte man könnte die Silent Wings 2 für Radiatoren einfach so nutzen, ich finde die Lüfter einfach genial leise.
Ich warte immer noch auf ein Gehäuse das mir zusagt, dann werde ich das alles optimieren. =)

robbitop
2015-05-20, 18:29:22
Da bin ich froh, dass ich rotierende Laufwerke aus meinem PC verbannt habe.
128 MiB + 1 TB SSD. :D

Lüfter finde ich die Enermax TB Silence echt leise. Meine laufen mit 324 UPM im Idle und bei Last mit 500 UPM und ich höre die nicht groß heraus. Die Pumpe ist ok mit Dämmbox - aber auch nur bei ~70 %. Auf 100 % höre ich die schon raus. Vielleicht hatte ich Pech - und vielleicht ist hängend besser. Aber das jetzige Ergebnis ist schon sehr gut!
Die Umgebungsgeräusche bei mir zu Haus sind jedenfalls das einzige was ich höre. Noch leiser würde nur was bringen, wenn es mucksmäußchenstill ist. Ich bin zufrieden.

Dank nun entfernter Staubfilter sind die Temps nun auch deutlich besser

boxleitnerb
2015-05-20, 19:07:29
Blödes Mindfactory hat meine Bestellung storniert. Dann hole ich jetzt einfach die Karte, die noch in der Packstation liegt, alles andere ist mir zu blöd.

kokett
2015-05-20, 23:50:10
Wer bereits eine oder mehrere Geforce GTX TitanX (http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan-x) sein Eigen nennt und Interesse an The Witcher 3 (http://www.geforce.com/games-applications/pc-games/the-witcher-3-wild-hunt) hat, sollte heute einen Blick auf die neueste GeForce Experience Version v2.4.3.31 (http://us.download.nvidia.com/GFE/GFEClient/2.4.3.31/GeForce_Experience_v2.4.3.31.exe) riskieren und Acht geben auf eine neue Funktion, ein kleines Symbol rechts oben im GFE-Client. Das Angebot gilt bis zum 19.6.2015 und nur solange der Vorrat reicht. :)

http://www.geforce.com/titan-x-geforce-experience-beta
http://www.geforce.com/titan-x-geforce-experience-beta/code-instructions
http://www.geforce.com/TITANXGFEBETA

Merci für den Key. Kannst du zu Geforce Experience auch Feedback gebrauchen? Da fehlt ein wichtiges Feature bei der Spieleoptimierung: Eine Standard - Wunschauflösung einstellen zu können.

Bei meinem 4K Display nimmt GFE immer 1440p als Auflösung und wenn ich ein Spiel "optimieren" will, darf ich dann immer händisch die 4k Auflösung einstellen. Nicht, dass ich wirklich drauf angewiesen bin, aber da ich es für den Witcher Key ohnehin installieren musste, hab ichs mal ausprobiert und mich direkt geärgert. :-)

Treiber läuft sonst ohne Probleme, wie auch davor schon.

HisN
2015-05-21, 07:56:34
Hmm, ob da das Display nicht erkannt wird? Bei mir wird 4k übernommen.

Hübie
2015-05-21, 09:04:45
Blödes Mindfactory hat meine Bestellung storniert. Dann hole ich jetzt einfach die Karte, die noch in der Packstation liegt, alles andere ist mir zu blöd.

Was verzapfst du denn wieder für einen Blödsinn? :freak: Bestellst 10 Karten um die Perle heraus zu picken oder wie?

Ich bin erstaunt wieviele von euch Bock haben dauernd am Wakü-System zu schrauben. Ich z. B. muss mich überwinden meines überhaupt aufzuschrauben. Hab seit zwei Wochen hier ein Dual Board und ne GF110 liegen und kann mich nicht überwinden das zu testen.
Meine Lust am Zocken ist ungebremst aber basteln...
Obwohl. Das Gehäuse klackert weil es wohl schon zu oft auf und zu gemacht wurde. Da müsste ich was gegen unternehmen :sneak:

Als ich gestern Abend noch TW3 spielte dachte ich so: "Boah was für geile Grafik. Ob 1000€ es wert wären wenn 100 es schon so gut können?"
Hab meine 660 Ti tatsächlich für 100 € inkl Versand und Restgarantie bekommen... Die Antwort kennen wir alle. Dennoch macht der (Nerd) Mensch so verrückte Sachen. Siehe Grestorn.

Godmode
2015-05-21, 09:13:24
Ich bin erstaunt wieviele von euch Bock haben dauernd am Wakü-System zu schrauben. Ich z. B. muss mich überwinden meines überhaupt aufzuschrauben. Hab seit zwei Wochen hier ein Dual Board und ne GF110 liegen und kann mich nicht überwinden das zu testen.

Das ist nicht so viel mehr arbeit. Kreislauf öffnen und Wasser ablassen. (Ich lasse nur das Wasser aus dem PC ab, den Radiator lasse ich voll.) 5 Minuten

Neue Karte umbauen dauert am längsten, ist aber auch in 15-30 Minuten erledigt, je nachdem wie schnell man arbeitet.

Karte rein, Schläuche dran und einschalten. 5 Minuten

Einschalten und fehlendes Wasser im AGB nachfüllen 5 Minuten

5+5+5+30 = 45 Minuten

Hübie
2015-05-21, 09:26:22
Und wie füllst du Wasser wieder auf? Schlauch am Wasserhahn oder wie läuft das? :confused:

Ach ja und sry4ot.

boxleitnerb
2015-05-21, 09:27:39
Was verzapfst du denn wieder für einen Blödsinn? :freak: Bestellst 10 Karten um die Perle heraus zu picken oder wie?


Ne, ich hatte eine bestellt, der Preis ist dann aber gefallen, dann wollte ich die stornieren (bzw. einfach nicht abholen in der Packstation, hatte dort auch angerufen, das wäre ok gewesen) und eben die günstigere bestellen. Und diese zweite Karte will MF nicht liefern. Selektieren ist asozial und überhaupt viel zuviel Arbeit :freak:

Hübie
2015-05-21, 09:39:52
Die Zeit die du dafür verplemperst frisst das gesparte wahrscheinlich auf :P Also halb so wild. Gehst einmal weniger mit Perle essen und gut is ;D
Ich will endlich scheiß Fiji sehen :mad:

akuji13
2015-05-21, 09:55:59
Ich bin erstaunt wieviele von euch Bock haben dauernd am Wakü-System zu schrauben.

Bock habe ich keinen, aber von nichts kommt nichts. :D

Dank Schnellverbindern ist ein Kartenwechsel zügig gemacht.
Wie Godmode schon sagt, an längsten dauert der Umbau der Karte selbst.

Wenn du so wie ich eine bereits umgebaute X bestellst erübrigt sich auch das.

Für einen mainboard/CPU Wechsel muss der Kreislauf gar nicht angefasst werden.
CPU Kühler abschrauben, zur Seite hängen dann können die Sachen ausgebaut werden.

Da muss dann nicht mal Flüssigkeit ergänzt werden.

Als ich damit anfing gabs z. B. keine drehbaren Anschlüsse, die machen heute alles viel leichter.

Hübie
2015-05-21, 10:05:57
Machts erfahrungsgemäß Sinn GPU-Kreislauf zu trennen? Wenns bei mir kein Fiji wird hol ich einen GM200 mit Acc Hybrid III oder Wakü. Auf letzteres hab ich eigentlich keine Lust (na ja und als Student ist die Kohle knapp :biggrin:).
Mein Gehäuse ist eigentlich darauf ausgelegt zwei Wakü Kreisläufe zu fassen.

Godmode
2015-05-21, 10:06:33
Und wie füllst du Wasser wieder auf? Schlauch am Wasserhahn oder wie läuft das? :confused:

Ach ja und sry4ot.

Mein Aqualis fasst 880 ml. Verschlussschraube öffnen, Trichter rein und Wasser rein kippen, fertig.

akuji13
2015-05-21, 10:13:56
Machts erfahrungsgemäß Sinn GPU-Kreislauf zu trennen?

Für mich schon.

IdR tausche ich 3x die Karte bevor ich 1x board/CPu ersetze.

Thunder99
2015-05-21, 10:29:37
Machts erfahrungsgemäß Sinn GPU-Kreislauf zu trennen? Wenns bei mir kein Fiji wird hol ich einen GM200 mit Acc Hybrid III oder Wakü. Auf letzteres hab ich eigentlich keine Lust (na ja und als Student ist die Kohle knapp :biggrin:).
Mein Gehäuse ist eigentlich darauf ausgelegt zwei Wakü Kreisläufe zu fassen.
Das überlege ich derzeit auch (arbeite gerade nebenher :D)

Edit: Wobei bei dem Preis des Kühlers vergeht mir wieder die Lust... (Hybrid 2 ab 71€)

Grestorn
2015-05-21, 10:36:15
Das Problem beim Befüllen, zumindest bei mir, ist die Luft aus dem Kreislauf zu kriegen. Die sammelt sich in den Kühlkörpern (da das Board in meinem Gehäuse gedreht ist, sind die Karten aufrecht, d.h. die Anschlüsse der Steckkarten schauen nach oben). Ich muss das Gehäuse dann in alle Richtungen kippen, auf alle Seiten inkl. Kopf stellen, damit die Luftblasen einigermaßen rausgehen.

Das ist etwas nervig, weswegen ich das nicht jede Woche machen möchte :)

TurricanM3
2015-05-21, 10:40:57
Ich arbeite mit PVC Verschlussstopfen, geht superflott. Wasserverlust ist minimal. Habe einen Absperrhahn am AC-Filter, dann läuft kaum Wasser aus. Ablassen halte ich für unnötig, wenn man z.B. nur die Graka tauscht.

akuji13
2015-05-21, 10:41:15
Dazu drehe ich die Pumpe einfach auf Stufe 5. :D

TurricanM3
2015-05-21, 10:46:22
Bez. Entlüften: ich habe meinen Kreislauf absichtlich so aufgebaut, dass die Komponenten nach den Radis/Pumpe kommen und danach direkt der AGB. Evtl. Luft nach Umbauten kann also gar nicht mehr in die Radis kommen. =)

F5.Nuh
2015-05-21, 10:52:35
MSI Afterburner

Und wo kann ich diese Funktion freischalten? Habe die neuste Version vom Afterburner

Godmode
2015-05-21, 11:24:27
Und wo kann ich diese Funktion freischalten? Habe die neuste Version vom Afterburner

https://www.youtube.com/watch?v=tXCbKOuq8N0