PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce Titan X: 12GB, 8 Mrd. Transistoren, $999: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12]

robbitop
2015-11-06, 10:49:38
Schon die Vorgänger hatten die Eigenschaft die ALUs ziemlich gut zu beschäftigen. Das führt zu sehr hoher Leistungsaufnahme. Ist übrigens in Cities Skylines mit Dynamic Resolution Mod auch so extrem wie bei dir in Anno 2205.

Nightspider
2015-11-06, 11:29:11
Schaffen eigentlich alle Titan X unter Wasser ~1,5Ghz oder muss man da schon ein besonderes Exemplar haben?

HisN
2015-11-06, 12:06:48
<-- meine schafft es nicht (in allen) Games stabil.
Also alle sind es dann wohl nicht.

akuji13
2015-11-06, 12:20:06
Habe es nie probiert, glaube aber nicht das meine es schafft.

OC_Burner
2015-11-06, 12:20:24
Schaffen eigentlich alle Titan X unter Wasser ~1,5Ghz oder muss man da schon ein besonderes Exemplar haben?

Schön wäre es, meine Beispielsweise schafft nur 1,4GHz@1,24V mit Wasser (unter 50°C).

cR@b
2015-11-06, 12:25:28
Die TX geht generell schlechter als die 980 TI z.b. aber dafür hat sie halt von Allem ein bisschen mehr :ugly:

kokett
2015-11-06, 12:59:27
Schaffen eigentlich alle Titan X unter Wasser ~1,5Ghz oder muss man da schon ein besonderes Exemplar haben?

Meine packt auch nur 1440 @ 1,243V wobei sich das mit den Treibern von ursprünglich mal 1480 eingependelt hat. Mit dem derzeit aktuellen Treiber läuft meine nur mit 1440 / 3800 rockstable.

robbitop
2015-11-06, 13:15:26
Schaffen eigentlich alle Titan X unter Wasser ~1,5Ghz oder muss man da schon ein besonderes Exemplar haben?
Man braucht ein gutes. Meine packt mit BIOS Mod gerade so 1450.

kdvd
2015-11-07, 10:07:52
VRAM Belegung in COD Black Ops III:
Auf einer GeForce GTX Titan X liegt die Speicherbelegung mit maximaler Texturstufe Extra jedoch bei knapp neun Gigabyte.
http://www.computerbase.de/2015-11/benchmarks-call-of-duty-black-ops-iii/

woodsdog
2015-11-07, 10:18:36
Na dann können sich die Besitzer ENDLICH zufrieden zurück lehnen denn jetzt ist der Kauf gerechtfertigt ;)

akuji13
2015-11-07, 10:19:02
"Für die höhere Auflösung von 2.560 × 1.440 Pixel reichen vier Gigabyte allerdings schon nicht mehr aus. Black Ops III ist zwar spielbar, stockt aber ab und zu. Acht-Gigabyte-Karten laufen dagegen perfekt, auch mit Sechs-Gigabyte-Modellen gibt es keine Schwierigkeiten. Das ändert sich dann in Ultra HD. Dort reichen nur noch die zwölf Gigabyte der GeForce GTX Titan X vollständig aus." :eek::D

horn 12
2015-11-07, 10:30:21
Was will man mit diesem Spiel, Fury hat normalerweise KEINE Probleme und auch die 980TI nicht und dann kommt man mit dieser Uralt Serie daher.
Sollen mal gscheid programmieren, Witcher 3 lässt grüßen!

Niall
2015-11-07, 10:42:03
Habe gestern mit meiner 6GB 980Ti mal Watch_Dogs in 4K Maxed-Out angeworfen - mit 5,5GB Auslastung ist zwar noch etwas Luft, wird aber schon eng. :D

HisN
2015-11-07, 10:59:29
Immer der Witcher3 Vergleich. Kein anderes Spiel hat so übles ObjektPopping wie Witcher3. Das ist zu viel des Optimieren. Aber scheint Dich ja nicht zu stören Horn.

Und 12GB hat man mit dem letzten COD doch auch schon in FHD dicht bekommen.

robbitop
2015-11-07, 11:02:18
Na dann können sich die Besitzer ENDLICH zufrieden zurück lehnen denn jetzt ist der Kauf gerechtfertigt ;)

War er schon mit Shadows of Mordor :P :D :D

HisN
2015-11-07, 11:04:20
Lords of the Fallen nicht vergessen.

akuji13
2015-11-07, 11:07:23
Was will man mit diesem Spiel, Fury hat normalerweise KEINE Probleme und auch die 980TI nicht und dann kommt man mit dieser Uralt Serie daher.

Spielen vielleicht? :D

Soll ein paar Millionen geben die das wollen.
Auf dem PC zumindest noch mehrere hundert tausende.

Da hilft es auch nicht wenn eine Fury woanders gut läuft.

robbitop
2015-11-07, 11:08:16
Lords of the Fallen nicht vergessen.
Die Titan X hat sich gelohnt. Die Titan X hat sich gelohnt. Die Titan X hat sich gelohnt...

:D:D:D

akuji13
2015-11-07, 11:08:48
Sind alles Titel die ich beim Verkauf als Pro Argumente aufführen werde. :D

Schnoesel
2015-11-07, 11:11:05
Wäre ja auch ein Problem das Ding auf High Textures in 1440p zu spielen nicht? Ich finde euren Elfenbeinturm ja toll so über alles schwebend mit 12 GB Speicher aber mal ernsthaft, wenn den Entwickler die Masse der Käufer wegbleiben, die nun mal keine Titan X im Rechner haben meint ihr irgendjemand entwickelt ein Spiel noch für den PC? Solches Verhalten von Seiten der Publisher/Entwickler trägt PC Gaming irgendwann zu Grabe.

Air Force One
2015-11-07, 11:14:05
Naja....4K und 12VRAM ist ja schön aber bringt ja nichts wenn der Karte da die Puste ausgeht oder?

robbitop
2015-11-07, 11:16:56
Leute sollen nicht rumheulen, wenn Ultra Details nicht auf ihrem PC laufen. IMO. Dann wird argumentiert, dass Spiel "ineffizient" programmiert wurde, obwohl die meisten gar keine Ahnung von Spieleentwicklung haben.

Der Spieleentwickler hat die Wahl die Engine zu skalieren. Wie bei Crysis 1 damals. Im Sinne von "heute geht eben nur High Details - aber mit der HW von morgen sieht das Spiel nochmal hübscher aus". Obwohl das Spiel auf High Details wunderbar aussieht -> Shitstorm.
Ergo: Ultra Details weglassen und alle sind zufrieden. (oder High Details in Ultra Details umbenennen). :D

Auf jeden Fall sind die 12 GiB der Titan X überdimensioniert. Ist ein Enthusiast Produkt. Die meisten, mich inklusive, wollten eben sofort einen GM200 und hätten vermutlich eine 980Ti gekauft, hätte es sie sofort gegeben. ;)
Und wenn es Settings gibt, die massiv Performance fressen und kaum sichtbare Unterschiede zeigen, drehe ich sie auch runter. Die Performance kann man dann für AA verballern oder sich über die hohe Flüssigkeit freuen.

kdvd
2015-11-07, 11:26:03
Solches Verhalten von Seiten der Publisher/Entwickler trägt PC Gaming irgendwann zu Grabe.

Lass mal die Kirche im Dorf.
Da werden einfach die Texturdetails von "Extra" auf "High" gestellt und gut ist.

4Fighting
2015-11-07, 11:29:29
Wäre ja auch ein Problem das Ding auf High Textures in 1440p zu spielen nicht? Ich finde euren Elfenbeinturm ja toll so über alles schwebend mit 12 GB Speicher aber mal ernsthaft, wenn den Entwickler die Masse der Käufer wegbleiben, die nun mal keine Titan X im Rechner haben meint ihr irgendjemand entwickelt ein Spiel noch für den PC?

Mich würde mal interessieren, wieviel VRAM eine 8GB AMD Karte verbraucht. Deren Treiber scheinen da etwas anders gestrickt zu sein als bei nvidia

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Call_of_Duty_Black_Ops_III-test-blackops3_vram.jpg

Troyan
2015-11-07, 11:32:43
nVidia cacht eben einfach soweit alles geht. Macht auch sinn nicht dauernd Daten aus dem VRAM zu entfernen, wenn es nicht notwendig ist.

cR@b
2015-11-07, 11:33:28
Die Titan X hat sich gelohnt. Die Titan X hat sich gelohnt. Die Titan X hat sich gelohnt...

:D:D:D

Jaaaaaa endlich! Hmm oder doch nicht @1080p :ugly:

akuji13
2015-11-07, 11:40:37
Wäre ja auch ein Problem das Ding auf High Textures in 1440p zu spielen nicht?

Ja wäre es.

"Optisch wäre die Texturstufe Extra, die nicht ordentlich läuft, die eindeutig bessere Wahl. Die Texturen sehen bei dieser Einstellung durchaus ein gutes Stück besser als unter High aus."

Bei den schlechten Texturen klammert man sich an jeden Strohhalm.
Nicht native Auflösungen zu verwenden ist auch nicht optimal.

Außerdem sollte man nicht jede Aussage so ernst nehmen. ;)

Naja....4K und 12VRAM ist ja schön aber bringt ja nichts wenn der Karte da die Puste ausgeht oder?

Mir würde ~35 fps mit Sync in der SP reichen.
Zumal die OC Titan mehr erzielt.

ChaosTM
2015-11-07, 15:05:30
Den "nicht Titan" Nvidia Highend-karten geht eigentlich immer recht schnell der Speicher aus. Zumindest auf dem Papier.
Das rechtfertigt für mich aber niemals den 400€ Fanboy-Aufschlag. ;)

Mit ein Grund warum die letzten 3 Karten von AMD kamen..

Raff
2015-11-07, 15:33:28
http://www.pcgameshardware.de/Call-of-Duty-Black-Ops-3-Spiel-55478/News/Call-of-Duty-Black-Ops-3-Screenshots-1177136/

2400p braucht bis zu 11,5 GiB. Spielbar mit einer fett übertakteten TX.

MfG,
Raff

(del)
2015-11-07, 15:44:28
So etwas ähnliches habe ich mal spaßeshalber zunächst mit einer Quadro M6000 getestet. Lustigerweise tut es sogar der GeForce-Treiber. Kaum langsamer als die TitanX (-50 MHz), wenn beide Karten @stock mit Originalkühler laufen (da ja fast baugleich). Aber der Speicher ist schnell rappelvoll. Dumm nur, dass Karten wie eine FirePro W9100 eben NICHT vom 16GB Ausbau profitieren, im Gegenteil. Grottenlahm und hoppelig. Da sollte AMD noch einen besseren Treiber nachschießen :(

Ein paar Stunden gezockt und die Frustration macht sich breit. Stellenweise gute Ansätze, luschige Umsetzung und inkosequent. Schade. Das Spiel ist aus meiner Sicht ein Reinfall. Das merkt man auch an den sehr unterschiedlichen Bewertungen, wo vor allem kleinere Seiten und User in den Foren eher den Daumen senken. Die üblichen Verdächtigen finden es natürlich toll, aber das weiß man als Anwender einzuordnen. ;)

cR@b
2015-11-25, 01:11:41
Kann mir grad bitte Jemand erklären warum meine Graka mit Windows 10 nur noch den estimated Takt (1100) statt den Boost (1400) in Games verwendet??? Unter Win 8.1 war das definitiv nicht so...

HisN
2015-11-25, 08:13:56
Deine Übertaktung funktioniert nicht mehr?
Du nimmst Anno zum Testen und rennst gnadenlos ins PowerLimit?

Mit Win10 hat es jedenfalls mMn nix zu tun.

akuji13
2015-11-25, 09:02:34
Meine Karten verhalten sich unter Win 10 nicht anders als unter 8.1.

cR@b
2015-11-25, 10:28:38
Echt seltsam... ich verstehs ja auch nicht. Hab jetzt nochmal drüber geflasht und siehe da, Karte boostet wieder voll. :ucrazy2:

Der Aff
2015-11-26, 19:23:48
So, und hier ein paar werte von einer Titan X Asic Quality 73,1%

1500/4000Mhz @1.2180 V Gamestable

1560/4000Mhz @1.2430 V Gamestable

1600/4000Mhz @1.2740 V Benchstable

auf meinen YouTube-Kanal habe ich ein paar Videos von ihr ;-)

https://www.youtube.com/user/kadaka25/videos

lg Patrick

Hübie
2015-11-26, 19:46:13
:| Sind wir schon im Luxx angekommen? :|

Godmode
2015-11-26, 19:48:47
So, und hier ein paar werte von einer Titan X Asic Quality 73,1%

1500/4000Mhz @1.2180 V Gamestable

1560/4000Mhz @1.2430 V Gamestable

1600/4000Mhz @1.2740 V Benchstable

auf meinen YouTube-Kanal habe ich ein paar Videos von ihr ;-)

https://www.youtube.com/user/kadaka25/videos

lg Patrick

Verdammt starke Karte! Bei mir trotz 80er ASIC bei 1565 MHz Schluss. Gamestable ist sie aber nur bis 1550 MHz.

:| Sind wir schon im Luxx angekommen? :|

Wie ist das gemeint?

dildo4u
2015-11-26, 19:52:46
Der Wasserkühler kann einiges Wichter@4k 35° nich schlecht.

uha
2015-11-26, 20:41:03
Benchstable sagt einfach mal nix.
Und bislang sind hier auch User mit 1500MHz und mehr nach ein paar Wochen doch wieder hereingeschneit und haben Abstürze bemerkt.

Godmode
2015-11-26, 21:47:40
Benchstable sagt einfach mal nix.
Und bislang sind hier auch User mit 1500MHz und mehr nach ein paar Wochen doch wieder hereingeschneit und haben Abstürze bemerkt.

Seine Karte wird aber auch deutlich höhere Takte in Spielen erreichen als die meisten anderen. Meine nicht schlechte 80er ASIC TX@ 1,27v schafft zb. in keinem Benchmark 1600 MHz, nichtmal für 10 Sek.

uha
2015-11-26, 22:41:33
Nö, er schiebt die Abstürze nur weiter nach hinten. Und gamestable sagt nichts, das sagen sie alle und dann findet man sie in entsprechenden Threads, wo sich über Abstürze und angeblich instabile Treiber beschwert wird. Und das war auch mit dem Luxx gemeint, wo jeder Hans meint, weil er ein paar Tage die Karte mot 1500MHz laufen lässt sei sie gamestable.

Der Aff
2015-11-27, 00:28:53
Nö, er schiebt die Abstürze nur weiter nach hinten. Und gamestable sagt nichts, das sagen sie alle und dann findet man sie in entsprechenden Threads, wo sich über Abstürze und angeblich instabile Treiber beschwert wird. Und das war auch mit dem Luxx gemeint, wo jeder Hans meint, weil er ein paar Tage die Karte mot 1500MHz laufen lässt sei sie gamestable.


ich konnte meine Karte schon ausgiebig auf stabilität testen ! (gekauft 10.06.15)

Fire Strike Ultra 1.1

http://www.3dmark.com/fs/5569441

mikemarkus
2015-11-30, 00:59:07
Hab im OCN ein Referenz Bios der Titan X gefunden und gleich mal ein wenig gemoddet.

GM200boostmod.rom

Power Target erhöht
100% = 350 Watt
121% = 425 Watt

Max Spannung auf 1.281V erhöht
(ich kann mangels Karte leider nicht testen ob man 1.281V wirklich anlegen kann,
eventuell gleiches Limit wie GM204. Das wären dann 1.275V.


GM200noboostmod.rom

Power Target erhöht
100% = 350 Watt
121% = 425 Watt

Fest anliegender Takt und feste Spannung.
Standard 1088.5 Mhz bei 1025mv
Voltage frei wählbar bis zu 1.281V (siehe oben)
Undervolting unter Standardspannung (1025mv) nicht möglich

Funktion garantieren kann ich natürlich noch nicht, weil ich hier noch keine Karte hab.
Ebenso kannn ich nichts dazu sagen ob man die Titan mit den vorhandenen nvflash mods schon flashen kann.
Hab einfach mal ein für GM204 kompatibles nvflash Mod mit dazu gepackt.

https://www.dropbox.com/s/x9bv90ewz13dyln/GM200.rar?dl=0

Test mal Raff! :freak:

Und wie sieht es nun aus?
Bisher kamen hier leider noch keine Antworten.

Godmode
2015-12-01, 22:50:40
Da mein selber gemodetes BIOS teilweise getrottelt hat, habe ich heute nochmal eines von Overclocking.com (http://www.overclock.net/t/1546747/official-nvidia-geforce-gtx-titan-x-owners-club#) probiert. Und zwar das WC BIOS von Sheyster seinem Ultimate GM200 BIOS Pack.

Ich verwende das Watercool BIOS mit 1,281v fixed VCore und 400W PT bei 100%. Mit 119% gibt es sogar 475W. Damit wird in The Witcher 3 1550/4000 MHz gehalten, ohne zu trotteln. Das 400W PT wird mit 92-93% ausgelastet (Buckelsumpf/Crookback Bog). Das habe ich heute mehrere Stunden getestet und werde das jetzt so lassen.

Niall
2015-12-01, 22:56:44
Wieviel Spannung hat die X denn standardmäßig anliegen und wie weit kommst du mit der Stock-Spannung? :)

Godmode
2015-12-01, 23:20:05
Das habe ich leider nicht im Kopf. Ich weiß aber, dass ich für 1,5 GHz mindestens 1,218v brauche.

Niall
2015-12-01, 23:33:15
Schon viel, oder? Ist das durch die Bank bei den TX wegen des Vollausbaus so oder changiert es mit der Chipgüte?

Godmode
2015-12-01, 23:41:09
Schon viel, oder? Ist das durch die Bank bei den TX wegen des Vollausbaus so oder changiert es mit der Chipgüte?

Ja es ist viel, aber ich habe ja auch nicht umsonst eine überdimensionierte Wakü, daher ist mir die Spannung egal. Das könnte ich jetzt gar nicht sagen, ob das am Vollausbau liegt, oder an sonst was.

mFuSE
2015-12-02, 18:58:38
Schon viel, oder? Ist das durch die Bank bei den TX wegen des Vollausbaus so oder changiert es mit der Chipgüte?

Also ich lese gerne und viel im Internet, aber diese Karte ist noch richtig gut :freak:
Meine braucht für 1,5Ghz ordentliche 1.2563v und läßt sich damit bis irgendwo zwischen 1530 und 1555 Mhz treiben.

Die Architektur scheint ab 1450 so langsam an ihre Grenzen zu kommen - ab da fängt die benötigte Spannung sprunghaft an zu steigen...


40% bis 50% mehr Takt ist trotzdem nicht von schlechten Eltern.
Nächstes Jahr sollte ich irgendwann eine neue CPU und im dem Zuge dessen ein neues Netzteil zulegen, dann wird die Titan auch nochmal etwas getreten

Raff
2015-12-06, 22:32:07
Da mein selber gemodetes BIOS teilweise getrottelt hat, habe ich heute nochmal eines von Overclocking.com (http://www.overclock.net/t/1546747/official-nvidia-geforce-gtx-titan-x-owners-club#) probiert. Und zwar das WC BIOS von Sheyster seinem Ultimate GM200 BIOS Pack.

Ich verwende das Watercool BIOS mit 1,281v fixed VCore und 400W PT bei 100%. Mit 119% gibt es sogar 475W. Damit wird in The Witcher 3 1550/4000 MHz gehalten, ohne zu trotteln. Das 400W PT wird mit 92-93% ausgelastet (Buckelsumpf/Crookback Bog). Das habe ich heute mehrere Stunden getestet und werde das jetzt so lassen.

Das heißt, deine Karte geht mit dem BIOS besser als mit Eigenbau?

Ich frage mich, ob ein anderes BIOS bei meiner Karte die abartige Mauer wegbekommt, evtl. weil ich etwas falsch eingestellt habe. Dieses "1,45 GHz sind kein Ding, aber 1,50 GHz geht nicht mal mit 0,05 Volt mehr stabil" fuchst mich. :D

MfG,
Raff

horn 12
2015-12-06, 22:44:12
Sei zufrieden, dies macht den Kohl auch nicht mehr Fett :-)
Bist gleich schnell als einer mit einer GTX 980TI mit 1,501 Mhz!

kdvd
2015-12-06, 22:53:05
Dafür braucht die Titan X nur 1375 Mhz.

cR@b
2015-12-07, 07:51:06
Das heißt, deine Karte geht mit dem BIOS besser als mit Eigenbau?

Ich frage mich, ob ein anderes BIOS bei meiner Karte die abartige Mauer wegbekommt, evtl. weil ich etwas falsch eingestellt habe. Dieses "1,45 GHz sind kein Ding, aber 1,50 GHz geht nicht mal mit 0,05 Volt mehr stabil" fuchst mich. :D

MfG,
Raff

Ein anderes Bios wird speziell daran nichts ändern. Bzgl. Throtteln ist das was anderes. Ich habe die Erhafrung gemacht, dass mit nahezu jedem der letzten Treiber das OC weiter nach unten korrigiert werden muss. Nimm ne alte Version und die Karte läuft damit stabil... jede Wette! Ich weiß nicht was mehr bringt... Treiberoptimierung mit OC Verlust oder umgekehrt!?

Der Debug Modus wurde nicht umsonst von nV eingefügt ;)

Godmode
2015-12-07, 11:32:01
Das heißt, deine Karte geht mit dem BIOS besser als mit Eigenbau?

Ich frage mich, ob ein anderes BIOS bei meiner Karte die abartige Mauer wegbekommt, evtl. weil ich etwas falsch eingestellt habe. Dieses "1,45 GHz sind kein Ding, aber 1,50 GHz geht nicht mal mit 0,05 Volt mehr stabil" fuchst mich. :D

MfG,
Raff

Ja sie drosselt jetzt nicht mehr. Beim Eigenbau BIOS war das immer der Fall. Witcher3 läuft jetzt mit 1550 MHz ohne zu murren.

Thunder99
2015-12-07, 12:44:35
Bin mal gespannt wie sich das PCB und die Komponenten darauf verhalten wenn anstatt 275W bis zu 475W verteilt werden müssen :freak: Andererseits ist es beachtlich das es zu gehen scheint.

Und wir wissen ja fast alle das Gamestable ungleich Gamestable ist :wink: . Auf das Spiel kommt es an :D daher verstehe ich eure Kritikpunkte nur zu gut

Godmode
2015-12-07, 12:54:36
Bin mal gespannt wie sich das PCB und die Komponenten darauf verhalten wenn anstatt 275W bis zu 475W verteilt werden müssen :freak: Andererseits ist es beachtlich das es zu gehen scheint.

Und wir wissen ja fast alle das Gamestable ungleich Gamestable ist :wink: . Auf das Spiel kommt es an :D daher verstehe ich eure Kritikpunkte nur zu gut

Die GPU wird nach mehreren Stunden gerade mal 50°C warm. Die Lüfter des Radiator drehen dabei mit 350 RPM, da hätte ich also noch viel Luft nach oben.

Einzig die Rückseite der VRMs wird etwas warm 75-80°C, trotz Wakü, aber das hat man ja bei standard Takt und Luftkühlung auch schon, IIRC?

Witcher3 ist eines der anspruchvollsten Spiele der letzten Zeit. Wenn das Overclocking in diesem Spiel ohne Probleme läuft, dann ist das für mich stabil genug. Sollte ein neues Spiel erscheinen, das diesen Takt nicht mehr packt, wird das hier immer von mir vermerkt werden.

akuji13
2015-12-07, 14:01:38
Ich frage mich da immer wie heiß die Komponenten in ihrem Inneren werden.

Die Wärmeabgabe an Kühlkörper limitiert ja evtl. durch die Oberfläche.

Skysnake
2015-12-07, 19:29:56
Ich frag mich da eher, wie die Leiterbahnen mal eben mehr als 50% mehr Strom abkönnen :ugly:

Das müssen echt richtig fette Margen sein, die die da für Elektromigration eingeplant haben, oder aber die Karte wird das im 24/7 Betrieb kein Jahr machen.

robbitop
2015-12-08, 12:11:15
Ist Elektromigration etwas was bei Leiterbahnen im PCB in signifikanter Form auftritt? Ich nahm immer an, dass das eher bei µ/nano Strukturen relevant ist.

Die Leiterbahnen werden natürlich wärmer als geplant.

Loeschzwerg
2015-12-08, 14:07:48
Ich mache mir da bei einer Titan X / 980 Ti weit weniger Gedanken als z.B. bei einem Fury / Fury X PCB. Die thermische Belastung ist bei letzteren weit höher.

Hübie
2015-12-08, 14:44:20
Ist Elektromigration etwas was bei Leiterbahnen im PCB in signifikanter Form auftritt? Ich nahm immer an, dass das eher bei µ/nano Strukturen relevant ist.

Die Leiterbahnen werden natürlich wärmer als geplant.

IdR sind die deutlich mehr geschirmt und vor allem so designed dass es schon sehr starke Induktion sein muss um das andere Feld zu beeinflussen. Die größten Felder treten bei diesen Knicken auf, da hier Reflektionen mit auftreten. Und es sind ja nicht zwangsläufig 50% mehr Strom. Meistens bewegt man sich bei 35 Ampere pro Rail und das geht dann mal auf 45. Auf Ref-Karten gern mal 50 Ampere. Je mehr Rails, desto entspannter wird die Situation. Das ist mein Kenntnisstand.

woodsdog
2015-12-08, 17:55:25
Ich mache mir da bei einer Titan X / 980 Ti weit weniger Gedanken als z.B. bei einem Fury / Fury X PCB. Die thermische Belastung ist bei letzteren weit höher.

wenn man beide ausreizt - so wie das hier im 3DC üblich ist - saufen beide chips wie ein loch. (475W Titan Bios, hello?)

und hardware, die man dauerhaft mit >=150% "Default" Last fährt... das kann nicht gut sein.

Loeschzwerg
2015-12-08, 18:19:54
Das schon, aber die Fury/Fury X Wandler kochen ja schon ohne zusätzlich Spannung, da bietet die Titan X / 980 Ti dann mehr "Luft".

Das war einer der Gründe warum ich die Fury wieder verkauft habe.

Godmode
2015-12-08, 18:51:26
Ich glaube die Sicherheitsmargen sind hoch genug, sonst hätte ich schon viele geschrottete CPUs+GPUs. Sollte die TX doch mal die Grätsche machen, kaufe ich eben einen neue. :tongue:

Das PT auf 400W reicht übrigens aus, und das wird auch nur zu 92% = 368W ausgelastet. Somit bin ich noch ein fast 100W von 475W entfernt.

wenn man beide ausreizt - so wie das hier im 3DC üblich ist - saufen beide chips wie ein loch. (475W Titan Bios, hello?)

und hardware, die man dauerhaft mit >=150% "Default" Last fährt... das kann nicht gut sein.

Nur das die Fury weit nicht so hoch taktbar ist, wie ein GM200. Was liegt den zwischen Fury X maxed vs TX maxed? 30%?

Hübie
2015-12-08, 19:45:08
Einerseits muss nVidia ein jegliches Modell so validieren, dass es auch im Hochsommer Israels standhält und andererseits muss man immer beachten, dass mögliche Nachfolger doch ein gutes Polster benötigen um den Absatz nicht zu gefährden. Deshalb setzt man halt einfach konservativ an. So erspart man sich ja auch Rücklaufquoten.

@Godmode: Meinst jetzt max OC Fury X vs. max OC 980 Ti?? Glaube keine 20%. Bei computerbase.de liegt eine 980 Ti OC ~13% in 1440p vor der Fury X @stock. Welche OC das ist weiß ich gerade nicht und entsprechend auch net den Takt. Musst mal schauen.
In 4k ist es dann noch deutlich weniger.

woodsdog
2015-12-08, 20:10:23
bitte mitlesen.

es geht hier zur Abwechslung um absolute Verbrauchszahlen.

Ob das Chip A mit 10MHz und Chip B mit 10000MHz säuft ist völlig belanglos. Genau so ist die Performance der Chips in der Fragestellung egal.

Ausgehend von 250W Default sind 368W ~150%. wer glaubt das die Hersteller ernsthaft ihre karten auf sowas dauerhaft auslegen.... naja, der kauft halt einfach eine neue. Is ja egal :)

ernsthafft...?

Hübie
2015-12-08, 20:28:30
Moment. Reden wir explizit vom Ref-Modell? Da gibt es auch einen gewissen Spielraum. Der ist vielleicht nicht bei Faktor 1,5, jedoch sicher so um die 1,3 bis 1,4. Bei GeForce-Karten sind die Spulen und MOSFETs beinahe immer die Achillesferse.
Was genau bezweckt dein Auftreten eigentlich gerade? Spätestens in eins, zwei Seiten kommen die ersten die dann sagen, dass deren bis ans Limit übertaktete Karte seit 3 oder 5 Jahren einwandfrei beim Kumpel weiter laufen. Somit zerläuft die Diskussion ins Leere, weil keine Beweise kommen. ;)

robbitop
2015-12-08, 20:54:14
IdR sind die deutlich mehr geschirmt und vor allem so designed dass es schon sehr starke Induktion sein muss um das andere Feld zu beeinflussen. Die größten Felder treten bei diesen Knicken auf, da hier Reflektionen mit auftreten. Und es sind ja nicht zwangsläufig 50% mehr Strom. Meistens bewegt man sich bei 35 Ampere pro Rail und das geht dann mal auf 45. Auf Ref-Karten gern mal 50 Ampere. Je mehr Rails, desto entspannter wird die Situation. Das ist mein Kenntnisstand.
Das beantwortet meine Frage zu Elektromigration leider nicht. :)

Hübie
2015-12-08, 21:22:42
Das kann ich kurz mit Nein beantworten. Signifikant nicht.

Godmode
2015-12-08, 21:30:15
@Godmode: Meinst jetzt max OC Fury X vs. max OC 980 Ti?? Glaube keine 20%. Bei computerbase.de liegt eine 980 Ti OC ~13% in 1440p vor der Fury X @stock. Welche OC das ist weiß ich gerade nicht und entsprechend auch net den Takt. Musst mal schauen.
In 4k ist es dann noch deutlich weniger.

Mit maxed OC meine ich zb. meine 1550 MHz Titan X vs die beste Fury X hier im Forum. Die Fury lässt sich ja IIRC nicht wirklich über 1150 MHz takten, oder?

Hübie
2015-12-08, 21:41:48
Also Pimmelvergleich. Da sehe ich so keinen Sinn, weil es zu stark schwankt. Ist dann so ein "bis-zu-Wert", der auch 0 impliziert.
Da interessiert mich schon eher wie die beiden mit GPU & VRAM-Takt skalieren und wie stark der Verbrauch ansteigt. Dazu noch die maximal spielbaren Settings für 4k. Denke da kommt die Fury X gar nicht mehr so schlecht weg. ;)

Godmode
2015-12-08, 21:47:33
Eigentlich wollte ich keinen Schwanzvergleich. Meinetwegen ziehst du von meiner noch 100 MHz ab, 1450 MHz pakt wohl jeder GM200 mit Modbios und guter Kühlung. Der Abstand zur Fury X würde mich dann eben interessieren.

Analog dazu, was pakt Fiji mit guter Kühlung (alltags tauglich) und Power/Volt mods?

Hübie
2015-12-08, 21:52:50
Irgendwo in den Tiefen sah ich mal 1250 MHz. Bei vielen wird es über 1150 / 550 schon instabil. Bin sowohl hier, wie auch im Luxx aktiv am Lesen im entsprechenden Sammler (wobei da wenig über OC geschnackt wird) und schau hier und da mal in anderen Foren rein. Auch über den großen Teich. Tenor ist immer gleich.

Skysnake
2015-12-08, 22:08:11
Ist Elektromigration etwas was bei Leiterbahnen im PCB in signifikanter Form auftritt? Ich nahm immer an, dass das eher bei µ/nano Strukturen relevant ist.

Die Leiterbahnen werden natürlich wärmer als geplant.
Wer spricht vom PCB? Das kann man durchaus "einfach" so designen, dass da die Ströme abkann.

Das Problem ist der Chip/ASIC. Auf dem PCB kannste mehr Phasen machen, dickere Lagen usw usf. Der ASIC ändert sich aber eben nicht, und der Strom, der durch das PCB geht, muss ja irgendwo durch, und nein ich denke nicht, dass da ein Heizdraht draufgeschnallt wird :tongue:

Also fließen durch den Chip gewaltig viel mehr Ampere, und das wird durch die Margen nicht abgedeckt. Das ist völlig unberechenbar, wann da einem der Chip hops geht. Klar, die Dinger sind auf 10 Jahre Laufzeit bei hohen Temps ausgelegt. Also das man irgendwo <1% Ausfallwahrscheinlichkeit liegt, aber bei derart hohen Strömen heizen sich die Leiterbahnen lokal sehr viel stärker auf als normal. Und das fatale ist ja, dass die schwächsten Stellen sich auch noch am stärksten Aufheizen und so noch schneller wegbruzeln...

woodsdog
2015-12-08, 22:27:39
Mit maxed OC meine ich zb. meine 1550 MHz Titan X vs die beste Fury X hier im Forum. Die Fury lässt sich ja IIRC nicht wirklich über 1150 MHz takten, oder?

ihr redet zusammen am Thema vorbei!!!

Hübie
2015-12-08, 22:30:08
Dann drück dich klarer aus!!!111einseinself X-D

Das Board kann mit Sicherheit 350+ Watt ab. Ist ja kein Kopfstand. Das andere ist dann eben Package und Die.

Thunder99
2015-12-09, 00:54:25
Dann drück dich klarer aus!!!111einseinself X-D

Das Board kann mit Sicherheit 350+ Watt ab. Ist ja kein Kopfstand. Das andere ist dann eben Package und Die.
Können ja, aber wie lange. Das ist die Frage :wink:. Gute Kühlung verlängert die Betriebsdauer aber dennoch glaube ich das kein Leiter es auf lange Sicht das verträgt.
Man kann ja auch nicht Starkstrom (380V) durch eine 12V Leitung auf Dauer schicken, auch wenn alles perfekt gekühlt ist (überspitzt ausgedrückt). Aber ohne Tiefer in der Materie drin zu sein ist es nur Mutmaßungen meinerseits.

Nicht umsonst wurde damals angefangen das PT einzuführen, oder nicht? :confused:

x-force
2015-12-09, 01:15:21
Man kann ja auch nicht Starkstrom (380V) durch eine 12V Leitung auf Dauer schicken, auch wenn alles perfekt gekühlt ist (überspitzt ausgedrückt).

die verlustleistung, sprich erwärmung, hängt vom strom(ampere) ab und nicht von der spannung(volt).

"In speziellen Fällen wo ein ausreichend dimensionierter Leiterquerschnitt aus technischen Gründen nicht möglich ist, muss durch zusätzliche Kühleinrichtungen am Kabel die Verlustwärme laufend abtransportiert werden. Beispiele dafür stellen die im Hochspannungsbereich eingesetzten Hochspannungskabel und Ölkabel mit einer zusätzlichen äußeren Wasserkühlung dar."

das problem dürfte hier sein, daß die gpu kein kupferkabel ist, sondern ein mikroskopisch kleiner halbleiter, da sind ganz andere effekte interessant. den vergleich zu einem kabel kann man da eher nicht ziehen.
fürs pcb alleine sollte das jedoch gelten.

Thunder99
2015-12-09, 11:36:07
die verlustleistung, sprich erwärmung, hängt vom strom(ampere) ab und nicht von der spannung(volt).

"In speziellen Fällen wo ein ausreichend dimensionierter Leiterquerschnitt aus technischen Gründen nicht möglich ist, muss durch zusätzliche Kühleinrichtungen am Kabel die Verlustwärme laufend abtransportiert werden. Beispiele dafür stellen die im Hochspannungsbereich eingesetzten Hochspannungskabel und Ölkabel mit einer zusätzlichen äußeren Wasserkühlung dar."

das problem dürfte hier sein, daß die gpu kein kupferkabel ist, sondern ein mikroskopisch kleiner halbleiter, da sind ganz andere effekte interessant. den vergleich zu einem kabel kann man da eher nicht ziehen.
fürs pcb alleine sollte das jedoch gelten.
Das ist mir wohl bewusst, aber es kommt da auf den Widerstand darauf an ;) wenn du es schon ansprichst. :D

Aber wie gesagt bin nicht in der Materie drin was so eine Leiterbahn bzw die Verbindungen auf dem PCB so aushalten bis sie wirklich am Ende sind :)

Loeschzwerg
2015-12-09, 12:49:58
Abseits von irgendwelchen LN2 Sessions habe ich selten eine defekte GPU erlebt, eher sind es die Spannungswandler die nachgeben oder der Speicher.

kruemelmonster
2015-12-09, 14:01:24
Mir ist kürzlich meine GTX 670 Hops gegangen was ich auf zu hohe Temperaturen in Kombination mit zuviel Spannung zurück führe:
Normalerweise arbeitet der Chip bis 70°C mit 1.175v, dank modifiziertem Bios hab ich die Karte über Monate mit 1.187v bei bis zu 85°C betrieben (mit 250w PT auf einer 300w Platine). Dann gabs eines Tages bunte Streifen in Spielen und auf dem Desktop, und Biostext war teilweise nicht mehr weiß sondern bunt.
Imo hätte weder Spannung noch Temperatur alleine dies verursacht, es war die Kombination aus beidem über einen längeren Zeitraum.

Momentan läuft die Karte wieder, frisch gebacken (170°C 30min Umluft) und per Bios undervolted so dass bei einer Maximaltemperatur von 75°C ~1100-1150 MHz bei 1.05-1.10v anliegen. Mal schauen wie lange das so gut geht...

Godmode
2015-12-25, 14:12:38
Ja sie drosselt jetzt nicht mehr. Beim Eigenbau BIOS war das immer der Fall. Witcher3 läuft jetzt mit 1550 MHz ohne zu murren.

Vorgestern hatte ich in MGS5 dann doch wieder einen Treiber Reset. Ich habe jetzt den Takt nochmal um 10 MHz gesenkt.

mFuSE
2015-12-25, 14:54:47
Vorgestern hatte ich in MGS5 dann doch wieder einen Treiber Reset. Ich habe jetzt den Takt nochmal um 10 MHz gesenkt.

liest sich nicht gut :(
Deine Karte ist nach allem was ich bisher gelesen habe eine der am besten gehenden .... vll sind generell Takraten über 1,5Ghz für'n GM200 einfach zuviel?

Benchstable kriegt man sicherlich einige Karten in diese Region .. aber wie viele wirklich zuverlässig auf dem Niveau arbeiten wäre interessant.


Ich mein, beschweren kann man sich ja nicht ... wir reden hier von >150% Takt ... das ansich ist ja schon beachtlich.

(del)
2015-12-25, 17:48:04
Laut einem Boardpartner haben sie die handselektierten Vollausbauten auf "Eine aus Tausend" getauft, was wohl auch auf den Glücksfall schließen lässt, um als Retail-Käufer an so einen gut gehende Karte zu kommen. Ich habe eine Gigabyte GTX 980 Ti Xtreme Gaming Waterforce hier, die läuft bei + 87mV jetzt stabil 1550 (die Retail aus dem Versand knickt bei 1525 MHz weg), die selektierte TitanX schafft hingegen "nur" 1497 MHz, allerdings mit anderem Kühler. Das sind aber absolut seltene Glücksgriffe bzw. wie bei mir Giveaways der Boardpartner.

Jede TitanX mit über 1,4 GHz Boost ist schon ein echter Volltreffer, meist ist jedoch deutlich darunter Schluss. Ich habe die übertakete TitanX stundenlang rendern lassen (Iray), damit gezockt und stressgetestet. Sicher laufen auch erst mal 1513 MHz, aber leider nicht rockstable. Goodmode hat da offenslichtlich echt ein Schätzchen erwischt. :)

mFuSE
2015-12-25, 18:32:14
Eine 980TI hat immerhin "nur" 2816:176:96 statt 3072:192:96.
Karten mit weniger Einheiten ließen sich immer besser übertakten, daher würde ich nur begrenzt die Ergebnisse der 980er TI mit denen des Vollausbaus vergleichen.

Generell ist das Thema Temperatur und Stromaufnahme bei den nVidias ja wohl so eine Sache, je nach Lüfter und Aufbau variieren die Ergebnisse doch extrem.

Nach jahrzehntelangem Luftkühlen muss ich als relativ neuer Wasserjünger aber sagen - es ist unglaublich wie angenehm das ist sich über sowas keine Gedanken mehr machen zu müssen :freak:


Die Titan die unter Luft "nur" 1497 Mhz schafft würde ich gerne mal unter Wasser sehen :biggrin:

(del)
2015-12-25, 18:43:01
Sie war unter Wasser ;) Der Prototyp des Luftkühlers, der da momentan drauf sitzt, schafft die knapp 300 Watt Leistungsaufnahme locker weg, der kann auch über 400 Watt. Das Problem ist hier nicht die Größe des Ausbaus an sich, sondern einfach die Limitierung durch den Chip selbst. Größere Spannungserhöhungen sind immer Gift für die Chips, weil die Elektromigration überwiegend spannungsbedingt ist. Das alles wirklich langzeitstabil hinzubekommen ist Glückssache und bedingt die Einsicht in die Vernunft, wenn es eben nicht mehr ohne weiteres höher geht.

Ich bin seit Jahren Wasserkühlungsfreak und teste hier jede Menge Dinge - eine generelle Aussage, dass Wasser das Allheilmittel für taktunwillige Karten sei, würde ich so nicht unterschreiben wollen. Es entlastet einen um viele Probleme, nur sind eben die Karten, die schon unter Luft OC-Krüppel sind, das selbe auch unter Wasser. Diese spezielle TitanX packt auch mit einer EKWB-Lösung die 1500++ MHz nicht stabil, oghne sinnlos Pulver drauf zu geben. Ist halt so und nicht zu ändern, leider. Nicht jeder kann so ein Mega-Los ziehen wie Goodmode. Wobei ich voll zufrieden bin, denn es reicht auch so.

mFuSE
2015-12-25, 19:06:03
sooo beeindruckend finde ich das dann allerdings nicht mehr.
Mit original Bios schaffe ich mit meiner recht mittelmäßigen Karte ja 1480Mhz problemlos, mit Mod-Bios und etwas mehr Spannung sind dann auch stabile 1515 Mhz drinnen.
Bis irgendwo knapp an die 1534/1536 geht's ohne Auffälligkeiten, darüber wird es dann nicht reproduzierbar instabil - ohne eine weitere Spannungsstufe, aber über 1.256V will ich nicht gehen.

Das Problem ist hier nicht die Größe des Ausbaus an sich, sondern einfach die Limitierung durch den Chip selbst. Größere Spannungserhöhungen sind immer Gift für die Chips, weil die Elektromigration überwiegend spannungsbedingt ist. Das alles wirklich langzeitstabil hinzubekommen ist wirklich Glückssache und Einsicht ind die Vernunft, wenn es eben nicht mehr ohne weiteres höher geht.
jua, das stimmt. Übertakten ist immer ein gewisses Risiko.
Wer hinterher heult weil ihm die Karte abgeraucht ist nachdem er sie getreten hat ist eh nicht mehr zu helfen ;)

Intel macht bei seinem CPUs Vorgaben was man an Spannung maximal draufballern darf - wenn man da etwas darunter bleibt reicht das für ordentliches OCs meistens trotzdem noch aus.

Ich meine auch bei nVidia eine Obergrenze an Spannung gelesen zu haben, weiß aber nicht mehr genau wo diese liegt, war aber mehr als man im normalen Bios einstellen kann.

Klar kann man CPUs nicht mit GPUs vergleichen ... aber ich sitze auf nem Q9550 der auf 3,61Ghz vor sich hin brät - und einfach nicht kaputt gehen will :freak:
Genauso wie die immer noch voll funktionsfähigen x850XT PE oder 7900GTX Karten..

Zwar sind die modernen Chips aufgrund feinerer Strukturen empfindlicher .. allerdings konnte auch ein Intel P4 trotz 130nm? einen recht plötzlichen Tod sterben wenn man zuviel Spannung bei zu wenig Kühlung drauf gegeben hat.


Wenn mir meine Titan durchbrennt, dann wurde es einfach mal Zeit :freak:


edit:
Diese spezielle TitanX packt auch mit einer EKWB-Lösung die 1500++ MHz nicht stabil, oghne sinnlos Pulver drauf zu geben. Ist halt so und nicht zu ändern, leider. Nicht jeder kann so ein Mega-Los ziehen wie Goodmode. Wobei ich voll zufrieden bin, denn es reicht auch so.

Jua,
Wobei ich das Thema übertakten generell nicht mit Wörtern wie "sinnlos", "vernünftig" und "nachhaltig" in Verbindung bringen würde ^^

Ich hab die Wahl zwischen
- 1441 Mhz bei 1,174 Volt
oder
- 1515 Mhz bei 1.256 Volt

Also für 70 Mhz brauche ich um durch die 1,5er Mauer zu kommen 0,08 Volt - was sehr viel sind - für lächerliche 70 Mhz ...
Da mein Netzteil nicht mehr das neuste ist, betreibe ich sie wieder auf 1,44 Ghz bei 1,17 Volt
Aber sollte ich irgendwann mal doch auf Skylake wechseln, ein neues NT mitnehmen, dann schaue ich mal was die Titan so mitmacht ;)

(del)
2015-12-25, 19:46:54
Da ich meine Karten zumindest so lange am Leben halten muss, wie ich sie in Benchmarks oder für Vergleiche benötige, schließen sich bestimmte Verhaltensweisen leider von vornherein aus ;)

Risiko kann ich mir nicht leisten, leider. Nur bei den 980 Ti ist eine Schwemme da, bei den TitanX eben nicht.

Trill
2015-12-25, 20:10:33
Eigentlich wollte ich keinen Schwanzvergleich. Meinetwegen ziehst du von meiner noch 100 MHz ab, 1450 MHz pakt wohl jeder GM200 mit Modbios und guter Kühlung. Der Abstand zur Fury X würde mich dann eben interessieren.

Analog dazu, was pakt Fiji mit guter Kühlung (alltags tauglich) und Power/Volt mods?

Also ich habe derzeit eine Fury X@1150 und eine Titan X@1500 gleichzeitig im Rechner, was möchtest du den genau wissen? Evtl. kann ich ja helfen und was dazu sagen, was du wissen möchtest?

horn 12
2015-12-25, 20:48:09
1300 Mhz einer Fury X sollter in etwa gleich ziehen mit GTX 980TI 1500 Mhz
Nur macht dies keine Fury X mit :-(

Trill
2015-12-25, 21:22:21
Also ich kann nach zwei Tagen testen sagen, eine Titan X@1506MHz Core 1950 Speicher vernichtend die Fury X@1150 förmlich, was die Frames angeht. Bei mir liegt meine Titan X in allen Games 10-15-20 manchmal sogar 25-30 Frames vorne, in 2560x1440, je nach Einstellung in den Games. Dann wird eine Fury X@1300 mit einer GTX 980Ti@1500 wohl kaum gleichziehen. Eine Fury X@1150 ist in etwas so stark, wie eine hoch getaktete GTX 980@1500+ ohne Ti. Anders sieht die Rechnung allerdings aus, wenn man UHD zockt und Freesync zum Einsatz kommt, dann kann die Fury durchaus punkten und man bekommt für die Kohle ein durchaus spielbares Setup, wenn man nicht gerade ein Framejunkie ist, der bei 50 Freesync-Frames die Ruckelkrätze bekommt.

Ich habe die Fury X nur mal bestellt, um mal Freesync mit G-Sync zu vergleichen und bei UHD macht die Fury da durchaus eine gute Figur, für die Kohle. Aber nur bei 4K!

x-force
2015-12-25, 21:37:51
Eine Fury X@1150 ist in etwas so stark, wie eine hoch getaktete GTX 980@1500+ ohne Ti.

genau so siehts leider mehrheitlich unterm strich aus.
und das sag ich als nvidia besitzer :frown:

horn 12
2015-12-25, 22:27:07
Darunter ist die Fury X auch nicht wirklich gedacht.
Meine Sapphire Fury, wäre freischaltbar zu Fury X schafft Batman AK in 4K mit 30 fps und läut auf Stock
Da sollte eine Fury X auf 1150 Mhz knappe 40 fps erreichen,- und was erreicht dort eine GTX 980 TI @1500 Mhz ---> Vielleicht 45 fps.

x-force
2015-12-26, 02:50:51
Darunter ists die Fury X auch nicht wirklich gedacht.
Meine Sapphire Fury, wäre freischaltbar zu Fury X schafft Batman AK in 4K mit 30 fps und läut auf Stock
Da sollte eine Fury X auf 1150 Mhz knappe 40 fps erreichen,- und was erreicht dort eine GTX 980 TI @1500 Mhz ---> Vielleicht 45 fps.

das nenne ich fehlkonstruktion. 60fps sind absolutes minimum für mich und viele andere die sich eine grafikkarte zum preis eines kompletten pcs kaufen.

dazu hast du insbesondere in 4k mit nur 4gb ram mikrorockler, die in fps angaben nicht abgebildet werden.

Godmode
2015-12-26, 11:17:13
Also ich habe derzeit eine Fury X@1150 und eine Titan X@1500 gleichzeitig im Rechner, was möchtest du den genau wissen? Evtl. kann ich ja helfen und was dazu sagen, was du wissen möchtest?

Ich wollte nur wissen, wie hoch der Leistungsunterschied ist, was du mir ja einen Beitrag weiter unten dann schon beantwortet hast.

Trill
2015-12-26, 11:47:54
Jau, der Leistungsunterschied ist schon immens - aber auch nur dann, wenn man die Titan X stark übertaktet. Ich sag mal so, wäre die Titan X und GTX 980Ti nicht so gut und hoch übertaktbar, würde es wohl durchaus etwas anders aussehen, denn @Stock bleibt da wirklich nicht mehr so viel Vorsprung. Und rechnet man die Mehrkosten zum Beispiel für G-Sync Monitore mit ein, dann wird es echt übel.

Den neben der Erkenntnis, dass die Fury X gegen eine höher übertaktete Titan X nicht ansatzweise ankommt, kann ich auch resümieren, G-Sync ist echte abzocke, denn Freesync funktioniert kein bisschen schlechter! Jetzt weiß ich auch, warum Nvidia Freesync wohl nie unterstützen wird. Gut, bei den 144Hz Monis kann G-Sync noch punkten, aber wenn man in UHD spielt auch nicht mehr wirklich, denn in UHD macht auch eine einzelne stark übertaktete Titan X ohne G-Sync nicht wirklich Spaß, es sei denn man schraubt die Details sehr weit runter.

Ich habe seit kurzem einen LG 27MU67 (vorher hatte ich den Acer XB270HU, konnte das miese gelbe unscharfe Bild aber nicht mehr länger ertragen, nachdem der LG daneben stand :D) der in UHD-Auflösung mit Freesync und Mod 33 - 60 Freesync-Hz mitmacht und zusammen mir der Fury X ein durchaus passables Paket abgibt.

Bei mir brechen der Fury X aber die massiven Nachladeruckler das Genick, so was geht gar nicht. Wo die Titanx X flüssig durchzieht, sieht man mit der Fury X häufig ein Stocken und Nachladeruckler, egal, welchen Treiber ich ausprobiert habe, bei so vielen Games.

So werde ich wohl meine Sahne Titan X mit über 80 Prozent Asic, die für 100 Prozent stabile 1506/1950 nur 1.218V braucht, verkaufen und zwei GTX 980Ti holen, damit ich mit hohen Details die 60Hz immer halten kann. Denn vernünftige UHD-Monitore mit G-Sync gibt es leider nicht, die habe alle die gelbe Pest, den Acer XB271HK hatte ich hier, was für eine bildliche Katastrophe für 850 Euro!

dargo
2015-12-26, 12:09:54
Also ich kann nach zwei Tagen testen sagen, eine Titan X@1506MHz Core 1950 Speicher vernichtend die Fury X@1150 förmlich, was die Frames angeht.
Eine 1050€ Graka ist also schneller als eine 650€ Graka. Welch ein Wunder. :eek:

horn 12
2015-12-26, 12:23:37
Bitte wo siehst du bei Fury Nachladeruckler ?
Einzig unter 4K bei diesem Game: Lords of the Fallen Game of the Year Edition
sieht mal das Bild öfter etwas hängen,- und dies wohl weil der Speicher zur Gänze belegt ist
Bei GTX 980 TI aber auch der Fall,- und dort werden die 6GB gar voll

Raff
2015-12-26, 12:24:34
So werde ich wohl meine Sahne Titan X mit über 80 Prozent Asic, die für 100 Prozent stabile 1506/1950 nur 1.218V braucht, verkaufen und zwei GTX 980Ti holen, damit ich mit hohen Details die 60Hz immer halten kann. Denn vernünftige UHD-Monitore mit G-Sync gibt es leider nicht, die habe alle die gelbe Pest, den Acer XB271HK hatte ich hier, was für eine bildliche Katastrophe für 850 Euro!

Lass das besser, immer weniger Spiele kommen mit SLI klar. Eine TX mit maximaler Übertaktung bringt ihre 100 % immer, Dual-GPU oft nur 50 %.

Eine 1050€ Graka ist also schneller als eine 650€ Graka. Welch ein Wunder. :eek:

Preise sind flexibel und die TX völlig überteuert (die alte Leier). Eine maximal übertaktete GTX 980 Ti für ebenfalls 650 Euro zieht eine maximal übertaktete Fury X auch klar ab, leider.

MfG,
Raff

Trill
2015-12-26, 13:28:22
Jau, ich habe da ja auch noch schlechte Erinnerungen an mein altes SLI bestehend aus zwei 680er, bin da ja auch hin und hergerissen - vielleicht lasse ich die Titan X und die Fury X ja einfach beide drin, ist auch ganz nett. So kann ich fröhlich hin und herschalten - die Fury X ist über DP mit dem LG verbunden, dann mit Freesync, die Titan X ist gleichzeitig über HDMI 2.0 mit dem LG verbunden, klappt supi. Dann müsste ich die Fury X aber tauschen, die fiept laut, die Pumpe rattert und klackert, die Spulen machen ein Konzert, obwohl zweite Revision der Pumpe, eine absolut miese Qualität dieser AIO-Kühler!

Wenn es doch wenigstens vernünftige G-Sync Monitore geben würde und nicht alle auf diesen schrecklichen AU Optronics Panels basieren würden, wo es noch nicht mal nen Schärferegler gibt. Mein LG 27MU67 mit G-Sync, ein Traum, da würde ich keine Minute länger über SLI nachdenken, denn die Titan X wäre auch hier, für meine Bedürfnisse, ich brauche keine 60+ Frames, vollkommen ausreichend. Na ja, geben wir die Hoffnung nicht auf das Nvidia mal auffällt, dass es auch endlich mal andere Panels und Hersteller mit G-Sync geben sollte, den das Acer und Asus Gamer-Zeugs ist derzeit nicht das Optimale, was Bildqualität angeht.

robbitop
2015-12-26, 14:27:44
Es gibt doch mit dem Asus PG27AQ seit kurzem einen 4K Monitor mit nicht AU Panel. Der soll revht gut sein.

dargo
2015-12-26, 14:31:17
Preise sind flexibel und die TX völlig überteuert (die alte Leier). Eine maximal übertaktete GTX 980 Ti für ebenfalls 650 Euro zieht eine maximal übertaktete Fury X auch klar ab, leider.
Das Thema ist hier aber TX und nicht TI. Wenn wir schon OT sind dann darf ich auch gleich anmerken, dass sowohl die 980TI als auch die Fury X zu teuer sind für das was sie leisten. OC interessiert mich übrigens schon lange nicht mehr.

aufkrawall
2015-12-26, 14:39:26
Würde es mich auch nicht, mit einer GPU, die fast kein OC mitmacht. ^^

Trill
2015-12-26, 14:51:09
Es gibt doch mit dem Asus PG27AQ seit kurzem einen 4K Monitor mit nicht AU Panel. Der soll revht gut sein.

Der hat doch aber das gleiche Panel wie der Acer XB271HK, also auch AU Optronics - klick (https://pcmonitors.info/reviews/asus-pg27aq/) .. und noch mal 50 Euro teurer als der Acer, 900 Euro, und auch dieser hat nicht mal einen Schärferegler für die Kohle ...und so wie ich es auf den Bildern und Videos sehe, ist auch der wieder von der gelben Pest geplagt. Fast 400 Euro Aufpreis nur für G-Sync und nicht mal HDMI 2.0 und HDCP 2.2 bei einem UHD-Monitor, neeee, niemals.

phoenix887
2015-12-26, 15:02:12
Würde es mich auch nicht, mit einer GPU, die fast kein OC mitmacht. ^^

Gut gekontert;D

BlacKi
2015-12-26, 15:10:04
Das Thema ist hier aber TX und nicht TI.
mag schon sein, aber dich wunderts nicht das eine tx schneller ist als eine fury x obwohl eine tx praktisch nichts anderes ist als eine zu teure ti mit mehr ram?

ich denke ob etwas zu teuer ist lasse ich lieber die entscheiden die dafür bereit sind den preis zu zahlen. als alternative habe ich ja immernoch eine ti zur auswahl. die 650€ für die ti finde ich im verhältniss zum rest des marktes nicht zu teuer, mal davon abgesehen das der ganze markt wegen des euro dollar kurses zu teuer erscheint.

dargo
2015-12-26, 15:49:04
die 650€ für die ti finde ich im verhältniss zum rest des marktes nicht zu teuer, mal davon abgesehen das der ganze markt wegen des euro dollar kurses zu teuer erscheint.
Ich schon. Die interessantesten GPUs gibts immer noch im Bereich von knapp über 300€. Mir fehlt irgendwie der Kaufanreiz für die 500-650€ GPUs. Für was denn? Es gibt noch nicht mal Spiele die nach solcher Leistung schreien. Seit es VRR gibt ist der GPU Markt noch langweiliger geworden als der eh schon war. Wenn ich so meine Spiele hier überblicke dann fehlt mir wenn ich ehrlich bin nirgendwo Leistung @1440p. Ok... bei Witcher 3 wäre es zwar nicht verkehrt wenn ich min. 50fps anstatt min. 40fps hätte. Aber deswegen die GPU wechseln? Nee lass mal. Zumal es eh so selten passiert. Eventuell bei 14/16nm wenns mal wieder ein gutes Angebot bei 300-350€ gibt. Ich amüsiere mich jedenfalls hier jedes Mal köstlich wenn wieder Unsummen in die Graka gesteckt werden um nachher eh sich wieder ohne einen VRR Bildschirm durch die Spiele durchzuruckeln. :ulol:

BlacKi
2015-12-26, 17:34:05
30-40fps sind selbst mit freesync/gsync für mich keine option. 144fps/hz bei 1440p mit einer 980ti dagegen schon. oder in meinem fall 1080p 144hz/fps mit einer 970 aber jedem das seine. das VR headsets lieber auf 90hz gehen anstatt auf freesync/gsync zeigt das ich da nicht ganz falsch liege.

Hübie
2015-12-26, 17:52:38
Ich schon. Die interessantesten GPUs gibts immer noch im Bereich von knapp über 300€. Mir fehlt irgendwie der Kaufanreiz für die 500-650€ GPUs. Für was denn? Es gibt noch nicht mal Spiele die nach solcher Leistung schreien. Seit es VRR gibt ist der GPU Markt noch langweiliger geworden als der eh schon war. Wenn ich so meine Spiele hier überblicke dann fehlt mir wenn ich ehrlich bin nirgendwo Leistung @1440p. Ok... bei Witcher 3 wäre es zwar nicht verkehrt wenn ich min. 50fps anstatt min. 40fps hätte. Aber deswegen die GPU wechseln? Nee lass mal. Zumal es eh so selten passiert. Eventuell bei 14/16nm wenns mal wieder ein gutes Angebot bei 300-350€ gibt. Ich amüsiere mich jedenfalls hier jedes Mal köstlich wenn wieder Unsummen in die Graka gesteckt werden um nachher eh sich wieder ohne einen VRR Bildschirm durch die Spiele durchzuruckeln. :ulol:

Also bist du nur aus Schadenfreude und zum flamen in diesem Thread unterwegs oder wie? :| 300-Euro-Gurken würden mir im Leben nicht reichen. Aber da du die Leistung nicht kennst, vermisst du die gar nicht erst. Ist wie mit dem Monitor. Erst wenn der neue in Betrieb geht fragt man sich, wie man es mit dem alten Müll so lang ausgehalten hat. :D
Für mich war die TX am Ende keine Option mehr, da die nur mit Wakü anständig zu betreiben ist (Lautstärke und Performance).

dargo
2015-12-26, 18:11:14
300-Euro-Gurken würden mir im Leben nicht reichen. Aber da du die Leistung nicht kennst, vermisst du die gar nicht erst. Ist wie mit dem Monitor. Erst wenn der neue in Betrieb geht fragt man sich, wie man es mit dem alten Müll so lang ausgehalten hat. :D

Schwachsinn³.

Ich kann immer wenn ich will auf 1080p wechseln und schon habe ich den Eindruck wie eine ~650€ Graka performt. :P

30-40fps sind selbst mit freesync/gsync für mich keine option.
Ich habe nirgendwo von 30-40fps gesprochen, keine Ahnung wo du das dir her saugst? Ich sagte min. 40fps, 98% der Spieltzeit min. 45fps und größer 90% der Spielzeit min. 50fps wenn du es genau wissen willst. Und keine Sorge... ein BF4 spiele ich im MP trotz 1440p mit weit über 100fps @144Hz mit VRR. ;)

BlacKi
2015-12-26, 18:22:33
sry viel zu OT hier.

Hübie
2015-12-26, 18:46:48
Schwachsinn³.

Ich kann immer wenn ich will auf 1080p wechseln und schon habe ich den Eindruck wie eine ~650€ Graka performt. :P


Ich habe nirgendwo von 30-40fps gesprochen, keine Ahnung wo du das dir her saugst? Ich sagte min. 40fps, 98% der Spieltzeit min. 45fps und größer 90% der Spielzeit min. 50fps wenn du es genau wissen willst. Und keine Sorge... ein BF4 spiele ich im MP trotz 1440p mit weit über 100fps @144Hz mit VRR. ;)

Aha. Also schraub ich auf ner 100-Euro-Gurke alles soweit zurück um den Eindruck einer 1000-Euro-Rakete zu haben? Das ist Schwachsinn hoch drei. :facepalm:

dargo
2015-12-26, 19:02:21
Du hast von Leistung gesprochen die ich angeblich nicht kenne, nicht ich. ;)
Aber da du die Leistung nicht kennst, vermisst du die gar nicht erst.

Und wo ich von einer 100€ Graka gesprochen habe wirst du mir auch sicherlich noch zeigen.

Hübie
2015-12-26, 21:16:28
Natürlich meinte ich die Leistungsfähigkeit ohne Abstriche. Sonst macht so ein Vergleich doch keinen Sinn. :confused: Ich habe die 100 eingeführt um deine Aussage überspitzt darzustellen. Die hat ja auch die Leistung deiner 300-Euro-Karte, nach deiner Logik. :facepalm:

(del)
2015-12-26, 21:22:21
Auch wenn Autovergleiche hinken wie zwei schrumpelige Bratwürste:
Auf einer geschwindigkeitsbegrenzten Landstraße kann man auch mit einem gebrauchten 1.000-Euro-Auto alles locker überholen - Ortskenntnis, Erfahrung, mangelnder Gegenverkehr und etwas Lebenmüdigkeit vorausgesetzt. Trotzdem versagen die ganzen aufgeblasenen Knallerbesen auf der Autobahn bei der ersten richtig langen Steigung. Dann ist ganz Links recht schnell eine exterritoriale Landschaft. Was aber noch lange nicht bedeutet, dass sich nun alle richtige Autos kaufen müssen, nur um links locker mitzuschwimmen. Wem die Mittelspur reicht, der kann auch damit glücklich werden.

Trotzdem muss ich Hübie irgendwie Recht geben. Mit einer 300-Euro-Karte darf man eben auch mal mit am Braten riechen. Nur richtig satt werden wird man damit eher nicht. Aber man kann sich Appetit holen und dann eingeschnappt und neidisch sein. Oder zufrieden, weil man gar keinen Hunger hat und die 300 Euro eh schon zu viel sind. Einreden kann man sich eine Menge, nur sollte man damit Dritte bitte außen vor lassen.

Das hier ist der TitanX-Thread und es liest sich genauso albern wie die Geschichte von dem, der mit seinem alten Golf vor dem Mercedes-Autohaus hält, reinstürmt und jedem die fade Story von den überflüssigen Bonzenkarren erzählt. Es langweilt einfach nur. :)

Werewolf
2016-03-13, 01:30:03
Hat jemand ein "harmloses" Modbios das das Power Target von 110 auf 125 heben lässt sowie zulässt die Spannungen einzustellen?

IceKillFX57
2016-03-13, 10:17:18
Könnte man basteln, ist ja kein Hexenwerk auch wenn man einen Hex Editor braucht.