PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce Titan X: 12GB, 8 Mrd. Transistoren, $999: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12

HisN
2015-04-03, 12:30:35
Habt ihr Crashes und Blackscreens wie verrückt?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10577495&postcount=4

Mir wäre das jetzt (ich meine wenn man sein OC denn mal ausgelotet hat) nicht aufgefallen.

Godmode
2015-04-03, 12:43:44
Keine Bluescreens bisher, auch keine Blackscreens. Ich habe auch keinen 4K Monitor.

HisN
2015-04-03, 12:51:51
Wird Zeit^^
Der Philips BDM4065 wartet auf Dein SLI-Power :-)

http://abload.de/thumb/farcry4_2015_03_26_23dap2s.jpg (http://abload.de/image.php?img=farcry4_2015_03_26_23dap2s.jpg)

Godmode
2015-04-03, 12:56:08
Woa ist das Ding geil. ACU mit 4xAA und 1440p flüssig, was zwei übertaktete 980er nicht gebacken bekommen haben, wegen VRAM Mangel. Da geht sogar 2x2 DS in 1440p mit 4xAA ohne das der VRAM ausgeht. Zwar nur mehr 13-15 FPS, aber es geht. Oh man. Ohne AA sinds dann 20-25 FPS was sich mit nur einer Karte und GSYNC auch spielbar anfühlt.

Über 10 GB VRAM Auslastung übrigens.

"12 GB VRAM ist unötig und zuviel" :facepalm:

Palpatin
2015-04-03, 13:29:48
Ohne AA sinds dann 20-25 FPS was sich mit nur einer Karte und GSYNC auch spielbar anfühlt.

Mag sein hat aber wenn dann nichts mit Gsync zu tun.

aufkrawall
2015-04-03, 13:41:24
Jedes Mal, wenn jemand einen exorbitanten VRAM-Verbrauch angezeigt bekommt, ist es auf einmal ein typisches Szenario... :redface:

phoenix887
2015-04-03, 15:05:33
Mag sein hat aber wenn dann nichts mit Gsync zu tun.

Genau. Gsync greift erst oberhalb von 30fps

Orbmu2k
2015-04-03, 15:09:44
Genau. Gsync greift erst oberhalb von 30fps

Gsync greift ab 1fps. Bei kleiner 30fps wird der Refresh vervielfacht aber bleibt synced.

akuji13
2015-04-03, 15:25:50
Wie sind eure Clocks gewesen ohne Mod BIOS?

Mehr als 1350Mhz habe ich noch nicht getestet.

http://abload.de/thumb/asickts12.png (http://abload.de/image.php?img=asickts12.png)

Habt ihr Crashes und Blackscreens wie verrückt?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10577495&postcount=4

Absolut nicht.

PHuV
2015-04-03, 16:00:22
"12 GB VRAM ist unötig und zuviel" :facepalm:

Das sehen manche ganz anders:
GPU-Spekulationen für die Zeit nach der NAB (http://www.slashcam.de/news/single/GPU-Spekulationen-fuer-die-Zeit-nach-der-NAB-12008.html)
Nachdem wir davon ausgehen, dass das kommende After Effects sehr GPU-hungrig werden wird, dürfte GPU-Speicher in Zukunft für viele Videobearbeiter insgesamt deutlich wichtiger werden. Dies könnte eine Chance für AMD darstellen, deren 8GB R290 Modelle aktuell das deutlich bessere Preis-Leistungsverhältnis aufweisen, wenn es um die reine OpenCL-Rechenkraft geht. Bei Nvidia ist jede Karte über 4 GB aktuell noch sehr teuer. Die alten 780 Ti mit 6 GB sind kaum noch zu bekommen und eine neue 980 Ti wird erst für Herbst 2015 erwartet. Sollte das Compositing tatsächlich komplett auf der GPU stattfinden, müssen dort jedoch auch alle Frames aller Layer erklärt Platz finden und dafür wird man nie genug Speicher haben können.

aufkrawall
2015-04-03, 16:48:04
Gsync greift ab 1fps. Bei kleiner 30fps wird der Refresh vervielfacht aber bleibt synced.
Macht sich das nachteilhaft bemerkbar, oder hat man auch unterhalb von 30fps alle A-Sync Vorteile?

ZapSchlitzer
2015-04-03, 16:54:30
Das sehen manche ganz anders:

Gilt aber auch nur für einen kleinen Anteil im prvaten Konsumer Bereich.
Im professionellen Gefilde wird doch eh auf Quadro bzw. Fire Karten gesetzt welche schon länger >= 12 GB bereitstellen.

Dennoch ist es wenig sinnvoll, Unzulänglichkeiten seitens der Spieleentwicklung, mit horrendem Speicherbedarf zu kompensieren.

Grestorn
2015-04-03, 16:59:24
Macht sich das nachteilhaft bemerkbar, oder hat man auch unterhalb von 30fps alle A-Sync Vorteile?

Zumindest keine offensichtlichen Nachteile, tatsächlich auch unterhalb von 30 fps das übliche GSync Verhalten .

Das Video erklärt die Technik. Lang aber lohnenswert.

https://www.youtube.com/watch?v=VkrJU5d2RfA

Schnoesel
2015-04-03, 17:02:43
Das sehen manche ganz anders:

Nur dass dieser Nap nicht mal weiß dass es ne GTX 780 TI 6GB niemals gab.

Godmode
2015-04-03, 17:21:01
Jedes Mal, wenn jemand einen exorbitanten VRAM-Verbrauch angezeigt bekommt, ist es auf einmal ein typisches Szenario... :redface:

Alles was im VRAM ist muss nicht über den PCIe Bus geschaufelt werden, was wiederum zu besseren Frametimes führt.

Thunder99
2015-04-03, 17:50:26
Dann haben wir schon 2 Spiele wo deutlich mehr als 6GB belegen können, AC:U und Shadow of Mordor. Nur ob es wirklich notwendig ist muss man gegen testen :)

Was aber in der Tat ein dickes Plus ist das endlich mal kein Speichermangel für SLI herrscht. :D

dargo
2015-04-03, 17:59:33
Alles was im VRAM ist muss nicht über den PCIe Bus geschaufelt werden, was wiederum zu besseren Frametimes führt.
Nicht zwangsläufig. Kommen schlechte Frametimes von miserabler Threadverteilung in der Engine/Grafiktreiber zustande kannst du noch so viel Vram verbauen, es wird nicht besser. Wie kommt man eigentlich auf die Idee schlechte Frametimes würden nur mit zu wenig Vram zusammenhängen?

Godmode
2015-04-03, 18:05:45
Nicht zwangsläufig. Kommen schlechte Frametimes von miserabler Threadverteilung in der Engine/Grafiktreiber zustande kannst du noch so viel Vram verbauen, es wird nicht besser. Wie kommt man eigentlich auf die Idee schlechte Frametimes würden nur mit zu wenig Vram zusammenhängen?

War vielleicht blöd ausgedrückt, aber gemeint habe ich Spikes in den Frametimes und die kommen sehr oft vom VRAM Nachladen. In der aktuellen PCGH sieht man das sehr schön im Titan X Review (Seite 9, Frametimes WD Ultra HD). In WD in 4K gibt es mit einer GTX 980 große Spikes. Mit Titan C und X nicht.

dildo4u
2015-04-03, 18:15:45
Nich verwunderlich das Game belegt mit Ultra Texturen 4.6GB in 4K.

https://youtu.be/Ra0ss_EVHuU

aufkrawall
2015-04-03, 18:23:19
Nur sollen so ziemlich alle diese VRAM-Fresser auch mit für sie genügend VRAM bei normalen fps nicht wirklich flüssig laufen.
Bei AC: U fängt es in gewissen Bereichen auch häufiger zu stocken an, obwohl mitunter noch jede Menge VRAM frei ist. Beispiel war etwa das erste Rätsel in irgendeiner Kirche. Soll durch Patch verbessert worden sein, aber da finden sich schon noch andere Stellen.
Klar sind die 12GB ein Bonus, zumal es die 980 halt nur mit 4GB gibt. Gegenüber 6 oder 8GB ist dieser Vorteil imho aber nur noch einen kleinen Aufpreis wert.
Gegen Schrott wie Watch dogs hilft das auch nicht. Man kann Gothic 3 auch auf eine RAM-Disk packen und die Caches aufdrehen. Läuft trotz abartigem Verbrauch auch nicht nennenswert besser.

dargo
2015-04-03, 18:53:12
War vielleicht blöd ausgedrückt, aber gemeint habe ich Spikes in den Frametimes und die kommen sehr oft vom VRAM Nachladen. In der aktuellen PCGH sieht man das sehr schön im Titan X Review (Seite 9, Frametimes WD Ultra HD). In WD in 4K gibt es mit einer GTX 980 große Spikes. Mit Titan C und X nicht.
In 4k würde ich schon drauf tippen, dass die 4GB Vram stellenweise gesprengt werden. Da ist es dann natürlich nicht verwunderlich wenn es größere Spikes in den Frametimes gibt. Leider sind schlechte Frametimes aber in vielen Games auch an der Tagesordnung selbst wenn der Vram reicht. Gibt genug Beispiele von. Ich erwarte von den kommenden low level APIs Einiges in dieser Beziehung. Einen kleinen Vorgeschmack sah ich bereits mit Mantle.

Godmode
2015-04-03, 19:47:19
In 4k würde ich schon drauf tippen, dass die 4GB Vram stellenweise gesprengt werden. Da ist es dann natürlich nicht verwunderlich wenn es größere Spikes in den Frametimes gibt. Leider sind schlechte Frametimes aber in vielen Games auch an der Tagesordnung selbst wenn der Vram reicht. Gibt genug Beispiele von. Ich erwarte von den kommenden low level APIs Einiges in dieser Beziehung. Einen kleinen Vorgeschmack sah ich bereits mit Mantle.

Kann hoffentlich nur besser werden. Wenn ich da an die letzten Ubisoft Spiele danke. :freak:

So gerade das BIOS geöffnet und 450W eingestellt. 1450 dürfte meine Karte dauerhaft schaffen, bei 1500 gibts Crashes, trotz max VCore. Dürfte am niedrigen ASIC liegen, die Kühlung wäre ja nicht so schlecht. Jetzt warte ich mal die ASUS Karten ab und dann sehen wir weiter.

Na gut, bin mal weg.

Nightspider
2015-04-03, 20:44:20
Mir kann auch keiner erzählen das AC:U gut programmiert wäre.

Vor allem auf Distanz sieht doch da alles zum kotzen aus. Vielleicht hat das man Texturstreaming so weit verschlechtert weil man auf Grund der tausenden NPCs schon immer im CPU Limit hängt.

Die Entwickler sollten endlich mal Funktionen ermöglichen das man das Streaming bei extrem starken CPUs verbessern kann per Schalter.

Andere Spiele haben genauso gute Texturen aber gehen viel effizienter mit VRAM um und MSAA verschwendet bekanntlich auch viel VRAM.

Und das >10GB belegt sind heißt nicht das es nicht auch gut mit 8GB Karten laufen würde.

dargo
2015-04-03, 21:44:54
Mir kann auch keiner erzählen das AC:U gut programmiert wäre.

Schwer zu sagen. Auf der einen Seite läuft es auf den Konsolen wie Gülle. Gerade hier hätte ich dank low level mehr erwartet. Auf der anderen Seite sind die Frametimes in ACU bei Nvidia sehr gut. Zu dem Streaming auf größere Distanz... möglicherweise ist die niedrige Entfernung mit dem Aufploppen deshalb gewählt weil man die CPU-Anforderungen im Rahmen halten wollte, schließlich sind wir immer noch bei D3D11. Und/oder die Streamingengine ab Punkt X nicht mehr effizient genug arbeitet. Siehe Watch Dogs mit Ultra Texturen.

Nightspider
2015-04-04, 04:05:55
Sagt mal habt ihr auch Probleme mit Fraps 8K Screenshots aufzunehmen?

Fraps nimmt dann nur einen Ausschnitt vom gesamten Bild auf. Jemand eine Idee wie man das Problem umgehen kann oder Alternativen für 8K Screenshots?

akuji13
2015-04-04, 09:20:33
Klappts mit der Funktion z. B. im MSI Afterburner?

Grestorn
2015-04-04, 09:28:25
Fraps nimmt dann nur einen Ausschnitt vom gesamten Bild auf. Jemand eine Idee wie man das Problem umgehen kann oder Alternativen für 8K Screenshots?

Hast Du 2 4k Monitore nebeneinander? Uff.

Nightspider
2015-04-04, 09:35:51
Nein. 4K Monitor + DSR.

Raff
2015-04-04, 09:38:29
So gerade das BIOS geöffnet und 450W eingestellt. 1450 dürfte meine Karte dauerhaft schaffen, bei 1500 gibts Crashes, trotz max VCore. Dürfte am niedrigen ASIC liegen, die Kühlung wäre ja nicht so schlecht. Jetzt warte ich mal die ASUS Karten ab und dann sehen wir weiter.

Welche VCore zeigt der nSpector denn bei dir an?

MfG,
Raff

HisN
2015-04-04, 10:11:02
Sagt mal habt ihr auch Probleme mit Fraps 8K Screenshots aufzunehmen?


Die Screenshot-Funktion von Steam geht^^ (manchmal)


http://cloud-4.steamusercontent.com/ugc/537393237368848917/25273FF961BEA655CD6963952627DCF657A4E4C5/

Edit: Afterburner geht in DX9.


http://abload.de/thumb/hl2_2015_04_04_10_18_d0u3d.jpg (http://abload.de/image.php?img=hl2_2015_04_04_10_18_d0u3d.jpg)

Edit: Geht auch in DX11.
Aber scheinbar wählerisch was das "ich gehe, oder ich gehe nicht" betrifft.
http://abload.de/thumb/shipping-thiefgame_20p1s97.jpg (http://abload.de/image.php?img=shipping-thiefgame_20p1s97.jpg)
In den Telltale-Games z.b. verweigert er den Dienst.

Raff
2015-04-04, 11:28:36
Bestätige, Fraps spinnt jenseits von UHD oft herum, der Afterburner ist jedoch kein Problem. Schlimm wird's erst, wenn man Fraps und den Afterburner parallel laufen lässt, da stürzen viele Spiele ab.

MfG,
Raff

HisN
2015-04-04, 12:04:09
Aber schon cool.
CS-GO in 8K mit 150 FPS^^

akuji13
2015-04-04, 12:19:29
Wobei der Nutzen da doch recht überschaubar ist mMn.

Da skaliert gerne das HUD nicht mit und der content ist bei älteren Titel meist wenig flimmer-anfällig.
Hab ich jetzt erst wieder gemerkt als ich "Vietcong" spielte...was hat das früher geflimmert, heute reicht schon WQHD und alles ist glatt. :D

ChaosTM
2015-04-04, 12:37:51
Was mich interessieren würde ist die VRAM Belegung bei 4K mit normalen, sprich sinn- machenden Einstellungen.
2160p mit 8x MSAA ist keine solche. ;)
Gibt es hier Spiele die deutlich über 6Gb brauchen bzw welche, die sogar den 8er überschreiten?

Raff
2015-04-04, 12:41:14
Watch Dogs und Shadow of Mordor fallen mir spontan ein, da ist man schnell um 6 GiB unterwegs.

MfG,
Raff

HisN
2015-04-04, 13:03:35
Lords of the Fallen (da kann man AA nicht explizit einstellen) belegt sofort fast 8GB.

Nightspider
2015-04-04, 16:55:37
Leute vergesst 4K! 8K ist der Wahnsinn! :D

http://abload.de/img/watch_dogs_2015_04_04l5u1o.jpg

derguru
2015-04-04, 17:35:20
hab ich in dead space 1 mal probiert, da reichten sogar die fps einer 970gtx aber ich habe keinen großen unterschied mehr zum nativen 4k gesehen.

Nightspider
2015-04-05, 03:31:18
Naja das uralte Dead Space hat im Weltraum ja kaum Detailsobjekte die geglättet werden müssen.

Ein Watch Dogs, Battlefield 4 oder Star Citizen ist da ein ganz anderes Kaliber.

Habe deutlich über 100 Screenshots in 8K gemacht von StarCraft 2, AC:Unity, Battlefield 4 und Watch Dogs. In einigen Szenen fällt dir da echt die Kinnladen runter.

Aber kann es sein das die Titan X nicht mehr als ~8GB VRAM belegt wenn nur 8GB RAM verbaut sind? Mein Kumpel hat jedenfalls nur 8GB RAM drin und bei Battlefield 4 konnten wir bei 16K das komische Verhalten beobachten, dass das Spiel wegen zu wenig Speicher (scheinbar auf C :ugly:) abgestürzt ist. Das Game hat einfach mal so ~15GB gefüllt auf C während des Spielens und dann war die SSD bei ihm voll. 16K ist aber echt der totale Brüller. :ugly:
So ein glattes und detailreiches Bild habe ich noch nie gesehen. ;D

BF4 lief auf jeden Fall in 4K flüssig genug um noch diverse Kills zu holen aber in 8K durften die Gegner nicht zu schnell reagieren sonst war mal fix tot. Das dürfte sich spätestens mit der nächsten GPU Generation wieder ändern. :D

Ist aber schon mal ein geiler Ausblick in die Zukunft.

Toppen kann man das wohl nur mit einem 5K Monitor und Titan X SLI um dann 10K oder 20K zu testen. ;D

Knuddelbearli
2015-04-05, 05:05:40
Titan X aber keine Kohle für 16gb ram? XD

OC_Burner
2015-04-05, 10:36:30
Naja das uralte Dead Space hat im Weltraum ja kaum Detailsobjekte die geglättet werden müssen.

Ein Watch Dogs, Battlefield 4 oder Star Citizen ist da ein ganz anderes Kaliber.

Habe deutlich über 100 Screenshots in 8K gemacht von StarCraft 2, AC:Unity, Battlefield 4 und Watch Dogs. In einigen Szenen fällt dir da echt die Kinnladen runter.

Aber kann es sein das die Titan X nicht mehr als ~8GB VRAM belegt wenn nur 8GB RAM verbaut sind? Mein Kumpel hat jedenfalls nur 8GB RAM drin und bei Battlefield 4 konnten wir bei 16K das komische Verhalten beobachten, dass das Spiel wegen zu wenig Speicher (scheinbar auf C :ugly:) abgestürzt ist. Das Game hat einfach mal so ~15GB gefüllt auf C während des Spielens und dann war die SSD bei ihm voll. 16K ist aber echt der totale Brüller. :ugly:
So ein glattes und detailreiches Bild habe ich noch nie gesehen. ;D

BF4 lief auf jeden Fall in 4K flüssig genug um noch diverse Kills zu holen aber in 8K durften die Gegner nicht zu schnell reagieren sonst war mal fix tot. Das dürfte sich spätestens mit der nächsten GPU Generation wieder ändern. :D

Ist aber schon mal ein geiler Ausblick in die Zukunft.

Toppen kann man das wohl nur mit einem 5K Monitor und Titan X SLI um dann 10K oder 20K zu testen. ;D

Probiere doch mal den Registry-Hack für DSR aus. Da sind dann x-beliebige Faktoren möglich. Außerdem läßt sich das ganze zusätzlich mit Classic-Downsampling kombinieren. Da kommen dann das aberwitzige Auflösungen bei raus und das ganz ohne Tools wie GeDoSaTo oder internes Engine-DS.

HisN
2015-04-05, 10:39:56
Link zum hack?

Raff
2015-04-05, 10:45:32
Aber kann es sein das die Titan X nicht mehr als ~8GB VRAM belegt wenn nur 8GB RAM verbaut sind? Mein Kumpel hat jedenfalls nur 8GB RAM drin und bei Battlefield 4 konnten wir bei 16K das komische Verhalten beobachten, dass das Spiel wegen zu wenig Speicher (scheinbar auf C :ugly:) abgestürzt ist. Das Game hat einfach mal so ~15GB gefüllt auf C während des Spielens und dann war die SSD bei ihm voll. 16K ist aber echt der totale Brüller. :ugly:

Kann ich nicht bestätigen, zumindest nicht generell. Mit 8 GiB Systemspeicher habe ich mit extremen Einstellungen auf der Titan X Speicherbelegungen jenseits von 10 GiB gesehen. Könnte eine Eigenart von Betafield sein.

Probiere doch mal den Registry-Hack für DSR aus. Da sind dann x-beliebige Faktoren möglich. Außerdem läßt sich das ganze zusätzlich mit Classic-Downsampling kombinieren. Da kommen dann das aberwitzige Auflösungen bei raus und das ganz ohne Tools wie GeDoSaTo oder internes Engine-DS.

Link zum hack?

Das sieht aber immer noch grützig, sprich "pointsamplig" aus, oder? Insofern ist das eine reine Machbarkeitsstudie.

MfG,
Raff

OC_Burner
2015-04-05, 11:20:37
Link zum hack?

Hier gibt es eine DSR Hack Anleitung für Faktoren jenseits des Faktors x4:
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/360433-geforce-dsr-downsampling-fuer-fermi-kepler-maxwell-so-gehts-das-bringts-13.html#post6919130
3DCenter Thread: DSR - Details zur Technology / #106 - Direktvergleiche (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10408463#post10408463)

Anleitung zur Kombination mit Classis-Downsampling:
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/360433-geforce-dsr-downsampling-fuer-fermi-kepler-maxwell-so-gehts-das-bringts-post6918747.html#post6918747

Das sieht aber immer noch grützig, sprich "pointsamplig" aus, oder? Insofern ist das eine reine Machbarkeitsstudie.

MfG,
Raff

Bilinear (smoothness 0%) bei Faktor x16 ist nicht ganz "pointsampling". Ein paar Pixel werden dann schon noch verrechnet. DSR ist aber bis Faktor x9 Sinnvoll (Smoothness 50%) nutzbar ohne das es auffällig flimmert. In Kombination mit Classic-Downsampling erreicht man das selbe Ergebnis wie GeDoSaTo (Stufenweises Downsampling).

HisN
2015-04-05, 12:31:50
thx

Godmode
2015-04-05, 21:14:47
Welche VCore zeigt der nSpector denn bei dir an?

MfG,
Raff

Unter Last @Stock oder was willst du genau wissen? Also nur mit Mod-BIOS ohne Ocing sind es 1,16 Volt.

Knuddelbearli
2015-04-05, 21:45:05
HT4U Test ist jetzt auch da!

http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index50.php

Raff
2015-04-05, 21:49:00
Unter Last @Stock oder was willst du genau wissen? Also nur mit Mod-BIOS ohne Ocing sind es 1,16 Volt.

So wenig? Direkt nach dem Start? Hast du etwas verändert? Normalerweise sollte so eine Karte bis zu 1,275 Volt per BIOS akzeptieren.

MfG,
Raff

Blaire
2015-04-05, 22:20:41
HT4U Test ist jetzt auch da!

http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index50.php

Oh der Peter hat ja den Testparcours deutlich aufgestockt (nun auch mit AC Unity, COD: AW, Dying Light , Ryse , LotF, Far Cry4 und ME Shadow of Mordor) sehr schön. Respekt das alles durchzutesten da geht viel Zeit für flöten. :) Gleich mal lesen.

Rampage 2
2015-04-05, 23:11:17
HT4U Test ist jetzt auch da!

http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index50.php


Das ist so enttäuschend - nur durchschnittlich ~30% Leistungsgewinn gegenüber der 980 bei annähernd gleichem Takt. Manchmal denke ich sogar, dass es am Treiber liegt - dass also die Treiber für die Ti-X noch nicht erwachsen sind.

Ich habe absolut kein Verständnis dafür, dass es Leute gibt die für 30% mehr Leistung bereit sind, mehr als den doppelten Preis zu zahlen. Wenn das Ding wenigstens durchschnittlich 35-40% schneller (ohne OC!!!) wäre als die 980 und mit OC durchschnittlich 45-50%, dann wäre es auch nicht vertretbar aber wenigstens nicht lächerlich...

Ich bin mir ziemlich sicher, dass NV noch eine "Black Edition" zum selben Preis (999$) mit höherem Chip- und Speichertakt rausbringt - auch deswegen, um Fiji zu kontern. Die reguläre Ti-X wird dann wohl für ein paar Hundert Euro weniger angeboten...

Die aktuelle Ti-X wird nämlich von Fiji locker geschlagen, wenn die Fiji-Specs wahr sein sollten...

R2

Edit: Und warum benchen alle Crysis 3 nur mit "High" Settings - man kauft sich doch keine 1000€-Karte um ein Spiel mit verringerter Grafikpracht zu spielen:facepalm:

Selbst mit meiner 770 spiele ich C3 mit Max Settings und etwas Post-AA @ 1080p - das Spiel läuft sorglos rund...

Raff
2015-04-05, 23:23:18
"Alle" benchen Crysis 3 gewiss nicht mit reduzierten Details. Dass die Titan X viel zu teuer ist, wird indes niemand bestreiten. :)

MfG,
Raff

horn 12
2015-04-06, 00:03:07
Nun, falls die Specs stimmen sollten, und gar laut AMD übertreffen dürfte gar eine R9 390 knapp an eine Titan X heranreichen. (Vielleicht knappe 15% darunter bleiben)
Eine R9 390X könnte gut 65% schneller sein als R9 290X und die AIO gar um die 80% und man hätte mit einer 1400 - 1500 Mhz Titan X wohl in etwa Gleichstand.

boxleitnerb
2015-04-06, 00:04:46
HT4U Test ist jetzt auch da!

http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index50.php

Wieder mal ein für mich nicht nachvollziehbarer Test. Techpowerup und Computerbase kommen auf ähnliche Taktraten in der Praxis, und verrechnet man das mit der Leistung, die herauskommt, leistet Titan X pro Takt knapp 50% mehr als die GTX 980 (was auch Sinn macht, immerhin ist alles skaliert und entsprechend mehr Saft zieht die Karte auch). PCGH misst fast dasselbe - 30% mehr Leistung, deren 980 darf aber nochmal 13% höher takten, macht wieder ca. 50%. Bei HT4U passt das hinten und vorne nicht. Und Ausführlichkeit und Aufwand hin oder her - wenn drei Redaktionen, die insgesamt sicher 40 Spiele benchen, im Einklang andere Ergebnisse rausbekommen, traue ich eher denen als den permanenten Ausrutschern von HT4U.

dildo4u
2015-04-06, 00:23:24
Jup warum zur Hölle hat er je zwei mal AC,COD und Far Cry drinn teste den neusten Teil und gut ist.Je älter das Game um so eher kommt man in CPU Limits.(AC:Black Flag z.b)

Knuddelbearli
2015-04-06, 00:27:26
Deshalb guckt man Intelligenter weise ja einfach auf den Direktvergleich anstatt hier rumzuheulen das zuviel getestet wird ...

Und nur dank der Tests von älteren Spielen hat man bei HT4U eine Vergleichbarkeit über X Grafikkarten und Generationen wie sonst nirgendwo.
Außerdem gibt es für ältere Spiele ja DS und sieht dann genau ob dann noch Reserven für 4k da sind ( sind sie zB bei Assassins Creed IV: Black Flag nicht )

horn 12
2015-04-06, 00:36:14
Titan X ist ansich eine TOP Karte, durch den schwachen AMD/ ähm, sorry NV Lüfter aber etwas in Hintertreffen gelangt.
Hätte man der Titan X wie der R9 290X die guten 250+ Watt ziehen lassen, wäre die Karte zum Radaumacher verkommen,- so ist es wie mit dem Quiet Modus der R9 290(X) Karte und wird bei der NV Seite akzeptiert.
Will man der Karte freien Lauf lassen muss der Referenz Lüfter hochgestelt werden und steht dem "AMD Fail" in nix mehr nach. Da sieht man nun deutlich dass die Referenz Karten am Limit sein bei >250 Watt.

Zudem verfehlte man wohl (mit 250 Euro Minderpreis) etwas den Anschluss an die GTX 980.

-=Popeye=-
2015-04-06, 00:54:19
@horn

Blödsinn, jeder AMD Ref. Kühler ist deutlich lauter.

http://abload.de/thumb/titanxmodbioszuuse.png (http://abload.de/image.php?img=titanxmodbioszuuse.png)

http://www.file-upload.net/download-10514390/GM200mod1.rom.html

Könnte das mal bitte (@Stock Kühler) wer gegen checken? Danke.

Godmode
2015-04-06, 01:07:33
So wenig? Direkt nach dem Start? Hast du etwas verändert? Normalerweise sollte so eine Karte bis zu 1,275 Volt per BIOS akzeptieren.

MfG,
Raff

Naja ist das ist halt die normale Spannung die anliegt, ohne OCing. Wenn ich 1450 MHz fahre, brauche ich natürlich mehr. Ich werde morgen mal ein BIOS mit 1,275 Volt erstellen und dann testen, ob ich die 1500 MHz erreichen kann. Das PT ist jedenfalls noch lange nicht ausgeschöpft.

hasebaer
2015-04-06, 08:55:25
so ist es wie mit dem Quiet Modus der R9 290(X) Karte und wird bei der NV Seite akzeptiert.

Ja und nein.
Das Problem der 290X ist halt die Größe ihres Chips.
Es mag sogar stimmen, dass der Titan Kühler kaum besser ist als AMDs Stock DHE Teil, nur am ende des Tages ist die Titan trotzdem immernoch kühler und leiser als eine 290X im Quitemodus.
Nvidias Gesamtpacket ist bei weitem nicht so katastrophal.

Die Titan hat allerding trotzdem ein Kühlerproblem, wenn auch ideologischer Art.
Denn weil sie eine Titan ist, werden wir nie reguläre Lukü-Boardpartner Designs sehen
und da hackt sich Nvidia mMn. mit einer riesen großen Axt ins eigene Bein,
weil ich für meinen Teil, sicher keine 1150€ ausgebe um dann auch noch meine Garantie beim Kühlerwechsel wegzuwerfen.

Grestorn
2015-04-06, 09:01:08
Dann kauf ein Modell, bei dem die Garantie bei einem Lüfterwechsel nicht erlischt. Oder lass Dir den Lüfter vom Händler umbauen (mit Garantie).

BiG OnE
2015-04-06, 09:16:13
[QUOTE=-=Popeye=-;10579900]

Blödsinn, jeder AMD Ref. Kühler ist deutlich lauter.

http://abload.de/thumb/titanxmodbioszuuse.png (http://abload.de/image.php?img=titanxmodbioszuuse.png)


Und Deine 3500rpm sind die etwa leise?

Bis denne ...

gnomi
2015-04-06, 09:41:30
Jup warum zur Hölle hat er je zwei mal AC,COD und Far Cry drinn teste den neusten Teil und gut ist.Je älter das Game um so eher kommt man in CPU Limits.(AC:Black Flag z.b)

Interessant ist es aber durchaus, auch mal den ein oder anderen Klassiker zu sehen. :wink:
Nur sollte das dann als Bonus laufen und nicht in das Performancerating einfließen. =)

@ Titan X
Packt die eigentlich ihre 1350-1400 mit Referenzkühllösung ohne Spannungserhöhung bei vertretbarer Lautstärke?

Raff
2015-04-06, 09:49:47
@ Titan X
Packt die eigentlich ihre 1350-1400 mit Referenzkühllösung ohne Spannungserhöhung bei vertretbarer Lautstärke?

Nicht in Kombination, aber einzeln. ;)

Die Spannung, welche sich der Chip zum Spielstart (-> kühl), reinpfeift, genügt für 1.400 MHz. Dann kommt die Hitze und mit ihr mehr Verbrauch. In der Folge muss man den Lüfter ganz schön aufdrehen, um die Karte unter ihrem Temperaturziel zu halten. Trotzdem reichen 275 Watt nicht, um in jedem Spiel den Takt zu halten; u. a. powerintensive Spiele wie Anno 2070 und Risen 3 überreizen das Target.

MfG,
Raff

gnomi
2015-04-06, 10:23:57
Ist ja schade. :(
Bei der 980 sind diese Taktraten noch mit vertretbar mehr Leistungsaufnahme, Temperatur und Lautstärke machbar.
Der Referenzlüfter dreht dann eben von 52% auf 65-70, was gerade noch so erträglich ist.
Und der Verbrauch steigt um vielleicht 30 Watt im Schnitt, womit man dann immer noch unter 200 sein dürfte.
Dafür gibt es eben knapp 15% mehr GPU Leistung, was mit entsprechend ebenso stark übertakeltem Speicher schön umgesetzt wird.
OOTB bekommt man bei der Titan X dann praktisch betrachtet also keine 50% Mehrgewinn. Für den stolzen Preis ist das leider zu wenig. :down:

hasebaer
2015-04-06, 11:11:12
Dann kauf ein Modell, bei dem die Garantie bei einem Lüfterwechsel nicht erlischt.

Es kann mir im Schadensfall auch bei Asus, EVGA, MSI oder Zotac passieren, dass ich beweisen muss, dass der Fehler nicht bei mir liegt.
Da ist es dann schnell essig mit der vermeindlichen "Garantie bei Kühlerwechsel", die rechtlich eh nur eine Art von Kulanz darstellt.
Das Risiko geh ich bei 1150€ nicht ein.

Ich hätte lieber gleich ein gutes Boardpartner Design.
In Zeiten in den selbst die Billigheimer bei Palit entgegen ihrer Bezeichnung als "Jetstream" einen flüssterleisen und guten Kühler hinbekommen,
ist es für'n Arsch, dass man als Titanbesitzer plötzlich wieder zum Bastler werden muss.

Oder lass Dir den Lüfter vom Händler umbauen (mit Garantie).

Da bleibt ja nur Caseking und Caseking hatte mir zuletzt ein beschädigtes Produkt zugeschickt und auf meine Reklamation hin ihren Fehler nicht anerkannt. Nein danke.

Deisi
2015-04-06, 11:53:14
Weiß jemand was ich im BIOS Tweaker einstellen muss, damit ich den Lüfter auf 0% stellen kann?

Godmode
2015-04-06, 13:38:34
Ich hbe mir jetzt noch ein anderes BIOS gebaut, mit 1,274 Volt. Auch damit schaffe ich keine 1500 MHz. 1450 dürfte für meine Karte der beste Kompromiss aus Takt und Spannung sein. Ich werde jetzt noch die minimalte Spannung für diesen Takt ausloten, und dann sollte der Test abgeschlossen sein.

@Deisi: Hast ne Wakü drauf oder warum willst ihn auf 0% stellen? IIRC wird eh kein Strom gezogen, wenn er nicht angschlossen ist.

Deisi
2015-04-06, 14:01:35
@Deisi: Hast ne Wakü drauf oder warum willst ihn auf 0% stellen? IIRC wird eh kein Strom gezogen, wenn er nicht angschlossen ist.

Hab den den Accelero IV drauf und würde den Lüfter gern weiter wie 22% im Idle runterstellen. Nach einer Anleitung im Netz hab ich mal das BIOS geändert. Einstellen kann ich nun 0%, dies wird aber nicht in die Drehzahl umgesetzt.

51569

akuji13
2015-04-06, 14:08:27
Es kann mir im Schadensfall auch bei Asus, EVGA, MSI oder Zotac passieren, dass ich beweisen muss, dass der Fehler nicht bei mir liegt.

Mir ist kein Fall bekannt wo es zu Problemen gekommen wäre.

Das angesprochene Szenario kannst du übrigens auch mit einer Karte haben an die du nie Hand angelegt hast.

Ich hätte lieber gleich ein gutes Boardpartner Design.

Dann musst du wohl zur Inno3D greifen.

1450 dürfte für meine Karte der beste Kompromiss aus Takt und Spannung sein. Ich werde jetzt noch die minimalte Spannung für diesen Takt ausloten, und dann sollte der Test abgeschlossen sein.

Wenn das abgeschlossen ist poste doch bitte mal das bios und deine Ergebnisse. =)

cR@b
2015-04-06, 16:11:06
Nicht in Kombination, aber einzeln. ;)

Die Spannung, welche sich der Chip zum Spielstart (-> kühl), reinpfeift, genügt für 1.400 MHz. Dann kommt die Hitze und mit ihr mehr Verbrauch. In der Folge muss man den Lüfter ganz schön aufdrehen, um die Karte unter ihrem Temperaturziel zu halten. Trotzdem reichen 275 Watt nicht, um in jedem Spiel den Takt zu halten; u. a. powerintensive Spiele wie Anno 2070 und Risen 3 überreizen das Target.

MfG,
Raff

Kann man so stehen lassen. Habe Elite Dangerous mit Rendereinstellung 2fach genommen. Bei +200Mhz läuft sie in der Regel 1351 im Boost und das PT ist schnell erreicht, dann taktet sie um 1-3 Stufen zurück auf ~1300Mhz. Ich denke mit passendem Bios und abgestimmter Lüfterkurve ist selbst im Ref. Design einiges zu machen, wenn man schlussendlich lieber aufgrund der Lautstärke mit Kopfhörern spielt. Ich selbst habe derzeit kein Elan mich mit der Bios Materie auseinanderzusetzen. Leider bekommt man in den Foren nicht wirklich Hilfe diesbezüglich (Ellenbogengesellschaft sei dank).
Werde vorerst so weiterfahren und die 1351 kann ich bei 1080p in der Regel zu 99% halten. Ist in jedem Fall der Hammer mit G-Sync und 144Hz wie brutal flüssig die Games rüberkommen :ugly:

akuji13
2015-04-06, 16:48:39
Wie sie den Takt ohne OC hält ist schon sehr unterschiedlich.

Kingdom Come: Deliverance hält konstant 1350 Mhz.
Watch Dogs schwankt zwischen 1300 - 1350 Mhz.
Ein Spiel geht bei mir sogar bis auf ~1180 Mhz runter, weiß aktuell nur nicht mehr welches.

Naja, mit WaKü und OC bios wird das schon. :)

Godmode
2015-04-06, 17:08:08
Lol, wenn ihr eure Karte mal voll ins PT laufen lassen wollt, trotz Mod-BIOS, dann startet ACU und bleibt einfach im Menü. Bei wird wird das PT der Karte mit 450W BIOS zu 98% ausgelastet.

aufkrawall
2015-04-06, 17:13:27
Mach doch mal Trine 2 in 5k (1440p 4xSSAA) an und tauche unter Wasser.

Godmode
2015-04-06, 18:48:53
Mach doch mal Trine 2 in 5k (1440p 4xSSAA) an und tauche unter Wasser.

Auch nett, aber das kommt nur auf 90%. :tongue:

aufkrawall
2015-04-06, 19:17:32
Verdammt! :mad:

Godmode
2015-04-06, 19:22:59
Verdammt! :mad:

Aber man kann ohne Probleme spielen und das mit 20-30 FPS :)

Godmode
2015-04-06, 19:23:44
Ich denke mit passendem Bios und abgestimmter Lüfterkurve ist selbst im Ref. Design einiges zu machen, wenn man schlussendlich lieber aufgrund der Lautstärke mit Kopfhörern spielt. Ich selbst habe derzeit kein Elan mich mit der Bios Materie auseinanderzusetzen. Leider bekommt man in den Foren nicht wirklich Hilfe diesbezüglich (Ellenbogengesellschaft sei dank).


Was willst du den genau wissen?

Raff
2015-04-06, 19:50:42
Lol, wenn ihr eure Karte mal voll ins PT laufen lassen wollt, trotz Mod-BIOS, dann startet ACU und bleibt einfach im Menü. Bei wird wird das PT der Karte mit 450W BIOS zu 98% ausgelastet.

Kann ich bestätigen, das Ding ist der Hammer! Mit dem "richtigen" BIOS habe ich es sogar geschafft, damit das Netzteil zu "killen" (Neustart wegen Überlast). :eek:

MfG,
Raff

Peter Gräber
2015-04-06, 20:25:37
Edit: Und warum benchen alle Crysis 3 nur mit "High" Settings - man kauft sich doch keine 1000€-Karte um ein Spiel mit verringerter Grafikpracht zu spielen:facepalm:

Selbst mit meiner 770 spiele ich C3 mit Max Settings und etwas Post-AA @ 1080p - das Spiel läuft sorglos rund...
Das ist dem Umstand geschuldet, dass Crysis 3 bei Erscheinen in max. Details praktisch alle Grafikkarten gefressen hatte. Um überhaupt auch Mainstream mit gleichen Settings testen zu können, haben wir uns damals dazu entschlossen, nur die High-Voreinstellung zu wählen. Da aber C3 geplant im neuen Benchmark-Parcours verbleiben wird, werden wir bei der Überarbeitung sicherlich auch diese Einstellung ändern.

Wieder mal ein für mich nicht nachvollziehbarer Test. Techpowerup und Computerbase kommen auf ähnliche Taktraten in der Praxis, und verrechnet man das mit der Leistung, die herauskommt, leistet Titan X pro Takt knapp 50% mehr als die GTX 980 (was auch Sinn macht, immerhin ist alles skaliert und entsprechend mehr Saft zieht die Karte auch). PCGH misst fast dasselbe - 30% mehr Leistung, deren 980 darf aber nochmal 13% höher takten, macht wieder ca. 50%. Bei HT4U passt das hinten und vorne nicht. Und Ausführlichkeit und Aufwand hin oder her - wenn drei Redaktionen, die insgesamt sicher 40 Spiele benchen, im Einklang andere Ergebnisse rausbekommen, traue ich eher denen als den permanenten Ausrutschern von HT4U.

Ich kann der Kritik leider nicht folgen. Ich hab mir die 3DC-Analyse angeschaut und danach decken sich unsere Resultate damit überwiegend. Und was ist falsch daran, dass man beispielsweise AC Black Flag und ACU zeigt - die haben kaum noch irgendetwas miteinander gemein. Und ja, es liegt doch auf der Hand, dass wenn man unterschiedliche Testszenen auswählt, auch unterschiedliche Resultate in Spielen entstehen können. Das ist logisch aber wieso ist das schlecht? Ist es nicht hilfreich, wenn man versucht Worst-Case-Szenarien in Spielen zu zeigen?

Ich kann es nur am Beispiel von Bioshock Infinite noch einmal deutlich machen. Fast alle verwenden dort beispielsweise den integrierten Benchmark. Ich empfehle mal als Spieler von BI das File und die Ausschlüsse zu lesen. Wir haben uns für eine Szene aus dem Spiel entschieden, welche für uns ein WC-Szenario darstellt. Das sind eben unsere Resultate.

Ansonsten könnte man es ja auch so machen, dass man bei AMD-Tests den Empfehlungen im Reviewers-Guide von AMD für Spiele, Benchmark und Settings folgt und bei NVIDIA-Tests eben denen. Ist damit geholfen?

Deinen Ausführungen zu folge müsste ich das so verstehen, dass hier Absicht dahinter steckt und ich wüsste ehrlich gesagt nicht, wieso ich das tun sollte. Letzten Endes bin ich vermutlich der einzige hier (an Redakteuren) der nicht zwingend davon leben muss. Dafür kann ich es mir auch erlauben, mal mehr Zeit zu investieren. Das mach ich aber prinzipiell nicht für mich, sonst wär auch der Spaß weg, den es dafür braucht. Sorry, will dir nicht zu nahe treten, aber ich empfinde deine Kritik nicht als durchdacht.

aufkrawall
2015-04-06, 20:46:20
Warum sind die Taktraten von anderen GPUs wie Hawaii nicht angegeben?

Godmode
2015-04-06, 21:00:47
Kann ich bestätigen, das Ding ist der Hammer! Mit dem "richtigen" BIOS habe ich es sogar geschafft, damit das Netzteil zu "killen" (Neustart wegen Überlast). :eek:

MfG,
Raff

Also ich bin schwer beeindruckt von der Karte. Ich kann jetzt Settings fahren, die mit dem 980 SLI einfach nicht möglich waren. Wenn die 980 8 GB VRAM hätte, wäre das ebenfalls eine sehr nette Karte, aber mit 4 GB ist man IMHO zu oft im VRAM Limit.

robbitop
2015-04-06, 21:03:01
Ein Schelm der böses denkt, dass NV den Kartenhersteller 8 GiB Versionen der 970/980 verboten hat....

Grestorn
2015-04-06, 21:08:44
Ein Schelm der böses denkt, dass NV den Kartenhersteller 8 GiB Versionen der 970/980 verboten hat....

Davon bin ich sogar überzeugt.

Godmode
2015-04-06, 21:14:03
Ein Schelm der böses denkt, dass NV den Kartenhersteller 8 GiB Versionen der 970/980 verboten hat....

Eine Titan X hätte einfach nicht mehr den Reiz. Die 980er schaffen auch teilweise 1500 MHz und mehr. Leider auch verständlich warum sie das machen.

robbitop
2015-04-06, 21:17:52
Profitgier. :D

4Fighting
2015-04-06, 21:20:42
Davon bin ich sogar überzeugt.

jep.

Ich frage mich nur, waurm NV die Titan-Reihe weiterhin mit Referenz-PCBs und keinen echten Custom-Kühlern beschneidet.

Godmode
2015-04-06, 21:21:34
jep.

Ich frage mich nur, waurm NV die Titan-Reihe weiterhin mit Referenz-PCBs und keinen echten Custom-Kühlern beschneidet.

Das ist wirklich unverständlich. Die Karten würden mit 1400 MHz und gutem Kühler deutlich mehr Absatz erfahren, als jetzt.

4Fighting
2015-04-06, 21:24:09
Das ist wirklich unverständlich. Die Karten würden mit 1400 MHz und gutem Kühler deutlich mehr Absatz erfahren, als jetzt.

eine Kingpin Variante wäre bei so einer Karte auch mal sinnvoll. Aber das zeigt auch wie stark NV an der Stelle die Daumenschrauben anlegt, wenn EVGA auch nichts darf.

Diese kastrierten Kingpins sind nur lolig;D

robbitop
2015-04-06, 21:27:13
Vieleicht hebt sich NV eine Version für Fijii WCE auf?

4Fighting
2015-04-06, 21:30:01
Vieleicht hebt sich NV eine Version für Fijii WCE auf?

Du meinst eine 980ti mit ordentlichem PCB?

Ich kann mir nicht vorstellen, dass man eine Titan X mit Custom-PCB als "Lösung" präsentieren will.

robbitop
2015-04-06, 21:33:02
Ich meine eine Titan X, die NV von der Leine läßt.

Genug Reserven hat der Chip offenbar.

Rampage 2
2015-04-06, 21:38:18
Vieleicht hebt sich NV eine Version für Fijii WCE auf?

Hatte ich doch bereits geschrieben - höherer Chiptakt (1200MHz oder sogar mehr) und höherer Speichertakt (8Gbps-Speicher). Das Teil sollte dann auch wirklich in allen Benchmarks 40-50% schneller sein - mit OC evtl. sogar darüber. Allerdings höchstwahrscheinlich zum gleichen Preis wie die aktuelle X (welches dann im Preis gesenkt wird ~ 800€).

Godmode
2015-04-06, 22:43:05
Wenn das abgeschlossen ist poste doch bitte mal das bios und deine Ergebnisse. =)

Also: 1464 schafft meine Karte mit max VCore 1,27x. 1407 schafft sie mit 1.199 Volt, was dann ein Setting für den Alltag ist. Der Speicher schafft 600 MHz mehr, das ist wohl relativ gut.

BIOSe:
1x mit 450 Watt PT
1x mit 450 Wat PT + fixed VCore 1,27v
Datei von filehorst.de laden (http://filehorst.de/d/bFACwhbt)

phoenix887
2015-04-06, 22:55:42
So habe mir jetzt eine MSI bestellt, für 1100 Euro. Bin vorher nicht dazu gekommen und die EVGA AiO ist nicht mehr lieferbar, hätte ich wohl hier keine Werbung machen sollen:rolleyes:

Naja wird sie erstmal im Referenzdesign betrieben und später die AiO wenn sie wieder bei EVGA lieferbar ist.

Gespannt ob die beim Händler wirklich vor Ort ist und nicht bei irgendeinem Großhändler. Habe auch mal zur Sicherheit UPS gemacht, falls wieder Streik bei DHL ist:biggrin:

Godmode
2015-04-06, 23:01:00
So habe mir jetzt eine MSI bestellt, für 1100 Euro. Bin vorher nicht dazu gekommen und die EVGA AiO ist nicht mehr lieferbar, hätte ich wohl hier keine Werbung machen sollen:rolleyes:

Naja wird sie erstmal im Referenzdesign betrieben und später die AiO wenn sie wieder bei EVGA lieferbar ist.

Gespannt ob die beim Händler wirklich vor Ort ist und nicht bei irgendeinem Großhändler. Habe auch mal zur Sicherheit UPS gemacht, falls wieder Streik bei DHL ist:biggrin:

Gz, du wirst es nicht bereuen, dass kann ich dir jetzt schon sagen. Der Stock Kühler macht allerdings nur mit Kopfhörern Spaß, außer du lässt ihn auf normalen Drehzahlen, dann gibt es aber auch deutlich weniger OCing.

phoenix887
2015-04-06, 23:11:42
Gz, du wirst es nicht bereuen, dass kann ich dir jetzt schon sagen. Der Stock Kühler macht allerdings nur mit Kopfhörern Spaß, außer du lässt ihn auf normalen Drehzahlen, dann gibt es aber auch deutlich weniger OCing.

Danke. Werde mal schauen, was im Referenzdesign geht. Sobald die AiO bei EVGA wieder lieferbar ist, wird die Titan X entfesselt.:biggrin:

Godmode
2015-04-06, 23:42:21
Danke. Werde mal schauen, was im Referenzdesign geht. Sobald die AiO bei EVGA wieder lieferbar ist, wird die Titan X entfesselt.:biggrin:

Habe gerade Crysis 3 in 5k Auflösung probiert und man kann so spielen (Das sind knappe 14 Megapixel, 4k sind 8 Megapixel). Ich verstehe jetzt auch schön langsam die Low-FPSler wie Raff zb. Mit 60+ FPS ist es zwar deutlich angenehmer, aber die Optik in 5k ist einfach :eek:

Und dem Ding geht niemals der VRAM aus, niemals, nie. :umassa: Ich weiß nicht mehr wie ich auf die originale Titan reagiert habe, aber die X kommt mir vom Gefühl her deutlich mächtiger vor, im Vergleich zu den (1|2)04er Chips.

Nightspider
2015-04-07, 00:10:50
5K ist doch von gestern. http://www.gamestar.de/community/gspinboard/images/smilies/kaffeetrinker_2.gif

:freak:

Godmode
2015-04-07, 00:25:07
5K ist doch von gestern. http://www.gamestar.de/community/gspinboard/images/smilies/kaffeetrinker_2.gif

:freak:

5K kann man aber noch spielen, bei noch mehr Auflösung wird es dann schon sehr zäh.

phoenix887
2015-04-07, 00:34:52
Hört sich ja mal gut an für DX9 mit SGSSAA oder DX11 mit DSR, wenn die Leistung stimmt bzw. für 144hz. Das wären meine 3 Bereiche, wo ich entsprechende Leistung haben möchte.

Natürlich nicht alles aufeinmal;)

Raff
2015-04-07, 08:36:05
Und dem Ding geht niemals der VRAM aus, niemals, nie. :umassa: Ich weiß nicht mehr wie ich auf die originale Titan reagiert habe, aber die X kommt mir vom Gefühl her deutlich mächtiger vor, im Vergleich zu den (1|2)04er Chips.

Hehehe, da ist noch jemand geflasht. :D

Die Titan Classic war übertaktet gegenüber der GTX 680 mindestens genauso mächtig und man hat den Speicher ebenfalls nie voll bekommen. Du bist einfach von deinen 980- und 780-Ti-Speicherkrüppeln nichts mehr gewohnt. :biggrin:

MfG,
Raff

Godmode
2015-04-07, 08:58:37
Hehehe, da ist noch jemand geflasht. :D

Die Titan Classic war übertaktet gegenüber der GTX 680 mindestens genauso mächtig und man hat den Speicher ebenfalls nie voll bekommen. Du bist einfach von deinen 980- und 780-Ti-Speicherkrüppeln nichts mehr gewohnt. :biggrin:

MfG,
Raff

Ich habe das einfach nicht erwartet, daher kamen oft auch Beiträge von mir wie: "Für 4K reicht die Leistung nicht, etc...". Mit Titan X werden meine früheren Aussagen zum Thema 4k relativiert.

Ich habe mir meine Beiträge zur originalen Titan rausgesucht und ich war Anfangs ziemlich enttäuscht. Erst mit den BIOS-Mods wurde das Ding dann interessant. Hätte es für die X die Mods nicht gegeben, wäre sie auch deutlich weniger interessant gewesen. Ein Hoch auf BIOS-Modding. :D

robbitop
2015-04-07, 09:21:45
Na vieleicht ist der ASUS ROG SWIFT 2015 dann doch was für dich? (27" UHD IPS G-Sync)

Godmode
2015-04-07, 09:22:59
Na vieleicht ist der ASUS ROG SWIFT 2015 dann doch was für dich? (27" UHD IPS G-Sync)

Wann wird der den vorgestellt?

sth
2015-04-07, 10:29:37
Vorgestellt ist er schon, aber noch nicht lieferbar: http://geizhals.de/asus-rog-swift-pg27aq-a1214688.html

akuji13
2015-04-07, 11:03:01
Also: 1464 schafft meine Karte mit max VCore 1,27x. 1407 schafft sie mit 1.199 Volt, was dann ein Setting für den Alltag ist. Der Speicher schafft 600 MHz mehr, das ist wohl relativ gut.

BIOSe:
1x mit 450 Watt PT
1x mit 450 Wat PT + fixed VCore 1,27v
Datei von filehorst.de laden (http://filehorst.de/d/bFACwhbt)

Danke. =)

Selbst wenn ich es nicht 1:1 übernehme hätte ich doch eine gute Ausgangsbasis für Veränderungen.
So ganz von vorne anfangen klappte bei mir in der Vergangenheit nämlich meistens nicht. :D

Ich verstehe jetzt auch schön langsam die Low-FPSler wie Raff zb. Mit 60+ FPS ist es zwar deutlich angenehmer, aber die Optik in 5k ist einfach :eek:

Die Veränderung mache ich auch gerade durch. :D

Raff
2015-04-07, 11:06:24
Harr. :biggrin: :up: Netter Nebeneffekt: Die CPU wird "egal" -> stark undervolten und dafür die GPU so weit keulen, wie's irgendwie geht.

MfG,
Raff

phoenix887
2015-04-07, 11:11:36
Also: 1464 schafft meine Karte mit max VCore 1,27x. 1407 schafft sie mit 1.199 Volt, was dann ein Setting für den Alltag ist. Der Speicher schafft 600 MHz mehr, das ist wohl relativ gut.

BIOSe:
1x mit 450 Watt PT
1x mit 450 Wat PT + fixed VCore 1,27v
Datei von filehorst.de laden (http://filehorst.de/d/bFACwhbt)


Wie funktioniert das mit flashen bei Maxwell? Brauche ich da eine spzielle NvFlash Version? Habe gelesen man soll vor dem flashen die Karte im Treibermanager deaktivieren? ist das richtig?

das Bios 450Watt ohne fixe Spannung, weiviel Watt sind da 100& beim Schieberegler im Inspector? Hatte Biose, da war 100% bei der Black schon bereits 300W.
Wieviel Watt sind Gesund bei Maxwell? ohne das die Karte oder das Netzteil Schaden nimmt?;)

HisN
2015-04-07, 11:12:15
Spezielle Version: Ja
Deaktivieren: Ja

phoenix887
2015-04-07, 11:13:42
Welche Version ist das bezüglich NvFlash?

HisN
2015-04-07, 11:14:27
5.199 modifiziert von JoeDirt

akuji13
2015-04-07, 11:53:56
http://www.overclock.net/t/1521334/official-nvflash-with-certificate-checks-bypassed-for-gtx-970-980

phoenix887
2015-04-07, 11:56:39
http://www.overclock.net/t/1521334/official-nvflash-with-certificate-checks-bypassed-for-gtx-970-980

Danke habs gefunden;)

akuji13
2015-04-07, 12:01:44
1x mit 450 Wat PT + fixed VCore 1,27v

Ich bin verwirrt, warum heißt das file 1,281? :confused:

Raff
2015-04-07, 12:21:21
Die Hardware lässt sich zu höchstens 1,274 Volt überreden, egal was im BIOS steht (das gilt auch für GM204).

MfG,
Raff

akuji13
2015-04-07, 12:32:12
Ahhh...danke. =)

Godmode
2015-04-07, 13:41:46
Vorgestellt ist er schon, aber noch nicht lieferbar: http://geizhals.de/asus-rog-swift-pg27aq-a1214688.html

Ok, danke für die Info.



das Bios 450Watt ohne fixe Spannung, weiviel Watt sind da 100& beim Schieberegler im Inspector? Hatte Biose, da war 100% bei der Black schon bereits 300W.
Wieviel Watt sind Gesund bei Maxwell? ohne das die Karte oder das Netzteil Schaden nimmt?;)


Punkt 2: also 100% entsprechen dann 450W. Ich würde das nur flashen wenn man sich wirklich sicher ist, was man tut.

phoenix887
2015-04-07, 13:47:35
Ok 100% mit 450W ist mir dann zu heavy. Ein humaneres Bios das empfehlenswert ist?

Raff
2015-04-07, 13:54:13
Jo, du nimmst dieses und senkst die Maximal-Wattage im Maxwell BIOS Tweaker auf beispielsweise 300.000 Milliwatt. :D

MfG,
Raff

phoenix887
2015-04-07, 14:03:28
Scherzkeks;)

Muss ich mir anschauen, wenn es soweit ist.

kokett
2015-04-07, 14:14:15
Ok 100% mit 450W ist mir dann zu heavy. Ein humaneres Bios das empfehlenswert ist?

ich würde dir empfehlen, dein eigenes bios mittels gpu-z zu dumpen und das dann mit MBE selber auf dein Wunsch PT zu modden.
Die Vorgehensweise ist rel. einfach, da du nur im Reiter Power Target Änderungen vornehmen musst - sonst nirgends.
Als Vorlage kannst du ja im MBE ein bereits gemoddetes fremdes BIOS anschauen, sodass du siehst was du ändern musst.

Ich würde empfehlen bei 100% PT 350W zu nehmen und bei 125% 450W. Alleine durch die Änderung halten die Referenz Karten den Boost schon zuverlässig, da der Kühler durchaus in der Lage ist, die zusätzliche Wärme abzuführen solange man die Spannung in Ruhe lässt. Die Karten werden eigentlich nur durch die 250W Begrenzung so ausgebremst und nicht durch die Temperatur. Selbst mit 1400/4000 wirst du die 350W nie brauchen.

flashen würde ich dann mit der nvflash version bei der nur die certificate checks ausgeschaltet sind, verringert die Gefahr einen 1100 euro türstopper zu produzieren.
Allerdings kann man mit der nvflash version nur sein eigenes gemoddetes bios flashen, kein fremdes.

Godmode
2015-04-07, 14:15:38
ich würde dir empfehlen, dein eigenes bios mittels gpu-z zu dumpen und das dann mit MBE selber auf dein Wunsch PT zu modden.
Die Vorgehensweise ist rel. einfach, da du nur im Reiter Power Target Änderungen vornehmen musst - sonst nirgends.
Als Vorlage kannst du ja im MBE ein bereits gemoddetes fremdes BIOS anschauen, sodass du siehst was du ändern musst.

Ich würde empfehlen bei 100% PT 350W zu nehmen und bei 125% 450W.

flashen würde ich dann mit der nvflash version bei der nur die certificate checks ausgeschaltet sind, verringert die Gefahr einen 1100 euro türstopper zu produzieren.
Allerdings kann man der nvflash version nur sein eigenes gemoddetes bios flashen, kein fremdes.

So mache ich das auch meistens. Ich will zb. keine fixen Clocks im BIOS, sonder will das weiter über die Tools steuern können.

robbitop
2015-04-07, 14:17:29
@Godmode
Der neue ROG kommt im Sommer - so wie der alte. Q2/Q3 in etwa.

Allerdings leider nur 60 Hz.

Godmode
2015-04-07, 14:23:32
@Godmode
Der neue ROG kommt im Sommer - so wie der alte. Q2/Q3 in etwa.

Allerdings leider nur 60 Hz.

Für 4K wäre es egal, IMHO. Und den anderen ROG Swift würde ich ja behalten.

kokett
2015-04-07, 14:29:48
So mache ich das auch meistens. Ich will zb. keine fixen Clocks im BIOS, sonder will das weiter über die Tools steuern können.

ich will zum einen kein "fremdes" bios auf meiner karte und zum anderen finde ich die boost technologie toll, weil sie die hardware "beschützt".

Außerdem kann es gut sein, dass der OC der mit dem aktuellen Treiber stabil ist in 2-3 Monaten crasht, weil die neuen Treiber die Hardware besser auslasten.

Dann müsste man jedesmal das bios anpassen und neu flashen - da finde ich es besser wenn man alles am bios @ stock lässt und nur das power target sinnvoll erhöht und ansonsten tools benutzt.

robbitop
2015-04-07, 14:34:30
Für 4K wäre es egal, IMHO. Und den anderen ROG Swift würde ich ja behalten.
Ganz egal ist es nicht, weil bei 144 Hz der Refresh schneller ist. Gerade in Situationen unterhalb der minimalen Grenze des Displays (IIRC 30 Hz) macht es schon einen Unterschied, ob der der 2. Refresh des Bildes in 7 ms oder 16 ms passiert.

Auch die Bewegtschärfe im Windows Desktop ist mit 120/144 Hz schon eine schöne Sache.

Alternativ den Swift (2014) behalten und per DSR die Spiele schöner machen oder als Alternative soll es Mitte des Jahres einen 34" 144 Hz 21:9 3440x1440 IPS G-Sync Monitor geben. Leider von Acer.

La Junta
2015-04-07, 14:48:47
Ganz egal ist es nicht, weil bei 144 Hz der Refresh schneller ist. Gerade in Situationen unterhalb der minimalen Grenze des Displays (IIRC 30 Hz) macht es schon einen Unterschied, ob der der 2. Refresh des Bildes in 7 ms oder 16 ms passiert.

Auch die Bewegtschärfe im Windows Desktop ist mit 120/144 Hz schon eine schöne Sache.


Das ist sowas von Wahr , aber die meisten denken das 120/144HZ Monitore auch nur mit 120/144FPS zu gebrauchen sind .
Obwohl es eigendlich sogar Mathematisch nachvollziehbar ist welchen unterschied es ausmacht .

MFG Junta

Godmode
2015-04-07, 14:57:24
Ganz egal ist es nicht, weil bei 144 Hz der Refresh schneller ist. Gerade in Situationen unterhalb der minimalen Grenze des Displays (IIRC 30 Hz) macht es schon einen Unterschied, ob der der 2. Refresh des Bildes in 7 ms oder 16 ms passiert.

Auch die Bewegtschärfe im Windows Desktop ist mit 120/144 Hz schon eine schöne Sache.

Alternativ den Swift (2014) behalten und per DSR die Spiele schöner machen oder als Alternative soll es Mitte des Jahres einen 34" 144 Hz 21:9 3440x1440 IPS G-Sync Monitor geben. Leider von Acer.

Wenn es einen mit 144 Hz und 4K gäbe, hätte ich diesen schon. Das wird wohl erst nächste Jahr was, mit DP 1.3.

robbitop
2015-04-07, 15:02:14
2016 oder 2017. Ich würde fast auf letzteres tippen.

Godmode
2015-04-07, 15:04:26
2016 oder 2017. Ich würde fast auf letzteres tippen.

Das wird dann genau richtig für den Konsumenten GP100.

robbitop
2015-04-07, 15:11:31
Wobei nichts dagegen spräche, das Panel intern bereits mit 120/144 Hz zu takten. Der Bildaufbau ist halt nach 7/8 ms fertig und wird dann für weitere 8/9 ms gehalten. Wenn G-Sync anliegt je nach Frametime und wenn nicht halt stur die obigen 8/9 ms. Gerade bei niedrigen Frameraten wäre das sinnvoll und unabhängig von DP1.3 machbar.

DP1.2 würde immerhin schon 85 Hz Übertragung @4K ermöglichen. DP1.3 dann 130 Hz.

edit: vieleicht kann man den ROG SWIFT 2015 ja auf 85 Hz übertakten. Allerdings funktioniert DSR nicht mit Custom Resolutions.

aufkrawall
2015-04-07, 15:16:47
Mit EDID-Override schon. Aber dann wird G-Sync zickig. :redface:

Kartenlehrling
2015-04-07, 15:38:06
Acer Predator XB280HKbprz, 28"

Hatten hier im Forum nicht schon jemand diesen Acer-4k und der liese sich nichtmal auf 75Hz overclocken.

Nightspider
2015-04-07, 15:38:54
Wobei nichts dagegen spräche, das Panel intern bereits mit 120/144 Hz zu takten. Der Bildaufbau ist halt nach 7/8 ms fertig und wird dann für weitere 8/9 ms gehalten. Wenn G-Sync anliegt je nach Frametime und wenn nicht halt stur die obigen 8/9 ms. Gerade bei niedrigen Frameraten wäre das sinnvoll und unabhängig von DP1.3 machbar.

DP1.2 würde immerhin schon 85 Hz Übertragung @4K ermöglichen. DP1.3 dann 130 Hz.

edit: vieleicht kann man den ROG SWIFT 2015 ja auf 85 Hz übertakten. Allerdings funktioniert DSR nicht mit Custom Resolutions.

Das wäre vielleicht die ideale Zwischenlösung. Die Monitorhersteller könnten auch ruhig von Haus aus schon mit zB. 85Hz liefern. Wir sind heutzutage ja schließlich variabel. ^^

Raff
2015-04-07, 16:09:56
An alle Titan-X-Besitzer hier: Welche ASIC-Qualitäten (lt. GPU-Z) haben eure Karten? Lasst uns mal eine kleine, aber feine Liste zusammentragen. :)

MfG,
Raff

HisN
2015-04-07, 16:15:21
68,1 Evga
1405/4000@1.16v

Trill
2015-04-07, 16:17:28
Trill hat:

80,2%

1506/1950@1,218V
oder
1455/1950@1,168V

akuji13
2015-04-07, 16:29:59
ASUS 77.9%

http://abload.de/thumb/asickts12.png (http://abload.de/image.php?img=asickts12.png)

Taktraten noch nicht ausgetestet.

phoenix887
2015-04-07, 16:37:32
ich würde dir empfehlen, dein eigenes bios mittels gpu-z zu dumpen und das dann mit MBE selber auf dein Wunsch PT zu modden.
Die Vorgehensweise ist rel. einfach, da du nur im Reiter Power Target Änderungen vornehmen musst - sonst nirgends.
Als Vorlage kannst du ja im MBE ein bereits gemoddetes fremdes BIOS anschauen, sodass du siehst was du ändern musst.

Ich würde empfehlen bei 100% PT 350W zu nehmen und bei 125% 450W. Alleine durch die Änderung halten die Referenz Karten den Boost schon zuverlässig, da der Kühler durchaus in der Lage ist, die zusätzliche Wärme abzuführen solange man die Spannung in Ruhe lässt. Die Karten werden eigentlich nur durch die 250W Begrenzung so ausgebremst und nicht durch die Temperatur. Selbst mit 1400/4000 wirst du die 350W nie brauchen.

flashen würde ich dann mit der nvflash version bei der nur die certificate checks ausgeschaltet sind, verringert die Gefahr einen 1100 euro türstopper zu produzieren.
Allerdings kann man mit der nvflash version nur sein eigenes gemoddetes bios flashen, kein fremdes.

Danke, so eine Antwort habe ich mir vorgestellt. Nicht nur ändere maximal Watt im Bios oder nutze NvFlash Version so und so. Nämlich davon gibt es auch 2 Versionen bei Dirty Joe.

Also alle mal ne Scheibe abschneiden:biggrin:

akuji13
2015-04-07, 17:17:54
Also ich finde man sollte schon mal ne Karte totgeflasht haben. :D

Diese Gefühls-Erfahrung ist sonst schwer hinzubekommen. :D

kokett
2015-04-07, 17:23:16
An alle Titan-X-Besitzer hier: Welche ASIC-Qualitäten (lt. GPU-Z) haben eure Karten? Lasst uns mal eine kleine, aber feine Liste zusammentragen. :)



79,4%
1400/4000 (manchmal boostet sie nur bis 1380 wg. Temp.)

Nightspider
2015-04-07, 17:27:23
Mein Kumpel hat 72,2% und die boostet bei Powerlimit 110% oft auf 1420 aber fällt auch immer mal auf 1370Mhz.

PS: Dat 8K :O

http://abload.de/img/vergleichsbild1_4320pu1syb.jpg

Raff
2015-04-07, 17:28:21
Also ich finde man sollte schon mal ne Karte totgeflasht haben. :D

Diese Gefühls-Erfahrung ist sonst schwer hinzubekommen. :D

Wie geht das? Also dauerhaft. Ich habe schon einige Karten "untot" gemacht, d.h. sie booteten nicht mehr, schluckten keine Treiber oder sonstwas, aber das lässt sich alles durch einen Re-Flash des Standard-BIOS reparieren. :)

Mein Kumpel hat 72,2% und die boostet bei Powerlimit 110% oft auf 1420 aber fällt auch immer mal auf 1370Mhz.

Das Internet, Schauplatz der Superlativen. ;) Hier stehen immer nur die höchsten Zahlen in den "falschen" Spielen. Ich behaupte, dass keine Titan X mit Standard-BIOS in Anno 2070 oder Risen 3 ohne Hörsturz des Besitzers auch nur ansatzweise mit 1.400 MHz arbeitet.

MfG,
Raff

akuji13
2015-04-07, 17:39:16
Wie geht das? Also dauerhaft. Ich habe schon einige Karten "untot" gemacht, d.h. sie booteten nicht mehr, schluckten keine Treiber oder sonstwas, aber das lässt sich alles durch einen Re-Flash des Standard-BIOS reparieren. :)

Keine Ahnung, die Zotac Titan hat kein bios mehr angenommen, weder ein mod noch das stock.

Mein Kumpel hat 72,2% und die boostet bei Powerlimit 110% oft auf 1420 aber fällt auch immer mal auf 1370Mhz.

In richtigen Spiel fällt die auch wieder auf unter 1200. :D

Meine kann mit dem AC IV die 1350 nicht dauerhaft halten, ich war schon mal wieder bei 1150 (meine es war AC:U).

Nightspider
2015-04-07, 17:41:54
Wenn ihr meint:

http://abload.de/img/watch_dogs_2015_04_04t1yzp.jpg

Sorry, nur 1440p :D

€: Wie gesagt, dropt auch immer mal auf 1360. Lüfter lässt er auf 70 oder 80% wegen Kopfhörern und besserem Boost.

kokett
2015-04-07, 17:42:48
Das Internet, Schauplatz der Superlativen. ;) Hier stehen immer nur die höchsten Zahlen in den "falschen" Spielen. Ich behaupte, dass keine Titan X mit Standard-BIOS in Anno 2070 oder Risen 3 ohne Hörsturz des Besitzers auch nur ansatzweise mit 1.400 MHz arbeitet.


Mit Hörsturz hat das wenig zu tun, 110% vom Standard PT reichen nicht (müssten 275W sein - 250+25). In Anno 2070 braucht es 300+W .

Schnoesel
2015-04-07, 17:48:21
Karte erreicht ne Millisekunde 1560MHZ? alles klar kommt so in die Sig ;-) Ist doch immer so, kann mir keiner erzählen... Und wenn dabei das Bild geflackert hat wie wild wegen Artefakten ists auch schon egal.

akuji13
2015-04-07, 17:49:17
Wenn ihr meint

Das ist nur WD. :wink:

4Fighting
2015-04-07, 17:50:01
Wenn ihr meint:

http://abload.de/img/watch_dogs_2015_04_04t1yzp.jpg



msaa oder txaa aktiviert wegen dem vram verbrauch?

Godmode
2015-04-07, 17:53:43
Also: 66er ASIC. 1460 MHz Core und 4105 MHz RAM ist die maximale Taktrate die noch stabil ist. Dafür brauche ich aber schon die höchste VCore Stufe (1,27 Volt), das 450W BIOS und den Lüfter auf 100%. 1400 schafft sie mit 1,99 Volt. Mit Wakü geht vielleicht noch etwas mehr Takt.

Nightspider
2015-04-07, 17:54:36
Ja was weiß ich denn was ihr für Anforderungen habt. Anno oder uralt Risen sind hier nicht installiert. :ugly:

Nein, AA war nicht aktiv aber er hat diese Wath Dogs Mod für bessere Beleuchtung installiert.

Die Taktrate wurde auch in anderen Games erreicht. Ich teste dann nochmal Mordors Schatten und BF4 in 16K Mädels. ;)

Und Flackern tut hier gar nichts, Spannung ist nicht mal erhöht.

phoenix887
2015-04-07, 17:56:34
quatsch

4Fighting
2015-04-07, 17:59:07
Ja was weiß ich denn was ihr für Anforderungen habt. Anno oder uralt Risen sind hier nicht installiert. :ugly:

Nein, AA war nicht aktiv aber er hat diese Wath Dogs Mod für bessere Beleuchtung installiert.



komisch...ich kam bisher nie über 4,4GB mit meiner Titan in 1440p:confused:; getestet mit unzähligen Mods.

Nightspider
2015-04-07, 18:12:02
Waren eure Angaben eigentlich max. OC ohne BIOS Mod oder komplette Standardeinstellungen?

Eben in Mordros Schatten unter 16K8K 1392Mhz bis 1401Mhz.

http://abload.de/img/shadowofmordor_2015_0glu2b.jpg

Und das obwohl ich vergessen hatte den Lüfter manuel hochzudrehen.

Ist übrigens eine EVGA Superclocked Titan X.

http://abload.de/img/gputnswm.png

Edit: Ups war gerade "nur" 8K bei Mordors Schatten.

Edgecrusher86
2015-04-07, 18:26:52
2x EVGA GTX TITAN X - 80,9% (1202 MHz mit stock BIOS und max. Targets gehalten) und 71,2% (da hab ich nicht nach geschaut - ich nehme mal an, es wären um die 1176 MHz gehalten von den "est. 1190 MHz Max-Boost"):

http://abload.de/img/titanxedgevar3t.jpg

Das mit den 0,949V P8 bei der zweiten war ein Auslesefehler - es sind auch 0,8xxV.

Mittlerweile laufen sie so, umgebaut auf die langen EKWB Acetal+Nickel (ohne BP); PT 320 - 352W - feste 1,174V:

http://gpuz.techpowerup.com/15/04/07/bv.png

27xW Power-Usage im Schnitt, FC4 SGPU in 4K (http://abload.de/img/fc44kultrasettings-smskl3d.png) DSR hatte 309W erreicht bei knapp 7,5GB im VRAM mit SMAA - rennt mit geschmeidgen 40 - 50 fps (AO: SSBC, Godrays: Volumetric Fog, sonst alles Ultra). :D
Es wird aber Zeit, dass der ASUS 4K IPS G-SYNC bald erscheint, damit ich auch SLI in 4K nutzen kann, auch wenn ich diese Kombination lieber mit 120Hz hätte - nun ja, da muss man dann wohl bis eDP 1.4a warten, damit so etwas marktreif wird - neben 8K 60Hz Panels. :)

E: Mehr OC habe ich nicht getestet, aber die Karten liefern so schon ihre 50%+ auf 1304/1753 MHz GTX 980er (die ich zuvor hatte) - Mission erfüllt. Wegen der limitierenden Bandbreite oberhalb 1405 MHz kommt von dem OC darüber hinaus eh nicht soviel auf die Straße, nur Hitze und Verbrauch steigen drastisch an bei 1,2xxV. Das brauch ich mit SLI nicht wirklich. ;)


Hier mal ein SGPU-Vergleich im TR-Benchmark in 1080p - der GTX 980 Score stammt von Blaire - in 1440p maxed out liefert die OC X fast die Werte der GTX 980 in FullHD maxed out - schon beeindruckend (auch wenn ich natürlich etwas mehr CPU-Leistung hatte, aber normal dürfte es mit diesen Settings eher ins GPU-Limit gehen, zumindest mit je einer Karte):

http://abload.de/thumb/trbench-1920x10804xssz6qfw.png (http://abload.de/image.php?img=trbench-1920x10804xssz6qfw.png)

HisN
2015-04-07, 18:28:59
Für die LuLz oder wie das Neudeutsch geschimpft wird.

http://abload.de/thumb/s1_sp64_ship_2015_04_ceueg.jpg (http://abload.de/image.php?img=s1_sp64_ship_2015_04_ceueg.jpg)

Und noch einen ohne rauszutabben.

11.5GB VRAM belegt bei knapp 100 FPS ... ist doch okey
http://abload.de/thumb/s1_sp64_ship_2015_04_ibud3.jpg (http://abload.de/image.php?img=s1_sp64_ship_2015_04_ibud3.jpg)

Godmode
2015-04-07, 18:41:01
Für die LuLz oder wie das Neudeutsch geschimpft wird.

http://abload.de/thumb/s1_sp64_ship_2015_04_ceueg.jpg (http://abload.de/image.php?img=s1_sp64_ship_2015_04_ceueg.jpg)

Und noch einen ohne rauszutabben.

11.5GB VRAM belegt bei knapp 100 FPS ... ist doch okey
http://abload.de/thumb/s1_sp64_ship_2015_04_ibud3.jpg (http://abload.de/image.php?img=s1_sp64_ship_2015_04_ibud3.jpg)

Was ist den das für ein Spiel?

derguru
2015-04-07, 18:47:26
call of duty gedöns, unglaublich wie verschwenderisch das spiel mit dem vram ist und das für sowas mittelmäßiges.

Edgecrusher86
2015-04-07, 18:48:21
Eventuell das neue CoD AW samt leichtem SSAA? Hab ich hier nicht - ist nur geraten.
E: Passt. Nun ja - zumindest zeigt sich doch schon recht früh, dass man auch 6 oder 8GB VRAM bei noch spielbaren/flüssigen Settings prima fahren kann mit der X.
Soviel zu dem Thema - aber genau dasselbe musste man sich ja damals auch bei der TITAN anhören - spätestens 2014 sind die Unkenrufe ("6GB braucht Niemand") aber verstummt. :D

Thunder99
2015-04-07, 18:53:48
Wenn ihr gerade von Bandbreite sprecht, gibt es wo einen Skalierungstest mit verschiedenen GPU-Taktraten oder kann einer von euch das machen? So RAM Takt von 3500vs4000 oder 4100 mit 1100, 1200, 1300 und 1400MHz :). Natürlich alles im heftigen GPU Limit :wink:

Eventuell das neue CoD AW samt leichtem SSAA? Hab ich hier nicht - ist nur geraten.
E: Passt. Nun ja - zumindest zeigt sich doch schon recht früh, dass man auch 6 oder 8GB VRAM bei noch spielbaren/flüssigen Settings prima fahren kann mit der X.
Soviel zu dem Thema - aber genau dasselbe musste man sich ja damals auch bei der TITAN anhören - spätestens 2014 sind die Unkenrufe ("6GB braucht Niemand") aber verstummt. :D
Zwischen belegt und sinnvoll in Nutzung gibt es aber einen Unterschied ;). Ein Spiel kann sich auch viel RAM reservieren aber kaum welches brauchen (theoretisch). D.h. läuft es bei gleichen Spielbaren fps mit Nachladeruckler bei 6GB und 4GB?

Edgecrusher86
2015-04-07, 19:00:00
Da bin ich mit meinen "festen" P0-Taktraten mehr oder weniger außen vor. Unterhalb 1315 MHz GPU-Takt (-90 MHz) kann ich nicht testen, ohne extra ein entsprechendes BIOS drauf zu flashen. Worauf ich eigentlich auch wenig lust habe. :freak:
Der VRAM kann auf 1753 MHz gesenkt werden. P2-State Tatktraten mit Unlock in P0 laufen lassen via Inspector klappt leider auch nicht mehr.


Zwischen belegt und sinnvoll in Nutzung gibt es aber einen Unterschied ;). Ein Spiel kann sich auch viel RAM reservieren aber kaum welches brauchen (theoretisch). D.h. läuft es bei gleichen Spielbaren fps mit Nachladeruckler bei 6GB und 4GB?

Solange die fps hier stimmen, ist mir das egal. VRAM ist dazu da, gefüllt zu werden - gerade wenn man soviel davon hat. :freak:
Klar, es gibt Fälle, wie oben oder mMn auch etwa Mordor, die sehr verschwenderisch mit der Belegung umgehen, ohne dass man gleich bei den Texturen auf die Knie fällt. Wäre es jetzt anders herum, würde ich auch den generellen Mehrverbrauch begrüßen. ;)

HisN
2015-04-07, 19:12:15
This
Genau wie das Systemram. Wenn es da ist, knallt es voll. Um so weniger muss umgeschaufelt werden.

Raff
2015-04-07, 22:30:01
call of duty gedöns, unglaublich wie verschwenderisch das spiel mit dem vram ist und das für sowas mittelmäßiges.

Das Spiel pumpt den Speicher in erster Linie einfach voll, nichts wird im Laufe einer Mission aus dem RAM entfernt. Warum auch nicht? Das verhindert Nachladeruckler. Außerdem arbeitet das Streaming erst mit viel Grafikspeicher optimal und alle Texturdetails werden direkt angezeigt. Grafikkarten mit 3 bis 4 GiByte erzielen ab UHD respektive geringeren Auflösungen mit SSAA teils höhere Bildraten als solche mit 6/8/12 GiB, da sie Texturdetails (idR nicht sichtbar) weglassen. Es gibt allerdings eine Reihe Caching-Optionen im Spiel, die dieses Verhalten beeinflussen und ich weiß nicht, ob man dieses Verhalten ganz wegbekommt – es stört jedenfalls beim Benchen.

MfG,
Raff

akuji13
2015-04-07, 22:33:33
Ok 100% mit 450W ist mir dann zu heavy. Ein humaneres Bios das empfehlenswert ist?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10558579&postcount=799

Ich hab mich an dem orientiert.

68,1 Evga
1405/4000@1.16v

Dachte erst "warte mal ab bis Spiel xy die Taktrate senkt!" aber wo das bei dir mit Standard-VCore (ist doch 1.16v oder?) klappt bin ich sicher das meine 1400/4000 auch in anderen Spielen gehalten werden.
Alles was vorher droppte ist nun wie festgetackert bei 100%=350W.

Ich hätte gedacht das ich dafür bereits die Spannung anheben muss.
Sehr geil, 1400 waren ja auch mein Ziel. =)

Mal schauen was mit leichter Erhöhung noch drin ist wenn der Kühler endlich diese Woche eintrifft. :)
Der sweet-spot dürfte nicht mehr weit entfernt sein, Spannungen wie 1.2x werde ich nicht anlegen.

Die Karte wirkt mit offenem PT wirklich wie befreit. :eek:

kokett
2015-04-07, 22:43:48
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10558579&postcount=799

Ich hätte gedacht das ich dafür bereits die Spannung anheben muss.
Sehr geil, 1400 waren ja auch mein Ziel. =)

Mal schauen was mit leichter Erhöhung noch drin ist wenn der Kühler endlich diese Woche eintrifft. :)
Der sweet-spot dürfte nicht mehr weit entfernt sein, Spannungen wie 1.2x werde ich nicht anlegen.

Die Karte wirkt mit offenem PT wirklich wie befreit. :eek:

Ich bin mir ziemlich sicher, dass alle Titan X Karten 1400/4000 mit dem Ref. Kühler problemlos packen würden, wenn nvidia das Power Target nicht so doof limitiert hätte.
Will sagen: Die hätten die Karten auch locker mit PT 300W und 1300/3800 verkaufen können anstelle so wie sie es jetzt gemacht haben.

Imo lohnt sich das rumspielen an der Spannung auch nicht, um eventuell auf 1500 - 1550 / 4000 zu kommen.

Die tatsächliche Mehrleistung gegenüber 1400/4000 @ default vgpu dürfte < 5% betragen und ich persönlich hätte doch arge Bedenken bei einer Karte die vom Hersteller auf 275W designed ist dann mit mehr VGPU 400-450W drüberzujagen.

Das wird auf Dauer auch mit Wakü nicht gutgehen, egal wie kühl die GPU damit ist.

akuji13
2015-04-07, 22:59:47
Definiere Dauer.

Wenn die Karte dann 5 statt 10 Jahre hält dürfte das für die meister X Nutzer die sowas machen egal sein.

Ich schaue mal ob nun noch ein paar Mhz drin sind und belasse ich es dabei.
Das Wasser soll dann nur noch für Ruhe und bessere Temps sorgen.

Das Verhalten scheint dem meiner Titan doch recht ähnlich, da gingen 1110 mit 1.136V und für 1202 waren 1.2x nötig, da hab ich es auch bei 1110 belassen.

phoenix887
2015-04-07, 23:04:37
Welche H20 Kühlung willst du benutzen?

akuji13
2015-04-07, 23:10:06
Der Kühler wird ein EK-FC Titan X sein und als AiO Ersatz kommt ein Aquacomputer airplex modularity system 140 mm zum Einsatz.

http://abload.de/thumb/dsc02927l4oid.jpg (http://abload.de/image.php?img=dsc02927l4oid.jpg)

phoenix887
2015-04-07, 23:46:18
Sympathisch verrückt:biggrin:;)

DoomGuy
2015-04-08, 00:10:42
Sobald in den (schon erschienenen) Spielen das LOD abschaltbar wird, hole ich mir eine TX. AA ist recht und schön, aber kein Mittel gegen "plötzlich wachsende Vegetation und aufploppende Objekte". Schreibt doch mal NV bzw. die Entwickler an... vielleicht gibt es nen extra Patch, das Geld ist ja auf Verbraucherseite vorhanden :)

IMHO wäre das doch ideal für 12GB-RAM. Ewig lange Staub/Rauch-Spuren in Racern, Gras welches immer da ist und eben kein sichtbares LOD selbst auf "Ultra-Settings" . Titan Only - oder bis die Roten nachziehen. Vielleicht kommt sowas erst mit den VR-Brillen, bzw. wäre das ideal, da der Fokus in heutigen Spielen auf das gesamte Bild gelegt wird d.h. es wird immer der gesamte Bildschirm "scharf und absolut berechnet"

Godmode
2015-04-08, 00:10:53
Das Spiel pumpt den Speicher in erster Linie einfach voll, nichts wird im Laufe einer Mission aus dem RAM entfernt. Warum auch nicht? Das verhindert Nachladeruckler. Außerdem arbeitet das Streaming erst mit viel Grafikspeicher optimal und alle Texturdetails werden direkt angezeigt. Grafikkarten mit 3 bis 4 GiByte erzielen ab UHD respektive geringeren Auflösungen mit SSAA teils höhere Bildraten als solche mit 6/8/12 GiB, da sie Texturdetails (idR nicht sichtbar) weglassen. Es gibt allerdings eine Reihe Caching-Optionen im Spiel, die dieses Verhalten beeinflussen und ich weiß nicht, ob man dieses Verhalten ganz wegbekommt – es stört jedenfalls beim Benchen.

MfG,
Raff

Das ist natürlich sehr hart, weil so kann man überhaupt nichts mehr vergleichen noch reproduzieren.



Die tatsächliche Mehrleistung gegenüber 1400/4000 @ default vgpu dürfte < 5% betragen und ich persönlich hätte doch arge Bedenken bei einer Karte die vom Hersteller auf 275W designed ist dann mit mehr VGPU 400-450W drüberzujagen.

Das wird auf Dauer auch mit Wakü nicht gutgehen, egal wie kühl die GPU damit ist.

Meinst du das der Chip draufgeht oder die Wandler? Ich denke gut gekühlt sollte es überhaupt kein Problem sein, vor allem hat das ja auch schon bei der normalen Titan gut funktioniert.

kokett
2015-04-08, 00:20:06
Meinst du das der Chip draufgeht oder die Wandler? Ich denke gut gekühlt sollte es überhaupt kein Problem sein, vor allem hat das ja auch schon bei der normalen Titan gut funktioniert.

Den Chip wird man kaum kaputt bekommen, aber ich denke einfach dass die Stromversorgung das nicht abkann. Wie lange das gutgeht: keine Ahnung.

Wenn man aber davon ausgeht, dass nvidia auf ihr 110% PT, dass sie dem Endkunden zugestehen nochmals 10% stille Reserve draufgepackt haben, wird dann bei > 300W irgendwas außerhalb der Spec betrieben werden.

Du hast ja selbst unlocked Titan X Karten, da wirst du ja in etwa abschätzen können, was die ohne Spannungserhöhung schon brauchen (ca. 330W).

Wieviel geht eigentlich regulär über 8 Pin + 6 Pin + PCIE Slot?

mike49
2015-04-08, 00:40:06
Wieviel geht eigentlich regulär über 8 Pin + 6 Pin + PCIE Slot?

150 + 75 + 75 = 300W

Ohne 2x 8-Pin Karten halte ich diese BIOS-Mods mit > 400W für recht kritisch, evtl. fackelt da dann auch mal wirklich was ab.

Raff
2015-04-08, 10:14:47
Nicht jedes Spiel reizt ein PT [von 450 Watt] aus, nur weil das im BIOS steht. :)

Ich habe gerad ein paar Messungen gemacht und verstehe nun, warum ich in AC Unity zwei PC-Neustarts hatte. :ugly: In Crysis 3 ist mit einem PT von 375 Watt @ 1,5 GHz alles super, Verbrauch und Hitzeentwicklung sind moderat. In Anno 2070 hingegen ... holy shit. 375 Watt reichen nicht, um die Karte mit 1,274 Volt/1,5 GHz zu nutzen. 450 Watt reichen, aber ... der Stromfluss ... die Hitze ... ich glaube nicht, dass dass im Ansatz gesund ist. Das ist eine milde Warnung an euch, die ihre Karten gekauft und lieb haben. ;)

MfG,
Raff

akuji13
2015-04-08, 10:45:14
Ich hab Hund und Katze (meistens) lieb, aber doch nicht so ein schnödes Ding. :D

Die Warnung ist aber angekommen...ich denke ich bleibe beim maximalen Takt ohne Spannungserhöhung.
Dann kann ich die Karte auch später guten Gewissens wieder abgeben. =)

Auf die ~7% gegenüber 1500 Mhz kommts auch nicht mehr an.

AC:U war auch das Spiel was meine Karte vorher auf 1180 Mhz drückte.

Godmode
2015-04-08, 11:24:27
Nicht jedes Spiel reizt ein PT [von 450 Watt] aus, nur weil das im BIOS steht. :)

Ich habe gerad ein paar Messungen gemacht und verstehe nun, warum ich in AC Unity zwei PC-Neustarts hatte. :ugly: In Crysis 3 ist mit einem PT von 375 Watt @ 1,5 GHz alles super, Verbrauch und Hitzeentwicklung sind moderat. In Anno 2070 hingegen ... holy shit. 375 Watt reichen nicht, um die Karte mit 1,274 Volt/1,5 GHz zu nutzen. 450 Watt reichen, aber ... der Stromfluss ... die Hitze ... ich glaube nicht, dass dass im Ansatz gesund ist. Das ist eine milde Warnung an euch, die ihre Karten gekauft und lieb haben. ;)

MfG,
Raff

Ist dir das in ACU im Hauptmenü passiert oder Ingame? Ich spiele ja in 1440p mit 2x2 DSR und wenn man dann das Spiel startet, wird das PT von 450W zu 98-99% ausgelastet. Muss wohl irgend ein Fehler im Spiel sein, weil die FPS sind im normalen Bereich. Das ist ein richtiger Powervirus.

Zu den Spannungen und PT: Man muss eine Kombination aus beiden finden, die man selber in Ordnung findet. Ich könnte auch noch ca. 50 MHz mehr drauflegen, aber dafür müsste ich die Spannung von 1,19 auf 1,27 erhöhen. @Air lasse ich das mal mit 1,19, vielleicht gehe ich mit Wakü an die Grenze.

OC_Burner
2015-04-08, 12:22:34
Nicht jedes Spiel reizt ein PT [von 450 Watt] aus, nur weil das im BIOS steht. :)

Ich habe gerad ein paar Messungen gemacht und verstehe nun, warum ich in AC Unity zwei PC-Neustarts hatte. :ugly: In Crysis 3 ist mit einem PT von 375 Watt @ 1,5 GHz alles super, Verbrauch und Hitzeentwicklung sind moderat. In Anno 2070 hingegen ... holy shit. 375 Watt reichen nicht, um die Karte mit 1,274 Volt/1,5 GHz zu nutzen. 450 Watt reichen, aber ... der Stromfluss ... die Hitze ... ich glaube nicht, dass dass im Ansatz gesund ist. Das ist eine milde Warnung an euch, die ihre Karten gekauft und lieb haben. ;)

MfG,
Raff

Lol das ist genau das Szenario warum man lieber nochmal mit FurMark/OCCT testen sollte ob das Powertarget auch ausreichend ist. Es kann immer ein Spiel kommen das mehr zieht und die Karte zum runtertakten zwingt. Das gilt aber nur wenn man absolut sichergehen will das die Karte egal bei welcher Auslastung auch ihren Takt hält. Immer schön vom Worst-Case-Szenario ausgehen. ;)

akuji13
2015-04-08, 12:51:30
Alan Wake zog bei mir damals mehr Saft aus der Karte als sämtliche synthetischen benchmarks.
Die 7950 wurde lauter und heißer als mit allem anderen.

Vorbei war es da mit der vermeintlich leisen PCS+. :D

Es kann immer ein Spiel kommen, das warum auch immer, sämtliche tools Lügen straft.

robbitop
2015-04-08, 13:04:42
Jap - es gibt immer mal wieder Szenarien, wo das PT ausgereizt wird. Neulich habe ich das bei Dark Souls 2 gemerkt. 8x SGSSAA haben meine beiden Titans 130 % PT genuckelt.
In Cities Skylines mit dynamic resolution Mod sogar 150 %

mike49
2015-04-08, 19:46:41
Nicht jedes Spiel reizt ein PT [von 450 Watt] aus, nur weil das im BIOS steht. :)

Schon klar, die Möglichkeit ist damit aber gegeben.

Und 450W durch Stromanschlüsse, die bis 300W spezifizert sind, zu jagen kann auf Dauer nicht gut sein. Mal ganz abgesehen von den entsprechenden Komponenten auf der Karte selbst...

Godmode
2015-04-08, 22:10:13
Schon klar, die Möglichkeit ist damit aber gegeben.

Und 450W durch Stromanschlüsse, die bis 300W spezifizert sind, zu jagen kann auf Dauer nicht gut sein. Mal ganz abgesehen von den entsprechenden Komponenten auf der Karte selbst...

Man könnte sich jetzt eine 295X2 angucken, ob da mehr Phasen, etc. verbaut sind. Die verletzen ja die PCIe Spezifikation, sogar vorsätzlich.

PHuV
2015-04-08, 22:13:53
Wurde das hier schon gepostet?
hardwareluxx - Vier NVIDIA GeForce GTX Titan X im 4-Way-SLI (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/34841-vier-nvidia-geforce-gtx-titan-x-im-4-way-sli.html)

kokett
2015-04-08, 22:39:43
Man könnte sich jetzt eine 295X2 angucken, ob da mehr Phasen, etc. verbaut sind. Die verletzen ja die PCIe Spezifikation, sogar vorsätzlich.

offensichtlich, da die 295x2 2x8pin hat und nich 8+6 wie die X.

akuji13
2015-04-08, 22:40:27
Mir erscheint das nicht so schlimm das ich mit 2x8 500 Watt oder sogar mehr versorgen muss und mit 1x8+1x6 ~450 Watt.

EDIT: Ok, Denkfehler.

500W auf 12 Phasen ist schon was anderes als 450W auf 6 (?) Phasen.

Mal ganz abgesehen von den entsprechenden Komponenten auf der Karte selbst...

Weiß man denn genau wo das Limit der Komponenten liegt?

Also wie bei Kondensatoren z. B.

mike49
2015-04-08, 22:57:45
Mir erscheint das nicht so schlimm das ich mit 2x8 500 Watt oder sogar mehr versorgen muss und mit 1x8+1x6 ~450 Watt.

Geht dabei ja auch um Dinge wie das NT bzw. für diese Stromstärken unterdimensionierte Stromkabel / Konnektoren.

Längst nicht jedes NT kommt mit 250W auf der 8-Pin Leitung zurecht, vor allem wenn auf der anderen Leitung nochmal das gleiche gesaugt wird.

Ich gehe hier aber mal davon aus, dass Leute mit einer Titan X auch über ein entsprechend (über-)dimensioniertes NT verfügen, von daher kein wirkliches Problem.


Weiß man denn genau wo das Limit der Komponenten liegt?

Keine Ahnung, aber nV sieht halt maximal 275W vor bei PT 110%. 450W sind dann schon ~ 65% darüber.

Godmode
2015-04-08, 23:01:04
Ich werde es bald sehen, wenn die zweite und dritte Titan X hier ist. Dann muss das Lepa mit 1600W beweisen, ob es was taugt. Die CPU mag auch mal gerne 250-300 Watt wenn man sie voll auslastet. ;)

Raff
2015-04-08, 23:01:59
Eventuell interessant für euch: Die Titan X kann bisher nichts schlechter als meine modifizierte Titan Classic – die unterirdische Double-Precision-Leistung ausgeklammert. ;) Soeben hat die X den letzten Test erfolgreich gemeistert, welcher mir zuvor Sorge bereitete: Custom Resolutions. Beim Mod-BIOS auf meiner Classic handelt es sich um die Downsampling-Version von svl7, welche damals speziell erstellt wurde, damit der Grafiktreiber beim Erstellen einer Eigenbauauflösung extrem hohe Werte schluckt. Die Titan X macht das aus dem Stand. Ich habe zwar ein Mod-BIOS auf der Karte, aber dort nicht explizit einen vergleichbaren Kniff eingebaut. Lange Rede, kurzer Sinn:

Alles geht. :up: Ohne DSR, denn das ist unflexibel (nur seitengerechte Auflösungen nutzbar). Für 5.120 × xxxx musste ich aber etwas andere Pixelwerte austüfteln als bei meiner Classic.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51594&stc=1&d=1428526898

MfG,
Raff

akuji13
2015-04-08, 23:06:31
Ich gehe hier aber mal davon aus, dass Leute mit einer Titan X auch über ein entsprechend (über-)dimensioniertes NT verfügen, von daher kein wirkliches Problem.

Ja davon kann man ausgehen. :D

Keine Ahnung, aber nV sieht halt maximal 275W vor bei PT 110%. 450W sind dann schon ~ 65% darüber.

Wobei ein Hersteller ja vor allem Temperaturentwicklung und Haltbarkeit im Auge hat.

Wenn die Wandler dann so 5 statt 10 Jahre halten wäre es wohl für die meisten hier akzeptabel.

Lange Rede, kurzer Sinn:

Alles geht. :up:

Sehr schön. =)

3840x2160 ist ja doch manchmal etwas dünne. :D

Godmode
2015-04-08, 23:32:27
Ja davon kann man ausgehen. :D



Wobei ein Hersteller ja vor allem Temperaturentwicklung und Haltbarkeit im Auge hat.

Wenn die Wandler dann so 5 statt 10 Jahre halten wäre es wohl für die meisten hier akzeptabel.



Sehr schön. =)

3840x2160 ist ja doch manchmal etwas dünne. :D

5k ist halt die nächste nicht krumme Auflösung wenn man einen 1440p Monitor hat.

OC_Burner
2015-04-09, 05:23:38
Eventuell interessant für euch: Die Titan X kann bisher nichts schlechter als meine modifizierte Titan Classic – die unterirdische Double-Precision-Leistung ausgeklammert. ;) Soeben hat die X den letzten Test erfolgreich gemeistert, welcher mir zuvor Sorge bereitete: Custom Resolutions. Beim Mod-BIOS auf meiner Classic handelt es sich um die Downsampling-Version von svl7, welche damals speziell erstellt wurde, damit der Grafiktreiber beim Erstellen einer Eigenbauauflösung extrem hohe Werte schluckt. Die Titan X macht das aus dem Stand. Ich habe zwar ein Mod-BIOS auf der Karte, aber dort nicht explizit einen vergleichbaren Kniff eingebaut. Lange Rede, kurzer Sinn:

Alles geht. :up: Ohne DSR, denn das ist unflexibel (nur seitengerechte Auflösungen nutzbar). Für 5.120 × xxxx musste ich aber etwas andere Pixelwerte austüfteln als bei meiner Classic.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51594&stc=1&d=1428526898

MfG,
Raff

Macht sie denn aus den Stand 5120x2880@2560x1440@144hz oder 7680x4320@3840x2160@60hz? Wenn nicht, dann könnte man ja dafür mal wieder ein DS-Bios erstellen.;)

robbitop
2015-04-09, 10:14:19
Was machen diese DS BIOSe eigentlich anders? Skaliert die Karte dann selbst auf die Auflösung des Monitors herunter?

Godmode
2015-04-09, 10:16:22
Was machen diese DS BIOSe eigentlich anders? Skaliert die Karte dann selbst auf die Auflösung des Monitors herunter?

Ich glaub es werden bestimmte Clockdomains verändert, wodurch eben noch höhere Auflösungen möglich werden.

robbitop
2015-04-09, 10:21:12
Schade - ich hatte die Hoffnung, dass es über die Karte und nicht den Monitor skaliert wird.

-> ROG SWIFT 2015 4K@85 Hz + 2x2DS @85Hz über Custom Resolutions war die Hoffnung.

Aber 8K @85Hz packt nicht mal DP1.3

PHuV
2015-04-09, 20:44:58
Wow, endlich in 4k mit FC4 über 50 FPS. :smile:

Aber die Palit stinkt ja übel, ist das bei Euch auch so gewesen? Und der ASCI ist bei mir nur 66%

-=Popeye=-
2015-04-09, 21:01:03
Neue Hardware riecht immer, meine hat nur 63,4 und macht trotzdem 1400+.

PHuV
2015-04-09, 21:10:50
Also die 980 und die 960 haben nicht so gestunken.

Update: Auch Crysis 3 mit 50-60 FPS? :eek: Mit der 980 bekomme ich gerade mal max 25 FPS hin.

aufkrawall
2015-04-09, 21:13:57
Schade - ich hatte die Hoffnung, dass es über die Karte und nicht den Monitor skaliert wird.

Es wird natürlich über die GPU skaliert. Man muss sie nur mit bestimmten Timings etc. dazu überreden, das zu machen (wohl mehr oder weniger zufällig).

Raff
2015-04-09, 21:15:28
Update: Auch Crysis 3 mit 50-60 FPS? :eek: Mit der 980 bekomme ich gerade mal max 25 FPS hin.

Da passt etwas nicht. Vermutlich Grafikdetails nicht übernommen. ;)

MfG,
Raff

PHuV
2015-04-09, 21:17:34
Da passt etwas nicht. Vermutlich Grafikdetails nicht übernommen. ;)
Ich hab seinerzeit für die G-Sync-Tests alles mal runtergeschraubt, und seitdem die Einstellungen nicht wieder angefaßt, kann schon sein. :redface:

OC_Burner
2015-04-09, 22:05:46
Schade - ich hatte die Hoffnung, dass es über die Karte und nicht den Monitor skaliert wird.

-> ROG SWIFT 2015 4K@85 Hz + 2x2DS @85Hz über Custom Resolutions war die Hoffnung.

Aber 8K @85Hz packt nicht mal DP1.3

:confused:

Nur um das nochmal klarzustellen: Der Monitor hat zu keiner Zeit das Bild skaliert. Die Skalierung wurde und wird zu jeder Zeit von der Grafikkarte vollführt.

Die nicht tot zu bekommende Legende der Monitor sei für Downsampling ausschlaggebend, beruht auf den Umstand das bei Downsampling in Kombination mit hohen Auflösungen und Refreshraten (60hz) die Spezifikationen von DVI/HDMI/DP nicht eingehalten wurden. Genauer gesagt wurden die "Horizontal Total Pixel" teils sehr hoch angesetzt damit der Nvidiatreiber bestimmte Auflösungskombinationen mit möglichst hoher Refreshrate klaglos annahm. Das führte jedoch dazu, dass die Videobandbreiten und Timings weit aushalb der Spezifikationen liegen konnten und längst nicht jeder Monitor vertrug das.

Durch das Übertakten der Video Clock Domain lassen sich höhere Downsampling Auflösungen bei zugleich höheren Refreshraten fahren und das sogar unter einbehaltung Vesa Video Timings. Was genau da nun im Nvidia-Chip abläuft kann wohl kein Außenstehender genau beurteilen. Meine Vermutungen gehen vom PureVideo, Hardwarescaler bis hin dazu, dass man sogar noch mehr als die 540Mhz Symbolrate aus DisplayPort 1.2 herausquetschen könnte.

Godmode
2015-04-09, 23:51:06
Da passt etwas nicht. Vermutlich Grafikdetails nicht übernommen. ;)

MfG,
Raff

Aber das Ding ist trotzdem einfach Wahnsinn. Gerade Alien Isolation in 5K gezockt und es flutscht einfach. Ich bin gerade echt am überlegen, ob ich da wirklich zwei Karten brauche, oder ob nicht doch eine einzelne reicht.

PHuV
2015-04-10, 00:15:18
Und von der Lautstärke gehts es an sich auch.

Godmode
2015-04-10, 09:00:57
Und von der Lautstärke gehts es an sich auch.

Da Lüfter ist bei mir auf 100%, da ich mit Mod-BIOS etwas vorsichtig bin was die Temperatur angeht. Ich freu mich natürlich schon wann ich endlich umbauen kann.

boxleitnerb
2015-04-10, 09:09:36
Welches Mod-BIOS ist für Wakü nun zu empfehlen aktuell? Und welches Flash-Tool muss verwendet werden?

Danke :)

robbitop
2015-04-10, 09:21:01
Es wird natürlich über die GPU skaliert. Man muss sie nur mit bestimmten Timings etc. dazu überreden, das zu machen (wohl mehr oder weniger zufällig).

:confused:

Nur um das nochmal klarzustellen: Der Monitor hat zu keiner Zeit das Bild skaliert. Die Skalierung wurde und wird zu jeder Zeit von der Grafikkarte vollführt.

Die nicht tot zu bekommende Legende der Monitor sei für Downsampling ausschlaggebend, beruht auf den Umstand das bei Downsampling in Kombination mit hohen Auflösungen und Refreshraten (60hz) die Spezifikationen von DVI/HDMI/DP nicht eingehalten wurden. Genauer gesagt wurden die "Horizontal Total Pixel" teils sehr hoch angesetzt damit der Nvidiatreiber bestimmte Auflösungskombinationen mit möglichst hoher Refreshrate klaglos annahm. Das führte jedoch dazu, dass die Videobandbreiten und Timings weit aushalb der Spezifikationen liegen konnten und längst nicht jeder Monitor vertrug das.

Durch das Übertakten der Video Clock Domain lassen sich höhere Downsampling Auflösungen bei zugleich höheren Refreshraten fahren und das sogar unter einbehaltung Vesa Video Timings. Was genau da nun im Nvidia-Chip abläuft kann wohl kein Außenstehender genau beurteilen. Meine Vermutungen gehen vom PureVideo, Hardwarescaler bis hin dazu, dass man sogar noch mehr als die 540Mhz Symbolrate aus DisplayPort 1.2 herausquetschen könnte.

Das ergibt für mich jetzt keinen Sinn. Warum sollte es sonst auch Monitor abhängig sein, ob und wie hoch die Custom Resolutions funktionieren? Und warum ändert man dann Taktdomains vom DVI/HDMI/DP?

Mein SWIFT bspw akzeptiert nicht 1 Pixel mehr als 1440p. Somit kann es nicht auf der Grafikkarte skaliert werden.

akuji13
2015-04-10, 09:23:25
Mit welchen tools kann man aktuell eigentlich aktuell die Spannung erhöhen?

cR@b
2015-04-10, 09:45:56
Mit welchen tools kann man aktuell eigentlich aktuell die Spannung erhöhen?

nVInspector auch wenns in den Klammern nicht korrekt angezeigt wird. Vielleicht kann Orbmuk2k dazu was sagen. EVGA Precision Tool soweit ich weiß.

akuji13
2015-04-10, 09:47:33
Habs befürchtet.

Das von EVGA fand ich immer total unpraktisch und beim Inspector war ich immer zu doof da ein Profil mit autostart zum laufen zu bekommen. :D

cR@b
2015-04-10, 09:52:56
Habs befürchtet.

Das von EVGA fand ich immer total unpraktisch und beim Inspector war ich immer zu doof da ein Profil mit autostart zum laufen zu bekommen. :D

Das mit autostart ist seit Win8 auch absolt bescheuert. Man muss in der Registry einen Eintrag der Verknüpfung vom Autostart Ordner hinzufügen oder gar einen Arbeitsauftrag anlegen. Finde das auch ziemlich kacke, weil man bei jeder Änderung den Schmarrn nachziehen muss. EVGA Tool habe ich selbst noch nicht geteste, auch wenn das mit der Lüfterkurve genial erscheint... mal sehen ob ich umsteige. Das Praktische am Inspector ist zur OC Möglickeit halt die Profilbearbeitung.

Godmode
2015-04-10, 10:07:32
Welches Mod-BIOS ist für Wakü nun zu empfehlen aktuell? Und welches Flash-Tool muss verwendet werden?

Danke :)

Datei von filehorst.de laden (http://filehorst.de/d/bpGHDhyd)

Hab dir mal alles zusammen gepackt, inkl. BIOSe, nvflash und Maxwell 2 BIOS Tweaker.. Wenn du flashst, die GPU vorher im Gerätemanger deaktivieren.

Grestorn
2015-04-10, 10:08:51
Da hat sich beim Inspector in den letzten Versionen einiges verbessert (was den Autostart angeht). Das geht in der neuesten Version komplett automatisch mit einem RMB Click auf "Create Clock Shortcuts". Man muss da eigentlich gar nicht mehr manuell eingreifen.

Zur Not kann man die Scheduler-Einträge aber auch immer noch händisch machen oder anpassen.

cR@b
2015-04-10, 10:11:16
Da hat sich beim Inspector einiges verbessert (was den Autostart angeht). Das geht in der neuesten Version komplett automatisch mit einem RMB Click auf "Create Clock Shortcuts".

Zur Not kann man die Scheduler-Einträge aber auch händisch machen.

Hmm finde ich trotzdem umständlich. Geil wäre ein Button im Inspector, der das automatisch in den Autostart erzeugt und in der Reg einträgt. Träumen darf man ja noch :D
Wir sprechen von 1.9.7.3 oder? Bei Create macht er bei mir nur ne Verknüpfung auf den Desktop, sonst nichts. Rest muss komplett manuell erfolgen...

boxleitnerb
2015-04-10, 10:15:26
Datei von filehorst.de laden (http://filehorst.de/d/bpGHDhyd)

Hab dir mal alles zusammen gepackt, inkl. BIOSe, nvflash und Maxwell 2 BIOS Tweaker.. Wenn du flashst, die GPU vorher im Gerätemanger deaktivieren.

Danke :smile:

Grestorn
2015-04-10, 10:20:57
Hmm finde ich trotzdem umständlich. Geil wäre ein Button im Inspector, der das automatisch in den Autostart erzeugt und in der Reg einträgt. Träumen darf man ja noch :D
Wir sprechen von 1.9.7.3 oder? Bei Create macht er bei mir nur ne Verknüpfung auf den Desktop, sonst nichts. Rest muss komplett manuell erfolgen...

RECHTE Maustaste auf den "Create Clock Shortcut" Button. Dann erstellt und aktualisiert er den Scheduler-Eintrag vollautomatisch.

cR@b
2015-04-10, 10:27:52
RECHTE Maustaste auf den "Create Clock Shortcut" Button. Dann erstellt und aktualisiert er den Scheduler-Eintrag vollautomatisch.

Achso ok das wusste ich nicht. Danke für den Tipp! Gleich mal ausprobieren, wenn ich nach Hause komme. Bekommt man das irgendwo als Tipp sogar im Tool angezeigt? Glaub das schreckt einige ab. So ein Tool sollte selbsterklärend sein, damit es viele nutzen.

Grestorn
2015-04-10, 10:29:42
Achso ok das wusste ich nicht. Danke für den Tipp! Gleich mal ausprobieren, wenn ich nach Hause komme. Bekommt man das irgendwo als Tipp sogar im Tool angezeigt? Glaub das schreckt einige ab. So ein Tool sollte selbsterklärend sein, damit es viele nutzen.

Ne, das ist leider ziemlich versteckt. Auch andere Buttons haben "Advanced" Funktionen auf der rechten Maustaste... Scheint irgendwie in Mode zu sein, ja auch bei GPU-Z usw., einige der Funktionen für "Insider" zu verstecken :)

phoenix887
2015-04-10, 10:39:55
RECHTE Maustaste auf den "Create Clock Shortcut" Button. Dann erstellt und aktualisiert er den Scheduler-Eintrag vollautomatisch.


Danke habe ich auch nicht gewusst. Habe das letzter Zeit immer umständlich über die Aufgabenplanung gemacht.

Godmode
2015-04-10, 10:42:52
Danke :smile:

Pass halt auf, weil das sind lauter Hardcore Powertarget BIOSe. :redface:

Raff
2015-04-10, 10:44:31
Und von der Lautstärke gehts es an sich auch.

Nur solange du keine hohen, stabilen Frequenzen magst. :ugly:

MfG,
Raff

Grestorn
2015-04-10, 10:56:38
Datei von filehorst.de laden (http://filehorst.de/d/bpGHDhyd)

Hab dir mal alles zusammen gepackt, inkl. BIOSe, nvflash und Maxwell 2 BIOS Tweaker.. Wenn du flashst, die GPU vorher im Gerätemanger deaktivieren.

Ich sag auch mal danke... Der Postbote muss jede Minute klingeln... :)

PHuV
2015-04-10, 11:00:07
Nur solange du keine hohen, stabilen Frequenzen magst. :ugly:
Erstens werde ich alt, zweitens ist da noch ein gelegentlicher Tinitus. :freak: Wenn ich an das Geröhre mit den 3x580er denke, ist das alles jetzt im Vergleich.... leise. :tongue:

akuji13
2015-04-10, 12:37:38
Danke habe ich auch nicht gewusst. Habe das letzter Zeit immer umständlich über die Aufgabenplanung gemacht.

Ich sage auch noch mal Danke Richtung Grestorn. =)

Wobei ich mir da immer noch nicht sicher bin ob ich die Spannung erhöhe wenn die 1400Mhz auch ohne dauerhaft gehalten werden.

Grestorn
2015-04-10, 13:15:02
Dankt lieber Orbmu2k :)

akuji13
2015-04-10, 13:24:21
Dafür das er das so versteckt hat? :eek::D

Grestorn
2015-04-10, 13:33:14
Ne, dafür dass er das Tool überhaupt programmiert hat natürlich (und mich damit "arbeitslos" gemacht hat ;) )

akuji13
2015-04-10, 14:00:06
Weiß ich doch. =)

Ohne eure tools hätte ich das PC-gaming vermutlich schon lange eingestellt.

cR@b
2015-04-10, 14:27:15
Ich sage auch noch mal Danke Richtung Grestorn. =)

Wobei ich mir da immer noch nicht sicher bin ob ich die Spannung erhöhe wenn die 1400Mhz auch ohne dauerhaft gehalten werden.

Die Spannung erhöht man ja nicht wegen dem Halten, sondern damit die Matz auch nicht abkackt.
Hatte gestern wieder drei od. vier Stunden WoW Raid und mit 12,5mV lief sie tadellos auf durchgehend 1364Mhz. Anfangs geht sie auf 1390Mhz hoch (mit +200 OC) und schaltet genau 26Mhz, sprich zwei Gänge zurück, vermutlich aufgrund integriertem Temptarget und PT. Wie gesagt meine Karte läuft komplett @ Stock im A.... :D

Kann man eigentlich bei Treiberresets generell dem zu wenig Volt in die Schuhe schieben oder kann es auch was anderes sein?

akuji13
2015-04-10, 15:07:04
Stimmt schon, aber ich kann ja auch mit PT450W meine Taktrate nicht auf 1500 hochschrauben ohne die Spannung zusätzlich zu erhöhen.

Godmod´s Karte hält die 1460 mit 1.199, da könnte es ja durchaus sein das meine die 1400 auch mit 1.16 schafft.
Bislang sind die 1400 stabil, aber ich befinde mich natürlich erst am Anfang und habe z. B. Anno nicht zum Testen.

Ist ja aber auch alles ganz entspannt, sollte irgendwas instabil werden in Zukunft wird eine Stufe mit der Spannung raufgegangen.

OC_Burner
2015-04-10, 19:36:45
Das ergibt für mich jetzt keinen Sinn. Warum sollte es sonst auch Monitor abhängig sein, ob und wie hoch die Custom Resolutions funktionieren? Und warum ändert man dann Taktdomains vom DVI/HDMI/DP?

Mein SWIFT bspw akzeptiert nicht 1 Pixel mehr als 1440p. Somit kann es nicht auf der Grafikkarte skaliert werden.

Hast du dir mal das Menü genauer angeschaut in welchen man die Wunschauflösung eingibt? Nein? Dann schau bitte nochmal genauer:

#Bild1
http://abload.de/thumb/ds-help1f1xuc.png (http://abload.de/image.php?img=ds-help1f1xuc.png)

#Bild2
http://abload.de/thumb/ds-help226a5q.png (http://abload.de/image.php?img=ds-help226a5q.png)

Ein paar Gründe warum nicht der Bildschirm Downsampling betreibt:

- Im Monitor OSD wird nicht die virtuelle Auflösung angegeben, sondern jene Auflösung auf welche das Bild herunter skaliert wurde. Spricht dafür, dass der Monitor nicht skaliert und dies schon vorher geschehen ist.

- Eine Capturekarte hinter der Grafikkarte gibt genaue Informationen über die gerade eintreffende Auflösung aus. Auch hier nichts von Downsampling zu sehen. Die Capturekarte erhält ebenfalls die bereits herunter gerechnete Auflösung

- Es gibt sogar Monitore die geben im OSD nicht nur die Auflösung und Refreshrate an sondern detailliertere Infos (auch den Pixeltakt in MHz). Eben dieser Pixeltakt liegt auch bei Downsampling nicht außerhalb der Norm.

- Der Pixeltakt, die Symbolrate oder auch bekannt als Videobandbreite ist immer noch der limiterende Faktor und Monitore verweigern das überschreiten eben dieses Taktes und quittieren dies mit einem schwarzen Bildschirm oder einer Out-of-Range Warnung. Downsampling-Auflösungen von 4k oder mehr überschreiten die DVI-SL, DVI-DL Spezifikationen locker. An einen DVI-SL Monitor mit max. 165MHz Pixeltakt könnte man unmöglich 4k@60hz übertragen. Aber es geht, dank Downsampling in der Grafikkarte.

- Von Grafikkarten- zu Grafikkartengeneration hat sich das Downsamplingverhalten geändert bei immerzu gleichen Monitor. Spricht wieder für Grafikkarten-Downsampling.

- Warum gibt es im Menü für benutzerdefinierte Auflösungen einmal die Felder für "Anzeigemodus (wie von Windows zurückgegeben)" und "Aktive Pixel" wo es doch nach Vesa nur möglich ist, eine Auflösung zu spezifizieren anstatt zwei? Die unteren "Aktiven Pixel" werden tatsächlich übertragen zusammen mit den dort angegebenen Timings. Das obere Feld mit den Auflösungen ist virtuell und davon wissen nur Spiele, Windows und der Grafikkartentreiber etwas.



Ein paar Gründe warum es vom Bildschirm abhängig ist ob Classic Downsampling von Erfolg gekrönt ist oder nicht:

- Die erste Hürde liegt bei den gesendeten EDID-Daten des Monitors. Der Nvidiatreiber ist manchmal sehr zickig und verweigert Downsampling per se wenn ihm die Daten nicht schmecken sollten. Monitore mit 1440p und aufwärts sind besonders schlimm betroffen. Diese Hürde ist mit einem Monitortreiber inkl. EDID-Daten leicht umgehbar. Zusätzlich können in der Windows Registry auch noch EDID-Daten abgelegt werden wodurch der Nvidiatreiber fasst alles annimmt.

- Die zweite Hürde liegt beim Anschluss des Monitors. Es werden auch mit Monitortreiber samit EDID-Daten nicht alle Auflösungen angenommen. Und da kommt der Eigentliche Punkt zu tragen warum Downsampling längst nicht mit jedem Monitor funktioniert. Damit der Nvidiatreiber die Wunschauflösung annimt mussten zumeist in den Subtimings des Panels für Benutzer-Definierte-Auflösungen die Werte "Gesamtzahl der Pixel Horizontal" und "Gesamtzahl der Pixel Vertikal" verändert werden. Horizontal musste immer erhöht und Vertikal reduziert werden. Mit erhöhen von "Gesamtzahl der Pixel Horizontal" erhöht sich der Pixeltakt linear zum eingestellten Wert (siehe vorangegangener Beitrag und die Bilder dazu). Durch das erhöhen des Pixeltaktes aber kommt man sehr schnell an das Limit des jeweiligen Anschlusses und man erhält kein Bild mehr. Durch absenken der Refreshrate kann man dem natürlich entgegen wirken aber viele Monitore laufen nicht mit weniger als 52hz.



Und warum nun die Erhöhung der Video Clock Domain der Grafikkarte per Bios? Weil durch den höheren Takt es nicht mehr erforderlich ist im Panel für Benutzer-Definierte-Auflösungen die "Gesamtzahl der Pixel Horizontal" zu erhöhen. Ja man kann ihn sogar auf Standard belassen und hält damit Vesa Timings und den Pixeltakt des Anschlusses ein. Die Auflösung 5120x2880@2560x1440@60hz ist auf Kepler basierenden Karten ohne Biosmod schlichtweg nicht realisierbar, weil die "Gesamtzahl der Pixel Horizontal" dafür auf unvernünftig hohe Werte eingestellt hätten werden müssen. Keine bisher verfügbare Anschlussart könnte dies bewältigen. Mit Biosmod kann "Gesamtzahl der Pixel Horizontal" beinahe auf standard belassen werden und damit bleiben auch die Spezifikationen im Soll. Im Umkehrschluss bedeutet so ein Biosmod natürlich auch mehr Luft führ noch höhere Auflösungen. Bei Maxwell könnte es dann für 7680x4320@3840x2160@60hz oder mehr reichen.

Das dein Monitor keinen Pixel mehr mitmacht kann ich nicht glauben. Eher vermute ich das der Nvidiatreiber blockiert und dir eine entsprechende Fehlermeldung ausgibt. Mit Monitortreiber samt EDID-Daten ließe sich das Problem umschiffen aber G-Sync wird dann nicht mehr funktionieren.

Deisi
2015-04-10, 19:42:57
Ich hab heute AC Unity auf der Titan X gespielt mit PT350W 1350mhz ohne Spannungserhöhung. Läuft alles problemlos über Stunden, doch wenn ich in AC im Ausrüstungsmenu bin für länger als 5 min wird der Bildschirm schwarz und ich muss den PC neustarten :confused:
Das lässt sich so reproduzieren. Das Problem tritt erst auf seit ich die Titan X habe, mit der 980 war das nicht der Fall.
Vielleicht hat hier jemand etwas ähnliches beobachtet und weiß eine Lösung.

woodsdog
2015-04-10, 20:49:48
ändert sich denn das verhalten bei 1250/1300 MHz...?

robbitop
2015-04-11, 13:21:19
Gibts eigentlich schon irgendwo einen guten Artikel zu Titan X SLI + 4K?

Hat die PCGH ggf. soetwas für das nächste Heft in Arbeit?

Raff
2015-04-11, 15:17:18
Nope.

MfG,
Raff

Matrix316
2015-04-11, 17:36:40
Gibts eigentlich schon irgendwo einen guten Artikel zu Titan X SLI + 4K?

Hat die PCGH ggf. soetwas für das nächste Heft in Arbeit?
Über 5K gibt es ein interessantes Video. ;)

AxUZPvzsPXY

Bei Hardwareluxx gibt's aber auch einen Artikel

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/34841-vier-nvidia-geforce-gtx-titan-x-im-4-way-sli.html?start=3

robbitop
2015-04-13, 12:06:48
Nope.

MfG,
Raff
Schade - denn da hattet ihr ja letztes Jahr zur GTX980 SLI + 4K einen interessanten Artikel zu dem Thema mit einem ernüchternden Fazit. Die Titan X (@SLI) sollte eigentlich genug Mehrleistung bieten (inbseondere freigelassen), um in einem Folgeartikel das Fazit ggf. zu revidieren.

Ich vermute aber mal, dass es nicht so einfach ist, gleich 2x Titan X Samples aufzutreiben?

Godmode
2015-04-13, 12:15:25
Gibts eigentlich schon irgendwo einen guten Artikel zu Titan X SLI + 4K?

Hat die PCGH ggf. soetwas für das nächste Heft in Arbeit?

Ich habe morgen 3 Karten und da werde ich sicherlich die eine oder andere Messung anstellen.

robbitop
2015-04-13, 12:18:22
:up:
Ich werde mich mit 4K wahrscheinlich trotzdem noch gedulden, da ich kein SLI mehr will. Mit GP100 und 120 Hz dann 2016 hoffentlich. :D
Erstmal das Upgrade auf Titan X + eventuell einen 21:9 144 Hz G-Sync Monitor eintakten.

PHuV
2015-04-13, 12:18:58
Ich hab mal bei FC4 MSSA4 eingestellt, und sofort steigt der VRAM-Bedarf auf 6,3 GB. :eek: Das heißt, selbst 6 GB ist für UHD definitiv zu wenig. Damit wäre eine 980 TI an sich auch ungeeignet, und müßte mit 8 GB ausgestattet werden.

dildo4u
2015-04-13, 12:21:01
Oder man begräbt MSAA endlich,SMAA scheint mit bei UHD deutlich sinnvoller.

Godmode
2015-04-13, 12:22:28
:up:
Ich werde mich mit 4K wahrscheinlich trotzdem noch gedulden, da ich kein SLI mehr will. Mit GP100 und 120 Hz dann 2016 hoffentlich. :D
Erstmal das Upgrade auf Titan X + eventuell einen 21:9 144 Hz G-Sync Monitor eintakten.

Ich spiele mit einer X Außerirdischen Isolierung (sry) und das in 5K. Also mit SLI sollte 4K sowas von gehen.

Ich hab mal bei FC4 MSSA4 eingestellt, und sofort steigt der VRAM-Bedarf auf 6,3 GB. :eek: Das heißt, selbst 6 GB ist für UHD definitiv zu wenig. Damit wäre eine 980 TI an sich auch ungeeignet, und müßte mit 8 GB ausgestattet werden.

Jetzt dauert es sicherlich nicht lange, dann kommen wieder die "Nur weil es angzeigt wird, muss es nicht heißen dass es notwendig ist"-Leute. :rolleyes:

gnomi
2015-04-13, 12:32:34
Oder man begräbt MSAA endlich,SMAA scheint mit bei UHD deutlich sinnvoller.

Eben .
MSAA ist ja kaum noch ernstzunehmen.
VRAM und Performance Verschwendung ohnegleichen.
Im Zeitalter von UE 3 noch vertretbar, da es keine anderen Möglichkeiten gab, was die Qualität anging, (kein AA sonst!) aber aktuell mit den guten Post AA Verfahren ist es nur noch eine Enthusiasten Option für Titan Besitzer.

Rampage 2
2015-04-13, 13:12:51
Ich hab mal bei FC4 MSSA4 eingestellt, und sofort steigt der VRAM-Bedarf auf 6,3 GB. :eek:

Wer schaltet bei 4K noch zusätzlich MSAA dazu:rolleyes:

6GB sind für die Anforderungen der nächsten Jahre völlig ausreichend - ein paar wenige Ausnahmen und SLI mal ausgenommen...

R2

gnomi
2015-04-13, 13:25:34
Wer schaltet bei 4K noch zusätzlich MSAA dazu:rolleyes:


Titan X Besitzer natürlich. :wink:
Aber deine Schlussfolgerung ist wirklich völlig richtig!
6-8 GB sollten schon hervorragend sein und 4 bis WQHD auch noch ganz OK. :)

PHuV
2015-04-13, 13:27:25
Wer schaltet bei 4K noch zusätzlich MSAA dazu:rolleyes:
Meine Güte, kommt hier keiner mal auf die Idee, daß man einfach mal nur mit den Einstellungen rumtestet, was so geht? :rolleyes:

Ich hab einfach mal mehrere Einstellungen durchprobiert, und beobachtet, wie das VRAM ausgelastet wird, mehr nicht. Oder ist das jetzt auch schon verboten? :|
Jetzt dauert es sicherlich nicht lange, dann kommen wieder die "Nur weil es angzeigt wird, muss es nicht heißen dass es notwendig ist"-Leute. :rolleyes:
Du lagst richtig! Meine Güte, wie ich das hier hasse. Und dann wundern sich einige, daß man auch mal zum Troll mutiert, um hier den Leuten den Spiegel vorzuhalten.

aufkrawall
2015-04-13, 13:30:15
Ist jetzt aber nicht gerade eine neue Erkenntnis, dass MSAA mit Deferred Rendering VRAM und Performance zum Frühstück frisst, bei sehr mäßigem Resultat.

PHuV
2015-04-13, 13:44:36
Und? Trotzdem darf man damit doch mal probieren und testen? Immerhin wird das Zeug alles in aktuellen Spielen wie FC4 als Option angeboten.

akuji13
2015-04-13, 14:03:37
Vor allem ist es ein Unterschied zu lesen das es nicht optimal ist und es selbst zu sehen. :wink:

boxleitnerb
2015-04-13, 16:52:33
Meine Titan X zickt rum, Benchmarks stürzen ab (beim Starten), Spiele beim Ändern von Einstellungen. Ich hatte hier glaube ich gelesen, dass man wenn man eine andere GeForce drin hatte vorher, diese hätte deaktivieren sollen oder sowas. Ich hab einfach die Kiste runtergefahren, alte Karte raus, neue rein und fertig. War eine GTX 970.

Windows 8.1 x64 neu aufsetzen?

PHuV
2015-04-13, 16:56:17
Treiber sauber komplett deinstallieren, und dann neu installieren sollte nach Raff ausreichen. Bei mir hat das rein-raus gut funktioniert.

phoenix887
2015-04-13, 16:57:29
DDU benutzen im abgesicherten Modus. Entfernt alles von alte Karten. Hat bei mir auch noch Sachen gefunden, obwohl ich den Treiber vorher deinstalliert haben.

Kurz:

1. DDU runterladen, im normalen Windowsbetrieb DDU starten.
2. Im Programm auswählen, das Windows nach der Deinstallation des Treibers, keinen neuen Treiber über Windows Update laden soll.
3. Jetzt Windows im abgesicherten Modus starten und dann DDU
4. Programm suchen lassen und säubern.
5. Runter Fahren lassen (Kaltstart)
6. PC normal hochfahren, Nvidia Treiber installieren.

Hat bei mir immer funktioniert und nochmal an Dargo, danke für den Tipp mit DDU: