PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX Titan: (P)Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9

gogetta5
2013-03-13, 09:59:49
[...]
Grafikkartekühler wechseln? Kann zwar einen PC selber zusammenbauen, aber Grafikkartenkühler habe ich noch nie gewechselt. Hätte Angst was falsch zu machen, und dann sind 930 Euro in den Sand gesetzt. Keine Ahnung ob Zotac da Garantie gibt wie EVGA, auf der Rückseite sind zumindenst keine Aufkleber, an denen man es erkennen könnte.

Ich hatte auch erst Skrupel .. an Grakas rumschrauben, die doch so empfindlich sind ;D.

Das wichtigste ist noch immer: richtiges Werkzeug!
Ich hatte bei meiner GTX470 eine Schraube durch falsches Werkzeug zerwürgt ... Folge: Kopf ausbohren (Da hab ich echt geschwitzt, aber es hat alles geklappt) und hochwertiges Werkzeug mit richtigen Aufsätzen gekauft.

Ansonsten macht es wirklich viel Spaß! Lohnt sich, sich zu überwinden :)

Skysnake
2013-03-13, 10:04:49
Wasn gleich so pissed....

Wundert mich jetzt, dass Sie die Sachen auch nicht raus gestrichen haben. Damit bleibt nur noch der Quadro-Treiber und ECC übrig, wobei ECC erst bei recht großen Systemen wirklich wichtig wird, oder halt wo man sich garantiert nicht verrechnen darf.

Ich glaub ich muss das mal in ne Rundmail bei uns packen, das ist sicherlich untergegangen ;)

Iruwen
2013-03-13, 10:19:48
Sind die Quadro/GeForce Treiber nicht mittlerweile "unified" (abgesehen von der unterstützen Hardware in der inf und der Zertifizierung)? Wir haben neulich wegen der ständigen Bildqualitätsdiskussionen welche verglichen und die waren identisch.

Skysnake
2013-03-13, 10:54:57
Kommt halt ganz drauf an, was nVidia im Treiber macht. Früher war es ja auch so, das man erst mit den Quadros die volle Leistung in manchen Bereichen abrufen konnte usw.

Das sind halt immer Softwaregeschichten, und da kann sich sehr schnell etwas ändern. Das z.B. GPUDirect drin ist, erstaunt mich wirklich SEHR! vor allem über mehrere Nodes hinweg. Im GPGPU-Bereich gibts dann wirklich kaum noch Gründe ne Tesla zu kaufen. :confused:

ECC für den RAM halt, aber für den Preis kann man auch schauen, ob es sich nicht lohnt, "einfach" die Sachen selbst zu implementieren, oder selbst ECC in Software zu implementieren. Macht der nVidia Treiber ja praktisch auch nur für einen.

Hat bei nVidia so ein gewaltiges Umdenken eingesetzt? Bin wirklich baff. Gerade GPUDirect hätten Sie wirklich nicht reinnehmen müssen. Das hätte wirklich jeder verstanden, dass das nicht mit drin ist. Aber nein, Sie packens mit rein. Schon krass.

Coda
2013-03-13, 11:46:49
Macht der nVidia Treiber ja praktisch auch nur für einen.
Bullshit. Das ist Hardware im Speichercontroller.

phoenix887
2013-03-13, 13:33:50
Danke BigKid und Gogetta5 für die ausführliche Antworten, habe mal in der vorletzten PCGH durchgeschaut, da wird ausführlich das Thema Wasserkühlung behandelt. Werde mich mal Ende des Jahres daran orentieren und an euren Ausführungen.

Iruwen
2013-03-13, 13:39:01
Ich hab ein Déja vu, gleich erklärt Snake nochmal die Sache mit dem ECC in Software und Coda merkt kurz trocken an dass das eine Performancekatastrophe wäre :D

Iruwen
2013-03-13, 13:42:02
Danke BigKid und Gogetta5 für die ausführliche Antworten, habe mal in der vorletzten PCGH durchgeschaut, da wird ausführlich das Thema Wasserkühlung behandelt. Werde mich mal Ende des Jahres daran orentieren und an euren Ausführungen.
Wenn du ganz faul bist aber Geld hast kannste auch ein externes Aquaduct nehmen. Was ich auf jeden Fall empfehlen würde, merk dir schonmal: Schnellkupplungen (http://www.caseking.de/shop/catalog/Wasserkuehlung/Anschluesse/Schnell-Verschluss-Anschluesse:::27_287_434.html?filter=manufacturers:298;price:4,24&sort=pname_asc). Fällt bei den Gesamtkosten kaum noch ins Gewicht und macht das Leben so unendlich viel einfacher.

Skysnake
2013-03-13, 14:58:02
Ich hab ein Déja vu, gleich erklärt Snake nochmal die Sache mit dem ECC in Software und Coda merkt kurz trocken an dass das eine Performancekatastrophe wäre :D
Kommt drauf an, was du alles machen willst ;)

Die Sachen auf der GPU sind ja weiterhin mit ECC geschützt. Da muss man dann schauen, wie groß der Performancehit ist.

TobiWahnKenobi
2013-03-13, 16:03:18
sachen und dinge machen :-) besser wäre tun.



(..)

mfg
tobi

TurricanM3
2013-03-13, 22:41:30
Also der Aufwand eine Graka auf Wakü umzubauen ist sicher höher als den Accelero drauf zu packen. In beiden Fällen musst du die Graka auseinander nehmen...


Der Umbau auf Wakü ist meiner Meinung nach deutlich einfacher und schneller als auf Accelero. Du musst ja nichts einzeln positionieren / bekleben und warten, sondern nur den Kühler drauf - fertig. :smile:

BigKid
2013-03-14, 09:03:20
Der Umbau auf Wakü ist meiner Meinung nach deutlich einfacher und schneller als auf Accelero. Du musst ja nichts einzeln positionieren / bekleben und warten, sondern nur den Kühler drauf - fertig. :smile:
Das mag zutreffen wenn man schon eine Wasserkühlung verbaut hat und nur die Karte umrüstet - bei ihm ging es aber um einen start bei 0...
Und ich glaube du stimmst mir zu wenn ich sage:
Einfach nur die Karte auf Accelero umrüsten dürfte einfacher sein als eine KOMPLETTE Wakü aufzubauen ;)

phoenix887
2013-03-14, 11:58:09
Ja würde bei 0 anfangen. Habe eben mal etwas Quergelesen im Luxx, sind einpaar mit WaKü auf der Titan unterwegs. So wie ich gelesen habe, bringt das vielleicht gerade mal 100mhz. Ob sich der ganze Aufwand dann lohnt?

Gut dann kommt noch die Lautstärke hinzu. Aber da bin ich nicht so empfindlich. Meine Titan dreht mit meinem OC-Profil bis maximal 65% auf. Habe sowieso Headtset auf oder höre es kaum durch meine Boxen. Schlimmer als ne xbox360, die ich mal hatte, finde ich es nicht. Mal schauen was ich mache, denke dieses Modbios würde eher helfen....

Godmode
2013-03-14, 12:27:15
Also ich muss unbedingt was tun, weil momentan kann ich die Dinger nur kühlen, da es sehr kalt ist. Das ganze Case, vor allem aber die Rückseite wird unglaublich heiß. Im Prinzip ist das jetzt ein kleiner Heizstrahler mit 1200W.

Mit Single GPU würde ich wohl auch nicht auf Wakü umrüsten.

TobiWahnKenobi
2013-03-14, 13:14:27
wenn das mehr als ne designstudie werden soll, musst du eh eine rauswerfen. ich würde davon bestenfalls 2 stecken lassen und dann muss man auch nicht an der kühlung rumfingern.

überhaupt ist der kühler voll erträglich :-) ich finde den trotz hörbarkeit gut.



(..)

mfg
tobi

LSSJBroly
2013-03-14, 14:34:19
überhaupt ist der kühler voll erträglich :-) ich finde den trotz hörbarkeit gut.



Noch erträglicher als die GTX 690? (subjektiv)

Godmode
2013-03-14, 14:52:03
wenn das mehr als ne designstudie werden soll, musst du eh eine rauswerfen. ich würde davon bestenfalls 2 stecken lassen und dann muss man auch nicht an der kühlung rumfingern.


(..)

mfg
tobi

So sehe ich es noch nicht, aber mal sehn was ich in 1-2 Monaten sage.

TobiWahnKenobi
2013-03-14, 15:14:17
Noch erträglicher als die GTX 690? (subjektiv)

die GTX690 ist dann sehr erträglich, wenn ich den PT-regler auf 82% runterdrehe. titan lasse ich einfach laufen, wie er kam.. ab und an mal +150MHz auf RAM und GPU, rest stock. die tonlagen sind unterschiedlich, aber dass es mich jetzt beim spielen stört, kann ich nicht behaupten. und nur da werden die lüfter hörbar.

die dual-GPU-karte klingt jetzt im AMD-rechner (anderes case) auch etwas aufdringlicher als in meinem HAF, aber es hat auch weniger volumen.

beide cases haben lediglich die wakü gemein, sodass im gehäuse kaum über 28 oder 30°C herrschen (mainboardsensor).

http://www.abload.de/img/unbenannt3kaurq.png


btw,
mein titan bewegt sich beim spielen gemittelt mit 1150MHz. takte unter 1GHz, wie ich hier und da im netz lese, sind mir noch nicht untergekommen. ansonsten bin ich mit dem testen auch durch - lüfter aufreissen, spannung hoch, k-boost an/aus... macht alles arbeit und ändert das verhalten der karte ein wenig.. nur, am simpelsten ist echt: stock + takt hoch = läuft!


(..)

mfg
tobi

LSSJBroly
2013-03-14, 16:23:37
Danke für deine Eindrücke. Mmm... mit 1150MHz ist der GK110 schon ne klasse für sich... Mal schauen... irgendwie will ich das ding immer mehr und mehr haben... (Nur der Preis schreckt mich leider noch etwas zu stark ab...)

dildo4u
2013-03-14, 16:41:54
NVIDIA GTX TITAN vs. SLI & Crossfire

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/60166-nvidia-gtx-titan-vs-sli-crossfire.html

TobiWahnKenobi
2013-03-14, 17:00:44
joa.. bestätigt meinen eindruck.

Back in the original GTX TITAN review, we mentioned that AMD’s HD 7970GHz Edition exhibited a horrendous amount of stutter and adding another card certainly doesn’t help this situation. The only two titles where the Crossfire setups provide a relatively smooth gameplay experience are Dirt: Showdown and Max Payne 3.

In every other situation Crossfire is completely dominated by NVIDIA’s TITAN, which exhibits incredibly docile frame time results. This just goes to show that raw framerates really don’t mean all that much when it comes to fluid onscreen frame delivery.
..
While SLI doesn’t exhibit the same widespread issues as Crossfire, it certainly doesn’t provide a completely flawless experience. Crysis 3 and Hitman: Absolution exhibit frequent and jarring “pauses” of 70ms or more and while these issues aren’t show-stoppers, they can easily break your concentration. Dirt: Showdown on the other hand continues to be a thorn in NVIDIA’s side.

Once again, the TITAN is able to remain head and shoulders over the GTX 680 SLI and GTX 670 SLI setups. It exhibits excellent all-round performance in these tests, without any of SLI’s drama.
..
Testing the TITAN against Crossfire in 5760x1080 leads to nearly identical results as in lower resolutions but AMD’s frame time issues are simply enhanced. Hitman: Absolution and Far Cry 3 are simply unplayable with the HD 7970 Ghz Edition and HD 7950 Boost due to consistent, massive stuttering.

Due to its single chip design, NVIDIA’s latest card is able to remain well ahead here and when actually playing the games, the differences between these setups are painfully obvious.
..
Is it better to buy a single powerful GPU or buy two less expensive cards and achieve similar performance? That is a question that gamers have been faced with years, but NVIDIA’s TITAN is doing a brilliant job of blurring those lines in today’s market. It is the first graphic card which has the capability to stand toe-to-toe against leading dual card setups without having to resort to interlinks between two distinct cores.


(..)

mfg
tobi

G 80
2013-03-14, 18:52:02
Ja und auch die erste Karte die gegen wenigstens 3 Stück der Konkurrenz (7950 WF) gebencht werden sollte, wegen einheitlichem Preisniveau. :freak::ucatch::ulol5:


Wenn der eine abzockt und der andere wie immer weiterwurschtelt hat der Kunde den Brechdurfall. ;D

Raff
2013-03-14, 18:57:06
Danke für deine Eindrücke. Mmm... mit 1150MHz ist der GK110 schon ne klasse für sich... Mal schauen... irgendwie will ich das ding immer mehr und mehr haben... (Nur der Preis schreckt mich leider noch etwas zu stark ab...)

Wie gesagt, "leider geil" traf nie so zu. Bis auf den Preis und das fragwürdige Powerlimit, das die OC-Ergebnisse einschränkt, gibt es an dem Teil nichts zu meckern.

MfG,
Raff

Nightspider
2013-03-14, 18:59:07
Schade das AMD kein 500-550mm² Chip herausbringt, der wie CGN primär auf Games ausgerichtet ist und keine Server-Lasten mit sich herumschleppt.

Ein auf 550mm² aufgeblähter GK104 mit 512Bit SI (Gab es ja schon in der Vergangenheit) wäre zwar klar auch extrem teuer aber dann hätte man auch wirklich GK104*2 und nicht nur GK104+30-40% wie bei Titan.

30-40% bei dem Preis ist bei doppeltem Transistor-Count und fast doppelter Fläche einfach nicht hinnehmbar für 900 Euro, selbst für den Großteil der HighEnd-User.

Die könnten dann auch ruhig gleich eine WaKü Version von Haus aus herausbringen, die sich nicht um 250W TDP aufwärts schert.

Raff
2013-03-14, 19:04:18
Ich habe den ekelhaften Verdacht, dass dieser hinkende Vergleich niemals aufhören wird. SLI und Crossfire stinken gefühlt einfach nicht gegen eine dicke Single-GPU an, solange AFR das genutzte Verfahren ist. Täglich gibt's hier Threads von Leuten, die Probleme haben oder durch einen Selbstversuch von der Idee geheilt wurden.

MfG,
Raff

TobiWahnKenobi
2013-03-14, 19:18:14
Ich habe den ekelhaften Verdacht, dass dieser hinkende Vergleich niemals aufhören wird. SLI und Crossfire stinken gefühlt einfach nicht gegen eine dicke Single-GPU an, solange AFR das genutzte Verfahren ist. Täglich gibt's hier Threads von Leuten, die Probleme haben oder durch einen Selbstversuch von der Idee geheilt wurden.

MfG,
Raff

+1

1x 40 ist nicht automatisch das selbe wie 2x 20. zumindest wenn man es mit fps und afr im gleichen kontext sieht.


(..)

mfg
tobi

boxleitnerb
2013-03-14, 19:23:53
Ich glaube wir haben jetzt alle geschnallt, dass ihr beide kein AFR mögt :freak:

Ab einer gewissen Framerate werden die Unterschiede (für mich!) immer weniger spürbar bis sie schließlich ganz verschwinden. Dazu genieße ich weniger Inputlag bei z.B. 60 AFR-fps als bei 30 SGPU-fps.

aufkrawall
2013-03-14, 19:26:46
Ab einer gewissen Framerate werden die Unterschiede (für mich!) immer weniger spürbar bis sie schließlich ganz verschwinden. Dazu genieße ich weniger Inputlag bei z.B. 60 AFR-fps als bei 30 SGPU-fps.
Mit AFR-Vsync fällt AFR-Gebashe, abseits von Kompatibilitätsproblemen, eh in sich zusammen.
Jede Wette, dass meine 2 670s damit ziemlich häufig ein besser spielbares Resultat als 1 Titan bringen.

Nightspider
2013-03-14, 19:28:24
670SLI sollte sich trotzdem schneller anfühlen als eine single Titan.
Dafür hat das SLI Gespann zu viel Power. Zumal Titan nur durchschnittlich 40% schneller sein dürfte als eine einzige 670.

Dabei spart man dann auch gleich mal 300 Euro. Zumindest in FPS lagen >45 fps, d.h. nicht in extremen Settings.

Ich hatte auch schon oft SLI und hab dieses genutzt um die FPS für MP-Shooter massiv zu steigern und nicht die BQ so krank aufzudrehen, bis ich an Mikrorucklern sterbe.

Mein OC'ed 460 SLI Gespann (+20%) war so schnell wie eine 480, für deutlich weniger Geld, zB. bei BC2 im Bereich 60-120fps.

Raff
2013-03-14, 19:28:37
In diesem Fall geht's primär um den hinkenden Vergleich. :) AFR kann man ja nutzen, um über die Leistung der schnellsten Single-GPU hinauszukommen, nur müssen die erzielten Fps deutlich höher sein, damit es sich auch wirklich besser anfühlt (daher geht die Rechnung 2x Crap = 1x Win nicht auf).

670SLI sollte sich trotzdem schneller anfühlen als eine single Titan.
Dafür hat das SLI Gespann zu viel Power. Zumal Titan nur durchschnittlich 40% schneller sein dürfte als eine einzige 670.

Also für dich lohnt es sich. Eine moderat übertaktete Titan (1+ GHz) ist oft doppelt so schnell wie eine GTX 580.

MfG,
Raff

dildo4u
2013-03-14, 19:29:48
Also ich fand den Test schon interessant,vorallem das Titan paar mal über den min fps des 670 SLI liegt.(AC3,Hitman,Dirt)In dem fps Bereich wird AFR kaum noch sauber arbeiten.

aufkrawall
2013-03-14, 19:34:19
670SLI sollte sich trotzdem schneller anfühlen als eine single Titan.
Dafür hat das SLI Gespann zu viel Power. Zumal Titan nur durchschnittlich 40% schneller sein dürfte als eine einzige 670.
Mehr als 40% dürftens schon sein, Blaire hat ja bei Crysis mit 8xSGSSAA fast eine Verdoplleung mit Titan gegenüber einer 680 gemessen.
Sieht bei anderen Fällen mit forciertem SGSSAA vermutlich nicht unbedingt so viel anders aus.
Bei anderen Spielen, wo das nicht zutrifft, kanns natürlich wirklich nicht so pralle sein.

In diesem Fall geht's primär um den hinkenden Vergleich. :) AFR kann man ja nutzen, um über die Leistung der schnellsten Single-GPU hinauszukommen, nur müssen die erzielten Fps deutlich höher sein, damit es sich auch wirklich besser anfühlt (daher geht die Rechnung 2x Crap = 1x Win nicht auf).

Bei SLI ist es nicht so selten, dass die Frametimes mit AFR ziemlich gut sind und es bei über 40fps es sich deutlich besser anfühlt als 30fps sGPU.
Wenn es hilft, die 60fps Vsync zu halten, kann das Spielgefühl mit 2-Way xMal besser sein als mit sGPU.
Hab ich dir aber auch schon mehrmals geschrieben...

Blaire
2013-03-14, 19:34:35
Dafür hat das SLI Gespann zu viel Power. Zumal Titan nur durchschnittlich 40% schneller sein dürfte als eine einzige 670.

Das kommt ganz auf die Settings an, zwischen 50 bis 90% bei meinen Settings waren eher die Regel (GF TITAN vs. GTX680 @Default). Ok Aufkrawall war schneller...

Nightspider
2013-03-14, 19:36:58
Also ich fand den Test schon interessant,vorallem das Titan paar mal über den min fps des 670 SLI liegt.(AC3,Hitman,Dirt)In dem fps Bereich wird AFR kaum noch sauber arbeiten.

Nur bei "perversen" Auflösungen, wenn ich nichts übersehen habe. Aber das ist ja klar. Irgendwann limitiert die Speicherbandbreite und der VRAM bremst auch aus.

Nightspider
2013-03-14, 19:41:55
Mehr als 40% dürftens schon sein, Blaire hat ja bei Crysis mit 8xSGSSAA fast eine Verdoplleung mit Titan gegenüber einer 680 gemessen.
Das kommt ganz auf die Settings an, zwischen 50 bis 90% bei meinen Settings waren eher die Regel (GF TITAN vs. GTX680 @Default). Ok Aufkrawall war schneller...

Okay, ich sollte meine Aussagen in der Hinsicht konkretisieren, das ich mich nur auf "normale" Settings mit max. 2560er Res. beziehe.

Keiner wird zB. bei BF3 im MP das AA und die Auflösung so hochschrauben, dass das 670 SLI Gespann irgendwo einbricht, limitiert wird, bzw. das AFR-Problem durch kommt.

SLI kann man immer fertig machen mit einem größeren Chip aber wenn man es nicht darauf anlegt profitiert man trotzdem von SLI und erreicht bei bestimmten Settings die gleiche Performance wie der größere SingleChip bzw. sogar etwas mehr.

Ich hatte schon 3vers. SLI Gespanne und zocke schnelle First Person Shooter. Das ist etwas anderes, als wenn ich im SP die BQ so weit aufdrehe, bis ich im Bereich der 25-40 fps lande. (Wo SLI eben meist das Nachsehen hat)

TobiWahnKenobi
2013-03-14, 19:42:03
ich habe auf der GTX690 das gefühl, dass der "vsync-flüssig" mit seinem AFR flag die frames drückt - dann hat man mit gemilderten AFR-latenzen die framerate auf seinem balken stehen, die titan als einzelkarte stemmt. und dann sind wir bei dem was raff eben schrieb.


(..)

mfg
tobi

Raff
2013-03-14, 19:42:39
Bei SLI ist es nicht so selten, dass die Frametimes mit AFR ziemlich gut sind und es bei über 40fps es sich deutlich besser anfühlt als 30fps sGPU.
Wenn es hilft, die 60fps Vsync zu halten, kann das Spielgefühl mit 2-Way xMal besser sein als mit sGPU.
Hab ich dir aber auch schon mehrmals geschrieben...

Das ist ja nicht irgendein Hass-Gelaber bei mir – ich gebe mir SLI/Crossfire alle paar Wochen mal. Jedes Mal gibt's positive Momente wegen der hohen Bildraten. Spätestens unter 60 Fps kocht das "Fake Fps"-Gefühl wieder hoch, weil ich die Bildverteilung einer Single-GPU gewohnt bin und es nicht einsehe, die sonst spielbaren 40 Fps zu verdoppeln, weil ich nun zwei statt einer GPU nutze. :ugly: Glaub mir, ich habe genug gesehen. Immer wieder. Es ist keine Option für mich. Natürlich kann man den Umstieg forcieren, sich an die schlechtere Frame-Verteilung gewöhnen und fortan mit höheren Fps bei gleichem Gefühl spielen – und natürlich ständig mit Profilen und Limitiern herumfrickeln. Aber warum sollte man?

MfG,
Raff

aufkrawall
2013-03-14, 19:45:52
ich habe auf der GTX690 das gefühl, dass der "vsync-flüssig" mit seinem AFR flag die frames drückt - dann hat mit gemildertem AFR die framerate auf seinem balken, die titan als einzelkarte stemmt. und dann sind wir bei dem was raff eben schrieb.


(..)

mfg
tobi
Nö, denn mit AFR-Vsync hast du weder Mikroruckler noch bei 2-Way gegenüber sGPU zusätzlichen Input Lag. ;)
Also bei 1080p eine mindestens vergleichbare Leistung für deutlich weniger Asche.

Für höhere Auflösungen braucht man eh wieder Titan SLI. :D

TurricanM3
2013-03-14, 19:48:22
Das mag zutreffen wenn man schon eine Wasserkühlung verbaut hat und nur die Karte umrüstet - bei ihm ging es aber um einen start bei 0...
Und ich glaube du stimmst mir zu wenn ich sage:
Einfach nur die Karte auf Accelero umrüsten dürfte einfacher sein als eine KOMPLETTE Wakü aufzubauen ;)


Ja klar ist der Aufwand im Ganzen höher, keine Frage. Aber schau was ich gequotet habe, da gings ja erstmal nur um den Kühlerumbau.

PS: Kann eine vernünftige Wakü nur empfehlen, der Aufwand ist halt immens. :(

TobiWahnKenobi
2013-03-14, 19:58:25
Nö, denn mit AFR-Vsync hast du weder Mikroruckler noch bei 2-Way gegenüber sGPU zusätzlichen Input Lag. ;)
Also bei 1080p eine mindestens vergleichbare Leistung für deutlich weniger Asche.

Für höhere Auflösungen braucht man eh wieder Titan SLI. :D

naja.. ich werd's ja sehen. die aus meiner sicht beste smallkepler-SLi-lösung (GTX690) behalte ich ja für meine freundin. und wenn ich es vermisse, kralle ich mir ihr pad oder baue die dualkarte wieder in den hauptrechner. allerdings würde ich heute aus dem bauch raus sagen, dass eher die hölle zufriert.



(..)

mfg
tobi

Blaire
2013-03-14, 20:00:48
Das ist ja nicht irgendein Hass-Gelaber bei mir – ich gebe mir SLI/Crossfire alle paar Wochen mal. Jedes Mal gibt's positive Momente wegen der hohen Bildraten.

Allein der CF - Vergleich verbietet sich schon...

Spätestens unter 60 Fps kocht das "Fake Fps"-Gefühl wieder hoch, weil ich die Bildverteilung einer Single-GPU gewohnt bin und es nicht einsehe, die sonst spielbaren 40 Fps zu verdoppeln, weil ich nun zwei statt einer GPU nutze. :ugly: Glaub mir, ich habe genug gesehen. Immer wieder.

Beispiele? Wer sagt denn , das man mit 40fps spielen muss? Du hast ja die Wahl deine Settings anzupassen, neben den SLI-Profilen, kommt es immer das jeweilige Game bzw. Engine, wie flüssig es mit SLI rennt. So pauschal kann man das garnicht beurteilen, es gibt Games wie ein Crysis oder Assassins Creed III welches sogar bei 30-40fps noch sehr smooth laufen, während andere wie Metro 2033 oder Farcry3 sich erst bei >60fps richtig smooth anfühlen. Da möchte ich dann gern mal sehen mit welchen Settings du diese Games mit 60fps auf einer SingleGPU-Card realisieren willst...
Verstehe mich nicht falsch, man ist ja nicht eingeschränkt bei der Wahl der Settings. Bei einem Multiplayer-Game wie Battlefield3 da musste ich mit einer GTX680 schon bei 1080p auf Medium-Details zurückschalten um etwa die gleiche Smoothness wie mit 2-Way GTX680 und Ultra-Details zu erreichen und trotz vermeintlich hohen FPS . Für diesen Fall war SLI also Pflicht, wollte man maximale Details genießen. Gut das mag jeder anders beurteilen, nicht jeder nutzt oder mag 120Hz Monitore (TN-Nachteile usw.) aber 120Hz vermitteln ein geiles Spielgefühl, kann man nicht anders sagen. :)

aufkrawall
2013-03-14, 20:01:25
naja.. ich werd's ja sehen. die aus meiner sicht beste SLi-lösung (GTX690) behalte ich ja für meine freundin. und wenn ich es vermisse, kralle ich mir ihr pad oder baue die dualkarte wieder in den hauptrechner. allerdings würde ich heute eher sagen, dass eher die hölle zufriert.

^^
Problematisch ist halt, wenn die Engine mit AFR rumsuckt und es irgendwie Fehler gibt/stockt etc.
Mir fällt nur gerade eigentlich kein Beispiel ein. Crysis 1 kann man problemlos mit <30fps mit diesem AFR-Vsync zocken.

Naennon
2013-03-14, 20:09:40
Mit AFR-Vsync fällt AFR-Gebashe, abseits von Kompatibilitätsproblemen, eh in sich zusammen.
Jede Wette, dass meine 2 670s damit ziemlich häufig ein besser spielbares Resultat als 1 Titan bringen.


nein

aufkrawall
2013-03-14, 20:11:46
nein
Ich seh kein SLI in deinem Profil. Woher du also diese "Weisheit" nehmen?

Naennon
2013-03-14, 20:18:05
vom nutzen ner 4870X2, ner 295, ner 590 und 680 Lightning SLI

oder ums dir mal anders zu sagen
stell dir dein 670 SLI mit nur einer Karte vor, dann weisst was Titan ist
ist wirklich so...

aufkrawall
2013-03-14, 20:24:59
vom nutzen ner 4870X2, ner 295, ner 590 und 680 Lightning SLI

Ok. ;)


oder ums dir mal anders zu sagen
stell dir dein 670 SLI mit nur einer Karte vor, dann weisst was Titan ist
ist wirklich so...
Ich würde nie sagen, dass eine Karte, die Vergleichbares zu zweien leistet, diesen nicht vorzuziehen wäre. :)
Trotzdem ist Titan bei 1080p eher ein Rückschritt. Teilweise sinds wirklich nur 30% mehr avg-fps als bei ner 680, das würde sich wohl selbst ohne AFR-Vsync/fps-Cap mit zwei 670s besser anfühlen, sofern die Engine mitspielt.

G 80
2013-03-14, 20:30:13
Normalerweise hätte ja Raff recht, und als Doktrin stimmt es wirklich.

Aber NV hat es sich mit den Preisen und dem stark(en) geprügelten 104er Chips selbst zu verdanken.

104 mit ~ 580 Leistung? SLI bringt "nichts"
vernünftige Preise? aka 2xx für 670 (und das ist nichtmal verschleudern wie es das auch schonmal gab) und 500-600 für nen GK 110 mit 3x Vram? Scheiß auf SLI.

So kannst du schon fast 3 670 (ATI ginge das leicht, fast 4, aber CF ....) um den Preis einer Titan auffahren. Mit normalen (oder zumindest ATI) Preisen sowiso, auch dan 4 GB DC2 Versionen. Und wir müssen dann nicht drüber reden was zB in Crysis 3 bei durch die 670 ermittelten max vertretbaren Settings spielbarer ist: 3x 670 bei ~60 FPS oder eine Titan. ;D


Tjo gut gemacht NV, denn die kümmerts wenig was du kaufst (MGPU-NV, MGPU-ATI oder Titan) - es landet entweder eine enorme Menge in ihrem Geldbeutel, sie kriegen gratis Marketing gegen CF und evtl noch Geld bei nem Rückbau auf NV oder es war sowiso jem. der nur FPS/ATI kauft.:uup:

dildo4u
2013-03-14, 20:44:35
Nur bei "perversen" Auflösungen, wenn ich nichts übersehen habe. Aber das ist ja klar. Irgendwann limitiert die Speicherbandbreite und der VRAM bremst auch aus.
2560*1600 denke das ist nich so viel für ein 670 SLI.

Godmode
2013-03-14, 20:48:54
Das ist ja nicht irgendein Hass-Gelaber bei mir – ich gebe mir SLI/Crossfire alle paar Wochen mal. Jedes Mal gibt's positive Momente wegen der hohen Bildraten. Spätestens unter 60 Fps kocht das "Fake Fps"-Gefühl wieder hoch, weil ich die Bildverteilung einer Single-GPU gewohnt bin und es nicht einsehe, die sonst spielbaren 40 Fps zu verdoppeln, weil ich nun zwei statt einer GPU nutze. :ugly: Glaub mir, ich habe genug gesehen. Immer wieder. Es ist keine Option für mich. Natürlich kann man den Umstieg forcieren, sich an die schlechtere Frame-Verteilung gewöhnen und fortan mit höheren Fps bei gleichem Gefühl spielen – und natürlich ständig mit Profilen und Limitiern herumfrickeln. Aber warum sollte man?

MfG,
Raff

AFR hat durchaus seine Probleme, da gäbe ich dir Recht. Ich würde es aber nicht ganz verteufeln. Spielst du öfter in 1620p oder 2160p mit fettem SGSSAA noch dazu? Also ich wüsste nicht mit welcher Karte das spielbar geht. Habe gerade Hitman Absolution fertig gezockt und war schon begeistert was die Titanen Armee leistet. Natürlich wird ein 4-Way Gespann keine so schönen Frametimes ausspucken, wie eine Single Karte, aber es war spielbar und in gewissen Levels wirklich hervorragend sogar. Zb. hatte ich oft mit 3-Way nur 60 FPS aber das Ergebnis und Spielgefühl war für diese Konfig einfach verdammt flüssig.

Wenn ich 100% zufrieden wäre mit der Lösung, würde ich nicht so viele Postings hier und in anderen Threads schreiben und SLI in den höchsten Tönen loben. Ich will hier nichts schön reden, so einer bin ich nicht. Ich bin die Performance- bzw. IQ-Schlampe, wie sie im Buche steht. Man soll einfach die Vor- und Nachteile so einer Lösung anerkennen.

Das ganze bezieht sich bei mir übrigens immer auf Single Player und 120hz. Im MP würde ich einfach die Settings soweit absenken, dass immer die 120 Fps erreicht werden.

MartinRiggs
2013-03-14, 22:59:32
Hört sich schon arg so an als würden die SLI-Nutzer ihre sinnlose Investition verteidigen;D

boxleitnerb
2013-03-14, 23:12:44
Oder wie Nicht-SLI-Nutzer oder solche, die sich nur rudimentär damit beschäftigen, von etwas reden, von dem sie keine oder wenig Ahnung haben :wink:

Knuddelbearli
2013-03-14, 23:17:02
Oder wie Nicht-SLI-Nutzer oder solche, die sich nur rudimentär damit beschäftigen, von etwas reden, von dem sie keine oder wenig Ahnung haben :wink:

Nur doof das eure größter Gegner genau das nicht ist ^^^Sondern sicherlich mehr Ahnung hat als du und Godmode zusammen ^^

Godmode
2013-03-14, 23:19:33
Hört sich schon arg so an als würden die SLI-Nutzer ihre sinnlose Investition verteidigen;D

Verteidigen brauche ich nichts und mache ich normalerweise auch nicht bewusst. Eventuell ist es unterbewusst, aber eigentlich versuche ich immer möglichst sachlich zu bleiben. Mir sind Hersteller/Produkte sowas von scheißegal, ich kaufe das, was die meiste Leistung für mich bringt.

Bei der ganzen Diskussion wäre ein Treffen optimal, damit wirklich alle die selben Bedingungen zum Testen haben. Jeder der hier reinschreibt, hat andere Erfahrungen gemacht, was dann unter dem Sammelbegriff Multi-GPU läuft. Out of the Box wird man mit einer Single GPU immer besser dran sein, aber wenn man exotischere Settings will, kommt man um mGPU gar nicht herum, IMHO.

Meine Erfahrungen waren 570 SLI, 690 4-Way, Titan 4-Way. IMO wurde es mit jeder Generation besser. 570 SLI hatte ich nicht sehr lange, da ich nicht so zufrieden war. 690 4-Way und 690 2-Way waren deutlich einfacher zu handhaben, als die 570er, allerdings hatte ich da oft Treiberprobleme, was sich erst nach ein paar Monaten einstellte. Mit Titan bin ich bis jetzt am meisten zufrieden, auch wenn es Problemspiele gibt, wo 4-Way nicht so toll ist.

Und wenn jetzt jemand ankommt und meint, dass er für den 4-fachen Preis auch die 4-fache Leistung will, dann lebt er in einer Traumwelt, weil sowas gibt es nur ganz selten.

Fazit: Es ist nicht perfekt, hat aber seine Daseinsberechtigung und kann schon viel Spaß machen, wenn man gewillt ist, etwas länger mit Finetuning zu verbringen.

Wenn ich von mGPU schreibe, meine ich SLI. Zu CF kann ich überhaupt nichts sagen, da ich schon länger keine Radeon Karten mehr hatte.

boxleitnerb
2013-03-14, 23:22:42
Nur doof das eure größter Gegner genau das nicht ist ^^^Sondern sicherlich mehr Ahnung hat als du und Godmode zusammen ^^

Von wem redest du, von Raff? Wie willst du das beurteilen, wer wieviel Ahnung hat? Das ist doch nur blödes Geschwätz. Es gibt hier Leute, die ich persönlich kenne und die SLI täglich jahrelang benutzen und jede Feinheit und jeden Kniff kennen. Raff gehört da sicher nicht dazu, soviel ist klar, denn SLI mal alle paar Wochen bissl anschauen ist halt was anderes als langjährige Erfahrung.
Tobi hat sicherlich auch Ahnung, allerdings pauschalisiert er auch recht stark mMn. Persönliche Empfindungen sind halt nicht übertragbar, und man sollte andere Ansichten auch mal akzeptieren statt etwas grundsätzlich für schlecht zu erklären. Zumal es ja sooo schlecht nicht sein konnte, wenn man lange ne 690 hatte wie er ;)

Godmode
2013-03-14, 23:23:27
Nur doof das eure größter Gegner genau das nicht ist ^^^Sondern sicherlich mehr Ahnung hat als du und Godmode zusammen ^^

Wenn meinst du damit, Raff oder Tobi? Deine Formulierung "Gegner" ist aber schon mehr als fragwürdig. :rolleyes:
Ich schätze Raff und Tobi sehr, ka wie man darauf kommt, dass ich die beiden als Gegner sehen könnte. Nur weil man nicht immer der selben Meinung ist?

Tesseract
2013-03-14, 23:49:24
Spätestens unter 60 Fps kocht das "Fake Fps"-Gefühl wieder hoch, weil ich die Bildverteilung einer Single-GPU gewohnt bin und es nicht einsehe, die sonst spielbaren 40 Fps zu verdoppeln, weil ich nun zwei statt einer GPU nutze. :ugly:

immerhin kann man die 60fps viel leichter halten (abgesehen von ein paar wenigen ausnahmen wo es rumzickt). auf 40 fps würde ich auch mit single-gpu nicht spielen wollen, da ist die tatsache, dass <60 auf SLI noch schlimmer sind auch kein wirklicher trost.

TobiWahnKenobi
2013-03-15, 00:45:08
da muss man schon beides ausprobiert haben. idealerweise ohne OSD und frameanzeigen. so wie ich das gemacht habe, als titan kam. schön auf beamer und auf TFT separat ausgetestet. quasi nicht von zahlen verhunzter immersionstest.

und ob man jetzt 30, 40 oder 60 fps per sync festnagelt, macht keinen unterschied im spielgefühl. zumindest wenn die engine es zulässt. hauptsache es läuft flüssig, konstant und tearfrei.

@godmode
danke. ich bin da nicht so anderer meinung; ich weiss SLi auch zu schätzen und ich mag die GTX690. darum habe ich sie behalten. nur werden die szenarien immer kreierter und bin ich auch krasser nicht-fan von 3 oder 4 GPUs in reihe. eben wegen des AFR. toll wenn alle karten das selbe machen. aber toller wäre es, wenn es nicht jede für sich machen würde - aber dazu müssten alle GPUs am selben bild rechnen. dann wäre die latenz weg und man hätte die möglichkeit die kartenspeicher zu addieren. naja.. wunschdenken..

@boxleitnerb
ich verallgemeinere weil ich mit gängigen auflösungen unterwegs bin. FHD + evtl. das, was DS noch hergibt. ab und zu shuttern. ich werde auf absehbare zeit keine höherauflösenden displays oder projektoren mehr anschaffen. ersteres ist zu langsam und letzteres noch utopie und so wie es jetzt ist, ist es stimmig.

erinnert mich dran, dass ich blaire noch die füße küsse für die 2880x1620 pixel mit 120Hz.


(..)

mfg
tobi

Marty98
2013-03-15, 02:10:07
Die Titten scheint doch so ihre "Probleme" vs SLI zu haben oO, also für 280EUR becume ich ne 580 GTX und bin auf Titten-Niveau. :cool:

So ist es wenn man auf die Balkenlänge schaut statt den Text zu lesen. Das machen leider 90% der User und deshalb kann man das Gerücht nicht aus der Welt schaffen dass AMD Karten in Vergleich zu NVidia preiswerter sind (weil längerer Balken / Euro).

phoenix887
2013-03-15, 03:45:34
Die Titten scheint doch so ihre "Probleme" vs SLI zu haben oO, also für 280EUR becume ich ne 580 GTX und bin auf Titten-Niveau. :cool:

Sorry, bei der Formulierung bekomme ich Brechreiz. :upicard:

An die anderen bitte nicht die Köpfe einschlagen:freak:

Mr. Lolman
2013-03-15, 07:03:04
Ich glaube wir haben jetzt alle geschnallt, dass ihr beide kein AFR mögt :freak:

Ab einer gewissen Framerate werden die Unterschiede (für mich!) immer weniger spürbar bis sie schließlich ganz verschwinden. Dazu genieße ich weniger Inputlag bei z.B. 60 AFR-fps als bei 30 SGPU-fps.

Nein, der Inputlag ist in dem Fall gleich.

immerhin kann man die 60fps viel leichter halten (abgesehen von ein paar wenigen ausnahmen wo es rumzickt). auf 40 fps würde ich auch mit single-gpu nicht spielen wollen, da ist die tatsache, dass <60 auf SLI noch schlimmer sind auch kein wirklicher trost.
Dann bist du da aber eine ziemliche Mimose. Mit ordentlich konfigurierten Systemen gehen sogar 30fps (und tw. auch weniger) problemlos. Ein ganzer Haufen Konsolenspiele rennen mit 30fps, div. Strategiespiele rennen mit 20fps noch äusserst zufriedenstellend. Es kommt halt auch immer auf Spiel an.Ein 2D Adventure ist auch mit weniger als 10 fps Ok (sofern die Maus vom 2D Rendering entkoppelt ist)

So ist es wenn man auf die Balkenlänge schaut statt den Text zu lesen. Das machen leider 90% der User und deshalb kann man das Gerücht nicht aus der Welt schaffen dass AMD Karten in Vergleich zu NVidia preiswerter sind (weil längerer Balken / Euro).

Das ist kein Gerücht. Falls du die Frametimes an sprichst: Ein chinesischer Test hat unterschiedliche CPU/GPU/Spielekombis getestet und die Frametimeprobs lassen sich absolut nicht auf eine. spezifischen IHV festlegen. Und wenn ich mir an schau, was eine GTX680 kostet, und wie weit in hohen Auflösungen die 7970 vorn ist, klingt das so als würd ich auf der Rennstrecke eine Limousine einem Sportwagen vorziehen, weil da die Ausstattung besser ist.

boxleitnerb
2013-03-15, 07:24:50
Du darfst gerne die Formel für den Inputlag bei AFR mit n GPUs posten, aber ich merke hier definitiv einen Unterschied.

Mr. Lolman
2013-03-15, 08:25:06
Was für eine Formel? Es wird bei ner GPU immer in einen Buffer gerendert und wenn das Bild fertig ist gibts nen present call. Das ist bei AFR-SLI nicht anders. Und weil die Frames alternierend angezeigt werden, ist das delta t beim Rendering in den Buffer > 0 und deswegen auch der Lag höher.

NVidia erklärt das sogar in ihren Folien und auch in Presse Aussendungen (sinngemäß: Der Lag bei 60 SLI fps ist nicht höher als mit 30 Single fps) und daran kann weder ein Dynamic VSync noch eine Frameratebegrenzung, noch irgendwelche Bits was ändern. Das einzige was der Treiber glätten kann ist die Kadenz (Mikroruckeln), aber selbst das ist gefährlich, weil der Bildinhalt natürlich auch dazu passen muss. Einfach die fertig gerenderten Frames gleichmäßig ausgeben, ists also auch nicht....

boxleitnerb
2013-03-15, 08:28:11
Jemand hatte mal ne Formel für den Inputlag in Abhängigkeit der GPU-Zahl gepostet, ist ne Weile her. Glaub es war Raff? Jedenfalls fühlen sich die 60fps AFR für mich klar besser an als 30fps SGPU. Dann liegts halt nicht am Inputlag.

akuji13
2013-03-15, 09:13:34
Jeder der es sich ansatzweise leisten kann will eine Wakü.

Ich bin von einer WaKü mit MO-RA (nach insgesamt 10 Jahren WaKü) wieder zur Luftkühlung zurück.
Ja, es ist etwas lauter, bzw. Temperaturen höher...aber für mich entspannter.

Das häufige basteln mit den Schläuchen im Rechner hat mich nur noch angenervt, bei jedem Kartenwechsel Flüssigkeit ablassen, entlüften usw., das Problem das ich einen großen Aufwand betreiben muss um die Pumpe leise zu bekommen.

Dazu das Verschandeln der Optik: Radiatoren intern bringen mir nicht genug Leistung und verschlimmern das Platzproblem zusätzlich, außen leidet die Optik massiv...ich habe ja den Lian Li V-2120 wegen seiner Schlichtheit gekauft.
Vom Stabilitäsproblem bei einer Seitenwandmontage mal ganz abgesehen.

Und einen Kühlturm extern irgendwo aufstellen...hatte ich mal, mag ich auch nicht.

Jeder der hier reinschreibt, hat andere Erfahrungen gemacht, was dann unter dem Sammelbegriff Multi-GPU läuft. Out of the Box wird man mit einer Single GPU immer besser dran sein, aber wenn man exotischere Settings will, kommt man um mGPU gar nicht herum, IMHO.

Als Besitzer eines Voodoo-SLI und nach einem ganzen Abend testen beim Nachbarn mit einer 690 (die ich mir anstatt der Titan holen wollte) kann ich nur sagen: SLi/Crossfire sind Meilenweit vom richtigen SLI entfernt.

Wie beim Inputlag von TFTs (musste extra meinen mit zum Nachbarn schleppen, weil sein Asus VG278HE für mich unzumutbar ist) reagiere ich sehr empfindlich auf MR, ich wünschte das wäre anders, dann wäre mein Leben einfacher & günstiger. ;)

@topic

Boooaaah!
Accelero Xtreme III ist drauf, aber es war ein Krampf!
Wenigstens lebt die Karte noch. :D

Es ist einfach nicht optimal wenn die Anleitung das Modell noch nicht enthält und man raten muss, welcher Abstandshalter nun wohin gehört.
Beim ersten Versuch lag der Kühler nicht richtig auf, also wieder alles zerlegen. :freak:
Ist sicher auch ein Nachteil von Kühlern die so viele Modelle abdecken, aber bei den bisher verbauten Petern hatte ich das trotzdem nicht.

Kühlleistung ist super (in manchen Spielen nur 55°), die Lautstärke sowieso, hat sich also gelohnt. =)

Wie haben eigentlich die Testseiten die Temperaturen der Wandler gemessen?
Wärmebildkamera, Laserthermometer oder per Software ausgelesen?

BigKid
2013-03-15, 12:03:43
Ich bin von einer WaKü mit MO-RA (nach insgesamt 10 Jahren WaKü) wieder zur Luftkühlung zurück.
Ja, es ist etwas lauter, bzw. Temperaturen höher...aber für mich entspannter.

@topic

Boooaaah!
Accelero Xtreme III ist drauf, aber es war ein Krampf!
Wenigstens lebt die Karte noch. :D

Es ist einfach nicht optimal wenn die Anleitung das Modell noch nicht enthält und man raten muss, welcher Abstandshalter nun wohin gehört.
Beim ersten Versuch lag der Kühler nicht richtig auf, also wieder alles zerlegen. :freak:
Ist sicher auch ein Nachteil von Kühlern die so viele Modelle abdecken, aber bei den bisher verbauten Petern hatte ich das trotzdem nicht.

Kühlleistung ist super (in manchen Spielen nur 55°), die Lautstärke sowieso, hat sich also gelohnt. =)

Wie haben eigentlich die Testseiten die Temperaturen der Wandler gemessen?
Wärmebildkamera, Laserthermometer oder per Software ausgelesen?
GZ... Hättest auch mich fragen können - ich hab das ja alles schon hinter mir ;)
Mittlerweile sind die zusätzlichen VRAM Kühler da... jetzt gehts nochmal ans Mem-Limit testen ;)

akuji13
2013-03-15, 13:01:12
GZ... Hättest auch mich fragen können - ich hab das ja alles schon hinter mir ;)

Wärst du den um 03.30 Uhr noch ansprechbar gewesen? :biggrin:

BigKid
2013-03-15, 13:12:55
Wärst du den um 03.30 Uhr noch ansprechbar gewesen? :biggrin:
Nääää :freak:

PHuV
2013-03-15, 13:14:37
Es ist doch eine Tatsache, daß man für 3D und hohe Auflösungen ohne SLI/CS gar nicht auskommt. Das die Karten heute auch problemlos 2560x1600 befeuern können, ist bis vor kurzem noch keine Selbstverständlichkeit gewesen. Metro 2033 war zum Zeitpunkt des Erscheinens mit hohen Einstellungen ohne SLI in 3D überhaupt nicht spielbar. Bisher gibt es noch keine Alternative außer SLI/CS, um Leistung überhaupt zu skalieren. Von dem Verstehe ich das Gemotze darüber nicht.

TobiWahnKenobi
2013-03-15, 13:16:33
Ich bin von einer WaKü mit MO-RA (nach insgesamt 10 Jahren WaKü) wieder zur Luftkühlung zurück.
Ja, es ist etwas lauter, bzw. Temperaturen höher...aber für mich entspannter.

Das häufige basteln mit den Schläuchen im Rechner hat mich nur noch angenervt, bei jedem Kartenwechsel Flüssigkeit ablassen, entlüften usw., das Problem das ich einen großen Aufwand betreiben muss um die Pumpe leise zu bekommen.

Dazu das Verschandeln der Optik: Radiatoren intern bringen mir nicht genug Leistung und verschlimmern das Platzproblem zusätzlich, außen leidet die Optik massiv...ich habe ja den Lian Li V-2120 wegen seiner Schlichtheit gekauft.
Vom Stabilitäsproblem bei einer Seitenwandmontage mal ganz abgesehen.

Und einen Kühlturm extern irgendwo aufstellen...hatte ich mal, mag ich auch nicht.



Als Besitzer eines Voodoo-SLI und nach einem ganzen Abend testen beim Nachbarn mit einer 690 (die ich mir anstatt der Titan holen wollte) kann ich nur sagen: SLi/Crossfire sind Meilenweit vom richtigen SLI entfernt.

Wie beim Inputlag von TFTs (musste extra meinen mit zum Nachbarn schleppen, weil sein Asus VG278HE für mich unzumutbar ist) reagiere ich sehr empfindlich auf MR, ich wünschte das wäre anders, dann wäre mein Leben einfacher & günstiger. ;)

@topic

Boooaaah!
Accelero Xtreme III ist drauf, aber es war ein Krampf!
Wenigstens lebt die Karte noch. :D

Es ist einfach nicht optimal wenn die Anleitung das Modell noch nicht enthält und man raten muss, welcher Abstandshalter nun wohin gehört.
Beim ersten Versuch lag der Kühler nicht richtig auf, also wieder alles zerlegen. :freak:
Ist sicher auch ein Nachteil von Kühlern die so viele Modelle abdecken, aber bei den bisher verbauten Petern hatte ich das trotzdem nicht.

Kühlleistung ist super (in manchen Spielen nur 55°), die Lautstärke sowieso, hat sich also gelohnt. =)

Wie haben eigentlich die Testseiten die Temperaturen der Wandler gemessen?
Wärmebildkamera, Laserthermometer oder per Software ausgelesen?

ist ein VG278HE soviel anders als mein VG278HR ?? der ist geschwindigkeitstechnisch zum niederknien; die lagfreieste bildschleuder, die ich bisher hier stehen hatte.



(..)

mfg
tobi

Tesseract
2013-03-15, 13:38:05
Dann bist du da aber eine ziemliche Mimose. Mit ordentlich konfigurierten Systemen gehen sogar 30fps (und tw. auch weniger) problemlos. Ein ganzer Haufen Konsolenspiele rennen mit 30fps, div. Strategiespiele rennen mit 20fps noch äusserst zufriedenstellend. Es kommt halt auch immer auf Spiel an.Ein 2D Adventure ist auch mit weniger als 10 fps Ok (sofern die Maus vom 2D Rendering entkoppelt ist)

deswegen spiele ich auch keine konsolenspiele abgesehen von ein paar wenigen exklusivtitel. mir ist es dafür rätselhaft wie leute mit downsampling, supersampling, maximalen ingame settings usw. spielen wenn sie dann fps unter der refreshrate haben. das ist für mich dann einfach kein gewinn.
aber das sieht wohl jeder anders.

TobiWahnKenobi
2013-03-15, 13:43:52
deswegen spiele ich auch keine konsolenspiele abgesehen von ein paar wenigen exklusivtitel. mir ist es dafür rätselhaft wie leute mit downsampling, supersampling, maximalen ingame settings usw. spielen wenn sie dann fps unter der refreshrate haben. das ist für mich dann einfach kein gewinn.
aber das sieht wohl jeder anders.

ich könnte mir vorstellen, dass mancheiner erkannt hat, dass ein 120Hz bildschirm auch jede andere BWF bis runter auf 23Hz beherrscht und das selbige fast beliebig anpassbar ist.

dazu dann die optionalen möglichkeiten, die der treiber zur synchronisation bereitstellt und schon passt auch die darstellung, wo man vllt. vorher noch von tearing geplagt wurde.

http://www.abload.de/img/unbenanntr8sbo.png

dazu braucht man natürlich einen rechenschieber und ein paar minuten zeit. aber es sollte möglich sein, einen synchronisationsfähigen refresh passend zur rechnerperformance zu finden.

120:2 = 60
120:3 = 40
120:4 = 30
..
..
..
..
110:2 = 55
110:3 = 37
110:4 = 28
..
..
..
..
100:2 = 50
100:3 = 33
100:4 = 25
..
..
..
..
60:2 = 30
60:3 = 20
60:4 = 15
..
..
..
..
23:2 = 12
23:3 = 7
23:4 = 6


(..)

mfg
tobi

Tesseract
2013-03-15, 13:49:22
stimmt, leider gibt es mit 120Hz keine ordentlichen panel was auflösung und bildqualität getrifft. farbraumkrüppel mit prähistorischen pixeldichten sind leider auch nicht das gelbe vom ei.

wo bleiben ordentliche monitore? :(

TobiWahnKenobi
2013-03-15, 13:55:41
stimmt, leider gibt es mit 120Hz keine ordentlichen panel was auflösung und bildqualität getrifft. farbraumkrüppel mit prähistorischen pixeldichten sind leider auch nicht das gelbe vom ei.

wo bleiben ordentliche monitore? :(

die durchschnittsgrafikkarte 2013 kann drei bis vier bildschirme ansteuern. wenn es jetzt drauf ankommt, dass ich broadcastfähiges videomaterial bearbeiten muss, was mich finanziell bei fehl-chroma-luma-farbwerten ruiniert, weil die sendeanstalt 800€ fürs zurechtbiegen der pegel berechnet, obwohl für den beitrag eigentlich 1000€ pauschal vereinbart waren, stelle ich mir ein zweites display für ernsthafte arbeit daneben.

obwohl ich eh strikt dafür bin, spielspaß und existenzielle technik zu trennen.

^das mal aus sicht des mediengestalters

aus sicht des hobby-photoshoppers für facebook oder webseiten -bildchen -> es ist kackegal, ob das panel TN mit 97% RGB-abdeckung oder IPS mit 99% ist. photoshops autofarbkorrektur wirkt hier und da wunder. man weiss eh nicht, mit was für gurkengeräten oder VERgurkten einstellungen die bilder auf der anderen seite des internets aufgerufen werden. es gibt ja genug leute, die selbst auf samsung-fernsehern bilder anschauen.. die so in der mediamarkt-einstellung verstellt sind, dass die farben unten eigentlich rauslaufen müssten.

was spiele angeht, kann ich mit 60Hz geräten nicht mehr glücklich werden. da fühle ich mich beschnitten, da ich jetzt doch schon zu lange mit stereoskopie und diesem 120Hz-gerät unterwegs bin. ich habe mich sogar neulich dabei ertappt, dass ich meinen projektor auf 720p zurückgestellt habe, um mit 120Hz zocken zu können. war nichtmal hässlich..


(..)

mfg
tobi

aufkrawall
2013-03-15, 13:58:22
TN ist immer absoluter Murks und zwar für alles. ;)

Iruwen
2013-03-15, 14:23:22
Das häufige basteln mit den Schläuchen im Rechner hat mich nur noch angenervt, bei jedem Kartenwechsel Flüssigkeit ablassen, entlüften usw.

Mit einigen geschickt platzierten Schnellverschlüssen kein Thema. Der Rest ist natürlich Geschmackssache, mein Aquaduct steht zum einen an der Wand und sieht zum anderen auch noch gut aus, findet sogar meine Freundin.

akuji13
2013-03-15, 14:30:28
ist ein VG278HE soviel anders als mein VG278HR ?? der ist geschwindigkeitstechnisch zum niederknien; die lagfreieste bildschleuder, die ich bisher hier stehen hattei

Ich hab ne Menge TFTs im Jahr vor mir stehen, aber der war bislang nicht dabei.

http://www.tftcentral.co.uk/reviews/content/asus_vg278he.htm#lag

Interessant ist, das der VG278HE bei mir durchfällt, der ASUS PB278Q z. B. den ich auch noch habe aber problemlos ist.

Warum wieso weshalb kann ich nicht erklären. :freak:


wo bleiben ordentliche monitore? :(

Es gibt generell keine ordentlichen Monitore mehr.
Egal welches Panel, egal welcher Preis.

Wenn ich sehe, wie meine (/die) aktuellen Geräte gegen meinen alten NEC 20WGX² in Sachen "IPS Glitzern" (Stichwort A-TW-Polarisator ;)) abstinken, kann ich mir seitens der "Jubelbewertungen" von Prad & Co. immer nur an die Birne schlagen.

Mehr als ein durchschnittliches Bild hat aktuell kein TFT und so würden auch meine Bewertungen ausfallen.

"Brauchbar" müsste das Fazit sein.

Tesseract
2013-03-15, 14:35:25
obwohl ich eh strikt dafür bin, spielspaß und existenzielle technik zu trennen.
ich rede überhaupt nicht vom professionellen einsatz sondern von spielen. korrekte farben machen subjektiv einfach viel aus und hohe pixeldichte genauso. das fängt bei der graustufenunterscheidbarkeit (dunkle levels, banding) an und hört bei der korrekten darstellung von grüntönen bei vegetation nicht auf, vorausgesetzt der content vom spiel passt. das ist natürlich nicht der einzige relevante faktor, aber es ist ein faktor.

"IPS Glitzern" (Stichwort A-TW-Polarisator ;))

du verwechselst da was. polarisatoren helfen höchstens gegen den glow, das glitzern kommt von der antireflexionsschicht und die ist unabhängig vom panel. semi-glossy IPS glitzern eigentlich nicht sichtbar.

TobiWahnKenobi
2013-03-15, 14:45:07
ich rede überhaupt nicht vom professionellen einsatz sondern von spielen. korrekte farben machen subjektiv einfach viel aus und hohe pixeldichte genauso. das fängt bei der graustufenunterscheidbarkeit (dunkle levels, banding) an und hört bei der korrekten darstellung von grüntönen bei vegetation nicht auf, vorausgesetzt der content vom spiel passt. das ist natürlich nicht der einzige relevante faktor, aber es ist ein faktor.



wahrscheinlich wie bei mir stereoskopie ein "faktor" ist. einer, der technisch auf 720p (beamer) oder 1080p (TFT + fernseher) beschränkt wird. mir ist was die farben angeht eigentlich am wichtigsten, dass alle geräte vergleichbare farbdarstellung wiedergeben. ein grund warum ich das acer MVA, in das ich mich der darstellung wegen verliebt hatte, abbaute (bildschirm rechts, erstes bild).

wenn ich am schreibtisch spiele schalte ich bestenfalls mal die presets des bildschirms durch; gibt ja etliche..

http://www.abload.de/thumb/img_0440bkkwj.jpg (http://www.abload.de/image.php?img=img_0440bkkwj.jpg)http://www.abload.de/thumb/392390_34845755855934f4osw.jpg (http://www.abload.de/image.php?img=392390_34845755855934f4osw.jpg) http://www.abload.de/thumb/392534_34848008855709d2rvq.jpg (http://www.abload.de/image.php?img=392534_34848008855709d2rvq.jpg)


(..)

mfg
tobi

akuji13
2013-03-15, 15:01:49
du verwechselst da was. polarisatoren helfen höchstens gegen den glow, das glitzern kommt von der antireflexionsschicht und die ist unabhängig vom panel. semi-glossy IPS glitzern eigentlich nicht sichtbar.

Ups! :eek:

Mit einigen geschickt platzierten Schnellverschlüssen kein Thema. Der Rest ist natürlich Geschmackssache, mein Aquaduct steht zum einen an der Wand und sieht zum anderen auch noch gut aus, findet sogar meine Freundin.

Leckagefreie Schnellverbinder bei denen keine Luft ins System kommt?
Seit wann gibts denn sowas?

Iruwen
2013-03-15, 15:54:04
Meine normalen Koolance Verschlüsse sind so dicht dass die paar Bläschen die bei der Montage der Verbinder zwischen den Dichtungen eingeschlossen werden nach ein paar Minuten im Entlüftungsmodus schon wieder aus dem Kreislauf sind. Bei der Demontage des Kühlers entleer ich den gar nicht erst, und wenn doch kann ich ihn wieder "vorfluten", ich hab Schnellverschlüsse direkt an den Kühlern. So kann ich die auch einfach kurz extern in den Kreislauf hängen und "durchblasen".

Iruwen
2013-03-15, 16:00:48
/e: Doppelpost.

BigKid
2013-03-17, 10:23:15
Also nachdem ich jetzt alle Register gezogen habe kann ich die Karte auf einen stabilen(=permanenten) Boost von 1150 bringen. Mehr geht in einzelnen Szenarien aber nicht durchgängig stabil (z.B. Mal einen Unigine Valley durchlauf mit 1250). Temps sind mit dem Accelero kein Thema.
Dabei scheint es mir also würde Mem-OC dann auch schnell zum Problem.
Bei 1150 GPU fahre ich (scheinbar) stabil mit +550Mem(Precision X)
Bei 1200 muss ich schon froh sein wenn er mir mit +0 ne Runde im Valley schafft... Bei 550 kachelt er schon in den ersten Sekunden ab.
Gibt es Anzeichen dafür das jemand schon ohne Zombie die Spannung über 1.2 bzw. diese erlaubten 38mV anzuheben?

Orbmu2k
2013-03-17, 10:27:46
Gibt es Anzeichen dafür das jemand schon ohne Zombie die Spannung über 1.2 bzw. diese erlaubten 38mV anzuheben?

1.21V aber nur unter 60°C

http://img.techpowerup.org/130314/nvidia_20130314_220746.png

wolik
2013-03-17, 11:23:09
Hallo alle Zusammen.

Ich habe jetzt board (RIVE Formula mit 3930K) und wie ich schon vermutete für SLI PCIe 3.0 ein MUSS! Es geht natürlich um timeframes.
Meine Fragen kennt jemand ein Programm mit welche man kann Geschwindigkeit PCIe testen? (Gefunden habe ich nur für ATI karten.)
Bei (ASUS) gibt's punkt CPU Tweaker's Paradise/PCIE CLK SKEW hat jemand damit schon Erfahrung? (Ob man noch zusätzlich PCIE "übertakten" kann)

Slipknot79
2013-03-17, 11:27:03
Ich habe den ekelhaften Verdacht, dass dieser hinkende Vergleich niemals aufhören wird. SLI und Crossfire stinken gefühlt einfach nicht gegen eine dicke Single-GPU an, solange AFR das genutzte Verfahren ist. Täglich gibt's hier Threads von Leuten, die Probleme haben oder durch einen Selbstversuch von der Idee geheilt wurden.

MfG,
Raff
+1

1x 40 ist nicht automatisch das selbe wie 2x 20. zumindest wenn man es mit fps und afr im gleichen kontext sieht.


(..)

mfg
tobi


Man spielt auch nicht bei 20 oder 40fps ;)

Skysnake
2013-03-17, 11:40:33
Hallo alle Zusammen.

Ich habe jetzt board (RIVE Formula mit 3930K) und wie ich schon vermutete für SLI PCIe 3.0 ein MUSS! Es geht natürlich um timeframes.
Meine Fragen kennt jemand ein Programm mit welche man kann Geschwindigkeit PCIe testen? (Gefunden habe ich nur für ATI karten.)
Bei (ASUS) gibt's punkt CPU Tweaker's Paradise/PCIE CLK SKEW hat jemand damit schon Erfahrung? (Ob man noch zusätzlich PCIE "übertakten" kann)
Ja, man kann den PCI-E übertakten, man sollte aber tunlichst davon die Finger lassen. Es bringt im Allgemeinen nichts/wenig, und ist nicht ganz ohne. Du musst bedenken, dass aus den 100 MHz die 2,5 (2.x) bzw 4,0 GHz (3.0) an Taktrate generiert werden. Also ein Übersetzungsverhältnis von 1:25 bzw 1:40.

1 MHz Taktsteigerung bewirt also real bereits 25 bzw 40 MHz Taktsteigerung. Deswegen ist meist schon bei 105 MHz oder so Schluss.

Wenn man OC-betreibt, fixt man normal den PCI-E Bus auf 100 MHz, nicht das irgendne BIOS/UEFI Einstellung an dem rumpfuscht...

PCI-E Bandwidthtests gibt es im CUDA-SDK.

Oder einfach hier runter laden:
http://extreme.pcgameshardware.de/programmierung-und-webdesign/209639-opengl-bmp-viewer-inkl-opencl-morpher-5.html#post5053164

Wäre nett, wenn du die Ergebnisse posten würdest. Wäre interessant, ob du mehr als die 10,x GB/s mit PCI-E 3.0 schaffst.

wolik
2013-03-17, 14:31:18
Himmelsschlange ich danke dir. Umsteig von 2.0 auf 3.0 spürt (mit SLI)man deutlich. Ob was PCIe 3.0+ was bringt? Dazu bei mir BCLK und Strap auf 166 (4.5GHz). Wir werden sehen...

Raff
2013-03-17, 14:47:01
Man spielt auch nicht bei 20 oder 40fps ;)

Ich spiele sehr oft mit 40 Fps. Ohne Vsync, mit Double Buffering. Dem direkten Input zuliebe. Natürlich wären höhere Bildraten schöner, aber dann flimmert ja wieder etwas. :freak:

1.21V aber nur unter 60°C

http://img.techpowerup.org/130314/nvidia_20130314_220746.png

TDP Target 150 Prozent? Dafuq! Das kommt vom Mod-BIOS, oder? Damit wird das Ding beim OC ja richtig benutzbar. :D

MfG,
Raff

boxleitnerb
2013-03-17, 14:59:41
Ohne VSync gibts Tearing aus der Hölle, das find ich genauso schlimm wie Flimmern.

phoenix887
2013-03-17, 19:05:29
Ich spiele sehr oft mit 40 Fps. Ohne Vsync, mit Double Buffering. Dem direkten Input zuliebe. Natürlich wären höhere Bildraten schöner, aber dann flimmert ja wieder etwas. :freak:



TDP Target 150 Prozent? Dafuq! Das kommt vom Mod-BIOS, oder? Damit wird das Ding beim OC ja richtig benutzbar. :D

MfG,
Raff

Nur leider kommt man an das BIOS sehr schlecht dran:freak:

BigKid
2013-03-17, 19:15:00
Nur leider kommt man an das BIOS sehr schlecht dran:freak:

ganz ehrlich - dass es bei einer so teuren Karte nich einfach drauf ist und das ware Potential nicht zur verfügung steht - das ärgert mich

G 80
2013-03-17, 19:16:00
Ohne VSync gibts Tearing aus der Hölle, das find ich genauso schlimm wie Flimmern.


Na komm schon, Box, das kommt doch aufs Spiel an. Bei einigen, an die ich denken muss, unterschreibe ich dir das sofort, aber gibt auch genug andere ...

Dann gibts noch Games wie Diablo, wo ich seit Release seit fast jedem Patch (tw auch mini hotfix Patches) am VSync herumspiele. Seit dem letzten kann ich das Ingame Sync nicht ertragen und spiele mit ausm Treiber forcierten. :freak: Ne frag nicht, ich versteh das Spiel selber nicht. :ucrazy2:

Godmode
2013-03-17, 19:28:44
Na komm schon, Box, das kommt doch aufs Spiel an. Bei einigen, an die ich denken muss, unterschreibe ich dir das sofort, aber gibt auch genug andere ...

Dann gibts noch Games wie Diablo, wo ich seit Release seit fast jedem Patch (tw auch mini hotfix Patches) am VSync herumspiele. Seit dem letzten kann ich das Ingame Sync nicht ertragen und spiele mit ausm Treiber forcierten. :freak: Ne frag nicht, ich versteh das Spiel selber nicht. :ucrazy2:

In Diablo ist das VSync seit Anfang an verkorkst. Nehme auch schon lange das über den Treiber.

phoenix887
2013-03-17, 19:33:27
ganz ehrlich - dass es bei einer so teuren Karte nich einfach drauf ist und das ware Potential nicht zur verfügung steht - das ärgert mich


Wurmt mich ja auch das ich sie nicht voll ausfahren kann. Behalte sie zwar, aber trotzdem ist es ein Markel der mich leicht nervt.

raumfahrer
2013-03-17, 21:05:22
Ab sofort auch für Grafikkarten: DLC.

Für nur 100 Euro gibt es das offizielle MOD-Bios mit 200% PT, bis zu 2V Spannung und einem 7 Tage Booster im F2P-Spiel Ihrer Wahl. Kontaktieren Sie den NVIDIA -The Way It's Meant to be Played.- Händler Ihres Vertrauens.

Man verzeihe den Troll.

TobiWahnKenobi
2013-03-17, 21:10:25
du hast die erweiterte garantie vergessen, die greift wenn der spannungsappart der karte hochgeht.


(..)

mfg
tobi

BigKid
2013-03-17, 23:21:48
Ab sofort auch für Grafikkarten: DLC.

Für nur 100 Euro gibt es das offizielle MOD-Bios mit 200% PT, bis zu 2V Spannung und einem 7 Tage Booster im F2P-Spiel Ihrer Wahl. Kontaktieren Sie den NVIDIA -The Way It's Meant to be Played.- Händler Ihres Vertrauens.

Man verzeihe den Troll.
the way its meant to be payed... :)

thedudeabides
2013-03-19, 18:58:07
Hey, natürlich sind die Preise für die Titan total überteuert!!!! Und ohne Quadro-Treiber wirds im Profibereich natl. schwerer. -Aber, trotz allem ist es ein sehr gutes Produkt. -V.a was die Energieeffizienz angeht. -Dazu noch die "geringe" Lautstärke bei einem Produkt dieser Leistungsklasse (Im Referenzdesign!)
Das Teil ist eben für absolute Enthusiasten gedacht und wird auch schnell ausverkauft sein.
-OK, das hab ich fast alles schon mal geschrieben.

Was ich eigentlich noch anführen wollte ist, dass die Preise bei hoher Nachfrage sehr wahrschl. "schnell" (wie bei High-End-Produkten halt) sinken werden. Außerdem bringt die Graka eben auch ne sehr hohe Zukunftssicherheit. (Soweit es sowas bei PC-Komponenten überhaupt gibt;o)) -Ich meine z.B., dass es z.Zt. kaum eine CPU gibt, die die volle Power der GPU entfalten kann.
Na ja, was solls. Die Titan ist auf jeden Fall ein sehr beeindruckendes Stück Technik. -Wenn ich genug Geld hätte, würde ich mir sofort eine holen. -Obwohl ich eigtl. eher auf maximale P/L Wert lege -Wobei mir der GPU-Hersteller meist egal ist .(Mein aktueller Favorit ist die 660Ti -NV bietet seit einiger Zt. einfach bessere Treiber bzw. Einstellungsmöglichkeiten) -Bei ATI würde ich z.Zt. die 7870 Boost (Tahiti LE) nehmen.

Sorry fürs abschweifen. Auch der Name Titan ist etwas übertreiben, um es mal Nett zu schreiben. -Ich hätte mir da von NV um einiges mehr Ideenreichtum gewünscht.

Na ja, die Karte ist meiner Meinung nach z.Zt. auf jeden Fall das Beste Stück Technik in diesem Bereich!

VG

TDa

P.s. Ich denke, dass für Leute die die DP-Leistung brauchen der Preis für die Titan eigtl. recht "günstig" ist!

Skysnake
2013-03-19, 19:21:58
Nein, die AMD S10000 ist billiger, hat mehr DP-Leistung und auch noch mehr Speicherdurchsatz, was oft auch nicht vernachlässigt werden sollte.

Man muss sich eher entscheiden, ob man CUDA will/braucht, oder ob man OpenCL nimmt. Mit CUDA bindet man sich halt auf Gedeih und Verderben an einen Hersteller. Ob man das will, muss man sich selbst fragen.

gnahr
2013-03-19, 19:31:09
das opencl-hickhack zu unterstützen gibts gratis, genau.
der name passt in jedem fall. ein titan.

thedudeabides
2013-03-19, 20:19:48
das opencl-hickhack zu unterstützen gibts gratis, genau.
der name passt in jedem fall. ein titan.

Das meinte ich u.a.. In diesem Fall passt der Name auf jeden Fall

VG

TDa

phoenix887
2013-03-19, 23:08:09
Bin jetzt etwas verunsichert. Habe in einem anderen Forum gelesen, das man den Speicher der Titan nicht übertakten soll, da der Speicher auf der Rückseite der Karte nicht aktiv gekühlt wird mit dem Stocklüfter. Ist da was dran? wenn ja, was wäre mit dem Stocklüfter maximal Gesund?

So wie ich gelesen habe, skaliert der GPU-Kern nur verhalten mit dem Takt, laut PCGH, ansonsten würde man Leistung verlieren. Von daher würde in den Speicher schon gerne übertakten.

TurricanM3
2013-03-19, 23:30:25
Was habt ihr denn immer für Bedenken wegen der rückseitigen RAM Chips? Es gab doch schon einige Karten mit so einer Bestückung und überlebt haben sie alle mein OC.

Wie viel heißer werden die RAMs überhaupt mit dem Mehrtakt? Das macht doch kaum was aus weil die Voltage stock bleibt.

phoenix887
2013-03-19, 23:58:59
Was habt ihr denn immer für Bedenken wegen der rückseitigen RAM Chips? Es gab doch schon einige Karten mit so einer Bestückung und überlebt haben sie alle mein OC.

Wie viel heißer werden die RAMs überhaupt mit dem Mehrtakt? Das macht doch kaum was aus weil die Voltage stock bleibt.


Naja das ist der Punkt ja, der mich interessiert.

boxleitnerb
2013-03-20, 00:04:31
Die Dinger werden bei knapp 3500 MHz nicht heißer wie 55 Grad hier. Total unkritisch also.

Godmode
2013-03-20, 00:08:24
Die Dinger werden bei knapp 3500 MHz nicht heißer wie 55 Grad hier. Total unkritisch also.

Verstehe ich auch nicht warum sich da immer alle anscheißen. Normaler Ram wird ja auch gerade mal etwas wärmer und Overvolting passiert Out oft the box eh nicht.

HisN
2013-03-20, 00:08:51
Du hast Wasser? Wenn die Vorderseite mit 85° glüht, dann sollte über das Pcb ja einiges auch bei den Rams ankommen.

Nightspider
2013-03-20, 00:17:41
Normaler Ram wird ja auch gerade mal etwas wärmer und Overvolting passiert Out oft the box eh nicht.

Normaler RAM sitzt aber auch nicht auf einer Platine mit mehreren Bauteilen, die teilweise bis zu 80-90°C heiß werden. ;)

Tesseract
2013-03-20, 00:17:45
Du hast Wasser? Wenn die Vorderseite mit 85° glüht, dann sollte über das Pcb ja einiges auch bei den Rams ankommen.

das sollte neben zu heißer umgebungsluft eigentlich der einige grund sein warum ram zu heiß wird. speicher heizt sich kaum auf, auch durch OC nicht besonders. die werden höchstens dann zu heiß wenn ihre umgebung schon grenzwertig heiß ist und die eigenwärmeentwicklung dann das faß zum überlaufen bringt. in so einem fall sollte man aber die ursache und nicht das symptom bekämpfen, d.h. die GPU besser kühlen und das gehäuse besser durchlüften oder der karte mehr platz lassen.

Godmode
2013-03-20, 00:18:45
Du hast Wasser? Wenn die Vorderseite mit 85° glüht, dann sollte über das Pcb ja einiges auch bei den Rams ankommen.

Noch nicht, aber bald. Wenn es so wichtig wäre das die gekühlt werden, wäre ein Kühler drauf.

das sollte neben zu heißer umgebungsluft eigentlich der einige grund sein warum ram zu heiß wird. speicher heizt sich kaum auf, auch durch OC nicht besonders. die werden höchstens dann zu heiß wenn ihre umgebung schon grenzwertig heiß ist und die eigenwärmeentwicklung dann das faß zum überlaufen bringt. in so einem fall sollte man aber die ursache und nicht das symptom bekämpfen, d.h. die GPU besser kühlen und das gehäuse besser durchlüften oder der karte mehr platz lassen.

So sollte man es halt nicht unbedingt machen :redface::

http://www.abload.de/thumb/photomar0732248pmzwj9y.jpg (http://www.abload.de/image.php?img=photomar0732248pmzwj9y.jpg)

boxleitnerb
2013-03-20, 00:20:19
Du hast Wasser? Wenn die Vorderseite mit 85° glüht, dann sollte über das Pcb ja einiges auch bei den Rams ankommen.

Ja, dann zählst halt 20 Grad drauf, immer noch unkritisch mMn ;)

Nightspider
2013-03-20, 00:21:31
Noch nicht, aber bald. Wenn es so wichtig wäre das die gekühlt werden, wäre ein Kühler drauf.



Vielleicht gibt es schon Backplates für die Titanen.
Wenn du auf Wasser umrüstest wäre es vielleicht sinnvoll die Rückseite auch gleich abzudecken.

Optional hast du ja dank der Wasserkühler dann mehr Freiraum zwischen den Karten und könntest jede Grafikkarte von der Rückseite mit einem flachen Silent-Lüfter kühlen.
Dann dürften die VRAM Chips nochmals einige Grad kühler bleiben.

phoenix887
2013-03-20, 01:03:57
Da habe ich ja ein Thema angestoßen;)

Ok, dann OC ich einfach den VRAM, meine Karte hat genug Platz zu atmen und das Gehäuse wird gut durchlüftet. Von daher. Wollte einfach nochmal andere Meinungen hören, bin eigentlich nicht so sensibel, aber bei dem Preis der Karte wollte ich einfach sicher gehen :)

Iruwen
2013-03-20, 08:41:22
Caseking bietet jetzt nebenbei auch alle(?) Wakü-Varianten vormontiert an:
http://www.caseking.de/shop/catalog/Grafikkarten/King-Mod-Wasserkuehlung:::10452_10773.html?filter=price:374,1140&sort=price_desc

Knuddelbearli
2013-03-20, 09:02:42
aufpreis ist aber halt ordentlich 100€ + wie wenn man es getrennt kauft

Iruwen
2013-03-20, 09:58:08
Arbeit und Gewährleistung gibts halt nicht geschenkt.

Knuddelbearli
2013-03-20, 10:01:03
Naja wozu gibt es EVGA und Asus

Iruwen
2013-03-20, 10:38:50
Mal geschaut was EVGA auf seine Hydro Coppers draufschlägt?

SentinelBorg
2013-03-20, 14:30:21
Was meint ihr, wird es vielleicht noch eine "Spar-Version" der Titan mit nur 3 GiB Speicher geben? Und wenn ja, um wieviel würde die günstiger ausfallen?

Ich überlege mir meinen 22" TFT gegen einen 1440p 27" auszutauschen. Dafür brächte eine Titan die notwendige Mehrleistung gegenüber meiner GTX670. Aber ich sehe bei einem Großteil der heutigen (und auch unmittelbaren morgigen) Spiele nicht wirklich den Nutzen von soviel Speicher.

Knuddelbearli
2013-03-20, 14:31:14
ja trotzdem sind nur Arbeit keine 100+ €uro

an der Gewährleistung ändert sich ja nix

gerade bei kleinen Karten wo das dann mal eben 30% Aufpreis sind ist das ihmo einfach zuviel ...

Knuddelbearli
2013-03-20, 14:31:35
Was meint ihr, wird es vielleicht noch eine "Spar-Version" der Titan mit nur 3 GiB Speicher geben? Und wenn ja, um wieviel würde die günstiger ausfallen?

Ich überlege mir meinen 22" TFT gegen einen 1440p 27" auszutauschen. Dafür brächte eine Titan die notwendige Mehrleistung gegenüber meiner GTX670. Aber ich sehe bei einem Großteil der heutigen (und auch unmittelbaren morgigen) Spiele nicht wirklich den Nutzen von soviel Speicher.

wenn dann mit 2,5GB

Raff
2013-03-20, 14:37:59
wenn dann mit 2,5GB

Er meint wohl eine 384-Bit-Titan mit 3 GiB als Cost-Down-Version der bekannten Karte. Wird's IMO nicht geben. Die "Titan LE" mit weniger Einheiten und Bits könnte ich mir vorstellen.

MfG,
Raff

Skysnake
2013-03-20, 14:50:21
Halt wie die K20 und K20x. Etwas anderes erwarte ich nicht. Ich glaube nicht, das nVidia da die Kosten für ein weiteres Binning tragen wird.

Iruwen
2013-03-20, 16:56:10
ja trotzdem sind nur Arbeit keine 100+ €uro

an der Gewährleistung ändert sich ja nix

gerade bei kleinen Karten wo das dann mal eben 30% Aufpreis sind ist das ihmo einfach zuviel ...

Bei 'ner 670 sinds deshalb auch nur 56€ bzw knapp 13% mehr...

akuji13
2013-03-21, 08:59:30
ja trotzdem sind nur Arbeit keine 100+ €uro

+ die Gefahr, das ein Umbau mal schiefgeht und dadurch mehrere Umbauten als Verdienst verloren gehen würden. ;)

@topic

Wo bleibt denn der groß angekündigte Preisverfall?
Meine Zotac kostet lieferbar immer noch 949€. :D

derguru
2013-03-21, 09:01:28
da kannst du noch lange warten,wer hat das angekündigt?

Raff
2013-03-21, 09:01:29
Da wurde nullkommanix angekündigt.

MfG,
Raff

Skysnake
2013-03-21, 09:10:53
https://developer.nvidia.com/ultimate-cuda-development-gpu
https://developer.nvidia.com/gpudirect

Kennst du schon google.com?
Schauen wir mal hier:

wenn auch nur eingeschränkt. Beispielsweise wird Nvidia auch zukünftig keinen GPU-Direct-Treiber für die GeForce GTX Titan anbieten, wie Sumit Gupta gegenüber c't erklärte.

http://www.heise.de/newsticker/meldung/GTC-2013-Stacked-DRAM-bringt-riesige-Speichermengen-fuer-GPUs-1826882.html

Ich wusste es doch, dass die GPU-Direct nicht unterstützen werden mit der GTX Titan. Tja, damit hat nVidia 16 Karten weniger verkauft. :down:

Deine Links waren aber absolut richtig Coda, und ich komme mir mal so RICHTIG verarscht vor von nVidia, und zwar mal WIEDER! DX11.1 und jetzt das mit GPU-Direct... Halten die einen eigentlich für DUMM?:mad:

Iruwen
2013-03-21, 12:32:27
Face Works on Titan (https://www.youtube.com/watch?v=5d1ZOYU4gpo)

akuji13
2013-03-21, 16:59:14
da kannst du noch lange warten,wer hat das angekündigt?

Da wurde nullkommanix angekündigt.

Das war das, was ich Forenübergreifend so rausgelesen hatte. ;)

Mir sowieso Wurst, ich hab meine.


Ich wusste es doch, dass die GPU-Direct nicht unterstützen werden mit der GTX Titan. Tja, damit hat nVidia 16 Karten weniger verkauft. :down:

Scheinbar brauchen sie nicht jeden Kunden.

wolik
2013-03-23, 07:57:44
An Jungs mit 4SLI. Manchmal wegen Last Verteilung, Triple Lösung war besser als Quad. (Godmodo) Wie sieht jetzt aus? Timeframes mit Quad? Welche Taktung hat TITAN, (bei 680 war glaube ich 27Mhz)?

TobiWahnKenobi
2013-03-26, 10:22:18
oh wie erfreulich - mit 314.22 laufen beide karten (690 und titan) im selben rechner zusammen.. chick.. :-)

http://www.abload.de/img/unbenanntylceb.jpg

aber ich denke, ich haue titan wieder raus. die SLi-karte leistet overall mehr und als physX-beschleuniger ist titan oversized.

in BF3 nehmen sich beide nicht viel. bioshock und TR performen mit der MGPU-karte besser. besonders mit 3DVision.

2013-03-25 23:03:49 - bf3 (karkand, 1080p, ultra, 4xMSAA+FXAA, GTX690)
Frames: 16591 - Time: 138950ms - Avg: 119.403 - Min: 64 - Max: 201

2013-03-26 09:53:09 - bf3 (karkand, 1080p, ultra, 4xMSAA+FXAA, Titan)
Frames: 11747 - Time: 124301ms - Avg: 94.504 - Min: 58 - Max: 149

mit der hertz-übertaktung schafft titan 85Hz an meinem
3DVision schirm über HDMI.. toll!!!

http://www.abload.de/img/unbenannt236e04.png

titan werde ich steffi in ihren skyrim-rechner stecken - darin ist er übrigens unglaublich leise,
was mir die letzten abende mal aufgefallen ist, weil die CPU-wakü in dem ollen AMD unhörbar ist.
mein hauptrechner hat ein höheres grundrauschen.


(..)

mfg
tobi

Godmode
2013-04-02, 22:01:02
Kann von euch jemand SLI-AA mit Titan auswählen? Bei mir taucht kein SLI-AA im CP auf, bzw. Ingame werden die GPUs nicht belastet. Ist das ein Titan Bug?

Ich habe SLI ausgeschaltet und Antialiasing SLI-AA im Inspector eingeschaltet, aber es passiert einfach nichts.

aufkrawall
2013-04-02, 22:06:23
Hast du SLI global ausgeschaltet (wo der Screen kurz schwarz wird)?
Kannst es an lassen bzw. dort musst du es afair. Du musst einfach nur im Inspector SLI-AA auf enabled setzen, dann sollten die Samples mit der Anzahl der GPUs multipliziert werden (mit schlechterer Verteilung). Ansonsten brauchst du nichts was AFR angeht bei den Profilen um- oder abzuschalten.
Geht übrigens nicht mit OGSSAA & dessen Hybride, dann gibts ein Fallback auf AFR.

Godmode
2013-04-02, 22:07:27
Hast du SLI global ausgeschaltet (wo der Screen kurz schwarz wird)?
Kannst es an lassen bzw. dort musst du es afair. Du musst einfach nur im Inspector SLI-AA auf enabled setzen, dann sollten die Samples mit der Anzahl der GPUs multipliziert werden (mit schlechterer Verteilung). Ansonsten brauchst du nichts was AFR angeht bei den Profilen um- oder abzuschalten.
Geht übrigens nicht mit OGSSAA & dessen Hybride, dann gibts ein Fallback auf AFR.

Ja ich habs ausgeschaltet, das war dann wohl der Fehler. Werde ich gleich testen.

edit: Ja das wars, besten Dank!

edit2: Es geht nur wenn ich nur 3 GPUs nehme, sobald ich 4-Way aktiviere, ist das Setting wieder verschwunden :(

aufkrawall
2013-04-02, 22:18:28
edit2: Es geht nur wenn ich nur 3 GPUs nehme, sobald ich 4-Way aktiviere, ist das Setting wieder verschwunden :(
Blaire meinte auch mal, dass es bei ihm mit vier GPUs nicht im Panel auftauchte.
Laut Satanator sollte es über den Inspector allerdings trotzdem klappen.

Godmode
2013-04-02, 23:05:14
Ja geht auch mit 4-Way, aber nicht über das NVCP, da gehts nur bis 96x hoch. Leider ist die Glättung wirklich nicht besonders :(

Also wenn die Sample-Verteilung besser wäre, dann wäre das ja ein Killerargument für SLI, oder? Könnte man das vielleicht über eine Petition erreichen, wie schon beim LoD für DX11?

Match-Maker
2013-04-02, 23:48:21
Was ich mich ja frage ist, warum die Sample-Verteilung überhaupt so schlecht ist. Gibts dafür einen bestimmten Grund?
Was mich auch noch interessieren würde:
1. Überschreibt SLI-AA die AA-Einstellung der Anwendung oder wird die Anwendungseinstellung quasi nur erweitert?
2. Falls letzteres bei meiner ersten Frage zutrifft, funktioniert SLI-AA auch mit auf MSAA basierenden Mischmodi wie TXAA oder 4xSMAA (das aus Crysis 3, welches 2xMSAA enthält)?

Blaire
2013-04-03, 02:26:44
Blaire meinte auch mal, dass es bei ihm mit vier GPUs nicht im Panel auftauchte.
Laut Satanator sollte es über den Inspector allerdings trotzdem klappen.

Ich kann nochmal nachfragen, aber ich glaube SLI-AA wird nicht mehr offiziell unterstützt. Damals als SLI-AA erschien, gab es noch ganze andere AA-Modis wie bsplw. 8xS im Treiber-Panel.
Würde auch heute kaum noch Sinn machen, solch ein neuer SLI-AA Modus, wenn dann schon eher ne Petition für DX11 AA-Bits um auch neuere Games aufbessern zu können, aber die Chance sowas durchzuboxen ist sehr gering befürchte ich.

aufkrawall
2013-04-03, 09:32:13
Ja, wenn schon eine Petition, denn imho auch besser für DX11 AA-Bits.
Hatte vor ein paar Tagen allerdings einen Thread im Geforce-Forum erstellt:
https://forums.geforce.com/default/topic/537319/sample-mask-of-sli-aa-isn-t-optimal

Vielleicht kann man da ja noch zumindest etwas Feedback von ManuelG bekommen.

Godmode
2013-04-03, 12:38:03
OK danke, hab auch mal in diesen Thread rein gepostet, vielleicht hilft es ja was.

BigKid
2013-04-04, 15:24:32
Mal eine Frage:
Aktuell ist ja der BitCoin so hoch wie noch nie...
Ich habe jetzt mal nach vielem rummprobieren GUIMiner (mit Default Kernel) zum laufen bekommen und komme damit auf der Titan auf c.a. 325 Mhash/s.
Damit würde ich auf gigantische (ironie) 0.02475492 Bitcoins in 24 Stunden kommen... Das hätte einen Wert von ca 2.80 Euro und schrammt somit knapp an dem Punkt rumm wo es anfängt sich vom Strompreis her zu lohnen.

Ich werde mir bei Gelegenheit mal noch ansehen was mein Homeserver mit und ohne GTX670 braucht - eventuell sieht es da besser aus weil der auf niedrigen Stromverbrauch getrimmt ist und "eh läuft"...

Aber: Die ganzen Miner sind was ich beim Surfen so gefunden habe ja aher ATI optimiert und auf NV Hardware gibt sich niemand so richtig mühe weil die halt fürs Minen ineffizienter ist - wordurch es nicht grade besser wird...

Hat jemand hier einen Tipp und oder einen Guide welchen Miner (und wie) man mit Kepler mal versuchen sollte ? Ich habe es nicht hinbekommen Phoenix 2.0 oder rpcminer-cuda zum laufen zu bekommen...

aufkrawall
2013-04-04, 20:45:31
Jetzt wirds offenbar doch Custom-Lösungen geben:
http://www.computerbase.de/news/2013-04/erneute-geruechte-um-kleinere-geforce-gtx-titan-le/

Hoffentlich gibts dann auch noch welche mit besserer Vcore- und PT-Kontrolle.

dildo4u
2013-05-01, 13:06:09
4K Benchmark's von pcper

http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-High-End-GPUs-Benchmarked-4K-Resolutions

Skysnake
2013-05-01, 14:56:12
Das ist doch total fürn Poppes, so lange man sich nicht den grundlegenden Problemen von FCAT angenommen hat...

Man sieht aber sehr schön, das AMD mit ihrem Framepacing eben genau so wie nVidia die Unzulänglichkeit von FCAT ausnutzen kann zu ihrem Vorteil.

Total behämmert und Leutsverarsche... Mehr nicht.

Godmode
2013-05-01, 15:01:57
In den 7990 Thread kannst du es auch noch posten, dann hast du dreimal das gleiche Posting abgesetzt.

Marty98
2013-05-01, 19:28:06
Das ist doch total fürn Poppes, so lange man sich nicht den grundlegenden Problemen von FCAT angenommen hat...

Man sieht aber sehr schön, das AMD mit ihrem Framepacing eben genau so wie nVidia die Unzulänglichkeit von FCAT ausnutzen kann zu ihrem Vorteil.

Total behämmert und Leutsverarsche... Mehr nicht.

Das ist nur deine Einbildung.

Knuddelbearli
2013-05-01, 19:39:22
In den 7990 Thread kannst du es auch noch posten, dann hast du dreimal das gleiche Posting abgesetzt.

ja versteh auch nicht wieso das dildo x mal postet :biggrin:

Godmode
2013-05-02, 12:33:10
Ich meinte eigentlich das von Skysnake, da es eine 1:1 Kopie war.

Nightspider
2013-05-07, 20:33:05
@Godmode:

Hast du deine 4 Titans jetzt eigentlich unter Wasser?

Weißt du noch wie du vor der Titan Vorstellung sagtest das 3 Titans wohl nicht ausreichen werden um dein Dual-GTX-690-SLI (Quad) zu schlagen? :biggrin:
Damals sagte ich das 2 Titan Karten schon oft ausreichen werden um sich so schnell anzufühlen wie dein altes Quad-SLI. (gerade Crysis 3 und Metro 2033 sollten das eigentlich belegen)

Wie siehst du das jetzt? :)

Godmode
2013-05-07, 20:43:51
Nein die sind unter Luft. Wollte vor ein paar Wochen auf Wasser umbauen, aber da ich nie lange im Besitz von GPUs bin, habe ich das lassen. Ja zwei reichen meistens, 3 und 4 sind fürs Benchmarken nett. SLI müsste mit mehr Karten noch besser funktionieren und es müsste noch höhere AA Modi geben.

Bin momentan dran zwei zu verkaufen, einfach weil ich sie nicht mehr brauche. Im Prinzip kaufe ich mir die Hardware nur zum herumexperimentieren. Ich sehe daher auch das Investment von 4.000 Euro nicht so schlimm, da ich ja wieder beim Verkauft wieder gut was zurück bekomme.

Eins weiß ich aber schon: Sobald was neues, schnelleres da ist, werde ich wohl wieder zuschlagen. ^^

Nightspider
2013-05-07, 20:59:30
Auch wenn es nur eine Titan Ultra (Gk110@ Vollausbau +5-10% clock) ist? :ugly:

Aber ich kann dich verstehen. Wer ein mal das Beste hatte, will auch weiterhin das Beste haben. ^^

Blaire
2013-05-07, 21:45:52
Nein die sind unter Luft. Wollte vor ein paar Wochen auf Wasser umbauen, aber da ich nie lange im Besitz von GPUs bin, habe ich das lassen. Ja zwei reichen meistens, 3 und 4 sind fürs Benchmarken nett. SLI müsste mit mehr Karten noch besser funktionieren und es müsste noch höhere AA Modi geben.

Bei letzteren Punkt stimme ich zu, da könnte man definitiv mehr Anreiz schaffen. Was die Funktionen angeht, so gibt es eigentlich wenig zu meckern, man benötigt halt oft mehr FPS. Aber das ist kein SLI-Problem , betrifft genauso SingleGPU...
Mit 2-Way SLI TITAN biste schon gut dabei, bei Metro LL könnte das allerdings schon wieder was knapp werden, malschaun. :)

Nightspider
2013-05-07, 21:53:45
Kannst du bei Metro LL nicht 3 Karten für Grafik und die 4. für PhysX nutzen?

aufkrawall
2013-05-07, 21:55:10
Titan für PhysX only. :freak:

Nightspider
2013-05-07, 22:05:19
@Godmode: spielst du in 1080p, 1200p oder 1440p?

Hast du mal 3D probiert? Irgendwas sinnvolles kannst du mit deinen Titans doch sicherlich anstellen.

An deiner Stelle würde ich mir einen pretested 1440p Screen mit 120Hz besorgen und die Games dann in 3D in 1440p spielen. ;)

Zergra
2013-05-07, 22:05:31
Titan für PhysX only. :freak:
Man hats ja :D :cool:

Gouvernator
2013-05-07, 22:17:59
Nein die sind unter Luft. Wollte vor ein paar Wochen auf Wasser umbauen, aber da ich nie lange im Besitz von GPUs bin, habe ich das lassen. Ja zwei reichen meistens, 3 und 4 sind fürs Benchmarken nett. SLI müsste mit mehr Karten noch besser funktionieren und es müsste noch höhere AA Modi geben.


Was?!
Kann doch nicht dein ernst sein. Mach mal 8xSGSAA in SLI-AA als 32xAA. Falls deine Titans dann immer noch "zu stark" sind, mach es in 3840x2160... Dann wirst du weinen nach mehr Leistung.

Godmode
2013-05-07, 22:25:04
Auch wenn es nur eine Titan Ultra (Gk110@ Vollausbau +5-10% clock) ist? :ugly:

Aber ich kann dich verstehen. Wer ein mal das Beste hatte, will auch weiterhin das Beste haben. ^^

Ja mal sehn, je nach Laune schon eher ja.


@Godmode: spielst du in 1080p, 1200p oder 1440p?

Hast du mal 3D probiert? Irgendwas sinnvolles kannst du mit deinen Titans doch sicherlich anstellen.

An deiner Stelle würde ich mir einen pretested 1440p Screen mit 120Hz besorgen und die Games dann in 3D in 1440p spielen. ;)

Hab nen 120 Hz 1080p Monitor der mich aber auch mit 1600p und 2600p spielen lässt. 1620p gehen sogar mit 120hz. 3D habe ich auch und nutze es auch gerne wenn das Spiel es gut unterstützt. Ist ja nicht so, dass ich nichts sinnvolles damit machen kann, sondern dass ich sie momentan nicht brauche da ich jetzt wieder weniger spiele.

Was?!
Kann doch nicht dein ernst sein. Mach mal 8xSGSAA in SLI-AA als 32xAA. Falls deine Titans dann immer noch "zu stark" sind, mach es in 3840x2160... Dann wirst du weinen nach mehr Leistung.

Ja finde ich geil, leider ist die Sampleverteilung crap.

Gouvernator
2013-05-07, 22:29:21
Ja finde ich geil, leider ist die Sampleverteilung crap.
Das stimmt nicht.
Die Sampleverteilung ist in der höchsten Einstellung genau richtig. Für Bildruhe ist diese Verteilung genial.
32xQuad-SLI SGSAA ist das beste AA was ich gesehen habe.

Godmode
2013-05-07, 22:34:31
Das stimmt nicht.
Die Sampleverteilung ist in der höchsten Einstellung genau richtig. Für Bildruhe ist diese Verteilung genial.
32xQuad-SLI SGSAA ist das beste AA was ich gesehen habe.

Ja das schon, aber die Leistung wird sehr ineffizient verbraten. Mit einem besseren Muster könnte man gleiche Glättung bei höheren FPS erreichen. 8xSGSSAA zu 32xSGSSAA SLI-AA ist schon nett und zieht auch richtig Strom. :biggrin:

Blaire
2013-05-07, 22:59:45
Kannst du bei Metro LL nicht 3 Karten für Grafik und die 4. für PhysX nutzen?

Kann man, die Frage ist es ob es etwas bringt, was auch auf die gewählten Settings ankommt.

Ja das schon, aber die Leistung wird sehr ineffizient verbraten. Mit einem besseren Muster könnte man gleiche Glättung bei höheren FPS erreichen. 8xSGSSAA zu 32xSGSSAA SLI-AA ist schon nett und zieht auch richtig Strom. :biggrin:

Ohne vernünftiges Ingame-AA macht das erst recht keinen Sinn. Dann eher besseres Downsampling, zur Not Profil-basiert je nach Game wo es möglich ist, ähnlich wie es jetzt bereits auch mit FXAA oder Ambient Occlusion der Fall ist.

TobiWahnKenobi
2013-05-08, 08:25:47
@Godmode: spielst du in 1080p, 1200p oder 1440p?

Hast du mal 3D probiert? Irgendwas sinnvolles kannst du mit deinen Titans doch sicherlich anstellen.

An deiner Stelle würde ich mir einen pretested 1440p Screen mit 120Hz besorgen und die Games dann in 3D in 1440p spielen. ;)

mach mal vor - auf die beschreibung der umsetzung bin ich sehr gespannt..

die meisten 1440p IPS-importschirme vertragen 96Hz - da ist der arsch ab - fehlendes 3DV-zertifikat hin oder her.. es funktioniert nicht.




(..)

mfg
tobi

Godmode
2013-05-08, 08:58:35
Kann man, die Frage ist es ob es etwas bringt, was auch auf die gewählten Settings ankommt.



Ohne vernünftiges Ingame-AA macht das erst recht keinen Sinn. Dann eher besseres Downsampling, zur Not Profil-basiert je nach Game wo es möglich ist, ähnlich wie es jetzt bereits auch mit FXAA oder Ambient Occlusion der Fall ist.

Ja ich weiß ja eh das wir DX11 AA Bits haben wollen, aber hab es vergessen zu erwähnen.

Raff
2013-05-08, 10:15:42
Zotac Geforce GTX Titan AMP! im Test: Der schnellste Grafikchip wird noch besser (http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Tests/Zotac-GTX-Titan-AMP-Test-1068646/)

Brutal lecker. Aber so mistig teuer.

MfG,
Raff

phoenix887
2013-05-08, 10:52:14
Zotac Geforce GTX Titan AMP! im Test: Der schnellste Grafikchip wird noch besser (http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Tests/Zotac-GTX-Titan-AMP-Test-1068646/)

Brutal lecker. Aber so mistig teuer.

MfG,
Raff

Naja habe die normale Zotac Titan. Die Werte erreicht man auch durch manuelles OC.

Thunder99
2013-05-08, 12:21:46
Zotac Geforce GTX Titan AMP! im Test: Der schnellste Grafikchip wird noch besser (http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Tests/Zotac-GTX-Titan-AMP-Test-1068646/)

Brutal lecker. Aber so mistig teuer.

MfG,
Raff
Mit dem Kühler der GTX480 AMP! wäre die Karte wahrscheinlich sehr sehr lecker bei konstanten 1032MHz Boost Takt

phoenix887
2013-05-08, 12:50:01
Mit dem Kühler der GTX480 AMP! wäre die Karte wahrscheinlich sehr sehr lecker bei konstanten 1032MHz Boost Takt

Richtig. Hatte die 480GTX AMP auch damals, war schon ein schönes Stück Hardware.

Raff
2013-05-08, 14:13:12
Packt doch einen Arctic Xtreme III drauf, der könnte passen. Das wäre auch mein Plan, wenn endlich mal jemand eine Gebrauchtkarte günstig abtritt. :D

MfG,
Raff

one of many
2013-05-08, 14:49:52
vielleicht legt das gelangweilte vierte rad an godmodes sli-ferrari ja bei ihm ein gutes wort für dich ein. ^^

Peter Gräber
2013-05-08, 21:31:48
Packt doch einen Arctic Xtreme III drauf, der könnte passen. Das wäre auch mein Plan, wenn endlich mal jemand eine Gebrauchtkarte günstig abtritt. :D
MfG,
Raff

Du willst wirklich mit Fuddelkühlerchen für Spannungsbauteile und Kleber an ner Titan ansetzen? Ohne vernünftigen passiven Kühleraufsatz ginge ich da nicht ran.

Ich muss eine meiner Titans wegen Defekt tauschen lassen. Der Ersatz ist dann käuflich zu haben - meld dich per Mail ;).

LSSJBroly
2013-05-08, 21:38:38
@Peter Gräber

Vllt bin ich gerade nicht auf dem laufenden, aber was ist eigentlich mit eurem Titan-review?;D

Godmode
2013-05-08, 21:40:13
Hab grad meine Karten alle ausgebaut und teste die jetzt mal einzeln durch.

Nummer 1 läuft jetzt seit 60m in C3 @ 1,2 Ghz und 3,4 Ghz Mem mit 1.2v (+38mV) und 85% Lüfter bei 72°C.

Kann man das als stabil bezeichnen?

LSSJBroly
2013-05-08, 21:47:08
Hab grad meine Karten alle ausgebaut und teste die jetzt mal einzeln durch.

Nummer 1 läuft jetzt seit 60m in C3 @ 1,2 Ghz und 3,4 Ghz Mem mit 1.2v (+38mV) und 85% Lüfter bei 72°C.

Kann man das als stabil bezeichnen?

Lass nochmal Unigine Heaven 4.0 so lange laufen, dann sollte das wohl gehen. Zumindest bei meiner 680 oder auch meinen 580er war das mit am fordernsten und besten, um OC zu testen.

Godmode
2013-05-08, 21:51:43
Ok stimmt, der war auch immer recht böse. Powerusage liegt hier in Crysis3 bei 112% (1,5 DS auf FullHD mit 8xMSAA und sonst alles gemaxed bei ca 27,5 FPS)

aufkrawall
2013-05-08, 22:01:25
Wird der Stromverbrauch nicht höher, wenn du die Auflösung weiter erhöst und MSAA verringerst/abschaltest?

Godmode
2013-05-08, 22:09:24
Wird der Stromverbrauch nicht höher, wenn du die Auflösung weiter erhöst und MSAA verringerst/abschaltest?

Weiß nicht, ich dachte die höchste Last bekomme ich mit hoher Auflösung und hohem AA. Werde ich schnell testen.

edit: Ja du hast recht, da schnellt es gleich auf 118% Powerusage hoch.

phoenix887
2013-05-08, 22:10:21
Hab grad meine Karten alle ausgebaut und teste die jetzt mal einzeln durch.

Nummer 1 läuft jetzt seit 60m in C3 @ 1,2 Ghz und 3,4 Ghz Mem mit 1.2v (+38mV) und 85% Lüfter bei 72°C.

Kann man das als stabil bezeichnen?

Ist das nicht etwas laut 85% Lüfter? Fahre lieber weniger OC dafür höchstens 70% Lüfter. 1,1GH und 3,1GHZ langen mir im Moment auch.

Wegen Stabilität, da hat mir das aktuelle Tomb Raider geholfen es auszuloten. Max Plus 4xSSAA. Oder auch das neue Star Trek mit 8xSGSSAA, da hat sich der Treiber auch mal zurück gesetzt^^

Einfach schauen das der GPU ständig mit über 90% ausgelastet ist.

Godmode
2013-05-08, 22:12:54
Das ist nicht zum Spielen sondern nur um zu testen was mit den Karten geht.

phoenix887
2013-05-08, 22:15:22
Das ist nicht zum Spielen sondern nur um zu testen was mit den Karten geht.

Ok, sorry war verpeilt:freak: Aber wenn du eine Titan verkaufen willst, kannst du mal deine Preisvorstellung nennen^^

Godmode
2013-05-08, 22:17:23
Hab wohl einen Käufer gefunden der gleich zwei nimmt. ;)

phoenix887
2013-05-08, 22:17:54
Hab wohl einen Käufer gefunden der gleich zwei nimmt. ;)

Kein Problem;D;D;D;D

Knuddelbearli
2013-05-08, 22:19:46
@Peter Gräber

Vllt bin ich gerade nicht auf dem laufenden, aber was ist eigentlich mit eurem Titan-review?;D

er ist dran, und der Boost 2.0 kommt da gar nicht gut weg ^^

die defekte Titan ist halt jetzt doof

phoenix887
2013-05-08, 22:23:08
er ist dran, und der Boost 2.0 kommt da gar nicht gut weg ^^

die defekte Titan ist halt jetzt doof

Ja der 2.0 Boost nervt mich auch. Trotz Bios Mod, wenn die Karte ständig auf 90-99% ausgelastet wird, wie bei Tomb Raider + 4xSSAA, kann ich die 1,1GHZ zeitweise auch nicht halten. Bin zwar immer noch dicke über 1GHZ, aber das hin und her nervt mich:rolleyes:

LSSJBroly
2013-05-08, 22:29:32
aber das hin und her nervt mich:rolleyes:

Ich wage ja zu bezweifeln, dass man das merken kann:D

phoenix887
2013-05-08, 22:34:55
Ich wage ja zu bezweifeln, dass man das merken kann:D

Naja, ist halt was psychologisches;)

LSSJBroly
2013-05-08, 22:36:51
Naja, ist halt was psychologisches;)

Ja, ich weiß, das ego halt:D

phoenix887
2013-05-08, 22:41:04
Ja, ich weiß, das ego halt:D

So sieht es aus:freak: Wobei mir das außerhalb des Forums nichts bringt. Im Reallife halten mich alle verrückt deswegen:D Aber egal wird jetzt zu offtopic:rolleyes:

Godmode
2013-05-08, 22:45:25
Wenn der Boost zu sehr hin und her wechselt, dann wird die Karte einfach zu warm. Mit Wakü kannst wohl die Karte zu dauerhaften 1.2 Ghz zwingen, wenn der Chip gut genug ist.

phoenix887
2013-05-08, 23:07:58
Wenn der Boost zu sehr hin und her wechselt, dann wird die Karte einfach zu warm. Mit Wakü kannst wohl die Karte zu dauerhaften 1.2 Ghz zwingen, wenn der Chip gut genug ist.

Denke ich auch, fängt halt bei 87°C immer an das hin und her Wechseln. Ist aber halt auch nur bei sehr hochem AA, weil dann die Last höcher ist. WaKü überlege ich mir mal.

Peter Gräber
2013-05-08, 23:13:23
er ist dran, und der Boost 2.0 kommt da gar nicht gut weg ^^

die defekte Titan ist halt jetzt doof

Er ist nicht dran - er ist fertig. Feinschliff.

Wegen des netten Smilies im Orginal-Post: Ich konnte nicht ahnen, dass NV noch eine 650 Ti Boost nachlegen wird, ich konnte nicht absehen, dass AMD eine vorgezogene Refresh-Karte mit 7790 bringt. In beiden Fällen musste ich mich kümmern, was mich locker einen Monat zurück geworfen hat.

@ Raff: deine 3dcorg-adresse geht nicht mehr. Damit laufen meine Mails in den Rücklauf. Dein ICQ ist aus, also nutze mal normale E-Mail.

Raff
2013-05-08, 23:25:07
Argh. Adresse fixed. Sollte nun gehen. =) ICQ liegt derzeit still.

MfG,
Raff

Peter Gräber
2013-05-08, 23:38:11
Raff, sollte nur dann gehen, wenn du noch einmal kontaktierst. Bislang hab ich nur deine alte Message mit der alten Mail.

DarknessFalls
2013-05-09, 13:18:39
@Peter, wenn ihr overall auf 11% Mehrleistung gegenüber der HD7970GHz kommt, fragt sich doch, wo dann bitte ein Titan Salvage aka GTX780 landen soll - das riecht doch nach HD7970GHz-Performance.

Unter den Voraussetzungen wäre ein Preis für GTX780 von +600 Euro schlicht nicht haltbar.

Besten Dank jedenfalls für das Review! :)

derguru
2013-05-09, 13:23:52
wenn man den titan auf die 836mhz festtackert ist es schon ziemlich erbärmlich was da raus kommt.

fondness
2013-05-09, 13:25:59
Hier der angesprochene Test von HT4U
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/

Interessant sind auch die GPGPU-Benchmarks in OpenCL/CUDA. Die Titan verliert jeden Test und das teils deutlich.

boxleitnerb
2013-05-09, 13:34:37
Da ist ein dicker Fehler:
Das Verändern von Power- und Temperaturtarget führt nicht zu Garantieverlust. Das sollte Peter eigentlich wissen. Ich habe bei Gigabyte, Asus, EVGA und Zotac nachgefragt diesbezüglich, weil die Diskussion auch im Luxx lief. Von allen kam dieselbe Antwort. Einstellen per beiliegenden Tools ist ausdrücklich erlaubt. Nicht erlaubt ist Bios-Mod oder Overvolting.

dildo4u
2013-05-09, 13:36:02
wenn man den titan auf die 836mhz festtackert ist es schon ziemlich erbärmlich was da raus kommt.
PCGH begrenzt Titan auch und bis auf Dirt steht Titan nirgends so schlecht wie das HT4U behauptet.

Fazit bei HT4U

AMDs schnellste Single-GPU-Grafikkarte muss sich in den meisten Fällen geschlagen geben. Die wenigen Ausnahmen stellen Batman: Arkham City, Bioshock: Infinite, Dirt: Showdown, Serious Sam 3 und Sleeping Dogs dar.

Batman
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/5/

Bioshock Infinite Titan massiv Vorne.
http://www.pcgameshardware.de/Bioshock-Infinite-PC-235561/Tests/Bioshock-Infinite-Test-Grafikkarte-Benchmark-1061764/

Sleeping Dogs auch dort Titan auf 837 begrenzt.
http://www.legitreviews.com/article/2144/10/

Leider gibt noch kein Titan Test mit 320.00 und Dirt Showdown.

boxleitnerb
2013-05-09, 13:40:10
PCGH bencht mit 876 MHz. Aber du hast Recht, die Ergebnisse von ht4u weichen bei Nvidia generell ab, trotz ähnlicher Testmethodik.

dildo4u
2013-05-09, 13:41:59
PCGH bencht mit 876 MHz. Aber du hast Recht, die Ergebnisse von ht4u weichen bei Nvidia generell ab, trotz ähnlicher Testmethodik.
Gerade Bioshock passt hinten und vorne nich wenn man der Vorsprung mit aktuellen Treiber sieht,außerdem hätte ich gerne ma Dirt mit dem 320.00 Treiber gesehen.Bei HT4u ist das dort sogar recht Eng das Titan vorne liegen könnte.(Treiber bringt bei der 680 ca 20%)

derguru
2013-05-09, 13:52:20
wie auch immer, ziemlich armselig der abstand. das es überhaupt spiele gibt wo die 7970 mithalten/sogar schneller ist schon verwunderlich,erst mit oc kommt der titan in fahrt oder mit sgssaa-settings.

Godmode
2013-05-09, 14:01:39
Wie in diesem Test dargestellt, würde mir die Karte auch keinen Spaß machen. PT hoch, TT hoch und ab gehts. Zur Not kann man noch den Lüfter aufdrehen.

Mache gerade OCing Tests mit allen 4 Karten und 1150 - 1200 MHz gehen in Crysis3 mit aufgedrehtem Lüfter.

dildo4u
2013-05-09, 14:01:40
wie auch immer, ziemlich armselig der abstand. das es überhaupt spiele gibt wo die 7970 mithalten/sogar schneller ist schon verwunderlich,erst mit oc kommt der titan in fahrt oder mit sgssaa-settings.

Nicht verwunderlich da NV seit Kepler auf dem Leise/Sparsam Tripp ist,ein 8 Sone Kühler(Vergleichbar mit 7970Ghz) mit dem Material was NV für den Kühler nutzt,dürfte die Karte leicht bei 1Ghz halten.

Immer wieder absurd wie AMD sowas ernsthaft auf Kunden loslässt 8.4 sone. lolol
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/

Die Zotac AMP schafft 950mhz mit 3.2sone.
http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Tests/Zotac-GTX-Titan-AMP-Test-1068646/

Blediator16
2013-05-09, 14:36:53
Nicht verwunderlich da NV seit Kepler auf dem Leise/Sparsam Tripp ist,ein 8 Sone Kühler(Vergleichbar mit 7970Ghz) mit dem Material was NV für den Kühler nutzt,dürfte die Karte leicht bei 1Ghz halten.

Immer wieder absurd wie AMD sowas ernsthaft auf Kunden loslässt 8.4 sone. lolol
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/

Die Zotac AMP schafft 950mhz mit 3.2sone.
http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Tests/Zotac-GTX-Titan-AMP-Test-1068646/

AMD und Untermenschenschicht geht mal garnicht:cool:

Peter Gräber
2013-05-09, 15:52:11
PCGH begrenzt Titan auch und bis auf Dirt steht Titan nirgends so schlecht wie das HT4U behauptet.

Fazit bei HT4U



Batman
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/5/

Bioshock Infinite Titan massiv Vorne.
http://www.pcgameshardware.de/Bioshock-Infinite-PC-235561/Tests/Bioshock-Infinite-Test-Grafikkarte-Benchmark-1061764/

Sleeping Dogs auch dort Titan auf 837 begrenzt.
http://www.legitreviews.com/article/2144/10/

Leider gibt noch kein Titan Test mit 320.00 und Dirt Showdown.

Für den 320er Treiber blieb leider keine Zeit mehr - da hätten alle Tests erneut angestellt werden müssen. Gut möglich, dass man in Dirt dann besser dasteht.

Zu Bioshock: Da wird mit dem integrierten Benchtool getestet.
Zu Sleeping Dogs: Da wird auch mit dem integrierten Benchtool getestet
Zu Batman: Andere Szene, andere Resultate. Ist nicht das erste mal, dass so etwas vorkommt.

Wegen der Garantie:
Ich weiß noch, dass NVIDIA uns zum Launch der GTX 680 sagte, dass ein User-Eingriff in das PT zu keinem Garantieverlust führe. Auf die Titan angesprochen, sagte man uns, dass man zu internen Garantien gegenüber den Partnern keine Auskunft gibt und die Garantie eine Sache der Partner sei.

Ist diese Bestätigung (dass es keinen Garantieverlust gibt) der genannten Boardpartner irgendwo öffentlich einzusehen, oder war das ein interner Mailverkehr? Wäre natürlich sehr wohl interessant.

dildo4u
2013-05-09, 15:53:25
AMD und Untermenschenschicht geht mal garnicht:cool:

Wat die 7970Ghz kosten über 300€,da dürfte man nen vernünftigen Kühler erwarten können.Die Gigabyte Custom Karten sind z.b billig und leise.

boxleitnerb
2013-05-09, 15:57:19
EVGA:
http://www.hardwareluxx.de/community/f300/gpu-boost-1-0-und-2-0-und-garantie-956474.html
Gigabyte:
http://forum.gigabyte.de/index.php?page=Thread&threadID=7937
Zotac per Mail:
Sehr geehrter Herr xxx,

alles was im Bereich Software geschieht hat keine Einfluss auf die Garantie.
Allerdings ist es eher nicht sinnvoll den gut funktionieren Boost mit
Software wieder auszuhebeln.

Eine neues Karten BIOS läuft nicht unter Software :-)

Mit freundlichen Grüßen

Asus drückt sich vor einer klaren Antwort:
http://www.hardwareluxx.de/community/f248/gpu-boost-1-0-und-2-0-und-garantie-956473.html

fondness
2013-05-09, 16:04:47
Wat die 7970Ghz kosten über 300€,da dürfte man nen vernünftigen Kühler erwarten können.Die Gigabyte Custom Karten sind z.b billig und leise.

Es wird keine einzige 7970Ghz mit dem Referenzkühler verkauft. Eine reine Scheindiskussion.

phoenix887
2013-05-09, 16:10:20
Wie in diesem Test dargestellt, würde mir die Karte auch keinen Spaß machen. PT hoch, TT hoch und ab gehts. Zur Not kann man noch den Lüfter aufdrehen.

Mache gerade OCing Tests mit allen 4 Karten und 1150 - 1200 MHz gehen in Crysis3 mit aufgedrehtem Lüfter.

So sieht es aus. Erst recht mit einem BIOS Mod. Da hat man auch bei 60-70% Lüfter immer je nach Auslastung und Dauer 1030-1100mhz. Muss aber jeder selber Wissen. Aber so macht die Karte Spass. Daher nochmal Danke für die Mod.

Peter Gräber
2013-05-09, 16:33:36
EVGA:
http://www.hardwareluxx.de/community/f300/gpu-boost-1-0-und-2-0-und-garantie-956474.html
Gigabyte:
http://forum.gigabyte.de/index.php?page=Thread&threadID=7937
Zotac per Mail:


Asus drückt sich vor einer klaren Antwort:
http://www.hardwareluxx.de/community/f248/gpu-boost-1-0-und-2-0-und-garantie-956473.html

Ich habe jetzt einfach mal eine solche Anfrage an ASUS Deutschland gerichtet. Ein Blick in deren Garantiebestimmungen scheint im Falle eines Defektes durch Eingriffe die Garantie zu verneinen.

Das ist vielleicht auch der entscheidende Punkt. Bei EVGA scheint man nicht die Garantie zu verlieren, wenn man den Kühler demontiert - nimmt die Karte dadurch aber Schaden, ist die Garantie futsch. Umgelegt auf die Software könnte sich das ähnlich verhalten. Hochsetzen erlaubt, aber wenn es dadurch zu Schäden kommt, dürfte das Auslegen der Paragraphen losgehen.

Bei Gigabyte Deutschland habe ich die Garantiebestimmungen jetzt nicht finden können. Aber ich vermute mal, dass in denen meist Gleiches / Ähnliches stehen dürfte.

aufkrawall
2013-05-09, 16:37:55
Fragen Händler & Hersteller bei Garantiefällen, ob mans PT hochgedreht hat?

boxleitnerb
2013-05-09, 16:51:58
Ich habe jetzt einfach mal eine solche Anfrage an ASUS Deutschland gerichtet. Ein Blick in deren Garantiebestimmungen scheint im Falle eines Defektes durch Eingriffe die Garantie zu verneinen.

Das ist vielleicht auch der entscheidende Punkt. Bei EVGA scheint man nicht die Garantie zu verlieren, wenn man den Kühler demontiert - nimmt die Karte dadurch aber Schaden, ist die Garantie futsch. Umgelegt auf die Software könnte sich das ähnlich verhalten. Hochsetzen erlaubt, aber wenn es dadurch zu Schäden kommt, dürfte das Auslegen der Paragraphen losgehen.

Bei Gigabyte Deutschland habe ich die Garantiebestimmungen jetzt nicht finden können. Aber ich vermute mal, dass in denen meist Gleiches / Ähnliches stehen dürfte.

Wie soll ein Schaden entstehen können, wenn die GPU bis 95°C spezifiziert ist, das Target aber nur bis 94°C geht? Ab da taktet die Karte herunter, mehr die 94°C wirst du nie sehen. Selbes Spiel mit dem Powertarget. Es ergibt keinen Sinn, dass dadurch Schäden auftreten können. Durch Kühlerwechsel, massives Overvolting, Biosmod usw. natürlich.

Skysnake
2013-05-09, 17:15:37
Hier der angesprochene Test von HT4U
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/

Interessant sind auch die GPGPU-Benchmarks in OpenCL/CUDA. Die Titan verliert jeden Test und das teils deutlich.
Das liegt daran, das die ganzen Kepler Karten kein OpenCL offiziell unterstützen.... :down:

nVidia schert sich nen Dreck um OpenCL und versucht CUDA am Leben zu halten.... :mad:

Wie soll ein Schaden entstehen können, wenn die GPU bis 95°C spezifiziert ist, das Target aber nur bis 94°C geht? Ab da taktet die Karte herunter, mehr die 94°C wirst du nie sehen. Selbes Spiel mit dem Powertarget. Es ergibt keinen Sinn, dass dadurch Schäden auftreten können. Durch Kühlerwechsel, massives Overvolting, Biosmod usw. natürlich.
Jedwede Karte kann einfach so kaputt gehen. Das passiert ständig und andauernd. Auf x tausend Karten gehen schlichtweg 1-y Karten innerhalb der ersten 6 Monate einfach kaputt. Das ist total normal. Ne kalte Lötstelle, ein schlechte Speicherchip, eine Luftblase im PCB/Package usw usw usw.

Die Frage ist halt, bekommt man dann wirklich die Garantie, oder zickt der Hersteller rum und versucht sich raus zu reden...

Ist das Gleiche wie mit Versicherungen. Immer schön jeden Monat zahlen, aber wenns mal zu einem Schaden kommt, und der Versicherer richtig blechen muss, fängt er an nach "Fehlern" zu suchen, um nicht zahlen zu müssen...

fondness
2013-05-09, 17:22:56
Das liegt daran, das die ganzen Kepler Karten kein OpenCL offiziell unterstützen.... :down:

nVidia schert sich nen Dreck um OpenCL und versucht CUDA am Leben zu halten.... :mad:


Das ist eh ihr Problem wenn sie glauben ihren Kunden sowas zumuten zu können. Hinten OpenCL steht eine Übermacht, hinter CUDA nur NV. Allerdings kommt beim HT4U-Test auch tw. die CUDA-Schnittstelle zum Einsatz, was auch nicht wirklich bessere Ergebnisse zeigt.

boxleitnerb
2013-05-09, 17:34:09
Das liegt daran, das die ganzen Kepler Karten kein OpenCL offiziell unterstützen.... :down:

nVidia schert sich nen Dreck um OpenCL und versucht CUDA am Leben zu halten.... :mad:


Jedwede Karte kann einfach so kaputt gehen. Das passiert ständig und andauernd. Auf x tausend Karten gehen schlichtweg 1-y Karten innerhalb der ersten 6 Monate einfach kaputt. Das ist total normal. Ne kalte Lötstelle, ein schlechte Speicherchip, eine Luftblase im PCB/Package usw usw usw.

Die Frage ist halt, bekommt man dann wirklich die Garantie, oder zickt der Hersteller rum und versucht sich raus zu reden...

Ist das Gleiche wie mit Versicherungen. Immer schön jeden Monat zahlen, aber wenns mal zu einem Schaden kommt, und der Versicherer richtig blechen muss, fängt er an nach "Fehlern" zu suchen, um nicht zahlen zu müssen...

Das kann dir genauso ohne Veränderung der Targets passieren. Und da der Hersteller wohl nicht feststellen kann, ob die verändert wurden oder nicht, ist das für die Garantiefrage nicht relevant.

Raff
2013-05-09, 17:44:24
Wie in diesem Test dargestellt, würde mir die Karte auch keinen Spaß machen. PT hoch, TT hoch und ab gehts. Zur Not kann man noch den Lüfter aufdrehen.

Mache gerade OCing Tests mit allen 4 Karten und 1150 - 1200 MHz gehen in Crysis3 mit aufgedrehtem Lüfter.

Das ist es. Ab Werk ist die Titan schick, bläst aber nicht alles weg. Erst mit Mod-BIOSen kommt das gigantische Potenzial zum Vorschein. Wenn man mal eine Titan @ 1.200 MHz sah, kommt einem alles Andere einfach nur langsam vor. :( Ja, andere Grafikkarten kann man auch übertakten, aber ich möchte mal sehen, wie ihr +30 Prozent aus einer HD 7970 GHz Edition presst. ;)

MfG,
Raff

Peter Gräber
2013-05-09, 17:48:36
Das ist es. Ab Werk ist die Titan schick, bläst aber nicht alles weg. Erst mit Mod-BIOSen kommt das gigantische Potenzial zum Vorschein. Wenn man mal eine Titan @ 1.200 MHz sah, kommt einem alles Andere einfach nur langsam vor. :( Ja, andere Grafikkarten kann man auch übertakten, aber ich möchte mal sehen, wie ihr +30 Prozent aus einer HD 7970 GHz Edition presst. ;)

MfG,
Raff

Die Biosmods können aber die PT-Limits nicht aushebeln. Es bleibt bei den 266 Watt und schon ohne Spannungszugabe bin beispielsweise über Anno mit 1097 MHz Boost über die Limits gelaufen, so dass es zum Schluss "nur noch" 1050 Mhz waren. Da glaub ich an dauerhaft 1200 MHz eher weniger. Aber die 1050 waren definitiv rattenschnell.

boxleitnerb
2013-05-09, 17:51:24
Die Biosmods können aber die PT-Limits nicht aushebeln. Es bleibt bei den 266 Watt und schon ohne Spannungszugabe bin beispielsweise über Anno mit 1097 MHz Boost über die Limits gelaufen, so dass es zum Schluss "nur noch" 1050 Mhz waren. Da glaub ich an dauerhaft 1200 MHz eher weniger. Aber die 1050 waren definitiv rattenschnell.

Das stimmt nicht. Ich kann mit meinem ModBios 150% Powertarget einstellen und da taktet überhaupt nichts herunter. Mehr wie 125% Nutzung habe ich übrigens noch nie gesehen bei Spielen oder Benchmarks.
Das Problem ist eher, dass die 1200 nicht in jedem Spiel stabil sein müssen. Das ist aber normal bei so hohem OC. Ich habe z.B. zwischen 901 MHz@1.075V und 1200/3506@1.2V ca. 100W Differenz an der Steckdose gemessen in Crysis 3. Bei ersterem Modus verbraucht Titan sicher nicht nur 165W. Die Leistungsaufnahme des Gesamtsystems betrug da 343W, wovon gute 100W laut CoreTemp auf die CPU (3930K sehr moderat übertaktet) fallen. Idle braucht das System 92W. Sind also sicherlich um die 200W für die Grafikkarte dabei.

Iruwen
2013-05-09, 18:00:42
NV soll bei solchen Enthusiastenpreisen auch Enthusiastenhardware verkaufen, und dazu gehört eben auch dass man die GPU, wie toll sie auch immer theoretisch sein mag, in der Praxis auch konstant ausreizen kann. Wenn sie keinen Bock auf Garantiefälle durch OC haben sollen sie Sicherungen einbauen mit denen man das nachvollziehen kann, der Aufwand sollte im Centbereich liegen.

Peter Gräber
2013-05-09, 18:29:01
Gut, vielleicht hab ich Orb auch falsch verstanden. Ich meine mich zu erinnern, dass er sagte, dass man das Target nicht über den BIOS-Mod aushebeln kann.

Raff
2013-05-09, 18:50:33
Was ich sah, taktete sich trotz Nichterfüllung des 150er-Powertargets ebenfalls herunter. Gibt es tatsächlich Mods, um mit Standardkühlung konstante Frequenzen zu erhalten?

MfG,
Raff

boxleitnerb
2013-05-09, 18:55:53
Von Standardkühlung habe ich nichts gesagt. Aber es ist ja nicht so, dass man nicht auch das Temperaturtarget hochsetzen oder die Lüfterkurve aggressiver gestalten kann. Dann wäre das sicher auch möglich, bei entsprechendem Lärmpegel halt.

derguru
2013-05-09, 19:05:05
auch mit entsprechendem lärmpegel imo nicht machbar, dafür hat der lüfter wenig reserven. für 1200 sind mindenstens 1,2v nötig und das stemmt der kühler nicht mit annehmenden temps.

boxleitnerb
2013-05-09, 19:06:42
Ich konnte es leider nicht testen, weil ich das Modbios erst nach Umbau auf die Wakü bekommen habe. Bei 90-94 Grad sind aber sicher 1100 drin mit Taubheitsgarantie :D

Blaire
2013-05-09, 19:06:50
Das ist es. Ab Werk ist die Titan schick, bläst aber nicht alles weg.

Was ist für dich ab Werk? 967-1006 mhz genügen dir nicht? :o Die "festgetackerten" Werte sind doch völlig unrealistisch. Man muss die Testumgebung auch entsprechend anpassen, wie im Vorfeld hingewiesen und wenn man dazu nicht in der Lage ist, wenigstens das Temp-Target erhöhen.

Raff
2013-05-09, 19:11:23
Nicht mal eine Titan AMP! im kühlen Freiluft-Aufbau arbeitet konstant an der GHz-Marke, Boosts um 900 MHz halte ich für die meisten Karten in einem geschlossenen Gehäuse realistisch. Und nein, für die 900-MHz-Leistung rüste ich nicht auf, das kann meine HD 7970 mit 1,25 GHz manchmal auch. Wenn mir aber jemand sagt, wie ich die Karte dauerhaft auf 1.100 MHz (+22 %) oder gar 1.200 MHz (+33 %) treibe, dann brauchen wir nicht mehr über die Geilheit zu diskutieren. :D

MfG,
Raff

derguru
2013-05-09, 19:15:35
1100 und pc im gästeklo mit anschlag lüfter aufdrehen ist möglich,1200 aber selbst dann nicht.:D

Raff
2013-05-09, 19:21:41
Och Jungs, ich wollte etwas anderes hören. ;D Aber dieses Kribbeln ...

MfG,
Raff

TurricanM3
2013-05-09, 19:22:40
Meine Karte bleibt mit Mod-Bios und Wakü auf 1202 Chip. Da taktet nichts hin und her. :confused:

Oder womit testet ihr das?

G 80
2013-05-09, 19:28:09
@Raff: Falls dich Titan auf 1100 mhz anmacht... (http://www.youtube.com/watch?v=jC3Kcilbkfk#t=29m55s)


Mich wundert mehr wie ihr eure Titan ohne mit der Wimper zu zucken flasht ..... ich bin schon bei GK 104 zu feige obwohl mich die langweiligen 1,165 V derartig nerven. :rolleyes: :mad:

TurricanM3
2013-05-09, 19:31:39
Mich wundert mehr wie ihr eure Titan ohne mit der Wimper zu zucken flasht ..... ich bin schon bei GK 104 zu feige obwohl mich die langweiligen 1,165 V derartig nerven. :rolleyes: :mad:


Was soll denn passieren? Selbst wenn der Flash fehl schlägt, kann ich immer noch mit einer zweiten Karte oder gar blind zurückflashen. Risiko = 0.

G 80
2013-05-09, 19:44:16
Falsch verstanden oder nicht zuende gedacht:

Das Problem ist nicht der Flash ( :freak: ) sondern der Garantieverlust.


Gibt aber genug die nach dem Motte: Unverschämt gewinnt, ihre defekten _und_ geflashten Karten, einschicken. Das will ich aber nicht.

Das ne Karte, abseits von Temp, wegen paar Mhz OC abraucht gibts in der Garantie praktisch nicht, aber Volt-Bios aufspielen und dann heulen ist mir zuwider wie diese FAG-Missbraucher.

TurricanM3
2013-05-09, 19:56:45
Die Garantie meiner Karte ist schon vor Inbetriebnahme erloschen. :biggrin:

Raff
2013-05-09, 19:59:58
Hehe, das riecht nach Schrauben ab -> Kühlerwechsel. :D War bei vielen meiner Karten nicht anders. Und nie ist etwas abgefackelt, ich habe vor rund zehn Jahren das erste und letzte Mal eine Gewährleistungspflicht in Anspruch genommen, daher verstehe ich den "Hassu Rechnung wegen Garantie??"-Wahn beim Privathandel auch nur bedingt.

MfG,
Raff

Knuddelbearli
2013-05-09, 20:02:38
ist ja nicht so das es hersteller mit Garantie bei Kühlerwechsel gäbe :rolleyes:

Raff
2013-05-09, 20:03:05
Das ist die Ausnahme.

MfG,
Raff

Knuddelbearli
2013-05-09, 20:09:49
Naja zumindest bei NV verkaufen die 4 Hersteller wohl 50% der Retailkarten

G 80
2013-05-09, 20:13:53
Na bei ner 150 € Schlampenkarte wärs mir egal, aber bei nem Titan nicht. Va weil man bei neuen Karten ja nicht weis wie die Ticken.

Radeon 9000 Dead by Design, HD 4 mourir spectacularrrr, NVs Lot und Leid-Phase - um nur mal 3 zu nennen.



Bei meinem NB ist die GPU aufgelötet (und das davor ist durch X700 Tod unbrauchbar geworden), und obwohl das neu mal >1 Titan gekostet hat läuft die öfters mal über ihrer Desktop Entsprechung - da bin ich dann nicht so feig - sind ja nur paar Mhz. :biggrin:

Godmode
2013-05-09, 20:58:29
Ich hab gleich alle 4 geflashed, so what. Wenn was kaputt wird dann muss man eben neu kaufen. Hab mit Ocing noch nie was kaputt bekommen und mache das jetzt doch schon viele Jahre.

Ich messe gerade aus was die Karten so an Ocing aushalten. Dazu verwende ich Unigine Heaven 4.0 in 4k Auflösung und ohne AA. Stabil ist für mich wenn die Karte das mindestens 60 Minuten schafft. Hier mal meine Ergebnisse:

Karte 3: ASIC 74,3 % 1150 MHz 60 min
Karte 4: ASIC 73,7 % 1163 MHz 60 min
Karte 1: ASIC 73,3 % läuft gerade
Karte 2: ASIC xx,x % kommt noch dran

TurricanM3
2013-05-09, 21:40:14
Das ist die Ausnahme.


Zumal ich schnell eine Karte haben wollte und lieferbar war nur Gainward (haben ein Siegel auf einer Schraube).

@Godmode
Die ASIC ist nur eine Tendenz. Meine erste Karte hatte 77.1 und lief 1150. Die neue hat 73.9 und läuft besser. BF3 kann ich mit 1202/3300 stundenlang zocken. Obs wirklich stable ist, muss ich noch schauen. Glaube eher nicht. FC3 und AC3 eignen sich wohl gut als Stabilitätstests.

Godmode
2013-05-09, 21:43:24
Du hast sie unter Wasser, oder?

TurricanM3
2013-05-09, 21:52:45
Ja, meinst du weil die mit niedrigerer ASIC @Wakü besser laufen sollen?
Ich kanns mir so recht nicht vorstellen.

TobiWahnKenobi
2013-05-09, 21:58:52
wäre die maximal-taktung nicht eher da sinnvoll, wo sie auch was bringt? BF3 braucht mit titan kein OC, das läuft auch @stock reichlich schnell.

interessanter wären doch die krepel, die titan nicht auf 60fps bringt..

btw,
meiner würde ich irgendwas zwischen 1137 und 1150MHz als "stabil" attestieren.


(..)

mfg
tobi

Godmode
2013-05-09, 22:00:04
Ich denke wenn die GPU mit 30° läuft, hat sie weniger Probleme mit hohem Takt. Bei mir geht sie im Heaven auf bis zu 76° hoch trotz 85% Lüfter und das wirkt sich dann auch auf die Taktbarkeit aus.

@Tobi:
Heaven ist praktisch, da sehr gut reproduzierbar und in der Schleife laufbar.

TobiWahnKenobi
2013-05-09, 22:05:21
ja, und bringt die erkenntnis, dass man stundenlang heaven angucken kann. wielange ein crysis oder far cry damit läuft, lässt sich unmöglich ableiten.

btw,
auf dieser SSD (zeitgleich mit titan in dienst gestellt) ist nichtmal ein benchmark installiert.. so wertvoll und interessant finde ich die inzwischen (=stromverschwenderprogramme).


(..)

mfg
tobi

Godmode
2013-05-09, 22:10:42
1. Brauche ich den überhaupt nicht angucken sondern nur nach einer Stunde checken ob er abgestürzt ist.

2. Heaven reagiert auf Ocing sensibler als C3 bei mir, daher dieser Benchmark.

3. Da du wohl die letzten Seiten nicht gelesen hast: Ich verkaufe zwei Karten und will jetzt herausfinden, welche am besten zu takten gehen.

aufkrawall
2013-05-09, 22:27:36
Du könntest auch mal die Anno 1404 Demo mit 8xSGSSAA ausprobieren.

Raff
2013-05-09, 22:31:36
Du könntest auch mal die Anno 1404 Demo mit 8xSGSSAA ausprobieren.

Anno 1404 mit SGSSAA ist übrigens ein Fall, wo eine GeForce deutlich flinker rendert als eine Radeon – allerdings matscht letztere das Bild nicht zusammen.

MfG,
Raff

=Floi=
2013-05-09, 22:38:17
wo liegt dann der vorteil bei nv?
was bringen mir die frames, wenn das bild unscharf wird? logik?


edit
geht 1404 mit den bits?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9372737&postcount=2713

aufkrawall
2013-05-09, 22:39:27
Anno 1404 mit SGSSAA ist übrigens ein Fall, wo eine GeForce deutlich flinker rendert als eine Radeon – allerdings matscht letztere das Bild nicht zusammen.

Ohne (imho hässliches) Post Processing matscht es auch bei Nvidia nicht.
Sicher, dass es bei AMD damit scharf bleibt?