PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 690: (P)Review-Thread


Seiten : 1 [2]

y33H@
2012-05-06, 13:39:17
Vsync ist unabdingbar, wenn es um BQ geht. Hier versagen leider die Tester!Warum soll ich mir freiwillig einen Input-Lag aufhalsen? BQ in allen, wirklich allen Ehren, aber eine saubere und direkte Steuerung ist wichtiger.

schreiber
2012-05-06, 13:47:55
Warum soll ich mir freiwillig einen Input-Lag aufhalsen? BQ in allen, wirklich allen Ehren, aber eine saubere und direkte Steuerung ist wichtiger.
Wenn man dafür sorgt, dass man hohe fps hat, dann sollte sich der Inputlag auch in Grenzen halten.
Bei welchen Spielen soll denn der Lag von einem fps überhaupt auffallen, wenn man davon 60 pro Sekunde hat?

y33H@
2012-05-06, 13:56:07
Ein aktuelles Beispiel ist Skyrim, wobei die Engine hier mit Vsync besonders schwammig reagiert. Gleiches gilt aber auch für die UE3 und die Source-Engine ... trotz konstant 60 Fps.

mironicus
2012-05-06, 14:03:46
Wie ist denn eigentlich der Stromverbrauch bei der GTX 690 beim Spielen mit VSync? Wenn ich BF3 mit locked 60 fps in Full HD spiele wird die Karte doch wohl nur zu 40% ausgelastet. Da würde mich der Stromverbrauch als auch die Lautstärke interessieren. Denn egal wie schnell eine Karte ist, man kauft sie ja zum Spielen und nicht zum Benchen. Es wird immer die Volllast aufgezeigt, die höchste Lautstärke. Das dürfte aber je nach Spiel völlig anders sein.

boxleitnerb
2012-05-06, 14:04:43
Vorab: Ihr werdet staunen, welch enorm positiven Einfluss Vsync auf das Verschwinden der Micruruckler ausübt.


VSync hat keinen durchweg feststellbaren und positiven Einfluss auf die Mikroruckler. Ich habe sogar Fälle erlebt, wo es dadurch schlechter wurde. Da gibt es Fälle jeglicher Couleur, das kann man also gar nicht vergleichen.

y33H@
2012-05-06, 14:23:52
Wie ist denn eigentlich der Stromverbrauch bei der GTX 690 beim Spielen mit VSync? Wenn ich BF3 mit locked 60 fps in Full HD spiele wird die Karte doch wohl nur zu 40% ausgelastet. Da würde mich der Stromverbrauch als auch die Lautstärke interessieren. Denn egal wie schnell eine Karte ist, man kauft sie ja zum Spielen und nicht zum Benchen. Es wird immer die Volllast aufgezeigt, die höchste Lautstärke. Das dürfte aber je nach Spiel völlig anders sein.Du spielst BF3 mit Vsync? Ich nicht. Mit 60-Fps-Cap sind es IMO 3,x Sone und deutlich unter 250W.

Screemer
2012-05-06, 14:33:41
Warum soll ich mir freiwillig einen Input-Lag aufhalsen? BQ in allen, wirklich allen Ehren, aber eine saubere und direkte Steuerung ist wichtiger.
schon mal z.b. rage ohne vsync gespielt? ich bin ja nicht zimperlich was tearing angeht, aber das ist ein so abartiger bildaufbau, dass mir ganz schlecht wurde. einfach unspielbar. für viele andere sind da wohl andere titel genau so schlimm. vsync ist in vielen spielen einfach unabdingbar.

boxleitnerb
2012-05-06, 14:40:34
VSync+fps Limiter= kein Tearing und (fast) kein Inputlag. Funktioniert natürlich dann am besten, wenn man die 60fps auch hält.

y33H@
2012-05-06, 14:42:53
Rage ist so oder so bei 60 Fps gelockt und der Input wirkt etwas schwammug, daher habe ich das mit Vsync gespielt. idR aber ohne, da ich lieber mehr Fps und einen sauberen Input habe - 120 Hz wäre eine Option, aber die bisherigen LCDs sprechen mich nicht an.

Shakti
2012-05-06, 15:01:35
Die GTX 690 ist nicht einen Deut besser was MR angeht im Vergleich zur GTX 590. Sieht man schoen wenns unter 60 FPS geht, dann zeigt sie ein identisches MR Bild. Da ist nichts in Hardware, nur Blabla.

y33H@
2012-05-06, 15:20:52
Ich fürchte, du irrst.

fondness
2012-05-06, 15:42:17
Ich fürchte, du irrst.

Das scheinen ja nicht alle so zu sehen:

Zum eigentlichen Thema: Wir haben uns heute in unserer Testszene des Witchers auch noch die GTX 590, 680-SLI (jeweils mit dem beta Treiber 301.33) angeschaut und dazu auch noch die HD 6990 in gleicher Szene betrachtet.

Ausgehend davon sind unsere Beobachtungen, dass die Mikroruckler auf allen drei NVIDIA-Karten / -Lösungen mehr oder minder gleich ausgeprägt sind. Im Geradeauslauf sind diese weniger störend wahrzunehmen, dreht man aber nur leicht mit der Maus die Lauf-/Blickrichtung, machen die Ruckler sich sofort bemerkbar. Es hat den Eindruck, dass NV mit dem neuen Treiber bei SLI-Betrieb insgesamt etwas optimiert hat. Bei der GTX 590 mag das Problem allenfalls leicht verstärkt sein, da man sich in niedrigeren Framerraten bewegt, aber die Tendenz ist die gleiche.

boxleitnerb
2012-05-06, 15:51:10
Das ist aber wieder nur ein Spiel. Blaire und ich haben z.B. gestern Messungen in Serious Sam 3 gemacht, nur Strafing. Sein Ergebnis sah deutlich besser aus als meines bei unter 60fps avg. :

580 SLI (3x dasselbe gemessen):
http://www.abload.de/thumb/ss3_3runs0nuij.png (http://www.abload.de/image.php?img=ss3_3runs0nuij.png)

680 SLI:
http://www.abload.de/thumb/680ss3z1cdn.png (http://www.abload.de/image.php?img=680ss3z1cdn.png)

Er meinte, mit einem neueren Treiber wäre es noch besser. Muss ihn mal fragen, ob er das auch noch hochladen kann.
Auch Skyrim haben wir uns angeschaut, und hier ist ebenfalls eine Besserung zu erkennen. Es kommt auf das Spiel und auf die Szene an. Dass keine Verbesserungen gemacht wurden, ist einfach falsch.

Mancko
2012-05-06, 16:24:56
In jedem Fall ist es deutlich besser als das was AMD derzeit in Sachen Mikroruckler abliefert. Nvidia kann man wirklich attestieren sich um das Thema Gedanken zu machen und es anzugehen.

Ich bin zwar generell kein Freund von SLI/CrossFire bzw. Dual GPU Lösungen aber die GTX690 ist seit langem mal wieder eine wirklich sehr gut gelungene Dual GPU Karte. Das dürfte für die Konkurenz sehr schwer werden diese Leistung mit ähnlichen Eigenschaften - vor allem im Bereich Temperatur, Verbrauch und Lautstärke - zu erreichen.

Gaestle
2012-05-06, 16:41:06
Die Frage ist doch IMHO, warum ht4u einerseits und CB sowie PCGHW andererseits offenbar zu verschiedenen Schlussfolgerungen kommen.

Wenn man unterstellt, dass alle drei Seiten versuchen, einen guten Job zu machen, gibt es vielleicht eine technische Erklärung dafür? Turbo, adaptive Vsync etc?

Fabian_HT4U
2012-05-06, 16:41:09
Es kommt auf das Spiel und auf die Szene an. Dass keine Verbesserungen gemacht wurden, ist einfach falsch.

Haben wir das gesagt? Gerade das Update zeigt doch deutlich, dass sich da etwas getan hat. Es zeigt aber eben auch, dass es das Problem noch immer gibt. Oder reden wir aneinander vorbei?

@Gaestle:
Ich tippe stark auf die gewählten Szenen und Spiele. Gehen wir davon aus, dass man 10 bis 20h braucht um ein Spiel durchzuspielen gibt es einfach so irrsinnig viele Szene, dass man unmöglich alle mit ein paar Benchmarks abdecken kann. Ähnliches zeigt sich doch auch bei den reinen Performance-Benchmarks. Nur weil x Seiten das gleiche Spiel mit der gleichen Hardware benchen, muss nicht x-Mal das gleiche Ergebnis herauskommen (andere Szene usw...).

Grüße
Fabian

boxleitnerb
2012-05-06, 16:45:51
@Fabian:
Das war eigentlich an Shatki und fondness gerichtet ;)

Gaestle
2012-05-06, 16:50:23
@ fabian
Das denke ich auch.

Bei irgendwem kam aber auch raus, das sich die Turbofunktion mit zunehmender Chiptemperatur zu ändern scheint. Mit zunehmender Temperatur wird der Turbo selterner aktiviert. Das kann natürlich Auswirkungen auf Benchmarks haben, wenn Benchmarksequenzen kürzer (= Chip kühler, Turbo häufig) oder länger ( = Chip wärmer, Turbo seltener) sind.

Ah hier, ihr (ht4u) wart es:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index11.php

Peter Gräber
2012-05-06, 20:13:30
@ fabian
Das denke ich auch.

Bei irgendwem kam aber auch raus, das sich die Turbofunktion mit zunehmender Chiptemperatur zu ändern scheint. Mit zunehmender Temperatur wird der Turbo selterner aktiviert. Das kann natürlich Auswirkungen auf Benchmarks haben, wenn Benchmarksequenzen kürzer (= Chip kühler, Turbo häufig) oder länger ( = Chip wärmer, Turbo seltener) sind.

Ah hier, ihr (ht4u) wart es:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index11.php

Ja, das waren auch wir ;) - aber es ist einfacher: sobald das Power Target erreicht wird, geht alles nach unten, außer die Temperatur (vereinfacht ausgedrückt).

Ich hatte auf der Seite davor schon darauf hingewiesen, dass alle Redaktionen hier was in 2 Tagen gestemmt haben, was sich so eigentlich nicht stemmen lässt. Das dürfte ebenfalls seinen Beitrag geleistet haben.

Die Mikroruckler-Problematik hat schlicht die Fan-Gemeinde in den Artikeln erwartet - diese wurden sicherlich nicht simple in Benchmarks aufgezeichnet. Wie detailliert man sich dann aber letztlich damit auseinandersetzen konnte, das sei doch einmal dahin gestellt. Für solche Produkte gehört es sich einfach nicht Behauptungen aufzustellen und dann den Testern keine Zeit zu lassen.

digidoctor
2012-05-06, 20:38:25
Ich muss grad an Tombman denken :(

Godmode
2012-05-08, 08:50:27
Ich muss grad an Tombman denken :(

O ja! :(

Gibt es ein Review wo Quad-SLI gestestet wurde? Es gibt ja eine Folie von Nvidia aber ein offizielles Review habe ich bis jetzt nicht gefunden.

Dural
2012-05-08, 12:37:29
bei uns noch keine Karte in sicht :(

so viel zum Thema ab 7. lieferbar :rolleyes:

Hugo78
2012-05-08, 12:47:06
Paper- und Softlaunches haben wir diese Jahr zu hauf bei AMD gesehen und es hat sich keine Sau drüber beschwert.
Im Gegenteil, es hieß dann immer "so weiß man wenigstens, woran man ist" ...

Knuddelbearli
2012-05-08, 12:51:27
lol du ( und viele anderen ) hast dich da genug bei amd darüber ausgelassen, und das war bis jetzt 1 kommentar. troll dich weiter ...

Godmode
2012-05-08, 12:53:00
bei uns noch keine Karte in sicht :(

so viel zum Thema ab 7. lieferbar :rolleyes:

Siehe hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=525388

Dural
2012-05-08, 13:35:38
naja AMD hat wenigsten ihren liefertermin eingehalten (9.1 war es doch?)

laut NV müssten schon seit letzter woche karten im handel sein (in geringen stückzahlen) und ab 7. noch mal eine lieferung...

Godmode
2012-05-08, 13:39:20
naja AMD hat wenigsten ihren liefertermin eingehalten (9.1 war es doch?)

laut NV müssten schon seit letzter woche karten im handel sein (in geringen stückzahlen) und ab 7. noch mal eine lieferung...

In den USA gibts die Karten auch schon laut den Foren, ka ob für DE, AT ... auch der 7. angesetzt wurde? Meine wird jedenfalls am 10. verschickt. Aber IMO war das auch vorher schon klar, man braucht sich nur die Verfügbarkeit der GTX 680 anschauen, das sagt ja alles. Nicht sehr schön, aber wegen 2-3 Tagen jammere ich jetzt wirklich nicht.

Dural
2012-05-08, 13:44:01
in der CH ist der Termin bei einer Karte (Gigabyte) auch der 10.05

TB1333
2012-05-08, 23:02:10
Bei Tweak PC (http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_690/s01.php) gibt es ebenfalls einen umfangreichen Test der GTX690.

Godmode
2012-05-09, 07:43:15
Bei Tweak PC (http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_690/s01.php) gibt es ebenfalls einen umfangreichen Test der GTX690.

Interessant wie gut sich die Karte OCen lässt, dass hätte ich jetzt so nicht erwartet? Weiß man eigentlich was der GTX690 anders ist, weil bei den GTX680 wars ja GK104-400 und bei bei der GTX690 ist jetzt jetzt GK104-350?

Und gibts schon irgendwie Quad-SLI Benchmarks mit GTX690, hab dazu bis jetzt nichts gefunden?

Blaire
2012-05-09, 08:19:21
Die meisten Reviews testen sowie nicht die Settings, die man wissen möchte bzw. wird nur CPU Limitierter Kram getestet. :wink: Ich würde es bei 2-Way GTX690 belassen, da es wesentlich unkomplizierter ist. 4-Way SLI braucht mehr Anpassungen.
4-Way(Quad)-SLI kann im Idealfall perfekt skalieren...muss es aber nicht ;)
Crysis2 3840x2160 DX11 Ultra (Map Madisonsquare)
1x GTX680@Stock ~16fps
Frames, Time (ms), Min, Max, Avg
532, 34164, 10, 19, 15.572
4-Way GTX680@Stock ~60fps
Frames, Time (ms), Min, Max, Avg
2038, 34000, 33, 77, 59.941

Godmode
2012-05-09, 08:46:12
Die meisten Reviews testen sowie nicht die Settings, die man wissen möchte bzw. wird nur CPU Limitierter Kram getestet. :wink: Ich würde es bei 2-Way GTX690 belassen, da es wesentlich unkomplizierter ist. 4-Way SLI braucht mehr Anpassungen.
4-Way(Quad)-SLI kann im Idealfall perfekt skalieren...muss es aber nicht ;)
Crysis2 3840x2160 DX11 Ultra (Map Madisonsquare)
1x GTX680@Stock ~16fps
Frames, Time (ms), Min, Max, Avg
532, 34164, 10, 19, 15.572
4-Way GTX680@Stock ~60fps
Frames, Time (ms), Min, Max, Avg
2038, 34000, 33, 77, 59.941

Thx, werd mir das erstmal mit einer ansehen aber ich habe das starke gefühl das mir das zu wenig ist. ;D Kannst du sagen es funktioinert in 50% der Fälle oder deutlich weniger?

Ja mich wundert es halt, dass niemand GTX 690-Quad-SLI getestet hat. Oder haben die wirklich so wenig Karten für die Tester? In Jedem Review gabs das tolle Bild mit 2xGTX690 und dieser metallischen SLI-Bridge.

Raff
2012-05-09, 09:47:30
Zwischen "Wir haben ein Pressebild in der Galerie" und "Wir haben zwei Testmuster erhalten" liegen Welten. ;)

MfG,
Raff

Godmode
2012-05-09, 09:49:17
Zwischen "Wir haben ein Pressebild in der Galerie" und "Wir haben zwei Testmuster erhalten" liegen Welten. ;)

MfG,
Raff

Habs mir fast gedacht ^^

Habt ihr was geplant bzgl. GTX 690 im SLI, vielleicht für das nächste Heftlein?

Raff
2012-05-09, 09:50:24
Nope. Das kann ich direkt ausschließen, sorry.

MfG,
Raff

Godmode
2012-05-09, 10:00:10
Nope. Das kann ich direkt ausschließen, sorry.

MfG,
Raff

Weils nicht für viele Leute interessant ist oder was ist der Grund? So ein Ultra-Highend Shootout wäre doch mal was für die Titelseite: Quad-Fire vs Quad-SLI. :biggrin:

Dural
2012-05-10, 11:51:21
in der Schweiz sind die ersten 690 eingetroffen :) (Hand Voll)

Godmode
2012-05-10, 12:48:02
in der Schweiz sind die ersten 690 eingetroffen :) (Hand Voll)

Bei uns (AT) hat sich bis jetzt noch nichts getan, aber ich erwarte im Laufe des Tages eine Email.

Dural
2012-05-10, 13:16:04
noch mal welche:

http://www.brack.ch/tabid/294/Default.aspx?ID=207981

und immer sind es gigabyte karten :)

Godmode
2012-05-10, 16:03:44
noch mal welche:

http://www.brack.ch/tabid/294/Default.aspx?ID=207981

und immer sind es gigabyte karten :)

Bei mir wirds heute nichts mehr mit GTX 690. Händler sagt morgen kommen sie. Wir sollten aber hier weitermachen und nicht den Review Thread beschmutzen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=525388

exzentrik
2012-05-10, 16:48:18
Angenommen, jemand mit einem Sockel 775-System (Q9550 E0 @ 3,4 GHz, 4 GB DDR2-800-RAM) würde mit dem Kauf einer GTX 690 liebäugeln. Wäre das rausgeschmissenes Geld, weil die CPU extrem limitieren würde? Oder wäre das durchaus sinnvoll, sofern er überall, wo es möglich ist, 4x bis 8x SGSSAA und Downsampling (2880xXXXX) verwenden würde? Falls nicht, wäre eine Radeon 7970 oder GTX 680 sinnvoller für seine Zwecke?

aufkrawall
2012-05-10, 16:53:28
Sofern du nicht höher als 2x2DS bei 1080p gehst, macht die 690 bestimmt durchaus Sinn, sofern man nicht unter 50fps kommt.
Wenn man die Kohle hat, ist es imho klar die bessere Wahl. ;)

Knuddelbearli
2012-05-10, 17:57:00
kommt auf die spiele an für egoshotter würde es sich meistens lohnen wenn man eher strategiespiele spielt eher nicht ( ausnahmen gibt es immer )

boxleitnerb
2012-05-10, 18:03:37
Wenn die CPU limitiert, gibts eh (fast) keine Mikroruckler. Natürlich wirds dann so oder so ruckliger bei sagen wir mal 25fps, aber das wäre bei allen Karten so.

Dural
2012-05-11, 09:47:00
ich würde nie eine LGA775 system mit einer 690 aufrüsten, passt meiner meinung nach einfach nicht zusammen.

da reicht doch auch schon eine 680 und überhaupt wenn man fast 1000.- euro für eine karte bezahlt kann man auch gleich CPU + MB wechseln, mit den neuen 22nm CPUs wäre jetzt so wie so ein guter zeitpunkt. :)

exzentrik
2012-05-11, 19:48:54
Ja, nach reiflicher Überlegung wird's wohl eine Zotac GeForce GTX 670. Vielleicht schon nächste Woche. Immer noch ein spürbarer Sprung von meiner GTX 460, aber bezahlbar und halbwegs der mahnenden Vernunft folgend. ;) Aber danke für die Hinweise.

Godmode
2012-05-12, 15:49:56
Kein Quad-SLI mit GTX 690?
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/22488-2x-geforce-gtx-690-dennoch-kein-quad-sli.html

Pfui, ich hoffe die fixen das bald. Kann doch nicht sein, dass sie dafür sogar Benchmarks zeigen und dann funktioniert es gar nicht....

edit: Hab gleich nen Thread im offiziellen SLI Forum aufgemacht:
http://forums.nvidia.com/index.php?showtopic=229265

mironicus
2012-05-12, 17:58:20
Ich habe vorhin dieses Video bei PC Gameshardware gesehen, wo eine nackte GTX 670 von einem drauf blasenden 12 cm-Lüfter gekühlt wird.

Bei der GTX 690 sind die Kühllamellen ja sogar frei sichtbar und die Lüfterabdeckung kann offensichtlich leicht entfernt werden (jeweils 4 Schrauben). Was meint ihr würde sich das auf die Lautstärke auswirken, wenn man z.B. zwei 12 cm-Lüfter auf die GTX 690 zusätzlich drauf blasen lässt...?

Godmode
2012-05-12, 19:23:59
Ich habe vorhin dieses Video bei PC Gameshardware gesehen, wo eine nackte GTX 670 von einem drauf blasenden 12 cm-Lüfter gekühlt wird.

Bei der GTX 690 sind die Kühllamellen ja sogar frei sichtbar und die Lüfterabdeckung kann offensichtlich leicht entfernt werden (jeweils 4 Schrauben). Was meint ihr würde sich das auf die Lautstärke auswirken, wenn man z.B. zwei 12 cm-Lüfter auf die GTX 690 zusätzlich drauf blasen lässt...?

Könnte mir vorstellen dass das weniger leistet, da so weniger luft "durchgepresst" wird.

@Quad SLI Problem: dürfte gelöst sein:
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/22488-2x-geforce-gtx-690-dennoch-kein-quad-sli.html

Hugo78
2012-05-12, 21:26:53
@Quad SLI Problem: dürfte gelöst sein:
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/22488-2x-geforce-gtx-690-dennoch-kein-quad-sli.html

Tja ja, das Problem sitzt auch bei der Fachpresse vor dem Monitor. :tongue:

Knuddelbearli
2012-05-12, 22:32:50
naja was heisst da gelöst kann ja nicht sein das man x mal den treiberneuinstallieren muss bis es geht ^^

Godmode
2012-05-13, 17:56:31
naja was heisst da gelöst kann ja nicht sein das man x mal den treiberneuinstallieren muss bis es geht ^^

Wenn ich meine Kärtchen endlich in Händen halte, dann kann ich ja darüber berichten wie es wirklich ist.

dildo4u
2012-05-13, 18:46:52
Sogar die PR Person von Nvidia sieht Quad SLI als ne weniger gute Lösung.

http://youtu.be/NsdIOVsLRac?hd=1&t=1h1m38s

Dural
2012-05-14, 11:48:40
sieht in echt doch viel edler aus als auf den fotos, das kühler gehäuse ist übrigens wirklich komplett aus metall :)

http://www.abload.de/img/p10204653vil7.jpg

Godmode
2012-05-14, 12:33:28
sieht in echt doch viel edler aus als auf den fotos, das kühler gehäuse ist übrigens wirklich komplett aus metall :)

http://www.abload.de/img/p10204653vil7.jpg

Nettes Pic. Meine ist immer noch im Germanenland, aber bis Mittwoch sollte es sich ausgehn. Verkaufst du die Radeon jetzt?


Sogar die PR Person von Nvidia sieht Quad SLI als ne weniger gute Lösung.

http://youtu.be/NsdIOVsLRac?hd=1&t=1h1m38s

Der kennt sich ja nicht aus ;D

Dural
2012-05-14, 12:59:54
die ist schon verkauft, hab jedoch zuhause noch mal eine und die darf auch bleiben ;)

das system zur GTX690 mit i7 3820 und 4x4GB + WaKü ist auch schon bereit :)

Godmode
2012-05-14, 15:53:35
die ist schon verkauft, hab jedoch zuhause noch mal eine und die darf auch bleiben ;)

das system zur GTX690 mit i7 3820 und 4x4GB + WaKü ist auch schon bereit :)

Genau das selbe hab ich auch, aber leider nur ne blöde fertig Waku aber sie reicht für 4.4 GHz.
Willst du später auch auf Ivy Brige E umsteigen oder warum hast du nen 3820 gekauft?

Hast sie schon eingebaut?

Dural
2012-05-14, 16:29:57
nein, bin auf der arbeit :)

wird diese woche wahrscheinlich auch nicht mehr reichen, je nach dem halt... :(

Godmode
2012-05-14, 23:08:55
nein, bin auf der arbeit :)

wird diese woche wahrscheinlich auch nicht mehr reichen, je nach dem halt... :(

Ok, schade.

Ich bekomme eine Karte morgen. Trifft sich gut mit D3 ;)

Dural
2012-05-15, 00:19:40
http://www.abload.de/img/img_4985jeua7.jpg

so hab sie doch schnell eingebaut :)
also der boost macht es nicht gerade leicht in sachen OC, meine taktet generell 30-40MHz über dem boost takt :rolleyes:


laut GPUZ läuft meine mit 1178MHz GPU und 1752MHz Speicher bei +120MHz Eingestellt.

http://3dmark.com/3dm11/3428326

Hugo78
2012-05-15, 00:31:50
http://www.abload.de/img/img_4985jeua7.jpg

so hab sie doch schnell eingebaut :)

Sexy.

Blaire
2012-05-15, 00:56:07
*Neidisch guck* Next Update wird hier trotzdem erst GK110 :biggrin:

Godmode
2012-05-15, 09:18:13
Eine 690er ist gerade gekommen und die zweite kommt auch noch heute ;) Vielleicht kann ich ja am Abend ein paar Bilder machen.

Dural
2012-05-15, 11:03:11
kurz ein rückblick zum ersten einbau und testlauf.

muss sagen das es bis jetzt die schönste grafikkarte war die ich jemals hatte (und das waren einige...)

lüfter ist angenehm leise, meine system lüfter sind da deutlich lauter!

zudem ist es die erste grafikkarte die 3dmark11 wirklich flüssig darstellen kann, gefühlt doppelt so schnell wie eine 7970 coooool ;) :freak:

erst 3x 3dmark11 laufen lassen, hab auch noch keine andere software auf dem system, karte läuft auch mit 1188MHz durch, bei 1206MHz
bleibt er im 4. test stehen / treiber fehler jedoch keine bildfehler und beim speicher takt von 1750MHz hab ich etwas weniger punkte als bei 1700MHz


das wars vom mars fürs erste :wink:

Telema
2012-05-15, 11:11:41
Eine 690er ist gerade gekommen und die zweite kommt auch noch heute ;) Vielleicht kann ich ja am Abend ein paar Bilder machen.

gleich 2??????????????

warum das?

Iruwen
2012-05-15, 11:30:19
Die einzigen denkbaren Antworten sind "weil's geht" oder "weil mehr als Quad-SLI nicht geht" :D

Blaire
2012-05-15, 13:51:57
Test: 2x GeForce GTX 690 im Quad-SLI
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22506.html

dildo4u
2012-05-15, 14:01:24
V-Ram reicht sogar bis 5760*1080p 8XMSAA bei Crysis Warhead,BF3 macht bei der Auflösung auch keine Probleme.Perfekt von Nvidia kalkuliert.

Godmode
2012-05-15, 14:05:46
Test: 2x GeForce GTX 690 im Quad-SLI
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22506.html

Nice, dann brauch ich ja heute Abend gar nimmer benchen und kann D3 Zocken ;)

mironicus
2012-05-15, 17:33:17
Nice, dann brauch ich ja heute Abend gar nimmer benchen und kann D3 Zocken ;)

Für D3 reichen die beiden GTX 690 auch noch gerade. Die Systemanforderungen des Spiels sind ja geradezu gigantisch. :ulol5:

Hugo78
2012-05-15, 18:23:29
D3 mag ja mit 1000fps rennen, aber die 60 fps in BF3 in 5760*1080 4xMSAA sind schon nett.

Godmode
2012-05-15, 18:23:59
gleich 2??????????????

warum das?

siehe:
Die einzigen denkbaren Antworten sind "weil's geht" oder "weil mehr als Quad-SLI nicht geht" :D

Für D3 reichen die beiden GTX 690 auch noch gerade. Die Systemanforderungen des Spiels sind ja geradezu gigantisch. :ulol5:

War natürlich ironisch gemeint, dafür hab ich mir das nicht gekauft. :wink:

Telema
2012-05-15, 18:36:50
Also mich tät eine reizen...aber wegen Umzug und spontanen TV kauf ist jetzt kein Geld mehr da :(

Godmode
2012-05-15, 20:18:59
So hier die ersten Impressionen:

http://image-upload.de/image/8O2VCZ/de6e5937df.jpg

http://image-upload.de/image/qQ15i2/3e15f1655b.jpg

http://image-upload.de/image/ljejIC/ed2a89b862.jpg

Treiber hab ich den 301.40er genommen. Gab immer einen 3D Vision Error beim aktivieren, aber nach ein paar mal neustarten gings dann.

Muss mich jetzt erstmal wieder in die ganze SLI-Thematik einlesen...

Cubitus
2012-05-15, 20:22:36
So hier die ersten Impressionen:

http://image-upload.de/image/8O2VCZ/de6e5937df.jpg

http://image-upload.de/image/qQ15i2/3e15f1655b.jpg

http://image-upload.de/image/ljejIC/ed2a89b862.jpg

Treiber hab ich den 301.40er genommen. Gab immer einen 3D Vision Error beim aktivieren, aber nach ein paar mal neustarten gings dann.

Muss mich jetzt erstmal wieder in die ganze SLI-Thematik einlesen...

Die Karten sind ja richtig winzig im Vergleich zu meinen 480ern.
Naja bei SLI hat sich im Prinzip in den letzten Jahren nix verändert.

Viel Spaß mit den Karten :)

Godmode
2012-05-15, 20:59:36
Die Karten sind ja richtig winzig im Vergleich zu meinen 480ern.
Naja bei SLI hat sich im Prinzip in den letzten Jahren nix verändert.

Viel Spaß mit den Karten :)

Ja sind klein und fein, auch der Stromverbrauch hält sich in Grenzen.
Bis ich die ganzen Tools wieder beisammen hab dauert das schon und vor allem alles eingestellt ist. Hatte seit meinem 570 SLI keinen PC mehr nur Mac und da hat sich ja doch einiges getan IIRC. Also so wies für mich aussieht ist sogar einiges einfacher geworden. Naja mal sehn wie es mir mit dem Gespann geht, wenn es nichts ist, dann fliegt es halt wieder raus.

Danke den Spaß werde ich haben ;)

Spasstiger
2012-05-15, 21:48:51
Hier gibts auch einen Test von GTX 690 Quad-SLI:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22506-test-2x-geforce-gtx-690-im-quad-sli.html?start=1

Das Problem könnte dich vielleicht auch betreffen:
Auch wir hatten einige Probleme das Quad-SLI fehlerfrei zum Laufen zu bringen. Eigentlich sollte es ausreichen, die beiden Karten in das System zu packen und mit einer SLI-Bridge zu verbinden. Unsere Karten wollten aber über Stunden hinweg nur als 3-Way-SLI zusammenarbeiten. Eine von vier GPUs im Leerlauf zu belassen war für uns allerdings keine Alternative und versuchten wir verschiedenen Konfigurationen mit weiteren Grafikkarten im System, mit und ohne SLI-Bridge, sowie gut eine Handvoll Treiber. Nach einigen Stunden meldete die NVIDIA Systemsteuerung dann ein Quad-SLI und wir konnte mit den Messungen und Benchmarks loslegen.

Kann es eigentlich sein, dass du die SLI-Brücke nicht aufgesteckt hast?

Godmode
2012-05-15, 22:08:08
Hier gibts auch einen Test von GTX 690 Quad-SLI:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22506-test-2x-geforce-gtx-690-im-quad-sli.html?start=1

Das Problem könnte dich vielleicht auch betreffen:


Kann es eigentlich sein, dass du die SLI-Brücke nicht aufgesteckt hast?

Hab ich nur auf den Fotos nicht drauf. Ich hab die Karten eingebaut, den Treiber 301.40 installiert, SLI aktiviert und das wars auch schon. Quad-SLI ist ohne Probleme aktiviert worden.

Cubitus
2012-05-15, 22:46:32
Konnte nicht widerstehen und hab mir nun auch eine bestellt.
Ne Asus ist es geworden, verdammte Axt ich wollte doch sparen :freak: ;D

HarryHirsch
2012-05-15, 22:56:38
Ist aber auch ne chice Karte.

Godmode
2012-05-16, 09:04:29
Konnte nicht widerstehen und hab mir nun auch eine bestellt.
Ne Asus ist es geworden, verdammte Axt ich wollte doch sparen :freak: ;D

Hehe ;) willkommen in Club.

Die Performance ist einfach abartig, so was hab ich noch nie gesehn. Blöd das so viele Spiele nicht gut mit SSAA funktionieren, weil das wäre einfach eine schöne Lösung um 4 GPUs in die Knie zu zwingen...

Ist aber auch ne chice Karte.

Bis GK110 kommt ist sie gut genug und laut Thread soll der jetzt wirklich erst 2013 kommen.

Spasstiger
2012-05-16, 09:28:01
Schon krass, bei den Asus Mars hat hier meines Wissens nach nie einer zugeschlagen, aber die GTX 690 geht für 900€ weg. Ich rieche Verzweiflung bei den Enthusiasten.
Bin ja gespannt, wer als erstes eine Tesla K10 (2*4 GiB) statt einer GTX 690 kauft. :freak:

dargo
2012-05-16, 09:30:50
Schon krass, bei den Asus Mars hat hier meines Wissens nach nie einer zugeschlagen, aber die GTX 690 geht für 900€ weg. Ich rieche Verzweiflung bei den Enthusiasten.

So könnte man das auch nennen. ;D Ich checke nahezu jeden Tag die GTX680/670 Preise, aber die wollen einfach nicht auf ein angemessenes Niveau fallen. :(

Godmode
2012-05-16, 09:31:34
Schon krass, bei den Asus Mars hat hier meines Wissens nach nie einer zugeschlagen, aber die GTX 690 geht für 900€ weg. Ich rieche Verzweiflung bei den Enthusiasten.
Bin ja gespannt, wer als erstes eine Tesla K10 (2*4 GiB) statt einer GTX 690 kauft. :freak:

Verzweiflung ist das richtige Wort. Es gibt ja nichts besseres...
Wenn mir vor 3 Monaten wer gesagt hätte, dass mGPU Karten um 1.000 € kommen, hätte ich ihm den Vogel gezeigt.

Blaire
2012-05-16, 11:11:12
Entweder oder. :) Warten ist nervig, also alles richtig gemacht! Was für Temperaturen erreichst du denn maximal bei den Dingern? Was hast du bisher getestet an Games? Gibts irgendwo Probleme? :smile:

Godmode
2012-05-16, 12:36:12
Entweder oder. :) Warten ist nervig, also alles richtig gemacht! Was für Temperaturen erreichst du denn maximal bei den Dingern? Was hast du bisher getestet an Games? Gibts irgendwo Probleme? :smile:

Ich finde es war die richtige Entscheidung, weil GK110 erst viel später kommt.

Temperatur:
Gestern hatte ich 92° die Gehäusebelüftung muss ich erst noch optimieren. Die Dinger werden richtig laut, das schreit ja nach Wakü.

Probleme:
3DVision hat am Anfang nicht funktioniert, aber nach ein paar Restarts gings dann. Einen Absturz hatte ich in D3 mit Bluescreen, aber ich hab keine Ahnung was das war, könnte auch die CPU gewesen sein, da ich die nicht recht lange auf Stabilität getestet hab.

Bisher getestet:
Diablo3, Trine2, BF3, Mafia 2

Heute bekomme ich dann hoffentlich Downsampling hin, damit ich endlich richtig aufdrehn kann.

GPUs meist sehr gut ausgelastet laut MSI Afterburner (hab alles mit 3D Vision gespielt. Trine mit 4xSSAA und 3DV rockt einfach)

Was für Tools könnt ihr mir den noch so empfehlen, was braucht man unbedingt? NVInspector hab ich schon. Verwendet ihr das Downsamplingtool?

boxleitnerb
2012-05-16, 12:42:57
Sonst brauchst nix eigentlich. Das Downsamplingtool hat einige Bugs, Mauskoordinaten klappen nicht richtig mitunter. Du kannst es ja benutzen, bis DS per Treiber wieder bei dir geht mit doppelter Auflösung.

Dural
2012-05-16, 12:58:15
zeigt mal was eure karten OC mässig so machen, der rest interessiert (mich) nicht ;)

Godmode
2012-05-16, 13:18:54
Sonst brauchst nix eigentlich. Das Downsamplingtool hat einige Bugs, Mauskoordinaten klappen nicht richtig mitunter. Du kannst es ja benutzen, bis DS per Treiber wieder bei dir geht mit doppelter Auflösung.

Ich werds heute Abend mal testen.

zeigt mal was eure karten OC mässig so machen, der rest interessiert (mich) nicht ;)

Übertakte ich pro Karte oder pro GPU?

Dural
2012-05-17, 22:45:41
ich takte beide GPU immer gleich, ob es nötig ist weis ich nicht.

http://www.abload.de/img/picsart_1337287260566twuzh.jpg

1200/1750MHz

Iruwen
2012-05-18, 10:15:55
Wenn nicht dürfte sich das eher negativ auf die Mikroruckler auswirken oder nicht?

boxleitnerb
2012-05-18, 10:26:20
Lars Weinand hat beim Themenabend gesagt, das Framemetering kann das auffangen. Aber die Taktunterschiede beim Turbo sind eh so niedrig, das dürfte kaum auffallen. Die Skalierung leidet aber natürlich, und wenn es nur ein paar Prozent sind.

Cyv
2012-05-19, 13:41:23
Wegen euch juckts mich jetzt in den Fingern meine 2 6950 gegen die GTX690 zu tauschen... Hab nur Bedenken, dass ich im Januar/Februar 2013 mit dem GK110 was deutlich stärkeres bekomme :(

AnarchX
2012-05-19, 13:46:00
Im reinen FPS-Vergleich dürfte es wohl GK110 schwer gegen die GTX 690 haben.

Aber wenn du schon jetzt zwei Karten im System hast, warum kein GTX 670 SLI, welches ~200€ günstiger wäre?

Cyv
2012-05-19, 14:05:34
Weil ich keine halben Sachen mag. Wenn ich Geld in die Hand nehme, dann solls was ordentliches werden...die 690 überzeugt mich und scheinbar treten bei ihr weniger mikroruckler als bei einem normalen SLI auf.

//Trotzdem bin ich unentschlossen, vermutlich werde ich die Mehrleistung nur in BF3 merken, alles andere läuft ja ;) GW2 wird später vermutlich auch mit meinem 6950 CF laufen...

Scose
2012-05-19, 15:41:50
Ich bin von 3xGTX580 3GB auf 2xGTX680 (ohne Aufpreis) umgestiegen und bereue keine Sekunde. Der Grund gegen die GTX690 - Selbstschutz, so kann ich keine weitere Karte mehr einbauen da der Habenwolleneffekt bei der Karte imo extrem gross ist :).

Teilweise minimal weniger fps aber die Spielbarkeit gewinnt spürbar. Für mich ist MultiGPU mit mehr als 2GPUs definitiv gestorben ob mit FPS-Limiter oder ohne.

In Zukunft bitte solche Referenzdesigns bei SingleGPU.

Cyv
2012-05-19, 16:33:27
Kann ich zu einer 690 noch neb680 zustecken?

dildo4u
2012-05-19, 16:34:26
Nein.

Dural
2012-05-19, 21:49:02
theoretisch schon, dank boost müssen die GPUs ja jetzt auch im SLI mit unterschidlichen taktraten auskommen, müsste man mal testen.


ich hatte schon gedanken mir zur 690 noch eine 680 rein zuhauen, für PhysX ;)

aber eine 660 dürfte für das auch locker ausreichen :)

Cyv
2012-05-19, 23:53:42
Wie empfindet ihr die Lautstärke der Karte? Mir ist klar, dass ein Multigpu-Setup nicht leise ist, meins höre ich ja auch ;)

Godmode
2012-05-20, 09:00:56
Wie empfindet ihr die Lautstärke der Karte? Mir ist klar, dass ein Multigpu-Setup nicht leise ist, meins höre ich ja auch ;)

Also bei mir wird's furchtbar laut, aber mit geschlossenem Headset kein Problem ;)

Cubitus
2012-05-20, 09:42:16
Also im Gegensatz zu den zwei 480 GTX, ist die 690er erheblich leiser.
Meine ist übrigens am Freitag eingetroffen.

Rein technisch gesehen glaube ich auch das 3 Way möglich wäre..

http://www.abload.de/img/img_0185ciuqg.jpg (http://www.abload.de/image.php?img=img_0185ciuqg.jpg)

http://www.abload.de/img/img_0186icuzg.jpg (http://www.abload.de/image.php?img=img_0186icuzg.jpg)

http://www.abload.de/img/img_01889quis.jpg (http://www.abload.de/image.php?img=img_01889quis.jpg)

http://www.abload.de/img/img_019183u8h.jpg (http://www.abload.de/image.php?img=img_019183u8h.jpg)

http://www.abload.de/img/img_0196cju1o.jpg (http://www.abload.de/image.php?img=img_0196cju1o.jpg)

Godmode
2012-05-20, 19:15:52
Also im Gegensatz zu den zwei 480 GTX, ist die 690er erheblich leiser.
Meine ist übrigens am Freitag eingetroffen.

Rein technisch gesehen glaube ich auch das 3 Way möglich wäre..

http://www.abload.de/img/img_0185ciuqg.jpg (http://www.abload.de/image.php?img=img_0185ciuqg.jpg)

http://www.abload.de/img/img_0186icuzg.jpg (http://www.abload.de/image.php?img=img_0186icuzg.jpg)

http://www.abload.de/img/img_01889quis.jpg (http://www.abload.de/image.php?img=img_01889quis.jpg)

http://www.abload.de/img/img_019183u8h.jpg (http://www.abload.de/image.php?img=img_019183u8h.jpg)

http://www.abload.de/img/img_0196cju1o.jpg (http://www.abload.de/image.php?img=img_0196cju1o.jpg)


Sie sind leiser als mein GTX570 SLI und das ist gut so, wenn man bedenkt das jetzt 4 GPUs am werkeln sind.

robbitop
2012-05-21, 09:11:44
Wenn Q-SLI funktioniert und die FPS mal in den 30...40er Bereich rutschen (SSAA, DS, SSAO etc) muss der Lag und die µRuckler ja übel sein...

Godmode
2012-05-21, 12:58:35
Wenn Q-SLI funktioniert und die FPS mal in den 30...40er Bereich rutschen (SSAA, DS, SSAO etc) muss der Lag und die µRuckler ja übel sein...

Da will ich normalerweise eh nicht hin. Settings halt so wählen das das selten passiert. Ohne 3D Vision will ich mehr als 60 FPS, erst ab 60 finde ich es flüssig genug. Hab leider noch nicht viel getestet, da ich erstmal mit D3 beschäftig bin. Ich hoffe auf einen neue Treiber damit 2xDS wieder funktioniert, die Karten langweilen sich.

DS + 3D wäre halt toll, aber das geht leider nicht.

Godmode
2012-05-23, 12:24:42
zeigt mal was eure karten OC mässig so machen, der rest interessiert (mich) nicht ;)

Hab gestern mal 150+ im Afterburner eingestellt und es hat funktioniert. Powertarget hab ich auf 110% gestellt.

Duplex
2012-06-03, 14:48:41
Hab seit gestern auch die 690 GTX

http://www.abload.de/thumb/20120603_123003uw85t.jpg (http://www.abload.de/image.php?img=20120603_123003uw85t.jpg)

+150 GPU ist kein Problem.

Ich spiele in FullHD mit 4AA, 16AF, gegenüber meine 580GTX in BF3 ein Traum.

Hab für die Karte 877 bezahlt und zusätzlich bekomm ich die MwSt Geschenk :D

Cubitus
2012-06-03, 15:11:36
Jo die Karten sind doch nicht so schlecht zu oc wie angenommen. 150+ GPU sind schon möglich allerdings habe ich sehr viele stabilitäts Tests durchgefuhrt. Also richtig stabil ist die Karte bei diesr Einstellung nicht. Just cause 2 z.b reagiert mit sgssaa sehr empfindlich. Auch der neue pla Benchmark Ist nicht ohne. Rockstable ist die Karte erst mit 138+

aufkrawall
2012-06-03, 15:12:54
Wie findet ihr eigentlich die Bildfolge bei konstanten 60fps mit Vsync?
Müsste doch eigentlich genau so weich sein wie mit Single-GPU, da die fps genau so rausgegeben werden, wie es der Monitor für 60Hz braucht.

Cubitus
2012-06-03, 15:43:40
Jo, klappt auch wie es soll, ohne Limiter etc.

Hier mal die Frametimes von MP3@60FPS+Vsync mit 2Way-SLI

Frame Time (ms)
0.000 0
15.985 15.985
32.586 16.601
50.209 17.623
66.760 16.551
82.416 15.656
99.080 16.664
116.550 17.470
133.399 16.849
149.723 16.324
166.497 16.774
182.971 16.474
199.653 16.682
216.161 16.508
232.748 16.587
250.390 17.642
265.973 15.583
283.342 17.369
299.432 16.090
316.822 17.390
333.385 16.563
349.899 16.514
366.815 16.916
383.230 16.415
400.235 17.005
416.571 16.336
433.585 17.014
450.575 16.990
466.133 15.558
484.476 18.343
499.346 14.870
517.322 17.976
533.586 16.264
550.555 16.969
567.041 16.486
583.636 16.595
600.490 16.854
616.575 16.085
633.308 16.733
650.903 17.595
667.299 16.396
683.264 15.965
699.905 16.641
717.151 17.246
734.139 16.988
750.363 16.224
766.954 16.591
783.782 16.828
800.210 16.428

und ne schnell erstellte Grafik dazu.

http://www.abload.de/thumb/microsoftexcel-maxpaybs72y.jpg (http://www.abload.de/image.php?img=microsoftexcel-maxpaybs72y.jpg)

Also wie man sieht alles im "flüssigen" Bereich :)

Wäre interessant mal die Framtimes mit QuadSLI zu sehen

aufkrawall
2012-06-03, 15:53:32
Besser liefe es mit Single-GPU sicherlich auch nicht.
Vielleicht ist SLI ja doch gar nicht so übel? :D

Godmode
2012-06-03, 16:07:20
Jo, klappt auch wie es soll, ohne Limiter etc.

Hier mal die Frametimes von MP3@60FPS+Vsync mit 2Way-SLI

Frame Time (ms)
0.000 0
15.985 15.985
32.586 16.601
50.209 17.623
66.760 16.551
82.416 15.656
99.080 16.664
116.550 17.470
133.399 16.849
149.723 16.324
166.497 16.774
182.971 16.474
199.653 16.682
216.161 16.508
232.748 16.587
250.390 17.642
265.973 15.583
283.342 17.369
299.432 16.090
316.822 17.390
333.385 16.563
349.899 16.514
366.815 16.916
383.230 16.415
400.235 17.005
416.571 16.336
433.585 17.014
450.575 16.990
466.133 15.558
484.476 18.343
499.346 14.870
517.322 17.976
533.586 16.264
550.555 16.969
567.041 16.486
583.636 16.595
600.490 16.854
616.575 16.085
633.308 16.733
650.903 17.595
667.299 16.396
683.264 15.965
699.905 16.641
717.151 17.246
734.139 16.988
750.363 16.224
766.954 16.591
783.782 16.828
800.210 16.428

und ne schnell erstellte Grafik dazu.

http://www.abload.de/thumb/microsoftexcel-maxpaybs72y.jpg (http://www.abload.de/image.php?img=microsoftexcel-maxpaybs72y.jpg)

Also wie man sieht alles im "flüssigen" Bereich :)

Wäre interessant mal die Framtimes mit QuadSLI zu sehen



Wenn du mir sagst wie das geht, kann ich es machen.

Cubitus
2012-06-03, 16:37:12
Wenn du mir sagst wie das geht, kann ich es machen.

Hi :)

Im Prinzip brauchen wir nur die Framtimes!
Dafür reicht Fraps:

http://www.abload.de/img/3dcenterforum-antwortvo7di.jpg (http://www.abload.de/image.php?img=3dcenterforum-antwortvo7di.jpg)

Bei Benchmark-Framtimes auswählen, und Benchmark nach 5 Sekunden stoppen. Mit F11 Benchmark starten. Eine Szene in Max Payne mit 60 FPS+Vsync, am besten drehst du dich mit deiner Figur einmal im Kreis! Das Ergebnis ist ein .csv File. Dies bräuchte ich für ein Diagramm. :)

Besser liefe es mit Single-GPU sicherlich auch nicht.
Vielleicht ist SLI ja doch gar nicht so übel? :D

Zumindest wird das MR-Gegenargument ziemlich entkräftet! :D

aufkrawall
2012-06-03, 17:08:02
Zumindest wird das MR-Gegenargument ziemlich entkräftet! :D
Und wo Vsync zu viel Input-Lag erzeugt, braucht man ohne eh meist +100fps, wo MR auch nicht mehr auftreten.
Konstante 60fps sollten doch mit SLI meist drin sein.
Auch bei Single-GPU ruckelt es mit weniger, nur halt nicht so stark.

Cubitus
2012-06-03, 18:43:42
Und wo Vsync zu viel Input-Lag erzeugt, braucht man ohne eh meist +100fps, wo MR auch nicht mehr auftreten.
Konstante 60fps sollten doch mit SLI meist drin sein.
Auch bei Single-GPU ruckelt es mit weniger, nur halt nicht so stark.

Jo, ganz genau :)

Hier Werte mit Quad SLI, identisches Ergebnis!
DANKE an GODMODE!

Frame, Time (ms)
0.000 0
15.551 15.551
32.870 17.319
49.552 16.682
66.418 16.866
82.774 16.356
99.397 16.623
115.962 16.565
133.415 17.453
148.580 15.165
165.474 16.894
182.881 17.407
199.711 16.830
215.477 15.766
232.698 17.221
248.609 15.911
266.792 18.183
282.621 15.829
299.701 17.080
315.529 15.828
332.757 17.228
348.427 15.670
365.823 17.396
383.319 17.496
399.432 16.113
415.637 16.205
432.433 16.796
448.460 16.027
467.090 18.630
482.431 15.341
498.629 16.198
515.972 17.343
532.456 16.484
548.647 16.191
565.707 17.060
582.613 16.906
599.833 17.220
615.520 15.687
632.836 17.316
648.702 15.866
666.617 17.915
682.624 16.007
699.450 16.826
715.626 16.176
734.040 18.414
748.942 14.902
765.598 16.656
782.946 17.348
799.808 16.862
815.468 15.660
832.831 17.363
848.770 15.939
866.875 18.105
882.867 15.992
898.608 15.741
915.669 17.061
933.559 17.890
948.798 15.239
965.549 16.751

http://www.abload.de/thumb/microsoftexcel-maxpay8vda1.jpg (http://www.abload.de/image.php?img=microsoftexcel-maxpay8vda1.jpg)

boxleitnerb
2012-06-03, 18:45:25
Naja, äh, 60fps mit Quad-SLI ist ja wohl ein astreines CPU-Limit. Dass es da nicht mikroruckelt, ist klar.

aufkrawall
2012-06-03, 18:48:00
Naja, äh, 60fps mit Quad-SLI ist ja wohl ein astreines CPU-Limit. Dass es da nicht mikroruckelt, ist klar.
Die fps-Ausgabe ist mit der Monitorrefreshrate synchronisiert.
Wie kann es da zu MR kommen, wenn die 60fps gehalten werden?

boxleitnerb
2012-06-03, 18:54:23
Ich weiß nur, dass

a) im CPU-Limit MR stark vermindert oder gar eliminiert sind
b) VSync keinen definitiven Einfluss auf MR hat. Kann besser/schlechter werden oder gleich bleiben

Außerdem nimm mal an, dass du bei 60fps (16ms) ne Kadenz von 4-12-4-12 hast. Du kannst einzelne fps nur verzögern, nicht beschleunigen. Wie soll da was Gleichmäßiges rauskommen, ohne dass das Timing in Verbindung mit der Spieleengine total kaputtgeht?

aufkrawall
2012-06-03, 18:58:42
b) VSync keinen definitiven Einfluss auf MR hat. Kann besser/schlechter werden oder gleich bleiben

Hast du das mal mit konstanten 60fps getestet?
Hm, bei 30fps sollte es ja genau so sein.
Könntest du das mal testen? Man kann ja mit den neuen Vsync-Modi bei Nvidia auf die Hälfte der Refreshrate gehen.


Außerdem nimm mal an, dass du bei 60fps (16ms) ne Kadenz von 4-12-4-12 hast. Du kannst einzelne fps nur verzögern, nicht beschleunigen. Wie soll da was Gleichmäßiges rauskommen, ohne dass das Timing in Verbindung mit der Spieleengine total kaputtgeht?
Hm, hätte man das Problem nicht auch mit Single-GPU?

boxleitnerb
2012-06-03, 19:04:13
Also VSync 60Hz, VSync 1/2 60Hz und Vsync aus? Kann ich mal testen, ja. MP3 kann ich leider nicht benchen, weil ich ne Version habe, in der fraps und co nicht gehen. Serious Sam 3 vielleicht?

Zum Zweiten noch eine Anmerkung:
fps Limiter macht aus 30 mikroruckelnden fps 30 glatte fps...wie? Ich hab das damals bei Mafia 2 getestet und weiß bis heute nicht, wie der das macht. Zusätzlicher Inputlag?

aufkrawall
2012-06-03, 19:12:38
Kann ich mal testen, ja. MP3 kann ich leider nicht benchen, weil ich ne Version habe, in der fraps und co nicht gehen. Serious Sam 3 vielleicht?

Ist ja im Grunde egal, so lange die min-fps nie unter den Wert gehen. :)


Zum Zweiten noch eine Anmerkung:
fps Limiter macht aus 30 mikroruckelnden fps 30 glatte fps...wie? Ich hab das damals bei Mafia 2 getestet und weiß bis heute nicht, wie der das macht. Zusätzlicher Inputlag?
Keine Ahnung. :(
Ich probier jetzt mal OC_burners Juddertest (http://www.oc-burner.de/ftp/Videos/juddertest/juddertest.html) mit und ohne Vsync, ob es ohne Vsync bei passender fps-Rate im Gegensatz zu mit Vsync nicht doch ruckelt.

boxleitnerb
2012-06-03, 19:52:34
99% GPU usage, ziemlich genau 60fps getroffen, leicht darüber. Links VSync off, rechts VSync on:
http://www.abload.de/thumb/60fpsvsyncoffdnuuc.png (http://www.abload.de/image.php?img=60fpsvsyncoffdnuuc.png) http://www.abload.de/thumb/60fpsvsyncon7b7ky.png (http://www.abload.de/image.php?img=60fpsvsyncon7b7ky.png)

Also solange die fps über der Hertzzahl liegen, glättet VSync tatsächlich. Aber unterhalb bringts gar nichts. Ich hab bisher immer nur unterhalb von 60fps untersucht, weil ich so hohe BQ-Einstellungen fahre. VSync/2 spielt sich fürchterlich, und das nicht nur, weil es 30fps sind. Die Frametimes sehen glatt aus, aber es ist brutal zäh und hakelig.

Cubitus
2012-06-03, 20:09:54
Das mit 60 FPS und Vsync ist eine Sache!

Also mir geht es primär nur darum zu zeigen das die 690er von Haus aus gut MR glätten kann und das Profil von Nvidia zu gebrauchen ist.
Ich kann MP3 ebenfalls ans GPU Limit und an die 30 FPS prügeln, kein Thema. Ohne Vsync.


0.000 0
30.792 30.792 Frames Min, Max, Avg
63.673 32.881 41 28, 35, 31.000
95.105 31.432
128.195 33.090
159.253 31.058
192.483 33.230
223.565 31.082
256.990 33.425
287.424 30.434
321.722 34.298
351.736 30.014
385.852 34.116
416.628 30.776
450.259 33.631
481.584 31.325
514.313 32.729
546.107 31.794
577.820 31.713
610.724 32.904
642.973 32.249
674.620 31.647
708.336 33.716
739.227 30.891
773.274 34.047
805.298 32.024
837.940 32.642
869.361 31.421
903.576 34.215
933.854 30.278
969.796 35.942
999.893 30.097
1.033.473 33.580
1.066.054 32.581
1.100.199 34.145
1.131.313 31.114
1.165.774 34.461
1.196.589 30.815
1.230.694 34.105
1.261.425 30.731

http://www.abload.de/thumb/microsoftexcel-maxpayy8fae.jpg (http://www.abload.de/image.php?img=microsoftexcel-maxpayy8fae.jpg)

Die Werte sind immer noch sehr gut!

robbitop
2012-06-04, 08:52:31
Selbst wenn man die Frames perfekt auf der Zeitachse durch deren Verzögerung in der Darstellung erreicht, so ist der Zeitpunkt in dem die CPU sie rendert der gleiche. Also mit Kadenz. Ein Bewegungsablauf müsste dennoch juddern. Schließlich ist der timestamp der Geometrie die zu rendern ist immernoch Kadenzbehaftet.
Man müsste schon die gesamte "Pipeline" synchron halten. Also vom Begin der Berechnung bei der CPU bis zur Ausgabe in den Framebuffer.

Das sind alles nur Krücken...

Duplex
2012-06-04, 20:20:39
Hat jemand vergleiche von Heaven 3.0 in FullHD mit 4AA, 16AF, Tess. Extreme ?

http://www.abload.de/thumb/690gtxheaven3.0pz8ma.jpg (http://www.abload.de/image.php?img=690gtxheaven3.0pz8ma.jpg)

aufkrawall
2012-06-04, 20:28:23
99% GPU usage, ziemlich genau 60fps getroffen, leicht darüber. Links VSync off, rechts VSync on:
http://www.abload.de/thumb/60fpsvsyncoffdnuuc.png (http://www.abload.de/image.php?img=60fpsvsyncoffdnuuc.png) http://www.abload.de/thumb/60fpsvsyncon7b7ky.png (http://www.abload.de/image.php?img=60fpsvsyncon7b7ky.png)

Also solange die fps über der Hertzzahl liegen, glättet VSync tatsächlich. Aber unterhalb bringts gar nichts. Ich hab bisher immer nur unterhalb von 60fps untersucht, weil ich so hohe BQ-Einstellungen fahre. VSync/2 spielt sich fürchterlich, und das nicht nur, weil es 30fps sind. Die Frametimes sehen glatt aus, aber es ist brutal zäh und hakelig.
Super, solche Tests sind immer extremst interessant. :)

Godmode
2012-06-04, 22:05:35
Hat jemand vergleiche von Heaven 3.0 in FullHD mit 4AA, 16AF, Tess. Extreme ?

http://www.abload.de/thumb/690gtxheaven3.0pz8ma.jpg (http://www.abload.de/image.php?img=690gtxheaven3.0pz8ma.jpg)

Ich mach dir vielleicht heute noch einen Bench, sonst morgen.

edit: Bitte sehr:
http://www.abload.de/thumb/heaven690x2fullhd4xaay2jq8.png (http://www.abload.de/image.php?img=heaven690x2fullhd4xaay2jq8.png)

Gleiche Minfps wie du, könnte am CPU Limit liegen.

edit2:
Hab gestern leider nur mit 4xAF gebencht.

Jetzt mit 16xAF und richtigem CPU-Takt. Hab den vor ein paar Tagen mal abgesenkt, da ich wegen meinen TDRs schon die CPU in Verdacht hatte.

http://www.abload.de/thumb/desktop_2012_06_05_182tgdq.png (http://www.abload.de/image.php?img=desktop_2012_06_05_182tgdq.png)

Duplex
2012-07-01, 01:34:19
Hab seit paar Tagen Probleme mit meiner GTX690 "Lüfter"
Sobald der Rechner an ist dreht der Lüfter der Karte bis zum Anschlag auf, selbst unter Windows bleibt der Lüfter auf volle Drehzal, hab die Treiber gelöscht und neue installiert, hat nichts gebracht, hat jemand bisher sowas ähnliches gehabt?
Ich hab keine lust extra die Karte wegen so ein Problem einzuschicken, bisher hatte ich bei Nvidia noch nie so ein Problem, man bedenke was so eine Karte heute kostet...

Screen von der Karte

http://www.abload.de/img/nvidia_20120701_01412njynq.png

Cyv
2012-07-01, 01:46:07
Hab seit paar Tagen Probleme mit meinem GTX690 "Lüfter"
Sobald der Rechner an ist dreht der Lüfter der Karte bis zum Anschlag auf, selbst unter Windows bleibt der Lüfter auf volle Drehzal, hab die Treiber gelöscht und neue installiert, hat nichts gebracht, hat jemand bisher sowas ähnliches gehabt?
Ich hab keine lust extra die Karte wegen so ein Problem einzuschicken, bisher hatte ich bei Nvidia noch nie so ein Problem, man bedenke was so eine Karte heute kostet...

Kommt mal vor, dass HW-mäßig die Lüftersteuerung abraucht. Dann geht nur noch 100% oder 0% aber das endscheidet dann die lüftersteuerung... Ist mir 2x mit einer "early-adopters"-karte passiert... Da ging die eine nur noch 100%, bei der anderen lief der Lüfter nicht mehr an...

Skysnake
2012-07-01, 09:25:00
Dann würde ich sicherheitshalber doch einschicken, man weiß ja nie, ob da nicht noch was nachkommt. :(

Schade um die Karte

Duplex
2012-07-01, 14:19:34
Treiber gewechselt hat nichts gebracht
Windows neu auch nicht
Mainboard Bios auch nicht
Im anderen PCIe Slot auch nicht

Dann werde ich wohl die Karte zum Händler zurückschicken.

Trotzdem danke!

Duplex
2012-07-01, 19:16:00
Und plötzlich ist die Karte wieder leise

http://www7.pic-upload.de/thumb/01.07.12/l2axph7faej.png (http://www.pic-upload.de/view-14926499/nvidia_20120701_190524.png.html)

Ich hab garnichts gemacht...
Wer weiß wie lange es dauert bis die wieder aufdreht, das hat nichts mit Treiber oder Tools zu tun.

Godmode
2012-07-01, 21:35:45
Und plötzlich ist die Karte wieder leise

http://www7.pic-upload.de/thumb/01.07.12/l2axph7faej.png (http://www.pic-upload.de/view-14926499/nvidia_20120701_190524.png.html)

Ich hab garnichts gemacht...
Wer weiß wie lange es dauert bis die wieder aufdreht, das hat nichts mit Treiber oder Tools zu tun.

Komisch... keine meine Karte hat das, dürfte also wirklich ein Defekt sein.

Niall
2012-07-01, 22:26:10
Und plötzlich ist die Karte wieder leise

http://www7.pic-upload.de/thumb/01.07.12/l2axph7faej.png (http://www.pic-upload.de/view-14926499/nvidia_20120701_190524.png.html)

Ich hab garnichts gemacht...
Wer weiß wie lange es dauert bis die wieder aufdreht, das hat nichts mit Treiber oder Tools zu tun.

Hast du mal geschaut ob der Stecker des Lüfters fest sitzt?
Hatte ich mal bei einer 580er Stock, der Stecker war lose und
wenn der Pol für die Steuerung keinen Kontakt hat, dreht der
Lüfter auf Vollgas. Nachdem ich den Stecker festdrückte war alles gut. :)

Duplex
2012-07-01, 23:18:06
Nein ich habe an der Karte nichts gemacht, der Stecker des Lüfters sitzt denke ich mal im PCB unter den Kühler, der Kühler wird wegen der Garantie nicht demontiert! Das akzeptiere ich bei der Preisklasse einfach nicht, die Karte geht demnächst zurück zum Händler, das ist das sinnvollste!

Skysnake
2012-07-01, 23:40:41
definitiv. Würde ich auch so machen.

Pentium M
2012-07-02, 00:03:04
Ein Gold Member überrascht der LÜFTER einer GTX 690 .Einfach lächerlich.

Duplex
2012-07-02, 00:14:05
Problem erstmal beseitigt

Niall (http://www.forum-3dcenter.org/vbulletin/member.php?u=15989) hat recht, es lag am Stecker, ich hab nichts demontiert, aber auf dem PCB wo der stecker angelötet ist hab ich mit 2 Händen etwas angedrückt http://www7.pic-upload.de/02.07.12/irh6j6c6ruaf.jpg, in diesem Bild http://www7.pic-upload.de/02.07.12/pshtku31evu8.jpg kann man erkennen wo der Lüfter-Anschluss & LED sein platz hat, jetzt ist die Karte leise und ich kann den Lüfter wieder manuell im Afterburner regulieren http://www10.pic-upload.de/02.07.12/zflxpr4i9pju.jpg

Da die Karte sowieso auf Wasserkühlung umgebaut werden sollte und es aussieht das der Lüfterkabel schuld ist werde ich die Karte doch behalten, falls die Karte wieder auf Luft umgebaut wird kann ich den Stecker richtig anschließen :)

Danke

@Pentium M
Es geht ums Prinzip, das teil muss ohne Probleme laufen, falls ich die Karte z.b. verkaufe kann ich ja nicht sagen die hat so ein Mangel, wenn sich sowas nicht beseitigen lässt geht das einfach zurück zum Hersteller (vorrausgesetzt die Karte wurde nicht demontiert, um die Laustärke gehts mir eig. nicht, ich möchte keine Karte mit Mängel.)

Pentium M
2012-07-02, 00:23:49
GTX 690 bedeutet Hardeware an der Grenze .Die Frage ist gehst du an die Grenze .Und bist du bereit dein Konto deswegen zu belasten.

Iruwen
2012-07-02, 00:36:14
Und was genau hat das damit zu tun ob die Karte schlicht und ergreifend in Ordnung ist oder nicht? Wenn irgendwelche Kontakte schon von Anfang an am Sack sind, wer weiß ob die nicht noch einen weg hat. Gerade bei solchen Umbauten an hochpreisiger Hardware würde ich sichergehen dass die Basis top ist.

Godmode
2012-07-02, 16:26:26
GTX 690 bedeutet Hardeware an der Grenze .Die Frage ist gehst du an die Grenze .Und bist du bereit dein Konto deswegen zu belasten.

Ließ bitte sein Posting genau. Er schrieb ja das die Karte am Anfang in Ordnung war und das mit dem Lüfter erst später aufgetreten ist.

ps: Leerzeichen macht man nach einem Punkt und nicht vorher.

Niall
2012-08-01, 00:16:27
GTX 690 bedeutet Hardeware an der Grenze .Die Frage ist gehst du an die Grenze .Und bist du bereit dein Konto deswegen zu belasten.

Papperlapapp, die 690 ist laut einigen Reviews ein sehr durchdachtes Teil – das ist keine »Hardware an der Grenze«. Stinknormale Ultra-High-End Consumer GeForce. Feddisch.

-=Popeye=-
2012-08-23, 22:24:34
Ich hab mir gestern auch so ein Schätzchen bestellt mal sehen wann sie hier eintrudelt. :biggrin:

Raff
2012-08-23, 22:25:29
Hau Matsch?

Für 500 €uro nehme ich auch eine zum Herumspielen. :ugly:

MfG,
Raff

-=Popeye=-
2012-08-23, 22:34:52
Ja 970,-T€uro sind schon fett aber was solls.:D

Blaire
2012-09-05, 22:25:00
Für 500 €uro nehme ich auch eine zum Herumspielen. :ugly:


Zeit wirds :D Gerade was Multi-GPU betrifft, da hängt ihr bei PCGH immer noch ziemlich nach, man hat das Gefühl es gäbe nur Single-GPUs bei euch. :freak:

Raff
2012-09-05, 22:40:21
PCGH hängt nach, weil die IHVs nachhängen.

MfG,
Raff

Blaire
2012-09-05, 23:05:31
PCGH hängt nach, weil die IHVs nachhängen.

Dabei würden sich eure Benchmark-Tests sehr gut anbieten für Frametimes-Messungen, habt ihr an sowas schonmal gedacht?

TobiWahnKenobi
2012-09-06, 10:59:38
ganz ohne messung weiss ich, dass sich etwas verbessert hat.. denn sonst würde ich rumnörgeln..

der beste side-effect an der GTX690 ist, dass ich jetzt offiziell die freigabe meiner besseren hälfte habe, mir immer 1000€ karten zu kaufen. ich musste seit GTX690 überhaupt nicht mehr basteln, mit lüftern und wasser spielen oder haareraufend unterm tisch vor nem offenen case sitzen.

dieses "durchdachte" stück hardware finde ich einfach nur hervorragend! top.. ähm.. *kopfkratz* habs nicht so mit positiven superlativen. das mistding hat mich überrascht und ich hab besseres bekommen als ich mir je vorgestellt hätte. eigentlich müsste man einen rahmen drumrum machen, denn auf elektronik-spielzeug, wo es mir hinterher nicht irgendwie um das geld leid tut, treffe ich äußerst selten; und ich bin schon 28 jahre "dabei" :-)


(..)

mfg
tobi

Godmode
2012-09-06, 12:04:48
ganz ohne messung weiss ich, dass sich etwas verbessert hat.. denn sonst würde ich rumnörgeln..

der beste side-effect an der GTX690 ist, dass ich jetzt offiziell die freigabe meiner besseren hälfte habe, mir immer 1000€ karten zu kaufen. ich musste seit GTX690 überhaupt nicht mehr basteln, mit lüftern und wasser spielen oder haareraufend unterm tisch vor nem offenen case sitzen.

dieses "durchdachte" stück hardware finde ich einfach nur hervorragend! top.. ähm.. *kopfkratz* habs nicht so mit positiven superlativen. das mistding hat mich überrascht und ich hab besseres bekommen als ich mir je vorgestellt hätte. eigentlich müsste man einen rahmen drumrum machen, denn auf elektronik-spielzeug, wo es mir hinterher nicht irgendwie um das geld leid tut, treffe ich äußerst selten; und ich bin schon 28 jahre "dabei" :-)


(..)

mfg
tobi

Das kann ich so zu 100% unterschreiben. Es wäre schön wenn es auch in Zukunft solche Produkte geben würde, aber IMO ist das jetzt ein Einzelfall, da der GK104 relativ klein ist und die High-End Variante GK110 noch nicht vorgestellt wurde.

Iruwen
2012-09-06, 12:36:39
Ich glaub nicht dass die die Frametimes bei späteren MGPU Karten wieder verschlechtern, sie hatten ja mangels Konkurrenz gar keinen Druck das zu optimieren und haben es trotzdem getan, evtl. sogar zu Lasten der reinen FPS.

Godmode
2012-09-06, 13:23:59
Ich glaub nicht dass die die Frametimes bei späteren MGPU Karten wieder verschlechtern, sie hatten ja mangels Konkurrenz gar keinen Druck das zu optimieren und haben es trotzdem getan, evtl. sogar zu Lasten der reinen FPS.

Nein ich hab das eher auf die Kühlung bezogen und nicht auf die Frametimes. Zwei Performance GPUs auf einer Platine kann ich fast genau so hoch Takten wie auf einer Single-GPU Karte. Zwei 500mm Monster muss ich hingegen runtertakten und Strom wird so eine Karte trotzdem noch extrem viel verbrauchen, was wiederum in einer lauteren Karte resultiert.

-=Popeye=-
2012-09-06, 20:33:06
Da will ich auch mal meinen Senf zur GTX690 abgeben.

Ich hab meine jetzt schon ein paar Tage und kann mal abgesehen vom Preis (975,- inkl. Versand) auch nichts negatives berichten, das Teil liefert deutlich mehr Performance als mein vorheriges 570er Gespann und ist dabei auch noch leiser und vor allem sparsamer. Top Karte gepaart mit edlem Design und Super Verarbeitung.

M4xw0lf
2013-03-19, 08:01:49
Abgefahrener Hardware-Hack: http://www.eevblog.com/forum/projects/hacking-nvidia-cards-into-their-professional-counterparts/
Da hat jemand offenbar aus einer der GPUs der GTX690 eine Quadro K5000 gezaubert.
Ein paar Widerstände austauschen ist alles was es braucht ^^

https://files.spacevs.com/gtx%20690%20mod.jpg

Knuddelbearli
2013-03-19, 08:34:45
wenn das jemand professionell machen würde könnte Nv dagegen vorgehen?

Skysnake
2013-03-19, 08:42:13
Jetzt sollte das nur noch für die GTX Titan jemand heraus finden :D

eLw00d
2013-05-04, 01:42:36
Was macht eine durchschnittliche GTX 690 so an Takt mit?

Jetzt wo die Gebrauchtpreise langsam in humane Regionen fallen hätte ich Lust mir eine zu holen.

Angiesan
2013-05-04, 10:05:11
Also meine geht bis 1176 MHZ stabil unter Luft, was aber kein Vergnügen ist, da laut, ich habe das aber auch nur zum Benchen ausprobiert.

Ich übertakte nicht sondern gehe den umgekehrten Weg und untertakte. Meine Karte läuft zur Zeit in 3D immer mit 915 MHz auf beiden GPU´s und das mit 1,00 bis 1,012 Volt das ist schön leise und Leistung ist immer noch mehr wie genug da. Da komme ich so ganz nebenbei auf einen Stromverbrauch der auf dem Level meiner alten HD 7970 OC liegt, runde 310 Watt ist für die gebotene Leistung wirklich ein Ding, gemeint ist der ganze PC unter Vollgas:biggrin:. Ich würde wenn die Leistung im unübertakteten Zustand nicht reicht auf alle Fälle den Kühler wechseln, Wasser ist da sicher empfehlenswert alles andere wird eher grenzwertig sein, zumindest von der Lautstärke, aber da gibt es ja auch unterschiedliche Meinungen. Die GTX 690 ist mir selbst mit Standardtaktung zu laut und gefixt auf 915 MHZ ist der Unterschied eben schon sehr deutlich und der FPS Verlust ist nicht wirklich der Rede Wert, wenn er überhaupt merkbar ist.
In Crysis 3 z.B. ist es in GPU limitierten Bereichen maximal 3 FPS, damit kann ich gut leben:wink:

aufkrawall
2013-05-04, 10:14:49
Mal an der Lüfterkurve gedreht, wenn noch Raum bei der Temperatur ist?
Kann ja ruhig heiß werden.

Skysnake
2013-05-04, 10:20:08
Dann verbraucht die Karte aber mehr...

aufkrawall
2013-05-04, 10:46:45
Dann verbraucht die Karte aber mehr...
Wayne?
Meine 670s können offenbar ohne Probs 1270 Mhz bei 97°C halten.

eLw00d
2013-05-04, 19:39:41
Also meine geht bis 1176 MHZ stabil unter Luft, was aber kein Vergnügen ist, da laut, ich habe das aber auch nur zum Benchen ausprobiert.



Sehr schön, 1176 mhz sind garnicht mal so weit von meiner GTX 680 weg.

Ich setz meine Grafikkarten immer unter Wasser, auf Luftkühlung hatte ich noch nie Bock. ;)
Wenn 1200mhz drin wären mit WaKü wäre das ein Traum. Endlich so gut wie keine Performance-Probleme mehr im Triplehead. :)

Angiesan
2013-05-06, 19:34:26
Wenn Du wirklich vor hast eine zu kaufen und die unter Wasser zu betreiben, dann würde ich jetzt zuschlagen, es gibt schon seit ein paar Tagen die Koolance Kühler für unter 20 Euro im Ausverkauf, billiger wird das wohl nicht mehr, guckst Du da: http://www.idealo.de/preisvergleich/MainSearchProductCategory/100oC2829596907599.html?q=GTX+690

Ich habe auch mal einen bestellt obwohl ich nie unter Wasser gehen wollte ;-)

eLw00d
2013-05-08, 10:32:32
Das kann Ich nicht glauben.
Außerdem zeigt das Produktbild eine Schnellverschlusskupplung.

Hast du eine Bestätigung bekommen?

Angiesan
2013-05-10, 00:25:55
Ja die Bestätigung habe ich, aber noch nicht die Ware :wink:Mal sehen ob sie liefern. Und nein die Artikelbezeichnung und das Bild ist der Kühler selbst und nicht die Schnellkupplung.

Hier mal der original Text:

-------vielen Dank für Ihre Bestellung, welche wir über Amazon wie folgt erhalten haben.

Artikelnummer: 4957904206107

1 x Koolance VID-NX690 GeForce GTX 690 VGA Kühler


Die Zahlungsabwicklung findet direkt von Amazon.de statt. Sie haben über Amazon bereits Angaben zur Zahlart hinterlegt. Bitte überweisen Sie keine zusätzlichen Zahlungen an unser Unternehmen. --------

Grüße

Banshee18
2013-06-15, 00:26:27
Ich bin jetzt glücklicher Besitzer einer GTX690. Ein sehr flottes Kärtchen. Allerdings frage ich mich, warum alle von Mikrorucklern reden. Bei Frames im 30er-Bereich habe ich einen so starken Inputlag, dass er von den Mikrorucklern ablenkt, falls es welche gibt. :freak: Kann man dem irgendwie entgegenwirken?

HarryHirsch
2013-06-15, 00:37:22
Durch ändern des PreRenderlimits. Oder du setzt das smooth AFR behaviour flag auf null.
:freak:

aufkrawall
2013-06-15, 00:57:40
Ich bin jetzt glücklicher Besitzer einer GTX690. Ein sehr flottes Kärtchen. Allerdings frage ich mich, warum alle von Mikrorucklern reden. Bei Frames im 30er-Bereich habe ich einen so starken Inputlag, dass er von den Mikrorucklern ablenkt, falls es welche gibt. :freak: Kann man dem irgendwie entgegenwirken?
Prerendered frames 1, Adaptives Vsync + Smooth AFR behavior.