PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX 680 User-Reviews


gnomi
2012-03-25, 04:19:30
wäre nice:)


Systeme:
Intel I7 2600K @ 4Ghz
8 GB DDR 3 1333 Ram @ 9-9-9-24-1T
nvidia GTX 680 (Force Ware 301.10)
nvidia GTX 470 @800/1600/1800 (Force Ware 301.10 per gemod. Inf)
Windows 7 Home Premium 64Bit


Auflösung 1680*1050 (FFXIV 1280*720 Window)
Prerenderlimit 1
16*HQ AF über Treiber forciert


http://www.abload.de/img/gtx680benchmarksu5vb2.jpg


Der Performancezuwachs ist nicht so gigantisch wie erhofft, aber doch jederzeit spürbar.
Schwachstellen hat die Karte bis auf den zu hohen Preis (strenggenommen eben nur ein Performance Chip) eigentlich keine.
Die intelligente Taktung & Leistungsaufnahme gefällt mir persönlich sehr gut. Gleiches gilt für adaptives VSync und den Framelimiter. (beides geht aber ja auch ohne GTX 680)
Der Referenzkühler ist weitaus besser als die letzten Modelle.
Unter 2D ist die Lautstärke beinahe vorbildlich.
Unter 3D ist die Karte zwar hörbar, aber noch absolut im Rahmen.
Meinem Accelero Plus auf der alten GTX 470 kann das Ding aber natürlich nicht Paroli bieten. (bei VCore Ausreizung und 35% Übertaktung nahezu lautlos)
Spiele laufen bislang alle wie erwartet völlig problemlos.
Insgesamt lohnt es sich zumindest für Enthusiasten, die eben gerne das schnellste im PC haben möchten, um sorgenfrei mit bestmöglicher Performance zu spielen.

uweskw
2012-03-25, 18:13:44
@gnomi
sehr aufschlussreicher Benchmark für Aufrüster.
ca. 50-60% Performanceplus. Aber leider vorwiegend da wo es auch vorher schon super lief.
Dort wo es mit der 470er knapp wurde sinds nur noch ca.30% Steigerung. Und das bei 1600x1050.
Mich würde interessieren wie meine 570@900Mhz dagegen abschneidet. Aber leider hab ich die meisten der von Dir gebenchten Spiele nicht.

Greetz
U.S.

gnomi
2012-03-25, 21:25:01
@gnomi
sehr aufschlussreicher Benchmark für Aufrüster.
ca. 50-60% Performanceplus. Aber leider vorwiegend da wo es auch vorher schon super lief.
Dort wo es mit der 470er knapp wurde sinds nur noch ca.30% Steigerung. Und das bei 1600x1050.
Mich würde interessieren wie meine 570@900Mhz dagegen abschneidet. Aber leider hab ich die meisten der von Dir gebenchten Spiele nicht.

Greetz
U.S.


Die GTX 470 war jetzt aber auch schon auf GTX 480/GTX 570 Niveau getaktet. (für Deine Karte würde ich Reviews suchen und entsprechend GTX 680 mit 580 vergleichen)
Und bei anspruchsvollen Sachen bekommt man bereits in 1680*1050 schon etwa 50-80 Prozent raus. (Hard Reset, Lost Planet 2, Alien vs. Predator, Unigine, Dirt 3, Call of Juarez und Mafia 2 mit forciertem MSAA)
Ich habe leider keine Benchmarks, aber bei Spielen wie Battlefield 3, Skyrim, NFS The Run, Dragon Age DX11, Anno 2070 oder Crysis 2 DX 11 sieht es ähnlich aus.
In Full HD und mit mehr AA geht die Schere auch sicher noch auseinander.
Ich habe leider nur einen 22er (16:10) Monitor, aber ich kann auch hier sagen, daß die Spiele mit Downsampling oder TSSAA auch ganz andere Bildraten ausspucken.
Aber es stimmt schon, ein Metro 2033 müßte bspw. mehr profitieren, und auch die PhysX Ergebnisse bei Batman Arkham City machen einen jetzt nicht glücklich. (dafür ist die allgemeine DX 11 Performance hier mittlerweile ganz gut)

Banshee18
2012-03-26, 17:04:25
Hi gnomi,
gibst du bitte noch dein System an? "System siehe Profil" ist doof, falls du mal aufrüstest. Vielen Dank für den Bericht. :smile:

gnomi
2012-03-27, 10:25:21
Systeminfos habe ich hinzugefügt.
Hier noch die Ergebnisse aus meinem alten Benchmark Parcours.


Systeme:
Intel I7 2600K @ 4Ghz
8 GB DDR 3 1333 Ram @ 9-9-9-24-1T
Intel Core2Quad 6600 @ 3Ghz (333Mhz*9)
4GB DDR 2 Arbeitsspeicher (1066 Mhz, 5-5-5-18, 2T)
nvidia GTX 680 (Force Ware 301.10)
nvidia GTX 470 @800/1600/1800 (Force Ware 295.73/Battleforge 290.53)
nvidia GTX 260 (Force Ware 197.45)
nvidia GTX 470 (Force Ware 197.55)

Windows 7 Home Premium 64Bit

Auflösung 1680*1050 (FFXIV 1280*720 Window)
Prerenderlimit 1
16*HQ AF über Treiber forciert



http://www.abload.de/img/gtx680benchmarks20gyqy.jpg

Hugo78
2012-03-27, 12:21:26
Wozu Prerenderlimit 1?
Damit bekommt man iirc nie die Max. FPS.

Gast9t99
2012-03-27, 20:43:02
Insgesamt lohnt es sich zumindest für Enthusiasten, die eben gerne das schnellste im PC haben möchten, um sorgenfrei mit bestmöglicher Performance zu spielen.

Sorgenfrei mit bestmöglicher Performance ist genau das Stichwort, daß mich davon abhält mir momentan schon eine GTX680 auf den Wunschzettel zu setzen. ;(

Die aktuellen GTX680 haben allesamt nur 2x6 Pin Stromversorgung und sind -soweit ich informiert bin- alles von nVidia explizit als non-OC-Modelle ausgewiesene Kandidaten. Ich befürchte, daß schon in wenigen Wochen die ersten offiziellen OC Versionen (GTX680Ti(?)) mit 12 statt 8 Shaderclustern, 4GB Speicher, 1x6 und 1x8 Pin in den Regalen stehen.

Das wäre jedenfalls die logische Konsequenz, wenn man die GTX680 als Nachfolger der GTX560 sieht. Der legitime Nachfolger der GTX580 kommt ja offenbar erst im August.

Enthusiasten werden daher imho möglicherweise noch ein bischen zuwarten wollen.

Coda
2012-03-27, 20:49:52
12 Shadercluster? Woher sollen die kommen? Der Chip hat nur 300mm².

gnomi
2012-03-27, 21:24:28
Wozu Prerenderlimit 1?
Damit bekommt man iirc nie die Max. FPS.

AFAIK ist die Eingabeverzögerung mit Prerenderlimit 1 geringer.
Die Frames mögen wie auch bei forciertem HQ AF schlechter sein, aber ich spiele und teste schon ewig so.

Skinny12
2012-03-27, 21:28:13
Seit 60 Minuten habe ich den EK Wasser-Kühler drauf, es ist im direkten Vergleich zu der 7970 und der 580 GTX sofort zu sehen, wieviel weniger Energie die GPU verbraucht...unter Last sind es locker 10° C weniger (37°C unter Last nach 15 Minuten stabil).

Gruss Nils

Nightspider
2012-03-27, 21:29:44
Hast du beim GTX4 Benchmark was falsches hingeschrieben oder soll die GTX680 tatsächlich nicht schneller sein?

gnomi
2012-03-27, 21:32:44
Sorgenfrei mit bestmöglicher Performance ist genau das Stichwort, daß mich davon abhält mir momentan schon eine GTX680 auf den Wunschzettel zu setzen. ;(

Die aktuellen GTX680 haben allesamt nur 2x6 Pin Stromversorgung und sind -soweit ich informiert bin- alles von nVidia explizit als non-OC-Modelle ausgewiesene Kandidaten. Ich befürchte, daß schon in wenigen Wochen die ersten offiziellen OC Versionen (GTX680Ti(?)) mit 12 statt 8 Shaderclustern, 4GB Speicher, 1x6 und 1x8 Pin in den Regalen stehen.

Das wäre jedenfalls die logische Konsequenz, wenn man die GTX680 als Nachfolger der GTX560 sieht. Der legitime Nachfolger der GTX580 kommt ja offenbar erst im August.

Enthusiasten werden daher imho möglicherweise noch ein bischen zuwarten wollen.

Mit OC Karten rechne ich auch, aber der Chip wird denke ich prinzipiell identisch sein.
Also mehr Speicher und je nach Kühllösung auch mehr Leistung.
Mit dem GK 110 rechne ich jetzt hingegen erst einmal nicht so schnell, denn dieser Chip ist sehr gut und in alle Marktrichtungen anpaßbar. (maximaler Profit)
Es hängt aber natürlich davon ab, was AMD so macht.

gnomi
2012-03-27, 21:37:46
Hast du beim GTX4 Benchmark was falsches hingeschrieben oder soll die GTX680 tatsächlich nicht schneller sein?

Bei den eher zahmen Einstellungen ist sie tatsächlich nicht schneller.
Das CPU Upgrade brachte in GTA IV viel mehr.
Mit Mods und maximierten Details wird es dann vermutlich aber wohl Unterschiede geben.
Dazu kann ich jedoch nichts sagen, da ich die Spiele nur zum Release ausführlich gezockt habe.

Nightspider
2012-03-27, 21:40:59
Bei den eher zahmen Einstellungen ist sie tatsächlich nicht schneller.
Das CPU Upgrade brachte in GTA IV viel mehr.
Mit Mods und maximierten Details wird es dann vermutlich aber wohl Unterschiede geben.
Dazu kann ich jedoch nichts sagen, da ich die Spiele nur zum Release ausführlich gezockt habe.

Hast du die aktuellste Version drauf? Da fressen vor allem die verbesserten Schatten enoorm viel Leistung, gerade bei Nacht und mit Scheinwerfer an.

Wäre echt super, wenn du da vllt nochmal nen kleinen Nachtest machst, falls es deine Zeit zu lässt. :)

Thunder99
2012-03-27, 22:02:32
@Mods:

Ich dachte dafür haben wir ein eigenes Unterforum? ...

@TS: Nice :up:

gnomi
2012-03-27, 22:17:50
Hast du die aktuellste Version drauf? Da fressen vor allem die verbesserten Schatten enoorm viel Leistung, gerade bei Nacht und mit Scheinwerfer an.

Wäre echt super, wenn du da vllt nochmal nen kleinen Nachtest machst, falls es deine Zeit zu lässt. :)

Ja, aktuelle Versionen habe ich drauf. (1.0.7.0 & Episodes 1120)
Nachschatten waren im Test wie alle anderen Einstellungen auf "Hoch".
Die drei Schieberegler dann jeweils auf 50%, und Schärfe an.

Ich kann Dir noch die Ergebnisse mit maximierten Einstellungen auf der GTX 680 anbieten. (65,64/57,19/43,03)
Vergleichswerte zur GTX 470 habe ich aber hier nicht.
Performance ingame liegt bei 30-45 fps in der Nacht, und 40-60fps am Tag.

Gast9t99
2012-03-28, 07:12:48
12 Shadercluster? Woher sollen die kommen? Der Chip hat nur 300mm².

Die werden den GK104 mit der GTX680 wohl kaum bereits ausgereizt haben. Dazu haben die am Anfang für gewöhnlich zu viel Verschnitt. Und da es eine gerade Anzahl von zusätzlichen Reserve-Shaderclustern sein muß, kommen imho nur 10 oder 12 in Betracht. Da pro Rasterunit 2 SMX-Kerne benötigt werden, hätte man bei 10 Clustern eine ungerade Anzahl von 5 Rasterunits... unwahrscheinlich... daher tippe ich bei der GTX680Ti(?) mal auf 2 Reserve-Rasterunits und insgesamt 12 Cluster von denen jetzt erstmal nur 8 freigeschaltet sind.

Ist natürlich reine Spekulation und irgendwo klingt es schon unwahrscheinlich. Ich kann mir aber noch nicht so recht vorstellen, daß der GK104 ausgereizt ist und daß es zB. bei einem 256Bit-Speicherinterface bleibt. Beim GF114 und GF110 war es bislang ja so, daß ab Launch jeweils ganze Cluster deaktiviert waren. Da wird schon noch ein bischen Platz sein auf den 300mm². Vielleicht wird es auch 'nur' eine GK104 Version mit 216 statt 192 Kernen pro SMX-Core geben? Irgendwo werden die Reserven schon stecken. Das wäre das erste Mal, wenn man bei nVidia als GTX680-Käufer der ersten Stunde nicht hinterher der Gekniffe wäre. ;)

Gast
2012-03-28, 16:11:51
GF104 und GF100 waren die Ausnahme, nicht die Regel. Die letzte GPU davor, die beschnitten startete war G92 auf der 8800 GT.

Der Rest, G80, GT200, G70, G71, ...... mir fällt da nichts beschnittendes ein. Es wird schon genügend teildefekte GK104 geben, keine Sorge. Die werden lediglich zurückgehalten, um das alte Zeug abverkaufen zu können und weil man nicht genug Chips für den größeren Andrang nach kaputten GK104 hätte.

PrefoX
2012-03-28, 17:03:34
AFAIK ist die Eingabeverzögerung mit Prerenderlimit 1 geringer.
Die Frames mögen wie auch bei forciertem HQ AF schlechter sein, aber ich spiele und teste schon ewig so.
Irgendwie gibts da nen Missverständnis glaub ich, Prerendered frames gibts doch nur mit Vsync und du hast doch ohne vsync gebenched, das ist doch dann latte!? : )

Coda
2012-03-28, 18:52:54
Prerendered Frames gibt's natürlich auch ohne VSync.

mironicus
2012-04-03, 17:26:31
Habe jetzt auch eine GTX 680, von Gainward. Das Zubehör ist unter aller Kanone: Treiber-CD, ein einziger Stromadapter, DVI/VGA-Adapter. :(

Mit einem Phenom X4-955 @ 1.2 Volt (warte noch auf Ivy) auf einem ASUS M5A78L-M/USB3, einer SDD, einer 3,5 Zoll-Festplatte, Imon-Display, 8 Gigabyte RAM (4 Riegel).

Stromverbrauch
Idle 72-74 Watt, Prime 129 Watt

1080P-Wiedergabe DXVA: 86-88 Watt! (sehr gut, total niedriger Stromverbrauch bei Videowiedergabe)

Heaven 3.0: 288 Watt

Stromverbrauch beim Spiel
Kingdoms of Amalur: Reckoning - "nur" 188 Watt (1080P alles Maximum).

Netzteil: Antec High Current Gamer HCG-400

Lautstärke der Grafikkarte ist hörbar unter Last, aber keineswegs nervend (dunkles Rauschen). Da war meine Radeon 5770 im Referenzdesign damals wesentlich lauter.

Bei Spielen wo die Karte total unterfordert ist (Reckoning + VSync) bleibt die Karte ziemlich leise.

Der Stromverbrauch bei Heaven hatte mich erst ein wenig negativ überrascht, aber als ich dann ein richtiges Spiel probiert habe, war ich erleichtert, wie wenig Strom das System dann verbrät.

Die GTX 680 hat die guten Tugenden der Radeon 5870 geerbt, meiner Meinung nach. Keine Stromschleuder, schnell, eine absolute Gamerkarte.

Heaven-Benchmark 3.0 (1920x1080, 4AA, normal)
Radeon 6950 @ 1536 Shader: 1056 Punkte (41,9 FPS)
GTX 680 default: 1768 Punkte (70,2 FPS)

Die GTX 680 landet jetzt in ein HTPC-Gehäuse, dem Antec Fusion Remote Max. :)

Odal
2012-04-03, 20:16:45
Heaven 3.0: 288 Watt

Stromverbrauch beim Spiel
Kingdoms of Amalur: Reckoning - "nur" 188 Watt (1080P alles Maximum).

Netzteil: Antec High Current Gamer HCG-400

Der Stromverbrauch bei Heaven hatte mich erst ein wenig negativ überrascht, aber als ich dann ein richtiges Spiel probiert habe, war ich erleichtert, wie wenig Strom das System dann verbrät.


Mit oder ohne Limiter? Mit oder ohne (adaptive) vsync?

ich glaube vieles holt das Ding durch den limiter und den (negativen) turbo raus

akuji13
2012-04-03, 21:38:45
Hab ne 680 von Palit.

Leistung ist gut, allerdings ist es auch kein Problem diese Karte mit diversen Spielen unter 10 FPS zu bringen.
Und damit meine ich NICHT Crysis oder Metro2033. ;)

Was extrem nervt, ist der brüllende Lüfter.
Unglaublich was man so als ehemaliger WaKüler ertragen muss. :D
Da hilft es mir auch nix wenn jemand kommt und sagt..."Karte xy ist aber wesentlich lauter!".

Zusätzlich stört mich, das ich nun zwar wieder cuda in Just Cause 2 habe (sieht einfach toll aus!), dafür fehlt mit jetzt (erstmal?) wieder downsampling.
NV: was soll so ein scheiß?

Stromaufnahme habe ich nie gemessen, sowas interessiert mich nicht die Bohne.
Ich kaufe eine Grafikkarte um Spaß zu haben, will ich Strom sparen verkaufe ich den Rechner und widme mich dem Modellbau.

Ernsthafte Probleme sehe ich für mich bei dem kleinen VRam auf mich zukommen:
In Skyrim war ich bereits bei 1956Mb...und das wo noch jede Menge Texturen verbesserungswürdig sind.
Mal schauen ob und vor allem wann die 680 den Arsch zukneift und die fps einbrechen.

Naja, notfalls habe ich ja nun noch den Zwillingsrechner mit der 7970. ;)

GTX999
2012-04-04, 00:25:30
Wozu Prerenderlimit 1?
Damit bekommt man iirc nie die Max. FPS.


PrerenderLimit bedeutet nicht direkt aber so "ähnlich" die Lastenverteilung zwischen GPU und CPU.
In Metro Bench mal mit PrerenderLimit 5 .. wirst sehen das du mehr Frames bekommst, aber auch höhere Latenz.
In Arcania wirst du mit PrerenderLimit 1 warscheinlich die meisten Frames bekommen.

cpu intensives spiel .. prerenderlimit 1 - 2
neutral .. prerenderlimit 3
gpu intensives spiel .. prerenderlimit 4 - 5

dargo
2012-04-04, 01:07:42
Der Performancezuwachs ist nicht so gigantisch wie erhofft, aber doch jederzeit spürbar.

Naja... was hast du denn erwartet? Deine OC-470 ist im Prinzip eine GTX480. Die zu erwartenden Ergebnise waren von vorne rein klar. Was mich viel mehr durch deinen Test erstaunt (danke dafür) ist wie schwach Kepler @Performance-Chip im Vergleich zum Fermi bei GPU-PhysX ist. Da hätte ich wesentlich mehr erwartet.

gnomi
2012-04-04, 08:59:34
Na ja, eben. :)
Und so etwas findet man dann auch erst beim Testen raus.
PhysX war und ist für mich aber sowieso nur Bonus.
Es gibt aber ja auch Tests, wo die von mir persönlich erhofften 50-80% rausspringen.
Crysis 2 in DX 11 bspw. macht wirklich Laune, da man erstmals das Gefühl hat, daß die Grafikkarte stark genug für so ein Spiel ist.
Mit 30 - 40 fps und VSync Off spielen ist für mich nämlich nicht mehr so die Freude.
Lieber sogar weniger Grafikqualität, und dafür keinerlei Gezuckel.
Sehr gespannt bin ich auf die nächsten Neuerscheinungen.
Sniper Elite 2 auf Cryengine 3 sollte der Karte bspw. liegen.
Und bei den EA Frostbite Entwicklungen (Medal of Honor Warfare u.a.) dürfte es auch gut aussehen.

Schrotti
2012-04-04, 09:24:17
Also zum Thema.

Ich habe gerade mal Metro 2033 gegen getestet (i7 2600k@4GHz, GTX 480@900/1800/1848) und bin doch verwirrt.

Sollte ich DOF anschalten? Das geht aus deinen Settings nicht hervor.

http://www.abload.de/thumb/run_0tzchn.png (http://www.abload.de/image.php?img=run_0tzchn.png)http://www.abload.de/thumb/run_1f7cjf.png (http://www.abload.de/image.php?img=run_1f7cjf.png)
http://www.abload.de/img/run_2_averagesiic2.png (http://www.abload.de/image.php?img=run_2_averagesiic2.png)

Selbst wenn ich DOF einschalte, verwundert mich dein Ergebnis.

http://www.abload.de/img/dof_enablewgujx.png (http://www.abload.de/image.php?img=dof_enablewgujx.png)
http://www.abload.de/img/dof_average2mu8b.png (http://www.abload.de/image.php?img=dof_average2mu8b.png)

gnomi
2012-04-04, 10:30:23
DOF war an. Prerenderlimit 1. High Quality 16*AF über Treiber erzwungen.

Was paßt denn jetzt nicht? :confused:

Dein Ergebnis liegt doch zwischen der GTX 470 OC@480 und der GTX 680...

Tzunamik
2012-04-04, 13:43:11
Wo stelle ich den das Prerenderlimit ein?

Sollte doch eigentlich Sinn machen immer mit 3-4 zu Spielen, ist doch meist eh immer mehr GPU lastig.

Ausser Titel wie Anno z.b.

gnomi
2012-04-04, 14:48:42
Wo stelle ich den das Prerenderlimit ein?

Sollte doch eigentlich Sinn machen immer mit 3-4 zu Spielen, ist doch meist eh immer mehr GPU lastig.

Ausser Titel wie Anno z.b.

Das kannst Du ganz normal im Treiber einstellen. (unter "Erweiterte 3D-Einstellungen verwalten/Maximale Anzahl der vorgerenderten Einzelbilder")

Ich empfinde die Eingabe mit Prerenderlimit 1 als direkter, und spiele und teste dementsprechend halt so.
Vom Ergebnis her wird es aber denke ich nicht viel ausmachen.

Tzunamik
2012-04-04, 21:20:54
Danke!

Gleich mal testen, was ich von 1-4 merke :-)

pest
2012-04-04, 21:22:27
Naja... was hast du denn erwartet? Deine OC-470 ist im Prinzip eine GTX480. Die zu erwartenden Ergebnise waren von vorne rein klar. Was mich viel mehr durch deinen Test erstaunt (danke dafür) ist wie schwach Kepler @Performance-Chip im Vergleich zum Fermi bei GPU-PhysX ist. Da hätte ich wesentlich mehr erwartet.

Das ist imo ein anderes Phänomen. Mir ist schon vor einiger Zeit aufgefallen das sich die NV-Karten beim Zuschalten von massivem PhysX nicht mehr voneinander absetzen können. Auch schon zu GTX260/GTX470 Zeiten.

Matrix316
2012-04-04, 22:56:37
Also selbst unter Last finde ich die Karte im Standardlayout super leise. :) Und The Witcher 2 mit alles auf Max fliest geradezu dahin (1920x1200)...:naughty:

Schrotti
2012-04-05, 10:14:49
DOF war an. Prerenderlimit 1. High Quality 16*AF über Treiber erzwungen.

Was paßt denn jetzt nicht? :confused:

Dein Ergebnis liegt doch zwischen der GTX 470 OC@480 und der GTX 680...

Was daran nicht passt?

Ich bin bis auf 2fps an deine 680 ran und das mit einer 2 Jahre alten GTX 480.

Von einer 680 hätte ich mehr erwartet.

gnomi
2012-04-05, 11:50:41
Jo. Geht mir auch so. :)

Die Ergebnisse selber stimmen soweit aber.
Siehe bspw. Combuter Base (http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/46/#abschnitt_metro_2033) oder PC Games Hardware (http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=12).

MartinRiggs
2012-04-05, 17:45:47
Auf der einen Seite freue ich mich weil aufrüsten unnötig ist und ich Geld spare, aber auf der anderen Seite reizt was neues ja immer, bloss es gibt nix was sich für GTX480OC Anwender lohnt:(

dargo@work
2012-04-05, 18:31:58
Was daran nicht passt?

Ich bin bis auf 2fps an deine 680 ran und das mit einer 2 Jahre alten GTX 480.

Von einer 680 hätte ich mehr erwartet.
Deine GTX480 taktet aber mit 900Mhz, das ist schon größer GTX580. ;-)

aufkrawall
2012-04-05, 19:13:49
Auf der einen Seite freue ich mich weil aufrüsten unnötig ist und ich Geld spare, aber auf der anderen Seite reizt was neues ja immer, bloss es gibt nix was sich für GTX480OC Anwender lohnt:(
Radeon 7970 mit Custom Design und fettem OC?

Gast
2012-04-05, 19:15:46
Radeon 7970 mit Custom Design und fettem OC?

Er will mehr als die GTX680 haben.
Wobei, beim Stromverbrauch muss er sich dann ja nichtmal verbessern. :D

dargo
2012-04-05, 19:31:36
Auf der einen Seite freue ich mich weil aufrüsten unnötig ist und ich Geld spare, aber auf der anderen Seite reizt was neues ja immer, bloss es gibt nix was sich für GTX480OC Anwender lohnt:(
Leidensgenosse...:D, wir warten auf GK110. ;)

Tzunamik
2012-04-05, 23:10:49
Nach der GTX680 werde ich zu 100% auch die GK110 besitzen ;-)

Meine GTX580 lief am Anschlag bei 2560x1440 und die GTX680 tut selbiges mit 30% mehr FPS... die GK110 wird glaube ich das erste mal wirklich GENUG Leistung für ne weile bieten.

Bis max 300W TDP darf Sie haben, wenn Sie dabei im Idle auf unter 20W kommt :-)

Weil aufm Desktop brauch ich keine 100W Idle Karte... aber unter Last hat se freie Hand, wenn dafür auch was rum kommt bei!

aufkrawall
2012-04-05, 23:16:32
Gibts irgendwo sauber dokumentierte Taktschwankungen beim Nutzen von Desktop-Awnendungen mit GPU-Beschleunigung (Video, Browser, Flash...)?
Das Verhalten von Fermi ist da total idiotisch, bleibt viel zu lange im P0-State.
Wie siehts mit Kepler aus?

Banshee18
2012-04-05, 23:52:31
Soweit ich das bisher beobachten konnte, bleibt sie bei 324Mhz oder taktet nach kurzem "Aufflackern" in P0 sofort wieder zurück.
Magst du was Bestimmtes getestet haben?

Schrotti
2012-04-06, 01:40:19
Auf der einen Seite freue ich mich weil aufrüsten unnötig ist und ich Geld spare, aber auf der anderen Seite reizt was neues ja immer, bloss es gibt nix was sich für GTX480OC Anwender lohnt:(

Huiii.

aufkrawall
2012-04-06, 01:54:03
Soweit ich das bisher beobachten konnte, bleibt sie bei 324Mhz oder taktet nach kurzem "Aufflackern" in P0 sofort wieder zurück.
Magst du was Bestimmtes getestet haben?
So wie du das beschreibst, klingt das gut (war zwar by Cypress auch schon so, aber besser spät als nie).
Also wenn du Firefox startest, geht er kurz in P0 und dann wieder in den Desktop-State?
Ich nehme an, bei DXVA-Videos ist es ähnlich, nur dass er dann in den Video-State runtertaktet?
Mein Thermi bleibt bei letzterem 10 Sekunden im P0-State.

Thx. :)

Edit: Kann sein, dass ohne die DX11-DOF Kepler bei Metro schneller ist als Tahiti?

Banshee18
2012-04-06, 03:14:53
So wie du das beschreibst, klingt das gut (war zwar by Cypress auch schon so, aber besser spät als nie).
Also wenn du Firefox startest, geht er kurz in P0 und dann wieder in den Desktop-State?
Ich nehme an, bei DXVA-Videos ist es ähnlich, nur dass er dann in den Video-State runtertaktet?
Mein Thermi bleibt bei letzterem 10 Sekunden im P0-State.

Thx. :)
Also ein paar Sekündchen kann es schon dauern, mal mehr, mal weniger. Inwiefern ist das interessant? :confused:
Video-State? Nö, bei allen bisher getesteten Videos liegen 324Mhz an.

Edit: Damit ich keinen Unsinn erzähle: Welche Voraussetzungen müssen denn für DXVA erfüllt sein? Der VLC-MP unterstützt das. Sonst noch was? Bin da nicht so mit der Materie vertraut.

Huiii.
Was willst du uns damit sagen?

Schrotti
2012-04-06, 04:16:40
Was willst du uns damit sagen?

Das ich zur 680 aufgeschlossen habe.

Gunslinger
2012-04-06, 07:43:11
Das ich zur 680 aufgeschlossen habe.

Schön und gut, aber bitte nicht nur ein Spiel testen. ;)

Die 680 bringt halt die Leistung ohne dass ich sie wie eine 480 brutal quälen muss.

Gibts irgendwo sauber dokumentierte Taktschwankungen beim Nutzen von Desktop-Awnendungen mit GPU-Beschleunigung (Video, Browser, Flash...)?
Das Verhalten von Fermi ist da total idiotisch, bleibt viel zu lange im P0-State.
Wie siehts mit Kepler aus?

Beim gewöhlichen Surfen gibt es kein Taktgehüpfe mehr.

http://666kb.com/i/c2atvuh8ngu6n3gql.jpg

DrMabuse1963
2012-04-06, 08:32:30
Okidoki , was habt ihr " Angeblich " mit eurer 480 Angestellt das ihr in solche Sphären wie ne 680 kommt , iet da echt ~ so wenig Performance Gewinn das ein Upgrade nicht lohnt ?

Gunslinger
2012-04-06, 09:28:32
Okidoki , was habt ihr " Angeblich " mit eurer 480 Angestellt das ihr in solche Sphären wie ne 680 kommt , iet da echt ~ so wenig Performance Gewinn das ein Upgrade nicht lohnt ?

In Metro 2033 liegt die 680 nur knapp vor einer 580. Kaum verwunderlich, dass eine OC 480 da gleichziehen kann. In anderen Spielen sieht die Sache schon wieder anders aus.

TurricanM3
2012-04-06, 11:40:14
Also meine GTX 680 ist leise, komisch.

http://www.abload.de/img/gtx680egj7g.jpg (http://www.abload.de/image.php?img=gtx680egj7g.jpg)

:biggrin:

Womit übertaktet ihr eure? Will mich da mal ranmachen.

Liquaron
2012-04-06, 12:03:29
Evga Precision Tool :)

Also ich liebe meine GTX 680!

Sie hat einfach eine bärenstarke Performance und ist auch nicht zu laut.

Meine CPU, wie von einigen herbeigeschworen, ist auch nicht zu leistungsschwach um alle Games mit Max Setting in wunderbar flüssiger Qualität zu spielen.

Ich habe sie nur dezent übertaktet und nicht ans Limit getrieben.
Das reicht für eine anständige Performance.
Die Karte soll ja auch noch etwas halten :)

Ja, die Karte war ein Leidenschaftskauf.....aber dieser hat sich gelohnt!

Gast
2012-04-06, 12:29:14
Meine CPU, wie von einigen herbeigeschworen, ist auch nicht zu leistungsschwach um alle Games mit Max Setting in wunderbar flüssiger Qualität zu spielen.



Doch, ist sie. Hast sie ja schon von 3.6 auf 3,8 GHZ hochgetaktet. Stell deiner GPU mal einen 2600k mit 4GHZ+ zur Seite, dann wirst Du sehen, was Sache ist.
Meistens reicht ein unübertakteter i3-2100 aus (3.1 GHZ, 2 Kerne + SMT), um mit deinem 3.8GHZ Phenom II gleichzuziehen (je nach Game schaust selbst dann noch alt aus).

http://www.computerbase.de/artikel/prozessoren/2011/test-intel-core-i3-2100-2120/25/#abschnitt_spiele_640x480

Es wird nicht wahrer, egal wie oft Du es noch behauptest.
Dass Du die Karte noch übertaktest, grenzt schon fast an Hohn.

Gunslinger
2012-04-06, 13:02:35
Was willst du mit einem popeligen 1024x768 benchmark beweisen? Klar ist ein SB wesentlich schneller. Aber ab 1920x1200 mit hohem AA und AF wird er den Bums der 680 sicher noch ordentlich spüren, auch bei einer schwächeren CPU.

Zum Übertakten der 680:
Meine läuft aktuell mit +80/+500. Speichertakt habe ich nicht höher getestet, das reicht mir so. Ich verwende dazu den NV Inspector.

Liquaron
2012-04-06, 13:25:57
Doch, ist sie. Hast sie ja schon von 3.6 auf 3,8 GHZ hochgetaktet. Stell deiner GPU mal einen 2600k mit 4GHZ+ zur Seite, dann wirst Du sehen, was Sache ist.
Meistens reicht ein unübertakteter i3-2100 aus (3.1 GHZ, 2 Kerne + SMT), um mit deinem 3.8GHZ Phenom II gleichzuziehen (je nach Game schaust selbst dann noch alt aus).

http://www.computerbase.de/artikel/prozessoren/2011/test-intel-core-i3-2100-2120/25/#abschnitt_spiele_640x480

Es wird nicht wahrer, egal wie oft Du es noch behauptest.
Dass Du die Karte noch übertaktest, grenzt schon fast an Hohn.

Du redest von Hohn und zeigst mir 800 x 600 er Benchmarks :freak:

Wenn ich aktuelle Spiele mit max Settings und AA + AF flüssig locker zocken kann scheine ich mit meinem Prozzi ja noch ganz gut zurecht zu kommen.
Und wenn ich einen deutlichen Schub gegenüber meiner alten 6870er sehe wohl auch....

Und sorry, ich habe einen Full HD Monitor und muss nicht mit 640 x 480 spielen :D


BTW. kannst dir ja mal den netten Artikel zum CPU Scaling einer 7970 durchlesen:

http://www.guru3d.com/article/radeon-hd-7970-cpu-scaling-performance-review/10

If anything, this little article proofs once again that investing money in a faster graphics card will gain you better game performance compared to investing in a faster CPU. The performance difference in-between a 1000 USD Core i7 3960X compared to a 320 USD Core i7 2600K processor is extremely small, something you'd never notice unless measured. So we say, stick to a modern mainstream quad-core processor and the differences really aren't that big in the overall framerate, especially at 1920x1080/1200. Yes we know it's that weird penumbra, the higher you go in resolutions, the slower your processor may be. Remember, once you pass 1920x1080/1200 the GPU is almost always the bottleneck, not your processor.

Gast
2012-04-06, 14:12:58
Du redest von Hohn und zeigst mir 800 x 600 er Benchmarks :freak:

Wenn ich aktuelle Spiele mit max Settings und AA + AF flüssig locker zocken kann scheine ich mit meinem Prozzi ja noch ganz gut zurecht zu kommen.
Und wenn ich einen deutlichen Schub gegenüber meiner alten 6870er sehe wohl auch....

Und sorry, ich habe einen Full HD Monitor und muss nicht mit 640 x 480 spielen :D


BTW. kannst dir ja mal den netten Artikel zum CPU Scaling einer 7970 durchlesen:

http://www.guru3d.com/article/radeon-hd-7970-cpu-scaling-performance-review/10

Tja, dein Artikel zeigt aber nur eine Seite der Medaille. Mit Ausnahme von Anno 1404 (wo die Unterschiede bis 1920x1200 sehr deutlich sind) kommen dort ausschließlich GPU limitierte Spiele zum Einsatz. Spiele wie Starcraft 2, Civilization 5, Shogun 2, sämtliche Simulationen, Arma 2 usw. usf. nagen erheblich mehr an der CPU; dort ziehen selbst kleinste Sandy Bridges Kreise um deine CPU, bei einem Bruchteil des Stromverbrauchs.

Selbst der Multiplayerpart von BF3 ist längst nicht so GPU limitiert wie der Singleplayerpart. Daher bleibe ich bei meiner Aussage, dass dein System durchaus performant, aber sehr unausgewogen ist. Mehr habe ich übrigens auch nie behauptet.

PS: Um Differenzen bei den CPUs aufzuzeigen, bieten sich kleine Auflösungen nun mal an.
Und für meinen 640*480 Monitor musst Du Dich nicht entschuldigen.

Liquaron
2012-04-06, 15:01:59
Tja, dein Artikel zeigt aber nur eine Seite der Medaille. Mit Ausnahme von Anno 1404 (wo die Unterschiede bis 1920x1200 sehr deutlich sind) kommen dort ausschließlich GPU limitierte Spiele zum Einsatz. Spiele wie Starcraft 2, Civilization 5, Shogun 2, sämtliche Simulationen, Arma 2 usw. usf. nagen erheblich mehr an der CPU; dort ziehen selbst kleinste Sandy Bridges Kreise um deine CPU, bei einem Bruchteil des Stromverbrauchs.

Selbst der Multiplayerpart von BF3 ist längst nicht so GPU limitiert wie der Singleplayerpart. Daher bleibe ich bei meiner Aussage, dass dein System durchaus performant, aber sehr unausgewogen ist. Mehr habe ich übrigens auch nie behauptet.

PS: Um Differenzen bei den CPUs aufzuzeigen, bieten sich kleine Auflösungen nun mal an.
Und für meinen 640*480 Monitor musst Du Dich nicht entschuldigen.


Alsooo erstmal sei gesagt, dass ich keine Simulationspiele spiele.
Damit bin ich da wohl zum Glück aus dem Schneider und konnte wohl deshalb auch noch keinen Performanceverlust feststellen.

Bei BF3 muss ich dir aber total unrecht geben.
Ich habe heute morgen noch 1 Stunde BF3 MP gespielt und kam selbst in den größten Schlachten mit zig Explosionen auf Ultra nie unter 40 FPS.
(Spiele fast ausschließlich 64 Mann Server)

Bei Simulationen magst du aber Recht haben.
Dazu kann ich nichts sagen.

Btw. ich habe da noch einen alten Full HD Monitor im Marktplatz im Angebot....wenn dein 14 Zoller dich irgendwann nerven sollte^^

MartinRiggs
2012-04-06, 17:12:03
Leidensgenosse...:D, wir warten auf GK110. ;)

Jupp eindeutig, bin mal gespannt was der GK110 so bringt.
Eine HD7970 mit fettem OC ist auch erstmal nix, klar merkt man die Mehrleistung aber wenn ich schon Geld ausgebe muss es auch richtig fetzen und nicht nur ab und zu.

aufkrawall
2012-04-06, 17:16:31
Bei BF3 muss ich dir aber total unrecht geben.
Ich habe heute morgen noch 1 Stunde BF3 MP gespielt und kam selbst in den größten Schlachten mit zig Explosionen auf Ultra nie unter 40 FPS.

Mit nem schnellen SB kommst du nie auf unter 60.

Liquaron
2012-04-06, 17:19:13
Mit nem schnellen SB kommst du nie auf unter 60.


Mag ja sein, aber das sind mit ein paar Hundert € mehr nicht wert.

Vielleicht später mal, wenn ich in den 25FPS Ruckelbereich komme :)

Solange ich jetzt alles Games mit Max-Setting im 40+ Bereich spielen kann bin ich zufrieden und rüste nicht auf.

Sollte sich das ändern und ich merke, dass es durch die CPU ruckelt, rüste ich auf.

aufkrawall
2012-04-06, 17:22:51
Also ein paar Sekündchen kann es schon dauern, mal mehr, mal weniger. Inwiefern ist das interessant? :confused:

Bei meiner GTX 570 reicht es schon, wenn diese im P0-State ist, ohne ausgelastet zu werden, damit die Lüfter nervig hochfahren.
Wo bleiben die Custom Designs für Kepler...


Video-State? Nö, bei allen bisher getesteten Videos liegen 324Mhz an.

Edit: Damit ich keinen Unsinn erzähle: Welche Voraussetzungen müssen denn für DXVA erfüllt sein? Der VLC-MP unterstützt das. Sonst noch was? Bin da nicht so mit der Materie vertraut.

Ich denke, eigentlich sollte es reichen, dass die VPU (also DXVA) genutzt wird, damit die Karte in den Videostate schaltet. So war es wohl zumindest mit Fermi.
Wenn die Videos auch im Desktopstate flüssig laufen, ist das natürlich ne nette Sache.
Das kann ich mit dem MDPS vom Inspector auch erzwingen, aber für hohe Bitraten reichts dann nicht.

dargo
2012-04-06, 17:39:27
Eine HD7970 mit fettem OC ist auch erstmal nix, klar merkt man die Mehrleistung aber wenn ich schon Geld ausgebe muss es auch richtig fetzen und nicht nur ab und zu.
Da sind wir einer Meinung. :D

Schrotti
2012-04-06, 21:35:43
Wie stellt man denn 4xMSAA in Mafia II ein?

Ich habe hier nur on/off.

dargo
2012-04-06, 22:01:14
Mafia II unterstützt kein MSAA. Das was du da hast ist nur ein Blurfilter.

boxleitnerb
2012-04-06, 22:23:21
Man kann AA erzwingen, siehe den entsprechenden Thread im Nvidia-Unterforum mit den Bits.

gnomi
2012-04-07, 00:53:44
Jo.
Einfach über den genialen NVidia Inspector das Mafia II Profil auswählen und unter Antialising Compatibility "0x000D02C4 (Clive Barker's Jericho)" als Bits auswählen.
Dann noch "Behavior Flags=None, Antialising Mode=Override any application setting und Antialising Setting=4*AA wählen.
Ingame AA einfach ausschalten.

Schrotti
2012-04-07, 11:47:42
Ok, hier dann Mafia II mit deinen Settings.

Nur 5fps unterschied.

http://www.abload.de/thumb/mafia_2xnulg.jpg (http://www.abload.de/image.php?img=mafia_2xnulg.jpg)

gnomi
2012-04-07, 12:49:08
War doch abzusehen.
Um nicht alles exakt nachzubenchen, könntest Du auch einfach die GTX470OC Werte *1,15-1,25 nehmen und hättest dann ~ Dein Ergebnis...

@Topic
Gibt es noch interessante aktuelle Benchmark Titel für die GTX 680?
Für Crysis 2 habe ich jetzt ein Tool gefunden, aber zu Battlefield 3 gibt es scheinbar lediglich Costum Benchmarks.
Was für Spiele wären denn noch interessant?

aufkrawall
2012-04-07, 13:05:55
Crysis mit SGSSAA.

gnomi
2012-04-07, 21:15:05
Mit dem GPU Bench?
Kann ich mir morgen mal ansehen.
Ist zwar jetzt etwas alt das Spiel, (4 1/2 Jahre!) aber zumindest grafisch immer noch vorne mit dabei.
Mit SGSSAA wird das nur wahrscheinlich nicht mehr flüssig laufen. (Vegetation und so)
Crysis 2 benche ich morgen ebenfalls mal.

aufkrawall
2012-04-07, 21:20:16
Mit dem GPU Bench?

Bei dem ist bei mir die GPU mit SGSSAA immer bei 99%, kein CPU-Limit.


Ist zwar jetzt etwas alt das Spiel, (4 1/2 Jahre!) aber zumindest grafisch immer noch vorne mit dabei.

Mit Mods IMHO immer noch mit Abstand die schönsten Außenlevel.


Mit SGSSAA wird das nur wahrscheinlich nicht mehr flüssig laufen. (Vegetation und so)

So extrem viel Leistung braucht das gar nicht, greift aber auch nicht überall.
Für perfektes SGSSAA musst du es per Bit erzwingen und das haut dann richtig rein.

Banshee18
2012-04-07, 22:09:25
Für perfektes SGSSAA musst du es per Bit erzwingen und das haut dann richtig rein.
Die GTX680 ist zumindest mit diesen Bits deutlichst schneller, als meine GTX470. Genaue Werte habe ich leider nicht, da ich meine Karten zum Zocken und nicht zum Benchen kaufe.

aufkrawall
2012-04-07, 22:41:53
Auf Blaires Karten läuft es jedenfalls mit 8x flüssig.

Banshee18
2012-04-07, 23:02:29
Auf Blaires Karten läuft es jedenfalls mit 8x flüssig.
Der hat auch ein paar mehr Karten, als ich. :freak:
Mit 16xHQ-AF per Treiber, 4xSGSSAA mit 0x004412C1, LOD -0,875
http://www.abload.de/thumb/crysisxbdj6.jpg (http://www.abload.de/image.php?img=crysisxbdj6.jpg)

aufkrawall
2012-04-07, 23:51:02
Typische Crysis-Werte halt, ist mit über 30 FPS im SP ja recht gut spielbar.
Die Zahl könnt aber auch gut noch doppelt so hoch sein, besonders weil bei dem Spiel 8x noch mal was bringt.
Man ist ja nie zufrieden. ;)