PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 680: (P)Review-Thread


Seiten : 1 2 3 [4] 5 6

Knuddelbearli
2012-04-03, 18:20:27
naja unter wasser scheint laut hwbot die 7970 besser zu skalieren als die 680

7970 macht da 100Mhz mehr die 680 nichtmal 10, sind aber bei der 680 auch erst 200 Einträge bei der 7970 3600

Banshee18
2012-04-03, 20:25:13
mironicus, dein Beitrag ist jetzt dort zu finden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=523751

BigKid
2012-04-04, 03:12:05
Das verstehe ich auch nicht. Komisch ist, dass das Ding gar nicht so viel kälter läuft als das Referenzdesign. Liegt aber wohl an der Übertaktung. Auch die anderen Komponenten im Gehäuse kriegen ihre Abwärme ab.

Bekommt eigentlich so eine im Text vorgeschlagene Lüfterfixierung auf z.B. 50% max. mittlerweile auch ohne große UAC-Abfragen hin? Afterburner oder Precision als Dienst starten?

Dafür kann man doch nicht 150 bis 200 Euro Aufpreis verlangen. Mal gucken, wie sich das einpendelt.

Was kommt noch zeitnah an Customs? Sonst muss es doch Referenzdesign werden...

Danke, Raff! Hast du Infos zur Verfügbarkeit?

Da es nicht so aussieht, dass sie an dem Phantom Kühler was verbessert haben möchte ich aus leidvoller Erfahrung (GTX570 Phantom) sagen:
Mit modifizierter Lüftersteuerung absolut leise im IDLE.
Aber im Spielebtrieb muss man leicht runtertakten und undervolten um sie ruhigzustellen. Das war die erste Custom die mich wirklich enttäuscht hat und bei der ich auch die guten Testberichte nicht wirklich nachvollziehen kann... Denn "unter Last leider so Laut wie der Originalkühler war IMHO leider nirgends zu lesen..."
Ferner scheint die verarbeitung nicht so toll zu sein - siehe OgreGts Thread - er hatte Ärger damit, dass der Kühler wohl nicht richtig auflag und auch ich habe den Eindruck dass sie mit der Zeit lauter geworden ist (öfter aufdreht weil sie heiss wird) - und ja ich habe sie "ausgesaugt" ;)

Also maximal 25-50 Euro Aufpreis... Mehr ist das Ding aus meiner Sicht leider nicht Wert...

Körschgen
2012-04-04, 06:06:44
Hab' mir gerade im Netz nen Wolf gesucht nach GTA IV-Benchmarks. Habe bis jetzt "nur" Youtube-Videos gefunden, die einigermaßen aussagekräftig waren... in einem gingen die FPS schonmal gut und gerne bis auf ca. 20 runter (bei ALLEM voll aufgedreht, also auch das CPU-relevante)!

Frage ist jetzt: Liegt's am CPU-Limit oder an der GPU? Er/Sie/Es hatte afaik nen i5 760 @ 4 GHz oder in dem Bereich.

Mich würden Erfahrungen aus erster Hand interessieren, am besten im Vergleich zur 7970. Ist aber nicht zwingend notwendig... bin über jedewede Information happy! :)

V2.0
2012-04-04, 06:56:30
Phantom ist schon mal keine Lösung.

Bleibt Asus, MSI und als Außenseiter Gigabyte (Windforce meist ohne BIOS Update zu laut) und EVGA (Custom-Design meist laut)

Mr.Magic
2012-04-04, 07:01:01
@Körschgen

GPU.

Ich hatte bei GTA4 mit einem 4,5Ghz i5 und GTX480 praktisch nie unter 35FPS. Die CPU drehte dabei hauptsächlich Däumchen, und wenn nicht lief das Spiel mit den vollen 60FPS.
Dabei waren alle Regler im Spiel rechts, aber kein AA, ENB oder sonstwas aktiv/installiert.

Mayk-Freak
2012-04-04, 17:54:34
Hab' mir gerade im Netz nen Wolf gesucht nach GTA IV-Benchmarks. Habe bis jetzt "nur" Youtube-Videos gefunden, die einigermaßen aussagekräftig waren... in einem gingen die FPS schonmal gut und gerne bis auf ca. 20 runter (bei ALLEM voll aufgedreht, also auch das CPU-relevante)!

Frage ist jetzt: Liegt's am CPU-Limit oder an der GPU? Er/Sie/Es hatte afaik nen i5 760 @ 4 GHz oder in dem Bereich.

Mich würden Erfahrungen aus erster Hand interessieren, am besten im Vergleich zur 7970. Ist aber nicht zwingend notwendig... bin über jedewede Information happy! :)


Hab GTIV jetzt mal angespielt alles@Max 2560x1600 mit meiner GTX680 und die FPS waren nie unter 40 das Spiel läuft sehr gut obwohl ich die ganzen Patches noch nicht installiert habe, hier noch mal der ingame Bench.

http://www.abload.de/thumb/gta4wkjv.jpg (http://www.abload.de/image.php?img=gta4wkjv.jpg)

y33H@
2012-04-04, 18:02:38
Mit der aktuellen Version hauen die Schatten viel mehr rein.

kunibätt
2012-04-04, 23:53:17
Habe in einem alten XS-Thread gesehen, dass jemand da einen Noctua-CPU-Kühler mit einem Phenom (2?)-Bracket auf einer GTX580 montiert hat. Also wer mal Zeit und Lust hat :biggrin:

Raff
2012-04-05, 08:34:25
Dann doch lieber erst mal weitere Custom-Designs abwarten. Das z. B.: Palit Geforce GTX 680 Jetstream Test: Die neue High-End-Referenz? (http://www.pcgameshardware.de/aid,876357/Palit-Geforce-GTX-680-Jetstream-Test/Grafikkarte/Test/)

MfG,
Raff

Merkor
2012-04-05, 09:07:27
Die Customs sind bisher alle enttäuschend dafür, dass sie die 200 Watt Wärme bei gleicher Lautstärke im Vergleich zum Referenzdesign nahezu komplett im Gehäuse herumwirbeln. Ich verstehe nicht, warum die Hersteller mit diesem Effizienzmonster nicht etwas besseres anstellen. Die MSI bleibt noch eine letzte Hoffnung...

Raff
2012-04-05, 09:13:48
Asus wird sicher auch eine hübsche Direkt-Kuh bauen. Und Zotac hat möglicherweise auch etwas Hübsches in der Pipeline. Da kommt noch einiges.

MfG,
Raff

M4xw0lf
2012-04-05, 10:07:45
Die "Direkt-Kühe" sind aber auch bei den HD7000-Karten jetzt nicht so der Hammer, das haben andere Hersteller besser hingekriegt.

PHuV
2012-04-05, 10:59:42
Dann doch lieber erst mal weitere Custom-Designs abwarten. Das z. B.: Palit Geforce GTX 680 Jetstream Test: Die neue High-End-Referenz? (http://www.pcgameshardware.de/aid,876357/Palit-Geforce-GTX-680-Jetstream-Test/Grafikkarte/Test/)

Viel zu fett, paßt dann nicht für T-SLI oder Q-SLI. :mad:

mironicus
2012-04-05, 11:55:57
Sapphire oder Powercolor sollten mal eine GTX 680 veröffentlichen, dann hätten wir von Anfang an auch leise GTX 680 mit 0,3 sone idle und 1,2 sone Last wie bei AMD. :D
Als ob 195 Watt Leistung nicht leise zu kühlen seien... die jetzigen Custom-Designs sind echt ein Witz.

N0Thing
2012-04-05, 12:16:02
Palit Geforce GTX 680 Jetstream Test: Die neue High-End-Referenz? (http://www.pcgameshardware.de/aid,876357/Palit-Geforce-GTX-680-Jetstream-Test/Grafikkarte/Test/)


Schade, ich hatte mir ein leisere Kühlung von dieser Karte versprochen. Dann heißt es eben, weiter auf den nächsten Versuch warten.

dildo4u
2012-04-05, 14:45:22
Accelero Twin Turbo II auf der 680

Load 51°
http://hardforum.com/showpost.php?p=1038557526&postcount=10

Arctic hat sogar eigene Werte mit der 680 auf der Website 58° 0.3 Sone

http://www.arctic.ac/de/p/cooling/vga/375/accelero-twin-turbo-ii.html

Merkor
2012-04-05, 16:12:59
Accelero Twin Turbo II auf der 680

Kackhässlich, aber so leise sollte ein Custom-Design sein. Kühlertausch kommt zumindest für mich nicht in Frage. Die Hersteller haben mit ihren aggressiven Lüftersteuerungen alle Angst vor den Temperaturen in Flammenhöllenregionen ohne Klimaanlage. Da muss es eben der kleinste gemeinsame Nenner sein. Gute Nacht, wenn dieser Nenner bei 3,5 sone ist... :freak:

dildo4u
2012-04-05, 22:02:16
Computerbase GTX 680 SLI vs. HD 7970 CF

http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-gtx-680-sli-vs.-hd-7970-cf/

Knuddelbearli
2012-04-05, 22:32:48
ergebniss wundert mich schon sehr

in 2560 skaliert die 680 um 10% besser als die 7970 obwohl normalerweise AMD besser skaliert


der Teil mit dem SSAA ist aber mal echt typisch CB. Sie benchen ja sowieso alles neu wieos können sie dort kein dx10+11 SSAA reinnehmen ...
Da sieht man das CB einfach nach Schema F durchtestet und überall nur C+P benutzt ...

dildo4u
2012-04-05, 22:34:26
ergebniss wundert mich schon sehr

in 2560 skaliert die 680 um 10% besser als die 7970 obwohl normalerweise AMD besser skaliert

Kommt halt auf die getesteten Games an wie immer.

Knuddelbearli
2012-04-05, 22:41:42
naja bei CB sind es schon soviele das es da recht ausgeglichen sein sollte. Auch finde ich die auswahl sehr gut nur SC2 fehlt.

Ansonsten sind alle wichtigen Spiele oder Engines dabei.

Sind aber recht viele dabei mit über 100% skalierung wtf?

aufkrawall
2012-04-05, 22:47:42
Die sollten mal die Screenshots aktualisieren, sind immer noch von Cayman und Fermi.

Blaire
2012-04-05, 22:49:02
Kommt halt auf die getesteten Games an wie immer.

Ich glaube das Pendel würde bei mehr als 2 GPUs noch mehr in Richtung SLI ausschlagen, einfach weil dafür der Profile-Support viel aktueller und besser funktioniert.

Knuddelbearli
2012-04-05, 22:56:38
naja zumindest 3 CF soll, was man so hört ( auch von leuten die 2 PCs mit SLi und CF zuahsue stehen ahben ), bei MR besser sein als 2er SLI

boxleitnerb
2012-04-05, 23:11:32
naja zumindest 3 CF soll, was man so hört ( auch von leuten die 2 PCs mit SLi und CF zuahsue stehen ahben ), bei MR besser sein als 2er SLI

Das darf doch stark bezweifelt werden. Geht es da u.a. immer noch um diesen ominösen Test bei THG, bei dem Informationen und Diagramme fehlen und bei dem der Tester ins CPU-Limit gerannt ist und deshalb weniger MR hatte?

Und was die Erfahrungsberichte angeht, ich weiß ja nicht. Erstmal: Quelle? Dann wieder CPU-Limit. 50% mehr Power bei 3 vs. 2 Karten und die Tatsache, dass da meistens MSAA verwendet wird, machen diese Annahme nicht unplausibel. Auslastungsbeweise fehlen dann oft und wenn es anhand von Frametimes gemessen wird, kann man es eh vergessen, weil Fraps z.B. die Frame Metering Geschichte von Nvidia gar nicht mitmisst.

Palpatin
2012-04-05, 23:39:26
Sind aber recht viele dabei mit über 100% skalierung wtf?
Soviel hab ich jetzt nicht gefunden, bei der 680 könnte das aufgrund des Turbos sogar realistisch sein ?

Knuddelbearli
2012-04-05, 23:44:00
Dragon Age 2 da skaliert die AMD Karte durchgängig über 100%

http://www.computerbase.de/forum/showpost.php?p=11804686&postcount=19

und Fischkopp hat 2 High End Systeme zuhause eins mit SLi eins mit CF

boxleitnerb
2012-04-05, 23:51:07
Einen Anwender kannst du nennen. Na wenn der das sagt, dann muss es ja stimmen ;)

Knuddelbearli
2012-04-05, 23:52:18
sind 2 :P

Hugo78
2012-04-05, 23:54:04
Dieses "Hörensagen" bringt doch nix.

Das Fazit ihres Tests bei CB ist dagegen unmissverständlich:
Zu guter Letzt haben auch die Southern-Island- sowie die Kepler-Grafikkarten immer noch mit unschönen Mikrorucklern zu kämpfen.
Nvidia geht lobenswerter Weise aktiv dagegen vor und schafft es erfolgreich, die Ruckler zu mindern.
Beseitigt haben die Kalifornier diese aber nicht. AMD hat bis jetzt noch nicht einmal etwas dagegen unternommen, was durchaus enttäuschend ist.

boxleitnerb
2012-04-05, 23:58:46
Zu demselben Fazit kommt auch HardOCP regelmäßig bei ihren SLI/CF-Tests. Sie beschreiben bei jedem Test aufs Neue das Spielgefühl der beiden Lösungen und gehen auf Auffälligkeiten ein. Bei CF sind mehr fps nötig, um dasselbe (subjektive) Spielgefühl zu erreichen. Da kann die Skalierung gerne 10-15 Prozentpunkte besser sein - das bringt überhaupt nichts, wenn das, was hinten rauskommt, unrund ist.
Das Frame Metering ist sicher auch nicht umsonst was die Skalierung angeht, aber wie man sieht bzw. immer wieder liest, zahlt es sich aus.

Knuddelbearli
2012-04-06, 00:07:11
naja wobei das CB Fazit seit Jahren nur aus C+P besteht und da hat sich bei NV wie auch AMD einiges getan ...

Iruwen
2012-04-06, 01:38:56
http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-gtx-680-sli-vs.-hd-7970-cf/8/#abschnitt_fazit
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/25/#abschnitt_fazit
http://www.computerbase.de/artikel/grafikkarten/2008/test-crossfire-sli-oder-einzelkarte/26/#abschnitt_fazit
http://www.computerbase.de/artikel/grafikkarten/2009/bericht-catalyst-9.8-und-geforce-190.62-im-cf-sli-vergleich/11/#abschnitt_fazit
http://www.computerbase.de/artikel/grafikkarten/2009/test-nvidia-geforce-gtx-285-sli/26/#abschnitt_fazit
http://www.computerbase.de/artikel/grafikkarten/2009/test-3-way-sli-vs.-quad-sli-vs.-crossfire-x/21/#abschnitt_fazit

Blub blub?

dildo4u
2012-04-06, 02:13:29
naja wobei das CB Fazit seit Jahren nur aus C+P besteht und da hat sich bei NV wie auch AMD einiges getan ...
Nö es ist nicht nur copy and paste,es wird z.b speziell Serious Sam 3 negativ genannt ein neues Game wo AMD erst vor kurzem ein neues Profil erstellen musste.

boxleitnerb
2012-04-06, 13:07:29
Zu den Userberichten bzgl. MR:
fischkopp und ich haben da grad eine interessante Diskussion gehabt, auf CB bzgl. Mikroruckler. Er sagte, er hat mit zwei und drei 7970ern fast dieselben avg fps. So wie ich es mir dachte - CPU-Limit. Natürlich oder künstlich (in etwa durch ein verkorkstes CF-Profil) sei mal dahingestellt. Die CPU diktiert maßgeblich die Ausgabefrequenz der einzelnen Bilder, die Grafikkarten müssen auf den Prozessor warten. Daher auch keine/kaum Mikroruckler. Das ist unabhängig von Trifire.

dildo4u
2012-04-06, 14:39:14
Gigabyte Geforce GTX 680 Windforce 3C OC mit Triple-Fan-Design abgelichtet

Das nun blaue PCB und der GK104 bekommen einen eigens entwickelten Kühler spendiert. Der massive Aluminium-Block wird gleich von drei gesteuerten 80-Millimetern-Lüftern auf Temperatur gehalten. Drei 8-Millimeter-Heatpipes aus Kupfer transportieren die Wärme weg vom Chip. Die Stromversorgung erhielt eine Erweiterung. Nunmehr sind jeweils ein 6- und 8-pin-Stromanschluss verlötet. Alle fünf Phasen sind freigeschaltet (normal nur vier).

Guru 3D berichtet ferner von den Taktraten. Der GPU-Takt beträgt 1.071 MHz (Basis) und über den Boost 1.124 MHz. Der GDD5-Speicher wird mit 1.502 MHz angetrieben.

http://www.pcgameshardware.de/aid,876671/Gigabyte-Geforce-GTX-680-Windforce-3C-OC-mit-Triple-Fan-Design-abgelichtet/Grafikkarte/News/

mironicus
2012-04-06, 15:10:07
Bei Windforce sind die Lüfterprofile häufig nicht so auf Lautstärke getrimmt. Wenn die jetzt von PCGH getestet wird, wird die wahrscheinlich verrissen, weil sie über 5 Sone laut ist und die GPU dabei auf unter 50 Grad kühlt... :D

Raff
2012-04-06, 16:45:18
Kein Verriss, die kriegt wegen ihrer Geschwindigkeit trotzdem eine gute Note – und Interessenten den Tipp, mit welcher manuellen Drehzahl die Temperaturen passen, ohne dass die Ohren abfallen. ;)

MfG,
Raff

V2.0
2012-04-06, 17:24:20
Wie lang ist die?

dargo
2012-04-06, 17:48:41
Bei Windforce sind die Lüfterprofile häufig nicht so auf Lautstärke getrimmt. Wenn die jetzt von PCGH getestet wird, wird die wahrscheinlich verrissen, weil sie über 5 Sone laut ist und die GPU dabei auf unter 50 Grad kühlt... :D
Zu recht.

MechWOLLIer
2012-04-07, 12:08:51
naja wobei das CB Fazit seit Jahren nur aus C+P besteht und da hat sich bei NV wie auch AMD einiges getan ...
Glaub mir, es ist nicht nur copy and paste. Wir schauen uns die Mikroruckler bei jedem Multi-GPU-Test immer neu an - diesmal unter anderem in SS3. Der Text liest sich einfach deswegen immer ähnlich, weil sich eben bei AMD und Nvidia nichts geändert hat :)

boxleitnerb
2012-04-07, 12:20:36
Wollt ihr das Thema vielleicht mal ausführlicher behandeln? Ein paar Messungen machen und zu jedem getesteten Spiel eure subjektiven Eindrücke schildern?

V2.0
2012-04-07, 14:24:20
Laut THQ ist die Gigabyte 27,5cm lang und praktisch ebenso laut unter last wie das Referenzdesign. :(

dildo4u
2012-04-07, 14:33:04
Nvidia GeForce GTX 680 bei 1957 MHz

http://www.pcgameshardware.de/aid,876848/Nvidia-GeForce-GTX-680-bei-1957-MHz/Grafikkarte/News/

Kingpin lässt nach nicht mal nen 3960 am Start. *g*

Iruwen
2012-04-07, 14:33:13
Die Hersteller gehen halt auf Nummer sicher damit damit die Karte nicht abraucht wenn jemand seinen unbelüfteten Rechner vor der Heizung stehen hat. Wie die Temperaturen und die Lautstärke bei manueller Steuerung aussehen ist (für uns) wichtiger - dass die PCGH eher die Standardeinstellungen bewertet finde ich aber auch gut weil die meisten wohl daran nicht rumfummeln werden.

aufkrawall
2012-04-07, 14:36:01
Wobei das mittlerweile ja echt einfach ist.
Wenn ich an die Krämpfe früher mit dem RivaTuner denke...

dargo
2012-04-07, 15:40:27
Nvidia GeForce GTX 680 bei 1957 MHz

http://www.pcgameshardware.de/aid,876848/Nvidia-GeForce-GTX-680-bei-1957-MHz/Grafikkarte/News/

Kingpin lässt nach nicht mal nen 3960 am Start. *g*
Das ist alles nur wayne... bei der mickrigen Bandbreite.

Pumpi74
2012-04-07, 15:51:45
Der Text liest sich einfach deswegen immer ähnlich, weil sich eben bei AMD und Nvidia nichts geändert hat :)

Wenn ich das recht verstanden habe, dann ist im NV Treiber der 680er nun der fps-Limiter sogar hoch offiziell drin. Auf diesen heiligen Gral, der locker in 60-80% der Fälle, die MR eliminiert wird überhaupt nicht eingegangen. Vermutlich könnten an die 100% der Spiele ordentlich laufen, wenn die Hersteller an diesen besagten fps-Limiter denken würden, wärend des programmierens. Um sie an den Limiter zu errinnern müssten dann in Reviews und Tests vielleicht auch mal Spiele heraus gestellt werden die gut mit der GTX 680 und Limiter funktionieren.

Auch wenn man das ehrenamtlich macht, da sollte man sich schon aus persönlichem Interesse hinter klemmen.

dildo4u
2012-04-07, 16:00:42
Das ist alles nur wayne... bei der mickrigen Bandbreite.
Naja 60% mehr Leistung als Default,wenn neuere Games so wie BF3 skalieren sieht's gut aus.Ich vermute das das sogar oft der Fall sein wird,weil auch die neuen Konsolen nicht mit massig Bandbreite ausgestattet sind.

64fps sind ca 50% über GTX 580.(41fps)
http://www.pcgameshardware.de/aid,876078/Gainward-Geforce-GTX-680-Phantom-Test/Grafikkarte/Test/
http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=6

Und klar kann man auch die 580 Oc aber die 680 scheint mit Custom Stormversorgung mehr Luft zu haben.

dargo
2012-04-07, 16:19:30
Naja 60% mehr Leistung als Default...
Schlagen da überhaupt 60% durch? Kann ich mir kaum vorstellen bei sehr hoher Auflösung und viel AA.

Edit:
Ach... sorry. Ich sehe jetzt erst, dass die die Bandbreite auf 267GB/s gebracht haben. Naja... mit flüssigen Stickstoff. Wer nutzt das schon? :tongue:

aufkrawall
2012-04-07, 16:40:20
Wenn ich das recht verstanden habe, dann ist im NV Treiber der 680er nun der fps-Limiter sogar hoch offiziell drin. Auf diesen heiligen Gral, der locker in 60-80% der Fälle, die MR eliminiert wird überhaupt nicht eingegangen.
Ist kein heiliger Gral, da er selber Mikroruckler hervorruft.

Pumpi74
2012-04-07, 16:44:46
Der fps-Limiter bewirkt in manchem Spiel gegenteiliges, speziell bei zu optimistischer Einstellung. Generell kann er sehr wohl nahe am Optimum arbeiten/glätten.

aufkrawall
2012-04-07, 16:46:03
Der fps-Limiter bewirkt in manchem Spiel gegenteiliges, speziell bei zu optimistischer Einstellung. Generell kann er sehr wohl nahe am Optimum arbeiten/glätten.
Im Vergleich mit Vsync wirkt das Resultat aber für mich immer unrund.

Pumpi74
2012-04-07, 16:54:57
Ich benutze ihn meist kombiniert mit Vsync, wenns geht.

aufkrawall
2012-04-07, 16:59:21
Und auch dann merk ich noch Microstuttering.
Das fällt besonders auf, wenn ich auf die Bildschirmränder etwa beim ebenen Laufen nach vorne achte.
Jede Sekunde gibts nen kleinen Hicup.

dildo4u
2012-04-07, 17:55:00
Geforce GTX 680: Kein Downsampling mehr möglich? Update: Nvidia verspricht Abhilfe

http://www.pcgameshardware.de/aid,875173/Geforce-GTX-680-Kein-Downsampling-mehr-moeglich/Grafikkarte/News/

Knuddelbearli
2012-04-07, 18:40:43
ähm ja und jeden tag 100L Stickstof zum spielen kaufen ? ^^

oder hast du das stickstoff überlesen und denkst die lässt sich wirklich soweit mit lukü oder wakü ocen ? ^^

AnarchX
2012-04-07, 18:41:42
Für Rekord-OC-Werte bitte diesen Thread verwenden: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=477369

Blaire
2012-04-07, 20:10:04
Geforce GTX 680: Kein Downsampling mehr möglich? Update: Nvidia verspricht Abhilfe

http://www.pcgameshardware.de/aid,875173/Geforce-GTX-680-Kein-Downsampling-mehr-moeglich/Grafikkarte/News/

Bravo :smile: Also womöglich doch nur ein Treiber-Bug.

Knuddelbearli
2012-04-07, 20:18:26
der nur die 680 betrifft?

dildo4u
2012-04-07, 20:27:39
Warum nicht was extreme Auflösungen bzw Multimonitor Auflösungen angeht wurde einiges bei der 680 Umgebaut,z.b braucht man kein SLI mehr für 3 Monitore.

-=Popeye=-
2012-04-07, 21:24:18
der nur die 680 betrifft?

Ja, steht doch im Artikel.

gnomi
2012-04-07, 21:24:28
Geforce GTX 680: Kein Downsampling mehr möglich? Update: Nvidia verspricht Abhilfe

http://www.pcgameshardware.de/aid,875173/Geforce-GTX-680-Kein-Downsampling-mehr-moeglich/Grafikkarte/News/

Klingt gut. :)
Bei mir gab es teilweise Probleme bei der Darstellung.
In Ridge Racer Unbounded wurde das Intro bspw. nicht abgespielt, (roter Bildschirm) und gelegentlich fehlten HUD Texte in den Fahrzeugauswahlmenüs.
Mass Effect 3 hingegen lief soweit ich das beobachten konnte im Multiplayer fehlerfrei.
Ich nutze ab und an 2520*1575 (1,5* native Auflösung).
Statt 60 Herz Monitorfrequenz war auch nur 57 möglich.

john carmack
2012-04-07, 22:45:31
hab eine GTX460AMP zu hause.
Also fast GTX470 niveau.

Um wieviel % ist die 680 schneller?

kunibätt
2012-04-07, 22:53:41
Bei 100% GPU-Limit ist ca. 2x drin.

Schrotti
2012-04-07, 23:28:59
hab eine GTX460AMP zu hause.
Also fast GTX470 niveau.

Um wieviel % ist die 680 schneller?

Schau hier (etwas runter rechnen musst du noch).

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=523751

john carmack
2012-04-08, 10:11:54
Schau hier (etwas runter rechnen musst du noch).

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=523751


naja... für mich nicht gerade ausagekräftig.
Die 470 ist ja übertaktet. (bei VCore Ausreizung und 35% Übertaktung)

MechWOLLIer
2012-04-08, 11:42:53
Wenn ich das recht verstanden habe, dann ist im NV Treiber der 680er nun der fps-Limiter sogar hoch offiziell drin. Auf diesen heiligen Gral, der locker in 60-80% der Fälle, die MR eliminiert wird überhaupt nicht eingegangen. Vermutlich könnten an die 100% der Spiele ordentlich laufen, wenn die Hersteller an diesen besagten fps-Limiter denken würden, wärend des programmierens. Um sie an den Limiter zu errinnern müssten dann in Reviews und Tests vielleicht auch mal Spiele heraus gestellt werden die gut mit der GTX 680 und Limiter funktionieren.

Auch wenn man das ehrenamtlich macht, da sollte man sich schon aus persönlichem Interesse hinter klemmen.


Nunja, ich sehe in einem Framelimiter keinen heiligen Gral bei Mikrorucklern. Das Grundproblem löst so ein Teil ja nicht und je nach dem mikroruckelt es brav weiter. Ja, der Limiter kann helfen, aber das ist doch wohl hoffentlich nicht die Lösung für Mikroruckler. Es kann manchmal ja auch plötzlich anders herum gehen. Zumal das eben die reinste Frickelarbeit ist, die man eigentlich keinem zumuten kann, wenn man 1000 Euro und mehr für Grafikkarten ausgibt. Zumal ich von dem Limiter ja auch nicht viel hab, wenn man den auf 30 FPS einstellen muss, damit es sinnvoll sein soll. Das kanns doch nicht sein :)

Wollt ihr das Thema vielleicht mal ausführlicher behandeln? Ein paar Messungen machen und zu jedem getesteten Spiel eure subjektiven Eindrücke schildern?
Mal schauen. AMD, Nvidia und intel machen es einem gerade nicht leicht, sich um Kram abseits der Produkttests zu kümmern :)

dargo
2012-04-08, 11:51:27
hab eine GTX460AMP zu hause.
Also fast GTX470 niveau.

Um wieviel % ist die 680 schneller?
Faktor 2.

Raff
2012-04-08, 11:53:24
Und wenn 1 GiB Speicher nicht genügt (das passiert jenseits von Full-HD oder mit fettem AA oft), dann auch mal deutlich mehr. Lohnt sich ganz ohne Zweifel.

MfG,
Raff

dargo
2012-04-08, 11:56:57
Und wenn 1 GiB Speicher nicht genügt (das passiert jenseits von Full-HD oder mit fettem AA oft), dann auch mal deutlich mehr. Lohnt sich ganz ohne Zweifel.

Jo... aber schon alleine wegen Faktor 2 bei der "Rohleistung" finde ich super. Das nenne ich dann ein vernünftiges Upgrade. :)

Knuddelbearli
2012-04-08, 12:45:09
wie funktioniert das jetzt mit 4 Monitoren bei NV nun ?

man kann 3 zum gamen benutzten und den 4ten nur als Desktop / Film schauen?

wieso eigentlich diese Beschränkung ?

aufkrawall
2012-04-08, 13:04:14
Zu mehr reicht die Performance doch eh nicht.
Für Surround nimmt man besser die Radeon.

Hugo78
2012-04-08, 13:17:09
Für Surround nimmt man besser die Radeon.

Die GTX 680 bräuchte sicher noch mehr Bandbreite für ihre hohe Grundperformance, aber mit dem was sie hat, reicht es dennoch schneller zusein.
Auch in "Surround".
http://www10.pic-upload.de/08.04.12/qszqq3s72tx4.jpg (http://www.pic-upload.de/view-13681975/hmmm.jpg.html)
- http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-gtx-680-sli-vs.-hd-7970-cf/3/#abschnitt_leistung_mit_aaaf

Knuddelbearli
2012-04-08, 13:32:08
ging mir eher um den Grund für das. Auch gibt es genug alte Games. Oder zB Supreme Commander zocken auf Surround und die Minimap auf dem 4ten. Odere MMOGs mit Mutliboxing ( was mich besonders interessieren würde )

mironicus
2012-04-08, 14:49:28
Gibt es eigentlich Witcher 2 - Benchmarks mit Übersampling auf der GTX 680 vs 7970?

Blaire
2012-04-08, 19:25:35
Gibt es eigentlich Witcher 2 - Benchmarks mit Übersampling auf der GTX 680 vs 7970?

http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-gtx-680-sli-vs.-hd-7970-cf/4/#abschnitt_leistung_mit_ssaa

y33H@
2012-04-08, 19:36:30
CF ist da ja besonders gut ... und Skyrim sowie Batman AC auch :usad: Dafür ist SLI in Hard Reset kaputt und bei Trackmania 2 völlig. Schade, dass das beide IHVs nicht in den Griff bekommen.

Blaire
2012-04-08, 21:05:58
CF ist da ja besonders gut ... und Skyrim sowie Batman AC auch :usad: Dafür ist SLI in Hard Reset kaputt und bei Trackmania 2 völlig. Schade, dass das beide IHVs nicht in den Griff bekommen.

Für Trackmania2 gibts ein Alternativ-SLI Profil was die Bremse löst, aber wohl zu aggresiv ist, das NVIDIA es mit in die Treiber aufnimmt. Wenn es aber so ist, das SLI langsamer als SingleGPU performt, sollte man SLI dann gleich deaktivieren. Generell hat man aber mit SLI recht wenig Probleme, abgesehn von der Mikroruckler-Geschichte. :wink:

Godmode
2012-04-08, 22:44:07
Test: Palit GeForce GTX 680 Jetstream

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22051.html?start=16

Tolle Karte mit super Kühlung!

aufkrawall
2012-04-08, 22:45:58
Wenns so was für 300€ weniger ohne Werks-OC gibt, würd ichs kaufen.
Ich leg nicht für OC drauf...

Godmode
2012-04-08, 22:47:03
Wenns so was für 30€ weniger ohne Werks-OC gibt, würd ichs kaufen.
Ich leg nicht für OC drauf...

Ja das lassen sich die Hersteller immer vergolden. Die Kühler ist aber wirklich gelungen. Bin gespannt was die anderen Hersteller für Designs bringen werden.

y33H@
2012-04-08, 22:49:11
Die Kühlung ist viel zu laut.

Mit 50,5 dB(A) ist sie fast genau ein Dezibel leiser als die Referenzversion.kA wie das im Fazit dann auf einmal eine "sehr niedrige Last-Lautstärke" sein soll. PCGH misst 3,5 Sone beim Referenzdesign und 3,6 Sone bei der Palit ... leise ist was anderes. In beiden Fällen.

dargo
2012-04-08, 22:58:03
Jep... die Kühlung ist wohl ein schlechter Scherz. :|

Iruwen
2012-04-09, 00:20:08
Mit Relationen haben die's nicht so, da steht auch
Negative Aspekte der Palit GeForce GTX 680 Jetstream:
- hoher Last-Stromverbrauch

Der Unterschied zur Stock 680 sind ganze 7W und drunter steht
Unter Last liegen die Radeon HD 7970 und die GeForce GTX 680 nahezu gleichauf - die GeForce GTX 680 Jetstream kommt aufgrund ihrer Übertaktung auf einen etwas höheren Verbrauch, der aber nur im messbaren Bereich liegt und auf die Stromrechnung keinerlei Einfluss haben sollte.

/e: irgendwie sind unter Last auch alle Karten ziemlich ähnlich laut, zweifelhafte Messmethoden.

/e²: mit 1,215V und OC ist die Karte noch kühler als die Referenz, schlecht ist die Kühlung also auch nicht. Man muss halt wie bei allen Karten bisher manuell eingreifen.

Godmode
2012-04-09, 06:37:14
Die Kühlung ist viel zu laut.

kA wie das im Fazit dann auf einmal eine "sehr niedrige Last-Lautstärke" sein soll. PCGH misst 3,5 Sone beim Referenzdesign und 3,6 Sone bei der Palit ... leise ist was anderes. In beiden Fällen.

Hab nur auf die Kühlleistung unter Last geachtet und 7° weniger fand ich nicht so schlecht. Klar die Lautstärke ist nicht so berühmt.

Natürlich schlecht gegen sowas:
http://www.pcgameshardware.de/aid,874878/Geforce-GTX-680-welche-VGA-Kuehler-passen-Test-Arctic-Twin-Turbo-2-Thermalright-Shaman/Grafikkarte/Test/

V2.0
2012-04-09, 10:51:41
Die Kühlung ist nur etwas leiser als die laute Referenz, nicht lohnenswert.

Odal
2012-04-09, 11:28:07
Jo... aber schon alleine wegen Faktor 2 bei der "Rohleistung" finde ich super. Das nenne ich dann ein vernünftiges Upgrade. :)


imho sollte man eh erst bei Faktor 2 ans aufrüsten denken, alles Andere lohnt sich nur für Enthusiasten

Johnny Rico
2012-04-09, 13:46:08
Tolle Karte mit super Kühlung!
Die Kühler ist aber wirklich gelungen.
Ich unke ungerne, aber derart darauf reinzufallen und dafür zu werben... Zum Glück gibts transparente Werte zum selbst nachdenken.
3°C kühler und fast 1 db leiser :biggrin:

Matrix316
2012-04-09, 14:17:19
Seit wann ist denn die Referenzkühlung laut?? Die ist doch so leise wie nur was!

Raff
2012-04-09, 14:23:15
Dreieinhalb Sone sind nicht leise. Das ist klar zu hören (wenn auch nicht uuultrastörend).

MfG,
Raff

y33H@
2012-04-09, 14:29:05
Seit wann ist denn die Referenzkühlung laut? Die ist doch so leise wie nur was!Entweder gute Ironie oder mieser Troll-Versuch :freak: selbst im idle ist die Karte lauter als mein ganzer Rechner unter Last ...

Bioshock
2012-04-09, 14:29:26
ICh will umsteigen von einer Gigabyte GeForce GTX 460 OC auf GTX 680 mit Referenzkühlung. Was meinstn @Raff, ist es "sehr Laut"? Du hast doch sicher nen paar Daten im Kopf ;) Danke!

Mfg

Raff
2012-04-09, 14:46:39
Deine Karte erzeugt (aus dem Kopf) nur etwa 1,5 Sone beim Spielen, die GTX 680 ist also etwa doppelt so laut. Mit etwas TDP-Tweaking/Undervolting wird's schon nicht so schlimm. Mein Tipp wäre eher die Gainward GTX 680 Phantom (http://www.pcgameshardware.de/aid,876078/Gainward-Geforce-GTX-680-Phantom-Test/Grafikkarte/Test/) plus seitliche Extrabelüftung ihres Kühlgrills – das wird mit einer manuellen Lüfterdrossel schön leise. Ohne Durchzug im Gehäuse ist die so laut wie das Rafferenzdesign.

MfG,
Raff

Bioshock
2012-04-09, 14:57:05
Danke! Schöne Karte, aber wohl auch teuer.Ich versuchs erstmal mit dem Referenzkühler.

Mfg

dargo
2012-04-09, 15:20:09
Seit wann ist denn die Referenzkühlung laut?? Die ist doch so leise wie nur was!
Also wenn für dich über 3 Sone leise ist dann würde sich ein Besuch beim HNO empfehlen. :tongue:

Mal im ernst... das hört man schon recht gut. Klar... beim Spielen mag das nicht so ganz stören (mir ist Idle-Lautstärke wesentlich wichtiger). Wenn ich aber dabei bedenke, dass eine OC-GTX 480 auf knapp über 1 Sone bei Last zu halten ist weißt du erst wie leise es gehen kann.

Raff
2012-04-09, 15:22:03
An sowas (Tolles) darf man sich eigentlich gar nicht erst gewöhnen. :biggrin: Das gilt auch für Leistung, Bildqualität ...

MfG,
Raff

Hugo78
2012-04-09, 15:55:17
GTX 680: Erste Bilder der übertakteten MSI Twin Frozr III aufgetaucht
http://www.pcgameshardware.de/aid,877044/GTX-680-Erste-Bilder-der-uebertakteten-MSI-Twin-Frozr-III-aufgetaucht/Grafikkarte/News/

Godmode
2012-04-09, 16:10:10
Ich unke ungerne, aber derart darauf reinzufallen und dafür zu werben... Zum Glück gibts transparente Werte zum selbst nachdenken.
3°C kühler und fast 1 db leiser :biggrin:

Es sind 7°C:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22051.html?start=4

Nicht leiser aber etwas kühler.

edit:
Jetzt checke ichs erst. Ich hab nur die Werte ohne OC angesehn und da hats nicht so blöd ausgesehn. Wenn man allerdings auf die Temps unter Overclocking geht, ists ein fail ;)

dildo4u
2012-04-09, 16:45:13
EVGA GeForce GTX 680 SC+ Review

From a performance standpoint, the GTX 680 SC+ delivers in spades. Upon first glance, the clock speeds seem to be conservative but once up and running, the card’s use of GPU Boost allowed core clocks to hover between 1215MHz to 1275MHz in most applications. The result was an in-game performance increase of about ten percent over the reference design, which is impressive.

Hand OC
~1.3Ghz bei 1.095V

With the core voltage set at 1.095V, we hit 1275MHz (which led to in-game frequencies of about 1330MHz) alongside a GDDR5 clock of 6360MHz

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/53144-evga-geforce-gtx-680-sc-review-21.html

boxleitnerb
2012-04-09, 17:01:06
Man kann die Spannung doch gar nicht manuell festtackern, oder? Der Turbo nimmt sich die Spannung, die er braucht.

kunibätt
2012-04-09, 17:05:58
@ Raff

Habe Lust auf den Twin Turbo umzubauen. Dazu habe ich 2 Fragen:
1.) Angenommen ich schneide mit einem Dremel den Bereich der Grundplatte, der die Schrauben um die GPU verdeckt, frei, müsste ich doch theoretisch die Grundplatte zusammen mit dem Twin Turbo verwenden können, oder ?

2.) Haben die original Schrauben vom original Kühler ein ähnlich schwaches Gewinde, wie bei den GTX 4XX-Karten? Die durfte man ja zu 50% rausbohren......

Chris Lux
2012-04-09, 17:53:23
Dreieinhalb Sone sind nicht leise. Das ist klar zu hören (wenn auch nicht uuultrastörend).ich bin von 2x GTX480 auf 1x GTX680 für mein triple screen setup umgestiegen, und für mich ist es jetzt himmlisch leise ;). ich denke aber auch, dass es mich in einer woche stören wird, denn die karte ist schon hörbar. im idle und spielen habe ich aber aktuell keine wirklich dringenden probleme damit...

Iruwen
2012-04-09, 18:55:36
Mich nervt schon meine 5870 PCS+ unter Last.

Mancko
2012-04-09, 20:14:12
Dreieinhalb Sone sind nicht leise. Das ist klar zu hören (wenn auch nicht uuultrastörend).

MfG,
Raff

Im Vergleich zur Konkurenz ist das aber leise :)

Odal
2012-04-09, 21:47:26
darum holt man sich generell eher kein Referenzlayout sondern was mit einer Kühlung die den Ansprüchen genügt

Matrix316
2012-04-09, 21:59:41
Also die 5870 und GTX 580 (jeweils Standardkühler) empfand ich lauter - im Idle und vor allem unter Last. Unter Last haben die nämlich ziemlich aufgedreht, während ich eigentlich kaum einen Unterschied ausmache zwischen Idle und Last mit der 680er.

dildo4u
2012-04-10, 11:39:14
Zotac GeForce GTX 680 Supreme Edition Graphics Card Review

1.4Ghz bei 1.35V

http://en.expreview.com/2012/04/08/zotac-geforce-gtx-680-supreme-edition-graphics-card-review/22203.html/5

If there doesn’t feature bottleneck with cooler, we believe that at higher voltage state, it would not be a big problem for core frequency to surge to 1.45GHz or even 1.5GHz in air-cooled condition.
Zotac’s Supreme series products have appeared in various overclocking record, so we also believe GTX 680 Supreme Edition graphics card could break new record in extreme overclocking state. However, the current BIOS has yet to be updated, how the excellent performance will be upon the official version of GTX 680 Supreme, which features optimized BIOS, improved component as well we adjustable memory voltage

Botcruscher
2012-04-10, 11:53:45
Stromverbrauch haut (trotz Drosselung?) ja mal richtig rein.

Iruwen
2012-04-10, 14:12:15
Knapp 60W mehr, kein Wunder bei der Spannung. Wundert mich dass Furmark überhaupt noch getestet wird.

/e: wäre ja schön wenn es von den ganzen Custom Designs auch irgendwann mal eins zu kaufen gäbe.

mironicus
2012-04-10, 14:42:07
Damit verbraucht sie aber immer noch weniger als eine GTX 580, oder...? :D

Raff
2012-04-10, 14:45:45
~170 Watt + 60 Watt = ziemlich genau GTX-580-Watt (Non-OC). ;)

MfG,
Raff

mironicus
2012-04-10, 14:52:48
Ist da treibermäßig eigentlich noch viel drin bei der GTX 680?

Die Unterschiede sind ja schon sehr groß gegenüber dem Vorgänger (Architektur).

Iruwen
2012-04-10, 15:15:10
*glaskugel reib* 17,389% innerhalb der nächsten sechs Monate.

Dural
2012-04-10, 16:16:14
die GTX 680 scheint generell auch ein gutes OC potential zu haben, liegt wohl auch an 28nm. aber es wird auch extrem übertrieben was man so liest, hatte bis jetzt zwei 7970 und beide haben die 1125MHz (overdrive max) ohne spannungs erhöhung (1,175Volt) nicht stabil hinbekommen! und eine spannungs-erhöhung für 24/7 würde ich bei beiden karten nicht empfehlen.

schade das die referenz GTX680 die möglichkeiten so extrem einschränkt. :rolleyes:

aufkrawall
2012-04-10, 17:45:45
und eine spannungs-erhöhung für 24/7 würde ich bei beiden karten nicht empfehlen.
Warum nicht?
Ein gutes Kühlerdesign, das die SpaWas deckt, und +0,1V steht nichts mehr im Weg.
Wenn man dadurch 100 Mhz mehr schafft, werd ichs machen, sobald ich ne vernünftige 680 hab.

V2.0
2012-04-10, 18:26:04
Zumindest bei ner Referenz 7970 würde ich mir eine Spannungserhöhung schon aus Gründen der Lastlautstärke nicht dauerhaft antun.

Dural
2012-04-10, 19:18:09
die aussage war natürlich nur auf die referenz modell mit stock kühler bezogen.

dargo
2012-04-10, 19:28:17
Zotac GeForce GTX 680 Supreme Edition Graphics Card Review

1.4Ghz bei 1.35V

http://en.expreview.com/2012/04/08/zotac-geforce-gtx-680-supreme-edition-graphics-card-review/22203.html/5
1350MHz GPU / 1800MHz Speicher :love2:

Wo kann man sie kaufen? :D

Ach Mist... dachte das wären non-OC Daten. :D

gedi
2012-04-10, 20:23:06
Zumindest bei ner Referenz 7970 würde ich mir eine Spannungserhöhung schon aus Gründen der Lastlautstärke nicht dauerhaft antun.

Kommt imo auf die VID an. Mit Powertune 20% macht meine mit 1.112V rockstable 1125x1575MHZ. Momentan liegen bei 1172x1624MHZ 1.153V an. Lüfter 49%, Tempmax: 73Grad Celsius rockstable.

(del)
2012-04-11, 14:29:27
Ich freue mich nun auf eine Wunderschöne 680 GTX ich hoff das mir die Fehler damit wie mit der MSI R7970 Lightning nicht passieren.
Ich habe damals übelst gute Erfahrungen mit zwei 570 GTX gemacht da konnte ich Battlefield 3 über Monate hinweg ohne einen Einbruch spielen. Ich find es super was Nvidia mit ihren Treibern macht bestes Beispiel ist der Aktuelle Beta. Ich weiss auch wie ausgereift die Treiber bei den zwei 570 GTX und der 500er Serie waren.

Nightspider
2012-04-12, 17:11:35
Na wenn das hier mal keine geile Version der GTX 680 wird:

http://www.pcgameshardware.de/aid,877556/Galaxy-Geforce-GTX-680-Hall-of-Fame/Grafikkarte/News/

Diese erlaubt sogar SingleSlot, falls ein Wasserkühler darauf passt.

http://i.imgur.com/XHUZu.jpg
http://i.imgur.com/JPhKf.jpg
http://i.imgur.com/3Vljg.jpg

Skysnake
2012-04-12, 17:19:47
Single-Slot Wakü gibts doch sogar schon von Galaxy wenn ich mich gerade nicht irre.

san.salvador
2012-04-12, 17:24:26
Na wenn das hier mal keine geile Version der GTX 680 wird:

http://www.pcgameshardware.de/aid,877556/Galaxy-Geforce-GTX-680-Hall-of-Fame/Grafikkarte/News/

Diese erlaubt sogar SingleSlot, falls ein Wasserkühler darauf passt.

http://i.imgur.com/XHUZu.jpg
http://i.imgur.com/JPhKf.jpg
http://i.imgur.com/3Vljg.jpg
Ein weißes PCB... :love2:

Chris Lux
2012-04-12, 17:26:36
viel spass an den hmdi dingern monitore > 1920x1200 mit ggf > 60Hz zu betreiben. mini DP waere hier die bessere wahl gewesen... somit aus meiner sicht schrott, denn er eine DP an der karte reicht nicht mehr heutzutage.

BigKid
2012-04-13, 11:48:33
Mal von den bisherigen Custom Lösungen für die gtx570/580 oder neuesten Tests ausgehend - was meint ihr gibt das beste Paket ab wenn man am OC nur moderat interessiert ist sondern mehr Wert auf Ruhe legt (und bereit ist dafür die Karte notfalls per manueller Steuerung auch mal 80-90 Grad warm werden zu lassen):

Galaxy OC ?
MSI TwinFrozr ?
Palit Jetstream ?
Gainward Phantom ?
POV TGT UltraChraged (weiss man schon ob da wieder ein Accelero drauf ist) ?
Zotac - Falls sie denn in Europa kommt ?

Der Phantom traue ich nicht mehr so recht - bin mit meiner GTX570 Phantom nicht nur glücklich...

aths
2012-04-13, 15:07:23
POV TGT UltraChraged (weiss man schon ob da wieder ein Accelero drauf ist) ?Der alte Triple-Fan ist zu dick für SLI-Kompatibilität. Auf dem Eigendesign ist aber eine Kühlung mit drei Lüftern, und 6+8-Pin-Stromversorgung ist auch geplant.

edit: Frechheit: Der Chef hat gerade das einzige Vorseriensample des POV-Eigendesigns das ich hier habe, an ein Hardware-Magazin ausgeliehen. *Schluchz*

Raff
2012-04-13, 15:17:22
Na welches das wohl ist? :biggrin:

MfG,
Raff

Liquaron
2012-04-13, 15:20:52
@ Raff

Wollt ihr nicht mal in PCGH einen GTX 680 CPU Skalierungsartikel machen?

Das würde mich und ich denke viele im Internet sehr interessieren.

Es gibt nämlich so einen Artikel leider nicht. Habe schon überall gesucht :)

Einfach so 5 - 10 CPUs nehmen und die aktuellen Titel mit einer GTX 680 vergleichen.

Es sind sich nämlich viele Leute unsicher, ob sich eine Aufrüstung (GTX 680 / 7970) mit einer aktuellen und weit verbreiteten 4 Kern CPU wie ein Phenom II lohnt.

Soul
2012-04-13, 15:24:05
Nen Ivy i5 und i7 beim testen nicht vergessen ;)

aufkrawall
2012-04-13, 15:30:11
Es sind sich nämlich viele Leute unsicher, ob sich eine Aufrüstung (GTX 680 / 7970) mit einer aktuellen und weit verbreiteten 4 Kern CPU wie ein Phenom II lohnt.
Ich kann dir auch so sagen, dass sich das nicht wirklich lohnt.
Mit dem Phenom hast du bei mittlerweile zig Spielen teils recht krasse FPS-Einbrüche, das macht keinen Spaß.
Wer so viel Geld für ne neue GK ausgibt, sollte auch was in nen 2500k investieren.

Bin ich froh, dass ich keinen Phenom mehr hab, das Ding ist gegen SB totale Steinzeit.

Liquaron
2012-04-13, 15:31:41
Ich kann dir auch so sagen, dass sich das nicht wirklich lohnt.
Mit dem Phenom hast du bei mittlerweile zig Spielen teils recht krasse FPS-Einbrüche, das macht keinen Spaß.
Wer so viel Geld für ne neue GK ausgibt, sollte auch was in nen 2500k investieren.

Bin ich froh, dass ich keinen Phenom mehr hab, das Ding ist gegen SB totale Steinzeit.


Naja das könnte man ja dann damit bestätigen.
Ich für mich kann z.B. sagen, dass es sich gelohnt hat :)
Ich möchte meine GTX 680 nicht missen und weiter in 1080p mit Max Details und viel AA und AF zocken.

y33H@
2012-04-13, 15:35:13
Das ist wie üblich massiv von den Settings und dem Spiel abhängig. Bei einem Shogun 2 etwa bremst ein Phenom II extrem, bei BF3 im MP auch (außer es ist ein X6) - während es bei Skyrim mittlerweile völlig egal ist. Außer man moddet ;-)

Liquaron
2012-04-13, 15:42:59
Das ist wie üblich massiv von den Settings und dem Spiel abhängig. Bei einem Shogun 2 etwa bremst ein Phenom II extrem, bei BF3 im MP auch (außer es ist ein X6) - während es bei Skyrim mittlerweile völlig egal ist. Außer man moddet ;-)


Und selbst da muss ich sagen, dass ich auf BF3 64er Servern bei hard hits nicht unter 35 FPS komme.
Wenn natürlich jemand den Anspruch hat dauerhaft im MP 64 Mann über 60 FPS zu kommen, braucht er auch mehr als 1 GTX 680 auf max Details^^

Ich fände einen Test echt Interessant :)

Gogo Raff!

y33H@
2012-04-13, 15:51:30
Alleine schon unter 50 Fps zu kommen, fände ich persönlich furchtbar. Dummerweise ist der MP praktisch nicht reproduzierbar zu benchen. Die CPU-Skalierung würde aber wenn wohl sowieso eher auf meinem denn auf Raffs Tisch landen ;-)

Liquaron
2012-04-13, 15:55:56
Alleine schon unter 50 Fps zu kommen, fände ich persönlich furchtbar. Dummerweise ist der MP praktisch nicht reproduzierbar zu benchen. Die CPU-Skalierung würde aber wenn wohl sowieso eher auf meinem denn auf Raffs Tisch landen ;-)


Ah sorry, das habe ich vergessen.

Bittööööö....ja mit dem MP gebe ich dir Recht :)

Aber dann evtl. alle aktuellen Spiele?

Ich denke wirklich, dass das sehr viele Menschen interessieren würde.

y33H@
2012-04-13, 16:16:11
Alle? :eek: Reichen nicht auf 5 oder so? :usad:

aufkrawall
2012-04-13, 16:19:04
Alleine schon unter 50 Fps zu kommen, fände ich persönlich furchtbar.

Liegt aber auch an der Engine, die läuft mit konstanten 60 FPS und Vsync auch nicht wirklich weich.

Liquaron
2012-04-13, 16:28:32
Alle? :eek: Reichen nicht auf 5 oder so? :usad:

Naja nimm doch Games die derzeit am meisten gezockt werden :)

Batman AC, BF3, Anno 2070, SC2, Skyrim, Dirt 3, Crysis 2.

Ich denke das reicht :D

Dann haste imo ne ganz gute Mischung :)

Naennon
2012-04-13, 18:42:47
yeeha, raff


habt ihr rein zufällig das BIOS der Palit 680 Jetstream gespeichert?

meine 4 GB Jetstream ist "kaputt", hat scheinbar falsches BIOS

sind die gleichen Takte geflasht wie bei der Stock GTX 680
bräuchte das mal wenn das ginge..

y33H@
2012-04-13, 18:49:38
http://www.techpowerup.com/vgabios/index.php?page=1&architecture=&manufacturer=&model=GTX+680&interface=&memSize=0

Entweder da was oder bis Montag warten ;-)

Naennon
2012-04-13, 19:29:45
da gibts leider keins...

y33H@
2012-04-13, 19:35:37
Ich behaupte dreist, Palit hat die LüSteu des RefDesigns übernommen *g*

Naennon
2012-04-13, 19:51:25
du verstehst nicht ^^

http://gpuz.techpowerup.com/12/04/13/45g.png

das is meine Jetstream, die haben ALLES von der Referenz genommen... ich brauche ein BIOS

Naennon
2012-04-13, 19:52:06
das Gigabyte geht übrigens nicht, wäre zwar ein passendes, ist aber mit GPU-Z ausgelesen und daher korrupt, kann man nicht flashen

y33H@
2012-04-13, 19:54:27
Dann nimm doch einfach ein BIOS des Referenzdesigns.

Naennon
2012-04-13, 19:56:55
lies mal Luxx 680 so die letzten 5 Seiten da steht die Problematik (wenn du Zeit hast)

Stock bringt mir insofern was, das VIELLEICHT 133% Powertarget geht ;)
derzeit nimmt sie nicht mehr als 100%
ich denke ohne das richtige BIOS krieg ich weder die Standardtakte hin noch die 150% Target

y33H@
2012-04-13, 20:02:44
Ah, darum geht es dir - ja, dann muss es das BIOS von Palit sein. Montag ... Raff :biggrin:

Naennon
2012-04-13, 20:04:47
ohman, zum brechen...

uweskw
2012-04-13, 20:38:54
@ Raff

Wollt ihr nicht mal in PCGH einen GTX 680 CPU Skalierungsartikel machen?....


Wäre wirklich ne super Sache.
Aber bitte mit Auflösungen und Einstellungen die man mit so einer Karte auch wirklich nutzt. Wüste keinen der mit so einer Karte auf 1024x768 rumgurkt.
Das schwierige wird sein in den betroffenen Spielen CPU-Lastige UND Benchfähige Szenen zu finden.

greetz
U.S.

y33H@
2012-04-13, 20:53:30
Also 1080p und 4x/16:1 oder gleich mit 25x16? Dann brauche ich nur Shogun 2 benchen ^^

Knuddelbearli
2012-04-13, 21:41:53
natürlich beides ^^

am besten mit jeder CPU und Kernzahl seit Athlon XP

Athlon XP 2400+ mit ner 680 XD

ok Athlon 64 x2 reicht ^^

y33H@
2012-04-13, 21:43:08
AXP ist mit PCI-E und so schwierig ;-)

Knuddelbearli
2012-04-13, 22:02:08
da gibt es doch adapterkarten erst kürzlich wo gesehen ^^

uweskw
2012-04-13, 22:03:02
denke mal 1080p ist representativ. Maximal 8 CPUs. Dann weiss der Zocker ob sich das Aufrüsten lohnt.

Liquaron
2012-04-13, 22:07:06
denke mal 1080p ist representativ. Maximal 8 CPUs. Dann weiss der Zocker ob sich das Aufrüsten lohnt.


Genau so habe ich mir das vorgestellt. Denke die Games auf der Seite davor dürften recht aussagekräftig sein.
Am besten einmal 1080p und noch einmal 1080p mit 16 AF + 4x Aa. Also so die gängigsten Einstellungen. Natürlich überall max Settings. Den Anspruch wird man mit einer Gtx 680 haben.

dildo4u
2012-04-13, 22:42:07
Es gibt schon cpu Benches mit einer 900mhz 580,so großartig wird sich das nicht unterscheiden von der 680.

http://www.pcgameshardware.de/aid,870241/Alle-Bulldozer-CPUs-im-Test-Inklusive-FX-8150-FX-8120-FX-6200-FX-6100-FX-4170-und-FX-4100/FX-4100/Test/

Unter einem 2500k sollte man die 680 nicht betreiben,alle RTS Games profitieren massiv.

Liquaron
2012-04-13, 22:45:07
Es gibt schon cpu Benches mit einer 900mhz 580 so großartig wird sich das nicht unterscheiden.

http://www.pcgameshardware.de/aid,870241/Alle-Bulldozer-CPUs-im-Test-Inklusive-FX-8150-FX-8120-FX-6200-FX-6100-FX-4170-und-FX-4100/FX-4100/Test/

Unter einem 2500k sollte man die 680 nicht betreiben.

Da wird ja nicht mal mit AA und AF gebencht^^

y33H@
2012-04-13, 22:48:01
Das ist ja auch ein CPU-Test. Jez nimm einfach die GPU-Werte von PCGH und schau ob die über unter den Fps liegen die deine Wunsch-CPU erreicht und fersch =)

dildo4u
2012-04-13, 22:49:14
Da wird ja nicht mal mit AA und AF gebencht^^
Das wird die RTS Games nicht massiv einbremsen,AMD ist unbrauchbar für ne 680 mehr muss man nicht wissen.Wobei der Abstand die nästen paar Tage sogar noch größer wird.

HarryHirsch
2012-04-13, 22:53:06
Das wird die RTS Games nicht massiv einbremsen,AMD ist unbrauchbar für ne 680 mehr muss man nicht wissen.Wobei der Abstand die nästen paar Tage sogar noch größer wird.

bitte?

dildo4u
2012-04-13, 22:54:21
bitte?
Was bitte?Shogun 2 läuft mit 17fps auf dem schnellsten AMD.

Skysnake
2012-04-13, 22:54:41
Es gibt schon cpu Benches mit einer 900mhz 580,so großartig wird sich das nicht unterscheiden von der 680.

http://www.pcgameshardware.de/aid,870241/Alle-Bulldozer-CPUs-im-Test-Inklusive-FX-8150-FX-8120-FX-6200-FX-6100-FX-4170-und-FX-4100/FX-4100/Test/

Unter einem 2500k sollte man die 680 nicht betreiben,alle RTS Games profitieren massiv.

und dazu kommt noch, das nicht jeder RTS zockt...

Ich wäre auf jeden Fall auch dafür, das ein OC E8400 noch mit rein kommt. Das Ding hält sich noch immer ganz passabel. Vor allem wäre halt zu sehen, ob nvidia immer noch unter weniger als 4 Kernen massiv einbricht. Hier am Besten mit Direktvergleich zur HD7970!

Das hatte PCGH ja schon mal gezeigt mit den alten Karten.

Gerade da der Abstand so gering ist, kann mit etwas älteren/schlechteren CPUs sich das Verhältnis ändern.

Ich seh daher auch die OC-CPUs etwas kritisch bei den GPU-Benches. Die Performanceverluste durch eine höhere CPU Nutzung werden damit etwas verfälscht.

Am Besten wäre es daher immer die schnellste stock CPU zu verwende , und eine max-OC-CPU, und wenn mans ganz toll machen will noch die beliebteste CPU@stock dazu.

Liquaron
2012-04-13, 22:54:44
Das ist ja auch ein CPU-Test. Jez nimm einfach die GPU-Werte von PCGH und schau ob die über unter den Fps liegen die deine Wunsch-CPU erreicht und fersch =)


Hey, ich wollte euch einfach nur einen Artikel nahelegen, den sehr viele Leute interessieren würde und es soweit auch noch nicht im Internet / Zeitschriften gibt.
Aber wer nicht will der hat schon :freak:

Ich fände es nur löblich den Leuten da draußen mal zu zeigen, dass wenn man nicht gerade RTS Games zockt es nicht unbedingt eine Sandy Bitch sein muss um anständige FPS Zahlen in aktuellen Games zu erreichen.

Naja so werden die Leute immer kreischen "Wieeee nen Phenom 2 mit einer GTX 680??? Das ist doch totaler Schwachsinn!!"
Und genau das ist es eben nicht.
Es sei denn ihr spiel Strategie Games Tag und Nacht.

dildo4u
2012-04-13, 22:59:10
und dazu kommt noch, das nicht jeder RTS zockt...


Stimmt aber die nutzen nunmal den PC am besten aus,weil keine Rücksicht auf Konsole genommen werden muss.Das dürfte für High-End PC Käufer relativ wichtig sein was die Hardware wirklich kann, alles andere sind häufig einfach nur miese Ports,die eh mit 100fps laufen.

y33H@
2012-04-13, 23:00:33
@ Liquaron

Ich find's nur immer wieder verblüffend, dass diese für mich selbstverständliche Transferleistung aus GPU- und CPU-Benches so viele User offenbar vor unüberwindbare Schwierigkeiten stellt :ugly: Glaub mir, ich bin ein riesiger Fan von GPU-GPU-Skalierungen in Form von Benches - nur sind die leider schei0 aufwendig ...

Wenn ich mir diese Werte hier mit dem X4 965 BE anschaue, da hat sich nicht viel getan. Kaum ein FX ist wirklich deutlich schneller, ein Sandy oder gar Ivy Bridge hingegen zieht locker am i7-920 @ 3,5 GHz vorbei.

42506 42507

aufkrawall
2012-04-13, 23:01:59
Stimmt aber die nutzen nunmal den PC am besten aus
Geht so.
Wenn viel los ist, brechen häufig mit den FPS auch die CPU- und GPU-Auslastungen ein.
Da blockieren sich die Engines wohl irgendwie selbst...

HarryHirsch
2012-04-13, 23:05:16
warum wird in einem gpu threat über cpus diskutiert?
mit den richtigen settings bremst immer die gpu... ;)

Liquaron
2012-04-13, 23:05:25
@ Liquaron

Ich find's nur immer wieder verblüffend, dass diese für mich selbstverständliche Transferleistung aus GPU- und CPU-Benches so viele User offenbar vor unüberwindbare Schwierigkeiten stellt :ugly: Glaub mir, ich bin ein riesiger Fan von GPU-GPU-Skalierungen in Form von Benches - nur sind die leider schei0 aufwendig ...

Wenn ich mir diese Werte hier mit dem X4 965 BE anschaue, da hat sich nicht viel getan. Kaum ein FX ist wirklich deutlich schneller, ein Sandy oder gar Ivy Bridge hingegen zieht locker am i7-920 @ 3,5 GHz vorbei.

42506 42507


Ja aber genau diese Benches sind doch super interessant.

Ich glaube dir ja auch, dass die scheiß aufwendig sind :D

Aber du siehst ja schon wie alt die beiden Benches da oben sind.
Und User Zuhause haben leider nicht die Möglichkeit 5 CPUs skalieren zu lassen.

Und gerade jetzt wo neue Graka-Generationen releasen und viele mit einem Mainstream CPU über eine Aufrüstung nachdenken wäre so ein Artikel doch super :)

dildo4u
2012-04-13, 23:07:42
warum wird in einem gpu threat über cpus diskutiert?
mit den richtigen settings bremst immer die gpu... ;)
Zockst du mit 15fps?

HarryHirsch
2012-04-13, 23:10:26
Zockst du mit 15fps?

bitte was?

aufkrawall
2012-04-13, 23:12:20
bitte was?
Wenn die CPU auf 15fps limitiert, musst du die GPU auch entsprechend auslasten, dass sie dann limitiert.
Flüssiger läufts dadurch nicht.
:freak:

dildo4u
2012-04-13, 23:12:55
Na weil du meintest es limitiert immer die GPU,zumindest mit nem AMD stimmt das nich wenn man sagen wir mal 30fps min haben will.

HarryHirsch
2012-04-13, 23:15:06
ach so. so spiele oder cpus hatte ich zum glück noch nicht.

y33H@
2012-04-13, 23:19:57
mit den richtigen settings bremst immer die gpu.)Und nur um dich zu widerlegen packe ich einen Atom 230 aus und benche damit! Soweit kannst du eine GraKa gar nicht nieder knüppeln, dass der nicht bremst :ulol:

Und gerade jetzt wo neue Graka-Generationen releasen und viele mit einem Mainstream CPU über eine Aufrüstung nachdenken wäre so ein Artikel doch super.Nächste Woche ist Abgabe, dann - angeblich - Launch von IVB DT ... da könnte man das gut im Fahrtwasser platzieren =)

HarryHirsch
2012-04-13, 23:27:47
Und nur um dich zu widerlegen packe ich einen Atom 230 aus und benche damit! Soweit kannst du eine GraKa gar nicht nieder knüppeln, dass der nicht bremst :ulol:

Nächste Woche ist Abgabe, dann - angeblich - Launch von IVB DT ... da könnte man das gut im Fahrtwasser platzieren =)

es soll auch leute geben die positiv denken und einen atom nicht als default desktop ausstattung bezeichnen.

y33H@
2012-04-13, 23:29:00
War ja bewusst völlig übertrieben ;)

Liquaron
2012-04-13, 23:31:00
Nächste Woche ist Abgabe, dann - angeblich - Launch von IVB DT ... da könnte man das gut im Fahrtwasser platzieren =)


=)

Habt ihr keinen Azubi / Praktikanten den man mit den Benchmarks quälen kann? :D

y33H@
2012-04-13, 23:39:20
Doch schon, aber ich mache "mein" Zeug dennoch am liebsten selbst.

HarryHirsch
2012-04-13, 23:50:17
Doch schon, aber ich mache "mein" Zeug dennoch am liebsten selbst.

deine einstellung gefällt mir. ;)

jetzt aber btt, ich seh die mods schon ums feuer tanzen.

uweskw
2012-04-14, 00:18:22
Das ist ja auch ein CPU-Test. Jez nimm einfach die GPU-Werte von PCGH und schau ob die über unter den Fps liegen die deine Wunsch-CPU erreicht und fersch =)

CPU-Tests gibts wie Sand am Meer.... wer braucht da einen mehr?
Was interessant wäre ist die Fragestellung:GTX 680 in "realworld-settings" wie hoch ist der CPU Einfluss wirklich? Wer zockt schon mit so einer Karte ohne AA?
Falls dabei rauskommt das der Prozzi Banane ist.... oder auch nicht! ... Wird jedenfalls sehr Image-trächtig.

y33H@
2012-04-14, 00:31:33
Wir machen das ja alle paar Monate - gib mir ein bis zwei Wochen :D

uweskw
2012-04-14, 00:50:08
deine einstellung gefällt mir. ;)

jetzt aber btt, ich seh die mods schon ums feuer tanzen.

Tip fürs Leben:

yo, für Mitarbeiter im unteren bis mittleren Verantwortungsbereich genau die richtige, idealistische Einstellung! Solche Leute kann ich hier immer gebrauchen. Die machen sogar Überstunden ohne Bezahlung wenn´s sein muss.:freak:

HarryHirsch
2012-04-14, 00:53:56
Tip fürs Leben:

yo, für Mitarbeiter im unteren bis mittleren Verantwortungsbereich genau die richtige, idealistische Einstellung! Solche Leute kann ich hier immer gebrauchen. Die machen sogar Überstunden ohne Bezahlung wenn´s sein muss.:freak:

ok...

Skysnake
2012-04-14, 10:45:03
Doch schon, aber ich mache "mein" Zeug dennoch am liebsten selbst.
Kann ich absolut nachvollziehen. Geht mir in vielen Bereichen ähnlich


Nächste Woche ist Abgabe, dann - angeblich - Launch von IVB DT ... da könnte man das gut im Fahrtwasser platzieren =)
Jup, das wäre super, und würde sich bei der Print sicherlich auch gut auf dem Cover machen ;) So was zieht die Leser am Kiosk sicherlich an ;)

Tip fürs Leben:

yo, für Mitarbeiter im unteren bis mittleren Verantwortungsbereich genau die richtige, idealistische Einstellung! Solche Leute kann ich hier immer gebrauchen. Die machen sogar Überstunden ohne Bezahlung wenn´s sein muss.:freak:
In der Verwaltung usw. geb ich dir da absolut Recht. Je technischer etwas wird, desto diffizieler wird so was aber. Manchmal muss man sich einfach selbst etwas anschauen, insbesondere wenn man nicht weiß was da passieren wird, also man erst was analysieren muss. Da kann man zwar auch so manches deligieren, aber man geht damit dann auch immer das Risiko ein, dass etwas übersehen wird von jemanden, der hat nicht so tief in der Materie drin ist.

Grindcore
2012-04-14, 11:35:42
Don't you say? ;D

Cyv
2012-04-14, 11:51:59
Ich kann bei der GTX680 einfach nicht glauben, dass sie dauerhaft gegen die 7970 standhält. Der kleinere Ram sowie der "beschnittene"-Gamerchip sollten doch irgendwie zum Nachteil sein.

Ich stelle mir die ganze Zeit die Frage, ob das das baldige Upgrade mir 2x eine GTX 680 beschehrt, oder doch lieber die ATi-Lösung. Auflösung 2560x1600. Ich trau NVidia bei so hohen Auflösung irgendwie nicht über den Weg;( Da war AMD (Ati) bisher immer besser...

dildo4u
2012-04-14, 12:02:11
Ich kann bei der GTX680 einfach nicht glauben, dass sie dauerhaft gegen die 7970 standhält. Der kleinere Ram sowie der "beschnittene"-Gamerchip sollten doch irgendwie zum Nachteil sein.

Ich stelle mir die ganze Zeit die Frage, ob das das baldige Upgrade mir 2x eine GTX 680 beschehrt, oder doch lieber die ATi-Lösung. Auflösung 2560x1600. Ich trau NVidia bei so hohen Auflösung irgendwie nicht über den Weg;( Da war AMD (Ati) bisher immer besser...
Die paar Prozent hin und her sollten nicht entscheiden,auf lange sich ist der beste Treiber bzw die Zusammenarbeit mit Spiele Entwicklern wichtiger.Und dort setzt NV wesentlich mehr Ressourcen ein.Gutes Beispiel ist wie schnell sich FXAA verbreitet hat AMD MLAA hatte nie ne Chance.

Cyv
2012-04-14, 12:11:46
Ich hoffe nur, dass in Zukunft der "beschnittete" GTX680-Chip nicht zur Last wird. Es ist quasi der erste High-ned-Chip, der bewusst beschnitten ist...
Aber ich brauch demnächst ein Upgrade, seit dem BF3 Update kommen meine 6950@6970 ganz schon in den Grenzbereich :(

dildo4u
2012-04-14, 12:19:35
Ich hoffe nur, dass in Zukunft der "beschnittete" GTX680-Chip nicht zur Last wird. Es ist quasi der erste High-ned-Chip, der bewusst beschnitten ist...

Es wurden Profi Features beschnitten,im Prinzip hat NV AMD's Prinzip vor der 7970 aufgegriffen.Ein puren Gameingchip zu bauen dem man ohne massive Verlustleistung hoch Takten kann,ein Vorteil davon ist,das man endlich in der Reichweite der Shaderleistung der AMDs ist.

680 vor 590
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/39/#abschnitt_anno_2070

y33H@
2012-04-14, 12:27:09
Es ist quasi der erste High-ned-Chip, der bewusst beschnitten ist.Aaaah :freak: GK104 ist kein High-End, das ist ein schnöder Gaming-Chip für den Mid-Range- und Performance-Sektor. Das Teil wäre bei normaler Preisgestaltung auf Karten für unter 300 USD verbaut, so wie Tahiti auch.

Cyv
2012-04-14, 12:30:37
Naja ich habe noch ein paar Wochen, dann werde ich eine Kaufberatung starten für ein neues SLI/CF-Set. GTX 680 vs HD 7970.
Denke dass ich bei 2560x1600 trotzdem wieder ein CF oder SLI brauchen werde;(
Noch will es mir nicht in den Kopf gehen, dass NV scheinbar bei 2560x1600 gleichziehen kann...

dildo4u
2012-04-14, 12:36:44
Noch will es mir nicht in den Kopf gehen, dass NV scheinbar bei 2560x1600 gleichziehen kann...
Es gibt doch schon SLI Benches in der Auflösung und Treiber werden nur besser.

http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-gtx-680-sli-vs.-hd-7970-cf/

Naennon
2012-04-14, 12:39:25
ein Vorteil davon ist,das man endlich in der Reichweite der Shaderleistung der AMDs ist.


ehm die Shaderleistung war schon immer vor der der AMD/ATI Pendanten

derguru
2012-04-14, 12:42:35
mich hat schon gewundert warum sli urplötzlich ein besseres ratring hat aber kein wunder wenn trackmania,batman,battlefield gar nicht skalieren.:biggrin:

Skysnake
2012-04-14, 12:43:36
Definiere mal bitte, was du unter Shaderleistung verstehst.

Ich glaube da weicht deine von der Allgemeinen ab.

y33H@
2012-04-14, 12:50:21
Für Mitarbeiter im unteren bis mittleren Verantwortungsbereich genau die richtige, idealistische Einstellung! Solche Leute kann ich hier immer gebrauchen. Die machen sogar Überstunden ohne Bezahlung wenn's sein muss.Um das noch mal aufzugreifen: Bei diesen gewünschten Benches sind dermaßen viele Faktoren zu berücksichtigen - alleine das Briefing und abschließende Gegenchecken der Werte würde bald so viel Zeit kosten wie wenn ich es selbst mache (wobei das natürlich vom Prakti/Volo abhängt). Board, CPU-Config, Speicher, Timings, Frequenzen, GraKa, Treiber, Bench-Szene, Messschwankungen, FuckUps, Skalierungsverhalten und und und. Viele stellen sich das immer so simpel vor - in Wirklichkeit steckt da ein Haufen Arbeit mit nahezu wissenschaftlicher Präzision dahinter und es kostet verdammt viel Zeit.

mironicus
2012-04-14, 12:54:56
Ich hoffe nur, dass in Zukunft der "beschnittete" GTX680-Chip nicht zur Last wird.

Ja, bei NVidia hat man Gefühl, dass die Limitierungen (Strom, RAM, OC) das Referenzdesign schnell obsolet werden lassen, und die ständig neuen Ankündigungen von alternativen Modellen verunsichern dazu noch mehr. Bei AMD hat sich da im Gegensatz nichts verändert. Es gibt keine Notwendigkeit für Modelle mit mehr Speicher und auch die Stromanschlüsse änderten sich bisher nicht, während bei NVidia das Fehlen natürlich zu Recht kritisiert wird.

uweskw
2012-04-14, 15:09:08
Um das noch mal aufzugreifen:......


Das war nicht als Kritik gemeint, diese Einstellung sichert dir den Arbeitsplatz und macht es schwer dich zu ersetzen. Solche Leute lässt kein Abteilungsleiter gerne gehen.

VooDoo7mx
2012-04-14, 15:13:03
So hab eben gerade meine MSI GTX 680 eingebaut.
Also der Lieferumfang der Karte ist mal absolut extrem dürftig, dafür das man quasi ein Premium Produkt erworben hat, fühle ich mich nicht so sehr Premium.

Also zumindestens im Desktop Betrieb ist die Referenzkühlung sehr leise. Meine 120mm Gehäuselüfter auf low sind da lauter.

So neuer Treiber installiert, jetzt wird das Ding gequält. :D

dargo
2012-04-14, 15:39:50
Also der Lieferumfang der Karte ist mal absolut extrem dürftig, dafür das man quasi ein Premium Produkt erworben hat, fühle ich mich nicht so sehr Premium.

Premium? Du hast doch nur eine Performancekarte erworben. :devil:

y33H@
2012-04-14, 15:40:36
Das war nicht als Kritik gemeint, diese Einstellung sichert dir den Arbeitsplatz und macht es schwer dich zu ersetzen. Solche Leute lässt kein Abteilungsleiter gerne gehen.Ich habe es auch nicht als Kritik verstanden, ich mag meinen Job - wollte einfach nur die Hintergründe erläutern =)

mironicus
2012-04-14, 16:21:05
Die Ausstattung bei der Gainward GTX 680 war nur ein einzelnes Stromkabel und ein VGA/DVI-Adapter.

Wirklich kein Vergleich mit meiner neuen Grafikkarte.
http://www.vtx3d.com/products_features.asp?id=110

MartinB
2012-04-15, 11:49:27
Mit der 680gtx hat Nvidia ja zum ersten Mal eine Karte im Angebot bei der 3 Monitore für ein Spiel genutzt werden können. Sind denn da auch verschiedene Monitore möglich? In meinem konkreten Fall geht es um:

1200*1600 + 1920*1200 + 1200*1600

(die beiden äußeren Monitore sind hochkant)

BigKid
2012-04-16, 09:27:03
Na welches das wohl ist? :biggrin:

MfG,
Raff

Was ich ja richtig toll fände ist ein Roundup in dem mal jemand geziehlt der Frage nachgeht wie LEISE man die Dinger bei einer bestimmten "Wunschtemperatur" mit angepasster Lüftersteuerung betreiben kann - das sollte ja über den neuen TDP-Limiter eigentlich leichter sein als gehabt...

Also in etwas sowas wie:
bei 80Grad: Performance/FPS , Lautstärke
bei 90Grad: Performance/FPS, Lautstärke
Oder anders herum... Wenn ich eine bestimme maximal Lautstärke akzeptieren kann welche FPS/Frequenzen/TDP-Vorgabe kann ich dann benutzen...

Das ganze in einem vernünftig belüfteten Gehäuse.

Also einfacher ausgedrückt - eine Bewertung der Custom-Kühllösungen mal mehr losgelöst vom Chip selbst - denn die Balkenlängen bei bestimmtem OC kann man sich ja herleiten...
Oder man geht mal auf die besonderheiten der einzelnen Kühllösungen ein und stellt heraus für welche Art von Gehäusebelüftung sich welches custom design besonder eignet...
So mag es ja sein, dass sich bestimmte Customs nicht damit vertragen, dass man von unten Luft zuführt weil sie selbst in die andere Richtung blasen etc. etc.

Und das für die ganzen Custom Designs... Sowas fände ich fast interessanter als Balkenlängen bei maximal OC mit Ohrenschutz...

Reaping_Ant
2012-04-16, 10:29:40
Dito. Dass die Hersteller regelmäßig die Lüftersteuerung versauen, ist ja mittlerweile bekannt. Da wäre es bei den Custom-Lösungen durchaus interessant, wie die Lautstärke bei einer vernünftig angepassten Lüftersteuerung aussieht. Niedrige Chiptemperaturen sind ja gut und schön, aber mir ist ein heißer Chip bei niedriger Lautstärke lieber als andersherum.

VooDoo7mx
2012-04-16, 15:18:11
Also ich find die GTX 680 überraschenderweise nicht besonders laut störend. Im 2D Betrieb angenehm leise.
Und selbst wenn man die Karte mit Übertaktung, Power Limit Erhöhung und dann Crysis 2 und Metro 2033 bei über 80°C quält geht bei mir der Lüfter nicht über 65% was jetzt zwar nicht sonderlich silent ist aber für mich absolut in Ordnung geht, da es nicht stört. Wenn man "normal" spielt ist die Karte nochmal ne Ecke leiser.

Bei der Gigabyte GTX 560Ti die ich davor hatte war der Lüfter bei 80°C schon fast an die 100%, bei 70°C so bei 80% rum und das war immer störend laut. Bei vielen Spielen die die GTX560Ti ans Limit brachten oder fast komplett auslasteten kann ich jetzt mit sehr angenehmer Lautstärke spielen.

Also entgegen aller Erwartungen und Unkenrufe finde ich die Referenzkühlung der GTX680 sehr angenehm. So lange man kein Furmark spielt, absolut akzeptable Lautstärke.

aufkrawall
2012-04-16, 15:27:47
Wie heiß darf der Kepler-Die eigentlich werden?

AnarchX
2012-04-16, 15:30:47
Bei etwa 100°C wird massiv gedrosselt: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/30.html

Once temperature exceeds 98°C, thermal protection will kick in and GPU clock drops like a rock to 536 MHz and then even 176 MHz trying to save the card from overheating.

aufkrawall
2012-04-16, 15:34:59
Thx.
Die Maximaltemperatur von Fermi war ja auch schon in dem Bereich, muss man sich also nicht wirklich umstellen.
Wobei Kepler sicherlich eher selten so heiß wird.

Raff
2012-04-16, 19:27:01
Praktisch jede Grafikkarte mit 28-nm-GPU ist so eingestellt, dass 80 Grad Celsius nicht oder nur leicht überschritten werden. Das hat vermutlich (unbekannte) gute Gründe, beispielsweise Leckströme.

MfG,
Raff

BigKid
2012-04-16, 21:30:26
Praktisch jede Grafikkarte mit 28-nm-GPU ist so eingestellt, dass 80 Grad Celsius nicht oder nur leicht überschritten werden. Das hat vermutlich (unbekannte) gute Gründe, beispielsweise Leckströme.

MfG,
Raff
Hmm... Wiederspricht dem nicht, dass sie dann erst ab 100 Grad drosseln ?

Aber gut dann eben: Lautstärke und Leistung bei 80 Grad :-)

-=Popeye=-
2012-04-16, 22:04:45
Ursache für den „Red Screen of Death“ bei der GTX 680 identifiziert (http://www.computerbase.de/news/2012-04/ursache-fuer-den-red-screen-of-death-bei-der-gtx-680-identifiziert/)

Darlie
2012-04-17, 02:53:24
Schön reisserisch dargestellt, mir ist jetzt jedoch nicht klar ob NVidia oder die 3rd Hersteller mitr ihren dummen Tools die Bösen sind.

Darlie
2012-04-17, 02:58:36
Schön reisserisch dargestellt, mir ist jetzt jedoch nicht klar ob NVidia oder die 3rd Hersteller mitr ihren dummen Tools die Bösen sind.
Muss ein Hersteller jetzt jede Frickelbude informieren wen man am Produkt etwas ändert, das wäre mir neu?

HarryHirsch
2012-04-17, 03:00:58
reißerisch? :freak:
was können die 3rd party hersteller denn für nvs entscheidungen?

Muss ein Hersteller jetzt jede Frickelbude informieren wen man am Produkt etwas ändert, das wäre mir neu?

was die hardware betrifft? ich denke schon. :freak:

Skysnake
2012-04-17, 09:37:53
Ja für so was gibts eigentlich SoftwareDeveloperGuides :ugly:

Sowohl nVidia als auch AMD haben sich diesbezüglich zuletzt aber wahrlich nicht mit Ruhm bekleckert.....

Ich wart z.B. noch immer auf dem von der HD79x0 :down:

dildo4u
2012-04-17, 13:40:22
NVIDIA Adaptive VSync Technology Review

http://www.hardocp.com/images/articles/1334549254xAknM1AAS2_2_4.gif

The Bottom Line
With Adaptive VSync turned on, the feeling of the game felt smoother compared to regular VSync turned on. The performance felt much like the game felt with VSync turned off. This is the kind of technology we like to see which has improved the innate nature of the gameplay experience. If all you need is 60 FPS in a game for it to be playable, then why not just go ahead and cap the game there so it doesn't exceed your refresh rate. Then, if the game has to fall below that, allow the game to perform at its real-time actual framerate, and Adaptive VSync allows that. It really is the best of all worlds, with no drawbacks. We didn't find any negatives to using Adaptive VSync, and we tried it out in a handful of games

http://www.hardocp.com/article/2012/04/16/nvidia_adaptive_vsync_technology_review

aufkrawall
2012-04-17, 14:04:43
Bestimmt war der TB aus, mit TB Vsync bekomm ich genau die gleiche FPS-Rate wie ganz ohne.
Nicht mit dem Spiel getestet, aber bei anderen.

Gunslinger
2012-04-17, 16:44:54
Bestimmt war der TB aus, mit TB Vsync bekomm ich genau die gleiche FPS-Rate wie ganz ohne.
Nicht mit dem Spiel getestet, aber bei anderen.

Wieso wird eigentlich triple buffering nicht stärker marketingmäßig gepusht? Ich verwende seit jeher VSync + TB und bin sehr zufrieden mit der Lösung. Sehe da auch keinen Vorteil von Adaptive VSync, wenn dieses unter 60 fps Tearing ohnehin wieder nicht löst.

aufkrawall
2012-04-17, 16:56:16
Wieso wird eigentlich triple buffering nicht stärker marketingmäßig gepusht? Ich verwende seit jeher VSync + TB und bin sehr zufrieden mit der Lösung.

Versteh ich auch nicht.
Hab mal den D3DOverrider angehängt, für Leute die meinen, TB geht nicht immer. ;)


Sehe da auch keinen Vorteil von Adaptive VSync, wenn dieses unter 60 fps Tearing ohnehin wieder nicht löst.
Nvidia hätte lieber das Vsync so ändern sollen, dass es für alle APIs immer die Möglichkeit gäbe, den TB zu erzwingen.

gnomi
2012-04-17, 19:05:36
Adaptives VSync ist schon ein Gewinn und für die Spielbarkeit aktuell wohl am besten.
Was jetzt noch fehlt, wäre forciertes VSync in Zwischensequenzen. (die sind ja oft aufwendiger, und hier nervt wiederum Tearing am meisten)

Raff
2012-04-17, 19:45:44
Btw: Neu im Testlabor: Point of View TGT GTX 680 Ultra Charged mit drei Lüftern und Übertaktung (http://www.pcgameshardware.de/aid,878485/Neu-im-Testlabor-Point-of-View-TGT-GTX-680-Ultra-Charged-mit-drei-Lueftern-und-Uebertaktung/Grafikkarte/News/)

So langsam wird's interessant. Große Hoffnungen hege ich außerdem bei Asus und MSI. Vielleicht gelingt's denen, 1,1 GHz leise zu kühlen. Bislang ist da jeder Hersteller vorbeigeschrammt. Ok, eine richtig leise HD 7970 gibt's auch noch nicht, aber da ist wenigstens der 2-Sone-Bereich kaufbar.

MfG,
Raff

Ph0b0ss
2012-04-17, 20:30:56
Adaptives VSync ist sicher eine nette Idee, aber doch im Prinzip unbrauchbar. Gerade da wo es viel bringen würde versagt das doch total. Angenommen ich zocke so, dass ich immer gut spielbare 50-70fps habe (auf 60Hz Monitor). So habe ich mit Adaptive Vsync extrem oft Vsync on/off Wechsel und damit auch ständig wechselndes Input-Lag, was zumindest extrem nerven sollte. Für alle anderen Fälle (man hat entweder fast ständig über oder unter 60fps) brauchts dann wiederum auch nicht mehr adaptiv zu sein.:freak:

M4xw0lf
2012-04-17, 21:06:04
Btw: Neu im Testlabor: Point of View TGT GTX 680 Ultra Charged mit drei Lüftern und Übertaktung (http://www.pcgameshardware.de/aid,878485/Neu-im-Testlabor-Point-of-View-TGT-GTX-680-Ultra-Charged-mit-drei-Lueftern-und-Uebertaktung/Grafikkarte/News/)

So langsam wird's interessant. Große Hoffnungen hege ich außerdem bei Asus und MSI. Vielleicht gelingt's denen, 1,1 GHz leise zu kühlen. Bislang ist da jeder Hersteller vorbeigeschrammt. Ok, eine richtig leise HD 7970 gibt's auch noch nicht, aber da ist wenigstens der 2-Sone-Bereich kaufbar.

MfG,
Raff

Habt ihr schon eine von den Sapphire Dual-X Teilen in die Hand bekommen?

dildo4u
2012-04-17, 22:42:53
Palit JetStream GeForce GTX 680 4GB Video Card Review

http://www.tweaktown.com/reviews/4665/palit_jetstream_geforce_gtx_680_4gb_video_card_review/index2.html

Kein Werks OC,alleine durch den Kühler schneller.

SLI Review

http://www.tweaktown.com/articles/4666/palit_jetstream_geforce_gtx_680_4gb_video_cards_in_sli/index.html

MSI GeForce GTX 680 TwinFrozr 2GB Review Manuell! Übertaktet (GPU 1240 Boost,1700 Ram)

http://www.tweaktown.com/reviews/4662/msi_geforce_gtx_680_twinfrozr_2gb_overclocked_video_card_review/index2.html

BigKid
2012-04-18, 16:38:45
Palit JetStream GeForce GTX 680 4GB Video Card Review

http://www.tweaktown.com/reviews/4665/palit_jetstream_geforce_gtx_680_4gb_video_card_review/index2.html

Kein Werks OC,alleine durch den Kühler schneller.

SLI Review

http://www.tweaktown.com/articles/4666/palit_jetstream_geforce_gtx_680_4gb_video_cards_in_sli/index.html

MSI GeForce GTX 680 TwinFrozr 2GB Review Manuell! Übertaktet (GPU 1240 Boost,1700 Ram)

http://www.tweaktown.com/reviews/4662/msi_geforce_gtx_680_twinfrozr_2gb_overclocked_video_card_review/index2.html

Öhmm... Wenn das stimmt dann ist ein SLI gespann aus JetStreams LEISER als die MSI TwinFrozr? Mehhh...

Also das zeigt mir nur wieder das immernoch zu viele Tester denken, dass Balkenlängen bei max OC interessanter sind als die Aussage wie leise oder laut so ne Karte bei VERGLEICHBAREN Settings ist...

Vergleichbar würde für mich heissen:
Ich erlaube allen Karten maximal 80 Grad, optimiere ggF die TDP Vorgabe und oder die Lüftersteuerung so daß das auch gehalten wird und messe dann mal erst Balkenlängen und Lautstärke...

Zumindest mich perönlich interessiert nämlich mehr, ob eine Karte unter Last leise ist oder nicht... Bzw. welche Einbussen ich hinnehmen muss um das zu bewerkstelligen.
Ob die Karte nun ein paar Prozent mehr oder weniger OC verkraftet ist meiner Ansicht nach nicht so interessant und vor allem sagt es leider auch GARNIX darüber ob die Karte die ich dann erwische wenn ich eine Kaufe genausoviel OC mitmacht (oder mehr oder weniger)...

mironicus
2012-04-18, 17:26:30
Keiner kommt auf die Idee mal eine GTX 680 mit einem Arctic Cooling wie bei der PCGH gezeigt anzubieten. Bei 0,7 sone unter Last und Temps unter 60 Grad würden praktisch alle anderen Hersteller nichts mehr verkaufen können, selbst wenn die Grafikkarte dann ca. 30 Euro mehr kosten würde.

VooDoo7mx
2012-04-21, 17:42:59
Ich bin gerade schwer am überlegen ob ich nicht meine GTX680 zurück schicke.
Meine GTX560Ti hat auf 1920x1080 fast alles auf 60fps gepackt.
Da wo ich die Leistung wirklich brauche, wie z.b. Crysis 2 ist auch eine GTX680 zu langsam und fällt unter 60fps.
Dann geht mir dieses ganze blöde Turbo Gedöhns mächtig auf den Keks.
Spannung kann ich auch nicht mehr selber festlegen.
Als Käufer eine 500€ Karte komm ich mir vor wie der letzte DAU.

Raff
2012-04-21, 17:51:57
Im Gegenteil: Wenn du den GPU Boost, das TDP Target und die Treibergimmicks verstehst und in jedem Spiel perfekt kalibrierst, bist du bestimmt kein DAU. Setz das TDP-Limit doch mal auf 90 Prozent, dann ist der Boost oft tot. Und wenn jedes Spiel mit 60 Fps läuft, dann solltest du mal darüber nachdenken, die Power die Karte in ein gescheites Bild zu investieren. ;)

MfG,
Raff

VooDoo7mx
2012-04-21, 20:45:52
Im Gegenteil: Wenn du den GPU Boost, das TDP Target und die Treibergimmicks verstehst und in jedem Spiel perfekt kalibrierst, bist du bestimmt kein DAU. Setz das TDP-Limit doch mal auf 90 Prozent, dann ist der Boost oft tot. Und wenn jedes Spiel mit 60 Fps läuft, dann solltest du mal darüber nachdenken, die Power die Karte in ein gescheites Bild zu investieren. ;)

Du bist ja nen ganz toller Schlaubi.
Wenn man das Power Target reduziert taktet die Karte in 3D Anwendungen unter dem Base Clock wenn es überschritten wird. Dadurch habe ich rein gar nichts gewonnen. Ich müsste dann sogar bei jeden Spiel einzeln Hand anlegen umd die Karte auf das gleiche Niveau zu übertakten.
Da ist es viel simpler das Power Target pauschal auf Max zu stellen da hat jedes Spiel den pauschal selben Bosst Clock wenn die Karte zu 100% ausgelastet ist.

Wo da jetzt der Vorteil ist gegenüber der alten Methode einfach nur die Taktfrequenz einzustellen erschließt sich mir nicht.

Das ändert auch nichts an der Tatsache das ich immer noch keine Möglichkeit habe die Spannung zu ändern. Die Karte ist bei max 1,175V gelockt. Bei 64°C geht die Spannung auf 1,1625V runter und bei 80°C dann auf 1,15V. Und bei Spielen wo man wirklich die Power braucht, ist die Karte immer über 80°C also immer nur auf 1,15V.

Und wohin soll ich denn noch die Leistung hinpacken wenn ich bei meinen 23" 1080p kaum noch einen Unterschied zwischen 4xAA und 8xAA sehe?

Als leidenschaftlicher Übertakter, der immer das letzte rausholen will ist dieses ganze System der letzte Dreck. Für nen DAU der ne 100€ Low End karte mit superschnellen 8GB DDR3 500MHz kauft ist das vielleicht toll, aber bei einen 500€ ENthusiastenkarte der letzte Dreck.

Von daher sind auch diese ganzen Übertakterversionen absolut sinnlos wenn die Voltage per Hardware auf 1,175V gelockt. Bisher konnte man nur bei der Zotac Karte sehen das dort die Spannung höher ist und sich auch einstellen lässt.

Von Übertaktungsoptionen her ist eine GTX680 jeder alten Mid Range Karte und auch der 7970 deutlich unterlegen.

dildo4u
2012-04-21, 20:52:20
Da musste dir an die eigene Nase fassen,alles war bekannt bevor du 500€ auf den Tisch gelegt hast.Schon wegem dem Kühler wartet man Custom Karten ab, die dann auch wie z.b die Zotac Spannungsveränderungen zulassen.

VooDoo7mx
2012-04-21, 23:58:36
Da musste dir an die eigene Nase fassen,alles war bekannt bevor du 500€ auf den Tisch gelegt hast.Schon wegem dem Kühler wartet man Custom Karten ab, die dann auch wie z.b die Zotac Spannungsveränderungen zulassen.
Sorry, aber das was du schreibst ist absolut Dünnes.
Ich hab bevor ich die Karte gekauft hab, mehrere ausführliche Reviews gelesen und in keinen wurde erwähnt erwähnt das die Spannung nicht einstellbar ist.
Bei HardOCP, welche eigentlich zu den besseren Seiten zählte, gibt es sogar einen Overclocking Bericht zur GTX680 wo der Schreiberling denkt er würde die Spannung per Software ändern, was aber absoluter Schwachsinn ist. wahrscheinlich war das tatsächliche gegenchecken zu viel verlangt. Wenn ich mir die ganzen restlichen Reviews auch im Bezug zum OC anschaue, wird da so viel dumme Grütze geschrieben, das einen schlecht wird. Da lautet die Devise Benchmark rein, Hirn raus, Kaffee holen und dann Zahlen aufschreiben.
Nur was soll man denken wenn man solche Berichte liest bevor man die Karte kauft? Aber klar ich hätte mich vorher informieren sollen... genau...

Ich bin aber auch davon ausgegangen, das meine neue 500€ Karte gleichwertige oder gar besser OC Optionen hat als meine alte 200€ karte (und meine Karte vor dieser), stattdessen bekommt man ein Produkt mit DAU Overclocking Funktionen.

Und Custom Designs heißt nicht automatisch besser. Bei meiner Gigabyte GTX560Ti ist die Kühlung vom Referenzdesign deutlich leiser. Auch die ersten GTX680 Custom Boards zeigen weder großartig bessere Kühlung, noch geringere Lautstärke.
Aber klar ich muss jetzt eine Zotac Karte kaufen die warscheinlich irgendwo zwischen 600 und 700€ liegen wird um die OC Funktionen meiner alten Karte zu haben. :uup:

san.salvador
2012-04-22, 00:01:37
Verdammte Scheiße, wieso muss ich Benzin tanken, mein altes Auto lief doch auch mit Diesel. :(

dildo4u
2012-04-22, 00:14:25
Sorry, aber das was du schreibst ist absolut Dünnes.
Ich hab bevor ich die Karte gekauft hab, mehrere ausführliche Reviews gelesen und in keinen wurde erwähnt erwähnt das die Spannung nicht einstellbar ist.



Das ändert auch nichts an der Tatsache das ich immer noch keine Möglichkeit habe die Spannung zu ändern. Die Karte ist bei max 1,175V gelockt. Bei 64°C geht die Spannung auf 1,1625V runter und bei 80°C dann auf 1,15V. Und bei Spielen wo man wirklich die Power braucht, ist die Karte immer über 80°C also immer nur auf 1,15V.
.


manuell ist zurzeit bei 1,15 Volt Schluss.

http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=18

Das sich die Spannung nicht ändern lässt ist faktisch falsch und das Limit wurde z.b von der PCGH aufgezeigt.Fragt sich wer hier Dünnes postet.

Orbmu2k
2012-04-22, 00:16:36
@Voodoo:
In jedem Review stand die maximal einstellbare Spannung und das maximale Powertarget.
Das ist genaus das was du bekommst. Wenn dich abseits dieser Einschränkung stört was der GPU Boost macht gibts den "P2 Lock". Also locker bleiben.

VooDoo7mx
2012-04-22, 00:40:26
http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=18

Das sich die Spannung nicht ändern lässt ist faktisch falsch und das Limit wurde z.b von der PCGH aufgezeigt.Fragt sich wer hier Dünnes postet.

Tja nur wenn PCGH dumme Grütze schreibt, heißt es nicht das es richtig ist. Dort steht auch das 0.987V die Standard Spannung ist für 100% Power Target was auch schlicht und einfach Quatsch ist. Ich hab eben BC2 Multiplayer gespielt und da hat die Karte von der Spannung 1,07V bis 1.12V geschwankt bei ca 50% Power. 0.987V ist die minimale Basisspannung die in 2D oder sehr wenig fordernden Spielen anliegt. Wenn die Karte wirklich bei 100% Power ist, gibt der Chip meist 1,15V-1,175V je nach GPU Temp.
Die Spannung lässt sich nicht per Software regeln sondern regelt sich zu 100% selber automatisch, nach den Faktoren Power und Temperatur.
Wer hat denn hier von uns beiden eine GTX680. Ich oder du?
Aber ich sehe schon du weißt mehr über eine Karte die du nicht besitzt als ich Käufer der die letzte Woche quasi jede freie Minute aufgebracht um die Karte durch alle möglichen Szenarien gejagt hat um sie genau zu analysieren wie sie sich verhält.

@Voodoo:
In jedem Review stand die maximal einstellbare Spannung und das maximale Powertarget.
Das ist genaus das was du bekommst. Wenn dich abseits dieser Einschränkung stört was der GPU Boost macht gibts den "P2 Lock". Also locker bleiben.
Nur funktioniert dein Trick nicht, ich habe es schon mehrfach probiert. Die Spannung kann man damit auch nicht ändern.

dildo4u
2012-04-22, 00:42:56
Ich traue Raff der hunderte Karten gestestet hat zu korrekte Infos in seinem Artikel zu posten und wie du selber geschrieben hast,lief sie wenn manuell eingestellt immer mit min 1.15V.Nix Anderes steht im PCGH Artikel.

Orbmu2k
2012-04-22, 00:43:28
Nur funktioniert dein Trick nicht, ich habe es schon mehrfach probiert. Die Spannung kann man damit auch nicht ändern.

Dann machst du was falsch.

P2 Lock aktivieren, GPU Offset +549, VCore Offset auf Max, dann im P2 Speicher und GPU Clock takten, geht 1A prima.

**
Oder wie willst du sonst bei 888MHZ mit 1.175 fahren?

http://img.techpowerup.org/120421/nvidia_20120422_004544.png

VooDoo7mx
2012-04-22, 00:53:17
Ich traue Raff der hunderte Karten gestestet hat zu korrekte Infos in seinem Artikel zu posten und du hast selber geschrieben,das sie wenn manuell eingestellt immer mit min 1.15V lief.Nix Anderes steht im PCGH Artikel.
Das traue ich Raff durchaus auch zu, doch wie lange hat er sich denn tatsächlich mit der GTX680 beschäftigt? Wenn ich mir sein letztes Post hier anschaue anscheinend nicht sehr lange. Privat hat er ja auch eine 7970 im Gebrauch.
Das die Karte immer maximal auf 1.15V läuft ist wie ich schon geschrieben ganz normal, das hat rein gar nichts mit manuellen Spannungseinstellungen zu tun.
Dann machst du was falsch.

P2 Lock aktivieren, GPU Offset +549, VCore Offset auf Max, dann im P2 Speicher und GPU Clock takten, geht 1A prima.

**
Oder wie willst du sonst bei 888MHZ mit 1.175 fahren?

http://img.techpowerup.org/120421/nvidia_20120422_004544.png
Anscheinend bin ich zu blöd. Aber nochmal vielen Dank für deine Hilfe, ich probier es gleich noch mal.

uweskw
2012-04-22, 04:10:00
...........
Anscheinend bin ich zu blöd. Aber nochmal vielen Dank für deine Hilfe, ich probier es gleich noch mal.


Ach was, bei NV ist das doch alles ganz einfach!
Du musst nur das Bit setzen und dann die Einstellungen erweitern! OK, manchmal auch überschreiben. aber nach spätestens 25 Versuchen hast du es raus. Meistens zumindest! Auch wenn sich manchmal öfters die Cracks in die Haare kriegen ob, wie , was und wo einzustellen ist...... Wenn du jeden Tag auch nur 2-3 Stunden investierst bist auch Du bald in der Lage mit denen auf höchstem Niveau zu debattieren.... Zum Spielen holst du dir dann aber ne AMD! Und für die ernsthaften Sachen dann natürlich NV!:freak:

boxleitnerb
2012-04-22, 07:59:48
Wie schaut es eigentlich mit den Yields aus im Vergleich zur 7970? Charlie blubbert, dass die Yields nur bei Nvidia miserabel wären. Von einem Reviewer mit Kontakten zum Channel in zahlreichen europäischen Ländern höre ich dann allerdings, dass in einem Monat mehr 680er verkauft wurden als 7970 seit dem Release. Beide können nicht Recht haben...

Raff
2012-04-22, 11:06:13
Tja nur wenn PCGH dumme Grütze schreibt, heißt es nicht das es richtig ist. Dort steht auch das 0.987V die Standard Spannung ist für 100% Power Target was auch schlicht und einfach Quatsch ist. Ich hab eben BC2 Multiplayer gespielt und da hat die Karte von der Spannung 1,07V bis 1.12V geschwankt bei ca 50% Power. 0.987V ist die minimale Basisspannung die in 2D oder sehr wenig fordernden Spielen anliegt. Wenn die Karte wirklich bei 100% Power ist, gibt der Chip meist 1,15V-1,175V je nach GPU Temp.
Die Spannung lässt sich nicht per Software regeln sondern regelt sich zu 100% selber automatisch, nach den Faktoren Power und Temperatur.
Wer hat denn hier von uns beiden eine GTX680. Ich oder du?
Aber ich sehe schon du weißt mehr über eine Karte die du nicht besitzt als ich Käufer der die letzte Woche quasi jede freie Minute aufgebracht um die Karte durch alle möglichen Szenarien gejagt hat um sie genau zu analysieren wie sie sich verhält.

Moment, bitte alles lesen und nicht aus dem Kontext gerissene Sätze anmotzen. ;) Bei PCGH (http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=18) steht:

Der Standard bei unserer Geforce GTX 680 lautet 100 % TDP bei 0,987 Volt. Was auf den ersten Blick deutlich weniger Spannung als bei AMDs 28-nm-Grafikchips ist, stellt lediglich den Minimalwert dar: Greift der Turbo, hebt die GTX 680 ihre Spannung auf bis zu 1,15 Volt an; jede Taktstufe geht mit mehr Volt einher. All das lässt sich im Protokoll des Programms nachlesen. Auch zeigt das Tool prozentual an, inwiefern die TDP-Grenze von 100 Prozent erreicht wird.

Das ist alles immer noch korrekt, bis auf ein kosmetisches Detail: Zum Launch meldete Precision tatsächlich 1,15 Volt, nach einem Versionsupdate waren's dann die bekannten 1,175 Volt. Was manuelle Spannungsänderungen angeht, ist entweder die GTX 680 oder Precision X ein "Pretender": Man kann zwar einen Wert eingeben, aber der wird nicht gehalten – GPU Boost schaltet weiter selbstständig umher. Weitere Details zum OC-Verhalten und die Info, dass 1,175 Volt das derzeitige Maximum darstellen, gibt's im Artikel Geforce GTX 680 OC vs. Radeon HD 7970 OC: Duell am Rande des Möglichen (http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/).

Diese Details betet PCGH seit dem Launch herunter (beachtet auch, dass das Heft die Haupt-Publikation ist). Im kommenden Heft gibt's nochmal 7 Seiten Kepler-Praxis inklusive OC. Also bitte: Wenn ihr einer Publikation mangelnde Kenntnis vorwerfen möchtet, dann tut das woanders.

Das traue ich Raff durchaus auch zu, doch wie lange hat er sich denn tatsächlich mit der GTX680 beschäftigt? Wenn ich mir sein letztes Post hier anschaue anscheinend nicht sehr lange. Privat hat er ja auch eine 7970 im Gebrauch.
Das die Karte immer maximal auf 1.15V läuft ist wie ich schon geschrieben ganz normal, das hat rein gar nichts mit manuellen Spannungseinstellungen zu tun.

Ich habe unzählige Stunden mit insgesamt 6 verschiedenen GTX-680-Karten verbracht. Eben, um keine Grütze zu schreiben. ;) Was ich im Privatrechner habe, hat damit wenig zu tun. Wobei ich vom Produkt in meinem Rechner überzeugt bin und auch wegen des kuriosen OC-Verhaltens kein Interesse habe, eine GTX 680 zu kaufen. Hoffentlich streicht Nvidia beim GK110 den Turbo ...

MfG,
Raff

Skysnake
2012-04-22, 11:35:40
Ziemlich sicher (hoffentlich) nicht! Damit lässt sich Strom sparen, und die wären verdammt dumm, das gerade bei GK110 zu streichen, der in die HPCs wandert.

Raff
2012-04-22, 11:41:14
Der aktuelle Boost spart keinen Strom, sondern overvoltet und übertaktet die Kiste.

Okay, anders formuliert: Die können das gern drin lassen – aber bitte abschaltbar. Wie wäre es mit einer Treiberfunktion an/aus oder einem Dual-BIOS (eines mit und eines ohne Turbo)?

MfG,
Raff

AnarchX
2012-04-22, 11:44:21
Der aktuelle Boost spart keinen Strom, sondern overvoltet und übertaktet die Kiste.

Man erreicht dank Boost teilweise ein Leistung, die bei statischer Taktung mehr Vebrauch bedeuten würde. ;)

Raff
2012-04-22, 11:50:14
Hat das eigentlich mal jemand versucht zu beweisen? Statische Übertaktung hat zwei gewaltige Vorteile: Die Leistung ist - Überraschung - konstant und man kann für jeden Takt manuell an den Süßpunkt ;) der Stabilität gehen (Spannung/Takt). Der Boost ist auf Stabilität getrimmt, bedeutet, dass pro Takt mehr Spannung anliegt, als nötig wäre.

MfG,
Raff

Skysnake
2012-04-22, 11:55:08
Das hast du aber immer! @stock.

Du musst die Qualitätsschwankungen des Chips ja ausgleichen und 100% sichere Stabilität erreichen. Da biste natürlich immer höher, als wenn du selbst Hand anlegst.

Wenn der Turbo aber nicht da wäre, hätten wir entweder weniger Takt, oder aber hätten bei niedrigerem Takt mehr Spannung.

Du musst es andersrum sehen. Der Turbo erhöht nicht die Spannung, sondern macht es möglich die Spannung zu senken.

Raff
2012-04-22, 11:57:46
Ich möchte das auch gar nicht bestreiten, denn Nvidia hätte die Funktion wohl kaum eingebaut, wenn sie kontraproduktiv wäre. ;) Ich hätte nur gern ein paar gescheite Zahlen. Aus Sicht eines übertaktenden Enthusiasten ist der Boost mehr Malus denn Bonus, weil man die Kontrolle dieser der Automatik niemals vollständig entziehen kann.

MfG,
Raff