PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 680: (P)Review-Thread


Seiten : 1 2 [3] 4 5 6

Hugo78
2012-03-27, 09:47:47
Bei CB erzeugt die 680 einen helleren Ton, der auch für mich lauter klingt als noch bei der 580.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/16/#abschnitt_kuehlung__lautstaerke

Aber als Silent-Fetischist, der auch schon mit der der Kühlung der 460 und 560ti nicht völlig glücklich war, warte ich eh auf passende Aftermarket Lösungen.
Und so ganz nebenbei dann auch gleich auf Karten mit 4G.

Iruwen
2012-03-27, 09:58:37
Die 7970 klingt ja fies :freak:

Timbaloo
2012-03-27, 10:23:39
Die 580 ist da echt noch die beste. Aber imho kann man alle Referenz (wie auch sog. "Custom") Kühler in die Tonne treten. Abhilfe bringen da nur Shaman, Peter und das AC Dingens, bzw. gleich WaKü.

Ärgerlich allerdings, dass sowohl die 7970 als auch die 680 mit einem besseren Standardkühler deutlich leiser hätten werden können.

Soul
2012-03-27, 10:48:14
Ärgerlich allerdings, dass sowohl die 7970 als auch die 680 mit einem besseren Standardkühler deutlich leiser hätten werden können.

Ich denke mal, die dürfen nicht zu "gute" Kühler verbauen weil sonst niemand eine teurere Custom kaufen würde. :wink:

Raff
2012-03-27, 10:52:41
Die 7970 klingt ja fies :freak:

Definitiv. Nähert sich das Teil einer GPU-Temperatur von 70 Grad Celsius, geht das Gebrüll stufenweise los. Um 80 Grad sind's dann eben ~6 Sone Peak. Undervolting an die Macht. Bei der GTX 680 kann man durch TDP-Absenkung bisschen was rupfen.

MfG,
Raff

Iruwen
2012-03-27, 11:15:02
Coda, is deine GTX 680 schon da? :D

Mayk-Freak
2012-03-27, 12:35:09
Ich hab mal 3DMark11 Exterme laufen lassen einmal mit Werksspeichertakt und einmal mit 800MHz(400) OC Speichertakt und das bringt schon mal eine ordenliche Punksteigerung.

http://www.abload.de/thumb/bandbreitenla2o.jpg (http://www.abload.de/image.php?img=bandbreitenla2o.jpg)

http://www.abload.de/thumb/bandbreite3vqz0e.jpg (http://www.abload.de/image.php?img=bandbreite3vqz0e.jpg)

Raff
2012-03-27, 13:15:03
Ihr scheint gute Karten erwischt zu haben, "meine" beiden hier verrecken alle unterhalb von 3.600 MHz Speicheltakt; um 3.550 MHz heißt es "Ende Gelände". Schade, das wären 20 Prozent. Mal sehen, wann sich die Spannung der RAM-Chips erhöhen lässt ... Immerhin ist nun ein Turbo von schnapsigen 1.313 MHz benchmarkstabil. :biggrin: Der Shaman muss sich nicht ...

MfG,
Raff

Soul
2012-03-27, 13:54:49
Ihr scheint gute Karten erwischt zu haben, "meine" beiden hier verrecken alle unterhalb von 3.600 MHz Speicheltakt; um 3.550 MHz heißt es "Ende Gelände". Schade, das wären 20 Prozent. Mal sehen, wann sich die Spannung der RAM-Chips erhöhen lässt ... Immerhin ist nun ein Turbo von schnapsigen 1.313 MHz benchmarkstabil. Der Shaman muss sich nicht ...

MfG,
Raff

Was hast du für einen 3DMark 11 Wert bei deinem 1313 Turbo?

mironicus
2012-03-27, 13:57:37
Passt der Shaman also?

Naennon
2012-03-27, 15:39:36
ja Raff sag mal bitte was zum Shaman :)

y33H@
2012-03-27, 15:46:45
Der Artikel geht iwann nachher online - mit ner Tabelle zur Kompatibilität und Messwerten zum Shaman und Twin Turbo 2.

http://www.abload.de/thumb/geforce-gtx-680-arctiyzktv.jpg (http://www.abload.de/image.php?img=geforce-gtx-680-arctiyzktv.jpg) http://www.abload.de/thumb/geforce-gtx-680-arcti5qj99.jpg (http://www.abload.de/image.php?img=geforce-gtx-680-arcti5qj99.jpg)

Naennon
2012-03-27, 15:49:17
danke dir

Hugo78
2012-03-27, 15:59:29
Single-Slot-Lukü :freak:

http://www.pcgameshardware.de/aid,874926/Galaxy-Geforce-GTX-680-im-Single-Slot-Design-mit-riesigem-Kuehler-gesichtet/Grafikkarte/News/

mironicus
2012-03-27, 15:59:33
Danke! Sollten da nicht noch passive Kühler auf die Spannungswandler und den RAM? Die sind beim Shaman ja dabei.

EDIT: Der Shaman ist momentan gar nicht mehr erhältlich! :(

Hugo78
2012-03-27, 16:09:42
Hmm seltsam, aber eventuell schraubt Thermalright schon an einer neuen Version.

y33H@
2012-03-27, 16:12:26
Der Shaman kommt in den nächsten Wochen wieder in den Handel - ist mein Stand.

@ mironicus

Im Betrieb dann, ja. Für Bilder ist's einfacher alles aufm Fototisch einmal "durchzumontieren" :usad:

mironicus
2012-03-27, 16:21:36
Schade, dass SLI mit so einem Teil wohl kaum noch möglich ist. :D

Naennon
2012-03-27, 16:31:21
naja sind nur 3 Slots, sollte auf diversen Maximus funzen :)

yeeha stell mal online :) will wissen welchen ich bestelle

Thunder99
2012-03-27, 16:48:03
3 Slots sind ein NoGo

y33H@
2012-03-27, 16:50:50
3 Slots sind ein NoGoWas hast du denn an Unmengen an Steckkarten drin?

btw: Geforce GTX 680: Diese VGA-Kühler passen plus Test des Arctic Twin Turbo 2 und Thermalright Shaman (http://www.pcgameshardware.de/aid,874878/Geforce-GTX-680-welche-VGA-Kuehler-passen-Test-Arctic-Twin-Turbo-2-Thermalright-Shaman/Grafikkarte/Test/)

BigKid
2012-03-27, 17:09:03
btw: Geforce GTX 680: Diese VGA-Kühler passen plus Test des Arctic Twin Turbo 2 und Thermalright Shaman (http://www.pcgameshardware.de/aid,874878/Geforce-GTX-680-welche-VGA-Kuehler-passen-Test-Arctic-Twin-Turbo-2-Thermalright-Shaman/Grafikkarte/Test/)

Danke für den Test !

Mal so nebenbei - lohnt es sich eventuell einen eigenen Thread für die Custom Designs zu starten ? Ich bin mit meiner Phantom neuerdings nicht mehr so zufrieden - entweder da lockert sich was (aber man kann es nicht ohne weiteres nachziehen - siehe den Phantom thread hier) oder die aktuellen Spiele lasten die Karte efffizienter aus, so dass sie heisser wird - jedenfalls komme ich trotz massiven Undervolting nebst Lüfterprofil nicht mehr so richtig unhörbar durch...
Und mit nicht unhörbar meine ich nur, dass die Karte deutlich heraushörbar ist durch das Konzert von CPU und Gehäuselüftern (zugegebenermassen alle nicht die lautesten...).

Hier setze ich Hoffnung in Custom Designs...
Auf welches meint ihr wird es sich am meisten zu warten lohnen ? Mal basierend auf Erkenntnissen von den GTX5x0 Karten her...

Nighthawk13
2012-03-27, 17:12:21
Aber imho kann man alle Referenz (wie auch sog. "Custom") Kühler in die Tonne treten. Abhilfe bringen da nur Shaman, Peter und das AC Dingens, bzw. gleich WaKü.
Custom Cooler gibt's doch ganz brauchbare: Gigabyte Windforce and Powercolor PCS z.b. Leise genug wenn man mit Kopfhöhrer spielt imo.

Hübie
2012-03-27, 17:19:43
Ich warte immer noch auf einen Test mit aktivierten Framelimiter (58 fps @60 Hz oder 118 @120Hz). Idealerweise jetzt mit custom-cooler und powerdraw +32% ;D
Mich interessiert besonders das Takt- und Spannungsverhalten (ggf. grafisch dargestellt, aber das kann ich selber machen).

Thunder99
2012-03-27, 17:27:41
Was hast du denn an Unmengen an Steckkarten drin?

btw: Geforce GTX 680: Diese VGA-Kühler passen plus Test des Arctic Twin Turbo 2 und Thermalright Shaman (http://www.pcgameshardware.de/aid,874878/Geforce-GTX-680-welche-VGA-Kuehler-passen-Test-Arctic-Twin-Turbo-2-Thermalright-Shaman/Grafikkarte/Test/)

Wlan Karte
Soundkarte
TV-karte

und bei den tollen Slotanordnungen von gescheiten Mainboards...

Die GTX400er Serie ist da echt grenzwertig bezüglich der Wärmeentwicklung. Meine GTX470SOC hat unter Vollauslastung (4xSGSSAA @ SWOTOR) 95°C bei 100% Lüfter. Nochmal so ein Thermi kommt mir nicht mehr rein. Sonst ist die Karte super

aufkrawall
2012-03-27, 17:42:03
Wlan Karte


Hast du da eine Richtantenne dran, oder wofür brauchst du die?

BigKid
2012-03-27, 17:58:01
Custom Cooler gibt's doch ganz brauchbare: Gigabyte Windforce and Powercolor PCS z.b. Leise genug wenn man mit Kopfhöhrer spielt imo.
That was a joke - right ?
Der erste April kommt erst...

Das sollte ja fast noch auf kleinere Turbinen zutreffen...

aufkrawall
2012-03-27, 17:59:39
Das sollte ja fast noch auf kleinere Turbinen zutreffen...
Wenn bei Spielen Stille ist, nerven laute Lüfter auch mit Kopfhörern ungemein.

mironicus
2012-03-27, 17:59:47
Der Arctic Cooling ist ja preislich recht interessant, nur 32 Euro momentan.

aufkrawall
2012-03-27, 18:03:43
Der Arctic Cooling ist ja preislich recht interessant, nur 32 Euro momentan.
Hoffentlich ist der besser als ACs Gehäuselüfter, meine beiden haben nach kurzer Zeit den Geist ausgehaucht.

BigKid
2012-03-27, 18:05:53
Wenn bei Spielen Stille ist, nerven laute Lüfter auch mit Kopfhörern ungemein.
hhhmmm.... ok... kann ich gelten lassen...
Liefe bei mir aber unter Indiskutabel laut... Wobei ich bei dieser Aussage von "vernünftigen" Kopfhörern ausgehe, also von entweder in-Ear oder mit Schale... Da möchte ich nix mehr von der Graka hören...

dargo
2012-03-27, 18:36:43
Custom Cooler gibt's doch ganz brauchbare: Gigabyte Windforce and Powercolor PCS z.b. Leise genug wenn man mit Kopfhöhrer spielt imo.
Der Kühler ansich ist zwar sehr gut. Leider ist Gigabyte aber zu dämlich die Lüftersteuerung anzupassen, sodass die Dinger leise arbeiten oder entsprechend schwächere Lüfter zu verbauen.

Raff
2012-03-27, 18:38:10
Da hilft immer noch eine manuelle Anpassung (das Design verkraftet's sehr gut).

MfG,
Raff

dargo
2012-03-27, 18:41:14
Die GTX400er Serie ist da echt grenzwertig bezüglich der Wärmeentwicklung. Meine GTX470SOC hat unter Vollauslastung (4xSGSSAA @ SWOTOR) 95°C bei 100% Lüfter. Nochmal so ein Thermi kommt mir nicht mehr rein. Sonst ist die Karte super
Was kann die GPU dafür, wenn der Hersteller einen Schrottkühler verbaut? Meine GTX480 wird @810Mhz mit minimaler Spannungserhöhung (eine Stufe rauf über Default) in Spielen gerade mal 67°C warm. ;) Und dabei drehen die beiden Lüfter nur 2% schneller als in Idle, nämlich mit 46%. Wobei ich die Karte in Idle mit nur 35% Lüfter laufen lasse. Die Standard 44% sind völlig überflüssig, zudem ist der Kühler so minimal wahrnehmbar. Mit 35% hört man nichts mehr.

Da hilft immer noch eine manuelle Anpassung (das Design verkraftet's sehr gut).

Natürlich... aber warum schafft der Hersteller das nicht von vorne rein? Da reicht in der Regel nur ein angepasstes Bios mit anderer Kennlinie für die Lüfter zu schreiben. Manchmal habe ich das Gefühl die Custom-Dinger werden intern gar nicht getestet. Falls doch sind die Tester taub. :freak: Ich meine wer zum Henker braucht in Idle bsw. bei der GPU 27°C? Völlig banane sowas wenn die Lüfter nerven.

N0Thing
2012-03-27, 18:49:16
Hast du da eine Richtantenne dran, oder wofür brauchst du die?

Vermutlich für ein WLAN. ;)
Hatte ich in einer WG auch einmal eingesetzt, weil der Router weit weg stand und Kabel durch die Wohnung zu verlegen, keine Option darstellte.

aufkrawall
2012-03-27, 19:36:43
Vermutlich für ein WLAN. ;)
Hatte ich in einer WG auch einmal eingesetzt, weil der Router weit weg stand und Kabel durch die Wohnung zu verlegen, keine Option darstellte.
WLAN-Karten sind doch Steinzeit, sofern man keine große Antenne benutzt.
Dafür gibts doch USB-Sticks, die gibts auch fast geschenkt.

Thunder99
2012-03-27, 19:53:20
Hast du da eine Richtantenne dran, oder wofür brauchst du die?
Ich bevorzuge eine Steckvariante wo ich eine flexible Antenne weg vom PC legen kann ;)
Die Störeinflüsse des Netzteils sowie anderen Komponenten auf die Qualität der Funkverbindung ist nicht zu unterschätzen!

so ein Blödsinn von USB-Sticks kommt mir nicht (vorne) ran

Thunder99
2012-03-27, 19:55:48
Was kann die GPU dafür, wenn der Hersteller einen Schrottkühler verbaut? Meine GTX480 wird @810Mhz mit minimaler Spannungserhöhung (eine Stufe rauf über Default) in Spielen gerade mal 67°C warm. ;) Und dabei drehen die beiden Lüfter nur 2% schneller als in Idle, nämlich mit 46%. Wobei ich die Karte in Idle mit nur 35% Lüfter laufen lasse. Die Standard 44% sind völlig überflüssig, zudem ist der Kühler so minimal wahrnehmbar. Mit 35% hört man nichts mehr.

Nochmal, ich WILL keine 3-Slot-Kühlung ;) Und die Gigabyte war die einzige Lösung mit einer leisen Kühlung wenn nicht grad der Lüfter auf 100% dreht

Hübie
2012-03-27, 20:16:53
Es gibt auch DLAN :P Besser als WLAN-Dreck. Gigabyte scheint immer mehr am support zu sparen. Wenn ich mir so die Produktinformationen ansehe glänzen viele Dinge mit Abwesenheit (z.B. Zubehör von Grakas, Lüfterangaben etc...). Das machen viele besser.

Timbaloo
2012-03-27, 20:30:22
EDIT: Der Shaman ist momentan gar nicht mehr erhältlich! :(
Bei Alternate z.B. als "Vorbestellung".

Hmm seltsam, aber eventuell schraubt Thermalright schon an einer neuen Version.
Ja, tun sie. Ich hab die vor ein paar Wochen mal angeschrieben, eben weil mich die damals quasie Nichtverfügbarkeit gewundert hat. Da haben sie geschrieben, dass mit der neuen Kartengeneration auch was neues kommen soll. Wahrscheinlich warten sie noch die ersten custom-designs ab um möglichst gute Kompatibilität zu erreichen.

naja sind nur 3 Slots, sollte auf diversen Maximus funzen :)
Shaman sind mit Karte und Lüfter 4 Slots. Und die nächsten beiden Slots drunter würde ich nicht belegen, da der Lüfter sonst nicht gescheit ansaugen kann.
Das Ding grenzt dich schon stark ein, aber für wirklich leises Gaming geht nichts über Shaman oder Peter. Vielleicht noch der AC Extreme oder wie der heisst, aber da hat man schon keine freie Lüfterwahl mehr.

@y33H@: Danke dir :wave2:

Timbaloo
2012-03-27, 20:33:45
Custom Cooler gibt's doch ganz brauchbare: Gigabyte Windforce and Powercolor PCS z.b. Leise genug wenn man mit Kopfhöhrer spielt imo.
Glaub mir, gegen Shaman und Co. kein Vergleich. Die haben zwar auch Nachteile (siehe vorigen Beitrag) aber leise und kühl sind sie. Okay, ich hab auch recht empfindliche Ohren. Aber der Shaman ist auch locker günstiger als zig Discobesuche ;)

Hugo78
2012-03-27, 20:39:34
Ja, tun sie. Ich hab die vor ein paar Wochen mal angeschrieben, eben weil mich die damals quasie Nichtverfügbarkeit gewundert hat. Da haben sie geschrieben, dass mit der neuen Kartengeneration auch was neues kommen soll. Wahrscheinlich warten sie noch die ersten custom-designs ab um möglichst gute Kompatibilität zu erreichen.

Danke für die Info.

Nochmal, ich WILL keine 3-Slot-Kühlung ;)

Roger that, doch bedenke dein Mobo hat mit nur 6 PCIe/PCI Slots auch nicht die Voraussetzungen für viele Karten.
Mit 7 Slots, was auch üblich ist, wäre bei dir 3 Slot eine Lukü kein Thema und wie Hübi schon sagt, DLAN ist ohnehin die schnellere, sichere = bessere Alternative... ;)

aufkrawall
2012-03-27, 20:43:34
DLAN ist ohnehin die schnellere, sichere = bessere Alternative... ;)
Hat hier im Haus schlechter als WLAN funktioniert.

Hugo78
2012-03-27, 20:47:03
@aufkrawall
War bei mir bisher nie problematisch.
Allerdings bin ich auch immer auf einer Etage geblieben.

Nighthawk13
2012-03-27, 21:47:33
Der Kühler ansich ist zwar sehr gut. Leider ist Gigabyte aber zu dämlich die Lüftersteuerung anzupassen, sodass die Dinger leise arbeiten oder entsprechend schwächere Lüfter zu verbauen.
Mit meiner 470SOC bin ich out-of-the-Box sehr zufrieden. Spätere Modelle waren wohl nicht mehr so gut abgestimmt.
Wenn es eine 670Ti SOC für ~350EUR gibt, werd ich mir die genau anschauen:)

Dural
2012-03-28, 09:10:33
scheiss karten, metro 2033 läuft nicht mal mit zwei GTX680 in 5740x1080 flüssig ;D

V2.0
2012-03-28, 09:45:25
Hättest Dir mal 2 7970 gekauft. Da läuft das mit einer + SSAA flüssig.

fondness
2012-03-28, 09:45:55
Ich bin übrigens skeptisch was die herbeigeredete Compute-Schwäche angeht. Das ergibt eigentlich keinen Sinn, vor allem weil z.B. BF3 Compute massiv einsetzt.

Es gibt auch nichts an der Architektur was die FP32-GPGPU-Performance irgendwie beeinträchtigen sollte.

Die GTX680 liegt in den Compute-Anwendungen fast durchgängig hinter der GTX580:

http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/17

Das kann wohl kaum ein Zufall sein.

Raff
2012-03-28, 09:55:17
Hättest Dir mal 2 7970 gekauft. Da läuft das mit einer + SSAA flüssig.

In 1x Full HD schon, aber nicht bei Triple Head. ;) Die ~10 Prozent zwischen einer 680 und einer 7970 haben kaum Relevanz (das OC-Potenzial der Radeöner schon eher).

MfG,
Raff

V2.0
2012-03-28, 09:56:45
Das war nicht ernst gemeint. ;)
Positiv überrascht bin ich allerdings von der Verfügbarkeit der 680.

M4xw0lf
2012-03-28, 10:09:17
Du meinst, dass überhaupt welche verfügbar sind? Auf Lager sind ja grade mal die Hälfte der gelisteten 16 Modelle.

Dural
2012-03-28, 10:22:18
die 2GB speicher sind übrigens kein problem. mehr bandbreite dürfte schon eher wichtiger sein. anstelle 4GB würde ich lieber eine 2GB karte mit möglichst max speicher takt suchen.

verstehe nicht wie einige auf die 4GB version warten die vermutlich sogar etwas langsamer und sehr wahrscheinlich deutlich teurer ist.

naja man muss ja nicht immer alles verstehen ;)

Raff
2012-03-28, 10:23:28
Du sagst es! "Transferrate vor Menge" gilt bei der GTX 680.

MfG,
Raff

aufkrawall
2012-03-28, 10:42:46
Du sagst es! "Transferrate vor Menge" gilt bei der GTX 680.

MfG,
Raff
Bin gespannt, ob ihr das in 1,5 Jahren immer noch sagen werdet.
Bei GF110 hieß es auch immer, 1 GB würden locker reichen, dabei bin ich selbst ohne Texturmods mit 1,3 GB bei 1,3 MP das ein oder andere Mal ans Limit gestoßen...
Ihr solltet weniger benchmarken, sondern mehr spielen. ;)

Knuddelbearli
2012-03-28, 10:44:22
naja wenn ich dran denke wie oft meine gtx 480 schon der ram ausgeht. zwar sinken die fps nicht so extrem weills meistens nur knapp drüber ist aber man merkt das texturen extrem schnell wieder aus den speicher rausgeworfen werden. was ist erst wenn die next gen konsolen kommen mit 8-10 mal soviel vram wie die jetzigen ... dazu sollte die gtx 680 auch ca 2,5-3 jahre halten bis 20nm kommt

Raff
2012-03-28, 10:47:00
Bin gespannt, ob ihr das in 1,5 Jahren immer noch sagen werdet.
Bei GF110 hieß es auch immer, 1 GB würden locker reichen, dabei bin ich selbst ohne Texturmods mit 1,3 GB bei 1,3 MP das ein oder andere Mal ans Limit gestoßen...
Ihr solltet weniger benchmarken, sondern mehr spielen. ;)

Ich spiele auf meinem 30-Zöller genug, glaub mir. :) In 1,5 Jahren gilt dann: Eine AA-Stufe weniger und alles ist gut. ;) Da braucht's dann einfach einen Sanity Check: Brauche ich wirklich 8x MSAA oder tut's auch 4x, was bis zu 300 MiB spart? Wobei man nicht weiß, inwiefern die neuen Konsolen alles umwerfen.

MfG,
Raff

Iruwen
2012-03-28, 10:50:59
was ist erst wenn die next gen konsolen kommen mit 8-10 mal soviel vram wie die jetzigen

Dann hätten sie auch 2GB, Big Deal.

aufkrawall
2012-03-28, 10:58:25
naja wenn ich dran denke wie oft meine gtx 480 schon der ram ausgeht. zwar sinken die fps nicht so extrem weills meistens nur knapp drüber ist aber man merkt das texturen extrem schnell wieder aus den speicher rausgeworfen werden. was ist erst wenn die next gen konsolen kommen mit 8-10 mal soviel vram wie die jetzigen ... dazu sollte die gtx 680 auch ca 2,5-3 jahre halten bis 20nm kommt
Genau so sehe ich das auch.
Texturen müssen ja auch nur einmal geladen werden, fressen also keine Bandbreite.

Ich spiele auf meinem 30-Zöller genug, glaub mir. :) In 1,5 Jahren gilt dann: Eine AA-Stufe weniger und alles ist gut. ;)

Außer die BQ. :D
Das ist mir einen Aufpreis für mehr RAM wert.

Im Moment aber nicht. Ich will ne 4 GB Karte mit gutem Kühler, kein Bios-Flash und trotzdem Übertaktbarkeit mit fetter TDP-Steigerung.
So ne Karte gibts leider noch nicht.

Raff
2012-03-28, 11:01:44
Das ist die Entscheidung, die jeder für sich selbst treffen muss. Ich persönlich würde niemals im Hier und Jetzt für eine 4-GiB-Version einen Hunderter mehr hinlegen. Der Mehrspeicher bremst im Hier und Jetzt in den meisten Fällen 1-3 Prozent (vermutlich) und lohnt sich nur sehr selten, auch in Zukunft. Wer seine Karte eh alle paar Monate wechselt, kann bedenkenlos eine "popelige" 1,5/2,0-er Karte kaufen. :D

MfG,
Raff

Knuddelbearli
2012-03-28, 11:21:05
tja dann gehts dir wie mir NV hats einfach verkackt ... ist aber trotzdem noch sogut das man nicht ohne nachzudenken zur 7970 greifen kann ...

aufkrawall
2012-03-28, 11:22:24
Wer seine Karte eh alle paar Monate wechselt, kann bedenkenlos eine "popelige" 1,5/2,0-er Karte kaufen. :D

GK110 wird ja sicherlich genug RAM haben, stimmt.
Ist nur die Frage, ob das Ding nicht abartig teuer sein wird.

V2.0
2012-03-28, 11:38:14
Die Frage ist wohl eher, ob die 680, wenn sie gravierend durch fehlenden VRAM limitiert wird, überhaupt noch schnelle genug sein wird um diesen Content + 8xMSAA fahren zu können. Ich denke nicht.

4GB lohnen sich imho nur für Leute die viel Texturemods einsetzen.

Iruwen
2012-03-28, 11:51:27
tja dann gehts dir wie mir NV hats einfach verkackt ... ist aber trotzdem noch sogut das man nicht ohne nachzudenken zur 7970 greifen kann ...
Hast du seinen Beitrag überhaupt gelesen? :freak:

aufkrawall
2012-03-28, 11:55:25
4GB lohnen sich imho nur für Leute die viel Texturemods einsetzen.
Texturmods + bestimmte AA-Bits = Speicher ganz schnell voll.

Knuddelbearli
2012-03-28, 12:15:54
Iruwen

ich meinte damit krawall nicht Raff der immer dazwischenspammt ^^

und wegen konsole. aktuell benötigen die konsolenports auf dem pc 1-1,5GB obwohl sie oft keine besseren Texturen bekommen. auf den konsolen wird anderst mit dem speicher umgegangen dazu noch kein AA weniger sichtweite usw.
wenn die Konsolen dann 1Gb Vram haben kannst du mal eben 800MB auf die 1-1,5GB draufklatschen und schon bist drüber ohne das du mehr rechenlesitung benötigst

dildo4u
2012-03-28, 12:46:58
Erste Bilder von Gainwards GTX 680 Phantom

http://www.computerbase.de/news/2012-03/erste-bilder-von-gainwards-gtx-680-phantom/

V2.0
2012-03-28, 12:47:19
Das wird von der Bilschirmauflösung der Konsoilen abhängen.

Iruwen
2012-03-28, 12:56:54
Texturmods + bestimmte AA-Bits = Speicher ganz schnell voll.
Was aber auch albern ist weil viele Texturmods übertrieben sind und den Speicher ohne echten Gewinn zuballern.

aufkrawall
2012-03-28, 14:07:11
Was aber auch albern ist weil viele Texturmods übertrieben sind und den Speicher ohne echten Gewinn zuballern.
Albern ist deine Argumentation, die in etwa lautet:
"Mehr Speicher für bessere Texturen muss nichts bringen, weil bessere Texturen nicht besser sein müssen."

Schreib doch bitte nicht anderen vor, welche Texturen sie hässlich finden und welche nicht.

Iruwen
2012-03-28, 14:18:25
Wem schreib ich denn was vor? Ich hab nur meine Meinung geäußert. Mann kann jedes System überfordern indem man schlecht programmiert bzw. schlechten Content erstellt.

aufkrawall
2012-03-28, 14:25:35
Wem schreib ich denn was vor? Ich hab nur meine Meinung geäußert. Mann kann jedes System überfordern indem man schlecht programmiert bzw. schlechten Content erstellt.
Viele Texturmods machen hässliche Spiele erst erträglich oder sogar schön.
Deshalb fand ich deine Bemerkung etwas verunglimpfend für Leute, die da viel Zeit reinstecken.

Raff
2012-03-28, 14:44:17
Ist hier jemand bei Evga registriert oder hat sonstwo eine Quelle für Precision X 3.0.1 Final gefunden? :)

MfG,
Raff

Naennon
2012-03-28, 15:01:57
Hättest Dir mal 2 7970 gekauft. Da läuft das mit einer + SSAA flüssig.


MultiGPU is not an option! :)

Iruwen
2012-03-28, 15:28:50
Viele Texturmods machen hässliche Spiele erst erträglich oder sogar schön.
Deshalb fand ich deine Bemerkung etwas verunglimpfend für Leute, die da viel Zeit reinstecken.
Dann lies nochmal richtig, ich schrieb dass viele Texturmods übertrieben sind, nicht dass sie überflüssig sind. Auf Teufel komm raus Grafikspeicher verblasen weil es geht hat nichts mit Effizienz oder Können zu tun wenn man vom Resultat nichts mehr sieht.

M4xw0lf
2012-03-28, 15:53:02
Ist hier jemand bei Evga registriert oder hat sonstwo eine Quelle für Precision X 3.0.1 Final gefunden? :)

MfG,
Raff

Pssst... du störst doch die Leute bei ihrem OT-Streit über Texturmods ;D

aufkrawall
2012-03-28, 15:58:10
Auf Teufel komm raus Grafikspeicher verblasen weil es geht hat nichts mit Effizienz oder Können zu tun wenn man vom Resultat nichts mehr sieht.
Vielleicht verblasen auch die Spiele selbst viel VRAM und kommen deshalb nur mit Matschtexturen daher.
So rum wird sogar ein Schuh draus: Die Entwickler brauchen auf kein effizientes Speichermanagement zu achten, weil sie ja an den Texturen sparen.

Nur ne These, aber sie es mal nicht so verbohrt.

mironicus
2012-03-28, 15:59:51
Kann hier jemand mal beschreiben, wie das Adaptive VSync das Spielerlebnis verbessert? Funktioniert diese Option bei jedem Spiel?

Adam D.
2012-03-28, 16:20:23
Kann hier jemand mal beschreiben, wie das Adaptive VSync das Spielerlebnis verbessert? Funktioniert diese Option bei jedem Spiel?
Funktioniert immer. Der Vorteil ist halt, dass das nervige Ruckeln wegfällt, wenn mal etwas mehr auf dem Bildschirm los ist, weil sich VSync eben genau dann abschaltet, um die fps nicht leiden zu lassen.

Hugo78
2012-03-28, 16:21:06
@mironicus
Na du hast halt Vsync ohne die Eingabeverzögerung.

BC2 hätte sowas gebraucht, da war Vsync sehr laggy, aber ohne gabs auch viel Tearing.

aufkrawall
2012-03-28, 16:22:08
Funktioniert immer. Der Vorteil ist halt, dass das nervige Ruckeln wegfällt, wenn mal etwas mehr auf dem Bildschirm los ist, weil sich VSync eben genau dann abschaltet, um die fps nicht leiden zu lassen.
Er meinte wohl das adaptive Vsync, nicht tripple buffered. ;)

mironicus
2012-03-28, 16:25:50
Funktioniert das Adaptive VSync auch mit den Vorgängerkarten GTX 570/580 bzw. wird es nachgereicht?

Thunder99
2012-03-28, 16:39:03
Funktioniert das Adaptive VSync auch mit den Vorgängerkarten GTX 570/580 bzw. wird es nachgereicht?
Ja, da es nur eine Treiber Sache ist. Siehe durch inf modding unterstütze Karten vom 301.10WHQL Thread

dargo
2012-03-28, 17:27:34
Bei GF110 hieß es auch immer, 1 GB würden locker reichen...
Ein GF110 hat mindestens 1,25GB Vram. :devil:

aufkrawall
2012-03-28, 17:51:55
Ein GF110 hat mindestens 1,25GB Vram. :devil:
Das muss ja nicht heißen, dass Leute, wenn es um GF110 gegangen ist, nicht gesagt hätten, 1 GB würde reichen. ;)
So meinte ich das.

M4xw0lf
2012-03-28, 18:51:38
http://www.pcgameshardware.de/aid,875173/Geforce-GTX-680-Kein-Downsampling-mehr-moeglich/Grafikkarte/News/

Soso, Nvidia macht einen Schritt zurück beim Downsampling?

Edit:
Hehe, etwas sinnlos von mir einen PCGH-Artikel zu verlinken, der seinerseits wieder aufs 3dc-Forum verlinkt :D
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9228617#post9228617

aufkrawall
2012-03-28, 18:56:08
Mit dem 295er wurde doch extra DS wieder "gefixt".
Kann mir keinen Grund vorstellen, warum man das jetzt, und zwar nur mit Kepler, wieder verhindern wollte.
Ich bin verhalten optimistisch und tippe auf "Bug".
Man sollte ja nicht vergessen, dass es nur ein inoffizielles, mehr oder weniger zufälliges Feature ist.

Raff
2012-03-28, 18:56:22
Da steht ja schon bisschen mehr drin als "geht nicht". :D

An dieser Stelle die Bitte an alle GTX-680-Nutzer, das auch mal zu checken und kundzutun.

MfG,
Raff

mironicus
2012-03-28, 19:14:40
Nachbetrachtung bei Toms Hardware: Übertaktete GTX 680 gegen 7970.
http://www.tomshardware.de/geforce-gtx-680-sli-overclock-surround,testberichte-240983.html

Die EVGA ließ sich nur schlecht übertakten bzw. die Werte wurden dadurch sogar schlechter. Die 7970 wurde einfach auf die maximalen Taktgrenzen im Overdrive-Menü angehoben (1125) und die Geschwindigkeit wurde entsprechend besser. Tom Hardware schiebt das schlechte OC der GTX auf den GPU-Boost.

Bei über 80 Grad sinkt doch die Leistung der GTX 680 automatisch, oder?

Blaire
2012-03-28, 20:13:51
GeForce GTX 680 3-way SLI Review
http://www.guru3d.com/article/geforce-gtx-680-3way-sli-review/

Mayk-Freak
2012-03-28, 20:24:16
Also bei mir geht DS und bei bei C.A.R.S sind die 2GB Vram bei 2560x1600 fast voll.

http://www.abload.de/thumb/dspguks.jpg (http://www.abload.de/image.php?img=dspguks.jpg)

Raff
2012-03-28, 20:25:57
Check mal bitte etwas oberhalb von 2.560 x XXXX.

MfG
Raff

Mayk-Freak
2012-03-28, 20:59:34
Also weiter scheint es nicht zu gehen, das Bild wird dann immer rot , steckt bestimmt ATI dahinter:biggrin:

Raff
2012-03-28, 21:02:18
LOL, bislag bester Erklärungsversuch. :ulol:

MfG,
Raff

AHF
2012-03-28, 21:12:34
Ich habe nicht die Zeit, alle Tests durchzulesen. Kann mal jemand kurz und knapp sagen, wie sich die GTX 680 gegen eine GTX 480 in 2560x1440 schlägt?

Schaffe89
2012-03-28, 21:20:02
Die Karte dürfte da wohl in etwa 50% schneller sein.

@ Topic

Macht es denn einen Unterschied, ob man Downsampling per PCGH SSAA Tool fährt, oder per Nvidia tool?

dildo4u
2012-03-28, 21:30:46
Ich habe nicht die Zeit, alle Tests durchzulesen. Kann mal jemand kurz und knapp sagen, wie sich die GTX 680 gegen eine GTX 480 in 2560x1440 schlägt?

Ca 60% bei 2560x1600 an der 570 Orientieren.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/12/#abschnitt_leistung_mit_aaaf

Johnny Rico
2012-03-28, 21:35:09
Ich habe nicht die Zeit, alle Tests durchzulesen. Kann mal jemand kurz und knapp sagen, wie sich die GTX 680 gegen eine GTX 480 in 2560x1440 schlägt?
schau mal bei pcgh. 7fps zur 580, also ich würde das geld nicht in eine 2gb karte bei deiner anforderung investieren.

http://www.pcgameshardware.de/screenshots/original/2012/03/Geforce-GTX-680-Kepler-GK104-Battlefield-3-2560.png

AHF
2012-03-28, 21:36:21
OK, danke für die Antworten.

Mayk-Freak
2012-03-28, 21:47:29
Ist hier jemand bei Evga registriert oder hat sonstwo eine Quelle für Precision X 3.0.1 Final gefunden? :)

MfG,
Raff

Meinst du das

http://api.viglink.com/api/click?format=go&key=7777bc3c17029328d03146e0ed767841&loc=http%3A%2F%2Fwww.overclock.net%2Ft%2F1232805%2Fevga-introducing-evga-precision-x&v=1&libid=1332963970188&out=http%3A%2F%2F46.163.68.206%2Frag%2Fdownload%2FEVGA%2520Precision%2520301.zip&ref=http%3A%2F%2Fwww.evga.com%2Fforums%2Ftm.aspx%3Fm%3D1507845&title=%5BEVGA%20%5D%20Introducing%20EVGA%20Precision%20X&txt=Download%20Mirror&jsonp=vglnk_jsonp_13329639763151

Raff
2012-03-28, 22:02:30
Bäm! Danke, genau das. :)

MfG.
Raff

Raff
2012-03-29, 09:40:39
@ Topic

Macht es denn einen Unterschied, ob man Downsampling per PCGH SSAA Tool fährt, oder per Nvidia tool?

Ja, das Nvidia-Downsampling läuft (wenn es läuft ;)) überall, während das Tool mit ein paar Spielen Probleme hat. Dafür ist es mit dem Tool aber auch auf einer GTX 680 möglich, Auflösungen jenseits von 2.880 x 1.620 zu nutzen.

MfG,
Raff

Knuddelbearli
2012-03-29, 09:45:29
naja und das tool ist nicht Mp Spiel fähigg

Raff
2012-03-29, 14:40:11
Passt auch in den 7970-Thread, aber hier schauen ja eh alle rein. :)

HD 7970 @ 1,25 GHz vs. GTX 680 @ 1,3 GHz: Geforce GTX 680 OC vs. Radeon HD 7970 OC: Duell am Rande des Möglichen (http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/)

"Zwar startet die Geforce GTX 680 mit einem werkseitigen Geschwindigkeitsvorteil, die Radeon HD 7970 kann sich im Mittel dank der prozentual größeren Taktsteigerung aber vor das Nvidia-Flaggschiff setzen. Auf beiden Seiten gibt es Paradespiele und Verlustzonen - wie in Battlefield 3, das der GTX 680 sehr liegt, und Metro, wo die HD 7970 brilliert. Ebenfalls wie ein roter Faden durch die Tests zieht sich, dass reines VRAM-Overclocking bei der Radeon HD 7970 nicht zielführend ist – erst bei hohem Kerntakt lohnt sich dieser Eingriff. Das sieht bei Nvidias Geforce GTX 680 anders aus, die Karte profitiert deutlich stärker von VRAM-OC und kann sich erst entfalten, wenn dieser eine hohe Transferrate bietet."

MfG,
Raff

dargo
2012-03-29, 15:07:06
Passt auch in den 7970-Thread, aber hier schauen ja eh alle rein. :)

HD 7970 @ 1,25 GHz vs. GTX 680 @ 1,3 GHz: Geforce GTX 680 OC vs. Radeon HD 7970 OC: Duell am Rande des Möglichen (http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/)

"Zwar startet die Geforce GTX 680 mit einem werkseitigen Geschwindigkeitsvorteil, die Radeon HD 7970 kann sich im Mittel dank der prozentual größeren Taktsteigerung aber vor das Nvidia-Flaggschiff setzen. Auf beiden Seiten gibt es Paradespiele und Verlustzonen - wie in Battlefield 3, das der GTX 680 sehr liegt, und Metro, wo die HD 7970 brilliert. Ebenfalls wie ein roter Faden durch die Tests zieht sich, dass reines VRAM-Overclocking bei der Radeon HD 7970 nicht zielführend ist – erst bei hohem Kerntakt lohnt sich dieser Eingriff. Das sieht bei Nvidias Geforce GTX 680 anders aus, die Karte profitiert deutlich stärker von VRAM-OC und kann sich erst entfalten, wenn dieser eine hohe Transferrate bietet."

MfG,
Raff
Oh man... diese GTX680 ist echt ein Speicherbandbreiten-Krüppel. :( Die 18% OC beim Speicher schlagen in BF3 voll durch obwohl die GPU mit 30% übertaktet ist. Weißt du Raff ob irgendein Hersteller demnächst 1750Mhz GDDR5 bei der GTX680 verbauen wird? Mit OC wären dann eventuell die 2Ghz drin was dem GK104 ordentlich Speed beim hohen GPU-Takt beschert.

aufkrawall
2012-03-29, 15:13:10
Dafür ist es mit dem Tool aber auch auf einer GTX 680 möglich, Auflösungen jenseits von 2.880 x 1.620 zu nutzen.

Wie darf man das verstehen?
Wird es jetzt mit einer GTX 680 nie möglich sein, 3840x2160 zu nutzen, oder wie?
Falls das nicht so gemeint war, werden wegen so einer Aussage bestimmt noch Monate später einfache Geister rumerzählen, dass es so wäre...

Lard
2012-03-29, 15:35:09
HD 7970 @ 1,25 GHz vs. GTX 680 @ 1,3 GHz: Geforce GTX 680 OC vs. Radeon HD 7970 OC: Duell am Rande des Möglichen (http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/)

Spätestens bei einer Auflösung von 2560x1600 dürfte die HD7970 an der GTX680 in Battlefield 3 vorbeiziehen.
Da die GTX680 auch keine Spannungserhöhung des VRAM zulässt, ist auch hier früher Ende im Gelände.

dildo4u
2012-03-29, 15:44:38
Spätestens bei einer Auflösung von 2560x1600 dürfte die HD7970 an der GTX680 in Battlefield 3 vorbeiziehen.
Da die GTX680 auch keine Spannungserhöhung des VRAM zulässt, ist auch hier früher Ende im Gelände.
Der Vorsprung ist@2560*1600 kaum geringer,da wird sich nicht viel verschieben.
http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/13

Das OC Duell wird eh erst interresant wenn man ne 6+8Pin Custom 680 zur Verfügung hat um dort ne vergleichbare Basis zu haben.

Blaire
2012-03-29, 15:45:26
NVIDIA Kepler GeForce GTX 680 SLI Video Card Review
http://hardocp.com/article/2012/03/28/nvidia_kepler_geforce_gtx_680_sli_video_card_review
In every game we tested GTX 680 SLI was faster, and provided gameplay options Radeon HD 7970 CFX did not. We were not bottlenecked at all at 5760x1200 with GTX 680 SLI. In fact, in BF3 Multiplayer GTX 680 SLI provided better performance, higher in-game settings, and a smoother experience, and this is a highly memory sensitive game. When we looked at power utilization we found GeForce GTX 680 SLI was more efficient in every single game, using less power, but giving us more performance.

J0ph33
2012-03-29, 15:51:10
SLI in Multiplayer-Spielen ist doch eigentlich ein NoGo, auf Grund von Input-Lag, oder?

Lard
2012-03-29, 15:53:31
Der Vorsprung ist@2560*1600 kaum geringer,da wird sich nicht viel verschieben.
http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/13
Du übersiehst aber, das die HD7970 bei hohen Takt viel besser skaliert, während die GTX680 aufgrund ihres SI schon limitiert.
Also nicht von Standardtaktraten ausgehen!

dildo4u
2012-03-29, 15:59:29
Du übersiehst aber, das die HD7970 bei hohen Takt viel besser skaliert, während die GTX680 aufgrund ihres SI schon limitiert.
Also nicht von Standardtaktraten ausgehen!
Möglich aber wenn du das Game mal im MP auf den neuen Maps gezockt hast, sind diese Auflösungen eh nicht machbar für eine Karte.Alles eher Theoretischen Natur,ich würde mit der 680 vermutlich nicht mal 4XAA @1080p nutzen für optimale fps.

Blaire
2012-03-29, 16:01:48
SLI in Multiplayer-Spielen ist doch eigentlich ein NoGo, auf Grund von Input-Lag, oder?

Also ohne SLI macht BF3 nicht wirklich Spass, erst Recht in hohen Auflösungen.
Ich spüre nichts von irgendwelchen Lags. :)

Iruwen
2012-03-29, 16:11:41
Also ohne SLI macht BF3 nicht wirklich Spass

veto ;)

N0Thing
2012-03-29, 16:13:09
Palit JetStream GeForce GTX 680 2GB Video Card Review @TweakTown (http://www.tweaktown.com/reviews/4631/palit_jetstream_geforce_gtx_680_2gb_video_card_review/index1.html)

Falls die Messungen stimmen, bietet die Karte leichtes OC, weniger Verbrauch und einen leisen Kühler im idle und unter load bei einem Aufpreis auf das Referenzdesign von 30$.
Wenn sich diese Ergenisse bestätigen sollten: Danke Palit :D

y33H@
2012-03-29, 16:14:06
Das mit dem "leise" höre ich mir die Tage lieber selbst mal an :biggrin:

Lard
2012-03-29, 16:14:32
Möglich aber wenn du das Game mal im MP auf den neuen Maps gezockt hast, sind diese Auflösungen eh nicht machbar für eine Karte.Alles eher Theoretischen Natur,ich würde mit der 680 vermutlich nicht mal 4XAA @1080p nutzen für optimale fps.
Ich zocke keine Shooter, der Vergleich zeigt nur das höhere Potential der HD7970, und ist evtl. interessant für CF Nutzer die ihre Karten übertakten.

M4xw0lf
2012-03-29, 16:18:22
Das OC Duell wird eh erst interresant wenn man ne 6+8Pin Custom 680 zur Verfügung hat um dort ne vergleichbare Basis zu haben.

Was genau soll ein 8-Pin Stecker da rausreißen? Es ist ja nicht so, dass die GPU dadurch auf magische Weise mehr Takt verkraftet...

Blaire
2012-03-29, 16:39:11
veto ;)

Ich meinte das nicht generell, sondern nach Szenario, je nachdem welche Auflösung bzw. Settings man wählt.
Ich verglich eine GTX480 vs. SLI GTX480 FullHD@Ultra als Beispiel. Ersteres unspielbar, da zu starke FPS-Drops auf <40fps das ist für Multiplayer zu wenig wirkt einfach nicht flüssig, erst mit SLI bist du hier zu jeder Zeit im unkritischen Bereich und kannst auch viel besser auf Situationen reagieren, das Spielgefühl dadurch viel angenehmer= mehr Spass.

ndrs
2012-03-29, 16:47:17
Was genau soll ein 8-Pin Stecker da rausreißen? Es ist ja nicht so, dass die GPU dadurch auf magische Weise mehr Takt verkraftet...
Wenn die Stromversorgung bei steigenden Taktraten an ihre Grenzen kommt und die Spannung dadurch evtl instabil wird kann das schon sein. Natürlich nur sofern dem Mehr an Pins auch ein Mehr (bzw stärkere) an SpaWas folgt.

aufkrawall
2012-03-29, 16:49:44
Wenn die Stromversorgung bei steigenden Taktraten an ihre Grenzen kommt und die Spannung dadurch evtl instabil wird kann das schon sein. Natürlich nur sofern dem Mehr an Pins auch ein Mehr (bzw stärkere) an SpaWas folgt.
Die GTX 570 hat auch nur 2x6 Pins und verbrät schon ohne Spannungserhöhung wesentlich mehr Strom.
Ich kann problemlos 0,1 V drauf legen, der Stromverbrauch steigt dadurch ordentlich.

Das Problem bei der 680 ist einfach das TDP-Limit.

boxleitnerb
2012-03-29, 16:50:07
Der Inputlag durch VSync ist viel höher als der durch SLI imo.

Knuddelbearli
2012-03-29, 17:11:45
8 pin hat ja nur 2 massen mehr also total egal ...

N0Thing
2012-03-29, 17:13:11
Das mit dem "leise" höre ich mir die Tage lieber selbst mal an :biggrin:

Prima, dann freue ich mich schon auf dein Review/Statement dazu. :)

Iruwen
2012-03-29, 17:22:10
Wenn die OC-Karten auch das TDP-Limit im BIOS anheben würden wär's cool aber das ist wohl unrealistisch?

dargo
2012-03-29, 17:27:28
Das Problem bei der 680 ist einfach das TDP-Limit.
Inwiefern?

Soweit ich das richtig verstanden habe kann man das TDP-Limit auf max. 132% anheben. Das wären 254W, da machen schon lange 2x 6Pin dicht. Ich bin der Meinung, dass die Speicherbandbreite hier der größerer Flaschenhals ist. Im Prinzip macht eine Übertaktung auf mehr als 1,2Ghz GPU keinen Sinn solange der Speichertakt nicht über 1800Mhz kommt. Da verpufft einfach die GPU-Leistung.

PS: selbst die 1,8Ghz Speichertakt dürfen bei vielen Karten gar nicht machbar sein.

Das mit dem "leise" höre ich mir die Tage lieber selbst mal an :biggrin:
Der Kühler dürfte interessant sein. Immerhin ist er laut dem Link noch leiser als der der XFX HD7870, der ja schon sehr leise sein soll.

boxleitnerb
2012-03-29, 17:38:14
Laut OBR wird es Nicht-Referenkarten geben, bei denen der Turbo deaktiviert ist und man die TDP um 50% angehen kann.

dargo
2012-03-29, 17:43:46
Laut OBR wird es Nicht-Referenkarten geben, bei denen der Turbo deaktiviert ist und man die TDP um 50% angehen kann.
Das hört sich zwar alles nett an... 6+8Pin, dadurch +50% TDP möglich und das ganze ohne diesen imho sinnlosen Turbo. Nur bringt das alles wie gesagt nichts wenn es keinen schnelleren Vram gibt. Über 1,2Ghz GPU macht es kaum Sinn zu übertakten. Ich halte es für sinnlos die GPU weiter sagen wir mal um 10% zu übertakten wenn nur 4-5% durchschlagen. Das ganze eventuell noch mit einer guten Portion mehr VGPU. Ist aber nur meine Meinung dazu.

boxleitnerb
2012-03-29, 17:47:22
Gibt es Szenarien, in denen Bandbreite weniger wichtig ist als bei anderen? SSAA, DS?

dargo
2012-03-29, 17:51:17
Es wird mit Sicherheit Spiele bzw. Szenen geben wo die Speicherbandbreite etwas weniger eine Rolle spielt. Das sieht du hier schon in Metro vs. BF3.
http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/

Ich hoffe bloß die PCGH hat in BF3 das Worst Case Szenario gefunden, ansonsten könnte es für die GTX680 hier und da noch schlimmer aussehen. X-D

Edit:
Moment mal... hab gerade einen Denkfehler. Metro hängt sogar noch stärker an der Speicherbandbreite als BF3, zumindest in dem verlinkten Test. X-D Hab die Werte falsch interpretiert. :ugly:

dildo4u
2012-03-29, 17:58:16
Wenn die OC-Karten auch das TDP-Limit im BIOS anheben würden wär's cool aber das ist wohl unrealistisch?
Doch kommt z.b von 195W auf 215.+32% im Tool macht über 250.http://www.pcgameshardware.de/aid,875284/Palit-Geforce-GXT-680-Jetstream/Grafikkarte/News/
Sonst würden die 8+8 Karten ja überhaupt kein Sinn machen,wenn das TDP Limit nicht vom Hersteller erhöt werden darf.

http://www.pcgameshardware.de/aid,874673/Geforce-GTX-680-Hall-of-Fame-mit-weisser-Platine-und-bis-zu-300-Watt/Grafikkarte/News/bildergalerie/?iid=1645371

M4xw0lf
2012-03-29, 18:00:52
Es wird mit Sicherheit Spiele bzw. Szenen geben wo die Speicherbandbreite etwas weniger eine Rolle spielt. Das sieht du hier schon in Metro vs. BF3.
http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/

Ich hoffe bloß die PCGH hat in BF3 das Worst Case Szenario gefunden, ansonsten könnte es für die GTX680 hier und da noch schlimmer aussehen. X-D

Edit:
Moment mal... hab gerade einen Denkfehler. Metro hängt sogar noch stärker an der Speicherbandbreite als BF3, zumindest in dem verlinkten Test. X-D Hab die Werte falsch interpretiert. :ugly:

Jo, die Karte holt in den Benchmarks alleine durch 18% Speicher-OC einmal 9 und einmal 7% Mehrleistung raus - und mehr als 18 dafür aber gar nicht. Deutlicher gehts kaum ^^

aufkrawall
2012-03-29, 18:06:13
Inwiefern?

Soweit ich das richtig verstanden habe kann man das TDP-Limit auf max. 132% anheben. Das wären 254W...

Wie soll das bei dem Referenzdesign und Turbo gehen?
In den Tests hat die Kombi Turbo/TDP doch immer abgeriegelt.

dargo
2012-03-29, 18:07:33
Wie soll das bei dem Referenzdesign und Turbo gehen?
In den Tests hat die Kombi Turbo/TDP doch immer abgeriegelt.
Wie kommt dann die PCGH auf 1,3Ghz GPU?

Raff
2012-03-29, 18:11:48
Das steht doch alles im (anscheinend wieder viel zu ausführlichen ;)) Text. Die TDP steht auf 132 Prozent. Dadurch pfeift sich die GPU selbst 1,175 Volt rein und verkraftet per Offset-OC genau 1.304 MHz. Konstant, denn die manuelle TDP wird nicht erreicht.

MfG,
Raff

M4xw0lf
2012-03-29, 18:16:48
Dieser Turbo ist aber auch verwirrend... Also eure 1304 waren die Obergrenze der Takraten, also sozusagen die Turbo-Rate, ja? Und dank 132% TDP-Einstellung konnte dieser Turbo konstant ausgefahren werden, korrekt?
Und eure Standard-GTX680 (mit 1006+ MHz) legt im Benchmark real dann auch bis auf 1124 MHz zu?

dargo
2012-03-29, 18:18:20
Das steht doch alles im (anscheinend wieder viel zu ausführlichen ;)) Text. Die TDP steht auf 132 Prozent. Dadurch pfeift sich die GPU selbst 1,175 Volt rein und verkraftet per Offset-OC genau 1.304 MHz. Konstant, denn die manuelle TDP wird nicht erreicht.

Ich hab euren Text schon verstanden. ;)

aufkrawall
2012-03-29, 18:23:06
Wie legt man eine manuelle TDP fest?

dargo
2012-03-29, 18:24:27
Indem man das TDP-Limit hochsetzt, zb...
Die TDP steht auf 132 Prozent.
100% = 195W TDP

M4xw0lf
2012-03-29, 18:26:46
Wie legt man eine manuelle TDP fest?

Zb per Precision-Tool: http://www.pcgameshardware.de/screenshots/medium/2012/03/Evga_Precision_1.png
("Power Target")

aufkrawall
2012-03-29, 18:27:19
Edit: Aha.

Ich muss den Artikel noch mal lesen...

Raff
2012-03-29, 19:58:15
Dieser Turbo ist aber auch verwirrend... Also eure 1304 waren die Obergrenze der Takraten, also sozusagen die Turbo-Rate, ja? Und dank 132% TDP-Einstellung konnte dieser Turbo konstant ausgefahren werden, korrekt?
Und eure Standard-GTX680 (mit 1006+ MHz) legt im Benchmark real dann auch bis auf 1124 MHz zu?

Max-OC-Einstellung: 1.304 MHz konstant dank TDP-Tweak.
Standard-Einstellung: 1.124 MHz über ~98 Prozent der Zeit, etwas weniger Takt für ~2 Prozent der Zeit.
=> Daraus folgt: Die GPU ist manuell eigentlich nur um 16 Prozent übertaktet.

"Wie sich im Test der GTX 680 zeigte, legt die Referenzkarte meist 1.097 MHz an; die Baseclock von 1.006 MHz wird nur im Furmark erreicht. Unser Sample bedankt sich für die starke Kühlung sogleich mit einem weiteren Taktsprung: Laut Precision-X-Protokoll arbeitet die Shaman-680 selbstständig mit 1.124 MHz. Dieser Takt ist über die meiste Testzeit aktiv, vereinzelt sind Drops auf bis zu 1.084 MHz sichtbar. Beachten Sie dieses Detail bei den nachfolgenden Testwerten – die absolute Taktsteigerung ist deutlich geringer, als es den Anschein macht."

MfG,
Raff

dargo
2012-03-29, 20:04:22
1.304 MHz konstant (Max-OC-Einstellung) danke TDP-Tweak.
1.124 MHz über ~98 Prozent der Zeit, etwas weniger Takt für ~2 Prozent der Zeit.
=> Daraus folgt: Die GPU ist eigentlich nur um 16 Prozent übertaktet.

"Wie sich im Test der GTX 680 zeigte, legt die Referenzkarte meist 1.097 MHz an; die Baseclock von 1.006 MHz wird nur im Furmark erreicht. Unser Sample bedankt sich für die starke Kühlung sogleich mit einem weiteren Taktsprung: Laut Precision-X-Protokoll arbeitet die Shaman-680 selbstständig mit 1.124 MHz. Dieser Takt ist über die meiste Testzeit aktiv, vereinzelt sind Drops auf bis zu 1.084 MHz sichtbar. Beachten Sie dieses Detail bei den nachfolgenden Testwerten – die absolute Taktsteigerung ist deutlich geringer, als es den Anschein macht."

MfG,
Raff
Moment... jetzt bin ich selbst verwirrt. Dh. also ihr könnt die angegebenen Taktraten im gesamten Benchmark gar nicht garantieren? :freak: Also zb. die 1006/3004Mhz? Es könnte ja auch 1124/3004Mhz sein. :crazy: Wenn letzteres zutrifft dann kann man überhaupt keine Rückschlüsse mehr auf die Speicherbandbreiten-Problematik schließen.

Edit:
Ach Mist... hab dein Edit verpasst. :D

Dann ist die GTX680 doch nicht so stark bandbreiten-limitiert wie ich zuerst dachte. Meine Fresse... mit der ganzen hin und her Takterei wird man noch ganz kirre im Kopf. :freak:

Am Beispiel von BF3:
1304/3549Mhz vs. 1006/3004Mhz (wobei zweiteres eigentlich zu 98% der Benchzeit 1124/3004Mhz sind:uhammer:) ergibt +18% fps. Dann passt doch alles. :freak:
PS: oder anders gesagt, es lohnt sich auf jeden Fall die GPU auf 1,3Ghz zu übertakten wenn der Speichertakt auch im möglichen Rahmen angehoben wird. :D

Raff
2012-03-29, 20:07:56
Sofern die Precision-X-Logs precise Informationen geben, kann ich dir garantieren, was ich gerade gesagt habe. ;) Die GTX 680 lief wegen der fetten Kühlung mit einem Realtakt von 1.124/3.004 MHz durch praktisch alle Tests. Automatisch. Das heißt, dass die manuelle OC-Einstellung - 1.304 MHz Chiptakt - demgegenüber nur um 16 Prozent zulegt. Die Angabe "1.006+ MHz" für den Standardtakt ist so gewählt, um nicht noch mehr zu verwirren.

MfG,
Raff

Raff
2012-03-29, 20:42:20
Edit:
Ach Mist... hab dein Edit verpasst. :D

Dann ist die GTX680 doch nicht so stark bandbreiten-limitiert wie ich zuerst dachte. Meine Fresse... mit der ganzen hin und her Takterei wird man noch ganz kirre im Kopf. :freak:

Am Beispiel von BF3:
1304/3549Mhz vs. 1006/3004Mhz (wobei zweiteres eigentlich zu 98% der Benchzeit 1124/3004Mhz sind:uhammer:) ergibt +18% fps. Dann passt doch alles. :freak:
PS: oder anders gesagt, es lohnt sich auf jeden Fall die GPU auf 1,3Ghz zu übertakten wenn der Speichertakt auch im möglichen Rahmen angehoben wird. :D

Yep, aber nur 1,3 GHz Kerntakt ohne RAM-OC kann auch mal nahezu nichts bringen. Der Artikel bildet ja nur 1/4 aller ermittelten Werte ab. Die Kiste ist auf jeden Fall bandbreitenabhängiger als Tahiti, das geben auch die anderen Benchmarks her. Das verwundert aber nicht wirklich.

MfG,
Raff

dargo
2012-03-29, 20:46:27
Wie hoch gehen die Speicher eigentlich bei den GTXen 680 im Mittel? Kann man dazu schon was sagen? Sind 1750Mhz bei jeder Karte drin?

Raff
2012-03-29, 20:49:17
Haarscharf, ja. Wobei ich dir jetzt nicht sagen kann, wie Nvidia mit der RAM-Spannung umgeht und ob die sich in Zukunft erhöhen lässt. AMD gibt demselben Speicher 1,6 Volt (mit Option, daraus 1,7 Volt zu machen). Als ich das letzte mal ein Spec-Sheet dazu gesehen habe, stand da etwas von 1,5 Volt. Möglicherweise schlummert da also noch ein 10-Prozent-Potenzial.

€dit: Okay, nun finde ich etwas mit 1,6 Volt. Nun ja. Wie auch immer. Mit 1,7 Volt ginge er halt höher. ;D

MfG,
Raff

Ph0b0ss
2012-03-29, 21:07:33
Mit 1,8V auf dem Speicher wären dann vielleicht 1900-2000Mhz möglich? Das sollte dann für 1,3-1,4Ghz auf der GPU einigermaßen reichen!:)

Raff
2012-03-29, 21:09:43
Das skaliert leider nicht endlos. 1.900 geht wohl (wenn nicht der Controller innerhalb der GPU das Problem ist), aber mehr würde ich nicht erwarten.

MfG,
Raff

Felixxz2
2012-03-29, 22:15:11
Ist das nicht massiv Speicherzerstörend? Spannungserhöhung und dann auf 7-8 GHz hochgehen :eek:

Raff
2012-03-29, 22:17:10
Ich würd's auch nicht machen. Besser 1,6 Volt und damit ausloten, was geht. Toter Speicher sieht immer unschön aus.

MfG,
Raff

Felixxz2
2012-03-29, 22:39:55
Außerdem ist GK104 auch nicht so krass Bandbreitenabhängig wie man vermuten könnte. Die 18% Speicherübertaktung hat bei euch nur 7% mehr Performance gebracht, ergo ist die Limitierung nicht sooo unglaublich groß.

Wenn man von 6 auf 7 GHz geht dann hat man wohl schon (fast) alles rausgeholt.

kunibätt
2012-03-30, 01:37:32
Mit was genau habt ihr in dem Test eigentlich die VRMs gekühlt? Auf den Bildern sind sie nackisch.

Hübie
2012-03-30, 06:51:59
Ihr vergesst mal wieder die Fehlerkorrektur. Wie ihr schon richtig festgestellt habt verliert man bei manchen Takterhöhungen Performance. Das ist der Fehlerkorrektur zuzuschreiben. Immerhin funktioniert die also ;D

Iruwen
2012-03-30, 15:23:07
Das scheint ja bei THGs Karte praktisch sofort passiert zu sein.

mironicus
2012-03-30, 16:58:22
Kurze Frage: Ich habe mir eine GTX 680 bestellt und momentan eine 6950 im System (alle 1536 Shader). Merkt man die Qualitätsunterschiede bei der Grafik sofort oder ist die Aufregung wegen des angeblich schlechten Filtering der 69xx-Reihe maßlos übertrieben?

kunibätt
2012-03-30, 17:05:18
Naja mit ner 680 hast du schon ordentlich mehr Power zu Verfügung, die du eben in BQ investieren kannst. Ich persönlich fand das Flimmern der 6950 nie so schlimm. Aber gegen eine GTX680 sieht sie kein Land, was ja auch verständlich ist.
Dazu hat Nvidia weiterhin folgende Vorteile:
1.) SGSSAA unter OpenGL ( kombinierbar mit den XS-Modi ;) )
2.) SGSSAA < DX9 Techlevel
3.) Kompabits für Spiele ( (SGSS)AA unter zB Crysis 2)
4.) (evtl.) bald wieder Downsampling

Dural
2012-03-30, 17:20:38
naja etwas unfairer Vergleich mit einer 7970 Lightning gegen eine GTX680 Referenz Karte die so wie so schon fast am limit ist ;) aber derzeit ist das halt aktuell.

das was ich mich frage ist, ob die Hersteller was am Speicher Takt drehen können oder der Speicher Kontroller selber limitiert / den man aber sicher auch durch mehr VGPU näher ans Limit bewegen kann.

kunibätt
2012-03-30, 17:23:22
Wovon redest du?
Nochmal an Raff: Womit habt ihr die VRMs gekühlt?

Dural
2012-03-30, 17:34:25
diesem vergleich:

http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/


Edit:
Verbrauchs Messungen bei diesen Werten wären auch sehr Interessant gewessen, aber egal ich habe mir gerade wieder eine 7970 bestellt ;)

Beim GTX680 SLI System hab ich um die 600Watt Verbrauch bei den Games, übliche Ausstattung mit 2600K und so.

M4xw0lf
2012-03-30, 18:30:28
Du hast die 7970 gegen die GTX680 getauscht um dir jetzt wieder eine 7970 zu kaufen? ;D
Wie viel Verlust hast du dabei gemacht?

Iruwen
2012-03-30, 18:31:02
http://motivpic.com/users-data/pics/1/17/shut-up-and-take-my-money-1f46.jpg

Schnitzl
2012-03-30, 18:34:11
diesem vergleich:

http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/


Edit:
Verbrauchs Messungen bei diesen Werten wären auch sehr Interessant gewessen, aber egal ich habe mir gerade wieder eine 7970 bestellt ;)

Beim GTX680 SLI System hab ich um die 600Watt Verbrauch bei den Games, übliche Ausstattung mit 2600K und so.
du hast ein GTX680 SLI System und bestellst ne 7970??? Alter, so durchgeknallt möchte ich auch mal sein ;D

dildo4u
2012-03-31, 02:55:57
EVGA GeForce GTX 680 Hydro Copper Specs

NVIDIA GTX 680
1150 MHz GPU
1215MHz Boost Clock
Memory
6300 MHz (effective)
201.6 GB/s Memory Bandwidth

http://www.evga.com/products/moreInfo.asp?pn=02G-P4-2689-KR&family=GeForce%20600%20Series%20Family&sw=

Knuddelbearli
2012-03-31, 05:28:44
hmm abgeschwächter Boost? oder gibt EVGA auch nur einen Durchschnitt an?

Hugo78
2012-03-31, 08:10:06
Die 1058 Mhz Boost des Ref.Design ist auch nur eine durchschnittliche Angabe, kein maximal Wert.

Ich frage mich grad, wo hier der Turm stört, wenn man für die Wasser- und Monitoranschlüsse eh ein 2 Slot braucht?!
http://www.evga.com/PRODUCTS/IMAGES/GALLERY/02G-P4-2689-KR_LG_4.jpg

boxleitnerb
2012-03-31, 08:23:33
3-way bzw. 4-way SLI ;)
Da kommt dann ein Verbindungsterminal hin, zumindest bei anderen Wasserkühlern.

Knuddelbearli
2012-03-31, 08:43:22
ja bei der Referenz ist es eine Durchschnittsangabe

Wäre aber durchaus möglich das es bei EVGA der maximale ist ist ja höher als bei der Referenz der Durchschnitt dort sind es +49 bei EVGA +55

Hugo78
2012-03-31, 08:49:36
3-way bzw. 4-way SLI ;)
Da kommt dann ein Verbindungsterminal hin, zumindest bei anderen Wasserkühlern.

Selbst 4 Way verteilt sich über 8 Slots.
http://www.youtube.com/watch?v=xZPG0KON3pU&t=5m52s&hd=1

Wäre aber durchaus möglich das es bei EVGA der maximale ist ist ja höher als bei der Referenz der Durchschnitt dort sind es +49 bei EVGA +55

Ist halt eine noch bessere Kühlung, ergo steigt auch der durchschnittliche Turbo an.

boxleitnerb
2012-03-31, 09:02:33
Selbst 4 Way verteilt sich über 8 Slots.
http://www.youtube.com/watch?v=xZPG0KON3pU&t=5m52s&hd=1


Der ATX-Standard geht nur bis 7, das schafft nicht jedes Gehäuse. Wenn man dann noch irgendwelche Zusatzkarten drin hat, hat man u.U. schon mit 3-way ein Problem.
Aber ehrlich glaube ich, dass die richtigen Enthusiasten vorrangig GK110 in solchen SLI-Setups verbauen, und der wird wie üblich 8+6 haben.

Hugo78
2012-03-31, 09:12:44
Ein 8 PCI-Slot Gehäuse bekommt man schon ab 60€.
http://geizhals.at/de/409959
Daran sollte ein 4 Way nicht scheitern.

y33H@
2012-03-31, 10:41:00
Die Turbo-Angabe ist Minimum, nicht Durchschnitt.

Dural
2012-03-31, 10:42:51
wenn ich das richtig sehe ist das ja eine referenz karte (von EVGA) mit 8-Pin :eek:

die hat sicher auch alle 5 phasen.

Orbmu2k
2012-03-31, 13:24:34
Kleiner Trick um dem Turbo ein bischen aus dem Weg zu gehen.
Funktioniert solange das TDP Limit nicht erreicht wird.

Zuerst die Karte auf P2 begrenzen:
http://img.techpowerup.org/120330/Shot-20120331-012420.jpg

Danach im P0 Clock Offset soweit ausweiten das man genug Spielraum hat später.
Power Target und VCORE festlegen.
http://img.techpowerup.org/120330/Shot-20120331-012614.jpg

Jetzt einfach im P2 Speicher und GPU Clock übertakten. (Unlock Max)
http://img.techpowerup.org/120330/Shot-20120331-013306.jpg


....am Ende der Session nicht vergessen zurück zu takten und den P2 Lock zu entfernen.
http://img.techpowerup.org/120330/Shot-20120331-013828.jpg

boxleitnerb
2012-03-31, 13:27:52
Könntest du bitte nochmal kurz in Worten beschreiben, was genau das bringt? Wenn der Turbo nicht aktiv ist, wieso sind dann immer noch unterschiedliche Taktraten aktiv (vorletztes Bild, 1229, 1306 und 1358 MHz)?

Edit:
Die 1306 und 1358 sind dann ohne Wirkung, werden halt einfach angezeigt?

Knuddelbearli
2012-03-31, 13:28:53
so wie ich es verstanden habe ist so kein turbo aktiv wodurch man die taktraten endlich mal wirklich testen kann

Orbmu2k
2012-03-31, 13:31:25
so wie ich es verstanden habe ist so kein turbo aktiv wodurch man die taktraten endlich mal wirklich testen kann

Exakt. Also zumindest greift der Boost hier dann nicht ein von wegen Temperatur oder FPS. Solange man unter dem Power Target bleibt kann man konstant Clock/Voltage testen.

Die 1306 und 1358 sind dann ohne Wirkung, werden halt einfach angezeigt?

Das brauchst du um die Clocks im P2 so hoch zu bekommen, ohne ausreichend Offset im P0 ist dann bei Base Clock Schluss.

boxleitnerb
2012-03-31, 13:35:58
Das klingt ja kompliziert. D.h. P0+Offset gibt den maximalen Taktspielraum im P2 vor? Wo kommen die 706 MHz überhaupt her? P0 ist doch volle Pulle, da sollte doch mindestens der Basistakt von 1006 MHz stehen.

Knuddelbearli
2012-03-31, 13:40:34
Orbmu bitte schreib dazu ne mail an ht4u vielleicht sehen wir dann ja einen vergleichstest zwischen 7970 und 680 ohne turbo und oder bei gleichen taktraten *freu*

Orbmu2k
2012-03-31, 13:43:24
Das klingt ja kompliziert. D.h. P0+Offset gibt den maximalen Taktspielraum im P2 vor? Wo kommen die 706 MHz überhaupt her? P0 ist doch volle Pulle, da sollte doch mindestens der Basistakt von 1006 MHz stehen.

Kompliziert? Also der GPU Boost ansich ist imho kompliziert, was der alles macht und unter welchen Vorraussetzungen ist für mich nachwievor nicht 100% geklärt. Wenn das Spiel "genug" FPS hat wird runter getaktet, wenn die Temp zu hoch ist wird runter getaktet. Dann noch in Verbindung mit Framelimiter und VSYNC. Irgendwie wird noch gewürfelt was die Karte kann. :freak:

Wenn die Karte auf P2 begrenzt ist kannst du sorglos das GPU Offset von P0 ins Nirvana stellen. Der P2 ist ähnlich an den P0 gekoppelt wie bei Fermi noch P0 und P3. Das heisst selber Speicher Takt , selbe VCORE. DU musst aber das GPU Offset erweitern damit du den P2 höher takten kannst als P0 Standard.

Hugo78
2012-03-31, 13:52:37
Die Turbo-Angabe ist Minimum, nicht Durchschnitt.

In dem fall hat Nvidias PR sogar gepennt.

Ich hätte von einem garantierten Basistakt (1006Mhz) und garantierten minimum Turbo (1058MHz) gesprochen
und dann bspw. eine völlig unverbindliche "bis zu" Angabe von sagen wir mal 1,3GHz maximal Turbo, hinterher geworfen. :biggrin:

foenfrisur
2012-03-31, 16:09:48
kann mal jemand mit einer gtx680 frametimes-messungen bei einem fordernden bench machen?

bei cpus war es doch oft so, das dieses hoch- & runtertakten zu kleinen rucklern geführt hat.
würde mich mal interessieren, ob man sowas auch bei der gtx680 sieht.

oder taktet sie nicht so oft hoch und runter?

mfg

Hugo78
2012-03-31, 16:14:37
kann mal jemand mit einer gtx680 frametimes-messungen bei einem fordernden bench machen?

Wie genau soll das denn jetzt aussehen?


bei cpus war es doch oft so, das dieses hoch- & runtertakten zu kleinen rucklern geführt hat.

Beispiele?

seaFs
2012-03-31, 17:40:44
Athlon64 (K8) mit CnQ und AMD-Treiber hat schon beim Scrollen im Browser fürchterliche "Lags" gebracht.
Jedesmal, wenn eine Last erzeugt wurde (Scrollen), wurde die CPU hochgetaktet. In dem moment reagiert das System kurz nicht mehr. Man fängt an zu scrollen, und das Bild bleibt stehen, erst danach wird der Bildinhalt bewegt. Das gleiche Spielchen, wenn man aufhört zu scrollen. Das war für mich der Grund, auf CnQ zu verzichten.

Hugo78
2012-03-31, 19:51:57
Da könnte ich ja vom versauten Elchtest der A-Klasse, auch mal pauschal ähnliche Probleme beim Lamborghini Aventador vermuten.

Wäre genauso sinnlos. :biggrin:

seaFs
2012-03-31, 19:57:12
Das ändert aber nichts daran, dass man doch genau an dieser Stelle nachgucken kann. Wenn nichts zu finden ist, umso besser.

Hugo78
2012-03-31, 20:06:52
Ja, aber CnQ war in dem Fall auch ein Wechsel von "high" auf "low" und wieder zurück.
Zudem aus den Kindertagen von CnQ.

Hoch/runtertakten von Basistakt <-> GPU Boost ist dagegen ein Lastwechsel zwischen zwei High Performance Zuständen.
Und wechsel zwischen P-States kennt man von NV spätestens seit GT200 Tagen.

Superheld
2012-04-01, 21:34:49
Test der Nvidia Geforce GTX 690

http://www.pcgameshardware.de/aid,875640/Test-der-Nvidia-Geforce-GTX-690-Schnellerer-GK104-mit-1-2-GHz-fuer-599-Euro/Grafikkarte/Test/

Raff
2012-04-01, 21:38:23
Die gibt's nur noch zwei Stunden und 22 Minuten. :ulol:

MfG,
Raff

Merkor
2012-04-01, 21:40:50
Die gibt's nur noch zwei Stunden und 22 Minuten. :ulol:

MfG,
Raff

Dann beginnt das NDA. ^^

dargo
2012-04-01, 22:48:38
Die gibt's nur noch zwei Stunden und 22 Minuten. :ulol:

MfG,
Raff
Lol... ihr müsst Zeit haben. :D

Begrenzte Stückzahl oder warum so teuer und so kurz verfügbar? ;D

Zergra
2012-04-01, 22:48:46
bei dem GPU-Z Screen solltet ihr noch die 680GTX unten wegmachen :D so wirkt das etwas komisch :P

MadManniMan
2012-04-02, 00:03:44
Die gibt's nur noch zwei Stunden und 22 Minuten. :ulol:

Lese den Test gerade noch :P

Nebenbei: die Benches Werte habt Ihr mit ner übertakteten GTX 680 ermittelt, stimmt's?

VooDoo7mx
2012-04-02, 00:12:02
Die gibt's nur noch zwei Stunden und 22 Minuten. :ulol:


Ich hab schon bessere und glaubhaftere April Scherze aus dem Hardwarebereich gelesen.

Iruwen
2012-04-02, 00:43:02
Findet sich halt immer 'ne Spaßbremse.

aufkrawall
2012-04-02, 00:51:48
Den Witz fand AMD bestimmt nicht witzig.

Zergra
2012-04-02, 01:03:11
Den Witz fand AMD bestimmt nicht witzig.
Wieso ? die hatten doch den BD-Patch, und die wissen das doch wohl eh :D
Aber BT2

Iruwen
2012-04-02, 07:29:11
Die hatten ihren Spaß ja eh schon: http://www.3dcenter.org/news/amd-arbeitet-schon-am-refresh-zur-radeon-hd-7000-serie

dargo
2012-04-02, 08:47:03
Nebenbei: die Benches Werte habt Ihr mit ner übertakteten GTX 680 ermittelt, stimmt's?
Da brauchste nichts ermitteln, einfach hochrechnen und gut ist.

y33H@
2012-04-02, 09:10:39
Nebenbei: die Benches Werte habt Ihr mit ner übertakteten GTX 680 ermittelt, stimmt's?Jupp, mit der M$ "calc"-Edition :biggrin:

Raff
2012-04-02, 09:11:52
Entcalcer? Für den Aprilscherz hat sich natürlich niemand einen halben Tag hingesetzt und die Karte durch den Parcours gejagt.

MfG,
Raff

MadManniMan
2012-04-02, 10:36:11
Da brauchste nichts ermitteln, einfach hochrechnen und gut ist.
Jupp, mit der M$ "calc"-Edition :biggrin:

Schon gut, schon gut ...

Entcalcer? Für den Aprilscherz hat sich natürlich niemand einen halben Tag hingesetzt und die Karte durch den Parcours gejagt.

Hätte ja sein können, dass ihr eine der Karten auf eben jene Werte gebracht habt ...

Raff
2012-04-02, 10:57:33
Nee, "nur" das hier (viel cooler und mit echten Werten): http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/

PCGH hat nun eine Gainward GTX 680 Phantom: https://www.facebook.com/photo.php?fbid=326426650754344&set=a.132691950127816.25074.116984275031917&type=1&theater

MfG,
Raff

Dural
2012-04-02, 17:58:15
Zotac GTX 680 Extreme Edition mit 1,2 GHz GPU-Takt

http://www.computerbase.de/news/2012-04/zotac-gtx-680-extreme-edition-mit-1.2-ghz-gpu-takt/



mit luft scheint der GK104 rund 1,40 GHz zu packen :)

Knuddelbearli
2012-04-02, 18:22:38
naja zumindest @ Stock ist die Karte einfach nur fail. Effektiv keine 10% erhöhte Taktraten ( 1110 MHz vs 1202 MHz ) und Ramtakt wurde gar nicht erhöht. da kommt am Ende wohl nichtmal 5% Mehrleistung an und dafür so ein aufheben?

Merkor
2012-04-02, 18:44:17
PCGH hat nun eine Gainward GTX 680 Phantom: https://www.facebook.com/photo.php?fbid=326426650754344&set=a.132691950127816.25074.116984275031917&type=1&theater

Mich interessiert nur die Lautstärke. 0,4 Sone idle und 0,8 Sone Game? ;-)

y33H@
2012-04-02, 18:53:15
Die 580er Phantom war load ziemlich laut, bei der 570er weiß ich es leider nicht ... mal hören ;-)

aufkrawall
2012-04-02, 19:09:27
Welche Karte hat denn derzeit den besten Kühler bzw. ist schon bekannt, ob da bald was in die Richtung kommt?

(del)
2012-04-02, 19:35:38
Welche Karte hat denn derzeit den besten Kühler bzw. ist schon bekannt, ob da bald was in die Richtung kommt?

Ich denke bis auf die gezeigten Bilder der Hersteller von PCGH ist noch gar nichts bekannt wann was kommt. Ich hoff das es bald bei MSI der Fall sein wird. Wenn ich an meine zwei 570 Twin Frozr III zurück denke war ich übelst zufrieden mit den Karten. :eek:

Dural
2012-04-02, 19:50:31
naja zumindest @ Stock ist die Karte einfach nur fail. Effektiv keine 10% erhöhte Taktraten ( 1110 MHz vs 1202 MHz ) und Ramtakt wurde gar nicht erhöht. da kommt am Ende wohl nichtmal 5% Mehrleistung an und dafür so ein aufheben?


ich finde es OK, 10% werks OC ist normal.

beim speicher haben die hersteller halt ein problem, die 1500MHz sind schon das limit was der speicher offiziell takten kann, ich denke da könnte es sonst probleme mit samsung (oder wer auch immer der hersteller ist) bei RMA fälle kommen oder zotac will das risiko einfach nicht eingehen.

genau wegen dem speicher hab ich mir auch wieder eine 7970 geholt, die GTX680 hängt mir einfach zu sehr an der Bandbreite, zudem bei 1,4GHz GPU takt sicher schon einiges nicht mehr auf dem bildschirm ankommt... mit 384Bit / 48 ROPs wäre GK104 der Hammer gewesen :(

(del)
2012-04-02, 20:07:34
Eine 680 GTX MSI Lightning mit 4 GB das wäre was ganz feines.

Knuddelbearli
2012-04-02, 20:16:56
@Dural

das ist aber keien normale OC Karte sondern der Counterpart zur MSI Lighningserie usw mit eigenem PCB mit dicken Spannungswandlern usw. Da sind 9% OC wovon in teste vielleicht 5% wegen bandbreitenlimit überbleibt sowas von mau

Schaffe89
2012-04-02, 20:28:11
Mehr geht halt einfach scheinbar nicht.
Die Hersteller wären ja auch blöd eine Karte mit höherem Takt zu verkaufen, denn die würden eine nach der anderen früh zugrunde gehen,

Iruwen
2012-04-02, 20:59:13
naja zumindest @ Stock ist die Karte einfach nur fail. Effektiv keine 10% erhöhte Taktraten ( 1110 MHz vs 1202 MHz ) und Ramtakt wurde gar nicht erhöht. da kommt am Ende wohl nichtmal 5% Mehrleistung an und dafür so ein aufheben?

Viel wichtiger ist:

Die Kollegen fanden dabei heraus, dass Zotac die Standardfrequenz von 1.006 MHz für die GK104-GPU auf 1.202 MHz, also rund 1,2 GHz, angehoben hat. Die Boost-Frequenz soll ebenfalls bei 1,2 GHz liegen.

Also kein Turbo der beim manuellen OC stört.

Knuddelbearli
2012-04-02, 21:03:32
das geht auch anders mit dem NV Inspector

Iruwen
2012-04-02, 21:15:44
Und so wenig umständlich :rolleyes:

Knuddelbearli
2012-04-02, 21:20:07
seit wann ist OC zur grenze am machbaren einfach ? ;-)

Zergra
2012-04-02, 22:10:44
seit wann ist OC zur grenze am machbaren einfach ? ;-)
OC ist meistens auf Kosten der Hardware...
und wenn die Karte schon ab 1.5Ghz Chip Takt die 2-3Jahre nicht zu 100% durchhalten soll ? Warscheinlich liegt die durchschnittliche Lebensdauer darunter aber das nehmen die Hersteller in Kauf.
gibt es eigentlich schon Benchmarks von der 680GTX mit 1.7Ghz Chip Takt ?

HarryHirsch
2012-04-02, 22:38:32
http://www.computerbase.de/news/2012-04/zotac-gtx-680-extreme-edition-mit-1.2-ghz-gpu-takt/



mit luft scheint der GK104 rund 1,40 GHz zu packen :)

wenn dir picked oc reicht. rockstable scheint das nicht zu sein.

]OC ist meistens auf Kosten der Hardware...
und wenn die Karte schon ab 1.5Ghz Chip Takt die 2-3Jahre nicht zu 100% durchhalten soll?[/B] Warscheinlich liegt die durchschnittliche Lebensdauer darunter aber das nehmen die Hersteller in Kauf.
gibt es eigentlich schon Benchmarks von der 680GTX mit 1.7Ghz Chip Takt ?

1.5ghz mit "normaler" kühlung?

Raff
2012-04-02, 22:56:02
Mich interessiert nur die Lautstärke. 0,4 Sone idle und 0,8 Sone Game? ;-)

Ich tippe eher auf 2,5 bis 3 Sone beim Spielen.

MfG,
Raff

Iruwen
2012-04-02, 22:58:11
wenn dir picked oc reicht. rockstable scheint das nicht zu sein.

Von 1354MHz (http://www.hardwareheaven.com/reviews/1461/pg20/palit-geforce-gtx-680-jetstream-edition-graphics-card-review-maximum-overclock.html) isses auch nicht mehr weit bis 1,4GHz. Viel wichtiger ist dass die Lautstärke noch passt und dass der Takt auch in FPS umgesetzt wird.

Raff
2012-04-02, 22:58:54
Die 1,35 GHz sind bestimmt nicht rockstable.

MfG,
Raff

HarryHirsch
2012-04-02, 23:05:34
Die 1,35 GHz sind bestimmt nicht rockstable.

MfG,
Raff

sehe ich auch so. ich hatte hier erst nen pw-knacker der die gpus im nu auf 60°c hatte.
das kann kein spiel oder bench.

soll heißen es gibt immer etwas was mehr fordert als der rest.
auch wenn es hier gut gegangen ist. ;)

BigKid
2012-04-03, 05:54:27
Die 580er Phantom war load ziemlich laut, bei der 570er weiß ich es leider nicht ... mal hören ;-)
Die 570 schenkt sich anscheinend zur 580 nicht viel... Unter last wird es laut. Mit unveroltung (gutes Exemplar vorrausgesetzt) und eigenem Lüfterprofil läßt sich noch was retten - aber bei neueren Games dreht sie auf...
Es hat bei mir auch den anschein, dass sich die Kühlkonstruktion irgendwie lockert mit der Zeit denn ich habe den Eindruck der Chip wird heisser (und damit lauter) - kanns aber nicht begründen... Leider kann man da die Schrauben nicht nachziehen ohne das Ding zu zerlegen...

Also mein Fazit zur Phantom (habe ne 570er) nach etwas mehr als einem Jahr ist: Idle und wenig Last - Traumhaft leise - aber wenn sie aufdreht (und unter aktuellen Spielen tut sie das) dann wird sie LAUT und zwar ziemlich Laut..


FRAGE: Was ist mit den Custom-Modellen, wann sind die am Markt zu erwarten - hoffe diesmal einen besseren Griff zu tun... ne MSI, Zotac oder sowas...

Dural
2012-04-03, 09:29:13
@Dural

das ist aber keien normale OC Karte sondern der Counterpart zur MSI Lighningserie usw mit eigenem PCB mit dicken Spannungswandlern usw. Da sind 9% OC wovon in teste vielleicht 5% wegen bandbreitenlimit überbleibt sowas von mau

soso und was hatte die GTX580 für einen takt? ich habe gerade nachgeschaut und es sind 832MHz :wink: somit ist es weniger als eben diese 9% bei der GTX680


wenn dir picked oc reicht. rockstable scheint das nicht zu sein.


mit wakü dürfte das schon stabil machbar sein zudem die karten ja auch mehr spannung als die referenz zu lassen.

Knuddelbearli
2012-04-03, 09:58:43
wenn dann sollte man mit der 7970 vergleichen und dort sind es 16% ohne solche Bandbreitenlimitationen

Iruwen
2012-04-03, 10:23:00
Kannst du dein ewiges Schlechtgerede nicht irgendwo anders ablassen, im PoWi interessiert das z.B. keinen.

Knuddelbearli
2012-04-03, 10:33:22
Schlechtgerede? ähm ja ...

wenn dir 9% GPU OC und 0% RAM OC für eine Extreme Edition reicht sei doch zufrieden anderen reicht es nicht ...

Für mich reicht das ohne Ram OC nichtmal als normale OC Karte ...

V2.0
2012-04-03, 11:02:46
Gibt es eigentlich schon Kandidaten für eine leiste (<=1.8 Sone Load) GTX680? MSI, Gigabyte, Asus? (EVGA wohl eher nicht)

Odal
2012-04-03, 11:08:50
Die 570 schenkt sich anscheinend zur 580 nicht viel... Unter last wird es laut. Mit unveroltung (gutes Exemplar vorrausgesetzt) und eigenem Lüfterprofil läßt sich noch was retten - aber bei neueren Games dreht sie auf...


Na bei der Verlustleistung von GF100/110 Lärmi wohl auch nicht verwunderlich. Gibts da überhaupt eine "leise" unter Last die nicht wassergekühlt ist?

Das ist doch auch der größte Vorteil (neben dem mehr vram) von GTX680 (der Speedgewinn ist bestenfalls marginal) - die Verlustleistung und das man das Ding leise kühlen kann.
Auch wenn der Referenzkühler wohl nicht das gelbe vom Ei ist wirds sicher leise Customdesigns geben.

uweskw
2012-04-03, 11:42:23
Gebastelt schon, ich hab einen accelero extreme auf meiner 570er. Sehr leise, selbst bei 920MHz.

Hugo78
2012-04-03, 13:06:21
Und wenn man die drei 92mm Lüfter des AC dann noch gegen zwei 120mm @800upm ersetzt, kann man schon von unhörbar reden beim geschlossenen Gehäuse.
Meine alte GTX 285 (TDP 204W) läuft so seit drei Jahren, meine 560Ti seit einem.
Blöd ist nur das Scythe ihre "kama stay" PCI Slot Lüfter-Halterung nicht mehr herstellt, die hat hier super gepasst in Verbindung mit den AC Kühlern.

Alternativ gibts noch die PCI Slot Halterung von EKL.
http://www.caseking.de/shop/catalog/Alpenfoehn-PCI-Slot-Montagesystem-fuer-Luefter::17415.html
Ist aber ebend für den größeren EKL Peter entwickelt worden und nimmt so sogar noch einen zusätzlichen Slot ein.

dildo4u
2012-04-03, 14:17:36
Test: Gainward Geforce GTX 680 Phantom - Besser als die Nvidia-Vorlage?

http://www.pcgameshardware.de/aid,876078/Gainward-Geforce-GTX-680-Phantom-Test/Grafikkarte/Test/

Nicht schlecht schneller und deutlich weniger Leistungsaufnahme Von 174->162Watt.

M4xw0lf
2012-04-03, 14:20:58
Aber der Lüfter unter Last versaut das Gesamtbild ;)

boxleitnerb
2012-04-03, 14:22:06
Mehr Takt und praktisch dieselben fps? Wie kommts?

dildo4u
2012-04-03, 14:24:23
Aber der Lüfter unter Last versaut das Gesamtbild ;)
2.0Sone auf 50% der Lüfter ist stark genug.

Raff
2012-04-03, 14:27:44
Mehr Takt und praktisch dieselben fps? Wie kommts?

Tja, die Referenzkarte boostet sich auf 1.097 MHz, die Phantom auf bestenfalls 1.163 – so viel ist das nicht.

MfG,
Raff

dargo
2012-04-03, 14:30:55
Ich dachte der Kühler der Phantom wäre so gut? :confused: 3,3 Sone in Spielen ist alles andere als leise.

Edit:
Auch hier wieder sehr schön zu sehen wie die GTX680 Feuer unterm Arsch bekommt wenn der Speichertakt stark erhöht wird. :(

boxleitnerb
2012-04-03, 14:32:24
Tja, die Referenzkarte boostet sich auf 1.097 MHz, die Phantom auf bestenfalls 1.163 – so viel ist das nicht.

MfG,
Raff

Blöd. Schlechter Chip bei eurem Testexemplar oder Throttling? Habt ihr mal untersucht, ob sich der erwartete Taktabstand einstellt, wenn ihr +20% gebt?

So gesehen zahlt man für die OC-Modelle viel Kohle ohne eine garantierte Mehrperformance zu erhalten, die der gesteigerte Baseclock suggeriert. :frown:

Raff
2012-04-03, 14:33:08
Wer nur Furmark "spielt", erhält garantiert mehr Takt (dort bleibt die Kiste auf 1.084 MHz, die Referenz bei 1.006). :ulol:

MfG,
Raff

Merkor
2012-04-03, 14:33:14
Aber der Lüfter unter Last versaut das Gesamtbild ;)

Das verstehe ich auch nicht. Komisch ist, dass das Ding gar nicht so viel kälter läuft als das Referenzdesign. Liegt aber wohl an der Übertaktung. Auch die anderen Komponenten im Gehäuse kriegen ihre Abwärme ab.

Bekommt eigentlich so eine im Text vorgeschlagene Lüfterfixierung auf z.B. 50% max. mittlerweile auch ohne große UAC-Abfragen hin? Afterburner oder Precision als Dienst starten?

Dafür kann man doch nicht 150 bis 200 Euro Aufpreis verlangen. Mal gucken, wie sich das einpendelt.

Was kommt noch zeitnah an Customs? Sonst muss es doch Referenzdesign werden...

Danke, Raff! Hast du Infos zur Verfügbarkeit?

Iruwen
2012-04-03, 14:37:29
Speedfan steuert bei mir problemlos sämtliche Lüfter inkl. GPU (5870 PCS+), geht das bei den Karten nicht?

fondness
2012-04-03, 14:51:15
Blöd. Schlechter Chip bei eurem Testexemplar oder Throttling? Habt ihr mal untersucht, ob sich der erwartete Taktabstand einstellt, wenn ihr +20% gebt?

So gesehen zahlt man für die OC-Modelle viel Kohle ohne eine garantierte Mehrperformance zu erhalten, die der gesteigerte Baseclock suggeriert. :frown:

Das finde ich allgemein blöd bei den GTX680ern. Dadurch das sich die Karten selbst übertaktet hat man manuell kaum noch Spielraum. Bei einer 7970 kann ich durchaus 30% Mehrleistung durch übertakten raus holen.

dildo4u
2012-04-03, 14:55:42
Das finde ich allgemein blöd bei den GTX680ern. Dadurch das sich die Karten selbst übertaktet hat man manuell kaum noch Spielraum. Bei einer 7970 kann ich durchaus 30% Mehrleistung durch übertakten raus holen.
Es wird Custom Desgin's geben die mehr zulassen,weil das TDP Limit weiter erhöt wird.Wenn du eine 6+8 Karte mit erhötem TDP Limit hast kannste anfangen zu vergleichen.

http://www.youtube-nocookie.com/embed/62313yYmWZ8?rel=0 Power Target 150% statt 132% beim NV Design.

AnarchX
2012-04-03, 14:59:35
Die Palit JetStream Edition erlaubt auch eine TDP-Erhöhung von +50%.

Mal sehen was EVGA auf seine 8+8Pin Karten erlaubt. Nett wäre natürlich gleich ein Überbrückungsschalter für den TDP-Limitierer.

Raff
2012-04-03, 15:05:23
Der TDP-Tweak ist leider wertlos, solange die GPU-Spannung maximal 1,175 Volt beträgt. In der aktuellen Version von Precision X kann man zwar 1,215 Volt auswählen, es wird aber nicht gefressen.

MfG,
Raff

dildo4u
2012-04-03, 15:07:50
In dem Zotac Video sind's max 1.375,NV scheint da für den Chip selber kein Limit bei 1.215 zu setzen.Das gilt wohl nur für das Referenz Design.

http://www.abload.de/img/hfhfdu6uz3.jpg

john carmack
2012-04-03, 17:37:53
so ihr leute :-)

jetzt sind ja ein paar tage nach dem release der 680 vergangen...

Wie sieht es aus mit der leistung?

680 vs. 7970
beide mit und ohne OC
ohne WaKü!

um wieviel % kann sich die 680 im schnitt absetzen?

Danke :-)

aufkrawall
2012-04-03, 18:00:18
680 vs. 7970
beide mit und ohne OC
ohne WaKü!

Lässt sich schwer sagen.
Ich denke mal, die meisten holen wegen dem Turbo nicht alles aus der Karte raus, Orbmu hat ja auch erst kürzlich einen Trick gefunden.

Knuddelbearli
2012-04-03, 18:11:31
Meine Sicht der Dinge:

ohne OC ist die 680 10% schneller

mit OC ( 1150+Turbo = 1250 vs 1200 was für beide locker machbar ist ) dürfte die 7970 knapp vorne sein. 680 nach wie vor aber effizienter aber nur knapp, dafür die 680 deutlich leiser ( aber auch schon recht laut )

aufkrawall
2012-04-03, 18:14:17
Standardmäßig taktet sich das Ding ja runter, wenn es zu warm wird...
Kann also sein, dass z.B. mit dem Asus CU II Kühler sich das Ding noch mal besser übertakten lassen wird.