PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 680: (P)Review-Thread


Seiten : 1 [2] 3 4 5 6

Iruwen
2012-03-23, 11:55:08
Add in a fourth accessory display to get access to your email, web, or other applications while you game.

Wie funktioniert das, das Spiel bleibt normal im Fullscreen und man kann auf das zusätzliche Display switchen? Wie, per Hotkey? Geht das auch mit zwei Displays?

Palpatin
2012-03-23, 12:29:29
Wie funktioniert das, das Spiel bleibt normal im Fullscreen und man kann auf das zusätzliche Display switchen? Wie, per Hotkey? Geht das auch mit zwei Displays?
Dürfte nur gehen falls das Spiel einen "Vollbild-Fenster" Modus unterstüzt. WoW SWTOR z.b. machen das.

AnarchX
2012-03-23, 13:14:03
Wobei NV eine Software verspricht, die über die Windowsfähigkeiten hinaus geht.

Zergra
2012-03-23, 13:58:31
Der Test zeigt schön das die 7970 im oc viel besser mit der 680 mithalten kann. Und die 7970 ist für 450€ das bessere Angebot.

y33H@
2012-03-23, 14:14:56
Die GTX 680 kann man auch OCen ...

Iruwen
2012-03-23, 14:26:48
Er hat eine Meinung, verwirr ihn doch nicht mit Fakten.

aufkrawall
2012-03-23, 14:28:57
Die GTX 680 kann man auch OCen ...
Wenn man um 100 Mhz OCed, kommen dann darauf auch noch mal 50 Mhz - 100 Mhz Turbotakt dazu?

uweskw
2012-03-23, 14:32:04
Der Test zeigt schön das die 7970 im oc viel besser mit der 680 mithalten kann. Und die 7970 ist für 450€ das bessere Angebot.

der Test zeigt eines ganz klar: die PR Pappnasen von AMD haben es mal wieder vermasselt. In Tahiti steckt einiges mehr als sie herausholen. Deswegen bleibt AMD nur übrig über den Preis zu kontern. Das wird uns alle freuen. Bei 350 € schlage ich zu. Egal ob AMD oder NVIDIA zuerst den Preis erreicht.

boxleitnerb
2012-03-23, 14:32:45
Ja, sieht so aus. Turbo bleibt erhalten, hat aber womöglich weniger Spielraum in fordernden Szenen. Wobei "dazu" anscheinent nicht unbedingt stimmen muss. techpowerup hat z.B. festgestellt, dass es beim OC durchaus noch Situationen geben kann, in denen der Takt dann unterhalb Baseclock+Offset liegt.

aufkrawall
2012-03-23, 14:34:13
Ja, sieht so aus. Turbo bleibt erhalten, hat aber womöglich weniger Spielraum in fordernden Szenen. Wobei "dazu" anscheinent nicht unbedingt stimmen muss. techpowerup hat z.B. festgestellt, dass es beim OC durchaus noch Situationen geben kann, in denen der Takt dann unterhalb Baseclock+Offset liegt.
Thx.
Hm, irgendwie find ich das blöd. :D
Hoffentlich gibts bald Software-Hacks, die diesen Turbo fürs OC komplett killen.

PingpiN
2012-03-23, 14:39:23
Das geilste wär ja wenn AMD jetzt gezielt kontern würde.Ich denke da an einen performance treiber mit intigrierten bios flash der die Karte nachdem neustart mit 1050 gpu takt takten lässt.Natürlich mit einen hinweis das der user die Karte davor erst mit dem takt testen soll.Das wär ein leichtes spiel für amd.Wieso machen die das nicht?99% der karten müssten 1050 gpu takt locker schaffen.

Taktbereinigt ist die 580 GTX genau so schnell wie die 680 GTX!

boxleitnerb
2012-03-23, 14:40:25
Hier das Bild, das ich meine. Man sollte annehmen, dass immer mindestens 1106 MHz gefahren werden, außer bei low-3D oder 2D:

http://www.abload.de/img/oc100_clockstkxci.gif (http://www.abload.de/image.php?img=oc100_clockstkxci.gif)

Aber es gibt auch Arbeitspunkte unterhalb der roten Linie. Der Turbo wird mir immer unsympathischer.

akuji13
2012-03-23, 14:43:15
Ich zitiere mich mal selbst. ;)

Nette Karte. Kaufe ich mir.
Ach ne, hab ja schon seit Monaten eine 7970. :tongue:
Sorry NV, ihr habt zu lange gebraucht. :wink:

Eigentlich müsste man aber auch noch eine 680 haben, weil die Karten ja teilweise ihre Stärken in unterschiedlichen Spielen haben:
Die AMD für Metro, die NV für Crysis.

Dazu kommt das unterschiedliche featureset:
Bei der 7970 fehlt mir z.B. in Just Cause 2 das tolle Cuda-Wasser, dafür habe ich nun SSAA per Treiber mit LOD Anpassung.

Ich glaube ich baue mir einen 2ten, identischen Rechner mit 680 zusammen. :lol:

aufkrawall
2012-03-23, 14:43:38
Aber es gibt auch Arbeitspunkte unterhalb der roten Linie. Der Turbo wird mir immer unsympathischer.
Mir scheint, der dient nur dazu, in den Reviews beim Stromverbrauch durschnittlich besser dazustehen.
Für jemanden, der das letzte bisschen Leistung durch OC rauskitzeln will, ist er totaler Mist. :mad:

boxleitnerb
2012-03-23, 14:48:04
So sehe ich das auch. Zusammen mit dem Framelimiter ist es eine tolle Sache. Will ich 50fps und die Karte schafft 100, taktet sie runter. Schafft sie nur 30, taktet sie hoch und schafft dann vielleicht 35.
Aber für sich allein betrachtet, gefällt mir der Turbo nicht. Ich fürchte, das werden wir bei Nvidia jetzt nicht mehr los.

aufkrawall
2012-03-23, 14:52:27
So sehe ich das auch. Zusammen mit dem Framelimiter ist es eine tolle Sache. Will ich 50fps und die Karte schafft 100, taktet sie runter. Schafft sie nur 30, taktet sie hoch und schafft dann vielleicht 35.

Den Framelimiter hab ich wegen den Mikrorucklern schon wieder entsorgt. Die meisten neueren Shooter wie BF3 haben auch trotz TB Vsync bei 60 Hz nicht mehr so einen üblen Input-Lag wie etwa die Source-Engine.
Ob der Verbrauch unter Last jetzt 15 Watt höher oder niedriger ist, ist mir ziemlich egal, da muss man bei der Stromrechnung dann die Werte nach dem Komma vergleichen. ;)
Mit der Asus CUII-Kühlung sollte der Unterschied auch nicht hörbar sein.

Liquaron
2012-03-23, 14:56:49
Kann man bei der GTX 680 eigentlich nur den Chiptakt übertakten?

Sehe die meisten mit einem OC-Wert von ca. 1150 stabil laufen.

Und der Ram?

boxleitnerb
2012-03-23, 14:59:33
VRAM geht auch. Mehr als 10% sollte man da aber nicht erwarten, wenn ich mir so wie Werte aus den Reviews anschaue.

Liquaron
2012-03-23, 15:00:59
Hat hier noch keiner eine GTX 680?

Würde mal gerne einen rockstable Wert für Core und Ram erfahren mit regulärer Kühlung und ohne Vcore Erhöhung.

mironicus
2012-03-23, 15:01:29
So richtig überzeugend ist die neue Karte von NVidia auch wieder nicht. Waren sie früher klar überlegen (GTX 580 vs 6970), muss man jetzt schon abwägen. Und da ist ja auch noch die GK110 am Horizont. Mit dem Wissen, dass bereits in 6 Monaten ein Chip kommt, der noch mal 50% schneller sein dürfte, und die GTX 680 dann wohl klar unter 300 Euro kosten wird und damit den ihr gebührenden Preispunkt einer 560TI einnehmen sollte... da sage ich mir, lieber warte ich noch bis die Karten auf ein vernünftiges Preisniveau abgesunken sind.

derguru
2012-03-23, 15:02:37
Hat hier noch keiner eine GTX 680?

Würde mal gerne einen rockstable Wert für Core und Ram erfahren mit regulärer Kühlung und ohne Vcore Erhöhung.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9222282&postcount=41

MorPheuZ
2012-03-23, 15:03:57
Zotac kündigt 2Ghz Karte an...

Viel Spass: http://www.pcgameshardware.de/aid,874410/Zotac-kuendigt-Geforce-GTX-680-mit-2-GHz-GPU-Takt-an/Grafikkarte/News/

aufkrawall
2012-03-23, 15:07:33
Zotac kündigt 2Ghz Karte an...

Viel Spass: http://www.pcgameshardware.de/aid,874410/Zotac-kuendigt-Geforce-GTX-680-mit-2-GHz-GPU-Takt-an/Grafikkarte/News/
Hätte mich auch gewundert, wenn die Radeon trotz des größeren Chips höher getaktet hätte werden können.

Zergra
2012-03-23, 15:15:31
Die GTX 680 kann man auch OCen ...
Es ging mir doch um diesen Test.
http://vr-zone.com/articles/asus-gtx-680-2gb-overclocking-review-win-some-lose-some/15322-5.html
Ich habe bis jetzt noch keinen Test gefunden wo die 680GTX noch weiter OC wird. Es ging mir eher darum wenn bei OC werden aber auch egal.

Hätte mich auch gewundert, wenn die Radeon trotz des größeren Chips höher getaktet hätte werden können.
Nur wird die Karte wohl nicht hier erscheinen und auch eine Starke Stühlung brauchen.

aufkrawall
2012-03-23, 15:23:13
Nur wird die Karte wohl nicht hier erscheinen und auch eine Starke Stühlung brauchen.
Ist ja egal, offenbar sind mit recht niedriger Spannung hohe Taktraten möglich, was bei der Radeon nicht so ist.

Ich frage mich, wie hoch man den Takt mit 0,1 V mehr bekommt.

M4xw0lf
2012-03-23, 15:29:46
2 GHz? Gehts noch? k|ngp|n hat die GTX680 grade mit Stickstoffkühlung auf 1,8 GHz geprügelt, und diese Komiker sprechen davon, eine 2 GHz Karte zu bauen?
Ich kanns mir höchstens so erklären, dass sie ein PCB mit fetter OC-Auslegung bauen wollen, wie das auch MSI mit seinen Lightning-Modellen tut, mit dem dann unter LN2 oder LHe 2 GHz erreichbar wären. Alles andere wäre doch verrückt...

HarryHirsch
2012-03-23, 15:37:38
2 GHz? Gehts noch? k|ngp|n hat die GTX680 grade mit Stickstoffkühlung auf 1,8 GHz geprügelt, und diese Komiker sprechen davon, eine 2 GHz Karte zu bauen?
Ich kanns mir höchstens so erklären, dass sie ein PCB mit fetter OC-Auslegung bauen wollen, wie das auch MSI mit seinen Lightning-Modellen tut, mit dem dann unter LN2 oder LHe 2 GHz erreichbar wären. Alles andere wäre doch verrückt...

ich denke mal der turbo geht bis max. 2ghz.

btw. gibt es schon irgendwo frametimes der 680er?

Godmode
2012-03-23, 15:40:41
ich denke mal der turbo geht bis max. 2ghz.

btw. gibt es schon irgendwo frametimes der 680er?

Wie soll das gehen, wenn sie mit LN2 gerade mal 1800 MHz erreichen? :confused:

HarryHirsch
2012-03-23, 15:45:36
Wie soll das gehen, wenn sie mit LN2 gerade mal 1800 MHz erreichen? :confused:

je nach auslastung halt...
sie könnten auch sagen ihre karte geht bis max. 5ghz

foenfrisur
2012-03-23, 15:56:50
SLi scheint in bf3 momentan ja noch grottenschlecht zu funktionieren.

http://nl.hardware.info/reviews/2641/7/nvidia-geforce-gtx-680-quad-sli-review-english-version-battlefield-3

suche gerade mal multimonitoring-benches...gibts das gute?
also mit verbrauch etc.

mfg

uweskw
2012-03-23, 16:41:56
ist schon ein wenig seltsam das OC Verhalten der 680er. Die Erhöhung um 21 % GPU sowie RAM Takt ergeben 9,2 % Performance plus.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/21816-test-nvidia-geforce-gtx-680.html?start=23

Was limitiert da?

Hugo78
2012-03-23, 16:43:44
Ja, sieht so aus. Turbo bleibt erhalten, hat aber womöglich weniger Spielraum in fordernden Szenen. Wobei "dazu" anscheinent nicht unbedingt stimmen muss. techpowerup hat z.B. festgestellt, dass es beim OC durchaus noch Situationen geben kann, in denen der Takt dann unterhalb Baseclock+Offset liegt.

Die Kühlung muss halt mitmachen.
Wenn die Karte bei 80°C ankommt wird schrittweise abgeregelt, so weit ich das verstanden habe.
Der Turbo muss ebend DAU sicher sein.

Wart einfach mal ab, bis die Hersteller mit axialen Designs kommen oder ein DHE mit einer Vapor Chamber.
Im ref.Design steckt ja leider nur ein Block mit Heatpipes.

Cb hat dazu doch ein schönes Erklärbär-Video im test:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/4/#abschnitt_der_turbomodus

Edit: und halt die TDP Grenze muss eingehalten werden.
Alles ne Frage der Garantie ggü. DAUs.

AIBs werden hier sicher das Limit höhertreiben.
Dazu passt ja auch schon Zotacs mutiger Vorstoß von wegen 2GHz.
Was ich aber nicht kommentieren will.

Schlammsau
2012-03-23, 16:51:31
Hat die 680 eigentlich, eine automatische SGSSAA LOD-Korrektur unter DX11, wie die Radeons ?

mironicus
2012-03-23, 16:55:43
Nein.

AnarchX
2012-03-23, 16:55:53
je nach auslastung halt...
sie könnten auch sagen ihre karte geht bis max. 5ghz
Selbst ohne Auslastung wird man auf einen Non-LN2-GK104 keine 2GHz anlegen können.
Da keine andere Chinesische Seite darüber berichtet, schreibt man da wohl Unsinn.

1,2GHz +Boost könnten realistisch sein.

Schlammsau
2012-03-23, 17:08:53
Nein.
Kann man bei nVidia überhaupt das LOD unter DX11 korrigieren?

aufkrawall
2012-03-23, 17:11:58
Kann man bei nVidia überhaupt das LOD unter DX11 korrigieren?
Steht hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867
Nein.

Schlammsau
2012-03-23, 17:14:15
Steht hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867
Nein.
Na dann, mehr wollte ich nicht wissen.

Danke Jungs! :biggrin:

aufkrawall
2012-03-23, 17:15:48
Na dann, mehr wollte ich nicht wissen.

Wenn es von AMD einen WHQL-Treiber mit der LOD-Anpassung gibt, erstell ich im Nvidia-Forum einen Thread. Mit genug Quengelei sollte sich ManuelG zumindest dazu äußern.
Vielleicht reißt die PGHW auch irgendwann was.

ecodriver
2012-03-23, 17:17:34
Ist schon absehbar wenn die 670er kommen?

Blaire
2012-03-23, 17:18:47
SLi scheint in bf3 momentan ja noch grottenschlecht zu funktionieren.
http://nl.hardware.info/reviews/2641/7/nvidia-geforce-gtx-680-quad-sli-review-english-version-battlefield-3

Auwei...BF3 1920x1080 , Medium Settings und 4-Way SLI das macht natürlich Sinn...;D Sehr seltsame Ergebnisse mitunter, mal 3-Way dabei, mal nicht...guter Versuch :freak:

btw. ZOTAC GeForce GTX 680 Graphics Card SLI Performance Review
http://www.hardwareheaven.com/reviews/1453/pg1/zotac-geforce-gtx-680-graphics-card-sli-performance-review-introduction.html

Screemer
2012-03-23, 17:55:38
da mir noch keiner meine beiden fragen beantwortet hab zitiere ich mich mal selbst. vielleicht kanns ja nun einer beantworten.da folgendes im cb-thread eh untergeht frag ich hier noch mal:

Anders als bei AMDs Eyefinity-Technologie ist es bei Surround nun möglich, die Task-Bar auf den mittleren Monitor zu beschränken – bis jetzt hat sich diese immer über alle angeschlossenen Displays ausgestreckt. wie jetzt ich dachte seit cat 12.2 kann man das auch bei eyefinity?

http://www.abload.de/thumb/image4b5jy1.png (http://www.abload.de/image.php?img=image4b5jy1.png)

und noch mal meine frage zur wärmeleitpaste. welche wurde beim wechsel im cb-review verwendet?

w0mbat
2012-03-23, 18:03:46
AFAIK geht das auch bei AMD, da hast du recht.

cR@b
2012-03-23, 19:50:08
Boah geht die Matz in BF3 ab, also zur 480 GTX wirklich ein Unterschied wie Tag und Nacht! Jetzt fällt mir auch erst auf wie laut die 480er eigentlich war, obwohl ich nicht Lautstärkenempfindlich bin :D
Herrlich die Karte, bin echt überrascht und habe mit sowas eigentlich nicht gerechnet... Schade, dass die Karte eines Tages alt wird, sowas möchte man eigentlich für immer haben! :rolleyes:

pest
2012-03-23, 19:52:20
Die Erhöhung um 21 % GPU sowie RAM Takt ergeben 9,2 % Performance plus.


Die Taktgrenze ist für die GPU ein Richtwert solange der Powerdraw innerhalb der festgelegten Grenzen ist. Deine Aussage ist also Quatsch. Sieht man auch am Powerdraw einer 7970@OC und einer GTX680@OC

PingpiN
2012-03-23, 20:37:35
Bei denn sli/cf test skaliert die NV auch wieder schlechter...Mall gucken wie das dieses jahr noch ausgeht.AMD steht jedenfalls ziemlich gut da.

uweskw
2012-03-23, 20:45:51
Die Taktgrenze ist für die GPU ein Richtwert solange der Powerdraw innerhalb der festgelegten Grenzen ist. Deine Aussage ist also Quatsch. Sieht man auch am Powerdraw einer 7970@OC und einer GTX680@OC

Hast du dir den Link überhaupt angeschaut?

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/21816-test-nvidia-geforce-gtx-680.html?start=23

+30%power target, 21%OC für GPU und RAM aber im Schnitt nur 9,2% Mehrleistung. Irgend etwas limitiert.

kunibätt
2012-03-23, 20:46:17
Passt der Shaman mit der Grundplatte nun ?
Habe weing Lust da, den Vorreiter zu spielen XD

y33H@
2012-03-23, 20:51:16
Heute war Heft-Abgabe, da war anderes wichtiger :ulol:

pest
2012-03-23, 20:54:12
Hast du dir den Link überhaupt angeschaut?



Über die letztgenannten Regler wird wohl auf den Basis- wie auch den Boost-Takt ein Offset gelegt.



Der GPU-Takt belief sich maximal auf 1280 MHz und der Speicher arbeitete mit 1638 MHz.


...

ChaosTM
2012-03-23, 20:57:06
Hast du dir den Link überhaupt angeschaut?

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/21816-test-nvidia-geforce-gtx-680.html?start=23

+30%power target, 21%OC für GPU und RAM aber im Schnitt nur 9,2% Mehrleistung. Irgend etwas limitiert.

Die betreffende Karte dürfte taktmäßig ziemlich ausgereizt sein und daher oft an der Watt-Mauer scheitern. Da haben andere Reviewer bessere Karten erwischt, die besser skalieren.

uweskw
2012-03-23, 21:02:14
OK, offensichtlich inzwischen angesehen,

HW-Luxx schrieb:
Letztendlich erreichten wir einen "GPU Clock Offset" von +177 MHz und ein "Mem Clock Offset" von +274 MHz. Der GPU-Takt belief sich maximal auf 1280 MHz und der Speicher arbeitete mit 1638 MHz.

und dennoch nur 9,2% mehr FPS
also??

dildo4u
2012-03-23, 21:03:42
Die haben die Spannung erhöt was kontraproduktiv ist weil sie schneller ans TDP Limit kommen.


http://youtu.be/uDnGjIxb1E0?hd=1&t=4m2s

pest
2012-03-23, 21:06:29
OK, offensichtlich inzwischen angesehen,



und dennoch nur 9,2% mehr FPS
also??

sag mal bist du ne Frau oder was? Du kannst der Karte sagen das sie maximal mit 2Ghz laufen soll. Wenn sie ihr TDP-Limit erreicht ist Schluss. Du schuldest mir 3 Posts.

Liquaron
2012-03-23, 21:13:15
So habe heute meine GTX 680 abgeholt und BF3 und Crysis2 angezockt......das Teil ist ein Biest oO

Die Games rennen in max Settings aber sowas von sauber. Unter 50 FPS kommste da nie.

Die Lautstärke ist auch angenehm. Nicht lauter als meine alte XFX 6870.

Ich bin super zufrieden :)

cR@b
2012-03-23, 21:30:39
So habe heute meine GTX 680 abgeholt und BF3 und Crysis2 angezockt......das Teil ist ein Biest oO

Die Games rennen in max Settings aber sowas von sauber. Unter 50 FPS kommste da nie.

Die Lautstärke ist auch angenehm. Nicht lauter als meine alte XFX 6870.

Ich bin super zufrieden :)

Jo ne :) bin schwer beeindruckt! OC lass ich vorerst bleiben bis es ausreichend Infos gibt. Hatte OC so oder nicht vor und deshalb auch zu der Karte von nV gegriffen. Naja Hauptgrund aber ist einfach weil nV mich die letzten Jahre nicht enttäuschte, ja auch nicht mit der so schlecht geredeten 480er :p

uweskw
2012-03-23, 21:33:16
sag mal bist du ne Frau oder was? Du kannst der Karte sagen das sie maximal mit 2Ghz laufen soll. Wenn sie ihr TDP-Limit erreicht ist Schluss. Du schuldest mir 3 Posts.

weils soviel Spass macht nochmal, extra für dich und diesmal FETT

HW-Luxx schrieb:
Letztendlich erreichten wir einen "GPU Clock Offset" von +177 MHz und ein "Mem Clock Offset" von +274 MHz. Der GPU-Takt belief sich maximal auf 1280 MHz und der Speicher arbeitete mit 1638 MHz.

Schuldest mir nix, hab meinen grosszügigen Tag;)

Also entweder limitiert da etwas oder der User wird von GPU-Boost heftig verarscht.

john carmack
2012-03-23, 21:51:45
JUUHUUU :D

@ 7970 & 680

Crysis ist endlich in FullHD ruckelfrei spielbar! ;D

Knuddelbearli
2012-03-23, 22:12:57
gibt es einen test wo die anhebung des tdp rahmens ohne oc getestet wurde ?

AnarchX
2012-03-23, 22:16:06
gibt es einen test wo die anhebung des tdp rahmens ohne oc getestet wurde ?
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/30.html
http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/4

Knuddelbearli
2012-03-23, 22:19:56
ich mag den turbo imemr weniger ...

oder sehe ich das falsch? AVP + Crysis2 ist mit +32% langsamer als ohne?...

AnarchX
2012-03-23, 22:26:14
Das ist wohl eher die Messungenauigkeit.

Knuddelbearli
2012-03-23, 22:31:45
hmm ok skala verwirrt ein bisschen sind ja nur -0,5 da kann man wirklich davon ausgeheen

bei leichtem oc und skyrim sieht es aber ja nicht besser aus 10% merh takt aber kein bisschen schneller ...

da muss man jedenfalls erstmal beobachten schade hätte sonst bei 400€ sofort zugeschlagen ...

Dural
2012-03-23, 23:53:07
k|ngp|n hat nach gelegt mit 1900MHz GPU und 1850MHz Speicher Takt, neuer 3D Mark 11 WR


die 2GHz ist nur eine frage der zeit!

Körschgen
2012-03-24, 03:27:27
JUUHUUU :D

@ 7970 & 680

Crysis ist endlich in FullHD ruckelfrei spielbar! ;D

Auch auf dem Flugzeugträger? :freak:

Und was ist mit Metro? Da gibt's doch die Szene, in der man als erstes an die Oberfläche kommt... zusammen mit dem einen Typen (weiß die Namen gerade nicht mehr). Da scheint von links oben die Sonne ziemlich derbe rein. In irgendeinem Forum war da glaub ich von 16 fps mit HD 7970 die Rede. ;D

GTA IV würde mich natürlich auch brennend interessieren (am besten gemoddet versteht sich)!

Liquaron
2012-03-24, 07:37:08
Uhhh mit der Karte lässt sich sogar Witcher 2 mit "Uber-Settings" zocken auf konstant ca. 30 FPS :D

Nur klappt das mit dem übertakten noch nicht so. Wenn ich meine Karte mit dem Evga Precision tool auch im Core Takt nur um 100 Mhz erhöhe, läuft sie leider schon sehr instabil. Power Target setze ich auf 115%.

boxleitnerb
2012-03-24, 08:00:16
Setze es halt noch höher, was passiert dann?

Liquaron
2012-03-24, 08:04:27
Setze es halt noch höher, was passiert dann?


Mhh ne, funktioniert auch nicht, zumindest bei 120%.

Ich lasse Sie jetzt mit +80Mhz auf 115% laufen. Damit läuft sie sehr stabil :)

Das reicht mir.

pest
2012-03-24, 08:28:49
weils soviel Spass macht nochmal


Alter, das regt mich auf wenn jemand so borniert und aufnahmeresistent ist. Da steht Maximum! Das hängt vom Bench ab.


130% of the basic TDP. Maximum frequency obtained with ePower was in Mother Nature 1430MHZ and 1350MHZ in 3DM 2011 or Vantage.



I had to disable all GPU VRM to remove the limit of power


http://cdn.overclock.net/d/db/580x392px-LL-dba4cd4a_P1270991-580x392.jpeg

PHuV
2012-03-24, 08:53:49
Auwei...BF3 1920x1080 , Medium Settings und 4-Way SLI das macht natürlich Sinn...;D Sehr seltsame Ergebnisse mitunter, mal 3-Way dabei, mal nicht...guter Versuch :freak:

Die Werte sind ja konfus? :eek: Warum testet eigenlich keiner mal die Paradedisziplin für SLI, T-SLI und Quad-SLI, 3D? :rolleyes:

AnarchX
2012-03-24, 09:15:09
Der Boost taktet wohl auch unterschiedlich auf den einzelnen Karten bei SLI:
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5073570&viewfull=1#post5073570
:ugly:

Hoffentlich entfernen die Hersteller wie EVGA diesen auf ihren Eigenversionen und haben dann z.B. 1,2GHz garantierten Takt ohne Boost.

boxleitnerb
2012-03-24, 09:48:25
Ja, sowas hab ich befürchtet. Wenn man es nüchtern betrachtet, ist der Boost nur dazu da, die Effizienzmetrik leicht zu gewinnen. Im Endeffekt dasselbe wie bei Tahiti - die konnten/wollten auch nur 925MHz ausliefern. Hätte Nvidia 1,2GHz durchgehend draufgegeben, wäre der gute Verbrauch dahin, je nachdem welches Spiel man testet.

M4xw0lf
2012-03-24, 10:03:31
Uhhh mit der Karte lässt sich sogar Witcher 2 mit "Uber-Settings" zocken auf konstant ca. 30 FPS :D

Nur klappt das mit dem übertakten noch nicht so. Wenn ich meine Karte mit dem Evga Precision tool auch im Core Takt nur um 100 Mhz erhöhe, läuft sie leider schon sehr instabil. Power Target setze ich auf 115%.
Mhh ne, funktioniert auch nicht, zumindest bei 120%.

Ich lasse Sie jetzt mit +80Mhz auf 115% laufen. Damit läuft sie sehr stabil :)

Das reicht mir.

Da ist dann immer noch der Turbo aktiv und legt seine 50 Mhz drauf, so dass du bei etwa 1130MHz landest, oder? Allerdings - wird der Turbo überhaupt noch aktiv, oder ist die GPU durch 80MHz Plus schon am Boost-Limit?
So oder so ist das OC-Potential zumindest von deiner Karte mit um die 11% nicht so richtig prickelnd, ne. :wink:

Der Boost taktet wohl auch unterschiedlich auf den einzelnen Karten bei SLI:
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5073570&viewfull=1#post5073570
:ugly:

Hoffentlich entfernen die Hersteller wie EVGA diesen auf ihren Eigenversionen und haben dann z.B. 1,2GHz garantierten Takt ohne Boost.

Vermutlich sind die Karten auch unterschiedlich warm, das dürfte sich da bemerkbar machen beim TDP-Budget.

Cyv
2012-03-24, 10:05:45
Irgendwie steht in den ganzen Tests, dass die 7970 bei 2560x1600 wieder die schnellere Karte is. Die Grafiken/Diagramme geben das aber nicht wieder:confused:

Schaffe89
2012-03-24, 10:28:24
Naja mit Downsampling und SSAA ist sie auf jeden Fall flotter.
Unter 2560x1600 sind sie eher gleich schnell.

Diese 2ghz Karte von MSI würde ich jetzt mal als Marketing Unsinn abstempeln.

PS: Mir gefällt der Tubro irgendwie immer weniger.
Ich hoffe es gibt ne Funktion den Quatsch auszuschalten, denn wenn ich übertakte, dürfte bei längerer Belastung im Sommer bei 27 grad Zimmertemperatur die Karte keinen Mucks mehr schneller sein.

Jede etwas schlechtere Karte perforrmt auch schlechter, selbst mit Standardsettings.
Das ist zwar kein Beschiss, ber zumindest bedenklich, enn Partner OC Modelle rauskommen, welche dann auch mit dem Power Containment arbeiten.
Hoffentlich wird das für dieKartendann massiv nach oben gesetzt.

y33H@
2012-03-24, 10:57:09
Mit SSAA ist sie nicht zwingend flotter. Skyrim zB ist die GTX 680 mit 4x SGSSAA klar vor der HD 7970 - während es in Mass Effect 3 umgekehrt ist.

M4xw0lf
2012-03-24, 11:14:44
Oder auch Bulletstorm: Vorteil 7970; Serious Sam 3: Vorteil 680
Wechselt also auch mit SSAA von Spiel zu Spiel.

uweskw
2012-03-24, 11:50:53
Mit SSAA ist sie nicht zwingend flotter. Skyrim zB ist die GTX 680 mit 4x SGSSAA klar vor der HD 7970 - während es in Mass Effect 3 umgekehrt ist.

Hat jemand ne Ahnung warum die NV gerade bei Skyrim so pervers abgeht?

Raff
2012-03-24, 11:54:09
Sofern's (wie bei PCGH) ne Outdoor-Szene ist: Pitcairn ist dicht an Tahiti => Setup-Limit => ab Fermi ist Nvidia im Vorteil.

MfG,
Raff

Shaft
2012-03-24, 13:05:27
Der Boost taktet wohl auch unterschiedlich auf den einzelnen Karten bei SLI:
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5073570&viewfull=1#post5073570
:ugly:

Hoffentlich entfernen die Hersteller wie EVGA diesen auf ihren Eigenversionen und haben dann z.B. 1,2GHz garantierten Takt ohne Boost.


Würde ich auch besser finden, die Boost Funktion ist für mich eh Quark.

Blediator16
2012-03-24, 13:43:20
Ja, sowas hab ich befürchtet. Wenn man es nüchtern betrachtet, ist der Boost nur dazu da, die Effizienzmetrik leicht zu gewinnen. Im Endeffekt dasselbe wie bei Tahiti - die konnten/wollten auch nur 925MHz ausliefern. Hätte Nvidia 1,2GHz durchgehend draufgegeben, wäre der gute Verbrauch dahin, je nachdem welches Spiel man testet.

Der Marketingeffekt auf DAUs ist unbezahlbar :tongue: Du glaubst garnicht wieviele DAUs sich in den anderen "Hardwareforen" aufhalten^^

dildo4u
2012-03-24, 13:58:46
Was für ein Marketing Effekt,die Boost Funktion ist so gut das sich OC kaum lohnt.Dazu hat sie sämtliche Review's gewonnen,(Höhere Leistung,geringerer Verbauch)ich würde nicht jede Reviewer als Dau bezeichnen.

Knuddelbearli
2012-03-24, 14:51:33
Der Boost taktet wohl auch unterschiedlich auf den einzelnen Karten bei SLI:
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5073570&viewfull=1#post5073570
:ugly:

Hoffentlich entfernen die Hersteller wie EVGA diesen auf ihren Eigenversionen und haben dann z.B. 1,2GHz garantierten Takt ohne Boost.


also mikroruckler extrem solange man power target nicht raufsetzt damit alle immer am maximalen turbo takt hängen?

boxleitnerb
2012-03-24, 14:53:27
Extrem würd ich nicht sagen, das passiert wohl nur, wenn der Performanceunterschied zwischen den Karten deutlich ist. Wir sprechen hier von 1-2% in diesem Fall. Was halt passieren würde ist, dass die Karte mit dem niedrigsten Turbo bestimmt (wenn es überhaupt eine Synchronisation diesbezüglich zwischen den Karten gibt, was ich irgendwie bezweifle).

Popeljoe
2012-03-24, 15:08:25
Den Fehler, den NV beim Föhn gemacht hat, wiederholen sie nicht.
Dieses Mal ist es ja quasi eine Demütigung, indem NV eine Karte aus ihrer gedachten oberen Mittelklasse gegen ein Highend Produkt von Ati stellt.
Nunja für mich ist lediglich der Effekt auf den Preis wichtig und ich hoffe, dass der demnächst sinken wird. ;)

Mancko
2012-03-24, 15:19:16
Ich finde den Boost klasse. Man bleibt schön innerhalb der Garantie und jeder hat was davon ohne nun groß mit OC Settings spielen zu müssen.

Von SLI, Crossfire und Dual GPU Zeug halte ich wegen der Microruckler und des erhöhten Energiebedarfs eh nichts. Meisstens ist es dann lohnenswerter eine Graka der nächsten Generation zu kaufen und die alte zu verkaufen. Dann hat man diese Limitierungen nicht.

Gaestle
2012-03-24, 15:40:12
Spielen Boost und Adaptive VSync eigentlich zusammen?

Und wenn ja, Wie?

Boostet man in Situationen, wo man knapp unter 60fps ist, um den VSync zu erreichen?

-Holdrio-
2012-03-24, 16:00:57
Karten mit doppeltem Speicher, 4GB Karten also, bleiben wieder Sache der Hersteller und wann solche von wem kommen ist noch völlig unbekannt, stimmt das so oder gibts doch schon Infos?
So eine Zotac AMP3 4GB wäre schon verlockend, das 2GB Referenzkärtle dagegen nicht sehr.

y33H@
2012-03-24, 16:02:15
Die 2G musst du erst mal tot kriegen ;-) offiziell sind noch keine 4G-Versionen angekündigt.

Coda
2012-03-24, 16:09:06
Ich bin übrigens skeptisch was die herbeigeredete Compute-Schwäche angeht. Das ergibt eigentlich keinen Sinn, vor allem weil z.B. BF3 Compute massiv einsetzt.

Es gibt auch nichts an der Architektur was die FP32-GPGPU-Performance irgendwie beeinträchtigen sollte.

y33H@
2012-03-24, 16:21:53
Ich habe noch nicht geschaut, aber wie viele Test zeigen Compute abseits des Luxmark?

Schaffe89
2012-03-24, 16:27:58
Ich bin übrigens skeptisch was die herbeigeredete Compute-Schwäche angeht. Das ergibt eigentlich keinen Sinn, vor allem weil z.B. BF3 Compute massiv einsetzt.

Metro 2033 nutzt beim Depth of Field massiv Directx11 Compute und da bricht die GTX680 ziemlich stark ein.
Wie löst man das in Battlefield mit HBOA?

4Fighting
2012-03-24, 16:39:49
Karten mit doppeltem Speicher, 4GB Karten also, bleiben wieder Sache der Hersteller und wann solche von wem kommen ist noch völlig unbekannt, stimmt das so oder gibts doch schon Infos?
So eine Zotac AMP3 4GB wäre schon verlockend, das 2GB Referenzkärtle dagegen nicht sehr.

EVGA hat eine angekündigt

http://eu.evga.com/articles/00669/#GTX680FTW

dargo
2012-03-24, 16:56:21
Nach einer Renovierungspause (*kaputtbin*:usad:) habe ich jetzt endlich auch etwas Zeit mich an den Rechner zu setzen.

Nun... die Performance der GTX680 (wenn man bedenkt, dass es nur ein Performancechip ist) kann sich durchaus in Games sehen lassen. Wenn ich das richtig überblicke ist die GTX680 ca. 50% schneller als eine GTX480 AMP! Edition. Für mich leider zu wenig, vorallem bei dem Preis. Hätte ich eine GTX460/560TI wäre das sicherlich ein schönes Upgrade, allerdings ein teures. 350€ fände ich in Ordnung.

Naja... heißt also auf den GK110 warten. :cool:

Coda
2012-03-24, 17:02:13
Metro 2033 nutzt beim Depth of Field massiv Directx11 Compute und da bricht die GTX680 ziemlich stark ein.
Wie löst man das in Battlefield mit HBOA?
Es ist nicht nur HBOA, es ist das gesamte Deferred-Shading was über CS gemacht wird.

Überhaupt sind Compute Shader generell schneller als Pixel-Shader für sowas. Wenn es Probleme gibt, dann mit bestimmten Operationen (atomics etc.).

Verwendet Lux-Mark teilweise FP64? Das würde die Werte erklären.

aufkrawall
2012-03-24, 17:06:07
Naja... heißt also auf den GK110 warten. :cool:
Oder auf Preisnachlässe und OC-Hacks, die mehr als 195 W erlauben.

Hugo78
2012-03-24, 17:08:12
Die 2G musst du erst mal tot kriegen ;-) offiziell sind noch keine 4G-Versionen angekündigt.

EVGA hat schon eine FTW mit zwei und vier GB auf ihrer HP.
Die 4GB Version kommt dann auch wieder mit Backplate.

http://www.evga.com/articles/00669/#GTX680FTW
http://www7.pic-upload.de/24.03.12/danzksniuim.jpg (http://www.pic-upload.de/view-13470568/ftw.jpg.html)

dargo
2012-03-24, 17:13:24
Oder auf Preisnachlässe und OC-Hacks, die mehr als 195 W erlauben.
Wäre auch eine Option, viel fehlt da nicht. Mit +80% aufwärts zum akzeptablen Preis wäre ich zufrieden.
Zeit haben die jetzt genug. Ich meine... Frühling, Sommer, Herbst... erst dann interessiert mich neue Hardware. :D

aufkrawall
2012-03-24, 17:28:21
Zeit haben die jetzt genug. Ich meine... Frühling, Sommer, Herbst... erst dann interessiert mich neue Hardware. :D
Puh, vor Weihnachten ist preislich aber auch nicht unbedingt günstig.
Außer natürlich, GK110 ist dann bereits seit ein paar Wochen erhältlich.

dargo
2012-03-24, 17:48:14
Puh, vor Weihnachten ist preislich aber auch nicht unbedingt günstig.

Nee... so spät auch nicht. Ab September wirds für mich interessant. Im Prinzip wäre so eine GTX680 @1200-1300Mhz @250W TDP ohne diesen GPU-Boost Schwachsinn schon was feines. Dann noch eine von Zotac mit dem genialen Kühler und das Ding rockt. Sind solche OC-Karten überhaupt geplant?

aufkrawall
2012-03-24, 17:51:41
Dann noch eine von Zotac mit dem genialen Kühler und das Ding rockt.

Ist diese Zotac-Kühlung (Luft?) besser als Asus CUII?


Sind solche OC-Karten überhaupt geplant?
Das würd mich auch brennend interessieren.
Ich kauf mir keine Karte, die man nicht übertakten kann.
Bios-Hack fänd ich auch scheiße.

dargo
2012-03-24, 17:53:29
Ist diese Zotac-Kühlung (Luft?) besser als Asus CUII?

Keine Ahnung... Asus CUII auf einer OC-GTX480 habe ich noch nicht gehört.

aufkrawall
2012-03-24, 18:10:00
Ich stell mir die kleine 680 auch bei OC traumhaft leise mit so einem dicken Kühler vor.

Raff
2012-03-24, 18:11:23
Der Zalman VF3000 kühlt besser als ein Direct Cu II.

MfG,
Raff

aufkrawall
2012-03-24, 18:18:26
Der Zalman VF3000 kühlt besser als ein Direct Cu II.

Ist der irgendwo herstellerseitig drauf?
Garantieverlust ist für mich ein No Go, spätestens beim Weiterverkauf der Karte rächt sich das.

muelli
2012-03-24, 18:19:47
Die GTX 480 Amp hat genau diesen Kühler drauf.


Gruß

dargo
2012-03-24, 18:20:42
Ist der irgendwo herstellerseitig drauf?

Klar... bei der Zotac GTX480 AMP! Edition. ;)
http://www.technic3d.com/review/grafikkarten/1131-zotac-gtx-480-amp-edition-im-test/1.htm

Raff
2012-03-24, 18:21:00
Ist der irgendwo herstellerseitig drauf?
Garantieverlust ist für mich ein No Go, spätestens beim Weiterverkauf der Karte rächt sich das.

Nur bei den aktuellen AMPs von Zotac (480 AMP, 580 AMP²). Das ist ein angepasster VF3000F(urby).

Mal sehen, ob es auch eine GTX 680 mit dem Ding geben – wegen des völlig anderen Layouts müsste Zotac basteln. Bei Asus rechne ich aber schon in den kommenden Wochen mit einer DCII, die 7970 ist ja auch schon da.

MfG,
Raff

kunibätt
2012-03-24, 18:21:24
So meine ist jetzt auch da ;)
Ersteindruck:
Der Gerät regelt :)
Erster Schock: Crysis Warhead gestartet und nur Pixelbrei gesehen. Sah original wie ein Speicherfehler aus. Dann habe ich bemerkt das die Auflösung nicht nativ eingestellt war. Tada, fehlerfrei. Puls war aber über 200 XD Wenn jemand mal einen frischen GTX680-Besitzer ärgern will, dann Auflöung runtersetzen.
Ansonsten: Meine Bits gehen noch ;) In Crysis 2 mit Maldo und 2xMsaa+Sgssa in 1440P langt der Speicher immer noch nicht. In Doom3 mit Hires-Texturen auch nicht. Crysis Warhead läuft in 1440p besser als die HD5870 in 1200P.
3840x2160 ist mit konsoligen FPS spielbar.
V-Ray RT geht nicht mehr. Und Blender Cycles auch nicht.
Lautstärke:
Positiv überrascht. Ca. HD6950-Niveau, eher leiser. Das Lüftergeräusch ist ziemlich tief. OC habe ich noch nicht probiert.

y33H@
2012-03-24, 18:23:17
Mal sehen, ob es auch eine GTX 680 mit dem Ding geben – wegen des völlig anderen Layouts müsste Zotac basteln.Die Referenzplatine erlaubt es den Lötstellen nach, die beiden 6P auch neben- statt übereinander anzuordnen. Und schon sollte der VF3000F passen :biggrin:

Raff
2012-03-24, 18:24:19
Oder ein Stückerl der Lamellen wegflexen. :ulol: Dazu eine gescheite Kühlplatte, eventuell die vom Originalkühler ... et voilá.

MfG,
Raff

aufkrawall
2012-03-24, 18:26:53
Könnte mal jemand mit einer 680 ausprobieren, ob bei Trine 2 oder Dead Island mit erzwungenem SGSSAA (10C1 für Trine 2) es diese Linien im Boden gibt?

Raff
2012-03-24, 18:28:15
Grafikfehler sind Treibergeschichten, Johannes wird da nichts anders machen als Enrico. ;)

MfG,
Raff

aufkrawall
2012-03-24, 18:29:18
Grafikfehler sind Treibergeschichten, Johannes wird da nichts anders machen als Enrico. ;)

Mit G80 gibt es diese Linien aber nicht, könnte von den Hardware-Shadern abhängen.

Coda
2012-03-25, 00:22:21
Ist zu 99% ein Shadercompiler-Problem.

Wenn überhaupt hat die Präzision seit G80 nur zugenommen. Seit Fermi/RV870 sind die GPUs vollständig IEEE754-2008 konform.

aufkrawall
2012-03-25, 00:33:32
Würdest du es denn mal testen, wenn du deine Karte hast? ;)

boxleitnerb
2012-03-25, 07:16:26
Die Linien hatte ich mit Fermi ja auch. Die hab ich nur weggekriegt, nachdem ich nach und nach so ziemlich alles an Effekten ausgestellt hab, was es gab. Letztendlich waren es glaub ich die Schatten.

dernomax
2012-03-25, 10:34:12
apropos SSAA - gibt es einen Review der die SSAA Performance vergleich?

Odal
2012-03-25, 10:44:31
Computerbase

http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/14/#abschnitt_leistung_mit_ssaa

dernomax
2012-03-25, 11:22:10
Danke! Bis auf Bulletstorm ist die Sache ja recht eindeutig

-=Popeye=-
2012-03-25, 11:46:17
EVGA hat schon eine FTW mit zwei und vier GB auf ihrer HP.
Die 4GB Version kommt dann auch wieder mit Backplate.

http://www.evga.com/articles/00669/#GTX680FTW
http://www7.pic-upload.de/24.03.12/danzksniuim.jpg (http://www.pic-upload.de/view-13470568/ftw.jpg.html)

Das interessanteste hast du unterschlagen...

8+6 Pin/8+8 Pin Power Connectors
Available on EVGA GeForce GTX 680 Superclocked Signature, FTW, Classified and Hydro Copper models, these connectors can provide up to 225/375 watts, delivering better overclock stability.

Hugo78
2012-03-25, 12:29:48
Das interessanteste hast du unterschlagen...

Aus gutem Grund.
Denn ohne Faktenbasis, was GK104 mit x-fach mehr GHz bei x-fach mehr Spannung verbrät, würden wir uns hier wieder seitenweise im Kreis drehen.

Da hab ich kein Bock drauf.

Odal
2012-03-25, 13:45:56
Danke! Bis auf Bulletstorm ist die Sache ja recht eindeutig

Ja allerdings muss man eingestehen das der Vorsprung der GTX680 gegenüber der 7970 mit SSAA um einige Prozente schrumpft.
Auch generell tendiert AA+AF dazu den Vorsprung sinken zu lassen.

aufkrawall
2012-03-25, 13:59:54
Die Linien hatte ich mit Fermi ja auch. Die hab ich nur weggekriegt, nachdem ich nach und nach so ziemlich alles an Effekten ausgestellt hab, was es gab. Letztendlich waren es glaub ich die Schatten.
Bei Trine 2 und Dead Island brachten bei mir leider auch niedrigste Details nichts.

boxleitnerb
2012-03-25, 14:04:47
Bei Trine 2 und Dead Island brachten bei mir leider auch niedrigste Details nichts.

Ich hab in der config rumspielen müssen.
Danach sah es zum Kotzen aus, aber die Striche waren weg ;)

aufkrawall
2012-03-25, 14:46:53
Ich hab in der config rumspielen müssen.
Danach sah es zum Kotzen aus, aber die Striche waren weg ;)
Welche Spiele sind eigentlich noch von dem Problem betroffen?
Mir fallen noch Call of Juarez ein, zumindest die neueren Teile davon, aber sonst?

boxleitnerb
2012-03-25, 14:55:31
Dragon Age 2.

-Holdrio-
2012-03-25, 15:14:49
EVGA hat eine angekündigt

http://eu.evga.com/articles/00669/#GTX680FTW

Ah fein danke, wenn schon jetzt eine angekündigt ist sollte es ja nicht allzu ewig dauern bis andere nachziehen.
Bei schon drei Games die mit Texturmods deutlich über 2GB schlucken kommt mir nix mehr unter 3GB ins Haus.
Bei der EVGA hätte es aber schon ein besserer Kühler sein dürfen wenn die als FTW mit sicher ordentlichem Aufpreis kommt.

Godmode
2012-03-25, 15:20:00
Hat eigentlich schon jemand in Erfahrung gebracht, warum sie diesen komischen Stromsteckerturm verbaut haben? :confused:

Hugo78
2012-03-25, 15:41:03
Weil die Karte sonst länger wäre.

Godmode
2012-03-25, 15:52:50
Weil die Karte sonst länger wäre.

Hmm aber das ging doch bisher auch?

Hugo78
2012-03-25, 15:58:11
@bans3i
Schau dir das PCB an.
Nebeneinander angeordnet wäre das PCB länger, weil der Lüfter dann mehr Platz bräuchte, bzw der 2. 6Pin wäre im Weg.
http://pics.computerbase.de/4/0/2/6/9/8.jpg

Knuddelbearli
2012-03-25, 16:39:38
ähm da ist doch alles für einen stecker direkt daneben schon vorbereitet ...

lüfter 1 cm weiter vorne sollte ja wirklich kein problem sein

Hugo78
2012-03-25, 16:52:43
Und wozu?

So bleibt die Ref.DHE Version kürzer und axiale AIB Desigs können immernoch nebeneinander platzierte 2*6 / 8+6 auf der Karte haben.

Godmode
2012-03-25, 17:13:36
@bans3i
Schau dir das PCB an.
Nebeneinander angeordnet wäre das PCB länger, weil der Lüfter dann mehr Platz bräuchte, bzw der 2. 6Pin wäre im Weg.
http://pics.computerbase.de/4/0/2/6/9/8.jpg

Thx, macht Sinn!

pXe
2012-03-25, 17:44:19
Kann man davon ausgehen SLI Benchmarks nachgereicht werden?

Bzw. gibt es einen Grund warum die 680 mit SLI anders skalieren sollten als z.b. die 580?


pXe

Knuddelbearli
2012-03-25, 17:50:50
gibt schon einige sli benchmarks und ja cpu limit ^^ und das mehr an ram

ist aber wie immer cf skaliert 5-10 ProzentPUNKTE besser dafür hat es minimal mehr MR

dildo4u
2012-03-25, 18:45:50
Kann man davon ausgehen SLI Benchmarks nachgereicht werden?

Bzw. gibt es einen Grund warum die 680 mit SLI anders skalieren sollten als z.b. die 580?


pXe
2Way SLI scalt ganz gut alles andere ist noch Schrott,bei Batman und Crysis 2 limitiert aber z.b die CPU in 1080p(High Einstellung).

http://nl.hardware.info/reviews/2641/12/nvidia-geforce-gtx-680-quad-sli-review-english-version-sli-scaling

pXe
2012-03-25, 18:52:58
Ah, das sieht doch schon mal ganz gut aus.


pXe

dargo
2012-03-25, 19:13:36
2Way SLI scalt ganz gut alles andere ist noch Schrott,bei Batman und Crysis 2 limitiert aber z.b die CPU in 1080p(High Einstellung).

http://nl.hardware.info/reviews/2641/12/nvidia-geforce-gtx-680-quad-sli-review-english-version-sli-scaling
Was ist denn da in Heaven schief gelaufen? :| 297% Leistung durch eine zweite Karte? :ulol:

boxleitnerb
2012-03-25, 19:24:14
Da sieht man nur, dass man die Benchmarks von denen gar nicht ernst nehmen braucht. Da warte ich lieber aus Userbenchmarks, z.B. von Blaire :)

soLofox
2012-03-25, 19:59:55
kurze frage, ich habe 2x GTX470 AMP (SLI) im rechner.

macht die 680er die beiden platt oder geben die sich nicht viel? frage nur, damit ich weiss, ob sich ein umstieg lohnt :)

strommäßig ja auf jeden fall, aber wenn eine GTX680 nicht schneller ist als ein GTX 470 AMP system, würde ich es erstmal weiter laufen lassen.

gibts da einen vergleich?

Knuddelbearli
2012-03-25, 20:01:42
geben sich kaum was

Undertaker
2012-03-25, 20:08:06
Ein kleiner Zacken Mehrleistung sollte drin sein. Die GTX 470 ist etwas langsamer als die GTX 560 Ti, die von der GTX 680 um gut 90% gebügelt wird. Die SLI-Skalierung eingerechnet, sollte die GTX 680 einen GTX 470 SLI-Verbund um etwa 15% übertreffen.

soLofox
2012-03-25, 20:11:11
ok, danke :)

boxleitnerb
2012-03-25, 20:16:24
Dazu kommt noch deutlich mehr Speicher, da sollte man mit einem 470 SLI je nach Spiel und Einstellungen ins VRAM-Limit kommen.

soLofox
2012-03-25, 20:18:11
wieso, die GTX470 hat doch 1,25GB, ergibt also 2,5GB statt 2GB (GTX680).

boxleitnerb
2012-03-25, 20:19:29
VRAM addiert sich bei AFR (was SLI ist) nicht. Du hast nur 1,25GB.

soLofox
2012-03-25, 20:26:01
ok, das wusste ich nicht :biggrin:

werd's mir überlegen, danke für eure infos :)

Felixxz2
2012-03-25, 20:32:21
@soLofox

Ein Umstieg lohnt sich definitiv. Bist schneller untwegs und bringst die Leistung auch deutlich besser auf die Straße, bei 1,25GB läufst du ziemlich oft ins VRAM Limit (und nein man kann bei 2 Karten den VRAM nicht addieren). Von der enormen Energieeinsparung und der deutlich niedrigeren Lärmbelastung und den fehlenden Mikrorucklern und den fehlenden Profilen ganz zu schweigen.

OC geht auch noch und paar Features gibts auch noch obendrauf.

mironicus
2012-03-25, 20:44:01
Passt eigentlich ein Shaman auf die GTX 680 (oder müsste man noch auf angepasste Versionen warten)?

Timbaloo
2012-03-25, 21:04:43
Passt eigentlich ein Shaman auf die GTX 680 (oder müsste man noch auf angepasste Versionen warten)?
y33H@ wollte das die Tage mal testen. Bislang sieht es aber nicht schlecht aus. Bohrungen sollten passen, der Saftsteckerturm sollte auch nicht im Weg sein (im Gegensatz zum Peter). Thermalright bastelt aber wohl ohnehin an einem neuen Teil, aber das ist hier eh ot.

y33H@
2012-03-25, 22:25:30
Jupp, wenn's klappt gibt's morgen Abend Feedback.

Effe
2012-03-26, 01:49:50
Weiß nicht ob der Test schon verlinkt wurde: http://www.sweclockers.com/recension/15196-geforce-gtx-680-kepler-samt-sli

Da wurde mit viel SLI/Crossfire getestet.

y33H@
2012-03-26, 02:18:59
Und leider sind die typischen MGPU-Probleme auch bei Kepler allgegenwärtig ;(

Blaire
2012-03-26, 02:33:41
Hier noch ein weiteres GTX680 Review...
http://alienbabeltech.com/main/?p=28910
http://alienbabeltech.com/main/wp-content/uploads/2012/03/OC-25x16cht.jpg[url]

Iruwen
2012-03-26, 09:21:50
Keine Liebe für Wolfenstein :D Da funktioniert auch CF nicht und die 6970 ist bei 2560x1600 'ne ganze Ecke schneller als die 7970. Liegt das an OGL?

gnomi
2012-03-26, 10:08:53
Schwache Vorstellung der GTX 680 in Wolfenstein.
Beim Rest sieht es aber wirklich schon sehr gut aus.
Treiber und Spiele laufen exzellent.
Allgemein betrachtet deutlich schneller als die Radeon.

Matrix316
2012-03-26, 10:28:36
Oh Mann, selbst übertaktet kommt die 7970 nicht an die default 680er ran. (außer da wo sie eh schon auf einer Höhe ist)

M4xw0lf
2012-03-26, 10:45:47
Wie weit war die 680 da übertaktet? Die Zugewinne sind ja nicht berauschend, die 7970 legt meistens prozentual mehr zu.

boxleitnerb
2012-03-26, 10:56:19
Steht doch da:


The GTX 680 is clocked at 1006/3000 at stock and overclocked to 1156/3025MHz
The HD 7970 is clocked at 925/1375 at stock and overclocked to 1100/1400MHz


Das sind 15% für die 680 und 19% für die 7970.

Iruwen
2012-03-26, 11:02:15
Nebenbei wieder mal ein schöner Fall von false precision, die FPS mit zwei Nachkommastellen :D

gedi
2012-03-26, 11:04:41
Die Gtx auf 1156-1260, die 7970 auf 1100. Insbesondere sieht max. Overclock bei der 7970 anders aus :(

Imo wenig wenig brauchbar die Ergebnisse, wenn man sich das Review so zur Gemüte führt...

Raff
2012-03-26, 11:05:26
Steht doch da:

Das sind 15% für die 680 und 19% für die 7970.

Die Frage ist, welcher Takt bei der GTX 680 angegeben ist: der Offset auf die GPU oder der (reale) Turbo-Takt. Wenn die auf 1.156 MHz steht und die TDP ebenfalls bumped ist, hat sie real fast 'nen Hunderter mehr.

Beide Karten @ 1.250 MHz wäre kein großes Problem und IMO sehr interessant.

MfG,
Raff

Lard
2012-03-26, 11:07:55
Incl. Boost wären es für die GTX 680 1058MHz bzw. 1260MHZ OC GPU Takt.

As you can see, we upped the base clock by +150MHz over the base clock of 1006GHz for 1156MHz and GPU Boost adjusts the frequency upward by another +100MHz to top out at about 1260MHz.

-=Popeye=-
2012-03-26, 11:10:18
Keine Ahnung warum ihr euch an dem Wolfenstein Ergebnis so hochzieht, das Spiel hat normalerweise einen 60 Fps-Lock. Viel interessanter finde ich die Metro Werte in 1920x1200 die stimmen doch bei beiden Karten nicht, viel zu niedrig.

derguru
2012-03-26, 11:14:12
bei 1600p ist es aber nicht mehr deutlich,eher gleichstand unter defaulttakt.mich wundern die oc-ergebnisse bei der 7970,entweder haben sie den powercontrol-regler nicht auf +20% gesetzt oder der sehr geringe ramtakt von 1400mhz bremst denn bei 19% gputakt sollte und kommt eigentlich mehr als die nicht mal 10% leistung raus.
http://www.abload.de/img/oc-19x12chtc4l49.jpg

Raff
2012-03-26, 11:20:31
Ja, ab 1.100 MHz schlägt erhöhter RAM-Takt so langsam gescheit durch, vorher nicht. Aber die GTX 680 ist eigentlich noch limitierter durch ihre Speichertransferrate. Wieso haben dien den bei den Karten nur so winzig getweakt? 3.500 MHz geht bei beiden.

MfG,
Raff

Liquaron
2012-03-26, 11:30:16
Ja, ab 1.100 MHz schlägt erhöhter RAM-Takt so langsam gescheit durch, vorher nicht. Aber die GTX 680 ist eigentlich noch limitierter durch ihre Speichertransferrate. Wieso haben dien den bei den Karten nur so winzig getweakt? 3.500 MHz geht bei beiden.

MfG,
Raff


Mhh also meinst du ich könnte bedenkenlos den Speichertakt mit dem Precision Tool auf +450 Mhz erhöhen?

Iruwen
2012-03-26, 11:30:33
Vermutlich wollte man beide Karten ähnlich übertakten, wenn man das Taktmittel bei der 680 nimmt sind beide um ~19% übertaktet (~14% bis ~24%).
In 1080p skaliert die 7970 über alles 3% besser mit dem Takt, Extremwert nach oben ist SS3 mit 9% und nach unten Civ 5 mit -1%.

Lard
2012-03-26, 11:58:24
Kann es sein das die GTX 680 stock mit Boost auf bis zu 1110MHz hochtaktet?
Die 1058MHz Boost sind auf jeden Fall vorhanden, und solange die Temperatur niedrieg ist, was bei kurzen Benchmarksequenzen der Fall sein dürfte, taktet die Karte bis auf 1110MHz hoch?
Das würde auch die schlechte Skalierung mit OC gegenüber der HD 7970 bei 1920x1200 erklären.

Durchschnitliche Fps bei 1920x1200:
HD7970 1100/1400MHz: 87,5 Fps
GTX 680 1058-1110/1500MHz: 87,3 Fps

Raff
2012-03-26, 12:04:18
Kann es sein das die GTX 680 stock mit Boost auf bis zu 1110MHz hochtaktet?
Die 1058MHz Boost sind auf jeden Fall vorhanden, und solange die Temperatur niedrieg ist, was bei kurzen Benchmarksequenzen der Fall sein dürfte, taktet die Karte bis auf 1110MHz hoch?
Das würde auch die schlechte Skalierung mit OC gegenüber der HD 7970 bei 1920x1200 erklären.

Durchschnitliche Fps bei 1920x1200:
HD7970 1100/1400MHz: 87,5 Fps
GTX 680 1058-1110/1500MHz: 87,3 Fps

"In unserer Benchmarkszene äußert sich dies laut Taktprotokoll in bis zu 1.124 MHz Chiptakt; steigt die Pixellast, sind es 1.097 MHz - mit der Baseclock von 1.006 MHz arbeitete der GK104 während unseres Praxistests in Spielen nie."

http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=18

Die Karte steht in den Tests besser da als real, wenn man die Kiste mal eine Weile aufheizt. Taktisch sehr klug. ;)

MfG,
Raff

kunibätt
2012-03-26, 12:15:31
Meine läuft mit +450MHz Speicher problemlos.
Ab +140Mhz GPU habe ich Feezes in Crysis, andere Benches rennen auch mit +150 MHZ durch. Um den maximalen Takt zu erhalten, muss die Karte kühler als 70° sein, was mit dem stock Kühler schon sehr laut ist XD.

dildo4u
2012-03-26, 12:39:24
Galaxy zeigt Geforce GTX 680 mit 4 GiByte im Custom-Design und 1,1 GHz

http://www.pcgameshardware.de/aid,874661/Galaxy-Geforce-GTX-680-mit-4-GiByte-VRAM/Grafikkarte/News/


Könnte bei uns unter KFA² vertrieben werden.

mironicus
2012-03-26, 12:49:57
Die hat genau das, was ich bei der GTX 680 vermisst habe: Mehr Speicher!

Timbaloo
2012-03-26, 13:04:05
Interessant. Komplett neues PCB, nicht nur das Referenz-PCB anders bestückt.

Hübie
2012-03-26, 13:06:57
"In unserer Benchmarkszene äußert sich dies laut Taktprotokoll in bis zu 1.124 MHz Chiptakt; steigt die Pixellast, sind es 1.097 MHz - mit der Baseclock von 1.006 MHz arbeitete der GK104 während unseres Praxistests in Spielen nie."

http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=18

Die Karte steht in den Tests besser da als real, wenn man die Kiste mal eine Weile aufheizt. Taktisch sehr klug. ;)

MfG,
Raff

Da wirft sich mir die Frage auf, wie es denn mit einem framelimiter aussehen würde. Bei 60 Hz sagen wir 58 fps und 120 Hz 118 fps.
Im HWL wollte das einer testen, aber hab bisher nix gesehen...

Liquaron
2012-03-26, 13:07:02
Meine läuft mit +450MHz Speicher problemlos.
Ab +140Mhz GPU habe ich Feezes in Crysis, andere Benches rennen auch mit +150 MHZ durch. Um den maximalen Takt zu erhalten, muss die Karte kühler als 70° sein, was mit dem stock Kühler schon sehr laut ist XD.


Kannst du mir mal deine EVGA Prevision Einstellungen posten?

:)

Thunder99
2012-03-26, 13:07:58
Interessante Karte die den High-End Gedanken endlich mal verwirklicht ;)

Schätze mal das Ding hat Potential auf stabile 1,3Ghz :naughty:

Schaffe89
2012-03-26, 13:26:33
Die Karte steht in den Tests besser da als real, wenn man die Kiste mal eine Weile aufheizt. Taktisch sehr klug.

Ich bin ja mal gespannt wie dann die Benchmarks im Sommer aussehen.
Eigentlich müsstet ihr die Karten mit nem Föhn, oder mit nem vorherigen Benchmark vorheizen um faire und stimme Werte herauszubekommen, oder?
Ich mein, ich spiel ja länger als 5 Minuten.

Gibts dazu nen kleinen Artikel in der nächsten PCGH? Wäre imho schon interessant, inwiefern sich der "kleine Cheat" von Nvidia auswirkt.

Dürften aber maximal 5% Leistungszugewinnung sein, oder teils mehr?

Da sieht man eigentlich wie extrem dünn der Vorsprung der GTX680 ist. Da hat Nvidia (aus meiner Sicht) wirklich aber alles was geht ausgequetscht.

Soul
2012-03-26, 13:28:13
http://www.pcgameshardware.de/aid,874673/Geforce-GTX-680-Hall-of-Fame-mit-weisser-Platine-und-bis-zu-300-Watt/Grafikkarte/News/

Oder gleich die mit 2 * 8 Pol Anschlüsse für OC'ers.

/e Ich muss sagen, die Platine ist wirklich sehr variabel mit den Anschlüsse ;)

Iruwen
2012-03-26, 13:33:28
Ich bin ja mal gespannt wie dann die Benchmarks im Sommer aussehen.
Eigentlich müsstet ihr die Karten mit nem Föhn, oder mit nem vorherigen Benchmark vorheizen um faire und stimme Werte herauszubekommen, oder?
Ich mein, ich spiel ja länger als 5 Minuten.

Gibts dazu nen kleinen Artikel in der nächsten PCGH? Wäre imho schon interessant, inwiefern sich der "kleine Cheat" von Nvidia auswirkt.

Dürften aber maximal 5% Leistungszugewinnung sein, oder teils mehr?

Da sieht man eigentlich wie extrem dünn der Vorsprung der GTX680 ist. Da hat Nvidia (aus meiner Sicht) wirklich aber alles was geht ausgequetscht.

Mach die Hose wieder zu :rolleyes:

boxleitnerb
2012-03-26, 13:38:31
40 MHz sind es laut techpowerup, die durch eine zu heiße Karte maximal verloren gehen bei immerhin 20-25 Grad Differenz. Das sind auf den Basistakt bezogen knapp 4%. 20-25 Grad sind schon ne Hausnummer, das muss man erstmal hinbekommen.

y33H@
2012-03-26, 13:42:15
D.h. real unter 3 Prozent - who cares? ;-)

boxleitnerb
2012-03-26, 13:51:46
Nur Fanboys interessieren einzelne Prozentpunkte :rolleyes:

dildo4u
2012-03-26, 14:03:36
Ich bin ja mal gespannt wie dann die Benchmarks im Sommer aussehen.
Eigentlich müsstet ihr die Karten mit nem Föhn, oder mit nem vorherigen Benchmark vorheizen um faire und stimme Werte herauszubekommen, oder?
Ich mein, ich spiel ja länger als 5 Minuten.

Gibts dazu nen kleinen Artikel in der nächsten PCGH? Wäre imho schon interessant, inwiefern sich der "kleine Cheat" von Nvidia auswirkt.

Dürften aber maximal 5% Leistungszugewinnung sein, oder teils mehr?

Da sieht man eigentlich wie extrem dünn der Vorsprung der GTX680 ist. Da hat Nvidia (aus meiner Sicht) wirklich aber alles was geht ausgequetscht.
Als wenn so viele Leute bei na 500€ Karte das Referenz Modell kaufen,es werden massig Karten folgen die leiser sind und besser kühlen.Und der Chip an sich kann wesentlich mehr da ist nix ausgereizt,maximal das Midrange PCB und die Stromversorgung und auch dort werden Custom Design ansetzen.

Geforce GTX 680 Hall of Fame mit weißer Platine und bis zu 300 Watt

http://www.pcgameshardware.de/aid,874673/Geforce-GTX-680-Hall-of-Fame-mit-weisser-Platine-und-bis-zu-300-Watt/Grafikkarte/News/

Schaffe89
2012-03-26, 14:06:28
Mach die Hose wieder zu

Die Karte taktet doch teilweise über 1100mhz rauf?

D.h. real unter 3 Prozent - who cares? ;-)

Ist zwar wirklich nicht der Rede wert, trotzdem glaub ich aber dass das in einigen Fällen mehr als 3% sein könnten, wie sieht das denn beispielsweise bei OC Modellen aus?

Nur Fanboys interessieren einzelne Prozentpunkte

Nein, ich bin eigentlich nur der Meinung dass das "Power-Containment" eine unnötige Bremse für Übertakter ist und wollte wissen, wie sich das auswirkt.
Bei AMD´s Lösung haben auch viele rumgemault obwohl das nie etwas in Spielen "gekostet" hat, aber hauptsache jetzt die Fanboy-Keule auspacken.

boxleitnerb
2012-03-26, 14:16:36
Klar hat es hier und da was gekostet, nie ist falsch. Solche Temperatur-/Takttests wurden mit einer Radeons meines Wissens auch nicht gemacht.

Dural
2012-03-26, 14:22:17
das ist alles eine frage des bios, wer will kann es ja ändern, wenn es einem egal ist lässt man es einfach.

wenigstens gewährt NV garantie auf die möglichen einstellungen, bei AMD erlischt ja sofort die garantie wenn man den hebel auf +20% stellt obwohl ich schwere zweifel dran habe ob sie das überhaupt können (rechtlich)

boxleitnerb
2012-03-26, 14:38:04
Es gibt erste Berichte, dass man nicht ans Bios kommt bei den 680ern, jedenfalls bei den Referenzmodellen. Das wäre zwar nichts Neues, denn das gibts hier und da schon, aber unschön.

Soul
2012-03-26, 14:44:57
Es gibt erste Berichte, dass man nicht ans Bios kommt bei den 680ern, jedenfalls bei den Referenzmodellen. Das wäre zwar nichts Neues, denn das gibts hier und da schon, aber unschön.

Galaxy verbaut auf ihrer GTX 680 ein DualBIOS. Somit denke ich schon dass sie eine spezielle Version für OC anbieten werden.

Hugo78
2012-03-26, 14:49:04
Da hat Nvidia (aus meiner Sicht) wirklich aber alles was geht ausgequetscht.

Nur mal so, man hat auf teurere Vapor Chamber Kühler verzichtet... :rolleyes:

Timbaloo
2012-03-26, 14:58:41
Vergiss es, der sucht sich immer irgendwas aus wovon die Welt untergehen wird...

y33H@
2012-03-26, 14:58:47
Da hat Nvidia (aus meiner Sicht) wirklich aber alles was geht ausgequetscht.NOT. Die Platine hat nur 4/5 GPU-Phasen drauf, 2x 6P statt 6+8P, nur einen Heatpipe-Kühler. Die hätten das Ding sicherlich auch mit 1.200/3.300 MHz rausprügeln können, wenn die HD 7970 deutlich stärker wäre - so wie AMD bei schlechteren yields Tahiti XT mehr Stoff geben könnte.

Schaffe89
2012-03-26, 14:59:28
Ich meinte ja nicht unbedingt die Kühlung.
Die sollte für einen Performancechip nicht allzu teuer sein.
AMD verbaut da noch viel lausigere Kühlungen.

NOT. Die Platine hat nur 4/5 GPU-Phasen drauf, 2x 6P statt 6+8P, nur einen Heatpipe-Kühler.

Das habe ich mit meiner Aussage auch nicht gemeint.
Ich meinte, dass man die Karte so designed hat, dass sie minimal schneller ist, minimal weniger Strom verbraucht, bei einem PCB was geringe Kosten verursacht, also eigentlich alles auf das Optimum getrimmt hat.

Nvidia hat genau den Sweet Spot getroffen.
AMD "bisher" noch nicht.

Vergiss es, der sucht sich immer irgendwas aus wovon die Welt untergehen wird...

Von einem kleinen Performanceplus durch eine kühle GPU geht die Welt nicht unter.

Die hätten das Ding sicherlich auch mit 1.200/3.300 MHz rausprügeln können, wenn die HD 7970 deutlich stärker wäre

Keine Ahnung ob das bei den Yields noch wirtschaftlich ist.

kunibätt
2012-03-26, 15:13:11
Hier mal meine Precision- Einstellungen:
Dazu die jeweils resultierenden Taktraten in Abhängigkeit der Temps auf einen Blick (GPU-Z Screens). Wie man sehen kann, kommt man nicht mal dem Powerlimit von 115% nahe. Ich sehe daher momentan keinen Bedarf es auf 132% zu stellen.

Captain Future
2012-03-26, 15:51:56
Ich bin ja mal gespannt wie dann die Benchmarks im Sommer aussehen.
Eigentlich müsstet ihr die Karten mit nem Föhn, oder mit nem vorherigen Benchmark vorheizen um faire und stimme Werte herauszubekommen, oder?
Ich mein, ich spiel ja länger als 5 Minuten.

Gibts dazu nen kleinen Artikel in der nächsten PCGH? Wäre imho schon interessant, inwiefern sich der "kleine Cheat" von Nvidia auswirkt.

Dürften aber maximal 5% Leistungszugewinnung sein, oder teils mehr?

Da sieht man eigentlich wie extrem dünn der Vorsprung der GTX680 ist. Da hat Nvidia (aus meiner Sicht) wirklich aber alles was geht ausgequetscht.

Wie laut wären dann erst die 7970 Referenzdesigns, wenn man die "anfönt"?

Liquaron
2012-03-26, 18:12:34
Hier mal meine Precision- Einstellungen:
Dazu die jeweils resultierenden Taktraten in Abhängigkeit der Temps auf einen Blick (GPU-Z Screens). Wie man sehen kann, kommt man nicht mal dem Powerlimit von 115% nahe. Ich sehe daher momentan keinen Bedarf es auf 132% zu stellen.


Kannst du mir sagen mit welchem Benchmark du die Werte testest?

Oder mit einem Game?

Wenn ich z.B. mit Furmark teste, dann geht der maximal nur bis zu einem Core von 1047 Mhz und einem GPU Load von 96%.


Also bei mir schaut das so aus beim testen:

http://www.abload.de/img/gtx6804ilg5.jpg

kunibätt
2012-03-26, 18:19:01
Bin mittlerweile bei 1800Mhz Speicher und habe bislang weder Framedrops noch Artefakte feststellen können. Ist seit Jahren mal eine Karte, bei der Speicher-OC voll durchschlägt.

kunibätt
2012-03-26, 18:22:56
Testen tue ich eigentlich mit Crysis ( Map Ice ist ziemlich fies), Warhead und Crysis 2 in hohen Auflösungen und nach Möglichkeit DS. Der Screenshot war mit einem Renderprogramm im Hintergrund laufend (Blender), was auch ziemlich auf die GPU schlägt. Das war nicht Furmark, wenn du das meinst kann gerade nochmal Furmark testen.

Liquaron
2012-03-26, 18:29:08
Testen tue ich eigentlich mit Crysis ( Map Ice ist ziemlich fies), Warhead und Crysis 2 in hohen Auflösungen und nach Möglichkeit DS. Der Screenshot war mit einem Renderprogramm im Hintergrund laufend (Blender), was auch ziemlich auf die GPU schlägt. Das war nicht Furmark, wenn du das meinst kann gerade nochmal Furmark testen.


Wäre lieb, kannst ja mal mit mir oben vergleichen :)

kunibätt
2012-03-26, 18:30:18
Krass, hast recht. Im Furmark taktet sie bei auch mir auf deinen Wert und geht auch ordentlich mit der Spannung herunter. Habe das aber bis auf Furmark in keinem Spiel oder Anwendung beobachten können. Jedenfalls scheint der Kontrollchip mehr zu machen als nur zu schauen, wie warm die Wurst gerade ist :freak: Und im Furmark werden auch die 115% Powerlimit geknackt.

Liquaron
2012-03-26, 18:30:59
Krass, hast recht. Im Furmark taktet sie bei auch mir auf deinen Wert und geht auch ordentlich mit der Spannung herunter. Habe das aber bis auf Furmark in keinem Spiel oder Anwendung beobachten können. Jedenfalls scheint der Kontrollchip mehr zu machen als nur zu schauen, wie warm die Wurst gerade ist :freak: Und im Furmark werden auch die 115% Powerlimit geknackt.


Gut, dachte schon ich mache was falsch :D

kunibätt
2012-03-26, 18:33:44
Wenn man das Powerlimit hochsetzt und den Lüfter volles Rohr aufdreht taktet sie höher, aber auch nicht so hoch wie in anderen Apllikationen. In Furmark kann man die 132% Powerlimit knacken.....

Liquaron
2012-03-26, 18:36:49
Wenn man das Powerlimit hochsetzt und den Lüfter volles Rohr aufdreht taktet sie höher, aber auch nicht so hoch wie in anderen Apllikationen. In Furmark kann man die 132% Powerlimit knacken.....


Mhhh in Crysis bekomme ich ähnliche Werte wie du.

Ist schon argh seltsam.

Was nun einstellen -.-

Ist 132% Powerlimit schlimm?^^

Raff
2012-03-26, 18:38:37
Ist 132% Powerlimit schlimm?^^

Wenn du dabei kräftig übertaktest, dann "peakt" die Karte über 120 Prozent – die Bauteile müssen also u. a. 20+ Prozent mehr Stromstärke schultern und werden heißer. Dadurch kann, muss aber nichts passieren. Das übliche Risiko beim Übertakten. ;)

MfG,
Raff

mironicus
2012-03-26, 18:42:52
Kann man die Karte auch untervolten wenn man nicht OC will?

Liquaron
2012-03-26, 18:48:34
Wenn du dabei kräftig übertaktest, dann "peakt" die Karte über 120 Prozent – die Bauteile müssen also u. a. 20+ Prozent mehr Stromstärke schultern und werden heißer. Dadurch kann, muss aber nichts passieren. Das übliche Risiko beim Übertakten. ;)

MfG,
Raff


Hajo, ich lasse es jetzt bei +80 / + 450 bei 115%. Damit scheint sie sehr sehr stabil zu laufen.
Das reicht mir :)

Was nimmt man bei Nvidia im Allgemeinen bei den Treibereinstellungen bei

Energieverwaltungsmodus? Adaptiv oder Maximale Leistung bevorzugen?

kunibätt
2012-03-26, 18:56:48
Habe nochmal die Crysis Map Ice mit Powerlimit auf 132% in 5120x2880 "gespielt" und im Hintergrund GPU-Z mitloggen lassen. Es liegt konstant der selbe GPU-Takt an, aber die Spannung schwankt. Den 132% Kommt man damit schon ziemlich nahe, im Schnitt fehlen aber so 5%.
Ich machs gerade nochmal mit Lüfter auf 85%.
Zur Frage: Maximale Leistung, was sonst ;) Im Ernst, keine Ahnung.

Liquaron
2012-03-26, 19:02:12
Habe nochmal die Crysis Map Ice mit Powerlimit auf 132% in 5120x2880 "gespielt" und im Hintergrund GPU-Z mitloggen lassen. Es liegt konstant der selbe GPU-Takt an, aber die Spannung schwankt. Den 132% Kommt man damit schon ziemlich nahe, im Schnitt fehlen aber so 5%.
Ich machs gerade nochmal mit Lüfter auf 85%.
Zur Frage: Maximale Leistung, was sonst ;) Im Ernst, keine Ahnung.


Wie ist das, stellt ihr eure Lüfter manuell ein?

Ich lasse das immer Nvidia regeln.....

Btw. mit meinen Unmengen an Mods komme ich in Skyrim schon auf eine Speicherauslastung von knapp 1900 MB.
Da wirds mit der GTX 680 schon fast knapp :D

Hübie
2012-03-26, 19:20:10
Wenn du dabei kräftig übertaktest, dann "peakt" die Karte über 120 Prozent – die Bauteile müssen also u. a. 20+ Prozent mehr Stromstärke schultern und werden heißer. Dadurch kann, muss aber nichts passieren. Das übliche Risiko beim Übertakten. ;)

MfG,
Raff

Dem widerspreche ich, da P=U*I ist ;) Es werden also sicher keine 20% mehr Stromstärke fließen.
Ich vermute mal das die Einhaltung der TDP instanziert ist. Zuerst scheint die Spannung reguliert zu werden. Erst wenn das nichts hilft offenbar der Takt oder??

kunibätt
2012-03-26, 19:22:23
Man kann im Afterburner und glaube auch im Precision-X eine manuelle Lüftersteuerung setzen. Man setzt einfach zu einer bestimmten Temp ein entsprechendes Lüfterlevel. Für Benches kann man auch einfach den Haken bei AUto wegklicken und das gewünschte Level einstellen.
Habe jetzt nochmal mit 85% Lüfter gegengetestet:
Maximales Taktlevel liegt manchmal an (Temp über 70°), jedoch rennt man nun ins Powerlimit. Wenn der Kontrollchip, von einer potenziell besseren Kühlung (ca. 20 Watt-Ersparnis) nicht mitbekommt, wäre die Karte somit ziemlich unübertaktbar. Auf der anderen Seite ist Crysis in 5120x2880 vielleicht auch nicht sonderlich repräsentativ was die potenzielle Spielelast betrifft.

Timbaloo
2012-03-26, 19:32:11
Ich vermute mal das die Einhaltung der TDP instanziert ist. Zuerst scheint die Spannung reguliert zu werden. Erst wenn das nichts hilft offenbar der Takt oder??
Das macht irgendwie keinen Sinn. Du brauchst ja für einen bestimmten Takt eine bestimmte Spannung. Also kannst du diese sinnvoll nur "im Verbund" ändern.

Liquaron
2012-03-26, 19:33:53
Man kann im Afterburner und glaube auch im Precision-X eine manuelle Lüftersteuerung setzen. Man setzt einfach zu einer bestimmten Temp ein entsprechendes Lüfterlevel. Für Benches kann man auch einfach den Haken bei AUto wegklicken und das gewünschte Level einstellen.
Habe jetzt nochmal mit 85% Lüfter gegengetestet:
Maximales Taktlevel liegt manchmal an (Temp über 70°), jedoch rennt man nun ins Powerlimit. Wenn der Kontrollchip, von einer potenziell besseren Kühlung (ca. 20 Watt-Ersparnis) nicht mitbekommt, wäre die Karte somit ziemlich unübertaktbar. Auf der anderen Seite ist Crysis in 5120x2880 vielleicht auch nicht sonderlich repräsentativ was die potenzielle Spielelast betrifft.


Ich blicke irgendwie gar nicht mehr durch.

Ich finde den Boost doof....früher war übertakten echt simpel :freak:

kunibätt
2012-03-26, 19:50:51
Geht mir ähnlich. Man weiß echt nicht genau, welcher GPU-Takt anliegt, wenn man nicht GPU-Z im Hintergrund mitloggen lässt. Ein bisschen aufwändig wie mir erscheint. Vielleicht macht es Sinn nur seine Baseclock zu posten. Wenn man volle Leistung will, dreht man den Lüfter auf und setzt das Powerlimit hoch. Das doofe dabei ist, dass es bei hohem Powerlimit kaum einen Sinn macht den Lüfter auf Auto zu lassen, weil sonst der Chip wieder wegen der Hitze runtergetaktet wird ;D

Liquaron
2012-03-26, 19:54:32
Geht mir ähnlich. Man weiß echt nicht genau, welcher GPU-Takt anliegt, wenn man nicht GPU-Z im Hintergrund mitloggen lässt. Ein bisschen aufwändig wie mir erscheint. Vielleicht macht es Sinn nur seine Baseclock zu posten. Wenn man volle Leistung will, dreht man den Lüfter auf und setzt das Powerlimit hoch. Das doofe dabei ist, dass es bei hohem Powerlimit kaum einen Sinn macht den Lüfter auf Auto zu lassen, weil sonst der Chip wieder wegen der Hitze runtergetaktet wird ;D


Das geile ist ja auch, dass mein Lüfter nie wirklich über 55% geht.....irgendwie vertraue ich aber auch das setzen des Lüfters auf 85% nicht, ich höre da keinen Unterschied. Und die Basistemperatur geht da auch nicht runter.....alles seltsam^^

kunibätt
2012-03-26, 20:06:51
Im Precision-X erst Auto (bei Fanspeed rechts unten) wegklicken, und dann das keine graue Dreieck nach oben auf Max ziehen und natürlich Apply drücken :biggrin:
Im Ernst, dass ist so laut das du, vorausgesetzt du verfügst über ein normales Hörvermögen, dich erstmal erschrecken wirst. Kann man auch gut verwenden, wenn man von irgendwem zugelabert wird :biggrin: Aber unter diesem Gesichtspunkt ist die HD7970 wohl besser.

Liquaron
2012-03-26, 20:08:28
Im Precision-X erst Auto (bei Fanspeed rechts unten) wegklicken, und dann das keine graue Dreieck nach oben auf Max ziehen und natürlich Apply drücken :biggrin:
Im Ernst, dass ist so laut das du, vorausgesetzt du verfügst über ein normales Hörvermögen, dich erstmal erschrecken wirst. Kann man auch gut verwenden, wenn man von irgendwem zugelabert wird :biggrin: Aber unter diesem Gesichtspunkt ist die HD7970 wohl besser.


Huch, ok hatte das Apply vergessen....alter Falter.....

Hübie
2012-03-26, 20:14:23
Das macht irgendwie keinen Sinn. Du brauchst ja für einen bestimmten Takt eine bestimmte Spannung. Also kannst du diese sinnvoll nur "im Verbund" ändern.

Es ist durchaus sinnvoll. Denn wer kennt das nicht: 90% der Spiele laufen mit Takt XY und Spannung Z. Aber plötzlich kommt ein Spiel wo du die Spannung erhöhen musst. Bei mir, um mal ein konkretes Beispiel zu nennen, konnte ich The Witcher 2 mit 783 MHz und 0,963 Volt komplett durchspielen. Nutze ich diese Einstellung für Battlefield 3 gibt es irgendwann nach 20-30 Minuten einen Absturz. Setz ich die Spannung auf 1 Volt ist wieder alles okay. Warum das so ist kann ich nicht sagen, da eine GPU ja aus vielen teilen besteht. Ich kann nur sagen das nicht alle immer gleichmäßig belastet werden ;)

Hier scheint Kepler dynamisch anzupassen was ja auch einige Besitzer schon bestätigen. Der Takt ist konstant während die Spannung schwankt.

Der Faktor Temperatur spielt auch mit rein, nur wie ist mir auch noch nicht ganz klar.

LG Hübie.
ps: Ich stelle mal ne Theorie auf: Temp beeinflußt den Takt und TDP die Spannung...

kunibätt
2012-03-26, 20:23:05
Er hat aber Recht, die Anpassung erfolgt nur zusammen.
Auch stimmt deine Theorie nicht: Wenn es zu heiß (> 70°) wird sowohl die Spannung als auch gleichzeitig der Takt gesenkt.

kunibätt
2012-03-26, 20:26:51
Wenn die TDP erreicht wird, wird ebenso beides gesenkt nur deutlich drastischer.

kunibätt
2012-03-26, 20:42:54
Obwohl, hab mir noch mal den GPU-Z log von Crysis angesehen: An 1, 2 Stellen ist in der Tat die Spannung gesenkt worden, aber die Taktrate war identisch.
In allen Fällen war die Temperatur über 80°, an diesen Stellen jedoch die %TDP-Auslastung besonders gering. Muss wohl doch eine komplexe Logik in dem Chip stecken.

Hübie
2012-03-26, 20:46:28
Würde mich auch nicht wundern. Soviel ich weiß ist die PCU (power control unit) in Intels Sandy Bridge etwa so komplex wie ein 386 bzw. 486.
Testet endlich mal jemand mit Framelimiter?? :D

kunibätt
2012-03-26, 20:49:09
Was für ein Framelimiter? Wegen SLI-Setups? Also Vsync war bei mir aus, wenn du das meinst. Sag mal was du wissen willst.

dargo
2012-03-26, 20:51:08
Galaxy zeigt Geforce GTX 680 mit 4 GiByte im Custom-Design und 1,1 GHz

http://www.pcgameshardware.de/aid,874661/Galaxy-Geforce-GTX-680-mit-4-GiByte-VRAM/Grafikkarte/News/


Könnte bei uns unter KFA² vertrieben werden.
Ah... so langsam wirds interessant. :naughty: Endlich ein brauchbarer Kühler und eine Stromversorgung die mehr Spielraum zulässt. Die 1,1Ghz sind mir aber noch zu wenig. Ich möchte 1,3Ghz direkt vom Hersteller sehen, dann könnte ich eventuell doch schwach werden. :upara:

kunibätt
2012-03-26, 21:04:50
Will dir nicht den Spaß verderben, aber wenn ich mir mal vor Augen halte, dass hier http://lab501.ro/placi-video/nvidia-geforce-gtx680-partea-ii-studiu-de-overclocking/10 trotz extremer Modifikationen 1.5V fließen mussten, um unter Luftkühlung 1400Mhz zu erreichen, glaube ich kaum an Karten mit 1300MHZ. Dafür hat er 1.35V gebraucht.

dargo
2012-03-26, 21:09:32
Ich hoffe auf ausgewählte Chips die vielleicht ~1,2V für die 1,3Ghz brauchen. Nur ob man sowas bei den GPUs überhaupt praktiziert? Ich meine die "besseren" GPUs selektieren?

Wobei so ein hoher GPU-Takt bringt auch nicht viel wenn die GTX680 an der Speicherbandbreite so stark hängt. Blödes 256Bit SI. :mad:

kunibätt
2012-03-26, 21:16:05
Hatte den Speicher heute den ganzen Tag mit 1800 MHZ gequält. Bin jetzt erstmal wieder bei 1728. Da kommen immerhin 221,2 GB bei rum.

dargo
2012-03-26, 21:21:16
Gibts irgendwo Tests wie stark die GTX680 tatsächlich an der Bandbreite hängt? Bisher ist das nur vom hören sagen.

Felixxz2
2012-03-26, 21:28:46
Ich hoffe auf ausgewählte Chips die vielleicht ~1,2V für die 1,3Ghz brauchen. Nur ob man sowas bei den GPUs überhaupt praktiziert? Ich meine die "besseren" GPUs selektieren?

Wobei so ein hoher GPU-Takt bringt auch nicht viel wenn die GTX680 an der Speicherbandbreite so stark hängt. Blödes 256Bit SI. :mad:

Die Extremübertakter haben 1,2 V für 1,9GHz gebraucht :freak:

dargo
2012-03-26, 21:33:39
Hö? Link?

dildo4u
2012-03-26, 21:44:45
Hö? Link?
http://www.pcgameshardware.de/aid,874265/EVGA-Geforce-GTX-680-auf-1842-MHz-GPU-Takt-uebertaktet/Grafikkarte/News/bildergalerie/?iid=1644990&vollbild

kunibätt
2012-03-26, 21:48:14
Crysis 2560x1440 GPU-Bench:
Stock@85%Lüfter+132%TDP: 46.33
Stock@85%Lüfter+132%TDP und 1800MHZ Speicher: 49.86
1118 baseclk+Stock@85%Lüfter+132%TDP und 1800MHZ Speicher: 52.75 ( CPU-Limit?)

20% mehr Speicher= 7,6% + Leistung

Ist jetzt nicht der Brüller, aber man nimmt was man kriegt, ne ;)

Die 1900 hat er auch nicht bei 1.2V erreicht. In dem Link ist nicht umsonst derV-Mod enthalten, wie man über 1.2V kommt ;)

HarryHirsch
2012-03-26, 21:50:47
http://www.pcgameshardware.de/aid,874265/EVGA-Geforce-GTX-680-auf-1842-MHz-GPU-Takt-uebertaktet/Grafikkarte/News/bildergalerie/?iid=1644990&vollbild

wozu dann der fette umbau?

dildo4u
2012-03-26, 21:53:00
Die dort genutzte Referenzkarte hat nur 4 Phasen damit komste nicht weit,selbst mit Luft,die Custom Desgins kommen nicht umsonst mit deutlich mehr.

http://www.pcgameshardware.de/aid,874661/Galaxy-Geforce-GTX-680-mit-4-GiByte-VRAM/Grafikkarte/News/bildergalerie/?iid=1645356

Raff
2012-03-26, 21:53:50
Crysis 2560x1440 GPU-Bench:
Stock@85%Lüfter+132%TDP: 46.33
Stock@85%Lüfter+132%TDP und 1800MHZ Speicher: 49.86

20% mehr Speicher= 7,6% + Leistung

Ist jetzt nicht der Brüller, aber man nimmt was man kriegt, ne ;)

Deutlich mehr als bei einer HD 7900. Zumal du ein sehr GPU-abhängiges Spiel getestet hast. ;) Mehr dazu: http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=18

MfG,
Raff

derguru
2012-03-26, 21:54:50
Crysis 2560x1440 GPU-Bench:
Stock@85%Lüfter+132%TDP: 46.33
Stock@85%Lüfter+132%TDP und 1800MHZ Speicher: 49.86

20% mehr Speicher= 7,6% + Leistung

Ist jetzt nicht der Brüller, aber man nimmt was man kriegt, ne ;)
mach mal paar benchs im benchthread.

Deutlich mehr als bei einer HD 7900. Zumal du ein sehr GPU-abhängiges Spiel getestet hast. ;) Mehr dazu: http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=18

MfG,
Raff

hab bei avp mit 1200/1375 47fps erreicht gegenüber 51fps mit 1700 ramtakt aber es gab auch beispiele wo sich fast gar nichts getan hat.

HarryHirsch
2012-03-26, 21:57:06
Die dort genutzte Referenzkarte hat nur 4 Phasen damit komste nicht weit,selbst mit Luft,die Custom Desgins kommen nicht umsonst mit deutlich mehr.

http://www.pcgameshardware.de/aid,874661/Galaxy-Geforce-GTX-680-mit-4-GiByte-VRAM/Grafikkarte/News/bildergalerie/?iid=1645356

wasn glück das bei der 7970 nen mod-bios reicht um mehr als 1.4v zu geben. ;D

boxleitnerb
2012-03-26, 21:58:04
Durch den Voltmod und die Platine kamen zusätzliche Phasen dazu. Das waren nie im Leben nur 1.2V.

dargo
2012-03-26, 21:58:13
Crysis 2560x1440 GPU-Bench:
Stock@85%Lüfter+132%TDP: 46.33
Stock@85%Lüfter+132%TDP und 1800MHZ Speicher: 49.86

20% mehr Speicher= 7,6% + Leistung

Ist jetzt nicht der Brüller, aber man nimmt was man kriegt, ne ;)

Die 1900 hat er auch nicht bei 1.2V erreicht. In dem Link ist nicht umsonst derV-Mod enthalten, wie man über 1.2V kommt ;)
Das bezieht sich aber auf den Grundtakt von 1Ghz GPU oder? Mich interessiert viel mehr wie stark die GPU mit 1,2-1,3GHz an der Speicherbandbreite hängt. Da könnten schon durchaus 10% oder mehr durchschlagen denke ich.

kunibätt
2012-03-26, 22:03:46
Mit 1200 Mhz Baseclock kann ich nicht dienen, da macht die Karte vorher schlapp. Stabil gehen augenscheinlich 1118 (Baseclock) und 1799 RAM ( wobei ich das auch noch nicht so recht glauben will). Meine scheint aber wie in alter Tradition eher ne OC-Gurke zu sein :freak:

dargo
2012-03-26, 22:07:36
Deutlich mehr als bei einer HD 7900. Zumal du ein sehr GPU-abhängiges Spiel getestet hast. ;) Mehr dazu: http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=18

MfG,
Raff
Ah... danke.

Bereits bei 1150Mhz GPU-Takt (oder doch 1241Mhz? Ich blick bei den ganzen variablen Taktraten noch nicht durch :crazy:) schlagen über 50% durch wenn der Speichertakt von 3206 auf 3506Mhz erhöht wird. Ist nicht gerade wenig.

Edit:
Auch schön zu sehen... damit die Framerate um 18% steigt bei 18% GPU-OC muss der Speicher ebenfalls um 18% übertaktet werden. Wird der nur um ~7% übertaktet steigt die Framerate nur um 10% an. Bissel blöd... ;(

uweskw
2012-03-26, 22:09:35
...... Meine scheint aber wie in alter Tradition eher ne OC-Gurke zu sein :freak:

Was für ein Netzteil hast du? Damit steht und fällt OC.

Liquaron
2012-03-26, 22:09:38
Mit 1200 Mhz Baseclock kann ich nicht dienen, da macht die Karte vorher schlapp. Stabil gehen augenscheinlich 1118 (Baseclock) und 1799 RAM ( wobei ich das auch noch nicht so recht glauben will). Meine scheint aber wie in alter Tradition eher ne OC-Gurke zu sein :freak:


Sacht das nicht....meine läuft nur mit +80 Mhz Core wirklich stabil :freak:

Aber ich will nicht rumheulen...

kunibätt
2012-03-26, 22:15:45
Netzteil ist ein Seasonic X-660, also "ganz" gut :tongue:
Habe das bislang nur mit Raffs Übertaktung verglichen und bei spätestens 1150 macht meine Karte in Crysis zu.
@Dargo: Habe oben nochmal das Maximum reineditiert.

Ph0b0ss
2012-03-26, 22:26:09
Wenn man mal davon ausgeht, dass die Karte @Default im Schnitt so bei ~1,1Ghz operiert und dabei etwas von der Speicherbandbreite gebremst wird, bräuchte man für 1,3Ghz wohl so um die 2000Mhz auf dem Speicher für annähernd optimale Leistung. Mit 7 Gbit/s Speicher (vielleicht auf den speziellen OC-Karten mit besser Spannungsversorgung?) sollte das erreichbar sein. Schade, dass die Karte kein 320bit-Speicherbus hat.:(

dargo
2012-03-26, 22:28:49
Wenn man mal davon ausgeht, dass die Karte @Default im Schnitt so bei ~1,1Ghz operiert und dabei etwas von der Speicherbandbreite gebremst wird, bräuchte man für 1,3Ghz wohl so um die 2000Mhz auf dem Speicher für annähernd optimale Leistung.
Jep... sehe ich auch so. Für 1,3Ghz GPU wären 1950Mhz Speichertakt ideal. Nur welcher schafft das schon? :(

Edit:
Ich glaube kaum, dass irgendein Hersteller bei den OC-Karten 7 Gbit/s Chips verbauen wird. Oder ist da was geplant?

dildo4u
2012-03-26, 22:30:31
Jep... sehe ich auch so. Für 1,3Ghz GPU wären 1950Mhz Speichertakt ideal. Nur welcher schafft das schon? :(
Hynix Semiconductor introduced the industry's first 1 Gib GDDR5 memory. It supports a bandwidth of 20 GB/s on a 32-bit bus, which enables memory configurations of 1 GiB at 160 GB/s with only 8 circuits on a 256-bit bus. Hynix 2 Gbit GDDR5 boasts a 7 GHz clock speed. The newly developed GDDR5 is the fastest and highest density graphics memory available in the market. It operates at 7 GHz effective clock-speed and processes up to 28 GB/s with a 32-bit I/O[4]. 2 Gbit GDDR5 memory chips will enable graphics cards with 2 GiB or more of onboard memory with 224 GB/s or higher peak bandwidth.

http://en.wikipedia.org/wiki/GDDR5

Gunslinger
2012-03-27, 08:26:52
Kann es sein, dass der Lüfter ein etwas hochfrequenteres Geräusch macht, als jener der GTX 580? Er ist bei mir zwar leise im idle aber irgendwie doch in höherer Tonlage hörbar.

Iruwen
2012-03-27, 09:14:43
Vor kurzem sagte jemand hier das Lüftergeräusch sei eher "dunkel" :D