PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 670: (P)Review-Thread


Seiten : 1 [2] 3 4

dargo
2012-05-11, 22:39:08
http://www.youtube.com/watch?v=0zPKcfWgtt4

...nix für Abwarter:)

Oh Gott... was für einen Schwachsinn haben die da wieder zusammengebencht? :facepalm:

hardtech
2012-05-11, 22:50:39
eine schwanzlange graka. wie süß.

also 400 tacken ist happig. fraglich ist, wie es bei 22nm grakas aussehen wird. 15cm pcb für 500 eur?

Hugo78
2012-05-11, 23:22:51
@hardtech

Ein Blick ins CPU Segment reicht doch.
Core-i7 3770k = 160mm^2 klein (davon braucht die iGPU schon ein Drittel) für 300€.

Ergo: die Zeiten in denen ein 576mm^2 großer GT200 Salavage für 130€ (GTX 260) über den Ladentisch ging, sind vorbei.

Dr. Lloyd
2012-05-11, 23:24:07
Wie realistisch ist es, dass eine GTX 670 mit Custom-PCB auf den Markt kommt, wo die Stromanschlüsse nicht an der Seite, sondern hinten sind? Andernfalls bekomme ich die Karte nicht in meinen HTPC...

schreiber
2012-05-11, 23:26:17
@hardtech

Ein Blick ins CPU Segment reicht doch.
Core-i7 3770k = 160mm^2 klein (davon braucht die iGPU schon ein Drittel) für 300€.

Ergo: die Zeiten in denen ein 576mm^2 großer GT200 Salavage für 130€ (GTX 260) über den Ladentisch ging, sind vorbei.
Auch die GTX260 hat wesentlich mehr gekostet. Eher doppelt so viel. Beim Abverkauf waren es dann 130.

Hugo78
2012-05-11, 23:29:24
Ok, anfangs kostete die GTX 260 natürlich sehr viel mehr, doch sind (leider?!) die Abverkaufspreise hängen geblieben im Gedächtnis der Leute.

Ronny145
2012-05-12, 01:10:20
@hardtech

Ein Blick ins CPU Segment reicht doch.
Core-i7 3770k = 160mm^2 klein (davon braucht die iGPU schon ein Drittel) für 300€.



Intels Preispolitik kannst Du nicht als Maßstab nehmen. Die Preise richten sind am Vorgänger und sind im wesentlichen Zeitstabil. Ob die CPU nun 150 mm² oder 200 mm² groß ist, die Preise werden so oder am Vorgänger angeglichen bei Intel. Intel hat es nicht nötig die Preise nach unten zu schrauben. Im übrigen verkauft Intel 160 mm² CPUs ab 170€. Eine derartige Preisstabilität existiert im GPU Bereich nicht. Ergo ein sehr schlechtes Beispiel. Davon mal abgesehen spielt Intels Fertigung in einer anderen Liga, die Kapazitäten liegen weitaus höher. AMDs 315 mm² großer FX-8120 wird ab 140€ verkauft. Auch wenn der nur in 32 nm gefertigt wird, ist das für Globalfoundries trotzdem ein recht neuer Prozess.

OgrEGT
2012-05-12, 07:44:19
Die finde ich klasse. Verdammt... für die würde ich wohl die 350€ hinblättern. Ja ich weiß... bin geizig. ;D

Übrigens sind die Taktraten der Phantom bei GH falsch.
http://www.gainward.com/main/vgapro.php?id=882&lang=en

Kanns nur immer wieder sagen. Ich hatte 2 GTX570 Phantom. Bei beiden saß der Kühler nicht richtig, was nach kurzer Zeit zu enormen Temperaturen und epischer LAutstärke geführt hatte.

Die Konstruktion des Kühlers als auch die Qualität der Komponenten ist mMn alles andere als hochwertig.

Kühlkörper wird nicht direkt über Schrauben am PCB angedrückt, sondern insgesamt über die Grundplatte mit niedlichen und billigen Blechschrauben, die so weich sind, dass sie selbst mit hochwertigen Schraubenziehern nicht wirklich fest angezogen werden können, oder bei Umbau gut herauszudrehen sind.

Bei der GTX570 Phantom liegt auch kein Referenzdesign des PCBs vor, was die Anordnung der Spannungswandler und die Anordnung der DVI-Ausgänge betrifft. Das kommt allerdings erst dann zum tragen, wenn man einen anderen Kühler verbauen will/muss. Der Accelero z.B. stößt mit den Heatpipes am Steckergehäuse der DVI Anschlüsse an, so dass das Steckergehäuse mit Seitenschneider zu entfernen ist.

Ob das bei der GTX 670 Phantom auch so ist... keine Ahnung. Ich jedenfalls würde mir diesen Unfug (der auch noch teuer war) nicht mehr antun.

V2.0
2012-05-12, 07:52:09
Wenns nicht so viel Kohle wäre (nur zum ausprobieren), würde ich ja sagen, nimm ein Ref.design, mach die Karte nackig und pack einen Arctic Accelero Mono PLUS drauf.
- http://www.arctic.ac/de/p/cooling/vga/455/accelero-mono-plus.html?c=2167#compatible

Die Karte dürfte dann keine 20cm lang sein.

Edit: exakt 17,5cm laut PCGH "Die GTX 670 nackt im Video".
- http://www.pcgameshardware.de/aid,883237/Video-Geforce-GTX-670-ohne-Kuehler/Grafikkarte/News/

Ich habe mir ne Phantom bestellt. Die ist 24,7 und passt ins Zweitgehäuse.

CompEx
2012-05-12, 08:04:37
Bei den Custom-Lüftern gibt es schon große Unterschiede!

Die Palit- und Gainward-Kühler sind deutlich abgespeckt gegenüber den 680er-Versionen. Bei beiden ist ein Teil der Fläche unter der Plastikabdeckung leer (weniger Kühlrippen) und sie haben nur 3 Heatpipes. Besser sind da bei den 670ern die Asus DC, Zotac AMP! und KFA EX OC. Eine von denen werde ich wohl nehmen und dann mit einem Lüfter-Profil schön leise regeln.

aufkrawall
2012-05-12, 08:20:35
Die Palit- und Gainward-Kühler sind deutlich abgespeckt gegenüber den 680er-Versionen. Bei beiden ist ein Teil der Fläche unter der Plastikabdeckung leer (weniger Kühlrippen) und sie haben nur 3 Heatpipes. Besser sind da bei den 670ern die Asus DC, Zotac AMP! und KFA EX OC. Eine von denen werde ich wohl nehmen und dann mit einem Lüfter-Profil schön leise regeln.
Es wird wohl auch kein Zufall sein, dass die Palit Custom Designs häufig am wenigsten kosten.
Irgendwo her muss das ja kommen. Hab selber so ein 570er Gerät und kann nur von Palit abraten.

Franconian
2012-05-12, 09:33:05
So wie ich das dann sehe führt kein Weg an der leisen und schnellen ASUS (oder der lauten dafür noch einen Tick schnelleren Zotac) vorbei?! Die Gainward Phantom hat die wenigste Leistung und ist auch die lauteste von allen und wenn ich das jetzt von der Palit lese...

4Fighting
2012-05-12, 09:49:31
Gibt es zur Gigabyte auch noch weitere Reviews außer den bisherigen hier im Thread? Die Lautstärke wird da nicht wirklich ausführlich behandelt.

Odal
2012-05-12, 10:35:43
Die Leistung sieht ja äusserst interessant aus und der Preis wird sicher auch noch etwas nachgeben, aber rofl@PCB was ist das denn? :eek: ;D :rolleyes:
Das sieht aus wie eine Karte aus dem 100€ Segment.

Da muß man wohl erstmal abwarten wielang die Dinger wirklich durchhalten. Demnächst gibts dann wohl 400€ 170Watt "highend" auf lowprofile ;D

Hugo78
2012-05-12, 11:27:40
GTX 670 ohne Lüfter und mit alternativer Kühlung im Video
- http://www.pcgameshardware.de/aid,883257/GTX-670-Video-Test-ohne-Luefter/Grafikkarte/News/

Tobe1701
2012-05-12, 11:33:37
Ich warte erstmal auf die MSI-Karte bzw. Reviews dazu. Die 460er hat sich bewährt (vor allem akustisch), aber FPSx2 in Battlefield sind schon ein guter Aufrüstgrund...bei 300€ or less.

V2.0
2012-05-12, 12:08:21
So meine Phantom ist auf dem Weg. Ich sollte Mittwoch berichten können.

Odal
2012-05-12, 12:46:28
warum hast du dich für die phantom entschieden und nicht die asus DC2T (welche scheinbar die einzige mit nicht sparpcb ist)? Der dc2 kühler sollte doch auch besser sein oder?

oder hat auch die normale http://geizhals.at/de/776584 asus DC2 das "full" PCB? weiß das einer?

AnarchX
2012-05-12, 12:49:25
Die Gigabyte OC (http://geizhals.at/de/774003) hat auch ein langes PCB und eine zusätzliche Phase für die GPU.

dildo4u
2012-05-12, 12:57:42
Es gibt noch mehr mit Full PCB: Zotac,Galaxy,Inno3D,EVGA FTW,KFA2.

http://videocardz.com/32846/geforce-gtx-670-graphics-cards-roundup

V2.0
2012-05-12, 12:59:12
warum hast du dich für die phantom entschieden und nicht die asus DC2T (welche scheinbar die einzige mit nicht sparpcb ist)? Der dc2 kühler sollte doch auch besser sein oder?

oder hat auch die normale http://geizhals.at/de/776584 asus DC2 das "full" PCB? weiß das einer?

Mein Zweit-PC (indem die Karte immer endet) nimmt nur Karten mit einer Länge <27cm auf.

Razor
2012-05-12, 16:11:22
Also bei mir war einer der Hauptgründe schlicht das kurze (Referenz-)PCB, welches weniger lang ist, als das meinder derzeitigen GTX460!
(und natürlich das Palit-Bios, welches sich offenbar im MultiMon-Betrieb deutlich anders verhält, als das der "anderen" ;-)

Ein weiterer Aspekt war dann die "Lautheit", welche der Palit Jetstream schlicht Unauffälligkeit in der Art des Lüftergeräusches und eben im Idle/Desktop (nochmal siehe MultiMon!) als sehr leise gilt.

Alles Aspekte, die die "anderen" bis dato nicht liefern!

Damit ist mir in der 2-wöchigen "Testphase" eben Ruhe und maximale Kompatibilität in Sachen 3rd party Kühllösungen für die Zukunft garantiert. Ganz davon ab, dass die Performance der "Neuen" gegenüber meiner modifizierten GTX460 glatt doppelt so hoch sein dürfte!

Also wenn ich mir das so ansehe...da hat ASUS ganze Arbeit geleistet...zumal Palit eh die langsamste Karte der drei ist, da sind die für mich raus.
Äpfel/Birnen-Vergleich!

Die langen PCB beider "Kontrahenten" sind ein KO-Kriterium, weder "AMP" noch "Top" sind lieferbar und spielen zudem in einer ganz anderen Preisliga... "meine" 360€ gegen derzeit unlieferbare 415-420€.

Wenn schon vergleichen, dann bitte auch vergleichen, was vergleichbar ist...
Die Palit Jetstream wird billiger sein,schon jetzt bei 380 Asus wird sich die Top Karte gut bezahlen lassen.Wie gesagt die Custom Kühler sind alle stark genug 5 Minuten ein eigenes Lüfter Profil erstellen 40€ gespart.
Aber sowas von!
unter 300 greife ich zu!
Da wirst Du laaaaange warten müssen... vermutlich "ewig".
Die Palit Jetstream ist mittlerweile gut verfügbar, die überwiegende Anzahl der Tests spricht aber von eher mieser Lautstärke.
Zeig mir nur EINEN Test, der da was von "mies" schreibt...
würde [] sagen, nimm ein Ref.design, mach die Karte nackig und pack einen Arctic Accelero Mono PLUS drauf.
Die Karte dürfte dann keine 20cm lang sein. - Edit: exakt 17,5cm laut PCGH "Die GTX 670 nackt im Video".Exaktamente!
Oder eben JEDEN anderen Kühler, der da noch so auftauchen wird...
GTX 670 ohne Lüfter und mit alternativer Kühlung im Video
- http://www.pcgameshardware.de/aid,883257/GTX-670-Video-Test-ohne-Luefter/Grafikkarte/News/
Jaaaaaaaa......... haben will!
*ganzbreitgrins*
:D

Habe da schon mal angerufen... sollten Montag eintrudeln und werden dann auch gleich versandt...
...spätestens Mittwoch sollte sie also da sein!
*ganzfestdiedaumengedrückt*

Razor

Iceman346
2012-05-12, 16:29:50
Zeig mir nur EINEN Test, der da was von "mies" schreibt...

http://www.guru3d.com/article/palit-geforce-gtx-670-jetstream-review/10
http://www.techpowerup.com/reviews/Palit/GeForce_GTX_670_Jet_Stream/27.html
http://www.tweaktown.com/reviews/4716/palit_jetstream_geforce_gtx_670_2gb_video_card_review/index16.html

In allen 3 Reviews sind die Lautstärkeergebnisse des Kühlers schlecht. Bei guru3D und Techpowerup jeweils lauter als die Referenz, Tweaktown hatte anscheinend keine Referenzkarte, aber die 670er ist deutlich lauter als die 680er Jetstream.

Für mich ist das mies.

Razor
2012-05-12, 16:35:57
Für mich ist das mies.
Irrelevant.

Du sprichst nicht aus Erfahrung und die Tests beschreiben die Load-"Lautheit" nicht als "mies".
Aber danke, dass Du gezeigt hast, dass sich mein Eindruck mit den Erfahrungen anderer deckt.

Guru3d: "For the card in a fully stressed status (in-game) its 43 dBA, now that is slightly audible as you can hear some airflow."
TPU: "Idle noise levels of the Palit JetStream are greatly reduced, but under load the fan seems quite noisy, providing no improvement over NVIDIA's (cheap) reference design cooler."
TT: "Noise levels are also sitting in the top half, but on a whole they're pretty strong at both idle and load."

Fazit: Unter Idle-Bedingungen (bei Palit also auch im MultiMon-Betrieb!) sehr leise, unter Load-Bedinungen zumindest nicht lauter, als der Referenz-Lüfter.

Wenn wir uns jetzt noch die Temps im Vergelich anschauen (ich nehme hier extra TPU wg. "schlechtester" Wertung), dann sieht man auch, dass da noch "Luft nach oben" ist. Und da es sich ja um die Referenz-Platine bei Palit handelt, spricht absolut NICHTS dagegen, später einen anderen Lüfter drauf zu bappen... sodenn das Kärtchen meinen 2-Wochen-Test hinter sich bringt und mich "zufrieden" stellt - sonst ab damit zurück zum Verkäufer.

Genau dafür ist das FAG da!

Razor

V2.0
2012-05-12, 16:36:43
Legion nennt die Phantom silent - das ist hoffnungsvoll. Aber auch die Pallit würde ich nicht mies nennen, den selbst das Referenzdesign ist, sofern der Lüfter nicht knackt, ok.

hardtech
2012-05-12, 16:44:35
ok ist nicht gut genug für 400 tacken!

ich denke, ich werde die dc2t nehmen oder eine phantom. so ein phantom hatte ich noch nie.

Bakelit
2012-05-12, 17:04:44
Fazit: Unter Idle-Bedingungen (bei Palit also auch im MultiMon-Betrieb!) sehr leise, unter Load-Bedinungen zumindest nicht lauter, als der Referenz-Lüfter.

zum Referenz sei gesagt, daß der keinen besonders hohen Schalldruck erzeugt, das Geräusch ist aber unangenehm, nervig..
die Messungen der diversen Seiten kann man eh weitgehend in die Tonne klopfen, tweaktown z.B. verwendet lt. ihrer Bildergalerie ein Motherboard mit winzigem Radiallüfter drauf, der alleine schon mehr als genug Schalldruck erzeugen dürfte..

Wenn wir uns jetzt noch die Temps im Vergelich anschauen (ich nehme hier extra TPU wg. "schlechtester" Wertung), dann sieht man auch, dass da noch "Luft nach oben" ist. Und da es sich ja um die Referenz-Platine bei Palit handelt, spricht absolut NICHTS dagegen, später einen anderen Lüfter drauf zu bappen... sodenn das Kärtchen meinen 2-Wochen-Test hinter sich bringt und mich "zufrieden" stellt - sonst ab damit zurück zum Verkäufer.

Genau dafür ist das FAG da!

Razor
Zwecks evtl. Umbau: ich hab mir am 10ten son Referenz-670-Teilchen von Gainward beim lokalen Kistenschieber geholt und nach kurzem Probehöhren einen twinturbo2 draufgeschnallt, sehr leicht zu montieren, exakt gleiche Kartenlänge, wie mit Referenzlüfter aber absolut unhörbar unter Last, Lüfter ist selbst bei fullspeed(dann bekommt die Karte eine Erkältung) nicht hörbar, geht aber nie über 40%.. hoffnungslos überdimensioniert :biggrin:

ps.: AC hat den twinturbo2 "rezertifiziert", exakt gleiche Bauweise, Seriennummer etc. pp. aber statt 160Watt nun 250Watt..

VooDoo7mx
2012-05-12, 19:42:32
Wirklich leise sind keine Custom Designs. Die GTX 680 Phantom ist kaum leiser als die Stock Variante.

Ich empfehle den Twin Turbo II, der ist relativ günstig, sehr leise und kühlt besser als stock. Das scheinen die Garfikkartenhersteller selber irgendwie nicht auf die Reihe zu bekommen.
Jedoch ist der fernab von lautlos auf voller Drehzahl. Ich höre den deutlich aus meinen gedämmten Gehäuse. Aber selbst dann ist er in Vergleich mit anderen Kühllösungen immer noch leise.

hardtech
2012-05-12, 20:17:29
Der hat doch trippleslot. Da passt die Karte net in meinen Amor a30 von Thermaltake!
Habe daher extra meine leise gtx580 dc2 verkaufen müssen und bin auf die übergangskarte gewechselt.
Außerdem bin ich beim Umbau sehr vorsichtig denn meine umgebaute 9700pro von ATI ist damals kaputt gegangen nach 1 Jahr. Garantie ist mir wichtig. Die beste Karte war bisher die dc2 asus. Doch leider gibt es die dc2t 670 nicht lieferbar bei amazon :(

Hugo78
2012-05-12, 21:24:53
Na ab dem 16.5. soll die Top ja verfügbar sein.

Franconian
2012-05-12, 22:56:29
Wirklich leise sind keine Custom Designs.

Klar die Asus! Siehe:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9291236&postcount=234

Eindeutiger gehts ja nicht mehr.

OgrEGT
2012-05-13, 06:16:49
Der hat doch trippleslot. Da passt die Karte net in meinen Amor a30 von Thermaltake!
Habe daher extra meine leise gtx580 dc2 verkaufen müssen und bin auf die übergangskarte gewechselt.
Außerdem bin ich beim Umbau sehr vorsichtig denn meine umgebaute 9700pro von ATI ist damals kaputt gegangen nach 1 Jahr. Garantie ist mir wichtig. Die beste Karte war bisher die dc2 asus. Doch leider gibt es die dc2t 670 nicht lieferbar bei amazon :(

Die Phantoms sind aber auch schon 2.5 Slot "dick".
Wie gesagt ich würde mir nie wieder eine Phantom holen. Hatte echt schlechte Erfahrungen.

Razor
2012-05-13, 07:55:40
zum Referenz sei gesagt, daß der keinen besonders hohen Schalldruck erzeugt, das Geräusch ist aber unangenehm, nervig..
die Messungen der diversen Seiten kann man eh weitgehend in die Tonne klopfen, tweaktown z.B. verwendet lt. ihrer Bildergalerie ein Motherboard mit winzigem Radiallüfter drauf, der alleine schon mehr als genug Schalldruck erzeugen dürfte..
Es ging hier aber einzig um den Schalldruck... das ist das, was z.Bsp. unter Last bei TPU "Anstoß" nahm.
Dass die Art des Geräusches meist sehr viel "interessanter" ist, scheint die meisten hier gar nicht zu interessieren...
...ist wie mit den Bench-"Balken".

Aber gerade das mit den anderen Emissionsquellen im Testumfeld versuchte ich in einem meiner vorherigen Posts zum Ausdruck zu bringen.
Auch DAS scheint hier allgemein wenig von Interesse, weil "BALKEN" sind doch viiiiieeeeeellll einfacher.
So wie es HT4U macht, ist es "richtig"... schade, dass man dort keine Jetstream in den Fingern hatte.

Zwecks evtl. Umbau: ich hab mir am 10ten son Referenz-670-Teilchen von Gainward beim lokalen Kistenschieber geholt und nach kurzem Probehöhren einen twinturbo2 draufgeschnallt, sehr leicht zu montieren, exakt gleiche Kartenlänge, wie mit Referenzlüfter aber absolut unhörbar unter Last, Lüfter ist selbst bei fullspeed(dann bekommt die Karte eine Erkältung) nicht hörbar, geht aber nie über 40%.. hoffnungslos überdimensioniert :biggrin:

ps.: AC hat den twinturbo2 "rezertifiziert", exakt gleiche Bauweise, Seriennummer etc. pp. aber statt 160Watt nun 250Watt..
Was mich ein bischen an dem TwinTurbo2 stört, ist der Umstand, dass er ganz schön über der "Kleinen" überhängen dürfte.

Hast Du nicht mal ein aussagefähiges Bild, denn Du weißt ja: "Bilder sagen mehr als Worte!"
(dürfen auch gerne mehr sein und das mit dem 90W "mehr" ist cool ;-)

Theoretisch müsste auch der Mono PLUS reichen... bin mir aber nicht sicher, ob genug Luft bei den SpaWa ankommt.
DER würde aber nur ein winziges Stück über die Platine hinaus gehen...
(ob nun 0.3 sone bei 2000umin oder 0.4 bei 1500... egal!)

Die 30€ mehr für einen "absolut lautlosen" Kühler wären auf jeden Fall drin!
Aber natürlich erst nach den 2 Wochen... wie ich ja schrieb!

Ich empfehle den Twin Turbo II, der ist relativ günstig, sehr leise und kühlt besser als stock. Das scheinen die Garfikkartenhersteller selber irgendwie nicht auf die Reihe zu bekommen.
Jedoch ist der fernab von lautlos auf voller Drehzahl. Ich höre den deutlich aus meinen gedämmten Gehäuse. Aber selbst dann ist er in Vergleich mit anderen Kühllösungen immer noch leise.geht aber nie über 40%..
So to say...

Razor

P.S. an die anderen hier: genau diese Möglichkeit hat man dann nicht mehr, wenn mann die Dinger mit "langen" PCB ordert... da "klebt" man am Hersteller-Kühler und muss sich damit abfinden... wahrlich nicht mein "Ding".

OgrEGT
2012-05-13, 08:44:12
P.S. an die anderen hier: genau diese Möglichkeit hat man dann nicht mehr, wenn mann die Dinger mit "langen" PCB ordert... da "klebt" man am Hersteller-Kühler und muss sich damit abfinden... wahrlich nicht mein "Ding".

Was genau soll bei Karten mit langem PCB (lang = so lang wie bisher bei Karten dieser Klasse üblich) nicht gehen bzw. welche Möglichkeit zum Kühlerwechsel soll dadurch ausgeschlossen werden?

Razor
2012-05-13, 11:29:48
Was genau soll bei Karten mit langem PCB (lang = so lang wie bisher bei Karten dieser Klasse üblich) nicht gehen bzw. welche Möglichkeit zum Kühlerwechsel soll dadurch ausgeschlossen werden?
Ganz einfach... aufgrund des "custom designs".
Oder meinst Du ernsthaft, dass Hersteller von VGA-Kühlern solche für spezifische Karten eines einzigen Herstellers fertigen?

Razor

Shaft
2012-05-13, 12:08:06
Klar die Asus! Siehe:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9291236&postcount=234

Eindeutiger gehts ja nicht mehr.


Sogar leiser als die 560ti Referenz, nicht schlecht.

OBrian
2012-05-13, 12:12:00
@Razor:
Nein, aber man kann Kühler auf so konstruieren, daß sie variabel sind. Auf die RAM-Chips und die Spannungswandler kommen einfache Aluprofile, und auf die GPU (mit den standardisierten Befestigungen) ein paar Heatpipes, die in einem Kühler enden, durch den die Luft auch auf die vorgenannten Aluprofile geblasen wird. So wie z.B. der bekannte AC Accelero S2 oder diverse andere.

Dabei ist die PCB-Länge doch völlig irrelevant.

Bakelit
2012-05-13, 14:49:34
Hast Du nicht mal ein aussagefähiges Bild, denn Du weißt ja: "Bilder sagen mehr als Worte!"

immer diese visuell Fixierten :D
fürs forum zerkomprimiert aber man sollte einen ungefähren Eindruck bekommen..
der vordere Lüfter bestreicht die Umgebung der Spannungswandler, während der hintere Lüfter zu etwa 3/4 frei durch die Lamellen durchpusten kann..

OgrEGT
2012-05-13, 17:33:19
@Razor:
Nein, aber man kann Kühler auf so konstruieren, daß sie variabel sind. Auf die RAM-Chips und die Spannungswandler kommen einfache Aluprofile, und auf die GPU (mit den standardisierten Befestigungen) ein paar Heatpipes, die in einem Kühler enden, durch den die Luft auch auf die vorgenannten Aluprofile geblasen wird. So wie z.B. der bekannte AC Accelero S2 oder diverse andere.

Dabei ist die PCB-Länge doch völlig irrelevant.

So ist es. Habe auch einen Accelero Kühler auf meiner GTX570 drauf.
Da waren neben einer fürs Custom Design passenden Aluminiumkühler (2 Teile) für die VRMs, außerdem noch kleine Einzelkühler(chen) dabei, die variabel auf die einzelnen Bauteile geklebt werden konnten, sofern die Platte bei Nicht-Custom Designs nicht passt (wie z.B. bei mir, bei der Phantom). Die Halterung für den GPU Kühler war jedoch aber auf die verschiedenen Standardbohrungen ausgelegt.

Edit:
http://www.abload.de/thumb/img_0015mvj2l.jpg (http://www.abload.de/image.php?img=img_0015mvj2l.jpg)

hardtech
2012-05-13, 18:43:09
@bakelit
würde ich niemals mit einer 400 eur karte machen.
wie gesagt, meine 9700pro war auch umgebastelt und ging nach einiger zeit kaputt.

warum keine dc2t oder phantom? (nur so aus neugier)

aufkrawall
2012-05-13, 19:15:06
So ist es. Habe auch einen Accelero Kühler auf meiner GTX570 drauf.

Du meinst wohl 670?
Wie gut lässt sie sich so OCen?

Orbmu hatte ja mal geschrieben, wie man das mit dem NI am besten macht.

OgrEGT
2012-05-13, 19:27:21
Du meinst wohl 670?
Wie gut lässt sie sich so OCen?

Orbmu hatte ja mal geschrieben, wie man das mit dem NI am besten macht.

Ne ich meine (noch?) GTX 570.
Bei der Diskussion ging es um Custom Kühler allgemein.

Razor
2012-05-13, 20:14:38
immer diese visuell Fixierten :D
fürs forum zerkomprimiert aber man sollte einen ungefähren Eindruck bekommen..
der vordere Lüfter bestreicht die Umgebung der Spannungswandler, während der hintere Lüfter zu etwa 3/4 frei durch die Lamellen durchpusten kann..
Krass... herzlichen Dank!

Zeigt mir genau 2 Dinge:
1) paßt wie Po auf Deckel... der vordere Teil liegt noch direkt über dem Alu-Kühler für die SpaWa, welche so direkt gekühlt werden!
2) geht ganz schön weit nach "hinten raus"... deutlich weiter, als dies mein Scythe Setsugen heute auf der GTX460 tut.

Nochmals danke!

Jetzt würde mich natürlich noch mal ein "Mono PLUS" auf der GTX670 interessieren...
Hast Du nicht auch noch einen davon "rum liegen"?
:D

Razor

P.S.: hier hat schon mal jemand den Mono auf eine GTX680 geschnallt...
...ist aufgrund der anderen PCB-Konstruktion nicht wirklich aussagekräftig, aber vermutlich nicht ausreichend
http://www.overclock.net/t/1255896/gtx-680-accelero-mono-plus
(und das, obwohl Accellero die Kompatibilität zur GTX670 angegeben hat)

P.P.S.: wenn gar nichts anderes geht, mache ich das, was seinerzeit auch mit der FX5200 ganz hervorragend funktioniert hat... ;D

Hugo78
2012-05-13, 23:31:10
Der Mono sollte wie angegossen zum Kurz-PCB der 670 passen.
Eventuell kann man den noch um 90° nach links gedreht verbauen, sofern die Heatlipes nicht die 6pins berühren.

Bakelit
2012-05-14, 11:06:37
@bakelit
würde ich niemals mit einer 400 eur karte machen.
wie gesagt, meine 9700pro war auch umgebastelt und ging nach einiger zeit kaputt.

warum keine dc2t oder phantom? (nur so aus neugier)

bin doch Inschnööhr, hab nur begrenzte Kontrolle über meine Hände.. die machen was sie wollen und müssen immer alles zerlegen und bebasteln, was in Reichweite kommt, wobei Computertechnik wirklich stinklangweilig geworden ist..
ausserdem verstehe ich sowieso nicht, warum es bei Grafikkarten keine "boxed" und "tray"-Versionen gibt, den CPU-Lüfter kann doch auch jedes Kleinkind draufsetzen..
und deine 9700 war doch eh nach dem AEG-Prinzip konstruiert: Auspacken, Einschalten, Garantiefall.. so wie auch die 9800.. oder die 1800xt, da waren doch minderwertige Spannungswandler verbaut worden, bei nvidia hatte man bei der 7900 Probleme mit dem bleifreien Lot der ersten Generation.. gibt immer wieder solche Todeskandidaten

Die "customs"(insbesondere Phantoms..) waren noch nie leise oder sind sehr schlecht lieferbar(DC2T). Zudem traue ich den Testseiten nicht, die HW-Tester sind scheinbar alle taub, was dort oft mit "silent" prämiert wird, stufe ich eher als Radaubruder ein..


Jetzt würde mich natürlich noch mal ein "Mono PLUS" auf der GTX670 interessieren...
Hast Du nicht auch noch einen davon "rum liegen"?
:D

Razor

Der Mono sollte wie angegossen zum Kurz-PCB der 670 passen.
Eventuell kann man den noch um 90° nach links gedreht verbauen, sofern die Heatlipes nicht die 6pins berühren.

der Mono ist deutlich "höher" und wäre mit meinem Gehäusedeckel kollidiert und drehen ist nicht, dann benötigt man eine PCIE-Busverlängerung.. wobei.. ich mag Ghettotuning(kein Sarkasmus).. vielleicht mit ein paar Schnüren oder einem untergestellten Holzstöckchen abgesichert, sähe das sicher sehr interessant aus und bringt auch technikferne Menschen zum Grinsen :D

BigKid
2012-05-14, 13:06:20
Gibt es eigentlich gravierende Unterschiede zwischen Asus DC2 und DC2T ?
Oder ist letztere nur noch etwas stärker Werks übertaktet ?

Laut Asus Web haben beide die selben Abmessungen - scheint sich also um den selben Kühler (und das selbe PCB ?) zu handeln ?

Peter Gräber
2012-05-14, 13:32:18
Gibt es eigentlich gravierende Unterschiede zwischen Asus DC2 und DC2T ?
Oder ist letztere nur noch etwas stärker Werks übertaktet ?

Laut Asus Web haben beide die selben Abmessungen - scheint sich also um den selben Kühler (und das selbe PCB ?) zu handeln ?

Laut ASUS kein Unterschied. Die T ist übertaktet, die Non-T nicht. Zur ASUS GTX 670 DCU II Top geht heute Abend unser Testbericht online.

BigKid
2012-05-14, 13:43:02
Laut ASUS kein Unterschied. Die T ist übertaktet, die Non-T nicht. Zur ASUS GTX 670 DCU II Top geht heute Abend unser Testbericht online.
Danke... Habe mein Bastellset jetzt per Express bei Alternate bestellt und harre mal der Dinge... Mit etwas Glück kann ich Morgen basteln :-)
Steige von Core2Quad@3.8Ghz auf Ivy um...
Und von GTX570 Phantom jetzt mal auf die GTX670 D2C ohne T...

Das einzige was mich mit Sorge erfüllt:
Wie wahrscheinlich ist es eigentlich, dass bei Asus tatsächlich jemand da sitzt und gerade die Top Modelle aus den normalen rausselektiert ?
Das würde nämlich bedeuten dass ich mit ziemlicher Sicherheit ein Modell erwischen werde, dass nicht so gut geht...

mironicus
2012-05-14, 14:20:58
GTX670 D2C ohne T

Ob du das bereuen wirst? Die Top-Variante ist zwar noch nicht erhältlich kostet aber nur 10 Euro mehr bei Alternate und ist mindestens 10% schneller. Und ein besserer Chip der bei gleicher Spannung weniger Strom verbraucht dürfte imho auch drauf sein... die werksübertakteten Versionen haben doch meistens selektierte Chips.

BigKid
2012-05-14, 14:26:19
Ob du das bereuen wirst? Die Top-Variante ist zwar noch nicht erhältlich kostet aber nur 10 Euro mehr bei Alternate und ist mindestens 10% schneller. Und ein besserer Chip der bei gleicher Spannung weniger Strom verbraucht dürfte imho auch drauf sein... die werksübertakteten Versionen haben doch meistens selektierte Chips.
Naja FAG :-) - ich meine ich kann bei der Direct Cut eigentlich generell eine gewisse Taktfreudigkeit erwarten... Wenn nicht -> Erwartungen nicht erfüllt...

mironicus
2012-05-14, 14:45:40
Abgesehen mal davon - wenn man die jeweiligen Versionen mit der Asus vergleicht, bekommt man hier wirklich viel mehr fürs Geld. Die Referenz-Version mit ihrer 17 cm Platine und den billigen Kühler im Vergleich zu der 27 cm-Platine mit Backplate und dem besseren Lüfter der auf jeden Fall extrem viel leiser ist... :D

Da würde ich diese Karte auch jeder momentan erhältlichen GTX 680 vorziehen (im Mittel aus der fühlbaren Preis/Leistung/Qualität) - die Referenzversion der GTX 680 ist auch vergleichsweise billig anmutend.

Lard
2012-05-14, 17:04:46
GIGABYTE GTX 670 OC WindForce 3X 2GB Review
http://vr-zone.com/articles/gigabyte-gtx-670-oc-windforce-3x-2gb-review/15831-1.html

http://www10.pic-upload.de/13.05.12/xysgd3844md.png (http://www.pic-upload.de/view-14186825/BF3OC.png.html)

Knuddelbearli
2012-05-14, 17:09:50
keien oc 680? schade

boxleitnerb
2012-05-14, 17:26:57
Das Verhältnis alte Karten-neue Karten stimmt in dem Review irgendwie nicht. Die neuen sind 30-35% schneller, keine 60-100%. Also jetzt in BF3.

Hugo78
2012-05-14, 17:51:33
Der Test ist für die Tonne.
Allein das die GTX 580, 30% hinter einer 7870 liegen soll... :rolleyes:

Gibts nirgends sonst.
- http://ht4u.net/reviews/2012/nvidia_geforce_gtx_670_im_test/index29.php
- http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-670/24/#abschnitt_battlefield_3
- http://www.pcgameshardware.de/aid,882634/Geforce-GTX-670-Test/Grafikkarte/Test/?page=5
- http://www.guru3d.com/article/asus-geforce-gtx-670-directcu-ii-top-review/19
- http://www.anandtech.com/show/5818/nvidia-geforce-gtx-670-review-feat-evga/11

Lard
2012-05-14, 18:19:21
Vr-zone bencht anscheinend nur neue Karten mit neuen Treibern.

keien oc 680? schade
http://vr-zone.com/articles/asus-gtx-680-2gb-overclocking-review-win-some-lose-some/15322-5.html

Blaire
2012-05-14, 18:24:53
Vr-zone bencht anscheinend nur neue Karten mit neuen Treibern.

Na dann schau mal genauer hin... :freak:

Lard
2012-05-14, 18:34:24
Na dann schau mal genauer hin... :freak:

301.34 GIGABYTE GTX 670 OC WindForce 3X 2GB > 296.10 WHQL drivers: ASUS GTX580 DirectCU II 1.5GB

Ich sehe hier neu gegen alt?

Blaire
2012-05-14, 18:43:47
Achso ich dachte du meintest den anderen Link... :anonym:

Hugo78
2012-05-14, 18:54:34
Vr-zone bencht anscheinend nur neue Karten mit neuen Treibern.

Achso alle anderen könnes es nicht, aber VR Zone.
Danke keine weiteren Fragen.

dargo
2012-05-14, 20:24:50
GIGABYTE GTX 670 OC WindForce 3X 2GB Review
http://vr-zone.com/articles/gigabyte-gtx-670-oc-windforce-3x-2gb-review/15831-1.html

http://www10.pic-upload.de/13.05.12/xysgd3844md.png (http://www.pic-upload.de/view-14186825/BF3OC.png.html)
Wie ich diese Reviews immer mit alten Treibern gegen neue Treiber liebe. Eine leicht übertaktete GTX670 91% schneller als GTX580. Ja...ne ist klar. :rolleyes:

Was ich aber viel interessanter finde... sind diese 1330Mhz GPU-Takt bei der GTX670 angetackert? Falls ja... knapp 36% OC resultieren in nur +6% Mehrleistung? :| Hängt selbst die GTX670 so extrem noch an der Bandbreite? X-D

Knuddelbearli
2012-05-14, 20:55:00
1330 sind sicher inkl boost

also eher 20-25% oc

HarryHirsch
2012-05-14, 21:23:17
Wie ich diese Reviews immer mit alten Treibern gegen neue Treiber liebe. Eine leicht übertaktete GTX670 91% schneller als GTX580. Ja...ne ist klar. :rolleyes:

Was ich aber viel interessanter finde... sind diese 1330Mhz GPU-Takt bei der GTX670 angetackert? Falls ja... knapp 36% OC resultieren in nur +6% Mehrleistung? :| Hängt selbst die GTX670 so extrem noch an der Bandbreite? X-D

hat sich denn gegenüber der 680er was geändert beim speicher oder deren anbindung?

Raff
2012-05-14, 21:30:05
Die GTX 670 hängt etwas weniger am Speicher, weil sie bei weniger Rechenkraft über dieselbe Transferrate wie die GTX 680 verfügt. Beim OC limitiert das natürlich – außer man lässt das MSAA weg. ;)

MfG,
Raff

Razor
2012-05-14, 21:44:01
Der Mono sollte wie angegossen zum Kurz-PCB der 670 passen.
Eventuell kann man den noch um 90° nach links gedreht verbauen, sofern die Heatlipes nicht die 6pins berühren.
Da müsste man das Ding schon um 90° nach links drehen, damit es Sinn macht.
Würde wohl über das Slotblech hinaus ragen und auch auf das Mainboard aufsetzen... paßt ned.

Wenn dann nur original... nur liegt der Kühler der SpaWa dann "im Freien".
Kann natürlich sein, dass dieser dann "seitlich" genug Luft bekommt, aba...

Die "customs"(insbesondere Phantoms..) waren noch nie leise oder sind sehr schlecht lieferbar(DC2T). Zudem traue ich den Testseiten nicht, die HW-Tester sind scheinbar alle taub, was dort oft mit "silent" prämiert wird, stufe ich eher als Radaubruder ein..
Geht mir oft auch so... in letzter Konsequenz "fliegt" der vormontierte Lüfter eigentlich immer!
Obwohl... die FX5900 mit "Sonnenkühler" paßte wie Faust auf Auge... und besonders das Auge wurde tief beeindruckt!
http://www.3dchip.de/TestCenter/MSIFX5900SP/das-erscheinungsbild-der-grafikkarte.php

Der Mono ist deutlich "höher" und wäre mit meinem Gehäusedeckel kollidiert und drehen ist nicht, dann benötigt man eine PCIE-Busverlängerung.. wobei.. ich mag Ghettotuning(kein Sarkasmus).. vielleicht mit ein paar Schnüren oder einem untergestellten Holzstöckchen abgesichert, sähe das sicher sehr interessant aus und bringt auch technikferne Menschen zum Grinsen :D
So wie seinerzeit meine "Kleine" FX5200, deren Lüfter mit Geschenkband "montiert" wurde ;D

Platz "nach oben" habe ich genug... genau genommen sogar in JEDE Richtung (Antec P180), aber ich bin ein Fan von optimalem Airflow und deswegen sollte eine "Neue" nicht zu lang sein... die GTX460 mit Scythe Setsugen (der vorher auch schon auf der deutlich längeren GTX 260 saß) ist gerade mal 20cm "lang".

Das einzige was mich mit Sorge erfüllt:
Wie wahrscheinlich ist es eigentlich, dass bei Asus tatsächlich jemand da sitzt und gerade die Top Modelle aus den normalen rausselektiert ?
Das würde nämlich bedeuten dass ich mit ziemlicher Sicherheit ein Modell erwischen werde, dass nicht so gut geht...
"Sitzen" tut da nieman... entweder sind die Chips schon vorgeprüft von nVidia so gekauft worden, oder aber ASUS selbst prüft die Dinger "maschinell"... sind ja schließlich nicht erst sein "gestern" im OC-Geschäft.

Ergo: ja, Du darfst davon ausgehen, dass die "normalen" durch den OC-Test gefallen sind.

-

Ach ja...
Ach was solls... habe das Kärtchen gerade für 300€ netto angeboten bekommen und gleich zugeschlagen!
Habe jetzt die Palit Jetstream storniert (wenn das noch klappt, sonst ists "Schicksal" :D).

Wäre wohl 'eh nicht mehr rechtzeitig gekommen und hätte den eklatanten Nachteil, dass ich einen kompletten 3rd-Party Kühler kaufen MUSS! Schließlich wird man mit dem 3-"Thin"-Pipe Kühlerchen keinen Blumentopf gewinnen können und wenn ich da selber was "basteln" wollen würde, fehlt mir der große Alublock samt Kupferplatte des Referenzdesigns.

So liebäugel ist derzeit mit 'ner Referenz-Karte (der Palit z.Bsp.) oder so etwas wie der EVGA "SuperClocked" - mal schaun'.

Razor

Lard
2012-05-14, 22:06:10
Was ich aber viel interessanter finde... sind diese 1330Mhz GPU-Takt bei der GTX670 angetackert? Falls ja... knapp 36% OC resultieren in nur +6% Mehrleistung? :| Hängt selbst die GTX670 so extrem noch an der Bandbreite? X-D

Falls ich es richtig verstanden habe, testen sie die GTX 670 bereits mit 1134 MHz (boost 1213MHz) gegen 1330MHz OC, deshalb die geringe Mehrleistung.

BigKid
2012-05-14, 22:07:00
"Sitzen" tut da nieman... entweder sind die Chips schon vorgeprüft von nVidia so gekauft worden, oder aber ASUS selbst prüft die Dinger "maschinell"... sind ja schließlich nicht erst sein "gestern" im OC-Geschäft.

Ergo: ja, Du darfst davon ausgehen, dass die "normalen" durch den OC-Test gefallen sind.

Naja... Dass da wirklich jemand "sitzt" und das manuell testet, davon bin ich jetzt eigentlich auch nicht ausgegangen...
Schauen wir einfach mal was da Morgen so geht...

Razor
2012-05-14, 22:25:58
Ich drück' Dir die Daumen!
:up:

Razor

dargo
2012-05-14, 23:25:09
Falls ich es richtig verstanden habe, testen sie die GTX 670 bereits mit 1134 MHz (boost 1213MHz) gegen 1330MHz OC, deshalb die geringe Mehrleistung.
Bei dem ganzen Rumgetakte der neuen Geforce könnte man nur noch schreien. Man verliert völlig den Überblick bei den Benchmarks. Hoffentlich ist das ne einmalige Schnapsidee von Nvidia.

Hatstick
2012-05-14, 23:32:48
GIGABYTE GTX 670 OC WindForce 3X 2GB Review
http://vr-zone.com/articles/gigabyte-gtx-670-oc-windforce-3x-2gb-review/15831-1.html

http://www10.pic-upload.de/13.05.12/xysgd3844md.png (http://www.pic-upload.de/view-14186825/BF3OC.png.html)

Die 680 mit den max. Einstellungen in BF3 fast doppelt so schnell wie die 580?
Alter Schwede. :eek:

Blaire
2012-05-14, 23:46:53
Die 680 mit den max. Einstellungen in BF3 fast doppelt so schnell wie die 580?
Alter Schwede. :eek:

Kann nicht stimmen. ;) In BF3 hab ich ggü. der GTX480 zwischen 70-80% mehr FPS gemessen. Merkwürdige Ergebnisse auf welche VR-Zone dort kommen...

Hatstick
2012-05-14, 23:48:58
Muss sagen, selbst 70-80% mehr an Leistung finde ich sehr beachtlich.
Dann wäre es gegenüber der 580 wohl immer noch so um die 50% mehr.

Hugo78
2012-05-15, 00:26:48
@Hatstick

Ich bin ja der Letzte der deine Begeistung ausbremsen möchte, aber hast du dir überhaupt mal die Links angeschaut, die ich auf den VR "Test" pepostet hab?

Nochmal bei gleichen Setting (wenn auch sicher nicht bei der gleichen Szene) kommt ht4u auf + 37%, CB auf + 34% und PCGH & Guru 3D auf 33% (min FPS).
Anandtech liegt bei 41%, makiert damit aber auch die Spitze des Eisbergs.

Hatstick
2012-05-15, 01:22:32
Ne, habe ich nicht. :redface:
Dann sieht das alles natürlich bissl anders aus. :wink:

Razor
2012-05-15, 07:21:53
Bei dem ganzen Rumgetakte der neuen Geforce könnte man nur noch schreien. Man verliert völlig den Überblick bei den Benchmarks. Hoffentlich ist das ne einmalige Schnapsidee von Nvidia.
Sicher nicht... ist nur der nächste logische Schritt, der sich aus der CPU-Entwicklung ergibt.

Razor

Razor
2012-05-15, 08:22:14
Sehr guter Test bei HT4U zur ASUS DirectCU II Top:
http://ht4u.net/reviews/2012/asus_geforce_gtx_670_directcu2_top/

Was mich allerdings irritiert...

Palit (Reference): Idle 22.6W, BlueRay 23.6W, MultiMon 16.5W :|
ASUS DirCU2Top: Idle 22.4W, BlueRay 26.8W, MultiMon 23.3W

Die Werte der ASUS sehen plausibel (und erfreulich) aus... aber wie kann es sein, dass die Palit im MultiMon WENIGER verbraucht, als mit nur einem Display? Muss ein Fehler sein, denn erklären kann dies wohl niemand...

Interessant auch, dass ASUS die TDP (welche sie selber nicht angeben) sehr LOCKER nehmen... ca. 210W werden es wohl sein.
Damit wird nVidias Vorgabe von 170W um knappe 25% überboten - was ja nichts "schlechtes" sein muss :D

Besonders hervor gehoben wird wieder die Lautstärke (der ich bei HT4U schlicht vertraue!).
Das "angenehme" Empfinden des Testers wurde mit den Messungen bei 11dba/0.7sone bis maximalen 24dba/1.9sone satt bestätigt.

DAS ist wahrlich beeindruckend!

Schade nur, dass das PCB mit 23cm (mit Kühler gar kanppe 27cm) locker über meine Vorstellungen hinaus geht.
Zum Vergleich das Reference-Design mit seinen 17.5cm (mit Kühler knappe 25cm)...

Razor

P.S.: Muss direkt mal meine GTX260 "vermessen" ;D

P.P.S:: Getan... OK, krass... auch die kam mit 26.5cm daher... sollte meine Vorstellungen vielleicht noch mal überdenken.
Kann ja mal wieder die 260 einbauen um ein Gefühl dafür zu bekommen! ;)

Bakelit
2012-05-15, 09:25:16
Bei dem ganzen Rumgetakte der neuen Geforce könnte man nur noch schreien. Man verliert völlig den Überblick bei den Benchmarks. Hoffentlich ist das ne einmalige Schnapsidee von Nvidia.

Selbst nvidia kommt bei dem ganzen Taktgehopse wohl nicht mehr so richtig mit und vergeigt es dann im vsync. Möglicherweise haben sie versucht über die Takterei vsync zu erreichen aber waren wohl etwas zu ambitioniert, jedenfalls funktioniert es nicht wirklich gut. Derzeit springt, ruckelt, zuckelt jedes Programm mit vsync-enabled auf der gtx670(mal mehr, mal weniger spürbar), ohne vsync keine Probleme(ausser tearing)..
Ist auch wieder so eine Sache, die keiner der HW-Testseiten auffällt, dabei hatte ich mich persönlich doch sehr auf adaptives vsync gefreut.
Hab mal ein ticket bei nv aufgemacht..

Lard
2012-05-15, 10:10:59
GTX 670 vs. GTX 680 vs. HD 7970, All Overclocked
http://hardocp.com/article/2012/05/14/geforce_680_670_vs_radeon_7970_7950_gaming_perf/3

http://www7.pic-upload.de/15.05.12/o43w5svft4fd.png (http://www.pic-upload.de/view-14204192/AllOC.png.html)

dargo
2012-05-15, 10:23:45
Sicher nicht... ist nur der nächste logische Schritt, der sich aus der CPU-Entwicklung ergibt.

Bei der CPU lässt sich dieser Blödsinn aber im Bios problemlos abschalten. Wenn ich es richtig verstanden habe ist das bei den GPUs nicht so einfach. Man möge mich korrigieren wenn ich falsch liege.

boxleitnerb
2012-05-15, 10:36:48
Kannst den Inspector Trick anwenden:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index15.php

Von der Vergleichbarkeit her finde ich es auch Mist, aber der Rest gefällt. Ich hoffe, dass das noch weiter ausgebaut wird und dann irgendwann auch auf Einheitenbasis greift.

dargo
2012-05-15, 10:38:45
Kannst den Inspector Trick anwenden:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index15.php

Ja... über Umwege. Das macht aber keine Testseite und somit lässt sich kaum noch was bei der hin und her Takterei ableiten aus den Benchmarks.

boxleitnerb
2012-05-15, 10:48:47
"Kaum noch was" find ich übertrieben. +/- 5% sind das vielleicht, das ist jetzt kein Drama. Davon abgesehen sind Benchmarks sowieso nur ein grober Gradmesser, weil jeder andere Einstellungen hat, andere Hardware, Treiber, andere Szene. Will sagen, vergleichbar untereinander oder mit dem, was wir zu Hause erleben, ist das eh nicht hundertprozentig.

exzentrik
2012-05-15, 11:56:24
Selbst nvidia kommt bei dem ganzen Taktgehopse wohl nicht mehr so richtig mit und vergeigt es dann im vsync. Möglicherweise haben sie versucht über die Takterei vsync zu erreichen aber waren wohl etwas zu ambitioniert, jedenfalls funktioniert es nicht wirklich gut. Derzeit springt, ruckelt, zuckelt jedes Programm mit vsync-enabled auf der gtx670(mal mehr, mal weniger spürbar), ohne vsync keine Probleme(ausser tearing)..
Ist auch wieder so eine Sache, die keiner der HW-Testseiten auffällt, dabei hatte ich mich persönlich doch sehr auf adaptives vsync gefreut.
Hab mal ein ticket bei nv aufgemacht..

PCGH hat das kürzlich aufgegriffen (http://www.pcgameshardware.de/aid,882878/Geforce-GTX-680-Probleme-mit-Vsync/Grafikkarte/News/). Scheint ähnlich wie beim TDR-Bug wohl wieder etwas komplexer zu sein, weshalb es bis zu einem Treiber mit Bugfix wohl noch dauern könnte.

EDIT: VSync-Bugfix erst im übernächsten Treiber. (http://forums.nvidia.com/index.php?showtopic=226227&st=560&p=1408434&#entry1408434)

Fabian_HT4U
2012-05-15, 13:09:44
Hi,

Die Werte der ASUS sehen plausibel (und erfreulich) aus... aber wie kann es sein, dass die Palit im MultiMon WENIGER verbraucht, als mit nur einem Display? Muss ein Fehler sein, denn erklären kann dies wohl niemand...
Danke für die Blumen. Bei der Palit handelt es sich nicht um einen Messfehler, wie man im Launchartikel zur GTX 670 nachlesen kann. Dort liegen im MM-Betrieb niedrigere Spannungen an als im Idle. Möglicherweise ein BIOS-Fehler...

http://ht4u.net/reviews/2012/nvidia_geforce_gtx_670_im_test/index6.php

grüße
Fabian

V2.0
2012-05-15, 14:30:41
Kannst Du schon was zur Lautstärke der Phantom sagen?

Peter Gräber
2012-05-15, 15:01:42
Kannst Du schon was zur Lautstärke der Phantom sagen?

Kannst du morgen nachlesen ;)

P@trick
2012-05-15, 16:42:41
Hi zusammen,die Frage ist hier in ähnlicher Form schoneinmal gefallen.Im Grund genommen kann es ja vorkommen, dass man bei der Asus DC2T mitunter den schlechteren Chip erwischen kann als bei der normalen DC2 oder?
Die Karten sollten ja identisch sein ,bis auf den garantierten Werks-OC bei der "T".
Na sicher, wenn es nur 10 € Unterschied sind sollte keinen einem was abrechen,aber wenn ich hier in der CH momentan 50€ Unterschied sehe(und für das Geld man fast `ne Custom GTX680 bekommt) ,stellt sich mir schon die Frage ob die Stock DC2 nicht reicht.Beizufügen, damit ich nicht falsch verstanden werde,geht es mir natürlich auch um maximale Leistung der Karte.

Hugo78
2012-05-15, 16:58:35
Groß selktieren wird man bei Asus sicher nicht.
Letztlich gehts ja auch bei der TOP nur über ne höhere Spannung zu mehr Takt.
Bei 50€ Unterschied von der kleinen DC2 zur Top, würd ich dann doch eher die Kleine nehmen.

V2.0
2012-05-15, 17:18:36
So meine Phantom ist im Rechner. Im Idle ist der Lüfter mit 30% sehr angenehm leise, unter Last dreht er hingegen kräftig auf. Ich würde das Geräusch noch nicht störend nennen aber auch nicht mehr leise. Mit entsprechenden Tools ist es aber leicht möglich die Lüftersteuerung zu modifizieren, so dass die Karte auch unter Last annehmbar leise ist. Ich würde momentan eher zur Asus raten, aber die wäre halt für mein Zweitcase zu lang (und da landen die Karten ja irgendwann). Wenn man mit den leuchtenden Lüftern leben kann, würde ich auch eher die Pallit nehmen, denn abgesehen von der funktionslosen Abdeckung des Phantomkühlers, sind beide exakt gleich und sollten sich mit einer modifizierten Lüfterkurve gleich leise betreiben lassen.

P@trick
2012-05-15, 20:22:18
Hört sich nach guten 3 Sone an,bei Default.PCGH attestierte der GTX 680(Phantom) in ihrem Pacour 3,3 Sone.
Bin schon gespannt auf die Werte von ht4U.
Eigentlich eine schöne Karte,die GTX 680 sogar noch etwas mehr auf die Schnelle betrachtet,da auch den wertigeren Eindruck.Aber man liesst ja auch hier weniger schöne Sachen über ein anderes Phantom-Modell.

Zum vorigen Post von mir:Habe 40€ Unterschied gemeint,war in der falschen Währung,sollte aber klar sein schaue mir das Preisgefüge noch ein wenig an.
Hätte am liebsten den Top of the line Chip(sofern überhaupt sehr gut zum Zocken geeignet und nicht 650€ teuer),denke aber zum Überbrücken kann man nicht all zuviel falsch machen mit 350€ für die GTX 670,vor allem auch in Anbetracht der Leistung gegenüber der GTX 680.

Razor
2012-05-15, 22:06:42
Hi,

Danke für die Blumen. Bei der Palit handelt es sich nicht um einen Messfehler, wie man im Launchartikel zur GTX 670 nachlesen kann. Dort liegen im MM-Betrieb niedrigere Spannungen an als im Idle. Möglicherweise ein BIOS-Fehler...

http://ht4u.net/reviews/2012/nvidia_geforce_gtx_670_im_test/index6.php

grüße
Fabian
Krass... und danke für die Info!

Meinte eigentlich den Artikel nicht nur quer gelesen zu haben.
Macht dies denn Sinn? Ein Fehler im Bios ist da mehr als wahrscheinlich...

Ich allerdings habe die Erfahrung gemacht, dass man mit nur einem Basis-Takt in JEDER Lebenslage auskommt (bei mir bis dato GTX460 mit eigenem Mod-Bios). Dieses ganze "herumgetakte" halte ich schlicht für überflüssig! Im Desktop/Video/2D-Bereicht natürlich... P0 brauchts ausschließlich im (beschleunigten) 3D-Umfeld (und damit meine ich ganz sicher nicht Aero ;-).

Deswegen gefiel mir ja auch die Palit, bis sich bei der ASUS nun das gleiche heraus stellte...
...OK, bis auf diesen Bug mit dem noch niedrigeren vCore im MultiMon-State ;)

Razor

Razor
2012-05-15, 22:19:16
Bei der CPU lässt sich dieser Blödsinn aber im Bios problemlos abschalten. Wenn ich es richtig verstanden habe ist das bei den GPUs nicht so einfach. Man möge mich korrigieren wenn ich falsch liege.
Man kann das Heruntertakten abschalten (im Treiber), aber des "TurboBoost" nicht.
Dafür könnte man den nVidia Inspector oder aber dieses EVGA-Dingens... PrecisionX, wenn ich recht entsinne... nutzen.

Ich verstehe allerdings nicht, was daran "schlecht" sein soll?

Razor

Razor
2012-05-16, 05:50:29
Groß selktieren wird man bei Asus sicher nicht.
Letztlich gehts ja auch bei der TOP nur über ne höhere Spannung zu mehr Takt.
Die GPU muss aber Takt und Spannung (letzteres übrigens bei den meisten stark OCten Modellen) "überstehen".
Natürlich selektiert man bei ASUS, oder was meinst Du, warum die "normale" breit verfügbar ist, die "Top" aber nicht?
Richtig, man braucht großere Chargen, um diese zu fertigen (zu verpacken ;-) und liefern zu können...

Sagt mal, in welcher Welt lebt Ihr eigentlich?
Die Chips kann man "pre checked" direkt bei nVidia kaufen!

Razor

Hugo78
2012-05-16, 09:02:38
Das mit dem "pre checked by NV" glaub ich und wenns einfach nur darum geht welcher Chip noch mehr ab kann, ok dann selektiert man.
Chipgüte ist für mich aber auch andersrum, dass ein Chip mit Standardspannung zu mehr Speed kommt.
Was bei der Top dann doch nicht der Fall zusein scheint.
Zumal wenn man zwar den Speed einer Ref. 680 erreicht, aber ebend nur mit mehr Verbrauch als einer 680,
was dann wieder Lautstärke bedeutet und für mich als Silentfreak ein Dorn im Auge ist.

Egal...
Nachdem heut Nacht klar wurde das GK110 in Form von Geforces erst in Q1 2013 kommt und eine GTX 680 schon ab 455€ los geht,
bin ich grad wieder auf dem Trip mir doch eine 680 zuholen. :biggrin:

V2.0
2012-05-16, 09:35:27
So gestern noch mit der Phantom gespielt. Wenn man ihr eine Gehäuselüfter zur Seute stellt, habe ich sie teilweise auf 1215mhz boosten sehen, bei 100% Power Target.

Iruwen
2012-05-16, 09:37:18
Der Liefertermin für die DC2T war jawohl nix, ist jetzt erstmal wieder bei allen Shops auf unbestimmte Zeit verschoben.

BigKid
2012-05-16, 14:08:35
Sodele... Bastelarbeit abgeschlossen...
Win7 ohne neu Installation von P5QE auf P8Z77 umgezogen... Keine Probleme...

Erste Ergebnisse der Asus GTX670 Direct Cut 2 (keine Top):
Jeweiles 10 Minuten OCCT ohne Fehler... Die Angebenen Werte sind die in MSI AB eingestellten oder gemessenen (gerade der GPU Takt fluktuiert ja)...

Try 1 - undervolting
Voltage: - 25
PowerLimit: 96
ShaderClock: +200
Memory Clock: +600

Ergibt c.a. 1100 MHz GPU durchgehend (am Anfang etwas mehr am Ende pendelt es sich dann da ein)


Try 2 - max OC
Voltage: + 50
PowerLimit: 120
ShaderClock: +200
Memory Clock: +600

Ergibt c.a. 1200 MHz GPU durchgehend (am Anfang etwas mehr am Ende pendelt es sich dann da ein)

Die Tatsächliche Stabilität muss sich dann noch im Gaming Einsatz und bei Langzeitests - 1-2 Stunden beweisen...

Kurz noch was zu der Kühllösung:
Kurz - ein Traum. Hält die Karte selbst bei max OC auf c.a. 75 Grad un geht dabei nicht über 60% Lüfterdrehzahl. Bis 50% kann ich sie nicht raushören - ab 50% ist sie dann ganz dezent raushörbar - aber eher wegen der Tonhöhe... Und mein Rechner ist ansonsten ziemlich leise... Die GTX570 Phantom war unter Last ein echter Nervtöter dagegen...

Also wenn ich meine Werte mit denen von TechpowerUP vergleiche, dann bin ich zufrieden und habe nicht das Gefühl nen schlechten Chip erwischt zu haben.
Vor allem das undervolt Ergebnis überrascht...

Iruwen
2012-05-16, 14:44:26
Asus GTX670 Direct Cut 2 (keine Top)

Die heißt dann DirectCU II (ansonsten noch Top dahinter) :wink:

Razor
2012-05-16, 20:40:36
Das mit dem "pre checked by NV" glaub ich und wenns einfach nur darum geht welcher Chip noch mehr ab kann, ok dann selektiert man.
Chipgüte ist für mich aber auch andersrum, dass ein Chip mit Standardspannung zu mehr Speed kommt.
Was bei der Top dann doch nicht der Fall zusein scheint.
Zumal wenn man zwar den Speed einer Ref. 680 erreicht, aber ebend nur mit mehr Verbrauch als einer 680,
was dann wieder Lautstärke bedeutet und für mich als Silentfreak ein Dorn im Auge ist.
Na ja... diese "Selektion" muss man sich wie eine Art Prime95 für GPUs vorstellen... Quantität vor Qualität eben.
Und wie Du Dich vielleicht noch erinnerst... die Voltage wirde der "Chipgüte" notfalls angepaßt, wie bei den Fermis ja schon gesehen.
Ansonsten, ja... kann ich zu 100% so unterschreiben!
:up:

Egal...
Nachdem heut Nacht klar wurde das GK110 in Form von Geforces erst in Q1 2013 kommt und eine GTX 680 schon ab 455€ los geht,
bin ich grad wieder auf dem Trip mir doch eine 680 zuholen. :biggrin:
Hehe... ich liebäugel - ebenfalls als SilentFreak - mit dem kurzen PCB der GTX670.
Weiß nur noch nicht so recht, wo ich mit was dort ansetzen soll...

Ein Gedankengang "zwischendruch"... Referenz-Board (egal von wem - evtl. OC'd ala EVGA), Plastik-Hülle samt Radial-Quirl weg und dann einfach einen schön leisen 12cm Rotor drauf geschnallt (was wörtlich zu verstehen ist ;-).

Weiß aber noch net...
Die Preise purzeln ja derzeit, dass es schon fast unheimlich ist - ab 350 Taken nun!
(Palit, wie von HT4U getestet)

Razor

OgrEGT
2012-05-17, 09:02:03
Sodele... Bastelarbeit abgeschlossen...
Win7 ohne neu Installation von P5QE auf P8Z77 umgezogen... Keine Probleme...

Erste Ergebnisse der Asus GTX670 Direct Cut 2 (keine Top):
Jeweiles 10 Minuten OCCT ohne Fehler... Die Angebenen Werte sind die in MSI AB eingestellten oder gemessenen (gerade der GPU Takt fluktuiert ja)...

Try 1 - undervolting
Voltage: - 25
PowerLimit: 96
ShaderClock: +200
Memory Clock: +600

Ergibt c.a. 1100 MHz GPU durchgehend (am Anfang etwas mehr am Ende pendelt es sich dann da ein)


Try 2 - max OC
Voltage: + 50
PowerLimit: 120
ShaderClock: +200
Memory Clock: +600

Ergibt c.a. 1200 MHz GPU durchgehend (am Anfang etwas mehr am Ende pendelt es sich dann da ein)

Die Tatsächliche Stabilität muss sich dann noch im Gaming Einsatz und bei Langzeitests - 1-2 Stunden beweisen...

Kurz noch was zu der Kühllösung:
Kurz - ein Traum. Hält die Karte selbst bei max OC auf c.a. 75 Grad un geht dabei nicht über 60% Lüfterdrehzahl. Bis 50% kann ich sie nicht raushören - ab 50% ist sie dann ganz dezent raushörbar - aber eher wegen der Tonhöhe... Und mein Rechner ist ansonsten ziemlich leise... Die GTX570 Phantom war unter Last ein echter Nervtöter dagegen...

Also wenn ich meine Werte mit denen von TechpowerUP vergleiche, dann bin ich zufrieden und habe nicht das Gefühl nen schlechten Chip erwischt zu haben.
Vor allem das undervolt Ergebnis überrascht...

Haste Deine Phantom jetzt also verschrottet :uhammer2:
Wobei am Anfang war Deine Phantom doch auch noch in Ordnung. Vermutlich ein ähnliches Problem wie bei meinen 2.
Überleg mir auch eine neue zu holen, allerdings ist mir der Leistungszuwachs bei den noch immer saftigen Preisen nicht groß genug... :ucoffee:

Iruwen
2012-05-17, 09:40:28
Kannst du morgen nachlesen ;)

Heute ist übermorgen, noch nicht fertig? :D

Peter Gräber
2012-05-17, 09:44:59
Heute ist übermorgen, noch nicht fertig? :D

Doch, doch, aber der Lektor ist nicht fertig ^^. Ich denke er bringt den Artikel heute.

V2.0
2012-05-17, 11:21:19
Review ist da. Deckt sich zu 100% mit meinen Erfahrungen. Die ASUS ist die bessere Wahl.

Iruwen
2012-05-17, 12:34:58
Ich bin mäßig unbeeindruckt. Also die DCU2T.

ameisenbaer
2012-05-17, 22:00:12
Kurz noch was zu der Kühllösung:
Kurz - ein Traum. Hält die Karte selbst bei max OC auf c.a. 75 Grad un geht dabei nicht über 60% Lüfterdrehzahl.

Meine Gigabyte OC Windforce bekomm ich kaum über 60°C...

dildo4u
2012-05-18, 01:38:22
Direkt Vergleich 670 680

http://www.anandtech.com/bench/Product/598?vs=555

Schön übersichtlich,die Rechenleistung der 680 schlägt nur bei der Compute Shader Fluid Simulation durch.

AnarchX
2012-05-18, 08:09:48
Wobei das wohl eher ein Messfehler ist, den ~50% höher ist die Rechenleistung einer GTX 680 nicht.

dargo
2012-05-18, 11:19:54
Direkt Vergleich 670 680

http://www.anandtech.com/bench/Product/598?vs=555

Schön übersichtlich,die Rechenleistung der 680 schlägt nur bei der Compute Shader Fluid Simulation durch.
Das ist doch Unsinn. Ganz klares Fail vom Reviewer. Die tatsächliche Rechenleistung schlägt schon eher in Portal 2 @SSAA mit ~17% durch. Das passt schon eher zum Unterschied bei den SPs und dem Takt. Wobei eigentlich um die 25% durchlagen müssten. Eventuell liegts dann daran, dass bei der GTX680 die Bandbreite im Vergleich zur Rohleistung stärker limitiert.

AnarchX
2012-05-18, 11:23:01
Wenn die GTX 670 boostet liegt der Unterschied nicht deutlich über den 12,5%, die sich durch das deaktivierte SMX ergeben.

dargo
2012-05-18, 11:25:16
Ja... dieser Kackboost bringt eh vieles durcheinander. Mir wären Tests lieber mit und ohne Boost.

PS: wie kommen diese 12,5% zustande? Sollten es nicht eher 14,xx% sein?
PPS: ok... du rechnest andersrum. :tongue: Die GTX670 hat 12,5% weniger SPs.

Ph0b0ss
2012-05-18, 13:45:27
@Dargo

Ein Test auf gleichem Takt ohne Boost:
http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=742

Iceman346
2012-05-18, 13:53:35
Ich bin nun einfach mal ins kalte Wasser gesprungen und hab ne Palit Jetstream bestellt. Nachdem die Nutzermeinungen im CB positiv waren was die Lautstärke angeht lasse ich mich mal überraschen.

Mal schauen ob Mix Computer die noch heute rauskriegt so das ich morgen schon rumtesten kann. Meine letzte Nvidia Karte war iirc ne 6800GT. Mal schauen wie groß die Umgewöhnung von ATi ist ;)

Pitman
2012-05-18, 16:53:43
Welche GTX 670 Karte ist den nun schön leise ?

Wenn ich diesen Test hier lese ist die Asus gar nicht so leise ?

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22419-test-4x-nvidia-geforce-gtx-670-und-sli.html?start=10

Grüße
Pitman

Hugo78
2012-05-18, 17:41:28
Die Frage ist, warum sich bei HWluxx alle Messergebnisse nur 1-2dbA unterscheiden.
Das geht eigentlich nur wenn man aus max. 10cm Entfernung misst und damit sind die Ergebnisse fragwürdig.
50-100cm sollte man schon entfernt sein.

Dazu kommt, eine Ref.design 7970 ist als grausam laut bekannt, was man bei CB auch hören kann.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-670/9/#abschnitt_kuehlung__lautstaerke

HWluxx aber sagt, alle 670er (inkl. Ref.Design) seien lauter ... :ulol:

Iceman346
2012-05-18, 18:05:49
Ich bin nun einfach mal ins kalte Wasser gesprungen und hab ne Palit Jetstream bestellt. Nachdem die Nutzermeinungen im CB positiv waren was die Lautstärke angeht lasse ich mich mal überraschen.

Mal schauen ob Mix Computer die noch heute rauskriegt so das ich morgen schon rumtesten kann. Meine letzte Nvidia Karte war iirc ne 6800GT. Mal schauen wie groß die Umgewöhnung von ATi ist ;)

Oder auch nicht. Wollt an die Packstation liefern lassen, aber DHL hat noch meine alte Adresse drin und Mix gleicht das ab und will net liefern. Na jo, dann erstmal nicht.

Pitman
2012-05-18, 19:27:40
Würde denn die Asus mit 915 mhz noch leiser werkeln ? Gibt es da schon Berichte ?

Grüße
Pitman

aufkrawall
2012-05-18, 19:31:14
Liegt wahrscheinlich weniger am Takt als daran wie die Lüftersteuerung gesetzt ist.

Pitman
2012-05-18, 22:14:15
Ich gehe aber doch davon aus, dass beide Asus karten den gleichen Lüfter verwenden ?

Mir reicht eigentlich die Standardversion der GTX 670.Hauptsache leise !

Grüße
Pitman

hardtech
2012-05-18, 22:29:19
@pitman
Interessiert mich auch, ob die beiden asus karten sich nur im bios unterscheiden?
Ocen kann man ja selbst per software. Zudem ist die dc2 turbo net lieferbar.

BigKid
2012-05-18, 23:44:09
Wie ich diese Reviews immer mit alten Treibern gegen neue Treiber liebe. Eine leicht übertaktete GTX670 91% schneller als GTX580. Ja...ne ist klar. :rolleyes:

Was ich aber viel interessanter finde... sind diese 1330Mhz GPU-Takt bei der GTX670 angetackert? Falls ja... knapp 36% OC resultieren in nur +6% Mehrleistung? :| Hängt selbst die GTX670 so extrem noch an der Bandbreite? X-D
@pitman
Interessiert mich auch, ob die beiden asus karten sich nur im bios unterscheiden?
Ocen kann man ja selbst per software. Zudem ist die dc2 turbo net lieferbar.
Habe eine gtx670 dc2 und kann nur nochmal betonen, dass ich sie sehr leise finde. Meine gtx570 Phantom war unter Last da ein Fön gegen - trotz untervolten und custom Lüfterprofil...
Und ja - die dc2 unterscheidet sich von der Top wohl nur durch Bios und vermutlich vorselektierte Chips.
Die dc2 gtx670 ist aber im Gegensatz zur gtx680'"nur" ein 2 Slot Design... wenn ich jetzt nicht total geschielt habe...

BigKid
2012-05-19, 06:16:18
Meine Gigabyte OC Windforce bekomm ich kaum über 60°C...
Die Frage ist halt - bei welcher Lautstärke...
Ic kann meine im Gaming Betrieb quasi nicht raushören und das ist mir wichig...
Die Gigabyte war allerdings auch bei mir in der engeren Wahl...

Peter Gräber
2012-05-19, 09:43:07
@pitman
Interessiert mich auch, ob die beiden asus karten sich nur im bios unterscheiden?
Ocen kann man ja selbst per software. Zudem ist die dc2 turbo net lieferbar.

Ich gehe auch davon aus, dass dies die einzigen Unterscheidungsmerkmale sind. Aber ASUS hat bei seinem OC-Modell auch Eingriffe in das Power Target vorgenommen, damit bei den Übertaktungen der Boost nicht an diesem Limit verpufft. Bleibt das Power Target auf NVIDIA Default ist bei zirka 140 Watt Leistungsaufnahme Schluss, wenn du selbst das Target händisch veränderst, bei 180 Watt!

Pitman
2012-05-19, 10:09:53
Ich finde die Gigabyte etwas zu lang. Sie ist doch etwas länger als die Asus oder ?

Hmm Mist, das wird echt schwierig. Sie hätten ja wenigstens die normale Asus etwas höher Takten können.

Grüße
Pitman

ameisenbaer
2012-05-19, 13:23:38
Ich finde die Gigabyte etwas zu lang. Sie ist doch etwas länger als die Asus oder ?


Sie etwas länger als die 8800 GT, die sie ersetzt hat.
Die Gigabyte hat aber als einige der wenigen 6+4 Stromstecker.

Bei Power Target 111 % , GPU +64 Mhz, 1,175V mit dem EVGA Tool
boostet sie im Moment 1150 laut GPU-Z (Sensors)
ich hatte da gestern aber auch schon 1215. Komischerweise
ist bei GPU-Z der Boost mit der Einstellung 1123 angeben.
Boost-Soll und Boost-Ist können irgendwie stark abweichen.

Speicher steht bei +434. Speicher-Soll und Speicher-Ist(Max) sind
laut GPU-Z 1719. Da dürfte aber noch ziemlich Luft sein.

Ansonsten ist Temp Max auch nach Stunden nicht über 63 ° C und
Lüfter Max beim Heaven (Tess = Extreme; AF4, AA4) auf 40 %.

Ach fast vergessen, die Auflösung ist bei mir
1200 * 1920 mal 3 = 3600 * 1920

Peter Gräber
2012-05-20, 15:27:39
Ich finde die Gigabyte etwas zu lang. Sie ist doch etwas länger als die Asus oder ?

Hmm Mist, das wird echt schwierig. Sie hätten ja wenigstens die normale Asus etwas höher Takten können.

Grüße
Pitman

Die Gigabyte ist so lang wie eine GTX 680. Das ist ein 680-Referenzdesign, daher auch der 8- und 6-Pin-Stromanschluss, welcher für die Karte aber ohne belang ist. Aber ansonsten ist das schon interessant, was Gigabyte hier tut...

Bericht folgt in Kürze ;)

V2.0
2012-05-20, 15:38:41
Ist der Kühler nicht sogar länger als das PCB?

Pitman
2012-05-20, 15:42:42
Ich erinner mich bei dem Windforcekühler der GTX 680 das der Kühler zwar bei Last recht gut ist aber unter Idle mit 1800u/min als zu laut empfunden wurde.

Grummel, bin auf den Test gespannt.

Grüße
Pitman

Peter Gräber
2012-05-20, 15:44:55
Die Gigabyte ist so lang wie eine GTX 680. Das ist ein 680-Referenzdesign, daher auch der 8- und 6-Pin-Stromanschluss, welcher für die Karte aber ohne belang ist. Aber ansonsten ist das schon interessant, was Gigabyte hier tut...

Bericht folgt in Kürze ;)

Ja, der Kühler ragt noch ein Stück über das PCB hinaus.

V2.0
2012-05-20, 16:19:47
Ich erinner mich bei dem Windforcekühler der GTX 680 das der Kühler zwar bei Last recht gut ist aber unter Idle mit 1800u/min als zu laut empfunden wurde.

Grummel, bin auf den Test gespannt.

Grüße
Pitman

Also zumindest bei der 680 gibt es ein BIOS, dass den Lüfter im idle bei 25% hält. Das ist sehr gut. Ich glaube die 670 wird ebenso ausgeliefert.

Mancko
2012-05-21, 12:28:46
Also zumindest bei der 680 gibt es ein BIOS, dass den Lüfter im idle bei 25% hält. Das ist sehr gut. Ich glaube die 670 wird ebenso ausgeliefert.

In der Tat. Es gibt hierzu einen THG Artikel der das beschreibt. Demnach hat Gigabyte auf die Kritik bzgl. Idle Geräusch reagiert und per neuem Bios die Lüfterdrehzahl herunterreguliert im Idle. Die war vorher unnötig hoch.

Die Gigabyte 670 OC wird meine neue Karte. Scheint mir die beste im Feld zu sein. Hatte ja auch schon die nette GTX 460 von denen.

Pitman
2012-05-21, 13:48:40
Die nette Gigabyte GTX 460 besitze ich auch noch :). Deswegen bin ich auch so pingelig mit der Lautstärke. Jetzt ist also nur noch die Lautstärke unter Last entscheidend.

Edit:Wann kommt denn das Review ?

Grüße
Pitman

Johnny Rico
2012-05-21, 19:39:39
ASUS GTX670-DC2-2GD5, GeForce GTX 670
Gigabyte GeForce GTX 670 OC
Palit GeForce GTX 670 JetStream

Welche soll ich nehmen? Die Karte soll möglichst leise sein!
Ich finde keinen richtigen Test, leider ist ausgerechnet der HWLUXX Test ist so komisch..

dildo4u
2012-05-21, 19:47:39
Die Asus wird schwer zu schlagen sein.

http://ht4u.net/reviews/2012/asus_geforce_gtx_670_directcu2_top/index11.php

Hugo78
2012-05-21, 20:12:38
Hab mir heute die kleine Asus bestellt, die Top ist ja immernoch nicht verfügbar.
Sollte bis Freitag bei mir aufschlagen und dann kann ich ja mal ein kurzes Video reinstellen als Hörprobe (Idle + 10min BF3 oder so).

Pitman
2012-05-21, 21:01:49
Wann geht denn der Gigabyte Test online?

Peter Gräber
2012-05-21, 21:45:41
Wann geht denn der Gigabyte Test online?

Hallo Pitman,

ich bin kein 3DC-Redakteur oder Foren-Admin. Ich bin höchst selten in anderen Foren unterwegs und versuche hier aktuell eher ein wenig Wissen zu vermitteln.

Mein Test ist definitiv done. Es liegt dann an Lektor-Tätigkeiten und anderen Dingen, wann er online gestellt wird. Aber Fragen zu meinen Tests, solltest du sinnigerweise auch in meinem Forum stellen - da wird dir dann schneller oder überhaupt geholfen. ;)

Pitman
2012-05-21, 22:34:43
Ok danke für die Rückmeldung :smile:

Grüße
Pitman

hardtech
2012-05-21, 23:02:50
Ich gehe auch davon aus, dass dies die einzigen Unterscheidungsmerkmale sind. Aber ASUS hat bei seinem OC-Modell auch Eingriffe in das Power Target vorgenommen, damit bei den Übertaktungen der Boost nicht an diesem Limit verpufft. Bleibt das Power Target auf NVIDIA Default ist bei zirka 140 Watt Leistungsaufnahme Schluss, wenn du selbst das Target händisch veränderst, bei 180 Watt!

danke peter.
so habe nun diablo3 installiert und was soll ich sagen?
mein 3570k und meine hd5850 reichen, um d3 flüssig in 2560x1440 bei max details darzustellen. ergo kann ich mir die 400 eur auch sparen ;D

P@trick
2012-05-22, 02:32:31
Hab mir heute die kleine Asus bestellt, die Top ist ja immernoch nicht verfügbar.
Sollte bis Freitag bei mir aufschlagen und dann kann ich ja mal ein kurzes Video reinstellen als Hörprobe (Idle + 10min BF3 oder so).


Und die Taktungen/Boost, max.Takt etc. evtl. mit MSI Afterburner(s),EVGA Presision OSD o.ä., bzw. davon berichten um zu schauen wie stark sich sich von der Top unterscheidet.Bin sicher nicht der einzige Interssierte,wenn du so gut wärst.Danke.

gbm31
2012-05-22, 07:50:40
...
so habe nun diablo3 installiert und was soll ich sagen?
mein 3570k und meine hd5850 reichen, um d3 flüssig in 2560x1440 bei max details darzustellen. ergo kann ich mir die 400 eur auch sparen ;D


das hättest du aber schon lange vorher wissen können...

Hugo78
2012-05-22, 08:37:57
Und die Taktungen/Boost, max.Takt etc. evtl. mit MSI Afterburner(s),EVGA Presision OSD o.ä., bzw. davon berichten um zu schauen wie stark sich sich von der Top unterscheidet.

In Ordnung, dann werd ich meinen Hauptmonitor (zumindest teilsweise) am linken Rand der Aufnahmene positionieren, damit man noch einwenig sieht was grad läuft,
einen 2. TFT mit EVGA Precision X in der Mitte und dann den Rechner am rechten Rand der Aufnahme.
Sollte alles irgendwie aufs Bild passen, die Kamera soll ja eh aus mindestens 50cm Abstand filmen.

Ati75
2012-05-22, 08:54:32
Wenn ich mir die Karten beim Lautstärkevergleichstest (http://www.tomshardware.de/Nvidia-Geforce-GTX-670-Roundup,testberichte-241027-14.html) bei Tomshardware so anhöre, dann kann es eigentlich nur die Asus werden. Da geb ich mir den Stress mit Kühlerwechsel erst gar nicht.

V2.0
2012-05-22, 09:28:19
Die Gigabyte ist auch ok.

Franconian
2012-05-22, 11:37:48
danke peter.
so habe nun diablo3 installiert und was soll ich sagen?
mein 3570k und meine hd5850 reichen, um d3 flüssig in 2560x1440 bei max details darzustellen. ergo kann ich mir die 400 eur auch sparen ;D

Äh...ich hab 5870, also nochmal ne kleine Ecke besser und spiele in 1920x1200. Max ist da NICHT drin, wenn man Vsync anmacht. Und das muss man anmachen, sonst läufts nämlich echt ruckelig und teared wie Drecksau, trotz 80 FPS oder so.

Man kommt öfters an stellen, an denen einfach die Leistung für 60 FPS/Vsync nicht ausreicht und dann brichts auf 30-40 FPS runter was fast schon ein unspielbarer Slowdown ist. Und das trotzs heruntergedrehten Physik-Einstellungen im Spiel.

Ich mag meine 5870 gern, aber nach dem ich Vsync-only Spieler bin, hat man mit dem einen oder andern Spiel schon sehr zu kämpfen. CPU ist übrigens ein i7 860, sollte also locker ausreichen, der langweilt sich in den meisten Spielen.

Sobald die Asus GTX 670 DirectCUII TOP auf 350 € fällt ist sie mein.

SamLombardo
2012-05-22, 12:08:17
Ich hab seit Samstag die werksübertaktete Palit GTX 670 Jetstream (http://geizhals.at/de/776907). Diese läuft standardmäßig mit 1006 mhz, ist also etwa 10 Prozent übertaktet. Der tatsächliche Turbo Takt ist aber ne ganze Ecke höher, Beim Spielen und benchen hab ich zwischen 1150 und 1190 mhz beobachtet. Ziemlich beachtlich. Mit der Jetstream ist man so ziemlich auf Niveau einer GTX 680. Dazu ist die Karte schön leise, im idle NICHT(!) hörbar, unter Last zwar hörbar aber keineswegs störend. Hat ja auch ein klasse Custom Kühldesign. Im Hardwareluxx Vergleichstest ist die Karte die leiseste unter Last (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22419-test-4x-nvidia-geforce-gtx-670-und-sli.html?start=10), komischerweise im Unterschied zum THG Test...hm, vielleicht Serienstreuung.

Wer eine Werks OC GTX 670 sucht, dem kann ich die Jetstream mit gutem Gewissen empfehlen! Von meiner bisherigen GTX 470 ist es ein gewaltiger Sprung, gerade in 3D Vision merke ich die Power der 670 an „jeder Ecke“. Bin bisher wirklich sehr zufrieden mit dem Teil.

Gruß Sam

Hugo78
2012-05-22, 12:09:00
Wenn ich mir die Karten beim Lautstärkevergleichstest (http://www.tomshardware.de/Nvidia-Geforce-GTX-670-Roundup,testberichte-241027-14.html) bei Tomshardware so anhöre, dann kann es eigentlich nur die Asus werden. Da geb ich mir den Stress mit Kühlerwechsel erst gar nicht.

Top Artikel, sowas wünsch ich mir von allen Redaktionen. (y)

SamLombardo
2012-05-22, 12:25:11
Top Artikel, sowas wünsch ich mir von allen Redaktionen. (y)
Wobei es wohl eine ordentliche Serienstreuung gibt siehe den Lautstärkentest bei Hardwareluxx (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22419-test-4x-nvidia-geforce-gtx-670-und-sli.html?start=10). Ist zwar nett, der Artikel von THG man sollte aber dennoch immer auch andere mit einbeziehen:)

Hugo78
2012-05-22, 12:52:51
Na stimmt denn dein Höreindruck deiner Jetstream mit dem THG Video in etwa über ein?

Zu den HWluxx Ergebnissen hatte ich mich schon ausgelassen. :anonym:

Die Frage ist, warum sich bei HWluxx alle Messergebnisse nur 1-2dbA unterscheiden.
Das geht eigentlich nur wenn man aus max. 10cm Entfernung misst und damit sind die Ergebnisse fragwürdig.
50-100cm sollte man schon entfernt sein.

Dazu kommt, eine Ref.design 7970 ist als grausam laut bekannt, was man bei CB auch hören kann.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-670/9/#abschnitt_kuehlung__lautstaerke

HWluxx aber sagt, alle 670er (inkl. Ref.Design) seien lauter ... :ulol:

edit:
Meine CU2 ist grad angekommen. =)
http://www10.pic-upload.de/thumb/22.05.12/z54ux9llet1.jpg (http://www.pic-upload.de/view-14308453/asus-cu2-001.jpg.html)

Kann aber erst heute abend basteln ... X-D

SamLombardo
2012-05-22, 13:22:02
Na stimmt denn dein Höreindruck deiner Jetstream mit dem THG Video in etwa über ein?D
kann ich erst heute Abend selber testen, da ich noch auf Arbeit bin. Hatte bisher nur die Fazits gelesen, und da sind mir halt die Unterschiede in den Bewertungen aufgefallen;).

Gruß Sam


Edit: hab jetzt das Video von THG mal "angehört" und kann jetzt schon definitiv sagen, dass meine Karte nie im Leben derart laut und penetrant klingt. Das wär mir 100 Prozent aufgefallen. Es MUSS eine Serienstreuung vorliegen, anders ist es nicht zu erklären. Dafür sprechen ja auch die unterschiedlichen Testergebnisse...Naja wer weiss...

Pitman
2012-05-22, 19:24:59
@Hugo78

Du hast über 400 Euro für eine Nicht übertaktete Karte ausgegeben ? Oder gibt es die irgendwo günstiger ?

Grüße
Pitman

Byteschlumpf
2012-05-22, 20:09:23
Würde sich der Wechsel von einem GTX460 1GB SLI-Gespann (@840Mhz) auf eine GTX670 lohnen - insbesondere in Bezug auf Stromersparnis und Temperatur im Gehäuse?

Neben einem Leistungsplus um etwa 25 - 50% finde ich besonders an den 2GB VRAM sowie dem DisplayPort gefallen.

hardtech
2012-05-22, 20:11:45
ja würde sich lohnen. gtx460 ist schon recht langsam. dazu nur 1gb vram.

Hugo78
2012-05-22, 20:17:09
@Pitman

Jup, 414€ um genau zu sein.

Ich hatte mir letzte Woche, angesichts der Preise noch die Option mit der 680 + Aftermarket cooler überlegt, aber ne ordentliche EVGA + Backplate kostet ja auch noch 530€,
dazu nochmal 30-60€ für den Kühler, da war die kleine Asus 670 schon noch die bessere Alternative.
Natürlich hätte ich lieber die Top, vom P/L her die nochmal bessere Wahl, aber ich hatte jetzt gestern auch kein Bock mehr noch länger zu warten.
In 6-8 Monaten steht eh BigK vor der Tür ...

Ich hab grad meine 560Ti nochmal ca. 15min in BF3 mit max. spielbaren Settings + Temps + Gesamtsystemverbrauch zum Vergleich auf Video festgehalten (Treiber war noch 290.53) und bau mir jetzt die 670er ein.

Ich will nur hoffen das dass Teil kein Montagsgerät ist, sonst hab ich mir den Streß mit dem Vergleichsaufbau ganz umsonst angetan. ;D

Pitman
2012-05-22, 20:25:26
Mich juckt es auch ein wenig aber dann noch Versandgebühren :(

Da warte ich wohl doch noch ein weilchen.

Grüße
Pitman

P@trick
2012-05-22, 20:36:33
Der Vergleichstest auf TH ist echt erste Sahne.Die KFA2 pfeift ja wie ein Wasserkocher:|.Die KFA2 GTX 680 LTD OC mit 3 Lüftern hätte mir auch noch gefallen,aber die paar Prozent weniger der 70 zur GTX 680 ist wahrlich nicht die Welt.
Ich glaube die Asus Top sollte,laut mancher Läden Angaben, auch die nächsten paar Tage verfügbar sein.
Bei mir verschiebt sich die Sache etwa um 2 Wochen,konnte bei den neuen Trident DDR3-2600 CL10:ucoffee: nicht nein sagen.

Peter Gräber
2012-05-22, 21:34:24
Der Vergleichstest auf TH ist echt erste Sahne.

Ich habe es nicht gelesen, aber dafür, dass es erste Sahne ist, mal ein paar Fragen: Wurde für die Lautstärkemessungen das Power Target hoch gesetzt? Wurden für die Benchmarks das Power Target hochgesetzt? Wo liegt das Power Target der Karte und was wurde tatsächlich konsumiert?

Hugo78
2012-05-22, 21:52:45
Also nach den ersten 10min BF3 auf dem gleichen Server, mit der gleichen Map, gleichen Settings, hab ich hier grad nie unter 60fps gehabt eher um die 80 und mehr, wo die 560Ti vorhin schonmal von max. 55 auf 35fps gefallen ist.
Der Boost war aber nicht ausgewöhnlich, war wie festgenagelt bei ~1080Mhz (Powertarget 100%), zumindest soweit ich das jetzt neben dem zocken beobachten konnte.

Idle Verbrauch mit einem Monitor ist in etwa gleich, oder max. 5W höher, dafür liegt der Verbrauch mit zwei TFTs mit unterschiedlicher Auflösung satte 40W niedriger.
Die 560Ti ist hier immer mit Vollspeed (vorher ~110W statt 70W idle Gesamtsystemverbrauch) gefahren, so wie alle Geforces zuvor auch.
Die Kepler taktet sich jetzt in den Low Power 2D, sehr schön.
In BF3 gabs mit der 670 sogar ein paar Watt weniger. ~ 240 statt ~250W Gesamtsystemverbrauch.

Also der erste Eindruck => die Karte rockt.
Etwas zu teuer, aber die Leistung in Verbindung mit der Kühlung und Lautstärke stimmt.

Mein Problem ist grad, ich kann die Lautstärke nicht auf Video darstellen.
Der blöde Autofokus der Kamera ist mittlerweile so laut geworden, dass der in einem ansonst stillen Raum die Aufnahme total versaut.
Kurzes Beispiel noch mit der 560ti im Rechner -> http://www.youtube.com/watch?v=rwYfYHQ6NJU&hd=1

Ich dokumentier also gern Boost, Temps und die jeweiligen Verbräuche nochmal, aber bei der Laustärke fällt das flach.

Aber wie gesagt, die Kühlung ist exzellent.
Leiser war ich mit Bastellösungen bisher auch nicht und wenn die Lüfter nicht irgendwann anfangen Nebengeräusche zuerzeugen,
werd ich seit langem nicht mehr Hand an meine aktuelle Zocker-Graka legen müssen. =)

P@trick
2012-05-22, 23:52:06
@Peter G.

Habe den Test auch nicht gelesen,bzw. bin jetzt vorhin kurz über ein paar Seiten geflogen.Nicht das ich falsch verstanden werde,ich rede rein von den Vergleichsvideos die Hugo verlinkt hat und so Lautstärkeaufnahmen finde ich,wie gesagt,sind nicht zu verachten(Keine Angst,die Sonewerte der Grafikarten auf deiner/eurer? Seite sind bei mir immer schon aktuell abgespeichert).
Nicht misverstehen,ich will dich nicht von der Seite anpampen,um ein Einblick in deren Messmehoden/verfahren zu bekommen musst du halt mal schnell ein Blick auf den Artikel werfen,ich mag jetzt nicht wiedergeben wie sie genau was oder nicht gemacht haben.

Von mir aus kann es beim Vorredner weitergehen.

MfG

Hugo78
2012-05-23, 00:18:22
Von mir aus kann es beim Vorredner weitergehen.

Mir bleibt für heute Abend nur folgendes anzumerken.
Beim ersten OC Versuch mit 122% Powertarget und + 200Mhz, also knapp unter 1300Mhz Boost,
was in etwa das Standardboosten der DirectCU2 Top wäre, hat sich das meine Non-OC nur kurz angeschaut und sich dann dagegen entschieden. :ulol:
Ich hab mich dann jetzt in einer weiteren ~30min Runde BF3 konservativer rangetastet und nach 5-10min den Boost jeweils um 20-30Mhz erhöht.
Bei 1154Mhz (Powertarget 122% + 70Mhz) war dann die Runde zuende, mehr teste ich auch erst die nächsten Tage.
Aber damit die Geschichte mit meinem Testaufbau nicht ganz umsonst war und man auch das Boost + Temperaturverhalten mal sieht,
hab ich hier noch ein 2min Zusammenschnitt erstellt => http://www.youtube.com/watch?v=cuy6UOOcjyo&hd=1

Oder kurz gesagt, Temps nicht über 75°C und der Boost verhält sich bisher wie angenagelt, die Karte bleibt dabei so leise zuvor.
Mal schauen ob ich noch auf stabile 1200Mhz komme, mit mehr würde ich bei der kleinen Asus 670 eh nicht rechnen, im Schnitt.

AffenJack
2012-05-23, 07:54:30
Ich habe es nicht gelesen, aber dafür, dass es erste Sahne ist, mal ein paar Fragen: Wurde für die Lautstärkemessungen das Power Target hoch gesetzt? Wurden für die Benchmarks das Power Target hochgesetzt? Wo liegt das Power Target der Karte und was wurde tatsächlich konsumiert?

Ich hoffe nicht, damit man die Ergebnisse nicht verfälscht wie ihr es tut. Die Karte gehört mit normalem Power-Target gebencht und nicht mit Usereingriffen. Man muss bloß aufpassen ne gewisse zeitlang Vorlauf zu geben, damit der Boost sich stabilisiert, was beim benchen allerdings bestimmt ätzend ist.
Ein Test mit erhöhtem Power Target ist als Zusatz ganz nett, aber nicht als alleinige Sache.

V2.0
2012-05-23, 08:04:47
Ich habe es nicht gelesen, aber dafür, dass es erste Sahne ist, mal ein paar Fragen: Wurde für die Lautstärkemessungen das Power Target hoch gesetzt? Wurden für die Benchmarks das Power Target hochgesetzt? Wo liegt das Power Target der Karte und was wurde tatsächlich konsumiert?

Könntet ihr beim Power Target eigentlich auch mal messen, wie sich die Karten bei 75% verhalten. Mich interessiert eben auch wie weit sich der Verbrauch senken lässt und wie weit dann der Takt fällt.

desert
2012-05-23, 08:22:29
Mir bleibt für heute Abend nur folgendes anzumerken.
Beim ersten OC Versuch mit 122% Powertarget und + 200Mhz, also knapp unter 1300Mhz Boost,
was in etwa das Standardboosten der DirectCU2 Top wäre, hat sich das meine Non-OC nur kurz angeschaut und sich dann dagegen entschieden. :ulol:
Ich hab mich dann jetzt in einer weiteren ~30min Runde BF3 konservativer rangetastet und nach 5-10min den Boost jeweils um 20-30Mhz erhöht.
Bei 1154Mhz (Powertarget 122% + 70Mhz) war dann die Runde zuende, mehr teste ich auch erst die nächsten Tage.
Aber damit die Geschichte mit meinem Testaufbau nicht ganz umsonst war und man auch das Boost + Temperaturverhalten mal sieht,
hab ich hier noch ein 2min Zusammenschnitt erstellt => http://www.youtube.com/watch?v=cuy6UOOcjyo&hd=1

Oder kurz gesagt, Temps nicht über 75°C und der Boost verhält sich bisher wie angenagelt, die Karte bleibt dabei so leise zuvor.
Mal schauen ob ich noch auf stabile 1200Mhz komme, mit mehr würde ich bei der kleinen Asus 670 eh nicht rechnen, im Schnitt.

Hmm, meine stinknormale referenz EVGA bostet mit powertarget 106% + 153 mhz auf ca. 1225 MHZ, nur der speicher ist mist, der geht nur um ca. 180 mhz nach oben. Und ganz ehrlich, raushören aus dem case kann ich sie auch nicht.

BigKid
2012-05-23, 08:46:23
Hmm, meine stinknormale referenz EVGA bostet mit powertarget 106% + 153 mhz auf ca. 1225 MHZ, nur der speicher ist mist, der geht nur um ca. 180 mhz nach oben. Und ganz ehrlich, raushören aus dem case kann ich sie auch nicht.
Das ist halt alles sehr subjektiv und keiner kennt dein Case - und ja ich weiss ich habe solche Aussagen auch schon gemacht... :redface:

Als Erfahrungswerte aus jüngerer Vergangenheit kann ich eine Gigabyte GTX460 OC, eine Gainward Phantom GTX570 und aktuelle eine Asus GTX670 DC2 und eine Asus GTX670 DC2T bieten (letztere ist gestern gekommen und muss sich nun gegen ihre "kleine" Schwester beweisen - eine geht dann zurück).

Die GTX460 war unter IDLE gut leise, unter Last deutlich rauszuhören.
Die Phantom war nach einem Biosmod (Lüfter im IDLE auf 30%) unter IDLE besser als die GTX460 und unter Last war ich zunächst zufrieden. Aber entweder haben dann die neueren Spiele die Karte stärker gefordert oder der Kühler saß wegen Materialermüdung am Ende nicht mehr so gut - sie war unter Last deutlich rauszuhören...
Die GTX670DC2 ist nun weder unter IDLE noch unter Last für mich rauszuhören. Ausnahme: stärkeres OC mit angehobenerem Power-Target unter OCCT ... Dann geht der Lüfter auch über 50% und wird ganz sanft raushöhrbar.
Zu meinem Gehäuse: Ist ein Armor+ mit 4 zusätzlichen Gehäuselüftern (runtergeregelt mit zusätzlicher Lüftersteuerung), ein Seasonic 650 Watt NT und einem Ninja 3 als CPU Lüfter. Also trotz guter Kühlleistung noch eher leise...

Ich werde mich im Laufe der Woche mit den beiden Asus Karten vergnügen - mein Ziel ist es mit deaktiviertem GPU Boost herauszubekommen wo die Grenzen der beiden Chips liegen und ob der der Top wirklich besser ist. Ich glaube persönlich, das ist mit deaktiviertem GPU Boost einfacher als mit...
Kriterium ist dabei für mich immer: Undervolt@Default-Takt (auch ohne WerksOC) - wo ist da die minimale Spannung die geht und dann noch Max OC mit Overvolt.

Peter Gräber
2012-05-23, 08:53:33
Ich hoffe nicht, damit man die Ergebnisse nicht verfälscht wie ihr es tut. Die Karte gehört mit normalem Power-Target gebencht und nicht mit Usereingriffen. Man muss bloß aufpassen ne gewisse zeitlang Vorlauf zu geben, damit der Boost sich stabilisiert, was beim benchen allerdings bestimmt ätzend ist.
Ein Test mit erhöhtem Power Target ist als Zusatz ganz nett, aber nicht als alleinige Sache.

Darum geben wir in den Tests auch beide Werte an. Grundsätzlich dürfte man aber in den meisten Fällen behaupten dürfen, dass kaum jemand etwa 400 Euro für solch eine Performance ausgibt, welche dann letzten Endes nach 10 Minuten im Spiel verpufft.

Könntet ihr beim Power Target eigentlich auch mal messen, wie sich die Karten bei 75% verhalten. Mich interessiert eben auch wie weit sich der Verbrauch senken lässt und wie weit dann der Takt fällt.

Das haben wir bei der GTX 680 getan
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index14.php

Wie du siehst, ist es grundsätzlich mehr oder minder eine Rechenaufgabe. Sobald du weißt, wo das gesetzte Power Target Default liegt, kannst du Prozentual zulegen, oder abziehen.

Hugo78
2012-05-23, 08:58:17
Hmm, meine stinknormale referenz EVGA bostet mit powertarget 106% + 153 mhz auf ca. 1225 MHZ, nur der speicher ist mist, der geht nur um ca. 180 mhz nach oben. Und ganz ehrlich, raushören aus dem case kann ich sie auch nicht.

Mehr als die +70MHz hab ich gestern nicht mehr auf Stabilität testen können, nachdem bei +200MHz schnell schluß war.
Die Ergebnissübersicht der verschiedenen 670er bei Ht4u zeigt, dass in der Tat mehr als nur 1200Mhz drin sein sollten, schauen wir mal.
http://ht4u.net/reviews/2012/gigabyte_geforce_gtx_670_oc_windforce_3_im_test/index16.php

V2.0
2012-05-23, 09:03:05
Wie du siehst, ist es grundsätzlich mehr oder minder eine Rechenaufgabe. Sobald du weißt, wo das gesetzte Power Target Default liegt, kannst du Prozentual zulegen, oder abziehen.

Das Prinzip war mir klar. Mich verwundert gerade das Verhalten meiner privaten Phantom, die bei 75%TDP immer noch konstant zwischen 1086-1115 boostet.

ameisenbaer
2012-05-23, 09:38:41
Mehr als die +70MHz hab ich gestern nicht mehr auf Stabilität testen können, nachdem bei +200MHz schnell schluß war.
Die Ergebnissübersicht der verschiedenen 670er bei Ht4u zeigt, dass in der Tat mehr als nur 1200Mhz drin sein sollten, schauen wir mal.


Was sagt denn bei GPU-Z der Sensor Mhz-Max Wert?
Bei + 70 und Speicher ordentlich übertakten boostet
meine Gigabyte laut GPU-Z Sensor bis ca. 1225...

Hugo78
2012-05-23, 09:55:50
@ameisenbaer
Dein Boost ist standardmässig auch knapp 80Mhz höher ab Werk (1058 statt 980Mhz) .
Ich werd heute nochmal mit +150Mhz testen und sollte das stabil laufen, dann Schritt für Schritt höher gehen.

AffenJack
2012-05-23, 10:01:50
Darum geben wir in den Tests auch beide Werte an. Grundsätzlich dürfte man aber in den meisten Fällen behaupten dürfen, dass kaum jemand etwa 400 Euro für solch eine Performance ausgibt, welche dann letzten Endes nach 10 Minuten im Spiel verpufft.


Ihr gebt im Text das Power Budget an, aber das wars auch schon. Bei den Benches zeigt ihr das nicht. Am besten wäre es, wenns jeweils in den Tabellen drin wäre.
Ich behaupte dagegen, dass selbst in dieser Preisklasse wohl weniger als 50% irgendwas an den Einstellungen verändern und ihr dadurch Einstellungen bencht die nur ein kleiner Anteil der User fährt. Wer schon eh was am Powertarget verändert, der hat in der Regel auch keine Probleme noch zu übertakten.

V2.0
2012-05-23, 12:02:03
Was sagt denn bei GPU-Z der Sensor Mhz-Max Wert?
Bei + 70 und Speicher ordentlich übertakten boostet
meine Gigabyte laut GPU-Z Sensor bis ca. 1225...

Meine Gainward geht ohne Übertaktung und bei 100% TDP im Boost bis 1215mhz.

Hugo78
2012-05-23, 12:12:23
@V2.0
Wo liegt dein Boost in aktuellen OCCT?

V2.0
2012-05-23, 12:37:37
Keine Ahnung, ich hatte nur Kombustor getestet. Auf Werkseinstellungen (also TDP 100% kein Offset) waren es 1150-1215. Heute Abend dürfte es bei 26°C+ im Raum sinnlos sein, einen Test zu fahren.

Raff
2012-05-23, 14:50:25
Meine Gainward geht ohne Übertaktung und bei 100% TDP im Boost bis 1215mhz.

Aber nur in den ersten Minuten. Wenn die Kiste eine Weile richtig zu tun hat, wirst du im Bereich um 1.150 MHz enden.

MfG,
Raff

SamLombardo
2012-05-23, 15:07:09
Wie protokolliert ihr denn den Verlauf des Turbotaktes während des Spielens?

Danke , Sam

V2.0
2012-05-23, 15:14:15
Aber nur in den ersten Minuten. Wenn die Kiste eine Weile richtig zu tun hat, wirst du im Bereich um 1.150 MHz enden.

MfG,
Raff

Das ist richtig. Wenn sie wärmer wird, geht sie eher nach 1150mhz.

Hugo78
2012-05-23, 19:22:07
Ich werd heute nochmal mit +150Mhz testen und sollte das stabil laufen, dann Schritt für Schritt höher gehen.

Mit +150Mhz, was 1234Mhz Boost entspricht, konnt ich jetzt ca. 1h problemlos zocken.
Mal schauen was noch geht.

BigKid
2012-05-23, 19:51:14
Hmm... Also um die beiden Asus Karten die ich grade zu Hause habe einfach zu vergleichen, wollte ich eigentlich mit OCCT ermitteln wo so die Grenzwerte liegen (also wieviel MaxTakt bei wieviel Spannung) - dazu stört mich der GPU Boost erstmal gewaltig, da er ja ganz nach Laune Spannung und Takt ändert.

Ich habe nun mal versucht diesem Guide hier zu folgen:
http://www.obr-hardware.com/2012/05/exclusive-guide-how-to-disable-gpu.html

Bringt leider irgendwie nix... Sobald ich dem OCCT Fenster den Fokus gebe, sehe ich wie irgendwas halt doch wieder dynamisch am Takt und an der Spannung dreht :(

Hat jemand eine Idee ?
Entweder greift -forcePState:0,2 nicht (die Nvidia ist laut NVInspector Karte(0)) - oder ich versteh den Guide falsch.
Die Idee ist doch die Karte in State2 zu zwingen und dann dort an der Taktschraube zu drehen...

Peter Gräber
2012-05-23, 20:13:10
@Peter G.

Habe den Test auch nicht gelesen,bzw. bin jetzt vorhin kurz über ein paar Seiten geflogen.Nicht das ich falsch verstanden werde,ich rede rein von den Vergleichsvideos die Hugo verlinkt hat und so Lautstärkeaufnahmen finde ich,wie gesagt,sind nicht zu verachten(Keine Angst,die Sonewerte der Grafikarten auf deiner/eurer? Seite sind bei mir immer schon aktuell abgespeichert).
Nicht misverstehen,ich will dich nicht von der Seite anpampen,um ein Einblick in deren Messmehoden/verfahren zu bekommen musst du halt mal schnell ein Blick auf den Artikel werfen,ich mag jetzt nicht wiedergeben wie sie genau was oder nicht gemacht haben.

Von mir aus kann es beim Vorredner weitergehen.

MfG

Hi Cro-Mags,

möchte mich erst mal für meinen gestrigen Post entschuldigen - klappte mal wieder bei den Tests über den Abend was nicht und die Laus die mir über die Leber lief, gehört hier schlicht nicht hin und hat mit deinem Beitrag nichts zu tun.

Ich habe mir jetzt mal angeschaut was THG da tat und ich kann die gezeigten "Lautstärkevideos" definitiv auch nur als hilfreiche Bereicherung erklären. Ich kann ebenfalls unterstreichen, das die auf Maximum-Wiedergabe abgespielte Darbietung sich subjektiv mit meinem Empfinden bei den Tests der entsprechenden Produkte deckt.

Ich unterstelle, dass die Messungen mit maximalem Power-Target aufgenommen wurden, dafür sprechen wiederum die Messungen der Leistungsaufnahme.

Peter Gräber
2012-05-23, 20:18:49
Hmm... Also um die beiden Asus Karten die ich grade zu Hause habe einfach zu vergleichen, wollte ich eigentlich mit OCCT ermitteln wo so die Grenzwerte liegen (also wieviel MaxTakt bei wieviel Spannung) - dazu stört mich der GPU Boost erstmal gewaltig, da er ja ganz nach Laune Spannung und Takt ändert.


Nein, es ist nicht Boost. Die Karte erreicht bei den Taktraten einfach ihr Power Target (gesetzte, maximale Leistungsaufnahme). Du kannst da nichts tun, denn über Lüfterdrehzahlen, Spannungsabzug, Taktabzug usw. versucht die Karte schlicht das Target zu halten. Wenn du das Target manuell auf Maximum gesetzt hast, bleibt es nun schlicht Spieleabhängig (je nach dem was also an Leistungsaufnahme angefordert wird), welcher Boost-Takt letzten Endes übrig bleibt.

Du kannst hier mit dem Tool versuchen etwa 30 Minuten Last zu geben. Dann sollte sich deine Spannung, Temperatur und Boost eingepegelt haben. Du bist dann am Maximum, was die Karte bei ihrem programmierten PT leisten kann.

Pitman
2012-05-23, 21:00:14
@Hugo78

Welches Tool verwendest du ?

Grüße
Pitman

BigKid
2012-05-23, 21:21:50
Nein, es ist nicht Boost. Die Karte erreicht bei den Taktraten einfach ihr Power Target (gesetzte, maximale Leistungsaufnahme). Du kannst da nichts tun, denn über Lüfterdrehzahlen, Spannungsabzug, Taktabzug usw. versucht die Karte schlicht das Target zu halten. Wenn du das Target manuell auf Maximum gesetzt hast, bleibt es nun schlicht Spieleabhängig (je nach dem was also an Leistungsaufnahme angefordert wird), welcher Boost-Takt letzten Endes übrig bleibt.

Du kannst hier mit dem Tool versuchen etwa 30 Minuten Last zu geben. Dann sollte sich deine Spannung, Temperatur und Boost eingepegelt haben. Du bist dann am Maximum, was die Karte bei ihrem programmierten PT leisten kann.
Ja sowas hatte ich mir auch hergeleitet war mir aber nicht sicher. Vielen Dank für die Antwort...
Die Frage ist nun - wie kann ich im P2 das Power-Target ändern (und die Spannung ?!?). Hat da jemand Ideen ?

Hugo78
2012-05-23, 21:38:40
@Hugo78

Welches Tool verwendest du ?

Grüße
Pitman

EVGA Precision X 3.0.2
http://www.chip.de/downloads/EVGA-Precision-X_44632238.html

Hab grad nochmal +170Mhz durch, so 3-4 Runden lang BF3 TDM, war ok.
Die dann anliegenden 1254Mhz Boost waren auch stabil.
Man sieht auch, dass die 122% Power Target in dem Fall garnicht ausgeschöpft werden.
In Spitzen sind es mal kurz 100%, ansonst ~95%.

BigKid
2012-05-23, 22:44:51
Also der GPU-Boost treibt mich noch in den Wahnsinn...

Kann mir mal jemand erklären warum der so rummzappelt ?
OCCT erzeugt durchgehend 99% GPU last...
Trotzdem zappelt der GPU Takt bei mir... Und jedesmal wenn er nach oben ausreisst stellt OCCT Fehler bei der Berechnung fest...

Beispiel:
Ich setze: -100mV, + 200 Base, 95% Power Target.
Führt dazu dass sich die Karte zwar generell bei 1037Mhz einpendelt - aber sie zuckt immer wieder ohnen ersichtlichen Grund hoch auf über 1300Mhz und genau dann registriert OCCT GPU Rechenfehler...
Das heisst eigentlich senkt der Dynamic Boost die Stabilität - so sieht es für mich aktuell zumindest aus.

Um die Sache aber noch Lustiger zu machen:
Wenn ich nun das Power Target auf 89% setze... Dann pendelt sich die Kare AUCH auf 1037Mhz ein...
Spannend wird nun in Verbindung mit der Shader Komplexität bei OCCT - bei Complexity 1 zappelt sie genauso wie mit Power Target 95% ... Ab Complexity 3 unterlässt sie dann aber plötzlich das Zappeln komplett und bleibt brav und Stabil bei 1037Mhz ?!? (Und ja bei 95% Power Target kann ich an Shader Complexity einstellen was ich will, es zappelt trotzdem und wird deshalb instabil).

Hugo78
2012-05-23, 23:03:32
@Bigkid

Lass OCCT mal allein durchlaufen.
Mit Precision X, Fraps ect. hatte ich auch Rechenfehler im OCCT, ohne gings grad 25min durch.

Wobei ich GPU-Z noch nicht probiert hab.

Und mein Boost springt nicht sonderlich, hängt bei 1084Mhz und geht ab und an mal auf 1071 runter, aber kommt dann auch wieder schnell zurück auf 1084.

BigKid
2012-05-23, 23:44:52
@Bigkid

Lass OCCT mal allein durchlaufen.
Mit Precision X, Fraps ect. hatte ich auch Rechenfehler im OCCT, ohne gings grad 25min durch.

Wobei ich GPU-Z noch nicht probiert hab.

Und mein Boost springt nicht sonderlich, hängt bei 1084Mhz und geht ab und an mal auf 1071 runter, aber kommt dann auch wieder schnell zurück auf 1084.

Er scheint hauptsächlich bei power targets < 100% zu zappeln...
Also in meinem Beispiel:
-100mV Voltage Offset, +200Mhz Base Clock, Zappeln bei ca. 90-97% Power Target. Kein Zappeln nur bei 89% und ab 98% auch wieder kein Zappeln...

Ich meine bei der Asus 670 DC2 (ohne T) nun folgende "Sweetspots" gefunden zu haben:
Mem immer +500Mhz

-100mV, PT 89%, Base +200 -> pendelt sich ein bei 900mV, 1037Mhz
-75mV, PT 110%, Base +200 -> 987mV, 1151Mhz
-62,5mV, PT 120%, Base +200 -> 1025mV, 1180Mhz
-62,5mV, PT 122%, Base +215 -> 1025mV, 1202Mhz
Und das scheint das Ende der Fahnenstange zu sein... Danach gibt Fehler...

Welchen Einfluss nun genau das Spannungsoffset überhaupt noch hat das wissen die Götter glaube ich... Denn zuletzt probierte ich dann:
-100mV, PT122%, Base+200 -> pendelte sich ein bei 1025mV und 1192Mhz
Zuletzt dann noch den Lüfter mal an anschlag -> 1037mV und 1202 Mhz

Daraus lese ich: Spannungsoffset scheint fürn Eimer zu sein und wird einfach mal ignoriert. Es zählt einzig und allein das PowerTarget und anscheinend somit auch tatsächlich die GPU Temp also die Kühllösung - auch das BaseOffset ist im Prinzip fürn Eimer solange es nicht zu hoch ist.
Dazu kommt dass der GPU Boost (anscheinend) unter 100% anfängt unberechnbar zu agieren und auf Frequenzen von über 1300Mhz zu gehen (laut NVInspector) - was zu Fehlern führen muss...
Das ist so wie es ist: MIST !

Nu Tausche ich das Ding mal gegen die DC2T... Mal sehen ob da andere Werte rauskommen...

Hugo78
2012-05-23, 23:51:57
Die Grenzen meines Speichers geh ich auch grad an.
Hatte aber erstmal nur +200 getestet, deine +500 hören sich aber vielversprechend an. :biggrin:

BigKid
2012-05-24, 09:07:00
Also ich fasse meine Erkentnisse mal zusammen (auch wenn für manche das nix neues sein dürfte)...

GPU Boost nimmt sich die Freiheit und übertaktet um das Power Target zu erreichen. Dabei passt es Spannung und Takt selbständig an - und unberrechenbar bzw ohne Obergrenze - ich habe leider in OCCT und Heaven Benchmark immer wieder gesehen wie der GPU Boost auf über 1300Mhz hoch ist - und gnau das hat dann zu Bildfehlern oder Treiber Resets geführt.

Dabei wurde das Spannungsoffset ignoriert - die Basse Clock Offset scheint aber einen Einfluss zu haben - der mir nicht ganz klar ist. Nach meinem Verständnis dürfte es doch eigentlich keinen Einfluss auf GPU Boost haben?

Das ganz hat das Vergleichen der beiden Asus Karten (Top und nicht Top) echt erschwert - aktuell macht die TOp eine schlechtere Figur - der Speicher verträg nur ca. 350Mhz Offset und der/die Lüfter sind hörbarer (sirren). Der Chip scheint auch Grundsätzlich höhere Spannung zugewiesen zu bekommen und die Karte wird daher auch heisser - besser zu "gehen" scheint sie aber nicht (vom Default mal abgesehen) aber das will ich nochmal in Ruhe verifizien. Die nicht Top ha als maximales PT 122%, die Top 117% - irgendwie fehlen mir noch Mosaiksteinchen.

Gibt es eigentlich nen Thread de sich mit dem GPU Boost beschäftigt? Die Idee fand ich nicht schlecht aber so wie es mir aktuell vorkommt scheints noch nicht ausgereift bzw verbesserungswürdig zu sein. Es scheint als würde es gerade in Situationen wo die GPU Last geringer ist plötzlich maximal hochtakten wollen und schiesst dabei übers Ziel hinaus (imho wäre hier dringend eine einstellbare Grenze nötig) und macht die Karte instabil. Auch sollte der GPU Boost das Spannungsoffset berücksichtigen auch wenn es dazu führt, dass er um das Target mit dem Spannungsoffset zu halten einen niedigeren Takt wählen muss - bei meinen Versuchsreihen scheint er das aber einfach nicht zu tun - weder nach unten, noch nach oben. Es scheint dabei aber schon etwas (ein Bios Setting) zu geben DAS er brücksichtigt, denn die mir vorliegende TOP schien grundsätzlich höhere Spannungen zu bekommen (solange möglich) als die Nicht-Top.

Gleichzeitig ist aber traditionelles OCCen erschwert bzw unmöglich geworden.

Hugo78
2012-05-24, 09:50:11
Hast du OCCT mal allein laufen lassen?

edit:
Ich hab grad nochmal mit +500MHz für den Speicher getestet und meine Lüfterhalterung mit zwei 120mm Lüftern unter die Karte gebaut.
Das die Karte in OCCT gestern abend so baller laut wurde, hat mich dann doch gestört.
Nun das brachte etwas, nicht die unhörbar leisen 46% Drehzahl als Max. wie in BF3 und Skyrim, aber nur 61% im Gegensatz zu den >80% von gestern abend.

Das eigentlich überraschende war, die Karte hatte nicht nur keine Fehler, trotz das Fraps und Precision X mitlief, sie boostete auch höher (~1189 statt 1084).

Hatte meine Cam mitlaufen lassen, leider ist der akku nach ~27min ausgestiegen, aber der Run ging eh nur 30min.
letzten 30s - http://www.youtube.com/watch?v=oOYTybyTQyE

Franconian
2012-05-24, 12:50:17
Könnt ihr mir mal erklären von was ihr da genau redet? Manuelle Übertaktung? Blicke die letzten Posts gar nicht.

Hugo78
2012-05-24, 13:00:56
BigKid übertaktet mit Unterspannung, ich dagegen lass der GPU-Boost Geschichte erstmal freien Lauf und schau wie weit die Karte stabil geht.

Franconian
2012-05-24, 13:04:02
Ah ok, jetzt. Ich dachte schon es gibt mit der Standard-Boost-Geschichte Probleme, als ich das von den Bildfehlern las.

Hugo78
2012-05-24, 13:09:08
Ich hatte ja gestern auch mal Rechenfehler in den ersten OCCT Runs, aber das erstmal auf den haufen Tools im Hintergrund geschoben.
Ohne lief die Geschichte dann wieder fehlerfrei.
Aber grad eben lief sie auch mit Tools fehlerfrei.

Warum bei BigKid der Boost so sprunghaft ist, das wird wohl am untervolten liegen.
Bei mir rennt der stehts stabil durch, von kurzen 10-20Mhz Drops mal abgesehen.

edit:
1,1V für knapp 1200Mhz im OCCT ist für sich ja auch kein schlechter Wert, was der GPU Boost da nimmt.
Für die 1254Mhz in BF3 hatte ich 1,160V.

Grad wenn ich mir die Werte der anderen bisher getesteten 670er anschaue ...
http://ht4u.net/reviews/2012/gigabyte_geforce_gtx_670_oc_windforce_3_im_test/index5.php

Ich müsste natürlich jetzt nochmal das ATiTool und Furmark installieren für einen korrekten Vergleich, aber OCCT sollte da nicht weit weg von den beiden anderen Tools sein.

Peter Gräber
2012-05-24, 13:31:50
Also ich fasse meine Erkentnisse mal zusammen (auch wenn für manche das nix neues sein dürfte)...

Dabei wurde das Spannungsoffset ignoriert - die Basse Clock Offset scheint aber einen Einfluss zu haben - der mir nicht ganz klar ist. Nach meinem Verständnis dürfte es doch eigentlich keinen Einfluss auf GPU Boost haben?

Die nicht Top ha als maximales PT 122%, die Top 117% - irgendwie fehlen mir noch Mosaiksteinchen.


Die Non-Top ist Default NVIDA PT = 140 Watt, 122 % = 180 Watt
Die Top hat ASUS in der FW verändert, PT = ca. 180 Watt, 117 % = 211 Watt

211 Watt ist meines Wissens das Maximum, was NVIDIA am PT-Erhöhung bei GTX 670 zulässt.

OC: Die Differenz vom BaseClock einer Karte zu seinem maximalen Boost wird rechnerisch noch einmal auf deine Erhöhung der Baseclock drauf gesetzt. Somit steigt natürlich der maximale Boost immer mit an, wenn du die Baseclock erhöhst.

BigKid
2012-05-24, 14:16:23
Ich habe einen eigenen Thread aufgemacht ....
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9312886#post9312886

BigKid
2012-05-24, 14:19:48
Die Non-Top ist Default NVIDA PT = 140 Watt, 122 % = 180 Watt
Die Top hat ASUS in der FW verändert, PT = ca. 180 Watt, 117 % = 211 Watt

211 Watt ist meines Wissens das Maximum, was NVIDIA am PT-Erhöhung bei GTX 670 zulässt.

OC: Die Differenz vom BaseClock einer Karte zu seinem maximalen Boost wird rechnerisch noch einmal auf deine Erhöhung der Baseclock drauf gesetzt. Somit steigt natürlich der maximale Boost immer mit an, wenn du die Baseclock erhöhst.

Wie immer vielen Dank - das ist ein weiterer Mosaikstein...
Nur: Da der GPU Boost eigentlich das eingestellte PT nicht überschreiten darf, frage ich mich warum - wenn ich EH schon am Limit bin (PT 122%) - ein weiteres anheben der BaseClock nochmal zu etwas mehr Takt zu führen scheint...
-> ich hoffe es besteht Interesse an einer Disku zu GPU-Boost - daher habe ich nen eigenen Thread aufgemacht...

BigKid
2012-05-24, 14:49:23
Ich hatte ja gestern auch mal Rechenfehler in den ersten OCCT Runs, aber das erstmal auf den haufen Tools im Hintergrund geschoben.
Ohne lief die Geschichte dann wieder fehlerfrei.
Aber grad eben lief sie auch mit Tools fehlerfrei.

Warum bei BigKid der Boost so sprunghaft ist, das wird wohl am untervolten liegen.
Bei mir rennt der stehts stabil durch, von kurzen 10-20Mhz Drops mal abgesehen.

edit:
1,1V für knapp 1200Mhz im OCCT ist für sich ja auch kein schlechter Wert, was der GPU Boost da nimmt.
Für die 1254Mhz in BF3 hatte ich 1,160V.

Grad wenn ich mir die Werte der anderen bisher getesteten 670er anschaue ...
http://ht4u.net/reviews/2012/gigabyte_geforce_gtx_670_oc_windforce_3_im_test/index5.php

Ich müsste natürlich jetzt nochmal das ATiTool und Furmark installieren für einen korrekten Vergleich, aber OCCT sollte da weit weg von den beiden anderen Tools sein.

Also wenn das Nebenherlaufen von Tools negativen Einfluss auf die Stabilität der Graka unter GPU Boost hat, dann ist das eh Wasser auf meine Mühlen...
Übrigens glaube ich aktuell NICHT dass man mit aktiven GPU Boost wirklich was an der Spannung drehen kann... Denn am Ende will GPU Boost das Power-Target erreichen und wählt anscheinend die Spannung die ihm richtig erscheint ohne sich wirklich um dein Offset zu kümmern...
Wie gesagt - ich schlage vor bei einer allgemeinen Disku zu GPU Boost "meinen" neuen Thread zu benutzen...

BigKid
2012-05-24, 16:09:08
Ah ok, jetzt. Ich dachte schon es gibt mit der Standard-Boost-Geschichte Probleme, als ich das von den Bildfehlern las.
Genau das ist aber meine These !

UPDATE: Aber vermutlich irre ich :-)

Peter Gräber
2012-05-24, 21:40:04
Genau das ist aber meine These !

UPDATE: Aber vermutlich irre ich :-)

Ja, das tust du, es ist Unsinn und darüber könnte NV keine Karten verkaufen. Denk doch simple. Vergiss mal den Basistakt und denke nur an die Spitzen. Du hast es eben mit Taktraten von 1150 bis 1300 MHz zu tun - je nach Modell. Und da hast du doch dein Limit. Eine GTX 670 taktet nicht mit 915 MHz, sie taktet eben dauerhaft deutlich höher.

BigKid
2012-05-25, 09:30:47
Ja, das tust du, es ist Unsinn und darüber könnte NV keine Karten verkaufen. Denk doch simple. Vergiss mal den Basistakt und denke nur an die Spitzen. Du hast es eben mit Taktraten von 1150 bis 1300 MHz zu tun - je nach Modell. Und da hast du doch dein Limit. Eine GTX 670 taktet nicht mit 915 MHz, sie taktet eben dauerhaft deutlich höher.

Ja - es ist eine deutliche Umgewöhnung nötig.
Basistakt kann man vergessen, Spannungsanpassung kann man vergessen.
Wenn man übertakten will dann setzt man das PT so hoch es geht und gut ist.

Aber irgendwie finde ich das unbefriedigend... Man bekommte eine Grafikkarte, die immer versucht maximal zu heitzen, dabei genau dann besonders intensiv wenn es eigentlich nicht nötig ist (GPU Last niedrig -> aktueller Verbrauch niedrig -> Takt hoch)... Und in Szenen wo es richtig zur Sache geht ist sie dann schon heiss und muss runter Takten anstatt das 10-20 Sekunden aussitzen zu können... Irgendwie kommt mir das nicht optimal vor...
Bei irgend einem Spiel konnte man letzhin einstellen wieviel FPS man maximal haben will... Diablo ? Was passiert da im Hintergrund ? Das Spiel begrenzt bei 60 fps, die GPU langweilt sich (je nach Settings) und GPU boost gibt grad erst recht so richtig Gas damit der Stromverbrauch auch ja am Anschlag ist ?
Macht das Sinn ?

V2.0
2012-05-25, 09:35:52
Der Boost berücksichtigt auch die Auslastung der GPU.

Bei 99% Auslastung ist der Boost primär abhängig von Power Target und Temp. Bei sagen wir 50% Auslastung boostet mein 670 nicht großartig. Nur wenn die Auslastung dann auf 80%+ steigt boostet sie, zuerst hoch, der Boost nimmt aber mit steigender Temp. wieder ab, wenn die Auslastung hoch bleibt und das TDP ausgeschöpft ist.

Ich finde das sehr praktisch. Bei älteren Spielen setze ich das TDP auf 75% und fertig.

BigKid
2012-05-25, 13:03:23
Der Boost berücksichtigt auch die Auslastung der GPU.

Bei 99% Auslastung ist der Boost primär abhängig von Power Target und Temp. Bei sagen wir 50% Auslastung boostet mein 670 nicht großartig. Nur wenn die Auslastung dann auf 80%+ steigt boostet sie, zuerst hoch, der Boost nimmt aber mit steigender Temp. wieder ab, wenn die Auslastung hoch bleibt und das TDP ausgeschöpft ist.

Ich finde das sehr praktisch. Bei älteren Spielen setze ich das TDP auf 75% und fertig.

Das erklärt immrnoch nicht das "gezappel" in OCCT und die Abhängigkeit von der ShaderComplexity an der Stelle...
-100mV Spannung (obwohl das ja anscheinend keinen Einfluss hat bitte übernehmen, falls das mal jemand versuchen will), Base +200, und bei PT 90%,91,92,93 ...
Base + 200 ergibt 1150 Mhz... Das sollte also eigentlich gehen... Geht es auch... Es geht wunderbar gut, bis GPU Boost einen Bedarf sieht und mal eben auf 1350Mhz hochboostet...
Vor allem, wieso sieht GPU-Boost diese "Notwendigkeit" nur unter speziellen Settings und wieso bleibt es unter anderen bleibt die Karte in OCCT mit anderen Settings konstant wie mit dem Lineal gezogen (sobald sich die Temp eingependelt hat) ?

Hugo78
2012-05-25, 13:12:22
Base + 200 ergibt 1150 Mhz...

Nein das ergibt 1284Mhz, hab ich doch schon erklärt.


915Mhz ist ja Baseclock, Minimum Boost 980Mhz und bei meiner Karte geht der Max.Boost ohne irgendwelche Erhöhungen auf 1084Mhz.
Nun und 1084 + 170 sind ebend die 1254MHz.

BigKid
2012-05-25, 13:39:51
Nein das ergibt 1284Mhz, hab ich doch schon erklärt.

Ich habe nur wiedergegeben was die Tools so anzeigen....
Bei +200 Base sagt NVInspector: Base 915 - Core 1115 und Current dann "sonstwas" und dieses sonstwas springt "unmotiviert" auf 1350...
Ich hab schon verstanden was du meinst - die Begrifflichkeiten sind halt nicht mehr so eindeutig wie früher deshalb orientiere ich mich an NVInspector...

Vielleicht habe ich ja auch Halus oder das passiert immer dann wenn die Karte kalt ist - aber um mal auf die Quelle meiner Irritationen zurück zu kommen:

Ich setze: -100mV, + 200 Base, 95% Power Target.
Führt dazu dass sich die Karte zwar generell bei 1037Mhz einpendelt - aber sie zuckt immer wieder ohnen ersichtlichen Grund hoch auf 1350Mhz und genau dann registriert OCCT GPU Rechenfehler... Ich kann hier als Complexity in OCCT einstellen was ich will - es zappelt.

Wenn ich nun das Power Target auf 89% setze... Dann pendelt sich die Karte AUCH auf 1037Mhz ein...
Bei Complexity 1 zappelt sie genauso wie mit Power Target 95% ... Ab Complexity 3 unterlässt sie dann aber plötzlich das Zappeln komplett und bleibt brav und Stabil bei 1037Mhz ?!?

So und dann kommt der Punkt wo es für mich esoterisch wird:
+0mV, +200 Base, 120% Power Target und es zappelt nix ?

Zappeln ist für mich hier vor allem ein plötzliches (unmotiviertes?) Ausschlagen des PGU Taktes nach OBEN ...
Ich kann verstehen, dass bei niedrigen PTs der limiter ab und zu runter Taktet... Aber nach oben ?

Ich habe mittlerweile Verstanden, dass ich meine BaseClock zu hoch angesetzt habe, sodaß GPU Boost so hoch (und zu hoch) Boosten darf... (Wie berechnet sich das genau ist der GPU Boost Prozentual oder Absolut? Also ist der Maxboost (X% von Base) + Offset oder ist MaxBoost X% von ( Base+Offset) oder ist er einfach mal X) - mir ist nicht klar warum es bei bestimmtem Bereichen von PTs mehr zappelt und darüber und darunter nicht (ShaderComplexity ab 3: mein Eindruck 89% PT bleibt ruhig, 90-95% zappelt, 96%+ bleibt ruhig).

UPDATE:
Mir ist klar, dass die Karte hier bereits unter dem vom mir eingetellten Takt von 1115 bleibt - (Base 915 + Offset 200 = 1115) also das PT limitiert. Nur WENN das PT limitiert. Woher dann die Ausreisser nach OBEN und wieso so Massiv (also von 1037 (runter getaktet) Sprünge auf 1350 (massiv übertaktet) macht) ? Und das in einem TOOL wie OCCT das eigentlich konstant Last gibt...
Eine weitere These zu dem Thema von mir ist: Wenn die Karte BOOSTET dann ignoriert sie das Spannungsoffset, wenn sie aber begrenzt dann berücksichtigt sie es, die Werte von Compex aus dem anderen Thread deuten darauf hin...

OgrEGT
2012-05-26, 08:01:27
Also mal ganz ehrlich, je mehr ich zum GPU Boost Feature lese, umso mehr frage ich mich was das genau bringen soll? Was bringt maximales Ausschöpfen der TDP in Fällen, wo dies aufgrund der eigentlich niedrigen Auslastung, die von der Anwendung gefordert wird keinen Sinn macht?

Da finde ich AMD's Powertune als Schutzfunktion wesentlich sinnvoller. Man bewegt sich in Lastsituationen immer an der TDP die auch wirklich gebraucht wird, also von der Anwendung angefordert wird. Powertune schreitet nur ein, wenn die maximale TDP gesprengt wird. Auch hat man dieses sinnfreie ständige Herumtakten nicht. mMn wäre Powertune kombiniert mit Framelimiter die richtige Lösung.

Bei NV hätte es gereicht, wenn man Powertarget ohne GPU Boost eingeführt hätte, bzw. GPU Boost abschaltbar wäre. Framelimiter scheint ja jetzt mit dem neuen Treiber möglich zu sein. Konnte das schon mal jemand testen?

Hugo78
2012-05-26, 08:35:58
Mir ist klar, dass die Karte hier bereits unter dem vom mir eingetellten Takt von 1115 bleibt - (Base 915 + Offset 200 = 1115)

Solang du nicht verstehen willst, dass das Quark ist, brauchst du garnicht weiter machen.

Das Offset ist das was über den Max. Boost hinausgeht (solang das Powertarget oder die Temps das zulassen) und das ist von Karte zu Karte unterschiedlich.

Im Fall der kleinen Asus liegt der Max. Boost bei 1084.
Ein Offset von + 200 sind demnach 1284Mhz.

BigKid
2012-05-26, 08:40:58
Solang du nicht verstehen willst, dass das Quark ist, brauchst du garnicht weiter machen.

Das Offset, ist das was über den Max. Boost hinausgeht und das ist von Karte zu Karte unterschiedlich.

Im Fall der kleinen Asus liergt der Max. Boost bei 1084.
Ein Offset von + 200 sind demnach 1284Mhz.
Ich spreche nicht von BoostTakt sondern vom Base-Takt.
Mein Base ist 915 mein Offset 200 (eingestellt) -> ist mein GPU(Base) Takt 1115.
Wenn der Realtakt dann bei weniger rauskommt limitiert bereits mein PowerTarget. Wenn mehr raus kommt dann boosted die Karte... Das deckt sich genau mit dem was NV Inspector anzeigt!
Es sagt Default GPU 915, GPU 1115 und Current X...
Worauf du Hinaus willst ist dass das Offset sich NUR auf den Boost und nicht auch auf die Base auswirkt das glaube aktuell noch nicht weil ich schon gegenteiliges gelesen habe - es scheint sich halt doch auf beides auszuwirken...

Hugo78
2012-05-26, 09:12:59
Du kannst die Base von 915MHz nicht verändern...

BigKid
2012-05-26, 09:16:32
Woher nehmt ihr das ?

Ich beziehe mich auf nvinspector:
http://http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42882&stc=1&d=1338016485

Ich setzte das Offset auf +175, die GPU Clock wird dann mit 1090 Angezeigt (was genau Default+Offset ist) und die Current Clock macht dann was GPU Boost will...

Und z.B. auf:
http://www.hartware.de/review_1482_3.html
Stattdessen wird das "GPU Clock Offset" erhöht, der Bereich, in dem sich der von "GPU Boost" gesteuerte Chiptakt bewegt. In der Praxis läuft letzteres aber dann doch auf die Anhebung des "Base Clocks" hinaus, nur die "Boost Clock" wird nicht festgelegt

Hugo78
2012-05-26, 09:28:52
Wozu sollte Nvidia den Baseclock veränderlich machen, wenn der Boost die veränderliche Größe ist?

Lad dir mal Precision X (6,3mb), probiers aus.
http://www.chip.de/downloads/EVGA-Precision-X_44632238.html

Das im nvinspector jetzt von Base Clock Offset die rede ist, ist ganz offenbar ein Missverständnis.

edit:
Nochmal ein Videobeispiel von mir dazu.
http://www.youtube.com/watch?v=eqMJUkWwsmI

Deinorius
2012-05-26, 15:35:02
Hat hier schon jemand das Verhalten vom Boost bei aktivem Frame Limiter getestet? (Falls übersehen.)

Peter Gräber
2012-05-27, 09:42:31
Wozu sollte Nvidia den Baseclock veränderlich machen, wenn der Boost die veränderliche Größe ist?

Lad dir mal Precision X (6,3mb), probiers aus.
http://www.chip.de/downloads/EVGA-Precision-X_44632238.html

Das im nvinspector jetzt von Base Clock Offset die rede ist, ist ganz offenbar ein Missverständnis.

edit:
Nochmal ein Videobeispiel von mir dazu.
http://www.youtube.com/watch?v=eqMJUkWwsmI

Nur weil das EVGA-Tool keine passende Anzeige dafür hat, heißt es doch nicht, dass die anderen Tools etwas falsches anzeigen. Es gibt letzten Endes nur zwei größen: die Base-Clock und der maximale Boost einer Grafikkarte (unterschiedlich von Chip zu Chip).

Die Boost-Angabe von NVIDIA ist zudem unnütz, weil es nur einen Richtwert darstellt, was der Hersteller im Mittel an Taktzulage erwartet. War dies bei der GTX 680 noch als zutreffend zu messen, erscheint es bei den GTX-670-Modellen immer höher als 980 MHz zu liegen. Also sollte man diesen Wert einfach ausblenden.

Ich sehe das genauso wie BigKid. Gibst du 200 MHz Plus auf das Offset, hebst du die Base-Clock mit an und exakt um diesen Wert steigert sich dann auch der maximale Boost der Karte.

--

Also mal ganz ehrlich, je mehr ich zum GPU Boost Feature lese, umso mehr frage ich mich was das genau bringen soll? Was bringt maximales Ausschöpfen der TDP in Fällen, wo dies aufgrund der eigentlich niedrigen Auslastung, die von der Anwendung gefordert wird keinen Sinn macht?

Berechtigte Frage, welche ich mir nach meinen Tests auch gestellt und an NVIDIA weitergegeben habe. Kommentiert hat man das aber nicht.

Im Grundsatz hat man es bei den aktuellen NV-GPUs dann eben nicht mehr mit Karten zu tun, welche einen festen Grundtakt haben, auch wenn ein solcher genannt wird. In der Realität hat man es z.B. bei einer GTX 670 da mit Taktraten von bis zu 1100 MHz zu tun und daher nimmt man dann auch die Performance. Gleichzeitig hat man eben durch diese Angaben auch die Option im Falle von schlechter Ausbeute diese Chips noch immer als GTX 670 zu verkaufen.

CompEx
2012-05-27, 09:50:36
Zum Sinn des Ausschöpfens der TDP noch eine Anmerkung: die TDP wird ja nicht immer ausgeschöpft. Bei V-Sync und dem Frame-Limiter kann man sich auch deutlich unterhalb der TDP bewegen.

Hugo78
2012-05-27, 11:21:21
Die Boost-Angabe von NVIDIA ist zudem unnütz, weil es nur einen Richtwert darstellt, was der Hersteller im Mittel an Taktzulage erwartet.

Nicht im Mittel, es ist der Minimum Boost, mit dem man rechnen darf, alles darüber ist abhänig von der Karte.


Ich sehe das genauso wie BigKid. Gibst du 200 MHz Plus auf das Offset, hebst du die Base-Clock mit an

ok ...


und exakt um diesen Wert steigert sich dann auch der maximale Boost der Karte.

... dann siehst du es aber ebend nicht genau so.
BigKid war sich nie darüber im klaren war das er auch den Boost anhebt und wunderte sich dann, dass er Abstürze hat.

Und solang es nicht bestätigt ist, bleib ich dabei, dass es keinen Sinn ergibt und nicht möglich ist den Base Clock zuverändern.
Der Base ist das was übrig bleibt, wenn die Karte unter Last und ohne Blick auf die TDP nur noch von der Temperatur ausgebrembst werden kann.

Wenn man dies verändern könnte, dürfte NV gar kein Software OC zulassen, weil sie nicht garantieren können, dass die Karte dann nicht doch abraucht.
Software OC kannst du nur dann als offizielles Feature anbieten, wenn du zu jeder Zeit dieses OC auch abhänig von der TDP und Auslastung fährst.

Genau das ist der Boost.

BigKid
2012-05-28, 08:58:41
... dann siehst du es aber ebend nicht genau so.
BigKid war sich nie darüber im klaren war das er auch den Boost anhebt und wunderte sich dann, dass er Abstürze hat.

Genau das ist der Boost.
Nein... Mir war nicht klar dass der Boost so hoch ist und durchs anheben des Base noch weiter hoch geht - und das hatte sich seit Peters erstem Post erledigt... Also etwa vor 3-4 Tagen... Ich hab mich eventuell aber nicht verständlich Ausgedrückt...

Ich wundere mich seit dem nur darüber, dass die Karte bei einen Tool das konstante Last erzeugt und bei dem die Karte offensichtlich durch das gewählte PT begrenzt und runtertaktet plötzlich Aussreiser in Richtung Maximalboost hat.
Und dass dieses Verhalten je nach gewähltem PT Abhängigkeit von der ShaderComplexity hat...
Also Setting zB. PT90, Base+200, Spannung -100 und OCCT - die Karte geht auf 1037 tatsächliche Taktrate und dann zuckts alle paar Sekunden für ne Sekunde hoch auf 13xxMhz - und DAS finde ich seltsam... Das Zucken - nicht dass es dann zu Problemen kommt...


(Und darüber das DU versucht hast MIR zu erklären dass man die Base nicht anhebn kann)


Anmerkung am Rande: Mein Kärtchen macht mir ansonsten Freude und scheint immer besser zu werden - das hatte ich bei meiner GTX460 auch schon mal... Einbrennen?
Aktuell ist sie in WOW, Diablo3 und Risen 2 mit folgenden Settings Stabil:
-100mV, Base +175, Mem +575 - und Taktet dabei zB in Risen fröhlich mit 1320Mhz

OgrEGT
2012-05-28, 09:05:07
Berechtigte Frage, welche ich mir nach meinen Tests auch gestellt und an NVIDIA weitergegeben habe. Kommentiert hat man das aber nicht.


Mal davon abgesehen, dass dieses "Feature" wohl einiges an Entwicklung der Steuerlogik gekostet haben dürfte. Von der Validierung der Chips und der fertigen Karten ganz zu schweigen. mMn ist es nur ein Marketing-Gag um mit hohen GPU Taktraten glänzen zu können.

Zum Sinn des Ausschöpfens der TDP noch eine Anmerkung: die TDP wird ja nicht immer ausgeschöpft. Bei V-Sync und dem Frame-Limiter kann man sich auch deutlich unterhalb der TDP bewegen.

So wie ich GPU Boost verstanden habe eben doch. Die relevante Größe ist immer das Powertarget, welches mittels Boost Clock und Spannungserhöhung ausgereizt wird, sofern eine Lastsituation vorliegt. Wenn natürlcih gar keine, oder sehr wenig Last anliegt, dann greifen primär die Idle Powerstates, und die GPU wird nicht bis zum Powertarget getaktet.

Das meinte ich auch in meinem Post weiter oben, dass das sinnvollere Feature der Frame Limiter ist, gerade dann, wenn man das mit AMD's Powertune als Schutzfunktion verbinden würde. Das würde ein Ausreizen der TDP in den Fällen zulassen, in denen diese Last benötigt wird, in den Fällen, wo dies nicht nötig ist, also auch von der Anwendung nicht gefordert wird, können Resourcen gespart werden.

Hugo78
2012-05-28, 09:56:46
Wenn ich per Nvidia Inspector übertakte, verändert sich der ausgelesene Base weder in GPU-Z noch im EVGA Precision X.
Ich hab GPU-Z & EVGA Precision X, mehrfach neu geladen, nachdem ich die Änderungen im Inspector getätigt hatte.
Ergo => der Base ist nicht veränderlich.

http://www10.pic-upload.de/28.05.12/3tpijpv8z5.jpg (http://www.pic-upload.de/view-14389643/base-boost.jpg.html)

Und noch ein Bild zum Nachdenken.
549MHz soll also einmal Base und einmal Boost sein? Never.
http://www10.pic-upload.de/28.05.12/aylgo3o2bj.jpg (http://www.pic-upload.de/view-14389763/offset--001.jpg.html)

BigKid
2012-05-28, 10:50:24
Wenn ich per Nvidia Inspector übertakte, verändert sich der ausgelesene Base weder in GPU-Z noch im EVGA Precision X.
Ich hab GPU-Z & EVGA Precision X, mehrfach neu geladen, nachdem ich die Änderungen im Inspector getätigt hatte.
Ergo => der Base ist nicht veränderlich.

http://www10.pic-upload.de/28.05.12/3tpijpv8z5.jpg (http://www.pic-upload.de/view-14389643/base-boost.jpg.html)

Und noch ein Bild zum Nachdenken.
549MHz soll also einmal Base und einmal Boost sein? Never.
http://www10.pic-upload.de/28.05.12/aylgo3o2bj.jpg (http://www.pic-upload.de/view-14389763/offset--001.jpg.html)
Ich versteh dich grade nicht... Es ist in keinem deiner Bilder von Boost die Rede... Und auch von uns hat keiner gesagt, dass man irgendwo den Boost einstellen kann... Der ist fix, es scheinen absolut X Mhz zu sein (mit absolut meine ich, dass es ein fester Wert ist und sich nicht irgendwie prozentual berechnet).
Das eine Tool nennt es GPU Clock Offset und das andere Base Clock Offset... Ja und ?
An keiner Stelle ist von Boost die rede... Den Boost kannst du nicht beeinflussen der Boost ist fix... X Mhz (solange die Karte innerhalb ihres Power Targets bleibt).
Dein Maximaltakt ist also GPU Default + GPU Offset + Boost ...

Das zeigt auch derTeil von NVINspector den du weggeschnitten hast ;)
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42882&d=1338016485
Base Offset 175 Mhz
Default Default 915
GPU Clock: 1090 (Default + Offset)
Current Clock: gerade anliegender Takt (Core + Boost <= PowerTarget)

Im übrigen reden wir hier aneinander vorbei glaube ich...
Die Aussage von Peter und z.B. hartware.de ist. dass ein Drehen an dem Mhz-Offeset (egal wie man es nennt) effektiv auf ein Anheben der Base hinausläuft (auf die dann trotzdem noch ein fester Boost von X Mhz drauf kommt). Dass ein Tool dass als Base Clock die Default Clock anzeigt nicht auf den Offset reagiert ist irgendwo klar. Ändert aber nix an der Aussage, dass du effektiv durch ein anheben des Offsets im Prinzip deine Base Clock anhebst und dem Boost damit eine höhere Absprungbasis gibst, was am Ende zu höheren Maximaltaktraten unter Boost führt.

Peter Gräber
2012-05-28, 11:21:27
Nicht im Mittel, es ist der Minimum Boost, mit dem man rechnen darf, alles darüber ist abhänig von der Karte.


Nope - Zitat NVIDIA:

"The “Boost Clock” is the average clock frequency the GPU will run under load in many typical non-TDP apps that require less GPU power consumption. On average, the typical Boost Clock provided by GPU Boost in GeForce GTX 680 is 1058MHz, an improvement of just over 5%. The Boost Clock is a typical clock level achieved running a typical game in a typical environment.

However, in many cases the GPU will have additional power headroom available and will automatically increase the Boost Clock even higher than 1058MHz. As long as the GPU remains under its power target, GPU Boost will seamlessly increase the GPU Clock: clock speeds of 1.1GHz or higher have been observed internally in testing various non-TDP apps."

Und bezüglich der BaseClock "Anhebung" glaube ich Recht zu haben. Ich meine mich zu erinnern, dass das OnScreen-Display beim OC eben nicht unter den erhöhten Wert fiel. Aber das schaue ich mir noch mal an.

Hugo78
2012-05-28, 13:08:25
@BigKid

Also ist dir klar, dass egal was du machts, der Boost aka Taktautomatik immer und zu jeder Zeit greift?

Ich versuch es nochmal anders.
Der Base von 915MHz ist nur ein erster High Power State, für die ersten paar Sekunden.
Eine Zeit in dem die Taktautomatik sich Zeit nehmen kann, zu schauen wohin sie den Takt nachregelt.

Jetzt den Leuten zuerzählen, man könne den Base verändern und den Boost dabei abregeln,
also letztlich klassisch übertakten, ist verbreiten von gefährlichen Halbwissen.

Denn die 915Mhz werden nicht verändert, man erweitert zu jeder Zeit, nur das obere Limit für die Automatik aka Boost aka GPU Clock.

Und was hab ich abgeschnitten?
Darunter kommt nur das Powertarget, dass ist aber nicht der Boost, dass ist nur eine Variable für den Spielraum, den die Automatik zur Berechnung, ihrer Regelung hat.

@Peter Gräber

Das mit von wegen "average clock" hatte ich anfangs auch gelesen, aber Marc meinte darauf es sei zu jeder Zeit das Minimum.
Und in der Tat gibt es keine 680 und 670, die unter ihrer Boostangabe bzw. zwischen Base und Boost, taktet.
Nur immer drüber.

Nvidias PR scheint hier eine Aussage getätigt zuhaben, die einfach nur auf Nummer sicher ging.

BigKid
2012-05-28, 13:34:34
@BigKid
Also ist dir klar, dass egal was du machts, der Boost aka Taktautomatik immer und zu jeder Zeit greift?

Solange du nicht ins PowerTarget als Limit reinläufst ? Ja das ist mir klar - wie gesagt bereits seit Peters erster Antwort...


Ich versuch es nochmal anders.
Der Base von 915MHz ist nur ein erster High Power State, für die ersten paar Sekunden.
Eine Zeit in dem die Taktautomatik sich Zeit nehmen kann, zu schauen wohin sie den Takt nachregelt.

Jetzt den Leuten zuerzählen, man könne den Base verändern und den Boost dabei abregeln,
also letztlich klassisch übertakten, ist verbreiten von gefährlichen Halbwissen.

Ich erzähle den Leuten garnichts... Ich habe meine Beobachtungen wieder gegeben... Und etwas in der Art habe ich NICHT behauptet...
Ich habe und das sage ich jetzt zum letzten mal folgende Boabachtung gemacht:
Wenn man versucht den Boost über RUNTERSETZEN des Powertargets zu zügeln, dann sieht man unter Tools die KONSTANT Last gebeb ein seltsames Verhalten. Die Karte taktet nämlich tatsächlich runter um das gesetzte Power Target zu halten (was zu erwarten ist und richtig) ABER der GPUBOOST haut (scheinbar willkührlich) immer wieder für ne Sekunde den MAXBOOST rein... Ich habe die Settings unter denen das passiert nun schon oft genug genannt und NEIN das sind NICHT die Settings unter denen ich eine Karte verwenden würde...


Denn die 915Mhz werden nicht verändert, man erweitert zu jeder Zeit, nur das obere Limit für die Automatik aka Boost aka GPU Clock.

Das ist eigentlich Haarspalterei weil die Wirkung letzlich die Selbe ist... Ich bin der Meinung letzlich setzt NVIDIA den Basistakt um dein Offset hoch und der Boost kommt wie gehabt oben drauf...
Nehmen wir mal an der Boost ist 100Mhz (ich bin jetzt zu Faul nachzuforschen wie hoch er tatsächlich ist)...
Default ist 915... Ich gebe ein Offset von 100 drauf und hebe den Basistakt der Karte damit auf 1015... Da oben drauf boostet die Karte dann nochmal mit bis zu 100Mhz -> 1115 Mhz Maximaltakt.
Hebe ich die Karte mit einem Offset von 200Mhz dann ist der Grundtakt bei 1115 und der Boost bringt sie dann auf bis zu 1215...
UND nur zur Sichherheit ... 100Mhz Boost habe ich jetzt aus der Luft gegriffen weil ich zu Faul bin Nachzugucken... Es scheinen real mehr als 200Mhz zu sein...


Und was hab ich abgeschnitten?
Darunter kommt nur das Powertarget, dass ist aber nicht der Boost, dass ist nur eine Variable für den Spielraum, den die Automatik zur Berechnung, ihrer Regelung hat.

Du hast den Teil abgschnitten den ich zitiert habe (siehe meinen letzten Post) - den Teil wo NVInspector die Freqzenzen links unten anzeigt...

Peter Gräber
2012-05-28, 13:52:37
@BigKid
@Peter Gräber

Das mit von wegen "average clock" hatte ich anfangs auch gelesen, aber Marc meinte darauf es sei zu jeder Zeit das Minimum.
Und in der Tat gibt es keine 680 und 670, die unter ihrer Boostangabe bzw. zwischen Base und Boost, taktet.
Nur immer drüber.

Nvidias PR scheint hier eine Aussage getätigt zuhaben, die einfach nur auf Nummer sicher ging.

^^
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php

Hugo78
2012-05-28, 14:32:55
@Peter Gräber
Ok dann stimmt das bei den 680er doch mit dem average.

@BigKid

Der Boost ist nicht willkürlich, du muss nur vorher erstmal schauen, wo die Karte @default, also ohne Veränderungen hinboostet, wenn das Powertarget noch nicht ausgeschöpft wird.

Ich hatte das auch schon im Video dargestellt mit der HDR Demo, der nur ~90% der TDP @default nutzt.
http://www.youtube.com/watch?v=eqMJUkWwsmI&t=27s

Hier geht meine Karte auf 1084MHz und wie man sieht taktet sie 1:1 um das drauf, was ich ihr als erweiterten Boost zugestehe, solang die TDP nicht ausgeschöpft ist.

BigKid
2012-05-28, 22:45:12
@Peter Gräber
Ok dann stimmt das bei den 680er doch mit dem average.

@BigKid

Der Boost ist nicht willkürlich, du muss nur vorher erstmal schauen, wo die Karte @default, also ohne Veränderungen hinboostet, wenn das Powertarget noch nicht ausgeschöpft wird.

Ich hatte das auch schon im Video dargestellt mit der HDR Demo, der nur ~90% der TDP @default nutzt.
http://www.youtube.com/watch?v=eqMJUkWwsmI&t=27s

Hier geht meine Karte auf 1084MHz und wie man sieht taktet sie 1:1 um das drauf, was ich ihr als erweiterten Boost zugestehe, solang die TDP nicht ausgeschöpft ist.
Lies meine Posts nochmal bitte - ich schrieb nirgends dass er in eine willkürliche Höhe Boosted...
Ich wundere mich darüber dass er es willkührlich (Zeitpunkt) tut...

Ich beschrieb schon mehrfach folgendes: Die Last ist Konstant (occt), die Karte schon lange begrenzt durch das Powertarget (zB 90%) und trotzdem bekommt GPUBoost zuckungen und geht immer wieder für ne Sekunde auf Maxboost... Und DAS finde ich seltsam, nicht die höhe (die gebe ich ja indirekt vor) zu der er boosted sondern dass er es überhaupt tut - unregelmäßig und scheinbar zufällig...

Ich glaube jetzt langsam fast du WILLST mich Missverstehen und gebe es auf...

HarryHirsch
2012-05-28, 23:06:11
Lies meine Posts nochmal bitte - ich schrieb nirgends dass er in eine willkürliche Höhe Boosted...
Ich wundere mich darüber dass er es willkührlich (Zeitpunkt) tut...

Ich beschrieb schon mehrfach folgendes: Die Last ist Konstant (occt), die Karte schon lange begrenzt durch das Powertarget (zB 90%) und trotzdem bekommt GPUBoost zuckungen und geht immer wieder für ne Sekunde auf Maxboost... Und DAS finde ich seltsam, nicht die höhe (die gebe ich ja indirekt vor) zu der er boosted sondern dass er es überhaupt tut - unregelmäßig und scheinbar zufällig...

Ich glaube jetzt langsam fast du WILLST mich Missverstehen und gebe es auf...

was erwartest du auch von nem abgefuckten fanboy?
es kann ja gar nicht sein das die karte dank bescheidenen powertarget hoch und runter takted!
die gpu könnte sicher mehr mhz raushauen nur wurde sie ja leider zum stromsparen verdonnert.
ich will so ein teil mit 2x8 pcie-anschlüssen sehen.

Hugo78
2012-05-29, 01:56:07
@BigKid
Wenn man das PT auf 90% begrenzt und gleichzeitig dem Boost knapp 1300Mhz Freiraum lässt, wird er immer mal kurz auf knapp 1300MHz boosten.
Weil selbst diese 90% nicht zu jeder Zeit ausgeschöpft werden, und die Logik dann anfängt mit boosten.

@harryhirsch
Deine Beleidigungen sind Ausdruck deiner Unfähigkeit substantiell etwas zum Thema beizutragen.

Ich habe hier schon mehrfach Beispiele gebracht wie der Boost funktioniert.
Da "zapelt" nichts, mal abgesehen von +/-20MHz.
- http://www.youtube.com/watch?v=fpz6NDj4OMU
- http://www.youtube.com/watch?v=cuy6UOOcjyo
- http://www.youtube.com/watch?v=eqMJUkWwsmI

V2.0
2012-05-29, 07:00:48
So schwer ist das nicht.

Es gilt 5 Parameter zu berücksichtigen.

Power Target als Vorgabe
Boost
Temp.
Auslastung
reales genutzetes Power Target

Der Boost bleibt erst fix wenn:

Temp = konstant
Auslastung = 99% konstant
eingestelltes Power Target = genutztes Power Target

Da dies in Praxis kaum zu machen ist, gibt es immer leichte Veränderungen im Boost, die aber in Abhängigkeit von der Konstanz der Eingangsparameter sehr gering sind. Bei meiner sehe ich z.B. beim kostanter Temp. und 99% Last Bewegungen von wenigen Mhz (maximal 15Mhz) wenn ich nahe am Power Target fahre. Je höher das Power Target eingestellt ist, desto größer die Bewegung was sich aber laut Precision auch in der realen TDP Nutzung zeigt, die eben stellenweise unter 100% fällt, was mit Hochtakten beantwortet wird.

BigKid
2012-05-29, 07:37:29
Der Boost bleibt erst fix wenn:

Temp = konstant
Auslastung = 99% konstant
eingestelltes Power Target = genutztes Power Target

Da dies in Praxis kaum zu machen ist, gibt es immer leichte Veränderungen im Boost, die aber in Abhängigkeit von der Konstanz der Eingangsparameter sehr gering sind. Bei meiner sehe ich z.B. beim kostanter Temp. und 99% Last Bewegungen von wenigen Mhz (maximal 15Mhz) wenn ich nahe am Power Target fahre. Je höher das Power Target eingestellt ist, desto größer die Bewegung was sich aber laut Precision auch in der realen TDP Nutzung zeigt, die eben stellenweise unter 100% fällt, was mit Hochtakten beantwortet wird.

Seit wann ist OCCT die Praxis? Das ist ein synthetischer Test der die Auslastung geziehlt konstant an den Anschlag bringt...

Aber gut hier mal ein Screenshot (etwa 1-2 Minuten Last)
- Konstante Auslastung (siehe GPU Load)
- Karte sollte eigentlich konstant durch das Powertarget limitiert sein
- GPU Boost "spinnt" aber anscheinend rum... (siehe GPU Clock und GPU Spannung)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42878&stc=1&d=1337978005

V2.0
2012-05-29, 08:10:52
Versuch doch mal einen anderen Test, 3DMark-Loop oder Kombustor. In diesen Tests verhält sich meine Karte wie ich beschrieben habe.

BigKid
2012-05-29, 09:28:03
Versuch doch mal einen anderen Test, 3DMark-Loop oder Kombustor. In diesen Tests verhält sich meine Karte wie ich beschrieben habe.
Wieso sollte ich ein Tool suchen, bei dem das NICHT so ist, wenn mich interessiert WARUM es so ist ;D
Ausserdem interessierte mich noch ob andere diesen Effekt in dieser Konstellation auch haben oder ob meine Karte einen Hau hat...

Wie gesagt... Ich habe mittlerweile ja gute Settings gefunden...
Offset +175 bis +185Mhz (seit 2 Tage letzteres), Spannung -100mV, PowerTarget 122%, Speicher +585MHz
Ich hatte mit diesen Settings noch nicht einen Absturz in einem Spiel... (Eventuell versuche ich mal noch Crysis2 - das war immer noch ein guter Stabilitätstest...)

N0Thing
2012-05-29, 09:35:22
Aber gut hier mal ein Screenshot (etwa 1-2 Minuten Last)
- Konstante Auslastung (siehe GPU Load)
- Karte sollte eigentlich konstant durch das Powertarget limitiert sein
- GPU Boost "spinnt" aber anscheinend rum... (siehe GPU Clock und GPU Spannung)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42878&stc=1&d=1337978005

Wie man an deinem Bild sehen kann, ist die Auslastung der GPU nicht konstant. Die Stellen an denen der Boost einsetzt, passen teilweise recht gut zu den kleinen Schwankungen bei der GPU-Auslastung.

BigKid
2012-05-29, 09:49:41
Wie man an deinem Bild sehen kann, ist die Auslastung der GPU nicht konstant. Die Stellen an denen der Boost einsetzt, passen teilweise recht gut zu den kleinen Schwankungen bei der GPU-Auslastung.
Nein... Tun sie nicht... Sorry... Die kleinen Dellen oben in der GPU Auslastung passen meistens nicht mal mit gutem Willen (imho). Und auch wenn es so wäre erklärt das nicht warum der Boost dann sofort bis zum ANSCHLAG geht nur um ne Sekunde später schon wieder zu drosseln... Die Last geht grade mal kurz 1% nach unten - von 99% auf 98% - ich würde das immernoch als Konstant bezeichnen ;)

Peter Gräber
2012-06-02, 16:25:19
@ Hugo78

So, ich hatte jetzt noch einmal ein wenig Zeit zu probieren bezüglich des Baseclock.

Ich bin weiterhin der Ansicht, dass der NVIDIA Inspector das schon korrekt anzeigt. Ich habe bei einer GTX 680 die Lüfterdrehzahl auf 45 Prozent festgesetzt und den Takt um 60 MHz angehoben. Power Target ließ ich auf 100 Prozent.

Im Resultat sackte die Karte dann bei Temperaturen über 92 Prozent auf höchstens 1065,79 MHz ab (also 1006 + 60 MHz) und versuchte weiterhin auf 1080 MHz zu boosten.

Kritisch wurde es dann bei erreichen von 98 °C. Da fiel der Takt laut Logfile dann von den oben genannten 1065,79 MHz auf 572 MHz herunter.

Ergo gehe ich weiterhin davon aus, dass meine Aussage, auch im GTX 680 Artikel so getroffen, korrekt ist, dass du beim Übertakten ebenfalls die Baseclock anhebst.

Hugo78
2012-06-02, 17:15:01
Ich habs ebend mit dem "rthdribl" Tool als Belastungstest probiert, weil das Teil die Temps nur langsam ansteigen lässt, will ja meine Karte nicht gleich schrotten.
Nun und "leider" rennt meine 670 stur mit dem 1110MHz Turbo bis 98°C durch.
Hatte +40MHz laufen (default Base 915Mhz, default Boost 1084Mhz ), was in 1110Mhz endete.

Erst bei 98°C ist sie dann auf 555MHz gefallen.
So kann ich deinen Test natürlich nicht reproduzieren, meine Asus boostet scheinbar bis zur Kotzgrenze. :ulol:

Ausschnitt vom Logfile:
Spalte C=Auslastung, D=GPU-Clock, E=Temps, F=Fanlevel
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42959&d=1338649792

edit:
http://www.youtube.com/watch?v=M-vBhwpF9MY

Hugo78
2012-06-04, 17:57:43
Idle Verbrauch mit einem Monitor ist in etwa gleich, oder max. 5W höher, dafür liegt der Verbrauch mit zwei TFTs mit unterschiedlicher Auflösung satte 40W niedriger.
Die 560Ti ist hier immer mit Vollspeed (vorher ~110W statt 70W idle Gesamtsystemverbrauch) gefahren, so wie alle Geforces zuvor auch.
Die Kepler taktet sich jetzt in den Low Power 2D, sehr schön.

Ht4u bestätigt dies nochmal:
Neuer NVIDIA-Treiber für GTX 680 und GTX 670 halbiert Leistungaufnahme im Multi-Monitor-Betrieb
http://ht4u.net/news/25600_neuer_nvidia_treiber_fuer_gtx_680_und_gtx_670_halbiert_leistungsaufnahme/

Knuddelbearli
2012-06-04, 19:42:20
hmm super

dann kann ich doch endlich mit meiner 480 auf multimonitor setzen *freu*

über 100W waren mir bisher einfach zuviel

aber wie wollen die bei der 680 bitte den verbrauch halbieren? die hatte doch schon nur mehr ca 16W

Hugo78
2012-06-04, 20:03:24
Nicht der Idle selbst wird halbiert, sondern die (Kepler only?!) Geforces gehen jetzt auch in den idle, wenn man mehrere Monitore, bei unterschiedlichen Auflösungen betreibt.

Bisher sind die Geforces nur bei Betrieb mit identischen Auflösungen in den Idle gegangen.
Mit unterschiedlichen Auflösungen lag bisher immer der "2D performance" Powerstate, also der Speed zwischen Idle und Last an.

Knuddelbearli
2012-06-04, 20:31:46
Nicht der Idle selbst wird halbiert, sondern die (Kepler only?!) Geforces gehen jetzt auch in den idle, wenn man mehrere Monitore, bei unterschiedlichen Auflösungen betreibt.



Neuer NVIDIA-Treiber für GTX 680 und GTX 670 halbiert Leistungaufnahme im Multi-Monitor-Betrieb

ähm ja ^^

Hugo78
2012-06-04, 20:42:07
Ich habs jetzt noch nicht mit meiner 560ti probiert und bei ht4u geht nicht eindeutig hervor ob das wirklich nur bei Kepler funst.

Knuddelbearli
2012-06-04, 20:48:12
ah sorry glaube wir haben uns beide missverstanden ^^ mit idle meinte ich natürlich den mutlimonitor idle

der nromale idle würde hier ja keinen sinn ergeben in dem post von mir ^^

Deinorius
2012-06-04, 23:39:14
Ich habs jetzt noch nicht mit meiner 560ti probiert und bei ht4u geht nicht eindeutig hervor ob das wirklich nur bei Kepler funst.


In den Kommentaren findet sich einer, dessen GTX 5xx Karte angeblich runtertaktet. Also nicht nur Kepler.

Peter Gräber
2012-06-06, 08:53:13
Steht eigentlich alles im Text der Nachricht, aber dann noch einmal:

Beim Betrieb 2er identischer Monitore mit gleicher Auflösung und gleichen Timings ging bereits die GTX-500-Serie auf Idle-Taktraten. Beim Betrieb unterschiedlicher Monitore / Auflösung gingen die Karten in einen dafür vorgesehenen Power State, der im BIOS hinterlegt war. Die Karten takteten höher und hatten mehr Spannung.

So sollte das laut Reviewers Guide auch bei der GTX 600 sein und die GTX 680 verhielt sich zu Beginn auch so: 549 MHz GPU und 1502 MHz Speichertakt.

Mit den neuen Treiber kann die GTX 600-Reihe nun aber auch bei unterschiedlichen Monitoren in den Idle-Takt absenken, was die Leistungsaufnahme halbiert.

Unsere Feststellungen wurden gestern auch von NVIDIA offiziell bestätigt.

Iruwen
2012-06-07, 16:50:25
Die Verfügbarkeit der Asus DC2T ist ja immer noch ziemlich beschissen.

BigKid
2012-06-10, 19:26:49
Die Verfügbarkeit der Asus DC2T ist ja immer noch ziemlich beschissen.
Alternate sollte demnächst eine haben ;)

Hugo78
2012-06-10, 22:49:05
Die Verfügbarkeit der Asus DC2T ist ja immer noch ziemlich beschissen.

Im Grunde auch egal, meine kleine Asus macht 1250-1270Mhz, die "Top" nur nochmal 70-90Mhz mehr.
Das sind je nach Spiel, keine 5fps mehr, wenn überhaupt.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-670/11/

Knuddelbearli
2012-06-10, 23:10:43
das ist mehr als der unterschied zwischen 680 und 7970 ^^

Hugo78
2012-06-10, 23:28:44
Hä?! :freak:

Je nach Spiel liegen zwischen 680 und 7970 entweder Welten oder auch nur ein Hauch.
Für BF3 zb. bräuchte eine 7970 ~1,1 Ghz um eine 680 zuschlagen, bei Skyrim immernoch ~ 1050MHz.
Dagegen sind dann SS3 und Metro (noch) ein reines Radeonrevier.

Der Vergleich Asus 670 vs. 670 Top fällt dagegen gerade zu banal aus.
Die Top hat ein deutlich schlechteres Perf./Watt Verhältnis, ggü der kleinen Version, wenn ich meine Karte mit der "TOP" von Ht4u vergleiche.

Meine 670 saugt weniger Saft als meine "alte" EVGA GTX 560Ti TPB, die "Top" dagegen wird leider mit einer sehr hohen Spannung betrieben, dass die zwar für bis zu 1350MHz reicht, aber dann mehr als eine 570 saugt.

Der Preispunkt spricht natürlich für die "Top", aber von der Perf./Watt her ist die kleinere Asus die bessere Wahl.

BigKid
2012-06-11, 14:18:34
Arghl... Da hab ich geschlafen und mir das BIOS der DC2T nicht gesichert...
Aber mal eine Frage:
Meint ihr es ist möglich eine Asus DC2 auf DC2T zu flashen ?
Die Karten schienen mir von der Hardware her absolut identisch zu sein.

Nur schien mir bei meiner DC2 der Chip besser zu sein als bei der DC2T und der Lüfter etwas leiser (noch weniger Sirren bei gleicher drehzahl (Jammern auf sehr hohem Niveau)) weshalb ich die DC2 behalten habe. Aber wenn ich die nun hochflashen könnte... Hm...

Iruwen
2012-06-14, 12:51:29
http://hardforum.com/showthread.php?p=1038829532
http://www.overclock.net/t/1259425/asus-670-directcu-ii-top/1210

Scheint als gäbe es gehäuft Probleme mit nicht stabil laufenden TOP Versionen...

AnarchX
2012-06-14, 14:20:40
Zotac mit einer kurzen 670: http://www.4gamer.net/games/120/G012093/20120614033/

dargo
2012-06-14, 14:25:29
Für BF3 zb. bräuchte eine 7970 ~1,1 Ghz um eine 680 zuschlagen, bei Skyrim immernoch ~ 1050MHz.
Dagegen sind dann SS3 und Metro (noch) ein reines Radeonrevier.

Mit dem neuen Treiber scheinbar nicht mehr.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9343859&postcount=3