PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28

Gast
2010-06-05, 12:10:13
Kann den Vorrednern nur zustimmen. Ich frage mich immer nach dem Antrieb des Fanboyismus. Ich schwanke da noch zwischen absoluter Rechthaberei, oder dem zwanghaften Verhalten, die Gegenfraktion mit allen Mitteln als rückständig darzustellen, da sie offensichtlich die falsche Wahl getroffen hat. Ob beides dazu dient Minderwertigkeitskomplexe zu kompensieren scheint offensichtlich, da diese Stellvertreterkämpfe auf dem Feld von PC Grafikkarten ausgetragen werden. Zugegebenermaßen ein Feld, welches rational betrachtet dafür in keinster Weise lohnt.

Das ist bei anderen Produkten aber mindesten genau so der Fall(Autos, Bekleidungsmarken etc.).
Für viele Menschen ist eine Kaufentscheidung eine rein emotionale Angelegenheit.
Das teilweise gestörte Marketing unterstützt das Ganze nach Kräften.

Popeljoe
2010-06-05, 12:19:03
Stop! Der gewaltige Unterschied ist aber, das dieses gespamme in den Ausmaßen nur hier auftritt. Ich lese auch den Radeon Teil, da ich immer noch eine betreibe und Infos gerne mitnehme. Da kommt zwar auch mal ein Querschläger, der wird aber von der Meute gleich geprügelt. Das was in NV Threads abgeht ist doch abnormal.
Das gegenseitige Gebashe sollte man mit einer Zeitachse versehen.
Was glaubst du denn, was los ist, wenn die nächste ATI Gen rauskommt?
Beide Fanboyfraktionen nehmen sich da nichts.

Klingone mit Klampfe
2010-06-05, 12:26:18
Sone sind ein Anhaltspunkt, aber kein Totschlag Argument, da hilft dir auch kein Smily. Und bevor wieder einer aus dem berühmten Loch kommt; genannte Karten habe ich "live" gehört (Nebenjob machts möglich).

Die Angabe in db sagt schon mehr aus.

>25db ist leise
>20db ist sehr leise
>15db ist praktisch unhörbar

Laut wikipedia entspricht 1 Sone ungefähr 40db und ist somit ziemlich laut. Rund 0,5 Sone wären ideal, das schafft aber praktisch kein aktueller Referenzkühler.

Fetter Fettsack
2010-06-05, 12:57:29
Ich habe selber manchmal ein wenig darüber nachgedacht, welchen rationalen, sinnvollen Grund es geben mag, sich derart für einen Hersteller zu engagieren, ohne auch nur etwas Anerkennung von diesem zu bekommen (die meisten scheinen es ja aus wirklicher Überzeugung zu machen, ohne sonstige Einflüsse, wie mir scheint), aber mir ist eigentlich keiner eingefallen.
Ich halte daher die Optionen, die OgrEGT liefert, für die wahrscheinlichsten Triebfedern.

Malabolge
2010-06-05, 13:23:42
Das gegenseitige Gebashe sollte man mit einer Zeitachse versehen.
Was glaubst du denn, was los ist, wenn die nächste ATI Gen rauskommt?
Beide Fanboyfraktionen nehmen sich da nichts.


Jo sicher , aber die Moderation könnte durch "warnende" Worte durchaus so manchen
"Flamewar" schon im Keim bremsen.

Sehr schön auch das dauernde Wiederholen von "Nachteilen" ( Augenkrebs , Ohrenkrebs, .... Jede beliebige Krankheit)


Aber leider werden hier die "Personen" die zumeist damit anfangen in Watte gepackt.

Aber Spam scheint auch Klicks zu bringen.da dsweiteren auch einige Mods "farbliche" Züge mitbringen,
kann man das Thema hier als gegessen betrachten.

Sinnvolle Diskussionen sind hier seit einigenJahren nicht mehr möglich.
Diese zeiten sin im 3DCenter vorbei. Schade eigentlich.


Wasr leider alles OT , aber wer sich hier in letzter Zeit die Threads durchliest, wird verstehen was ich meine.





PS: da ich hier auf einen "Mod" antworte:

Gerade du als Mod beschwerst dich über das Niveau (Gebashe) hier ?
DU hast den MODjob, alsonutze die "Macht". Und damit meine ich nicht jetzt wild mit der Sperrkeule um sich schlagen.
Nein ab und zu ein wenig "orange" zur errinnerung wäre nett.

Mr.Magic
2010-06-05, 13:33:58
tut mir leid, dass ich dich korrigieren muss aber die Radeons sind unter last und im idle sowohl leiser (http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/index11.php) (mit nur geringem vorteil der 470er vs. 5850 unter idle) als auch sparsamer (http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/index12.php). :eek:

Weniger ohrenbetäubend trifft es wohl eher.

@Topic
Gibt es inzwischen eine akzeptable Luftkühlung für die 480? Also so im 15-25dB Bereich. Die Karte darf damit meinetwegen auch 5 Slots blockieren, wie es meine GTX285 macht. Leise muss es sein.

Gast
2010-06-05, 13:36:01
Gibt es inzwischen eine akzeptable Luftkühlung für die 480? Also so im 15-25dB Bereich. Die Karte darf damit meinetwegen auch 5 Slots blockieren, wie es meine GTX285 macht. Leise muss es sein.
Der Zalman VF3000 scheint das Potential dazu zu haben.

Mr.Magic
2010-06-05, 13:44:41
Na, wenn da mal nicht der Refresh angekündigt wird, bevor die Zotac GeForce GTX 480 AMP! Edition irgendwo verfügbar ist...

hq-hq
2010-06-05, 15:58:01
Das gegenseitige Gebashe sollte man mit einer Zeitachse versehen.
Was glaubst du denn, was los ist, wenn die nächste ATI Gen rauskommt?
Beide Fanboyfraktionen nehmen sich da nichts.

hehe, ja besonders lustig wirds werden wenn die südlichen inseln mit einer
tdp wie eine gtx480 daherkommen und in furmark ~300watt zuzeln, daran
kann nur nvidia schuld sein!:freak: nächstes jahr dann, selber ort selbe uhrzeit ;)

die zotac amp! könnte bald lieferbar sein,

http://www.hardwaregeier.de/1536gb-ddr5-p-85281.html?utm_source=geizhals&utm_medium=CPC&utm_campaign=geizhals&preisportalref=geizhals

07.06 steht da :cool: wahrscheinlich eher 2 -3 wochen

aths
2010-06-05, 16:33:28
Die Angabe in db sagt schon mehr aus.

>25db ist sehr leise
>20db ist leise
>15db ist praktisch unhörbarWenn 20 dB leise ist, wie können 25 dB sehr leise, also noch leiser sein?

hq-hq
2010-06-05, 16:36:26
^^ hat er bestimmt nur vertauscht oder das lüftergeräusch geht in einen frequenzbereich den er in der discothek verloren hat

Iruwen
2010-06-05, 16:52:57
hehe, ja besonders lustig wirds werden wenn die südlichen inseln mit einer tdp wie eine gtx480 daherkommen und in furmark ~300watt zuzeln, daran kann nur nvidia schuld sein!:freak: nächstes jahr dann, selber ort selbe uhrzeit ;)

Nächstes Jahr?


Ich habe es aber schon in einem anderen Thread geschrieben, dass ATI bei SI wegen Nvidia ein wenig großzügiger bei Stromverbrauch werden könnte.

;)

hq-hq
2010-06-05, 17:03:05
ja irgendwann zwischen 4q 2010 und 2q2011, je eher desto besser

hehehe. sicher ist nur bis dahin ist der sommer aus also halb so schlimm :biggrin:

nagus
2010-06-05, 17:15:07
hehe, ja besonders lustig wirds werden wenn die südlichen inseln mit einer
tdp wie eine gtx480 daherkommen und in furmark ~300watt zuzeln, daran
kann nur nvidia schuld sein!:freak: nächstes jahr dann, selber ort selbe uhrzeit ;)



jetzt überlegst du mal ganz scharf, wieso das mit 100%iger garantie nicht der fall sein wird.

btw, die 320 watt der fermi (480er) finde ich in der tat besonders lustig. (sind eh nur 110 watt (oder 54%) mehr als eine 5870er)... das bringt mich wirklich immer wieder zum lachen :D

Megamember
2010-06-05, 17:27:11
In Games max. 230W, undervolted was bei fast allen Karten noch drin ist ca. 180.

hq-hq
2010-06-05, 17:31:24
bis jetzt geh ich davon aus das die SI gegenüber cypress wachsen werden. glaub nicht das die taktraten niedriger ausfallen werden so das man vcore stark absenken kann.
bissl müssma halt noch warten dann sehn wirs ja.

Schlammsau
2010-06-05, 17:38:24
In Games max. 230W, undervolted was bei fast allen Karten noch drin ist 180.

Selbst wenn jede 480 undervolting in dem Maße mitmachen würde, wäre es immer noch deutlich mehr als das was eine 5870 zieht. Die kommt beim zocken nämlich nur auf maximal 150 Watt. By the way.....eine 5870 könnte man auch, wenn man wollte undervolten. :)
Und mit Sicherheit machen das nicht fast alle 480 mit!
Hab schon genügend Beitrage gelesen, wo sie sich kein bisschen undervolten lässt!

Megamember
2010-06-05, 17:44:14
Hab schon genügend Beitrage gelesen, wo sie sich kein bisschen undervolten lässt!

Da geht fast immer ne Menge. Ausserdem sind 30W nicht "deutlich" mehr.
Für das Transistorenmonster isses eigendlich sogar ziemlich niedrig.

Schlammsau
2010-06-05, 17:56:38
Da geht fast immer ne Menge. Ausserdem sind 30W nicht "deutlich" mehr.
Für das Transistorenmonster isses eigendlich sogar ziemlich niedrig.
Was heisst fast immer? Sind diese niedrigen Spannungen auch wirklich in allen Lebenslagen stabil?
Ich denke nicht, dass nVidia aus purer "Dummheit" die Spannung so hoch lässt.
Sie haben deswegen gehörig einen auf den Deckel bekommen und alles andere als gute Kritiken deswegen bekommen.

Damit würden sie sich ans eigene Bein pinkeln, der Hauptkritikpunkt sind ja die zu hohe Leistungsaufnahme und die daraus resultierende Lautstärke!

Megamember
2010-06-05, 18:00:05
Meine läuft mit 0,900 statt 0,988 und ja, das ist in allen(!!!) Lebenslagen stabil. Ich hab sogar noch von 700 auf 720 getaktet. Hatte noch nie Probleme (Crysis, Metro,Dirt2, Vantage usw.). ANdere mit ner VID über 1V laufen auch meist mit 0,95V.

hq-hq
2010-06-05, 18:03:14
meine 470 läuft mit 0,912v statt 0,975v und mit 666mhz gpu statt 608mhz. (allerdings muss ich dafür den ramtakt auf unter 1600 absenken ;))
am anfang streuen die dinger halt noch a weng, das gibt sich mit der zeit.
dann können modelle mit mehr mhz kommen.

Schlammsau
2010-06-05, 18:04:35
Meine läuft mit 0,900 statt 0,988 und ja, das ist in allen(!!!) Lebenslagen stabil. Hatte noch nie Probleme. ANdere mit ner VID über 1V laufen auch meist mit 0,95V.

Ähm wie lange hast du die Karte? Wieviele Games hast du getestet? Weisst du ob alle zukünftigen Games mit der Spannung funzen?

Ist wie beim übertakten und overvolten.....du meinst du hast endlich absolut stabile Taktraten erwischt aber dann wums, ein neues Game oder Treiber ist erschienen und auf einmal ist das ganze System "instabil".

Sorry aber ich denke nVidia hat nicht ohne Grund die Spannung so hoch angesetzt!

Raff
2010-06-05, 18:08:23
Die Spannung der durchschnittlichen HD 5800 ist ebenfalls "zu hoch". Meine Vapor-X schafft mit 1,08 Volt noch ihre 870 MHz (Standard: 1,1625). Das nennt man "Sicherheitstoleranz", weil es unter widrigen Umständen, etwa einem Mix aus Hitze, hoher Last, der Luftfeuchtigkeit, Mondstand und einem Riss im Raum-Zeit-Kontinuum zu einem Fail kommen könnte, wenn die VGPU niedriger ist. ;) Die Dinger sollen eben immer funktionieren. Dennoch lässt sich fast jede Grafikkarte mehr oder minder gut undervolten bzw. analog übertakten.

Durch die Größe des Chips und die anscheinend fiesen Leckströme profitiert (= spart mehr) ein GF100 mehr vom Undervolting als ein Cypress.

MfG,
Raff

Vertigo
2010-06-05, 18:15:08
Das nennt man "Sicherheitstoleranz", weil es unter widrigen Umständen, etwa einem Mix aus Hitze, hoher Last, der Luftfeuchtigkeit, Mondstand und einem Riss im Raum-Zeit-Kontinuum zu einem Fail kommen könnte, wenn die VGPU niedriger ist. ;) Die Dinger sollen eben immer funktionieren. Dennoch lässt sich fast jede Grafikkarte mehr oder minder gut undervolten bzw. analog übertakten.

Der Begriff "Fertigungstoleranz" wäre wohl zu einfach gewesen? :biggrin:

hq-hq
2010-06-05, 18:15:13
jupp, und damit OC funzt. das wird halt erwartet, zumindest ich erwarte es. (nicht wie bei der 5870 toxic 2gb ;) )

Raff
2010-06-05, 18:18:01
Der Begriff "Fertigungstoleranz" wäre wohl zu einfach gewesen? :biggrin:

Ja. ;)

Ich hege die Hoffnung, dass folgende GF100-Chips von verfeinerten TSMC-Wafern besser werden und daher auch die VID stetig abnimmt. Wenn Nvidia eine GTX 480 mit 0,9 Volt speisen könnte, wäre der Verbrauch werkseitig bei ~180 Watt in Spielen. Wobei das a weng optimistisch ist. 0,95 Volt wären ein Anfang, um die aktuelle Verbrauchs-Evilness abzuschwächen ...

(nicht wie bei der 5870 toxic 2gb ;) )

Die hat ja schon 925 MHz, da geht eben absolut nur sehr wenig.

MfG,
Raff

y33H@
2010-06-05, 18:19:30
0,90 zu 1,0x Volt sind aber schon ein fetter Sprung :usad:

Gast
2010-06-05, 18:29:44
0,90 zu 1,0x Volt sind aber schon ein fetter Sprung :usad:

10% ist doch nicht schlecht.
Bei der GTX280 war afaik etwas mehr drin.

hq-hq
2010-06-05, 18:33:54
bei meiner gtx260 auch. is schon ein wenig her glaub von 1,18 auf 1,00v
eh verdammt, was ist eigentlich mit meiner rma los, gleich mal nachschauen, das sind schon fast 6wochen jetzt...

y33H@
2010-06-05, 18:57:26
Die ersten 260er hatten 1,12V - die letzten Chargen 1,06V. Die 280er iirc immer (!) 1,18V:

MartinRiggs
2010-06-05, 19:00:07
Selbst wenn jede 480 undervolting in dem Maße mitmachen würde, wäre es immer noch deutlich mehr als das was eine 5870 zieht. Die kommt beim zocken nämlich nur auf maximal 150 Watt. By the way.....eine 5870 könnte man auch, wenn man wollte undervolten. :)
Und mit Sicherheit machen das nicht fast alle 480 mit!
Hab schon genügend Beitrage gelesen, wo sie sich kein bisschen undervolten lässt!

Boah, hoffentlich hörst du bald mit deinem ATI-Kreuzzug auf, ATi hatte dieses mal die besseren Karten aber es heisst nicht das die nächsten Karten auch solche "Sparwunder" sind.
Ich bin gespannt was du sagst wenn die nächsten ATI-Karten mehr wie die vergleichbaren NV-Karten verbrauchen, dann ist der Stromhunger i.O und du plädierst dafür das jeder sich halt ein besseres Netzteil kaufen muss:biggrin:

hq-hq
2010-06-05, 19:00:51
glaub meine gtx 260 black edition hatte 1,18v... wenn ich das ding endlich wieder hab kann ich mal gucken.
wenns nur 1,12v waren wärens auch 0,120v weniger. also so überragend sind die fermis noch nicht. zumindest wenn man die gtx470 anschaut...

y33H@
2010-06-05, 20:00:46
OC-Editions sind was andres ;)

Klingone mit Klampfe
2010-06-05, 23:09:25
^^ hat er bestimmt nur vertauscht

Jepp :redface:

Schlammsau
2010-06-06, 01:47:58
Boah, hoffentlich hörst du bald mit deinem ATI-Kreuzzug auf, ATi hatte dieses mal die besseren Karten aber es heisst nicht das die nächsten Karten auch solche "Sparwunder" sind.
Ich bin gespannt was du sagst wenn die nächsten ATI-Karten mehr wie die vergleichbaren NV-Karten verbrauchen, dann ist der Stromhunger i.O und du plädierst dafür das jeder sich halt ein besseres Netzteil kaufen muss:biggrin:
Nö ich würde genauso auf die Barikaden gehen, wie auch zu Launch der 5830!
Verdammt noch mal, ich kritisiere beide Hersteller!

Gast
2010-06-06, 02:54:15
Nö ich würde genauso auf die Barikaden gehen, wie auch zu Launch der 5830!
Verdammt noch mal, ich kritisiere beide Hersteller!

ehh wat? ja nee is klar!
schlammi der unparteiische. :ugly:

Gast
2010-06-06, 02:55:50
Wenigstens bleibt er seiner Linie treu, er bringt einen immer wieder zum lachen.

Gast
2010-06-06, 03:30:10
ASUS GTX 480 beats ASUS HD 5870 Matrix 2GB GDDR5 @ 950/1250 !!!

http://forums.guru3d.com/showpost.php?p=3598066&postcount=1

Gast
2010-06-06, 03:32:14
Part2
http://forums.guru3d.com/showpost.php?p=3598070&postcount=2

derguru
2010-06-06, 03:43:50
krass,ist ja noch knapper als gedacht vorallem bei settings die eh nicht von 2gb profitieren,hätten die auch gleich eine 340euro 5870 nehmen können;)

Gast
2010-06-06, 03:48:56
krass,ist ja noch knapper als gedacht vorallem bei settings die eh nicht von 2gb profitieren,hätten die auch gleich eine 340euro 5870 nehmen können;)

Default vs. OCed ;)

Gast
2010-06-06, 03:54:55
Default vs. OCed ;)
Mein Reden, selbst übertaktete Scheiße bleibt Scheiße. :biggrin:

derguru
2010-06-06, 04:04:36
Default vs. OCed ;)
ui X-D

Gast
2010-06-06, 04:34:24
ui X-D

Es gibt kein Entkommen

Nightspider
2010-06-06, 05:31:22
Krass....ich wunder mich nur...am Anfang hat die GTX480 gegen die HD5870 in manchen Games abgekackt, wie in Crysis und nu ist eine GTX480 teilweise schneller als eine stark übertaktete HD5870 mit 2GB VRAM??

Alles durch die Treiber? O_o

Botcruscher
2010-06-06, 09:21:19
Teilweise langsamer bedeutet das die 480 im Durchschnitt schon immer über alles 15-20% schneller war. Wenn der Speicher bei der originalen 5870 nicht limitiert hat helfen auch die lausigen 100MHz mehr Kerntakt nicht viel weiter. Der Rest ist Testauswahl.

Mr. Lolman
2010-06-06, 10:02:00
ASUS GTX 480 beats ASUS HD 5870 Matrix 2GB GDDR5 @ 950/1250 !!!

http://forums.guru3d.com/showpost.php?p=3598066&postcount=1

Part2
http://forums.guru3d.com/showpost.php?p=3598070&postcount=2

Zumindest die Fraps Benchmarks kann man vergessen. Ersten glaub ich nicht, dass der besonders auf Reproduzierbarkeit geachtet hat, und 2. Was sind das für Benchmarks, wo ein Run plötzlich 10 Sekunden länger dauert, als ein anderer. Nett gemeint, aber imo unbrauchbar...

EDIT: Auch beim AVP Benchmark ist seine ATi langsamer als im Schnitt hier im Forum und seine NV-Karte aber schneller. Naja, wenn er meint... :|

Schlammsau
2010-06-06, 11:35:37
[/b]

ehh wat? ja nee is klar!
schlammi der unparteiische. :ugly:
Wenigstens bleibt er seiner Linie treu, er bringt einen immer wieder zum lachen.
ja neee eyh....
Was bin ich nur für ein Fanboy wenn ich momentan eine 470 empfehle, eine 5870 zu teuer finde, die 5830 als eine Schweinekarte empfinde, der R600 für mich ein epic fail war, und ich ATi genauso kritisiere wenn sie Mist bauen!

Welcher nVidia Fanboy kann das von sich behaupten?
Hab ihr LovesuckZ oder Bucklew schonmal etwas schlechtes über nVidia schreiben sehen? Also ich nicht!

:rolleyes:

Gast
2010-06-06, 11:53:39
jetzt überlegst du mal ganz scharf, wieso das mit 100%iger garantie nicht der fall sein wird.
*überleg*
*lichtaufgeh*
Ich hab's! Weil Ati nach wie vor den Furmark throttelt? :D
btw, die 320 watt der fermi (480er) finde ich in der tat besonders lustig. (sind eh nur 110 watt (oder 54%) mehr als eine 5870er)... das bringt mich wirklich immer wieder zum lachen :D
Mich auch - siehe oben.

Schlammsau
2010-06-06, 12:05:46
*überleg*
*lichtaufgeh*
Ich hab's! Weil Ati nach wie vor den Furmark throttelt? :D

Mich auch - siehe oben.

Tun sie mMn bei der HD5000 Serie nicht mehr!
Was ATi macht, ist eine stufenweises Taktraten-throttling, wenn eine kritischeTemperatur erreicht wurde.
By the way.....auch nVidia drosselt die GTX200 Serie auch beim FURMark, bei der GTX400 Serie ist es noch nicht ganz klar! ;)

Gast
2010-06-06, 12:14:21
Fakten sind stärker als Meinungen.
Geh in die Kirche wenn es dir um den Glauben geht.

Schlammsau
2010-06-06, 12:17:35
Fakten sind stärker als Meinungen.
Geh in die Kirche wenn es dir um den Glauben geht.

Dann mal her mit deinen Fakten! ;D

Megamember
2010-06-06, 12:19:28
DIe 480 braucht bei Furmark knapp 50% mehr Saft als in Games, die 5870 nur ca 20-25%. SChon merkwürdig.

http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/index12.php

Undertaker
2010-06-06, 12:23:40
In der Tat ist der Unterschied zwischen Leistungsaufnahme in Spielen und Leistungsaufnahme in Furmark bei den HD5k eigentlich viel zu gering. Man könnte mal testen, eine HD5770 gegen eine HD4870 im Furmark zu benchen und schauen, ob letztere mehr als übliche ~5% schneller ist - wenn ja, findet sehr wahrscheinlich eine Drosselung statt. Hat jemand eine HD4870 zur Hand? ;)

Gast
2010-06-06, 12:23:46
DIe 480 braucht bei Furmark knapp 50% mehr Saft als in Games, die 5870 nur ca 20-25%. SChon merkwürdig.

War es aber nicht so, dass die 5870 in Hardware throttelt. Also unabhängig vom Treiber. Das würde heißen, dass dies auch in die Spiele-Performance mit einfließt. Ich würde das sogar eher gut finden, weil sich das positiv auf die Lebensdauer auswirkt.

Schlammsau
2010-06-06, 12:27:00
DIe 480 braucht bei Furmark knapp 50% mehr Saft als in Games, die 5870 nur ca 20-25%. SChon merkwürdig.

http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/index12.php

Daraus kann man gar nichts schliessen.
Interessant wäre ein FURMark FPS-Vergleich einer 5870 gegen eine GTX480.

Eine 480 ist im Schnitt ja 15% schneller als eine 5870.....also müsste das Bild ähnlich im FURMark aussehen.

Wenn aber eine 480 hier jetzt überdeutlich schneller als die 5870 ist....

Undertaker
2010-06-06, 12:30:40
Daraus kann man gar nichts schliessen.
Interessant wäre ein FURMark FPS-Vergleich einer 5870 gegen eine GTX480.

Eine 480 ist im Schnitt ja 15% schneller als eine 5870.....also müsste das Bild ähnlich im FURMark aussehen.

Wenn aber eine 480 hier jetzt überdeutlich schneller als die 5870 ist....

Das wird wohl nicht sonderlich sinnvoll sein, afair schmeckte zu RV770/GT200 Zeiten den ATI-Karten der Furmark deutlich besser als den Nvidia-Pendants - eine gedrosselte HD5k könnte trotzdem noch vor einer evntl. ungedrosselten GTX400 liegen. Sinnvoller wäre imho der bereits vorgeschlagene Vergleich HD4870 vs. HD5770, diese bieten abseits von Spielen mit DX11-Support praktisch immer eine sehr konstante Leistungsrelation zueinander (mit ~5% Vorteil für die HD4870).

Gast
2010-06-06, 12:43:11
Daraus kann man gar nichts schliessen.
Interessant wäre ein FURMark FPS-Vergleich einer 5870 gegen eine GTX480.

http://www.neoseeker.com/Articles/Hardware/Reviews/gtx480launch/6.html
http://www.abload.de/img/furbarlww7.png

Heftig. :)

Gast
2010-06-06, 12:53:06
Die 4890 scheint stärker gedrosselt zu sein als die 5770.
Aber der Benchmark wirkt nicht gerade seriös.
Am Besten selber benchen, wenn man 5770 und 4870/90 hat.

Gast
2010-06-06, 12:56:03
Edit: Das ganze ist eh Quatsch.
Als ich meine 4870X2 das Erste mal im Furmark laufen lies hatte ich mehr als doppelt so viele FPS als die GTX280 (ohne CF).
Da wird gedrosselt was das Zeug hält.

Bucklew
2010-06-06, 12:58:54
In der Tat ist der Unterschied zwischen Leistungsaufnahme in Spielen und Leistungsaufnahme in Furmark bei den HD5k eigentlich viel zu gering.
Ist doch schon länger bekannt, dass ATI den Furmark gezielt drosselt. Das haben bei der HD5k Serie auch schon u.A. (wenn ich das jetzt richtig in Errinnerung hab) TomsHardware und BSN geschrieben.

hq-hq
2010-06-06, 13:15:39
hm könnte schon hinkommen

Schlammsau
2010-06-06, 13:18:47
Ist doch schon länger bekannt, dass ATI den Furmark gezielt drosselt. Das haben bei der HD5k Serie auch schon u.A. (wenn ich das jetzt richtig in Errinnerung hab) TomsHardware und BSN geschrieben.

Nein haben sie nicht.....es ging immer nur um das Taktratenthrottling wenn eine kritische Temp bzw Leistungsaufnahme erreicht wurde. Und ein Takratenthrottling erkennt man ganz einfach!

Bucklew
2010-06-06, 13:28:38
Nein haben sie nicht.....es ging immer nur um das Taktratenthrottling wenn eine kritische Temp bzw Leistungsaufnahme erreicht wurde.
Nein, ging es nie.

Now, do bear in mind that ATI detects FurMark and doesn't allow the app to "go crazy", as again - AMD treats the app as an "power virus" and does not allow 100% load. nVidia did allow FurMark to "go crazy" and results are as follow.
http://www.brightsideofnews.com/news/2010/3/26/nvidia-geforce-gtx-480--gtx-480-sli-review.aspx?pageid=6

y33H@
2010-06-06, 13:35:25
Alleine die Fps einer HD5870 im Vergleich zu einer HD 4870 [letztere ohne Throtteling] zeigen imo schon was Sache ist.

Gast
2010-06-06, 13:35:52
Dieser Furmark ist doch ohnehin uninteressant. Was zählt, ist der reale Spieleverbrauch. Und hier versagt Fermi völlig. Sogar eine 465 verbrät deutlich mehr als eine viel schnellere 5870.

y33H@
2010-06-06, 13:41:36
Im groben Mittel mag dies der Fall sein, allerdings gibt es da viel zu wenige Erkenntnisse. In GTA4 etwa liegt eine GTX465 auf dem Fps-Level der HD5870, in WoW auch - hier wäre die Power Consumption spannend. Beide Titel bieten in Relation viel Geometrie, was dem Fermi entgegen kommt. Auf der anderen Seite werden alle GF100 in beispielsweise Crysis in den meisten Settings/Szenen gnadenlos zersägt, bei Fps wie Watt. Wie so oft eine Frage des Spiels/Szene/Settings.

Furmark ist diesbezüglich interessant, dass AMD Karten baut, es aber nicht erlaubt deren Potenzial auszuschöpfen - eine HD4890 ohne Throtteling stirbt im Furmark wohl schlicht wenn man den einige Stunden rennen lässt *Speku*

Mr. Lolman
2010-06-06, 13:55:44
Beide Titel bieten in Relation viel Geometrie, was dem Fermi entgegen kommt.

In Relation zu was?

y33H@
2010-06-06, 14:19:45
Texel- und Shader usw.

Gast
2010-06-06, 14:36:28
Tun sie mMn bei der HD5000 Serie nicht mehr!
Was ATi macht, ist eine stufenweises Taktraten-throttling, wenn eine kritischeTemperatur erreicht wurde.
Deiner Meinung nach vielleicht, aber wie wär's zumindest mit ein paar Indizien? Mein Indiz: Marginaler Fps-Gewinn ggü. HD48x0.

Und ja, das außerdem.

By the way.....auch nVidia drosselt die GTX200 Serie auch beim FURMark, bei der GTX400 Serie ist es noch nicht ganz klar! ;)
Ein Indiz bitte? Zum Beispiel eine deutlich höhere Performance mit einem älteren Treiber? Unproportionaler Fps-Gewinn von einer Generation auf die nächste?

Fetter Fettsack
2010-06-06, 15:07:37
Zitat von y33h@

Furmark ist diesbezüglich interessant, dass AMD Karten baut, es aber nicht erlaubt deren Potenzial auszuschöpfen - eine HD4890 ohne Throtteling stirbt im Furmark wohl schlicht wenn man den einige Stunden rennen lässt *Speku*

Wieso furmark deshalb interessant ist, verstehe ich trotz der nachfolgenden Erläuterung noch immer nicht. Könntest du so nett sein? :)

Gast
2010-06-06, 15:14:47
Würde eine ungedrosselte HD auf die selbe/ähnliche Performance/W kommen wie eine gedrosselte HD?

Botcruscher
2010-06-06, 15:24:27
In Spielen ganz sicher da eine Treiberbremse nur im Fur wirken würde. Durchaus möglich das Ati bremst. Bei Betrachtung der Spiele aber vollkommen belanglos.

Gast
2010-06-06, 15:29:59
Die Frage bezieht sich auf Furmark.
Imho sollte die HD einfach mehr vebrauchen und dafür mehr leisten, wenn den der Kühler und das Board mitspielen.
Aber wissen tu ich es nicht, deshalb die Frage.

Iruwen
2010-06-06, 15:46:04
Nein haben sie nicht.....es ging immer nur um das Taktratenthrottling wenn eine kritische Temp bzw Leistungsaufnahme erreicht wurde. Und ein Takratenthrottling erkennt man ganz einfach!
Guckt doch einfach auf die Seite des Entwicklers:
http://www.geeks3d.com/20090925/ati-cypress-radeon-hd-5870-cards-have-hardware-protection-against-power-virus-like-furmark-and-occt/

Gast
2010-06-06, 15:50:23
Also ist eine Hardwareerkennung vorhanden. Diese geift im Extremfall wohl aber auch in Spielen, wodurch die Performance dann dort auch sinken sollte.
Das heißt wiederum, dass man der 5870 nicht mehr Leistung als im Furmark oder anderen Tools entlocken kann. Auch nicht in Spielen.

Fetter Fettsack
2010-06-06, 15:53:06
Das heißt wiederum, dass man der 5870 nicht mehr Leistung als im Furmark oder anderen Tools entlocken kann. Auch nicht in Spielen.

Doch, doch, man muss nur einen eigenen Treiber schreiben :ulol: .

Raff
2010-06-06, 15:55:49
Doch, doch, man muss nur einen eigenen Treiber schreiben :ulol: .

Nope, siehe Artikel in #6325. Der Monitor-Knecht und Herr über das Heruntertakten ist ein Teil des Grafikchips ("hard-wired"). Hard Wires > Software-Gefrickel ;) Wobei, vielleicht kann man den Monitorchip mit hardwarenaher Software schlafenlegen ...

MfG,
Raff

Schrotti
2010-06-06, 16:10:25
Die ersten 260er hatten 1,12V - die letzten Chargen 1,06V. Die 280er iirc immer (!) 1,18V:

Meine GTX 280 lief aber auch mit 1,06V auf 700/1450/1200 (also wäre da durchaus Potential für weniger VGpu gewesen).

Slipknot79
2010-06-06, 16:11:28
Dann mal her mit deinen Fakten! ;D


Bei der 280er wird nix gebremst solange man unter 105°C bleibt.

Raff
2010-06-06, 16:12:04
Meine GTX 280 lief aber auch mit 1,06V auf 700/1450/1200 (also wäre da durchaus Potential für weniger VGpu gewesen).

Dann hast du die beste GTX 280 auf diesem Planeten erwischt. Sicher, dass du mit nur 1,06 Volt so weit übertakten konntest? Wasserkühlung? Ich habe sehr viele dieser Karten getestet und meine, 648/1.404/1.296 MHz mit 1,06 Volt stabil und via Accelereo Xtreme gekühlt, gehört klar zur Elite. 1.458 MHz ALU-Takt laufen auch, aber je nach Spiel gibt's Artefuckte.

MfG,
Raff

mapel110
2010-06-06, 16:14:04
Bei der 280er wird nix gebremst solange man unter 105°C bleibt.
Doch wird es. Irgendwo zwischen Forceware 178 und 180 hat nvidia eine Bremse eingebaut für Furmark. Da gibts bei meiner GTX 260² ca. 30 Watt Unterschied.

Fetter Fettsack
2010-06-06, 16:17:48
Danke für die Aufklärung, Raff :) .

Megamember
2010-06-06, 16:26:59
Dann hast du die beste GTX 280 auf diesem Planeten erwischt. Sicher, dass du mit nur 1,06 Volt so weit übertakten konntest? Wasserkühlung? Ich habe sehr viele dieser Karten getestet und meine, 648/1.404/1.296 MHz mit 1,06 Volt stabil und via Accelereo Xtreme gekühlt, gehört klar zur Elite. 1.458 MHz ALU-Takt laufen auch, aber je nach Spiel gibt's Artefuckte.

MfG,
Raff

Meine 260GTX 216 lief bei der Spannung sogar auf 729/1458 :confused:

Raff
2010-06-06, 16:29:01
GTX 280 ungleich GTX 260. ;) Karten mit weniger Einheiten lassen sich im Schnitt höher takten als größere Klötze.

MfG,
Raff

Megamember
2010-06-06, 16:39:08
Scheint bei den 400er aber genau umgekehrt zu sein. Da gehen die 480er meist besser als die 470er (bei gleicher Spannung)

y33H@
2010-06-06, 16:46:56
@ Megamember

"Laufen" ist so eine Sache.

Meine - ich nenne sie ub0r - GTX 260-216 55nm "läuft" je nach Benchmark mit kranken 810/1.674/1.323 MHz bei 1,12 Volt ohne Bildfehler (mit Silent-LuKü und ohne IHS). Als rockstable aber erachte ich vergleichsweise magere 729/1.566/1.242 MHz bei gleicher Spannung.

Und von wegen die 480er scheinen besser zu gehen: No way. Bei gleicher Spannung holst du meiner Erfahrung nach aus einer 470er mehr raus. Was technisch auch logisch ist und Raff sicherlich bestätigen wird.
Also ist eine Hardwareerkennung vorhanden. Diese geift im Extremfall wohl aber auch in Spielen, wodurch die Performance dann dort auch sinken sollte.Das ist imo das absolut Lächerliche: Man baut eine sau geile und schnelle Karte und "verschwendet" Transistoren für eine HW-Implementierung, die dafür sorgt, dass man die Karte nicht voll ausfahren kann - weil ansonsten die zu schwach dimensionierte Spannungsversorgung durchbrennt :ulol:

Die Kohle, Zeit und Manpower hätte man imo besser in bessere VRMs gesteckt ...

Botcruscher
2010-06-06, 16:52:23
Scheint bei den 400er aber genau umgekehrt zu sein. Da gehen die 480er meist besser als die 470er (bei gleicher Spannung)

Selektion.
PS: Das Verhältnis dreht gegen Ende der Serie durch die Verbesserungen bei der Herstellung wieder. Dann ist eine Selektion nämlich nicht mehr nötig und die guten Chips wandern auch auf kleinere Ableger.

y33H@
2010-06-06, 16:53:02
So etwas gibt es für retail-Karten nicht.

Gast
2010-06-06, 16:59:13
@ Megamember

"Laufen" ist so eine Sache.

Meine - ich nenne sie ub0r - GTX 260-216 55nm "läuft" je nach Benchmark mit kranken 810/1.674/1.323 MHz bei 1,12 Volt ohne Bildfehler (mit Silent-LuKü und ohne IHS). Als rockstable aber erachte ich vergleichsweise magere 729/1.566/1.242 MHz bei gleicher Spannung.

Und von wegen die 480er scheinen besser zu gehen: No way. Bei gleicher Spannung holst du meiner Erfahrung nach aus einer 470er mehr raus. Was technisch auch logisch ist und Raff sicherlich bestätigen wird.
Das ist imo das absolut Lächerliche: Man baut eine sau geile und schnelle Karte und "verschwendet" Transistoren für eine HW-Implementierung, die dafür sorgt, dass man die Karte nicht voll ausfahren kann - weil ansonsten die zu schwach dimensionierte Spannungsversorgung durchbrennt :ulol:

Die Kohle, Zeit und Manpower hätte man imo besser in bessere VRMs gesteckt ...

Ich denke AMD/ATI haben sich dabei sicher etwas gedacht. Man kommt immerhin in keinem Spiel an die maximale Verlustleistung heran, die man in Furmark erreicht, obwohl eben genau dort sicher schon gedrosselt wird.
Also verschenkt man keineswegs Leistung in Spielen. Die Karte wird aber durch diese Maßnahme geschützt, wenn doch zuviel Leistung gebraucht wird.

Ist imo besser als bis zu 320 Watt verbrauchen, die so garnicht spezifiziert sind, und sich damit unter Umständen die Karte kaputt zu machen. So eine Hardwareregelung wäre für Fermi sicherlich nicht schlecht, da diese Leistung tatsächlich in Spielen ja so nie gebraucht wird.

y33H@
2010-06-06, 17:24:07
Warum setze ich dem Chip VMRs vor, die den GPU-Load nicht handeln können? :usad:
Man kommt immerhin in keinem Spiel an die maximale Verlustleistung heran [...]Wäre ich böse, würde ich sagen: Weißt du es? Weißt du, wann und wo die Karte throttelt? Weißt du, ob du nicht schon mal beim Zocken einen Powerstate angerutscht bist? Wohl kaum. Daher erachte ich so etwas als fragwürdig, zumal es Transistoren und Co. kostet, welche man imo auch in bessere VRMs oder sonst was hätte stecken können. Die Panik bei AMD hinsichtlich Furmark muss ja geradezu beängstigende Ausmaße haben, wenn man extra einen Monitoring-Chip einbaut bzw. bei den HD4k eine ALU/TEX-Ration-Detection. Hier versucht man wohl mit aller Gewalt ein Design-Fail zu umschiffen ... eine Karte bauen, die bei Full-Load eingebremst wird, hat imo ein Problem. Und ich habe keinen Bock beim Zocken deswegen evtl. Fps zu verlieren. Und man umschifft zudem mit einer halbgaren Methode die TDP-Problematik während man auf der anderen Seite mit Leistungsdaten wirbt, die die Karte praktisch nicht erreicht und wenn doch, verreckt. Einmal Applaus bitte.

Botcruscher
2010-06-06, 17:39:16
Weil die Karten sonst bei beiden Herstellern deutlich teurer wären. Bremsen der Karten in Extremsituationen ist der deutlich wirtschaftlichere Ansatz als für alle erdenklichen Situation zu konstruieren.

Raff
2010-06-06, 17:59:17
Die Kühler mit ihren abartigen Radiallüftern sind (scheinbar) auch für Wüstenregionen konstruiert, warum also die PCBs nicht?

MfG,
Raff

Captain Future
2010-06-06, 18:05:53
Doch wird es. Irgendwo zwischen Forceware 178 und 180 hat nvidia eine Bremse eingebaut für Furmark. Da gibts bei meiner GTX 260² ca. 30 Watt Unterschied.

Komischerweise habe ich vom 177-72 zum 195-62 sogar noch mehr Faps anstelle gebremst zu werden.

Gast
2010-06-06, 18:12:43
Wäre ich böse, würde ich sagen: Weißt du es? Weißt du, wann und wo die Karte throttelt? Weißt du, ob du nicht schon mal beim Zocken einen Powerstate angerutscht bist? Wohl kaum. Daher erachte ich so etwas als fragwürdig, zumal es Transistoren und Co. kostet, welche man imo auch in bessere VRMs oder sonst was hätte stecken können. Die Panik bei AMD hinsichtlich Furmark muss ja geradezu beängstigende Ausmaße haben, wenn man extra einen Monitoring-Chip einbaut bzw. bei den HD4k eine ALU/TEX-Ration-Detection. Hier versucht man wohl mit aller Gewalt ein Design-Fail zu umschiffen ... eine Karte bauen, die bei Full-Load eingebremst wird, hat imo ein Problem. Und ich habe keinen Bock beim Zocken deswegen evtl. Fps zu verlieren. Und man umschifft zudem mit einer halbgaren Methode die TDP-Problematik während man auf der anderen Seite mit Leistungsdaten wirbt, die die Karte praktisch nicht erreicht und wenn doch, verreckt. Einmal Applaus bitte.

Immer diese Fanboyaussagen. Design-Fail, solche Aussagen disqualifizieren dich mal wieder völlig. Jede CPU hat schon seit Urzeiten eine solchen Chip. Halbgare Methode, völlig lächerlich was du hier von dir gibts. NV bremst die Karten im Furmark genau so aus, darüber verlierst du natürlich kein Wort. Und solange die Reviewer den Furmark zum messen der Leistungsaufnahme verwenden wird das auch so bleiben. Verrecken tut da gar nichts, aber noch ein bisschen bias in den Text streuen um deine Inkompetenz zu zeigen schadet ja nicht.

Gast
2010-06-06, 18:17:02
Weil die Karten sonst bei beiden Herstellern deutlich teurer wären. Bremsen der Karten in Extremsituationen ist der deutlich wirtschaftlichere Ansatz als für alle erdenklichen Situation zu konstruieren.

Es ist das normalste der Welt, und das gibt es auch nicht nur bei Grafikkarten, nicht nur bei Elektronik sondern fast überall. Man kann bei einem hochkomplexen System nicht alle Eventualitäten vorsehen, daher gibt es Mittel und Wegen diese zu überwachen und gegebenenfalls einzuschreiten. Das y33H@ mal wieder seine Inkompetenz zur Schau stellt sollte niemanden mehr überraschen.

Black-Scorpion
2010-06-06, 18:29:37
Die Kühler mit ihren abartigen Radiallüftern sind (scheinbar) auch für Wüstenregionen konstruiert, warum also die PCBs nicht?

MfG,
Raff
Weil es vielleicht völlig an den Haaren herbeigezogen ist den ganzen Tag in der Wüste zu sitzen und sich den dämlichen Furmark anzusehen?

Botcruscher
2010-06-06, 18:32:17
Die Kühler mit ihren abartigen Radiallüftern sind (scheinbar) auch für Wüstenregionen konstruiert, warum also die PCBs nicht?

Weil der Kühler einfach lauter wird. Was sollte das PCB, die VRAMs und der Chip machen? Im Audiobereich sind solche Schaltungen auch Gang und Gäbe. Im Maschinenbau ist es sogar vollkommen normal da nicht anders umsetzbar.
Da durch solche Schaltungen die Lebensdauer der Geräte deutlich erhöht wird und auch die angrenzenden Geräte(zB entlastet werden), ist das ganze nur zu begrüßen. Die "Nachteile" sind minimal und zur Zeit nur ein theoretischen Tests feststellbar.

Gast
2010-06-06, 18:46:11
Warum setze ich dem Chip VMRs vor, die den GPU-Load nicht handeln können? :usad:
Wäre ich böse, würde ich sagen: Weißt du es? Weißt du, wann und wo die Karte throttelt? Weißt du, ob du nicht schon mal beim Zocken einen Powerstate angerutscht bist? Wohl kaum. Daher erachte ich so etwas als fragwürdig, zumal es Transistoren und Co. kostet, welche man imo auch in bessere VRMs oder sonst was hätte stecken können. Die Panik bei AMD hinsichtlich Furmark muss ja geradezu beängstigende Ausmaße haben, wenn man extra einen Monitoring-Chip einbaut bzw. bei den HD4k eine ALU/TEX-Ration-Detection. Hier versucht man wohl mit aller Gewalt ein Design-Fail zu umschiffen ... eine Karte bauen, die bei Full-Load eingebremst wird, hat imo ein Problem. Und ich habe keinen Bock beim Zocken deswegen evtl. Fps zu verlieren. Und man umschifft zudem mit einer halbgaren Methode die TDP-Problematik während man auf der anderen Seite mit Leistungsdaten wirbt, die die Karte praktisch nicht erreicht und wenn doch, verreckt. Einmal Applaus bitte.

Mensch bewirb dich bitte umgehend bei ATI, denn du scheinst ja mehr über ihre Grafikkarten zu wissen als sie.
Meinst du ernsthaft die Ingenieure bei ATI wissen nicht wie stark Spiele ihre Grafikkarten auslasten? Das wissen die glaub ich ziemlich gut, und genau darauf ist auch die Spannungswandler ausgelegt. Es macht viel mehr Sinn die Karte in syntetischen Benchmarks wie Furmark zu drosseln, die die Karte viel stärker belasten als das eine reale 3D Anwendung kann. So kann man Geld sparen da man keine unnötig teuren Spannungswandler einbaut, die in realen Anwendungen sowieso nie benötigt werden.

desert
2010-06-06, 18:55:56
Mensch bewirb dich bitte umgehend bei ATI, denn du scheinst ja mehr über ihre Grafikkarten zu wissen als sie.
Meinst du ernsthaft die Ingenieure bei ATI wissen nicht wie stark Spiele ihre Grafikkarten auslasten? Das wissen die glaub ich ziemlich gut, und genau darauf ist auch die Spannungswandler ausgelegt. Es macht viel mehr Sinn die Karte in syntetischen Benchmarks wie Furmark zu drosseln, die die Karte viel stärker belasten als das eine reale 3D Anwendung kann. So kann man Geld sparen da man keine unnötig teuren Spannungswandler einbaut, die in realen Anwendungen sowieso nie benötigt werden.

Das ist ja mal eine coole logik. Haben denn die geilen ati ingenieure auch die spiele hersteller angeschrieben, das sie bitte bitte niemals ein spiel schreiben das die grafikkarten so auslastet wie der furmark? Und die spiele hersteller berücksichtigen das ja auch sofort. Denn immerhin sind es ja die geilen ati ingenieure die grafikkarten nur für den normalfall konstrurieren aber niemals für das theoretische Maximun weil das ja sowiesso nie passiert?

Was bin ich froh das gute ingenieure immer eine sicherheitsreseve einbauen die über das maximun hinaus geht, nur die geilen ingenieure bei ati planen nur 75 % und drosseln dann einfach die leistung. Das ist ja als ob einen porsche kaufe der 320 km/h schafft, aber ab 270 km/h gedrosselt wird mit der begründung das ist der normalfall, schneller dürfen sie nicht. Weil das haben wir nicht eingeplant.

Manche können echt nicht von zwölf bis mittags denken.

y33H@
2010-06-06, 18:56:04
@ Gast-Post #6349

Kennst du das Geld/Zeit/Manpower-Verhältnis zwischen Monitoring-Chip und besseren VRMs? desert hats ja schon umrissen.

btw nett, wie sofort die militanten Ati-Gast-Trolle aus ihren Höhlen rennen, sobald man solche Posts verfasst :ulol: Hauptsache das KONJUNKTIVE "Wäre ich böse, würde ich sagen" überlesen und mich persönlich attackieren. Betrifft nicht den Gast auf #6349.

Gast
2010-06-06, 19:17:29
@ Gast-Post #6349

Kennst du das Geld/Zeit/Manpower-Verhältnis zwischen Monitoring-Chip und besseren VRMs? desert hats ja schon umrissen.

btw nett, wie sofort die militanten Ati-Gast-Trolle aus ihren Höhlen rennen, sobald man solche Posts verfasst :ulol: Hauptsache das KONJUNKTIVE "Wäre ich böse, würde ich sagen" überlesen und mich persönlich attackieren. Betrifft nicht den Gast auf #6349.

Natürlich kenn ich das nicht. Allerdings kritisierst du die Entwickler die falsche Entscheidung getroffen zu haben, obwohl du keinen Einblick in die Sachlage hast.
Ich denke einfach das die Leute die die Karten seit Jahren entwickeln sich damit deutlich besser auskennen, und daher mit hoher Wahrscheinlichkeit (Fehler kommen ja immer mal vor) die richtigen Designentscheidungen treffen.

Die ATI Leute werden bei ihren Karten sehr viel besser wissen, was sie wann wo drosseln können, und wie sie die Spannungsversorgung auslegen müssen als jeder der hier in diesem Forum postet. (Oh die Nvidia Angestellten natürlich auch, es ging hier nur grad um ATI karten)

Gast
2010-06-06, 19:29:20
Du kannst ne 5870 mitm stockkühler auf 1000 mhz bringen und die vrms bleiben in normalen temperaturen. weiß nicht wie du nur auf solche ideen immer kommst...

Botcruscher
2010-06-06, 20:41:01
Was bin ich froh das gute ingenieure immer eine sicherheitsreseve einbauen die über das maximun hinaus geht, nur die geilen ingenieure bei ati planen nur 75 % und drosseln dann einfach die leistung.

Beide Hersteller drosseln ihre Karten. Den bösen Flamewar kannst du zu hause lassen. Im übrigen ist dein Autovergleich nicht durchdacht. Der Drehzahlbegrenzer greift auch schon im ersten Gang bei 0kmh. Gleichzeitig gibt es noch gut ein Dutzend anderer Sensoren von ESP, über Temperatur, Zündzeitpunkt, Kraftstoff, Luftzugabe bis zu Lambdasonde welche deinen Motor nach engen Regeln steuern. Das beginnt schon am Gaspedal. Du gibst heute kein Gas mahr, du signalisierst der Steuerautomatik nur das du gerne schneller wärst.

Kennst du das Geld/Zeit/Manpower-Verhältnis zwischen Monitoring-Chip und besseren VRMs?

Der Sensor dürfte bei der Wirtschaftlichkeit bei weitem die beste Lösung sein. Nebenbei dürfte eine gute Überwachung noch weiteren Schutz in Extremsituationen bringen, welche bessere Vram alleine nicht bringen können.
PS: Dank digitaler Wandler werden wir hier bei beiden Herstellern noch deutliche Weiterentwicklungen sehen.

hq-hq
2010-06-06, 21:03:18
Beide Hersteller drosseln ihre Karten. Den bösen Flamewar kannst du zu hause lassen. Im übrigen ist dein Autovergleich nicht durchdacht. Der Drehzahlbegrenzer greift auch schon im ersten Gang bei 0kmh. Gleichzeitig gibt es noch gut ein Dutzend anderer Sensoren von ESP, über Temperatur, Zündzeitpunkt, Kraftstoff, Luftzugabe bis zu Lambdasonde welche deinen Motor nach engen Regeln steuern. Das beginnt schon am Gaspedal. Du gibst heute kein Gas mahr, du signalisierst der Steuerautomatik nur das du gerne schneller wärst.

nun, das problem ist aber das ich bei 250kmh auf der graden ~26liter/100km verbrauche, aber bergauf bei gleichbleibender geschwindigkeit ~32liter/100km

deine vielen worte erfassen nicht das problem

Captain Future
2010-06-06, 21:43:51
Gleichzeitig gibt es noch gut ein Dutzend anderer Sensoren von ESP, über Temperatur, Zündzeitpunkt, Kraftstoff, Luftzugabe bis zu Lambdasonde welche deinen Motor nach engen Regeln steuern. Das beginnt schon am Gaspedal. Du gibst heute kein Gas mahr, du signalisierst der Steuerautomatik nur das du gerne schneller wärst.
Aber Sensoren wie ESP, ABS oder der Drehzahlbegrenzer (deine anderen Beispiel treffen's nicht so - die sind eher analog zu vGPU, vMEM und so) greifen ein, wenn irgendwas außer Kontroller gerät: Durchdrehende oder blockierende Reifen, zu hohe Drehzahl.

Das alles ist aber nicht zu vergleichen mit der Furmark-Drossel. Die wäre eher analog zu einem Sensor, der dein Gaspedal/Drehzahl/whatever begrenzt, sobald er merkt, dass das Auto bergab fährt - egal ob es gerade mit 15 oder 150 km/h unterwegs ist. Und das ist das Problem: Das von vornherein gedrosselt wird, nicht erst beim Überschreiten eines Schwellwertes.

y33H@
2010-06-06, 21:44:39
Allerdings kritisierst du die Entwickler die falsche Entscheidung getroffen zu haben, obwohl du keinen Einblick in die Sachlage hast.Ich sehe einen Chip, der mit einer bestimmten GLOPS-Zahl beworben, in der Praxis aber gethrottelt wird. Das ist imo genug Einblick um von einer falschen Entscheidung sprechen zu können.
Dank digitaler Wandler werden wir hier bei beiden Herstellern noch deutliche Weiterentwicklungen sehen. NV nutzt nach wie vor analoge, auch die meisten AIBs von AMD. Warum wohl?

Gast
2010-06-06, 21:48:00
Eigentlich ist es vollkommen egal, wer wo warum drosselt.
Es kommt nur darauf an, was am Ende bei raus kommt. Wenn dann weniger raus kommt als bei der Konkurrenz - Pech gehabt.

Und da man eh nicht wissen kann wie Grafikkarten bei zukünftigen Titeln abschneiden ändert sich in Sachen Weitsicht auch nichts.

Gast
2010-06-06, 21:55:58
Beide Hersteller drosseln ihre Karten. Den bösen Flamewar kannst du zu hause lassen. Im übrigen ist dein Autovergleich nicht durchdacht. Der Drehzahlbegrenzer greift auch schon im ersten Gang bei 0kmh. Gleichzeitig gibt es noch gut ein Dutzend anderer Sensoren von ESP, über Temperatur, Zündzeitpunkt, Kraftstoff, Luftzugabe bis zu Lambdasonde welche deinen Motor nach engen Regeln steuern. Das beginnt schon am Gaspedal. Du gibst heute kein Gas mahr, du signalisierst der Steuerautomatik nur das du gerne schneller wärst.
Dein Vergleich ist blödsinn.
Ohne Drehzahlbegrenzer würde es kein Stopp geben, entweder limitiert irgendwann die Motorinterne Reibung oder es fliegt sozusagen in die Luft.
So jetzt zeig mal her wo das Getriebe der Grafikkarte ist. Oder der Drehzalbegrenzer. Könnte ich in Crysis bblablub Einstellung 1000 FPS haben, wenn ich den Begrenzer ausschalten würde? Kaum.

Vergiss es der Vergleich ist Murks. Es geht hier immer noch um Software. Software, die der Hardware eine Berechung durchführen lässt, kein Hexenwerk.
Man tritt nicht mit dem Fuss auf die teure 5870 damit sie schneller wird. Zumindest habe ich das noch nie gesehen.

Gimmick
2010-06-06, 22:00:42
Ich sehe einen Chip, der mit einer bestimmten GLOPS-Zahl beworben, in der Praxis aber gethrottelt wird.

Das stimmt zwar. Aber ich hoffe doch, dass keiner Grafikkarten nach ihren theoretischen Leistungsmerkmalen kauft.

y33H@
2010-06-06, 22:04:47
Wenn dem so wäre, hätte AMD die HD4k sicher nicht mit "Unleash the Tera" beworben ... das ist das Problem.

hq-hq
2010-06-06, 22:05:19
Das stimmt zwar. Aber ich hoffe doch, dass keiner Grafikkarten nach ihren theoretischen Leistungsmerkmalen kauft.
:freak:(y)

Gast
2010-06-06, 22:11:13
Das stimmt zwar. Aber ich hoffe doch, dass keiner Grafikkarten nach ihren theoretischen Leistungsmerkmalen kauft.
Genauso kannst du hoffen das Niemand nach "Performance" Ratings kauf. ;D

Gimmick
2010-06-06, 23:05:11
Gibts denn irgendwelche Review mit theoretischen Tests, die statt fps FLOPS ausspucken? Nur mal so aus Neugier.

Gast
2010-06-06, 23:21:16
Ich sehe einen Chip, der mit einer bestimmten GLOPS-Zahl beworben, in der Praxis aber gethrottelt wird. Das ist imo genug Einblick um von einer falschen Entscheidung sprechen zu können.
In der Praxis heißt auf deutsch im Furmark, und ggf. bei irgendwelchen anderen Nischenanwendungen die es schaffen eine Grafikkarte voll auszulasten.
Man kann zwar sicherlich das Marketing dafür kritisieren mit unlauteren Zahlen Werbung zu machen, aber aus technischer/wirtschaftlicher Sicht war es wahrscheinlich dennoch richtig.
Ich glaub einfach nicht das ATI so dumm ist ihre eigenen Grafikkarten in Spielen zu drosseln. Dann könnten sie ja einfach den Sicherheitsmechanismus rausnehmen, hochsetzten oder abschalten, ggf. bessere Kühlung Spannungsversorgung bissi mehr Takt und hätten mit relativ wenig Aufwand ne 5890(was sie wohl auch gemacht hätten sollte deine Theorie richtig sein).

Bucklew
2010-06-06, 23:28:26
Warum setze ich dem Chip VMRs vor, die den GPU-Load nicht handeln können? :usad:
Ja, das ist durchaus peinlich. Und genauso peinlich ist auch, dass man den Furmark ausbremsen muss. Denn die das zeigt die absolute Schwachstelle der ATI-Architektur:

Warum baut man 1600 Shaderprozessoren auf einen Chip, wenn man diese gleichzeitig gar nicht in Betrieb nehmen kann (=Furmark)??

WARUM?

Dann sollen sie doch lieber 1400 oder 1200 drauf klatschen, die ich dafür alle gleichzeitig nutzen kann, anstelle dann zu drosseln, wenn es interessant werden würde. Aber nein: Man klatscht lieber soviele drauf, um mit theoretischen Werten werben zu können. Denn die theoretischen 2,x GFlops der aktuellen Karten ist defakto (=Furmark) nicht erreichbar, dann raucht die Karte ab.

Die Resonanz der Gäste sagt echt schon alles über das Hornissennest, in das du da gefallen bist ;D

Es ist das normalste der Welt, und das gibt es auch nicht nur bei Grafikkarten, nicht nur bei Elektronik sondern fast überall. Man kann bei einem hochkomplexen System nicht alle Eventualitäten vorsehen, daher gibt es Mittel und Wegen diese zu überwachen und gegebenenfalls einzuschreiten. Das y33H@ mal wieder seine Inkompetenz zur Schau stellt sollte niemanden mehr überraschen.
Das man ein System im Rahmen seine beworbenen Fähigkeiten (!) nutzt, ist jetzt also schon "alle Eventualitäten"? Süß....

Wenn ich ein Auto kaufe, wo mir der Hersteller verspricht, dass es bei 6000 U/min 150PS erreicht und es dann nur 120PS hat, steht schneller auf dem Händlerhof als der gucken kann. Wenn der Drehzahlbegrenzer bei 5000 eingreift sogar in der Hälfte der Zeit. Was sollen solche blödsinnigen Vergleiche?

Coda
2010-06-06, 23:33:07
Warum baut man 1600 Shaderprozessoren auf einen Chip, wenn man diese gleichzeitig gar nicht in Betrieb nehmen kann (=Furmark)??
Das kann man, sonst würde die GPU bei GPGPU-Dingen regelmäßig zu heiß werden.

Das Problem ist vielmehr, dass im Furmark auch noch der restliche Chip bis an seine Grenzen getrieben wird.

Bucklew
2010-06-06, 23:36:18
Das kann man, sonst würde die GPU bei GPGPU-Dingen regelmäßig zu heiß werden.
Mir ist keine App bekannt, die die 2,7 TFlops zu 100% ausreizen kann. Oder hab ich was verpasst?

Gestrandet
2010-06-06, 23:45:59
btw nett, wie sofort die militanten Ati-Gast-Trolle aus ihren Höhlen rennen, sobald man solche Posts verfasst :ulol: Hauptsache das KONJUNKTIVE "Wäre ich böse, würde ich sagen" überlesen und mich persönlich attackieren. Betrifft nicht den Gast auf #6349.
Sorry, aber deine Beiträge sind einfach nur peinlich, vom Inhalt ebenso wie vom Stil.
Wäre ich böse, würde ich sagen du bist eine Schande für deine Zunft. Aber ich bin ja ganz ein lieber. Hast du nochmal Glück gehabt.
*kopfschüttel*

Coda
2010-06-06, 23:52:45
Mir ist keine App bekannt, die die 2,7 TFlops zu 100% ausreizen kann. Oder hab ich was verpasst?
Das kommt nicht daher dass die SIMDs nicht vollständig verwendet werden sondern von der statischen VLIW-Auslastung.

Iruwen
2010-06-07, 00:02:03
Sorry, aber deine Beiträge sind einfach nur peinlich, vom Inhalt ebenso wie vom Stil.
Wäre ich böse, würde ich sagen du bist eine Schande für deine Zunft. Aber ich bin ja ganz ein lieber. Hast du nochmal Glück gehabt.
*kopfschüttel*
Was sind dann die Gastposts? Schon illegal?

Gestrandet
2010-06-07, 00:44:30
Ob jemand als anonymer Fuzzi auftritt oder als Teil der Presse bekannt ist, da sehe ich schon einen Unterschied im Anspruch, den man an seine eigenen Beiträge stellen sollte - und den andere an sie stellen dürfen.
Es zeugt IMO nicht unbedingt von Charakter, wenn man versucht seine Sicht quasi unangreifbar zu machen, indem man sie hinter einer formelhafte Wendung im Konjunktiv verschanzt. Wahrscheinlich mit dem Hintergedanken: Man ist ja der große Rhetor, die Edelfeder vom PCGH Magazin, die doofen ATI Fanboys legt man verbal doch leicht aufs Kreuz. Was Nvidia an Shaderpower fehlt, muss man eben an der Propagandafront wettmachen.
Von einem Redakteur find ich das ein Armutszeugnis.

hq-hq
2010-06-07, 00:50:23
sagtmal, wieviele anonyme pcgh redakteure gibts eigentlich hier ?:freak:

gibts auch welche von gamestar ?:ulol:

Gestrandet
2010-06-07, 01:03:44
k.A.
Mich hat man bei Computerbild Spiele rausgeschmissen

Bucklew
2010-06-07, 01:15:52
Das kommt nicht daher dass die SIMDs nicht vollständig verwendet werden sondern von der statischen VLIW-Auslastung.
Ergo gibt es keinen Beweis, dass nicht auch GPGPU-Apps durch diese Furmark-Drosselung betroffen sind?

Gestrandet
2010-06-07, 01:22:43
*moan* Gibts einen Beweis dass der Hund nicht auf den teuren Perser kackt, wenn man Tesselation mit Fermi nutzt?
Was für sinnlose Fragen ...

hq-hq
2010-06-07, 01:36:42
naja eigentlich wäre das eine ziemlich interessante frage.

und mach dir nix draus Gestrandet, ich hätt dich bestimmt auch rausgeschmissen ;)
minderleister, unruhestifter und betriebsratgründer müssen weichen:freak:

Coda
2010-06-07, 01:56:56
Ergo gibt es keinen Beweis, dass nicht auch GPGPU-Apps durch diese Furmark-Drosselung betroffen sind?
Bucklew, du kannst dir sicher sein, dass sowas längst aufgefallen wäre.

Man kommt mit synthetischen Tests sehr nahe an die 2,7 TFLOPS.

Gestrandet
2010-06-07, 02:06:56
Leg halt Zeitung drüber oder geh öfter mit der Töle gassi.
Bucklew ist ja doch leicht zu durchschauen - selbst wenn man ihm jetzt eine abzählbar unendliche Liste mit GPGPU-Anwendungen, die nicht gedrosselt werden, vorläge, würde er sich am Ende doch darauf zurückziehen, dass bei der wichtigsten Anwendung überhaupt ja doch gedrosselt wird und die Liste wertlos sei (genau, beim FURRRRRRMARK!) :D

Stellt euch doch nit dümmer als ihr eh schon seid ... ihr wisst genausogut wie die roten Fanboys dass es gar keinen Sinn machen würde, eine Karte auf einen "Powervirus" auszulegen. Das würde für alle Käufer Mehrkosten bedeuten, für einen Use Case, den keiner braucht. Also Geldverschwendung (aber andererseits habe ich manchmal schon den Eindruck, dass Geldverschwendung besonders im grünen Lager zum guten Ton gehört. Hmmmm.)
BTW wer die Rechenpower wirklich braucht, der testet die Dinger sowieso vor der Anschaffung. Also macht euch um die Leute keine Sorgen, die kaufen die Katze schon nicht im Sack.

Bucklew, du kannst dir sicher sein, dass sowas längst aufgefallen wäre.
Man kommt mit synthetischen Tests sehr nahe an die 2,7 TFLOPS.
Das ist aber kein Beweis! LOL
Wahrscheinlich waren die synthetischen Test einfach ungünstig. Nein, wahrscheinlicher noch, die wurden alle von ATI Fanboys gemacht und nur die "guten" veröffentlicht. Die Wahrheit wird geheim gehalten, aber sie ist irgendwo da draußen ^^
Und überhaupt, "sehr nah" beweist doch im Grunde schon, dass da gedrosselt wird!

Gast
2010-06-07, 02:34:35
Eine Furmark-Drosselung ist doch bisher nur Spekulation oder nicht?

Coda
2010-06-07, 02:35:13
Das ist keine Spekulation.

mapel110
2010-06-07, 02:35:31
Eine Furmark-Drosselung ist doch bisher nur Spekulation oder nicht?
Nein. Bei beiden IHVs nachgewiesen.

Gast
2010-06-07, 02:38:58
Nein. Bei beiden IHVs nachgewiesen.

Bitte nochmal kurz zusammenfassen:

GTX 4xx und HD 5xxx gedrosselt? Und mit welcher Methode (und wie nachgewiesen)?

Gast
2010-06-07, 07:45:55
Bitte nochmal kurz zusammenfassen:

GTX 4xx und HD 5xxx gedrosselt? Und mit welcher Methode (und wie nachgewiesen)?

Es wurde zumindest bei HD4xxx und Gt2xx durch ältere Treiber nachgewiesen. Bei GT4xx und der HD5xxx kann man das ja mangels Treibern ohne Drossel nicht mehr. Aber es ist zumindest unwahrscheinlich das die IHVs es bei der neuen Gen plötzlich ohne Grund rausnehmen.

Peinlich finde ich nur das sich die ganze NV-Fanboys laufend nur über AMD brüskieren obwohl es auch bei NV bereits mehrmals nachgewiesen wurde. Aber das wird gerne unter den Teppich gekehrt.

Fetter Fettsack
2010-06-07, 07:59:55
Das ist ja als ob einen porsche kaufe der 320 km/h schafft, aber ab 270 km/h gedrosselt wird mit der begründung das ist der normalfall, schneller dürfen sie nicht. Weil das haben wir nicht eingeplant.


Das gibt es schon seit langem. Dient dazu, dass unfähige Fahrer nicht allzu schnell die Kontrolle über das Fahrzeug verlieren.

@ furmark-Drosselung

Wo ist da eigentlich das Problem? Ich meine, wo sind die realen Leistungseinbußen? Ich finde es persönlich schon besser, wenn etwas nicht seine vollen Leistung entfaltet, wenn ich dafür die Sicherheit habe, dass die "Restleistung" ohne Probleme erbracht wird.

Außerdem, wie schon gesagt, die Leute, die wirklich das letzte Quäntchen an Leistungsfähigkeit benötigen, werden wohl kaum auf radeon3D die theoretische Rechenleistung nachschauen und danach ihre Kaufentscheidung fällen. Zumindest halte ich das für hochgradig unwahrscheinlich.

@ y33h@

Wieso findest du, dass eine für Extremlasten nicht ausgelegte Spannungsversorgung ein Design-Fail darstellt? Eine Grafikkarte soll doch einfach nur funktionieren und ihre Leistung bringen, ob da nun ein fps mehr oder wenige rausschaut, ist doch im Endeffekt vernachlässigbar.

Außerdem, auch wenn ich mich nur ungern den doch eher angriffigen Gast-Post anschließe, aber ich finde, dass es schon seine Richtigkeit hat, dass wenn man die Praxis bei ATi kritisiert, dies auch der Fairness halber bei nVidia machen sollte, so es stimmt, dass die auch eine Drosselung haben.

Bucklew
2010-06-07, 10:56:45
Bucklew, du kannst dir sicher sein, dass sowas längst aufgefallen wäre.
Laut dem Link von Geeks3D wird der Furmark ab Herbst 2009 dadurch gedrosselt, dass man bei ungewöhnlichen Verhältnissen zwischen Alu- und Tex-Operationen die App drosselt. Nichts anderes wäre wohl eine GPGPU-App.

Man kommt mit synthetischen Tests sehr nahe an die 2,7 TFLOPS.
Link?

Iruwen
2010-06-07, 12:29:14
Peinlich finde ich nur das sich die ganze NV-Fanboys laufend nur über AMD brüskieren obwohl es auch bei NV bereits mehrmals nachgewiesen wurde. Aber das wird gerne unter den Teppich gekehrt.
Link?

Coda
2010-06-07, 13:03:34
Laut dem Link von Geeks3D wird der Furmark ab Herbst 2009 dadurch gedrosselt, dass man bei ungewöhnlichen Verhältnissen zwischen Alu- und Tex-Operationen die App drosselt. Nichts anderes wäre wohl eine GPGPU-App.
Eine GPGPU-App verwendet i.d.R. überhaupt keine TMUs.

Link?
http://www.beyond3d.com/content/reviews/53/13

97% Issue Rate bei 5-way independent float MADs, d.h. 2,6 TFLOPs.

deekey777
2010-06-07, 13:58:38
...

Link?
Damit du Ruhe gibst, brauchst du einen Link zur Software, deren stupide Aufgabe ist, das Maximum an GFLOPS zu erreichen und dies mit einer GFLOPS-Anzeige zu belegen?
Es gibt einen Benchmark, nur finde ich ihn jetzt nicht. Dafür gebe ich dir aber einen anderen Link mit sivvollerer Software:

http://galaxy.u-aizu.ac.jp/trac/note/wiki/Tests_With_RV870

hq-hq
2010-06-07, 13:59:33
hey, wie wärs wenn wir mal eine gtx470, 480, ati5870 und 5850 in den directcompute benchmark schicken und dabei die leistungsaufnahme vom system vergleichen zu furmark.

download http://www.ngohq.com/home.php?page=Files&go=cat&dwn_cat_id=25&go=giveme&dwn_id=937

rumors http://www.computerbase.de/forum/showthread.php?t=657825&page=4

Raff
2010-06-07, 14:06:04
Mach doch mal einen Thread im Benchmarking-Unterforum auf. Ich teste das Ding auch schon fleißig. :D Die Zypressen regeln erwartungsgemäß.

MfG,
Raff

hq-hq
2010-06-07, 15:13:49
ich geh jetzt erstmal pizza verdauen während mir die sonne auf den bauch scheint :uhippie:
kannst ruhig schonmal was vorlegen, ich lass das dann heute noch laufen und
schreib dazu was mein sys dabei so an watt zieht. :freak:

Byteschlumpf
2010-06-07, 15:42:04
Hat jemand schon Erkenntnisse darüber, wie sich Fermi bei hohen Zimmertemperaturen (> 25°C) verhält - IDLE und LOAD?
Meine GTS640 (90nm) wird dabei im gut durchlüfteten Gehäuse etwa 10°C wärmer, als meine HD5850.

SamLombardo
2010-06-07, 16:37:52
Hat jemand schon Erkenntnisse darüber, wie sich Fermi bei hohen Zimmertemperaturen (> 25°C) verhält - IDLE und LOAD?
Meine GTS640 (90nm) wird dabei im gut durchlüfteten Gehäuse etwa 10°C wärmer, als meine HD5850.
...und wie ist der Unterschied zu Zimmertemperaturen von um die 20 Grad?
wäre mal interesant

Byteschlumpf
2010-06-07, 16:58:35
Bei etwa 20°C sehen die IDLE-Werte folglich aus:

HD5850: 48°C (22% Lüfterdrehzahl = 814RPM)
GTS640: 56°C (60% Lüfterdrehzahl = 1570RPM)
Beide Lüfter sind unauffällig in der Lautstärke.

Schlammsau
2010-06-07, 17:17:58
hey, wie wärs wenn wir mal eine gtx470, 480, ati5870 und 5850 in den directcompute benchmark schicken und dabei die leistungsaufnahme vom system vergleichen zu furmark.

download http://www.ngohq.com/home.php?page=Files&go=cat&dwn_cat_id=25&go=giveme&dwn_id=937

rumors http://www.computerbase.de/forum/showthread.php?t=657825&page=4

Asus P5Q - Q9550@3,79Ghz - 2x2GB DDRII RAM (5-5-5-15)
5850@1,187V@910/1220Mhz

Gesamtes System gemessen mit 2 verschiedenen Strommessgeräten!

Idle: ~90W

Benchmark version: v0.45
DirectCompute: D8603.7 ~170W
OpenCL: C3740.6 ~235W
CPU: M47.7 ~215W

FURMark 1.8.2, 1280x1024 ohne AA und AF: ~330W

SamLombardo
2010-06-07, 17:44:59
Bei etwa 20°C sehen die IDLE-Werte folglich aus:

HD5850: 48°C (22% Lüfterdrehzahl = 814RPM)
GTS640: 56°C (60% Lüfterdrehzahl = 1570RPM)
Beide Lüfter sind unauffällig in der Lautstärke.
Danke schonmal. Poste doch noch mal die Werte von 25 grad Zimmertemp. Der Unterschied würde mich interessieren.

pest
2010-06-07, 17:57:42
Strommessgeräten!


ah...ich weiß...trotzdem...:wink:

Klingone mit Klampfe
2010-06-07, 18:02:13
Danke schonmal. Poste doch noch mal die Werte von 25 grad Zimmertemp. Der Unterschied würde mich interessieren.

Ich bin kein Physiker, aber wenn die Karte bei 20°C Zimmertemperatur (=TP) 80°C unter Vollast erreicht, sollte das auch bei 50°C ZT der Fall sein. Solange die ZT deutlich unter der VGA-Temperatur liegt, ändert sich an der Maximaltemperatur wenig, nur die Minimaltemperatur im erhöht sich entsprechend. Die ZT wird ja nicht einfach dazuaddiert.

Volumen und Geschwindigkeit des Luftstroms haben einen weit größeren Einfluss als die ZT.

Gast
2010-06-07, 18:04:41
Ich bin kein Physiker, aber wenn die Karte bei 20°C Zimmertemperatur (=TP) 80°C unter Vollast erreicht, sollte das auch bei 50°C ZT der Fall sein. Solange die ZT deutlich unter der VGA-Temperatur liegt, ändert sich an der Maximaltemperatur wenig, nur die Minimaltemperatur im erhöht sich entsprechend. Die ZT wird ja nicht einfach dazuaddiert.

Volumen und Geschwindigkeit des Luftstroms haben einen weit größeren Einfluss als die ZT.

Also eine Graka hat imo bei 50°C ZT sicher eine wesentlich höhere Temperatur als bei 20°C ZT.

Schlammsau
2010-06-07, 18:05:07
ah...ich weiß...trotzdem...:wink:

Was soll das heissen? :confused:

Zatoichi
2010-06-07, 18:17:51
Bei 25°C im Idle 43-44°C. GTX480 / Lüfter Auto nicht aus dem System zu hören.

pest
2010-06-07, 18:21:29
Was soll das heissen? :confused:

das du kein strommessgerät benutzt

Schlammsau
2010-06-07, 18:25:06
das du kein strommessgerät benutzt

Was den sonst? :confused:

Klingone mit Klampfe
2010-06-07, 18:28:00
Also eine Graka hat imo bei 50°C ZT sicher eine wesentlich höhere Temperatur als bei 20°C ZT.

Das leuchtet mir nicht ein. Denn der Lüftstrom kühlt die Karte ja trotzdem herunter - nur dann eben auf 50°C statt 20°C. Solange die heiße Luft zügig abtransportiert wird, sollte das aus meiner Sicht keine Rolle Spielen. Wenn ich im Backofen eine Pizza bei 200°C backe, wird er ja auch nicht heißer, wenn ich zusätzlich mit einem Haartrockner hineinblase. Die Gesamttemperatur wird sogar leicht sinken, je nach Verhältnis der Luftmenge.

Spasstiger
2010-06-07, 18:30:41
@Klingone mit Klampfe: Das ist mit Sicherheit so. Je höher die Lufttemperatur der Umgebung, desto höher ist auch die Temperatur der luftgekühlten Komponenten bei gleichbleibendem Luftstrom. Das kleinere Temperaturdelta führt dazu, dass weniger Wärme vom Kühlkörper auf die Luft übergeht.

Vertigo
2010-06-07, 18:35:00
Das leuchtet mir nicht ein. Denn der Lüftstrom kühlt die Karte ja trotzdem herunter - nur dann eben auf 50°C statt 20°C. Solange die heiße Luft zügig abtransportiert wird, sollte das aus meiner Sicht keine Rolle Spielen. Wenn ich im Backofen eine Pizza bei 200°C backe, wird er ja auch nicht heißer, wenn ich zusätzlich mit einem Haartrockner hineinblase. Die Gesamttemperatur wird sogar leicht sinken, je nach Verhältnis der Luftmenge.
Ist dabei die Pizza die Wärmequelle? Ich glaub eher nicht. Um etwas, z. Bsp. eine GPU, effektiv zu kühlen, braucht man ein möglichst großes Temperaturgefälle zwischen Quelle (GPU) und Senke (Kühlkörper, Luft). Ist das Gefälle niedriger, kann der Ausgleich nicht in dem selben Maße erfolgen wie bei höherem Gefälle. Ergo erhöht sich die Temperatur der GPU wenn die Umgebung wärmer ist bei konstantem Luftstrom.

Klingone mit Klampfe
2010-06-07, 18:49:47
Die Frage ist doch, ob man bei popeligen 10°C ZT-Differenz schon einen Unterschied sieht. Ich denke, es werden vielleicht 3-5°C sein.

hq-hq
2010-06-07, 20:40:30
von ~20°C zu ~28°C RT sinds bei mir +4°C idle und etwa +7% fanspeed unter last
gtx470@stock

Wuge
2010-06-07, 21:38:10
Wenn das Lüfterprofil bestimmte Sollwerte hat und danach den Drehzahl steuert, ist die GPU Temperatur nahezu gleich (aber der Lüfter lauter :P).

Ich kann die GTX470 @ 800/1600/1933 bei knapp über 22°C Zimmertemperatur und mäßig belüfteten Tower jedenfalls noch problemlos mit dem Referenzkühler bei etwa 92-94°C halten.

kmf
2010-06-07, 23:27:55
Gegen zu warm hilft ein klitzekleines Loch im Gehäuseboden. Meine 470er sind jedenfalls net lauter als meine beiden 260er mit Luftkühlung. Den Tower, in dem meine 260er verbaut waren, musste ich auch modifizieren, damit die untere Graka net wegen Überhitzung den gesamten Rechner lahmgelegt hat. Außerdem musste ich oben düber einen Lüfter installieren, der die Graka eigenen Quirls zusätzlich unterstützt hat. Bei den 470ern kann ich mir das durch das offene PCB schenken. Aber es muss auch eine Nvidia-Mutterplatine sein. Alles andere ist vom PCIe-Abstand viel zu eng.

http://extreme.pcgameshardware.de/alben/thumbs/45/050a0acb4c80a7f500fddab41045e527_45116.jpg?dl=1275945313 (http://extreme.pcgameshardware.de/members/kmf-albums-krimskram-1032-picture45116-cimg0455.jpg) http://extreme.pcgameshardware.de/alben/thumbs/45/b1c343e252250a3d9bd6b4fe24d3e2e1_45117.jpg?dl=1275945313 (http://extreme.pcgameshardware.de/members/kmf-albums-krimskram-1032-picture45117-cimg0456.jpg)

Coda
2010-06-08, 00:27:24
Was den sonst? :confused:
Ein Leistungsmessgerät

hq-hq
2010-06-08, 12:49:07
Ein Leistungsmessgerät
meins kann sogar Strom und Leistung messen ! :freak:
sozusagen ein IMBA-Messgerät!

Gast
2010-06-08, 13:22:04
krass... haste auch das gute von tchibo wa xD

Byteschlumpf
2010-06-08, 15:11:19
Bei etwa 25°C sehen die IDLE-Werte folglich aus:

HD5850: 51°C (23% Lüfterdrehzahl = 872RPM)
GTS640: 59°C (60% Lüfterdrehzahl = 1576RPM)

N0Thing
2010-06-09, 09:53:23
Bei etwa 20°C sehen die IDLE-Werte folglich aus:

HD5850: 48°C (22% Lüfterdrehzahl = 814RPM)
GTS640: 56°C (60% Lüfterdrehzahl = 1570RPM)
Beide Lüfter sind unauffällig in der Lautstärke.


Bei etwa 25°C sehen die IDLE-Werte folglich aus:

HD5850: 51°C (23% Lüfterdrehzahl = 872RPM)
GTS640: 59°C (60% Lüfterdrehzahl = 1576RPM)

der Unterschied ist wirklich nicht bedeutend. Einen bemerkbaren Einfluß wird die Zimmertemperatur erst unter Last haben, wenn der Lüfter schneller drehen muß, um die Temperatur im Soll zu halten.

Dural
2010-06-09, 10:09:16
meine gtx470 mit stock kühler / lüfter @ 100% und 800MHz bei 1.050volt läuft mit ca. 75°C bei 25°C raumtemeratur!

also temperatur probleme gibt es bei der 470er mit stock kühler sicher nie!

Reneeeeeee
2010-06-09, 10:18:19
meine gtx470 mit stock kühler / lüfter @ 100% und 800MHz bei 1.050volt läuft mit ca. 75°C bei 25°C raumtemeratur!

also temperatur probleme gibt es bei der 470er mit stock kühler sicher nie!


Aber bald Probleme mit den Ohren, der Rechner steht dann aber nicht neben dir oder ? ^^

Dural
2010-06-09, 10:31:11
finde die karte nicht mal so laut! da gibt es viel schlimmeres @ 100% wie 2900XT oder 3870X2 usw. die sind wirklich laut! ;)

ist OK! muss sogar zugeben das ich etwas erstaunt war als ich den Lüfter zum ersten mal auf 100% gestellt habe, nach den ganzen berichten im www hät ich persöndlich deutlich mehr erwartet!

klar in einem silent rechner würd ich das teil nie einbauen mit dem stock kühler...

Gast
2010-06-09, 13:12:01
finde die karte nicht mal so laut! da gibt es viel schlimmeres @ 100% wie 2900XT oder 3870X2 usw. die sind wirklich laut! ;)

ist OK! muss sogar zugeben das ich etwas erstaunt war als ich den Lüfter zum ersten mal auf 100% gestellt habe, nach den ganzen berichten im www hät ich persöndlich deutlich mehr erwartet!

klar in einem silent rechner würd ich das teil nie einbauen mit dem stock kühler...
Kleiner Tip : Wasser und Seife , dann klappts auch wieder mit dem Hören ;-)

Tesseract
2010-06-09, 16:25:10
Ein Leistungsmessgerät

99% aller teile die man so als privatperson kaufen kann sind doch sowieso multimeter.

Coda
2010-06-09, 17:48:19
Er misst ganz bestimmt nicht mit einem Multimeter die Leistungsaufnahme seines PCs

Tesseract
2010-06-09, 18:06:33
Er misst ganz bestimmt nicht mit einem Multimeter die Leistungsaufnahme seines PCs

was denn sonst? mein teil kann ampere, volt, watt usw.

Coda
2010-06-09, 18:10:22
http://www.bilder.preistaktik.de/Artikelbilder/EGLMDU.jpg

Du wirst mir ja wohl nicht erzählen, dass er irgendwie zwischen Computer und Steckdose ein Multimeter reinhängt.

Spasstiger
2010-06-09, 18:15:20
Tesseract redet davon, dass die gebräuchlichen Leistungsmesser effektiv Multimeter sind. Denn sie können nicht nur die Leistung, sondern auch den Strom, die Spannung, die Netzfrequenz und meist sogar die Phasenverschiebung zwischen Strom und Spannung messen.

c0re
2010-06-09, 18:18:04
Das leuchtet mir nicht ein. Denn der Lüftstrom kühlt die Karte ja trotzdem herunter - nur dann eben auf 50°C statt 20°C. Solange die heiße Luft zügig abtransportiert wird, sollte das aus meiner Sicht keine Rolle Spielen. Wenn ich im Backofen eine Pizza bei 200°C backe, wird er ja auch nicht heißer, wenn ich zusätzlich mit einem Haartrockner hineinblase. Die Gesamttemperatur wird sogar leicht sinken, je nach Verhältnis der Luftmenge.


du irrst dich.
es gibt sogar viele öfen, die so einen "haartrockner" extra eingebaut haben, damit dass essen schneller und besser fertig wird: Umluft
die warme luft kommt nicht nur von unten sondern wird verteilt durch ein lüftungssystem um das essen von allen seiten anzugreifen :)

ich denke auch, dass eine graka die einer höheren betriebstemperatur ausgesetzt ist, schneller defekt ist als eine die um 50°c kühler ist.
(edit: wir reden über reale bedingungen eines gamers, also sagn wir 110°c gegenüber 60°c ist ein unterschied der sich bemerkbar machen wird. sogar bei 110°c vs 90°c gilt das.
sicherlich reden wir von monaten oder gar jahren, ändert aber wenig bis nichts.

damit wäre erwiesen dass nvidia besser ist als ati, wenn sie nicht gerade schlechter sind oder umgekehrt :D

Tesseract
2010-06-09, 19:33:53
http://www.bilder.preistaktik.de/Artikelbilder/EGLMDU.jpg

Du wirst mir ja wohl nicht erzählen, dass er irgendwie zwischen Computer und Steckdose ein Multimeter reinhängt.

genau das ding mein ich. wo ist das problem? versteh gerade ned was du meinst. :(

Coda
2010-06-09, 19:45:43
Such mal bei Google nach Bildern für "Multimeter".

Die Steckdosen-Dinger werden nirgends so bezeichnet.

Dicker Igel
2010-06-09, 20:05:10
Ein brauchbares Multimeter kostet auch mehr als der Steckdosenkram ^^

Bucklew
2010-06-09, 20:39:23
Ein brauchbares Multimeter kostet auch mehr als der Steckdosenkram ^^
Vorallem um auch nicht ganz 100%ig richtigen Sinus zu messen....

Tesseract
2010-06-09, 22:57:19
Such mal bei Google nach Bildern für "Multimeter".

Die Steckdosen-Dinger werden nirgends so bezeichnet.

wie würdest du es denn bezeichnen? consumer-(maximal)-watt-ampere-volt-kosten-messgerät? :D

hq-hq
2010-06-09, 23:25:23
energiekosten-messgerät ;)

Bucklew
2010-06-09, 23:45:30
energiekosten-messgerät ;)
Eigentlich Leistungsmessgerät. Die Dinger können außer Spannung, Strom und Leistung und vllt Netzfrequenz nicht viel anzeigen. Wobei man eigentlich eher von Prüf- als von Messgerät sprechen muss ;)

Um bei Wechselstrom wirklich exakte Werte zu kriegen muss man schon deutlich tiefer in die Tasche greifen.

Dr. Cox
2010-06-13, 23:11:47
Bei Hardwareluxx scheint in den Benchmarks zur GTX 465 irgendetwas nicht ganz zu stimmen. Eine GTX 465 schlägt dort angeblich hin und wieder sogar eine HD 5870. Irgendwie gibt dieser Test ein ganz anderes Bild dieser Karte wieder als die Tests von PCGH und Computerbase, woran kann das liegen?

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/15460-test-zotac-geforce-gtx-465.html?start=9

y33H@
2010-06-13, 23:14:37
Bei PCGH schlägt die GTX465 die HD5870 in WoW und GTA4 ebenfalls (wenn auch nur sehr knapp). Und FC2 ist ohnehin eine Fermi-Domäne.

Dr. Cox
2010-06-13, 23:17:00
Aber wie kann das hier sein?

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/15460-test-zotac-geforce-gtx-465.html?start=10

Die HD 5850 wird in Crysis Warhead von der GTX 465 deutlich geschlagen und einmal sogar die HD 5870...

Ich dachte Crysis wäre die Cypress-Domäne schlechthin?

y33H@
2010-06-13, 23:18:38
Was soll daran so komisch sein? Je nach Szene sind die Fermis auch in Crysis nicht übel. LUXX nutzt iirc die Ambush-Timedemo.

hq-hq
2010-06-13, 23:23:02
die gtx465 mag zwar stark verkrüppelt sein, aber unter 4x oder 8x AA is dennoch genügend leistung übrig... jo schon erstaunlich die liegt eigentlich überall recht gut auch in crysis warhead, dirt2 ...

Dr. Cox
2010-06-13, 23:25:45
Nur wieso schneidet die GTX 465 dann überall so schlecht ab? In der vorletzten PCGH liegt die GTX 470 z.B. immer hinter einer HD 5870 zurück und wird manchmal sogar von einer HD 5850 geschlagen und bei Hardwareluxx sieht das Ganze auf einmal ganz anders aus...

y33H@
2010-06-13, 23:29:20
Weil jedes Mag nun mal andere Szenen und Zeiten zum Messen nimmt. Keiner hat die "Wahrheit" gepachtet.

Schrotti
2010-06-13, 23:33:20
Schade das man sich hier fast zerfleischt wenn es um ATI vs. nV geht.

Ich weiß gar nicht mehr wann es die letzte gesittete Diskussion gab.

Dr. Cox
2010-06-13, 23:34:57
Weil jedes Mag nun mal andere Szenen und Zeiten zum Messen nimmt. Keiner hat die "Wahrheit" gepachtet.


Das heißt also, dass die GTX 465 in der Praxis abseits der typischen Benchmarksequenzen theoretisch schneller als eine HD 5850 sein kann, weil dort vielleicht nicht "optimiert" wurde?

Denn ich habe zwischen einer GTX260 und einer HD 4870/1GB - welche eigentlich laut Tests gleich schnell sein sollten - gemerkt, dass die GTX 260 durchgehend eine gleichbleibendere und konstant höhere Bildrate bei gleichen Einstellungen erzielte als die HD 4870/1GB. Kann das vielleicht sein, dass ATI auf Spiele und Benchmarks die oft genutzt werden hin optimiert um in den oft genutzten Benchmarks besser dazustehen? Ich bin der Meinung das Carsten in einer PCGH mal etwas ähnliches zum Release der GTX 280 erwähnt hatte. Das ATIs derzeitige Chiparchitektur sehr "optimierungsbedürftig" ist, ist ja bekannt.

Mir geht es letzten Endes nur darum, eine neue Grafikkarte zu erstehen, die in Spielen in der Praxis und nicht nur in Benchmarks glänzt ;)

Denn ich bekomme die GTX 465 für 254€ oder die GTX 470 für 288€ und muss mich zum Ende des Monats entscheiden, was ich nicht ganz leicht finde...

Schrotti
2010-06-13, 23:39:15
Kann das vielleicht sein, dass ATI auf Spiele und Benchmarks die oft genutzt werden hin optimiert?

Hast du nichts besseres zu tun als jedes mal wieder Öl ins Feuer zu gießen?

Dr. Cox
2010-06-13, 23:41:54
Hast du nichts besseres zu tun als jedes mal wieder Öl ins Feuer zu gießen?

Wieso Öl ins Feuer gießen? Ich möchte einfach nur eine vernünftige Kaufentscheidung fällen, so einfach ist das ;)

Schrotti
2010-06-13, 23:43:17
Die Entscheidung hast du doch für dich lange entschieden.

Warum musst du also hier Stundenlang auf dem alten Thema rumreiten?

hq-hq
2010-06-13, 23:46:38
eben, ist nur vernünftig sich für die gtx470 zu entscheiden. obwohl mit etwas glück eine gtx465@470 ... hmmm

Dr. Cox
2010-06-13, 23:52:11
eben, ist nur vernünftig sich für die gtx470 zu entscheiden. obwohl mit etwas glück eine gtx465@470 ... hmmm

Nur soll die GTX 465 ja deutlich leiser als eine GTX 470 sein. Die GTX 470 wäre mir wohl zu laut...

Iruwen
2010-06-14, 00:01:33
Kann das vielleicht sein, dass ATI auf Spiele und Benchmarks die oft genutzt werden hin optimiert um in den oft genutzten Benchmarks besser dazustehen?

Tun das nicht beide? :wink: ATI hat's bei Crysis etwas übertrieben, aber sowas kommt immer wieder vor.

Dr. Cox
2010-06-14, 00:04:52
Tun das nicht beide? :wink: ATI hat's bei Crysis etwas übertrieben, aber sowas kommt immer wieder vor.

Das heißt dann, ich müsste mir eine HD 5850, eine HD 5870, eine GTX 465 und eine GTX 470 besorgen und mit jeder bei gleichen Einstellungen verscheiden Spielsequenzen durchlaufen um mir ein praxisnahes Bild machen zu können, wie weit die Karten wirklich leistungsmäßig auseinander liegen?

Gast
2010-06-14, 00:39:11
[QUOTE=Dr. Cox;8084475Kann das vielleicht sein, dass ATI auf Spiele und Benchmarks die oft genutzt werden hin optimiert um in den oft genutzten Benchmarks besser dazustehen?[/QUOTE]
Ersetze genutzt mit gebencht und optimiert mit gecheatet.
Im Falle von Crysis passt es jedenfalls perfekt.

mapel110
2010-06-14, 00:41:55
nvidia macht das sicher genau so, aber hinzu kommt dann halt noch der Dev-Support, so das auch häufig der Rest stimmt.

Coda
2010-06-14, 02:02:21
Ersetze genutzt mit gebencht und optimiert mit gecheatet.
Im Falle von Crysis passt es jedenfalls perfekt.
Ja, da "optimiert" AMD ziemlich sicher mehr als normal schon üblich. Deshalb geb ich auch nichts auf die Ergebnisse der HD5000 dort.

Dr. Cox
2010-06-16, 00:29:24
So, habe mir nun bei edel-grafikkarten.de eine GTX 470 und zwar die bereits undervoltete "Green Edition":

http://edel-grafikkarten.de/NVIDIA/GTX-470/GTX-470-Green-Edition-Undervolted

Ich hatte keine Lust schon wieder das Diskettenlaufwerk aus dem Keller zu holen um die Karte selbst zu undervolten und wohlmöglich festzustellen, dass ich eine schlechte GPU erwischt habe, deshalb überlasse ich das diesmal für 10€ anderen ;) :freak:


Eine normale GTX 470 gibt es dort für bereits 279€:

http://edel-grafikkarten.de/NVIDIA/GTX-470


Wenn die Karte da ist, dann werde ich sie mal auf Herz und Nieren überprüfen ;)

Iruwen
2010-06-16, 00:51:53
Bin ich blind oder steht da nicht mit welcher Spannung die läuft?

Dr. Cox
2010-06-16, 00:53:36
Bin ich blind oder steht da nicht mit welcher Spannung die läuft?

Angeblich mit 0,925 - 0,95 Volt ;)

Gast
2010-06-16, 08:33:24
0,95v sind Standard für die 470.

Raff
2010-06-16, 10:09:52
Es gibt auch welche mit 0,975 und vermutlich auch 0,963 Volt. Die VGPU schwankt wie bei CPUs in Abhängigkeit zur Qualität.

0,925 Volt wäre auf jeden Fall undervolted, 0,95 nicht so richtig. ;)

MfG,
Raff

svenw
2010-06-16, 10:32:53
Ich kann der Vermutung des heutigen Artikels das der 104er bis auf Höhe des 470 ausgefahren wird und der GF100 nur noch für High End und Tesla genutzt wird nicht zustimmen. IMHO macht das keinen Sinn, denn der 470 ist eigentlich nur ein Abfallprodukt der 480 Produktion.
Prinzipiell ist sicher der 104er billiger zu fertigen, nur fallen die Chips die aktuell für die 470 verwendet werden eh an. Wenn man diese Chips wegschmeißt dürfte der Yield des GF100 Prozesses ins Bodenlose sinken, da nur noch die für 480 und 485 geeigneten Chips zu verwenden wären. Solange der Yield der reinen 480/485er Chips nicht so hoch ist das man gute Chips extra für die 470er Produktion beschneidet, würde das finanziell keinen Sinn machen. Und von so einen Szenario ist der GF100 im aktuellen 40nm Verfahren IMHO meilenweit entfernt.

Bucklew
2010-06-16, 10:41:17
Prinzipiell ist sicher der 104er billiger zu fertigen, nur fallen die Chips die aktuell für die 470 verwendet werden eh an. Wenn man diese Chips wegschmeißt dürfte der Yield des GF100 Prozesses ins Bodenlose sinken, da nur noch die für 480 und 485 geeigneten Chips zu verwenden wären.
Die Chips werden nicht nur für GeForce verwendet, es gibt auch Quadrokarten. Und es gab schon beim GT200 eine FX3800 mit stark reduziertem Chip (192 Shader, nur 256bit Memory etc.). Das ganze dann sogar im Singleslot-Design.

Spasstiger
2010-06-16, 10:42:55
@svenw: Die meisten GTX-470-Chips kannst du auch als Tesla-Chips verwenden (448 SPs). Da man mit dem Erscheinen des GF104 sicherlich die GF100-Produktion zurückfährt, um Kapazitäten fürs Mainstream frei zu machen, wird die GTX 470 alleine schon aus Verfügbarkeitsgründen allmählich von der GTX 468 verdrängt werden.

Die Chips werden nicht nur für GeForce verwendet, es gibt auch Quadrokarten.
Das kommt auch noch dazu.

svenw
2010-06-16, 11:51:42
Ups. mein Fehler. Ich dachte Tesla würde mit 480SP Chips gebaut. Mea Culpa. Dann macht das natürlich wirklich Sinn, wenn man die Chips für Tesla verwendet und den Platz der 470 durch einen Großen 104er ersetzt.

BigKid
2010-06-16, 13:47:12
Was mich wieder zu der Frage bringt:
Gibt es mittlerweile Anzeichen für einen fermi v2 im Bereich 480+ und 470+ (kühler und etwas mehr Texturpower).
Bzw. meint ihr dass die 470 einem 10x Platz machen muss und auch hier die Frage nach Anzeichen dafür ?

Ich möchte gerne Aufrüsten (aktuell ne GTX260+) aber ich finde schon dass der Fermi noch Ecken hat die man Abrunden kann und das vermutlich recht schnell und bald...

ShinyMcShine
2010-06-16, 13:47:44
Das wäre meine Wunschkarte um die alte 8800GTS 512 zu ersetzen! ;D
Eine große GF104 mit allen 384SPs bei 675-700MHz Chiptakt (entsprechend 1350-1400 Shadertakt), vollen 64 TMUs, 256 Bit DDR Interface und 1GB GDDR5 RAM @ 1800-1900MHz bei 160-170W TDP (Last). Dafür würde ich auch 280EUR springen lassen... Mit entsprechend leiser Kühllösung auch 'nen 10er mehr :biggrin: Damit sind für mich dann die "Ecken" abgerundet!

VG
Shiny

V2.0
2010-06-16, 14:17:39
Vor dem Herbst würde ich weder mit einer unbeschnittenen GF104 Karte, noch mit GF100B rechnen.

ShinyMcShine
2010-06-16, 14:39:40
So lange kann ich warten. :cool: Habe es schließlich lange mit der alten Karte ausgehalten, da kommt es auf drei Monate mehr nicht an, wenn es dann dafür ein entsprechend rundes Produkt gibt! :wink:

BigKid
2010-06-16, 15:11:47
Die Einstellung Teile ich. Für die Spiele die mir aktuell Spass machen (Mass Effect 2 und Batman - Arkham (Game of the Year Edition) ) (beides Unreal 3 Engine - oder ?) reicht mir die 260+ allemal...
Also heisst es: Warten auf den Oktober ? Sofern ihr mit Herbst einfach Q4 meint... Vielleicht "zwingt" der Markt oder ATI Nvidia ja auch zu ner schnelleren Reaktion...

SamLombardo
2010-06-16, 15:12:52
Das wäre meine Wunschkarte um die alte 8800GTS 512 zu ersetzen! ;D
Eine große GF104 mit allen 384SPs bei 675-700MHz Chiptakt (entsprechend 1350-1400 Shadertakt), vollen 64 TMUs, 256 Bit DDR Interface und 1GB GDDR5 RAM @ 1800-1900MHz bei 160-170W TDP (Last). Dafür würde ich auch 280EUR springen lassen... Mit entsprechend leiser Kühllösung auch 'nen 10er mehr :biggrin: Damit sind für mich dann die "Ecken" abgerundet!

VG
Shiny

mach 1,5 GB ram draus und die Daten wären Top! 1GB ist zuwenig siehe Games wie GTA4 oder Metro bzw viele andere wenn Texturpacks ins Spiel kommen. Ansonsten klingt das echt gut!

ShinyMcShine
2010-06-16, 15:50:58
Wenn der "volle" GF104 ein 256-bittiges SI hat, dann werden es wohl gleich 2GB werden. Sage ich auch nicht nein, wenn sich der Preisaufschlag dafür im Rahmen hält...

VG
Shiny

Spasstiger
2010-06-16, 17:27:17
Die GTX 468 dürfte sich preislich an der HD 5850 orientieren. Und die HD 5850 kostet mit 2 GiB VRAM rund 350€ bzw. 60€ mehr als eine HD 5850 mit 1 GiB VRAM.

V2.0
2010-06-16, 18:11:48
Wenn die GF104, GF106, GF108 und GF100B verfügbar werden, dann läuft auch die zweite FAB und die Preise sinken bei beiden Herstellern, besonders auch da bei AMD ja die SI nicht mehr weit entfernt sind.

Wuge
2010-06-16, 19:13:08
Es gibt auch welche mit 0,975 und vermutlich auch 0,963 Volt. Die VGPU schwankt wie bei CPUs in Abhängigkeit zur Qualität.

0,925 Volt wäre auf jeden Fall undervolted, 0,95 nicht so richtig. ;)

MfG,
Raff

Die VID-Range der GTX470 reicht mindestens von 0.912V bis 1.05V. Hatte beides schon hier. Last-Verbrauch ist identisch, idle nimmt die mit VID 1.05V etwa 10W weniger.

Fetter Fettsack
2010-06-16, 19:37:40
idle nimmt die mit VID 1.05V etwa 10W weniger.

Die mit 1.05V nimmt weniger als die mit 0,912V?

hq-hq
2010-06-16, 19:59:40
Die VID-Range der GTX470 reicht mindestens von 0.912V bis 1.05V. Hatte beides schon hier. Last-Verbrauch ist identisch, idle nimmt die mit VID 1.05V etwa 10W weniger.

tja, das ist nun äusserst unwahrscheinlich, es sei denn du hättest die gpu spannung auf ein level gebracht ?

Raff
2010-06-16, 20:02:19
1,05 Volt? Ernsthaft? :ugly: Sowas habe ich noch nicht gesehen. Maximal 1,0 Volt.

MfG,
Raff

Gast
2010-06-16, 20:05:51
tja, das ist nun äusserst unwahrscheinlich, es sei denn du hättest die gpu spannung auf ein level gebracht ?
Neben Spannung und Takt spielen die elektrischen Eigenschaften des jeweiligen Chips auch eine Rolle. Da hatte die 1,05V Karte wohl niedrigere Leckströme, was dann im Idle bei gleicher Spannung für einen niedrigeren Verbrauch sorgt.

Wuge
2010-06-16, 21:11:35
Neben Spannung und Takt spielen die elektrischen Eigenschaften des jeweiligen Chips auch eine Rolle. Da hatte die 1,05V Karte wohl niedrigere Leckströme, was dann im Idle bei gleicher Spannung für einen niedrigeren Verbrauch sorgt.

So isses.

@ Raff

Ich hatte auch schon eine mit 1.025V. Die Karten mit mehr als 1V VID sind neuerdings die Regel. Man hat offenbar an der Fertigung getuned um die Leckströme zu senken.

Die 0.912V Karte hat bei 1.012V (mehr ging nicht sonst Bildfehler) schon geheizt wie blöd, während die mit 1.050V auch 1.200V verträgt und das mit Stock-Kühler auch in den Griff bekommt (800/1600/1950 GPU-Tool).

Megamember
2010-06-16, 21:18:38
Da hab ich aber auch schon gegenteiliges gelesen, also das die niedrigen Vids auch wirklich weniger Verbrauchen. Scheint wohl nicht allgemeingültig.

Wuge
2010-06-16, 21:52:23
Hab alle drei Karten unter gleichen Bedigungen gemessen und die lagen im Bereich um 5W Gesamtsystemverbrauch gleich. Am "schlechtesten" war die mit 1.025V VID.

hq-hq
2010-06-16, 22:17:33
sorry wuge, jetzt muss ich dich mal ein bisserl ausquetschen,
woher hast du überhaupt die ganzen karten ?
war die gpu temperatur immer gleich hoch als du abgelesen hast ? (+1°C =+1,x Watt)
war die gpu auslastung identisch, also gleicher benchmark bei der gleichen stelle ? (20-40watt differenz sind allerweil mal drin)
welche 3d power level vgpu wurde von gpuz oder afterburner oder ähnlich ausgelesen ?

von 0.912V bis 1.05V sind ca 80-110watt unterschied unter last bei meiner gtx470,
kann leider grad nicht messen weil das energiekostenmessgerät am zweit pc hängt...

die leckstromtheorie finde ich darum ganz und gar haarig. (nicht das das auch vielleicht 20 watt ausmacht... aber so extrem... näh)

Schlammsau
2010-06-16, 22:38:42
sorry wuge, jetzt muss ich dich mal ein bisserl ausquetschen,
woher hast du überhaupt die ganzen karten ?
war die gpu temperatur immer gleich hoch als du abgelesen hast ? (+1°C =+1,x Watt)
war die gpu auslastung identisch, also gleicher benchmark bei der gleichen stelle ? (20-40watt differenz sind allerweil mal drin)
welche 3d power level vgpu wurde von gpuz oder afterburner oder ähnlich ausgelesen ?

von 0.912V bis 1.05V sind ca 80-110watt unterschied unter last bei meiner gtx470,
kann leider grad nicht messen weil das energiekostenmessgerät am zweit pc hängt...

die leckstromtheorie finde ich darum ganz und gar haarig. (nicht das das auch vielleicht 20 watt ausmacht... aber so extrem... näh)
Dann würde deine 470 deutlich weniger als eine 5850 verbrauchen!? :|
Ist das dein ernst?

LovesuckZ
2010-06-16, 22:40:22
sorry wuge, jetzt muss ich dich mal ein bisserl ausquetschen,
woher hast du überhaupt die ganzen karten ?
war die gpu temperatur immer gleich hoch als du abgelesen hast ? (+1°C =+1,x Watt)
war die gpu auslastung identisch, also gleicher benchmark bei der gleichen stelle ? (20-40watt differenz sind allerweil mal drin)
welche 3d power level vgpu wurde von gpuz oder afterburner oder ähnlich ausgelesen ?

von 0.912V bis 1.05V sind ca 80-110watt unterschied unter last bei meiner gtx470,
kann leider grad nicht messen weil das energiekostenmessgerät am zweit pc hängt...

die leckstromtheorie finde ich darum ganz und gar haarig. (nicht das das auch vielleicht 20 watt ausmacht... aber so extrem... näh)

Man kann unter/übertakten nicht mit Standard vergleichen. Die GPUs haben unterschiedliche Leckströme. Je weniger, umso höher kann die VID sein, um im selben TDP Bereich zu bleiben.

hq-hq
2010-06-16, 22:43:19
schon klar, aber 1,050v und 0,912v sollen bei gleichem takten die gleiche leistung verbrutzeln (nur aufgrund extremer leckströme)?
sorry aber da kann ich nur niemals schreiben.

ok ich habs mal eben ausprobiert,

607/1215/1674mhz@atitool artefaktescan@0,912v=278Watt
607/1215/1674mhz@atitool artefaktescan@1,050v=331Watt
800/1600/1970mhz@atitool artefaktescan@1,050v=328Watt -> fanspeed 89%

607/1215/1674mhz@furmark@0,912v=~326Watt
607/1215/1674mhz@furmark@1,050v=~390Watt
800/1600/1970mhz@furmark@1,050v=~418Watt -> fanspeed 89%
800/1600/1674mhz@furmark@1,050v=~386Watt -> fanspeed 89%

zwar noch ein grosser unterschied, aber etwas mehr im bereich des möglichen, ne, etwas weniger im bereich des unmöglichen ;)

wenn man von der spannung absieht hat nur der speichertakt einen gröberen einfluss auf die verlustleistung sowie die temperatur. der gpu takt ist fast egal

somit stimmt deine theorie nicht ganz LovesuckZ

kaum zu glauben, man spürt den temperaturanstieg im raum durch furmark....:ulol:

(profile in afterburner umgeschalten und dabei aufm leistungsmesser geguckt, temps sollten sich in der zeit kaum ändern, die 89% fanspeed messungen hab ich erst danach gemacht, gpu temp war auf alle fälle niedriger)

Saugbär
2010-06-16, 23:20:01
607/1215/1674mhz@atitool artefaktescan@1,050v=331Watt
800/1600/1970mhz@atitool artefaktescan@1,050v=328Watt -> fanspeed 89%


Durch Übertakten Stromsparen?
Das mit dem hohen VID war doch auch bei den Q6x00 genau so verwirrend

hq-hq
2010-06-16, 23:22:47
jo habs grad in klammer ergänzt,
fanspeed 89% = ~10°C weniger gpu temp mit 1,050v also so 81°C zu >90°C höher hab ichs nie steigen lassen mit 1,050v ;)
die lüfterautomatik hatte deutlich weniger fanspeed als ich ohne OC gemessen hab

weisst da willst nur schnell was schaun und dann kommst vom einen zum andern ...

ausserdem scheint atitool den speicher nicht stark zu belasten im gegensatz zu furmark, ist ja auch sinnig

das "+1°C =+1,3 Watt" bei der gtx480 hab ich mal auf computerbase gelesen glaub ich. bei der gtx470 wirds ähnlcih sein

Schrotti
2010-06-16, 23:34:10
Laut nVInspector läuft meine GTX480 sogar mit 1,088v unter 3D.

http://www.abload.de/img/gtx480_vgpu49zd.png (http://www.abload.de/image.php?img=gtx480_vgpu49zd.png)

Ja was nun?

Totaler Ausschuss?

Meine Theorie ist ja wie bei CPUs. Niedrige VID bei CPU, hoher Leckstrom = viel Hitze.

hq-hq
2010-06-16, 23:39:59
nur normal brauchts bei grösseren leckströmen eine höhere spannung da in den "schlechten" bereichen
der gpu/cpu durch die leckströme die spannung abfällt... natürlich nur wenn bei dem
takt die gpu/cpu nicht mehr stabil läuft. es könnten natürlich auch viele kleine leaks sein die
kaum was machen und nur die verlustleistung nach oben treiben ... keine ahnung.
ich finde " Niedrige VID bei CPU, hoher Leckstrom = viel Hitze" ist wenig realistisch weil
eine geringere vcore die stabilität bei gleichem takt gefährdet. wer es besser weiss immer aus damit

Schrotti
2010-06-16, 23:42:55
Umso niedriger die Spannung desto höher der Strom der fließen muss (ganz einfache Rechnung).

Ist die Spannung höher, muss weniger Strom fließen.


Eigentlich doch gut.

hq-hq
2010-06-16, 23:50:24
ja, wären neben dem verbrauch durch die transistoren nicht noch der bächtig möse leckstrom . wie gross der anteil beim gf100 so sein kann im mittel oder im extrem...
ähm warte mal ist die spannung höher muss weniger strom fliessen... whooot
ist die spannung höher fliesst mehr strom meinst, wird das silizium heisser fliesst noch mehr weil der widerstand dahinschmilzt ;)

Dr. Cox
2010-06-17, 00:19:06
Prozessoren sind Heißleiter, das heißt, der Widerstand sinkt, wenn sie heißer werden und es fließt mehr Strom bei gleicher Spannung, womit die Leistungsaufnahme insgesamt steigt.

Mehr Spannung = Mehr Strom = Mehr "verbrauch"

Niedrige Spannung = Weniger Strom = Weniger "Verbrauch"

Eine GTX 470/480 mit weniger GPU-Spannung sollte also im Regelfall weniger Strom "verbrauchen" und somit kühler und leiser bleiben ;)

Coda
2010-06-17, 03:15:02
Die Rechnung würde stimmen wenn alle Chips gleich wären. Sind sie aber nicht - Es gibt sehr große Schwankungen bei den Leckströmen.

BlackBirdSR
2010-06-17, 12:08:24
Prozessoren sind Heißleiter, das heißt, der Widerstand sinkt, wenn sie heißer werden und es fließt mehr Strom bei gleicher Spannung, womit die Leistungsaufnahme insgesamt steigt.

Mehr Spannung = Mehr Strom = Mehr "verbrauch"

Niedrige Spannung = Weniger Strom = Weniger "Verbrauch"

Eine GTX 470/480 mit weniger GPU-Spannung sollte also im Regelfall weniger Strom "verbrauchen" und somit kühler und leiser bleiben ;)

Silizium mag ein Heißleiter sind, allerdings bewegen sich die meisten Elektronen nunmal durch die Metallbahnen und deren Widerstand(Wärmeabgabe) steigt.
Es hat schon seinen Grund, warum Chips schneller schalten je Kühler sie sind und auch bei -170°C noch super funktionieren, während bei 140°C meist Schluss ist.

Es gibt auch keinen "Spannungsabfall" durch Leckströme, weswegen man die Spannung erhöhen müsste. Wir reden hier hauptsächlich von Leckströmen ins Substrat bei Sperrschaltung und Gate-Leckströmen.

Ich denke man muss ein wenig Aufklärungsarbeit betreiben ;)

hq-hq
2010-06-17, 12:16:12
tja, nun ist es aber so das je heisse die gpu/cpu wird, desto mehr steigt die verlustleistung.

und leckströme bedeutet ja das sich ein paar elektronen verabschieden und somit
kann das bei steigendem takt/temperatur sicherlich auf die stabilität auswirken.
also drehst die spannung weiter auf und alles ist wieder gut.. naja fast ;)

bei 140 grad wird dein deine gpu aber langsam ganz schön weich werden und die strukturen beginnen sich aufzulösen
bei kühlen temps steigt einfach der widerstand deiner transistoren beim schalten und deine metallbahnen
sind niederohmiger, dann gehts auch mit weniger spannung weil die signallevel stabiler sind

BlackBirdSR
2010-06-17, 12:33:11
tja, nun ist es aber so das je heisse die gpu/cpu wird, desto mehr steigt die verlustleistung.


Natürlich, weil der Widerstand steigt, mehr Wärmeabgabe aus den Leitungen erfolgt und zugleich die Kennlinien der Transistoren verschoben werden, so dass diese nicht mehr abschalten. Es zünden parasitäre Thyristoren und es entstehen weitere Leckströme.


und leckströme bedeutet ja das sich ein paar elektronen verabschieden und somit
kann das bei steigendem takt/temperatur sicherlich auf die stabilität auswirken.
also drehst die spannung weiter auf und alles ist wieder gut.. naja fast ;)


Es gibt inzwischen Transistoren mehr hunderten von Ghz, selbst Thz sind kein großes Problem mehr. In den allermeisten Fällen limitieren gar nicht die Schaltgeschwindigkeiten der geometrischen Transistorstrukturen, sondern die Signallevel der Anschlüsse und Kontaktierungen. Was Du mit deiner Spannungserhöhung erreichst, ist eine größere Differenz zwischen Signal- und Signal + am Ein/Ausgang. Dementsprechend kann das Signal früher definiert abgegriffen werden und muss nicht so lange einschwingen.
Wenn sich Elektronen durch das Gate ins Substrat verabschieden, ist das kein Verlust des eigentlichen Signals. Die Elektronen gehören nämlich gar nicht in den Transistorkanal. Gleiches für SubThreshold-Leakage, wenn der Transistor aus sein soll, dann findet ja kein Fluss statt, ausser es leckt eben.
Du drehst also die Spannung auf, verschiebst deine Kennlinien und stabilisiert das Signal - allerdings auf Kosten der Verlustleistung.


bei 140 grad wird dein deine gpu aber langsam ganz schön weich werden und die strukturen beginnen sich aufzulösen

Weich werden vielleicht Deine Lötkontakte aber weder das Silizium noch die Metallisierung. Da löst sich also nichts in der CPU auf, die Kennlinien passen einfach nicht mehr auf die fein abgestimmten Niveaus.


bei kühlen temps steigt einfach der widerstand deiner transistoren beim schalten, dann gehts auch mit weniger
spannung weil die signallevel stabiler sind

natürlich sind die Singallevel stabiler, weil der Widerstand der Metallisierung sinkt. Das liegt aber nicht am Widerstand des Siliziums. Immerhin wird ja speziell deswegen dotiert. Mit reinem Silizium hat der Transistorkanal ja nicht mehr viel gemein. Schon alleine durch Stress/Druck des Gitters und eben die Dotierung.

Was ich damit sagen möchte: Es ist leider überhaupt nicht so simpel, wie es aktuell im Thread hier dargestellt wird.

hq-hq
2010-06-17, 12:51:25
du meinst also der steigende stromfluss durch die gpu/cpu ist in erster linie weiteren leckströmen geschuldet und
nicht den mMn niederohmiger werdenden trasistorschaltungen
- das nimmt dann gerade bei fermi aber gigantische ausmaße an, nagut ist ja auch gigantisch

ja genau, die signalpegel sind deutlicher, drum immer schön die spannung aufdrehen

würde meinen 140°C kerntemperatur wird mittelfristig schäden verursachen, im gesamten chip

simpel ist es nur wenns ums OC geht... welche grauenvollen ereignisse sich innerhalb eines
prozessor abspielen, schon der ganze HF krams... darüber liessen sich wohl bücher füllen.

-> dennoch wenn sich deine elektronen in grösserer anzahl verabschieden und sonst wohin einfallen rauscht
es böse

Wuge
2010-06-17, 18:13:04
war die gpu temperatur immer gleich hoch als du abgelesen hast ? (+1°C =+1,x Watt)


Jup, jeweils 90Grad, da manuelles Lüfterprofil.


war die gpu auslastung identisch, also gleicher benchmark bei der gleichen stelle ? (20-40watt differenz sind allerweil mal drin)


GPU-Tool. 305W Gesamtsystemverbrauch, Schwankungen im Bereich um 2-3W.


welche 3d power level vgpu wurde von gpuz oder afterburner oder ähnlich ausgelesen ?


3D natürlich.


von 0.912V bis 1.05V sind ca 80-110watt unterschied unter last bei meiner gtx470,
kann leider grad nicht messen weil das energiekostenmessgerät am zweit pc hängt...


Die VID 0.912V Karte hat bei 1V auch schon deutlich mehr Saft gezogen als die 1.05V Karte bei 1.087V ;)

Es ist eben jede anders. Nicht umsonst gibts unterschiedliche VIDs.


die leckstromtheorie finde ich darum ganz und gar haarig. (nicht das das auch vielleicht 20 watt ausmacht... aber so extrem... näh)

Es sind nicht nur die Leckströme. Auch die Ströme beim Schalten sind höher wenn der Chip einen geringern Widerstand hat. Aber das können die Profis besser erklären.

hq-hq
2010-06-17, 18:51:17
hmhm, ich würde mir sehr wünschen du hättest alles genau aufgeschrieben und könntest deine aussage mit einer feierlichen messreihe untermauern ;)

es fällt mir halt schwer zu glauben das beide extremwerte 0,912v und 1,050v die gleiche verlustleistung bedeuten kann... so als ob zwei chips bei sagen wir 1,00v einmal
180 und einmal 230 watt ziehen.

ich hätte gesagt verschiedene vids damit die schlechten chips auch bei 607mhz 100% laufen.
das ein guter chip massig leckströme hat und man ihn mit einer niedrigen spannung trotzdem
auf 607mhz laufen lassen kann nur damit die verlustleistung im rahmen bleibt halte ich zwar
für möglich aber eher die ausnahme.
schade das ich keine 25 stück gtx470 dahab ;)

@BlackBirdSR
"Natürlich, weil der Widerstand steigt, mehr Wärmeabgabe aus den Leitungen erfolgt und zugleich
die Kennlinien der Transistoren verschoben werden, so dass diese nicht mehr abschalten.
Es zünden parasitäre Thyristoren und es entstehen weitere Leckströme. "

hm in der mittagspause war mal wieder wenig zeit, wenn die transistoren dauernd durchsteuern
wäre die funktion wohl eingebüsst, hm ja versteh schon die durchsteuerzeiten ändern sich so dass
natürlich länger strom fliessen kann.

kannst du dir denn vorstellen das ein gf100 bis zu 50watt (~27%) höhere verlustleistung bei gleicher
vgpu/temp haben kann? noch dazu sollen dann ausgerechnet die mit den grössten leckströmen mit
der geringsten vgpu laufen (müssen) bei gleichem takt. daran häng ich mich halt grad auf

Wuge
2010-06-17, 20:48:59
Ich hatte leider nicht genug Zeit um intensiv zu testen :( Ich kann nur mit Sicherheit sagen, dass die Karten unter vergleichbarer Last nahezu identisch im Verbrauch waren und die mit VID 1.05V unter Idle etwa 10W weniger nimmt als die mit 0.912V.

Vielleicht hat ja jemand ein SLI mit sehr unterschiedlichen Karten und kann detailliert vergleichen.

Btw. Du hast doch eine mit niedriger VID, oder? Gib der doch mal 1.212V bei 750-800 MHz und lass GPU-Tool oder Folding@Home laufen. Wenn die Karte das mit dem Referenzkühler bei um die 90 Grad (GPU Diode, offenes Gehäuse, 22°C) erledigt, dann dürfte der Verbrauch vergleichbar mit meiner (VID 1.05V) sein. Ich prognostiziere, dass Du (sofern die GPU eine VID < 1V hat) das Ding nicht gekühlt bekommst ;)

Wuge
2010-06-17, 20:49:09
Ich hatte leider nicht genug Zeit um intensiv zu testen :( Ich kann nur mit Sicherheit sagen, dass die Karten unter vergleichbarer Last nahezu identisch im Verbrauch waren und die mit VID 1.05V unter Idle etwa 10W weniger nimmt als die mit 0.912V.

Vielleicht hat ja jemand ein SLI mit sehr unterschiedlichen Karten und kann detailliert vergleichen.

Btw. Du hast doch eine mit niedriger VID, oder? Gib der doch mal 1.212V bei 750-800 MHz und lass GPU-Tool oder Folding@Home laufen. Wenn die Karte das mit dem Referenzkühler bei um die 90 Grad (GPU Diode, offenes Gehäuse, 22°C) erledigt, dann dürfte der Verbrauch vergleichbar mit meiner (VID 1.05V) sein. Ich prognostiziere, dass Du (sofern die GPU eine VID < 1V hat) das Ding nicht gekühlt bekommst ;)

hq-hq
2010-06-17, 21:30:54
meine @0,975v standard, 1,050v sind 800mhz kein problem bis auf die dann doch nervende lautstärke,
fanspeed ~74-78% weiss es nimmer genau, temp ~90-93. allerdings hab ich immer den ram
noch auf 1970mhz getaktet so 20-30watt mehrverbrauch.
meine gtx hat praktisch die identischen temp werte wie in vielen reviews... idle ~45°C @ 40% fanspeed
unter last, hm müsste ich nochmal probieren weil die lief eigentlich nie wirklcih @stock
ist also wohl eine 0815 karte bei temp, spannung und OC, lediglich speichercontroller/ram sind zickig.

nun, kann mich an eine gtx470@0,912v erinnern die sehr warm wurde, OC weiss ich nicht. glaub war "dargo's" gtx.
war gut 10grad zu warm. allerdings war daran womöglich der cpu kühler schuld der der gtx auf die pelle gerückt ist.
jemand hatte eine mit glaub 1,000 oder 1,025v die hatte dafür probleme mit speichercontroller oder ram beim OC.

für mich heisst hohe vid schlechte OC chancen, niedrige vid gute oc chancen, das alle karten
in etwa mit der etwa gleichen abwärme/verlustleistung starten wäre möglich aber 0,912 zu
1,050v...

würde sagen es gibt indizien für beide theorien. wir brauchen mehr daten ;)

speziell bei meiner musste die vid so "hoch" gewählt werden weil unter 0,950v die speichercontroller/ram zicken!

Wuge
2010-06-17, 23:37:10
Ich schätze, der Speichercontroller ist immer der limiterende Faktor. Meine schafft mit Standard VID >700 MHz un dbeim speicher geht garnichts. Undervolting ist auch nur in größerem Maße möglich, wenn man den Speichertakt reduziert.

Stell bei Deiner mal 1.2V ein - das ist sicher kaum noch kühlbar!