PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GTX 580 - Hardwarebegrenzung der maximalen Leistungsaufnahme


Slipknot79
2010-11-14, 12:36:03
So, los gehts mit Ocing :redface:, tombman ab zum Ditech mit dir, heute noch :redface:


Disable GeForce GTX 580 Power Throttling using GPU-Z

http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Power-Throttling-using-GPU-Z.html

---

Splits aus:
GeForce GTX 580: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8396502#post8396502)
GF110 - GTX 570 / GTX 5xx - November/Dezember 2010 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8396520&posted=1#post8396520)
-puntarenas

y33H@
2010-11-14, 12:50:30
Kritikpunkt gestorben =)

Slipknot79
2010-11-14, 13:15:44
Ok, habs gerade getestet, das Teil funzt wirklich :redface:, Furmark 1.8.2 lockt nicht mehr


In Furmark hatte ich mit EINER 280GTX im Gesamtsystem 460W Stromverbrauch, mit der 580 GTX sind es 560W Oo

=Floi=
2010-11-14, 13:43:57
NICE :cool:

bin ich froh, dass der käse endlich umgangen wurde...

C.D.B.
2010-11-14, 14:56:09
Bin ja mal gespannt, wieviele ihre schöne neue GTX580 nun grillen. :biggrin:

Slipknot79
2010-11-14, 15:08:02
Ich werde sie so lassen wie sie ist, ist ja schon so schnell genug :)

y33H@
2010-11-14, 15:23:26
Weil Crysis der letzte PC-only Shooter war.Sondern? Welcher AAA-Shooter dann?

Hugo78
2010-11-14, 15:28:23
Bin ja mal gespannt, wieviele ihre schöne neue GTX580 nun grillen. :biggrin:

Wie soll das gehen, wenn die Kühlung der GTX 580 besser ist als die der GTX 480?!
Die Karte wird einfach nur lauter werden, ohne Begrenzer.

Btw ...
Gibt es eigentlich einen dokumentierten Fall, bei dem sich eine GTX 580 oder auch stark übertaktete GTX 580 in einem echten Spiel runtertaktet?

Slipknot79
2010-11-14, 15:38:20
>bei dem sich eine GTX 580 oder auch stark übertaktete GTX 580 in einem echten Spiel runtertaktet?

In Tales of Monkey Island rennt die Karte wegen Unterforderung im low-3D Modus :redface: (selbst ne 280 GTX lief da im Idle-Modus)

C.D.B.
2010-11-14, 15:57:40
Wie soll das gehen, wenn die Kühlung der GTX 580 besser ist als die der GTX 480?!
Die Karte wird einfach nur lauter werden, ohne Begrenzer.

Viele Leute werden mit sicherheit auch kräftig Overvolten und die TDP überschreiten. Der G100b mag temps nahe 100°C vielleicht durchhalten ... aber die Spawas könnten die Achillisferse sein.

LuXon
2010-11-14, 16:24:16
Heisst es auf der Folie nicht, dass nur Furmark und Konsorten heruntergetaktet wird?

y33H@
2010-11-14, 16:26:35
Offiziell nur Furmark und OOCT, praktisch aber noch mehr :usad:

airbag
2010-11-14, 16:27:10
Ja Furmark und OCCT. Die schlimmsten überhaupt. Zweiteres hat sogar dazu geführt, dass die HD4k aufgrund von Unterversorgung abkackt sind.

y33H@
2010-11-14, 16:38:17
Fahr mal ein Auto für 3 Sekunden im ersten Gang und der Motor explodiert [ = HD4k in OCCT ] ... mal sehen, was ADAC dazu sagt ;D

Hugo78
2010-11-14, 17:10:04
Viele Leute werden mit sicherheit auch kräftig Overvolten und die TDP überschreiten. Der G100b mag temps nahe 100°C vielleicht durchhalten ... aber die Spawas könnten die Achillisferse sein.
Könnte, hätte, wenn und aber ...

Die 580, wie auch die 480 haben beide eine Metalplatte die Speicher und Wandler kühlt. Diese Platte ist mit dem Kühlkörper verbunden.
Je stärker also die GPU gekühlt wird, umso besser steht es auch um die Wandler.

PCGH ermittelt für 480 und 580 je 312W Worst Case.
Dabei ist die 580 grad mal ~ halb so laut (5,9 sone zu 10,9) und mit 85°C sogar noch mal 7°C kühler.
http://www.pcgameshardware.de/aid,798165/Geforce-GTX-580-im-Test-Die-bessere-Geforce-GTX-480/Grafikkarte/Test/?page=2

Ich frag mich, wo bei einer so potenten Kühlung plötzlich das Problem sein soll?!

Es müsste doch angesichts der Zahlen klar sein, dass die Begrenzung von Furmark und OCCT nur eine Maßnahme ist, dass nicht jeder DAU sofort denkt Furmarklast = Crysis oder Metro ect.pp.

Meine Frage bleibt also und ich ergänze.
Gibt es einen Fall, bei der eine auf zb. 900 Mhz übertaktete GTX 580, bei auf >= 1.2V erhöhter Chipspannung, runtertaktet in einem echten Spiel?
Das glaube ich einfach nicht, dass das je passiert.


In Tales of Monkey Island rennt die Karte wegen Unterforderung im low-3D Modus :redface: (selbst ne 280 GTX lief da im Idle-Modus)

Die hast Solitär, Minesweeper und Onlinepoker vergessen. ;)

=Floi=
2010-11-14, 17:35:51
Viele Leute werden mit sicherheit auch kräftig Overvolten und die TDP überschreiten. Der G100b mag temps nahe 100°C vielleicht durchhalten ... aber die Spawas könnten die Achillisferse sein.

dann geht sie in die RMA!
für 450€ kann man schon eine brauchbare stromversorgung erwarten. wo kommen wir den da hin?
GTX680 mit 1 phasen stromversorgung :freak:

Fetza
2010-11-14, 18:48:26
So, los gehts mit Ocing :redface:, tombman ab zum Ditech mit dir, heute noch :redface:


Disable GeForce GTX 580 Power Throttling using GPU-Z

http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Power-Throttling-using-GPU-Z.html

Ob es da demnächst wohl noch eine version von nibitor geben wird, die eine entsprechende option bieten wird, dann aber fest ins bios integriert?

Iruwen
2010-11-14, 19:21:25
dann geht sie in die RMA!
für 450€ kann man schon eine brauchbare stromversorgung erwarten. wo kommen wir den da hin?
GTX680 mit 1 phasen stromversorgung :freak:
Wenn du bei 'nem Auto den Drehzahlbegrenzer deaktivierst gibt dir da auch keiner Garantie drauf.

Black-Scorpion
2010-11-14, 19:41:22
dann geht sie in die RMA!
für 450€ kann man schon eine brauchbare stromversorgung erwarten. wo kommen wir den da hin?
GTX680 mit 1 phasen stromversorgung :freak:
RMA weil du die Karte mit mehr Spannung versorgst wie vom Hersteller vorgesehen? Oder sollen die Hersteller jetzt schon für deine Spiele die Stromversorgung aufs doppelte auslegen?

aths
2010-11-14, 20:08:47
dann geht sie in die RMA!Da kann man mehr herausfinden als man denkt. Viele machen sich nicht die Mühe, aber ich wäre da nicht so selbstsicher dass alles was in die RMA geschickt wird, umgetauscht wird.

kmf
2010-11-14, 20:56:31
^^ Sehe ich auch so. Gerade weil man der 580er einen neuen Schutzmechanismus eingepflanzt hat. Der kommt nicht von ungefähr.

=Floi=
2010-11-15, 07:32:37
RMA weil du die Karte mit mehr Spannung versorgst wie vom Hersteller vorgesehen? Oder sollen die Hersteller jetzt schon für deine Spiele die Stromversorgung aufs doppelte auslegen?

:facepalm:
hast du verstanden was die drosselung überhaupt macht?
Die karte wird durch bestimmte programme (künstlich) einfach stärker ausgelastet und fällt dann aus der TDP. (mit standard vcore!) Das ist eher wie wenn das auto bei 200kmh abgeregelt ist und ich einfach schneller fahren möchte, weil das auto 400ps hat. Bei einem highend produkt um den preis will ich einfach keine drosselung und da könnte man ja gleich eine 460er kaufen, wenn die FPS dann eh nicht mehr höher sind.

So einen scheiß darf man erst gar nicht durchgehen lassen und da muß man ihnen gleich mit dem stock auf die finger klopfen.

nebenbei hat die 580er auch eine 6 phasen stromversorgung und die sollte schon etwas vertragen. Bisher scheiterte es auch nicht an der stromversorgung. es ist eher eine marketingsache, damit die karten nicht so böse dastehen.

tombman
2010-11-15, 07:48:00
Wie siehts mit den fps aus in furmark ohne Limiter, slipnot79?

Und sieht man es zb an der Chipauslastung in afterburner?

Selbst wenn das Limit umgangen werden kann, man es aber nicht entdecken kann, müßte man immer Angst haben nicht genug fps zu bekommen, da ja limitiert werden könnte -> nix für mich.
Ich will full power all the time ;)

C.D.B.
2010-11-15, 07:49:52
Die karte wird durch bestimmte programme (künstlich) einfach stärker ausgelastet und fällt dann aus der TDP. (mit standard vcore!) Das ist eher wie wenn das auto bei 200kmh abgeregelt ist und ich einfach schneller fahren möchte, weil das auto 400ps hat. ...

Wie Du mit diesem Beispiel beweist, hast Du es NICHT verstanden! Obwohl Du den Kasus Knacksus ja kennst (fett+unterstrichen) ;)

Ich ergänze Dein Beispiel mal so, daß der Zusammenhang wieder passt:

Das ist eher wie wenn das auto bei 200kmh abgeregelt ist und ich einfach schneller fahren möchte, weil das auto 400ps hat - aber leider ab 200kmh Probleme mit der Bodenhaftung bekommt.

:wink:

deekey777
2010-11-15, 14:33:51
GeForce GTX 580 Unlocked: 350W Under FurMark Thanks To GPU-Z (http://www.geeks3d.com/20101115/geforce-gtx-580-unlocked-350w-under-furmark-thanks-to-gpu-z/)

Slipknot79
2010-11-15, 16:17:30
Wie siehts mit den fps aus in furmark ohne Limiter, slipnot79?

Und sieht man es zb an der Chipauslastung in afterburner?

Selbst wenn das Limit umgangen werden kann, man es aber nicht entdecken kann, müßte man immer Angst haben nicht genug fps zu bekommen, da ja limitiert werden könnte -> nix für mich.
Ich will full power all the time ;)

Furmark:
Yo, sieht gut aus. Mit Limiter zeigt das Wattmeter 420W an (Gesamtsystem), ohne Limiter 540W ^^
Fps sind 30fps vs. 58fps in 1680x1050 ohne AA.

Afterburner: fps drops mit Limiter + Vcore Erhöhung für ocing, Wattwerte weiß ich jetzt ned auswendig. Ohne Limiter + Vcore Erhöhung gibts keine fps drops und hohe Wattwerte. Ich werde mir das Teil@Verhalten ohne Vore-Erhöhung später genauer anschauen.

€dit: Kombustor scheint nicht gedrosselt zu werden, aber vielleicht habe ich auch ein Setup übersehen, das meine Karte extrem fordert, mehr als 500W waren hier nicht zu holen. Gedrosselt wird aber sehr wohl wenn man mehr Vcore einstellt.

Achtung: Wenn der Treiber beim Ocing abstürzt, dann ist der Limiter wieder aktiviert (was normalerweise nur durch nen Reboot passiert), dann muss man eben wieder GPU-Z starten.

tombman
2010-11-15, 21:14:26
Thx slippy :)

Tjo, irgendwie hatte Fudo doch recht - "unmanufacturable"

Nvidia dachte sich einfach "trollface- problem?" und läßt bei allem was über 300Watt geht einfach den Limiter anspringen :ulol:

Und damit kommen sie auch nur durch bei der Masse, weil "normale games" ja eh nie so hoch kommen :rolleyes:

Ich würde als 580er Besitzer echte games solange testen, bis ich nachweisen könnte, daß der Limiter auch dort anspringt- oder bei Cuda Programmen :devil:

Dural
2010-11-16, 10:24:02
naja die 4870X2 hat in furmark auch schon ihre 350Watt gezogen... im gegensatz dazu hält sich NV wenigstens an die 300Watt vorgabe nicht so wie AMD ;)


und ich glaube kaum das du jemals ein spiel finden wirst das eine 580er über 300Watt bringt, dazu ist der durchschnitt last verbrauch viel zu gering...


ich finde den limiter sogar ganz OK, macht bei solchen Karten durchaus sinn und setzt die RMA quote sicher einiges runter!

Cyphermaster
2010-11-16, 10:27:36
Und damit kommen sie auch nur durch bei der Masse, weil "normale games" ja eh nie so hoch kommen :rolleyes:Nicht nur deshalb. Sie verkaufen das ja als Schutz gegen "Powerviren", also etwas, was absichtlich mehr als die TDP von der Karte fordert. Daß die TDP aber von den Schlingeln selber frei festgelegt wird, und daher auch Spiele -eigentlich genau der prädestinierte Einsatzfall so einer Karte- das genauso schaffen können wie explizit darauf hin programmierte Tools (siehe die Benches der zwei Vorgänger-Generationen), das wird geschickt verschwiegen.
Tja, und wenn der User dann merkt, daß die Karte zufällig doch in-game drosselt, dann hat er sie schon gekauft...

In etwa so schön, wie die Nicht-Abschaltbarkeit der A.I.-Optimierungen der roten Gegenseite. Was mich viel mehr beschäftigt als die Drosselung selber ist, ob es sich dabei nicht um eine elektrische Schwäche des Chips handelt - also daß der Chip, wenn er noch größere Leistungen umsetzen müßte, verheerend schnell altern oder instabil werden würde. Das wäre dann ein klarer Fall eines "übertunten" Chips.

Scose
2010-11-16, 10:33:12
Hat jemand schon getestet ob Anno 1404 mit SSAA, ggf. mit bischen oc und mehr Spannung, den Limiter bemüht?

Ist bei mir das einzige Spiel, welches meine Karten (280er, 480er) in furmark-Regionen bringt.

Dural
2010-11-16, 10:33:35
jeder chip altert rappide schneller wenn man damit die ganze zeit furmark und co "spielt"

deswegen trosseln AMD und NV die karten da auch, da geht es ja nicht darum um etwas strom zu "sparen" sondern viel mehr um die hardware zu schützen! Man erinnere sich nur mal an die ganzen abgefakelten 4000 karten damals...


die spannungen der 580er chips sind so tief, da muss man sich keine sorgen machen... die GTS450 mit dem selben takt hat in der regel sogar noch etwas mehr spannung auf dem chip als eben die 580er, probleme dürfte es auf dieser seite sicher nicht geben.


ich hab zb. über ein Jahr lang ein 3870 CF system auf der arbeit mit deutlich mehr spannung (+0,2Volt) betriben, zum benchen sogar ab und zu mit 0,5Volt (!!!) mehr und die karten laufen bis heute noch super.

y33H@
2010-11-16, 10:54:40
AMD drosselt seit HD5k auch in Hardware.

Cyphermaster
2010-11-16, 11:05:35
jeder chip altert rappide schneller wenn man damit die ganze zeit furmark und co "spielt"Wie gesagt, es gibt auch ein paar Games, die die Chips ähnlich qualmen lassen. Und ich weigere mich, Games auch als "Powervirus" anzusehen, da die ja wohl nicht mit dem Primärzweck entwickelt werden, die Hardware möglichst gut zu stressen...
deswegen trosseln AMD und NV die karten da auch, da geht es ja nicht darum um etwas strom zu "sparen" sondern viel mehr um die hardware zu schützen! Man erinnere sich nur mal an die ganzen abgefakelten 4000 karten damals...Nix gegen den Schutz - aber da man damit rechnen muß, daß die Karte nicht immer mit den angegebenen Taktraten, sondern real ggf. deutlich langsamer läuft, ist die Taktratenangabe imho so eine milde Form von Kundenverarsche. Es kann sein, man kauft sich so eine Karte für viel Geld, nur um dann rauszufinden, daß sie grade im neuen Blockbuster, auf den man sich gefreut hat wie Schnitzel, nur noch 50% der bezahlten Leistung hat, weil der den Chip an die TDP-Grenze bringt. Die Taktraten der 580 sollten zumindest mit dem Zusatz "Max." angegeben werden, imho.

Wäre ja schön, wenn die Drosselung rein auf dem Marketing-Ziel beruht, daß die 580er nicht mehr Strom ziehen darf als die 480, dann kann man das guten Gewissens deaktivieren bzw. eine ungedrosselte Karte kaufen, wenn man es will.

Scose
2010-11-16, 11:08:47
Zum Schutz vor sich selbst oder der restlichen Hardware? Worstcase 50W über spec sind eine Ansage...

Ich vermute die Stromversorgung der Karte selbst hat bei guter Kühlung weniger Probleme aber es liegt ausserhalb nv's Kontrolle was mit der restlichen Hardware passiern kann. Folgeschäden an Mb oder Nt aufgrund nicht eingehaltener specs wollten sie sich garantiert nicht leisten.

tombman
2010-11-16, 11:24:21
Aber durch die 480er kann die Drosselung der 580er jederzeit auffliegen, einfach durch die fps.

fondness
2010-11-16, 11:43:04
AMD lässt schon seit der 4000 serie per software in Furmark trosseln, NV war wenigstens so schlau und macht das in "Hardware"


Auch GT2xx wurden bereits per Software gedrosselt.

=Floi=
2010-11-16, 12:02:42
man hätte die tdp auch auf wert x setzen können und die drossel noch größer. ist doch käse, dass angeblich die TDP 50 watt darüber leigen soll .die TDP der karte ist ziemlich genau bei 312watt. Das war für das marketing einfach zu viel.

deekey777
2010-11-16, 12:18:21
AMD lässt schon seit der 4000 serie per software in Furmark trosseln, NV war wenigstens so schlau und macht das in "Hardware"

Sehr schlau. Ein Hoch auf Nvidia.

Die Drosselung an sich ist nichts schlimmes, schließlich dient sie dem Schutz und der Langlebigkeit des Produkts. Wer overclocken will, muss entweder entsprechende Produkte kaufen, die mehr Spielraum zulassen, oder in die Hardware eingreifen.
Problematisch ist es, wenn man nicht die volle Leistung beim Einsatz echter Software bekommt, da die Auslastung des Chips usw. die Grenzen sprengen. Nur wird das kaum je der Fall sein.

Mayk-Freak
2010-11-16, 13:56:18
Thx slippy :)

Tjo, irgendwie hatte Fudo doch recht - "unmanufacturable"

Nvidia dachte sich einfach "trollface- problem?" und läßt bei allem was über 300Watt geht einfach den Limiter anspringen :ulol:

Und damit kommen sie auch nur durch bei der Masse, weil "normale games" ja eh nie so hoch kommen :rolleyes:

Ich würde als 580er Besitzer echte games solange testen, bis ich nachweisen könnte, daß der Limiter auch dort anspringt- oder bei Cuda Programmen :devil:

So schnell springt der "Limiter" nicht an, bei mir ist er noch nicht einmal Angesprungen egal was ich gebencht hab.

http://www.abload.de/thumb/abselutknn8.png (http://www.abload.de/image.php?img=abselutknn8.png)

http://www.abload.de/thumb/crysiswahed25n2.png (http://www.abload.de/image.php?img=crysiswahed25n2.png)

http://www.abload.de/thumb/gtaauslastungj5uq.png (http://www.abload.de/image.php?img=gtaauslastungj5uq.png)

http://www.abload.de/thumb/tesrecorku3w.png (http://www.abload.de/image.php?img=tesrecorku3w.png)

crane
2010-11-16, 14:12:32
@Mayk-Freak

Wow, wie haste das denn hinbekommen, dass die Karte sich so hoch takten lässt :eek:

Mayk-Freak
2010-11-16, 14:21:38
Mit Wakü und das Bios der Point of View GeForce GTX 580 TGT Ultra Charged Edition hab ich mit Orbmu2k seinen FermiBiosEditor bis 1,212 Volt freigeschaltet.

tombman
2010-11-16, 14:28:46
Hmm, nimm mal 3dm01 Nature Szene und hau SSAA rein ohne Ende und laß mal 30 min loopen.

Dimon
2010-11-16, 14:38:30
Hmm, nimm mal 3dm01 Nature Szene und hau SSAA rein ohne Ende und laß mal 30 min loopen.

Wozu? Um die Karte zu grillen? :eek:

Eine Wakü hat trotzdem grenzen :freak:

Mayk-Freak
2010-11-16, 15:15:06
Die GPU Auslastung liegt bei 3dm2001@ Nature da bei 77% bis max 96% in der max Auflösung.

http://www.abload.de/thumb/einstuefr.png (http://www.abload.de/image.php?img=einstuefr.png)

Dural
2010-11-16, 15:57:58
Nur wird das kaum je der Fall sein.

der meinung bin ich auch, es ist für den normelen zocker völlig egal da die trosselung wohl kaum in irgend welchen realen spiele auftreten wird.


AMD drosselt seit HD5k auch in Hardware.

hmm stimmt hab ich völlig vergessen, wie so wird den bei der 580er so ein theater gemacht?

Iruwen
2010-11-16, 16:05:58
Sehr schlau. Ein Hoch auf Nvidia.

Die Drosselung an sich ist nichts schlimmes, schließlich dient sie dem Schutz und der Langlebigkeit des Produkts. Wer overclocken will, muss entweder entsprechende Produkte kaufen, die mehr Spielraum zulassen, oder in die Hardware eingreifen.
Problematisch ist es, wenn man nicht die volle Leistung beim Einsatz echter Software bekommt, da die Auslastung des Chips usw. die Grenzen sprengen. Nur wird das kaum je der Fall sein.

AMD drosselt in Hardware ohne dass es steuerbar wäre, Nvidia hat über den Treiber die Kontrolle.

fondness
2010-11-16, 16:27:35
AMD drosselt in Hardware ohne dass es steuerbar wäre, Nvidia hat über den Treiber die Kontrolle.

Woher willst du das wissen? Und selbst wenn, eine Drossel die der User umgehen kann erfüllt nicht gerade ihren Zweck. Die Bauteile werden wohl kaum dauerhaft auf die 350W ausgelegt sein die eine GTX580 in Furmark verbrät.

LovesuckZ
2010-11-16, 16:29:12
Eine Drossel, die ein User absichtlicht umgeht, erfüllt natürlich ihren Zweck. Eine Drossel, die jedoch nur auf Software-Basis arbeitet und die per Profile gepflegt werden muss, dagegen nicht.

Iruwen
2010-11-16, 16:47:11
Woher willst du das wissen? Und selbst wenn, eine Drossel die der User umgehen kann erfüllt nicht gerade ihren Zweck. Die Bauteile werden wohl kaum dauerhaft auf die 350W ausgelegt sein die eine GTX580 in Furmark verbrät.
Du bist ja geil.
- "Zwangsdrossel, scheiße!!!1"
- "Moment, bei AMD kann man die nicht umgehen..."
- "LOL man kann die Drossel umgehen, scheiße!!!1"
:rolleyes:

PS: Quelle (http://www.anandtech.com/show/2841/11)

Gipsel
2010-11-16, 16:47:25
Eine Drossel, die jedoch nur auf Software-Basis arbeitet und die per Profile gepflegt werden muss, dagegen nicht.
Spricht Du da von der HD4k und der GT2xx-Reihe?

LovesuckZ
2010-11-16, 16:49:22
Spricht Du da von der HD4k und der GT2xx-Reihe?

Nein, von der Sonne. :freak:
Es ist ersichtlich, welche Karte ich meinte.

Gipsel
2010-11-16, 16:56:41
Du bist ja geil.
[..]
PS: Quelle (http://www.anandtech.com/show/2841/11)
Lies Dir das mal genau durch! Solange keiner das demonstriert hat, wovon Anand da spricht, ist im Prinzip gar nicht bewiesen, daß die HD5k-Serie bei Furmark überhaupt drosselt (ich habe schon mehrfach nach sowas gefragt, da ich der Meinung bin, daß man das dort sehen müßte).
By implementing this at the hardware level, Cypress cards are fully protected against all possible overcurrent situations, so that it’s not possible for any program (OCCT, FurMark, or otherwise) to damage the hardware by generating too high of a load. This also means that the protections at the driver level are not needed, and we’ve confirmed with AMD that the 5870 is allowed to run to the point where it maxes out or where overcurrent protection kicks in.

On that note, because card manufacturers can use different VRMs, it’s very likely that we’re going to see some separation in performance on FurMark and OCCT based on the quality of the VRMs. The cheapest cards with the cheapest VRMs will need to throttle the most, while luxury cards with better VRMs would need to throttle little, if at all.
Ich habe schonmal einen Screenshot geposted, wo man bei einer HD5800er (auf 1.6V :freak:) sieht, wie diese Drosselung arbeitet. Es hat bisher noch nie jemand etwas geposted, was das Gleiche bei FurMark/OCCT mit Standardspannung zeigt.

Das soll nicht heißen, daß FurMark nicht gedrosselt wird, nur stellt sich die Lage alles andere als eindeutig dar und ich wäre wirklich mal an einer Aufklärung interessiert.

Gipsel
2010-11-16, 16:57:57
Nein, von der Sonne. :freak:
Es ist ersichtlich, welche Karte ich meinte.
Also die HD4k und GT2xx-Reihe (edit: und die GTX580 natürlich!), oder? Mir ist nicht 100% klar, auf was Du Dich beziehst, also sag doch einfach ja oder nein.

Coda
2010-11-16, 17:02:56
Ich finde das Thema zu irrelevant um darüber überhaupt zu diskutieren. Solange es nicht in Spielen auftritt kann es eigentlich ziemlich egal sein.

Was ich allerdings nicht verstehe ist warum NVIDIA Treiberprofile benötigt, wenn sie doch eigentlich Hardware-Strombegrenzer auf der GTX 580 verbaut haben. Es sollte also gar nicht nötig sein in Software einzugreifen.

Ailuros
2010-11-16, 17:08:55
Charlie hat immer Recht.

Er wird zunehmend weniger radikal sein in der Zukunft. Warum ueberlass ich jedermans Phantasie.

Ich finde das Thema zu irrelevant um darüber überhaupt zu diskutieren. Solange es nicht in Spielen auftritt kann es eigentlich ziemlich egal sein.

Eben. Das perf/W ratio hat sich um einiges verbessert, und hier gibt es nicht mehr viel zum meckern.

Was ich allerdings nicht verstehe ist warum NVIDIA Treiberprofile benötigt, wenn sie doch eigentlich Hardware-Strombegrenzer auf der GTX 580 verbaut haben. Es sollte also gar nicht nötig sein in Software einzugreifen.

Ich hab zwar keine Ahnung aber wie sicher ist es dass es dementsprechende Logik wirklich gibt?

Coda
2010-11-16, 17:15:47
Nun, es gibt dieses Bild: http://www.ozone3d.net/public/jegx/201011/gtx580_pcb_voltage_current_monitoring_chips.jpg

Die Chips sind aber nicht beschriftet soweit ich das sehe, deshalb wird es schwierig es nachzuprüfen.

Slipknot79
2010-11-16, 17:18:32
Nun, es gibt dieses Bild: http://www.ozone3d.net/public/jegx/201011/gtx580_pcb_voltage_current_monitoring_chips.jpg

Die Chips sind aber nicht beschriftet soweit ich das sehe, deshalb wird es schwierig es nachzuprüfen.

Kann man da nichts nachmessen? Oo

Cyphermaster
2010-11-16, 17:30:52
Meine 2 cents zur Drosselung, Hersteller-unabhängig:

Hardware-Schutz ist grundsätzlich ok. Allerdings ist es bei der Leistungs- und nicht Applikations-abhängigen Hardwarelösung so, daß ein diffuses Risiko, daß sich der teure Highend-Beschleuniger im Betrieb auf Halbgas runterregelt, beim Kunden hängenbleibt.
Sprich: Wenn sich der Kunde eine neue Software kauft, kann er sich nicht mehr sicher sein, daß die Karte ihre volle Leistung auch bringt - nutzt sie die GPU "vollständiger" als jetzige Spiele aus, kann es durchaus sein, daß die Drosselung greift, auch wenn es kein Benchmark ist.

Aktuell mag es sein, daß nur geschätzte 5% der Anwendungen betroffen sind/sein könnten - aber weder gibt es da eine Liste, an der sich der Kunde orientieren könnte, noch gibt es Prognosen oder gar Sicherheit, daß es auch weiterhin max. 5% der Anwendungen bleiben, und daß nicht plötzlich auch mal ein Blockbuster-Titel auftaucht, bei dem die Selbstkastration einer Karte zuschlägt.

Fazit: TDP-Angaben sollten möglichst nahe an der realen Maximalleistung sein. Und wenn Drosselung passiert, sollte das auch dem Kunden klar dargestellt werden, z.B. durch ein "max." vor der Taktung.

Slipknot79
2010-11-16, 17:43:19
Thx slippy :)

Tjo, irgendwie hatte Fudo doch recht - "unmanufacturable"

Nvidia dachte sich einfach "trollface- problem?" und läßt bei allem was über 300Watt geht einfach den Limiter anspringen :ulol:

Und damit kommen sie auch nur durch bei der Masse, weil "normale games" ja eh nie so hoch kommen :rolleyes:

Ich würde als 580er Besitzer echte games solange testen, bis ich nachweisen könnte, daß der Limiter auch dort anspringt- oder bei Cuda Programmen :devil:


Ich seh das ned so tragisch, ich liebäugle oft mit dem Wattmeter und bisher gabs da keine drops außer natürlich in Furmark.
Ich denke, dass jeder drop spürbar wäre in nem Spiel, vorallem wenn man gleichzeitig das Wattmeter im Auge behält. Ich habe das Gefühl, dass der Limiter nicht auf 300W begrenzt sondern stärker darunter liegt, warum auch immer.

>Hmm, nimm mal 3dm01 Nature Szene und hau SSAA rein ohne Ende und laß mal 30 min loopen.


Meinst du mit SSAA Transparentes SS? Zumindest in einem Durchlaufd gabs da keine spürbaren drops.

N0Thing
2010-11-16, 20:42:00
Woher willst du das wissen? Und selbst wenn, eine Drossel die der User umgehen kann erfüllt nicht gerade ihren Zweck. Die Bauteile werden wohl kaum dauerhaft auf die 350W ausgelegt sein die eine GTX580 in Furmark verbrät.

Wer Angst um seine Hardware hat, sollte generell die Finger vom Übertakten lassen. Und wenn man sich schon die Mühe macht eine Drosselung abzuschalten, sollte man sich der möglichen Konsequenzen erst rest bewußt sein.

crux2005
2010-11-16, 20:55:34
Nun, es gibt dieses Bild: http://www.ozone3d.net/public/jegx/201011/gtx580_pcb_voltage_current_monitoring_chips.jpg

Die Chips sind aber nicht beschriftet soweit ich das sehe, deshalb wird es schwierig es nachzuprüfen.

U14-U16, und auf den Chips steht "A219". Hat mich aber nicht weitergebracht.

Bucklew
2010-11-16, 21:14:42
Fazit: TDP-Angaben sollten möglichst nahe an der realen Maximalleistung sein. Und wenn Drosselung passiert, sollte das auch dem Kunden klar dargestellt werden, z.B. durch ein "max." vor der Taktung.
TDP ist die THERMAL design Power. Was das Board dann an Maximalleistung zieht, steht auf nem anderen Blatt. Wenn die Karte es schafft 500W zu ziehen und nur 200 an den Kühler zu geben - dann sind 200W eben TDP ;)

Zum Thema Furmark:
Die Drosselung ist grundsätzlich egal und auch ok, schwierig wird es eben dann, wenn beide Hersteller unterschiedlich drosseln und dann aufgrund dieser Messergebnisse eine Bewertung gefällt wird. So war es ja bisher.

y33H@
2010-11-16, 21:21:08
TDP steht genauso für TYPICAL Design Power.

Gipsel
2010-11-16, 22:07:24
TDP steht genauso für TYPICAL Design Power.
Was soll das sein? Der Saft, den ein typisches Design zieht? :rolleyes:

Ich weiß, daß dieser Begriff existiert, allerdings ist es wohl eher ein etwas verunglücktes Backronym. Es hat aber (zumindest ursprünglich, spätere Umdeutungen gibt es natürlich immer) nichts damit zu tun, wieviel eine Karte typischerweise zieht. Ist auch grammatikalisch eine etwas eigenwillige Konstruktion. Allgemein akzeptiert ist meines Wissens nur "Thermal Design Power".

Coda
2010-11-16, 22:17:34
Ich votiere auch für Thermal Design Power.

y33H@
2010-11-16, 22:20:03
Ich meinte nur, dass "Typical Design Power" ebenfalls naja existiert. Dass TDP aber "Thermal Design Power" meint, ist klar - und TDP ist auch etwas anderes als beispielsweise MBP, also "Maximum Board Power" (wie es AMD nennt). D.h. eine GTX 580 mag eine TDP von 244W haben, das ist aber nicht gleichbedeutend mit der maximalen Leistungsaufnahme der gesamten Karte.

Hugo78
2010-11-16, 22:22:49
Wiki sagt dazu, dass Intel und AMD ...

defined TDP as the maximum power consumption for thermally significant periods running worst-case non-synthetic workloads.
- http://en.wikipedia.org/wiki/CPU_power_dissipation

Furmark ist damit nicht Worst Case weil synthetic oder ...

Fetter Fettsack
2010-11-16, 22:23:28
Ihr habt ja alle keine Ahnung. Nehmet nun meine Weisheit entgegen:

TDP = The Die Power

(jap, mir ist fad und ja, ich weiß, dass es nicht lustig ist^^)

Gipsel
2010-11-16, 22:49:05
Wiki sagt dazu, dass Intel und AMD ...

- http://en.wikipedia.org/wiki/CPU_power_dissipationDas gilt erstens nur für CPUs und selbst dort nicht einheitlich. Bei AMD war es lange Zeit so (hat sich allerdings in letzter Zeit geändert), daß sie dort TDP wirklich als Maximum Power spezifiziert hatten, sprich als Produkt der Maximal-Rating(s) der Stromstärke(n) und der nominellen Spannung. Aber irgendwann nachdem die TDP-Klassen eingeführt wurden (die aber anfangs diese Definition immer noch mit TDP>=max. Power erfüllten), habe ich aufgehört, mich dafür zu interessieren. In den letzten Datenblättern steht auf jeden Fall beides drin und jetzt ist TDP < max Power, also im Prinzip wie bei Intel schon länger der Fall. Aber das macht die TDP natürlich zu einem mehr oder weniger willkürlich gewählten Wert, bei deren Überschreitung (die durchaus spezifikationsgemäß vorkommen kann) die CPU bei Überhitzung (falls die Kühllösung wirklich nur exakt TDP bei Tmax schafft) anfängt zu throtteln.

Zusammengefaßt ist das alles also nur eine Harmonisierung bei CPUs und GPUs :rolleyes:

Bucklew
2010-11-16, 23:19:10
D.h. eine GTX 580 mag eine TDP von 244W haben, das ist aber nicht gleichbedeutend mit der maximalen Leistungsaufnahme der gesamten Karte.
Eben

davidzo
2010-11-16, 23:31:49
TDP ist die THERMAL design Power. Was das Board dann an Maximalleistung zieht, steht auf nem anderen Blatt. Wenn die Karte es schafft 500W zu ziehen und nur 200 an den Kühler zu geben - dann sind 200W eben TDP ;)

Physik fünfte klasse, Energieerhaltungssatz. Dir fehlen offenbar die einfachsten physikalischen Grundkenntnisse.
Wo sollen denn die übrigen 300Watt hingehen? zum mond gebeamt? in ein anthroposophisches strahlenfeld abgegeben? Natürlich gehen wenn auf der einen seite 500Watt rein gehen auch 500Watt an Wärmeenergie wieder raus!

Mann könnte jetzt bestreiten dass das VGASignal und DVI ja auch Energie brauchen und einige feedbacksignale über PCIe laufen, aber die sind so minimal =0,x %), dass man davon ausgehen kann, dass wenn 500watt reingehen, auch 500watt an Wärme abgeführt werden müssen. Letzendlich wird selbst die Energie die in den Lüfter gesteckt wird komplett in Reibung umgesetzt, wenn auch nicht sofort und räumlich etwas verteilt.

Im übrigen bezieht sich die TDP nicht auf den Kühler der Karte.
Gerade bei niedrigeren Verbrauchern und passiv gekühlten karten sowie vielen BGA Bauteilen wird die Wärme über die Kupferlayer im PCB abgegeben.
Die TDP ist also ein Richtwert für das Chassis, also die Kühlleistung die das Gehäuse bzw. der Serverraum zur Verfügung stellen muss, nicht für den Kühler der lediglich die GPU und Spannungswandler kühlt.


TDP steht genauso für TYPICAL Design Power.
Nee, definitiv Thermal Design Power! Das andere war ACP (Average CPU Power). Ersteres ist eine Kenngröße in der Industrie schon jahrzehnte bevor es PCs gab, letzteres ist eine AMD Marketingerfindung.

Hugo78
2010-11-16, 23:51:47
Nochmal Wiki
http://en.wikipedia.org/wiki/Thermal_design_power

The TDP is typically not the most power the chip could ever draw, such as by a power virus, but rather the maximum power that it would draw when running real applications.

Iruwen
2010-11-17, 00:11:04
Da könnte man jetzt auch anfangen über Begriffsdefinitionen auf Wikipedia zu streiten, ich könnte den Artikel auch editieren und meine persönliche Meinung dazu reinschreiben. "Typically" besagt ja schon dass das unterschiedlich ausgelegt wird, ist halt kein feststehender Begriff.
Die Maximalleistung (PMPO) bei einem Verstärker ist z.B. die abgegebene Peak-Leistung im Moment seiner Zerstörung - auch eine wenig praxistaugliche Kennziffer.

Cyphermaster
2010-11-17, 00:17:42
Kein Wunder, daß der Artikel bei Wikipedia nur ein Rumpf-Eintrag ist, mit Quellen rein von den Chipherstellern... :rolleyes:

Die stille und heimliche Umdefinition von "TDP = Max. Power" auf "TDP = Irgendwas, was man dem Kunden noch rechtfertigen kann", die vor ein paar Jahren passierte, ist echt grausam. Man definiert einfach, daß alles, was mehr als die willkürlich gewählte TDP über die Karte treiben würde, als "Power Virus", also als entweder kartenschädigende (Beinahe-)Malware, oder als fehlerhaft programmierte Anwendungen/Spiele. Oder als "zu neu, das konnte man damals ja nicht wissen".

Kurz: Wenn was ist, sind immer schön die Anderen schuld. Was programmieren die auch so blöd, daß ein Chip voll ausgelastet werden kann... :rolleyes:

Slipknot79
2010-11-17, 03:36:35
Hmm, nimm mal 3dm01 Nature Szene und hau SSAA rein ohne Ende und laß mal 30 min loopen.


So, hab jetzt folgendes getestet (Nur 1 Durchgang):
32xAA und 8xSSAA transparent.

Mit Limiter wird das Gesamtsystem bei mir auf 380W begrenzt, ohne Limiter schwankt die Leistung zwischen 380 und 420W.
fps-drops kann ich aber keine feststellen, 287 vs 285fps oO

€dit: WTF, 2ter Durchgang wieder auf 380W ohne Limiter oO, dann lief vllt was im Hintergrund beim ersten Durchgang. Ich finde es aber verdächtig, dass die 380W so ziemlich konstant sind, schwankt nicht mal im 5W Bereich im ganzen Durchlauf oO
Also, zur Erinnerung:
Furmark + 1 Core = 420W "konstant"
Nature 2001 SE ohne CPU = 380W "konstant"

Wizzard soll nen Schalter einbauen, Reboot nervt um den Limiter wieder zu aktiveren ^^

€dit: So, dritter Durchgang:
CPU Core schaltet sich ab und zu hinzu (für 2-3s) beim Durchlauf und dann wieder auf idle. 380W -> 420W (beides "konstant")

Nature dürfte wohl auch limitiert sein, der konsante Wattverlauf deutet daraufhin, und die Watt decken sich mit dem Wert von Furmark, oder ist das ne falsche Interpretation? :(

tombman
2010-11-17, 03:42:14
Ich hoffe, die furmark devs oder andere proggn ein kleines SPIEL mit "powervirus" Technik ;)
Dann gibts keine Ausreden mehr...

Slipknot79
2010-11-17, 03:59:57
Nature 01 SE limitiert?!? : http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8393998&postcount=393

Hugo78
2010-11-17, 06:40:40
Was zieht denn dein Sys unter Crysis Warhead oder Metro?

Cyphermaster
2010-11-17, 09:00:59
Ich hoffe, die furmark devs oder andere proggn ein kleines SPIEL mit "powervirus" Technik ;)
Dann gibts keine Ausreden mehr...Dann hieße es nur wieder "oh, na ja, das konnten wir ja nicht wissen - aber alle anderen Spiele funktionieren ja, also ist alles gut :uhippie:"

puntarenas
2010-11-17, 09:23:52
Was ich allerdings nicht verstehe ist warum NVIDIA Treiberprofile benötigt, wenn sie doch eigentlich Hardware-Strombegrenzer auf der GTX 580 verbaut haben. Es sollte also gar nicht nötig sein in Software einzugreifen.
Ich kann mir das sinnvoll nur damit erklären, dass die Hardwarebegrenzung entweder nicht funktioniert oder Nvidia der korrekten Funktion mit Hinblick auf Launch-Reviews und deren Benchmarks noch nicht hinreichend vertraut hat. Wenn man Anwendungen auf eine Blacklist in Form von Treiberprofilen packt, braucht man keine Hardwarebegrenzung.

Prinzipiell finde ich eine solche Begrenzung in Hardware gut, aber selbstverständlich sollte sie eben für Alternativkühler (z.B. WaKü-Freunde, Herstellerdesigns) explizit deaktivierbar oder nach oben anpassbar sein. Mittels einer solchen Begrenzung kann man sich dann den Unsinn von wegen Power-Virus auch wieder schenken, denn die TDP kann gezielt limitiert werden.

tombman
2010-11-17, 09:26:11
Dann hieße es nur wieder "oh, na ja, das konnten wir ja nicht wissen - aber alle anderen Spiele funktionieren ja, also ist alles gut :uhippie:"
Aber dann kann es gebenched werden, und jeder (Möchtegern)Enthusiast würde merken, daß zb eine GTX580 langsamer als eine GTX480 wäre- und wenn sich das herumspricht...:naughty:

Es geht ja nicht nur um die 580er...die werden das jetzt sicher als Standard behalten um über 300W gehen zu können und gleichzeitig ihre Chips zu schützen- RMA Quote FTW :ulol:

And i don't like that....

Cyphermaster
2010-11-17, 09:42:31
Benchen kann man es jetzt auch schon. Die Hersteller retten sich argumentativ halt immer mit der "Powervirus"-Schiene, und der hausgemachten Definition, daß TDP nicht mehr = Max. Power, sondern < Max. Power ist und sein dürfte (Warum ein Programm nicht die Leistung, die auf dem Spec-Sheet der GPU steht und die der Kunde bezahlt hat, auch abrufen können darf, erschließt sich mir allerdings immer noch nicht...). Alles, was drüber geht, wird halt als illegal umdeklariert - und gehofft, daß es in absehbarer Zeit keinen breitenwirksamen Spieletitel gibt, der davon betroffen sein wird.

Dural
2010-11-17, 09:46:14
ich glaube immer noch nicht das wir das so jemals in einem reguleren spiel sehen werden, furmark lastet die karte einfach völlig anders aus als es ein spiel machen würde.

wenn der limiter nicht mal bei etwas OC und mehr spannung eingreift dürfte das stock sicher nie passieren!


zudem muss man bei strommessungen aufpassen wenn man das ganze system misst, den bei furmark wird der verbrauch fast nur durch die GPU verursacht und nicht durch die CPU, der CPU anteil kann aber je nach spiel deutlich grösser sein!

Cyphermaster
2010-11-17, 10:15:30
ich glaube immer noch nicht das wir das so jemals in einem reguleren spiel sehen werden, furmark lastet die karte einfach völlig anders aus als es ein spiel machen würde.Das stimmt für MOMENTANE Spiele. Glauben heißt nun mal per Definition nicht wissen - auch die Hersteller können nicht mit Sicherheit wissen, wie Spiele oder Anwendungen in über ein oder gar zwei Jahren aussehen und programmiert sein werden (z.B. CUDA-like Physikberechnungen mit bei aktuellen Spielen brach liegenden Einheiten? Neue DX12/13-Effekte?).

Solange so ein zusätzliches, diffuses Risiko zu meinen Lasten als potentieller Käufer geht, und ich nicht mal richtig drauf hingewiesen werde, muß ich das nicht gut finden, oder?

/Nachtrag: Es ist außerdem nicht gesagt, daß das Throtteling-Verhalten der 580 auch bei den 570/560 usw. ähnlich wäre! Da die TDP vom Hersteller frei gewählt wird, könnte es -worst case- durchaus sein, daß bei anderen Karten noch deutlich "früher" gedrosselt wird; d.h., daß das Risiko sogar noch höher ist. Immerhin scheint der Drosselwert der 580er ja auch entsprechend dem Marketing-Wunsch "nicht mehr Stromverbrauch als die 480er" eingestellt worden zu sein.

Hugo78
2010-11-17, 11:19:08
Leute bringt doch mal ein Spiel wo die GTX 580 abregelt!
Solang dieser Nachweis nicht geführt wurde, ist dies hier nur ein weiterer Eiertanz um garnichts!

Die GTX 580 ist in jeder reallife Anwendung schneller als eine GTX 480, ohne dabei abzuregeln und dabei grad mal so laut wie ne HD 5870.
Ja mehr noch, ungedrosselt im FM sogar noch leiser. Und das wird sich auch übertaktet kaum ändern.

Und das Limit in FM tantgiert mich kein Stück, denn ich geh nicht davon aus, dass die GTX 580 mit ihrem GTX 480 Platinenlayout,
aber deutlich verbesserter Kühlung, plötzlich in Gefahr gerät abzurauchen, wenn die GTX 480 es nicht tat.

Oder gibts da massenhaft RMA Fälle? Nö oder?!

tombman
2010-11-17, 11:23:25
Oder gibts da massenhaft RMA Fälle? Nö oder?!
1.) wirst du das nicht erfahren
2.) nur sehr wenige kennen das unlock tool (also fast niemand aus einer fast niemand Gruppe = fast niemand ²) :)

LovesuckZ
2010-11-17, 11:34:39
Die Karte regelt bei knapp 310 Watt ab. Wer meint, seine Karte mit mehr als 310 Watt zu betreiben, der hat dann auch einfach pech gehabt.

Wobei das is ja nicht ganz richtig, da man ja einfach nur eine ältere Furmark-Version verwenden müsste. :ucrazy:

fondness
2010-11-17, 11:37:01
Wie sieht das eigentlich bei Übertaktung aus? Mit mehr Takt und Spannung wäre man ja sehr schnell auch in durchschnittlichen Spielen an der Grenze. Wird dann durchgehend "abgeregelt"?

Duke Nukem
2010-11-17, 11:41:25
1.) wirst du das nicht erfahren
2.) nur sehr wenige kennen das unlock tool (also fast niemand aus einer fast niemand Gruppe = fast niemand ²) :)
Wird schon seinen Grund haben warum Die OC version von palit zurückgerufen wurde oder dieTakt Senkung Seitens gainward gemacht wurde. Könnte sein das es probleme gibt die ein zu hoher Takt auslöst, den sie erst im Nachhinein bemerkt haben.

LovesuckZ
2010-11-17, 11:42:39
Wird schon seinen Grund haben warum Die OC version von palit zurückgerufen wurde oder dieTakt Senkung Seitens gainward gemacht wurde. Könnte sein das es probleme gibt die ein zu hoher Takt auslöst, den sie erst im Nachhinein bemerkt haben.

Gibt es dazu Quellen?

Duke Nukem
2010-11-17, 11:44:53
Gibt es dazu Quellen?
http://extreme.pcgameshardware.de/grafikkarten/125889-palit-geforce-580gtx-sonic-rueckruf-hersteller.html#post2393074

LovesuckZ
2010-11-17, 11:47:27
Ah, hab den Thread jetzt gelesen. Abwarten. Sieht eher nach einem falschen Bios aus.

Hugo78
2010-11-17, 11:48:46
Bei Palit gibt es das Problem, das manche Karten nicht mit allen aktuellen Mobos starten.

Duke Nukem
2010-11-17, 11:59:00
Ah, hab den Thread jetzt gelesen. Abwarten. Sieht eher nach einem falschen Bios aus.

kann gut sein das zu hohe taktraten vom Bios eingestellt werden. Und Palit und Gainward das erst jetzt gemerkt haben.

aths
2010-11-17, 12:00:00
Benchen kann man es jetzt auch schon. Die Hersteller retten sich argumentativ halt immer mit der "Powervirus"-Schiene, und der hausgemachten Definition, daß TDP nicht mehr = Max. Power, sondern < Max. Power ist und sein dürfte (Warum ein Programm nicht die Leistung, die auf dem Spec-Sheet der GPU steht und die der Kunde bezahlt hat, auch abrufen können darf, erschließt sich mir allerdings immer noch nicht...). Alles, was drüber geht, wird halt als illegal umdeklariert - und gehofft, daß es in absehbarer Zeit keinen breitenwirksamen Spieletitel gibt, der davon betroffen sein wird.Die Frage nach dem Warum ist schnell geklärt: Eine Karte mit einem Lüfter der 350 Watt locker wegbekommt und mit Spannungswandlern die unter Volllast 24/7 zwei Jahre lang funktionieren, wäre sehr teuer.

Aus RMA-Sicht ist die Verhinderung der Abregelung fürchterlich, weil einige Typen den Furmark einfach mal so für lange Zeit laufen lassen und sich freuen wenn die Karte 350 Watt nuckelt. Da die Ausfälle in den Verkaufspreis eingerechnet werden, schadet das Verhalten allen.

Wie sieht das eigentlich bei Übertaktung aus? Mit mehr Takt und Spannung wäre man ja sehr schnell auch in durchschnittlichen Spielen an der Grenze. Wird dann durchgehend "abgeregelt"?Mit mehr Takt kommt man in Spielen auch nicht an die 300 Watt.

Cyphermaster
2010-11-17, 13:23:20
Die GTX 580 ist in jeder reallife Anwendung schneller als eine GTX 480, ohne dabei abzuregeln und dabei grad mal so laut wie ne HD 5870.Bis du wirklich alle reallife-Anwendungen auf deiner GTX580 getestet hast, ist diese Aussage schlichtweg auch eine Annahme, kein Fakt.

Ich spreche bewußt nur von einem Risiko, keinem Fakt, daß die Drosselung der 580 in einem Spiel greift! Wenn nVidia nicht total doof war, dann sind zumindest mal die aktuell gängigen Programme getestet worden, und daher sollte mit hoher Wahrscheinlichkeit keine Abregelung stattfinden müssen. Aber weder kann nVidia sämtliche auf dem Globus verfügbare Software getestet haben, noch haben sie eine Glaskugel, die ihnen die sichere Aussage zuließe, daß zukünftige Programme nicht doch so ein Verhalten zeigen können - und zumindest ich persönlich (ich will das nicht als allgemeinen Maßstab für jedermann fordern) empfände so ein Risiko in mir unbekannter Höhe als deutlichen Pferdefuß bei einer Karte, die in Preisregionen von nicht grade popeligen 500 Euro angesiedelt ist, und deren Hauptfokus auf Leistung liegt.
Schließlich reden wir hier nicht über HTPC-Karten, bei denen der Stromverbrauch eine andere Priorität hat, oder Lowcost-Beschleunigern. Tja, und zu guter Letzt: Auch wenn die 580er nirgendwo throtteln, wo es relevant wäre - keiner kann sagen, wie das bei den anderen 5xx-Karten aussehen wird.

Gäbe es eine Möglichkeit, sicher zu sein, daß es wirklich so ist und bleibt, wie nVidia verspricht, wäre gegen die Drosselung absolut nichts einzuwenden - im Gegenteil. Nur fürchte ich, würde das zu einem guten Stück prophetische Fähigkeiten der Entwickler voraussetzen.

Bucklew
2010-11-17, 13:33:42
Physik fünfte klasse, Energieerhaltungssatz. Dir fehlen offenbar die einfachsten physikalischen Grundkenntnisse.
Wo sollen denn die übrigen 300Watt hingehen? zum mond gebeamt? in ein anthroposophisches strahlenfeld abgegeben? Natürlich gehen wenn auf der einen seite 500Watt rein gehen auch 500Watt an Wärmeenergie wieder raus!
Das ist vielleicht heute so normalerweise der Fall, aber eben kein Muss. Nur weil eine Grafikkarte Leistung zieht, muss sie die noch lange nicht in Wärme umwandeln.

Stell dir z.B. eine Grafikkarte vor (auch wenns Quatsch ist, aber ist dennoch möglich), die direkt den TFT mitversorgt. Da wird man einen riesen Unterschied TDP und Max Boardpower sehen.

Nur weil dir Abstraktionsvermögen fehlt haben andere Leute noch lange keine Ahnung ;)

Coda
2010-11-17, 13:37:46
Das ist vielleicht heute so normalerweise der Fall, aber eben kein Muss. Nur weil eine Grafikkarte Leistung zieht, muss sie die noch lange nicht in Wärme umwandeln.

Stell dir z.B. eine Grafikkarte vor (auch wenns Quatsch ist, aber ist dennoch möglich), die direkt den TFT mitversorgt. Da wird man einen riesen Unterschied TDP und Max Boardpower sehen.

Nur weil dir Abstraktionsvermögen fehlt haben andere Leute noch lange keine Ahnung ;)
Soso. Relevanz?

Fakt ist, 99,999...% der aufgenommen Leistung werden von einer Grafikkarte in Wärme abgegeben. Die paar mW die für die Displayausgänge benötigt werden sind völlig latte.

Bucklew
2010-11-17, 13:38:29
Soso. Relevanz?
TDP vs. Max Board Power.

Coda
2010-11-17, 13:39:29
TDP vs. Max Board Power.
Ist für alle praktische Relevanz exakt das gleiche.

PHuV
2010-11-18, 00:02:35
Mit Limiter wird das Gesamtsystem bei mir auf 380W begrenzt, ohne Limiter schwankt die Leistung zwischen 380 und 420W.
fps-drops kann ich aber keine feststellen, 287 vs 285fps oO


Blöd gefragt, für was ist es dann gut, den Limiter aufzuheben? :confused:

Iruwen
2010-11-18, 00:11:03
Für einen Enthusiasten: aus Prinzip, könnte ja irgendwo limitieren ;)

Slipknot79
2010-11-18, 01:43:46
Blöd gefragt, für was ist es dann gut, den Limiter aufzuheben? :confused:


Es besteht die Gefahr, dass der Limiter in zukünftigen Spielen limitieren könnte :( Wenn Furmark von 58 auf 30fps dropt, warum solls dann nicht in Spielen auch so sein? :mad:

dildo4u
2010-11-18, 01:48:18
Es besteht die Gefahr, dass der Limiter in zukünftigen Spielen limitieren könnte :( Wenn Furmark von 58 auf 30fps dropt, warum solls dann nicht in Spielen auch so sein? :mad:
Kein Game wird die Karte ansatzweise so auslasten das einzige was halbwegs dort hinkommt ist z.b Folding@Home.

Heutige Games sind ~90!Watt weg von der Maxlast.

http://www.pcgameshardware.de/aid,798165/Geforce-GTX-580-im-Test-Die-bessere-Geforce-GTX-480/Grafikkarte/Test/?page=2

Slipknot79
2010-11-18, 01:53:50
>Heutige Games sind ~90!Watt weg von der Maxlast.

"Es besteht die Gefahr, dass der Limiter in zukünftigen Spielen"

>Kein Game wird die Karte ansatzweise so auslasten

Es ist nicht klar, wann der Limiter nun wirklich greift. Das zukünftige Spiel muss nicht in die Regionen von Furmark kommen damit der Limiter greift. Er greift auch bei MSI Kombustor (wenn oc betrieben wird) und damit komme ich auch nicht in Furmarkbereiche.

klein
2010-11-18, 08:51:43
Einen weiteren Ausreißer genehmigte sich die Schaltung ausgerechnet bei der Vorzeige-Anwendung der Fermi-Chips: Tessellation. Der synthetische Benchmark Tessmark wird - so Nvidia nach ausführlicher Rücksprache mit uns - unabsichtlich als sogenannter Power-Virus erkannt und gedrosselt, sofern der eingesetzte Tessellationsfaktor bei 8 ("Moderate") oder 16 ("Normal") liegt.

GF100 ist eine einzige Katastrophe.

tombman
2010-11-18, 09:33:31
Einen weiteren Ausreißer genehmigte sich die Schaltung ausgerechnet bei der Vorzeige-Anwendung der Fermi-Chips: Tessellation. Der synthetische Benchmark Tessmark wird - so Nvidia nach ausführlicher Rücksprache mit uns - unabsichtlich als sogenannter Power-Virus erkannt und gedrosselt, sofern der eingesetzte Tessellationsfaktor bei 8 ("Moderate") oder 16 ("Normal") liegt.

Tjo, genau das meinte ich...."unabsichtlich"...das nächste Mal dann bei Crysis 2?

MartinRiggs
2010-11-18, 10:06:07
Tja, das ist echt mal ein absoluter Fail.
Finde die 580 eigentlich gut aber dieses "Feature" geht mal garnicht.

aths
2010-11-18, 10:56:56
Tjo, genau das meinte ich...."unabsichtlich"...das nächste Mal dann bei Crysis 2?Ja klar, damit sich Nvidia die Benchmark-Reviews versaut? :hammer:

deekey777
2010-11-18, 11:12:37
Es besteht die Gefahr, dass der Limiter in zukünftigen Spielen limitieren könnte :( Wenn Furmark von 58 auf 30fps dropt, warum solls dann nicht in Spielen auch so sein? :mad:
Nur so eine Gedankengang: Es ist eine Grafikpipeline.
In einem Spiel gibt es immer irgendwo einen Stau, so dass einige Einheiten auf andere warten müssen. Auch müssen Grafikkarten eh auf die CPU warten, bis sie was zu tun haben.
Spiele wie Crysis oder Metro2033 oder auch STALKER CoP mögen zwar sehr aufwendig sein, aber sie sind meiner Meinung nach kein "TDP-Überschreiter".

Bucklew
2010-11-18, 11:15:06
Tjo, genau das meinte ich...."unabsichtlich"...das nächste Mal dann bei Crysis 2?
wird scheinbar wegen der hohen fps gedrosselt - was das spulenfiepen verhindert. wenn du bei crysis2 700 fps kriegst, dann wird wohl auch da gedrosselt ;D

wobei: wer hier im forum, wenn nicht du? ;)

tombman
2010-11-18, 11:15:18
Ja klar, damit sich Nvidia die Benchmark-Reviews versaut? :hammer:
"OC"+ ">vcore"-reviews gibts ja auch noch ;)

deekey777
2010-11-18, 11:23:11
Tjo, genau das meinte ich...."unabsichtlich"...das nächste Mal dann bei Crysis 2?
C2 ist ein Konsolenspiel. Konsolenspiele setzen extrem auf Postprocessing, also werden die ROPs übermäßig belastet, ergo müssen die Shader auf die ROPs warten. 48 ROPs vs. 512 Shader-Einheiten mit doppelt so hohem Takt: Wer gewinnt?

Und da C2 noch weitere Stolpersteine hat, wird der Verbrauch eh negativ sein, sprich die GTX580 wird bei Crysis 2 Strom erzeugen. ;D

aths
2010-11-18, 11:56:25
"OC"+ ">vcore"-reviews gibts ja auch noch ;)Aus einer Karte kann man nur so viel rausholen wie drin ist. Es werden nur die angegebenen Taktraten garantiert. Kann man darüber hinaus übertakten, ist das reines Glück und kein Anspruch.

Dural
2010-11-18, 11:56:57
es wird nie passieren, spiele lasten VGA Karten einfach anders aus als es eben synthetische Tests es machen.

Der Verbrauch zwischen real Anwendung und solchen Test wie furmark und co ist zu dem dafür einfach zu gross.

punkt



interessant ist auch das es zunehmend GTX480 Besitzer sind die Bedenken haben, was für ein Zufall... ;) Ihr seit ja selber schuld wenn ihr solche Krüppel Grafikkarten kauft, war ja von anfang an klar das so was wie die GTX580 kommt!

tombman
2010-11-18, 12:04:51
es wird nie passieren, spiele lasten VGA Karten einfach anders aus als es eben synthetische Tests es machen.

Der Verbrauch zwischen real Anwendung und solchen Test wie furmark und co ist zu dem dafür einfach zu gross.

punkt



interessant ist auch das es zunehmend GTX480 Besitzer sind die Bedenken haben, was für ein Zufall... ;) Ihr seit ja selber schuld wenn ihr solche Krüppel Grafikkarten kauft, war ja von anfang an klar das so was wie die GTX580 kommt!
Jo, ich hab echte Bedenken ob ich 200fps oder 250fps habe...:rolleyes:

MiamiNice
2010-11-18, 12:19:54
Gerade Dich wird das wohl am meisten stören ^^

Mir ist der Limiter ziemlich egal so lange er nicht meine FPS drückt. Klar von 250 auf 200 ist nicht der Rede wert. Wen es allerdings mal um 50 vs. 30 FPS geht würde mich das schon sehr stören.

tombman
2010-11-18, 12:25:49
Gerade Dich wird das wohl am meisten stören ^^

Mir ist der Limiter ziemlich egal so lange er nicht meine FPS drückt. Klar von 250 auf 200 ist nicht der Rede wert. Wen es allerdings mal um 50 vs. 30 FPS geht würde mich das schon sehr stören.
Und wann soll das der Fall sein, wenn die 580er 20% schneller ist und ich 3 480er habe? ;)

MiamiNice
2010-11-18, 13:07:25
Ich erwarte eigendlich von Dir das Du Deine alten Gammelkarten gegen 3x580er tauscht. Alles andere ist doch wohl unter Deiner Würde ^^

Angiesan
2010-11-18, 13:11:02
es wird nie passieren, spiele lasten VGA Karten einfach anders aus als es eben synthetische Tests es machen.

Der Verbrauch zwischen real Anwendung und solchen Test wie furmark und co ist zu dem dafür einfach zu gross.

punkt



interessant ist auch das es zunehmend GTX480 Besitzer sind die Bedenken haben, was für ein Zufall... ;) Ihr seit ja selber schuld wenn ihr solche Krüppel Grafikkarten kauft, war ja von anfang an klar das so was wie die GTX580 kommt!

Ja die haben inklusive mir alle Angst, dass sie nicht mehr das schnellste im Rechner haben und somit nicht mehr den längsten haben:P aber was für ein Quatsch, die 580 ist im optimalen Fall Taktbereinigt gerade mal 10% schneller das merkt man einfach nicht. Und meine wie viele andere die auf alternative Kühlungen gesetzt haben haben auch keine Probleme mit Temps und so weiter der Stromverbrauch ist ja nun auch nicht besser wie bei der 480er da hat man schlicht und einfach geschummelt um die Karte attraktiver zu machen.

Es ist mir keine 480er bekannt die nicht die 0,875 Volt idle schaft und meine braucht somit exakt das gleiche wie meine HD 5850 auf dem Desktop

Also alles im Bereich der Kosmetik und nicht was mit ein wenig Feintuning nicht auch die 480er kann außer eben die 512 Shader und der verbesserte Referenzkühler der den meisten eh Schnuppe ist da man immer noch nicht von leise reden kann. Leise wird es nur mit alternativen Kühllösungen da hat sich nichts verändert gegenüber der 480er es wurde nur entschärft.

Da die Karte eh nicht für die breite Masse gedacht ist sondern sich mehr an die Enthusiasten richtet halte ich die Beschränkung schon für fragwürdig, da diese eben nicht gerne ein Limit vorgegeben haben wollen.

Auf der anderen Seite ist es aber offensichtlich notwendig, da man mit der Karte nun mal die Vorgaben überschreiten würde und man muss sich nur mal vorstellen, eine große Seite würde schreiben " nach 20 Min Burnintest mit Furmark ist uns das komplette System abgeraucht das letzte was unsere Leistungsmessung ergeben hat waren 350 Watt alleine für die Graka dies liegt deutlich über den Spezifikationen und wir vermuten, dass der Defekt daher kommt!" Das wäre ein Overgau und sowas will und kann man nicht zulassen.

daywalker4536
2010-11-18, 13:18:41
Die GTX580 richtet sich nicht an bereits GTX480 Besitzer das sollte klar sein. Und ein Upgrade wäre vollkommen bescheuert und Geld aus dem Fenster schmeißen. Selbst der tombman sollte genug Verstand haben ^^.

Schön ist das trotzdem nicht. Ich hätte dieses Thema immer im Hinterkopf sollte ich mir die Karte zulegen. Namal sehen. Noch sind die eh zu teuer.

MiamiNice
2010-11-18, 13:24:52
Selbst der tombman sollte genug Verstand haben ^^.

Verstand ja, aber die HW geilheit treibt ihn dazu :)

daywalker4536
2010-11-18, 13:30:28
Das kann ich absolut nicht nachvollziehen ^^. Das ist unvernünftig :).

Slipknot79
2010-11-19, 15:27:09
Hängt euch ned so wegen dem Limiter auf, schmeißt GPU-Z an und geht schon :redface:

LovesuckZ
2010-11-20, 14:59:39
Mit dem Gainward 263.09 scheint nVidia nun auch die älteren Furmark Version zu drosseln.
Kleine Notiz am Rande: Im Furmark 1.7 war die GTX580 ca. 17% schneller und verbrauchte 20 Watt beim Komplettsystem. Eine leistungsähnliche GTX480 wäre per Luftkühlung nicht auf dieses Leistungsniveau zu bringen. Selbst eine GTX580 mit 1,064V und 875Mhz bleibt deutlich unter dem Niveau als die GTX480 mit 845MHz bei 1,063V, ca. 50 Watt bei 86°C.

=Floi=
2011-02-10, 19:41:06
braucht man dazu die extra gpu-z version oder geht eine neuere auch?

dius31
2011-02-13, 23:15:22
braucht man dazu die extra gpu-z version oder geht eine neuere auch?

Hi,
...es geht auch mit der aktuellen Version v0.51
http://www.techpowerup.com/downloads/1930/TechPowerUp_GPU-Z_v0.5.1.html

Der Parameter in der Verknüpfung: /GTX500OCP
Habe es eben mit meiner GTX580 getestet....

Furmark v1.8.2 mit Limiter --> ~340Watt
Furmark v1.8.2 ohne Limiter --> ~470Watt

Der Parameter bleibt bis zum nächsten Reboot aktiv.

Gruß
dius31

=Floi=
2011-02-14, 00:14:52
DANKE
da steht ja auch die 560er schon dabei. :)

Dekal
2011-03-19, 01:58:38
Was denn nu?! "/GTX580OCP" oder "/GTX500OCP"? Ich habe beide Kommandozeilenbefehle getestet und keine der beiden hat bei mir in Zusammenhang mit GPU-Z v.0.5.1 funktioniert. Auch nicht die extra von W1zzard hergerichtete Version von GPU-Z funktionierte.

Also was läuft hier verkehrt?! Ich habe ein Stromverbrauchsmessgerät, eine bis vor kurzem noch funktionsfähige GTX 570 und FurMark. Zum Deaktivieren des sogenannten "Power Limiter" habe ich GPU-Z mit entsprechender Kommandozeile ausgeführt.

Wieso habe ich hier abweichende Ergebnisse, die sich nicht mit denen decken die u. a. hier erklärt werden: http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Power-Throttling-using-GPU-Z.html

Es lässt sich für mich nicht nachvollziehen...

Was einwandfrei funktionierte ist die schon seit Ewigkeiten in der Nvidia Systemsteuerung integrierte Option mit der Bezeichnung "Energieverwaltungsmodus". Wenn hier "Maximale Leistung bevorzugen" gewählt wird, dann steigt der Stromverbrauch und die Temperaturen in Zusammenhang mit FurMark 1.9.0 enorm an.

Zu dieser Diskussion bzgl. der Existenz einer von Nvidia integrierten "Stromverbrauchslimitierung" habe ich sowieso meine ganz eigene Meinung.

Für mich ist es völlig inakzeptabel und obendrein sehr gut nachvollziehbar, dass Nvidia nicht nur erst seit der 5xxer-Serie einen sogenannten Limiter einbaut. Als sogenannten "Power Limiter" konnte ich bis Dato im Gegensatz zu der weit verbreiteten Meinung die im Netz kursiert, es existiere eine extra dafür von Nvidia hergerichtete künstliche Limitierung, nur die im Treibermenü integrierte Energiesparmaßnahme ausfindig machen.

Warum baut Nvidia wohl eine Option in den Treiber ein, welche die Grafikkarte ab einer bestimmten maximalen Auslastung drosselt?

Offiziell ist ja wohl eher die Rede davon, dass durch die besagte Option der Energiebedarf einer Grafikkarte gesenkt werden kann. (Wer verbreitet hier eigentlich ein solch blödes und zudem lachhaftes Gerücht von den sogenannten Powerviren?! Also ich jedenfalls glaube nicht alles was im Netz kursiert, auch nicht wenn es angeblich von Nvidia selbst stammt!)

Ich schließe mich der Meinung an, dass mit der Einführung dieser treiberseitig standardmäßig aktivierten Energiesparmaßnahme (Adaptiv genannt) womöglich viele RMA-Fälle verhindert werden können. Aber was ich nicht nachvollziehen kann und möchte ist, dass Nvidia mit seinen Kunden Poker spielt indem minderwertig verbaute Teile auf dem Grafikbrett nur durch eine einfache Treiberoption davon abgehalten werden abzurauchen! :hammer:

Jeder Hersteller einer Grafikkarte sollte herrausragende Testlabors haben, in denen jedes nur erdenkliche Worst-Case-Scenario nachgestellt werden kann (und sollte!), welches verhindert dass eine Grafikkarte bei Maximalbelastung sofort ausfällt.

Wer hier mit dem mehr als nur hinkenden Argument kommt, dass jemand der FurMark in Zusammenhang mit der Abschaltung leistungshemmender Treiberoptionen benutze, selbst schuld an dem vorzeitigen Ableben sei, der hat wohl nicht verstanden was Qualitätsstandards seitens eines Grafikkartenherstellers zu bedeuten haben!

Eine Grafikkarte sollte dazu entworfen sein, jede nur erdenkliche Rechenaufgabe bei voller Belastung ohne Einschränkung und Ausfälle in werkseitig eingestelltem Zustand (Taktrate) und bestenfalls sogar darüber hinaus zu bewältigen! Tut sie dies aufgrund Versagens einer Komponente aufgrund von Überhitzung oder sonstigen Mängeln nicht, fällt sie als taugliche Grafikkarte knadenlos durch! Sie dürfte so nicht als serienreifes marktaugliches Produkt angepriesen werden. Punkt.

Mal ehrlich, wäre eine Grafikkarte wirklich so zerbrechlich gebaut, dann würde jede zweite Grafikkarte schon nach 3 Minuten FurMark bei voller Auslastung ohne Energisparmechanismus einen Kurzschluss verursachen, geschweige denn würde sie sich ohne direkt Schaden zu nehmen übertakten lassen!

Und soll ich euch mal was sagen? Genau der oben geschilderte Fall betrifft leider mich. Ja es gibt wohl die minderwertigen Einzelstücke, die total durch die Qualitätsprüfung durchgefallen sind. Die Frage die sich mir nur stellt ist, weshalb ein solch minderwertiges Stück Schrott überhaupt auf den Konsumermarkt gelangen konnte?!

Man möge sich das nochmals auf der Zunge zergehen lassen. Eine Grafikkarte ist so schlecht gefertigt, dass sie bei maximaler Ausschöpfung ihrer Leistung in einem nicht übertakteten Zustand nur 3 Minuten lauffähig ist und dann für immer ihren Dienst versagt! :|

Sowas kann und darf nicht zum Normalzustand werden!

PS: Sollten Nvidias Testlabors wirklich so schlecht sein, Ausfälle dieser (meiner) Art festzustellen und zu fixen, so sollten sie sich vielleicht einfach selbst einen Qualitätsstandard auferlegen, indem sie eine Grafikkarte erst dann als markttauglich klassifizieren, wenn diese 24 Stunden am Stück bei 5%-iger Übertaktung des Speichers, der Shadereinheiten und GPU's über Referenztaktung in einer 40° Celsius heißen Räumlichkeit bei Abschaltung sämtlicher Energiesparmechanismen in Zusammenhang mit FurMark im Xtreme burn-in ihren Dienst einwandfrei verrichten konnte!

Ich würde mir wünschen, dass dieser Satz so wie er ist direkt vor dem Nvidia Qualitätsmanagement auf den Tisch gehaun wird!

ijun
2011-03-19, 02:29:55
Die Frage die sich mir nur stellt ist, weshalb ein solch minderwertiges Stück Schrott überhaupt auf den Konsumermarkt gelangen konnte?
Weil auch Grafikkarten nur dazu dienen Geld zu verdienen, und weil es eben nur der consumer-Markt ist.

Dekal
2011-03-19, 02:35:32
Weil auch Grafikkarten nur dazu dienen Geld zu verdienen, und weil es eben nur der consumer-Markt ist.

*Ironie*Das freut mich sehr!*Ironie* Dann werden jetzt aufgrund meines RMA-Falles wieder ein paar Kosten ?!eingespart?!.

aths
2011-03-19, 14:27:23
Wer hier mit dem mehr als nur hinkenden Argument kommt, dass jemand der FurMark in Zusammenhang mit der Abschaltung leistungshemmender Treiberoptionen benutze, selbst schuld an dem vorzeitigen Ableben sei, der hat wohl nicht verstanden was Qualitätsstandards seitens eines Grafikkartenherstellers zu bedeuten haben!

Eine Grafikkarte sollte dazu entworfen sein, jede nur erdenkliche Rechenaufgabe bei voller Belastung ohne Einschränkung und Ausfälle in werkseitig eingestelltem Zustand (Taktrate) und bestenfalls sogar darüber hinaus zu bewältigen! Tut sie dies aufgrund Versagens einer Komponente aufgrund von Überhitzung oder sonstigen Mängeln nicht, fällt sie als taugliche Grafikkarte knadenlos durch! Sie dürfte so nicht als serienreifes marktaugliches Produkt angepriesen werden. Punkt.Würde man Grafikkarten bauen, die bei GTX-580-Leistung Furmark ohne Drosselung im Dauerbetrieb schaffen, wäre die Graka deutlich teurer. Mit Ausnahme dieser Power-Supply-Tests wie Furmark müsste man die fps in allen anderen Anwendungen, also "echten" Anwendungen wie Spielen oder Prerendering im CAD-Bereich, deutlich teurer bezahlen. Alle Menschen müssten deutlich mehr Geld latzen damit ein paar Leute den Furmark ungedrosselt im Dauerbetrieb fahren könnten. Das ergibt keinen Sinn.

An der abstraken Forderung festzuhalten dass alles was denkbar ist, selbst Furmark, 24/7 ohne Drossel laufen müsse, hieße, eine Graka zum gleichen Preis in allen Nicht-Furmark-Szenarien langsamer zu machen.

Dekal
2011-03-19, 15:42:08
Tja, da haben wir 2 völlig verschiedene Standpunkte. Wie ich schon erwähnte, eine Grafikkarte hat aber eben auch diesen Belastungstest zu bewältigen! Tut sie es nicht, ist sie nicht mehr als ein Haufen Billigschrott. Zudem dürfte sowas nicht an den Endkunden ausgeliefert werden!

Und du willst mir doch nicht allen ernstes Glaubens machen wollen, dass geringfügige Anpassungen zur drastischen Verbesserung der Ausfallsicherheit die Welt kosten, oder? ;)

Was ist dir lieber? Eine Grafikkarte die zuverlässig alle ihr auferlegten Aufgaben bewältigt (auch FurMark im Dauerbelastungstest), oder eine Grafikkarte die man mit Samthandschuhen anfassen muss, für die man letztlich ein paar Euros weniger bezahlen muss?

Also ich würde gerne Erstere in Händen halten, selbst wenn ich dafür einen Batzen mehr bezahlen müsste! Ich möchte keinen Billigschrott der mir nach ein paar Wochen oder Monaten bei normaler Benutzung einfach durchschmort!

Und es ist ja nun wirklich nicht so dass ich mir eine Billigstgrafikkarte gekauft hätte. Ich habe sonst immer in etwa 200 Euro für eine neue Grafikkarte ausgegeben. Nun habe ich mit etwas mehr als 300 Euro schon um die 100 Euro tiefer in die Tasche gegriffen. Zudem habe ich eine Grafikkarte von einem Hersteller gekauft, der mit seinem sehr hohen Produktstandard geradewegs wirbt. Stichwort hier: "Gigabyte - Ultra Durable VGA"

Erkundige dich mal was Ultra Durable bedeutet. Das ist nicht nur irgend ein Marketinggesülze, sondern das ist ein eigens von Gigabyte auferlegter Qualitätsstandard, der u. a. eigentlich genau ein solches Versagen der Hardware verhindern helfen soll. Ich habe schon mehrere Produkte von Gigabyte gekauft und kann gewissenhaft behaupten dass dieser Qualitätsstandard greift.

Wie tief soll ich denn noch in die Tasche greifen bis mir ein Produkt geboten wird, welches einem normalen, von jedermann einsetzbaren Belastungstest (FurMark) stand hält?!

Dieser Belastungtest soll ja eben dazu dienen, die Grafikkarte in den Zustand der höchsten Belastung zu versetzen (was ein Spiel schon bedingt kann) um wichtige, nur so erhältliche Daten auswerten zu können. Eine Diskussion darum, ob eine Grafikkarte eben dies tun darf oder nicht tun darf ist von vorne herein unsinnig! Natürlich muss sie diese Aufgabe ohne einen Makel bewältigen, sonst sollte Nvidia darüber nachdenken ihre Produktpalette so schnell wie möglich vom Markt zu nehmen!

Ich denke, manche haben noch nicht die enorme Tragweite dieses Themas verstanden. :O

Ein düsteres Szenario wäre folgendes:

Nvidia hat eine Grafikkartenserie mit einem Fehler entworfen, welche bei Überschreitung einer bestimmten Rechenbelastung einfach die GPU durchschmoren lässt. Jetzt hat man nicht schnell genug reagiert um diesen Fehler noch im Labor zu entdecken und zu beheben. Die Kosten um die gesamte Produktpalette wieder einzusacken und fehlerhafte Produkte wieder vom Markt zu nehmen, sind einfach zu hoch angesiedelt. Und sowieso, der Imageschaden wäre zu groß.

Also was macht Nvidia? Richtig! Sie bauen einfach eine billige Methode ein die Grafikkarte nicht völlig zu überlasten, einen sogenannten Energiesparmechanismus. Aus den Augen aus dem Sinn, der Kunde weiß so lange nichts von einer Überlastung bis er die standardmäßig eingeschaltete Energiesparfunktion abschaltet, um die Grafikkarte so auszulasten wie ursprünglich vorgesehen.

Wer glaubt das Szenario sei sehr abwägig, der gucke sich nur mal bei der Konkurrenz um. Erst kürzlich wurde im Sata2-Kontroller der Intel Mainboards mit der Sandy-Bridge-Mikroarchitektur ein gravierender Fehler entdeckt. Intel jedoch hat diesen Fehler public gemacht und die bereits ausgelieferten Mainboards zurückgenommen.

Sowas nenne ich vorbildliches Handeln, faires Handeln gegenüber seinen Kunden!

Ich möchte Nvidia da nichts unberechtigterweise anlasten. Ich werde das Phenomen im Auge behalten. Ich werde mich nicht davon abhalten lassen, meine Hardware mit FurMark auf Tauglichkeit zu überprüfen. Ich werde nun wohl oder übel noch tiefer in die Tasche greifen "müssen" und mir anstelle der GTX 570 eine GTX 580 zulegen, in der Hoffnung dass da nicht in dem Maße an Qualitätsstandards gespart wurde.

Sollte sich herausstellen dass die gesamte 500er-Serie einfach durchbrennt wenn man FurMark einsetzt, dann wird das ganze einfach in diversen Foren öffentlich von mir zu Rede gestellt werden und ich werde von der Serie die Finger weg lassen!!

Entschuldigung, da kenne ich keinen Spaß!

aths
2011-03-19, 16:21:25
Tja, da haben wir 2 völlig verschiedene Standpunkte. Wie ich schon erwähnte, eine Grafikkarte hat aber eben auch diesen Belastungstest zu bewältigen! Tut sie es nicht, ist sie nicht mehr als ein Haufen Billigschrott.Diese Schussfolgerung ist nicht richtig, obwohl sie auf den ersten Blick zwingend wirkt: Ein Rechenwerk wie die GPU sollte grundsätzlich alles mit der spezifizierten Taktfrequenz bewältigen. Doch es gibt Argumente, die davon Ausnahmen rechtfertigen.

Zwischen Alles oder Nichts gibt es hier sinnvolle Abstufungen.

Die Grafikkarte ist so gebaut, dass sie in der Praxis alle Aufgaben mit der spezifizierten Taktfrequenz bewältigt. Nun haben ein paar Spaßvögel mit dem Furmark es geschafft, die Grafikkarte dermaßen zu stressen dass die Stromaufnahme über alle in der Praxis relevanten Szenarien liegt. Die Grafikkarte so zu bauen, dass sie den Furmark 24/7 schafft, würde sie erheblich teurer machen. Das sind nicht nur einige Komponenten wo das Referenzdesign einige Cent einsparte. Du brauchst eine wesentlich leistungsfähigere Stromversorgung mit mehr Spulen und Kondensatoren und Spannungswandlern, möglicherweise einen zusätzlichen Stromstecker um die Last pro Stecker nicht zu überschreiten. Du brauchst ein leistungsfähigeres Kühlsystem. Möglicherweise würde der Lüfter, damit er nicht zu laut ist, so dick sein dass die Grafikkarte drei Slots belegen würde.

Den Furmark gibts schon länger. Nvidia hat die 480/580 auch mit Last-Szenarien im Hinterkopf entworfen, aber den Furmark davon bewusst ausgenommen. Sonst kauft kein Mensch die Karte. Die Reviewer würden sich schlapplachen, was eine 24/7-Furmark-taugliche Highend-Graka kostet – wenn es doch auch Produkte gibt, die außer Furmark alles andere können und preislich deutlich günstiger liegen.

Würden die meisten Menschen so denken wie du, würden die Grafikkarten auch so gebaut, dass die Furmark im 24/7-Betrieb aushalten – doch in Spielen gäbe es deutlich weniger Performance fürs Geld. Dass die Lage so ist wie sie ist liegt nicht daran, dass Nvidia nach der 580-Konstruktion auffiel, dass Furmark die Karte zu sehr stresst, sondern dass die meisten Kunden ihre Highend-Graka nicht zum Zweck kaufen, den Furmark ohne Drossel stundenlang laufen zu lassen. Sie wollen einfach brachiale Leistung für ihre Games und/oder Applikationen.

Relevantes 3D-Rendering hat ein bestimmtes Nutzungprofil der GPU. Der Furmark durchbricht dieses gezielt. Er stellt keine besonders krasse 3D-Last dar wie sie in einem Spiel auftreten könnte sondern wurde einzig und allein auf maximalen Stromverbrauch optimiert. Der Furmark ist auch kein brauchbarer Funktionstest einer Grafikkarte. Grafikfehler oder andere Instabilitäten findet man mit anderen Tools deutlich besser (ATITool, Unigine Heaven, Nvidia Alien vs. Triangles.) Ich habe einige Zeit im Support eines Nvidia-Grafikkartenherstellers gearbeitet und weiß, mit welchen Tools man Fehler gut findet und mit welchen nicht.

Soweit ich weiß, haben aktuelle AMD-Highend-Grakas auch eine Drossel, die wurde sogar eingeführt bevor Nvidia das tat.



Wir haben bei TGT unter anderem auch Gigabyte-Boards der UD-Serie, das sind gute Boards, aber nichts um zum Fanboy zu werden.

Dekal
2011-03-19, 18:11:20
Ein Rechenwerk wie die GPU sollte grundsätzlich alles mit der spezifizierten Taktfrequenz bewältigen. Doch es gibt Argumente, die davon Ausnahmen rechtfertigen.

Falsch! Es darf hier keine Ausnahmen geben! Wo kämen wir da hin?!

Lass deine Grafikkarte mal für ein paar Stunden Crysis bewältigen. Du wirst im Peakmoment eine ähnlich starke Auslastung (Stromverbrauch) erreichen wie FurMark sie generiert. Und eben um diese Peaks geht es ja eigentlich. Diese können solchen minderwertig gefertigten Grafikkarten schon Schaden zufügen.

Das ist aber so nicht hinnehmbar!

Sag jetzt nichts gegenteiliges... Du weißt nämlich dass ich Recht habe. Es gibt nicht umsonst Qualitätsstandards. Die müssen nun mal auch ein noch relativ harmloses Worst-Case-Scenario wie FurMark mit einbeziehen.

Oder denkst du einer Grafikkarte würde 12 Stunden Crysis am Stück bei sommerlich warmen 40° Celsius im Gehäuseinnern weniger schaden als 3 Minuten FurMark bei nur 30° Celsius?! Das ist ein realistisches Szenario! Wir reden hier über ganz normale Eventualitäten, die so jederzeit eintreten können.

Ich rede hier bewusst von 3 Minuten FurMark, da meine GTX 570 eben nur diese 3 Minuten FurMark ohne jegliche Übertaktung überstanden hat!

Generell war diese (meine) Grafikkarte ein Paradebeispiel für ein mehr als nur minderwertig gefertigtes Stück Hardware.


Nun haben ein paar Spaßvögel mit dem Furmark es geschafft, die Grafikkarte dermaßen zu stressen dass die Stromaufnahme über alle in der Praxis relevanten Szenarien liegt.

Diese sogenannten "Spaßvögel" werden sich wohl dabei etwas gedacht haben! Es ist auch nur ihr gutes Recht, eine Software für eine Grafikkarte zu schreiben, die die Grafikkarte auf ihre Tauglichkeit hin überprüft!

Möchtest du diesen "Spaßvögeln" etwa aufdiktieren es zu unterlassen, die Grafikkarte für ihren Zweck zu "missbrauchen"?! Diese Logik leuchtet mir beim besten Willen nicht ein!

Ich bin froh drüber dass es sowas wie FurMark gibt! Denn mit FurMark lassen sich gravierende Mängel an der Hardware (wie in meinem Extremfall) bereits nach Minuten feststellen und nicht erst nach Wochen ("nach ganz normaler Benutzung"). Ganz groß wäre der Ärger, wenn die Grafikkarte sich erst nach Ablauf der Beweislastumkehr (6 Monate) verabschieden würde und mir angelastet würde ich sei an dem Versagen minderwertiger Bauteile schuld! Wie könnte ich dem Hersteller bweisen, dass dem nicht so ist? Garnicht...


Die Grafikkarte so zu bauen, dass sie den Furmark 24/7 schafft, würde sie erheblich teurer machen.

Ich sage dir das dem nicht so ist! Vergleiche nur eine robuste GTX 275 (damals "lausige" 200 € teuer) mit einer GTX 570 (etwa 300 € teuer)! Du siehst den beiden Grafikkartenmodellen schon von aussen die unterschiedlichen Qualitätsstandards an! Die eine löst sich schon fast vom Anfassen auf, die andere kannst du getrost von 1 Meter Höhe auf den Boden fallen lassen ohne dass etwas abbricht!

Von FurMark brauchen wir garnicht zu reden. Da hat meine gute alte GTX 275 selbst mit maximaler Übertaktung FurMark bis zum heutigen Tage überstanden.

Es ist ein waaghalsiger Irrtum zu glauben dass Preisgestaltung direkt mit Qualitätsstandard zusammenhängt. Das obige Beispiel bezeugt das.

Und erzähl mir hier nicht dass eine GTX 275 für damalige Verhältnisse eine langsame Grafikkarte war! Die Behauptung, eine Grafikkarte würde bei robusterer Bauweise unbezahlbar oder eben grottig von ihrer Performance, ist nicht haltbar!


Den Furmark gibts schon länger. Nvidia hat die 480/580 auch mit Last-Szenarien im Hinterkopf entworfen, aber den Furmark davon bewusst ausgenommen. Sonst kauft kein Mensch die Karte.

Auch wenn es nichts an der enormen Tragweite des Themas ändert, könntest du hierzu bitte eine seriöse Quellenangabe liefern?


Würden die meisten Menschen so denken wie du, würden die Grafikkarten auch so gebaut, dass die Furmark im 24/7-Betrieb aushalten – doch in Spielen gäbe es deutlich weniger Performance fürs Geld.

Würden die meisten Menschen so denken wie du, so hätte unsere Welt ein Recyclingproblem.

Ich jedenfalls möchte dich nicht für ein Qualitätsmanagement eines Hardwareherstellers arbeiten lassen müssen.


Relevantes 3D-Rendering hat ein bestimmtes Nutzungprofil der GPU. Der Furmark durchbricht dieses gezielt.

Ach ne?! Zum Glück tut FurMark dies!


Der Furmark ist auch kein brauchbarer Funktionstest einer Grafikkarte.

Das sehe ich ganz anders. Erklärung steht im Ansatz oben. Ich bin gerne bereit das noch etwas ausführlicher darzulegen.


Grafikfehler oder andere Instabilitäten findet man mit anderen Tools deutlich besser (ATITool, Unigine Heaven, Nvidia Alien vs. Triangles.)


Jedes Programm hat seinen Schwerpunkt. Dass FurMark weniger dafür tauglich ist Grafikfehler (bei Übertaktung usw.) aufzuzeigen, das habe ich auch nicht bestritten. Dafür liefert FurMark (für so manchen) wesentlich wichtigere Daten. Nämlich darüber wieviel eine solche Grafikkarte unter Extrembedingungen an Strom schluckt und darüber ob die Grafikkarte zuverlässig ihren Dienst verrichtet!


Ich habe einige Zeit im Support eines Nvidia-Grafikkartenherstellers gearbeitet und weiß, mit welchen Tools man Fehler gut findet und mit welchen nicht.

Dann verstehe ich überhaupt nicht weshalb über dieses Thema länger geredet werden muss! Ich vertrete hier den folgenden Standpunkt:

"Der User darf jede Anwendung auf seiner Grafikkarte ausführen, ohne dass er des Missbrauchs der Hardware beschuldigt wird".

Wofür stehst du als ehemaliger Supportmitarbeiter eines Grafikkartenherstellers?


"Ultra Durable" ist im Wesentlichen ein Marketing-Begriff. Wir haben bei TGT unter anderem auch Gigabyte-Boards der UD-Serie, das sind gute Boards, aber nichts um zum Fanboy zu werden.

Ich liste mal ein paar Punkte zum "Ultra Durable" auf, ohne Werbung dafür machen zu wollen. Es dient ganz einfach nur der Tatsache, Fakten auf den Tisch zu legen.

- 2 OC Kupfer PCB (viele benutzen Aluminium, welches eine schlechtere Stromleitfähigkeit besitzt, mit all den "schönen" Folgen)

- 50.000 Stunden Polymerkondensatoren aus Japan (viele benutzen noch herkömmliche Kondensatoren, die 1.) oftmals eine geringere maximale Hitzebeständigkeit aufweisen (kürzere Lebensdauer), 2.) teils noch mit flüssigem Elektrolyt gefüllt sind [Stichwort Schadstoffe und Kondensator platzen])

- Ferritkernspulen, anstatt Eisenkernspulen (die weniger Energieverbrauch haben und eine höhere Umweltbeständigkeit besitzen)

- Niedrig RDS(on) MOSFET (geringere Schaltwiderstände, schnellere Ladung und Entladung-->weniger Energieverbrauch)

Eben diese ganzen Kleinigkeiten sorgen für einen gewissen Qualitätsstandandard. Und ich möchte diesen Standard nicht missen. Ultra Durable ist für mich insofern die erste Wahl, da ich bei Kauf eines solchen Produktes ganz sicher weiß, dass nur die hochwertigen Bauteile eingesetzt werden.

Aber wem sag ich das... Du vertrittst hier einen grundlegend anderen Standpunkt als ich. Da ich deine Meinung bzgl. der Misere (ja ich bezeichne es bewusst als Misere) nicht ändern kann, sollten wir nun das Thema beenden.

Ich werde wiegesagt weiterhin dafür kämpfen ein ordentliches Produkt in meinem System einzubauen, und heiße es notfalls dass ich mich bei der Konkurrenz umsehe (die es hoffentlich besser macht) oder eben eine ganze Produktpalette überspringe.

Kurz um: Ich habe in den vielen Jahren in denen ich PC-Teile kaufe schon viel erlebt. Aber das gipfelt hier wirklich alles! *großes Kopfschütteln*

aths
2011-03-19, 18:40:33
Falsch! Es darf hier keine Ausnahmen geben! Wo kämen wir da hin?!Wir kämen in eine Welt, in der insbesondere Highend-Grakas deutlich teurer würden, ohne für den weit, weitaus größeren Teil der Nutzer irgendeinen Mehrwert zu bringen.

Crysis generiert auch im Benchmarkloops keineswegs die Last, die Furmark ununterbrochen erzeugt. Du kannst Crysis bei 40° Innengehäusetemperatur – sofern das Gehäuse nicht verstopft oder verstaubt ist – 12 Stunden am Stück spielen ohne dass eine GTX 580 rumzickt.

Das ist aber so nicht hinnehmbar!Für fast alle Käufer ist es ein sinnvoller Kompromiss.

Sag jetzt nichts gegenteiliges... Du weißt nämlich dass ich Recht habe. Es gibt nicht umsonst Qualitätsstandards. Die müssen nun mal auch ein noch relativ harmloses Worst-Case-Scenario wie FurMark mit einbeziehen.Furmark ist eben nicht harmlos. Furmark kann die Grafikkarte beschädigen. Deshalb bauen Hersteller von Highend-Grakas für solche Szenarien Drosseln ein. Erst machte es AMD, dann zog Nvidia nach.

Wenn du mit RMA zu tun hast, wirst du Furmark höchstens mal nutzen, um die GPU schnell heiß zu bekommen da einige Fehler nur bei heißer GPU auftreten (praktisch, wenn das thermische Rauschen entsprechend stark ist.) Der Furmark selbst ist als Stabilitätstest nicht besonders gut geeignet. Nimm lieber Unigine Heaven oder Alien vs. Triangles.

Eine Grafikkarte würde ich nie aus einem Meter Höhe fallen lassen. Die GTX 275 zieht unter Volllast nicht so viel Strom wie eine 570-er oder 580-er, entsprechend kann Furmark nicht so viel Hitze erzeugen.

Es ist ein waaghalsiger Irrtum zu glauben dass Preisgestaltung direkt mit Qualitätsstandard zusammenhängt. Das obige Beispiel bezeugt das.Das bezeugt nichts außer dass die GT200-GPU weniger Strom zieht als der GF100/GF110.

Auch wenn es nichts an der enormen Tragweite des Themas ändert, könntest du hierzu bitte eine seriöse Quellenangabe liefern?Jetzt wo Nvidia die Drossel eingebaut hast, ist das praktisch ein offizielles Statement dass die Graka nicht für den Furmark gebaut wurde, ohne dass ich dazu einen Nvidia-Mitarbeiter zitieren muss.

Ich jedenfalls möchte dich nicht für ein Qualitätsmanagement eines Hardwareherstellers arbeiten lassen müssen.Dazu sage ich mal nichts, außer dass meine aktuelle Tätigkeit auch die Qualität miteinbezieht. Deine Ansprüche gehen an den Ansprüchen des normalen Kundens vorbei. Wir übertakten Grafikkarten (von Point of View) für Spieler, nicht für Furmark-User. Deine ganze Argumentation zieht sich an rein formalen Argumenten auf. Als Nvidia die Drossel einführte, blieb der Aufstand aus. Ich hatte mit wesentlich mehr Wind gerechnet, als ich von der Drossel der 580 erfuhr. Der Run auf die 580 ist ungebrochen, wir können nicht schnell genug liefern. Die 580 ist offenbar ein Produkt, das die Kunden so wollen. Es ist ein außergewöhnlich rundes Produkt, mit den Dingern (und dem kleinen Bruder, der 570) zu arbeiten ist eine Freude. Was man für Leistung hat, auch in hohen Auflösung, auch in modernen Titeln, ist unglaublich. Dazu die in Bezug auf die Leistung erstaunlich wenig aufdringliche Kühlung. Rumgezicke durch unzureichende Spannungswandler habe ich mit diesen Karten noch nicht erlebt. Furmark-Drosselung ist kein nachträgliches Bugfixing, sondern eine Designentscheidung.

"Der User darf jede Anwendung auf seiner Grafikkarte ausführen, ohne dass er des Missbrauchs der Hardware beschuldigt wird".

Wofür stehst du als ehemaliger Supportmitarbeiter eines Grafikkartenherstellers?Für Support. Nicht für Unfug, wie zum Beispiel den Furmark über Nacht laufen zu lassen.

Ich liste mal ein paar Punkte zum "Ultra Durable" auf, ohne Werbung dafür machen zu wollen.... doch genau das tust du dann, Werbung machen. Gigabyte-Boards bieten in der Preisklasse der UD-Serie das, was andere Hersteller in der gleichen Preisklasse auch bieten: Ordentliche Boards.

Kurz um: Ich habe in den vielen Jahren in denen ich PC-Teile kaufe schon viel erlebt. Aber das gipfelt hier wirklich alles! *großes Kopfschütteln*Hätte man mir in der Vor-Furmarkzeit gesagt, dass ATI oder Nvidia später mal eine Applikation drosseln würden weil sie zu viel Strom zieht, hätte ich mich tierisch aufgeregt. Doch jetzt finde ich, dass der Furmark gerechtfertigt gedrosselt wird: Der Rest läuft mit voller Leistung und auf Furmark kommt es nicht an. Würde man diese eine, unwichtige App voll unterstützen, würde man für dieselbe Leistung in Spielen deutlich mehr Geld bezahlen. Damit komme ich noch mal auf den Anfang zurück:

Falsch! Es darf hier keine Ausnahmen geben! Wo kämen wir da hin?!Wir kämen in eine Welt, in der insbesondere Highend-Grakas deutlich teurer würden, ohne für den weit, weitaus größeren Teil der Nutzer irgendeinen Mehrwert zu bringen. Somit ist die Frage beantwortet.

=Floi=
2011-03-19, 18:59:00
zitat
Ich werde wie gesagt weiterhin dafür kämpfen ein ordentliches Produkt in meinem System einzubauen, und heiße es notfalls dass ich mich bei der Konkurrenz umsehe (die es hoffentlich besser macht) oder eben eine ganze Produktpalette überspringe.

am besten du kaufst dir eine 6950 und schaltest die frei. ;) ;D

Raff
2011-03-19, 19:24:18
Furmark ist nichts weiter als eine Spielerei, die mit typischen Workloads nichts zu tun hat. Bei allem Nerdtum, das ich auch gern auslebe: Wer ernsthaft fordert, dass der Neuerwerb auf diese Abfackel-Simulation ausgelegt ist, sollte das Benchen/Testen eine Weile einstellen und mal wieder spielen. ;) Dafür wurden aktuelle Consumer-Grafikkarten primär gebaut.

Alle wollen immer nur billig, billig, aber auf der anderen Seite wird gemeckert, dass die Hardware nicht aus Platin und Diamanten besteht. Solange keine Applikation erscheint, die derart aufheizt und belastet wie der Fureuro, ist doch alles in Butter. Ich habe aber oft den Eindruck, dass einige Spiele zumindest annähernd in diese Regionen vorstoßen – mit massig reinem Supersampling, ohne Speicherüberlauf. Erst vor ein paar Tagen las ich hier im Forum, dass Dragon Arsch 2 extrem heizen soll – warum checkt das niemand genauer? Und überhaupt: Warum setzt sich nicht mal jemand hin und testet 50 Spiele auf ihre Auslastung? Vermutlich weil das eine Lebensaufgabe ist. ;)

MfG,
Raff

=Floi=
2011-03-19, 19:27:48
Furmark ist nichts weiter als eine Spielerei, die mit typischen Workloads nichts zu tun hat.

das würde ich so nicht stehen lassen.

PCGH_Carsten
2011-03-19, 19:28:00
Raffael, das Problem ist dann aber umso ärgerlicher, wenn dann doch mal eine erscheint - nachdem man sich zufrieden und glücklich vor dem bösen Furmark beschützt fühlt. Erinnerst du dich an Freitag morgen? Kein Furmark, und trotzdem ~80 Watt oberhalb der TDP...


Mich wundert, warum sich noch niemand darüber aufregt, dass bei Grafikkarten genau das Gegenteil von CPUs praktitiert wird. Die werden auch nicht mit ihrem maximalen Turboboost-Takt beworben, sondern mit dem bei adäquater Kühlung durchgehend verfügbaren Minimaltakt.

Raff
2011-03-19, 20:11:43
Media Markt & Co. machen das sehr wohl. "Bis zu 3 Terahertz!!!" (außer bei Tiernahrung) sind auf den Prospekten Standard. Die Turbo-Features wurden IMO nur für diesen Zweck erfunden.

MfG,
Raff

Dekal
2011-03-19, 20:27:14
Crysis generiert auch im Benchmarkloops keineswegs die Last, die Furmark ununterbrochen erzeugt. Du kannst Crysis bei 40° Innengehäusetemperatur – sofern das Gehäuse nicht verstopft oder verstaubt ist – 12 Stunden am Stück spielen ohne dass eine GTX 580 rumzickt.

Du lässt nichts unversucht etwas zu deinen Gunsten auszulegen, hm?

Auch wenn meine Geduld und meine Fähigkeit meinen Unmut zu zügeln nachlassen, ich hacke nochmals nach.

Du hast mich wohl falsch verstanden. Ich habe nicht behauptet dass Crysis dauerhaft die gleiche Last auf dem Grafiktablett generiert. Ich habe das ganze von der anderen Seite aufgezogen. Denn nicht nur eine dauerhafte Last in Form von Berechnungen mithilfe von FurMark bringen die Grafikkarte an ihre Grenze. Auch übermäßige Hitze bei gleichzeitig stetig hoher (nicht maximaler) Belastung durch intensive Grafikberechnungen (bspl. Crysis) über einen sehr langen Zeitraum führt zu einer übermäßigen Belastung einer Grafikkarte. Es kommt noch hinzu, dass die "Lastpeaks" von Crysis nicht von ohne sind. Sie lasten die Grafikkarte kurzweilig mit Sicherheit nicht minder aus als FurMark.

Wie kannst du also bei solchen Szenarien sicher sein, dass nur der sogenannte Störenfried "FurMark" eine Grafikkarte schnell an ihr Limit bringt und somit abfackeln kann?!


Für fast alle Käufer ist es ein sinnvoller Kompromiss.


Also solch eine Aussage ist ja nun wirklich sehr zynisch! Nein unverschähmt sogar!

Erzähl das mal den ganzen Käufern die schon nach wenigen Wochen merken dass etwas mit ihrer Grafikkarte nicht stimmt.


Furmark ist eben nicht harmlos. Furmark kann die Grafikkarte beschädigen.


Natürlich. Bei minderwertig gefertigter Hardware passiert sowas halt! Aber nicht nur bei FurMark, glaubs mir!


Der Furmark selbst ist als Stabilitätstest nicht besonders gut geeignet. Nimm lieber Unigine Heaven oder Alien vs. Triangles.

Falsch! FurMark ist sehr wohl dazu geeignet. Ich selbst durfte gestern nach 3 Minuten Testlauf eine "gestorbene" GTX 570 in Händen halten!

Also erzähl du mir nicht dass FurMark zur Feststellung der Stabilität nicht herhalten könne...


Eine Grafikkarte würde ich nie aus einem Meter Höhe fallen lassen.


Wenigstens sind wir da einer Meinung.


Die GTX 275 zieht unter Volllast nicht so viel Strom wie eine 570-er oder 580-er, entsprechend kann Furmark nicht so viel Hitze erzeugen.

1.) Die Aussage wieviel Watt letztlich eine Grafikkarte zieht lässt keinen Schluss auf die Güte der auf dem Grafikbrett verbauten Teile zu. Darum ging es mir aber, nicht um das was du mir nun einpflanzen möchtest.

2.) Stimmt dies auch nur bedingt. Denn offiziell verbraucht eine GTX 570 nur minimal mehr Strom als eine GTX 275. Erkundige dich erstmal bevor du solche haltlosen Behauptungen in die Welt setzt! Das sollte man doch als Supportmitarbeiter als erstes tun.


Das bezeugt nichts außer dass die GT200-GPU weniger Strom zieht als der GF100/GF110.

Siehe oben.


Jetzt wo Nvidia die Drossel eingebaut hast, ist das praktisch ein offizielles Statement dass die Graka nicht für den Furmark gebaut wurde, ohne dass ich dazu einen Nvidia-Mitarbeiter zitieren muss.

Das schlussfolgerst du, da du dich auf Aussagen Dritter verlässt. Ich selbst konnte das Szenario wie schon erwähnt nicht nachbauen.

Ich habe mir schon was dabei gedacht nach einer Quelle zu fragen...


Dazu sage ich mal nichts, außer dass meine aktuelle Tätigkeit auch die Qualität miteinbezieht.

Dazu fällt mir dann auch nichts mehr ein. Bitte besuche mal ein Seminar, welches dir erläutert wie man seine Kunden zufrieden stellt. Mich als Kunden könntest du spätestens nach den hier getätigten Aussagen absolut nicht zufrieden stellen.

Und ich denke ich bin da nicht alleine...


Deine Ansprüche gehen an den Ansprüchen des normalen Kundens vorbei. Wir übertakten Grafikkarten (von Point of View) für Spieler, nicht für Furmark-User.

1.) Siehe oben.
2.) Zum Glück arbeitest du nicht noch in der Autobranche. Da könnte es schnell mal, öhm... brenzlig werden. Denn da steht Qualität gleich mit Unfall sicherheit!


Deine ganze Argumentation zieht sich an rein formalen Argumenten auf.


Wenn schon dann bleiben wir bitte realistisch. Meine Argumente sind formal, praktisch und logisch.

Formal, da sich die Dinge formell so zutragen sollten, dass das Qualitätsmangement einers Grafikkartenherstellers ein vorzeitiges Abfackeln bei Abschaltung des Energiesparmechanismus und Benutzung von FurMark berücksichtigen sollte.

Logisch, da ich nicht irgendetwas fantastisches zurechspinne, sondern logische Rückschlüsse ziehe.

Praktisch, da ich aus erster Hand reden kann.


Als Nvidia die Drossel einführte, blieb der Aufstand aus. Ich hatte mit wesentlich mehr Wind gerechnet, als ich von der Drossel der 580 erfuhr.

Du wirst auch nicht erleben dass Nvidia eine großräumig angelegte Abstimmung darüber eröffnet! Bitte bleib mal auf dem Boden!


Der Run auf die 580 ist ungebrochen, wir können nicht schnell genug liefern.

Wenn es den Kunden so ergeht wie mir, dann tun sie mir leid. Ansonsten habe ich bis jetzt keinen Beweis dafür gesehen dass das was in der Forenüberschrift steht, eine bewusst von Nvidia eingeleitete und bei allen GTX 570- und GTX 580-Grafikkartenmodellen (und sonstigen 500er Modellen) vorhandene Maßnahme zur sogenannten Verhinderung einer Überlastung bei Benutzung von FurMark ist.

Ich habe wiegesagt selbst getestet und meine Ergebnisse decken sich nicht.


Für Support. Nicht für Unfug, wie zum Beispiel den Furmark über Nacht laufen zu lassen.

Dann solltest du als Supportmitarbeiter ja dafür sorgen (sowahr es in deiner Macht liegt) dass im Qualitätsmanagement alles rund läuft. Dann wirst du auch nicht erleben, dass dir die Leute die Türen eintreten.


... doch genau das tust du dann, Werbung machen. Gigabyte-Boards bieten in der Preisklasse der UD-Serie das, was andere Hersteller in der gleichen Preisklasse auch bieten: Ordentliche Boards.

Weshalb musst du den Tatsachen zum Trotze solch eine Textpassage bringen? Nur um mich zu ärgern?


Doch jetzt finde ich, dass der Furmark gerechtfertigt gedrosselt wird: Der Rest läuft mit voller Leistung und auf Furmark kommt es nicht an. Würde man diese eine, unwichtige App voll unterstützen, würde man für dieselbe Leistung in Spielen deutlich mehr Geld bezahlen.


Das ist deine differenzierte Meinung, hat aber nicht unbedingt etwas mit der Realität gemein.


Damit komme ich noch mal auf den Anfang zurück:

Wir kämen in eine Welt, in der insbesondere Highend-Grakas deutlich teurer würden, ohne für den weit, weitaus größeren Teil der Nutzer irgendeinen Mehrwert zu bringen. Somit ist die Frage beantwortet.

Wie oft noch, Preismangement nicht gleich Qualitätsmanagement, Preise spiegeln sich nicht zwangsweise in der Qualität der auf dem Grafikbrett verbauten Teile nieder!

Sehr wohl kann man eine GTX 275 mit einer GTX 570 vergleichen. Die erste ist qualitativ wesentlich hochwertiger und zudem zum damaligen Zeitpunkt wensentlich preiswerter gewesen, wieß trotzdessen eine hohe Leistungsfertigkeit auf. Die GTX 570 ist preislich 100 € teurer, von ihrer Qualität aber auch um einiges schlechter (zumindest die, die ich in Händen halten durfte).

Zudem versagte letztere nach 3 Minuten FurMark ihren Dienst. Erbärmlicher gehts kaum noch und du diskutierst mit mir gleichzeitig über die Erlaubnis FurMark ohne jegliche Einschränkungen benutzen zu dürfen. Nochmals meine Frage: Wo soll das enden?

Du kannst einfach nicht leugnen dass Preis nicht = mit Qualität zutun hat. Das sind Dinge die beim Grafikkartenhersteller im Hintergrund diskutiert werden und die auch in zeitlichen Epochen enorm schwanken.

Du wirst jetzt nach der schrecklichen Naturkatastrophe in Japan (die armen Menschen tun mir wirklich leid) auch nicht davon ausgehen können, dass man Grafikkarten der nächsten Monate für den gleichen Preis beziehen kann wie zu jetziger Stunde.

Warum nicht? Natürlich weil die Preise für die in Japan gefertigten Bauteile steigen werden.

Muss der Preisanstieg eintreten? Nein, es ist kein Muss. Die Wahrscheinlichkeit ist aber sehr groß. Denn die Grafikkartenhersteller selbst entscheiden darüber wie die Preisgestaltung funktioniert. Das wird in den obersten Etagen abgehandelt und hat selten ausschließlich was mit Logik zutun.

Noch mal zum Nachdenken für dich:

FurMark:

1.) Ein sehr nützliches Programm welches sehr wohl sehr gut (und nicht umsonst) dazu in der Lage ist, die Grafikkarte auf ihre Tauglichkeit zu testen.

2.) Lasse ich mir auch von dir nicht verbieten zu behaupten dass es dem Kunden erlaubt sein muss, mit seiner Grafikkarte jede Grafiksoftware ohne Einschränkungen auszuführe.

Das möchtest du durch diverse Maßnahmen einschränken, dies kann ich nicht hinnehmen.

3.) Du kannst mich auch nicht mit deiner "Qualifikation" als "Was auch immer-Mitarbeiter" begeistern. Wärst du wirklich so versiert, dann könnte man zum Thema ganz andere Antworten erwarten (mehr Verständnis bspl.).

4.) Wird das hier noch eine Ewigkeit hin und her gehen. Du wirst von deinem Standpunkt ebenso wenig abweichen wie ich von meinem.

Raff
2011-03-19, 21:56:29
Falsch! FurMark ist sehr wohl dazu geeignet. Ich selbst durfte gestern nach 3 Minuten Testlauf eine "gestorbene" GTX 570 in Händen halten!

Also erzähl du mir nicht dass FurMark zur Feststellung der Stabilität nicht herhalten könne...

Was möchtest du testen? Ob die Stromversorgung einen um 50 Prozent über ihrer Spezifikation liegenden Ampere-Fluss stemmen kann? Ob der Kühler eine Abwärme außerhalb seiner Spezifikation abführen kann? Dafür taugt der Furmark. Man könnte sagen, dass der Test Extrem-OC-Belastung inklusive Overvolting simuliert. Auf die Schnelle. Aber um simpel zu testen, ob eine bestimmte OC-Taktrate stabil läuft, taugt das Ding überhaupt nicht – siehe aths. Der Furmark läuft oft unbehelligt, solange die Kühlung stimmt (!), während Crysis oder Unigine Heaven längst Artefuckte zeigen oder abkacken. Hitzeprobleme sind dabei nur selten das Problem.

MfG,
Raff

EvilTechno
2011-03-19, 22:21:54
Kurz: Freie Fahrt für freie Grafikkartenbesitzer?

Wenn du wissen willst was eine Grafikkarte aushält, solltest du die Fachliteratur zu Rate ziehen, nicht selbst eine kaufen und grillen bis es kracht. Nur weil du sie selbst testen kannst heißt das nicht, dass du es musst.

[Um den allseits beliebten Auto-Vergleich weiterzuführen: Wenn ich feststelle dass ein neu gekaufter Smart nach 2 Runden auf dem Nürburgring mit kochendem Kühlwasser liegenbleibt werde ich mir die Frage gefallen lassen müssen, ob ich noch ganz dicht bin.]

Mixer schaffen keine 24 Stunden auf voller Leistung ohne auszufallen.
Fahrräder (aus dem Supermarkt) kein Sechstagerennen.

Du scheinst der Meinung zu sein, dauernd volle Leistung garantiert bekommen zu haben. Dann ist ESP sicher auch Teufelszeug für dich (immerhin wird da ein Rad gezielt abgebremst).

Deine Meinung in Ehren, aber ich finds putzig. Der Furmark gehört in die Hände der PCGH Redaktion damit die mir sagen können, wieviel Spielraum die Karten noch haben.

esqe
2011-03-19, 22:36:11
Nehmen wir mal an, ein Spiel hat einen ähnlich "fehlerhaften" Code wie Furmark (war es bei Starcraft 2 im Menu nicht so?).

Da möchte man sich schon gegen abgesichert wissen, auch wenn die Wahrscheinlichkeit sehr gering ist.

EvilTechno
2011-03-19, 22:37:41
Nein. Dann sollte die Grafikkarte abriegeln! Machen Prozessoren doch auch so.

Raff
2011-03-19, 22:38:39
Vsync hilft. ;D Auch gegen das Spulenfiepen in den Menüs von Crysis oder GTA 4.

MfG,
Raff

Botcruscher
2011-03-19, 22:54:00
Aber nicht gegen eine schwammige Mausumsetzung.:usad:

aths
2011-03-19, 23:50:07
Aber nicht gegen eine schwammige Mausumsetzung.:usad:Da hilft ein Prerender-Limit von Null.

Nein. Dann sollte die Grafikkarte abriegeln! Machen sie zum Glück auch, ab einer bestimmten Temperatur takten sie automatisch runter.

PCGH_Carsten
2011-03-20, 00:00:46
Media Markt & Co. machen das sehr wohl. "Bis zu 3 Terahertz!!!" (außer bei Tiernahrung) sind auf den Prospekten Standard.
Ich korrigiere: „…von ihren jeweiligen Herstellern beworben…” (analog zu den Taktraten und daraus abgeleiteten theoretischen Leistungswerten, die Nvidia und AMD ihren GPU-Produkten zuschreiben).


Da fällt mir gerade noch was ein: Wer haftet, wenn eine „Überlasterkennung” fehlschlägt und die Grafikkarte durch zu hohe Leistungsaufnahme Netzteil und evtl. andere PC-Bauteile in Mitleidenschaft zieht?

aths
2011-03-20, 00:06:26
Da fällt mir gerade noch was ein: Wer haftet, wenn eine „Überlasterkennung” fehlschlägt und die Grafikkarte durch zu hohe Leistungsaufnahme Netzteil und evtl. andere PC-Bauteile in Mitleidenschaft zieht?Netzteile sollten abschalten, wenn auf einem Rail mehr als 20 Ampere gezogen werden. Die 6990 riegelt meines Wissens bei 450 Watt Gesamtaufnahme ab, ähnliches könnte uns bei der GTX 590 erwarten.

PCGH_Carsten
2011-03-20, 02:50:12
Mal abgesehen davon, dass das keine Antwort auf meine Frage war: Die von dir ins Spiel gebrachte Abriegelung der HD 6990 funktioniert dann wohl nicht so zuverlässig; das was ich bis einschließlich der 560 Ti bei Nvidia gesehen habe, ebenfalls nicht.

Auch ein Abschalten des Netzteils ist keine Option – so ein gewaltsames Herunterfahren des PCs birgt auch immer das Risiko eines Datenverlustes.

Zephyroth
2011-03-20, 08:14:59
[x] Dekal hat keine Ahnung von Technik

Lieber Dekal, das Gerätschaften auf Anwendungsprofile ausgelegt sind ist ein in der Technik völlig normaler Vorgang. Früher war dies bei Grafikkarten einfach nicht notwendig, inzwischen kommt man aber an die Limitierung von Bauelementen und vor allem der Kühlung. Um den Usern dennoch die gewünschte Grafikleistung zu bieten hat man die Anwendungsprofile durchforstet und dies in das Design miteinbezogen.

Beispiel Auto:

Ich hab einen Honda Integra, der ist ungefähr eine GTX580 unter den kleinen Sportflitzern. Kompromißlos auf Beschleunigung, Kurvenhatz und Geschwindigkeit ausgelegt. Das er dabei sehr laut ist versteht sich von selber. Im normalen Alltag langweilt er sich, auf der Rennstrecke fühlt er sich richtig wohl (wo andere Karren bald mal schlapp machen, weil sie nicht darauf ausgelegt sind). Aus Usersicht muß ich sagen: "Gut ausgelegt, Herr Konstrukteur!"

Aber jetzt gibt es diese Art von Usern wie dich. Sie nehmen so einen Integra, legen einen Ziegel auf das Gaspedal, jagen den Motor im Stand (kein Fahrtwind = keine Kühlung) in den Begrenzer und mokieren sich darüber, das selbst ein Motor der auf Rennen ausgelegt ist, unter diesen Bedingungen nach 10min die Grätsche macht.

Genau das macht der Furmark aber. Ohne Sinn voll auf's Gas, bis eine moderne Karte abraucht. Mit einer Dualslotkühlung bringt man maximal 200W dauerhaft weg (und das nur mit unzumutbarer Geräuschentwicklung). Das sind einfache Limitierungen der Physik und hat nichts mit minderwertigem Produktdesign zu tun.

Anderen Beispiel aus der automobilen Welt:

Ein und derselbe Motor leistet in einem PKW 140PS, in einem Nutzfahrzeug nur mehr 120PS. Das liegt einfach daran, das ein Nutzfahrzeug aufgrund des höheren Windwiderstandes und Gewichts wesentlich öfter mit Volllast betrieben wird. Um die geforderte Lebensdauer zu erreichen wurde der Motor gegenüber dem PKW gedrosselt.

Aber ich kann dich beruhigen, eine Karte nach deinen Forderungen gibt es. Das Ding hört auf den Namen Quadro 6000 (http://geizhals.at/deutschland/a554823.html), bietet 448 Shadercores (statt 480 bei der GTX570) die mit nur 1026MHz (statt 1464MHz) laufen. Diese Karte ist definitiv FurMark fest. 24/7 ohne Ausnahme. Das sie dabei von einer GTX560 in normalen Anwendungen geschnupft wird und mindestens 3500€ (zu teuer? Soviel kostet's eben wenn man solche Anwendungen fahren will) kostet, dürfte für dich dann wohl egal sein, denn sie kann Furmark.

Grüße,
Zeph

fondness
2011-03-20, 09:55:27
Mal abgesehen davon, dass das keine Antwort auf meine Frage war: Die von dir ins Spiel gebrachte Abriegelung der HD 6990 funktioniert dann wohl nicht so zuverlässig;


Woher kommt Gewissheit? Soweit ich weiß wird ja sogar schon bei 375W mit dem "normalen" Bios abgeriegelt. AnandTech hat das gemessen und das geschieht sogar bei manchen Spielen. Also nichts Furmark only.

PCGH_Carsten
2011-03-20, 18:03:06
Vom Messen. 506 sind nunmal mehr als 450.

fondness
2011-03-20, 18:05:18
Vom Messen. 506 sind nunmal mehr als 450.

Im Übertaktungsmode, wird da überhaupt abgeriegelt? Ich habe jedenfalls noch keine Wert >375W im "normalen" Modus gesehen.

PCGH_Carsten
2011-03-20, 18:16:29
Im OC-Mode, davon war die Rede.

Gipsel
2011-03-20, 18:27:08
So wie AMD's Powertune bzw. -containment arbeitet, ist es auf den normalen Betriebsmodus ausgelegt. Insbesondere Spannungerhöhungen aber evt. auch manuelles Übertakten werden beim Abregeln nicht berücksichtigt. Da gilt auf jeden Fall immer noch, daß das außerhalb der Spezifikation mit einer Gefahr der Hardwarebeschädigung verbunden sein kann.

Peter Gräber
2011-03-20, 19:33:39
Da fällt mir gerade noch was ein: Wer haftet, wenn eine „Überlasterkennung” fehlschlägt und die Grafikkarte durch zu hohe Leistungsaufnahme Netzteil und evtl. andere PC-Bauteile in Mitleidenschaft zieht?

Es würde wohl der Hersteller der Überlasterkennung haften, immer vorausgesetzt, dass der Anwender den kausalen Zusammenhang und den Verantwortlichen nachweisen kann / könnte. Und da es dem 08/15-Anwender wohl kaum gelingen wird diesen Nachweis zu führen, ist deine "ironische Nachfrage" höchst interessant ;)

Die 6990 riegelt meines Wissens bei 450 Watt Gesamtaufnahme ab,...


Nein, es ist ein Missverständnis, dass PowerTune sich tatsächlich an realer Leistungsaufnahme orientiert. PowerTune funktioniert anders:
http://ht4u.net/reviews/2010/amd_powertune_technology/

@Dekal: Du schreibst eine GTX 275 sei hochwertiger als eine GTX 570 und zudem, dass du es geschafft hast, innerhalb von 3 Minuten durch Furmark eine GTX 570 zum Defekt zu führen.

Welcher Hersteller der GTX 570 ist das? Qualitätsunterschiede bei Grafikkarten findet man meist nur dann, wenn eigene Designs gewählt werden, die sich dann häufig günstiger fertigen lassen. NVIDIA hatte beispielsweise auch davon gesprochen, dass es wohl auch Hersteller geben würde, welche auf den "Hardwareschutz" verzichten. Definitiv hatten wir hier bereits zwei GTX-570-Referenzen, die wir problemlos durch Furmark über 30 Minuten hindurchbrachten (Treiber riegelte hier nicht ab).

Fetter Fettsack
2011-03-20, 21:53:22
Es würde wohl der Hersteller der Überlasterkennung haften, immer vorausgesetzt, dass der Anwender den kausalen Zusammenhang und den Verantwortlichen nachweisen kann / könnte. Und da es dem 08/15-Anwender wohl kaum gelingen wird diesen Nachweis zu führen, ist deine "ironische Nachfrage" höchst interessant

Für normale Konsumenten erst nach sechs Monaten ab Übergabe, wenn ich mich recht erinnere. Davor liegt es eigentlich am Händler nachzuweisen, dass er ein einwandfreies Produkt verkauft und übergeben hat. Der Händler kann sich, so er den in diesem Zeitraum aufgetretenen Defekt nicht dem Kunden hieb- und stichfest zuordnen kann (also Beweise hat), dann an seinem Lieferanten usw. schadlos halten bzw. gleich zum Hersteller gehen, je nach Vertragsgestaltung(en).

Zumindest würde ich das so sehen.

Multipler Miggs
2011-04-20, 23:30:30
Hiho..hab ich das jetzt richtig verstanden das die 580gtx in Furmark drosselt?
Was drosselt sie denn,Taktraten? Spannung? Speicher?
Wie kann man das gegenprüfen?
Ich hab eine in Betrieb und das würde mich Interessieren.
gruss Miggs

ps wie war das mit dem lesen und dem Vorteil..:D
The reference design board, however, made use of a clock speed throttling logic which reduced clock speeds when an extremely demanding 3D application such as Furmark or OCCT is run.

Also meine macht solche Scherze nicht.

Slipknot79
2011-04-21, 15:24:02
>Was drosselt sie denn,Taktraten? Spannung? Speicher?

Die fps werden gedrosselt und auch die Stromleistung (Ampere oder Volt). Die Taktraten bleiben so wie sie sind, zumindest wird das so an die Tools gemeldet.

>Wie kann man das gegenprüfen.

Multimeter oder Wattmeter an der Steckdose, bzw die fps-Anzeige im Furmark zeigt weniger fps an.

Stefan@be quiet!
2011-04-21, 16:05:14
Netzteile sollten abschalten, wenn auf einem Rail mehr als 20 Ampere gezogen werden. Die 6990 riegelt meines Wissens bei 450 Watt Gesamtaufnahme ab, ähnliches könnte uns bei der GTX 590 erwarten.
Hallo aths

Das ist bei der aktuellen ATX Spezifikation nicht mehr notwendig.
Die Festlegung der OCP Trip Points obliegt somit dem Hersteller.

Es ist aber noch für die UL Level 6 Zertifizierung notwendig.