PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sinn von Furmark ...


Seiten : 1 [2]

y33H@
2010-02-10, 22:36:50
Und welche Beweise hat man dafür? Keine, da der Furmark entweder gelockt wird, die GPU Control Unit blockt oder es schlicht kein Throtteling gibt. Beweisen kann man das bei den HDk5 nicht 100%, zumindest wüsste ich nicht wie. Auffällig ist nur, dass alle HD5 im Furmark an der TDP-Grenze stehen bleiben, fast so, als ob die GPU Control Unit die Ampere misst, mit 12 V multipliziert und bei TDP-Grenze die Notbremse zieht.

@ Schlammsau

Wer sagt, dass ein Spiel mehr als Furmark zieht? Mir ist keins bekannt, Sam HD muss sich erst noch beweisen (und auch hier zweifle ich).

Schlammsau
2010-02-10, 22:39:25
@ Schlammsau

Wer sagt, dass ein Spiel mehr als Furmark zieht? Mir ist keins bekannt, Sam HD muss sich erst noch beweisen (und auch hier zweifle ich).

Der Gast bezweifelt es doch die ganze Zeit.
Und ich habe doch Sam HD schon nachgemessen, auch er schafft nur rund 230W bei mir.

PulsarS
2010-02-10, 22:46:21
Auffällig ist nur, dass alle HD5 im Furmark an der TDP-Grenze stehen bleiben, fast so, als ob die GPU Control Unit die Ampere misst, mit 12 V multipliziert und bei TDP-Grenze die Notbremse zieht.

Das ist mir auch aufgefallen.
Allerdings glaube ich bei den Fertigungsschwankungen nicht daran, dass man auf ein paar Watt genau planen kann.

y33H@
2010-02-10, 23:04:01
@ Schlammsau

ich würde eine 20 min Demo aufnehmen, dann abspielen und die Watt mitloggen. Das geht mit einem Voltcraft 3000 ja iirc nicht (außer die ganze Zeit drauf schauen^^).

@ PulsarS

Was mich einfach stutzig macht: Alle (!) bisher erschienen HD5k kleben im Furmark an der TDP-Grenze oder knapp drunter, einzig die am Limit gebauten HD5970 und HD58x0 fallen je nach Messung aus dem Rahmen (rot markiert). Das zeigen die Messungen von c't, PCGH und HT4U, die alle die Karte direkt vermessen. Da fällt es mir schwer, an einen Zufall zu glauben, zumal die Streuung der Werte äußerst gering ist:

HD5970 TDP = 294W; gemessener PCGH-Wert = 337W (HT4U = 291W )
HD5870 TDP = 188W; gemessener PCGH-Wert = 186W (HT4U = 200W / 207W )
HD5850 TDP = 170W; gemessener PCGH-Wert = 149W (HT4U = 150W)
HD5770 TDP = 108W; gemessener PCGH-Wert = 102W (HT4U = 106W)
HD5750 TDP = 86W; gemessener PCGH-Wert = 79W (HT4U = 77W)
HD5670 TDP = 61W; gemessener PCGH-Wert = 62W (HT4U = W61)

Die Differenz zwischen TDP und Furmark-Werten ist verblüffend angesichts der Tatsache, dass alle HD4k ohne Throtteling weit über die TDP-Grenze schießen. Bei so vielen Karten und Messungen wären das schon ein verdammt großer Haufen an Zufällen.

Sorkalm
2010-02-10, 23:13:59
Keine, da der Furmark entweder gelockt wird, die GPU Control Unit blockt oder es schlicht kein Throtteling gibt. Beweisen kann man das bei den HDk5 nicht 100%, zumindest wüsste ich nicht wie. Auffällig ist nur, dass alle HD5 im Furmark an der TDP-Grenze stehen bleiben, fast so, als ob die GPU Control Unit die Ampere misst, mit 12 V multipliziert und bei TDP-Grenze die Notbremse zieht.

An der Stelle muss man dann schon mal fragen, ob das nicht sogar ein Feature ist, wenn die Karten sozusagen selbst verhindern, dass sie zuviel Leistungsaufnahme erreichen.--

y33H@
2010-02-10, 23:28:09
Nennt sich GPU Control Unit und ist an sich intelligent, da es die Karte vor dem Absturz oder gar dem Tod bewahrt. Nur wird das nicht entsprechend kommuniziert, sondern mehr oder weniger verheimlicht.

HT4U durften sich damit schon rumärgern *klick mich (http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5700/index8.php)* 81° GPU im Furmark sind unkritisch, 137W aber weit über der TDP und ein Wandler möchte ich in der Situation nicht sein :ulol:
Auf der ASUS EAH 5770 mit intaktem Kühler verhielt sich der Mechanismus allerdings ein wenig anders [...] Dabei wurde uns in keiner Test-Applikation ein einziger Bildfehler geliefert. Unter Furmark durften wir dann abermals hier und dort Taktaussetzer feststellen. Wir bewegten uns gerade einmal im Bereich von 81 °C - die Leistungsaufnahme lag hier allerdings schon bei 137 Watt. Eine dauerhafte Stabilität unter 3D-Anwendungen konnten wir aber ebenfalls nicht nachstellen. Das System selbst stürzte nie ab, brachte auch keine Fehler mit sich. Doch ein Benchmarkversagen in Stalker und ein Aussetzer in Crysis Warhead stellte sich ein. Weiterhin warten wir diesbezüglich auf Antworten von AMD - nicht wegen der Abstürze, sondern vielmehr darüber, was genau man denn nun bei der HD 5000-Familie anders macht. Dass man etwas anders macht, hatte man uns schon bestätigt - mehr aber auch noch nicht.

Gast
2010-02-11, 08:10:09
HD4870 fliegt ab :ulol:


Mach doch mal den Mund zu Fanboy! Das betraf einzig und alleine zwei verfehlten Custom-Lösungen.

Gast
2010-02-11, 08:13:22
@ Gast

Tjoa, Artikel wird wohl nichts ;( Die Werte dümpeln vor sich hin ... und für weitere fehlt aktuell die Zeit. Schick mir mal nach der Cebit eine PN *hrhrhr*

War auch nichts anderes zu erwarten. Wenn es um NV geht wird vertuscht, wenn es um AMD geht die Keule heraus geholt. Bei jeden Test der PCGH steht noch dabei das AMD den Furmark drosselt, kein Wort von NV. Das zu editieren wäre was von ein paar Sekunden.

Gast
2010-02-11, 08:18:47
@ Schlammsau

ich würde eine 20 min Demo aufnehmen, dann abspielen und die Watt mitloggen. Das geht mit einem Voltcraft 3000 ja iirc nicht (außer die ganze Zeit drauf schauen^^).

@ PulsarS

Was mich einfach stutzig macht: Alle (!) bisher erschienen HD5k kleben im Furmark an der TDP-Grenze oder knapp drunter, einzig die am Limit gebauten HD5970 und HD58x0 fallen je nach Messung aus dem Rahmen (rot markiert). Das zeigen die Messungen von c't, PCGH und HT4U, die alle die Karte direkt vermessen. Da fällt es mir schwer, an einen Zufall zu glauben, zumal die Streuung der Werte äußerst gering ist:

HD5970 TDP = 294W; gemessener PCGH-Wert = 337W (HT4U = 291W )
HD5870 TDP = 188W; gemessener PCGH-Wert = 186W (HT4U = 200W / 207W )
HD5850 TDP = 170W; gemessener PCGH-Wert = 149W (HT4U = 150W)
HD5770 TDP = 108W; gemessener PCGH-Wert = 102W (HT4U = 106W)
HD5750 TDP = 86W; gemessener PCGH-Wert = 79W (HT4U = 77W)
HD5670 TDP = 61W; gemessener PCGH-Wert = 62W (HT4U = W61)

Die Differenz zwischen TDP und Furmark-Werten ist verblüffend angesichts der Tatsache, dass alle HD4k ohne Throtteling weit über die TDP-Grenze schießen. Bei so vielen Karten und Messungen wären das schon ein verdammt großer Haufen an Zufällen.

Die 5850 fällt nicht aus dem Rahmen wir von dir fälschlicherweise dargestellt. Und ansonsten frage ich mich was daran jetzt genau das Problem sein soll. Glaubst du NV hat keine solche Throttelfunktion eingebaut? Jede CPU hat sowas. Aber ist schon toll wenn man zwanghaft AMD bashen will.

mapel110
2010-02-11, 08:18:54
Hier der Beweis:

Was soll das beweisen?! Bei nvidia zeigt GPU-Z auch 99% Auslastung für GPU an, wenn ich Furmark verwende. Und Furmark wird definitiv ausgebremst von nvidia.

Gast
2010-02-11, 09:12:26
Der Gast bezweifelt es doch die ganze Zeit.
Und ich habe doch Sam HD schon nachgemessen, auch er schafft nur rund 230W bei mir.
Der Gast bezweifelt, das deine Angaben die Genauigkeit aufweisen, wie du tust.
Deine 28W sind nicht auf 1W genau, in Wirklichkeit können es genausogut 80W oder - 52W sein.

Solange das nicht geklärt ist, brauchst du die 28W nicht als absolute Wahrheit darstellen.
Ich habe dir übrigens empfohlen die Genauigkeit deiner 28W drastisch zu erhöhen, durch umfangreiche Temperaturmessungen.
Hast du alles überlesen, bleiben lediglich ht4us direkte Messungen übrig. Diese sind leider wiederrum nicht mehr ganz taufrisch, aber man sieht das es sich selbst da um gerade mal 13% handelt, womit wir wieder bei Post 239 http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7835963&postcount=239 wären.

Piffan
2010-02-11, 11:28:39
Mal wieder ein schöner Thread......

Habe jetzt keinen Bock, ALLES zu lesen, darum mal ne Frage: Ganz am Anfang fragt Schlammsau, warum man bei Tests von CPUs nicht auch solche rabiaten Programme einsetzt. Wurde denn jetzt endlich mal darauf eingegangen oder ist bei den alten Stereotypien geblieben? Hatte irgendwann keinen Bock mehr, den viralen Marketing- Quatsch weiter zu lesen. Hält ja keiner im Kopp aus.....:freak:

Mal an Gurus: Wie wahrscheinlich ist es eigentlich, dass jemals eine Anwendung alle parallelen Recheneinheiten gleichmäßig auslastet?

Und selbst wenn es hin und wieder mal vorkommt, ist es dennoch eine gute Idee, genug Rechenwerke vorzuhalten. Denn kurzfristige Engpässe können so überwunden werden......Auch wenn es nicht im Sinne des Erfinders war, für langfristige, vollständige Auslastung vorzubauen, sondern nur Peaks abzufangen, ist es ja nicht schlecht.

y33H@
2010-02-11, 11:40:52
Mach doch mal den Mund zu Fanboy! Das betraf einzig und alleine zwei verfehlten Custom-Lösungen. Wenn man kA hat. Das RefDesign der HD4870 fliegt im OCCT sofort ab, da die Last für die VRMs zu hoch ist (Ampere!) :rolleyes:
Glaubst du NV hat keine solche Throttelfunktion eingebaut?Lies was ich schreibe, GTX200 sind wahrscheinlich ebenfalls throttelt ...

Ganz am Anfang fragt Schlammsau, warum man bei Tests von CPUs nicht auch solche rabiaten Programme einsetzt. CoreDamage für Kühlertests ist mehr als rabiat.

Piffan
2010-02-11, 12:26:01
CoreDamage für Kühlertests ist mehr als rabiat.

Also könnte man Furmark ja auch zum Testen der Kühlung einsetzen.

Hier wird es aber genutzt, um Aussagen zu den GPUs selbst zu ziehen. Wenn man es ähnlich handhabt, müsste man anhand von CoreDamage ja auch ein Urteil über die CPU fällen......

Wofür imho Furmark taugt: Man kann sehen, ob das Gesamtdesign für Überlastungen taugt; sprich, ob im Falle einer Überlast genug Schutzmechanismen eingreifen. Machen die Prozessorhersteller ja auch so....Sollte die Hardware abrauchen beim Furmark, wäre das nicht gut. Taktet die GPU runter und die Stromversorgung hält durch und es gibt keinen Absturz, wäre das positiv.

Bevor wieder ein Fanboy schreit, relativiere ich meine Aussage: Solange nur synthetische Benches wie Furmark zum Ansprechen der Überlast- Schutzmaßnahmen führen.......Bei "echter" Software sollte imho die Auslegung der Hardware ohne Throttling klarkommen, bei vernünftiger Umgebungstemperatur versteht sich.

Gast
2010-02-11, 12:59:04
Wenn eine CPU mit Boxed Kühler in CoreDamage throttelt, so ist das Gesamtprodukt Schrott.
Nur weil viele andere Kühler nehmen ändert es daran nichts.

Piffan
2010-02-11, 13:04:37
Das könnte dann richtig sein, wenn CoreDamage auch tatsächlich IRGENDEINEN Bezug zu realer Software hat.

Wenn nicht, taugt er auch nur zum Testen von Kühlkörpern oder ob das System Überlastsicher designt wurde.......

Gast
2010-02-11, 13:16:22
CoreDamage ist reale Software.
Hier ein Link: http://damage.vigilantesoftware.com/

Systeme müssen Reserven haben.
Stell dir vor:
Nicht jeder hat einen Reinraum
Einen klimatisierten Raum
Einen Perfekt belüfteten PC

Es müssen nichtmal alle 3 Punkte nicht zusammentreffen, aber es können und da wird der Kühlung ein Stück mehr abverlangt als bei Märchensettings.

Lawmachine79
2010-02-11, 15:29:34
Mal wieder ein schöner Thread......

Habe jetzt keinen Bock, ALLES zu lesen, darum mal ne Frage: Ganz am Anfang fragt Schlammsau, warum man bei Tests von CPUs nicht auch solche rabiaten Programme einsetzt. Wurde denn jetzt endlich mal darauf eingegangen oder ist bei den alten Stereotypien geblieben? Hatte irgendwann keinen Bock mehr, den viralen Marketing- Quatsch weiter zu lesen. Hält ja keiner im Kopp aus.....:freak:

Gib mir einen brutaleren CPU-Test als ich habe und ich setze ihn ab sofort zum Testen ein. Im Moment heizt LinX64+P95 Maximum Heat am meisten :D.

Piffan
2010-02-11, 15:43:06
Ich stehe wohl auf dem Schlauch. Was bitte veranlasst dich zu der Aussage, dass ein Prozessor, der bei CoreDamage mit dem boxed Kühler throttelt, "Schrott" sei.....

Ich sehe es so: Der Proz hat Potential. Falls es mal zu thermischen Problemen kommt, verzichtet er auf Teile dieses Potentiales zugunsten der Sicherheit.

Tester und Anwender nutzen in der Regel "vernünftige" Programme, und da reicht das partiell ausgenutzte Potential halt oft für sehr gute Performance. Wer das Maximum sucht oder merkwürdige, synthetische Stresstests durchführt, muss halt besser kühlen. Das hat mit "Märchensettings" einerseits und wichtigen Reserven gar nichts zu tun.

Was ist an einer dynamischen Anpassung von Taktzahl/Spannung etc. falsch? Es liefert maximale Performance plus Sicherheit.

Schlammsau
2010-02-11, 17:34:32
hier nochmal für die ganz uneinsichtigen:

OCCT
http://www.abload.de/img/unbenanntk25f.jpg

Crysis
http://www.abload.de/img/unbenannthrub.png

boxleitnerb
2010-02-11, 17:56:59
Und was bringt das jetzt? Nix. Crysis ist nicht das Spiel, das die größte Last erzeugt. Das ist ja gerade der Punkt an Furmark. Die größtmögliche Last erzeugen, dass man auch bei zukünftigen grafikintensiven Spielen zumindest einigermaßen sicher sein kann, dass das System dort stabil laufen wird.

Aber das verstehst du offenbar nicht.

Schlammsau
2010-02-11, 18:00:31
Und was bringt das jetzt? Nix. Crysis ist nicht das Spiel, das die größte Last erzeugt. Das ist ja gerade der Punkt an Furmark. Die größtmögliche Last erzeugen, dass man auch bei zukünftigen grafikintensiven Spielen zumindest einigermaßen sicher sein kann, dass das System dort stabil laufen wird.

Aber das verstehst du offenbar nicht.

Du verstehst nicht!
Es gibt und es wird höchstwahrscheinlich kein Spiel geben, dass die Shader permanent zu 100% auslastet!

;)

boxleitnerb
2010-02-11, 18:14:45
Tolles Argument. Du kannst es nicht beweisen. Dir ist bewusst, dass bei schlechter/leiserer Kühlung bzw. höheren Umgebungstemperaturen (Hochsommer) der Stromverbrauch eines Chips steigt? So kann man mit bestimmten Spielen unter gewissen Bedingungen schon sehr nah an die Werte herankommen, die Furmark ausspuckt.
Es geht hier um Extreme, lieber Schlammsau. Wer seinem System so vertraut, fein. Steht ja jedem frei. Furmark ist idR nicht praxisnah, soweit so richtig. Das heißt aber nicht, dass es nicht auch Fälle geben kann, in denen der Momentanverbrauch bzw. die Momentanstromstärken die Durchschnittswerte deutlich überschreiten können. Und genau das versucht Furmark zu simulieren.

Extremfälle sind selten und unwahrscheinlich, aber nicht unmöglich. Wozu bitte schön werden z.B. Elektronikgeräte bei Minusgraden und hohen Temperaturen getestet? Aus Spass oder weil es überflüssig ist? Man will eben sichergehen. Wer das nicht will, sein Bier.

Sag mal, ganz ehrlich: Hast du nix Besseres zu tun, als dich über sowas für dich Unwichtiges aufzuregen? Bei jedem Thema, bei dem AMD in irgendeiner Weise mit irgendetwas Negativem zusammengebracht wird, kommt Schlammsau aus seinem Loch gekrochen...

Schlammsau
2010-02-11, 18:24:24
Hast noch gar nicht bemerkt, dass es mir nie um ATi oder nVidia ging, sondern den allgemeinen Nutzen von Stromverbrauchsmessungen mit dem FURMark!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=472401

boxleitnerb
2010-02-11, 18:29:43
Doch hab ich, aber glaube ich weiß schon, mit welcher Motivation du diesen Thread ins Leben gerufen hast. Nunja, zum Glück darf jeder das glauben, was er will.

Piffan
2010-02-11, 18:43:13
Doch hab ich, aber glaube ich weiß schon, mit welcher Motivation du diesen Thread ins Leben gerufen hast. Nunja, zum Glück darf jeder das glauben, was er will.

Richtig. Wenn Du glaubst, dass es mal ein Spiel geben wird, dass in die Regionen von Furmark kommt, dann glaubst du wohl auch, dass es Programme gibt, die wie CoreDamage die CPU grillen.....

Naja, ich teste mein System wie folgt: ich takte hoch und schau, obs abschmiert. Dass ich das nur für Spiele so halte, ist hoffentlich selbstverständlich.

Blödsinn wie Prime oder Furmark gucke ich mir schon lange nicht mehr an. Weil die rein gar nix über die Alltagsstabilität beim Zocken sagen. Mein bisher bester Test war immer noch Crysis: Wenn da auf der Panzermap trotz hochfliegendem Munitionsdepot die Kiste weiterläuft, dann ist sie für meine Begriffe stabil genug. Meiner Meinung nach sind Spiele die härtesten Stabilitätstester.

Gast
2010-02-11, 18:52:18
hier nochmal für die ganz uneinsichtigen:

OCCT
http://www.abload.de/img/unbenanntk25f.jpg

Crysis
http://www.abload.de/img/unbenannthrub.png
Du bist ein ganz lustiger, in deinem Wertlosen Bild stimmt nichtmal der Speichertakt überein.
Abgesehen davon das du nur vermutest und wie zuvor keine Beweise hast.

Worum gehts dir eigentlich? OCCT/Fur rennt doch bei dir?
Hast du ein Problem damit, das es Leute wie ich benutzen? Kann dir doch am Arsch vorbei gehen, was ich mit meiner Hardware treibe.

Gast
2010-02-11, 18:53:22
Dazu noch ein CPU Limit, naja.

AckytheG
2010-02-11, 23:49:03
Du verstehst nicht!
Es gibt und es wird höchstwahrscheinlich kein Spiel geben, dass die Shader permanent zu 100% auslastet!

;)
Du musst aber berücksichtigen, dass mit einer High-End-Graka nicht nur gespielt wird.
GPGPU-Computing wird zukünftig im Grafikchipmarkt an Bedeutung gewinnen.
Und ich halte es nicht für unwahrscheinlich, dass es demnächst auch Anwendungen geben wird, die einen RV8xx richtig gut auslasten können.
Und genau diesen Fall simuliert der Furmark.

Hast noch gar nicht bemerkt, dass es mir nie um ATi oder nVidia ging, sondern den allgemeinen Nutzen von Stromverbrauchsmessungen mit dem FURMark!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=472401
Wenn man den Stromverbrauch im Spielealltag messen möchte, hast Du Recht.
Wenn man mit Blick auf den Eventualfall aber ein Worst-Case-Scenario schaffen will, ist der Furmark eben doch ganz brauchbar.

Keine, da der Furmark entweder gelockt wird, die GPU Control Unit blockt oder es schlicht kein Throtteling gibt. Beweisen kann man das bei den HDk5 nicht 100%, zumindest wüsste ich nicht wie. Auffällig ist nur, dass alle HD5 im Furmark an der TDP-Grenze stehen bleiben, fast so, als ob die GPU Control Unit die Ampere misst, mit 12 V multipliziert und bei TDP-Grenze die Notbremse zieht.
Ich habe mit einer übertakteten HD5850 (@900/1300) und dem Furmark schon gezielt einen Shut-Down erzeugt.
Nach 5min erreichten die Spawas die 100°-Grenze und dann war Stille im Rechner... :|
Mit Spannungserhöhung lässt die HD5850 auf jeden Fall sehr viel höhere Ampere-Werte zu, als es die TDP erlauben würde.

Ich glaube deshalb nicht, dass ATi im Furmark auf diese Weise bremst. (Falls überhaupt gebremst wird)
Ich denke, das man bei der Berechnung der TDP einfach eine neue Berechnungsbasis genommen hat.
Vielleicht ist's ja der Furmark selbst.
Das würde zumindest erklären, warum die Karten mit dem Fell-Donut fast genau ihre TDP erreichen...

y33H@
2010-02-12, 00:02:53
Mit Spannungserhöhung lässt die HD5850 auf jeden Fall sehr viel höhere Ampere-Werte zu, als es die TDP erlauben würde.Das stimmt, ja. Meine HD5850 läuft laut GPU-Z auch mit über 120° Spawas (laut GPU-Z) noch, dann habe ich abgebrochen ;(

AckytheG
2010-02-12, 00:25:18
Das stimmt, ja. Meine HD5850 läuft laut GPU-Z auch mit über 120° Spawas (laut GPU-Z) noch, dann habe ich abgebrochen ;(
Was für einen Kühler hast Du denn auf der Karte und wieso lässt sie solche Temperaturen zu? :O
Bei mir verrichtet ein Musashi seinen Dienst.
Die Spawas werden aber von einem extra Kupferkühler gekühlt, dessen Kühlfinnen mit dem Musashi in Kontakt stehen.
Damit kann ich die Wärme auch bei niedrigen Drehzahlen ganz gut abführen. (unübertaktet sind die Spawas etwa 80° warm @Furmark)

y33H@
2010-02-12, 13:10:04
1,3 Volt und 1,0 GHz für einen Test, wann die Schutzschaltung greift ;D Sind übrigens 125°. Chip throttelt ab 100° und Notaus bei 115°.

Ansonsten Prolimatech MK-13 und Thermalright VRM-R5, alle anderen SpaWa-Kühlungen sind imo Schrott.