PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Energieeffizienz der GeForce GTX 980: Marketing-Anspruch & Bench...


Leonidas
2014-12-18, 14:04:17
Link zur News:
http://www.3dcenter.org/news/energieeffizienz-der-geforce-gtx-980-marketing-anspruch-benchmark-wirklichkeit

Schaffe89
2014-12-18, 14:51:40
Nvidia ist halt ne Saufirma, wie jede andere auch. ;)

Wobei diese Messungen schon bisschen an Gestörtheit erinnern.

Dr.Doom
2014-12-18, 15:05:55
In Verbindung von 3DCenter Performance-Index mit den offiziellen Stromverbrauchsangaben ergibt sich schon ein (fälschlicher Zuwachs) von 87%, nahe dran an den im Diagramm angezeigten 100%. Da tut die Klammer fälschlich gesetzt sein.

Godmode
2014-12-18, 19:31:48
Nvidia ist halt ne Saufirma, wie jede andere auch. ;)

Wobei diese Messungen schon bisschen an Gestörtheit erinnern.

Hast du was anderes erwartet? Jeder versucht sein Produkt möglich gut darzustellen und täuschen und tarnen gehört da nun mal dazu. Daher kann man fast immer auf die offiziellen Angaben der Hersteller scheißen.

Das soll hier keine Verteidigung sein, ganz im Gegenteil.

BigKid
2014-12-18, 21:37:56
Also aus eigener Erfahrung: Ich habe meinen Laptop gerade von einer gtx780m auf eine gtx980m umgerüstet.
Die Karte bringt dabei nun 10000 statt 5600 Punkten im 3DMark Firestrike GraficsScore. Dabei bleibt sie deutlich leiser.
Ich kann also sagen dass ich in diesem speziellen Fall die Behauptung nachvollziehen bzw bestätigen kann.
Und das ist noch nichtmal gtx680mx auf gtx980m. Da könnte wirklich ne Verdopplung bei gleichem Verbrauch stattgefunden haben.

Dass NV sich natürlich Zahlen raussucht die ihnen in den Kram passen ist doch schon länger "normal".

hq-hq
2014-12-18, 22:30:01
IMHO hätte man den Verbrauch halten sollen und lieber mehr FPS produzieren müssen... verschenktes Potential :freak:

Gast
2014-12-18, 22:47:43
Sorry, aber diese Meldung ist leider absoluter Schwachsinn.

Da wird für die Bestimmung der Performance der 3D-Center Performanceindex verwendet, ein Durchschnitt aus unzähligen Berichten und noch viel mehr einzelnen Benchmarks.

Für die Messung der Leistungsaufnahme werden dann gerade mal irgendwas von 5-6 Einzelmessungen herangezogen.

Die einzig valide Ermittlung der Performance pro Watt ist die gleichzeitige Messung der Leistungsaufnahme und der Performance.

Im Performanceindex sind logischerweise jede Menge Benchmarks enthalten in denen die neuen Karten Aufgrund diverser Limitierungen ihren Performancevorteil nicht voll entfalten können.
Für die Messungen der Leistungsaufnahme werden aber üblicherweise Spiele verwendet, welche die Karten recht gut auslasten.
Schon Kepler war recht gut unter geringer Last die Leistungsaufnahme zu reduzieren und Maxwell ist darin bestimmt nicht schlechter.

In der Tat kommt die Effizienzsteigerung von Maxwell hauptsächlich nicht von einer verringerten maximalen Leistungsaufnahme, sondern daher dass man, man durch die deutlich granularere Regelung nur dann viel Strom aufnimmt wenn es wirklich notwendig ist

BlacKi
2014-12-18, 23:28:40
auch wenn das marketing im vorfeld übertrieben hat, sind es trotzdem hammer effieziente karten wenn sie nicht ausserhalb de nvidia spezifikation betrieben werden.

MrSpadge
2014-12-19, 00:54:18
Gerade nVidia sollte doch wissen, dass der reale durchschnittliche Stromverbrauch der GTX680 nicht zufällig 169 W ist, sondern entsteht weil sie das "power target" selbst auf 170 W gesetzt haben. Hierfür die TDP zu nehmen ist Schwachsinn.. immerhin heißt die sogar "thermal design power" und nicht "typical power", also was der Kühler maximal duaerhaft abführen können muss.

Dass nVidia bei Partnerkarten höhere power targets als 165 / 145 W bei GTX980/970 erlaubt, finde ich gut. Nie hatte man so viele tatsächlich unterschiedliche Karten zur Auswahl. Allerdings müssen diese dann auch entsprechend gekennzeichnet werden. Wird GM204 nicht durch's power target die Zügel angelegt, dann verbraucht er eben auch (deutlich) mehr, ab spätestens 200 W allerdings nur noch für minimale Mehrleistung.

MrS

Leonidas
2014-12-19, 04:53:13
Sorry, aber diese Meldung ist leider absoluter Schwachsinn.

Da wird für die Bestimmung der Performance der 3D-Center Performanceindex verwendet, ein Durchschnitt aus unzähligen Berichten und noch viel mehr einzelnen Benchmarks.

Für die Messung der Leistungsaufnahme werden dann gerade mal irgendwas von 5-6 Einzelmessungen herangezogen.

Die einzig valide Ermittlung der Performance pro Watt ist die gleichzeitige Messung der Leistungsaufnahme und der Performance.




Man kann das natürlich anmängeln. Aber haben wir besseres? Schon allein daß wir Stromverbrauchsmessungen aus 5-6 Quellen von rein der Grafikkarte haben, ist fast ein Wunder. Der Rest des Webs stiefelt mit TDPs durchs Dunkle ...

Gast
2014-12-19, 14:15:33
Man kann das natürlich anmängeln. Aber haben wir besseres? Schon allein daß wir Stromverbrauchsmessungen aus 5-6 Quellen von rein der Grafikkarte haben, ist fast ein Wunder.

Und das entschuldigt genau was. Nur weil man es nicht besser weiß kann man nicht irgendwelche angebliche Tatsachen in den Raum stellen. Im Gegenteil, wenn das beim Erstellen der Meldung bewusst war ist es sogar noch verwerflicher. Etwas zu übersehen kann jedem mal passieren, aber dann noch darauf bestehen, dass man es eben nicht besser weiß was man zuvor als Tatsache hingestellt hat ist nicht Ok


Der Rest des Webs stiefelt mit TDPs durchs Dunkle ...

Dank Boost/Power Target liegt man damit heute zumindest nicht mehr soweit daneben wie vor einigen Jahren ;)

aths
2014-12-19, 15:40:49
auch wenn das marketing im vorfeld übertrieben hat, sind es trotzdem hammer effieziente karten wenn sie nicht ausserhalb de nvidia spezifikation betrieben werden.
Das zweifelt Leo ja auch nicht an. Er zeigt, dass die offziellen Vergleiche unsinnige Werte liefern, weil zwei unterschiedliche Größen verglichen werden. Das ist der Unterschied zwischen Claqueuren und Journalisten. Letzterer prüft Angaben.