PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: OC-Versionen verfälschen Benchmarks der regulären GeForce GTX 660 Ti


Leonidas
2012-09-11, 22:01:25
Link zur News:
http://www.3dcenter.org/news/oc-versionen-verfaelschen-benchmarks-der-regulaeren-geforce-gtx-660-ti

ux-3
2012-09-11, 22:11:44
Was ist mit der Spannung der normalen Karte? Ist die geringer? Wenn ja, dann weniger Verlustleistung und weniger Ärger mit dem Power Target.

Leonidas
2012-09-11, 22:50:35
Guter Einwand. Sie sind faktisch identisch:
http://ht4u.net/reviews/2012/evga_geforce_gtx_660_ti_sc_3_gb_test/index9.php
Hab noch einen entsprechenden Satz eingefügt.

HarryHirsch
2012-09-11, 23:07:02
Die Grundlage für diesen Taktraten-Unterschied dürfte im PowerTarget liegen, welches bei der ab Werk übertakteten Version seitens des Grafikkarten-Herstellers etwas höher gesetzt wurde

wenn man es genau nimmt könnte auch die max. temp vorgeschrieben sein...
aktuelle 670er dc2 von asus bremsen bei ~63°c.
wenn man da das pt hoch setzt ist es egal welche vcore anliegt. . (wenn überhaupt vorhanden)

HarryHirsch
2012-09-11, 23:24:09
was ich sagen wollte ist, das schon eine bessere kühlung mehr bringt als reine pt anhebung oder vcore gefi***.

Leonidas
2012-09-12, 06:03:31
Bin mir nicht ganz sicher. Bei AMD wäre so was möglich, aber bei NV soll PT wirklich exakt den Verbrauch ermitteln, nicht aber Temp-abhängig sein.

ux-3
2012-09-12, 07:01:15
Bin mir nicht ganz sicher. Bei AMD wäre so was möglich, aber bei NV soll PT wirklich exakt den Verbrauch ermitteln, nicht aber Temp-abhängig sein.

Da wir es mit einem Heißleiter zu tun haben, wird die el. Leistung aber temperaturabhängig sein. Möglicherweise auch die Sensorik für die Leistungsbestimmung.

Ich hatte bislang den Eindruck, dass durch PT jede Karte letztlich anders ist.

M4xw0lf
2012-09-12, 09:06:14
Bin mir nicht ganz sicher. Bei AMD wäre so was möglich, aber bei NV soll PT wirklich exakt den Verbrauch ermitteln, nicht aber Temp-abhängig sein.

HT4U hatte doch schon im Launchartikel der GTX680 einen Test mit "Vorwärmphase", nach der der Boost auch nachgelassen hat. Temperatur spielt auf jeden Fall eine Rolle.

aufkrawall
2012-09-12, 10:32:30
Die Leakage kann mit PT ne ganz wichtige Rolle spielen.
Die Referenzdesigns werden ja auch gerne mal recht heiß (höhere Leakage -> PT riegelt Takt runter).

V2.0
2012-09-12, 10:49:38
Bin mir nicht ganz sicher. Bei AMD wäre so was möglich, aber bei NV soll PT wirklich exakt den Verbrauch ermitteln, nicht aber Temp-abhängig sein.

Das PT ist konstant, der Takt nicht. Denn wärmer = mehr Vebrauch = Grenze von PT wird erreicht= weniger Takt

Wobei ich das als unkritisch sehe, da mir keine GeForce bekannt ist, die nicht wenigstens ihren vom Hersteller versprochen Takt mit 100% PT erreicht. Was an max. Boost erreicht wird ist sowieso von einzelnen Chip abhängig. Aber das ist bei AMDs "Boost-Ediitons" nicht anders.

Gipsel
2012-09-12, 14:30:21
Was an max. Boost erreicht wird ist sowieso von einzelnen Chip abhängig. Aber das ist bei AMDs "Boost-Ediitons" nicht anders.
Doch, genau das ist bei AMD anders. Da verhalten sich alle GPUs in Bezug auf den Takt exakt gleich und erreichen in der gleichen Situation alle exakt den gleichen Takt (auch gleich oft bzw. lange).

V2.0
2012-09-12, 14:46:21
Doch, genau das ist bei AMD anders. Da verhalten sich alle GPUs in Bezug auf den Takt exakt gleich und erreichen in der gleichen Situation alle exakt den gleichen Takt (auch gleich oft bzw. lange).

Wenn man deutlich unterschiedliche Lüfterdrehzahlen nicht als Abweichung versteht, ja. Bei NV ist dafür bei gleichen Karten meist die Lüfterdrehzahl ähnlich, während der Boost geringfügig abweicht.

Gipsel
2012-09-12, 15:11:38
Du hast vom Boost-Takt geschrieben und der bei AMD-GPUs anliegende Takt variiert nicht zwischen verschiedenen GPUs.

V2.0
2012-09-12, 15:21:24
Doch in Abhängigkeit von der Temp, was viele Lüftersteuerung (so auch die Referenzkarten aber zu verhindern versuchen). Ich hatte hier 2 Club3Ds wo das nicht ganz funktionierte. Eine geht halt auf <70° und liegt 50Mhz über der die 71° C erreicht.

Das Verhalten von Boost kann man auch bei Ht4u gut nachlesen: http://ht4u.net/reviews/2012/amd_radeon_hd_7950_boost_edition_test/index5.php

Gipsel
2012-09-12, 17:24:39
Doch in Abhängigkeit von der Temp, was viele Lüftersteuerung (so auch die Referenzkarten aber zu verhindern versuchen). Ich hatte hier 2 Club3Ds wo das nicht ganz funktionierte. Eine geht halt auf <70° und liegt 50Mhz über der die 71° C erreicht.

Das Verhalten von Boost kann man auch bei Ht4u gut nachlesen: http://ht4u.net/reviews/2012/amd_radeon_hd_7950_boost_edition_test/index5.php
Deine Club3D war dann aber irgendeine Custom bzw. OC-Version, bei der die irgendwie am PT rumgespielt haben. Ansonsten greift natürlich irgendwann die Abregelung bei zu hoher Temperatur. Das passiert aber normalerweise erst irgendwo bei 90+ Grad. Das ist im Normalbetrieb ziemlich unerheblich.
Im Übrigen weiß ich ziemlich gut, wie PT funktioniert, weshalb ich auch sagen kann, daß die Sachen in Deinem Link zu einem erheblichen Teil nicht stimmen und nur auf ein mangelhaftes Monitoring-Tool zurückzuführen sind. Powertune arbeitet intern mit 256 Taktstufen, woraus sich eine Granularität von etwa 4 MHz ergibt.

V2.0
2012-09-12, 18:42:06
Ich verstehe nicht wo den Unterschied nicht. AMD nennt Baseclock + Boost, NV eben so.

AMD Karten erreichen in den meisten Fällen den angegeben Boosttakt, NV Karten überschreiten in oft. Kannst Du mir den Unterschied genauer erklären? (das meine ich ehrlich und ernst)

Gipsel
2012-09-12, 21:33:00
Ich verstehe nicht wo den Unterschied nicht. AMD nennt Baseclock + Boost, NV eben so.

AMD Karten erreichen in den meisten Fällen den angegeben Boosttakt, NV Karten überschreiten in oft. Kannst Du mir den Unterschied genauer erklären? (das meine ich ehrlich und ernst)
Dazu gibt es bereits einen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9223092#post9223092).

Aber für Dich mal zuammengefaßt:
NV hinterlegt in jeder GPU eine Art rudimentäre Kennlinie von Maximaltakt in Abhängigkeit von der Temperatur (mit der die GPU stabil läuft). Es wird (analog) der Stromverbrauch gemessen und in einem Regelkreis der Takt so eingestellt, das man das Powertarget erreicht, natürlich ohne jeweils die hinterlegten Taktgrenzen zu überschreiten. Diese Regelung erfolgt offenbar mit einer Zeitkonstante (bzw. Frequenz, die Implementation ist nicht ganz klar) von 180ms (Taktwechsel maximal 5 bis 6 Mal die Sekunde), ist also relativ langsam. Jede GPU hat eine etwas andere Charakteristik, was den Stromverbrauch in Abhängigkeit von Takt, Spannung und Temperatur angeht. Weiterhin ist der stabile Maximaltakt bei den GPUs unterschiedlich (der maximale Boost). Damit verhält sich jede GPU potentiell unterschiedlich, und auch jede einzelne nicht deterministisch (die Performance variiert bei zwei Durchläufen mit der gleichen GPU). Desweiteren können Spannungserhöhungen zu einer Reduzierung der anliegenden Taktraten führen (weil der Stromverbrauch steigt).

AMD verfolgt dagegen einen vollkommen anderen Ansatz. Dort wird der Stromverbrauch überhaupt nicht gemessen. Auch geht die gemessenen Temperatur und die anliegende Spannung nicht in die Powertune-Regelung ein (Ausnahme ist der Überhitzungsschutz, der aber wie gesagt erst bei 100°C oder so anspringt; evtl. kann man in dem Zusammenhang noch eine Art Notabregelung erwähnen, die greift, wenn der von den Spannungsregler geforderte Strom einen gewissen Wert überschreitet, da kommt man aber eigentlich nie hin, zumindest wenn PT funktioniert).
AMD überwacht praktisch jede Einheit mit wesentlichem Stromverbrauch auf dem Chip und stellt im Prinzip schlicht die Auslastung dieser Einheiten in jedem einzelnen Taktzyklus fest (über eine Art Performancecounter in jeder vALU, TMU, ROP usw.). Aus diesen Daten generiert man (das macht ein dedizierter kleiner Prozessor auf dem GPU-Die, nicht die CPU über den Umweg des Treibers) mit Hilfe eines Modells für den Stromverbrauch einen Schätzwert desselben. Dabei gehen vielerlei Annahmen mit ein. Eine davon ist z.B die anliegende Spannung. Hier wird nicht die tatsächlich anliegende genommen, sondern schlicht mit einem idealisierten Modell für die einzelnen Spannungsstufen gearbeitet. Die standardmäßig eingestellten Spannungswerte werden beim Binning so gewählt, daß man sich diesem Modell annähert (Chips mit hoher Leakage bekommen eine niedrigere Spannung, so daß sie in etwa einen ähnlichen Stromverbrauch aufweisen, wie Chips mit niedriger Leakage und hoher Spannung, was übrigbleibt, ist die unterschiedliche Temperaturabhängigkeit des Stromverbrauchs zwischen den Chips). Wählt man manuell andere Spannungen, geht das nicht in die Powertune-Berechnungen ein. Weiterhin wird immer (vor Cat. 12.7) die maximal zulässige Temperatur angenommen, nicht die gemessene (die wird auch mit Cat12.7 nicht genommen). Man kommt also vollkommen ohne irgendwelche echten Messungen aus und kann so extrem schnell die Taktstufen wechseln (im Prinzip sogar mehrfach in jedem Frame) nicht nur alle 180ms.
Der genau benutzte Algorithmus ist nicht fest verdrahtet (es ist wie gesagt im Prinzip Software, die nur auf einem dedizierten kleinen Prozessor auf der GPU läuft) und kann z.B. durch ein BIOS- bzw. Treiberupdate geändert werden. Dies ist z.B. mit Cat 12.7 passiert. Es wird jetzt nicht immer die zulässige Maximaltemperatur für den Chip angenommen, sondern nach Phasen niedriger Auslastung eine geringere, die bei steigender Auslastung dann langsam ansteigt (es wird also die Aufheizung modelliert, wieder komplett ohne echte Messungen, bei AMD heißt das DTE oder Deterministic Temperature Estimation). Dies macht sich auch bei Modellen ohne Boost bemerkbar, die regeln bei kurzfristigen Belastungen also nicht mehr (so stark) ab. Ganz gut sehen kann man das wohl nach dem Start von Furmark (siehe der Diskussion im oben verlinkten Thread). Aber auch hier verhält sich wieder jede GPU absolut identisch und deterministisch, jede GPU liefert also in der gleichen Situation immer exakt die gleiche Performance ab wie auch jede andere (mit gleicher BIOS- und Treiberversion im gleichen Lastszenario). Dies ist bei nV nicht der Fall.

Edit:
More significantly, Kepler is Nvidia’s first GPU with Dynamic Voltage and Frequency Scaling (DVFS). For CPUs, this technique has been standard for nearly 5 years. Sandy Bridge uses DVFS for both the CPU and GPU, while Llano’s DVFS is restricted to the CPU cores.

Kepler’s DVFS is a relatively simple, platform level approach. The GPU power is directly measured using the VRMs. The driver is responsible for selecting a frequency and voltage pair, based on the measured power and temperature and a limit that the user can set (which should be welcome by overclockers). Most DVFS systems do not measure current or power directly, because external measurements are very high latency. Instead, on-die performance counters are used to quickly estimate the switching activity and power draw.

[..] The downside of measuring at the VRM is that the latency of the control loop is fairly high, around 100ms. To put that in context, rendering a frame at 30 or 60FP/S translates into 30ms and 16ms respectively. Early testing from Scott Wasson indicates that the high latency can be problematic, although a driver fix is expected to reduce or eliminate this issue. [..]

This is Nvidia’s first implementation of DVFS for a GPU, so it is understandable that it would be relatively simple. Future versions [post Kepler] will undoubtedly be more sophisticated and shift towards on-die power estimation to reduce the latency of the control loop. It is also possible that the actual power management decisions will eventually move from the driver into hardware.
AMD macht es halt bereits wie auf CPUs (und benutzt ein paar Grundsätze, die man auch anders hätte festlegen können, die momentane Funktionsweise ist also eine sich daraus ableitende willentliche Enscheidung).

V2.0
2012-09-13, 06:53:05
Danke