PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF8 - Shadertakt bald unabhängig einstellbar


AnarchX
2007-09-11, 16:15:46
Der neue FW163.67 brachte eine erfreuliche Neuerung mit:
Guys, I've got very good news for G80 owners. I've just examined overclocking interfaces of newly released 163.67 drivers and I was really pleased to see that NVIDIA finally added an ability of independent shader clock adjustment. As you probably know, with the past driver families the ForceWare automatically overclocked G80 shader domain synchronicallly with ROP domain using BIOS defined Shader/ROP clock ratio. Starting from 163.67 drivers internal ForceWare overclocking interfaces no longer scale shader domain clock when ROP clock is adjusted and the driver now provides completely independent shader clock adjustment interface. It means that starting from ForceWare 163.67 all overclocking tools like RivaTuner, nTune, PowerStrip or ATITool will adjust ROP clock only.
However, new revisions of these tools supporting new overclocking interfaces will probably allow you to adjust shader clock too. Now I've played with new interfaces and upcoming v2.04 will contain an experimental feature allowing power users to definie custom Shader/ROP ratio via the registry, so RT will clock shader domain together with ROP domain using user defined ratio.
And v2.05 will give you completely independent slider for adjusting shader clock independently of core clock.

Note:

By default this applies to Vista specific overclocking interfaces only, Windows XP drivers still provide traditional overclocking interface adjusting both shader and ROP clocks. However, XP drivers also contain optional Vista-styled overclocking interfaces and you can force RivaTuner to use them by setting NVAPIUsageBehavior registry entry to 1.
http://forums.guru3d.com/showpost.php?p=2418671&postcount=22

Da ergeben sich durchaus interessante neue Möglichkeiten.

Ob das nur eine nette Geste gegenüber den Enthusiasten von Nvidia ist?
Oder steckt vielleicht mehr dahinter: Innerhalb der TDP könnte ja NV ROP/TMUs und Shader so takten, wie es gerade Vorteile im jeweiligen Game bringen würde...

The_Invisible
2007-09-11, 16:29:49
interessant, das erklärt auch warum die vista user mit diesem neuen treiber probleme beim übertakten hatten und xp user nicht. rivatuner 2.05 wird ja richtig interessant.

mfg

Coda
2007-09-11, 16:35:29
Oder steckt vielleicht mehr dahinter: Innerhalb der TDP könnte ja NV ROP/TMUs und Shader so takten, wie es gerade Vorteile im jeweiligen Game bringen würde...
Die GPUs sind bereits auf ihren maximal möglichen Takt (über alle verkauften GPUs mit Sicherheit) eingestellt und weniger hat sicher keine Vorteile.

AnarchX
2007-09-11, 16:39:49
Die GPUs sind bereits auf ihren maximal möglichen Takt (über alle verkauften GPUs mit Sicherheit) eingestellt und weniger hat sicher keine Vorteile.

Naja ich dachte eher so in die Richtung, ROPs/TMUs um 100MHz runter, dafür Shadertakt um 200MHz hoch bzw. umgekehrt, wenn das Game mehr nach Z-Fill/Tex-Fill giert bzw. der User hohe BQ-Setting im Treiber eingestellt hat.

Aber wie weit und ob man einen von beiden Teilen höher takten kann, wenn der andere @Default bleibt, wird man ja dann mit dem RT 2.05 sehen...

reunion
2007-09-11, 16:47:12
Naja ich dachte eher so in die Richtung, ROPs/TMUs um 100MHz runter, dafür Shadertakt um 200MHz hoch bzw. umgekehrt, wenn das Game mehr nach Z-Fill/Tex-Fill giert bzw. der User hohe BQ-Setting im Treiber eingestellt hat.

Aber wie weit und ob man einen von beiden Teilen höher takten kann, wenn der andere @Default bleibt, wird man ja dann mit dem RT 2.05 sehen...

Warum sollte ein niedrigerer ROPs-/TMUs-Takt mehr ALU-Takt erlauben? Das Verhältnis ist sicher nicht ohne Grund so gewählt, und mehr Takt wird aus gutem Grund nicht garantiert.

AnarchX
2007-09-11, 16:56:53
Warum sollte ein niedrigerer ROPs-/TMUs-Takt mehr ALU-Takt erlauben?
Die TMU/ROPs produzieren ja somit weniger Abwärme, welche dann sich positiv auf die Shader auswirken könnte, die ja auch soetwas kühler bleiben und wiederum Taktspielraum haben zur erlaubten Temperatur.

Natürlich ist dies mehr eine fixe Idee(etwas inspiriert von Intels DAT), die dann mit den Ergebnissen des RT 2.05 fallen oder sich bestätigen wird.

Aber im Endeffekt wäre diese weitere Nutzung der beiden Taktdomainen doch ein Clou. ;)

edit:
Hier hat man auf einer GTX mit der BIOS-Methode, über 1.7GHz SD bei 575MHz ROPs unter Luft erreicht, die mit SW-OCing über 700MHz ROP-Takt benötigt und somit wohl eine Wasserkühlung:
http://www.benchzone.com/page.php?al=geforce_overclocking_gui&pg=12

Gast
2007-09-11, 17:01:18
Die Temperatur ist normalerweise nicht der limitierende Faktor beim Takten sondern der Takt selbst.

Coda
2007-09-11, 17:17:26
Naja ich dachte eher so in die Richtung, ROPs/TMUs um 100MHz runter, dafür Shadertakt um 200MHz hoch bzw. umgekehrt, wenn das Game mehr nach Z-Fill/Tex-Fill giert bzw. der User hohe BQ-Setting im Treiber eingestellt hat.
Warum sollte das funktionieren?

Die kritischen Pfade in den Shadereinheiten werden wohl kaum durch die Wärmeabgabe der ROPs beeinflusst.

Moralelastix
2007-09-11, 17:23:27
Das hat sich NV bei der Ultra bestimmt auch gedacht?!?

AcmE
2007-09-11, 17:26:37
interessant, das erklärt auch warum die vista user mit diesem neuen treiber probleme beim übertakten hatten und xp user nicht. rivatuner 2.05 wird ja richtig interessant.

mfg
Ich habe unter XP aber auch das Problem das ein Chiptakt über 590 nicht übernommen wird. (AtiTool)

dargo
2007-09-11, 17:34:47
Ich habe unter XP aber auch das Problem das ein Chiptakt über 590 nicht übernommen wird. (AtiTool)
Mit dem RT gibts keine Probleme, zumindest nicht unter XP.

Coda
2007-09-11, 17:37:59
Das hat sich NV bei der Ultra bestimmt auch gedacht?!?
Was möchtest du damit sagen? Die Ultras haben auch speziell selektierte Chips.

BlackBirdSR
2007-09-11, 17:38:45
Die TMU/ROPs produzieren ja somit weniger Abwärme, welche dann sich positiv auf die Shader auswirken könnte, die ja auch soetwas kühler bleiben und wiederum Taktspielraum haben zur erlaubten Temperatur.




Wie die anderen schon gesagt haben, funktioniert das so nicht. Die kritische Abwärme entsteht lokal, und Hotspots sind nicht ohne Grund möglichst weit von einander entfernt. Zudem reden wir hier nicht von GHz-Bereichen, in denen die theoretische Schaltzeit der Transistoren an sich ein Problem wird.
Ausserdem bräuchte man dann entweder im Treiber oder im ASIC Performance-counter, welche die benötigten Daten auslesen. Ansonsten hieße das ja, für jedes Spiel ein Profil ;)

AcmE
2007-09-11, 17:40:12
Mit dem RT gibts keine Probleme, zumindest nicht unter XP.
Gut zu wissen, dann werde ich das mal testen.

AnarchX
2007-09-11, 17:47:38
@BlackBirdSR &Co.

Na gut, ihr habt mich überzeugt. Aber irgendetwas wird NV schon damit bezwecken wollen, wenn vielleicht auch nur den weiteren Regler in nTune.

Insgesamt aber trotzdem eine nette Neuerung, da scheinbar ja die SD mehr Potential hat, als die R/T-D, welches man nun auch noch so einfacher ausschöpfen kann.

_DrillSarge]I[
2007-09-11, 18:06:06
nette idee um den energieverbrauch einzuschränken, mehr nicht

Moralelastix
2007-09-11, 18:08:12
Was gibts da zu überzeugen?

Kann doch gut sein das wegen eines Hardware Bugs der SD trotzdem schneller laufen kann?!

Und genau das kann man jetzt ausprobiern.

Ich frag mir nur wieso NV damit so lange gewartet hat(vielleicht wegen der fehlenden Konkurrenz)?

Coda
2007-09-11, 18:09:11
Ausserdem bräuchte man dann entweder im Treiber oder im ASIC Performance-counter, welche die benötigten Daten auslesen. Ansonsten hieße das ja, für jedes Spiel ein Profil ;)
Die gibt's im ASIC. Sehr detailiert sogar.

AnarchX
2007-09-11, 20:53:21
Ich habe unter XP aber auch das Problem das ein Chiptakt über 590 nicht übernommen wird. (AtiTool)

Das liegt aber wohl nicht an dem unabhängigen Shadertakt:
There are no problems in 2.03. Driver just overclocks G80 _differently_ with new drivers and has more agressive throttling system, so may of you should _lower_ unstable clocks you've used in teh past. And that's doesn't depend on RT and won't change with new RT versions.

AcmE
2007-09-11, 20:59:48
Das liegt aber wohl nicht an dem unabhängigen Shadertakt:
Das wäre aber echt.....
Werde das trotzdem mal mit dem RT checken.
Aber wenn das nun so Bestand hat in den Treibern muss man sich wohl doch
nicht auf das übertakten des Shadertaktes freuen, wird ja eh nicht übernommen :P
und warum soll mein OC nicht stable sein?!

Gast
2007-09-11, 22:25:41
nicht auf das übertakten des Shadertaktes freuen, wird ja eh nicht übernommen :P
und warum soll mein OC nicht stable sein?!


unter xp verwendet der treiber standardmäßig noch die alte übertaktungsroutine mit fixem taktverhältnis.

AcmE
2007-09-12, 11:55:18
unter xp verwendet der treiber standardmäßig noch die alte übertaktungsroutine mit fixem taktverhältnis.
Also mit dem RivaTuner hab ich nun keine Probleme, liegt wohl am ATITool

Desti
2007-09-12, 14:15:56
Wie die anderen schon gesagt haben, funktioniert das so nicht. Die kritische Abwärme entsteht lokal, und Hotspots sind nicht ohne Grund möglichst weit von einander entfernt. Zudem reden wir hier nicht von GHz-Bereichen, in denen die theoretische Schaltzeit der Transistoren an sich ein Problem wird.
Ausserdem bräuchte man dann entweder im Treiber oder im ASIC Performance-counter, welche die benötigten Daten auslesen. Ansonsten hieße das ja, für jedes Spiel ein Profil ;)


Die Gesamtwärmeabgabe ist aber schon ein Argument, denn die Kühler der Grafikkarten sind durch die maximal möglichen Maße leistungsmäßig immer sehr knapp bemessen und bei den High-End Karten muss schon viel mit Heatpipes rumgetrickst werden, damit es überhaupt noch läuft.
AMD hat ja aus genau dem selben Grund beim Barcelona alle Cores individuell taktbar gemacht. (wobei bei AMD Engergiesparen im Teillastbetrieb eher im Vordergrund stand)

AnarchX
2007-09-17, 14:04:06
Nun kann es jeder (GF8-User ;)) selbst testen:
* Added new ForceWare 163.67 overclocking interfaces support. Please take a note that by design of new NVIDIA drivers ForceWare's NVAPI overclocking interfaces no longer scale shader domain clock when raster domain clock is changed on G8x graphics processors and provides completely independent shader domain clock adjustment interface instead. It means that all overclocking tools supporting traditional overclocking interfaces (e.g. RivaTuner, ATITool or PowerStrip) change raster domain core clock only when overclocking core with these drivers. Now RivaTuner is the only third party overclocking tool supporting new independent shader domain clock adjustment interface too and able to overclock it with these drivers. Currently shader domain overclocking in RivaTuner is available for power users only and is exposed as user adjustable shader/ROP domain clock ratio represented by ShaderClockRatio registry entry. The next version of RivaTuner will provide independent shader domian clock control directly via overclocking GUI. Please take a note that by default it applies to Vista ForceWare 163.67 only, however Windows XP owners may also force RivaTuner to use Vista-specific NVAPI overclocking interfaces by setting NVAPIUsageBehavior registry entry to 1.
http://www.guru3d.com/index.php?page=rivatuner

Gast
2007-09-17, 14:06:37
Nun kann es jeder selbst testen

Ja, wenn jeder eine GF8 hätte ;D

Superheld
2007-09-17, 15:58:59
mal probieren:smile:

RavenTS
2007-09-21, 18:28:04
Hat denn schonmal jemand getestet ob das auch wirklich was bringt (nicht nur 1-3% oder so) allein die Shader nun etwas höher zu takten?! Dürfte ja wenn überhaupt nur in wirklich stark shaderlastigen Spielen überhaupt eine Reaktion zeigen... ???

4711
2007-09-21, 18:29:35
schau dir die Leistung der ATI an...

AnarchX
2007-09-21, 18:36:36
Hat denn schonmal jemand getestet ob das auch wirklich was bringt (nicht nur 1-3% oder so) allein die Shader nun etwas höher zu takten?! Dürfte ja wenn überhaupt nur in wirklich stark shaderlastigen Spielen überhaupt eine Reaktion zeigen... ???


Hier sind zwei Tests, die sich damit auseiandersetzen. Zwar wurde hier noch die BIOS-Methode verwendet, aber im Endeffekt kommt es ja auf das gleiche hinaus:

http://www.benchzone.com/page.php?al=geforce_overclocking_gui&pg=12

http://www.hardspell.com/english/doc/showcont.asp?news_id=1443

RavenTS
2007-09-21, 22:11:21
Hier sind zwei Tests, die sich damit auseiandersetzen. Zwar wurde hier noch die BIOS-Methode verwendet, aber im Endeffekt kommt es ja auf das gleiche hinaus:

http://www.benchzone.com/page.php?al=geforce_overclocking_gui&pg=12

http://www.hardspell.com/english/doc/showcont.asp?news_id=1443


Ahja, danke für die Links. Lese nur selten viele Berichte zu GraKas und wusste das net. Sieht bei neueren Spielen ja schon nach nem durchaus nicht zu unterschätzenden leichten Vorteil aus...