Archiv verlassen und diese Seite im Standarddesign anzeigen : "Turbo-Modus" für GPUs?!
=Floi=
2010-10-29, 05:13:03
werden wir auch bald wie bei den intel gpus einen turbo modus bei den gpus sehen, wo die TDP als grenze gilt und je nach auslastung der gpu die taktrate verändert wird?!
wäre eine option, zB in furmark die karte zu drosseln und bei normalen sachen die karte noch zu übertakten.
ich bin zwar kein freund des turbo-modus, aber wäre marketingtechnisch gut verwertbar.
mapel110
2010-10-29, 05:22:59
Gabs schon. ATIs Overdrive.
Bei nvidia gibts noch den Performance Mode, der allerdings in die andere Richtung schaltet. Falls Leistung nicht gebraucht wird, taktet sich die Karte runter. Ist standardmäßig aktiv. Die Funktion ist aber afaik noch nie mal richtig untersucht worden, in welchen Spielen sich eine Karte mal runtertaktet. Mir ist das auch noch nie irgendwo aufgefallen.
AnarchX
2010-10-29, 09:13:26
Wenn dann würde wohl ein Turbo-Modus eher Sinn machen, wenn er einzelne Chip-Teile, wie ALUs, TMUs oder ROPs einzeln übertaktet.
Mit den Single-GPUs sind wir schon knapp vor der 300W Marke, welche die PCI-SIG nicht so schnell anheben wird. Da könnte es wohl langfristig durchaus Sinn machen, wenn die GPUs mehr Taktpotential haben, als die 300W erlauben, dass man hier entsprechend zur Laufzeit die einzelnen Takte beschleunigt, wenn andere Chip-Teile nichts bzw. wenig zu tun haben.
Bei 16xAF und >4xMSAA z.B. werden wohl häufig die ALUs etwas weniger zu tun haben.
Weiterhin könnte man auch ein herstellerübergreifendes System für Notebook etablieren, wo die Gesamtkühlung auch meist limitiert.
Ein ähnliches System wie bei Intels CPU+IGP-Chips, welche dynamisch sich die TDP aufteilen, eben erweitert auf die dedizierte GPU, die bei niedrigem Verbrauch der CPU ihren Takt erhöhen könnte.
Spasstiger
2010-10-29, 18:51:40
Eine dynamische Übertaktung kann auch generell Sinn machen. Wenn z.B. der Core nicht ausgelastet ist, weil es im Frontend ein Bottleneck gibt, hilft ein höherer Chiptakt. Und dieser höhere Chiptakt ist in der TDP drin, wenn die meisten ALUs Däumchen drehen und dank Clock Gating und hardwaregesteuertem Energiemanagement keine elektrische Energie verbraten. Das Core-i5/i7-Konzept könnte bei GPUs durchaus aufgehen.
Der_Korken
2010-10-29, 19:19:50
Ich stell mir das allerdings nicht ganz unproblematisch vor, da man dann auch die beim Turbomodus erreichten Taktraten garantieren muss. Beispiel wäre die 6870: Die hat mit Standardspannung kaum 10% OC-Potenzial, da muss dann also auch noch Hand angelegt werden.
Aber mal abgesehen davon: Wann soll es denn der Fall sein, dass eine GPU nicht richtig ausgelastet ist? Eine CPU wird möglicherweise nicht mit genug rechenlastigen Threads bedient, was dann eben auch bedeuten kann, dass die CPU nur 50% ausgelastet ist. Bei Grakas gibt es aber das Problem mangelnder Parallelisierung nicht. Da kann höchstens ein Ungleichgewicht zwischen TMUs/ALUs/whatever eintreten, aber das kann ja nicht so krass wie bei CPUs sein. Dabei meine ich aber Spiele und nicht theoretische Tests, wo zB nur die TMUs gefordert werden, oder wo nur tesseliert wird.
Spasstiger
2010-10-29, 19:31:30
Ich stell mir das allerdings nicht ganz unproblematisch vor, da man dann auch die beim Turbomodus erreichten Taktraten garantieren muss.
Das, was uns aktuell als 3D-Takt verkauft wird, wird dann als Turbotakt verkauft. Problem gelöst. :freak:
Schickerweise kann man dann sogar noch die TDP senken, weil die default-Taktraten dann ja niedriger sind als sie sein könnten.
RavenTS
2010-10-30, 12:38:43
Vor Jahren hieß es doch mal die GPUs der Zukunft werden deutlich kleiner und dafür einfach ne nach Markt mehr davon auf einem Board verbaut, da wäre das ja sicherlich einfacher zu realisieren indem einfach einzelne GPUs deaktiviert werden und andere hoch getaktet werden.
Kann man aber heute nicht aber schon von einem fixen Turbomodus sprechen, wenn beispielsweise einzelne Elemente (bsp. shader) höher getaktet werden als der Rest des Chips..?
Spasstiger
2010-10-30, 12:43:09
Kann man aber heute nicht aber schon von einem fixen Turbomodus sprechen, wenn beispielsweise einzelne Elemente (bsp. shader) höher getaktet werden als der Rest des Chips..?
Ein Turbomodus ist nie fix, das macht ja den Turbomodus aus. Eine dynamische Taktanpassung im Rahmen der elektrischen Spezifikationen.
BlacKi
2010-10-30, 13:49:22
wir haben bereits vollautomatisch taktgeregelte grafikkarten auf dem markt. ob es möglich ist einzelne komponenten zu deaktivieren kann ich nicht sagen. aber diese streamprozessoren sind doch im kern mit drin.ob die so einfach zu regeln sind?
warum gibts den turbomodus eigendlich? genau, weil manche kerne dank x86 nicht richtig von eine, prozess ausgelasten werden koennen, deshalb der turbomodus. bei der grafikkarte sieht das doch komplett anders aus die skalierung der einzelnen komponenten ist viel besser das es wohl kaum sin macht da manche komponenten mit weniger strom zu betreiben und andere höher zu takten.
ist iwie mit aepfel und birnen.
Spasstiger
2010-10-30, 14:24:08
warum gibts den turbomodus eigendlich? genau, weil manche kerne dank x86 nicht richtig von eine, prozess ausgelasten werden koennen, deshalb der turbomodus.
Den Zusammenhang mit x86 verstehe ich nicht.
Schau dir doch mal die Grafikkarten an. Nur in wenigen Fällen ziehen Grafikkarten soviel Saft wie es die Spezifikation zulässt. Man könnte sich in diesen Fällen mit einer dynamischen Übertaktung an die Spezifikation herantasten. Die Rechenwerke eines Grafikchips sind keinesfalls zu 99% der Zeit voll ausgelastet, da laufen viele NOPs (NOP = no operation) durch.
Orbmu2k
2010-10-30, 14:31:16
warum gibts den turbomodus eigendlich? genau, weil manche kerne dank x86 ...
Was hat das mit x86 zu tun? Das Problem gibts genauso bei x64! :confused:
Es ist ein reines Softwareproblem die Threads der CPU optimal auszunutzen. Es ist aber auch nicht immer möglich alle Aufgaben aufzuteilen, weil der Overhead + Locking dafür so gross werden kann das es auf einem einzelnen Thread schneller läuft als auf mehreren.
Der Turbomodus beschleunigt dann diesen einen Thread. Da die anderen Cores eh nix zu tun haben.
Der Thread Schdeuler in Windows versucht ja schon die Threads aller laufenden Prozesse so zu verteilen damit möglichst viele ausgelastet werden.
Bei Grafikberechnungen ist das Potenzial für erfolgreiches Multithreading ungleich höher. Daher lohnt der Hardwareoverhead für eine solche Turbo Lösungen imho nicht wirklich. Auch wenn es in Einzelfällen speziell bei älteren Spielen vielleicht sogar einen Gewissen Nutzen hätte.
BlacKi
2010-10-30, 17:19:26
nun ich dachte das liegt an den x86 architektur und x86 betriebsystemen.
das eine grafikkarte mal mehr mal weniger saft zieht liegt nicht hauptsaechlich an einer schlechten verteilung, die ist wie schon gesagt ziemlich gut.
man kann auch nicht die einzelnen "komponenten der grafikarte" mit " den cpu kernen die die selbe arbeit tun sollen" vergleichen.
und auch nicht mit 2 gpu´s im sli verbund, den die sollten gleich schnell sein, sonst limitiert die schwaechere.
AnarchX
2010-10-30, 17:47:07
Bei Dual-GPU könnte so etwas durchaus interessant sein, die 300W PCIe-Spec limitieren die aktuellen Dual-GPUs ja schon deutlich, während hier einiges an Taktpotential vorhanden ist.
Man müsste halt zur Laufzeit solche Dinge erkennen, wo AFR nicht skaliert, wie z.B. "Render to Texture". Am Beispiel der HD 5970 würde dann eine GPU kurz in den Idle geschickt, während man die andere auf 900MHz taktet (+24% gegeüber den Referenz 725MHz).
Wobei das wohl alles etwas schwieriger sein sollte, als der Ansatz von Intel mit GPU und CPU auf einem Package bzw. einem Die und einer eher geringe Gesamt-TDP von maximal 95W.
Spasstiger
2010-11-22, 17:28:16
Nvidia und AMD sind ja jetzt quasi auf den Zug aufgesprungen. Die durchschnittliche 3D-Taktrate fällt unter Umständen niedriger aus als der spezifizierte Maximaltakt, so dass man den Maximaltakt gewisssermaßen auch als Turbo-Takt sehen kann.
Hier aus Folien von AMD:
http://h-3.abload.de/img/fot_023xhnq.jpg
http://h-3.abload.de/img/fot_024ofv9.jpg
LovesuckZ
2010-11-22, 17:30:07
Also bei nVidia gibt es immer Maximaltakt. Es wird nur dann runter geregelt, wenn man Furmark oder OCCT verwendet - wenn also die 300 Watt in diesen Anwendungen gerissen werden.
/edit: Und es wird bei nVidia auch nicht wirklich die Taktrate gedrosselt, sondern eher Wartezyklen eingelegt. Afterburner zeigt mir weiterhin die eingestellten 3D Taktraten an, aber die Leistung in Furmark ist mit 263.09 wesentlich schlechter.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.