PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3D-Stromverbrauch unabhängig vom Spiel?


seba86
2008-11-15, 19:21:47
Hi Leute,

oft sieht man ja bei Grafikkartentest Strommessungen im Idle und 3D-Modus.
Ich bin aber jemand, der auch ältere 3D Spiele gerne spielt, also Unreal1 , Half Life 1 und Tomb Raider 3.
Verbraucht die Grafikkarte bei solchen Spielen nun genauso viel, wie z.B. bei The Witcher oder hoffentlich weniger durch die niedrigere Belastung?
Anderseits wird sie ja automatisch im 3D-Modus hochgetaktet, unabhängig der geforderten Leistung denke ich mal.
Die beste W/L hat wohl die HD 3850...

dargo
2008-11-15, 19:27:12
Es gibt keine niedrigere Belastung in älteren Games, oder sagen wir mal kaum. Niedrigere Belastung der Grafikkarte erreichst du nur durch CPU-Limits, einen Framelimiter und/oder Vsync.

Gast
2008-11-15, 19:33:19
Ältere Spiele spielt man eh mit VSync an, was bringts wenn die Karte 500fps rendert, ausser unnötigen Stromverbrauch und ABwärme...

Undertaker
2008-11-15, 19:48:17
Ich denke schon, dass die GPU dort weit weniger verbrauchen wird - ich erkenn das bei mir schon an den Temperaturen, da produziert z.B. WC3 10-15°C weniger als Crysis oder andere aktuelle Spiele.

Raff
2008-11-15, 19:48:34
Es gibt keine niedrigere Belastung in älteren Games, oder sagen wir mal kaum. Niedrigere Belastung der Grafikkarte erreichst du nur durch CPU-Limits, einen Framelimiter und/oder Vsync.

Ich weiß es nicht genau, aber ich würde dem widersprechen. Wer lastet die ALUs aus, wenn deine Grafikkarte gerade Unreal rendert? Das Spiel lässt – wie alles vor dem Jahr ~2001 – die Geometrie von der CPU anliefern, Pixel-Shading ist ein Fremdwort. Die Einheiten idlen ... oder doch nicht?

Mal ab davon, dass eine Grafikkarte nie schnell genug sein kann, wenn sie denn SSAA beherrscht. ;) Mit 32xS und 16x OGSSAA kriegt man fast jede GeForce klein (= ausgelastet).

MfG,
Raff

Gast
2008-11-15, 20:10:23
Ja ist abhängig vom Spiel und auch von der Auflössung sogar z.b. 1920x1200 zu 1280x1024.

AnarchX
2008-11-15, 20:13:48
Ich weiß es nicht genau, aber ich würde dem widersprechen. Wer lastet die ALUs aus, wenn deine Grafikkarte gerade Unreal rendert? Das Spiel lässt – wie alles vor dem Jahr ~2001 – die Geometrie von der CPU anliefern, Pixel-Shading ist ein Fremdwort. Die Einheiten idlen ... oder doch nicht?

Das "Missing-MUL" ab GF8 versorgt die TMUs mit Koordinaten.

Aber auf jeden Fall kann man sagen, dass die Auslastung von der Anwendung abhängig ist.

Spasstiger
2008-11-15, 20:16:12
Definitiv hängt der Verbrauch bei heutigen Grafikkarten vom Spiel ab. Sonst würde man ja nicht Furmark statt 3DMark zum Erzeugen von möglichst hohen GPU-Temperaturen nehmen.

anddill
2008-11-15, 20:41:49
Man braucht nur mal im CCC die GPU-Last beobachten. Die ist von Spiel zu Spiel und auch innerhalb des Spiels ständig anders.

Raff
2008-11-15, 20:46:56
Das CCC schlägt schon bei Flash und Fensterzieherei stark aus ...

MfG,
Raff

dargo
2008-11-15, 20:53:03
Das Spiel lässt – wie alles vor dem Jahr ~2001 – die Geometrie von der CPU anliefern, Pixel-Shading ist ein Fremdwort. Die Einheiten idlen ... oder doch nicht?

Deswegen sagte ich auch was vom CPU-Limit. :wink:

Natürlich lasten ältere Spiele heutige "High-End"-Grafikkarten etwas weniger aus. Ich habe "kaum" nicht umsonst geschrieben. Wir reden hier aber von wenigen einstelligen °C bei der GPU. Ein Framelimiter oder Vsync. senkt im Durchschnitt deutlich mehr den Verbrauch als das ältere Spiel an sich selbst.

anddill
2008-11-15, 20:53:28
Dann horch einfach auf den Lüfter. Der dreht auch lastabhängig hoch und runter.

dargo
2008-11-15, 20:56:22
Definitiv hängt der Verbrauch bei heutigen Grafikkarten vom Spiel ab. Sonst würde man ja nicht Furmark statt 3DMark zum Erzeugen von möglichst hohen GPU-Temperaturen nehmen.
Furmark dürfte auch eine deutlich niedrigere CPU-Last erzeugen als der 3DMark. Außerdem wird das Programm versuchen alle Einheiten der GPU möglichst stark auszulasten, was ja weniger mit den Spielen in der Praxis zu tun hat.

AnarchX
2008-11-15, 20:58:47
Deswegen sagte ich auch was vom CPU-Limit. :wink:

Natürlich lasten ältere Spiele heutige "High-End"-Grafikkarten etwas weniger aus. Ich habe "kaum" nicht umsonst geschrieben. Wir reden hier aber von wenigen einstelligen °C bei der GPU.
Denk nochmal über FurMark und aktuelle Radeon nach, durch die extrem langen Shader erreicht dieser offenbar mehr als die 60-70% Shaderauslastung die AMD in aktuellen Games gemessen hat und offenbar bei der Dimension der Stromversorgung zu Grunde gelegt hat.

dargo
2008-11-15, 21:02:29
Denk nochmal über FurMark und aktuelle Radeon nach, durch die extrem langen Shader erreicht dieser offenbar mehr als die 60-70% Shaderauslastung die AMD in aktuellen Games gemessen hat und offenbar bei der Dimension der Stromversorgung zu Grunde gelegt hat.
Nochmal - was hat der Furmark mit Spielen zu tun? Genauso wenig wie Core2MaxPerf. Beide Programme versuchen die jeweilige Seite an die Grenzen zu bringen. Hier gehts aber um Spiele.

Ich nehme nochmal das Beispiel mit dem FPS-Limiter auf. Nehmen wir mal an das Game läuft im Durchschnitt mit 300-500pfs (oder in Videos/Menüs 3000-5000fps :ugly:, alles schon erlebt). Wenn man Strom sparen will einfach ein Limit von zb. 60fps setzen. Das bringt viel mehr.

AnarchX
2008-11-15, 21:06:46
Nochmal - was hat der Furmark mit Spielen zu tun? Genauso wenig wie Core2MaxPerf. Beide Programme versuchen die jeweilige Seite an die Grenzen zu bringen.
Es zeigt, dass die Auslastung der Einheiten Auswirkung auf den Verbrauch hat und im genannten Fall wohl von AMD eine eher ungewollte.

Es gibt noch viel mehr Beispiele, so wird ein UT1999 @1920x1200 mit 32xS oder 4x4SSAA + 16xAF, wodurch man hier wohl eindeutig grafiklimitiert sein wird, einen niedrigeren Verbrauch erzeugen als ein aktueller shaderlastiger Titel.

Temperaturen sind hier eher ein schlechter Anhaltspunkt, da man nicht weiß wo der Sensor genau sitzt.

dargo
2008-11-15, 22:21:00
Es gibt noch viel mehr Beispiele, so wird ein UT1999 @1920x1200 mit 32xS oder 4x4SSAA + 16xAF, wodurch man hier wohl eindeutig grafiklimitiert sein wird, einen niedrigeren Verbrauch erzeugen als ein aktueller shaderlastiger Titel.

Ich sage auch nicht, dass neuere Games keine höhere Last erzeugen. Diese wird aber glaube ich hier etwas überbewertet. Was passiert wenn man die Framerate reduziert kann man hier sehen. Dafür habe ich mal testweise den 3DMark06 mit den SM3.0-Szenen genommen. System steht in der Sig.

Ausgangsbasis waren bei beiden Tests 45°C bei der GPU. Die weiße vertikale Linie kennzeichnet genau den Punkt wo die Karte den 3D-Modus (Takt) verlässt.

3DMark06 ohne Limit (45-78°C):

33987


3DMark06 mit 10fps-Limit (45-62°C):

33988

Im zweiten Fall ist die Framerate in etwa geviertelt. Beide Games zusammen liefern im Durchschnitt ohne Limit 45,57fps.

Ich könnte auch gerne Verbrauchsmessungen liefern wenn ich denn herausfinde wie ich meinen Voltcraft Energy Monitor 3000 dazu übereden kann den avg. Verbrauch zu messen. Man sollte auch bedenken, dass durch den Framelimiter auch eine Stromersparnis bei der CPU zu verzeichnen sein wird. Im zweiten Test sind noch nicht mal meine Lüfter (CPU und Gehäuse) in den "Last-Modus" gesprungen. :D

MrMostar
2008-11-15, 22:29:31
Ich hab den Leistungsmesser meist am Rechner hängen und sehe bei jedem Spiel einen anderen Verbrauch. (jetzt grad im Browser 81W, cos phi 0.82)
Das ist neben AA/AF auch sehr stark von den Shadern und der Geometriekomplexität abhängig.
Im Bereich CPU habe ich sogar einen deutlichen Unterschied zwischen simap und QMC (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6255407#post6255407) gesehen, reinspielen kann da z.B. welche CPU Befehle genutzt werden, cache hits/misses...

=Floi=
2008-11-15, 23:25:30
ohne (konstante) lüfterdrehzahl ist dein temperaturverlauf sinnlos und nebenbei könntest du die bilder auch kleiner machen.
nebenbei macht es auch einen unterschied wie lange und unter welcher last der pc läuft, wenn man auf die temperatur geht. wenn du vorher 3 std. crysis gezockt hat, dann hast du gleich danach im 3dmark auch warscheinlich 2-3grad C mehr.
Es zählt nur die reine grafikkartenauslastung (ausgelesen über ein tool) und nur auf diese kann man wirklich gehen. (die auslastung der cpu sollte man beim 3d stromverbauch auch noch im auge behalten)

Gast
2008-11-15, 23:41:40
das ist sogar bei heutigen spielen von spiel zu spiel stark unterschiedlich, wie man deutlich an unterschiedlichen lüfterdrehzahlen und je nach karte sogar am ausgangsstrom bei den wandlern sieht.

die bandbreite beim strom im 3D-betrieb reicht von 20A bis über 80A, selbst in einem spiel kann die belastung von szene zu szene sich deutlich unterscheiden.

dargo
2008-11-15, 23:51:56
ohne (konstante) lüfterdrehzahl ist dein temperaturverlauf sinnlos und nebenbei könntest du die bilder auch kleiner machen.

1. Warum sollte es sinnlos sein? Der Lüfter wird doch nach der GPU-Temperatur geregelt.
2. Was meinst du wozu ich der Spoiler genommen habe? Die Dateigröße kann dich ja wohl kaum stören mit den 20KB. :wink:


nebenbei macht es auch einen unterschied wie lange und unter welcher last der pc läuft, wenn man auf die temperatur geht. wenn du vorher 3 std. crysis gezockt hat, dann hast du gleich danach im 3dmark auch warscheinlich 2-3grad C mehr.

Du hast meinen letzten Post nicht richtig gelesen.

=Floi=
2008-11-16, 00:01:32
mit einer variablen lüfterdrehzahl kann ich eine konstante temperatur halten. (könnte ich dir jetzt bei der 8800GTS512 zeigen)

wenn der pc länger läuft und sich besser aufheizt, dann hast du andere temperaturen, oder andere einflüsse. Es kann auch das netzteil schneller drehen, oder die cpu und das board erzeugen mehr/weniger wärme im gehäuse. So ist das nicht vergleichbar mit deiner kurzen testweise. Mache den test mal wenn du den pc gerade eingeschaltet hast und alles noch kalt ist, dann wirst du sehen was ich gemeit habe.

dargo
2008-11-16, 00:07:23
das ist sogar bei heutigen spielen von spiel zu spiel stark unterschiedlich, wie man deutlich an unterschiedlichen lüfterdrehzahlen und je nach karte sogar am ausgangsstrom bei den wandlern sieht.

die bandbreite beim strom im 3D-betrieb reicht von 20A bis über 80A, selbst in einem spiel kann die belastung von szene zu szene sich deutlich unterscheiden.
Sorry, aber das ist Unsinn. Das was du da beobachtet hast ist überwiegend nur die Folge von Vsync, einem intergrierten Framelimiter oder extremen CPU-Limits, gerade bei solchen extremen Ampere-Sprüngen. :)

Gast
2008-11-16, 00:17:39
hier sieht man mal wie deutlich der stromverbrauch von der verwendeten software abhängt.

http://img185.imageshack.us/img185/4121/powerka3.png

dargo
2008-11-16, 00:33:19
hier sieht man mal wie deutlich der stromverbrauch von der verwendeten software abhängt.

http://img185.imageshack.us/img185/4121/powerka3.png
:|

Und wie hast du in jedem dieser Games die GPU- oder auch CPU-Last überprüft, dass sie auch annährend gleich ist? :D

Das einzige was man an deiner Grafik erkennen kann ist folgendes - Game 1 und 2 ist entweder bei deiner Messung extrem cpu-limitiert und/oder die Framerate ist begrenzt (Framelimiter oder Vsync.). Game 3 und 4 genau das Gegenteil - überwiegend gpu-limitiert. Furmark dürfte selbsterklärend sein.

Hier mal ein eigendlich selbsterklärender Vergleich - 3DMark06@1680x1050 4xMSAA/16xAF (SM3.0 Gametest Nr.2):

ohne Limit
33989

mit 10fps Limit
33990 33991

Beim Test mit Limit habe ich zwei Bilder gemacht weil es eine Zickzack-Linie gibt - einmal den höchsten und einmal den geringsten Wert. Der Durchschnitt ist deutlich geringer als im ersten Test ohne Limit, bei dem die Last fast konstant ist.

mit einer variablen lüfterdrehzahl kann ich eine konstante temperatur halten. (könnte ich dir jetzt bei der 8800GTS512 zeigen)

wenn der pc länger läuft und sich besser aufheizt, dann hast du andere temperaturen, oder andere einflüsse. Es kann auch das netzteil schneller drehen, oder die cpu und das board erzeugen mehr/weniger wärme im gehäuse. So ist das nicht vergleichbar mit deiner kurzen testweise. Mache den test mal wenn du den pc gerade eingeschaltet hast und alles noch kalt ist, dann wirst du sehen was ich gemeit habe.
Du hast meinen Post #17 immer noch nicht richtig gelesen. :)
Ausgangsbasis waren bei beiden Tests 45°C bei der GPU.

Wenn ich eine feste Lüfterdrehzahl anlegen würde wäre der Unterschied noch größer.

Noch was damit es keine Missverständnisse gibt - die Lüfterdrehzahl beim GT200 steigt kontinuierlich mit der Core-Temperatur an. Und beim Test ohne Limit waren die 100% noch sehr weit entfernt.

Squall2010
2008-11-16, 01:39:09
Das die Grafikkarte weniger verbraucht wenn sie nicht zu 99% ausgelastet wird sollte doch klar sein.

Das habe ich bei dem neuen Spiderman gesehen, total miese Performance, wollte mal wissen warum. Habe dann im hintergrund die ATTs laufen lassen, und die Maximale GPU last lag bei 45% und das bei 1680x1050. Die CPU war Maximal zu 100% ausgelastet.

Genau das gleiche bei PES09, da erreiche ich auch nicht die werte wie bei Crysis oder anderen Spielen.

Habe leider keinen Energie Check, sonst hätte ich das mal getestet.

=Floi=
2008-11-16, 02:49:55
deine 45°C bei der gpu sind einen dreck wert, wenn die luft im gehäuse mal 20° und mal 40° C hat. Es wird auch ein gewisser prozentsatz der wärme über das pcb abtransportiert und dadurch hast du uu eine verfälschung der messergebnisse.
Du kannst einfach nicht nach der temperatur gehen.
Wenn die temp ganz schnell an die 82°C geht und dann der lüfter die karte auf der temperatur hällt, indem er die drehzahl regelt, dann kannst du daraus keinen brauchbaren schluß über den verbrauch ziehen! Was du da machst ist schlicht und ergreifend nicht richtig.

edit
es ist gut wenn der lüfter regelt und nicht stupf 30 oder 90% kennt, denn so kann uu die karte sehr leise halten, wenn die last nicht so extrem ist.

Gast
2008-11-16, 11:09:21
:|

Und wie hast du in jedem dieser Games die GPU- oder auch CPU-Last überprüft, dass sie auch annährend gleich ist? :D

wieso sollte ich das müssen?

die frage war ob unterschiedliche software den stromverbrauch der GPU maßgeblich beeinflusst und die antwort ist eindeutig ja, natürlich aufgrund der tatsache, dass unterschiedliche software die GPU unterschiedlich auslastet.

wenn du zeigen willlst, dass der stromverbrauch bei hoher auslastung immer annähernd gleich ist, toll. brauchst du aber nicht zeigen, das wissen wir auch so.

in der realität ist die auslastung aber eben nicht immer nicht immer 100%, woran das nun genau liegt ist erstmal nebensächlich, fakt ist dass damit der stromverbrauch deutlich sinkt.

dargo
2008-11-16, 11:49:50
deine 45°C bei der gpu sind einen dreck wert, wenn die luft im gehäuse mal 20° und mal 40° C hat.
OMG. :crazy:

Sag mal willst es nicht verstehen oder kannst du es nicht? Mach dir mal keinen Kopf, ich achte schon penibel auf gleiche Vorraussetzungen drauf. In beiden Fällen war natürlich auch die Zimmer-, Gehäuse-, und CPU-Temperatur als Ausgangsbasis gleich! Und ich frage mich gerade was du für ein Gehäuse hast in dem 40°C herrschen? :|
Bei mir ist die Gehäusetemperatur minimal über der Raumtemperatur. Und wenn dir die Grafiken im Post #25 immer noch nicht reichen dann kann ich dir auch nicht helfen. :)

wieso sollte ich das müssen?

die frage war ob unterschiedliche software den stromverbrauch der GPU maßgeblich beeinflusst und die antwort ist eindeutig ja, natürlich aufgrund der tatsache, dass unterschiedliche software die GPU unterschiedlich auslastet.

Ich wiederhole mich noch einmal - die großen Lastunterschiede sind nur die Folge von CPU-Limits, und/oder Framelimit/Vsync. Es liegt kaum an der Anwendung. Was ist denn daran so schwer zu verstehen?

Wenn man so alte Schinken spielen will einfach die Framerate auf zb. 60fps reduzieren (meine Empfehlung - Framelimiter). Das verringert den Durchschnittsvebrauch erheblich, schließlich braucht niemand 200fps aufwärts, schon gar nicht in Menüs/Videos.

Edit:
Um es mal etwas praktischer zu zeigen. Knalle mal einen 4Ghz i7 in dein System rein und spiele die gleiche Szene in Fifa09 mit 1920x1200 4x4SSAA. Glaubst du denn wirklich du bist dann immer noch bei 29A? ;)

Gast
2008-11-16, 12:26:11
Ich wiederhole mich noch einmal - die großen Lastunterschiede sind nur die Folge von CPU-Limits, und/oder Framelimit/Vsync. Es liegt kaum an der Anwendung. Was ist denn daran so schwer zu verstehen?

ist doch egal wodurch die unterschiede zustande kommen, fakt ist, dass sie vorhanden sind.

es sind übrigens nicht nur die von dir genannten ursachen, in einer GPU sind verschiedene einheiten verbaut die natürlich nicht zwangsweise alle ausgelastet sind.

ein altes DX7-spiel wird es wohl kaum schaffen die ALUs auszulasten, die TMUs schon eher.

dargo
2008-11-16, 12:35:00
ist doch egal wodurch die unterschiede zustande kommen, fakt ist, dass sie vorhanden sind.

Hä?
Ein Framelimit/Vsync oder auch CPU-Limit resultiert in Reduzierung der benötigten Grafikleistung. Das selbe kann man in etwa auch mit einer Senkung der Taktraten bei der Grafikkarte erreichen. Dass dann weniger Verlustleistung bei dieser erzeugt wird ist denke ich mal logisch.


es sind übrigens nicht nur die von dir genannten ursachen, in einer GPU sind verschiedene einheiten verbaut die natürlich nicht zwangsweise alle ausgelastet sind.

ein altes DX7-spiel wird es wohl kaum schaffen die ALUs auszulasten, die TMUs schon eher.
Ich sage auch nicht, dass neuere Games keine höhere Last erzeugen.
:)

deekey777
2008-11-16, 12:55:22
Hi Leute,

oft sieht man ja bei Grafikkartentest Strommessungen im Idle und 3D-Modus.
Ich bin aber jemand, der auch ältere 3D Spiele gerne spielt, also Unreal1, Half Life 1 und Tomb Raider 3.
Verbraucht die Grafikkarte bei solchen Spielen nun genauso viel, wie z.B. bei The Witcher oder hoffentlich weniger durch die niedrigere Belastung?
Anderseits wird sie ja automatisch im 3D-Modus hochgetaktet, unabhängig der geforderten Leistung denke ich mal.
Die beste W/L hat wohl die HD 3850...
Ein Grafikchip besteht aus zig verschiedenen Einheiten, die ihre eigenen Aufgaben ausführen. Davon sind viele FF und deshalb so effizient, dass zB die Zuschaltung von MSAA nicht so hart die Stromrechnung belastet als zB Furmark.

Wie hier schon erwähnt: Ein Spiel wie HL wird definitiv die Shader-ALUs nicht auslasten, aber vielleicht die TMUs (wir wollen ja mit AF 16x spielen) und die ROPs&Co (MSAA bis zum Einschlag). Selbst wenn man mit SSAA spielt, werden die Shader-ALUs auf andere Einheiten warten, bis sie was zu tun bekommen. Selbst bei heutigen Spielen kann man mittels verschiedener Tools sehen, wie bestimmte Einheiten auf andere warten müssen.

Und wenn man eine HD3800 hat, deren RV670 fähig ist, unausgelastete Einheiten herunterzutakten, ist der praktische Verbrauch noch niedriger.

Ein etwas anderes Beispiel: Folding at Home für GPUs (ATi). Das war die Lage so, dass bestimmte Projekte mit 544 Atomen eine so hohe CPU-Last verursachten, dass die CPU die Grafikkarte nicht schnell genug mit Daten versorgen konnte. Das hatte zur Folge, dass zB meine HD3850 nur zu 60 % ausgelastet wurde. Selbst wenn ich den GPU-Takt deutlich absenkte (zB auf 500 MHz), war die Grafikkarte immernoch schneller fertig, als die CPU sie mit Daten versorgen konnte. Das änderte sich schlagartig, wenn Projekte mit 1254 Atomen kamen, wo die Grafikkarte deutlich mehr zu tun hatte und die GPU-Auslastung bei 99% lag; auch die GPU-Temperatur stieg (man darf nicht vergessen, dass zB die TMUs dabei nichts zu tun haben, sprich die Temperatur von über 70° verursacht allein die Shaderlast).

Gast
2008-11-16, 13:21:01
(man darf nicht vergessen, dass zB die TMUs dabei nichts zu tun haben, sprich die Temperatur von über 70° verursacht allein die Shaderlast).

so ganz stimmt das nicht, TMUs sind im prinzip LOAD-einheiten die zusätzlich noch ein wenig interpolieren können. jeder lesende zugriff auf den VRAM erfolgt also über die TMUs. aber natürlich haben sie wesentlich weniger zu tun als in einem spiel, wo auch gefiltert werden muss.

Der HeinZ
2008-11-16, 14:58:46
Eine Frage:Was macht eigentlich der Furmark? Nur interesse halber, weil ich kenn den nicht. Nur man hört da immer von.

Und könnte man rein theoretisch nicht ein (Benchmark)Anwendungs-Programm schreiben (theoretisch wohl gemerkt) welches überprüft, welche einheiten einer GPU gerade belastet bzw. nicht belastet werden, und so dann in abhänigkeit der Belastung die Intensität oder Menge der Anweisungen (ich bin kein programmierer) die bestimmten Einheiten der GPU erhöht, so das alle Einheiten immer komplett ausgelastet sind und keine Einheit auf eine andere warten muss bzw. so kurz wie möglich warten muss, umso eine größtmögliche Auslastung zu erreichen?Dann wüßte man zumindest was die GPU bei maximaler Auslastung verbraucht. Und bitte keine Antwort wie: Nein das geht nicht... weil dann hätte ich die Frage ja nicht formulieren müssen.:D

Und man rennt doch immer in ein GPU bzw CPU limit, egal was man macht und wie man seinen rechner konfiguriert, da eines immer verhältniss mäßig zu stark bzw. zu schwach ist. Von daher finde ich kann man das so genau garnicht sagen.

Außer man hätte einen "Prozessor" der beides kann und dessen einheiten so flexibel sind, das sie sich automatisch in die verschiedenen Einheiten verändern, welche gerade benötigt werden, um eine maximale Auslastung des Systems zu Gewährleisten, was wiederum bedeuten würde das dieses System prüfen und festlegen bzw. verändern kann, welche arbeit ein bestimmte einheit übernhemen soll, in dem es den Code analysiert...-----> Ich sollte mal lieber die klappe halten, denn eigentlich hab ich garkeine Ahnung. off-Topic

Alte spiele (Directx 5 und 6) ohne Shader und T&L lasten Grafikarten nicht so stark aus wie neue Spiele, weil mannche einheiten nicht genutzt werden, selbst wenn man Gpu limitiert ist... und jetzt halt ich die Klappe!;D

Gast
2008-11-16, 17:46:51
Und könnte man rein theoretisch nicht ein (Benchmark)Anwendungs-Programm schreiben (theoretisch wohl gemerkt) welches überprüft, welche einheiten einer GPU gerade belastet bzw. nicht belastet werden, und so dann in abhänigkeit der Belastung die Intensität oder Menge der Anweisungen (ich bin kein programmierer) die bestimmten Einheiten der GPU erhöht, so das alle Einheiten immer komplett ausgelastet sind und keine Einheit auf eine andere warten muss bzw.

es gibt tools, die die auslastung der einzelnen gpu-teile anzeigen, womit man natürlich etwas programmieren könnte, was eine bestimmte GPU praktisch immer maximal auslastet (ähnlich den maxheat-tools für cpus)

Spasstiger
2008-11-16, 17:58:08
Wenn auch der Verbrauch des Gesamtsystems relevant ist und nicht nur der, der Grafikkarte:

http://img1.abload.de/img/test58ai.gif

Quelle: http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3453&p=3

Die Spanne reicht beim Core-i7-System mit einer GeForce GTX 280 von 225 Watt bis 302 Watt in aktuellen Spielen. Beim Core 2 Quad ist die Spanne etwas kleiner, weil der Core 2 Quad keine einzelnen Cores lastabhängig "runterfahren" kann.

Der HeinZ
2008-11-17, 16:37:04
es gibt tools, die die auslastung der einzelnen gpu-teile anzeigen, womit man natürlich etwas programmieren könnte, was eine bestimmte GPU praktisch immer maximal auslastet (ähnlich den maxheat-tools für cpus)

Aha so eine Antwort hab ich mir gewünscht, hmm dann kann es doch eigentlich nicht mehr lange dauern bis jemand soetwas bastelt, da GPU ja CPU im Stellenwert immer näher kommt. Danke für die NAwort trotz meiner verwirrten Formulierung.