PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stromverbrauch Windows-Vista-3D-Desktop?


Sumpfmolch
2006-02-10, 17:54:36
gibts da schon messungen wie viel mehr an strom der umstieg auf 3d verbrauchen wird ?

eine radeon 1800xt hat laut xbit folgende werte:

idle: ~30watt
2d peak: ~50watt
3d peak: ~100watt

kann man mit dem vergleich der peak-werte schon aussagen treffen ob/inwiefern der stromverbrauch ansteigen wird ?

Gast
2006-02-10, 18:43:50
Hatten wir doch neulich schon nen ähnlichen Thread...hmm glaub der hier wars: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=276907

Gast
2006-02-10, 21:46:56
theoretisch eher weniger als jetzt, da die grafikkarte die oberfläche effizienter und damit mit geringerem stromverbrauch berechnen kann.

damit das so ist muss der desktop natürlich nicht wie ein spiel immer mit der maximal möglichen geschwindigkeit gezeichnet werden, sondern mit einer maximal sinnvollen framerate. bei einem standbild muss natürlich nicht jedesmal der gesamte desktop neu berechnet werden, sondern es wird immer das gleiche bild dargestellt, bzw. nur die veränderung neuberechnet.

wie effizient das vom OS bzw. vom grafiktreiber umgesetzt ist lässt sich natürlich schwer vorhersagen, aber ich denke dass der stromverbrauch zumindest nicht steigen wird.

tokugawa
2006-02-10, 22:15:41
Genau, der Unterschied zwischen Spiele- und GUI-Programmierung heißt in der Regel:

- Spiel rendert so viele Frames wie möglich in seiner Gameloop
- eine GUI aber verwaltet in der Regel "Dirty" Regions, also Bereiche die (durch Aktionen/Verschieben oder was auch immer dort) "verschmutzt" wurden und neu gezeichnet werden müssen. Das ist bei der bisherigen Windows GUI schon so (da wird auch nicht der gesamte Bildschirm komplett neu gezeichnet bloß weil ein einziger Button gepresst wurde) -> d.h. die Last dürfte schon niedriger sein. Aber die Karte wird wohl im "3D-Modus" laufen (obwohl da wohl in den Treibern eventuell für den "Desktop 3D Modus" ein "sparsamer 3D-Modus implementiert werden könnte).

Demirug
2006-02-10, 22:27:40
Die Kompostion läuft mit der vollen oder halben Monitor Frequenz. Allerdings scheint es da eine Optimierung zu geben das nichts getan wird wenn sich nichts geändert hat.

Zephyroth
2006-02-10, 23:57:31
Ich habe genau unter diesem Gesichtspunkt mal Blender (ein Raytrace-Programm, mit 3d Oberfläche, auf WinXP) angeworfen und auf die Grafikkartentemperaturen geachtet.

Fazit:

Nix ist passiert, die Karte hat nur dann was neu gezeichnet wenn auch etwas bewegt wurde. Da wurde sie dann gerade mal 2°C heißer als im Idlezustand.
Genauso wird das hoffentlich bei Windows Vista funktionieren...

Das beste war ich konnte meine Grafikkarte "knurren" hören. Das waren die Stromstöße die die GPU gebraucht hat um das Bild zu aktualisieren...

Drehen des 3d Bildes: krrrr-krrr-krrr ..... echt lustig....

Grüße,
Zeph

Monger
2006-02-11, 18:20:40
Ich vermute mal, da wird sich zukünftig auch noch was in den Treibern tun.

Eine Grafikkarte, die ihren Stromverbrauch nach dem Bedarf ausrichtet, wäre ja ganz allgemein wünschenswert. Wäre es nicht ziemlich schick, wenn die Grafikkarte sich genau so takten würde wie die derzeitige Anwendung es gerade verlangt?
Uraltspiele, die mit weit über 100 fps laufen, könnten z.B. auf ein (immer noch gesundes Maß) runtergebremst werden, um dafür Lautstärke und Stromverbrauch zu reduzieren.

Davon sind wir wohl noch weit weg, aber ich denke, je breiter die Anforderungen an Grafikkarten werden, und je mehr Kühlung und Stromverbrauch eine Rolle spielen werden, desto realistischer wird dieses Szenario.

Benedikt
2006-02-11, 18:58:18
Ich vermute mal, da wird sich zukünftig auch noch was in den Treibern tun.

Eine Grafikkarte, die ihren Stromverbrauch nach dem Bedarf ausrichtet, wäre ja ganz allgemein wünschenswert. Wäre es nicht ziemlich schick, wenn die Grafikkarte sich genau so takten würde wie die derzeitige Anwendung es gerade verlangt?
Uraltspiele, die mit weit über 100 fps laufen, könnten z.B. auf ein (immer noch gesundes Maß) runtergebremst werden, um dafür Lautstärke und Stromverbrauch zu reduzieren.

Davon sind wir wohl noch weit weg, aber ich denke, je breiter die Anforderungen an Grafikkarten werden, und je mehr Kühlung und Stromverbrauch eine Rolle spielen werden, desto realistischer wird dieses Szenario.

Dachte auch schon an sowas ähnliches (Grafikkarte stellt sich in mehreren Stufen je nach Last ein). Aber ich denke, auf den Stromverbrauch hätte das wohl keine allzugroßen Auswirkungen:
Ich bin mir fast sicher, dass eine moderne Grafikkarte bei Shaderintensiven Spielen wie FEAR mehr Leistung verbrät als bei z. B. Half-Life I. Es wird zwar immer gesagt bei ner Graka gäb's nur 2D und "Vollleistung" (vom Stomverbrauch her), aber es wird wohl je nach interner Auslastung durchaus Unterschiede geben, je nach Spiel. Glaube ich zumindest.

Gast
2006-02-11, 19:13:05
es wäre vor allem auch bei notebook-gpus für spiele interessant beispielsweise im akkubetrieb nur bis zu einer einstellbaren fps-grenze zu rendern und die GPU entsprechend runterzutakten.

am besten wäre natürlich das ganze noch mit der cpu zu kombinieren, und entsprechend der limitierung das wartende gerät herunterzudrosseln.

Benedikt
2006-02-23, 00:08:49
Der Vista-Desktop soll also laut einhelliger Meinung stromsparender, oder drücken wir es mal anders aus, "effizienter" im Sinne auf HW-Auslastung sein (Verschiebung der Last CPU->GPU). Ich halte das mal ganz provokant für eine Legende. Warum?

Komplexität: Der Vista-Desktop ist doch per se um einiges komplexer designt als alles bisherig verfügbare, mehr eye candy, mehr Effekte und Animationen. Deshalb ist es für mich unverständlich, wie ein graphisch komplexerer Desktop zu der Aussage verleiten kann, das System würde "effizienter" mit dem Energiehaushalt umgehen. Das ist doch ein klassisches Oxymoron. Theoretisch vielleicht bei vergleichbarer Komplexität zur bisherigen Luna-Oberfläche von Windows XP, die einfach 1:1 in Vista und 3D-HW-Beschleunigung überführt wird. Aber Aero-Glass?
Kombinierter Energieverbrauch: Kann mal jemand mit nem Wattmeter nachmessen, ob bei aktiviertem Aero-Glass der Gesamtenergieverbrauch wirklich nicht ansteigt, oder nur in geringem Maße?
2D schluckt praktisch keine CPU-Last: Auch wenn die GPU für Grafikoperationen besser geeignet ist als der Hauptprozessor, so ist doch zumindest bei mir unterm Standard-2D-Desktop von Windows XP bei Fensteroperationen fast gar keine CPU-Lastveränderung (so um die 15%) feststellbar. Moderne Prozessoren verdauen diese Grafikoperationen also "mit Links", quasi nebenher. Ob das mit den von der GPU berechneten 3D-Spielereien des Vista-Desktops auch so sein wird?
Treibereien: Die Treiber müssen Mitspielen. Beherrscht LDDM stromsparenden "non-gaming-Betrieb"? Inwieweit läuft die Grafikkarte in vollem 3D-Betrieb? Was passiert bei statischem Desktop ohne Veränderung? Sind derzeit aktuelle Grafikkarten überhaupt für Teillastbetrieb ("UI-Rendering") ausgelegt, oder gibt's hier sowieso nur "2D" und "volle Power"?
Lüfter: Das ist für mich eine gewichtige Frage: Werden wir vom schnell laufenden 3D-Lüftertempo beglückt, wie es derzeit schon bei Java-Anwendungen oder OGL-Oberflächen der Fall ist? Wäre nämlich nicht so prall, deswegen weil's viele geregelte Grafikkarten gibt... Wie handhabt das LDDM?
Was meint ihr dazu?

looking glass
2006-02-23, 00:41:08
Sry, aber ich wage auch zu bezweifeln, das es keinen signifikanten anstieg des Stromverbrauch geben wird, ganz einfach deswegen, weil die jetzige Hardware (sprich Grakas) gar nicht in der Lage sein wird, da irgend was runterzuregeln im 3D Betreib und das wird das Krux werden. Ich denke, ein solches 3D Stromsparfeature wird erst mit den dann neuen Dx10 Karten kommen, treiberseitig unterstützt wird sowas sicherlich werden, aber soweit ich das weiss, sind die GPUs noch meilenweit entfernt davon, sowas wie die heutigen CPUs an Stromsparrtechnik inne zu haben und ohne sowas, gibts entweder nur 2D und 3D Vollast.

wobei es natürlich durchaus sein kann, das durch einen "dreckigen Hack" die 3D Aero Oberfläche dann im 2D Betreib von den heutigen Grakas berechnet wird (wobei ich bezweifle, das sie dafür genug 2D Power haben).

Um ehrlich zu sein, versteh ich das ganze 3D Geblarre nicht ganz. Das die Darstellungsberechnungen in die Graka wandern, ist ja schön und gut, aber was soll das gehample mit Schattenwurf, Transparenzen usw. in Hinblick auf Benutzbarkeit bringen? Das Icons nun anstatt auf Pixeltechnik, auf Vektortechnik umgestellt wird, ist für mich sehr sinnvoll, das die Schriftberechnung besser wird, ist für mich sinnvoll, das die GUI nicht mehr statisch, sondern dynamisch wird und sich den Grössenanpassungen von Bildschirmauflösung, Schrift/Icongrösse in der GUI nicht mehr negativ bemerkbar machen, find ich sinnvoll, aber was zur Hölle sollen einem animierte Fenster bringen? sie sehen hüpsch aus, na und...

Ich sehe es durchaus kommen, das bei heutiger Technik das Aerotheme so dermassen Leistung ziehen wird, das viele diesen Quark einfach abschalten werden, ganz einfach, weil sie keinen Bock auf eine Grundlast von 15 bis 20% haben, die umsonst ständig verbraten wird, ohne einen Nutzen zu haben.

Jedoch, trotz dieser Kritik, sehe ich auch das positive daran, den so, denk ich, werden Nvidia und ATI gezwungen sein, endlich dynamische Stromspartechnologien in ihre Technik einzubauen, was dann ja allen zu gute kommt, auch wen man Aero nicht nutzt.

tokugawa
2006-02-23, 00:42:30
Der Vista-Desktop soll also laut einhelliger Meinung stromsparender, oder drücken wir es mal anders aus, "effizienter" im Sinne auf HW-Auslastung sein (Verschiebung der Last CPU->GPU). Ich halte das mal ganz provokant für eine Legende. Warum?


Das hast du falsch verstanden. "effizienter" nicht im Vergleich zum 2D Desktop. Sondern im Vergleich zu einem 3D-Spiel.

Schon alleine die Art wie in der Regel eine GUI gerendert wird (On-Demand bei "schmutzig"-Machung einer Bildschirmregion, und nicht immer den gesamten Bildschirm in jedem Frame, und noch dazu so oft wie möglich).

Beispiel:
Wenn sich in einer GUI gar nichts bewegt am Bildschirm, wird auch nicht neu gerendert. Bei Spielen dagegen schon.

Das macht denk ich einiges aus.

Hinzu kommt wie gesagt die Spekulation dass es dafür einen eigenen "3D Modus" geben wird, der runtergetaktet ist. Das müsste vom Treiber ziemlich leicht gehen -> schon heute kann man ja über den Treiber übertakten. Hier zu untertakten per Treiber, und zwar als eigener "3D-GUI Modus", sollte kein Problem sein.

Benedikt
2006-02-23, 01:31:23
Das hast du falsch verstanden. "effizienter" nicht im Vergleich zum 2D Desktop. Sondern im Vergleich zu einem 3D-Spiel.

Schon alleine die Art wie in der Regel eine GUI gerendert wird (On-Demand bei "schmutzig"-Machung einer Bildschirmregion, und nicht immer den gesamten Bildschirm in jedem Frame, und noch dazu so oft wie möglich).

Beispiel:
Wenn sich in einer GUI gar nichts bewegt am Bildschirm, wird auch nicht neu gerendert. Bei Spielen dagegen schon.

Das macht denk ich einiges aus.

Hinzu kommt wie gesagt die Spekulation dass es dafür einen eigenen "3D Modus" geben wird, der runtergetaktet ist. Das müsste vom Treiber ziemlich leicht gehen -> schon heute kann man ja über den Treiber übertakten. Hier zu untertakten per Treiber, und zwar als eigener "3D-GUI Modus", sollte kein Problem sein.
Ja, alle heruntergetakteten 3D-Modi in Ehren, nur bildlich gesprochen werkeln bei Aero Glass eben nicht nur ein Gerät (CPU) sondern plötzlich zwei Geräte (CPU, GPU). Und wir alle wissen, dass zwei Geräte aufgrund des Overheads (Spannungswandler, Leckströme) eben mehr als zweimal soviel Energie wie ein Gerät verbrauchen. Schon von daher stellen sich bei mir bei der Geschichte die Nackenhaare auf. Ich hab einfach noch aus meiner Ausbildungszeit immer noch im Hinterkopf, dass das Verteilen der Last auf zwei "Stationen" energietechnisch nicht allzu sinnvoll sein kann.

wobei es natürlich durchaus sein kann, das durch einen "dreckigen Hack" die 3D Aero Oberfläche dann im 2D Betreib von den heutigen Grakas berechnet wird (wobei ich bezweifle, das sie dafür genug 2D Power haben).
Ne, also das funzt bestimmt nicht weil die 2D-Parts AFAIK eben nur dezidierte Einheiten für Standard-2D sind.

Mailwurm
2006-02-23, 01:32:23
Apple hat schon seit Jahren einen OpenGL beschleunigten Desktop und kann trotzdem Laptops mit ausreichender Laufzeit bauen. Es kann also nicht so viel sein.

Mein älteres iBook G3 mit 800MHz und Radeon Mobility M7 (7500) mit 32 MB hatte mit neuem Akku über 5h Laufzeit, inzwischen sind es mit 3 Jahre alten Akku so 3,5h.

P.S. Im normalen Desktop-Betrieb geht auch der Lüfter nicht an, erst wenn man länger compiliert oder eine 3D-Anwendung (Spiel) laufen hat, dann geht er nach etwa 30 min an.

looking glass
2006-02-23, 02:06:17
Würd mich mal interessieren, ob Apple das in die GPU verschoben hat, oder das in der CPU gehändelt wird (hab von Apple nicht viel Ahnung), zumal sie, soweit ich mich erinnere, das alles ja auf, öhm, wars PDF? Basis dann auf den Desktop zaubern.

Wie dem auch sei, sorry, das ich das so sage, aber wir reden hier von MS, nicht von Apple - die Erfahrung lehrt einen einfach, das MS da nicht unbedingt ein Vorreiter von effizienter Programmgestaltung ist und etwaige Probleme sehr gern auf Dritte abwälzt (das Problem dann also die Grakahersteller an der Backe haben).

Muss man wohl abwarten, was da kommt, ich hab diesbezüglich noch keine Testwerte aus den Vista Betas gefunden, die etwas Klarheit verschaffen würden, ich gehe jedoch durchaus davon aus, das die Mehrbelastung bei c.a. 15 - 20 Watt liegen werden und ein Notebook z.b. im Bateriebetrieb zwecks Resourcenschonung auto. auf etwas anderes als Aero umschwenken wird.

Mailwurm
2006-02-23, 02:10:31
Da gab da je nach Mac OS X Version verschiedene Stufen, wieviel von der CPU auf die GPU umgeschichtet wird. Bei den ersten Versionen von Mac OS X war es noch sehr wenig. Ich bin mit 10.2.x eingestiegen und 10.3.x brachte einen deutlichen Geschwindigkeitszuwachs der GUI, was durch eine höhere Verlagerung von der CPU zur GPU hin erreicht wurde.

Eventuell steht hier näheres: http://arstechnica.com/reviews/os/macosx-10.4.ars/13 ff.

looking glass
2006-02-23, 02:37:36
Jetzt versteh ich auch, warum es immer hiess, 10.x (ausser nun 10.4) wäre irgendwie sehr zäh und träge, was die GUI anbelangt (vor allen in den ersten 10.x Versionen), trotz der G5s und vor allem auf älteren G3 und G4s.

Aber wen man sich mal ansieht, wie, nun ja, lange Apple daran schon gewerkelt hat, ums nun auf den Stand zu bringen, wie es jetzt ist, mhhh, warum zweifle ich daran, das MS diesen Weg nicht ebenfalls beschreiten wird werden müssen...

Zephyroth
2006-02-23, 10:11:29
Ich hab's oben schon geschrieben, bei einem 3d-beschleunigtem Programm (Blender3d, OpenGL) tut die Grafikkarte nur etwas wenn der Bildinhalt aktualisiert werden muß. Steht alles (und das ist die meiste Zeit der Fall), dann braucht die Karte auch nicht mehr Strom!

Ich hab's zwar nicht mit einem Wattmeter gemessen, aber am Anstieg der GPU-Temperatur gesehen. Diese ist nur angestiegen gegenüber dem Idle-Zustand wenn ich eine Ansicht bewegt habe (und dann nur ganz wenig). Allerdings konnte man die Spannungsregler auf der Grafikkarte hören (ein leises Knurren), die eben zwischen Volllast und Idle ausregeln müssen.

Grüße,
Zeph

Monger
2006-02-23, 10:36:00
...
Komplexität:

Was verstehst du unter Komplexität? Vom Informationsgehalt her ist eine Vektorgrafik WESENTLICH simpler als eine Bitmapgrafik. Runde, geschwungene Formen sind für sich betrachtet noch lange nicht komplexer als ein Rechteck. Tatsächlich braucht ein Rechteck mindestens drei Parameter (Länge, Breite, Mittelpunkt), ein Kreis dagegen nur zwei (Radius, Mittelpunkt).
Auch ein Farbverlauf ist jetzt eben keine Textur, sondern eine mathematische Beschreibung eines Farbübergangs.

Komplexität hat nicht zwingend was mit Schönheit zu tun. Den selben Irrtum gabs ja über das Luna-Design: viele haben das ja abgeschaltet, weil sie gedacht haben es verbraucht mehr Speicher. Tatsächlich ist die Texturierung nur etwas anders, aber es ist ebenso komplex wie das Classic Design - und damit keinen Deut langsamer.

Ganon@work
2006-02-23, 10:41:15
Da gab da je nach Mac OS X Version verschiedene Stufen, wieviel von der CPU auf die GPU umgeschichtet wird. Bei den ersten Versionen von Mac OS X war es noch sehr wenig. Ich bin mit 10.2.x eingestiegen und 10.3.x brachte einen deutlichen Geschwindigkeitszuwachs der GUI, was durch eine höhere Verlagerung von der CPU zur GPU hin erreicht wurde.

Nicht nur damit. Auch die CPU-Abteilung wurde in Panther/Tiger beschleunigt... ;)

Quartz2D wurde in 10.4 ja mächtig aufgemöbelt. Und in 10.5 wird es wohl komplett Hardware-beschleunigt. Das ist in Tiger ja noch deaktiviert/instabil/ungenau.

tokugawa
2006-02-23, 11:46:25
Ja, alle heruntergetakteten 3D-Modi in Ehren, nur bildlich gesprochen werkeln bei Aero Glass eben nicht nur ein Gerät (CPU) sondern plötzlich zwei Geräte (CPU, GPU). Und wir alle wissen, dass zwei Geräte aufgrund des Overheads (Spannungswandler, Leckströme) eben mehr als zweimal soviel Energie wie ein Gerät verbrauchen. Schon von daher stellen sich bei mir bei der Geschichte die Nackenhaare auf. Ich hab einfach noch aus meiner Ausbildungszeit immer noch im Hinterkopf, dass das Verteilen der Last auf zwei "Stationen" energietechnisch nicht allzu sinnvoll sein kann.


Wie gesagt: im Vergleich zu einem 3D Spiel (wo auch zwei Einheiten werken, aber da mit voller Power).

Im Vergleich zu reinem 2D verbraucht es sicher mehr. Das bezweifelt auch keiner. Aber darum geht's nicht. Es geht um den Vergleich zum Verbrauch bei maximaler 3D-Last (Spiel). Und da wird's höchstwahrscheinlich weniger werden.

Benedikt
2006-02-23, 16:45:14
Was verstehst du unter Komplexität? Vom Informationsgehalt her ist eine Vektorgrafik WESENTLICH simpler als eine Bitmapgrafik. Runde, geschwungene Formen sind für sich betrachtet noch lange nicht komplexer als ein Rechteck. Tatsächlich braucht ein Rechteck mindestens drei Parameter (Länge, Breite, Mittelpunkt), ein Kreis dagegen nur zwei (Radius, Mittelpunkt).
Auch ein Farbverlauf ist jetzt eben keine Textur, sondern eine mathematische Beschreibung eines Farbübergangs.

Komplexität hat nicht zwingend was mit Schönheit zu tun. Den selben Irrtum gabs ja über das Luna-Design: viele haben das ja abgeschaltet, weil sie gedacht haben es verbraucht mehr Speicher. Tatsächlich ist die Texturierung nur etwas anders, aber es ist ebenso komplex wie das Classic Design - und damit keinen Deut langsamer.
Komplexität im Sinne von darzustellenden Effekten bzw. Rechenaufwand, welcher bei Aero Glass sicher summa summarum größer ist als bei Luna.

Wie wird das eigentlich bei klassischen "legacy" Windows-Anwendungen gehandhabt? Werden die auch in eine Textur gerendert?
Und was bei Windows Vista bei Fenster-Größenänderungen passiert, das hab ich auch noch nicht ganz kapiert: Skaliert da das ganze Fenster mitsamt dem Inhalt ("alles wird größer, die Schrift, die Benutzerelemente") oder ähnlich wie bei XP bei fixer Schrift- und Benutzerelementgröße ("das Fenster wird größer, die Schriftgröße und so bleibt aber gleich")?

Coda
2006-02-23, 16:50:23
Komplexität im Sinne von darzustellenden Effekten bzw. Rechenaufwand, welcher bei Aero Glass sicher summa summarum größer ist als bei Luna.Wohl kaum. Die Grafikkarten rechnen das alles zum Frühstück aus ;)

Wie wird das eigentlich bei klassischen "legacy" Windows-Anwendungen gehandhabt? Werden die auch in eine Textur gerendert?Ja muss. Sonst würde das alles nicht funktionieren.

Und was bei Windows Vista bei Fenster-Größenänderungen passiert, das hab ich auch noch nicht ganz kapiert: Skaliert da das ganze Fenster mitsamt dem Inhalt ("alles wird größer, die Schrift, die Benutzerelemente") oder ähnlich wie bei XP bei fixer Schrift- und Benutzerelementgröße ("das Fenster wird größer, die Schriftgröße und so bleibt aber gleich")?Wie bei XP. Das würde ja nicht funktionieren was du meinst.

Avalox
2006-02-23, 17:05:18
Die Darstellung der Oberfläche wird sich doch mal hoffentlich in der Grösse vernünftig skalieren lassen?

Wie wird sich die Performance des Texture Renderings im Vergleich zu heutigen 2D Beschleunigern verhalten? Wie weit werden die Draw Primitives und Blockoperationen von der Grafikkarte dann noch selbst ausgeführt?

stav0815
2006-02-23, 17:11:06
Ich habe genau unter diesem Gesichtspunkt mal Blender (ein Raytrace-Programm, mit 3d Oberfläche, auf WinXP) angeworfen und auf die Grafikkartentemperaturen geachtet.

Fazit:

Nix ist passiert, die Karte hat nur dann was neu gezeichnet wenn auch etwas bewegt wurde. Da wurde sie dann gerade mal 2°C heißer als im Idlezustand.
Genauso wird das hoffentlich bei Windows Vista funktionieren...

Das beste war ich konnte meine Grafikkarte "knurren" hören. Das waren die Stromstöße die die GPU gebraucht hat um das Bild zu aktualisieren...

Drehen des 3d Bildes: krrrr-krrr-krrr ..... echt lustig....

Grüße,
Zeph

Das war aber nicht deine Grafikkarte weil Raytracing komplett per CPU gemacht wird. Nur Rendering Engines wie die von 3DS können per OpenGL das Ding beschleunigen. Aber auch nur wenn ein dedizierter Rendering Vorgang gestartet wird.

Coda
2006-02-23, 17:29:21
Blender benützt aber auch OpenGL um die Oberfläche darzustellen.

Zum Thema: Ich denke Vista wird beim Desktop die GPU auf 2D-Kerntakt lassen, also nichts was zu starker Hitzeentwicklung führen wird. Ansonsten wird eine GeForce FX 5800 Ultra die Hölle damit :D

Demirug
2006-02-23, 17:40:52
Die Darstellung der Oberfläche wird sich doch mal hoffentlich in der Grösse vernünftig skalieren lassen?

Jaein. Altanwendungen (GDI) skalieren durch einfaches vergrößeren/verkleinern der Texture. Bei neuen Anwendungen die mit WPF programmiert werden skaliert alles korrekt da weitgehend nur noch Vektoren benutzt werden.

Wie wird sich die Performance des Texture Renderings im Vergleich zu heutigen 2D Beschleunigern verhalten? Wie weit werden die Draw Primitives und Blockoperationen von der Grafikkarte dann noch selbst ausgeführt?

Im Prinzip ändert sich da nicht allzu viel. Die programme zeichnen eben nur nicht mehr direkt auf den Frontbuffer sondern in einen eigenen Bereich.

Benedikt
2006-02-23, 18:31:28
Jaein. Altanwendungen (GDI) skalieren durch einfaches vergrößeren/verkleinern der Texture. Bei neuen Anwendungen die mit WPF programmiert werden skaliert alles korrekt da weitgehend nur noch Vektoren benutzt werden.

Das kommt mir jetzt irgendwie widersprüchlich zu Codas Aussage vor:
Wie bei XP. Das würde ja nicht funktionieren was du meinst.
Das muss ja dann "klasse" aussehen, wenn man á la nicht native TFT-Auflösung schön unscharfe Fensterchen bekommt, wenn man mal in der Ecke ankommt und das Fenster größer zieht. Ne, das kann nicht so sein. Eher so wie Coda meint - das wäre logischer.

Oder unterscheidest du zwischen "Skalieren" (Systemweite Schriftgrößen-Einstellung z. B., Benutzerelemente wachsen automatisch mit) und "Skalieren" (Fenster größer/kleiner machen)?

Demirug
2006-02-23, 18:43:59
Das kommt mir jetzt irgendwie widersprüchlich zu Codas Aussage vor:

Das muss ja dann "klasse" aussehen, wenn man á la nicht native TFT-Auflösung schön unscharfe Fensterchen bekommt, wenn man mal in der Ecke ankommt und das Fenster größer zieht. Ne, das kann nicht so sein. Eher so wie Coda meint - das wäre logischer.

Oder unterscheidest du zwischen "Skalieren" (Systemweite Schriftgrößen-Einstellung z. B., Benutzerelemente wachsen automatisch mit) und "Skalieren" (Fenster größer/kleiner machen)?

Ja genau da gibt es Unterschiede. Wenn man das Fenster direkt größer zieht bleibt natürlich alles wie es ist. Mein skalieren bezog sich auf das was die Oberfläche damit noch anstellen kann. Zum Beispiel den Taschenrechner auf Fullscreen hochziehen.

Coda
2006-02-23, 18:58:43
Wird eigentlich weiterhin für ältere Programme der 2000-Look verwendet wie unter Win XP wenn kein Manifest vorhanden ist, dass die neue Comctrl-DLL verlangt?

Gast
2006-02-23, 21:21:06
Der Vista-Desktop soll also laut einhelliger Meinung stromsparender, oder drücken wir es mal anders aus, "effizienter" im Sinne auf HW-Auslastung sein (Verschiebung der Last CPU->GPU). Ich halte das mal ganz provokant für eine Legende. Warum?


geringer wird der stromverbrauch wohl kaum werden, allerdings auch nicht ansteigen.


[list]
Komplexität: Der Vista-Desktop ist doch per se um einiges komplexer designt als alles bisherig verfügbare, mehr eye candy, mehr Effekte und Animationen. Deshalb ist es für mich unverständlich, wie ein graphisch komplexerer Desktop zu der Aussage verleiten kann, das System würde "effizienter" mit dem Energiehaushalt umgehen. Das ist doch ein klassisches Oxymoron. Theoretisch vielleicht bei vergleichbarer Komplexität zur bisherigen Luna-Oberfläche von Windows XP, die einfach 1:1 in Vista und 3D-HW-Beschleunigung überführt wird. Aber Aero-Glass?


für eine graka wird mehraufwand wohl kaum relevant sein.


2D schluckt praktisch keine CPU-Last: Auch wenn die GPU für Grafikoperationen besser geeignet ist als der Hauptprozessor, so ist doch zumindest bei mir unterm Standard-2D-Desktop von Windows XP bei Fensteroperationen fast gar keine CPU-Lastveränderung (so um die 15%) feststellbar. Moderne Prozessoren verdauen diese Grafikoperationen also "mit Links", quasi nebenher. Ob das mit den von der GPU berechneten 3D-Spielereien des Vista-Desktops auch so sein wird?


das gilt nur so lange sich nichts verändert, sogar wenn du nur den taskmanager schnell durch die gegend ziehst kommst du mit jeder cpu locker auf 100% auslastung (wenn auch nur kurzfristig).

die niedrige auslastung gilt nur wenn kaum was zu tun ist, und wenn sie nichts tun braucht, verbraucht die graka auch kaum mehr strom.


Treibereien: Die Treiber müssen Mitspielen. Beherrscht LDDM stromsparenden "non-gaming-Betrieb"? Inwieweit läuft die Grafikkarte in vollem 3D-Betrieb? Was passiert bei statischem Desktop ohne Veränderung? Sind derzeit aktuelle Grafikkarten überhaupt für Teillastbetrieb ("UI-Rendering") ausgelegt, oder gibt's hier sowieso nur "2D" und "volle Power"?


davon ist eigentlich auszugehen, wenn man für jedes programm ein eigenes profil im treiber realisieren kann, sollte auch das kein problem darstellen.

und selbst wenn die karte mit vollem takt laufen sollte (wie z.b. 6800er serie) würde sie beim "nichtstun" auch auf dem 3d-desktop nicht mehr brauchen als bei einem 2d-desktop.

Benedikt
2006-02-23, 22:24:11
Ja genau da gibt es Unterschiede. Wenn man das Fenster direkt größer zieht bleibt natürlich alles wie es ist. Mein skalieren bezog sich auf das was die Oberfläche damit noch anstellen kann. Zum Beispiel den Taschenrechner auf Fullscreen hochziehen.
Hmhm. Verstehe.

Das bedeutet also auch, dass alle Anwendungen, die nicht explizit mit Avalon erstellt wurden, das "echte" stufenlose Skalieren nicht unterstützen. Muss hier echt wieder mal alles komplett neu erstellt werden, damits reibungslos funktioniert?
Oder gibt's wenigstens erweiterte Kompatiblität, 'nen Wrapper oder sowas für die letzte Generation von Windows-XP-Anwendungen oder .net (falls das einen Unterschied macht)?

Demirug
2006-02-23, 23:03:49
Hmhm. Verstehe.

Das bedeutet also auch, dass alle Anwendungen, die nicht explizit mit Avalon erstellt wurden, das "echte" stufenlose Skalieren nicht unterstützen. Muss hier echt wieder mal alles komplett neu erstellt werden, damits reibungslos funktioniert?
Oder gibt's wenigstens erweiterte Kompatiblität, 'nen Wrapper oder sowas für die letzte Generation von Windows-XP-Anwendungen oder .net (falls das einen Unterschied macht)?

GDI ist pixel orientiert das kann man nicht so einfach in ein Vektor orientiertes System biegen. Im Prinzip bleibt für die altanwedungen alles wie es ist. Das skalieren (falls notwendig) wird eben über den Texture filter gemacht.

Zudem wird es auch noch für Vista viele GDI anwendungen geben. WPF nimmt man vorallem wenn es richtig hübsch werden soll.

tokugawa
2006-02-23, 23:14:31
Das war aber nicht deine Grafikkarte weil Raytracing komplett per CPU gemacht wird. Nur Rendering Engines wie die von 3DS können per OpenGL das Ding beschleunigen. Aber auch nur wenn ein dedizierter Rendering Vorgang gestartet wird.

Es geht nicht um den Rendering-Vorgang, sondern um die Interaktion in der Modellier-Bedienoberfläche, die sehr wohl per Hardwarebeschleunigung beschleunigt wird.

Zephyroth
2006-02-24, 02:39:49
Das war aber nicht deine Grafikkarte weil Raytracing komplett per CPU gemacht wird. Nur Rendering Engines wie die von 3DS können per OpenGL das Ding beschleunigen. Aber auch nur wenn ein dedizierter Rendering Vorgang gestartet wird.

So weit bin ich auch. Die Bedienoberfläche von Blender und die 3d Ansichten (Grundriß, Aufriß, Seitenriß und Preview, wahlweise sogar mit Texturen) mit dem Gittermodell sind wärend des Editieren und Erstellen OpenGL beschleunigt. Und dabei habe ich mir die GPU-Temperaturen angesehen, nicht beim eigentlichen Rendervorgang, der natürlich von der CPU durchgeführt wird.

Und glaub mir, ich kenne es ohne 3d-Beschleunigung, das ist sehr zäh....

Grüße,
Zeph

Benedikt
2006-02-24, 13:19:46
So weit bin ich auch. Die Bedienoberfläche von Blender und die 3d Ansichten (Grundriß, Aufriß, Seitenriß und Preview, wahlweise sogar mit Texturen) mit dem Gittermodell sind wärend des Editieren und Erstellen OpenGL beschleunigt. Und dabei habe ich mir die GPU-Temperaturen angesehen, nicht beim eigentlichen Rendervorgang, der natürlich von der CPU durchgeführt wird.

Und glaub mir, ich kenne es ohne 3d-Beschleunigung, das ist sehr zäh....

Grüße,
Zeph
OT: Nett, übrigens, dass du die Spannungsregler auf deiner Grafikkarte hören kannst! ;) Obwohl, konnte die bei meinem Centrino-Notebook auch manchmal hören (Quietschton, ganz leise)...