PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum gibts keine stromsparenden High-End Grafikkarten?


GUNDAM
2007-03-09, 18:39:36
Ich bin schon seit einer ganzen weile am überlegen, warum es eigentlich keine stromsparenden High-End Grafikkarten gibt. Den jetzt, wo alle von Klimawandel und Energie sparen reden, währe es doch auch langsam mal angebracht auch die High-End Grafikkarten stromsparender zu machen. Den technisch müßte sowas doch möglich sein, den bei CPUs geht es ja auch (bestes Beispiel Conroe mit nem TDP von 65W).

Warum kann es also nicht auch High-End Grafikkarten mit nem TDP von 65W geben?

Black-Scorpion
2007-03-09, 18:43:00
Wie viele Transistoren hat die CPU?
Wie viele davon sind Cache?
Und das Vergleiche mit aktuellen GPUs und du wirst selbst merken warum der Vergleich hinkt.

ZipKaffee
2007-03-09, 19:03:52
Aber könnte man nicht im 2D Modus die Spannung senken oder macht man das schon?!

Gast
2007-03-09, 19:08:36
Warum kann es also nicht auch High-End Grafikkarten mit nem TDP von 65W geben?

Weil es dann keine HighEnd-Karte mehr wäre.
65W TDP gibt es überlicherweise im Mainstream.

dargo
2007-03-09, 19:11:11
Aber könnte man nicht im 2D Modus die Spannung senken oder macht man das schon?!
Natürlich passiert das schon länger. ATI macht dies seit dem R520 (oder sogar früher?). Bei G80 passiert das leider nicht, war angeblich eine Designentschiedung von NV. Der NV40 beherrschte es auch, beim G71 weiß ich es nicht.

Weil es dann keine HighEnd-Karte mehr wäre.
65W TDP gibt es überlicherweise im Mainstream.
Hier muss man aber einiges unterscheiden. Die 65W TDP beziehen sich nur auf die CPU. Wenn man das auf die Grafikkarte überträgt verbrät eine aktuelle GPU @G80 nicht viel mehr (ist immerhin ein 90nm vs. 65nm Vergleich). Da aber eine Graka nicht nur von der GPU leben kann kommen da noch einige Sachen hinzu wie Vram und Stromversorgung. Die Stromversorgung der CPU sitzt auf dem Mainboard.

Wechselbalg
2007-03-09, 19:35:23
Zwar lassen sich Grafikkarten und CPUs ja aus teils schon genannten Gründen wirklich nicht optimal vergleichen, aber ein paar Ähnlichkeiten lassen sich schon erkennen.

Gerade die letzten Prozentpunkte an Leistung werden sich ja meistens immer recht teuer erkauft. Karten wie eine 79X0GT oder die X1950 Pro sind da oft um einiges sparsamer als die absoluten Topkarten, bei aber immer noch recht guter Leistung meiner Meinung nach. Bei den CPUs hat man aber auch immer mal wieder solche Situationen. Bei der Netburstgeneration war es ja leicht zu bemerken, aber auch AMD musste ja jetzt bei höher taktenden Modellen wenn ich mich recht erinnere auch etwas an der Spannung drehen. Ordnet man sich knapp unter dem absoluten Highend ein, sinken die Probleme also schon mal etwas.

Der andere Punkt ist schließlich die Fertigung. G80 kam im selben Prozess wie z.B. eine 7900 GTX oder eine X19XX. Das bei erhöhtem Featureset und verbesserter Perfomance da nicht unbedingt mit niedrigerem Stromverbrauch zu rechnen ist, ist schnell erkennbar. Sollte sich aber mit neueren Fertigungsprozessen wieder etwas einpendeln denke ich.

Ansonsten denke ich aber einfach, dass der Stromverbrauch bei den meisten Käufern kaum Beachtung findet und man daher auch nicht so schnell versucht sich dem anzupassen. Verkaufen sich die stromschluckenden Topkarten gut, dann muss man ja nicht unbedingt etwas ändern.

Ich selber versuche eigentlich bei meinen Karten so im Bereich von 40-60 Watt zu bleiben, da man dies noch relativ einfach auch leise wegkühlen kann, aber ich denke den meisten ist es recht egal.

Spasstiger
2007-03-09, 20:18:28
Man könnte natürlich auch High-End-Karten mit einer TDP von 65 Watt machen, indem man einfach die Leistung gegenüber dem beschneidet, was technisch möglich ist. Aber der Wettbewerb zwingt die IHVs dazu, an die Machbarkeitsgrenzen zu gehen. Und da nimmt man auch einen hohen Stromverbrauch in Kauf.

Wenn AMD/ATI jetzt z.B. vom Markt verschwinden würde, könnte es Nvidia viel gemächlicher angehen lassen und z.B. nur noch alle 1,5 Jahre neue Chips releasen, die dafür nicht mehr Strom verbrauchen als die Vorgängerchips und dennoch mehr leisten. Jetzt ist es halt so, dass man schon alle 0,75 Jahre diese Leistungssteigerung verfügbar macht, allerdings bei höherem Stromverbrauch.

Aber das eigentliche Problem bei der ganzen Stromverbrauchsproblematik sind ja die schlechten Angewohnheiten unsererseits. Da wird der Rechner Tag und Nacht laufen gelassen, weil man nicht warten möchte, bis der Rechner hochgefahren ist oder weil man meint, dass das häufige An- und Ausschalten die Lebensdauer der Komponenten verringert. Und man sitzt generell viel häufiger und länger vor dem Rechner als noch vor 20 Jahren.

Den Stromverbrauch von PC-Komponenten zu senken wäre wie die Bekämpfung der Symptome, aber nicht die Bekämpfung der Ursache.

Und übrigens: Das Energiesparpotential in den Privathaushalten ist um einiges geringer als das Energiesparpotential in der Industrie (Haushalte machen afair nur 1/3 des Gesamtverbrauchs aus).

Gast
2007-03-09, 20:43:11
Imo wird es in Zukunft selbst keine für Spiele brauchbare Mid-Range Karten mit TDP 65 W mehr geben. Eher werden um die 100 W und mehr Durchschnittsverbrauch unter Last an der Tagesordnung sein. Da helfen die kleineren Fertigungsprozesse auch nicht viel weiter --> Blame physics

Gast
2007-03-09, 20:49:14
Der andere Punkt ist schließlich die Fertigung. G80 kam im selben Prozess wie z.B. eine 7900 GTX oder eine X19XX. Das bei erhöhtem Featureset und verbesserter Perfomance da nicht unbedingt mit niedrigerem Stromverbrauch zu rechnen ist, ist schnell erkennbar. Sollte sich aber mit neueren Fertigungsprozessen wieder etwas einpendeln denke ich.

Irgendwie ist das zu bezweifeln. Denn bis der bessere Fertigungsprozess da ist, wird es schon wieder ein oder zwei höher getaktete Versionen geben.

Gehen wir mal vom heutigen Stand aus. Ne 8800 GTX verbraucht so 145W. Wieviel braucht dann eine 8800 Ultra oder 8900 Ultra? Die käme ja dann schon locker auf 150-170 W und selbst bei einem Schrink in 65nm wären es kaum weniger als 100 W und das ist dann immer noch (zu)viel.
http://www.xbitlabs.com/images/video/geforce7950gt/7950gt_power.gif

Die Werte der 7900GTX haben mir sehr gut gefallen, bei 80-90 W sollte die Grenze liegen, schade das es in absehbarer Zeit nicht wieder dahin gehen wird.

Übrigens sieht man da sehr gut, was eine abgesenkte Spannung bei der GT für einen Effekt haben kann. Diese ließ sich sich ja teilweise schon auf über 600 MHz Core takten, ohne das daran etwas verändert werden musste.

Mr.Magic
2007-03-09, 21:28:22
Ich bin schon seit einer ganzen weile am überlegen, warum es eigentlich keine stromsparenden High-End Grafikkarten gibt. Den jetzt, wo alle von Klimawandel und Energie sparen reden, währe es doch auch langsam mal angebracht auch die High-End Grafikkarten stromsparender zu machen. Den technisch müßte sowas doch möglich sein, den bei CPUs geht es ja auch (bestes Beispiel Conroe mit nem TDP von 65W).

Warum kann es also nicht auch High-End Grafikkarten mit nem TDP von 65W geben?

High-End bedeutet bei PC-Komponenten normalerweise so schnell wie irgend möglich, ohne Rücksicht auf Verluste.
Hier erlaube ich mir ausnahmsweise eine Autoanalogie.
Warum gibt es keinen Sportwagen der auf 100km nur 3l verbraucht?

Gast
2007-03-09, 21:36:48
Ich bin schon seit einer ganzen weile am überlegen, warum es eigentlich keine stromsparenden High-End Grafikkarten gibt. Den jetzt, wo alle von Klimawandel und Energie sparen reden, währe es doch auch langsam mal angebracht auch die High-End Grafikkarten stromsparender zu machen. Den technisch müßte sowas doch möglich sein, den bei CPUs geht es ja auch (bestes Beispiel Conroe mit nem TDP von 65W).

Warum kann es also nicht auch High-End Grafikkarten mit nem TDP von 65W geben?

Warum spielt Jean Luc Picard nicht bei Stargate mit??

Armaq
2007-03-09, 22:08:33
Sorry, aber Stormverbrauch und HighEnd sind nicht unbedingt zwei ergänzende Prinzipien. Das Beispiel mit dem Auto passt.
Ausserdem sollte man mal eine 7900GT und eine 8800GTS vergleichen. Performance per Watt wäre schon interessanter ...
edit: Anscheind nicht. Ist meistens doppelt so fix, brauch aber auch soviel.

SeaEagle
2007-03-09, 23:05:57
ich finds nicht weiter schlimm, wenn high-end karten auch viel strom ziehen. wie lange zocke ich denn? das fällt nicht weiter ins gewicht. was ich aber viel mache, ist im Inet surfen, musik hören, filme schauen, sachen downloaden, am pc arbeiten. und natürlich habe ich nur einen rechner. also muss der herhalten, mit der dicken grafikkarte.
DA wäre mal das große sparpotential! einfach einen kleinen 2d chip auf die grafikkarte noch löten, und mann könnte die gpu komplett deaktivieren. noch besser wäre es auf einem mainboard, da könnte man die komplette grafikkarte vom strom nehmen, mitsamt den (unter so niedriger last) ineffizienten spannungswandlern. bis jetzt aber leider noch illusion, da man für einen wechsel zwischen integrierter und externer graphik neustarten muss. mal sehen, ob sich da was mit atis 690 ändert. angekündigt wars ja!

superdash
2007-03-09, 23:19:36
Naja.. Das Abschalten wäre nicht sonderlich praktisch. Vista lässt grüßen. Natürlich könnte das auch ein dedizierter Chip aka gma950 liefern, aber dann müsste man per Hand festlegen, welche 3d Anwendung mit welchem Chip läuft. Das wäre dann aber wohl eine Möglichkeit. Allerdings wäre man dann nicht mehr weit entfernt von Beschleunigerkarten ala Voodoo1/2. Wobei ich das nicht wirklich schlecht fände.

Byteschlumpf
2007-03-09, 23:40:55
Naja.. Das Abschalten wäre nicht sonderlich praktisch. Vista lässt grüßen. Natürlich könnte das auch ein dedizierter Chip aka gma950 liefern, aber dann müsste man per Hand festlegen, welche 3d Anwendung mit welchem Chip läuft. Das wäre dann aber wohl eine Möglichkeit. Allerdings wäre man dann nicht mehr weit entfernt von Beschleunigerkarten ala Voodoo1/2. Wobei ich das nicht wirklich schlecht fände.
... und die dann am besten noch extern - mit Wegfahrsperre...ähhh...Diebstahlschutz! :D
... und Brennstoffzelle! X-D

Bl@de
2007-03-10, 11:28:21
warum kann es keinen sportwagen mit einem 3l verbrauch geben ?

...

hyperterminal
2007-03-10, 11:49:09
Wie kommen denn die großen Unterschiede im Stromverbrauch zwischen Notebook- und Desktopgrafikkarten zustande? Wird da selektiert?

Gast
2007-03-10, 11:52:35
Wie kommen denn die großen Unterschiede im Stromverbrauch zwischen Notebook- und Desktopgrafikkarten zustande? Wird da selektiert?

Nunja, die Notebooklösungen haben meist einen niedrigeren Takt und weniger aktive Einheiten.
Dazu kommt wohl auch eine niedrigere Spannung für die GPU und eine effizientere und teuere Stromversorgung mit einem besseren Wirkungsgrad.

Madman123456
2007-03-10, 12:18:27
Mal eine Frage, die mir aufgefallen ist. "Warum kann es keine Sportwagen geben die 3l verbrauchen?"
Gibts doch, alle Sportwagen verbrauchen 3 Liter Sprit. Die meisten halt auf 100 km mehr als 10 mal.
Du brauchst, wenn du schneller fährst, mehr Sprit. Die Kraft die man aufbringen muss um den Luftwiderstand zu überwinden potenziert sich wenn man auch nur ein bisschen schneller fährt. Ich meine der Energie verbrauch wächst geometrisch zur Geschwindigkeit an...
Sportwagen sind nun dafür gebaut, eine Monströse Kraft aufzubringen um den riesigen Luftwiderstand bei über 300 Sachen zu überwinden.
Oder aber dafür, sehr schnell beschleunigen zu können nachdem man hart abbremste. Das Wiederbeschleunigen kostet riesige Energiemengen.
Soll heissen: Es ist ganz einfach nicht möglich, aus 3 Litern Benzin die Energien zu gewinnen, die man für den Motorsport braucht. Wenns das mit heutiger Technik ginge, dann wären die 3 Liter autos die Spritsäufer und die sparsamen Autos verbrauchten 0,3 Liter :D

Die Grafikkarten wundern mich aber auch. Mit dem Athlon xp hat man einen Prozessor aus dem Hut gezaubert, der mehr leistet und weniger Strom verbraucht. Dann kam der Athlon 64, noch mehr Leistung, noch weniger Verbrauch. Nun der Conroe. Noch mehr Leistung, noch weniger Verbrauch.

Jeder dieser Prozessoren hat seinen Vorgänger/Konkurrenten wie eine Geldverbrennungsmaschine aussehen lassen, da der neue zuweilen doppelte Leistung bei halben Energieverbrauch brachte.

Nun frag ich mich, warum sich bei den GPUs so garnichts tut während die CPUs mittlerweile soweit sind, das eine der nächsten Generationen wahrscheinlich Strom erzeugt :tongue:
Wenn eine unserer beiden Lieblingsfirmen auf die Idee käme, mit einem relativ billigen Trick die Verlustleistung zu verringern und das dann die "Klotztechnologie" nennen würde, liesse sich damit nicht Werbung machen?
"11,43% weniger Verlustleistung durch die neue Klotztechnologie!"
Man könnte hier natürlich nicht mit dem Umweltschutzpotential werben. Wer sich so ne Karte kauft dem wird im Moment des Betriebs der Karte der Umweltschutz egal sein, für den 24h Eselbetrieb wird er sich einen Rechner gebaut haben der möglichst wenig energie verbraucht.
Ich würde bei dieser Karte mit der neuen Klotztechnologie das erhöhte OC Potential anpreisen. Vielleicht noch nichtmal von der Karte selbst, weil weniger Abwärme auch weniger Temperaturprobleme für die anderen Komponenten mit sich bringt.

Mr.Magic
2007-03-10, 12:29:38
Es wurde doch bereits hingewiesen warum das bei den GPUs so ist wie es ist. (Mindestens) Doppelte Leistung bei gleichem Verbrauch.

ps: 6800 -> 7600; gleiche Leistung, weniger Verbrauch

Gast
2007-03-10, 12:47:48
Natürlich passiert das schon länger. ATI macht dies seit dem R520 (oder sogar früher?). Bei G80 passiert das leider nicht, war angeblich eine Designentschiedung von NV. Der NV40 beherrschte es auch, beim G71 weiß ich es nicht.



ich denke das problem liegt eher daran dass man bei GPUs keine großen erfahrungswerte hat bevor sie auf den markt kommen, und deshalb solche features vorerst deaktiviert bleiben um keine instabilitäten zu riskieren.

das war beim NV40 ähnlich, dieser unterstützte von haus aus auch keine unterschiedlichen 2D/3D-takte, im gegensatz zur restlichen NV4x-reihe und auch auf der darauf basierenden G7x-reihe, obwohl man schon die NV3x-reihe im betrieb umtakten könnte.

auch den G80 kann man per bios oder rivatuner unterschiedliche takte zuweisen und bei mir funktioniert das auch, NV braucht einfach die langzeiterfahrungen um das auch offiziell freizugeben.

don_salieri
2007-03-10, 23:55:46
Wieso können eigentlich Grafikkarten nicht DEUTLICH die Taktrate und Spannung senken, wenn sie im 2D-Modus sind? Wenn eine Karte sagen wir mit 100 MHz läuft, müsste sie doch extrem sparsam sein, aber für den Desktopbetrieb immer noch genug Speed liefern.

Gast
2007-03-11, 01:12:17
Ich bin schon seit einer ganzen weile am überlegen, warum es eigentlich keine stromsparenden High-End Grafikkarten gibt. Den jetzt, wo alle von Klimawandel und Energie sparen reden, währe es doch auch langsam mal angebracht auch die High-End Grafikkarten stromsparender zu machen. Den technisch müßte sowas doch möglich sein, den bei CPUs geht es ja auch (bestes Beispiel Conroe mit nem TDP von 65W).

Warum kann es also nicht auch High-End Grafikkarten mit nem TDP von 65W geben?

Wieso vergleichst du High-End-Grafikkarten mit Mid-Range CPU-Kernen?

Aktuelle High-End-CPUs haben eine TDP von 125 (A64-FX) oder 130 (QX6700) Watt. Dabei ist allerdings noch kein dreiviertel Gigabyte RAM dabei und die Verluste durch Stromversorgung und Kühler sind auch nicht mit drin.

Dabei leisten solche CPUs mal schlappe ~100 GFLOPs, GPUs etwa das drei bis fünffache.

Also ich finde eher, dass die CPUs in Relation zuviel verbrauchen. Eine Mid-Range X1950 Pro begnügt sich inkl. RAM und Spannungswandlung mit <70 Watt und leistet immer noch bedeutend mehr als ein C2D6700.

Gast
2007-03-11, 02:49:29
Dabei leisten solche CPUs mal schlappe ~100 GFLOPs, GPUs etwa das drei bis fünffache.

Der Vergleich ist humbug, denn dafür sind sie nicht so vielseitig.
Versuch doch mal, ein 3D Shooter inkl KI von einer GPU berechnen zu lassen, viel Spaß. :tongue:

Gast
2007-03-11, 03:12:51
Der Vergleich ist humbug, denn dafür sind sie nicht so vielseitig.
Versuch doch mal, ein 3D Shooter inkl KI von einer GPU berechnen zu lassen, viel Spaß. :tongue:
Gut erkannt - der ganze Vergleich ist Humbug. Aber zum Glück ging es ja nur um die Leistungsaufnahme. Ich habe lediglich gezeigt, wo die Leistung bleibt.

Kosh
2007-03-11, 12:25:33
Bei Grafikkarten ist der Stromspar Gedanke noch nicht wirklich bei den Herstellern angekommen.

Intel hatte das auch nicht sonderlich gejuckt, bis sie beim P4 massivste Probleme bekamen.

Soviel ich weiss hatte NVIDIA und ATI bezüglich Wärme noch keine so großen probleme bezüglich des Taktes,oder?

Denke ATI wird nach dem R600 beim nächsten Chip richtig drauf achten,da beim R600 wohl die Grenze erreicht ist.

Würde wetten,ATI beim Nachfolger des R600 mindestens 15% weniger Verlustleistung verursacht wie beim R600.

Gast
2007-03-12, 16:23:21
Soviel ich weiss hatte NVIDIA und ATI bezüglich Wärme noch keine so großen probleme bezüglich des Taktes,oder?
Naja, gerade NVIDIA hatte mit der FX 5800 Ultra und später der 6800 Ultra durchaus Probleme mit zu hohen Verlustleistungen. Und die Geforce-7-Serie zeigt doch auch, dass man da keineswegs untätig geblieben ist. (In Sachen Energieeffizienz war die Geforce-7-Serie ein Quantensprung.)

Dass die Geforce-8-Serie bisher so viel Strom verbraucht (v.a. Idle), wird einfach daran liegen, dass es sich um eine radikal neue Architektur handelt, mit der man noch nicht so viel Erfahrung hat. Mit späteren Modellen und geringeren Strukturbreiten wird sich das sicher noch deutlich verbessern und schon heute kann man den G80 dank seiner enormen Leistung durchaus als energieeffizient zu bezeichnen (unter Last zumindest).

Grivel
2007-03-17, 18:47:32
Wieso vergleichst du High-End-Grafikkarten mit Mid-Range CPU-Kernen?

Aktuelle High-End-CPUs haben eine TDP von 125 (A64-FX) oder 130 (QX6700) Watt. Dabei ist allerdings noch kein dreiviertel Gigabyte RAM dabei und die Verluste durch Stromversorgung und Kühler sind auch nicht mit drin.

Dabei leisten solche CPUs mal schlappe ~100 GFLOPs, GPUs etwa das drei bis fünffache.

Also ich finde eher, dass die CPUs in Relation zuviel verbrauchen. Eine Mid-Range X1950 Pro begnügt sich inkl. RAM und Spannungswandlung mit <70 Watt und leistet immer noch bedeutend mehr als ein C2D6700.

also wenn ich net dumm bin brauchen ram vlt 10W - ich bezweilfe ma stark das nen OC Ram mit 2,1V 10A oder mehr schluckt (woraus wird der RAM versorgt?)
dann is ne graka net leistungsfähiger, weil ne CPU universell einsetzbar ist und dann wundere ich mich wieso in den letzten 5jahren die Größe der Graka so stark angestiegen ist während sie die Jahre davor ungefähr gleich blieb? ma größer ma kleiner aber ne 9700 is nur bissle größer als ne Voodoo Graphics bietet aber das 50000 an leistung oder mehr ... seltsam aber seit der fx 5900 Ultra wachsen die Graka wie nen Bambus am Tag ... gleichzeitig nimmt erstmals der Stromverbrauch riesig zu - ne TNT 2 mit ihren lächerlichen 8 W damals Highend ne Geforce 2 MX vlt 20W ne Geforce 3 wieder 20W dann ne Radeon 9700pro mit 54W - dann sinkts erstma wieder weil nvidia die fx 5800 verkackt und steigt mit der 6er generation bzw x8xx generation gigantisch an und setzt sich seitdem fort, find das irgendwie komisch und seitdem is die 12A leitung lebenswichtig und kaum wer weiß das 20A für nen System wie meins , insofern das NT das Durchgehend zur Verfügung stellen kann, vollkommen ausreichen (bei mir der Fall selbst mit 6Lüftern ,4HDDS,3Optical Drives und um 200MHZ übertakteter Graka ...habn be quiet p4 s 1.3 400W mit 20A@12v von 2003...)
wieso ist ne 8800u 26cm lang? obwohl der fertigungsmodus gigantisch viel kleiner ist? weil viel mehr leistung in der GPU steckt? wieso wächst dann das Board? weil sie mehr strom brauch? wieso wächst dann das Board und net die Anzahl an Kodensantoren, wandlern etc?

Gast
2007-03-17, 19:04:16
[QUOTE=Madman123456;5315056]Mal eine Frage, die mir aufgefallen ist. "Warum kann es keine Sportwagen geben die 3l verbrauchen?"
Gibts doch....QUOTE]

Die Antwort auf die Frage des Threadstarters:

High End ist relativ, es kann etwas "High End" sein, wenn es wenig Energie verbraucht, es kann aber auch High End sein, wenn es viel KW Strom verbraucht für ein paar fps mehr.

Ich zum Beisspiel habe umgedacht, nicht irgendwelche Benchmarks sind mir wichtig, sondern die Energiebilanz. Die heutigen Grafikkarten erinnern mich ein bischen an die amerikanischen V8 Muscle Cars der 70er Jahre. Viel Hubraum, viel PS und im Stand schon mal bis zu 15 Liter Verbrauch (apropos Stand, das erinnert mich an den 8800er Idle Verbrauch). Es geht auch anders.

Grafikkarten die nur auf fps getrimmt sind, sind für mich nicht High End. Ich halte "Energie High End" für viel wichtiger als "super duper SLI V8 fps High End".

Gast
2007-03-17, 19:10:01
Zum Beispiel sind fps High End Notebook-Grafikkarten nur was für Noobs, ein vernünftiger Nutzer schaut auf maximal möglich und bezahlbaren Energieverbrauch, geringer Energieverbrauch bedeutet gleichzeitig eine lange Akku-Laufzeit (MOBIL) und geringe Erwärmung was wiederrum das Betriebsgeräusch sent und eine leichtere Bauweise ermöglicht. Eine 8800 GTX im Notebook währe das Worst-Case Szenario (ca. 5 min Akku Betrieb, 7 kg schwer und ein Staubsauger als Kühler inkl. Orstöpseln und Sonnenbrille damit man nicht erkannt wird).

kokett
2007-03-17, 21:37:01
High(est) End Hardware ist nur drauf ausgelegt, das absolute maximum an Leistung zu Erbringen. Die 10€ / Jahr die eine Highend Graka mehr an Strom verballern, interessieren die Clientel eh nicht. Wer 600 EUR für eine Grafikkarte ausgeben kann, wird dann sicher nicht über ein paar KWh nachdenken.

Wem diese Philosophie zuwider ist, soll sich halt einfach Midrange kaufen und glücklich sein.

boxleitnerb
2007-03-17, 21:51:14
Seufz. Leise und günstige Kühlung. Klingelts?
Die Stromkosten jucken keinen.

KaKÅrØT
2007-03-18, 00:29:06
Warum gibts keine stromsparenden High-End Grafikkarten?

Warum gibt es keinen Porsche mit 5L Verbrauch auf 100km ?

Frage erledigt?

Es muss halt immer weiter an der Technologie Schraube gedreht werden :biggrin:

Mills
2007-03-18, 18:58:20
Sooo klar erledigt sich die Frage mit deinem Posting wirklich nicht.

Es gibt sehr wohl noch reichlich Spielraum in Sachen Effizienz. High-End erfordert sicherlich immer einen nicht zu knappen Einsatz an Ressourcen. Das heisst aber nicht das High-End damit beliebig wirtschaften kann - siehe Beispiel P4. Es gibt Grenzen, ob das nun technische Grenzen, finanzielle beim Kauf des Produkts oder beim Unterhalt sind, auch die Umwelt rückt mehr und mehr in den Mittelpunkt.

Werden solche Grenzen überschritten, zögert Mr.Endkunde eben auch mal (siehe der erste Geforce-"Fön"), oder die Konkurrenz hängt den Rest zunächst mal gnadenlos ab (P4 Disaster >3GHz, bzw. umgekehrt beim C2D Launch).

Insofern, wird High-End masslos, geht solch ein Produkt u.U. schneller unter als man denkt.

Coda
2007-03-18, 19:09:05
Warum gibt es keinen Porsche mit 5L Verbrauch auf 100km?
Porsche ist ein schlechtes Beispiel. Die verbrauchen für Sportwagen wirklich sehr wenig.

Das Auge
2007-03-18, 19:35:11
Man kann generell kein Auto mit einer Grafikkarte vergleichen. Am ehesten würde sich wohl noch die Zylinderabschaltung bei den V8-Motoren der S-Klasse anbieten, aber auch das ist Käse. Auto != Computer

Bei nem Computer sollte es auch bei ner High-End Karte technisch kein großes Problem sein einen Stromspar-Modus einzubauen, wenn man diesen gleich mit einplant und nicht erst nachträglich hinzufrickelt.
Da würde ich auch gerne 10 Euro mehr für zahlen, das macht bei ner High-End Karte für 400-500 Euro den Kohl auch nicht mehr fett.

Gast
2007-03-18, 19:45:45
Man kann generell kein Auto mit einer Grafikkarte vergleichen. Am ehesten würde sich wohl noch die Zylinderabschaltung bei den V8-Motoren der S-Klasse anbieten, aber auch das ist Käse. Auto != Computer

Bei nem Computer sollte es auch bei ner High-End Karte technisch kein großes Problem sein einen Stromspar-Modus einzubauen, wenn man diesen gleich mit einplant und nicht erst nachträglich hinzufrickelt.
Da würde ich auch gerne 10 Euro mehr für zahlen, das macht bei ner High-End Karte für 400-500 Euro den Kohl auch nicht mehr fett.
Vor allem wird der Strompreis in Zukunft weiter steigen. Desweiteren wird der Energieverbrauch unter Last weiter ansteigen. Da ist ein Verhältnis von Last zu Idle mit ca. 3:1 ganz angebracht. Bei ungefähr 300W Maximalverbrauch wären das im Idle dann immer noch stolze 100W. 300W und noch mehr mag zwar im Moment extrem viel klingen, können aber in 2 1/2 Jahren für High End zum Alltag gehören, wenn die Leistung wie gewohnt ansteigen soll oder nicht ein Wunder in den Fertigungsprozessen geschieht.

schmacko
2007-03-18, 20:22:16
Warum gibts keine stromsparenden High-End Grafikkarten?

Warum gibt es keinen Porsche mit 5L Verbrauch auf 100km ?

nunja, dass ein sportwagen im volllastbereich viel verbraucht, ist ja natürlich. aber dass er im stadtverkehr auch viel verbraucht liegt wohl im überwiegenden maße daran, dass es die kunden anscheinend noch nicht juckt, dass er da so viel verbraucht.
technologisch möglich wäre ja bestimmt eine menge, gerade da die kosten dort im hochpreissegment ja nicht eine solche rolle spielen. wenn man allein bedenkt, wie viel geld porsche dafür ausgibt, dass ein porsche wie ein porsche klingt.... (sounddesign).

Frage erledigt?

nö, denn so wie ein sportwagen nicht prinzipiell im teillastbereich exorbitante verbräuche haben muss, so muss eine high-end-graka noch viel weniger dies tun.
takt- und spannungsabsenkung und abschalten einzelner logikkreise im teillastbereich ist doch nicht unmöglich.
für mich spielt das sounddesign eines rechners auch eine rolle, aber nicht das sonore dröhnen als potenzanzeige, sondern möglichst große stille - und diese ist durch möglichst geringes anfallen an verlustleistung am leichtesten zu bewerkstelligen...

Gast
2007-03-18, 21:18:13
Warum gibts keine stromsparenden High-End Grafikkarten?

Warum gibt es keinen Porsche mit 5L Verbrauch auf 100km ?

Frage erledigt?

Es muss halt immer weiter an der Technologie Schraube gedreht werden :biggrin:

Ich halte Autos mit Wasserstoffantrieb für High End, wieso muss immer etwas viel PS haben um High End zu sein. Auch für die Energieersparnis bedarf es High-End, zum Beisspiel ist niemand mehr stolz darauf, das seine Heizung ein paar Tonnen Heizöl zieht, Leistung kann auch bedeuten das etwas besonders sparsam ist.

Gast
2007-04-03, 12:09:06
Zum Sportwagen-Vergleich: Man müsste hier die Formel 1 als Beispiel nehmen würde, wenn schon HIGH END. Und dort versucht man "komischerweise" tatsächlich, die maximale Leistung aus so wenig Sprit wie Möglich zu gewinnen - was zu Motoren führte, die nicht nur einfach stumpf Leistung at all costs produzieren, sondern die extrem kompakt und leicht sind. F1-Motoren sind bis in die kleinste Schraube eine Wissenschaft für sich, der Grund dafür ist simpel: ein begrenzter Tank.

Was letztlich fehlt, ist Druck. Der würde zu energieeffizienteren Lösungen führen, aber solange der eben nicht gegeben ist, denkt man nicht nach und baut "Motoren", die sich im Vergleich zu denen in der F1 wie tonnenschwere Dinosaurier ausnehmen, die die Energie nur so verschleudern. Statt über leichte, leistungsfähige Legierungen nachzudenken, setzt man Gußeisen ein. Statt die mechanische Reibung der Komponenten zu minimieren, wird sie völlig ignoriert. In der F1 würde ein NVidia-Bolide keinen Blumentopf gewinnen, er würde nur belächelt werden.
Was Graka-Hersteller machen, ist gewissermaßen High-End-Leistung mit Low-End-Designs zu produzieren. Insofern kann ich dem anderen Gast zustimmen, daß High End sich nicht nur auf die pure Leistung beschränken sollte. Das allein würde ich nicht als High End bezeichnen.

Gast
2007-04-03, 12:29:54
Wo beschränkt sich nVidia auf "pure Leistung"?
Das G7x hat deutliche Schwächen, wenn es um die "pure Leistung" geht.
Der G80 wird zur Zeit recht konservativ getaktet und verbraucht im "puren Leistungsmodus" nur leicht mehr als ein r580 - trotz 80% Mehrleistung.
Das der Idle-Verbrauch zu hoch ist, steht außer Frage. Aber das ist bei anderen Komponenten genauso (Intel's C2D CPU z.B).

noch ein Gast
2007-04-03, 12:53:36
Zum Sportwagen-Vergleich: Man müsste hier die Formel 1 als Beispiel nehmen würde, wenn schon HIGH END. Und dort versucht man "komischerweise" tatsächlich, die maximale Leistung aus so wenig Sprit wie Möglich zu gewinnen - was zu Motoren führte, die nicht nur einfach stumpf Leistung at all costs produzieren, sondern die extrem kompakt und leicht sind. F1-Motoren sind bis in die kleinste Schraube eine Wissenschaft für sich, der Grund dafür ist simpel: ein begrenzter Tank.
Amüsanter Vergleich - denn ein F1-Motor, der viel länger als ein Rennen durchhalten würde, wäre wegen der Leichtbauphilosophie eine Fehlkonstruktion. Ein guter F1-Motor ist nach einem Rennen Schrott. Wenn schon solche Vergleiche, dann bitte wenigstens mit den 24 Stunden von Le Mans;)

Oder will hier wirklich irgendwer F1-Grakas? Da hätte Verbrauch eine wesentlich teurere Bedeutung... :uhammer:

Spasstiger
2007-04-03, 13:28:14
Was Graka-Hersteller machen, ist gewissermaßen High-End-Leistung mit Low-End-Designs zu produzieren. Insofern kann ich dem anderen Gast zustimmen, daß High End sich nicht nur auf die pure Leistung beschränken sollte. Das allein würde ich nicht als High End bezeichnen.
Grafikkarten können auch nicht unbegrenzt Energie verschleudern, da irgendwann eine kompakte Kühlung nicht mehr realisierbar ist. Die Ingenieure schauen sehr wohl auf den Energiebedarf der Schaltkreise und klatschen nicht einfach irgendwas zusammen, was einfach nur schnell ist.

Marc-
2007-04-03, 13:33:35
Insgesamt ist der auto/motorvergleich doch nicht so aus der luft gegriffen.

Denn es zeigt sich auch da, was möglich ist, wenn eben der spritverbrauch in relation zur leistung eine rolle spielt.

Natürlich spielt es beim gemeinen sportwagen, der beliebig viel hubraum haben kann um die leistung zu erzeugen (denn letztendlich ist es mehr der hubraum der den erhöhten energieverbrauch bewirkt als die tatsächliche leistung) und bei dem im zweifelsfall einfach ein entsprechend grosser tank beigepackt wird kaum eine rolle wieviel sprit gefressen wird.
Kommen wir dann allerdings zu einer situation wo maximale leistung einhergehen soll bzw muss mit geringem verbrauch (einfach weil eben der hubraum nicht endlos maximierbar ist oder entsprechende tankvolumen nicht zu realisieren sind) haben wir plötzlich ganz andere und weitaus moderatere leistungs- verbrauchsrelationen. Warum? weils eben dann über weitaus ausgeklügeltere technik realisiert wird und nicht nur über raw power (hubraum).
Als beispiel seien motorräder genannt. Nehmen wir hier als beispiel eine GSX-R 1000 mit satten 185PS liegt diese im verbrauch jedoch kaum deutlich höher als die meisten autos in der 1-2l klasse mit deutlich weniger leistung. Wieso das? Ganz einfach... weil eben durch verfeinerung von motorentechnik eine weitaus grössere effezienz erreicht wird. Gerade bei genannten motorradmotoren kann man das sehr schön nachvollziehen. Also ist es schon möglich höhere leistung zu erreichen ohne automatisch auch mehr energie zu verbrauchen. Genauso wie es möglich ist eine bessere bildqualität zu erreichen ohne zwingend eine höhere leistung zu haben. Die frage ist, wieviel aufwand und wieviel technischen verstand man in die entwicklung steckt. Und genau da scheint gerade bei graka herstellern offensichtlich sehr wenig nachgedacht. Da gehts lediglich darum in möglichst kurzer zeit das produkt mit dem maximalen benchmarkergebnis rauszuhauen... dazu braucht man nicht sehr viel nachdenken da es dem auto entsprechend einfach nach dem scheme der hubraumerweiterung läuft. das einzige was minimales denkvermögen bedarf ist die technische realition. Solange wir dumm genug sind uns diesem blödsinn für 5 frames mehr ohne nachdenken als dämliches kaufvieh hinzugeben, wird sich daran auch nichts ändern solange die technischen grenzen der bewältigung der verlustleistung bzw der netzteile nicht erreicht sind.
Die idioten sind letztendlich wir selbst, das wir so blind und aus lauter framegeilheit uns vor diesen karren spannen lassen anstatt die firmen zu zwingen umzudenken. Denn letztendlich produzieren diese für uns, nicht umgekehrt.

Gast
2007-04-03, 14:24:18
Die idioten sind letztendlich wir selbst, das wir so blind und aus lauter framegeilheit uns vor diesen karren spannen lassen anstatt die firmen zu zwingen umzudenken. Denn letztendlich produzieren diese für uns, nicht umgekehrt.Es soll auch Leute geben, denen der Stromverbrauch einer High-End-Karte völlig egal ist, da es nur Cent-Beträge sind. Lautstärke spielt auch für viele Leute einfach keine Rolle. Sind das etwa alles Idioten?

Marc-
2007-04-03, 14:28:48
Es soll auch Leute geben, denen der Stromverbrauch einer High-End-Karte völlig egal ist, da es nur Cent-Beträge sind. Lautstärke spielt auch für viele Leute einfach keine Rolle. Sind das etwa alles Idioten?
sind wir nicht alle idioten, wenn wir den ast absägen auf dem wir selbst sitzen? und noch nichtmal das uns mögliche tun (in diesem fall sogar wirklich mal das einfachste der welt, nämlich kaufzurückhaltung), was uns wirklich kaum nennenswerten verzicht oder anstrengung kostet um wenigsten die gröbsten verschwendungen des lebens etwas einzudämmen? sorry, aber in der tat... leute die so kurzsichtig durchs leben gehen, ja, mit verlaub, die halte ich für (zudem noch sehr egoistische) idioten.

Paul Brain
2007-04-03, 15:11:07
Als beispiel seien motorräder genannt. Nehmen wir hier als beispiel eine GSX-R 1000 mit satten 185PS liegt diese im verbrauch jedoch kaum deutlich höher als die meisten autos in der 1-2l klasse mit deutlich weniger leistung. Wieso das? Ganz einfach... weil eben durch verfeinerung von motorentechnik eine weitaus grössere effezienz erreicht wird. Gerade bei genannten motorradmotoren kann man das sehr schön nachvollziehen.Seeehr schlechter Vergleich. Versuch mal, mit der Gixxer einen Porsche zu ziehen, und schau Dir dann den Verbrauch an... Autos sind viel schwerer als Motorräder, und haben einen viel höheren Luft- und Reibungswiderstand. Insofern sind Motorräder die Energieverschwender, da sie nur einen Bruchteil der Masse eines Autos bewegen müssen aber trotzdem fast genausoviel verbrauchen. Nur ist bei einem Motorrad die Reichweite kein Thema, weilst nach ein paar Stunden auf dem Bock eh eine Pause brauchst.

Btw kann man "Sportwagen" sehr verbrauchsgünstig fahren - man muß es nur können und wollen. Wer natürlich mit maximaler Beschleunigung von Ampel zu Ampel heizt darf sich nicht wundern und die Schuld einfach auf den ach so spritvernichtenden Sportwagen schieben...

Gast
2007-04-03, 15:59:07
Seeehr schlechter Vergleich. Versuch mal, mit der Gixxer einen Porsche zu ziehen, und schau Dir dann den Verbrauch an... Autos sind viel schwerer als Motorräder, und haben einen viel höheren Luft- und Reibungswiderstand. Insofern sind Motorräder die Energieverschwender, da sie nur einen Bruchteil der Masse eines Autos bewegen müssen aber trotzdem fast genausoviel verbrauchen. Nur ist bei einem Motorrad die Reichweite kein Thema, weilst nach ein paar Stunden auf dem Bock eh eine Pause brauchst.

Btw kann man "Sportwagen" sehr verbrauchsgünstig fahren - man muß es nur können und wollen. Wer natürlich mit maximaler Beschleunigung von Ampel zu Ampel heizt darf sich nicht wundern und die Schuld einfach auf den ach so spritvernichtenden Sportwagen schieben...
Motorräder sind aber auf jeden Fall bei effizienter als Autos. Die hohen Verbräuche kommen nur bei aggressiven/sportlichen Fahrweisen zustande. Wenn man das mit einem Auto macht, steigt der Verbrauch auch. Bei Sportwagen sind 35 Liter auf 100 km bei maximaler Leistung keine Seltenheit. Nur in der Praxis kann man natürlich nicht die maximale Leistung ständig abrufen. Durch den kleineren Hubraum der Motoren haben sie auch einen besseren Wirkungsgrad. Allerdings müssen die Materialien höherwertig sein, um die höheren Drücke und Drehzahlen zu ertragen, ansonsten leidet die Lebensdauer der Motoren erheblich.

Marc-
2007-04-03, 17:31:58
Motorräder sind aber auf jeden Fall bei effizienter als Autos. Die hohen Verbräuche kommen nur bei aggressiven/sportlichen Fahrweisen zustande. Wenn man das mit einem Auto macht, steigt der Verbrauch auch. Bei Sportwagen sind 35 Liter auf 100 km bei maximaler Leistung keine Seltenheit. Nur in der Praxis kann man natürlich nicht die maximale Leistung ständig abrufen. Durch den kleineren Hubraum der Motoren haben sie auch einen besseren Wirkungsgrad. Allerdings müssen die Materialien höherwertig sein, um die höheren Drücke und Drehzahlen zu ertragen, ansonsten leidet die Lebensdauer der Motoren erheblich.
Exakt. Klar verbrauchst du mit ner gixxer auch gute 10-12 liter (eigene erfahrung) wenn du auffer bahn dauerhaft über 220 fährst oder dauernd wie blöde beschleunigst. Nur... wieviel verbrauchst du bei gleichem scenario mit dem porsche?? Für den sind solche verbrauchswerte schon bei sanfter fahrweise schwer zu halten.
Trotzdem finde ich persönlich es erstaunlich wenn ich sehe was mich (motortechnisch gesehen) hightech bei motorrädern kostet, in relation zu dem was mich standartlösungen im pkw berreich kosten. Das alleine zeigt mir, das weitaus höhere motoreneffizienz durchaus auch bei pkws, ohne den oft beschworenen und angedrohten riesigen aufpreis möglich wären, noch zumal pkw motoren in aller regel noch in weitaus höheren stückzahlen gefertigt werden als motorradmotoren. Insofern ist der vergleich zum graka sektor imo mehr als gerechtfertigt, da generell die gleiche fragestellung besteht.
Deine aussage übrigens, zum grösseren gewicht etc, fällt eigentlich garnicht an, denn dabei geht es nur um die umsetzung der erzeugten leistung, die hat mit der effizienz der motoren als solche nix zu tun. Das hat was mit getriebe, fahrwerk etc zu tun.

Mills
2007-04-03, 17:51:50
http://img115.exs.cx/img115/5941/offtopic8ys.gif

deadkey
2007-04-03, 18:02:25
Naja, der Vergleich hinkt trotzdem irgendwo:wink:
Beim Auto kommen noch erhebliche Kosten hinzu, die es beim Motorrad nicht gibt. Die Zweiräder bestehen nunmal zum größten Teil aus dem Motor.
Außerdem sind Autos auf sehr hohe Laufleistungen ausgelegt, die von Motorrädern einfach niemals erreicht werden (ohne Motortausch).
Mehr Hubraum macht den Motor langlebiger, moderne Verarbeitung auch, aber nur in engen Grenzen.

Und genau diesen Grenzen in der Herstellung sind auch Grakas unterworfen. Nur kann man hier nicht einfach in die Breite bauen (mehr Hubraum), oder den Chip mit astronomischen Taktraten (höhere Drehzahl) betreiben. Im Zuge der Entwicklung wird definitiv auch und vorallem bei High-End versucht, an allen möglichen Ecken zu optimieren,um auch wirklich das bestmögliche aus aktuellen Produktionstechniken herauszukitzeln. Und wenn es derzeit nicht stromsparender geht, ist das halt so. Man kann ja auch warten, bis die nächste Generation der Midrange-Karten aktuelle High-End Leistungen erreicht bzw noch überflügelt:biggrin:...was auch ganz sicher geschehen wird, eben weil die Entwickler auch in diese Richtung entwickeln müssen.

Paul Brain
2007-04-03, 18:15:52
Der Wirkungsgrad hat mit dem Hubraum nichts zu tun. Wenn der Wirkungsgrad bei großem Hubraum so schlecht wäre, warum dreht der Schiffsdiesel dann keine 30000rpm bei entsprechend kleinem Hubraum? :tongue:
Das Problem mit viel Hubraum ist der Teil- und vor allem der Niedriglastbereich, weil das Ding einfach am Laufen gehalten werden muß und der Luftanteil im Benzingemisch einen gewissen Wert nicht übersteigen darf. Analog dazu der 2D-Betrieb des G80, der dabei nicht runtertakten und runtervolten kann weil er sonst instabil wird.

Eine Kilogixxer kannst selbst bei gemütlicher Überlandfahrweise ned wirklich auf unter 5l bringen; sogar der Turboporsche kommt außerorts auf unter 10l (!), insofern sehe ich also nicht, wieso Motorradmotoren hier als so herrlich effizient dargestellt werden: sind sie nämlich nicht. ~180PS der Gixxer gegen 480PS des Porsche, ~170 kg der Gixxer gegen ~1600kg des Porsche: bei einfachster, überschlagsmäßiger Vergleichsrechnung dürfte die GSX nur etwa 0,28l (!!) verbrauchen, um ähnlich effizient zu sein wie der Porsche. Läßt man das Gewicht beiseite, welches ja bei gleichbleibender Geschwindigkeit auf ebener Fahrbahn keine Rolle spielt, kämen immer noch 3,75l heraus, die die GSX nicht überschreiten dürfte.

Gast
2007-04-03, 19:29:52
Wen juckt das noch was die letzten Seite hier geschrieben wurde??? :mad:

Marc-
2007-04-03, 20:39:49
Der Wirkungsgrad hat mit dem Hubraum nichts zu tun. Wenn der Wirkungsgrad bei großem Hubraum so schlecht wäre, warum dreht der Schiffsdiesel dann keine 30000rpm bei entsprechend kleinem Hubraum? :tongue:
Das Problem mit viel Hubraum ist der Teil- und vor allem der Niedriglastbereich, weil das Ding einfach am Laufen gehalten werden muß und der Luftanteil im Benzingemisch einen gewissen Wert nicht übersteigen darf. Analog dazu der 2D-Betrieb des G80, der dabei nicht runtertakten und runtervolten kann weil er sonst instabil wird.

Eine Kilogixxer kannst selbst bei gemütlicher Überlandfahrweise ned wirklich auf unter 5l bringen; sogar der Turboporsche kommt außerorts auf unter 10l (!), insofern sehe ich also nicht, wieso Motorradmotoren hier als so herrlich effizient dargestellt werden: sind sie nämlich nicht. ~180PS der Gixxer gegen 480PS des Porsche, ~170 kg der Gixxer gegen ~1600kg des Porsche: bei einfachster, überschlagsmäßiger Vergleichsrechnung dürfte die GSX nur etwa 0,28l (!!) verbrauchen, um ähnlich effizient zu sein wie der Porsche. Läßt man das Gewicht beiseite, welches ja bei gleichbleibender Geschwindigkeit auf ebener Fahrbahn keine Rolle spielt, kämen immer noch 3,75l heraus, die die GSX nicht überschreiten dürfte.

Nochmals, weils nun wirklich OT wird: es geht um die reine leistungsentwicklung des motors, nicht um deren umsetzung in fahrleistung ... qo ja nunmal bei porsche wie motorrad zuviele ungleiche faktoren mit reinspielen.
Dabei ist nunmal fakt: beim moped wird mit kleinerem hubraum eine grössere leistung erzielt bei kleinerem verbnrauch (es geht nur um die motorleistung), einfach dadurch das der motor selbst effizienter gebaut ist und eben nicht nur auf rohleistung getrimmt ist wie es leider bei den meisten autos der fall ist. Das kostet natürlich geld in der entwicklung und auch bei den verwendeten materialien. Aber: das ergebnis ist eben das oben genannte... und da sollte man vielleicht in der computertechnik ansetzen. Nehmen wir das tragische beispiel: NEtburst/P4... genau diesen fatalen weg beschreiten imho inzwischen die grakahersteller... weil wir als kunden ebenso dämlich sind, wie wir es leider zu lange bei intel/P4 waren. Nur das die heutigen zeiten uns solche idiotie nicht auf dauer verzeihen.
Die einstellung: ist mir doch scheiss egal was mein rechner verbraucht ist und wie laut das ist... ist letzendlich die gleiche wie ein ignorant names bush: sollen die anderen sich doch um verbrauch und klima sorgen, was kümmerts mich, ist doch mein gutes recht die dinge so zu machen wies mir passt.

Paul Brain
2007-04-03, 23:43:17
Nochmals, weils nun wirklich OT wird: es geht um die reine leistungsentwicklung des motors, nicht um deren umsetzung in fahrleistung ... qo ja nunmal bei porsche wie motorrad zuviele ungleiche faktoren mit reinspielen.
Dabei ist nunmal fakt: beim moped wird mit kleinerem hubraum eine grössere leistung erzielt bei kleinerem verbnrauch (es geht nur um die motorleistung), einfach dadurch das der motor selbst effizienter gebaut ist und eben nicht nur auf rohleistung getrimmt ist wie es leider bei den meisten autos der fall ist. Das kostet natürlich geld in der entwicklung und auch bei den verwendeten materialien. Aber: das ergebnis ist eben das oben genannte...Tut mir leid, aber ich verstehe nicht, worauf Du hinauswillst...


Und da sollte man vielleicht in der computertechnik ansetzen. Nehmen wir das tragische beispiel: NEtburst/P4... genau diesen fatalen weg beschreiten imho inzwischen die grakahersteller... weil wir als kunden ebenso dämlich sind, wie wir es leider zu lange bei intel/P4 waren. Nur das die heutigen zeiten uns solche idiotie nicht auf dauer verzeihen.
Die einstellung: ist mir doch scheiss egal was mein rechner verbraucht ist und wie laut das ist... ist letzendlich die gleiche wie ein ignorant names bush: sollen die anderen sich doch um verbrauch und klima sorgen, was kümmerts mich, ist doch mein gutes recht die dinge so zu machen wies mir passt.Der Verbrauch von Highend-Karten ist bei globaler Betrachtung aber tatsächlich irrelevant; die Masse wird ohnehin von integrierter und anderer Lowcost-Grafik gestellt, und die verbraucht nunmal wenig. Viel schlimmer sind z.B. Rechner in der Arbeit, die aus Faulheit über Nacht nicht abgeschalten werden und vielleicht dank nicht konfigurierter Energiesparoptionen nichtmal den Bildschirm in der Nacht in den Standby schicken. Die Menge an Leuten, die eine Highend-Grafikkarte haben ist an sich schon relativ gering, die Leute, die eine haben, welche keinen stromsparenden Idle-Modus beherrscht (=G80)ist noch deutlichst geringer und die Leute, die ihren Highend-Rechner mit G80 24/7 laufen lassen ist wohl so verschwindend gering, daß sie in einer Statistik nichtmal aufscheinen würde.
Zum Vergleich: Für "normales" Autobahntempo benötigt man in etwa 50kW; fährt man eine Stunde mit einem 50kW-Auto flott auf der Autobahn, muß man also etwa 50kWh aufwenden; mit dieser Energiemenge kann selbst ein leistungshungriger Highend-PC unter Vollast etwa 100h (!) betrieben werden; rechnet man jetzt mit etwa 10h täglicher Nutzung und davon 5h Vollast, so wären das überschlagsmäßig schon etwa 14 Tage Betrieb...

Ich finde auch nicht, daß die Grafikkartenhersteller agieren wie Intel seinerzeit beim P4; abgesehen davon, daß Intel sicher nicht erwartet hatte, daß die Verlustleistung beim P4 trotz neuerer Prozesse derart ansteigen würde (man erinnere sich an das 90nm-Desaster). Die aktuellen GPU-Designs sind eigentlich sehr effizient, aufgrund des Konkurrenzdrucks muß aber an die Grenzen des technisch mach- und kühlbaren gegangen werden, was sich eben in entsprechender Verlustleistung niederschlägt. Auch der R600 wird wohl kein Netburst-Ansatz sein; Ziel sind nicht hohe Taktraten und hohe Verlustleistungen, Ziel ist maximale Leistung; und je effizienter das Design ist, umso höher läßt sich die Leistung bei einem gegebenen Thermal Budget treiben. Die Hersteller sind also sehr wohl bemüht, energieeffizient zu designen.

Liszca
2007-04-04, 03:59:06
Ich bin schon seit einer ganzen weile am überlegen, warum es eigentlich keine stromsparenden High-End Grafikkarten gibt. Den jetzt, wo alle von Klimawandel und Energie sparen reden, währe es doch auch langsam mal angebracht auch die High-End Grafikkarten stromsparender zu machen. Den technisch müßte sowas doch möglich sein, den bei CPUs geht es ja auch (bestes Beispiel Conroe mit nem TDP von 65W).

Warum kann es also nicht auch High-End Grafikkarten mit nem TDP von 65W geben?

http://www.pcgameshardware.de/?article_id=573060

führ dir das mal zu gemühte, spricht zwar für ati, aber nvidia wird das sicher auch ähnlich handhaben.

Gast
2007-04-04, 08:55:57
http://www.pcgameshardware.de/?article_id=573060Ja, Xbox360 war unser erster DX10-ChipAlles klar. ;)

rpm8200
2007-04-05, 12:19:35
... ... Der Verbrauch von Highend-Karten ist bei globaler Betrachtung aber tatsächlich irrelevant; ... ...
Ich kann Deinem ganzen Posting folgen und auch Deiner Argumentation. Dieser Satz ist aber eben doch falsch und spricht genau dem entgegen was Marc- sagt (und was auch irgendwo meine Meinung ist).

In der Summe ist es eben nicht egal. Wir sägen wirklich beharrlich an dem Ast auf dem wir sitzen (Zitat Marc-). Warum? Weil jeder sofort in Euro und Cent nachrechnet "was bringt es mir, wenn ich dieses tue oder jenes unterlasse?". Das ist die falsche Denke. Es gibt tatsächlich Werte, die man nicht in Euro und Cent berechnen kann. Jeder sollte IMO sein mögliches tun, um Energie nicht zu verschwenden, solange sie aus z.B. Kohlekraftwerken gewonnen wird. Da ists dann nämlich (schadstofftechnisch) auch wieder vorbei mit dieser 50kW- Rechnung. Wollte man ein Einfamilienhaus durch Menschenkraft mit Strom versorgen, so würde man derzeit etwa 40 Arbeiter benötigen, die rund um die Uhr schuften (denkt mal darüber nach). Werbesprüche wie die von E.ON, in denen es heisst "der Strom geht nie aus" sollten verboten werden! Sollte es mal kalte Fusion o.ä. geben und Energieverbrauch keine Rolle mehr spielen und sich auch nicht negativ auf die Welt auswirken, auf der wir leben wird es mir auch wieder egal sein, ob eine GraKa im idle 580W verbläst.

Ich habe länger mit mir gerungen, ob ich mir nen G80 kaufe. Habe dann entschieden auf den R600 zu warten und zu sehen, welche der Karten "sparsamer" ist. Dabei geht es mir gar nicht um den Verbrauch bei Last. Ehrlich, die ~5-10 Stunden, die ich pro Woche zocke ist es mir egal, ob ich 100W oder 300W brauche. Die anderen 100 Stunden, die mein Rechner pro Woche an ist, soll sich das aber bitte nicht auf den Stromverbrauch auswirken. Nicht, weil es mir dabei um die 58,60Euro geht, die ich dann pro Jahr mehr bezahle. Sondern weil ich es einfach für "ökologischen Wahnsinn" betrachte. Verbrauche ich (und alle anderen Menschen auch) pro Jahr wieder einige KW mehr, so werden noch mehr Kraftwerke gebaut und noch mehr die Umwelt verpestet. Ich bemühe mich, meinen Energiehaushalt stagnierend zu halten oder eben zu vermindern (wie gesagt nicht wegen der Kosten!).

Was ich haben möchte ist nicht einmal eine effizientere Grafikkarte, die besonders viel Leistung aus besonders wenig Strom heraus holt. Sicher, das ist das optimum...

Nein, es würde mir vollkommen ausreichen, wenn es eine (HighEnd-) GraKa geben würde, welche einen signifikanten Unterschied zwischen Last und idle macht. Von mir aus mit einem zweiten Chip auf der Karte, wenn eine Einzelabschaltung von PixelPipes/ Quads/ Shadern usw. usf nicht möglich ist. Eine GraKa, welche sich gerade tierisch langweilt, darf nicht 100W strom verbrauchen -> so einfach ist das (in meinen Augen). 20W oder 30W gehen klar, alles darüber hinaus ist "ökologischer Wahnsinn".

Und je länger auf diesem Pfad weiter getrampelt wird, umso schlimmer für die Umwelt. Es sind ja nicht nur die primären Energiekosten. Da kommt sekundär ja auch einiges dazu. Bei solchen Monstern braucht man dann schnell mal ein neues (größeres) Netzteil, das muss auch erst mal hergestellt und verschickt werden, was Energie kostet und Schadstoffe produziert (von der jährlich steigenden Menge Elektronikschrott, der auf der Halde landet mal nicht zu reden).

Ich hoffe, dass es für Kunden wie mich auch mal "vernünftige" HighEnd Produkte geben wird und dass dieser Wahnsinn auch mal generell ein Ende hat. Ebenso hoffe ich, dass als Argument für Strom-Monster-Grafikkarten nicht immer wieder kommt "mein Gott, dann kostet es eben pro Jahr 30 Euro mehr Strom, das interessiert doch niemanden" (eben dass es niemanden interessiert finde ich so shice).

Paul Brain
2007-04-05, 16:06:41
@ den Liebhaber hoher Drehzahlen:

Offensichtlich hast Du mich nicht wirklich vollständig verstanden. Ich heiße es keineswegs gut, daß Grafikkarten derart viel verbrauchen, und genau aus dem Grund der Idle-Verschwendung habe ich mir keinen G80 gekauft sondern warte auf einen hoffentlich sparsameren G90; trotzdem wäre es irrelevant, wenn ich einen G80 hätte und diesen den ganzen Tag idlen lassen würde, da eben nicht "alle anderen auch" ein paar kWh mehr verbrauchen, weil "alle anderen" eben keinen G80 haben (zu teuer) oder diesen auch hauptsächlich zum Spielen einsetzen (wo er nicht viel mehr verbraucht als DX9-Lösungen) und nicht als Grafiklösung für den privaten Fileserver.
Mit dem 50kWh-Beispiel wollte ich veranschaulichen, wieviel Energie man einfach so hinten rausbläst wenn man mal wieder mit dem Auto fährt. Würde eine kWh in fossilen Brennstoffen ähnlich viel kosten wie Strom, dann würden wohl alle endlich mal aufhören, die vorher unnötig aufgewendete Energie an der nächsten Ampel wieder runterzubremsen.

Übrigens sprichst Du ein sehr wichtiges Thema an: den Energieaufwand zur Herstellung von elektronischen Komponenten. Vielen ist offenbar nicht bewußt, daß sie selbst bei jahrelangem Dauerbetrieb niemals die Energiekosten erreichen, die bei der Herstellung angefallen sind. Abgesehen davon gibts dann noch zahlreiche giftige Materialien, deren Entsorgung aufgrund des herrlichen Materialmix' äußerst schwierig ist.

Auch aus diesem Grund werde ich jetzt meine zwei Netburst-Xeons sicher nicht auf den Müll schmeissen, nur um mit der sparsameren Core-Architektur zu "sparen". Die Xeons beherrschen wenigstens das Sparen im idle-Mode: Enhanced C1-mode, Demand based switching etc. verringern die Stromaufnahme enorm.

Der eigentliche Wahnsinn passiert ja in den Rechenzentren, wo irrsinnig viel Strom aufgewendet wird, um Strom verbrauchen zu können...^^
Damit meine ich die notwendige Klimatisierung von Serverräumen. Immerhin hält auch dort endlich das Stromsparen Einzug, leider weniger aus Umweltschutz- denn aus technischen Gründen, da man sparsamere Prozessoren eben noch dichter packen kann und die beste Klimaanlage irgendwann die zig kW Verlustleistung nicht mehr wegbekommt.


Was ich mit all dem sagen will ist: als Techniker widerstrebt es auch mir, wenn ich sehe, daß aktuelle PCs bald das Energieverbrauchsniveau alter Röhrenrechner erreichen; dabei wurde der Transistor einst als Stromsparwunder angepriesen...
Wenigstens erzeugen wir hier in .at einen signifikanten Teil unseres Strombedarfs aus Wasserkraft.

Gast
2007-04-05, 21:44:13
Tut mir leid, aber ich verstehe nicht, worauf Du hinauswillst...


Der Verbrauch von Highend-Karten ist bei globaler Betrachtung aber tatsächlich irrelevant; die Masse wird ohnehin von integrierter und anderer Lowcost-Grafik gestellt, und die verbraucht nunmal wenig. Viel schlimmer sind z.B. Rechner in der Arbeit, die aus Faulheit über Nacht nicht abgeschalten werden und vielleicht dank nicht konfigurierter Energiesparoptionen nichtmal den Bildschirm in der Nacht in den Standby schicken. Die Menge an Leuten, die eine Highend-Grafikkarte haben ist an sich schon relativ gering, die Leute, die eine haben, welche keinen stromsparenden Idle-Modus beherrscht (=G80)ist noch deutlichst geringer und die Leute, die ihren Highend-Rechner mit G80 24/7 laufen lassen ist wohl so verschwindend gering, daß sie in einer Statistik nichtmal aufscheinen würde.
Zum Vergleich: Für "normales" Autobahntempo benötigt man in etwa 50kW; fährt man eine Stunde mit einem 50kW-Auto flott auf der Autobahn, muß man also etwa 50kWh aufwenden; mit dieser Energiemenge kann selbst ein leistungshungriger Highend-PC unter Vollast etwa 100h (!) betrieben werden; rechnet man jetzt mit etwa 10h täglicher Nutzung und davon 5h Vollast, so wären das überschlagsmäßig schon etwa 14 Tage Betrieb...

Ich finde auch nicht, daß die Grafikkartenhersteller agieren wie Intel seinerzeit beim P4; abgesehen davon, daß Intel sicher nicht erwartet hatte, daß die Verlustleistung beim P4 trotz neuerer Prozesse derart ansteigen würde (man erinnere sich an das 90nm-Desaster). Die aktuellen GPU-Designs sind eigentlich sehr effizient, aufgrund des Konkurrenzdrucks muß aber an die Grenzen des technisch mach- und kühlbaren gegangen werden, was sich eben in entsprechender Verlustleistung niederschlägt. Auch der R600 wird wohl kein Netburst-Ansatz sein; Ziel sind nicht hohe Taktraten und hohe Verlustleistungen, Ziel ist maximale Leistung; und je effizienter das Design ist, umso höher läßt sich die Leistung bei einem gegebenen Thermal Budget treiben. Die Hersteller sind also sehr wohl bemüht, energieeffizient zu designen.
Vor allem sind die 50 kW nur mechanische Leistung. Bei einem Motorwirkungsgrad von ca. 35 % müssten dann eigentlich fast 143 kW in Form von Brennstoff aufgebracht werden, da ein Großteil der Energie sofort in Wärme umgewandelt und ungenutzt in die Umwelt abgeben wird. Diese Katastrophe passiert weltweit jede Sekunde zig Millionen mal.
Und ich würde mal behaupten, dass G80 effizient und effektiv ist. Er performt saumäßig gut und braucht dafür relativ wenig Leistung, in Bezug auf seine Vorgänger beider Hersteller. Würde behaupten, das geht in 90 nm gar nicht mehr besser als das was nV hier abgeliefert hat. Im Idle hätte man vielleicht noch etwas machen können aber sonst...

Paul Brain
2007-04-05, 22:11:16
Vor allem sind die 50 kW nur mechanische Leistung. Bei einem Motorwirkungsgrad von ca. 35 % müssten dann eigentlich fast 143 kW in Form von Brennstoff aufgebracht werden, da ein Großteil der Energie sofort in Wärme umgewandelt und ungenutzt in die Umwelt abgeben wird. Diese Katastrophe passiert weltweit jede Sekunde zig Millionen mal.Sehr guter Punkt mit dem miserablen Wirkungsgrad von Verbrennungsmotoren...
Was ich mir auch schon manchmal gedacht habe: Trägt nicht auch die Wärme, die wir tagtäglich durch die massenhafte Verbrennung fossiler Brennstoffe erzeugen zur globalen Erwärmung bei? Man gehe mal im Sommer in eine Parkgarage mit schlechter Belüftung, in der man richtiggehend die Hitze der eben erst abgestellten Motoren spürt...

Und ja, G80 würde ich auch als effizient bezeichnen; unter Vollast. Und ich hoffe, daß die Idle-Stromverschwendung spätestens mit G90 wieder der Geschichte angehört...

Ph0b0ss
2007-05-01, 20:31:55
Der Wirkungsgrad bei der Erzeugung des Stroms ist aber auch nicht viel besser! Bei Kernkraftwerken und Kohlekraftwerken liegt der auch nur bei 35% bis max. 45% (bei anderen Kraftwerksarten ist es ähnlich).

Da wird auch extrem viel Wärme an die Umwelt abgegeben. Durch die Kraftwerke insgesamt wohl noch viel viel mehr als durch die Autos.

Gast
2007-05-01, 22:25:11
Ich bin schon seit einer ganzen weile am überlegen, warum es eigentlich keine stromsparenden High-End Grafikkarten gibt. Den jetzt, wo alle von Klimawandel und Energie sparen reden, währe es doch auch langsam mal angebracht auch die High-End Grafikkarten stromsparender zu machen. Den technisch müßte sowas doch möglich sein, den bei CPUs geht es ja auch (bestes Beispiel Conroe mit nem TDP von 65W).

Warum kann es also nicht auch High-End Grafikkarten mit nem TDP von 65W geben?

Daran sind die Amis Schuld.

In erster Linie denken die meisten Leute doch so,
wer sich eine High-End Karte für > 300 € leisten kann,
der kann auch die Stromrechnung bezahlen.
Die 20 € im Jahr reißen es also nicht heraus.


Aber, und jetzt komt es warum die Amis schuld sind, immerhin ist NVidia eine US Firma.


Auch uns Deutschen können uns die 20 € eigentlich egal sein, denn wer so ne Karte hat,
der hat auch das Geld.
Denkt man zuerst.

Aber, jetzt ist es so, daß wir Deutschen es im Sommer halt nicht zu warm haben wollen.
Daher macht für uns ein Stromsparender Rechner sehr wohl Sinn, vor allem im Sommer,
obwohl wir eigentlich locker das Geld hätten die paar Euro an Stromrechnung zu bezahlen.
Nur, wir haben im Gegensatz zu den Amis in der Regel keine Klimaanlage.


DAS ist der Grund, warum sich die Leute bei NVidia nicht darum scheren,
die Grafikkarte sparsamer zu machen.
Die Abwärme, das wirklich einzige Argument gegen den hohen Stromverbrauch (die Stromkosten sind kein Argument!) juckt die Leute in Amerika nicht, denn dazu ist ja die Klimaanlage da.

Und solange die Entwickler bei NVidia wissen, daß in ihrem Markt Nr.1 USA die Leute sowieso eine Klimaanlage haben, ist Stromsparen bei der Grafikkarte kein Thema.

So sieht's aus, leider.


Und der gute stromsparende Pentium M und dessen Nachfolger Core 2 Duo ist aus Isreal,
da denkt man über den Stromverbrauch und die produzieret Abwärme anders nach,
als in den USA.
Gleiches gilt für AMD und Dresden in Deutschland.

Deswegen sind CPUs spramsam und Grafikkarten nicht.

Gast
2007-05-01, 22:43:34
Imo wird es in Zukunft selbst keine für Spiele brauchbare Mid-Range Karten mit TDP 65 W mehr geben. Eher werden um die 100 W und mehr Durchschnittsverbrauch unter Last an der Tagesordnung sein. Da helfen die kleineren Fertigungsprozesse auch nicht viel weiter --> Blame physics

Kein Mensch braucht die vielen Shader und 3d Einheiten im 2d Desktop Betrieb.
Und selbst für Windows Vista würden von den 128 unified Shader die so eine Geforce 8800 hat, 4 Stück genügen.

Das Ziel muß also sein, diesen ganzen Ballast abzuschalten.

Wenn eine Grafikkarte im 3d Modus in einem fordernden Spiel 100 W braucht ist mir das eigentlich egal, damit kann ich leben, wenn aber eine Grafikkarte auch im 2D Modus und dann noch IDLE ebenfalls 100 W braucht, dann läuft etwas gehörig falsch.


Ich erwarte, daß bei einer Grafikkarte im 2d Modus so viel abgeschaltet wird,
daß sie in diesem Modus nur noch 10 W verbraucht und das halte ich auch für technisch möglich.

Der Core 2 Duo braucht nicht ihne Grund nur 8 W im idle Betrieb.
Es wird einfach alles mögliche was nicht benötigt wird abgeschaltet.

Gast
2007-05-01, 23:08:01
High(est) End Hardware ist nur drauf ausgelegt, das absolute maximum an Leistung zu Erbringen. Die 10€ / Jahr die eine Highend Graka mehr an Strom verballern, interessieren die Clientel eh nicht. Wer 600 EUR für eine Grafikkarte ausgeben kann, wird dann sicher nicht über ein paar KWh nachdenken.

Wem diese Philosophie zuwider ist, soll sich halt einfach Midrange kaufen und glücklich sein.

Deine Philosophie ist Schwachsinn!

Eine GeForce 7900 GTX braucht im IDLE Betrieb nur 31.2 W (siehe Grafik auf der 1. Seite dieses Threads).
Eine GeForce 8800 GTS braucht im IDLE Betrieb ca. 90 W.

Bei 15 Cents/KW und 10 h Laufzeit/Tag macht das im Jahr folgende Mehrkosten aus:

Geforce 7900 GTX = 17,08 €
Geforce 8800 GTX = 49,25 €

Das sind also 32,20 € Mehrkosten im Jahr für 0 Mehrleistung!
Denn im 2d Betrieb im IDLE Modus hat die Geforce 8800 GTX nichts zu bieten,
was die Geforce 7900 GTX nicht auch könnte.

Kurz gesagt, daß sind 32,20 € die man im Jahr wegen gar nichts rausschmeißt.


Aber selbst das ist wohl nicht mal das eigentliche Problem.
Wer sich eine Geforce 8800 GTX leisten kann, der kann auch sicher die Stromkosten locker bezahlen, aber die produzierte Abwärme in seinem Zimmer kriegt er trotzdem nicht raus.

Jetzt wo man das Lüftergeräuschproblem gelöst hat (aktuelle Karten sind leise genug),
ist das nächste Problem die Hitzeentwicklung und die merkt man bei den hohen Temperaturen im Sommer.

Wer dann keine Klimaanlage hat, der sitzt trotz IDLE Betrieb des Rechners also in der Sauna
und wenn er eine Klimaanalge haben solte, dann wird er deutlich mehr als 32,20 € Stromkosten haben.



Nicht das Geld ist das Problem, sondern die Heizleistung!
Ich kann mir die Stromkosten locker leisten, aber ich will im Sommer im IDLE Betrieb trotzdem keine Heizung haben.
Und jetzt sag mir, wie da eine Mid Range Karte helfen soll, die unter Last nicht die Leistung bringen kann, die ich haben will?

Gast
2007-05-01, 23:18:36
Es soll auch Leute geben, denen der Stromverbrauch einer High-End-Karte völlig egal ist, da es nur Cent-Beträge sind. Lautstärke spielt auch für viele Leute einfach keine Rolle. Sind das etwa alles Idioten?


Und was ist mit der Abwärme?

Jetzt sag bloß, es gibt auch Leute die gerne im Sommer zum Arbeiten in einer Sauna hocken.

Ja, für mich wären das Idioten.
Wenn ich arbeiten muß, dann will ich nämlich angenehme kühle Temperaturen um ca. 18-20 °C haben.

Gast
2007-05-01, 23:26:20
Der Auto <-> Computervergleich ist absoluter Blödsinn.

Er wäre nur dann sinnvoll, wenn man mit dem Auto noch einen Wohnwagen mit 3 t Gewicht hinerherzieht.

Das würde dann folgendem entsprechen:

Auto + Wohnwagen = 3d Modus
nur Auto = 2d Modus


Und schon verbraucht das Auto weniger Sprit.

Coda
2007-05-02, 00:15:44
Gleiches gilt für AMD und Dresden in Deutschland.
Die gesamte AMD-Chipentwicklung ist in den USA.

Dein gesamter Beitrag ist ziemlich an den Haaren herbeigezogen.

rpm8200
2007-05-02, 09:24:44
Ein witziger Gedanke: Weil die 8800GTX soviel Wärme produziert muss man im Sommer ne Klimaanlage laufen lassen, die die produzierte Abwärme wieder weg kühlt, natürlich auch wieder mit Strom...

Aber wie heisst es in der netten EON Werbung:

Kind 1: 1kg Strom bitte
Kind 2: Tut mir leid, Strom ist aus
Kind 1: Das kann doch nicht sein, mein Papa sagt, der Strom geht nie aus?!
Sprecher: Richtig. Der Stom geht nie aus. Dafür sorgt EON [blablabla]

:|

Und genau diese Einstellung schadet uns schon seit vielen vielen Jahren. Beim Mehrverbrauch wird nur auf die Kosten geschaut, denn das ist alles was zählt. Es gibt aber auch Werte, die sich nicht in Euro und Cent aufwiegen lassen. Mir ist klar, dass ich mit solchem Gedankengut im falschen Forum bin.

Meiner Meinung nach ist die Abwärme solcher Karten auch tatsächlich nicht das Problem (wie ein Gast hier beharrlich einwirft). Das Problem ist der Verbrauch unter nicht-Last-Bedingung.

Und hier wieder ein Auto-Computer Vergleich (Anhänger braucht man dazu nicht...!): Wenn ich mit meinem Wagen 1 Stunde an der Ampel stehe soll er nicht das selbe Verbrauchen wie bei einer Stunde Vollgas auf der Autobahn. Er soll nur einen Bruchteil davon verbrauchen. Es ist klar, dass man sich ein Auto nicht kauft, um eine Stunde an der Ampel zu verbringen (macht man ja in der Praxis auch nicht), dennoch verbringt ein Auto in seinem Leben eine größere Zeitspanne im Leerlauf. Dass ein Ferrari im Leerlauf mehr braucht als ein VW Polo ist auch okay, trotzdem darf nicht der oben geschilderte Fall eintreten, dass es "egal" ist, wieviel unter welchem Lastzustand verbraucht wird.

Und nur ums nochmal klar zu machen: Ich spiele gerne 3D, gerne auch mit besseren Settings. Ich würde auch eine 8800GTX kaufen können, wenn ich wollte. Würde das vielleicht auch tun, wenn nicht dieser exorbitante Stromhunger wäre. Mein Hauptrechner läuft nur etwa zu 10-20% in 3D, den Rest der Zeit eher 2D. Da fällt mir noch ein: Unter Vista sollte natürlich die Karte auch nicht "Vollgas" laufen, nur weil der Desktop "3D" ist, da hat schon jemand dazu was gesagt: Auch da sollte es eine Möglichkeit geben, die Karte zu großen Teilen zu deaktivieren, sodass ein Verbrauch von wenigen Watt möglich wird.

Höchste Verbräuche nur bei höchster Leistung. Bei NV sollte ja noch der Stromspar-Wundertreiber kommen, aber ich denke das war nur Marketinggeschwätz. Da wird kaum noch viel nachkommen.

Schade, dass man niemanden mehr glauben kann...

Giraffengustav75
2007-05-08, 09:43:32
Und genau diese Einstellung schadet uns schon seit vielen vielen Jahren. Beim Mehrverbrauch wird nur auf die Kosten geschaut, denn das ist alles was zählt. Es gibt aber auch Werte, die sich nicht in Euro und Cent aufwiegen lassen. Mir ist klar, dass ich mit solchem Gedankengut im falschen Forum bin.
Das finde ich nicht, ein solches Thema sollte in jedem Forum wichtig sein. Ich finde es auch nicht gut, dass ein hoher Verbrauch nur des Geldes wegen als schlecht erachtet wird. Wenn 1KWh nur 1 Cent kosten würde, wäre der Verbrauch also ok?

Ich muss sagen, ich bin etwas enttäuscht von der neuesten Generation:
Die 8800 GTS wäre meine absolute Traumgrafikkarte! Traum Leistung, Benchmark-Schwanzbalken sind immer schön steif und lang ;), alles toll. Aber was ist denn das für ein Verbrauch? Das ist für mich das einzige Problem an der Karte, aber gleichzeitig ein unzumutbares! Ich weiß natürlich, dass die Leistung pro Watt gewaltig ist, aber mir geht es um den puren Verbrauch an sich.

Und wenn ich dann die Sachen über den R600 lese........ich weiß nicht, ob ich unter solchen Umständen überhaupt jemals meinen PC aufrüsten würde. Ich finde, Karten mit den Leistungen dieser Generation hätten erst mit 65 nm rauskommen dürfen. Wenn Nvidia eine 65 nm-Version der 8800 GTS oder vergleichbar mit der Verlustleistung der 8600 GTS und ganz ganz ganz stark reduziertem Idle-Verbrauch raus bringen würde............da wäre ich ohne zu überlegen sofort dabei!

Gast
2007-05-08, 10:17:01
Aber könnte man nicht im 2D Modus die Spannung senken oder macht man das schon?!


2D ist tot -> Aereo

Godlike
2007-05-08, 10:20:17
2D ist tot -> Aereo

Und? Für den reicht ein Bruchteil vom G80. Nicht benutzte Teile sollten dennoch abgeschalten werden.

LovesuckZ
2007-05-08, 10:26:40
Und? Für den reicht ein Bruchteil vom G80. Nicht benutzte Teile sollten dennoch abgeschalten werden.

Das Abschalten von Einheiten scheint nicht "On-the-Fly" zu funktionieren.
Das einzige, was sinnvoll wäre, wäre eine Taktsenkung und eine eventuelle geringere Spannung im 2D Modus. Vorallen erstens sollte kein Problem darstellen.

Gast
2007-05-08, 12:04:31
2D ist tot -> Aereo

Für Aero bruachst du aber nicht 128 aktive unified Shader!

Da reichen auch 2 aktive Shader, den Rest kann man abschalten.

Gast
2007-05-08, 12:05:13
Das Abschalten von Einheiten scheint nicht "On-the-Fly" zu funktionieren.

Die CPU Hersteller kriegen das auch gebacken, warum NVidia nicht?

lichtblick
2007-05-27, 23:34:13
ja weil ja schon die chips da sind eine umstellung würde 10000000 kosten

Gast
2007-05-28, 08:28:37
alles Quark ein 500PS Auto spart auch kein Sprit.

Ferengie
2007-05-28, 10:05:21
Wisst ihr warum "Eine unbequeme Wahrheit" von Al Gore in America in Buch und Film Form so erfolgreich ist?
Weil es erstmals eine breite Masse die Klimakatastrophe in America nahe bringt.
Klimaschutz ist in America nur einigen wenigen "Spinnern" bekannt. Der Großteil hat noch nie, dank Medien und Politik, davon Kenntnis bekommen.

mapel110
2007-05-28, 10:12:38
Die CPU Hersteller kriegen das auch gebacken, warum NVidia nicht?
CPU-Hersteller senken bislang auch nur Takt und Spannung, sie schalten nichts komplett ab.
alles Quark ein 500PS Auto spart auch kein Sprit.
Eben. Bei den High End Chips geht man an das maximal Mögliche. Also reizt man das Potenzial für Abwärme auch bis zum Maximum aus.
2D ist tot -> Aereo
Es gibt noch genug Leute, die Aero abschalten. Obendrein gibts sogar eine Vista-Version, die gar kein Aero hat.

iirc gibts auch noch kein Programm, dass Aero in irgendeiner Form sinnvoll nutzt.

Hauwech
2007-05-28, 10:28:02
Die CPU Hersteller kriegen das auch gebacken, warum NVidia nicht?

Imho weil sie nicht genügend Kapital im Rücken haben.

Gast
2007-05-28, 10:32:41
Imho weil sie nicht genügend Kapital im Rücken haben.

Das glaube ich eher weniger. ;D

Sogar der User von nebenan kann bereits das, was NVIDIA nicht macht: Die Karte mit anderen Spannungen austatten.

Ich frage mich auch schon lange, warum die den Takt und die Spannung nicht noch weiter absenken. Schlimm wäre es, wenn sie das beim Design der Karte von Anfang an nicht eingeplant hätten...

The_Invisible
2007-05-28, 10:59:20
Das glaube ich eher weniger. ;D

Sogar der User von nebenan kann bereits das, was NVIDIA nicht macht: Die Karte mit anderen Spannungen austatten.

Ich frage mich auch schon lange, warum die den Takt und die Spannung nicht noch weiter absenken. Schlimm wäre es, wenn sie das beim Design der Karte von Anfang an nicht eingeplant hätten...

weil sie eben auf probleme gestoßen sind die ein "user nebenan" garnicht nachvollziehen kann. und gibts bei manchen problemen passt es dem user wieder nicht.

manche tun hier wirklich so als würden da nur frischgebackene hochschulabsolventen tätig sein die gerade die theorie in die praxis umsetzen wollen (was natürlich immer schief geht). na gut, bei manchen firmen könnte es wirklich so sein...

mfg

=Floi=
2007-05-28, 11:07:40
zitat
alles Quark ein 500PS Auto spart auch kein Sprit.

wenn du wüsstest wie falsch der satz ist...
ps errechnen sich über die drehzahl, beschäftige die mal damit und denke mal drüber nach
bei grafikkarten ist auch die rechenleistung wesentlich höher wie bei prozessoren

Hauwech
2007-05-28, 13:41:25
Das glaube ich eher weniger. ;D

Sogar der User von nebenan kann bereits das, was NVIDIA nicht macht: Die Karte mit anderen Spannungen austatten.

Ich frage mich auch schon lange, warum die den Takt und die Spannung nicht noch weiter absenken. Schlimm wäre es, wenn sie das beim Design der Karte von Anfang an nicht eingeplant hätten...

In einigen Systemen funktioniert es vielleicht, in anderen aber nicht, und nun?

Gast
2007-05-28, 13:49:57
Das Abschalten von Einheiten scheint nicht "On-the-Fly" zu funktionieren.
Das einzige, was sinnvoll wäre, wäre eine Taktsenkung und eine eventuelle geringere Spannung im 2D Modus. Vorallen erstens sollte kein Problem darstellen.
Taktabsenkung halte ich für das einzig mögliche funktionierende Mittel bei der 8800 Serie. Und zu 99 % kann man sagen, dass es dort nie eine Spannungsabsenkung geben wird und eine teilweise Chipaktivierung ist auch sehr unwahrscheinlich.

Gast
2007-05-28, 14:05:32
In einigen Systemen funktioniert es vielleicht, in anderen aber nicht, und nun?

Was ist denn das für eine Frage?

Dann testet man es eben halt vor der Auslieferung, genauso wie man auch die Taktraten testet, bevor man das Produkt so verkauft.

Gast
2007-05-29, 19:27:55
Seeehr schlechter Vergleich. Versuch mal, mit der Gixxer einen Porsche zu ziehen, und schau Dir dann den Verbrauch an... Autos sind viel schwerer als Motorräder, und haben einen viel höheren Luft- und Reibungswiderstand. Insofern sind Motorräder die Energieverschwender, da sie nur einen Bruchteil der Masse eines Autos bewegen müssen aber trotzdem fast genausoviel verbrauchen. Nur ist bei einem Motorrad die Reichweite kein Thema, weilst nach ein paar Stunden auf dem Bock eh eine Pause brauchst.

Btw kann man "Sportwagen" sehr verbrauchsgünstig fahren - man muß es nur können und wollen. Wer natürlich mit maximaler Beschleunigung von Ampel zu Ampel heizt darf sich nicht wundern und die Schuld einfach auf den ach so spritvernichtenden Sportwagen schieben...


also ich muss dir absolut recht geben

wenn ich meinen 3er golf sparsam bewege, gönnt er sich 6,66l
meine 650er domi im sparbetrieb ~5.5l
ergo ist das kfz weitaus effizienter

Hauwech
2007-05-29, 21:27:51
Was ist denn das für eine Frage?

Dann testet man es eben halt vor der Auslieferung, genauso wie man auch die Taktraten testet, bevor man das Produkt so verkauft.

Eine berechtigte Frage wenn man bedenkt was da hinten alles dranhängt und dranhängen kann.

rpm8200
2007-05-31, 18:26:36
Eben. Bei den High End Chips geht man an das maximal Mögliche. Also reizt man das Potenzial für Abwärme auch bis zum Maximum aus.Und trotzdem braucht auch der viel zitierte Ferrari in idle (z.B. vor der Ampel) nicht dieselbe Menge Benzin wie in gleicher Zeit unter Volllast auf der Autobahn. Irgendwo sind wohl einige Gäste und angemeldete User hier zu einfältig diesen Unterschied zu verstehen?

Dass ein Ferrari auf der AB bei 280km/h eben mal 30Liter/100km weg pumpt gestehe ich einem "HighEnd" Gerät ja zu, ebenso den Verbrauch einer GTX unter Volllast. Sogar, dass ein Ferrari beim Warten vor der Ampel relativ gesehen mehr Sprit verbraucht als der Polo hinter ihm, ist dem Ferrari zugestanden. Ebenso sehe ich dies aufgrund der Tatsache, dass nur sehr wenige Menschen einen Ferrari besitzen nicht wirklich als Bedrohung für die Umwelt an.

Worum es mir (und anderen wohl auch) geht ist doch die Verschwendung unter idle und (man könnte fast sagen vor allem) die Tatsache, dass dies von der überwiegenden Mehrheit einfach hin genommen wird ("is eben so"), anstatt mal darüber nachzudenken.

Ich für meinen Teil hätte nach dem 2900er Launch sicherlich entweder diese oder eine GTX8800 gekauft, wenn eine der beiden dem Umstand Rechnung getragen hätte, dass unter "Nicht-Last" (Desktop, Surfen, Office... ) um den Faktor 7-10 weniger verbraucht werden muss als unter Last.

Ich kann nur hoffen, dass sich das noch einmal ändern wird, denn auf ewig möchte ich auch nicht auf ein 3D Upgrade verzichten. Leider ist in einem anderen thread darauf niemand angesprungen, darum versuche ich es nochmal hier: Gibt es nicht die Möglichkeit, die PCIe karte abzuschalten (zu deaktivieren) während man nicht zockt und in dieser Zeit auf eine onboard-Grafik zurück zu greifen? Falls ja würde ich das bei einem Systemneukauf (vielleicht in 6 Monaten) würde ich das dann so einrichten. Meine Monitore haben sowieso 2 Eingänge, da könnte ich einen Eingang für die 3D Karte nutzen und den Übrigen dann für die Oboard Grafik. Wird die Karte bei Deaktivierung wirklich "ausgeschaltet" (n paar Watt Reststrom wären mir egal, soll eben nicht 100W idle verballern)? Kann man auf einem Rechner gleichzeitig ne NV OnboardGFX (mit NV Treiber) und eine ATI PCIe GFX (mit ATI Treiber) betreiben oder muss man dann schon im Vorfeld NV oder ATI wählen?

Hat sowas schon jemand am Laufen?

Paul Brain
2007-06-02, 12:32:31
Gibt es nicht die Möglichkeit, die PCIe karte abzuschalten (zu deaktivieren) während man nicht zockt und in dieser Zeit auf eine onboard-Grafik zurück zu greifen? Falls ja würde ich das bei einem Systemneukauf (vielleicht in 6 Monaten) würde ich das dann so einrichten. Meine Monitore haben sowieso 2 Eingänge, da könnte ich einen Eingang für die 3D Karte nutzen und den Übrigen dann für die Oboard Grafik. Wird die Karte bei Deaktivierung wirklich "ausgeschaltet" (n paar Watt Reststrom wären mir egal, soll eben nicht 100W idle verballern)? Kann man auf einem Rechner gleichzeitig ne NV OnboardGFX (mit NV Treiber) und eine ATI PCIe GFX (mit ATI Treiber) betreiben oder muss man dann schon im Vorfeld NV oder ATI wählen?

Hat sowas schon jemand am Laufen?
Irgendwo hab ich gelesen, daß genau diese Idee bei Notebooks derzeit evaluiert wird; gibt aber AFAIK noch keine funktionierenden Samples.

Gast
2007-06-02, 14:12:16
Und trotzdem braucht auch der viel zitierte Ferrari in idle (z.B. vor der Ampel) nicht dieselbe Menge Benzin wie in gleicher Zeit unter Volllast auf der Autobahn. Irgendwo sind wohl einige Gäste und angemeldete User hier zu einfältig diesen Unterschied zu verstehen?

Dass ein Ferrari auf der AB bei 280km/h eben mal 30Liter/100km weg pumpt gestehe ich einem "HighEnd" Gerät ja zu, ebenso den Verbrauch einer GTX unter Volllast. Sogar, dass ein Ferrari beim Warten vor der Ampel relativ gesehen mehr Sprit verbraucht als der Polo hinter ihm, ist dem Ferrari zugestanden. Ebenso sehe ich dies aufgrund der Tatsache, dass nur sehr wenige Menschen einen Ferrari besitzen nicht wirklich als Bedrohung für die Umwelt an.

Worum es mir (und anderen wohl auch) geht ist doch die Verschwendung unter idle und (man könnte fast sagen vor allem) die Tatsache, dass dies von der überwiegenden Mehrheit einfach hin genommen wird ("is eben so"), anstatt mal darüber nachzudenken.

Ich für meinen Teil hätte nach dem 2900er Launch sicherlich entweder diese oder eine GTX8800 gekauft, wenn eine der beiden dem Umstand Rechnung getragen hätte, dass unter "Nicht-Last" (Desktop, Surfen, Office... ) um den Faktor 7-10 weniger verbraucht werden muss als unter Last.

Ich kann nur hoffen, dass sich das noch einmal ändern wird, denn auf ewig möchte ich auch nicht auf ein 3D Upgrade verzichten. Leider ist in einem anderen thread darauf niemand angesprungen, darum versuche ich es nochmal hier: Gibt es nicht die Möglichkeit, die PCIe karte abzuschalten (zu deaktivieren) während man nicht zockt und in dieser Zeit auf eine onboard-Grafik zurück zu greifen? Falls ja würde ich das bei einem Systemneukauf (vielleicht in 6 Monaten) würde ich das dann so einrichten. Meine Monitore haben sowieso 2 Eingänge, da könnte ich einen Eingang für die 3D Karte nutzen und den Übrigen dann für die Oboard Grafik. Wird die Karte bei Deaktivierung wirklich "ausgeschaltet" (n paar Watt Reststrom wären mir egal, soll eben nicht 100W idle verballern)? Kann man auf einem Rechner gleichzeitig ne NV OnboardGFX (mit NV Treiber) und eine ATI PCIe GFX (mit ATI Treiber) betreiben oder muss man dann schon im Vorfeld NV oder ATI wählen?

Hat sowas schon jemand am Laufen?
Mit normalen "Stromsparmethoden" also Takt- und Spannungsabsenkung ist mit keinem niedrigen Bedarf zu rechnen, wenn die Graka eine hohe TDP hat. Sieht man ja bei X2900. Ohne Voltabsenkung würde die noch mehr im Idle brauchen. Der Refresh vom G80 kann nur wesentlich stromsparender werden, falls der 65 nm Prozess einiges an Einsparung bringt und die Transistorenzahl gleich bleibt. Wird er aber weiter aufgeblustert, könnte er im Endeffekt genausoviel verbrauchen. Da müssen wirklich neue Techniken wie Teile vom Chip deaktivieren her. Ich denke allerdings, dass der Leistungsbedarf der Grakas auch in nächster Zeit nicht höher als der einer X2900 sein wird. Denn das ist das Limit, was mit Dual Slot Kühlung noch einigermaßen kühlbar ist. Das ist das einzig gute, sonst würden die Hersteller da keine Rücksicht draufnehmen. Denn auch 300 W Monster würden ihre Abnehmer finden.

Gast
2007-06-03, 10:18:00
Irgendwo hab ich gelesen, daß genau diese Idee bei Notebooks derzeit evaluiert wird; gibt aber AFAIK noch keine funktionierenden Samples.Doch, es gibt sogar schon serienreife Notebooks mit solchen Features. Weiß nicht mehr genau von welchem Hersteller, aber verbaut waren eine Intel-GMA950-IGP sowie eine Geforce 6 Go. Der große Nachteil war allerdings, dass man für den Wechsel der Grafikkarte den Rechner neu starten musste, was das ganze recht witzlos macht.

In verbesserter Form ohne Neustart-Zwang ist das für Notebooks sicherlich interessant.

aylano
2007-06-03, 10:24:34
Der neue AMD-RS690-Notebook-Chipsatz kann das.
Die Desktop-Version soll das nicht können. Schade, denn genau da hätte AMD mit ihren 300W-Grafikheizungen punkten können.

Mit 2-3 Mauseklicks kann man die Grafikkarte aus oder einschalten.

Magellan
2007-06-03, 11:55:09
Doch, es gibt sogar schon serienreife Notebooks mit solchen Features. Weiß nicht mehr genau von welchem Hersteller, aber verbaut waren eine Intel-GMA950-IGP sowie eine Geforce 6 Go.

Der Hersteller hieß Cebop.

Hier ein Test zu einem der Notebooks (HEL 750): http://www.hartware.de/review_555_4.html

Slipknot79
2007-06-06, 17:28:55
warum kann es keinen sportwagen mit einem 3l verbrauch geben ?

...


Warum kann es kein perpetuum mobile geben?

>Sportwagen sind nun dafür gebaut, eine Monströse Kraft aufzubringen um den riesigen Luftwiderstand bei über 300 Sachen zu überwinden.


Naja, so einfach ist das nicht. Du kannst auch mit 7L auf 300km/h kommen, wirst aber ewig brauchen. Was ich sagen will, Autos haben ne gewisse Trägheit durch ihre Masse. Je mehr Masse, desto größer die Trägheit. Es geht nun darum die Trägheit möglichst schnell zu überwinden, man nennt das auch Beschleunigung. Je schneller man die Trägheit überwinden will, desto mehr Energie braucht man und die steckt eben im Sprit drinen. Das ist auf Grakas übertragbar. Trägheit="Effekte". Je mehr "Effekte", desto mehr Energie, desto mehr Strom um möglichst viele fps zu errechnen.

Paul Brain
2007-06-08, 01:16:06
Naja, so einfach ist das nicht. Du kannst auch mit 7L auf 300km/h kommen, wirst aber ewig brauchen. Was ich sagen will, Autos haben ne gewisse Trägheit durch ihre Masse. Je mehr Masse, desto größer die Trägheit. Es geht nun darum die Trägheit möglichst schnell zu überwinden, man nennt das auch Beschleunigung. Je schneller man die Trägheit überwinden will, desto mehr Energie braucht man und die steckt eben im Sprit drinen.
Da muß ich Dir widersprechen. Ab einer gewissen Geschwindigkeit nimmt auf der Erde ;) der Luftwiderstand gegenüber dem Rollwiderstand und der Massenträgheit überhand. Dein Beispiel gilt nur im luftleeren, schwerelosen Raum.
Auf der Dosenbahn bei 150 Sachen ist es effektiv wurscht, ob Du einen 700kg-Kübel, der fast am abheben ist oder einen Bayrischen 2-tonner bewegst: bei gleicher Motorleistung werden beide nahezu gleichlang brauchen, um weiter zu beschleunigen; hier zählt nur mehr der cW-Wert...

Slipknot79
2007-06-08, 02:41:15
Da muß ich Dir widersprechen. Ab einer gewissen Geschwindigkeit nimmt auf der Erde ;) der Luftwiderstand gegenüber dem Rollwiderstand und der Massenträgheit überhand. Dein Beispiel gilt nur im luftleeren, schwerelosen Raum.
Auf der Dosenbahn bei 150 Sachen ist es effektiv wurscht, ob Du einen 700kg-Kübel, der fast am abheben ist oder einen Bayrischen 2-tonner bewegst: bei gleicher Motorleistung werden beide nahezu gleichlang brauchen, um weiter zu beschleunigen; hier zählt nur mehr der cW-Wert...


Ich ging natürlich von gleichen Bedingungen aus oO

Paul Brain
2007-06-10, 15:55:18
Ich ging natürlich von gleichen Bedingungen aus oO
Das war gar nicht der Kritikpunkt in meiner Antwort. Mir gings darum, daß man mit 7l eben nicht auf 300km/h kommt, es sei denn im luftleeren, schwerelosen Raum. Da reicht die kleinste Kraft aus um eine Beschleunigung zu erzielen, und zwar eine geschwindigkeitsunabhänigige Beschleunigung, da ja keine Kräfte dagegenwirken (Luftwiderstand, Rollwiderstand).
Auf der Erde ist das leider nicht möglich. Für die Endgeschwindigkeit ist einzig und allein die Motorleistung und der cW-Wert interessant, das Fahrzeuggewicht spielt (in der Ebene) absolut keine Rolle.
Schonmal wirklich schnell gefahren? Dann wirst Du merken, daß die meisten Autos bei etwa 120km/h anfangen, deutlich mehr zu verbrauchen; bis etwa 160km/h gehts dann noch recht "sparsam" zu, aber darüber rinnt der Sprudel nur so rein. Selbst mit hubraumschwachen Autos verbrauchst Du bei Dauer-200 locker Deine 10l/100km, bei abgeregelten 250km/h verschwand bei meinem 750er die Verbrauchsanzeigernadel im Nirvana jenseits der 30l/100km, und das aber ohne Beschleunigung, sondern nur zum Halten der aktuellen Geschwindigkeit...

Slipknot79
2007-06-10, 17:24:14
Naja, 7L waren vllt etwas übertrieben, kommt aber wohl auf den cw-wert an (und der scheint beim 750er nicht gerade rosig zu sein), aber es ging da weniger um die Richtigkeit von 7L, als eher einen Vgl zw Autos und Grakas herzustellen und dass eben Energie notwendig ist um Leistung zu bringen. Habe mich vorhin in die Materie etwas reingelesen und sah dass der Luftwiderstand tatsächlich mit der Geschindigkeit ums Quadrat steigt, also recht enorm oO.

BlackBirdSR
2007-06-11, 15:39:39
Kann mir noch einmal jemand erklären, was Autos jetzt mit dem verbrauch von CPUs und GPUs zu tun haben?
Sonst wird der Thread ausgelagert....

Paul Brain
2007-06-11, 16:21:09
Kann mir noch einmal jemand erklären, was Autos jetzt mit dem verbrauch von CPUs und GPUs zu tun haben?
Sonst wird der Thread ausgelagert....
Sorry fürs OT.

Prinzipiell gings darum, daß eine Grafikkarte auch noch so High-endig sein kann wie sie will, sie dürfte (sollte!) nur bei Ausnützung der Leistung viel Strom verbrauchen. Ein Sportwagen verbraucht an einer roten Ampel stehend auch nicht 80% seines Maximalverbrauchs, selbst mit noch so viel Hubraum und PS (kW)...

BlackBirdSR
2007-06-11, 17:41:46
Sorry fürs OT.

Prinzipiell gings darum, daß eine Grafikkarte auch noch so High-endig sein kann wie sie will, sie dürfte (sollte!) nur bei Ausnützung der Leistung viel Strom verbrauchen. Ein Sportwagen verbraucht an einer roten Ampel stehend auch nicht 80% seines Maximalverbrauchs, selbst mit noch so viel Hubraum und PS (kW)...

Das liegt daran, dass der Motor an der Ampel nur den Leerlauf halten muss.
In diesem Punkt bricht der ganze Vergleich zusammen.

Um ihn halbwegs zu retten, müsste man postulieren, dass ein Sportwagen an der Ampel die ganze Zeit Sprit verliert. Erst bei Betrieb dichten die Tanks und der Verlust ist gegenüber dem Betrieb vernachlässigbar.
Aber dann wären wir bei der SR-71 :biggrin:

So oder so:
Ein ASIC hat heut zu Tage extrem hohe statische Leckströme. Die lassen sich meist nicht vermeiden bei solch komplexen ICs. Es gibt nur wenige Gegenmaßnahmen, eine davon ist das drastische Absenken der Spannung. Warum das beim G80 nicht läuft ist die große Frage.
Eine andere ist das Abschalten von Funktionsblöcken - auch das scheint nicht (korrekt) implementiert. Entweder hatte man keine Zeit, oder zu wenig Erfahrung.

Aber mit Vista und 3D-Apps in Fenstern bekommt man sowieo Probleme. Man kann nicht eben alle Cluster bis auf einen abschalten, und den Takt auf 200MHz senken, wenn man nicht zu 100% erkennen kann, ob eine Applikation Leistung benötigt.
Meine GPU schaltet im Fenstermodus sofort in den 2D-Modus um, und da geht Leistung verloren...

CPUs haben es viel einfacher. Zu wie viel Prozent schätzt ihr, ist ein G80 im Betrieb bei Crysis oder UT3 ausgelastet? Wieviele der Transistoren sind mit dem Taktsignal versorgt und aktiv am schalten?
Und jetzt nehmen wir die CPU: WIeviel Prozent sind es dort?
Kleiner Tipp: von den max möglichen 5 Instruktionen packt Core2 gerade einmal 1.3 pro Takt wenn es gut läuft. Ganz nebenbei hat Intel wahrscheinlich die effektivste Fertigungstechnik auf diesem Planeten.

Also lange Rede kurzer Sinn:
CPUs und GPUs sind wieder einmal nur sehr schwer zu vergleichen. Und Autos und ASICs sowieso nicht.
GPUs haben sehr viel mehr aktive Transistoren und damit leider sehr viel mehr dynamische und statische Verluste.

Bestes Beispiel PentiumM vs Prescott. Viele Logiktransistoren = viel Abwärme

Slipknot79
2007-06-11, 17:57:01
>Das liegt daran, dass der Motor an der Ampel nur den Leerlauf halten muss.
In diesem Punkt bricht der ganze Vergleich zusammen.


Und die Graka braucht nur den Desktop zu "halten", da sollte ja kein enormer Aufwand dahinter stecken.
Spannung absenken=Drehzahl absenken würde ich mal meinen.

Paul Brain
2007-06-11, 18:06:54
Schon klar. Nur steigt die Verlustleistung direkt proportional mit der Taktfrequenz; könnte man diese (und damit auch die Spannung!) senken würde man sehr viel Verlustleistung sparen können.
Um wieder auf das Beispiel mit den Autos zu kommen: den Sportwagen (oder welches Auto auch immer) hält man an der Ampel ja auch nicht auf max. Drehzahl...
Ich finde, daß man das sehr gut vergleichen kann. Drehzahl = Taktrate; Spritzufuhr = Spannung; Zylinderabschaltung = Einheiten deaktivieren. Man muß nicht alles davon haben, um sparen zu können; nur G80 hat nichts von alldem...
Nochmal: es geht uns hier nicht um die Verlustleistung des G80 unter Last; es geht um das Verhältnis Verlustleistung unter Last zu Verlustleistung im Idle... Zahlreiche Generationen davor haben hier Verhältnisse von 3:1 oder sogar besser; man nehme nur mal die 7800GTX 512 als Beispiel: Etwa 30 Watt im Idle, fast 130W TDP... Auch das ist eine GPU mit zwar deutlich weniger Transistoren als G80, aber auch in einem viel älteren Fertigungsprozeß!

Ich hoffe mal, daß nV einfach keine Zeit hatte bzw. das Design schon zu weit fortgeschritten war und aus Konkurrenzdruckgründen damals auf Sparmechanismen verzichtet wurde, da ja keiner wußte, daß R600 ein noch dazu verspäteter Rohrkrepierer werden würde. Eben aus dem Grund hat G80 ja auch keinen umfassenden Videoprozessor, G84/86 aber schon.
Also hoffen wir mal das beste für den im Herbst anstehenden Refresh... :)

BlackBirdSR
2007-06-11, 18:56:02
Schon klar. Nur steigt die Verlustleistung direkt proportional mit der Taktfrequenz; könnte man diese (und damit auch die Spannung!) senken würde man sehr viel Verlustleistung sparen können.
Um wieder auf das Beispiel mit den Autos zu kommen: den Sportwagen (oder welches Auto auch immer) hält man an der Ampel ja auch nicht auf max. Drehzahl...
Ich finde, daß man das sehr gut vergleichen kann. Drehzahl = Taktrate; Spritzufuhr = Spannung; Zylinderabschaltung = Einheiten deaktivieren. Man muß nicht alles davon haben, um sparen zu können; nur G80 hat nichts von alldem...
Nochmal: es geht uns hier nicht um die Verlustleistung des G80 unter Last; es geht um das Verhältnis Verlustleistung unter Last zu Verlustleistung im Idle... Zahlreiche Generationen davor haben hier Verhältnisse von 3:1 oder sogar besser; man nehme nur mal die 7800GTX 512 als Beispiel: Etwa 30 Watt im Idle, fast 130W TDP... Auch das ist eine GPU mit zwar deutlich weniger Transistoren als G80, aber auch in einem viel älteren Fertigungsprozeß!

Ich hoffe mal, daß nV einfach keine Zeit hatte bzw. das Design schon zu weit fortgeschritten war und aus Konkurrenzdruckgründen damals auf Sparmechanismen verzichtet wurde, da ja keiner wußte, daß R600 ein noch dazu verspäteter Rohrkrepierer werden würde. Eben aus dem Grund hat G80 ja auch keinen umfassenden Videoprozessor, G84/86 aber schon.
Also hoffen wir mal das beste für den im Herbst anstehenden Refresh... :)

Ich habe mein Argument hinsichtlich der statischen Leckströme und der Designprobleme leider nicht rüberbringen können denke ich :(

Slipknot79
2007-06-11, 19:03:15
Ich habe mein Argument hinsichtlich der statischen Leckströme und der Designprobleme leider nicht rüberbringen können denke ich :(


Was soll der Benzinmotor mit seinen 25% Wirkungsgrad dazu sagen? Schaut auch nicht rosiger aus.

EcHo
2007-06-11, 19:22:32
Was soll der Benzinmotor mit seinen 25% Wirkungsgrad dazu sagen? Schaut auch nicht rosiger aus.
Leckströme wären eher mit einem Loch im Tank zu vergleichen. Aus dem Tropft es dann auch mit 6 Litern an der Ampel, egal ob du Gas gibst oder nicht...

Slipknot79
2007-06-11, 19:36:02
Leckströme wären eher mit einem Loch im Tank zu vergleichen. Aus dem Tropft es dann auch mit 6 Litern an der Ampel, egal ob du Gas gibst oder nicht...


Naja, wenn man das so streng sehen will, so sei gesagt, dass gar nichts 100% dicht ist. Selbst ohne Löcher im Tank, ist das Material durchlässig (Dampfdiffusion)

BlackBirdSR
2007-06-11, 20:00:56
Naja, wenn man das so streng sehen will, so sei gesagt, dass gar nichts 100% dicht ist. Selbst ohne Löcher im Tank, ist das Material durchlässig (Dampfdiffusion)

Jetzt sind wir aber endgültig am Abgrund der Sinnigkeit angelangt. Könnten wir vermeiden da runterzuspringen?

Die Leckströme lassen sich momentan nur per Fertigungstechnologie (genau das Gegenteil tritt ein, wird immer schlimmer), Design (da scheint es Probleme zu geben), niedrigere Spannung (dito) und weniger Komplexität (geht nicht) erreichen.

Irgendwo in der Kette gibt es ein Problem. Sei es defekte Logik, oder sehr ungünstige Signalkriterien. Ohne die oben genannten Kriterien wird die Verlustleistung einfach extrem sein. Und das lässt sich nicht mit Leerlauf an der Ampel vergleichen. Auch eine CPU hat es hier viel einfacher. Einmal durch Intels Fertigung, oder durch AMD/IBMs Fertigung.

Der springende Punkt ist, dass eine GPU dieser Größe und Komplexität automatisch einen sehr hohen Verbrauch hat, und ohne funktionierende Gegenmaßnahmen wird das so bleiben.

Gast
2007-06-11, 20:08:37
Das was du beschreibst, ist eine Problem der Herstellung, hat aber rein gar nichts mit der prinzipiellen Aussage, bzw. Forderung zu tun. Deine Aussage dient nur zur Entschuldigung, kann und wird es aber nicht auf Dauer tun können.

Aquaschaf
2007-06-11, 20:47:04
Naja, wenn man das so streng sehen will, so sei gesagt, dass gar nichts 100% dicht ist.

Der Punkt ist doch das Leckströme kein Detail sind sondern die Hälfte des Leistungsumsatzes ausmachen und sich prinzipiell nicht vermeiden lassen. Der Vergleich mit Autos würde passen wenn es unmöglich wäre Tanks zu bauen aus denen nicht ständig Benzin ausläuft.

Paul Brain
2007-06-11, 21:48:41
Wie der Gast schon sagte: Du versuchst die Verlustleistung zu entschuldigen; darum geht es hier aber nur sehr bedingt.
Auch der G80 könnte deutlich geringere Leckströme haben, wenn er Mechanismen zur Takt- und Spannungsabsenkung hätte. Insbesondere letztere kann Leckströme dramatisch reduzieren, da es bei niedrigerer Spannung viel unwahrscheinlicher ist, daß Elektronen durchs Gate durchdiffundieren. Laienhaft kann man auch das ohmsche Gesetz zur Erklärung heranziehen: Bei gegebenem Widerstand wird bei geringerer Spannung auch ein geringerer Strom fließen.

Unter Last ist der G80 ein Bilderbuch-Effizienzler, bezogen auf die Transistorenzahl und die Rechenleistung. Aber eben nur unter Last...

Ich würde den Leckstrom nicht als "Loch im Tank" analogisieren; ein Verbrennungsmotor muß auch am Stand am Laufen gehalten werden und ist dadurch an sich schon ineffizient, da bedarf es keines Lochs im Tank. Ein E-Motor kennt diese Probleme nicht; steht das Fahrzeug, steht auch der Motor und benötigt keine Energie. Eine Grafikkarte kennt aber keine "rote Ampel", irgendwas hat sie immer zu tun, und wenns bloß die Anzeige von ASCII-Text im DOS-Vollbild ist. Daher wird niemand verlangen, daß eine Grafikkarte für die Darstellung des Desktops so gut wie nichts verbrauchen darf.
Bei Autos war der Verbrauch früher auch locker doppelt so hoch wie heute; wenn man das Fahrzeuggewicht mit dem früherer Autos vergleicht sieht das Verhältnis sogar noch krasser aus. Heutige Autos sind schneller, komfortabler, sicherer und dennoch sparsamer. Es ist also nicht an den Haaren herbeigezogen, daß man auch schnellere und verbrauchsgünstigere Computerhardware fordert. Und die haben wir ja (teilweise) mittlerweile eh: Ein C2D ähnelt bei der Verlustleistung mit 65W einem Athlon mit, ich weiß nicht, 1,5GHz? Es gibt ULV-Typen die einen Verbrauch von weniger als dem eines 486DX-33 haben, bei tausendfacher Rechenleistung.

Und, um wieder auf komplexe Prozessoren zu sprechen zu kommen: Es gibt GPUs der vorigen Generation - die etwa ein halbes Jahr vor G80 eingeführt wurden! - mit funktionierenden Stromsparmechanismen für den Idle-Mode. Man möge bitte mein voriges Posting bzgl. der Relation Verbrauch Last zu Verbrauch Idle heranziehen.

Somit sollte klar werden, daß es Möglichkeiten gibt, den Stromverbrauch unter geringer Last zu senken - G80 nutzt sie nur nicht. Aus welchen Gründen auch immer... Und wir wollen, daß sich das ändert. Wenns keine Möglichkeit gäbe, wenn die Techniken nicht existieren würden und erst entwickelt werden müßten würde niemand G80 einen Vorwurf machen; so sieht es aber aus als ob Time2Market wichtiger war als der Schalter, um die Heizung für den Desktop abzudrehen. Und wir hoffen, daß sich das mit dem Refresh ändert.

Aquaschaf
2007-06-11, 22:55:30
Wie der Gast schon sagte: Du versuchst die Verlustleistung zu entschuldigen; darum geht es hier aber nur sehr bedingt.

Ich will nichts entschuldigen, sondern darauf hinweisen dass hier viele Analogien gezogen werden die unsinnig sind und auf Nichtkentniss der Materie beruhen.

Gast
2007-06-11, 23:35:14
Das hat nichts mit Unkenntnis der Materie zu tun. Du wirst selbst sehen, dass die angesprochenen Probleme in zukünftigen Grafikkartengenerationen ausgemerzt, bzw. wesentlich reduziert werden. Ist ja auch schon in Diskussion.

rpm8200
2007-06-12, 09:22:43
Mann Mann Mann... irgendwie haben n paar Jungs hier aber die Hardwarebrille auf, oder?

Kann man eine GraKa mit einem Verbrennungsmotor vergleichen? Öhm... mal sehen.

GraKa: 800g
Motor: 250kg

Graka: dreht sich gar nicht
Motor: 0-8000rpm

Graka: 0 PS
Motor: 1 - 1000 PS

Graka: 50-500 Euro
Motor: 1000 -XX.000 Euro

Graka: enorme Rechenleistung
Motor: Null Rechenleistung

Graka: eingebaut im Auto: 0km/h
Motor: eingebaut im Auto: 0-350km/h

Graka: eingebaut im PC: 0 - 500fps
Motor: eingebaut im PC: 0fps

Ergo: Graka != Motor

<Ironie>Manche von Euch haben das vielleicht schon vorher gewusst, für die unverbesserlichen Erbsenzähler wollte ich es nochmal explizit darstellen</Ironie>

Wenn man die HW Brille mal abnimmt und mal in die große weite Welt raus schaut, dann stellt man fest, dass es dennoch auch zwischen nicht verwandten Dingen Gemeinsamkeiten gibt.

*Eine* der häufig vorkommenden Gemeinsamkeiten ist, dass für viel Leistung viel Arbeit verrichtet werden muss, für wenig Leistung wenig Arbeit. Also seht den Motor/Graka Vergleich mal etwas entspannter (und abstrakter -> muss doch möglich sein, dass erwachsene Menschen einen Vergleich auf das Wesentliche abstrahieren können!?!?!?!?) und hängt Euch nicht daran auf, was man denn nun genau mit was vergleichen kann. Ob Leckströme nun nem Loch im Tank entsprechen oder eher dem Verbrauch im Leerlauf (wobei ich diese Variante bevorzuge!) ist doch vollkommen egal. Denn das ist nicht die Basis, auf der dieser Vergleich stattfinden sollte.

Es sollte nur mal vor Augen geführt werden, dass es praktisch überall einen direkten Zusammenhang zwischen der Energie die investiert werden muss und dem daraus resultierenden Ergebnis gibt. Es mag auch hier Ausnahmen geben, aber im großen und ganzen bedeutet viel Leistung einen hohen Verbrauch und wenig Leistung einen niedrigeren Verbrauch. Bei Motoren oder auch beliebigen Elektrogeräten stimmt dieser Vergleich auf dieser Basis, auch wenn ein Motor keine Mikrowelle oder kein Kühlschrank oder kein TV ist (siehe Beweis oben).

Und dort, wo solche Ausnahmen tatsächlich bestehen und kein Zusammenhang zwischen der Energie die Verbraucht wird und dem erzielten Resultat zu erkennen ist, werden diese Ausnahmen in einer immer mehr rationalisierten, perfektionierten, optimierten Welt (diese Adjektive bitte vollkommen auf Wirtschaftlichkeit beziehen, in meinen Augen gibt es wichtigere Werte!) nicht mehr akzeptiert. Also warum wird es bei den Grafik-Fetischisten hingenommen? Sind wir zu dumm um diesen einfachen, fast allgemein gültigen Zusammenhang zu sehen und den Finger nicht nur auf die Wunde zu legen sondern darin auch ordentlich herum zu bohren?

Was hier nun vollkommen zurecht angeprangert wird, das ist die absolut geistlose/ sinnlose/ ökologisch und wirtschaftlich katastrophale Verschwendung, welche sich immer mehr am GraKa Markt abzeichnet und deren Tendenz weiter steigend ist, ein Ende ist doch nicht in Sicht. Es geht nicht um das Lastverhalten, es geht um das idle-Verhalten.

Alles was da kommt sind -wie bereits mehrmals festgestellt- nur Entschuldigungen.

Ich hätte schon längst eine X2900 oder eine 8800GTX, wenn diese diesem Thema Rechnung tragen würden. Ich bin eben kein Fulltime-Zocker. 95% meiner Rechnerlaufzeit mache ich Dinge, die nicht einmal 10% der Rechenleistung einer 8800GTX benötigen.

Wenn jetzt BlackBirdSR einwirft, wie soll eine Karte denn erkennen ob Last oder nicht Last, dann bitte ich um die Möglichkeit das manuell einstellen zu können, es muss ja nicht immer alles vollautomatisch laufen. Ich habe schon mehrmals nach dem gleichzeitigen Betrieb von OnBoard GFX und dedizierter GraKa gefragt (Möglichkeiten, Hinweise, irgendwas) -> Null Resonanz.

Man könnte vielleicht einfach ein Mobo mit OnboardGFX und dedizierte Grafik nutzen und das eine oder ander je nach Bedarf aktivieren oder deaktivieren. Wäre auch eine Möglichkeit, sowas zu lösen. Oder man könnte von mir aus nen zweiten (lowcost) Grafikchip auf die Graka machen, der dann von mir aus noch fähig ist, die tollen Vistaeffekte zu handeln, für wen das interessant sein sollte (so viel Power wird man dafür ja nicht brauchen) und zwischen den beiden Karten hin-und-herschalten (so könnte man dann die GraKa dann den nicht benötigten Chip jeweils intern total abschalten). Damit wären dann wohl alle erst mal zufrieden. Der Mehrpreis von 5 Euro in der Produktion würde sicherlich auch niemanden stören, der 500 Euro für ne GraKa ausgibt (selbes Argument wie die Strommehrkosten, die pro Jahr durch Nutzung einer 8800 oder 2900 ggü. anderen Grakas entstehen).

Also meine Bitte: Hängt Euch nicht an nebensächlichen Kleinigkeiten wie die Statthaftigkeit eines Vergleiches in einem ganz bestimmten Teilaspekt auf. Darum geht es nicht!

BlackBirdSR
2007-06-12, 09:59:00
Mann Mann Mann... irgendwie haben n paar Jungs hier aber die Hardwarebrille auf, oder?


Alles was da kommt sind -wie bereits mehrmals festgestellt- nur Entschuldigungen.



Es kommen weniger Entschuldigungen als Erklärungen. Leider muss es anscheinend immer ein User vs User, Meinung vs Meinung sein.
Statt, dass man sich auf die Erklärung des Problems einigt, und dann die Kritik an den ausbleibenden Lösungen aufzeigt.

Ich habe schon gesagt, dass es anscheinend Probleme beim Design und der Fertigung gibt. Das ist aber keine Entschuldigung, das ist eine Tatsache.
Die Hersteller müssen dieses Problem nun lösen, ohne Leistung zu opfern...
Nur so lange diese Karten auch in Massen gekauft werden, und 750W Netzteile zu billigst-Preisen angeboten werden, ist das den meisten Leuten egal.
Besonders denen mit G80 Ultra, SLI, CF, 3.X GHz Quadcore etc.

Und so lange dieser Markt besteht, solange sich deswegen nur jeder aufregt, aber die breite Masse kein Boykott anstrebt.. so lange werden Nvidia und ATI ihre Leistung nicht künstlich durch Gegenmaßnahmen bremsen.

AMD und Intel haben es wieder einmal leichter. Ihre CPUs sind nicht für den Gaming.Markt entwickelt worden.

Coda
2007-06-12, 10:05:28
Nicht ausschließlich zumindest.

rpm8200
2007-06-12, 12:19:14
Es kommen weniger Entschuldigungen als Erklärungen. Leider muss es anscheinend immer ein User vs User, Meinung vs Meinung sein.
Genau gegen diese Einstellung bin ich auch!

Statt, dass man sich auf die Erklärung des Problems einigt, und dann die Kritik an den ausbleibenden Lösungen aufzeigt.

Ich nehme an, es wird uns kleinen Lichtern sehr schwer fallen, Lösungen zu präsentieren, aber ich denke, es sollte in jedermanns interesse liegen... [weiter nach dem nächsten Quote]


... Nur so lange diese Karten auch in Massen gekauft werden, und 750W Netzteile zu billigst-Preisen angeboten werden, ist das den meisten Leuten egal.
Besonders denen mit G80 Ultra, SLI, CF, 3.X GHz Quadcore etc.

[Fortsetzung aus vorigem Quote]... sich darüber aufzuregen und mal das Hirn einzuschalten und sich erstmals zu fragen, ob da nicht berechtigter Weise Kritik angebracht ist/ ob diese Verschwendung wirklich nötig ist und den Kauf größerer NTs und das inkaufnehmen von höheren Stromverbräuchen unter niedriglast-Situationen rechtfertigt. Aktuell scheint mir die Einstellung "Naja, ist eben so" (oder auch "Naja, das ist so weil,... ...") zu regieren, was zwar keiner Bejahung der aktuellen Produktpolitik entspricht, was aber als solche seitens der Hersteller interpretiert wird (Schweigen == Zustimmung). Viel mehr Druck/ Engagement wäre notwendig, um die Weichen richtig zu stellen.

Und so lange dieser Markt besteht, solange sich deswegen nur jeder aufregt, aber die breite Masse kein Boykott anstrebt.. so lange werden Nvidia und ATI ihre Leistung nicht künstlich durch Gegenmaßnahmen bremsen.
Naja, der Markt boykottiert wohl nicht, aber ich kaufe solche Hardware wohl nicht (und manch anderer scheinbar auch nicht, vom ganzen Markt kann da aber nicht die Rede sein). Totalen Verzicht will ich aber auch nicht auf Dauer üben! Auch deswegen "rege" ich mich da jetzt schon auf. Am ehesten käme aktuell noch eine 8800GTS in Frage, aber davon lasse ich jetzt auch mal die Finger. Ich habe ja auch ewig gewartet für einen Upgrade. Meine X800 ist nicht mehr up2date und muss jetzt ersetzt werden. Allerdings werde ich sie durch eine günstige/sparsame 1950pro ersetzen und dann lieber noch etwas länger warten (bis es richtig weh tut oder sich die Situation verbessert hat, ein Jahr Aufschub/ Spielraum sollte ich ja mit der 1950pro schon gewonnen haben).

Mr. Lolman
2007-06-12, 13:17:37
Ich habe schon mehrmals nach dem gleichzeitigen Betrieb von OnBoard GFX und dedizierter GraKa gefragt (Möglichkeiten, Hinweise, irgendwas) -> Null Resonanz.

Sollte eigentlich problemlos funktionieren.

seahawk
2007-06-12, 13:29:21
Ja, ne Onboard für den 2D und ne 3D-karte die nur Strom kriegt, wenn 3D läuft. Aber Aero ist da wohl vor.

Mr. Lolman
2007-06-12, 13:42:19
Gabs nicht auch mal ne low End DX9 Karte fürn PCIe 4x Slot?

EDIT: Der 690G ist AFAIK auch schon Aero fähig.

m.sch
2007-06-12, 13:46:13
Ich habe schon gesagt, dass es anscheinend Probleme beim Design und der Fertigung gibt. Das ist aber keine Entschuldigung, das ist eine Tatsache.
Die Hersteller müssen dieses Problem nun lösen, ohne Leistung zu opfern...


Ihr habt mal einen Bericht darüber gehabt

Eric Demers:
Im allgemeinen sinkt mit kleineren Prozessen (150nm, 130nm und jetzt 90nm) die benötigte Leistung pro Transistor (kleinere Transistoren und Spannungen führen zu geringerem Leistungsbedarf bei einem Schaltvorgang). Da sich unsere Transitorzahlen jedoch mit einer größeren Rate erhöht haben, stieg der aktive Leistungsbedarf weiter an. Aber mit 130nm, und noch mehr mit 90nm, steigt der statische Leistungsbedarf immer weiter an. Bei einem normalem CMOS-Prozess könnte man denken, dass ein Transistor, der nicht schaltet, keine Energie benötigt. Das ist ungefähr richtig, aber es gibt da etwas, das "Leckstrom" genannt wird. Dabei handelt es sich um einen kleinen Strom, der selbst dann aus einem Transistor abgeleitet wird, wenn er nicht schaltet. Mit schrumpfenden Dimensionen sind die Leckströme bei jedem Schritt um etwa eine Größenordnung gestiegen. Dies führt zu dem Problem, dass die Leistungsaufnahme für das "Nicht-Schalten" immer größer wird. Mit 90nm wird es mehr als die Hälfte der Gesamtleistung sein. Diese Leistung ist direkt proportional zur Anzahl der aktiven Tranistoren, oder einfach gesagt zur Größe des Dies. Folglich sinkt der aktive Leistungsbedarf mit kleinerem Prozess, aber der passive Leistungsbedarf nimmt zu. Mit 90nm wird die Leistungsaufnahme zu einem großen Thema, selbst wenn der Chip nichts macht.

rpm8200
2007-06-12, 17:47:24
@Mr.Lolman: Sehe ich auch so: Für Vista wird etwas in der Größenordnung von 690G Vollkommen ausreichen. Das richtige "Killerargument" ist Aero in meinen Augen sowieso nicht. Wenn es nicht funktioniert mit einer "kleineren" Onboard GFX kann man Aero auch deaktivieren ohne wirklich auf wichtiges zu verzichten. Aber davon abgesehen: Aktuellere OnboardGFX Lösungen werden mit Vista zurechtkommen.

@m.sch: Eben aus diesem Grund sollte man so planen, dass ganze Funktionseinheiten abgeschaltet werden (als Fernziel). Dass man mit Runtertakten und Senkung der Corespannung mit sinkender Sturkturbreite immer weniger reissen kann ist klar. Wie ich schon sagte: Von mir aus sollen sie zwei Grafikchips auf eine Karte bauen (einmal Lowend für Desktop/ Office/ Surfen...) und einmal Highend zum Zocken... und dann je nach Bedarf das eine oder andere Abschalten, wenn es jetzt einfach nicht möglich sein sollte, einzelne Funktionseinheiten abzuschalten.

Gast
2007-06-12, 21:35:18
Das mit der Elektronenmigration bei kleinen Strukturen ist auch eine Frage der Technologie. Die hohen aktuellen Werte werden bei geschickter Materialwahl deutlich reduziert werden können. Dementsprechend werden auch die Leerlaufverluste deutlich verringert werden können. Ist alles nur eine Kosten- und Technologiefrage.

rpm8200
2007-06-13, 09:59:41
Da der Trend zur Parallelisierung hin geht und dieser Trend bei Grafikkarten eigentlich früher eingesetzt hat als bei CPUs *sollte* die Waffe der Wahl gegen die zu hohen idle-Verbräuche/ Niedriglast-Verbräuche eine Teilabschaltung sein, keine Taktreduzierung/ Senkung der Corevoltage.

Natürlich muss das bereits beim Design eines Chips mit angedacht werden, nachträglich kann man sicher nicht einfach mal dies oder das abschalten.

Je höher der Unterschied zwischen Last und Niedriglast wird, umso dringender sollte diese Forderung werden. Und je früher da ein Umdenken stattfindet umso besser. Jede Graka, die in einem PC 70 oder 100W umsonst verballert, verbraucht Energie, die wir nicht zu verschenken haben, produziert Abwärme die wir nicht brauchen können und das noch auf Jahre hinaus. Und es gibt viiiiiiele Grafikkarten, es geht nicht nur um die eine, die ein Gamer im PC hat. Und diese Highend Grakas leben als gebrauchte Karten in einem anderen PC weiter, wenn der Erstkäufer davon genug hat (oder die Leistung mal nicht mehr reicht), die haben schon eine gewisse Lebenszeit. Und in jeder Stunde, ihres Lebens, in denen sie nichts tun, vergeuden sie weiter wertvolle Energie.

Paul Brain
2007-06-27, 00:46:43
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1623&Itemid=1

rpm8200
2007-06-28, 22:26:28
Naja hoffentlich ist da was dran...! Ich würd sone kombinierte Karte sofort kaufen, auch wenn sie von NV kommt :biggrin: (auch wenn ich jetzt schon einen rechner mit einer NV GraKa habe)

Wäre für mich ein eindeutiger Grund zum Wechsel (Hauptsystem).