PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Strom sparen mit extra Grafikchip?


blackbox
2007-03-05, 15:15:34
Hallo!
Der Stromverbrauch erreicht inzwischen schwindelerregende Höhen.
Besonders die neuen Chips von ATI und Nvidia sind ja wahre Stromfresser.

Nun meine Frage:
Warum ist bisher eigentlich keiner auf die Idee gekommen, zwei Grafikchips zu benutzen? Je nachdem, was gebraucht wird, wird ein Chip ausgeschaltet.

Beispiel:
Ein Mainboard mit integrierter Grafik und für 3D eine leistungsstarke Lösung.
Oder:
Eine PCI-Karte und eine extra für Spiele PCIe-Karte.

Mögliche Probleme:
- Wenn man die jeweilige Karte in der Systemsteuerung deaktiviert, zieht sie dann trotzdem noch Strom?
- Man benötigt ein Y-Kabel, um einen Monitor zu steuern oder der Monitor bietet 2 Eingänge an

Das sind erstmal nur die ersten Gedanken.
Was denkt ihr darüber?

Byteschlumpf
2007-03-05, 15:19:32
Es wäre gut denkbar, dass es bald Gesetzesvorlagen geben wird, die genau dies bei Grafikkarten fordern, bzw. dieses zu einer Norm wird!

Killerspielspieler
2007-03-05, 15:22:26
Gibt es nicht schon notebooks bei denen das so gemacht iwrd?

warper
2007-03-05, 15:25:46
Ich fänds toller, wenn man aktuelle Grafikkarten "modularer" bauen würde, soll heissen: Im 2D Betrieb sollen sich Teile der GPU, die nicht benötigt werden, vollständig abschalten (Pentium M / Core 2 Duo lassen grüssen). Gerne dürfen sich GPUs auch noch herunter takten und die Spannung senken. Vielleicht kann man das Spiel auch noch auf den Grafikkarten speicher ausweiten, dass nur noch 256 MB aktiv sind anstatt 1024 MB (nur als Beispiel). So könnte man vermutlich sehr viel Strom einsparen.

Ronin2k
2007-03-05, 15:26:14
bin dafür das was getan wird in der richtung!!! so kanns ja net weitergehen ;)

PhoenixFG
2007-03-05, 15:29:28
Das dürfte aber die Lösung mit dem meisten Siliziumeinsatz sein. Da wäre es doch wohl schlauer in einer normalen GPU die aktuell nicht benötigten Teile abzuschalten, anstatt einen zusätzlichen Chip oder gar ne ganze Karte zu verbauen.

MfG

Gast
2007-03-05, 15:32:55
Gibt es nicht schon notebooks bei denen das so gemacht iwrd?Ja, gibt es. Allerdings brauchen diese zum Wechsel der Grafikkarte einen Neustart.

Marodeur
2007-03-05, 15:39:34
Hallo!
Der Stromverbrauch erreicht inzwischen schwindelerregende Höhen.
Besonders die neuen Chips von ATI und Nvidia sind ja wahre Stromfresser.

Nun meine Frage:
Warum ist bisher eigentlich keiner auf die Idee gekommen, zwei Grafikchips zu benutzen? Je nachdem, was gebraucht wird, wird ein Chip ausgeschaltet.

Beispiel:
Ein Mainboard mit integrierter Grafik und für 3D eine leistungsstarke Lösung.
Oder:
Eine PCI-Karte und eine extra für Spiele PCIe-Karte.

Mögliche Probleme:
- Wenn man die jeweilige Karte in der Systemsteuerung deaktiviert, zieht sie dann trotzdem noch Strom?
- Man benötigt ein Y-Kabel, um einen Monitor zu steuern oder der Monitor bietet 2 Eingänge an

Das sind erstmal nur die ersten Gedanken.
Was denkt ihr darüber?

Warum muss ich da jetzt grad an alte Voodoo-Karten denken? ;)

Aber das hier was getan werden muss ist klar. Ist halt die Frage inwieweit sich hier Teile eines Grafikchips komplett abschalten lassen ohne das gar nix mehr geht? Verbindung zum Speicher etc. muss ja auch noch da sein und dann werden evlt. trotzdem noch 640 MB RAM befeuert obwohl die nicht nötig wären. Runtertakten hin oder her.

Ich könnt mir noch vorstellen das ein extra minimalistischer Grafikchip auf der Grafikkarte ist und der Rest der Karte dann wirklich komplett abgeschaltet werden kann. Aber bei nur 2D ist dann wieder die Frage was macht man mit neumodischen Gedöns wie der Windows Vista-Oberfläche?

blackbox
2007-03-05, 16:05:35
Das dürfte aber die Lösung mit dem meisten Siliziumeinsatz sein. Da wäre es doch wohl schlauer in einer normalen GPU die aktuell nicht benötigten Teile abzuschalten, anstatt einen zusätzlichen Chip oder gar ne ganze Karte zu verbauen.

MfG

Das stimmt, sie (die Hersteller) bekommen das scheinbar nicht hin.

Konkret denke ich bei dieser Idee an jetzt schon umsetzbare Möglichkeiten.

Also:
Der Einsatz von zwei Grafikkarten (oder Chips) ist jetzt schon möglich. (siehe auch: Mehr-Monitorbetrieb oder SLI).
Vielleicht kann das jemand mal testen, was passiert, wenn man eine Karte per Systemsteuerung deaktiviert. Läuft sie trotzdem weiter und zieht Strom?

Wenn sie nicht weiterläuft, funktioniert das dann auch mit einer integrierten Grafiklösung in Mainboards?
Vielleicht hat hier im Forum jemand ein Mainboard mit Grafikchip und benutzt bisher nur seine extra Karte. Kann man beide gleichzeitig nutzen und dann eine deaktivieren?

Beeker
2007-03-05, 20:46:20
Ich könnt mir noch vorstellen das ein extra minimalistischer Grafikchip auf der Grafikkarte ist und der Rest der Karte dann wirklich komplett abgeschaltet werden kann. Aber bei nur 2D ist dann wieder die Frage was macht man mit neumodischen Gedöns wie der Windows Vista-Oberfläche?

dem kann ich nur beipflichten.

zum betrieb von zwei karten, mein dfi bietet die auswahl im bios "init dislpay first" und dann kann ich auswählen ob pci oder pcix.
also sollte es doch wie beim erwähnten notebook möglich sein zwei karten zu nutzen,
wobei man beim desktop nen multiswitch benötigt um einen monitor an "zwei" computern (indem falle 2 vga/dvi anschlüße) zu nutzen.
beim asrock dual sata (mein altes board *snief*) sollten sogar 3 karten gehen. AGP, PCI und PCIX.

von der idee nur 256mb von 1024mb zu nutzen halte ich wenig da ram eh nur ca 5watt leistung zieht. (hab ich mal gelesen, ging aber nicht um V-Ram)

gruß der NeppStar

dr.denton
2007-03-05, 21:14:35
Der Speicher von modernen Grafikkarten macht einen nicht unerheblichen Teil der Leistungsaufnahme aus - bei der X1800XT sollen z.B. rund 20W Differenz zwischen den Versionen mit 256MB RAM und 512MB RAM bestehen.

Ich bin ebenfalls der Meinung, dass es Zeit wird für eine europa- wenn nicht gar weltweite gesetzliche Regelung - es ist schlicht eine Zumutung, dass die heutige, ach so furchtbar fortschrittliche G80 Serie im idle sogar noch verschwenderischer mit Energie umgeht als die vielgescholtenen R5xx Karten ...
Ich für meinen Teil kaufe keine Karte mit einem Verbrauch von deutlich mehr als 10W idle und unter Last 60W.

mfG

denton

PatkIllA
2007-03-05, 21:20:07
dem kann ich nur beipflichten.

zum betrieb von zwei karten, mein dfi bietet die auswahl im bios "init dislpay first" und dann kann ich auswählen ob pci oder pcix.
also sollte es doch wie beim erwähnten notebook möglich sein zwei karten zu nutzen,
wobei man beim desktop nen multiswitch benötigt um einen monitor an "zwei" computern (indem falle 2 vga/dvi anschlüße) zu nutzen.
beim asrock dual sata (mein altes board *snief*) sollten sogar 3 karten gehen. AGP, PCI und PCIX.Nur sind die anderen Karten dann nicht aus und brauchen trotzdem Strom. Wahrscheinlich sogar mehr, als wenn man sie im Betrieb per Software runtertaktet.
Das "Init Display First" ist nur für DOS/BIOS. In Linux/Windows kann man dann trotzdem alle benutzen.

nordic_pegasus
2007-03-05, 21:20:55
mein dfi bietet die auswahl im bios "init dislpay first" und dann kann ich auswählen ob pci oder pcix.
...

beim asrock dual sata (mein altes board *snief*) sollten sogar 3 karten gehen. AGP, PCI und PCIX.


der Unterschied zwischen PCI-X und PCIe ist Dir aber schon bekannt?

Beeker
2007-03-05, 22:16:00
Nur sind die anderen Karten dann nicht aus und brauchen trotzdem Strom. Wahrscheinlich sogar mehr, als wenn man sie im Betrieb per Software runtertaktet.
Das "Init Display First" ist nur für DOS/BIOS. In Linux/Windows kann man dann trotzdem alle benutzen.

*schähm* ich glaub ich lese/frage erstmal bevor ich schreibe.

der Unterschied zwischen PCI-X und PCIe ist Dir aber schon bekannt?

ganz ehrlich, nein. lasse mich aber gerne belehren weil ich es für 2 schreibweisen der gleichen sache gehalten habe!

schähm der Neppstar

edit: bzw. bin der meinung das pcix nur bis 4x kann, und pcie bis 16x (hoffe das paßt sonst stehe ich dumm da!)

Der Speicher von modernen Grafikkarten macht einen nicht unerheblichen Teil der Leistungsaufnahme aus - bei der X1800XT sollen z.B. rund 20W Differenz zwischen den Versionen mit 256MB RAM und 512MB RAM bestehen.

Ich bin ebenfalls der Meinung, dass es Zeit wird für eine europa- wenn nicht gar weltweite gesetzliche Regelung - es ist schlicht eine Zumutung, dass die heutige, ach so furchtbar fortschrittliche G80 Serie im idle sogar noch verschwenderischer mit Energie umgeht als die vielgescholtenen R5xx Karten ...
Ich für meinen Teil kaufe keine Karte mit einem Verbrauch von deutlich mehr als 10W idle und unter Last 60W.

mfG

denton

ich gehe davon aus das du kein spieler bist! oder?

Headman
2007-03-05, 22:25:19
Ja, gibt es. Allerdings brauchen diese zum Wechsel der Grafikkarte einen Neustart.
Der AMD M690T wird es höchstwahrscheinlich auch ohne Neustart können, es kann auch nicht mehr als so lange dauern bis der Chipsatz vorgestellt wird.

PatkIllA
2007-03-05, 22:28:38
Wobei ich mir nicht vorstellen kann, dass das dann noch unter XP geht.

Ganxsta
2007-03-05, 22:55:38
Also am rande. Ich habe im Monat Februar meine Stromverbrauch in meiner Computer-Ecke samt ISDN+DSL-Modem+Sound-System+Monitor 19" gemessen und bin sage und schreibe auf c.a. 130KW gekommen. 80% der Zeit habe ich im Internet gesurft bzw. Computer mit abgeschalteten Monitor (Monitor schaltet sich nach 5 Min. idle auf Stand-By) leer laufen lassen. Bei einer Stromkosten von 0,17cent/KW komme ich auf 22,1€ Pro Monat. Der Computer ist zwar übertaktet aber läuft mit standard vcore und C1E ist eingeschaltet. Sprich der Proz. taktet sich auf 2400MHz runter bei 1,2 Volt.
P.S. Mein Computer läuft nicht 24 Stunden am tag.

edit: Alles auf Stand-By habe ich ein dauerverbrauch von c.a. 40 Watt. (wenn der Computer nicht läuft)

Kosh
2007-03-05, 23:08:08
Ich kapier das auch nicht.

Für fast alle PCs reicht eine 30 Euro Karte aus, wenn man nur im Office arbeitet.

Somit dürfte der reine Grafikchip wohl keine 5 Euro kosten,mit dem im Office Serven könnte.

Also müsste es doch möglich sein,das sich ohne Neustart im 2D Bereich ein Billigchip das ganze übernimmt und im 3D Modus dann der dicke Brummer rangeht.

Praktisch Voodoo 1 und 2 mit normaler Grafikkarte auf einer vereint.
Da ging das doch auch wunderbar mit dem umschalten ohne Neustart.

Was die 8800er Karten im IDLE Betrieb verbauchen ist doch ein absoluter Witz.
Das ganze würde locker mit 15-20 Watt machbar sein,wenn die Hersteller es wollten.

deekey777
2007-03-05, 23:08:19
Hallo!
Der Stromverbrauch erreicht inzwischen schwindelerregende Höhen.
Besonders die neuen Chips von ATI und Nvidia sind ja wahre Stromfresser.

Nun meine Frage:
Warum ist bisher eigentlich keiner auf die Idee gekommen, zwei Grafikchips zu benutzen? Je nachdem, was gebraucht wird, wird ein Chip ausgeschaltet.

Beispiel:
Ein Mainboard mit integrierter Grafik und für 3D eine leistungsstarke Lösung.



Das sind erstmal nur die ersten Gedanken.
Was denkt ihr darüber?
Als die ersten Bilder der 8800GTX auftauchten, gab es eine Spekulation, wofür der NVIO sein könnte: Aero+Multimedia. Leider war es nicht so.
Meiner Meinung nach wäre es noch besser, die Grafikkarte ganz aus dem PC-Gehäuse zu verbannen (Stichwort Lasso). Das hätte aber nur dann einen Vorteil, wenn die gesamte Energieversorgung über ein eigenes Netzteil gesichert wird (und nicht aus dem PC-Netzteil). Damit könnte man einfach einen PC aufbauen, der einen Onboard-Chip nutzt (diese reichen auch für Multimedia wie HD-Wiedergabe aus). Damit fällt schonmal ein unnötig starkes Netzteil weg. Auch hat zB Cool'n'Quite wieder Sinn. Ein weiterer, nicht zu unterschätzbarer Vorteil so einer Lösung wäre, dass die externe Grafikkarte deutlich besser gekühlt wird und das PC-Gehäuse nicht aufheizt - längere Lebzeiten der Komponenten.

Trotzdem bleiben die gleichen Fragen: ein Kabel zum Display? Ein VGA-Switch? Ich glaube/hoffe, dass AMD mitdenkt und Lasso das VGA-Signal des Onboard-Grafikchips einfach durchschleifen kann.

paul.muad.dib
2007-03-05, 23:25:39
So sehr ich die Vorteile von externen Grafikkarten sehe, halte ich trotzdem nicht viel davon. In der guten allten Zeit, als es noch AGP gab und Grafikkarten keine Dual-Slot Kühler brauchten, hatte man ein Mainboard mit 6(!) PCI Slots. Da konnte man dann alle Erweiterungen von Modem über Sound, W-Lan, TV, ... als PCI Karten verbauen und hatte außer dem PC-Gehäuse nicht unter dem Schreibtisch stehen.
Heute gibt es fast nur noch externe Erweiterungen. Man stellt sich jede Menge Kästchen neben den PC, um alles aufzunehmen. Mit externen Soundkarten käme noch ein weiteres Kästchen hinzu.

Ich finde, der PC sollte ein geschlossenes System bleiben, in den alle Funktionen eingebaut werden können. Klar ist die Abwärme aktueller Karten enorm, aber ich Frage mich, ob das so bleiben muss. Zwischen Geforce 1 und 5 blieben die Verlustleistungen bzw. Kühllösungen fast gleich und nun schnellen sie auf einmal in die Höhe. Ein externers Gehäuse wäre ein Freibrief für die IHVs, immer höhere Verlustleistungen in Kauf zu nehmen.
Ich fände ein neues Gehäusekonzept, dass der Abwärme der Grafikkarten Rechnung trägt und etwas mehr Platz für die Kühlung schafft würde das Problem auch lösen. Man bräuchte doch nur einen modernen CPU-Kühler auf eine GPU zu setzten und es wäre Ruhe

nordic_pegasus
2007-03-05, 23:34:58
deleted...

rpm8200
2007-03-06, 08:46:11
In vollkommener Unwissenheit frage ich mal folgendes:

Ist denn die nötige Grafikleistung für die super-tolle-klicky-bunty Aero Oberfläche so hoch einzuschätzen? Bzw. anders herum, welche Graka braucht man, um Aero in 1280x1024 "genießen" zu können?

Ich für meinen Teil brauch den Kram nicht. Habs an der Uni gesehen... ist ganz nett, aber die Notwendigkeit dafür sehe ich irgendwo überhaupt nicht. Einziges Argument für Vista aus meiner Sicht *irgendwann einmal* kommende Spiele.

rm-zocker
2007-03-06, 09:17:16
In vollkommener Unwissenheit frage ich mal folgendes:

Ist denn die nötige Grafikleistung für die super-tolle-klicky-bunty Aero Oberfläche so hoch einzuschätzen? Bzw. anders herum, welche Graka braucht man, um Aero in 1280x1024 "genießen" zu können?

Ich für meinen Teil brauch den Kram nicht. Habs an der Uni gesehen... ist ganz nett, aber die Notwendigkeit dafür sehe ich irgendwo überhaupt nicht. Einziges Argument für Vista aus meiner Sicht *irgendwann einmal* kommende Spiele.

kann dem nur zustimmen. ich würde die aero oberfläche auch deaktivieren, für mich ist das überflüssiger schnickschack. das habe ich übrigends auch schon bei xp so gehandhabt.

paul.muad.dib
2007-03-06, 09:22:14
Aero ist auch nicht so ein ästethischer Griff ins Klo wie Luna. Es braucht AFAIK nicht viel Grafikleistung. Jede Karte mit DX9 Unterstützung sollte es schaffen, nur bei den Intel 9xx IGPs siehts schlecht aus.

Gast
2007-03-06, 10:14:08
das stimmt
luna sieht einfach nur bunt(sche***e) aus
aero ist zwar unnötig, aber ist vll ganz nett anzuschauen, beim tabwechsel zB
wenn ichs hätte würd ichs anlassen, aber extra kaufen, nö

aber dafür sollte ein quad heutiger gpus mehr als reichen
den rest könnte man abschalten

SeaEagle
2007-03-06, 13:54:55
Aero ist auch nicht so ein ästethischer Griff ins Klo wie Luna. Es braucht AFAIK nicht viel Grafikleistung. Jede Karte mit DX9 Unterstützung sollte es schaffen, nur bei den Intel 9xx IGPs siehts schlecht aus.

meinst du Intels integrierte Graphik ist zu schwach dazu? Oder unterstützt diese kein DX9?

Ansonsten werde ich wohl, sobald die 690G verfügbar sind, auf AM2 umsteigen und meine x1900xt im idle abschalten:) vorallem, wenn man über Nacht den Computer laufen lässt, um Filme ins MPEG 4 zu konvertieren, braucht man keine dezidierte Graphik, unsere lieben ATI/NV Ingenieuere haben es ja leider immer noch nicht geschaft, die enorme Power der Graphikkarten mitzunutzen, und lassen die ganze Arbeit die CPU erledigen:mad:

paul.muad.dib
2007-03-06, 14:13:08
Ich glaube nicht, dass das deaktivieren im Taskmanager mehr bringt. Du müsstest schon die Karte ganz ausbauen.

Bei den Intel IGPs ist es AFAIK ein Treiberproblem, DX9 können sie theoretisch.

blackbox
2007-03-06, 14:19:19
Ich glaube nicht, dass das deaktivieren im Taskmanager mehr bringt. Du müsstest schon die Karte ganz ausbauen.


Kann das nicht mal jemand testen? Irgendjemand hier im Forum wird doch wohl SLI mit zwei Karten und ein Strommessgerät haben? ;)

Gast
2007-03-06, 14:24:41
Ich halte diese Entwicklung auch bedenklich. Deswegen wird mir auch keine Karte wie die 8800er oder R600er in den Rechner kommen, nicht weil ich es mir nicht leisten könnte, ich halte diese Energiefresser für vorschnell entwickelte Beta-Hardware die nur auf Leistung hin optimiert wurde, ohne den Energieverbrauch zu berücksichtigen. Da die Hardwarehersteller offensichtlich nicht in der Lage sind, den Energieverbrauch als einen der wichtigsten Merkmale neuer Hardware zu berücksichtigen, sollte hier mal die Politik für entsprechende Gesetze sorgen.

Ich halte schon den Enegieverbrauch einer X1950 pro für hoch, an die 8800er will ich erst gar nicht denken, diese ziehen unter Idle ja glatt 40 Watt mehr, das ist ja Wahnsinn. Manch einer idelt beim online-surfen mit 220 Watt vor sich hin, das ist KRANK.
Ebenso wird es Zeit, die Glühbirnen durch Diodenlampen zu ersetzen, wer braucht schon eine elektrische Heizung an der Decke? (bei einem Kupel, 6 Halogen Strahler je 50 Watt, der hat glatt 300 Watt an der Decke hängen und wundert sich über seine hohe Stromrechnung.).

Gast
2007-03-06, 16:42:07
kann dem nur zustimmen. ich würde die aero oberfläche auch deaktivieren, für mich ist das überflüssiger schnickschack. das habe ich übrigends auch schon bei xp so gehandhabt.Luna fand ich auch gruselig und habe daher in WinXP immer die klassische Win2k-Ansicht verwendet. Aero sieht aber imho ganz brauchbar aus. Ich werde Aero zumindest eine Chance geben, wenn ich mir in Zukunft irgendwann Vista hole.

paul.muad.dib
2007-03-06, 17:15:53
@Gast:
Du solltest den Energieverbrauch der Grafikkarte nicht überbewerten. Wenn der PC nur ein paar Stunden am Tag läuft ist es wirklich wenig, verglichen mit einem Urlaubsflug z.B.

renaldo
2007-03-06, 17:33:24
@Gast:
Du solltest den Energieverbrauch der Grafikkarte nicht überbewerten. Wenn der PC nur ein paar Stunden am Tag läuft ist es wirklich wenig, verglichen mit einem Urlaubsflug z.B.

naja paul.muad.dib,

zumindest ich, fliege nur 1 Mal im Jahr in Urlaub,der PC allerdings läuft hier fast die restliche Zeit des Jahres durch ... davon dann wiederum fast 80 Prozent non3D.

mfg renaldo

paul.muad.dib
2007-03-06, 17:42:53
Wenn dein PC 24/7 läuft, ist das aber nicht der Normalfall. In diesem Fall kannst du dir auch eine ältere Kiste hinstellen und fürs Spielen eben ein High-End System

renaldo
2007-03-06, 17:56:39
Wenn dein PC 24/7 läuft, ist das aber nicht der Normalfall. In diesem Fall kannst du dir auch eine ältere Kiste hinstellen und fürs Spielen eben ein High-End System

Da geb ich Dir Recht,ich könnte mir auch ne Playstation zum zocken leihen :D aber das geht jetzt hier zuweit :) und Dein Urlaubsflug war ja auch nur ein Beispiel....

Ich mache mir halt gegenwärtig Gedanken über diese rigerose Politik der Graka Entwickler und verschiebe eigentlich nur aus diesem Gnatz :) jegliche Investition in Neue und damit stromfressende Technologie.

Was nützt mir der sparsamste AMD/Intel,das effizienteste Netzteil ,wenn die irgendwann neue Grafikkarte das selbst im idle wieder mehr als zunichte macht ?

PS.Wenn es stromsparende Gedanken auch im Desktopbereich gäbe ,bräuchten viele Leute keine zwei Rechner im Zimmer.

Also nix für Ungut paul.muad.dib :smile:,ich freue mich ,das zumindest in diesem Thread einige Ihre Stromrechnung selbst zahlen müssen :D

mfg renaldo

L.ED
2007-03-06, 18:29:06
Das viel größere Problem/Bedenkliche ist, das es nach wie vor nur immer über Restriktionen, Gesetze oder letztendlich über den Geldbeutel bei vieler orten dann noch immer nur geht und möglich! :frown:

Das da eben keine wirkliche (als solche), Ethische oder Moralische allgemein Reife.


Beispielsweise währe es doch Erstrebsam Motherboards zu Bauen wo auch der Chipsatz gesockelt und ggf. austauschbar o.O .. nur eine von vielen weiteren Möglich und Vernunftsamkeiten.

Diesen ökologischen Terrorismus (kurz zusammengefasst Raubkapitalismus), an ihrem Lebensraum, kann die Menschheit sich nicht mehr lange so weiter Erlauben! ^^

PatkIllA
2007-03-06, 18:31:45
Beispielsweise währe es doch Erstrebsam Motherboards zu Bauen wo auch der Chipsatz gesockelt und ggf. austauschbar o.O .. nur eine von vielen weiteren Möglich und Vernunftsamkeiten.Was willst du damit erreichen? Das die Dinger langsamer und teurer sind hast du sicher einberechnet.
Zieht einfach in der Bude nen Pullover an und dreht die Heizung dafür leicht runter.

paul.muad.dib
2007-03-06, 18:47:08
Das viel größere Problem/Bedenkliche ist, das es nach wie vor nur immer über Restriktionen, Gesetze oder letztendlich über den Geldbeutel bei vieler orten dann noch immer nur geht und möglich! :frown:

So ist der Mensch unabhängig vom Wirtschaftssystem. Deshalb wird Energieverbrauch in Deutschland ja auch besteuert (Ökosteuer).

rpm8200
2007-03-07, 08:29:06
Was willst du damit erreichen? Das die Dinger langsamer und teurer sind hast du sicher einberechnet.
Zieht einfach in der Bude nen Pullover an und dreht die Heizung dafür leicht runter.
Der denkansatz von L.ED ist schon richtig. Die Heizung runter drehen, nicht unnötig in der Gegend herum fahren usw. hat sich bereits in vielen Köpfen festgesetzt (Gott sei Dank!). Die Leute, die man so nicht erreicht könnte man durch ein verändertes Angebot zu mehr ökologischem Denken bewegen.

Ich bin mir ja schon sehr sicher, dass es für viele Käufer ein Kaufanreiz wäre, wenn *endlich* eine Karte raus kommt, die gute Grafikleistung in 3D mit sparsamen Lauf unter 2D vereint. Du würdest auch kein Auto akzeptieren, dass egal ob es an der Ampel steht oder ob es mit 200 über die Autobahn brettert 10 Liter Benzin verballert. Was gefordert wird (und die Stimmen werden lauter...) ist ganz einfach eine GraKa die Ihre Leistung den Erfordernissen bestmöglich anpasst. In meinen Augen ist hier ein signifikanter Unterschied zwischen 2D und 3D (vielleicht durch Teilabschaltung) nur der erste Schritt. Es gibt sicher bessere Methoden.

Auch das Thema Glühlampen gegen Energiesparlampen/LED Technik würde ich befürworten. Ich habe es für meine Wohnung mal durchgerechnet: Kostet mich 280 Euro einmalige Investition. Ich denke wirklich darüber nach, umzusteigen. Und wenn jeder diesen "kleinen" Beitrag bringen würde (auch ein Schüler könnte sich selbst die Umrüstung z.B. seines eigenen Zimmers locker leisten), dann sähe unsere Energiebilanz auch wieder anders aus.

Ein "Problem" sehe ich dann noch höchstens darin, dass sich das Sparen von Leistung sehr wahrscheinlich nicht auf den Geldbeutel auswirken wird. Denn wenn die großen Konzerne merken, dass "plötzlich" 10% weniger Strom benötigt wird, steigen eben die Preise um 10% an. Dennoch wäre es wohl für unsere Umwelt gut.

Ich denke, dass es am besten wäre sich den Strom "selbst zu machen". Erst dann würde man wirklich was im Geldbeutel merken. Obwohl auch das nicht zu 100% sicher ist. Denn wer verbietet dem Staat z.B. eine jährliche "Solarpanelabgabe" einzuführen? Naja. ich dreh mich im Kreis...

Dazu möcht ich noch erwähnen, dass ich nicht "grün" bin. Ich denk einfach nur nach. Auf jeden Fall stimme ich mit L.ED in seinem Grundgedanken überein: Mit unseren Reserven sollten wir nicht so prassen. Ich will generell nicht unbedingt irgendwelche Gesetze, ich hätte nur gerne, dass auch noch andere Gesichtspunkte bei der Entwicklung von Grafikkarten berücksichtigt werden.

Im übrigen würde mich auch ein Praxistest interessieren: Wer ein Strommessgerät hat könnte doch prüfen, ob es sich im Verbrauch bemerkbar macht, wenn eine Graka im Taskmanager abgeschaltet/deaktiviert wird (ich hab da auch so meine Zweifel). Für mich wäre es dann eine Alternative, das nächste Board mit IGP zu kaufen (besitze bereits eins, da is aber keine zusätzliche GraKa drin) und die Hauptkarte nur zu aktivieren, wenn ich 3D zocke.

rpm8200
2007-03-07, 08:31:19
So ist der Mensch unabhängig vom Wirtschaftssystem. Deshalb wird Energieverbrauch in Deutschland ja auch besteuert (Ökosteuer).
Das ist aber sehr naiv. Besteuert wird der Energieverbrauch, weil der Staat nicht weiss, wie er seine Ausgaben bezahlen soll... Wie du "dadurch eine Unabhängigkeit vom Wirtschaftssystem" (wodurch genau?) sehen kannst ist mir nicht klar.

Gast
2007-03-07, 10:04:34
Ich halte diese Entwicklung auch bedenklich. Deswegen wird mir auch keine Karte wie die 8800er oder R600er in den Rechner kommen, nicht weil ich es mir nicht leisten könnte, ich halte diese Energiefresser für vorschnell entwickelte Beta-Hardware die nur auf Leistung hin optimiert wurde, ohne den Energieverbrauch zu berücksichtigen. Da die Hardwarehersteller offensichtlich nicht in der Lage sind, den Energieverbrauch als einen der wichtigsten Merkmale neuer Hardware zu berücksichtigen, sollte hier mal die Politik für entsprechende Gesetze sorgen.

Ich halte schon den Enegieverbrauch einer X1950 pro für hoch, an die 8800er will ich erst gar nicht denken, diese ziehen unter Idle ja glatt 40 Watt mehr, das ist ja Wahnsinn. Manch einer idelt beim online-surfen mit 220 Watt vor sich hin, das ist KRANK.
Ebenso wird es Zeit, die Glühbirnen durch Diodenlampen zu ersetzen, wer braucht schon eine elektrische Heizung an der Decke? (bei einem Kupel, 6 Halogen Strahler je 50 Watt, der hat glatt 300 Watt an der Decke hängen und wundert sich über seine hohe Stromrechnung.).

Natürlich ist die entwicklung bedenklich, aber bei dem krieg zwischen ati und nv bleibt anscheinend kein platz dafür über energie fragen und lösungen nachzudenken. Meint ihr im ernst nv oder ati wären nicht in der lage wirklich in der hinsicht zu entwickeln das die karte schnell ist und weniger leistung zieht wie bisher?
Nur sehen sie wohl null komma null handlungsbedarf, weil die karten besser den je verkauft werden. Und wer schaut schon auf eine grafikkarte und achtet dabei wirklich auf den stromverbrauch? Wer sich eine 400-600 eur teure graka kauft sieht auch über die bevorstehende stromrechnung hinweg!

Es ist halt ein teufelskreis der nur schwer zu durchbrechen ist. Spiele verlangen immer mehr leistung von den grafikkarten ab und momentan geht es ja auch dahin das alle aa+af unbedingt haben wollen und was noch für einen schnick schnack. Dabei ist es nicht verwunderlich das eine grafikkarte die das alles bewerkstelligen soll auch schön was aus der dose zieht! Nun seit mal alle grafikjunkies ehrlich(wozu ich mich auch zähle), warum holt ihr euch nicht einfach ne midrange graka wenn euch was an der umwelt liegt? Dann würden die hersteller auch mal ein bissl nachdenken, aber so besteht wie schon geschrieben kein handlungsbedarf bis es evtl. irgentwann mal gesetzlich geregelt wird.

Wir wollen immer schönere optik und die liefert uns die spiele und hardwareindustrie! Nicht mehr und nicht weniger!

Das selbe ist doch auch bei der automobilindustrie im moment gesprächsthema nr. 1. Der kunde bestimmt was für automodelle gebaut werden. Und momentan ist der kunde nicht bereit ein 60ps auto zu akzeptieren um die umwelt nicht so stark zu belasten, also werden 150ps+ autos gekauft und die werden gebaut.;)

Ich kann nur von mir selbst sprechen, weil ich mir auch anfang letzten jahres eine x1900xtx gekauft habe, obwohl ich wusste das sie doppelt soviel strom saugt wie meine x800xtpe. Meint ihr das hat mich davon abgehalten sie zu kaufen? Meint ihr das hällt andere davon ab die in möglichst hohen einstellungen zocken möchten? Nun hab ich mir auch eine 8800gtx 640mb bestellt, aber bei der r600 werde ich auch nein sagen da der verbrauch da ja nochmal höher sein soll wie jetzt. Und da die 8800 in 3d eh kaum mehr zieht wie meine ati wird sich da nicht sehr viel ändern im stromverbrauch. Fürs i-net nutze ich eh meinen sparsammen laptop.;)

Naja ich halte die diskussion für angebracht, aber ändern wird sich erstmal daran nichts, sollange die konsumenten an ihren verhalten nichts ändern.

paul.muad.dib
2007-03-07, 10:04:58
Das ist aber sehr naiv. Besteuert wird der Energieverbrauch, weil der Staat nicht weiss, wie er seine Ausgaben bezahlen soll... Wie du "dadurch eine Unabhängigkeit vom Wirtschaftssystem" (wodurch genau?) sehen kannst ist mir nicht klar.

Ich bin mir nicht sicher, ob du meinen Beitrag richtig verstanden hast. Die Aussage war, dass der Mensch immer nur dann etwas verändert, wenn es ihn an Geldbeutel geht oder sonst irgendwie persönlich betrifft. Und dieses Phänomen tritt in jedem Wirtschaftssystem auf, nicht nur im Kapitalismus.
Damit ihm Energieverbrauch an den Geldbeutel geht, gibt es die Ökosteuer, deren Erträge eingesetzt werden, um die Rentenversicherungsbeiträge zu senken und so Arbeitsplätze zu schaffen. Leider verstehen die meisten Deutschen das Konzept der Ökosteuer nicht, sondern sehen nur, dass das Benzin teurer wird.

rpm8200
2007-03-07, 14:29:08
Ich denke, ich habe Dich richtig verstanden. Meine Meinung ist, dass es die Ökosteuer nicht gibt um den Menschen etwas begreiflich zu machen (Autofahren kostet Geld -> das weiss ich schon seit das Benzin 1,60 DM gekostet hat), sondern schlicht und einfach um Rechnungen zu bezahlen (Staatsausgaben). Das Schildchen "Öko" ist nur ein billiger Vorwand und scheinheiliges "wir tun was für die Umwelt"-Getue/ Aktionismus bzw. eine Rechtfertigung für den hohen Steuersatz auf Benzin seitens der Politiker.

Das Denken, dass sich jede persönliche Anstrengung in barer Münze irgendwie auswirken *muss* sollte möglichst schnell über Bord geworfen werden. In diesem Zusammenhang auch das Beispiel von nem Schüler, welcher problemlos z.B. zwei Energiesparlampen für sein eigenes Zimmer kaufen könnte -> eben ohne, dass er davon selbst direkten Nutzen hat (der Papa wirds ihm danken, denn die Stromrechnung wird dann etwas weniger).

In den Köpfen soll/muss sich festsetzen, dass es neben dem "harten Euro" noch andere Werte gibt. Diese lassen sich nicht so einfach nachweisen und sind bisher *kostenlos* zur Verfügung gestellt worden. Ich meine damit eine Umwelt, in der wir überleben können. Ich will gar nicht auf den 13-Jahre Klimakollaps hinaus (das halte ich für absoluten Schwachsinn/ Panikmache). Es geht um ganz normale/ logische Überlegungen.

Jeder kann etwas dazu beitragen, dass sich die Erde etwas leichter dreht. Und wenn jeder lokal etwas tun würde, selbst wenn dies "nur" ein Land oder ein Kontinent wäre, so hätte dies langfristig eine Signalwirkung. Das Argument "Die Chinesen machen 10 mal mehr Treibhausgase" ist korrekt, entbindet "uns" aber nicht davon, hier nach bestem Wissen und Gewissen zu handeln. (Das ist meine Meinung). Das ist jetzt alles sehr grundsätzlich und hat mit Grafikkarten nur periphär zu tun.

Wenn man bedenkt, wieviel Energie weltweit durch unangepasste Grafikpower verblasen wird, so ist die Forderung nach verbesserten Karten gerade in diesem Bereich doch logisch und nachvollziehbar!?

Zum Gast, welcher einen Post vorher gepostet hat: Du hast Recht, ich würde auch gerne mit einer HighEnd Grafikkarte spielen. Und aktuell könnte ich mir auch eine oder zwei kaufen, wenn ich wollte. Für mich spielt es auch nur eine untergeordnete Rolle, ob ich nun 30 Euro pro Monat für Strom bezahle oder ob es 20 Euro sind (als Student freue ich mich natürlich schon über mehr Geld. Im Bezug auf Energiesparen ist das aber nicht meine Motivation (was eben z.B. auch paul.muad.dib unterstellt hat, dass alle Menschen nur was tun, wenn es sich in barer Münze auszahlt -> es sind eben doch nicht alle so)). Ich werde in wenigen Monaten mit meinem Studium fertig sein und dann wird es mich noch weniger interessieren, wieviel Geld ich durch Energiesparlampen tatsächlich spare. Ich werde es machen, weil ich meinen Teil zum Gesamten beitragen will, den ich beitragen kann, ohne mir dabei ein Bein ausreissen zu müssen, oder großartig auf irgendetwas verzichten zu müssen.

In diesem Sinne würde ich *sofort* eine HighEnd GraKa, welche dem Konkurrenzprodukt vielleicht um 10 oder 20% in der Performance unterlegen ist, jedoch stromsparend arbeitet kaufen. Und ich denke, dass ich da nicht allein auf weiter Flur stehe. Sicherlich werden andere, die der selben Meinung sind andere Gründe haben, warum sie eine solche Karte bevorzugen würden (vielleicht weil dann kein neues NT fällig wird -> wenn es so weiter geht brauchen wir ohnehin bald eine Abzweigung der Kraftstromdose von Mama's Herd!).

Wenn ich eine der derzeitig aktuellen Stromfresser kaufen würde, so wollte ich diese zumindestens deaktivierbar haben wollen (wie im thread vorgeschlagen eine IGP und eine dedizierte GraKa und je nach Anforderung das eine oder andere deaktivieren). Der Rechner, mit dem ich zocke ist auch der, mit dem ich normalerweise surfe. Eine GraKa, die im 2D Modus mehr braucht als eine frühere Generation unter 3D Voll-Last ist einfach ökologischer Wahnsinn.

Daher würde es mich nach wie vor interessieren, ob das Deaktivieren einer GraKa im Hardwaremanager tatsächlich den Stromverbrauch entsprechend senkt (=vollkommenes Abschalten der GraKa).

Mr. Lolman
2007-03-07, 15:21:41
Zwischen Geforce 1 und 5 blieben die Verlustleistungen bzw. Kühllösungen fast gleich und nun schnellen sie auf einmal in die Höhe.

Das stimmt nicht ganz. Mit jeder neuen GraKageneration ging die Verlustleistung (prozentual) brutal in die Höhe. Nur bewegte sich das bis zur GF5 auf einem Niveau, wo das alles problemlos wegkühlbar war.

Das Problem ist allerdings hausgemacht. Mit NVs kurzen Produktzyklen kann die Halbleiterindustrie schon lang nicht mehr mithalten. Deswegen werden GraKas immer fetter und energiehungriger. Würde man sich auf eine Verdoppelung der Leistung innerhalb von 2 Jahren beschränken gäbs das wohl Problem nicht.

Das hiesse zwar, dass heutige GraKas langsamer wären, allerdings würde man die vorhandene Leistung auch besser nutzen.

Gast
2007-03-07, 15:53:11
Das stimmt nicht ganz. Mit jeder neuen GraKageneration ging die Verlustleistung (prozentual) brutal in die Höhe. Nur bewegte sich das bis zur GF5 auf einem Niveau, wo das alles problemlos wegkühlbar war.

Das Problem ist allerdings hausgemacht. Mit NVs kurzen Produktzyklen kann die Halbleiterindustrie schon lang nicht mehr mithalten. Deswegen werden GraKas immer fetter und energiehungriger. Würde man sich auf eine Verdoppelung der Leistung innerhalb von 2 Jahren beschränken gäbs das wohl Problem nicht.

Das hiesse zwar, dass heutige GraKas langsamer wären, allerdings würde man die vorhandene Leistung auch besser nutzen.
Könnte bald zwangsweise Realität werden. Die Grenzen des technisch und finanziell machbaren für Consumerhardware rücken näher. G80 hat ja schon 4 Jahre Entwicklungszeit gebraucht und ATi stößt beim R600 auch auf Schwierigkeiten. In Zukunft wird das wahrscheinlich noch schlechter werden. Dazu kommt die gegenläufige Entwicklung, dass Energie immer knapper und teurer wird und zugleich die Hardware immer mehr davon bei der Entwicklung/Produktion und später im Betrieb braucht.

L.ED
2007-03-07, 20:19:29
Was die Menschheit braucht ist ein allgemeines um sich Greifen von weiterführenden inneren Grundwerten.

Eine weiter geartete (gereifte) Form von Verantwortungsgefühl!

Sich als sozial agierende Spezies dann auch Begreifen (denn das ist der Mensch)

Das ich ab einem bestimmten Punkt eben nicht so handele wie es möglich und oder profitabler nur für mich selbst oder ein paar wenige. Sondern ob dessen im Einklang mit Ethisch/Moralischen Grundwerten (die man in der Lage dann zu Empfinden, aus tiefsten inneren heraus quasi schon dann bindend).

Das meint eben zum Beispiel, dass ich als Firmenvorstand / Management, es als Persönliche Katastrophe und Versagen Auffasse, wenn ich Leute entlassen muss! Der Art die welche mich nahe dem Punkt bringt die Waffe an die Schläfe zu führen.

Ja, mit diesem Beispiel drückte meinen Finger in bekannte und weit aufklaffende Wunden dieser Tage und Gesellschaft. :(

Wir müssen Anfangen dafür Sorge zu tragen das Zukünftige Generationen diese gemeinte Art von mindest Reife dann in sich Tragen.

Das wir in Zukunft zumindest und oder auch in den Führungspositionen dann keine sozial parasitären Denkelemente nur mehr Vordergründig in den Köpfen vorfinden, die welche das Handeln bestimmen! Sondern Verantwortungsbewusstsein schon vor der eigenen Spezies, dem Menschen!

Das eben weiter gereicht als nur von 12 bis Mittag!

Der Mensch ist dazu fähig, packen wir es an!


Und eins ist gewiss, sollte es für die Menschheit noch ein später geben?, dann wird man da einst über diese Zeit nur Verständnisentfremdet kucken (so sehr wird es sich dann gewandelt haben), und das ist auch gut so.

blackbox
2007-03-10, 15:03:20
Leo hat das Thema auf der Hauptseite aufgegriffen. ;)

Allerdings denke ich nicht so kompliziert wie Leo.
Sicher, automatisieren lässt sich das kaum, dass zwischen 2 Grafikchips hin und hergeschaltet wird. Das führt in der Tat zu fast unlösbaren Problemen, sofern man die Treiber nicht selber schreiben kann. Vielleicht wäre unter Linux so etwas möglich.

Mir schwebt eine andere Lösung vor, die ich auch schon vorgeschlagen habe. Sie ist recht simpel: Man schaltet den zweiten Grafikchip per Systemsteuerung einfach ab.
Leider hat sich noch niemand gefunden, der seine SLI- oder Grafikkombination dafür hergibt und mal testet.

Nasenbaer
2007-03-10, 17:30:15
Wenn ich gerade so die Zusammenfassunf in den News gelesen hab, wäre es dann nicht das einfachste einfach 2 separate Chips auf einer Karte unterzubringen - einen für 2D und einen für 3D. Den jeweils anderen könnte man solange immer im standby lassen wodurch, wenns gut gemacht ist, die Verlustleistung gegen 0 tendieren würde.

Wenn das zu große Probleme beim Routing auf den Grafikkartenplatine bedeuten würde könnte man die Multicore-like natürlich auch on-chip implementieren, was wohl insgesamt sogar noch der bessere weg wäre.

OBrian
2007-03-10, 19:02:52
Aber ein komplette Abtrennung des 3D-Teils vom 2D-Teil wäre sinnlos "dank" Vista und anderer Betriebssystemoberflächen, die durch 3D-Funktionen beschleunigt werden, dann hieße es ja "entweder Karte aus oder Aero aus".

Interessanter wäre es da, einfach einen normalen onboard-Grafikchip mit ausreichenden 3D-Fähigkeiten (z.B. AMD 690G oder GeForce 6150) dafür zu nutzen und dann die jeweilige Gamerkarte abzuschalten. Natürlich ohne dafür extra den Rechner rebooten oder an den Anschlüssen hinten herumstöpseln zu müssen.

Besteht nur die Frage: Schickt man das fertige Bild über den onboard-Chip oder über die Karte raus? Schickt man es über den onboard-Chip, leidet evtl. die analoge Bildqualität (streifiges Bild bei höherer Auflösung), weil die Mainboardhersteller üblicherweise nur die billigsten Mist verbauen, bei DVI fällt das natürlich weg.
Zweites Problem wäre aber die Bandbreite für das von der Karte kommende 3D-Bild, bei Crossfire ohne Kabel oder Steckbrücke hat man ja auch gewisse Performanceeinbußen, und die onboard-Chips sind ja nochmal mit viel weniger PCIe-Lanes angebunden.

Schicke ich dagegen das (performanceirrelevante) 2D-Bild über die Karte, kann ich sie nicht mehr komplett abschalten, und man müßte die Hardware umdesignen, um das vernünftig zu machen, d.h. erst die nächste oder übernächste Kartengeneration könnte das ermöglichen.

Ich denke, die erste Lösung ließe sich wahrscheinlich ohne Hardwareanpassung komplett per Treiber erledigen und wäre damit relativ zügig umsetzbar, natürlich wohl mit der Einschränkung, dann onboard-Chip und Karte vom gleichen Hersteller haben zu müssen, aber dafür evtl. auch für ältere Karten nachträglich machbar.

GFXler
2007-03-10, 19:40:17
Das ist ein verdammt interesantes thema ;) also ich würde das ganze anders realisieren und zwar, die recheneinheiten die in so einem GFXchip stecken so weit vereinen damit nur möglichst 2 Arten übrig sind, einer für Fixpoint und einer für Floating Point oder what ever ;). dann würde ich das ganze so weit hochskallieren damit die leistung erreicht wird die man benötigt keine spezialisierte recheneinheit mehr bedeutet mehr flexibilität das ganze wird dann zu sagen wir quads zusammengeschaltet und jeder quad sollte vollständig eigenständig sein also ohne den rest arbeiten können und es gibt ausser diesen quads nix also nix was aussenrum noch ist also MMU.... ist für jeden quad...
wenn man im 2d betrieb ist könnte man z.b. mit einem quad oder so arbeiten der rest ist in nem standbybetrieb ähnlich wie wakeonlan oder so sprich es gibt nur ein bauteil das on ist das den rest aus dem standby holt und ihm sagt es gibt was zu tun das ganze sollte dynamisch sein, sprich wenn ich jetzt ein game zocke dann wird nicht gleich alles eingeschaltet sondern nur soviele quads wie notwendig ausser ich selber sag dem treiber ich will volle power was dann eigenverantwortlich geschieht ansonsten könnte man die leistung so regeln dass man eine framerate ereicht die so um die 50fps liegt mehr is ja net notwendig vieleicht etwas draufpacken für extrems getümmel damit sie nicht einbricht an solchen stellen aber nicht gleich volle power wenns ohnehin net notwendig ist man könnte das ganze auch noch mit takt heben senken machen damit man eventell mehr effizienz erreicht bei dem ganze und beim ram ebenso bei 2d braucht man nicht mehr als sagen wir 64mb das is aber schon stark überdimensioniert die darstellung wird glaub ich eh von keiner karte noch unterstützt hab jetzt 3200x2400x32bit x2 das sind etwa 48mb
also theoretisch reichen 32mb für 2d betrieb mehr als aus ;)
bei vista aero ist jetzt so ne sache man könnte auf jeden fall die quads runterdrehen und dann noch die taktfrequenz auf so 50fps anpassen
den ram könnte man auch dynamisch machen sprich so dass halt genug da ist aber net mehr als notwendig wieviel es ist is sicher unterschiedlich bei jedem user was er nutzt was er mit seinem vista rumbastelt.

das design ist nur so ne idee ;) warum nun ich bin der meinung dass man hardware so flexibel wie möglich halten sollte das hat viele vorteile nur anscheinend wird es nicht genutzt wieso ka.
die vorteile sind meiner meinung die höhere flexibilität (man könnte den recheneinheiten auch noch ein paar extras mitgeben die von herkömmlichen cpus stammen) der einfachere aufbau denn gfx karten haben noch ne menge sehr spezieller dinge in sich zumindest denke ich das wenn ich mir so die skizzen ansehe die so im netzt rumschwirrren. das würde ich vollkommen abschaffen nur noch ganze allgemeines design auch wenns vieleicht etwas langsamer ist kann man dann durch ein paar zusätliche recheneinheiten ausgeleichen denk ich mal. die flexibilität hat noch nen riesigen vorteil man kann wenn man richtig designt wie ich schon sagt einfach dynamisch zu und abschalten denn jeder quad hat ja alles in sich was noch nen vorteil hat sollte beim fertigen ein fehler auftreten einfach quad auschalten und man nimmt sie als mainstream karte meine art hätte noch ne viel höhere ausbeute denk ich als bisherige systeme
der wichtigste vorteil der nur auftritt wenn man das wirklich machen würde mit der übernahme von einigen dingen der cpus könnte man den chip als eine art massiv multiparealler cpu ansehen wenn man sie beinahe so flexibel macht das ganze overlay per opengl directx umgehen könnte das würde viele neue markchancen geben wie z.b als raytracing karte denn wenn man die flexibilität einer cpu hat könnte man auch einfacher raytracing basteln
sicher einiges würde dann software mäßig sein aber das hätte den vorteil das man als hardware hersteller mehr möglichkeiten hat z.b könnte man treiber für genaues wissenschaftliche berechnungen anbieten oder welche für verdammt gute grafik eine für sehr schnelle grafik .... man könnte die kunden besser zufrieden stellen ob meine idee geldmäßig verwertbar ist ka ob sie sinnvoll ist ka ob sie klug ist ka aber meiner meinung nach wär das halt ne gute idee

sorry dass ich so viele satzzeichen vergessen habe werde sie nach und nach aussbessern ;) aber ich wollt das ganze loswerden wenn jemand anregungen kritik oder sonstiges zu meinen ideen hat bin ich dankbar aber bitte mit begründung ;) ansonsten kann ich mit kritik nämlich nix anfangen

Gast
2007-03-10, 21:25:58
Das ist längst Realität. Kann auch sein dass das gepostet wurde...

Schaut euch bei den Sony Notebooks um, SZ-Serie....

Ikon
2007-03-10, 22:25:26
IGPs sind die Antwort.

Wenn man die Grafikkarte aufrüstet, tut man dies um mehr 3D-Leistung und/oder mehr Graka-Speicher zu bekommen. Alle anderen Anforderungen an die Grafikausgabe sind davon aber völlig losgelöst oder sogar weitgehend gleich geblieben über die letzten Jahre.

Heutige IGPs bieten alle nötigen physikalischen Ausgänge (VGA/DVI/HDMI/TV-Out), genau so viel Videobeschleunigung wie vollwertige Grafikkarten und das nötige Modikum an 3D-Beschleunigung für Aero und sogar das ein oder andere simplere Spielchen.
(Ich sitze selbst gerade an einem 19"-TFT, das analog von einer onboard geForce6100 gespeist wird -> von "welligem Bild" keine Spur, ich könnte nicht zufriedener mit der analogen Ausgabequalität sein. Mit DVI ist es erst recht kein Problem mehr, auch nicht bei höheren Auflösungen.)

Alles was fehlt ist eine software-seitige Schnittstelle, die es einem separaten 3D-Beschleuniger erlaubt, sein fertiges Bild über die physikalischen Anschlüsse der Onboard-Grafik auszugeben (möglicherweise so etwas wie Overlay bei Videos?) und natürlich die dazu nötigen physikalischen Verbindungen (sofern das nicht über PCIe machbar ist). Gewisse Synergieeffekte zwischen Grafikkarte und Onboard-Grafik gibt es schon heute -> wenn man auf einem Board mit gF6100 eine nVidia-Grafikkarte installiert, wird die Onboard-Grafik automatisch als sekundäre "Grafikkarte" eingebunden, man kann also die Ausgänge der Onboard-Grafik für zusätzliche Anzeigegeräte nutzen (keine Ahnung ob nVidia das auch mit Karten/Chips anderer Hersteller erlaubt).

Gast
2007-03-11, 08:42:43
Das ist längst Realität. Kann auch sein dass das gepostet wurde...

Schaut euch bei den Sony Notebooks um, SZ-Serie....Wird da nicht ein Neustart benötigt um zwischen den Grafikkarten zu wechseln?

RavenTS
2007-03-11, 11:18:24
Alles eine Frage des Marktes. Wer hat sich denn vor 3-4 Jahren um den Stromverbrauch einer GraKa geschert, da war das Thema Lautstärke gerade mal salonfähig geworden (Verlustleistung etc damit zumindest schon periphär). Erst in den letzten Monaten und Jahren, wo auch die Verbräuche hochgegangen sind, wurde das Thema Stromverbrauch erstmals auch in Reviews/Tests aufgenommen.

Ich denke in Zukunft wird dieses Thema an Bedeutung gewinnen, durch erhöhtes Interesse, genauere Tests etc. Wer jetzt was schon was tun will, muss sich ja nur eine Mittelklasse-GraKa kaufen und hat damit schon viel erreicht, aber muss damit auch auf etwas Leistung verzichten und dann sind wir wieder beim Problem, daß jeder erstmal nicht bei sich selbst verzichten will... (Grundfrage des Homo oeconomicus Menschenbildes).

Darkstar
2007-03-11, 23:15:53
Nun meine Frage:
Warum ist bisher eigentlich keiner auf die Idee gekommen, zwei Grafikchips zu benutzen?PowerVR bzw. die Lizenznehmer haben das schon vor über zehn Jahren gemacht (mit dem PCX2).

Und das Thread-Thema hatten wir vor 1½ Jahren ebenfalls schon einmal: 2D von der Grafikkarte auslagern? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=256177)