PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : bis 120 Watt für GF6800 U Extreme. Das ist doch Wahnsinn.


RaumKraehe
2004-05-06, 16:49:25
... wenn die Werte stimmen sollten. Sind ja rein spekulativ.


Die Grafikkarte verbraucht dann alleine schon fast soviel wie mein ganzer Rechner momentan unter Voll-Last. Irgend wie hab ich das Gefühl das mal neue technologische Wege beschritten werden müssen.

Eine Idee währe ja das ganze irgend wie vom Takt zu lösen. Weiterhin gibt es ja auch schon programmierbare CPUs die ganze Programme in Echtzeit in Hardware abbilden können.

Aber um beim Thema zu bleiben: Vor dem nächsten Neukauf werde ich den Stromverbrauch definitv mal näher in die Kaufentscheidung mit einfließen lassen.

DrumDub
2004-05-06, 17:21:01
es sind 127w unter vollast bei der 6800ue. :D

http://techreport.com/reviews/2004q2/radeon-x800/power.gif

nur 6800u=112w unter vollast.

was ich viel bedenklicher finde, ist die tatsache, dass die 6800ue soviel mehr strom im 2d-betrieb verbraucht.

deshalbe glaube ich auch nicht an die aussage eines bekannten von nggalai, dass der ein testexemplar einer 6800u auf 600mhz gpu-takt prügeln konnten.

LovesuckZ
2004-05-06, 17:22:24
ab hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1781567#post1781567), wird darüber schon diskutiert.

ast
2004-05-06, 20:57:08
Original geschrieben von LovesuckZ
ab hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1781228#post1781228), wird darüber schon diskutiert.

ne, schon ab da (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1781228#post1781228)

Danny007
2004-05-06, 22:29:45
Klar ist es nicht schön, das der Verbrauch immer mehr wird.

Aber gehen wir mal von 250 Watt Rechner + Monitor und 8 Stunden pro Tag aus. Das wäre am Tag ein Verbrauch von 2000 Watt. Im Monat wären das bei 30 Tagen 60 kWh. 1 kWh kostet bei mir 0,1653 Euro. Für 60 kWh wären das ca. 10 Euro pro Monat.

Wenn man jetzt mal bedenkt, das der Rechner auch nicht immer unter Vollast läuft, und man an manchen Tagen weniger oder überhaupt nicht am PC sitzt, wenn man bei Freundin, Freunde oder Bekannten ist. Könnte es sogar noch etwas weniger als 10 Euro sein.

Gut es mag zwar auch Leute geben die mehr als 8 Stunden am PC hocken (wers braucht), aber dann kommt man vieleicht auch nur auf 15 oder 20 Euro im Monat.

Also ich finde das eigentlich nicht sehr viel für ein Monat. Da gibt es aber andere Hobbys die sind weitaus teurer.

Godmode
2004-05-06, 23:09:57
Original geschrieben von Danny007
Klar ist es nicht schön, das der Verbrauch immer mehr wird.

Aber gehen wir mal von 250 Watt Rechner + Monitor und 8 Stunden pro Tag aus. Das wäre am Tag ein Verbrauch von 2000 Watt. Im Monat wären das bei 30 Tagen 60 kWh. 1 kWh kostet bei mir 0,1653 Euro. Für 60 kWh wären das ca. 10 Euro pro Monat.

Wenn man jetzt mal bedenkt, das der Rechner auch nicht immer unter Vollast läuft, und man an manchen Tagen weniger oder überhaupt nicht am PC sitzt, wenn man bei Freundin, Freunde oder Bekannten ist. Könnte es sogar noch etwas weniger als 10 Euro sein.

Gut es mag zwar auch Leute geben die mehr als 8 Stunden am PC hocken (wers braucht), aber dann kommt man vieleicht auch nur auf 15 oder 20 Euro im Monat.

Also ich finde das eigentlich nicht sehr viel für ein Monat. Da gibt es aber andere Hobbys die sind weitaus teurer.


Wenn deine Rechnung stimmt, schreckt mich das eigentlich gar nicht ab! Man sieht es ja auch bei den CPUs die brauchen auch immer mehr mehr mehr :) es muss mal ne neue Technologie her!!

tokugawa
2004-05-06, 23:27:59
Original geschrieben von bans3i
Wenn deine Rechnung stimmt, schreckt mich das eigentlich gar nicht ab! Man sieht es ja auch bei den CPUs die brauchen auch immer mehr mehr mehr :) es muss mal ne neue Technologie her!!


Z.B. Solarzellen am PC? :D

Hotel
2004-05-06, 23:32:37
Original geschrieben von RaumKraehe
... wenn die Werte stimmen sollten. Sind ja rein spekulativ.


Die Grafikkarte verbraucht dann alleine schon fast soviel wie mein ganzer Rechner momentan unter Voll-Last. Irgend wie hab ich das Gefühl das mal neue technologische Wege beschritten werden müssen.

Eine Idee währe ja das ganze irgend wie vom Takt zu lösen. Weiterhin gibt es ja auch schon programmierbare CPUs die ganze Programme in Echtzeit in Hardware abbilden können.

Aber um beim Thema zu bleiben: Vor dem nächsten Neukauf werde ich den Stromverbrauch definitv mal näher in die Kaufentscheidung mit einfließen lassen.

Das ist ein interessanter Gedanke!


So what, kann gut oder auch schlecht sein!

Danny007
2004-05-07, 07:55:23
Original geschrieben von bans3i
Wenn deine Rechnung stimmt, schreckt mich das eigentlich gar nicht ab! Man sieht es ja auch bei den CPUs die brauchen auch immer mehr mehr mehr :) es muss mal ne neue Technologie her!! Kannste ja nachrechnen.

250 Watt * 8 Std. = 2000 Watt pro Tag

2000 Watt + 30 Tage = 60000 Watt

60000 Watt = 60 kW

60 kW * 0,1653 Euro/kWh = 9,918 Euro


Und das bei 8 Stunden Vollast des PC´s. Wenn man mal in der Grafik schaut das im Idle Mode meist noch 50-90 Watt weniger verbraucht wird. Wer es genau wissen möchte, kann sich auch ein Wattmessgerät besorgen und dadurch seinen verbrauch ausrechnen.

Aber AMD und Intel gehen ja schon neue wege. Das C&Q von AMD gefällt mir eigentlich ganz gut, und Intel möchte ja auch seine CPU Technik aus den Centrino Notebooks, auch auf dem Desktop bringen. Dauert aber leider noch was.

Quasar
2004-05-07, 09:23:21
Original geschrieben von DrumDub
es sind 127w unter vollast bei der 6800ue. :D

http://techreport.com/reviews/2004q2/radeon-x800/power.gif

nur 6800u=112w unter vollast.


Wie kann ich das aus dieser Tabelle ablesen?

seahawk
2004-05-07, 10:15:03
Boah, da macht Der Stromverbrauch der NV ja glatt 1,58 € im Monat gegenüber der X800Pro aus.

Also wenn das bei einer 500 Euro teuren Karte kein Argument für die ATI ist. :banghead:

DrumDub
2004-05-07, 10:45:02
Original geschrieben von Quasar
Wie kann ich das aus dieser Tabelle ablesen?

nach 3dcenter verbraucht die 6800u 111w im 3d-betrieb. andere seite sprechen von 112w. den rest kannste dir ja ausrechnen, da das system ja dasselbe ist.

221-206=15

112+15=127

soweit klar?

tokugawa
2004-05-07, 10:51:09
Original geschrieben von seahawk
Boah, da macht Der Stromverbrauch der NV ja glatt 1,58 € im Monat gegenüber der X800Pro aus.

Also wenn das bei einer 500 Euro teuren Karte kein Argument für die ATI ist. :banghead:

Aha, du spielst also 24 Stunden am Tag die ganze Woche durch.

Quasar
2004-05-07, 10:57:40
Original geschrieben von DrumDub
nach 3dcenter verbraucht die 6800u 111w im 3d-betrieb. andere seite sprechen von 112w. den rest kannste dir ja ausrechnen, da das system ja dasselbe ist.

221-206=15

112+15=127

soweit klar?

Soweit ja (wobei ich mit den Einzelangaben der Graka eh so meine Probleme habe... aber deine Rechnung vollziehe ich nach)
Wie erklärst du dir dann 31W mehr im Idle Mode der UE ggü. der U?

RaumKraehe
2004-05-07, 10:58:28
Original geschrieben von Danny007
Klar ist es nicht schön, das der Verbrauch immer mehr wird.

Aber gehen wir mal von 250 Watt Rechner + Monitor und 8 Stunden pro Tag aus. Das wäre am Tag ein Verbrauch von 2000 Watt. Im Monat wären das bei 30 Tagen 60 kWh. 1 kWh kostet bei mir 0,1653 Euro. Für 60 kWh wären das ca. 10 Euro pro Monat.

Wenn man jetzt mal bedenkt, das der Rechner auch nicht immer unter Vollast läuft, und man an manchen Tagen weniger oder überhaupt nicht am PC sitzt, wenn man bei Freundin, Freunde oder Bekannten ist. Könnte es sogar noch etwas weniger als 10 Euro sein.

Gut es mag zwar auch Leute geben die mehr als 8 Stunden am PC hocken (wers braucht), aber dann kommt man vieleicht auch nur auf 15 oder 20 Euro im Monat.

Also ich finde das eigentlich nicht sehr viel für ein Monat. Da gibt es aber andere Hobbys die sind weitaus teurer.

Allerdings wird der Strompreis in den nächsten Jahren nicht sinken sondern eher steigen.

seahawk
2004-05-07, 11:28:20
Original geschrieben von tokugawa
Aha, du spielst also 24 Stunden am Tag die ganze Woche durch.

50 Watt Unterschied.

8 Stunden am Tag, 30 Tage im Monat.

320 Watt am Tag -> 9.6 kw im Monat x 0,1653 -> 1,59 Euro im Monat.

DrumDub
2004-05-07, 12:04:46
Original geschrieben von Quasar
Wie erklärst du dir dann 31W mehr im Idle Mode der UE ggü. der U?

eventuell funktioniert durch die übertaktung auf 450mhz die taktsteuerung im 3d-modua nicht mehr richtig, sodass die karte nicht auf den normalen 2d-takt runtertaktet.

The GeForce 6800 GT looks reasonably good on the power consumption front, as well, but the GeForce 6800 Ultra Extreme is another story. This card runs hot and loud, its cooler blowing a notch faster than the other cards when it's just sitting idle.
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=27

leider habe ich keine andere website gesehen, die die werte von der 6800ue geliefert hat. bei der 6800u gibts ja noch vergleichswerte auf der website hardware.fr, auch wenn dort ein anderes system (p4 3,2 vs. a64 3,2) eingesetzt wurde.

HeinzimBernd
2004-05-07, 13:54:13
Mh... ich glaube, nVidias Strategie wird über lang oder kurz scheitern. Im Intel Lager ist man bereits am Umdenken. Das nVidia nachzieht wird wohl nur eine Frage der Zeit sein, den Leute die CPUs mit weniger Leistungshunger kaufen wollen, brauchen auch Grafikkarten.

Bei Intel hat es diese "Gruppe" schon geschafft, bei den Graka wird man ähnliche Folgen spüren können.

Übrigens... es ist nicht der Server - Markt der das Kunststück fertiggebracht hat. Es sind die Desktop CPUs ^^

Quelle: http://www.heise.de/newsticker/meldung/47181

Quasar
2004-05-07, 13:56:24
Original geschrieben von DrumDub
eventuell funktioniert durch die übertaktung auf 450mhz die taktsteuerung im 3d-modua nicht mehr richtig, sodass die karte nicht auf den normalen 2d-takt runtertaktet.


Das ist's ja eben. Der Treiber bietet keine getrennten 2D- und 3D-Frequenzen mehr an...

DrumDub
2004-05-07, 15:13:28
Original geschrieben von Quasar
Das ist's ja eben. Der Treiber bietet keine getrennten 2D- und 3D-Frequenzen mehr an...

das ändert aber nix am 3d- bzw. vollast-ergebnis. ;)

Tigerchen
2004-05-07, 15:38:08
Original geschrieben von seahawk
Boah, da macht Der Stromverbrauch der NV ja glatt 1,58 € im Monat gegenüber der X800Pro aus.

Also wenn das bei einer 500 Euro teuren Karte kein Argument für die ATI ist. :banghead:

Ist ja nicht nur der pure Strompreis. Habt ihr in eure Rechnung auch den bescheidenen Wirkungsgrad der allermeisten Netzteile berücksichtigt? Und die zusätzlichen Maßnahmen zur Wärmeabfuhr? Zusätzlich haben OEM's wie Dell auch noch den Prescott zu versorgen und zu kühlen. Das erfordert alles zusammen immer größere und teurere Netzteile, bessere Kühlblöcke aus entsprechend teurem Material und intelligente Lüfterkonzepte. Der Trend ist einfach nicht gutzuheißen. Na wenigstens Intel hat ja jetzt reagiert. Ich kann nVIDIA nur empfehlen ihr nächstes Design auf Effizienz zu optimieren und die Features mal Features sein zu lassen bis die Zeit reif ist.

Quasar
2004-05-07, 15:44:40
Original geschrieben von Tigerchen

Ich kann nVIDIA nur empfehlen ihr nächstes Design auf Effizienz zu optimieren und die Features mal Features sein zu lassen bis die Zeit reif ist.

Bei einem durch den Takt bereinigten "Anstieg des Designs" um ~38,5% (Anstieg der Transistorzahl / Taktabnahme) und nahezu gleicher Leistungsaufnahme hat man da wohl schon einiges optimiert.

LovesuckZ
2004-05-07, 16:02:46
Original geschrieben von Tigerchen

Ich kann nVIDIA nur empfehlen ihr nächstes Design auf Effizienz zu optimieren und die Features mal Features sein zu lassen bis die Zeit reif ist.


Wenn man sich die technologischen Verbesserungen und dem Speed des NV40 gegenüber dem NV38 anguckt und dann feststellt, dass die Karte nur ca. 10Watt mehr benoetigt, dann erkenntman, dass an der Effizienz geschraubt wurde.
Im gegensatz zu ATi, die nur den Speed verdoppelt und aus technischer Sicht nur sehr wenig verändert haben, ist der Verbrauchsanstieg von ca. 10 Watt gegenüber dem r360 eher enttaeuschend!

Tigerchen
2004-05-07, 16:46:09
220 Millionen Transistoren fordern ihren Tribut. Wenn ihr das relativieren wollt habt ihr meinen Segen. Für mich bleiben 220 Millionen eben 220 Millionen von denen ein guter Teil gar nicht gebraucht werden aber viel Strom fressen und die IBM viel Kopfschmerzen bereiten.
Der Wankelmotor war auch innovativ und seiner Zeit vorraus. Was hat es NSU gebracht?

seahawk
2004-05-07, 16:51:35
Original geschrieben von Tigerchen

220 Millionen Transistoren fordern ihren Tribut. Wenn ihr das relativieren wollt habt ihr meinen Segen. Für mich bleiben 220 Millionen eben 220 Millionen von denen ein guter Teil gar nicht gebraucht werden aber viel Strom fressen und die IBM viel Kopfschmerzen bereiten.
Der Wankelmotor war auch innovativ und seiner Zeit vorraus. Was hat es NSU gebracht?


Viel, wenn klar gewesen wäre das Wankelmotoren irgendwann Standard werden. :D

DrumDub
2004-05-07, 17:08:03
Original geschrieben von LovesuckZ
Wenn man sich die technologischen Verbesserungen und dem Speed des NV40 gegenüber dem NV38 anguckt und dann feststellt, dass die Karte nur ca. 10Watt mehr benoetigt, dann erkenntman, dass an der Effizienz geschraubt wurde.
Im gegensatz zu ATi, die nur den Speed verdoppelt und aus technischer Sicht nur sehr wenig verändert haben, ist der Verbrauchsanstieg von ca. 10 Watt gegenüber dem r360 eher enttaeuschend!

nun ja. man kann auch andersherum argumentieren. weil das design des nv3x so ineffizient war, konnte nv solch ein leistungssteigerung bei unwesentlich höherer leistungsaufnahme überhaupt hinbekommen. auf der anderen seite ist das design des r3x0 so effizient, dass man dort eben nicht mehr viel verbssern und konnte. und das die leistungsaufnahme nicht linear mit der leistung steigt, ist ja bekannt.

LovesuckZ
2004-05-07, 17:11:32
Original geschrieben von Tigerchen

Für mich bleiben 220 Millionen eben 220 Millionen von denen ein guter Teil gar nicht gebraucht werden aber viel Strom fressen und die IBM viel Kopfschmerzen bereiten.


Müsste dir die Erhöhung beim r420 nicht mehr Kopfzerbrechen bereiten? Ich meine, nur Speed und trotzdem 10 Watt mehr. Ist dies nicht ein schlechteres Ergebnis?
Beide haben zur Vorgaengergeneration die Leistungsaufnahme erhöht, warum aber Nvidia das Problem schlimmer waere, verstehen wohl nur Leute des roten Lagers.

strom
2004-05-07, 17:24:24
Original geschrieben von LovesuckZ
Müsste dir die Erhöhung beim r420 nicht mehr Kopfzerbrechen bereiten? Ich meine, nur Speed und trotzdem 10 Watt mehr. Ist dies nicht ein schlechteres Ergebnis?
"200 PS statt 100 PS und nicht gestiegener Verbrauch" - finde ich gut, wenn es bei den Autoherstellern so wäre *träum*

Original geschrieben von LovesuckZ
Beide haben zur Vorgaengergeneration die Leistungsaufnahme erhöht, warum aber Nvidia das Problem schlimmer waere, verstehen wohl nur Leute des roten Lagers.

Vielleicht schaust du mal aus deinem Grünen ( ;D ) Lager heraus und besuchst das Blaue - die wollen jetzt auch mehr grün sein ;)

Quasar
2004-05-07, 17:35:43
Original geschrieben von strom
"200 PS statt 100 PS und nicht gestiegener Verbrauch" - [...]

Bei gleichem Fahrwerk und Bremsanlage? ;)

edit:
Aber hast schon recht, das Design der X800 ist schon verdammt effizient.

LovesuckZ
2004-05-07, 17:50:04
Original geschrieben von strom
"200 PS statt 100 PS und nicht gestiegener Verbrauch" - finde ich gut, wenn es bei den Autoherstellern so wäre *träum*


Du vergisst den kleineren Fertigungsprozeß sowie die Verwendung von Low-K.

Ailuros
2004-05-07, 18:00:07
Original geschrieben von Tigerchen

Ich kann nVIDIA nur empfehlen ihr nächstes Design auf Effizienz zu optimieren und die Features mal Features sein zu lassen bis die Zeit reif ist.



ATI hat nicht auf SM3.0 gesetzt weil sie nicht genug Zeit hatten wegen dem XBox2 Vertrag. Es gibt des oefteren sehr grosse Unterschiede zwischen dem was oeffentlich und dem was "off the record" gesagt wird und das bei allen IHVs.

Für mich bleiben 220 Millionen eben 220 Millionen von denen ein guter Teil gar nicht gebraucht werden aber viel Strom fressen und die IBM viel Kopfschmerzen bereiten.

Ob und wie und warum die extra Transistoren gebraucht werden oder nicht ist wohl eher eine Angelegenheit fuer Entwickler. Generell je mehr Features und je frueher desto besser fuer die Entwickler.

Es ist eine Schande dass viele von Euch nicht faehig seit eine eigene Meinung zu bilden, sondern blubbert in der Mehrzahl den PR/marketing Firlefanz Eures beliebten IHVs nach. Gilt genauso fuer beide Seiten. Und entschuldigt mir auch die merkwuerdige Kritik, aber ich bin nunmal allergisch gegen Scheuklappen.

Die Unfaehigkeit von ATI nicht SM3.0 liefern zu koennen ist IMHO nicht zu applaudieren; wenn Du mir als Verbraucher aber sagst dass Dir SM3.0 egal ist und deshalb eher eine R420 bevorzugst weil Du z.B. 6x sparse haben willst, dann ist das mehr als 100% akzeptabel.

High end features sind in der Mehrheit bei Vorstellung nutzlos fuer den Verbraucher; war auch nicht anders mit der Vorstellung von PS1.1, 1.4 oder weiss der Geier was noch.

Tigerchen
2004-05-07, 18:21:07
Shader 3.0 sind mir nicht egal. Die Frage ist eher ob die Zeit wirklich schon reif ist. Angesichts der nicht unerheblichen Probleme möchte ich diese Frage verneinen.
@Lovesuckz
Das Spitzenmodell ist mir zu teuer und verbraucht mir auch zuviel Strom.

LovesuckZ
2004-05-07, 18:22:56
Original geschrieben von Tigerchen
@Lovesuckz
Das Spitzenmodell ist mir zu teuer und verbraucht mir auch zuviel Strom.


Dann verstehe ich dein Problem nicht...

r@h
2004-05-07, 18:29:37
Original geschrieben von Ailuros
High end features sind in der Mehrheit bei Vorstellung nutzlos fuer den Verbraucher; war auch nicht anders mit der Vorstellung von PS1.1, 1.4 oder weiss der Geier was noch. Ändere das bitte in:

"... nutzlos fuer den großteil der Verbraucher ..."

und ich stimme Dir zu.
Ansonsten hast Du mit diesem Spruch leider keinesfalls recht.

Razor

r@h
2004-05-07, 18:31:11
Original geschrieben von Tigerchen
Shader 3.0 sind mir nicht egal. Die Frage ist eher ob die Zeit wirklich schon reif ist. Angesichts der nicht unerheblichen Probleme möchte ich diese Frage verneinen. Welche Probleme ?
:???:
Original geschrieben von Tigerchen
Das Spitzenmodell ist mir zu teuer und verbraucht mir auch zuviel Strom.Meinst Du jetzt das von ATI oder das von nVidia ?
Wäre 'nett', wenn Du Dich hier klarer ausdrücken würdest...

Razor

Ailuros
2004-05-08, 00:03:59
Original geschrieben von Tigerchen

Shader 3.0 sind mir nicht egal. Die Frage ist eher ob die Zeit wirklich schon reif ist. Angesichts der nicht unerheblichen Probleme möchte ich diese Frage verneinen.



Ich bin mir sicher dass die Reifheit von ATI's Faehigkeit abhaengt, Features zeitig auf den Markt bringen.

Ändere das bitte in:

"... nutzlos fuer den großteil der Verbraucher ..."

und ich stimme Dir zu.
Ansonsten hast Du mit diesem Spruch leider keinesfalls recht.

Razor

Du koenntest ja gerne versuchen mich zu ueberzeugen was dem Normalverbraucher Pixel Shader in 2001 nutzten.

Wir muessen jetzt nicht schon wieder Haare spalten; Du hast das Prinzip sehr gut verstanden.

ironMonkey
2004-05-08, 15:33:58
Laut einigen hier die eine Rechnung aufgestellt haben ist der unterschied im Stromverbrauch zwischen X800 XT und 6800UE nicht alzu groß was den Geldbeutel betrifft, allerdings auch nicht das einzigste Bauteil im rechner was Strom braucht, hier und da ein paar Watt sparen dann kommt da über den Monat doch mehr zusammen als man denkt und auch bei der Kühlung kann man etwas sparen.


Wer will baut sich nen Prescott und 6800UE ein und wer etwas auf den Verbrauch schaut nimm P4 NW/A64( vieleicht auch Mobil) und X800 XT.


Ich achte in letzter zeit auch immer mehr auf den Stromverbrauch von PC Teilen weil Strom wird nicht billiger.



Gruß

Tigerchen
2004-05-08, 15:35:33
Original geschrieben von LovesuckZ
Dann verstehe ich dein Problem nicht...

Ich hab ja auch gar kein Problem. Ich habe nur einen einen Kritikpunkt zum nV40 geäußert. Ansonsten ist der nV40 schnell und innovativ. Ist doch gar keine Frage. Du kriegst nur immer einiges in den falschen Hals. Scheinst generell Probleme mit Leuten zu haben die nicht 100%ig auf deiner Linie sind.

Tigerchen
2004-05-08, 15:50:43
Original geschrieben von Ailuros
Ich bin mir sicher dass die Reifheit von ATI's Faehigkeit abhaengt, Features zeitig auf den Markt bringen.


Ohne jede Frage. Da sind sie eben auf Nummer Sicher gegangen. Oder besser mußten auf Nummer Sicher gehen. (Würde mich mal interessieren warum der R400 gecancelt wurde)

Die Frage bleibt aber bestehen ob es nicht sogar gefährlich für einen Hersteller ist Features der Zukunft so früh wie möglich einzubauen. Kann ja sein daß die CT' recht behält und am Ende des Monats wirklich nur ein paar Hundert Karten lieferbar sind und die Massenproduktion überhaupt erst im Juni anläuft. Könnte sein daß der eine oder andere dann zur technisch nicht so schmackhaften aber gleich schnellen und vor allem verfügbaren Konkurrenz greift.
Ist natürlich alles Spekulatius.:)

Ailuros
2004-05-08, 16:10:12
Ich werde wohl wieder gelyncht fuer den Kommentar, aber wenn meine Erwartungen in kurzer Zeit stimmen sollten bzw. realisiert werden sollten in existierenden kaufbaren Produkten, dann bekommen so einige Punkte ueber die Feature-set/Stromverbrauch Relation ein ganz anderes Licht ab.

Natuerlich handelt es sich dann um ganz andere Vorraussetzungen und natuerlich mussen jegliche Vor- oder Nachteile dann erst analysiert werden.

Ohne jede Frage. Da sind sie eben auf Nummer Sicher gegangen. Oder besser mußten auf Nummer Sicher gehen. (Würde mich mal interessieren warum der R400 gecancelt wurde).

Zu viele parallele Designs und trotz der Uebermenge von Personal, zu wenig Resourcen. Du kannst es nicht nur einseitig ansehen. Da gibt es Design-teams fuer R5xx, R6xx usw und auch fuer die diversen Consolen-Vertraege (siehe Microsoft und Nintendo).

Es ist nicht dass der R420-Schachzug eine schlechte Idee ist, ganz im Gegenteil IMHO. Aber es aendert nichts daran dass es nicht moeglich war von Seiten Zeit und Resourcen groessere Aenderungen vorzunehmen und eben auch SM3.0 zeitlich zu implementieren. Und das ist keine Entscheidung des letzten Moments; eine relevante Entscheidung wurde schon mit dem layout der R3xx basis-Architektur vor Jahren getroffen.

Diese hatte eben nicht so gute Vorraussetzungen wie NV3x auf SM3.0 erweitert zu werden (jegliche Schwaechen mal zur Seite, was arithmetische Effizienz betrifft).

Die Frage bleibt aber bestehen ob es nicht sogar gefährlich für einen Hersteller ist Features der Zukunft so früh wie möglich einzubauen. Kann ja sein daß die CT' recht behält und am Ende des Monats wirklich nur ein paar Hundert Karten lieferbar sind und die Massenproduktion überhaupt erst im Juni anläuft. Könnte sein daß der eine oder andere dann zur technisch nicht so schmackhaften aber gleich schnellen und vor allem verfügbaren Konkurrenz greift.
Ist natürlich alles Spekulatius.

Siehe ganz oben vor den Quotes. Bei keiner Veroeffentlichung ist es kein Punkt mehr; bei einer zeitlichen Veroeffentlichung aber, sieht die Situation vielleicht ganz anders aus.

High end Loesungen muessen fuer die ueblichen Markt-Vorrraussetzungen zur gleichen Zeit sehr schnell und auch so Feature-complete sein wie moeglich. NV40 ist naeher an diesen Vorraussetzungen dran.

Von der Verfuegbarkeit der Ultra-High end ultra limited edition Bolzen wuerde ich auch keine Schlussvolgerungen ziehen. Das wahre Spiel wird sich eher im X800PRO vs 6800GT Raum ausspielen und das eher weil das Verkaufsvolumen mit ~400$ um einiges hoeher ist als bei den 500$ Margen. Im relativen Sinn ist das Verkaufsvolumen bei einfachem high end um 3x bis 5x mal grosser als bei ultra high end.

Janbo000
2004-05-10, 14:41:24
Hi!

Also für mich ist es KEIN Fortschritt auf Kosten des Energieverbrauchs neue Höchstleistungen zu erzielen. Fortschritt bedeutet für mich weniger Verbrauch bei höherer Leistung, einfachere Handhabung und so.

Laut einfacher Rechnung (Dreisatz! :-) ) ist die Leistung der Grakas stärker gewachsen als der Stromverbrauch, und was eine raffiniertere Produktionstechnik (z.B. low-k und SOI) so ausmacht, war ja schon am RV360 zu sehen, wo die Speicherchips mehr Strom zogen als der GraChip selbst :-).

Ich denke, das mit der richtigen intelligenten Technik und einem richtig schlauem Design die jetzige Leistungsfähigkeit auch passiv gekühlt zu bekommen ist, wobei ich sehr gute Erfahrungen mit dem KyroII gemacht habe. Ich weiss, DER ist mittlerweile ziemlich alt, hat aber immer noch die effizienteste Technik (was die Pixelpipeline angeht) von allen (HSR in Hardware), so wie die Voodoo 5 immer noch das schönste AA besitzt :-)...

Ich finde es sehr schade, dass NVidia dies nicht in ihre eigenen Chips umsetzt, wo sie doch schon die Patente abgestaubt haben.

Na ja, bin mal gespannt, was da noch so auf uns zukommt ... (z. B. Athlon 64 mit 35 W Maximalabwärme .. .;-D


Guude,
Jan

ow
2004-05-10, 14:51:51
.

Fatality
2004-05-10, 16:51:28
also der stromverbrauch sollte eure aufmerksamkeit mehr auf die lautstärke und kühlmethode lenken als auf die paar euros für den strom.

demnach muss die nv arschlaut sein wenn sie auf vollen touren läuft *lool*

StefanV
2004-05-10, 16:53:23
Original geschrieben von Fatality
also der stromverbrauch sollte eure aufmerksamkeit mehr auf die lautstärke und kühlmethode lenken als auf die paar euros für den strom.

Da dir das anscheinend egal ist, mal eine Frage an dich:

Würdest du gerne neben einem AKW leben wollen??

RaumKraehe
2004-05-10, 17:20:48
Original geschrieben von Fatality
also der stromverbrauch sollte eure aufmerksamkeit mehr auf die lautstärke und kühlmethode lenken als auf die paar euros für den strom.

demnach muss die nv arschlaut sein wenn sie auf vollen touren läuft *lool*

Aufwändige Kühlmethoden weisen in der Regel auf eine nicht geringe Abwärme hin. Abwärme ist Energie die erst einmal einfach verpufft. Also geht es ins Geld. Und wer heute immer noch glaubt das die Energie-kosten in den nächsten Jahren so bleiben werden, dann gute Nacht.

Allerdings gibt es auch technologische Ansätze. Wenn mann davon ausgeht das heute Prozessoren nicht "reversibel" Arbeiten kann noch einiges an Lesitung gespart werden.

Mit "Reversibel" meine ich einen Rechenvorgang/Mechanismus der es ermöglich mit der gleichen Energie-Menge die zur Lösung eines Problems nötig ist auch wieder die "Frage" zu errechnen. Bei heutigen Architekturen ist es nicht möglich aufgrund des Ergebnisses und des Zustandes des Rechenwerkes auf die eigentliche "Aufgabe" zu kommen. Da unweigerlich wichtige Informationen gelöscht werden.

Wenn mann davon ausgeht das bei einer Float-Calculation ja ein gewisser Teiler übrig bleibt und der Rechner ja nur mit einem Bestimmtem Zahlenbereich arbeiten kann muss mann logisch folgern das bei einem typischem Rechernvorgang Informationen vernichtet werden. Und zwar genau der Überschuß der nicht verarbeitet werden kann.

Wenn wir davon ausgehen das Informationen in diesem Fall ja Ladungszustände sind ist klar sich zumindest ein Teil der Abwärme nicht unbedingt auf reine Reibungsverluste reduzieren lassen. (Oder warum wird eine CPU eigentlich heiß. Physikalische Erklärung?)

Es gibt wohl schon Gatter, aber da müssten jetzt mal die Profis sprechen, die es ermöglichen sollen genau diese Ladung die eigentlich gelöscht werden würde weiter zu nutzen.

Leider ist das alles sehr laienhaft zusammengeschrieben. Ich hoffe ihr versteht was ich meine. ;)

Geforce-Fanatik
2004-05-10, 17:37:17
Ihr alle denkt in zu kleinen Dimensionen. Sicherlich ist es egal, wenn ein einzelner Rechner 10-20 Watt mehr vebraucht durch eine P4 CPU, ein Netzteil mit niedrigen Wirkungsgrad oder einen NVIDIA-Heizung. Rechnet man dies aber auf (hundert-)tausende von Rechnern hoch, so kommt da einiges zusammen. Ein Unternehmen wie Siemens zum Beispiel könnte tausende von Euros sparen, wenn man bei der Anschaffung des Rechners nicht nur auf einen niedrigen Preis, sondern auch auf eine höhere Energieeffizienz achtet. Da kanns u.U. sogar günstiger sein, einen leicht teureren Rechner zu kaufen, der über die Laufzeit gesehen das Geld durch weniger Energie"verschwendung" wieder reinholt.

Hätten wir mehr so effiziente Desings wie den R420 oder den AMD Athlon 64/ Intel Pentium M (Banias/ Centrino), ließen sich allein dadurch in Deutschland sicherlich 1-2 Kohlekraftwerke einsparen. Das kommt sowohl der Umwelt als auch dem Geldbeutel zugute. Ich habe das selbst erleben dürfen, als ich von 19" CRT auf einen 17" TFT sowie von einem P4 auf einen Athlon 64 umgestiegen bin. Ich muß nun pro Monat rund 16 Euro weniger bezahlen. 16 Euro sind 32 Mark - übers Jahr gesehen knapp 200 Euro weniger die ich blechen muß. Und das nur, weil ich eine andere Glotze und eine andere CPU habe... Da verzichte ich lachend auf die PS3.0, zumal die Entwickler genauso wie beim damaligen Radeon 8500/ /Geforce 3 Ti/ Geforce 4 Ti Wettkamp den kleinsten gemeinsamen Nenner nehmen, PS1.1 bzw. PS1.3.

Umdenken ist angesagt.

RaumKraehe
2004-05-10, 17:47:12
Mein Rechner verbraucht, :massa: ATX sei dank, 2,5 Watt im Stand-By Modus. Wieviele Rechner haben wir heute in Deutschland?

und die ganzen Fernseher, Videorekorder, Stereoanlagen u.s.w.

LovesuckZ
2004-05-10, 17:56:27
Original geschrieben von Geforce-Fanatik
Hätten wir mehr so effiziente Desings wie den R420 [...].

;D

Das ist ein Widerspruch.
Der r420 ist nicht effizienter als ein NV40.

Geforce-Rambo
2004-05-10, 18:05:01
Original geschrieben von LovesuckZ
;D

Das ist ein Widerspruch.
Der r420 ist nicht effizienter als ein NV40.

Gleiche bzw. teils bessere Leistung bei hoher Qualität (mit AA und aF) und dabei weniger "verheizte" Energie ist für _mich_ effizienter.

Geforce-Fanatic
2004-05-10, 18:06:13
BTW, wobei du dies da du ja LS bist wie immer genau anders herum siehst. Warum auch immer. Ich verstehe manchmal wirklich nicht deine Argumentationsweise.

LovesuckZ
2004-05-10, 18:08:01
Original geschrieben von Geforce-Rambo
Gleiche bzw. teils bessere Leistung bei hoher Qualität (mit AA und aF) und dabei weniger "verheizte" Energie ist für _mich_ effizienter.

60 Millionen Transistoren weniger und dadurch deutlich weniger Features. Und ja, Leistung hat nichts mit "effizienz" zu tun.
oder anders: Ein kleinerer Fertigungsprozeß, Low-K, nur rund 60 Millionen Transistoren zur vorigen Generation mehr, nur ein neues Features und dann ganze 10 Watt mehr an Verbrauch, spricht gegen ein effizientes Design.

Fatality
2004-05-10, 18:13:52
Original geschrieben von Stefan Payne
Da dir das anscheinend egal ist, mal eine Frage an dich:

Würdest du gerne neben einem AKW leben wollen??

ganz egal ist mir der verbrauch auch nicht, doch die lautheit der kühlmethode interessiert mich mehr.

und ja ich würde gerne neben einem akw wohnen wollen, dann könnte ich auch immer frisch gefiltertes wasser aus dem kühlsee trinken und dort warm baden.. *plonk*

ironMonkey
2004-05-10, 18:14:54
Original geschrieben von LovesuckZ
................ Und ja, Leistung hat nichts mit "effizienz" zu tun.
.



;D

Gruß

klaus
2004-05-10, 20:15:22
Original geschrieben von RaumKraehe
Mein Rechner verbraucht, :massa: ATX sei dank, 2,5 Watt im Stand-By Modus. Wieviele Rechner haben wir heute in Deutschland?

und die ganzen Fernseher, Videorekorder, Stereoanlagen u.s.w.

Deshalb, liebe Leute, schließt Eure Geräte bitte an Netzsteckerleisten an, die einen Ein/Aus-Schalter haben. Und sämtliche Unterhaltungselektronik nicht per Fernbedienung, sondern immer direkt am Gerät ausschalten!

Gast
2004-05-10, 20:42:24
Vielleicht sollten in Bezug auf "Stromsparen", die Igenieure von Nvidia und ATI mal bei VIA vorbei gucken ;)

Black-Scorpion
2004-05-10, 20:55:48
Original geschrieben von LovesuckZ
60 Millionen Transistoren weniger ....
Laut der (http://www.3dcenter.org/artikel/2004/05-05.php) Seite sind es "nur" 42 Millionen Transistoren weniger. ;)

Liszca
2004-05-10, 21:59:01
Original geschrieben von Danny007
Klar ist es nicht schön, das der Verbrauch immer mehr wird.

Aber gehen wir mal von 250 Watt Rechner + Monitor und 8 Stunden pro Tag aus. Das wäre am Tag ein Verbrauch von 2000 Watt. Im Monat wären das bei 30 Tagen 60 kWh. 1 kWh kostet bei mir 0,1653 Euro. Für 60 kWh wären das ca. 10 Euro pro Monat.

Wenn man jetzt mal bedenkt, das der Rechner auch nicht immer unter Vollast läuft, und man an manchen Tagen weniger oder überhaupt nicht am PC sitzt, wenn man bei Freundin, Freunde oder Bekannten ist. Könnte es sogar noch etwas weniger als 10 Euro sein.

Gut es mag zwar auch Leute geben die mehr als 8 Stunden am PC hocken (wers braucht), aber dann kommt man vieleicht auch nur auf 15 oder 20 Euro im Monat.

Also ich finde das eigentlich nicht sehr viel für ein Monat. Da gibt es aber andere Hobbys die sind weitaus teurer.

also nur mal so einen denkanstoss, habe im monat alleine 227 kw verbrauch (amd athlon ohne c&q wohnungslich an)
145 kw verbrauch (amd athlon mit c&q wohnungslichter nur noch an wenn ichs wirklich brauche (80watt lich!))

also dass ist schon ne ordentliche ersparnis, und fürs ideln des pcs zahlt man einfach nur drauf, weil er genau so gut aus sein könnte, und das ist eine tatsache!!!

Liszca
2004-05-10, 22:02:34
Original geschrieben von Geforce-Fanatik
Hätten wir mehr so effiziente Desings wie den R420 oder den AMD Athlon 64/ Intel Pentium M (Banias/ Centrino), ließen sich allein dadurch in Deutschland sicherlich 1-2 Kohlekraftwerke einsparen. Das kommt sowohl der Umwelt als auch dem Geldbeutel zugute.

klar nur wird der strom teuerer wenn weniger leute ihn wollen, aber eben nur auf lange sicht, auf kurze sicht ist dein beispiel eh der absolute idealfall, immer mit rechneraufrüsten wieder engerie sparen zu können, sovern das technisch gesehen noch möglich ist?

@ALL Ist es noch möglich?

Liszca
2004-05-10, 22:14:16
Original geschrieben von HeinzimBernd
Mh... ich glaube, nVidias Strategie wird über lang oder kurz scheitern. Im Intel Lager ist man bereits am Umdenken. Das nVidia nachzieht wird wohl nur eine Frage der Zeit sein, den Leute die CPUs mit weniger Leistungshunger kaufen wollen, brauchen auch Grafikkarten.

Bei Intel hat es diese "Gruppe" schon geschafft, bei den Graka wird man ähnliche Folgen spüren können.

Übrigens... es ist nicht der Server - Markt der das Kunststück fertiggebracht hat. Es sind die Desktop CPUs ^^

Quelle: http://www.heise.de/newsticker/meldung/47181

und intel mit der centrino technologie hat gezeigt dass es auch anders geht, dass hat die daus scheinbar zum denkenbewegt, ist nicht so komplex wie du denkst, weil es gibt viele leute die sich bisher immer gedacht haben mhz = leistung, nun kam intel mit dem centrino, die sache wurde nun von intel selbst zugegeben, die leute haben angefangen nachzudenken.
nun sieht man auch bei amd dass das rating nur eine lüge deckt, und zwar die dass mhz = leistung ist.

StefanV
2004-05-10, 22:49:33
Original geschrieben von klaus
Deshalb, liebe Leute, schließt Eure Geräte bitte an Netzsteckerleisten an, die einen Ein/Aus-Schalter haben. Und sämtliche Unterhaltungselektronik nicht per Fernbedienung, sondern immer direkt am Gerät ausschalten!

Man kann ja auch, beim Bau des Hauses, darauf bestehen, das einige Stromkreise schaltbar sind, dann hab ich das ganze Problem nicht, ebenso ists recht bequem -> raus ausm raum, Schalter umlegen, fertig.

Allerdings sollte man da irgendeine Art gesicherten Schalter verwenden :|

z.B. Serie 1930 von Berker wäre zu empfehlen -> den kann man nicht 'ausversehen' betätigen.

BTW: fragt aber bitte nicht nach dem Preis von diesem Schalter, der ausschaut, als hätte man den in Opas Rumpelkammer gefunden...

klaus
2004-05-11, 06:51:28
Original geschrieben von Stefan Payne
Man kann ja auch, beim Bau des Hauses, darauf bestehen, das einige Stromkreise schaltbar sind, dann hab ich das ganze Problem nicht, ebenso ists recht bequem -> raus ausm raum, Schalter umlegen, fertig.

Stimmt, das wäre gut, da man dann nicht mehr das Problem mit versteckten Verbrauchern hat. Nur leider bräuchte der Kühlschrank dann einen separaten Stromkreis. ;)

Ich ärgere mich momentan mächtig darüber, dass der Athlon XP noch kein Cool'n'Quiet hat. Mein 2600+ AQZFA läuft nämlich noch als 3200+ ohne VCore-Erhöhung (noch höheren Takt habe ich dabei sogar noch nicht ausprobiert, da meine alte Graka sowieso limitiert). Offenbar habe ich mit der CPU ein echtes Sahnestück abbekommen, doch werde ich jetzt schon wieder richtig scharf auf den Athlon64. Aber für einen solchen müsste ich auch noch mein wunderbares A7N8X del. 2.0 ausmustern. Oh oh, da stehen im Herbst ein paar schwere Entscheidungen an... :kratz2:

Gast2k4
2004-05-11, 17:20:05
Genau @Geforce-Fanatik! Nicht zu vergessen die Umwelt! Ich mein der Strom wird ja auch nicht grade umweltfreundlich hergestellt, 1.58€ ist für den Privatanwender tatsächlich nicht viel, aber bei Massen merkt man es deutlich.

ironMonkey
2004-05-11, 17:26:17
Original geschrieben von klaus
Stimmt, das wäre gut, da man dann nicht mehr das Problem mit versteckten Verbrauchern hat. Nur leider bräuchte der Kühlschrank dann einen separaten Stromkreis. ;)

Ich ärgere mich momentan mächtig darüber, dass der Athlon XP noch kein Cool'n'Quiet hat. Mein 2600+ AQZFA läuft nämlich noch als 3200+ ohne VCore-Erhöhung (noch höheren Takt habe ich dabei sogar noch nicht ausprobiert, da meine alte Graka sowieso limitiert). Offenbar habe ich mit der CPU ein echtes Sahnestück abbekommen, doch werde ich jetzt schon wieder richtig scharf auf den Athlon64. Aber für einen solchen müsste ich auch noch mein wunderbares A7N8X del. 2.0 ausmustern. Oh oh, da stehen im Herbst ein paar schwere Entscheidungen an... :kratz2:


Athlohn XP-M und statt Coll'n Quiet Programme ala 8RDAVcore nehmen,beim erhöhen von MHz erhöt sich auch der Stromverbrauch, also dein teil frisst auch über 70 Watt während zB. ein XP 2500-M bei etwas über 40 Watt rumfliegt.


Gruß

klaus
2004-05-11, 18:37:32
@ ironMonkey

Danke für die Vorschläge, jedoch bezweifle ich, dass solche tools wie das von Dir genannte, Cool'n'Quiet ersetzen können. Denn wie wollen diese externen Programme denn im idle-Betrieb den Prozessortakt senken, wenn die CPU das gar nicht unterstützt.
Tja, und für einen XP-M müsste mein XP leider auch rausfliegen, wobei der XP-M wenn es darauf ankommt (spielen mit der demnächst anzuschaffenden X800XT) nicht genug Leistung bringt - insbesondere im Vergleich mit einem Athlon64.

LovesuckZ
2004-05-11, 18:46:06
Du willst dir eine X800XT anschaffen und meckerst über das nicht vorhandene "Ressourcendenken" vieler hier?
Das ist doch das selbe wie : Wasser predigen und Wein trinken
...

ironMonkey
2004-05-11, 19:01:37
Original geschrieben von klaus
@ ironMonkey

Danke für die Vorschläge, jedoch bezweifle ich, dass solche tools wie das von Dir genannte, Cool'n'Quiet ersetzen können. Denn wie wollen diese externen Programme denn im idle-Betrieb den Prozessortakt senken, wenn die CPU das gar nicht unterstützt.
Tja, und für einen XP-M müsste mein XP leider auch rausfliegen, wobei der XP-M wenn es darauf ankommt (spielen mit der demnächst anzuschaffenden X800XT) nicht genug Leistung bringt - insbesondere im Vergleich mit einem Athlon64.

Ich lass meinen XP2500 meist wenn ich ih nicht "brauche" mit FSB 100( also 1100MHz) und 1,45 Volt laufen( ca.30 Watt verbauch), man kann bei dem Tool einstellen das wenn die CPU nicht belastet wird sie über den FSB runter getaktet wird, also an sich ein komplettes Bios tool, obs mit jedem Brett geht weiß ich nicht, ich hab ein 8RDA3+ und es geht wunderbar.

Meine 9800Pro zB. startet per Radlinker mit 300/300, weil ich nicht meist nach dem starten zocke.


Gruß

bill
2004-05-11, 19:30:43
Original geschrieben von LovesuckZ
Du willst dir eine X800XT anschaffen und meckerst über das nicht vorhandene "Ressourcendenken" vieler hier?
Das ist doch das selbe wie : Wasser predigen und Wein trinken
... Jo und ich warte immer noch auf eine Antwort von Klaus.

bill

StefanV
2004-05-11, 20:04:10
Original geschrieben von klaus
Stimmt, das wäre gut, da man dann nicht mehr das Problem mit versteckten Verbrauchern hat. Nur leider bräuchte der Kühlschrank dann einen separaten Stromkreis. ;)

Kommt auf den Elektriker an, der das verlegt.

Ich kenns eigentlich so, daß die Küchenzeile seperat geschaltet ist.

Das macht auch sinn, wenn die Frau des Hauses mal mit 'nem schlechten Elektrogerät 'nen Kurzen reinbastelt ;)

Wenn man die Elektrofirma darauf anspricht, dann werden sies sicher gern machen.

Persönlich halte ich sowas sinniger als solche Netzfreischaltgeräte (oder wie die Dinger heißen), die man in die Verteilung setzt oder Bio Kabel...

PS: das Paradoxe am BIO Kabel ist, daß die früher mal Standard waren X-D
Wer kennt sie nicht, die Verlegekabel mit Bleimantel (oder ähnlichem)...

Gast
2004-05-11, 20:53:02
Original geschrieben von LovesuckZ
Du willst dir eine X800XT anschaffen und meckerst über das nicht vorhandene "Ressourcendenken" vieler hier?
Das ist doch das selbe wie : Wasser predigen und Wein trinken
...

Warum? Wenn ich es mir leisten kann und somit die Wahl habe, bleibt es doch mir überlassen ob ich mir einen Porsche "Öko Evolution" kaufe der nur "3l auf 100km" verbraucht - oder halt einen Porsche "Luxus Edition" mit mehr Ausstattung aber dafür auch massig mehr Spritverbrauch. Das Fahrgefühl sowie die Endgeschwindigkeit bleiben ja letztlich gleich.

Nur das halt der Öko nicht so stark die Umwelt versaut und ein alternatives Konzept anbietet. Lerne, die Meinung anderer zu akzeptieren. Sei Tolerant, sei frei - du bist viel zu fixiert.

:jump2:

kami
2004-05-11, 21:05:20
Original geschrieben von Gast
Warum? Wenn ich es mir leisten kann und somit die Wahl habe, bleibt es doch mir überlassen ob ich mir einen Porsche "Öko Evolution" kaufe der nur "3l auf 100km" verbraucht - oder halt einen Porsche "Luxus Edition" mit mehr Ausstattung aber dafür auch massig mehr Spritverbrauch. Das Fahrgefühl sowie die Endgeschwindigkeit bleiben ja letztlich gleich.

Nur das halt der Öko nicht so stark die Umwelt versaut und ein alternatives Konzept anbietet. Lerne, die Meinung anderer zu akzeptieren. Sei Tolerant, sei frei - du bist viel zu fixiert.

:jump2:

Die XT würde umgerechnet bestimmt keine 3 Liter verbrauchen, dafür verbraucht sie auch noch einiges zuviel an Strom.

3 Liter würde ich eher dem DeltaChrome zuordnen.

Gast
2004-05-11, 21:11:06
Original geschrieben von kami
Die XT würde umgerechnet bestimmt keine 3 Liter verbrauchen, dafür verbraucht sie auch noch einiges zuviel an Strom.

3 Liter würde ich eher dem DeltaChrome zuordnen.

Das war auch nicht wortwörtlich, sondern eher "im übertragenen Sinne" gemeint. Also echt.

kami
2004-05-11, 21:14:17
Das passt aber nicht, weil die XT einfach nicht stromsparend ist. Damit ist auch der Vergleich hinfällig, weil sich das nicht übertragen lässt.

Gast
2004-05-11, 22:32:11
Original geschrieben von kami
Das passt aber nicht, weil die XT einfach nicht stromsparend ist. Damit ist auch der Vergleich hinfällig, weil sich das nicht übertragen lässt.

Die heutigen Drei-Liter-Autos wären dann so gesehen auch nicht "spritsparend". Du argumentierst ähnlich unsinnig wie Lovesuckz, sieht man mal davon ab das du genau wie er deine These nicht weiter untermauerst sondern einfach nur was daher brabbelst. Zum Glück hat der digitale Mülleimer viel Platz für solchen Trash...

kami
2004-05-11, 22:40:53
Das sie nicht stromsparend ist beweist schon der nötige Anschluss ans Netzteil, sonst würde sie sich mit dem was der AGP-Port hergibt begnügen. Da ich jetzt keine Zeit mehr habe um die Verbrauchsmessungen, die in irgendeinem Test vorgenommen wurden rauszusuchen muss das als Argument erstmal reichen. Ich erkenne der XT nicht ab, weniger Strom als die 6800U zu verbrauchen, allerdings entspricht sie nicht meiner Definition von stromsparend.

Aquaschaf
2004-05-12, 00:00:57
Original geschrieben von Gast
Die heutigen Drei-Liter-Autos wären dann so gesehen auch nicht "spritsparend". Du argumentierst ähnlich unsinnig wie Lovesuckz, sieht man mal davon ab das du genau wie er deine These nicht weiter untermauerst sondern einfach nur was daher brabbelst. Zum Glück hat der digitale Mülleimer viel Platz für solchen Trash...

Was ist daran Unsinn? Beide Karten verbrauchen verhältnissmäßig viel Strom.
Du könntest dich auch etwas freundlicher ausdrücken.
Wie war das - Beleidigungen sind die Argumente derer die im Unrecht sind ;)

Ailuros
2004-05-12, 11:18:56
HSR in Hardware...

Z-Buffer seit der Voodoo1 waren auch in Hardware :P

klaus
2004-05-13, 02:26:47
Original geschrieben von bill
Ihr hättet euch schon 2002 über den Strombedarf der GF4 und 9700pro aufregen können. Die hatten mich damals recht erstaunt. Oder 2000 (2001?) über die Athlon-Heizkraftwerke. Wieso ist erst jetzt angeblich Aufklärungsbedarf vorhanden?

Wer sich damals eine 9700pro in den Rechner steckte oder sich heute eine X800 kaufen möchte sollte lieber nicht stromsparende Produkte predigen. Wasser predigen und Wein saufen nennt man das.

Klaus, wenn du aus meiner beschränkten Sicht glaubwürdig erscheinen möchtest, kauf dir eine Via-Cpu und eine FX5200 (oder so ähnlich).
Original geschrieben von LovesuckZ
Du willst dir eine X800XT anschaffen und meckerst über das nicht vorhandene "Ressourcendenken" vieler hier?
Das ist doch das selbe wie : Wasser predigen und Wein trinken
...

Ja ja, und wer frei von Sünde ist, werfe den ersten Stein.

Ich habe Dich nicht vergessen, kleiner gefiederter Australier, und wenn der entsprechende thread nicht geschlossen worden wäre, hätte ich auch schon längst auf Deinen Einwand reagiert.

Ich gebe zu, dass man es für scheinheilig halten könnte, energiesparende hardware zu fordern und gleichzeitig eine high-end-Grafikkarte zu kaufen. Eventuell akzeptiert Ihr ja folgende Rechtfertigung: Meine Spielgewohnheiten machen einen Grafikkartenneukauf erforderlich (zumal meine aktuelle Karte gar nicht mir gehört und deshalb dringend ersetzt werden muss). Wenn ich meine schätzungsweise 10-18 Stunden pro Woche spiele, dann will ich 'richtig' spielen, d.h. ich will höchste Qualität auf meinem Monitor sehen. Und diese bietet mir zur Zeit an erster Stelle die X800XT. Dass die Karte dabei knapp 90 W verbraucht, lässt mich keine Freudentänze aufführen, jedoch ist es für diese Dauer akzeptabel. Doch da ich den bedeutend größeren Teil meiner Zeit vor dem PC mit Lesen im Internet und ähnlichem verbringe, will ich, dass meine Grafikkarte und meine CPU währenddessen bis in den Keller runtertakten. Und eben diese Anforderungen erfüllt die neue ATi sehr gut. Deshalb hat Kami nur teilweise Recht, denn was den Stromverbrauch im idle-Betrieb angeht, sind die X800 sehr wohl relativ stromsparend.

http://techreport.com/reviews/2004q2/radeon-x800/power.gif

Gast (bitte gebt Euch doch mal eindeutigere Namen Leute, es erleichtert die Kommunikation ungemein, wenn nicht drei verschiedene Diskussionsteilnehmer "Gast" heißen! ;)) hat ein schönes Gleichnis dafür gefunden: Ich will quasi den "Öko-Porsche" unter den Grafikkarten. Auch wenn der Verbrauch der X800XT für meinen Geschmack noch deutlich zu hoch ist, so verdient die ATi noch am ehesten diese Bezeichnung, denn deren Karte verbraucht weniger Strom als ihr Vorgänger, und das bei größtenteils vervielfachter Leistung - das muss man sich erst mal auf der Zunge zergehen lassen! DAS nenne ich Effizienzsteigerung!

Und wenn ich mir dann das krasse Missverhältnis zwischen tatsächlicher Leistung und Stromverbrauch der GF 6800U/E betrachte, dann halte ich es für eine absolute Unverschämtheit seitens nVidia, eine solche Blamage den Leuten als den Stand der Technik verkaufen zu wollen.

Und bitte komm' mir jetzt keiner mit Sprüchen vom Kaliber "aber die 6800 hat doch mehr features und benötigt deshalb etliche Millionen Transistoren mehr"! Das einzige potenziell praxisrelevante Merkmal ist der PS 3.0. Doch der spielt mittelfristig überhaupt keine Rolle, genauso wie PS 2.0 bis zum heutigen Tage auf seine verbreitete Nutzung wartet. Tja, und zum mpeg-hardware-encoding bleibt mir nur zu sagen, dass sich jene Zeitgenossen, welche dauernd damit beschäftigt sind, DVDs zu rippen um dann mit den Kopien die gesamte Bekanntschaft und Verwandtschaft zu versorgen, sicherlich darüber freuen...

Allerdings habt Ihr - LovesuckZ, Aquaschaf und bill - immer noch nicht verstanden (vermutlich liegt das tatsächlich an einem eingeschränkten geistigen Horizont/starren Denkweisen/mangelndem Problembewusstsein), dass sich mein Unmut nicht allein gegen stromfressende Grafikkarten und CPUs richtet (ja Aquaschaf, genau das wolltest Du schon im "könnte die 6800 Ultra noch gewinnen?-thread" nicht kapieren!). Was mir stinkt ist die allgemeine Verplemperung der Energie ohne Rücksicht auf Verluste. Da wird Energie für völlig nutzlosen Blödsinn verballert, ohne auch nur einen Gedanken an die Folgen zu verschwenden. Und das kann man überall beobachten: Seien es die Modding-Kiddies, die ihre Rechnergehäuse mit bunten Lämpchen und Neonröhren ausschmücken - Hauptsache der Gurkenrechner macht optisch was her. Oder die Prolls, die sich Breitreifen auf ihre Karren ziehen - Hauptsache der ansonsten schrottreife Golf quitscht und qualmt ordentlich beim Kickdown.


@ ironMonkey: Hast Du einen link zu diesem FSB-tool? Was Du da schreibst gefällt mir, wobei ich mich aber frage, wie das Programm das hinkriegt. Und wenn es nur über den FSB klappt, ist mir das noch nicht genug, denn ich möchte im idle-Betrieb deutlich unter 1 GHz fahren.

LovesuckZ
2004-05-13, 08:40:57
Original geschrieben von klaus
Ja ja, und wer frei von Sünde ist, werfe den ersten Stein.

Den kannst du nur anwenden, wenn andere ebenfalls so "Scheinheilig" hier durch die Gegend rennen würden.

Ich gebe zu, dass man es für scheinheilig halten könnte, energiesparende hardware zu fordern und gleichzeitig eine high-end-Grafikkarte zu kaufen.

Genau, deswegen solltest du damit aufhoeren.

Und diese bietet mir zur Zeit an erster Stelle die X800XT. Dass die Karte dabei knapp 90 W verbraucht, lässt mich keine Freudentänze aufführen, jedoch ist es für diese Dauer akzeptabel.

Also die Karte mit dem zweihoechsten Stromverbrauch sei für dich akzeptabel?
...

Doch da ich den bedeutend größeren Teil meiner Zeit vor dem PC mit Lesen im Internet und ähnlichem verbringe, will ich, dass meine Grafikkarte und meine CPU währenddessen bis in den Keller runtertakten.

Das bietet Nvidia den Usern schon seit einem Jahr an. Ist also nichts neues und nichts, was heute kaufentscheidend waere.

Und eben diese Anforderungen erfüllt die neue ATi sehr gut. Deshalb hat Kami nur teilweise Recht, denn was den Stromverbrauch im idle-Betrieb angeht, sind die X800 sehr wohl relativ stromsparend.

Ein RV360, Deltachrome etc. sind noch stromsparender, diese müssten dann für dich als "stromsparfreak" besser sein.

Gast [...] hat ein schönes Gleichnis dafür gefunden: Ich will quasi den "Öko-Porsche" unter den Grafikkarten.

Deltachrome.
Das Gleichnis ist vollkommend verkehrt. Die Karte benoetigt immernoch zuviel Strom, da kann man nicht von "Öko-Porsche" reden.

DAS nenne ich Effizienzsteigerung!

Spielst du auf den 2D Bestrieb an? Ich nenne sowas "Epigone". Im 3D bestrieb benoetigt die Karte ca. 10 Watt mehr, das ist alles andere als eine "Effizienzsteigerung"

[...]dann halte ich es für eine absolute Unverschämtheit seitens nVidia, eine solche Blamage den Leuten als den Stand der Technik verkaufen zu wollen.

Bei ATi sei es eine "Effizienzsteigerung" wenn man doppelt so schnell wie der Vorganger waere und 10 Watt mehr verbrauche, bei Nvidia eine "Blamage"?
...

(vermutlich liegt das tatsächlich an einem eingeschränkten geistigen Horizont/starren Denkweisen/mangelndem Problembewusstsein),

Weißt du, das "mangelnde Problembewusstsein" hast du, indem du "Wasser predig[st] und Wein trink[st]". Du verschwendest viel Ressourcen, indem du deine meiste Zeit am PC mit deiner X800XT mehr Strom verbrauchst als mit einer anderen Karte (Radeon 9600XT). Du verteufelst die Leute, die Modden, selbst kaufst du dir ressourcenverschwendende Hardware. Komme doch bitte erst mit deiner Meinung in Einklang statt andere einen "eingeschränkten geistigen Horizont" vorzuwerfen.

Quasar
2004-05-13, 09:31:15
Original geschrieben von Gast
Die heutigen Drei-Liter-Autos wären dann so gesehen auch nicht "spritsparend". [...]

Das Drei-Liter-Auto ist sehr wohl als spritsparend anzusehen, weil man mit solchen gegenüber einem normalen Auto nicht eingeschränkt ist (Man darf Autobahnen benutzen etc, was wegen einer Bauartbedingten Mindestgeschwindigkeit hierfür gegen Autos spricht, die bsw. mit Solarenergie oder Batterien fahren).
Sprich: Es ist das Spritsparendste, was man ohne große Abstrichen noch bekommt. (Abstriche wären hier: 200+ auf der Autobahn, Durchzug wie ein F1-Renner usw.)

Dasselbe gilt im Graka-Bereich für die R9600XT und evtl. für den Deltachrome: Hier bekommt man auch alles, was nötig ist und muss nur auf dieselbe Größenordnung an Abstrichen verzichten, wie im KfZ-Vergleich (hohe FSAA/AF-Stufen).

Deine "Unfreundlichkeiten" habe ich mal rausgekürzt.

Quasar
2004-05-13, 09:33:51
Original geschrieben von klaus
Ich gebe zu, dass man es für scheinheilig halten könnte, energiesparende hardware zu fordern und gleichzeitig eine high-end-Grafikkarte zu kaufen.
[...]
Deshalb hat Kami nur teilweise Recht, denn was den Stromverbrauch im idle-Betrieb angeht, sind die X800 sehr wohl relativ stromsparend.

http://techreport.com/reviews/2004q2/radeon-x800/power.gif


Scheinheilig ist ein gutes Wort, ja. Vielleicht möchtest du anhand dieser Grafik die FX5950 ja auch noch als "stromsparend" bezeichnen?

daflow
2004-05-13, 15:44:59
Hat jemand evtl. Zahlen zu 'älteren' (TI4600/GF3/9800(nonxt)/9700/8500) zur Hand?

DrumDub
2004-05-13, 16:36:49
schau mal hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/stromverbrauch_grafikkarten/1/

daflow
2004-05-13, 16:49:22
Thx, schonmal ganz interessant, jetz bräucht man nur noch einen weiteren Artikel der die Generation bis fx/9800pro mit der Generation ab 98xt/59xx in Relation setzt :)

Gast
2004-05-13, 17:55:39
tecchannel hat sehr zuverlässige Angaben.

Quasar
2004-05-13, 20:14:56
Original geschrieben von PeTa
Thx, schonmal ganz interessant, jetz bräucht man nur noch einen weiteren Artikel der die Generation bis fx/9800pro mit der Generation ab 98xt/59xx in Relation setzt :)
http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_7500_9800_pro/24/#leistungsaufnahme

http://www.computerbase.de/artikel/hardware/grafikkarten/geforce_roundup/25/#leistungsaufnahme

Einmal Radeons und einmal GeForces - zum allerersten Artikel allerdings nicht mehr kompatibel, da das Testsystem in der Zwischenzeit gewechselt hat.

Hauwech
2004-05-13, 20:28:26
Warum holen sich unsere Stromsparfreunde zum Surfen nicht einen 486er oder noch kleiner? Gibts bei ebay bestimmt fuer 5 Euro oder vielleicht irgendwo auf einem Dachboden oder im Keller sogar umsonst. Spart im Vergleich zum fetten Athlon/P4 mit 800XT und dem ganzen anderen Gesumpse bestimmt eine Menge und surfen kann man damit auch!! :)

Zum Spielen kann man immer noch dann den dicken PC einschalten.

Was die niedrigere Stromrechnung angeht: Ich glaube eher das kommt daher weil man mit Stromspargedanken sowieso sparsamer mit der Energie umgeht und nicht NUR von sparsamerer Hardware. Waermer anziehen und Heizung runterdrehen spart im uebrigen auch. Alternative waere einfach abhaerten...

Gast
2004-05-13, 21:44:43
Original geschrieben von Hauwech
Warum holen sich unsere Stromsparfreunde zum Surfen nicht einen 486er oder noch kleiner? Gibts bei ebay bestimmt fuer 5 Euro oder vielleicht irgendwo auf einem Dachboden oder im Keller sogar umsonst. Spart im Vergleich zum fetten Athlon/P4 mit 800XT und dem ganzen anderen Gesumpse bestimmt eine Menge und surfen kann man damit auch!! :)

Zum Spielen kann man immer noch dann den dicken PC einschalten.

Was die niedrigere Stromrechnung angeht: Ich glaube eher das kommt daher weil man mit Stromspargedanken sowieso sparsamer mit der Energie umgeht und nicht NUR von sparsamerer Hardware. Waermer anziehen und Heizung runterdrehen spart im uebrigen auch. Alternative waere einfach abhaerten...

Warum kaufst du dir trotz PKW-Führerschein kein Kettcar? Richtig, du willst auf Komfort nicht verzichten und was "richtiges" fahren. Allerdings darf das Objekt nicht zuviel verbrauchen (Geldbeutel), und zwei Rechner kosten noch mehr in der Anschaffung und teils auch im Unterhalt.

Man, du stellst echt dermaßen dumme Fragen...

Gast
2004-05-13, 21:51:21
Original geschrieben von LovesuckZ

Also die Karte mit dem zweihoechsten Stromverbrauch sei für dich akzeptabel?

Hm, da kommt doch erst die
- Geforce 6800 Ultra E. (Load)
- Geforce 6800 Ultra (Load)
- Geforce FX 5950 Ultra (Load)
- Geforce 6800 GT (Load)
-----------------------------
- Geforce 6800 Ultra E. (IDLE)
- Radeon 9800 XT (IDLE)
- Geforce 6800 Ultra (IDLE)
- Geforce 6800 GT (IDLE)
- Geforce FX 5950 Ultra (IDLE)


DANN ERST die Radeon X800 P.E.

Balkendiagramme ablesen üben wir am besten noch einmal in der Schule. Womit deine Argumente hinfällig ist. :D Schau die am besten Quasars wunderbaren Avatar an, der sagt alles.

Xmas
2004-05-14, 14:24:58
Original geschrieben von klaus
Eventuell akzeptiert Ihr ja folgende Rechtfertigung: Meine Spielgewohnheiten machen einen Grafikkartenneukauf erforderlich (zumal meine aktuelle Karte gar nicht mir gehört und deshalb dringend ersetzt werden muss). Wenn ich meine schätzungsweise 10-18 Stunden pro Woche spiele, dann will ich 'richtig' spielen, d.h. ich will höchste Qualität auf meinem Monitor sehen. Und diese bietet mir zur Zeit an erster Stelle die X800XT. Dass die Karte dabei knapp 90 W verbraucht, lässt mich keine Freudentänze aufführen, jedoch ist es für diese Dauer akzeptabel.
Mit derselben Argumentationsweise kann man auch den Kauf einer GeForce 6800 Ultra "rechtfertigen".

denn deren Karte verbraucht weniger Strom als ihr Vorgänger, und das bei größtenteils vervielfachter Leistung - das muss man sich erst mal auf der Zunge zergehen lassen! DAS nenne ich Effizienzsteigerung!
Der Satz passt erstaunlich gut auf die GeForce 6800(GT).

Und wenn ich mir dann das krasse Missverhältnis zwischen tatsächlicher Leistung und Stromverbrauch der GF 6800U/E betrachte, dann halte ich es für eine absolute Unverschämtheit seitens nVidia, eine solche Blamage den Leuten als den Stand der Technik verkaufen zu wollen.
Hälst du die Produktpalette von Ferrari auch für eine Unverschämtheit und Blamage?

Da wird Energie für völlig nutzlosen Blödsinn verballert, ohne auch nur einen Gedanken an die Folgen zu verschwenden.

Welchen Blödsinn meinst du hier konkret?

Gast
2004-05-14, 18:13:28
Original geschrieben von Xmas
Mit derselben Argumentationsweise kann man auch den Kauf einer GeForce 6800 Ultra "rechtfertigen".


Der Satz passt erstaunlich gut auf die GeForce 6800(GT).


Hälst du die Produktpalette von Ferrari auch für eine Unverschämtheit und Blamage?


Welchen Blödsinn meinst du hier konkret?

Xmas,

du solltest dich auf andere Themen fokussieren wie zB. Autos.

Von Grafikkarten hast du jedenfalls keine Ahnung, anonsten wär deine Argumentation nicht so vortrefflich falsch.

1. Ist die NV40 bei weitem den angeforderten Qualitäts-Einstellungen der NV40 unterlegen.

Das belegen alle Test im Print oder WWW.

2. Mehr als 110Watt ist ein realistischer Nachteil für die NV40.

Die X800 benötigt dank 0,13 TMC-Produktion weniger Strom als die 9800XT. Wäre die NV40 eine WEITERENTWICKLUNG im ursprünglichen Sinne hätte sie mehr Leistung als eine FX5950 und den gleichen oder weniger Strombedarf.


Grüsse

Gast
2004-05-14, 18:14:43
Original geschrieben von Gast
Xmas,

1. Ist die NV40 bei weitem den angeforderten Qualitäts-Einstellungen der NV40 unterlegen.



Natürlich ist die R420 gemeint, d.h. die NV40 ist der R420 unterlegen, nicht das hier wieder die Spamer aufspringen!

Xmas
2004-05-17, 19:21:24
Original geschrieben von Gast
1. Ist die NV40 bei weitem den angeforderten Qualitäts-Einstellungen der NV40 unterlegen.
Ich schrieb "man" und "Argumentationsweise". Jemand der andere Pfäferenzen hat, kann auch so argumentieren, und wird zu dem Ergebnis kommen dass X Watt akzeptabel sind, wenn man Y geboten bekommt.

2. Mehr als 110Watt ist ein realistischer Nachteil für die NV40.
Mehr als 0 Watt ist ein realistischer Nachteil gegenüber gar keinem Rechner. Demgegenüber stehen natürlich Vorteile. Wenn diese Vorteile für einen persönlich die Nachteile überwiegen — wieso nicht? Deine 110W sind doch auch nur eine völlig willkürlich gezogene Grenze.

Die X800 benötigt dank 0,13 TMC-Produktion weniger Strom als die 9800XT. Wäre die NV40 eine WEITERENTWICKLUNG im ursprünglichen Sinne hätte sie mehr Leistung als eine FX5950 und den gleichen oder weniger Strombedarf.
Nochmal: GeForce 6800 non-Ultra bzw. unter Volllast auch GT. Wesentlich mehr Performance bei gleichem oder geringerem Strombedarf wie FX5950.

NVidia geht noch eine Stufe weiter, aber durch die Existenz der Ultra/UE ist der Chip doch nicht weniger eine "Weiterentwicklung"?