PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wann takten sich endlich Grafikkarten dynamisch runter?


Corny
2004-09-15, 09:48:48
Die GeforceFX haben es ja ganz gut demonstriert das es funktioniert mit dem Runtertakten zum Stromsparen. Warum machen das die neuen Grafikkarten (FX 6xxx, Radeon) nicht (mehr)?

im 2D betrieb unter Windows braucht kein Mensch über 500Mhz Chip-/Speichertakt. 200/200Mhz reichen da genauso!

Sogar ich takte meine Radeon 8500 oft zurück.

Der Lüfter könnte imho bei allen Karten dann komplett ausgeschalten werden und der Stromverbrauch sicher halbiert werden.

Quasar
2004-09-15, 09:56:45
Sie sparen eben "anders" Strom - dynamisches Abschalten nicht benötigter Teile, herunterfahren der Spannung usw...

Ich glaube nicht, daß zusätzliches Heruntertakten da noch viel bringen würde - eventuell käme das sogar anderen Stromsparmaßnahmen in die Quere, wenn z.B. der Videoprozessor bei Nichtbenutzung mit einem Teiler des Referenztaktes betrieben würde und beim Heruntertakten eben dieses Referenztaktes unterhalb einer kritischen Grenze betrieben würde.

Was man IMO allerdings tun sollte, wäre, im 2D-Betrieb alle RAM-Chips bis auf einen oder zwei, abzuschalten - das müsste IMO machbar sein.

Corny
2004-09-15, 10:03:20
aber manuelles herunter takten funktioniert doch auch!?

das mit den RAM chips ausschalten ist auch eine gute idee! 256MB unter windows ist genauso sinnlos wie der hohe takt. ich habe in meinem PC @ work eine i845 onboard grafik-lösung mit shared memory. Diese benutzt grundsätzlich nur 8MB - die Leistung ist trotzdem mehr als ausreichend! (Auflösung 1280*1024*32 am 18" TFT)


ich hab mir in letzter Zeit viele gedanken über das thema Stromsparen im PC gemacht, weil mir meine eltern Regelmäßig die Hölle heiss machen wenn die Stromrechnung kommt...

wenn die grafikkarten ca 15 Watt weniger brauchen würden (was imho möglich ist!) und der PC 10std am tag läuft an 365 tagen im Jahr, dann macht das 54,7 Kilowatt/h aus!!

aths
2004-09-15, 12:29:58
Was man IMO allerdings tun sollte, wäre, im 2D-Betrieb alle RAM-Chips bis auf einen oder zwei, abzuschalten - das müsste IMO machbar sein.Damit würde sich auch die RAM-Bandbreite verringern. 32 Bit DDR wäre bisschen wenig.

Coda
2004-09-15, 12:32:28
Im 2D Betrieb? Glaub ich kaum...

aber manuelles herunter takten funktioniert doch auch!?
Kann man bei der 6800 einstellen per Coolbits, bringt aber nicht die Bohne.
Ich glaube da heizt primär der Speicher und nicht der Core im 2D Betrieb.

Corny
2004-09-15, 12:36:25
Damit würde sich auch die RAM-Bandbreite verringern. 32 Bit DDR wäre bisschen wenig.


stimmt! aber bist du sicher das es echt zu wenig wäre?

bei einem 500Mhz DDR speichertakt wären das immer noch 4GB/s. sogar die gute alte Geforce 2MX hatte weniger und ist unter 2D mehr als ausreichend schnell.
Meine richtig alte Rage128 hat imho nur 64bit bei ca 100Mhz SD-RAM. Das macht 800Mbyte/s und reicht immer noch dicke. Ich hatte die Karte vor kurzem einige Zeit im System und konnte unter Windows keinen Unterschied zur Radeon 8500 mit über 8GB/s feststellen. zumindest nicht bei 1024*768*32 bei 85Hz!

aths
2004-09-15, 12:45:47
stimmt! aber bist du sicher das es echt zu wenig wäre? S4 Savage mit iirc 64 Bit SDR: Im 32-Bit-Modus arschlahm. Fenster bauen sich langsam auf, "ziehen nach" wenn man sie verschiebt, etc. Im 16-Bit-Modus war es einigermaßen ok. (Das kann zugegebenermaßen auch am Chip selbst liegen.)

Corny
2004-09-15, 13:11:20
bevor ich in meinem Arbeits-PC einen 2GHz P4 mit eben der oben genannten i845 Grafiklösung mit 8MB Shared PC266 DDR bekommen habe hatte ich einen 1Ghz P3, 512MB RAM und i815 onboard grafik mit 4MB Shared PC133 SD-RAM. Beides am 18" TFT bei 1280*1024 und 32 bzw 24Bit Farbtiefe (die i815 konnte "nur" 24bit)

PC 133 RAM hat ziemlich genau 1GB Bandbreite, jetzt braucht aber die CPU auch noch was davon usw... macht also weit unter 1GB. Einen unterschied zur i845 ist zwar sichtbar, aber man bemerkt ihn beim normalen arbeiten nicht. Die i815 hat halt einen Bruchteil länger gebraucht bis das Bild einer anderen Software aufgebaut wurde wenn mans aus der Task-leiste geholt hat. Das fällt aber nur auf wenn man ganz genau aufpasst! Beim normalen Arbeiten ist es mir NIE negativ aufgefallen. Es braucht auch keiner sagen das es ihn stört wenn der Bildaufbau anstallt einer halben zehntel sekunde eine ganze zehntel sekunde braucht. (zeitangabe nur beispiel!)

Allerdings war an der "schlechten" leistung des i815 sicher der chip auch etwas mit schuld.

Gast
2004-09-15, 14:23:53
Lenkt mal nicht vom Thema ab :-)
Was spricht denn dagegen, den Grafikchip im 2D-Modus nur mit vermindeter Taktrate laufen zu lassen? Die Kühlkörper moderner Grafikkarten sollten ja eine gute passive Kühlleistung besitzen.
Wenn ich meine 9700 Pro im 2D-Modus passiv betreiben könnte, wäre ich echt froh (hab ein Barebone und kann somit ohne große Umbauarbeiten keinen Silencer einbauen). Könnte man das nicht bequem in nen neuen Treiber integrieren?!

Corny
2004-09-15, 14:31:57
Lenkt mal nicht vom Thema ab :-)
Was spricht denn dagegen, den Grafikchip im 2D-Modus nur mit vermindeter Taktrate laufen zu lassen? Die Kühlkörper moderner Grafikkarten sollten ja eine gute passive Kühlleistung besitzen.
Wenn ich meine 9700 Pro im 2D-Modus passiv betreiben könnte, wäre ich echt froh (hab ein Barebone und kann somit ohne große Umbauarbeiten keinen Silencer einbauen). Könnte man das nicht bequem in nen neuen Treiber integrieren?!


Theoretisch ja, obs praktisch geht ist allerdings die andere Frage.

Du kannst ja auch manuell herunter takten, wenn du z.B. beim DVD schauen deine Ruhe haben willst klemmst du nach dem heruntertakten einfach den GPU Lüfter ab. Beim ersten mal allerdings bitte die Temperatur etwas im Auge behalten. Sonst gibts R300 Chips mit geschmolzener Platine als Dip zum DVD Film am guten alten DVD Player vor der Glotze ;)

Quasar
2004-09-15, 16:56:35
Damit würde sich auch die RAM-Bandbreite verringern. 32 Bit DDR wäre bisschen wenig.

Ich habe eine Rage Mobility mit AFAIK 32Bit SDR - da merkt man schon ein wenig lag beim schnellen scrollen, ja.

Aber 32Bit DDR bei modernen Chips (inkl. der entsprechenden Taktraten und sonstigen Nettigkeiten, die die Ausnutzung der Bandbreite steigern) sollten für den 2D-Alltagsgebrauch ausreichen.

Coda
2004-09-15, 17:16:54
Die "sonstigen Nettigkeiten" wirken aber zum sehr großen Teil nur im 3D Modus.

Corny
2004-09-15, 17:33:51
Ich habe eine Rage Mobility mit AFAIK 32Bit SDR - da merkt man schon ein wenig lag beim schnellen scrollen, ja.

Aber 32Bit DDR bei modernen Chips (inkl. der entsprechenden Taktraten und sonstigen Nettigkeiten, die die Ausnutzung der Bandbreite steigern) sollten für den 2D-Alltagsgebrauch ausreichen.


Rage Mobility 8MB hab ich auch hier. aber das mit lag beim Scrollen wäre mir noch nicht aufgefallen :| (wäre wohl ein weiterer beweis dafür das es nicht stört falls es denn vorhanden ist!)
der hat aber imho 64bit SDR. Könnte mich erinnern das vor nicht allzu langer Zeit wo gelesen zu haben.

um die letzten Minuten aus meinem schon altersschwachen Akku zu quetschen hab ich das ding sogar noch runter getaktet (70Mhz von 85 standard) und hätte nichts gemerkt!

Quasar
2004-09-15, 17:42:29
Die "sonstigen Nettigkeiten" wirken aber zum sehr großen Teil nur im 3D Modus.

Ich meinte mehr so Sachen wie großzügiges Caching, keine Farbkompression oder so.

@Corny:
Ich habe eine AGP-Karte damit - mit nur einem Speicherchip drauf - womöglich ein abgespecktes Modell. Aber selbst wenn...

Corny
2004-09-15, 18:18:54
Mobility als AGP karte? woher hast du die denn?

Der Chip der in den Notebooks verbaut wird ist imho ein Rage Pro mit 4 bzw. 8MB Onchip Speicher!
Ein Chip muss ja auch nicht bedeuten das es 32bit sind.... obwohl... zu heutiger Zeit vielleicht nicht mehr! :|


€dit: gibts ne möglichkeit die Bandbreite UNGEFÄHR zu bestimmen? den Takt wüsste ich ja!

Quasar
2004-09-15, 18:27:26
http://www2.alternate.de/shop/infoNodes/productDetails.html?artNr=j3gs90

So eine ists, allerdings mit nur einem RAM-Chip, und dazu habe ich keine silk-screens für weiteres VRAM, wie die Karte bei Alternate.

edit:
Versuch's mal mit dem ArchMark - allerdings braucht's dafür einen funktionierenden ICD.

aths
2004-09-15, 18:47:13
Ich meinte mehr so Sachen wie großzügiges Caching, keine Farbkompression oder so.Da kannst bursten noch und nöcher. Für Vollbild-Scrolling / Fensterverschieben brauchts eine bestimmte Bandbreite.

Quasar
2004-09-15, 18:51:06
Da kannst bursten noch und nöcher. Für Vollbild-Scrolling / Fensterverschieben brauchts eine bestimmte Bandbreite.

Reichen da bsw. 32*2/8*350 Byte/s nicht aus? Konntest du mit deiner Voodoo4 nicht im Vollbild scrollen oder Fenster verschieben?

aths
2004-09-15, 19:04:19
Reichen da bsw. 32*2/8*350 Byte/s nicht aus? Konntest du mit deiner Voodoo4 nicht im Vollbild scrollen oder Fenster verschieben?Mit der Voodoo4 hatte ich ein 128-Bit-Interface, und arbeitete in mäßigen Auflösungen, mit einer grafischen DOS-Oberfläche, die kein Fenster-"Alphablending" unterstützte.

Quasar
2004-09-15, 19:11:42
Mit der Voodoo4 hatte ich ein 128-Bit-Interface, und arbeitete in mäßigen Auflösungen, mit einer grafischen DOS-Oberfläche, die kein Fenster-"Alphablending" unterstützte.

128Bit SDR bei X MHz vs. 32Bit DDR bei 2X MHz : Wo ist der große quantitative Unterschied? Reichen etwa 2600MB/s nicht aus?
(Bevor es wieder losgeht: "ausreichen" ist bitte im aktuellen Diskussionskontext zu interpretieren)

Ausserdem geht es hier eher ums Prinzip - nicht um Haarspaltereien. Zur Not könnte man auch zwei Chips aktiv lassen und hätte doppelt soviel Bandbreite...

aths
2004-09-15, 19:18:48
Ausserdem geht es hier eher ums Prinzip - nicht um Haarspaltereien. Zur Not könnte man auch zwei Chips aktiv lassen und hätte doppelt soviel Bandbreite...Das wäre schon sinnvoller. Allerdings müsste der RAMDAC dann auch zwei unterschiedliche Verfahren kennen, das Bild zu erzeugen.

Gast
2004-09-15, 20:16:00
Das wäre schon sinnvoller. Allerdings müsste der RAMDAC dann auch zwei unterschiedliche Verfahren kennen, das Bild zu erzeugen.

Wieso denn das? Der RAMDAC greift ebenso auf den Speicher zu wie der Grafikchip und die gibt es ja auch in 64Bit oder 128Bit Speicheranbindung.

Coda
2004-09-15, 20:18:51
Fenster Alphablending kann eh nur auf 2 Arten schnell sein: 3D-Beschleunigt oder in nem Off-Screen Buffer im System-RAM.
Für ersteres braucht man VRAM Bandbreite, für das andere eigentlich gar keine.

Gast
2004-09-16, 09:32:33
Wann takten sich endlich Grafikkarten Dynamisch runter?

Also eigentlich gibt es sowas wie dynamische Taktanpassung und dynamische Abschaltung von Funktionsblöcken schon seit einer Ewigkeit. Beispiel die damalige Mobile Grafikchipserie von Silicon Graphics oder anderen Herstellern in dem Segment. Das was ATI und nVidia da heute machen - vor allem im Mobile Sektor - ist einfach nur noch peinlich. Noch peinlicher sind die Fanboys, die dann so ein Feature als neustes Highlite feiern.

-f

Gast
2004-09-16, 09:43:24
128Bit SDR bei X MHz vs. 32Bit DDR bei 2X MHz : Wo ist der große quantitative Unterschied? Reichen etwa 2600MB/s nicht aus?
(Bevor es wieder losgeht: "ausreichen" ist bitte im aktuellen Diskussionskontext zu interpretieren)

Ausserdem geht es hier eher ums Prinzip - nicht um Haarspaltereien. Zur Not könnte man auch zwei Chips aktiv lassen und hätte doppelt soviel Bandbreite...
Naja sieh es mal so: Neomagic hat damals nicht ganz grundlos 1998 zum 256bit Speicherinterface gewechselt. Begründet haben die das damals unter anderem auch mit der Videoperformance. (keine Ahnung ob das nun wirklic damit was zu tun hat) Btw.: Wenn ich mir damals die die DVD Qualität von ATI mit Multimediacenter 8 und drunter anschaue und das mit der des Neomagic MagicMedia Serie vergleiche, kommt mir bei ATI bei manch Videoszene der Brechreitz.

Corny
2004-09-16, 10:01:36
Also eigentlich gibt es sowas wie dynamische Taktanpassung und dynamische Abschaltung von Funktionsblöcken schon seit einer Ewigkeit. Beispiel die damalige Mobile Grafikchipserie von Silicon Graphics oder anderen Herstellern in dem Segment. Das was ATI und nVidia da heute machen - vor allem im Mobile Sektor - ist einfach nur noch peinlich. Noch peinlicher sind die Fanboys, die dann so ein Feature als neustes Highlite feiern.

-f


soviel ist klar! nur hätte ich es halt auch gerne als Standard in Desktop Grafikkarten.


ich verstehe nicht warum hier alle sogar im 2D Modus so Bandbreiten Hungrig sind? ich sitze grad wieder am PC mit i845 onboard grafik mit 8MB shared. absolut maximale bandbreite von 2GB/s hat das teil hier. Eher sogar weniger!

und ob ihrs glaubt oder nicht: ich kann absolut ohne die kleinste einschränkung arbeiten!
Kollegen haben teilweise TNT2 M64 Karten drinn. Ich weiß grad ausm stegreif deren Bandbreite nicht, aber ich denke es dürfte etwas über 1GB/s am 64bit Interface sein. Da hat sich auch noch keiner beklagt!
Auflösungen immer mindestens 1280*1024*32 bei 60 - 100Hz (Teils TFT, teils CRT)

Ich versteh nicht was ihr beim normalen (!) Arbeiten unter Windows (Explorer Dateien verschieben, Internet Surfen, Office Arbeiten.... ) unter gebräuchlichen Auflösungen ( =<1600*1200) mit viel mehr als 1-2GB Bandbreite und mehr als 16MB Speicher wollt?

q@w
2004-09-16, 11:34:30
Naja sieh es mal so: Neomagic hat damals nicht ganz grundlos 1998 zum 256bit Speicherinterface gewechselt. Begründet haben die das damals unter anderem auch mit der Videoperformance. (keine Ahnung ob das nun wirklic damit was zu tun hat)

NeoMagic hatte IIRC aber auch etwas embedded RAM und eher wenig Speicher allgemein. Damals standen sie, IMO vor allem aus Gründen des Energiehaushaltes, vor der Entscheidung, entweder wenig Takt und breit angebunden oder viel Takt (quasi doppelt soviel ;)) und schmal angebunden.

Worauf die Entscheidung fallen muss, insbesondere, wenn man quasi mit erster (und einziger) Priorität auf den Mobilen Sektor hin entwickelt und eher kein zugekauftes, "extern" angebundenes RAM nutzt, ist klar.
;)

Gast
2004-09-16, 13:18:10
NeoMagic hatte IIRC aber auch etwas embedded RAM und eher wenig Speicher allgemein. Damals standen sie, IMO vor allem aus Gründen des Energiehaushaltes, vor der Entscheidung, entweder wenig Takt und breit angebunden oder viel Takt (quasi doppelt soviel ;)) und schmal angebunden.

Worauf die Entscheidung fallen muss, insbesondere, wenn man quasi mit erster (und einziger) Priorität auf den Mobilen Sektor hin entwickelt und eher kein zugekauftes, "extern" angebundenes RAM nutzt, ist klar.
;)100MHz waren damals nicht unbedingt "wenig Takt". Und es waren bis zu 6 MB embedded.

-f

Corny
2004-09-16, 13:36:43
100MHz waren damals nicht unbedingt "wenig Takt". Und es waren bis zu 6 MB embedded.

-f



Das wären dann beim 256bit Interface immerhin 3,2GB/s.
100Mhz wären auch ganz grob gesehen ein fünftel des Taktes was aktuelle Grafikkarten als Standard Speichertakt haben (in der gegend von 500Mhz DDR, je nach typ)
Alleine damit wäre sicher ein schöner Teil an Strom/Hitze/Lautstärke zu sparen

Corny
2004-09-17, 11:27:16
ich hab jetzt versucht einen Unterschied zwischen meiner Radeon 8500 mit 8,8GB Bandbreite und der i845 mit 2GB/s shared Memory (PC266) zu finden.

Auflösung der Radeon war 1024*768*32 bei 85Hz
Auflösung der i845 war 1280*1024*32 bei 60Hz.

Die Auflösung ging also zu Gunsten der Radeon und auf Kosten der i845.
TROTZDEM konnte ich keinen Unterschied feststellen.

Quasar
2004-09-17, 20:22:51
100MHz waren damals nicht unbedingt "wenig Takt". Und es waren bis zu 6 MB embedded.

-f

Die 6MB waren Ende 1999, zu Zeiten der GeForce256 und auch nur, weil das Top-Modell der NeoMagic256-Reihe eine rudimentäre 3D-Pipeline spendiert bekommen hatte.

Ansonsten sagt NM zu ihrem 256Bit-Bus:
"NeoMagic's embedded DRAM technology offers OEMs a choice of memory configurations matched to various applications. OEMs can select the right amount of memory to meet their performance and cost objectives in a single design solution, each of which typically operates at under one watt," said Larry Chisvin, director of product marketing and assistant general manager of NeoMagic's Multimedia Products Division. "Embedded memory is a good solution for the mobile market because its low power improves battery life and it is a cost-effective way to deliver the bandwidth customers demand for feature-rich, high-performance multimedia notebooks, even in the most cost-sensitive segments."

und

"The Company's proprietary MagicWare(TM) technology increases performance while reducing power consumption by eliminating the need to drive signals off-chip to discrete memory."

Dazu war neben der Grafik auch noch eine Audio-Lösung integriert, die auch ein bissel Bandbreite beansprucht.

DocEvil
2004-09-18, 18:23:17
mit dem ATI-Tool (http://atitool.techpowerup.com/) ist es ja möglich die taktrate im 2D-betrieb automatisch runterzuregeln, allerdings bringt das alleine nur relativ wenig einsparung da sich die core-spannung nicht ändert.
Bei meiner r9700 sinds aber ungefähr 15W netzseitig beim runtertakten von 310/310 auf 120/200, immerhin ein anfang.

Ansonsten würde ich grakas mit einen automatischen dynamischen takt mit variabler spannung sehr begrüssen, allerdings kann ich mir vorstellen dass sich die hersteller die 2-10EUR mehrkosten durch die aufwendige (spannungs-)regelung sparen wollen.

Quasar
2004-09-18, 18:26:24
Einfach einen dieser NeoMagic-Teile in aktuellem Prozess herstellen und als 2D-Coprozessor mit auf einen 3D-Beschleuniger backen. ;)

Fanthomas
2004-09-18, 20:37:44
Einfach einen dieser NeoMagic-Teile in aktuellem Prozess herstellen und als 2D-Coprozessor mit auf einen 3D-Beschleuniger backen. ;)
So schauts aus. Das schlimme an der Sache ist ja noch ATI, welche neuerdings hiere HuckepackSpeicherchips unter embedded Speicher laufen lassen. Wenn man es mal ganz realistisch sieht, hat ATI den echten Stromsparenden Markt für die Subnotebooks verlassen. nVidia war da nie drin - gaukelt einen da aber auch nix vor. :(

Corny
2004-09-19, 22:37:18
mit dem ATI-Tool (http://atitool.techpowerup.com/)
Bei meiner r9700 sinds aber ungefähr 15W netzseitig beim runtertakten von 310/310 auf 120/200, immerhin ein anfang.

Ansonsten würde ich grakas mit einen automatischen dynamischen takt mit variabler spannung sehr begrüssen, allerdings kann ich mir vorstellen dass sich die hersteller die 2-10EUR mehrkosten durch die aufwendige (spannungs-)regelung sparen wollen.


das mit den 2-10€ kann ich mir auch gut vorstellen! da gehts ja fast um jeden cent!

die 15 Watt deiner R9700 machen bei einem betrieb von 10std täglich aber immerhin schon 54,7 kilowatt und bei einem preis von 15cent je kW über 8€ aus! hört sich zwar nicht viel an, aber aktuelle chips haben noch wesentlich mehr einsparpotenzial (bestimmt weit über das doppelte!) und wenn der PC dann 24/h am tag läuft....

von der Hitze/Lautstärke mal ganz abgesehen!

Mills
2004-09-19, 22:42:26
mit dem ATI-Tool (http://atitool.techpowerup.com/) ist es ja möglich die taktrate im 2D-betrieb automatisch runterzuregeln, allerdings bringt das alleine nur relativ wenig einsparung da sich die core-spannung nicht ändert.
Bei meiner r9700 sinds aber ungefähr 15W netzseitig beim runtertakten von 310/310 auf 120/200, immerhin ein anfang.

Ansonsten würde ich grakas mit einen automatischen dynamischen takt mit variabler spannung sehr begrüssen, allerdings kann ich mir vorstellen dass sich die hersteller die 2-10EUR mehrkosten durch die aufwendige (spannungs-)regelung sparen wollen.
Genau, das ATI Tool kann das. Wobei ich eher sagen würde, das es viel bringt. Die X800 regelt nebenbei auch den Lüfter, der im 2D-Modus bei 100MHz/350MHz unhörbar bei 44° GPU Temp vor sich hin säuselt. Im 3D-Modus wollen natürlich bei 520/560MHz 65Grad GPU Temp abgeführt werden => Lüfter dreht temperaturabhängig per ATI-Tool hoch. Krach macht er aber auch in 3D nicht wirklich, verglichen mit dem was eine 6800U produziert... :)

Corny
2004-09-20, 08:47:18
Genau, das ATI Tool kann das. Wobei ich eher sagen würde, das es viel bringt. Die X800 regelt nebenbei auch den Lüfter, der im 2D-Modus bei 100MHz/350MHz unhörbar bei 44° GPU Temp vor sich hin säuselt. Im 3D-Modus wollen natürlich bei 520/560MHz 65Grad GPU Temp abgeführt werden => Lüfter dreht temperaturabhängig per ATI-Tool hoch. Krach macht er aber auch in 3D nicht wirklich, verglichen mit dem was eine 6800U produziert... :)


wie könnt ihr eure Grafikkarten so brutal runtertakten? bei meiner R8500 (ursprünglich eine R8500LE mit 250/240 standardtakt, original ATI R8500 bios mit 275/275 drauf geflasht) hab ichunter 160/260Mhz bildfehler.

scheinbar spielt da das bios nicht mit bzw sind die spannungen zu hoch für den takt!

MikBach
2004-09-20, 09:09:31
wie könnt ihr eure Grafikkarten so brutal runtertakten? bei meiner R8500 (ursprünglich eine R8500LE mit 250/240 standardtakt, original ATI R8500 bios mit 275/275 drauf geflasht) hab ichunter 160/260Mhz bildfehler.

scheinbar spielt da das bios nicht mit bzw sind die spannungen zu hoch für den takt!
Frage ich mich auch. Bei meiner 9800PRO ist bei 180/260 Feierabend.
Bei 170/250 kommen viele schöne bunte Pixel und VPU Recover "rettet" die Karte in den Software Modus. :D
Bei der X800PRO scheint das aber kein Problem zu sein. Im anderen Forum habe ich gelesen, dass jemand seine Karte in 2D bei 100/300 betreibt.

Corny
2004-09-20, 10:27:11
Frage ich mich auch. Bei meiner 9800PRO ist bei 180/260 Feierabend.
Bei 170/250 kommen viele schöne bunte Pixel und VPU Recover "rettet" die Karte in den Software Modus. :D
Bei der X800PRO scheint das aber kein Problem zu sein. Im anderen Forum habe ich gelesen, dass jemand seine Karte in 2D bei 100/300 betreibt.



Evtl hat der chip schon irgend eine Technik die es ihm erlaubt den Takt auch extrem zu senken. Evtl geht ja automatisch die VCore etwas mit nach unten oder ähnliches...


ich kann mit meiner R8500 auch zeitweise unter 100Mhz gehen, allerdings kommen da nach einiger zeit die ersten bildfehler!

Klingone mit Klampfe
2004-09-20, 12:17:53
Gibt's eigentlich ein Tool welches automatisch die Graka runtertakten kann? Oder eines dass im Systray hockt und das selbiges mit ein, zwei Klicks schafft?

Metzger
2004-09-20, 13:45:48
Das ATITool sollte das können. Ich hab bei mir aber reproduzierbar Bluescreens, wenn ich meine 9700 Pro untertakten will ;(
Gibt's da ne Lösung zu?

Warum gibt's eigentlich in den ATI-Treibern keinen Regler, um die Taktrate nach unten zu ändern?

Gast
2004-09-20, 20:37:33
Das ATITool sollte das können. Ich hab bei mir aber reproduzierbar Bluescreens, wenn ich meine 9700 Pro untertakten will ;(
Gibt's da ne Lösung zu?

Warum gibt's eigentlich in den ATI-Treibern keinen Regler, um die Taktrate nach unten zu ändern?
Gibts doch im RadLinker.

Nebenbei macht das das ATI-Tool A U T O M A T I S C H, erkennt also selber 2D und 3D und das sogar sehr zuverlässig.

ollix
2004-09-21, 12:19:19
Gibts doch im RadLinker.

Nebenbei macht das das ATI-Tool A U T O M A T I S C H, erkennt also selber 2D und 3D und das sogar sehr zuverlässig. Absolut, ab und an schaltet er aber nach dem 3D Modus nicht ins 2D Profil zurück.

Auch praktisch ist die Overclock-Detecing-Fähigkeit. Habs laufen lassen und es hat sehr praxistaugliche und gute Werte geliefert.

Screemer
2005-11-01, 03:42:24
sorry, dass ich den threat noch mal aus den untiefen hervorkrame, aber es heißt ja immer benutzt die suchfunktion :)

gibts was ähnliches wie ati-tool auch für nvidia-karten. sprich automatisches hoch bzw. runtertakten in 2d und 3d betrieb. wurde schon auf rivatuner verwießen aber ich glaub net dass das damit geht. zumindest hab ich nix gefunden. thx schon mal!

Grestorn
2005-11-01, 10:53:10
nVidia Karten takten eigentlich automatisch runter. Beim G70 funktioniert das auch ganz gut (z.B. 275 MHz Idle, 450 MHz unter Last).

Bei meiner alten 6800GT hat das aber nicht funktioniert. Man konnte es zwar im Control Panel einstellen (Mit Coolbits), aber so richtig stabil gelaufen ist es (bei mir) nie.

bloodflash
2005-11-01, 10:56:26
Die GeforceFX haben es ja ganz gut demonstriert das es funktioniert mit dem Runtertakten zum Stromsparen. Warum machen das die neuen Grafikkarten (FX 6xxx, Radeon) nicht (mehr)?

Ich glaube, es hat hier im Thread noch keiner erwähnt, oder ich habe es überlesen:

Die nV 6xxx takten doch in 2D herunter!
Meine 6600GT-AGP läuft auf dem Desktop mit 300/500 statt 500/500. Das habe ich per Rivatuner auf 270MHz-Coretkt eingestellt.

Schön wäre natürlich eine weitere Absenkung inkl. Spannungsveringerung und eine Absenkung des Speichertaktes auf ebenfalls die Hälfte.

Mich würde mal interessieren inwieweit die Videobeschleunigung durch einen höheren Takt beeinflusst wird, also ob diese überhaupt davon betroffen ist.

Screemer
2005-11-01, 10:59:59
ich benutz jetzt atitool. funzt seit version 0.25 beta 7 auch mit nvidia-karten. und hat die schöne funktion automatisch die maximale frequenz für den core finden zu können und das mit sehr brauchbaren ergebnissen.

allerdings wärs jetzt noch top wenn man die spannung auch noch absenken könnte noch einen ganzen batzen mehr strom zu sparen.

Lawmachine79
2005-11-01, 11:40:36
Ich glaube, es hat hier im Thread noch keiner erwähnt, oder ich habe es überlesen:

Die nV 6xxx takten doch in 2D herunter!
Meine 6600GT-AGP läuft auf dem Desktop mit 300/500 statt 500/500. Das habe ich per Rivatuner auf 270MHz-Coretkt eingestellt.

Schön wäre natürlich eine weitere Absenkung inkl. Spannungsveringerung und eine Absenkung des Speichertaktes auf ebenfalls die Hälfte.

Mich würde mal interessieren inwieweit die Videobeschleunigung durch einen höheren Takt beeinflusst wird, also ob diese überhaupt davon betroffen ist.

Auf 6800GTs PCI-E trifft das nicht zu, GPU- und Speichertakt sind in 2D und 3D identisch. Habe das Problem gelöst, indem ich sie im 3D-Modus mit 415MHZ GPU-Takt laufen lasse...so spare ich Strom, wenn ich in den 2D-Modus wechsel (350MHZ) ;D
Bei der 6800GT gab es ja das Problem, daß sie heißer wird, wenn man sie untertaktet. Woran liegt das? An der Lüftersteuerung? Wenn ja, dürfte das Phänomen mit einem Zalman ja nicht mehr auftreten?!?
Ein Aspekt, der hier ein wenig untergeht ist, daß man wesentlich mehr Strom durch absenken der VCore der GPU erreichen könnte. Es sollte ja eigentlich kein Problem sein, eine Art Cool & Quiet für GraKas zu entwickeln.

alpha-centauri
2005-11-01, 14:09:40
also meine machts. und die alte 6600GT hats auch gemacht. in 2d 270, in 3d halt volle power.

an sich könnte es in 2 d ja auch weiter runtergehen. fraglich ist aber, ob das überhaupt strom spart.

die 6600GT konnte man aber nicht unter 250 (oder 270 mhz) regeln, dann frierte der PC ein

die 7800 hab ich jetzt mal auf 140 mhz laufen. soll ich fuer euch mal nachmessen, ob das überhaupt was an differenz zu 270 mhz im stromverbrauch macht ?

Screemer
2005-11-01, 14:26:07
die 6600GT konnte man aber nicht unter 250 (oder 270 mhz) regeln, dann frierte der PC ein


also bei mir läuft das ganze jetzt mit 220/220*2=440. msi 6800er.


die 7800 hab ich jetzt mal auf 140 mhz laufen. soll ich fuer euch mal nachmessen, ob das überhaupt was an differenz zu 270 mhz im stromverbrauch macht ?


würde mich schon interessieren! wär super. natürlich würde es aber noch mehr bringen wenn man gleichzeitig vcore und vram dynamisch mitregeln könnte. cool'n'quite like :)

alpha-centauri
2005-11-01, 14:34:25
stimmt! aber bist du sicher das es echt zu wenig wäre?

bei einem 500Mhz DDR speichertakt wären das immer noch 4GB/s. sogar die gute alte Geforce 2MX hatte weniger und ist unter 2D mehr als ausreichend schnell.
Meine richtig alte Rage128 hat imho nur 64bit bei ca 100Mhz SD-RAM. Das macht 800Mbyte/s und reicht immer noch dicke. Ich hatte die Karte vor kurzem einige Zeit im System und konnte unter Windows keinen Unterschied zur Radeon 8500 mit über 8GB/s feststellen. zumindest nicht bei 1024*768*32 bei 85Hz!

Also kann ich auch unterstreichen. Ich hab diverse Grafikkartengeneration jetzt hinter mir. Weder die eine noch die andere hatte bessere Bildqualität oder schnellere 2D Effekte.

Was natürlich sei kann, dass die GPU Videos beschleunigt.

blackbox
2005-11-01, 15:15:51
die 7800 hab ich jetzt mal auf 140 mhz laufen. soll ich fuer euch mal nachmessen, ob das überhaupt was an differenz zu 270 mhz im stromverbrauch macht ?

Takt ist egal, das wurde schon oft geschrieben und bewiesen. Ist eventuell nur gut für die Temperatur.
Wenn ihr Strom sparen möchtet, dann geht das nur über Spannungssenkung.
Mess doch einfach mal nach, ich glaube nicht, dass du großartige Veränderungen feststellen kannst im Idlemodus.

BvB123
2005-11-01, 15:47:39
Takt is nicht egal aber zu vernachlässigen ;)

darkcrawler
2005-11-01, 16:40:47
also ich auf meine gef 6610 ein msi 6600gt bios geflasht, das ich vorher mit nibitor angepasst habe:

2D: 200/400 , core @1.1v
3D: 466/933 , core @ 1.4v

alpha-centauri
2005-11-01, 17:03:31
]Takt ist egal, das wurde schon oft geschrieben und bewiesen.

Ne, ist nicht.
Beispiel P4 CPU: 20 % mehr Takt, von 3 auf 3,6 Ghz resultieren mit ca 15W mehrverbrauch des Gesamtsystems.

Mal eben die Kiste nochmal durchgemessen. Seit der letzten Messung kam neu dazu: X-Fi und 7800GT, statt 6600GT.

Die X-Fi scheint vielleicht 5 watt zu brauchen. Die 7800GT idle genauso wenig die 6600GT. In last brauch die 7800GT ca 15 Watt mehr als die 6600. Bei 2 - 5x der effektiven Rechenleistung.

Aktuell sinds: Bios 190 Watt. CPU Load 100% 200 Watt.
Mit 3Dmark ca 230-250 Watt (schwankt sehr)
Idle ca 140_145 watt.

Die Reduzierung bei idle von 270 mhz g pu auf 140 mhz gpu bringt ca 2 watt minderung.
reduzierung von 1000 mhz auf 500 mhz VRAM bringt ca 1 watt reduzierung.

soviel zum thema "bewiesen".

darkcrawler
2005-11-01, 17:10:16
jau, ist doch n alter hut

mitm takt steigt die verlustleistung linear, mit der spannung zum quadrat

blackbox
2005-11-01, 17:11:31
Ne, ist nicht.
Beispiel P4 CPU: 20 % mehr Takt, von 3 auf 3,6 Ghz resultieren mit ca 15W mehrverbrauch des Gesamtsystems.

Mal eben die Kiste nochmal durchgemessen. Seit der letzten Messung kam neu dazu: X-Fi und 7800GT, statt 6600GT.

Die X-Fi scheint vielleicht 5 watt zu brauchen. Die 7800GT idle genauso wenig die 6600GT. In last brauch die 7800GT ca 15 Watt mehr als die 6600. Bei 2 - 5x der effektiven Rechenleistung.

Aktuell sinds: Bios 190 Watt. CPU Load 100% 200 Watt.
Mit 3Dmark ca 230-250 Watt (schwankt sehr)
Idle ca 140_145 watt.

Die Reduzierung bei idle von 270 mhz g pu auf 140 mhz gpu bringt ca 2 watt minderung.
reduzierung von 1000 mhz auf 500 mhz VRAM bringt ca 1 watt reduzierung.

soviel zum thema "bewiesen".


Das sind doch Peanuts. 1 oder 2 Watt weniger nennst du großartige Veränderung? :confused:
Damit sparst du Stromkosten, da hast du recht, aber wie viel die Ersparnis ist, das überlasse ich dir, das auszurechnen.

PS: Du hast das falsche System, um jetzt mit der Stromsparerei anzufangen. 140 Watt im Idle, so viel haben andere bei Last, und das mit einem schnellerem System.

Squall2010
2005-11-01, 17:19:05
Mein Rechner (siehe sig oder benutze link!) läuft fast 365Tage im Jahr.

Wir haben 110€uro strom bezahlt und haben ende des jahres 48€uro wieder bekommen.

Kann echt nicht verstehen wie manche leute mit einem System was weniger Strom verbraucht mehr Geld bezahlen.

Und wir haben Sogar 2 Rechner in der Wohnung stehen.

Und ein Gamer macht sich so wieso keine gedanken darüber wie viel Strom der Rechner verbraucht.

Ich habe mal meine 9800Pro mit dem ATI Tool automatisch runtergetaktet im 2D Modus. Und da ist echt kein grosser unterschied. ICh glaube auch nnicht das die dann weniger strom verbraucht.

Was verbraucht so eine 9800Pro bei last eigentlich? so 70Watt?
Meine CPU soll ja 70Watt verbrauchen. ich glaube nicht das die 9800Pro da weniger oder viel mehr braucht.

PS. Strom sparen kann man schonmal durch einen AMD Athlon 64 mit diese C&Q Technologie.
Der taktes ja dann automatisch auf 1000MHz und die vCore geht ja auch runter.
Dann ne Pasive Graka rein wie eine FX5200 und einen TFT. Damit läst sich schon was sparen wenn man so wieso nur im Internet unterwegs ist oder schreib kram macht.

(del676)
2005-11-01, 17:30:08
tja, wenn die beiden "tollen" chiphersteller mal nachdenken würden könnten sie eine getrennte lösung entwickeln
ein lowpower 2D teil (2d chip + 16mb lahmen-ram?) und ein zuschaltbarer 3D teil

Coda
2005-11-01, 17:46:24
Die X-Fi scheint vielleicht 5 watt zu brauchen.Sie hat nichtmal nen Passiv-Kühler, deshalb glaube ich eher weniger.

alpha-centauri
2005-11-01, 17:50:52
Sie hat nichtmal nen Passiv-Kühler, deshalb glaube ich eher weniger.

istn argument. kann ich jedoch bedingt gelten lassen.

es gib auch chips, die trotz nicht vorhandendem passivkühler mehr als 5 watt brauchen und dementsprechend heiss werden.

fingertest auf die cpu der x-fi wird aber lauwarm. jedoch: was stressen schon winamp mp3s ?

Coda
2005-11-01, 17:54:48
Na gut, 5W hin oder her sind auch egal. Das Ding ist für den Gesamtsystemverbrauch auf jedenfall unwesentlich.

alpha-centauri
2005-11-01, 18:01:18
]Mein Rechner (siehe sig oder benutze link!) läuft fast 365Tage im Jahr.

den rechner, der 24/ läuft, ist ein 500 mhz celeron, der ca 50 watt / h brauch.



Und ein Gamer macht sich so wieso keine gedanken darüber wie viel Strom der Rechner verbraucht.


du pauschalisierst. und pauschalisierungen sind bekanntlich falsch.


Ich habe mal meine 9800Pro mit dem ATI Tool automatisch runtergetaktet im 2D Modus. Und da ist echt kein grosser unterschied. ICh glaube auch nnicht das die dann weniger strom verbraucht.

es geht auch sekundär um geräuschentwicklung.


Was verbraucht so eine 9800Pro bei last eigentlich? so 70Watt?
Meine CPU soll ja 70Watt verbrauchen. ich glaube nicht das die 9800Pro da weniger oder viel mehr braucht.


was tdp, maxwerte und so ist, sind mir ziemlich egal. die realaufnahme interssiert.

PS. Strom sparen kann man schonmal durch einen AMD Athlon 64 mit diese C&Q Technologie.




Das sind doch Peanuts. 1 oder 2 Watt weniger nennst du großartige Veränderung?

das war ironie. wenn ich in die tastatur hämmere, brauch mein PC sicher auch 2 watt mehr *g*


PS: Du hast das falsche System, um jetzt mit der Stromsparerei anzufangen.

dadrum gehts nicht. wenn ich stromsparen will, kauf ich mir nen centrino laptop und freu mich über speedstep.

140 Watt im Idle, so viel haben andere bei Last, und das mit einem schnellerem System.

Penisvergleich bitte nächstes Forum, danke.