PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX2x0 mit DualView (MultiMon) kein 2D-Takt-Modus?


r@h
2009-04-10, 12:40:07
Heilo liebe Leutz...

Ich "spiele" gerade mal wieder mit ein bissel Hardware rum... den Prozessor-Sidegrade von Dual- auf Quadcore hat mein System mittlerer weile weg gesteckt (weiß noch nicht, ob nich dorch der C2D wieder in den Rechner kommt) und auch den RAM-"Sidegrade" (gleiche Menge aber 2x2GB statt 4x1GB und OCZ PC1066 statt MDT PC800). Aber das nur als Hintergrund, denn zudem wird sich demnächst die 'kleine' HD ausgetaucht finden und evtl. - leider "evtl." - auch die Grafikkarte.

Und genau um diese geht es: Palit GTX260 55nm 216SP Sonic mit custom PCB/Cooler (baugleich zur Gainward GS).
Schnell das inoffizielle Gainward-Bios geflasht und schon hat die "Kleine" (nein, 'klein' nicht wirklich ;-) auch einen 2D-Modus.
(nebst 35% FDC anstatt der 'normalen' 40% - 1600 statt 1900 u/min)

Takte:
2D = 300/600/300
3D = 625/1350/1100

Alles im Rahmen und wirklich "warm" wird sie auch nicht... eigentlich ziemlich exakt so, wie bei meiner guten, alten, 'kleinen' 8800GT.

Aber hier liegt der Hase im Pfeffer... denn das ist tatsächlich das Einzige, was mich an der Karte noch stört:

Mit nur einem Display aktiviert, gibt es einen 2D-Modus, der - by the way - ganz hervorragend funktioniert (182.50 WHQL derzeit). So gibt es bei 1600 u/min dann Idle Temps von 39°/47° und einen Verbrauch von 141W (ganze 8W weniger als noch die 8800GT!). OK, ich weiß, 140-150W ohne das der Rechner was tut, ist nicht so schön... aber das liegt an Netzteil und Board - was aber nicht hierher gehört.

Viel schlimmer ist es aber, wenn ich nun den 2. Bildschirm aktiviere (egal, ob TFT oder TV) - und das ist meine STANDARD-Konfiguration - 99% der Zeit, die ich vor dem Rechner sitze, benutze ich 2 Displays... aber egal. Das Problem ist nun, dass der Treiber (Hardware-seitig scheint ja alles richtig) offenbar der Meinung ist, dass bei 2 Displays auch kein 2D-Modus mehr "nötig" ist... und taktet die Karten mit 3D-Takt... so, wie es Palit unschöner weise sowieso per Default vorsieht. Die Temps steigen ein 'bissel' (45°/54°) - was aber nicht so tragisch wäre, wenn - ja wenn - der Idle-Verbrauch nicht auch steigen würde...

164W statt 141W! Und damit sogar 15W mehr, als noch mit der 8800GT!

Und das finde ich gar nicht witzig!

Jetzt wollte ich mal in die Runde fragen, ob das "normal" ist oder vielleicht doch nur daran liegt, dass ich das inoffizielle Bios von Gainward geflasht habe. Kann ja gut sein, dass das Kärtchen eine Hardware-Macke hat oder einen Software-Fehler, mit dem der Treiber nicht klar kommt.

Aber irgendwie habe ich noch so gar nichts darüber gehört... nichts Konkretes auf jeden Fall.
Nur eben, dass mal der 2D-Modus mit bestimmten Treibern nicht funzt (oder gar nur mit einem überhaupt in Erscheinung tritt).

Um es nochmal kurz zu machen:

SingleView (ein Display) = 2D Takte funktionieren
DualView (zwei Displays) = 2D funktioniert nicht

Fällt hierzu jemanden etwas ein... kann das wer bestätigen oder bestreiten?
Wäre nett, wenn es GraKa, Betriebssystem und Treiber zu den Kommentaren geben würde...

Würde die Karte wirklich gerne behalten und das scheint zum jetzigen Zeitpunkt wirklich der einzige Wehrmutstropfen.
Allerdings ist so etwas für mich auch ein KO-Kriterium...

Ich danke schonmal für Eure Hilfe, Anregungen und Kommentare.

Razor

r@h
2009-04-10, 12:49:03
Arghhhhhh....

Das kein 2d Modus in Verbindung mit zwei Monitoren geht :(Das ging noch nie. Ist also auch kein Bug.Hier steht was anderes?
http://www.computerbase.de/forum/showpost.php?p=5872901&postcount=45
.
Ist das wirklich wahr?

Razor

r@k
2009-04-10, 13:07:27
.
Ist das wirklich wahr?

Razor
"Klappt" sogar betriebssystemübergreifend, der Linuxtreiber schaltet bei Anschluss eines zweiten Schirms auch nicht mehr in den 2D-Modus. :up:

Kurze Zwischenfrage, müssen wir uns jetzt umstellen, dass nicht mehr die 8800GT 512MB der Weisheit, Ausgewogenheit und Vernunft letzter Schluss ist, oder lässt du dich von diesem kleinen Treiberproblem nochmal eine Runde auf der alten endausoptimierten Hardware festnageln?

yardi
2009-04-10, 13:13:48
Da hat der Treiber-Guru aber nicht ganz aufgepasst ;)

reunion
2009-04-10, 14:03:18
Ist bei nV anscheinend ein allgemeiner Mangel.

Gast
2009-04-10, 14:19:55
Ist bei nV anscheinend ein allgemeiner Mangel.
Immerhin läufts im Single 2D Betrieb, das was AMD nicht schafft.

Gast
2009-04-10, 14:24:27
Funktioniert Rivatuner nicht bei der GTX260 wegen Treiber Blockade? Falls doch, erstell dir doch einfach die benötigten Tasks und takte zwing die Karte eine bestimmte Taktrate ohne 3D Modus einzuhalten.

LovesuckZ
2009-04-10, 15:00:56
Ist bei nV anscheinend ein allgemeiner Mangel.

Nein, ist es nicht. Hierbei handelt es sich um einem "hardware 2D Modus", der die Karte aus dem "gefakten 2D" Modus entlöst und somit das wahre Stromsparpotential offentbart.

Gast
2009-04-10, 15:29:32
Nein, ist es nicht. Hierbei handelt es sich um einem "hardware 2D Modus", der die Karte aus dem "gefakten 2D" Modus entlöst und somit das wahre Stromsparpotential offentbart.
Kann nicht sein, Nvidia hat keinen "in Hardware gegossenen echten 2D Modus".
Es kann sich nur um einen gefakten echten 2D Modus handeln.

Das Ergebniss ist dabei mitentscheidend, wir wissen das sich falsche oder gefakte Modi durch einen scheinbar zu geringen Verbrauch hervorheben.
Genau hier setzt Nvidia an, an den Verbrauch des echten Modus kommen sie mit derart billigen Tricks nicht herran.

OC_Burner
2009-04-10, 15:31:57
Dieses "fehlerhafte" DualView-Verhalten gibt es mit den G200 Karten schon immer. Diese Thematik wurde auch hier im Forum schon öfters erwähnt. Wenn ich mich nicht irre gab es sogar mal die Aussage das dies gefixt werden soll und dies ist schon eine ganze weile her. Man sieht ja was bisher geschehen ist...:mad:

Du kannst dir nur helfen indem du dir NiBitor herrunter lädst und dein Bios der Grafikkarte modifizierst. Mit dem Tool ist es möglich die 3D-Spannungen auf die der 2D-Spannungen abzusenken (eigene Spannungswerte sind nicht möglich). Das ganze gestaltet sich sehr simpel.

Damit sollten deine 3D-Taktraten mit 2D-Spannungen laufen. Ob deine Grafikkarte das mitmacht kann ich dir nicht sagen. Zumindest lassen sich die meisten GTX280 Karten mit 2D-Spannungen sogar noch übertakten (bei mir von 602MHz auf 702MHz). GTX260 Karten sollten damit wohl auch keine Probleme bekommen und ebenfalls noch ein bißchen Luft haben.

Die 3D-Spannungen werden übrigens erst nach dem Bootvorgang von Windows initialisiert. (nicht drauf verlassen)

Optimalerweise sollten dann auch die 3D-Taktraten auf 2D gesenkt werden. Erst Spannungsabsenkung + Taktratenreduzierung im DualView-Modus erzeugt die gleiche Leistungsaufnahme wie im stinknormalen 2D-Modus. Mit Rivatuner switsche ich dann zum immer zwischen den Taktraten per Tastenkombination umher, wenn mal die Spiel gestartet wird.

Gast
2009-04-10, 15:33:16
Laut den release-notes soll dieser bug beim 185.68 (zumindest mit einigen karten) behoben sein.

TheBrother
2009-04-10, 18:08:14
Laut den release-notes soll dieser bug beim 185.68 (zumindest mit einigen karten) behoben sein.

Hmm Überschrift:

Open Issues in Version 185.68

Windows Vista 32-bit Issues

GeForce 9800 GT: With Dualview mode enabled, the GPU runs at the highest
performance level even when no video or 3D applications are running. [531538]

So... not really

Man kann den 2D-Modus per Rivatuner erzwingen. (getestet auf ner GTX-280) Was aber einen Reboot erfordert (und um wieder auf 3D zu kommen genauso). Also auch keine praktikable Lösung.
Hilft aber unglaublich wenn man lernen muss :D:D:D

Edit: Genau wegen der Problematik habe ich mir ne 2te Graka ins System gesteckt. (Gigabyte 9600gt) so braucht mein Sys im Idle mit beiden karten weniger als mit der GTX280 im 3D Modus. UND Ich hab gleich noch ne Karte für PhysX. ;D
Nachteil: Das Super Gigabyte Tool Gamer's HUD funktioniert nur wenn die Karte alleine im System steckt. D.h. die Erhoffte Spannungsänderung für die Gigabyte Karte kann ich vergessen. Über's Bios gehts leider auch nicht. Anfrage beim Support ergab nur ein "Nö sowas ist unmöglich" Ein hoch auf die Fähigkeiten der Gigabyte Progger ;)

Als nächstes versuche ich ne 55nm 9600gt zu ergattern... wenn die endlich mal gescheit Lieferbar sind.
Gruß

Brother

r@h
2009-04-10, 18:11:15
...oder lässt du dich von diesem kleinen Treiberproblem nochmal eine Runde auf der alten endausoptimierten Hardware festnageln?
Wenn sich das als nicht "behebbar" heraus stellt, dann fliegt sie wieder... aller Voraussicht nach.
Und es würde meinen Eindruck unausgereifter Hard- bzw. Software bei den GT200 bekräftigen... ja.

Da hat der Treiber-Guru aber nicht ganz aufgepasst ;)
Wie meinen?

Ist bei nV anscheinend ein allgemeiner Mangel.
Das wäre bei den 1,4 Gig "Monstern" allerdings ein sogar 'edrheblicher' Mangel!
Die "Kleinen" (aka G92) "brauchten" keine 2D-Takte... die "Großen" (aka GT200) allerdings schon... 23W mehr in Idle ist heftig.

Funktioniert Rivatuner nicht bei der GTX260 wegen Treiber Blockade? Falls doch, erstell dir doch einfach die benötigten Tasks und takte zwing die Karte eine bestimmte Taktrate ohne 3D Modus einzuhalten.
Ich erwarte von einem Produkt, dass es funktioniert.
Und wenn das nur eines für Spiele-Kiddies ist (die das nicht interessiert)... ist es nichts für mich.
Keine 3rd party tools für Grundfunktionen!
Das war bei mir schon immer so...

Kann nicht sein, Nvidia hat keinen "in Hardware gegossenen echten 2D Modus".
Es kann sich nur um einen gefakten echten 2D Modus handeln.
Love hat vollkommen recht... zu einem "2D Modus" gehören nicht nur gesenkte Takte... sondern auch reduzierte Voltages und mehr!
Das ist auch das, was diese "Tool-Friggler" wohl nie verstehen werden... :rolleyes:

Mit Rivatuner switsche ich dann zum immer zwischen den Taktraten per Tastenkombination umher, wenn mal die Spiel gestartet wird.
Sorry, aber das ist inakzeptabel!

Und ich wüsste nicht, dass dieser graviernde Mangel hier im Forum schom mal "wirklich" diskutiert wurde...
Eine primäre Eigenschaft wird nicht erfüllt... keinerlei Erwähnung, dass die volle Funktionalität mit nur einem Display garantiert wird.

So werde ich noch ein bissel mit dem Teilchen rum "spielen" und es dann wieder dorthin gehen lassen, wo es her gekommen ist.
Schon interessant, wie hier im Forum der Balken wegen echte Mängel herunter gespielt werden...

Aber so ganz gebe ich das Thema noch nicht auf - mal schaun, was die "weite Welt" dazu sagt.
(werde auch mal eine Support-Anfrage an nVidia starten... manchmal kommt ja auch was "Brauchbares" zurück ;-)

Laut den release-notes soll dieser bug beim 185.68 (zumindest mit einigen karten) behoben sein.
Wenn mein Bench-Parqour unter Win7 durch ist, wird das das erste sein, was ich checken werde...
Vielen dank für die Info!

Das würde auch erklären, warum hier ein Forumsmitglied (habe den Namen vergessen) nur mit dem 185.20 einen 2D-Modus hinbekommen hat... nur EINER im ganzen Forum wohlgemerkt! Wäre gut, wenn das Problem mit der 185'er Generation gelöst würde...

@GTX260

Nur, dass hier keine "Verwirrung" aufkommt:

Ich habe immer gesagt, dass die GT200 erst dann für mich in Frage käme, wenn
a) sich die Dinger vernünftig kühlen lassen (Luftkühlung, ohne "Monster"-Aufbauten)
b) "Zirpen", "Fiepen" oder dergleichen auszuschließen ist

Das sind nicht wirklich "viele" Bedingungen, oder?

All das scheint mit dem customized Design von Gainward/Palit bei der 2ndGen GTX260 gegeben... was ich hiermit schon mal bestätigen kann.
(ein Hardware-Erfahrungsbericht über diese ganze "Side-/Upgrade Arie" wird wohl noch über Ostern 'online' gehen ;-)

Und nun kommt mir was in die Quere, was ich nun so gar nicht auf dem Zettel hatte: der 2D-Modus!
Wahrscheinlich einfach zu banal, um mich im Vorwege damit näher auseinander gesetzt zu haben...
...damit habe ich einfach nicht 'gerechnet'.

Knapp 25W Mehrverbrauch während der überwiegenden Zeit der Nutzung durch (hoffentlich nur) einen Softwarefehler ist schlichtweg ein Unding... aber wir werden sehen... vielleicht kommt mir hier ja auch der Zeitpunkt zugute, bei dem dieses KO-Kriterium gerade aus der Welt geschafft wird... knapp 2 Wochen habe ich noch Zeit.

Razor

P.S.: werde Euch auf jeden Fall darüber auf dem Laufenden halten!
Gibt ja vielleicht doch noch einige hier, die nicht nur an "Balken" interessiert sind... stay tuned!

r@h
2009-04-10, 18:14:36
So... not really
*grmpf*

Aber zumindest haben sie es "auf dem Plan"... werde mal die vorherigen Release-Notes dazu "befragen".

Erinnert mich irgendwie an frühere Generationen von nVidia-Hardware.
Da wurde dies dann erst mit "frischer" Hardware gelöst... (aka G80 vs. G92 z.Bsp.).

Also ist der GT200 doch "unausgereift"?
Oder sind die devs bei nVidia einfach unfähig?
Hmmm...

Razor

Watson007
2009-04-10, 18:17:37
bei ati und meiner radeon hd 4850 ist es doch genauso.

man kann nicht alles haben...

vielleicht kannst du mal bei matrox oder s3 vorbeischauen oder wer sonst noch übrig bleibt :D

Gast
2009-04-10, 18:24:04
Love hat vollkommen recht... zu einem "2D Modus" gehören nicht nur gesenkte Takte... sondern auch reduzierte Voltages und mehr!
Das ist auch das, was diese "Tool-Friggler" wohl nie verstehen werden...
Ironie übersehen?


Das wäre bei den 1,4 Gig "Monstern" allerdings ein sogar 'edrheblicher' Mangel!
Die "Kleinen" (aka G92) "brauchten" keine 2D-Takte... die "Großen" (aka GT200) allerdings schon... 23W mehr in Idle ist heftig.Nö, die kleinen mit G92 ziehen eine ganze Menge ohne Idle Modus.


Ich habe immer gesagt, dass die GT200 erst dann für mich in Frage käme, wenn
a) sich die Dinger vernünftig kühlen lassen (Luftkühlung, ohne "Monster"-Aufbauten)
b) "Zirpen", "Fiepen" oder dergleichen auszuschließen ist

a) Kein Problem, die kleinen GTX 2xx ziehen so viel, wie andere Karten, die sogar (mehr schlecht als recht) passiv gekühlt werden (4850).
b) Geht kaum, da alle käuflichen Karten pfiepen. Auf einen großen Pfiepvergleichstest kannst du auch lange warten, soetwas wird es nicht geben.

r@h
2009-04-10, 18:27:07
Beim G92 funkt es doch auch... sogar ohne Taktabsenkung (das zum Thema "fake 2D Modus mit RT").
Und auch mit nur einem Display funkt es beim GT200... warum also nicht bei zweien?

Ich denke einfach mal, dass die "Klein-Rede-Taktik" diverser User einfach dazu geführt hat, dass diese Thematik bei nVidia einfach keinen Stellenwert hat, zumal der GT200 im OEM-Markt vollkommen "unwichtig" ist.

Ich werde wohl mal bei nVidia diekt anfragen.
Auch hilft es vielleicht einfach mal, ein paar Quadro-Treiber auf dieses Verhalten hin abzuklopfen...

"Die Hoffnung stirbt zuletzt!"
:D

Razor

TheBrother
2009-04-10, 18:30:17
[...]
Also ist der GT200 doch "unausgereift"?
Oder sind die devs bei nVidia einfach unfähig?
Hmmm...


hups kurz was geschrieben und schon ist der Thread X-Postings weiter.

Wenn du so frägst zweiteres. :D

Ansich tut der 2D-Modus ja, (wie gesagt über Rivatuner enforcen)
Außerdem hab ich den Fehler sofort (also direkt nach Release der Karte) bei Nvidia gemeldet. Ich glaube das ist einfach ganz weit hinten bei den Prioritäten. Ne TicketNr. hab ich auch noch...... irgendwo..... weil geschlossen wurde das Ticket nie.

Gruß

Brother

Gast
2009-04-10, 18:33:17
Ansich tut der 2D-Modus ja, (wie gesagt über Rivatuner enforcen)
Wer mal genauer, wie meinst du das?

r@h
2009-04-10, 18:34:41
Ironie übersehen?
Jup... "sorry"?

Nö, die kleinen mit G92 ziehen eine ganze Menge ohne Idle Modus.
Falsch.

a) Kein Problem, die kleinen GTX 2xx ziehen so viel, wie andere Karten, die sogar (mehr schlecht als recht) passiv gekühlt werden (4850).
b) Geht kaum, da alle käuflichen Karten pfiepen. Auf einen großen Pfiepvergleichstest kannst du auch lange warten, soetwas wird es nicht geben.
Öhm... gehts noch?
Auf solchen Unsinn kann ich getrost verzichten!

a) ohne "echten" 2D Modus ziehen die GT200 viel zu viel... so viel, wie andere Karten unter Last benötigen!
b) kein "Fiepen" oder dergleichen bei der Palit Sonic bzw. der Gainward GS... mehrfach in den Foren bestätigt - wie nun auch von mir.

Aber schön, dass Dich solche Mängel nicht stören.
Das zum Thema "mündige Kunden"... eine echte Seltenheit, wie Du nun wieder bestätigt hast.

Razor

TheBrother
2009-04-10, 18:37:53
Wer mal genauer, wie meinst du das?

Rivatuner-> Power User -> Riva Tuner \ Nvidia \ Overclocking -> [x] Enable PerfLevelForcing auf "1" -> Übernehmen

Dann

Driver Settings -> System Settings -> Force Constant performance level auf standard 2d -> Reboot -> 2D Modus mit 2 Monitoren :)

wie schon oben gesagt: Das ist mein "Ich muss lernen" Setting ;D

Gruß

Brother

r@h
2009-04-10, 18:40:16
Wenn du so frägst zweiteres. :D

Ansich tut der 2D-Modus ja, (wie gesagt über Rivatuner enforcen)
Außerdem hab ich den Fehler sofort (also direkt nach Release der Karte) bei Nvidia gemeldet. Ich glaube das ist einfach ganz weit hinten bei den Prioritäten. Ne TicketNr. hab ich auch noch...... irgendwo..... weil geschlossen wurde das Ticket nie.
Das wäre traurig... und ich glaube Dir natürlich.
Dann geht das Teilchen wohl wieder zurück... schade eigentlich.

Werde trotzdem eine Mail an den Support verfassen - vielleicht hilfts dann ja mal jemand anderen.

Ich "studiere" dann mal ein paar Release-Notes.
Würde mich mal interessieren, wie lange das da schon drin steht...

Razor

OC_Burner
2009-04-10, 18:40:19
Mit Rivatuner switsche ich dann zum immer zwischen den Taktraten per Tastenkombination umher, wenn mal die Spiel gestartet wird.Sorry, aber das ist inakzeptabel!

Inakzeptabel für dich vielleicht. Aber wenn du dir Mühe gibst und besonders schlau bist, dann kannst du dir auch automatische Taktprofile mithilfe des Rivatuners erstellen.

r@h
2009-04-10, 18:43:50
Inakzeptabel für dich vielleicht. Aber wenn du dir Mühe gibst und besonders schlau bist, dann kannst du dir auch automatische Taktprofile mithilfe des Rivatuners erstellen.Keine 3rd party tools für Grundfunktionen!
Das war bei mir schon immer so...
Wie heißt das so schön?
"Wer lesen kann ist klar im Vorteil!"

Razor

Gast
2009-04-10, 18:45:55
Falsch.

http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index13.php

9800 GTX+ -> 28W
8800 GT -> 35W
8800 GTS 512 -> 45W
9800 GTX -> 62W
9800 GX2 -> 89W

Wenn das sparsam ist, also bitte.


a) ohne "echten" 2D Modus ziehen die GT200 viel zu viel... so viel, wie andere Karten unter Last benötigen!
b) kein "Fiepen" oder dergleichen bei der Palit Sonic bzw. der Gainward GS... mehrfach in den Foren bestätigt - wie nun auch von mir.

a) Dies bezog sich auf den Lastverbrauch.
b) Es ist nunmal so das es keine Pfieptest gibt und geben wird. Ich finde es schade. Fakt ist nunmal, das die 1000 FPS Hype dazu beigetragen hat, den leider wurde immer verschiegen das alle Karten bei 1000 FPS pfiepen.

r@h
2009-04-10, 18:54:45
Wenn das sparsam ist, also bitte.
Ja, ist es... schade, dass HT4U keine G80 dabei hatte :D

b) Es ist nunmal so das es keine Pfieptest gibt und geben wird. Ich finde es schade. Fakt ist nunmal, das die 1000 FPS Hype dazu beigetragen hat, den leider wurde immer verschiegen das alle Karten bei 1000 FPS pfiepen.
Tjo... kein "Fiepen" bei 1000fps (und mehr).
Bei mir wird (schon aus "Gewohnheit" ;-) vSync gleich immer im CP global auf "disabled" geforced...
...bei der GTX260 sogar ganz bewußt.

In Menüs (oder anderen Fenster-3D-Geschichten) gibts das recht häufig.
Und sorry, auch das wäre bei mir ein "erheblicher Mangel"... inakzeptabel.

Razor

r@h
2009-04-10, 18:59:12
Und noch etwas... hätten die bei HT4U mit 2 Displays "gemessen", würde die Geschichte ganz anders aussehen, oder?

Bei der 9800GTX+ muss was falsch sein... der Idle-Verbrauch war höher, als der meiner 8800GT.
Ich hatte sie im eigenen Rechner und kann das sehr gut beurteilen!

Razor

Gast
2009-04-10, 19:53:52
Und sorry, auch das wäre bei mir ein "erheblicher Mangel"... inakzeptabel.

Genau deshalb kann ich relativ froh mit meiner GTX 2xx sein, sie pfiept deutlich weniger als ihr GF8 Vorgänger.


Ja, ist es...
62W (9800 GTX) sind mehr als 29W (GTX 285).

28W (9800 GTX+) sind fast so viel wie 29W (GTX 285).
62W (9800 GTX) sind mehr als 42W (GTX 280).

Wie kannst du hier nur seelenruhig behaupten, G92 ist auch ohne Idle Modus sparsam?
Sorry, aber ich glaube mich tritt ein Pferd. :rolleyes:

Gast
2009-04-10, 19:55:16
Bei der 9800GTX+ muss was falsch sein... der Idle-Verbrauch war höher, als der meiner 8800GT.
Ich hatte sie im eigenen Rechner und kann das sehr gut beurteilen!

Nö, das schliesst sich nicht aus.

ht4u hatte scheinbar eine mit geringer Spannung erwischt, du hast vielleicht eine alte oder schlechte mit ordentlicher Spannung erwischt.

Gast
2009-04-10, 20:00:49
Und noch etwas... hätten die bei HT4U mit 2 Displays "gemessen", würde die Geschichte ganz anders aussehen, oder?
Korrekt, aber wie denn? 47W statt 29W?
Ist immer noch besser als 55W (4870) oder 62W (9800 GTX).

r@h
2009-04-10, 20:52:50
Genau deshalb kann ich relativ froh mit meiner GTX 2xx sein, sie pfiept deutlich weniger als ihr GF8 Vorgänger.
Weder 7900GT, noch 8800GT oder jetzt GTX260² haben "gefiept".
Und glaube mir, ich kenne dieses "fiepen" gut... dewegen wäre das bei mir ein "no go".

Wie kannst du hier nur seelenruhig behaupten, G92 ist auch ohne Idle Modus sparsam?
Sorry, aber ich glaube mich tritt ein Pferd. :rolleyes:
Der G92 hat einen Idle-Mode... der sich aber nicht in Taktraten bemerkbar macht (Voltage runter und vermutlich mehr).
Wo sollte ich das Gegenteil behauptet haben? Der G92 kommt offenbar ohne 2D-Takte aus!
Nicht mehr und nicht weniger habe ich geschrieben...

ht4u hatte scheinbar eine mit geringer Spannung erwischt, du hast vielleicht eine alte oder schlechte mit ordentlicher Spannung erwischt.
G92b... niegel nagel neu.

Korrekt, aber wie denn? 47W statt 29W?
Ist immer noch besser als 55W (4870) oder 62W (9800 GTX).
29 + 23 wären dann 52W - viel zu viel.
Und dass die G80 in dieser Hinsicht "Müll" waren, musst Du gerade MIR nicht erzählen!
(da werden sich vermutlich noch einige erinnern können ;-)

Und nein 52W (GTX260²) oder 55W (4870) machen den Kohl nicht fett...
...damit wären die GT200 exakt genauso schrottig, wie die ATIs mit ihrem R7xx-Zeugs.

@Problem

Habe das "mal eben" schnell durchgetestet und recherchiert... auf die Schnelle, also keine 100%:
selbst die ersten Treiber für GTX260/280 zeigen dieses Pänomen
(erster Beta 177.26 vom 22.05.08 und erster WHQL 177.35 vom 09.06.08)
Erst die PDFs (Release-Notes) ab 185.65 "sprechen" von diesem Problem, welches vorher noch nie erwähnt wurde, ist also "frisch"
(auch wird dort nur über "GeForce9 GPUs" [Vista] oder "9800GT" [WinXP] geschrieben, nicht über den 'neuen' GT200[b])
im nVidia-Forum (http://forums.nvidia.com/index.php?showtopic=79583) 'reden' sie darüber (letzter Post von Ende März 09!)...
...auch wenn die ersten 'positiv'-Meldungen das Fehltakten betrafen und nicht das generelle Problem mit DualView
(ich kann deren Unmut SEHR gut verstehen *grmp*)Muss jetzt los, insofern wars das erst einmal auf die schnelle...
Wenn sich nVidia ran hält, dass wird das ja evtl. noch etwas in den nächsten 10 Tagen.

Razor

r@h
2009-04-11, 06:23:35
Sehr interessanter Thread:
http://www.hardforum.com/showthread.php?t=1318229

Da wird unter anderem auf einen Artikel verwiesen, der aber nur exemplarisch für eigentlich ALLE Reviews ist:
The GTX 200 GPUs also have smarter power management features that can automatically detect and throttle the chip's power depending on how much 3D-performance the system needs. According to Nvidia, the GeForce 280 GTX will only consume 25-35W when running in desktop mode or while playing a Blu-ray movie, but it can ramp up to full power, approximately 236W, when it's time to fire up Call of Duty 4. The GTX 200 GPUs also support Nvidia's HybridPower feature that can switch all graphics work over to the motherboard graphics chip for low-intensity, nongaming applications provided you have a motherboard with an nForce 780a or 790i chipset.
Braucht sie halt doppelt so viel... who cares? Oh mann... :rolleyes:
Und man redet hier nicht von "HybridPower"... denn DAS ist noch ein ganz anderes Thema!

---

Auch nett:
http://www.nvidia.com/content/includes/images/redesign08/nvidia_logo.png
http://www.nvidia.com/object/product_geforce_gtx_260_us.html

Ganz unten kann man dann auch ein PDF laden, welches Folgendes vermeldet:
("GeForce GTX 200 Series - Detailed features list (http://www.nvidia.com/docs/IO/55506/GPU_Datasheet.pdf)")
Power and Thermal Technology Advanced power and thermal management for optimal acoustics, power, and performance based on usage Dynamic clock and voltage scaling
Clock gating
NVIDIA HybridPower™ Technology
Letzteres natürlich nur mit 'nem nVidia Board...

---

Immer wieder wird herum gerätselt, warum die GT200 bei dem einen Takten... bei dem anderen nicht...
...und NIEMALS wird klar und deutlich gesagt:

Kein Powersave mit mehr als einem Display!
- Ein GT200 ist nicht effizienter und hat keine besseren Stromsparmechanismen, als der Vorgänger G92
- Ein GT2x0 braucht mehr Strom unter Idle, als JEDE Karte vor ihr (die G80 ausgenommen ;-)

Was aber noch viel interessanter ist... nicht EIN EINZIGES Review weist darauf hin!
Auch nicht HT4U, die sonst sehr gute Reviews verfassen...

Razor

Gast
2009-04-11, 06:42:58
Was aber noch viel interessanter ist... nicht EIN EINZIGES Review weist darauf hin!
Auch nicht HT4U, die sonst sehr gute Reviews verfassen...

Razor
Schreib doch lieber einen Bugreport und weise die entsprechenden Reviewseiten darauf hin, wenn du das in einem sachlichenTon machst nimmt die Anregung vielleicht jemand auf und schreibt einen hübschen Artikel, dann klappts auch schneller mit dem Bugfixtreiber. Ein Kandidat wäre zum Beispiel auch PCGH, ich sehe es schon sinnngemäß vor mir.

PCGH - Kein 2D-Modus bei GT200-Karten und mehreren Monitoren
Oh weh, oh weh!

PCGH - Kein 2D-Modus bei GT200-Karten und mehreren Monitoren (Update)
wir haben den Fehler an Nvidia weitergeleitet und halten Sie auf dem Laufenden

PCGH - Kein 2D-Modus bei GT200-Karten und mehreren Monitoren (Update2)
Neue Screenshots

Kein 2D-Modus bei GT200-Karten und mehreren Monitoren (Update3)
GTX275 ebenfalls betroffen - jetzt auch Hi-Res Screenshots in unserer Galerie

PCGH in Gefahr: Stromsparen bei GT200-Karten durch Stecker ziehen

;D

Was du hier zum PowerManagement zitierst ist doch alles richtig und auch die Verbrauchsangaben stimmen, bei 2 Monitoren klemmt halt was. :)

Coolchip
2009-04-11, 10:08:46
Als die ersten GTX280 Karten auf den Markt kamen, wurde hier schon auf das Problem aufmerksam gemacht. Ich habe jedenfalls die Hoffnung auf eine Fehlerbereinigung aufgegeben.

Gast
2009-04-11, 10:58:32
Der G92 hat einen Idle-Mode... der sich aber nicht in Taktraten bemerkbar macht (Voltage runter und vermutlich mehr).
Deshalb ist er mit 62W im Idle auch so sparsam wie ein G80?

29 + 23 wären dann 52W - viel zu viel.
Dennoch weniger als G92 mit seinen 62W.

r@h
2009-04-11, 12:34:05
Sorry, aber was gast Du denn getrunken, lieber Gast?
Ich sprach von einer 8800GT (G92)... und die "braucht" 35W (nach HT4U).
Oder wollen wir mal wieder Äpfel mit Birnen vergleichen?

Keine Ahnung, was die da mit der 9800GTX (ohne "+") vermurkst haben...
...aber was ein G92 "kann" düfte man ja wohl am Beispiel der 9800GTX+ sehen, gell?

Als die ersten GTX280 Karten auf den Markt kamen, wurde hier schon auf das Problem aufmerksam gemacht. Ich habe jedenfalls die Hoffnung auf eine Fehlerbereinigung aufgegeben.
Ich noch nicht... habe mal 'ne Anfrage bei nVidia eingegeben - mal schaun', was da raus kommt.

Die eine Auto-Response hat schon mal hier her verwiesen:
(der "Rest" hatte mit dem Thema nicht wirklich etwas zu tun)

Question

The clocks on my GeForce GTX 280/260 graphics card are stuck at max 3D levels and do not drop to idle clock levels when I'm on the Windows Desktop.

Answer

The clock level of the GPU is based on a number of things besides whether the PC is in a Windows idle state, including:

a) Number of monitors attached - multiple displays require higher GPU bandwidth which can result in higher clock levels. Try configuring only a single monitor and see if clocks drop down to idle levels.

b) 3D Applications - some applications may not appear to be 3D but in fact are making DirectX/OpenGL/CUDA calls to the GPU and can cause the GPU to operate at higher clock levels. These applications can include even control panels and utilities. Try closing all applications on the desktop and see if clocks drop down to idle levels.
Ein "zarter" Hinweis von offizieller Stelle... ist doch schon mal was.
Klar... 2. Display = höhere CPU-Bandbreite (Füllrate?) = volle Geschwindigkeit nötig :rolleyes:

Also da müssen sich die Herren bei mir schon mal was besseres ausdenken...
Stay tuned!

Razor

Gast
2009-04-11, 13:05:53
Keine Ahnung, was die da mit der 9800GTX (ohne "+") vermurkst haben...
Nichts, die braucht einfach viel. Sieht man schön unter Volllast oder eben im Idle, dank dem nicht vorhandenen Sparmodus.

Ich sprach von einer 8800GT (G92)... und die "braucht" 35W (nach HT4U).Nö, du sprachst von G92. Das ist eine GPU, welche Karte du gemeint hast, war unklar.
Eine 9800 GTX hat nunmal einen G92 vebaut und zieht so viel wie eine 8800 GTX im Idle.

Das die unter Volllast noch recht genügsame 8800 GT auch im Idle sparsam ist, ist klar.
Die 9800 GTX+ schlägt in die selbe Kerbe, nur sie hat ebenfalls keine Idle Modus.

Oder erzähl mal, was zieht so eine GPU im Idle?
Ein fetter GT200 zieht jedenfalls 4W (1,1125V @ 3,6A) ohne Sparmodus 14/15W (1,18xxV @ ~ 12A)

Gast
2009-04-11, 20:00:28
Wenn Du wirklich Probleme mit dem Lesen hast, dann noch einmal gaaaaanz langsam und ganz deutlich für Dich:
Vorher: 8800GT (aka G92)
Nachher: GTX260² (aka GT200b)

Du kannst ja mal mit dem ersten Post dieses Threads ein wenig "üben*.
Sorry, aber das musste jetzt mal sein...

Und wo Du bitte Deine Weisheit über den Idle-Verbrauch der GT200 her hast, darfst Du mir auch gleich mal erklären.
Leider ist das so dermaßen von der Realität entfernt, dass es schon fast weh tut - und komm mir nicht damit, dass theoretisch die Chips...
...hier geht es um die Karten, die hier und heute existieren.

Razor

Gast
2009-04-12, 00:35:34
Wenn Du wirklich Probleme mit dem Lesen hast, dann noch einmal gaaaaanz langsam und ganz deutlich für Dich:
Vorher: 8800GT (aka G92)
Nachher: GTX260² (aka GT200b)

Das ändert nichts an deinen späteren Aussagen, G92 wäre im Idle sparsam.
Dies habe ich anhand der 9800 GTX deutlich wiederlegt.

Das deine 8800 GT im Idle mit 35W auskommt ist logisch, sie zieht auch unter Last deutlich weniger, ist das so schwer zu verstehen?
Die 9800 GTX mit der ähnlichen GPU zieht unter Last mal eben deutlich mehr und entsprechend auch im Idle.


Die besagte GTX 260 216 zieht unter Volllast mehr, im Idle einmal mehr, einmal weniger als deine 8800 GT.
Unschöne Sache ja, aber kein Grund auszuflippen und zu behaupten deine 8800 GT wäre super toll und super sparsam, den das ist sie nicht!


Du behauptest auf einmal G92 hätte einen Idle Modus. Klar, deshalb auch die 62W der 9800 GTX.
Fakt ist, die großen G92a Karten ziehen im Idle und unter Last nicht wenig.
Fakt ist, die kleine 8800 GT zieht im Idle mehr als so mance andere Karte vor ihr, wie war das mit der 7900 GT?


Und wo Du bitte Deine Weisheit über den Idle-Verbrauch der GT200 her hast, darfst Du mir auch gleich mal erklären.
Leider ist das so dermaßen von der Realität entfernt, dass es schon fast weh tut - und komm mir nicht damit, dass theoretisch die Chips...
...hier geht es um die Karten, die hier und heute existieren.

Du hast auf einmal von GPUs geschrieben.
Ich jedenfalls bin in der Lage Programme wie GPUz oder Rivatuner zu bedienen.

Du darfst dir gerne selbst ausrechnen, was dies für die gesamte Karte bedeuted.
Ich jedenfalls hätte zu gerne erfahren, wie viel ein G92 so alleine schluckt.

r@h
2009-04-12, 10:07:50
Könnten wir dann bitte zum Thema zurück kehren?
Dass es hier genug "Herunter-Reder" gibt, war ja klar...
...dass es aber auch Leute gibt, die offenbar nicht verstehen, um was es eigentlich geht, ist sehr, sehr traurig.

Also noch einmal ganz deutlich und auf das theoretische Gequatsche über "ausgerechnete" Verbräuche gebe ich NICHTS.
(mal davon ab, dass GPU-Z nicht misst, sondern mit Tabellen arbeitet... aber auch das wird man vermutlich wieder geflissentlich ignorieren)

Ich halte mich da lieber an Fakten...
Also noch einmal:

GTX260² aka 55nm GT200b Idle mit nur einem Display
= ca. 29W Idle Verbrauch (141W gesamt) und 37°/47° (ambient/core) Temps
Idle mit zwei Displays (egal welche Combo)
= ca. 54W Idle Verbrauch (166W gesamt) und 44°/55° (ambient/core) TempsVielleicht hat ja jetzt auch der liebe Gast verstanden, um was es hier geht.
Aber es ist so typisch... einfach die Fakten ignorieren und irgendwelchen dünnfug labern... mann, wie ich das satt habe.

Dass meine 'kleine' 8800GT etwa 8W mehr im Idle 'brauchte', habe ich nur am Rande erwähnt...
...mit dem Problem hier hat das nur wenig zu tun, da dies nur dem Vergleich diente.

Die Fakten sind also: eigentlich sollte der GT200(b) effizientere PowerSave-Eigenschaften mitbringen, als es der G92(b) tut
im Falle nur eines aktivierten Displays trifft dies auch zu... in meinem Beipsiel 8W weniger, als mit der 8800GT
im Falle von zwei aktiven Displays dann nicht mehr... in meinem Beispiel 17W mehr, als mit der 8800GTGanz im Gegenteil verbraucht ein GT200 letztlich sogar WESENTLICH mehr!

Razor

Gast
2009-04-12, 10:39:00
Fakt ist, eine 8800 GT hat keinen Idle Stromsparmodus. Vielleicht hat es Razor jetzt verstanden.

dargo
2009-04-12, 10:40:07
Ganz im Gegenteil verbraucht ein GT200 letztlich sogar WESENTLICH mehr

Typisch Razor wieder... was er nicht hat wird auch schlecht gequaselt.

Geht das noch fetter und größer? Ich wette mit dir, dass mein GT200 in Idle weniger verbraucht als dein GT200b. ;)

r@h
2009-04-12, 18:41:57
a) natürlich hat ein G92 einen Idle/2D-Modus (der sich nicht in Taktabsenkungen zeigt)
b) natürlich habe ich die GTX260² im Rechner... wohl aber nicht mehr lange
c) alles, was zum GT200 gesagt wurde gilt natürlich auch für den GT200b (und umgekehrt)... wie auch sonst?

Razor

Bastler
2009-04-12, 20:11:27
also ich habe eine 260 216 (65) im Rechner vorher eine 8800GTS 512
und ich muß sagen die 260 ist eindeutig die bessere karte.
Im kaufzustand war die 260 lauter.
nach Regelung des Lüfters im Ide 25 % unhörbar(naja jdenfalls leiser als die GTS und leiser als der rest.)

Mit dem EVEG tools + mod ließ sich die VCore GPU auf 0,925V (1,03 V Original ) senken (standart Takt 602 - 1103 -1242 )
Leadtek WinFast GTX 260 Extreme+, GeForce GTX 260, 896MB GDDR3, 2x DVI, TV-out, PCIe 2.0

so erreichte ich im Ide nochmals 5 Watt ersparnis und in Furmark 35 Watt.
so das der Rechner unter last mehr Leistung hat und gleich viel verbraucht unter Last wie die GTs.
leiser ist ( max 42% Lüfter bei Furmark )

Im Spiel also unaufdringlich bis unhörbar ( original nicht so)

Fiepen also nur in Crysis bisher gehört im Menue.

Habe aber 2 Displays mit aktuellen Treiber nicht getestet.

r@h
2009-04-13, 01:03:23
Habe aber 2 Displays mit aktuellen Treiber nicht getestet.
Und das wäre der interessante Aspekt gewesen...
Damit würdest Du feststellen müssen, dass Deine 5W "Ersparnis" durch etwa 25W Mehrverbrauch regelrecht vernichtet würden.

Dass die Karte "im Spiel" etwas lauter wird (jetzt mit 35% DC ist sie in Idle leiser, als der Rest des Systems), stört nicht sonderlich, da man ja i.d.R. kaum "stumm" spielt. Was mich aber stört, ist der hohe Verbrauch im Idle-Betrieb und 2 aktiven Displays... also genau immer dann, wenn ich nicht spiele... und ich weiß ja nicht, wie es Euch so geht, aber das ist zu 90-95% der "Uptime" der Fall.

Ansonsten würde ich die Karte behalten, keine Frage.
Habe gerade mal 130€ dafür gelöhnt... da habe ich für die 8800GT wesentlich mehr hingelegt - über 200.

Sollte sich das Problem mit dem Idle-Verbrauch nicht lösen lassen, fliegt sie allerdings wieder raus.

Razor

=Floi=
2009-04-13, 05:16:59
der thread ist doch absolut lächerlich. Wie du dich aufführst geht ja garnicht. Das problem ist ewig bekannt und du kannst mir nicht erzählen es nicht schon mal irgendwo gelesen zu haben...

Der G92 hat einen richtigen 2d-modus, aber nur bei den mobilen versionen und bei der GTS250
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/23/#abschnitt_leistungsaufnahme

r@h
2009-04-13, 09:20:44
Das problem ist ewig bekannt und du kannst mir nicht erzählen es nicht schon mal irgendwo gelesen zu haben...
Dass der 2D-Modus bei Aktivierung von mehr als einem Display nicht funktioniert?
DAS solltest Du mir mal bitte zeigen!

Kein einziges Review verweist darauf, kein Hardware-Test oder sonst gelagerte Berichterstattungen tun dies.
Weder die Grafikkarten-Hersteller tun dies, noch verweist nVidia selbst auf diesen Umstand.

Wenn Du mir also erzählen willst, dass das Problem "ewig bekannt" ist, dann trete bitte auch den Beweis dafür an.
Anonsten ist Dein Kommentar nur ein weiterer Versuch, echte Probleme herunter zu spielen... und damit rein gar nichts "wert".

Razor

Gast
2009-04-13, 11:28:29
Der G92 hat einen richtigen 2d-modus, aber nur bei den mobilen versionen und bei der GTS250
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/23/#abschnitt_leistungsaufnahme
Eben, all die übrigen G92 Karten haben keinen Idle Modus!

Schöne Beispiele sind 9600 GSO, 9800 GTX. Erstere zieht mehr als eine 9800 GT.

Bastler
2009-04-13, 19:09:26
Ich habe mal getestet mit zweiten monitor(bei mir TV) taket es nicht runter.

Ob es nun so ist das das Ansteuern des Dual 400MHz RAMDACs (welche man ja bei 2 Panels) einfach mehr Leistung braucht beim Ram und das geht leider nur im nicht Ide Modus ( ram Spannung)

Ging das jemal bei den 200 Karten ? ( ich brauche es nicht unbedingt )

r@h
2009-04-13, 20:51:19
Schöne Beispiele sind 9600 GSO, 9800 GTX. Erstere zieht mehr als eine 9800 GT.
Schönes Beispiel, in dem Du Dich selbst wiederlegst... :rolleyes:

Razor

r@h
2009-04-17, 06:42:11
Ein kleiner Status von der "Fornt"...

nVidia antwortet nicht auf die Support-Anfrage, Palit tat dies aber schon...
...mit der Bitte um Nicht-Veröffentlichung, der ich natürlich nachkomme.
(ist das nicht schön, wenn man hier "anonym" posten kann ;-)

Kurz... in eigenen Worten:
Problem ist bekannt, aber eine "Hardware-Restriktion" und nicht per Treiber-Update zu beheben!

Oder wie ich es verstehe: ein Hardware-Bug!
Damit fliegt das Teil am WoEn wieder aus dem Rechner und zurück zum Distri.

Schade eigentlich... so wird die 8800GT ein Revival erleben und bis zur nächsten Generation "überleben" müssen :(
Hoffentlich baut nVidia da nicht wieder Mist!?

Razor

P.S.: und Schande für den nVidia Support... von wegen 24h Reaktion!
Das kenne ich wesentlich besser... aber ich finde sowieso, dass nVidia in vieler Hinsicht SEHR nachgelassen hat.

Watson007
2009-04-17, 07:26:51
wie gesagt, bei ati gibt es das problem doch auch...

OC_Burner
2009-04-17, 17:02:50
Hardwarebug... Das ich nicht lache!

Das ist für mein Empfinden definitiv ein Softwarebug. Nicht des Bios sondern ausschließlich ein Problem des Treibers.

Es gibt die Möglichkeit die Spannung unter Windows auch "on the fly" ändern zu können mit Hilfe zweier Thirdpartytools.
Wenn der Treiber dies nun selbstständig und dazu noch automatisch könnte dann ließe sich wohl kaum noch von einem Hardwarebug sprechen...

Schrotti
2009-04-17, 18:26:01
Und das wäre der interessante Aspekt gewesen...
Damit würdest Du feststellen müssen, dass Deine 5W "Ersparnis" durch etwa 25W Mehrverbrauch regelrecht vernichtet würden.

Dass die Karte "im Spiel" etwas lauter wird (jetzt mit 35% DC ist sie in Idle leiser, als der Rest des Systems), stört nicht sonderlich, da man ja i.d.R. kaum "stumm" spielt. Was mich aber stört, ist der hohe Verbrauch im Idle-Betrieb und 2 aktiven Displays... also genau immer dann, wenn ich nicht spiele... und ich weiß ja nicht, wie es Euch so geht, aber das ist zu 90-95% der "Uptime" der Fall.

Ansonsten würde ich die Karte behalten, keine Frage.
Habe gerade mal 130€ dafür gelöhnt... da habe ich für die 8800GT wesentlich mehr hingelegt - über 200.

Sollte sich das Problem mit dem Idle-Verbrauch nicht lösen lassen, fliegt sie allerdings wieder raus.

Razor

Meine Leadtek läuft immer mit 1,03V (habe ich per Bios so geflasht). Vielleicht mal darüber nachdenken.

r@h
2009-04-18, 10:32:01
Das "Denken" hat ein Ende...

Ich werde das Problem ganz sicher nicht zu kaschieren suchen, denn diese Option (Voltage senken) bliebe mir natürlich auch, wenn die Karte vollumfänglich funktioniert... mann könnte so den Last-Verbrauch senken, was sicher auch eine interessante Option wäre. Und zum Thema 3rd party Programme habe ich mich nun schon zur genüge geäussert.

Habe das Kärtchen 'schick' verpackt und gebe es nach FAG heute in die Retoure.

Mir ist es vollkommen schnuppe, ob es ein Soft- oder Hardwarebug ist, der dieses Problem verursacht...
...Fakt ist, dass hier Hard- und Software eine Einheit bilden und das Produkt einen nicht deklarierten Mangel aufweist.

Mann kann eben nicht von uneingeschränkten "Stomspar-Mechanismen" sprchen und die zugehörigen Restriktionen verschweigen.

Dies ist die vorläufige Antwort auf meinen Support-Request bei nVidia:

Response (IS) 04/17/2009 01:32 PM
Hello xxxx,

Thank you for contacting NVIDIA Customer Care.

Your case is being escalated to our Level 2 Tech Support group. The Level 2 agents will have to review the case notes. As this process may take some time we ask that you be patient and a Level 2 tech will contact you as soon as they can, to provide you the appropriate information.

Best Regards,
NVIDIA Customer Care
.
Insofern werde ich den Thread hier auf dem Laufenden halten, wenn sich hier etwas Neues ergibt.
Sollte der "Bug" behoben werden, denke ich über einen erneuten Kauf nach, vorher aber ganz sicher nicht!

Razor

P.S.: ahhh... ist das jetzt wieder "gut"... nur noch 146W Idle-Verbrauch statt 166W mit der GTX260².
GPU Idle Temps 37°/46° (absolut 'silent') statt 47°/55° (mit 35% DC und akzeptabler Geräuschentwicklung).
Selbst die CPU (der neue C2Q) läuft jetzt ca. 3° kühler... unter Last sind es sogar noch mehr.

r@h
2009-04-23, 08:06:25
Soderle... ein Update von nVidia.
Allerdings nur eine sehr schwammige Antwort - ich bleibe dran!

Hi xxxxx,
Thanks for waiting. Your case as escalated to me for a 2nd opinion. Your particular issue may not be a bug for the GTX chips. It could just be what we described here:

http://nvidia.custhelp.com/cgi-bin/nvidia.cfg/php/enduser/std_alp.php?p_sid=*KEaL_vj&p_lva=&p_li=&p_accessibility=0&p_redirect=&p_page=1&p_cv=&p_pv=&p_prods=0&p_cats=0&p_hidden_prods=&prod_lvl1=0&cat_lvl1=0&p_search_text=2236&p_new_search=1&p_search_type=answers.a_id

Please feel free to update me at your earliest convenience.

Best regards,
David
Er verweist hier auf die folgende Fragestellung:
The clocks on my GeForce GTX 280/260 graphics card are stuck at max 3D levels and do not drop to idle clock levels when I’m on the Windows Desktop.

Question

The clocks on my GeForce GTX 280/260 graphics card are stuck at max 3D levels and do not drop to idle clock levels when I'm on the Windows Desktop.

Answer

The clock level of the GPU is based on a number of things besides whether the PC is in a Windows idle state, including:

a) Number of monitors attached - multiple displays require higher GPU bandwidth which can result in higher clock levels. Try configuring only a single monitor and see if clocks drop down to idle levels.

b) 3D Applications - some applications may not appear to be 3D but in fact are making DirectX/OpenGL/CUDA calls to the GPU and can cause the GPU to operate at higher clock levels. These applications can include even control panels and utilities. Try closing all applications on the desktop and see if clocks drop down to idle levels.
Die wurde auch schon bei der "Auto-FAQ" angegeben, allerdings wollte ich hier Hintergrund-Info.
(Punkt A trifft natürlich zu, Punkt B ist auszuschließen)

Habe hier jetzt nochmals um nähere Hintergrund-Infos gebeten...

Razor

r@h
2009-04-24, 18:37:55
Und wieder eine Antwort von nVidia...

Habe mich darüber beschwert, dass dieser "Makel" (für mich ein eisenhart unterschlagener Mangel) nirgendwo erwähnt wird. Die Power-Management "Fähigkeiten" der GT200 werden großartig beworben, aber nirgendwo wird erwähnt, dass diese AUSSCHLIESSLICH funktionieren, wenn nur ein Display angeschlossen ist.

Ergo gabs nun abermals ein "Bitte warten...":
Hi xxxx,
Thanks for the update. We'll have to research this and see if such info is available.

Best regards,
David
So "stay tuned!"

Razor

r@h
2009-05-28, 09:09:41
*bump*

Bisher noch keine weitere Stellungnahme von nVidia... wer hätte das gedacht?

Razor

r@h
2009-06-21, 10:41:05
...von nVidia immer noch nichts.
(da kommt wohll auch nichts mehr)

- mit dem 190.15 alpha hat sich (zumindest unter WinXP) auch nichts geändert.
- Love war der Meinung, dass es bei ihm mit dem 186.08 funktionierte... allerdings war er der einzige.
- ein unreferenzierter Gast meinte, dass es mit dem 190.15 funktionieren würde
- auch mit den G92(b) funktioniert es nicht... wie ich nun selbst mit einer GTS250 (G92b) feststellen durfte

Allerdings fällt der Mehverbrauch bei der GTS250 1GB mit 'nur' +12W ggü. den fast +30W bei der GTX260 eher gering aus.
Trotzdem bleibt es ein Fehler!

Und da die GTS250 auch sonst nicht wirklich viel mehr ggü. meiner 8800GT512 bringt, geht nun auch diese wohl wieder zurück.
(erstaunlicher weise auch unter Vista/Win7 nicht, was eigentlich von mir vermutet wurde!)

Ergo: mehr VRAM bringt bei den G92 ABSOLUT NICHT... aber das nur am Rande.

Razor

Gast
2009-06-21, 11:02:51
Ergo: mehr VRAM bringt bei den G92 ABSOLUT NICHT... aber das nur am Rande.

Mehrtakt auch nicht oder Mehreinheiten.

Die 8800 GT ist schlicht und ergreifend die beste Karte aller Zeiten.

Schrotti
2009-06-21, 11:48:14
Ich könnte ja meinen zweiten TFT anklemmen und testen.

r@h
2009-06-21, 12:45:47
Gern!

Mehrtakt auch nicht oder Mehreinheiten.
Die 8800 GT ist schlicht und ergreifend die beste Karte aller Zeiten.
Was hast Du denn getrunken :confused:

Razor

Gast
2009-06-21, 13:24:07
Die GTS 250 hat mehr Speichertakt, mehr Shadertakt, mehr GPU Takt, mehr TMUs, mehr Shader, mehr VRAM.
Du jedoch gibst sie wieder zurück, mit der Begründung sie sei sinnlos.

Gut, das du auf 512MiB stehst hast du zur Genüge bewiesen, aber warum noch?
Gut, da sind noch die 12W, und sonst?

Schrotti
2009-06-21, 17:09:23
Weder mit dem 186.08 noch mit dem 190.15 taktet sich meine GTX 280 runter.

Zieh ich den zweiten Bildschirm ab klappt es wunderbar.

JFZ
2009-06-21, 18:55:16
Weder mit dem 186.08 noch mit dem 190.15 taktet sich meine GTX 280 runter.

Zieh ich den zweiten Bildschirm ab klappt es wunderbar.


Mußt du ihn abziehen oder reicht es, den in StandBy runterzuschalten? (2.Bildschirm wäre bei mir ein Beamer, der ist ja eh nicht immer an)

r@h
2009-06-21, 19:06:51
Weder mit dem 186.08 noch mit dem 190.15 taktet sich meine GTX 280 runter.

Zieh ich den zweiten Bildschirm ab klappt es wunderbar.
Jup... DAS ist das Symptom!

Mußt du ihn abziehen oder reicht es, den in StandBy runterzuschalten? (2.Bildschirm wäre bei mir ein Beamer, der ist ja eh nicht immer an)
Wie willst Du einen einzigen Bildschirm "in StandBy runterschalten"?

Du kannst ihn in der Config deaktivieren oder aber physisch ausschalten (was mit einer software-seitigen Deaktivierung einher geht)...
...hat beides den gleichen Effekt: nur ein Bildschirm = 2D-Modus OK / zwei Bildschirme = 2D-Modus putt.

Razor

@Gast

Ist hier OT... glaube mir einfach, dass ich die Karte im Rechner hatte (vorhin ausgebaut) und dass die 512MB mehr VRAM unter Win7 nicht den gewünschten Effekt zeigten... da muss also noch mehr sein, was unter WDDM mehr Ressourcen verbrät. Ansonsten zeigte sich trotz der theoretischen 20% mehr Rohleistung nur etwa 5-10% mehr Performance und bei FarCry2 und Crysis zeigte sich dann auch ein Effekt des größeren (und schnelleren) VRAMs... nur bei weitem nicht so viel, als dass es real was bringen würde... nicht einmal mit 'ner GTX260 (wie ich an anderer Stelle schon schrieb) gibts hier einen ausreichenden Effekt... erst mit 'nem GT200-SLI scheints was zu werden und das kommt mir nicht ins Haus. Ergo: warten auf GT300 mit der Hoffnung, dass sich dort was am Idle-Verbrauch tut und die Mehr-Performance auch wirklich hilft.

Schrotti
2009-06-21, 21:56:14
Mußt du ihn abziehen oder reicht es, den in StandBy runterzuschalten? (2.Bildschirm wäre bei mir ein Beamer, der ist ja eh nicht immer an)

Nee muss leider komplett ab.

Währe ja schön, wenn das ausschalten reichen würde, wobei ich den Sinn des zweiten Bildschirms nicht checke.

Ich hatte das hier und mir bringt es nichts.

LovesuckZ
2009-06-21, 23:08:28
Könnte hier jemand mal mit vTune (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7325300&postcount=131) ausprobieren, ob ihr durch das Tool beim Dual-Monitor Betrieb in den 2d Modus kommt?
Das Tool scheint bei mir der Grund zu sein, wieso sich meine Karte in den 2D Modus heruntertaktet.
Vorgehensweise ist bei mir: Im Single-Monitor Betrieb den 3D Takt ganz nach unten zu regeln und dann den zweiten Monitor dazuschalten. Das funktioniert bei mir prächtig...

OC_Burner
2009-06-21, 23:49:03
hm... ist dann aber auch nicht die beste Lösung. Aber bist du dir sicher das nicht doch im 3D-Modus geschaltet wird auch wenn du das Tool benutzt? Kann durchaus sein das deine GPU-Spannung sich im 3D-Modus befindet. Der 2D-Modus besteht ja aus zweierlei, nämlich durch das senken der Taktraten und der GPU-Spannung, sonst nichts. Zumindest hat sich das beim testen im Stromverbrauch so gezeigt und ergeben (vom ganzen Rechner wohlgemerkt).

Kann ja bei Gelegenheit dein verlinktes Tool trotzdem mal testen.

LovesuckZ
2009-06-21, 23:51:37
Nein, laut Rivatuner und dem Energie 3000 befinden sich beide Karten im 2D Modus.

r@h
2009-06-22, 07:30:18
Toll... doch wieder ein 3rd-Party-"Fummel"-Tool.
Damit kann man die Aussagen von Love hier schon fast ausschließen...
:rolleyes:

Aber eines verstehe ich nicht - wozu dieses Tool?
Bei meinen Tests funktionierte das Rauf- und Runtertakten absolut präzise.
(sowohl bei GT200, als auch G92b)

Und beides mal gab es einen 2D-Takt von 300/600/100 (mit entsprechender Voltage-Senkung), was sich deutlichst im Idle-Verbrauch bemerkbar machte... so ist es - zumindest aus dieser Sicht heraus - absolut unverständlich, weshalb man da jetzt irgendetwas mit 'nem "Fummel"-Tool nach regeln müsste.

Razor

Gast
2009-06-22, 16:24:28
Vielleicht ist auch einfach die speicherbandbreite für 2 monitore im 2D-modus wirklich zu wenig.

BK-Morpheus
2009-06-22, 16:35:14
Hat evtl. nochmal jemand nen Link, wie man das ganze über Rivatuner von Hand lösen kann (also mir würden simple Shortcuts für 2D und 3D Betrieb reichen)?

Bzw. lässt sich denn die GPU Spannung über Rivatuner mit senken, oder nur der Takt (der echte Hardware 2D Modus der Nvidia-Karten senkt doch die Spannung oder)?

LovesuckZ
2009-06-22, 17:30:59
Toll... doch wieder ein 3rd-Party-"Fummel"-Tool.
Damit kann man die Aussagen von Love hier schon fast ausschließen...
:rolleyes:

Aber eines verstehe ich nicht - wozu dieses Tool?
Bei meinen Tests funktionierte das Rauf- und Runtertakten absolut präzise.
(sowohl bei GT200, als auch G92b)

Und beides mal gab es einen 2D-Takt von 300/600/100 (mit entsprechender Voltage-Senkung), was sich deutlichst im Idle-Verbrauch bemerkbar machte... so ist es - zumindest aus dieser Sicht heraus - absolut unverständlich, weshalb man da jetzt irgendetwas mit 'nem "Fummel"-Tool nach regeln müsste.

Razor

Es geht nicht um das generelle Untertakten im Single-Monitor Betrieb, sondern um das automatische Heruntertakten im Dual-Monitor Betrieb. Und das Tool ermöglicht es bei mir. Mir ist es im Grunde egal, wie es andere finden. Entweder man gibt sich damit zufrieden oder kauft andere Hardware.

r@h
2009-06-24, 07:40:58
Währe ja schön, wenn das ausschalten reichen würde, wobei ich den Sinn des zweiten Bildschirms nicht checke.
Ich hatte das hier und mir bringt es nichts.
Du "arbeitest" nicht wirklich mit dem Rechner, oder?
Sonst wäre Dir der "Sinn" vermutlich klar...

Vielleicht ist auch einfach die speicherbandbreite für 2 monitore im 2D-modus wirklich zu wenig.
Klar... :rolleyes:

Das Problem ist nur, dass wenn man den Takt manuell auf den 2D-Takt herunter regelt, noch immer alles so funktioniet, wie es soll... inkl. dem Decodieren von HD-Material, was wohl die größte "Belastung" im 2D-Betrieb sein sollte.

Nein, ein "Magel" an Bandbreite ist sicher nicht das Problem.
Und diesen Stand hat auch nVidia, nur gibt es (natürlich) noch immer keine Antwort darauf...

Es geht nicht um das generelle Untertakten im Single-Monitor Betrieb, sondern um das automatische Heruntertakten im Dual-Monitor Betrieb. Und das Tool ermöglicht es bei mir. Mir ist es im Grunde egal, wie es andere finden. Entweder man gibt sich damit zufrieden oder kauft andere Hardware.
Korrekt!

Aber trotzdem noch eine Frage: musst Du das bei JEDEM Rechner-Start machen, oder reicht dies einmal?

Razor

Grestorn
2009-06-24, 08:25:28
Wieso soll man das jedesmal neu einstellen müssen?

r@h
2009-06-24, 22:46:48
Wieso soll man das jedesmal neu einstellen müssen?
Oh mann...
Vorgehensweise ist bei mir: Im Single-Monitor Betrieb den 3D Takt ganz nach unten zu regeln und dann den zweiten Monitor dazuschalten. Das funktioniert bei mir prächtig...
Und Du fragst, "wieso"?
:rolleyes:

Razor

Grestorn
2009-06-25, 08:40:10
Oh mann...

Was, "Oh Mann"? Weißt Du nicht, wie man im RivaTuner die Taktprofile automatisch mit dem Systemstart aktivieren kann?

Dein Pferd ist so extrem hoch, dass offenbar die Luft da oben langsam dünn wird. Zunehmend unterträglich, Dein Gehabe. Wirklich.

r@h
2009-06-25, 08:52:21
Was, "Oh Mann"? Weißt Du nicht, wie man im RivaTuner die Taktprofile automatisch mit dem Systemstart aktivieren kann?

Oh ha... wir "reden" gar nicht mehr von vTune, sondern nun vom RT?
Interessant...

Offenbar ist bei Dir die Luft "da oben" so dünn geworden, dass Du den Boden nicht einmal mehr zur Kenntnis nimmst.
Schade... das war auch schon mal anders.

Razor

Grestorn
2009-06-25, 09:29:27
Dein Problem ist, dass Du einfach nicht normal mit Menschen reden kannst und mit Deinem Ton ("Oh Mann" statt einfach mal die Frage zu beantworten, es könnte ja evtl. sein, dass der andere was missverstanden hat) jeden damit automatisch aggresiv werden lässt. Deine Masche als Gast zu posten scheint auch nur dazu zu dienen, dass man Dich nicht ignorieren kann ohne gleich alle Gäste zu ignorieren.

Das erinnert mich wieder daran, warum ich eigentlich nicht mehr in Foren rumhängen wollte. Das kostet einfach zu viel Zeit und Nerven. Und die Razors der Welt sind das einfach nicht wert.

BK-Morpheus
2009-06-25, 11:24:58
Was, "Oh Mann"? Weißt Du nicht, wie man im RivaTuner die Taktprofile automatisch mit dem Systemstart aktivieren kann?
[...]

Kann ich denn mit dem Rivatuner den 2D Modus erzwingen im DualView-Betrieb?
Wäre super, denn momentan takte ich die Karte einfach über den Rivatuner mittels Shortcut runter auf 2D Takt, aber die GPU Spannung bleibt ja im 3D Modus :(

puntarenas
2009-06-25, 12:07:58
Ich möchte mal wieder einwerfen, dass die 2D-Modus-Automatik mit DualView leider auch unter Linux nicht funktioniert, genau wie beim Windows-Treiber also. Außerdem gibt es keine Möglichkeit den Powermizer explizit in den 2D-Modus zu zwingen, die Schalter funktionieren wohl nur bei einigen Mobil-GPUs (wenn überhaupt). Ich komme zum Glück nur sehr selten in diese Verlegenheit, es nervt trotzdem wenn ich einmal im Schaltjahr den TV-Ausgang meiner Karte benutze.

Die gute Nachricht, in den tiefen des Linuxforums bei Nvidia gab es eine Stellungnahme, dass in kommenden Treibern die Automatik überschrieben werden und man das Powermizer-Profil endlich jederzeit manuell switchen kann. Wenn der Linuxtreiber das demnächst (Monate?) können soll, dann der Windowstreiber allemal. Wird auch höchste Zeit, manuelle Taktprofile in Rivatuner sind oft keine Alternative zum richtigen 2D-Modus der Karten und unter Linux würde ich das Ding gern vom Systemstart weg auf den 2D-Modus festnageln, mehr brauche ich da nie.

Beispiel, wie es funktionieren sollte... (http://owened.net/2008/04/23/how-to-force-nvidia-powermizer-performance-in-linux)

r@h
2009-06-26, 09:00:31
...als Gast zu posten scheint auch nur dazu zu dienen, dass man Dich nicht ignorieren kann...
Na dann scheints Du im "Real-Life" aber auch Probleme zu haben...
...überlese doch einfach meine (und die anderen 'unpäßlichen') Kommentare!

Wenn Du Dich "genötigt" siehst, auf einen - für Dich - aggressiven Kommentar zu antworten, solltest Du Dich vielleicht fragen, ob Du nicht vielleicht doch das Problem ist... und nicht der Verfasser eines Kommentars. Nur als kleine psychologische Anregung verstehen, bitte...

Ich versuche zumindest im Kontext der Kommentare zu posten... bei Dir scheint dies nicht der Fall.
Und Du solltest Dir mal überlegen, warum das so ist.

Razor

r@h
2009-06-26, 09:11:57
Kann ich denn mit dem Rivatuner den 2D Modus erzwingen im DualView-Betrieb?
Wäre super, denn momentan takte ich die Karte einfach über den Rivatuner mittels Shortcut runter auf 2D Takt, aber die GPU Spannung bleibt ja im 3D Modus :(
Nein, der Treiber "bestimmt", auf welchem Performance-Level die Karte arbeiten soll... leider.
Und AFAIK kann man die Spannung (noch) nicht senken... aber wenn ich recht entsinne, soll das irgendwann mal funktioneren.

Allerdings habe ich noch immer ein Problem damit, 3rd party tools zu benutzen, um einen Fehler, den der Treiber macht, zu 'umgehen'.
(zumal der LowLevel-Driver vom RT auch so seine Macken hat, was aber nicht wirklich verwundert... verwundern kann)

@puntarenas

Dem kann ich nur zu 100% zustimmen!
Schön wäre das ja... vor allem, wenn man das dann auch mit den Desktop-Karten machen könnte.

Viel "fadenscheiniger" finde ich allerdings die Aussage von nVidia, dass "die Bandbreite" nicht genüge, um im 2D-Mode 2 Schirme anzusteuern... zumal die Realität belegt, dass eine auf 2D-Takt gezwungene Karte ABSOLUT keine Probleme mit 2 Displays hat... inkl. der wohl höchsten Anforderung im 2D-Modus: dem HD decodoeren.

Mir wäre die Spannungssenkung am wichtigsten, denn DAS schafft 'richtig'.

Habe das ausprobiert, indem ich eine GTX260 mal in allen Performance-Modi auf 2D-Takt und -Spannung gesetzt habe (also IMMER 300/600/250 mit 1.05V, statt maximal 626/1350/1107 mit 1.12V)... es funktionierte schlicht ALLES und der Idle-Verbrauch ging um satte 23W zurück.

Interessant war auch, dass auch der 3D-Takt mit nur 1.05V funktionierte... aber das war mir dann doch zu "suspekt".
(wollte die Karte ja schließlich zurück geben ;-)

Die Hoffnung stirbt zuletzt!

Razor

puntarenas
2009-06-26, 12:54:03
Mir wäre die Spannungssenkung am wichtigsten, denn DAS schafft 'richtig'.

[...]

Interessant war auch, dass auch der 3D-Takt mit nur 1.05V funktionierte... aber das war mir dann doch zu "suspekt".
(wollte die Karte ja schließlich zurück geben ;-)

Meine GTX280 läuft durch einen BIOS-Mod in allen Profilen dauerhaft bei 1,06V. Trotzdem schnellt der Idle-Verbrauch in die Höhe, wenn ein zweiter Monitor den 2D-Modus unterbindet. Auf die höheren Taktraten kann man >20W wohl kaum zurückführen, vermutlich fehlen auch (Teile des) ClockGating oder ähnliche Idle-Mechanismen außerhalb des 2D-Profils im BIOS.

Ich bin zuversichtlich (weil angekündigt), dass man das Profil bald erzwingen kann und dann ist das Problem Geschichte. Ich bin außerdem froh, dass Nvidia mich nicht kategorisch wie einen Idioten an eine Automatik fesselt. Es mag durchaus Probleme geben, die das bisherige Verhalten der Karten rechtfertigen und auch wenn es sich um seltene Sonderfälle handeln mag verstehe ich die Unternehmenssicht, dass man im Auslieferungszustand auf Nummer sicher geht. Wenn ich manuell den 2D-Modus erzwingen kann und damit auf ein Problem stoße, kann ich immer noch zur Automatik zurück und diese Wahlfreiheit kann man auch verlangen.

Argo Zero
2009-09-04, 09:26:48
Weißt Du vielleicht wo und wann Nvidia diese Meldung abgegeben hat?

Ganz nett wäre es ja schon, wobei die Karte selbst im Desktop-Betrieb, trotz 3D-Modus, unhörbar bleibt (74°C@25-30% Lüfter per Rivatuner Profil).

puntarenas
2009-09-04, 09:32:33
Irgendwo in den Tiefen des Nvidia-Linuxforums, konkret kann ich dir da leider nicht weiterhelfen. :redface:

Argo Zero
2009-09-22, 09:15:52
Der aktuelle NV Treiber aus dem Guru-Forum erbrachte bei mir leider keine Verbesserungen.
Wie schaut es denn bei euch aus? :)

AnarchX
2009-09-22, 09:40:25
Im Test zur neuen GeForce G210 hat PCGH sehr gut den Zusammenhang zwischen Taktrate und angeschlossenen Displays geklärt:
http://www.pcgameshardware.de/aid,694172/Geforce-G210-Nvidias-erste-DirectX-101-Karte-mit-GT218-Chip-im-Test/Grafikkarte/Test/

Offenbar eine sonderbare Hardwarelimitierung und die Lösung wäre eben eine "Dual-Link/Multi-Monitor-Taktstufe" wie bei der G210. Aber ob hier ein einfaches BIOS-Update reichen würde, ist wohl eher fraglich.

Argo Zero
2009-09-22, 10:02:18
Wenn ich den Text richtig verstehe, senkt sich der Takt in der PCGH auch mit zwei Monitoren ab? Zwar nicht vollständig aber wenigstens etwas und er geht in den idle-Modus.

Bei mir verbleibt die Karte allerdings im Performance-3D Modus, wie bei vielen anderen leider auch.

r@h
2009-09-23, 22:49:18
Im Test zur neuen GeForce G210 hat PCGH sehr gut den Zusammenhang zwischen Taktrate und angeschlossenen Displays geklärt:
http://www.pcgameshardware.de/aid,694172/Geforce-G210-Nvidias-erste-DirectX-101-Karte-mit-GT218-Chip-im-Test/Grafikkarte/Test/

Offenbar eine sonderbare Hardwarelimitierung und die Lösung wäre eben eine "Dual-Link/Multi-Monitor-Taktstufe" wie bei der G210. Aber ob hier ein einfaches BIOS-Update reichen würde, ist wohl eher fraglich.
Wie wir schön bei den "kaputten" Treibern sehen konnten, ist der Treiber für das "Herumgetakte" verantwortlich...
...nicht das Bios der Karte, welches nur die Takt-Stufen vorgibt.

Und "erklärt" wird da bei PCGH (wie üblich :rolleyes:) überhaupt nichts... sie beobachten nur.
Auch der GT200(b) hat 3 Taktstufen... aber ich dem "falchen" Bericht bei denen nicht noch mehr Gewicht beimessen.

Tests haben gezeigt, dass der GT200(b) ganz hervorragend mit den Takten des 2D-Mode (300/600/250) zurecht kommt... inkl. Video-Beschleunigung Vista/Win7 Desktoppeln in jeder Menge Internet. Es bleibt absoult unverständlich, warum hier der "echte" 2D-Modus verweigert wird.

Bei mir hat das eine "Verschwendung" von vollkommen überflüssigen 23W zur Folge... 120W im "echten" 2D-Modus (nur ein Bildschirm) und satte 143W im "full-power-Idle" Modus (2 Displays, egal in welcher Kombi - auch SD@720x576 und 17"-TFT@1280x1024).

Razor

r@h
2009-09-23, 22:52:04
Wenn ich den Text richtig verstehe, senkt sich der Takt in der PCGH auch mit zwei Monitoren ab?
Nein, sie haben (natürlich) nur ein Display getestet :rolleyes:
Dafür aber immerhin 3 unterschiedliche.

Razor

mFuSE
2009-09-24, 03:12:25
Wäre ansich eigentlich wirklich an der Zeit den idle Modus mit 2 Monitoren zu testen.
ATI selbst bewirbt mit ihrer neuen 5er Serie MultiMonitor ... wäre natürlich herrlich wenn mit mehr als einem Monitor der endlich funktionierende 2D Modus unter diesen Umständen versagt.


Kommt Zeit, kommt Rat .. und vll für Multimonotor User mal wieder ein interessantes Produkt.

Argo Zero
2009-09-24, 12:46:14
Wobei ATi mit anderen imo nervigeren Problemen zu kämpfen hat. Stichwort LUT und 2D / 3D Modus.

Gast
2009-09-24, 13:25:41
Auch der GT200(b) hat 3 Taktstufen... aber ich dem "falchen" Bericht bei denen nicht noch mehr Gewicht beimessen.

Und auch GT200 verwendet bei höheren Auflösungen den niedrigsten Takt nur mehr bei deaktiviertem Bildschirm.

Argo Zero
2009-09-25, 20:47:14
191.03 Beta - Bug besteht nach wie vor.

r@h
2009-09-30, 07:51:14
^^ den nVidia verlutlich auch nicht wird lösen "wollen"...

Hier noch mal mein Kommentar zu den ReleaseNotes des 191.03:
WinXP: http://us.download.nvidia.com/Windows/191.03/191.03_WinXP_Desktop_Release_Notes.pdf
Win7: http://us.download.nvidia.com/Windows/191.03/191.03_Win7_Desktop_Release_Notes.pdf
Known Product Limitations

This section describes problems that will not be fixed. Usually, the source of the
problem is beyond the control of NVIDIA. Following is the list of problems and where
they are discussed in this document:

---

Flat Panel Scaling Controls are Non-functional for Some TV Modes for Some Displays

The NVIDIA Control Panel flat panel scaling controls on the ʺAdjust Desktop Size &
Positionʺ page are not intended to be used for TV modes, and normally the controls
are not available for TV or HDTV displays.
However, Microsoft requires that certain TV/HDTV modes be available for all digital
displays, including DVI and HDMI, even if they are not HDTV.
While the NVIDIA flat panel scaling controls are available for those displays, they will
not be functional for the TV modes that appear in compliance with the Microsoft
requierements. The affected modes are as follows:
<blablupp>

GPU Runs at a High Performance Level in Multi-display Modes

Even when no 3D programs are running, the driver will operate the GPU at a high
performance level in order to efficiently drive multiple displays.
.
Das war's dann also...
- Scaling unter Vista/Win7: neuen Monitor kaufen!
- "full-power-idle-mode": nicht mehr als einen Moni benutzen!

Werde mir unter diesen Vorzeichen mal die neuen ATI Lösungen anschauen...

Razor

mFuSE
2009-09-30, 13:29:09
Da die neue 5er Serie tatsächlich sehr interessant ist, wäre ein Test der diesen Aspekt beleuchtet wünschenswert ^^

Argo Zero
2009-09-30, 16:38:44
Werde mir unter diesen Vorzeichen mal die neuen ATI Lösungen anschauen...[/i]

Razor

Nun ja.. ATi bekommt es schon seit Jahren nicht hin, einen Treiber zu basteln, der die Lookup-Tabelle in Ruhe lässt beim Wechsel in den 3D-Modus.
Das war für mich der entscheidende Grund zu Nvidia zu wechseln.

Ich finde es eigentlich nicht wirklich tragisch, dass die Grafikkarte im 3D-Modus läuft, zumal der GPU-Lüfter bei 25% verbleibt, trotz 3D-Modus.

r@h
2009-09-30, 23:31:13
Der Lüfter ist mir vollkommen wurscht... ist der verbaute zu laut, wird er durch eine effizientere Variante ersetzt.
Der Stromverbrauch in Idle (und nur im Idle) ist mir wichtig... einzig und allein.

Derzeit braucht mein Rechner, der durchaus mal einige Tage 24h läuft, 23W mehr für NICHTS.
DAS ärgert mich maßlos und wenn nVidia das nicht abstellt und ATI das "hinbekommt", dann wars das mit nVidia.
DAS weiß ich schon jetzt!

Razor

r@h
2009-09-30, 23:34:11
Ach ja...

Gemessen an den 120W, die der ganze Rechner sonst verbraucht, bedeuten die 23W mehr (also 143W gesamt) satte 20% Mehrverbrauch!
Nur um mal die Dimension zu verdeutlichen, um dies es geht... und nochmal: FÜR NICHTS!

Razor

Gast
2009-10-01, 08:31:15
Ach ja...

Gemessen an den 120W, die der ganze Rechner sonst verbraucht, bedeuten die 23W mehr (also 143W gesamt) satte 20% Mehrverbrauch!
Nur um mal die Dimension zu verdeutlichen, um dies es geht... und nochmal: FÜR NICHTS!

Razor

Ich versteh euch Leute wirklich nicht, ihr hänkt 2, ja 2 Bildschirme gleichzeitig an... und beschwert euch dann das eure Graka 20 W mehr zieht als mit einer? Ein TFT hat ja schon alleine zwischen 40-100W, das wären dann alleine beim Bildschirm schon 80-200W... das wären nach deiner Rechnung bis zu 200% Mehrverbrauch! Eure Einstellung ist schon ein wenig Pervers.

Was mich zum nächsten bringt:



OK, ich weiß, 140-150W ohne das der Rechner was tut, ist nicht so schön... aber das liegt an Netzteil und Board - was aber nicht hierher gehört.

Razor

Dein PC braucht 150 Watt ohne das er was tut? Aerger dich doch erstmal über sowas.

Was ich damit Sagen will ich Fahre ja auch keinen Porsche und reg mich auf das er n Benzinfresser ist weil ich immer Hochturig Fahre.

mFuSE
2009-10-01, 12:01:14
Der Punkt ist aber .. es funktioniert wunderbar auch mit Multi Monitor wenn man manuell runtertaktet.

Also nur reines Marketing Geblubber daß einem eine offensichtlicher fehlerhaft funktionierende Produkteigenschaft weich reden will.

Wer wäre da nicht sauer?



Und irgendwie will man mit dem sparen anfangen. Ich brauche den PC als Arbeitsstation, wegen lokaler VMs viel Ram. Diese sind dem zweiten Einsatzzweck, dem spielen auch nicht schädlich.

Ferner surfe, maile und schaue ich TV damit.

Nun könnte ich für letzteres einen kleinen MediaPC hinstellen .. müsste nur ständig hin und herschalten ... keine wirklich komfortable Lösung.


Schon klar das es die Eierlegende Wollmilchsau nicht gibt ... aber ... man kann zumindest versuchen sich eine zu machen :p


Wenn nun mit einem 2D Modus geworben wird, der aber nur unter bestimmten Voraussetzungen funktioniert ist das nichts anderes als ein Mangelhaft umgesetztes Feature ....

Grestorn
2009-10-01, 13:00:09
Der Punkt ist aber .. es funktioniert wunderbar auch mit Multi Monitor wenn man manuell runtertaktet.

Weißt Du das denn ganz sicher? Es kann ja irgendeinen Slowdown oder Grafikfehler in selten Kombinationen und Programmen geben. Ohne jeden Grund wird nVidia das nicht machen, warum sollten sie?

mFuSE
2009-10-01, 13:15:22
Weißt Du das denn ganz sicher?

Gut, ich kann natürlich nicht jede erdenkliche Konfiguration durchgetestet haben .. ergo - nein.

Es kann ja irgendeinen Slowdown oder Grafikfehler in selten Kombinationen und Programmen geben. Ohne jeden Grund wird nVidia das nicht machen, warum sollten sie?


Kann nVidia aber auch nicht. Klar ist von Problemen auszugehen, das wird aber nicht das Leittragende Motiv gewesen sein.
Kosten/Nutzen Faktor, ganz einfach. Momentan ist der Enthusiast privat Markt noch Single Desktop orientiert, mit den nVidia Quadro Karten mag das anders aussehen, vll funktioniert dort auch tatsächlich die Umschalterei.


Probleme mit einzelnen Anwendungen haben nVidia noch nie gestört. Nur haben sie mit mittlerweile hunderten Treiberrevisionen das ganze ganz gut im Griff ... vor par Jahren sah das noch ganz anders aus.


Vll auch ein Wechsel in der Produktpolitik, ich weiß es nicht. Für mich als Kunden ist es trotzdem ärgerlich auf ein Feature verzichten zu müssen daß bei ~70% der Kunden einwandfrei funktionieren würde...

Grestorn
2009-10-01, 13:21:15
Nochmal, warum sollte nVidia das ohne Grund machen? Es hat ja keinerlei Vorteile weder für nVidia noch für sonst jemanden. Und diese Abfrage musste man sicher extra programmieren im Treiber ("wenn 2 oder mehr Displays aktiv -> kein runtertakten").

mFuSE
2009-10-02, 15:57:37
so wird das sicherlich nicht funktionieren, da dürften andere Faktoren eine Rolle spielen.

Aber nichts genaues weiß man und ob's unter gewissen Konstellationen nicht doch funktioniert ist ja nicht ausgeschlossen ...



edit:
Noch einmal den ganzen Thread gelesen um nichts übersehen zu haben ... (Bei soviel lächerlichem Gezanke kann schonmal was wichtiges untergehen ...)


Frage:
Hat es jemand mit den Quadro Karten probiert? (Treiber/Hardware)
... Ärgerlich das mir das nicht früher aufgefallen ist, da hätte ich selbst leicht Zugang zu ner Quadro Karte gehabt ...





Edit2 und Frage 2:
Was ja eher zu vermuten ist, daß tatsächlich irgendeine Schwelle überschritten wird.
Hat jemand, der von diesem Problem betroffen ist z.b. mal zwei kleine Monitore mit einer geringen Auflösung ausprobiert?
Ich selbst habe leider nur meinen 24 und 21er hier ... ganz davon zu schweigen das ich ja noch ne G92 habe ;)

r@h
2009-10-04, 09:45:56
Dein PC braucht 150 Watt ohne das er was tut? Aerger dich doch erstmal über sowas.
Das war mit dem alten Netzteil... Antec TruePower 480 oder so.

Mit dem jetzigen NT beQuiet 550W "DarkPower" (Effizienz bei üblichen 86%!) sinds nur noch 120W...
...mit einem Moni und immerhin einem QuadCore, 4Gig Speicher, einem optischen LW, TV/Sound-Karten und 2 Festplatten.

Und der 2. Moni läßt das Ganze dann auf 143W steigen... knappe 20% mehr... nur weil nVidia das "so will".

Weißt Du das denn ganz sicher? Es kann ja irgendeinen Slowdown oder Grafikfehler in selten Kombinationen und Programmen geben. Ohne jeden Grund wird nVidia das nicht machen, warum sollten sie?
Weil sie keine Dev-Kosten mehr hinein stecken wollen?
"Der GT200 ist tot, lang lebe der GT300!"
That's it.

Und auch wenn Du die Frage immer wieder stellst, ohne sie selbst beantworten zu wollen:
JA, mit Idle-Takt und sogar weniger Spannung funzt unter 2D (inkl. Video-Beschleunigung & Co.) alles ganz genau so, wie es soll!

Probiers doch einfach selber aus, wenn Du das nicht glaubst... und DAS ist auch der Grund, warum das Ganze so unverständlich wird.

Frage:
Hat es jemand mit den Quadro Karten probiert? (Treiber/Hardware)
... Ärgerlich das mir das nicht früher aufgefallen ist, da hätte ich selbst leicht Zugang zu ner Quadro Karte gehabt ...
Ja, in der Firma nutzen wir AutoCAD und Inventor und somit auch Quadro-Karten.
Ist dort das gleiche Problem... 1 Moni = alles gut / 2 Moni = "full power".

Allerdings ist den Quadro-Nutzern dieses Verhalten schlicht egal.
Die interssiert der Stromverbrauch null-komma-nix, sondern ausschließlich, dass es mit den Anwendungen funkt...
...OK, zu laut dürfen sie nicht sein, aber das ist mehr eine Sache der Integration.

Edit2 und Frage 2:
Was ja eher zu vermuten ist, daß tatsächlich irgendeine Schwelle überschritten wird.
Hat jemand, der von diesem Problem betroffen ist z.b. mal zwei kleine Monitore mit einer geringen Auflösung ausprobiert?
Ich selbst habe leider nur meinen 24 und 21er hier ... ganz davon zu schweigen das ich ja noch ne G92 habe ;)
Ist das gleiche Prob... 1x 30" = 'perfekter' Idle Mode, 15" TFT & SDTV (1024x768 & 720x576) = "full-power-idle".

Bin echt mal gespannt, ob ATI das nun anders gelöst hat.
Leider gibt es noch immer keine Infos darüber... zumindest habe ich keine gefunden.

Razor

Grestorn
2009-10-04, 10:10:15
Weil sie keine Dev-Kosten mehr hinein stecken wollen?

Was für kosten sollen das sein, ein paar Zeilen Code zu ändern?

Und auch wenn Du die Frage immer wieder stellst, ohne sie selbst beantworten zu wollen:
JA, mit Idle-Takt und sogar weniger Spannung funzt unter 2D (inkl. Video-Beschleunigung & Co.) alles ganz genau so, wie es soll!

Probiers doch einfach selber aus, wenn Du das nicht glaubst... und DAS ist auch der Grund, warum das Ganze so unverständlich wird.

Ich habe das schon längst probiert und schon vor einer Weile auch schon länger so verwendet. Danke dass Du mich (mit Deinem letzten Satz) bestätigst. Es ist unverständlich und damit muss uns eine Information fehlen, damit es wieder verständlich wird.

Du kannst die grundsätzliche Funktionsfähigkeit in allen Situationen nicht damit belegen, in dem Du sagst, dass es bei Dir (oder bei x Personen) funktioniert. Ein einziger Fall, bei dem es Probleme macht, reicht um die ganze Argumentation zum Zusammenbruch zu bringen.

Das erinnert mich an die Leute, die ihr System übertakten, von Prime und was-weiß-ich-stable faseln, sich dann aber bitter beschweren, dass irgendein Game nicht funktioniert und sich dann auch noch erdreisten zu behaupten "Spiel x sei nicht OC kompatibel".

r@h
2009-10-04, 18:18:36
Ein einziger Fall, bei dem es Probleme macht...
...würde mir reichen, um es zu verstehen - offenbar gibt es diesen aber nicht.

So steht Deine Vermutung, dass es ein - wie auch immer - geartetes Problem in einer bestimmten Kostellation geben soll, konträr zu den ganzen positiven Erfahrungen, bei denen es keine Probleme gibt. So ist Deine nVidia-"Hörigkeit" zwar recht niedlich anzusehen, doch aber ob des reinen theoretischen Ansatzes Deiner Argumentation nicht wirklich zu verstehen.

Anders herum: zeige mir nur ein einziges Problem mit Low-Takt/Power und ich werde versuchen, Deiner Argumentation zu folgen.
Ansonsten ist das, was Du von Dir gibts, nichts anderes als 'ne Luftnummer... und so werde ich sie dann auch handhaben.

Razor

Argo Zero
2009-10-04, 21:24:52
Gibt es Seitens Rivatuner eigentlich ein Statement?
Die Lüfter, der Takt und viele andere Funktionen lassen sich mit dem Programm einstellen. Was fehlt, ist das manuelle oder per Profile hinterlegte wechseln des Taktmodus.

Grestorn
2009-10-04, 21:30:27
...würde mir reichen, um es zu verstehen - offenbar gibt es diesen aber nicht.woher nimmst Du bitte dieser Sicherheit? Von den 50 Hanseln die mit RT recht aufwendig untertakten?

Schrotti
2009-10-05, 00:15:49
Ach ja...

Gemessen an den 120W, die der ganze Rechner sonst verbraucht, bedeuten die 23W mehr (also 143W gesamt) satte 20% Mehrverbrauch!
Nur um mal die Dimension zu verdeutlichen, um dies es geht... und nochmal: FÜR NICHTS!

Razor

Ich werde auch so langsam sauer bei dem was du schreibst (und ich habe dich immer unterstützt wenn es um deine Treiberanalysen ging).

Dann dreh doch irgendwo in deiner Bude eine 60-100 Watt Glühlampe raus und ersetze diese durch eine Energiesparlampe mit 6W.

Dann hast du deine 23W Mehr Verbrauch auch wieder drin.

Wo ist das Problem?

r@h
2009-10-05, 07:16:01
Gibt es Seitens Rivatuner eigentlich ein Statement?
Die Lüfter, der Takt und viele andere Funktionen lassen sich mit dem Programm einstellen. Was fehlt, ist das manuelle oder per Profile hinterlegte wechseln des Taktmodus.
Der Takt alleine macht den Kohl allerdings nicht fett... die Spannungsabsenkung z.Bsp. fehlt noch.
Ausserdem sollte dies eine Standardfunktion des Treibers sein.

woher nimmst Du bitte dieser Sicherheit? Von den 50 Hanseln die mit RT recht aufwendig untertakten?
Und woher nimmst Du die Basis für Deine Behauptung?
Zeige mir auch nur ein Problem, welches mit "erzwungenem Idle-Mode" auftritt und ich nehme Dich ernst.
So aber sind Deine Versuche, das Fehlverhalten nVidias zu rechtfertigen, einfach nur lächerlich...

Ich kann wenigstens auf echte, eigene Erfahrungen zurück greifen... habe meine Karte mit den 2D-Werten über alle Taktstufen geflasht und dies mal eine Woche im Alltagsbetrieb ausprobiert. Habe Diskussionen im Netz darüber verfolgt und feststellen dürfen, dass es anderen genauso geht und ich habe das Thema direkt bei nVidia thematisiert.

Und was hast Du gemacht?
NICHTS!

Wo ist das Problem?
20% mehr Stromverbrauch, gemessen am GANZEN Rechner, 100% mehr, wenn Du nur die Grafikkarte betrachtest?
Und wieso bist Du der Meinung, dass in meinem Haushalt auch nur eine einzige "60-100 Watt Glühlampe" existiert?
Mann, mann, mann.

Razor

Grestorn
2009-10-05, 07:35:59
Ich rechtfertige garnichts. Ich nehme nur die Angabe von nVidia selbst ernst.

Es ist nicht so, dass es völlig unmöglich ist, dass nVidia unrecht hat. Ich halte es aber für unwahrscheinlich. Es gibt eben kaum einen Grund, warum nVidia eine solche Abfrage in Treiber einbaut (ich glaube nicht an ein Versehen) und sich dann ob der Anfragen auch noch veranlasst fühlt, ein offizielles Statement abzugeben. Man macht so etwas normalerweise nicht, ohne das es dafür eine Veranlassung gibt, schließlich vergrault man damit Kunden (Dich zum Beispiel).

Wir können die Diskussion einstellen, da Du es wie immer als völlig unmöglich betrachtest, dass es eine andere Wahrheit geben könnte, als die Deine.

r@h
2009-10-08, 07:51:30
Du betrachtest Deine Spekulation - und mehr ist es nicht - als "Wahrheit".
Und solange Du nicht bereit bist, Dich der Praxis zu widmen, sollten wir es dann auch dabei belassen...

Nur so viel: lange Zeit ist diese Problematik von nVidia höchstselbst als "todo" in den Realse Notes geführt wurden... was bei einer normalen Hardware-Restriktion sicherlich nicht der Fall gewesen wäre, oder?

Jetzt werden Stimmen laut, dass nVidia offenbar ganz andere Probleme in eigentlich allen Sparten ihres Tätigkeitsfeldes haben... klar, das sie R&D-Kosen reduzieren und "unwichtige" Dinge einfach im Raum hängen lassen. Absolut logisch und mit der "Wirklichkeit" überein zu bringen.

Wenn Du Deine "Spekulationen" für realistischer hälst - bitte.
Dann halte Dich aber bitte aus solchen Diskussionen heraus, wenn Du absolut KEINE Fakten beizutragen hast.

Danke.

Razor

Gast
2009-10-08, 08:46:35
Die Disskusion nervt langsam, lasst den Thread doch einfach sterben indem wir alle Razor ignorieren.
Hier wird aus einer Mücke ein Elephant gemacht, nur weil sich vielleicht 0.001% mit ner NV Karte und 2 Bildschrimen ärgern, wird NV das jetzt sicherlich nicht mehr Interessieren, da eh bald die neue Generation da ist, und damit verbunden neue wichtigere Todos...

es gibt nur 3 Möglichkeiten für dich, 1. 2en Bildschrim abhängen und über die ersparten 20 W freuen... plus die ersparten Stromkosten vom Bildschirm.
2. Mal überlegen wo im Haushalt sonst gespart werden kann damit du nicht arm wirst wegen den 20 W mehrverbrauch deines PCs. und 3. Deinen PC nie mehr anschalten, denn da Sparst du Unglaubliche 143 W.

mFuSE
2009-10-08, 14:30:07
Die Disskusion nervt langsam, lasst den Thread doch einfach sterben indem wir alle Razor ignorieren.
Hier wird aus einer Mücke ein Elephant gemacht, nur weil sich vielleicht 0.001% mit ner NV Karte und 2 Bildschrimen ärgern, wird NV das jetzt sicherlich nicht mehr Interessieren, da eh bald die neue Generation da ist, und damit verbunden neue wichtigere Todos....

BlaBla?



Lustigerweise gibt es hier im Forum einen Poll indem man ganz gut sieht das nichtmal die Minderheit aufn MultiMonitor setzt, was mich auch überrascht hat.

Genauso könntest du argumentieren SLI/CrossFire intressiert doch keine Sau.

Leider zeigt sich, wird über was nicht konsequent gemeckert wird das Problem nie behoben. Das ist das einzige was man zu diesem Thema mit absoluter Sicherheit sagen kann.


Ich würde sagen, von dem Makel keinen 2D Modus bei MultiMonitor zu haben könnten mehr Leute betroffen sein als von dem Mikroruckler Problem.



Aber richtig ... leider gibt es in dem Thread wieder viel zu viel Gelaber und starrsinniges beharren auf den eigenen Argumenten, auch der Umgangston könnte durchaus höflicher sein.


Was für kosten sollen das sein, ein paar Zeilen Code zu ändern?

So langsam glaube ich du hast von all den Prozessen nicht im entferntesten ne Ahnung, kann das sein?

Zwar unterscheidet sich so ein Software Engineering Prozess bei jeder Firma, aber ich denke man kann ruhig davon ausgehen daß es bei nVidia so nicht zugehen dürfte:

Ein fröhlich, lustiger nVidia Mitarbeiter hopst mal kurz zu seinem Arbeitsplatz, öffnet im NotePad ne "2d_modus.txt" und ändert "mal kurz par Zeilen Code"


Jetzt werden Stimmen laut, dass nVidia offenbar ganz andere Probleme in eigentlich allen Sparten ihres Tätigkeitsfeldes haben... klar, das sie R&D-Kosen reduzieren und "unwichtige" Dinge einfach im Raum hängen lassen. Absolut logisch und mit der "Wirklichkeit" überein zu bringen.

Richtig .. Kosten, das ist alles und ganz einfach.


Das einzige was hilft: Zu erkennen geben daß dies ein Problem ist das man gelöst sehen will. Wenn der Kunde nicht meckert wird das schon nicht so wichtig sein.


Meinem Anforderungsprofil nach z.b. kann man die Mikroruckler Problematik ruhig in der Schublade versauern lassen, ich werde mir sowas sowieso nicht zulegen. Habe aber kein Problem damit wenn das doch angegangen da es einige User wohl doch extrem stört.

Aber - dann möchte ich auch mein Problem aus der Welt sehen. Ansonsten wird das Produkt einfach nicht gekauft, ganz einfach.

Aber der momentane Stand, daß man nichtmal genau weiß welches Produkt wie genau betroffen ist ...




Ich rechtfertige garnichts. Ich nehme nur die Angabe von nVidia selbst ernst.

Es ist nicht so, dass es völlig unmöglich ist, dass nVidia unrecht hat. Ich halte es aber für unwahrscheinlich. Es gibt eben kaum einen Grund, warum nVidia eine solche Abfrage in Treiber einbaut (ich glaube nicht an ein Versehen) und sich dann ob der Anfragen auch noch veranlasst fühlt, ein offizielles Statement abzugeben. Man macht so etwas normalerweise nicht, ohne das es dafür eine Veranlassung gibt, schließlich vergrault man damit Kunden (Dich zum Beispiel).


Wieso gehst du so stur davon aus dieser Fehlerhafte 2D Modus ausschließlich durch eine explizit gesetzte Treiberoption hervorgerufen wird?


Diese Aussage führt nämlich zu einem ganz anderen Bild: Es ist kein Bug sondern so gewollt. Dann würde aber nVidia daß nicht selbst als Bug aufführen.


Es kann gut sein, daß die in Hradware verdrahteten idle Methoden noch ganz andere Sachen verstellen, alsdass was man Software mäßig mit dem RT an Takt verstellen kann.


So ein Problem wäre auch denkbar geeignet totgeschwiegen zu werden - weil fehlerhaft funktionierende Hardware läßt sich schlimmstenfalls durch keinen Softfix beheben.

Anderseits erfordert sowas einen erheblichen EValierung, Test und Implementationsaufwand und ist eben nicht "mal kurz par Zeilen Code umschreiben".

AnarchX
2009-10-08, 16:25:28
HD 5000 scheint keine Alternative für Multi-Monitor User zu sein, die Wert auf einen niedrigen Idle-Verbrauch legen:
http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index4.php
... aber vielleicht lässt sich hier wenigstens mit Software etwas nachjustieren.

Grestorn
2009-10-08, 19:48:10
So langsam glaube ich du hast von all den Prozessen nicht im entferntesten ne Ahnung, kann das sein?

Mein lieber, schreib so etwas nicht, wenn Du nicht weißt mit wem Du es zu tun hast...

Ich fürchte ich weiß viel mehr über die Prozesse in Konzernen, die um ein Vielfaches größer sind als nVidia.

Was Du aber übersiehst: Es sind trotzdem nur ein paar Zeilen Code. Das mag in einem großen Konzern natürlich einen gewissen Aufwand bedeuten - ein CR-Prozess oder in diesem Fall eher ein Fehlerticket - aber im Vergleich zu anderen Änderungen, die tagtäglich im Treiberteam bearbeitet werden, ist das dennoch schlicht und einfach Peanuts.

Du hast Dich mit Deinem Posting leider nicht als der große Checker geoutet, als den Du Dich hingestellt hast.

Richtig .. Kosten, das ist alles und ganz einfach.Ist Dir schon mal aufgefallen, was sich ständig im Treiber ändert? Das kostet alles um ein Vielfaches mehr. Und stellt die Anwender bestimmt nicht mehr zufrieden als ein funktionierendes PowerSafe mit Multimonitor.

Das einzige was hilft: Zu erkennen geben daß dies ein Problem ist das man gelöst sehen will. Wenn der Kunde nicht meckert wird das schon nicht so wichtig sein.

Schalt HIRN ein. nVidia hat eben mit viel Aufwand eine Steuerung für das PowerSafe mit unterschiedlicher Behandlung von Applikationen eingebaut. Ist Dir klar wie groß der Aufwand dafür ist, verglichen mit einer einfachen Fehlerkorrektur (wenn es ein Fehler wäre) im Multimonitor Betrieb?


Wieso gehst du so stur davon aus dieser Fehlerhafte 2D Modus ausschließlich durch eine explizit gesetzte Treiberoption hervorgerufen wird?
Weil nVidia das explizit in den Treibernotes schreibt?! Kein Powersafe bei mehr als einen Monitor (nur darum geht's).

Ich hatte schon vorher nicht an einen Fehler mehr geglaubt, zu lange ist dieses Verhalten im Treiber, obwohl sich ansonsten ständig etwas am PowerSafe verändert hat.

Im Übrigen stellt sich eben heraus, dass der HD5xxx genau das selbe Verhalten zeigt und es gibt auch ein Statement von ATI zu dem Thema.

puntarenas
2009-10-08, 20:34:31
Könnte das hier auch als Begründung für Nvidia herhalten?

HT4u mit einem wirklich tollen Test, der sich mit Leistungaufnahme (mit mehr als einem Monitor), Crossfire und SSAA beschäftigt:
http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/

Hier ist auch noch die Erklärung von Dave Baumann, warum der Idle-Verbrauch bei mehr als einem Display deutlich ansteigt:

This has always been the case with PowerPlay. To change memory speeds you do it within a VBLANK of the panel, but to do that with two panels is difficult as the panels can be timed differently and hence you'll see flickering on at least one when the speed changes.

I'm not sure where you are getting that it consumes more than RV790 (with dual panel) in this case - the memory PHY's are actually more efficient.

http://forum.beyond3d.com/showpost.php?p=1340257&postcount=203

Nun gut, das mögliche Flackern bei Taktwechseln auf mindestens einem der angeschlossenen Monitore mag unschön sein (oder gar gegen irgendwelche Microsoft-Spezifikationen/WHQL-Anforderungen verstoßen?), aber eine Möglichkeit den Treiber per Registry-Setting "kaputt" zu machen und das Flackern bewusst in Kauf zu nehmen, wäre den Meisten wohl sehr lieb.

Mr.Magic
2009-10-08, 20:53:04
Lustigerweise gibt es hier im Forum einen Poll indem man ganz gut sieht das nichtmal die Minderheit aufn MultiMonitor setzt, was mich auch überrascht hat.

Poll falsch gelesen?

Benutze mehrere Bildschirme: 142
Benutze grundsätzlich nur einen Monitor: 96

AnarchX
2009-10-08, 21:00:52
Könnte das hier auch als Begründung für Nvidia herhalten?

Bei der G210 hat aber Nvidia auch einen unterschiedlichen Speichertakt bei Multimonitor und 3D:
http://www.pcgameshardware.de/aid,694172/Geforce-G210-Nvidias-erste-DirectX-101-Karte-mit-GT218-Chip-im-Test/Grafikkarte/Test/

Mal sehen wie es bei der GT 220 hier aussieht, die schnelleren DDR3 verwendet.

puntarenas
2009-10-08, 21:07:20
Dann kann man die Dave Baumann Erklärung wohl nicht so einfach auf alle GPUs münzen. :confused:

mFuSE
2009-10-08, 21:35:04
Du hast Dich mit Deinem Posting leider nicht als der große Checker geoutet, als den Du Dich hingestellt hast.

Habe ich das tatsächlich getan?
Wenn ja, bitte die entsprechende Stelle zitieren.

Aber gut daß hier wenigstens einer Ahnung hat wie es bei Nvidia so läuft. ;D

Poll falsch gelesen?

Benutze mehrere Bildschirme: 142
Benutze grundsätzlich nur einen Monitor: 96

Nein, aber unglücklich formuliert.
Ich ging ursprünglich davon aus daß Mehrschirm Betrieb beim HeimUser der Ausnahmefall ist und bestenfalls eine Randgruppe darstellt (Wie einem einige Leute hier in diesem Thread auch suggerieren wollen).

daher sollte die Minderheit als verneinte Aussage dastehen.



Leider gibt es zu diesem Themenbereich weiterhin nur viele Spekulationen und wenig echte Fakten, aber immerhin - endlich hat es mal jemand "schwarz auf weiß" getestet! =)

AMD erklärte uns dazu, dass man den Speichertakt nicht problemlos absenken kann, wenn zwei Monitore gleichzeitig betrieben werden. Dabei käme es unter Umständen zu einem Bildflackern bei GDDR5-Speichern. Der Umstand, warum man dennoch auch die GPU-Taktrate und die Spannungen hierzu erhöhen muss, konnte man uns plausibel bislang nicht beantworten.

Scheint mit *DDR3 ja ähnlich zu sein ....

Aber wenn ausschließlich die Taktrate des Speichers schuld sein soll ist dies eine äußerst schwache Ausrede ... denn das dies funktioniert zeigt der Test mit dem manuellen Absenken des Taktes.(@Grestorn, ja.. wir haben an dieser Stelle geklärt daß die Handvoll Leute mit RivaTuner stellvertretend für alle User stehen :rolleyes: )

Grestorn
2009-10-08, 22:07:38
Habe ich das tatsächlich getan?
Wenn ja, bitte die entsprechende Stelle zitieren.
Na damit natürlich:

"So langsam glaube ich du hast von all den Prozessen nicht im entferntesten ne Ahnung, kann das sein?"

Du unterstellst ich hätte keine Ahnung von Prozessen, von denen Du natürlich total bescheid weißt. Vorsicht mit solchen Aussagen, wenn man das Gegenüber nicht kennt, das habe ich ja schon geschrieben.

Aber gut daß hier wenigstens einer Ahnung hat wie es bei Nvidia so läuft. ;D

Im Gegensatz zu anderen habe ich nie behauptet es zu wissen. Ich habe nur geschrieben, was für mich schlüssig ist und was nicht. Aber Du hast wohl Recht: Ich denke durchaus, dass ich eine Ahnung davon habe, wie es bei nVidia läuft. Ich glaube sogar, mehr Ahnung als Du.

AnarchX
2009-10-08, 22:07:44
Dann kann man die Dave Baumann Erklärung wohl nicht so einfach auf alle GPUs münzen. :confused:
Von zwei Transmittern für ein Display auf zwei Transmitter für zwei Displays kann man wohl doch nicht so einfach übertragen.

This is the case irrespective of the RAM and has always been the case. MCLK switching is timed to be done within a VBLANK of the LCD; more than one LCD you can have different timing between them so you end up with one of them flashing whenever an MCLK switch occurs.
Da heißt wohl nur die Wahl zwischen Flackern oder Speicher und Kontroller auf voller Leistung auf dem Desktop.

puntarenas
2009-10-08, 22:18:23
Da heißt wohl nur die Wahl zwischen Flackern oder Speicher und Kontroller auf voller Leistung auf dem Desktop.
Na gut, wenn du mir die Wahl lässt, wähle ich das Flackern. Wir reden doch bei "MCLK switch" von den seltenen Taktwechseln des Speichers wie man sie beispielsweise in Rivatuner schön beobachten kann oder ist das ein ständiger Prozess und damit Dauerflackern?

AnarchX
2009-10-08, 22:26:19
Das Flackern passiert nur, wenn das Display zum Speichertaktwechsel auf den Speicher zugreift. Wenn man Glück hat und beide Displays synchron laufen, dann gibt es gar kein Flackern. Aber dieser Fall ist wohl eher sehr unwahrscheinlich.

Fragt sich nur wann der Speichertakt erhöht werden muss, vielleicht schon bei der Beschleunigung eines Videos.
edit:The 5870 employs multiple clock profiles for differing usage scenarios: ... 400E/900M for video decoding
http://www.beyond3d.com/content/reviews/53/3

Das wäre dann natürlich der Worstcase: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7580545#post7580545 ... ausgelöst durch Opera und Flash-Werbung. X-(

LovesuckZ
2009-10-08, 22:33:44
Hybrid-Power war eben der einzige Weg, um solchen Mist aus dem Weg zu gehen. Aber es sollte nicht sein.

AnarchX
2009-10-08, 22:36:27
Mit den IGP-CPUs könnte dieser Ansatz wohl wieder aufleben, auch wenn man auf einen IGP-Quad(Sandy Bridge) bis Ende 2010 warten muss.

LovesuckZ
2009-10-08, 22:40:08
Mit den IGP-CPUs könnte dieser Ansatz wohl wieder aufleben, auch wenn man auf einen IGP-Quad(Sandy Bridge) bis Ende 2010 warten muss.

Angeblich arbeitet nVidia mit Intel zusammen, um auf Intel-IGPs eine Hybrid-Power ähnliche Funktion zur Verfügung zu stellen:

http://www.rage3d.com/board/showpost.php?p=1336039848&postcount=17
http://forum.beyond3d.com/showpost.php?p=1345052&postcount=2

AnarchX
2009-10-08, 22:43:17
Switchable Graphics für mobile NV- und AMD-GPUs gibt es schon jetzt:
http://www.pcmag.com/article2/0,2817,2335861,00.asp

LovesuckZ
2009-10-08, 22:44:00
Switchable Graphics für mobile NV- und AMD-GPUs gibt es schon jetzt:
http://www.pcmag.com/article2/0,2817,2335861,00.asp

Ja - aber es soll in den Desktopmarkt kommen.

mFuSE
2009-10-08, 23:45:18
Na damit natürlich:

"So langsam glaube ich du hast von all den Prozessen nicht im entferntesten ne Ahnung, kann das sein?"

Nungut.. seh ich zwar nicht so Recht daß ich mit dieser Aussage auch gleich unterstelle ich hätte den totalen Durchblick ... aber ok .. wenn du meinst ...

Du unterstellst ich hätte keine Ahnung von Prozessen, von denen Du natürlich total bescheid weißt. Vorsicht mit solchen Aussagen, wenn man das Gegenüber nicht kennt, das habe ich ja schon geschrieben.


Im Regelfall ist deine letzte Aussage richtig.
Aber aufgrund dem was ich von dir hier lese läßt es mich weiterhin nicht an meiner ursprünglichen Aussage zweifeln.


Naja .. lassen wir das ... wiedermal hat diese Diskussion nicht das geringste mit dem eigentlichen Threadthema zu tun.




Das Flackern passiert nur, wenn das Display zum Speichertaktwechsel auf den Speicher zugreift. Wenn man Glück hat und beide Displays synchron laufen, dann gibt es gar kein Flackern. Aber dieser Fall ist wohl eher sehr unwahrscheinlich.

Mit einer entsprechenden Modeline müsste man das ja aber doch sicherstellen können, oder?
Gut, die meisten dürften allerdings unterschiedliche Monitore mit unterschiedlicher Auflösung haben (so wie ich auch). Soweit allerdings auch keine Probleme erkennbar.

Fragt sich nur wann der Speichertakt erhöht werden muss, vielleicht schon bei der Beschleunigung eines Videos.


Zum selbst ausprobieren:
http://www.microsoft.com/windows/windowsmedia/musicandvideo/hdvideo/contentshowcase.aspx

das encoden über die GPU läuft selbst bei Minimaltaktraten flüssig und ohne nennenswerte CPU Last.

Das allein kann es also nicht sein. YouTubeHD zeigte sich auch unbeeindruckt .. aber noch ist ja Flash nicht GPU beschleunigt.

reunion
2009-10-09, 07:37:28
Dann kann man die Dave Baumann Erklärung wohl nicht so einfach auf alle GPUs münzen. :confused:

Alles eine Frage der Ausgangsposition. Wenn ich natürlich auch mit einem Monitor keinen vernünftigen idle-Modus habe, brauche ich mit zwei auch kaum mehr Strom. Siehe RV770, da bekommt man einen zweiten Monitor "for free".

Grestorn
2009-10-09, 07:48:14
Nungut.. seh ich zwar nicht so Recht daß ich mit dieser Aussage auch gleich unterstelle ich hätte den totalen Durchblick ... aber ok .. wenn du meinst ...

Man kann kaum jemand anderen hämisch darauf hinweisen, wie wenig er von den so komplexen Prozessen in der professionellen SW-Entwicklung verstehen würde, ohne selbst den Anspruch auf entsprechende Kenntnisse zu erwecken, oder?

Aber aufgrund dem was ich von dir hier lese läßt es mich weiterhin nicht an meiner ursprünglichen Aussage zweifeln.Ah ja. Wie wär's mit nem Argument? Hast Du überhaupt verstanden, was ich geschrieben habe?

Naja .. lassen wir das ... wiedermal hat diese Diskussion nicht das geringste mit dem eigentlichen Threadthema zu tun.
Dann fang in Zukunft so nen scheiß unterhalb der Gürtellinie auch erst gar nicht an, ok? Hier werden Argumente ausgetauscht und keine personal Flames. Und damit hast Du angefangen.

r@h
2009-10-09, 08:07:42
So langsam glaube ich du hast von all den Prozessen nicht im entferntesten ne Ahnung, kann das sein?

Zwar unterscheidet sich so ein Software Engineering Prozess bei jeder Firma, aber ich denke man kann ruhig davon ausgehen daß es bei nVidia so nicht zugehen dürfte:

Ein fröhlich, lustiger nVidia Mitarbeiter hopst mal kurz zu seinem Arbeitsplatz, öffnet im NotePad ne "2d_modus.txt" und ändert "mal kurz par Zeilen Code"
Eben... Grestorn ist halt ein Hobby-Programmierer und versucht nun, sich einen professionellen Anstrich zu geben.
Als ich das las, dachte ich mir nur meinen Teil und habe es einfach ignoriert...

Richtig .. Kosten, das ist alles und ganz einfach.

Das einzige was hilft: Zu erkennen geben daß dies ein Problem ist das man gelöst sehen will. Wenn der Kunde nicht meckert wird das schon nicht so wichtig sein.
Oder eben zumindest eine plausible Erklärung, warum das so ist.

Bei nVidia wird dieses "Verhalten" monatelang als "open issue" geführt (davor schlicht ignoriert), um schlussendlich lediglich zu sagen, dass dieses Problem nicht behoben werden wird und es eigentlich ja auch gar keines ist.

Nun gut, das mögliche Flackern bei Taktwechseln auf mindestens einem der angeschlossenen Monitore mag unschön sein (oder gar gegen irgendwelche Microsoft-Spezifikationen/WHQL-Anforderungen verstoßen?), aber eine Möglichkeit den Treiber per Registry-Setting "kaputt" zu machen und das Flackern bewusst in Kauf zu nehmen, wäre den Meisten wohl sehr lieb.
Na ja... vor allem, wenn es einfach keinen "Taktwechsel" im normalen 2D-Alltag gibt.
Und da es ja bei ATI (im Low3D-Mode) offensichtlich auch funzt, ohne solche Effekte hervor zu rufen, halte ich das ohne bestätigte Fakten für sehr spekulativ.

Benutze mehrere Bildschirme: 142
Benutze grundsätzlich nur einen Monitor: 96
Er hat es schon richtig gelesen... MultiMon-User sind eben nicht in der Minterheit... ganz im Gegenteil.
Er hat es nur etwas unglücklich ausgedrückt...
(ups - hat er selbst schon richtig gestellt ;-)

HAber wenn ausschließlich die Taktrate des Speichers schuld sein soll ist dies eine äußerst schwache Ausrede ... denn das dies funktioniert zeigt der Test mit dem manuellen Absenken des Taktes.
Allerdings...
Und auch das kann jeder mal selbst ausprobieren: das reine Absenken des Speichertalktes bringt schlicht NICHTS.
OK, vielleicht ist es tatsächlich mal ein halbes Watt weniger, aber die GPU-Spannung und der GPU-Takt, wie auch andere Mechanismen spielen hier die Musik.

Ich vermute einfach mal, dass dieses Verhalten im MultiMon-Betrieb und dem daraus resultierenden Fehlen des 2D-Modus nicht im Focus der Devs stand und nun die Hersteller "überrollt"... hoffen wir also, dass sie daraus lernen, wenn dies nun öffentlich disktiert und wie die als nicht so wichtig erachtete Bildqualität an den Pranger gestellt wird. Die läßt dann zumindest in Zukunft auf effiziente Produkte hoffen... wie dies bei Prozessoren ja auch geschehen ist.

HD 5000 scheint keine Alternative für Multi-Monitor User zu sein, die Wert auf einen niedrigen Idle-Verbrauch legen:
http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index4.php
... aber vielleicht lässt sich hier wenigstens mit Software etwas nachjustieren.
Bin gerade am "konsumieren" dieses Artikels... und "Oh-Wunder" wird diese Thematik gleich zu Beginn des Artikels behandelt!

Bravo HT4U!
Dies ist die EINZIGE Methode, den Herstellern systematisch zu zeigen, dass da was im Argen liegt!

Dass es bei ATI noch krasser ist, als bei nVidia, ist allerdings bedenklich.
Die Leistungsaufnahme der GTX275 dürfte meiner OC'en 260² ziemlich gleich kommen:

- GTX275 2D 'normal' ~ 35W
- GTX275 2D 'multimon" ~ 57W = + 22W = + 63% Mehverbrauch

- HD5870 2D 'normal' ~ 21W
- HD5870 2D 'multimon" ~ 52W = + 31W = + 150% Mehverbrauch!
(mal ganz von dem krassen Lautstärke-Verhalten hierbei abgesehen *grunz*)

Und Letzteres sogar im "Low-3D-Bereich", nicht einmal im "full-Power-3D-Takt", wie dies bei nVidia der Fall ist!
Da muss man nVidia ja sogar zugestehen, hier den effizenteren "Stromverschwendungs-Mechanismus" zu hben :rolleyes:

Mann-o-mann... ich sehe da schwarz für eine "blaue" Zukunft.
Für Firmen-Umgebungen haben sich diese Lösungen dann schon mal eindeutig disqualifiziert...

Also mal schaun', was die GT300/G100-Zukunft so bringt!

Razor

P.S.: auch interessant, gell?

Die neue Architektur wird intern mit '100' geführt... und an die G8x und G9x-Serie wird sich ja vielleicht noch der eine oder andere erinern. damit ist es amtlich: der GT200(b) ist lediglich ein "Seitenprodukt", der nVidia derzeit (finanziell) auch noch verdammt viel Schwierigkeiten macht... man nehme einen G92, pumpe ihn kräftig auf und stecke da noch ein paar Dinge aus der aktuellen Entwicklung hinein (die mit dem G100 ja schon locker 4 Jahre anhält). Bringe dieses Zeug als Übergangslösung und sehe die Konkurrenz fröhlich an einem vorbei ziehen, weil sie sich mit dem "neuen" einfach vollkommen übernommen haben... OK, die Sim-Maschienchen funzten, aber fertiges Silizium gab es net - shit happens? :)

Trotzdem hoffe ich, dass sie dieses "Transistoren-Monster" so konzipiert haben, dann man davon auch 'ne Menge abschalten kann, wenn es nicht gebraucht wird. Sonst heißt es: Renderfarmen hui! Consumer/Business-Market pfui... wäre schade.

P.P.S.: ein einfacher Schalter im Task-Symbol würde vollkommen reichen: "Keep LowPower-Mode"

Der ist per default deaktiviert und kann benutzt werden, wenn man der Meinung ist, ihn zu benötigen...
...Dinge können wirklich SO EINFACH sein

Ich bin wirklich mal gespannt, ob einer der beiden Hersteller dies mal aufnehmen wird.
Und dass dieser Schalter nun dann aktiv oder angezeigt wird, wenn mehr als ein Display angeschlossen ist, versteht sich ja von selbst :up:

-

Zu guter Letzt: Danke puntarenas und AnarchX, dass Ihr hier Diskussionen anderer Foren mit ins Spiel bringt!

reunion
2009-10-09, 08:12:34
Dass es bei ATI noch krasser ist, als bei nVidia, ist allerdings bedenklich.
Die Leistungsaufnahme der GTX275 dürfte meiner OC'en 260² ziemlich gleich kommen:

- GTX275 2D 'normal' ~ 35W
- GTX275 2D 'multimon" ~ 57W = + 22W = + 63% Mehverbrauch

- HD5870 2D 'normal' ~ 21W
- HD5870 2D 'multimon" ~ 52W = + 31W = + 150% Mehverbrauch!
(mal ganz von dem krassen Lautstärke-Verhalten hierbei abgesehen *grunz*)

Und Letzteres sogar im "Low-3D-Bereich", nicht einmal im "full-Power-3D-Takt", wie dies bei nVidia der Fall ist!
Da muss man nVidia ja sogar zugestehen, hier den effizenteren "Stromverschwendungs-Mechanismus" zu hben :rolleyes:


Wenn eine deutlich schnellere HD5870 mit einem Monitor erheblich und mit zwei immer noch um einiges weniger Strom im idle benötigt wie eine GTX275 dann hat NV den besseren idel-Modus? Das muss man wohl nicht verstehen. Wie ich schon vorher schrieb: Alles eine Frage der Ausgangsposition.

Grestorn
2009-10-09, 08:24:51
Eben... Grestorn ist halt ein Hobby-Programmierer und versucht nun, sich einen professionellen Anstrich zu geben.
Als ich das las, dachte ich mir nur meinen Teil und habe es einfach ignoriert...

Weißt Du, ich habe es nicht nötig mit meinem Beruf und meinen Kenntnissen zu prahlen, dazu stehe ich zu fest im Leben. Eure Versuche sind ehrlich gesagt recht armselig. Wenn einem kein Argument mehr einfällt, dann wird versucht das Gegenüber auf persönlichem Level niederzumachen, darin bist speziell Du Meister.

Nur ausgerechnet jemanden, der seit seinem Abschluss als Dipl. Inf. 1996 ohne Unterbrechung in der Branche arbeitet, seit 2001 als freiberuflicher Entwickler für mehrere Weltkonzerne tätig ist und dabei als Einzelperson einen 6-stelligen Jahresumsatz erzielt, so anzugehen ist schon etwas lustig (sorry, jetzt hab ich ja doch geprahlt... :) ). Wer mir nicht glaubt kann sich gern über mich informieren, mein Name ist ja kein Geheimnis.

AYAlf_2
2009-10-09, 09:08:00
Dass es bei ATI noch krasser ist, als bei nVidia, ist allerdings bedenklich.
Die Leistungsaufnahme der GTX275 dürfte meiner OC'en 260² ziemlich gleich kommen:

- GTX275 2D 'normal' ~ 35W
- GTX275 2D 'multimon" ~ 57W = + 22W = + 63% Mehverbrauch

- HD5870 2D 'normal' ~ 21W
- HD5870 2D 'multimon" ~ 52W = + 31W = + 150% Mehverbrauch!
(mal ganz von dem krassen Lautstärke-Verhalten hierbei abgesehen *grunz*)

Und Letzteres sogar im "Low-3D-Bereich", nicht einmal im "full-Power-3D-Takt", wie dies bei nVidia der Fall ist!
Da muss man nVidia ja sogar zugestehen, hier den effizenteren "Stromverschwendungs-Mechanismus" zu hben :rolleyes:


Milchmaedchen laesst gruessen! ;D

S940
2009-10-09, 09:28:50
Michlmaedchen laesst gruessen! ;DVielleicht gibts für die Mädels ja demnächst einen neuen Catalyst pink edition der die letzten Stromsparmodi ausläßt, bereits mit 1 Monitor (wieder) 50W verbrät, und dann nur spitzenverdächtige ~3% Mehrverbrauch durch den 2 Monitor aufweist. :freak:

Manche Leute haben echt Probleme ... :wink:

ciao

Alex

AYAlf_2
2009-10-09, 14:55:30
Vielleicht gibts für die Mädels ja demnächst einen neuen Catalyst pink edition der die letzten Stromsparmodi ausläßt, bereits mit 1 Monitor (wieder) 50W verbrät, und dann nur spitzenverdächtige ~3% Mehrverbrauch durch den 2 Monitor aufweist. :freak:

Manche Leute haben echt Probleme ... :wink:

ciao

Alex
extra nur fuer dich ... http://de.wikipedia.org/wiki/Milchm%C3%A4dchenrechnung

Armaq
2009-10-09, 17:09:50
So langsam sollten alle darauf kommen, dass diese Dinge beabsichtigt wurden. Es ist kein Versagen o.ä.

Wenn man hier manche Kommentare liest, möchte man weinen vor lachen und vor der puren Unkenntnis gepaart mit lächerlicher Selbstüberschätzung.

Die verantwortlichen Personen halte ich für relativ qualifiziert. Das Thema ist jetzt auch schon mehr als einmal durch die Presse gegangen. Beide Hersteller bieten diese Funktion an, verzichten bei zwei Monitoren aber. Die selbsternannten Experten sollten auf den Boden der Tatsachen zurück kommen und ihr Selbstbild gründlich überprüfen, denn es ist schlicht falsch.

r@h
2009-10-10, 09:15:50
Wenn eine deutlich schnellere HD5870 mit einem Monitor erheblich und mit zwei immer noch um einiges weniger Strom im idle benötigt wie eine GTX275 dann hat NV den besseren idel-Modus? Das muss man wohl nicht verstehen. Wie ich schon vorher schrieb: Alles eine Frage der Ausgangsposition.
Es geht um die Thematik an sich... dieses "Verhalten" ist bei beiden Herstellern "unschön".
Und den "effizenteren Stromverschwendungs-Mechanismus" zu haben, ist nicht wirklich eine "Auszeichnung", oder?

So langsam sollten alle darauf kommen, dass diese Dinge beabsichtigt wurden. Es ist kein Versagen o.ä.
Und wie kommst Du zu der - vollkommen unbegründeten - Schlussfolgerung?
Ich vermute hier eher die gleichen "Probleme".

Es gibt ja sogar Lösungen, die nicht einmal mit nur einem Moni in der Lage sind, einen vernünftigen "LowPower"-Modus hinzubekommen... siehe G80 (alte 8800) oder die tolle HD4890. Das, was im CPU-Bereich mittlerer weile vollkommen 'normal' ist und dort sogar permanent sinkende "LowPower"-Modi zur Folge hat, haben die GPU-Hersteller offenbar vollkommen verpennt und man steht dort erst am Anfang.

Man sollte diese "Probleme" nicht unter den Tisch kehren, sondern öffentlich thematisieren, damit man auch diesen Bereich focussiert und endlich mal effiziente Lösungen bringt.

Und die Leutz hier, die der Meinung sind, dass man bei einer im 3D-Bereich "stärkeren" Lösung eben auch höhere Idle-Verbräuche akzeptieren muss, den sei mal der gesunde Menschenverstand ans Herz gelegt!

Oder was tut eine "stärkere" Lösung im 2D-Bereich gleich noch so viel mehr?
Sorry, gewisse Dinge muss "mann" offenbar nicht verstehen...

Aber klar: nur weil beide Hersteller offenbar die gleichen Probleme haben, muss es eben so sein!
Und dass beide dazu keine Stellung nehmen, stört dann eigentlich auch nicht mehr wirklich... :rolleyes:

Siehe hierzu auch den wirklich guten Artikel auf HT4U... bei AMD sagte man, dass man den vollen Speicher-Takt bräuchte, weils sonst "flackert" (was auch immer das heißen mag). Warum aber der GPU-Takt samt zugehörigen vGPU ebenfalls "hoch" sein muss, dazu sagte AMD nichts... wie nVidia im übrigen auch (nicht). Hört sich eher nach einer 'billigen' Stromversorgung an und einer dümmlichen Implementierung dieser...

Schaun' mer mal... denn viel schlimmer empfinde ich bei der HD5870 die höhere Lüfterdrehzahl und die damit verbundenen, nervtötenden 2 Sone im MultiMon-Betrieb... für mich definitiv ein No-Go!

Razor

mFuSE
2009-10-10, 14:49:09
....Das, was im CPU-Bereich mittlerer weile vollkommen 'normal' ist und dort sogar permanent sinkende "LowPower"-Modi zur Folge hat, haben die GPU-Hersteller offenbar vollkommen verpennt und man steht dort erst am Anfang.
...
Man sollte diese "Probleme" nicht unter den Tisch kehren, sondern öffentlich thematisieren, damit man auch diesen Bereich focussiert und endlich mal effiziente Lösungen bringt.

exakt, und das ist genau das was man mit so einem Thread zu erreichen versucht.
Leider gibt es unheimlich viele Lemminge die fromm und allseits gläubig allem hinterherlaufen was denen vorgesetzt wird.

Das nimmt mittlerweile derart groteske Züge an das es nicht mehr feierlich (und lustig) ist :mad:

(frei zitiert: Es funktioniert nicht, na und? Braucht doch sowieso niemand (Außer dir) .. also sind doch alle glücklich und du bist blöd)

Und die Leutz hier, die der Meinung sind, dass man bei einer im 3D-Bereich "stärkeren" Lösung eben auch höhere Idle-Verbräuche akzeptieren muss, den sei mal der gesunde Menschenverstand ans Herz gelegt!

Oder was tut eine "stärkere" Lösung im 2D-Bereich gleich noch so viel mehr?
Sorry, gewisse Dinge muss "mann" offenbar nicht verstehen...

Aber klar: nur weil beide Hersteller offenbar die gleichen Probleme haben, muss es eben so sein!
Und dass beide dazu keine Stellung nehmen, stört dann eigentlich auch nicht mehr wirklich... :rolleyes:

Wie gesagt ... Produktlemminge ohne je irgendwas kritisch zu hinterfragen.
Eigentlich der feuchte Traum eines jeden Großkonzerns ...
Alles schön konsumieren und alles ist immer voll toll rosa ...

Warum aber der GPU-Takt samt zugehörigen vGPU ebenfalls "hoch" sein muss, dazu sagte AMD nichts... wie nVidia im übrigen auch (nicht). Hört sich eher nach einer 'billigen' Stromversorgung an und einer dümmlichen Implementierung dieser...

Schaun' mer mal... denn viel schlimmer empfinde ich bei der HD5870 die höhere Lüfterdrehzahl und die damit verbundenen, nervtötenden 2 Sone im MultiMon-Betrieb... für mich definitiv ein No-Go!


Jap.
Natürlich weiß man nichts genaues (Was eben noch ein Grund mehr ist kritisch nachzufragen) und daher ergibt sich sämtlich folgende Diskussion in den Bereich der Spekulationen und Mythen.

... aber irgendwo muss man ja anfangen ;)



Aber eine OffTopic Sache muss doch noch geschrieben werden :mad:

Weißt Du, ich habe es nicht nötig mit meinem Beruf und meinen Kenntnissen zu prahlen, dazu stehe ich zu fest im Leben. Eure Versuche sind ehrlich gesagt recht armselig. Wenn einem kein Argument mehr einfällt, dann wird versucht das Gegenüber auf persönlichem Level niederzumachen,...

Ein wirklich gut gemeinter Rat:
Atme ein par mal tief durch - und lese dir die vergangenen Postings nochmal genau durch.


Um gleich zum Kern zu kommen:
Offenbar hat es hier nur einer nötig sich ständig profilieren zu müssen - du!

Du kannst nicht eine "gegnerische" Aussage stehen lassen ohne jene völlig zu zerpflücken und grundlegend zu hinterfragen.


Aufgrund der mauen Informationslage zu diesem Thema kann jeder relativ frei spekulieren was die Ursachen und Beweggründe sein mögen.
Aber statt einer gesunden Diskussion kommen nur, auchwenn sie noch so dünn sein mögen, deinerseits ständig Gegenaussagen warum du und du allein die einzig wahren Gründe zu kennen scheinst warum dies so ist.

AnarchX
2009-10-11, 11:31:43
Bitte einen vernünftigen Ton an den Tag legen und auf das Thema konzentrieren.

Wer dies nicht kann und auf persönliche Angriffe als Argumente zurückgreifen muss, der sollte sich von der Diskussion fernhalten, andernfalls wird dafür gesorgt, dass er sich fernhält.

Watson007
2009-11-18, 14:17:12
sieht nicht so aus, als ob das nvidia in den Griff bekommt, siehe neue GT240 bei heise:

Lediglich 9 Watt verbraucht die Testkarte im Leerlauf, und damit so wenig wie die schwächeren GeForce GT 220 und 210. Schließt man zwei Monitore an, klettert der Idle-Wert architekturbedingt auf 25 Watt,

http://www.heise.de/newsticker/meldung/Nvidia-praesentiert-GeForce-GT-240-861789.html

lohnt sich also für zwei-Monitor-Betrieb zwei der Teile zu verbauen, so braucht man schließlich nur 18 watt und keine 25 ;D

LovesuckZ
2009-11-18, 14:19:17
Ja - als Langzeitlösung. :lol:
Wer sich wegen 7 Watt aufregt, der sollte sich fragen, ob er wirklich zwei Monitore benötigt.

Watson007
2009-11-18, 14:22:20
7 watt gehen ja auch noch, nur wird das bei zukünftigeren "größeren" Modellen halt auch wieder mehr sein ;) Das ganze ist bei nvidia schlicht nicht auf dem Bildschirm. Und bei ati wahrscheinlich auch nicht....

Gast
2009-11-18, 14:26:23
Siehe hierzu auch den wirklich guten Artikel auf HT4U... bei AMD sagte man, dass man den vollen Speicher-Takt bräuchte, weils sonst "flackert" (was auch immer das heißen mag).
Ich habe das so verstanden, dass ein flackerfreies Umschalten bei mehreren Monitoren nicht gewährleistet werden kann, weil man Taktratenwechsel im Einzelschirmbetrieb mit dem VBlank des Monitors synchronisiert.

Man braucht also nicht den hohen Speichertakt an sich, sondern eine Möglichkeit den Taktwechsel zu verstecken, was bei einem einzelnen Monitor leicht fällt. Ich bin sicher, man könnte das Problem lösen, das würde aber Entwicklungsaufwand bedeuten. Ich bin auch sicher, dass viele User ein einmaliges Flackern bei Taktwechseln gern in Kauf nehmen würden, die Hersteller erlauben dies aber leider auch optional nicht.

Watson007
2009-11-18, 14:53:43
es geht ja nicht nur um ein paar Watt, sondern auch darum dass der Grafikkartenlüfter vielleicht langsamer drehen muss und dadurch LEISER wird. Immer diese leute die nur zwei meter weit denken....

JFZ
2009-11-18, 20:45:27
P.P.S.: ein einfacher Schalter im Task-Symbol würde vollkommen reichen: "Keep LowPower-Mode"

Der ist per default deaktiviert und kann benutzt werden, wenn man der Meinung ist, ihn zu benötigen...
...Dinge können wirklich SO EINFACH sein



Inzwischen gibt es noch keine so bequeme Lösung, oder?
wie praktikabel ist es mit Rivatuner?
(bin seit einer Stunde auch im Club der High-Power-Idler ;) )

r@h
2009-11-18, 21:29:34
Ich habe das so verstanden, dass ein flackerfreies Umschalten bei mehreren Monitoren nicht gewährleistet werden kann, weil man Taktratenwechsel im Einzelschirmbetrieb mit dem VBlank des Monitors synchronisiert.

Man braucht also nicht den hohen Speichertakt an sich, sondern eine Möglichkeit den Taktwechsel zu verstecken, was bei einem einzelnen Monitor leicht fällt. Ich bin sicher, man könnte das Problem lösen, das würde aber Entwicklungsaufwand bedeuten. Ich bin auch sicher, dass viele User ein einmaliges Flackern bei Taktwechseln gern in Kauf nehmen würden, die Hersteller erlauben dies aber leider auch optional nicht.
Habe ich nicht verstanden...
Wie soll bitte ein hoher Speichertakt und damit verbunden der hohe GPU-Takt samt hoher GPU/RAM-Voltage das "Flackern" verhindern?

Das, was Du da erzählt hast, habe ich natürlich auch schon anderweitig gelesen, aber der Zusammenhang ist damit nicht erklärt.
Klingt wie: "Warum ist der Takt im MultiMon hoch? Bahnhof!"

Genauer: "Wie verhindert ein hoher Speichertakt das 'Flackern'?"

Inzwischen gibt es noch keine so bequeme Lösung, oder?
wie praktikabel ist es mit Rivatuner?
(bin seit einer Stunde auch im Club der High-Power-Idler ;) )
1) nein.
2) kann ich nicht sagen, benutze den RT nur fürs Monitoring
3) mein Beileid ;-)

Razor

P.S.: auch sollte man mir mal erklären, warum ein hoher Speichertakt (der ganz sicher NICHT für die hohen Idle-Verbräuche verantwortlich ist!) gleichzeitig den hohen GPU-Takt, samt hoher GPU-Voltage "erfordert".

Ich sage es, wie es ist: man benutzt eine "billige" Spannungsversorgung und schert sich um den Verbrauch einen Dreck.
Man mag fast hoffen, dass Intel die externen Lösungen vielleicht doch irgendwann überflüssig macht...

...IMO sind die beiden GPU-Hersteller einfach viel zu überheblich geworden.

Gast
2009-11-18, 21:40:58
Genauer: "Wie verhindert ein hoher Speichertakt das 'Flackern'?"

Soweit ich das interpretiere überhaupt nicht. Das Problem ist nicht die Taktrate an sich, sondern das Umschalten zwischen verschiedenen Taktraten.

Es tritt wohl eine kurze Ungereimtheit auf, wenn die Karten zwischen Taktprofilen umschalten. Bei nur einem Monitor synchronisiert man den Taktratenwechsel einfach mit dem VBlank des Monitors und es tritt kein Flackern auf. Bei mehreren Monitoren geht dies nicht, da diese ja nicht zwangsläufig synchron getimet sind und anstatt Flackern in Kauf zu nehmen oder Entwicklungsresourcen zu investieren, lässt man die Karten halt Strom fressen.

r@h
2009-11-18, 22:32:27
Sorry, aber diese "Ausrede" ist mir zu billig...
Zumal dieses Verhalten (3D Takt im MultiMon) lange Zeit als Fehler gelistet wurde.

Ich vermute einfach, dass es ein Hardware-Design-Fehler ist, den man zwar mit ein wenig Entwicklungsarbeit in den Griff bekommen könnte, aber nichts darin investieren mag, da die ganze GT200-Serie ja 'eh nur eine Übergangslösung zwichen G9x und G10x war. Beim G80 hat man das ja auch nie gelöst (hoher Idle-Verbrauch, defeker VP), sondern erst mit der Folgegeneration (wenn auch nicht für MultiMon ;-).

Geht halt nur um "Balken" und solange dies so ist, werden die Leutz auch nichts anderes bekommen, als "Balken".

Razor

mFuSE
2009-11-19, 13:19:34
sieht nicht so aus, als ob das nvidia in den Griff bekommt,....

lohnt sich also für zwei-Monitor-Betrieb zwei der Teile zu verbauen, so braucht man schließlich nur 18 watt und keine 25 ;D

jap.. sehr schönes Beispiel wie lächerlich die ganze Multimonitor Situation derzeit ist ....

es geht ja nicht nur um ein paar Watt, sondern auch darum dass der Grafikkartenlüfter vielleicht langsamer drehen muss und dadurch LEISER wird. Immer diese leute die nur zwei meter weit denken....

ganz genau.


Wie toll das in all den Tests immer so darauf herumgeritten wird wie schön leise die Karten im idle Betrieb sind ... und unter spielen ... hat man ja eh ne Geräuschkulisse ...

Warum sollte das mit Multimonitor plötzlich anders sein?





Kommt Zeit, kommt Rat ... aber letztendlich muss man auch hier konstant meckern damit Arbeit reingesteckt wird diesen Umstand zu beheben ...

r@h
2009-11-19, 20:58:00
Kommt Zeit, kommt Rat ... aber letztendlich muss man auch hier konstant meckern damit Arbeit reingesteckt wird diesen Umstand zu beheben ...
Korrekt!
:up:

Mehr ist dazu nicht zu sagen...

Razor

mFuSE
2011-01-25, 16:35:58
Ich bin ganz hin-und-weg ... eeendlich und dazu doch völlig unerwartet!
nVidia kann für eine positive Überraschung gut sein! :-)

Es hat sich wohl ausgezahlt darüber zu meckern, denn - dieses Problem welches nunmal eins ist, wurde angegangen - und gelöst!

--> http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/28/



Damit wird die GTX 560 meine nächste neue Grafikkarte, da ich ständig 2 Monitore am laufen habe, aber den Großteil der Zeit mit Arbeit darauf verbringe (Ohne Abends auf ein Spielchen verzichten zu wollen) - Leistungsstarke Karten waren daher bisher ein Tabu - da vor allem im Sommer sich die zusätzliche Abwärme durch die ständig auf Hochtouren laufenden Grafikkarten durchaus bemerkbar gemacht hat.

Gast
2011-01-25, 17:54:12
Nichts wurde gelöst.
Der niedrigste P-State wird nur angewendet, wenn Auflösung und Timing beider Monitore gleich sind. Das funktioniert bei jeder Fermi-Karte.

TheBrother
2011-01-25, 17:58:28
ein Glück gibts ja den NVInspector - damit sperrt man einfach die Karte in nem Pstate ein.

mFuSE
2011-01-25, 18:04:52
mm... ok das wird im oberen Test leider nicht erwähnt, wäre sehr schade wenn es so wäre ...


Trotzdem schien ja nichtmal das bei den anderen Karten zu funktionieren, bleibt dann wieder mal nur abwarten und beobachten wie es genau ist...
edit:
hab nun eine GTX560 und es tut tatsächlich nicht ... arks!

naja ... vll dann ja in den nächsten 2 bis 3 Grafikgenerationen haben dies mal hingekriegt .... oder dann, wenn die GPU komplett in der CPU integriert ist xD

mFuSE
2011-02-19, 17:13:17
Ok und wenn es die Hersteller nicht schaffen, dann gibts mit Glück Tools die das übernehmen ;)

--> http://www.3dcenter.org/artikel/nvidia-inspector-bringt-komfortables-multi-display-power-saving/multi-display-power-saver

560GTX stock @ idle 142Watt
560GTX Mod @ idle 92Watt


Sehr feine Sache, vor allem sehr genial das man das automatisiert laufen lassen kann ohne sich durch hoch komplexe Menüs kämpfen zu müssen... alles was das Herz begehrt!