Archiv verlassen und diese Seite im Standarddesign anzeigen : Upgrade 8800Ultra -> GTX260 / lohnt sich das?
JoergH
2009-05-14, 11:18:36
Hi Leute,
ich hab im Moment nen Intel C2D 6850 3Ghz mit 4 GB RAM und einer 8800Ultra (776MB).
Ich überlege nun auf eine GTX260 (896MB) upzugraden...
Lohnt sich das? Ist der Leistungsgewinn anständig oder bremst die CPU das System dann aus?
Oder lohnt sich von Verhältnis eher ne GTX275/GTX285 oder GTX280?
Bin für Hilfe dankbar!
Jörg
Panasonic
2009-05-14, 11:23:18
Eine CPU bremst nie eine Grafikkarte aus.
Der Leistungsgewinn ist eher gering. Ich bin von einer 8800 Ultra auf eine GTX 260 umgestiegen (mit einer GTS 250 dazwischen, die wirklich furchtbar lahm im Vergleich ist!). Ich würde bei der Ultra bleiben (und hätte meine auch noch, wäre die nicht tot).
joe kongo
2009-05-14, 11:34:33
Warten bis GT300
James Ryan
2009-05-15, 11:48:47
Warten oder günstig eine GTX285 oder 295 (wenn immun gegen Mikroruckler) erstehen!
Habe selber von einer 8800 GTX @ Ultra auf eine GTX260-216 gewechselt, gelohnt hat es sich nicht wirklich. Mit beiden Karten läuft Crysis auf meinen Einstellungen bescheiden, und nur da bräuchte man wirklich Mehrleistung!
MfG :cool:
IC3M@N FX
2009-05-16, 11:20:58
Wenn du die 8800 Ultra hast auf jedenfall warten. Du kannst ja noch die Karte übertakten das sollte dir noch ein bißchen leistung bringen. Deine Karte recht locker für die aktuellen Games noch für 2AA/4AA+ 8AF/16AF (außer Crysis/Warhead). Ich würde warten wie die Vorredner schon gesagt haben im Thread selbst eine GTX 285/295 ist jetzt schwachsinnig GT300 und R8XX kommen bald raus.
dargo
2009-05-16, 12:05:58
Ich überlege nun auf eine GTX260 (896MB) upzugraden...
Lohnt sich das? Ist der Leistungsgewinn anständig...
Nein, auf die nächste Generation warten.
AnarchX
2009-05-16, 12:48:21
Wenn du ein paar Zahlen möchtest, dann schau mal bei PCGH, da wird eine 88GTX stets mit neuestem Treiber mit im Testfeld aufgeführt:
http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/
... die Ultra kannst du hier bei 88GTX+10-15% ansetzen.
Am sinnvollsten wäre es wohl wirklich noch den Sommer mit der Ultra durchzustehen und dann im Herbst/Winter sich nach einer RV870 bzw. GT3x0-Karte umzuschauen, die dir einen größeren/sinnvolleren Leistungsschub bei gleichzeitig neuestem Featureset bieten sollte.
LovesuckZ
2009-05-16, 13:45:02
Es hängt davon ab, inwieweit du Verlust machen würdest und ob dir die hauptsächlichen Vorteile - gringere IDLE verbrauch und deutlich bessere Videoprozessor - gefallen.
Leitungstechnisch macht es keinen Sinn.
mictasm
2009-05-16, 14:06:31
Hi Leute,
ich hab im Moment nen Intel C2D 6850 3Ghz mit 4 GB RAM und einer 8800Ultra (776MB).
Ich überlege nun auf eine GTX260 (896MB) upzugraden...
Lohnt sich das? Ist der Leistungsgewinn anständig oder bremst die CPU das System dann aus?
Oder lohnt sich von Verhältnis eher ne GTX275/GTX285 oder GTX280?
Bin für Hilfe dankbar!
Jörg
Wenn du immer mit nativer Auflösung auf deinem Monitor mit zusätzlichem AA spielen möchtest, wäre die 260 keine wirkliche Steigerung, da müsste dann schon eine 285er her.
Ich empfehle dir aber auch, mindestens auf den G(T)300 zu warten.
Philipus II
2009-05-16, 14:13:25
Von der Spieleleistung her würde ichs nicht machen.
Ich überlege nun auf eine GTX260 (896MB) upzugraden...
Laß es... ich habe selbst eine 8800GT 512MB gegen eine GTX260² gestellt.
- da, wo es sowieso schon genug frames gab, gab es nun noch mehr (durchaus +50 bis +70%)
- da, wo es dringend nötig gewesen wäre, gab es kaum mehr (Crysis & andere D3D10-Games)
Fazit: Deine Ultra ist, zumindest was die Speicher-Bandbreite angeht, um einiges 'kräftiger', als meine "Kleine" und daher 'lohnt' sich ein "Upgrade" für Dich noch weniger...
ATI ist für mich mit den derzeitigen Lösungen genauso wenig eine Alternative und so "warte" ich auf das, was da noch kommen mag.
Es hängt davon ab, inwieweit du Verlust machen würdest und ob dir die hauptsächlichen Vorteile - gringere IDLE verbrauch und deutlich bessere Videoprozessor - gefallen.
Leitungstechnisch macht es keinen Sinn.
Der Video-Prozessor wäre tatsächlich ein Argument... obwohl es seine CPU auch locker 'ohne' schafft... also eher 'Kosmetik' ist.
Zu dem Idle-Verbrauch wäre zu sagen, dass ein GT200 mit nur einem Monitor zwar deutlich besser liegt, als ein G80 (zumindest noch ein kleines bissel besser, als ein G92 ;-), aber mit 2 Monitoren/Ausgabegeräten richtig versagt!
DAS sollte man IMMER dazu sagen, wenn man über die GT200 und ihrem 'tollen' Stromspar-Mechnismus spricht, der sich aber bei Anschluss von (vorgesehenen!) zwei Displays vollkommen in nichts auflöst... und dann mit der Idle-Leistungsaufnahme sogar einen G80 schlägt... und DAS ist tatsächlich eine "Leistung"... im negativen Sinne.
Für mich hat sich damit die ganze GT200-Linie erledigt.
(was unabhängig von der nicht wirklich zufriedenstellenden Leistungssteigerung zu sehen ist ;-)
Razor
tombman
2009-05-19, 08:10:00
Laß es... ich habe selbst eine 8800GT 512MB gegen eine GTX260² gestellt.
- da, wo es dringend nötig gewesen wäre, gab es kaum mehr (Crysis & andere D3D10-Games)
Das kann nur sein, falls deine Cpu limitiert hat...die Graka ist deutlich schneller.
MartinRiggs
2009-05-19, 08:18:58
Laß es... ich habe selbst eine 8800GT 512MB gegen eine GTX260² gestellt.
- da, wo es sowieso schon genug frames gab, gab es nun noch mehr (durchaus +50 bis +70%)
- da, wo es dringend nötig gewesen wäre, gab es kaum mehr (Crysis & andere D3D10-Games)
Razor
Also sorry aber so einen Unsinn hab ich selten gehört.
Ich hab Crysis mit insgesamt 3 Karten (8800GT/HD4870/GTX260) angespielt/getestet.
Die 8800GT geht in Crysis vollkommen unter, die HD4870/GTX260 gewährleisten grade in 1680x1050 und auch im späteren Eislevel noch eine annehmbare Performance wo mit der 8800GT nix mehr geht.
Sorry Razor aber dein G92-Hypen ist einfach nur daneben:rolleyes:
Ich denke das Tombman recht hat und du gnadenlos im CPU-Limit hängst, da kann sich sich ein GT200 natürlich nicht absetzen, wie auch?
Spasstiger
2009-05-19, 09:08:09
Geht einfach nicht auf r@h ein, es lohnt sich nicht.
Der Wechsel von einer 8800 Ultra auf eine GTX 260² lohnt sich allerdings auch kaum. Wenn man nur 30-40€ Aufpreis zahlt, würde ich den Wechsel machen, sonst eher nicht.
MartinRiggs
2009-05-19, 09:24:27
Das es sich von ner Ultra nur bedingt lohnt ist klar, es sei denn er findet einen Käufer der für die Ultra richtig Geld hinlegt:biggrin:
Panasonic
2009-05-19, 10:33:26
Für die Ultra wird noch massiv "mehr" bezahlt. Mit etwas Glück kann er 1:1 wechseln.
master_blaster
2009-05-19, 13:52:46
Für die Ultra wird noch massiv "mehr" bezahlt. Mit etwas Glück kann er 1:1 wechseln.
Keine Ahnung, wo du das her hast. Bei eBay bringt die Ultra ca. 125,- und die GTX 110,-. Ausreißer nach oben oder unten sind Ausnahmen.
Habe mich da kundig gemacht, weil ich meine Ultra gerne gegen die GTX 285 tauschen möchte. Wenn der GT 300 (bald) kommt, wird die (285er) nochmal ordentlich im Preis rutschen, und dann macht sie auch mehr Sinn. Von der GTX 260 ist natürlich aufgrund der geringen Leistungsdifferenz weiterhin abzuraten.
Hardcoregamer
2009-05-19, 15:03:45
Also ich habe gerade von einer 8800 GTX auf eine GTX285 umgestellt. Klar kommt es darauf an was man spielt und mit welcher BQ.
Aber ich merke den Unterschied schon deutlich. Die GTX 285 ist ein ganzes Stück schneller.
Vor allem kann ich jetzt in wirklich allen Spielen AA einstellen. (kommt natürlich auch auf die Auflösung an).
Panasonic
2009-05-19, 15:05:38
Keine Ahnung, wo du das her hast. Bei eBay bringt die Ultra ca. 125,- und die GTX 110,-. Ausreißer nach oben oder unten sind Ausnahmen.
Und wo ist jetzt ein Widerspruch zu meiner Aussage?!
master_blaster
2009-05-19, 16:21:13
Und wo ist jetzt ein Widerspruch zu meiner Aussage?!
Für die Ultra wird noch massiv "mehr" bezahlt. Mit etwas Glück kann er 1:1 wechseln.
:confused::confused::confused::confused::confused:
"Er kann 1:1 wechseln" bedeutet für mich, dass er für den Verkaufspreis der Ultra die GTX kaufen kann ...
Panasonic
2009-05-19, 16:55:08
Kann er ja auch. "Massiv mehr" bedeutet, dass man für eine Ultra mehr bekommt, als rational betrachtet eigentlich angemessen wäre.
Das kann nur sein, falls deine Cpu limitiert hat...die Graka ist deutlich schneller.
Hmmm... ein C2Q mit 3,2GHz?
Wohl kaum...
Und natürlich testete ich nicht mit irgendwelchen irrwitzigen AA-Settings, wo 100% mehr dann 15fps statt 7fps "meint" :rolleyes:
Die 8800GT geht in Crysis vollkommen unter, die HD4870/GTX260 gewährleisten grade in 1680x1050 und auch im späteren Eislevel noch eine annehmbare Performance wo mit der 8800GT nix mehr geht.
Klar... mit 'ner supa-dupa GTX260 auf die Auflösung reduzieren, mit der auch meine 8800GT noch einigermaßen klar kommt :rolleyes:
Spiele Crysis mit 1600x1200 ohne AA... und ja, auch im Eis-Level.
Und vielleicht sollte ich noch dazu sagen, dass die 8800GT verhältnismäßig stark übertaktet ist, aber das nur am Rande.
(war die GTX260 auch... aber weit weniger ;-)
Und wir reden hier über WinXP (also D3D9) in "Ultra"-Quality - nicht D3D10, denn da ist die GTX260 auch noch erschreckend lahm, aber deutlich schneller, als die 8800GT. Aber das ist 'normal'... die GT200 scheinen wesentlich besser mit dem Ressourcen-Hunger von D3D10 klar zu kommen... oder aber der Speicher limitiert nicht so stark (was wahrscheinlicher ist)... immerhin gibts mit der GTX260 896MB VRAM, mit der 8800GT 'nur' 512MB... von der Bandbreite ganz zu schweigen.
Aber nochmal: wir reden hier von WinXP, nicht von diesem Vista Mü... ähm.
Aber ich merke den Unterschied schon deutlich. Die GTX 285 ist ein ganzes Stück schneller.
Vor allem kann ich jetzt in wirklich allen Spielen AA einstellen. (kommt natürlich auch auf die Auflösung an).
Und wie spielst Du dann Crysis?
In 1024x768 oder wie?
Mann, mann...
Razor
MartinRiggs
2009-05-20, 08:44:16
Ich hab damals beim Umstieg die 8800GT gegen die HD4870 getestet, die 8800GT war ne feine Karte aber sie krankt übelst am V-RAM und grade in Crysis wird sie vom RV770 und dem GT200 vernichtet.
Wenn du in 1600x1200 spielst dann hast wahrscheinlich 16 Frames oder so, schön spielbar ist Crysis so jedenfalls nicht mit ner 8800GT.
Und wie spielst Du dann Crysis?
In 1024x768 oder wie?
Mann, mann...
Razor
nee 1280x1024 mit 4 AA. Bin allerdings noch nicht im Eislevel. Mal schauen wie sie sich da verhält. Außerdem hab ich ne eigene Config. Alleine die Config macht schon sehr viel aus bei Crysis. Und nicht alles einfach stur auf high stellen oder so ;)
Hardcoregamer
2009-05-20, 19:07:58
Ups der Gast war ich. Und gerade weil es noch nicht möglich ist mit großen Auflösungen auf anständige FPS zu kommen ist das für mich der Grund noch bei meinen 1280x1024 TFT zu bleiben.
Aber mal abgesehen davon. Es gibt noch eine Welt neben Crysis ;)
Außerdem spielt das auch nicht jeder...
Der eine hat Vorteile von der Karte der andere nicht. So ist das eben. Pauschal Aussagen sind einfach fehl am Platz.
tombman
2009-05-21, 06:08:22
Hmmm... ein C2Q mit 3,2GHz?
Wohl kaum...
Auch mit 4Ghz C2Q kann man in Crysis noch cpu-limitiert sein ;)
Spasstiger
2009-05-21, 11:13:36
Auch mit 4Ghz C2Q kann man in Crysis noch cpu-limitiert sein ;)
Jopp, allerdings dann irgendwo in der Gegend von 50-60 fps. ;)
AnarchX
2009-05-21, 11:15:38
Jopp, allerdings dann irgendwo in der Gegend von 50-60 fps. ;)
Nicht unbedingt: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6888086#post6888086
;)
bawde
2009-05-21, 11:22:42
Eine CPU bremst nie eine Grafikkarte aus.
?
und wie die CPU bremen kann, spiel mal mit einem E2160 und 1MB cache und einem E5200 mit 2MB cache, dann weißt du was los ist.
Panasonic
2009-05-21, 11:31:38
?
und wie die CPU bremen kann, spiel mal mit einem E2160 und 1MB cache und einem E5200 mit 2MB cache, dann weißt du was los ist.
Ja...? Und dann? :usad:
dargo
2009-05-21, 11:33:45
?
und wie die CPU bremen kann, spiel mal mit einem E2160 und 1MB cache und einem E5200 mit 2MB cache, dann weißt du was los ist.
Eine CPU kann limitieren, nicht bremsen. Ich denke darauf wollte er hinaus. ;)
Panasonic
2009-05-21, 11:47:45
Ist doch ganz einfach:
Ist eine CPU zu langsam, dann ist die CPU zu langsam. Und nicht die Grafikkarte, weil sie "gebremst" werden würde.
Ist man mit der CPU am Limit, hat aber noch Leistungsreserven auf der GPU, kann man ja noch immer Qualitätsfeatures zuschalten.
bawde
2009-05-21, 12:33:59
wenn die CPU zu langsam ist und man dadurch weniger fps hat wird die graka doch ausgebremst, denn sie wird nicht mehr so viel berechnen wie sie eigentlich könnte.
Panasonic
2009-05-21, 12:35:48
Aber die Grafikkarte wird deshalb doch nicht langsamer... und wie gesagt, hat man GPU-Leistung übrig, schaltet man einfach weitere Qualitätsfeatures hinzu.
Ich weiß, was Du meinst. Die Forumlierung ist aber falsch.
Ich hab damals beim Umstieg die 8800GT gegen die HD4870 getestet, die 8800GT war ne feine Karte aber sie krankt übelst am V-RAM und grade in Crysis wird sie vom RV770 und dem GT200 vernichtet.
Wenn du in 1600x1200 spielst dann hast wahrscheinlich 16 Frames oder so, schön spielbar ist Crysis so jedenfalls nicht mit ner 8800GT.
Glaube mir einfach mal... es sind weit mehr als 16 fps.
Selten 'hakt' es auch mal, aber das hält sich in Grenzen.
nee 1280x1024 mit 4 AA. Bin allerdings noch nicht im Eislevel. Mal schauen wie sie sich da verhält. Außerdem hab ich ne eigene Config. Alleine die Config macht schon sehr viel aus bei Crysis. Und nicht alles einfach stur auf high stellen oder so ;)
Me too... of course ;)
Und ich spreche auch nicht von D3D10, falls das in irgendwelchen Köpfen 'spuken' sollte.
Und ähm... 1280 mit 'ner GTX285?
"Oh... mein... gott..."
:rolleyes:
Kurz & knapp: Nein.
Danke.
Ich weiß auch nicht, wie Tombman immer mal wieder zu solchem Stuss kommt...
Bei dieser Art Betrachtung 'reichen' mir spielbare 30 frames.
Man möge mir also eine Scene zeigen, bei der die CPU bei 30 frames 'limitiert'...
...oder sollte man lieber sagen: "dafür zu langsam' ist?
:D
Razor
tombman
2009-05-22, 04:17:00
Ich weiß auch nicht, wie Tombman immer mal wieder zu solchem Stuss kommt...
Razor
Aus dem selben Grund warum auch AnarchX zum selben "Stuss" kommt :
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6888086#post6888086
http://img186.imageshack.us/img186/2662/63304corei7crysislostplfg6.png
Tigershark
2009-05-22, 06:14:22
Aus dem selben Grund warum auch AnarchX zum selben "Stuss" kommt :
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6888086#post6888086
http://img186.imageshack.us/img186/2662/63304corei7crysislostplfg6.png
Vergisses, auf Razors system gelten solche Gesetzmäßigkeiten nicht.
;(
Kladderadatsch
2009-05-22, 08:00:34
Ist doch ganz einfach:
Ist eine CPU zu langsam, dann ist die CPU zu langsam. Und nicht die Grafikkarte, weil sie "gebremst" werden würde.
Ist man mit der CPU am Limit, hat aber noch Leistungsreserven auf der GPU, kann man ja noch immer Qualitätsfeatures zuschalten.
das habe ich auch mal geschrieben, bis ich eine 6800gt + xp2000 endlich mit einem san diego 3800+ betrieb. ich war bis dahin von der grafikkarte mehr oder weniger enttäuscht (zuvor eine ti4600 ultra). das war einfach ein unterschied wie tag und nach, bzw. die grafikkarte war vorher rausgeschmissenes geld.
Panasonic
2009-05-22, 08:33:44
das habe ich auch mal geschrieben, bis ich eine 6800gt + xp2000 endlich mit einem san diego 3800+ betrieb. ich war bis dahin von der grafikkarte mehr oder weniger enttäuscht (zuvor eine ti4600 ultra). das war einfach ein unterschied wie tag und nach, bzw. die grafikkarte war vorher rausgeschmissenes geld.
Ne, Du warst von der lahmen CPU enttäuscht ;D
Zu dem Idle-Verbrauch wäre zu sagen, dass ein GT200 mit nur einem Monitor zwar deutlich besser liegt, als ein G80 (zumindest noch ein kleines bissel besser, als ein G92 ;-), aber mit 2 Monitoren/Ausgabegeräten richtig versagt!
DAS sollte man IMMER dazu sagen, wenn man über die GT200 und ihrem 'tollen' Stromspar-Mechnismus spricht, der sich aber bei Anschluss von (vorgesehenen!) zwei Displays vollkommen in nichts auflöst... und dann mit der Idle-Leistungsaufnahme sogar einen G80 schlägt... und DAS ist tatsächlich eine "Leistung"... im negativen Sinne.
Kannst du das noch ein bissle Erläutern? Hast du Links? oder Verbrauchswerte mit 2 Monitoren?
Überlege ne GTX260 als Ersatz für meine 8800GT anzuschaffen und wieder einen Zweitmonitor anschließen (die 8800GT bleibt dann als Bildlieferant für den Beamer im Rechner). Wenn der GT200 beim 2-Monitor-Betrieb echt so schlecht ist, muß ich die Idee doch begraben.
LovesuckZ
2009-05-22, 12:39:14
Sobald du die Karte in den Multi-Monitor Betrieb versetzt, läuft sie auf den 3D Einstellungen.
Sobald du die Karte in den Multi-Monitor Betrieb versetzt, läuft sie auf den 3D Einstellungen.
Bei allen GT200 ??? Was hat nVidia denn Geraucht, als die dieses "Feature" eingeführt haben???
Sobald du die Karte in den Multi-Monitor Betrieb versetzt, läuft sie auf den 3D Einstellungen.
Gibt es da eigentlich einen Workaround? Und ist der GT200 der einzige betroffene chip? Und gilt das auch für den GT200b?
LovesuckZ
2009-05-25, 12:55:31
Gibt es da eigentlich einen Workaround? Und ist der GT200 der einzige betroffene chip? Und gilt das auch für den GT200b?
Ein Workaround? Komm auf die Betrachtung drauf an: Bei den GTX280 und ein paar GTX260 Karten (hier vorallen 65nm 192 Karten und ein paar 216) kann man die Spannung per Software auswählen und einstellen. SOmit kann du unter 3D die selben Einstellungen fahren wie beim 2D Modus.
Ansonsten gibt es keine Alternative beim Betrieb von nur GT200 Karten. Es spielt auch keine Rolle, welcher Chip verbaut ist.
Ein Workaround? Komm auf die Betrachtung drauf an: Bei den GTX280 und ein paar GTX260 Karten (hier vorallen 65nm 192 Karten und ein paar 216) kann man die Spannung per Software auswählen und einstellen. SOmit kann du unter 3D die selben Einstellungen fahren wie beim 2D Modus.
Ansonsten gibt es keine Alternative beim Betrieb von nur GT200 Karten. Es spielt auch keine Rolle, welcher Chip verbaut ist.
d.h. wenn mir der Stromspar- (und Lüfterspar-)Modus bei 2 angeschlossenen Bildschirmen wichtig ist, kann ich auch auf den GT300 warten? :(
Das was du da beschrieben hast ist ja schon ein passabler Workaround, aber auch ein bissle unkonfortabel weil ich dann ja immer umschalten sollte, wenn ich tatsächlich 3D-Leistung brauche. Und zudem tut es nicht bei jeder Karte :( Gibt es eigentlich Hintergrundinfos zu dem Thema? Ist das ein Chip-"Bug" oder eher eine Treibergeschichte?
LovesuckZ
2009-05-25, 13:30:28
Es ist eine Treibersache - die warum auch immer von nVidia nicht angegangen wird. Eventuell benötigt der NVIO Chip auch die hohen Taktraten für einen 100% stabilen Betrieb.
reunion
2009-05-25, 14:37:56
Als seriöse Antwort sollte man sagen man weiß es nicht.
LovesuckZ
2009-05-25, 14:41:34
Nur weil du es nicht weiß, heißt es noch lange nicht, dass es keine Antwort dazu gibt. :rolleyes:
-=[SP]=-DRE@MER
2009-05-25, 14:59:17
Öhm, jetzt mal ne andere Frage: Wieviel bringt mir denn der Umstieg von einer 9800GT auf ne 260er?
mapel110
2009-05-25, 15:05:19
=-DRE@MER;7320603']Öhm, jetzt mal ne andere Frage: Wieviel bringt mir denn der Umstieg von einer 9800GT auf ne 260er?
Ca. 60% mehr Performance, unter extremen Bedingungen auch mehr. Bei Hybriden AA-Modi sinds bei mir teils doppelt so viele fps. Gothic3 und Mafia haben bei mir in dem Ausmaß nochmal stark profitiert. Ich bin mit dem Umstieg jedenfalls zufrieden, vorallem bei dem Preis von 160 € für eine übertaktete GTX260².
[fu]121ah@home
2009-05-25, 15:05:50
=-DRE@MER;7320603']Öhm, jetzt mal ne andere Frage: Wieviel bringt mir denn der Umstieg von einer 9800GT auf ne 260er?
etwa genausowenig. mehr shaderpower und weniger bandbreite. am ende etwa gleichstark (je nach szenario) wie die ultra.
mapel110
2009-05-26, 18:28:04
121ah@home;7320617']etwa genausowenig. mehr shaderpower und weniger bandbreite. am ende etwa gleichstark (je nach szenario) wie die ultra.
Du meinst wohl die GTS 250. Hier gings um die GTX 260
Gibt es da eigentlich einen Workaround? Und ist der GT200 der einzige betroffene chip? Und gilt das auch für den GT200b?
Nein... keine die dem ursprünglichen Feature entspricht.
Klar kann man mit 3rd party tools und irgendwelchem gefriggel so etwas wie einen 2D-Modus simulieren...
...aber faktisch heißt es: bei den GT200 gibts mit MultiMon kein PowerSave!
d.h. wenn mir der Stromspar- (und Lüfterspar-)Modus bei 2 angeschlossenen Bildschirmen wichtig ist, kann ich auch auf den GT300 warten? :(
Korrekt.
Voraus gesetzt natürlich, dass diese Chips nicht auch dieses "Problem" haben...
Im nVidia CustomerHelp-Bereich gibt es dazu sogar eine FAQ:
Question
The clocks on my GeForce GTX 280/260 graphics card are stuck at max 3D levels and do not drop to idle clock levels when I'm on the Windows Desktop.
Answer
The clock level of the GPU is based on a number of things besides whether the PC is in a Windows idle state, including:
a) Number of monitors attached - multiple displays require higher GPU bandwidth which can result in higher clock levels. Try configuring only a single monitor and see if clocks drop down to idle levels.
b) 3D Applications - some applications may not appear to be 3D but in fact are making DirectX/OpenGL/CUDA calls to the GPU and can cause the GPU to operate at higher clock levels. These applications can include even control panels and utilities. Try closing all applications on the desktop and see if clocks drop down to idle levels.
Lösung: nur einen Moni betrieben :rolleyes:
Ich führe dazu schon eine Diskussion mit einem Support-Mitarbeiter bei nVidia...
...nur wirklich "Produktives" kam da noch nicht.
Faktisch wird dieser Produktmangel offiziell einfach tot geschwiegen.
Razor
P.S.: Thread zu dem Thema: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=452609
(den ich grad' mal wieder 'gebumpt' hab' ;-)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.