PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ich habe eine Geforce ...


Schlammsau
2009-07-16, 16:19:48
....ja ihr lest richtig! :) Ich habe mir eine GTX275 gegönnt, weil meine 4890 in RMA ist.

Meine letzte GeForce hatte ich vor 1 1/2 Jahren und ich bin schon etwas aus dem Thema draussen. Deswegen frag ich mal hier nach.

Nur sind mir ein paar Sachen übel aufgestossen, die bei ATi nie ein Problem waren.

Da wäre als erstes der Stromverbrauch mit 2 angeschlossenen Monitoren zu nennen. Ich dachte GTXxxx sind so sparsam und haben einen funktionierenden Stromsparmechanismus!? Hab schon einiges darüber gelesen und es hilft anscheinend nur manuelles Untertakten. Mit 2 angeschlossenen Monitoren verbraucht eine GTX275 ungefähr das gleiche wie eine HD4890, mit nur einem Monitor ~20W weniger.

Dann hab ich noch das Problem, dass mein 2. Monitor (TV über HDMI) nur im eingeschalteten Zustand erkannt wird. Wenn er komplett aus oder im "Stand By" ist, erkennt die Geforce keinen zweites Anzeigegerät!

Hab die Win7 x64 RC (Build 7232) und den aktuellsten WHQL von nV drauf.

Aber die BQ ist erste Sahne! :up:

Hungser
2009-07-16, 17:12:29
Kann sein, dass ich mich jetzt schwer vertue, aber war es nicht so, dass bei Dual-Monitor-Betrieb der 3D-Modus aktiv ist? Das würde das mit dem Strom etwas erklären...

JFZ
2009-07-16, 17:44:26
Kann sein, dass ich mich jetzt schwer vertue, aber war es nicht so, dass bei Dual-Monitor-Betrieb der 3D-Modus aktiv ist? Das würde das mit dem Strom etwas erklären...


vertust dich nicht:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=452609

Schlammsau
2009-07-16, 18:05:10
vertust dich nicht:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=452609

:mad: Das ist ein absolutes no go!

BK-Morpheus
2009-07-16, 18:17:10
:mad: Das ist ein absolutes no go!
Dann nimm lieber wieder die ATI, die dafür auch ohne DualMonitor Betrieb nicht ohne 3rd Party Tools im 2D runtertaktet (zumindest beim RAM ist das meine ich so). ;)

Wenn man Dualmonitor fährt, hat man im Moment nur die Wahl zwischen Pest und Pocken ;D

Hungser
2009-07-16, 18:17:56
Kannst glaub ich höchstens über irgendwelche Energieprofile a.k.a. Runtertakten irgendwie Einfluss drauf nehmen.
Im neuen 190er-Treiber gibts auch irgendwie eine neue Funktion diesbezüglich.
Allerdings...wenn sie im 3D-Modus ist, wäre es ziemlich dämlich, den Takt runterzusetzen.

Gast
2009-07-16, 18:19:47
Im neuen 190er-Treiber gibts auch irgendwie eine neue Funktion diesbezüglich.
Allerdings...wenn sie im 3D-Modus ist, wäre es ziemlich dämlich, den Takt runterzusetzen.
Das neue Feature erlaubt leider sowieso nicht, den Sparmodus zu forcieren, man kann Spielen nur "Adaptiv" und "Immer volle Pulle" wählen.

Hungser
2009-07-16, 18:22:25
Achso, ok. Hab mich damit ned genauer beschäftigt, weil meine Karte eh noch keinen Stromsparmodus hat.

Danke.

Schlammsau
2009-07-16, 18:54:03
Dann nimm lieber wieder die ATI, die dafür auch ohne DualMonitor Betrieb nicht ohne 3rd Party Tools im 2D runtertaktet (zumindest beim RAM ist das meine ich so). ;)

Wenn man Dualmonitor fährt, hat man im Moment nur die Wahl zwischen Pest und Pocken ;D
Kann man die Geforce im Idle auch um ~45W, mit underclocking und undervolting drücken? Ernst gemeinte Frage!
Geht nämlich mit der 4870/90.

Kannst glaub ich höchstens über irgendwelche Energieprofile a.k.a. Runtertakten irgendwie Einfluss drauf nehmen.
Im neuen 190er-Treiber gibts auch irgendwie eine neue Funktion diesbezüglich.
Allerdings...wenn sie im 3D-Modus ist, wäre es ziemlich dämlich, den Takt runterzusetzen.
Gibts dafür eine brauchbare Anleitung?

LovesuckZ
2009-07-16, 18:59:02
Siehe hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7372579&postcount=68

Bis jetzt hat es jedoch niemand außer mir ausprobiert. Anscheinend ist dieses Problem doch nicht so schlimm wie einige tun...

Raff
2009-07-16, 19:00:38
Hrhr, dass wir das noch erleben dürfen. Nun überzeuge dich ausführlich selbst von HQ-AF, Downsampling und Hybrid-AA. :)

MfG,
Raff

mapel110
2009-07-16, 19:03:36
Hrhr, dass wir das noch erleben dürfen. Nun überzeuge dich ausführlich selbst von HQ-AF, Downsampling und Hybrid-AA. :)

MfG,
Raff
Downsampling hat sich wohl mit dem neuen 190er erledigt. Aber mal abwarten. Vielleicht lässt sichs ja beheben.

Welcome to the dark side, Schlammsau.

LovesuckZ
2009-07-16, 19:06:02
Downsampling hat sich wohl mit dem neuen 190er erledigt. Aber mal abwarten. Vielleicht lässt sichs ja beheben.

Welcome to the dark side, Schlammsau.

Mit der nicht nVidia Veröffentlichung ging Downsampling bei mir.

Hungser
2009-07-16, 19:07:05
Kann man die Geforce im Idle auch um ~45W, mit underclocking und undervolting drücken? Ernst gemeinte Frage!
Geht nämlich mit der 4870/90.
[...]
Gibts dafür eine brauchbare Anleitung?
Soweit ich mich entsinne, ist in der 275 der G92b drin, oder?

Ich weiß nicht, inwieweit dir das weiterhilft, aber hier ist ein Thread von dargo zum G80.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363545

Ich selbst kenn mich wie gesagt leider damit ned aus, weil der G80 das ned unterstützt.

Schlammsau
2009-07-16, 19:10:52
Siehe hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7372579&postcount=68

Bis jetzt hat es jedoch niemand außer mir ausprobiert. Anscheinend ist dieses Problem doch nicht so schlimm wie einige tun...
Danke, werd ich gleich probieren!

Hrhr, dass wir das noch erleben dürfen. Nun überzeuge dich ausführlich selbst von HQ-AF, Downsampling und Hybrid-AA. :)

MfG,
Raff
Hab ich schon. :naughty:
HQ AF sieht sehr gut aus! Aber ich bleibe dabei, im Spielgeschehen bekomme ich davon nichts mit. Also ein Nice 2 have aber kein muss.

SSAA und Hybrid AA ist an und für sich ne feine Sache. Meine momentan installierten und getesteten Games:
Mirrors Edge = sieht sehr gut aus!
Street Fighter IV = blurrt mit SSAA und Hybrid Modi wie sau!
Crysis (Warhead) = funkt nicht unter DX10, fehlt sowieso die Leistung!
HL² CM10beta = sieht genial aus!
Call of Juarez BiB = funkt nicht!
Muss ich noch weiter testen.

Soweit ich mich entsinne, ist in der 275 der G92b drin, oder?

Ich weiß nicht, inwieweit dir das weiterhilft, aber hier ist ein Thread von dargo zum G80.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363545

Ich selbst kenn mich wie gesagt leider damit ned aus, weil der G80 das ned unterstützt.
Nein, hat nen GT200b verbaut!

tombman
2009-07-16, 19:23:44
Welcome to the dark side, Schlammsau.
Rofl, so true ;D

@Schlammi, und jetzt kannst sogar ganz leicht neue Auflösungen definieren und hast Phys-X ;)

Tzunamik
2009-07-16, 20:02:02
@ Schlammsau,

du kannst ne GTX285 im Idle auf 30Watt drücken... ne GTX280 sogar noch weiter runter...
Ich werd ja demnächst meine GTX280 bekommen, dann geb ich auch mal meinen Senf zur BQ ab :)
Ne Anleitung zum drücken den Taktraten findest du so...

www.google.de öffnen....

gtx280 untervolting eingeben
und dann kommt... PCG HWX (http://extreme.pcgameshardware.de/volt-mods/20834-gtx280-260-g200-1024mb-undervolt-und-fan-mod-nibitor.html)

Viel Spaß damit, sollte dir denke ich weiter helfen :)

Hungser
2009-07-16, 20:09:28
Nein, hat nen GT200b verbaut!
Ok, dann hier:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=427987

;)

Banshee18
2009-07-17, 05:43:37
HL² CM10beta = sieht genial aus!
SSAA vermatscht das Bild.

boxleitnerb
2009-07-17, 09:32:39
Aber von Spiel zu Spiel unterschiedlich stark, oder nicht? Mir ist das nur bei wenigen Spielen wirklich negativ aufgefallen.

Raff
2009-07-17, 12:46:48
Aber von Spiel zu Spiel unterschiedlich stark, oder nicht? Mir ist das nur bei wenigen Spielen wirklich negativ aufgefallen.

Banshee meint explizit die FF CM 10, da das mit SSAA matschig wird. Die meisten Spiele machen keine Probleme, viele neuere jedoch. Guckst du Liste: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443275 =)

MfG,
Raff

Schlammsau
2009-07-21, 20:08:45
Ich habe immer noch folgendes Problem:
Dann hab ich noch das Problem, dass mein 2. Monitor (TV über HDMI) nur im eingeschalteten Zustand erkannt wird. Wenn er komplett aus oder im "Stand By" ist, erkennt die Geforce keinen zweites Anzeigegerät!
Sonst niemand?

Unrealswebmaster
2009-07-21, 23:39:41
Ich habe immer noch folgendes Problem:

Sonst niemand?


Was ist daran ein prob ??? wenn aus dann nicht verfügbar !!!

Skinner
2009-07-21, 23:54:01
Ich habe immer noch folgendes Problem:

Sonst niemand?

Hast du den komplett über HDMI angeschlossen? Dann wird wohl der Handshake vom HDCP ausbleiben und du bekommst deswegen kein Bild. Wenn Du die möglichkeit hast den TV über DVI (DVI-> HDMI) anzuschließen versuche das mal. Ich gehe davon aus Du dann auch ein Bild bekommen wirst.

Schlammsau
2009-07-22, 16:51:07
Was ist daran ein prob ??? wenn aus dann nicht verfügbar !!!
Das Problem ist, dass wenn zB meine bessere Hälfte den TV einschaltet um Fern zu schauen, mein Bildschirm kurz schwarz wird. Das war bei ATi nie ein Problem, da wurde auch im ausgeschaltetem Zustand der TV erkannt un blieb auch im Gerätemanager bzw im Einstellungsmenü des Treibers!
Das nervt!

Hast du den komplett über HDMI angeschlossen? Dann wird wohl der Handshake vom HDCP ausbleiben und du bekommst deswegen kein Bild. Wenn Du die möglichkeit hast den TV über DVI (DVI-> HDMI) anzuschließen versuche das mal. Ich gehe davon aus Du dann auch ein Bild bekommen wirst.
Der TV ist über einen DVI zu HDMI Adapter, der der Karte bei lag angeschlossen.

Hab gestern schon den neuen WHQL probiert -> gleiches Prob. :(
Was soll eigentlich das ständige hoch und runter takten im 2D mit dem 190.38?
http://www.abload.de/img/unbenanntz3hd.jpg

Schlammsau
2009-07-23, 19:50:07
Das Problem ist, dass wenn zB meine bessere Hälfte den TV einschaltet um Fern zu schauen, mein Bildschirm kurz schwarz wird. Das war bei ATi nie ein Problem, da wurde auch im ausgeschaltetem Zustand der TV erkannt un blieb auch im Gerätemanager bzw im Einstellungsmenü des Treibers!
Das nervt!


Der TV ist über einen DVI zu HDMI Adapter, der der Karte bei lag angeschlossen.


Ist das nun ein Bug oder Feature?

dreas
2009-07-23, 20:04:13
Ist das nun ein Bug oder Feature?

Ist bei NV leider immer so. Ich habe nen Beamer über DVI->VGA als zweites Gerät angeschlossen und das Problem ist das gleiche. Hab ne 88GT.

Schlammsau
2009-07-23, 20:34:02
Ist bei NV leider immer so. Ich habe nen Beamer über DVI->VGA als zweites Gerät angeschlossen und das Problem ist das gleiche. Hab ne 88GT.

Danke, dachte schon es läge an mir. *puh*

Also ich fasse mal zusammen.....
Die Performance ist in etwa gleich der 4890, der Stromverbrauch im Idle (mit 2 Anzeigegeräte) unter Last auch. Die Treiber spinnen (Taktumschaltung im 2D unter Windows 7), hatte 1 1/2 Jahre lang keine Probleme mit den ATi Treibern! Die innoffiziellen AA Modi funktionieren zunehmenst nicht mehr, bzw. fehlt die Leistung. Und eben das Problem mit dem erkennen des zweiten Monitors (siehe oben)!

Ich weiss jetzt nicht was ich davon halten soll....finde zwar die BQ wirklich gut, aber es gibt genug andere Probleme, die für mich persönlich schwerwiegender sind, als das HQ AF oder PhysX.

Gast
2009-07-24, 05:26:43
SSAA vermatscht das Bild.
ER ist da schlimmeres gewohnt... ;)

Außerdem hilft's Color-Correction und Blur abzuschalten

AYAlf_2
2009-07-24, 08:33:29
jetzt hab ich auch ein wenig angst .. wollte mich naechste woche fuer eine gtx260 entscheiden. nutze auch 2 monitore.... dann doch die 4870?

Grestorn
2009-07-24, 11:13:55
Das rauf und runterfahren des Takts dürfte - wie schon mal gesagt - kein Bug sein sondern gewollt. Es hat auch keine negativen Konsequenzen für den Anwender.

Schon mal die Taktrate eines modernen Prozessors angeschaut, wenn ein entsprechendes Profil aktiv ist? Der fährt auch ständig hoch und runter, und niemanden stört es. Bei einer GPU soll das auf einmal total schrecklich und ein Bug sein...

So etwas passiert nicht versehentlich!

kleeBa
2009-07-24, 11:19:20
Kann das nicht doch ein OS-abhängiger Bug sein (x64? Vista? W7?).
Bei mir (und anderen) takten die Karten jedenfalls korrekt ohne Sprünge.
Und wenn es doch so gewollt ist - ist es dann ein Bug wenn dieses Verhalten nicht auftritt? ;D

Schlammsau
2009-07-24, 12:58:51
Das rauf und runterfahren des Takts dürfte - wie schon mal gesagt - kein Bug sein sondern gewollt. Es hat auch keine negativen Konsequenzen für den Anwender.

Schon mal die Taktrate eines modernen Prozessors angeschaut, wenn ein entsprechendes Profil aktiv ist? Der fährt auch ständig hoch und runter, und niemanden stört es. Bei einer GPU soll das auf einmal total schrecklich und ein Bug sein...

So etwas passiert nicht versehentlich!

Wenn der Verbrauch um 20 Watt beim nichts tun schwankt ist das sehr wohl "schrecklich"! Und so wie ich das hier mitbekommen habe, ist wohl nur W7 betroffen, ergo schliesse ich auf einen Bug.

jetzt hab ich auch ein wenig angst .. wollte mich naechste woche fuer eine gtx260 entscheiden. nutze auch 2 monitore.... dann doch die 4870?
Wenn du auf HQ AF, PhysX und die innoffizielen AA Modi verzichten kannst, spricht nichts aber auch rein gar nichts für eine Geforce.
Wie ich jetzt am eigenen Leib erfahren darf.

nVidia wird hier als Allheilmittel angepriesen....dem ist nicht so! Sie haben zwar BQ Vorteile gegenüber den Radeons aber auch sie machen Probleme, bei mir mehr als ATi.

@Topic
Was mir auch noch aufgefallen ist, dass der nHancer bei fast jedem Neustart meines Rechners "rummeckert", das die Profile geändert wurden. Was aber definitiv nicht der Fall ist.
Das gleiche auch nache einem reinen Neustart des Programmes.
Ist das normal?

Grestorn
2009-07-24, 13:15:18
"Nichts tun" stimmt ja nicht. Die Frage ist, ob man irgendeinen Unterschied merkt.

Ich könnte mir vorstellen, dass bestimmte Aktionen, wie z.B. Videoscaling oder ähnliches nicht sauber funktioniert, wenn er nicht hochtaktet. Ich kann mir auch vorstellen, dass es für den Treiber und die Hardware nicht einfach ist, zu entscheiden ob eine bestimmte Aktion nun ein Hochtakten erfordert oder nicht.

Der Entwickler muss also entscheiden ob er eher aggressiv hochtaktet oder konservativ niedrig taktet. Ersteres kostet vielleicht etwas mehr Energie (wir reden hier von Cents pro Jahr!), letzteres kann zu Problemen führen, die dem Anwender nicht klar sind und letztlich zu Unzufriedenheit führt.

Absichtlich wird kein Entwickler ein lustiges Auf und Ab der Taktfrequenz implementieren, wenn es nicht wirklich einen guten Grund dafür gibt. Seit die G200 raus ist ändert sich das Verhalten der Treiber und ich habe den Eindruck, dass es offenbar sehr schwierig ist, da den richtigen Algorithmus zu finden.

Der in diesem Treiber verwendete Algo mag nicht optimal sein, aber ein Bug ist er sicher nicht. Ich glaube sogar, dass er im Schnitt besser funktioniert (da weniger Probleme verursacht werden), als die vorhergehenden, denn sonst hätte man den Treiber nicht so offiziell released...

crux2005
2009-07-24, 13:17:05
@Topic
Was mir auch noch aufgefallen ist, dass der nHancer bei fast jedem Neustart meines Rechners "rummeckert", das die Profile geändert wurden. Was aber definitiv nicht der Fall ist.
Das gleiche auch nache einem reinen Neustart des Programmes.
Ist das normal?

nein

puntarenas
2009-07-24, 13:27:16
Der Entwickler muss also entscheiden ob er eher aggressiv hochtaktet oder konservativ niedrig taktet. Ersteres kostet vielleicht etwas mehr Energie (wir reden hier von Cents pro Jahr!), letzteres kann zu Problemen führen, die dem Anwender nicht klar sind und letztlich zu Unzufriedenheit führt.

Das klingt nach dem A.I.-Prinzip. Automagic ist ja schön und gut, was fehlt ist IMHO die Möglichkeit, die GPU manuell festzunageln.

Mich nervt diese Powermizer-Automatik zum Beispiel unter Linux, meine GTX280 taktet oft beim simplen Scrollen in Firefox hoch und verharrt dann etwa 20 Sekunden auf 3D-Taktraten. Gemitelt braucht mein PC so beim Internetsurfen 10-20W mehr als er müsste. Für den Durchschnittsverbrauch wäre mir schnelles Hin- und Hertakten dann zwar lieber, aber bevormundet fühle ich mich trotzdem.

Der aktuelle Linuxtreiber führt configuring the GPU PowerMizer Mode on GeForce 8 or later GPUs with multiple performance levels (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7429552#post7429552) ein, ob es hält was es verspricht konnte ich noch nicht ausprobieren, aber genau sowas würde meine Probleme mit Dualmonitor (bei mir nur für TV-Ausgabe relevant) und beim Surfen unter Linux und Windows beheben und alle wären glücklich, denn die Automatik kann von mir aus gern die Standardvorgabe bleiben.

Darkman.X
2009-07-24, 13:34:38
Ist das nun ein Bug oder Feature?


Höchstwahrscheinlich ein Bug. Mein FullHD-TV von Sony wird auch im StandBy-Betrieb von der Grafikkarte erkannt. Aber ich habe auch nur eine alte GTX280 (GT200). Vielleicht hat Nvidia irgendetwas geändert...

LovesuckZ
2009-07-24, 14:12:45
Höchstwahrscheinlich ein Bug. Mein FullHD-TV von Sony wird auch im StandBy-Betrieb von der Grafikkarte erkannt. Aber ich habe auch nur eine alte GTX280 (GT200). Vielleicht hat Nvidia irgendetwas geändert...

Mein PX80 ebenfalls. Kann ich an und ausstellen, wenn er im StandBy ist. Wobei, ich habe auch zwei GTX280 Karten.


Wenn du auf HQ AF, PhysX und die innoffizielen AA Modi verzichten kannst, spricht nichts aber auch rein gar nichts für eine Geforce.
Wie ich jetzt am eigenen Leib erfahren darf.


Ähm, wenn ich alle Vorteile der nVidia wegnehme, muss man immer noch nicht auf die AMD Karten wechseln, denn die haben eben nichts, was sich lohnen würde. :|

Gast
2009-07-24, 14:14:58
ER ist da schlimmeres gewohnt... ;)

Außerdem hilft's Color-Correction und Blur abzuschalten
Wer sich über Unschärfe beschwert und gleichzeitig Blur angeschaltet hat, dem gehört eine geklatscht. ;)

Schrotti
2009-07-24, 15:36:18
Das liegt am Treiber.

Ich habe jetzt wieder den 185.85 unter Win7 x64 am Start und schon funktioniert auch das hoch/runtertakten wieder einwandfrei.

Schlammsau
2009-07-25, 10:55:41
Das liegt am Treiber.

Ich habe jetzt wieder den 185.85 unter Win7 x64 am Start und schon funktioniert auch das hoch/runtertakten wieder einwandfrei.

Denke ich auch. Schwankungen um bis zu 20 Watt im Idle durch die Graka können nicht gewollt sein. Das muss ein Bug sein!

Argh.....ich habe beim OC echt nur Pech! Meine letzten beiden 4890 liessen sich schon nicht so dolle übertakten aber meine Gainward GTX275 schiesst den Vogel ab.
Die Standardtaktraten sind ja 633/1404/1134Mhz, aber mehr als 680/1480/1150Mhz bekomme ich rockstable nicht hin. :frown: Gerade der Speicher läuft schon im Standard krass am Limit.

Aber ich hab nicht nur negatives von der Karte zu berichten :tongue:, sie ist durchweg sehr leise und das ominöse Spulenfiepen hab ich auch noch nicht bemerkt. :uup:

Ich werde die Karte trotz allem behalten aber meine nächste Karte wird wohl, wenn kein Wunder geschieht, eine DX11 Graka von ATi werden. Für mich hat ATi das rundere Paket.

Sonyfreak
2009-07-25, 12:15:57
Ich werde die Karte trotz allem behalten aber meine nächste Karte wird wohl, wenn kein Wunder geschieht, eine DX11 Graka von ATi werden. Für mich hat ATi das rundere Paket.Wussten wir das nicht schon vor diesem Fred? :confused: :wink:

mfg.

Sonyfreak

Schlammsau
2009-07-25, 12:25:57
Wussten wir das nicht schon vor diesem Fred? :confused: :wink:

mfg.

Sonyfreak

Wieso? Ich hab mir wegen der sogenannten Vorzüge einer Geforce, diese gekauft. Hab dafür auch mehr hingeblättert wie für eine vergleichbare Radeon. ;)

Jetzt bin ich ein wenig enttäuscht über den angeblichen Mehrwert und die Probleme, die ich mit der GTX habe.

Der Stromverbrauch (mit 2 Monitoren), die Hybrid Modi die nicht vernünftig funzen, bzw nur mit sehr viel testen und vielen Ausnahmen (DX10 und im allgemeinen neuere Games), die Übertaktbarkeit.....
Alles Punkte bei denen eine Geforce angeblich besser sein soll wie die Konkurrenz. Leider ist dem nicht so!

Gast
2009-07-25, 12:31:25
Das liegt am Treiber.

Ich habe jetzt wieder den 185.85 unter Win7 x64 am Start und schon funktioniert auch das hoch/runtertakten wieder einwandfrei.

Ja, dafür rennt die Karte dort bei JAVA Anwendungen immer auf Full :(

AckytheG
2009-07-25, 12:38:55
Wieso? Ich hab mir wegen der sogenannten Vorzüge einer Geforce, diese gekauft. Hab dafür auch mehr hingeblättert wie für eine vergleichbare Radeon. ;)

Jetzt bin ich ein wenig enttäuscht über den angeblichen Mehrwert und die Probleme, die ich mit der GTX habe.
Sei ein wenig geduldig.
Als ich mir nach Jahren der nVidia-Abstinenz wieder eine GeForce (8800GT) gekauft habe, musste auch ein wenig Zeit vergehen, bis ich mit der Karte warm wurde.
Insbesondere das Fehlen der ATT hat mir zu schaffen gemacht, da es bei nV dieses eine Tool für alles leider nicht gibt.
Inzwischen hab ich in der Kombi nHancer und Rivatuner aber einen ganz guten Ersatz gefunden und weiß die Vorteile der GeForce wirklich zu schätzen...

Was Dein Problem mit dem Multi-Monitor-Betrieb angeht, muss ich sagen, dass mir nVidias Weg hier deutlich mehr zusagt.
Wenn der zweite Moni aus ist, soll er auch nicht erkannt werden.
Es ist wirklich sehr Komfortabel, wenn sich der erweiterte Desktop erst dann aktiviert, wenn der zweite Bildschirm auch wirklich etwas anzeigt.
Aber das ist, wie so häufig, eben Geschmackssache - jedem kann man es da nicht recht machen...

LovesuckZ
2009-07-25, 12:43:35
Vorallen sehe ich das Problem nicht. Als ich noch Hybrid-Power und einen der neueren Treiber installiert hatte, fande ich es sehr angenehm, dass der Multi-Monitorbetrieb erst dann automatisch aktiviert, als der zweite Monitor angestellt wurde. Ist doch vorallen für die Leute von interesse, die nicht den ganzen Tag Multi-Monitor betreiben und somit keine Angst haben müssen, dass die Karte im 3D Modus läuft.

Sonyfreak
2009-07-25, 12:46:14
Dass die Geforce-Karten mit 2 angeschlossenen Monitoren nicht runtertakten ist allgemein bekannt. Selbiges gilt für die Einsetzbarkeit der SuperSampling- und Hybrid AntiAliasing Modi. Da du ja nicht gerade Hardwareneuling bist, sollte dir bekannt sein, dass der Übertaktungsspielraum von Hardware immer Glückssache ist. Das ist glaube ich alles kein Geheimwissen und wäre mit ein paar Minuten Recherche hier im Forum herauszufinden gewesen. Wo behauptet wird, dass Nvidia in diesen Punkten besser als die Konkurrenz sein soll, weiß ich nicht.

mfg.

Sonyfreak

Gast
2009-07-25, 13:14:35
Vorallen sehe ich das Problem nicht.Wußten wir DAS nicht schon vor dem Thread? ;)

boxleitnerb
2009-07-25, 13:24:44
Wie schon gesagt, das ist alles vorher bekannt gewesen. Die Hybriden funktionieren bei den allermeisten Games prima (DX9 abwärts), bei manchen blurren sie, dafür gibt es irgendwo einen Thread mit einer Liste.
Übertaktbarkeit, du gestattest dass ich mal kurz lache.
Langsam muss man doch denken, du hast dir deine Meinung schon lange gebildet, bevor du dir die Karte gekauft hast. Diesen Thread hast du wahrscheinlich nur erstellt, um weiter über NV herzuziehen, anders kann man manche Posts nicht interpretieren.

Lawmachine79
2009-07-25, 15:04:43
Denke ich auch. Schwankungen um bis zu 20 Watt im Idle durch die Graka können nicht gewollt sein. Das muss ein Bug sein!

Argh.....ich habe beim OC echt nur Pech! Meine letzten beiden 4890 liessen sich schon nicht so dolle übertakten aber meine Gainward GTX275 schiesst den Vogel ab.
Die Standardtaktraten sind ja 633/1404/1134Mhz, aber mehr als 680/1480/1150Mhz bekomme ich rockstable nicht hin. :frown: Gerade der Speicher läuft schon im Standard krass am Limit.

Aber ich hab nicht nur negatives von der Karte zu berichten :tongue:, sie ist durchweg sehr leise und das ominöse Spulenfiepen hab ich auch noch nicht bemerkt. :uup:

Ich werde die Karte trotz allem behalten aber meine nächste Karte wird wohl, wenn kein Wunder geschieht, eine DX11 Graka von ATi werden. Für mich hat ATi das rundere Paket.
Dann spiel mal schön oft mit Supersampling/Hybridmodi. Wenn Du dann wieder eine ATI hast, bekommst Du einen üblen Turkey :D. So war es bei mir.

Schlammsau
2009-07-25, 15:53:53
Sei ein wenig geduldig.
Als ich mir nach Jahren der nVidia-Abstinenz wieder eine GeForce (8800GT) gekauft habe, musste auch ein wenig Zeit vergehen, bis ich mit der Karte warm wurde.
Insbesondere das Fehlen der ATT hat mir zu schaffen gemacht, da es bei nV dieses eine Tool für alles leider nicht gibt.
Inzwischen hab ich in der Kombi nHancer und Rivatuner aber einen ganz guten Ersatz gefunden und weiß die Vorteile der GeForce wirklich zu schätzen...

Was Dein Problem mit dem Multi-Monitor-Betrieb angeht, muss ich sagen, dass mir nVidias Weg hier deutlich mehr zusagt.
Wenn der zweite Moni aus ist, soll er auch nicht erkannt werden.
Es ist wirklich sehr Komfortabel, wenn sich der erweiterte Desktop erst dann aktiviert, wenn der zweite Bildschirm auch wirklich etwas anzeigt.
Aber das ist, wie so häufig, eben Geschmackssache - jedem kann man es da nicht recht machen...
Kann schon sein, dass es ein wenig Zeit braucht, werde die Karte ja noch ein weilchen haben, dann sehen wir weiter.....
Aber das mit dem 2. Monitor, in meinem Fall der TV, finde ich schon extrem nervig. Mein Rechner läuft unter Tags eigentlich immer, weil eigentlich alles darüber läuft. Musik, Internet, Games, Video, etc.....
Wenn dann aber wie bereits gesagt der TV eingeschaltet wird, zum normalen Fernsehschauen, und mein PC dann immer kurz hakt und der Bildschirm für 2-3 Sekunden schwarz wird, ist das schon echt nervig und unnötig.

Schlammsau
2009-07-25, 16:06:12
Ich muss gestehen, die Sache mit den SSAA und Hybrid-Modi hab ich höchstwahrscheinlich im vornherein nicht gründlich genug durchleuchtet. Lag vielleicht auch daran, dass es grundsätzlich hier im höchsten Maße gelobt wird.
Wenn ich jetzt meine momentan installierten Games so anschaue, offenbart sich euch auch was ich meine.

-Crysis/Warhead: viel zu wenig Leistung verfügbar um unter DX9@"Very High"/Enthusiast, mit irgendwelchen Supersampling Modi zu zocken.
-HL² CM10beta: Leistung wäre vorhanden, wenn das Bild nicht so unscharf werden würde.
-FUEL: keine Ahnung, hab ich noch nicht getestet
-Mirrors Edge: Hybride laufen hervorragend und sehen wunderbar aus. Nur zocke ich dieses Game mit mindestens 1m zum Monitor und mindestens 3m Abstand zum TV. Also brauche ich nichtmal AA oder AF!
-Street Fighter IV: Bild wird mit Hybriden und SSAA extrem unscharf!

Ihr seht, ich kann momentan fast keinen Nutzen aus dem innoffiziellen Zeug ziehen.
Und das bei DX10 Games, und dann wahrscheinlich auch DX11 Games, grundsätzlich keine inoffiziellen Modi gehen, hilft mir auch nicht weiter. Bald wird es nur noch DX10/11 Games geben und was dann?

Ich bin einfach ein wenig "entäuscht" über die vielen Behauptungen hier, "bei nVidia sei alles besser".
HQ AF....ja, das ist besser ohne Frage. Aber das hat auch seinen Preis, die Performance leidet darunter. Und was bringt mir das schönste AF wenn ich ein Game nicht mehr ruckelfrei geniesen kann oder ich mit einem Meter Abstand vorm Monitor sitze?

Lange Rede kurzer Sinn.....beide Hersteller haben ihre Macken und Vorzüge. Ich kann mit Recht behaupten, dass es keinen klaren Gewinner bei den beiden gibt.
Die Behauptung bei nVidia läuft alles besser, ist eine Lüge!

AckytheG
2009-07-25, 16:15:11
...Wenn dann aber wie bereits gesagt der TV eingeschaltet wird, zum normalen Fernsehschauen, und mein PC dann immer kurz hakt und der Bildschirm für 2-3 Sekunden schwarz wird, ist das schon echt nervig und unnötig.
Wenn's um einen TV geht, kannst Du mal versuchen, im Control-Panel die TV-Erkennung zu erzwingen.
Das habe ich bei mir genauso gemacht und der TV steht damit auch im ausgeschalteten Zustand zur Verfügung...

Schlammsau
2009-07-25, 16:19:05
Wenn's um einen TV geht, kannst Du mal versuchen, im Control-Panel die TV-Erkennung zu erzwingen.
Das habe ich bei mir genauso gemacht und der TV steht damit auch im ausgeschaltetem Zustand zur Verfügung...

Werd ich mal probieren....Danke!

Mark3Dfx
2009-07-25, 16:53:43
Ging mir ähnlich Schlammsau.
Hatte diese Woche eine Zotac GTX 275 im Rechner zum Vergleich mit meiner Gainward 4850 GS.

Alles schön soweit:
schicke Retailpackung
Schnullermark Key
Racedriver Grid
flott
viele Kabel und Adapter....

- aber ein Klotz von Karte, der PC ist damit unten quasi abgeteilt
- hoher Stromverbrauch (meine HD kann ich im 2D Modus auf 100/200 MHz drücken)
- Spulenfiepen
- unter Last mir persönlich zu laut und warm

Ging gestern wieder zurück zum Händler.

Lawmachine79
2009-07-25, 16:58:10
Ich muss gestehen, die Sache mit den SSAA und Hybrid-Modi hab ich höchstwahrscheinlich im vornherein nicht gründlich genug durchleuchtet. Lag vielleicht auch daran, dass es grundsätzlich hier im höchsten Maße gelobt wird.
Wenn ich jetzt meine momentan installierten Games so anschaue, offenbart sich euch auch was ich meine.

-Crysis/Warhead: viel zu wenig Leistung verfügbar um unter DX9@"Very High"/Enthusiast, mit irgendwelchen Supersampling Modi zu zocken.
-HL² CM10beta: Leistung wäre vorhanden, wenn das Bild nicht so unscharf werden würde.
-FUEL: keine Ahnung, hab ich noch nicht getestet
-Mirrors Edge: Hybride laufen hervorragend und sehen wunderbar aus. Nur zocke ich dieses Game mit mindestens 1m zum Monitor und mindestens 3m Abstand zum TV. Also brauche ich nichtmal AA oder AF!
-Street Fighter IV: Bild wird mit Hybriden und SSAA extrem unscharf!

Ihr seht, ich kann momentan fast keinen Nutzen aus dem innoffiziellen Zeug ziehen.
Und das bei DX10 Games, und dann wahrscheinlich auch DX11 Games, grundsätzlich keine inoffiziellen Modi gehen, hilft mir auch nicht weiter. Bald wird es nur noch DX10/11 Games geben und was dann?

Ich bin einfach ein wenig "entäuscht" über die vielen Behauptungen hier, "bei nVidia sei alles besser".
HQ AF....ja, das ist besser ohne Frage. Aber das hat auch seinen Preis, die Performance leidet darunter. Und was bringt mir das schönste AF wenn ich ein Game nicht mehr ruckelfrei geniesen kann oder ich mit einem Meter Abstand vorm Monitor sitze?

Lange Rede kurzer Sinn.....beide Hersteller haben ihre Macken und Vorzüge. Ich kann mit Recht behaupten, dass es keinen klaren Gewinner bei den beiden gibt.
Die Behauptung bei nVidia läuft alles besser, ist eine Lüge!
Naja, wahrscheinlich passt SSAA einfach nicht in Dein Nutzungsprofil und die Behauptung, auf NV-Karten läuft alles besser, kannst Du aus dem gleichen Grund nicht nachvollziehen:
Du spielst keine älteren Spiele, denn bei älteren Spielen
- ist immer die Leistung da um mit SSAA zu spielen
- wird SSAA nicht unscharf
- hat man z.T. das Problem, daß sie partout nicht mit ATI-Karten laufen wollen (DK2 z.B.).

- unter Last mir persönlich zu laut und warm


Schonmal eine 4850/4870 im Referenzdesign mit digitalen SpaWas gehabt?
Es gibt keine Hersteller die zu laut/warm sind, es gibt KARTEN die es sind, wenn man schrottige SpaWas verbaut und eine billige Kühllösung.
Ich habe eine 4870, die wird unter Last nur 58°C warm und ist unhörbar - nachdem ich 20€ für einen Accelero und einen 120er ausgegeben habe.
Das Problem mit den SpaWas kennst Du gar nicht, da Du eine Gainward hast und die nur analoge SpaWas verbauen; das liegt aber nicht an ATI sondern an GAINWARD.
Und wenn man mal guckt, was die Zotac für eine Kühllösung hat:
http://geizhals.at/deutschland/a419678.html
und was die "richtige" Kühllösung ist:
http://geizhals.at/deutschland/a418882.html
ist es klar, daß man mit der Zotac unzufrieden ist. Liegt aber nicht an NVIDIA sondern an ZOTAC.

Sonyfreak
2009-07-25, 17:47:56
Ich bin einfach ein wenig "entäuscht" über die vielen Behauptungen hier, "bei nVidia sei alles besser".Könntest du mir mal zeigen wo du hier "viele Behauptungen" findest, dass bei Nvidia "alles besser" ist? Ich habe so ein Posting nämlich noch nie gesehen, wäre aber sehr daran interessiert. :)

mfg.

Sonyfreak

Grindcore
2009-07-25, 18:30:30
HQ AF....ja, das ist besser ohne Frage. Aber das hat auch seinen Preis, die Performance leidet darunter.

Gerade HQ AF zieht so gut wie gar keine Leistung im Vergleich zur Standardeinstellung. Schlechtes Negativbeispiel.^^

Lawmachine79
2009-07-25, 18:40:20
HQ AF....ja, das ist besser ohne Frage. Aber das hat auch seinen Preis, die Performance leidet darunter. Und was bringt mir das schönste AF wenn ich ein Game nicht mehr ruckelfrei geniesen kann oder ich mit einem Meter Abstand vorm Monitor sitze?

HQ AF ist quasi gratis. Texelfüllrate limitiert bei NV nicht.

tombman
2009-07-25, 18:43:15
Ist mir auch neu, daß AF bei Nvidia was "kostet" ;)

LovesuckZ
2009-07-25, 18:48:12
Ging mir ähnlich Schlammsau.
Hatte diese Woche eine Zotac GTX 275 im Rechner zum Vergleich mit meiner Gainward 4850 GS.

Alles schön soweit:
schicke Retailpackung
Schnullermark Key
Racedriver Grid
flott
viele Kabel und Adapter....

- aber ein Klotz von Karte, der PC ist damit unten quasi abgeteilt
- hoher Stromverbrauch (meine HD kann ich im 2D Modus auf 100/200 MHz drücken)
- Spulenfiepen
- unter Last mir persönlich zu laut und warm

Ging gestern wieder zurück zum Händler.

Zwei falsche Karte miteinander verglichen. ;)

Mark3Dfx
2009-07-25, 19:15:18
Wieso?
Für mich sollte doch die 275 ein Upgrade sein?
Ist es aber nicht.
PUNKT

Lawmachine79
2009-07-25, 19:15:55
Wieso?
Für mich sollte doch die 275 ein Upgrade sein?
Ist es aber nicht.
PUNKT
Aha, die 4850 war also schneller und hatte eine bessere BQ :D.

Mark3Dfx
2009-07-25, 19:24:56
Aha, die 4850 war also schneller und hatte eine bessere BQ :D.

Du hast mein erstes Posting gelesen und verstanden?
Meine Prioritäten?

Das glaube ich nicht, Tim! :rolleyes:

LovesuckZ
2009-07-25, 19:32:12
Wieso?
Für mich sollte doch die 275 ein Upgrade sein?
Ist es aber nicht.
PUNKT

Vielleicht sollte man mal die Karten vergleichen, die auch in einer Liga spielen. Die GTS250 ist auch stromsparender und leiser als die GTX275.
Wenn du also von nVidia enttäuscht wärest, müsstest du erstmal die 4890 als vergleichbare Karte testen.
Und wenn man sich vorher nicht erkundigt - ist man eben selbst schuld.

Mark3Dfx
2009-07-25, 19:36:37
Eine GTS 250 ist schneller als eine 4850 GS?
Ahja :rolleyes:

LovesuckZ
2009-07-25, 19:43:23
Eine GTS 250 ist schneller als eine 4850 GS?
Ahja :rolleyes:

Nein, es ist eine vergleichbare Karte zu deiner 4850.
Es ist unsinnig sich eine GTX275 zu kaufen und dann zu meckern, dass sie schwerer, lauter, stromschluckender und wärmer als deine langsamere Karte sei. Ersten lassen sich diese Informationen ergooglen und zweitens müsste du für eine vernünftige Aussage auch das Konkurrenzprodukt zur GTX275 - die 4890 - testen.
Ich sehe daher nicht, wie man von nVidia enttäuscht sein könnte, wenn die schnellere Karte eben nunmal Nachteile gegenüber einer langsameren Karte hat...

Lawmachine79
2009-07-25, 20:00:59
Eine GTS 250 ist schneller als eine 4850 GS?
Ahja :rolleyes:
Die GTS250/90GTX+ ist der leistungsmässige Pendant zur 4850. Mal ist die eine schneller, mal die andere.

http://geizhals.at/deutschland/a365401.html

Und wenn Du Dir die verlinkte Karte gekauft hättest (85°C unter Last und selbst unter 2D ein Fön - Lüfter ist NICHT regelbar), wärest Du genauso enttäuscht - das hat nix mit der GTX275 zu tun.

=Floi=
2009-07-25, 22:19:07
tja was soll man denn von schlammsau erwarten? gleich losschreien und losbashen.
dir würde ich mal zu mehr geduld raten und man sollte sich erst einmal zu einem anderen produkt einlesen und ggf nachfragen.
Fakt ist, dass nv mehr bietet, ob du dies auch nutzt ist deine sache!


---
auch bei nv gibt es ein paar games die nicht mehr auf einem G80< laufen. Es sind weniger, aber auch hier ist das problem vorhanden.

Schlammsau
2009-07-25, 22:33:45
tja was soll man denn von schlammsau erwarten? gleich losschreien und losbashen.
dir würde ich mal zu mehr geduld raten und man sollte sich erst einmal zu einem anderen produkt einlesen und ggf nachfragen.
Fakt ist, dass nv mehr bietet, ob du dies auch nutzt ist deine sache!


---
auch bei nv gibt es ein paar games die nicht mehr auf einem G80< laufen. Es sind weniger, aber auch hier ist das problem vorhanden.

Tja was soll man den von dir erwarten? Mir zuzustimmen?

Les dir nochmal den genau den ersten Post durch und dann die folgenden Beiträge. ;)

Gast
2009-07-25, 22:58:30
HQ AF ist quasi gratis. Texelfüllrate limitiert bei NV nicht.
Scheint Schlammsau nicht weiter zu stören, er behauptet es trotzdem fleissig.

Schlammsau
2009-07-26, 10:51:55
Was ich sagen will.....nVidia ist nicht das Allheilmittel gegen jede Art von Problemen und auch nicht der Hersteller für jede Art von Gamer .
Es gibt so viele verschiedene Spielertypen und so viele Prioritäten. Dem einen ist die BQ und viele Einstellungsmöglichkeiten wichtig, dem andren nur das einschalten und möglichst schnelle loszocken bei möglichst hohen FPS. Letztere sind in der Mehrzahl, was wohl auch den steigenden Absatz von Konsolen erklärt. Mittlerweile bin ich auch schon am überlegen, mir eine Konsole zu kaufen..... Hab irgendwie keinen Bock mehr mir immer wieder neue Hardware zuzulegen, um dann kurze Zeit später feststellen zu müssen, schon wieder zu langsam um Game YZ flüssig geniessen zu können.

Mr. Lolman
2009-07-26, 11:19:10
Ging mir ähnlich Schlammsau.
Hatte diese Woche eine Zotac GTX 275 im Rechner zum Vergleich mit meiner Gainward 4850 GS.

Alles schön soweit:
schicke Retailpackung
Schnullermark Key
Racedriver Grid
flott
viele Kabel und Adapter....

- aber ein Klotz von Karte, der PC ist damit unten quasi abgeteilt
- hoher Stromverbrauch (meine HD kann ich im 2D Modus auf 100/200 MHz drücken)
- Spulenfiepen
- unter Last mir persönlich zu laut und warm

Ging gestern wieder zurück zum Händler.

Das find ich jetzt aber interessant. Denn ne untertaktete HD4870 braucht unter 2D weniger als eine untertaktete HD4850.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/

Thunder99
2009-07-26, 14:20:44
Das find ich jetzt aber interessant. Denn ne untertaktete HD4870 braucht unter 2D weniger als eine untertaktete HD4850.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/
GDDR5 braucht prinzipiell weniger Strom als GDDR3, aber wahrscheinlich nur der
VRAM Chip selber. Wie man sehen kann braucht der Ringbus den Saft, oder? :confused: :redface:

Schlammsau
2009-07-26, 17:59:25
Das mit der Grösse ist auch so eine Sache, hab in meinem Midi-Tower auch die 2. HD versetzen müssen, damit die Gainward rein passt.
Eine HD4870/90 ist ca. 2?cm kürzer.
Sind eingentlich alle GTX200 Modelle so gross oder gibt es auch kleinere Karten?
Kann mir gut vorstellen das einige Probleme beim Einbau bekommen würden.

redpanther
2009-07-26, 18:34:29
Kann man das nicht vorhandene Runtertakten mit 2 Monitoren eigentlich nicht per RivaTuner beheben?

LovesuckZ
2009-07-26, 18:38:04
Kann man das nicht vorhandene Runtertakten mit 2 Monitoren eigentlich nicht per RivaTuner beheben?

Natürlich - indem du den 3D Takt anpasst. Viel schlimmer ist jedoch die fehlende Spannungsanpassung.

redpanther
2009-07-26, 18:44:36
Hast jemand mal nachgemessen wie groß der Verbrauchsunterschied ist im Vergleich RivaTuner und Treiber(BIOS) runtertakten?

Sonyfreak
2009-07-26, 19:25:38
Könntest du mir mal zeigen wo du hier "viele Behauptungen" findest, dass bei Nvidia "alles besser" ist? Ich habe so ein Posting nämlich noch nie gesehen, wäre aber sehr daran interessiert. :)Diesbezüglich hab ich vom Threadersteller noch keine Antwort bekommen. :)
Hast jemand mal nachgemessen wie groß der Verbrauchsunterschied ist im Vergleich RivaTuner und Treiber(BIOS) runtertakten?Sofern du die Spannung nicht änderst, dürfte der Unterschied bei Null liegen. Mit Änderung bist du sicherlich im zweistelligen Wattbereich.

mfg.

Sonyfreak

Schlammsau
2009-07-26, 19:28:13
Diesbezüglich hab ich vom Threadersteller noch keine Antwort bekommen. :)


mfg.

Sonyfreak

Mit ein bisserl suchen in den typischen ATi Flame Threads wirst du sicherlich auch alleine fündig.

Grestorn
2009-07-26, 20:13:42
Mit ein bisserl suchen in den typischen ATi Flame Threads wirst du sicherlich auch alleine fündig.

Eigentlich gibt es keine ATI Flame Threads. Es gibt einige Threads bei denen bestimmte Entscheidungen von ATI und deren Konsequenzen kritisiert werden. Genau wie es andere Threads gibt, in denen bestimmte Eigenarten von nVidia Karten kritisiert werden.

Allein Deine Wortwahl spricht Bände.

redpanther
2009-07-26, 20:30:21
Sofern du die Spannung nicht änderst, dürfte der Unterschied bei Null liegen. Mit Änderung bist du sicherlich im zweistelligen Wattbereich.

Nach einer Schätzung hatte ich aber nicht gefragt.

=Floi=
2009-07-26, 21:14:49
Es gibt so viele verschiedene Spielertypen und so viele Prioritäten. Dem einen ist die BQ und viele Einstellungsmöglichkeiten wichtig, dem andren nur das einschalten und möglichst schnelle loszocken bei möglichst hohen FPS.

das kann ich bei nv genauso. bei nv _kannst_ du eben mehr möglichkeiten ausnutzen und das ist eben nicht schlecht. du kannst beim auto auch nur mit 3 gängen fahren, oder du nützt alle 7.

reunion
2009-07-26, 21:54:34
Und wenn man mal guckt, was die Zotac für eine Kühllösung hat:
http://geizhals.at/deutschland/a419678.html
und was die "richtige" Kühllösung ist:
http://geizhals.at/deutschland/a418882.html
ist es klar, daß man mit der Zotac unzufrieden ist. Liegt aber nicht an NVIDIA sondern an ZOTAC.

Das ist das Nvidia-Referenzdesign. Also die "falsche". Aber so kennt man ja die Kriegsmaschine. Sich über das AMD-Referenzdesign aufregen aber bei NV liegt es an Zotac.

Schlammsau
2009-07-27, 19:45:17
das kann ich bei nv genauso. bei nv _kannst_ du eben mehr möglichkeiten ausnutzen und das ist eben nicht schlecht. du kannst beim auto auch nur mit 3 gängen fahren, oder du nützt alle 7.
Klar kann man das, aber wenn jemand die zusätzlichen Einstellungsmöglichkeiten nicht braucht, braucht er ja auch nicht mehr Geld auszugeben oder? nVidia ist nunmal meistens ein wenig teurer, bis vor kurzem sogar sehr viel teurer als ATi!


Wenn's um einen TV geht, kannst Du mal versuchen, im Control-Panel die TV-Erkennung zu erzwingen.
Das habe ich bei mir genauso gemacht und der TV steht damit auch im ausgeschalteten Zustand zur Verfügung...
Die ist bei mir ausgegraut! :(
http://www.abload.de/thumb/121212ua33.jpg (http://www.abload.de/image.php?img=121212ua33.jpg)



Verdammte K****....ich bekomme es nicht mehr gebacken, dass mein 2. Monitor (LCD TV) das Bild korrekt im Clone Mode ausgibt - Es ist immer zu gross und schneidet an allen vier Bildschirmkanten das Bild ab! Der Resize Button ist zwar nicht ausgegraut aber wenn ich drauf klicke, passiert rein gar nichts! Hab schon den 190.38 und den 190.40 probiert, bei beiden das gleiche.

http://www.abload.de/thumb/121212clge.jpg (http://www.abload.de/image.php?img=121212clge.jpg)

Nur im im Dualview Mode kann ich den Desktop Resizen, aber er übernimmt die Einstellung nicht für den Clone Modus.

Das ist zum heulen! :frown:

boxleitnerb
2009-07-27, 19:56:23
Zum ersten Problem:

Laut NVidia Forum geht es nur bei S-Video/Composite Ausgang.

Schlammsau
2009-07-27, 20:01:28
Zum ersten Problem:

Laut NVidia Forum geht es nur bei S-Video/Composite Ausgang.

Danke....also scheint das wirklich von nVidia so gewollt zu sein.

kmf
2009-07-28, 02:24:54
Schlammsau, ich hab hier noch eine alte HD 2900XT rumliegen. Tauschen wir? :D

Lawmachine79
2009-07-28, 17:47:43
Das ist das Nvidia-Referenzdesign. Also die "falsche". Aber so kennt man ja die Kriegsmaschine. Sich über das AMD-Referenzdesign aufregen aber bei NV liegt es an Zotac.
Also die Karten mit 1792MB Ram sind das Referenzdesign?
Was das andere angeht:
1) Ist es eine Sache, ob einen ein Referenzdesign "stört" oder ob reihenweise Karten abrauchen (laut Dir sind 4850/70 ja nicht häufiger ausgefallen, AMD hat nur aus "Zufall" das PCB geändert und die digitalen gegen analoge Spannungswandler getauscht)
2) Ich habe drei ATI-Karten (4870/1950Pro/4350). Wieviele NV-Karten hast Du?

reunion
2009-07-28, 18:01:02
Also die Karten mit 1792MB Ram sind das Referenzdesign?

Es ist das Referenzdesign. Eins zu Eins. Ob ich 512Mbits oder 1024Mbits GDDR3 Speicher verbaue ändert daran genau gar nichts.


Was das andere angeht:
1) Ist es eine Sache, ob einen ein Referenzdesign "stört" oder ob reihenweise Karten abrauchen (laut Dir sind 4850/70 ja nicht häufiger ausgefallen, AMD hat nur aus "Zufall" das PCB geändert und die digitalen gegen analoge Spannungswandler getauscht)

AMD hat gar nichts am PCB geändert. Das Referenzdesign ist seit dem ersten Tag identisch. Auch die 4890 setzt auf digitale Spannungswandler. Einzelne Hersteller verbauen analoge Spannungswandler, ganz einfach weil sie billiger sein. Dafür kann man über Software auch nichts mehr verstellen. Das reihenweise Karten abrauchen sollen ist wieder mal die übliche Propaganda deinerseits.


2) Ich habe drei ATI-Karten (4870/1950Pro/4350). Wieviele NV-Karten hast Du?

Da ich nur einen PC habe eine.

Lawmachine79
2009-07-28, 18:29:46
Es ist das Referenzdesign. Eins zu Eins. Ob ich 512Mbits oder 1024Mbits GDDR3 Speicher verbaue ändert daran genau gar nichts.


"Fürs Protokoll": ich finde das NV-Referenzdesign unzweckmäßig (=Sch.....), da es zu laut ist und bevorzuge das Customdesign von Palit/Xpertvision/Sparkle.


AMD hat gar nichts am PCB geändert. Das Referenzdesign ist seit dem ersten Tag identisch. Auch die 4890 setzt auf digitale Spannungswandler. Einzelne Hersteller verbauen analoge Spannungswandler, ganz einfach weil sie billiger sein. Dafür kann man über Software auch nichts mehr verstellen. Das reihenweise Karten abrauchen sollen ist wieder mal die übliche Propaganda deinerseits.

Nein? Haben sie nicht?
http://www.xtremesystems.org/forums/showthread.php?t=215845&highlight=4870+revision
AMD hat sehr wohl das Referenzdesign geändert.
Typ 1 hat digitale SpaWa.
Typ 2 hat analoge SpaWas.
Typ 2 ist neuer. Von AMD kommt nur noch Typ 2.
Viel Spaß bei der Lektüre "meiner üblichen Propaganda".

Und damit der Thread hier nicht vollkommen ad absurdum geführt wird, habe ich zum Thema PCB/VRMs mal einen Thread im ATI-Subforum aufgemacht. Da ist nämlich ein neues "U-Boot" aufgetaucht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7442087#post7442087

TobiWahnKenobi
2009-07-28, 18:44:14
Verdammte K****....ich bekomme es nicht mehr gebacken, dass mein 2. Monitor (LCD TV) das Bild korrekt im Clone Mode ausgibt - Es ist immer zu gross und schneidet an allen vier Bildschirmkanten das Bild ab! Der Resize Button ist zwar nicht ausgegraut aber wenn ich drauf klicke, passiert rein gar nichts! Hab schon den 190.38 und den 190.40 probiert, bei beiden das gleiche.


klingt für mich nach einem LCD-TV, der im overscan-betrieb läuft. schalte die funktion am TV aus und das bild passt. falls dein (digital angeschlossener!)LCD-TV keine pixelgenaue ansteuerung erlaubt, kannst du den overscan idR per grafiktreiber kompensieren, klick (http://www.tobiwahnkenobi.de/insideNV.htm).

evtl. musst du den punkt für HDTV-desktop-größe über die benutzerdefinierte ansicht aktivieren. wenn der 19x.xx -treiber diesen unterpunkt nicht mehr mitbringt, weiss ich auch nicht weiter.. habe die 190er noch nicht getestet. ;-)



(..)

mfg
tobi

Gast
2009-07-29, 08:51:14
Es ist das Referenzdesign. Eins zu Eins. Ob ich 512Mbits oder 1024Mbits GDDR3 Speicher verbaue ändert daran genau gar nichts.



AMD hat gar nichts am PCB geändert. Das Referenzdesign ist seit dem ersten Tag identisch. Auch die 4890 setzt auf digitale Spannungswandler. Einzelne Hersteller verbauen analoge Spannungswandler, ganz einfach weil sie billiger sein. Dafür kann man über Software auch nichts mehr verstellen. Das reihenweise Karten abrauchen sollen ist wieder mal die übliche Propaganda deinerseits.



Da ich nur einen PC habe eine.

dummes Zeug schau dir die 4890 an.
Und bei den alten 4870ern gabs schon himmelweite Unterschiede, sogar bei den 512er Modellen und nein es war nicht Zotac, was die Hersteller auf dem PCB rumwursten da hat weder NV noch ATI was mit am Hut.

Schrotti
2009-07-29, 10:25:04
Wie leise der Reunion mitmal geworden ist.

@Topic
Kauf dir doch einfach wieder eine Radeon Schlammsau.

reunion
2009-07-29, 10:27:43
Wie leise der Reunion mitmal geworden ist.


Bitte? Ich habe das mit den zwei PCBs schon im neuen Thread von WM korrigiert, falls du das meinst.

Gast
2009-07-29, 12:54:01
Dafür kann man über Software auch nichts mehr verstellen.




Das stimmt nicht!

QUERSCHLÄGER
2009-07-29, 16:58:11
HQ AF ist quasi gratis. Texelfüllrate limitiert bei NV nicht.

Ist dieses HQ AF die Schaltereinstellung "Sehr hoch" + deaktivierter Optimierungen? Frage nur interessehalber, da ich meist im Spiel z.B. 4x oder 8x anwähle und eigentlich immer zufrieden gewesen bin.

Sieht man denn da einen Unterschied?

Gast
2009-07-29, 18:28:01
AMD hat sehr wohl das Referenzdesign geändert.
Imho gibts mindestens 3 verschiedene Referenzdesigns.

Klar kann man das, aber wenn jemand die zusätzlichen Einstellungsmöglichkeiten nicht braucht, braucht er ja auch nicht mehr Geld auszugeben oder?
Nein, aber woher soll er es wissen ob er es braucht?
-> Indem er von einer GF7 auf eine GF8/9/200 gewechselt ist und nichts gemerkt hat.
-> Oder indem er eine GF8/9/200 mit einer HD2/3/4 verglichen hat.

Ziemlich unpraktisch, dies erst nach dem Kauf zu wissen.

nVidia ist nunmal meistens ein wenig teurer, bis vor kurzem sogar sehr viel teurer als ATi! Pauschalaussage, die sich auf einige Karten bezieht, nicht grundsätzlich auf alle und nicht von allen Herstellern.

Gast
2009-07-29, 18:31:06
Ist dieses HQ AF die Schaltereinstellung "Sehr hoch" + deaktivierter Optimierungen?

Ja.


Sieht man denn da einen Unterschied?
Ja.
Ich frage auch mal Interessehalber:
Was für eine Karte nutzt du? Mit vielen Geforces macht die Sparmaßnahme 8x oder 4x zu nutzen wenig Sinn.

Grestorn
2009-07-29, 18:36:01
Man sieht die Unterschiede nur in eher seltenen Fällen und bei genauem Hinsehen. Prinzipiell sind die Optimierungen bei "Q" und "Trilin. Opt" durchaus sinnvoll da meist sehr unauffällig und insbesondere wenn man einfach Speed braucht weil die Karte am Limit ist.

Allerdings ist der Geschwindigkeitsgewinn bei nVidia auch eher gering und wenn man Leistung hat, dann sollte man schon auf HQ gehen und auf die Optimierungen verzichten.

Schlammsau
2009-07-29, 18:44:17
klingt für mich nach einem LCD-TV, der im overscan-betrieb läuft. schalte die funktion am TV aus und das bild passt. falls dein (digital angeschlossener!)LCD-TV keine pixelgenaue ansteuerung erlaubt, kannst du den overscan idR per grafiktreiber kompensieren, klick (http://www.tobiwahnkenobi.de/insideNV.htm).

evtl. musst du den punkt für HDTV-desktop-größe über die benutzerdefinierte ansicht aktivieren. wenn der 19x.xx -treiber diesen unterpunkt nicht mehr mitbringt, weiss ich auch nicht weiter.. habe die 190er noch nicht getestet. ;-)

Danke ich werds mal probieren.

@Topic
Kauf dir doch einfach wieder eine Radeon Schlammsau.
Hab ich in nächster Zeit eigentlich nicht vor.

Pauschalaussage, die sich auf einige Karten bezieht, nicht grundsätzlich auf alle und nicht von allen Herstellern.

Sicherlich gibt es eine 4890 auch für um die 200€, aber das ist nicht vergleichbar! Das einzige was vergleichbar ist, ist das jeweils günstigste Angebot. Und da sind meist die Radeons günstiger.
Die günstigste 4890 gibt es momentan ab 148€ (http://geizhals.at/deutschland/a414190.html), die günstigste GTX275 ab 170€ (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=GTX+275&asd=on&v=e&pixonoff=on&filter=+Liste+aktualisieren+&bl1_id=100&xf=).

Ist bei der Gainward GTX275 eigentlich eine Spannungssenkung bzw Erhöhung per Software oder im BIOS möglich?

Daredevil
2009-07-29, 18:47:56
Eher wohl das jeweils sinnvollste günstigste Angebot.
Ich glaube nicht das man eine 4890 mit Flugzeugstartenten Geräuschen in betracht ziehen sollte. Sonst könnte man ja auch gleich sagen das I7 Mainboard 130€ kosten und AM3 passendes Board ( *das billigste raussuch* ) 33 Euro kostet.
Balkenlänge hin oder her, das Gesamtpaket muss schon stimmen.

Aber das ATI i.d.R. günstiger ist stimmt wohl, bei den heutigen "High End" Karten gleicht sich das aber seitens Nvidia ein wenig an.

Gast
2009-07-29, 18:51:49
Man sieht die Unterschiede nur in eher seltenen Fällen und bei genauem Hinsehen. Prinzipiell sind die Optimierungen bei "Q" und "Trilin. Opt" durchaus sinnvoll da meist sehr unauffällig und insbesondere wenn man einfach Speed braucht weil die Karte am Limit ist.

Allerdings ist der Geschwindigkeitsgewinn bei nVidia auch eher gering und wenn man Leistung hat, dann sollte man schon auf HQ gehen und auf die Optimierungen verzichten.
Genausogut kann man statt "16x" "8x" nehmen, wenns auf die "Geschwindigkeit" ankommt, statt irgendwelchen "Optimierungen" zu vertrauen.

Am Limit bleibt es zweifelhaft, ob die 7% den Spielspass auf die nötige Stufe heben. Dazu muss man schon komplett auf AF verzichten, um den nötigen Boost zu erhalten.
Wobei dann wieder die Qualität dermaßen leided, nunja.


Sicherlich gibt es eine 4890 auch für um die 200€, aber das ist nicht vergleichbar! Das einzige was vergleichbar ist, ist das jeweils günstigste Angebot. Und da sind meist die Radeons günstiger.
Damit gibts du mir Recht.
Kleiner Tipp, es gibt mehr als nur HD4890. (welche es übrigens erst seit einigen Monaten gibt)

Mal darauf eingegangen: Es gibt nicht die 4890 und die GTX 275.
Trotz der Aufkleber gibt es weiterreichende Unterschiede.

Schlammsau
2009-07-29, 19:15:59
Damit gibts du mir Recht.
Kleiner Tipp, es gibt mehr als nur HD4890. (welche es übrigens erst seit einigen Monaten gibt)

Mal darauf eingegangen: Es gibt nicht die 4890 und die GTX 275.
Trotz der Aufkleber gibt es weiterreichende Unterschiede.

Dann schau mal in diese Liste:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6984726#post6984726

QUERSCHLÄGER
2009-07-29, 19:20:03
Im Rechner ist eine 260² Sonic. Die würde mehr AF auch nicht umbringen, nur sehe ich manches mal den Unterschied zwischen 4 und 8 schon nicht mehr (und ich spiele nicht an einer Röhre ;)). Deswegen habe ich mich nie für höhere Bildquali interessiert, wenn´s schon so gut aussieht.

Ich meinte oben gelesen zu haben, das HQ AF wäre nicht viel rechenintensiver, deswegen nun die Frage.

Spricht eigentlich was dagegen, generell im Treiber zB 4AF einzustellen? Manches Mal weiß ich nicht, auf welche Bereiche eine Spieleengine den Filter anwendet und da ist es mir lieber, es wird per Treibereinstellung alles übergebügelt. Oder ist das dumm?

Sollte ich dann generell in Spielen AF ausmachen? Wird dann dort intern alles ge-AF-ed :redface: und letztendlich alles verworfen, weil der Treiber das letzte Wort hat? Oder hebelt der sowieso schon bei Spielstart alles aus und ein Spiel kümmert sich dann nicht weiter um AF?

Gast
2009-07-29, 19:22:36
Dann schau mal in diese Liste:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6984726#post6984726
84€ sind mehr als 84€? ;)

Zeitweise waren auch GTX 260 ein gutes Stück billiger. Zeitweise war eine 3870 angesichts einer 9600 GT zu teuer.
....

Schon ist deine Aussage wertlos. Mal davon abgesehen das dir Dinge wie, das man nicht die billigste haben will egal sind. ;)

Schlammsau
2009-07-29, 19:26:49
84€ sind mehr als 84€? ;)

Zeitweise waren auch GTX 260 ein gutes Stück billiger. Zeitweise war eine 3870 angesichts einer 9600 GT zu teuer.
....

Schon ist deine Aussage wertlos. Mal davon abgesehen das dir Dinge wie, das man nicht die billigste haben will egal sind. ;)

Nö gar nix ist wertlos.....hab ja deswegen auch geschrieben, dass die Geforce meistens (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7440238#post7440238) etwas teurer sind!

Banshee18
2009-07-29, 21:54:52
Spricht eigentlich was dagegen, generell im Treiber zB 4AF einzustellen? Manches Mal weiß ich nicht, auf welche Bereiche eine Spieleengine den Filter anwendet und da ist es mir lieber, es wird per Treibereinstellung alles übergebügelt. Oder ist das dumm?
Nicht böse gemeint, aber was juckts dich, wenn du sowieso keinen Unterschied siehst?
Wenn du AF nur im Spiel aktivierst, kann es sein, dass nur dort gefiltert wird, wo es das Spiel für nötig hält. Das muss jedoch nicht immer sinnvoll sein und kann je nach Spiel und Szene besser oder schlechter aussehen. Ich habe praktisch immer 16xAF im Treiber aktiviert.
Sollte ich dann generell in Spielen AF ausmachen? Wird dann dort intern alles ge-AF-ed :redface: und letztendlich alles verworfen, weil der Treiber das letzte Wort hat? Oder hebelt der sowieso schon bei Spielstart alles aus und ein Spiel kümmert sich dann nicht weiter um AF?
Der Treiber hat das letzte Wort.

QUERSCHLÄGER
2009-07-29, 22:20:41
Na, dafür wollte ich das HQ-Dingens mal ausprobieren, vielleicht ist das ja die Offenbarung. Und eigentlich war das ganze nur wegen dieser Äußerung hier

Gerade HQ AF zieht so gut wie gar keine Leistung im Vergleich zur Standardeinstellung. Schlechtes Negativbeispiel.^^

Der bessere Modus beansprucht die Karte nicht so sehr wie die Standardeinstellung? Kann aber auch sein, daß das anders gemeint war und ich das falsch verstanden habe, ich wollt´s mal ausprobieren.

Das der Treiber letztendlich vorgibt, was zu tun oder zu lassen ist, ist mir bekannt. Habe aber immer im Spiel dann AF deaktiviert, weil ich nicht wollte, daß da irgendwas doppelt gemoppelt wird. AF aus = Spiel kümmert sich darum gar nicht mehr :redface:.

Tzunamik
2009-07-29, 22:36:31
So, heute ist meine Geforce GTX280 gekommen :)

HD4870 deinstalliert :)---> Ausgebaut
GTX280 rein --> 190.38 installiert

---> Nibitor runtergeladen--> Karte mit 285er Takt geflasht sowie auf 1,06Vcore @ Load eingestellt und Idle auf 1,03Vcore :)

Traumhaft!! Die Karte ist unhörbar und rennt wie eine GTX285 :)

Fazit...
Crysis lief mit Veryhigh@Dx10 und 4xAA nicht so ganz flüßig mit der HD4870 1GB...
Mit der GTX280 rennt das jetzt Butterweich!

Dann von H6304 zu H9451 Punkten im Vantage hat sichs auch gelohnt :)
Mirrors Edge sieht mit dem Phsyx kram tatsächlich besser aus, hab ich nicht geglaubt bis grade eben :)

Fallout 3 rennt mit 16xQ SSAA flüßig und ruckelfrei :)
Wenn morgen dann auch noch Divine Divinty 2 flüßig läuft und gut aussieht, bin ich TOP zufrieden mit den 100€ extra zur HD4870 1GB :)

=Floi=
2009-07-29, 23:05:17
im 3dmark vantage musst du physx ausschalten, um eine vergleichbare leistungsmessung zu erhalten.

Tzunamik
2009-07-30, 08:43:09
GTX280 GPU Score 8330
HD4870 GPU Score 5923

Dürfte genug Aussagen oder?
Ohne oder Mit PhysX...

Der CPU-Score ist klar massiv "dicker"... das war mir bewusst :)

Schrotti
2009-07-30, 11:18:20
So, heute ist meine Geforce GTX280 gekommen :)

HD4870 deinstalliert :)---> Ausgebaut
GTX280 rein --> 190.38 installiert

---> Nibitor runtergeladen--> Karte mit 285er Takt geflasht sowie auf 1,06Vcore @ Load eingestellt und Idle auf 1,03Vcore :)

Traumhaft!! Die Karte ist unhörbar und rennt wie eine GTX285 :)

Fazit...
Crysis lief mit Veryhigh@Dx10 und 4xAA nicht so ganz flüßig mit der HD4870 1GB...
Mit der GTX280 rennt das jetzt Butterweich!

Dann von H6304 zu H9451 Punkten im Vantage hat sichs auch gelohnt :)
Mirrors Edge sieht mit dem Phsyx kram tatsächlich besser aus, hab ich nicht geglaubt bis grade eben :)

Fallout 3 rennt mit 16xQ SSAA flüßig und ruckelfrei :)
Wenn morgen dann auch noch Divine Divinty 2 flüßig läuft und gut aussieht, bin ich TOP zufrieden mit den 100€ extra zur HD4870 1GB :)

Hab ich auch gemacht und den Takt noch etwas mehr angehoben (700/1500/1242).
Meine hat allerdings keine 1,03V idle im Angebot.

Viel Spaß.

Flagship on Tour
2009-07-30, 12:06:28
Hmm, deine läuft mi 1,06V @ 700/1500 ..?
Muss ich heute abend mal testen...
Wir wollen ja das Maximum erreichen :)
Hast du an den 2d und idle takraten was geändert?

Is ja glaub standard 400/800/100 und 300/600/100
Hab mir überlegt des auf 350/600/100 und 150/400/100 zu reduzieren, wobei ich nicht weiß obs wirklich was bringt :)

Und als Grundlage habe ich das nVidia BIOS von mvktech genommen und mit meinem Leadtek ersetzt :)
Da Leadtek keine 1,03V anbietet :)

TobiWahnKenobi
2009-07-30, 12:13:08
Und als Grundlage habe ich das nVidia BIOS von mvktech genommen und mit meinem Leadtek ersetzt :)
Da Leadtek keine 1,03V anbietet :)

ähm.. ob das vielleicht einen grund hat? du solltest mal mit nem multimeter nachmessen, wieviel mit den unterschiedlichen bios-einstellungen real anliegt.


(..)

mfg
tobi

Schrotti
2009-07-30, 13:27:59
Hmm, deine läuft mi 1,06V @ 700/1500 ..?
Muss ich heute abend mal testen...
Wir wollen ja das Maximum erreichen :)
Hast du an den 2d und idle takraten was geändert?

Is ja glaub standard 400/800/100 und 300/600/100
Hab mir überlegt des auf 350/600/100 und 150/400/100 zu reduzieren, wobei ich nicht weiß obs wirklich was bringt :)


Ja, die Karte läuft absolut stabil mit den Taktraten bei 1,06V (GPU würde bis 730MHz gehen).

Den Takt für 2D habe ich weiter gesenkt (200/300/100) was vollkommen langt.


Und als Grundlage habe ich das nVidia BIOS von mvktech genommen und mit meinem Leadtek ersetzt :)
Da Leadtek keine 1,03V anbietet :)

Das Bios war auf meiner ersten Leadtek 280 (mit Heatbug). Damit taktete meine erste GTX 280 nie komplett auf 2D runter.

Tzunamik
2009-07-30, 14:12:16
²@ Tobi, wenn du mir sagst, wo ich ansetzen muss :)
Hab keine Pläne von der GTX280 da...
War ja bisher nur ATIler und hab entsprechend nur dort Maps und Pics mit Anleitungen...

@ Schrotti

Schick mir mal deins bitte, ich vergleich das heute abend mal mit meinem Orginalen und dem nVidia das ich grade drauf habe :)

nickname bei gmx punkt com mal her :D <-- damit google kein futter bekommt :)

Lawmachine79
2009-07-30, 18:32:22
Ist dieses HQ AF die Schaltereinstellung "Sehr hoch" + deaktivierter Optimierungen? Frage nur interessehalber, da ich meist im Spiel z.B. 4x oder 8x anwähle und eigentlich immer zufrieden gewesen bin.

Sieht man denn da einen Unterschied?
Also, bei NV mache ich es mit AF immer so:
Treiber auf "Hohe Qualität", alle Optimierungen aus.
Anisotroper Filter IM TREIBER auf 16x, so daß die Anwendungseinstellung überschrieben wird. LOD=Clamp. So bekommst Du was Filterung angeht die bestmögliche BQ, beinahe for free.
Imho gibts mindestens 3 verschiedene Referenzdesigns.



Wenn es immer noch um die 4870 geht - VON ATI gibt es nur 2 Design. Andere Designs sind dann Custom von den Kartenherstellern. Mehr dazu hier:
http://forums.bit-tech.net/showpost.php?p=1980845&postcount=4

QUERSCHLÄGER
2009-07-30, 18:59:41
Ich probiere die Tage einfach mal aus. =)

Armaq
2009-07-30, 21:15:34
Wie schaltet man AI denn auf Low? mit dem neuen Treiber .7 finde ich diese Einstellung nicht mehr. Nur Standard und Adv. (hab eine 4870 gekauft)

Gast
2009-07-30, 23:03:59
Wie schaltet man AI denn auf Low? mit dem neuen Treiber .7 finde ich diese Einstellung nicht mehr. Nur Standard und Adv. (hab eine 4870 gekauft)

AI Standard= AI Low...

Coda
2009-07-30, 23:17:13
"Disable Catalyst A.I."

Edit: Gast hat recht

Tzunamik
2009-07-31, 11:03:13
Gibts eigentlich ein paar "must have" tools für nVidia?
nHancer soweit ich weiß... aber was genau bringt mir das?
funktionierts richtig?
Und was sollte man noch unbedingt haben?

@ Schrotti,
meine taktet auch nicht auf 2D runter :( und selten mal in 3D idle...
voll dumm... gibts da abhilfe?

boxleitnerb
2009-07-31, 11:25:01
nHancer erlaubt eine viel komfortablere Profilverwaltung als das Nvidia Controlpanel. Man kommt schnell an eine Unzahl an Optionen heran, kann auch inoffizielle Supersampling AA-Modi nutzen.

Schrotti
2009-07-31, 11:27:09
Ja, die Bios Version die ich dir geschickt habe.

Allerdings fallen dann die 1,03V weg (wobei das sicher nicht mehr viel ausmacht). Ganz zur Not kannste ja den EVGA Voltagetuner nehmen (damit sollten dann auch Spannungen unterhalb 1,03V funktionieren was ich aber noch nicht probiert habe).

Ich habe mal deine Wunschsettings geflasht.

Gast
2009-07-31, 11:28:12
nHancer erlaubt eine viel komfortablere Profilverwaltung als das Nvidia Controlpanel.
Außerdem kann man Kompatibilitätsbits für Anti-Aliasing setzen, das geht IIRC mit dem offiziellen Control Panel nicht. nHancer ist Spitze, hinkt aber manchmal ein wenig der Treiberentwicklung hinterher, wenn Nvidia mal wieder etwas über den Haufen schmeißt in der Profilverwaltung des Treibers.

Tzunamik
2009-07-31, 11:48:21
Alles klar, werde ich heute abend probieren :)
auf die 1,03 bzw. 1,06 kommts mir au nimmer an :)

Du nutzt XP oder Schrotti?
Ich hab ja Windows 7 X64 :)
Mal schauen obs da abhilfe gibt :)

Schrotti
2009-07-31, 12:10:13
Windows 7 x64 habe ich auch, aber wenn ich da deine Taktraten nutzen möchte dann bleibt die Karte im höchsten Takt (nicht mal auf Low 3D gehts dann runter).

Flash doch einfach 1,06V und hebe den Performance 3D Takt noch etwas an.

Tzunamik
2009-07-31, 12:12:43
Bei mir gehts gelegentlich auf Low 3D und NIE in 2D...
Nur ohne Aero gehts in 2D... so ein unfug!
Werde heute abend mal dein BIOS probieren und den 186er Treiber drauf hauen...
hoffentlich läufts dann wieder rund mit dem runter takten...

Schrotti
2009-07-31, 16:18:54
Ich habe aktuell den 186.08 drauf (denn damit funktioniert Company of Heroes als auch Empire: Total War einwandfrei).

Die Karte taktet hoch und auch wieder komplett runter (2D).

http://www.abload.de/img/gtx280_win7x2y1.png (http://www.abload.de/image.php?img=gtx280_win7x2y1.png)

Tzunamik
2009-07-31, 18:00:43
hab grade mal 186.18 installiert.... mir hats jetzt schon 2x den treiber zurück gesetzt... weil er nicht mehr reagiert haben soll :/

Schrotti
2009-07-31, 18:14:18
Was hast du denn bis jetzt alles gemacht?

Hast du schon deine Taktraten geflasht oder läuft die Karte noch default aber mit meinem Bios?

Tzunamik
2009-07-31, 18:32:37
Dein BIOS, meine Taktraten :)

3D power 648/1476/1242 @ 1,06V
3D low 350/600/100 @ 1,06V
2D idle 150/400/100 @ 1,06V

Erhöhen geht grade nur durchs BIOS, da Rivatuner nichts ermöglich....

Schrotti
2009-07-31, 18:42:01
3D low 350/600/100 @ 1,06V
2D idle 150/400/100 @ 1,06V

Erhöhen geht grade nur durchs BIOS, da Rivatuner nichts ermöglich....

Ich habe das ganze vorhin nochmal getestet. 3d low mag meine Karte oder eben Windows nicht.

Der ganze Bildschirm friert ein. Mit GPU-Z schaut es dann so aus. Die Karte ist im 3d Power Modus und versucht in den 3d low Modus zu schalten (dabei friert das ganze Windows ein).

Habe jetzt wieder 700/1500/1242 | 400/800/300 | 300/600/100 am Start.

Tzunamik
2009-08-01, 06:58:42
Funktioniert bei Win7 mit de 186.08 das Downclocking bei dir?
Kannst du das mal bitte prüfen?

Schrotti
2009-08-01, 11:26:41
Ja, das funktioniert.

http://www.abload.de/thumb/186_08_win7jc9t.png (http://www.abload.de/image.php?img=186_08_win7jc9t.png)

Tzunamik
2009-08-01, 14:46:26
Magst du für mich mal den 186.18 WHQL und den 190.38 WHQL auf downclocking testen?
Haben beide bei mir NICHT richtig runtergetaktet...
Ich würd gern wissen ob es an einem meiner Programme liegt, oder an den Treibern...
'Du hast Aero an?

Schrotti
2009-08-01, 22:25:37
Nur für dich getestet (meinen Treiber runter, und beide nacheinander getestet).

Funktioniert bei beiden Treibern einwandfrei.

http://www.abload.de/thumb/186.18bxin.png (http://www.abload.de/image.php?img=186.18bxin.png) http://www.abload.de/thumb/190.38h9b9.png (http://www.abload.de/image.php?img=190.38h9b9.png)

Tzunamik
2009-08-01, 23:06:31
So ne scheiße :(
Und du hast Windows 7 RC1 x64? Also die 7100er ?
Weil da hab ich bei genau den 2 Treibern keine Downclocking :( Zumindest nicht zuverlässig, bin jetzt auf 185 zurück und da geht alles, auch die Games :)

Schrotti
2009-08-01, 23:13:39
Ja habe ich (Build 7100).

Tzunamik
2009-08-02, 12:51:24
Hmm....
irgendwas speziell installiert?
Jemand ne Idee, woran das liegen kann?

Energieprofil in Windows ist ausgeglichen, daran sollte es auch nicht liegen :/

Schlammsau
2009-08-02, 15:57:08
Also langsam kotzt mich nVidia echt an....beim Film gucken im Clone Mode wird mein LCD TV sporadisch für ne halbe Sekunde schwarz, als ob er das Signal für kurze Zeit verliert. Aber nur der TV, mein TFT macht keine Probleme.
Ich denke das liegt am 190.40 beta aber nur mit diesem funktioniert eine reibungslose stereoscopische Bildausgabe in FUEL.

Ich könnt so kotzen....nur Probleme! :mad:

r@h
2009-08-02, 16:02:14
Oh mann...

TV zum primären Display machen und auf diesen Clone-Grütz verzichten.
3DVision 'darfst' als Goddie betrachten, weil es das von ATI schlicht nicht gibt... funktiert es, freu Dich, tut es das nicht, ärgere Dich nicht.

Tjo... das Leben könnte so einfach sein, gell?
(wenn es nicht immer solche 'stänker' geben würde, die hier "rum kotzen" ;-)

Razor

Schlammsau
2009-08-02, 16:07:23
Oh mann...

TV zum primären Display machen und auf diesen Clone-Grütz verzichten.
3DVision 'darfst' als Goddie betrachten, weil es das von ATI schlicht nicht gibt... funktiert es, freu Dich, tut es das nicht, ärgere Dich nicht.

Tjo... das Leben könnte so einfach sein, gell?
(wenn es nicht immer solche 'stänker' geben würde, die hier "rum kotzen" ;-)

Razor

Warum soll ich jedesmal zum Film schauen, meine Treibereinstellungen verändern? Hab da einfach keinen Bock dazu! Komisch auch das hat mit ATi bei mir immer funktioniert, mit jedem Treiber!

Von ATi nicht, aber es gibt Third Party Hersteller die es auch auf ATi möglich machen.
Warum darf ich mich nicht darüber ärgern, dass es angeboten wird, aber nicht funktioniert?

Sven77
2009-08-02, 16:14:51
Warum darf ich mich nicht darüber ärgern, dass es angeboten wird, aber nicht funktioniert?

Ich denke das liegt am 190.40 beta

Langsam hab ich das Gefühl, du willst mit der Karte nicht "grün" werden.. hol dir bitte wieder ne ATI, der Thread wird langsam peinlich.

Schlammsau
2009-08-02, 16:21:05
Langsam hab ich das Gefühl, du willst mit der Karte nicht "grün" werden.. hol dir bitte wieder ne ATI, der Thread wird langsam peinlich.

Was denkst du warum ich mich noch nicht von dieser getrennt habe?
Natürlich will ich mit der Karte "grün" werden, aber jedesmal wenn ich denke...."ja jetzt passt alles", bzw ich finde mich damit ab, dass nicht alles so funtioniert wie ich es mir vorstelle, kommt wieder irgendwas anderes.
Das einzige was hier peinlich ist, ist die Treiberarbeit von nVidia.

Die Karte ist ein wirklich solides Stück Hardware aber die Treiber sind meiner Meinung nach unterste Schublade!

LovesuckZ
2009-08-02, 16:25:43
Es gibt noch genug ältere Treiber.

Gast
2009-08-02, 16:27:21
Ich denke das liegt am 190.40 beta aber nur mit diesem funktioniert eine reibungslose stereoscopische Bildausgabe in FUEL.
Aha.
1. Du nutzt inoffizielle Betatreiber. (Damals hast du über Nvidias offizielle Betas geschimpft, als du noch mit AMDs Betas unterwegs warst)
2. Du willst unbedingt Stereo3D. Bietet das die AMD auch? ;) (Ich kann kaum glauben das du dazu so einen unbekannten Treiber nutzten musst)

Schlammsau
2009-08-02, 16:27:33
Es gibt noch genug ältere Treiber.
Wie gesagt, damit funktioniert die stereoskopie unter FUEL nicht.

Sven77
2009-08-02, 16:28:01
Benutz doch einfach nur die WHQL-Treiber.. dann gibts auch nix zum motzen. Aber bei nem Beta-Treiber über Bugs zu motzen ist schon ein wenig seltsam. Bugreport an Nvidia, dafür sind die Betas da..

LovesuckZ
2009-08-02, 16:28:22
Dann solltest du den Dual-View-Modus probieren oder mit dem einen oder anderen Problem leben.

Gast
2009-08-02, 16:32:06
Aber bei nem Beta-Treiber über Bugs zu motzen ist schon ein wenig seltsam.
Nicht nur Beta, sondern inoffizielle Beta.

Wer weiß aus welchen dubiosen Quellen er diesen Treiber hat.

derguru
2009-08-02, 17:01:06
Nicht nur Beta, sondern inoffizielle Beta.

Wer weiß aus welchen dubiosen Quellen er diesen Treiber hat.
aus der höhle von räuber hotzenplotz.

Gast
2009-08-02, 17:17:07
aus der höhle von räuber hotzenplotz.
Na dann ist es kein Wunder.
Ich kann sowas nicht verstehen, Treiber werden beim Hersteller gesaugt, bzw in dem Fall beim IHV.

Am Besten gleich "voroptimierte" Treiber besorgen, das sichert ab gegen die Langeweile am Wochenende. :rolleyes:

Schrotti
2009-08-03, 00:30:18
Hmm....
irgendwas speziell installiert?
Jemand ne Idee, woran das liegen kann?

Energieprofil in Windows ist ausgeglichen, daran sollte es auch nicht liegen :/

Nicht spezielles installiert. Nur der nHancer läuft noch nebenbei.

r@h
2009-08-03, 07:29:04
Warum soll ich jedesmal zum Film schauen, meine Treibereinstellungen verändern? Hab da einfach keinen Bock dazu! Komisch auch das hat mit ATi bei mir immer funktioniert, mit jedem Treiber!
Glaube mir, ich habe mir die Treiber von ATI gaaaaanz genau angeschaut und nein, es funkt bei weitem nicht immer.
(schon gar nicht, wenn man Betas benutzt... inoffizielle Treiber gibts zudem von ATI gar net!)

Wenn Du auf die "Theater"-Funktion anspielen solltest, ja die funktioniert... tut sie aber auch bei nVidia.

Auch würde ich Dir schlicht und ergreifend mal die eine oder andere Lektüre ans Herz legen, wenn Du wirklich bereit bist, Dich damit auseinander zu setzen... denn wenn es Dir nur darum geht, dass die nVidia sich jetzt gefälligst genauso verhalten soll, wie vorher deine ATI, dann hast Du ein ursächliches Problem... DU, nicht nVidia und nicht ATI.

Von ATi nicht, aber es gibt Third Party Hersteller die es auch auf ATi möglich machen.
Warum darf ich mich nicht darüber ärgern, dass es angeboten wird, aber nicht funktioniert?
Du kannst mit einem ATI-3rd-Party Tool FUEL auf dem 2. Moni (Deinem TV) im Clone-Modus und in Stereo spielen?
RESPEKT!

DAS solltest Du allerdings erst einmal erklären!
Bin gespannt, wie Du das hinbekommen hast...

Das einzige was hier peinlich ist, ist die Treiberarbeit von nVidia.
Da nehmen sich die Hersteller alle nichts.
Meiner Erfahrung nach, sind die ATIs ein ganzes Stückerl übler, als die von nVidia und von Intel reden wir lieber gar nicht.

Allerdings ist mir bei den ATI-Usern aufgefallen, dass sie meist einfach nur dem ATI-Tool hinterher trauern, weil dieser ganze CCC-Murks von ATI einfach nicht zu gebrauchen ist. Auch die MultiMon-Funktionalitäten beschränken sich bei ATI auf ein paar wenige Grundfunktionen... vollkommen unbrauchbar im professionellen Business-Umfeld.

Wie dem auch sei, Du musst nix "unkonfigurieren", um die eine oder andere Funktion zu benutzen: benutze nView!
Und ich vermute mal, dass Du diese Funktionalität, die mit JEDEM Treiber kommt, nicht einmal kennst... :rolleyes:

Hier mal ein paar Dinge zu der Thematik:
Einstieg: http://www.nvidia.de/object/feature_nview_de.html
QuickStart ins nVidia Control-Panel: http://de.download.nvidia.com/Windows/190.38/190.38_NVIDIA_Control_Panel_Quick_Start_Guide.pdf

Aber ich will Dir die Freude nicht nehmen, selbst ein bissel was darüber heraus zu finden...
... nur eines sei Dir gesagt: Umschaltung der kompletten Display-Konfiguration mit einem Hotkey oder nur zwei Klicks? Kein Problem!

Und gerade einem Newbie wir Dir sei gesagt: FINGER WEG VON INOFFIZIELLEN TREIBERN!

Razor

r@h
2009-08-03, 07:37:24
Nicht nur Beta, sondern inoffizielle Beta.
Wer weiß aus welchen dubiosen Quellen er diesen Treiber hat.
Nicht von nVidia, ohne referenzierte Quelle und nicht einmal WHQL?
Das ist tiefstes ALPHA-Stadium!

Offiziell: WHQL'd von nVidia oder einem Hersteller für meine Karte/meine Grafiklösung
Offizelle Beta: so von nVidia oder einem Hersteller gekennzeichnet, meist ohne WHQL
Inoffizielle Alpha: Rest

Und von irgendwelchen "Modding-Treibern" reden wir lieber erst gar nicht!

Klar, wenn gerade Newbies der Meinung sind, sich mit Alphas das System zu schrotten oder sich darüber beschweren zu können, dass irgendetwas nicht so funktioniert, wie es soll, ist das natürlich etwas, worüber man DRINGEND reden sollte :rolleyes:

Der Thread-Titel sollte lauten: "Ich habe eine Geforce... und ich sollte dringend erst einmal ein wenig lernen!"

Razor

Tzunamik
2009-08-03, 08:39:53
@ Schrotti,

hab jetzt mal auf Windows 7 RTM geupdatet...
Habs aus dem Firmen Technet bei uns. (legal!)....
Dort funktioniert das Downclocking auch mit den aktuellen Treibern :)
Wunderbar :) Das muss wohl etwas aus der RC1 gewesen sein :)

@ Razor,

du musst doch nicht so hart sein.
Ich hab zu G80 Zeiten nur nVidia gehabt und dort waren die Treiber weitaus besser als die von ATI.
Nach dem G80 kam ne G92 GTS und dann der RV770 und die ATI-Treiber waren GUT!
Was mir bei ATI niemals passiert ist, das zum Beispiel mit jedem Treiber die Ausleuchtung der Spiele anderst wirkt.
Beispiel Crysis Warhead....

186.08 leicht verstärkter Blur samt verschwommene Farben, selbst wenn Blur dort eigentlich NICHT greifen sollte.
Mit einer ATI ist es egal gewesen welcher Treiber, entweder es lief oder eben nicht, aber ohne das laaaaaaaaaaaaaaaaange Feld dazwischen...

Ich kann Schlammsau schon verstehen, wenn er so einiges noch nicht gewohnt ist und nicht kennt. Aber ich denke wir bzw. du, solltest Ihn nicht zu hart in Kritik nehmen.

@ Schlammsau,
da du ja auch wie ich wieder frisch von ATI zu nVidia gewechselt bist...
Mal ne Frage... Findest du auch, das die Texturen irgendwie "anderst" aussehen als vorher?
Auch rein Farblich und vom Kontrast usw?

Schlammsau
2009-08-03, 09:19:29
@ Schlammsau,
da du ja auch wie ich wieder frisch von ATI zu nVidia gewechselt bist...
Mal ne Frage... Findest du auch, das die Texturen irgendwie "anderst" aussehen als vorher?
Auch rein Farblich und vom Kontrast usw?
Ja sie sind nicht so scharf wie bei ATi, was ja bei den Radeons in manchen Situationen, zum Flimmern geneigt hat.
Kontrast- und Farbtechnisch ist mir bisher nichts aufgefallen.

Tzunamik
2009-08-03, 09:22:57
Hmm, okay :D
Also bild ich mit das Bild nicht ein :D
Puhhhh, dachte schon ich schieb jetzt Haluzinationen :)

Was mich ein wenig stört... ich kann nicht bestimmen WANN die Karte 2d bzw. 3d nutzt... das hätte ich mir gewünscht... oder geht das irgendwie?

Gast
2009-08-03, 09:43:10
Findest du auch, das die Texturen irgendwie "anderst" aussehen als vorher?
Auch rein Farblich und vom Kontrast usw?
Ach die Urban Legend wieder. Wenns sonst nichts gibt sind die Kontraste besser.
Tja Jungs, dies konnte nie bewiesen werden weils Bullshit ist.

Ja sie sind nicht so scharf wie bei ATi, was ja bei den Radeons in manchen Situationen, zum Flimmern geneigt hat.
Probier mal ein negatives LOD-Bias, dann wirds auch so schön scharf und flimmert.
Fantastisch, wie du in jeder Situation AMDs 8xAF, das dank Unterfilterung 16xAF genannt wird verteidigst.

Tzunamik
2009-08-03, 10:18:16
@ Gast,

jetzt halt mal den Ball flach!
Wo sage ich dass das "besser" oder "schlechter" ist.
Falls du die deutsche Sprache nicht beherrschst kann auch ich dir nicht weiter helfen...
In meinem Kommentar steht was? Richtig! ANDERST<-- das ist nicht negativ und auch nicht positiv.... eben ANDERST!
Und ich bin bis auf das 2d/3D Niveau mit der GTX mehr als zufrieden!
Bei ATI konnte ich das wenigstens "auf meine Art" regeln...
Was bei nVidia wohl laut internen Chipabschaltungen nicht möglich ist. (Nicht auf dem Niveau)
Die Karte ist trotzdem ein Traum und ich bin sehr zufrieden! (schon das 2te mal in einem Kommentar!)

BK-Morpheus
2009-08-03, 11:54:43
@ Gast,

jetzt halt mal den Ball flach!
Wo sage ich dass das "besser" oder "schlechter" ist.
Falls du die deutsche Sprache nicht beherrschst kann auch ich dir nicht weiter helfen...
In meinem Kommentar steht was? Richtig! ANDERST<-- das ist nicht negativ und auch nicht positiv.... eben ANDERST!
Und ich bin bis auf das 2d/3D Niveau mit der GTX mehr als zufrieden!
Bei ATI konnte ich das wenigstens "auf meine Art" regeln...
Was bei nVidia wohl laut internen Chipabschaltungen nicht möglich ist. (Nicht auf dem Niveau)
Die Karte ist trotzdem ein Traum und ich bin sehr zufrieden! (schon das 2te mal in einem Kommentar!)

Anderst gibt's nicht im deutschen, nur anders.

Ich habe vor ca. einem halben Jahr, beim Wechsel von einer ATI X1950GT auf eine Nvidia 9600GT, keine Unterschiede bei den Farben und dem Kontrast wahrgenommen.

edit: Sorry, falls du Österreicher bist, will ich nix gesagt haben bezüglich anders/anderst.

Gast
2009-08-03, 12:12:53
jetzt halt mal den Ball flach!
Wo sage ich dass das "besser" oder "schlechter" ist.
Falls du die deutsche Sprache nicht beherrschst kann auch ich dir nicht weiter helfen...
In meinem Kommentar steht was? Richtig! ANDERST<-- das ist nicht negativ und auch nicht positiv.... eben ANDERST!
Ersetze meinetwegen "besser" in meinem Post mit "anders".
Davon wirds nicht richtiger, es fehlen nachwievor Artikel/Beweise/Videos/Bilder.


Ob und wie dir der Idle/3D Modus gefällt oder auch nicht oder ob du allgemein zufrieden bist hat damit nichts zu tun.

Schlammsau
2009-08-03, 12:19:20
@Razor

Also ich fasse die von mir getesteten Treiber kurz zusammen, unterteilt in positiv/neagtiv für mich persönlich.

186.18 WHQL
Negatives:
-2D Takt mit 2 angeschlossenen Monitoren funzt nicht.
-LCD TV wird im Stand By bzw. ausgeschaltetem Zustand nicht erkannt.
-Der aktuellste nHancer meint sporadisch, das sich nach einem PC/nHancer - Neustart die Profile geändert haben. Dem war garantiert nicht so.
-Im Clone Mode lässt sich die Bildschirmgrösse des angeschlossenen LCD TVs nicht ändern. Nur im Dual View ist dies möglich und wird dann zum Glück auch vom Clone Mode übernommen.
-Fehlerhafte Stereoscopische Bildausgabe in FUEL.

Positives:
-Hervorragende BQ durch HQAF und die inoffiziellen AA Modis
-Der 2D-Mode bleibt, wenn er denn greift stabil.

190.38 WHQL
Negatives:
-2D Takt mit 2 angeschlossenen Monitoren funzt nicht.
-LCD TV wird im Stand By bzw. ausgeschaltetem Zustand nicht erkannt.
-Der aktuellste nHancer meint sporadisch, das sich nach einem PC/nHancer - Neustart die Profile geändert haben. Dem war garantiert nicht so.
-Im Clone Mode lässt sich die Bildschirmgrösse des angeschlossenen LCD TVs nicht ändern. Nur im Dual View ist dies möglich und wird dann aber leider nicht vom Clone Mode übernommen. Bild bleibt zu gross!
-Fehlerhafte Stereoscopische Bildausgabe in FUEL.
-2D Takt schwankt ohne jegliches zu tun. Ergebniss bis zu 20W mehr Verbrauch im Idle.

Positives:
-Hervorragende BQ durch HQAF und die inoffiziellen AA Modis

190.40 Beta (direkt aus der Hölle:devil:)
Negatives:
-2D Takt mit 2 angeschlossenen Monitoren funzt nicht.
-LCD TV wird im Stand By bzw. ausgeschaltetem Zustand nicht erkannt.
-Im Clone Mode lässt sich die Bildschirmgrösse des angeschlossenen LCD TVs nicht ändern. Nur im Dual View ist dies möglich und wird dann aber leider nicht vom Clone Mode übernommen. Bild bleibt zu gross!
-2D Takt schwankt ohne jegliches zu tun. Ergebniss bis zu 20W mehr Verbrauch im Idle.
-LCD TV hat im Clone Mode sporadisch "Aussetzer". Bild wird für ca. ne halbe Sekunde schwarz, danach geht normal weiter.

Positives:
-Hervorragende BQ durch HQAF und die inoffiziellen AA Modis
-Der aktuellste nHancer macht keine Probleme mehr.
-Stereoscopische Bildausgabe in FUEL funktioniert.

Armaq
2009-08-03, 12:24:14
Ich trete jetzt hier gleich was los, aber seitdem ich die ATI 4870 habe, kommt mir deren 2D-Bild besser vor. Also der reine Desktop.

Terrorwurm
2009-08-03, 12:29:22
@Razor

Also ich fasse die von mir getesteten Treiber kurz zusammen, unterteilt in positiv/neagtiv für mich persönlich.

186.18 WHQL
Negatives:
-2D Takt mit 2 angeschlossenen Monitoren funzt nicht.
-LCD TV wird im Stand By bzw. ausgeschaltetem Zustand nicht erkannt.
-Der aktuellste nHancer meint sporadisch, das sich nach einem PC/nHancer - Neustart die Profile geändert haben. Dem war garantiert nicht so.
-Im Clone Mode lässt sich die Bildschirmgrösse des angeschlossenen LCD TVs nicht ändern. Nur im Dual View ist dies möglich und wird dann zum Glück auch vom Clone Mode übernommen.
-Fehlerhafte Stereoscopische Bildausgabe in FUEL.

Positives:
-Hervorragende BQ durch HQAF und die inoffiziellen AA Modis
-Der 2D-Mode bleibt, wenn er denn greift stabil.

190.38 WHQL
Negatives:
-2D Takt mit 2 angeschlossenen Monitoren funzt nicht.
-LCD TV wird im Stand By bzw. ausgeschaltetem Zustand nicht erkannt.
-Der aktuellste nHancer meint sporadisch, das sich nach einem PC/nHancer - Neustart die Profile geändert haben. Dem war garantiert nicht so.
-Im Clone Mode lässt sich die Bildschirmgrösse des angeschlossenen LCD TVs nicht ändern. Nur im Dual View ist dies möglich und wird dann aber leider nicht vom Clone Mode übernommen. Bild bleibt zu gross!
-Fehlerhafte Stereoscopische Bildausgabe in FUEL.
-2D Takt schwankt ohne jegliches zu tun. Ergebniss bis zu 20W mehr Verbrauch im Idle.

Positives:
-Hervorragende BQ durch HQAF und die inoffiziellen AA Modis

190.40 Beta (direkt aus der Hölle:devil:)
Negatives:
-2D Takt mit 2 angeschlossenen Monitoren funzt nicht.
-LCD TV wird im Stand By bzw. ausgeschaltetem Zustand nicht erkannt.
-Im Clone Mode lässt sich die Bildschirmgrösse des angeschlossenen LCD TVs nicht ändern. Nur im Dual View ist dies möglich und wird dann aber leider nicht vom Clone Mode übernommen. Bild bleibt zu gross!
-2D Takt schwankt ohne jegliches zu tun. Ergebniss bis zu 20W mehr Verbrauch im Idle.
-LCD TV hat im Clone Mode sporadisch "Aussetzer". Bild wird für ca. ne halbe Sekunde schwarz, danach geht normal weiter.

Positives:
-Hervorragende BQ durch HQAF und die inoffiziellen AA Modis
-Der aktuellste nHancer macht keine Probleme mehr.
-Stereoscopische Bildausgabe in FUEL funktioniert.

Nur wegen FUEL machst du hier son trara?

LovesuckZ
2009-08-03, 12:32:25
Natürlich - irgendeind Grund muss man ja haben, um nVidia schlecht zu machen. Dass er S3D bei AMD nicht hat, wird nie auf einer negativseite erscheinen. Und den Dual-View-Modus scheint er auch noch ausprobiert zu haben. Der könnte vielleicht funktionieren. Und mein Tipp mit vTune für den 2D Idle Verbrauch im Mulit-Monitor-Betrieb - nunja, dann wäre es ja kein Negativpunkt mehr.

Schrotti
2009-08-03, 12:59:49
@Razor

Also ich fasse die von mir getesteten Treiber kurz zusammen, unterteilt in positiv/neagtiv für mich persönlich.

186.18 WHQL
Negatives:
-2D Takt mit 2 angeschlossenen Monitoren funzt nicht.
-LCD TV wird im Stand By bzw. ausgeschaltetem Zustand nicht erkannt.
-Der aktuellste nHancer meint sporadisch, das sich nach einem PC/nHancer - Neustart die Profile geändert haben. Dem war garantiert nicht so.
-Im Clone Mode lässt sich die Bildschirmgrösse des angeschlossenen LCD TVs nicht ändern. Nur im Dual View ist dies möglich und wird dann zum Glück auch vom Clone Mode übernommen.
-Fehlerhafte Stereoscopische Bildausgabe in FUEL.

Positives:
-Hervorragende BQ durch HQAF und die inoffiziellen AA Modis
-Der 2D-Mode bleibt, wenn er denn greift stabil.

190.38 WHQL
Negatives:
-2D Takt mit 2 angeschlossenen Monitoren funzt nicht.
-LCD TV wird im Stand By bzw. ausgeschaltetem Zustand nicht erkannt.
-Der aktuellste nHancer meint sporadisch, das sich nach einem PC/nHancer - Neustart die Profile geändert haben. Dem war garantiert nicht so.
-Im Clone Mode lässt sich die Bildschirmgrösse des angeschlossenen LCD TVs nicht ändern. Nur im Dual View ist dies möglich und wird dann aber leider nicht vom Clone Mode übernommen. Bild bleibt zu gross!
-Fehlerhafte Stereoscopische Bildausgabe in FUEL.
-2D Takt schwankt ohne jegliches zu tun. Ergebniss bis zu 20W mehr Verbrauch im Idle.

Positives:
-Hervorragende BQ durch HQAF und die inoffiziellen AA Modis

190.40 Beta (direkt aus der Hölle:devil:)
Negatives:
-2D Takt mit 2 angeschlossenen Monitoren funzt nicht.
-LCD TV wird im Stand By bzw. ausgeschaltetem Zustand nicht erkannt.
-Im Clone Mode lässt sich die Bildschirmgrösse des angeschlossenen LCD TVs nicht ändern. Nur im Dual View ist dies möglich und wird dann aber leider nicht vom Clone Mode übernommen. Bild bleibt zu gross!
-2D Takt schwankt ohne jegliches zu tun. Ergebniss bis zu 20W mehr Verbrauch im Idle.
-LCD TV hat im Clone Mode sporadisch "Aussetzer". Bild wird für ca. ne halbe Sekunde schwarz, danach geht normal weiter.

Positives:
-Hervorragende BQ durch HQAF und die inoffiziellen AA Modis
-Der aktuellste nHancer macht keine Probleme mehr.
-Stereoscopische Bildausgabe in FUEL funktioniert.

Die drei Treiber habe ich auch probiert und bin wieder zurück zum 186.08 Beta.

Coh funktionierte nicht (1680x1050 wird als 1080i Modus ausgegeben), Call of Duty 2 funktioniert nicht (weißes Bild nach dem der Level geladen wurde). Mal schauen wann ich den 190.38 wieder installiere um weiter zu testen.
Das ganze übrigens unter Windows 7 x64 Build 7100.

BK-Morpheus
2009-08-03, 13:55:51
Ich trete jetzt hier gleich was los, aber seitdem ich die ATI 4870 habe, kommt mir deren 2D-Bild besser vor. Also der reine Desktop.
Mein 2ter Monitor (der nur über VGA angeschlossen ist) ist jetzt mit der GTX260 auch deutlich unscharf, das war mit der 9600GT nicht so.

Ist aber in beiden Fällen ne Nvidia Karte und somit wohl eher nicht am Chiphersteller festzumachen.

Tzunamik
2009-08-03, 14:43:55
@ Morpheus,

es ging mir nicht um die Rechtschreibung... Und ich bin "Ausländer mit Migrationshintergrund" :D
@ Gast (Razor?),

Ich rede schon die ganze Zeit vom dem was ICH denke... weil darum geht es hier ja...
Um das was einer SELBST denkt. Also um Schlammsau, das er auf nVidia gewechselt hat und nun ein paar Dinge festgestellt hat, die ihm wohl nicht schmecken..
Ich gebe nur meinen Senf mit meiner Meinung hinzu.
Also keine Statistik oder Tabelle... sondern meine subjektive Meinung dazu!

Schlammsau
2009-08-03, 18:17:25
Nur wegen FUEL machst du hier son trara?
Nein, weil ich bisher 3 Treiber (zwei offizielle und einen Beta) probiert habe und immer wieder was neues nicht funktioniert.
Ich habe für die Karte mehr hingelegt als für eine Leistungstechnisch vergleichbare Karte der Konkurrenz. Dafür möchte ich auch einen Mehrwert!
Aber bis jetzt hab ich mehr "Probleme" als mehr Wert.

Natürlich - irgendeind Grund muss man ja haben, um nVidia schlecht zu machen. Dass er S3D bei AMD nicht hat, wird nie auf einer negativseite erscheinen. Und den Dual-View-Modus scheint er auch noch ausprobiert zu haben. Der könnte vielleicht funktionieren. Und mein Tipp mit vTune für den 2D Idle Verbrauch im Mulit-Monitor-Betrieb - nunja, dann wäre es ja kein Negativpunkt mehr.
Ich habe eine nVidia, wegen der vermeintlichen Vorzüge (u.a. 2D Stromverbrauch) gekauft. Und deswegen wie oben schon geschrieben auch mehr gezahlt. Den 2D-Stromverbrauch hab ich auch schon bei der HD4870/90 kritisiert, aber im Gegensatz zur Geforce lässt sich der bei diesen beiden Karten, sehr einfach um fast 50W senken. Bei einer GTX275 sind "nur" ~25W möglich. Beim letzteren kann ich mich aber täuschen.

LovesuckZ
2009-08-03, 18:58:07
Klar und wahrscheinlich ist dir nach über einem Jahr aufgefallen, dass im Multi-Monitor Betrieb der IDLE Modus nicht aktiv ist. Och, ist das Süß. Kaufe dir doch einfach wieder eine AMD Karte. Wirklich, troll dich zurück zu AMD und spiel dein Fuel - ohne S3D.

Mr. Lolman
2009-08-03, 19:05:59
Probier mal ein negatives LOD-Bias, dann wirds auch so schön scharf und flimmert.

Jo. Aber blöderweise flimmerts dann mehr, als bei ATi.

Tzunamik
2009-08-03, 19:09:24
@ Lovesuckz,

bei ATI/AMD kannst du im Multimonitor betrieb auf 160/250 oder tiefer takten.
Und kannst du und auch andere mal den Ton wahren?
Sind wir hier bei "Flame den anderen besser als er dich".... oder was?

Mr. Lolman
2009-08-03, 19:20:27
Du kannst mit einem ATI-3rd-Party Tool FUEL auf dem 2. Moni (Deinem TV) im Clone-Modus und in Stereo spielen?
RESPEKT!

DAS solltest Du allerdings erst einmal erklären!
Bin gespannt, wie Du das hinbekommen hast...



Kein Problem. Einfach Treiber installieren und spielen.

EDIT: Habs grad ausprobiert.

Schlammsau
2009-08-03, 19:29:12
@Razor
Ich habe nie gesagt, dass ich es probiert habe. Wie lange habe ich die Geforce und wie lange gibt es FUEL?
Ich habe nur gesagt, dass über ein Third Party Tool S3D auch auf ATi möglich ist. ;)


Klar und wahrscheinlich ist dir nach über einem Jahr aufgefallen, dass im Multi-Monitor Betrieb der IDLE Modus nicht aktiv ist. Och, ist das Süß. Kaufe dir doch einfach wieder eine AMD Karte. Wirklich, troll dich zurück zu AMD und spiel dein Fuel - ohne S3D.
Kein Problem. Einfach Treiber installieren und spielen.

EDIT: Habs grad ausprobiert.
Es funzt? Fein. :D