Archiv verlassen und diese Seite im Standarddesign anzeigen : User-Erfahrungen mit der GTX 460
Grendizer
2010-07-30, 16:51:57
Hi, hattest du die Gigabyte bestellt?
Meine war definitiv schon wo anders, das Problem ist ja auch das man nicht genau weiß ob derjenige schon den kühler abgebaut hatte und andere Paste verwendet hat, irgendwann geht dann mal die Karte kaputt und ALTERNATE verweigert mir den Garantieanspruch.
Im Endeffekt hat man eh nur 6 Monate und da geht selten was kaputt. Danach muss du nachweisen, das das Gerät schon beim Übergang einen Mangel hatte. Dieser Nachweis ist für einen Laien eigentlich nicht zu erbringen.
Manche Händler sind kulant und nehmen in den 2 Jahren Gewährleistung alles zurück ... andere nicht. Bei alternate weiss ich es nicht, weil ich da sProblem noch nie hatte. Einen Garantieanspruch hast du eh nur Gigabyte gegenüber.
Ich würde alternate einfach eine Mail schreiben, das du es nicht ok findest eine Karte aus einem Rücklauf zu bekommen. Damit hast du einen Nachweis, das die Karte schon in "Fremdbesitz" war, falls Probleme auftreten sollten. Eine Mail ist zwar rechtlich kein wirklich stichhaltiger Beweis, vieleicht wäre ein Fax da doch besser.
Pitman
2010-07-30, 17:08:58
darum kaufe ich meine hardware auch immer hier in hannovers computermeile.. da sehe ich sofort, was ich kaufe und ich erkenne auch, ob die hardware used ist.
(..)
mfg
tobi
Die haben die Karten doch nie auf Lager.....bevor dort eine Generation erscheint gibts schon die Nächste. Siehe auf deren HP, keine 460GTX da !
Grüße
Pit
Dark_angel
2010-07-30, 17:37:11
Im Endeffekt hat man eh nur 6 Monate und da geht selten was kaputt. Danach muss du nachweisen, das das Gerät schon beim Übergang einen Mangel hatte. Dieser Nachweis ist für einen Laien eigentlich nicht zu erbringen.
Manche Händler sind kulant und nehmen in den 2 Jahren Gewährleistung alles zurück ... andere nicht. Bei alternate weiss ich es nicht, weil ich da sProblem noch nie hatte. Einen Garantieanspruch hast du eh nur Gigabyte gegenüber.
Ich würde alternate einfach eine Mail schreiben, das du es nicht ok findest eine Karte aus einem Rücklauf zu bekommen. Damit hast du einen Nachweis, das die Karte schon in "Fremdbesitz" war, falls Probleme auftreten sollten. Eine Mail ist zwar rechtlich kein wirklich stichhaltiger Beweis, vieleicht wäre ein Fax da doch besser.
Wenn das so einfach wäre, wenn ich denen schreibe das ich ein Rückläufer bekommen habe, heißt es,,, ach das tut uns aber Leid wie konnte das nur passieren und sie schreiben das ich die Karte doch zurückschicken solle und somit bin ich der Blöde, weil ich sie ihnen dann nicht zurückgeschickt habe.
sarge
2010-07-30, 19:17:27
Dann zocke bloß nicht mit den beiden Karten. Wenn du erst mal an die Mehrleistung gewöhnt bist, ist der Rückschritt ziemlich bitter. :D
achwas, ich habe gestern nacht bischen crysis warhead und metro2033 mit SLI gespielt. hab überhaupt kein performance unterschied gemerkt.
bei warhead hatte ich mit (1920x1080 4xaa/16xaf rest auf max) nur 25 fps.
gleiche fps habe ich auch mit einer 460er.
und bei metro (1920x1080 dx11 rest auf max) hatte ich während gefecht 19fps und wenn ich alein unterwegs war ca 25 bis 29.
das unterschied sehe ich nur bei vantage. oder kennst du ein spiel das mit SLI doppelt so schnell läuft ?
Dark_angel@
ich habe die SPARKLE genommen weil das ein gutes angebot war :)
hab in letzer seite meine meinung darüber geschrieben.
das habe ich passend zum bildschirm in den AM3-optionen eingestellt und es wird angewandt, wenn du nicht den obersten standardtest, sondern den untersten auswählst.
Oi... das ist hart!
Weißt Du eigentlich, wie lange ich das Teil schon nutze?
Die oberste Option war nur vor sehr, sehr langer Zeit mal DIE Wahl.
Bin in den letzten Jahren (!) mit der mittleren Option gefahren... aber eben nur max 1600x1200.
Oki, dann wird mal mein nächster Parqour-Durchlauf das allererste mal ein reiner 1920x1200 "run".
Danke, mann :up:
Razor
PingpiN
2010-07-30, 22:53:32
Konkret krass: Knapp 163€ für eine GTX460 (http://www.alternate.de/html/shop/productDetails.html?artno=JBXWF1&articleId=407666&baseId=681344) bei Alternate. :eek:
Achtung ATi-Fans - mit dem Preis wird sogar die HD5770 angegriffen.
Schön ein quartal hat NVidia vielleicht die nase vorn.Spätestens im November schlägt Ati mit einen refresh auf.Im Januar wird wieder jedes regime gedeckt sein und Nvidia ist wieder im hintertreffen.
Byteschlumpf
2010-07-31, 01:52:49
achwas, ich habe gestern nacht bischen crysis warhead und metro2033 mit SLI gespielt. hab überhaupt kein performance unterschied gemerkt.
bei warhead hatte ich mit (1920x1080 4xaa/16xaf rest auf max) nur 25 fps.
gleiche fps habe ich auch mit einer 460er.
und bei metro (1920x1080 dx11 rest auf max) hatte ich während gefecht 19fps und wenn ich alein unterwegs war ca 25 bis 29.
das unterschied sehe ich nur bei vantage. oder kennst du ein spiel das mit SLI doppelt so schnell läuft ?
Dark_angel@
ich habe die SPARKLE genommen weil das ein gutes angebot war :)
hab in letzer seite meine meinung darüber geschrieben.
Hiernach nach sollten bei Crysis schon mehr als 25fps drin sein!
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_460_SLI/7.html
Also ich habe die GTX460 nun wieder zurück geschickt... Gainward GTX460 1024 GS-GLH.
Als ich beim Test des neuen Treibers 259.09 (Dev OGL4.1) so resümierte, war mir eigentlich nicht nur der Performance-Zuwachs (von einer OC'ten GTX260² kommend) zu wenig... auch störte mich noch immer Einiges... und das ist eigentlich Grund genug, diesen "Test" abzubrechen.
Da ist zum Einen der extreme Zuwachs an Leistungsaufnahme... von sehr guten 16W auf krasse 58W... wenn man es wagt, ein 2. Ausgabegerät anzuschließen. Zu allem Überdruß wird dadurch die Karte deutlich wärmer (wohlgemerkt im Windoof-Desktop!) - was natürlich logisch ist - oder doch nicht?
Da ist das Fehlen eines analogen Video-Ausganges (S-Video), welcher bei mir dringenst benötigt wird, um das Heimkino (alter Colouer) im WoZi bedienen zu können.
-> kleiner Exkurs hierzu...
Um diese Nachteile auszugleichen, habe ich mir noch eine 8400GS (G98, passiv) zugelegt, welche gerade mal 20 Teurönchen gekostet hat. Zwar hatte diese Karte den fehlenden S-Video Anschluss, war aber natürlich eine zusätzliche Wärmequelle im Rechner... unter der GTX460 "natürlich". Und da sind dann noch die nVidia-Treiber, die es einfach nicht auf die Reihe bekommen haben, diese beiden Grafikkarten vernünftig zu konfigurieren. Mal davon ab, dass der PhysX-Reiter ab und an verschwand (vollkommen unabhängig davon, was man zuvor eingestellt hat) und dann auch noch die GPU-Beschleunigung an sich "futsch" war - hat der Treiber wirklich JEDES mal die gesamte MutliMon-Config "zum Teufel gejagt", wenn man es wagte, den TV-Out oder den 2. Anschluss an der 2. GraKa zu aktivieren... primär Moni war dann plötzlich der erste TFT an der 2. GraKa, dann der TFT der 1. GraKa (natürlich rechts vom primären?)... usw. - mit dem Windows-CP ging das deutlich besser, wenn man es geschafft hat, alle Display-Parameter einmal im nVidia-CP einzustellen.
Lange Rede, kurzer Sinn: es funzt... "irgendwie".
Man kann die Leistungsaufnahme der primären Karte ganz erheblich senken und es bringt sogar den einen oder anderne Vorteil, eine 2. GraKa im Rechner zu haben... wenn sie denn ÄUSSERST genügsam ist!
<- Exkurs Ende
Da ist das permanente Rauf- und Runterdrehen des Lüfters bei Lastwechsel, obwohl der GLH-Lüfter in Idle wirklich kaum zu hören ist. Wobei ich mir am Anfang einredete, dass dies ja nur bei "hungrigen" Apps und Games der Fall ist - was dann aber doch zu "nerven" anfing.
Da ist das Fehlen der VRM-Kühler, die wirklich ausserordentlich heiß werden... wobei es mir schlicht EGAL ist, ob die das abkönnen, oder nicht. Mich stört diese Wärmequelle im Gehäuse... da ist etwas, was mit Siedetemperatur vor sich hin "glüht".
-> ein weiterer Exkurs
Bin zuerst mal das VRM-Problem angegangen und habe da ein paar Kühlkörper drauf geklebt... AKASA sei Dank. Aber Dank der "gelungenen" Kühlkostruktion der Palit/Gainward-Teile, kam dort von dem Lüfter nicht viel an, so dass dies kaum was brachte.
Dann habe ich mir mal den Scythe Setsugen angeschaut... welcher PERFEKT passen dürfte - wieder ein "aber" - nur, wenn man ein paar (mehr ;-) Lamellen des Kühlers kürzt... und zwar genau dort, wo der 2. DVI-Ausgang der Karte "oben" sitzt. DAS gibt ganz sicher auch zukünftig Inkompatibilitäten bei 3rd Party Kühlern!
<- auch dieser hat ein Ende
Na ja... irgendwann sagt man sich: muss das alles sein?
Und beginnt eine Pro/Con-Liste zu führen...
...und die (Gainward) GTX460 hat verloren!
Da ist noch eine Menge mehr, aber das würde an dieser Stelle zu weit führen. Auch sind es im wesentlichen DIE Punkte, die mich Abseits der 3D-Leistung am meisten gestört haben.
Habe jetzt wieder die GTX260 im Rechner und es herrscht himmlische Ruhe.
TROTZ dessen, dass da gerade mein BenchParqour (1920 only mit Dank an Tobi ;-) durch läuft und ich akustisch davon rein gar nichts merke...
Noch ist da die 2. GraKa drin, aber auch die wird gleich raus fliegen, bis ein erneuter Versuch gewagt wird.
Müsste dann aber schon ein GT104 im Vollausbau sein und einer "intelligenten" Kühlkonstruktion und vielleicht "Möhr RAM!"
;)
Razor
mit dem NVInspector und 2 Bat Dateien haste die Dinger immer im 2D Modus...da kannste 100 Geräte anklemmen.
Falsch.
Zum 2D-Modus gehört auch die zugehörige Voltage von 0.875Vc.
Und wenn Du das zusammen mit den 51/101/135 einstellst und Knopfdruck aktivierst kachelt der Treiber/die GraKa ab.
Ausserdem: "Tools? Nein Danke!"
Razor
das ist doch Quatsch, ich mache das seid dem ich die 480er habe und das ist länger als du deine 460er hast :-), da kachelt nix ab...und Tools, wenn du alles Tools von deinem Rechner wirfst die drauf sind kannste ihn auch gleich auslassen.
Aber jedem das seine, Hauptsache meckern :-)
Aussderdem scheinst Du nicht wirklich verstanden zu haben, worum es geht...
Oder was soll ein "2D-Modus" bringen, wenn Grafk-Apps "Poer" brauchen?
"Wer lesen kann, ist klar im Vorteil!"
:D
Ach, noch etwas... ich habe die GTX260 sicher schon deutlich länger, als Du Deine GTX480.
Und... ein GF100 würde mir NIEMALS in den Rechner kommen!
Razor
san.salvador
2010-07-31, 08:00:41
Ich frag mich langsam, ob ich die lauteste 260 oder die leiseste 460 erwischt habe... aber wie in Gottes Namen soll erstere leiser als die 460 sein? :|
Aussderdem scheinst Du nicht wirklich verstanden zu haben, worum es geht...
Oder was soll ein "2D-Modus" bringen, wenn Grafk-Apps "Poer" brauchen?
"Wer lesen kann, ist klar im Vorteil!"
:D
Ach, noch etwas... ich habe die GTX260 sicher schon deutlich länger, als Du Deine GTX480.
Und... ein GF100 würde mir NIEMALS in den Rechner kommen!
Razor
ja schon klar......480 länger wie 460...wie war das mit lesen....
Bei dir kackt der Treiber ab und andere können nicht lesen...schon klar, bau dir deine 260er wieder ein und werd glücklich damit.
Ich frag mich langsam, ob ich die lauteste 260 oder die leiseste 460 erwischt habe... aber wie in Gottes Namen soll erstere leiser als die 460 sein? :|
Unter Volllast kann eine GTX260 leiser sein, wenn man den Lüfter manuell regelt, und wir reden hoffentlich vom Referenzdesign, denn einige Customdesigns sind besser aber wurden nicht erwähnt (meine GTX260 blablub kann ja sonstwas sein).
150Watt wird man eben verkraften müssen im Mainstream sonst bleibt man auf alten Karten sitzen oder muss in Zukunft zu den kleineren Karten greifen. Schönere Grafik muss ihren Preis haben.
TobiWahnKenobi
2010-07-31, 09:44:21
die karten von palit/gainward und gigabyte haben wohl im bios keine P03-taktdomäne, sodass diese karten im dualschirmbetrieb immer mit voller taktrate laufen.
ein crossflash auf ein bios eines anderen herstellers könnte abhilfe schaffen. für user, die eh für den unlock der spannungsreglung umflashen sicher kein großes ding.
überstürzen würde ich aber nichts, vielleicht gibts ja noch offizielle bios-updates der hersteller.
eigentlich wollte ich mich mit bios-gefummel nicht mehr beschäftigen *kopfkratz* naja.. augen zu und durch..
(..)
mfg
tobi
Dark_angel
2010-07-31, 09:45:04
Mein Karton war auch nicht versiegelt, aber sah wie neu aus. Die Tüte um die Karte war allerdings mit Tesafilm versehen und ordentlich gefaltet. CD und anders Zubehör sind verschlossen.
Hi, in meiner Auftragsbestätigung steht:
1 x JCXYF7 Giby1GB D5 X GTX460 OC___________________R
Das R steht fiel weiter hinten, kann das R für Rückläufer stehen? Wäre ja ganz schön Krass.
Wie schön, dass Du meine Vermutung bestätigst... ;)
Ich frag mich langsam, ob ich die lauteste 260 oder die leiseste 460 erwischt habe... aber wie in Gottes Namen soll erstere leiser als die 460 sein? :|
Kann ich Dir sagen: GTX260 + Scythe Setsugen!
Der Lüfter darauf dreht mit konstanten 1000 Umin und hält die in ALLEN Lebenslagen "kühl"...
...und ist dabei effizienter, als ALLE anderen Lösungen!
Soweit ich das beurteilen kann, natürlich.
Damit man sich mal ein "Bild" machen kann:
http://www.abload.de/img/img_12254f29.jpg
Und wo wir schon dabei sind, hier mal mein VRM-"Mod" ;)
http://www.abload.de/img/img_1243ih8u.jpg http://www.abload.de/img/img_1245dhox.jpg
Und sollte ich mir nochmal einen G104 zulegen (Vollausbau/2Gig?), dann wird darauf geachtet, dass der Setsugen auch darauf montierbar ist.
http://www.abload.de/img/img_1246gdg0.jpg
Razor
Wie schön, dass Du meine Vermutung bestätigst... ;)
Des war an den Gast von 8:30 Uhr ;)
Razor
die karten von palit/gainward und gigabyte haben wohl im bios keine P03-taktdomäne, sodass diese karten im dualschirmbetrieb immer mit voller taktrate laufen.
ein crossflash auf ein bios eines anderen herstellers könnte abhilfe schaffen. für user, die eh für den unlock der spannungsreglung umflashen sicher kein großes ding.
Ist mit ein Grund, warum das Ding jetzt erst einmal zurück ging... noch keine "vernünftigen" Bios-Mod-Tools ;)
Und ja, dem ist so... P00/08/12, sonst nix.
Allerdings bleibt hier noch immer das Prob des fehlenden S-Video.
(zumal mir das mit den 4 Anschlüssen der Palit/Gainward im Nachhinein auch nicht gefällt - mehr als 2 gleichzeitig geht ja 'eh net ;-)
Razor
TobiWahnKenobi
2010-07-31, 10:08:48
@razor
*hust* damit müssen wir uns wohl anfreunden und arrangieren.. mir stößt auch übel auf, dass es keine analogen (komponenten) -ausgänge mehr gibt, aber darüber aufregen bringt ja nix.
das einzige, was mir übel aufstößt ist die schon erwähnte kacke mit den auflösungen und bildwiederholfrequenzen für den projektor.. wenigstens hab ich es gestern geschafft, im single-display-mode einige auflösungen manuell anzulegen, die auch funzen und fehlerfrei übernommen werden. 1080 geht zwar noch immer nicht, aber wenigstens bekomme ich jetzt bei 800x600, 1024x768 und 1280x720 sowie 1360x768 pixeln ein 60Hz-bild.. *confused*
mit der GTX260 ging echt alles.. von PAL bis 1080p, von 800x600 bis 1920x1080 mit nahezu beliebigen BWF von 23 bis 120Hz.
(..)
mfg
tobi
kein Bios Mod Tool..manman...mit dem nvinspector geht alles und PN an den Herrn da bekommt man aus das "BiosTool", event sollteste mal vom hohem Roß kommen und dich erstmal schlau machen :-)
Hi, in meiner Auftragsbestätigung steht:
1 x JCXYF7 Giby1GB D5 X GTX460 OC___________________R
Das R steht fiel weiter hinten, kann das R für Rückläufer stehen? Wäre ja ganz schön Krass.
Ich habe das R auch - steht imho für Retail.
TobiWahnKenobi
2010-07-31, 12:08:29
hmm..
jetzt bin ich ein bisschen perplex.. ich war der meinung, dass meiner karte die P03-states im bios fehlen, weil das teil ja im mehrschirmbetrieb nicht runtertaktet.. aber scheinbar stimmt das nicht..
habe mal mein bios gedumpt und es mir angeschaut (nichts verändert)..
http://www.TobiWahnKenobi.de/PICTURES/GTX460/original.jpg
liegts vielleicht doch an nem crappy treiber? *kopfkratz* denn voltage² lässt sich ja nicht editieren und steht auf "gpu-default". denke mal, dass hier der treiber die versorgungsspannung regelt.. oje oje.. der ist ja wirklich zu nix zu gebrauchen..
(..)
mfg
tobi
Dark_angel
2010-07-31, 13:22:20
Ich habe das R auch - steht imho für Retail.
Retail;D oh bin ich blöd:smile: na ja hätte ja sein können:biggrin: Heut zu Tage ist ja alles möglich, hast du schon mal auf OC getestet?
labecula
2010-07-31, 14:06:55
@razor
*hust* damit müssen wir uns wohl anfreunden und arrangieren.. mir stößt auch übel auf, dass es keine analogen (komponenten) -ausgänge mehr gibt, aber darüber aufregen bringt ja nix.
das einzige, was mir übel aufstößt ist die schon erwähnte kacke mit den auflösungen und bildwiederholfrequenzen für den projektor.. wenigstens hab ich es gestern geschafft, im single-display-mode einige auflösungen manuell anzulegen, die auch funzen und fehlerfrei übernommen werden. 1080 geht zwar noch immer nicht, aber wenigstens bekomme ich jetzt bei 800x600, 1024x768 und 1280x720 sowie 1360x768 pixeln ein 60Hz-bild.. *confused*
mit der GTX260 ging echt alles.. von PAL bis 1080p, von 800x600 bis 1920x1080 mit nahezu beliebigen BWF von 23 bis 120Hz.
(..)
mfg
tobi
Hm, also moment Mal. Zum Verständnis. Ich habe derzeit eine normal getaktete GTX 260 und wollte diese die Tage durch eine Gainward OC 460 ersetzen. Die GTX 260 lasse ich mit zwei Bildschirmen laufen. Einem FullHD TFT mit 60Hz und auf einem TFT TV FullHD mit wahlweise 50/60 oder 24P, je nachdem welchen Film ich schauen will. Das geht mit der 460 nicht mehr problemlos??!?
mit der GTX260 ging echt alles.. von PAL bis 1080p, von 800x600 bis 1920x1080 mit nahezu beliebigen BWF von 23 bis 120Hz.
Ja, ja... die "schöne neue Welt"!
Hatten wir das nicht schon mal vor ein paar Jahren?
Hmmm.
Jo, Projektor-Ansteuerung, SD-/HDTV - alles kein Prob' mit dem GT200.
Sollte aber auch mit 'ner 8400GS machbar sein... werd' ich dann mal checken, wenn es wieder soweit ist *g*
oje oje.. der ist ja wirklich zu nix zu gebrauchen..
Ist mir auch schon aufgefallen... "riecht" alles noch nach Alpha - wie ja auch die interne Treiber-Revisionen der "R256" vermuten lassen.
Alles nur "Charlies" und ich weiß aus sicherer Quelle, dass Codenamen im Treiber eigentlich nur für "unreleased dev-branches" gelten.
So wird man eines Besseren belehrt...
Ich vermute mal, dass nVidia mit seinen DX11-Parts einfach viel zu spät dran war.
Und da die Leutz ja 'eh nur Balken interessieren... who cares?
Razor
TobiWahnKenobi
2010-07-31, 14:16:22
@razor
zwei doofe ein gedanke - genau die begrifflichkeit "alpha" ging mir heute auch schon xmal durch den kopf u. dass der treiber noch unreif ist, erscheint nach einsicht in mein bios eigentlich naheliegend.
was der mist mit den ausgängen soll, erschliesst sich mir allerdings nicht wirklich.. vielleicht hätten sie bei 2x DVI bleiben sollen, denn das hat äonenlang funktioniert.
(..)
mfg
tobi
TobiWahnKenobi
2010-07-31, 14:25:46
Hm, also moment Mal. Zum Verständnis. Ich habe derzeit eine normal getaktete GTX 260 und wollte diese die Tage durch eine Gainward OC 460 ersetzen. Die GTX 260 lasse ich mit zwei Bildschirmen laufen. Einem FullHD TFT mit 60Hz und auf einem TFT TV FullHD mit wahlweise 50/60 oder 24P, je nachdem welchen Film ich schauen will. Das geht mit der 460 nicht mehr problemlos??!?
ich kann dazu nur sagen, was ich hier beobachten kann. und das ist folgendes:
mit der GTX260 und einem beliebigen treiber kann ich nahezu jede auflösung auf meinen über DVI->HDMI angeschlossenen 120Hz projektor loslassen. es ist ein gutmütiges gerät, dass wirklich jede von der nativen auflösung abweichende auflösung durch den scaler jagt und dann ein bild auf die wand wirft.
zu den offiziell unterstützten modi gehören 576i/p, 480p, 720p, 1080i und 1080p24. deneben werden so ziemlich alle vesa-auslösungen unterstützt.
wie gesagt, mit der GTX260 gab es absolut keine darstellungsfehler und es gab auch immer ein bild; egal was man grafikkartenseitig eingestellt hat.
die einzige crux waren die 120Hz, die aufgrund der kabeldämpfung nicht durch mein kabel wollen (10m). mit nem 5m kabel funzt allerdings auch das.
mit der GTX460 bekomme ich auf dem projektor nur dann ein bild, wenn ich 720p (1280x720/60Hz) einstelle. die einstellung mit 1920x1080 pixeln, die ich gern für den desktopbetrieb verwende bringt z.b. die meldung "kein signal" und die wand bleibt schwarz.
nach rumspielen (mit engelsgeduld) im treiber und dem anlegen bentzerdefinierter auflösungen war es mir möglich einen 800x600, einen 1024x768 und einen 1360x768 pixel modus "zu bauen", sodass diese auflösungen jetzt auch mit fehlerfreiem bild auf der wand landen. apropos fehlerfrei.. das hinzufügen von 1080p und 1080p24 (1080p24 wird vom nvidiatreiber als vom projektor unterstützt erkannt!) kann ich auch die fullHD-auflösung einstellen.. ich bekomme auch ein bild.. aber es ist tiefblau und unbrauchbar..
klonbetrieb mit meinem 24" fullHD schreibtischdisplay kann ich mir seit GTX460 von der backe putzen.. es sei denn ich stelle die auflösung auf augenkrebsverursachende geringere auflösungen ein (imo 1360x768 pixel als selbstgelötete krücke).
ich könnte das jetzt noch ein bissl weiter ausführen, aber ich denke wir erkennen auch so, dass da einiges im argen liegt.. also erspare ich uns romane..
(..)
mfg
tobi
labecula
2010-07-31, 14:55:08
Danke für die AUsführungen. Damit habe ich soeben die GTX460 wieder abbestellt. Solange dies nicht nachweisbar "nur" ein Treiberproblem ist, bleibt die 260er bei mir wo sie ist. So einen Murks kann ich wirklich nicht gebrauchen, zumal ich gerade auch alle meine Media Player verkauft habe und nun alles über den PC anschaue. Wenn ein parallelbetrieb FullHD auf TFT und FullHD auf TV mit wahlweise 50/60/24 nicht mehr möglich ist, ist das für mich ein absolutes K.O. Kriterium. Leistung mehr hin oder her...unglaublich... :freak::mad:
TobiWahnKenobi
2010-07-31, 15:03:32
man könnte jetzt noch weiterrumspielen oder abwarten und tee rauchen..
letzteres ist wahrscheinlich am chilligsten und vielleicht ist ja mit einem der kommenden treiber dann wirklich alle paletti.
weiter rumspielen würde bedeuten, dass mich interessieren würde, wie die im ganzen vier ausgänge priorisiert sind; oder sind sie alle gleichwertig? vielleicht würde es ja funzen, wenn ich den projektor über die native HDMI-schnitte verbinde, aber dazu fehlt mir ein kabel respektive die lust, meinen beamer oder HDTV abzubauen und neben den rechner zu stellen, nur damit meine kurzen HDMI-kabel längentechnisch ausreichen..
..ich denke, ich warte es erstmal ab.
(..)
mfg
tobi
Retail;D oh bin ich blöd:smile: na ja hätte ja sein können:biggrin: Heut zu Tage ist ja alles möglich, hast du schon mal auf OC getestet?
Ne, bisher nicht. ist mir aktuell schnell genug. Mir war nur wictig, dass sie im Idle leise ist, da ich mit dem PC eben auch arbeite.
Wovon ich nur abraten kann, sind die neuen GTX 460 EVGA's mit 1GB im Exhaust Design.
Ich hatte die normale, also ohne SC, ein paar Stunden eingebaut und das Lüftergeräusch ist geradezu unerträglich!
Schade, dass ich kein Mikro habe, sonst hätte ich hier eine Probe reingestellt. Hier hat zwar einer auch die Lautstärke bemängelt und was auf Youtube eingestellt, aber man hört es nicht so, als wenn man direkt daneben steht. -> http://www.youtube.com/watch?v=TqsYD0RleHs
Der Lüfter dreht von Anfang an auf 40% und geht selbst im Heaven-Bench, Vantage etc. nur bis max 44%. Dabei bleibt die Karte immer bei max. 75 Grad.
Sollte sich gut anhören, ist es aber nicht.
Im aktuellen 258'er kann weder MSI Afterburner 1.6.1 die Karte ansteuern, sprich kein Lüfterprofil, noch Voltage-Änderung möglich! Nur Taktänderungen werden angenommen! Ebenso das noch spärlicher ausgestattete EVGA Precision, was auch nur Taktveränderungen, jedoch keine Lüfterdrehzahländerung, geschweige denn Voltage zulässt.
Wenn man den alten 197.75, der eigentl. nur für 470/480 gedacht ist, auf 460GTX moddet, dann kann man mit dem MSI Afterburner 1.6.1 ein Lüfterprofil erstellen, was 30% erlaubt. Das ist auch der einzige Zustand, wo die Karte halbwegs lautlos ist. Schon ab 33 % fängt der Terror an, weil der Lüfter neben dem Laufgeräusch so ein Brummen verursacht. Kann man schwer beschreiben, wenn man es nicht selbst hört.
Bei 30 bis 33% läuft die Karte aber in Vantage bis 86 Grad und in Heaven bis zu 94 Grad. Das alles bei Standardtakt 675/1350/900, also nix übertaktet.
Leider stocken dann etliche Spiele mit dem gemoddeten 197.75. Liegt aber am Afterburner. Sobald man diesen abschaltet, läuft auch alles flüssig. Liegt also nicht an der Karte selbst.
Leider musste ich auch wieder meine 260 GTX einbauen und werde diese jetzt wohl doch noch länger behalten, da ich von den verbauten Kühllösungen der aktuellen NVIDIA-Grafikkarten mehr als enttäuscht bin und bisher jede Karte lauter war als die verbaute 260 GTX.
Ich bin ziemlich gefrustet und habe so langsam keine Lust mehr auf Grafikkartenkauf.
Der Test der Zotac war lange bekannt und die setzen auf den gleichen Kühler wie EVGA bei seinen EE. Gibt genug 460 mit anständiger Kühlung.
Ninja Ralf
2010-07-31, 16:31:35
Der Test der Zotac war lange bekannt und die setzen auf den gleichen Kühler wie EVGA bei seinen EE. Gibt genug 460 mit anständiger Kühlung.
Gibts eigentlich anständige pre Overclocked Karten mit leisem Lüfter ?
Die Palit und die Gainward sollen ja sehr enttäuschend sein.
Wieviel Mhz soll sie denn haben?
Dark_angel
2010-07-31, 18:04:42
Wieviel Mhz soll sie denn haben?
800Mhz GPU /1000Mhz Memory
Wobei der Speicher ab nicht so viel Bringen soll.
san.salvador
2010-07-31, 18:11:38
800Mhz GPU /1000Mhz Memory
Wobei der Speicher ab nicht so viel Bringen soll.
Speicher birngt quasi garnix, 1800Mhz vs. 2000Mhz bringt keine zwei Prozent.
dildo4u
2010-07-31, 18:15:49
800Mhz GPU /1000Mhz Memory
Wobei der Speicher ab nicht so viel Bringen soll.
Würde die 1GB MSI mit Cyclone Kühler kaufen und selber bis 800mhz OC.
http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_4_nvidia_geforce_gtx_460/6/#abschnitt_sonstige_messungen
http://geizhals.at/deutschland/a548330.html
TobiWahnKenobi
2010-07-31, 18:21:44
weiter rumspielen würde bedeuten, dass mich interessieren würde, wie die im ganzen vier ausgänge priorisiert sind; oder sind sie alle gleichwertig?
wie ich es hasse, wenn sich verdachte erhärten.. ich habe natürlich weiter rumgespielt und den projektor mal kurzerhand auf den schreibtisch gestellt..
anm. 1m projektionsabstand ist nicht zu empfehlen, da erblindend hell :eek:
ähm.. *hust* es ist so.. die DVI-ausgänge sind nicht gleichwertig zum HDMI-port. über selbigen bekomme ich genau das, was ich verhaltenstechnisch von der GTX260 gewohnt bin.
über die beiden DVI-ports -> keine chance. hab sie einzeln und in jeder erdenklichen kombination getestet. über DVI bekomme ich bestenfalls 1080i im klonmodus hin und so sieht das auf dem schreibtischdisplay dann auch aus :ufinger: aber ei-der-daus.. es gibt sogar ton über DVI..
vielleicht würde es ja funzen, wenn ich den projektor über die native HDMI-schnitte verbinde, aber dazu fehlt mir ein kabel..
toll oder? damit alles so funktioniert wie vorher muss ich nur ein sündteures HDMI-kabel mit 10m länge kaufen und den mist dann hier neu verkabeln.. das sauber verlegte DVI->HDMI aus den kabelkanälen befreien und in irgendeine tonne kloppen, weil ja nicht mehr brauchbar.. *haarerauf*
schon super, was der schnöde wechsel einer grafikkarte für arbeit im heimkino nach-sich-zieht.. an die investition denke ich jetzt mal bewusst nicht, sonst kotze ich.
la la la.. *wuut*
btw,
kommt noch eine frage in mir hoch.. also neben der magensäure.. ->> könnte sich das per treiber und ohne kabel ändern??
ich glaube, ich will darauf gar keine antwort haben.
(..)
mfg
tobi
Dark_angel
2010-07-31, 18:25:18
Speicher birngt quasi garnix, 1800Mhz vs. 2000Mhz bringt keine zwei Prozent.
Ja das habe ich auch schon gehört, will es aber irgendwie nicht so richtig glauben.
Im Heaven mit 1920x1200 Rest alles auf Max, bilde ich mir ein das es was bringt.
Im vantage auf Extreme merke ich auch fast keinen unterschied.
Mit 800Mhz gibt es momentan nur Pailit und Gainward. Evtl. auf die OC-Versionen von Point of View warten. Oder eine andere selber hoch takten.
Erst einmal vorweg mein tiefempfundenes Mitleid!
Du hast Dich hier einer Frage gestellt, die mir in den letzten 1,5 Wochen noch nicht einmal in den Sinn gekommen ist...
Das wäre aber wahrlich ein böses Erwachen gewesen!
kommt noch eine frage in mir hoch.. also neben der magensäure.. ->> könnte sich das per treiber und ohne kabel ändern??
ich glaube, ich will darauf gar keine antwort haben.
Du hast auch eine Palit/Gainward?
Dann sehe ich keine Chance!
Wie man ja sieht, haben sie selbst an einem VRAM-Kühler "gespart"... wäre für die Bestücker quasi Null-Aufwand gewesen und kostenseitig nur mit ein paar Cent zu Buche geschlagen. So "darf" man also davon ausgehen, dass man sich die "Anschluß-Vielfalt" mit Billig-Teilen erkauft hat... die DVI werden einfach nur nicht vernünftig abgeschirmt und in ihrer Erdung nicht sauber getrennt worden sein -> Darstellungsmüll.
Gut, dass wenigstens der HDMI (immerhin ein "Vollwert" HDMI Anschluss) bei Dir tut.
Wenn ich das richtig sehe, werde ich mich - wenn überhaupt - erst wieder einer "Fermi" Karte widmen, wenn ich von voller Qualität des Boards ausgehen "darf". Die Kühllösung ist mir dann egal und die einzige Voraussetzung eben quadratisch angeordnete Bohrungen für den Kühler und damit an Sicherheit angrenzende Kompatibilität zum Scythe Setsugen.
Würde mich mal interessieren, ob die Anschlüsse im Referenz-Design (2xDVI + Mini-HDMI) wenigstens qualitativ taugen!
Razor
san.salvador
2010-07-31, 19:07:24
Ja das habe ich auch schon gehört, will es aber irgendwie nicht so richtig glauben.
Im Heaven mit 1920x1200 Rest alles auf Max, bilde ich mir ein das es was bringt.
Im vantage auf Extreme merke ich auch fast keinen unterschied.
Einbildung ist toll, aber Messungen zeigen was anderes. ^^
Dark_angel
2010-07-31, 19:33:25
Einbildung ist toll, aber Messungen zeigen was anderes. ^^
Was hast du schon für Messungen durch?
Wenn ich das richtig sehe, werde ich mich - wenn überhaupt - erst wieder einer "Fermi" Karte widmen, wenn ich von voller Qualität des Boards ausgehen "darf". Die Kühllösung ist mir dann egal und die einzige Voraussetzung eben quadratisch angeordnete Bohrungen für den Kühler und damit an Sicherheit angrenzende Kompatibilität zum Scythe Setsugen.
Habe grad' mal ein bissel geschaut... kann es sein, dass Palit/Gainward ALS EINZIGE ein "Custom PCB" haben?
Also ein eigenes Platinenlayout?
Das Board scheint kürzer und die Bohrungen sind quadratisch angeordnet.
Bei (bisher) ALLEN ANDEREN ist das Board länger und die Bohrungen rechteckig angelegt...
...und wenn man auf die Rückseiten schaut: absolut identisch!
(OK, bis auf die von KFA, aber auch das "Reference-Bohrung")
Quadratisch, kurzes "custom" PCB:
- Palit / Gainward
Rechteckig, langes "custom" PCB:
- KFA²
Rechteckig, langes "reference" PCB:
- MSI
- Zotac
- eVGA
- Gigabyte
- Axle
- Inno3D
- ASUS
- Club3D
- Point of View
- Sparkle
AAAAARRRRRRGGGGHHHHHH!
Tjo, da heißts wohl "Warten" für mich... *g*
Razor
Sorry, die ASUS gehört auch zur KFA²!
Razor
san.salvador
2010-07-31, 20:15:10
Was hast du schon für Messungen durch?
800/1600/1800 vs. 800/1600/2000
3Dmark (~1.5%) und Heaven (4xAA/16xAF: 1.4%)
Danach hab ich aufgehört, weils vergeudete Zeit ist.
Beides ist MASSIV GPU-limitiert.
Da wirst Du tatsächlich rein gar nichts beim Speicher merken.
Wir wärs mit ein wenig "real-world-testing"?
Dein "Ergebnis" hätte ich Dir auch mitteilen können, ohne auch nur einen einzigen "Test" machen zu müssen.
Razor
labecula
2010-07-31, 20:54:25
Heißt aber auch, dass trotzdem kein Zweischirm Betrieb mit getrennten Wiederholfrequenzen mit FullHD möglich ist - oder verstehe ich da was falsch?! FullHD weiterhin nur über HDMI. DVI mit Ton, aber nur 720p max... geht ehrlich garnicht! Wohin nur mit den 250 Euro? ATI ist keine Diskussion wert, 470, 480 auch nicht... argh... durchatmen und auf hochwertigere Boards warten?
wie ich es hasse, wenn sich verdachte erhärten.. ich habe natürlich weiter rumgespielt und den projektor mal kurzerhand auf den schreibtisch gestellt..
anm. 1m projektionsabstand ist nicht zu empfehlen, da erblindend hell :eek:
ähm.. *hust* es ist so.. die DVI-ausgänge sind nicht gleichwertig zum HDMI-port. über selbigen bekomme ich genau das, was ich verhaltenstechnisch von der GTX260 gewohnt bin.
über die beiden DVI-ports -> keine chance. hab sie einzeln und in jeder erdenklichen kombination getestet. über DVI bekomme ich bestenfalls 1080i im klonmodus hin und so sieht das auf dem schreibtischdisplay dann auch aus :ufinger: aber ei-der-daus.. es gibt sogar ton über DVI..
toll oder? damit alles so funktioniert wie vorher muss ich nur ein sündteures HDMI-kabel mit 10m länge kaufen und den mist dann hier neu verkabeln.. das sauber verlegte DVI->HDMI aus den kabelkanälen befreien und in irgendeine tonne kloppen, weil ja nicht mehr brauchbar.. *haarerauf*
schon super, was der schnöde wechsel einer grafikkarte für arbeit im heimkino nach-sich-zieht.. an die investition denke ich jetzt mal bewusst nicht, sonst kotze ich.
la la la.. *wuut*
btw,
kommt noch eine frage in mir hoch.. also neben der magensäure.. ->> könnte sich das per treiber und ohne kabel ändern??
ich glaube, ich will darauf gar keine antwort haben.
(..)
mfg
tobi
san.salvador
2010-07-31, 20:56:01
Beides ist MASSIV GPU-limitiert.
Da wirst Du tatsächlich rein gar nichts beim Speicher merken.
Wir wärs mit ein wenig "real-world-testing"?
Dein "Ergebnis" hätte ich Dir auch mitteilen können, ohne auch nur einen einzigen "Test" machen zu müssen.
Razor
Wieso soll ich künstliche Limits herbeiführen? Ich Spiele in 1920x1200 4xAA/16xAF, was anderes teste ich nicht. Und selbst wenn der Speicher in der "echten Welt" 5% bringt, ist das noch immer Pipifax.
TobiWahnKenobi
2010-07-31, 21:11:49
soderle.. jetzt habe ich mal fleissig mit kabeln gespielt.. :rolleyes:
der projektor hängt jetzt über HDMI an der karte und tut, was er soll. leider finde ich das netzteil von meinem HDMI-repeater nicht, der im moment 2 kabel verbindet, sodass ich bei hohen bandbreitenanforderungen verbindungsabbrüche bekomme, was aber mittelfristig verschmerzbar ist. das gewohnte "immer ein bild" ist aber scheinbar wieder gegeben.
das befreite DVI->HDMI kabel liegt jetzt im anderen kabelkanal und kontaktet meinen HDTV.
der syncmaster hängt weiterhin an ausgang3 und VGA ist frei.
um nicht wahnsinnig zu werden empfehle ich folgendes:
1. einmalig jedes display für sich im singlebetrieb ansteuern, einstellen und die evtl. fehlenden auflösungen und bildwiederholfrequenzen in der forceware anlegen. danach (gerade bei unterschiedlichen fähigkeiten der angeschlossenen geräte sinnvoll) alle kombinationen des klonbetriebs durchschalten und gemeinsame auflösungen ermitteln/einstellen/übernehmen.
http://www.TobiWahnKenobi.de/PICTURES/GTX460/tripple2.jpg
2. die gewünschten ausgänge immer in der forceware aktivieren, aber die auflösung, bildwiederholfrequenz und position des bildes über windows bordmittel einstellen (rechtsklick desktop -> bildschirmauflösung)
http://www.TobiWahnKenobi.de/PICTURES/GTX460/tripple1.jpg
hat man seine einstellungen einmal alle wie gewünscht am start gehabt, so sollten diese settings auch WIN+P (moduswechsel unter seven) überstehen.
ich hab für heute die schnauze voll.
(..)
mfg
tobi
labecula
2010-07-31, 21:24:46
Wie sieht es denn mit der allg. OC Erfahrung hier aus? Sind faktisch alle Karten prbemlos auf Core800/Shader1600 zu ocen? Oder gibt es da Ausreißer?
TobiWahnKenobi
2010-07-31, 21:32:51
augenscheinlich schaffen viele einen hohen takt, aber ob das auch unter allen bedinungungen so bleibt, kann keiner sagen. mir erschien es sicherer vorsätzlich die karte mit den 800/1600/2000MHz zu kaufen.
(..)
mfg
tobi
labecula
2010-07-31, 21:36:01
augenscheinlich schaffen viele einen hohen takt, aber ob das auch unter allen bedinungungen so bleibt, kann keiner sagen. mir erschien es sicherer vorsätzlich die karte mit den 800/1600/2000MHz zu kaufen.
(..)
mfg
tobi
So auch mein Gedanke. Aber es bleibt ja faktisch nur die Palit Platinum oder die GLH, beide ja von Palit letztendlich... Die GLH ist aber leider überall schlecht verfügbar. Die Platinum... die sll ja in Sachen Lautstärke schlechter abschneiden als die GLH. Verflixt...Kann man das GLH BIOS nicht einfach auf die Palit Platinum knallen um faktisch eine 1:1 Gainward GLH zu bekmmen?
dreas
2010-07-31, 21:49:44
Kann man das GLH BIOS nicht einfach auf die Palit Platinum knallen um faktisch eine 1:1 Gainward GLH zu bekmmen?
klar kann man. auf meiner gainward "nur GS" läuft das platinum bios.
san.salvador
2010-07-31, 21:50:39
klar kann man. auf meiner gainward "nur GS" läuft das platinum bios.
Hast du das mit dem auf der Herstellerseite verfügbaren Update gemacht?
dreas
2010-07-31, 21:53:42
Hast du das mit dem auf der Herstellerseite verfügbaren Update gemacht?
sorry habe mich geirrt, war doch das glh bios von orbimuk gemoddet.
SuperSoldierX
2010-07-31, 22:58:29
Habe meine Palit Sonic im Anfall jugendlichen Leichtsinns auch out-of-box mit dem PCGH Platinum Bios geflasht. Bis jetzt auch zum Glück nicht bereut. :wink:
Dant3
2010-07-31, 23:26:33
soderle.. jetzt habe ich mal fleissig mit kabeln gespielt.. :rolleyes:
Ich kann dein leiden nachvollziehen, aber ich bin dankbar das du die problematik im multi display betrieb, so ausfuehrlich geschildert hast.
Ich war auch kurz davor mir eine GTX460 zu holen, jetzt wo die MSI Cyclone karten verfuegbar sind, doch ich lege auch großen wert darauf das ich problemlos meinen HDTV im clone mode betreiben kann.
Offensichtlich scheint dies ja nur mit absoluter muehe und not moeglich zu sein. Ich weiß natuerlich nicht ob es an deiner "speziellen" kombination liegt, aber das risiko, um dies raus zu finden werde ich wohl nicht eingehen.
Schon lustig das meine ollen ATI karten bisher immer automatisch das 2te angeschlossene display (beide DVI!) gefunden haben, man die aufloesung und die herz anzahl einstellt, in den clone modus wechselt und fertig ist.
Komisch das die 460er da so rum spacken, das ist fuer mich auf jeden fall grund nummer uno, diese zu meiden wie die pest :(. Auf so ein theater habe ich fuer das performance plus keine lust, dann wird halt doch bis zu southern island gewartet.
Al-CAlifAX
2010-08-01, 09:32:46
Ich kann dein leiden nachvollziehen, aber ich bin dankbar das du die problematik im multi display betrieb, so ausfuehrlich geschildert hast.
Ich war auch kurz davor mir eine GTX460 zu holen, jetzt wo die MSI Cyclone karten verfuegbar sind, doch ich lege auch großen wert darauf das ich problemlos meinen HDTV im clone mode betreiben kann.
Offensichtlich scheint dies ja nur mit absoluter muehe und not moeglich zu sein. Ich weiß natuerlich nicht ob es an deiner "speziellen" kombination liegt, aber das risiko, um dies raus zu finden werde ich wohl nicht eingehen.
Schon lustig das meine ollen ATI karten bisher immer automatisch das 2te angeschlossene display (beide DVI!) gefunden haben, man die aufloesung und die herz anzahl einstellt, in den clone modus wechselt und fertig ist.
Komisch das die 460er da so rum spacken, das ist fuer mich auf jeden fall grund nummer uno, diese zu meiden wie die pest :(. Auf so ein theater habe ich fuer das performance plus keine lust, dann wird halt doch bis zu southern island gewartet.
also ich habe keine probleme mit dem 2. DVI. angeschlossen, clonemodus - fertig. dieses ati vs. nvidia gebashe ist echt nervig. solche fehler sehe ich auch zuhauf bei ati karten, das sind halt bestimmte komponenten die dann bei 10% der user probleme verursachen. das kommt vor, kann man aber nicht explizit auf eine firma schieben. beide firmen haben gute und schlechte karten im angebot, mit unterschiedlichen merkmalen. was die eine besser kann, kann die andere schlechter und umgedreht. meistens liegt das auch an boardherstellern die sich an das referenzmodell halten und ihren eingenen senf drehen. dann sollte man sich aber auch an diese firma wenden und nicht an nvidia.
ich habe mir die Sparkle GTX460 gekauft und hatte 0 probleme. natürlich kann es mal einen frischen treiber für eine neue hardware geben der kurzfristig ein problem hat. denn dieser clonemodus war in den ersten treibern der GTX460 kurzfristig net ganz sauber. das wurde binnen Tagen gefixt und schon ist wieder alles i.o. Man kann sich wenig über die softwareabteilung bei nvidia beschweren.
der clonemodus funktioniert auchs o, wie er funktionieren soll. wenn manche keinen 16:9 LCD Monitor haben und den auf 1920x1080 fahren und dann versuchen zu clonene, ist es schon mathematisch logisch das man nochn bissl umstellen muss. ich hatte vor 1 jahr noch ein 16:10 mit 1680x1050 Monitor und das clonen auf den 16:9 LCD TV machte das bild aufm TV etwas schmaler in der Höhe. und das ist logisch, denn es wird 16:10 auf 16:9 geclont. sowas muss man dann in mediaplayern mit einplanen. der vlc kann hier sauber ein breitbild croppen das es aufm LCD TV dann auch sauber ankommt. der clone modus heisst nicht umsonst clone.
also lasst bitte das meckern auf eine firma die ihr nicht magt, diese zeit könntet ihr in wissen investieren um solche lustigen kommentare zu vermeiden.
in diesem sinne
Al-CAlifAX
2010-08-01, 09:57:48
soderle.. jetzt habe ich mal fleissig mit kabeln gespielt.. :rolleyes:
der projektor hängt jetzt über HDMI an der karte und tut, was er soll. leider finde ich das netzteil von meinem HDMI-repeater nicht, der im moment 2 kabel verbindet, sodass ich bei hohen bandbreitenanforderungen verbindungsabbrüche bekomme, was aber mittelfristig verschmerzbar ist. das gewohnte "immer ein bild" ist aber scheinbar wieder gegeben.
das befreite DVI->HDMI kabel liegt jetzt im anderen kabelkanal und kontaktet meinen HDTV.
der syncmaster hängt weiterhin an ausgang3 und VGA ist frei.
um nicht wahnsinnig zu werden empfehle ich folgendes:
1. einmalig jedes display für sich im singlebetrieb ansteuern, einstellen und die evtl. fehlenden auflösungen und bildwiederholfrequenzen in der forceware anlegen. danach (gerade bei unterschiedlichen fähigkeiten der angeschlossenen geräte sinnvoll) alle kombinationen des klonbetriebs durchschalten und gemeinsame auflösungen ermitteln/einstellen/übernehmen.
http://www.TobiWahnKenobi.de/PICTURES/GTX460/tripple2.jpg
2. die gewünschten ausgänge immer in der forceware aktivieren, aber die auflösung, bildwiederholfrequenz und position des bildes über windows bordmittel einstellen (rechtsklick desktop -> bildschirmauflösung)
http://www.TobiWahnKenobi.de/PICTURES/GTX460/tripple1.jpg
hat man seine einstellungen einmal alle wie gewünscht am start gehabt, so sollten diese settings auch WIN+P (moduswechsel unter seven) überstehen.
ich hab für heute die schnauze voll.
(..)
mfg
tobi
Du kannst einen HDready LCD TV auch mit 1080p ansteuern. ist im falle des clonens auch sinnvoller, wenn der LCD Monitor über den 720p liegt. Desweiteren kannst du auswählen, von wo geclont wird. Dazu solltest Du aber direkt in die Nvidia Control Panel gehen und dort den Clone Modus starten. Dann kannst du über rechtklick auf einen der beiden Bildschirme auswählen von wem zu wem geclont werden soll. Du kannst auch vom TV zum Monitor clonen und beide und verschieden auflösungen fahren. einzig bild abschnitte die über das bild hinausgehen musst du nachskalieren, auch hierfür steht im control panel ein modul bereit.
von 1920x1080 oder 1680x1050 auf 720p runterrendern ist so ziemlich das unsinnigste was man machen kann. denn die HDReady Fernseher sind nicht zu 100% 720p, sondern eben 1360x768. Jeder halbwegs gut LCD TV kann selber skalieren und das wesentlich besser als der PC. also solltest Du auch den LCD TV mit 1920x1080 ansteuern. Der grund ist ganz einfach. ein 1080p format ist ein sauberes TV format, während 1360x768 es nicht ist, sondern 1280x720 wäre es. Das hier mathematisch probleme kommen ist völlig normal und auch der völlig falsche ansatz. du sagst ja auch net der Playsation 3 das er 1360x768 ansteuern soll. Nein du sagst ihr 720p oder 1080p und fertig. eben saubere Formate.
wenn du einen 16:9 LCD monitor hast und den mit 1920x1080 fährst, dann clone das bild vom LCD Fernseher auf den Monitor, indem du im Control panel auf "Mehrere Anzeigen einrichten" klickst, beide Geräte auswählst und dann mit rechtsklick auf das unter bild mit den 2 monitoren wo 1 und 2 drinne stehen, und Duplizieren mit TV als primäre Clone Anzeige verwenden. Und schon klappt des auch. Vorrausgesetzt das du vorher in den auflösungen dem LCD TV eine aufösung von 1080p zugewiesen hast. was in meinem falle der LG treiber meines LCD TV's automatisch auf 1080p gemacht hat und meiner ist auch nur eine 32 zoll HD Ready. dann hast du eine saubere 1:1 lösung die am LCD TV evtl. noch 0,5 cm rechts und links abschneidet. sollte dich aber beim filme gucken nicht weiter stören. das merkst du maximal im desktop unten an der startleiste. das ist sehr minimal. ansonsten kannst du dem desktop des LCD TVs auch eine neue skalierung geben, dann wäre es aber nicht mehr 1:1.
die 0,5 cm rühren vom skalierer des LCD TV's her. dieser setzt das bild nie so hoch das es genau in den Rahmen passt, sondern geht etwas drüber. das ist üblich bei jeder film skalierung. bei DVD's war früher gang und gebe den verschnitt von Fernsehern mit zu berechnen und einzuplanen um texte nicht am bildschirmrand verschwinden zu lassen.
solltest du einen 16:10 monitor haben nimmst du den Monitor als primäre Anzeige. der skaliere von nvidia wird dann das bild auf 1920x1980 hochrechnen ohne es zu verändern. das heisst aus 16:10 wird 16:9. wenn du vlc verwendest stellst du dort beschneiden auf 16:9 ein. Dann siehts am TV richtig aus. das bild wird quasi etwas in der höhe vergrößert auf dem monitor dargestellt da der ja 16:10 und nicht 16:9 ist und auf dem TV sauber in 16:9. jedes kinoformat ist erstmal 16:9, nämlich 480p, 576p, 720p oder 1080p. bei einem Cinematic Widescreen kommnt dann ein bild mit schwarzen balken raus, was halt nur viele divx oder vmk's schon abgeschnitten haben. auf ner blueray oder dvd währen diese schwarze balken noch da. denn auch ein cinematic ist immer erstmal 16:9 mit schwarzen balken, die man nur net sieht. ich mache schon seit knapp 12 jahren professionelle machinima-videos, von daher kenne ich mich damit mittlerweile sehr gut aus.
solltest du dein bild erweitern wollen, solltest du ebenfalls von 1080p zu 1080p erweitern. denn wie gesagt, jeder halbwegs gute LCD TV kann besser skalieren als es software kann. der fernseher skaliert erst runter auf 720p, was auch die software sauber könnte und passt dann aber bei einem HDready die fehlenden pixel noch an. warum sich die hersteller nicht für ein sauberes 720p entschieden haben, bleibt wohl nur deren geheimnis. ;)
solltest du auch auf saubere zeichensätze des desktops aufm lcdtv wert legen, dann wähle nutze nicht 1080p, sondern 720p. dann muss nvidia eben vorher runterrechnen. aber niemals 1360x768 eingeben, wenn du filme oder sonstwas gucken willst, die kommen immer verkehrt an, egal ob die karte von ati oder nvidia ist. das sind rein rechnerische probleme. bei ansteuerung 720p skaliert dein TV net mehr runter, sondern vergrößert es nur auf die 1360x768. das bewirkt das zeichensätze nicht nochmal nachgerendert werden und sie 1:1 im TV ankommen. damit hast du dann ein schönes desktop bild. aber fürs filme gucken würde ich das nicht verwenden. ein hochauflösendes bild was reinkommt und dein tv skaliert, sieht runder und weicher. dies trifft natürlich nur auf einen HDReady LCD TV zu. ein FullHD sollte immer mit 1080p angesteuert werden.
ich hoffe ich konnte dir weiterhelfen.
TobiWahnKenobi
2010-08-01, 10:06:52
*hust* "jeder halbwegs gute LCD TV kann besser skalieren als es software kann"
das ist ja wohl ein gerücht. es ist immer der idealzustand, wenn man nativ zuspielt.
das gehört zwar nicht in dieses topic, aber du solltest dich mal mit wertiger skalierung auf aufbereitung via avisynth+ffdshow vor dem zuspielen auseinandersetzen.
infos, anleitung und links zu weiterführenden quellen zu der thematik findest du über den link in meiner signatur.
(..)
mfg
tobi
Al-CAlifAX
2010-08-01, 10:17:10
*hust* "jeder halbwegs gute LCD TV kann besser skalieren als es software kann"
das ist ja wohl ein gerücht. es ist immer der idealzustand, wenn man nativ zuspielt.
das gehört zwar nicht in dieses topic, aber du solltest dich mal mit wertiger skalierung auf aufbereitung via avisynth+ffdshow vor dem zuspielen auseinandersetzen.
infos, anleitung und links zu weiterführenden quellen zu der thematik findest du über den link in meiner signatur.
(..)
mfg
tobi
avisynth skaliert auf 1080p hoch, wo ist das problem? wie gesagt ich mache sowas schon 12 jahre. und habe mit sämtlichen containern und codecs hantiert die es gibt. krumme lcd's die kein standard format besitzen und das sind nunmal HDReady TV's, sollten immer mit sauberen Formaten gefüttert werden. denn diese letzte endskalierung findet im TV statt. das vorher ein Bildformat per software erstmal auf das gewünschte format gebracht werden muss ist doch völlig normal. ne anständige skalierung von nem 720p film auf 1080p monitor ist kein thema und auch bei krummen formaten die so manche selbsternannten divx//xvid renderer so verwenden ist das kein thema. erst rechnet die software es auf das gewünschte saubere bildformat, also 720p oder 1080p. dann wird dieses signal an den TV gespeist. FullHD macht hier so gut wie nix. bei nem 720p skaliert er 1:1 hoch, bei denm 1080p, bleibt es so. ein HDReady skaliert auf seine 720p und passt dann den rest in die krumme 1360x768. und eben letzteres kann ein TV selber besser, dafür ist er nämlich ausgelegt. das macht er jeden tag mit TV bilder von DVB-S, DVB-T oder DVB-C. denn die kommen immer in 575i, 576p, 720i, 720p, 1080i oder 1080p an und net in 1360x768.
also glaub mir ich kenne mich mit der materie mehr als genug aus. ich habe schon filme gerendert, da hatten wir noch Pentium 1 im Rechner. :P und wir reden hier von profisoftware wie adobe premiere, aftereffects, Liquid und softimage. und net von hausfrauen software.
ich habe mir die Sparkle GTX460 gekauft und hatte 0 probleme.
Und genau hier scheint der Hase im Pfeffer!
Die Sparkle verwendet das Referenz-Layout der GTX460 (der Kühler ist wurscht).
Ergo: 2xDVI + Mini-HDMI.
Da scheint Palit/Gainward einfach was "versaubeutelt" und die "Anschlussvielfalt" mit minderer Qualität erkauft zu haben.
(und/oder evtl. auch etwas in ihrem "custom design" des PCB!?)
Wer also auf extensiven MultiDevice-Betrieb aus ist, sollte VOR dem Kauf inne halten und sich überlegen, ob er nicht auf das Takt-Plus und den VGA-Ausgang verzichten kann und nicht vielleicht doch herstellerseitig montierte VRM-Kühler haben möchte.
Deine Meinung in alle Ehren... aber von einem (Deinem) Produkt auf alle zu schließen, ist verdammt gefährlich.
Und mit ATI vs. nVidia hat diese ganze Diskussion hier rein gar nichts zu tun.
Razor
TobiWahnKenobi
2010-08-01, 10:38:42
bitte.. es ist sonntag.. wollen wir das jetzt wirklich hier als OT hier in diesem thread zerpflücken? pauschalaussagen, dass ein HDTV irgendwas "besser" kann sind falsch.
avisynth skaliert auf 1080p hoch, wo ist das problem?
hier skaliert avisynth gar nichts. avisynth bereitet die einzelnen frames nur auf (je nach script) oder fügt auf wunsch bei bei schwierigem material fields zu frames zusammen (etwa einige HDTV-mitschnitte, die nach inverse telecide verlangen, was nicht mit inverse telecine zu verwechseln ist).
ein HDReady skaliert auf seine 720p und passt dann den rest in die krumme 1360x768. und eben letzteres kann ein TV selber besser, dafür ist er nämlich ausgelegt. das macht er jeden tag mit TV bilder von DVB-S, DVB-T oder DVB-C. denn die kommen immer in 575i, 576p, 720i, 720p, 1080i oder 1080p an und net in 1360x768.
vom internen tuner empfangenes material skaliert ein HDready TV auf 1366x768 pixel (volle panelgröße). was er mit interlaced quellen anstellt entscheidet der deinterlacer des gerätes, was im schlimmsten und gleichzeitig verbreitsten fall fieldscaling bedeutet (soviel zu der pauschalaussage, dass der HDTV das "besser" kann als ein PC).
wenn der fernseher ein 1366er panel hat, ist die sauberste zuspielung 1360x768 pixel. da fehlen dann zwar links und rechts 3 pixel in der breite, aber der rest wird wenigstens nativ dargestellt. der scaler des HDTV bleibt in diesem fall aussen vor. kommen externe tuner (etwa im HTPC) zum einsatz empfielt sich die skalierung auf das passende format vor der progressiven (PC als deinterlacer) bildübergabe.
Deine Meinung in alle Ehren... aber von einem (Deinem) Produkt auf alle zu schließen, ist verdammt gefährlich.
Und mit ATI vs. nVidia hat diese ganze Diskussion hier rein gar nichts zu tun.
Razor
das hilft ja auch keinem weiter.. wenn wir jetzt alle in den thread schreiben, meine karte ist toll und nichts läuft quer respektive alles funktioniert, brauchen wir keinen erfahrungsthread.. egal wieviele jahrhunderte mancheiner schon erfahrungen sammelt.. ;D
(..)
mfg
tobi
TobiWahnKenobi
2010-08-01, 10:40:40
*doppelpost*
(..)
mfg
tobi
shane~
2010-08-01, 11:39:06
Habe gestern auch meine GTX 460 bekommen, hier meine Erfahrungen und Eindrücke bis jetzt.
Auf Benchmarks usw. verzichte ich, gibt’s genug im Netz.
System siehe Signatur, OS ist WinXP SP3 Pro; 8 Jahre altes Gehäuse, voll gedämmt, jede Öffnung mit Staubfilter versehen;
diverse Lüfter am werkeln, also weder Silent-, noch gut belüftetes System. Treiberversion 258.96
1. Impressionen EVGA GeForce GTX 460 SC EE 1GB (763/1526/1900)
http://img3.imagebanana.com/img/37p9r6jf/thumb/DSCN0367.JPG (http://www.imagebanana.com/view/37p9r6jf/DSCN0367.JPG) http://img3.imagebanana.com/img/isolxj2o/thumb/DSCN0371.JPG (http://www.imagebanana.com/view/isolxj2o/DSCN0371.JPG) http://img3.imagebanana.com/img/lth6tod1/thumb/DSCN0377.JPG (http://www.imagebanana.com/view/lth6tod1/DSCN0377.JPG) http://img3.imagebanana.com/img/nalsbd7n/thumb/DSCN0366.JPG (http://www.imagebanana.com/view/nalsbd7n/DSCN0366.JPG) http://img3.imagebanana.com/img/nvtdhqmr/thumb/DSCN0384.JPG (http://www.imagebanana.com/view/nvtdhqmr/DSCN0384.JPG)
http://img3.imagebanana.com/img/sg8fmj3q/thumb/DSCN0396.JPG (http://www.imagebanana.com/view/sg8fmj3q/DSCN0396.JPG) http://img3.imagebanana.com/img/tmr8v6nr/thumb/DSCN0388.JPG (http://www.imagebanana.com/view/tmr8v6nr/DSCN0388.JPG) http://img3.imagebanana.com/img/txnbfu1z/thumb/DSCN0382.JPG (http://www.imagebanana.com/view/txnbfu1z/DSCN0382.JPG)
2. Lautstärke / Temps / Bios
Einer der Gründe, warum ich mich für die EVGA entschieden habe, ist die Kühlerkonstruktion, welche die Luft aus dem
Gehäuse bläst und nicht wie die meisten anderen 460er in diesem verteilt. Sicherlich gehört diese nicht zu den Leisesten.
Nach meinem Empfinden ist die Lautstärke mit meiner alten XFX GTX 260 (192) zu vergleichen (sowohl Desktop als auch
Games). Positiv ist, das beim Rechnerstart nun nicht mehr die volle Leistung am Lüfter anliegt und erst der
Windows-Treiber die Geschwindigkeit reduziert. Negativ, das ich gehofft hatte, dass nach nun zwei Jahren die Technik etwas
weiter ist und die allg. Geräuschkulisse (z.B: Lüfterlager) verbessert wurde, was nicht der Fall ist - bei voller Last
fönt und dröhnt die Karte - ähnlich wie die alte GTX 260 - schön vor sich hin.
Negativ ist mir noch die im Bios hinterlegte Lüftersteuerung aufgefallen, welche relativ schnell wieder auf 40%
runtergeht, die Karte somit etwas länger braucht, bis sie wieder auf Idle-Temperatur fällt.
Temps (Raumtemperatur ~25°C, Gehäuse geschlossen):
Furmark: ~ 88°C
Games: je nach Game/ Eye-Candy zwischen 68°C - 80°C
Desktop/ Video: je nach Auflösung zwischen 38°C - 44°C
Desktop/ idle: ~35°C
Temps (Raumtemperatur ~25°C, Gehäuse offen):
Furmark: ~ 82°C
Games: je nach Game/ Eye-Candy zwischen 63°C - 74°C
Desktop: ähnlich wie bei geschlossenem Gehäuse
Bezüglich der Temperaturen bei geschlossenem Gehäuse muss ich das ganze wohl wider erwarten optimieren, wobei es für die
GTX 260 bisher selbst an wärmeren Tagen gelangt hat. Auffällig ist, das die GTX 460 bei geöffnetem Gehäuse im Vergleich
wiederum etwas kühler zu Werke geht.
Btw. bei der alten GTX 260 hatte ich aufgrund ähnlicher Erfahrungen das Bios modifiziert (u.a. die Spannung gesenkt und
die Lüftersteuerung angepasst), so das diese weniger schnell heiß läuft/ besser runterkühlt. Gleiches schwebt mir nun mit Verfügbarkeit
entsprechender Tools für das neue Kärtchen vor...
P-States
P0 0.9870v 763/1526/950
P3 0.9870v 405/810/950
P8 0.9120v 405/810/324
P12 0.8750v 51/101/135
Das Hoch- und Runtertakten der Karte im 2D Modus sowie von 3D > 2D funktioniert tadellos. Wird eine Anwendung gestartet,
welche auf irgendeine Funktion der Grafikkarte zugreift, springt die Karte generell erst mal in den P12 State, je nach
Anwendung wird dann nach und nach wieder runter geregelt, der vollständige Wechsel von 3D (P12) bis auf Desktop (P0) ist
(erst) nach ~ 50 sec abgeschlossen. Videos (Media Player/ Youtube) 1080p - 480p laufen allesamt im P3 State, niedrig
auflösende Videos (z.B. 240p) laufen in P0.
3. gefühlter Geschwindigkeitszuwachs (1680x1050)
Benchmarks/ Games laufen allesamt - mal mehr, mal weniger - schneller, bei einigen Games (u.a. Crysis, Stalker) reicht es locker,
eine AA Stufe hinzu zu schalten/ zu erhöhen. Alles in allem für meine Bedürfnisse/ Erwartungen ok.
4. Treiber und Profile / Tools
Nutze den 258.96 WHQL, alle für mich relevanten Funktionen des Treibers funktionieren so wie sie sollen (soweit
getestet), nix gravierendes aufgefallen. Auch Profile können angelegt und verändert werden, spezielle AA Modi's derzeit
halt nur mit Nvidia Inspector.
EVGA Precision / MSI Afterburner - auch hier kann ich alles einstellen, d.h. Übertakten, FAN Steuerung, Voltage
(Afterburner; derzeit nur Erhöhung), Monitoring.
5. Fazit - ernüchternd
Nun ja, nach all den Tests fragt man sich, testen die etwas anderes? Oder nur mit offenem Gehäuse/ auf 'ner Test-Bench,
bei Raumtemperatur um die 20°C?
positiv:
+ erwarteter Geschwindigkeitszuwachs erfüllt
+ Idle Temperatur & vermutlich (nicht getestet) Verbrauch
+ trotz der GPU Temperatur scheint die Karte insgesamt weniger Wärme abzuwerfen, was den restlichen Komponenten zugute kommt
+ Feature-Set
negativ:
- Last Temperatur, die zum Teil etwas höher ist als mit der alten Karte; unabhängig der Kühlerkonstruktion habe ich hier aufgrund
der zahlreichen, allgemein positiven Tests zur GTX 460 im Vergleich einfach mehr erwartet
- Lüftersteuerung
- Lüfter (Lagergeräusche, meine GTX 260 ist da geringfügig besser)
Ich für meinen Teil kann sagen, das was die Karte machen soll (hier und da schneller; Idle Temps & weniger Verbrauch) erfüllt sie;
den erhofften Bonus im Vergleich zur alten Karte insgesamt leiser und kühler zu sein, nicht (wobei ich damit leben kann).
Alles in allem eine anständige Karte, jedoch mit dieser Kühlerkonstruktion ohne weitere Mods für den normalsterblichen zu laut. :wink:
Wer zudem eine GTX 260 sein eigen nennt, sollte sich den Kauf hinsichtlich der Performance genau überlegen.
Ach ja OC - 800/1600/2000 macht sie ohne murren, 850/1700 nicht (ohne Voltage zu erhöhen), mehr hab ich noch nicht getestet.
shane~
Gandharva
2010-08-01, 12:04:26
Warum WinXP mit deinem Rechner?
shane~
2010-08-01, 12:18:43
Warum WinXP mit deinem Rechner?
wg. alten Tools/ Games... und auch so reicht es noch für alles...
shane~
sarge
2010-08-01, 13:05:30
was nur bei Sparkle GTX460 mist ist, beim zubehör fehlt HDMI-to-MiniHDMI adapter :(
augenscheinlich schaffen viele einen hohen takt, aber ob das auch unter allen bedinungungen so bleibt, kann keiner sagen. mir erschien es sicherer vorsätzlich die karte mit den 800/1600/2000MHz zu kaufen.
So auch mein Gedanke. Aber es bleibt ja faktisch nur die Palit Platinum oder die GLH, beide ja von Palit letztendlich... Die GLH ist aber leider überall schlecht verfügbar. Die Platinum... die sll ja in Sachen Lautstärke schlechter abschneiden als die GLH. Verflixt...Kann man das GLH BIOS nicht einfach auf die Palit Platinum knallen um faktisch eine 1:1 Gainward GLH zu bekmmen?Es erscheinen bald Karten mit 820+ MHz.
Mark3Dfx
2010-08-01, 13:17:02
PoV: GTX 460 mit 175 MHz übertaktem Grafikchip
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/august/pov_gtx_460_175_mhz_grafikchip/
"....Chiptakt von 850 MHz ab Werk...."
sarge
2010-08-01, 13:23:38
PoV: GTX 460 mit 175 MHz übertaktem Grafikchip
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/august/pov_gtx_460_175_mhz_grafikchip/
"....Chiptakt von 850 MHz ab Werk...."
ich werde nie wieder eine POV grafikkarte kaufen. bei meiner gtx260-exo hat rma ca 3 monaten gedauert. weil in deutschland gibt es keine support stelle. man muss entweder selbst oder über zwischenhändler die karte nach holand schicken.
Marc Anton
2010-08-01, 13:27:12
Ich würde gerne mal kurz einhaken wenn ich darf. Wie kann ich mit dem NvidiaInspector übertakten ? Bei mir ist der Bereich für den Core Takt ausgegraut und beim Rivatuner fehlt die Option "low level settings" gänzlich.
Liegt das am Treiber ? (258.96)
Edit: ok vielen dank
sarge
2010-08-01, 13:31:07
Ich würde gerne mal kurz einhaken wenn ich darf. Wie kann ich mit dem NvidiaInspector übertakten ? Bei mir ist der Bereich für den Core Takt ausgegraut und beim Rivatuner fehlt die Option "low level settings" gänzlich.
Liegt das am Treiber ? (258.96)
wenn du shader übertaktest, wird gpu automatisch hochgeschraubt.
Sumpfmolch
2010-08-01, 15:29:50
meine gigabyte gtx 460 dürfte am montag eintrudeln und da ich eh gerade urlaub habe:
falls jemand interesse an einem vergleich in einem speziellen spiel/benchmark einer 8800gt(1gb) mit einer 460er gtx hat, dann einfach bescheid sagen.
chiller
2010-08-01, 16:34:08
So bin von ner 1900XTX nun auf die Gigabyte GTX460-OC gewechselt und muss mich noch etwas umgewöhnen :biggrin:. Vorallem die Treibersettings machen mir noch Kopfschmerzen und das die Nvidia Systemsteuerung immer so derbe hängt, egal was ich mache.
Laufen tut sie wie sie soll. Mal zum Spaß auf 70% fanspeed gestellt und nix gehört, das is einfach ma n1^^
Jetzt paar Fragen
1. Müssen die ganzen Einträge im Autostart sein?
2. Kann ich bei der Installation der Treiber, nicht entscheiden was installiert werden soll?
3. Wie ändere ich das Bios auf die einfachste Weise?
4. Gibt es keine "Auf Standart zurücksetzen" Knopf bei den jeweiligen settings (z. B. Farbsettings usw.)?
Sumpfmolch
2010-08-01, 17:33:29
4. Gibt es keine "Auf Standart zurücksetzen" Knopf bei den jeweiligen settings (z. B. Farbsettings usw.)?
nur manchmal blöd versteckt :D
bei "desktop-farbeinstellungen ändern" ist es als schaltfläche ganz oben rechts evrsteckt...
Sumpfmolch
2010-08-01, 17:33:39
4. Gibt es keine "Auf Standart zurücksetzen" Knopf bei den jeweiligen settings (z. B. Farbsettings usw.)?
nur manchmal blöd versteckt :D
bei "desktop-farbeinstellungen ändern" ist es als schaltfläche ganz oben rechts versteckt...
hesTeR-
2010-08-01, 17:37:54
Moin ich habe jetzte eine 8800gt 512 MB in meinem Pc braucht die 460 mehr strom als die oder kann ich einfach wechseln ?
Sumpfmolch
2010-08-01, 17:46:12
Moin ich habe jetzte eine 8800gt 512 MB in meinem Pc braucht die 460 mehr strom als die oder kann ich einfach wechseln ?
so 60watt dürften es unter last mehr sein...aber gute idee, werde morgen mal meinen strommesser auspacken
hesTeR-
2010-08-01, 18:01:04
hmm okay ...
Stromversorgung
Anschluss 2x 6-pin-Grafikkartenanschluss
max. Verbrauch ca. 160 Watt (bei Volllast)
steht bei der GTX460 in der produkt beschriebung.
wieviel hat denn die 8800gt ? nur 120 watt bei voll last ?
Döner-Ente
2010-08-01, 18:14:04
Lt. Guru 3D hat die 8800 GT 105 Watt TDP.
Die 460 hat 150, die übertakteten eher 160 Watt.
Also sollte dein NT 45-55 Watt mehr verkraften können.
chiller
2010-08-01, 18:27:05
nur manchmal blöd versteckt :D
bei "desktop-farbeinstellungen ändern" ist es als schaltfläche ganz oben rechts versteckt...
aaaah ich habs gefunden.. weiße Flagge auf weißem Grund...
Dark_angel
2010-08-01, 18:59:00
PoV: GTX 460 mit 175 MHz übertaktem Grafikchip
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/august/pov_gtx_460_175_mhz_grafikchip/
"....Chiptakt von 850 MHz ab Werk...."
Mich würde dann mal brennend die Spannung interessieren.;D
dildo4u
2010-08-01, 19:01:05
Mich würde dann mal brennend die Spannung interessieren.;D
Ich hab Heut Crysis mit 830mhz ohne Spannungserhöhung gezockt,hatte keine Probleme ist ne normale 700mhz Karte.
Hi.
Was hab ich so in etwa zu erwarten, wenn ich meine 8800GTX gegen eine 460GTX/1GB tausche?
Kann man grob schätzen, um wieviel schneller die 460GTX ist?
Hatte mal für ne Woche ne 275GTX drin, davon war ich nicht so überzeugt.
Zocke fast nur Wow und Shooter :)
Auflösung ist 1600x1200, 4xAA, 16xHQAF
Restliches System :
P55, core i7-860 @ 3,8Ghz, 8GB Ram, Win7 x64
Lg...
Dark_angel
2010-08-01, 19:49:53
Ich hab Heut Crysis mit 830mhz ohne Spannungserhöhung gezockt,hatte keine Probleme ist ne normale 700mhz Karte.
Das ist ja schon mal ein schönes ergebnis-, aber ab Werk sieht das glaube anders aus, weil sie einen kleinen Spielraum nach oben geben müssen und das es bei den Karten dann nur um Selektierte handelt glaube ich nicht.
Bioshock
2010-08-01, 19:57:28
Hallo, meint ihr ein Enermax Liberty 400W reicht für eine GTX 460 O/C
und........
Asus P5B Deluxe
Intel Core 2 Quad Q9550, 3150 MHz <--mehr geht leida net :(
Speicher Aeneon DDR2-667
3 Platten
2 DVD/Brenner Laufwerke ....... aus?
Im mom hab ich eine 8800gt drin.
Mfg
Das ist ja schon mal ein schönes ergebnis-, aber ab Werk sieht das glaube anders aus, weil sie einen kleinen Spielraum nach oben geben müssen und das es bei den Karten dann nur um Selektierte handelt glaube ich nicht.
Normale und OC Versionen der GTX460 1024 sind aber alle mit 1V im 3D Modus unterwegs, 800MHz schafft jeder Chip bei der Spannung und weniger. 850Mhz könnte man selektieren bei den Herstellern, wobei hier gekühlte SpaWas sein müssen. Aber dafür ist es auch eine "Mega OC" Version, die ein paar mehr Euronen kostet.
Fonce
2010-08-01, 20:15:16
Jop das Netzteil wird reichen ;)
shane~
2010-08-01, 20:19:05
Normale und OC Versionen der GTX460 1024 sind aber alle mit 1V im 3D Modus unterwegs...
...die EVGA GTX 460 1GB SC (763/1526/950) mit 0,9870v :wink:
shane~
Bioshock
2010-08-01, 20:21:27
Jop das Netzteil wird reichen ;)
Na da bin ich ja froh.
Nun is nur noch die frage Welche :)
Aber vllt. kommen ja noch paar user tests or so.
Mfg
Dark_angel
2010-08-01, 20:34:12
Normale und OC Versionen der GTX460 1024 sind aber alle mit 1V im 3D Modus unterwegs, 800MHz schafft jeder Chip bei der Spannung und weniger. 850Mhz könnte man selektieren bei den Herstellern, wobei hier gekühlte SpaWas sein müssen. Aber dafür ist es auch eine "Mega OC" Version, die ein paar mehr Euronen kostet.
Na ja alle? meine Gigabyte GTx 460 1Gb hat 1.025 Volt gibt auch welche die nur 0.975 Volt haben die aber wiederum auch nicht besser sind, könnte sogar sein das die 0.975 Volt Versionen schlechte gehen, gab schon ein Test wo eine auf (1.025 Volt) 0,987V mit @800Mhz auf OCCT GPU-Test getestet wurde, was die 0.975 Volt nicht schafte.
...die EVGA GTX 460 1GB SC (763/1526/950) mit 0,9870v :wink:
shane~
Kann ich noch nicht glauben.
san.salvador
2010-08-01, 20:36:01
Normale und OC Versionen der GTX460 1024 sind aber alle mit 1V im 3D Modus unterwegs, 800MHz schafft jeder Chip bei der Spannung und weniger. 850Mhz könnte man selektieren bei den Herstellern, wobei hier gekühlte SpaWas sein müssen. Aber dafür ist es auch eine "Mega OC" Version, die ein paar mehr Euronen kostet.
Dann hab ich eine abnormale 460 Gs (0.975v). :rolleyes:
TobiWahnKenobi
2010-08-01, 21:08:40
Hi.
Was hab ich so in etwa zu erwarten, wenn ich meine 8800GTX gegen eine 460GTX/1GB tausche?
Kann man grob schätzen, um wieviel schneller die 460GTX ist?
Hatte mal für ne Woche ne 275GTX drin, davon war ich nicht so überzeugt.
Zocke fast nur Wow und Shooter :)
Auflösung ist 1600x1200, 4xAA, 16xHQAF
Restliches System :
P55, core i7-860 @ 3,8Ghz, 8GB Ram, Win7 x64
Lg...
mindestens doppelt so schnell.. spruchreif schneller sollte auch schon die GT200 gewesen sein.
(..)
mfg
tobi
mindestens doppelt so schnell.. spruchreif schneller sollte auch schon die GT200 gewesen sein.
(..)
mfg
tobi
Ok, danke :)
Hatte vergessen zu schreiben, dass ich damals noch nen Core2 @ 3,6Ghz hatte... Möglich das der die 275Gtx bissl was "gebremst" hat.
Lg
...die EVGA GTX 460 1GB SC (763/1526/950) mit 0,9870v :wink:
shane~
Gigabyte 1GB 715Mhz OC - 0,962V.
shane~
2010-08-01, 21:46:21
Zitat von shane~
...die EVGA GTX 460 1GB SC (763/1526/950) mit 0,9870v
shane~
Kann ich noch nicht glauben.
doch kannst du, würde es doch nicht schreiben, wenn ich die Karte nicht hätte und mir sämtliche Tools diesen Wert ausgeben...
shane~
Al-CAlifAX
2010-08-01, 21:49:26
Hallo, meint ihr ein Enermax Liberty 400W reicht für eine GTX 460 O/C
und........
Asus P5B Deluxe
Intel Core 2 Quad Q9550, 3150 MHz <--mehr geht leida net :(
Speicher Aeneon DDR2-667
3 Platten
2 DVD/Brenner Laufwerke ....... aus?
Im mom hab ich eine 8800gt drin.
Mfg
das enermax reicht locker. hab desselbe und nen Core i5 750 dazu. im idle 125 Watt, im load mit Metro 2033 getestet mit Physx on und 4xAA, 16xAF hatte ich zwischen 235-270 Watt. Rechner mal bei deinem ca. 15-20 Watt fürs Übertakten der CPU dazu. reicht also. Das Enermax ist da sehr effizient. Sollte halt der Kühler vom Netzteil nicht verstaubt sein und genug luft kriegen.
Ich muss sogar sagen das ich im idle weit unter meiner 8800GT liege, da war ich scho bei 155 Watt. und im load meistens bei 220-245 Watt. also so viel mehr isses am ende net. wobei ich sagen muss das meine 8800GT eh scho viel zu heiss wurde und dadurch wohl eh meist mehr gezogen hat als sie soll.
also mach dir keinen kopp. passt alles. zur not. nen strommessgerät kostet ca. 10-15 Euro. ;)
Döner-Ente
2010-08-01, 22:52:26
Bzgl. des Stromverbrauches muss man sagen, dass die offiziellen Empfehlungen (450-500 Watt) wohl eher (verständlicherweise) nvidia´s Sicherheit dienen und recht hoch angesetzt sind.
Zumindest wenn man sich den gemessenen Stromverbrauch (bezogen auf´s gesamte System) in sämtlichen Tests anschaut, wird da weit weniger aus der Steckdose genuckelt, und die Testrechner sind logischerweise mit High-End-CPU´s bestückt.
exzentrik
2010-08-02, 01:39:46
...die EVGA GTX 460 1GB SC (763/1526/950) mit 0,9870v :wink:
Exakt diesen Voltwert spuckt GPU-Z bei meiner Palit GTX 460 Sonic Platinum (800 / 1600 / 1000) im Idle auch aus.
TobiWahnKenobi
2010-08-02, 01:52:28
http://www.TobiWahnKenobi.de/PICTURES/GTX460/gpuz.gif
meine sonic platinum im dualview mode.
btw,
das mit dem ton gefällt mir gut.. der fernseher kriegt jetzt bei bedarf sound über die grafikkarte.. der beamer sound über die grafikkarte.. und meine eigentlich soundlösung bleibt als standard-device am AVR. ein film aufm beamer.. sein ton kommt ausm beamer..
ein anderer film auf den HDTV.. der zugehörige ton kommt aus dem fernseher.. das geht sogar gleichzeitig.. *grins*
und weil ich ja 7 paar ohren habe, laufen windows sounds dann über monitorlautsprecher (und gleichzeitig übers headset, das am onboardsound hängt) oder halt zusammen mit dem rest über meinen theatron und den AVR..
es ist praktisch, dass man mehr als zwei geräte anschliessen kann und das alle ausgänge an der karte ton mitschicken.. von DVI hätte ich das net erwartet.. *kopfschüttel*
http://www.TobiWahnKenobi.de/PICTURES/wiedergabegeraete.jpg
(..)
mfg
tobi
Jetzt paar Fragen
1. Müssen die ganzen Einträge im Autostart sein?
2. Kann ich bei der Installation der Treiber, nicht entscheiden was installiert werden soll?
3. Wie ändere ich das Bios auf die einfachste Weise?
4. Gibt es keine "Auf Standart zurücksetzen" Knopf bei den jeweiligen settings (z. B. Farbsettings usw.)?
1) ja und... sie tun nicht weh.
2) was "entscheiden"? Du willst nicht wirklich auf Treiber oder Panel verzichten, oder?
3) Bios auslesen, ändern, einspielen - derzeit mit GTX460 noch "knifflig" (das ändern)...
4) ja, in ALLEN Dialogen... gilt sogar für die Profile (die ATI nicht hat)
Hallo, meint ihr ein Enermax Liberty 400W reicht für eine GTX 460 O/C
und........
Asus P5B Deluxe
Intel Core 2 Quad Q9550, 3150 MHz <--mehr geht leida net :(
Speicher Aeneon DDR2-667
3 Platten
2 DVD/Brenner Laufwerke ....... aus?
Im mom hab ich eine 8800gt drin.
Mein System (C2Q@3GHz, 2 Platten und 1 BD/DVD-Kombo) brauchte maximal 365W mit der GTX460.
400W wird verdammt knapp! Aber mit ein bissel Glück?
Rechne mit 60-70W mehr... je nach OC der Karte.
mindestens doppelt so schnell.. spruchreif schneller sollte auch schon die GT200 gewesen sein.
Korrekt... allerdings ist G80/G92 -> G100 dann schon ein "Quantensprung" ;)
Hatte vergessen zu schreiben, dass ich damals noch nen Core2 @ 3,6Ghz hatte... Möglich das der die 275Gtx bissl was "gebremst" hat.
Keinesfalls... nein.
Razor
Dark_angel
2010-08-02, 08:00:06
Schön zu sehen was es doch für Spannungsunterschiede bei der GTX 460 gibt.
Alleine bei der Gigabyte 1GB OC gibt es schon 4 die mir jetzt bekannt sind.
0.962V
0.975V
1.012V
1.025V
@shane~ glaube dir ja, nur die Varianten liegen dann noch mal ein ganzes Stück höher, bei 850Mhz kann ich es mir nicht vorstellen das sie bei 1V liegen, könnte mir 1.05V vorstellen.
shane~
2010-08-02, 08:29:33
@shane~ glaube dir ja, nur die Varianten liegen dann noch mal ein ganzes Stück höher, bei 850Mhz kann ich es mir nicht vorstellen das sie bei 1V liegen, könnte mir 1.05V vorstellen.
hier noch mal was GPU-Z/ Nvidia Inspector bei mir pro P-State auspuckt:
P0 0.9870v 763/1526/950
P3 0.9870v 405/810/950
P8 0.9120v 405/810/324
P12 0.8750v 51/101/135
siehe auch hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8181578&postcount=318)
shane~
Was liest denn der NV Inspector bei Dir aus. Die gleichen Werte?
TobiWahnKenobi
2010-08-02, 09:51:05
diese werte spuckt der NVidiainspector bei mir aus:
P12 0.875v 50/101/135MHz
P8 0.9120v 405/810/324MHz
P3 0.9750v 405/810/1800MHz
P0 0.9750v 800/1600/2000MHz
(..)
mfg
tobi
Also gleich zu GPU-Z. Ich frage nur weil ich meinen Wert mit dem Inspector ausgelesen hatte.
wenn ihr einmal den poppobrernner gestartet habt und dort ein Reset gemacht habt könnt ihr die Voltwerte vergessen....<>auf standard stellen Neustart und dann auslesen.
Am besten mit nvapitest.
Bioshock
2010-08-02, 10:03:38
Mein System (C2Q@3GHz, 2 Platten und 1 BD/DVD-Kombo) brauchte maximal 365W mit der GTX460.
400W wird verdammt knapp! Aber mit ein bissel Glück?
Rechne mit 60-70W mehr... je nach OC der Karte.
Razor
Baah, du machst mir ja Mut :(
Nimmt der Q9550 E0 @ 3150 soviel saft im load?
Mfg
Schrotti
2010-08-02, 10:38:02
Hallo, meint ihr ein Enermax Liberty 400W reicht für eine GTX 460 O/C
und........
Asus P5B Deluxe
Intel Core 2 Quad Q9550, 3150 MHz <--mehr geht leida net :(
Speicher Aeneon DDR2-667
3 Platten
2 DVD/Brenner Laufwerke ....... aus?
Im mom hab ich eine 8800gt drin.
Mfg
Reicht locker.
Ich hatte bis vor ein paar Tagen ein Liberty 500W im System und betrieb damit mein i7 860@4GHz System zusammen mit einer GTX 480.
Bioshock
2010-08-02, 10:44:43
Oki Danke.Das klingt gut.Damit würde ICH dann gut bis ins Jahr 2012 kommen.
Mfg
SentinelBorg
2010-08-02, 10:45:37
So, meine Gigabyte GTX460 mit 1GB ist auch Samstag gekommen und durfte sich dann gleich in SC2 beweisen. Während ich auf die GTX260 ein paar Sachen auf High stellen musste bei 1650x1080 und 4xAA, geht mit der neuen alles schön auf Ultra mit 8xAA. Also gerade bei SC2 liegt die GTX460 ziemlich deutlich vor der GTX260. Dabei ist die Karte auch wunderbar leise und kühl (immer unter 70°C geblieben). Geschockt war ich auch, wieviel kürzer die Karte ist. ^^
TobiWahnKenobi
2010-08-02, 10:47:20
ich habe auch ein liberty mit 500W in der kiste.. dazu den Q9550@3,60GHz und 5 festplatten+ 2optische laufwerke, ne kathode und ein paar PCI-karte + diverse buspowered usb-geräte.. läuft..
jupp.. einiges kürzer und leichter, aber auch sichbar billiger..
http://www.abload.de/thumb/dsc00069d1fn.jpg (http://www.abload.de/image.php?img=dsc00069d1fn.jpg)http://www.abload.de/thumb/dsc0006804ez.jpg (http://www.abload.de/image.php?img=dsc0006804ez.jpg)http://www.abload.de/thumb/dsc00066b4lp.jpg (http://www.abload.de/image.php?img=dsc00066b4lp.jpg)
(..)
mfg
tobi
Fonce
2010-08-02, 10:51:20
Reicht locker.
Ich hatte bis vor ein paar Tagen ein Liberty 500W im System und betrieb damit mein i7 860@4GHz System zusammen mit einer GTX 480.
ich habe auch ein liberty mit 500W in der kiste.. dazu den Q9550@3,60GHz und 5 festplatten+ 2optische laufwerke, ne kathode und ein paar PCI-karte + diverse buspowered usb-geräte.. läuft..
(..)
mfg
tobi
Ich hab ja z.b. auch nur ein BeQuiet 450W Netzteil drin und dazu einen auf 3.4GHz@1,45V übertakteten Phenom II X3 720BE, 1 HDD und 3x120mm Lüfter+1x140mm Lüfter...
SentinelBorg
2010-08-02, 10:52:53
Hmm, muss heute Abend mal bei meiner nach der Spannung schauen. Aber so kühl wie sie bleibt, tippe ich auch auf unter 1V.
Bioshock
2010-08-02, 10:57:45
Ich hab ja z.b. auch nur ein BeQuiet 450W Netzteil drin und dazu einen auf 3.4GHz@1,45V übertakteten Phenom II X3 720BE, 1 HDD und 3x120mm Lüfter+1x140mm Lüfter...
Welche GTX 460 hast du? wenn ich mal fragen darf.
Kann mich im mom net entscheiden welche GTX 460 :(
Mfg
Ich bin von der Gigabyte wirklich angetan. Aber evtl. würde ich auch die Marktübersicht in der PCGH abwarten.
Fonce
2010-08-02, 11:24:42
Welche GTX 460 hast du? wenn ich mal fragen darf.
Kann mich im mom net entscheiden welche GTX 460 :(
Mfg
Ich hab die GTX460 1GB OC von Sparkle
miller
2010-08-02, 11:27:01
der unterschied zu ner 640er 8800 gts dürfte ja relativ enorm sein oder? hab allerdings noch kein pcie 2.0, macht sich das viel bemerkbar?
Bioshock
2010-08-02, 11:32:54
Ja die Gigabyte GTX460 1GB OC und Sparkle GTX460 1GB OC
sind im mom auch so meine Favoriten.Optimal is halt die Palit/XpertVision GeForce GTX 460 Sonic Platinum, aber da bin ich mir unsicher zwecks Kühlung/Lautstärke.
Und erst irgendetwas flashen oder so, will ich net.Kann immer mal was schief gehen dabei.
Mfg
TobiWahnKenobi
2010-08-02, 11:43:00
flashen würde ich sowieso erstmal aussen vor lassen, bis es ein paar treiberversionen gibt, die zeigen, wo die reise mit den stromsparmodi hingeht.
PCIe 2.0 hat mein P35-brett auch nicht.. die karte läuft trotzdem tadellos und flink.
(..)
mfg
tobi
Bioshock
2010-08-02, 11:49:45
Ich sehe gerade, das du so eine GTX 460 Sonic Platinum hast.
Bist du zufrieden mit der?gerade was Kühlung/Lautstärke angeht.Was für temperaturen hast du den so?
Mfg
Bioshock
2010-08-02, 11:53:48
der unterschied zu ner 640er 8800 gts dürfte ja relativ enorm sein oder? hab allerdings noch kein pcie 2.0, macht sich das viel bemerkbar?
Jo das nen Sprung der sich Lohnt.
Mfg
TobiWahnKenobi
2010-08-02, 11:57:16
Ich sehe gerade, das du so eine GTX 460 Sonic Platinum hast.
Bist du zufrieden mit der?gerade was Kühlung/Lautstärke angeht.Was für temperaturen hast du den so?
Mfg
keine ahnung.. die temps gucke ich mir selten an.. ATM im dualschirm-betrieb 62°C lt. sidebar-gadget. im single-display-modus habe ich mit 50MHz takt auch schon was von 42°C gelesen.. ebenfalls im sidebar-gadget.
lautstärke ist i.O. keine ahnung, welchen lüfter ich da grad höre.. glaube es ist der vom radiator..
hier mal meine beiden nvinspector shortcuts für das manuelle runtertakten im mehrschirmbetrieb:
-3D modus Low (http://www.TobiWahnKenobi.de/FILES/3DModuslow.lnk) (taktet runter)
-3D modus default (http://www.TobiWahnKenobi.de/FILES/3DModusdefault.lnk) (stellt den standard wieder her)
(..)
mfg
tobi
miller
2010-08-02, 12:09:06
Jo das nen Sprung der sich Lohnt.
Mfg
na dann warte ich mal bis die karte von msi besser verfügbar is :D
Sumpfmolch
2010-08-02, 13:27:27
Moin ich habe jetzte eine 8800gt 512 MB in meinem Pc braucht die 460 mehr strom als die oder kann ich einfach wechseln ?
so die gigabyte gtx460 ist nun da und eingebaut.
allererster eindruck: juhu beim rechner anmachen kein turbinengeräusch mehr für die ersten 5 sekunden
Packungsinhalt: 2x 6Pol Adapter, VGA->DVI Adapter, HDMI -> miniHDMI Adapter, Treiber-CD, Handbuch
-> Alles drinnen, was man braucht. Die CD enthält nur DX9, den Treiber und eine "Yahoo!Companion Toolbar"...schwach.
Stromverbrauch:
E7400@3,6GHz, 4GB DDR2, 8800gt [gigabyte 460gtx]
Idle: 156W [130W]
Starcraft Startbildschirm: 253W [265W]
Crysis bench: 265W [290W]
Furmark: 278W [291W]
----------------------------------------------------------------
Idle GPU Spannung: 0,8750V
Last GPU Spannung: 1,0120V
----------------------------------------------------------------
Benches:
E7400@3,6GHz, 4GB DDR2, 8800gt [gigabyte 460gtx]
Vantage auf High: H4200 [H10242] (GPU 3657 [9119])
Stalker Pripyat (High, 1680x1050, 4xAA, HDAO) min/avg/max: 6/8/13 [13/20/30]
FFXIV (720p, 4xAA, 16xAF): 2745 [3274]
Crysis Warhead (Gamer, 2xAA) min/avg/max: 15/21,5/28,5 [22/41,5/52,5]
(Crysis gibt seltsamerweise für MEM-Verbrauch bei der gtx460 ca. 3% mehr an als für die 8800gt: 1104MB -> 1135MB)
Fonce
2010-08-02, 14:45:42
Habe grade mal bei mir Prime95 und Furmark gleichzeitig laufen lassen um mal zu schauen was mein System maximal an Strom benötigt.
Phenom II X3 720BE@3,43GHz@1,475V(Northbridge auf 2,3GHz@1.335V)
Asrock AOD790GX/128M
4x1GB DDR2 800@213MHz@2.1V
1x 7200upm 3,5" HDD
BeQuiet Straight Power E7 Serie 450W
Sparkle GTX 460 OC@860/1720/2000@1.025V
Idle: ~85W
Last: ~370W maximal; bei Spielen ~280-320W
EDIT:
So mit dem original Takt der Sparkle GTX 460 OC(700/1400/1800@0.962V)
komm ich auf rund 330W als Maximalwert
Pitman
2010-08-02, 16:26:41
Bei der Gigabyte ist doch der Betrieb mit 2 Monitoren noch mit einem hohen Stomverbrauch verbunden oder ?
Dann tendiere ich wohl eher in Richtung Sparkle ?
Grüße
Pitman
TobiWahnKenobi
2010-08-02, 16:38:51
das ist er zur zeit bei jeder GTX460 und meine glaskugel sagt, dass das einzig am treiber liegt.
(..)
mfg
tobi
Pitman
2010-08-02, 16:50:47
das ist er zur zeit bei jeder GTX460 und meine glaskugel sagt, dass das einzig am treiber liegt.
(..)
mfg
tobi
.....hmmm nach einem Userbericht über die MSi soll es dort z.B. nicht sein.
Grüße
Pitman
TobiWahnKenobi
2010-08-02, 16:58:25
und nach vergleichen sämtlicher biosversionen, die es auf diesem planeten gibt (im luxforum), liegt es auch nicht am bios.. weil das echt mit keiner karte geht.. egal ob P03 im aktuellsten bios (meinem) hinterlegt ist oder peng..
(..)
mfg
tobi
puntarenas
2010-08-02, 17:09:05
zum Thema "erhöhte Leistungsaufnahme im Multi-Monitor-Betrieb"
.....hmmm nach einem Userbericht über die MSi soll es dort z.B. nicht sein.
Forengeflüster, ht4u.net misst das nach und die MSI Cyclone-Karten sind wie alle anderen betroffen, wenngleich Gainward den Vogel abschießt und Gigabyte womöglich nacheifert.
ht4u.net - MSI N460GTX Cyclone OC 1024 MByte
Spannungen und Taktraten (http://ht4u.net/reviews/2010/msi_n460gtx_cyclone_1024mb/index7.php)
Leistungsaufnahme: Idle & Last (http://ht4u.net/reviews/2010/msi_n460gtx_cyclone_1024mb/index12.php)
Leistungsaufnahme Grafikkarte Multi-Monitor-Betrieb (http://ht4u.net/reviews/2010/msi_n460gtx_cyclone_1024mb/index13.php)
Mit einem Monitor im Idle 15W, mit zweien 45W (Gainward 55W). :(
Die aktuelle PCGH berichtet von Kompatibilitätsproblemen von der Gigabyte mit MSI Mainboards.
TobiWahnKenobi
2010-08-02, 17:25:20
ist sowas nicht eigentlich eine domäne für billigstboards..? also irgendwann nicht mehr kompatibel zu sein ohne biosupdates.. *kopfkratz*
(..)
mfg
tobi
JaniC
2010-08-02, 17:52:33
Hat schon jemand die neue PCGH mit dem großen Round-Up?
Welche 460 1GB wird da empfohlen bzw. hat irgendeine irgendwelche Vorteile/Nachteile, die man wissen sollte?
Bisher hab ich nur über die Palit SP gelesen, dass sie laut sei.
OC... 800Mhz sollte man jawohl mit jeder erreichen.
san.salvador
2010-08-02, 17:55:36
ist sowas nicht eigentlich eine domäne für billigstboards..? also irgendwann nicht mehr kompatibel zu sein ohne biosupdates.. *kopfkratz*
(..)
mfg
tobi
MSI halt. :D
*ducK*
Hat schon jemand die neue PCGH mit dem großen Round-Up?
Welche 460 1GB wird da empfohlen bzw. hat irgendeine irgendwelche Vorteile/Nachteile, die man wissen sollte?
Bisher hab ich nur über die Palit SP gelesen, dass sie laut sei.
OC... 800Mhz sollte man jawohl mit jeder erreichen.
Platz 1
Gainward Gold Sample GLH
Lüfter (last, Grid, Furmark): 1,0/1,8/3,0 Sone
Platz 2
Palit Sonic Platinum
1,0/2,7/5,0
Platz 3
Zotac GTX 460
2,4/4,1/5,3
Platz 4 Gigabyte 1GB OC - abgewertet weil die Karte auf MSI Boards nicht lief
0,7/1,4/2,2
Platz 5
MSI 768 Cyclone
0,3/1,9/2,6
Platz 6
Asus 768 Direct Cu TOP
1,0/3,0/4,0
TobiWahnKenobi
2010-08-02, 18:02:21
steht dabei mit welchen bios-versionen die lautheit gemessen wurde? allein für meine sonic platinum weiss ich von drei hersteller biossen.. *augenroll*
(..)
mfg
tobi
JaniC
2010-08-02, 18:12:37
Haben sie außer auf die Lautstärke auch auf OC Potenzial oder sowas geachtet?
Will mir jetzt irgendwie eine bestellen, Wetter bad, Semesterferien und gerade dickes Gehalt bekommen.. will heute noch bestellen :D :D :D
Eigentlich isses mir auch wurscht, welche, hauptsache anständiger Coretakt und relativ günstig, ist eh nur ne Übergangskarte für 1 Jahr oder so.
TobiWahnKenobi
2010-08-02, 18:14:25
wenn hoher takt dein ziel ist, dann kauf die karte mit der höchstmöglichen werkstaktung. oft haben auch diese modelle noch 5+% spiel nach oben..
(..)
mfg
tobi
JaniC
2010-08-02, 18:23:37
Die GLH ist im Moment nur für 250€ lieferbar, was das ganze dann wieder sinnlos macht.
Lagernd sind im Moment nur wenige:
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&xf=147_Single-GPU%7E132_1024%7E891_GeForce+GTX+460
Die Palit/XpertVision GeForce GTX 460 Sonic Platinum mit 800Mhz Core ist im Moment für 225€ zu bekommen.
Einige hier besitzen diese doch schon. Ist sie so urlaut wie es am Anfang die Runde machte?
Oder nur lauter im Vergleich zum Refdesign? Habe momentan ne 4850 GS, die ich garnicht höre (da sind andere Sachen lauter).
@V2.0:
Danke. Whow, die Gigabyte ist ja richtig leise. Aber das ist mir nicht sooo wichtig, solange keine Turbine im PC sitzt.
Haben sie außer auf die Lautstärke auch auf OC Potenzial oder sowas geachtet?
Will mir jetzt irgendwie eine bestellen, Wetter bad, Semesterferien und gerade dickes Gehalt bekommen.. will heute noch bestellen :D :D :D
Eigentlich isses mir auch wurscht, welche, hauptsache anständiger Coretakt und relativ günstig, ist eh nur ne Übergangskarte für 1 Jahr oder so.
OC
Gainward
860-1720-2150
Palit
860-1720-2150
Zotc
860-1720-2200
Gigabyte
850-1700-2100
MSI
850-1700-2200
Asus
860-1720-2100
Ich würde sagen praktisch alle gleich.
TobiWahnKenobi
2010-08-02, 18:50:23
wenns unerträglich wäre, hätte ich sie aus dem wakü-rechner verbannt.
(..)
mfg
tobi
JaniC
2010-08-02, 18:56:43
Die Gainward GTX 460 1GB Golden Sample Goes Like Hell (http://www.tweakpc.de/hardware/tests/grafikkarten/gainward_nvidia_geforce_gtx_460_glh/s01.php) ist jetzt seit einigen Minuten doch lieferbar, für 234€:
http://geizhals.at/deutschland/a548294.html?v=l#ps, Gaindward Produktseite (http://www.gainward.com/main/edm/award/2010/GTX460/award_GTX460-01.html)
Konnte nicht lange widerstehen.
Habe seit 2008 eine Gaindward 4850 GS, nie Probleme, schön leise und Beamer und Monitore immer brav befeuert, da dachte ich, ich bleibe mal loyal und kaufe wieder Gainward GS. Allerdings nV ;)
TNT -> 2MX -> 4200Ti (ftw!) -> X700Pro (omg) -> 7900GT -> 4850GS -> GTX 460 GLH
Back to life, back to nVidia ;)
Da isse:
http://www.abload.de/img/460boughtukg5.png
Hoffe mal, dass die Mittwoch hier eintrudelt.
Byteschlumpf
2010-08-02, 19:15:48
Die GLH ist im Moment nur für 250€ lieferbar, was das ganze dann wieder sinnlos macht.
Lagernd sind im Moment nur wenige:
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&xf=147_Single-GPU%7E132_1024%7E891_GeForce+GTX+460
Die Palit/XpertVision GeForce GTX 460 Sonic Platinum mit 800Mhz Core ist im Moment für 225€ zu bekommen.
Einige hier besitzen diese doch schon. Ist sie so urlaut wie es am Anfang die Runde machte?
Oder nur lauter im Vergleich zum Refdesign? Habe momentan ne 4850 GS, die ich garnicht höre (da sind andere Sachen lauter).
@V2.0:
Danke. Whow, die Gigabyte ist ja richtig leise. Aber das ist mir nicht sooo wichtig, solange keine Turbine im PC sitzt.
Bei 50% Lüfterdrehzahl ist die Palit/Gainward sehr leise, wobei die GPU-Temp auf bis zu 86°C ansteigen kann - gegenüber 76°C mit autom. Lüftersteuerung und deutlich höherer Lautstärke.
Wird der Lüfter eigentlich vom BIOS oder erst vom Treiber geregelt (wie damals bei der 9600GT)?
JaniC
2010-08-02, 19:25:01
Hier sind noch ein paar Zahlen zur Gainward GLH:
http://www.fudzilla.com/reviews/reviews/reviews/gainward-gtx-460-gs-goes-like-hell-tested/page-11
http://www.fudzilla.com/images/stories/Reviews/Graphics/Nvidia/Fermi/460/Gainward_GSGLH/fan.jpg
http://www.fudzilla.com/images/stories/Reviews/Graphics/Nvidia/Fermi/460/Gainward_GSGLH/pcb-1.jpg
(Der Heatsink auf den Spawas ist genau wie bei Palit nur aufm Pressesample gewesen...)
The tool does not provide exact fan RPM readouts, but does display RPM count in percentages. We pushed the fan at 100% RPM and measured 65°C on the GPU while running FurMark, but the fan ran too loud for our liking.
...
The dynamic fan mode, which is on by default, lowered the fan speed to 59% in the same test and temperatures climbed to 76°C but the card ran pretty silent. Nvidia and most of its partners did a great job this time around and we can’t complain about noise levels.
59% Lüfter bei Furmark und auch 76°C.
We pushed the card to 840MHz for the GPU and 1080 (4320MHz effectively) for the memory. This resulted in GPU temperatures going up by mere 1°C and although the fan RPM also went up from 59% to 62% - we still couldn’t call the card loud.
GTX 460 GS-GLH is inaudible in idle mode and the temperatures are at about 31°C with 40% fan RPM. The card ran quiet throughout our testing, including our overclocking tests where the card ran at 840MHz.
Conclusion
As far as cooling goes, GTX 460 GS-GLH’s custom cooling does a great job and runs quietly both in idle and 3D.
So, let’s recap - premium overclocking that significantly adds to the performance, warranty, quiet operation and nice consumption make Gainward’s GTX 460 Golden Sample Goes Like Hell a great choice.
Klingt alles vielversprechend :) Deckt sich mit der PCGH Coverage so far.
Byteschlumpf
2010-08-02, 19:34:19
Für die "Palit Sonic" kann ich diese Werte im Grunde auch bestätigen! :)
Geil wenn ich die gtx460 auf 800/1600/2000 setze wird sie langsamer xD
Irgendwas läuft da in meinem System falsch xD
JaniC
2010-08-02, 19:50:50
Thema SpaWas:
Hm, mit den Palit Sonics soll es ja ähnliche Irritationen geben. Palit berichtet aber, dass ihre Sonic Platinum der Gainward GLH entspricht und mit aktuellem BIOS auch eine geringe Geräuschentwicklung aufweise.
Quelle: http://geizhals.at/deutschland/?sr=548294,-1
In Furmark dreht er zwar auf bis zu 67% hoch und ist dabei ganz deutlich rauszuhören (gpu temp war hier max. 79°C mit extreme-burning settings), in Spielen allerdings bleibt der Lüfter deutlich weiter unten mit der Drehzahl, manchmal auch (je nach Spiel und Settings) bleibt er durchgängig bei den 40% des idle modes! (z.B. Assassins Creed II @1680x1050, max details, 8xAA,16xAF; gpu temps waren dabei max.66°
Die Presse bekommt Premiumkühler und der Kunde irgendeinen anderen Mist?
Sollte das bei mir auch der Fall sein, geht sie zurück und es kommt eine mit dem guten Referenzdesign.. aber erstmal abwarten, hab eh kein Silentsystem. Und wenn die Spawas zwar heisser werden, aber selbst im Furmark alles stabil bleibt, soll's mir recht sein.
Grendizer
2010-08-02, 22:52:31
Welches Tool nimmt man am besten zum übertakten und um die Lüftersteuerung anzupassen ?
Ich habe es mit MSI Afterburner probiert, aber da nervt es mich, das ich die Ausführung unter Windows 7 immer bestätigen muss.
Ich habs auch versucht im Scheduler zu starten und trotzdem nervt die UAC.
shane~
2010-08-02, 23:49:48
nachdem mich meine EVGA GTX 460 SC (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8181578&postcount=318) bei geschlossenem Gehäuse hinsichtlich der Temps so ziemlich enttäuscht hat (heute brachte es der FurMark auf max 92°C :eek:) habe ich dank Orbmu2k mit dem Fermi Bios Editor herum experimentiert:
http://img3.imagebanana.com/img/cctuyqnu/Image2.png
http://img3.imagebanana.com/img/gg5rim4w/thumb/Image1.png (http://www.imagebanana.com/view/gg5rim4w/Image1.png)
So richtig kann ich es auch noch nicht glauben, dass die Standard-Taktraten der SC (763/1526/950) selbst bei nur 0.900v noch stabil laufen, habe zig Benchmarks/ Games mit maximalen Einstellungen laufen lassen - alles ok! Die Temps sind im FurMark um ~9 °C gesunken, je nach Game bewegt sich die Karte nun bei (für mich) angenehmen 73°C - 76°C. Erreiche nun ungefähr die Temperaturen, die ich vorher nur mit geöffnetem Gehäuse erreicht habe. Die 800/1600/1000 laufen nun allerdings nicht mehr...
btw. irgendwie habe ich nun bei allen Grafikkarten seit der FX 5900 über die 6800 Ultra, 7950GT, 8800GT und GTX260, sei es wegen mehr Performance wie bei der FX 5900 (Power Biosse :biggrin:), besserer Übertaktbarkeit (6800 Ultra) und den Temperaturen (8800GT/GTX260) oder anderen Gründen das Bios modden müssen, irgendwas ist immer.
Kann man echt froh sein, das es entsprechende Tools gibt - an dieser Stelle nochmals vielen Dank an Orbmu2k :up: :wink:
shane~
Sumpfmolch
2010-08-03, 00:01:47
passt schon. da mir 800MHz Takt reichen, hab ich die Spannung auch auf 0,950V runter.
hesTeR-
2010-08-03, 02:46:48
welchen "Mod" kühler kann man denn auf welcher karte verbauen ? irgenwie sind die platinen ja auch unterschiedlich
jupp.. einiges kürzer und leichter, aber auch sichbar billiger..
Vorsicht!
Die Palit/Gainward sind selbst noch mal ein ganzes Stück kürzer, als das Referenz-Layout der GTX460 (alle anderen bisher).
Nach HT4U: Gainward = 18,9cm, Referenz = 21,1 cm (hier MSI Cyclone)
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/index5.php
Aber ja, der generelle Unterschied GTX260 vs. GTX460 ist enorm!
(und auch der qualitative... ja... leider zum Nachteil der GTX460)
welchen "Mod" kühler kann man denn auf welcher karte verbauen ? irgenwie sind die platinen ja auch unterschiedlich
Es eigentlich nur 2 unterschiedliche Platinen.
OK, 3, wenn man die von ASUS und KFA² dazu rechnen mag...
(letztere entspricht weitestgehend dem Referenz-Layout von nVidia)
Palit/Gainward und den "Rest" eben.
Razor
Gigabyte hat imho auch ne eigene Platine.
Gigabyte hat imho auch ne eigene Platine.
Weil es "blau" ist?
:confused:
Absolutes Referenzlayout:
http://img.clubic.com/photo/03367126.jpg
Und hier mal das "custom design" von Palit/Gainward:
(über 2cm kürzer, quadratische Bohrungen für Lüfter)
http://img.clubic.com/photo/03367116.jpg
Die 3 Schrauben links weg denken, da diese ja den nicht mehr existierenden VRM-Kühler halten ;)
Hier beide im direkten Vergleich:
http://www.clubic.com/carte-graphique/carte-graphique-nvidia/geforce-gtx-460/article-352186-4-nvidia-geforce-gtx-460-test-comparatif.html
Ich hoffe inständig, dass es bald auch andere mit solchen "custom design" gibt, die qualitativ aber höher ansetzen!
Razor
Sorry, ein Review hatte was von einem non-Referenzboard geschrieben.
Dark_angel
2010-08-03, 10:05:24
Oh was sehen meine Augen da, ein Sicherheitsaufkleber auf einer schraube.;D
hesTeR-
2010-08-03, 10:10:08
ich bastel nähmlich super gerne an grakas rum und montiere andere kühler und lüfter :D
das scheint aber diesmal etwas schwierig zu sein.
bis jetzt habe ich diesen Kühler hier gefunden.
http://www.caseking.de/shop/catalog/VGA/RAM/CHIP/Prolimatech/Prolimatech-MK-13-Multi-VGA-Cooler::13772.html
dort steht aber das er nicht auf alle platinen past. wäre jetzt die frage auf welche er denn passt. :)
TobiWahnKenobi
2010-08-03, 10:43:22
Oh was sehen meine Augen da, ein Sicherheitsaufkleber auf einer schraube.;D
meiner klebte nicht richtig und ich habe ihn woanders hingepackt.. *gg*
ich wollte mir erst KK auf die spawas kleben, habs dann aber gelassen.. zu eng.. zu klein.. zu unnötig.
(..)
mfg
tobi
Platz 1
Gainward Gold Sample GLH
Lüfter (last, Grid, Furmark): 1,0/1,8/3,0 Sone
Platz 2
Palit Sonic Platinum
1,0/2,7/5,0
Platz 3
Zotac GTX 460
2,4/4,1/5,3
Platz 4 Gigabyte 1GB OC - abgewertet weil die Karte auf MSI Boards nicht lief
0,7/1,4/2,2
Platz 5
MSI 768 Cyclone
0,3/1,9/2,6
Platz 6
Asus 768 Direct Cu TOP
1,0/3,0/4,0
Hatten die auch eine mit Referenzdesign (http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_4_nvidia_geforce_gtx_460/3/#abschnitt_evga_geforce_gtx_460_superclocked) im Test?
PCGH_Raffael
2010-08-03, 14:28:13
.....hmmm nach einem Userbericht über die MSi soll es dort z.B. nicht sein.
Grüße
Pitman
Bei den Cyclones wird mit 2 Monitoren ein P-State zwischen 2D und 3D angenommen (korrekt); die Palit macht einen auf 3D (fail).
MfG,
Raff
XxTheBestionxX
2010-08-03, 14:56:41
Bei den Cyclones wird mit 2 Monitoren ein P-State zwischen 2D und 3D angenommen (korrekt); die Palit macht einen auf 3D (fail).
MfG,
Raff
Hab ich dein Bild doch richtig in der PCGH gesehen. Gratulation nice!
Warst vorher ganz normal Raff vom Foto zu urteilen hier im Forum oder?
Gandharva
2010-08-03, 15:12:01
Er arbeitet dort doch schon lange...
Dark_angel
2010-08-03, 15:54:42
Bei den Cyclones wird mit 2 Monitoren ein P-State zwischen 2D und 3D angenommen (korrekt); die Palit macht einen auf 3D (fail).
Darf ich mal Fragen mit welchem Programm ihr auf OC testet?
MfG,
Raff
Darf ich mal Fragen mit welchem Programm ihr auf OC testet?
Er arbeitet dort doch schon lange...
Das kommt dabei raus wenn man sich nur einmal im Jahr eine PCGH kauft.;D
Pitman
2010-08-03, 16:11:37
....danke für die Rückmeldung :smile:
Wenn ich das richtig sehe ist beim PCGH Test morgen keine GTX 460 im Referenzdesign (1MB) dabei :-(
Oh je leider kein Vergleich zum Standardkühler. Hoffentlich irre ich mich da.
Grüße
Pitman
dildo4u
2010-08-03, 16:20:41
....danke für die Rückmeldung :smile:
Wenn ich das richtig sehe ist beim PCGH Test morgen keine GTX 460 im Referenzdesign (1MB) dabei :-(
Oh je leider kein Vergleich zum Standardkühler. Hoffentlich irre ich mich da.
Grüße
Pitman
Keine Hersteller Karte aber sie haben das Referenzmodell von NV vermessen also Lautstärke,Verbrauch usw sollte ja dann mit der Serie übereinstimmen.
....danke für die Rückmeldung :smile:
Wenn ich das richtig sehe ist beim PCGH Test morgen keine GTX 460 im Referenzdesign (1MB) dabei :-(
Oh je leider kein Vergleich zum Standardkühler. Hoffentlich irre ich mich da.
Grüße
Pitman
Das Testsample von NV hatte den Referenzkühler.
0,8/2,1/3,2 Sone
OC leider nicht getestet
Sumpfmolch
2010-08-03, 17:27:21
dann ist die gigabyte also wirklich die leiseste karte.
Byteschlumpf
2010-08-03, 19:05:29
Da mir der Palit-Lüfter schlichtweg ab 50% zu laut war, habe ich diesen durch einen "AC Accelero L2 Pro" ausgetauscht, der selbst bei maximaler Drehzahl von 2000rpm (12V) nicht irgendwie auffällig wird. Die Temp der Palit im SLI ist bei 800/1000/1600@0,9750V nur 10°C höher, als die der deutlich aufwändiger gekühlten Gigabyte!
Im direkten Vergleich sieht man, dass der Kühlkörper des ACs nur etwas höher und schwerer als der der "Palit Sonic" ist. Der AC-Lüfter paßt praktisch paßgenau auf den Kühlkörper der "Palit Sonic". Mittels zweier - oder besser noch vierer - Kabelbinder läßt sich der AC-Lüfter auf der Karte befestigen.
Somit kann man recht schnell, sehr preiswert und dazu noch ohne Garantieverlust (das Garantiesiegel bleibt dabei unberührt) diese Karte von der Lautstärke her deutlich verbessern, ohne Nachteile bei der Kühlleistung! :)
Da mir der Palit-Lüfter schlichtweg ab 50% zu laut war, habe ich diesen durch einen "AC Accelero L2 Pro" ausgetauscht, der selbst bei maximaler Drehzahl von 2000rpm (12V) nicht irgendwie auffällig wird.
Hast du den Lüfter an die Grafikkarte angeschlossen, so dass er von dieser geregelt wird?
Die Temp der Palit im SLI ist bei 800/1000/1600@0,9750V nur 10°C höher, als die der deutlich aufwändiger gekühlten Gigabyte!
Die GPU ist auch sicher nicht das Problem, fragt sich halt was die SpaWas machen. Da würde ich nur zu gern ein Wärmebild wie bei HT4U von deiner L2-Pro-Lösung sehen, denn ansonsten klingt das sehr gut.
Byteschlumpf
2010-08-03, 19:20:55
Ja, der Lüfter ist an der Graka angeschlossen und wird von dieser (7V - 12V) geregelt.
Ja, der Lüfter ist an der Graka angeschlossen und wird von dieser (7V - 12V) geregelt.
Danke, klingt gut! :)
Wie ist das denn bei deiner Gigabyte, könnte man da zur Not auch den Kühler wechseln, ohne irgendein Garantiesiegel zu zerrupfen? Wobei der ja schon sehr gut sein soll, aber bei doppeltem Risiko wäre so eine Notlösung schon eine gute Option.
Byteschlumpf
2010-08-03, 20:33:33
Die Gigabyte ist so leise und kühl, dass IMO kein Umbau notwendig ist. :)
Ausgezeichnet... und für das Problem mit MSI-Boards gibt es bestimmt bald Abhilfe. :smile:
mAxmUrdErEr
2010-08-03, 20:58:43
Danke, klingt gut! :)
Wie ist das denn bei deiner Gigabyte, könnte man da zur Not auch den Kühler wechseln, ohne irgendein Garantiesiegel zu zerrupfen? Wobei der ja schon sehr gut sein soll, aber bei doppeltem Risiko wäre so eine Notlösung schon eine gute Option.
Bei EVGA darfst du den Kühler wechseln, so lange du nix in dem Prozess kaputt machst. Hast noch dazu längere Garantie als irgendwo anders, 10 Jahre.
Jetzt noch mal im direkten Vergleich und "ausklappbar" ;)
Referenzlayout:
http://img.clubic.com/photo/03367126.jpg
Angpaßtes Referenzlayout (z.Bsp. ASUS/KFA²)
(Stromanschlüsse 'oben', nicht 'hinten' - sonst kaum Unterschiede)
http://img.photobucket.com/albums/v187/bizket/STA60536.jpg
http://img.photobucket.com/albums/v187/bizket/STA60546.jpg
http://www.xtremesystems.org/forums/showthread.php?p=4487295
"custom design" von Palit/Gainward:
(über 2cm kürzer, quadratische Bohrungen für Lüfter)
http://img.clubic.com/photo/03367116.jpg
Damit dürften ALLE derzeit verfügbare Varianten gegenüber gestellt sein.
Razor
P.S.: der "AC Accelero L2 Pro" wäre mir zu ineffizient im Kombo mit dem "Standard"-Kühlkörper...
(deswegen auch für die GTX260² ausgeschlossen und die AC-Kombos waren zu "fett" ;-))
Ausgezeichnet... und für das Problem mit MSI-Boards gibt es bestimmt bald Abhilfe. :smile:
Kann das hier denn jemand bestätigen?
MfG,
Raff
Sumpfmolch
2010-08-03, 22:45:56
Kann das hier denn jemand bestätigen?
MfG,
Raff
glaube das war nur hoffnung...
...die ich allerdings auch teile. die karte hat referenz layout, es ist also vermutlich irgendwas im bios vermurkst.
ob es da draußen hardware tester gibt, die eine gigabyte gtx460 da haben und diese wagemutig mit einem anderen bios zu flashen versuchen? :D
PCGH_Raffael
2010-08-04, 09:16:03
Ich tippe ja auch auf ein BIOS-Problem (das macht Gigabyte in letzter Zeit "gerne"), aber ein neueres gibt's aktuell nicht. Solange niemand ähnliche Probleme hat, kann's auch einfach ein Hau des Testmusters sein. Dead on arrival ist selten, "half-dead" noch seltener.
MfG,
Raff
Fonce
2010-08-04, 09:27:18
Hast du den Lüfter an die Grafikkarte angeschlossen, so dass er von dieser geregelt wird?
Die GPU ist auch sicher nicht das Problem, fragt sich halt was die SpaWas machen. Da würde ich nur zu gern ein Wärmebild wie bei HT4U von deiner L2-Pro-Lösung sehen, denn ansonsten klingt das sehr gut.
Die vertragen eigentlich mehr als genug, als das man sich darüber sorgen machen müsste...:rolleyes:
Ich tippe ja auch auf ein BIOS-Problem (das macht Gigabyte in letzter Zeit "gerne"), aber ein neueres gibt's aktuell nicht. Solange niemand ähnliche Probleme hat, kann's auch einfach ein Hau des Testmusters sein. Dead on arrival ist selten, "half-dead" noch seltener.
MfG,
Raff
Haben die euch keine Zweitkarte geschickt um das zu testen?
puntarenas
2010-08-04, 11:20:08
Ich tippe ja auch auf ein BIOS-Problem (das macht Gigabyte in letzter Zeit "gerne"), aber ein neueres gibt's aktuell nicht.
Gigabyte hat wirklich tolle Hardware, daran gibt es nichts zu rütteln!
An einem BIOS-Update wegen der erhöhten Leistungsaufnahme im Mehrschirmbetrieb wird bereits in Taiwan gefrickelt:
Gigabyte-Forum: Gigabyte 460GTX OC 1GB - exzellente Grafikkarte mit einem kleinen Problem (http://forum.gigabyte.de/index.php?page=Thread&postID=16562#post16562)
Da man nicht genug nerven kann, gibt es im Herstellerforum auch brandaktuell einen Thread zur merkwürdigen Inkompatibilität mit einem (?) MSI-Mainboard im PCGH-Roundup:
Gigabyte-Forum: GIGABYTE GeForce GTX460 OC-Edition inkompatibel mit MSI Mainboards? (http://forum.gigabyte.de/index.php?page=Thread&threadID=1734)
Ich denke, falls hier jemand ebenfalls auf das Problem stößt oder umgekehrt eine GIGABYTE GeForce GTX460 OC-Edition problemlos auf einer MSI-Platine betreibt, wäre ein Feedback dort im Thread zumindest nicht von Nachteil.
Schön dass auch jemand vorgeschlagen hat den Lüfter im Idle weiter zu reduzieren. 20% würden wahrscheinlich auch reichen.
puntarenas
2010-08-04, 11:27:21
Ich dachte, der ist mit 40% auch schon flüsterleise. :confused:
blutrausch
2010-08-04, 11:30:43
kanns kaum erwarten, meine katze sollte gleich eintreffen. werd dann mal berichten
Ich dachte, der ist mit 40% auch schon flüsterleise. :confused:
Ist er auch, aber zu leise gibt es imho nicht.
Pitman
2010-08-04, 11:41:18
Was sind denn das für Latenzprobleme im idle nun schon wieder ? Wurde in dem Forum dort angegeben.
Grüße
Pitman
blutrausch
2010-08-04, 12:38:41
Hab meine von haus aus übertaktete Palit grad eingebaut und kurz in SC II getestet. war zu erst erschrocken beim auspacken wieviel kleiner die karte zu meiner vorherigen gtx 275 ist. außerdem finde ich dass der referenzkühler wirklich gelungen ist, in SCII als auch auf dem desktop bei 40% lüftergeschwindigkeit flüsterleise und die performance ist einiges besser als bei der gtx 275. mich hat die karte auf alle fälle überzeugt, tolles produkt von nvidia - fermi wie er von anfang an hätte sein müssen ; )
Hab meine von haus aus übertaktete Palit grad eingebaut
außerdem finde ich dass der referenzkühler wirklich gelungen is
Es gibt eine übertaktete Palit mit Referenzlüfter? Hast du einen Link?
TobiWahnKenobi
2010-08-04, 12:45:24
in meiner sig ist ein link zur palit GTX460 sonic platinum OC, aber ich wette die findest du auch direkt bei palit oder bei geizhals.
(..)
mfg
tobi
Es gibt eine übertaktete Palit mit Referenzlüfter? Hast du einen Link?
Gibt's nicht. Die Palit-460er basieren alle auf dem kompakten Own-Design des Herstellers.
MfG,
Raff
Thx, dann hat blutrausch Unsinn geschrieben. Danke für die Aufklärung. :)
TobiWahnKenobi
2010-08-04, 13:08:25
http://www.nvidia.de/docs/IO/95336/header_productshot1.png
http://www.tobiwahnkenobi.de/PICTURES/GTX460/head.jpg
ich finde nicht, dass die sich großartig unterscheiden.. zumindest haben beide heatpipekühlung und einen zentralen quirl.. der plastikdeckel sieht anders aus.. toll *nickt*
(..)
mfg
tobi
mironicus
2010-08-04, 13:10:46
Apropro leise. Es gibt von Edel-Grafikkarten jetzt eine GTX 460 mit Arctic L2 Pro. Kostet mit 229 Euro nicht viel mehr als die übertakteten normalen Versionen. Ab 0,3 Sone. Hoffentlich gibt es bald ein Test von der Karte.
Ich würde mir eine GTX 460 holen, wenn sie ähnlich flüsterleise wie eine MSI Hawk wäre (unter Last unter 1,0 Sone).
labecula
2010-08-04, 14:05:40
Ich bin verwirrt. Habe heute meine Sonic Platinum bekommen. Soweit alles gut. OC stimmt, läuft gut und Lautstärke ist auch nicht schlimmer als meine alte GTX260... Könnte also nichts besser laufen.
ABER: Ich habe ja nun auch mitbekommen, dass es da wohl ein altes und ein aktuelles BIOS gibt. Zum einen: Außer beid er Lüftersteuerung, gibt es da noch andere Unetrschiede ind er Leistung etc.?
Zweitens, das aktuelle BIOS soll die Nummer N6727 tragen, kann ich zumindest der PCGH entnehmen. Nunja, wenn ich Vtune aufrufe, gibt es dort als BIOS 70.04.13.00.01.... Ja, ähm... die beiden BIOS Versionen lassen sich ja mal so garnicht vergleichen... man sieht nichtmal ob das aktuelle BIOS neuer oder älter als das von PCGH genannte ist. Die BIOS Version 0722 des Palit-Updatefiles bringt mich auch nicht weiter.
Help?!
TobiWahnKenobi
2010-08-04, 14:10:34
Ich bin verwirrt. Habe heute meine Sonic Platinum bekommen. Soweit alles gut. OC stimmt, läuft gut und Lautstärke ist auch nicht schlimmer als meine alte GTX260... Könnte also nichts besser laufen.
ABER: Ich habe ja nun auch mitbekommen, dass es da wohl ein altes und ein aktuelles BIOS gibt. Zum einen: Außer beid er Lüftersteuerung, gibt es da noch andere Unetrschiede ind er Leistung etc.?
Zweitens, das aktuelle BIOS soll die Nummer N6727 tragen, kann ich zumindest der PCGH entnehmen. Nunja, wenn ich Vtune aufrufe, gibt es dort als BIOS 70.04.13.00.01.... Ja, ähm... die beiden BIOS Versionen lassen sich ja mal so garnicht vergleichen... man sieht nichtmal ob das aktuelle BIOS neuer oder älter als das von PCGH genannte ist. Die BIOS Version 0722 des Palit-Updatefiles bringt mich auch nicht weiter.
Help?!
du hast 6755 und somit ist dein bios aktueller als 6727.
http://www.tobiwahnkenobi.de/PICTURES/GTX460/original.jpg
http://www.tobiwahnkenobi.de/PICTURES/GTX460/vtune1.jpg
Palit GTX460 Sonic Platinum OC (http://www.tobiwahnkenobi.de/PICTURES/GTX460/ORIGINAL.ROM)
(..)
mfg
tobi
puntarenas
2010-08-04, 15:53:18
Gigabyte hat wirklich tolle Hardware, daran gibt es nichts zu rütteln!
An einem BIOS-Update wegen der erhöhten Leistungsaufnahme im Mehrschirmbetrieb wird bereits in Taiwan gefrickelt:
Gigabyte-Forum: Gigabyte 460GTX OC 1GB - exzellente Grafikkarte mit einem kleinen Problem (http://forum.gigabyte.de/index.php?page=Thread&postID=16562#post16562)
Da man nicht genug nerven kann, gibt es im Herstellerforum auch brandaktuell einen Thread zur merkwürdigen Inkompatibilität mit einem (?) MSI-Mainboard im PCGH-Roundup:
Gigabyte-Forum: GIGABYTE GeForce GTX460 OC-Edition inkompatibel mit MSI Mainboards? (http://forum.gigabyte.de/index.php?page=Thread&threadID=1734)
Ich denke, falls hier jemand ebenfalls auf das Problem stößt oder umgekehrt eine GIGABYTE GeForce GTX460 OC-Edition problemlos auf einer MSI-Platine betreibt, wäre ein Feedback dort im Thread zumindest nicht von Nachteil.
Gigabyte-Forum: Hohe DPC Latencys im 2d modus....Hilfe (http://forum.gigabyte.de/index.php?page=Thread&threadID=1730)
Himmel, Arsch und Zwirn! Ich wusste gar nicht, was man bei einem blödsinnigen Grafikkarten-BIOS alles vermurksen kann, Taiwan prüft. Hoffentlich ist da keine Hardwareunzulänglichkeit im Custom PCB-Design verborgen und es lässt sich zusammen mit dem anderen Murks beheben. :mad:
Edit:
Ruhig Brauner, vielleicht kein exklusives Gigabyte-Problem. Kann mal jemand mit einer anderen GTX460 den Test nachstellen?
JaniC
2010-08-04, 16:08:10
So, Gainward GTX 460 GS GLH eingebaut.
Lüfter so leise wie der der 4850 Golden Sample, ich hör ihn nicht raus. Habe aber auch kein Silentsystem.
http://www.abload.de/img/gtx4604850gs78kp.png
Größenvergleich Gainward HD4850 Golden Sample vs. Gainward GTX 460 GS Goes Like Hell (unten)
Die Spannungswandler haben natürlich keine KK, denke aber, die bekommen genug Luft vom Lüfter mit ab. System hat auch gut Durchzug.
http://www.abload.de/img/spawasiji0.png
Spannungswandler Gainward GTX 460 GLH Retail
Hat jetzt im idle 37°C. Wird in Windows auf 50Hz Coretakt runtergetaktet.
http://www.abload.de/img/underclockf89j.png
GPU-Z, von 800Hz auf 400Hz auf 50Hz. Lüfter auf 40% und leise.
Dann geht's jetzt mal ans testen..
Byteschlumpf
2010-08-04, 16:10:10
Apropro leise. Es gibt von Edel-Grafikkarten jetzt eine GTX 460 mit Arctic L2 Pro. Kostet mit 229 Euro nicht viel mehr als die übertakteten normalen Versionen. Ab 0,3 Sone. Hoffentlich gibt es bald ein Test von der Karte.
Ich würde mir eine GTX 460 holen, wenn sie ähnlich flüsterleise wie eine MSI Hawk wäre (unter Last unter 1,0 Sone).
Die habe ich mir praktisch selber gebaut und den Lüfter mittels Kabelbindern auf den Kühlkörper geschnallt - ohne Verletzung des Garantiesiegels! :)
Marc Anton
2010-08-04, 16:17:07
Gigabyte-Forum: Hohe DPC Latencys im 2d modus....Hilfe (http://forum.gigabyte.de/index.php?page=Thread&threadID=1730)
Himmel, Arsch und Zwirn! Ich wusste gar nicht, was man bei einem blödsinnigen Grafikkarten-BIOS alles vermurksen kann, Taiwan prüft. Hoffentlich ist da keine Hardwareunzulänglichkeit im Custom PCB-Design verborgen und es lässt sich zusammen mit dem anderen Murks beheben. :mad:
Edit:
Ruhig Brauner, vielleicht kein exklusives Gigabyte-Problem. Kann mal jemand mit einer anderen GTX460 den Test nachstellen?
Selbes Problem hier - Palit GTX 460 Sonic 1024 MB
Sobald im 3D Modus ist DPC wieder normal.
JaniC
2010-08-04, 16:21:03
Kann mir hier einer die BIOS Version übersetzen?
Habe die GLH und ich glaube es gibt da irgendwie vierstellige Nummern. Hinten 55 ist wohl das neuste.
http://www.abload.de/img/biosv9uov.png
Andre
2010-08-04, 16:22:14
Gigabyte-Forum: Hohe DPC Latencys im 2d modus....Hilfe (http://forum.gigabyte.de/index.php?page=Thread&threadID=1730)
Himmel, Arsch und Zwirn! Ich wusste gar nicht, was man bei einem blödsinnigen Grafikkarten-BIOS alles vermurksen kann, Taiwan prüft. Hoffentlich ist da keine Hardwareunzulänglichkeit im Custom PCB-Design verborgen und es lässt sich zusammen mit dem anderen Murks beheben. :mad:
Edit:
Ruhig Brauner, vielleicht kein exklusives Gigabyte-Problem. Kann mal jemand mit einer anderen GTX460 den Test nachstellen?
Da es auch bei 9600M-Usern auftritt, wohl eher ein Nvidia-Treiberproblem:
http://forums.nvidia.com/index.php?showtopic=174111&st=0&
TobiWahnKenobi
2010-08-04, 16:23:45
Da es auch bei 9600M-Usern auftritt, wohl eher ein Nvidia-Treiberproblem:
http://forums.nvidia.com/index.php?showtopic=174111&st=0&
das meint meine glaskugel auch schon seit tag1
(..)
mfg
tobi
Mark3Dfx
2010-08-04, 16:23:55
DPC?
Man entschuldige die Frage aber wofür steht das Kürzel?
mironicus
2010-08-04, 16:41:18
Und? Beeinflussen die hohen DPCs auf irgendeiner Weise das Arbeiten/Spielen mit dem Rechner? Sobald die Karte nicht idled ist doch alles wieder normal, oder?
Pitman
2010-08-04, 16:44:39
..man gut das ich mir noch keine gekauft habe. Wie immer sind die Verbraucher die Beta Tester.
Erst wenn alle Fehler abgestellt werden schlage ich zu. Wenn es denn passiert :cool:
Grüße
Pitman
puntarenas
2010-08-04, 16:45:00
DPC?
Man entschuldige die Frage aber wofür steht das Kürzel?
Und? Beeinflussen die hohen DPCs auf irgendeiner Weise das Arbeiten/Spielen mit dem Rechner? Sobald die Karte nicht idled ist doch alles wieder normal, oder?
Ich habe einen eigenen Thread dafür gestartet, dort steht auch eine Erklärung und wie sich eine zu hohe DPC Latency unangenehm bemerkbar machen kann:
GeForce GTX 460 und das DPC Latency Problem (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8187511#post8187511)
Dark_angel
2010-08-04, 17:30:10
Hi,
das hatte ich gestern auch schon gelesen, musste mich erst mal damit beschäftigen;D
Also bei mir ist es unter Win 7 Pro 64 normal, alles im Grünen Bereich aber unter Win XP Pro ist der Ausschlag deutlich über 2000μs.
Habe noch eine Deutsche erklärung gefunden, kannst du ja eventuell bei dir mit einbinden.
DPC Latency Checker misst die Antwortzeiten des Systems. Die Ansprechzeit ist durch eine andere Anwendung, die derzeit ausgeführt wird auf Ihrem System beeinflusst. Für ein genaues Ergebnis, empfehlen wir Ihnen, alle Anwendungen vor dem Start DPC Latency Checker zu schließen. Wenn Sie dieses Werkzeug während es Anwendungen geöffnet sind, werden Sie feststellen, dass, während Sie sie schließen ausführen, werden die Ergebnisse zu verbessern.
Das größte Problem bei der Umstellung auf einen Computer von analogen Aufzeichnungsgeräten ist, dass der Latenz.
Zum Beispiel sind Gerätetreiber Aufgaben mit hoher Priorität, die es zu verarbeiten sofort vor jeder anderen Aufgabe sein. Wenn ein Gerät hat eine falsche Treiber dieser Operation wird mehr Zeit als üblich dauern und es wird das System verlangsamen, die zu Unterbrechungen in Echtzeit Audio-und Video-Streams führen wird.
Latenz ist die unvermeidliche Verzögerung zwischen dem Computer empfängt Audio-Informationen und dann spielen sie zurück. Dieses Problem ist am größten, wenn sie versuchen, zusätzliche Titel, die einen Song aufzunehmen.
Die Länge der Wartezeit variiert stark zwischen Computern und der Software und Gerätetreiber installiert auf ihnen. DPC Latency Checker ist ein Tool zur Überprüfung, wie schlimm die Latenz eines Computers ist, und kann dann für die Fehlersuche verwendet werden.
Der Kontrolleur kann links ausgeführt werden, während Änderungen am Computer vorgenommen werden, um zu sehen, wenn sie die Situation zu verbessern
Jeden 50-60 Sekunden die DPC Latenz versetzt, um über 16ms. Da die meisten professionellen Audio-Software erfordert absolute geringer Latenz zu allen Zeiten, wird dieses DPC Spikes in hörbare überspringt in diesen High-Performance-Audio-Programmen führen.
Der Grund, warum dies geschehen Spikes alle 60 Sekunden oder so ist, dass, wenn aktiviert, Vista aktiv Scannen und Erfassen verfügbaren drahtlosen Netzwerk-und Wireless-Netzwerk Management Profil ist. Der Dienst verantwortlich für diese heißt "WLAN AutoConfig Service", die ähnlich wie 'ist Wireless Zero Configuration Service "in XP.
Da dieser Service ist in Ordnung für uns erforderlich, um eine drahtlose Anschluss, können wir nicht einfach deaktivieren Sie es schaffen.
Leider DPC Latency Checker zeigt nur, wenn es einen Gerätetreiber Problem, nicht, welcher Treiber das Problem verursacht. Sie werden manuell zu deaktivieren und dann wieder aktivieren einzelnen Gerätetreiber im Geräte-Manager.
Wenn Sie beispielsweise MS Security Essentials verwenden Zusammen mit uTorrent (1.8.3) die DPC Latenz erhöht sich drastisch nach 3-4 Stunden zu arbeiten. Wenn Sie uTorrent oder deaktivieren neu starten und dann wieder aktivieren die MSE Realtime Protection der DPC Latency Tropfen zurück zur minimal-Ebene.
New Dell Vostro craptop
300μs-450μs Grundlast mit optimierten XP und alle Arten von Geräten und Diensten deaktiviert, intermittierende Gipfeln von 4.000 μs verbleibenden, durch normale Windows-Aktivitäten zurückzuführen sei denn, die Konfiguration in einer Weise gelähmt ist, dass die nicht mehr einem Laptop
Thesycon DPC Latency Checker ist ein Windows-Tool, das analysiert die Fähigkeiten eines EDV-System zur Echtzeit-Daten-Streams richtig umgehen. Es kann helfen, die Ursache für Unterbrechungen in Echtzeit Audio-und Video-Streams zu finden, auch als Drop-Outs bekannt. Das Programm unterstützt Windows 2000, Windows XP, Windows XP x64, Windows Server 2003, Windows Server 2003 x64, Windows Vista, Windows Vista x64.
Runzel
2010-08-04, 17:37:57
Wie ist denn die Karte von Point of View? Gibt es Erfahrungen? Das ist zur Zeit leider die einzige 1 GB Variante, die der Händler meines Vertrauens in auf Lager hat...
Andre
2010-08-04, 17:42:30
Habe noch eine Deutsche erklärung gefunden, kannst du ja eventuell bei dir mit einbinden.
Das ist keine deutsche Erklärung, dass ist Wörtersalat a la Google-Übersetzung. Unlesbar.
Die Länge der Wartezeit variiert stark zwischen Computern und der Software und Gerätetreiber installiert auf ihnen.
Ah ja.
Dark_angel
2010-08-04, 17:46:15
Hi,
hier habe ich es gefunden, entweder hat er es übersetzt oder er schreibt so.;D
http://www.raymond.cc/forum/de/tutorials/12786-dpc-latency-checker.html
labecula
2010-08-04, 19:40:31
Ich poste das hier mal in Kurz auch, denn es betrifft vielleicht uns alle als 460 Besitzer... Naja, noch habe ich ja 2 Wochen Rückgabe :-)
Zitat:
Also mal folgendes. Ich wechsel derzeit zwischen 260 und 460, weil ich mit der 460 auf einem Hackintosh System noch Probleme habe. Mein System ist eher durchschnittlich, mit einem C2D 2,5Ghz und 4GB unter Win7x64... ALSO:
Der Latency auf einer 260 kommt bei mir auf maximal 150. Somit sind alle Werte der 460 ganz offenbar drüber, auch wenn es wenig ist.
Schade... Dennoch, auch bei mir kommt es bei absoluter Systemlast auf der 260! zu harten Rucklern nach ein paar Sekunden, die auch den Sound abwürgen (ganz beosnders in Crysis, sonst fast nie bemerkbar).
Die 460 habe ich nur einmal bisher durhc ein paar Benchmarks gejagt. Ich hatte zwar keine Soundprobleme, konnte aber z.B. im Final Fantasy Benchmark Mikroruckler feststellen, die ich von meiner 260 nicht kannte. Also irgendwo gibt es da ein Problem, nur wo weiß ich nicht.
Update: Habe es jetzt mit der 460er ausprobiert (Sonic Platinum) und siehe da, es gibt imemr wieder Außreißer im 2000-8000 Bereich, einfach unglaublich. Es reicht schon wenn ich den tasmanager aufrufe, dann gibt es fast nur noch rote Balken. Surfen reicht schon, auch dann. Beid er 260 war davon weit und breit nichts zu sehen. Hm, ich überlege gerade, das Ding einfach zurückzugeben und auf die 460er Serie zu verzichten...
hesTeR-
2010-08-04, 22:11:43
ich war echt kurz vorm kauf der graka.
aber irgendwie scheint die ja nur probleme zu machen :(
ich war echt kurz vorm kauf der graka.
aber irgendwie scheint die ja nur probleme zu machen :(
ich auch, jetzt ist die Frage: die cyclone, oder sie gainward...
ich auch, jetzt ist die Frage: die cyclone, oder sie gainward...
ich glaube eher keine von denen, wenn die GTX 460 ein Latency-Problem haben sollte...
erstmal abwarten, das muss man erstmal genauer untersuchen, damit man später nicht möglicherweise enttäuscht ist.
Ich wollte mir auch die GTX 460 holen, nur hat mich persönlich die schlechte SSAA Performance abgeschreckt.
Schau mal in den anderen Thread was für Kombinationen an Software da getestet wird, von fehlenden Versionsangaben mal abgesehen, kann jedes System jederzeit mal einen Hänger haben und der Sound stockt.
Wobei niemand bisher erwähnt hat, welchen Mediaplayer er nimmt und ob er überhaupt Sound laufen lässt oder nur Blind auf das Latenz Programm schaut.
Schaltet mal 2 Trillian Message Fenster in den Vordergrund und macht nichts, nach 20sec gibts 8000er "Lags" aber der Sound im Winamp läuft Sahne weiter, seltsames Programm. Und nebenbei, die Taktrate bleibt im Windows fast immer im reinen 2D Mode, bei Video Wiedergabe kann in den 3D Low Modus geschaltet werden.
Viel Panik, wenig robustes, jede grüne Festplatte kann Sound stottern verursachen wenn sie in den Idle Mode geht und sofort wieder hochfahren muss.
Döner-Ente
2010-08-04, 23:12:22
5 € darauf, dass sich diese ganze DPC-Geschichte als Grashalmwachsenhören ohne praktische Auswirkungen entpuppt.
Nachdem ich grad des Spasses halber hier dieses komische Tool mit laufenden Browser + wahlweise Songbird, Furmark etc. wild angeschmissen und wieder beendet habe..tut sich da garnix.
Ergo kanns schonmal kein GTX 460-immanentes Problem sein.
Jede Wette, das bei den Leuten, bei denen das Ding rot ausschlägt und damit auch tatsächlich auch irgendwelche spürbaren negativen Symptome verbunden sind, dass an irgend was anderem liegt.
Man kann sich auch wegen allem verrückt machen (lassen)...
Ich denke nicht, dass es so einfach abgetan werden kann. Mit dem aktuellen 258.96 WHQL habe ich zwar unter Win7 keine Probleme, aber unter XP Ausschläge von 8000+.
Sobald ich meine alte 260GTX einbaue und ist alles unter XP wieder grün. Setze ich die 460'er wieder rein, dann ist die rote Welle angesagt im IDLE und bei Last wird es zwar besser, also gelb, aber selten grün. Irgendetwas muss da nicht stimmen mit dem Treiber unter der 460'er...
Ach übrigens, will mich hier kurz bei dem User Byteschlumpf bedanken!
Gute Idee mit dem AC2 Pro. Habe ich natürlich sofort nachgeahmt!
Allerdings musste man bei der EVGA das Papperl von der Platine poppeln, weil da drunter ne Schraube lag die zu lösen war.
Hier noch ein Bild: !endlich Leise!, wenn ich bedenke wie ich vorher gefoltert wurde von dem Quäker den EVGA da verbaut hat.
http://www.abload.de/thumb/custom460we6c.jpg (http://www.abload.de/image.php?img=custom460we6c.jpg)
PS: Warum lässt sich eigentlich die Spannung im MSI Afterburner 1.6.1 nicht weiter als 0.937V senken? Muss man da irgendnen Eintrag setzen? Mit dem NVInspektor gehts auch net. Springt immer wieder auf 0.937V zurück.
Und der Lüfter geht nur bis 70% zu regeln, sowohl im AFB, als auch im NVInspector. Drüber ist nicht. Komische Sache. Reicht zwar für alle Spiele locker, max. 82 Grad, Benches max. 85 Grad. Nur der Furmark bringt die Karte auf 94 Grad, aber den Spiele ich ja nicht. :)
Byteschlumpf
2010-08-05, 04:02:20
Freut mich sehr! :D
Bei der Palit geht der Lüfter auf bis zu 100% rauf - allerdings liegt das Maximum mit dem 6727 Platinum-BIOS bei etwa 63% beim Zoggn. Meine Gigabyte hat eine LAST-Spannung von übrigens 0,937V.
http://www.nvidia.de/docs/IO/95336/header_productshot1.png
http://www.tobiwahnkenobi.de/PICTURES/GTX460/head.jpg
ich finde nicht, dass die sich großartig unterscheiden.. zumindest haben beide heatpipekühlung und einen zentralen quirl.. der plastikdeckel sieht anders aus.. toll *nickt*
Der Kühler ist vollkommen wurscht.
Soll ich mich jetzt noch mal zitieren?
Fakt1: 2,2cm kürzer
Fakt2: quadratisch angeordnete Bohrungen für Kühler
Absolutes Referenzlayout:
http://img.clubic.com/photo/03367126.jpg
Und hier mal das "custom design" von Palit/Gainward:
(über 2cm kürzer, quadratische Bohrungen für Lüfter)
http://img.clubic.com/photo/03367116.jpg
Die 3 Schrauben links weg denken, da diese ja den nicht mehr existierenden VRM-Kühler halten ;)
Hier beide im direkten Vergleich:
http://www.clubic.com/carte-graphique/carte-graphique-nvidia/geforce-gtx-460/article-352186-4-nvidia-geforce-gtx-460-test-comparatif.html
Ich hoffe inständig, dass es bald auch andere mit solchen "custom design" gibt, die qualitativ aber höher ansetzen!
Vergleiche einfach die Abstände der PCIe-Leiste zum Ende der Platine hin.
Und auch unterschiedliche Anordnung der Bohrung ist mehr als deutlich ersichtlich...
Razor
Ach mist... sorry Tobi!
Du hast auf die Kühlkonstruktion geantwortet...
Hier gibt es tatsächlich Unterschiede wie Tag und Nacht und wirklich JEDER Hersteller hat was anderes.
Razor
@ DPC/Latency-Prob
Das ist doch garantiert wieder eine "Luftnummer" :rolleyes:
Habe zwar keine GTX460, aber das funzt genauso mit einer GTX260².
Schaltet Win7 einfach in den Modus "Höchstleistung" unter "Energiesparpläne" und schon ist der "Spuk" vorbei!
Braucht nicht wirklich "mehr Strom" und ist Ruhe im Karton.
Habe mich damals auf die Suche danach begeben, weil ich immer wieder Digi-Ton-Aussetzer beim Abspielen von BlueRays hatte... vollkommen egal mit welchem Player, wie sich dann heraus stellte *g* (habe dann eine Sicherung von Win7 zurück gespielt, um den ganzen Codec-Müll von maßgeblich PowerDVD wieder los zu werden ;-). Und nein, es war nicht die Grafikkarte oder der Treiber oder sonst was im System... es war der Energiespar-Modus von Windows selbst... der zu allem Überfluss auch noch Default ist.
Und nein, der Rechner schaltet brav seine Monitore nach 30min ab und nach einer Stude geht er ebenso brav in des S3-SleepMode (STR, aka SuspendToRAM - nur noch 3W Verbrauch und nach 2sec wieder da).
Ich zeig das mal mit Bildern... im "Hintergrund": TV-App, der DPC-Checker, ein paar SideApps, Outlook und ein paar Browserfenster
(und die GTX460 im permanenten 3D-Modus, dank der 2 Displays ;-)
Ausbalanciert (empfohlen) :rolleyes:
http://www.abload.de/img/260_ausbal_opt3468.png http://www.abload.de/img/260_ausbal_dpcv2sa.png
Höchstleistung (von Razor 'empfohlen') :up:
http://www.abload.de/img/260_hoechst_opt44ax.png http://www.abload.de/img/260_hoechst_dpc23w1.png
That's it!
Und dieses DPC-"Gemurmel" hat ein Ende.
(und die Diskussionen darüber hoffentlich auch ;-)
Razor
Freut mich sehr! :D
Bei der Palit geht der Lüfter auf bis zu 100% rauf - allerdings liegt das Maximum mit dem 6727 Platinum-BIOS bei etwa 63% beim Zoggn. Meine Gigabyte hat eine LAST-Spannung von übrigens 0,937V.
Meine EVGA hat eben auch ne Lastspannung von 0.937V bei 765/1530/1925. Hätte die Karte aber gerne etwas untervoltet gehabt. Naja, man kann nicht alles haben. Hautpsache erst einmal leise. Das andere findet sich vielleicht nach Updates besagter Tools oder wenn der Nibitor die 460'er unterstützt. Flashe ungern andere Biose, sondern verändere lieber das Original meiner Karte und flashe es wieder, aber das dauert halt noch.
labecula
2010-08-05, 14:22:39
Das Usmchalten auf Höchstleistung bringt bei mir rein gar nichts. Die Balken bleiben genauso rot wie vorher. Habe sogar zum test mal die Halt-States im BIOS deaktiviert. Auch das bringt rein gar nichts. Daran liegt es also nicht wirklich. Ich denke, da ich nicht weiß ob es ein Hardwaredesignfehler oder Treiebrproblem ist, werde ich die Karte morgen zurücksenden. Das Risiko in Zukunft auch mit Mikrorucklern bedacht zu werden ist mir zu groß ehrlich gesagt. Die 220,- Euro weiß ich besser zu investieren...
Mark3Dfx
2010-08-05, 14:32:37
Da wart ich doch auch noch mit dem Kauf.
Ne 1,5GB Version und ein paar Treiberupdates...dann für 200€+.
TobiWahnKenobi
2010-08-05, 14:40:01
Das Usmchalten auf Höchstleistung bringt bei mir rein gar nichts. Die Balken bleiben genauso rot wie vorher. Habe sogar zum test mal die Halt-States im BIOS deaktiviert. Auch das bringt rein gar nichts. Daran liegt es also nicht wirklich. Ich denke, da ich nicht weiß ob es ein Hardwaredesignfehler oder Treiebrproblem ist, werde ich die Karte morgen zurücksenden. Das Risiko in Zukunft auch mit Mikrorucklern bedacht zu werden ist mir zu groß ehrlich gesagt. Die 220,- Euro weiß ich besser zu investieren...
ist mir gar nicht aufgefallen, dass da was (mikro)ruckelt.. und ich habe seit einbau der karte echt aussergewöhnlich viel damit gespielt. und wenn ich keine böcke hatte, musste mein bro weiterzocken.. läuft alles.. ruckelagen kenne ich echt anders..
(..)
mfg
tobi
labecula
2010-08-05, 15:10:56
Ich mach mal eine Art Querverweis, da dies hier scheinbar in zwei Posts gespalten ist mit den Latencys:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8189170#post8189170
versucht doch bitte bzgl Latency im verlinken Thread weiter zu posten, sonst muss man ständig querlesen :-)
Im gigabyte Forum steht was von F2 BIOS ich habe das 70.04.0F.00.01 , also wahrscheinlich F1.
JaniC
2010-08-05, 19:20:08
Werde die GTX 460 GLH wohl zurückschicken.
Macht mit dem DC wie erwartet keinen Sinn, BFBC2 ist einfach unspielbar.
Rest, den ich spiele, ging auch mit der 4850GS.
Dann in ein paar Wochen i5-760 mit GTX-460 2GB. Ist ja schon für 249€ gelistet. Da kann man nicht meckern.
Byteschlumpf
2010-08-05, 20:14:52
Was für Probleme treten bei deiner GTX460 bei BFBC2 denn auf? Mir ist im nur getesteten SLI-Modus bei der Fahrt mit dem Boot ein seltsames Ruckeln aufgefallen. Sonst gab es keine Probleme damit.
labecula
2010-08-06, 15:00:35
Was für Probleme treten bei deiner GTX460 bei BFBC2 denn auf? Mir ist im nur getesteten SLI-Modus bei der Fahrt mit dem Boot ein seltsames Ruckeln aufgefallen. Sonst gab es keine Probleme damit.
habe es eben mal ausprobiert. Bei der Vorsequenz habe ich das eine oder andere ruckeln. beim Spiel selbst nachher aber nicht mehr. Alelrdings finde ich die fps nicht exorbitant besser als mit meienr 260er muss ich sagen. Alles auf High, 4AA und HBAO bei FullHD gerade mal 40-50fps (ok, sooo schlecht ist es auch nicht...)... Im gegensatz zu CodMW2 mit 80-110fps bei 4AA, wo der Unetrschied extrem zu merken ist. MIt der 260er hatte ich in CoD wesentlich weniger, im bereich der 30-40fps ungefähr.
evilernie
2010-08-06, 15:30:32
mal eine Frage zur 2GB Version? Was bringt mir die und wobei?
Sumpfmolch
2010-08-06, 16:03:40
Im gigabyte Forum steht was von F2 BIOS ich habe das 70.04.0F.00.01 , also wahrscheinlich F1.
korrekt. F2 hat 70.04.14.00.01
das bios ändert aber ziemlich viel herum. Es gibt einen zusätzlichen Performance Level P3 mit 405/810/1800 Taktung (dual monitor?), die lüftersteuerung wurde verändert (lüfter dreht jetzt bis 100% rauf anstatt maximal 70%) und das undervolting geht leider nicht mehr (vorher im 3d betrieb bis 0,925V möglich, jetzt nur noch minimal 1,012V)
san.salvador
2010-08-06, 16:05:23
mal eine Frage zur 2GB Version? Was bringt mir die und wobei?
Mehr Speicher.
Das bringt was, wenn ein Spiel mehr Speicher brauchen kann.
fulgore1101
2010-08-06, 16:16:27
Was für Probleme treten bei deiner GTX460 bei BFBC2 denn auf? Mir ist im nur getesteten SLI-Modus bei der Fahrt mit dem Boot ein seltsames Ruckeln aufgefallen. Sonst gab es keine Probleme damit.
Er meint, dass sein DualCore ein Flaschenhals in seinem System ist und die 460 ihm deshalb nichts bringt.
Byteschlumpf
2010-08-06, 17:00:34
Er meint, dass sein DualCore ein Flaschenhals in seinem System ist und die 460 ihm deshalb nichts bringt.
Ah OK, diese Ruckler bei mir haben sich als Mikroruckler entpupppt, wie ich zwischenzeitlich erfahren habe. Mit dem gemoddeten Quadro-Treiber sollen diese aber verschwinden.
labecula
2010-08-07, 11:38:26
mal eine Frage zur 2GB Version? Was bringt mir die und wobei?
Dreh mal in FullHD oder häher die AA nach oben, dann kommst Du schnell an die Grenzen beim einen oder anderen Spiel mit 1GB. Anderes Beispiel: Drehe mal die Texturkachelauflösung in Starcaft II von 1024 auf 2048... sieht tatsächlich schöner aus, bringt aber eine 1GB Karte schon an den Rand des Wahnisnns in FullHD mit 4AA... und ich denke, spätestens in IDs Rage Spiel wird die Sachem it 1GB schon echt haarig bei den Megatexturen die die verwenden...
selbe Diskussion wie vor Jahren bei der 8800gts 320 vs. 640:
die kleineren Speicherkrüppel können selbst mit aktuellen Spielen schon überlastet sein(GTA4, SC2, Metro, Stalker, Relic-RTS)
sollte jeder selbst wissen, ob ihm die ~30-40€ Aufpreis zuviel sind, bei den 8800gts habens sicher einige nachher bereut
puntarenas
2010-08-07, 12:33:54
selbe Diskussion wie vor Jahren bei der 8800gts 320 vs. 640
Kleines, vielleicht bemerkenswertes Detail, die 320MB-Versionen begaben sich in ein Umfeld, in dem mindestens 512MB zunehmend verbreitet waren. Dazu kommt, dass zu der Zeit hochauflösendere Texturen Verbreitung fanden, ein Momentum das heute ebenfalls ein wenig stagniert, denn es kostet Geld so einen Konsolenport nochmal aufzumöbeln.
Wer eine Palit/Gainward möchte, macht natürlich angesichts des geringen Aufpreises nicht viel falsch und wird sicher hier und da seine Vorteile ziehen können, ganz besonders in Hinblick auf Texturmods. Die 1024MB scheinen mir zur Leistungsfähigkeit des GF104 allerdings generell ganz gut zu passen und dein Kampfbegriff "Speicherkrüppel" erscheint mir für diese Karten sehr unpassend.
sarge
2010-08-11, 00:53:15
Hat schon wer von euch einen MiniHDMI-to-HDMI kabel in benutzung ?
ich habe mir so einen Kabel bei ebay gekauft. bekomme aber kein bild :(
Das ist dieser Kabel,,,
http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&item=130410547116&ssPageName=ADME:B:EOIBSA:DE:1123
also ich habe DVI-to-DVI und Minihdmi-to-HDMI kabel an meinem Monitor angeschlossen. In nvidia Systemsteuerung werden auch 2 monitore angezeigt. Aber sobald ich den zweiten monitor bzw, über miniHDMI auch einschalte und den monitor auf HDMI umschalte, wird der bildschirm schwarz.
Auch nur über Minihdmi-to-hdmi bekomme ich kein bild.
Weiss jemand woran das liegen könnte ?
Hat mal jemand bitte einen Vergleich zwischen GTX 470 und GTX 460 mit Benches und Energieverbrauch, welche dieser Karten ist vorzuziehen ?
GTX460 ist energieeffizienter, GTX470 bietet mehr Leistung. Übertaktest du die GTX460, schmilzt der Vorteil der Energieeffizienz etwas zusammen, aber sie holt leistungsmäßig auf, übertaktest du dann auch die GTX470 geht das Spiel von vorne los.
Im Idle-Verbrauch sieht die GTX470 kein Land.
easy as that!
Kontanor
2010-08-11, 22:32:51
Hat mal jemand bitte einen Vergleich zwischen GTX 470 und GTX 460 mit Benches und Energieverbrauch, welche dieser Karten ist vorzuziehen ?
http://www.tweakpc.de/hardware/tests/grafikkarten/gainward_nvidia_geforce_gtx_460_glh/s05.php
Auf GLH-Taktniveau verbrät die GTX460 unter Last knapp 100W (!) weniger (bei Idle ca. 20W), wobei kaum etwas zur Performance einer GTX470 fehlt.
IMHO eine einfache Wahl.
Und "wartet" man auf einen Vollausbau der GF104 (eine "GTX475"?), ist der letzte Vorteil einer GF100 basierten GTX470 auch dahin.
Dann bleibt nur noch die höhere Speicherbandbreite...
Razor
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.