PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Burn-In bei einer PoV 6800 GT


Aslinger (Gast)
2005-03-19, 16:41:59
Ja also meine Karte verträgt leider keine 1.4V. Im 3DMark03 z.B. läuft sie ohne Probleme bis 430MHz Chiptakt mit 1.3V sind max. 400MHz drin. Ohne irgendwelche Fehler oder Abstürze. Nur habe ich bei anderen Spielen z.B. das Problem dass nach etwa 2 Minuten der Bildschirm sich komplett umfärbt in bunte Kästchen danach bleibt der Bildschirm schwarz auch bei 400MHz tritt es auf. Mit 1.3V passt alles. Nur will die Karte mit dem 1.3V Bios nur 400 mHZ stabil laufen trotz Zalman VF700-CU. Im Nature Test vom 03er 3DMark tauchen Pixelfehler auf auf dem Panzer der SChildkröte. Ich kenne das Problem von den Gainward GS Karten. Nur warum läuft da der 3DMark03 ohne Probleme durch? Und warum laufen andere 6800 GT-karten wiederum ohne Probleme mit den 1.4V. Es gibt z.B. PoV Karten die laufen ohne Probleme. Übrigens werden die Spannungswandler bei meiner Karte gut gekühlt ich hab einen Lüfter auf der Seitenwand der genau auf die Graka. bläst. Trotzdem keine Chance dass die Karte mit 1.4V läuft.

Würde es etwas bringen wenn ich z.B. den Takt vom Chip auf 200MHz setze und dann 3D-Games spiele für ein paar Tage. Würde der Chip z.B. bei 1.3V dann höher gehen oder sollte ich die Spannung auf 1.4V setzen für einen Burn-In?

Gast
2005-03-19, 16:51:32
thx für Antworten und Tipps!

Gummikuh
2005-03-19, 16:55:36
Welche Taktrate die Graka im 3DMurks schafft hat eh nix zu sagen, bei nem richtigen Spiel trennt sich die Spreu vom Weizen...ist nix unnormales, das ne hochgetaktete Graka nen 3DMurks ohne Fehler durchläuft und bei Games gibt es dann Probleme...

--->Nen Spiel ist einfach nen besserer Stresstest wie nen 3DMark...

zu deinen "Burn IN"...hmmm...ob das was bringt...ausserdem musste abwägen, was dir wichtiger ist, ne geschrottete Grafikkarte oder paar MHz Takt weniger...das jede GT den Ultra Takt packt ist eh eher Wunschdenken mancher Leute als die Realität...

Aslinger (Gast)
2005-03-19, 17:04:06
Hmm kann man die Karte wirklich schrotten wenn man den Chiptakt zu niedrig setzt? So ein Pech dass ich eine Karte erwischt habe die keine 1.4V verträgt. Die hat wohl minderwertige Spannungswandler oder ist es der Chip der net so richtig will was ich aber bezweifle weil im 3DMark und Aquamark läuft alles ohne Probs mit 1.4V und 430MHz. Ich kapier des net warum will der 3DMark mit 1.4V laufen obwohl er die Karte stark belastet und andere Spiele wieder nicht?

Darum dachte ich an Burn-In damit dann der Chip mit 1.3V über 400 stabil läuft ohne Pixelfehler und der 3DMark03 Nature ist genau der richtige Test dafür. Das ist wohl ein neues Tehma.

Burn-In bei Grafikkarten!

TobiWahnKenobi
2005-03-19, 17:09:07
wie schon gesagt wurde, sagt das alles gar nichts.

saug dir mal die demo von SC3. da siehst du schnell was wirklich geht..

die geschichte ist aber nicht neu. vor ca. 2 jahren lief meine "special FX"
mit 580/1000mhz durch den aquamark. fehlerfrei. es brachte mit 57.000 punkte..

für die 3D murkse musste ich (wie auch für spiele) auf 550/1000mhz zurücktakten, weil es einfach "nicht allround-tauglich war"

meine GT macht mit ihren 1.3V auch noch 440mhz GPU takt mit.

tipp: bring die karte zurück, lass dir dein geld wiedergeben

mfg
tobi

Gast
2005-03-19, 17:12:07
Die Karte hab ich schon seit Mitte Nov. 2004. Und es ist und bleibt meine letzte AGP-Karte und steig dann auf PCI-Express um so ab Herbst, Winter 05.

Aja in der Demo zu Splinter Cell 3 habe ich die selben Fehler wie im 3DMark03 Nature so ab 405MHz. Aber nur bei bestimmten Stellen.

Gast
2005-03-19, 17:18:51
Mir kommt meine Karte so vor:

So dieses Spiel hier werde ich mit 1.4V berechnen. NFSUG2 läuft z.B. ohne Probs mit 1.4V und 430MHz.
Bei einem anderen Spiel: Nein, dieses Spiel will ich nicht dauerhaft mit 1.4V berechnen. z.B. HALF LIFE 2.

Ist meine Karte ein ALIEN?!

Gummikuh
2005-03-19, 17:22:08
Dann ist eben ab 400MHz "Schicht im Schacht" bei deiner Grafikkarte...

und ja...wenn du ne GT mit 1.4V betreibst kannst du die Grafikkarte im schlimmsten Falle schrotten, hier ist nicht der verbaute NV40 Chip das Problem, sondern eher andere Zutaten, wie Spannungswandler und der ganze Krempel.

Edit: Deine Karte ist kein Alien...spiele stellen unterschiedliche Ansprüche...heißt auf deutsch, Spiel X beansprucht die Karte stärker wie Spiel Y...

TobiWahnKenobi
2005-03-19, 17:23:06
ich würde sagen, es liegt eher an den recheneinheiten, die von unterschiedlicher software, unterschiedlich stark beansprucht werden.

mfg
tobi

Gast
2005-03-19, 17:28:39
Wahrscheinlich eh die Spannungswandler ich habe die PoV mit dem grünen Platinenlayout die neuen haben ja schon schwarze layouts die haben viell. bessere Wandler drauf.

Viell. hat hier ja jemand eine PoV 6800GT der sie ohne Probleme mit 1.4V betreibt. Und jedes Spiel läuft auch dann ohne Pixelbrei.

Seit ich die Karte habe testete ich mit 1.4V immer wieder mal. Kein Glück! Kann man die Karte schrotten wenn manns zu oft probiert? Ich habs mind. schon 10 mal probiert und dutzende Biose hatte ich auch schon geflasht. Derzeit nutze ich das neues Gainward 6800GT-Bios 5.40.02.38.00.

Gast
2005-03-19, 17:30:34
Eine neue karte habe ich mir schon überlegt aber das zahlt sich sicher ned aus.

Gast
2005-03-19, 17:32:00
Sorry mit Platinenlayout meine ich Platinenfarbe.

TobiWahnKenobi
2005-03-19, 17:45:27
ich habe 5.40.02.36

aber ehrlich gesagt, ist das ziemlich schnuppe. das ist seit genau einer woche komplett problemlos (wenn man mal von dem profilbug im nview bei FW 71.84 absieht, bin ich rundum zufrieden)

mfg
tobi

del_4901
2005-03-19, 20:01:06
Die sache mit den burn-in's funkt bei den heutigen standartmäßig verwendetten Strukturbreiten nicht mehr ... das führt eher zur Elektronenemigration und dann zum tod.

piker
2005-03-20, 01:45:09
hey,

sei froh, daß deine karte überhaupt irgendwie die 1.4v verknusen kann u. sich auch einigermaßen übertakten lässt.

meine pov6800gt macht schon bei 389/1050 ne´n schlappmann :(

sie zeigt die artefakte genau an der stelle in 3dm03, die du beschrieben hast mit dem schildkrötenpanzer.

ich habe meine karte übrigens seit 09/04 u. sie hat die schwarze platine.

meine geht wieder standard, da ich dem spannungswandler keine sep. kühlung zugedacht habe. und die paar mhz mehr ermöglichen mir in keinem game eine entweder höhere aufl. bzw. quali. mal abgesehen davon, daß die gt mich persönlich in den games die ich zocke absolut überzeugt hat u. eigentlich auch ausreichend schiebt.

trotzdem lässt mich irgendwie der gedanke nicht wieder los, meine gt abzugeben u. mir tatsächlich eine andere zu kaufen. ich glaub die gainward ist ein schickes teilchen...und die leadtek sticht mir auch immer wieder in´s auge.

im grunde gefallen mir bei beiden karten die jeweiligen lüfter. doppel bzw. kupfer kühler. aber wie schon in einem anderen thread geschrieben, es gehört eben auch eine gute portion glück dazu.

greetz piker

Gast
2005-03-20, 02:02:46
Der Speicher meiner Karte geht auch auf 1230MHz ohne Probs nur der Chip will halt ned so richtig. 1100MHz reichen mir aber völlig. Den Chiptakt erhöhen bringt bei einer Geforce 6 sicher den meisten Speed. Naja was solls. Eine 6800 Ultra wär ned schlecht am besten dann mit einem 6800GT Bios flashen. GT-Biose sind in der Regel schneller bei den Speichertimings.

piker
2005-03-20, 02:21:20
hast du dann nicht automatisch wieder nur 1,3v ?

del_4901
2005-03-20, 04:22:34
nur so als kleine Anmerkung am rande für alle die denken mit 1,4V kann ich meine OC Erfolge erzwingen. Meine alte FX5900 ist wegen zusätzlichen 0.1V "abgebrannt" ... aus wenn sie dafür ca. über ein halbes Jahr gebraucht hat ... die Karten altern einfach viel schneller ... und wenn der Chip vllt. nicht die Ultrabedingungen geschafft hat, dann auch sicher nicht ohne Grund. z.B könnte eine odere mehrere Leiterbahnen bei der Produktion einfach zu dünn geworden sein, die zusätlichen 0.1V könnten reichen um daraus eine "Sollbruchstelle" zu machen.
Elektronenemigration lässt grüßen.
Und sagt nicht man hätte euch nicht gewarnt.
Und bei der Ausgereiftheit heutiger GPU-Fertigungsverfahren (das sind keine CPUs wo man schon fast über Jahre hinweg die Fertigungen optimiert auf das Design) denke ich nicht gerade das es wenig sind die diese Sollbruchstellen haben. Und eher die Ultras ausgewählte Chips bekommen als andersrum.

Nicht vergessen die Betatester sind wir und das trifft auf GPUs in besonderem Maße zu.

Dunkeltier
2005-03-20, 10:14:55
wie schon gesagt wurde, sagt das alles gar nichts.

saug dir mal die demo von SC3. da siehst du schnell was wirklich geht..

die geschichte ist aber nicht neu. vor ca. 2 jahren lief meine "special FX"
mit 580/1000mhz durch den aquamark. fehlerfrei. es brachte mit 57.000 punkte..

für die 3D murkse musste ich (wie auch für spiele) auf 550/1000mhz zurücktakten, weil es einfach "nicht allround-tauglich war"

meine GT macht mit ihren 1.3V auch noch 440mhz GPU takt mit.

tipp: bring die karte zurück, lass dir dein geld wiedergeben

mfg
tobi


Warum die Karte zurückbringen, wenn sie einwandfrei und schnell funktioniert? Wo liegt da die Logik? Nur wegen den paar Mhz?

Modderidioten
2005-03-20, 10:33:07
Burn in ist ungefähr genau so sinnvoll wie ein Fuchsschwanz am Manta.

Gast
2005-03-20, 10:56:18
hast du dann nicht automatisch wieder nur 1,3v ?

Ja 1.3V ist wieder eingestellt da läuft alles bestens ohne Probs!

Thx für eure Hilfe ich werde meine karte in Ruhe lassen. Bei einer in 0.15 micrometer gefertigten GPU wird Burn-In wahrscheinlich nichts bringen.

Gast
2005-03-20, 11:04:20
Ach nein die Geforce 6 wird ja in 0.13 micrometer gefertigt. Sorry!

hardwaredödel
2005-03-20, 11:11:39
Ist schon super, Karte zurückgeben und irgend so ein Dödel kriegt dann das nächste Mal eine total versaute Karte verkauft. Wen kümmert es schon....
Die Hersteller spezifieren ihre Hardware wohl kaum umsonst innerhalb bestimmter Rahmen, schliesslich sollen sie für ihr Produkt gerade stehen.
Niemand würde auf die Idee kommen, ein Auto zurückzugeben, nur weil beim Chiptuning nicht die erhofften 20% Mehrleistung herauskommen.

Manchmal trifft man hier auf ganz schöne geistige Irrlichter.......

Aslinger (Gast)
2005-07-30, 14:16:21
Ok ich hocke noch immer bei meiner PoV 6800GT.

Chiptakt:

Beim Militärspiel First to Fight flackern die Gewänder von den Soldaten die bei 370MHz erst verschwinden. Hitzeprobleme sinds keine auch wenn ich den PC einschalte und dann sofort mit 400MHz teste gibts flackerungen aber nur bei den Figuren!?!?

Im 3Dmark03 gehen weiterhin 400MHz ohne Fehler im mother nature. Bei 405 flackert der Schildkrötenpanzer ganz leicht. Und in Area 51 muss ich auf 390MHz gehen damits kein Flackern gibt bei meiner Waffe. Das selbe in Half Life 2 an bestimmten Stellen gibts grüne Flackerungen.

Was habe ich da für einen eigenartigen Chip erwischt?

Aslinger (Gast)
2005-07-31, 09:49:06
Hat jemand mit seiner 6800GT die selben Probleme wie ich?