PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : OC-Ergebnisse 8800 GT/GTS/GTX/Ultra *neu*


Blackpitty
2008-01-14, 17:24:26
Neuer OC Sammelthread

Da ich eigentlich täglich hier bin, werde ich sobald jemand was neues schreibt aktualisieren. :smile:

Damit ihr in die Liste aufgenommen werdet, postet bitte eure Ergebnisse und Daten so(wie in den Tabelle zu sehen):

Beispiel:

User Core Shader Vram Typ

Blackpitty /684/ 1566/ 1053/ BFG 8800 GTX 768MB




8800 GS
-----------------------------------------------------------------------------------
User Core Shader Vram Typ
Peterxy 731 1800 1050 Asus EN-8800GS 384MB
Schlammsau 735 1838 970 XFX 8800GS 640M



8800 GT
-----------------------------------------------------------------------------------
User Core Shader Vram Typ

Adam D. 735 1840 960 BFG 8800 GT 512MB
arcon 770 1866 1100 Zotac 8800GT 512MB
Buzzler 712 1728 950 ECS 8800GT 512MB
Digg 750 1600 1030 Zotac 8800 GT 512MB
Dr. SNuggles 700 1750 984 MSI 8800 GT 512MB
fizzo 725 1782 1053 EVGA 8800 GT 512MB
gentoo 741 1852 1050 Gainward 8800 GT GS 1024MB
GH0ST 716 1728 1000 Leadtek 8800 GT 512MB
Goldeneye007 700 1750 900 PNY 8800 GT 512MB
hans_wurst 702 1728 950 Asus 8800 GT 512MB
jc110 745 1850 1035 POV 8800 GT 512MB
LovesuckZ 740 1674 984 Sparkle 8800 GT 512MB
malachi266 700 950 ???
Odal 756 1836 1044 Colourful 8800GT 512MB
Panasonic 700 1750 1105 8800 GT 512MB
PORT 700 1712 900 PNY 8800 GT 512MB
Rebell 756 1944 950 EVGA 8800 GT 512
Ronny G. 780 1750 1140 Colorful 8800GT 512mb
Schrotti 700 1750 900 Zotac 8800 GT 512MB
specialDD 785 1962 1110 Sparkle 8800GT 512MB
suikoden007 702 1728 950 EVGA 8800 GT 512MB
Sumpfmolch 715 1750 975 Elitegroup N8800GT 512MMB
theburnout 770 1890 1050 Zotac 8800 GT 512MB
TheRealVampire 715 1728 1000 EVGA 8800 GT 512MB
Tom71 720 1836 957 Leadtek 8800GT 512MB
vinacis_vivids 756 1836 950 Zotac 8800 GT 512MB
Wolfram 702 1782 1102 ECS 8800GT 512MB
|-Sh0r7y-| 752 1800 2202 MSI 8800 GT OC 512MB



8800 GTS
-----------------------------------------------------------------------------------
User Core Shader Vram Typ

[CMI]Shadow 569 1728 999 Asus 8800GTS 640MB
[dzp]Viper 690 1000 Zotac 8800 GTS ???MB
Armaq 621 1458 954 PNY Verto 8800 GTS 320MB
Arschhulio 620 1458 900 Sparkle 8800 GTS 320MB
Blaze 621 1458 945 Sparkle 8800 GTS 640MB
blutrausch 750 1890 980 Zotac 8800 GTS 640MB
Byteschlumpf 620 920 Leadtek 8800 GTS ???MB
centurio81 621 1620 1026 Sparkle 8800 GTS 640MB
Chrisch 756 1674 1000 Zotac 8800 GTS 640MB
clockwork 648 1522 999 Sparkle 8800 GTS 640MB
CompuJoe 665 1522 1000 XFX 8800 GTS 640MB
Da Fre@k 685 1620 1000 Zotac 8800GTS 640MB
Deathcrush 800 2000 1000 8800GTS 640MB
devilsfun 702 1620 1000 Zotac 8800 GTS 640MB
Digglerino 740 1850 1040 POV 8800 GTS 512MB
Eggcake 621 1674 1008 Asus 8800 GTS 320MB
Eliminator 648 1566 999 Club3D 8800 GTS 640MB
Fetza 648 1620 1050 Zotac 8800 GTS 640MB
funkflix 882 2205 1148 Zotac 8800GTS 512
gbm31 756 1890 999 Colorful 8800gts 512MB
Grindcore 648 1512 950 Zotac 8800 GTS 640MB
hans_wurst 720 1782 1008 Point of View 8800 GTS 512MB
iltis2k 648 1500 1000 Sparkle 8800 GTS 640MB
Ionstorm 800 2000 1111 Sparkle 8800 GTS 512MB
James Ryan 675 1620 1000 Zotac 8800 GTS 640MB
KinGGoliAth 625 1460 1000 Gainward 8800 GTS 640MB
labecula 685 1586 1000 Zotac 8800 GTS 640MB
Laxer 648 1512 972 Zotac 8800 GTS 640MB
MegaManX4 648 1512 900 XFX 8800 GTS 640MB
MorLipf 648 1000 Gainward 8800 GTS 640MB
Netzwerkpsycho1 612 1404 972 Point of View 8800 GTS 320MB
noack 600 900 Leadtek 8800GTS 320mb
Nick 621 1458 1008 PNY 8800 GTS 640MB
no_surrender 684 1566 1044 POV 8800 GTS 640MB
RaiLex 640 1450 950 MSI OC-HD 8800 GTS 640MB
RecSwat 605 950 Gainward 8800 GTS 640MB
Ronny G. 863 2106 1152 Colorful 8800GTS G92
seneca 648 1512 984 Sparkle 8800 GTS 320MB
Tigershark 648 1566 933 EVGA Superclocked 8800 GTS 640MB
warmachine79 613 1455 900 Sparkle 8800 GTS 640MB
WEGA 612 1404 900 EVGA 8800 GTS 640MB
Yon Boy 600 1450 900 ??? 8800 GTS 640MB




8800 GTX
-----------------------------------------------------------------------------------
User Core Shader Vram Typ

Blackpitty 684 1566 1053 BFG 8800 GTX 768MB
DevilX 648 1566 999 xpert vision 8800 GTX 768MB
Gouvernator 648 1620 1040 Zotac 8800 GTX 768MB
hacky 660 1414 1050 XFX 8800 GTX OC 768MB
Hamud 648 1512 1080 Sparkle 8800 GTX 768MB
James Ryan 648 1620 1000 Asus Geforce 8800 GTX 768MB
Joker (AC) 685 1675 1050 Zotac 8800GTX 768MB
kasir 621 1620 1026 XFX 8800GTX 768MB
la.ultima 648 1620 1000 eVGA 8800 GTX 768MB
Mayk-Freak 725 1782 1240 Gainward 8800 GTX 768MB
Megamember 702 1675 1080 Foxconn 8800 GTX OC 768MB
Mr.Magic 648 1512 999 Sparkle Calibre 8800 GTX 768MB
n4p0 675 1690 1110 Point of View 8800 GTX 768MB
Pinhead 675 1566 Sparkle 8800 GTX 768MB
Raff 648 1621 1080 MSI 8800 GTX 768MB
Sascha1971 632 1002 Zotac 8800 GTX 768MB
sidewinder@ 648 1566 1053 MSI 8800 GTX 768MB
sneipa 621 1458 999 Point of View 8800 GTX 768MB
Snoopy69 792 1890 1188 MSI NX8800GTX-T2D768E-HD-OC 8800 GTX 768MB
TheBrother 648 1512 1025 Sparkle 8800 GTX 768MB
Vega2002 648 1620 1100 MSI OC-HD 8800 GTX 768MB
yardi 648 1460 1000 POV 8800GTX 768MB
9800ProZwerg 621 1512 950 XFX 800GTX 768MB





8800 Ultra
-----------------------------------------------------------------------------------
User Core Shader Vram Typ
Schrumpelratte 702 1782 1123 EVGA 8800 ULTRA 768MB
derwalde 684 1674 1152 XFX GeForce 8800 ULTRA 768MB





9800GTX
-----------------------------------------------------------------------------------
User Core Shader Vram Typ
Nick 828 1998 1253 9800GTX 512MB

Adam D.
2008-01-14, 17:35:56
Schöne Arbeit.

Muss meine Taktraten aber editieren, da ich sie jetzt ändern musste auf 735/1840/960MHz (8800GT), das sind wirklich die absoluten Grenzen, mehr ist nicht drin. Schon bei 1MHz mehr überall kackt die Maschine ab :D

Blackpitty
2008-01-14, 17:42:50
ok, habs eingetragen, RAM ist jetzt ja niedriger, warum das?:eek::smile:

Adam D.
2008-01-14, 17:47:29
ok, habs eingetragen, RAM ist jetzt ja niedriger, warum das?:eek::smile:
Weil der nach längeren Tests mit Crysis Fehler ausgespuckt hat. Selbst nach mehreren Stunden ATi-Tool, UT3 und Cod4 in hohen Settings traten die Fehler nicht auf, aber bereits beim ersten oder zweiten Durchlauf mit dem Crysis-GPU-Bench verabschiedete sich die Karte ;)

jc110
2008-01-14, 23:15:13
Meine PoV GT 512 läuft 24/7 mit 745/1850/1035MHz, allerdings mit EK-Kühler.

vinacis_vivids
2008-01-15, 00:16:52
Zotac 8800GT 756/1836/950 mit Arctic Accerlerro S1

Megamember
2008-01-15, 12:46:33
Bei meiner GTX kannste als Shadertakt 1675 eintragen, mehr geht wohl auch noch, trau ich mich aber net:D

Blackpitty
2008-01-15, 19:45:31
ok, alle drin

vinacis_vivids
2008-01-15, 19:52:30
Kommt schon Leute, will paar mehr 8800er GTs hier sehen. Mit der GTS (G92) hat sich noch keiner hier gemeldet :(.

san.salvador
2008-01-15, 20:06:13
Kommt schon Leute, will paar mehr 8800er GTs hier sehen. Mit der GTS (G92) hat sich noch keiner hier gemeldet :(.
Kuckstu in den alten Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360591). ;)

Thunder99
2008-01-16, 18:16:55
Kuckstu in den alten Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360591). ;)
Dann aktualisiere mal die Liste ;)

san.salvador
2008-01-16, 18:19:48
Dann aktualisiere mal die Liste ;)
Dann lies mal das vorletzte Posting. :tongue:

Blackpitty
2008-01-16, 20:00:43
Dann lies mal das vorletzte Posting. :tongue:

komisch, auf einmal ist man wieder so aktiv:|.....

san.salvador
2008-01-16, 20:16:18
komisch, auf einmal ist man wieder so aktiv:|.....
Was so eine neue Grafikkarte nicht alles bewirken kann. :D


Also Leute, bevor wir parallel hier und im alten Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360591) herumposten, sollten wir uns einig werden. ;)

gentoo
2008-01-16, 22:09:01
Gainward 8800 GT GS 1024MB 741/1852/1050 mit Originalkühler

Edit:
BTW reichen 30 Minuten mit dem ATI-Tool (sonst wäre der Eintrag zum Streichen)?

Blackpitty
2008-01-16, 22:20:39
Gainward 8800 GT GS 1024MB 741/1852/1050 mit Originalkühler

Edit:
BTW reichen 30 Minuten mit dem ATI-Tool (sonst wäre der Eintrag zum Streichen)?

gutes Ergebniss, habe es mal eingefügt.

schafft die Karte das nur 30 Min?

gentoo
2008-01-16, 22:55:17
schafft die Karte das nur 30 Min?

Nein ich teste momentan immer nur 30 Minuten lang.

Wenn ihr wollt kann ich auch einen längeren Test mit Screenshot machen.
Dann aber morgen, teste nämlich gerade 758/1852/1050 =).

lg,
gentoo

Blackpitty
2008-01-16, 22:56:35
Teste gerade immer nur 30 Minuten lang.

Wenn ihr wollt kann ich auch einen längeren Test mit Screenshot machen.
Dann aber morgen, teste nämlich gerade 758/1852/1050 =).

lg,
gentoo

also so lange die Karte das irgendwie stabil schafft, kann man das so stehen lassen

Thunder99
2008-01-16, 23:22:59
Dann lies mal das vorletzte Posting. :tongue:
:up:

Nun sind die Mods gefragt :D

Eggcake
2008-01-17, 01:00:18
Asus GeForce 8800 GTS 320

621/1053/1512 (Core/RAM/Shader)

Nach langem testen bin ich zum Schluss gekommen, dass ein höherer Coretakt kaum mehr Gewinn bringt (nächster gültiger Takt bei 648 Mhz). Getestet beim Crysis GPU Bench steigen die Avg. FPS zwar minim (0.3-0.4), die Min. FPS sacken jedoch um 4+FPS ab, Max. FPS ebenfalls weniger

Habe mit 621 Core das Optimum gefunden, bin jetzt beim Shader und RAM bei den oben genannten werden stehen geblieben - Avg. FPS konnte ich durch je ~50Mhz Erhöhung nochmals erhöhen, gleichzeitig auch Min. FPS. Werd morgen noch gucken wie weit das es noch geht.

Die oben genannten Einstellungen hab ich noch nicht nach Artefakten gecheckt, jedoch vor ein paar Monaten 621/999/1458 - sollte also immernoch stabil laufen, denke das kann ich so freigeben - werd morgen noch ATI Tools 30-45min laufen lassen.


Übrigens: hat jemand "kritische" Werte zu den verschiedenen Werten für die GTS 320? Also wo ich wirklich langsam die Karte gefährde? Dass ich mit Overclocking generell immer ein gewisses Risiko eingehe ist klar, doch gibts dafür grad irgendwelche Richtwerte? Gerade z.B. beim RAM sehe ich ist das Maximum hier 1080 - hab ich also bald erreicht...
Und: Was ist so die Max. Temp? Bin mitm Standardlüfter auf 100% (während Games hör ich den eh nicht) auf 70°...okay? :)

iltis2k
2008-01-17, 12:45:06
Sparkle 8800 GTS 640MB mit Thermalright HR-03 Plus 648/1500/1000

san.salvador
2008-01-17, 13:29:05
Da ich nicht den Eindruck habe, dass Blackpitty die Liste aktualisiert, führe ich einstweilen meine (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360591) fort.

Eggcake
2008-01-17, 13:31:38
Kurze Änderung: du hast bei mir VRAM mit Shadertakt verwechselt (bzw. ich habs verkehrt herum aufgeschrieben)...sorry :)


Meine definitive Taktung: 621/1674/1008 getestet in ATI Tools für 30+ Minuten ohne Artefakte. Habe wohl meine Karte beim RAM etwas überschätzt.

Core eins weiter oben=weniger Performance
Shader eins weiter=Artefakte
VRAM eins weiter= Artefakte

Blackpitty
2008-01-17, 19:32:59
Da ich nicht den Eindruck habe, dass Blackpitty die Liste aktualisiert, führe ich einstweilen meine (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360591) fort.

naja, peinliches Verhalten, findest nicht, oder?

da kümmerst du dich um deinen Thread erst einen Scheiß, und man kann dich anschreiben, ohne Antwort, doch auf einmal ist er erwacht, wenn man merkt, dass jemand anderes die Sache ordentlich in die Hand nimmt....

und zur Aktualisierung, schließlich geht man tagsüber auch mal arbeiten, somit aktualisiere ich immer Abends.

Blackpitty
2008-01-17, 19:40:39
Kurze Änderung: du hast bei mir VRAM mit Shadertakt verwechselt (bzw. ich habs verkehrt herum aufgeschrieben)...sorry :)


Meine definitive Taktung: 621/1674/1008 getestet in ATI Tools für 30+ Minuten ohne Artefakte. Habe wohl meine Karte beim RAM etwas überschätzt.

Core eins weiter oben=weniger Performance
Shader eins weiter=Artefakte
VRAM eins weiter= Artefakte

habe deine Werte und die der anderen aktualisiert:wink:

san.salvador
2008-01-17, 20:01:04
Da der Zuspruch überwältigend ist und nur noch in diesen Thread gepostet wird, hab ich in meinem eine Umleitung hierher eingerichtet.

P.S.: Ein Gentleman gefragt oder angekündigt, einen neuen Thread zu erstellen und den alten damit zu beenden. ;)


€dit: Meine GTS G80 gibts nicht mehr, kannst sie also aus der Liste streichen.

Rebell
2008-01-17, 20:05:22
EVGA 8800 GT 512 @ Accelero S1 2x120mm , 1,22V Bios, liegen aber warsch. nur 1,15-1,16V an.

absolut stabil: 756/1944/950

Crysis 2x99 Loops, 3dmark06 stundenlang loop, + "mein Zocken"

hans_wurst
2008-01-17, 20:06:05
Point of View 8800 GTS 512MB

Chip: 720 / Shader: 1782 / Speicher: 1008

http://img104.imageshack.us/img104/5811/clipboard01wr9bv7.jpg

yardi
2008-01-17, 20:06:06
Naja man sollte sich mal einigen welcher Thread jetzt der "richtige" ist.
Ich finde auch das san.salvadors plötzlicher Eifer etwas zu spät kommt, nichts für ungut.

On topic:

Meine Werte sind 648/1460/1000 ausführlich getestet mit 3DMark06 und diversen Games im Dauereinsatz ;)

Wie kann ich im Rivatuner nochmal den Regler für die Shader Clock freischalten? Wurde hier mal beschrieben aber ich finde es nimmer...

san.salvador
2008-01-17, 20:15:07
Naja man sollte sich mal einigen welcher Thread jetzt der "richtige" ist.
Ich finde auch das san.salvadors plötzlicher Eifer etwas zu spät kommt, nichts für ungut.
Na dann hab ich die Situation richtig erfasst.
Außerdem ist das nichts, was blackpitty und ich untereinander ausschnapsen. Die Werte sollten dort stehen, wo sie gepostet werden und vice versa. Insofern hat die Masse recht. :D

Wie kann ich im Rivatuner nochmal den Regler für die Shader Clock freischalten? Wurde hier mal beschrieben aber ich finde es nimmer...
Wenn du den aktuellen Rivatuner nutzt, sollte auf der Oc-Seite eine Checkbox zum "unlocken" der Slider" sein. Ich glaub nicht dass da Änderungen nötig sind. :|

vinacis_vivids
2008-01-17, 20:16:07
Noch eine kurze Anmerkung: Bei den Karten kann man gerade Werte einstellen, allerdings takten sie real anders. Die exakten Werte kann man mit dem Rivatuner HW Monitor ablesen.

Blackpitty
2008-01-17, 20:20:44
.....blub....

P.S.: Ein Gentleman gefragt oder angekündigt, einen neuen Thread zu erstellen und den alten damit zu beenden. ;)


€dit: Meine GTS G80 gibts nicht mehr, kannst sie also aus der Liste streichen.

ehm, also wenn du schon nicht auf die PN antwortest, in der ich dich wegen der Aktualisierung deines Thread angeschrieben habe, tut es mir leid, da brauchst du jetzt auch nicht mit solchen Sprüchen kommen.

zu deinem Edit, wird gleich gemacht, die andere füge ich auch gleich hinzu

Eggcake
2008-01-17, 20:34:21
Noch ne kurze Frage (gehört hierhin und auch in den Crysis-GPU-Bench-Thread, aber hab mich doch für hier entschieden ;P )

Wie kommts, dass meine min. FPS mit höherer Taktung geringer sind als bei niedrigerer Taktung? Avg. FPS steigt stetig an, doch die min. FPS sinkt.

Hab mal meine Werte in ner Excel Tabelle (http://mitglied.lycos.de/shoros/GF_Overclocking.xls) aufgelistet. VRAM und Coreclock sind überall (bis auf die beiden ganz unten) gleich, ich ändere nur den Shadertakt. Bei 1512 scheint das Optimum was min. FPS angeht, alles darüber drückt die weiter nach unten. Bin noch weiter am testen momentan.
Die Werte sind immer jeweils 3 Runs, den Wert mit den besten avg. FPS rausgenommen. Da die Min. FPS aber bei jedem Loop exakt gleich sind (warum das? :) ) ist das eher nebensächlich.

Edit: Die OC-Werte sind allesamt mit ATI Tools getestet

san.salvador
2008-01-17, 20:37:01
ehm, also wenn du schon nicht auf die PN antwortest, in der ich dich wegen der Aktualisierung deines Thread angeschrieben habe, tut es mir leid, da brauchst du jetzt auch nicht mit solchen Sprüchen kommen.

zu deinem Edit, wird gleich gemacht, die andere füge ich auch gleich hinzu
Dass ich darauf nicht eingehe verstehst du hoffentlich.
Noch ne kurze Frage (gehört hierhin und auch in den Crysis-GPU-Bench-Thread, aber hab mich doch für hier entschieden ;P )

Wie kommts, dass meine min. FPS mit höherer Taktung geringer sind als bei niedrigerer Taktung? Avg. FPS steigt stetig an, doch die min. FPS sinkt.

Hab mal meine Werte in ner Excel Tabelle (http://mitglied.lycos.de/shoros/GF_Overclocking.xls) aufgelistet. VRAM und Coreclock sind überall (bis auf die beiden ganz unten) gleich, ich ändere nur den Shadertakt. Bei 1512 scheint das Optimum was min. FPS angeht, alles darüber drückt die weiter nach unten. Bin noch weiter am testen momentan.
Die Werte sind immer jeweils 3 Runs, den Wert mit den besten avg. FPS rausgenommen. Da die Min. FPS aber bei jedem Loop exakt gleich sind (warum das? :) ) ist das eher nebensächlich.
Wenn ich meine GTS G92 zu hoch takte, bremst sie sich immer wieder mal kurz. Ich hab sie seit gestern und mir ist das im 3DMark sofort aufgefallen.
Dürfte mit hoher Wahrscheinlichkeit auch dein Problem sein.

Blackpitty
2008-01-17, 20:37:40
also Min FPS sind oft CPU Abhängig, zumindest war das bei mir so, hat man sehr schön beim Wechsel von Athlon 64 auf meine jetzige CPU gemerkt.

@san.salvador

aber sicher verstehe ich das:ueye: brauch ich auch nix mehr zu sagen.

Eggcake
2008-01-17, 20:54:20
Wenn ich meine GTS G92 zu hoch takte, bremst sie sich immer wieder mal kurz. Ich hab sie seit gestern und mir ist das im 3DMark sofort aufgefallen.
Dürfte mit hoher Wahrscheinlichkeit auch dein Problem sein.

Mh das könnte möglich sein. Mir ist auch schon aufgefallen, dass in diversen Games oft Ruckler entstehen. Ich bemerks jetzt nicht unbedingt (wirklich nicht störend), doch ich hörs ganz klar am Lüfter der Karte. Der dreht bei mir auf ~95%, während dem Ruckler geht die Temp und damit die Drehzahl plötzlich nach unten und wieder hoch. Werd ich gleich mal ausführlicher testen =)

@Blackpitty

Das wäre natürlich auch möglich. Aber ich kann dem Benchmark sowieso nimmer ganz folgen. Hatte gestern viel konstantere Werte bei min. FPS als heute bei genau gleicher Taktung :/

DevilX
2008-01-17, 22:04:59
8800GTX

610/1429
980

Irgendwie geht nicht mehr ohne Fehler in crysis, nach nen paar Stunden treten sonst Fehler auf. Wundert mich irgendwie.

Blackpitty
2008-01-17, 22:12:40
8800GTX

610/1429
980

Irgendwie geht nicht mehr ohne Fehler in crysis, nach nen paar Stunden treten sonst Fehler auf. Wundert mich irgendwie.

von welcher Marke ist deine GTX?

DevilX
2008-01-17, 22:26:14
von xpert vision

Schrumpelratte
2008-01-18, 00:22:12
wo is meine ultra???:(
hier nochmal im neuen thread vollständigkeitshalber:rolleyes:
evga 8800ULTRA @wakü
GPU: 702
Shader: 1782
Memory: 1123
und zack in die liste bitte;)

Blackpitty
2008-01-18, 13:02:44
ok, alles mit drin, da ich bis Sonntag Mittag auf einer Lanparty bin, werde ich erst Sonntag aktualisieren!

Raff
2008-01-18, 13:15:59
Kannst mich gerne adden. Wie gesagt, MSI 8800 GTX rockstable @ 621/1620/1080 MHz. Das oft mögliche, aber nicht komplett stabile 648/1674/1080 ignorieren mal. Verwundert mich, dass angeblich fast alle GTXen diesen Takt felsenfest mitmachen ...

MfG,
Raff

Megamember
2008-01-18, 20:44:56
Naja, ich seh bei den GTX eigendlich nur 5 die 1620 Shader und 1080 oder mehr mem mitmachen, davon haben 3 wohl auch noch ne andere Kühlung.

Blackpitty
2008-01-20, 15:00:13
ok, bist auch mit drin.

Der Speicher ist aber eigentlich recht egal, der macht sich nicht bemerkbar beim zocken, und in Benches machen 100mhz mehr so wenig Punkte aus, dass sie in den Tollerranzen versinken.

Raff
2008-01-20, 15:09:38
Hehe, von wegen. :D Zock mal mit 16xQ oder 16/32xS, da kommt alles durch. Von 900 auf 1080 MHz sind immerhin hübsche 20 Prozent.

MfG,
Raff

DevilX
2008-01-21, 11:05:37
Könntet ihr mal eure Temperaturen Posten?
ich glaube meine Karte wird zu heiß..
meine Pumpe und die Sata kabel sind im weg damit sie vernünftig Frischluft bekommt.

Das würde auch erklären wieso ich erst höhere Taktraten schaffe dann aber nach ner Stunde oder so Bildfehler auftreten.

Blackpitty
2008-01-21, 16:07:52
also meine Karte hat ohne Last 35-36° und unter Last 47° bei 684/1053

James Ryan
2008-01-21, 19:37:38
Seit Monaten meine feste Einstellung:

Zotac Geforce 8800 GTS 640 MB
675/1620/1000 MHz

MfG :cool:

noack
2008-01-21, 21:54:13
hi

ich habe meine Leadtek 8800GTS 320mb (G80)
auf auf 600/900

kasir
2008-01-25, 16:01:27
XFX 8800GTX

621/1620/1026

Mehr will die Karte nicht.

sidewinder@
2008-01-25, 17:17:20
MSI 8800GTX

648/1566/1053

Gruß sidewinder@

RecSwat
2008-01-25, 17:30:06
Gainward 8800 GTS 640 @ 605 Chip, 1900 Mem.

Blackpitty
2008-01-25, 17:43:02
alle drin,

@RecSwat

ich gehe ja mal davon aus, dass du beim Speicher 950mhz real meinst.

und gebe mitte noch den Shader Takt an



@noack

bei dir das selbe, Shader Takt fehlt

Ionstorm
2008-02-02, 18:48:22
Sparkle 8800 GTS 512 800/2000/1111

[CMI]Shadow
2008-02-05, 21:57:49
569/1728/999
mit meiner 8800gts 640
G640P Asus EN8800GTS 640MB 2XDVI/TV
der core takt will ums verrecken nicht mehr
sobald ich bissl mehr geb bekomm ich nen freeze bei 3dmark
mit shader und ram takt bin ich eigentlich zufrieden

Blackpitty
2008-02-05, 22:37:52
ihr beide steht auch mit drin,

@[CMI]Shadow

wirklich recht mager der Core Takt, aber man steckt ja nicht drin

[CMI]Shadow
2008-02-05, 22:46:34
wirklich recht mager der Core Takt, aber man steckt ja nicht drin
jo vorallem dachte ich ich kauf mir ne asus weil da kann ich bissl oc potential vorraussetzen was ja auf shader und ram zutrifft aber die core...
vieleicht mach ich auch was falsch

DevilX
2008-02-05, 23:36:11
Bei mir kommt jetzt Bald nen Wasserkühler drauf..
kann ich mit nem anderen Bios die Corespannung erhöhen?
oder geht villeicht durch die bessere Kühlung alleine schon mehr?

majortom
2008-02-06, 09:44:36
Update:

MSI 8800GTS/640 OC nun endlich rockstable (COD4 ist empfindlich) auf 640/1450/1000. Temps mit ner x-fi Karte knapp darunter eingebaut (heiss!) mit Last=78 Grad C, Lüfter auf 75%. Temperatur in Idle *grad vergessen* bei Lüfter auf 35% mittels Rivatuner. Unter Idle runtergetaktet auf 200er Bereich.

Blackpitty
2008-02-06, 19:47:30
Bei mir kommt jetzt Bald nen Wasserkühler drauf..
kann ich mit nem anderen Bios die Corespannung erhöhen?
oder geht villeicht durch die bessere Kühlung alleine schon mehr?

ja, kannst durch ein anderes Bios die Spannung erhöhen.

Ob durch Wakü mher geht, weis ich nicht, habe meiner erst mit Wakü übertaktet, und bin mit dem Ergebniss mehr als zufreiden.

@Tom71

ist aktualisiert

[CMI]Shadow
2008-02-06, 21:12:50
ja, kannst durch ein anderes Bios die Spannung erhöhen.

würde ich so evtl mehr aus meiner core rausholen?

Blackpitty
2008-02-06, 21:59:45
Shadow;6258466']würde ich so evtl mehr aus meiner core rausholen?

kann man vorher nicht genau sagen, aber es wird sicherlich etwas mehr gehen.

Jedoch bezweifel ich, dass du damit an die von dir gewünschten Taktraten heran kommst, habe aber bis jetzt noch kein anderes Bios eingespielt, somit kann ich dir dazu nichts weiter sagen.

Gouvernator
2008-02-10, 20:44:19
Zotac 8800 GTX @Wakü+ 2xLüfter

Core 660Mhz
Shader 1620Mhz
Speicher 1040Mhz

Megamember
2008-02-10, 21:24:39
Core 660 kann aber schonmal garnicht sein, entweder 648 oder 675. Dazwischen gibts nix. Lass dir vom Rivatuner mal die Takte anzeigen.

Butters86
2008-02-10, 21:37:05
Meine 8800GT 1GB läuft auf 725,930 stabil in Ozone, Ati Tool, Crysis und allem anderen. Nur in TDU und Lego Star Wars 2 gibt's kurz rote Striche und dann freezt der Rechner. Kann das sein?

Raff
2008-02-10, 21:45:21
Core 660 kann aber schonmal garnicht sein, entweder 648 oder 675. Dazwischen gibts nix. Lass dir vom Rivatuner mal die Takte anzeigen.

660 MHz im RivaTuner ergeben nach wie vor reale 648 MHz. 675 werden's erst beim Setzen von 662 MHz – seine Karte ackert also mit 648 MHz stabil. :)

MfG,
Raff

Blackpitty
2008-02-10, 22:11:33
@Megamember habe mal 648 eingetragen, außer du hast ein anderes Bios aufgespielt, dann können die 660 stimmen.

@Butters86

bitte noch Kartenfirma und shader Daten dazu schreiben, dann nehm ich dich in die Liste auf

DevilX
2008-02-10, 22:23:11
wie kann man sich die reelen Taktraten anzeigen lassen?

Raff
2008-02-10, 22:26:10
So:

http://666kb.com/i/aw06sw26apukpowq2.jpg

MfG,
Raff

Blackpitty
2008-02-11, 17:02:48
hab da mal noch was für euch.

nur die Spalte zwischen den Roten Strichen ist wichtig, da sieht man, was man einstellen muss, um auf den jewailigen echten Takt zu kommen.

der härteste Schritt ist der von realen 648 zu 675, da es ein großer ist und eben weit oben, da versagen die meisten Karten(auf GTX bezogen)

http://blackpitty.piczej.de/foren/PC/8800%20Takt-Tabelle.jpg

clockwork
2008-02-16, 19:14:16
Sparkle 8800 GTS 640mb (A3,96sp) mit Standardkühler, WLP nicht getauscht.
Core 648Mhz
Shader 1522Mhz
Speicher 999Mhz

Zwei Stunden Last (Lüfter 100%) 80°, unter der Karte ist die Soundkarte.

//
Getestet mit ATI Tray Tool, 3DMark06, CoD4 und BioShock, falls das aussagekräftig ist.

Raff
2008-02-17, 12:53:31
der härteste Schritt ist der von realen 648 zu 675, da es ein großer ist und eben weit oben, da versagen die meisten Karten(auf GTX bezogen)

Von 648 zu 675 ist's nicht höher als von 621 zu 648. ;) Es sind da oben immer 27 MHz (bei ungemoddeten Karten; der nächste ist 702 MHz). Ein ganz beschissenes Intervall. Viele Karten, die 648 MHz nicht schaffen, würden sicher noch mit 630 MHz laufen. Oder mit 660 MHz ...

Welche Karten erlauben andere Zwischenstufen?

MfG,
Raff

Nvidia5
2008-02-17, 18:03:27
Ich komm dann bald auch mit meinen Ergebnissen. Zurzeit ist meine Wakü Pumpe kaputt und deshalb kann ich die "neue" Zern G80 Wakü(PQ+ mit Halterung) noch nicht testen. Bilder und ein Bericht werden dann bald folgen.

Blackpitty
2008-02-17, 19:50:36
Von 648 zu 675 ist's nicht höher als von 621 zu 648. ;) Es sind da oben immer 27 MHz (bei ungemoddeten Karten; der nächste ist 702 MHz). Ein ganz beschissenes Intervall. Viele Karten, die 648 MHz nicht schaffen, würden sicher noch mit 630 MHz laufen. Oder mit 660 MHz ...

Welche Karten erlauben andere Zwischenstufen?

MfG,
Raff

ich meinte damit, dass das einer der größten Schritte ist, den die meisten Karten nicht schaffen, da sie nur so auf 660 herum kommen würden.

Klar dass die Schrittgröße sich wiederholt, aber da oben isses schmerzhafter als unten

Schlammsau
2008-03-04, 19:37:16
Meine stabilen Werte mit einer XFX 8800GS XXX 384MB Alpha Dog Edition

735/1838/970Mhz

PORT
2008-03-05, 11:50:50
so mal meine werte mit PNY GF 88GT @Zalman VF 1000
Core 725/Shader 1850/Memory 900


echt komisch das bei den modellem von PNY das OC vom Ram echt für den arsch ist . es reichen schon 50 mhz und die karte kackt rum

4711
2008-03-05, 13:04:36
Ram OC ist völlig wurscht,bringt nix.

PORT
2008-03-05, 17:21:15
ja ich weiss in erster linie ist der shader takt ausschlaggebend trotzdem verwundert und ärgert es mich zu gleich das da nichts geht:uponder:

blutrausch
2008-03-05, 20:56:03
ich bin auch dabei g92 8800gts
gpu 750
ram 980
shader 1890

Schlammsau
2008-03-06, 10:19:49
Kann man eigentlich den Shadertakt seperat erhöhen oder ist der immer noch fest mit dem GPU Takt verbunden?

AnarchX
2008-03-06, 10:24:53
Kann man eigentlich den Shadertakt seperat erhöhen oder ist der immer noch fest mit dem GPU Takt verbunden?

Natürlich, das geht schon länger. Rivatuner sollte dir drei Schieberegler anbieten.

Schlammsau
2008-03-06, 10:37:32
Natürlich, das geht schon länger. Rivatuner sollte dir drei Schieberegler anbieten.

Wenn mich nicht alles täuscht, zeigt mir Rivatuner 2.07 nur 2 Schieberegler an. Core- und Speichertakt! Muss ich mir aber nochmal genauer ansehen!
Dachte eigentlich auch, dass es beim G92 Kern bzw. mit den neuen Treibern, funktionieren sollte.

theburnout
2008-03-09, 14:09:55
Hi Leute,

Zotac 8800GT AMP Audio Edition

GPU/RAM
Stock: 700/1700/1000(x2)

Hab heute mal nen billigen Thermaltake GPU WaKühler draufgebaut und ein wenig übertaktet. Aber die Ergebnisse sind ein Witz, bringt praktisch 0 von 700 auf 770 (=10%). Ist das bei euch genauso? Bisher keine VoltMods oder ähnliches.

Shader hatte ich immer linked mit GPU übertaktet mit Rivatuner. War mir zu aufwendig. Bei 770/1890/1050 hatte ich keine Lust mehr. Siehe unten:

Nur 3Dmark06 soweit:
1. 700/1700/1000: 12050
2. 710/1700/1050: 12236
3. 750/1836/1000: 12135
4. 770/1890/1050: 12368

Speicher +50 Mhz (=+5%) bringt etwa 200 Punkte (+1,7%)
GPU + 70 MHz (=+10%) bringt aufgerundet 100 Punkte (=+0,83%)

WOW!!

Bei einem Spiel das 100 FPS bringt, hätte ich 2 FPS mehr. Merkt man bestimmt.
Bei Crysis mit rund 30 wärens dann 0,6 Frames mehr.

Bei einem Voltmod, was bringt der Aufwand? Ich mein, ich müsste wohl GPU auf 850 oder 900 bringen und Ram auf 1200 damit ich was bemerke...

CPU ist ein Dualcore mit 3,08 GHz.
Skaliert die Grafikkarte mit einer Quadcore besser?

Mit meiner vorherigen 7900 hat sich das mehr gelohnt, gab etwa 500-600 Punkte mehr, bei rund 8000 insgesamt. Das waren immerhin 7,5%..

Propagandapanda
2008-03-09, 14:15:36
Dualcore mit ~3Ghz sagt nichts, welchen genau?
Ich würde ein absolutes CPU-Limit vermuten.

Schlammsau
2008-03-09, 17:04:56
@theburnout
bewerte die 3DMarks nicht über! Die CPU Leistung fliest ziemlich stark ins Ergebniss mit ein! Und da du die CPU ja nicht mit übertaktet hast...... ;)
Der SM2 und SM3 Wert ist beim Grafikkarten OC wichtiger! Vergleich also diese Werte miteinander!

Da Fre@k
2008-03-09, 19:48:00
Dann will ich auch mal :tongue:

Zotac 8800GTS 640MB

GPU: 685MHz
Shader: 1620MHz
RAM: 1000MHz

Panasonic
2008-03-09, 20:08:27
8800 GT 512 (Jetway)

User Core Shader Vram Typ

Panasonic 700 1750 1105 8800 GT 512 (Jetway)

F5.Nuh
2008-03-09, 20:31:32
Von 648 zu 675 ist's nicht höher als von 621 zu 648. ;) Es sind da oben immer 27 MHz (bei ungemoddeten Karten; der nächste ist 702 MHz). Ein ganz beschissenes Intervall. Viele Karten, die 648 MHz nicht schaffen, würden sicher noch mit 630 MHz laufen. Oder mit 660 MHz ...

Welche Karten erlauben andere Zwischenstufen?

MfG,
Raff

Hmm also hat meine GTX garnicht einen Takt von 600 Mhz Core? ;D wenn ja "DOH"

Wusste garnicht das es so läuft bei den GTX Karten. Ist aber nicht normal so oder :|

Blackpitty
2008-03-09, 20:38:51
Hmm also hat meine GTX garnicht einen Takt von 600 Mhz Core? ;D wenn ja "DOH"

Wusste garnicht das es so läuft bei den GTX Karten. Ist aber nicht normal so oder :|

nein, auf 600 kann sie nicht laufen.

schau in die Tabelle, die ich gepostet hatte.

Füge die anderen gleich in die Liste ein.

DevilX
2008-03-09, 20:43:01
So ich habe nochmal ein wenig getestet.
8800 GTX Xpert Vision
Core - 648
Shader - 1566
Memory - 999
Per modifiziertem Bios fest Eingestellt.

n4p0
2008-03-09, 22:17:04
So, dann geb ich auch mal meine Werte an,
habe eine Point of View 8800GTX:

GPU: 675MHz
Shader: 1690
Memory: 1110

F5.Nuh
2008-03-09, 22:21:07
nein, auf 600 kann sie nicht laufen.

schau in die Tabelle, die ich gepostet hatte.

Füge die anderen gleich in die Liste ein.

Hmm dann muss ich das nochmal iergendwann antesten. :rolleyes:

Raff
2008-03-09, 22:31:35
Mit einem gescheiten Kühler habe ich gerade 675 MHz GPU-Takt laufen. Ich kann allerdings nicht beschwören, dass das rockstable ist, die gängigen Benchmarks liefen aber alle stets durch. Bei 684 und 702 MHz ist sie schnell verreckt.

Daher: Trag' mal bitte 648/1621/1080 MHz bei meiner GTX ein. :)

Der Accelero Xtreme ist übrigens ein Topkühler. Die Karte ist eiskalt: 40 Grad Idle und 60 Grad Load (mit angepasster Lüftersteuerung).

MfG,
Raff

F5.Nuh
2008-03-09, 22:53:39
Mit einem gescheiten Kühler habe ich gerade 675 MHz GPU-Takt laufen. Ich kann allerdings nicht beschwören, dass das rockstable ist, die gängigen Benchmarks liefen aber alle stets durch. Bei 684 und 702 MHz ist sie schnell verreckt.

Daher: Trag' mal bitte 648/1621/1080 MHz bei meiner GTX ein. :)

Der Accelero Xtreme ist übrigens ein Topkühler. Die Karte ist eiskalt: 40 Grad Idle und 60 Grad Load (mit angepasster Lüftersteuerung).

MfG,
Raff

Ach der ist endlich verfügbar. Werde dann wohl zu 80% einen Kühlerwechsel durchführen. Bin mit dem Zerotherm nicht so zufireden. Wie hoch ist er den Raff inkl. Lüfter?

DevilX
2008-03-09, 22:54:12
@ Raff ich muß sagen ATI Tool hat sich meiner Meinung nach wirklich bewährt.
Bei Crysis hatte ich bei zu hohem Takt erst nach mehreren Stunden leichte Bildfehler (also leicht zu hohem Takt), wohingegen sie bei beim ATI Tool zuverlässig nach nen Paar Minuten auftauchten.

Raff
2008-03-09, 23:00:32
Wie hoch ist er den Raff inkl. Lüfter?

Kann ich dir leider gerade nicht genau sagen. Hoch. ;) Der zweite PEG-Slot ist aber noch nutzbar (der PCI dazwischen natürlich nicht).

@ Raff ich muß sagen ATI Tool hat sich meiner Meinung nach wirklich bewährt.
Bei Crysis hatte ich bei zu hohem Takt erst nach mehreren Stunden leichte Bildfehler (also leicht zu hohem Takt), wohingegen sie bei beim ATI Tool zuverlässig nach nen Paar Minuten auftauchten.

Nach mehreren Stunden? Dann ist es ein Hitzeproblem.

Ich traue trotzdem keinem (Ati) Tool. ;) Aus Prinzip. Mir ist es Wurstsalat, wenn irgendwelche Synthies schon bei 612 MHz Artefakte melden, aber ausnahmslos alle Spiele mit 675 fehlerfrei und stabil arbeiten. Jedem Spiel seinen Takt. :)

MfG,
Raff

DevilX
2008-03-10, 09:23:32
^^
Klar, aber wie gesagt seit ich die Taktraten fahre die im ATI Tool fehlerfrei liefen, hab ich keine Fehler mehr in Spielen gehabt (im Gegensatz zu Vorher (war im übrigen eine Takt stufe höher)) an nen Temperaturproblem glaube ich nicht, der Wasserkühler schafft dann doch ganz gut weg.

Waren übrigens Fehler die sehr schwer zu fassen waren, weil sie immer nur sehr kurzzeitig bemerkbar waren.

Schlammsau
2008-03-10, 10:05:49
Funktioniert eigentlich die BIOS seitige VCore Erhöhung beim G92 (GS, GT und GTS)? Hab ja mit NiBiTor 3.8 die Möglichkeit die Spannung zu erhöhen.

Gast
2008-03-10, 12:57:06
Wie macht sich eigentlich ein zu hoher Speicher-Takt bemerkbar? Habe eine 8800GT mit 3 Fasen Stromversorgung und den Speicher zur Zeit bei 960 MHz. Der Speicher ist doch beim übertakten am empfindlichsten, oder?

Raff
2008-03-10, 13:17:00
Wie macht sich eigentlich ein zu hoher Speicher-Takt bemerkbar? Habe eine 8800GT mit 3 Fasen Stromversorgung und den Speicher zur Zeit bei 960 MHz. Der Speicher ist doch beim übertakten am empfindlichsten, oder?

Alle GTXen, die ich bisher testete, froren bei zu viel Speichertakt ein. Und das, ohne vorher Grafikfehler zu zeigen. Das ist ein Verhalten, das ich so noch nicht kannte. Alle anderen Grafikkarten vorher gaben vor dem Aufhängen noch fiese Grafikfehler (wie Polygonartefakte quer durchs Bild) zum Besten.

MfG,
Raff

Gast
2008-03-10, 14:36:38
Alle GTXen, die ich bisher testete, froren bei zu viel Speichertakt ein. Und das, ohne vorher Grafikfehler zu zeigen. Das ist ein Verhalten, das ich so noch nicht kannte. Alle anderen Grafikkarten vorher gaben vor dem Aufhängen noch fiese Grafikfehler (wie Polygonartefakte quer durchs Bild) zum Besten.

MfG,
Raff

Danke! Hälst du eine 3 Stündige Crysis-Session, bei dem Speichertakt, hohen Details, und hoher Auflösung für ausreichend?

Noch ne andere Frage: Wie ist denn das "übliche" Verhalten bei zu hohem Shadertakt?

Gouvernator
2008-03-10, 15:00:14
Bei Shadertakt gibts noch diese Polygonfehler.

Schlammsau
2008-03-11, 06:54:36
Funktioniert eigentlich die BIOS seitige VCore Erhöhung beim G92 (GS, GT und GTS)? Hab ja mit NiBiTor 3.8 die Möglichkeit die Spannung zu erhöhen.
ich zitiere mich mal selber....
Die Spannungserhöhung über BIOS funktioniert nicht so richtig! Egal welche Spannung ich einstelle, ich kann den Chip um kein einziges Mhz höher takten, als mit Standardspannung!
Das kuriose aber ist, der Verbrauch steigt sehr wohl.....Hab mit 1,2V (Standard ist 1,1V) unter Last 20 Watt Mehrverbrauch. :confused: Knapp 10 Grad wärmer, wird der Chip auch....unter Last von ca. 60° auf 70°C!
Was ist da los? :|
Karte ist eine XFX 8800GS 640M XXX

Deathcrush
2008-03-11, 08:36:59
Nun will ich auch mal


8800GTS @S1 Accelero / 120er Lüfter

800/2000/1000 unter Last gemütliche ~56C

Mit dem hauseigenen NV Lüfter kam ich nie über 750MHZ bei 75C. Die GTS ist verdammt Temperaturanfällig beim OC.

Gast
2008-03-12, 20:33:37
wie hoch hattest du den lüfter gestellt?

majortom
2008-03-20, 22:59:33
Update. Neue Karte:

Leadtek 8800GT/512@1,1V Bios-Mod.

Max 709/1782/957 mit Forceware 169.61
Crysis, ATI-Tool und 3DMöppel06 stabil. Abgelesen mittels RT HW-Monitoring, nicht von den "Reglern" abgeschaut! wie manche.
Unter max. Last ca. 74 Grad mit Stock Kühler.

pest
2008-03-21, 01:02:46
Abgelesen mittels RT HW-Monitoring

da steht bei mir 709.71 :D

majortom
2008-03-21, 10:05:08
Update. Neue Karte:
Leadtek 8800GT/512@1,1V Bios-Mod.
Max 709/1782/957 mit Forceware 169.61
Crysis, ATI-Tool und 3DMöppel06 stabil. Abgelesen mittels RT HW-Monitoring, nicht von den "Reglern" abgeschaut! wie manche.
Unter max. Last ca. 74 Grad mit Stock Kühler.

720/1836 geht auch, aber nur wenn Lüfter auf 100% :cop:

Blackpitty
2008-03-21, 12:17:15
alles aktualisiert

Thunder99
2008-03-21, 15:41:38
*hust* machst du auch ne Spalte für 9600GT´ler und 9800GX2´ler ? :)

specialDD
2008-03-21, 16:11:45
745GPU 1862Shader 1040RAM bei 8800GT 512MB mit Voltmod hardwareseitig auf etwa 1,2V

Peterxy
2008-03-22, 12:54:41
Asus EN-8800GS:
731Core (ende)
1800 Shader - 1050 RAM
Shader und RAM habe ich nicht versucht, ob sie noch höher gehen - da ich mir erst richtige RAMkühler besorgen will, die auf der Karte so nicht wirklich drauf sind. Das Übertaktungspotential bei der Karte ist stark abhängig von der Lüfterdrehzahl. Der Lüfter ist bei voller Drehzahl nicht sehr laut und kühlt dennoch die GPU gut.
(bleibt bei Vollast um die 60-63Grad)
Ein Sensor zum auslesen der RAM/Umgebungstemp ist leider nicht vorhanden.

majortom
2008-03-22, 16:06:59
Habe auch bei meiner 8800GT festgestellt, dass, obwohl nicht extrem heiss unter Last, die Overclocking Möglichkeiten sehr stark an der Temperatur bzw. Lüftergeschwindigkeit hängen. Komme bei 80%-90% Lüfterdrehzahl (turbinenmässig) einen GPU- und Shader-Sprung höher.

PORT
2008-03-25, 20:13:42
korriegier mal bitte bei mir gpu 700 vram 900 und shader takt 1712. ist nicht mehr stabil gelaufen mit den settings

Blackpitty
2008-03-28, 14:28:28
alles eingefügt

Megamember
2008-03-28, 14:30:24
Wer seine Übertaktung auf Stabilität testet sollte unbedingt den Codecult-Benchmark laufen lassen. Den habe ich bis jetzt nicht einmal zum kompletten Durchlauf mit 675MHZ Chiptakt gebracht. Sonst läuft absolut alles, manches sogar mit 702 und sogar Crysis mit DX10 hab ich komplett mit dem Takt durchgespielt.

DevilX
2008-03-28, 14:50:31
hmm wo bekomme ich den Codecult-Benchmark her?
scheint es auf der Seite nicht mehr zu geben.

majortom
2008-03-28, 14:53:52
Werd ich mir auch mal anschauen.

Und noch ein Hinweis zu den Taktraten: ich möchte nicht wissen, wieviele User die Ergebnisse rein von den Angaben der Schieberegler (zum. bei RT) hier posten , ohne auf die echten Taktungen des Riva Monitors zu achten.

Ist eigentlich dieser Benchmark mit diesem riesigen "Fellschwamm" auch aussagekräftig bzgl. der Stabilität?

Sorry für ein wenig OT.

Megamember
2008-03-28, 15:01:41
hmm wo bekomme ich den Codecult-Benchmark her?
scheint es auf der Seite nicht mehr zu geben.

http://www.hwupgrade.it/download/file/1607.html

PORT
2008-03-28, 15:18:55
Wer seine Übertaktung auf Stabilität testet sollte unbedingt den Codecult-Benchmark laufen lassen. Den habe ich bis jetzt nicht einmal zum kompletten Durchlauf mit 675MHZ Chiptakt gebracht. Sonst läuft absolut alles, manches sogar mit 702 und sogar Crysis mit DX10 hab ich komplett mit dem Takt durchgespielt.


ist mir auch auf gefallen bei crysis kann man wesentlich höher tackten ohne das der rechner zicken macht, und das gerade bei dem doch shader lastigen titel, bei anno in den gleichen settings spinnt da schon nach 5 min rum:confused:

Cpl. Dwayne Hicks
2008-03-29, 10:00:23
Wer seine Übertaktung auf Stabilität testet sollte unbedingt den Codecult-Benchmark laufen lassen. Den habe ich bis jetzt nicht einmal zum kompletten Durchlauf mit 675MHZ Chiptakt gebracht. Sonst läuft absolut alles, manches sogar mit 702 und sogar Crysis mit DX10 hab ich komplett mit dem Takt durchgespielt.


Dann sollten wir ab jetzt alle den CodeCult bench als Stabilitätstest heranziehen.... :smile:

Buzzler
2008-03-30, 17:48:17
Ich wollte jetzt auch mal schauen, was meine ECS 8800GT hergibt, im Augenblick bin ich bei 702 MHz CoreClock und irgendwie zeigt mir der Hardware Monitor vom RivaTuner jetzt immer noch 1728 MHz ShaderClock an, die ich vorher auch schon bei eingestellten 685MHz CoreClock hatte. Im OverclockingTab werden 1745 MHz ShaderClock angezeigt. Was stimmt denn jetzt?

Offtopic (also noch etwas mehr): Kann ich den Hardware Monitor dazu bringen, mehr als 20 Minuten anzuzeigen?

pest
2008-03-30, 17:59:00
Im OverclockingTab werden 1745 MHz ShaderClock angezeigt. Was stimmt denn jetzt?


das was der Monitor anzeigt, schätze ich, obwohl ich etwas Seltsames festgestellt habe, bei 720/1745 schmiert mir die Kiste ab, bei 720/1728 nicht, obwohl real jedesmal das gleiche anliegen sollte :confused:


Offtopic (also noch etwas mehr): Kann ich den Hardware Monitor dazu bringen, mehr als 20 Minuten anzuzeigen?

auf Setup und den "Data polling interval" vergrößern

Megamember
2008-03-30, 18:18:07
Die Karten können nicht megaherzweise hochgetaktet werden sondern nur in bestimmten Sprüngen, sollte doch mittlerweile bekannt sein:rolleyes:. (siehe Liste Seite 4)
Was der Monitor anzeigt stimmt.

Buzzler
2008-03-30, 18:46:51
Die Karten können nicht megaherzweise hochgetaktet werden sondern nur in bestimmten Sprüngen, sollte doch mittlerweile bekannt sein:rolleyes:. (siehe Liste Seite 4)
Grundsätzlich klar ist es ja eigentlich. ;) Mir war nur nicht klar, dass da beim G92 genau die gleichen Regeln gelten wie beim G80.

Edit: Bin jetzt bei der ECS 8800GT bei 712/1728/950 stehen geblieben bzw. musste darauf zurück gehen, ich war eigentlich schon bei ~740/1728/~980, die auch über eine Stunde beim Artifacts-Scanner vom ATI-Tool ohne Artefakte liefen (danach abgebrochen), aber als dann bei ~990MHz MemClock nach ein paar Minuten Artefakte auftraten, musste ich plötzlich auch mit den anderen Werten wieder deutlich runter (mit so Kasperschritten <10MHz hab ich mich allerdings nicht abgegeben) - schon eigenartig eigentlich... Gegenüber den 650/1620/950, die die Karte schon werksseitig mitbringt, also nicht so der Bringer.

Metalmaniac
2008-03-30, 23:08:59
Obwohl ich in vergangenen Zeiten nie ein Freund des OC war, habe ich meine 8800GTS (G92) auch einfach mal übertaktet. Da ich zudem zu faul bin alles immer in 10Mhz-Schritten ellenlang zu testen, machte ich es so wie auch bei meiner CPU und nahm mir einfach bestimmte Werte vor die ich sofort so einstellte, und bei Stabilität im Alltagsbetrieb auch beibehalten habe. Da ich zudem wenig Lust darauf habe, diese Werte jedesmal aufs neue einzustellen oder aber das Grafikkarten-BIOS zu ändern, habe ich es über die Profil-Erstellung des RivaTuners erledigt. So läuft die Karte im Idle-Betrieb leicht untertaktet, sobald eine 3D Anwendung gestartet wird geht sie hoch. Normal läuft die Karte ja mit 650/1625/972 Mhz (Core/Shader/Speicher) im Auslieferungszustand, bei mir Profilgesteuert nun Idle bei 500/1247/800, sobald ich ein Spiel starte geht die Karte auf 750/1880/1000 hoch. Und dies seit geraumer Zeit sowohl unter XP32 als auch unter Vista64 problem- und fehlerlos bei allen Spielen. Vielleicht ginge sie noch höher, aber dies reicht mir weil ich mir wie erwähnt einen Richtwert vorher setze den ich mir aus den Reviews und User-Erfahrungen für diese Hardware aus dem Netz zusammenreime. Die Probleme die ich bei TDU ausschließlich unter XP habe führe ich nicht auf die Übertaktung zurück da ich sie zum einen auch ohne diese hatte anfänglich, zum anderen unter Vista rein überhaupt nicht mit dem selben Spiel auf dem selben Stand. Es scheint sich damit ausschließlich um ein Problem des Spieles zu handeln, welches andere übrigens auch zu haben scheinen (unabhängig davon ob ich alle Nase lang die radial-Datei lösche, für die Eingeweihten).

P.S.: Bei meiner CPU bin ich wie erwähnt ähnlich vorgegangen. Diese läuft per default ja auf 4x2400Mhz, ich hatte mir von Anfang an vorgenommen sie auf 4x3000Mhz zu bringen, was problemlos klappte bei übrigens gleichzeitigem leichten undervolten. Wobei ich dies zumindest mit 2Std. Prime auch getestet habe zur eigenen Gewissensberuhigung. Vielleicht habe ich nur Glück in beiden Fällen gehabt, aber so ist nunmal meine Vorgehensweise. Ich bin jedenfalls nicht auf Rekorde aus, aber wenn es so klappt, dann habe ich ja (für meine bescheidenen Ansprüche) alles richtig gemacht. Die temps habe ich übrigens immer im Auge, wobei ich die Lüfterdrehzahl für die Grafikkarte auch per RT etwas erhöht habe um auf der sicheren Seite zu sein.:smile:

Raff
2008-04-01, 01:40:00
Wer seine Übertaktung auf Stabilität testet sollte unbedingt den Codecult-Benchmark laufen lassen. Den habe ich bis jetzt nicht einmal zum kompletten Durchlauf mit 675MHZ Chiptakt gebracht. Sonst läuft absolut alles, manches sogar mit 702 und sogar Crysis mit DX10 hab ich komplett mit dem Takt durchgespielt.

Bei mir lief er eben in 1680x1050 problemlos durch (mit 675/1620/1080 MHz). Dabei wurde die GPU nur 55 Grad Celsius warm. Volle Rotze, mit 32xS und 16x HQ-AF, waren's zehn Grad mehr, aber immer noch stabil.

32xS eignet sich vorzüglich für Stabilitätests. Der Modus ist total sick; fordert alles extrem. Die ROPs müssen für 8x MSAA einmal loopen (4x geht in einem Rutsch), 4x OGSSAA stresst vor allem die GPU ... macht einen Killermix, der alles bis ans Limit auslastet.

MfG,
Raff

Megamember
2008-04-01, 11:55:51
Beim Codecult komme ich bei 648/1675 nach 2 Durchläufen mit 4x4 SSAA schon auf 80 Grad. Das ist wohl sein bischen viel.
Edit: Beim Crysis-bench bei max-Quality nur auf ca 64 :eek:. Heisst das Crysis lastet den Core nich richtig aus oder wie:confused:

Edit: Okay mit 16Q wie beim Crysis-bench nur auf 70, aber immerhin.

Raff
2008-04-01, 13:00:34
Heisst das Crysis lastet den Core nich richtig aus oder wie:confused:

Hm, anders. Offenbar nicht gleichmäßig. Crysis ist sehr shaderlastig, die ALUs ackern demnach auf Hochtouren. Ich vermute, dass dafür die TMUs eher Däumchen drehen, auch mit 16x HQ-AF – und die nehmen einen Großteil des Dies für sich in Anspruch. ROPs und VRAM lassen sich mit MSAA auslasten ... die TMUs allein kriegt man nicht weiter klein. Beim Kotkult-Bench liegt die Last vermutlich eher auf Vertex-Durchsatz (das machen hier auch die ALUs) und Füllrate (TMUs). Alles ohne Gewehr. ;)

MfG,
Raff

The_Invisible
2008-04-01, 13:42:08
kann sein das hellgate london dx10 max extrem allergisch auf erhöhte taktraten reagiert?

wenn ich da mit ansonsten stabilen 684/1712/1150 spiele stürzt das game nach so 2minuten ab und reißt auch das os mit. mit 648/1670/1100 kann ich dagegen mehrere stunden ohne probleme spielen.

habe jetzt zumindest ein neues testspiel gefunden :D

mfg

9800ProZwerg
2008-04-06, 23:24:20
Natürlich, das geht schon länger. Rivatuner sollte dir drei Schieberegler anbieten.


Geht das nun definitiv, oder nicht?
Kann ich also GPU Takt und Shadertakt voneinander unabhängig einstellen?


Mfg

-=Popeye=-
2008-04-07, 01:51:46
Geht definitiv und ja du kannst GPU- und Shadertakt unabhängig voneinander einstellen.

Wolfram
2008-04-07, 05:18:37
8800 GT

Wolfram 702 1782 1102 ECS 8800GT 512MB

Getestet mit Codecreatures und Crysis.

Joker (AC)
2008-04-07, 18:49:25
Zotac 8800GTX@WaKü (1800EVO, 5X120er@5Volt)
685 GPU 1675 Shader 1050 Ramm

Hab im Treiber AA/AF mit eingeschaltet^^
http://www.abload.de/thumb/ccbtestmzx.jpg (http://www.abload.de/image.php?img=ccbtestmzx.jpg)

Test mit SSAA 1280X1024....und die Temperatur bleibt^^
http://www.abload.de/thumb/4x4aasstesttempsi9w.jpg (http://www.abload.de/image.php?img=4x4aasstesttempsi9w.jpg)

9800ProZwerg
2008-04-09, 18:29:37
Meine XFX 800GTX läuft momentan auf 612/1512/1000.
648MHZ GPU will sie nicht mitmachen!
Kommen ständig freezes in 3dmark06.

EDIT:
1000MHZ Ram will er nicht!
Ich lasse jetzt 621/1512/950 laufen!
Lüppt ohne Probs!

specialDD
2008-04-12, 01:33:00
Sparkle 8800GT 512, vGPU @ 1,25V idle (1,21V load), vMem @ 2V

GPU: 760Mhz - Shader: 1900Mhz - RAM: 1070Mhz

getestet mit ATI Tool, 3dMark06 sowie crysis

Kühlung: Accelero S1 Rev2 (Slipstream 800) + Kühlkörper auf der Rückseite auf den Mosfets

Vll gehe ich mit der vGPU noch auf 1,3V und Mem auf 2,15V- Muss aber erst schauen ob das mit der Wärmeabführung funktioniert.

Raff
2008-04-12, 15:09:46
Meine XFX 800GTX läuft momentan auf 612/1512/1000.
648MHZ GPU will sie nicht mitmachen!
Kommen ständig freezes in 3dmark06.

EDIT:
1000MHZ Ram will er nicht!
Ich lasse jetzt 621/1512/950 laufen!
Lüppt ohne Probs!

Die ALUs machen garantiert mehr als 1.600 MHz mit, check das mal. :)

MfG,
Raff

pest
2008-04-12, 21:01:43
Sparkle 8800GT 512, vGPU @ 1,25V idle (1,21V load), vMem @ 2V

GPU: 760Mhz - Shader: 1900Mhz - RAM: 1070Mhz

getestet mit ATI Tool, 3dMark06 sowie crysis

Kühlung: Accelero S1 Rev2 (Slipstream 800) + Kühlkörper auf der Rückseite auf den Mosfets

Vll gehe ich mit der vGPU noch auf 1,3V und Mem auf 2,15V- Muss aber erst schauen ob das mit der Wärmeabführung funktioniert.

Hast du Qimonda-Ram auf der Karte? Die mögen eher weniger als Std-Spannung, also zwischen 1.8V und 1.9V

specialDD
2008-04-12, 21:18:50
Hast du Qimonda-Ram auf der Karte? Die mögen eher weniger als Std-Spannung, also zwischen 1.8V und 1.9V
Nein die Karte hat RAM von Hynix drauf.


Bin jetzt mittlerweile bei folgenden Werten:
GPU: 785Mhz - Shader: 1962Mhz - RAM: 1110Mhz

Benötigte Spannungen dafür:
GPU 1,325V idle / 1,28V load - RAM 2,05V idle / 2,07v load

Temperaturen:
GPU: 61°C max - Rückseite wird aber verdammt warm (Mosfets kaum mehr anfassbar)

3DMark06:
13200 Punkte unter Vista 32bit, 174.74 und C2D@3,2Ghz, P35 Board

Wiederum kann ich damit 3DMark06, Crysis und ATI Tool ohne Probleme laufen lassen.
Muss allerdings sagen, dass ich die Karte wohl nicht dauerhaft damit betreiben werde, weil mir gerade auch die Temperatur der Rückseite sorgen machen. Habe zwar schon die Bauteile mit zusätzlichen passiven Kühlkörpern versehen, aber die werden trotzdem sehr heiß, kann man nicht mehr anfassen.
Auch der Verbrauch ist enorm gestiegen, hatte sich die Karte vorher so mit 100W begnüngt braucht sie jetzt mind 150W oder mehr.

Aber Spaß machts allemal;)

pest
2008-04-12, 21:34:54
Aber Spaß machts allemal;)

Ja der VMod kommt bei mir auch noch, wenn ich wieder mehr Zeit habe :)

specialDD
2008-04-14, 12:39:27
Ja der VMod kommt bei mir auch noch, wenn ich wieder mehr Zeit habe :)
Kannst ja dann berichten, wieviel Volt du der GPU gibst ;)

MariX
2008-04-14, 22:14:19
könnte mir jemand netterweise mal bezüglich "modbios" behilflich sein?

ich überlege das Modbios mit dem Vmod draufzuspielen, nur die datei von PCGHextreme hat nen andren Hersteller, weiß net ob sich da was beisst, wie kann ich das denn bei meinem Bios einstellen mit der Spannung? also im NiBitor ..oder muss ich das andre nehemen?

danke

DevilX
2008-04-14, 22:23:44
hmm seit wann geht bei nvidia V-Mod mittels Bios?
Link?

MariX
2008-04-14, 22:30:17
hmm seit wann geht bei nvidia V-Mod mittels Bios?
Link?


http://extreme.pcgameshardware.de/showthread.php?t=5170

da

DevilX
2008-04-14, 23:02:23
bearbeite dein bios am besten selber mit nibitor

specialDD
2008-04-14, 23:04:41
könnte mir jemand netterweise mal bezüglich "modbios" behilflich sein?

ich überlege das Modbios mit dem Vmod draufzuspielen, nur die datei von PCGHextreme hat nen andren Hersteller, weiß net ob sich da was beisst, wie kann ich das denn bei meinem Bios einstellen mit der Spannung? also im NiBitor ..oder muss ich das andre nehemen?

danke

Also nimm am besten Nibitor und lies dein jetziges Bios der Grafikkarte damit ein ("Tools"->"Read BIOS")
Dann stellst du im "Voltage Table Editor" unter "Entry 4" den Wert auf "1,1V".
Dann gehst du auf "Voltages" und wählst bei "Extra" die oben eingestellen "1,1V" aus.
Dann speicherst du das BIOS (am besten vom alten BIOS ein Backup vorher machen) und spielst es per nvflash mit einer DOS-Startdiskette auf die Grafikkarte ein.

Mehr als 1,1Vkannst du zwar im BIOS einstellen, die Karte wird diese aber nicht anlegen (Manche Karten könnten anscheinend bis 1,17V annehmen). Mit 1,1V vGPU solltest du so auf ca 700Mhz GPU Takt (gibt auch Karten die damit sogar 800Mhz schaffen) kommen.

MariX
2008-04-15, 13:50:59
hey, also wie ic hes flashe usw. weiß ich von der alten GTS und GTX..

Aber es gibt halt dieses fertige Modbios von pcghx nur denke ich, daass es ja dann von nem andren Hersteller ist :p also beim Table Voltage Menü stehen schon 1.1 V :P standart

ja Takt bekomme ich so bis 740 Mhz hin.Bei 3d Mark und spielen kackt sie da ned ab :P

und Temp bleibt bei Crysis meist so bei max 65°C

gbm31
2008-04-17, 08:32:11
8800 gts (g92)

gbm31 756 1890 999 colorful 8800gts 512mb

hab ich einfach mal im rt eingestellt nachdem ich einige oc-listen angeschaut hab.

getestet bis jetzt mit fur-bench, cmr dirt und gothic3 unter vista x64.

grade cmr dirt mit allem auf max hat meine 3850 512 immer schneller als zu hoch oc entlarvt als alles andere.

den codecreatures teste ich dann auch mal...

Wolfram
2008-04-17, 09:17:49
grade cmr dirt mit allem auf max hat meine 3850 512 immer schneller als zu hoch oc entlarvt als alles andere.

Wodurch denn? Durch Abstürze/Bildfehler oder schlechtere Benchmark-Ergebnisse?

gbm31
2008-04-17, 09:53:13
Wodurch denn? Durch Abstürze/Bildfehler oder schlechtere Benchmark-Ergebnisse?


absturz des spiels - frame-freeze, wird dann brav von vista abgefangen, indem es den treiber zurücksetzt.
fur-bench und atitool liefen mit den settings problemlos...


mit den nvidias hab ich noch nicht sooo viel erfahrung, evtl lass ich atitool mal nach artefakten suchen usw.

meine letzte richtig zum zocken und ocen genutzte nvidia war ne ti4400... :lol:

MariX
2008-04-17, 20:35:10
Also kann ich dann bei extra mehr wie 1.1 V da einstelen?

Thunder99
2008-04-17, 21:15:41
Trifft es nur auf diverse 8800GT zu oder kann man auch das auf andere Modelle versuchen, z.b. 9600GT?

pest
2008-04-17, 21:48:14
Also kann ich dann bei extra mehr wie 1.1 V da einstelen?

einstellen ja, bringen wird es nix

MariX
2008-04-17, 22:25:13
einstellen ja, bringen wird es nix

Achso, also bringt ex nichts mehr?

Also brauch ich nichts zu machen bei der karte? weil würd da gern noch was rauskitzeln aus der Karte :P

gbm31
2008-04-17, 22:56:49
ok, codecreatures lief grade 4 mal - keine probs. erreicht 78°c im rivatuner, genauso wie cmr dirt.

Ronny G.
2008-04-20, 01:25:40
hier mein neues Objekt

Colorful 8800GT 512mb mit Original Zalmankühler
GPU 720 / Shader 1750 / Speicher 1120Mhz

Scheint ein sehr ordentliches Modell zu sein, die Werte oben wurden ohne Voltmod erreicht. Habe diesen 1,1Vmod mal probiert, brachte nichts, bei der Karte ist wahrscheinlich der Shadertakt das Problem, mehr als 1750 sind so nicht drin, mußte also per Rivatuner separat regeln um auf die 720mhz GPU zu kommen. Das PCGH-Bios hat bei mir nicht gefunzt, kam ständig die Meldung das die Grafikkarte herunter getaktet werden muß um sie gegen Schäden zu schützen. Wahrscheinlich hat es damit zu tun das bei Colorful nicht das Referenzdisign zum Einsatz kam.

http://foto.arcor-online.net/palb/alben/69/1887469/1400_6534326138343665.jpg

Raff
2008-04-20, 13:58:40
Checkt mal das hier: http://www.ozone3d.net/benchmarks/fur/

Beim Furmark absolviert jede Grafikkartenkühlung den Test ihres Lebens. Meine Karte wurde heiß wie nie. Ich musste sogar den Lüfter erstmals hochdrehen, damit sie nicht abfliegt ... und das, obwohl Crysis, die Kotkreaturen und anderes sonst sauber laufen.

MfG,
Raff

Gast
2008-04-20, 16:46:02
hmm interessant. ist auch auch sowas wie der pelzwürfel von ati tool^^

Ronny G.
2008-04-20, 19:46:10
Checkt mal das hier: http://www.ozone3d.net/benchmarks/fur/

Beim Furmark absolviert jede Grafikkartenkühlung den Test ihres Lebens. Meine Karte wurde heiß wie nie. Ich musste sogar den Lüfter erstmals hochdrehen, damit sie nicht abfliegt ... und das, obwohl Crysis, die Kotkreaturen und anderes sonst sauber laufen.

MfG,
Raff

absolut, bei mir hat sie auch sehr schnell "geglüht", statt den 70°C im Artefactscan von Atitool brachte er bei dem Furmark stabilitytest nach 15tsd Frames gute 80-81°C!!!, dort hat er sich dann eingepegelt. Schon irre das es noch mal so viel drauf legt, und ich dachte der ATitool test ist schon das heftigste.

gbm31
2008-04-20, 21:44:16
Checkt mal das hier: http://www.ozone3d.net/benchmarks/fur/



das ist der fur-bench, von dem ich rede.

der tat für die gpu...

seahawk
2008-04-21, 12:48:45
EVGA 8800GT 715 950 EVGA KO Edition (sollte eigentlich 975 RAM schaffen, tut sie aber in TDU nicht)

specialDD
2008-04-21, 15:39:55
Nochmal einen Nachtrag zu folgenden Werten meiner Sparkle 8800GT

Bin jetzt mittlerweile bei folgenden Werten:
GPU: 785Mhz - Shader: 1962Mhz - RAM: 1110Mhz

Benötigte Spannungen dafür:
GPU 1,325V idle / 1,28V load - RAM 2,05V idle / 2,07v load

Temperaturen:
GPU: 61°C max - Rückseite wird aber verdammt warm (Mosfets kaum mehr anfassbar)

3DMark06:
13200 Punkte unter Vista 32bit, 174.74 und C2D@3,2Ghz, P35 Board


Die Karte läuft jetzt über eine Woche damit und hat in keinen Spiel, dass ich bisher gezockt habe, Fehler hervorgerufen.

Am heißesten wurde sie beim Fur-Benchmark, den Raff gepostet hatte...Stolze 68°C mit dem Artic Cooling Accellero S1 und einem Slipstream 800 der auf ca 500rpm läuft.
Möchte gar nicht wissen, wie heiß die mit dem Standardkühler geworden wäre, vermutlich weit über 100°C.

Der Stromverbrauch ist natürlich auch enorm, die Karte braucht ungefähr gut 80W mehr als ohne Mods.

Aber bin zufrieden und werde das jetzt so lassen:biggrin:

Wolfram
2008-04-21, 15:44:16
Checkt mal das hier: http://www.ozone3d.net/benchmarks/fur/

Beim Furmark absolviert jede Grafikkartenkühlung den Test ihres Lebens. Meine Karte wurde heiß wie nie. Ich musste sogar den Lüfter erstmals hochdrehen, damit sie nicht abfliegt ... und das, obwohl Crysis, die Kotkreaturen und anderes sonst sauber laufen.

Bringt meine ECS 8800GT mit Accelero S1 und Turbo-Module-Lüftern auch auf immerhin 55 Grad...:biggrin: Bleibt jedenfalls auch übertaktet stabil.

Da immer noch auf Standard-GPU-Spannung, natürlich etwas kühler als bei specialDD...

funkflix
2008-04-23, 07:53:41
User Core Shader Vram Typ

funkflix 882 2205 1148 Zotac 8800GTS 512 1.349V Idle + EK Water Blocks EK-FC8800

gbm31
2008-04-23, 08:22:09
:frown:

bin immer noch nicht drin...




gbm31 756 1890 999 colorful 8800gts(g92) 512mb

Ronny G.
2008-04-23, 12:27:03
User Core Shader Vram Typ

funkflix 882 2205 1148 Zotac 8800GTS 512 1.349V Idle + EK Water Blocks EK-FC8800

Lächerlich!:tongue:

Sag mal das ist ja echt ne Klasse Karte die du da erwischt hast, hast du mehrere probiert oder gleich nen Volltreffer gelandet? Die GTS scheinen echt um Welten besser zu gehen.

Thunder99
2008-04-23, 16:53:23
Lächerlich!:tongue:

Sag mal das ist ja echt ne Klasse Karte die du da erwischt hast, hast du mehrere probiert oder gleich nen Volltreffer gelandet? Die GTS scheinen echt um Welten besser zu gehen.

User Core Shader Vram Typ

funkflix 882 2205 1148 Zotac 8800GTS 512 1.349V Idle + EK Water Blocks EK-FC8800

Deshalb ;) . Ne 9600GT mit 1.2V geht auch auf 850/2100 (laut HT4U), wird halt mächtig heiß :D

Ronny G.
2008-04-23, 19:17:41
Deshalb ;) . Ne 9600GT mit 1.2V geht auch auf 850/2100 (laut HT4U), wird halt mächtig heiß :D

Ich hatte jetzt selber vor kurzem für ne Woche ne 9600GT, diese ging tatsächlich ohne irgendwelche fumelein von 650/900 auf durchschnittliche 730/1030mhz und war dabei ausreichend Kühl.
Diese ging mit diesen Werten im 3Dmark fast 1:1 wie meine alte 8800GTS 320mb(621/959), sobald Speicher gefragt war änderte sich natürlich das Bild zugunsten der 96er. Ansich ne Prima Karte, weil günstig, Kühl/leise, Sparsam im Strom.
Die erreichten Werte von Funkyflix sind ganz und garnicht realitätsnah und trifft vielleicht auf Eine von 50Karten zu, wobei die GTS wirklich alle im Schnitt besser zu Ocen sind als die GT´s. Also laßt euch jetzt nicht täuschen, aber das wisst ihr ja bestimmt fast alle;)

Blackpitty
2008-04-23, 21:29:35
@seahawk

Shader fehlt......

@gbm31

sorry, habe dich irgendwie übersehen:eek:

alles eingefügt

Digglerino
2008-04-24, 01:30:02
Digglerino 740 1850 1040 POV 8800 GTS 512MB

Ronny G.
2008-04-24, 16:28:33
hier mein neues Objekt

Colorful 8800GT 512mb mit Original Zalmankühler
GPU 720 / Shader 1750 / Speicher 1120Mhz
[/URL]

So hier meine Finalen Werte, mehr geht nicht 24/7 tauglich, wird ohne Wakü einfach zu heiß, den ab 82°C mag die Karte nicht mehr so stabil laufen, verständlich.

Colorful 8800GT 512mb Zalman
GPU/ 780@1,3V idle/ Shader 1750 / Speicher 1140

Die Gpu ist eher durchschnittlich, der Shader unterdurchschnittlich, der Speicher aber als entschädigung sehr gut. Is schon nen schönes Teil.

http://foto.arcor-online.net/palb/alben/69/1887469/1400_3235636564313232.jpg

Cpl. Dwayne Hicks
2008-04-27, 10:02:36
So hier meine Finalen Werte, mehr geht nicht 24/7 tauglich, wird ohne Wakü einfach zu heiß, den ab 82°C mag die Karte nicht mehr so stabil laufen, verständlich.

Colorful 8800GT 512mb Zalman
GPU/ 780@1,3V idle/ Shader 1750 / Speicher 1140

Die Gpu ist eher durchschnittlich, der Shader unterdurchschnittlich, der Speicher aber als entschädigung sehr gut. Is schon nen schönes Teil.

http://foto.arcor-online.net/palb/alben/69/1887469/1400_3235636564313232.jpg


Teste mal mit Codecreatures.

Mein lieber Mann, dieser ozone Fur benchmark geht ja mal ganz anders ab... hat sich nach 10 minuten bei 84° (!!) eingependelt.

Und das beim standard Takt! Wie heiss das Teil dann erst mit OC wird will ich garnich wissen... naja momentan will ich meine Karte eh nicht OCen, die Performance reicht mir dicke. :)


@ Ronny G. 780Mhz GPU sind bei einer GT für dich nur "durchschnittlich"?! :ulol:

funkflix
2008-04-27, 10:43:05
Die erreichten Werte von Funkyflix sind ganz und garnicht realitätsnah und trifft vielleicht auf Eine von 50Karten zu, wobei die GTS wirklich alle im Schnitt besser zu Ocen sind als die GT´s. Also laßt euch jetzt nicht täuschen, aber das wisst ihr ja bestimmt fast alle;)

Ich hab 2 GTS die mit Standardkühlung und ohne Vmod mit 82xMHz durch 3DMark '06 laufen. Bei der ersten hatte ich Glück, die zweite hab ich pretested gekauft. Die andere GTS die ich davor hatte hat gut und gerne 40MHz weniger gepackt. So wenige von den guten Exemplaren gibt es aber nun wirklich nicht... Musst einfach mal bei www.hardwareluxx.de in den GTS-Übertaktungsthread schaun!

Realitätsnah ist es aber.. Ich zock nämlich alle Games hier mit 882MHz, realer gehts nicht mehr! :D

Geht auch noch mehr wenns sein muss:
http://www.gravedigga.de/gravedigga/session_19.04.2008/3dmark06.jpg

http://www.gravedigga.de/gravedigga/session_19.04.2008/am3.jpg

Alles mit ~ 1.4V Load.

Superheld
2008-04-27, 11:05:46
wollt mal fragen was ihr so nehmt um schnell die
Grafikkarte auf stabilität zu testen, Ati tool funzt leider nicht:(

hatte meine club 8800gt auf 702/1728 und dann gabs irgendwann ein Hänger in Crysis,
weis nur nicht an was es gelegen hat an chip oder shadertakt,

hab danach gleich 678/1674 eingestellt und geht problemlos, übertakte mit rivatuner "link clocks".

Ronny G.
2008-04-27, 20:23:46
@ Ronny G. 780Mhz GPU sind bei einer GT für dich nur "durchschnittlich"?! :ulol:

Am ende schon, den diese Werte sind ja hart erschwitzte Werte die nur mit ner Vmod möglich sind. Das schaft doch bestimmt fast jede GT mit entsprechende Kühlung bei 1,3V am GPU?

Wegen dem Codecreatures, meinst du das wegen stabilität?

arcon
2008-04-28, 18:21:54
Zotac 8800GT: 770 / 1866 / 1100 mit WaKü (hab meinen alten Alphacool NexXxoS NVXP-3 ATI X1800/X1900 draufgepackt :biggrin:)

Ronny G.
2008-05-05, 15:21:27
Melde mich mal wieder mit ner neuen Karte, leider ist mir meine 8800GT erkrankt, was genau damit los ist weiß ich noch nicht. Habe echt DUMMERWEISE den angelöteten Widerstand zwecks Voltmod am Speicher am Kabel baumeln lassen, dabei hatte er mit dem falschen Bein Kontakt mit Masse am Gehäuse dabei dann entweder den Speicher oder (ich hoffe doch sehr) die Spannungsregler oder sonstige Pfennigartikel gegrillt, riechen und sehen tue ich auf dem PCB nix. Fakt ist der Rechner geht mit dieser Karte nicht mal mehr an, liegt also ein Kurzschluss vor. Ich kümmere mich darum, war ja echt keine schlechte GT.

Nun habe ich mir nach kurzem und ernüchternden Test einer HD3870 übers WE wieder nen G92 gekauft, nun wieder eine von Colorful, nicht umsonst;D, ne 8800GTS im Referenz PCB.

Erste Ergebnisse habe ich auch schon, ohne Voltmods schafft sie schon anständige 799/1890/1161Mhz, Funkflix hatte also Recht das es nicht wenige von den gut gehenden GTS geben mag.

Die Werte brauchen noch nicht eingetragen zu werden, werde sie heute noch entsiegeln bzw. unter Wasser setzen und schauen was gehen mag. Denn diese Karte bleibt nun auf jedenfall mit etwas mehr Sorgfallt beim Ocen für mindest 1 Jahr im PC.

Ronny G.
2008-05-09, 10:25:35
fertig mit Ocen,

resultat sind zufriedenstellende
863/2106/1152Mhz bei 1,35V GPU(load) bei 51°C unter Wakü bei meiner Colorful 8800GTS G92

hier der Screen
http://foto.arcor-online.net/palb/alben/69/1887469/1400_3438363831333164.jpg

hacky
2008-05-09, 22:19:34
So hier mal meine Ergebnisse, Rechner siehe Signatur.
Getestet mit Fur Benchmark und Call of Juarez Benchmark @ Full HD & SLI !


Grafikkarten wurden umgebaut auf Zalman Wasserkühler (in Reihe verbaut):

2 * XFX 8800 GTX OC Version @SLI Default Takt: GPU 630,Shader 1350,Memory 1000.


Overclocking Ergebnisse für beide zusammen, eventuell geht eine der Karten auch noch besser:

GPU 660, Shader 1414, Memory 1050

GPU/Shader geht nicht höher (stabil), Memory geht zwar noch etwas höher bringt dann aber keine Mehrleistung mehr.

Die zweite Karte wird leider etwas wärmer, da die erste Karte das Wasser schon kräftig aufheizt (Reihenschaltung mit Dual 120mm Radiator)

Odal
2008-05-11, 11:02:06
Colourful 8800GT 512MB vmod@1,29Volt

ich hatte zuletzt stabil 820MhzGPU 1890Mhz Shader und 1044mhz ram erreicht

hab aber den vgpu mod erstmal wieder rückgängiggemacht da ich ohne auf mindestens
756Mhz GPU 1836Mhz Shader und 1044Mhz Ram komme

und für 6% mehr leistung (im idealfall) lohnen sich 0,1 volt mehr auf der GPU einfach nicht

mal sehn vielleicht mach ich irgendwann nen vmod über die vid's des spannungssteuerungsschaltkreises...vielleicht ist es dann eher möglich bessere werte zu erreichen

Sumpfmolch
2008-05-28, 17:43:42
und eine Elitegroup N8800GT 512MX+ ohne jegliche mods:

GPU: 725
Shader: 1775
Ram: 999

mit fur maximal 57°C

Blackpitty
2008-06-08, 10:43:24
alles wieder drin

Sumpfmolch
2008-06-08, 18:19:58
damit crysis fehlerfrei lief musste ich allerdings auf 715/1750/975 senken, bitte berichtigen.

pest
2008-06-08, 19:04:10
als Stabilitätstest mach ich 99-Crysis benchmark-Loops, Codecreatures oder ATITool lassen ca. 20MHz mehr zu

|-Sh0r7y-|
2008-06-09, 04:12:35
http://s4.directupload.net/images/080609/hb5jr372.jpg
MSI 8800 GT OC 512, hat standart schon 660gpu takt
Stabiel mit Real-time hdr + World of warcraft in 130x768 vollen details+16 af 8xaq supersampling oder wie sich das schimpft

edit: musste shader takt auf 1800 runter schrauben, gab doch ein reset des treibers, aber so läuft das jetzt.

James Ryan
2008-06-14, 20:30:57
Update von mir:

Asus Geforce 8800 GTX, gekühlt von einem Arctic Cooling Accelero Xtreme 8800
650 / 1620 / 1000 MHz absolut stabil! :D

MfG :cool:

Raff
2008-06-14, 21:04:53
Es sind 648 MHz. *klugscheiß* :biggrin:

MfG,
Raff

James Ryan
2008-06-14, 21:47:15
Es sind 648 MHz. *klugscheiß* :biggrin:

MfG,
Raff

Jaja, hast Recht! ;)
Die 675 MHz laufen eigentlich auch problemlos, aber in UT3 hatte ich gerade öfter mal Texturblitze, Temp lag konstant bei 54°C unter Vollast! ;D
Daher lasse ich die 648 MHz.

MfG :cool:

fizzo
2008-06-15, 00:11:48
http://members.aon.at/stefanfritz14/8800gt.jpg

komischerweise laeuft die evga schon standardmaessig mit 675/1674/975MHz :confused:

-=Popeye=-
2008-06-15, 01:47:22
Auch wenn ich eine 9800GTX habe ist es doch der gleiche Chip wie bei der 8800GTS (G92) man kann das Ding auch G92 9800GTX Label nennen, von daher poste ich einfach mal meine Werte.

828 / 1998 / 1253 MHz

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6489869&postcount=811

edit: PNY 9800 GTX 512MB

http://www.abload.de/img/zwischenablage02a8i.png

Blackpitty
2008-06-15, 11:52:25
Leute, bitte haltet euch doch an meine Anweisung im 1. Post, habe es nun extra nochmal groß geschrieben, wie ihr eure Werte posten sollt.

Nicht immer einen Text schreiben und man muss dann die Daten erraten oder heraussuchen, oder nur Bilder posten.

Schön in einer Zeile eure Werte und fertig

Und schreibt auch immer eure RAM Größe mit auf, da es viele Karten in verschiedenen Bestückungen gibt.

fizzo
2008-06-15, 13:22:16
oki, lesen bildet :redface:

8800 GT
-----------------------------------------------------------------------------------
User Core Shader Vram Typ

fizzo 725 1782 1053 EVGA 8800 GT 512MB

derwalde
2008-06-15, 19:41:12
XFX GeForce 8800 Ultra @ 684/1674/1152 mit standardkühlung.

pest
2008-10-27, 11:55:01
lebt der Thread noch

pest 800/2000/1050 ECS 8800GT 512 1.3V Idle, 1.32V Load, Accelero S1+TurboModul

keine Referenzkarte, hatte nur 1 Bild :D für den Voltmod

dachte nicht das die Karte die Takte schafft, weil sie mit 1.1V schon bei 700Mhz Probleme gemacht hat.

Getestet hab ich noch nicht soviel, aber bei der nächsten Taktstufe kackt sie ab
Werd wenn es nicht stabil ist, einfach weiterdrehn' ;) :D

Das war ein Gefühl...mit dem DMM+Schraubenzieher unterm Rechner zu liegen :D, sehr geil

Mein Rechner verbraucht jetzt Idle mit E8400@4GHz 133W

Dimon
2008-10-27, 13:29:29
MSI HD OC GF8800GTX 648/1620/1080

Wieso hängt sich das ganze Sys. auf wenn ich z.b den Ram auf 1100 hochtakte, gibt es keine Bildfehler, dafür aber einen absturz :confused:

Was kann man machen damit das aufhört?

Denn das ganze läuft mit 675/1674/1100 5 Min. ohne probs...

mfg Dimon

Megamember
2008-10-27, 15:33:15
MSI HD OC GF8800GTX 648/1620/1080

Wieso hängt sich das ganze Sys. auf wenn ich z.b den Ram auf 1100 hochtakte, gibt es keine Bildfehler, dafür aber einen absturz :confused:

Was kann man machen damit das aufhört?

Denn das ganze läuft mit 675/1674/1100 5 Min. ohne probs...

mfg Dimon

Der Ram packts halt nicht, ganz einfach. Kannst es nur mit einer stärkeren Kühlung probieren.

Raff
2008-10-29, 19:50:17
Ist bei mir genauso, über 1.080 MHz ist Schicht. Da hilft auch keine Kühlung – sondern mehr Spannung. ;) Der Takt ist aber schon sehr gut für eine GTX (20% RAM-OC).

MfG,
Raff

pest
2008-10-29, 20:57:46
wie hoch kann man mit der Spannung beim G92 btw. 8800GT die ja ne schlechtere VRM hat eigentlich gehen? Gestern war ich bei 1.45V Load :D

Megamember
2008-11-03, 23:13:47
702 Coretakt läuft auch, aber da wollte ich sie nicht durch den bench quälen. Der Shadertakt ist aber ganz nett.

http://www.abload.de/thumb/crybenchmaxk337.jpg (http://www.abload.de/image.php?img=crybenchmaxk337.jpg)

Odal
2008-11-04, 02:39:09
wie hoch kann man mit der Spannung beim G92 btw. 8800GT die ja ne schlechtere VRM hat eigentlich gehen? Gestern war ich bei 1.45V Load :D


auf dauer ist das sicher nix...ich hatte aber auch mal versehentlich 1,56volt drauf...etwas zuweit gedreht ^^

meine erfahrungen sind eher das die karte über 1.33-1.34 nicht mehr wirklich von spannungserhöhung profitiert...

ich hoffe du hast bei 1.45v auch nen overvoltageprotection mod gemacht...sonst lagen die da nämlich gar nicht an ^^

pest
2008-11-04, 07:44:48
meine erfahrungen sind eher das die karte über 1.33-1.34 nicht mehr wirklich von spannungserhöhung profitiert...


ich mach das eigentlich nur wegen ati-tool, die games laufen auch bei 1.3V Volt ok, nur ATI-Tool will für für 15min Fehlerfreiheit 1.38V :eek:, bei 800/2000


ich hoffe du hast bei 1.45v auch nen overvoltageprotection mod gemacht...sonst lagen die da nämlich gar nicht an ^^


öhm, nö...OVP hat die Karte bei ~1.7V (da schaltet sie sich ab),
und OCP passiert bei anderen Karten bei 1.3V, bei mir nicht...Spannung müsste unter Last auf 0V abfallen...vielleicht liegt's ja am nicht-Referenzdesign? Oder kann man auch Mist messen?
Bei 1.45V Last, konnte ich mit 850/2160Mhz benchen

was ich noch gemerkt habe. 3DMark06 läuft mit 1170Mhz Speichertakt durch, aber ATITool meldet sofort Fehler, geh ich runter verlängert sich nur die Zeit bis Fehler auftreten...thermisches Problem?

Oder mach ich noch den Speichermod?

Odal
2008-11-04, 13:03:58
ich mach das eigentlich nur wegen ati-tool, die games laufen auch bei 1.3V Volt ok, nur ATI-Tool will für für 15min Fehlerfreiheit 1.38V :eek:, bei 800/2000


Was passiert da genau? Hast du Vista oder XP?
Freezt der Spass/gesamte System...gibts gelbe Pixel? ansonsten würde ich mal weniger shadertakt probieren...
ATI Tool war imho eigentlich recht Aussagekräftig+Furmark zur validierung
Klar laufen oft diverse games auch mit mehr Takt oder weniger Spannung, aber wenn dann doch mal was abschmiert fängst du an rumzurätseln


öhm, nö...OVP hat die Karte bei ~1.7V (da schaltet sie sich ab),
und OCP passiert bei anderen Karten bei 1.3V, bei mir nicht...Spannung müsste unter Last auf 0V abfallen...vielleicht liegt's ja am nicht-Referenzdesign? Oder kann man auch Mist messen?
Bei 1.45V Last, konnte ich mit 850/2160Mhz benchen


OCP mod hm ich hab zwar nen OVP mod gemacht aber keinen OCP mod...

ich hab die Colourfull 8800GT die auch kein referenzddesign hat

http://img240.imageshack.us/img240/4796/graka3pg4.jpg

http://pix.nofrag.com/a/0/0/363d221146e8113a692fbf42a7162.jpg

hast du auch dieses "Nicht-Referenzdesign"? wo gibts da einen OCP mod? Vielleicht ist das ja der Grund das alles über 1.32V bei mir eher Kontraproduktiv ist...Messen kann ich eigentlich immer an den gezeigten Messpunkten die eingestellte Spannung...aber ich vermute mal das man an diesen Messpunkten auch die Spannung misst wenn OVP oder OCP den Saft abdreht....
Also könnte bei dir auch OVP oder OCP mit reinspielen...

das muss ja auch nicht immer genau bei 1.3Volt greifen....besonders nicht bei Karten die @default schon 1.25Volt bekommen (wie mein 88GT design)

Ich befürchte ich brauch noch nen OCP mod und mehr POWER


was ich noch gemerkt habe. 3DMark06 läuft mit 1170Mhz Speichertakt durch, aber ATITool meldet sofort Fehler, geh ich runter verlängert sich nur die Zeit bis Fehler auftreten...thermisches Problem?

Oder mach ich noch den Speichermod?

3dmurks läuft meistens noch mit höheren akten durch...das ATI Tool ist schon ein guter ansatz bzgl. Speichertakt....

Nen Speichermod würde ich nicht machen..denn deine karte hat schon nen super Speichertakt und gerade beim Ram ist mehr Saft oft kontraproduktiv....

Ausserdem sind mir 2 Karten an defekten Speicher verreckt (also keine 88er... ältere....) wovon eine nichtmal nen Ram MOD hatte...bisher hatte ich noch keinen Kartendefekt der nicht durch kaputten ram verursacht wurde....
ganz gefährlich imho....

pest
2008-11-04, 18:30:13
Was passiert da genau? Hast du Vista oder XP?
Freezt der Spass/gesamte System...gibts gelbe Pixel? ansonsten würde ich mal weniger shadertakt probieren...


Vista64, Wenn ich's mit dem Shadertakt wirklich übertreibe kommen gelbe Pixel, oder in Games Polygonblitze.
Aber von 1.3V-1.38V kommt nur nach 2-15Min nen Delta-Error und es geht von vorne los.
Klar liegt's an der Kombination Shader/GPU Takt.
Bei 1.33V und 780/2000 oder 820/1944 läuft das Ding ewig.
Bei 1.38V schaffe ich gerade so 800/2000 mit ATITool, 810/2000 geht schon nicht mehr. Aber mir isses egal, ist ja keine CPU ;)
Der Crysis-Benchmark lief 50x im Loop bei 1.33V und 820/2000 fehlerfrei.
Das Gleiche Symptom beim Speicher 1125Mhz laufen 3Min, 1100 5Min usw...
Ich denke einfach das ATITool (von Furmark will ich garnicht reden) die Karte mit vMod derbe überlastet.
Ohne vMod konnte ich Crysis nicht bei den Taktraten spielen, die bei ATITool fehlerfrei liefen :confused:



aber wenn dann doch mal was abschmiert fängst du an rumzurätseln


ich habe die Karte 1Wo bei 1.33V laufen lassen und mit 810/2000 FarCry2, UT3 und Crysis gespielt, jetzt läuft sie mit 1.38V und ich hab ein Warm&Fuzzy-Feeling ;)




OCP mod hm ich hab zwar nen OVP mod gemacht aber keinen OCP mod...


den OVP brauchst du eigentlich garnicht. Wenn dann OCP (OverCurrentProtection), aber die Karte sollte sich abschalten


hast du auch dieses "Nicht-Referenzdesign"? wo gibts da einen OCP mod?


ich glaube nicht, die ECS Karten gibt es in mehreren Ausführungen und ich habe diese (ist nicht mein Mod, Pin4 des Controllerchips mit Masse und 100KOhm VR)

http://i90.photobucket.com/albums/k262/evocarlos/water%20cooled/8800gt/Image050.jpg


Vielleicht ist das ja der Grund das alles über 1.32V bei mir eher Kontraproduktiv ist...Messen kann ich eigentlich immer an den gezeigten Messpunkten die eingestellte Spannung...aber ich vermute mal das man an diesen Messpunkten auch die Spannung misst wenn OVP oder OCP den Saft abdreht....
Also könnte bei dir auch OVP oder OCP mit reinspielen...


Die Karte muss ausgehen, und das tut sie nicht.
Wie zeigt sich das bei dir?

Einen Referenz-OCP Mod gibt es nicht, aber ich kann, wenn du willst, mal im 8800GT vMod Thread auf XS nach ein paar Tipps zum OCP-Mod suchen.


das muss ja auch nicht immer genau bei 1.3Volt greifen....besonders nicht bei Karten die @default schon 1.25Volt bekommen (wie mein 88GT design)


In dem Thread gab es mehrere die kein Referenzdesign hatten, und sich OCP auch nicht unter 1.5V gezeigt hat.



Ich befürchte ich brauch noch nen OCP mod und mehr POWER


ich befürchte die Karte kann einfach stabil nicht wirklich hohe Spannungen liefern. (billige VRM-Umgebung). Allein durch einen Lüfter der draufbläst, lief ATITool deutlich besser.



Nen Speichermod würde ich nicht machen..denn deine karte hat schon nen super Speichertakt und gerade beim Ram ist mehr Saft oft kontraproduktiv....

Ausserdem sind mir 2 Karten an defekten Speicher verreckt (also keine 88er... ältere....) wovon eine nichtmal nen Ram MOD hatte...bisher hatte ich noch keinen Kartendefekt der nicht durch kaputten ram verursacht wurde....
ganz gefährlich imho....

Um ehrlich zu sein, will ich die Karte kaputtmachen :D
Nur weiß ich nicht welcher Speicher drauf ist, der Accelero war vormontiert.
Bei Quimonda würde ich es gleich lassen, und da mir beim vMod mein Vater geholfen hat (bin doch Mathematiker ;)) will ich den MemMod alleine machen.

Odal
2008-11-04, 19:29:37
Vista64, Wenn ich's mit dem Shadertakt wirklich übertreibe kommen gelbe Pixel, oder in Games Polygonblitze.

Vista hat doch VPU Recovery das kann sich z.b. fast unbemerkt durch einen Stocker ähnlich eines Nachladerucklers äussern. Unter Vista konnte ich meine Karte noch höher prügeln ^^ denn wenn es mal zum problem kommt semmelte nich die gesamte kiste ab



Ich denke einfach das ATITool (von Furmark will ich garnicht reden) die Karte mit vMod derbe überlastet.
Ohne vMod konnte ich Crysis nicht bei den Taktraten spielen, die bei ATITool fehlerfrei liefen :confused:


ich bekomme mit furmark bis zu 75°C :D ich glaube furmark reagiert auch sehr kritisch auf speicherübertaktung....könnte hier dann wirklich ein thermisches problem sein


den OVP brauchst du eigentlich garnicht. Wenn dann OCP (OverCurrentProtection), aber die Karte sollte sich abschalten
..-
Die Karte muss ausgehen, und das tut sie nicht.
Wie zeigt sich das bei dir?


Was verstehst du unter auschalten? Bei mir Freezt einfach das Bild das wars....kurioser weise irgendwann soagar bei weniger Takt aber mehr Spannung.


Einen Referenz-OCP Mod gibt es nicht, aber ich kann, wenn du willst, mal im 8800GT vMod Thread auf XS nach ein paar Tipps zum OCP-Mod suchen.


wenn du was brauchbares findest :D ich hab gerade für meine karte noch nix gefunden halt nur vmod und ovp mod



In dem Thread gab es mehrere die kein Referenzdesign hatten, und sich OCP auch nicht unter 1.5V gezeigt hat.


1.5volt wären mir auch schon ausreichend...meine x800gto hab ich mit 1.75Volt gequält...in anbetracht der fertigungsgrösse sind um die 1.5v für eine 88gt schon ok


ich befürchte die Karte kann einfach stabil nicht wirklich hohe Spannungen liefern. (billige VRM-Umgebung). Allein durch einen Lüfter der draufbläst, lief ATITool deutlich besser.

wobei immer beim design meiner karte gesagt wurde, das die wie viele non-referenz karten eine 3 phasen spannungswandler konstruktion aufweisst


Um ehrlich zu sein, will ich die Karte kaputtmachen :D
Nur weiß ich nicht welcher Speicher drauf ist, der Accelero war vormontiert.
Bei Quimonda würde ich es gleich lassen, und da mir beim vMod mein Vater geholfen hat (bin doch Mathematiker ;)) will ich den MemMod alleine machen.


Du willst sie kaputtmachen? :eek: dann gib sie lieber mir :D und am besten noch ein passendes SLI board dazu ;)

pest
2008-11-04, 19:48:22
Vista hat doch VPU Recovery das kann sich z.b. fast unbemerkt durch einen Stocker ähnlich eines Nachladerucklers äussern. Unter Vista konnte ich meine Karte noch höher prügeln ^^ denn wenn es mal zum problem kommt semmelte nich die gesamte kiste ab


bei mir unter XP auch nicht. Bei zuviel GPU-Takt erscheint unten ein kleines Fenster mit "Der Anzeigentreiber wurde zurückgesetzt" deswegen teste ich den GPU-Takt garnicht mehr mit ATITool.



ich bekomme mit furmark bis zu 75°C :D ich glaube furmark reagiert auch sehr kritisch auf speicherübertaktung....könnte hier dann wirklich ein thermisches problem sein


:eek: nee furmark tue ich meiner karte nicht an. Wenn ich merke, das weniger Takt einfach nur den Zeitpunkt des Fehlers nach hinten schiebt, denke ich das es was Thermisches ist. Spiele stürzen da einfach ab.
Dieses, ich sag mal Testmuster wird real einfach nicht so auftreten.



Was verstehst du unter auschalten? Bei mir Freezt einfach das Bild das wars....kurioser weise irgendwann soagar bei weniger Takt aber mehr Spannung.


kurios, das wird OCP sein. Kann ja auch nur das wiedergeben was ich mir angelesen habe ;), wie gesagt bisher war ich bei 1.45V, natürlich sinkt das Leistungsplus mit mehr Spannung deutlich ab.
Ich könnte mich ja auch mit 780/2000 zufrieden geben, aber 850/2050 schaff ich noch ;), die 8800GT hängt eh total an der Bandbreite :(



wenn du was brauchbares findest :D ich hab gerade für meine karte noch nix gefunden halt nur vmod und ovp mod


wird aber erst am We was.

http://www.xtremesystems.org/Forums/showthread.php?t=163929

Largon gibt da ein paar Tipps zum OCP-Mod, was man messen muss usw.



Du willst sie kaputtmachen? :eek: dann gib sie lieber mir :D und am besten noch ein passendes SLI board dazu ;)

ich bau' noch nen Schalter ein, und dann wird se auf 1.45V gepusht
der Idle-Verbrauch nervt etwas weil ich kaum spiele.

Verkaufen bringt ja bei 8800GT kaum was, also wird se kaputtgespielt, aber langsam ;)

Hier liegen halt 100,-€, und wenn die Karte putt geht, hol ich mir ne 4850 und mach das selbe nochmal :D

Gast
2008-11-29, 17:42:23
Ein Vmod scheint bei der 8800GT nicht viel zu bringen (jedenfalls mit Luftkühlung).
Selbst mit 1,4Volt lief die Karte bei mir nicht viel stabiler als mit Standartspannung.

Meine Gigabyte 9800GT mit Accelero S1 (G92A 65nm) läuft mit Standartspannung im Furmark stabil @ 792 1998 1001, bei 58 Grad Temperatur.
Wieviel Volt sie genau zieht weiss ich selbst nicht, habe am BIOS nichts geändert. Wenn ich das BIOS mit Nibitor auslese, kann ich maximal 1,1 Volt auswählen. HWinfo sagt das sie nur 0,95Volt braucht.

Bei der Karte war ein Tool dabei mit dem man die GPU-Spannung unter Windows auf bis zu 1.4Volt stellen kann.
Mit 1,4Volt lief die Karte nicht merklich stabiler, weswegen ich das Tool wieder deinstalliert habe. In Spielen lasse ich die Karte mit maximal 765 1890 1044 laufen.

Gast
2008-11-29, 18:30:55
Nachtrag:
Auf einer Seite habe ich mal gelesen dass die 8800GT / 9800GT ab 68Grad instabil wird und es nichts bringt die Spannung weiter zu erhöheen, wenn die Temperatur über 68Grad ist.

http://www.bjorn3d.com/read.php?cID=1332&pageID=5268

Gast
2008-12-12, 22:12:02
88gt palit xpertvision sonic

standrad core/shader/mem 650/1625/1900
oc core/shader/mem 700/1750/1025

kühlung default luft

seit 11 monaten bei allen games stabil

Ronny G.
2008-12-13, 13:30:19
Nachtrag:
Auf einer Seite habe ich mal gelesen dass die 8800GT / 9800GT ab 68Grad instabil wird und es nichts bringt die Spannung weiter zu erhöheen, wenn die Temperatur über 68Grad ist.

http://www.bjorn3d.com/read.php?cID=1332&pageID=5268

ob das nun punkt 68°C sind wage ich zu bezweifeln, aber jede GPU hat beim OC ein empfindlichere Temp.grenze.
Beispiel:
Wenn eine GPU bei Defaulttakt stabil die 90°C meistert heißt es noch lange nicht das sie bei beim OC ebenfalls die 90°C meistert, meist sind diese Temp.Schwelle erheblich tiefer.

Ich kann das aber nachwievor bestätigen, unter Wakü geht die G92-GPU hervoragend, skaliert praktisch perfekt mit tiefen Temperaturen.

Trotzdem noch schön das hier etwas bewegung herscht, die 88er leben!

meine alte.....Graka, manchmal trauer ich ihr noch etwas nach, wenn ich sehe wie gut hier noch einige mit ihren G92 unterwegs sind. Heute bekomme ich aber wieder ne G92 zwischen die Finger, ein Kumpel kommt mit seiner 9800GX2 vorbei, da wollen wir mal nen kleinen OCer+Benchnachmittag bei Kaffee und Kuchen veranstalten:tongue:
http://www.abload.de/thumb/864atitool2izy.jpg (http://www.abload.de/image.php?img=864atitool2izy.jpg)

Raff
2008-12-17, 21:19:04
Du hast eine GTX 280 und trauerst deiner 8800 GTS hinterher? Mach doch mal 16xS und 32xS an, da vergeht die Trauer im Vergleich wie im Fluge. ;)

MfG,
Raff