PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Echte User-Erfahrungen zur 8800GT


Seiten : 1 2 3 [4]

F5.Nuh
2007-12-01, 12:29:40
Wollte mir eigentlich die GTS holen aber die hat nicht soo viel Power mehr das sich der Aufpreis lohnt. Kann man die Aktuellen Games wie Need for Speed Pro und Stalker und Call of Juarez alles auf Max mit etwas AF (4x) und etwas aa (2x) mit einer Auflösung von 1680*1050 flüssig spielen? würde mir eine AMP von Zotac holen udn auch den S1 drauf montieren. Iergendwo hatte ich auch was von einem 1,1VoltMod (über Bios?!?) gelesen wo sich die Karten nochmal ein Stück takten lassen.

Grüße

Edit: achja wo habt ihr den 120er bei dem S1 Montiert? bestimmt genau mittig blasend oder?

Das Auge
2007-12-01, 14:09:53
@Das Auge und Digg

Na, dann habt Ihr ja 'ne richtig goile Kühlung... nachteil ist nur die TripleSlot-Bauweise, gell?
:D

Das werte ich in meinem Zockrechner nicht als Nachteil, zur Soundkarte im untersten PCI-Slot ist noch genug Abstand und weitere Karten kommen da sowieso nicht rein ;)


Edit: achja wo habt ihr den 120er bei dem S1 Montiert? bestimmt genau mittig blasend oder?

Ich hab zwei 80er draufgepackt, da ich die wie gesagt von meinem "THG"-Mod eh noch da hatte. Der eine bläst genau auf die Spawas, der andere (direkt daneben), auf die Speicher und was da sonst noch ist. Damit wird die Karte im Prinzip zu gut 80% direkt "angeblasen", was sich auch noch mal gut auf die ambient temperature auswirkt ;)
Das Problem ist, daß ich keine Kühlbausteine mehr für die Spawas hatte und die mitgelieferten nicht passen. Daher halte ich die Lösung fast schon für optimaler, als einen 120er ;)
Jedenfalls sollten die Spawas bei direkter Belüftung (hoffentlich) auch nicht heißer werden als bei gar keiner Belüftung aber passiver Kühlung. Bislang gibts jedenfalls keine Probleme.

Gast
2007-12-01, 14:30:34
Daher halte ich die Lösung fast schon für optimaler, als einen 120er ;)
Wie wärs, wenn der 120er auf die Spawas blasen würde? Dafür beide 80er weg.
Die Rams brauchen doch eh keine Kühlung.

Also zwischen Karte und Spawas ist doch der S1? Also müsste ein 120er am Kartenende doch perfekt sein. :smile:

Das Auge
2007-12-01, 15:23:22
Die 80er hatte ich aber noch da, nen 120er müsste ich kaufen. Von daher ist diese Lösung mit meinem vorhandenen Material optimal. Wenn man keinen Lüfter hat, kann man natürlich auch nen 120er kaufen, wenn der über den Spawas positioniert ist sollte das keinen großen UNterschied machen, da hast du wohl recht.

James Ryan
2007-12-01, 15:37:47
Gibt es eigendlich ein Tool für NVidia Karten welches mit dem Ati Traytool vergleichbar ist? Die Nvidia Traytools sind ja eher rudimentär und kommen im Funktionsumfang leider nicht mit. Ich hätte gernen wieder eine Tray-Temperaturüberwachen und eine Overlay-Einblendung wie beim beim Ati Traytool.

Nimm den RivaTuner!

MfG :cool:

redpanther
2007-12-01, 19:39:31
Bringt es eigentlich was Core/Shader/Speicher runterzutakten wenn man nicht spielt? Ich habe immer die gleichen temps, egal ob default oder ziemlich runtergetaktet?

Ich hab das mal mit dem Strommessgerät getestet.
Mit RivaTuner alle Takte auf min. Waren dann etwa 10W weniger.
Ob dir das was bringt musst du selbst wissen, werde mal versuchen das mit RT zu automatisieren, gibt hier ja irgendwo einen Thread dazu.

Razor
2007-12-01, 19:44:20
Mit dem RT ging per Default nur -50%... also statt 600/900 eben 300/450.
(kann man wohl irgendwo frei schalten, wenn man noch weiter runter will)

Und gebracht hat es 'satte' 4W.
Das bringt es also nicht wirklich, auch wenn vielleicht noch 2W mehr bei 200/200 heraus zu holen wären...

Eine Spannungsabsenkung wäre interessant!
Aber das wird wohl leider nichts...

Razor

Majestic
2007-12-01, 21:17:36
Nimm den RivaTuner!

MfG :cool:

Die 8800GT wird scheinbar noch nicht unterstützt.....:frown:

Das Auge
2007-12-01, 23:29:04
Die 8800GT wird scheinbar noch nicht unterstützt.....:frown:

Selbstverständlich wird sie das. Hast du die neueste Version von guru3d.com geladen?

Majestic
2007-12-01, 23:38:46
Selbstverständlich wird sie das. Hast du die neueste Version von guru3d.com geladen?

Ja hatte und habe nun wieder die Version 2.06 drauf... Zuerst ging es auch nicht. Keine Ahnung warum. Nach einer Neuinstallation ging es plötzlich. :confused:

Dr.Snuggles
2007-12-02, 00:24:24
also ich habe 2 MSI GeForce 8800 GT OC als SLI-Gespann drin.
Leider zeigt mir RivaTuner nur die Temp von einer Karte an,so wie es aussieht unterstützt RT noch kein 8800GT- SLI.

Das seltsame ist,daß nur die Temp.der 2.Karte ausgelesen wird,aber nicht die 1.Karte.

Goldeneye007
2007-12-02, 11:41:36
also bei mir ging das ati tool auch nicht, woran liegt das nochmal?

Amplified
2007-12-04, 16:33:52
Gude,

meine Zotac Amp kam heute. Funktioniert soweit einwandfrei. Der Lüfter ist im Idle und unter Last nicht laut, da bin ich von der GX2 anderes gewohnt.
Allerdings gibt sie unter Last zirp Geräusche von sich. Was kann das sein? Spannungswandler?

LovesuckZ
2007-12-04, 16:36:05
Ja, kann möglich sein.

Amplified
2007-12-04, 16:43:24
Dumm gelaufen, aber zurückschicken tu ich se nicht. Sonst kann ich wieder 1 Monat warten. Außerdem hab ich eh beim Zocken Kopfhörer auf.

ZipKaffee
2007-12-04, 17:03:04
Dumm gelaufen, aber zurückschicken tu ich se nicht. Sonst kann ich wieder 1 Monat warten. Außerdem hab ich eh beim Zocken Kopfhörer auf.

Würg Zirp Geräusche, damit könnte man mich in den Wahnsinn treiben. kannst sie ja auch erst in ein Paar Monaten tauschen, so würde ich das machen. :wink:

Amplified
2007-12-04, 17:13:38
Würg Zirp Geräusche, damit könnte man mich in den Wahnsinn treiben. kannst sie ja auch erst in ein Paar Monaten tauschen, so würde ich das machen. :wink:

Jo das werd ich dann auch machen. =)

syronth
2007-12-04, 17:24:06
Schau dir evtl. den Lüfter näher an, bei mir zirpte es auch, weil der Rotor irgendwo eine Berührung mit dem Gehäuse hatte. Viel mehr als Karte ausgebaut, ein Auge drauf geworfen und wieder eingebaut habe ich aber nicht - danach war es verschwunden. Der Raum dürfte bei der SingleSlot-Lösung und dem Vollgehäuse recht knapp sein, sodaß es u.U. ausreicht, wenn die Karte nur minimal verzogen ist, damit es zu leichtem Kontakt kommt.

Majestic
2007-12-04, 18:18:45
Meine hat am 1.Tag auch leise gezirpt. Allerdings nur bei extremer Beanspruchung. Etwa während des Spielens von Crysis. Nun ist komischerweise verschwunden.

Amplified
2007-12-04, 21:01:12
Schau dir evtl. den Lüfter näher an, bei mir zirpte es auch, weil der Rotor irgendwo eine Berührung mit dem Gehäuse hatte. Viel mehr als Karte ausgebaut, ein Auge drauf geworfen und wieder eingebaut habe ich aber nicht - danach war es verschwunden. Der Raum dürfte bei der SingleSlot-Lösung und dem Vollgehäuse recht knapp sein, sodaß es u.U. ausreicht, wenn die Karte nur minimal verzogen ist, damit es zu leichtem Kontakt kommt.

Is bei mir leider nicht der Lüfter, hab ihn mal kurz angehalten. Hab gerade beim Scrollen der Seite gemerkt, das sie dann auch leichte zirp Geräusche von sich gibt. Aber unter 3D, oder im Menü von diversen Games, macht se richtig Krach.

Razor
2007-12-04, 21:39:33
Onboard-Sound?
Hört sich eher nach irgendwelchen Interferenzen an...

Razor

Amplified
2007-12-04, 21:41:26
Onboard-Sound?
Hört sich eher nach irgendwelchen Interferenzen an...

Razor

Nein, ich hab ne alte Audigy 1 drin. Außerdem kommt ja das Geräusch direkt von der Karte. Hab extra ein Ohr dran gehalten.

Razor
2007-12-04, 21:43:49
Nein, ich hab ne alte Audigy 1 drin. Außerdem kommt ja das Geräusch direkt von der Karte. hab extra ein ohr dran gehalten.
Merkwürdig...

Das gab es doch damals schon bei den 6800'ern ab und an.
Könnte das vielleicht am geänderten Referenz-Layout liegen?
Das blaue PCB scheint ja nicht von foxconn zu kommen...

Razor

syronth
2007-12-04, 21:45:17
[Andere waren schneller, snip]

Amplified
2007-12-04, 21:55:05
Merkwürdig...

Das gab es doch damals schon bei den 6800'ern ab und an.
Könnte das vielleicht am geänderten Referenz-Layout liegen?
Das blaue PCB scheint ja nicht von foxconn zu kommen...

Razor

Ne x800xt-pe hatte mal bei mir zwitscher Geräusche von sich gegebe, aber jetzt nicht so nervig.
Das Geräusch der Zotac hört sich wirklich so an als würde ein Lüfter schleifen
aber der ist es garantiert nicht. Ich werd se auf jedenfall nicht auseinander nehmen. Je nach Verfügbarkeit wird die Zotac eingeschickt.

RoNsOn Xs
2007-12-04, 22:10:31
Kann vllt jmd auskunft über die gesamte Länge des PCB´s geben?

Amplified
2007-12-04, 22:13:50
Kann vllt jmd auskunft über die gesamte Länge des PCB´s geben?


23cm

RoNsOn Xs
2007-12-04, 22:16:25
na wenn da nicht die illuminaten ihre finger am pcb haben :rolleyes:

danke dir ;)
http://s2.directupload.net/images/071204/g74s42mo.gif (http://www.directupload.net)

BvB123
2007-12-05, 00:54:42
Die Zotac hat echt den besten Speicher meine läuft jetz mit 750/1900/1129 Mhz alles mit Stock Kühler, sehr genial ;)

Amplified
2007-12-05, 00:57:05
Ne x800xt-pe hatte mal bei mir zwitscher Geräusche von sich gegebe, aber jetzt nicht so nervig.
Das Geräusch der Zotac hört sich wirklich so an als würde ein Lüfter schleifen
aber der ist es garantiert nicht. Ich werd se auf jedenfall nicht auseinander nehmen. Je nach Verfügbarkeit wird die Zotac eingeschickt.


Bin anscheinend nicht der Einzige mit dem Zirpen. Hab auch gleich ne Lösung gefunden. Werde sie wohl doch mal bei Gelegenheit auseinander nehmen.
http://www.hardwarecanucks.com/forum/troubleshooting/3436-8800gt-strange-noise-3.html

-/\-CruNcher-/\-
2007-12-05, 09:37:44
Sagtmal habt ihr auch ein Hochfrequentes Geräusch (so stell ich mir tinitus vor ;) ) das vom 8800GT Referenz Lüfter kommt wenn er über 40% Läuft? (keine Belastung der Karte einfach Lüfter aufgedreht)
Das ist echt nervig und viel schlimmer als die Geräusche der Luftverwirbelung imho.

Hier mal die beiden Contenders, wenn jemand noch irgendwelche Wünsche bzgl. tests hat wo er meint die seihen in anderen Reviews zu kurz gekommen, einfach raus damit ich werd sehen was sich machen lässt :)

http://s3.directupload.net/images/071205/j6l7rcu3.jpg

Also bis 40% 2170 rpm find ich den Lüfter (8800GT) persönlich absolut angenehm darüber wirds kritisch aber eben bedingt durch diesen Hochfrequenten (fiep) ton,
ideal erscheinen mir 34-36% 1815-1950 rpm :) stock läuft das 04 bios anscheinend mit 29,80% 1600 rpm, bei 70% 3550 rpm hält er mit AtiTools Fellwürfel konstant 95°C (Midi Tower mit noch nicht optimierter Belüftung) allerdings ist dieses Fiepen (Lüfterspulle plastik kratzt irgendwo an?) fast unerträglich.

Dr.Dirt
2007-12-05, 13:08:12
Ich hab unter Last ein leises Fiepen wahrgenommen, als die Seitenwand von meinem Gehäuse noch nicht montiert war (aus ca. 1m Entfernung), jetzt bei geschlossenem Gehäuse höre ich nichts mehr. :)

-/\-CruNcher-/\-
2007-12-05, 13:22:11
Höre das auch bei geschlossenem Gehäuse aber erst ab 40% Lüftergeschwindigkeit auch 1M Entfernung Ohr -> Gehäuse, naja erstmal den Luftfluss optimieren und den CPU takt nach oben schrauben dann mach ich weiter.
Eventuel wird dann Dämung notwendig werden aber es ist unwahrscheinlich das man dieses Fiepen während einem Spiel hört da die Lüftersteuerung ja nicht konstant bleibt sondern sich je nach GPU Belastung dynamisch anpasst und Average sicher nicht bei über 40% liegt, nur an dieses Fiepen erinnere ich mich aus keiner Hörprobe des Lüfters (PCGH Lüftersteuerungstest,Tomshardware Oblivion Lasttest), höchstwahrscheinlich wurde es in den Videos durch die Audio Komprimierung herausgefiltert. Komisch bleibt nur das es nirgends in Reviews erwähnt wird, vieleicht haben wir ja auch nur ein Sonntagsmodel des Lüfters erwischt wer weiss.

Gast
2007-12-05, 13:29:08
Das Problem scheinen einige zu haben (ich gehöre nicht dazu). Scheint was mit einem nicht perfekt festgeklebten Bauteil zu tun zu haben, aber genauer weiß ich es auch nicht mehr. Muss erstmal den Link suchen.

Adam D. @ work

-/\-CruNcher-/\-
2007-12-05, 14:06:33
@Adam
nee das ist nen Zirpen (so würd ich das bezeichnen) was du meinst aber kein Fiepen (eher ein heulen).
Das Fiepen (heulen) geht definitiv vom Lüfter aus kann aber auch durchaus sein das der Spannungswandler bei Belastung der Lüfterspannung dann anfängt zu fiepen anstelle zu zirpen (niedrigere Belastung), alles möglich ;)

Dr.Dirt
2007-12-05, 17:15:28
Das Fiepen geht definitiv vom Lüfter aus kann aber auch durchaus sein das der Spannungswandler bei Belastung der Lüfterspannung dann anfängt zu fiepen

So ein Käse, die geringe Leistung, die der Lüfter braucht fallen unter den Tisch im Vergleich zum Rest.
Das Fiepen geht definitiv von den Spannungswandlern aus, wenn die Karte im 3d Modus ordentlich belastet wird. Der Lüfter kann bei mir definitiv nicht als Quelle herhalten, mußte ja einer Wakü weichen. :)

-/\-CruNcher-/\-
2007-12-05, 17:39:24
Hier hört es euch selbst an das kommt definitiv nicht von den Spannungswandlern bei inside und outside ca 0:55s (etwa 75%) ist was interessantes zu hören ( 0:56s inside eine art Sägengeräusch) als ob etwas im Lüfter schief läuft.

http://www.supload.com/listen?s=OOZ2CJN5O1TR inside
http://www.supload.com/listen?s=95Z5Z65P1OZS outside

Das was da bei 0:55s ca 75% so extrem zu hören ist bekomm ich bei ca 42% schon mit, diesen Hochfrequenten Ton und das nervt.

PS: Dieser Test geht von 29% an und überspringt dann den bereich bis 50% ansonsten wers ein wenig aufwändig gewesen ;)

Dr.Dirt
2007-12-06, 07:50:35
Hier hört es euch selbst an das kommt definitiv nicht von den Spannungswandlern bei inside und outside ca 0:55s (etwa 75%) ist was interessantes zu hören ( 0:56s inside eine art Sägengeräusch) als ob etwas im Lüfter schief läuft.

http://www.supload.com/listen?s=OOZ2CJN5O1TR inside
http://www.supload.com/listen?s=95Z5Z65P1OZS outside

Das was da bei 0:55s ca 75% so extrem zu hören ist bekomm ich bei ca 42% schon mit, diesen Hochfrequenten Ton und das nervt.

PS: Dieser Test geht von 29% an und überspringt dann den bereich bis 50% ansonsten wers ein wenig aufwändig gewesen ;)
Lol, das sind keine Standardsettings für den Lüfter, so eine Turbine wird sich niemand antun, da hört man dann natürlich kein Fiepen mehr der Spannungswandler.
Den Lüfter turbinenartig hochdrehen und sich dann über die entstehenden Geräusche beschweren, irgendwie passt das nicht zusammen.
Dreh einfach die Musik lauter, dann hörst du es nicht mehr. :ucrazy3:

Ri*g*g*er
2007-12-06, 12:48:16
Hi,

sagt mal mit welchem Tool kann ich überhaupt die Lüftergeschwindigkeit auslesen ?

Hab meine Karte nun schon über 3 Wochen und unangenehm bzw. laut ist die noch nie geworden.
Hab aber nix an der Karte verstellt oder ähnliches.

Originallüfter ist drauf.
Wird teilweise bis ca. 89° warm aber das stört mich nicht wurde meine X1900XT auch nur die war da nicht mehr leise *g*

Möchte gerne mal die Lüftergeschwindigkeit ausmessen.

Hab mir zwar den Nvidia Monitor gesaugt und installiert aber das Programm ist Müll zeigt mir so gut wie nix an.

Gruss
Ri*g*g*er

RoNsOn Xs
2007-12-06, 12:51:19
SpeedFan sollte das vllt können. Bin mir nicht sicher, nutze es nicht mehr.

-/\-CruNcher-/\-
2007-12-06, 13:13:58
Lol, das sind keine Standardsettings für den Lüfter, so eine Turbine wird sich niemand antun, da hört man dann natürlich kein Fiepen mehr der Spannungswandler.
Den Lüfter turbinenartig hochdrehen und sich dann über die entstehenden Geräusche beschweren, irgendwie passt das nicht zusammen.
Dreh einfach die Musik lauter, dann hörst du es nicht mehr. :ucrazy3:

Höre keine Musik, aber sorry mir geht es nicht darum das der Lüfter unendlich laut wird je höher man ihn dreht das ist ja wohl logisch, mir geht es um den Hochfrequenten Ton der dabei entsteht und selbst schon bei normalen 40% 1800 rpm hörbar wird.
Das Lüfter Luftverwirbelungen erzeugen und dadurch laut werden ist klar aber nicht das sie bei 1800 rpm solch einen Ton erzeugen, das hab ich noch nie gehört. (werde mal versuchen die Frequenzen der Luftverwirbelungen zu isolieren und nur den Ton (fiepen) hörbar zu machen, vieleicht nehmen das andere nur seh unterbewusst war)

@Ri*g*g*er
Rivatuner liest alles aus was du brauchst http://www.guru3d.com/rivatuner/

Dr.Dirt
2007-12-06, 13:18:57
den Hochfrequenten Ton der dabei entsteht und auch schon bei normal vorkommenden 40% hörbar ist.
Normal sind afaik 29%, da hört man so gut wie nichts.

-/\-CruNcher-/\-
2007-12-06, 13:40:52
Normal sind afaik 29%, da hört man so gut wie nichts.

Stell mal die 8800GT fest auf 29% und dann belaste sie, danach kannst sie wegschmeissen ohne die dynamische Steuerung würde dir das Referenzdesign bei der Drehzal sofort verrecken (es sei den du hast nen überaus heftigen Luftstrom im Gehäuse).

Übrigens bei Forumdeluxx hat doch anscheinend tatsächlich einer die Asus Top in einer Asus EN8800GT Verpackung bekommen (das nenn ich mal Glückspilz) http://www.forumdeluxx.de/forum/showpost.php?p=7674828&postcount=1334 oder man hat bei Asus den Standardkühler gekicked (EOL wie bei Gigabyte) kann ich mir auch gut vorstellen, bei den Erfahrungen die ich gerade mit dem Ding mache :D

http://www.abload.de/img/dscn4083ks6.jpg
http://www.abload.de/img/dscn4086ggr.jpg

Wenn jetzt wirklich nur noch AIB Karten kommen und das Referenzdesign wirklich überall EOL ist wär das echt ein herber schlag für die early adopters aber naja sind halt unbezahlte Betatester und Karten Pusher für Nvidia (muss man sich immer im Klaren sein), vor allem der Preisunterschied tut weh für die gebotene Kühlleistung beim Referenzdesign.
Gut 20€ investieren in einen Accellero S1 ist da eine gute möglichkeit das für ein Referenzdesign zu kompensieren (wenn man schon 300€ ausgegeben hat machen die 20€ den Kohl auch nicht mehr fett) aber hier bekommt man jetzt für das gleiche Geld (vermutlich bald sogar weniger) die besser gekühlten Karten und behält seine Garantie und brauch nicht selber umbauen ;)

Sven77
2007-12-06, 13:59:38
danke für die bilder, da wird mein 24" doch mal richtig ausgenutzt

Amplified
2007-12-06, 14:37:58
Und schön die Karte auf den Teppichboden gelegt

dropback
2007-12-06, 14:57:29
Mach die Bilder bitte noch ein bisschen größer, ich kann kaum was erkennen:P

-/\-CruNcher-/\-
2007-12-06, 15:09:04
@Amplified
und am Besten vorher noch mit den Strümpen drübergegangen, naja geek weiss das es gefährlich ist aber das da wirklich was passiert ist ein sehr geringes Risiko wie ich finde ;)

@Sven77 and dropback
gute Browser skalieren die Bilder und Text heutzutage passsend an die jeweilige Auflößung sei es Manuel via Mausrad,Dropdown Auswahl oder Automatisch ;)

LovesuckZ
2007-12-06, 16:15:32
Stell mal die 8800GT fest auf 29% und dann belaste sie, danach kannst sie wegschmeissen ohne die dynamische Steuerung würde dir das Referenzdesign bei der Drehzal sofort verrecken (es sei den du hast nen überaus heftigen Luftstrom im Gehäuse).


Kein Unsinn erzählen, ja?

arcanum
2007-12-06, 16:22:45
@Cruncher

das von dir beschriebene fiepen wird höchstwahrscheinlich durch die PWM-ansteuerung des lüfters verursacht. leider kann man nichts dagegen tun, ausser die einstellungen zu meiden, die das fiepen verursachen oder den lüfter an eine analoge steuerung zu hängen, wobei dann die komfortable bedienung über rivatuner etc. entfällt.
bei meiner alten GTS war das auch der fall, wenn der lüfter in einem bestimmten drehzahlbereich gedreht hat.

Majestic
2007-12-06, 17:14:56
Meine Karte wird unter Last selten viel wärmer als 82°C dann dreht der Lüfter kurz an (gemessen mit Rivatuner). Aber wirklich deutlich zu hören ist der dann nicht. Da ist der Rest des Systems subjektiv lauter. Meistens bewegt sich die Temperatur so um 75°C unter Last und ist damit kein Problem. Dieser Singleslotkühler ist relativ effektiv und leise. Sowas hat man wirklich selten. Ich sehe im moment keine Notwendigkeit ihn zu ersetzen. Keine Ahnung was Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/27/#abschnitt_temperatur)das gemessen hat.

Dr.Dirt
2007-12-06, 17:16:30
Stell mal die 8800GT fest auf 29% und dann belaste sie, danach kannst sie wegschmeissen ohne die dynamische Steuerung würde dir das Referenzdesign bei der Drehzal sofort verrecken (es sei den du hast nen überaus heftigen Luftstrom im Gehäuse).
Wenn ich das lese, scheint es mir, daß du noch nie eine 8800 GT im Referenzdesign in Betrieb hattest.
Bei PCGH gibt es ein Video, das zeigt, daß der Lüfter erst bei über 100° anfängt mit der Drehzahl etwas hoch zu gehen, da bin ich mit meinen maximal 91° nie hingekommen, also bleibt es bei 29% Lüfterdrehzahl.

Edit: Bitte die nächsten Bilder etwas kleiner, Cruncher!

LovesuckZ
2007-12-06, 17:18:39
Die Temperatur ist abhängig von der Anwendung, den Einstellungen und der Durchlüftung des Gehäuses.
Wenn ich mit Vsync spiele, erreiche ich auch keine 92° mehr. Aber lasse ich z.B den ATiTool Würfel laufen, geht die Karte bis dahin hoch und fängt an zuregeln.

Gast
2007-12-06, 18:18:51
huhu,

also ich finde die 8800GT supergut (deswegen gleich 2). ABER leise ist sie mal überhaupt nicht. Ohne Belastung hört man absolut keinen mux (nett zum surfen). Leider sieht dies bei etwas längerem spielen anders aus. Keine 100% Lüfterdrehzahl aber doch schon recht ordentlich und sehr wohl sehr gut hörbar.

Merlin
2007-12-06, 18:28:22
8800GT Fanspeed

new bios mod

http://merlin.slang-in-use.de/Nvidia/EVGA 8800GT 62.92.1F.00.06.rar
http://merlin.slang-in-use.de/Nvidia/EVGA 8800GT SC 62.92.1F.00.06.rar
http://merlin.slang-in-use.de/Nvidia/EVGA 8800GT KO 62.92.1F.00.06.rar
http://merlin.slang-in-use.de/Nvidia/EVGA 8800GT SSC 62.92.1F.00.06.rar

http://merlin.slang-in-use.de/Fotos/8800GT.png

Gast
2007-12-06, 18:30:30
Aber lasse ich z.B den ATiTool Würfel laufen, geht die Karte bis dahin hoch und fängt an zuregeln.
Erzeugt dieses Tool immer noch die meiste GPU Abwärme? :)

LovesuckZ
2007-12-06, 18:30:39
Könntest du etwas dazu schreiben?

Erzeugt dieses Tool immer noch die meiste GPU Abwärme? :)

Die höchste Last sollten bei den G8/9x Karten reine Rechenleistungsprogramme erzeugen. Der Würfel ist aber schon sehr anstrengend.

-/\-CruNcher-/\-
2007-12-06, 19:02:13
@Cruncher

das von dir beschriebene fiepen wird höchstwahrscheinlich durch die PWM-ansteuerung des lüfters verursacht. leider kann man nichts dagegen tun, ausser die einstellungen zu meiden, die das fiepen verursachen oder den lüfter an eine analoge steuerung zu hängen, wobei dann die komfortable bedienung über rivatuner etc. entfällt.
bei meiner alten GTS war das auch der fall, wenn der lüfter in einem bestimmten drehzahlbereich gedreht hat.

Ja das hab ich schon öfter gehört das es da probleme geben soll durch die Pulswellenmodulation als wie mit der direkten Spannungsansteuerung, könnte man mal extern vergleichen :)

@Dr.Dirt
Du solltest mal etwas genauer lesen ich schrieb von festeingestellten 29% 1600 rpm 100% Dauerbelastung hält der G92 ohne genug kalte Luft da nicht lange aus und ich bin mir nicht sicher ob die 1600 rpm den G92 selbst mit GPU recover vor dem Hitzetod bewahren können, kann ja mal gerne jemand testen.

@Merlin
Thx for your work on this matter, it's really appreciated :)

@LovesuckZ
Laut Tomshardware schaft Oblivion das auch, bessonders die Vegetation lässt den G92 ganz schön ins schwitzen kommen aber es ist klar die GPU ist so gut wie nie unter 100%
Dauerbelastung alles ist dynamisch genauso wie auch der erzeugte Stromverbrauch und die Lüftersteuerung :)
Verrecken war ein bischen hart auf jedenfall würde GPU recover sofort einspringen da die Temperatur einfach zu schnell steigt und irgendwann hilft GPU recover aber auch nicht mehr, was passiert dann? (schaltet sich die Karte vieleicht ab?).

Razor
2007-12-06, 19:53:30
Höre keine Musik, aber sorry mir geht es nicht darum das der Lüfter unendlich laut wird je höher man ihn dreht das ist ja wohl logisch, mir geht es um den Hochfrequenten Ton der dabei entsteht und selbst schon bei normalen 40% 1800 rpm hörbar wird.
Sorry Cruncher... aber Du trollst hier nur rum.
Dir gefällt offenbar die "Tonlage" des Lüfters nicht... gut, kann ich verstehen... und dann ist auch mal gut, oder?
:confused:

Ich habe die Karte 2 Wochen mit dem Referenz-Lüfter in Betrieb gehabt... wenn man den Rechner einschaltet, ist er ohrenbetäubend laut, was sich nach etwa 3sec erledigt hat. Danach hört man ihn nicht mehr... ganz egal, wie stark und wie lange die Karte belastet wurde. Habe sie testweise mit dem RT auf 40% hoch drehen lassen und das Geräusch war nicht nur hörbar, sondern deutlich zu laut.

Das was Du hier abziehst... Lüfterstärken mit 50% und mehr in Ton gefasst und dieses vollkommen unsinnige, äusserst dümmliche Gerede über "early adopteurs" und sonstigen Quatsch, ist einfach nur dumpfes rungetrolle.

Ich kann Dir ja mal einen Tischventilator ans Ohr halten... vielleicht hörst Du den dann ja auch ein "fiepen".

Kritik ist wie immer erwünscht, das, was Du hier abziehst, ist keine und kann weg... direkt auf den Müll.
Wäre also nett, wenn Du das unterlassen würdest...
Danke.

Razor

P.S.: noch etwas... würdest Du die Bilder
a) kleiner machen oder
b) sie einfach nur verlinken?
(gerne auch eine Kombo aus beiden)

Diese Mega-fetten Bilder sehen nicht nur stümperhaft aus, nein, sie stören auch extrem beim Lesen... mochmals danke.

Razor
2007-12-06, 20:02:16
Erzeugt dieses Tool immer noch die meiste GPU Abwärme? :)
Hat es noch nie und tut es auch heute nicht... ;)

Laut Tomshardware schaft Oblivion das auch, bessonders die Vegetation lässt den G92 ganz schön ins schwitzen kommen aber es ist klar die GPU ist so gut wie nie unter 100%
So ein Unsinn... stundelang Oblivion haben überhaupt keinen Effekt gehabt.
Mit den Referenzlüfter lag sie bei 91°, wie auch bei allen anderen 'anstrengenden' Anwendungen...
...hörbar wurde der Lüfter dadurch nicht.

Also noch einmal: dieses theoretische Gelaber kannst Du Dir hier bitte schenken... sollte die automatische Lüftersteuerung bei Dir reproduzierbar "Unpäßlichkeiten" verursachen, möchte ich dies gerne in diesem Thread sehen... ansonsten trolle bitte weiter in den anderen Threads, wo Du das schon so schön hinbekommen hast.

Danke.

Razor

Andre
2007-12-06, 20:29:03
Also ich bin entäuscht oder habe ein Montagsmodell erwischt.
Habe die Palit Sonic, sogar mit eigenem Kühler und die dreht schon nach 5 Minuten Crysis ordentlich auf. Idle ist der Lüfter unhörbar mit 750 rpm, aber sobald ich zocke gehts auf 1200 rpm aufwärts rauf und das ist richtig hörbar. Muss ich noch irgendwas einstellen oder so? Die GPU wird unter Last nur 60-70 Grad warm, aber trotzdem haut der Lüfter richtig rein.
Also ich bin unzufrieden.

-/\-CruNcher-/\-
2007-12-06, 20:29:12
@Razor
Bitte komm endlich mal runter ich weiss nicht wie oft ich es noch sagen soll ich bin kein Troll und ich bashe hier auch nicht sondern mache hier nur Feststellungen und werde auch versuchen Lösungen zu finden um diese Probleme zu beheben.

http://www.tomshardware.com/de/Geforce-8800GT-Dauertest,testberichte-239870-3.html

So und nun stell dir vor du stehst dort wo 227 Watt bei 49dB erzeugt werden für eine Längere Zeit mit 29% festeingestellter Lüftersteuerung, was würde wohl passieren?, vor allem das ist ein offener Testaufbau und über 40% also 2000 rpm sind keine seltenheit und wenn der Lüfter dann einen Hochfrequenten Ton erzeugt ist das nun mal extrem störend, wenn du die Karte gern dauerhaft auf 90°C betreiben willst von mir aus nur ist das einfach zu heavy (alle Hersteller ändern momentan das Bios und die Lüftersteuerung um das beim Referenzdesign in den Griff zu bekommen, dadurch wird sie aber nun mal Lauter)
Im Sommer wird die Karte oder der PC bei einigen extrem laut werden die werden dann um eine neue Kühlung betteln (und bei Leuten wie mir mit Midi Tower ist dieses Problem schon jetzt vorhanden und es müssen Lösungen ran am Besten keine die viel Geld erfordern und die Gesamtlautstärke nicht erhöhen der Accellero S1 kommt erst als Notlösung zum Einsatz ich hab da noch eine andere idee ;) ) (deshalb EOLen viele AIBs das Referenzdesign so schnell wie möglich) und gerade das ist ein Bonus der Powercolor HD3850 PCS allerdings werd ich mir das noch anhören bin ja immernoch beim 8800GT testen und hab noch einiges vor mir ;). Nvidia hat nicht umsonst bei der 8800GTS (G92 112SP) einen neuen (alten) 2 slot Kühler im Refernzdesign gepäck (es war einfach unmöglich darauf zu verzichten und an die Grenze zu fahren an der sich das 8800GT Referenzdesign befindet (dieser wäre aber auch dort dringenst nötig gewesen), bei dem wurde es in Kauf genommen da auch nicht viele von Anfang an Produziert werden sollten um schon sehr früh von den AIB Designs abgelöst zu werden, also werden sich auch die Verluste durch spätere Reklamationen in Grenzen halten) :)

LovesuckZ
2007-12-06, 20:35:14
Also ich bin entäuscht oder habe ein Montagsmodell erwischt.
Habe die Palit Sonic, sogar mit eigenem Kühler und die dreht schon nach 5 Minuten Crysis ordentlich auf. Idle ist der Lüfter unhörbar mit 750 rpm, aber sobald ich zocke gehts auf 1200 rpm aufwärts rauf und das ist richtig hörbar. Muss ich noch irgendwas einstellen oder so? Die GPU wird unter Last nur 60-70 Grad warm, aber trotzdem haut der Lüfter richtig rein.
Also ich bin unzufrieden.

Das liegt an der Karte.
Schonmal probiert den Lüfter über nTune/Rivatuner zu regeln?

Andre
2007-12-06, 20:37:45
Das liegt an der Karte.
Schonmal probiert den Lüfter über nTune/Rivatuner zu regeln?

Joa, aber ist doch nicht Sinn der Sache. Kann doch nicht sein, dass meine GT schon bei 60 Grad auf 1200rpm geht.

LovesuckZ
2007-12-06, 20:38:31
So und nun stell dir vor du stehst dort wo 227 Watt bei 49dB erzeugt werden für eine Längere Zeit mit 29% festeingestellter Lüftersteuerung, was würde wohl passieren?, vor allem das ist ein offener Testaufbau und über 40% also 2000 rpm sind keine seltenheit und wenn der Lüfter dann ein Hochfrequenten Ton erzeugt ist das nun mal extrem störend.

Hast du eine Karte?
Ab 40% wird die Karte ohne Hintergrundgeräusche hörbar. In Spielen wird das nie auffallen.
Und warum sollte man die Karte mit 29% im Dauerbetrieb laufen lassen? :confused:

Joa, aber ist doch nicht Sinn der Sache. Kann doch nicht sein, dass meine GT schon bei 60 Grad auf 1200rpm geht.

Das ist ein Problem deines Herstellers. Bei dem Referenzdesign wird erst ab 92° geregelt.

Razor
2007-12-06, 20:44:37
@Razor
Bitte komm endlich mal runter ich weiss nicht wie oft ich es noch sagen soll ich bin kein Troll und ich bashe hier auch nicht sondern mache hier nur Feststellungen und werde auch versuchen Lösungen zu finden um diese Probleme zu beheben.
Eine Lösung für theoretische Überlegungen braucht es nicht.
Punkt.

Wie würdest Du das sonst nennen, was Du hier abziehst?
Erfahrung?
:confused:

Wohl kaum...

http://www.tomshardware.com/de/Geforce-8800GT-Dauertest,testberichte-239870-3.html

So und nun stell dir vor du stehst dort wo 227 Watt bei 49dB erzeugt werden für eine Längere Zeit mit 29% festeingestellter Lüftersteuerung, was würde wohl passieren?.
Was ist denn das nun wieder für ein weiterer Dünnfug?

Dieser vollkommene DAU-Test wurde doch nun schon des öfteren für absurd erklärt...
...aber Dir reicht es ja wohl nicht.

Wieviel Sinn macht es noch gleich, den Kopf in den Rechner zu stecken und damit das Ohr ziemlich genau 10cm an die Karte zu bringen?
Gar keinen?
Gut...

...denn das, was da 'getestet' wurde, geht nämlich gar nicht... oder hast Du schon mal versucht, den Kopf... sorry, nur das Ohr genau an den Boden des Gehäuses zu bringen (mit der Muschel nach oben natürlich ;-), um die Position zu erreichen, die das Mikrofon da bei THG eingenommen hat? Vermutlich ja... :rolleyes:

Und wenn Du Dir mal gaaaaanz am Schluß das Mausklicken angehört hast, dann müsstest Du doch eigentlich zu dem Schluss kommen: "Boah ey! Wat für 'ne Monster-Maus! Ist das vielleicht Scheiße!"... also bitte.

Wie gesagt, mit ernstgemeinten Erfahrungen und Anmerkungen bist Du hier gerne willkommen.
Das, was Du hier aber machst ist reines rumgetrolle und hat nichts damit zu tun...

Unterlaß das also bitte.
Danke.

Razor

Razor
2007-12-06, 20:54:25
@Andre

Das tut mir ja nun leid für Dich.
Die Palit ist die mit dem "custom cooler", right?

Da scheint der blau eloxierte ALU-Kühler ja nicht besonders leise...
...ist er denn wenigstens effektiv?
(OK, hast Du schon beantwortet)

Wäre nett, wenn Du hier ein Photo der Karte rein stellen könntest, damit die Leutz hier wissen, wovon Du sprichst.

Razor

P.S.: habe hier zwei kleine von Alternate 'geliehen':
(links "Super", rechts "Sonic"... die PCBs sehen unetrschiedlich aus)

http://www.alternate.de/pix/prodpic/450x450/j/jbxhl2.jpg http://www.alternate.de/pix/prodpic/450x450/j/jbxhl3.jpg

Andre
2007-12-06, 21:00:22
Das ist die hier:

http://geizhals.at/a296624.html

Ja der Fan ist super, aber leider fängt er schon bei 54 Grad an, auf 40 % zu gehen. Die geht morgen direkt wieder zurück, die Scheiß Karte. Sorry, aber ich bin stinksauer. Da kaufste ne Karte, die nen extra leisen Kühler haben soll und dann so ein Murks.

Razor
2007-12-06, 21:03:37
...Karte, die nen extra leisen Kühler haben soll...
Na ja... soweit ich weiß, gab es noch keinen Test zu der Karte.
Aber hat INQ nicht irgendetwas von 29,5db geschrieben?
Mir persönlich wäre das noch zu laut...

Razor

AnarchX
2007-12-06, 21:08:01
Das ist natürlich Schade mit der Palit.
Wie sieht es denn mit dem Herunterregeln via Rivatuner aus?

Will sich Palit wohl damit rühmen, dass sie die kühlste 8800 GT haben:
http://www.hardwarezone.com/articles/view.php?id=2428&cid=3&pg=11
:|

Gast
2007-12-06, 21:08:40
meine palit super ist heute auch angekommen.

der lüfter ist idle unhörbar und unter volllast absolut nicht störend, mein cpu-kühler macht da mehr lärm.
die termperaturen liegen auch im grünen bereich: etwa 70°C nach 30min crysis. übertakten lässt sich das schätzchen auch gut, habe 720/1850/1050 erreicht.

hier noch ein bild:

[img=http://srv021.%=srvName %>/20071206210545729_nzbrjgkitp.jpg] (http://pixpack.net/show/20071206210545729/nzbrjgkitp)

scheint auch 3 phasen zu haben ;)

Dr.Dirt
2007-12-06, 21:38:34
Pulswellenmodulation
Pulsweitenmodulation :rolleyes:

Andre
2007-12-06, 22:26:48
Also ich glaub ja langsam, dass meine Karte defekt ist/war. Die Signalqualität der Karte war auch schon so komisch. Alles so unscharf und irgendwie seltsam. Jetzt wo ich die 8600GTS wieder din habe, ist alles paletti. Nee, das Dingen geht morgen zurück und fertig. Man kann nicht immer Glück haben.

-/\-CruNcher-/\-
2007-12-06, 22:37:26
Meine Tests bassieren auf Atitool nicht auf Spiele nur mal vorab also die maximale Belastung (508 Gflop) der GPU die möglich ist und bei Oblivion scheint die an manchen stellen dem ebenbürtig.
Werde aber natürlich noch das verhalten bei Spielen aufzeichnen aber ich kann mir nicht vorstellen das die 40% dort nicht erreicht werden sollten wie das hier einige aus ihrer Erfahrung schildern, bei einem Midi Tower System wie meinem ist das sehr unwahrscheinlich. Denke mal das ist eine Erklärung wieso hier unsere Ansichten so ausseinanderdriften. Im idle ist die GPU momentan bei 71°C

@Dr.Dirt
Ja danke für die Verbesserung, weiss garnicht wie ich auf den Medizinischen Begriff gekommen bin :D

Andre
2007-12-07, 00:10:53
Nochmal ne Frage:
Ein User im HWluxx schreibt folgendes:

"So habe heute auch die Palit in der Sonic OC-Variante bekommen (650/1625/950 Mhz).

Der Kühler ist schon besser, als das Standarddesign, welches ich vorher hatte.

Vorher Idle Temps 53 Grad mit 29% Lüfter - Last Temps 82 Grad (dann ca. 60% Lüfterdrehzahl und gut hörbar) mit Standardtaktraten 600/1500/900 Mhz.

Die Palit hat Idle 46 Grad mit 33% Lüfterdrehzahl und unter Last 65 Grad mit 53% Lüfterdrehzahl (hab die Umdrehung automatisch smooth mit an) - erst über 50% wird sie in meinem PC hörbar."

Jetzt bin ich erstaunt, vor allem folgender Satz:

"Vorher Idle Temps 53 Grad mit 29% Lüfter - Last Temps 82 Grad (dann ca. 60% Lüfterdrehzahl und gut hörbar)"

Heißt das, dass auch die Referenzkarten bei 82 Grad auf 60 % des Lüfters gehen? Wenn ja, wie kann man dann sagen, dass die GT leise sein soll?
60 % des Lüfters, das ist für mich richtig laut.
Also kann mal bitte jemand mir erklären, was Sache ist?

Schrotti
2007-12-07, 00:15:22
Wenn ich die Werte sehe dann wird mir heiß.

Gut, das ich auf meine Zotac nen VF900 gesetzt habe.

Idle ~ 38-40°C und unter Vollast ~ 58-60°C.

Gast
2007-12-07, 00:24:51
Wenn ich die Werte sehe dann wird mir heiß.

Gut, das ich auf meine Zotac nen VF900 gesetzt habe.

Idle ~ 38-40°C und unter Vollast ~ 58-60°C.

Und was genau hat dir das gebracht, außer das du xx Euro in den Sand setzen durftest??

vinacis_vivids
2007-12-07, 00:55:57
Wenn ich die Werte sehe dann wird mir heiß.

Gut, das ich auf meine Zotac nen VF900 gesetzt habe.

Idle ~ 38-40°C und unter Vollast ~ 58-60°C.

Bessere OC Ergebnisse oder nur zur Wärmereduzierung?

Schrotti
2007-12-07, 03:55:35
Die Karte habe ich nicht übertaktet.

Aber wartet mal ab wenn es wieder Sommer wird.

Razor
2007-12-07, 10:17:11
...mein cpu-kühler macht da mehr lärm.
Dann ist er zu laut...
:D

hier noch ein bild:
[img=http://srv021.%=srvName %>/20071206210545729_nzbrjgkitp.jpg] (http://pixpack.net/show/20071206210545729/nzbrjgkitp)
scheint auch 3 phasen zu haben ;)
Oder sie haben beide nur 2... ;)
Hast Du das Foto selber gemacht?
Schau' mal auf meine beiden der vorherigen Seite... da ist eindeutig ein Unterschied zwaischen "Super" und "Sonic" zu erkennen.
Dein Foto sieht mehr wie das einer "Sonic" aus...

Also ich glaub ja langsam, dass meine Karte defekt ist/war. Die Signalqualität der Karte war auch schon so komisch. Alles so unscharf und irgendwie seltsam. Jetzt wo ich die 8600GTS wieder din habe, ist alles paletti. Nee, das Dingen geht morgen zurück und fertig. Man kann nicht immer Glück haben.
Das mit der Unschärfe kann mit der derzeitigen Einstellung deines TFT/Monitors zusammen hängen...
(hatte jemand anderes im Hardware-Hilfeforum auch schon mal, kam von ATI auf 88GT)

Aber wenn Du generell ein schlechtes Gefühl hast, würde ich auf jeden Fall das FAG in Anspruch nehmen!
Dafür ist es schließlich da...

...aber ich kann mir nicht vorstellen das die 40% dort nicht erreicht werden sollten wie das hier einige aus ihrer Erfahrung schildern
Hier hat noch NIEMAND von automatischen 40% mit dem Referenz-Kühler berichtet...
...ist nur wieder Deine Einbildung.

Und soll ich Dir wirklich den Unterschied von eigenen und fremden Erfahrungen verdeutlichen?
Du liest offenbar zuviel im HWL-Forum... scheint abzufärben.

Und was genau hat dir das gebracht, außer das du xx Euro in den Sand setzen durftest??
Ich kann nicht für Schrotti sprechen... aber mir hat es ein "gutes Gefühl" gebracht.
Und etwas gekostet haben mich eigentlich nur die RAM-Kühler für etwa 4€.

Aber wartet mal ab wenn es wieder Sommer wird.
Auch dann wird der Referenz-Kühler noch vollkommen reichen.

Razor

Grestorn
2007-12-07, 10:33:58
P.S.: habe hier zwei kleine von Alternate 'geliehen':
:| :mad: :down:!!!!

Razor
2007-12-07, 10:40:12
:| :mad: :down:!!!!
Ist das nicht sogar ein Grund für einen temporären Bann?
:confused:

Wenn Du also so gut wärest, Deinen Ausbruch zu erklären?
Danke.

Razor

Grestorn
2007-12-07, 10:57:16
Ist das nicht sogar ein Grund für einen temporären Bann?
:confused:

Wenn Du also so gut wärest, Deinen Ausbruch zu erklären?
Danke.

Das Fernabsatzgesetz auszunutzen um sich mehrere Modelle "auszuleihen" und ausführlich auszuprobieren halte ich für ziemlich daneben.

-/\-CruNcher-/\-
2007-12-07, 11:06:15
Hier hat noch NIEMAND von automatischen 40% mit dem Referenz-Kühler berichtet...
...ist nur wieder Deine Einbildung.

Und soll ich Dir wirklich den Unterschied von eigenen und fremden Erfahrungen verdeutlichen?
Du liest offenbar zuviel im HWL-Forum... scheint abzufärben.

Razor

Also unter Atitool Belastung brauch meine 8800GT min 50% (mit angepasster lüftersteuerung ansonsten 70% mit der standard lüftersteuerung) um die 90°C im Miditower zu halten. Dein System hab ich nunmal nicht es ist schwachsinn wenn du es nur aus deiner Sicht der Dinge betrachtest und viele im Hwluxx forum berichten das gleiche. Atitool ist nunmal die Referenz zum Testen da man dort mit aussreichend Reserven sein System (seine Gesamtkühlung) optimiert und so bestens für den Sommer gerüstet ist jede Verbesserung dort ist eine überproportionale Verbesserung im gesamten Kühlungsverhältniss der GT. Die meisten Reviews die man liest werden in offenen Testaufbauten gemacht das ist absolut nicht vergleichbar mit unterschiedlichen Systemaufbauten, Nvidia hat deswegen ja sogar OEM systeme Geprüft um sicher zu gehen das diese ein aussreichendes Kühlungsverhältniss für die GT bieten.
Mein (X2 4200+ 2.2GHZ Toledo @ 5400+ 2.8GHZ) Miditower (AeroCool) bassiert komplett auf Air Cooling (120 und 80mm) und ist sehr leise selbst bei Extremer Belastung (Netzteil Be Quiet Dark Power Pro) und das möchte ich auch gern so beibehalten.

http://s2.directupload.net/images/071207/dp3ni537.png

Andre
2007-12-07, 11:06:42
Noch ne Frage:
Musste ja gestern wegen der GT auf den 169er Treiber gehen - kann es sein, dass Quake3 dann Probleme macht? Ich sehe in den Himmeltexturen schwarze Ränder?! Liegt eindeutig am Treiber, denn wenn ich den 169er auf der 8600GTS installiere, habe ich dasselbe Problem. Nehme ich den 163.75 ist alles ok. Hat hier wer nich Q3 installiert? :D

Ich werd mal folgendes machen:
Ich behalte die Karte übers WE und schaue mal, ob ich den Lüfter nicht auf 35 % fest lassen kann. Denn dann war er wirklich unhörbar. Sollte dem so sein, behalte ich die Karte. Andernfalls geht sie Montag zu Alternate zurück.

marsbiker
2007-12-07, 11:26:50
Habe seit gestern auch eine Palit 8800GT Sonic - und mein Lüfter verhält sich ähnlich. Beim Hochfahren 3 Sekunden lang unerträglich. Dann fast unhörbar und unter Last relativ laut. Mit offenem Gehäuse und ohne Kopfhörer recht nervig. Aber wenn ich zocke will ich eh keine Stille ;)
Temperatur 65 Grad unter rthdribl - was belastenderes habe ich noch nicht gefunden.
btw. der Takt ist laut mehrerer Tools 648/1620/950 (nicht 1650 wie bei Alternate stand - ist das ein Grund sie zurückzuschicken?) Komischerweise liest der Rivatuner die Lüfterdrehzahl immer als 100%, irgendwas mache ich sicher falsch...
Sonst bis jetzt keine Probleme, kein matschiges bild oder so (am DVI).
Falls das irgendwen interessieren sollte: Die Karte läuft unter Linux mit dem nv-treiber (der nvidia-beta-treiber ist nicht in Debian)
Das Foto von Razor stimmt mit meiner Karte überein (sorry, keine digicam). Die Sonic hat demnach wohl 3 Phasen... Die Karte schaut aber auch EXAKT wie die "Super" von Gast ;) aus. Was ist eigentlich dieser "fehlende" Chip links neben dem großen Kühlkörper: http://pixpack.net/show/20071206210545729/nzbrjgkitp
@Grestorn: ich hab das so verstanden, dass er die Bilder ausgeliehen hat, aber ich kann mich täuschen ;)

Andre
2007-12-07, 11:42:58
Habe seit gestern auch eine Palit 8800GT Sonic - und mein Lüfter verhält sich ähnlich. Beim Hochfahren 3 Sekunden lang unerträglich. Dann fast unhörbar und unter Last relativ laut. Mit offenem Gehäuse und ohne Kopfhörer recht nervig. Aber wenn ich zocke will ich eh keine Stille ;)
Temperatur 65 Grad unter rthdribl - was belastenderes habe ich noch nicht gefunden.
btw. der Takt ist laut mehrerer Tools 648/1620/950 (nicht 1650 wie bei Alternate stand - ist das ein Grund sie zurückzuschicken?) Komischerweise liest der Rivatuner die Lüfterdrehzahl immer als 100%, irgendwas mache ich sicher falsch...
Sonst bis jetzt keine Probleme, kein matschiges bild oder so (am DVI).
Falls das irgendwen interessieren sollte: Die Karte läuft unter Linux mit dem nv-treiber (der nvidia-beta-treiber ist nicht in Debian)
Das Foto von Razor stimmt mit meiner Karte überein (sorry, keine digicam). Die Sonic hat demnach wohl 3 Phasen... Die Karte schaut aber auch EXAKT wie die "Super" von Gast ;) aus. Was ist eigentlich dieser "fehlende" Chip links neben dem großen Kühlkörper: http://pixpack.net/show/20071206210545729/nzbrjgkitp
@Grestorn: ich hab das so verstanden, dass er die Bilder ausgeliehen hat, aber ich kann mich täuschen ;)

Also ist es wahrscheinlich so, dass Palit bei der Sonic die Lüftersteuerung modifiziert hat. Denn bei der Super scheint der Lüfter nicht so schnell aufzudrehen, bei uns beiden mit der Sonic allerdings schon. Kiene Ahnung warum?! Wie gesagt, ich setze heute abend mal den Lüfter auf Fix 35 % und gucke mal, was passiert.

Gast
2007-12-07, 12:08:07
@Razor: ja, das foto habe ich selber gemacht. und ich habe zumindest eine "super" bestellt und den preis dafür gezahlt ;)

Gast
2007-12-07, 12:11:55
Das Fernabsatzgesetz auszunutzen um sich mehrere Modelle "auszuleihen" und ausführlich auszuprobieren halte ich für ziemlich daneben.

Ich glaube Razor ging es nur um das verlinke Foto.

Grestorn
2007-12-07, 12:45:21
@Grestorn: ich hab das so verstanden, dass er die Bilder ausgeliehen hat, aber ich kann mich täuschen ;)

Ok, dann hab ich mich nur blamiert und ihr könnt meine Beiträge hier geflissentlich ignorieren... :redface:

Schrotti
2007-12-07, 19:26:26
Also unter Atitool Belastung brauch meine 8800GT min 50% (mit angepasster lüftersteuerung ansonsten 70% mit der standard lüftersteuerung) um die 90°C im Miditower zu halten. Dein System hab ich nunmal nicht es ist schwachsinn wenn du es nur aus deiner Sicht der Dinge betrachtest und viele im Hwluxx forum berichten das gleiche. Atitool ist nunmal die Referenz zum Testen da man dort mit aussreichend Reserven sein System (seine Gesamtkühlung) optimiert und so bestens für den Sommer gerüstet ist jede Verbesserung dort ist eine überproportionale Verbesserung im gesamten Kühlungsverhältniss der GT. Die meisten Reviews die man liest werden in offenen Testaufbauten gemacht das ist absolut nicht vergleichbar mit unterschiedlichen Systemaufbauten, Nvidia hat deswegen ja sogar OEM systeme Geprüft um sicher zu gehen das diese ein aussreichendes Kühlungsverhältniss für die GT bieten.
Mein (X2 4200+ 2.2GHZ Toledo @ 5400+ 2.8GHZ) Miditower (AeroCool) bassiert komplett auf Air Cooling (120 und 80mm) und ist sehr leise selbst bei Extremer Belastung (Netzteil Be Quiet Dark Power Pro) und das möchte ich auch gern so beibehalten.

http://s2.directupload.net/images/071207/dp3ni537.png

Ich habe auch nur einen Miditower (3x90er Papst die vorne reinsaugen und 2x 90er Papst die hinten rauspusten + das Enermax Netzteil).

Das ganze ist flüster leise und schau meine Temperaturen mit dem VF900-cu an @5V (nicht hörbar).

http://www.abload.de/img/8800gtr6h.png (http://www.abload.de/image.php?img=8800gtr6h.png)

PS: Meine CPU ist auch kräftig übertaktet (2,0GHz -> 3,33GHz).

Razor
2007-12-07, 20:15:39
Das Fernabsatzgesetz auszunutzen um sich mehrere Modelle "auszuleihen" und ausführlich auszuprobieren halte ich für ziemlich daneben.
Ich auch...

@Razor: ja, das foto habe ich selber gemacht. und ich habe zumindest eine "super" bestellt und den preis dafür gezahlt ;)
Das wäre natürlich ein Hammer!
Aber ich vermute mal, dass Du die Takte schon überprüft hast, gelle?
;)

@Cruncher

Das HWL-Forum ist mir ja gleich mal so etwas von Wurscht...
Und wer seine Hardware 'anpasst' und sich dann wundert, dass es nicht so läuft, wie es soll, der tut mir einfach nur leid.

Musste ja gestern wegen der GT auf den 169er Treiber gehen - kann es sein, dass Quake3 dann Probleme macht? Ich sehe in den Himmeltexturen schwarze Ränder?! Liegt eindeutig am Treiber, denn wenn ich den 169er auf der 8600GTS installiere, habe ich dasselbe Problem. Nehme ich den 163.75 ist alles ok. Hat hier wer nich Q3 installiert?
Joah!
:D

Mit allen Treiber-Einstellungen, die die ForceWares so hergeben... ;)

Aber ich finde, dass dort eigentlich alles 'normal' aussieht:
http://www.abload.de/thumb/16913_q3_shot0000u5j.jpg (http://www.abload.de/image.php?img=16913_q3_shot0000u5j.jpg)

Oder nicht?
:confused:

Temperatur 65 Grad unter rthdribl - was belastenderes habe ich noch nicht gefunden.
Nimm mal Stalker oder noch besser Crysis GPU-Bench im Dauerloop...

btw. der Takt ist laut mehrerer Tools 648/1620/950 (nicht 1650 wie bei Alternate stand - ist das ein Grund sie zurückzuschicken?)

Würde ich nicht tun... also nicht wegen dem Takt.
Denn der ist absolut korrekt, wenn man das von nVidia vorgegebene Verhältnis von ROP-zu-Shader-Domain nicht verändert:

http://www.abload.de/thumb/16913_ocvals_650-9506mp.png (http://www.abload.de/image.php?img=16913_ocvals_650-9506mp.png)

Alles in Butter... GPU-Z gibt auch die Werte aus, die alle Hersteller angeben, wenn auf 650MHz getaktet wird (wie bei der GTS im übrigen auch ;-).

Das Foto von Razor stimmt mit meiner Karte überein (sorry, keine digicam). Die Sonic hat demnach wohl 3 Phasen... Die Karte schaut aber auch EXAKT wie die "Super" von Gast ;) aus.
Wie jetzt?

Ich habe 2 'Fotos' (von Alternate ;-) gepostet: links "Super", rechts "Sonic".
Ich meine da einen Unterschied zu erkennen... aber wie gesagt, ich hatte noch keine der beiden Karten in Händen!
(und werde das wohl auch nicht *grmpf*)

Razor

Gast
2007-12-07, 21:24:40
Dürfte ich kurz stören und fragen was das für ein Programm ist das die Temps. anzeigt?

Gast
2007-12-07, 21:26:55
Also das hier: http://s2.directupload.net/images/071207/dp3ni537.png

RoNsOn Xs
2007-12-07, 21:37:39
"Everest Home Edition"

TheBrother
2007-12-07, 22:00:41
Hi,

Ich hab heute meine 2 8800GTS (G92) bekommen - vielleicht kann man ja den Thread erweitern?

Positiv:

-Lautstärke
-Extrem hoch übertaktbar (mit wakü sicher über 800 Mhz)
-Stromverbrauch

Negativ:

-Speicherbandbreite, aber geht schon irgendwie ;)
-... more to come

http://www.abload.de/img/oleegtsoleey0s.jpg (http://www.abload.de/image.php?img=oleegtsoleey0s.jpg)

LovesuckZ
2007-12-07, 22:03:56
Hast du vergleichswerte beim Stromverbrauch?
Könntest du mal gucken, ob hinten als "Phasenplätze" besetzt sind?

TheBrother
2007-12-07, 22:15:32
Könntest du mal gucken, ob hinten als "Phasenplätze" besetzt sind?

Phasenplätze???

Ich hab ein paar Bilder vorher gemacht - sind aber leider recht unscharf geworden. Nach was soll ich denn ausschau halten?


Ps: Weis jemand ob die 8800GT-Waküblöcke passen?

Gruß

Brother

Merlin
2007-12-07, 22:30:27
hi

für die jungs die möchten in bios selbst konfigurieren

http://merlin.slang-in-use.de/Fotos/8800GT%20ver%201.0%2007-12-2007.png

mfg
Merlin

-/\-CruNcher-/\-
2007-12-07, 22:32:53
Ich habe auch nur einen Miditower (3x90er Papst die vorne reinsaugen und 2x 90er Papst die hinten rauspusten + das Enermax Netzteil).

Das ganze ist flüster leise und schau meine Temperaturen mit dem VF900-cu an @5V (nicht hörbar).

http://www.abload.de/img/8800gtr6h.png (http://www.abload.de/image.php?img=8800gtr6h.png)

PS: Meine CPU ist auch kräftig übertaktet (2,0GHz -> 3,33GHz).


Naja also wenn dann kommt nur ein Accellero S1 in Frage da der momentan das Preisgünstigste ist was man kriegen kann 35,89 ist ein bischen heftig für den VF900 für die Leistung da ist der Accellero S1 die Wirtschaftlich- und zudem Effektivere und als Bonus sogar noch leisere Lösung (Nachteil: Sie erfordert mehr Platz), gerade deshalb finde ich es dumm von Nvidia bei soetwas wie der Kühlung zu sparen, besonders bei solch einem Chip mindestens der Lüfter der GTS G92 hätte auch hier drauf gehört.
Die ganzen non Reference Boards der AIB zeigen wie man es richtig macht und die Liefern gleich eine bessere effektivere Kühllösung mit und meistens billiger als wie wir Otto normal dafür bezahlen würden wenn wir das gleiche auf die Referenz Boards nachrüsten, besonders für die aua die schon 300€ für die Karte allein ausgegeben haben denen wird es allerdings sicher eh egal sein.
Die die Warten haben es einfach besser, wobei ich genau bei dem Preis mit meiner GT und dem Accellero S1 jetzt wäre den jemand momentan für die Gainward GLH zahlen müsste aber das auch nur durch riesen Glück und vieleicht standhaftigkeit und nicht 500.000 Bestellungen tätigen ;) , von daher wäre es kein wirklicher wirtschaftlicher Verlust nur etwas Zeit die ich investieren müsste.
Aber ich strenge mein Hirn lieber selber erstmal an um einen anderen noch wirtschaftlicheren Weg zu finden (Personal kann ich hier nicht entlassen b.z.w. outsourcen ;) ) die ausreichende Kühlung der 8800GT zu realisieren und das mit Mitteln die man erstmal selbst zur Verfügung hat b.z.w eine Alternative die für meine Zwecke ausreichend und am Wirtschaftlichsten erscheint.
Die Anpassung der Lüftersteuerung war da der erste Weg und hat auch nichts weiter gekostet.
Die Anhebung des Luftstroms im Gehäuse ist z.b. eine Möglichkeit nur resultiert das dann wiederum in einer höheren Lautstärke des Gesamtsystems. Vorteile resultieren auch meistens wieder in einem oder mehreren Nachteilen. Ein Nachteil können auch die höheren Kosten für Lüfter sein die Silent geschimpft werden, da muss man immer Gegenrechnungen aufstellen was im Endeffekt wirtschaftlicher für einen selbst ist (Kostenleistungsrechnung), daher kommt deine Lösung Schrotti aus Kosten und der gegenüber gestellten Leistung für mich erstmal nicht in betracht aber denoch danke ich dir für den Hinweis.

Hast du vergleichswerte beim Stromverbrauch?
Könntest du mal gucken, ob hinten als "Phasenplätze" besetzt sind?

Ja es sind 3 Phasen für die GPU es ist im Prinzip das selbe PCB wie bei der GT nur eben mit verstärktem Netzteil durch die 1 Phase mehr, das war auch irgendwie abzusehen, ist einfach günstiger 1 PCB für beide Karten auf Masse zu produzieren als wie 2 unterschiedliche Produktionen Parallel laufen zu lassen. Es wäre auch günstiger einfach nur die restlichen cluster des G92 via Bios zu deaktivieren als wie mit dem Laser zu cutten, besonders wegen dem verfrühten Start haben sie sich ja vieleicht doch für eine Softwaredeaktivierung entschieden *träum*.

Gast
2007-12-07, 23:36:20
Es wäre auch günstiger einfach nur die restlichen cluster des G92 via Bios zu deaktivieren als wie mit dem Laser zu cutten, besonders wegen dem verfrühten Start haben sie sich ja vieleicht doch für eine Softwaredeaktivierung entschieden *träum*.
Das bezweifel ich.
Die Jungs von XS oder ähnlichem hätten das schon herausgefunden und verbreitet.

-/\-CruNcher-/\-
2007-12-07, 23:42:33
Naja Central hat das Bios schon erfolgreich auf die 8800GT geflashed allerdings mit mässigem Erfolg (unstabil), es läuft aber auf der GT das ist schonmal nicht schlecht (aber auch nicht verwunderlich) :)
das ist vorerst das Ergebniss

8800GT G92 geflashed mit GTS G92 Bios
http://www.abload.de/img/gtgtsqhj.jpg

marsbiker
2007-12-08, 08:59:56
Ich habe 2 'Fotos' (von Alternate ;-) gepostet: links "Super", rechts "Sonic".
Ich meine da einen Unterschied zu erkennen... aber wie gesagt, ich hatte noch keine der beiden Karten in Händen!
(und werde das wohl auch nicht *grmpf*)

Danke erstmal für die Hinweise.
Ich meinte: ich habe die Karte, die auf den Alternate-Fotos die Sonic ist. Kann aber keinen Unterschied zu dem Foto der "angeblichen" Super (http://pixpack.net/show/20071206210545729/nzbrjgkitp) - die wohl eine Sonic ist?

Razor
2007-12-08, 09:41:38
...finde ich es dumm von Nvidia bei soetwas wie der Kühlung zu sparen, besonders bei solch einem Chip mindestens der Lüfter der GTS G92 hätte auch hier drauf gehört.
Preisunterschied GTS512 zu GT512: 100$
Wer hätte den 'teureren' Lüfter bezahlen sollen... nVidia?
Was hätten die OEMs zu einem DualSlot-Lüfter in der Performance-Klasse gesagt?

Sorry, aber das ist unfug.

Die ganzen non Reference Boards der AIB zeigen wie man es richtig macht und die Liefern gleich eine bessere effektivere Kühllösung mit...
Und nochmal falsch.

Die Kühllösung von Palit z.Bsp. ist zwar effektiver, aber (unter Last) auch sehr viel lauter und damit unangenehm.
Insofern heißt es hier schon mal: effektiver, aber nicht 'besser'.

8800GT G92 geflashed mit GTS G92 Bios
http://www.abload.de/img/gtgtsqhj.jpg
Suuuuuupa!
:uclap:

Und ich möchte dich
NOCHMALS DARUM BITTEN
hier KEINE allgemeinen Diskussionen zu führen.
Ist das wirklich nur der anspruch des permanenten Trollens, was Dich antreibt, oder merkst Du das nicht einmal?

Ich danke Dir, für den Fall, dass Du Dich in Deinem Anspruch wonaders austobst.

Razor

Andre
2007-12-08, 11:16:53
So, also mal ein kleines Update von mir:
Ich hab jetzt die Lüfterdrehzahl fix auf 40 % gestellt, was bei mir mit dem größeren Lüfter ca. 850 rpm sind. Bei 45 % höre ich den Lüfter ganz leicht, bei 40 % ist er definitiv nicht mehr raushörbar. Nach 1 Stunde Crysis war die Temperatur bei ca. 72 Grad, also noch vollkommen unbedenklich. Ich denke, damit kann ich leben und die Performance ist schon geil. Hab fast den doppelten Speed zu meiner 8600GTS und kann the Witcher auf 1400x1050 mit 16 AF und 4xSSAA zocken. Krass sieht das aus, echt. Crysis spiele ich auf 1400x1050 mit 2xAF ohne AA alles auf high und hab laut Bench so 33-34 FPS im Schnitt.
im 3DMark 2006 habe ich ca. 9500 Punkte, allerdings habe ich auch einen unübertakteten E6400 (also auf 2,1 GHZ) - ich denke der Score geht so in Ordnung, oder?
Also ich kann nach der anfänglichen Unzufriedenheit nicht klagen!

Ach, äh Razor:
Der Bug tritt nur bei bestimmten Maps auf - z.B. bei den CTF Maps WCP9/WCP18. Ich kann dir ja mal so ne Map hochladen, wenn du willst.

Hier mal ein Screen:

http://mon0.de/Krams/quake3%202007-12-08%2011-19-38-48.jpg

AnarchX
2007-12-08, 11:26:46
@ Andre
Das klingt ja ziemlich gut und somit bleibt wohl die Palit Super/Sonic weiterhin eine attraktive Karte.

Hast du schon OCing versucht?
3 Phasen für die GPU und ein Dual-Slot-Kühler, lassen hier doch ein entsprechendes Potential vermuten oder?;)

Andre
2007-12-08, 11:45:21
@ Andre
Das klingt ja ziemlich gut und somit bleibt wohl die Palit Super/Sonic weiterhin eine attraktive Karte.

Hast du schon OCing versucht?
3 Phasen für die GPU und ein Dual-Slot-Kühler, lassen hier doch ein entsprechendes Potential vermuten oder?;)

Hi,

also die Sonic, die ich habe, ist ja ab Werk auf 650/950 übertaktet. Mehr habe ich noch nicht probiert, weil ich erstmal mit dem Lüftereinstellungen spielen wollte. Nochwas zu den Temps: Idle knappe 48 Grad, unter Last maximal 75 Grad. Wie gesagt, Lüfter fix auf 40 %.

M2-Master
2007-12-08, 12:13:04
So, also mal ein kleines Update von mir:
Ich hab jetzt die Lüfterdrehzahl fix auf 40 % gestellt, was bei mir mit dem größeren Lüfter ca. 850 rpm sind. Bei 45 % höre ich den Lüfter ganz leicht, bei 40 % ist er definitiv nicht mehr raushörbar. Nach 1 Stunde Crysis war die Temperatur bei ca. 72 Grad, also noch vollkommen unbedenklich. Ich denke, damit kann ich leben und die Performance ist schon geil. Hab fast den doppelten Speed zu meiner 8600GTS und kann the Witcher auf 1400x1050 mit 16 AF und 4xSSAA zocken. Krass sieht das aus, echt. Crysis spiele ich auf 1400x1050 mit 2xAF ohne AA alles auf high und hab laut Bench so 33-34 FPS im Schnitt.
im 3DMark 2006 habe ich ca. 9500 Punkte, allerdings habe ich auch einen unübertakteten E6400 (also auf 2,1 GHZ) - ich denke der Score geht so in Ordnung, oder?
Also ich kann nach der anfänglichen Unzufriedenheit nicht klagen!


Hey danke für die guten Infos über die Sonic! Ich bekomme diese Karte wahrscheinlich am Dienstag, deshalb wollte ich fragen wie du die Lüfterdrehzahl verändert hast, über ein mitgeliefertes Tool oder z.B. Rivatuner ?

Merlin
2007-12-08, 12:23:49
das ist final man kann jetzt beliebig lüfter einstellen
es wurde seher genau überbrüft die register code , ich wünscher viel spass
ps
sorry für mein schlechte german

EVGA 8800GT 62.92.A1.00.00 (http://merlin.slang-in-use.de/Nvidia/EVGA 8800GT 62.92.A1.00.00.rar)
EVGA 8800GT SC 62.92.A1.00.00 (http://merlin.slang-in-use.de/Nvidia/EVGA 8800GT SC 62.92.A1.00.00.rar)
EVGA 8800GT KO 62.92.A1.00.00 (http://merlin.slang-in-use.de/Nvidia/EVGA 8800GT KO 62.92.A1.00.00.rar)
EVGA 8800GT SSC 62.92.A1.00.00 (http://merlin.slang-in-use.de/Nvidia/EVGA 8800GT SSC 62.92.A1.00.00.rar)

EVGA 8800GT SSC SE 62.92.A1.00.00 Inoficiel (http://merlin.slang-in-use.de/Nvidia/EVGA 8800GT SSC SE 62.92.A1.00.00.rar)


http://merlin.slang-in-use.de/Fotos/8800GT%20ver%201.1A%2008-12-2007.png
http://merlin.slang-in-use.de/Fotos/8800GT%20ver%201.1B%2008-12-2007.png

mfg
Merlin

Razor
2007-12-08, 15:27:19
Also ich kann nach der anfänglichen Unzufriedenheit nicht klagen!
:up:

Und Dein Murs06-Score dürfte klar gehen.

Der Bug tritt nur bei bestimmten Maps auf - z.B. bei den CTF Maps WCP9/WCP18. Ich kann dir ja mal so ne Map hochladen, wenn du willst.
Wenn Du magst, gerne.

Razor

-/\-CruNcher-/\-
2007-12-08, 20:37:18
So Referenzkarte ist nun auch bei ASUS EOL die verbauen nur noch ihren Glaciator auch auf der non OC Version (MSI sollte auch bald nachziehen)

AIBs Referenzkarten (Kühllüng) EOL (4 Wochen nach Release)
XFX (PV-T88P-YDQ4)
Leadtek (8800 GTB)
Gigabyte
Asus (keine neue SKU läuft unter der alten weiter (lottospiel))



Und nochmal falsch.

Die Kühllösung von Palit z.Bsp. ist zwar effektiver, aber (unter Last) auch sehr viel lauter und damit unangenehm.
Insofern heißt es hier schon mal: effektiver, aber nicht 'besser'.


Das was du behauptest ist einfach falsch nur weil Palit die Lüftersteuerung etwas falsch eingestellt hat bedeutet dies nicht das ihr Kühlungskonzept lauter ist, es muss einfach dem System entsprechend angepasst werden, nur weil du keine Ahnung von solchen dingen hast musst du Nvidia ihr Kühlsystem nicht so in den Himmel loben es ist einfach nicht so effiezient wie die ganzen AIB Designs jedes AIB non Referenzdesign mit einem bessern Lüfter ist effizienter und leiser als wie das normale Referenzdesign was wir als early adopter haben.

Adam D.
2007-12-08, 21:07:48
Eine kleine Frage, ich will nur ganz sicher sein: passt der VF900-Cu auf die 8800GT? Bin mir nur 99,9% sicher ;)

Rebell
2007-12-08, 21:10:11
jo passt

LovesuckZ
2007-12-08, 21:56:52
Das was du behauptest ist einfach falsch nur weil Palit die Lüftersteuerung etwas falsch eingestellt hat bedeutet dies nicht das ihr Kühlungskonzept lauter ist, es muss einfach dem System entsprechend angepasst werden, nur weil du keine Ahnung von solchen dingen hast musst du Nvidia ihr Kühlsystem nicht so in den Himmel loben es ist einfach nicht so effiezient wie die ganzen AIB Designs jedes AIB non Referenzdesign mit einem bessern Lüfter ist effizienter und leiser als wie das normale Referenzdesign was wir als early adopter haben.

Du hast keine Karte, also halte doch einfach deinen Mund.
Das Kühlsystem von nVidia ist vollkommen in Ordnung. Kein Plan, was dein Hass dagegen entstanden hat.
Und wenn wir die Herstellerlösungen vergleichen, hat nur Leadtek die bessere Kühlung, da weiterhin Single-Slot. Ausserdem sollte man nicht vergessen, dass nVidia den AIBs bei den 8800GT anscheinend freie Natur lässt, wie sie ihre Karten anpassen. Das war bei den 8800GTS und GTX nicht so.

-/\-CruNcher-/\-
2007-12-08, 22:24:47
Du hast keine Karte, also halte doch einfach deinen Mund.
Das Kühlsystem von nVidia ist vollkommen in Ordnung. Kein Plan, was dein Hass dagegen entstanden hat.
Und wenn wir die Herstellerlösungen vergleichen, hat nur Leadtek die bessere Kühlung, da weiterhin Single-Slot. Ausserdem sollte man nicht vergessen, dass nVidia den AIBs bei den 8800GT anscheinend freie Natur lässt, wie sie ihre Karten anpassen. Das war bei den 8800GTS und GTX nicht so.

Naja Physikalisch gesehen ist es logisch das Palit ihr Lüfter leiser sein dürfte wenn er richtig eingestellt wird da die Fläche größer ist genauso wie die neuen Lüfter auf den Referenzkarten die ersten übrigens die von Anfang an diesen Mini lüfter mit max 4500 rpm (den man übrigens auch ersetzen kann wenn man weis wie) nicht wollten war Zotac für ihre AMP da kam er garnicht in Frage und Gigabyte hatte schon lange vor realease ihren PCB Prototypen mit VF900 fertig der auch auf der HD3850/70 AIB version zum Einsatz kommen wird.
Später sind dann auch Asus, XFX und Leadtek nachgezogen da diese größeren Lüfter einen entscheidenden Vorteil mit sich bringen sie sind leiser alle von ihnen, wenn sie richtig eingestellt werden.
Der schnellste AIB in meinen Augen mit einem non Referenzdesign der es auch super schnell in den Handel gebracht hat war Powercolor(TUL) mit ihrer 3850 PCS und Zerotherm Kühler + eigenem PCB (stabileres Netzteil, bessere Kühlung,besserer Samsung Speicher, sehr gute Übertaktung bis hin zu HD3870 stock speed, fairer Preis das einzige minus sie haben sich keine Zeit für die optimale Lüfterkonfiguration genommen) und dazu noch 512mb das war sofort die 2 Woche nach dem Start erhältlich. Diese Leistung sollte mal gewürdigt werden auch wenn es mit den ganzen 8800GT nichts zu tun hat ist das schon, wenn man mit den anderen Firmen mal vergleicht eine enorme Leistung (die man im Nvidia Lager vergeblich gesucht hat bis jetzt auf Palit und Asus). Selbst Asus (RV670) und die anderen (Gecube,Sapphire) brauchen viel länger um mit den Karten auf den Markt zu kommen z.b. Gigabyte ihr non Referenzdesign das schon so lange vorher vorgestellt wurde hat immernoch nicht das Licht der Welt erblickt weder die RV670 noch die G92 Version :)

Und LovesuckZ anfangs war ich ja der Meinung das Nvidia da eine sehr effektive 1 Slot Kühlung entwickelt hat, kannst du auch nachlesen hier im Forum und bis auf den Lüfter ist das auch so der Kühlkörper an sich ist Top (allerdings hätte der auch gerne aus Vollkupfer sein können wie bei der HD3850) viel besser als wie der auf der HD3870 (der ist etwas zu klein geraten trotz Vollkupfer) nur der Lüfter der Referenzdesgin 8800GT V1 ist einfach mies und mich wundert es das sie nicht gleich von Anfang an den größeren verbaut haben (der auf Referenzdesign V2 nun zum Einsatz kommt, damit geben sie diesen Fehler quasi zu) aber wie gesagt Early Adopter sind und bleiben Betatester das ist so und wird immer so bleiben. Die müssen nun mit diesem Mini Lüfter leben oder für etwas mehr Geld ihre Garantie über Board schmeisen oder wenn sie Geeks sind und das 1 Slot Design beibehalten möchten einfach den kleinen raus und nen großen rein (Garantie geht dann natürlich trotzdem verloren, vor allem wenn man das Plastik zurechtschneidet aber das 1 Slot Design bleibt *g*) ;). Persönlich habe ich mich für die Letzte Variante entschieden da ich das 1 Slot Design Klasse finde (GTS Kühler wär mir ehrlichgesagt lieber gewesen bei dem Alu aufbau), werde ich den Lüfter umbauen (logisch weil auch kostengünstiger da ich alles hier hab was gebraucht wird ;)) es sei den ich entscheide mich (im Zuge meines Self Reviews) doch noch für die HD3850 PCS :D :)

Gast
2007-12-08, 22:33:01
Das LovesuckZ noch kein Mod wegen seiner Ausdrucksweise gebannt oder gemahnt hat, wundert mich. Da sind schon ganz andere gesperrt worden. Absolut gar kein Anstand und Ausdrucksweise.

LovesuckZ
2007-12-08, 23:09:45
Naja Physikalisch gesehen ist es logisch das Palit ihr Lüfter leiser sein dürfte wenn er richtig eingestellt wird da die Fläche größer ist genauso wie die neuen Lüfter auf den Referenzkarten die ersten übrigens die von Anfang an diesen Mini lüfter mit max 4500 rpm (den man übrigens auch ersetzen kann wenn man weis wie) nicht wollten war Zotac für ihre AMP da kam er garnicht in Frage und Gigabyte hatte schon lange vor realease ihren PCB Prototypen mit VF900 fertig der auch auf der HD3850/70 AIB version zum Einsatz kommen wird.
Später sind dann auch Asus, XFX und Leadtek nachgezogen da diese größeren Lüfter einen entscheidenden Vorteil mit sich bringen sie sind leiser alle von ihnen, wenn sie richtig eingestellt werden.
Der schnellste AIB in meinen Augen mit einem non Referenzdesign der es auch super schnell in den Handel gebracht hat war Powercolor(TUL) mit ihrer 3850 PCS und Zerotherm Kühler + eigenem PCB (stabileres Netzteil, bessere Kühlung,besserer Samsung Speicher, sehr gute Übertaktung bis hin zu HD3870 stock speed, fairer Preis, das einzige minus sie haben sich keine Zeit für die optimale Lüfterkonfiguration genommen) und dazu noch 512mb das war sofort die 2 Woche nach dem Start erhältlich, diese Leistung sollte mal gewürdigt werden auch wenn es mit den ganzen 8800GT nichts zu tun hat ist das schon eine enorme Leistung wenn man mit den anderen Firmen vergleicht (die man im Nvidia Lager vergeblich gesucht hat bis jetzt auf Palit und Asus), selbst Asus (RV670) und die anderen (Gecube,Sapphire) brauchen viel länger Gigabyte ihr non Referenzdesign das schon so lange vorher vorgestellt wurde hat immernoch nicht das Licht der Welt erblickt weder die RV670 noch die G92 Version :)

:???:
Was willst du sagen? nVidia erlaubt den AIBs anscheinend jetzt erst eigene Boards und Kühllösungen. Für nVidia ging es nur schnell und billig auf dem Markt zu sein.


Und LovesuckZ anfangs war ich ja der Meinung kannst du auch nachlesen hier im Forum das Nvidia da eine sehr effektive 1 Slot Kühlung entwickelt hat und bis auf den Lüfter ist das auch so der Kühlkörper an sich ist Top viel besser als wie der auf der HD3870 oder HD3850 nur der Lüfter ist einfach mies und mich wundert es das sie nicht gleich von Anfang an den größeren Verbaut haben (der auf Referenzdesign V2 nun zum Einsatz kommt, damit geben sie diesen Fehler quasi zu)

Es gibt keine neue Version - lies einfach die Fudzilla-Nachricht dazu.


aber wie gesagt Early Adopter sind und bleiben Betatester das ist so und wird immer so bleiben, die müssen nun mit diesem Mini Lüfter leben oder für etwas mehr Geld ihre Garantie über Board schmeisen oder wenn sie Geeks sind und das 1 Slot Design beibehalten möchten einfach den kleinen raus und nen großen rein (Garantie geht dann natürlich trotzdem verloren, vor allem wenn man das Plastik zurechtschneidet) ;). Persönlich habe ich mich für die Letzte Variante entschieden da ich das 1 Slot Design Klasse finde werde ich den Lüfter umbauen :)

Niemand musste die Karte kaufen. Und jeder wusste, wie laut der Lüfter ist.

-/\-CruNcher-/\-
2007-12-08, 23:51:10
:???:
Was willst du sagen? nVidia erlaubt den AIBs anscheinend jetzt erst eigene Boards und Kühllösungen. Für nVidia ging es nur schnell und billig auf dem Markt zu sein.



Es gibt keine neue Version - lies einfach die Fudzilla-Nachricht dazu.



Niemand musste die Karte kaufen. Und jeder wusste, wie laut der Lüfter ist.

1. Richtig erst werden die Referenzdesigns verkauft (Nvidia gibt ja auch den Auftrag für die Produktion an Foxcon (PCB) und jeder AIB klatscht sein Logo drauf und oder flashed die Geschwindigkeit die er gerne verkaufen würde, andere lassen einfach das Nvidia Logo drauf ist billiger als wie so nen dummen aufkleber erstmal zu designen und dann auch noch in masse produzieren zu lassen ;)) danach dürfen die echten AIBs ran, so scheint es bei Nvidia gelaufen zu sein beim Verfrühten start.

2. Du glaubst doch nicht im Ernst das was überall geschrieben wird sicher wird kein AIB zugeben das das ein neues Referenzdesign ist, gute AIBs bauen eh selber ihre Karten und XFX,EVGA,BFG und Leadtek gehören für mich nicht zu etwas was ich gut (innovativ) nenen würde im AIB GFX bereich (das sind Nvidia Reseller mit Community support mehr aber auch nicht und die können Karten flashen ich fass es nicht ach ja und klauen bei Merlin seine Assembler Lüftersteurungsoptimierungen *g*) :D

3. Stimmt nicht ganz die Reviews befassen sich damit alle in offenen Testaufbauten in geschlossenen Systemen sieht das alles ein wenig anders aus aber zugegeben der PCGH test hat in etwa schon vorher gezeigt auf was man sich einlässt, trotzdem hat er sich nicht intensiv damit befast man sieht nur sehr schnell einen offenen Testaufbau mit Rivatuner und dann theoretisch was passiert wenn aber keinen praktischen Test in einem normal laufendem System unter normalen und weniger normalen Bedingungen (nicht genügend Luftstrom). Anhand von dB werten zu eraten wie laut etwas scheint ist bei den anderen Reviews auch nicht so pralle, da es verschieden Faktoren gibt die das beinflussen können wie ich dazu schon sagte nervt mich dieser Hochfrequente Ton dieses Mini Lüfters z.b. tierisch wenn er aufdreht das hab ich vorher nirgends gelesen geschweige den gehört, ausserdem war der PCGH test nicht sofort für Otto normal zugänglich (ohne zahlendes PCGH Mitglied zu sein) erst weitaus später wurde er es.

LovesuckZ
2007-12-09, 01:48:08
1. Richtig erst werden die Referenzdesigns verkauft (Nvidia gibt ja auch den Auftrag für die Produktion an Foxcon (PCB) und jeder AIB klatscht sein Logo drauf und oder flashed die Geschwindigkeit die er gerne verkaufen würde, andere lassen einfach das Nvidia Logo drauf ist billiger als wie so nen dummen aufkleber erstmal zu designen und dann auch noch in masse produzieren zu lassen ;)) danach dürfen die echten AIBs ran, so scheint es bei Nvidia gelaufen zu sein beim Verfrühten start.

Verfrühter Start? :rolleyes:


2. Du glaubst doch nicht im Ernst das was überall geschrieben wird sicher wird kein AIB zugeben das das ein neues Referenzdesign ist, gute AIBs bauen eh selber ihre Karten und XFX,EVGA,BFG und Leadtek gehören für mich nicht zu etwas was ich gut (innovativ) nenen würde im AIB GFX bereich (das sind Nvidia Reseller mit Community support mehr aber auch nicht und die können Karten flashen ich fass es nicht ach ja und klauen bei Merlin seine Assembler Lüftersteurungsoptimierungen *g*) :D

Es ist keine neue Referenz sondern nur eine verbesserte Kühlung von Leadtek.


3. Stimmt nicht ganz die Reviews befassen sich damit alle in offenen Testaufbauten in geschlossenen Systemen sieht das alles ein wenig anders aus aber zugegeben der PCGH test hat in etwa schon vorher gezeigt auf was man sich einlässt, trotzdem hat er sich nicht intensiv damit befast man sieht nur sehr schnell einen offenen Testaufbau mit Rivatuner und dann theoretisch was passiert wenn aber keinen praktischen Test in einem normal laufendem System unter normalen und weniger normalen Bedingungen (nicht genügend Luftstrom). Anhand von dB werten zu eraten wie laut etwas scheint ist bei den anderen Reviews auch nicht so pralle, da es verschieden Faktoren gibt die das beinflussen können wie ich dazu schon sagte nervt mich dieser Hochfrequente Ton dieses Mini Lüfters z.b. tierisch wenn er aufdreht das hab ich vorher nirgends gelesen geschweige den gehört, ausserdem war der PCGH test nicht sofort für Otto normal zugänglich (ohne zahlendes PCGH Mitglied zu sein) erst weitaus später wurde er es.

Wie laut die Kühlung in der Realität ist, liest man aus den Beiträgen von Usern, die die Karte besitzen. Da du nicht dazu gehörst, kannst du die Kühlung überhaupt nicht bewerten.

Razor
2007-12-09, 10:15:00
@Love

"Don't feed the trolls!"
;)

Cruncher hat es einfach nicht verstanden... entweder ist er wirklich zu doof dazu oder aber hat irgendwie mitbekommen, dass die Mods offenbar überhuapt nicht mehr eingreifen, wenn jemand so dermaßen offensichtlich rum trollt und versucht, hier wirklich präzise formulierte Thread-Themen kaputt zu machen.

Ich würde an Deiner stelle auf diesen Müll vom "Thread-Cruncher" einfach nicht mehr eingehen.

Razor

-/\-CruNcher-/\-
2007-12-09, 12:45:51
@Razor
Es tut mir leid wenn das ganze etwas Offtopic entgliten ist das war sicher nicht meine Absicht aber mich als doof zu bezeichnen ist nicht die feine englische art, aber ich merk schon du bist sauer deswegen akzeptier ich das und werd versuchen mich zu zügeln.
Es ging hier anfangs um die Erfahrungen die ich mit der 8800GT (und besonders mit dem Lüfter) gerade mache und mir das einfach nicht geglaubt wird (und da poste ich sogar beweise in form von audio aufzeichnungen die ich selber gemacht hab) und dann auch noch von allen ecken als Troll beschimpft zu werden das lass ich nicht auf mir sitzen. Dies ist dein Thread ich akzeptier das und halte nun die Klappe als nächstes werde ich halt meinen eigenen eröffnen der sich speziel dann mit diesem Thema befassen wird und das näher beleuchtet als wie es andere im Vorfeld eben getan haben. Hier werde ich darauf nun nicht weiter eingehen und LovesuckZ lass uns diese Diskussion bitte wo anders führen ich will nicht daran schuld sein wenn Razor uns hier wegen einem Herzklabaster noch umfällt, ich werd mich jetzt hier auch nicht dazu äussern was LovesuckZ geschrieben hat keine sorge Razor ;)

Razor
2007-12-09, 18:11:08
...als nächstes werde ich halt meinen eigenen eröffnen der sich speziel dann mit diesem Thema befassen wird...
Danke.

Razor

Gast
2007-12-10, 14:48:28
Sehr schön, wenn jemand etwas an einer Lösung von NV auszusetzen hat wird er einfach aus dem Thread geeckelt.

Das war berechtigte Kritik!


Das war jetzt echtes Getrolle!

-/\-CruNcher-/\-
2007-12-10, 14:52:36
Wie heist es doch so schön "Bilder sagen mehr als tausend Worte" nach dem Extremebelastungstest (Atitool) nunmal etwas "Realitätsnahe Tests" hab gestern Prey durchgespielt mit der MSI 8800GT OC (Standard 12.00.04er Bios) hier ein paar impressionen aus diesem Test :)

Prey:

4AA/8AF 1680x1050 (Engine Settings)

http://s2.directupload.net/images/071210/tt9u6pue.png
http://s3.directupload.net/images/071210/dfpvcsd2.png
http://s5.directupload.net/images/071210/xvpqx54l.png
http://s5.directupload.net/images/071210/x6iufpzs.png
http://s5.directupload.net/images/071210/rtpyw7b9.png (AVG: 40FPS, MIN: 30FPS, MAX 60FPS(vsync) )
http://s2.directupload.net/images/071210/a6egsbws.png (Extremes Banding)
http://s1.directupload.net/images/071210/e3etr8tn.png
http://s1.directupload.net/images/071210/4i3zpu7t.png
http://s2.directupload.net/images/071210/x335fhll.png
http://s5.directupload.net/images/071210/zqfp76qr.png
http://s1.directupload.net/images/071210/w6bkjjcg.png
http://s4.directupload.net/images/071210/rah4i2zk.png (400mb Video Memory consumed in 6-7 stunden)



Und ich kann sagen den Test hat die 8800GT mit Bravour bestanden (was das Spielgefühl angeht) absolut geniales Spielgefühl die Framerate ist nur ganz selten unter 60FPS gesunken und auch nur wie es scheint bei Szenen die sehr Shaderlastig waren (könnte ein Vorteil des RV670 werden). Was mir IQ mässig sofort aufgefallen ist ist extremes Banding in Farb und Lichtverläufen, Nvidia Treiber (169.09 auf Standard settings Qualität), mal schauen wie sich der RV670 und Catalyst da schlagen was diese uralt Problematik der Displaytechnik angeht ;).
Allerdings wenn die GPU mal für eine gewisse Zeit über 90°C lief (der Lüfter es nicht schnell genug kompensieren konnte zu lange anlaufzeit von 30% auf etwas höheres wie 50%) kamm es zu hängern im Spiel (anscheinend wurde VPU Recover aktiv) nach ca 1 minute ging es dann weiter der Lüfter drehte in diesen Situationen dann mit 2000 rpm (interessant es scheint eine dynamische Overheating Protection zu sein im Prinzip wird das Spiel (GPU?) angehalten sodas sich die GPU erholen kann und dann wird es fortgesetzt wenn die Temperatur unter die 90°C fällt, nehme mal an es ist GPU throttling da dies aber erst bei 100°C aktiv werden sollte wundert es mich schon etwas, das gleiche ist allerdings auch mit Atitool zu beobachten). Zu solchen vorfällen wird es sicherlich nicht mit den neuen Biosen und deren Lüftersteuerungseinstellungen kommen, aber man muss ganz klar sagen alle Reviews sind hinfällig was Lautstärke im normalen Betrieb angeht (waren sie eh schon alle da offene Testaufbauten) da hier zu gunsten der Temperatur Modifiziert wurde das solche Hänger nicht mehr auftretten, bei den AIbs und Nvidia scheint man sich also ganz klar bewusst zu sein das die 8800GT mit dem 1 Slot Kühler am Rande des Wahnsinns läuft (und das alles nur um 1 Tick vor AMD/ATI zu landen?). Deswegen verwundert es auch nicht das die AIBs so schnell es geht das Referenzdesign EOLen *speku* ;)
Mann muss hier ganz klar für sich selbst entscheiden was besser (Leiser ist) ein neues Bios das unter garantie den Lüfter viel schneller aufdrehen wird beim Referenzdesign oder eine aussreichende Case Belüftung die aber wiederum den Geräuschpegel steigert, wie gesagt muss jeder für sich selbst entscheiden was ihm da eher liegt (kann dazu nur sagen das ich Objektiv den Nvidia Mini Lüfter unerträglich finde wenn er sich hochschaltet und das aber auch nur wegen seinem Hochfrequenten fiepen,heulen,piepen wie auch immer man es nenen soll (am besten selber anhören http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6086717#post6086717), bei 40% geht es gerade so noch beim Spielen mit Kopfhörern ist es aber wurscht da bekommt man das fiepen nicht mit, eher dann die Luftgeräusche über 40%).

Im übrigen gibt es ein neues Bios für die MSI Karte (die Lüftersteuerung wird wohl angepasst worden sein werd ich noch testen) :)

Alt = 62.92.12.00.04 MSINV801MS.320
Neu = 62.92.16.00.04 MSINV117MS.144

Allerdings war das mit offenem Gehäuse, mit geschlosenem Gehäuse sind es 10°C mehr Temperatur im Idle da wäre es sicher lauter geworden (aber der Test mit geringem Luftstrom kommt ja auch noch ;) )

Gegen Schluss war der Speicher der Karte bei 400mb angelangt

Fazit Prey (offenes System):
Pro:
+Durchweg Leiser Lüfter 1600 rpm (mit Standard Auslieferungsbios 62.92.12.00.04)
+Sehr schnelles Spielgefühl (Frames dropen fast nicht ausser bei sehr Shaderlastigen Szenen dann bis zu 50% (selten))
Con:
-Extremes Texture Banding (Auf 8 Bit Output -> schlechtes 10->8 Bit Post Processing b.z.w garkeins?)
-VPU Recover Situationen, bei längerer Zeit über 90°C spiel bleibt hängen kommt aber nach cooldown phase anscheinend wieder zurück (interessant)

PS: Banding b.z.w das 10->8 Bit Problem könnte man heutzutage sehr gut in den Griff bekommen in Games, mich wundert es etwas dieses Problem festzustellen es gibt schon sehr gute Post Processing Algorithmen die das verhindern könnnten. Diese würden auf der GPU laufend nicht sehr viel Power in Anspruch nehmen, bin da mal sehr gespannt auf die RV670 Ergebnisse (Catalyst) :).

Werde versuchen auch noch Videos (mit Synchronen Lüftergeräusch) von allen Tests zu liefern allerdings ist das garnicht so einfach bei 60FPS captureing wird es jedenfalls nicht diese Auflößung von fast 1080p.

Gast
2007-12-10, 15:54:38
Du hast keine Karte, also halte doch einfach deinen Mund.

ich werf mich weg...
selten so gelacht.
danke Lovesuckz, you made my day...

genau so schreibst du auch immer in den AMD/ATI treads irgendeinen stuß, obwohl du keine der karten hast.

ich finds einfach nurgeil, wenn jemand rumstänkert, aber selber genau so ist.

Gast
2007-12-10, 15:58:25
Was mir aufgefallen ist ist extremes Banding in Farb und Lichtverläufen, weiss nicht ob die Ursache eher mein LCD von LG (8Bit) ist oder es tatsächlich vom Nvidia Treiber (169.09 auf Standard settings Qualität) kommt,

hmm, das banding seh ich sogar auf deinen screenshots.
und das hier auf der arbeit in einer grafikschmiede.
ich denke mal das da die monitore nicht die schlechtesten sind

Rebell
2007-12-10, 16:00:16
Ich bin bisher mit meiner EVGA 8800GT Crysis Edition auch vollkommen zufrieden.

OC habe ich bisher nur bis 700/1750/950 getestet, v.a beim Speicher soll es in den Regionen um 1000 eh vermehrt zu Problemen kommen.

Im Windows läuft der Lüfter auf nicht hörbaren 30%, beim Zocken auf 60%.
Max Temp während 1Std Crysis: 74Grad

Vielleicht schraub ich mir noch einen anderen Lüfter drauf, mal sehen.. ist ja bei EVGA bezgl. Garantie kein Problem.

-/\-CruNcher-/\-
2007-12-11, 01:52:47
Kleiner Tip für alle die mit ihren alten Kisten Probleme haben insbesondere in der Auflößung 1680x1050 + sehr viele extras wie AA und AF sampling hier und sampling da, ich hab festgestellt das es sehr hilfreich sein kann 1440x900 bei der 8800GT zu verwenden diese Pixel Ersparnis hilft bei der Scene die oben beschrieben ist z.b den 50% MIN FPS Einbruch exzelent zu kompensieren (+30FPS) ohne wirklich sichtbaren unterschied in den wahrnembaren Details (HVS) (auch das TN Display scheint mit dieser Auflößung keine Interpolationsprobleme zu haben). Also für die echten smooth freaks würde ich das allen anderen Veränderungen die man machen kann vorziehen (natürlich kann man auch versuchen das mit mehr MHz auf der CPU seite zu kompensieren halte ich aber Persönlich für schwachsinnig, da eine CPU nicht dafür da ist die Geschwindigkeitsverluste einer GPU zu kompensieren, es soll ja umgekehrt sein GPU entlastet CPU) da es sehr einfach geht und wirklich der Unterschied nicht wahrnembar ist, könnte vor allem bei Crysis eine interessante alternative sein (muss ich noch testen). Ich bin gespannt ob sich hier so langsam das gleiche Ergebniss wie bei den anderen Reviews herauskristaliesiert also das die 8800GT probleme mit der Geschwindigkeit ab 1680x1050 im Vergleich zur HD3850/70 hat wird interessant werden stay tuned :) (momentan tendiere ich dazu das die höhere Shaderpower des RV670 einfach enorme Vorteile bringt wenn der Takt zum G92 hin ausbalanciert ist)

aths
2007-12-11, 02:55:48
OC habe ich bisher nur bis 700/1750/950 getestet, v.a beim Speicher soll es in den Regionen um 1000 eh vermehrt zu Problemen kommen.Ja, 1000 MHz sind ein Glücksspiel. Bei so vielen Speicherbausteinen ist die Wahrscheinlichkeit groß, dass mindestens einer die 1000 MHz nicht mitmacht.

Vielleicht schraub ich mir noch einen anderen Lüfter drauf, mal sehen.. ist ja bei EVGA bezgl. Garantie kein Problem.Alten Lüfter aufheben, da Hersteller im Garantiefall die Ware im Originalzustand haben wollen.

marsbiker
2007-12-11, 10:57:08
Also meine Palit Sonic (defaulttakt 650/1625/950) lief ein mehrere Stunden mit Bioshock stabil auf 700/1750/1050. Es hat also sicher nicht jede Karte ein Problem mit 1000 MHz Speichertakt.

übrigends: warum hat Palit die Karte heute als 650/1650/950 vorgestellt? (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/dezember/xpertvision_geforce_8800_gt_sonic/) es sind definitiv NICHT 1650

Schrotti
2007-12-11, 11:29:45
Also meine Palit Sonic (defaulttakt 650/1625/950) lief ein mehrere Stunden mit Bioshock stabil auf 700/1750/1050. Es hat also sicher nicht jede Karte ein Problem mit 1000 MHz Speichertakt.

übrigends: warum hat Palit die Karte heute als 650/1650/950 vorgestellt? (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/dezember/xpertvision_geforce_8800_gt_sonic/) es sind definitiv NICHT 1650

Auf der HP wird die Karte auch mit den Taktraten beworben.

http://www.palit.biz/main/vgapro.php?id=494#spec

ibo85
2007-12-11, 12:27:40
Eine kleine Frage, ich will nur ganz sicher sein: passt der VF900-Cu auf die 8800GT? Bin mir nur 99,9% sicher ;)
ist der VF900 eigentlich besser als der default? besser im sinne von temperatur & übertaktbarkeit.

Hakim
2007-12-11, 14:33:51
Ich bin bisher mit meiner EVGA 8800GT Crysis Edition auch vollkommen zufrieden.

OC habe ich bisher nur bis 700/1750/950 getestet, v.a beim Speicher soll es in den Regionen um 1000 eh vermehrt zu Problemen kommen.

Im Windows läuft der Lüfter auf nicht hörbaren 30%, beim Zocken auf 60%.
Max Temp während 1Std Crysis: 74Grad

Vielleicht schraub ich mir noch einen anderen Lüfter drauf, mal sehen.. ist ja bei EVGA bezgl. Garantie kein Problem.

Bei EVGA hast du die Stepup. Von daher bevor du anderen kühler montierst könntest du später stattdessen günstig eine GTS holen.

Rebell
2007-12-11, 16:00:04
Bei EVGA hast du die Stepup. Von daher bevor du anderen kühler montierst könntest du später stattdessen günstig eine GTS holen.

da zahl ich bestimmt ordentlich drauf. Muss man ja aus dem EVGA Shop kaufen, und wenn die GTS 350 kostet, und ich hab 259 gezahlt, zahl ich für bisschen mehr Leisung 100€. Mach ich mit Sicherheit nicht.

Also bis 720/1800/950 geht meine Karte, mehr ist nicht drin, auch nicht beim Speicher, evtl ginge noch etwas mehr Takt, wenn ich Shader und Core nicht gleichzeitig anhebe.. vielleicht probier ich das nach Lust und Laune noch aus.

Eine EVGA GTS mit 1GB für 300-320 würde ich vielleicht noch nehmen. Aber die GT reicht eigtl völlig. Zocke eh nur auf 1280x1024.

Hakim
2007-12-11, 16:07:14
da zahl ich bestimmt ordentlich drauf. Muss man ja aus dem EVGA Shop kaufen, und wenn die GTS 350 kostet, und ich hab 259 gezahlt, zahl ich für bisschen mehr Leisung 100€. Mach ich mit Sicherheit nicht.

Es muss nicht treuerer sein. Schau mal hier z.b http://3dfusion.de/forum/archive/index.php/t-14475.html

Soll günstiger gewesen sein als die Preise bei GH. Die GT soll ja auch normal 230-240 € kosten, geht aber derzeit für deutlich mehr über den Ladentisch. Ich warte einfach ab wie sich die preise entwickeln.

Eine EVGA GTS mit 1GB für 300-320 würde ich vielleicht noch nehmen.

Genau für sowas wäre es gut. Hoffen kann man ja.

Rebell
2007-12-11, 16:14:01
mal abwarten, ich hätte für meine auch keine 259€ bezahlt, aber war ja Crysis dabei. Somit war der Preis für die Karte völlig i.O meiner Meinung nach.

Aber so ein Accelero S1 würde mich schon noch reizen.

RoNsOn Xs
2007-12-11, 21:58:58
Frage:
Hab heute mal meine 88tt von xfx im rechner meines bruders getestet (media-markt rechner, P4 ~2,4Ghz HT).
Board keine Ahnung.

Lief alles Anstandslos, sogar mit nur 8A auf der 12V Schiene laut Netzteil.
Daraufhin hab ik den neusten Rivatuner installiert (2.06) + FW 163.13 mit Coolbits Tweak.
Im Rivatuner hatte ich gar keine Option zum clocken gegeben, nur nen Fan-speed-Control mit der ich regeln konnte.
Temperatur Idle: 47-48°C - 3Dmark05= max. 54°C
Und per Coolbits konnte ich die Takte verändern, jedoch bekam ich schon bei dem, geringsten versuch beim Testen einen error, das der takt nicht annehmbar wäre und windows neugestartet werden müsste mit auswahl von: Ok/Abbrechen.
Mit Neustart bekam ich aber auch keine anderen Taktraten.
Läuft da noch was verlehrt oder woran liegts?

Razor
2007-12-11, 23:15:08
Eine kleine Frage, ich will nur ganz sicher sein: passt der VF900-Cu auf die 8800GT? Bin mir nur 99,9% sicher ;)
Wus?
Hier gab es noch schon mehrere Bertichte von einem diesbezüglichen Umbau... meinem eingeschlossen.

Klar funzt das... zu 100%.

..88tt von xfx...
...FW 163.13...
Ist das Dein ernst?
:confused:

Oder meintest Du 8800GT mit 169.13?
Würde sehr viel mehr Sinn machen...

Und Du hast unter den "System Tweaks" als ersten Reiter den für "Fan"?
D.h. der eigentlich erste Reiter für "Overclocking" fehlt völlig?
Hmmm...

Und die "Coolbits" (nTune?) funktionieren meist nicht sonderlich prall, wenn der RT installiert ist. Und auch wenn Du das Mainboard nicht kennst, wäre zumindest das Betriebssystem noch recht interessant... und die Temps sind für den Standard-Kühler zu niedrig... Kühler modifiziert?

Vielleicht solltest Du einfach mal ein 'bischen' präziser werden...

Razor

seahawk
2007-12-12, 07:12:48
So gestern konnte ich dann auch endlich meine EVGA 8800 GT KO Edition in Betrieb nehmen. Der Wewrkskühler flog sofort runter und wurde gegen eine passive Lösung bei Spannungswandlern und RAM (wie bei Razor z.B.) ersetzt. Die Kühlung des Chips übernimmt nun ein Aquacompture Twinplex. Der NV-Treiber (169.02) meldet bei ntune max. 45°C nach 20 Min. ATI Tool. Im Idle 36°C - muss man mit anderen Tools auslesen, aber dazu komme ich erst heute abend.

Der Ersteindruch ist auf jeden Fall gut. Schön finde ich immern och die Option, dass man das gamme-korregiertere AA abschalten kann. BQ sieht sehr gut aus (welch Überraschung) zur alten 7800GT aus dem privaten Rechner.

RoNsOn Xs
2007-12-12, 13:37:04
Wus?
Hier gab es noch schon mehrere Bertichte von einem diesbezüglichen Umbau... meinem eingeschlossen.

Klar funzt das... zu 100%.


Ist das Dein ernst?
:confused:

Oder meintest Du 8800GT mit 169.13?
Würde sehr viel mehr Sinn machen...

Und Du hast unter den "System Tweaks" als ersten Reiter den für "Fan"?
D.h. der eigentlich erste Reiter für "Overclocking" fehlt völlig?
Hmmm...

Und die "Coolbits" (nTune?) funktionieren meist nicht sonderlich prall, wenn der RT installiert ist. Und auch wenn Du das Mainboard nicht kennst, wäre zumindest das Betriebssystem noch recht interessant... und die Temps sind für den Standard-Kühler zu niedrig... Kühler modifiziert?

Vielleicht solltest Du einfach mal ein 'bischen' präziser werden...

Razor

Okay sorry war gestern so aufgeregt und wollt die Frage nur noch reinklatschen =)

Nochmal:
8800 GT richtig, 169.13 korrekt. OS ist WinXP 32bit SP2.

zum RT: japp gleich unter "system settings" befindet sich nur der reiter "fan..."
habe mich auch übelst gewundert.
hier auf meinem jetzigen sys (zwar rivatuner 2.05) ist dies anders und habe dort 5 registerreiter, so wie ich denke es sein sollte (Overclocking, Fan, Compatibility, AGP, Overlay)
DIe Einstellungen für den Fan haben wunderbar gefunzt. Bis 45-50% emfpand ich ihn (subjektiv) schon sehr leise (offenes Gehäuse). Referenz-Kühlung.

Die Temperaturen wurden bei offenen Gehäuse (Mini-ATX) gemessen.
Alle 3 Programme lieferten identische Werte (Everest 2.20.405, das ControlPanel, sowie RT mit dem Hardware Monitor)

Das Collbits und RT sich in die Quere kommen denke ich nicht, denn hier läuft bei mir auch alles fröhlich und habe diesbezüglich auch noch nichts hören können.

Vllt ja jmd ähnliche Erfahrungen?

Adam D.
2007-12-12, 14:00:09
ist der VF900 eigentlich besser als der default? besser im sinne von temperatur & übertaktbarkeit.
Zwischen dem default und dem VF900 liegen Welten. Schau dir allein nur die Werte an, die Razor mit seinem VF700 erreicht hat. Damit kannst du die Temperaturen beinahe halbieren, dazu dürfte sich die Übertaktbarkeit deutlichst verbessern - genau deshalb hol ich in mir ja. Nicht zu vergessen, dass die Geräuschkulisse beinahe gleich bleibt.

aths
2007-12-12, 19:48:45
Der Ersteindruch ist auf jeden Fall gut. Schön finde ich immern och die Option, dass man das gamme-korregiertere AA abschalten kann. BQ sieht sehr gut aus (welch Überraschung) zur alten 7800GT aus dem privaten Rechner.Ja, wenn man das Gamma ingame stark aufdreht, sollte man diese Gamma-adjustierte Filterung abschalten.

Weitere Eindrücke der GF8-Architektur in meinem Posting zur 8600 GTS http://www.forum-3dcenter.org/vbulletin/showthread.php?t=392307 (etwa ab der Mitte.)

MartinRiggs
2007-12-12, 22:05:19
welcher ist den grade der beste und ausgereifteste Treiber für XP 32Bit, blicke bei NVs ganzen Beta-Treibern noch nicht wirklich durch und will gleich die 8800Gt einbauen.

aths
2007-12-12, 22:32:44
Immer die Fragen nach dem besten Treiber ...

Einfach den Treiber installieren den man ganz normal auf nvidia.com erhält.

MartinRiggs
2007-12-12, 23:20:04
Ja sorry, gibt doch wohl auch oft genug beta-treiber die nix taugen.
hab jetzt den 169.17 drauf der läuft ganz gut.
Bin aber sehr zufrieden mit der 8800GT, nach meinen Benches ist sie wirklich immer schneller als die HD3870 und manche Games laufen einfach irgendwie "smoother", empfinde ich zumindest subjektiv so

aths
2007-12-13, 02:38:07
Ja sorry, gibt doch wohl auch oft genug beta-treiber die nix taugen.
hab jetzt den 169.17 drauf der läuft ganz gut.
Bin aber sehr zufrieden mit der 8800GT, nach meinen Benches ist sie wirklich immer schneller als die HD3870 und manche Games laufen einfach irgendwie "smoother", empfinde ich zumindest subjektiv soDa du auch einen ausgereiften Treiber haben wolltest schließt das Beta-Treiber eigentlich aus.

seahawk
2007-12-13, 07:14:23
Ja, wenn man das Gamma ingame stark aufdreht, sollte man diese Gamma-adjustierte Filterung abschalten.

Weitere Eindrücke der GF8-Architektur in meinem Posting zur 8600 GTS http://www.forum-3dcenter.org/vbulletin/showthread.php?t=392307 (etwa ab der Mitte.)

Die meisten Eindrücke teile ich, auch wenn ich die 8800Gt habe und die an ner Wakü hängt. Ich mag die Kombination aus nicht gamma-optimierten AA + dem wunderbaren AF in der PRaxis wirklich sehr. :smile:

Razor
2007-12-13, 14:22:09
Ja, wenn man das Gamma ingame stark aufdreht...
Warum sollte man das tun?
:confused:

Da du auch einen ausgereiften Treiber haben wolltest schließt das Beta-Treiber eigentlich aus.
Na ja... findest Du, dass der eizig verfügbare WHQL für die 8800GT - der 169.02 - 'ausgereift' ist?
Ist noch ein Treiberele mit Crysis-Cheat... ähm... sorry, 'Bug'.

Der 169.17 oder auch der 169.13 zuvor ist absolut OK.

Der 169.21 WHQL RC ist hingegen großer Mist!
Würde mich nicht wundern, wenn dieser tatsächlich als WHQL released wird ;)

Razor

MartinRiggs
2007-12-13, 14:27:45
joh, der 169.17 ist bisher perfekt, zumindest ist mir nirgendwo ein Problem aufgefallen.
Ist echt krass wieviel Power die 8800GT hat, in einigen Spielen sieht die HD3870 schwer alt aus, in einigen tut sich nicht viel, allerdings ist immer die NV schneller.
Ist nach der Geforce 4 die erste NV die ich habe und ich bin begeistert:uup:
Und was ich eben bei Hardwareluxx (http://www.hardwareluxx.de/story.php?id=6701) lesen durfte ist auch genial, ich hab schon eine 8800GT mit neuem Referenzlüfter, minimal kühler aber dafür scheinbar immer leise:biggrin:

seahawk
2007-12-13, 14:43:33
Ist mit dem 169.13 das Hibernating/Sleep Problem weg ?

Adam D.
2007-12-13, 14:53:01
Ist mit dem 169.13 das Hibernating/Sleep Problem weg ?
Ja, ist es. Wurde AFAIK mit dem 169.09 gefixt (endlich - so ein scheiß Bug).

Gast
2007-12-13, 14:56:45
ich hab so ein seltsames problem (wenn es den einer ist). Bei mir sehen manchmal so schatten kachelig aus. Am besten sieht man das anhand von Gesichtern (crysis oder Colin Dirt nach dem rennen im auto). Woran kann das liegen? Ist net OC und treiber habe ich auch mehrere getestet.

Killeralf
2007-12-13, 15:33:23
joh, der 169.17 ist bisher perfekt, zumindest ist mir nirgendwo ein Problem aufgefallen.
Ist echt krass wieviel Power die 8800GT hat, in einigen Spielen sieht die HD3870 schwer alt aus, in einigen tut sich nicht viel, allerdings ist immer die NV schneller.

Bei welchen spielen bzw. einstellungen derselben (auflösung, AA, AF) sieht die 3870 alt aus? Wäre echt nett, wenn du das ein wenig ausführlicher beschreiben könntest, ich bin im moment auch schwer am überlegen, meine 1900XT zu ersetzen und bin da nach dem studieren diverser reviews eigentlich schon ziemlich auf die 3870 fixiert. Im moment möchte ich halt ganz einfach nicht mehr als maximal €200,- ausgeben und ich denke eine 8800GT wirds zu dem preis länger nicht geben (ein freund von mir hat letzte woche für seine GT €275,- bezahlt).

Snoopy69
2007-12-13, 18:06:12
Nimm lieber die neue GTS-512 (G92) :wink:
Hier ein Vergleich in HQ. Auf den CPU-Takt achten :wink:

http://www.forumdeluxx.de/forum/showpost.php?p=7726914&postcount=1923

http://www.forumdeluxx.de/forum/showpost.php?p=7729933&postcount=1931

Die GTS-G92 @ OC ist kurz hinter einer Ultra-G80 @ OC, aber über einer GTX-G80 @ OC

edit: Gehen jetzt :wink:

trollkopf
2007-12-13, 18:08:23
links bitte nochmal überarbeiten

HD-Ronny
2007-12-13, 18:20:10
So ich darf mich auch mal einreihen,meine PNY/Expertvision 8800GT Super ist angekommen,von alternate innerhalb 2Tagen.
Da ich mit meinen dell 2007WFP ausschliechlich 1680x1050 nutze war die Spannung bei mir gross ob die Karte wirklich was leistet in Auflösung.Will nicht lange herumreden,sie ist der Hammer ! Der verbaute Lüfter ist schön leise,da opfer ich gerne einen Slot. Crysis ist auf high in 1680x1050 ohne AA/AF tatsächlich spielbar! 30,25 fps average ,17,88pds min. Genial,und das auf default Taktraten. Jetzt bin stark am schwanken ob ich meine GTS von Amazon storniere...
http://i1.tinypic.com/6ol34ti.jpg

MartinRiggs
2007-12-13, 18:26:55
Bei welchen spielen bzw. einstellungen derselben (auflösung, AA, AF) sieht die 3870 alt aus? Wäre echt nett, wenn du das ein wenig ausführlicher beschreiben könntest, ich bin im moment auch schwer am überlegen, meine 1900XT zu ersetzen und bin da nach dem studieren diverser reviews eigentlich schon ziemlich auf die 3870 fixiert. Im moment möchte ich halt ganz einfach nicht mehr als maximal €200,- ausgeben und ich denke eine 8800GT wirds zu dem preis länger nicht geben (ein freund von mir hat letzte woche für seine GT €275,- bezahlt).

Alle Games in 1680x1050 und 4xAA/16xAF, außer Crysis(ohne AA/AF) und Stalker(nur AF)
Spiel HD3870 8800GT
HL2 - Lost Coast(AA/AF Ingame) 116,38 139,24
HL2 - Lost Coast(AA/AF CCC/NV CP) 110,55 163,21
CS:Source(AA/AF CCC/NV CP) 151,38 241,83
CS:Source(AA/AF Ingame) 163,22 247,11

Crysis Paradise Lost(Eislevel) Alles High außer Schatten und Postprocessing
HD3870 12-21(fällt oft unter 20 FPS)
8800GT 20-27(bleibt eigentlich immer über 20FPS)

Dazu kommt halt wirklich das subjektive Spielgefühl, bei der HD3870 hat es manchmal gestockt trotz ausreichend FPS, die 8800GT macht das nicht.
Natürlich muss ich die langen Spielesessions erst noch testen, aber ich denke nicht das sich die 8800GT da schlecht schlägt.
Und dann z.b. in GTA San Andreas kann man mit der 8800GT TSAA etc. anschalten so das es wirklich sahnig aussieht und noch spielbar ist.
Die HD3870 ist in Wäldern teilweise übel eingebrochen.
Ich vermute der Treiber spielt der HD3870 übel mit, aber da ich kein Bock hab auf nen besseren Treiber zu warten behalte ich erstmal die 8800GT, die HD3870 werde ich aber weiter beobachten weil mein Kumpel eine hat.

Killeralf
2007-12-13, 20:15:58
Super, dank dir vielmals! (Stalker-bench sehe ich aber keinen?)

Als CRT-benutzer bin ich nicht auflösungsgebunden und spiele im moment hauptsächlich in 1280x960, bei älteren spielen genehmige ich mir aber auch gerne mal 1600x1200. Bei AA/AF genügen mir auch 2/8 und adaptives AA habe ich bislang auch nur sehr spärlich eingesetzt, ist ohne zweifel eine sehr sichtbare qualitätssteigerung, für mich aber kein muß.

Tja, bei Source-games habe ich jetzt schon keine fps-probleme, TF2 spiele ich in 1280x960 4xAA/16AF (ingame) und es bleibt selbst in den heftigsten situationen immer spielbar, da ist es mir herzlich egal, daß die GT die 3870 wirklich alt aussehen läßt. 1600x1200 ist auf jeden fall auch noch mit der "senilen" karte drin.

Crysis - nun ja, bin durch und verspüre keinerlei verlangen es noch mal zu spielen.

GTA:SA wollte ich unlängst wieder installieren, weil ich meinem bruder beim spielen zugesehen hatte und appetit drauf bekam, hab mich dann aber dagegen entschlossen, keine zeit für noch so ein kaliber, he.

Das spiel das meine/n zeit/PC im moment wohl am meisten fordert ist ArmA, spielst du das oder sonst wer hier mit einer GT/3870? Bei mir läufts problemlos, aber seit mein freund die GT im rechner hat, stürzt es nach 0,5-1 stunde immer ab. Ich würde ihn zwar ganz sicher nicht als DAU bezeichnen, aber wenn er seinen rechner mal wieder standrechtlich hingerichtet hat, bin ich der erste, der zur hilfe gerufen wird und im falle von ArmA bin ich meistens live dabei, da wir das sehr oft zusammen spielen. Allerdings war ich seit dem umbau noch nicht an seinem rechner und weiß zB. nicht mal, welchen treiber er installiert hat und ob die ati-treiber (er hatte auch eine 1900XT) sauber deinstalliert wurden, und und und. Es könnte also eine menge gründe für die CTDs geben, aber erfahrungen jedweder art sind gerne willkommen.

Ich denke, ich werde Ati weiterhin treu bleiben und mir die 3870 holen. Für mich ist das ein reiner spaßkauf, mit meiner XT bin ich im großen und ganzen noch recht zufrieden und abzüglich des verkaufes derselben kostet mich die neue karte ca. €100,-, also genau das, was ich im moment auszugeben bereit bin. Das sollte für meine ansprüche locker bis zu den nächsten highend-karten reichen und dann schau ma mal weiter :cool:

Übrigens ist bei mir auch die Geforce4, eine 4200er um genau zu sein, die bislang einzige graka von NV gewesen. Danke nochmals!

let's rock!
2007-12-13, 20:25:33
Alle Games in 1680x1050 und 4xAA/16xAF, außer Crysis(ohne AA/AF) und Stalker(nur AF)
Spiel HD3870 8800GT
HL2 - Lost Coast(AA/AF Ingame) 116,38 139,24
HL2 - Lost Coast(AA/AF CCC/NV CP) 110,55 163,21
CS:Source(AA/AF CCC/NV CP) 151,38 241,83
CS:Source(AA/AF Ingame) 163,22 247,11

Wie lassen sich derartige Unterschiede erklären?
Könnte es ein Treiberproblem oÄ sein?
mfg

MartinRiggs
2007-12-13, 22:07:45
Nö, die HD3870 wird wohl an ihrer mangelnden Textur-Leistung schwächeln, nehme ich zumindest an.
ob die HD3870 noch zulegen kann wird sich in Zukunft zeigen.
Sobald ein Game starken Shader-Gebrauch macht, wie Games mit UE3-Engine dann ist die HD3870 ja dran an der 8800GT.
Stalker
HD3870
http://www.abload.de/thumb/stalker1-hd3870t2b.jpg (http://www.abload.de/image.php?img=stalker1-hd3870t2b.jpg)
8800GT
http://www.abload.de/thumb/stalker1-8800gt82q.jpg (http://www.abload.de/image.php?img=stalker1-8800gt82q.jpg)
HD3870
http://www.abload.de/thumb/stalker2-hd387024x.jpg (http://www.abload.de/image.php?img=stalker2-hd387024x.jpg)
8800GT
http://www.abload.de/thumb/stalker2-8800gty1n.jpg (http://www.abload.de/image.php?img=stalker2-8800gty1n.jpg)

Ich glaub die Bilder sagen alles

Mit der Radeon HD3870 war ich im großen und ganzen auch zufrieden, aber bis auf den fehlenden 2D-Modus macht die 8800GT alles einen Tick besser.
Mal schauen was die neuen Karten-Generationen bringen und wie sehr sich ATI ins Zeug legt mit CF, müssen sie ja wenn sie Dual-Karten des RV670 verkaufen wollen.

Razor
2007-12-13, 22:17:48
Ich glaub die Bilder sagen alles
Wenn man davon nicht 'erschlagen' wird!

BITTE, BITTE, BITTE... mach die Bilder kleiner uder verlinke sie als URL-Tag.
Danke.

Razor

MartinRiggs
2007-12-13, 22:22:42
Ist das so recht????:biggrin:
R6Vegas 16xAF
8800GT
http://www.abload.de/thumb/r6vegas8800gtooe.jpg (http://www.abload.de/image.php?img=r6vegas8800gtooe.jpg)
HD3870
http://www.abload.de/thumb/r6vegashd3870e1k.jpg (http://www.abload.de/image.php?img=r6vegashd3870e1k.jpg)

da gehen sich die Karten so gut wie nix aus dem Weg.
Auch bei Oblivion ist annähernd gleichstand
Oblivion@1680x1050 4xAA/16xAF
8800Gt
http://www.abload.de/thumb/oblivion8800gtslp.jpg (http://www.abload.de/image.php?img=oblivion8800gtslp.jpg)
HD3870
http://www.abload.de/thumb/oblivionhd3870hb4.jpg (http://www.abload.de/image.php?img=oblivionhd3870hb4.jpg)

Hellspawn
2007-12-13, 22:29:45
Kann mir bitte jemand erklären wieso alle Ati Bilder immer dünkler als die NVidia Vergleichsbilder aussehen? Ist da im Treiber ganz einfach Gamma einen Tick höher?

Coda
2007-12-13, 22:33:15
Gamma sieht man auf Screenshots nicht. Könnte an der Präzision der Recheneinheiten liegen.

MartinRiggs
2007-12-13, 22:34:30
Umgekehrt, bei Stalker sind die ATI-Bilder dunkler(kontrastreicher) ansonsten sehe ich zwischen den Bildern keinen Unterschied.:confused:
Warum das so ist kann ich dir nicht sagen, hat im Game nicht gestört.

Hellspawn
2007-12-13, 22:35:13
Gamma sieht man auf Screenshots nicht. Könnte an der Präzision der Recheneinheiten liegen.

nur bei wem ist sie präziser? oder kann man das so nicht sagen? klär uns auf...

Razor
2007-12-13, 23:48:16
Ist das so recht????:biggrin:
Genial...
:up:

Die Vergleiche finde ich auch klasse!

Kann mir bitte jemand erklären wieso alle Ati Bilder immer dünkler als die NVidia Vergleichsbilder aussehen? Ist da im Treiber ganz einfach Gamma einen Tick höher?
Ja, ist der dunklere Default-Gamma der AMD-Treiber.

Hat mich damals fast wahnsinnig gemacht, da meine kalibrierten Displays den 2D Desktop natürlich völlig korrekt anzeigten, aber sobald eine 3D Anwendung startete, diese zu dunkel war. Also musste InGame der Gamma-Wert erhöht werden, was dann auch gleich die Gamma-Korrektur (damals Alleinstellungsmerkmal bei den R300) überflüssig machte (funktioniert eigentlich nur mit dem Default-Gamma korrekt).

Die vermeintlich 'kontrastreichere' Darstellung ist schlicht eine Illusion.
Muss man bei den ATI/AMD-Treibern so hinnehmen...

nur bei wem ist sie präziser? oder kann man das so nicht sagen? klär uns auf...
Ist unfug... einfach nicht darüber nachdenken.
Das war schon immer bei ATI so und wird vermutlich auch immer so bleiben.

Was meinst Du, warum sich die ATI-Lutz gleich reihenweise darüber beschwert haben, dass mit den nVidias das Bild 'irgendwie' so verblichen aussieht... genau der gleiche Grund. Die vergewaltigten Displays einfach auf Default zurück und schon ist alles wieder in Butter...
:D

Mit unterschiedlicher Präzision hat das rein gar nichts zu tun.

Razor

MartinRiggs
2007-12-14, 08:06:33
Genial...
:up:

Die Vergleiche finde ich auch klasse!



Danke danke, ärgere mich mittlerweile das ich nicht noch mehr Games gebencht habe, aber man sieht ja die Tendenz:wink:

HD-Ronny
2007-12-14, 14:43:52
Meine Karte fiept manchmal,ich hatte darüber schonmal was gelesen,es soll ein elektr. Bauteil sein.Davon war auch schon jemand davon betroffen aber ich finde den Post/Link dazu nicht mehr.
Wenn man z.b die crysis demo startet und dieser vorspann läuft und diese Pegi /mature info kommt piepst da irgentwas.Im Spiel trat es nochmal kurzzeitig auf.

MartinRiggs
2007-12-14, 14:52:32
könnten die spannungswandler sein, die "singen" bei manchen karten.
die 8800gtx soll das auch haben und meine ehemalige x1900xt hatte das auch lief aber ewigkeiten ohne probleme.

HD-Ronny
2007-12-14, 14:57:30
Na zumindestens ist es nicht ständig und vor allem nicht Idle. Suche den link zum Bauteil,war ein englischsprachiges forum.

Snoopy69
2007-12-14, 15:09:51
Waren beide Karten mit OC?

Gast
2007-12-14, 15:15:02
Genial...
:up:

Die Vergleiche finde ich auch klasse!


Ja, ist der dunklere Default-Gamma der AMD-Treiber.

Hat mich damals fast wahnsinnig gemacht, da meine kalibrierten Displays den 2D Desktop natürlich völlig korrekt anzeigten, aber sobald eine 3D Anwendung startete, diese zu dunkel war. Also musste InGame der Gamma-Wert erhöht werden, was dann auch gleich die Gamma-Korrektur (damals Alleinstellungsmerkmal bei den R300) überflüssig machte (funktioniert eigentlich nur mit dem Default-Gamma korrekt).

Die vermeintlich 'kontrastreichere' Darstellung ist schlicht eine Illusion.
Muss man bei den ATI/AMD-Treibern so hinnehmen...


Ist unfug... einfach nicht darüber nachdenken.
Das war schon immer bei ATI so und wird vermutlich auch immer so bleiben.

Was meinst Du, warum sich die ATI-Lutz gleich reihenweise darüber beschwert haben, dass mit den nVidias das Bild 'irgendwie' so verblichen aussieht... genau der gleiche Grund. Die vergewaltigten Displays einfach auf Default zurück und schon ist alles wieder in Butter...
:D

Mit unterschiedlicher Präzision hat das rein gar nichts zu tun.

Razor

Ist halt die Frage was einem "zu dunkel" ist und was "zu hell". Ist ja nicht so das eines davon "korrekter" wäre. Ist reine Geschmackssache. Die nV-Karten rendern eben "heller" bzw. die AMD-Karten "dunkler" - und das war schlicht schon immer so.

reunion

Razor
2007-12-15, 10:48:44
Ist halt die Frage was einem "zu dunkel" ist und was "zu hell". Ist ja nicht so das eines davon "korrekter" wäre. Ist reine Geschmackssache. Die nV-Karten rendern eben "heller" bzw. die AMD-Karten "dunkler" - und das war schlicht schon immer so.
Ja... und ATI macht es falsch.

Wenn man die Displays unter Dos/Linux kalibriert, das Ergebnis bei beiden IHV ohne Treiber identisch ist und erst nach dem Laden der Treiber sich ein solcher Unterschied bei den AMD/ATI-Treibern zeigt, dann ist dies eindeutig.

Keine Ahnung, warum ATI dies seinerzeit zu einer Design-Entscheidung machte, aber fragwürdig ist es schon... zumal die FireGL-Karten (bzw. derer Treiber ;-) diese 'Merkwürdigkeit' nicht zeigen... was auch nicht weiter verwunderlich ist, wenn man den Einsatzbereich dieser Karten ins Auge fasst.

Kann natürlich sein, dass dies ein "Trick" ist, um den Mega-DAUs zu suggerieren, dass die Darstellung bei ATI eben "kontrastreicher" oder sonst wie 'besser' ist... nicht jeder denkt daran, die Displays wieder auf "default" zurück zu setzen, wenn mal die Grafikkarte getauscht wurde.

Razor

-]Vips[-
2007-12-15, 12:17:05
Ich habe jetzt auch eine 8800 GT ergattern können :biggrin:. Und zwar von Palit die xpert vision (hat keinen single Slot Lüfter).

Habe sie jetzt ein bischen getestet und muss sagen dieses Teil gibt ganz schön gas. Muss die Lüfterdrehzahl über Rivatuner regeln lassen weil sie sonst verdammt laut wird aber unter Last bleibt sie dadurch kühl (um die 58 Grad). Jetzt läuft der Lüfter unter Last mit 55% und wird maximal 75 Grad warm/heiß.

Sind diese Temperaturen gut oder schlecht? Und steckt da noch OC potential drinnen?

Und wie kann ich erkennen ob die Karte 2, 3 oder 4 Phasen hat?

Colin McRae Dirt läuft mit max Einstellungen mit 40 Fps, Crysis mit dem XP DX10 Patch mit ca. 30 bis 35 Fps. (Auflösung jeweils 1280x1024 ohne AF).

Es ist wirklich eine Hammer Karte!

MFG

MartinRiggs
2007-12-15, 12:44:18
Junge, scheiss doch auf die Phasen.
Wenn sie abraucht kommt sie zurück, wo ist das Problem?
Die Temperaturen sind i.O. allerdings nix tolles wenn man bedenkt das es kein Standard-Lüfter ist, da hätte palit gleich den Standard-Lüfter drauflassen können.
Bei mir bleibt sie nämlich mit Standard-Lüfter(aber dem überarbeiteten) so gut wie unhörbar und geht etwas über 80Grad.

Hakim
2007-12-15, 13:42:41
Überall steht ja das der G92 durch die beschränkte Speicherbrandbeite beschränkt wird. Was ja auch stimmen muss wenn man sich die Technischen Eigenschaften ansieht. Ich verstehe nur eins nicht. Wieso profitiert dann der G92 nicht so sehr vom höheren Speichertakt? Ob ich mit 900Mhz laufen lasse oder mit 1015 Mhz, viel bringt es nicht. Da lohnt es ja mehr wenn man Core- und Shadertakt erhöht.

syronth
2007-12-15, 14:22:50
Was ja auch stimmen muss wenn man sich die Technischen Eigenschaften ansieht.

Vielleicht stimmt es eben nicht. Bandbreite kann man auf zwei Weisen an die Grenze bringen, die eine ist die Erhöhung der Benchauflösung, wobei hier der G92 bislang noch mit 512MB auskommen muss. Dadurch verreckt er so oder so. Interessant wird's, wenn bald ein G92 mit 1024MB gebencht werden sollte.

Die andere Weise wäre der Bench mit einem Spiel wie Crysis oder noch "schlimmer", hier könnte die Bandbreite bereits schon limitieren, noch bevor der Speicher ausgeht. Sprich schon bei 1280 könnte ein G92 mehr rausholen, wenn er nur, ja wenn er nur nicht auf 256bit beschränkt wäre. Hochgetakter GDDR4-Speicher könnte u.U. das schon beweisen(?) - bei gleichen Core/Shader-Takt.

Adam D.
2007-12-15, 14:42:26
So, hab meinen VF-900Cu drauf gebaut (was ein Stress, ich bin echt ein Technik-Newb).

Temps Stock: 92°C/62°C (Ohne Übertaktung, bei Übertaktung deutlich höhere Drehzahlen)
Temps VF-900Cu: 70°C/45°C (mit 700/1000MHz, dazu kein bisschen lauter)

Das waren 30€, die sich mal richtig gelohnt haben ;)

syronth
2007-12-15, 14:53:02
Das waren 30€, die sich mal richtig gelohnt haben ;)

@all
Zur Zeit hab nicht den Zwang, den Standard-Kühler zu ersetzen, zumal ich gerade bei der Zotac nicht sicher bin, ob die Garantie bestehen bleibt. Im Sommer könnte sich das ändern, da stellt sich mir aber die Frage: wenn ich ersetze, die Karte dann aber doch (später) einen Defekt zeigt, bin ich angeschissen, right? Dann hätten mich die zusätzlichen 30 EUR um 250 EUR gebracht.

Adam D.
2007-12-15, 15:18:07
@all
Zur Zeit hab nicht den Zwang, den Standard-Kühler zu ersetzen, zumal ich gerade bei der Zotac nicht sicher bin, ob die Garantie bestehen bleibt. Im Sommer könnte sich das ändern, da stellt sich mir aber die Frage: wenn ich ersetze, die Karte dann aber doch (später) einen Defekt zeigt, bin ich angeschissen, right? Dann hätten mich die zusätzlichen 30 EUR um 250 EUR gebracht.
Ist halt die Frage. Bei EVGA z.B. verlierst du mit dem Umbau die Garantie nicht. Wie es bei Zotac aussieht - keine Ahnung. Mach halt bei RMA-Fällen den Originalkühler drauf und schick's weg, wird schon schief gehen.

aths
2007-12-15, 16:11:21
Vielleicht stimmt es eben nicht. Bandbreite kann man auf zwei Weisen an die Grenze bringen, die eine ist die Erhöhung der Benchauflösung,Bei erhöhter Auflösung skalieren Bandbreite und Füllrate gleichermaßen. Insofern kann man die Karte dann nicht an ihre Bandbreiten-Grenze bringen.

seahawk
2007-12-15, 16:25:58
Also jetzt mit dem 169.13 drauf ist mein einzihges Problem mit der Karte weg, sie hängt sich nicht mehr auf, wenn man aus dem Sleep-Modus eine 3D Anwendung startet. Die Temp. leigen wit Wakü bei 35°C im Idle und 45°C unter Last. @ 675Mhz Core.

HD-Ronny
2007-12-15, 17:12:16
Zur Palit/Xpertvision super : Das Teil gibt ganz schön Gas. Hab sie jetzt auf 700/1750/1060(2120) laufen und das juckt die garnicht. Anscheinend ist die Karte extrem untertaktet. :D

-/\-CruNcher-/\-
2007-12-16, 16:34:15
Hier mal ein Skalierbarkeitsbeispiel aus meinem Test mit der 8800GT bassierend auf 3dMurks06, verschiedene hersteller taktraten traten an gegen Simulationen meiner eigenen und erhöten hersteller werten allen voran beim Speicher die neue Erkentniss das auch 975MHz noch stabil laufen mit dem Stock Cooler und Referenz PCB wurden umgesetzt :) Bassierend auf dem allerneusten Nvidia Bios mit neuen Lüftersteuerungssettings (dazu später mehr in meinem Videovergleich ;) )

Standard Clock 600/1500/900
Score = 4537
GT1 = 36.938
GT2 = 38.677

Score = 4687
HDR1 = 47.258
HDR2 = 46.488

POV 650/1500/950
Score = 4432
GT1 = 35.917
GT2 = 37.944

Score = 4785
HDR1 = 48.849
HDR2 = 46.852

BFG OC 625/1566/950
Score = 4471
GT1 = 36.168
GT2 = 38.349

Score = 4803
HDR1 = 49.020
HDR2 = 47.047

XFX 640/1600/950
Score = 4454
GT1 = 36.137
GT2 = 38.104

Score = 4832
HDR1 = 49.616
HDR2 = 47.022

ASUS top 700/1500/950
Score = 4476
GT1 = 36.247
GT2 = 38.354

Score = 4844
HDR1 = 49.659
HDR2 = 47.214

Zotac 660/1600/950
Score = 4425
GT1 = 35.772
GT2 = 37.978

Score = 4868
HDR1 = 50.283
HDR2 = 47.074

MSI-OC Clock 660/1650/950
Score = 4483
GT1 = 36.380
GT2 = 38.329

Score = 4901
HDR1 = 50.644
HDR2 = 47.368

BFG OC2 675/1674/975
Score = 4416
GT1 = 35.745
GT2 = 37.862

Score = 4920
HDR1 = 51.250
HDR2 = 47.142

Simulation 650/1750/950
Score = 4552
GT1 = 37.045
GT2 = 38.813

Score = 4929
HDR1 = 50.924
HDR2 = 47.650

Evga KO 675/1688/975
Score = 4448
GT1 = 36.061
GT2 = 38.071

Score = 4932
HDR1 = 51.312
HDR2 = 47.323

Simulation 650/1750/975
Score = 4496
GT1 = 36.494
GT2 = 38.447

Score = 4936
HDR1 = 51.229
HDR2 = 47.485

Zotac Amp 700/1700/950
Score = 4555
GT1 = 36.957
GT2 = 38.965

Score = 4947
HDR1 = 51.437
HDR2 = 47.506

Simulation 700/1700/975
Score = 4469
GT1 = 36.254
GT2 = 38.236

Score = 4960
HDR1 = 51.691
HDR2 = 47.518

Simulation 700/1728/975
Score = 4534
GT1 = 36.822
GT2 = 38.738

Score = 4989
HDR1 = 52.098
HDR2 = 47.688

Gainward Bliss GLH 700/1750/975 (Crash)
GT1 =
GT2 =

Score =
HDR1 =
HDR2 =

PS: Es scheint 3 möglichkeiten des Tweakens zu geben entweder Shader 2 bzw 3 Performance oder aber einen augewogenen Mix aus beidem :) Im Videovergleich werden je Bios 3 verschiedene Taktraten zum Einsatz kommen:

Standard Clock 600/1500/900
MSI-OC Clock 660/1650/950
Simulation 700/1728/975 (nahe EVGA SSC 1000 memory werde ich nicht testen no chance "quasi schon bewiesen das es instabill ist bassierend auf Aussagen von BFGtech Mitarbeiter und EVGA Forum Reaktionen auf Probleme mit dem Speichertakt vor allem in Crysis")

Gast
2007-12-16, 20:32:15
Hier mal ein Skalierbarkeitsbeispiel aus meinem Test mit der 8800GT bassierend auf 3dMurks06, verschiedene hersteller taktraten traten an gegen Simulationen meiner eigenen und erhöten hersteller werten allen voran beim Speicher die neue Erkentniss das auch 975MHz noch stabil laufen mit dem Stock Cooler und Referenz PCB wurden umgesetzt :) Bassierend auf dem allerneusten Nvidia Bios mit neuen Lüftersteuerungssettings (dazu später mehr in meinem Videovergleich ;) )

Standard Clock 600/1500/900
Score = 4537
GT1 = 36.938
GT2 = 38.677

Score = 4687
HDR1 = 47.258
HDR2 = 46.488

POV 650/1500/950
Score = 4432
GT1 = 35.917
GT2 = 37.944

Score = 4785
HDR1 = 48.849
HDR2 = 46.852

BFG OC 625/1566/950
Score = 4471
GT1 = 36.168
GT2 = 38.349

Score = 4803
HDR1 = 49.020
HDR2 = 47.047

XFX 640/1600/950
Score = 4454
GT1 = 36.137
GT2 = 38.104

Score = 4832
HDR1 = 49.616
HDR2 = 47.022

ASUS top 700/1500/950
Score = 4476
GT1 = 36.247
GT2 = 38.354

Score = 4844
HDR1 = 49.659
HDR2 = 47.214

Zotac 660/1600/950
Score = 4425
GT1 = 35.772
GT2 = 37.978

Score = 4868
HDR1 = 50.283
HDR2 = 47.074

MSI-OC Clock 660/1650/950
Score = 4483
GT1 = 36.380
GT2 = 38.329

Score = 4901
HDR1 = 50.644
HDR2 = 47.368

BFG OC2 675/1674/975
Score = 4416
GT1 = 35.745
GT2 = 37.862

Score = 4920
HDR1 = 51.250
HDR2 = 47.142

Simulation 650/1750/950
Score = 4552
GT1 = 37.045
GT2 = 38.813

Score = 4929
HDR1 = 50.924
HDR2 = 47.650

Evga KO 675/1688/975
Score = 4448
GT1 = 36.061
GT2 = 38.071

Score = 4932
HDR1 = 51.312
HDR2 = 47.323

Simulation 650/1750/975
Score = 4496
GT1 = 36.494
GT2 = 38.447

Score = 4936
HDR1 = 51.229
HDR2 = 47.485

Zotac Amp 700/1700/950
Score = 4555
GT1 = 36.957
GT2 = 38.965

Score = 4947
HDR1 = 51.437
HDR2 = 47.506

Simulation 700/1700/975
Score = 4469
GT1 = 36.254
GT2 = 38.236

Score = 4960
HDR1 = 51.691
HDR2 = 47.518

Simulation 700/1728/975
Score = 4534
GT1 = 36.822
GT2 = 38.738

Score = 4989
HDR1 = 52.098
HDR2 = 47.688

Gainward Bliss GLH 700/1750/975 (Crash)
GT1 =
GT2 =

Score =
HDR1 =
HDR2 =

PS: Es scheint 3 möglichkeiten des Tweakens zu geben entweder Shader 2 bzw 3 Performance oder aber einen augewogenen Mix aus beidem :) Im Videovergleich werden je Bios 3 verschiedene Taktraten zum Einsatz kommen:

Standard Clock 600/1500/900
MSI-OC Clock 660/1650/950
Simulation 700/1728/975 (nahe EVGA SSC 1000 memory werde ich nicht testen no chance "quasi schon bewiesen das es instabill ist bassierend auf Aussagen von BFGtech Mitarbeiter und EVGA Forum Reaktionen auf Probleme mit dem Speichertakt vor allem in Crysis")Es gibt neuen bios von merlin, hört sich vielversprechend an
http://www.mvktech.net/component/option,com_joomlaboard/Itemid,34/func,view/id,47636/catid,13/limit,10/limitstart,20/

-/\-CruNcher-/\-
2007-12-16, 20:56:12
Es gibt neuen bios von merlin, hört sich vielversprechend an
http://www.mvktech.net/component/option,com_joomlaboard/Itemid,34/func,view/id,47636/catid,13/limit,10/limitstart,20/

Danke werde es mit in den Videotest aufnehmen, bin gespannt wie die Hitzeentwicklung mit dem Stock Cooler und höherer Spannung ausschaut und wie heavy dann der Lüfter aufdreht.
Bei normalem Takt Overclocking ist der unterschied im Extremsten bei 2% mehr Lüftergeschwindigkeit als ohne Overclocking, hab nun schon eine menge Messwerte gesammelt um den G92 gegen den RV670 antreten zu lassen nach dem Videotest (Lüftersteuerung) kommt dann nur noch der Video Decoding und IQ test (Referenz Rasterization Comparision) und ich bin (vorerst) fertig mit der 8800GT (G92) :)

Hakim
2007-12-16, 21:59:07
Da hab ich anscheinend einen guten GT erwischt. Bei meinen muckt der Speicher erst irgendwo zwischen 1015-1025 Mhz. Mit 1015 Mhz läuft es noch stabil, mit 1025 Mhz muckt er aber schon. Lasse es aber auf 1000 Mhz.

-/\-CruNcher-/\-
2007-12-17, 01:30:25
Was meint ihr stimmen die Werte von GPU-Z nicht oder Rivatuner ?

Bios 62.92.16.00.36 (Rivatuner)
Core = 600/604/612/617 usw
Shader = 1512/1564/1620/1674/1728/1782/1836 usw
Mem = 907/910/918/925/928/936/945/950/956/972 usw

mit GPU-Z werden z.b. 1750 Shader angezeigt aber Rivatuner meint es sind nur 1728 (würde einen enormen unterschied in den Prozentwerten bezüglich übertaktbarkeit machen und wäre quasi Cheating) :D scheint das Real stabiliste Overclocking zu sein mit diesem Bios und meiner 8800GT http://www.techpowerup.com/gpuz/epvkm/ bis auf das 975 = 972 sein müssten :)

@Hakim
Es geht nicht darum das es machbar ist es geht darum das ein AIB b.z.w. Reseler Mitarbeiter meinte es kann das Referenz PCB langzeit schädigen (man habe es mit Nvidia und Oem Partnern getestet vor Release und Karten sind gestorben) und ratet davon ab (BFGtech). Bei EVGA sind ihres 1000MHz taktes diesbezüglich schon RMAs durchgeführt worden siehe EVGA Forum (Probleme in Crysis).

PS: Schon wieder ein neues GT Bios 62.92.16.00.37 :P so werd ich nie fertig ist aber nicht so neu wie EVGA ihr speziel angepasstes Bios 62.92.A3.00.00 15.11.07 vs 16.12.07
MSI ihr Rev2 Bios scheint wie gesagt auch etwas von den MSI leuten modifiziert worden zu sein die Lüftersteuerungstrategie ist eine komplet andere als wie bei EVGA oder den anderen AIBs beim Referenz Design. Merlin have a look @ MSIs REV2 Bios http://www.mvktech.net/component/option,com_remository/Itemid,26/func,fileinfo/filecatid,2291/parent,category/ (marked REV1 on Mvktech wich it actually isn't REV1 is 62.92.12.00.04 i have it and it's the old 29% all the time Bios) the Strategy there is different then other AIBs do it. MSI Enginers let the Card idle @ 44% (seems especialy good for lower Airflow conditions and higher OC gain) not the standard 29% it's not a complete bad idea but i think it's a little to loud also might be that Bios is for a Reference 2 Card so with the bigger Fan and 44% is the standard idle set for it im not sure :)

Hakim
2007-12-17, 13:41:38
Was meint ihr stimmen die Werte von GPU-Z nicht oder Rivatuner ?



Ich denke der GPU-Z wert ist richtig. Man könnte es aber auch leicht testen. Einmal auf 1728 Mhz stellen und benchen und einmal auf 1750 Mhz.
Bezüglich 1000 mhz speicher sehe ich net ein warum ich mit dem takt runter gehen soll wenn es derzeit keine probs macht. Werk ist bei meinem 950 Mhz und viele Hersteller verkaufen Modelle ab Werk immer noch mit 1000 Mhz. Wenn was sein sollte, schicke ich es zurück. Es gibt user die takten bei ihrer Karte den speicher bis 15-20% hoch. Außerdem werde ich wohl wahrscheinlich die Karte bald gegen eine GTS tauschen (über Evga).

Merlin
2007-12-17, 14:52:04
Ich denke der GPU-Z wert ist richtig. Man könnte es aber auch leicht testen. Einmal auf 1728 Mhz stellen und benchen und einmal auf 1750 Mhz.
Bezüglich 1000 mhz speicher sehe ich net ein warum ich mit dem takt runter gehen soll wenn es derzeit keine probs macht. Werk ist bei meinem 950 Mhz und viele Hersteller verkaufen Modelle ab Werk immer noch mit 1000 Mhz. Wenn was sein sollte, schicke ich es zurück. Es gibt user die takten bei ihrer Karte den speicher bis 15-20% hoch. Außerdem werde ich wohl wahrscheinlich die Karte bald gegen eine GTS tauschen (über Evga).
GPU-Z wert ist richtig z.b. im bios 1750 wert real 1728 RivaTuner ist müll, zeigt müll temp. sind auch nicht richtig, orienteren kann man mit Everest Ultimate Edition

also 8800GT (BIOS) + GPU-Z + Everest Ultimate Edition alles ist richtig
RivaTuner ist ein Müll und zeigt ein Müll und ist unmöglich SRC zu bekomen, entwickler ignoriert meine bugliste und dokumentation, dann soll er sich RivaTuner und co in hinten reinschieben.

mfg

ps
sorry für meine german

Super Grobi
2007-12-17, 14:55:18
RivaTuner ist ein Müll und zeigt ein Müll und ist unmöglich SRC zu bekomen, entwickler ignoriert meine bugliste und dokumentation,

Da ist aber jemand schwer bockig, weil er beim RT nicht mitspielen darf. :biggrin:

SG

HD-Ronny
2007-12-17, 15:24:11
Also bei mir stimmen die werte von GPU-Z 0.1.3 und Rivatuner 2.06 exact überein. forceware 169.21

Hakim
2007-12-17, 15:46:10
Also bei mir stimmen die werte von GPU-Z 0.1.3 und Rivatuner 2.06 exact überein. forceware 169.21

takte mal über RT den shader auf 1750 Mhz und schau mal was der Hardwaremonitor dann ausgibt. Normal zeigt es nur 1728 Mhz an.

HD-Ronny
2007-12-17, 16:33:26
Hab ich so als defaultprofile: 700/1750/1000

@hakim
Ahh,ok habs gefunden.

bilderentfernt

Adam D.
2007-12-17, 16:42:18
So, habe jetzt mal das OC-BIOS geflasht. Temps sind ziemlich deutlich hoch gegangen (Last 76°C, Umgebung 51°C), kann dafür aber auch auf 750/1870/960MHz gehen.

-/\-CruNcher-/\-
2007-12-17, 18:01:53
Hehe habs auch mal getestet aber naja das dreht genauso auf wie MSI REV2 Bios :D zum Testen ganz gut wo das max seines Chips liegt komme nun deutlich über die 700 Core und 1728 Shader, wo er vorher hängen blieb (aber eher dank der Spannungserhöung als wie dem extreme Cooling ;) ). Am Besten jeder tut sich seine Lüftersteuerung selber auf Perfekte Werte in seinem Case anpassen und das mit Crysis als Debug System :D.
Yes Merlin something in Rivatuners OSD is odd i can't belive those Temperature Values (at least for the OSD output im skeptical) it seems for me as if the Chip is actually 10°C hotter then Displayed, because the Fan Controll reacts like that when the Rivatuner OSD still shows a temperature of 80°C with the old Bios it allready goes into the mode it actually would go for 90°C very strange. But in the Windows Gui it seems to be correct it reads the same value as Everest or Expertool, i think theirs a way to change the Way Rivatuner Speaks to the Card and it goes @ the moment over the Bus directly im not quiet sure (have to read the Readme again) maybe reading at least the Shader/Core/Memory Values would be better (more exact) if it would go directly over the Nvidia API or maybe vice versa ;)
But i would say that Rivatuner and Everest are correct and Expertool is slower in pooling the Temperature (useing the Nvidia API?) values both Everest and Rivatuner show the same wich is not strange because Everest uses Rivatuners Code for reading the Diode (The Author shared it with them see the Rivatuner Readme). So most probably only the OSD Lags behind a little (The Problems without a Real Time OS). Merlin i also see some Performance differences between EVGAs modified Bios 62.92.A3.00.00 and the newest Nvidia Reference Bios 62.92.16.00.37 i could find.
The Reference seems to be faster in Shader 3 Speed with the same settings as EVGAs so it might be a good idea to use it instead of the EVGA Bios as a base for further Modifications after looking more carefull into this :)
For me it looks like there 3 Bios Paths by Nvidia

62.92.12.00.00 = Release Bios Series with 90°C Operating limit (for Overclocking this is to High the Chip gets unstable most of the Times even after heavy Playtime in Games (VPU Recovers ocour) under Low Airflow conditions.
62.92.16.00.00 = New Revision with Modified Operating Limit @ 85°C ( The Card is much mor stable especialy for Pre Overclocked Cards like the MSI-OC even under Low Airflow conditions higher Overclocking is still not stable under such conditions MSIs 62.92.16.00.04 seems to use another Strategy tough Operating Limit is 75°C with that Higher Overclocking is possible and stable)
62.92.AX.00.00 = Used only by EVGA? Operating Limit seems also 85°C but much faster spinup time (Higher overclock is better even in Low Airflow conditions but it's also Noisier)

Here are some Bios Results (with Average Operating Limit and Fan Speed) with Merlins im gone straigth to the Max ;)

MSI OC Release Bios 62.92.12.00.04 700/1700/975 (35%) 90°C
Score = 4473
GT1 = 36.315
GT2 = 38.238

Score = 4943
HDR1 = 51.654
HDR2 = 47.211

Newest Nvidia Reference 62.92.16.00.37 700/1700/975 (50%) 83°C
Score = 4498
GT1 = 36.507
GT2 = 38.465

Score = 4954
HDR1 = 51.625
HDR2 = 47.456

MSI-OC REV2 62.92.16.00.04 700/1700/975 (70%) 75°C
Score = 4447
GT1 = 36.083
GT2 = 38.030

Score = 4944
HDR1 = 51.668
HDR2 = 47.212

Merlins Modified EVGA 700/1700/975 (70%) 75°C
Score = 4490
GT1 = 36.613
GT2 = 38.221

Score = 4944
HDR1 = 51.591
HDR2 = 47.280


Merlins Modified EVGA 712/1782/950 (80%) 76°C
Score = 4397
GT1 = 35.724
GT2 = 37.560

Score = 4966
HDR1 = 52.344
HDR2 = 46.966

Merlins Modified EVGA 720/1782/972 (80%) 76°C
Score = 4392
GT1 = 35.618
GT2 = 37.586

Score = 4992
HDR1 = 52.860
HDR2 = 46.974

So for me Merlin it seems EVGAs Bios is just a Modification of a Refernce Nvidia Bios somewhere @ 62.92.16.00.2x (all those tests where done with the Rivatuner OSD on wich lags the 3D output a little so without the OSD it would be faster if you wonder ;) so my idea would be

(CruNchers Balanced Reference Stock Cooler Airflow Power Bios "The One that Binds them")
Newest Nvidia Reference 62.92.16.00.37 700/1700/975 (50%) 83°C + 1.1V + New Fan speed modulation idle @ 35-40% to keep the GPU cooler @ start keeping the Operation Limit at 85°C seems stable also for higher Overclocks
Score = 4498
GT1 = 36.507
GT2 = 38.465

Score = 4954
HDR1 = 51.625
HDR2 = 47.456

Im gonna do this later on and Report my results (if you use anything of my Research please don't forget to Credit me) :)

Adam D.
2007-12-17, 19:01:22
Also der Speicher auf meiner Karte ist echt mal Schrott. Mehr als 960MHz sind absolut nicht drin und das sogar noch mit VF900. Hatte mir mehr erhofft. Dafür gehen Core und Shader extrem hoch, dürfte im Gesamtergebnis auch mehr bringen, nehm ich an.

-/\-CruNcher-/\-
2007-12-18, 00:24:40
Nvidia did not change the reference design and don't plan to do so at the moment. According to our source close to Nvidia, it's usual for AIB partners to differentiate their products from other partners.

Halten die uns für bescheuert ? sicher ist das ein neues Nvidia Design und sicher werden sie es nicht zugeben (Einige Early Adopter würden sich ziemlich verarscht vorkommen andere sind das aber eh gewohnt und investieren dann eben mal 20€ in bessere Kühlung und verlieren halt ihre Garantie dafür so what).
Das Fudzilla das jetzt erst veröffentlicht zeugt nicht gerade von kompetenter Recherche, das war eigentlich schon ersichtlich als die ersten neuen Karten plötzlich auch von anderen AIBs auftauchten als wie von XFX.
Wer sich den G92 anschaut und vor allem die Referenz Design Kühlung weiss das es nötig ist vor allem bei schlechtem Airflow und wegen diesem Mini Lüfter (von allen scherzhaft nur noch als Turbine bezeichnet) der extreme Nachgeräusche im hohen Frequenzband Produziert die absolut störend sind. Die Luftstromgeräusche an sich sind ja nicht das Problem, selbst die Review seiten scheinen das alle übersehen zu haben (die schmeisen da gerne mit dB und sone werten um sich aber gehen nicht auf das Höhrgefühl bei verschiedenen stufen des Lüfters ein, es ist nicht immer alles Mathematisch erklärbar und vor allem veranschaulichbar), naja wenn man gekauft ist mit Samples möchte man natürlich sowas nicht gerne veröffentlichen b.z.w. wenn man in einem offenen Testaufbau testet fällt das nicht so sehr auf vor allem wenn man nur begrenzte Zeit zur Verfügung hat und somit alles schnell gehen muss (und man anfangs ein Bios geliefert bekommt das schön bei 90°C vor sich hin dümpelt, man sich beim Hersteller aber bewusst ist das man das Später auswechseln wird da es vor allem mit OC versionen zu Freezes kommen wird).
Früher war das alles noch anders bei vielen aber sobald es ins Kommerziele abrutscht werden alle gleich, es ist gut so das es viele gibt (und es werden immer mehr) die Ihre eigene Forschung in diesen Bereichen betreiben und kompetente Ergebnisse und allen voran Lösungen liefern die denen von sich selbst als Proffessionel schimpfende Reviewseiten in nichts nach stehen.
Wer glaubt den noch den Reviewseiten bei sowas wenn nachträglich plötzlich soviel schichtbar wird, die hoffen dann natürlich das das alles schon vorbei gezogen ist bis dahin, weil der Markt ja sehr schnellebig geworden ist (Release Overflow). Man soll sowas als Kunde (User) einfach übersehen, deshalb finde ich es wichtig zu zeigen das man das eben nicht tut und sich verarscht vorkommt. Vor allem bei einigen Reviews wo die 8800GT als die Wunderkarte schlechthin bezeichnet wird sicher Technisch gesehen ist sie das vieleicht sogar aber es wurde einfach sehr viel gespart (auf Kosten der Lautstärke), wieso steht in den Sternen aber ich hätte als Engineer mir sicher nicht verziehen so eine Karte mit so einem Kühlsystem b.z.w. unoptimierten Bios auszuliefern. Zum Glück kann man da noch eingies drehen und verbessern, aber zum Teil hoffen das die Hersteller ja auch deswegen releasen sie die Flash tools und co sie lassen uns für sie ihre Fehler ausbügeln (Das ist Mode gworden in allem was mit IT zu tun hat "Billiger gehts nimmer, lass es die Kunden doch für die Kunden erledigen" so entstehen dan Plötzlich EVGA und Co), die dann dafür Bezahlung fordern ;) Viva la Capital.
Im Prinzip hab ich nichts dagegen das solche Fehler passieren im Gegenteil für mich als Geek ist sowas eher eine Herausforderung aber an Nvidia stört mich das man die Problemen die auf die User zukommen würden mit dem Release Bios anscheinend bewusst in Kauf genommen hat und einfach nur gut bei den Lautstärke werten in den Reviews abschneiden wollte, das stört mich es ist eine bewusste Manipulation genauso wie alles andere was Nvidia abzieht.
Die Reviewseiten sind aber auch auf Deutsch gesagt zu blöd zu sehen was da abläuft (oder wollen es bewusst nicht sehen) PCGH formuliert es ja sogar in ihrem Video so "Die 90°C scheinen von Nvidia gewollt und ein guter Kompromiss zwischen Lautstärke und Lebensdauer der Karte" und das bei der MSI-OC naja dann mein Lieber her Redakteur haben sie diese Karte sicher noch nicht in einem geschlossenem System mit diesem Release Bios dauergetestet und gemerkt das bei sehr hoher Belasstung und Auflößung die Karte ab und an Freezed (unter ungünstigen Wärmebedingungen) LOL. In diesem Sinne noch einen schönen Feierabend(Nacht) euer CruNcher ;).

seahawk
2007-12-18, 07:59:58
Das Referenzdesign ist aber auch nicht für eine OC-Gedacht, da mußt Du Dich wenn bitte bei MSI beschweren. Fakt ist, dass das Referenzdesign bei Standardtakt unter 2D sehr leise ist und unter 3D eine knapp ausreichende Kühlung liefert und mehr muss es nicht tun.

Johnny
2007-12-18, 08:11:35
Ich würde gern wissen, ob es für Nvidia-Karten ein Tool gibt um den Lüfter zu steuern, sprich eine Art ATI Tool für Nvidia. RivaTuner ist leider recht armsehlig was das angeht und was anderes kenne ich nicht. Ansonsten muss ich Cruncher teilweise Recht geben. Ich finde zwar den Lüfter an sich recht gut, z.B. habe ich den mit RivaTuner auf 60% hoch geschraubt und es hört sich gar nicht mal so schlimm an, bei akzeptabler Kühlleistung. Leider hat meine Karte aber absolut keine Lüftersteuerung und dreht immer mit 29%. So habe ich immer(3D) über 95° GPU-Temp. Eigentlich zum Kotzen. Es ist doch nicht so schwer eine temperaturabhängige Lüftersteuerung einzubauen;(. Alles in einem eine tolle Karte, aber schon armsehlig, dass die immer noch nicht das kann was meine 9800XT vor vier Jahren konnte.

-/\-CruNcher-/\-
2007-12-18, 08:28:28
Hier nun wie angekündigt der 8800GT Bios vergleich in bewegten Bildern :)
http://www.stage6.com/user/CruNcher/videos/

@Johnny
Dein Bios ist höchstwahrscheinlich aus der 62.92.12.00.xx Serie also eines der ersten Release Bios dort war noch nichts angepasst worden, dieses Bios ist für Karten wie die MSI-OC die auch damit ausgeliefert wurden sowie schlechtem Airflow höchst instabil und absolut nicht zu empfehlen. Mit Rivatuner hast du aber die Möglichkeit die Lüftersteuerung manuel zu konfigurieren sprich du kannst jede Bios Einstellung ohne Flashen im Windows betrieb übernehmen dazu must du allerdings die Fan Control in den Power User optionen aktivieren ansonsten ist sie nicht freischaltbar, dazu geh auf den Power User Karteireiter und in den Key RivaTuner\NVIDIA\Fan dort AllowBinaryFanSpeedControl auf 1 setzen und in RivaTuner\Fan AutoFanSpeedControl auf 3.

Dann versuch diese Settings in der Fan Control die du unter Low Level System-Tweaks noch auf Auto stellen musst

29
100
60
32
78
65
68

Noch auf übernehmen klicken und fertig
Dies ist das Setting des neuen Nvidia Referenz Bios siehe Video http://www.stage6.com/user/CruNcher/video/1962104/62-92-16-00-37-700

Kannst auch Merlin seine Settings versuchen das wird aber Laut werden ist nur für OC empfehlbar oder wenn man ne Super dämung hat ;)

29
100
40
32
75
45
80

Siehe http://www.stage6.com/user/CruNcher/video/1962222/62-92-A3-00-00-merlin-700

Johnny
2007-12-18, 08:49:59
Danke, Cruncher. Werds mal ausprobieren. Kannst noch kurz erklären was die einzelnen Werte bedeuten?
P.S. kann mir noch jemad sagen, wie man die OSD-Anzeige hinkriegt wie aud den Screens aus dem Link von Cruncher?

MartinRiggs
2007-12-18, 08:54:33
So, habe jetzt mal das OC-BIOS geflasht. Temps sind ziemlich deutlich hoch gegangen (Last 76°C, Umgebung 51°C), kann dafür aber auch auf 750/1870/960MHz gehen.

Du hast doch den VF900 auf der 8800GT oder?
Wenn ja bestätigt das meine Meinung vom VF900, ich hab gestern den Accelero S1 montiert mit 120er(ca 800rpm) und komme in Crysis nicht über 42 Grad.
Graka war @700/1660, mehr will ich heute erst testen, aber so warm wie deine wird meine Karte bestimmt nicht mehr:wink:

Gast
2007-12-18, 10:11:54
Ja, hab ich. Deine Ergebnisse überraschen mich ehrlich gesagt schon, aber gut. Ich hab mich entscheiden, ob das jetzt 'ne Fehlentscheidung war, wird sich rausstellen ;)
Du darfst nicht vergessen, dass das OC-BIOS auch nochmal gut 5-9°C mehr gebracht hat, das völlig ohne OC. Und die Karte wird mit 750/1840/960MHz unter 2h ATi-Tool 75°C heiß, Umgebung ist 51°C. Finde die Werte für die Übertaktung ganz ordentlich.
Kannst du versuchen, deine Karte auch so hoch zu kriegen und dann die Ergebnisse zu posten? Danke!

Adam D. @ work

syronth
2007-12-18, 11:33:45
Dein Bios ist höchstwahrscheinlich aus der 62.92.12.00.xx Serie also eines der ersten Release Bios dort war noch nichts angepasst worden

Auf meiner GT wird dieses BIOS ebenfalls verwendet und der Standard-Lüfter dreht sachte auf, wenn die Temps steigen. Soweit ich das erkennen konnte bislang (z.B. beim Würfeltest), wird versucht, die Temparatur bei 90 Grad MAX zu halten. Die GT läuft unauffällig mit 700/1725/1000.

Johnny, hast du in Rivatuner den Fanspeed auf 29% - Direct Control? Damit verhinderst du selbst die automatische Anpassung (afaik).

Johnny
2007-12-18, 11:47:28
Johnny, hast du in Rivatuner den Fanspeed auf 29% - Direct Control? Damit verhinderst du selbst die automatische Anpassung (afaik).
Nein, direct control habe ich nur testweise benutzt. Bei der Standardsteuerung dreht er aber bei 96° immer noch mit 29%.

MartinRiggs
2007-12-18, 11:50:00
Ja, hab ich. Deine Ergebnisse überraschen mich ehrlich gesagt schon, aber gut. Ich hab mich entscheiden, ob das jetzt 'ne Fehlentscheidung war, wird sich rausstellen ;)
Du darfst nicht vergessen, dass das OC-BIOS auch nochmal gut 5-9°C mehr gebracht hat, das völlig ohne OC. Und die Karte wird mit 750/1840/960MHz unter 2h ATi-Tool 75°C heiß, Umgebung ist 51°C. Finde die Werte für die Übertaktung ganz ordentlich.
Kannst du versuchen, deine Karte auch so hoch zu kriegen und dann die Ergebnisse zu posten? Danke!

Adam D. @ work

Mich überaschen die Ergebnisse nicht, so groß ist der VF900 nicht, der Accelero S1 ist ein Riesenteil, dazu noch unterstützt von einem 120er Lüfter.
Ich teste die Karte noch weiter aus, aber wie gesagt, mit 700 Core/1660 Shader wurde sie nur 42 Grad heiss, glaub kaum das sie wegen ein paar Mhz mehr gleich noch 30 Grad heisser wird.
Wie ist deine Gehäusebelüftung? Bei meinem Zalman VF700 war es schon so das er unheimlich von der Gehäusekühlung abhängig ist, ein paar offene Slotblenden unter der Graka wirken da auch wunder.

Gast
2007-12-18, 11:53:48
Ne, deine bleibt auch bei dem OC defintiv kühler, das hab ich gar nicht bezweifelt. Ich hätte nur gerne die expliziten Werte :)

Gehäuselüfter hab ich leider nur noch vorne 'nen 120er, den hinten musste ich abschließen, weil da der VF900 dran musste :rolleyes: Hab auf meinem Board auch leider keinen weiteren Anschluss gefunden. Vielleicht war ich aber nur blind.

Adam D. @ work

Johnny
2007-12-18, 15:42:09
Dann versuch diese Settings in der Fan Control die du unter Low Level System-Tweaks noch auf Auto stellen musst

29
100
60
32
78
65
68


Wie kann ich den die Werte verändern?

Edit: ok, musste RT nur neustarten. Funzt einfach nur geil. Mein Fazit zur 88GT: geile Karte mit gutem Kühler(wenn angepasst)

P.S.: wie kriege ich OSD wie auf Crunchers Link?

MartinRiggs
2007-12-18, 16:22:10
Ne, deine bleibt auch bei dem OC defintiv kühler, das hab ich gar nicht bezweifelt. Ich hätte nur gerne die expliziten Werte :)

Gehäuselüfter hab ich leider nur noch vorne 'nen 120er, den hinten musste ich abschließen, weil da der VF900 dran musste :rolleyes: Hab auf meinem Board auch leider keinen weiteren Anschluss gefunden. Vielleicht war ich aber nur blind.

Adam D. @ work

Soderle
hier kommen deine Werte, sogar mit Bild
OC 720/1720/900(RAM hab ich noch nicht getestet, aber wird wohl zur GPU-Temperatur nicht viel beitragen.
Erst die Kiste per ATI-Tool auf Temp gebracht dann Crysis-Bench.
Peak im 3D waren 45 Grad, bei ca. 20 Grad Raumtemperatur, idle liegt bei ca. 35-36 Grad.
Gestern war es etwas weniger weil die Kiste noch auf war, heute ist der Tower geschlossen.
http://www.abload.de/img/rivatunermp6.jpg (http://www.abload.de/image.php?img=rivatunermp6.jpg)

Adam D.
2007-12-18, 16:31:32
http://666kb.com/i/auh6xj4tzz7d6hsly.jpg

Ich gebe mich damit deutlich geschlagen ;)

MartinRiggs
2007-12-18, 16:36:29
sind die 45 Grad deine Idle-Werte???:eek:
wollte mit dem S1 nicht angeben, hoffe verstehst das nicht falsch.
Ich hab halt mit den Zalman-Kühlern schon meine Erfahrungen, die brauchen wirklich ne top Gehäusekühlung, am besten ein paar Slotblenden unter der Graka weglassen und schon kühlen die Dinger auch ordentlich.
Der Accelero S1, Revoltec Graphic Freezer Pro, thermalright HR-03 etc. machen das halt durch pure Masse, alle haben mehrere Heatpipes, verteilen die Wärme auf viele Alufinnen und haben dadurch eine sehr starke Kühlleistung.

Razor
2007-12-18, 19:26:20
Was meint ihr stimmen die Werte von GPU-Z nicht oder Rivatuner ?
Ich vermute, dass die Werte von GPU-Z nicht stimmen.
Dort werden die Shader-Clocks linear berechnet, was eigentlich nicht sein dürfte...

Die "Sprünge" sind durchaus im RT beabsichtigt und sollen das tatsächliche Taktverhalten wieder spiegeln.
Gab mal 'ne recht lange Darstellung zu dem Thema...

GPU-Z berechnet den Shader-Core anhand des Multis und der RT liest sie direkt aus.
Der Ansatz ist ja auch ein unterschiedlicher, denn GPU-Z beschäftigt sich größtenteils mit dem Bios, während RT nur auf Register geht.

Schon wieder ein neues GT Bios 62.92.16.00.37 :P so werd ich nie fertig ist aber nicht so neu wie EVGA ihr speziel angepasstes Bios 62.92.A3.00.00 15.11.07 vs 16.12.07
Hmmm...
Das 37'er ist von PNY und das 36'er von Leadtek, richtig?

Du scheinst da etwas in der Interpretation des Versions-Strings durcheinander zu bringen...
Aufbau der Bios-Versionsnummer: AA.BB.CC.DD.EE
AA = interne nVidia-Kennung (immer '62')
BB = GPU-Code (immer '92')
CC = BiosRevisionLow (bis dato '12'/'16'/'1F')
DD = BiosRevisionHigh (bisher immer '00')
EE = VendorVersion (vom Hersteller vergebene, wohl laufende Nummer)

Das Referenz-Bios trägt IMMER die .VendorVersion ".00". Für die G92 ist das Präfix nVidiaNumber.GPU-Code. "62.92.". So bleibt also einziges Merkmal die Bios-Revision (High/Low), die das tatsächliche "Alter" einer Bios-version, bzw. das Referenz-Bios von nVidia kennzeichnet.

Derzeit scheinen also genau 3 Referenz-Biose zu existieren:
62.92.12.00.00 = 0x0012
62.92.16.00.00 = 0x0016
62.92.1F.00.00 = 0x001F

Das Datum der Biose nebst der zugehörigen VendorVersion werden erst beim compilieren des Bios hinzu gefügt und sagen genau genommen gar nichts aus... es sei denn, man betrachtet lediglich genau einen Hersteller.

Beispiel: EVGA, letztes Bios für die OC-Modelle
62.92.1F.00.02 vom 5.12.2007 für die 8800GT SC
62.92.1F.00.05 vom 5.12.2007 für die 8800GT KO
62.92.1F.00.06 vom 5.12.2007 für die 8800GT SSC

Würde nun ein aktualisiertes Bios für z.Bsp. die KO kommen, würde EVGA einfach eine Ziffer davor setzen, so z.Bsp.:
62.92.1F.00.25 vom ??.??.200? für die 8800GT KO
= 2. Version der Bios-Revision '0x001F' für die Variante '5' (KO Modell)

Das macht aber jeder Hersteller, wie er "lustig" ist... zuvor genantes Beispiel gilt also ausschgließlich für EVGA der Modellreihe G92.

Nach Deiner Denke wäre das Bios für z.Bsp. die XFX 8800GTS (G92) das Aktuellste Bios überhaupt:
62.92.16.00.39 vom 20.11.2007
...was definitiv NICHT der Fall ist.

Die '0x00A3' Bios-Revision scheint ein Gag von Merlin zu sein, der offenbar seine eigenen Biose damit kennzeichnen möchte. Viel besser wäre es aber gewesen, die ursprüngliche Versionskennung beizubehalten und einfach die BiosRevision-High zu benutzen, die von nVidia derzeit 'eh nicht benutzt wird. Das 'A3' Bios von ihm scheint - wenn ich den Thread richtig gelesen habe, auf einem EVGA Bios der Version 62.92.16.00.22 (2. Bios-Version für die SC auf Basis der Revision '0x0016', wie wir ja jetzt 'gelernt' haben, gell?)

Halten die uns für bescheuert ? sicher ist das ein neues Nvidia Design und sicher werden sie es nicht zugeben
Nein, es ist kein neues Design.
Das PCB ist 100% identisch!

Das einzige, was sich geändert hat, ist der Kühler und hier noch nicht einmal der Kühlkörper, sonder ausschließlich der Lüfter.
OK, das Loch im 'Deckel' ist größer, um dem größeren Lüfter-Kern Rechnung zu tragen...

Und Du wirst lachen... was meinst Du, was mit dem 'neuen' Lüfter passiert, wenn dieser auf 100% aufdreht?
Richtig... "Turbine".

Gottlob tut dieser das nie... genau wie der von Dir permanent - zu unrecht - verunglimpfte Orginal-Kühler mit "Mini-Lüfter".

---

Und was sehr, sehr nett wäre...

Bitte packe doch Deine ellenlangen Listen in sog. Spoiler-Tags.
Das hilft der Übersicht extrem und führt beim Zitieren auch nicht zu kompletten Wiederholung Deiner Listen.

Syntax: Deine komplette Liste[/Spoiler.] (ohne die Punkte!)
Das sieht dann so aus:
[spoiler]Deine komplette Liste
Mach das Ganze wesentlich übersichtlicher hier im Forum...
Danke schon mal im Vornherein!

Razor

P.S.: habe mal eben mein originales XFX-Bios der Version 62.92.12.00.80 vom 17.10.2007 'gepatcht'...
...nun ist es ein nVidia-Referenz-Bios der Version 62.92.08.15.00 vom 18.12.2007.
(habe mir nicht die Mühe gemacht, nun auch noch alle anderen Strings in der Datei zu editieren - nur einen noch... wer findet ihn? ;-)

http://mitglied.lycos.de/razor3dc/8800gt/8800GT_RazorsBiosMod.zup

Razor
2007-12-18, 19:55:01
So, habe jetzt mal das OC-BIOS geflasht. Temps sind ziemlich deutlich hoch gegangen (Last 76°C, Umgebung 51°C), kann dafür aber auch auf 750/1870/960MHz gehen.
Darf ich mal fragen, von welchem OC-Bios Du sprichst?
Ist es das mit dem vCore-Mod?
:confused:

Du hast doch den VF900 auf der 8800GT oder?
Wenn ja bestätigt das meine Meinung vom VF900, ich hab gestern den Accelero S1 montiert mit 120er(ca 800rpm) und komme in Crysis nicht über 42 Grad.
Tjo...
Also bei mir (jetzt mal mit 720/1782/972 ;-) waren es mit VF900cu: 42°/62° (ambient/core).
Idle sind es 31°/41°... bei einer Zimmertemperatur von etwa 25°.

Ach ja... @DefaultClocks (600/1512/900) waren es 'nur' 41°/59°... mit OC ist die GPU also gerade mal 3° wärmer geworden (core).
('kleiner' 92mm Quirl des Zalman im übrigen bei 5V oder 1350umin... weniger/leiser geht nicht ;-)

Und wieso kannst Du eigentlich nicht die ambient temp mit ausgeben?
Hmmm...

Razor

RoNsOn Xs
2007-12-18, 20:26:10
was hast du an deinem bios verändert razor?

Razor
2007-12-18, 20:34:19
was hast du an deinem bios verändert razor?
Eigentlich nichts...

Wollte nur demonstrieren, dass man mit einem simplen HexEditor das Bios hinsichtlich Version und Datum (und natürlich mehr ;-) ohne weiteres ändern kann. Bezog sich mehr auf die "A3"-Version, die offensichtlich ein Fake ist...

Sorry4confusion

Razor

Rebell
2007-12-18, 20:44:29
Karte @ 771/1944/950

http://www.abload.de/thumb/3dmng5.jpg (http://www.abload.de/image.php?img=3dmng5.jpg)

Crysis, 1280x1024 DX9 Alles High.
http://www.abload.de/img/cry6jj.jpg

Razor
2007-12-18, 20:55:54
Karte @ 771/1944/950
http://www.abload.de/image.php?img=3dmng5.jpg]

Crysis, 1280x1024 DX9 Alles High.
http://www.abload.de/img/cry6jj.jpg
Joah... mit Volt-Modding - 1,15Vc ist ggü. den normalen 1,05V aber schon heftig.
Und Crysis ohne AA, right?
;)

Razor

Rebell
2007-12-18, 21:01:45
klar ohne AA, das Problem sind nur die Temperaturen, denn die Karte läuft nur stabil wenn ich den Raum auf 5Grad runterkühle und den Stockfan @ 100 stelle xD. Lasttemp bei Crysis trotzdem über 50° :D

Brauche noch einen S1 + 120er.

Weis aber nicht ob das die max. Taktraten waren, nur beim Speicher sind sie es definitiv.

-/\-CruNcher-/\-
2007-12-18, 22:02:35
@Razor
Ja das habe ich tatsächlich falsch interpretiert danke für die Erläuterung, ehrlichgesagt hab ich mich schon gewundert das so viele Bios revisions das licht der Welt erblicken nach Start war schon komisch und deine Aussage wird auch noch bekräftigt dadurch das jetzt ein "neues" XFX XXX Bios aufgetaucht ist das die nummer 62.92.16.00.92 trägt http://www.mvktech.net/component/option,com_remository/Itemid,26/func,fileinfo/filecatid,2351/parent,category/ aber nicht so ein neues Compile Datum wie das PNY das aber die nummer 62.92.16.00.32 trägt.

Hier mal ein Dauerstresstest des EVGA SSC Bios 1F 06 mit leicht erhöhtem MSI-OC Takt 20 min getestet und Stable die 64% (als max) sind eigentlich ganz ok wenn da wie gesagt nicht dieses Hochfrequente Heulen wäre das definitiv vom Lüfter ausgeht (das vermiest echt alles und deswegen nehme ich mal an neuer Referenzkühler mit größerem Lüfter der ruihger Läuft und nicht wie der Mini Lüfter der irgendwan sogar anfängt geräusche wie eine Säge zu machen :D) die Luftgeräusche an sich sind in Ordnung. (Natürlich kann auch immernoch sein das ich eine Absolute Sonntagsversion des Mini Lüfters erwischt hab, nur die Frage wieviele erwischen auch so eine ;) b.z.w. haben erwischt stellt sich dann)

http://s6.directupload.net/images/071218/z6x3buqj.png

Hier auch mal was interessantes 4% Einsparung :) (Der Schlüssel ist die Richtige Balance zu finden :) )

http://s4.directupload.net/images/071218/mnqb4d8l.png

HD-Ronny
2007-12-18, 22:19:01
Gpu-z gibt es jetzt in v0.1.4 mit BIOS speichern und upload.
# Added BIOS extraction features
# Added BIOS upload to TechPowerUp VGA BIOS collection
# Fixed high CPU usage after update is aborted
# Added/Improved detection for NV40 0x0040, G80-600, G84, G86, G92, G98
# Changes to shader detection code for NV40, NV41, NV42, NV43, NV44, NV46, NV48, G70, G71, G72, G73
# Added Subvendor ID for Zotac

Gast
2007-12-18, 22:50:24
Eigentlich nichts...

Bezog sich mehr auf die "A3"-Version, die offensichtlich ein Fake ist...

Sorry4confusion

Razor
Mein lieber Razor einige Assembler CODE stammen von mir
62.92.16.00.00 Evga hat von jeman bios bekomen mit meinen Assembler CODE dazu ghört auch Lüftersteurungsoptimierung, diese code habe ich schon verwendet 62.92.12.

Bei nexter NiBiTor update werden implementiert Lüftersteurungsoptimierung

mfg

Merlin

ps
sorry für mein etws schlechte deutsch
Merlin

Adam D.
2007-12-18, 22:50:40
Ja, hatte das BIOS von PCGH genommen mit der moderaten VCore-Erhöhung. Brachte bei mir aber nur geringe Vorteile, dafür ist die Temperatur ganz schön nach oben geschossen.

Werde nachher nochmal probieren, den hinteren 120er in meinem Gehäuse ans Board zu kriegen, ich hoffe das klappt irgendwie.
Und sonst bin ich kurz davor, das BIOS zurück zu flashen. Die Vorteile gehen quasi gegen 0, dafür wird die Karte wohl deutlich mehr belastet.

-/\-CruNcher-/\-
2007-12-18, 23:49:20
Hm besätigt das etwa die Vermutung das das auslesen der Temperatur nicht so genau ist?
http://s1.directupload.net/images/071218/s47isr3x.png

Was läuft den hier schief???
http://s3.directupload.net/images/071219/np3pqzse.png

Hehe übrigens keiner muss Angst haben die Karte mit einem festen Duty Cycle zu fetzen das Bios wird immer bei 90°C auf die vollen 100% aufdrehen :D egal was in Expertool oder Rivatuner festgelegt wurde (es sei den Fan Speed Control wurde festgelegt) und verhindert das der Chip überhitzt so kann man z.b. ideal seinen Case Flow justieren. Allerdings verschiebt man so nur das Lautstärke Problem von der einen auf die andere Seite aber je nachdem was leiser ist eine gute Möglichkeit das selbst zu testen und zu bestimmen. Man sollte auch davon ausgehen das jede % Verbesserung mit Atitool erhebliche Positive ausmaße auf die Lautstärke im normalen Spielbetrieb haben wird, dort wird die Karte je nach Aplikation nie hörbar werden bei Prey war das bei mir jedenfalls mit dem Release Bios der Fall aber naja ich hatte GPU Recover Situationen mit den neuen Bios Versionen sollte das nicht mehr passieren, (Ich muss unbedingt Crysis testen ob es mehr Last als wie Atitool Erzeugt ehrlichgesagt kann ich mir das dank den ganzen Nvidia optimierungen nicht vorstellen ;D ).

lance201
2007-12-19, 09:39:29
hallo,

hat einer der vielen GT-Besitzer vielleicht hierzu eine Lösung:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=396074

Danke Lance

Ok, habe bei der Suche im Forum selber diverse Lösungsansätze gefunden!

-/\-CruNcher-/\-
2007-12-19, 16:05:23
Das ist komisch also ich kann Prey auf meinem LG 22 zoll TFT in 1440x900 spielen und hab somit in einer extreme Belastenden Scenen (wie der Stargate Portalraum) Plötzlich volle 60 FPS 4AA/8AF wo ich in Nativen 1680x1050 nur 30 FPS hab und da kann man am Takt der Karte rumschrauben wie man möchte sie wird dadurch nicht schneller in dieser Scene überhaupt scheint Overclocking aussichtslos bei der Karte wenn man schon eine OC Version wie die MSI-OC hat lohnt sich da nix mehr selbst 700/1750/975 sind im Vergleich dann zu den 660/1650/950 (im Spiel merkt man 0) entäuschend, das einzige wo man das merkt sind in 20 oder 30 punkten mehr Shader speed in 3dmurks aber es hilft kein stück speziel in den sehr belastenden MinFPS scenen nicht (Return to Proxycon z.b. der Abschnitt wo die 3 Soldier vor dem Mech hocken immer 17 FPS egal wie ich Overclocke). Bin gespannt wie der RV670 mit diesen Scenen zurechtkommen wird (vieleicht unterschätzen die Leute einfach das er ausbalancierter ist für solche Scenen also auf MaxFPS verzichtet aber dank seiner Bandbreite bei solchen belastenden Scenen einiges im Gegenteil zum G92 rausholt?).

Für so ein Ergebnissschub müsste man Overclocken bis das Board raucht ;)
http://s6.directupload.net/images/071219/5gakaok7.png 4AA/8AF 1680x1050
http://s3.directupload.net/images/071219/bfo4ip3d.png 4AA/8AF 1440x900
http://s1.directupload.net/images/071219/rd8f3lkb.png 2AA/8AF 1680x1050

also definitiv ist der Chip nicht für 1080p ausgelegt mit extremen AA on dadrunter bekommt man traum werte entweder 2AA bei Nativen 1680 oder 4AA bei 1440 also ich würde 2AA bei der Nativen Auflößung bevorzugen, denke mal da stimmen mir alle 3DC User zu :)
da wir ja schon öfter in Reviews gesehen haben das der G92 bei 1680 mit hohem AA einbricht bestätigt dies das auch nochmal (bandbreite scheint hier ein echtes Problem) und wie gesagt der Test gegen den RV670 kommt :)

Razor
2007-12-19, 16:40:11
Ja das habe ich tatsächlich falsch interpretiert...
Macht ja nichts...
Die aktuellsten Biose scheinen also tatsächlich die "1F" von EVGA zu sein, die Du ja auch getestet hast.
Und Du scheinst tatsächlich der einzige mit einem "heulenden" Lüfter zu sein... tritt also wohl nicht allzu häufig auf, gell?
;)

Mein lieber Razor einige Assembler CODE stammen von mir
62.92.16.00.00 Evga hat von jeman bios bekomen mit meinen Assembler CODE dazu ghört auch Lüftersteurungsoptimierung, diese code habe ich schon verwendet 62.92.12.
Mag ja alles sein... nur ist das "A3" schlicht ein Fake.
Es gibt einfach keine Bios-Revision "A3".

Ja, hatte das BIOS von PCGH genommen mit der moderaten VCore-Erhöhung. Brachte bei mir aber nur geringe Vorteile, dafür ist die Temperatur ganz schön nach oben geschossen.
Was bei einer vCore-Erhöhung durchaus 'normal' ist... das mit der kräftigen Temp-Erhöhung.
Dass es nicht viel brachte, ist halt Pech, aber als 'moderat' würde die ich die maximale (Bios-)vCore-Erhöhung nicht bezeichnen.
OK, letztendlich sind die 1,15Vc der GTS ja auch nur 10% mehr ggü. den 1,05Vc der GT.

Die 10% mehr 'braucht' die GTS ja vermutlich auch nur wegen der einen zusätzlich aktivierten Einheit.

Werde nachher nochmal probieren, den hinteren 120er in meinem Gehäuse ans Board zu kriegen, ich hoffe das klappt irgendwie.
Und sonst bin ich kurz davor, das BIOS zurück zu flashen. Die Vorteile gehen quasi gegen 0, dafür wird die Karte wohl deutlich mehr belastet.
Mach das!
(beides ;-)

Der "raus"-Lüfter ist der wichtigste überhaupt...
...schließlich sorgt er dafür, dass die erwärmte Luft (Mobo/CPU/HD's/GraKa) aus dem gehäuse gepustet wird.

Die modifizierte Lüfter-Steuerung brauchst Du ja 'eh nicht und wenn Du doch mal mit dem vCore-Mod leibäugelst, kannst Du den ja immer noch via NiBiTor im eigenen (originalen) Bios setzen.

Ich muss unbedingt Crysis testen ob es mehr Last als wie Atitool Erzeugt
Tut es...

Razor

Adam D.
2007-12-19, 16:49:00
Ich find einfach keinen 3. 3-Pin-Stromstecker auf dem Board. Hätte ja nicht gedacht, dass das so ein Krampf ist, aber da muss ich mir wohl erstmal einen Adapter kaufen, damit das Ding direkt ans NT kommt. Sowas blödes :rolleyes:

Gast
2007-12-19, 16:58:30
Das ist komisch also ich kann Prey auf meinem LG 22 zoll TFT in 1440x900 spielen und hab somit in einer extreme Belastenden Scenen (wie der Stargate Portalraum) Plötzlich volle 60 FPS 4AA/8AF wo ich in Nativen 1680x1050 nur 30 FPS hab und da kann man am Takt der Karte rumschrauben wie man möchte

Wird wohl VSync aktiv sein. Abhilfe: VSync ausmachen oder Tripplebuffering aktivieren.

-/\-CruNcher-/\-
2007-12-19, 17:06:01
Wird wohl VSync aktiv sein. Abhilfe: VSync ausmachen oder Tripplebuffering aktivieren.

Ehh ja aber ich hab Vsync ja aus einem Spezielen Grund an um extremes Tearing zu verhindern und es hat damit nix zu tun AA ist schuld siehe Screens oben, und Tripple Buffering bringt nicht so viel als wie die 1 AA stufe runter zu gehen :)

http://s6.directupload.net/images/071219/uh8jeixa.png 4AA/8AF 1680x1050 Tripple Buffer on

RoNsOn Xs
2007-12-20, 19:13:36
so bin jetzt auch im hause 88gt/c2d

hab mit default-werten folgendes bisher erreicht mit:

C2D E6750
1GB TakeMS PC6400
8800GT 256 (default 600/700)
P35 DS3R

http://s1.directupload.net/images/071220/temp/sesw5m79.png (http://s1.directupload.net/file/d/1282/sesw5m79_png.htm)

Nocvh was: Kann es wirklich sein das die CPU nur ~25°C hat? Auch nachdem 3DMark gelaufen ist, nur max 2°C. (Cooler ist ein ZEROtherm Nirvana NV120 @1800rpm)
http://s3.directupload.net/images/071220/7rw6qqom.png (http://www.directupload.net)

Die GPU wurde maximal 61°C heiß @referenzkühler

HD-Ronny
2007-12-20, 20:01:06
so schlecht? Sogar unter dem Penismark kackt die 256MB total ab.

RoNsOn Xs
2007-12-20, 20:08:51
lol der speicher limitiert da überhaupt nicht. die anderen referenzergebnisse sind gleich auf wenn man bedenkt das der speicher 200mhz niedriger taktet. ich komm gleich mal zurück

HD-Ronny
2007-12-20, 20:20:33
Also ich hatte default mit nen E6750 schon 11762 Punkte?
Bin gerade einen E2140 am testen der mit 3Ghz auch 11106 beim ersten Run schafft.

RoNsOn Xs
2007-12-20, 20:27:15
ich weiß nicht inwiefern der core etwas bringt aber hier mal mit 700/1750/900
(btw: ist dazu noch single channel - ka wie sehr das noch drückt)

http://s6.directupload.net/images/071220/temp/43f8vhtc.png (http://s6.directupload.net/file/d/1282/43f8vhtc_png.htm)

HD-Ronny
2007-12-20, 20:37:53
Stöhn.Also jetz nochmal OC was rausreissen?Da habe ich schon >14k was bei mir gesehen.
Die 256MB 8800GT ist Schrott imho.

RoNsOn Xs
2007-12-20, 20:54:23
zeig mal deinen screen her. nein die ist kein schrott, da es drauf ankommt welche auflösungen man bevorzugt. udn die 256 karte wird oftmals unterschätzt. schau dir dir reviews an.

http://www.pcgameshardware.de/?article_id=623033
http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page17.asp

reunion
2007-12-20, 20:57:58
Das die 8800GT 256MB ein Rohrkrepierer sein wird, war schon lange klar. Schon die 512MB Version hat auffallend häufig mit dem VRAM zu kämpfen.

zeig mal deinen screen her. nein die ist kein schrott, da es drauf ankommt welche auflösungen man bevorzugt. udn die 256 karte wird oftmals unterschätzt. schau dir dir reviews an.

http://www.pcgameshardware.de/?article_id=623033
http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page17.asp

Wenn du nur in Auflösungen spielen willst, wo die 256MB ausreichen, dann hätte es auch eine deutlich billigere Karte getan.

RoNsOn Xs
2007-12-20, 21:06:09
genau der preis. ich hab gut 80-100€ weniger bezahlt als die meisten für 512mb 250-270€.
ich brauch keine 1600x.. und aa. af ist mir wichtiger. btw wo sind denn deine fundierten tests?

HD-Ronny
2007-12-20, 21:31:07
Ruhig Blut ;)

Welche tests möchtest Du ? Deine 256MB 8800GT genügen vielleicht für 1024x768 , aber da würde ich bei dem Preis doch eher zur HD3850 greifen.

RoNsOn Xs
2007-12-20, 21:50:51
das mit den 1024 stimmt nun absolut nicht.
schön wären einige test von benches mit verschiedenen auflösungen und taktraten (hab keine full bei futuremarks, zwecks auflösung)

HD-Ronny
2007-12-20, 22:27:11
Jo,das war auch recht provizierend von mir.
Aber anstatt sich jetzt durch tests und benchmarks zu wühlen würde ich einfach eine 3850 nehmen und akzeptieren das die schneller ist. Punkt.

RoNsOn Xs
2007-12-20, 22:40:58
äh ist sie aber gar nicht wenn du dir die reviews anschaust. nicht mal die 3870 (es sei denn es gibt 1600x.. mit aa+af)

Grindcore
2007-12-20, 22:48:59
Liegt eindeutig am Prozessor, Ronson hat gerade mal 23xx CPU Punkte, Du kannst Dir Dein stupides Gekeife sparen, Rönny, im 3DMark limitieren die 256MB jedenfalls nicht.

HD-Ronny
2007-12-20, 23:11:58
o.k

Odal
2007-12-20, 23:50:49
Liegt eindeutig am Prozessor, Ronson hat gerade mal 23xx CPU Punkte, Du kannst Dir Dein stupides Gekeife sparen, Rönny, im 3DMark limitieren die 256MB jedenfalls nicht.


naja aber bei "echten" Spielen limitieren die 256MB dann doch schon so langsam...also ich würde mir keine Karte mit nur 256MB in dieser Preisklasse mehr kaufen

http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/images/bshock1280.gif
http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/images/bshock1600.gif
http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/images/aacry1280.gif
http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/images/aacry1600.gif

die 256MB sind so langsam einfach nicht mehr zeitgemäß und man verschenkt unnütz leistung

RoNsOn Xs
2007-12-21, 00:18:35
genau die 2 richtigen beispiele rausgesucht :rolleyes:

man hätts auch umdrehen könne. fakt ist bei den meisten games setzt erst relativ spät ein limit ein.

Odal
2007-12-21, 02:05:56
genau die 2 richtigen beispiele rausgesucht :rolleyes:

man hätts auch umdrehen könne. fakt ist bei den meisten games setzt erst relativ spät ein limit ein.

auch bei 1280 liegt die karte mit 256MB schon 30% hinter der mit 512MB und das sind avarege FPS bei den min FPS wirds sicher nochmal deutlich mehr sein an stellen wo eben die 256MB zu wenig sind....

und der speicherbedarf wächst ja eher statt zu sinken...

da würde ich über die "nur" ca. 35% die die 256 mb version billiger ist hinwegschauen und mich lieber über 30% höhere avarege FPS deutlich höhere min FPS und einiges mehr an "Zunkunftssicherheit" (soweit man da bei hardware von sprechen kann) freuen

aber jedem das seine und mir das meiste ^^

Schrotti
2007-12-21, 02:37:43
Und was ist, wenn man maximal 1024x768 nutzt?

Mein Schwager sucht und da wäre die 256er 8800GT doch optimal (Familie hat Vorrang und momentan nutzt er eine 6600 non GT und spielt damit Medal of Honar Airborne in 800x600 medium).

Gast
2007-12-21, 07:23:06
Und was ist, wenn man maximal 1024x768 nutzt?

Mein Schwager sucht und da wäre die 256er 8800GT doch optimal (Familie hat Vorrang und momentan nutzt er eine 6600 non GT und spielt damit Medal of Honar Airborne in 800x600 medium).

Nein, wenn man maximal 1024x768 nutzt, dann ist eine 8800GT völlig überdimensioniert.

Teil 2:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6128503#post6128503