PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Echte User-Erfahrungen zur 8800GT


Seiten : [1] 2 3 4

Razor
2007-10-30, 16:03:47
Hallo liebe Leutz, (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6010007#post6010007)

da ich offenbar der erste bin, der eine 8800GT sein Eigen nennen darf, fange ich doch gleich mal an, hier einen Thread für User-Erfahrungen zu dem neuen kleinen Wunderwerk nVidias zu eröffnen.

Ich bitte darum, bei Treiber-basierten Problemen (also jegliche Form von Software-Problemen) im Detail bitte ins Hilfe-Forum zu verlagern, damit dieser Thread nicht unübersichtlich wird. So kann jeder hier sein generelles Statement zu dem abgeben, was ihm an der Karte seines Herstellers (letzteres ist wichtig!) gefällt und eben auch mißfällt.

Ich zähle auf Eure Unterstützung!

Hier nun eine Liste der User-Erfahrungen:

- TheBrother, 8800GTS (G92) SLI, 7.12. - 22:00 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6093002#post6093002) (kaum Infos... aber "more to come" ;-)

- Dr.Dirt, EVGA 8800GT, 19.11. - 14:45 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6040952#post6040952) (genialer WaKü-Umbau!)

- Rigger, BFG 8800GT OC , 14.11. - 9:58 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6025619#post6025619) (unterhaltsam aufbereitete Erfahrungen über eine Woche mit der "Kleinen")

- Doc Chaos, 8800GT mit Zalman VF900, 8.11. - 13:05 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6008479#post6008479) (Kühlerumbau mit detaillierten Temps zu RAM und SpaWa - mit ersten Bildern ;-)
- Doc Chaos, nun mit 'beklebten' SpaWa OC'ed @ 704/1760/950 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6009781#post6009781) (Temps im grünen Bereich: 65° GPU, ca. 50° RAM/SpaWa)
- Doc Chaos, Werte mit geschlossenem Gehäuse und finalem OC (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6011436#post6011436) (Temps @ 65° GPU, ca. 50° RAM/SpaWa - OC @ 741/1759/950 stable!)

- tarabas, 8800GT mit Accelero S1, 7.11. - 16:00 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6005789#post6005789) (sehr schön bebildeter Umbau-Bericht: 56/91° -> 35/47°!)

- dreas, Zotac 8800GT mit Zerotherm GX810, 5.11. - 22:08 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6000517#post6000517) (Kühler-Mod und nachfolgendes OC @ 756/1728/999 nur noch 50°/62° idle/load!)
- dreas, Update zu den Temps... nur 43° core und 38° ambient! (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6011202#post6011202)

- Darkchylde24, MSI 8800GT OC, 4.11. - 19:48 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5997203#post5997203) (107° ohne manuelle Lüftersteuerung? :O)

- shane, Leadtek WinFast PX8800GT-512M, 1.11. - 23:23 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5989120#post5989120) (sehr schöner, ausführlicher und bebildeter Bericht mit Vergleich zur 7950GT)
- shane, "weisser Rand" beim booten durch Bios-Update gelöst! (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5990726#post5990726)
- shane, sehr ausführliche Betrachtung zu OC und damit verbundene Temps @ Standard-Kühlung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6007181#post6007181)
- shane, finales OC bei 640/1600/950 - stabil aber auch bei 700/1750/1000 mit Lüfter@50% (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6013186#post6013186)

Dazwischen 5 Seiten Müll, sorry.

- gast, Gainward Bliss 8800 GT (standard), 1.11. - 3:41 - First Zalman VF900 Mod!!! (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5986242#post5986242) (grooooooooße Bilder ;-)
- gast, 'advanced' Zalman VF900 Mod! (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5992201#post5992201) - GENIAL :up:

- LovesuckZ, Sparkle 8800 GT (standard), 31.10. - 20:25 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5985571#post5985571) (Ultra-Short-View im "Watt-Vergleich" zur 8800GTX)
- LovesuckZ, UC... nicht möglich? - evtl. 'echtes' Idle-Management? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5986126#post5986126)

- Das Auge, Gainward 8800 GT (standard), 31.10. - 15:26 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5984470#post5984470)
- Das Auge, 1. 'zaghaftes' OC @ 650/900 mit 97° core Temp (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5984547#post5984547)
- Das Auge, OC: Update1, 73° mit Lüfter@55%, laut(er) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5984666#post5984666) # Update2, 734/900 bei 77° core und 55% Lüfter (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5984896#post5984896) # Update3, 700/950 scheint stabil, Temp? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5985340#post5985340)
- Das Auge, OC: The Final - 700/1700/950 - Lüfter @ 40% (erträglicher Lärm ;-) - 87° max core (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5985685#post5985685)
- Das Auge, jetzt mit THG-Lüftermod und 75/54° @ 700/1700/950 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6044745#post6044745)

- dropback, Sparkle 8800 GT (standard), 31.10. - 10:55 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5983643#post5983643)
- dropback, nun auch hier mit Accelero S1 "Kühler-Modded"... (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6006747#post6006747) - now @ 38°/48° (mit 5V) bzw. 38°/42° (mit 12V)

- Archon, Leadtek Winfast 8800 GT (standard), 30.10. - 17:36 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5981746#post5981746)
- Archon, OC No.2 mit 680/1000 - hohe Temp bestätigt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5984603#post5984603)
- Archon, finale Anmerkungen zur eigenen Präferenz @ 1920x1200 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6011290#post6011290) (mit AA ist die 8800GT nur bedingt geeignet, für Mainstream aber OK)

- Razor, XFX 8800 GT (standard), 30.10. - 17:06 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5981640#post5981640)
- Razor, Vergleich zur 7900GT (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5983172#post5983172)
- Razor, short Statement zur eigenen Präferenz @ 1280x1024 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6011710#post6011710) (mit Ausnahme von Crysis: Go!)
- Razor, jetzt mit Zalman VF900-Cu Kühler @ 33/43° idle und 43/61° maximum load! (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6017163#post6017163) (natürlich mit Standard-Takten @ 600/1500/900 ;-)
- Razor, nachgereichte Umbau-Doku auf vielfachen Wunsch... (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6023004#post6023004) (viiiele Bildchen ;-)
- Razor, auch auf der 7900GT 'fehlte' eine Phase! (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6023526#post6023526)
- Razor, Zalman VF900-Cu Effektivität beim OC (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6047496#post6047496)

Razor

Die gelbe Eule
2007-10-30, 16:07:38
Dein Anliegen in Ehren, aber Du weißt das es auch hier wieder zu einer "mach mal diese Benchmarks", "ist sie lauter/leiser als XYZ", "wieviel ist meine XYZ langsamer", "soll ich warten oder kaufen" Fragerei verkommt.
Mach doch am besten einen Thread im User Test Bereich auf, versuche sämtliche Details aufzuschlüsseln und vielleicht auch Spannungen zu messen und arbeite Dich dann vor.
Ansonsten geht doch vieles unter ;)

Arcanoxer
2007-10-30, 16:43:37
Gibt es schon ein Linux Treiber für die 8800GT?
Im 100.14.23 vom 18.10.2007 scheint sie noch nicht supported zu werden.

Anders kann ich auch noch warten. ;)

HD-Ronny
2007-10-30, 16:46:49
Für was braucht man so eine Karte unter Linux? http://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/common/cwm13.gif

@razor
Wie empfindest du Lautstärke und hitzeentwicklung? Welche 88800GT hast du und von woher?

Spasstiger
2007-10-30, 16:49:28
Wie weit kannst du denn deine 8800 GT übertakten und ist sie dabei noch leise?

Razor
2007-10-30, 17:06:03
Folgende Variante haben ich bekommen:
(Bedingung war lediglich: Egal, hauptsache nonOC ;-)

XFX 8800 GT
(standard)

Takte: 600/1500/900MHz

Enthaltenes Spiel: Company of Heroes inkl. DX10 AddOn (2 DVD's, Vollversion)
Enthaltenes Zubehör:
- "I'm gaming - Don't disturb!" Sticker für die Türklinke ;)
- Quick Install Sheets (sehr ausführlich)
- Driver CD (dazu gleich mehr)
- DVI-I-zu-VGA Adapter
- SVHS-Kabel
- SVHS-zu-Component Adapter
- Molex-zu-PEG-VGA-Power Adapter
Verpackung:
- stoßfeste Kunststoff-Schaum-Umhüllung für die Grafikkarte
- standard Kartonage

Und das nenne ich doch mal wirklich einen passenden Lieferumfang! Alles, was man braucht und nichts, was man nicht braucht... wenn ich da noch so an meine MSI FX5900 mit "Sonnenkühler" denke... oh mann... ist zwar auch nett, aber das meiste davon eben noch immer original verpackt... egal.

Na ja, ob ich CoH wirklich 'brauche', stgeht auch auf einem anderen Blatt.
'Stören' tut es aber auch nicht... ;)

Hier noch ein paar Impressionen der 'Kleinen':

http://www.alternate.de/pix/prodpic/450x450/j/jbxxl1.jpg http://www.alternate.de/pix/prodpic/450x450/j/jbxxl1_1.jpg

Siehe hier auch den entsprechenden Alternate-Link
http://www.alternate.de/html/product/details.html?articleId=231033
(bekommen habe ich sie aber nicht zu diesem Preis ;-)

-

Zuerst einmal der Post, den ich in einem anderen Thread abgelassen habe, um mich zum Thema Lautstärke und Wärme-Entwicklung zu äussern:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5981348#post5981348

Bin ich tatsächlich der erste, der eine 8800GT sein Eigen nennen darf?
:confused:

Erster !?

Wie dem auch sei, ich bin gerade intensivst dabei, die neue 'Kleine' auf Herz und Nieren zu testen...
...und selbstverständlich war das Thema Temps/Lautstärke dann auch gleich einer der Haupt-Augenmerke.

Aber der Reihe nach:

Das Kärtchen läuft im Standard-Takt, will sagen 900MHz ROP-Domain, 1500MHz Shader-Domain und 900MHzDDR (1800MHz effektiv) für den Speicher.

Und um es gleich vorweg zu nehmen: Die Karte ist leise!

Also scheinen doch die Stimmen von THG unbd Co. recht zu bahalten, die sagten, dass dem so ist.
Kann natürlich sein, dass das im OC-Umfeld dann anders ist, interessiert mich aber derzeit nicht einmal sekundär...

Und das mit einer Single-Slot-Kühlung!
Ich bin schlichtweg von den Socken, echt.

Erstaunt war ich, dass ich tatsächlich wieder eine "ambient" Temp hatte, was schon lange nicht mehr der Fall war (FX5900 anyone?)...
(genutzt wurde RivaTuner 2.06 Test 6, welcher die 8800GT nativ unterstützt)

Das ganze stellt sich folgender maßen dar:

Idle: 59°/60° core und 45°/46° ambient Temp
Load: 91° core und 67° ambient Temp

Gemessen wurde mit Crysis in der Einstellung "HighSpec" im Dauerloop (etwa 30 Durchläufe AFAIK). Crysis habe ich genommen, weil dies wohl die Engine ist, welche die Karte am meisten belastst... wie es schon bei meiner vorherigen 'Kleinen' war, der 7900GT.

Der Lüfter ist dabei kein Stück lauter geworden!

Er läuft ruhig, ohne lästige Untertöne und versieht seinen Dienst. Leidiglich beim Starten des Rechner dreht er im Post kräftig nach oben und gibt einen Eindruck von dem, wozu er in der Lage ist, wenn es dem Kärtchen dann doch zu heiß wird. Möge dieser Fall niemals eintreffen...

Momentan sehe ich mich nicht einmal genötigt, den guten alten VF900-Cu von Zalman zu verbauen... später vielleicht, wenn es dann doch irgendwann mal ans OC geht.

Man sollte allerdings dazu sagen, dass ich ein Gehäuse besitze, dass besser auf interne Luftströmungen wohl nicht ausgelegt sein könnte... zudem ist es Bauart-bedingt gedämmt. Es besitzt einen eigenen Lufttunnel für das Netzteil und die Festplatten, die also sowohl bei der zusätzlichen Wärmeentwicklung, wie auch bei einer möglichen Zusatzbelastung durch andere Komponenten aussen vor sind.

Es handelt sich hier um ein Antec P180.

Langsam drehender 12cm Lüfter rein, ein ebensolcher raus, that's it...
...und die anderen Komponenten sind nicht einmal wärmer geworden (Mobo/CPU).

So läßt das die Vermutung zu, dass hier mehr die ambient Temps zu Rate gezogen werden sollten und nicht die core Temps. Und wenn das so ist, dann ist die neue 'Kleine' kaum wärmer, als meine gute alte 7900GT.

Ergo:

7900GT: idle 43° und last 68°
8800GT: idle 45° und last 67°

Quasi kein Unterschied also... wenn, ja wenn das Ganze so stimmt, aber alles deutet bisher darauf hin.
.

Insofern hier noch ein kleiner Einblick, in das, was ich bisher sonst noch so 'gesehen' habe...

-

In Sachen Video-Beschleunigung ist alles so, wie es 'versprochen' wurde... sagenhafte Bildqualität und Performance bei allen Video-Formaten... lediglich bei VC-1 codierten HighDefs muss die CPU noch 'ackern', was ihr aber auch mal ganz gut tut, wie ich finde... ;)

Die zugehörigen Werte gibt's dann im Treiber-Thread, wenn der 'Rest' fertig ist.

-

Nun noch ein paar Worte zur Usability...

Da wäre zum einen das, was mir sofort aufgefallen ist: es wird nur ein Display beim Start aktiviert!

Zuerst dachte ich, dass ich irgendwelche Kabellagen zerstört habe, aber dem war nicht so... die Karte scheint sich das erste Display zu greifen, welches sie findet und stellt dort den Post dar... die anderen angeschlossenen Displays bleiben schwarz.

Ob das wohl ein Attribut an die volle HDCP-Fähigkeit ist?

Wie dem auch sei, alle Displays wieder abgestöpselt, nur den TFT angeschlossen (ist mein primär Gerät), den Rechner eingeschaltet, Post wird angezeigt, Rechner ausgeschaltet, restliche Displays angeschlossen (CRT via VGA-Adapter und TV via SVHS vom AV-Receiver) und Rechner eingeschaltet. Post wird nun noch immer auf dem TFT ausgegeben - gut!

Die Treiberinstallation verlief absolt problemlos... habe natürlich den aktuellen 169.02 WHQL RC der nVidia-Seite genommen und nicht die von der CD. Aber ein bissel merkwürdig war es schon, denn ich war es eben bis dato gewohnt, den Treiber im 'Clone' Modus von TFT und CRT zu installieren... jetzt war ausschließlich der TFT an. Aber ich werde mich anpassen...

Apropos Treiber CD... folgendes war enthalten:
- offizieller Treiber für WinXP: 163.71 WHQL
- offizieller Treiber für WinXP x64: 162.18 WHQL
- offizieller Treiber für Vista: 163.71 WHQL
- offizieller Treiber für Vista64: 162.22 WHQL
allesamt nicht für die 'Kleine' geeignet... ;)

Zudem dann noch DirectX9 im April 2007 Release und ein WDM-Treiber für einen etwaig vorhandenen Video-In.

Aber es war noch mehr auf der CD unter 'others'...
- NVFLASH 5.31 (nVidia Bios-Flash-Tool)
- eine Anleitung zum OC (mit Coolbits REG... echt! ;-)
- ein paar andere Video-In WDM-Treiber
- und - jetzt kommts - weitere Treiber!
-- 158.36 (Vista)
-- 162.13 (Vista)
-- 167.26 (WinXP)
-- 167.27 (Vista)

So gab es auf der CD zumindest Treiber für die beiden 32Bit-Betriebssysteme... ist OK!
Für die 64Bit-Treiber brauchts also eine iNet-Verbindung, gell?

-

Was haben wir noch... ach ja, Überwachung!

Um RivaTuner mit der 8800GT nutzen zu können (sehe ich für's Monitoring als unabdingbar an!), muss es die Version 2.06 (Test 6) sein, die sowohl G92 als auch RV670 schon unterstützt.

-

Zu den Temps und der Lautstäre wurde ja schon alles gesagt (more to come ;-) und in Sachen Video-Beschleunigung gibt es auch nichts auszusetzen... funktioniert alles out-of-the-box (bei installiertem PowerDVD 7.3 natürlich ;-). Die Ausgabe-Qualität ist ausserordentlich gut, will sagen: Overlay, TV-Out, wie auch Desktop/3D und auch 3D-Darstellung sind ausgezeichnet... puhhhh... gottlob.

Ansonsten fällt mir nicht mehr wirklich viel ein... will auch langsam wieder ans Kärtchen zurück und mir hier nicht die Finger wund tippen.
Aber da wäre doch noch etwas:

Crysis

Tjo, das Game habe ich mir natürlich sogleich angeschaut, weil die Performance auf meiner vorherigen 'Kleinen' nur noch als erbärmlich zu bezeichnen war... und das mit reduzierten Details... Medium+ würde ich sagen.

Also habe ich mal schnell die Timedemos durch laufen lassen (meine 3,2GHz C2D-CPU hat genug 'Power' für den 'Rest' ;-)...

1280x1024 avg diff | min/max diff
----------------------------------------|----------------------------
7900GT "medium+" 28,77 | 22/39
|
8800GT "medium+" 66,88 +132% | 46/80 +109/105%
|
8800GT "high" 37,46 + 30% | 22/44 + 0/ 13%
|
8800GT "vhigh mod" 24,88 - 14% | 15/29 - 32/ 26%
|


1280x1024 avg diff | min/max diff
----------------------------------------|----------------------------
|
high, 1xAF 37,46 | 22/44
|
high, 8xAF, quality 34,74 - 7,2% | 22/41 - 0/ 7%
|
high, 8xAF, h.qual. 33,72 -10,0% | 22/41 - 0/ 7%
|
vhigh, 1xAF 24,88 | 15/29
|
vhigh, 8xAF, quality 22,48 - 9,6% | 12/28 - 20/ 3%
|
vhigh, 8xAF, h.qual. 22,09 -11,2% | 12/28 - 20/ 3%
|Sehr nett... erst beim simulierten "very high" geht das Kärtchen langsam in die Knie!
Und per Default ist sie schon mal 2 bis 2,5 mal so schnell, wie meine gute alte 7900GT...

Noch etwas: 1280x1024 mit "vhigh mod" und 4xAA scheint das Maximum zu sein, was man der Karte zumuten sollte... satte 450MB VRAM hats hier schon gebraucht. Evtl. sind also noch D3D10 "very high" und 4xAA drin, aber das ist es dann auch... und die 512MB VRAM sind 'gesprengt'.

Allerdings empfine ich schon die generelle Shader-Leistung als nicht mehr ausreichend (OC to come? ;-), insofern sich das für mich als "non issue" darstellt... SLI ist für mich kein Thema.

Jo... ich würde sagen, es hat sich gelohnt, sich eine neue Midrange-Karte zu zulegen!
:up::up::up:
(vorerst ;-)

Razor

P.S.: Treiber-Einstellungen... "HighQuality", LOD-clamp, AA-GC an, AA-TMS an, AppControled.

Razor
2007-10-30, 17:10:48
Ansonsten geht doch vieles unter ;)
Soviel Zeit werde ich wohl nicht haben... bin schon froh, jetzt ein paar Tage Urlaub zu haben.
(das passt echt, wie die Faust aufs Auge ;-)

Gibt es schon ein Linux Treiber für die 8800GT?
Im 100.14.23 vom 18.10.2007 scheint sie noch nicht supported zu werden.
Ich warte auch... Ubuntu 7.04 zuerst und wenn das funzt, dann kommt endlich das 7.10 Äffchen drauf!
Mal schaun, wann das wird... aber wie ich nVidia kenne, wird das nicht lange dauern...

Wie empfindest du Lautstärke und hitzeentwicklung? Welche 88800GT hast du und von woher?
checked...
;)

Wie weit kannst du denn deine 8800 GT übertakten und ist sie dabei noch leise?
Kann ich Dir nicht sagen... sehe derzeit absolut keinen Grund zum OC.

Razor

Saw
2007-10-30, 17:19:33
Was hast du denn nun für das Kärtchen bezahlt? :naughty:

Razor
2007-10-30, 17:35:04
Was hast du denn nun für das Kärtchen bezahlt? :naughty:
Ist die (standard) XFX, von Alternate geliefert...
(ob der andere Distri auch noch liefert? Hatte er eigentlich zugesagt ;-)

War aber eine B2B-Bestellung... 210€ + Märchensteuer inkl. (Express-)Versand.
(da habe ich doch tatsächlich mal wieder privat auf Geschäftsakontakte zurück gegriffen ;-)
;)

Razor

Archon
2007-10-30, 17:36:06
Hi,

na dann werd ich auch mal grad :

Ich war heut bei Alternate direkt und hab eine Leadtek 8800GT,Non OC abgegriffen - in erster Linie wg. dem beigelegten NWN2.

ich klau mal deine Liste ;)



Leadtek/Winfast 8800 GT - nonOC


Takte: 600/1500/900MHz

Enthaltenes Spiel: Neverwinter Nights 2, DVD
Enthaltenes Zubehör:

- Quick Install Sheets
- Driver CD
- DVI-I-zu-VGA Adapter
- SVHS-zu-Component Adapter
- Molex-zu-PEG-VGA-Power Adapter

_Verpackung:
- stoßfeste Kunststoff-Schaum-Umhüllung für die Grafikkarte
- standard Kartonage


Zur Treiber CD kann ich auch nur soviel sagen, daß die mitgelieferten Treiber nicht zu gebrauchen sind ;)

Ansonsten bin ich echt froh das bei dir der Lüfter auch nicht hochdreht - ich werde nämlich die Unsicherheit nicht so wirklich los - es könnte ja was am Treiber faul sein.

_Lautstärke :

Die Karte ist deutlich(!) leiser als meine alte 7800GT mit 7800GTX Lüfter drauf.
Die max Temperatur unter Last lag bisher bei 82° nach 30min Crysis SP Demo, und, wie schon gesagt, der Lüfter drehte nicht hoch - Wahnsinn, denn damit hatte ich bei der 1-Slot Lösung wirklich nicht gerechnet !



kurz n paar Daten noch :

_3DMark06 : 8436 Pkte

_FEAR in 1920x1200, 4xFSAA und Soft Shadows eingeschaltet
minFPS : 30
maxFPS : 146
avgFPS : 59

_Crysis SP DEMO, DX9, 1920x1200, NoAA, alles auf HIGH

minFPS : 6.99
avgFPS : 23.41
maxFPS : 26.49

auf folgendem (im Moment) unübertaktetem System :

Gigabyte DS-4 Rev1.0,
2 GB RAM,
C2D E6300 (Allendale, @1,86Ghz)
WinXP32-SP2

soweit wars das fürs erste . . . achso ich hab 259,00€ gelatzt - ich konnt mich heut morgen nicht bremsen, aber ich hab im Moment halt auch nich so irre viel zu tun- ab nächster woche sieht das wieder anders aus ;)

Das Auge
2007-10-30, 17:42:59
Fein, fein, macht mal weiter so :up: Ich hoffe meine Gainward kommt morgen an, das Tracking-System von DHL lahmt mal wieder :rolleyes:
Verschickt ist sie jedenfalls schon :D

Ich werd die Karte auf jeden Fall auch auf OC-Fähigkeiten prüfen, schon rein aus Prinzip, geschenkte Leistung nehm ich gerne mit.

Godmode
2007-10-30, 17:47:31
Mich würde besonders interessieren wie hoch die Karten gehn? Wenn sie bis 700 MHz gehn, kann ich gerne auf die teurere OC Versionen verzichten.

tombman
2007-10-30, 17:48:53
Könntest du die 167er Treiber uploaden? Könnte sein, daß mit denen triple sli funkt ;)

HD-Ronny
2007-10-30, 17:52:13
Habt ihr mal lust den neuen 169.04 beta zu testen.Speziel würde mich interessieren ob sich bei Archon in der hohen 1900x1200 was bessert.
http://www.nvidia.com/Download/betadrivers.aspx?lang=en-us
Gibts nur in english,in deutsch nur den 169.01

Gast
2007-10-30, 17:58:14
Razor kannst du mal Crysis in 1280x1024 all High, benchen mit Treibereinstellung auf "Qualität"

Thx

tombman
2007-10-30, 18:01:09
Razor kannst du mal Crysis in 1280x1024 all High, benchen mit Treibereinstellung auf "Qualität"

Thx
Hoffentlich nicht, natürlich soll er auf HIGH QUALITY testen- wir sind hier bei 3Dc, nicht bei Computerbild :D

Gast
2007-10-30, 18:02:17
Razor kannst du mal Crysis in 1280x1024 all High, benchen mit Treibereinstellung auf "Qualität"

Thx

Und mit dem neuen Treiber hier http://www.forumdeluxx.de/forum/showpost.php?p=7383293&postcount=1664
und mit OC wäre auch gut.

Gast
2007-10-30, 18:04:34
Hoffentlich nicht, natürlich soll er auf HIGH QUALITY testen- wir sind hier bei 3Dc, nicht bei Computerbild :D
Ja , er hat ja mit HQ gebencht. Wollte mal den unterschiede von den FPS zu "Qualität sehen, wie viel das ausmacht ;-)

Coda
2007-10-30, 18:06:31
Hoffentlich nicht, natürlich soll er auf HIGH QUALITY testen- wir sind hier bei 3Dc, nicht bei Computerbild :D
Hm, ich fände Quality auch interessant. Bei Crysis sieht man den Unterschied bei der hochfrequenten Geometrie doch eh nicht. Und die Mehrleistung kann man durchaus brauchen X-D

Archon
2007-10-30, 18:17:21
Habt ihr mal lust den neuen 169.04 beta zu testen.Speziel würde mich interessieren ob sich bei Archon in der hohen 1900x1200 was bessert.
http://www.nvidia.com/Download/betadrivers.aspx?lang=en-us
Gibts nur in english,in deutsch nur den 169.01

also im direkten Verlgleih zu dem vorher installierten 169.02, hab ich mit dem 169.04 nur minimalste Verbesserungen. Die avgFPS sind von 23.41 auf 23.49 - das liegt ja im Bereich von Messungenauigkeiten . . .
mit 2x AA gehen die avgFPS dafür deutlich runter auf 18.48 - aber war ja eigentlich klar und belegen ja auch die bisherigen Tests.

bin jetzt erstmal wech - Karte weiter in Ruhe quälen.
Das schönste bisher ist, das ich von dem Lüfter bisher immer noch nix gehört hab :)

andre87
2007-10-30, 19:15:08
Mensch Leute, ich will mal ein paar OC Berichte, schnell genug gibts net und mit OC is imemr was rauszuholen...:biggrin:
Bin im Moment schwer am überlegen mir die ZOTAC AMP Edition zu holen und diese dann noch zu OC'en allerdinsg frag ich mich ob man die normale ZOTAC nicht genauso gut OC'en kann...

HD-Ronny
2007-10-30, 19:15:39
Danke. Für meine 1680x1050 bräuche ich dann für crysis in high dann wohl mindestens ein 8800GT SLI,um dann ohne AA um halbwegs flüssig zu spielen.

Endorphine
2007-10-30, 19:55:43
Danke. Für meine 1680x1050 bräuche ich dann für crysis in high dann wohl mindestens ein 8800GT SLI,um dann ohne AA um halbwegs flüssig zu spielen. 1680x1050 ist doch gar nicht HD. Und warum soll eine 8800GT dafür nicht reichen? Wer zwingt dich dazu, alle Qualitätseinstellungen zu maximieren?

Coda
2007-10-30, 20:00:50
1680x1050 = 1764000 Pixel
1600x1200 = 1920000 Pixel.

Das macht dann auch nicht mehr viel Unterschied. Und unter 1600x1200 läuft's auf ner GTX nicht auf High flüssig.

Razor
2007-10-30, 20:16:20
Könntest du die 167er Treiber uploaden? Könnte sein, daß mit denen triple sli funkt ;)
You got PM...

Das schönste bisher ist, das ich von dem Lüfter bisher immer noch nix gehört hab :)
Jaaaaaaa....... !
:up:

Razor

Razor
2007-10-30, 20:23:17
Razor kannst du mal Crysis in 1280x1024 all High, benchen mit Treibereinstellung auf "Qualität"Hm, ich fände Quality auch interessant. Bei Crysis sieht man den Unterschied bei der hochfrequenten Geometrie doch eh nicht. Und die Mehrleistung kann man durchaus brauchen X-D
Habe den "Erfahrungspost" mal aktualisiert...

Hier dann nur die AF-Ergebnisse:

1280x1024 avg diff | min/max diff
----------------------------------------|----------------------------
|
high, 1xAF 37,46 | 22/44
|
high, 8xAF, quality 34,74 - 7,2% | 22/41 - 0/ 7%
|
high, 8xAF, h.qual. 33,72 -10,0% | 22/41 - 0/ 7%
|
vhigh, 1xAF 24,88 | 15/29
|
vhigh, 8xAF, quality 22,48 - 9,6% | 12/28 - 20/ 3%
|
vhigh, 8xAF, h.qual. 22,09 -11,2% | 12/28 - 20/ 3%
|Per Default ist AF ja gar nicht aktiviert... insofern habe ich nun 8xAF über das CP forciert und hier sind die Ergebnisse dazu.

Wie man gut sehen kann, lohnt sich die Unterschiedung zw. "quality" (AniSoOpt off, TriOpt on) und "high quality" im Panel nicht wirklich, denn der Vorteil ist hier nur marginal. Selbst das Hinzuschalten von 8xAF schlägt bei diesem Game (andere habe ich in dieser Hinsicht noch nicht getestet ;-) nicht wirklich durch... 1xAF zu 8xAF mit ca. 10% avg Verlust? Nicht schlecht...

Allerdings schlägt AA heftiger zu (wie zu erwarten war ;-)... aber das steht auf einem anderen Blatt.

Razor

Arcanoxer
2007-10-30, 20:59:10
Für was braucht man so eine Karte unter Linux? http://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/common/cwm13.gif

Für das gleich wie unter Windows? :hammer:

Gast
2007-10-30, 21:17:13
Unter Linux gibts doch sowieso kaum Spiele :rolleyes:

Arcanoxer
2007-10-30, 21:21:26
Unter Linux gibts doch sowieso kaum Spiele :rolleyes:
Quake Wars reicht mir auch erstmal...
UT3 und der X3 port stehen auch noch an, also troll dich.

Gast
2007-10-30, 21:22:41
Das ist ja so gut wie garnix, da muss man garnet trollen, des is traurige Realität.

Arcanoxer
2007-10-30, 21:25:28
Das ist ja so gut wie garnix, da muss man garnet trollen, des is traurige Realität.
Immer noch mehr als DX10 Spiele. ;D

Superheld
2007-10-30, 23:46:16
Habe den "Erfahrungspost" mal aktualisiert...

Hier dann nur die AF-Ergebnisse:

1280x1024 avg diff | min/max diff
----------------------------------------|----------------------------
|
high, 1xAF 37,46 | 22/44
|
high, 8xAF, quality 34,74 - 7,2% | 22/41 - 0/ 7%
|
high, 8xAF, h.qual. 33,72 -10,0% | 22/41 - 0/ 7%
|
vhigh, 1xAF 24,88 | 15/29
|
vhigh, 8xAF, quality 22,48 - 9,6% | 12/28 - 20/ 3%
|
vhigh, 8xAF, h.qual. 22,09 -11,2% | 12/28 - 20/ 3%
|Per Default ist AF ja gar nicht aktiviert... insofern habe ich nun 8xAF über das CP forciert und hier sind die Ergebnisse dazu.

Wie man gut sehen kann, lohnt sich die Unterschiedung zw. "quality" (AniSoOpt off, TriOpt on) und "high quality" im Panel nicht wirklich, denn der Vorteil ist hier nur marginal. Selbst das Hinzuschalten von 8xAF schlägt bei diesem Game (andere habe ich in dieser Hinsicht noch nicht getestet ;-) nicht wirklich durch... 1xAF zu 8xAF mit ca. 10% avg Verlust? Nicht schlecht...

Allerdings schlägt AA heftiger zu (wie zu erwarten war ;-)... aber das steht auf einem anderen Blatt.

Razor

ca 10fps mehr als meine GTS in 1280x1024 8xAF ;(

JaniC
2007-10-31, 00:50:29
@Razor:

Was machstn mit deiner 7900 GT? Vertickern? Was meinste, was man dafür noch ca. kriegt? Stehe vor der selben Situation wie du, nagut, SingleCore CPU, aber wird trotzdem was bringen, zumindest hoffe ich das und gehe davon aus, da Crysis auf Low/med flüssig läuft und es fast nur an GPU Effekten liegt, dass es nicht läuft.
Wenn ich es in 1280 mit High, 0xAA, 4xAF zocken kann dann, flüssig, immer, bin ich zufrieden, für so wenig Geld hätte ich das nie erwartet.

Razor
2007-10-31, 01:40:07
@Superheld

:comfort:
Ist wirklich ernst gemeint...

@JaniC

Weiß noch nicht... vermutlich werde ich die 7900GT in HTPC bauen.
Oder aber ich vertick' sie tatsächlich... wäre dann aber die erste Karte, die ich über eBay verkaufen würde.

Was man dafür noch bekommen kann?
Keinen Plan... denke, dass da noch 70-80€ drin wären.
(vielleicht auch mehr, wenn man den Wahnsinn bei eBay bedenkt ;-)

Drücke Dir die Daumen, dass Dein neues Kärtchen zu dem rechtlichen System passen mag...
...obwohl bei Dir sicher auch ein kräftiges CPU-Update sehr sinnvoll wäre.
(aber das kommt dann eben nach, gell? ;-)

Razor

Razor
2007-10-31, 02:45:19
Tjo... und noch eine kleine Vergleichsbetrachtung zwischen der 8800GT und meiner Ex, der 7900GT, die mir sooo lange treu gedient hat.
(ich sollte echt aufhören, so nostalgisch über ein Stück Hardware zu reden ;-)

Wie dem auch sei, zuerst eine Betrachtung der Lesitungsaufnahme:

Im Idle verbrauchte mein System mit der 7900GT ca. 132W welches dann unter Crysis dem absoluten Spitzenwert von 230W entgegen 'heizte'. Allerdings habe ich es auch schon mit TAT geschafft, den C2D weit über sein Limit hinaus zu belasten (was mit keiner anderen Anwendung möglich zu sein scheint) und so den Verbrauch des Systems mit der GraKa im idle auf ebenfalls stolze 210W hoch zu schrauben.

Dies soll nur verdeutlichen, wie schwierig es ist, die Leistungsaufnahme einzelner Komponenten zu 'messen', insofern ich mich bei folgender Betrachtung auch lediglich auf einen Verlgeich beider Systeme reduziere... denn die Grafikkarte ist das einzige, was ausgetauscht wurde. Gemessen wurde die Leistungsaufnahme des Gesamt-Systems (also nur des Rechners ;-) zwischen Steckdose und Netzteil, insofern natürlich der Velust durch das Netzteil (hier Antec TruePower 480W) aus der Betrachtung heraus fällt...

So verbraucht nun das System mit 8800GT im idle nunmehr 147W und unter sonst gleicher Voraussetzung gehts dann bis auf satte 244W hinauf (wieder Crysis).

So komme ich also nun zur folgenden Feststellung:
- im Idle verbraucht mein System nun 15W mehr
- unter Last sind es gerade 14W, die hier zu Buche schlagen

Der höhere Idle-Verbrauch stört mich schon, aber dafür muss meine CPU beim Video-Decodieren weniger 'ackern', was den Verlust dann schon wieder ausgleichen sollte. Dass die 8800GT unter Last aber lediglich 14W mehr benötigt und das für die nahezu doppelte leistung, ist schon ein Hammer!

Habe das mehrfach überprüft und ich komme immer zum gleichen Ergebnis.

-

Die Video-Beschleunigung hatte ich ja schon vorher angedeutet.

Hier ein kleiner Verlgeich in Form einer Gegenüberstellung... die letzte Spalte ist die 8800GT, die davor beziehen sich auf die 7900GT:

Video- 167.26 169.01 169.02 169.02
Beschl. beta beta RC 8800GT

MPEG2-HD 16* 16* 17* 7*
(HW) 11/21 12/21 13/20 5/11
MPEG2-HD 20 20 21 23
(soft) 16/24 16/23 15/24 19/28

H.264 17* 18* 18* 3*
(HW) 10/26 11/28 12/30 2/ 5
H.264 28 27 28 24
(soft) 20/37 17/38 20/38 14/40

H.264-max 27 26 27 2
(HW) 20/37 18/34 20/36 2/ 3
H.264-max 40 40 44 32
(soft) 32/45 33/47 39/47 24/40

WMV-HD 18 18 19 10
(PD7-HW) 9/29 10/26 11/30 8/16
WMV-HD 18 18 20 11
(PD7-soft) 8/30 8/28 11/34 8/19
WMV-HD 15 14 15 14
(WMP11) 6/23 7/23 8/23 9/20

(01) (02) (03) (04)

Anmerkungen:

PowerDVD 7.3 build 3120
*: MPEG2/H.264-HW ím 3DMode der Grafikkarte

(01/02/03)
-FAZIT-
- 'alles gut'
- leichtes Ruckeln bei MPEG2-HD im Software-Modus
- WMV-HD unter PDVD scheint nicht aktiv... wie immer: falsches AR - unter WMP11 alles OK
- sehr viel bessere BQ beim H.264 Test-Clip?
(04)
-FAZIT-
- Umstellung auf 8800GTNichts überraschendes zwar, aber doch 'angenehm, oder?
;)

-

So, nun aber zu dem Performance-Vergleich und der ist echt krass... das gleich in mehrfacher Hinsicht.

So bin ich nun (wie schon diverse male vorher) über ein GPU-Limit auf ein CPU-Limit gekommen und werde wohl demnächst mal wieder meinen Bench-Parqour überarbeiten müssen. Gottlob habe ich schon vor einiger Zeit wenigstens die nonQ-Bneches (also die ohne AA/AF) weg gelassen, weil das Ganze sonst noch 'tragischer' wäre... aber hier zumindest erst eimal die Werte vorab (die 'Bewertung' wird 'etwas' komplizierter)

Core2Duo E6420 @ 3,2GHz
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
Gigabyte GA-P35-DS3P Rev. 1.0 (Intel P35) Bios F5
4x1024MB (4GB DC) MDT DDR2 PC800 CL5 @ 5-5-5-18-2T
nVidia GeForce 7900GT @ 685/860 with Zalman VF900-Cu @ min = silent&cool
nVidia GeForce 8800GT @ 600/900 (default) with default cooling = silent
WindowsXP Prof. SP2-fp DX9c

Every RealWorld-Bench in "Q", means 4xMSAA if possible and 8xAF (or higher)
('High Quality' since 8800GT, GCA/TAA Off, Clamp)

------------------------------------------------
3DMark2006 (110) 7900GT 8800GT Diff
default default
------------------------------------------------
3DMarks 7.999 13.222 65,30%

-SM2 Score 3.184 6.118 92,15%
-SM3 Score (HDR) 3.353 6.312 88,25%
-CPU Score 2.860 2.867 0,24%
-Game Score 0 0 -

Game1 (SM2) 26,03 50,53 94,09%
Game2 (SM2) 27,03 51,44 90,32%
CPU1 (Game) 0,90 0,91 0,15%
CPU2 (Game) 1,45 1,45 0,34%
Game3 (HDR) 29,76 59,77 100,82%
Game4 (HDR) 37,29 66,48 78,26%

Fillrate(Single) 6787,84 4820,43 - 28,98%
Fillrate(Multi) 15923,47 25404,83 59,54%
Pixel Shader 441,56 679,66 53,92%
Vertex-S. simple 207,91 2460,78 1083,58%
Vertex-S. complex 68,02 122,44 80,00%
Shader Particles 22,47 132,07 487,85%
Perlin Niose 108,21 240,17 121,96%

Triangles - 8 3,86 39,96 934,27%
Triangles - 32 12,36 72,39 485,73%
Triangles - 128 40,25 277,05 588,26%
Triangles - 512 99,03 296,83 199,72%
Triangles - 2048 146,54 299,50 104,38%
Triangles - 32768 172,24 300,07 74,21%

------------------------------------------------
3DMark2005 (110) 7900GT 8800GT Diff
default default
------------------------------------------------
3DMarks 11.900 18.843 58,34%

-Game1 51,55 68,51 32,92%
-Game2 36,26 54,99 51,66%
-Game3 57,71 113,64 96,92%

CPUMarks 11.417 10.919 - 4,36%

-CPU1 5,62 5,36 - 4,70%
-CPU2 10,31 9,89 - 4,02%

Fillrate(Single) 6890,82 4827,70 - 29,94%
Fillrate(Multi) 15915,38 31322,05 96,80%
Pixel Shader 430,53 669,60 55,53%
Vertex-S. simple 84,18 146,77 74,36%
Vertex-S. complex 68,06 150,86 121,65%

Triangles - 8 3,72 16,97 356,05%
Triangles - 32 12,27 67,00 446,15%
Triangles - 128 40,21 262,61 553,10%
Triangles - 512 100,10 297,86 197,55%
Triangles - 2048 148,13 300,91 103,14%
Triangles - 32768 174,99 301,27 72,16%

------------------------------------------------
3DMark2003 (360) 7900GT 8800GT Diff
default default
------------------------------------------------
3DMarks 26.233 37.216 41,87%

-Game1 761,67 761,84 0,02%
-Game2 191,40 307,77 60,80%
-Game3 163,84 238,47 45,56%
-Game4 151,84 233,50 53,79%

CPUMarks 2.105 2.084 - 1,00%

-CPU1 235,59 239,01 1,45%
-CPU2 37,19 35,84 - 3,64%

Fillrate(Single) 5836,14 4764,50 - 18,36%
Fillrate(Multi) 15180,03 28231,02 85,97%
Vertex Shader 71,75 140,57 95,91%
Pixel Shader 2.0 252,66 485,18 92,03%
Ragtroll 98,14 172,15 75,42%

no sounds 135,15 136,29 0,84%
24 sounds 126,02 126,02 0,01%
60 sounds 117,26 120,06 2,39%
-diff 24 s. - 6,76% - 7,53%
-diff 60 s. - 13,24% - 11,91%

------------------------------------------------
Aquamark 3 7900GT 8800GT Diff
default default
------------------------------------------------
Aquamarks 148.204 169.553 14,41%

-GFX Score 26.150 33.479 28,03%
-CPU Score 17.104 17.175 0,42%

Avg. FPS 148,20 169,55
Avg. TriCnt (mio) 44,61 51,04

Details
-Chapter 1 197,22 197,47 0,13%
-Chapter 2 117,39 163,68 39,42%
-Chapter 3 161,45 165,52 2,52%
-Chapter 4 89,67 169,12 88,60%
-Chapter 5 163,25 173,57 6,32%
-Chapter 6 181,38 186,22 2,67%
-Chapter 7 185,48 190,03 2,45%
-Chapter 8 157,82 159,70 1,19%
-Chapter 9 118,46 130,79 10,41%

------------------------------------------------
Shadermark 2.1 7900GT 8800GT Diff
default default
------------------------------------------------
-Shader 1 - - -
-Shader 2 1.988 2.579 29,73%
-Shader 3 1.687 2.124 25,90%
-Shader 4 1.686 2.121 25,80%
-Shader 5 1.505 1.949 29,50%
-Shader 6 1.686 2.131 26,39%
-Shader 7 1.506 2.095 39,11%
-Shader 8 1.084 1.608 48,34%
-Shader 9 1.987 2.581 29,89%
-Shader 10 1.687 2.341 38,77%
-Shader 11 1.506 2.065 37,12%
-Shader 12 994 1.236 24,35%
-Shader 13 994 1.404 41,25%
-Shader 14 1.084 1.692 56,09%
-Shader 15 783 1.186 51,47%
-Shader 16 843 1.305 54,80%
-Shader 17 1.084 1.571 44,93%
-Shader 18 128 197 53,91%
-Shader 19 444 748 68,47%
-Shader 20 159 334 110,06%
-Shader 21 237 470 98,31%
-Shader 22 361 768 112,74%
-Shader 23 401 822 104,99%
-Shader 24 270 630 133,33%
-Shader 25 261 630 141,38%
-Shader 26 251 621 147,41%

------------------------------------------------
7900GT 8800GT Diff
default default
------------------------------------------------

Codecreatures 168,0 192,0 14,29%
-max 241 326 35,27%

ImgTech
-VillageMarkD3D 807 <> -
-VillageMarkOGL 844 <> -

------------------------------------------------

TR6:AoD (paris3) 152,9 154,9 1,31%

Doom3 (demo1) 102,2 129,7 26,91%

FarCry 1.3 (trai.)
- 1280x1024 125,5 158,3 26,16%
- 1280x1024 HDR 84,8 133,3 57,14%

HL2:LC VST (HDR) 127,6 152,2 19,27%

F.E.A.R. (ingame)
- 1280x1024 68 94 38,24%
- 1280x1024 min 36 44 22,22%
- 1280x1024 max 149 246 65,10%

Sam II (greendale)
- 1280x1024 94,6 172,0 81,82%
- 1280x1024 min 25 36 44,00%
- 1280x1024 max 309 215 - 30,42%

CoD II (dargo) 47,6 73,3 53,99%

Quake IV (guru5) 137,3 170,5 24,18%

Prey (guru3D) 91,8 125,0 36,17%

Lost Planet DX9
- 1280x960 Snow 29 57 96,55%
- 1280x960 Cave 45 65 44,44%
- 1280x960 SnowHDR 30 56 86,67%
- 1280x960 CaveHDR 48 65 35,42%

STALKER (wesker)
- 1280x1024 31,4 70,6 125,17%
- 1280x1024 min 1 2 100,00%
- 1280x1024 max 131 207 58,02%

World in Conflict
- 1280x1024 39 crash -
- 1280x1024 min 22 crash -
- 1280x1024 max 66 crash -

Crysis Demo
- 1280x1024 28,8 67,4 134,24%
- 1280x1024 min 22 27 22,73%
- 1280x1024 max 39 79 102,56%

------------------------------------------------

Jo... krass.

Dass hier vieeeel mächtige Zuwächse zu erwarten waren, ist nicht wirklich verwunderlich... so konzentriere ich mich hier auf die 'ungewöhnlichen' Dinge.

Der Murks06 offenbart schon die erste Überraschung, denn die SingleTexture-Fillrate ist mal eben knappe 30% kleiner!

Klar habe ich hier im Forum nun schon des öfteren gelesen, dass dies ein nonIssue ist, aber dass selbst die kleine 7900GT hier mit satten 41% vorne liegt, ist schon 'seltsam'... oder etwa nicht? Egal, denn auch andere Werte scheinen hier doch ein wenig erklärungsbedürftig... aber vielleicht fällt hier ja dem einen oder anderen etwas dazu ein.

Ein ähnliches Bild beim Murks05, der ähnliche 'Nebenwirkungen' zeigt... zumindest hat das Ganze "System".

Warum hier allerdings gleich die CPU-Werte um etwa 4% nachgelassen haben, will mir auch nicht wirklich in den Kopf. Oder ist die CPU-Last durch die neue 'Kleine' etwas ein ordentliches stückerl höher? Who knows...

Zu dem Murks03 sage ich dann lieber nichts mehr... ausser vielleicht, dass die Flugzeug-Scen ganz offensichtlich 'ein wenig' CPU-limitiert ist.

Generell würde mich aber schon interessieren, wie hier die krassen Unterschiede bei den Murksern zustande kommen. Interessant auch, dass ja bei den ganzen tollen Reviews niemals die Details zu sehen sind (von lobenswerten Ausnahmen aml abgesehen)... werfen diese etwa zu viele Fragen auf?

Der Aquamark ist schon seit graumer Zeit CPU-limitiert.

Das dürfte die meisten ja wohl hoffentlich schon mitbekommen haben... sehr schön hier aber dann doch zu sehen ist, welche Scenen das genau betrifft... zumindest Kapitel 4 scheint für einen GPU-vergleich 'sinnvoll'.
;)

Beim Shadermark fehlt mir der Hintergrund, die Ergebnisse nun zu bewerten, aber vielleicht interessiert es ja den einen oder anderen. Und zu guter Letzt hat sich nun auch mein schon sooooo langer Bench-Begleiter "Codecreatures" mit einem CPU-Limit verabschiedet... auch von ihm werde ich mich zukünftig wohl verabschieden müssen.

Sagte ich "zuletzt"?

Nein, auch die ImgTech-Demos haben sich 'verabschiedet', denn offenbar kommen sie mit Ergenissen über 1000 nicht klar... auch sind sie nur an mir "vorbei geblitzt"... grob geschätzt etwa doppelt so schnell, wie sonst ;)

Was uns dann von Synthies weg bingt...

Auch das gute alte TombRaider - Angel of Darkness ist ganz offensichtlich schon mit der 7900GT vollkommen limitiert gewesen, das wird mit der 8800GT umso klarer. "By by, es war nett mit Dir!"

Keine Angst, ich will jetzt nicht jeden einzelnen bench kommentieren, aber es gibt zumindest den einen oder anderen interessanten Punkt, der nicht in der Tabelle abzulesen ist. Aber um es gleich vorweg zu nehmen, ja, der Bench des "World in Conflict" Demos ist nicht durch gelaufen... 2x hat mir das Teil den Rechner zum stehen gebracht, was auf eine gewisse Reproduzierbarkeit hinaus läuft. Mit dem 169.02, mit dem ich all dies testete also ein noGo... werde das mal im Treiber-Thread zur Diskussion anbieten.

Kommen wir also zu den 'unsichtbaren Punkten:

Half Life 2: Lost Coast hat nur ein wenig zugelegt (auch CPU-Limit?), konnte aber immerhin noch knappe 20% für sich verbuchen. Verzichte ich allerdings auf ein wenig Leistung (etwas mehr als 2% ggü. der 7900GT), dann bekomme ich HDR+4xAA bei sonst vollen Details *gratis*. DAS ist doch mal eine Erwähnung wert, oder?
F.E.A.R. gibt mir die Softshadows absolut (!) *gratis* dazu... ein offensichtliches Zeichen für ein einsetzendes CPU-Limit... aber zumindest konnten hier nochmal etwa 40% heraus geholt werden... inkl. der "weichen Lichtbrecher"
Serious Sam 2 ist da schon 'durstiger'... möchte ich hier HDR+4xAA haben 'kostet' mich das schon lockere 10% - nur avg, denn der 'Rest' bleibt dann den Werten der 7900GT gleich. Ob ich mir die 10% wohl 'leisten' kann?
CoD2 hat mächtigst zugelegt... wurde aber schon damals ein wenig in den Details reduziert. Stelle ich nun absolut maximale Details ein, verbleiben noch immer 69,1fps avg... was einem Plus von 45% entspricht.
Lost Planet (DX9)... hat erwartungskonform ordentlich zugelegt... kombiniere ich nun aber HDR+4xAA verbleiben noch immer 45fps im Snow und 63fps in der Cave... grandios!
Bei S.T.A.L.K.E.R. ist der 'Gewinn' zwar abzulesen, aber er erzählt nicht die ganze "Wahrheit"... denn der Versuch, auch AA mit zu aktiveren, schlug fehl... geht das vielleicht gar nicht? Ein Entsprechendes Profil mit "AA-Featurebits" ist aber vorhanden... wieder ein Fall für den Treiber-Thread.
Crysis... ja, Crysis... immer wieder Crysis. Der 'Gewinn' ist mächtig, was aber nur für die Einstellungen gilt, welche bei der 7900GT 'sinnvoll' waren... links medium, rechts high, von mir als "Medium+" angesehen. Stelle ich ALLES auf High und die Schatten dass wieder auf Medium (weil: besser ist das! ;-) und dafür dann wieder das AntiAliasing auf 2x (mehr ist dann leider nicht drin), kommen noch immer respektable 32,3fps avg heraus, viel wichtiger aber 21fps min (und unwichtige 37fps max). Die Performance ist also deutlich besser, als noch mit der 7900GT, die Optik dann sogar um ganze Welten!Tjo, was soll ich noch 'sagen'?

Besser nichts, den nich habe wohl schon genug gefaselt.
Interessant ist das alles aber schon, oder?
(zuletzt zumindest für mich ;-)

Bin mal gespannt, was sich noch bei den "offenen Punkten" ergibt.

Razor

P.S.: Korrekturlesen geht heut' abend nicht mehr... werde ich morgen dann nochmal drüber schaun' *gäääääähhhhnnnn*
(wer was findet, darf es also wie immer behalten ;-)

up¦²
2007-10-31, 02:57:53
Danke, Razor!
Ser Verbrauch erscheint mir sensationell niedrig. Wie kann die dann angeblich so heiß werden (90´C+...!)

Signz
2007-10-31, 03:06:07
Ja die Source Engine ist CPU-Limitiert

Razor
2007-10-31, 03:26:44
Danke, Razor!
Ser Verbrauch erscheint mir sensationell niedrig. Wie kann die dann angeblich so heiß werden (90´C+...!)
Der Core wird so heiß... die Umgebung bleibt davon weitestgehend verschont.
Und der geringe Verbrauch wird im Prinzip bei AnandTech bestätigt:

http://images.anandtech.com/graphs/nvidia%20geforce%208800%20gt_10290771026/15925.png

http://images.anandtech.com/graphs/nvidia%20geforce%208800%20gt_10290771026/15926.png

Razor

P.S.: so, jetzt aber endlich in die Heia!
*schnorchhhhhh*

HotSalsa
2007-10-31, 07:20:44
@ Razor - 1A Job, Daumen hoch für den Vergleich :)

Wird definitiv auch meine nächste Karte... leider noch nicht im November ... da ist das iPhone dran :wink:

Geht leider nur eins zur Zeit :mad:

Deathcrush
2007-10-31, 07:59:06
ca 10fps mehr als meine GTS in 1280x1024 8xAF ;(

Warum übertaktest du deine GTS nicht, da kannst du noch locker 20%-25% heraus holen.

Deathcrush
2007-10-31, 09:13:49
@Razor

Kannst du mal die min. FPS mit angeben bei Crysis? Avg FPS hab ich bei 1280x1024 0AA alles High 33,46 FPS

EDIT: Statt 8AA = 0AA

BAGZZlash
2007-10-31, 09:31:58
Vorbildlicher Thread, Razor. Vielen Dank und Daumen hoch dafür! (y)

Razor
2007-10-31, 09:51:19
@Razor

Kannst du mal die min. FPS mit angeben bei Crysis? Avg FPS hab ich bei 1280x1024 8AA alles High 33,46 FPS
Hatte ich doch mit angegeben:
Crysis... ja, Crysis... immer wieder Crysis. Der 'Gewinn' ist mächtig, was aber nur für die Einstellungen gilt, welche bei der 7900GT 'sinnvoll' waren... links medium, rechts high, von mir als "Medium+" angesehen. Stelle ich ALLES auf High und die Schatten dass wieder auf Medium (weil: besser ist das! ;-) und dafür dann wieder das AntiAliasing auf 2x (mehr ist dann leider nicht drin), kommen noch immer respektable 32,3fps avg heraus, viel wichtiger aber 21fps min (und unwichtige 37fps max). Die Performance ist also deutlich besser, als noch mit der 7900GT, die Optik dann sogar um ganze Welten!
Allerdings kommen mir Deine "alles high" mit 8xAA in 1280x1024 mit 33,46fps avg etwas hoch vor.
Bist Du sicher, was Deine Einstellungen angeht?
Welchen Treiber, welches OS hast Du da benutzt?
Thx4Info!

Achso, kurz aus dem Text:
"alles high" ausser Schatten auf Medium und 2xAA... 4xAA rutschte dann schon zu mächtig ab.
Und hier dann 32.3 avg, 21 min und 37 max...

Razor

maddawn
2007-10-31, 10:16:27
ist der "V Ram Bug" noch vorhanden (absolutes KO-Kriterium für mich)?

dropback
2007-10-31, 10:55:09
Huhu,
Razor hat mich hier her geschickt damit ich auch mal was über die 8800GT erzähle:wink:
Also, ich bin seit gestern Besitzer einer Sparkle (Standardtakt).
Rest vom System ist ein E6420@2600Mhz, 2 Gig Ram, Gigabyte P965DS3. OS ist Win XP32 SP2, Graka Treiber 169.02.
Graka vorher war eine X1900XT@VF900.
Wirklich detaillerte Benches kann ich noch nicht liefern, dafür hatte ich gestern Abend zu wenig Zeit.
Deshalb erst mal nur ein paar kurze (teilweise wohl auch subjektive) Eindrücke.
Lautstärke: Absolut leise, jedenfalls im Vergleich zu der X1900XT mit VF900@5 Volt.
Dreht auch unter Last nicht wirklich hörbar auf. Lüfter spaßeshalber mal per Hand auf 100% gestellt->Turbine:D
Temperaturen: Idle hab ich ca. 65 Grad, Last ca. 90 Grad.
Im Gehäuse sind 2 120er die auf 5 Volt laufen. Wenn ich mal Kabel sortieren würde würde ich mit den Temps wohl noch etwas runter kommen, aber ich denke das geht erst mal so. Und 90 unter Last ist ja nicht so ungewöhnlich für die 8800GT...
Leistung: Wie gesagt, hab gestern nur mal ein paar kurze Tests gemacht.
Da ich im Moment aber nicht zu Hause bin und auch nicht genau nachschauen kann hier mal ein grober Überblick:
Am3: ca. 132.000 Punkte (1024*768, no AA/AF), CPU@2600Mhz
Am3: ca. 164.000 Punkte (1024*768, no AA/AF), CPU@3200Mhz
3d06: 10.600 (1280*1024, no AA/AF), CPU@2600Mhz
WiC: Very High (1680*1050), CPU@2600Mhz
Min:18
Avg:33
Max:50 (oder 60, weis ich grad nicht mehr, kann ich aber heute Abend noch mal schauen:wink:)
Crysis (1280*1024, Settings "High"), CPU@2600Mhz
Min: 22fps
Avg: 34fps
Im Vergleich zur X1900XT doch ein recht deutlicher Leistungssprung wie ich finde.
Also ich bin soweit erst mal zufrieden, nur an die Temperaturen muss ich mich erst mal gewöhnen, Idle 60 Grad+ finde ich schon heftig, die X1900XT mit dem VF900 lag Idle immer nur so bei 40-43, Last waren dann aber auch mal 85-90 Grad drin.
Alles in allem aber ne nette Karte wie es scheint.
Gekauft habe ich sie für 259 bei Alternate.
Werde am We wohl noch mal genauer benchen, vorher habe ich nicht sooo viel Zeit.

TeleTubby666
2007-10-31, 10:58:32
ist der "V Ram Bug" noch vorhanden (absolutes KO-Kriterium für mich)?

Schließe mich der Frage dringendst an...

dropback
2007-10-31, 11:07:38
Kann ich jetzt nicht wirklich sagen, hab gestern nur mal ne Stunde Bf2 gespielt, da ist mir nichts aufgefallen.
Settings 1680*1050, 4AA, 8AF, sonst alles auf "High", durchgehend 100fps.
Wie lange dauert es denn bis der Bug auftritt bzw. auftreten könnte?
Und kann man das irgendwie bewusst forcieren?
Dann könnte ich noch mal testen.
Sorry für die vielleicht "dummen" Fragen, aber ist meine erste 8800er, genau genommen meine erste Nvidia überhaupt:wink:

Deathcrush
2007-10-31, 11:14:05
Hatte ich doch mit angegeben:

Allerdings kommen mir Deine "alles high" mit 8xAA in 1280x1024 mit 33,46fps avg etwas hoch vor.
Bist Du sicher, was Deine Einstellungen angeht?
Welchen Treiber, welches OS hast Du da benutzt?
Thx4Info!

Achso, kurz aus dem Text:
"alles high" ausser Schatten auf Medium und 2xAA... 4xAA rutschte dann schon zu mächtig ab.
Und hier dann 32.3 avg, 21 min und 37 max...

Razor

Du weisst das meine Graka übertaktet ist? Siehe Sig

Ups sehe das ich 8AA geschrieben habe, dabei war es 0AA. Früh am morgen xD Sorry

AnarchX
2007-10-31, 11:16:35
Schließe mich der Frage dringendst an...
Nunja, einige Benchmarks deuten darauf hin, dass das Speichermanagment bei GF8 immernoch ein paar Probleme hat und somit die GT gegen die GTS in gewissen Fällen deutlich verliert.

Aber vielleicht können ja hier mal die jenigen, die von einer 512MB GF7/Radeon umgestiegen sind, die VRAM-Auslastung und die FPS in Speicherfressern wie CoD2 austesten. ;)

LovesuckZ
2007-10-31, 11:38:11
Nunja, einige Benchmarks deuten darauf hin, dass das Speichermanagment bei GF8 immernoch ein paar Probleme hat und somit die GT gegen die GTS in gewissen Fällen deutlich verliert.


Fehlender Speicher ist kein Bug.

AnarchX
2007-10-31, 11:42:33
Fehlender Speiche ist kein Bug.
Dann nennen wir es halt ein "suboptimales Verhalten", wegen welchem GF8-Karten eher einbrechen bei Szenarien mit einer sehr hohen VRAM-Aulastung, als GF7 oder Radeons.;)

Und das ist ein Umstand, welcher nicht ignoriert werden sollte, was du offensichtlich machen willst.

Gast
2007-10-31, 11:50:02
Also der Artikel auf HardTecs4u, zeigt kein solche "bugs". Dabei liegen die Auflössung bei 1600x1200. Und für mehr ist die GT nicht gemacht bzw. kann man nicht verlangen. Für das Geld is des 1A ;)

Gast
2007-10-31, 11:50:57
@Razor

Kannst du mal die min. FPS mit angeben bei Crysis? Avg FPS hab ich bei 1280x1024 0AA alles High 33,46 FPS

EDIT: Statt 8AA = 0AA

Ich hab mit der 2900XT(default) 32,3FPS und mit OC 35,8FPS bei selben einstellungen unter XP32bit.

Die 8800GT müßte Morgen auch da sein mal sehen wie die läuft.

AnarchX
2007-10-31, 12:12:12
Also der Artikel auf HardTecs4u, zeigt kein solche "bugs". Dabei liegen die Auflössung bei 1600x1200. Und für mehr ist die GT nicht gemacht bzw. kann man nicht verlangen. Für das Geld is des 1A ;)

Sicher, aber die VRAM-Auslastung steigt ja nicht nur durch höhere Auflösungen + höhere AA-Level, sondern auch durch höhere Texturdetails, die kommenden Games in nächster Zeit hoffentlich auch einsetzen, wobei bis dahin das Speichermanagment vielleicht läuft wie es mancher erwartet.

Nichtdesotrotz sollte man diesen Umstand beachten, vorallem, wenn so mancher auf die Idee kommt ein GT-SLI aufzusetzen, wo es ja bei effektiven 512MB bleibt oder wenn man auf überraschende Ergebnisse stößt.
Aber natürlich ist das im Endeffekt nur ein kleiner Makel an dieser großartigen Karte. ;)

Superheld
2007-10-31, 12:17:38
@Razor

warum bencht du den 3dm06 nicht in 1280x1024 ?

MartinRiggs
2007-10-31, 12:42:02
habt ihr mal OC getestet?

Razor
2007-10-31, 13:09:40
Werde am We wohl noch mal genauer benchen, vorher habe ich nicht sooo viel Zeit.
Genial, danke Dir!
"Und wieder ein zufriedener 'Kunde'!"
:D

Ja, die core temps sind heftig, aber wie Du schon sagtest: keineswegs ungewöhnlich.
Hast Du Dir schon mal die ambient temps angeschaut?
Dann ists nicht mehr ganz so 'schlimm'... ;)

Deckt sich alles in etwa mit meinen Erfahrungen... bis auf das der Kühler leiser sein soll, als der Zalman VF900 (auch bei mir@min)... denn ich finde, dass letzterer doch ein Stückerl leiser war... ist das Gehäuse aber zu, findet sich der Unterschied exakt bei Null - einfach göttlich... wird wohl die erste Karte seit langem, die ich erst einmal nicht mit einem neuen Kühler versehe... was sich vermutlich ändern wird, wenn ich dann doch mal ans OCen gehe... Stichwort: Turbine ;D

Na dann mal viel Spaß beim Benchen...
Mit der Zeit habe ich derzeit kein Problem - Urlaub rulez!

Razor

P.S.: "Thread-Link-Sammlung" aktualisiert...

Cubitus
2007-10-31, 13:12:35
habe meinem Kumpel gestern eine von Alternate bestellt, werden die auf Herz und Nieren prüfen :D

Razor
2007-10-31, 13:26:25
Du weisst das meine Graka übertaktet ist? Siehe Sig

Ups sehe das ich 8AA geschrieben habe, dabei war es 0AA. Früh am morgen xD Sorry
Na dann bin ich hochgradigst beruhight!
Sollte dann so stimmen...
:up:

warum bencht du den 3dm06 nicht in 1280x1024 ?
Ist historisch bedingt... alle Synth-Tests laufen in 1024x768.
Werde das aber demnächst ändern und dann ALLE Synthies in 1280x1024 mit AA/AF fahren...

Für den Vergleich im eigenen System ist es eigentlich wurscht, in welcher Auflösung die Tests gefahren werden und mein Vergleich sollte ja erst einmal nur zeigen, wie sich die 'Neue' gegen die 'Alte' schlägt... unter sonst absolut gleichen Bedingungen!

Stay tuned... werde wohl noch einen Vergleich von 'reduzierter 7900GT' auf 'optimierter 8800GT' machen... wenn ich das zeitlich hin bekomme, da ich derzeit noch freiberuflich an etwas arbeite (Urlaub beim Arbeitgeber ja, 100% Freizeit leider nein ;-).

habe meinem Kumpel gestern eine von Alternate bestellt, werden die auf Herz und Nieren prüfen :D
GREAT!
:up:

Langsam wird es ausgesprochen interessant... ;)

@all

Wäre mir sehr lieb, wenn wir diese "VRAM-Bug"-Geschichte hier aussen vor lassen könnte.
Nicht nur, dass es eher ein Thema für den Hardware-Hilfe-Teil dieses Forum ist, es bringt diesen Thread inhaltlich wirklich durcheinander.

Vielen Dank im Voraus!
:wave2:

Razor

dropback
2007-10-31, 13:36:30
Genial, danke Dir!
"Und wieder ein zufriedener 'Kunde'!"
:D
...
Hehe, könnte man so sagen, ich hoffe nicht das meine erste Nvidia mich so ärgert das es meine letzte wird:D

Ja, die core temps sind heftig, aber wie Du schon sagtest: keineswegs ungewöhnlich.
Hast Du Dir schon mal die ambient temps angeschaut?
Dann ists nicht mehr ganz so 'schlimm'... ;)
...
Stimmt.
Ambient Idle war glaube ich so ca. 45 Grad. Load weiß ich jetzt nicht mehr, meine aber max 65-70 Grad.
Das wären dann auch in etwa die Idle/Load Temps der X1900XT mit dem VF900.

Deckt sich alles in etwa mit meinen Erfahrungen... bis auf das der Kühler leiser sein soll, als der Zalman VF900 (auch bei mir@min)... denn ich finde, dass letzterer doch ein Stückerl leiser war... ist das Gehäuse aber zu, findet sich der Unterschied exakt bei Null - einfach göttlich... wird wohl die erste Karte seit langem, die ich erst einmal nicht mit einem neuen Kühler versehe... was sich vermutlich ändern wird, wenn ich dann doch mal ans OCen gehe... Stichwort: Turbine ;D
...
Jo, die Benches stimmen schon mal so grob überein, das is schon mal gut:wink:
Ich finde sie aber wirklich leiser als die ATI mit dem Zalman. Auf jeden Fall fiel es mir sofort auf als ich das erste mal gebootet hab und der erste "Ansturm" des Lüfters vorbei war.
Wäre auch meine erste Karte seit längerem die den Stock Lüfter behalten darf (nach X850pro@XT-PE ->VF700&VF900 und X1900XT(X) mit VF900).
Bin mal froh nicht basteln zu müssen, obwohl, evtl. mache ich mal den Stock ab und schaue wie das mit der WLP drunter aussieht, bei den ATIs war das immer ne ziemliche Sauerei.
Ich denke mit ordentlich aufgetragener Paste (AS5 oder sowas) gehen die Temps auch noch ein bisschen runter.

Na dann mal viel Spaß beim Benchen...
Mit der Zeit habe ich derzeit kein Problem - Urlaub rulez!

Razor

P.S.: "Thread-Link-Sammlung" aktualisiert...
Danke, werde ich haben:smile:
Die Karte hätte mal 2 Wochen früher raus kommen sollen, da war ich auch 2 Wochen zu Hause...:tongue:

P.S. Muss ich heute hier mal Asyl suchen, Luxx ist ja temporär down, die armen 8800GT Süchtigen da, der Thread dort ist in den letzten 2-3 Tagen um mal als 50 Seiten gewachsen:eek:
Ich glaube allein gestern waren es 15-20 Seiten, aber halt auch brutal viel Spam und 100mal die gleichen Fragen, da ist es hier schon angenehmer;)

tomsen
2007-10-31, 14:32:09
Ist die Lautstärke wirklich akzeptabel?
Wichtig ist mir die Laustärke in 2D, ist sie da sehr leise? Unhörbar wäre schon bzw. wenns wie der VF900@5v wäre, bin ich schon zufrieden.

Überlege heute mittag mir eine 8800GT zu holen und meine vor 2 Wochen erworbene 2900 Pro wieder zu verkaufen. - Lohnt sich das bezüglich der Leistung?

Razor
2007-10-31, 14:32:34
Ich finde sie aber wirklich leiser als die ATI mit dem Zalman. Auf jeden Fall fiel es mir sofort auf als ich das erste mal gebootet hab und der erste "Ansturm" des Lüfters vorbei war.
<...>
Ich denke mit ordentlich aufgetragener Paste (AS5 oder sowas) gehen die Temps auch noch ein bisschen runter.
Das täuscht... der "erste Ansturm" hat mich echt fast vom Stuhl gehauen!

Danach ist man so dermaßen 'beruhight' (im wahrsten Sinne des Wortes ;-), dass man das "danach" sogleich als das Leiseste empfindet, was man jemals wahr genommen hat. Möge der Tag nie kommen, wei dem das im laufenden Betrieb passiert... *ganzfestdranglaub*

Aber ich habe es nochmal überprüft und mir, nachdem ich die 8800GT wieder drin hatte, beim PowerOn einfach die Ohren zu gehalten...
;)

P.S. Muss ich heute hier mal Asyl suchen, Luxx ist ja temporär down, die armen 8800GT Süchtigen da, der Thread dort ist in den letzten 2-3 Tagen um mal als 50 Seiten gewachsen:eek:
Ich glaube allein gestern waren es 15-20 Seiten, aber halt auch brutal viel Spam und 100mal die gleichen Fragen, da ist es hier schon angenehmer;)
Hoffentlich bleibt das so, dann ist es für alle ein Gewinn.
Leider gerät auch hier vieles oftmals "aus den Fugen"... in letzter Zeit.

Aber wir bemühen uns redlich und "Asyl" sei Dir hiermit gewährt!
:D

Razor

dropback
2007-10-31, 14:52:34
@tomsen
Also ich finde sie wirklich leise, auf jeden Fall nicht wirklich lauter als ein VF900@5 Volt, eher leiser.
Dreht auch unter Last nicht wirklich auf, wird dann allerdings recht warm.
Ob sich er Umstieg lohnt...
Naja, schneller als eine unübertaktete Pro sollte sie schon sein, aber wieviel % das jetzt sind...keine Ahnung.
@Razor
Danke:wink:

tomsen
2007-10-31, 14:54:34
Danke für die Auskunft.

Boah ich bin hin und hergerissen. Meine Pro läuft als 2900XT und das einzigste Manko ist der Stromverbrauch in 3D.
Und in Crysis ist die 8800GT deutlich schneller. Mal schaun, vielleicht hole ich sie mir gleich.

dropback
2007-10-31, 15:08:53
Uhh, sehe grad du hast das Asrock Board.
Irgendwo hier im Forum stand glaube ich das es da Probleme geben könnte bzw. die Karte nicht läuft.
Schau mal hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=388695)

Das Auge
2007-10-31, 15:26:35
Meine Gainward ist heute auch angekommen :ujump2:

Dazu erstmal eine lustige Anekdote in Sachen DHL: Der vmtl. türkischstämmige neue Fahrer (hab den noch nie vorher gesehen) war ja sowas von verpeilt. Es klingelt, ich drück dem Kerl das Geld bereits abgezählt + etwas Trinkgeld in die Hand, er will wieder abhauen..."Moment, muß ich gar nicht unterschreiben?" - "Äh, ja doch, Sekunde" Die Bedienung des Scanners überforderte ihn dann schon ein wenig, aber schließlich bekam er es doch noch gebacken, nach einer Minute oder so.
Gut, ich schneid das Plastikdings auf, in der Hoffnung dort die Rechnung zu finden, da wr aber nur der Zahlschein. Äh, Zahlschein? Den hätte der Zusteller eigentlich rausnehmen sollen, beleglos war das Paket nämlich nicht.
Weil ich ja so ein netter guter Mensch bin, hab ich dann den Zahlschein (ohne kriegt arlt sein Geld nämlich nicht) sogar noch hinterhergetragen, zum Glück war der erst 2 Häuser weiter. Will gar nicht wissen, was der Kerl noch alles für scheiß an dem Tag gebaut hat, nicht jeder Kunde hat schon selber bei der Post gearbeitet und denkt dementsprechend mit...


Aber nun zur Karte: Es handelt sich wie gesagt um das Modell von Gainward @default-Takt, bestellt gestern am 30.10. für 251 Euro bei arlt.

Die Ausstattung ist eher spartanisch, Treiber/Utility-CD, Tomb Raider Anniversary, 6pol-Adapter, DVI-dsub-Adapter, SVHS-RGB-Adapter, das wars.

Die Lautstärke ist wirklich top, ich hör die Karte aus dem geschlossenen Gehäuse nicht raus, allerdings werkeln in meinem Gaming-Rechner auch insgesamt 6x 120er und 2x 80er Lüfter, also so supersilent wie die Workstation ist das Ding sowieso nicht. Dafür pendelt sich die Temperatur nach 10min. rthdribl auch bei "nur" 89° ein. Leider zeigt mir Rivatuner (2.06) keine ambient temperatures an...wenn hier jemand Rat weiß, nur zu ;)
Eine etwas ältere Everest-Version spuckt jedenfalls bei "GPU-Umgebung" 65° aus.

Ein erster 3dmurks06-Run in 1360x768 (4x/16x) sowie allen Treibersettings auf höchster Qualität spuckte gute 800 Punkte mehr aus als die Vorgängerkarte 2900XT. Den genauen Wert hab ich jetzt schon wieder vergessen, ist mir auch nicht wichtig, mir ging es mehr eben um den Vergleich zur XT.

Zu mehr bin ich bislang noch nicht gekommen, allerdings werd ich mich jetzt gleich mal ans OC wagen, schließlich sind ja alle hier ganz geil auf OC-Werte der GT (ich selbst ja auch) ;D

tomsen
2007-10-31, 15:33:54
Uhh, sehe grad du hast das Asrock Board.
Irgendwo hier im Forum stand glaube ich das es da Probleme geben könnte bzw. die Karte nicht läuft.
Schau mal hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=388695)

Ah Mist, ich hab vergessen die Signatur komplett zu erneuern. Ich hab ein Gigybyte GA-P35-DS3R.

Hm, zum Arlt könnt ich kurz fahren und mir die Gainward 8800GT holen.
Jedoch bin ich mir nicht sicher ob das Umsteigen von einer 2900Pro@XT lohnt.
Denke das fragen sich viele.

Rebell
2007-10-31, 15:36:17
Dickes Lob an dich Razor für diesen tollen Thread und deinen sehr ausführlichen Bericht. Denn ich hab auch soeben meine 7900GT verkauft und bin nun nur noch auf der Suche nach meiner "Wunsch-GT" ;)

Moralelastix
2007-10-31, 15:39:59
@tomsen

Is doch Banane.

Geh zum Arlt und sag halt das Du es mal probiern willst.

Ich mach das als beim Atelco immer so und blieb noch nie auf was sitzen.

Ich wart noch auf die neue ganze G92 GPU. Wie auch immer die dann heißen mag(GTSS ? :biggrin:)

Das Auge
2007-10-31, 15:40:51
Hm, zum Arlt könnt ich kurz fahren und mir die Gainward 8800GT holen.
Jedoch bin ich mir nicht sicher ob das Umsteigen von einer 2900Pro@XT lohnt.
Denke das fragen sich viele.

Also bei mir hat es sich allein deswegen schon gelohnt, weil ich ich meine XT rechtzeitig abgestossen hab (am Sonntag endete die Autkion^^) und quasi +-0 umgestiegen bin. Da müssten die ganzen Reviews im Netz schon alle lügen, wenn die GT nicht ein Stück schneller wäre, dazu kommen ja noch die anderen Vorteile wie Verbrauch, BQ, etc.
Das Problem ist, daß es sich auch irgendwann bis ebay rumsprechen wird, daß es da eine neue P/L-Killerkarte von nvidia gibt und dann wirds schwer für deine pro@xt noch anständig Kohle zu kriegen. Also entweder du handelst jetzt ganz schnell oder du wartest noch, die GT's werden ja sicher auch noch etwas fallen und die neue GTS soll ja angeblich auch bald kommen.

MartinRiggs
2007-10-31, 15:41:07
Meine Wunsch-GT gibt es noch net, das wäre die Zotac AMP mit übelst erhöhten Taktraten:smile:
Steht überall nur nicht lieferbar:mad:

tombman
2007-10-31, 15:42:16
http://www.arlt.com/index.php?cl=details&anid=1021399
http://www.bestseller-computer.de/?ID=16524

Rebell
2007-10-31, 15:43:28
Meine Wunsch-GT gibt es noch net, das wäre die Zotac AMP mit übelst erhöhten Taktraten:smile:
Steht überall nur nicht lieferbar:mad:

Entweder die, oder die EVGA SSC.
Hoffentlich sind sie bald verfügbar, denn ich muss nun übergangsweise mit meiner Rage 3D II 4mb auskommen :cool:

EDIT:
Oder ne normale selbst übertakten. Allerdings weis ich nicht wie viel man erwarten kann. Gestern im HWL (leider vorübergehend down) hatte einer angeblich 700core, 2100+ Mem, und 2000Shader ohne Fehler laufen.

svenska
2007-10-31, 15:43:52
@Razor

Ich bin gerade noch auf Arbeit, hab aber meine 8800GT heute ins Office bekommen. Ich freu mich schon darauf die Karte einzusetzen. Allerding kommen
mir die temp recht hoch vor (core).
Hmm, solange das OK und "gewollt" ist.

Übrigends, die Karte ist auch von Alternate; gestern gekauft. Jetzt hamm se keine mehr. *luckyguy*

Welcher Treiber ist den der passendste ? der letzte/neuste 169.04er ?

Das Auge
2007-10-31, 15:47:08
Mal was neues von der OC-Front:

Ich hab jetzt erstmal den GPU-Takt ganz moderat auf 650MHz angehoben (Shader & Mem default), läuft soweit auch stabil, aber die Lasttemp steigt gleich auf wuchtige 97° (von vorher 89°...). Ist das bei euch auch so?

Ich denke mal, wenn ich da noch mehr Gas geben will, muß ich wohl dem Lüfter Beine machen...

tomsen
2007-10-31, 15:53:11
Is ja witzig, vor 1h war die Gainward 8800GT noch im Shop. Da war wohl einer schneller. ;)

Ich werde die 2900Pro wohl doch behalten vorläufig. Ich hoffe für Crysis kommen noch passende Treiber die die ATI wieder ein wenig vorwärts bringt. ;)

Archon
2007-10-31, 16:00:11
Mal was neues von der OC-Front:

Ich hab jetzt erstmal den GPU-Takt ganz moderat auf 650MHz angehoben (Shader & Mem default), läuft soweit auch stabil, aber die Lasttemp steigt gleich auf wuchtige 97° (von vorher 89°...). Ist das bei euch auch so?

Ich denke mal, wenn ich da noch mehr Gas geben will, muß ich wohl dem Lüfter Beine machen...
Hi,
yep, den Temperaturanstieg kann ich auch bestätigen - hab die Karte im Moment auf 680 Core / 1000 Memory laufen - soweit stabil, nach ner Stunde.

Crysis bei gleichen Einstellungen wie zuvor(1920x1200, DX9, alles High, NoAA)

680/1000(OC)
minFPS : 10.23
maxFPS : 29.83
avgFPS : 25.93

600/900 (standard)
minFPS : 6.99
maxFPS : 26.49
avgFPS : 23.41

mit welchem Programm seit ihr denn am takten ? Ich nutze bisher nur N-Tune, Rivatuner funzt bei mir jedenfalls auch nich.

Gruß

andre87
2007-10-31, 16:05:32
is das schond as Maximum 680 ?

Ich hätte gerne noch ein paar OC'en Berichte :-)

Meine x1900xtx is für 175 weggegangen und jetzt sitz ich ohne Karte hier, wollte iegentlich noch auf die Zotac AMP warten, aber die scheint in absehbarer Zeit ja nicht lieferbar zu sein ...

Das Auge
2007-10-31, 16:07:04
mit welchem Programm seit ihr denn am takten ? Ich nutze bisher nur N-Tune, Rivatuner funzt bei mir jedenfalls auch nich.

Gruß

Rivatuner geht schon, läuft bei selbst unter Vista x64. Googel mal nach der der Version 2.06, die gibt es offiziell bei guru3d leider nicht zum dl, wohl aber geleaked :ulol:
UNter Vista x64 (falls du das nutzt) musst du noch die Treibersignierung ausschalten (beim Bootvorgang F8 drücken).

Gast
2007-10-31, 16:10:33
Und in Crysis ist die 8800GT deutlich schneller.

Das stimmt nicht

Settings 1280x1024, all High, XP 32bit

HD2900XT OC= 35,8FPS
GTS640 OC = 33,46 FPS
8800GT no OC = 37,46FPS

Die Werte sind von Razor, Deathcrush, und Mir aus den Fred hier.

Ich bekomme morgen auch eine 8800GT dann teste ich selber nochmal nach.

Das Auge
2007-10-31, 16:13:41
Nochmal ein kleines Update: Für OC dreht der Lüfter @default einfach viel zu langsam. Ich hab den manuell mal auf 55% gestellt - damit ist die Karte btw. zwar schon nervig laut aber immer noch leiser als die XT unter Last - und die Core-Temp bleibt bei 73°!!!
Ich werd dann mal weiterclocken :cool:

Deathcrush
2007-10-31, 16:14:57
Das stimmt nicht

Settings 1280x1024, all High, XP 32bit

HD2900XT OC= 35,8FPS
GTS640 OC = 33,46 FPS
8800GT no OC = 37,46FPS

Die Werte sind von Razor, Deathcrush, und Mir aus den Fred hier.

Ich bekomme morgen auch eine 8800GT dann teste ich selber nochmal nach.

Mach die GT nicht besser als sie ist ;)

high, 8xAF, h.qual. 33,72

Das sind Razors werte bei 8AF. Meine sind auch mit 8AF. Und was hat die 2900 mit 8AF?

andre87
2007-10-31, 16:15:30
Nochmal ein kleines Update: Für OC dreht der Lüfter @default einfach viel zu langsam. Ich hab den manuell mal auf 55% gestellt - damit ist die Karte btw. zwar schon nervig laut aber immer noch leiser als die XT unter Last - und die Core-Temp bleibt bei 73°!!!
Ich werd dann mal weiterclocken :cool:


und Ergebnisse hier schlildern bitte, ausführlich :D

Hat denn eigentlich schon jemand einen anderen Kühler verbaut=

dropback
2007-10-31, 16:15:56
...
mit welchem Programm seit ihr denn am takten ? Ich nutze bisher nur N-Tune, Rivatuner funzt bei mir jedenfalls auch nich.

Gruß
Expertool 5.6 geht auch

Gast
2007-10-31, 16:21:06
Mach die GT nicht besser als sie ist ;)

high, 8xAF, h.qual. 33,72

Das sind Razors werte bei 8AF. Meine sind auch mit 8AF. Und was hat die 2900 mit 8AF?
Ich hab die Werte ohne AF von Razor genommen und bei der 29er ist auch kein AF an.

Deathcrush
2007-10-31, 16:28:13
Aber ich habe AF, und das steht auch so da, also kannst den vergleich mit der GTS schon knicken ;). Wenn du so willst ist Razors non OC GT so schnell wie meine GTS @648/900. Beide haben wir 33FPS bei 1280x1024 8AF

Gast
2007-10-31, 16:36:09
Ja, das kommt hin ;-)

Das Auge
2007-10-31, 17:20:41
Hier mal ein kleiner Vorgeschmack:

http://img473.imageshack.us/img473/4935/8800gtat734rf6.jpg (http://imageshack.us)

Das _scheint_ soweit stabil zu sein, jedenfalls lief rthdribl ne ganze Weile, der CoJ-DX10 Benchmark machte auch keine Zicken, ebensowenig wie Bioshock. Natürlich kann ich nach so kurzer Testzeit dafür noch nicht meine Hand ins Feuer legen, aber ich würde sagen, es sieht gut aus :up:
btw.: Ab ca. 737MHz springt der Takt immer gleich auf 756MHz hoch, das packt sie nicht mehr.

Jetzt schau ich mal was der Speicher so hergibt ;)

andre87
2007-10-31, 17:24:50
wow danke, und den shader nicht vergessen :D

Das Auge
2007-10-31, 17:33:47
wow danke, und den shader nicht vergessen :D

Ja, ja, immer mit der Ruhe ;D

Archon
2007-10-31, 17:53:25
Rivatuner geht schon, läuft bei selbst unter Vista x64. Googel mal nach der der Version 2.06, die gibt es offiziell bei guru3d leider nicht zum dl, wohl aber geleaked :ulol:
UNter Vista x64 (falls du das nutzt) musst du noch die Treibersignierung ausschalten (beim Bootvorgang F8 drücken).

Super, Danke !
@Andre
Glaub nicht das bei 680Mhz Schluss ist - das ging zu einfach bis dahin :)
Werd dann später auch nochmal weiter testen. Aber bis jetzt sind die Karten doch eigentlich recht taktfreudig - man muss halt abwägen ob man eher mit nem schneller drehenden und lauteren Lüfter, oder den höheren Core Temperaturen leben kann.

Die gelbe Eule
2007-10-31, 18:02:33
Shadertakt bringt übrigens mehr als GPU Takt, denke das man hier die Gewichtung besser setzen sollte.

Gast
2007-10-31, 18:51:12
Hier mal ein kleiner Vorgeschmack:

http://img473.imageshack.us/img473/4935/8800gtat734rf6.jpg (http://imageshack.us)

Das _scheint_ soweit stabil zu sein, jedenfalls lief rthdribl ne ganze Weile, der CoJ-DX10 Benchmark machte auch keine Zicken, ebensowenig wie Bioshock. Natürlich kann ich nach so kurzer Testzeit dafür noch nicht meine Hand ins Feuer legen, aber ich würde sagen, es sieht gut aus :up:
btw.: Ab ca. 737MHz springt der Takt immer gleich auf 756MHz hoch, das packt sie nicht mehr.

Jetzt schau ich mal was der Speicher so hergibt ;)
Sehr gut :-)

Im XS wird die auch gut gequält http://www.xtremesystems.org/forums/showthread.php?t=163774

svenska
2007-10-31, 18:51:49
wie bekomm ich denn die core & ambient temps raus?
rivatuner zeigt mir nur "core" an, und das mit 50 Grad ? :|

Das Auge
2007-10-31, 18:58:31
Beim Speicher geht leider nicht allzuviel. Nachdem ich mich mit einigen Abstürzen rumplagen musste kann ich aber 975 MHz (real 972 lt. RT) als vorerst stabil deklarieren. Getestet mit dem Crysis-Demo, alles auf High außer Shadows auf medium und 2x/8x in 1360x768.

Auf zum Shadertakt ;)

4711
2007-10-31, 18:59:23
woowwww ein OC Wunder wer brauch da noch ne Ultra,wieso haben die dem Kärtchen nicht 200mb mehr Ram gegeben,da ist doch was im Busch...:confused:

4711
2007-10-31, 19:01:15
Beim Speicher geht leider nicht allzuviel. Nachdem ich mich mit einigen Abstürzen rumplagen musste kann ich aber 975 MHz (real 972 lt. RT) als vorerst stabil deklarieren. Getestet mit dem Crysis-Demo, alles auf High außer Shadows auf medium und 2x/8x in 1360x768.

Auf zum Shadertakt ;)
geh mal unter 700 core da bekommste bestimmt den shader höher das bringt mehr.

andre87
2007-10-31, 19:01:16
Beim Speicher geht leider nicht allzuviel. Nachdem ich mich mit einigen Abstürzen rumplagen musste kann ich aber 975 MHz (real 972 lt. RT) als vorerst stabil deklarieren. Getestet mit dem Crysis-Demo, alles auf High außer Shadows auf medium und 2x/8x in 1360x768.

Auf zum Shadertakt ;)


man bin auch am überlegen mir ne Gainward zu bestellen bei Arlt...;D

Das Auge
2007-10-31, 19:28:48
Ich hab vorhin nochmal Crysis mit 725/975 gleichzeitig getestet - Absturz. Da ich sowieso nicht bis zum Maximum gehen will für den Dauerbetrieb hab ich's noch mal mit 700/950 getestet - läuft. Ich denke mal so werd ich das auch laufen lassen, wenn sich das als Dauerstabil erweist.
Muß aber noch die Shader vorher testen, dann schaun mer mal ;)

horn 12
2007-10-31, 19:28:54
Langsam Leute, man sollte erst mal den Neuen CAT 7.11 abwarten oder ne 7.11 Beta-Version um entgültig den R600 2900XT abzuschreiben.
Dafür dass NV ca. 5000 Stunden am Treiber/ Crysis Game gearbeitet hat schlagen sich die 2900XT nicht schlecht (so aus dem Stehgreif heraus)

4711
2007-10-31, 19:32:09
Ich hab vorhin nochmal Crysis mit 725/975 gleichzeitig getestet - Absturz. Da ich sowieso nicht bis zum Maximum gehen will für den Dauerbetrieb hab ich's noch mal mit 700/950 getestet - läuft. Ich denke mal so werd ich das auch laufen lassen, wenn sich das als Dauerstabil erweist.
Muß aber noch die Shader vorher testen, dann schaun mer mal ;)
702 oder 684?
bei 684 bekomm ich den shader der ultra auf 1700..bei 702 ist bei 1620 Schluß

Razor
2007-10-31, 19:34:18
Dafür pendelt sich die Temperatur nach 10min. rthdribl auch bei "nur" 89° ein. Leider zeigt mir Rivatuner (2.06) keine ambient temperatures an...wenn hier jemand Rat weiß, nur zu ;)
Eine etwas ältere Everest-Version spuckt jedenfalls bei "GPU-Umgebung" 65° aus.
Kurz und knapp... und eine Anekdote zum Schmunzeln.
Darf auch gerne mehr sein... *aufocwertehoff*
Top!
:up:

Welchen RivaTuner setzt Du ein?
Habe hier den 2.06 Test 6 (der 2.06 ist ja noch nicht offiziell) und der zeigt die ambient temp.
Aber Everest dürfte recht haben mit den 65°...
...bei mir waren es 67° bei 91°... allderdings herrscht in meinem Gehäuse auch nicht so ein "Durchzug".
:D

OC? GO, GO, GO!
Dickes Lob an dich Razor für diesen tollen Thread und deinen sehr ausführlichen Bericht. Denn ich hab auch soeben meine 7900GT verkauft und bin nun nur noch auf der Suche nach meiner "Wunsch-GT" ;)
Gerne...
Darf man fragen, was Du noch für Deine 7900GT bekommen hast?
Dürfte so einige hier interessieren.

Welcher Treiber ist den der passendste ? der letzte/neuste 169.04er ?
Ich habe den 169.02 WHQL RC im Einsatz... und das Teilchen läuft prächtig.
Einzig die WiC-Demo will nicht mehr, mit der (gepatchten) WiC-Retail soll aber alles OK sein.

Na dann mal viel Spaß mit dem neuen Kärtchen...
...wir hoffen auf Deinen Bericht!
:up:

Razor

up¦²
2007-10-31, 19:41:33
MSI hat ein tool mit dem du auch shader oc'en kannst:
http://global.msi.com.tw/index.php?func=newsdesc&news_no=550

K4mPFwUr$t
2007-10-31, 19:51:17
frag mich nur was mit wakü so drinne wäre.
fugger hat ja seine @ stock auf 760/1900/1040 benchstable bekommen. allerdings bei ~20°C umgebungstemp.

Zatoichi
2007-10-31, 20:00:10
Ich hab eine EVGA GT. Was soll ich sagen? Tolle Karte mit super PLV. OC geht sicher bei meiner mit 700/1100. Nur wird sie da schon relativ warm und ich will erstmal sehen wie sich das entwicklet. SLI hat noch keiner mit der Karte? Gibt es da irgendwo Benchmarks?

LovesuckZ
2007-10-31, 20:25:01
Meine Sparkle ist heute angekommen.
Die Karte taktet ab ca. 100° runter. Bei 45% Lüftersteuerung bleibt die Karte unter Last bei ca. 85° und ist nicht hörbar. Im IDLE benötigt sie ca. 50 Watt weniger als die 8800GTX und unter LAST sind es ca. 80 Watt.

Gast
2007-10-31, 20:33:52
Langsam Leute, man sollte erst mal den Neuen CAT 7.11 abwarten oder ne 7.11 Beta-Version um entgültig den R600 2900XT abzuschreiben.
Dafür dass NV ca. 5000 Stunden am Treiber/ Crysis Game gearbeitet hat schlagen sich die 2900XT nicht schlecht (so aus dem Stehgreif heraus)
Berni das ist doch OT hier. Die GTX/GTS/GT und die XT nehmen sich unter XP ohne AA nicht viel das steht fest, aber in DX10 sehe ich die XT hinterher hinken.
Wenn die 8800GT morgen ankommt kann ich auch zahlen liefern ;-)

Gast
2007-10-31, 20:47:27
Meine Sparkle ist heute angekommen.
Die Karte taktet ab ca. 100° runter. Bei 45% Lüftersteuerung bleibt die Karte unter Last bei ca. 85° und ist nicht hörbar.

Da ist die Luft aber schon reichlich dünn für bissl Takten und warmen Sommer...

4711
2007-10-31, 20:51:09
in DX10................da rennt alles hinterher........und du zocks kein veryhigh DX10 mit der GT....höchstens in 1000x900 oder so in der Richtung.

Das Auge
2007-10-31, 21:03:51
Hier nun der vorerst letzte Teil meiner OC-Versuche: Die Shader-Domain. Diese lief bis 1750 bislang ohne Probleme, 1800 ging nicht mehr.

Zusammenfassend werd ich das Kärtchen also erstmal mit 700/1700/950 laufen lassen, so hab ich bei allen Takten noch etwas Luft nach oben und kann relativ sicher sein daß das so trotz der sehr kurzen Testphase stabil läuft. Bislang tut es das jedenfalls :D

Etwas enttäuscht bin ich nur über den Speicher (diesen hab ich auch im Verdacht für den Absturz beim Crysis-Test mit 725/975), da hab ich mit meinem Exemplar wohl einfach Pech gehabt. Der Rest kann sich imho für ein Standardmodel mit Standardkühlung durchaus sehen lassen, zumal das wie gesagt noch nicht mal ausgereizt ist ;)
Meine Priorität liegt jetzt allerdings erstmal beim Lüfter, mal schauen wie weit ich den runternehmen kann bei trotzdem noch erträglichen Temperaturen.

Übertakten bis zum letzten Megahertzchen ist mir auch gar nicht mehr so wichtig, aus dem Alter bin ich raus ;D
Wichtig ist jetzt erstmal, daß das stabil und zuverlässig und am besten auch noch leise so läuft. Mit der Leistung der Karte bin ich jedenfalls sehr zufrieden, hat sich gelohnt :up:

@Razor

Benutze auch den RT 2.06 t6, aber wie gesagt: Keine ambient temperatures. Sind auch nicht in den Optionen versteckt oder so sondern einfach nicht vorhanden :| Oder ich bin schlichtweg blind gewesen, kann auch sein.

Eine Bitte hätte ich aber nun doch an dich: Früher oder später wirst du doch sowieso übertakten, mach dir nix vor. Also kannst du eigentlich auch gleich, solange du noch Urlaub und Zeit hast, den vf900 verbauen. Mich würde einfach brenndend interessieren, wie sich der auf der GT macht...du hattest die Karte hier im Forum als erster, also gebührt dir auch die Ehre sie als Erster umzubauen :naughty: :) :biggrin:

update: Mit dem Lüfter auf 40% hört man die GT nicht mehr störend aus dem Gaming-Sys raus und die Temp pendelt sich bei 87° ein. So kann man das lassen, eigentlich brauch ich gar keinen neuen Kühler :ulol:

seahawk
2007-10-31, 21:04:15
Sehr schöner Thread, Einen Käufer für meien 7800GT habe ich, nun muss ich mir nur noch ne 8800GT besorgen.

Rebell
2007-10-31, 21:43:53
Darf man fragen, was Du noch für Deine 7900GT bekommen hast?
Dürfte so einige hier interessieren.

110€ :tongue:

Razor
2007-10-31, 21:45:08
Benutze auch den RT 2.06 t6, aber wie gesagt: Keine ambient temperatures. Sind auch nicht in den Optionen versteckt oder so sondern einfach nicht vorhanden :| Oder ich bin schlichtweg blind gewesen, kann auch sein.

Eine Bitte hätte ich aber nun doch an dich: Früher oder später wirst du doch sowieso übertakten, mach dir nix vor. Also kannst du eigentlich auch gleich, solange du noch Urlaub und Zeit hast, den vf900 verbauen. Mich würde einfach brenndend interessieren, wie sich der auf der GT macht...du hattest die Karte hier im Forum als erster, also gebührt dir auch die Ehre sie als Erster umzubauen
Ne, ne, ne... laß mal.
Ich bin eigentlich heil froh, gerade das nicht tun zu müssen!
Schöner OC-Test, by the way.

Nein, OCen kommt bei mir erst einmal nicht in Frage (ist schlichtweg nicht nötig) und wenn ich mir Dein Beispiel so anschaue, dann vermute ich, dass ich den 40% Lüfter gar nicht witzig finden würde...

...wie gesagt: Antec P180 (bauartbedingt gedämmt), 2 Luftkanäle, 1x12cm rein, 1x12cm raus, beide langsam drehend, Scythe Ninja Heatpipe-Tower für die CPU (ebenfalls mit langsamen 12cm Lüfter) und komplett passiv gekühltem Mobo.

Mein System ist schlichtweg auf hohe Performance bei minimalster Geräuschentwicklung getrimmt und so soll es auch bleiben... schließlich brauche ich das Teil auch als Arbeitsbasis.

Und zudem: in den ersten 2 Wochen keine 'Experimente' von wegen Umbau und so... wenn Du verstehst, wie ich das meine.
(die 7900GT war eine Ausnahme, weil sie ohne den Umbau einfach unerträglich war... Garantie/FAG hin oder her ;-)

110€ :tongue:
WoW!
:up:

Razor

robbitop
2007-10-31, 21:55:23
frag mich nur was mit wakü so drinne wäre.
fugger hat ja seine @ stock auf 760/1900/1040 benchstable bekommen. allerdings bei ~20°C umgebungstemp.
Wenn man die VCore etwas höher stellt, ist das sicher kein unrealistischer Wert. Dazu müsste mal wieder jemand mal einen VCore Mod entwickeln (am besten mit Bleistift!).

Razor
2007-10-31, 22:17:58
Benutze auch den RT 2.06 t6, aber wie gesagt: Keine ambient temperatures. Sind auch nicht in den Optionen versteckt oder so sondern einfach nicht vorhanden :| Oder ich bin schlichtweg blind gewesen, kann auch sein.
Hab' glatt vergessen, darauf zu reagieren... sorry.

Bei mir sind lediglich folgende Plugins aktiv:
- NVThermalDiode.dll
- VidMem.dll

'Messen' lasse ich folgendes:
(in exakt dieser Reihenfolge)
- ROP domain
- memory clock
- core temp
- local vid mem
- non-local vid mem
- ambient temp

Wie Du siehst, der letzte Punkt in der Liste der möglichen Monitor-Punkte!
Keine Ahnung, warum das nicht bei Dir auftauchen mag...

P.S.: nach ein wenig Rumgespiele mit der Monitor-Optik, war die ambient temp auch bei mir plötzlich weg... keine Ahnung warum, kam auch nicht wieder. RT komplett deinstalliert (Verzeichnis geleert) und wieder installiert... diesmal war die ambient temp sogar per Default 'an'... hmmm.

Razor

Ach ja...
(und ich hab' das Delta gerade von 0/200 auf 20/80 umgestellt ;-)

The_Invisible
2007-10-31, 22:25:27
woowwww ein OC Wunder wer brauch da noch ne Ultra,wieso haben die dem Kärtchen nicht 200mb mehr Ram gegeben,da ist doch was im Busch...:confused:

und das breitere speicherinterface willst ranlöten oder wie?

nene, die gtx/ultra haben schon noch ihre daseinsberechtigung.

mfg

AnarchX
2007-10-31, 22:34:09
Wenn man die VCore etwas höher stellt, ist das sicher kein unrealistischer Wert. Dazu müsste mal wieder jemand mal einen VCore Mod entwickeln (am besten mit Bleistift!).

Im XS scheint man schon dran zu arbeiten, aber Bleistift wird wohl hier nicht ausreichen:
http://www.xtremesystems.org/forums/showthread.php?t=163929

Aber mit etwas Glück und einer guten Kühlung, wie z.B. WaKü gehen jetzt schon ordentliche Taktraten:
775/2000/1000MHz (http://www.hardforum.com/showpost.php?p=1031603967&postcount=16)

Gast
2007-10-31, 23:05:54
nene, die gtx/ultra haben schon noch ihre daseinsberechtigung.

Ultra ja, aber die uralte GTX nein, schon gar nicht wenn eine neue GTS aufkreuzt.

Ph0b0ss
2007-10-31, 23:12:43
Aber mit etwas Glück und einer guten Kühlung, wie z.B. WaKü gehen jetzt schon ordentliche Taktraten:
775/2000/1000MHz (http://www.hardforum.com/showpost.php?p=1031603967&postcount=16)

775 Core und 2000 Shader hören sich nicht schlecht an, sollte 10-15% mehr Power bringen als eine Ultra @Default. Aber verhungert das Teil nicht an der Speicherbanbreite? Umgerechnet auf eine Ultra @10%-OC müsste die 8800GT schon ~1800Mhz Speichertakt haben. 1000Mhz sind doch schon arg zuwenig, oder hat die 8800GT neue Bandbreiten-Schonungs-Maßnahmen?

K4mPFwUr$t
2007-10-31, 23:33:32
vieleicht bietet später ja noch ein hersteller eine höhere version an.
den zur zeit schaut es recht mager aus was den GDDR3 angeht.

der shadertakt wirkt sich jedenfalls sehr stark auf die minFPS aus laut driverheavon.

Gast
2007-10-31, 23:50:41
man braucht sich doch nur die karte hier kaufen ;)
http://geizhals.at/deutschland/a291829.html
Das spart nerven beim o/cen.

Gast
2007-10-31, 23:53:21
Sind da irgendwelche Spiele mit bei?

Dr.Dirt
2007-11-01, 00:35:33
Ich hab mir jetzt auch eine EVGA 8800 GT bestellt, bei arlt.com, wollte ja eigentlich noch etwas warten, aber hab es nicht mehr ausgehalten. :ulove:

LovesuckZ
2007-11-01, 00:44:32
Keine AHnung, ob es an den neuen Treiber liegt:
Taktet man den Core niedriger, verringert sich nicht der Stromverbrauch.
Egal ob 600/900 oder 150/900, der IDLE verbrauch liegt bei ca. 116 Watt. Die Leistung dagegen unter Last zeigt jedoch ein Niveau, dass auf Untertaktung hinweist.

/edit: Da es anscheinend nur noch eine Domäne gibt, scheint die Sache wohl wie folgend aussehen: Wenn keine LAST anliegt, regelt der Treiber anscheinend in der nicht mehr zugreifbaren Domäne die Einstellungen, da der regelbare Modus erst unter LAST greift. Sieht so aus, dass die neuen Treiber oder die 8800GT einen - wie sagt an so schön - richtigen IDLE Modus besitzt.
Jedoch beziegt sich das nur auf den Core-Takt. Der Speichertakt scheint wohl nur als "eins" zu geben, da eine untertaktung bis zu 10 Watt spart.

dargo
2007-11-01, 00:53:00
Keine AHnung, ob es an den neuen Treiber liegt:
Taktet man den Core niedriger, verringert sich nicht der Stromverbrauch.
Egal ob 600/900 oder 150/900, der IDLE verbrauch liegt bei ca. 116 Watt. Die Leistung dagegen unter Last zeigt jedoch ein Niveau, dass auf Untertaktung hinweist.
Das erinnert mich irgendwie an die G6800GT. :tongue:

Schrotti
2007-11-01, 01:17:11
Aber ich habe AF, und das steht auch so da, also kannst den vergleich mit der GTS schon knicken ;). Wenn du so willst ist Razors non OC GT so schnell wie meine GTS @648/900. Beide haben wir 33FPS bei 1280x1024 8AF

Ich erreiche in 1280x1024 8xAF GTS 640MB @default Takt 25,61fps.

Bin auf meine 8800GT gespannt.

PS: Ich werde mal 680/1000 anlegen und testen.
PSS: erreiche dann Average 33,54fps und maximal 40,91fps (Treiber 169.02 auf höchste Qualität mit 8xAF in 1280x1024)

Gast
2007-11-01, 03:41:40
So, meine Gainward 8800GT ist heute gekommen. DHL sind doch die schnellsten :D. Nachdem öffnen des braunen Umkartons war ich doch positiv überascht da das Bundle das Spiel Tomb Raider Anniversary enthält. Ich hatte ja nur mit einer Treiber-CD gerechnet. Tomb Raider ist mir allemal lieber wie CoH, welches bei der Asuskarte beiliegt.

So, hier mal ein Foto vom Lieferumfang:

http://img529.imageshack.us/img529/1711/ausstattungvp6.jpg

Die Karte:

http://img505.imageshack.us/img505/1104/originalkartekc2.jpg

Nachdem auspacken habe ich die Karte dann gleich mal zum Funktionstest eingebaut und mit Everest Temperaturen von über 60°C im Idle und ca. 91°C beim Spielen von Call of Duty 2 gehabt. Das war mir eindeutig zu hoch und so wurde nicht lange gefackelt und der Zalman VF900 von meiner ausgebauten 7900GT 512Mb runtergeschraubt und auf der 8800GT verbaut. Den Lüfter habe ich direkt an der Graka angeschlossen:

http://img529.imageshack.us/img529/4440/modkartevr4.jpg

Danach schnell den Rivatuner installiert und folgende Temps bei geschlossenem Gehäuse gehabt:

In Windows Idle:

http://img152.imageshack.us/img152/2084/idletempow6.jpg

Unter Last beim Call of Duty 2 spielen:

http://img152.imageshack.us/img152/5825/loadtempqv3.jpg

Nun noch schnell den Takt angehoben, da hier schon einige auf 700Mhz getaktet hatten, habe ich als Coretakt gleich 700Mhz eingestellt, den Speicher aber mit 920 Mhz ziemlich moderat übertaktet. Danach folgende Temps unter Rivatuner gesehen:

Im Windows Idle:

http://img231.imageshack.us/img231/3622/idletempoccu2.jpg

Unter Last beim Call of Duty 2 spielen:

http://img138.imageshack.us/img138/67/loadtempocbb6.jpg

Somit sollte klar sein das der Originalkühler wirklich nichts Optimales darstellt und schleunigst durch einen Zalman VF900 oder evtl. sogar diesen Kühler (http://geizhals.at/deutschland/a263517.html) ersetzt werden sollte.

In diesem Sinne noch viel Spaß mit Euren Karten, ich bin restlos begeistert nach 1 1/2 Jahren 7900GT nun endlich eine Topkarte für 260€ incl. NN Versand erstanden zu haben.

K4mPFwUr$t
2007-11-01, 07:25:53
hmm, wenn der zahlman draufpasst. frag ich mich nur wellche blende man bräuchte für den alphacool GP2 :|

komischer weise hast du kein shadertakt beim RT. sollte eigentlich mit der 2.06 möglich sein.
oder du nutzt das tool von MSI dafür.

Rebell
2007-11-01, 08:26:55
im HWL hats bereits die 2. kaputte Karte gegeben.. entweder lags am Übertakten oder die Dinger sterben wie die Fliegen.

Razor
2007-11-01, 08:42:12
So, meine Gainward 8800GT ist heute gekommen. DHL sind doch die schnellsten :D. Nachdem öffnen des braunen Umkartons war ich doch positiv überascht da das Bundle das Spiel Tomb Raider Anniversary enthält. Ich hatte ja nur mit einer Treiber-CD gerechnet. Tomb Raider ist mir allemal lieber wie CoH, welches bei der Asuskarte beiliegt.

So, hier mal ein Foto vom Lieferumfang:
http://img529.imageshack.us/img529/1711/ausstattungvp6.jpg

Die Karte:
http://img505.imageshack.us/img505/1104/originalkartekc2.jpg

Nachdem auspacken habe ich die Karte dann gleich mal zum Funktionstest eingebaut und mit Everest Temperaturen von über 60°C im Idle und ca. 91°C beim Spielen von Call of Duty 2 gehabt. Das war mir eindeutig zu hoch und so wurde nicht lange gefackelt und der Zalman VF900 von meiner ausgebauten 7900GT 512Mb runtergeschraubt und auf der 8800GT verbaut. Den Lüfter habe ich direkt an der Graka angeschlossen:

http://img529.imageshack.us/img529/4440/modkartevr4.jpg
Danach schnell den Rivatuner installiert und folgende Temps bei geschlossenem Gehäuse gehabt:

In Windows Idle:
http://img152.imageshack.us/img152/2084/idletempow6.jpg

Unter Last beim Call of Duty 2 spielen:
http://img152.imageshack.us/img152/5825/loadtempqv3.jpg

Nun noch schnell den Takt angehoben, da hier schon einige auf 700Mhz getaktet hatten, habe ich als Coretakt gleich 700Mhz eingestellt, den Speicher aber mit 920 Mhz ziemlich moderat übertaktet. Danach folgende Temps unter Rivatuner gesehen:

Im Windows Idle:
http://img231.imageshack.us/img231/3622/idletempoccu2.jpg

Unter Last beim Call of Duty 2 spielen:
http://img138.imageshack.us/img138/67/loadtempocbb6.jpg

Somit sollte klar sein das der Originalkühler wirklich nichts Optimales darstellt und schleunigst durch einen Zalman VF900 oder evtl. sogar diesen Kühler (http://geizhals.at/deutschland/a263517.html) ersetzt werden sollte.

In diesem Sinne noch viel Spaß mit Euren Karten, ich bin restlos begeistert nach 1 1/2 Jahren 7900GT nun endlich eine Topkarte für 260€ incl. NN Versand erstanden zu haben.
Hey, cooler Test!
Hättest aber auch gerne die Thumbs von ImageShack verwenden dürfen...
;)

Aber das mit dem Zalman ist interessant!
Wenn ich mal zusammen fassen darf?

Stock, Standardkühler: Idle 60°, Load 90°
Stock, Zalman VF900: Idle 48° (amb 38°), Load 58° (amb 47°) - CoD2
OC, Zalman VF900: Idle 48° (amb 38°), Load 56° (amb 44°) - CoD2
Wobei OC = 700/1730/910 sind.

Ist das so korrekt?
:confused:

Schaut halt nicht wirklich plausibel aus... denn warum sollte die OC'te Variante kühler sein, als die nonCD'te?
Auch ist der Last-Titel nicht wirklich gut gewählt... kein Crysis zu Hand?

Ansonsten schon einmal ein toller Einblick in den ersten Kühlermod!
Wenn ich mir das so anschaue, dann jucken mir schon die Finger...

Diesmal tatsächlich nicht der Lautstärke, sondern der Temps wegen...
(und eben der darus resultierenden besseren Übertaktbarkeit der 'Kleinen' ;-)

Nein, ich bleibe Standhaft!
:D

Razor

P.S.: mich würde eines noch brennend interessieren: Du hast den Lüfter an der GraKa hängen? Wie laut ist er? Schade, dass man so nicht weiß, wie schenll er nun dreht...

dropback
2007-11-01, 08:59:21
...Wenn ich mir das so anschaue, dann jucken mir schon die Finger...

Diesmal tatsächlich nicht der Lautstärke, sondern der Temps wegen...
(und eben der darus resultierenden besseren Übertaktbarkeit der 'Kleinen' ;-)

Nein, ich bleibe Standhaft!
:D
...
Argh.
Jetzt bin ich auch wieder geneigt den Lüfter zu tauschen, die Temps sehen doch bedeutend besser aus.
Dann werde ich mir wohl doch einen neuen VF900 besorgen (der auf meiner X1900XT is so verstaubt;D) und dann umbauen.
Ich warte aber erst noch mal ein paar Tage ab, nicht dass die Karte doch noch die Hufe hochreisst (im Luxx hats ja schon 2 oder 3 erwischt...:( ) und wenn die Karte in 1-2 Wochen noch lebt kommt ein anderer Kühler drauf.
Übertakten werde ich sie auf jeden Fall erst mal nicht...

Razor
2007-11-01, 09:06:18
...scheint die Sache wohl wie folgend aussehen: Wenn keine LAST anliegt, regelt der Treiber anscheinend in der nicht mehr zugreifbaren Domäne die Einstellungen, da der regelbare Modus erst unter LAST greift. Sieht so aus, dass die neuen Treiber oder die 8800GT einen - wie sagt an so schön - richtigen IDLE Modus besitzt.
Hört sich ja sehr interessant an!

Dürfte dann wohl auch der Grund sein, warum die 8800GT 'nur' 15W mehr braucht, als meine gute alte 7900GT, obwohl sie keinen 2D-Modus besitzt. Allerdings kommen mir selbst die 15W noch ein bissel viel vor...

Razor

Razor
2007-11-01, 09:11:50
Übertakten werde ich sie auf jeden Fall erst mal nicht...
Werde ich auch so machen... bzw. auch nicht machen!
:D

Gibt einfach noch keinen Grund.
Auch wurde die Karte mit solchen Temps (i.e. 60° idle und 90° last beim core) im Hinterkopf gebaut...
...und solange meine anderen Komponenten davon nichts mitbekommen ist mir das eigentlich auch wurscht.

By the way: habe mir gerade mal das TimeShift Demos "in voller Pracht" angeschaut... mann sieht das heftig aus!
Und dabei noch immer 60+ fps gehabt... mit der 79'er durfte ich an so etwas nicht mal denken.
;)

Razor

P.S.: würde mich wirklich interessieren, wie schnell der Zalman Lüfter dreht... der kann auch recht laut sein, wenn er voll dreht.
P.P.S.: ja, 'verstaubt' ist das Teilchen auf der 7900GT auch... aber das läßt sich ja in 5min ändern!

robbitop
2007-11-01, 09:25:49
@Gast

ich sehe gerade, dass du die Spannungswandler gar nicht kühlst (obwohl sie sonst vom Kühler mit gekühlt werden). Wenn dir deine Karte lieb ist, pack da noch nen Passivkühler drauf.

HD-Ronny
2007-11-01, 09:29:25
@gast
was sollen denn die riesen bilder??

Die 8800GT performt ganz gut,aber für Crysis ist sie schon wieder bei hohen auflösungen jenseits 1280x1024 zu schwach.Tolle Karte auf jedenfall mit gerechten Preis,aber für neuere Spiele in HD nur eingeschränkt brauchbar.
Vieleicht reisst ja die neue GTS was raus...

dropback
2007-11-01, 09:38:30
...Gibt einfach noch keinen Grund.
Auch wurde die Karte mit solchen Temps (i.e. 60° idle und 90° last beim core) im Hinterkopf gebaut...
...und solange meine anderen Komponenten davon nichts mitbekommen ist mir das eigentlich auch wurscht.

Auch wieder wahr...
Immerhin soll es ja auch passive Modelle geben.
Die Karten im Luxx waren ja wohl auch nicht wenig übertaktet, muss man halt mal abwarten ob es einfach nur Pech war, das OC dran Schuld war oder was auch immer.
Ich hoffe ja nicht das sich so ein Debakel wiederholt wie damals mit den 7900ern, da sind ja recht viele ausgefallen.
Naja, abwarten und [hierGetränkdeinerwahleinsetzen] trinken:)
P.S. Timeshift is trotzdem langweilig:wink:

dr_mordio
2007-11-01, 09:45:34
Also die Karte wirkt wirklich gut.

aber mich würde mal ebend etwas offtopic interessieren.

@gast
was sind das für sidebar utils die du da am laufen hast, die sehen besser aus als die normalen von vista.
wo gibts die denn?

MfG
Alex

Deathcrush
2007-11-01, 11:45:07
@gast
was sollen denn die riesen bilder??

Die 8800GT performt ganz gut,aber für Crysis ist sie schon wieder bei hohen auflösungen jenseits 1280x1024 zu schwach.Tolle Karte auf jedenfall mit gerechten Preis,aber für neuere Spiele in HD nur eingeschränkt brauchbar.
Vieleicht reisst ja die neue GTS was raus...


Genau das ist auch mein Prob. Wenn meine GTS @640/900 schon zu langsam ist für 1680x1050 (bisher nur Arma und Crysis) kann mich auch die GT @GPU 700MHZ nicht retten. Daher brauch ich ein neues High End Modell :D Aber zack zack. Jetzt noch die GTX kaufen ist wohl fürn Popo und SLI tu ich mir nicht an, hab eh kein Mobo dafür. Auch wenn ich zugeben muss das es mich reitzt, aber da muss die vernunft siegen :D :D und meine Frau mich bremsen *g

P.S Crysis zu langsam meine ich alles High ;) Mit Schattentweak rennt es bei 1680x1050 mit 35FPS avg ;)

Julius
2007-11-01, 11:49:39
Sehe ich es richtig: Mein Zahlmann Lüfter den ich auf meiner 7900 GT verbaut habe passt auf der 8800gt einwandfrei?? Oder muss ich was umbauen ??

horn 12
2007-11-01, 11:56:53
Erst der R680/ (G90?) wird dies richten können, und Crysis in:
1680x1050 4xAA/16AF flüssig darstellen können mit Very High Settings und die Extreme Version auf 1280x1024 4xAA/16AF.
Da sollte aber dann einem der Atem stecken bleiben, denn diese Grafikpracht muss man Sekunde zu Sekunge GENIESEN!
Die 8800GT / RV670 sind dafür immer noch zu schwach und SLI/ Crossfire bringt es nicht! (wenn der R680 ein DualChip ist und auch so verbaut wird)
Hoff da kommt auch was in der Richtung von NV zwecks der Preise.

dargo
2007-11-01, 12:04:08
Erst der R680/ (G90?) wird dies richten können, und Crysis in:
1680x1050 4xAA/16AF flüssig darstellen können mit Very High Settings und die Extreme Version auf 1280x1024 4xAA/16AF.
Da sollte aber dann einem der Atem stecken bleiben, denn diese Grafikpracht
Wenn sich bei der Full mit neueren Treibern nichts an der Performance in DX10 ändert bezweifle ich das stark. ;)

shane~
2007-11-01, 12:25:47
... meine Leadtek Winfast PX8800GT-512M ist eben bei mir angekommen :biggrin:

Werde dann im Laufe des Tages Erfahrungen und nen kleinen Vergleich zur alten 7950GT posten...

Gruß shane~

PCGH_Carsten
2007-11-01, 13:01:36
Wenn ich mal zusammen fassen darf?

Stock, Standardkühler: Idle 60°, Load 90°
Stock, Zalman VF900: Idle 48° (amb 38°), Load 58° (amb 47°) - CoD2
OC, Zalman VF900: Idle 48° (amb 38°), Load 56° (amb 44°) - CoD2
Wobei OC = 700/1730/910 sind.

Ist das so korrekt?
:confused:
Nein, die Load-Temps sind die, die der Rivatuner nach dem Beenden von CoD2 ausgegeben hat. Schaut man auf die Verläufe, sind Temperaturen von etwas über 60 Grad Celsius zu vermuten.

btw: kleines Video zum 8800-GT-Standardlüfter:
http://www.pcgameshardware.de/?article_id=619598
Leider ist unsere Flash-Version momentan kaputt und wir haben Feiertag - aber für registrierte Mitglieder bei PCGH ist das Video downloadbar.

K4mPFwUr$t
2007-11-01, 13:30:47
die defekte der 8800GT scheinen an der überbelasteten 2 phasen spawa zu liegen.
eigentlich soll die karte für 3 phasen ausgelegt sein, bisher ist die palit die einzigste mit 3.

hoffentlich ändert sich das sehr sehr sehr schnell.

Deathcrush
2007-11-01, 13:32:22
Im Forumdeluxx sind auch schon 2 oder 3 kaputt. War das bei der 6600 nicht auch mal der fall?

Gast
2007-11-01, 13:33:17
eigentlich soll die karte für 3 phasen ausgelegt sein, bisher ist die palit die einzigste mit 3.
Gut zu wissen. :)

Ist das die Palit: http://geizhals.at/deutschland/a291606.html
oder die mit dem anderen Kühler?

Gast
2007-11-01, 13:34:11
Hehe... Scheint wirklich so zu laufen wie ich es vermutet hatte. Erst der grosse Hype aber langsam setzt Realität ein :D

K4mPFwUr$t
2007-11-01, 13:34:11
ja, da wurde auch an den phasen gespart.
aber mal erlich, müssten die anbieter es nicht selber besser wissen das sie mit einer phase mehr (was kostet sowas bitte schon?) nicht besser kämen, als das risiko einer RMA flut aus zu lösen?

@gast
bei der 88GT mit den blauen alternativkühler ist es 100% 3 phasen.
aber es gibt auch ein statement wo nach palit nur grakas mit 3 phasen anbietet.

Deathcrush
2007-11-01, 13:35:27
Die stückzahlen machen den Preis aus. Bei 500.000€ a 1€ macht das mal ebn 500.000€

dropback
2007-11-01, 13:40:35
Meine Güte, fängt das jetzt hier auch schon an...
Im Luxx sind 1 oder 2 Karten kaputt.
Mindestens 1 davon war OC.
Irgendwo hat irgendwer was von den 2 Phasen Spawas gelesen und trägt das jetzt durch die Foren.
In 2 Stunden gibts dann die Massenhysterei und die ersten (die ihre Karte noch nicht mal haben) fordern eine Ruckrufaktion:rolleyes:
Also immer locker durch die Hose atmen, wenn die Karte wirklich abraucht (ohne OC oder sonstwas) hat man immer noch Garantie.
Ganz einfach.
Aber hier und jetzt gleich in Panik zu verfallen ist wohl etwas überzogen.

andre87
2007-11-01, 13:43:25
hat schon jemand die EVGA 8800GT und kann was zum Lieferumfang sagen? Spiel dabei?

K4mPFwUr$t
2007-11-01, 13:44:45
@dropback
wenn du wirklich meinst die sorge sei nicht berechtigt, dann rechne mal aus wieviel last die beiden spawa haben, wo eigentlich 3 hin sollten. 150% last und bei hohen temps kann schnell ins auge gehen. es sind ja auch viele x1950pro`s ausgestiegen wegen zu warmen DPWMs.

Gast
2007-11-01, 13:46:19
EVGA hat eigentlich nie Spiele dabei, von daher würde ich sagen da ist nix.

Gast
2007-11-01, 13:49:18
Also immer locker durch die Hose atmen, wenn die Karte wirklich abraucht (ohne OC oder sonstwas) hat man immer noch Garantie. nd jetzt gleich in Panik zu verfallen ist wohl etwas überzogen.
Viele hier in den Foren werden OC betreiben.
Und gerade da sind 3 Phasen sicher hilfreich.


Und ja ich würde in Panik verfallen, wenn es bei den 2 Phasen Karten wieder ein Massensterben gibt, selbst wenn man eine neue Karte bekommt ist das unglaublich ärgerlich.


@ K4mPFwUr$t
Wo zur Hölle gibt es diese Palit? In einem Shop meine ich.

Wenn es so wie bei den 7900GT abläuft, dann hat Palit, Colorfull und Gainward das selbe Design und die einzigen, die nicht vom Massensterben betroffen sind.

Also ich will in den nächsten 2 Wochen eine Palit. :)

andre87
2007-11-01, 13:49:51
ja bei der superclocked soll ja ETQW bei sein, frag mich ob das bei der normalen EVGA auch bei is...

3DoMan
2007-11-01, 13:50:24
es währe nicht das erste mal, das so etwas passiert. Aber, man hat ja Garantie. Die 8800 GT scheint wohl extra so entwickelt worden zu sein, das nur sehr geringe Übertaktungen möglich sein sollen (der Kühler der am Limit kühlt, die beschnittene Spannungsversorgung usw.), verständlich, das Nvidia auf diese Art und weise versucht, sein High-End Segment zu schützen. Die 8800 GT hat ja schon (unabsichtlich?) die GTS vom Markt geschossen...

Gast
2007-11-01, 14:00:32
Das kann aber auch sehr schnell in die Hose gehen wenn das Limit durch Serienstreuung etwa zu oft etwas zu tief ausfällt...

dropback
2007-11-01, 14:00:52
...
Und ja ich würde in Panik verfallen, wenn es bei den 2 Phasen Karten wieder ein Massensterben gibt, selbst wenn man eine neue Karte bekommt ist das unglaublich ärgerlich.
...

Wenn es wirklich ein Massensterben gibt darfst du das ja auch:wink:
Ich sage nur das man nicht zu früh in Panik verfallen sollte.
@K4mPFwUr$t
Ich sage nicht dass die Sorge nicht berechtigt sind, ich waollte nur davor warnen zu früh die Pferde scheu zu machen.
Wenn es wirklich so kommt dass viele Karten kaputt gehen, tja, dann wird Nvidia einen Haufen RMA bekommen.
Was solls. Klar ist das ärgerlich und nervig, aber ändern kann man jetzt eh nichts.
Außer abwarten was passiert.
P.S. war bei 7900er Serie nicht auch was mit den Spannungswandlern?
Da sind doch auch etliche Karten abgeraucht.
Falls dem so ist scheinen die ja nicht sonderlich clever zu sein wenn sie den gleichen Fehler 1zu1 wiederholen:rolleyes:

Gast
2007-11-01, 14:12:05
Wenn es wirklich ein Massensterben gibt darfst du das ja auch:wink:
Ich sage nur das man nicht zu früh in Panik verfallen sollte.

...

P.S. war bei 7900er Serie nicht auch was mit den Spannungswandlern?
Da sind doch auch etliche Karten abgeraucht.
Falls dem so ist scheinen die ja nicht sonderlich clever zu sein wenn sie den gleichen Fehler 1zu1 wiederholen:rolleyes:
Ja bei den 7900 gab es ein Massensterben, ich war dabei meine erste starb nach einer Woche, der Ersatz in Form einer Palit mit anderer Spannungsversorgung lebt heute noch
(und sollte jetzt langsam einen nachfolger bekommen)


Deshalb will ich nicht schon wieder in die Schiene der toten karten treten.
Und wenn es jetzt schlechte Anzeichen gibt, dann bleibe ich erstmal die nächste Woche vorsichtig und drücke nicht auf den bestellen Knopf.
Den genau das ist ein Grund warum ich warten wollte, wegen Anfänglicher Probleme.

Das Auge
2007-11-01, 14:14:35
V.a. wäre es mal interessant zu wissen ob die Leutz auch den Lüfter hochgedreht haben. OC mit default-Drehzahl ist bei der GT eben sehr, sehr ungesund. Ich dachte das hätte ich hier schon ausreichend klar gemacht (97° bei nur 50 MHz Übertaktung in einem perfekt belüfteten Gehäuse...).

Gast
2007-11-01, 14:22:01
ich hab meine bestellung auch storniert. Bei dem Preis kann man wohl bitte EXCELLENTE Verarbeitung mit den edelsten Bauelementen erwarten. Da darf an NICHTS gespart werden.

Hoffentlich kommen da ZÜGIG neue karten nach!

AnarchX
2007-11-01, 14:25:12
Wenn man von "Massensterben" redet, sollte man immer die Anzahl der Verkäufe der Karte beachten, welcher man dies andichten will.

Und da ist die 8800 GT, wie auch die 7900er, doch schon selbst nach 3 Tagen in großen Stückzahlen verkauft wurden(Berichte sprechen davon, dass die E-Tailer erstaunt waren, dass die Karten ihn so schnell "entrissen" wurden).;)

Gast
2007-11-01, 14:27:45
na wenn jemand sich ne 8800GT kauft, und die dann kaputt geht, dann hat er erstal keine gelegenheit an den pc zu kommen :D wer weiß, vielleicht sind von 50.000 verkauften gt's schon 10 000 kaputt...

dargo
2007-11-01, 14:34:34
Wenn es wirklich so kommt dass viele Karten kaputt gehen, tja, dann wird Nvidia einen Haufen RMA bekommen.
Was solls. Klar ist das ärgerlich und nervig, aber ändern kann man jetzt eh nichts.

Nvidia wird mit Sicherheit keine RMAs bekommen. ;)

Gast
2007-11-01, 14:36:14
War doch schon oft so dass die ersten Batches fehlerhaft waren. Ich sag nur Widerstände, Spannungswandler etc... Reift beim Kunden, deshalb waret man auch bissl und kauft ned den ersten Schwung. Besser ist das.

dropback
2007-11-01, 14:38:37
Nvidia wird mit Sicherheit keine RMAs bekommen. ;)
Jo, weiß ich.
War vielleicht etwas unglücklich ausgedrückt.
Aber ich tippe du weist was ich meine:tongue::wink:

dargo
2007-11-01, 14:43:02
Aber ich tippe du weist was ich meine:tongue::wink:
Klaro. :wink:

4711
2007-11-01, 14:47:02
V.a. wäre es mal interessant zu wissen ob die Leutz auch den Lüfter hochgedreht haben. OC mit default-Drehzahl ist bei der GT eben sehr, sehr ungesund. Ich dachte das hätte ich hier schon ausreichend klar gemacht (97° bei nur 50 MHz Übertaktung in einem perfekt belüfteten Gehäuse...).

Das sagt eigendlich alles.....

JaniC
2007-11-01, 14:54:40
Na dann ist doch gut, entweder ist die Panikmache Quatsch, oder es gibt schön unterm Weihnachtsbaum ne 8800 GT mit 3 SpaWa für 200€ inkl. :D

Gast
2007-11-01, 14:57:01
V.a. wäre es mal interessant zu wissen ob die Leutz auch den Lüfter hochgedreht haben. OC mit default-Drehzahl ist bei der GT eben sehr, sehr ungesund. Ich dachte das hätte ich hier schon ausreichend klar gemacht (97° bei nur 50 MHz Übertaktung in einem perfekt belüfteten Gehäuse...).
Glaube ned, dass die Chips durch zu hohe Temps kaputtgegangen sind. Da sind eher Bauteile des PCB in ewigen Jagdgründe marschiert und selbst da glaube ich auch nicht, dass eine hohe Temp daran Schuld war sondern, dass sie durch overclocking außerhalb ihrer Spezifikationen gelaufen sind. Beim Overcklocking benötigt der Chip und Speicher mehr Leistung, die die Wandler z.B. bereit stellen müssen. Da ist wohl auf Messers Schneide kalkuliert worden. Selbst, wenn die gekühlt sind, müssen die höheren Ströme dort durchlaufen.
Verstehe auch ned, dass nV die Karten dann für Overclocking technisch irgendwie sperrt. Jetzt habens den RMA Salat. Falls ich eine GT besitzen würde, würde ich die default laufen lassen, wie vom Hersteller vorgesehen. Heutzutage gibt es bei Hardware, wenn sie günstig sein soll, kaum noch Sicherheitsreserven.

Gast
2007-11-01, 15:11:08
ich hab meine bestellung auch storniert. Bei dem Preis kann man wohl bitte EXCELLENTE Verarbeitung mit den edelsten Bauelementen erwarten. Da darf an NICHTS gespart werden.

Hoffentlich kommen da ZÜGIG neue karten nach!

Bei dem Preis kann man das eben nicht erwarten.

K4mPFwUr$t
2007-11-01, 15:16:48
Bei dem Preis kann man das eben nicht erwarten.
man sollte schon erwarten können das die graka ordentlich läuft.

V.a. wäre es mal interessant zu wissen ob die Leutz auch den Lüfter hochgedreht haben. OC mit default-Drehzahl ist bei der GT eben sehr, sehr ungesund. Ich dachte das hätte ich hier schon ausreichend klar gemacht (97° bei nur 50 MHz Übertaktung in einem perfekt belüfteten Gehäuse...).
wenn die graka eigentlich für 3 phasen gebaut wurde, aber im endeffekt nur aus kosteneinsparungen 2 phasen verwendet werden ist auch die chance gegeben das es zu problemen kommt. wenn man es dann noch mit dem OC übertreibt steigt die chance über einen ausfall sehr sehr an. aber nur auf das OC und die temp würde ich es nicht nur schieben.

4711
2007-11-01, 15:22:27
schalten die Dinger nicht ab wenns zu heiß wird?

Gast
2007-11-01, 15:26:35
Die GPU taktet ab 100°C runter - da ist man mit einer @default schon jetzt ned weit entfernt, denk mal an den nächsten heissen Sommer...

Aber die SpaWas haben keine Temperaturüberwachung, wenn die zu heiss werden bruzzeln se einfach durch.

The_Invisible
2007-11-01, 15:26:43
Hehe... Scheint wirklich so zu laufen wie ich es vermutet hatte. Erst der grosse Hype aber langsam setzt Realität ein :D

ja genau, jeder übertaktet wie blöde weil ja jede gt minimum 700 core schafft und heult dann wie ein kleines kind rum wenn er auf einmal vor einem schwarzen bildschirm sitzt. DAS ist die realität.

mfg

Gast
2007-11-01, 15:29:27
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3916&Itemid=34

Gast
2007-11-01, 15:30:03
Aber die SpaWas haben keine Temperaturüberwachung, wenn die zu heiss werden bruzzeln se einfach durch.
Also wäre es theoretisch möglich einfach die Spawas besser zu kühlen und sich dann einer wunderbar rennenden GT zu erfreuen.

4711
2007-11-01, 15:30:48
warum nutzt ihr nicht den Riva>für zwei Einstellungen..zb. 2D .... 50% Lüfter und 3D... 80% Lüfter..oder haben die Karten einen Krawallmacher verbaut?

Gast
2007-11-01, 15:31:28
Nicht unbedingt. Neben der Temperatur gibt es auch einen maximalen Strom den die liefern können, wenn der deutlich zu hoch wird (übertakten...) dann hilft auch kühlen nicht oder nur bedingt.

Gast
2007-11-01, 15:33:36
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3916&Itemid=34
Gut.
Bei den 8800 hat doch Asus den ersten Schritt gemacht?

So wie es ausieht wird Gainward wohl das Palit Design nehmen und hübsch und sicher übertakten.
Für Billigkäufer wie mich gibt es dann eine billige Palit mit 3 Phasen und einem Default Spawakühler, der auch bei einem GPU-only Waküblock kühlt.
:)

Sahas
2007-11-01, 15:34:05
Da ist die Luft aber schon reichlich dünn für bissl Takten und warmen Sommer...
Die 8800GTs sind doch die optimalen Wintergrakas, da brauchste in deinem Zimmer auch nicht mehr zu heizen, das macht alles die Graka für dich. Im Sommer verscherbelst sie dann und holst halt wieder n neues Modell.

Hat denn hier niemand die Zotac Amp? Ich will wissen, wie hoch da die Temperaturen unter Last sind und wie sie sich bei Crysis schlägt.

Gast
2007-11-01, 15:38:12
Die 8800GTs sind doch die optimalen Wintergrakas, da brauchste in deinem Zimmer auch nicht mehr zu heizen, das macht alles die Graka für dich. Im Sommer verscherbelst sie dann und holst halt wieder n neues Modell.

1. Quatsch, wenn dann sind HD2900XT oder 8800Ultra besser für den Winter.
2. Im Sommer verscherbeln? - So wie es aussieht ist die Karte dann schon im Himmel + dank 1/2 Jahr Garantie stehst du nur noch mit der Gewährleistung und Beweislast da. :(


Nicht unbedingt. Neben der Temperatur gibt es auch einen maximalen Strom den die liefern können, wenn der deutlich zu hoch wird (übertakten...) dann hilft auch kühlen nicht oder nur bedingt.
Schade, dann heißt es auf ordentliche Karten warten.

Gast
2007-11-01, 15:39:51
Dauert ja ned mehr lange :)

Sterem
2007-11-01, 15:39:57
1. Quatsch, wenn dann sind HD2900XT oder 8800Ultra besser für den Winter.
2. Im Sommer verscherbeln? - So wie es aussieht ist die Karte dann schon im Himmel + dank 1/2 Jahr Garantie stehst du nur noch mit der Gewährleistung und Beweislast da. :(



Schade, dann heißt es auf ordentliche Karten warten.

Keine Ahnung oder was?Eine X2900 XT wird unter last nicht heißer als 70 C.Die Ultra ist auch noch Kühler als eine 8800 GT.

Mitläufer spacken.

Gast
2007-11-01, 15:40:35
Also wäre es theoretisch möglich einfach die Spawas besser zu kühlen und sich dann einer wunderbar rennenden GT zu erfreuen.
Das geht nur begrenzt. Sonst könnte man auch unterdimensionierte Spawa nehmen und die nur ausreichend kühlen. Trotzdem würde die Lebenszeit sich verringern gegenüber ausreichend dimensionierten Spawas bzw. die Karte gar nicht erst laufen. Die Dinger vertragen je nach Typ auch durchaus Temperaturen um die 150 °C und selbst beim Überschreiten müssen die unbedingt nicht gleich kaputt gehen. Allerdings erfüllen sie bei Überschreiten der Höchsttemperaturen nicht mehr ihre volle Funktion und es würde zu Abstürzen der Graka führen.
Aber wie gesagt, ohne Overclocking ist man auf der sicheren Seite. Die Ings. haben das mit Sicherheit durchgerechnet, konnten wegem dem Kostendruck aber keine hohen Sicherheitsreserven gewähren. Wenn man die Karte jetzt außerhalb ihrer Specs. betreibt, dann kann halt im worst case die Rechnung nicht mehr aufgehen.

Gast
2007-11-01, 15:50:08
Keine Ahnung oder was?Eine X2900 XT wird unter last nicht heißer als 70 C.Die Ultra ist auch noch Kühler als eine 8800 GT.

Mitläufer spacken.Entscheidend ist nicht die Temperatur, sondern die abgegebene Wärme in Watt. Eine X2900XT gibt wesentlich mehr Wärme ab als eine 8800GT.

Gast
2007-11-01, 15:50:12
Jo, die Ings haben das durchgerechnet und 3 Phasen vorgesehen. Dann kamen die BWLer mit dem Rotstift und meinten 2 reichen auch, wird schon gutgehen.

seahawk
2007-11-01, 15:53:40
Schlechte Verarbeitung, unzureichende Kühlung, hmm Early-Adopters sind mal wieder von NV mächtig gearscht worden.

4711
2007-11-01, 16:01:00
oder 8800Ultra besser für den Winter.....soso...
2D - 47 Grad
3D - max!!!!!!!!!!!!!!!!!!!!! 58 Grad..... scheiß Heizung.

Gast
2007-11-01, 16:04:21
oder 8800Ultra besser für den Winter.....soso...
2D - 47 Grad
Noch so einer .....

Physik ist nicht deine Stärke?


170W der Ultra oder 200W der HD2900XT stehen 100W der GT gegenüber.
Wer heizt wohl mehr?

reunion
2007-11-01, 16:07:26
Unglaublich was hier für Genies herumlaufen. Die Temperatur des Cores sagt höchstens etwas über die Effizienz des Kühlers aus, aber sicher nicht über die abgegebenen Wärme. Einzig die Verlustleistung ist entscheidend.

dreas
2007-11-01, 16:09:29
Unglaublich was hier für Genies herumlaufen. Die Temperatur des Cores sagt höchstens etwas über die Effizienz des Kühlers aus, aber sicher nicht über die abgegebenen Wärme. Einzig die Verlustleistung ist entscheidend.

Dachte ich auch gerade!

Gast
2007-11-01, 16:11:37
Jo, die Ings haben das durchgerechnet und 3 Phasen vorgesehen. Dann kamen die BWLer mit dem Rotstift und meinten 2 reichen auch, wird schon gutgehen.
Wird sicher auch gut gehen, wenn man halt die Karte strikt nutzt wie vorgesehen. Das heißt TDP 110 Watt wie vorgesehen. Der Kühler ist nach den Grundlagen dimensioniert worden und die Bauteile des PCB anscheinend auch.

Gast
2007-11-01, 16:19:33
Bin mal gespannt wie das auf der Zotac Amp! aussieht...

3DoMan
2007-11-01, 16:43:41
Zur Wärmediskussion: Eine Glühlampe, bzw. der Glühfaden hat eine Temperatur von ca. 2500 Grad, trotzdem bin ich mir sicher, dass eine Zentralheizung mit 35 eingestellten Grad die Wohnung wesentlich schneller aufheizt, als eine einfache Glühbirne:wink: ergo, es kommt halt doch auf die Größe an:biggrin:

4711
2007-11-01, 18:20:45
Unglaublich was hier für Genies herumlaufen. Die Temperatur des Cores sagt höchstens etwas über die Effizienz des Kühlers aus, aber sicher nicht über die abgegebenen Wärme. Einzig die Verlustleistung ist entscheidend.


ach ja Ihr Genies...dann denkt mal nach....Einzig die Verlustleistung> abgegebenen Wärme.......ich lasse sie sich dann auf 100 Grad erwärmen..dann paßt es euch wieder in den Kram...manman..wirklich wahr...ein Genie jagt das andere.

LovesuckZ
2007-11-01, 18:34:33
Der Kühler der 8800GTX wird im IDLE schon heiß. Unter Last ist er genauso wenig anfassbar wie der der 8800GT. Wenn man sich die Verhältnisse anseht, ist die 8800GTX wesentlich mehr eine Heizung als die 8800GT.

Megamember
2007-11-01, 18:40:31
ach ja Ihr Genies...dann denkt mal nach....Einzig die Verlustleistung> abgegebenen Wärme.......ich lasse sie sich dann auf 100 Grad erwärmen..dann paßt es euch wieder in den Kram...manman..wirklich wahr...ein Genie jagt das andere.

Was willst du jetzt damit sagen? Ich versteh kein Wort.

4711
2007-11-01, 18:51:03
das macht nix...

4711
2007-11-01, 18:52:32
Der Kühler der 8800GTX wird im IDLE schon heiß. Unter Last ist er genauso wenig anfassbar wie der der 8800GT. Wenn man sich die Verhältnisse anseht, ist die 8800GTX wesentlich mehr eine Heizung als die 8800GT.
wo anfassen? Auf der Karte oder das schwarze Gehäuse...ist sogar bei meiner Ultra "kalt" ihr sollt kühlen nicht nur darüber reden :tongue:

Rebell
2007-11-01, 19:08:41
bin ich froh noch keine 8800gt bestellt zu haben. Das mit dem billig-PCB ist heftig. Klar rauchen nicht alle ab und wenn dann gibts Garantie/RMA, aber der Austausch kann sich auch wochenlang hinziehen und darauf hätte ich zur Zeit keinen Bock.

Mal sehen was ich nun mache, ab nächster Woche muss meine 7900gt auf Reisen und ich müsste mit einer Rage3d II auskommen, wofür es unter XP nicht mal Treiber gibt xD.

Gast
2007-11-01, 19:10:20
wo anfassen? Auf der Karte oder das schwarze Gehäuse...ist sogar bei meiner Ultra "kalt" ihr sollt kühlen nicht nur darüber reden :tongue:
Hatte eine GTS und jetzt eine GTX. Bei beiden wurde der gesamte Kühler schön warm, auch bei offenem Gehäuse. Die GTS hat übrigens genau den selben Kühlkörper wie die GTX, also das Ding mit den Kühllamellen unter der Abdeckung und der Lüfter ist auch der selbe. Darum ist die GTX bei mir etwas wärmer und der Lüfter dreht schneller auf als bei der GTS. Nach Webrecherche ist der eigentlich Ultra-Kühler genau wie bei der GTS und GTX. Lüfter scheint auch derselbe zu sein, evtl. ist er stärker und dreht mit höherer Drehzahl - kann ich nicht beurteilen aus Ermangelung entsprechender Karte. Aber nach logischem Schlussfolgern müsste der Kühler genauso warm, wenn nicht sogar wärmer wie bei der GTX sein. 170 Watt sind kein Pappenstiel.

4711
2007-11-01, 19:13:15
ich bin nicht so mimosenhaft veranlagt..im idel laüft die Karte mit 69% Lüfter beim Gamen mit 85%>zusätzlich bläst bei mir,bei diesen Karten ein 120er Lüfter von vorne nach hinten über die Karte...="KALT" :smile:

Megamember
2007-11-01, 19:13:21
Liegt bei der Ultra seitlich kein Metall mehr frei? Bei mir konnte ich mir da schon im Idle fast ne Brandblase holen. Unter Last ist der Lüfter auf 100% gesprungen und hat die Karte mit Mühe und Not auf 94/95 gehalten, ergo runter mit dem Schrott.

dropback
2007-11-01, 19:14:51
Ich störe euch ja nur ungern, aber was wollt ihr hier dauernd mit den Lüftern der GTS/GTX oder Ultra?
Hier gehts um die GT:wink:

4711
2007-11-01, 19:15:34
dann würd ich mir mal solangsam Gedanken machen über deine Kühlung..und trotzdem OCest du deine Hardware so..........nach dieser Aussage müßte die Karte dann 200 Grad warm werden bei dir.........

4711
2007-11-01, 19:16:33
Ich störe euch ja nur ungern, aber was wollt ihr hier dauernd mit den Lüftern der GTS/GTX oder Ultra?
Hier gehts um die GT:wink:
genau ich bin raus wir befinden eh schon im Märchenbereich..Metall ...verbrennen.....:rolleyes:

Megamember
2007-11-01, 19:17:59
dann würd ich mir mal solangsam Gedanken machen über deine Kühlung..und trotzdem OCest du deine Hardware so..........nach dieser Aussage müßte die Karte dann 200 Grad warm werden bei dir.........

Warum schrieb ich wohl runter mit dem Schrott, hmm? Guck mal in eine SIG.

4711
2007-11-01, 19:21:08
die Lüfter der ganzen G80 Serie sind spitzenmäsig,die versagen nur wenns in dem Gehäuse eh schon kocht.
Und nun ist gut hier gehts um die GT.

Gast
2007-11-01, 19:29:24
Genau.

Ich hab eine Frage. Ich habe hier eine GTX liegen und 2 GT.

Was soll ich nun behalten? Wegen Board würde es keine Probs. geben. Ist ein Asus P5N32-E SLI.

Sven77
2007-11-01, 19:32:01
gib mir die 2 GTs und behalt die GTX... was sind das fuer dumme fragen??

Gast
2007-11-01, 19:34:03
gib mir die 2 GTs und behalt die GTX... was sind das fuer dumme fragen??

Eine ganz normale Frage eben. Was lohnt sich mehr. Das ist alles. Mehr nicht.
Brauchst nicht gleich pampig werden.

The_Invisible
2007-11-01, 19:35:59
Liegt bei der Ultra seitlich kein Metall mehr frei? Bei mir konnte ich mir da schon im Idle fast ne Brandblase holen. Unter Last ist der Lüfter auf 100% gesprungen und hat die Karte mit Mühe und Not auf 94/95 gehalten, ergo runter mit dem Schrott.

ich habe meine auf 80% mit 648/1782/1100 und komme nicht über 85°C. musste meine kühlung aber auch ein bisschen "umdesignen", sei jedem mit g80 angeraten :D

mfg

Gast
2007-11-01, 19:45:45
So, meine Gainward 8800GT ist heute gekommen. DHL sind doch die schnellsten :D. Nachdem öffnen des braunen Umkartons war ich doch positiv überascht da das Bundle das Spiel Tomb Raider Anniversary enthält. Ich hatte ja nur mit einer Treiber-CD gerechnet. Tomb Raider ist mir allemal lieber wie CoH, welches bei der Asuskarte beiliegt.

So, hier mal ein Foto vom Lieferumfang:

http://img529.imageshack.us/img529/1711/ausstattungvp6.jpg

Die Karte:

http://img505.imageshack.us/img505/1104/originalkartekc2.jpg

Nachdem auspacken habe ich die Karte dann gleich mal zum Funktionstest eingebaut und mit Everest Temperaturen von über 60°C im Idle und ca. 91°C beim Spielen von Call of Duty 2 gehabt. Das war mir eindeutig zu hoch und so wurde nicht lange gefackelt und der Zalman VF900 von meiner ausgebauten 7900GT 512Mb runtergeschraubt und auf der 8800GT verbaut. Den Lüfter habe ich direkt an der Graka angeschlossen:

http://img529.imageshack.us/img529/4440/modkartevr4.jpg

Danach schnell den Rivatuner installiert und folgende Temps bei geschlossenem Gehäuse gehabt:

In Windows Idle:

http://img152.imageshack.us/img152/2084/idletempow6.jpg

Unter Last beim Call of Duty 2 spielen:

http://img152.imageshack.us/img152/5825/loadtempqv3.jpg

Nun noch schnell den Takt angehoben, da hier schon einige auf 700Mhz getaktet hatten, habe ich als Coretakt gleich 700Mhz eingestellt, den Speicher aber mit 920 Mhz ziemlich moderat übertaktet. Danach folgende Temps unter Rivatuner gesehen:

Im Windows Idle:

http://img231.imageshack.us/img231/3622/idletempoccu2.jpg

Unter Last beim Call of Duty 2 spielen:

http://img138.imageshack.us/img138/67/loadtempocbb6.jpg

Somit sollte klar sein das der Originalkühler wirklich nichts Optimales darstellt und schleunigst durch einen Zalman VF900 oder evtl. sogar diesen Kühler (http://geizhals.at/deutschland/a263517.html) ersetzt werden sollte.

In diesem Sinne noch viel Spaß mit Euren Karten, ich bin restlos begeistert nach 1 1/2 Jahren 7900GT nun endlich eine Topkarte für 260€ incl. NN Versand erstanden zu haben.

Keine Angst, daß die Spannungswandler nicht mitgekühlt werden ? Schließlich kühlt der orig. Lüfter diese auch...

Megamember
2007-11-01, 19:52:40
Lol, auf meiner GTX sind 4 von den grossen viereckigen Spannungswandlern drauf, auf der GT nur einer. Da hat Nvidia wohl kräftig den Rotstift geschwungen:D.

4711
2007-11-01, 20:02:55
Genau.

Ich hab eine Frage. Ich habe hier eine GTX liegen und 2 GT.

Was soll ich nun behalten? Wegen Board würde es keine Probs. geben. Ist ein Asus P5N32-E SLI.


ganz ehrlich..verkauf die zwei GTs und freu dich mit der GTX bis der Nachfolger kommt.

Gast
2007-11-01, 20:07:55
So so, haben wir also einen Ingenieur von Nvidia befragt, oder woher wisst ihr hier alle, daß für die 8800GT 3 Phasen vorgesehen sein sollen? Wenn man sich das Platinenlayout einmal anschaut, dann fehlt auf der anderen Seite auch ein Speicherchip, es könnte also auch sein, das auf derselben Platine die GTS kommt und diese mit 3 Phasen vorgesehen ist. Im übrigen habe ich ja jetzt die Spawa hier offen, da ich den VF900 drauf habe. Da ich keine Temperaturmeßstation habe, habe ich mal den Finger draufgehalten. Im Idle warm aber ich kann den Finger drauflassen, schätze mal 40°C, also wirklich keine Hitze. Nach 4 Stunden CoD Uo zocken mit 16AA/16AF konnte ich immerhin noch 10 Sekunden den Finger drauflassen, bevor es unangenehm wurde, also wärmer als der Core werden die Dinger nicht.

Ich schätze hier eher die Coretemp mit dem schlechten Orignialkühler sowie übermässiges Übertakten haben den Chip gekillt. Vor einigen Jahren habe ich für einen Arbeitskollegen mal einen PC zusammengestellt, damals mit einer Gainward 6800GT. Der Kühler war auch sowas von schlecht, Coretemp unter Last auch immer gegen 90°. Seine GT ist nach 2 Wochen über den Jordan gegangen, meine mit dem Silencer dürfte heute noch leben, ging nach über 1 Jahr funktionstüchtig bei Ebay weg.

Ach ja, auf meinem Mainboard sind auch noch Stellen aufgedruckt, an denen Bauteile fehlen, muß ich mir jetzt Sorgen machen?

Gast
2007-11-01, 20:15:40
ganz ehrlich..verkauf die zwei GTs und freu dich mit der GTX bis der Nachfolger kommt.

Warum soll ich sie verkaufen? Sind die nicht besser als eine GTX?

Gast
2007-11-01, 20:28:13
Hat hier zufällig jemand eine Geforce 8800GT in einem Asus P5W DH deluxe? Das soll ja angeblich, wie bei angeblich allen i975x-Boards, nicht gehen!

K4mPFwUr$t
2007-11-01, 20:41:33
@4711
troll wo anders. keiner hatte vor deine ach so heilige 8800ultra zu beleidigen, sie sogar als heizung abzustempeln :rolleyes:

es kommt nunmal auf die verlustleistung an. und nicht die core temp der GPU.

zumal deine meinung jetzt seine zwei GTs wieder zu verticken und sich dann eine GTX zu holen, ziemlich gut zeigen das du gegenüber anderer meinung und gegenüber deiner 88U ziemlich ignorant bist.

@gast
auch wenn sie zu erst den GPU gekillt haben bei den defekt, halte ich 2 phasen für sollch ein kaliber für zu kleinbrüstig. die x1950pro hat sogar 3 phasen.

Gast
2007-11-01, 20:49:17
Ich schätze hier eher die Coretemp mit dem schlechten Orignialkühler sowie übermässiges Übertakten haben den Chip gekillt.
Und ich wette, dass die Chips alle intakt sind. Die sind so das robusteste auf der Karte. Es sei denn, man beschädigt den Die mechanisch oder gibt zu viel Spannung. Und selbst dann ist oft ein schleichender Prozess und kein Totalausfall von heute auf morgen.

Und ich wette, dass die Chips alle intakt sind. Die sind so das Robusteste auf der Karte. Es sei denn, man beschädigt den Die mechanisch oder gibt zu viel Spannung. Und selbst dann ist das oft ein schleichender Prozess und kein Totalausfall von heute auf morgen.
Da die Chips nicht kaputt sind, werden die Reparaturkosten der Karten kleiner als die eigentlichen Versandkosten sein.

Gast
2007-11-01, 21:05:28
Warum soll ich sie verkaufen? Sind die nicht besser als eine GTX?
Wieso fragst du dann überhaupt?

Gast
2007-11-01, 21:06:55
Naja ich möchte mich ja nur erkundigen und bei euch Rat holen was ihr besser fändet.

Sahas
2007-11-01, 21:11:26
@4711

@gast
auch wenn sie zu erst den GPU gekillt haben bei den defekt, halte ich 2 phasen für sollch ein kaliber für zu kleinbrüstig. die x1950pro hat sogar 3 phasen.
Ich kann mir schwer vorstellen, daß das den Technikern untergegangen wäre.

Vermutlich ist dieses Phasen"gebrabbel" auch irgendwo an den Haaren herbeigezogen und so wieder einmal etwas überflüssig aufgebauscht worden.

So etwas ist nicht ein Punkt, der bei der Entwicklung mal kurz übersehen wird, und Kosteneinsparungen in Höhe von 1eur/Phase riskiert man da sicher auch nicht, wenn man im Gegenzug Massendefekte in Kauf nehmen muß.

Gast
2007-11-01, 21:18:28
Ich würde die GT's erstmal zurückgeben. Vielleicht ist was dran, das sie übermässig sterben, vielleicht auch nicht. Jetzt ist es echt noch zu früh, dazu was zu sagen. Deine GTX wird wohl in der Zeit an Wert verlieren, allerdings werden die GT's auch noch billiger werden. Andererseits, wenn du kein Problem damit hast, das sie evtl. abrauchen, dann verscheuere deine GTX so schnell, wie es geht. Ich werde auf jedenfall noch ein paar Wochen warten, bis ich eine GT kaufe (Abgesehen davon, das sie im Moment kaum zu bekommen ist ;) )

K4mPFwUr$t
2007-11-01, 21:19:43
@Sahas
das hat man auch bei der 66GT und der 7900er gedacht, als nachgebessert wurde gab es dann keine probleme mehr. aber die x1950pro ist ein ziemlich gutes beispiel das überall gespart wird bzw. die entwickler auch bereit sind eine gewisse rate von defekten einzugehen.

aber wenn es nicht so wäre, wieso hat dann palit vor eine eigenentwicklung vom PCB layout 3 phasen zu schenken. und wenn man den gerüchten glauben darf (+pics) galaxy sogar mit 4 phasen! würden hier zwei locker reichen, warum machen die beiden dann sowas?

LovesuckZ
2007-11-01, 21:21:22
Um sich von der Konkurenz abzusetzen. Palit hat schon ein veränderters 7900gt Layout entworfen.

Gast
2007-11-01, 21:24:25
Dann würde es auch reichen, einen anderen Lüfter zu nehmen.

AnarchX
2007-11-01, 21:37:40
Um sich von der Konkurenz abzusetzen. Palit hat schon ein veränderters 7900gt Layout entworfen.
Die Frage ist aber, warum gerade Palit, die sonst ja eher ihre Karten so günstig wie möglich zu gestalten versuchen, gerade 3 Phasen verbaut. ;)

Sahas
2007-11-01, 22:00:52
Die Frage ist aber, warum gerade Palit, die sonst ja eher ihre Karten so günstig wie möglich zu gestalten versuchen, gerade 3 Phasen verbaut. ;)
Man kann natürlich auch fragen, warum das Nvidia-Referenzmodell nur 2 Phasen verbaut hat und außer Palit niemand ein Phasenproblem zu erkennen scheint.

svenska
2007-11-01, 22:13:24
Ich habe den 169.02 WHQL RC im Einsatz... und das Teilchen läuft prächtig.
Einzig die WiC-Demo will nicht mehr, mit der (gepatchten) WiC-Retail soll aber alles OK sein.

Na dann mal viel Spaß mit dem neuen Kärtchen...
...wir hoffen auf Deinen Bericht!
:up:

Razor


Danke Razor. Die Karte is sehr geil! Mittlerweile hat sich die Treiberfrage auch erledigt, da der final 169.02 raus ist. :-)

svenska
2007-11-01, 22:22:13
Hab' glatt vergessen, darauf zu reagieren... sorry.

Bei mir sind lediglich folgende Plugins aktiv:
- NVThermalDiode.dll
- VidMem.dll

'Messen' lasse ich folgendes:
(in exakt dieser Reihenfolge)
- ROP domain
- memory clock
- core temp
- local vid mem
- non-local vid mem
- ambient temp

Wie Du siehst, der letzte Punkt in der Liste der möglichen Monitor-Punkte!
Keine Ahnung, warum das nicht bei Dir auftauchen mag...

P.S.: nach ein wenig Rumgespiele mit der Monitor-Optik, war die ambient temp auch bei mir plötzlich weg... keine Ahnung warum, kam auch nicht wieder. RT komplett deinstalliert (Verzeichnis geleert) und wieder installiert... diesmal war die ambient temp sogar per Default 'an'... hmmm.

Razor

Ach ja...
(und ich hab' das Delta gerade von 0/200 auf 20/80 umgestellt ;-)

Diesen Mist hab ich auch gerade. Einmal neuinstall bitte! *grmpf*

Gast
2007-11-01, 22:26:07
Hat hier zufällig jemand eine Geforce 8800GT in einem Asus P5W DH deluxe? Das soll ja angeblich, wie bei angeblich allen i975x-Boards, nicht gehen!


Wo hast du das her?

K4mPFwUr$t
2007-11-01, 22:31:13
Hat hier zufällig jemand eine Geforce 8800GT in einem Asus P5W DH deluxe? Das soll ja angeblich, wie bei angeblich allen i975x-Boards, nicht gehen!

wenn das stimmt, könnte ich auf meinem abit aw9d-max keine 8800GT betreiben. aber das die karte generell ihren dienst mit dem i975X chipset verweigern würde könnte ich mir nicht vorstellen.
es wird wohl ledeglich ein BIOS update von nöten sein, bei den boards wo es zu problemen kommt.

Razor
2007-11-01, 22:53:59
Nein, die Load-Temps sind die, die der Rivatuner nach dem Beenden von CoD2 ausgegeben hat. Schaut man auf die Verläufe, sind Temperaturen von etwas über 60 Grad Celsius zu vermuten.
Was aber immer noch sehr gut wäre... sieht sogar eher nach 65° aus... die Auflösung des RT-Monis ist doch recht dürftig eingestellt.

Meine Güte, fängt das jetzt hier auch schon an...
Jo... das ist auch das, was mir so durch den Kopf gegangen ist.
Immer diese Panikmache...

Auch bei den 7900GT sind nicht mehr 'gestorben', als bei anderen Modell-Reihern auch. Es sind halt nur MASSENHAFT davon verkauft worden... das gibt per se absolut (!) gesehen viele defekte Karten, die Ausfallquote bleibt trotzdem in der Norm.

@svenska

Mehr, mehr, mehr!!!!1111einseins
:up:

@all

Hier geht es um...
"User-Erfahrungen"

...also haltet bitte diesen Spannungs-Wandler-Unfug hier raus!

Auch zu hohe Core-Temps sind hier nur dann interessant, wenn es einem User hier zu warm im Gehäuse wird, also bitte!

Und schon gar nicht geht es hier um GTX'en, Ultras oder sonst welche Karten, denn es geht hier um die GT...
...und User, die sich eine GT zugelegt haben und aus eigener Erfahrung über einen Vergleich berichten können.

Danke!

Über weitere User-Erfahrungen (aus diesem Forum, nicht aus anderen) würde ich mich - sicher auch viele andere - sehr freuen.

Razor

5 Seiten Müll, toll...

svenska
2007-11-01, 23:05:41
@razor

Also den RivaTuner habe ich doch nicht wieder hinbekommen. Das scheint irgendwie buggy zu sein.


@thread

Ich hab jetzt mal bissel die temp beobachtet wärend ich die Crysis demo gezockt habe. Mit der Stanard-Lüfterumdrehungszahl gehts recht schnell an und über 80 Grad.
Jetzt hab ich auf 44 % hochgesetzt, was schon etwas mehr Lärmpotenzial bedeutet, mir allerding 10 Grad weniger gibt, ergo 70 Grad volllast/50 Idle.

Ich denke, das ist in Ordnung. Ich hätte aber auch nichts gegen einen massiveren Cu Kühler gehabt. Dieser Singleslot Kühler mag zwar sehr nett sein und gibt einen den Zugang zum anderen Slot, jedoch lässt es mich irgendwie
nicht in Ruhe, dass es nicht optmal war.

Höhere Temps zugunsten des Kühlerdesigns? Hmm, Spekulation...... :-)

LovesuckZ
2007-11-01, 23:07:01
Es geht hier nur um Kosten. Dieser Kühler ist wesentlich billiger als die Zwei-Slot-Monster der 8800 Karten.

Gast
2007-11-01, 23:17:23
...also haltet bitte diesen Spannungs-Wandler-Unfug hier raus!


Das ist auch eine WICHTIGE Erfahrung und trägt zur Kaufentscheidung bei.
Wenn einem User hier etwas auffällt, dann ist das wichtig.

shane~
2007-11-01, 23:23:18
So habe nun auch ein wenig mit meiner Leadtek WinFast PX8800GT-512M (http://www.leadtek.com/de/3d_graphic/overview.asp?lineid=1&pronameid=383) gespielt :biggrin: also ich muss sagen, die Karte ist für das Geld echt der Hammer!

Aber erst mal ein paar Impressionen:

http://img2.imagebanana.com/img/aqlbid46/thumb/DSCN5091.JPG (http://img2.imagebanana.com/view/aqlbid46/DSCN5091.JPG) http://img2.imagebanana.com/img/c7yod6s/thumb/DSCN5114.JPG (http://img2.imagebanana.com/view/c7yod6s/DSCN5114.JPG) http://img2.imagebanana.com/img/2rm50yo/thumb/DSCN5119.JPG (http://img2.imagebanana.com/view/2rm50yo/DSCN5119.JPG)

http://img2.imagebanana.com/img/r4e0z9qw/thumb/DSCN5127.JPG (http://img2.imagebanana.com/view/r4e0z9qw/DSCN5127.JPG) http://img2.imagebanana.com/img/8ke2mnr4/thumb/DSCN5131.JPG (http://img2.imagebanana.com/view/8ke2mnr4/DSCN5131.JPG) http://img2.imagebanana.com/img/k2554hk/thumb/DSCN5135.JPG (http://img2.imagebanana.com/view/k2554hk/DSCN5135.JPG)

Vergleich zu meiner alten 7950GT:

System:
Athlon64 X2 4400+ [2x2800 Mhz]
Asus A8N32-Sli Deluxe nForce4
2GB PC4000 OCZ Platinum EL [3-3-2-7 1T]
Windows XP SP2 32bit

Leadtek WinFast PX7950 GT TDH 512MB (600/620/800)
Leadtek WinFast PX8800GT-512M (600/1500/900)

Treiber:
ForceWare 169.04 Beta WinXP 32Bit
HQ, bei AA: TransparentAA = Multisampling, Gamma-Korrektur = ein



Benchmark 7950GT 8800GT

3DMark 03 - Score Punkte Punkte Differenz
1024x768 standard 21838 33485 53,33%
1024x768 4xAA 16xAF AP 12811 18642 45,52%

3DMark 05 - Score Punkte Punkte Differenz
1024x768 standard 10630 15757 48,23%
1024x768 4xAA 16xAF AP 8277 13394 61,82%

3DMark 05 - Pixelshader Test FPS FPS Differenz
1024x768 standard 381,10 669,00 75,54%
1024x768 4xAA 16xAF AP 223,20 465,30 108,47%

3DMark 06 - Score Punkte Punkte Differenz
1280x1024 standard 5836 10087 72,84%
1280x1024 1xAA 16xAF AP 4937 9532 93,07%

3DMark 06 - SM2.0 Score Punkte Punkte Differenz
1280x1024 standard 2359 4673 98,09%
1280x1024 1xAA 16xAF AP 1853 4409 137,94%

3DMark 06 - HDR/SM3.0 Score Punkte Punkte Differenz
1280x1024 standard 2377 4850 104,04%
1280x1024 1xAA 16xAF AP 2037 4404 116,20%

AquaMark 3 Punkte Punkte Differenz
1024x768 standard 110650 118900 7,46%
1280x1024 4xAA 16xAF AP 89500 97480 8,92%

Crysis SP Demo
Benchmark_GPU.bat (High) FPS FPS Differenz
1280x1024 standard 13,64 37,25 173,09%
1280x1024 1xAA 16xAF CP 11,79 32,11 172,35%

Half-Life² - VST FPS FPS Differenz
1280x1024 standard 209,64 219,32 4,62%
1280x1024 4xAA 16xAF AP 148,30 218,96 47,65%



Alles in allem ein guter Sprung nach vorne :smile:

3DMark06 Details



Grafikkarte 7950GT 8800GT
Width 1280 1280
Height 1024 1024
Anti-Aliasing None None
Anti-Aliasing Quality 0 0
Texture Filtering Optimal Optimal
Anisotropic Level 1 1

3DMark Score 5836 10087 73%
SM2.0 Score 2359 4673 98%
HDR/SM3.0 Score 2377 4850 104%
CPU Score 2161 2164 0%

GT1 - Return To Proxycon 19,031 FPS 38,514 FPS 102%
GT2 - Firefly Forest 20,281 FPS 39,367 FPS 94%
CPU1 - Red Valley 0,680 FPS 0,681 FPS 0%
CPU2 - Red Valley 1,098 FPS 1,100 FPS 0%
HDR1 - Canyon Flight 21,199 FPS 48,422 FPS 128%
HDR2 - Deep Freeze 26,341 FPS 48,569 FPS 84%
______________________________________________________________________

Grafikkarte 7950GT 8800GT
Width 1280 1280
Height 1024 1024
Anti-Aliasing None None
Anti-Aliasing Quality 0 0
Texture Filtering Anisotropic Anisotropic
Anisotropic Level 16 16

3DMark Score 4937 9532 93%
SM2.0 Score 1853 4409 138%
HDR/SM3.0 Score 2037 4404 116%
CPU Score 2163 2163 0%

GT1 - Return To Proxycon 16,313 FPS 37,980 FPS 133%
GT2 - Firefly Forest 14,577 FPS 35,498 FPS 144%
CPU1 - Red Valley 0,681 FPS 0,682 FPS 0%
CPU2 - Red Valley 1,100 FPS 1,097 FPS 0%
HDR1 - Canyon Flight 15,444 FPS 39,548 FPS 156%
HDR2 - Deep Freeze 25,290 FPS 48,529 FPS 92%



Crysis SP Demo Details



Benchmark_GPU.bat (High)

1280x1024 1xAA 1xAF
______________________
7950GT 8800GT
FPS
Average 13,64 37,25 173%
Min 4,79 17,86 273%
Max 17,46 45,12 158%


1280x1024 1xAA 16xAF
______________________
7950GT 8800GT
FPS
Average 11,79 32,11 172%
Min 4,92 16,99 245%
Max 14,97 40,94 173%


1280x1024 4xAA 16xAF
______________________
8800GT
FPS
Average 19,38
Min 12,17
Max 25,64



Lautstärke/ Temperaturen:

Fanspeed automatic = 29%
Idle: 54°C
Load: 83°C

Fanspeed fixed = 55%
Idle: 49°C
Load: 72°C

Übertaktet auf 680/1700/1000 bei 90% Lüfterdrehzahl (zur Sicherheit):
Load: 68°C

Wie man sieht, sind die Temperaturen doch gar nicht so hoch. Load - Werte wurden mit Crysis jeweils nach einem Durchlauf der Benchmark_GPU.bat mit dem Rivatuner (2.06 beta) aufgezeichnet. Lüfterdrehzahl wurde mit Expertool 5.6 einstellt, da sich das NVCP nach einem Neustart immer wieder zurückgesetzt hat.

Die Karte ist in meinem System (was ein gewisses 'Grundrauschen' von sich gibt) mit den Defaulteinstellungen absolut nicht zu hören. Nur wenn man den Rechner einschaltet, fönt die Karte - aber in etwa genauso laut wie die 7600GT (ebenfalls von Leadtek) - also für meine Begriffe ist das Ok. Auch mit fixierten 55% Drehzahl ist der Lüfter erträglich und reiht sich nahtlos in mein System ein.

Aber wie gesagt, das ist alles subjektiv, jeder hat da andere Präferenzen.

Overclocking:
(ebenfalls mit Expertool 5.6)



Crysis SP Demo - Benchmark_GPU.bat 1280x1024 1xAA 1xAF (High)

650/1500/900 680/1700/1000 Differenz
FPS
Average 37,25 39,97 7%
Min 17,86 19,31 8%
Max 45,12 50,95 13%



Höher wollte ich erstmal nicht gehen, die genannten Taktraten liefen jedoch ohne Probleme durch.


Also soweit bin ich zufrieden mit dem Kauf dieser Karte, hat Speed und noch genügend Leistungsreserven.

Lediglich einen Kritikpunkt habe ich - und hier weiß ich nicht, ob es an der Karte liegt oder am Monitor (BenQ FP91V):

http://img2.imagebanana.com/img/18ukchdd/thumb/DSCN5136.JPG (http://img2.imagebanana.com/view/18ukchdd/DSCN5136.JPG)

Dieser weiße Rand sieht einfach scheiße aus :(
Hat das noch jemand? Tritt nur beim Windows - Bootscreen auf.
#edit 1 (01.11.2007): unabhängig ob DVI oder VGA

#edit 2 (02.11.2007): Problem gelöst! (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5990726&postcount=289)

#edit 3 (07.11.2007): hier geht es weiter ... (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6007181&postcount=460)

#edit 4 (09.11.2007): noch mehr OC (700/1750/1000) ... (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6013186&postcount=588)


Gruß shane~

Razor
2007-11-01, 23:27:19
Also den RivaTuner habe ich doch nicht wieder hinbekommen. Das scheint irgendwie buggy zu sein.
Der RT 2.06 final funktioniert auch nicht... Test6 deinstalliert (besser is), den Final installiert, keine ambient. Final deinstalliert, Test6 wieder installiert, ambient sofort da (per default).

So habe ich es jetzt gelassen... Test6 bleibt erst einmal.

Wenn Du auch mal versuchen magst:
http://php.tech.sina.com.cn/download/d_load.php?d_id=3401&down_id=346814

Ich hab jetzt mal bissel die temp beobachtet wärend ich die Crysis demo gezockt habe. Mit der Stanard-Lüfterumdrehungszahl gehts recht schnell an und über 80 Grad.
Jetzt hab ich auf 44 % hochgesetzt, was schon etwas mehr Lärmpotenzial bedeutet, mir allerding 10 Grad weniger gibt, ergo 70 Grad volllast/50 Idle.

Ich denke, das ist in Ordnung. Ich hätte aber auch nichts gegen einen massiveren Cu Kühler gehabt. Dieser Singleslot Kühler mag zwar sehr nett sein und gibt einen den Zugang zum anderen Slot, jedoch lässt es mich irgendwie
nicht in Ruhe, dass es nicht optmal war.

Also bei 44% ist der Lüfter schon reichlich laut... selbst bei 40% geht es bei mir weit über die Grenze des Erträglichen.
(da kann man mal gut sehen, wie empfindlich ich bin ;-)

Mein Lüfter läuft auf 29% (default), ist damit flüsterleise und die Temp geht unter Crysis auf 90° core, bzw. 67° ambient... und letzteres ist, was zählt.

Razor

Gast
2007-11-01, 23:29:54
Lediglich einen Kritikpunkt habe ich - und hier weiß ich nicht, ob es an der Karte liegt oder am Monitor (BenQ FP91V):

http://img2.imagebanana.com/img/18ukchdd/thumb/DSCN5136.JPG (http://img2.imagebanana.com/view/18ukchdd/DSCN5136.JPG)

DVI?

Gast
2007-11-01, 23:34:01
leben hier alle 8800GT Karten noch ?

im Luxx sagen alle die fakeln alle ab wenn man OC tut, weil sie fehlende Spawas haben, kann das einer bestätigen ?

shane~
2007-11-01, 23:39:55
Lediglich einen Kritikpunkt habe ich - und hier weiß ich nicht, ob es an der Karte liegt oder am Monitor (BenQ FP91V)...


DVI?

Ja, wie vorher auch :|

Gruß shane~

Razor
2007-11-01, 23:41:02
Dieser weiße Rand sieht einfach scheiße aus :(
Hat das noch jemand? Tritt nur beim Windows - Bootscreen auf.
Habe ich weder mit dem CRT (versehentlich zuerst als Primär-Bildschirm genutzt ;-) und jetzt die ganze Zeit mit dem TFT nicht.

Ansonsten: sehr aufgeräumter und informativer Bericht.
Danke!

Razor

shane~
2007-11-01, 23:43:17
Habe ich weder mit dem CRT (versehentlich zuerst als Primär-Bildschirm genutzt ;-) und jetzt die ganze Zeit mit dem TFT nicht.


Hmm... :( wie gesagt, hatte ich ja vorher auch nicht und auch noch nie irgendwo SO gesehen.


Ansonsten: sehr aufgeräumter und informativer Bericht.
Danke!

Razor

Gerne!

Gruß shane~

Sven77
2007-11-02, 00:04:44
wenns nur beim bootscreen auftaucht.. who cares

Gast
2007-11-02, 00:16:41
leben hier alle 8800GT Karten noch ?

im Luxx sagen alle die fakeln alle ab wenn man OC tut, weil sie fehlende Spawas haben, kann das einer bestätigen ?

genau das würde mich auch interessieren. Hat hier vill. irgendjemand 2 8800GT´s?? also SLI

CiTay
2007-11-02, 01:20:32
Dieser weiße Rand sieht einfach scheiße aus :(
Hat das noch jemand? Tritt nur beim Windows - Bootscreen auf.
#edit: unabhängig ob DVI oder VGA

Hab ich in einem Review von gelesen, weiß aber nicht mehr welcher. Da war von einem 20-Pixel-Rand die Rede.

svenska
2007-11-02, 01:51:00
Der RT 2.06 final funktioniert auch nicht... Test6 deinstalliert (besser is), den Final installiert, keine ambient. Final deinstalliert, Test6 wieder installiert, ambient sofort da (per default).

So habe ich es jetzt gelassen... Test6 bleibt erst einmal.

Wenn Du auch mal versuchen magst:
http://php.tech.sina.com.cn/download/d_load.php?d_id=3401&down_id=346814



Also bei 44% ist der Lüfter schon reichlich laut... selbst bei 40% geht es bei mir weit über die Grenze des Erträglichen.
(da kann man mal gut sehen, wie empfindlich ich bin ;-)

Mein Lüfter läuft auf 29% (default), ist damit flüsterleise und die Temp geht unter Crysis auf 90° core, bzw. 67° ambient... und letzteres ist, was zählt.

Razor

vll. wurde das plugin für den ambient temp bei der final rausgenommen, nicht zuverlässig?

naja, ich hab eh kopfhörer auf, daher sind 44% noch annehmbar, zum oc'en wird bestrimmt nicht mehr so reichen. irgendwie hab ich auch schiss iMo. Ich warte erstma auf andere OC-Userberichte.

Remix2k
2007-11-02, 07:17:40
Hey,
Ich Habe da eine Frage:
Und zwar wie machen sich Denn So die Nebengeräusche so?
Ist ein Spannungswandler Zirpen bzw Fiepen Bekannt?
Danke und gruss :)