PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 9800GTX+ Eine Woche in Benutzung


Armaq
2008-08-16, 23:16:40
Ich vollzog einen Wechsel von einer 8800GTS 320 auf eben jene Sparkle 9800GTX+. Die Karte läuft mit den Standardtaktraten. Wer sich die Karte anschauen möchte - Link (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/7/#abschnitt_nvidia_geforce_9800_gtx)
Meine Karte entspricht dem Referenzdesign exakt.
Kostenpunkt - 150,49€ (mit 5€ K&M Gutschein)
Verarbeitung - äußerlicher Eindruck ist sehr hochwertig, da die Karte komplett vom Lüfterchassis bedeckt ist. (Länge 27cm!)
Der Grund für meine letztliche Kaufentscheidung war eigentlich die abartig hohe Temperatur die eine 4850 mit dem Standardkühler gen Ausgang bläst. Ein derart heißes Rückblech halte ich einfach für technikfeindlich.
Eingebaut belegt die Karte 27cm in der horizontalen Ebene, in vielen Tests ist von 28cm Länge die Rede. Die Anschlüsse und das Blech muss man allerdings abziehen. Bei mir passt die Karte gerade so in den PC (Chieftech 601).

Ich habe alle gängigen kostenfreien Benchmarks ausprobiert, möchte euch damit aber nicht behelligen, da mein x2@2500 Mhz doch deutlich limitiert (was in Spielen selten kritisch ist).
Selbst nach längeren Furmark-Orgien kommt die Temperatur selten über 65°C hinaus.
Die Karte bleibt für die gebotene Performance eiskalt. Wenn ich den Lüfter auf brutale 100% setze (GainwardExperttool), habe ich einen prima Föhn und eine Karte mit gerade noch 41°C Temperatur im Idle. Wasserkühlung braucht da kein Mensch. Ich habe auch noch keine Anwendung entdeckt, die der 9800GTX+ mehr abverlangt, ergo für höhere Temperaturen (Furmark) gesorgt hat.
Übertaktet habe ich die Karte nur kurzzeitig, bei ~860 Mhz Core-Takt war eh Ende. Daher habe ich auch keine weiteren Versuche unternommen irgendwelche Redkorde zu brechen. 20% Mehrperformance sind zwar nett, aber da meine CPU eh nicht genug Dampf hat kann ich einen Mehrwert auch nicht nutzen.

Kommen wir zum interessantesten Teil, wenn man den PC auch anderweitig nutzt. Ich selbst schreibe auch meine Hausarbeiten/Aufsätze für mein Studium, surfe gern und verschwende generell Zeit an dieser Kiste. Das geht aber nur, wenn mich die Lautstärke der Lüfter nicht stört. Im Idle-Modus ist die Karte, wie auch die 4850, über jeden Zweifel erhaben. Man hört nichts.
Die Lautstärke unter Last ist im Vergleich zu meiner 8800GTS320 etwas höher, aber es gibt auch noch keine Möglichkeit den Lüfter manuell zu regeln. Dazu muss ich sagen, dass die 8800GTS nahezu lautlos war (55% Lüftergeschw.) und ich den Lüfter abmontierte, um neue Wärmeleitpaste aufzutragen. Dies hatte einen ziemlichen Einfluss auf die benötigte Lüfterdrehzahl.

Außer der neuen Everest-Beta und GPU-Z habe ich kein Programm gefunden, das die Lüftergeschwindigkeit korrekt ausliest. Verstellen konnte ich gleich gar nichts. RivaTuner kennt die Karte zwar, aber die Einstellung des Lüfters ist nicht möglich.

Generell würde ich die Karte immer wieder kaufen. Das Preis/Leistungsverhältnis sowie die Temperatur und Lautstärke sind überragend. Im Vergleich zu meiner alten 8800GTS 320 war kein Euro verschwendet, auch wenn schon die neuesten GT200-Modelle verfügbar sind.

Spasstiger
2008-08-17, 01:10:17
Der Grund für meine letztliche Kaufentscheidung war eigentlich die abartig hohe Temperatur die eine 4850 mit dem Standardkühler gen Ausgang bläst. Ein derart heißes Rückblech halte ich einfach für technikfeindlich.
Das klingt ein bischen naiv. Zum einen bläst die 9800 GTX+ mehr Abwärme in die Umgebung als die HD4850, zum anderen entwickelt eine HD4850 an keiner Stelle Temperaturen, die irgendwelche Komponenten im PC beschädigen könnte. Ein Slotblech darf ruhig warm werden, es leitet die Wärme ja auch ab. Ein Fan von Single-Slot-Kühlung wäre ich aber natürlich auch nicht. Zum Glück gibts für ~150€ auch schon HD4850-Varianten mit Zweislot-Kühlern.

Ansonsten ist die Entscheidung für die 9800 GTX+ natürlich nix Verwerfliches. Ich würde mit einer GTX 260 für jetzt nur noch 199€ liebäugeln wegen CUDA und dem funktionierenden 2D-Stromsparmodus.

Armaq
2008-08-17, 12:07:05
Das klingt ein bischen naiv. Zum einen bläst die 9800 GTX+ mehr Abwärme in die Umgebung als die HD4850, zum anderen entwickelt eine HD4850 an keiner Stelle Temperaturen, die irgendwelche Komponenten im PC beschädigen könnte. Ein Slotblech darf ruhig warm werden, es leitet die Wärme ja auch ab. Ein Fan von Single-Slot-Kühlung wäre ich aber natürlich auch nicht. Zum Glück gibts für ~150€ auch schon HD4850-Varianten mit Zweislot-Kühlern.

Ansonsten ist die Entscheidung für die 9800 GTX+ natürlich nix Verwerfliches. Ich würde mit einer GTX 260 für jetzt nur noch 199€ liebäugeln wegen CUDA und dem funktionierenden 2D-Stromsparmodus.
Das ist auch leicht naiv, aber ich habe die Standard-4850 schon verbaut und die Lufttemperatur ist wirklich brutal heiß. Das sagte mir einfach nicht zu.

50€ für nur 10% Mehrperformance finde ich zuviel (CB-Test). Das ist ein Drittel des Preises. Daher kann ich auch nur jedem empfehlen sich jetzt eine neue Grafikkarte zu kaufen, da dass Angebot wirklich üppig ist und die Preise sehr kundenfreundlich.

Edit: Ich teste demnächst auch mal mit einem Strommessgerät, ob es einen echten Idle-Modus für die 9800GTX+ gibt. Die Temperatur ist nämlich kein Indikator, da die Karte halt kaum Hitze entwickelt.

dargo
2008-08-17, 12:56:38
50€ für nur 10% Mehrperformance finde ich zuviel (CB-Test). Das ist ein Drittel des Preises.
Du bekommst dafür aber auch einen 2D-Modus und fast doppelt soviel Vram. :)

AnarchX
2008-08-17, 13:55:54
Du bekommst dafür aber auch einen 2D-Modus und fast doppelt soviel Vram. :)
The 2D mode is a lie! (http://www.xbitlabs.com/articles/video/display/geforce-gtx200-theory_12.html#sect0)

Die 25W die NV verspricht sind es nicht wirklich geworden und soweit weg liegt die GTX+ dann auch nicht wieder.

RAM hingegen ist natürlich ein Argument.

Undertaker
2008-08-17, 14:13:20
CB hat da gänzlich andere Ergebnisse, auch wenn es eine Gesammtsystemmessung ist liegt die 9800GTX(+) doch deutlich über der GT200 Reihe...

dargo
2008-08-17, 14:14:12
The 2D mode is a lie! (http://www.xbitlabs.com/articles/video/display/geforce-gtx200-theory_12.html#sect0)

Die 25W die NV verspricht sind es nicht wirklich geworden und soweit weg liegt die GTX+ dann auch nicht wieder.

Ja, das ist bekannt. Ich wundere mich nur wie xbitlabs da auf ~45W kommt. Die Karte benötigt bei mir praktisch das selbe wie die alte G80GTS@200/200Mhz, also ~35W. Der 2D-Modus ist aber im Prinzip auch kein wirkliches Argument. Mit dem RT kann man ja den G92 leicht untertakten womit man ebenfalls in die 30-35W Region kommen müsste.

Spasstiger
2008-08-17, 15:47:34
50€ für nur 10% Mehrperformance finde ich zuviel (CB-Test). Das ist ein Drittel des Preises. Daher kann ich auch nur jedem empfehlen sich jetzt eine neue Grafikkarte zu kaufen, da dass Angebot wirklich üppig ist und die Preise sehr kundenfreundlich.
Wenn ich mir diverse Reviews anschaue, wäre die GTX 260 für mich rund 30% schneller (in 1920x1200 mit 4xAA). Außerdem ist der GT200 sehr stark mit SSAA bzw. Hybrid-AA, wie man an Benchmarks hier im Forum sieht, da kann schnell mal ein Faktor 2 gegenüber der 9800 GTX+ rausspringen.
Das OC-Potential scheint bei der GTX 260 auch etwas besser zu sein, die PCGH kommt auf rund 25% Übertaktung beim Chip und beim Speicher. Du erreichst mit der 9800 GTX+ ja was um die 16% beim Chip (was übrigens in der Praxis keine 20% Mehrleistung bringt, sondern vielleicht 10%).

Armaq
2008-08-17, 16:16:29
Also CB hatte doch keine echte 9800GTX+ sondern nur eine simulierte per Takt. Demnach kann der Verbrauch auch nicht stimmen. Sieht man in der Tabelle Verbrauch auch deutlich, da die GTX+ ein Watt (1) mehr als eine normale GTX braucht. Das deckt sich insoweit nicht mit dem extrem kühlen Chip, den ich hier vor mir habe. Übrigens sagt GPU-Z, dass meine Karte in 65nm gefertigt wurde, was den Angaben von Nvidia zuwiderläuft.

Ich habe bei den Leistungsdaten auch ausdrücklich auf meine CPU hingewiesen. Was in höheren Auflösungen (ab 1600) abgeht ist nochmal ein anderes Thema, ich bin auf 1440x900 fixiert. In höheren Auflösungen wird es eher Richtung 30% tendieren, das entspräche auch den Leistungsdaten.

Die Übertaktungsversuche meinerseits beschränkten sich auf Regler ziehen und Furmark anwerfen. Deshalb sollte das vll. nicht als representativ gelten. Ich brauche mehr GPU-Leistung nicht.

Das mehr an VRam lasse ich vollends gelten. Da ich mit Dargo und der 8800GTS 320 schon getestet habe, was passiert, wenn man zu wenig Bildspeicher hat.

Nichts desto trotz ist die 9800GTX+ für 150€ eine mehr als interessante Alternative zu den gern gekauften 4850 Editionen.

Edit: Wenn der Rivatuner eine Lüftersteuerung anbietet, die meine Karte auch wirklich annimmt, kann ich gerne mal einen Idle/Lastverbrauch bei Unter und übertaktung machen. Ich denke nämlich, dass die Karte wesentlich weniger Saft zieht. Allein aus der neueren Fertigung müsste einiges an Einsparung möglich sein.

Nightspider
2008-08-17, 16:30:31
Wie wie fühlt sich die 9800GTX+ im Gegensatz zur 8800gtx320 an?

Bricht denn die 9800GTX+ bei AA+höheren Auflösungen und bei manchen Spielen sogar ohne hohe Auflösungen nicht auch schon rel schnell ein, so das der Vorteil zB. gegenüber einer 8800gt für nur 90 Euro schonwieder verschwindend gering wird?

Armaq
2008-08-17, 16:42:04
9800GTX+ zur übertakteten 8800GTS 320 (621/900) Auflösung war immer 1440x900

Generell habe ich es überhaupt nicht bereut, da die neue Karte ein deutliches Plus bringt. Mir fällt kein aktueller Titel ein, der nicht vernünftig liefe und sich in meinem Besitz befindet.

Assassin's Creed

mit allem auf Anschlag, auch ingame AA, was auch tadellos funktioniert. 9800GTX+
mittlere Texturen und kein AA, sonst alles max. 8800GTS 320

Es gibt sehr selten Slowdowns, die aber wohl eher der CPU zuzuschreiben sind. Ansonsten läuft es flüssig.

Gears of War
Mit der 8800GTS regelmäßig Nachladeruckler trotz mittleren Texturen. Bei der 9800 selbst mit AA und Text. max immer konstant flüssig. Beides auf DX10.

TeamFortress 2
Die 8800 hat es nicht geschafft das Spiel mit 8xCSAA immer flüssig zu halten, Texturen auf hoch. Die 9800 hat immer flüssige FPS bei 16xCSAA und sehr hohen Texturen.

Gothic 3
8800 GTS - regelm. Nachladeruckler durch VRAM-Swap
9800 - immernoch Ruckler, aber viel seltener, wesentlich bessere Performance im persl. Gesamteindruck.

Frontlines - Fuel of War
9800 immer flüssig bei max Details, ausser Laub (verursacht irgendwie abartigen CPU-Load)
8800 bei mittleren Texturen sonst max. nicht immer flüssig.
Bei 64 Spieler-Karten gibt es durch die CPU Slowdowns.

Warcraft 3 + AddOn

16xQCSAA alles max, natürlich keine Probleme (immer 60 fps). Interessant ist nur, dass die 9800GTX+ den Idle-Modus nichtmal mehr verlässt und nicht über 55°C kommt.

Sonst noch fragen zu aktuellen Titeln?

Edit: Größtes Aha-Erlebnis war neben GoW auch noch Stalker, das ebenfalls superb performt. Schau dir bitte noch den Test auf CB an, den ich verlinkt habe. Dort kann deinen Fragen bzgl. der hohen Auflösung abgeholfen werden.

dargo
2008-08-17, 17:21:16
Edit: Wenn der Rivatuner eine Lüftersteuerung anbietet, die meine Karte auch wirklich annimmt...
Das müsste doch längst funktionieren. :confused:

Armaq
2008-08-17, 17:33:32
Das müsste doch längst funktionieren. :confused:
Tut er aber nicht. Ich kann da nichts einstellen, die Felder sind ausgegraut. Wenn ich auf Static schalte (Dynamic ist Standard), dann dreht sie auf dezente 100%.

dargo
2008-08-17, 17:48:36
Tut er aber nicht. Ich kann da nichts einstellen, die Felder sind ausgegraut. Wenn ich auf Static schalte (Dynamic ist Standard), dann dreht sie auf dezente 100%.
Schau dir mal die G80-Anleitung für den RT an. Das müsste genauso beim G92 funzen.

Armaq
2008-08-17, 18:25:34
Schau dir mal die G80-Anleitung für den RT an. Das müsste genauso beim G92 funzen.
Die kenne ich zu gut. :)
Leider funktioniert es eben nicht beim RT. Wie gesagt, schon die Felder sind ausgegraut und ich kann den Regler gleich null bewegen. Es ist definitiv etwas geändert worden, da unter Last auch nicht automatisch hochgeregelt wird, sondern nur! nach Temperatur. Unter WC3 passiert einfach nichts mit dem Lüfter, weil die Temp. keine 60°C erreicht.

LovesuckZ
2008-08-17, 18:29:53
Warum sollten ie Werte bei Xbitlabs stimmn, wenn jede andere Seite Werte haben, die das Gegenteil zeigen? Fakt is, dass die GT2xx Karten über einen 2D Modus verfügen, der den Stromverbrauch stärker senkt als bei den G92 senkt.

Ja, das ist bekannt. Ich wundere mich nur wie xbitlabs da auf ~45W kommt. Die Karte benötigt bei mir praktisch das selbe wie die alte G80GTS@200/200Mhz, also ~35W. Der 2D-Modus ist aber im Prinzip auch kein wirkliches Argument. Mit dem RT kann man ja den G92 leicht untertakten womit man ebenfalls in die 30-35W Region kommen müsste.

Das untertakten der G92 Karten bringt nur beim Speicher etwas - ca. 10 Watt. Bei der GPU ändert sich kaum etwas.

Armaq
2008-08-17, 19:26:00
Fakt ist aber auch, dass die Karte extrem wenig Hitze erzeugt. :)

Spasstiger
2008-08-18, 15:59:20
Fakt ist aber auch, dass die Karte extrem wenig Hitze erzeugt. :)
Wenn du mit Hitze = Wärme meinst, ist das nonsense. Und aus den Temperaturen kannst du nicht auf die Wärmeentwicklung schließen.
Der Chip der Radeon HD4850 hat nur eine Fläche von 250 mm² während der G92 334 mm² und der G92b immer noch 276 mm² misst. D.h. selbst bei ähnlicher Wärmeentwicklung würde der ATI-Chip immer höhere Temperaturen produzieren, weil sich die Wärme auf einer kleineren Fläche entwickelt. Wichtig ist ja letztendlich nur, dass die Kühllösung leise arbeitet, dass die erlaubten Maximaltemperaturen nicht überschritten werden und dass der Energieverbrauch möglichst niedrig ist.

Armaq
2008-08-18, 18:31:20
Ich rede von der Temperatur, die hinten rauskommt und die man im Gehäuse gesamt messen kann. Dabei heizt die 9800GTX+ bedeutend weniger als meine 8800GTS 320. Ergo ist die Temperatur am Prozessor um ca. 4°C zurück gegangen und mein Chipsatz ebenfalls um weitere 2-3°C. Da die Bauteile unmittelbar nebeneinander liegne heizt sich die gesamte Karte weniger auf, oder irre ich?

Edit: http://www.computerbase.de/artikel/software/2008/bericht_race_driver_grid_der_performance_report/5/
9800 GTX+ zu GT260 kaum Unterschiede in 1920, was ich für relativ eindeutig halte.

Lawmachine79
2008-08-28, 21:00:50
9800GTX+ zur übertakteten 8800GTS 320 (621/900) Auflösung war immer 1440x900

Generell habe ich es überhaupt nicht bereut, da die neue Karte ein deutliches Plus bringt. Mir fällt kein aktueller Titel ein, der nicht vernünftig liefe und sich in meinem Besitz befindet.

Assassin's Creed

mit allem auf Anschlag, auch ingame AA, was auch tadellos funktioniert. 9800GTX+
mittlere Texturen und kein AA, sonst alles max. 8800GTS 320

Es gibt sehr selten Slowdowns, die aber wohl eher der CPU zuzuschreiben sind. Ansonsten läuft es flüssig.

Gears of War
Mit der 8800GTS regelmäßig Nachladeruckler trotz mittleren Texturen. Bei der 9800 selbst mit AA und Text. max immer konstant flüssig. Beides auf DX10.

TeamFortress 2
Die 8800 hat es nicht geschafft das Spiel mit 8xCSAA immer flüssig zu halten, Texturen auf hoch. Die 9800 hat immer flüssige FPS bei 16xCSAA und sehr hohen Texturen.

Gothic 3
8800 GTS - regelm. Nachladeruckler durch VRAM-Swap
9800 - immernoch Ruckler, aber viel seltener, wesentlich bessere Performance im persl. Gesamteindruck.

Frontlines - Fuel of War
9800 immer flüssig bei max Details, ausser Laub (verursacht irgendwie abartigen CPU-Load)
8800 bei mittleren Texturen sonst max. nicht immer flüssig.
Bei 64 Spieler-Karten gibt es durch die CPU Slowdowns.

Warcraft 3 + AddOn

16xQCSAA alles max, natürlich keine Probleme (immer 60 fps). Interessant ist nur, dass die 9800GTX+ den Idle-Modus nichtmal mehr verlässt und nicht über 55°C kommt.

Sonst noch fragen zu aktuellen Titeln?

Edit: Größtes Aha-Erlebnis war neben GoW auch noch Stalker, das ebenfalls superb performt. Schau dir bitte noch den Test auf CB an, den ich verlinkt habe. Dort kann deinen Fragen bzgl. der hohen Auflösung abgeholfen werden.
Armaq, installier Dir mal den nHancer und spiel WOW mit 4x4 Supersampling, sollte laufen auf einer 98GTX - mindestens aber 16xS. Das sieht Welten besser aus als 16xQCSAA.

Armaq
2008-08-30, 13:13:29
Geht leider nicht. Ist übrigens NICHT World of Warcraft. Warcraft 3 - hier werden die Menüs stark verzerrt.