PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AGP-Review: Gainward GeForce 7800GS GLH


Hellknight[FA]
2007-01-17, 13:35:38
Hi Leute,

wie manche von Euch sicherlich wissen, hatte ich mit meiner X1950pro (AGP) Probleme beim Abspielen von Videos, was scheinbar auf eine Inkompatibilität mit meinem Mainboard / Chipset zurückzuführen war. Aus diesem Grund hab ich mir gegen einen geringen Aufpreis ein gleichwertiges Modell von Gainward ge0wned - diesmal aus dem NVidia-Lager (hatte noch nie Probleme mit NVidia-Karten und ehrlich gesagt auch keine andere Wahl nach dem Fiasko :D ;) )


Bei dem Modell handelt es sich um eine Gainward GeForce 7800GS GLH wobei "GLH" für "Goes Like Hell" stehen soll. Die Karte von Gainward unterscheidet sich in mehreren Dingen von einer Standard 7800 GS:


- es wird kein G70 Chip benutzt sondern ein G71 - also ein 7900er (dies kann bei den neueren 7800 GS natürlich aufgrund Produktionsumstellungen auch schon der Fall sein)

- auf dem Chip befinden sich 20 PixelPipes und 7 Vertex Shader (gegenüber 16/7 bei einer 7800 GS) - das entspricht einer GeForce 7900 GS

- die Karte ist mit 500/1400 MHz relativ hoch getaktet (50/80 MHz mehr als eine GeForce 7900 GS!)

- die Karte ist mit 512 MB Speicher gegenüber 256 MB bei normalen 7800 GS ausgestattet

- es befindet sich eine eigene Kühllösung von Gainward auf der Karte, welche als 2-Slot-System ausgelegt ist.


Für diejenigen unter Euch die sich jetzt fragen, warum ich mir nicht die 7800 GS+ mit 24/8 geholt habe: Diese Karte gibt es schlicht und einfach nicht mehr. Und wenn sie doch angeboten wird so handelt es sich rein äußerlich zwar um dasselbe Modell, jedoch sind trotzdem nur 20PP/7VS freigeschaltet - und das bei einem niedrigeren Takt als bei der 7800 GS GLH.



Layout/Einbau/Inbetriebnahme

Gleich nach dem Auspacken der Grafikkarte fiel die ausgefallene Kühllösung auf. Hierbei handelt es sich um einen Aluminium-Block mit eingelassenem Lüfter welcher die Luft nach allen Seiten rausbläst. Dieser Block bedeckt den Chip selbst sowie den Kern des AGP-Brückenchips. Der Arbeitsspeicher wird nicht mitgekühlt. Über dem Block befindet sich eine Gitter-Konstruktion welche die komplette Grafikkarte bedeckt (bis auf das Loch für den Lüfter). Ob das jetzt als optisches Schmankerl oder als effektivere Methode die Wärme abzuleiten gedacht war sei mal dahingestellt - auf der Seite prangt jedenfalls der Gainward-Schriftzug :D. Zusamenfassend lässt sich sagen, dass diese Konstruktion ziemlich "leise" aussieht. Doch nach der GeCube Konstruktion war ich noch etwas skeptisch ob sich das auch im Praxisbetrieb bewahrheitet.

Die Stromversorgung muss - wie schon bei der X-1950 AGP über einen PCIe Anschluss sichergestellt werden, für diesen Zweck liegt ein 12V Adapterkabel bei. Obwohl sich der Brückenchip direkt unter dem G71 befindet ist die Karte so lang wie die X-1950. Hier sollte man also etwas Acht geben wenn sich im Front-Käfig Festplatten befinden.

Nach dem Einbau der Grafikkarte dann erstmal Entwarnung. Der Lüfter hält genau das was er verspricht. Er ist absolut nicht störend und wesentlich leiser als bei meiner X850 XT PE. Allerdings gibt es keine Lüftersteuerung, wobei man jedoch sagen muss dass Gainward den Lüfter fix bei 50% betreibt. An den Flüsterbetrieb eines Silencers kommt diese Eigenkreation jedoch nicht ganz heran. Allerdings nehme ich das bei IDLE-Temps von 42 °C und Load-Temps von 64 °C gerne in Kauf :)


Praxiserfahrungen

Ich habe ganz bewusst "Praxiserfahrungen" geschrieben, da ich kein Freund von irgendwelchen synthetischen Timedemos bin und deshalb auf diverse Zahlenwüsten verzichten werde bzw. nur sehr eingeschränkt eingehen werde.

3DMark06: 3780 Pts : 3730 Pts (ATi X1950 pro) :D
Aquamark: 72600 Pts : 67400 Pts (ATi X1950pro) ;)

Diese beiden Ergebnisse zeigen, dass die Grafikkarte (auf einem A64 3200+ (!)) bei grafikintensiven Anwendungen wo es nicht so stark auf die CPU ankommt etwa auf dem Niveau einer X1950pro rechnet. Wenn allerdings CPU-Power ins Spiel kommt, weis zumindest das NVidia Produkt diese besser zu nutzen als das ATi-Pendant. Scheinbar schluckt der ATi-Treiber relativ viel CPU-Ressourcen.

Appropos Treiber: Da ich bis jetzt immer das ATi CCC benutzt habe (X 850 und X1950) dachte ich natürlich, dass Ati hier schon ziemlich viel optimiert hat um das CCC etwas ressourcenfreundlicher zu gestalten. Als ich jedoch den NVidia-Treiber installierte wurde ich schnell eines Besseren belehrt. Während mit dem ATi-Treiber 340 MB lt. Taskmanager benutzt werden, sind es bei NVidia-Treiber 93.71 nur lächerliche 220 MB. Bei "nur" 1 GB RAM ein extremer Unterschied. Und das, obwohl der NVidia Treiber seit einiger Zeit auch per externem ControlPanel konfiguriert werden will.

Dieses ist im Übrigen anfangs sehr unübersichtlich und auch nicht immer konsistent (wieso wird nur die erste Ebene mit Symbolen dargestellt und die Untermenüs als Textwüste? Wenn schon WinXP-Style dann bitte alles), jedoch geht die Bedienung nach einer gewissen Eingewöhnungsphase schnell von der Hand.

Kommen wir zu den Spielen: Hier gibt es einige interessante und weniger interessante Beobachtungen zu vermelden wobei die Tatsache, dass die Bildqualität mit den vorkonfigurierten Treibereinstellungen immer noch nicht an ATis Standardeinstellung herankommt, wohl eher zum letzten Punkt gehört :D. Dennoch finde ich nicht, dass das leichte Flimmern, welches vor allem bei feinen, scharfen Texturen mit aktiviertem AF vorkommt, für Augenschmerzen sorgt, wie einige hier im Forum theatralisch vermelden. Angenehmes Zocken ist mit dieser Karte immer drin :). Eine Besonderheit ist, dass es ATi scheinbar immer noch nicht geschafft hat, das "Weisse Punkte an Polygon-Schnittpunkten" Problem zu beseitigen. Dieses taucht bei manchen Spielen wie World Of Warcraft öfter mal auf und macht auch vor einer X1950pro nicht Halt. Bei NVida ist davon in keinster Weise etwas sichtbar. Alles wird so dargestellt wie man es erwartet. Auch mit der Darstellung von Schatten scheint sich die NVidia-Karte leichter zu tun (NFS MW, GuildWars), was man daran erkennt dass diese meistens absolut "smooth" dargestellt werden ohne irgendwelche "Verpixelungen".

Ebenfalls eine interessante (jedoch nicht unbedingt mutmachende)Beobachtung ist, dass die Karte bei manchen Spielen wie Doom III oder F.E.A.R. manchmal kleinere "Ruckler" (FPS konstant hoch jedoch irgendwie doch nicht optimal smooth) hat, welche komischerweise durch eine gemoddete GeForce 8800 Treiber-Version (99.72) fast völlig ausgemerzt werden konnten. Da fragt man sich ob die G80 Architektur nicht doch nur ein umgelabelter G71 mit Treiberupdate ist (*ironie*).


Kommen wir zu den Videos: Dieser Punkt geht klar an die X-1950 mit AVIVO. Während die NVidia-Karte bei der Bildqualität noch einigermaßen mithalten kann (das ATi-Video-Material ist etwas ruhiger), so fällt sie bei der CPU-Belastung gnadenlos zurück. Dies trifft zwar nicht auf DVD- oder normales Video-Material zu, umsomehr jedoch auf HD-Material (mit Ausnahme von DivX HD). Bei der Step into the Liquid (1080er Version) Demo bewegt sich die ATi-Karte zwischen 45 und 75 % während die NVidia-Karte schonmal 95% der Arbeit auf die CPU abwälzt. Allerdings ist das Bild noch flüssig. Hier hat NVidia wohl einige Features explizit für PCIe freigeschaltet.


Zusammenfassend kann ich sagen dass sich das Geheule in meinem Posting auf hohem Niveau bewegt und ich mit der Karte mehr als zufrieden bin. Von der Installation bis zum Praxiseinsatz war das ganze praktisch Plug & Play (wie ich es bisjetzt auch von NVidia gewohnt bin).


Ich hoffe Ihr könnt mit dem Review was anfangen.



Grüße

Timo

Mr. Lolman
2007-01-17, 13:58:26
rofl, du machst einen (eh schon kaputt gecheateten) AM3-Test und meinst daraufhin, dass die NV Karte besser mit den CPU Ressourcen umgeht? Viel Spaß beim Erwachen..


Und was die Schatten betrifft, sind deine Ausführungen auch nicht ganz korrekt: Momentan ists es Mode alles mit DST zuzuknallen. Das flimmert dann, aber dafür gibts ja PCF. Mipmapping gibts auch nicht, aber die Mips kann man ja auch durch nen Shader erzeugen. Der ganze Scheiss kann dann natürlich nicht trilinear gefiltert werden, weswegen man sich mit aprupten Auslösungswechsel innerhalb der Schattentextur zufrieden geben muss. Das Traurige ist, dass der Mist nur für (bzw. auf) NV Karten programmiert wird und auch da hässlich ist (wenngleich nicht ganz so schlimm wie bei ATi). Farcry zeigts wies schöner geht, zumindest auf ATi Karten. NV Karten haben da auch wieder das hässliche DST+PCF - was man zwar auf die Atitechnik umschalten kann, aber den NV Karten performancemäßig nicht so schmeckt.

Ok. so falsch war deine Sichtweise nicht. Nur tun sich NV halt deswegen leichter, weil die Anwendung darauf zugeschnitten ist. Und der gröbste Scheiss ist, dass es ja (wie man anhand von Farcry sieht) auch viel besser ginge. Atikarten profitieren im ggs zu NV Kärtchen auch nicht performancemäßig vom DST+PCF. Also ist eigentlich ne Schikane, dass der 'schlechtere' Modus trotzdem auch auf Atis eingesetzt wird

Gast
2007-01-17, 15:29:56
;5168208']
Kommen wir zu den Videos: Dieser Punkt geht klar an die X-1950 mit AVIVO. Während die NVidia-Karte bei der Bildqualität noch einigermaßen mithalten kann (das ATi-Video-Material ist etwas ruhiger), so fällt sie bei der CPU-Belastung gnadenlos zurück. Dies trifft zwar nicht auf DVD- oder normales Video-Material zu, umsomehr jedoch auf HD-Material (mit Ausnahme von DivX HD). Bei der Step into the Liquid (1080er Version) Demo bewegt sich die ATi-Karte zwischen 45 und 75 % während die NVidia-Karte schonmal 95% der Arbeit auf die CPU abwälzt. Allerdings ist das Bild noch flüssig. Hier hat NVidia wohl einige Features explizit für PCIe freigeschaltet.




Hast du denn auch einen Decoder, der die Hardware der Geforce nutzt?
Bei 95% kann das nicht sein, die habe ich ohne HW Decoding mit einem AMD XP2400 und PowerDVD5 bei Step into the Liquid (1080er Version).

Hellknight[FA]
2007-01-18, 11:40:10
rofl, du machst einen (eh schon kaputt gecheateten) AM3-Test und meinst daraufhin, dass die NV Karte besser mit den CPU Ressourcen umgeht? Viel Spaß beim Erwachen..


Und was die Schatten betrifft, sind deine Ausführungen auch nicht ganz korrekt: Momentan ists es Mode alles mit DST zuzuknallen. Das flimmert dann, aber dafür gibts ja PCF. Mipmapping gibts auch nicht, aber die Mips kann man ja auch durch nen Shader erzeugen. Der ganze Scheiss kann dann natürlich nicht trilinear gefiltert werden, weswegen man sich mit aprupten Auslösungswechsel innerhalb der Schattentextur zufrieden geben muss. Das Traurige ist, dass der Mist nur für (bzw. auf) NV Karten programmiert wird und auch da hässlich ist (wenngleich nicht ganz so schlimm wie bei ATi). Farcry zeigts wies schöner geht, zumindest auf ATi Karten. NV Karten haben da auch wieder das hässliche DST+PCF - was man zwar auf die Atitechnik umschalten kann, aber den NV Karten performancemäßig nicht so schmeckt.

Ok. so falsch war deine Sichtweise nicht. Nur tun sich NV halt deswegen leichter, weil die Anwendung darauf zugeschnitten ist. Und der gröbste Scheiss ist, dass es ja (wie man anhand von Farcry sieht) auch viel besser ginge. Atikarten profitieren im ggs zu NV Kärtchen auch nicht performancemäßig vom DST+PCF. Also ist eigentlich ne Schikane, dass der 'schlechtere' Modus trotzdem auch auf Atis eingesetzt wird


Naja der 3DMark & Aquamark Teil ist auch mit großer Vorsicht zu genießen da es sich hier um 2 synthetische Benchmarks handelt. Ich habe lediglich die Eindrücke niedergeschrieben, welche sich mir aus den Ergebnissen dargestellt haben. Dies muss natürlich nicht unbedingt in gleicher Weise für reale Anwendungen gelten.

Zu der Schattenproblematik:

Für mich als User zählt in der Regel das Ergebnis auf dem Bildschirm (OK - dass ATi-Karten bei FarCry sehr schöne Schatten bieten und NVidia-Karten seit dem Shader 3.0 Patch nur sehr blockige dunkle Schatten, habe ich leider vergessen in das Review zu schreiben, da ich das Spiel schlicht nicht mehr spiele).

Da zählt es für mich nicht, dass die Hersteller evtl. zu faul sind Ihre Routinen für die Schattenberechnung an ATi-Hardware anzupassen. Und wenn ich heute die Wahl habe zwischen "etwas blockigen" und "extrem verpixelten" Schatten nehme ich lieber die etwas blockigen ;) - da können die Schatten in früheren Spielen noch so schön ausgesehen haben. Das was (für mich) zählt ist der Eindruck bei aktueller Software :)

Deshalb ist das ein persönliches Review ;)


Grüße

Timo


@gast - werd ich mal ausprobieren - bis jetzt nur mit wmp getestet