Spasstiger
2006-05-12, 14:52:05
Ich hab heut mal getestet, was es bringen würde, wenn ich meine Radeon 9700 durch eine GeForce 6800 128 MB ersetzen würde.
http://img122.imageshack.us/img122/3816/image001828uc.jpg
Mein System ist ein Dell Dimension 4550 vom November 2002 und hat derzeit folgende Ausstattung/Konfiguration:
- Pentium 4 "Northwood" 2,53 GHz FSB533 (133 MHz FSB real)
- Intel 845PE Chipsatz
- 1 GB Infineon DDR333 CL2,5-3-3-7 (kein Dualchannel)
- AGP 4x maximal
- 256 MB AGP Aperture Size
- Radeon 9700 TX @ 324/278 (statt 263/263 wie von Dell ausgeliefert)
- leises 250 Watt Netzteil (15 Ampere @ 12 Volt)
- SB Live 5.1 Digital "OEM" (kein Hardware-DSP vorhanden)
Die getestete GeForce 6800 habe ich mit freigeschaltenen 16 Pipelines und 6 Vertexshadern laufen lassen, außerdem noch leicht übertaktet mit 350/400 (statt 325/350).
Damit ergeben sich folgende theoretische Eckdaten im Vergleich:
Radeon 9700 OC vs. GeForce 6800 @ 16/6 OC
Pixelfüllrate: 2,6 GPixel/s vs. 5,6 GPixel/s (+115%)
Speicherbandbreite: 17,8 GB/s vs. 25,6 GB/s (+44%)
Vertexshaderleistung: 4 Einheiten * 324 MHz vs. 6 Einheiten * 350 MHz (+62%)
Nach den Eckdaten sollte die GF6800 also besonders in shader- und füllratenintensiven Szenarien deutlich vorne liegen.
EDIT: Als Treiber kamen zum Einsatz
bei der Radeon 9700 der auf dem Cat. 6.3 basierende Omega-Treiber
bei der GeForce 6800 der Forceware 84.21 @ Quality.
Folgende Benchmarks und Spiele kamen bei meinem Test zum Einsatz:
- 3DMark05 @ default-Settings (1024x768)
- Oblivion @ 1024x768, noAA, 4:1 AF @ custom-ini mit drei verschiedenen Szenarien (Wald, Stadt und Höhle). Dabei habe ich Fraps verwendet und eine feste Messdauer von 10 Sekunden eingestellt. Nach dem Laden habe ich dann die Bench-Taste gedrückt und bin einfach vorwärts gelaufen. Dabei habe ich jede Szene dreimal ausgemessen und anschließend die Mittelwerte gebildet. Hier noch Screenshots der verwendeten Savegames mit den vorgenommenen Grafikeinstellungen:
http://img103.imageshack.us/img103/632/screenshot1042gm.th.jpg (http://img103.imageshack.us/my.php?image=screenshot1042gm.jpg) http://img103.imageshack.us/img103/6044/screenshot1054ct.th.jpg (http://img103.imageshack.us/my.php?image=screenshot1054ct.jpg) http://img103.imageshack.us/img103/6548/screenshot1063vk.th.jpg (http://img103.imageshack.us/my.php?image=screenshot1063vk.jpg)
Wald/Stadt/Höhle
- Quake 4 @ 1024x768 high (4:1 AF), noAA mit zwei verschiedenen Savegames. Hier habe ich bewußt keine Timedemos zum Benchen verwendet, sondern Savegames und die gleiche Methode mit Fraps wie bei Oblivion (nur dass ich jetzt jede Szene nur einmal getestet habe aufgrund konstanterer Frameraten). Die Screenshots der Savegames:
http://img122.imageshack.us/img122/5677/nexus6bj.th.jpg (http://img122.imageshack.us/my.php?image=nexus6bj.jpg) http://img122.imageshack.us/img122/9890/mcc0za.th.jpg (http://img122.imageshack.us/my.php?image=mcc0za.jpg)
Nexus Hub Tunnels/MCC Landing Site
- CS:S Valve Stress Test @ 1280x960, 4xAA, 16:1 AF
- GTA San Andreas @ 1024x768, 4xAA, 8:1 AF (volle Details) mit dem Szenario "Grove Street". Auch hier habe ich wieder mit Fraps und dem bei Oblivion beschriebenen Verfahren gebencht. Und hier noch der obligatorische Screenshot vom Savegame:
http://img122.imageshack.us/img122/7781/gtasa4hx.th.jpg (http://img122.imageshack.us/my.php?image=gtasa4hx.jpg)
Grove Street
Nun zu den Ergebnissen (Radeon 9700 vs. GeForce 6800 @ 16/6):
3DMark05
Score: 2304 vs. 3661 (+59%)
GT1: 10,6 fps vs. 12,5 fps (+18%)
GT2: 6,5 fps vs. 11,4 fps (+75%)
GT3: 11,4 fps vs. 22 fps (+93%)
CPU1: 1,4 fps vs. 1,4 fps (+0%)
CPU2: 2,3 fps vs. 2,5 fps (+9%)
Oblivion
Wald: 23,7 (min-fps), 25,6 (avg-fps), 27,7 (max-fps) vs. 31 (+31%), 37,3 (+46%), 40,3 (+45,5%)
Stadt: 27,3 (min-fps), 31,6 (avg-fps), 39 (max-fps) vs. 27,7 (+1%), 35,8 (+13,3%), 40 (+3%)
Höhle: 28,3 (min-fps), 34,4 (avg-fps), 42 (max-fps) vs. 35 (+24%), 46,9 (+36%), 54 (+29%)
Quake 4
Nexus Hub Tunnels: 23 (min-fps), 39,2 (avg-fps), 61 (max-fps) vs. 31 (+35%), 51,5 (+31%), 62 (+2%)
MCC Landing Site: 14 (min-fps), 18,7 (avg-fps), 23 (max-fps) vs. 32 (+129%), 37,1 (+98%), 41 (+78%)
CS:S Valve Stress Test
51 fps vs. 72,8 fps (+43%)
GTA San Andreas
Grove Street: 20 (min-fps), 25,5 (avg-fps), 30 (max-fps) vs. 21 (+5%), 28,5 (+11%), 32 (+7%)
Auswertung und Fazit
Die Ergebnisse fallen doch eher ernüchternd aus, der theoretische Geschwindigkeitsvorteil der freigeschaltenen und übertakteten GeForce 6800 kommt jedenfalls nur in Quake 4 und im Game-Test 3 von 3DMark05 zum Tragen.
In Oblivion profitiert das Wald-Szenario noch spürbar von der schnelleren Grafikkarte (31 fps Minimum statt 24 fps, durchschnittlich 46% schneller), während im Stadt-Szenario die CPU zu limitieren scheint. Im Höhlenszenario kann sich die GeForce 6800 auch ein wenig absetzen, wobei es hier mit beiden Grafikkarten flüssig läuft.
GTA San Andreas profitiert praktisch gar nicht von der schnelleren Grafikkarte, subjektiv läuft es mit beiden Karten gleich gut/schlecht. Die CPU-Limitierung war hier aber auch zu erwarten.
Quake 4 zeigt dafür deutliche Zuwächse mit der GeForce 6800, vor allem beim Savegame "MCC Landing Site" wird das deutlich. 32 fps Minimum statt 14 fps mit der Radeon 9700. Das bald erscheinende Prey dürfte wohl ähnlich gut von der schnelleren Grafikkarte profitieren.
Der Valve Stress Test in CS:S zeigt einen mäßigen Zuwachs, da es sich allerdings um einen synthetischen Test handelt, kann man damit rechnen, dass im Spiel selbst wieder die CPU bzw. der Systemunterbau den limitierenden Faktor darstellt.
Zu 3DMark05 muss ich noch sagen, dass die GeForce 6800 zusammen mit einem Athlon 64 3000+ glatt 600 Punkte mehr rausholt bei gleicher Taktung. 3DMark05 ist also auch in niedrigeren Punktebereichen nicht ausschließlich grafikkartenlimitiert. ;)
Angesichts der Ergebnisse denke ich, dass sich ein Grafikkarten-Upgrade durchaus lohnen kann, wenn man vor allem füllraten- oder shaderlastige Spiele mit mäßigen CPU-Anforderungen spielt (z.B. Quake 4, Prey, Chronicles of Riddick, wahrscheinlich auch Fear), in GTA San Andreas z.B. kann aber nur ein schnellerer Systemunterbau zu besserer Spielbarkeit führen.
http://img122.imageshack.us/img122/3816/image001828uc.jpg
Mein System ist ein Dell Dimension 4550 vom November 2002 und hat derzeit folgende Ausstattung/Konfiguration:
- Pentium 4 "Northwood" 2,53 GHz FSB533 (133 MHz FSB real)
- Intel 845PE Chipsatz
- 1 GB Infineon DDR333 CL2,5-3-3-7 (kein Dualchannel)
- AGP 4x maximal
- 256 MB AGP Aperture Size
- Radeon 9700 TX @ 324/278 (statt 263/263 wie von Dell ausgeliefert)
- leises 250 Watt Netzteil (15 Ampere @ 12 Volt)
- SB Live 5.1 Digital "OEM" (kein Hardware-DSP vorhanden)
Die getestete GeForce 6800 habe ich mit freigeschaltenen 16 Pipelines und 6 Vertexshadern laufen lassen, außerdem noch leicht übertaktet mit 350/400 (statt 325/350).
Damit ergeben sich folgende theoretische Eckdaten im Vergleich:
Radeon 9700 OC vs. GeForce 6800 @ 16/6 OC
Pixelfüllrate: 2,6 GPixel/s vs. 5,6 GPixel/s (+115%)
Speicherbandbreite: 17,8 GB/s vs. 25,6 GB/s (+44%)
Vertexshaderleistung: 4 Einheiten * 324 MHz vs. 6 Einheiten * 350 MHz (+62%)
Nach den Eckdaten sollte die GF6800 also besonders in shader- und füllratenintensiven Szenarien deutlich vorne liegen.
EDIT: Als Treiber kamen zum Einsatz
bei der Radeon 9700 der auf dem Cat. 6.3 basierende Omega-Treiber
bei der GeForce 6800 der Forceware 84.21 @ Quality.
Folgende Benchmarks und Spiele kamen bei meinem Test zum Einsatz:
- 3DMark05 @ default-Settings (1024x768)
- Oblivion @ 1024x768, noAA, 4:1 AF @ custom-ini mit drei verschiedenen Szenarien (Wald, Stadt und Höhle). Dabei habe ich Fraps verwendet und eine feste Messdauer von 10 Sekunden eingestellt. Nach dem Laden habe ich dann die Bench-Taste gedrückt und bin einfach vorwärts gelaufen. Dabei habe ich jede Szene dreimal ausgemessen und anschließend die Mittelwerte gebildet. Hier noch Screenshots der verwendeten Savegames mit den vorgenommenen Grafikeinstellungen:
http://img103.imageshack.us/img103/632/screenshot1042gm.th.jpg (http://img103.imageshack.us/my.php?image=screenshot1042gm.jpg) http://img103.imageshack.us/img103/6044/screenshot1054ct.th.jpg (http://img103.imageshack.us/my.php?image=screenshot1054ct.jpg) http://img103.imageshack.us/img103/6548/screenshot1063vk.th.jpg (http://img103.imageshack.us/my.php?image=screenshot1063vk.jpg)
Wald/Stadt/Höhle
- Quake 4 @ 1024x768 high (4:1 AF), noAA mit zwei verschiedenen Savegames. Hier habe ich bewußt keine Timedemos zum Benchen verwendet, sondern Savegames und die gleiche Methode mit Fraps wie bei Oblivion (nur dass ich jetzt jede Szene nur einmal getestet habe aufgrund konstanterer Frameraten). Die Screenshots der Savegames:
http://img122.imageshack.us/img122/5677/nexus6bj.th.jpg (http://img122.imageshack.us/my.php?image=nexus6bj.jpg) http://img122.imageshack.us/img122/9890/mcc0za.th.jpg (http://img122.imageshack.us/my.php?image=mcc0za.jpg)
Nexus Hub Tunnels/MCC Landing Site
- CS:S Valve Stress Test @ 1280x960, 4xAA, 16:1 AF
- GTA San Andreas @ 1024x768, 4xAA, 8:1 AF (volle Details) mit dem Szenario "Grove Street". Auch hier habe ich wieder mit Fraps und dem bei Oblivion beschriebenen Verfahren gebencht. Und hier noch der obligatorische Screenshot vom Savegame:
http://img122.imageshack.us/img122/7781/gtasa4hx.th.jpg (http://img122.imageshack.us/my.php?image=gtasa4hx.jpg)
Grove Street
Nun zu den Ergebnissen (Radeon 9700 vs. GeForce 6800 @ 16/6):
3DMark05
Score: 2304 vs. 3661 (+59%)
GT1: 10,6 fps vs. 12,5 fps (+18%)
GT2: 6,5 fps vs. 11,4 fps (+75%)
GT3: 11,4 fps vs. 22 fps (+93%)
CPU1: 1,4 fps vs. 1,4 fps (+0%)
CPU2: 2,3 fps vs. 2,5 fps (+9%)
Oblivion
Wald: 23,7 (min-fps), 25,6 (avg-fps), 27,7 (max-fps) vs. 31 (+31%), 37,3 (+46%), 40,3 (+45,5%)
Stadt: 27,3 (min-fps), 31,6 (avg-fps), 39 (max-fps) vs. 27,7 (+1%), 35,8 (+13,3%), 40 (+3%)
Höhle: 28,3 (min-fps), 34,4 (avg-fps), 42 (max-fps) vs. 35 (+24%), 46,9 (+36%), 54 (+29%)
Quake 4
Nexus Hub Tunnels: 23 (min-fps), 39,2 (avg-fps), 61 (max-fps) vs. 31 (+35%), 51,5 (+31%), 62 (+2%)
MCC Landing Site: 14 (min-fps), 18,7 (avg-fps), 23 (max-fps) vs. 32 (+129%), 37,1 (+98%), 41 (+78%)
CS:S Valve Stress Test
51 fps vs. 72,8 fps (+43%)
GTA San Andreas
Grove Street: 20 (min-fps), 25,5 (avg-fps), 30 (max-fps) vs. 21 (+5%), 28,5 (+11%), 32 (+7%)
Auswertung und Fazit
Die Ergebnisse fallen doch eher ernüchternd aus, der theoretische Geschwindigkeitsvorteil der freigeschaltenen und übertakteten GeForce 6800 kommt jedenfalls nur in Quake 4 und im Game-Test 3 von 3DMark05 zum Tragen.
In Oblivion profitiert das Wald-Szenario noch spürbar von der schnelleren Grafikkarte (31 fps Minimum statt 24 fps, durchschnittlich 46% schneller), während im Stadt-Szenario die CPU zu limitieren scheint. Im Höhlenszenario kann sich die GeForce 6800 auch ein wenig absetzen, wobei es hier mit beiden Grafikkarten flüssig läuft.
GTA San Andreas profitiert praktisch gar nicht von der schnelleren Grafikkarte, subjektiv läuft es mit beiden Karten gleich gut/schlecht. Die CPU-Limitierung war hier aber auch zu erwarten.
Quake 4 zeigt dafür deutliche Zuwächse mit der GeForce 6800, vor allem beim Savegame "MCC Landing Site" wird das deutlich. 32 fps Minimum statt 14 fps mit der Radeon 9700. Das bald erscheinende Prey dürfte wohl ähnlich gut von der schnelleren Grafikkarte profitieren.
Der Valve Stress Test in CS:S zeigt einen mäßigen Zuwachs, da es sich allerdings um einen synthetischen Test handelt, kann man damit rechnen, dass im Spiel selbst wieder die CPU bzw. der Systemunterbau den limitierenden Faktor darstellt.
Zu 3DMark05 muss ich noch sagen, dass die GeForce 6800 zusammen mit einem Athlon 64 3000+ glatt 600 Punkte mehr rausholt bei gleicher Taktung. 3DMark05 ist also auch in niedrigeren Punktebereichen nicht ausschließlich grafikkartenlimitiert. ;)
Angesichts der Ergebnisse denke ich, dass sich ein Grafikkarten-Upgrade durchaus lohnen kann, wenn man vor allem füllraten- oder shaderlastige Spiele mit mäßigen CPU-Anforderungen spielt (z.B. Quake 4, Prey, Chronicles of Riddick, wahrscheinlich auch Fear), in GTA San Andreas z.B. kann aber nur ein schnellerer Systemunterbau zu besserer Spielbarkeit führen.