PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon 9700 vs. GeForce 6800 128 MB @ Low-End-Unterbau


Spasstiger
2006-05-12, 14:52:05
Ich hab heut mal getestet, was es bringen würde, wenn ich meine Radeon 9700 durch eine GeForce 6800 128 MB ersetzen würde.

http://img122.imageshack.us/img122/3816/image001828uc.jpg

Mein System ist ein Dell Dimension 4550 vom November 2002 und hat derzeit folgende Ausstattung/Konfiguration:
- Pentium 4 "Northwood" 2,53 GHz FSB533 (133 MHz FSB real)
- Intel 845PE Chipsatz
- 1 GB Infineon DDR333 CL2,5-3-3-7 (kein Dualchannel)
- AGP 4x maximal
- 256 MB AGP Aperture Size
- Radeon 9700 TX @ 324/278 (statt 263/263 wie von Dell ausgeliefert)
- leises 250 Watt Netzteil (15 Ampere @ 12 Volt)
- SB Live 5.1 Digital "OEM" (kein Hardware-DSP vorhanden)

Die getestete GeForce 6800 habe ich mit freigeschaltenen 16 Pipelines und 6 Vertexshadern laufen lassen, außerdem noch leicht übertaktet mit 350/400 (statt 325/350).
Damit ergeben sich folgende theoretische Eckdaten im Vergleich:
Radeon 9700 OC vs. GeForce 6800 @ 16/6 OC
Pixelfüllrate: 2,6 GPixel/s vs. 5,6 GPixel/s (+115%)
Speicherbandbreite: 17,8 GB/s vs. 25,6 GB/s (+44%)
Vertexshaderleistung: 4 Einheiten * 324 MHz vs. 6 Einheiten * 350 MHz (+62%)
Nach den Eckdaten sollte die GF6800 also besonders in shader- und füllratenintensiven Szenarien deutlich vorne liegen.

EDIT: Als Treiber kamen zum Einsatz
bei der Radeon 9700 der auf dem Cat. 6.3 basierende Omega-Treiber
bei der GeForce 6800 der Forceware 84.21 @ Quality.

Folgende Benchmarks und Spiele kamen bei meinem Test zum Einsatz:

- 3DMark05 @ default-Settings (1024x768)
- Oblivion @ 1024x768, noAA, 4:1 AF @ custom-ini mit drei verschiedenen Szenarien (Wald, Stadt und Höhle). Dabei habe ich Fraps verwendet und eine feste Messdauer von 10 Sekunden eingestellt. Nach dem Laden habe ich dann die Bench-Taste gedrückt und bin einfach vorwärts gelaufen. Dabei habe ich jede Szene dreimal ausgemessen und anschließend die Mittelwerte gebildet. Hier noch Screenshots der verwendeten Savegames mit den vorgenommenen Grafikeinstellungen:
http://img103.imageshack.us/img103/632/screenshot1042gm.th.jpg (http://img103.imageshack.us/my.php?image=screenshot1042gm.jpg) http://img103.imageshack.us/img103/6044/screenshot1054ct.th.jpg (http://img103.imageshack.us/my.php?image=screenshot1054ct.jpg) http://img103.imageshack.us/img103/6548/screenshot1063vk.th.jpg (http://img103.imageshack.us/my.php?image=screenshot1063vk.jpg)
Wald/Stadt/Höhle

- Quake 4 @ 1024x768 high (4:1 AF), noAA mit zwei verschiedenen Savegames. Hier habe ich bewußt keine Timedemos zum Benchen verwendet, sondern Savegames und die gleiche Methode mit Fraps wie bei Oblivion (nur dass ich jetzt jede Szene nur einmal getestet habe aufgrund konstanterer Frameraten). Die Screenshots der Savegames:
http://img122.imageshack.us/img122/5677/nexus6bj.th.jpg (http://img122.imageshack.us/my.php?image=nexus6bj.jpg) http://img122.imageshack.us/img122/9890/mcc0za.th.jpg (http://img122.imageshack.us/my.php?image=mcc0za.jpg)
Nexus Hub Tunnels/MCC Landing Site

- CS:S Valve Stress Test @ 1280x960, 4xAA, 16:1 AF
- GTA San Andreas @ 1024x768, 4xAA, 8:1 AF (volle Details) mit dem Szenario "Grove Street". Auch hier habe ich wieder mit Fraps und dem bei Oblivion beschriebenen Verfahren gebencht. Und hier noch der obligatorische Screenshot vom Savegame:
http://img122.imageshack.us/img122/7781/gtasa4hx.th.jpg (http://img122.imageshack.us/my.php?image=gtasa4hx.jpg)
Grove Street

Nun zu den Ergebnissen (Radeon 9700 vs. GeForce 6800 @ 16/6):

3DMark05
Score: 2304 vs. 3661 (+59%)
GT1: 10,6 fps vs. 12,5 fps (+18%)
GT2: 6,5 fps vs. 11,4 fps (+75%)
GT3: 11,4 fps vs. 22 fps (+93%)
CPU1: 1,4 fps vs. 1,4 fps (+0%)
CPU2: 2,3 fps vs. 2,5 fps (+9%)

Oblivion
Wald: 23,7 (min-fps), 25,6 (avg-fps), 27,7 (max-fps) vs. 31 (+31%), 37,3 (+46%), 40,3 (+45,5%)
Stadt: 27,3 (min-fps), 31,6 (avg-fps), 39 (max-fps) vs. 27,7 (+1%), 35,8 (+13,3%), 40 (+3%)
Höhle: 28,3 (min-fps), 34,4 (avg-fps), 42 (max-fps) vs. 35 (+24%), 46,9 (+36%), 54 (+29%)

Quake 4
Nexus Hub Tunnels: 23 (min-fps), 39,2 (avg-fps), 61 (max-fps) vs. 31 (+35%), 51,5 (+31%), 62 (+2%)
MCC Landing Site: 14 (min-fps), 18,7 (avg-fps), 23 (max-fps) vs. 32 (+129%), 37,1 (+98%), 41 (+78%)

CS:S Valve Stress Test
51 fps vs. 72,8 fps (+43%)

GTA San Andreas
Grove Street: 20 (min-fps), 25,5 (avg-fps), 30 (max-fps) vs. 21 (+5%), 28,5 (+11%), 32 (+7%)

Auswertung und Fazit
Die Ergebnisse fallen doch eher ernüchternd aus, der theoretische Geschwindigkeitsvorteil der freigeschaltenen und übertakteten GeForce 6800 kommt jedenfalls nur in Quake 4 und im Game-Test 3 von 3DMark05 zum Tragen.
In Oblivion profitiert das Wald-Szenario noch spürbar von der schnelleren Grafikkarte (31 fps Minimum statt 24 fps, durchschnittlich 46% schneller), während im Stadt-Szenario die CPU zu limitieren scheint. Im Höhlenszenario kann sich die GeForce 6800 auch ein wenig absetzen, wobei es hier mit beiden Grafikkarten flüssig läuft.
GTA San Andreas profitiert praktisch gar nicht von der schnelleren Grafikkarte, subjektiv läuft es mit beiden Karten gleich gut/schlecht. Die CPU-Limitierung war hier aber auch zu erwarten.
Quake 4 zeigt dafür deutliche Zuwächse mit der GeForce 6800, vor allem beim Savegame "MCC Landing Site" wird das deutlich. 32 fps Minimum statt 14 fps mit der Radeon 9700. Das bald erscheinende Prey dürfte wohl ähnlich gut von der schnelleren Grafikkarte profitieren.
Der Valve Stress Test in CS:S zeigt einen mäßigen Zuwachs, da es sich allerdings um einen synthetischen Test handelt, kann man damit rechnen, dass im Spiel selbst wieder die CPU bzw. der Systemunterbau den limitierenden Faktor darstellt.
Zu 3DMark05 muss ich noch sagen, dass die GeForce 6800 zusammen mit einem Athlon 64 3000+ glatt 600 Punkte mehr rausholt bei gleicher Taktung. 3DMark05 ist also auch in niedrigeren Punktebereichen nicht ausschließlich grafikkartenlimitiert. ;)

Angesichts der Ergebnisse denke ich, dass sich ein Grafikkarten-Upgrade durchaus lohnen kann, wenn man vor allem füllraten- oder shaderlastige Spiele mit mäßigen CPU-Anforderungen spielt (z.B. Quake 4, Prey, Chronicles of Riddick, wahrscheinlich auch Fear), in GTA San Andreas z.B. kann aber nur ein schnellerer Systemunterbau zu besserer Spielbarkeit führen.

MadManniMan
2006-05-12, 15:03:19
Sehr interessant das Ganze, aber doch leider recht inkonsequent - denn bei 1024 derart konservative Einstellungen zu fahren... ?

Mr. Lolman
2006-05-12, 15:05:26
Treiber @ HQ?

Spasstiger
2006-05-12, 15:08:53
MadManniMan[/POST]']Sehr interessant das Ganze, aber doch leider recht inkonsequent - denn bei 1024 derart konservative Einstellungen zu fahren... ?
Wie meinen? In Oblivion kann ich nur 1024x768 ohne AntiAliasing fahren mit meiner Radeon 9700, wenn ich noch ein flüssiges Spieleerlebnis haben möchte, für Quake 4 gilt gleiches. Auch bei GTA San Andreas macht sich eine höhere Auflösung negativ bemerkbar (dafür ist ja auch schon 4xAA und 8:1 AF an). Und ich hab halt zuerst mit meiner Radeon 9700 gebencht. Klar hätte ich auch noch 1280x960 mit 4xAA überall benchen können, aber zumindest in Quake 4 hätten das beide Karten nicht flüssig gepackt. Außerdem wollte mein Bruder seine Grafikkarte zurück. ;)
In GTA San Andreas hab ich mit der GeForce 6800 übrigens festgestellt, dass alle Texturen sehr grieselig aussehen, sobald man AF aktiviert. Mit der Radeon 9700 gibts dieses Problem nicht.

Mr. Lolman[/POST]']Treiber @ HQ?
Ne, @Q. Meine Radeon 9700 macht dafür afaik nur bi-AF in den hinteren Stages, nichtmal bri.

MadManniMan
2006-05-12, 15:37:37
Es ist ja schön und gut, wenn Du ~40%ige Frameratensteigerungen zu verzeichnen hast, aber warum nicht gleich in Auflösungssteigerungen umsetzen?

Mr. Lolman
2006-05-12, 15:42:45
Spasstiger[/POST]']
Ne, @Q. Meine Radeon 9700 macht dafür afaik nur bi-AF in den hinteren Stages, nichtmal bri.

Nicht, wenn man AppAF nutzt...

Calypso
2006-05-12, 16:03:14
Ich hab mir ja schon damals Gedanken wegen des XP Systems beim Aufrüsten gemacht.

Mit der Ausrüstung: XP 3200+ , FDB200(1GB), nForce2U, 6800GT(250MB)

Ich denk halt das mehr oder minder bei allen Spielen die CPU die 6800GT limitiert.

Bei Doom3 hab ich damals selbst getestet und bei 1280X1024 + Q.
Den FSB hab ich schrittweise bis auf 230 erhöht (aber auch den CPU Teiler auf 10 gehabt.)
Die Timdemo1 hat ordentlich mehr Frames produziert.


Du könntest ja mal schauen ob bei niedrigeren Auflösungen die gleichen Frames rauskommen?

The_Invisible
2006-05-12, 18:16:49
ja, dürfte größtenteils die cpu limitieren, nen P4 mit 133fsp und 2,53ghz ist eben nicht mehr taufrisch. wäre interessant wennst denn ein "bisschen" übertakten könntest

mfg

janky
2006-05-12, 18:46:40
The_Invisible[/POST]']ja, dürfte größtenteils die cpu limitieren, nen P4 mit 133fsp und 2,53ghz ist eben nicht mehr taufrisch. wäre interessant wennst denn ein "bisschen" übertakten könntest

mfg


lol...bei nem Dell-Pc...

The_Invisible
2006-05-12, 18:49:41
janky[/POST]']lol...bei nem Dell-Pc...

ups, übersehen ;D

naja, vielleicht geht ja softwareübertaktungstool

mfg

Spasstiger
2006-05-12, 23:05:17
The_Invisible[/POST]']ups, übersehen ;D

naja, vielleicht geht ja softwareübertaktungstool

mfg
Ne, geht nicht, der ICS auf dem Mobo lässt keine FSB-Änderung zu.

Ende 2002 war der Rechner echt klasse, inklusive Versand ein paar Euro günstiger als der damalige Aldi-PC, deutlich günstiger als im Eigenbau, damals schon mit 4x-DVD-Brenner (Wert damals: über 300 Euro, hab ich auch sehr intensiv genutzt) und Radeon 9700 (im Aldi-PC war nur ne GeForce 4 Ti 4200, im Eigenbau hätte ich an eine Ti 4400 gedacht, hätte ich aber sicher bereut), der Prozessor war damals absolut ausreichend schnell und mit 512 MB Ram war er damals auch schon über der Norm ausgestattet (hab dann nochmal ein Jahr später 512 MB nachgerüstet und ne zweite Festplatte dazu gepackt).

Und seitdem konnte ich mir halt kein neues System leisten, was aber jetzt angesichts meines Studiums auch sehr ok ist ;).

Gast
2006-05-13, 14:16:16
Der Test ist ja ganz nett.-Danke für die Arbeit.-Aber:Es kommen bei fast allen Apps/Games recht niedrige Einstellungen zum Einsatz.

-Ausserdem ist der P4 viel zu schwach!-Man hätte die Test wenigstens mit einem AthlonXP/64@min2800+ oder einem vergleichbaren P4 machen sollen.-

Dazu kommt noch, dass schon eine normale 6800GT 500Mhz Speichertakt hat. Gerade bei Shaderlastigen Anwendungen /OpenGL sind die Zugewinne ja öfters schon massiv.-(Man bedenke, dass der Chiptakt bei der 6800er kaum höher ist, als bei der 9700er)
Die Benches hätte man generell bei min. 1280x1024 und min. 2xAA/8AF laufen lassen sollen!-Dann bis 1600x1200 4xAA/16AF steigern.-Wer nutzt die 6800@16/6OC aus dem Test nur für so niedrige Auflösungen!Ausserdem hätte ich mehr Games/Apps in den Test genommen.-HL2,F.E.A.R,FAR CRY,AOE3,Riddick, usw... Dann würde die (ohne Zweifel sehr starke R300-Karte) ganz schnell noch viel massiver in Ihre Schranken verwiesen!!

Gast
2006-05-13, 14:30:29
Also du hast aber schon gelesen was er geschrieben hat?

@Low-End Unterbau

Er wollte zeigen ob und wieviel es bringt ein Alt-System noch mit neueren Grafikkarten zu bestücken. Und man sieht das eine 6800(GT) mit 128MB bei einem solchen Altsystem nicht soviel mehr bringt wie eine ältere Karte, eben weil die CPU doch schon ganz schön Probleme hat. Das man noch AA oder AF anstellen kann ist ja nicht der Punkt. Denn was bringt einem das wenn man sowieso sehr niedrige FPS hat.

Spasstiger
2006-05-13, 14:44:48
Gast[/POST]']-Ausserdem ist der P4 viel zu schwach!-Man hätte die Test wenigstens mit einem AthlonXP/64@min2800+ oder einem vergleichbaren P4 machen sollen.-
Genau das wollte ich nicht. Es war mein Anliegen, auf einem für heutige Verhältnisse "Low-End-System" zu testen, nämlich meinem Rechner.

Die Benches hätte man generell bei min. 1280x1024 und min. 2xAA/8AF laufen lassen sollen!-Dann bis 1600x1200 4xAA/16AF steigern.-Wer nutzt die 6800@16/6OC aus dem Test nur für so niedrige Auflösungen!
Es stimmt, ich hätte noch höhere Auflösungen nehmen sollen, allerdings wollte mein Bruder seine 6800 zurück. ;)
Aber es war mir wichtig, Einstellungen zu wählen, die auf jeden Fall flüssig laufen. Denn wenn die Spiele auf beiden Karten mit unter 20 fps rumkrebsen, macht der Test keinen Sinn.

Ausserdem hätte ich mehr Games/Apps in den Test genommen.-HL2,F.E.A.R,FAR CRY,AOE3,Riddick, usw... Dann würde die (ohne Zweifel sehr starke R300-Karte) ganz schnell noch viel massiver in Ihre Schranken verwiesen!!
HL2 wollte ich testen, allerdings hat das HardwareOC-Benchmark-Tool nicht richtig funktioniert. Dafür habe ich ja dann den VST als Benchmark genommen.
Farcry hätte ich nehmen können, hab ich ja auch installiert. Allerdings kann ich hierzu schon sagen, dass es mit der GeForce 6800@16/6@OC in 1280x1024 mit 4xAA nicht mehr richtig flüssig läuft, vor allem im Dschungel wirds ziemlich zäh. Das liegt sicherlich auch am kleinen Grafikspeicher.
Riddick hab ich nicht installiert und Quake 4 ist enginemäßig so ziemlich das gleiche, nur dass die Doom-3-Engine Nvidia-Karten nicht in dem Maße präferiert wie die Riddick-Engine. Allerdings hätte ich mal 1280x960 testen sollen. Mit 4xAA ruckelt Quake 4 auf der GeForce 6800 aber auf jeden Fall in der Auflösung. Hier hat ja sogar die 6800 Ultra noch leichte Probleme.
AOE3 habe ich auch nicht installiert und dieses Spiel sollte ohnehin sehr stark CPU-limitiert sein.
Fear habe ich ebenfalls nicht da.
Mir fällt aber ein, dass ich noch Swat 4 hätte testen können. Sieht imo sehr schick aus, aber auf meiner Radeon 9700 muss ich leider auf medium-Details zurückgehen. Dafür reichts dann sogar noch für 4xAA.
Battlefield 2 hätte ich auch noch testen soll, hier ebenfalls das gleiche Spiel. Zwar nur medium-Details, dafür 4xAA auf der Radeon 9700. Vielleicht hätte die 6800 für high-Details gereicht (bezweifle ich aber wegen dem kleinen Grafikspeicher).

Was ich noch machen könnte: Die ganzen Tests mit der GeForce 6800 wiederholen, nur diesmal mit einem Athlon 64 3000+ als Unterbau.

Gast
2006-05-13, 15:18:45
Klar.-Man könnte soviel machen.-sorry,hab das @Low-End einfach übersehen.- nochmals danke für die Arbeit.-

Würde trotzdemden Test mit nem neueren Sys machen.-Das es ne 6800@16/6 mit nur 128MB ist, ist für den Vergleich ja nur hilfreich.
-Richtig cool wäre ein Test mit beiden Karten und die 6800er@8Pipes/4VS@320/260.-Da die R300-Architektur so massiv effizient war, wäre der direkte Vergleich zum NV40 (natürl. nur in Shader2.0-R300) bei diesen Settings echt obercool.-Mach das bitte mal.

-Mit dem RivaTuner ja absolut kein Problem.-Dein Bruder soll die Karte rausrücken.-P.s.Du weisst schon, dass man bei den SoftwareOC-Tools für die verschiedesten Takt-ICs "PlugIns" runterladen kann.-Würd ich mal genau schauen.

Grivel
2006-05-14, 22:08:30
hm me hat ne 9700er noch drin ... hm hm also q4 lief bei mir auf maxdetails auf 1024 IMMER flüssig bzw fiel nie unter 20fps ... und dat mit meinem sys^^
öhm:
Speicherbandbreite: 17,8 GB/s vs. 25,6 GB/s (+44%)

meine 9700 hat im standard modi schon 16,9 und wenn ic hsie auf 400mhz/324 stelle 20,3gb ^^
wundert mich das bei dir so wenig spielraum war...hab auch den arctic cooling silencer nämlich druf^^
aber ich finde 60% mehr perfomance für ne neue graka lohnt sich net ...
würde auch gernwissen wie sie sich ohne sowie mit oc gegen die freigeschaltete so wie normale LE schlägt!

Spasstiger
2006-05-15, 07:52:50
Grivel[/POST]']hm me hat ne 9700er noch drin ... hm hm also q4 lief bei mir auf maxdetails auf 1024 IMMER flüssig bzw fiel nie unter 20fps ... und dat mit meinem sys^^
Das glaube ich dir nicht. Wenn ich nur Timedemos gebencht hätte, hätte ich massig fps. Deshalb habe ich ja absichtlich einen Savegame gebencht. Und ich kenne eine Stelle, da komme ich mit Savegame benchen nur auf 10-15 fps. Mit Timedemo dagegen auf 30-40 fps. Ist mit der GeForce 6800 und einem A64 3000+ an dieser Stelle übrigens das Gleiche (nur mit mehr fps in beiden Fällen).
Lass einfach mal nen Framecounter nebenher laufen und vertraue nicht den Quake-4-Benchmarks, die mit Timedemos entstanden sind.
Und bei der Doom-3-Engine fühlen sich auch 20 fps noch erstaunlich flüssig an.

Grivel[/POST]']wundert mich das bei dir so wenig spielraum war...hab auch den arctic cooling silencer nämlich druf^^
Ist Infineon-Speicher auf der 9700 und der will einfach nicht fehlerfrei über 280 MHz gehen. Ist halt ne OEM-Karte von Dell. Der Chip hätte noch spielraum, konnte mit meinem alten VGA Silencer sogar mal mit 370 MHz Chiptakt artefaktfrei testen. Jetzt mit meinen ATI Silencer sinds ca. 340-350 MHz. Mit Standardkühler würde ich wahrscheinlich schon bei meinem jetzigen Takt Grafikfehler haben. Deshalb gehe ich auch nicht höher (hab seit bald 2 Jahren dauerhaft übertaktet).

Gast
2006-05-15, 08:36:03
Ich hab´nen ähnliches Sys. Vielen Dank für den Vergleich, Spasstiger. :)

Spasstiger
2006-05-31, 20:54:15
Hab nochmal die GeForce 6800 eingebaut, da mein kleiner Bruder für ne Woche verreist ist. Ich hab jetzt mal meine Custom-Ini für Oblivion angepasst. Mit HDR und gescheitem Wasser läufts mit der 6800er mindestens genauso gut wie mit der Radeon 9700 ohne Bloom/HDR und mit Billigwasser (ohne Reflektionen). Und der grafische Unterschied ist wirklich enorm, vor allem das HDR trägt viel zur Atmosphäre bei (hatte einen Savegame kurz vor Morgendämmerung geladen, einfach traumhaft).
Dafür würde sich ein Grafikkartenupgrade schon lohnen. Oblivion wird zwar nicht schneller, aber dafür schöner.

Was mir aber sehr negativ aufgefallen ist: Die 0815-Steinbodentextur, die sich durch die ganze Kaiserstadt zieht, flimmert ohne Ende. Auf meiner Radeon 9700 ist mir nichts dergleichen aufgefallen. Ich teste jetzt mal mit High Quality im Treiber.

EDIT: High Quality bringt auch keine wirkliche Besserung, flimmert weiterhin stark. Außerdem nervt ein Mouselag, das gabs mit der Radeon 9700 auch nicht. [STRIKE]Aber das Mouselag kann man ja anscheinend mit einem einfach ini-Eintrag beseitigen.[STRIKE]Halt, das war ja die Treiber-Geschichte mit "Max frames to render ahead".

Hier mal ein Screenshot, die rechts oben angezeigten fps sind recht typisch in den Außenlevels beim gezeigten Detailgrad, wenn Gegner kommen, gehen die fps auch mal auf 20 runter.
http://img247.imageshack.us/img247/9893/o6pd.th.jpg (http://img247.imageshack.us/my.php?image=o6pd.jpg)

EDIT: Hab nochmal Oblivion gebencht -> http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4367199&postcount=301. Bei vollen Details mit Bloom in 1024x768 4:1 AF steigern sich die fps von 4 auf 13. Bei aktiviertem HDR ändern sich die fps nicht (CPU-Limit).
Von 4 auf 13 fps entspricht auf jeden Fall einer Steigerung um 225%. :D
Und das sogar bei besserer Grafikqualität. Dafür würde sich die GF6800 schon lohnen.