PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Leistung des Nv35 beim Villagemark


Sonyfreak
2004-12-05, 13:26:59
Villagemark

Ich wollte mal prüfen wie mein PC bei einem doch relativ alten Benchmark unter verschiedenen Qualitätseinstellungen läuft.
Dazu verwendete ich einen Featurebenchmark der mittlerweile nicht mehr erhältlichen Kyro Grafikkarten den Villagemark (http://www.pvrdev.com/pub/PC/extra/h/VillageMark.htm).


Der PC:
OS:Windows XP Professional SP1
Grafiktreiber:Forceware 66.81
Prozessor:Athlon XP 2600+ Barton
Grafikkarte:Aopen GeforceFX 5900XT
Ram:512Mb DDR PC2700

hohe Qualität=hohe Qualität im aTuner eingestellt
hohe Performance=hohe Performance im aTuner eingestellt
alle AA und AF Werte wurden im aTuner verändert

Hier die Ergebnisse

Hohe Qualität

Auflösung Farbtiefe Filter FPS
Höhe Breite AF AA
1024 768 16 0 0 180
1024 768 32 0 0 184
1024 768 32 8 8 35
1024 768 32 4 4 76
1024 768 32 2 2 105
1024 768 32 8 0 74
1024 768 32 4 0 83
1024 768 32 2 0 115
1024 768 32 0 8 55
1024 768 32 0 4 153
1024 768 32 0 2 159

Hohe Leistung

Auflösung Farbtiefe Filter FPS
Höhe Breite AF AA
1024 768 16 0 0 224
1024 768 32 0 0 227
1024 768 32 8 8 40
1024 768 32 4 4 96
1024 768 32 2 2 139
1024 768 32 8 0 94
1024 768 32 4 0 107
1024 768 32 2 0 154
1024 768 32 0 8 55
1024 768 32 0 4 181
1024 768 32 0 2 195

Was ich jetzt nicht ganz verstehe:
1)Warum habe ich bei den 2 Test mit 16Bit Farbtiefe weniger FPS als mit den selben Settings mit 32bit Farbtiefe?
2)Warum ändert sich der Wert mit 8xAF zwischen HQ und HP nicht?

Ich hoffe der Vergleich ist interessant und ihr habt ne Antwort auf meine Frage.

mfg.

Sonyfreak

Lightning
2004-12-05, 13:38:01
1) Alle halbwegs aktuellen Grafikkarten sind architekturisch auf 32Bit ausgelegt. Dadurch gibt es keinen Performanceverlust mehr beim Wechsel auf 32Bit, es kann sogar soweit gehen, dass 32Bit schneller ist als 16Bit.
Im Groben dürfte das zumindest so stimmen, genauer erklären kann dir das vielleicht einer der GPU Gurus hier :)

2) Du meinst sicher mit 8xAA? Da bin ich überfragt. Vielleicht hat dieses Setting auf irgendeine Weise wieder hohe Qualität erzwungen?

Black-Scorpion
2004-12-05, 13:41:28
Das wäre im Benchmark-Forum (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=7) besser aufgehoben.

Afaik sind die Karten und Treiber auf 32Bit optimiert.

Sonyfreak
2004-12-05, 13:43:32
Achja - ich sehe gerade, dass ich AF und nicht wie beabsichtigt AA geschrieben habe. Es war Antialiasing gemeint.
Zu der Antwort: Danke erstmal - ich wusste, dass die neuen 3D Karten auf 32bit optimiert sind aber ich habe immer geglaubt, dass 16bit trotzdem immer noch ein bisschen schneller ist.

mfg.

Sonyfreak