Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : MSI 6600 GT schwächelt in DX8


pRedec
2005-01-05, 10:23:36
Hallo Forumuser,

ich habe mir zum Weihnachtsfest eine MSI Geforce 6600GT für den AGP Slot gegönnt und diese sofort mit meiner alten Geforce 4 TI 4600 ausgetauscht. Nun war ich sehr überrascht über die guten FPS in Spielen wie DOOM3 oder NFSU 2 und hatte es sogar auf 7127 Punkte im 3dmark03 geschafft. Nur wurde meine Freude etwas getrübt als ich UT2004 startete, da beim Spielen die Framrate oft unter die 30 rutscht, wobei ich mit der Geforce 4 TI 4600 immer über 50 hatte mit allen Details an.

Dann startete ich mal den 3dmark01 um meine DX8 Performance zu testen und kam nur auf 12209 punkte :confused:

Zum Vergleich:

/6600GT/ 4 TI 4600
-------------------------------------------------------------
3dmark01/ 12209/ 124xx
-------------------------------------------------------------
3dmark03/ 7127/ 10xx

Auch wundert mich, daß bei "MSI Information" unter "Anzeige Eigenschaften"
Memory=32 Memory Type=SDRAM steht. Als Bios Version wird 5.43.02.35.07 angegeben. Bei allen anderen Informationsquellen wird die Grafikkarte aber mit 128 MB angezeigt, wie z.b. bei den 3dmarks.

Ist die Karte wiklich so schlecht in DX8 oder habe ích irgendwas falsch installiert? Ich habe auch alle aktuellen Treiber ausprobiert.

Danke für eure Antworten ;)

*Gruß*

Tjell
2005-01-05, 10:57:29
...
Auch wundert mich, daß bei "MSI Information" unter "Anzeige Eigenschaften"
Memory=32 Memory Type=SDRAM steht. Als Bios Version wird 5.43.02.35.07 angegeben. Bei allen anderen Informationsquellen wird die Grafikkarte aber mit 128 MB angezeigt, wie z.b. bei den 3dmarks.

Ist die Karte wiklich so schlecht in DX8 oder habe ích irgendwas falsch installiert? Ich habe auch alle aktuellen Treiber ausprobiert.

Danke für eure Antworten ;)

*Gruß*
Hi.

Ich glaube, die "MSI Information" meint mit Memory=32, daß der RAM aus 32 MB-Bausteinen besteht, das ganze mal 4 und siehe da: 128 MB.

Die Schwäche unter DX8 und in UT2004 ist aber definitiv nicht symptomatisch für die 6600 GT. Wie sind denn Deine BIOS-Einstellungen?

MechWOLLIer
2005-01-05, 11:06:20
Mit was für Settings hast du denn UT2004 gespielt? Das Spiel regiert bei allen Nvidia Karten sehr allergisch auf AF, vor allem wenn man im Treiber High Quality eingestellt habe.
Selbst auf meiner Geforce 6800U läuft das Spiel dann alles andere als toll.

pRedec
2005-01-05, 11:25:23
Hi.

Ich glaube, die "MSI Information" meint mit Memory=32, daß der RAM aus 32 MB-Bausteinen besteht, das ganze mal 4 und siehe da: 128 MB.

Die Schwäche unter DX8 und in UT2004 ist aber definitiv nicht symptomatisch für die 6600 GT. Wie sind denn Deine BIOS-Einstellungen?

Danke für die Erklärung mit den 32 MB :smile: In meinem Bios kann man nichts bezüglich der Grafikkarte einstellen außer die AGP Size, die ich auf 128 MB gestellt habe. In Windows wird aber 4x AGP und SA + FW = enabled angegeben.


Mit was für Settings hast du denn UT2004 gespielt? Das Spiel regiert bei allen Nvidia Karten sehr allergisch auf AF, vor allem wenn man im Treiber High Quality eingestellt habe.
Selbst auf meiner Geforce 6800U läuft das Spiel dann alles andere als toll.

Ich habe alle Details auf High gestellt außer "Detailed Textures". AF ist auf 1 gestellt, soweit ich weiß bedeutet das Billinear? Im Treiber ist AA und AF ausgestellt und Performance auf Qualität. Eigentlich genau die gleichen Einstellungen, die ich davor mit der TI 4600 hatte. Nur läuft es halt nicht mehr so gut ;(

Danke für eure Antworten :wink:

robbitop
2005-01-05, 11:38:46
woran liegt es denn, dass UT2004 auf AF "allergisch" reagiert?

r@w
2005-01-05, 13:45:08
Danke für die Erklärung mit den 32 MB :smile: In meinem Bios kann man nichts bezüglich der Grafikkarte einstellen außer die AGP Size, die ich auf 128 MB gestellt habe. In Windows wird aber 4x AGP und SA + FW = enabled angegeben.Stell die ApertureSize bitte auf 256MB.
Ist das Ideal bei Deinem System...
(512MB+ Arbeitsspeicher)

Und der Murks01 ist kein Synonym für DX8-Performance.
Da dieser Bench mittlerer weile massivst CPU-limitiert ist...

Bei UT2003/4 sollte (wesentlich!) mehr 'rüber' kommen.
Check mal bitte, ob
- VSync bei Dir aktiv ist!
- die Moni-Frequenzen nicht über das Panel fixiert werden
- AA/AF auf 'Anwendungsgesteuert' steht

Razor

pRedec
2005-01-05, 14:08:21
Und der Murks01 ist kein Synonym für DX8-Performance.
Da dieser Bench mittlerer weile massivst CPU-limitiert ist...
Razor
Trotzdem müssten doch mehr Punkte als mit der TI 4600 rausspringen. Ich hatte mal kurzzeitig eine Geforce FX 5700 Ultra von einem Feund drinne, die gab mir knapp 13000 Punkte, also mehr als die anderen beiden.

Stell die ApertureSize bitte auf 256MB.
Ist das Ideal bei Deinem System...
(512MB+ Arbeitsspeicher)

Ich hatte gelesen, daß man den der Karte entsprechen Wert nochmal verdoppeln soll, um ein optimales Ergebnis zu erzielen. Werde das aber heute Abend gleich mal ausprobieren, danke für den Tip.

Bei UT2003/4 sollte (wesentlich!) mehr 'rüber' kommen.
Check mal bitte, ob
- VSync bei Dir aktiv ist!
- die Moni-Frequenzen nicht über das Panel fixiert werden
- AA/AF auf 'Anwendungsgesteuert' steht

Vsync ist im Treiber und im Spiel deaktiviert und die Frequenzen mache ich über das Programm Refreshlock. AA/AF sind beide auf Aus gestellt.

Hoffe diese Informationen helfen etwas weiter :wink:

*Gruß*

MechWOLLIer
2005-01-05, 14:36:05
woran liegt es denn, dass UT2004 auf AF "allergisch" reagiert?
Frag mich etwas leichteres, aber weder meine alte Radeon 9700Pro, noch die Geforce 6800Ultra finden es besonders toll, wenn ich AF bei UT2004 in voller Qualität aktivere. Während man beim AA mehr oder weniger einstellen kann was man mag, bekommt man selbst bei nur 4xAF bereits deutlich weniger Performance, vielleicht noch die Hälfte, wenn es hoch kommt.
Das Spiel scheint Füllrate zum Frühstück zu verspeisen.

Gast
2005-01-05, 15:58:10
...AF bei UT2004 in voller Qualität...Meinst Du damit "High Quality" (also max im Panel)?

Das wäre auch nicht weiter verwunderlich, wenn hier UT einsackt, da dann auch Stages>0 anisotrop gefiltert werden. Allerdings sieht das im Gegenzug auch gleich viel besser aus, da die Detail-Texturen auf Stage 1 liegen, wenn mich meine Erinnerung nicht trübt. Sieht recht unschön aus, wenn diese (visuell wahrnehmbaren) Texturen auf Stage 1 nicht gefiltert werden...

Razor

pRedec
2005-01-05, 16:33:47
Danke für den kleinen Exkurs zum Thema AF in UT2004 :smile: aber leider erklärt das noch immer nicht warum die TI 4600 bessere Rohleistung (bezogen auf kein AA/AF oder sonstige Spielereien) in DX8 bringt als eine 6600GT. Auch wenn der 3dmark01 sehr CPU lastig ist müsste man hier doch mehr Leistung bekommen.
Bei mir schauts so aus: 6600GT->TI 4600->FX 5700 Ultra in Punkten 12209->124xx->129xx. :confused:

Eigentlich müsste die 6600GT doch in allen Belangen besser als die 3 Jahre alte GF4 sein. Ne GF2 war in DX7 auch net besser als die GF3 :rolleyes: Oder setzt Nvidia diesmal nur auf DX9 Beschleunigung?

*Gruß*

Coda
2005-01-05, 16:43:39
Also da liegt wohl etwas mit den Treibern im argen...

MechWOLLIer
2005-01-05, 17:51:24
Meinst Du damit "High Quality" (also max im Panel)?
Das wäre auch nicht weiter verwunderlich, wenn hier UT einsackt, da dann auch Stages>0 anisotrop gefiltert werden. Allerdings sieht das im Gegenzug auch gleich viel besser aus, da die Detail-Texturen auf Stage 1 liegen, wenn mich meine Erinnerung nicht trübt. Sieht recht unschön aus, wenn diese (visuell wahrnehmbaren) Texturen auf Stage 1 nicht gefiltert werden...
Razor
Ja, ich meinte High Quality im Panel:)
Und das das ganze dann etwas einbrechen darf ist klar, aber das ist schon mehr als gewaltig. Probiere es mal bei deiner Karte aus.

Sorry 4 Offtopic:(

Tigerchen
2005-01-05, 19:04:49
Stell die ApertureSize bitte auf 256MB.
Ist das Ideal bei Deinem System...
(512MB+ Arbeitsspeicher)

Und der Murks01 ist kein Synonym für DX8-Performance.
Da dieser Bench mittlerer weile massivst CPU-limitiert ist...

Razor

Erklär mir mal warum eine Ti4600 weinger CPU-Last erzeugt als die 6600GT.

Quasar
2005-01-05, 19:39:29
Ich vermute mal, das liegt daran, daß im Nature-Test die Ti4600 noch von ein paar Anpassungen der Blätter-Animationen (*cough* Cheat *cough*) profitiert, während die CineFX-Chips dies komplett selbst rechnen müssen.
Das erklärt allerdings nicht, warum eine FX5700u trotzdem noch schneller war, als eine 6600GT...

Unterschiedliche Treiber vielleicht?

robbitop
2005-01-05, 19:42:20
Erklär mir mal warum eine Ti4600 weinger CPU-Last erzeugt als die 6600GT.


Natürlich weil NV3x und NV4x keine dedizierte Steuerlogik besitzen und diese von der CPU über den Treiber übernommen werden muss. Hinzu kommt der Shadercompiler.

pRedec
2005-01-06, 09:26:59
Ich vermute mal, das liegt daran, daß im Nature-Test die Ti4600 noch von ein paar Anpassungen der Blätter-Animationen (*cough* Cheat *cough*) profitiert, während die CineFX-Chips dies komplett selbst rechnen müssen.
Das erklärt allerdings nicht, warum eine FX5700u trotzdem noch schneller war, als eine 6600GT...

Unterschiedliche Treiber vielleicht?

Beim Nature-Test haben beide Karten fast gleich viel FPS, der größte Unterschied ist im 1en Game-Test. Da kommt die TI 4600 auf 191 avg und die 6600GT nur auf 168 avg :(
Mit der 6600GT habe ich alle zurzeit verfügbaren Treiber ausprobiert, bei der FX 5700 Ultra wars einer der ersten Forceware Treiber gewesen. Warscheinlich würde diese mit den aktuellen Treibern noch mehr Abstand haben *schmoll*.
Kann es vielleicht auch an dem AGP 4x liegen, da die Karte ja eigentlich für den PCI-E ausgelegt war? Komischer Weise läuft in DX9 alles supi :confused:

*Gruß*

Blackbird23
2005-01-06, 10:39:42
Danke für den kleinen Exkurs zum Thema AF in UT2004 :smile: aber leider erklärt das noch immer nicht warum die TI 4600 bessere Rohleistung (bezogen auf kein AA/AF oder sonstige Spielereien) in DX8 bringt als eine 6600GT. Auch wenn der 3dmark01 sehr CPU lastig ist müsste man hier doch mehr Leistung bekommen.
Bei mir schauts so aus: 6600GT->TI 4600->FX 5700 Ultra in Punkten 12209->124xx->129xx. :confused:

Eigentlich müsste die 6600GT doch in allen Belangen besser als die 3 Jahre alte GF4 sein. Ne GF2 war in DX7 auch net besser als die GF3 :rolleyes: Oder setzt Nvidia diesmal nur auf DX9 Beschleunigung?

*Gruß*

Auch wenns etwas OT ist war ne GF2 Ultra damals in DX7 regelmäßig schneller als die GF3. Des also nix neues.

robbitop
2005-01-06, 11:18:01
Auch wenns etwas OT ist war ne GF2 Ultra damals in DX7 regelmäßig schneller als die GF3. Des also nix neues.

nicht in hohen Auflösungen. Dort machte sich das EarlyZ Culling und der verbesserte Speichercontroller deutlich bemerkbar.
Und besonders wenn DX7 Techniken wie Dot3 Mapping verwandt worden sind, ging das über die GF3 schneller.

Tigerchen
2005-01-06, 15:11:02
Natürlich weil NV3x und NV4x keine dedizierte Steuerlogik besitzen und diese von der CPU über den Treiber übernommen werden muss. Hinzu kommt der Shadercompiler.

Hmm. Es kann also tatsächlich dazu kommen daß das eine oder endere ältere Game mit der GF4600 besser Resultate bringt? Interpretiere ich dies richtig?

robbitop
2005-01-06, 15:15:25
Hmm. Es kann also tatsächlich dazu kommen daß das eine oder endere ältere Game mit der GF4600 besser Resultate bringt? Interpretiere ich dies richtig?

Sofern beide Karten im CPU limitierten Bereich fahren, ist die NV25 bei gleicher CPU ein wenig schneller. Deine Aussage ist ein Teilmenge, also ja :)