PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : MSI GeForceFX 5900 Ultra


Gast
2003-09-22, 00:59:13
Hallo!

Hab den Fehler meines lebens gemacht, hab eine MSI GeForceFX 5900 Ultra, 256MB DDR gekauft.
Nachdem meine alte Grafikkarte kaputt ging, hab ich halt eine neue gebraucht.
Wenn ich meine Einstelleungen voll auf drehe, komm ich zu folgendem Ergebniss:

Detonator 45.23 Final

Anzeigemodus: 1024 x 768 (32 bit) (100Hz)

Intellisample Einstellung - Qualität

Antialiasing - 8x

Antisotrope Filterung - 8x

Texturschärfung - an

In den Spielen hab ich alles auf höchstem Niveau eingestellt.

Meine PC Daten:

Betriebssystem: Windows XP + SP1

Prozessor: AMD Athlon XP 2800+, 2083MHz, 166MHz FSB, 512kB Cache

Mainboard: ASUS A7N8X V2.0 Deluxe, nForce2 Ultra 400 (dual PC3200 DDR)

Ram: Corsair DIMM Kit 1024MB PC3200 DDR CL2-2-2-6-1T (PC400)

Festplattenkapazität: 1x 60GB und 1x 160GB von Maxtor

Grafikkarte: MSI GeForceFX 5900 Ultra, 256MB DDR, DVI, ViVo, AGP

Das Ergebniss:

Bei 3DMark03 komm ich auf 5648 Punkte.

Die Spiele:

Freelance ca. 50 fps

Jedi Academy ca. 12 fps

GTA3 Vice City ca. 45 fps

C & C Generals ca. 20 fps

Angel of Darkness ca. 15 fps

Dann hab ich hab folgende Einstellungen verändert:

Intellisample Einstellung - Leistung

Antialiasing - 0

Antisotrope Filterung - 0

Texturschärfung - aus

mit folgendem Ergebniss:

vorher:

Jedi Academy ca. 12 fps

Angel of Darkness ca. 15 fps

nacherher:

Jedi Academy ca. 30 fps

Angel of Darkness ca. 30 fps

hab den selben Benchmark mit den Detonator 51.75 gemacht.

5801 3D marks

So, hab noch einen anderen Benchmark gemacht:

Benchmark mit 3DMark 2001 SE (Build 330)

DirectX 9.0b

Detonator 45.23 Final

Anzeigemodus: 1024 x 768 (32 bit) (100Hz)

Intellisample Einstellung - Leistung

Antialiasing - 0

Antisotrope Filterung - 0

Texturschärfung - aus

mit folgendem Ergebniss:

14349 3D marks

hab den selben Benchmark mit den Detonator 51.75 gemacht.

14760 3D marks

BlackArchon
2003-09-22, 01:17:59
Was wollte uns der Künstler damit nur sagen?

a) Upps, ich habe das falsche Forum erwischt!

b) Hätte ich doch nur eine Radeon 9800 Pro gekauft...

c) Ich habe keine Ahnung.

Für die richtige Antwort gibts einen Holzroller!

Gast
2003-09-22, 01:19:57
Versteh das als warnung!
Ich möchte nicht das noch andere den Fehler machen und viel Geld ausgeben für Schrott!

Gruß Marseille

P.S.

NVIDIA verrecke!!!

mapel110
2003-09-22, 01:35:10
du solltest wissen, dass es noch andere einstellungen neben 8XAA gibt. bei nvidia macht fast generell nur 2xAA sinn. eventuell noch 4xAA. mehr aber nicht.

für AF solltest du eigentlich immer genug leistung übrig haben.
zur not würd ich auf performanceAF zurückgreifen.

zu den spielen:
bei jedi academy solltest du "dynamisches leuchten" ausschalten. selbst bei einer radeon 9800 zieht das leistung ohne ende und hab ähnliche frameraten wie du.

angel of darkness? naja, das game ist ein einzige bug. und leider hat dort nvidia die "arschkarte" gezogen.

das sollte helfen um vorerst mit deinem "schrott" besser klar zu kommen. :)

näheres können dir sicher die nvidia spezis sagen.

betasilie
2003-09-22, 01:39:45
Tja, mein Mitgefühl hast Du, aber man kann sich ja auch mal vorher erkundigen. ;)

NVidia wird ggf. wieder mit dem NV40 interessant, aber z.Zt. sind die Karten einfach nur teuer und schlecht im Vergleich mit den Karten von ATI.

mapel110
2003-09-22, 01:43:37
Original geschrieben von betareverse
Tja, mein Mitgefühl hast Du, aber man kann sich ja auch mal vorher erkundigen. ;)

NVidia wird ggf. wieder mit dem NV40 interessant, aber z.Zt. sind die Karten einfach nur teuer und schlecht im Vergleich mit den Karten von ATI.

/mitbash
und mit den neueren treibern werden sie sogar noch schlechter *eg*


/edit
dieser post entstand mit dem hintergedanken an den deto51. ich weiss, dass er kein offizieller treiber ist und möchte nochmal ausdrücklich auf den evil grins smily(tm) hinweissen. danke.

Gast
2003-09-22, 01:49:53
Echt toll was man für 520 Euro von NVIDIA für einen scheissdreck bekommt!
Das wird kostet NVIDIA viel treue Kunden.
Meine nächste Grafikkarte wird eine Radeon sein.
Was das Problem GeForceFX 5900 Ultra angeht, vielleicht krieg ich sie bei e-bay los.

Winter[Raven]
2003-09-22, 01:51:31
Wird das wieder ein Tread nur zum Rumgebashe, wo die Nvidia Anhänger schlaffen ?

@ Mapel ...

Es reicht langsamm glaub ich !

@ Mods
unternehmt gegen diesen Herren doch was, jedes Wort von Mapel ist nur geflamme !

Jedi Academy ca. 12 fps

Hmmm ... sehr komisch ... 1280x1024 @ 8xAF+4x9tab AA sind es meistens > 25 Frames ...

betasilie
2003-09-22, 03:25:04
Original geschrieben von Winter[Raven]
Wird das wieder ein Tread nur zum Rumgebashe, wo die Nvidia Anhänger schlaffen ?

@ Mapel ...

Es reicht langsamm glaub ich !

@ Mods
unternehmt gegen diesen Herren doch was, jedes Wort von Mapel ist nur geflamme !



Hmmm ... sehr komisch ... 1280x1024 @ 8xAF+4x9tab AA sind es meistens > 25 Frames ...
Dass NV-Fanboys schlaff sind, ist wohl jedem klar.

Imho ist Mapel nicht am rumbashen, sondern sagt in ziemlich unverblümten Worten, was Sache ist. Ich könnte z.Zt. niemanden eine Karte von NV empfehlen und würde jeden der sowas macht, böswillige Absicht unterstellen.

Beta

Asuka
2003-09-22, 03:34:59
Original geschrieben von Gast
Hallo!

Hab den Fehler meines lebens gemacht, hab eine MSI GeForceFX 5900 Ultra, 256MB DDR gekauft.
...
Prozessor: AMD Athlon XP 2800+, 2083MHz, 166MHz FSB, 512kB Cache
...
Bei 3DMark03 komm ich auf 5648 Punkte.
Hmm... entweder hast du einen 2600+ wie ich, der läuft mit 2083MHz und 166MHz FSB, oder du hast einen 2800+, der mit 2250MHz läuft. Was denn nu?

Zu den Spielen kann ich nichts sagen, aber mit meiner 9800 Pro (128MB) und 2600+ komm ich auf 5499 im 3DMark03. Dabei hat meine Karte kaum mehr als die Hälfte von deiner gekostet...

Deine Alternative: falls du die Karte im Versandhandel gekauft hast, kannst du sie innerhalb von 14 Tagen zurückschicken. Ansonsten kannst du sie immer noch hier im Marktplatz-Forum oder bei eBay verticken.

seahawk
2003-09-22, 08:00:47
8XAA bringt gar nichts - max. 4xAA

Was war vorher für eine Karte drinne ?? Alles sauber deinstalliert ??

Gast
2003-09-22, 08:07:12
Hallo!

@Asuka

der AMD Athlon XP 2800+, hat schon 2083MHz.

http://www.geizhals.at/deutschland/?a=45404

Ich bin leider erst nach der Rückgabefrist von 14 Tagen gemerk was ich für einen Mist gekauft haber.
Es gab Zeiten, da hat NVIDIA gute Grafikchips hergestellt. Darauf hab mich verlassen.
Ich weiss, daß war ein rießen Fehler!!!
Habt bitte etwas nachsicht mit mir, ich bin halt soooo wühtent, für mich sind 520 Euro sehr viel Geld.
Ich wollte doch nur ein Grafikkarte mit der ich mal locker 1 Jahr meine Ruhe habe.

Gruß Marseille

Ailuros
2003-09-22, 08:11:12
Texturschaerfe sollte man beruhigt abgeschaltet haben, da es eines der sehr nutzlosen "Features" ist. Leistung und Qualitaet ist in so etwa:

2xAF + texture sharpening = 4xAF
4xAF + texture sharpening = 8xAF

Also gleich zwischen 2x/4x oder 8x AF (je nach Spiel) waehlen ohne Texturschaerfe.

Und die anderen Herrschaften haben auch recht ueber 8x AA. Es ist ein hybrider SSAA/MSAA modus der nicht viel bringt da der EER eher schlecht ist. Bessere Alternativen sind entweder bis zu 1152*864 oder 1280*960 mit 4xAA oder >1280*960 mit 2xAA.

Ailuros
2003-09-22, 08:19:11
Original geschrieben von Gast
Hallo!

@Asuka

der AMD Athlon XP 2800+, hat schon 2083MHz.

http://www.geizhals.at/deutschland/?a=45404

Ich bin leider erst nach der Rückgabefrist von 14 Tagen gemerk was ich für einen Mist gekauft haber.
Es gab Zeiten, da hat NVIDIA gute Grafikchips hergestellt. Darauf hab mich verlassen.
Ich weiss, daß war ein rießen Fehler!!!
Habt bitte etwas nachsicht mit mir, ich bin halt soooo wühtent, für mich sind 520 Euro sehr viel Geld.
Ich wollte doch nur ein Grafikkarte mit der ich mal locker 1 Jahr meine Ruhe habe.

Gruß Marseille

Irgendwie kann ich schlecht verstehen wie man erst nach 2 Wochen dahinter kommt dass einem eine Karte doch nicht gefaellt, ausser Du hattest wenig Zeit und hast Dich mit dem PC nur sehr wenig beschaeftigt.

Versuch mal das ganze nochmal mit hoeheren Aufloesungen und mit entwender 2x oder 4x Multisampling durchzurennen.

aths
2003-09-22, 09:37:32
Original geschrieben von betareverse
Tja, mein Mitgefühl hast Du, aber man kann sich ja auch mal vorher erkundigen. ;)

NVidia wird ggf. wieder mit dem NV40 interessant, aber z.Zt. sind die Karten einfach nur teuer und schlecht im Vergleich mit den Karten von ATI. Das mit dem NV40 stimmt, teuer stimmt, schlecht stimmt nicht. Oder nicht ganz. Die DX9-Performance ist sehr schlecht, ja.

Marseille
2003-09-22, 10:34:32
@Ailuros

Hatte wirklich wenig Zeit. Hab z.Z. Urlaub, hab daher Zeit mich mit dem PC zu beschäftigen.
Mußte mir auch erst einige Spiele saugen um testen zu können.
Jedi Academy ca. 12 fps

Angel of Darkness ca. 15 fps

das hat mich dann doch geschockt.

Gruß Marseille

Al-CAlifAX
2003-09-22, 10:45:03
Das die FX reihe in DX9 noch nicht so gut performt ist klar. Aber GTAViceCity läuf bei mir um einiges schneller, jedi Acedemy um faktor 3. Angel of Darkness landet bei 45 Frames. Und ich habe noch net mal die ultra. Meine Übertaktung is aber Ultra speed. Nur bei AF/AA fehlen mir in hohen auflösungen deine 256 MB. Also ausser Angel of Darkness (wobei 45 frames spielbar ist für mich) kann ich bisher nicht klagen. Ich vergleiche ja auch net :P Grade in OpenGL (jedi Acedemy) stimmt bei dir was net. da habe ich locker mit AA 4x und AF 4x 50-60 frames mitunter auch 70 frames. sehr komisch ;)

Das du mit einer Ati besser dran währst für DX9 ist aber richtig von dir. Wobei es da auch abwarten gilt. Bei Topknallern werden schon mixed modes zum einsatz kommen. und einige davon sind direkte NV-kandidaten. Bei HL² brauchste net hoffe. selbst wenn es durch den mixed machbar wäre ranzukommen, würde es valve nie zulassen. Deswegen werde ich auch den benchmark eher unterbewerten. eine klasse spiele benchmark ist einer der keinen technologie partner hat oder alle im programm hat. Was trotzdem nicht heisst das die Ati nicht trotzdem schneller ist im normal like Ati pfad für DX9. ich meine jetzt den mixed. der zwingend ist für die FX Reihe ;)

Marseille
2003-09-22, 10:54:52
@ Al-CAlifAX

Ich kann auch mehr Frames erreichen, wenn ich alles runterschraub.
Die werte kammen bei max. Werten zustande.

Intellisample Einstellung - Qualität

Antialiasing - 8x

Antisotrope Filterung - 8x

Texturschärfung - an

Noch eine Frage, unter OpenGL gibt es nicht viele Einstellungen.
Muß ich da was verändern, oder kann ich die Einstellungen so lassen wie sie nach der Detonator installation sind?

Gruß Marseille

Al-CAlifAX
2003-09-22, 10:59:39
8x AA is eh blödsinn. ich sehe keine unterschied beim gamen zu 8x. es sei denn ich mache standbild ;) nur is 4x schneller :P

Winter[Raven]
2003-09-22, 11:34:48
Jep ... 8x braucht kein Mensch ... kein wunder das bei dir 12 FPS sind.

Gast
2003-09-22, 12:17:43
Original geschrieben von Winter[Raven]
Jep ... 8x braucht kein Mensch ... kein wunder das bei dir 12 FPS sind.

noch dazu siehts nicht wirklich toll aus....manche firmen bieten besseres 4xAA als dieses 8x :D

Ailuros
2003-09-22, 14:00:12
Original geschrieben von Marseille
@ Al-CAlifAX

Ich kann auch mehr Frames erreichen, wenn ich alles runterschraub.
Die werte kammen bei max. Werten zustande.

Intellisample Einstellung - Qualität

Antialiasing - 8x

Antisotrope Filterung - 8x

Texturschärfung - an

Noch eine Frage, unter OpenGL gibt es nicht viele Einstellungen.
Muß ich da was verändern, oder kann ich die Einstellungen so lassen wie sie nach der Detonator installation sind?

Gruß Marseille


Ich verstehe schon was Du meinst, nur ist es eben so dass beide NV3x und R3xx hauptsaechlich fuer 4x Multisampling optimiert wurden.

Nochmal der 8x modus den Du da benutzt hast ist einen Kombination von 4x Multisampling und 2x Supersampling, wobei der Supersampling Teil schon die Haelfte Deiner Fuellrate frisst.

In Nummern heisst das dass Du eine theoretische maximale Fuellrate von 3600MTexels/sec (MT) hast, die aber nur mit 2x Supersampling automatisch auf 1800MTexels/sec reduziert wird.

2x und 4x Multisampling ist in meisten Faellen genauso brauchbar auf einer GFFX (in Leistung) wie 2x und 4x Multisampling auf einer Radeon >9500, wobei selbst auf einer 9800PRO 6x MS nicht unbedingt und immer brauchbar ist in hohen Aufloesungen. Multisampling kommt auf den FX-en und Radeons ohne Fuellraten kosten.

Zum eigentlichen brennenden Thema hab ich es schwer nun Dir zu raten eine 520 euro teure Karte wieder zu verkaufen und dabei auch eine kleine Summe davon verlieren. Deshalb rate ich Dir vorruebergehend erst mal die Karte in diesen Modi auszuprobieren fuer die sie eigentlich optimiert wurde. Sonst wirst Du wohl gezwungen sein etwas am Kaufspreis beim Verkauf zu verlieren und eine andere Karte dann zu kaufen.

Und bitte nochmal die Texturschaerfe kannst Du beruhigt auslassen; effektiv pumpt das setting die AF Werte um eine Stufe nach oben bis zu 4xAF, was eigentlich sinnlos ist denn die Leistung und Qualitaet zwischen 4xAF + Texturschaerfe und 8xAF sind etwa gleich. Unter optimalen Bedingungen sind 4xAA/8xAF fuer D3D und OGL angebracht. Und ja es ist normal dass Du weniger Optionen in OGL hast.

Ailuros
2003-09-22, 14:03:32
Original geschrieben von Gast
noch dazu siehts nicht wirklich toll aus....manche firmen bieten besseres 4xAA als dieses 8x :D

GFFX
8xAA = 4*2

R3xx
4xAA = 4*4
6xAA = 6*6

John Porno
2003-09-22, 16:17:51
[QUOTE][SIZE=1]Original geschrieben von mapel110
du solltest wissen, dass es noch andere einstellungen neben 8XAA gibt. bei nvidia macht fast generell nur 2xAA sinn. eventuell noch 4xAA. mehr aber nicht.

für AF solltest du eigentlich immer genug leistung übrig haben.
zur not würd ich auf performanceAF zurückgreifen.

zu den spielen:
bei jedi academy solltest du "dynamisches leuchten" ausschalten. selbst bei einer radeon 9800 zieht das leistung ohne ende und hab ähnliche frameraten wie du.



Hallo!

Ich frage mich ernsthaft, woran das problem mit dem dynamischen leuchten liegen soll. Ich haben wenn alles an mache auser AA und AF ca 40 bis 50 fps (auch die Schatten auf volumen).Ich habe ca. 75 bis 120 fps (dynamisches leuchten an, 1024 Auflösungung und alles an auser Schatten).

Mein Rechner


Xp 2600
Abit NF7-s
Corsair Twinx 2*512 2700LL XMS
120 Gb WD
Ati Radeon 8500 BBA

Marseille
2003-09-22, 16:50:46
Hallo!

Ich hab leider nicht soviel Ahnung wie ihr! Deshalb weiss ich auch nicht mit welcher Einstellung man einen Benchmark durchführt.
Deshalb bin ich ja in dieses Forum, in der Hoffnung das man mir hilft.
Bin auch jedem dankbar der sich mir und meinem Problem annimmt.
Vielleicht ist sie auch gar nicht so schlecht, bin halt von den vielen negativ Berichten verwirrt.
Wenn mir meine alte Grafikkarte nicht kaputt gegangen wäre, hätte ich noch mit dem kauf einer neuen gewartet.
Ist schon ein scheiß Leben!
Nochmal Danke an alle die mir versuchen zu helfen!

Gruß Marseille

Keel
2003-09-22, 17:07:57
@ Marseille

Dein Thread kann nur einen Grund verfolgen:

Entweder, 1.) du willst lediglich etwas rumflamen oder 2.) du hast dich schon ewig nicht mehr mit HW beschäftigt.
Ich vermute mal 2., ich will ja nicht immer gleich schlechte Absichten dahinter vermuten...

1.) Bitte wer testet ernsthaft mit 8xAA?? Es sieht praktisch überhaupt nicht besser aus als 4xAA. Bei NV macht meiner Meinung nach eh nur bis 2xAA Sinn, denn 4xAA ist da kaum besser, zumindest brauch man nicht höher als 4x zu gehen.
Gilt generell für alle deine Ergebnisse. Deine Werte sind überall zu niedrig, meist weil du unsinnigerweise mit 8xAA gebencht hast.

2.) Texturschärfung kannst du ausmachen, das egalisiert sich nämlich durch AF.

3.) Der 3D Quark Wert scheint in Ordnung, jedoch hast du da GARANTIERT nicht deine oben erwähnten Einstellungen verwendet. :p

4.) JK3-Performance: Neben dem erwähnten Punkt 1.) kommt noch hinzu, dass du dynamic lighnting deaktivieren solltest. Es sieht eh nicht dolle aus und außerdem kostet es extrem an Performance, auch bei aktuellen Radeon-Karten!

5.) TRAoD ist eh nur ein großer Bug. Es ist bekannt, dass dieses Spiel besonders den FX-Karten schwer zu schaffen macht.

6.) Jedoch ist deine letztendliche Aussage doch mehr oder weniger zutreffend: mit einer Radeon 9800 Pro wärst du wohl besser gefahren, sowohl billiger als auch schneller. Du hättest dich vorher besser informieren sollen. Trotzdem ist eine FX5900 U keine schlechte Karte, hauptsächlich deine unsinnigen Testmethoden lassen die Karte schlechter dastehen, als sie es eigentlich ist.

Marseille
2003-09-22, 17:12:56
@Keel

Danke für die Tips. Hab vom Benchmarken echt keine Ahnung! Kann es sein das 3DMark 03 sich selbst den Treiber einstellt?

Gruß Marseille

DrumDub
2003-09-22, 17:14:25
Original geschrieben von Marseille
@Keel

Danke für die Tips. Hab vom Benchmarken echt keine Ahnung! Kann es sein das 3DMark 03 sich selbst den Treiber einstellt?

Gruß Marseille

jupp.

aths
2003-09-22, 19:48:47
Original geschrieben von Ailuros
GFFX
8xAA = 4*2

R3xx
4xAA = 4*4
6xAA = 6*6 Beim Deto50 ist 8x jetzt scheinbar durchgehend 8xS (war früher nur in OpenGL so) mit einer EER von 4*4.

Ailuros
2003-09-22, 19:56:18
Original geschrieben von aths
Beim Deto50 ist 8x jetzt scheinbar durchgehend 8xS (war früher nur in OpenGL so) mit einer EER von 4*4.

Noch schlimmer da 4xOGMS mit 4xOGSS ausgetauscht wird und die effektive Fuellrate auf 1/4 reduziert (im Gegenteil zu 1/2 von 2xOGSS). Der EER ist selbstverstaendlich besser aber der Preis ist viel zu hoch dafuer.

Gast
2003-09-22, 20:05:23
Original geschrieben von Gast
Versteh das als warnung!
Ich möchte nicht das noch andere den Fehler machen und viel Geld ausgeben für Schrott!

Gruß Marseille

P.S.

NVIDIA verrecke!!!

UPSSSSSSSS ist unser Cheffe blind oder warum ist dieser Thread noch nicht geschlossen.

Unverschämtheit!

Gast
2003-09-22, 20:10:23
[QUOTE][SIZE=1]Original geschrieben von Keel
@ Marseille

4.) JK3-Performance: Neben dem erwähnten Punkt 1.) kommt noch hinzu, dass du dynamic lighnting deaktivieren solltest. Es sieht eh nicht dolle aus und außerdem kostet es extrem an Performance, auch bei aktuellen Radeon-Karten!


Zita Ende *g* 3*fg* setzen !

Deine Ausage hinsichtlich Performanceeinbruch stimmt nicht!

Bei der aktuellen Radeon 9600 256MB made by Connect3D tritt dieser Performanceeinbruch bei eingeschalteten "Dynamic Lightning" nicht auf!

Quasar
2003-09-22, 20:15:15
Es ist nicht "dynamic lighting" sondern "dynamic glow".

Keel
2003-09-22, 21:11:16
Original geschrieben von Quasar
Es ist nicht "dynamic lighting" sondern "dynamic glow".

Gnaa, ich verwechsle das andauernd *gg*
Thx! ;)

@ gast

Hat sich dann damit erledigt.

Marseille
2003-09-22, 23:32:49
Hallo!

Ich hab eure Tips mal befolgt und noch ein bißchen am Takt geschraubt.
Komm jetzt mit dem Detonator 45.23 Final auf 6233 3D Marks.
Ich denk das Ergebniss ist ok.
Jetzt weiss ich aber erst recht nicht mehr was von der Grafikkarte halten soll.
Werde sie wohl behalten, weil der Finanziele verlust sonst zu groß wäre.
Hoffentlich kann man HL2 damit ohne Probleme spielen!
Nochmal Danke an alle die mir geholfen haben.

Gruß Marseille

betasilie
2003-09-23, 02:49:10
Original geschrieben von aths
Das mit dem NV40 stimmt, teuer stimmt, schlecht stimmt nicht. Oder nicht ganz. Die DX9-Performance ist sehr schlecht, ja.
Und genau da liegt der Punkt. Wer soviel Geld ausgibt, möchte sicherlich auch die jetzigen/kommenden Top-Games zocken, von denen wohl nicht wenige DX9 nutzen werden und sei es nur zur Passreduzierung.

aths
2003-09-23, 03:44:08
Original geschrieben von betareverse
Und genau da liegt der Punkt. Wer soviel Geld ausgibt, möchte sicherlich auch die jetzigen/kommenden Top-Games zocken, von denen wohl nicht wenige DX9 nutzen werden und sei es nur zur Passreduzierung. Das ist eine Annahme. Von wievielen Titeln, die man in absehbarer Zeit kaufen wird, ist DX9-Support sicher? In Dingen Multitexturing kann man auch mit DX8 viel machen (und ja auch einiges mehr.) Wie lange hält eine Top-Graka üblicherweise? 1 Jahr? Wird der Spielemarkt in einem Jahr von DX9-Titeln dominiert sein? Das bezweifle ich derzeit. "Normale" Spiele werden wohl noch einige Zeit überwiegend auf DX7 setzen. NVs schlappe DX9-Leistung dürfte nur bei Highend-Titeln sichtbar sein, und sofern jene DirectX nutzen. Deshalb sind die FXe nicht unbedingt empfehlenswerter, aber DX9-Leistung als allgemeines Argument sehe ich erst irgendwann 2004 bzw. 2005.

betasilie
2003-09-23, 04:40:12
Original geschrieben von aths
Das ist eine Annahme. Von wievielen Titeln, die man in absehbarer Zeit kaufen wird, ist DX9-Support sicher? In Dingen Multitexturing kann man auch mit DX8 viel machen (und ja auch einiges mehr.) Wie lange hält eine Top-Graka üblicherweise? 1 Jahr? Wird der Spielemarkt in einem Jahr von DX9-Titeln dominiert sein? Das bezweifle ich derzeit. "Normale" Spiele werden wohl noch einige Zeit überwiegend auf DX7 setzen. NVs schlappe DX9-Leistung dürfte nur bei Highend-Titeln sichtbar sein, und sofern jene DirectX nutzen. Deshalb sind die FXe nicht unbedingt empfehlenswerter, aber DX9-Leistung als allgemeines Argument sehe ich erst irgendwann 2004 bzw. 2005.
Du hast recht, dass DX8 schon eine Menge kann, aber ich glaube, dass viele Engineentwickler ihren DX8-Engines gleich einen DX9-Mode spendieren werden, durch die gute Kombinierbarkeit der DX8-Shader und der DX9-Shader. Ob sich das in schöneren Effekten oder mehr Geschwindigkeit bemerkbar macht, wird jeder Titel einzeln zeigen.

Die Games die demnächst mit (optionalen) DX9-Support kommen, werden technisch und in vielen Fällen wohl auch spielerisch die Glanzpunkte der Branche sein, und wenn man diese nur mit erheblichen Abstrichen spielen kann, und lass es dieses Jahr nur noch 3 DX9-Games sein, hat der Käufer einer sau-teuren Highend-Karte ein Problem. ... Ich gebe doch nicht 500€ für die teuerste Gamingkarte der Welt aus und sage mir dann: Ok, dann kann ich die 3 Topspiele nicht mit vielen Details spielen, aber dafür JediAcademy mit 100FPS. ... Wer soviel Geld ausgibt, will doch nicht auf die technolgische Spitze der Spiele verzichten.

Man Kauft sich so eine teure Highend-Karte, um möglichst gut gerüstet zu sein für die Highend-Titel und die ersten kommen halt im Q.4-2003. ;) Ein Teil der Leute ist ja auch gut gerüstet für solche Highend-Spiele, der andere Teil halt nicht.

Wer von diesen Highend-Games nichts wissen will, ist ja auch mit einer GF4Ti-4xxx gut bedient und muss nicht 500€ ausgeben, um dann entäuscht zu sein, dass man doch nur den DX8-mode zocken kann.

HL2 mag für viele nur ein Game zu sein, aber ich halte es durchaus für möglich, dass dieses Spiel (inkl. Mods) und dessen Engine das wichtigste Spiel des Jahres 2004 wird und daher ist es nicht nur einfach ein Spiel. ... Ich kann mich da sicherlich irren, aber imho wird das so kommen. id-Soft wird es imo wirklich schwer haben die DIII-Engine zu verkaufen, da die Konkurrenz in dieser Periode wesentlich stärker ist, als beim letzten Technolgie-Level-Sprung. Abgesehen davon scheinen andere Engines wesentlich flexibler zu sein, als es die id-Engine ist und was ich von den Editoren der HL2-Engine und z.B. der FarCry-Engine gesehen habe deutet vieles auf ein enormes Lizensierungspotenzial hin.

...
Ich will dir auch garnicht wiedersprechen, dass es auch Top-Spiele geben wird, die auf NVs-Karten gut laufen werden, aber für mich wäre es nicht akzeptable, wenn ein Teil der Top-Games miserable laufen würde.

Außerdem sprichst Du von einer Lebenszeit von einem Jahr. Ich gebe dir diesbzgl. im HighEnd-Bereich recht und da ziehst Du dir den Boden deiner Argumentation weg, da danach die jetzt im Q4-2003 gekauften 3D-Karten die Karten sein werden, mit denen die Spiele des nächsten Jahres gut laufen sollten und die Tendenz für Karten der NV3X-Reiche in Bezug auf DX9-Spiele des Jahres 2004 sehen finster aus.

GutsNächtle:nighty:

Ailuros
2003-09-23, 04:58:02
Wie lange hält eine Top-Graka üblicherweise? 1 Jahr?

Einspruch: es gibt genug Leute die sich eine ultra high end GPU kaufen um sie auch laenger als ein Jahr behalten zu koennen; und wenn man nicht zu anspruchsvoll ist haelt eine solche Karte locker zwei Jahre aus. Ergo: man sollte den User selber fragen wie lange er vorhat die Karte zu behalten.

Marseille
2003-09-23, 07:41:23
Ich hatte meinen C64 Drei Jahre und der hatte nicht mal eine Grafikkarte nötig! :chainsaw: Das waren noch Zeiten.

Gast
2003-09-24, 11:12:41
Original geschrieben von Ailuros
Einspruch: es gibt genug Leute die sich eine ultra high end GPU kaufen um sie auch laenger als ein Jahr behalten zu koennen; und wenn man nicht zu anspruchsvoll ist haelt eine solche Karte locker zwei Jahre aus. Ergo: man sollte den User selber fragen wie lange er vorhat die Karte zu behalten.

Des it richtig. Hab meine TI 4600 am 15. Mai letztes AJhr geholt. Und ehrlc gsagt ich bin immer noch voll zufrieden mit dem Teil.