PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : FX 5900 Ultra --> 9800 Pro


Gast
2003-11-23, 22:55:48
Und da die Radeon 9800 Pro's ja wohl sehr wahrscheinlich schneller wie die FX 5900 Ultra unter DX9 sind, würde es sich lohnen, meine aktuelle Graka zu verkaufen und mir dafür eine Radeon 9800 Pro zulege?

Die FX würde ich sicher noch für ~ 350 € loswerden, zudem liegt der Neupreis meiner Karte noch bei mehr als 469 €.
Ne 9800 Pro krieg ich ja auch schon für ~ 330 €..
Hätte auch nix dagegen, mal ATi - Karten zu testen :)

Ich zocke übrigens auch noch viele ältere Games, zudem am liebsten mit Kantenglättung / Anisotropischem Filter, weswegen eine ATi-Karte sich wohl doch lohnen würde..

PS: Ist nur ne Kopie aus ner Mail von mir, aber das Wichtige steht drin ;)
Achja, mein Sys noch:

AMD 2400+ @ 2600+
ASUS A7N8x
2 * 512 MB DDR Infineon

LovesuckZ
2003-11-23, 22:59:14
DX9?
Du meinst die Spiele, die frühsten naechstes jahr kommen?
Oder doch heutige "Must - Have - Games" wie Tomb Raider 6 und Halo?
Der Umstieg lohnt sich nicht, da du einzig besseres AA erhaelst und in einigen DX Games nen bissl schneller wirst, dagegen spricht das schlechtere AF, die nicht gleichbleibende OpenGL Leistung und die fehlenden 128MB Speicher, womit AA in hoeheren Aufloesungen dann sehr an Leistung verliert.
Du solltest die Karte behalten und naechstes Jahr auf die neuen High end Boliden von nvidia oder ATi wechseln, womit du a) bessere Qualitaetsfeatures bekommst und b) eine bessere Geschwindigkeit in DX9 Games.

firewalker2k
2003-11-23, 23:02:49
Hmm.. Ich meine gesamt.

Also sowohl für DX7 un DX8, aber auch noch für DX9.

Dass die 128 MB fehln, sollte ziemlich egal sein, laut vielen Tests.

Un nächstes Jahr schon wieder was neues.. Nee, danke.. Wird zu teuer ^^

LovesuckZ
2003-11-23, 23:07:13
Original geschrieben von firewalker2k
Also sowohl für DX7 un DX8, aber auch noch für DX9.


DX7 sollte egal sein.
Unter DX8 60% Vorteil der Radeon.
Unter DX9 -> hm. Aquanox2 geht an Nvidia, Halo unentschieden und Tomb raider 6 deutlicher Vorteil Radeon.
Nur kommen die wirklichen DX9 Spiele erst in 3 - 4 Monate, daher kann man hier nichts sagen.
Unter OpenGL gewinnt dann die 5900 abhaengig vom Spiel verdammt deutlich bis knapp.
Wie gesagt, bleibe bei der FX, verkaufe sie, wenn die neuen Karten kommen und kaufe dir dann ne.

Mr. Lolman
2003-11-23, 23:11:27
Original geschrieben von LovesuckZ

Unter OpenGL gewinnt dann die 5900 abhaengig vom Spiel verdammt deutlich bis knapp.


Wenn AA/AF zum Einsatz kommen siehts z.T. anders aus...

StefanV
2003-11-23, 23:24:04
Original geschrieben von Gast
Und da die Radeon 9800 Pro's ja wohl sehr wahrscheinlich schneller wie die FX 5900 Ultra unter DX9 sind, würde es sich lohnen, meine aktuelle Graka zu verkaufen und mir dafür eine Radeon 9800 Pro zulege?

Die FX würde ich sicher noch für ~ 350 € loswerden, zudem liegt der Neupreis meiner Karte noch bei mehr als 469 €.
Ne 9800 Pro krieg ich ja auch schon für ~ 330 €..
Hätte auch nix dagegen, mal ATi - Karten zu testen :)

Ich zocke übrigens auch noch viele ältere Games, zudem am liebsten mit Kantenglättung / Anisotropischem Filter, weswegen eine ATi-Karte sich wohl doch lohnen würde..

PS: Ist nur ne Kopie aus ner Mail von mir, aber das Wichtige steht drin ;)
Achja, mein Sys noch:

AMD 2400+ @ 2600+
ASUS A7N8x
2 * 512 MB DDR Infineon

Hm, bist mit deiner FX5900 teilweise unzufrieden??

Wobei, die FSAA Quali der FXs schon nicht wirklich brauchbar ist...

Da du viel mit FSAA spielst, würde ich schon zum Wechsel raten...

Riptor
2003-11-24, 00:26:44
Die R9800 Pro bringt halt ein paar Pluspunkte mehr mit:

+ das bessere AA (bei Karten dieser Preisklasse sollte dies wichtig sein)
+ die schnelleren Shader
+ "kleine" Bauweise
+ relativ leiser Lüfter
+ keine "Performance-Patzer"
+ sehr ausgereifte Treiber
+ HL² Gutschein bei den meisten Karten dabei

- schwacher Linux-Support
- in OpenGL ist die FX5900 meist ein wenig schneller

Hier mal nen Vgl. zwischen FX5950/R9800XT, der jedoch (fast) genauso mit FX5900 Ultra und R9800 Pro aussieht:

Vorteile der FX unter OpenGL (Quake 3 ist IMO nicht mehr "interessant"):

http://www.ixbt.com/video2/images/gffx-29/ss-aaa.png

... wobei dies nicht immer so sein mag, RtCW ist da ne andere Sache:

http://www.ixbt.com/video2/images/gffx-29/w-aaa.png

D3D ist Radeon-Domäne:

http://www.ixbt.com/video2/images/gffx-29/ut-aaa.png

http://www.ixbt.com/video2/images/gffx-29/u2-aa.png

Riptor
2003-11-24, 00:27:55
... und die Shader sprechen eine klare Sprache:

http://www.ixbt.com/video2/images/gffx-29/54.png

http://www.ixbt.com/video2/images/gffx-29/h-a.png

http://www.ixbt.com/video2/images/gffx-29/hl22-aaa.png

... wobei HL² natürlich noch nicht draußen ist, da wird sich wohl noch was tun. Trotzdem bleiben R350/360 vorerst bis zum NV40/R420 (ab Frühjahr 2004) vor den NV35/38 Karten. Erst ab April wird dann neu gemischt. Muss jetzt jeder für sich selbst entscheiden, ob man unbedingt die Karte tauschen will... Wenn du noch viel Geld für die FX5900U bekommst, warum nicht? Musst halt selbst wissen, ob du den Wechsel willst oder ob nicht...

MadManniMan
2003-11-24, 01:56:25
Leute, also ich muß echt mal sagen, daß mich hier schon etwas schockiert, daß mir grad mal was auffällt:

Ihr macht euch irgendwie lächerlich. :|

Ich persönlich würde auch momentan eher die jeweils konkurierende Radeon nehmen (hab ich ja bisher auch :D ), aber ihr wollt tatsächlich einem Besitzer einer 5900U zu nem Wechsel zu ner 98P anraten?
Wenn er einfach nur aus experimentellen Zwecken beides mal gehabt haben will - OK.

Aber das ist hier echt so, als ob ihr jemandem raten würdet, von einer 7500 auf ne 2Ti zu wechseln oder umgekehrt.

Hanebüchen!


*verwirrt ist*

betasilie
2003-11-24, 02:04:54
Also ich würde den Wechsel machen, da Du entweder wenig Verlust machst oder sogar Gewinn.

Der IQ-Unterschied fällt mir beim 4*AA immer sehr deutlich auf, wenn ich bei einem Fraund mit FX zocke.

Die DX9-Games der nächsten Monate werden sicherlich von der 9800Pro profitieren.

@manni
Er sachreibt doch selber, dass ihn der Wechsel nicht kosten würde, daher verstehe ich nicht, wieso Du meckerst, das ihm jemand den Wechsel nahe legt. ... Klar: Wenn ich eine 5900Ultra hätte und 100€ oder mehr für den Wechsel zahlen müsste, würde ich die 5900Ultra auch erstmal behalten.

MadManniMan
2003-11-24, 02:09:18
Original geschrieben von betareverse
@manni
Er sachreibt doch selber, dass ihn der Wechsel nicht kosten würde, daher verstehe ich nicht, wieso Du meckerst, das ihm jemand den Wechsel nahe legt. ... Klar: Wenn ich eine 5900Ultra hätte und 100€ oder mehr für den Wechsel zahlen müsste, würde ich die 5900Ultra auch erstmal behalten.

:freaK:

Dadaa.. das stimmt so n... äh, mome... :w00t:

Da stand doch eben noch, daß er die für 250€ verk... :crazy:

Ich sollte länger mit Kontaktlinsen und weniger mit Brille durch Forum ziehen...

Gast
2003-11-24, 02:11:37
Das sich der Umstieg nicht lohnen würde, kann nur aus einem Munde kommen, der nur lügt ;)

SuckZy ahoi... :D

MadManniMan
2003-11-24, 02:29:06
Original geschrieben von Gast
Das sich der Umstieg nicht lohnen würde, kann nur aus einem Munde kommen, der nur lügt ;)

Pauschalisieren ahoi :wink:

Für mich würde es sich auch lohnen, für viele andere auch. Aber gewiß gibt es genauso viele, die keinen Vorteil daraus zögen, weil sie sich nix aus AA >2*RG machen und schönerem AF den Vorzug geben. (auch 8*Bri sieht 100%ig immernoch besser aus, als 16*AppTri)

betasilie
2003-11-24, 02:45:05
Original geschrieben von MadManniMan
:freaK:

Dadaa.. das stimmt so n... äh, mome... :w00t:

Da stand doch eben noch, daß er die für 250€ verk... :crazy:

Ich sollte länger mit Kontaktlinsen und weniger mit Brille durch Forum ziehen...
;D Hehe, bist Du also weitsichtig. (?)


Original geschrieben von MadManniMan
Für mich würde es sich auch lohnen, für viele andere auch. Aber gewiß gibt es genauso viele, die keinen Vorteil daraus zögen, weil sie sich nix aus AA >2*RG machen und schönerem AF den Vorzug geben. (auch 8*Bri sieht 100%ig immernoch besser aus, als 16*AppTri)
Ack. Das stimmt allerdings. Eine 5900Ultra kann für einige wenige Leute die bessere Wahl sein, wenn sie in Auflösungen von mindestens 1600*1200 zocken, da dort 2*RG meistens ausreicht, und sehr viel Wert auf AF legen.
Preislich, von der AA-Qualität (4*AA und höher) und von der DX9-Performance unterliegt die 5900Ultra der 9800Pro natürlich weiterhin. Daher muss man, wenn man den Durchschnittskäufer gewissenhaft beraten will, meistens eine ATI empfehlen.

Der Gast hat aber irgendwo recht. LS versucht wirklich immer mit Gewalt seine NV-Empfehlung durchzuboxen. ... Mir erscheint das irgendwie zwanghaft, auch wenn er in einigen Punkten isoliert betrachtet nicht unrecht hat.

MadManniMan
2003-11-24, 03:29:44
Original geschrieben von betareverse
;D Hehe, bist Du also weitsichtig. (?)

Nope, kurzsichtig. Die Kontaktlinsen wirken aber trotz gleicher Stärke wie die Brillengläser (je -3.0/-2.5) intensiver, da sie auch etwas die Forum der Äuglein anpassen.[/SIZE][/QUOTE]

Original geschrieben von betareverse
Ack. Das stimmt allerdings. Eine 5900Ultra kann für einige wenige Leute die bessere Wahl sein, wenn sie in Auflösungen von mindestens 1600*1200 zocken, da dort 2*RG meistens ausreicht, und sehr viel Wert auf AF legen.
Preislich, von der AA-Qualität (4*AA und höher) und von der DX9-Performance unterliegt die 5900Ultra der 9800Pro natürlich weiterhin. Daher muss man, wenn man den Durchschnittskäufer gewissenhaft beraten will, meistens eine ATI empfehlen.

Naja, ich warte ehrlich gesagt wirklich darauf, wie gut die Stencil-Shadow Apps so performen. Wenn ich mir SW Galaxies so anschau... mjam!

Aber vor allem will ich auf meinem baldigen 17" TFT (AL1721) mal sehen, wie groß der Unterschied zwischen 2* und 4* RG im Alltag noch ist. Bei 1024 nehm ich ihn bei BF42 kaum wahr, deshalb 2* (tut auch der Performance gut - Ardennenalphablendingwald ahoi!), bei CoD aber stört mich 2* regelrecht. Mal schaun.

Original geschrieben von betareverse
Der Gast hat aber irgendwo recht. LS versucht wirklich immer mit Gewalt seine NV-Empfehlung durchzuboxen. ... Mir erscheint das irgendwie zwanghaft, auch wenn er in einigen Punkten isoliert betrachtet nicht unrecht hat.

Meist: naja, mag stimmen.

In diesem Fall: Quatsch mit Soße. Ich kann keine Falschaussagen in den beiden Posts erkennen und wenn ich ehrlich bin, bin ich auch so jemand, der für nen Wechsel wirklich was spürbares an Argumenten braucht.
Bei meiner Ti200 wars Folgendes: wesentlich höhere Rawpower, nünftiges und performantes AA, nünftiges und performantes AF (wobei nünftig natürlich ein Eingeständnis ist - es geht besser!) sowie DX9.

Einzig Karten vom Schlage einer 595U oder 98XT könnten mich aus der Performancesicht überzeugen...

betasilie
2003-11-24, 06:18:55
Original geschrieben von MadManniMan
Nope, kurzsichtig. Die Kontaktlinsen wirken aber trotz gleicher Stärke wie die Brillengläser (je -3.0/-2.5) intensiver, da sie auch etwas die Forum der Äuglein anpassen.

btw: gleich dem einer EDV-Brille.

Original geschrieben von MadManniMan
Naja, ich warte ehrlich gesagt wirklich darauf, wie gut die Stencil-Shadow Apps so performen. Wenn ich mir SW Galaxies so anschau... mjam!
Das stimmt allerdings. Da bin ich mir auch nicht so sicher, ob die ATI-Karten da so gut performen werden. :kratz2:

Original geschrieben von MadManniMan
Aber vor allem will ich auf meinem baldigen 17" TFT (AL1721) mal sehen, wie groß der Unterschied zwischen 2* und 4* RG im Alltag noch ist. Bei 1024 nehm ich ihn bei BF42 kaum wahr, deshalb 2* (tut auch der Performance gut - Ardennenalphablendingwald ahoi!), bei CoD aber stört mich 2* regelrecht. Mal schaun.

Bei BF reicht 2*AA wirklich miest aus, aber es gibt halt Games, die bei der gleichen Auflösung selbst noch von 6*AA profitieren.

Original geschrieben von MadManniMan
In diesem Fall: Quatsch mit Soße. Ich kann keine Falschaussagen in den beiden Posts erkennen und wenn ich ehrlich bin, bin ich auch so jemand, der für nen Wechsel wirklich was spürbares an Argumenten braucht.
Bei meiner Ti200 wars Folgendes: wesentlich höhere Rawpower, nünftiges und performantes AA, nünftiges und performantes AF (wobei nünftig natürlich ein Eingeständnis ist - es geht besser!) sowie DX9.

Einzig Karten vom Schlage einer 595U oder 98XT könnten mich aus der Performancesicht überzeugen...
Im Falle deiner Ti200 musstest Du ja auch ordentlich investieren, um den Wechsel zu vollziehen. Da will man auch einen ordentlichen Leistungssprung sehen. ... In diesem Fall kann der threadstarter allerdings ohne Aufpreis zu einer imo besseren Alternative wechseln und ggf. verdient er noch dabei. Wieso also von so einer Aktion abraten?

nagus
2003-11-24, 08:13:07
Original geschrieben von LovesuckZ
DX9?
Du meinst die Spiele, die frühsten naechstes jahr kommen?
Oder doch heutige "Must - Have - Games" wie Tomb Raider 6 und Halo?



... und was ist mit yager, HL2 (kommt bald), max payne2, etc...


"spiele die frühestens nächstes jahr kommen".... jaja. träum ruhig weiter Lovedings...

betasilie
2003-11-24, 08:25:47
Original geschrieben von nagus
... und was ist mit yager, HL2 (kommt bald), max payne2, etc...


"spiele die frühestens nächstes jahr kommen".... jaja. träum ruhig weiter Lovedings...
MP2 und Yager sind doch DX8-Games, wobei MP2 ja auch PS1.4 nutzt. :kratz2:

seahawk
2003-11-24, 09:08:51
Hl2 bald - ist ja bald April :D

Radeonator
2003-11-24, 09:24:44
Reine Geldverschwendung!

Die Leistung reicht locker noch aus, also warte bis nächstes Jahr echte neue Generationen rauskommen und schlag dann zu. Alles andere ist Fanboy geschwafel, also bitte auch so wegstreichen...

Gast
2003-11-24, 09:27:16
Original geschrieben von betareverse
MP2 und Yager sind doch DX8-Games, wobei MP2 ja auch PS1.4 nutzt. :kratz2:

Umso mehr wird es Zeit, die DX9 Mähr zu widerlegen, die Radeon ist auch in den meisten DX8 und DX7 Spielen schneller. Die FX gewinnt unter DX nur ein paar der gebräuchlichsten Spiele, und dort auch nur den Standardflyby ("Optimierung" ahoi), Walktroughs sprechen dann meist eine andere Sprache.

the_MAD_one
2003-11-24, 09:44:22
Original geschrieben von betareverse
Bei BF reicht 2*AA wirklich miest aus, aber es gibt halt Games, die bei der gleichen Auflösung selbst noch von 6*AA profitieren.


Yap, z.B. Eve-Online. Bei dem Spiel sieht man selbst in 1280x960 mit 4xAA noch leichte Saegezaehne auf meinem 17" Moni. Erst mit 6xAA sind wirklich alle verschwunden aber mit 6xaa in 1280x960 ist meine r9700 Pro dann noch nicht schnell genug(Es wird spuerbar langsamer).

LovesuckZ
2003-11-24, 09:51:09
Original geschrieben von nagus
... und was ist mit yager, HL2 (kommt bald), max payne2, etc...

Ich hab eine Frage:
Machst du das mit Absicht?


"spiele die frühestens nächstes jahr kommen".... jaja. träum ruhig weiter Lovedings...

Mal sehen, ob ich mit meiner Theorie nicht recht habe. Wenn sie stimmt, bleibt der Post hier weiter bestehen!

nggalai
2003-11-24, 09:54:38
Original geschrieben von nagus
"spiele die frühestens nächstes jahr kommen".... jaja. träum ruhig weiter Lovedings... Kann leider nicht editieren (Board im Arsch), aber:

Bitte solche Beleidigungen unterlassen.

*Punkt vergeb*

93,
-Sascha.rb

Keel
2003-11-24, 10:21:59
Ich würde jetzt auch mal eure Meinung hören wollen, ich bin völlig unschlüssig...
Da war gerade die Entscheidung zugunsten einer R9800np + VGA Silencer gefallen (zusammen 290 Euro), dann sehe ich auf einmal eine Asus FX5900nu für 240 Euro:
http://www.imsuperstore.de/cgi-bin/DE44465921/shop.exe?sid=6679382324218751884765625&file=productdetail.htm&sku=B99Z500&param=B10095&group=A10057&group2=A10057
Wieso ist die so billig? Ist das Bulk? Ne SE? Warum ist eine andere 5900 von Asus auf der gleichen Seite 85 Euro teurer? Kann mir das jemand erklären?

Ach ja, AA + AF sind schön, aber erstmal zweitrangig, ebenso wie die Lautstärke - die neue GraKa soll in den nächsten Wochen rankommen. Diese GraKa soll lange halten, ich werde lange nichts mehr aufrüsten. Daher sind mir Games wie HL2, Stalker, FarCry und auch D3 (auch wenn ich D3 meinetwegen nur low res spiele) wichtig, die Performance bei aktuellen Spielen ist ja ausreichend. Daher muss ich sehr weit voraus planen (zumindest für die eben genannten Spiele).
Also, was soll ich nu machen?:kratz2:

LovesuckZ
2003-11-24, 10:26:49
Original geschrieben von Keel
Wieso ist die so billig? Ist das Bulk? Ne SE? Warum ist eine andere 5900 von Asus auf der gleichen Seite 85 Euro teurer? Kann mir das jemand erklären?

Eine SE, wobei dies kein nachteil ist.

Diese GraKa soll lange halten, ich werde lange nichts mehr aufrüsten. Daher sind mir Games wie HL2, Stalker, FarCry und auch D3 (auch wenn ich D3 meinetwegen nur low res spiele) wichtig[...]

Da die Spiele sowieso frühsten erst im Februar kommen sollen, solltest du bis dahi sparen und auf die naechste High End Karte umsteigen.
Denn was hilft dir jetzt eine 5900SE oder 9800non Pro, wenn diese für deine genannten Spiele zu langsam ist?
Ein Umstieg jetzt für eine langreichende Zukunft macht keinen Sinn.
Der Umstieg lohne sich nur, wenn du eine Übergangskarte haben moechtest und sowieso weißt, du steigst auf die naechsten High End Boliden um.

aths
2003-11-24, 11:11:27
Original geschrieben von betareverse
Bei BF reicht 2*AA wirklich miest aus, aber es gibt halt Games, die bei der gleichen Auflösung selbst noch von 6*AA profitieren.Wo welche AA-Stufe ausreicht, ist imo überwiegend Geschmacksfrage. Beispiel Max Payne (und MP2), das sind schnelle Shooter, aber 2x AA nervt mich zusehends. 4x (RG) wäre mir deutlich lieber.

StefanV
2003-11-24, 11:16:41
@Manni schau dir nochmmal das Initialposting an, hab da mal was markiert:

Original geschrieben von Gast
Und da die Radeon 9800 Pro's ja wohl sehr wahrscheinlich schneller wie die FX 5900 Ultra unter DX9 sind, würde es sich lohnen, meine aktuelle Graka zu verkaufen und mir dafür eine Radeon 9800 Pro zulege?

Die FX würde ich sicher noch für ~ 350 € loswerden, zudem liegt der Neupreis meiner Karte noch bei mehr als 469 €.
Ne 9800 Pro krieg ich ja auch schon für ~ 330 €..
Hätte auch nix dagegen, mal ATi - Karten zu testen :)

Ich zocke übrigens auch noch viele ältere Games, zudem am liebsten mit Kantenglättung / Anisotropischem Filter, weswegen eine ATi-Karte sich wohl doch lohnen würde..

PS: Ist nur ne Kopie aus ner Mail von mir, aber das Wichtige steht drin ;)
Achja, mein Sys noch:

AMD 2400+ @ 2600+
ASUS A7N8x
2 * 512 MB DDR Infineon

Wenn man wirklich viel mit FSAA spielt und wirklich FSAA mag und braucht, dann sehe ich nicht, warum man nicht wechseln sollte...

Das FSAA war ja auch mit ein Grund, warum ich mir nach der 9700 noch eine 'High End Radeon' gekauft hab, da die FX5800 nicht wirklich für FSAA zu gebrauchen ist, Treppchen ahoi...

Zwischen dem 2x SSMSAA der FX und dem 4x SSMSAA der Radeon ist schon ein Meilenweiter unterschied...

Wobei der Nutzen von FSAA auch auf die Kontrastunterschiede der Kanten abhängt -> wenn sie sehr groß sind (z.B. FluSi/Weltraum Sim, IMO auch Racing Games), dann macht FSAA auch mehr sinn als wenn die Kontrastübergänge nicht wirklich groß sind...

Gast
2003-11-24, 11:20:05
Immer mehr Spiele werden Nvidia optimiert sein. (Doom3, Painkiller, Stalker...). Dagegen steht Ati mit Tomb Raider(*g*)Tron und dem ach so tollen Half Life, was einerseits laut neueren Messungen schon gleich auf mit der FX liegt und zudem wohl erst Ende 2004 erscheint (laut Gamestar)
Also: FX behalten!

reunion
2003-11-24, 13:33:52
Original geschrieben von Radeonator
Reine Geldverschwendung!

Die Leistung reicht locker noch aus, also warte bis nächstes Jahr echte neue Generationen rauskommen und schlag dann zu. Alles andere ist Fanboy geschwafel, also bitte auch so wegstreichen...

Reine Geldverschwendung :bonk:
Wer lesen kann ist klar im Vorteil ;)
Er hat geschrieben das er die FX5900 um 350€ verkaufen kann und eine 9800pro um 320€ bekommt....

Also sogar Geld gewonnen und schnellere Karte eingesackt :D

reunion
2003-11-24, 13:37:46
Original geschrieben von Gast
Immer mehr Spiele werden Nvidia optimiert sein. (Doom3, Painkiller, Stalker...). Dagegen steht Ati mit Tomb Raider(*g*)Tron und dem ach so tollen Half Life, was einerseits laut neueren Messungen schon gleich auf mit der FX liegt und zudem wohl erst Ende 2004 erscheint (laut Gamestar)
Also: FX behalten!

1.)Gamestar :bonk: Wenn du das mit den 60% Prozent erhöhte PS2.0 Leistung durch DX9.1 meinst...

2.)Nur das selbst auf NV Hardware optimierte Spiele auf ATI Karten genausogut, wenn nicht besser laufen wie z.b.: TR:AOD( ist ein NV TWIMTBP-Spiel !!!!) sowie Halo wo NV selbst die Shader schreiben durfte,...

seahawk
2003-11-24, 13:42:07
Ich sag mal so, wenn es Dich kein Geld kostet und Du AA Junkie bist, dann mach es.

Wenn Du draufzahlem mußt, lass es und warte lieber die nächste Generation ab.

StefanV
2003-11-24, 13:55:14
Original geschrieben von Gast
Immer mehr Spiele werden Nvidia optimiert sein. (Doom3, Painkiller, Stalker...). Dagegen steht Ati mit Tomb Raider(*g*)Tron und dem ach so tollen Half Life, was einerseits laut neueren Messungen schon gleich auf mit der FX liegt und zudem wohl erst Ende 2004 erscheint (laut Gamestar)
Also: FX behalten!

1. aufm Papier oder hat man als nV User auch was davon??
Das SPiel 'Tomb Raider - Angel of Darkness' ist 'leider' im TWIMTBP Programm von nVidia, ergo nV Optimiert.

2. Doom3 ist AFAIK noch ganz weit weg, die anderen beiden AFAIK auch.
Wenn D3 erscheint, dann sprechen wir hier sicher nichtmehr über nV3x und R3x0...

3. HL2 kommt AFAIK gegen Anfang nächstne Jahres, wobei das originale HL auch nicht wirklich soo gut war, verglichen mit den MOds wie z.B. CS...

4. *aua* :police: Gamestar :police:

5. hast du sein Eingangsposting gelesen??
Bzw mein Quote davon??
Ich entnahm dem Posting, daß er gern mit FSAA spielt, was bei der FX nur mit 2x wirklich möglich ist, da 4x nicht wirklich besser ausschaut.
Bei der Radeon hingegen schauts mit 4x RGMSAA deutlich besser aus als mit 2x, noch dazu ists Gammakorrigiert...

Gast
2003-11-24, 14:07:13
universelle Wahrheiten für alle die es Glauben wollen:

TWIMTBP = nVidia optimiert
HALO = Für FX optimierte Shader

Für die Ungläubigen gibt es keine Universellen Wahrheiten.

Viel Spass bei der Suche nach den waren Hintergründen.

LovesuckZ
2003-11-24, 14:10:51
Original geschrieben von Gast
Viel Spass bei der Suche nach den waren Hintergründen.

Wir brauchen nicht suchen, wir haben demirug :)

Riptor
2003-11-24, 14:16:44
Original geschrieben von Radeonator
Reine Geldverschwendung!

Warum, wenn er doch "theoretisch" anscheinend Geld dabei verdient? :naughty: ;)

IMO ists mir ja egal, er hat ja nur gefragt, ob es sich lohnen würde, wenn er auch keinen finanziellen Verlust machen würde. Und wenn das so ist und er ihn ein Wechsel NICHT stört, warum nicht? :) Ich mein, ich würds nicht tun, mir ist das zuviel Gestresse, aber wenn man Bock dazu hat, spricht eigentlich kaum was dagegen... :) Muss er halt selbst entscheiden, ob er das will, ausmachen scheint es ihm anscheinend aber nicht... ;)

LovesuckZ
2003-11-24, 14:16:57
Original geschrieben von Gast
Die FX würde ich sicher noch für ~ 350 € loswerden, zudem liegt der Neupreis meiner Karte noch bei mehr als 469 €.


Ich habe es übersehen:
Du wirst kaum noch 350€ für deine gebrauchte Karte bekommen. Leadtek hat den Preis ihrer 5900U deutlich gesenkt (unverbindlich 399€ -> Laden 350€). Wenn du noch 300€ bekommst, ist dann schon als kleines Wunder anzusehen.

Endorphine
2003-11-24, 14:21:24
Original geschrieben von Mr. Lolman
Wenn AA/AF zum Einsatz kommen siehts z.T. anders aus... Richtig. Bei älteren Spielen ist die GeForce im Vorteil, da sie Supersampling bietet. Und mit AF sowieso.

Gast
2003-11-24, 14:58:04
Ich würds machen, schon allein weil die Radeons z.Z. einfach problemloser sind, Treiber sind auch auf hohen Niveau und sie leisten sich bei keinem Spiel irgendwelche Patzer. Während die Geforce mal ganz schnell nur noch halb soviele Frames hat wenn das Spiel nicht Mainstream ist.

Also wenn man dabei keinen grossen Verlust macht schon aus Interesse mal wechseln.

Keel
2003-11-24, 15:27:24
Original geschrieben von LovesuckZ
Eine SE, wobei dies kein nachteil ist.
Danke. Aber wie kommst du darauf, steht das da? Obwohl es der Preis natürlich suggeriert, wird die Karte bei geizhals als normale NU geführt, die SE-Karten haben ihre eigene Sparte...
Original geschrieben von LovesuckZ
Da die Spiele sowieso frühsten erst im Februar kommen sollen, solltest du bis dahi sparen und auf die naechste High End Karte umsteigen.
Hmm, wäre theroetisch möglich, werde ich wohl aber kaum machen. Ich müsste mir eine High-End Karte kaufen, weil wohl nur die einen AGP-to-PCI Express Adapter haben werden. Aber das künftige High End dürfte für mich zu teuer werden.
Original geschrieben von LovesuckZ
Denn was hilft dir jetzt eine 5900SE oder 9800non Pro, wenn diese für deine genannten Spiele zu langsam ist?
Ein Umstieg jetzt für eine langreichende Zukunft macht keinen Sinn.
Der Umstieg lohne sich nur, wenn du eine Übergangskarte haben moechtest und sowieso weißt, du steigst auf die naechsten High End Boliden um.
Keine Übergangskarte. Der Rechner muss nun so lange halten, wie es geht. Ich bin eh bald mit der Schule fertig, dann kommt Bund, ich werde wohl von daher dann eh nicht mehr so viel Zeit haben. Nächstes Jahr Febr./März ist mir zu lange hin, außerdem habe ich über Weihnachten Zeit, das System gleich komplett neu zu installieren.
Die Benches, die ich bisher gesehen habe, reichen mir eigentlich. Sowohl HL2 als auch D3 erschienen mir mit heutiger HW weitgehend spielbar, auf ein paar kleinere Details kann ich verzichten und super-dickes AA und AF ist auch keine Pflicht, eher ein Goodie.

Ach, einfach in Kurz: GraKa muss jetzt ran. Sie sollte dabei möglichst gut für die genannten Spiele sein. Punkt.

Keel
2003-11-24, 15:27:52
Nochmal an alle, ich hätte noch eine andere wichtige Frage!
Hier ein Auszug aus einer Mail zwischen mir und dem Epox-Support (mein Mobo-Hersteller):
Frage 1. Sind Ihnen Kompatibilitätsprobleme mit meinem Board (8k3a+ -> KT333) und ATI Radeon 9800 Karten bekannt? (Wenn ja, welche?)
Die Stromaufnahme auf dem AGP Port wäre für das Board zu hoch
(...)
Frage 4. Sind bestimmte BIOS-Einstellungen nötig? (ATI-Karten sollen angeblich nur mit 32 MB AGP aperture stabil laufen)
abzuraten wegen der Stromaufnahme - wobei Ihre Info korrekt ist

Meint der mit erstens nicht etwa, dass ein externer Anschluss nötig ist? Das ist bei einer NV-Karte doch nicht anders. Oder was meint der? Will der mir nur eine NV-Karte aufschwatzen oder könnte das tatsächlich sein? Ich meine, es laufen auch KT266er mit aktuellen Radeons...

LovesuckZ
2003-11-24, 15:40:26
Original geschrieben von Keel
Ach, einfach in Kurz: GraKa muss jetzt ran. Sie sollte dabei möglichst gut für die genannten Spiele sein. Punkt.

HL2 und Doom3 werden auf einer 5900SE oder 9800non Pro je nach Spiel laufen.
Nur wie soll man jetzt auf zukünftige Spiele dir eine Antwort geben?
Da eine Asus 5900SE 30€ billiger ist, sollte man sich diese kaufen.
Wie gesagt, wenn du schon vorhast eine 9800non pro zu kaufen, tue es, da man dich sowieso davon nicht mehr abhalten koenne :)

betasilie
2003-11-24, 15:58:49
Original geschrieben von Gast
Umso mehr wird es Zeit, die DX9 Mähr zu widerlegen, die Radeon ist auch in den meisten DX8 und DX7 Spielen schneller. Die FX gewinnt unter DX nur ein paar der gebräuchlichsten Spiele, und dort auch nur den Standardflyby ("Optimierung" ahoi), Walktroughs sprechen dann meist eine andere Sprache.
Das stimmt allerdings. :up: Auch die Minimumframerate ist bei der 9800Pro meist um einiges höher bei allen Arten von Spielen, was extrem wichtig ist. Da setzt sich die 9800Pro oft richtig von der 5900Ultra ab.

betasilie
2003-11-24, 16:02:01
Original geschrieben von aths
Wo welche AA-Stufe ausreicht, ist imo überwiegend Geschmacksfrage. Beispiel Max Payne (und MP2), das sind schnelle Shooter, aber 2x AA nervt mich zusehends. 4x (RG) wäre mir deutlich lieber.
MaxPayne sieht mit 6*AA (SG) auch richtig gut aus ;) und bei diesem Game ist der Sprung von 4* auf 6* auch noch sehbar in 1280*x, ...und richtig spielbar.

Keel
2003-11-24, 16:02:04
Original geschrieben von LovesuckZ
HL2 und Doom3 werden auf einer 5900SE oder 9800non Pro je nach Spiel laufen.
Nur wie soll man jetzt auf zukünftige Spiele dir eine Antwort geben?
Da eine Asus 5900SE 30€ billiger ist, sollte man sich diese kaufen.
Wie gesagt, wenn du schon vorhast eine 9800non pro zu kaufen, tue es, da man dich sowieso davon nicht mehr abhalten koenne :)
Oh doch, ich lasse durchaus mit mir reden. Mir ist das eigentlich Schnuppe - nö, obwohl, aus Gewohnheit würd ich wohl lieber bei NV bleiben.

Aber viel wichtiger: Kann nicht mal einer meine letzte Frage beantworten? (Anfang der 3. Seite)

betasilie
2003-11-24, 16:05:07
Original geschrieben von Keel
Frage 4. Sind bestimmte BIOS-Einstellungen nötig? (ATI-Karten sollen angeblich nur mit 32 MB AGP aperture stabil laufen)
abzuraten wegen der Stromaufnahme - wobei Ihre Info korrekt ist

Alles Quatsch. Meine Karte läuft mit 128MB AGB-Aperturesize scon seit einem Jahr. ... Bei Boards mit SISs735 könnte es ggf. auftretendes Stuttering verhinder, wenn Du den AGP-As auf 32MB stellst, was aber afaik auch nicht mehr nötig sein soll.

StefanV
2003-11-24, 16:14:44
Original geschrieben von Keel
Nochmal an alle, ich hätte noch eine andere wichtige Frage!
Hier ein Auszug aus einer Mail zwischen mir und dem Epox-Support (mein Mobo-Hersteller):
Frage 1. Sind Ihnen Kompatibilitätsprobleme mit meinem Board (8k3a+ -> KT333) und ATI Radeon 9800 Karten bekannt? (Wenn ja, welche?)
Die Stromaufnahme auf dem AGP Port wäre für das Board zu hoch
(...)
Frage 4. Sind bestimmte BIOS-Einstellungen nötig? (ATI-Karten sollen angeblich nur mit 32 MB AGP aperture stabil laufen)
abzuraten wegen der Stromaufnahme - wobei Ihre Info korrekt ist

Meint der mit erstens nicht etwa, dass ein externer Anschluss nötig ist? Das ist bei einer NV-Karte doch nicht anders. Oder was meint der? Will der mir nur eine NV-Karte aufschwatzen oder könnte das tatsächlich sein? Ich meine, es laufen auch KT266er mit aktuellen Radeons...

Ehrlich gesagt würd ich jener EPox Mail nicht wirklich Glauben schenken, da die Radeons sich hauptsächlich aus dem NT versorgen...

Keel
2003-11-24, 16:39:38
Original geschrieben von Stefan Payne
Ehrlich gesagt würd ich jener EPox Mail nicht wirklich Glauben schenken, da die Radeons sich hauptsächlich aus dem NT versorgen...
Nach meiner Rückfrage:

Hallo,
da ich die Bergrenzung bei Ihrem Board auf dem AGP Port kenne und hier im
Haus nur sehr stabil mit NFORCE basierenden Karten zum Laufen brachte - kann
ich nur nochmals drauf hinweisen - keine ATI zu verwenden.
Mit freundlichen Grüßen
Auch wenn er angeblich aus Erfahrung spricht, hört sich das irgendwie eher nach Blödsinn an...

"NFORCE"-Karten? Hat NV sich jetzt in NFORCE umbenannt? Hmm, dann hab ich atm wohl ne NFORCE 4 Ti 4200...

reunion
2003-11-24, 16:44:30
Original geschrieben von Endorphine
Richtig. Bei älteren Spielen ist die GeForce im Vorteil, da sie Supersampling bietet. Und mit AF sowieso.

Allerdings auch nur bei der Texturqualität dank des SSAA( das ja bekanntlich Alpha Texturen glättet) bei der reinen Kantenglättung ist das SS auch kein stück besser als das MSAA...

Quasar
2003-11-24, 20:28:34
Original geschrieben von Keel
Nach meiner Rückfrage:

Hallo,
da ich die Bergrenzung bei Ihrem Board auf dem AGP Port kenne und hier im
Haus nur sehr stabil mit NFORCE basierenden Karten zum Laufen brachte - kann
ich nur nochmals drauf hinweisen - keine ATI zu verwenden.
Mit freundlichen Grüßen
Auch wenn er angeblich aus Erfahrung spricht, hört sich das irgendwie eher nach Blödsinn an...

"NFORCE"-Karten? Hat NV sich jetzt in NFORCE umbenannt? Hmm, dann hab ich atm wohl ne NFORCE 4 Ti 4200...

Das klingt in der Tat sehr nach Blödsinn (oder nach Problem VOR dem Monitor) und nach einem Makel im ansonsten guten Ruf des Epox-Supports.

Gast
2003-11-24, 20:35:48
Original geschrieben von Gast
Und da die Radeon 9800 Pro's ja wohl sehr wahrscheinlich schneller wie die FX 5900 Ultra unter DX9 sind, würde es sich lohnen, meine aktuelle Graka zu verkaufen und mir dafür eine Radeon 9800 Pro zulege?

Die FX würde ich sicher noch für ~ 350 € loswerden, zudem liegt der Neupreis meiner Karte noch bei mehr als 469 €.
Ne 9800 Pro krieg ich ja auch schon für ~ 330 €..
Hätte auch nix dagegen, mal ATi - Karten zu testen :)

Ich zocke übrigens auch noch viele ältere Games, zudem am liebsten mit Kantenglättung / Anisotropischem Filter, weswegen eine ATi-Karte sich wohl doch lohnen würde..

PS: Ist nur ne Kopie aus ner Mail von mir, aber das Wichtige steht drin ;)
Achja, mein Sys noch:

AMD 2400+ @ 2600+
ASUS A7N8x
2 * 512 MB DDR Infineon


Hi Gast,

mein Tip: Mach den Deal und verkaufe für 350€.
Wir wissen alle das die derzeitige FX basierend auf NV30/31 (immer noch :o )keine Leistungsschübe unter DX9 zukünftig liefern wird. Die nächste nv-Generation wird bestimmt wieder besser und dann will keiner deine alte FX mehr haben.

Kaufe dir jetzt für 199€ eine 9600XT 256MB und spare die 150€ für die kommenden Karten von ATi und nv..

Gast
2003-11-24, 20:40:27
Original geschrieben von Stefan Payne
Ehrlich gesagt würd ich jener EPox Mail nicht wirklich Glauben schenken, da die Radeons sich hauptsächlich aus dem NT versorgen...

Stimme ich 100% zu, wenn mehr hier in diesem Forum soviel WEITSICHT hätten wie Herr Payne, dann würden sich auch mehr kompetente Leute hier anmelden.

Gast
2003-11-24, 20:42:19
Original geschrieben von Gast
Hi Gast,

mein Tip: Mach den Deal und verkaufe für 350€.
Wir wissen alle das die derzeitige FX basierend auf NV30/31 (immer noch :o )keine Leistungsschübe unter DX9 zukünftig liefern wird. Die nächste nv-Generation wird bestimmt wieder besser und dann will keiner deine alte FX mehr haben.

Kaufe dir jetzt für 199€ eine 9600XT 256MB und spare die 150€ für die kommenden Karten von ATi und nv..


oder eine Hercules AIW9800SE 128MB mit allem Schnick Schnack für 199€ bei Amazoooon.de

knallebumm
2003-11-24, 21:04:27
Laut Cpu-liste von Epox geht auch kein Barton auf dem 8k3a+. Tatsächlich funktionieren die bei rev.1.2 bis mind. zum 2800+ einwandfrei.

Man muss sich auf solche Statements also nicht unbedingt verlassen.

Keel
2003-11-24, 21:43:13
Original geschrieben von Quasar
Das klingt in der Tat sehr nach Blödsinn (oder nach Problem VOR dem Monitor)[...]
Genau dieser Gedanke kam mir ebenfalls.
Original geschrieben von Quasar
[...]und nach einem Makel im ansonsten guten Ruf des Epox-Supports.
Hmm, zumindest war er so freundlich, mir gleich awdflash (ok, nicht schwer zu kriegen), eine Anleitung zum BIOS flashen (auch leicht zu kriegen) und die neueste BIOS-Version für mein Mobo geschickt, von welcher ich noch nicht einmal etwas gehört habe. Das dürfte aber daran liegen, dass für mein Board die Seite nicht mehr aktualisiert wird...
Original geschrieben von handyman
Laut Cpu-liste von Epox geht auch kein Barton auf dem 8k3a+. Tatsächlich funktionieren die bei rev.1.2 bis mind. zum 2800+ einwandfrei.

Man muss sich auf solche Statements also nicht unbedingt verlassen.
Hmm, afaik läuft auch kein Barton auf dem Board. Den 2800+ gibt's auch als T-Bred, von daher sollte ein 2800+ (t-bred; 2,25 GHz) auch funzen. Aber ich habe für das Board noch keine BIOS-Version mit nem 13,5er Multi gesehen... 2700+ sollte aber 100%ig funzen (da T-Bred mit 13er Multi).

Keel
2003-11-24, 21:44:18
Ach Mist, editieren geht ja nicht...

@ handyman

Du hast nicht zufällig eine aktuelle ATI-Karte auf deinem Board, oder?

MikBach
2003-11-24, 21:47:30
Original geschrieben von Gast
Kaufe dir jetzt für 199€ eine 9600XT 256MB
256MB auf einer midrange-Karte, alles klar.

knallebumm
2003-11-24, 22:08:50
Original geschrieben von Keel
Ach Mist, editieren geht ja nicht...

@ handyman

Du hast nicht zufällig eine aktuelle ATI-Karte auf deinem Board, oder?

Dann hätte ich mit einer entsprechenden Antwort geglänzt.

knallebumm
2003-11-24, 22:11:19
http://www.aoaforums.com/forum/showthread.php?t=18544&page=1&highlight=8k3a%2B+barton

Gehört hier nicht rein, aber der Barton funzt. (post 8)

Könnte mir gut vorstellen, daß epox aufgrund der Partnerschaft mit Nvidia grundsätzlich nvidia boards empfiehlt.

firewalker2k
2003-11-29, 12:55:58
Leute.. Ihr seid Off-Topic.. Es geht um ein ganz anderes Thema :(

robbitop
2003-11-29, 15:14:17
also für ältere Games ist 4xs/8xs ein echter segen, denn hier wird viel mit Alphatexturen gearbeitet (auch bei Mafia oder Mechwarrior4)...das kostet kaum Geschwindigkeit bei alten Games, sieht aber spürbar besser aus.

Aussdem will ich mal jmd sehen, der im Spiel 4xS von 4xRG unterscheiden kann...mit einer Lupe vieleicht...aber Nachteil: es kostet eben performance

zu den achso schlimmen "nVIDIA Shader Optimierungen" sage ich nur: "unsinn imo"
die Optimierungen für die Pixelshader der CineFX Architektur sind absolut notwendig um die maximal Performance aus dieser Architektur zu holen

Kirk sagte mal Folgendes "Die NV3x ist schnell und präzise. Unglücklicherweise beides nicht unbedingt gleichzeitig.."
Die NV3x Architektur ist komplexer und anders ausgelegt. Um Shader-feintuning zu betreiben, kostet es den Programmierer sicher einiges an Know How und Arbeit und genau deswegen hilft nVIDIA hier verstärkt -> damit man eben alles aus der NV3x herrausholen kann. Das hilft und wird bei immer mehr Spielen gemacht. Und der R3xx Architektur schadet das nicht. Somit sind solche völlig utopischen Ergebnisse wie TR AoD/HL2 Vergangenheit. Dort hat man nicht vernünftig optimiert. Die NV3x arbeitet hier wie eine CPU und die Programmierer unter uns wissen, wie wichtig eine gute Compilierung für die Performance ist. Für R3xx kann man Shader nicht mehr so optimieren, weil es eben von der Architektur bereits rund läuft.

Man könnte einen Vergleich zur CPU ziehen. Die R3xx ist wie ein Athlon...schnell ohne Optimierungen. Die FX Architektur ist wie die Netburst Archiektur, neuer wird sicherlich ständig verbessert(NV30->NV35 wie Willy->NW->Prescott->Tejas...), braucht allerdings Optimierungen um sich zu entfalten (zB SSE/2/SMT). So wurde das ganze geplant (ok man hat durch die Verspätung von "cg" einiges verpatzt, was man nun durch Dev Support nachholt)..also warum darüber schimpfen??

Ich denke zukünftig sollten alle DX9 Spiele auf den FXen ähnlich gut wie auf den Radeons laufen, denn der Dev Support scheint gut zu funktionieren.
Wäre auch schlimm wenn eine teure FX bereits ein paar Monate später für die Tonne ist.
Also bloss keine Panikmache :)

zu MaxPayne2: das Performt sogar auf unserer FX5700 astronomisch gut

AchtBit
2003-11-29, 15:22:35
Original geschrieben von LovesuckZ
Ich habe es übersehen:
Du wirst kaum noch 350€ für deine gebrauchte Karte bekommen. Leadtek hat den Preis ihrer 5900U deutlich gesenkt (unverbindlich 399€ -> Laden 350€). Wenn du noch 300€ bekommst, ist dann schon als kleines Wunder anzusehen.

Genau so isses. Hab meine fuer 350.- Retail inkl. bekommen. 350 wird Dir niemand bieten wollen.

Gast
2003-11-29, 15:27:20
habe mich für die radeon entschieden, danke für alle :)

Mr. Lolman
2003-11-29, 15:41:11
Original geschrieben von robbitop
zu MaxPayne2: das Performt sogar auf unserer FX5700 astronomisch gut

Alles relativ, wenn man bedenkt, dass eine 9600XT schon auf FX5950 Niveau läuft...

MPII läuft demnach viel besser als Halo, aber astronomisch gut würd ich sagen, läufts nur auf Radeons (eine unOCte 64MB Radeon 9500 schafft sogar in 1024x768, 4xAA/16xAF äusserst hohe fps...)



Und im Zweifelsfall ists mir lieber zu wissen, dass das Spiel gleich auf Anhieb super läuft, und ich nicht erst auf einen Treiber von NV warten muss.

Dass der integrierte Shadercompiler anscheinend noch ziemlich limitiert ist, zeigte ja neuerlich NVs Cheataktion im 3dmark0....*

TRAOD ist ein NV-TWIMTBP Spiel (Nvidia -the way its meant to be played), und wenn da NV nicht optimierte, würden mir schon Zweifel kommen, ob ich überhaupt was auf das TWIMTBP geben soll, wenn die ATis bei solchen Spielen die FXen verblasen...


Bei MPII hat man anscheinend auch nicht vernünftig optimiert - Die Ergebnisse sind auch kenieswegs utopisch.

Warum man dann eine Karte eines Herstellers nutzen soll, der den Spielefirmen zwar fleissig Kohle für TWIMTBP Logos in den A... schiebt, diese Spiele** dann die Treiber nicht vernünftig auf die Spiele optimiert (daran, dass die HW einfach an ihren Grenzen sein könnte, wollen wir ja ml garnicht denken), kann mir auch nur ein nicht ganz neutraler Forenkollega erklären...




*aber auf einen neuen Wundertreiber warten bringt m.E. nix, der 50er Deto ist endlich heraussen, und was der gebracht at wissen wir ohnehin..

** in OpenGl schauts ja nicht anders aus. Bei manchen alten Spielen ist NV noch ein paar Prozent NV, bei neuen wie RTCW ET oder COD sind die ATis bei hohen Auflösungen mit AA/AF ~30% schneller.

robbitop
2003-11-29, 16:13:24
Max Payne 2 lief auf unser FX5700 mit 4xS und 4xAF bei 1024 smooth ...also >40FPS WORSTCASE

Mit unserer 5900 immer extrem flüssig

Tomb Raider wurde zwar mit cg beliefert und es können die Shader neu damit kompiliert werden doch nutzte man, wie Demirug bereits sagte, dies falsch.

Der Shadercompiler bringt einiges aber der Deto50 ist kein Wundertreiber (ein Blick auf deine Signatur lässt meine Diskussionsfreudigkeit allerdings wirklich sehr schwinden..)
Utopie ist für mich wenn gewisse Leute immer wieder auf sehr seltsame unwirkliche Benches von TR AoD zeigen und meinen eine Midrangekarte von Hersteller X sei ebenbürtig mit EntusiastKarte von Hersteller Y. Aber ok. Die Ergebnisse haben ihre Gründe.

Zum "Cheaten": Ich kann es einfach nicht mehr hören.
Es bestand kein Verlust an BQ beim neuen Treiber. Man hat den Shadercode lediglich wieder umgestelt. Das macht man inzwischen bei vielen neuen Games und das ist wie ich bereits sagte notwendig um die NV3x Architektur auszuschöpfen und bei keinem Verlust an BQ kann ich darum nicht verstehen wieso da einige Leute schimpfen.
Eine Shaderoptimierung würde der Radeon wie obn gesagt nicht wirklich etwas bringen aber der NV3x braucht es aufgrund seiner Architektur aber bei Futuremark ist man ja so verkrampft darauf, dass nichts geändert werden soll...ist aber notwendig um die FX auszuschöpfen (sorry wegen der Redundanz)

LovesuckZ
2003-11-29, 16:21:00
Vorweg: Ich hab mir nur aus neugierde dein posting angeguckt und weiß, warum ich dich nicht ernst nehme und deswegen du auf meiner Ignore Liste stehst!


Original geschrieben von Mr. Lolman
Alles relativ, wenn man bedenkt, dass eine 9600XT schon auf FX5950 Niveau läuft...

Ich hab mir deine "Quelle" angeguckt. Und komisch, dass Hardocp auf vollkommen andere Werte kommt sowie die PCG. Da du die ganze Zeit nur auf einen Test dich beziehst, ist es ein leichtes, deine Argumentation auszuhebeln.

Und im Zweifelsfall ists mir lieber zu wissen, dass das Spiel gleich auf Anhieb super läuft, und ich nicht erst auf einen Treiber von NV warten muss.

Also die XGI treiber sollen auch noch nicht so gut sein, von welcher Grafikkarte sprichst du also jetzt?

Dass der integrierte Shadercompiler anscheinend noch ziemlich limitiert ist, zeigte ja neuerlich NVs Cheataktion im 3dmark0....*
*aber auf einen neuen Wundertreiber warten bringt m.E. nix, der 50er Deto ist endlich heraussen, und was der gebracht at wissen wir ohnehin..

60% in DX9 Applications sind in TR6 und Halo nachgewiesen, dazu die bessere Leistungs in den ATi DX9 Demos und noch die bessere 2D Qualitaet bzw. Eigenschaften des Treibers.

TRAOD ist ein NV-TWIMTBP Spiel (Nvidia -the way its meant to be played), und wenn da NV nicht optimierte, würden mir schon Zweifel kommen, ob ich überhaupt was auf das TWIMTBP geben soll, wenn die ATis bei solchen Spielen die FXen verblasen...

Du solltest dir erstmal im klaren sein, was TWIMTBP bedeutet. Siehe dazu auch das Interview in der PCG.

** in OpenGl schauts ja nicht anders aus. Bei manchen alten Spielen ist NV noch ein paar Prozent NV, bei neuen wie RTCW ET oder COD sind die ATis bei hohen Auflösungen mit AA/AF ~30% schneller.

Abgesehen davon, dass die ATi Karten in Star Wars: Knight of the old Replubic nicht gut performen (Spieleforum) und die "Softshadows (PCGames)" nicht darstellen, solltest du deine Thesen doch bitte per Argumente stuetzen. Ich tue es für dich mal:
Call of Duty (http://www.nvnews.net/previews/geforce_fx_5950_ultra/page_4.shtml)
RtCW - Computerbase1 (http://www.computerbase.de/article.php?id=291&page=10#rtcw_enemy_territory), Computerbase 2 (http://www.computerbase.de/article.php?id=285&page=15#rtcw_enemy_territory), Anandtech.com (http://www.anandtech.com/video/showdoc.html?i=1896&p=55) und Tomshware.de (http://www.tomshardware.de/graphic/20031023/nvidia-nv38-nv36-28.html)
Jedi Knight Acadamy: Anandtech.com (http://www.anandtech.com/video/showdoc.html?i=1896&p=25), Nordichhardware (http://www.nordichardware.com/reviews/graphiccard/2003/Leadtek5950/index.php?ez=7) und Neoseeker (irgendwie down...)

reunion
2003-11-29, 16:37:39
Original geschrieben von robbitop
Max Payne 2 lief auf unser FX5700 mit 4xS und 4xAF bei 1024 smooth ...also >40FPS WORSTCASE

Läuft auf meiner über ein Jahr alten 9700pro mit 1280x1024 plus 6xAA und 16xfulltri AF mit ca. 80fps in jeder Szene absolut flüssig...

Mit unserer 5900 immer extrem flüssig

Mit einer 9600pro um 150€ noch flüssiger ;)

Tomb Raider wurde zwar mit cg beliefert und es können die Shader neu damit kompiliert werden doch nutzte man, wie Demirug bereits sagte, dies falsch.

Der Shadercompiler bringt einiges aber der Deto50 ist kein Wundertreiber (ein Blick auf deine Signatur lässt meine Diskussionsfreudigkeit allerdings wirklich sehr schwinden..)
Utopie ist für mich wenn gewisse Leute immer wieder auf sehr seltsame unwirkliche Benches von TR AoD zeigen und meinen eine Midrangekarte von Hersteller X sei ebenbürtig mit EntusiastKarte von Hersteller Y. Aber ok. Die Ergebnisse haben ihre Gründe.

Nur gibts es neben TR:AOD auch noch Battlefield, Warcraft III, Enclave, Max Payne II, Unreal II, Aquamark III, 3dmark03(ohne Cheats),... bei denen eine FX5K9U mit einer 9600pro zu kämpfen hat!

Zum "Cheaten": Ich kann es einfach nicht mehr hören.
Es bestand kein Verlust an BQ beim neuen Treiber.[...]

Achso und die tatsache das NV damit keine tri Texturfilterung mehr anbietet und AF nur auf der primären Texturstage wirklich so filtert wie man es einstellt und sonst auf allen anderen texturstages nur 2x filtert ist auch keine verschlechterung der Bildqualität???

Mr. Lolman
2003-11-29, 16:45:49
Original geschrieben von LovesuckZ
Vorweg: Ich hab mir nur aus neugierde dein posting angeguckt und weiß, warum ich dich nicht ernst nehme und deswegen du auf meiner Ignore Liste stehst!


Mensch dann ignorerier es einfach. Du schaffst es wirklich, hinter jedem deiner Antwortposts einen (tw. versteckten) persönlichen Angriff zu platzieren.


Ich hab mir deine "Quelle" angeguckt. Und komisch, dass Hardocp auf vollkommen andere Werte kommt sowie die PCG. Da du die ganze Zeit nur auf einen Test dich beziehst, ist es ein leichtes, deine Argumentation auszuhebeln.


Achso, meine Quelle ist fürn Arsch, aber deine (auch nicht bestätigten) NVNews Tests sind valid, oder wie soll ich das verstehen?


Also die XGI treiber sollen auch noch nicht so gut sein, von welcher Grafikkarte sprichst du also jetzt?



XGI. hä? Ich merk nur, dass NV im GGs zu ATi, immerwieder Treiber nachliefern muss, dass neue PS Spiele nicht ganz so grottig laufen...


60% in DX9 Applications sind in TR6 und Halo nachgewiesen, dazu die bessere Leistungs in den ATi DX9 Demos und noch die bessere 2D Qualitaet bzw. Eigenschaften des Treibers.


Die 60% bringt kein neuer Wundertreiber, dass hätte schon der Detos 50 schaffen sollen (steht doch so in den release notes vom offiziellen) Und falls ers gebracht hat, ist es doch mehr als erbärmlich wenn man immernoch deutlich abgeschlagen ist, bzw. trotz der Shader aus eigenem Hause maximal mit ATi gleichziehen kann.


Du solltest dir erstmal im klaren sein, was TWIMTBP bedeutet. Siehe dazu auch das Interview in der PCG.


Das Blatt les ich nicht. Was bedeutets denn? Ich dachte TWIMTBP Spiele laufen auf NV Karten bestmöglich (demnach besser als auf ATis, wenn man davon ausgeht, dass die NV HW der ATi HW überlegen ist, was du ja machst)


Abgesehen davon, dass die ATi Karten in Star Wars: Knight of the old Replubic nicht gut performen (Spieleforum) und die "Softshadows (PCGames)" nicht darstellen, solltest du deine Thesen doch bitte per Argumente stuetzen. Ich tue es für dich mal:
Call of Duty (http://www.nvnews.net/previews/geforce_fx_5950_ultra/page_4.shtml)



Firingsquad bekommt andere Ergebnisse... Wecher Website würdest du eher Unvoreingenommenheit zutrauen: "ATi Tests", oder "GPU Reviews"....


RtCW - Computerbase1 (http://www.computerbase.de/article.php?id=291&page=10#rtcw_enemy_territory), Computerbase 2 (http://www.computerbase.de/article.php?id=285&page=15#rtcw_enemy_territory), Anandtech.com (http://www.anandtech.com/video/showdoc.html?i=1896&p=55) und Tomshware.de (http://www.tomshardware.de/graphic/20031023/nvidia-nv38-nv36-28.html)
Jedi Knight Acadamy: Anandtech.com (http://www.anandtech.com/video/showdoc.html?i=1896&p=25), Nordichhardware (http://www.nordichardware.com/reviews/graphiccard/2003/Leadtek5950/index.php?ez=7) und Neoseeker (irgendwie down...)


Was haben wir da:

"Computerbase" - Wer die Artikel schreibt wissen wir.

"THG" - Ist das dein Ernst?

"Anandtech" - trau ich auch schon nichtmehr übern Weg.


Ich könnte jetzt auch GamePC Reviews raussuchen, aber die Bestätigung meiner Aussagen findest du auch bei digit-life, HardOCP (obwohl denen traust du ja auch nicht, oder?), oder TechTV (ganz neu, gestern in den News verlinkt)



@Gast: Lies dir min. 10 verlinkte Reviews, von der 3dCenter Hauptseite durch. Das sollte reichen um sich einen Eindruck zu verschaffen.



BTW: Ich denke, du hast mich nur auf der Ignorelist, um deine eigenen Unzulänglichkeiten zu kaschieren. Wirklich ignorieren kannst du mich sowieso nicht, dazu juckt dich das Blut des NV Rächers zu sehr in den Fingern. Wenn du es doch fertig bringen würdest, wär ich dir nur dankbar.

Mr. Lolman
2003-11-29, 17:02:32
Original geschrieben von robbitop
Max Payne 2 lief auf unser FX5700 mit 4xS und 4xAF bei 1024 smooth ...also >40FPS WORSTCASE

Mit unserer 5900 immer extrem flüssig


Ja wie gesagt, auf einer halb so teueren 64MB 9500 läuft das Spiel in 4xAA/16xpAF (oder 4xqAF) genauso flüssig.



Tomb Raider wurde zwar mit cg beliefert und es können die Shader neu damit kompiliert werden doch nutzte man, wie Demirug bereits sagte, dies falsch.

Selbst schuld. Bei einem TWIMTBP Spiel sollte das nicht passieren


Der Shadercompiler bringt einiges aber der Deto50 ist kein Wundertreiber (ein Blick auf deine Signatur lässt meine Diskussionsfreudigkeit allerdings wirklich sehr schwinden..)

Hab den Spruch mit dem 50er Deto nur drinnen, weil die Frage, ob bei 100°C ein Hitzeproblem vorherrscht etwas lächerlich ist...


Utopie ist für mich wenn gewisse Leute immer wieder auf sehr seltsame unwirkliche Benches von TR AoD zeigen und meinen eine Midrangekarte von Hersteller X sei ebenbürtig mit EntusiastKarte von Hersteller Y. Aber ok. Die Ergebnisse haben ihre Gründe.

In deinen Augen wär das eher Distopie, aber egal.

Die Benches sind nur so unwirklich weil die FXen so abgeschlagen hinter den ATis liegen. Dass die Ergebnisse mit der RW Performance in TRAOD übereinstimmen steht ausser Frage.

Es ist halt nur ein Beispiel. Genau wie:

Tron 2.0
MP2
Enclave
SC4
NOLF2
GTA VC
COD (hohe Aufl. m AA/AF)
FS2004 (obwohl ich da schon sehr unterschiedl. ERgebnisse gesehen hab)

...gibt sicher noch mehr Spiele, in denen ein merkbarer (~30%) Leistungsunterschied zw. ATi und FXen sind. Überraschenderweise v.A. in denen, die kaum gebencht werden, was auch auf eine einseitige Opimierung seitens NV schliessen lässt...


Zum "Cheaten": Ich kann es einfach nicht mehr hören.
Es bestand kein Verlust an BQ beim neuen Treiber. Man hat den Shadercode lediglich wieder umgestelt. Das macht man inzwischen bei vielen neuen Games und das ist wie ich bereits sagte notwendig um die NV3x Architektur auszuschöpfen und bei keinem Verlust an BQ kann ich darum nicht verstehen wieso da einige Leute schimpfen.
Eine Shaderoptimierung würde der Radeon wie obn gesagt nicht wirklich etwas bringen aber der NV3x braucht es aufgrund seiner Architektur aber bei Futuremark ist man ja so verkrampft darauf, dass nichts geändert werden soll...ist aber notwendig um die FX auszuschöpfen (sorry wegen der Redundanz)

Kein BQ Verlust is schon ok. Aber das ein paar bits im Shader geändert werden, und schon ist das Ganze um einiges langsamer, lässt darauf schliessen, dass Nv weiterhin fleissig optimieren muss, da der Shadercompiler noch nicht perfekt funzt.

Und dabei hab ich mich noch nichteinmal aufgeregt, dass App. spezifische Optimierungen in einem Benchmark eigentlich nichts zu suchen haben, da die Diskrepanz zw. RW Performance und theoretische Benchmarkperf. immer grösser wird.

Und über so ein Pfusch wie Sceneclipping usw. will ich mich jetzt garnicht unterhalten, da diese Massnahmen allerhöchsten bei immer gleichablaufenden Zwischensequenzen fruchten können.

[dzp]Viper
2003-11-29, 17:15:29
Boah hier wird wieder geflamed was das zeug hält... bekommt ihr es eigentlich nicht mit? Und es sind IMMER die selben personen die über das SELBE thema flamen :|


P.S. Sorry für den Spam - aber ich konnte nicht anders als das jetzt mal hinzuschreiben.....

Gast
2003-11-29, 17:30:40
Original geschrieben von Mr. Lolman


Die Benches sind nur so unwirklich weil die FXen so abgeschlagen hinter den ATis liegen. Dass die Ergebnisse mit der RW Performance in TRAOD übereinstimmen steht ausser Frage.

Es ist halt nur ein Beispiel. Genau wie:

Tron 2.0
MP2
Enclave
SC4
NOLF2
GTA VC
COD (hohe Aufl. m AA/AF)
FS2004 (obwohl ich da schon sehr unterschiedl. ERgebnisse gesehen hab)

...gibt sicher noch mehr Spiele, in denen ein merkbarer (~30%) Leistungsunterschied zw. ATi und FXen sind. Überraschenderweise v.A. in denen, die kaum gebencht werden, was auch auf eine einseitige Opimierung seitens NV schliessen lässt...


...
[/SIZE]


Wobei man noch anmerken muss dass an der schlechten Leistung oft nicht irgendwelche Shader schuld sind sondern Nvidia prinzipiell die Texturen sichten und für ihre Filterung indizieren muss um in Games konkurenzfähige Leistung zu erhalten.

Und dabei ist scheinbar nur Zeit für die Top5 der Verkaufscharts.

LovesuckZ
2003-11-29, 18:04:58
Original geschrieben von Mr. Lolman
Achso, meine Quelle ist fürn Arsch, aber deine (auch nicht bestätigten) NVNews Tests sind valid, oder wie soll ich das verstehen?

Der Unterschied ist, ich gehe nicht mit den Werten von NVNews hausieren. Und da mir bei Firingsquad die Werte der 5700U stoeren bzw. ich sie für gefaked halte, sollte man diesem Review nicht soviel Beachtung schenken.

XGI. hä? Ich merk nur, dass NV im GGs zu ATi, immerwieder Treiber nachliefern muss, dass neue PS Spiele nicht ganz so grottig laufen...

Welche Spiele sind es denn, die dank dem 52.16 deutlich schneller laufen und keine PS2.0 benutzen? Das Nvidia in DX8 Games und vorallem beim Einsatz von AF so viel Leistung verliert ist für sie tragisch, doch hier von "Treiber nachliefern" zu reden, ist wie bei jedem deiner "Nvidia bash" gaenzlich falsch.

Die 60% bringt kein neuer Wundertreiber, dass hätte schon der Detos 50 schaffen sollen (steht doch so in den release notes vom offiziellen)

:???:

Und falls ers gebracht hat, ist es doch mehr als erbärmlich wenn man immernoch deutlich abgeschlagen ist, bzw. trotz der Shader aus eigenem Hause maximal mit ATi gleichziehen kann.

1. Erbaermlich ist auch ATi's OpenGL Leistung.
2. Hier liegt ein großes Problem vieler Menschene, die zu sehr fanatisch sind (ja, dazu zaehle ich mich auch): Sie koennen nicht richtig lesen, wenn es gegen eine "geliebte" Sache geht. Demirug hat es in einem Thread gesagt, dass die von Nvidia geschrieben Halo PS2.0 Shader mit dem PS2.0 Profil compiliert wurden und auch eine ATi konforme Struktur aufweisen. Das die Shader durchgaengig einen _pp Hint haben und Nvidia deswegen gleich auf mit Ati ist, hat nie jemand beanstandet...

Das Blatt les ich nicht. Was bedeutets denn? Ich dachte TWIMTBP Spiele laufen auf NV Karten bestmöglich (demnach besser als auf ATis, wenn man davon ausgeht, dass die NV HW der ATi HW überlegen ist, was du ja machst)


Naechstes Problem: Wir geben anderen eine Meinung, die sie nicht haben.
Zu TWIMTBP: Jens Neuschäfer: "Es geht hier [beim TWIMTBP Programm] um Zuverlässigkeit, Stabilitaet und Kompartibilitaet". Ausserdem sagt er, dass man nicht vorhabe die ATi konkurenz zu "sabortieren".

Firingsquad bekommt andere Ergebnisse... Wecher Website würdest du eher Unvoreingenommenheit zutrauen: "ATi Tests", oder "GPU Reviews"....

Versteh ich nicht. Ich habe deine Max Payne2 und deine OpenGL Werte mit anderen Test widerlegt. Ob ich diesen Test glaube, steht nicht zur Debatte.

aber die Bestätigung meiner Aussagen [...] TechTV (ganz neu, gestern in den News verlinkt)

Wenn 4 reviews eine andere Aussage treffen als du und deine These deutlich den Boden wegziehen, dann glaubst du deiner Quelle? Willst du das mit diesen Satz zum Ausdruck bringen?
Ich warte immer noch auf die Widerlegung meiner Argumente (Werte zu den OpenGL und Max Payne2) Spielen. Das was du geschrieben hast ist viel, leider keine Versuch meine Argumentationsweise (die ja von vielen als "laecherlich" einstuft werde) zu durchbrechen und zu widerlegen.

/edit: Ich sehe es schon kommen, dass du wie Nagus umherlaufen werdest und die Max Payne2 und CoD Werte immer und immer bringst, trotz der Widerlegung.

/edit: Versteh mich nicht falsch, die Werte von dem Review koennen stimmen, doch finde ich es laecherlich, dass du penetrant diese Werte als "richtig" verbreitest.

robbitop
2003-11-29, 18:09:23
@reunion
ab dem 52.70 ist die Stagesoptimierung aufgehoben.
Und brilinear ist für D3D abschaltbar für OGL erzwungen..aber ehrlich gesagt sehe ich keine Bugwellen und in Tron2 ist es ein bug im spiel, dass Trilinear generell Bilinear ist, soweit ich das mitbekommen habe.

@Lolman
"Distopie"
wieder was dazugelernt :)


@Viper
ja leider ist unser Forum im Gegensatz zu anderen Eliteforen (beyond3d zB) in dieser Hinsicht wirklich suboptimal. Einfach "überlesen" bei Bedarf..

reunion
2003-11-29, 19:00:33
Original geschrieben von robbitop
@reunion
ab dem 52.70 ist die Stagesoptimierung aufgehoben.
Und brilinear ist für D3D abschaltbar für OGL erzwungen..aber ehrlich gesagt sehe ich keine Bugwellen und in Tron2 ist es ein bug im spiel, dass Trilinear generell Bilinear ist, soweit ich das mitbekommen habe.


Ist ja toll das mit einem inoffitiellen Beta-Treiber ein paar Cheats wieder rausgenommen wurde, doch wenn ich auf www.nvidia.com schaue dann sehe ich nur den 52.16er der diese Cheats besitzt...

Denn als damals der 51.75er Treiber rauskam war ja auch immer die ausrede der NV Fraktion das das ja kein offizieller Treiber sei.

robbitop
2003-11-29, 19:08:10
ok ich glaub dazu sag ich lieber gar nix mehr...

Mr. Lolman
2003-11-29, 19:38:00
Ich sag da auch nichts mehr. In dem Thread gibts nun genügend Argumente beider Seiten, so dass der unvoreingenommene TI zu einem Ergebniss kommt.

Momentmal. Er hat sich ja schon für eine Radeon entschieden....




@LS: Glaub nicht, dass ich keine Argumente mehr hab, ich wollte nur nicht wieder mit dieser Khorintenkackerei anfangen, und jeden Satz 3x wiederholen, bevor er so verstanden wird wie es beabsichtigt war

(Bsp. COD und RTCW brachte ich um zu zeigen, dass die ATIs in OpenGL nicht den NVs mehr hinterherstinken, sondern tw. je nach App. vorne zu finden sind. Du bringst einen Benchmark von Jedi Knight in dem die FX 10% vorne ist, um mir das Gegenteil zu zeigen??)

Ausserdem, hast du meine Reviews widerlegt? Heisst das, das meine falsch, und deine korrekt sind, oder sind beide falsch, oder was jetzt....??? Ist das digit-life Review jetzt auch nicht mehr valid, obwohl du selbst mit dem hausieren gegangen bist?


@robbitop:

Wars nicht so, dass bri für OpenGL abschaltbar war und für d3d erzwungen?? Und das "abschaltbare" äussert sich doch dahingehend, dass auch die Möglichkeit AF zu aktivieren abgeschalten wird, oder nicht...

Gast
2003-11-29, 19:51:25
Original geschrieben von robbitop
ok ich glaub dazu sag ich lieber gar nix mehr...
ist auch besser so, da reunion recht hat!

LovesuckZ
2003-11-29, 19:55:33
Original geschrieben von Mr. Lolman
@LS: Glaub nicht, dass ich keine Argumente mehr hab[...]

Wo sind sie dann? Wenn du doch im Recht seist, warum überzeugst du mich mit Argumenten nicht?
Und wenn man eine Diskussion als "Khorintenkackerei" bezeichnet, so solltest du dich doch aus dem Diskussionsforum zurueckziehen.

(Bsp. COD und RTCW brachte ich um zu zeigen, dass die ATIs in OpenGL nicht den NVs mehr hinterherstinken, sondern tw. je nach App. vorne zu finden sind.

Nein, du hast von "neuen" OpenGL Spielen wie CoD und RTCW ET geredet und gesagt, dass die Radeon 30% schneller waere mit AA/AF. Ich habe dies anhand anderen Werten (und bei ET sogar mit 3 unterschiedlichsten Tests!) widerlegt.
Nun haeslt du den Ball, leider scheinst du nicht dadran interessiert zu sein weiter deine These zu stuetzen.

Du bringst einen Benchmark von Jedi Knight in dem die FX 10% vorne ist, um mir das Gegenteil zu zeigen??)

Errinerst du dich nicht an deine Behauptung?

Ausserdem, hast du meine Reviews widerlegt? Heisst das, das meine falsch, und deine korrekt sind, oder sind beide falsch, oder was jetzt....???

Du hast doch die Werte von Max Payne2, CoD und RTCW ET als "wahr" deklariert indem du sie dauernd wiederholst. Ich habe nichts anderes gemacht als andere Werte von anderen Reviews von anderen Seiten aufgezeigt.

nggalai
2003-11-29, 19:59:27
Original geschrieben von Mr. Lolman
Ich sag da auch nichts mehr. In dem Thread gibts nun genügend Argumente beider Seiten, so dass der unvoreingenommene TI zu einem Ergebniss kommt.

Momentmal. Er hat sich ja schon für eine Radeon entschieden....
Genau. Und deshalb ist der Thread jetzt dich.

93,
-Sascha.rb