PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche Graka würdet ihr nehmen?


Gast
2003-12-02, 02:11:38
Nachdem ich mich nun durchgelesen habe entweder ...


Asus V9950-TD 128MB, GF-FX5900, DDR, DVI, TVout, retail
319,90 €

oder

ATi Radeon 9800 Pro 128MB, DDR, DVI, TVout, retail
339,90 €

Welche würdet ihr nehmen !

Einsatzzweck. Ab und zu mal zocken = Gelegenheitsspieler!

thx

Quasar
2003-12-02, 02:35:23
*lol*

Als Gelegenheitsspieler würde ich keine von beiden nehmen, weil sie sich die meiste Zeit nur im AGP-Slot langweilen würden, sondern eher was aus der Mid-Range (FX5700u, R9600XT).

Aber das wolltest du sicherlich nicht hören, oder?

Von den beiden, die du zur Wahl gestellt hast, würde ich wohl die 9800 Pro nehmen (Wobei es allerdings beide Karten in einer ähnliche leistungsfähigen Version für deutlich weniger Penunsen gibt: FX5900 SE und R9800 non-pro)

Szilard
2003-12-02, 02:50:19
Schon wieder ein Gast :freak:

Schau:
da (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=108291)
da (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=106781)
da (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=105707)
da (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=104848)

:o

mapel110
2003-12-02, 06:29:51
Original geschrieben von Szilard
Schon wieder ein Gast :freak:

Schau:
da (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=108291)
da (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=106781)
da (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=105707)
da (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=104848)

:o

:up:
sollte genügend lesestoff für dieses thema sein :)
ansonsten full ack @Quasar, zb ne 9600 XT für 160 € wäre für einen gelegenheitsspieler die bessere wahl.

nagus
2003-12-02, 08:12:51
immer die gleichen fragen... wo es dich so einfach ist!

im mid- und high-end bereich geht nichts über ATi. im low-end bereich kann nvidia noch gut mit relativ günstigen GF4 aufwarten.

kauf dir am besten eine 9800NP oder radeon 9600xt

StefanV
2003-12-02, 09:42:04
Original geschrieben von Gast
Nachdem ich mich nun durchgelesen habe entweder ...


Asus V9950-TD 128MB, GF-FX5900, DDR, DVI, TVout, retail
319,90 €

oder

ATi Radeon 9800 Pro 128MB, DDR, DVI, TVout, retail
339,90 €

Welche würdet ihr nehmen !

Einsatzzweck. Ab und zu mal zocken = Gelegenheitsspieler!

thx

1. von den beiden eher die 9800, da die 9800 Gesamt gesehen 'etwas' besser ist.

2. hm, _DAS_ ist schlecht...
Da du nur ein Gelegenheitsspieler bist, machen obige Karten wiederrm keinen Sinn.
Persönlich würd ich die Radeon 9600 PRO/XT (bei ersterer auf den Speichertakt achten, welcher bei einigen Modellen auch mal bei 200MHz anstatt der üblichen 300MHz liegt), welche ein sehr gutes 3DLeistungs/Verlustleistungs Verhältnis besitzt.

Radeonator
2003-12-02, 09:53:29
immer die gleichen Fragen... wo es doch so einfach ist!

im mid- und high-end bereich geht nichts über Nvidia. im low-end bereich kann ATi noch gut mit relativ günstigen 9000/9100/9200er aufwarten.

kauf dir am besten eine 5900SE oder FX5700

;D

DrumDub
2003-12-02, 11:38:42
Original geschrieben von Radeonator
immer die gleichen Fragen... wo es doch so einfach ist!

im mid- und high-end bereich geht nichts über Nvidia. im low-end bereich kann ATi noch gut mit relativ günstigen 9000/9100/9200er aufwarten.

kauf dir am besten eine 5900SE oder FX5700

;D

hier haben wir die antwort, wie man den spieß umdreht, so dass es unsinnig wird. :|

Hamster
2003-12-02, 11:45:25
oder anders gesagt:

soviel nehmen sich die karten (heute! und tr6 spielt ja wohl wirkoich keiner :D) nun auch nicht, da sollte man nach aa (ati) oder af (nvidia) entscheiden.

Exxtreme
2003-12-02, 11:48:34
Original geschrieben von Gast
Nachdem ich mich nun durchgelesen habe entweder ...


Asus V9950-TD 128MB, GF-FX5900, DDR, DVI, TVout, retail
319,90 €

oder

ATi Radeon 9800 Pro 128MB, DDR, DVI, TVout, retail
339,90 €

Welche würdet ihr nehmen !

Einsatzzweck. Ab und zu mal zocken = Gelegenheitsspieler!

thx
Also als Gelegenheitsspieler würde ich mir sowas nicht kaufen. Für ca. 160€ gibt es eine R9600XT. Für Gelegenheitsspieler reicht das dicke und gutes Preis-/Leistungsverhältnis bietet das Teil auch.

DrumDub
2003-12-02, 11:53:30
Original geschrieben von Hamster
oder anders gesagt:

soviel nehmen sich die karten (heute! und tr6 spielt ja wohl wirkoich keiner :D) nun auch nicht, da sollte man nach aa (ati) oder af (nvidia) entscheiden.

af? das macht doch keiner von beiden mehr richtig... (außer man greift zu gf4) ;)

Radeonator
2003-12-02, 12:17:30
Original geschrieben von DrumDub
hier haben wir die antwort, wie man den spieß umdreht, so dass es unsinnig wird. :|

Wohl eher die Persiflage auf Fanboy Sülze ;)

Die 5700er ist größtenteils schneller, die 5900SE gleichwertig , deshalb ist es die qual der Wahl. Die paar Frames die eigentlich inerhalb einer Meßtolerants liegen, zählen bei euch doch wohl net wirklich als "schneller" oder ??? (p.s.: Ansonsten würde ich denken das ihr alle thg goil finden würdet ;) )

nagus
2003-12-02, 12:21:54
Original geschrieben von Radeonator
immer die gleichen Fragen... wo es doch so einfach ist!

im mid- und high-end bereich geht nichts über Nvidia. im low-end bereich kann ATi noch gut mit relativ günstigen 9000/9100/9200er aufwarten.

kauf dir am besten eine 5900SE oder FX5700

;D

ich möchte dir ja nicht deinen "spaß" verderben... aber die billigste 5900SE kostet 300euro und eine radeon 9800NP kostet ~ 260EURO.

bei der 5700ultra und 9600xt schauts im übrigen ähnlich aus. 5700ultra ~ 190euro, 9600xt 160 euro.

die fxn sind nur was für "fans"

Hamster
2003-12-02, 12:36:15
Original geschrieben von nagus
ich möchte dir ja nicht deinen "spaß" verderben... aber die billigste 5900SE kostet 300euro und eine radeon 9800NP kostet ~ 260EURO.

bei der 5700ultra und 9600xt schauts im übrigen ähnlich aus. 5700ultra ~ 190euro, 9600xt 160 euro.

die fxn sind nur was für "fans"

:|

ASUS AGP-V9950 TD, GeForceFX 5900, 128MB DDR, DVI, TV-out, AGP 230.50euro.:|
:|

Ulrich
2003-12-02, 12:44:43
Original geschrieben von Hamster
:|

ASUS AGP-V9950 TD, GeForceFX 5900, 128MB DDR, DVI, TV-out, AGP 230.50euro.:|
:|

V9950-TD 128MB, GF-FX5900, DDR, DVI, TVout, bulk
244,90 €
300 Mhz GPU

V9950-TD 128MB, GF-FX5900, DDR, DVI, TVout, retail
319,90 €
400 Mhz GPU

- belehrt mich wenns nicht stimmt ! Schimpfen sich beide gleich - nur im GPU Takt unterscheiden sie sich !

Hamster
2003-12-02, 12:47:48
damit könntest du recht haben.


nehem wir halt ein anderes modell:

Creative 3D Blaster5 FX5900, GeForceFX 5900, 128MB DDR, DVI, TV-out, AGP gleicher preis.

SamLombardo
2003-12-02, 13:35:27
Original geschrieben von Hamster
:|

ASUS AGP-V9950 TD, GeForceFX 5900, 128MB DDR, DVI, TV-out, AGP 230.50euro.:|
:|

...und ist damit imho momentan die Karte mit dem besten Preis Leistungsverhältnis.

Sam

DrumDub
2003-12-02, 13:42:28
Original geschrieben von SamLombardo
...und ist damit imho momentan die Karte mit dem besten Preis Leistungsverhältnis.

Sam

mit 300mhz gpu-takt?

DrumDub
2003-12-02, 13:45:42
Original geschrieben von Radeonator
Wohl eher die Persiflage auf Fanboy Sülze ;)

ja, so hab ichs auch verstanden.

Die 5700er ist größtenteils schneller, die 5900SE gleichwertig , deshalb ist es die qual der Wahl.

als was?

die 5700ultra lass ich gegen die 9600xt gelten, aber gegen ne 9800np????

aths
2003-12-02, 14:17:38
Original geschrieben von nagus
ich möchte dir ja nicht deinen "spaß" verderben... aber die billigste 5900SE kostet 300euro und eine radeon 9800NP kostet ~ 260EURO.

bei der 5700ultra und 9600xt schauts im übrigen ähnlich aus. 5700ultra ~ 190euro, 9600xt 160 euro.

die fxn sind nur was für "fans" Sehe ich eigentlich nicht so. Imo hat NV seit 5700 und 5900 endlich wieder konkurrenzfähige Hardware. Soweit ich weiß, ist die 5700 U der 9600 XT i. A. z. B. leicht überlegen. Würde mich angesichts der Speicherbandbreite auch nicht wundern. (14,4 GB/s vs. 9,6 GB/s.)

Was 5700 und natürlich 5900 angeht, könnte man einerseits sagen, in Zukunft-Engines à la HL2 stünde man mit der Radeon besser da. Dafür sind bei der anderen großen neuen Engine, Doom3, die Vorteile wohl eher auf Seiten der NV35-basierenden FXe zu suchen. ("Ultra Shadow", Nutzung der schnellen Register Combiner für einige Berechnungen.) Ob eine FX nun insgesamt die bessere Wahl als eine vergleichbare Radeon sei, sei mal dahingestellt, dass die FXe "nur für Fans" seien, hielte ich aber auf jeden Fall für übertrieben. (Gilt ausdrücklich für die NV35-basierenden FXe, also NV35, NV36 und NV38. Die alte FX-Serie finde ich nur als DX8-Karte gut, die 5200 finde ich gar nicht gut.)

betasilie
2003-12-02, 14:26:13
Original geschrieben von aths
Sehe ich eigentlich nicht so. Imo hat NV seit 5700 und 5900 endlich wieder konkurrenzfähige Hardware. Soweit ich weiß, ist die 5700 U der 9600 XT i. A. z. B. leicht überlegen. Würde mich angesichts der Speicherbandbreite auch nicht wundern. (14,4 GB/s vs. 9,6 GB/s.)

Was 5700 und natürlich 5900 angeht, könnte man einerseits sagen, in Zukunft-Engines à la HL2 stünde man mit der Radeon besser da. Dafür sind bei der anderen großen neuen Engine, Doom3, die Vorteile wohl eher auf Seiten der NV35-basierenden FXe zu suchen. ("Ultra Shadow", Nutzung der schnellen Register Combiner für einige Berechnungen)
DoomIII wird wahrscheinlich auf den FXen schneller laufen, obwohl ich da erstmal Benchmarks abwarten will, um die Differenzen bewerten zu können.

Den Geschwindigkeitsvorteil, den ATI-Karten bei HL2 haben werden, sind imho repräsentativ für die meisten neuen Engines, die DX9 nutzen werden.

Daher Spiele ich lieber DoomIII mit etwas weniger FPS mit einer ATI und dafür den Rest der DX9-Games mit einem mehr oder minder großen Geschwindigkeitsvorteil gegenüber Karten von NV.

Mal abgesehen davon ist des gammakorrigierte AA von ATI schon eine Wucht und ich möchte mein schönes 4*AA nicht missen.

aths
2003-12-02, 14:41:34
Original geschrieben von betareverse
DoomIII wird wahrscheinlich auf den FXen schneller laufen, obwohl ich da erstmal Benchmarks abwarten will, um die Differenzen bewerten zu können.HL2 wird wahrscheinlich auf den Radeons mit FP24 schneller laufen, als auf den FXen mit FP16/FP32, obwohl ich da erstmal Benchmarks abwarten will, um die Differenzen bewerten zu können.

Original geschrieben von betareverse
Den Geschwindigkeitsvorteil, den ATI-Karten bei HL2 haben werden, sind imho repräsentativ für die meisten neuen Engines, die DX9 nutzen werden.Warum? Bekanntlich ist die arithmetische Rechenpower vom NV35 dem R300/R350 nicht unterlegen.

Original geschrieben von betareverse
Mal abgesehen davon ist des gammakorrigierte AA von ATI schon eine Wucht und ich möchte mein schönes 4*AA nicht missen. Mal abgesehen davon ist das gute 8° AF von Nvidia schon eine Wucht, und ich möchte mein schönes 8° AF nicht missen.

Aquaschaf
2003-12-02, 14:47:52
Original geschrieben von aths

Mal abgesehen davon ist das gute 8° AF von Nvidia schon eine Wucht, und ich möchte mein schönes 8° AF nicht missen.

Wobei das bei den FXen dank der "brilinearen" Filterung natürlich anders aussieht.

betasilie
2003-12-02, 14:53:34
Original geschrieben von aths
Warum? Bekanntlich ist die arithmetische Rechenpower vom NV35 dem R300/R350 nicht unterlegen.

Also die Shader sind bei den R3xx immer noch schneller, als die der FXen, oder irre ich? ... Ich wette drauf, dass sich der Geschwindigkeitsvorteil bei HL2 und Tombraider bei fast allen neuen DX9-Engines ähnlich darstellen wird.

Original geschrieben von aths
Mal abgesehen davon ist das gute 8° AF von Nvidia schon eine Wucht, und ich möchte mein schönes 8° AF nicht missen.
Natürlich. Das kommt wohl drauf an wo bei einem perönlich der Schwerpunkt liegt. Imho ist der Unterschied in der IQ im Durchschnitt der Anwendungen deutlicher beim AA zu sehen, als denn beim AF, bzw. bietet eine ATI z.Zt. mehr FPS, wenn man AA und AF möglichst kongruent einstellt.

Hamster
2003-12-02, 14:56:22
Original geschrieben von aths
HL2 wird wahrscheinlich auf den Radeons mit FP24 schneller laufen, als auf den FXen mit FP16/FP32, obwohl ich da erstmal Benchmarks abwarten will, um die Differenzen bewerten zu können.

Warum? Bekanntlich ist die arithmetische Rechenpower vom NV35 dem R300/R350 nicht unterlegen.

Mal abgesehen davon ist das gute 8° AF von Nvidia schon eine Wucht, und ich möchte mein schönes 8° AF nicht missen.


:up: gut gekontert!


leider bricht ja wirklich in jedem "welche graka soll ich mir kaufen" thread ne wahrhaftige glaubensfrage auf. warum können sich nicht mal alle einigen, dass insgesammt gesehen die nvidia und die ati karten generell gleichwertig sind, und sich nur in nuancen unterscheiden. und genau hier kann man ansetzen das für sich bevorzugtere modell zu suchen und finden.

Winter[Raven]
2003-12-02, 15:11:38
Original geschrieben von Aquaschaf
Wobei das bei den FXen dank der "brilinearen" Filterung natürlich anders aussieht.

Also ich sehe davon nix, und sorry das ist ein Vorurteil von dir ... :P

aths
2003-12-02, 15:14:51
Original geschrieben von Aquaschaf
Wobei das bei den FXen dank der "brilinearen" Filterung natürlich anders aussieht. Es ist nicht gesagt, dass "brilinear" in Zukunft Zwang bleibt. Soweit ich das sehe, nutzen viele R3x0-Besitzer rein bilineares AF (auch wenn ich das nicht verstehe!) da wäre "brilineares" qualitätsmäßig noch von Vorteil.

Original geschrieben von Winter[Raven]
Also ich sehe davon nix, und sorry das ist ein Vorurteil von dir ... :P Ich hingegen sehe "brilineare" Filterung oft schon auf Standbildern. Leider. Der Zwang zum "brilinearen" Filter muss fallen!!


Original geschrieben von betareverse
Also die Shader sind bei den R3xx immer noch schneller, als die der FXen, oder irre ich? ... Diese Frage ist zu eindimensional.

Die "wichtige" Rechenpower, also die arithmetische, ist praktisch gleichwertig, wobei NV35 sogar mit FP32 statt FP24 rechnet. Nun gibt es Nebenbedingungen, es kann sein, dass die maximale Rechenpower nicht ausgeschöpft werden kann. CineFX und CineFX2 sind diesbezüglich anfälliger, als die Shader der Radeon.

Original geschrieben von betareverse Ich wette drauf, dass sich der Geschwindigkeitsvorteil bei HL2 und Tombraider bei fast allen neuen DX9-Engines ähnlich darstellen wird.Worauf begründest du deine Wette? Auf Hoffnung, (gar Glaube) oder auf technisch fundierten Fakten? (Vorsicht, Fangfrage :)) Welche Fakten sprechen aus deiner Sicht dafür, dass bessere Shadercompiler in Zukunft nicht bessere Shader liefern, welche CineFX2 besser auslasten? Ich jedenfalls gehe davon aus, dass die "erste Charge" DX9-Games, praktisch auf Radeon entwickelt, auch deutlich besser (schneller) auf Radeon läuft. Bei der "zweiten Charge" erwarte ich, dass von der Rechenkraft eines NV35 besserer Gebrauch gemacht wird, als bislang. (60%-Wunder erwarte ich natürlich nicht.)

Original geschrieben von betareverse
Natürlich. Das kommt wohl drauf an wo bei einem perönlich der Schwerpunkt liegt. Imho ist der Unterschied in der IQ im Durchschnitt der Anwendungen deutlicher beim AA zu sehen, als denn beim AF, bzw. bietet eine ATI z.Zt. mehr FPS, wenn man AA und AF möglichst kongruent einstellt. Man kann AA und AF kaum "kongruent" einstellen. Bezüglich AA hat die Radeon z. B. eine hässliche Füllratenschwäche bei Z/Stencil-Rendering. Das kommt heute noch nicht so zum tragen, bei Doom3 dürfte es mit 4x AA jedoch ggü. 2x einen spürbaren Einbruch geben.

Wer welchen BQ-Unterschied sieht, nunje, da bin ich vorsichtig geworden. Mein Fanatismus pro glatter Kanten ist bekannt. ATIs 6x sparsed, gamma corrected MSAA stelle ich nicht ohne Grund als "Masterpiece" hin. Dennoch sehe ich keinen Grund, die AF-Schwächen zu übertünchen.

reunion
2003-12-02, 15:43:39
Original geschrieben von aths
Warum? Bekanntlich ist die arithmetische Rechenpower vom NV35 dem R300/R350 nicht unterlegen.


Toll, was nützt dir das wenn die Shadereinheiten die meiste Zeit im Leerlauf sind bzw einfach schlecht ausgelastet sind???

Also ALLE(!) bis jetzt gezeigten DX9 Benchs bzw. Spiele zeigen ganz klar das sich der NV 35 meist nichtmal gegen die 9600pro behaupten kann!! BSP?? 3dmark03 (ohne NV Cheats), TR;AOD, Shadermark 2.0, Aquamark 3(vielleicht da nicht so extrem..), Half Life 2 Benchs,...

Einzig und allein Halo wo NV selbst die Shader schreiben durfte kann die FX halbwegs mithalten, wenn auch hier die Radeon gewinnt, so what??


Hinzu kommen auch noch einige ältere Spiele wie Battlefield, Warcraft III, Enclave, Max Payne 2,...
wo ebenfalls die 9600pro locker mit der FX5900 mithalten kann, also meinermeinung nach ist die Radeon die zurzeit deutlich bessere Wahl, da man einfach konstant schnell ist.


Mal abgesehen davon ist das gute 8° AF von Nvidia schon eine Wucht, und ich möchte mein schönes 8° AF nicht missen.

Du meinst das tolle AF, das nur auf der primären Texturstage richtig filtert und sonst nur 2x(außer die App forced das AF) und zustätzlich nichtmal tri Texturfilterung erlaubt ???

Ein anderes bekommt man nämlich nicht !

Gast
2003-12-02, 15:57:53
Original geschrieben von nagus
ich möchte dir ja nicht deinen "spaß" verderben... aber die billigste 5900SE kostet 300euro und eine radeon 9800NP kostet ~ 260EURO.

Die billigste FX5900SE kostet 220€, das sind 40 - 50€ weniger, die man bei einem unseriosen (Byte - Pro) oder einen seriösen (Mix Computer etc.)Laden bezahlen muss.
Da sollte es klar sein, welche Karte "für 'fans'" sei.

aths
2003-12-02, 16:03:13
Original geschrieben von reunion
Toll, was nützt dir das wenn die Shadereinheiten die meiste Zeit im Leerlauf sind bzw einfach schlecht ausgelastet sind??? Der Programmierer sollte schon Sorge tragen, die Pipes möglichst gut auszulasten.

Original geschrieben von reunion
Also ALLE(!) bis jetzt gezeigten DX9 Benchs bzw. Spiele zeigen ganz klar das sich der NV 35 meist nichtmal gegen die 9600pro behaupten kann!! BSP?? 3dmark03 (ohne NV Cheats), TR;AOD, Shadermark 2.0, Aquamark 3(vielleicht da nicht so extrem..), Half Life 2 Benchs,...Der 3DMark2003 hat keine speziellen Shader für CineFX. Ein kluger Spiele-Programmierer würde, wenn es dort Geschwindigkeit bringt, auch CineFX-Shader mitliefern. Soweit ich weiß, nutzten die Programmierer für TR:AoD noch einen älteren Shadercompiler, der suboptimale Shader erzeugte. Bei Shadermark weiß ich nicht, ob es für CineFX optimierte Shader hat. HL2 werde ich auch mit einer Ti 4600 annehmbar spielen können, da braucht man sich mit einem NV35 wohl keine Sorgen machen...

Ich vermisse ehrlich gesagt den OpenGL-Bereich in deiner Aufzählung. Zumindest bei nicht so starker CPU kann eine Ti 4600 eine Radeon 9700 Pro in einigen OpenGL-Benches im Rohmodus schlagen. Gut, der Rohmodus ist kaum mehr relevant.

Soweit ich das sehe, performen die großen FXe in OpenGL mindestens so gut, wie die großen Radeon, wenn nicht sogar besser. In OpenGL kann man zudem den brilinearen Filter der FXe abschalten :)

Original geschrieben von reunion
Einzig und allein Halo wo NV selbst die Shader schreiben durfte kann die FX halbwegs mithalten, wenn auch hier die Radeon gewinnt, so what??Mit wieviel Vorsprung gewinnt sie denn? Gewinnt auch hier eine 9600 Pro gegen einen NV35? (Kenne die Benchmarks nicht.)

Original geschrieben von reunion
Hinzu kommen auch noch einige ältere Spiele wie Battlefield, Warcraft III, Enclave, Max Payne 2,...
wo ebenfalls die 9600pro locker mit der FX5900 mithalten kann, also meinermeinung nach ist die Radeon die zurzeit deutlich bessere Wahl, da man einfach konstant schnell ist.Täusche ich mich, oder sind diese Spiele inzwischen schon recht CPU-limitiert? Trotz P4 1.8A @1.9 und trotz 2x/4° AA/AF ist Max Payne 2 bei mir in den "fordernden" Stellen CPU-limitiert.

Original geschrieben von reunion
Du meinst das tolle AF, das nur auf der primären Texturstage richtig filtert und sonst nur 2x(außer die App forced das AF) und zustätzlich nichtmal tri Texturfilterung erlaubt ???

Ein anderes bekommt man nämlich nicht ! Hängt von der Treiber-Version ab. Reineweg mit dem Treiber bekommt man bei ATI, wenn man AF nicht im Spiel erzwingt, auf Stage 1 - 7 nur bilineares AF.

Ich möchte nicht meinen, dass eine 9600 Pro, XT, oder eine Radeon ab 9700 aufwärts (Ausnahme 9800 SE) nicht ein sehr guter Kauf wäre. Aber ich denke, dass mit der NV35-basierenden Linie Nvidia ernsthafte Konkurrenz-Hardware vorweisen kann.

reunion
2003-12-02, 16:04:40
Original geschrieben von Gast
Die billigste FX5900SE kostet 220€, das sind 40 - 50€ weniger, die man bei einem unseriosen (Byte - Pro) oder einen seriösen (Mix Computer etc.)Laden bezahlen muss.
Da sollte es klar sein, welche Karte "für 'fans'" sei.

Nur das die 9800non pro selbst eine FX 5900 non Ultra knapp schlägt, wo da die SE steht kannst du dir ja ausrechnene...

reunion
2003-12-02, 16:19:25
Original geschrieben von aths
Der Programmierer sollte schon Sorge tragen, die Pipes möglichst gut auszulasten.


Warum muss der Spielprogger für FX Karten jedesmal einen eigenen Pfad eintwickeln nur damit diese halbwegs Konkurrenzfähig sind???
Die Radeon laufen ja auch mit dem Standard DX9 Pfad schnell und ohne spezielle anpassung...

Und wenn es wirklich so ist das die DX9 Shader mehr oder weniger auf ATI optimiert sind, so ist das eben pech für NV, denn mich als Kunde interresiert nicht wie sondern ob die leistung erreicht wird.

Der 3DMark2003 hat keine speziellen Shader für CineFX. Ein kluger Spiele-Programmierer würde, wenn es dort Geschwindigkeit bringt, auch CineFX-Shader mitliefern. Soweit ich weiß, nutzten die Programmierer für TR:AoD noch einen älteren Shadercompiler, der suboptimale Shader erzeugte. Bei Shadermark weiß ich nicht, ob es für CineFX optimierte Shader hat.
HL2 werde ich auch mit einer Ti 4600 annehmbar spielen können, da braucht man sich mit einem NV35 wohl keine Sorgen machen...


Mal ne andere Frage, gibt es überhaupt schon App die auf Cine FX optimiert sind, denn wenn nicht muss sich NV schön langsam fragen was da falsch läuft, da es ja offensichtlich ziemlich aufwendig ist darauf zu optimieren oder warum sollte sich sonst keiner die Mühe machen darauf zu optimieren ??

Mit wieviel Vorsprung gewinnt sie denn? Gewinnt auch hier eine 9600 Pro gegen einen NV35? (Kenne die Benchmarks nicht.)


Nein, die FX5900U ist schneller als eine 9600pro
Die 9800XT zieht bei extremeinstellungen allerdings schonmal um bis zu 40% davon...(gegenüber der Fx5950U)

Täusche ich mich, oder sind diese Spiele inzwischen schon recht CPU-limitiert? Trotz P4 1.8A @1.9 und trotz 2x/4° AA/AF ist Max Payne 2 bei mir in den "fordernden" Stellen CPU-limitiert.


Glaub ich nicht, denn wie erklärst du dir dann die deutlich höheren fps der Radeon wenn die CPU bremst ???

Hängt von der Treiber-Version ab. Reineweg mit dem Treiber bekommt man bei ATI, wenn man AF nicht im Spiel erzwingt, auf Stage 1 - 7 nur bilineares AF.

Allerdings hat ATI zumindest eine Hintertür offengelassen sodass ich nur irgendein externen Tool benutzen muss um das ganze zu umgehn...

Edit: ein paar Rechtscheibfehler korrigiert...

Gast
2003-12-02, 16:31:09
Original geschrieben von aths
Warum? Bekanntlich ist die arithmetische Rechenpower vom NV35 dem R300/R350 nicht unterlegen.

Ebenso bekannt sollte aber sein, daß ihr in dem Falle sämtliche Möglichkeiten fehlen, Texturops auszuführen, während die Radeon sie quasi nebenher mitmachen kann.

Ergo: Nur im Best-Case kann der nV35/nV36 mit dem ATi-Pendant gleichziehen, defacto aber muss schon eine gute Optimierung vorliegen, damit der höhere Takt zu gleicher Spieleleistung verhilft.

Original geschrieben von reunion
Warum muss der Spielprogger für FX Karten jedesmal einen eigenen Pfad eintwickeln nur damit diese halbwegs Konkurrenzfähig sind ???
Die Radeon laufen ja auch mit dem Standart DX9 Pfad schnell und ohne spezielle anpassung...

Und wenn es wirklich so ist das die DX9 Shader mehr oder weniger auf ATI optimiert sind, so ist das eben pech für NV, denn mich als Kunde interresiert nicht wie sondern ob die leistung erreicht wird.


Mal ne andere Frage, gibt es überhaupt schon App die auf Cine FX optimiert sind, denn wenn nicht muss sich NV schön langsam fragen was da falsch läuft, da es ja offensichtlich ziemlich aufwendig ist darauf zu optimieren oder warum sollte sich sonst keiner die Mühe machen darauf zu optimieren ??

Wenn es dich als Kunden nicht interessiert, kann es dir ja auch egal sein, wenn die Entwickler ihre Shader einfach nochmal mit dem 2.x-Profil durch den Kompiler jagen. Das scheint ja mittlerweile weitgehend automatisiert zu sein, so daß das kein allzugroßes Abschreckungspotential mehr hat.

Wenn du nach den Wochen und Monaten hier im Forum noch immer nicht weißt, warum die nV3x-Pipeline nicht mit dem alten Standardcode von DX9 zurechtkommt, solltest du dir mal einen bestimmten Artikel auf der Hauptseite geben.

Zum Rest des Postings: Je nachdem, wie man sich die Benches aussucht, die man für seine Argumentation braucht...

Q

reunion
2003-12-02, 16:38:02
Original geschrieben von Gast
Wenn du nach den Wochen und Monaten hier im Forum noch immer nicht weißt, warum die nV3x-Pipeline nicht mit dem alten Standardcode von DX9 zurechtkommt, solltest du dir mal einen bestimmten Artikel auf der Hauptseite geben.


Ja ja , war etwas blöd formuliert ;)

Zum Rest des Postings: Je nachdem, wie man sich die Benches aussucht, die man für seine Argumentation braucht...

Q

Zeig mir nur eine App bzw. ein Spiel wo eine fx 5600/5700 gegen die 9800XT gewinnt...

aths
2003-12-02, 16:49:22
Original geschrieben von reunion
Warum muss der Spielprogger für FX Karten jedesmal einen eigenen Pfad eintwickeln nur damit diese halbwegs Konkurrenzfähig sind ???Bitte!! Vor Satzzeichen kein Leerzeichen. (Sorry für OT, aber ich finde das sieht nicht gut aus. Maschinen-Schrift ist aber auch "wirklich" so geregelt, dass vor Satzzeichen keine Leerzeichen kommen sollen.)

Deine Fragestellung ist imo so zu beantworten: "Damit die FX-Chips möglichst gut ausgenutzt werden, und das Spiel auf Nvidia-Hardware möglichst gut performt". Ein "eigener Pfad" ist dazu nicht unbedingt notwendig, wenn es ein eigenes Shader-Set tut.

Original geschrieben von reunion
Die Radeon laufen ja auch mit dem Standart DX9 Pfad schnell und ohne spezielle anpassung...Standard bitte!! mit d hinten. Die Standarte ist eine Signalflagge, was du hier bestimmt nicht meinst. Zurück zum Topic: Was ist der "Standard-DX9-Pfad"? Es gibt imo keinen "Standard-Pfad". Es gibt verschiedene Shader-Profile, ja. Kein Wunder, wenn es so unterschiedliche Hardware-Architekturen gibt, wie es sie nun mal gibt. Ich wüsste nicht, dass ein spezieller Pfad "Standard" sei. Selbst wenn dem so wäre, "spezielle Anpassung" an R300-Hardware findet natürlich statt! ATI hat eine Reihe an Optimierungs-Regeln für die Radeon-HW.

Original geschrieben von reunion
Und wenn es wirklich so ist das die DX9 Shader mehr oder weniger auf ATI optimiert sind, so ist das eben pech für NV, denn mich als Kunde interresiert nicht wie sondern ob die leistung erreicht wird.Richtig. Dich als Kunde interessiert, ob das Spiel auf deiner HW schnell genug läuft, bzw. ob die geplante Neuanschaffung genügend Power für deine Lieblings-Spiele bietet. Wie diese Leistung nun erreicht wird, zum Beispiel mit CineFX-Anpassung der Shader, ist dir vermutlich egal, oder nicht?

Original geschrieben von reunion
Mal ne andere Frage, gibt es überhaupt schon App die auf Cine FX optimiert sind, denn wenn nicht muss sich NV schön langsam fragen was da falsch läuft, da es ja offensichtlich ziemlich aufwendig ist darauf zu optimieren oder warum sollte sich sonst keiner die Mühe machen darauf zu optimieren ?? Es gibt eine Reihe OpenGL-Demos. Es gibt Render-Plugins, die auf CineFX Vorschau-Bilder berechnen. Nicht ganz in der Qualität wie Software-Rendering, aber um Größenordnungen schneller. Software-Renderer rendern (entgegen der Aussage im Filtertricks-Artikel) mit FP32. Das kann die aktuelle Radeon nicht bieten.

Original geschrieben von reunion
Nein, die FX5900U ist schneller als eine 9600pro
Die 9800XT zieht bei extremeinstellungen allerdings schonmal um bis zu 40% davon...(gegenüber der Fx5950U)Was heißt "Extremeinstellung" bei dir konkret?

Original geschrieben von reunion
Glaub ich nicht, denn wie erklärst du dir dann die deutlich höheren fps der Radeon wenn die CPU bremst ???Ist eine Radeon wirklich deutlich schneller beim P4 mit 1,9 GHz?? Ich kann in den Innenraum-Leveln auch mal 1400x1050 (@ 100 Hz :D) mit 2x AA fahren: Flüssig. Wird in 1024x768 kaum schneller. Also CPU-Limitierung, weshalb ich mir getrost 4° AF auf Stage 0 und Stage 1 leiste.

Original geschrieben von reunion
Allerdings hat ATI zumindest eine Hintertür offengelassen sodass ich nur irgendein externen Tool benutzen muss um das ganze zu umgehn... Allerdings hat Nvidia zumindest eine Hintertür offengelassen, so dass ich nur einen älteren Treiber benutzen muss, um das ganze zu umgehen... (Ok, ist auch ein blödes Argument.) Bekanntlich bin ich mit NVs "Optimierungen" alles andere als glücklich und froh, dass sie mich nicht betreffen. Auf der anderen Seite bleibt der Hinweis, dass ATIs 16° AF winkelabhängig bis 2° herunter geht. Auch Stage 0 ist (hardwareseitig) derart "optimiert".

reunion
2003-12-02, 17:18:45
Offensichtlich legst du ziemlich viel wert auf eine genaue Rechtschreibung, werde in Zukunft besser aufpassen ;)

Original geschrieben von aths
Richtig. Dich als Kunde interessiert, ob das Spiel auf deiner HW schnell genug läuft, bzw. ob die geplante Neuanschaffung genügend Power für deine Lieblings-Spiele bietet. Wie diese Leistung nun erreicht wird, zum Beispiel mit CineFX-Anpassung der Shader, ist dir vermutlich egal, oder nicht?


Klar ist mir egal, nur warum gibt es dann bißlang keine solchen anpassungen in Spielen??

Es gibt eine Reihe OpenGL-Demos. Es gibt Render-Plugins, die auf CineFX Vorschau-Bilder berechnen. Nicht ganz in der Qualität wie Software-Rendering, aber um Größenordnungen schneller. Software-Renderer rendern (entgegen der Aussage im Filtertricks-Artikel) mit FP32. Das kann die aktuelle Radeon nicht bieten.

Und was ist mit Spielen??


Was heißt "Extremeinstellung" bei dir konkret?

1600x1200 mit 4xAA und 8xAF (Werte stammen übrigens von der PCGH)

Ist eine Radeon wirklich deutlich schneller beim P4 mit 1,9 GHz?? Ich kann in den Innenraum-Leveln auch mal 1400x1050 (@ 100 Hz :D) mit 2x AA fahren: Flüssig. Wird in 1024x768 kaum schneller. Also CPU-Limitierung, weshalb ich mir getrost 4° AF auf Stage 0 und Stage 1 leiste.


Achso auf deine Hardware bezogen kann es schon sein das die CPU bremst, allerdings währe mit einem schnelleren Rechner die Radeon schneller :D

Auf der anderen Seite bleibt der Hinweis, dass ATIs 16° AF winkelabhängig bis 2° herunter geht. Auch Stage 0 ist (hardwareseitig) derart "optimiert".

Schon klar, aber zum einen geschieht das nur bei äußerst selten auftretenden Winkeln und zum anderen filtert NV dafür bei den Texturstages 1-7 maximal nicht minimal 2x.(Ich weiß auch blödes Argument :D)

DrumDub
2003-12-02, 17:26:45
Original geschrieben von Gast
Ebenso bekannt sollte aber sein, daß ihr in dem Falle sämtliche Möglichkeiten fehlen, Texturops auszuführen, während die Radeon sie quasi nebenher mitmachen kann.

Ergo: Nur im Best-Case kann der nV35/nV36 mit dem ATi-Pendant gleichziehen, defacto aber muss schon eine gute Optimierung vorliegen, damit der höhere Takt zu gleicher Spieleleistung verhilft.

Wenn es dich als Kunden nicht interessiert, kann es dir ja auch egal sein, wenn die Entwickler ihre Shader einfach nochmal mit dem 2.x-Profil durch den Kompiler jagen. Das scheint ja mittlerweile weitgehend automatisiert zu sein, so daß das kein allzugroßes Abschreckungspotential mehr hat.

Wenn du nach den Wochen und Monaten hier im Forum noch immer nicht weißt, warum die nV3x-Pipeline nicht mit dem alten Standardcode von DX9 zurechtkommt, solltest du dir mal einen bestimmten Artikel auf der Hauptseite geben.

Zum Rest des Postings: Je nachdem, wie man sich die Benches aussucht, die man für seine Argumentation braucht...

Q

danke. endlich mal was ohne flameansatz... ;)


aths & reunion

hallo? jetzt isses aber doch etwas sinnlos geworden, oder?

hier mal was zu beruhigung der gemüter:

GeForce FX 5700 Ultra cards will be available in retail stores this Sunday and are expected to sell for around $199. This isn't even close to a paper launch, folks. The card's $200 price point puts it in direct competition with the Radeon 9600 XT, but 9600 XTs seem to be a little scarce at the moment.

Overall, the 5700 Ultra's performance in DirectX 8-class games is impressive, and the card even handles DirectX 9 titles like Halo with aplomb. However, the 5700 Ultra's performance with unoptimized code paths and synthetic pixel shader tests is a little discouraging looking forward. With more compiler tuning and driver tweaking, NVIDIA may improve the GeForce FX 5700 Ultra's performance further, but the potential for future performance gains is hard to quantify and impossible to guarantee. At the very least, NVIDIA's willingness to help developers optimize code paths should ensure that games and applications milk every last drop of performance from the GeForce FX architecture.

Since the GeForce FX 5700 Ultra beat out the Radeon 9600 XT in nearly every real-world game we tested today, it's tempting to reinstate NVIDIA as the king of mid-range graphics. However, the Radeon 9600 XT is faster in Unreal Tournament 2003, which is particularly important title considering how many future games will use the Unreal engine. It's also worth noting that ATI's mid-range Radeons offer superior gamma-corrected antialiasing and a coupon for Half-Life 2, both important considerations for enthusiasts and gamers alike.

So I'm not quite ready to crown NVIDIA as the new mid-range graphics king, but I still feel pretty good about recommending the GeForce FX 5700 Ultra over the Radeon 9600 XT for gamers who have $200 to spend and need a graphics card by the end of the weekend. The Radeon 9600 XT's performance in synthetic DirectX 9-class benchmarks makes it feel like a safer bet, but NVIDIA's new run-time compiler has me a little more excited about the GeForce FX's performance potential in future titles. The fact that the GeForce FX 5700 Ultra rips through today's current games and uses some pretty swanky hardware for a $200 graphics card doesn't hurt, either.

Of course, if you don't need to pick up a new graphics card this weekend, I'd hold off just a little while longer. We'll be comparing the rendering output and image quality of ATI and NVIDIA's newest graphics chips with the latest drivers in an upcoming article; the benchmarks we saw today are just the beginning.

http://www.techreport.com/reviews/2003q4/geforcefx-5700ultra/index.x?pg=14

The Radeon 9600 XT's basic rendering capabilities are unchanged from its predecessor, so we haven't included an image quality analysis in this review. However, things do change with driver releases, so we will be looking at the comparative 3D image quality of the latest ATI and NVIDIA products with the latest drivers in an upcoming article. For now, I can say that the Radeon 9600 XT's image quality is, subjectively, very good.

The results of our performance testing are clear. The Radeon 9600 XT improves on the 9600 Pro's already impressive performance in a wide variety of benchmarks and real-world applications, including titles that take advantage of DirectX 9-class pixel and vertex shaders and floating point data types. NVIDIA's GeForce FX 5600 Ultra manages to sneak in a few small victories here and there, but those victories are mostly confined to dated games whose graphics engines don't make use of DirectX 9-class hardware.

Though the Radeon 9600 XT performs well today, OVERDRIVE support should make the card even more fearsome. I can only hope that ATI will consider bumping up the Catalyst 3.9 driver's top OVERDRIVE clock speed from 527MHz to something a little bolder. If my sample (which reached nearly 600MHz) is any indication of what the majority of RV360 GPUs is capable of, 527MHz may only scratch the surface of the chip's overclocking potential.

At the end of the day, I think I'm more excited about the Radeon 9600 XT than I've been about any other graphics card. ATI has leveraged some very cool manufacturing technology to produce a graphics chip that's capable of incredibly high clock speeds without the need for exotic cooling or even an auxiliary power source. The Radeon 9600 XT's performance in DirectX 9-class applications is great, which bodes well for next-generation titles like Half-Life 2 and Doom 3. What's probably most appealing about the 9600 XT is the fact that its $199 price tag makes the card very affordable for a wide range of gamers and PC enthusiasts alike. That $199 price tag includes a copy of Half-Life 2, too. All things considered, it would almost be irresponsible for me to not give the Radeon 9600 XT our coveted Editor's Choice award for mid-range PC graphics. Today, the Radeon 9600 XT is as good as mid-range graphics gets.

http://www.techreport.com/reviews/2003q4/radeon-9600xt/index.x?pg=14

Gast
2003-12-02, 17:29:05
Original geschrieben von reunion
Zeig mir nur eine App bzw. ein Spiel wo eine fx 5600/5700 gegen die 9800XT gewinnt...

Ein einziges?

RtCW in 640x480x32 0xAA 0xAF: 131 (FX5600) zu 126,1 (R980XT).

Eine Anwendung vielleicht?
Spec ViewPerf 7.1, DRV-09, 1280x1024x32: 50,440 (FX5600) zu 38,640 (R9800XT).

Noch eine?
Spec ViewPerf 7.1, ProE-02, 1280x1024x32: 14,810 (FX5600) zu 14,150 (R9800XT)

Noch eine?
Spec ViewPerf 6.12, DRV-07, 1280x1024x32: 29,230 (FX5600) zu 16,790 (R9800XT)

Noch eine?
Spec ViewPerf 6.12, Light-04, 1280x1024x32: 15,990 (FX5600) zu 13,860 (R9800XT)

Noch ein Game?
Alice, 640x480x32, curiosity: 155,5 (FX5600) zu 146,7 (R9800XT)

Das war jetzt nicht eins, sondern sechs Beispiele. Mehr finde ich auf die schnelle auch nicht und die XT ist auch nicht mehr bei mir, so daß ich keine weiteren produzieren kann.

Bevor du jetzt anfängst, mich zu bashen und dir womöglich noch Punkte einhandelst: Ich behaupt absolut nicht, daß die FX5600 der 9800XT in irgendeiner Weise (ausser Spezialfälle im professionellen Bereich evtl.) gewachsen ist, aber es lassen sich für die absurdesten Behauptungen immer Belege finden.

Und da die Belege manchmal von gar nicht sooooo weit hergeholt werden müssen, ist es IMO unvorsichtig und unrichtig, fortwährend pauschalisierend ein Produkt kategorisch jedwede Existenzberechtigung absprechen zu wollen.

Q

reunion
2003-12-02, 17:42:16
Original geschrieben von Gast
Ein einziges?

RtCW in 640x480x32 0xAA 0xAF: 131 (FX5600) zu 126,1 (R980XT).

Eine Anwendung vielleicht?
Spec ViewPerf 7.1, DRV-09, 1280x1024x32: 50,440 (FX5600) zu 38,640 (R9800XT).

Noch eine?
Spec ViewPerf 7.1, ProE-02, 1280x1024x32: 14,810 (FX5600) zu 14,150 (R9800XT)

Noch eine?
Spec ViewPerf 6.12, DRV-07, 1280x1024x32: 29,230 (FX5600) zu 16,790 (R9800XT)

Noch eine?
Spec ViewPerf 6.12, Light-04, 1280x1024x32: 15,990 (FX5600) zu 13,860 (R9800XT)

Noch ein Game?
Alice, 640x480x32, curiosity: 155,5 (FX5600) zu 146,7 (R9800XT)

Dazu sag ich jetzt besser nichts :D

Das war jetzt nicht eins, sondern sechs Beispiele. Mehr finde ich auf die schnelle auch nicht und die XT ist auch nicht mehr bei mir, so daß ich keine weiteren produzieren kann.

Bevor du jetzt anfängst, mich zu bashen und dir womöglich noch Punkte einhandelst: Ich behaupt absolut nicht, daß die FX5600 der 9800XT in irgendeiner Weise (ausser Spezialfälle im professionellen Bereich evtl.) gewachsen ist, aber es lassen sich für die absurdesten Behauptungen immer Belege finden.

Und da die Belege manchmal von gar nicht sooooo weit hergeholt werden müssen, ist es IMO unvorsichtig und unrichtig, fortwährend pauschalisierend ein Produkt kategorisch jedwede Existenzberechtigung absprechen zu wollen.

Q

Wollte damit auch nur andeuten das die Shaderleistung der FX nicht gerade berauschend ist...
Aber naja war nicht böse gemeint...

mfg
reu

aths
2003-12-02, 17:43:04
Original geschrieben von reunion
Offensichtlich legst du ziemlich viel wert auf eine genaue Rechtschreibung, werde in Zukunft besser aufpassen ;)Konkret, wenn man bestimmte Fehler ständig sieht, fühle ich mich genervt. Ich hoffe, dich nicht zu nerven, wenn ich mir erlaube, auf einige Standard-Fehler hinzuweisen. Das soll ja keine Herabwürdigung deines Postings darstellen.

Original geschrieben von reunion
Klar ist mir egal, nur warum gibt es dann bißlang keine solchen anpassungen in Spielen??Na was nun, du hast mit dem 3DMark auch ein Nicht-Spiel gebracht. Beschränken wir uns rein auf Spiele, sieht es so aus: Was jetzt erscheint, wurde vor einiger Zeit entwickelt. Es gab über längere Zeit als DX9-Hardware überhaupt nur die Radeon. Die ersten DX9-Spiele wären demnach automatisch Radeon-optimiert. Es gibt natürlich Anpassungen in zukünftigen Spielen. Für HL2 z.B. einen speziellen Modus für die FXe. Offenbar ist es nicht so leicht, die Klippen bei der CineFX-Architektur zu umschiffen, so dass die Pipes weiterhin Leertakte einschieben müssen.

Wie gesagt, ich glaube nicht an ein 60%-Wunder oder ähnlich absurde Leistungs-Steigerungen. Aber von der arithmetischen Rechenkraft her sind die neueren FXe eben nicht mehr im Nachteil, sofern es gelingt, die Shader auf CineFX2 zu optimieren, müsste die Geschwindigkeit zwangsläufig etwa auf Radeon-Niveau liegen. (Die Nachteile bei den Texture-Ops sind weniger bedeutend und werden imo mit dem Takt ganz gut ausgeglichen.)

Original geschrieben von reunion
1600x1200 mit 4xAA und 8xAF (Werte stammen übrigens von der PCGH)Oh oh. Wer vergleicht denn da 4x/8x?? Das kann man nicht vergleichen: Radeon liefert die bessere Kantenglättung, GeForce die besseren Texturen. Wie soll man das gegeneinander aufrechnen? Ich akzeptiere keine Benchmark-Vergleiche mit diesen Settings zwischen Radeon und GeForce.

Original geschrieben von reunion
Achso auf deine Hardware bezogen kann es schon sein das die CPU bremst, allerdings währe mit einem schnelleren Rechner die Radeon schneller :D"Wäre" bitte ohne h :) :) Das Wort "wäre" ist eine Flexion von "sein". Eine andere Flexion von "sein" ist "war". Mit "war" meint man aber nicht "wahr". Deshalb gibts kein "währe" :)

Mit einer schnelleren CPU wäre in den Bereichen, wo es bei mir ruckelt (also in den Außenwelten) schneller. Die Radeon bringt nur erst mal "nutzlose" Geschwindigkeit, wobei man natürlich Geschwindigkeit in Qualität eintauschen kann, so dass die "überschüssige" Geschwindigkeit in einen konkreten Nutzen gewandelt wird. Das ist mir jedoch keine 300 € wert.

Original geschrieben von reunion
Schon klar, aber zum einen geschieht das nur bei äußerst selten auftretenden Winkeln und zum anderen filtert NV dafür bei den Texturstages 1-7 maximal nicht minimal 2x.(Ich weiß auch blödes Argument :D) Wenn man per Applikation AF anfordert, wird afaik auch Stage 1-7 voll gefiltert. Ich weiß nicht, wie das bei aktuellen Spielen aussieht, das modernste was ich habe ist Max Payne 2, hier kann man AF anfordern.

Das mit den "bei äußerst selten auftretenden Winkeln" stimmt für das herunterschalten auf 2x. Dass volles 16x zum Tragen kommt, gilt andersrum auch nur für einige wenige Winkel. Jene allerdings kommen mit relativ hoher Wahrscheinlichkeit vor, das stimmt schon. Trotzdem halte ich persönlich die NV-Lösung mit geringer Winkelabhängigkeit bei 8x, und eben der Begrenzung auf 8x, für besser als das was ATI mit 16x bietet. Ist natürlich eine Geschmacksfrage.

reunion
2003-12-02, 18:00:05
Original geschrieben von aths
Konkret, wenn man bestimmte Fehler ständig sieht, fühle ich mich genervt. Ich hoffe, dich nicht zu nerven, wenn ich mir erlaube, auf einige Standard-Fehler hinzuweisen.

Nein, kein Problem...

Na was nun, du hast mit dem 3DMark auch ein Nicht-Spiel gebracht. Beschränken wir uns rein auf Spiele, sieht es so aus: Was jetzt erscheint, wurde vor einiger Zeit entwickelt. Es gab über längere Zeit als DX9-Hardware überhaupt nur die Radeon. Die ersten DX9-Spiele wären demnach automatisch Radeon-optimiert. Es gibt natürlich Anpassungen in Spielen. Für HL2 z.B. einen speziellen Modus für die FXe. Offenbar ist es nicht so leicht, die Klippen bei der CineFX-Architektur zu umschiffen, so dass die Pipes weiterhin Leertakte einschieben müssen.

Oh oh. Wer vergleicht denn da 4x/8x?? Das kann man nicht vergleichen: Radeon liefert die bessere Kantenglättung, GeForce die besseren Texturen. Wie soll man das gegeneinander aufrechnen? Ich akzeptiere keine Benchmark-Vergleiche mit diesen Settings zwischen Radeon und GeForce.


Wie willst du denn sonst vergleichen?
2048x1536 ohne AA und AF??
Im großen und ganzen gleichen sich die Vorteile der beiden Karten eh aus, auch wenn du das warscheindlich nicht so siehst...
(im übrigen wurde der deto. 52.16 benutzt wodurch das AF der FX auch nichtmehr das wahre ist ;))

"Wäre" bitte ohne h :) :) Das Wort "wäre" ist eine Flexion von "sein". Eine andere Flexion von "sein" ist "war". Mit "war" meint man aber nicht "wahr". Deshalb gibts kein "währe" :)


Ups, der fehler passiert mir immerwieder, sorry (deshalb bekomm ich in Deutsch immernur ein Genügend *heul*)

Mit einer schnelleren CPU wäre in den Bereichen, wo es bei mir ruckelt (also in den Außenwelten) schneller. Die Radeon bringt nur erst mal "nutzlose" Geschwindigkeit, wobei man natürlich Geschwindigkeit in Qualität eintauschen kann, so dass die "überschüssige" Geschwindigkeit in einen konkreten Nutzen gewandelt wird. Das ist mir jedoch keine 300 € wert.

Wenn man per Applikation AF anfordert, wird afaik auch Stage 1-7 voll gefiltert. Ich weiß nicht, wie das bei aktuellen Spielen aussieht, das modernste was ich habe ist Max Payne 2, hier kann man AF anfordern.

Das mit den "bei äußerst selten auftretenden Winkeln" stimmt für das herunterschalten auf 2x. Dass volles 16x zum Tragen kommt, gilt andersrum auch nur für einige wenige Winkel. Jene allerdings kommen mit relativ hoher Wahrscheinlichkeit vor, das stimmt schon. Trotzdem halte ich persönlich die NV-Lösung mit geringer Winkelabhängigkeit bei 8x, und eben der Begrenzung auf 8x, für besser als das was ATI mit 16x bietet. Ist natürlich eine Geschmacksfrage.

Jedem das seine ;)

aths
2003-12-02, 18:33:03
Original geschrieben von reunion
Wie willst du denn sonst vergleichen?
2048x1536 ohne AA und AF??Natürlich nicht, Rohleistung ist nur noch von theoretischem Interesse. Man kann die BQ-Settings eben nur "innerhalb der Familie" gegeneinander benchen. Kantenglättung und anisotropes Filtern sind grundlegend verschiedene BQ-Maßnahmen. Imo sollte man da nichts aufrechnen.

Demirug
2003-12-02, 18:33:11
Was habt ihr eigentlich immer mit euerem DX9-Standard-Pfad? Wenn man es richtig macht gibt es in einer DX-Engine maximal 2 Programmpfade (einen für Shaderhardware und einen für nicht Shaderhardware). Wenn man es ganz gut macht kommt man sogar mit einem einzigen Pfad aus.

Wie ein Effekt dann genau auf einer Karte gerendert wird hinterlegt man in einer Konfiguration. Ist das Format einigermassen verständlich kann man sich dann bei seine Shaderkonfigurationen von den IHVs helfen lassen.

Um den Thread jetzt entgültig ins Offtopic zu ziehen noch ein Zitat von Gabe:

We are working pretty hard with NVIDIA to try to optimize the situation with regards to getting their performance up to snuff. We spend more of our time with ATI working on new features like high-dynamic range rendering (HDR) which is a new technique to create more life-like lighting.

Wenn man seine neue Features mit einem IHV zusammen entwickelt braucht man sich IMHO nicht zu wundern wenn es dann bei einem anderen IHV nicht so performant läuft. Gerade wenn die Hardware so unterschiedlich wie im Moment gerade ist.

betasilie
2003-12-02, 19:52:59
Original geschrieben von aths
Diese Frage ist zu eindimensional.

Die "wichtige" Rechenpower, also die arithmetische, ist praktisch gleichwertig, wobei NV35 sogar mit FP32 statt FP24 rechnet. Nun gibt es Nebenbedingungen, es kann sein, dass die maximale Rechenpower nicht ausgeschöpft werden kann. CineFX und CineFX2 sind diesbezüglich anfälliger, als die Shader der Radeon.

Ok, Du hast natürlich völlig recht. Ich war mit meiner Aussage tatsächlich zu unpräzise. ... Die Shader der FX sind sicherlich in der Theorie stark, aber ich denke, dass nur wenige, speziell von NV supportete Games, die meist uneffiziente arbeitenden Shader der FX effektiv auslasten werden. Jedenfalls im Jahr 2004.

Original geschrieben von aths
Worauf begründest du deine Wette? Auf Hoffnung, (gar Glaube) oder auf technisch fundierten Fakten? (Vorsicht, Fangfrage :)) Welche Fakten sprechen aus deiner Sicht dafür, dass bessere Shadercompiler in Zukunft nicht bessere Shader liefern, welche CineFX2 besser auslasten? Ich jedenfalls gehe davon aus, dass die "erste Charge" DX9-Games, praktisch auf Radeon entwickelt, auch deutlich besser (schneller) auf Radeon läuft. Bei der "zweiten Charge" erwarte ich, dass von der Rechenkraft eines NV35 besserer Gebrauch gemacht wird, als bislang. (60%-Wunder erwarte ich natürlich nicht.)

Nunja, nennen wir es mal Intuition. ;) ... Du hast natürlich recht, dass die FXe aufholen werden, bedingt durch neue Compiler. Wie sich das in der Praxis entwickelt, wird sich zeigen.

Original geschrieben von aths
Man kann AA und AF kaum "kongruent" einstellen. Bezüglich AA hat die Radeon z. B. eine hässliche Füllratenschwäche bei Z/Stencil-Rendering. Das kommt heute noch nicht so zum tragen, bei Doom3 dürfte es mit 4x AA jedoch ggü. 2x einen spürbaren Einbruch geben.

Wer welchen BQ-Unterschied sieht, nunje, da bin ich vorsichtig geworden. Mein Fanatismus pro glatter Kanten ist bekannt. ATIs 6x sparsed, gamma corrected MSAA stelle ich nicht ohne Grund als "Masterpiece" hin. Dennoch sehe ich keinen Grund, die AF-Schwächen zu übertünchen.
Also ich finde schon, dass man annähernde IQ-Kongruenz herstellen kann, zwischen den FXen und den ATIs. Das sowas nicht perfekt ist, sollte klar sein, aber sowas generell zu verteufeln ist quatsch, den Vergleichstests wird es und muss es immer geben, und da sollte man schon den Anspruch haben Karten auch nach IQ-Qualität zu benchen.

Zur AF-Schwäche kann ich nur sagen, dass ich diese nicht übertünchen will, nur empfinde ich ATIs AF in den meisten Fällen als sehr gut. BF1942 ist eigentlich das einzige Game bei dem mir das ATI-AF negativ auffällt, aber es stört mich, bedingt durch das Spielprinzip, relativ selten.

Radeonator
2003-12-03, 11:44:20
Also ich finde, das ihr mal wieder komplett am Thema vorbei seit...

Zusammenfassend : Lieber Threadstarter, du hast die Qual der Wahl!!! Für deine Zwecke reicht eine 5700er/9600er eigentlich vollkommen aus. Wenns etwas länger halten soll, wirds wohl eher eine 9800er np oder 5900er bzw 5900SE werden. The choice is urs... :)