PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Weswegen ich keinem zu einer FX5900XT raten konnte...


MadMan2k
2004-03-03, 14:11:11
...und immer die 60€ teurere R9800Pro empfohlen habe:

http://www.elitebastards.com/page.php?pageid=3703&head=1&comments=1

Die ShaderMark ergebnisse kann man eben doch nicht so einfach unter den Tisch kehren, bzw. ihnen jeden Aussagekraft absprechen...

:arsch:

Keel
2004-03-03, 14:21:26
Original geschrieben von MadMan2k
...und immer die 60€ teurere R9800Pro empfohlen habe:

http://www.elitebastards.com/page.php?pageid=3703&head=1&comments=1

Die ShaderMark ergebnisse kann man eben doch nicht so einfach unter den Tisch kehren, bzw. ihnen jeden Aussagekraft absprechen...

:arsch:
Beim Kauf lag mein Fokus auf OGL, mehr Speed bei DX8, schönes AF und mindestens 2xFSAA (was kaum Performanced kostet) - zum Schluss kam die DX9-Fähigkeit.
Jetzt bin ich aber ganz schön am A****, nicht wahr?

Odal
2004-03-03, 14:32:10
ich sinne gerade ueber die intension dieses threads...

soll es eine erneute aufforderung zum daemlichen rumgeflame und die schon zum millionsten male geschehene aufzaehlung von vorteilen/nachteilen der einen und der anderen karte sein

oder ist es madman2k's persoenlicher pro Ati ischer kampf
zumal er genau auf das wirklich beste P/L angebot seitens des so verhassten konkurenten abzielt?

@ MadMan2k

ein dickes GAEEEHNNNNNNN meinerseits dafuer

an den gast nach mir..ich habs mal fettgedruckt..es gibt unzaehlige threads dazu..wer die suchfunktion benutzt wird leicht fuendig

Gast
2004-03-03, 14:40:15
Hier werden tatsächlich Vor/Nachteile der jeweiligen Chips beleuchtet. Oh Gott!

Worüber sollte in einem Grafikchipforum eigentlich sonst geredet werden?

Für manche die Aufzählung von Tatsachen anscheinend direkt ein flame.

StefanV
2004-03-03, 14:51:44
Original geschrieben von MadMan2k
http://www.elitebastards.com/page.php?pageid=3703&head=1&comments=1


Netter Test, allerdings fehlt mir da irgendwie die Radeon 9600XT...
Wäre interessant zu sehen, wie sie sich im Vergleich zur FX5900XT schlägt...

Allerdings muss ich einwerfen, daß der Titel etwas ungeschickt gewählt ist, da so ein Flamewar so sicher ist wie das Amen in der Kirche...

Siehe auch den nV Quickguide, welchen ich in meiner Signatur verlinkte, wo sich einige auf dem Topic aufgehängt haben...

aths
2004-03-03, 14:58:48
Original geschrieben von MadMan2k
...und immer die 60€ teurere R9800Pro empfohlen habe:

http://www.elitebastards.com/page.php?pageid=3703&head=1&comments=1

Die ShaderMark ergebnisse kann man eben doch nicht so einfach unter den Tisch kehren, bzw. ihnen jeden Aussagekraft absprechen...

:arsch: Die testen mit 4x AA 8x AF … sinnlos!

Radeonator
2004-03-03, 15:49:00
Naja, das (der Threadtitel) ist jawohl absichtliche Provokation...gut nur das man weiss von wem es kommt, da weiss man solche Threads besser einzuordnen http://www.fffc.de/modules/PNphpBB2/images/smiles/toilet.gif

MadManniMan
2004-03-03, 15:52:51
Original geschrieben von aths
Die testen mit 4x AA 8x AF … sinnlos!

Sie schreiben einen über 3 Kilometer langen Text dazu.

Nichts gegen Konsequenz, aber aus Prinzip auf Stur zu schalten, nur weil 4*/8* auch dasteht...

MadManniMan
2004-03-03, 15:54:08
Original geschrieben von Radeonator
Naja, das (der Threadtitel) ist jawohl absichtliche Provokation...gut nur das man weiss von wem es kommt, da weiss man solche Threads besser einzuordnen http://www.fffc.de/modules/PNphpBB2/images/smiles/toilet.gif

Ändert aber nix am Kontext: mit den aktuellen Treibern und der Demoversion von CMR4 kommt ne R350 besser klar als ne NV35.

:ratlos:

VooDoo7mx
2004-03-03, 17:19:14
Original geschrieben von MadMan2k
Die ShaderMark ergebnisse kann man eben doch nicht so einfach unter den Tisch kehren, bzw. ihnen jeden Aussagekraft absprechen...


Welches Spiel besteht zu 99,99% aus Shadern? :|

Und wieso muss denn dieses leidige Thema zum 2768. Mal aufgerollt werden?

Soll ich jetzt irgendwelche Benchmarks ausrollen wo der FX5900 besser dasteht?

Stefan Payne
Netter Test, allerdings fehlt mir da irgendwie die Radeon 9600XT...
Wäre interessant zu sehen, wie sie sich im Vergleich zur FX5900XT schlägt...


WÜrde mich auch interessieren ich schätze so 10-20% hinter der FX5900.

Beim besagten Shadermark ist ja eine 9600XT so schnell wie eine FX5950U :D (53.03 Treiber)

ow
2004-03-03, 17:22:11
.

MadManniMan
2004-03-03, 17:31:17
Original geschrieben von ow
Ich sehe nur nicht, dass dort zwei Karten vergleichen wurden, die in direkter Konkurrenz stehen. Eine 9800 nopro wäre doch eher angemessen oder alternativ eine 5900 Ultra.

Nun, da muß ich dir jetzt widersprechen. Sicherlich ist die 9800 Pro etwas zu hoch angesetzt, aber dennoch ist der Vergleich nicht ganz so mistig - schließlich geht es um die Preise, zu denen man die Karten bekommen kann!

Eine Radeon 9800 Pro bekommt man momentan ohne weiteres für 210,- , für eine 5900XT muß man 170,- veranschlagen. Eine 5900 Ultra jedoch schlägt mit gut 300€ zu Buche.

Original geschrieben von ow
Dass CMR4 jetzt DAS Totschlagargument gegen eine FX5900 sein soll, da lache sicher nicht nur ich drüber.

DA hast du recht.

Original geschrieben von ow
Und btw. Benches mit FRAPS sind ohnehin mit Vorsicht zu geniessen!

Außerdem ;)

LovesuckZ
2004-03-03, 17:31:45
Warum wird der Thread eigentlich nicht geschlossen?
Die Intention ist es doch, gegen eine Nvidiakarte zu bashen und damit zu flamen. Ist dies nach dem Regeln nicht verboten?

Mr. Lolman
2004-03-03, 17:31:57
Original geschrieben von ow
Ich sehe nur nicht, dass dort zwei Karten vergleichen wurden, die in direkter Konkurrenz stehen.

Beide Karten kosten ca. gleichviel.

LovesuckZ
2004-03-03, 17:32:56
Original geschrieben von Mr. Lolman
Beide Karten kosten ca. gleichviel.

Bitte. 45€ oder ca. 20% Preisspanne.
Gleichviel bedeute max. 20€ oder 10%.

Odal
2004-03-03, 17:35:48
Original geschrieben von LovesuckZ
Warum wird der Thread eigentlich nicht geschlossen?
Die Intention ist es doch, gegen eine Nvidiakarte zu bashen und damit zu flamen. Ist dies nach dem Regeln nicht verboten?

das wollt ich eigewntlich mit meinem obigen posting "durch die blume" auch schon sagen

reunion
2004-03-03, 17:43:56
Original geschrieben von LovesuckZ
Bitte. 45€ oder ca. 20% Preisspanne.
Gleichviel bedeute max. 20€ oder 10%.

Der Unterschied ist viel zu groß als dass die Ultra-Version das aufhohlen könnte!!

Mr. Lolman
2004-03-03, 17:49:36
Original geschrieben von LovesuckZ
Bitte. 45€ oder ca. 20% Preisspanne.
Gleichviel bedeute max. 20€ oder 10%.

http://www.geizhals.at/deutschland/a63390.html

Wenns nicht unbedingt eine ASUS sein muss.

LovesuckZ
2004-03-03, 17:53:58
Original geschrieben von Mr. Lolman
http://www.geizhals.at/deutschland/a63390.html

Wenns nicht unbedingt eine ASUS sein muss.

Treadtitel: "Weswegen ich keinem zu einer FX5900XT raten konnte...".

Mr. Lolman
2004-03-03, 17:54:59
Original geschrieben von LovesuckZ
Treadtitel: "Weswegen ich keinem zu einer FX5900XT raten konnte...".

Beim CMR4 Demo wurde gegen eine FX5900 gebencht.

LovesuckZ
2004-03-03, 17:56:52
Original geschrieben von Mr. Lolman
Beim CMR4 Demo wurde gegen eine FX5900 gebencht.

Treadtitel: "Weswegen ich keinem zu einer FX5900XT raten konnte...".

BadFred
2004-03-03, 18:06:26
Original geschrieben von LovesuckZ
Treadtitel: "Weswegen ich keinem zu einer FX5900XT raten konnte...".

Denkanstoß: Was eine FX5900 nicht leistet, leistet eine FX5900XT erst recht nicht.

Mr. Lolman
2004-03-03, 18:18:19
Lovesuckz, ich hatte auf ows Beitrag:

Original geschrieben von ow
Original geschrieben von MadManniMan
Ändert aber nix am Kontext: mit den aktuellen Treibern und der Demoversion von CMR4 kommt ne R350 besser klar als ne NV35.
Ich sehe nur nicht, dass dort zwei Karten vergleichen wurden, die in direkter Konkurrenz stehen. Eine 9800 nopro wäre doch eher angemessen oder alternativ eine 5900 Ultra.

Dass CMR4 jetzt DAS Totschlagargument gegen eine FX5900 sein soll, da lache sicher nicht nur ich drüber.

Und btw. Benches mit FRAPS sind ohnehin mit Vorsicht zu geniessen!
folgendes geantwortet:
Original geschrieben von Mr. Lolman
Original geschrieben von ow
Ich sehe nur nicht, dass dort zwei Karten vergleichen wurden, die in direkter Konkurrenz stehen.
Beide Karten kosten ca. gleichviel.
Was passt denn nun nicht?

Dunkeltier
2004-03-03, 18:20:56
Ist der Thread schlecht. Ist doch scheißegal, ob Karte x oder Karte y im Spiel A oder B vorne liegt.

LovesuckZ
2004-03-03, 18:22:06
In diesem Thread geht es um die 5900XT und 9800pro. Damit sind diese beidenkarten auch gemeint, auch wenn nur von 5900 und 9800 gesprochen wird.

Mr. Lolman
2004-03-03, 18:27:35
Du versuchst wohl mit ganzer Kraft den Thread zu shreddern. Gratulation, gelingt dir wunderbar :up:

Gesetzt denn Fall, dass du es wirklich nicht kapierst:

ow mokierte sich darüber, dass bei CMR4 eine FX5900 und nicht eine FX5900 Ultra mit der 9800pro verglichen wurde, und fragte sich inweiweit denn die beiden Karten überhaupt miteinander vergleichbar sein sollen. Meine Antwort hab ich ja jetzt schon 2x gepostet.

LovesuckZ
2004-03-03, 18:30:22
Original geschrieben von Mr. Lolman
Gesetzt denn Fall, dass du es wirklich nicht kapierst:


Aufgrund der Tatsache, dass du mich gerade beleidigt hast (das sollte dann wohl bepunktet werden), spare ich mir die Erlaeuterung.

Dunkeltier
2004-03-03, 18:33:11
Wofür solls Punkte geben, wo hat er dich beleidigt? Langsam wirds echt unterirdisch.

Mr. Lolman
2004-03-03, 18:40:15
Ich wär dafür, die letzten 11 Posts zu trashen, und dem thread nochmal eine Chance zugeben. Ist doch echt lächerlich, das in jedem Thread, der einen (weiteren) Ausrutscher eines Herstellers aufzeigt, so viel geflamt und OT gepostet wird, bis der Thread geschlossen wird...

Eine ganz gute Idee wär vielleicht, die Liste mit den Spielen, die entweder auf ATi, oder auf NV besser laufen, aktuell zu halten und Sticky zu machen. So kann jeder kcucken, wo sein Lieblingspiel dabei ist, und unter diesen Gesichtspunkten seine GraKawahl treffen.

MadMan2k
2004-03-03, 18:42:03
ooops... das nächste mal werd ich das ganze im Benchmarkforum eröffnen und deutlicher Herausstellen, worum es geht:
Als damals die Preise für die FX5900XT sanken und sie von allen epfohlen wurden, habe ich die DX9 Performance bemängelt und das ganze mit dem ShaderMark belegen wollen.
Aber damals hat man gesagt, dass die DX9 Performance des NV35 völlig i.O. sei und der ShaderMark nicht repräsentativ.
Nun kommt das erste Spiel, welches halbwegs DX9 Shader einsetzt und zeigt, dass dem nun doch so ist.
Also dass man Benchmarks nicht einfach so unter den Teppich kehren kann, sondern nur richtig gewichten muss.

LovesuckZ
2004-03-03, 18:42:15
Original geschrieben von Dunkeltier
Wofür solls Punkte geben, wo hat er dich beleidigt? Langsam wirds echt unterirdisch.

nun, da man auch Punkte bekommt, wenn man andere "Fanatiker" bzw. "Nvidiot" nennt, müsste es dafür auch punkte geben, da er mich als "Dumm" darstelle.
Es wird sowieso nicht passieren, da aths das ganze nicht durchziehen kann.

LovesuckZ
2004-03-03, 18:45:59
Original geschrieben von MadMan2k
Nun kommt das erste Spiel, welches halbwegs DX9 Shader einsetzt und zeigt, dass dem nun doch so ist.

Hm, Unterschied ist 20-30%. Preisunterschied bei ca. 20%. Sehe ich als normal an. Ob dies für einige einen deutlichen Aufpreis darstelle, kannst du nicht wissen.
Als die preise früher bei über 70€ Unterschied lagen, konnte man eine 9800pro nicht empfehlen, wenn jemand gefragt hat, ob eine 5900XT ausreiche. Denn beide Karten lagen außerhalb der Konkurenz. Oder empfehle ich jemanden eine 5950U, wenn dieser nach der Brauchbarkeit einer 5200 fragt? Nein.

Also dass man Benchmarks nicht einfach so unter den Teppich kehren kann, sondern nur richtig gewichten muss.

Deswegen führt man ja auch immer OpenGl als Argument für die Nvidiakarten an. Komisch, hier werde dann immer mit "triplebuffer" argumentiert :|

MadMan2k
2004-03-03, 18:48:30
Original geschrieben von Radeonator
Naja, das (der Threadtitel) ist jawohl absichtliche Provokation...gut nur das man weiss von wem es kommt, da weiss man solche Threads besser einzuordnen
eigentlich wollte ich keinen Provozieren, sondern nur versuchen meine damaligen Bedenken anschaulicher zu machen...

MadMan2k
2004-03-03, 18:53:20
Original geschrieben von LovesuckZ
Hm, Unterschied ist 20-30%. Preisunterschied bei ca. 20%. Sehe ich als normal an.
nunja mit AA||AF, was man bei den Frameraten durchaus anmachen sollte, sinds schon 70% bei 30% Preisunterschied(damals, 220/280).

LovesuckZ
2004-03-03, 18:57:51
Original geschrieben von MadMan2k
nunja mit AA||AF, was man bei den Frameraten durchaus anmachen sollte, sinds schon 70% bei 30% Preisunterschied(damals, 220/280).

Damals kostete eine 5900XT auch unter 200€ :)
Mit AA/AF, da liegen schon Welten dazwischen. Warum? Ka, vielleicht an zu vielen Eben. Aber solche Probleme hatten ATi user auch unter einigen OpenGL Spielen. Nur dass hier eine 5900XT auf dem selben Niveau war.

MadMan2k
2004-03-03, 18:59:08
Original geschrieben von aths
Die testen mit 4x AA … sinnlos!
wir wollen doch nur das Verhalten des Chips unter gleicher Belastung untersuchen... ;)

MadMan2k
2004-03-03, 19:04:50
Original geschrieben von LovesuckZ
Damals kostete eine 5900XT auch unter 200€ :)
Mit AA/AF, da liegen schon Welten dazwischen. Warum? Ka, vielleicht an zu vielen Eben. Aber solche Probleme hatten ATi user auch unter einigen OpenGL Spielen. Nur dass hier eine 5900XT auf dem selben Niveau war.
so, Thread ausgebuddelt (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=114878&highlight=9800)

es ging doch im FX5900XT vs. R9800np - was aber eigentlich nichts ändert:
200/260€, im Benchmark beides eine Stufe kleiner...

aths
2004-03-03, 19:11:59
Original geschrieben von LovesuckZ
Warum wird der Thread eigentlich nicht geschlossen?
Die Intention ist es doch, gegen eine Nvidiakarte zu bashen und damit zu flamen. Ist dies nach dem Regeln nicht verboten? Verboten sind Flames, also Angriffe auf Personen.

LovesuckZ
2004-03-03, 19:22:06
Original geschrieben von aths
Verboten sind Flames, also Angriffe auf Personen.

Nein. Ich wurde von dem Mod Major abgemahnt, nicht gegen das Nvidiaforum zu flamen.
Also sind auch Angriffe gegen unlebende Gegenstaende in diesem Forum verboten.

aths
2004-03-03, 19:27:58
Original geschrieben von LovesuckZ
Nein. Ich wurde von dem Mod Major abgemahnt, nicht gegen das Nvidiaforum zu flamen.
Also sind auch Angriffe gegen unlebende Gegenstaende in diesem Forum verboten. Gegen ein Forum zu flamen? Warum besprechen wir das nicht im 3DC-Forums-Forum? Mach da doch mal einen Thread auf …

SKYNET
2004-03-03, 22:15:03
Original geschrieben von aths
Die testen mit 4x AA 8x AF … sinnlos!

wie recht du hast !

Quasar
2004-03-03, 22:22:55
Bevor hier ganz dichtgemacht wird (in zweierlei Wortsinn) mal ein gescheiter Blick auf ein Vergleichsbild:
http://216.40.246.32/~bnt/altpics/cmr4/1024x768af-1.jpg
http://216.40.246.32/~bnt/altpics/cmr4/1024x768af-2.jpg

Sorry, daß es so groß ist, aber die guten Bastarde sehen ja angeblich den Wald vor lauter Bäumen nicht.

Ich sehe da, z.B. links zwischen den Köpfen der beiden am dichtesten am Betrachter stehenden Personen, daß die nV-Karte deutlich mehr Gebüsch zeigt.

Toll gecheatet, ATi und keinem fällt's auf. :down:

(auf dem ATi-AA-Shot (http://216.40.246.32/~bnt/altpics/cmr4/1024x768aa-1.jpg) (hier die nV-Variante (http://216.40.246.32/~bnt/altpics/cmr4/1024x768aa-2.jpg)) genau dasselbe, aber hier kommt ja "with AA enabled, ATi's superior antialiasing implementation comes into play." :bonk: Wie blind kann oder will man sein sowas in einem animierten Bildvergleich nicht zu sehen)

Iceman346
2004-03-03, 22:28:32
Original geschrieben von Quasar
Bevor hier ganz dichtgemacht wird (in zweierlei Wortsinn) mal ein gescheiter Blick auf ein Vergleichsbild:

http://216.40.246.32/~bnt/altpics/cmr4/1024x768af-2.jpg

Sorry, daß es so groß ist, aber die guten Bastarde sehen ja angeblich den Wald vor lauter Bäumen nicht.

Ich sehe da, z.B. links zwischen den Köpfen der beiden am dichtesten am Betrachter stehenden Personen, daß die nV-Karte deutlich mehr Gebüsch zeigt.

Toll gecheatet, ATi und keinem fällt's auf. :down:

(auf dem AA-Shot (http://216.40.246.32/~bnt/altpics/cmr4/1024x768aa-1.jpg) genau dasselbe, aber hier kommt ja "with AA enabled, ATi's superior antialiasing implementation comes into play." :bonk: Wie blind kann oder will man sein sowas in einem animierten Bildvergleich nicht zu sehen)

Sowas in der Art gabs/gibts auch schon beim Aquamark 3. Dort stellen die NV Karten auch deutlich mehr Gestrüpp auf dem Boden dar. Afaik wurde aber nie mit dem RefRast überprüft wie es wirklich aussehen sollte.

Quasar
2004-03-03, 22:33:10
... und ATi wollte an einem Fix arbeiten. Der dauert natürlich eine Weile und bis dahin interessiert keinen mehr der Benchmark.

Die hohen Erst-Ergebnisse haben sich dann schon schön in die Köpfe der entgeistert jubelnden Massen gebrannt.

LovesuckZ
2004-03-03, 22:33:38
Original geschrieben von Iceman346
Afaik wurde aber nie mit dem RefRast überprüft wie es wirklich aussehen sollte.

Das Problem waere, dass der RefRast nur von einer Seite akzeptiert werde...

MadManniMan
2004-03-03, 22:44:38
Original geschrieben von Quasar
Ich sehe da, z.B. links zwischen den Köpfen der beiden am dichtesten am Betrachter stehenden Personen, daß die nV-Karte deutlich mehr Gebüsch zeigt.

Toll gecheatet, ATi und keinem fällt's auf. :down:

Gucks dir nochmal genau an (http://www.elitebastards.com/anipic_alt.php?picid=cmr4/1024x768af-&frames=2&ext=jpg&speed=5000).

Wie man leicht sieht, sieht man erstmal nix. Aber wenn man sich mal das "Gestrüpp" links genauer anschaut, sieht man nicht nur das von dir beschriebene Phänomen, sonder auch, daß etwa "10m" weiter hinten dichteres Kram bei der Radeon ist. Ergo: nV malt hier mehr, während ATi da mehr malt. Vielleicht gibts ja gar nen Vegetationsgenerator, was das Gras betrifft.

Meines Erachtens lehnst du dich mit "Cheat" zuweit aus dem Fenster, was meinst du?

MadManniMan
2004-03-03, 22:48:21
Nochmal abschließend(?) zum Thema 5900vs.9800Pro: der mittlere Preis bei beiden ist laut Preistrend in einer Region: 220-230€. Ausreißer nach oben und unten gibts bei beiden.

StefanV
2004-03-03, 22:50:07
Original geschrieben von Quasar
Bevor hier ganz dichtgemacht wird (in zweierlei Wortsinn) mal ein gescheiter Blick auf ein Vergleichsbild:
http://216.40.246.32/~bnt/altpics/cmr4/1024x768af-1.jpg
http://216.40.246.32/~bnt/altpics/cmr4/1024x768af-2.jpg

Sorry, daß es so groß ist, aber die guten Bastarde sehen ja angeblich den Wald vor lauter Bäumen nicht.

Ich sehe da, z.B. links zwischen den Köpfen der beiden am dichtesten am Betrachter stehenden Personen, daß die nV-Karte deutlich mehr Gebüsch zeigt.

Toll gecheatet, ATi und keinem fällt's auf. :down:

(auf dem ATi-AA-Shot (http://216.40.246.32/~bnt/altpics/cmr4/1024x768aa-1.jpg) (hier die nV-Variante (http://216.40.246.32/~bnt/altpics/cmr4/1024x768aa-2.jpg)) genau dasselbe, aber hier kommt ja "with AA enabled, ATi's superior antialiasing implementation comes into play." :bonk: Wie blind kann oder will man sein sowas in einem animierten Bildvergleich nicht zu sehen)

oder es ist vielleicht nur eine Weitere auswirkung des LOD Detailtexutre Bugs der R300 Serie??

Von Cheat zu sprechen halte ich für fragwürdig, zumal der genaue Zusammenhang nicht geklärt ist...

VooDoo7mx
2004-03-03, 22:53:57
Original geschrieben von MadManniMan
Gucks dir nochmal genau an (http://www.elitebastards.com/anipic_alt.php?picid=cmr4/1024x768af-&frames=2&ext=jpg&speed=5000).

Wie man leicht sieht, sieht man erstmal nix. Aber wenn man sich mal das "Gestrüpp" links genauer anschaut, sieht man nicht nur das von dir beschriebene Phänomen, sonder auch, daß etwa "10m" weiter hinten dichteres Kram bei der Radeon ist. Ergo: nV malt hier mehr, während ATi da mehr malt. Vielleicht gibts ja gar nen Vegetationsgenerator, was das Gras betrifft.

Meines Erachtens lehnst du dich mit "Cheat" zuweit aus dem Fenster, was meinst du?

Den hab ich nichts mehr hinzuzufügen!
:daumen:

Thowe
2004-03-03, 23:02:19
Naja, schärfer ist die NV schon. Sieht man sehr gut am Auspuff. Oder wars doch nur der Nebel, sorry, die Abgase die das vortäuschen?

MadManniMan
2004-03-03, 23:09:40
Original geschrieben von Thowe
Naja, schärfer ist die NV schon. Sieht man sehr gut am Auspuff. Oder wars doch nur der Nebel, sorry, die Abgase die das vortäuschen?

;D Ich sehe schon, wir brauchten unbedingt Thowes auf extremst Rationalität abgestimmtes Auge...

...welcome back im Grafikchips-Forum! Da stellt sich dem geneigten MMM die Frage: Gastauftritt oder Sehnsucht?

aths
2004-03-03, 23:17:24
Original geschrieben von SKYNET
wie recht du hast ! … dass vor Ausrufezeichen kein Leerzeichen kommt?


Original geschrieben von Quasar
Bevor hier ganz dichtgemacht wird (in zweierlei Wortsinn) mal ein gescheiter Blick auf ein Vergleichsbild:
http://216.40.246.32/~bnt/altpics/cmr4/1024x768af-1.jpg
http://216.40.246.32/~bnt/altpics/cmr4/1024x768af-2.jpg

Sorry, daß es so groß ist, aber die guten Bastarde sehen ja angeblich den Wald vor lauter Bäumen nicht.

Ich sehe da, z.B. links zwischen den Köpfen der beiden am dichtesten am Betrachter stehenden Personen, daß die nV-Karte deutlich mehr Gebüsch zeigt.

Toll gecheatet, ATi und keinem fällt's auf. :down:Bei anderen Flächen malt ATI dann mehr. Das Gras sieht mir wie zufällig gesetzt aus.

thop
2004-03-03, 23:46:27
Also CMR4 find ich sowieso ziemlich unspektakulär, was soll da DX9 sein :???:

Auf dem Dach sind bei der ATI aber 4 schwarze Punkte :gruebel:

MadManniMan
2004-03-03, 23:52:44
Original geschrieben von thop
Also CMR4 find ich sowieso ziemlich unspektakulär, was soll da DX9 sein :???:

Frag ich mich auch grad... :grübel: Am besten ich renn den Kram mal gleichzeitig auf meinem Zweit- und meinem Erstrechner, dann lege ich Bericht ab! ;)

Original geschrieben von thop
Auf dem Dach sind bei der ATI aber 4 schwarze Punkte :gruebel:

Ohne AA/AF hat die FX diese Punkte :ratlos:

betasilie
2004-03-03, 23:56:04
Original geschrieben von Quasar
Bevor hier ganz dichtgemacht wird (in zweierlei Wortsinn) mal ein gescheiter Blick auf ein Vergleichsbild:
http://216.40.246.32/~bnt/altpics/cmr4/1024x768af-1.jpg
http://216.40.246.32/~bnt/altpics/cmr4/1024x768af-2.jpg

Sorry, daß es so groß ist, aber die guten Bastarde sehen ja angeblich den Wald vor lauter Bäumen nicht.

Ich sehe da, z.B. links zwischen den Köpfen der beiden am dichtesten am Betrachter stehenden Personen, daß die nV-Karte deutlich mehr Gebüsch zeigt.

Toll gecheatet, ATi und keinem fällt's auf. :down:

(auf dem ATi-AA-Shot (http://216.40.246.32/~bnt/altpics/cmr4/1024x768aa-1.jpg) (hier die nV-Variante (http://216.40.246.32/~bnt/altpics/cmr4/1024x768aa-2.jpg)) genau dasselbe, aber hier kommt ja "with AA enabled, ATi's superior antialiasing implementation comes into play." :bonk: Wie blind kann oder will man sein sowas in einem animierten Bildvergleich nicht zu sehen)
Du solltes eigentlich sehen können, dass die Verteilung der Grasbüschel wahrscheinlch zufällig generiert wird, und dass bei dem 9800Pro Screenshot woanders dafür mehr Gras ist.

Edit: Habe nicht gesehen, dass es schon soviele Replies zu dem Posting gab.

MadMan2k
2004-03-03, 23:59:57
Original geschrieben von thop
Also CMR4 find ich sowieso ziemlich unspektakulär, was soll da DX9 sein :???:

es liegen wohl die Shader ebi denen es was bringt auch in DX9 vor - ähnlich wie in UT2003 (DX7 <=> DX8)
Beim Kumpel auf ner R8500 hab ich jedenfalls keinen Unterschied gesehen.


Auf dem Dach sind bei der ATI aber 4 schwarze Punkte :gruebel:
OMG!!! DER BEWEIS! NVIDIA cheatet schwarze Punkte weg... :cop:

MadManniMan
2004-03-04, 00:03:26
Ömm, Leute! Ist euch schonmal der Gedanke gekommen, daß ein Argument nicht besser wird, wenn mans 3, 4, 5mal bringt, sondern eher die Nerven angegangen werden?

Macht mal locker!

tokugawa
2004-03-04, 00:05:46
Original geschrieben von MadMan2k
ooops... das nächste mal werd ich das ganze im Benchmarkforum eröffnen und deutlicher Herausstellen, worum es geht:
Als damals die Preise für die FX5900XT sanken und sie von allen epfohlen wurden, habe ich die DX9 Performance bemängelt und das ganze mit dem ShaderMark belegen wollen.
Aber damals hat man gesagt, dass die DX9 Performance des NV35 völlig i.O. sei und der ShaderMark nicht repräsentativ.
Nun kommt das erste Spiel, welches halbwegs DX9 Shader einsetzt und zeigt, dass dem nun doch so ist.
Also dass man Benchmarks nicht einfach so unter den Teppich kehren kann, sondern nur richtig gewichten muss.

Eben. Und bei der richtigen Gewichtung (die basiert auf persönlichen Präferenzen und ist nicht allgemeingültig für jeden), kann die 5900XT durchaus die bessere Variante sein.

Jedoch den Anspruch zu erheben, allgemeingültige Aussagen zu treffen welche der Karten nun besser sei, ist Haarspalterei; es kann sehr wohl die 5900XT die bessere Alternative sein - je nach persönlicher Gewichtung.

Thowe
2004-03-04, 00:08:36
Original geschrieben von MadManniMan
;D Ich sehe schon, wir brauchten unbedingt Thowes auf extremst Rationalität abgestimmtes Auge...

...welcome back im Grafikchips-Forum! Da stellt sich dem geneigten MMM die Frage: Gastauftritt oder Sehnsucht?

Gastauftritt. Ich bin in einem Alter wo das Haare-Raufen mit lebenslanger Glatze belohnt wird. Da hilft dann auch kein AA mehr wenns langsam ein kantiger Dickschädel wird und AF macht die platten Sprüche dann auch nicht schärfer.

Kurz gesagt: Der Beitrag (einer) wurde gemeldet und ich war mal so frei den Jungel zu besuchen. Im Moment suche ich hier Tarzan gleich, den Grund zum Geschrei und wenn die Jane an die Liana fasst, mir das vor Schmerz auch nicht passt. Drum schwing ich mich lieber wieder fort, dieser Thread hier ist ein trister Ort.

Quasar
2004-03-04, 00:12:45
Original geschrieben von betareverse
Du solltes eigentlich sehen können, dass die Verteilung der Grasbüschel wahrscheinlch zufällig generiert wird, und dass bei dem 9800Pro Screenshot woanders dafür mehr Gras ist.

Edit: Habe nicht gesehen, dass es schon soviele Replies zu dem Posting gab.

Schon ok. :)

Möglicherweise habe ich mich wirklich zu weit aus dem Fenster gehängt, als ich das böse "C"-Wort benutzte.

An "zufällig" verteiltes Gras glaube ich allerdings nicht, denn dazu sind die drei jeweiligen Screenies derselben Karte zu gleichmäßig.

Trotzdem auffällig, daß bei solcherlei Pflanzenbewuchs es offenbar unterschiedliche Auffassungen vom korrekten Rendern der von der Game-Engine gelieferten Daten zu geben scheint.


Was ich aber nach langer Betrachtung der Screenies nochmal sagen will: Hier fällt die WA von ATis AF wirklich kaum auf. Das finde ich gut!

StefanV
2004-03-04, 00:14:37
Original geschrieben von Thowe


Der Beitrag (einer) wurde gemeldet und ich war mal so frei
den Jungel zu besuchen.
Im Moment suche ich hier Tarzan gleich,
den Grund zum Geschrei und wenn die Jane an die Liana fasst,
mir das vor Schmerz auch nicht passt.
Drum schwing ich mich lieber wieder fort,
dieser Thread hier ist ein trister Ort.

Hm, sollte wohl ein Gedicht werden, so passts besser, hoffe ich, zumindest die letzten 4 Zeilen, die ersten hab ich irgendwie nicht so genau hinbekommen oder dir fehlte die Muse, wie dem auch sei...

Diese ganze Erbsenzählerei, das angefeinde und gebashe und vorallendingen absichtliche Provokationen gehen mir solangsam aufn Sack...

Mag zwar sein, daß ich früher ähnlich werd, nur werden Menschen älter und reifer, zumindest in der Theorie...

MadManniMan
2004-03-04, 00:18:15
Hm, bei mir ists irgendwie gerade der Drang zur Kontroverse, der mich diesen Spaß an derlei Threads haben läßt - aber was will man vonnem 20jährigen erwarten, nich?

BTW Thowe: schade ;(

Nu is aber genuch mit OT hier...

StefanV
2004-03-04, 00:20:29
Original geschrieben von MadManniMan
Hm, bei mir ists irgendwie gerade der Drang zur Kontroverse, der mich diesen Spaß an derlei Threads haben läßt

Kommt halt immer drauf an, wie man etwas sagt, was man sagt und warum man etwas sagt...

Prinzipiell hab ich auch nichts gegen eine ordentliche Diskussion einzuwenden, nur wird man hier recht schnell persönlich angegriffen oder es wird einfach nur sinnlos drauflosgedroschen...

betasilie
2004-03-04, 00:24:00
Original geschrieben von Quasar
Schon ok. :)

Möglicherweise habe ich mich wirklich zu weit aus dem Fenster gehängt, als ich das böse "C"-Wort benutzte.

Hehe. Passiert jedem mal, dass man etwas über´s Ziel hinausschießt. ;)

Original geschrieben von Quasar
An "zufällig" verteiltes Gras glaube ich allerdings nicht, denn dazu sind die drei jeweiligen Screenies derselben Karte zu gleichmäßig.
Das stimmt allerdings auch wieder.

Sumpfmolch
2004-03-04, 00:38:38
könnte einer so liebenswürdig sein und nachprüfen was das spiel überhaupt genau für shader einsetzt....

gunmetal soll ja auch ein dx9 game gewesen sein...schöööner kleiner VS2.0 ;D

MadMan2k
2004-03-04, 00:48:26
Original geschrieben von tokugawa
Eben. Und bei der richtigen Gewichtung (die basiert auf persönlichen Präferenzen und ist nicht allgemeingültig für jeden), kann die 5900XT durchaus die bessere Variante sein.

ich meinte eigentlich eher die Gewichtung des ShaderMarks im Bezug auf die DX9 Performance einer Karte.

Aber du hast natürlich recht, dass man die DX9 Performance nocheinmal individuell für sich gewichten muss...
...dann kann man allerdings nicht mehr behaupten eine Karte wäre objektiv die bessere Lösung.

Odal
2004-03-04, 06:45:07
Original geschrieben von MadMan2k
eigentlich wollte ich keinen Provozieren, sondern nur versuchen meine damaligen Bedenken anschaulicher zu machen...

lieber MadMan2k

deine bedenken in allen ehren, nur wayne....

mitunter wird sich wohl ausser dir niemand mehr an deine damaliegen beitraege im detail erinnern (viel informatives war meiner meinung nach nie wirklich enthalten)

derweilen wirkt dein thread sehr wohl provokant, kaum kommen mal ein paar benchmarks, die dem herren in den kram passen, wird sofort losgebasht.

ein wenig mehr objektivitaet an den tag gelegt bitte

ich will ja nicht auf dem gleichen niveau reagieren, aber haette man damals nicht auch einen thread wegen JN3 und den dramatischen einbruechen der R9800pro und teilweise unspielbaren frameraten(und der daraus gewonnenen erkenntniss die R9xxx serie "kackt" bei opengl allgemeingueltig ziemlich ab) eroeffnen koennen?


nun wie auch immer..der leser mache sich hoffentlich schon nach dem lesen des startbeitrages sein bild, und erkenne worauf der thread abzielt.

Radeonator
2004-03-04, 08:27:46
ATi cheated doch nicht, ITS NOT A BUG - ITS A FEATURE :lol:

Meine Herren, wenns umgekehrt gewesen währe, hätten die leute die jetzt das "C" Wort so verdammen, am lautesten geschriehen...naja was solls, wie immer - es wird net besser und net schlimmer !

Ach ja, 5900XT liegen im allgemeinen unter 200 Euro...

Ansonsten kann man ja auch sagen das es 9600XT Karten gibt , die genauso teuer wie 9800Pro sind, weil man immer wenns in den Kram Passt Äpfel mit Birnen bergleichen kann, stimmts ;)

Gast
2004-03-04, 12:49:57
Das ist ja ein Beitrag den du auch wieder löschen kannst.

Die 9800Pro sind nur deshalb im Preis gefallen weil nVidia Ihre Preise im Highend angepaßt hat weil sie in diesem Bereich Ihre Marktanteile verloren haben und nur durch den Preis die FX59x verkauft bzw. gekauft wird.

MadManniMan
2004-03-04, 13:17:21
Original geschrieben von Radeonator
ATi cheated doch nicht, ITS NOT A BUG - ITS A FEATURE :lol:

Meine Herren, wenns umgekehrt gewesen währe, hätten die leute die jetzt das "C" Wort so verdammen, am lautesten geschriehen...naja was solls, wie immer - es wird net besser und net schlimmer !

Samma, hast du überhaupt mitbekommen, worums ging? :| Q hat was flasch interpretiert, thats it. Weder ATi noch nV cheaten hier irgend.

Original geschrieben von Radeonator
Ach ja, 5900XT liegen im allgemeinen unter 200 Euro...

Günstigerweise gar roundabout 170€, aber was willst du damit sagen?

Original geschrieben von Radeonator
Ansonsten kann man ja auch sagen das es 9600XT Karten gibt , die genauso teuer wie 9800Pro sind, weil man immer wenns in den Kram Passt Äpfel mit Birnen bergleichen kann, stimmts ;)

Die Threadgrundintention, wie auch der Threadtitel sind IMHO bescheiden gewählt, aber im Endeffekt geht es doch um den CMR4 Test. Und da wurden nunmal gleichteure Karten getestet. Wie gesagt: inwieweit die 5900nonU ne Daseinsberechtigung hat...

ShadowXX
2004-03-04, 14:00:37
So..und ich habe mir jetzt mal die Shader angeguckt:

Es werden gigantische NULL PS2.0 und NULL VS 2.0 Shader von Colin04 benutzt...(lt. 3DAnalzse)

Wenn die nV langsamer sind, muss es an was anderem liegen....

Wer bringt das eigentlich immer auf, das Game X oder Y PS&VS2.0 benutzt...

J.S.Shadow

LovesuckZ
2004-03-04, 14:16:30
Hm eventuell Singletexturing (ja, das TOTschlagargument schlechthin :D ). Dazu braeuchte man aber erstmal Ergebnisse einer 5700U.

Mr. Lolman
2004-03-04, 14:26:16
Man könnte auch coloredmipmap Screenshots des Radeon Q-AF bringen, um die ST Theorie zu zerschlagen. (oder um sie zu bestätigen ;))

ShadowXX
2004-03-04, 14:32:54
Original geschrieben von Mr. Lolman
Man könnte auch coloredmipmap Screenshots des Radeon Q-AF bringen, um die ST Theorie zu zerschlagen. (oder um sie zu bestätigen ;))

Sag mir wie mans macht, und ich mache es kurz...

J.S.Shadow

P.S.
wobei das Problem des Uploads der Screenies besteht, da mein webspace noch nicht up ist...

Mr. Lolman
2004-03-04, 15:20:12
Die Singletexturing Theorie könnte schon hinkommen, wobei ist es bei einem trilinearen Filter und Bi-TMUs nicht egal obs ST gibt oder nicht?


Performance-AF (http://www.ystart.net/upload/20040304/1078409745.jpg)
Quality-AF (http://www.ystart.net/upload/20040304/1078409889.jpg)
Full-Tri AF (http://www.ystart.net/upload/20040304/1078409846.jpg)


@ShadowXX: Coloredmipmaps lassen sich über Tommtis 3D Analyzer erzwingen (In dem Fall Methode 1), aber die Ladezeiten gehen dabei enorm in die Höhe...

seahawk
2004-03-04, 15:28:24
Viel PS1.4 ??

ShadowXX
2004-03-04, 15:28:38
Original geschrieben von Mr. Lolman
Die Singletexturing Theorie könnte schon hinkommen, wobei ist es bei einem trilinearen Filter und Bi-TMUs nicht egal obs ST gibt oder nicht?


Performance-AF (http://www.ystart.net/upload/20040304/1078409745.jpg)
Quality-AF (http://www.ystart.net/upload/20040304/1078409889.jpg)
Full-Tri AF (http://www.ystart.net/upload/20040304/1078409846.jpg)


@ShadowXX: Coloredmipmaps lassen sich über Tommtis 3D Analyzer erzwingen (In dem Fall Methode 1), aber die Ladezeiten gehen dabei enorm in die Höhe...

Danke...benutze 3DAnalzse meist nur fuers Shader-Out oder um den Vendor yu aendern...sollte das Teil mal genauer angucken..

Und AFAIK hats du recht..bei Tri-Filtering sollte es egal sein ob ST oder MT, da beide nur biTMUs haben...

J.S.Shadow

ShadowXX
2004-03-04, 15:29:53
Original geschrieben von seahawk
Viel PS1.4 ??

Keinen einzigen...nur PS&VS1.1...

Ist halt ne XBox-Konvertierung...

J.S.Shadow

Gast
2004-03-04, 15:55:56
Das erklärt zumindest, warum mir meine FX5800U so "schnell" vorkam, als ich die Werte mit denen der vorgeführten R420 verglich.

Möglicherweise hat ATi da ja auf eine neuere Version Zugriff gehabt, oder 2.0-Shader werden erst bei Wettereffekten eingesetzt, oder... oder... oder...


;Q

ShadowXX
2004-03-04, 16:01:18
Original geschrieben von Gast
Das erklärt zumindest, warum mir meine FX5800U so "schnell" vorkam, als ich die Werte mit denen der vorgeführten R420 verglich.

Möglicherweise hat ATi da ja auf eine neuere Version Zugriff gehabt, oder 2.0-Shader werden erst bei Wettereffekten eingesetzt, oder... oder... oder...


;Q

Und zu Ostern kommt der XMas-Man.....

Ich glaube nicht, das sich da noch gross was Aendern wird.....

Ich schaetze eher das bei der Vorfuehrung mit 1600x1200 mit 6xAA/16xAF gebencht wurde...und dort ist sie dann wohl wirklich schneller als der r360...

J.S.Shadow

P.S.
gerade von dir haette ich eher einen abfaelligen Kommentar erwartet...gut drauf heute???

Gast
2004-03-04, 16:14:24
Hm, in Bezug auf CMR4 wurde ja gar kein Vergleich zu aktuellen Chips gezogen, nur daß der R420 das shadernutzende CMR4 mit ca. 120fps abspulte.

In welchen Settings - das ist eine andere Frage.
Aber wenn der Stand der Demo-Engine auch der Stand der final ist, dann freue ich mich, daß ich CMR4 auch auf meinem System noch fein zocken kann :)

;Q

ShadowXX
2004-03-04, 16:20:43
Original geschrieben von Gast
Hm, in Bezug auf CMR4 wurde ja gar kein Vergleich zu aktuellen Chips gezogen, nur daß der R420 das shadernutzende CMR4 mit ca. 120fps abspulte.

In welchen Settings - das ist eine andere Frage.
Aber wenn der Stand der Demo-Engine auch der Stand der final ist, dann freue ich mich, daß ich CMR4 auch auf meinem System noch fein zocken kann :)

;Q

AFAIK wurde gesagt, das diese Framerate keine aktuelle Karte erreichen kann...

Es wurde also schon ein Vergleich zu jetzt gezogen...

Ist aber auch egal....

J.S.Shadow

Gast
2004-03-04, 16:23:59
Ach so, dann hatte ich das falsch in Erinnerung.

;Q

Iceman346
2004-03-04, 16:25:53
Original geschrieben von ShadowXX
AFAIK wurde gesagt, das diese Framerate keine aktuelle Karte erreichen kann...

Es wurde also schon ein Vergleich zu jetzt gezogen...

Das schon, aber solange die Einstellungen nicht bekannt sind kann man diese Aussage weder bestätigen noch belegen. 120 fps average bei 1600x1200 mit 6x AA und 16x QAF wären sehr beeindruckend während das gleiche bei 1024 ohne AA/AF eher ernüchternd währe ;)

Sumpfmolch
2004-03-04, 16:44:19
Original geschrieben von ShadowXX
So..und ich habe mir jetzt mal die Shader angeguckt:

Es werden gigantische NULL PS2.0 und NULL VS 2.0 Shader von Colin04 benutzt...(lt. 3DAnalzse)

Wenn die nV langsamer sind, muss es an was anderem liegen....

Wer bringt das eigentlich immer auf, das Game X oder Y PS&VS2.0 benutzt...

J.S.Shadow

ah danke...und so geht das nächste "dx9 game" dahin ;D

hm wenn ich fies wäre würd ich das game gleich mal der gamestar als dx9 bench empfehlen...zusammen mit gunmetal ;D

MadMan2k
2004-03-04, 17:17:23
Original geschrieben von Sumpfmolch
ah danke...und so geht das nächste "dx9 game" dahin ;D

hm wenn ich fies wäre würd ich das game gleich mal der gamestar als dx9 bench empfehlen...zusammen mit gunmetal ;D

Original geschrieben von Leonidas
Bei den Elite Bastards hat man die Performance der Colin McRae Rally 04 Demo auf ATi Radeon 9800 Pro und GeForceFX 5900 untersucht, wobei natürlich hier die nVidia-Karte als non-Ultra-Version etwas im Nachteil ist. Allerdings sind die gemessenen Leistungs-Unterschiede in diesem Spiel mit angeblich starkem DirectX9-Einsatz doch so erheblich, daß dieser kleine Unterschied bei den gewählten Test-Kandidaten keinen wirklichen Einfluß mehr hat: ATi liegt hier erheblich vor nVidia, insbesondere wenn anisotroper Filter und/oder Anti-Aliasing aktiviert wird.

Sumpfmolch
2004-03-04, 17:27:07
bleibt die frage von wem jetz das mit dx9 ursprünglich stammt ^^


..nuja...X2 war ja auch angeblich ein dx9 game ^^

ShadowXX
2004-03-04, 18:02:26
Original geschrieben von Sumpfmolch
bleibt die frage von wem jetz das mit dx9 ursprünglich stammt ^^


..nuja...X2 war ja auch angeblich ein dx9 game ^^

Wahrscheinlich braucht die Soundkarte DX9;D

Oder der Spielegeraete-Treiber;D

J.S.Shadow

tokugawa
2004-03-05, 02:02:51
Original geschrieben von ShadowXX
Wahrscheinlich braucht die Soundkarte DX9;D

Oder der Spielegeraete-Treiber;D

J.S.Shadow



Najo. Von programmiertechnischer Seite ist ein Spiel ein DX9-Spiel, sobald es die Interfaces von DirectX9 verwendet.

So halte ich das auch, denn so ist es exakt definiert.

Es ist halt leider so dass die meisten den Begriff "DX9-Spiel" mit "PS/VS 2.0-Spiel" verwechseln.

Ist meiner Ansicht nach nicht die Schuld derer, die (technisch richtig) ein DirectX9-Spiel das keine PS/VS 2.0 verwendet, ein DirectX9-Spiel nennen, sondern eher derer, die glauben DX9 heißt automatisch VS/PS 2.0.

ShadowXX
2004-03-05, 10:23:03
Original geschrieben von tokugawa
Najo. Von programmiertechnischer Seite ist ein Spiel ein DX9-Spiel, sobald es die Interfaces von DirectX9 verwendet.

So halte ich das auch, denn so ist es exakt definiert.

Es ist halt leider so dass die meisten den Begriff "DX9-Spiel" mit "PS/VS 2.0-Spiel" verwechseln.

Ist meiner Ansicht nach nicht die Schuld derer, die (technisch richtig) ein DirectX9-Spiel das keine PS/VS 2.0 verwendet, ein DirectX9-Spiel nennen, sondern eher derer, die glauben DX9 heißt automatisch VS/PS 2.0.

Ist klar, deshalb auch meine Smilies...uns es gibt ja auch noch andere DX9-Module (zB. die Netzwerkkomponente) die man benutzt haben kann..

Das grosse Problem sind die meisten unkundigen/unerfahrenen Redakteure, die DX9=PS/VS2.0 sehen...und dann kommen solche Meldungen raus..

Egal...

J.S.Shadow

P.S.
Trackmania benutzt uebrigens PS/VS2.0 (yumindest VS bin ich yiemlich sicher...)


J.S.

Gast
2004-03-05, 19:55:59
Ich bin leider etwas enttäuscht von der Performance einer 5900XT, mein kleiner bruder hatte vorher eine GF2Ti drinn (AMD2000+,512mb usw)und dem hab ich heute ne 5900XT mitgebracht.
Eingebaut --> UT2003,Tribes 2,GTA VC usw. laufen nicht wirklich viel besser, hätte ich mir von nem upgrade GF2--> GF FX wirklich mehr erhofft.
Gerade weil er Tribes2 zockt (OGL-Game) hab ich zu ner FX und nicht ATI gegriffen...
Naja, windoof mal neu aufsetzen,vielleicht hilft´s was.

MadMan2k
2004-03-05, 20:04:39
Original geschrieben von Gast
Gerade weil er Tribes2 zockt (OGL-Game) hab ich zu ner FX und nicht ATI gegriffen...

Warum hält sich eigentlich das hartnäckige Gerücht ATi sei schlecht unter OGL??
Sie sind schlechter als NVIDIA, ja - aber nicht schlecht...

LovesuckZ
2004-03-05, 20:18:56
Original geschrieben von MadMan2k
Warum hält sich eigentlich das hartnäckige Gerücht ATi sei schlecht unter OGL??
Sie sind schlechter als NVIDIA, ja - aber nicht schlecht...

"Warum hält sich eigentlich das hartnäckige Gerücht [Nvidia][waere] schlecht unter [PS2.0 Anwendungen]??
Sie sind schlechter als [ATi], ja - aber nicht schlecht... "

Sry, koennt es mir nicht verkneifen.

Morpheus2200
2004-03-05, 20:23:51
Was versteht ihr unter schlechter ? ist die bildqulität mit ATI karten schlechter als bei NV karten?

Das NV karten im Standard betrieb sprich ohne AA/AF schneller sind ist mir bekannt aber wer spielt mit einer karte in dieser klasse schon ohne AA/AF?!

Und laut diverser Benchens die ich beim überfliegen einger sites noch in errinnerung habe, fallen die NV karten bei AA/AF wieder hinter die ATI karten.

Also auf leistung bezogen kanns ja garnet sein das jetzt wer hergeht und sagt NV = OGL besser als ATI - denn ob da jetzt 300FPS oder 350FPS stehen ist doch eigendlich egal.
Denn keiner spielt ein spiel mit 300-350fps und schlechter Qualität. schon eher spielt mann es mit 100fps und guter qualität.

Also erklär mal einer warum NV besser ist als ATI unter OGL, würd mich interessieren.

mapel110
2004-03-05, 20:23:55
Original geschrieben von LovesuckZ
"Warum hält sich eigentlich das hartnäckige Gerücht [Nvidia][waere] schlecht unter [PS2.0 Anwendungen]??
Sie sind schlechter als [ATi], ja - aber nicht schlecht... "


weils da Speedunterschiede von bis zu 500 % gibt?!

aths
2004-03-05, 20:27:17
Original geschrieben von LovesuckZ
Hm eventuell Singletexturing (ja, das TOTschlagargument schlechthin :D ). Dazu braeuchte man aber erstmal Ergebnisse einer 5700U. Eine 5700 arbeitet, genau wie eine 5200 oder 5600, "effektiv" als 2x2-Architektur.

LovesuckZ
2004-03-05, 20:28:08
Original geschrieben von mapel110
weils da Speedunterschiede von bis zu 500 % gibt?!

Aber im gegensatz zur Konkurenz ist man 2.
Wobei, wo kommen denn dieser 500% zustande?

LovesuckZ
2004-03-05, 20:29:12
Original geschrieben von aths
Eine 5700 arbeitet, genau wie eine 5200 oder 5600, "effektiv" als 2x2-Architektur.

Und "effektiv" bedeutet unter Singletexturing 4x1. Und damit holt sie einiges zur 5900(xt) auf (siehe eben einige Maps in UT2003/4, Warcraft3 etc.).

aths
2004-03-05, 20:33:18
Original geschrieben von LovesuckZ
Und "effektiv" bedeutet unter Singletexturing 4x1. Und damit holt sie einiges zur 5900(xt) auf (siehe eben einige Maps in UT2003/4, Warcraft3 etc.). Nur bei bilinearem Singletexturing. Imo kann selbst WC3 trilinear filtern. Wenn hier "aufgeholt" wird, würde ich das auf CPU-Limitierung schieben.

LovesuckZ
2004-03-05, 20:44:53
Original geschrieben von aths
Nur bei bilinearem Singletexturing. Imo kann selbst WC3 trilinear filtern. Wenn hier "aufgeholt" wird, würde ich das auf CPU-Limitierung schieben.

http://www.gamepc.com/labs/view_content.asp?id=gffx5900xt&page=9

Quasar
2004-03-05, 20:56:32
Original geschrieben von aths
Nur bei bilinearem Singletexturing. Imo kann selbst WC3 trilinear filtern. Wenn hier "aufgeholt" wird, würde ich das auf CPU-Limitierung schieben.

Du solltest doch ganz gut wissen, daß ein großer Prozentsatz eines Bildes z.Zt. nur aus bilinear texturierten Pixeln besteht. ;)

mapel110
2004-03-05, 21:07:21
Original geschrieben von LovesuckZ
Aber im gegensatz zur Konkurenz ist man 2.


Kannst du das anders/besser Formulieren? Ich weiss nicht, was du damit meinst.

Original geschrieben von LovesuckZ
Wobei, wo kommen denn dieser 500% zustande?


Shadermark (Wir reden hier ja von PS2.0 Speed, nicht vergessen)

aths
2004-03-05, 21:29:02
Original geschrieben von LovesuckZ
http://www.gamepc.com/labs/view_content.asp?id=gffx5900xt&page=9 Die benchen doch wieder mit 4x/8x AA/AF … Sorry, dass ich für solche Reviews keine Zeit habe.

Original geschrieben von Quasar
Du solltest doch ganz gut wissen, daß ein großer Prozentsatz eines Bildes z.Zt. nur aus bilinear texturierten Pixeln besteht. ;) Wo jetzt?

LovesuckZ
2004-03-05, 21:33:07
Original geschrieben von mapel110
Kannst du das anders/besser Formulieren? Ich weiss nicht, was du damit meinst.

Im vergleich zur Konkurenz belegt Nvidia den 2. Platz.


Shadermark (Wir reden hier ja von PS2.0 Speed, nicht vergessen)

Es gibt auch OpenGl Spiele, wo ATi buchstaeblich "abkackt".

Demirug
2004-03-05, 21:35:11
Original geschrieben von aths
Wo jetzt?

Nimm ein Bild mit gefärbten Mipmaps. Überall dort wo du die Textur ohne Einfärbung zu sehen bekommst hast du Bilinear.

Edit: Dort wo es keine Mischfarbe ist natürlich auch aber diese Streifen sind ja normalerweise eher schmall.

aths
2004-03-05, 22:04:45
Original geschrieben von Demirug
Nimm ein Bild mit gefärbten Mipmaps. Überall dort wo du die Textur ohne Einfärbung zu sehen bekommst hast du Bilinear. Nutzt FX 5x00 (mit x < 8) dort aber auch wirklich die "4x1"-Architektur?

Demirug
2004-03-05, 22:22:56
Original geschrieben von aths
Nutzt FX 5x00 (mit x < 8) dort aber auch wirklich die "4x1"-Architektur?

Ich würde sagen ja. Die 5200er kommt bei einem Test da über die 500 MPixel/s (660 MPixel/s). Wahrscheinlich schafft der Chip noch mehr aber die Karte die ich zum Testen benutzte hat ja nur ein 64 Bit Interface.

Riptor
2004-03-05, 22:29:38
Original geschrieben von LovesuckZ
Es gibt auch OpenGl Spiele, wo ATi buchstaeblich "abkackt".

Sehs doch mal so: Einige stören die Leistungsverluste bei Far Cry, TR:AoD oder eben CMR4 etwas mehr als das "abkacken" bei OpenGL Spielen, die man anscheinend ja auch nicht übel mit VSync + Trple Buffer spielen kann... Ich möchte jetzt nicht die beiden Szenarien abwiegen, aber kommt es nur mir so vor, als wäre die im Grunde genommen altbekannte Shaderschwäche der NV3X Karten doch ein wenig "schwerwiegender"? Die Frage kann ja jeder für sich entscheiden, es gibt Spiele, die laufen auf den nVidia-Karten besser (X²), andere auf den ATIs (Unreal 2), aber Spiele, die DX9-Shader nutzen, sprechen zum größten Teil doch eine deutliche Sprache, da frage ich mich manchmal, wie lange das "OpenGL-Argument" noch alles ausbügeln soll. ;) Irgendwie tickt die Uhr gegen nVidia, wobei man ganz klar untersteichen sollte: Die FX5900XT ist eine fantastische Karte mit einem sehr sehr guten Preisleistungsverhältnis. :)

Quasar
2004-03-05, 23:27:20
Original geschrieben von aths
Wo jetzt?

Überall dort... ach halt. Sagte Demirug ja schon. Also überall dort, wo der reduziert-trilineare Filter eben um seine Trilinearität reduziert wurde.

Wenn man so einige hier liest, könnte man denken, daß das überall dort auftritt, wo grade kein (mehr oder weniger offenkundiges) Mip-Banding auftritt. *scnr*

Original geschrieben von Demirug
Ich würde sagen ja. Die 5200er kommt bei einem Test da über die 500 MPixel/s (660 MPixel/s). Wahrscheinlich schafft der Chip noch mehr aber die Karte die ich zum Testen benutzte hat ja nur ein 64 Bit Interface.

Ich habe definitiv mit meiner FX5200 schon 1GPix und mehr (mit ein wenig OC) erreicht.

Gast
2004-03-05, 23:36:23
Original geschrieben von Riptor
Sehs doch mal so: Einige stören die Leistungsverluste bei Far Cry, TR:AoD oder eben CMR4 etwas mehr als das "abkacken" bei OpenGL Spielen, die man anscheinend ja auch nicht übel mit VSync + Trple Buffer spielen kann... Ich möchte jetzt nicht die beiden Szenarien abwiegen, aber kommt es nur mir so vor, als wäre die im Grunde genommen altbekannte Shaderschwäche der NV3X Karten doch ein wenig "schwerwiegender"? Die Frage kann ja jeder für sich entscheiden, es gibt Spiele, die laufen auf den nVidia-Karten besser (X²), andere auf den ATIs (Unreal 2), aber Spiele, die DX9-Shader nutzen, sprechen zum größten Teil doch eine deutliche Sprache, da frage ich mich manchmal, wie lange das "OpenGL-Argument" noch alles ausbügeln soll. ;) Irgendwie tickt die Uhr gegen nVidia, wobei man ganz klar untersteichen sollte: Die FX5900XT ist eine fantastische Karte mit einem sehr sehr guten Preisleistungsverhältnis. :)

oehm nur haben wir schon festgestellt das hier nichmal PS2.0 oder VS2.0 shader verwendet werden...nur 1.1

von daher bla....

ShadowXX
2004-03-06, 00:03:58
Original geschrieben von Gast
oehm nur haben wir schon festgestellt das hier nichmal PS2.0 oder VS2.0 shader verwendet werden...nur 1.1

von daher bla....

Das stimmt.....aber gerade deshalb wuerde ich gerne Wissen, weshalb die nV teilweise so stark gegen die ATI einbrechen....

Wenn es schon nicht an den PS2.0 liegt....woran dann...

J.S.Shadow

mapel110
2004-03-06, 00:04:32
Original geschrieben von LovesuckZ
Im vergleich zur Konkurenz belegt Nvidia den 2. Platz.


tjo und das mit weitem Abstand auf den Ersten.


Original geschrieben von LovesuckZ
Es gibt auch OpenGl Spiele, wo ATi buchstaeblich "abkackt".

Beispiele, wo nvidia doppelt so schnell (oder viel schneller) ist?

MadMan2k
2004-03-06, 00:13:27
Original geschrieben von ShadowXX
Das stimmt.....aber gerade deshalb wuerde ich gerne Wissen, weshalb die nV teilweise so stark gegen die ATI einbrechen....

Wenn es schon nicht an den PS2.0 liegt....woran dann...

J.S.Shadow
Irgendjemand (Demirug?) hat mal gesagt, dass die Shader nochmal vom Treiber interpretiert werden.
- ATi könnte also trotz PS/VS 1.1 noch Vorteile aus den starken PS/VS 2.0 Einheiten ziehen...

betasilie
2004-03-06, 00:19:35
Original geschrieben von MadMan2k
Irgendjemand (Demirug?) hat mal gesagt, dass die Shader nochmal vom Treiber interpretiert werden.
- ATi könnte also trotz PS/VS 1.1 noch Vorteile aus den starken PS/VS 2.0 Einheiten ziehen...
Was hat das eine mit dem anderen zu tun?

Sumpfmolch
2004-03-06, 00:24:13
Original geschrieben von ShadowXX
Das stimmt.....aber gerade deshalb wuerde ich gerne Wissen, weshalb die nV teilweise so stark gegen die ATI einbrechen....

Wenn es schon nicht an den PS2.0 liegt....woran dann...

J.S.Shadow

ich glaube das kann höchstens derjenige der die engine programmiert hat sagen...

als gegenbeispiel hab ich X2 hier...hat außer ein paar (<20) vertex shader 1.0 nichts an shadern drin und läuft auf nvidia karten deutlich besser.

offtopic: ich hab zu X2 von einem mod erklärt bekommen welches feature denn dazu geführt hat, dass im letzten moment ein TWIMTBP logo von nvidia draufgepappt wurde:
"Die Darstellung über mehrere Bildschirme "horizontal span". Wird afaik von ATI-Karten nicht unterstützt" :embara:

Quasar
2004-03-06, 00:29:26
Original geschrieben von betareverse
Was hat das eine mit dem anderen zu tun?

Ein Compiler, der im Treiber integriert ist, kann, wenn die "Basiseinheit" mit der gerechnet wird, sowieso "2.0-Shader" ist, Instruktionen umordnen und evtl. auch zusammenfassen.

Auseinanderpulen muss ja auf jeden Fall drin sein, denn viele PS1.x-Instruktionen lassen sich ja gar nicht 1:1 auf 2.0-Anweisungen abbilden.

aths
2004-03-06, 00:37:35
Original geschrieben von Quasar
Ich habe definitiv mit meiner FX5200 schon 1GPix und mehr (mit ein wenig OC) erreicht. Dafür ist Early-Z garantiert nicht verantwortlich? Hast du das in einem Benchmark gemessen, oder in einem Spiel?

MadMan2k
2004-03-06, 00:40:42
Original geschrieben von betareverse
Was hat das eine mit dem anderen zu tun?
AFIAK können PS2.0 Schleifen, welche PS1.x nicht können.
Der Treiber kann also entsprechenden Code erkennen und ihn als Schleife an die Hardware schicken, welche ihn dadurch effizienter abarbeiten kann...

StefanV
2004-03-06, 00:40:58
Original geschrieben von Sumpfmolch
offtopic: ich hab zu X2 von einem mod erklärt bekommen welches feature denn dazu geführt hat, dass im letzten moment ein TWIMTBP logo von nvidia draufgepappt wurde:
"Die Darstellung über mehrere Bildschirme "horizontal span". Wird afaik von ATI-Karten nicht unterstützt" :embara:

Doch, aber nur unter Windows 2000 und auch nur von Radeon 7000, 7500 und 8500/9100...

Sumpfmolch
2004-03-06, 02:04:58
Original geschrieben von Stefan Payne
Doch, aber nur unter Windows 2000 und auch nur von Radeon 7000, 7500 und 8500/9100...

heist das ich kann ungeniert das nvidia logo mit nem ati logo übermalen ? :D

LovesuckZ
2004-03-06, 08:37:53
Original geschrieben von mapel110
tjo und das mit weitem Abstand auf den Ersten.

Noe, Gleichstand (*hint* halo *hint*)...

Beispiele, wo nvidia doppelt so schnell (oder viel schneller) ist?

NWN:
http://www.nvnews.net/previews/geforce_fx_5950_ultra/page_7.shtml

ow
2004-03-06, 10:29:48
.

Demirug
2004-03-06, 10:46:15
Original geschrieben von MadMan2k
AFIAK können PS2.0 Schleifen, welche PS1.x nicht können.
Der Treiber kann also entsprechenden Code erkennen und ihn als Schleife an die Hardware schicken, welche ihn dadurch effizienter abarbeiten kann...

Schleifen gehen mit 2.0 noch nicht. Erst mit 2.X als Option (hat aber weder R3XX noch NV3X) und ab 3.0 als Plicht.

wrdaniel
2004-03-06, 10:49:52
Original geschrieben von LovesuckZ
NWN:
http://www.nvnews.net/previews/geforce_fx_5950_ultra/page_7.shtml

ist doch immer wieder schoen das es fuer jeden zweck reviews und benchmarks gibt.

http://www.anandtech.com/video/showdoc.html?i=1890&p=13

sicherlich liegt nv vorne, aber so schlecht sieht ati auch nicht aus.

Quasar
2004-03-06, 11:07:12
Original geschrieben von wrdaniel
ist doch immer wieder schoen das es fuer jeden zweck reviews und benchmarks gibt.

http://www.anandtech.com/video/showdoc.html?i=1890&p=13

sicherlich liegt nv vorne, aber so schlecht sieht ati auch nicht aus.

:rofl:
Die 5600U legt mit 4xAA/8xAF ja sogar noch zu, anstatt FPS einzubüßen. Soviel dazu bei anand.... :bonk:

Riptor
2004-03-06, 13:57:00
Original geschrieben von Gast
oehm nur haben wir schon festgestellt das hier nichmal PS2.0 oder VS2.0 shader verwendet werden...nur 1.1 von daher bla....

Das ist ja noch erschreckender und ändert wenig an der Grundsituation, oder? Von daher... :naughty: ;)

betasilie
2004-03-06, 14:01:51
Original geschrieben von Quasar
Ein Compiler, der im Treiber integriert ist, kann, wenn die "Basiseinheit" mit der gerechnet wird, sowieso "2.0-Shader" ist, Instruktionen umordnen und evtl. auch zusammenfassen.

Auseinanderpulen muss ja auf jeden Fall drin sein, denn viele PS1.x-Instruktionen lassen sich ja gar nicht 1:1 auf 2.0-Anweisungen abbilden.
Genau, aber bei ATI ist das doch nicht anders was die PS1.1-Compilierung für die 2.0Shader angeht. Das war ja schon immer so bei NV und ATI, und jetzt plötzlich soll dadurch dieser Performanceunterschied erklärt werden, der vorher nicht vorhanden war?


... Bei NV ist ja nur die Besonderheit, dass die Treiber ja auch 2.0Shader echzeitcompilieren um es CineFX-gerechter zu frickeln, bzw. werden einfach Standardshader ersetzt.

Demirug
2004-03-06, 14:04:56
Original geschrieben von betareverse
Genau, aber bei ATI ist das doch nicht anders was die PS1.1-Compilierung für die 2.0Shader angeht. ... Bei NV ist ja nur die Besondeheit, dass die Treiber ja auch 2.0Shader echzeitcompilieren um es CineFX-gerechter zu frickeln, bzw. werden einfach Standardshader ersetzt.

ATI schiebt auch bei den 2.0 Shader Instruktionen durch die Gegend um die Rechenleistung besser zu nutzen. Ist aber auch noch nicht Perfekt.

aths
2004-03-06, 16:04:53
Original geschrieben von ow
Was heisst hier denn "effektiv"?
Also meine 5600 arbeitet auch als 4x1:

Auszug aus archmark:

----Bilinear filter-----------------------------
1 1.273 GPix/s
2 646.099 MPix/s Unter "effektiv" verstehe ich, nicht in Füllratenbenches, sondern in normalen Spielen. Demirug meint, dass diese Karten "on the fly" auf 4x1 gehen können. Das wäre natürlich nicht schlecht.

LovesuckZ
2004-03-06, 16:07:13
Original geschrieben von aths
Unter "effektiv" verstehe ich, nicht in Füllratenbenches, sondern in normalen Spielen.

Reicht dir Warcraft 3 nicht? Denn eine CPU Limitierung kann man wohl ausschließen.
Ansonsten schaue dir doch mal so einige Maps von UT2003/4 an, wo die 5700U gleichauf bzw. ein bisschen schneller als eine 5900XT ist.

aths
2004-03-06, 16:09:25
Original geschrieben von LovesuckZ
Reicht dir Warcraft 3 nicht? Denn eine CPU Limitierung kann man wohl ausschließen.
Ansonsten schaue dir doch mal so einige Maps von UT2003/4 an, wo die 5700U gleichauf bzw. ein bisschen schneller als eine 5900XT ist. Bei WC3 müsste ich mal gucken, ob das trilinear filtert.

Was ist bei UT bilineares Singletexturing? Der Himmel? In einer normalen UT-Welt sollte das meiste trilineares Multitexturing sein.

Riptor
2004-03-06, 16:33:49
Nur so nebenbei:

Original geschrieben von LovesuckZ
Ansonsten schaue dir doch mal so einige Maps von UT2003/4 an, wo die 5700U gleichauf bzw. ein bisschen schneller als eine 5900XT ist.

Benutzt UT2K4 eigentlich die gleiche Engine wie UT2K3, also "quasi-DX7"?

Kann mir jemand nen UT2K4 Benchmark-Vergleich posten?

MadMan2k
2004-03-06, 21:11:50
Original geschrieben von Riptor
Benutzt UT2K4 eigentlich die gleiche Engine wie UT2K3, also "quasi-DX7"?

jo, ist so ähnlich wie Doom3 - DX7 Techlevel, hat aber auch einen DX8, DX9 und OpenGL Renderpfad.


Kann mir jemand nen UT2K4 Benchmark-Vergleich posten?
kann höchstens mit der UT2k4 Demo dienen, bei der der DX9 Pfad noch nicht dabei war:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=125506

Quasar
2004-03-07, 19:06:34
Original geschrieben von aths
Dafür ist Early-Z garantiert nicht verantwortlich? Hast du das in einem Benchmark gemessen, oder in einem Spiel?
Early-Z auf einer FX5200?
In einem Spiel kommt man ganz sicher nicht auf solche Werte, die so dicht am theoretischen Maximum liegen - in einem Benchmark habe ich das gemessen. In mehreren.

Original geschrieben von Riptor
Das ist ja noch erschreckender und ändert wenig an der Grundsituation, oder? Von daher... :naughty: ;)
Hast du verstanden, auf was sich der Gast bezogen hat? Auf welches Game? CMR4?
Ich leider nicht.

Original geschrieben von betareverse
Genau, aber bei ATI ist das doch nicht anders was die PS1.1-Compilierung für die 2.0Shader angeht. Das war ja schon immer so bei NV und ATI, und jetzt plötzlich soll dadurch dieser Performanceunterschied erklärt werden, der vorher nicht vorhanden war?


... Bei NV ist ja nur die Besonderheit, dass die Treiber ja auch 2.0Shader echzeitcompilieren um es CineFX-gerechter zu frickeln, bzw. werden einfach Standardshader ersetzt.
Eigentlich meinte ich mit meinem Kommentar den ATi-Treiber. Und Unterschiede waren schon immer vorhanden, mal in die eine, mal in die andere Richtung. Siehe Enclave oder Unreal2, die z.B. auf der ATi besser liefen.


Original geschrieben von aths
Unter "effektiv" verstehe ich, nicht in Füllratenbenches, sondern in normalen Spielen. Demirug meint, dass diese Karten "on the fly" auf 4x1 gehen können. Das wäre natürlich nicht schlecht.
Oha, in normalen Spielen? Nuja, die meisten Spiele, die ich besitze, kommen leider nicht an das theoretische Füllratenlimit irgendeiner Karte ran, die ich ebenfalls besitze. Da sind dann andere Faktoren, die bremsen, wie z.B. AGP-Durchsatz, CPU-Last, miese Engine-Programmierung usw.
Erinnerst du dich noch an die Diagramme von 3D-Concept? Viel mehr als 60-100MPix real habe ich da auch zu Zeiten der GeForce2 nicht gesehen, IIRC.

Original geschrieben von LovesuckZ
Reicht dir Warcraft 3 nicht? Denn eine CPU Limitierung kann man wohl ausschließen.
Bei mir ist WC3 (mit unserem Playback-Demo) sogar sehr CPU-limitiert.

Original geschrieben von Riptor
Nur so nebenbei:
Benutzt UT2K4 eigentlich die gleiche Engine wie UT2K3, also "quasi-DX7"?
Kann mir jemand nen UT2K4 Benchmark-Vergleich posten?
xBit haben das getan. Und in einem Level, wo die ATis ziemlich gut abschnitten, tat das erstaunlicherweise auch die FX5700U, die IIRC sehr dicht an der FX5900XT war..... :gruebel: edit: hier (http://www.xbitlabs.com/articles/video/display/ut2004_5.html).

Mills
2004-03-07, 19:26:58
Original geschrieben von Quasar
Bei mir ist WC3 (mit unserem Playback-Demo) sogar sehr CPU-limitiert.

Jo, da haste Recht.
http://www.anandtech.com/video/showdoc.html?i=1890&p=18

aths
2004-03-07, 23:59:05
Original geschrieben von Quasar
Early-Z auf einer FX5200? Japp.

Original geschrieben von Quasar
In einem Spiel kommt man ganz sicher nicht auf solche Werte, die so dicht am theoretischen Maximum liegen - in einem Benchmark habe ich das gemessen. In mehreren.Mich würde interessieren, ob die FX5200 "on the fly" bilineares Singletexturing erkennen und entsprechend darauf reagieren kann.

Gast
2004-03-08, 12:24:20
Mit gewissen Tools, die "auf der Fliege" die Texturlagen verändern können (AFAIK wird da gar nicht gefiltert, höchstens geblendet), geht die Füllrate beim zurückschalten auf ST jedenfalls wieder rauf und verharrt nicht unnötigerweise auf 2x2-Niveau.
;Q

aths
2004-03-08, 13:08:41
Original geschrieben von Gast
Mit gewissen Tools, die "auf der Fliege" die Texturlagen verändern können (AFAIK wird da gar nicht gefiltert, höchstens geblendet)Hm? Pointsampling?

Wenn die 5200-er und 5600-er und 5700-er bilineares Singletexturing erkennen und berücksichtigen, ist das natürlich gut.

Quasar
2004-03-08, 19:04:21
Hab' jetzt keine hier und für einen ordentlichen Test müsste ich nochmal nachdenken, wie man das mit vorhandenen Mitteln (i.e. quasar != Progger) nachweisen oder widerlegen könnte.

zeckensack
2004-03-08, 20:29:51
Es wäre auch denkbar, dass die Chips auch bei trilinearem single texturing ihren ?x1-Modus sinnvoll nutzen können. Brilinear ahoi. Die LOD fraction, die ausschlaggebend für die Brilinearität ist, ist ja pro Quad konstant (bzw wird nur einmal pro Quad ausgerechnet).

Quasar
2004-03-08, 20:34:31
Original geschrieben von Quasar
Original geschrieben von aths
Nur bei bilinearem Singletexturing. Imo kann selbst WC3 trilinear filtern. Wenn hier "aufgeholt" wird, würde ich das auf CPU-Limitierung schieben.

Du solltest doch ganz gut wissen, daß ein großer Prozentsatz eines Bildes z.Zt. nur aus bilinear texturierten Pixeln besteht. ;)

;)

ZilD
2004-03-13, 03:01:29
weiss nicht aber wenn ich mir die colin mc rae screenshots ansehe, dann sieht das so aus wie eine bisschen bessere ps1 grafik in höherer auflösung.

die umgebung , die leute , die bodentexturen .. ehm ;D