PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Cheats bei Nvidia -> Noob braucht Kaufberatung fuer neue Graka


dragonfly_1
2003-07-15, 14:30:50
Hallo!

Ich plane den Kauf eines neuen PC's und da steht natuerlich auch die Entscheidung an welche Grafikkarte es sein soll. Da ich mit meiner Methode seit meinem ersten PC gut gefahren bin wollte ich diesmal auch wieder fuer eins der Topmodelle entscheiden.

Ich habe mich eigentlich ausgiebig informiert und hab mich in mehreren Foren guetlich getan - und hab mich schliesslich fuer eine FX5900 Ultra und gegen eine Radeon9800 Pro entschieden. Die Benchmarkergebnisse in allen Tests hatten mich eigentlich ueberzeugt.

Doch jetzt muss ich feststellen das Nvidia anscheinend in vielen Benches cheatet und die Ergebnisse die ich bei Tomshardware etc. etc. gelesen habe garnicht der Wahrheit bzw. der tatsaechlichen Ingameleistung der Karte entsprechen. Also im Klartext alles was ich bisher angeschaut habe war fuer die Katz. Ich hab zwar den Link von weiter unten "Nvidia Benches with Antidetect" besucht aber ich muss sagen bei dem WUST von Informationen bin ich glatt ueberfordert.

Kann vielleicht einer der Experten versuchen mich auf den richtigen Weg zu bringen und mir sagen wie die Nvidias nun tatsaechlich mit Cheatdetect im Vergleich zu ATI abschneiden - und das moeglichst einfach erklaert? Sind die 5900U nur bei aktuellen Spielen schlechter weil sie alte Shader mit einem neuen emulieren und drehen dann bei Doom3/HL2/Stalker richtig auf oder wie? Wie steht es wirklich bei ATI Treibern? Ist es nicht von Nachteil fuer ATI User das Nvidia bei den meisten Firmen bevorzugt wird (Stichwort ID Soft und deren Aussagen ueber die 5900Ultra) ?

Was fuer mich wichtig ist : Schnellstmoegliche Karte in aktuellen und zukuenftigen Spielen BF1942/UT/Q3/Doom3/HL2/Stalker. Was fuern Name draufsteht ist mir eigentlich egal fuer mich zaehlt nur die Leistung. Allerdings stehen fuer mich nur die Topmodelle zur Auswahl - also 9800Pro 5900U und evtl. 9900Pro?! Uebertakten oder so moecht ich nicht ich brauch von Haus aus schnelle Performance :)

Gruss

Dragon

Exxtreme
2003-07-15, 14:34:44
Schwierig, schwierig...

Am besten, du testest ausgiebig beide Karten bevor du dich entscheidest.

Mit Antidetect verliert Nvidia sehr viel Leistung in vielen synthetischen Benchmarks. ATi wiederum ziemlich wenig und AFIK nur in den letzten 3DMark-Programmen.

Andererseits spielen synthetische Benchmarks eher eine untergeordnete wenn man echte Spiele spielen will. :)

Gast
2003-07-15, 14:36:33
Original geschrieben von dragonfly
Hallo!

Ich plane den Kauf eines neuen PC's und da steht natuerlich auch die Entscheidung an welche Grafikkarte es sein soll. Da ich mit meiner Methode seit meinem ersten PC gut gefahren bin wollte ich diesmal auch wieder fuer eins der Topmodelle entscheiden.

Ich habe mich eigentlich ausgiebig informiert und hab mich in mehreren Foren guetlich getan - und hab mich schliesslich fuer eine FX5900 Ultra und gegen eine Radeon9800 Pro entschieden. Die Benchmarkergebnisse in allen Tests hatten mich eigentlich ueberzeugt.

Doch jetzt muss ich feststellen das Nvidia anscheinend in vielen Benches cheatet und die Ergebnisse die ich bei Tomshardware etc. etc. gelesen habe garnicht der Wahrheit bzw. der tatsaechlichen Ingameleistung der Karte entsprechen. Also im Klartext alles was ich bisher angeschaut habe war fuer die Katz. Ich hab zwar den Link von weiter unten "Nvidia Benches with Antidetect" besucht aber ich muss sagen bei dem WUST von Informationen bin ich glatt ueberfordert.

Kann vielleicht einer der Experten versuchen mich auf den richtigen Weg zu bringen und mir sagen wie die Nvidias nun tatsaechlich mit Cheatdetect im Vergleich zu ATI abschneiden - und das moeglichst einfach erklaert? Sind die 5900U nur bei aktuellen Spielen schlechter weil sie alte Shader mit einem neuen emulieren und drehen dann bei Doom3/HL2/Stalker richtig auf oder wie? Wie steht es wirklich bei ATI Treibern? Ist es nicht von Nachteil fuer ATI User das Nvidia bei den meisten Firmen bevorzugt wird (Stichwort ID Soft und deren Aussagen ueber die 5900Ultra) ?

Was fuer mich wichtig ist : Schnellstmoegliche Karte in aktuellen und zukuenftigen Spielen BF1942/UT/Q3/Doom3/HL2/Stalker. Was fuern Name draufsteht ist mir eigentlich egal fuer mich zaehlt nur die Leistung. Allerdings stehen fuer mich nur die Topmodelle zur Auswahl - also 9800Pro 5900U und evtl. 9900Pro?! Uebertakten oder so moecht ich nicht ich brauch von Haus aus schnelle Performance :)

Gruss

Dragon Bei der überschrift brauchst du dich nicht wundern wenn nichts kommt hättest kaufentscheidungs hilfe mit rein knallen sollen so hört sich das dstark nach flame an!

Aber hier im forum laufen viele threads zu dem thema frag dort nach :)

LovesuckZ
2003-07-15, 14:36:37
Nvidia erschummelt sich in keinem Spiel (außer du zaehlst 3dmark2003/Codecreatures dazu) Leistung.
Welche Karte du dir kaufen sollst, haengt nur von dir ab. Lese dich einfach durch einige Threads hier durch:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=79196

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=76394

dragonfly_1
2003-07-15, 14:45:39
Ok ich hab den Namen geaendert hoffe er ist jetzt bisserl besser. Ich will auch garned flamen hier eigentlich bin ich ja eher Nvidiaanhaenger alleine weil ich bisher mit den Treibern immer gut klargekommen bin. Hatte nie Probleme bei irgendeinem Spiel.

Allerdings find ich das nen starkes Stueck das ich quasi bei den Benchmarks von Nvidia hinters Licht gefuehrt werde. Woran will man denn die Leistung einer Graka abschaetzen wenn nicht anhand von technischen Angaben und Benchmarks? Wie soll man sich sonst fuer eine Graka entscheiden wenn man nichtmehr weiss welche Karte welche Leistung bringt? Verwirrt bin.

Die anderen Threads hab ich auch alle mehr oder weniger gut durchgelesen - aber es artet meistens leider in Schlachten der Fachbegriffe auf. Da wird dann ueber die Technik des FSAA oder des PS1.4 oder 2.0 whatever diskutiert und wie man sowas technisch umsetzt. Da kann ich dann meistens garnicht mehr folgen...:(

Aquaschaf
2003-07-15, 14:46:11
Über die Performance in zukünftigen Spielen kann man nicht viel sagen. Zukünftig erscheinende Spiele sollten deswegen nicht die Entscheidung für Hardware ausmachen.
Man könnte theoretisch vermuten, dass Doom 3 schneller auf der NVidia Karte, und HL2 schneller auf der ATI Karte laufen wird. Und Stalker liegt ja noch in weiter Ferne.
Beide Karten sind verdammt schnell, ob eine Karte mal irgendwo 5% schneller ist kann einem eigentlich egal sein. Imo ist es insgesamt ausgeglichen zwischen den von dir genannten Karten.
Die ATI Karte ist leiser und bietet sichtbar schöneres FSAA und kostet AFAIK weniger Geld. Im Gegenzug bietet das NVidia Gegenstück weniger winkelabhängige anisotrophische Filterung an, und ist hier und da ein wenig schneller. Welche Karte die schnellere wäre, wenn keiner der beiden Hersteller cheaten würde lässt sich schwer beantworten, sie liegen aber wohl nur minimal auseinander.
Auf die 9900Pro kannst du natürlich warten, die wird sich durch höhere Taktrate wohl wieder um ein paar Prozentpunkte von der 9800 Pro und der FX5900 Ultra absetzen. Aber wenn du dann auf die 9900 Pro gewartet hast, könntest du gleich wieder auf R420 oder NV40 warten ;)

Exxtreme
2003-07-15, 14:47:38
Original geschrieben von dragonfly

Die anderen Threads hab ich auch alle mehr oder weniger gut durchgelesen - aber es artet meistens leider in Schlachten der Fachbegriffe auf. Da wird dann ueber die Technik des FSAA oder des PS1.4 oder 2.0 whatever diskutiert und wie man sowas technisch umsetzt. Da kann ich dann meistens garnicht mehr folgen...:(
Für den Anfang bezüglich...

FS(E)AA:
http://www.3dcenter.org/artikel/anti-aliasing/

anisotropische Filterung & more:
http://www.3dcenter.org/artikel/grafikfilter/

LovesuckZ
2003-07-15, 14:48:37
Original geschrieben von Aquaschaf
Die ATI Karte ist leiser[...]

Das weißt du woher?

ShadowXX
2003-07-15, 14:48:45
auch wenn ich meistens nicht LovesuckZ Meinung bin, muss ich ihm in diesem Fall zustimmen.

Ab nun 5900Ultra oder 9800Pro ist momentan wirklich so gut wie egal.
ATI hat besseres AA, nV besseres AF.....Würfel oder nimm ne Münze.

Wie gut/schlecht zukünftige Titel (wie z.B. D3 oder HL2) laufen kann im moment keiner sagen...Es könnte sein (wenn auch unwahrscheinlich) das D3/HL2 auf keiner der beide Karten 'ordentlich' läuft.

J.S.Shadow

Aquaschaf
2003-07-15, 14:50:28
Original geschrieben von LovesuckZ
Das weißt du woher?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=80887&perpage=20&pagenumber=2

Ich würde meine Entscheidung momentan nur vom Preis abhängig machen.

dragonfly_1
2003-07-15, 14:54:26
Hmm aber auf einer Seite habe ich gelesen das Nvidia teilweise bis zu 40% Leistung verlieren soll bei Antidetect. Wie kann es dann sein das sie mit der ATI Karte noch mithalten kann? Oder gilt das nur fuer 3dmark etc? Ich dachte die haetten auch bei den Timedemos von UT/Q3 undso irgendwie getrickst?

Muesste die 5900Ultra nicht meilenweiter hinter der Radeon zurueckfallen bei solchen Einbruechen?

Exxtreme
2003-07-15, 14:56:02
Original geschrieben von dragonfly
Hmm aber auf einer Seite habe ich gelesen das Nvidia teilweise bis zu 40% Leistung verlieren soll bei Antidetect. Wie kann es dann sein das sie mit der ATI Karte noch mithalten kann? Oder gilt das nur fuer 3dmark etc? Ich dachte die haetten auch bei den Timedemos von UT/Q3 undso irgendwie getrickst?

Muesste die 5900Ultra nicht meilenweiter hinter der Radeon zurueckfallen bei solchen Einbruechen?
Also die Einbrüche treten hauptsächlich bei 3DMark03 auf. Wie es bei Standard-Timedemos aussieht weiß ich nicht. Mit eigenen Timedemos sind beide Karten ca. gleich schnell.

LovesuckZ
2003-07-15, 15:07:18
Original geschrieben von Aquaschaf
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=80887&perpage=20&pagenumber=2


Ich sehe da keine 5900 Ultra...

Mr. Lolman
2003-07-15, 15:13:54
Hmm, man muss auch zugeben, dass es einem NV echt nicht einfach macht, bei der Entscheidungshilfe. Fakt ist, dass es (wahrscheinlich :D) seit dem 44.65 Deto Optimierungen für UT2003 gibt. Und das Unwinder für rund 70 Spiele Optimierungen gefunden hat. In den meisten Fällen ist dies wahrscheinlich nur Bugfixing aber tatsächlich ist es sehr schwer herauszubekommen ob in den einzelnen Spielen wirklich mit der BQ getrickst wird. In UT ist dies zumindest definitiv der Fall, sobald Applikation/Quality AF verwendet wird. Da bekommt der User nur Balanced/Performance AF serviert, und die Geschwindigkeit steigt dementsprechend.

In vielen Spielen ist der Unterschied zwischen Application/Quality und Balanced/Performance AF sowohl bei ATi als auch bei NVidia nicht festzustellen.
Somit wird der User auch (meistens) nicht merken, dass da getrickst wurde. Im Moment ist auch sehr schwierig, dies nachzuweisen.

Somit ergibt sich (für mich zumindest) das Bild, dass ATi mit der Radeon9800pro durch die bessere AA Qualität einen leichten Vorsprung herausfährt, während die Karten von der Geschwindigkeit ziemlich gleichauf liegen. NVidias AF Vorteil, ist zumindest bei UT2003 (viel mehr wurde noch nicht getestet) nicht mehr vorhanden, es sei denn, man greift auf die letzten offiziellen Treiber zurück (mit denen sich die FX5900 Ultra geschwindigkeitsmässig noch nicht von der Radeon abheben konnte).

Wie die Karten in Zukunft performen werden, lässt sich nur schwer abschätzen. Während die Half-Life 2 Entwickler meinten, dass ihre Engine im Moment (!) auf ATi Karten um ein vielfaches schneller abläuft als auf NV Karten, hatte NV bei den letzten DOOM3 Benches mit komprimierten Texturen die Nase vorn. (Bei voller Texturqualität und AF lagen sie mit den ATi Karten gleichauf).

Meine Empfehlunf lautet: Wenn dir die insgesamte Grafikqualität (AA/AF) wichtiger ist, kaufe dir eine Radeon9800pro. Wenn dus dir mehr auf perfektes AF stehst, nimm die NVidia, und verwende deren offizielle Treiber. Wenn du nur auf hohe Rohleistung aus bist, nimm die billigere.

Warten bringt nichts, da die 9900pro wahrscheinlich nur um soviel schneller ist wie die 9800pro zu 9700pro, und NV dann irgendwann wieder nachlegt, und ann ATi, und dann kommt irgendwann der PowerVR :o

LovesuckZ
2003-07-15, 15:18:37
Original geschrieben von Mr. Lolman
In UT ist dies zumindest definitiv der Fall, sobald Applikation/Quality AF verwendet wird. Da bekommt der User nur Balanced/Performance AF serviert, und die Geschwindigkeit steigt dementsprechend.


Ach und ATi's AF verheimlichst du.
naja, was will man von einen solchen ATi Fan auch anderes erwarten...

nggalai
2003-07-15, 15:22:53
Jungs, bitte lasst die persönlichen Angriffe. Geht auf die Sache ein, mit Begründung bitte, oder noch besser: lasst's sein. Die AF-Diskussion haben wir echt schon ein halbes Dutzend mal geführt. Und wie / ob der 44.65er cheated oder ob er wie von Demiurg angedeutet analog 44.67 einfach nur einen krassen AF-Bug aufweist, werden wir erst mit den nächsten Treibern wissen.

93,
-Sascha.rb

Mr. Lolman
2003-07-15, 15:31:08
Original geschrieben von LovesuckZ
Ach und ATi's AF verheimlichst du.
naja, was will man von einen solchen ATi Fan auch anderes erwarten...

Sorry, das hatte ich jetzt echt vergessen..

@Threadstarter
ATi verwendet ebenfalls seit dem Catalyst 3.1 eine Optimierung beim Qualiy AF.In Direc3d Anwendungen wird nämlich nur mehr die erste Texturstage trilinear gefiltert. Dies ist zwar meistens nicht weiter schlimm, und bringt ~30% Performance. Es gibt jedoch Spiele die die Texturen, so aufteilen, dass die Grundtextur (für die das AF am wichtigsten ist) nicht mehr auf der 1. Texturstage liegt, und deswegen auch nuir bi-AF (so wie beim Performance Modus bekommt).

In einigen Situationen (bei bestimmten Texturen) könnte sich das bemerkbar machen. Es kann auch sein, dass eine Detailtextur im Spiel sich so stark von der Grundtextur abhebt und selbst noch stark kontrastiert ist, dass man auch an der Detailtextur ein Banding erkennen kann.

Der Unterschied zwischen Optimierung und Nicht Optimierung ist jedoch immernoch geringer als der (meist auch kaum feststellbare) zwischen Quality und Performance AF, und laut Gerüchten wird demnächst im Controlpanel ein Schalter zufinden sein.

Mit aths aTuner kannst du frei auswählen, ob die Optimierung aktiv sein soll, oder nicht, und Exxtremes rTool lässt sie von Haus aus weg.

Keel
2003-07-15, 15:34:02
Also im AUGENBLICK würde ich eindeutig zur Radeon 9800 Pro tendieren, einfach schon wegen des besseren Shaders-Speeds, der eben für die von dir genannten Spiele teils sehr von Bedeutung ist.
ABER:
BF1942 => eigentlich egal, da hier alle schnell genug sein dürften
UT => hier sind auch alle schnell genug
Q3 => soll das ein Witz sein. Ich selbst bin zwar auch Quaker, aber das Spiel wird ja wohl nicht mit hq-settings gezockt, und selbst wenn ist trotzdem selbst ne GF2 GTS schon ausreichend.
Doom3 => Shader-Speed ist hier unwichtig
HL2 => Shader-Speed hier sehr wichtig, daher im Augenblick besser für ATI
Stalker => gleiches wie bei HL2, gilt auch für FarCry.

Damit kommt auch schon der Haken: WENN der angeblich in den kommenden 50er Detos integrierte Compiler tatsächlich soviel bringen sollte wie von manchen vorhergesagt - was aber abzuwarten bleibt -, dann könnte NV den relativ geringen Shader-Speed durchaus noch Beine machen.

Daher im Augenblick eindeutig ATI, wobei sich das Blatt evtl. noch wenden könnte.
Hab ich ein Glück, dass ich noch bis zum Release von HL2 oder D3 noch Zeit mit dem Kauf einer neuen GraKa habe. :D

reunion
2003-07-15, 15:51:11
Original geschrieben von LovesuckZ
Das weißt du woher?

9800pro Referenzkühler 2,3 Sone
5900Ultra Referenzkühler 4,9 Sone
laut PCGH 8/2003

Gast
2003-07-15, 16:13:58
An Deiner Stelle würde ich jetzt die ATI-Karte nehmen, einfach weil Du bis jetzt noch keine hattest, und Dir sonst nie ein eigenes Bild von einem anderen Hersteller machen kannst.
Beide Karten sind schnell, einen eindeutigen Sieger kann Dir niemand nennen, wer will wissen was Cheat oder Bug ist, und in welchen Spielen dies oder das zum Tragen kommt?
Mache ich ähnlich, nach dem ich bis jetzt nur Intel-CPUs hatte, wird meine nächste CPU von AMD kommen.

Sumpfmolch
2003-07-15, 16:22:22
Original geschrieben von LovesuckZ
Ach und ATi's AF verheimlichst du.
naja, was will man von einen solchen ATi Fan auch anderes erwarten...

welches af is jetz eigentlich in ut2003 besser ? :ratlos:

reunion
2003-07-15, 16:29:13
Original geschrieben von Sumpfmolch
welches af is jetz eigentlich in ut2003 besser ? :ratlos:

In UT 2003 ist das ganze ziemlich ausgeglichen sonst ist alledings NV AF klar besser

John Porno
2003-07-15, 16:30:46
Hallo!

Was ihr alle nicht so genau ansprecht ist : Die Bildquallität ohne
AF und ohne AA und die Rohperformence. Wie sieht es mit den beiden kriterien aus? Ich selber habe viel gelesen aber nirgends wird darauf eingegangen ( auser auf die 5800 ultra und die 9800 pro). Aber einen vergleich zwischen 9800 pro und 5900 ultra habe ich noch nicht gesehen ( Bildquallität ohne AF und AA ). Ich bitte deshalb für dragonfly und mich diesbezüglich eine Erklährung ( am besten mit ingame Screenshots ohne AF und AA ).

Danke und bye :)

Quasar
2003-07-15, 16:39:27
per default ist beides nicht mehr so schön, wie es sein könnte. Wenn du optimal-mögliche Qualität erzwingst, ist nV hübscher, aber auch langsamer. Wieviel langsamer läßt sich schwer sagen, da die Anti-Detect-Scripts wohl auch nützliche und nicht die Bildqualität einschränkende Optimierungen verhindern.

BTW, der Effekt ist derselbe mit den offiziellen 44.03er-Treibern.

Gast
2003-07-15, 17:00:26
Shader-Performance - Versuch :

http://www.beyond3d.com/forum/viewtopic.php?t=6864&postdays=0&postorder=asc&start=20


Leider ohne FX5900 :



Let's look at performances of both shaders with some small tests :

- On a Radeon 9800 Pro your HLSL code is 25% faster than your Cg one.

- On a GeForce FX 5600, your HLSL code is 10% slower than your Cg one.

- On a GeForce FX 5600 with _pp modifier, your HLSL code is 7% faster than your Cg one.

With AA and AF enabled, your HLSL code makes a bigger improvement. It is faster even on a GeForce FX 5600 without the _pp modifier.

Cg seems faster only with GeForce FX and when the bottleneck comes from register usage.




Radeon 9800 Pro HLSL : 125 MPix/s
Radeon 9800 Pro Cg : 100 MPix/s

GeForce FX 5600 HLSL : 11.2 MPix/s
GeForce FX 5600 Cg : 12.4 MPix/s

GeForce FX 5600 HLSL_pp : 14.8 MPix/s
GeForce FX 5600 Cg_pp : 13.8 MPix/s

GeForce FX 5600 HLSL AA/AF : 7.0 MPix/s
GeForce FX 5600 Cg AA/AF : 6.1 MPix/s



Schaut also imho besser aus für die R9800

Mr. Lolman
2003-07-15, 17:13:55
HQ Bilder

Nvidia 8xAA, 8xApp.AF (http://www.hardocp.com/image.html?image=MTA1MjY1OTc3OGJRaTJVSURadEJfN18xMV9sLmpwZw==)

ATi 6xAA, 16xQual.AF (http://www.hardocp.com/image.html?image=MTA1MjY1OTc3OGJRaTJVSURadEJfN18xMl9sLmpwZw==)

So ca. müsste das Ganze mit offiziellen Treibern aussehen.

BTW: Ich hab vergessen zu erwähnen, dass die NVs Rohleistung (ohne AA/AF) bei UT2003 mit den inoffiziellen Detos. auch nicht mehr mit ATis verglichen werden darf, da auch schon ohne AF beim Application Setting der schlechter aussehende Filter vom Performance Setting genommen wird.

/edit: Link gefixt.

Aquaschaf
2003-07-15, 17:19:05
Original geschrieben von LovesuckZ
Ich sehe da keine 5900 Ultra...

ok, da hab ich selber nicht genau hingesehen
:flöt:
dann hätte ich noch das hier ;)

http://www.chip.de/artikel/c_artikelunterseite_10477615.html

...Mit einer Lautheit von etwa 9 sone bleibt die Grafikkarte zwar noch über der Geräusch-Entwicklung einer Radeon-9800-Pro-Karte (3 sone).

LovesuckZ
2003-07-15, 17:22:11
Original geschrieben von Aquaschaf
...Mit einer Lautheit von etwa 9 sone bleibt die Grafikkarte zwar noch über der Geräusch-Entwicklung einer Radeon-9800-Pro-Karte (3 sone).

Ist aber nur, wenn man den PC einschaltet. Daher aussagelos.

Aquaschaf
2003-07-15, 17:33:28
ok, dass wusste Ich wiederum nicht. Dann fällt das Argument halt weg ;)

Sumpfmolch
2003-07-15, 18:09:31
Original geschrieben von Mr. Lolman
HQ Bilder

Nvidia 8xAA, 8xApp.AF (http://www.hardocp.com/image.html?image=MTA1MjY1OTc3OGJRaTJVSURadEJfN18xMV9sLmpwZw==)

ATi 6xAA, 16xQual.AF (http://www.hardocp.com/image.html?image=MTA1MjY1OTc3OGJRaTJVSURadEJfN18xMl9sLmpwZw==)

So ca. müsste das Ganze mit offiziellen Treibern aussehen.

BTW: Ich hab vergessen zu erwähnen, dass die NVs Rohleistung (ohne AA/AF) bei UT2003 mit den inoffiziellen Detos. auch nicht mehr mit ATis verglichen werden darf, da auch schon ohne AF beim Application Setting der schlechter aussehende Filter vom Performance Setting genommen wird.

/edit: Link gefixt.

kann es sein dass das 8xaa da extrem mies horizontal glättet ? :peitsche:

Iceman346
2003-07-15, 18:35:13
Original geschrieben von LovesuckZ
Ist aber nur, wenn man den PC einschaltet. Daher aussagelos.

Also die FX 5900 Ultra die ich grad im PC hab (Creative, Referenzdesign, Treiber 44.03) dreht jedesmal wenn ich ein 3D Spiel starte hoch und ist dann deutlich lauter als meine 9700Pro.

Keel
2003-07-15, 18:39:38
Original geschrieben von reunion
9800pro Referenzkühler 2,3 Sone
5900Ultra Referenzkühler 4,9 Sone
laut PCGH 8/2003

Najo, aber eben nur bei der Referenzkühlung. Zunehmend mehr Hersteller haben ihre eigenen Kühler drauf. Teilweise liegen die sogar von der Lautstärke her unter einer 9800 Pro, siehe MSI. Dass keiner der ATI-Händler auch mal eigene Kühlsysteme zum Einsatz bringt, ist nun wieder Pech für ATI, aber das lass ich mal so im Raum stehen... :)

Original geschrieben von Sumpfmolch
kann es sein dass das 8xaa da extrem mies horizontal glättet ? :peitsche:

Könnte man so sagen :D (mal vorausgesetzt, dass die von HardDingensbummens auch fähig waren, den Treiber richtig einzustellen ;))

Iceman346
2003-07-15, 18:43:15
Original geschrieben von Keel
Dass keiner der ATI-Händler auch mal eigene Kühlsysteme zum Einsatz bringt, ist nun wieder Pech für ATI, aber das lass ich mal so im Raum stehen... :)

Warum? Die Kühler von ATi waren bisher eigentlich immer leise und völlig ausreichend. Da gibt es kaum einen Grund eine eigene Kühlung zu entwerfen. Trotzdem frag ich mich was aus diesem FX Flow ähnlichem Teil geworden ist welches Enmic für seine 9800Pro Karten verwenden wollte. Sollte sehr leise sein und besser Kühlen als der Referenzkühler.

Keel
2003-07-15, 19:05:30
Original geschrieben von Iceman346
Warum? Die Kühler von ATi waren bisher eigentlich immer leise und völlig ausreichend. Da gibt es kaum einen Grund eine eigene Kühlung zu entwerfen. Trotzdem frag ich mich was aus diesem FX Flow ähnlichem Teil geworden ist welches Enmic für seine 9800Pro Karten verwenden wollte. Sollte sehr leise sein und besser Kühlen als der Referenzkühler.

Nein, ich wollte damit nicht sagen, dass ATI das aus Gründen der Hitzeentwicklung machen müsste. Aber es würde schonmal einen besseren Eindruckmachen, wenn sie mal was anderes machen würden. Stattdessen packen die ATI-Händler nur ein paar Kabel, ein Handbuch, ein paar noname-Spiele (meist zumindest) und ihre Karten mit den schnöden Referenz-Kühlern in eine meist langweilige Verpackung. Das Marketing beherrschen die NV-Händler doch scheinbar besser. :)
Und von der Lautstärke her: solange die Lüfter so bei 30 dBA bleiben und keine unangenehmen Laufgeräusche verursachen, reicht mir das völlig. 20 dBA oder sowas ist für mich völlig unnötig.
Und eben dieses Teil bei HIS/ENMIC von Artic Cooling hatte ich dabei im Sinn. Ich frage mich, was daraus geworden ist...

Achill
2003-07-15, 19:14:15
@dragonfly, entfehle nach dem preiz zu gehen.

ATI's und NV's Treiber sind in meinen Augen beide annähernd gleich gut, genauso bei der HW ...

Solls so um die 260€ sein, denke ich eine 9700np hat das beste preis Leistungsverhältnis - die 5800 entfehl ich nicht wegen der Shaderschwäche.

Hast du mehr Geld, ist es wie schon gesagt egal, ob du eine 9800(P) oder 5900(U) - die nehmen sich beide nicht viel...

Aus ökonomischer sicht würde ich eine 9700np entfehlen, du sparst dir 200 euris die du evtl. in was anderes (speicher) stecken solltest oder mit dem gesparten Geld in einem jahr einfach zur nächtste GPU generation wechseln...

John Porno
2003-07-15, 19:54:32
Hallo!

Ich bedanke mich erst mal für die Antworten, aber ich wollte eigentlich ingame Screenshots von der geforce fx 5900 Ultra oder no Ultra vs Ati radeon 9800 pro ohne AA und AF. Da ich das eh nie benutzen werde oder kaum. Mir gehts rein um die Qullität die die Grafikkarte macht in Trilenear oder Bilenear auf maximum Quallität
ohne AF und AA (Wer das schärfere Bild Abliefert ). Wenn einer eine von diesen Karten besitzt oder schon Screenshots gesehen hat ( ohne AA und AF ), kann ja mal posten was ihm gefallen hat oder nicht an der Karte. Wie gesagt mir gehts nur um die schärfe der Bilder im Highqualitymodus.

Ich hoffe ihr werdet ein paar Vergleiche posten.

Danke und bye

Black-Scorpion
2003-07-15, 20:13:01
Original geschrieben von John Porno
Hallo!

Ich bedanke mich erst mal für die Antworten, aber ich wollte eigentlich ingame Screenshots von der geforce fx 5900 Ultra oder no Ultra vs Ati radeon 9800 pro ohne AA und AF. Da ich das eh nie benutzen werde oder kaum.

Wenn das dein ernst ist, kannst du jede Menge Geld sparen.
Dafür brauchst du keine der beiden Karten.
Da reicht es wenn du eine 9700(pro) oder FX5800 nimmst.

nggalai
2003-07-15, 20:27:07
Original geschrieben von Anonym_001
Wenn das dein ernst ist, kannst du jede Menge Geld sparen.
Dafür brauchst du keine der beiden Karten.
Da reicht es wenn du eine 9700(pro) oder FX5800 nimmst. Nicht mal das ist unbedingt nötig--meine alte Ti4400 ist in Sachen Rohleistung bei den meisten aktuellen Spielen vielleicht 10% lahmer als die GFFX5800. OK, Du hast kaum Shadersupport, aber wenn's nur um die Rohleistung z.B. in UT2003 geht . . .

93,
-Sascha.rb

Black-Scorpion
2003-07-15, 20:40:43
Original geschrieben von nggalai
Nicht mal das ist unbedingt nötig--meine alte Ti4400 ist in Sachen Rohleistung bei den meisten aktuellen Spielen vielleicht 10% lahmer als die GFFX5800. OK, Du hast kaum Shadersupport, aber wenn's nur um die Rohleistung z.B. in UT2003 geht . . .

93,
-Sascha.rb

Aber ein bissel Luft nach oben kann ja nicht schaden. ;)

John Porno
2003-07-15, 20:55:39
Hallo!

Also für zukünftige Spiele wird eine geforce 4 nicht mehr reichen.
die benchmarks in ut2003 sind sehr cpu lastig somit läuft die geforce fx 5900 noch lange nicht am limit, die geforce 4 4400 hingegen denke ich schon. Die Bildquallität der geforce 4 ist wesentlich schlechter als die der radeon 9800 pro ( total verschwommen ). Die radeon 9700 pro würde ich nicht kaufen, da ich
mir grundsätzlich alle 1,5 bis 2 Jahre in etwa die schnellste und vor allem die beste Bildquallität ohne AA und AF kaufe um wieder meine ruhe zu haben. Ich selber besitze eine radeon 8500, die mir allerdings doch schon etwas zu langsam ist. Nun nochmal meine frage :
hat die geforce fx 5900 Ultra eine bessere Bildquallität ohne AA und AF als eine radeon 9800 Pro ( schärferes bild? )

Mr. Lolman
2003-07-15, 21:23:46
Nein, eher umgekehrt. Eigentlich sollte die Qualität ja ziemlih gleich sein, aber bei NV kann man sich m.E. nicht mehr so sicher sein, dass man (in der Highquality Einstellung) wirklich normales trilineares Filterung serviert bekommt, es sei denn man nutzt einen offiziellen Treiber... ...welcher etwas langsamer ist. Wie gesagt, von der Leistung nehmen sich beide so gut wie nichts, und von der BQ her, geht im Zweifelsfall die Krone an ATi...

LovesuckZ
2003-07-15, 21:32:12
Original geschrieben von Mr. Lolman
geht im Zweifelsfall die Krone an ATi...

???

Auch wenn ich kein richtiges tri AF zu Sicht bekomme, bleibt die Winkelabhawngigkeit immernoch bestehen. Und da kann auch ATi's "Hack" AF nichts retten, wenn in der Battlefield Demo die Haeuserdaecher vor sich hin flimmern.
Und eine Krone für die beste BQ in games kann es sowieso nicht geben, denn beide glänzen auf diesem gebiet nicht wirklich...

Razor
2003-07-15, 22:52:06
Original geschrieben von Mr. Lolman
Nein, eher umgekehrt. Eigentlich sollte die Qualität ja ziemlih gleich sein, aber bei NV kann man sich m.E. nicht mehr so sicher sein, dass man (in der Highquality Einstellung) wirklich normales trilineares Filterung serviert bekommt, es sei denn man nutzt einen offiziellen Treiber... ...welcher etwas langsamer ist. Wie gesagt, von der Leistung nehmen sich beide so gut wie nichts, und von der BQ her, geht im Zweifelsfall die Krone an ATi...
Kannst Du das bitte mal mit irgendwelchen Belgen unterfüttern ?
???

Du behauptest also, das nVidia nicht mehr trilienar filtert ?
Also ganz ohne AF und auch in anderen Games als UT2003 ?
Oh mann...

Unter UT2003 ist die ATI-Lösung nicht grad ideal (zumindest hier wirst Du mir hoffentlich zustimmen), wie auch mit dem nVidia AF was net stimmt (ob Bug oder Cheat wird sich noch heraus stellen).

Insofern auch grade dieses Beispiel Deiner "HQ-Pics" für die Tonne ist.
Aber was red' ich hier...

Razor

MadManniMan
2003-07-16, 00:18:44
Ich kann nicht so ganz nachvollziehen, daß du dir so sehr Gedanken um die Raw-Quali machst. Die evtl. technisch vorhandenen Unterschiede (Intellisample?) werden auch in solchen Szenarien subjektive Unterschiede von Ausmaßen eines Staubkorns in einer Lagerhalle ausmachen.
Richtig interessant wird es nunmal erst, wenn du AA und AF fährst - wenn du schon derart viel ausgeben willst, dann ist es es auch Wert, daß du dir die Dinge zumindest mal anschaust. Denn laß es mich mal so sagen: wenns dich nicht juckt, daß du zB BF42 ohne Beanstandungen mit hoher AA und AF Stufe zocken könntest - aus Qualitätssicht, meine ich - , dann glaube ich kaum, daß du irgendwelche kleineren Feinheiten bei Raw-Quali-Unterschieden wahrnehmen wirst.

:ratlos:

...du denkst dir scheinbar: "Schön Raw-Power für schlechte Zeiten aufsparen!" - und bist dabei kontraproduktiv.
Hol dir einfach eine halb so teure Karte, wie das non-plus-Ultra (R98P oder GF59U) an Kosten verschlingt und kauf dir dann nen Neue, wenns plötzlich ruckelt.
Wenn wir mal von einer R97 für 250,- ausgehen und von einer GF59U für 500,- (wie sind die Preise?), dann wirst du a) vorerst überhaupt null komma gar keine Raw-Unterschiede feststellen und b) wenn es dann ruckelt mit der dopelt so teuren vielleicht ein Quartal länger ausgesorgt haben - ist es dir das Wert?

:kratz2:

Mr. Lolman
2003-07-16, 01:16:07
Original geschrieben von LovesuckZ
???

Auch wenn ich kein richtiges tri AF zu Sicht bekomme, bleibt die Winkelabhawngigkeit immernoch bestehen.

Bei ATi hat man ohne AF (beim echten Trilinearem Filtering) auch keine Winkelabhängigkeit. Zzumindest ist die Blume nicht grösser als bei NV.


Und da kann auch ATi's "Hack" AF nichts retten, wenn in der Battlefield Demo die Haeuserdaecher vor sich hin flimmern.


Gegen das Flimmern kann man ATis TextureLOD Regler 1 oder 2 Stufen runterregeln. Das dürfte wohl noch ein Übebleibsel aus R200 Zeiten sein, wo es wegen dem kompromisslosem Bi-AF noch Sinn machte das TextureLOD etwas zu reduzieren. (um das bi-AF Banding nach hinten zu versetzen)


Und eine Krone für die beste BQ in games kann es sowieso nicht geben, denn beide glänzen auf diesem gebiet nicht wirklich...

Kommt drauf an, wie man seine Prioritäten setzt...



Original geschrieben von Razor
Kannst Du das bitte mal mit irgendwelchen Belgen unterfüttern ?
???

Hm, kann ich leider nicht, da ich leider keine GF FX habe, aber irgendwie bin ich fest davon überzeugt, dass diese UT2003 Optimierung nicht nur bei aktiviertem AF zu Tragen kommt :D

Du behauptest also, das nVidia nicht mehr trilienar filtert ?
Also ganz ohne AF und auch in anderen Games als UT2003 ?
Oh mann...

Ja ja,und nein, nur bei UT2003...

Unter UT2003 ist die ATI-Lösung nicht grad ideal (zumindest hier wirst Du mir hoffentlich zustimmen), wie auch mit dem nVidia AF was net stimmt (ob Bug oder Cheat wird sich noch heraus stellen)

Nagut, dass kann man so stehen lassen :)

Insofern auch grade dieses Beispiel Deiner "HQ-Pics" für die Tonne ist.
Aber was red' ich hier...

Razor


Inwiefern ich dies jetzt interpretieren sollte, entzieht sich völlig meiner Kenntnis.

John Porno
2003-07-16, 02:05:09
Also MadManniMan

1.
Da ich mit einer Auflösung spielen will von 1600 1200 ist AA und AF für mich nicht so wichtig.
2.BF42 spiele ich bestimmt nicht :).
3.Ich kann sehr wohl einen unterschied zwischen verwaschnen Bildern und scharfen Bildern erkennenen, da ich schon seit 7 Jahren 3d Shoter,Adventures und Ultima Online nicht vergessen :) spielt ( insgesamt 250 Spiele auf Pc ,Psx,Ps2,Dreamcast,N64,Gamecube durchgespielt :)).
4.Ich kaufe mir alle zwei Jahre eine neue Graka und alle 1 bis 1,5 Jahre neunen Rechner, damit ich so einen richtigen O - Wow
Effekt bekomme. Weil die Graka dann so richtig schnell ist im Vergleich zur alten und dann auch auf dem Stand der Dinge bin. Den Rechner kaufe ich früher damit die Graka noch ein bischen aus den Reserven gelockt wird und noch bissle reicht. Ich denke nicht das die radeon 9700 pro noch 2 Jahre hält und doom3 mit 1600 1200 darstellen ohne extreme Slowdowns. Ich denke ebenfals nicht das doom3 bei 1024 768 und 4 fach oder 6 fach AA besser aussieht als auf 1600 1200 ohne AA. Mir ist lieber eine hohe Auflösung als AA ( bei AA sehen die Texturen leicht verwaschen aus und mit hoher Auflösung eben nicht). Wenn ich mir also eine Grafikkarte kaufe fuer 250 Èuro und sie dann nach 1 Jahr wieder verkaufe und mir dann wieder eine hole für 250 Euro, werd ich nie diesen Effekt bekomme wie oben schon genannt. Auserdem geht mir das ständige rumwursteln im Pc sowas auf die Nerven ( langt schon wenn wenn alle immer zu mir kommen mein Pc ist kaputt kannst mir ned bitte schnell helfen ,bitte, bitte, bitte).
Auserdem wollte ich ja nur wissen welches Bild nun besser aussieht ohne AA und AF in Maxqually Einstellungen der beiden Karten.

So dann adele

Ps. Wäre fast ein Roman geworden !

aths
2003-07-16, 06:19:20
Original geschrieben von Exxtreme
Für den Anfang bezüglich...

FS(E)AA: FSAA ist schon FSAA. Texturen-Aliasing wird mit MIP-Mapping und Texturfilterung unterdrückt, den Rest macht FSAA. Alphatest-Aliasing ist eine Frage der Textur-Filterung.

Original geschrieben von John Porno
1.
Da ich mit einer Auflösung spielen will von 1600 1200 ist AA und AF für mich nicht so wichtig. Auch in 1600x1200 ist AA und AF wichtig.

LovesuckZ
2003-07-16, 08:38:05
Original geschrieben von Mr. Lolman
Bei ATi hat man ohne AF (beim echten Trilinearem Filtering) auch keine Winkelabhängigkeit. Zzumindest ist die Blume nicht grösser als bei NV.

Das Forum war gestern nen bissl langsam abends, da hats net editiert...
Ich meine, dass ich trotz keinem richtigen tri - af immer noch eine Winkelunabhaengigkeit habe. Dies gibt es bei ATi nicht. Daher koennen auch die schoensten Boeden nicht diese Schwaeche wegmachen.

Gegen das Flimmern kann man ATis TextureLOD Regler 1 oder 2 Stufen runterregeln.

Ich denke nicht, dass dies das runtergeregelte AF ausgleichen koennte.


Kommt drauf an, wie man seine Prioritäten setzt...


Steht im Widerspruch zu deinem ersten Satz.
Wenn man ATi die BQ Krone geben wuerde, dann übersieht man die AF Schwaeche und legalisiert sie damit...

Alfons
2003-07-16, 09:41:39
Original geschrieben von LovesuckZ
Das Forum war gestern nen bissl langsam abends, da hats net editiert...
Ich meine, dass ich trotz keinem richtigen tri - af immer noch eine Winkelunabhaengigkeit habe. Dies gibt es bei ATi nicht. Daher koennen auch die schoensten Boeden nicht diese Schwaeche wegmachen.


Du bist dir doch über die Konsequenzen der Winkelabhängigkeit gar nicht bewußt beziehungsweise kannst diese gar nicht einschätzen. Denn wenn doch, würdest du nicht ständig sowas von dir geben.

[B]
Steht im Widerspruch zu deinem ersten Satz.
Wenn man ATi die BQ Krone geben wuerde, dann übersieht man die AF Schwaeche und legalisiert sie damit...

Zu "legalisieren" versucht hier keiner was, im Gegenteil, du versuchst in jedem 2. Thread hier was zu kriminalisieren.

LovesuckZ
2003-07-16, 09:57:18
Original geschrieben von Alfons
Du bist dir doch über die Konsequenzen der Winkelabhängigkeit gar nicht bewußt beziehungsweise kannst diese gar nicht einschätzen. Denn wenn doch, würdest du nicht ständig sowas von dir geben.

:schlag:


Zu "legalisieren" versucht hier keiner was, im Gegenteil, du versuchst in jedem 2. Thread hier was zu kriminalisieren.

:schlag:

Ich lache gerne... :freak:

ShadowXX
2003-07-16, 10:34:18
Original von John Porno:
Mir ist lieber eine hohe Auflösung als AA ( bei AA sehen die Texturen leicht verwaschen aus und mit hoher Auflösung eben nicht).


bei ATI's bzw. nV's MSAA-Modi werden die Texturen nicht angerührt, ist ein Edge-AA. (für Texturen dann AF)
Nur bei nV's SSAA-Modi werden die Texture mit angefasst.(und manchmal wirken Sie dadurch wirklich minimal 'verwaschen', ist aber auch ansichtssache und hat wohl auch was mit dem 'dazugehörigen' AF-Einstellungen zu tun...).

Ich schätze mal das deine schlechte Meinung über AA von nV's Quintunox (oder wie das auch immer heisst und geschrieben wird) herrührt...diese Verfahren ist auch 'anerkantermassen' schlecht und verwäscht wirklich alles mögliche....

Mit gutem AA und AF kann 1024x768 besser aussehen als 1600x1200 ohne irgendetwas....

J.S.Shadow

Aquaschaf
2003-07-16, 17:35:12
Bei hohen Auflösungen sehen die Texturen ja trotzdem besser aus, als bei niedriger Auflösung und AA. AA verliert imo schon mit hohen Auflösungen an Bedeutung, aber das ist subjektiv. Gegen verwaschene Texturen helfen hohe Auflösungen ja reichlich wenig, weswegen AF vollkommen unabhängig von der Auflösung die Bildqualität verbessert.

Razor
2003-07-16, 19:12:59
Original geschrieben von Mr. Lolman
Hm, kann ich leider nicht, da ich leider keine GF FX habe, aber irgendwie bin ich fest davon überzeugt, dass diese UT2003 Optimierung nicht nur bei aktiviertem AF zu Tragen kommt :D
Deswegen habe ich ein wenig ausgeholfen...
Das Ergebnis kann man sich im anderen Thread anschaun':
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1055613#post1055613
Original geschrieben von Mr. Lolman
Ja ja,und nein, nur bei UT2003...
Und Du hast damit vollkommen recht !
Offensichtlich konzentriert sich dieses Problem ausschließlich auf UT2003 und tritt sonst nicht zutage...
Original geschrieben von Mr. Lolman
Nagut, dass kann man so stehen lassen :)
Uff... endlich mal einer Meinung ?
Ich glaub's net...
:D
Original geschrieben von Mr. Lolman
Inwiefern ich dies jetzt interpretieren sollte, entzieht sich völlig meiner Kenntnis.
Siehe oben... UT2003 ist erzeit denkbar ungeeignet, um einen MaxQuality/MaxFeature-Vegleich zu machen. Ich vermute mal, dass wohl JEDES Game/Tool/App besser dafür geeignet wäre...

Sorry, wenn ich mich hier vielleicht mißverständlich ausdrückte.

Razor

Mr. Lolman
2003-07-16, 20:38:14
Original geschrieben von Razor
Deswegen habe ich ein wenig ausgeholfen...
Das Ergebnis kann man sich im anderen Thread anschaun':
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1055613#post1055613
[QUOTE][SIZE=1]
Und Du hast damit vollkommen recht !
Offensichtlich konzentriert sich dieses Problem ausschließlich auf UT2003 und tritt sonst nicht zutage...

Dankeschön, habs schon gesehen. Das Optimum wäre die App. Qualität des 43.45 bei der Geschwindigkeit des 44.65 im nächsten Treiber zu realisieren. Mann bin ich schon gespannt was die 50er Detos drauf haben werden..


Uff... endlich mal einer Meinung ?
Ich glaub's net...
:D

Naja, is ja nicht so, dass du ausschliesslich Stuss von dir gibst ;) *SCNR*



Siehe oben... UT2003 ist erzeit denkbar ungeeignet, um einen MaxQuality/MaxFeature-Vegleich zu machen. Ich vermute mal, dass wohl JEDES Game/Tool/App besser dafür geeignet wäre...


Ok, hast recht, aber als der MAX Quality Vergleich gemacht wurde, wurde in den Treibern auch noch nicht gecheatet/optimiert. D.H. dass das so ziemlich das wirkliche Optimum an Qualität ist, was man bekommen könnte (sofern man den richtigen Treiber (bzw. die richtigen Tools)verwendet.)

Ob wirklich jedes andere Spiel bewsser zum BQ Vergleichen geeignet ist, kann man nicht sagen. Ich hab Thomas Bruckschlegel mal eine Mail geschickt, dass er in der nächsten Version seines Tools, einen Schalter für Colormipmaps einbauen könnte. Mal, sehen, was dabei rauskommt...


Sorry, wenn ich mich hier vielleicht mißverständlich ausdrückte.

Razor

Kein Prob. Ist mir auch sicher schon mal passiert :)

Razor
2003-07-16, 21:16:01
Original geschrieben von Mr. Lolman
Mann bin ich schon gespannt was die 50er Detos drauf haben werden..
Hoffentlich wird das Ganze dann nicht noch schlimmer...

Derzeit wäre ich ganz froh, wenn es die Treiber-Progger mal schaffen, das GPU/Speicher-Taktverhalten der 43.45 für die FX5200 wieder hinzubekommen.

Aber spannend ist es allemal !
:D
Original geschrieben von Mr. Lolman
...aber als der MAX Quality Vergleich gemacht wurde, wurde in den Treibern auch noch nicht gecheatet/optimiert. D.H. dass das so ziemlich das wirkliche Optimum an Qualität ist, was man bekommen könnte (sofern man den richtigen Treiber (bzw. die richtigen Tools)verwendet.)
Mag sein... trotzdem würde ich derzeit um dieses Game in dieser Hinsicht einen großen Bogen machen. Zumal unbewegte Bilder nur die halbe Wahrheit erzählen...
Original geschrieben von Mr. Lolman
Ob wirklich jedes andere Spiel bewsser zum BQ Vergleichen geeignet ist, kann man nicht sagen. Ich hab Thomas Bruckschlegel mal eine Mail geschickt, dass er in der nächsten Version seines Tools, einen Schalter für Colormipmaps einbauen könnte. Mal, sehen, was dabei rauskommt...
Wäre sehr interessant...
*kräftigstdiedaumendrückt*

Ansonsten schrieb ich "vermute ich", welches ja durchaus einen gewissen Spielraum zuläßt, gell ?
;-)

Razor

John Porno
2003-07-17, 15:33:43
Original geschrieben von ShadowXX
bei ATI's bzw. nV's MSAA-Modi werden die Texturen nicht angerührt, ist ein Edge-AA. (für Texturen dann AF)
Nur bei nV's SSAA-Modi werden die Texture mit angefasst.(und manchmal wirken Sie dadurch wirklich minimal 'verwaschen', ist aber auch ansichtssache und hat wohl auch was mit dem 'dazugehörigen' AF-Einstellungen zu tun...).

Ich schätze mal das deine schlechte Meinung über AA von nV's Quintunox (oder wie das auch immer heisst und geschrieben wird) herrührt...diese Verfahren ist auch 'anerkantermassen' schlecht und verwäscht wirklich alles mögliche....

Mit gutem AA und AF kann 1024x768 besser aussehen als 1600x1200 ohne irgendetwas....

J.S.Shadow


Hallo!

Ich meine nicht das schlechte Quincunx der Geforce 4. Ich besitze nur eine Ati Radeon 8500 und bin der Meinung, dass diese die Texturen verwascht beim AA. Quincunx ist sowieso eine Einstellung die keiner braucht es seiden er ist blind ( dann fällts ned auf ). Ich wollte ja eigentlich nur sagen, dass ich halt lieber mit hohen Auflösungen spiele als mit AA und mir das ab 1600 1200 eh wurst ist ob AA an ist oder nicht (Doom 3 wird sicher nicht mit 1600 1200 und AA gut laufen ). Ich brauche mindestens 50 Fps um ein spiel geniesen zu können ( Quake 1,2 und 3 Spieler ). Doom3 Wird mit sicherheit wieder schlecht laufen mit 30 fps ( wie ja schon aus den anderen Spielen bekannt von id ). Mir währe halt wichtig gewesen ingame Screenshots von der ati radeon 9800 pro und der geforce fx 5900 ohne AA und AF zu sehen, damit ich weiss welche Grafikkarte es wird. Mir ist auch der 2D bereich wichtig ( wie scharf das Bild da ist ).

Danke für all eure Bemühungen aber ich will halt nicht AA und AF wissen denn nur die beste Qullität der maximum Textureschärfe der beiden Karten in der selbe Auflösung.

Bye

ps. ich habe nen Sony HDM a 420 19 zoll moni der geht bis 1920 * 1440 (75 Hz)

Gast
2003-07-17, 15:45:40
Original geschrieben von Razor
Und Du hast damit vollkommen recht !
Offensichtlich konzentriert sich dieses Problem ausschließlich auf UT2003 und tritt sonst nicht zutage...

Umgekehrt wird ein Schuh draus :

Nvidia muss seinen speziellen AF-Algorithmus für jedes Spiel extra anpassen.

Da UT2003 sehr häufig für Benchmarks benutzt wird, haben sie natürlich erst mit diesem Spiel angefangen. Mal schauen welche Spiele noch in den Genuss kommen. Spiele die nicht für Benchmarks benutzt werden sicher nicht ( da lohnt der Aufwand nicht ).

Dh. einige Spieler werden in den Genuss kommen, andere nicht. Vor allem alle Simulationen, die fast nie für Benchmarks benutzt werden (obwohl es auch fraglich ist, wie gut/schlecht das spezielle AF hier aussehen würde) werden wohl ohne Optimierung laufen müssen.

Gast
2003-07-17, 15:50:00
Original geschrieben von John Porno
Hallo!

Ich meine nicht das schlechte Quincunx der Geforce 4. Ich besitze nur eine Ati Radeon 8500 und bin der Meinung, dass diese die Texturen verwascht beim AA.

Bekannt. ATi hat beim R200 am LOD gedreht. Da der R200 nur SSAA kann frisst das Ding Füllrate und Bandbreite ohne Ende wenn AA aktiviert ist. Um ein bisschen mehr Performance rauszukitzeln hat ATi in späteren Treibern deshalb einfach am LOD gedreht.

Wenn du willst, kannst du das auch als Cheat bezeichnen, da hier wie beim FX-AF die Image Qualität für ein bisschen höhere FPS runtergeschraubt wurde.

aths
2003-07-17, 15:54:05
Original geschrieben von ShadowXX
Mit gutem AA und AF kann 1024x768 besser aussehen als 1600x1200 ohne irgendetwas....In der Tat, und dieser bessere Modus kann zudem noch schneller sein.

Razor
2003-07-17, 22:14:35
Original geschrieben von Gast
Umgekehrt wird ein Schuh draus :

Nvidia muss seinen speziellen AF-Algorithmus für jedes Spiel extra anpassen.
Und warum trifft das dann nur ein einziges Games ?
Und sieht zudem auch noch scheiße aus...
???

Sorry, aber solange nicht mehr dazu kommt, bleibt's erst einmal ein Bug.
Meinetwegen auch ein Cheat...
Ist mir wurscht, wenn die BQ sonst 'normal' ist...
:D

UT2003 brauchte aber selbst schon mit aths aTuner eine Sonderbehandlung (gf4ti), weil wohl auch dort aufgefallen ist, dass eine generelle 'Optimierung' gerade bei diesem Game scheiße aussehen würde. Und da auch ATI hier nicht gerade mit (für ATI ;-) optimaler Qualität glänzt, sollte man dieses Game einfach aus der Betrachtung und meinetwegen auch aus der Bench-Wertung nehmen, da hier beide zu lasten der BQ 'optimieren'.

Irgendwie bin ich dieses Thema's langsam überdrüssig...
;-)

Razor

John Porno
2003-07-18, 20:14:14
Hallo Beisammen !

Ich würde mich freuen wenn einer von euch einen Screenshot Posten würde mit 1024 768 Auflösung mit 4 fach AA oder 6 fach AA (Radeon 9700 Pro oder 9800 Pro )und den selben ohne AA. Als Game würde ich mir eines wünschen mit schönen Texturen. Bitte nicht zu dunkel die Screens.

Ich hoffe einer hat Zeit und postet ein Paar.

Danke und Bye