PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bild-Quali X1900er (Settings)


Super-S
2006-04-10, 15:26:21
:) Hi !!!

Thema ist oft diskutiert worden, nur bei der 1900er Serie habe ich noch nix finden können, was mir eine Antwort auf diese Frage geben kann.

Ich habe eine X1900XT@XTX (Geflasht)

Da die Karte ziemlich Performant ist, ich aber selbst mit hohen Einstellungen in Spielen ziemlich unzufrieden bin was die BQ angeht... sprich AA(6X), sieht mit Ingame Einstellungen (BF2, FEAR) SCHREKLICH aus. (ich weiss das das Nvidia AA besser sein soll)

6XAA Ingame sieht auf meiner X1900er nicht mal Annähernd so gut aus wie 4X bei meiner 6800GT.

Dies soll keine Beschwerde sein.... die X1900er sind GEILE Karten, keine Frage.

Aber mann sagt ja das mann seine Settings INGAME machen soll....oder?

Wird der Performance Unterschied sehr groß sein, wenn ich meine Settings ab jetzt übers CCC mache? Ist dieses zu empfehlen ??? Ändert sich was an der Quali ???

Bitte keine Antworten wie "Probier doch" ....bin nicht daheim, und werde es Morgen schon testen... würde aber vorab schon mal gerne ein paar Meinungen drüber hören ;)

Also...

san.salvador
2006-04-10, 15:39:20
Das 4xAA von ATI entspricht dem von Nvidia, das 6xAA legt nochmal eins drauf. Das 4xAA _kann_ also nicht schlechter aussehen. Vielleicht meinst du was anderes? SSAA vielleicht?

Snipermaik
2006-04-10, 15:53:45
Bei BF2 z.B. musst du die Kantenglättung (AA) in den Gameoptions und die Filterung im Treiber einstellen.
Wenn beides im Treiber eingestellt wird, dann funzt die Kantenglättung nicht.

Super-S
2006-04-10, 16:17:59
Bei BF2 z.B. musst du die Kantenglättung (AA) in den Gameoptions und die Filterung im Treiber einstellen.
Wenn beides im Treiber eingestellt wird, dann funzt die Kantenglättung nicht.

Tatsächlich ??? ...das würde einiges Erklären.

Ja, habe beides INGAME eingestellt....

Aber ich habe es direkt verglichen.... Das ATI 6xAA, sieht bei meiner 6800GT bei 4x besser aus... :| ...ist meine persöhnlicher Eindruck.

Edit: Im Treiber ist alles auf Aplic. ...im Game sind AA+ Filterung eingestellt.
Ergibt das den selben nichtfunktionierenden Effekt?

dargo
2006-04-10, 16:31:26
@Super-S

Nicht böse sein, aber wenn du nicht mal erkennen kannst ob überhaupt AA in BF2 bei dir aktiv ist wie willst du dann die AA Qualität von NV und ATI beurteilen? :|

Ich hatte selbst eine G6800GT und das 4xAA sieht bei ATI besser aus als das 4xAA (nicht SSAA) von NV.

Super-S
2006-04-10, 16:41:14
@Super-S

Nicht böse sein, aber wenn du nicht mal erkennen kannst ob überhaupt AA in BF2 bei dir aktiv ist wie willst du dann die AA Qualität von NV und ATI beurteilen? :|

Ich hatte selbst eine G6800GT und das 4xAA sieht bei ATI besser aus als das 4xAA (nicht SSAA) von NV.

Doch, das es Aktiv ist sehe ich.... aber es kann ja sein das es "nicht richtig" funktioniert... und die Glättung schlechter ist!!!!

Vielleicht liegt es aber auch am TFT... den ich zocke auf einem 19" ACER AL1951 (8MS) ...und dieser hat Crystal Bright. Auf dem sieht mann echt jede kleinigkeit an Aliasing. Im Wohnzimmer habe ich einen 15" TFT (Mattes Displ. 16MS) und auf dem erkennt mann Aliasing nicht so bei gleichen Settings.

Aber das das AA bei NV besser sein soll, lese ich sehr oft...(selbst auf bekannten I-Net Seiten..) und diese X1900XT ist erst meine 2.ATI Karte.

A

dargo
2006-04-10, 16:45:19
Aber das das AA bei NV besser sein soll, lese ich sehr oft...(selbst auf bekannten I-Net Seiten..) und diese X1900XT ist erst meine 2.ATI Karte.

Das stimmt nicht. Das AA von NV sieht nicht besser aus als das von ATI. Es sieht sogar etwas schlechter aus, zumindest ohne Supersampling Anteil.

The_Invisible
2006-04-10, 16:49:42
Das stimmt nicht. Das AA von NV sieht nicht besser aus als das von ATI. Es sieht sogar etwas schlechter aus, zumindest ohne Supersampling Anteil.

außer gammakorrektur ist das NV4x AA dasselbe wie bei den Radeons, bei der G7x Serie ist garkein unterschied mehr

mfg

Super-S
2006-04-10, 16:50:51
:cool: Kann es denn dann am TFT liegen....? Durch X-Black oder Crystal-Bright sieht mann selbst das kleinste Treppchen....ziemlich deutlich.

Vielleicht hätte ich auf dem gleichen TFT vergleichen sollen...hmmm.

Zum Spielen....

Lieber Treiber-Settings wählen, oder alles INGAME ?

dargo
2006-04-10, 16:58:14
außer gammakorrektur ist das NV4x AA dasselbe wie bei den Radeons, bei der G7x Serie ist garkein unterschied mehr

So ist es. Es ging hier aber um den NV40. Und bei diesem ist mir besonders in Rennspielen das etwas schlechtere AA aufgefallen.


Zum Spielen....

Lieber Treiber-Settings wählen, oder alles INGAME ?

Bei Fear kannst du ruhig beides Ingame nehmen, bei BF2 siehe Snipermaik.

Super-S
2006-04-10, 16:59:40
siehe Snipermaik ??? ...wie darf ich das verstehen ?

dargo
2006-04-10, 17:01:09
siehe Snipermaik ??? ...wie darf ich das verstehen ?
Dritter Beitrag in deinem Thread. :wink:

Super-S
2006-04-10, 17:03:16
:redface: Uuuups... Thx

Snipermaik
2006-04-10, 19:07:58
Wenn du bestmögliche Bildquali in BF2 haben möchtest, dann musst du AF im Treiber einstellen und nicht im Game.
Auf der höchsten Filterstufe im Game wird nur max. 2x AF gefiltert.

Versuch es mal so:
4x oder sogar 6x AA im Game einstellen und
alle weiteren Einstellung auf Anschlag.

Im Treiber zusätzlich:
16x AF einstellen
High Quality AF aktivieren
enable AAA und auf Quality
AI an und auf Standart

Ich glaube kaum, dass du dann noch der Meinung bist NV hätte eine bessere Bildquali.

Super-S
2006-04-10, 19:15:34
;) Danke, soll ich dann Tex-filt. im Game dann auf Niedrig lassen ???

...oder spielt das keine Rolle mehr....?

Snipermaik
2006-04-10, 19:21:33
Wie oben schon geschrieben, im Game kannst du alles auf Anschlag stellen.
Achso, im Treiber das AA natürlich deaktivieren.
Treibereinstellungen überschreiben grundsätzlich immer die Gameoptions!

Katrin
2006-04-11, 08:30:40
und mit diesen Settings kannste noch gut zocken bei BF2 ?

Also alles auf High, 16AF, AAA..

bei mir gehts dann schonmal in die Knie... an bestimmten Stellen... naja mal gucken, obs mit dem DualCore besser wird

kati

mbee
2006-04-11, 12:32:15
und mit diesen Settings kannste noch gut zocken bei BF2 ?

Also alles auf High, 16AF, AAA..

bei mir gehts dann schonmal in die Knie... an bestimmten Stellen... naja mal gucken, obs mit dem DualCore besser wird

kati

Wird es sicher nicht: AAA kostet bei BF2 (vor allem in hohen Auflösungen) mächtig Performance, da recht viele Alpha-Texturen vohanden sind.
Das finde ich persönliche jetzt mit meiner Karte und fand ich auch zuvor mit 2x7800GTX unter 1600x1200 nicht mehr spielbar bzw. hart an der Grenze (Quality AAA bei ATI bzw. Supersampling TAA bei NV).

Katrin
2006-04-11, 12:45:26
Wird es sicher nicht: AAA kostet bei BF2 (vor allem in hohen Auflösungen) mächtig Performance, da recht viele Alpha-Texturen vohanden sind.
Das finde ich persönliche jetzt mit meiner Karte und fand ich auch zuvor mit 2x7800GTX unter 1600x1200 nicht mehr spielbar bzw. hart an der Grenze (Quality AAA bei ATI bzw. Supersampling TAA bei NV).

jep eben.. ich zock in 1280x1024... und auf 64er Maps gehts dann mit AAA scho,mal echt runter... 30er Bereich

Kati

Snipermaik
2006-04-11, 20:26:11
und mit diesen Settings kannste noch gut zocken bei BF2 ?

Also alles auf High, 16AF, AAA..

bei mir gehts dann schonmal in die Knie... an bestimmten Stellen... naja mal gucken, obs mit dem DualCore besser wird

kati

Na ja, auf 32er Servern läuft das wie geschmiert, so zwischen 50-100fps bei 1280x1024 mit nem 650er @ 4.4Ghz und 2Gb RAM.
Aber auf 64er Servern merkt man dann dass die CPU limitiert, es bricht dort teilweise auch bis auf 30fps ein.
Aber nur wenn gerade die Hölle los bricht, sonst geht´s.

Ich bin ja am überlegen ob ich mir einen 641er Cedar Mill @ 4.8-5.0 Ghz hole oder einen D 930 (DualCore) @ 4.4 - 4.5 Ghz, mal schauen was die Preise am Ende des Monats sagen.
Warscheinlich wird’s der Cedar Mill, weniger Strom und günstiger isser auch.

@Katrin
Grafikkartentakt @ 685Mhz GPU & 800Mhz Speicher, mit welchem Takt läuft denn deine Graka und CPU?

Katrin
2006-04-12, 07:16:42
Na ja, auf 32er Servern läuft das wie geschmiert, so zwischen 50-100fps bei 1280x1024 mit nem 650er @ 4.4Ghz und 2Gb RAM.
Aber auf 64er Servern merkt man dann dass die CPU limitiert, es bricht dort teilweise auch bis auf 30fps ein.
Aber nur wenn gerade die Hölle los bricht, sonst geht´s.

Ich bin ja am überlegen ob ich mir einen 641er Cedar Mill @ 4.8-5.0 Ghz hole oder einen D 930 (DualCore) @ 4.4 - 4.5 Ghz, mal schauen was die Preise am Ende des Monats sagen.
Warscheinlich wird’s der Cedar Mill, weniger Strom und günstiger isser auch.

@Katrin
Grafikkartentakt @ 685Mhz GPU & 800Mhz Speicher, mit welchem Takt läuft denn deine Graka und CPU?

X1900 710/909

Opti 170 @ 2900Mhz

Kati

lemming71
2006-04-12, 09:12:41
:) Hi !!!

Thema ist oft diskutiert worden, nur bei der 1900er Serie habe ich noch nix finden können, was mir eine Antwort auf diese Frage geben kann.

Ich habe eine X1900XT@XTX (Geflasht)

Da die Karte ziemlich Performant ist, ich aber selbst mit hohen Einstellungen in Spielen ziemlich unzufrieden bin was die BQ angeht... sprich AA(6X), sieht mit Ingame Einstellungen (BF2, FEAR) SCHREKLICH aus. (ich weiss das das Nvidia AA besser sein soll)

6XAA Ingame sieht auf meiner X1900er nicht mal Annähernd so gut aus wie 4X bei meiner 6800GT.

Dies soll keine Beschwerde sein.... die X1900er sind GEILE Karten, keine Frage.

Aber mann sagt ja das mann seine Settings INGAME machen soll....oder?

Wird der Performance Unterschied sehr groß sein, wenn ich meine Settings ab jetzt übers CCC mache? Ist dieses zu empfehlen ??? Ändert sich was an der Quali ???

Bitte keine Antworten wie "Probier doch" ....bin nicht daheim, und werde es Morgen schon testen... würde aber vorab schon mal gerne ein paar Meinungen drüber hören ;)

Also...

Endlich mal jemand der meinen Eindruck von der Qualität des AA von ATI zustimmt!!! Bisher musste ich auch immer hören, dass die AA bei ATI besser sein soll als bei nvidia. Nunja, ist interpretationssache. Tatsache ist aber, dass ich die Kanten von ATI mit 6AA schärfer und dadurch eben kantiger finde als die von nvidia. Und das ist meiner Meinung nach eher ein Nachteil, denn nun flimmern die Kanten auch mal gerne, im Gegensatz zum einer 6800GT die ich zuvor besaß.

Tobias123
2006-04-12, 09:20:35
Endlich mal jemand der meinen Eindruck von der Qualität des AA von ATI zustimmt!!! Bisher musste ich auch immer hören, dass die AA bei ATI besser sein soll als bei nvidia. Nunja, ist interpretationssache. Tatsache ist aber, dass ich die Kanten von ATI mit 6AA schärfer und dadurch eben kantiger finde als die von nvidia. Und das ist meiner Meinung nach eher ein Nachteil, denn nun flimmern die Kanten auch mal gerne, im Gegensatz zum einer 6800GT die ich zuvor besaß.

Hmm.... ich hatte mal 2 Tage lang eine 6800GT... Das AA war ziemlich daneben, da die 6800er noch nicht einmal Gamma-Werte behandelt... Das war wundervoll bei Freelancer, GTA usw. zu sehen...
Na und dann dieses Geflimmer (Shimmering)..trotz deaktivierter Optimierungen :eek:
Ich war einer der ersten die sich eine 6800GT gekauft hatten... Entgegen allen Meinungen tauschte ich die Karte gegen eine X800XT-PE und die Bildqualität war einwandfrei...

Insofern wundert es mich schon, was für eine subjektive Wahrnehmung du bzgl. Bildqualität hast... ;)

Hier mal die Diskussion aus dem Jahre 2004:
schlechte Bildqualität 6800 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=169238&highlight=shimmering)

Dort gibt es auch Videos/Vergleichsbilder/Links usw...
Also gerade beim AA kann eine GF6800 nicht gerade glänzen...

lemming71
2006-04-12, 09:24:58
Nunja, aber ich bin mit meinem EIndruck ja offensichtlichnicht alleine, wenn auch in der absoluten Minderheit. Mir ist das AA der ATI einfach einen Tick zu Scharfkantig. Ich kann also die Pixelübergänge an Kanten leichter erkennen als auf der nvidia... 4AA auf der ATI kann ich schon gar nicht mehr ertragen und lasse jedes Spiel nur noch auf 6AA laufen.
Hätte ich die 6800GT noch, würde ich sofort Vergleichscreenies gemacht haben, aber leider wusste ich sie zwecks Finanzierung der ATI vorher verkaufen...

In einem gebe ich Dir aber Recht: Die Tatsache das auch transparente TExturen nun geglättet werden ist etwas, was die ATI sehr sexy macht. Besonders in Spielen wo viele Zäune, Bäume, Gras etc. zu sehen sind. Da habe ich wiederum auf der nvidia jedesmal die Krätze bekommen :-)

P.S. Sorry für den Müllpost, hatte den falschen Knopf gedrückt...

mbee
2006-04-12, 09:54:16
Endlich mal jemand der meinen Eindruck von der Qualität des AA von ATI zustimmt!!! Bisher musste ich auch immer hören, dass die AA bei ATI besser sein soll als bei nvidia. Nunja, ist interpretationssache. Tatsache ist aber, dass ich die Kanten von ATI mit 6AA schärfer und dadurch eben kantiger finde als die von nvidia. Und das ist meiner Meinung nach eher ein Nachteil, denn nun flimmern die Kanten auch mal gerne, im Gegensatz zum einer 6800GT die ich zuvor besaß.

Ist bei mir definitiv nicht der Fall und auch das gammakorrigierte NV-AA war auf meinem beiden 7800GTX deutlich schlechter (SSAA mal außen vor gelassen). Vielleicht liegt aber auch genau da der Hund begraben: Gammakorrigiertes AA sieht je nach Display nicht unbedingt besser aus (bei manchen Displays nämlich auch schlechter, auch wenn das selten ist) und bei ATI ist es immer aktiviert...

lemming71
2006-04-12, 10:44:41
Kann natürlich sein. Und es gibt keine Möglichkeit dieses Gammakorrigierte AA abzuschalten?? Gar keine??

mbee
2006-04-12, 11:32:47
AFAIK nein, aber vielleicht täusche ich mich und es gibt doch einen Reg-Eintrag.
Hattest Du denn beim vermeintlich besseren NV-AA die Gammakorrektur aktiviert oder nicht?

lemming71
2006-04-12, 14:42:58
AFAIK nein, aber vielleicht täusche ich mich und es gibt doch einen Reg-Eintrag.
Hattest Du denn beim vermeintlich besseren NV-AA die Gammakorrektur aktiviert oder nicht?

Soweit ich mich erinnern kann hatte ich ohne Gammakorrektur. Das ganz normale 4AA bzw. 6AA halt... muss wohl daran liegen... aber wenn es bisher keine Erkenntnis zum Gammaunabhängigen AA bei ATI gibt, wird es das wohl auch nicht geben. Andernfalls wäre es wohl schon im Forum hier aufgetaucht. Inwiefern kann ich es denn indirekt beeinflussen (Den Gammewert, bzw. wo holt der Treiber die dazugehörigen Daten her?)

mbee
2006-04-12, 14:51:17
Soweit ich mich erinnern kann hatte ich ohne Gammakorrektur. Das ganz normale 4AA bzw. 6AA halt... muss wohl daran liegen... aber wenn es bisher keine Erkenntnis zum Gammaunabhängigen AA bei ATI gibt, wird es das wohl auch nicht geben. Andernfalls wäre es wohl schon im Forum hier aufgetaucht. Inwiefern kann ich es denn indirekt beeinflussen (Den Gammewert, bzw. wo holt der Treiber die dazugehörigen Daten her?)

AFAIK ist das in Hardware gegossen, Du kannst hier nichts ändern, eben nur (bei NV) an- oder abschalten.

Super-S
2006-04-12, 18:23:59
:cool: Ich werde mir mal den genannten Thread durchlesen.... und hoffen das ich erleuchtet werde. Werde mich mal dransetzen und nochmals richtig vergleichen mit exakten Settings (zwischen 6800GT und X1900er).... um Missverständnisse auszuschließen :) .

Von 500.- Hardware sollte mann ja einiges erwarten können.....aber, das hatte mann ja auch beim Release des NV40 auch gesagt, der in denselben Regs mitgespielt hat :D ....ein Teufelskreis !!!

Super-S
2006-04-12, 18:26:14
uuups.