PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Graphikqualität von X800/X800 XT


Gast
2004-08-28, 19:30:06
Hallo zusammen!

Ich habe vor, mir eine X800/X800 XT zu kaufen!

War bis jetzt eingefleischter Nvidia-Fan; da ich aber meine Games(z.B. Farcry) mit 1280er Auflösung aufgrund meines 22-Zoll Monitors mit höchsten Qualitätseinstellungen spielen möchte, werde ich nun voraussichtlich das Lager wechseln!

Was mich bis jetzt noch davon abhält,sind die sogenannten Optimierungen von Ati,welch die Bildqualität angeblich negativ beeinflussen sollen:

Meine Frage also: Ist da was dran? Sieht man graphische Unterschiede mit den trilinearen und anisotropen Optimierungen bei der X800 / X800XT in Spielen?
Mit dem A-Tuner kann man ja zumindest die Optimierung,daß nur die primäre Texturstufe trilinear gefiltert wird, umgehen, gilt das für DirectX UND OpenGL?


Bitte um Statements, ob man in Spielen im Vergleich zu Nvidia-Karten bei der Trilinearen/Anisotropen Filterung mit dem bloßen Auge überhaupt diese Optimierungen sieht (Z.B. die berühmte Bug-Welle, die man in Shootern vor sich herschiebt!)!

Danke!

Cyv
2004-08-28, 19:46:46
Kann ich nicht bestätigen.
Das ist nur insofern opitmiert, sodass man es nicht sieht.
Wirklich nur dort wo mans nicht wirklich erkennen kann.
Ich habe da keine Probleme mit :wink:

tombman
2004-08-28, 20:24:30
Hallo zusammen!

Ich habe vor, mir eine X800/X800 XT zu kaufen!

War bis jetzt eingefleischter Nvidia-Fan; da ich aber meine Games(z.B. Farcry) mit 1280er Auflösung aufgrund meines 22-Zoll Monitors mit höchsten Qualitätseinstellungen spielen möchte, werde ich nun voraussichtlich das Lager wechseln!

Was mich bis jetzt noch davon abhält,sind die sogenannten Optimierungen von Ati,welch die Bildqualität angeblich negativ beeinflussen sollen:

Meine Frage also: Ist da was dran? Sieht man graphische Unterschiede mit den trilinearen und anisotropen Optimierungen bei der X800 / X800XT in Spielen?
Mit dem A-Tuner kann man ja zumindest die Optimierung,daß nur die primäre Texturstufe trilinear gefiltert wird, umgehen, gilt das für DirectX UND OpenGL?


Bitte um Statements, ob man in Spielen im Vergleich zu Nvidia-Karten bei der Trilinearen/Anisotropen Filterung mit dem bloßen Auge überhaupt diese Optimierungen sieht (Z.B. die berühmte Bug-Welle, die man in Shootern vor sich herschiebt!)!

Danke!

nun ja, jetzt werden dir wahrscheinlich 20 Leute sagen, daß der Unterschied wie Tag und Nacht ist, aber ich, der beide Karten besitzt, kann dir sagen, daß du dir keine Sorgen zu machen brauchst- es gibt KEINE Bugwelle und auch sonst ist die Qualität ziemlich gleich mit freiem Auge.

Kannst also ruhig X800 Karte kaufen .....
(aber: für 1280 und allen Details an reicht eine 6800 Serien Karte auch locker)

Wichtig ist nur, daß du keine "behinderten" Karten nimmst die weniger als 16 pipelines haben- is zumindest meine Philosophie. (also X800XT oder 6800GT/ULTRA)

Für Leute, die ned ganz krank sind ( :cool: ) wäre eine 6800GT oder eine MODBARE X800pro Vivo das beste ;)
(Hauptsache 16 pipelines)

Gast
2004-08-28, 21:05:12
....
- es gibt KEINE Bugwelle und auch sonst ist die Qualität ziemlich gleich mit freiem Auge.
...



puhh dann hab ich ja glück gehabt und dieser moire effekt vorallem bei d3 ist gar
kein moire effekt, oder auch bugwelle genannt, tja dann hab ich ja nochmal
schwein gehabt mit meiner x800xtpe, ich dachte ich hab was an den augen ;)
als ich die bugwelle gesehn hab, zum glüück war sie so schnell wieder wech und
da ich jetzt weis das es gar keine gibt ...

imo ist nv stressfreier bzgl treiber, leidige selbsterfahrung :-/ - aber das ding rennt wie die hölle ;)

Gast
2004-08-28, 23:21:13
Also was jetzt!?

Ist diese "Bugwelle" nun sichtbar oder nicht?
(natürlich bei aktiviertem anisotropem Filter z.B. 8x)

Bitte um eine klare Antwort und keine ironischen/sarkastischen bemerkungen!!!!!!!

Strolchi
2004-08-28, 23:39:44
Also was jetzt!?

Ist diese "Bugwelle" nun sichtbar oder nicht?
(natürlich bei aktiviertem anisotropem Filter z.B. 8x)

Bitte um eine klare Antwort und keine ironischen/sarkastischen bemerkungen!!!!!!!

Ich hab von einer X800XT zu einer 6800Ultra gewechselt.

Hab se erst gestern bekommen und mich jetzt so ca 20 Stunden mit dem Treiber und Bildquali beschäftigt.
Ich sag nur : eins zwei drei....meins

BlueRaven
2004-08-28, 23:43:05
Ich hab von einer X800XT zu einer 6800Ultra gewechselt.

Hab se erst gestern bekommen und mich jetzt so ca 20 Stunden mit dem Treiber und Bildquali beschäftigt.
Ich sag nur : eins zwei drei....meins

und bist du froh das du von der X800XT wegbist oder... =)

Strolchi
2004-08-28, 23:43:54
Ne nicht wirklich

BlueRaven
2004-08-28, 23:49:06
habe auch eine GeForce 6800 Ultra und spiele mit dem gedanken zur X800XT PE zu wechseln, hatte zur probe eine X800 Pro @ 16pipes und lief extrem gut und die BildQualität war auch erste sahne.

Habe noch einpaar HQ@X800 FarCry Screenshots Online die das beweisen. Die Bild Qualität von einer X800-X800XT gibt es keine unterschiede.




BlueRaven

Strolchi
2004-08-28, 23:53:33
Hab die Ultra bei E-bay reingesetzt.Vieleicht kann ich ja jemandem auf die schnelle ne Freude machen.Ist ja auch noch echt schwer zu bekommen.Geht die bis Montag nicht weg schicke ich sie wieder zurück.

Grüsse Strolchi

Merlin31
2004-08-29, 02:23:59
Ich war bisher auch verdammt skeptisch und konnte mich zwichen
NV und ATI nicht entscheiden.
Bei ATI hatte ich auch Angst wegen der ganzen optimierungen.

Jetzt wo ich sie habe, bin ich erleichtert, denn man merkt wirklich kaum was davon. Die Bugwelle hatte ich bisher noch kein mal gesehen.

Und ich spiele überwiegend 3 D Shooter Spiele und da hat man eh kaum Zeit
weiter hinten auf die Texturen am Boden zu linsen. ;D

mbee
2004-08-29, 03:32:16
puhh dann hab ich ja glück gehabt und dieser moire effekt vorallem bei d3 ist gar
kein moire effekt, oder auch bugwelle genannt, tja dann hab ich ja nochmal
schwein gehabt mit meiner x800xtpe, ich dachte ich hab was an den augen ;)
als ich die bugwelle gesehn hab, zum glüück war sie so schnell wieder wech und
da ich jetzt weis das es gar keine gibt ...

imo ist nv stressfreier bzgl treiber, leidige selbsterfahrung :-/ - aber das ding rennt wie die hölle ;)

Stelle AF im CP ein, dann gibt es bei Doom3 auch keine Bugwelle. Das ist ein Bug in Doom3 und sonst nirgendwo zu beobachten.

BlueRaven
2004-08-29, 03:54:30
dieser BUG sollte mit dem Komplett neu Programmierten Treiber von ATI verschwinden und noch mehr Performance und Bild Qualität bringen.

Sphinx
2004-08-29, 04:09:28
Die Bugwellen könnten auch am Monitor mitzusammen hängen... Als reine Spekulation.

TFT, Streifenmaske*, Lochmaske

Wie schon hier erwähnt nur 16 Pipes Versionen sind das wahre...

LovesuckZ
2004-08-29, 09:56:03
nun ja, jetzt werden dir wahrscheinlich 20 Leute sagen, daß der Unterschied wie Tag und Nacht ist, aber ich, der beide Karten besitzt, kann dir sagen, daß du dir keine Sorgen zu machen brauchst- es gibt KEINE Bugwelle und auch sonst ist die Qualität ziemlich gleich mit freiem Auge.


Und ich kann dir sagen, dass mein gebundendes Auge die Qualitaet in Halo unter aller Sau findet mit Nvidia's "Qualty" (65.65), das ja exakt ATi's Bildqualitaet nacheifert.

Quality (= Flimmer, Flimmer) (http://www.bigsmedia.de/halo.jpg)
High Quality (http://www.bigsmedia.de/halo1.jpg)
Deine Aussage ist genauso falsch als wenn mir ein Blinder weißmachen will, es gaebe keine Farben!

Strolchi
2004-08-29, 10:18:53
Da ich sehr viel Battlefield spiele kommt die Geforce einfach nicht mehr in Frage.Das Bild ist eine Frechheit.Gut das Spiel ist ja schon älter aber trotzdem noch recht verbreitet.
Hab diese Bugelle bei ATi mit hohen Qualitätseinstellungen noch nie gesehen.
Ist ja auch egal.Ich hab beide Karten hier gehabt und meine Entscheidung ist gefallen.Traurig finde ich nur so Threads wie manche mit der Leistung ihrer Geforce 6800 Ultras strunzen in Doom3.
Nur soviel .Bei maximal möglicher Bildqualität lagen die beiden fette 2 Frames auseinander.
Die Geforce ist gerade bei E-bay weggegangen.Gute Reise.

Gast
2004-08-29, 10:28:24
Da ich sehr viel Battlefield spiele kommt die Geforce einfach nicht mehr in Frage.Das Bild ist eine Frechheit.Gut das Spiel ist ja schon älter aber trotzdem noch recht verbreitet.
Hab diese Bugelle bei ATi mit hohen Qualitätseinstellungen noch nie gesehen.
Ist ja auch egal.Ich hab beide Karten hier gehabt und meine Entscheidung ist gefallen.Traurig finde ich nur so Threads wie manche mit der Leistung ihrer Geforce 6800 Ultras strunzen in Doom3.
Nur soviel .Bei maximal möglicher Bildqualität lagen die beiden fette 2 Frames auseinander.
Die Geforce ist gerade bei E-bay weggegangen.Gute Reise.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2186218&postcount=201

Hellknight[FA]
2004-08-29, 10:31:02
Und ich kann dir sagen, dass mein gebundendes Auge die Qualitaet in Halo unter aller Sau findet mit Nvidia's "Qualty" (65.65), das ja exakt ATi's Bildqualitaet nacheifert.

Quality (= Flimmer, Flimmer) (http://www.bigsmedia.de/halo.jpg)
High Quality (http://www.bigsmedia.de/halo1.jpg)
Deine Aussage ist genauso falsch als wenn mir ein Blinder weißmachen will, es gaebe keine Farben!


Hast Du beide Karten? Alles andere ist Theorie und daher nicht aussagekräftig...

LovesuckZ
2004-08-29, 10:35:39
']Hast Du beide Karten? Alles andere ist Theorie und daher nicht aussagekräftig...

Wozu beide Karten, wenn Nvidia sich bei der Filterung annaehert?
Ausserdem sagt Tombman, das es keien Bugwelle gaebe, auch mit dem NV40.

Merlin31
2004-08-29, 10:58:38
Ich habe extra MAx Payne2 instalier, weil dort ja die angeblichen Bugwellen auffallen sollten.

Ich habe wirklich keine gefunden.

Ich denke auch mal das ATI das evtl in den letzten Treiber behoben hatte :rolleyes:

Gast 1337 ;)
2004-08-29, 11:12:22
was meint ihr eigentlich die ganze zeit mit "bugwelle"?!

tombman
2004-08-29, 12:15:32
Und ich kann dir sagen, dass mein gebundendes Auge die Qualitaet in Halo unter aller Sau findet mit Nvidia's "Qualty" (65.65), das ja exakt ATi's Bildqualitaet nacheifert.

Quality (= Flimmer, Flimmer) (http://www.bigsmedia.de/halo.jpg)
High Quality (http://www.bigsmedia.de/halo1.jpg)
Deine Aussage ist genauso falsch als wenn mir ein Blinder weißmachen will, es gaebe keine Farben!

1,) mit dir hab ich nicht gesprochen
2.) dir will ich gar nix weißmachen, wäre sinnlos
3.) schöner flame im letzten Satz...

bei deinem Bild sehe ich nur einen Unterschied am großen Felsen links bei der Schärfe, aber wo soll da flimmern sein? (vorallem wie soll man flimmern auf einem STANDBILD sehen???)
Außerdem sind diese screens ja mit 6800 gemacht worden, und der user wollte wissen ob er mit X800 Probleme haben wird :naughty:

LovesuckZ
2004-08-29, 12:28:23
bei deinem Bild sehe ich nur einen Unterschied am großen Felsen links bei der Schärfe, aber wo soll da flimmern sein? (vorallem wie soll man flimmern auf einem STANDBILD sehen???)

Wenn du nur da den Unterschied sehen wuerdest, wie willst du dann behaupten, "es gibt KEINE Bugwelle [Anmerkung: Die im Bild sogar sichtbar ist...] und auch sonst ist die Qualität ziemlich gleich mit freiem Auge."?
Wenn Nvidia und ATi nach dir die gleiche Qualitaet "mit freiem Auge" erreichen, dann beweist du doch, dass HQ noch deutlich besser aussieht, wie das Bild beweist.
Deine Aussage ist daher nicht allgemeingueltig.

Außerdem sind diese screens ja mit 6800 gemacht worden, und der user wollte wissen ob er mit X800 Probleme haben wird :naughty:

Er wollte wissen, ob man "die graphische Unterschiede mit den trilinearen und anisotropen Optimierungen bei der X800 / X800XT in Spielen" sehe.
Ich sage, da Nvidia sich auf das Niveau von ATi sich angenaehert hat, sind sie es.
Ob es ihn auffaellt und ob er es negativ empfinde, kann ich, im Gegensatz zu dir, nicht beantworten.

mbee
2004-08-29, 12:35:03
Die Bugwellen könnten auch am Monitor mitzusammen hängen... Als reine Spekulation.

TFT, Streifenmaske*, Lochmaske

Wie schon hier erwähnt nur 16 Pipes Versionen sind das wahre...

Moiré-Muster ja, aber Bugwellen denke ich kaum. Bei Doom3 ist es wirklich so, dass bei ATI-Karten, wenn man das Filten der Applikation überläßt, bei High Quality Settings im Spiel selbst nicht korrekt gefiltert wird.

mbee
2004-08-29, 12:38:38
Wozu beide Karten, wenn Nvidia sich bei der Filterung annaehert?

Weil sich nur dann eine objektive Aussage im Fall HALO treffen läßt, "Annäherung" hin oder her: Die Darstellung ist bei manchen Applikationen halt auf beiden Karten immer noch leicht unterschiedlich.
Insofern ist Deine Aussage nur eine pauschalisierte Verallgemeinerung.

Strolchi
2004-08-29, 12:46:03
Leicht unterschiedlich wohl nur auf aktuellen Spielen.
Battlefield 1942 ist auf 6800 ne Zumutung.Selbst bei 1600*1200 mit maximal möglicher Bildqualität.

Grüsse Strolchi

Gil-galad
2004-08-29, 12:48:57
bei deinem Bild sehe ich nur einen Unterschied am großen Felsen links bei der Schärfe, aber wo soll da flimmern sein? (vorallem wie soll man flimmern auf einem STANDBILD sehen???)
Außerdem sind diese screens ja mit 6800 gemacht worden, und der user wollte wissen ob er mit X800 Probleme haben wird :naughty:

Ja mit der X800 wirt er auch Probleme haben. Ohne Deaktivierung der Optimierungen in der Registry ist die Bildqualität nicht besonders berauschend bei der X800-Serie. Vorallem in Halo filmmert es furchtbar. Besonders gut sieht man es bei der Map "Silent Carta...". Furchtbar.

Und Bugwellen gibt es wohl. Ich konnte die selber bei etlichen Spielen beobachten. Durch die Deaktvierung sinds sie zwar nicht mehr vorhanden. Solange sich die Optimierungen aber nicht per Control Panel (wie bei NVidia) abschalten lassen, solange kann ich nur zur 6800 GT/Ultra raten.

Jesus
2004-08-29, 12:49:13
Er wollte wissen, ob man "die graphische Unterschiede mit den trilinearen und anisotropen Optimierungen bei der X800 / X800XT in Spielen" sehe.
Ich sage, da Nvidia sich auf das Niveau von ATi sich angenaehert hat, sind sie es.
Ob es ihn auffaellt und ob er es negativ empfinde, kann ich, im Gegensatz zu dir, nicht beantworten.

iirc arbeitet der "optimierer" bei NV Karten sogar noch etwas aggressiver als ATI´s version, zumindest sah man dass bei den MP2 shots, wo deutlich mehr Moiré ( erhöhtes LOD ) sichtbar war als bei ATI Karten. Allerdings war das auch mit einem anderen Treiber ( vielleicht is es ja mittlerw. noch schlimmer geworden :wink: )

Und Bugwellen gibt es wohl. Ich konnte die selber bei etlichen Spielen beobachten. Durch die Deaktvierung sinds sie zwar nicht mehr vorhanden. Solange sich die Optimierungen aber nicht per Control Panel (wie bei NVidia) abschalten lassen, solange kann ich nur zur 6800 GT/Ultra raten.

wo denn z.b. ? ich spiele eigentlich alles mit Performance AF, d.h. reines bi-lineares AF( x800 filtert ja bri = besser ) und kann mich nicht erinnern wo ich das letzte mal eine Bugwelle gesehen habe ( ausser d3, aber da ist es ein Bug ). Mit 8xAF wird die so weit nach vorne geschoben dass du schon eine ewig lange Strecke brauchst um sie zu sehen ).

mapel110
2004-08-29, 13:40:02
Deine Aussage ist genauso falsch als wenn mir ein Blinder weißmachen will, es gaebe keine Farben!

auf solche Quervergleiche kann man gut verzichten, danke.

Gast
2004-08-29, 13:57:21
Noch drei Fragen: (zur X800/X800XT)

1. Wenn ich nun den A-Tuner verwende und dort meine AF-Einstellungen vornehme, dann dürfte doch zumindest die Optimierung,daß nur die primäre Texturstufe voll trilinear gefiltert wird,umgangen werden, oder?

2.Wird diese Optimierung dann SOWOHL unter Direct3D ALS AUCH OpenGL umgangen?

3.Was bringen die manuellen Veränderungen in der Registry zur Verhinderung der anderen Optimierungen AUS GRAPHISCHER SICHT wirklich (d.h. mit menschlichem Auge sichtbar!)?

Bitte um Erfahrungen!

audigy2zs
2004-08-29, 13:57:56
fanboys und ihre schergen - einfach nur lächerlich

meine x800 xtpe hat deutliche bugwellen und moire effekte zwar nicht bei allen games aber deutlich sichtbar und verdammt ärgerlich für einen besitzer so einer karte! ich will die karte nutzen und nicht wie viele hier rumschrauben und tweaken - das ist ja wohl nicht sinn einer graka´!

mbee
2004-08-29, 14:22:36
fanboys und ihre schergen - einfach nur lächerlich

meine x800 xtpe hat deutliche bugwellen und moire effekte zwar nicht bei allen games aber deutlich sichtbar und verdammt ärgerlich für einen besitzer so einer karte! ich will die karte nutzen und nicht wie viele hier rumschrauben und tweaken - das ist ja wohl nicht sinn einer graka´!


Vielleicht könntest Du außer hier mit Pauschalbeschuldigungen (womit keinem geholfen ist) um Dich zu werfen, einmal präzisieren wo und mit welchen Einstellungen diese auftreten.

Niemand bestreitet, dass die Optimierungen evtl. bei einigen Anwendungen doch zu sehen sind. Ich kann diese allerdings mit meiner X800 XT PE bei den bei mir aktuell installierten Games (UT2004, FarCry, Doom3 mit AF im CP, SplinterCell 2, Max Payne 2) optisch nicht feststellen! Außer bei Doom3 (kein AA, 8xAF) spiele ich alles in 1600x1200 mit 2xAA 8xAF.

EDIT: 8xAF natürlich mit den Optimierung, d.h. ohne die Optimierung in atuner, ATI Tray Tools oder Rtool zu deaktivieren.

LovesuckZ
2004-08-29, 14:32:17
Niemand bestreitet, dass die Optimierungen evtl. bei einigen Anwendungen doch zu sehen sind.


Darum geht es doch.
Die Optimierungen koennen, muessen aber nicht auftreten (Beziehungsweise fuer jeden sichtbar). Wenn sie aber auftreten, muss man bei ATi in der regedit rumspielen oder auf ein externes Tool zurueck greifen.
Und damit wird auch die Frage des Threaderstellers beantwortet:
Meine Frage also: Ist da was dran? Sieht man graphische Unterschiede mit den trilinearen und anisotropen Optimierungen bei der X800 / X800XT in Spielen?

Blaire
2004-08-29, 14:38:46
[QUOTE=Jesus]iirc arbeitet der "optimierer" bei NV Karten sogar noch etwas aggressiver als ATI´s version, zumindest sah man dass bei den MP2 shots, wo deutlich mehr Moiré ( erhöhtes LOD ) sichtbar war als bei ATI Karten. Allerdings war das auch mit einem anderen Treiber ( vielleicht is es ja mittlerw. noch schlimmer geworden :wink: )

Das ist Käse. Wenn man den Texturschärferegler da belässt wo er default eingestellt ist gibts kein Moire. Auch nicht bei Nvidia.

mbee
2004-08-29, 14:50:45
Darum geht es doch.
Die Optimierungen koennen, muessen aber nicht auftreten (Beziehungsweise fuer jeden sichtbar). Wenn sie aber auftreten, muss man bei ATi in der regedit rumspielen oder auf ein externes Tool zurueck greifen.
Und damit wird auch die Frage des Threaderstellers beantwortet:
Meine Frage also: Ist da was dran? Sieht man graphische Unterschiede mit den trilinearen und anisotropen Optimierungen bei der X800 / X800XT in Spielen?

Will ich ja auch gar nicht bestreiten. Ich wüßte halt nur gerne wo. Bislang ist mir das nirgendwo aufgefallen.
Das ATI besser eine Abschaltmöglichkeit in deren CP wie NV integrieren sollte, ist ebenso klar. Ich finde diese Optimierung hinsichlich des minimalen Performance-Gewinns bei BEIDEN Herstellern sowieso total daneben und überflüssig. Aber dazu hatten wir ja schon einmal einen Thread.

Blaire
2004-08-29, 14:54:04
Darum geht es doch.
Meine Frage also: Ist da was dran? Sieht man graphische Unterschiede mit den trilinearen und anisotropen Optimierungen bei der X800 / X800XT in Spielen?

Kommt aufs Spiel an. Bei Farcry kann man das wohl gelten lassen das man kein Banding sieht. Bei Games wie LockOn oder IL:Sturmovik (beide Flugsims) seh ich sofort den Unterschied. Das sieht mit Optimierungen enabled (default X800XT Catalyst 4.8 ) furchtbar aus.

X800XTPE: (man sieht ganz deutliches Banding in der Entfernung...)
http://img16.exs.cx/img16/2990/lockonx800xt.jpg

Gast
2004-08-29, 15:02:17
An Strolchi:
Warum hast du deine 6800 Ultra wieder weg gegeben? Ist der Unterschied zu einer X800 XT so groß?

Gast
2004-08-29, 15:04:08
Hat zufällig wer eine Anleitung für das Deaktiverung der Optimierungen der x800pro/xt per Registry?

Ist die BQ der x800 nach der Deaktivierung mit der 6800 reihe mit ebenfalls deaktivierten Optimierungen per Control Panel gleichwertig?

Jesus
2004-08-29, 15:04:09
[QUOTE=Jesus]iirc arbeitet der "optimierer" bei NV Karten sogar noch etwas aggressiver als ATI´s version, zumindest sah man dass bei den MP2 shots, wo deutlich mehr Moiré ( erhöhtes LOD ) sichtbar war als bei ATI Karten. Allerdings war das auch mit einem anderen Treiber ( vielleicht is es ja mittlerw. noch schlimmer geworden :wink: )

Das ist Käse. Wenn man den Texturschärferegler da belässt wo er default eingestellt ist gibts kein Moire. Auch nicht bei Nvidia.

ne ist kein Käse, find nur leider den Thread nichtmehr :redface:

jedenfalls benutzten beide Karten dieselben LOD eintsellungen ingame und beide benutzten Optimierungen ( bei ATI sowieso ). Jedoch war das Moiré dabei bei NV über die ganze Fläche verteilt, dagegen wars bei ATI nur im hinteren Teil des Bildes sichtbar.

Blaire
2004-08-29, 15:06:29
ne ist kein Käse, find nur leider den Thread nichtmehr :redface:

jedenfalls benutzten beide Karten dieselben LOD eintsellungen ingame und beide benutzten Optimierungen ( bei ATI sowieso ). Jedoch war das Moiré dabei bei NV über die ganze Fläche verteilt, dagegen wars bei ATI nur im hinteren Teil des Bildes sichtbar.

Nein, das tritt nur auf wenn man Textureschärferegler spielt. Wenn man es so lässt bleibt das Bild sauber. Kannst mir glauben ich habs selber getestet. Ich weiss schon was du meinst aber ist wirklich nicht so.

MfG

Jesus
2004-08-29, 15:07:37
Nein, das tritt nur auf wenn man Textureschärferegler spielt. Wenn man es so lässt bleibt das Bild sauber. Kannst mir glauben ich habs selber getestet. Ich weiss schon was du meinst aber ist wirklich nicht so.

MfG

jaja stimmt schon, ich meine nur beide hatten diesselben Einstellungen, aber das Moiré sah unterschiedlich aus

Quasar
2004-08-29, 15:07:59
ne ist kein Käse, find nur leider den Thread nichtmehr :redface:

jedenfalls benutzten beide Karten dieselben LOD eintsellungen ingame und beide benutzten Optimierungen ( bei ATI sowieso ). Jedoch war das Moiré dabei bei NV über die ganze Fläche verteilt, dagegen wars bei ATI nur im hinteren Teil des Bildes sichtbar.

Link? Die Suchfunktion geht doch wieder....

edit:
Oh, warte:
http://www.forum-3dcenter.de/vbulletin/showthread.php?t=153478&highlight=MP2
Den meintest du bestimmt - oder? Suchfunktion -> MP2 -> Treffer nur in Grafikchips -> Voila... ;)

Jesus
2004-08-29, 15:14:15
jupp genauer gesagt http://www.forum-3dcenter.org/vbulletin/showpost.php?p=1992319&postcount=77

irgendwo da drin ist auch noch ein bild mit x800 lod auf anschlag aber ka wo :wink:


EDIT: oops, seite 1 ganz oben :rolleyes:

Quasar
2004-08-29, 15:30:41
Die 'leicht' unterschiedlichen Perspektiven stören dabei nicht, was? ;)

Blaire
2004-08-29, 15:36:09
jupp genauer gesagt http://www.forum-3dcenter.org/vbulletin/showpost.php?p=1992319&postcount=77

irgendwo da drin ist auch noch ein bild mit x800 lod auf anschlag aber ka wo :wink:


EDIT: oops, seite 1 ganz oben :rolleyes:

Ja aber das ist doch fürn Arsch so. Wenn man am Textureschärferegler spielt gibts immer Moire. Wer zockt denn so? Wenn man es DEFAULT belässt gibts kein Moire und genau darum gehts. Mir doch Wurst wer wo mehr LOD hat bei Spielirrelevanten Settings... ;)

Jesus
2004-08-29, 15:38:33
Die 'leicht' unterschiedlichen Perspektiven stören dabei nicht, was? ;)

nein, schon eher die unterschiedliche Auflösung :biggrin:
( sorry hab ich jetzt erst bemerkt )