PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Anisotrope Filterung - Qualität, Flimmern und A.I.-Einstellungen nach R5xx


Seiten : 1 2 3 [4]

Gast
2008-07-27, 14:01:27
Der katastrophale Ruf der GF7 dürfte aber einen nicht zu unterschätzenden Anteil an der Entwicklung hin zum sehr guten AF (auch hier ist ja noch Luft, aber im Moment halt Referenz) der Karten von G80 aufwärts gehabt haben, auch wenn vielleicht nicht ausreichend differenziert wurde. :)
So ein großer Unterschied ist zwischen G70 @ HQ (nach der "Treiberbehebung") und G80 @ HQ gar nicht. Wenn der G70 auch winkelunabhängig filtern würde, würde man sehr oft in Games keinen Unterschied sehen, weil die verbliebene Unterfilterung sehr "klein" ist. Aber vielleicht bringt Raff's Artikel Licht ins Dunkle.
Bei den neuen Karten von Amd kann man ja froh sein, wenn die die Unterfilterung mit AI@off G70@HQ erreicht, was leider augenscheinlich oft nicht der Fall ist.

Raff
2008-07-27, 14:51:48
Du meinst nen Test zw R580 AI und G70 HQ?

Nee, schon die volle Ladung von R300/NV30 bis RV770/GT200. :) Mit kleinen Seitenhieben Richtung R200

MfG,
Raff

Gast
2008-07-27, 14:54:23
Nee, schon die volle Ladung von R300/NV30 bis RV770/GT200. :)

Bist du gerade Raff oder PCGH_Raff? ;)

Raff
2008-07-27, 14:55:49
Weiß nicht. Ich leide in diesem Forum etwas unter dissoziativer Persönlichkeitsspaltung. ;)

MfG,
Raff

Gast
2008-07-27, 15:06:28
Weiß nicht. Ich leide in diesem Forum etwas unter dissoziativer Persönlichkeitsspaltung. ;)

Das ist in Ordnung, aber aus der ausweichenden Antwort schließe ich einfach mal, dass es kein 3DCenter-Artikel wird. PCGH ist ja auch nicht ganz übel, wären da nicht diese bescheuerte und unübersichtliche Layoutsache mit der Bilderflut in den Anhängen.

Ich hoffe, bis zu deinem Artikel (> als 3 Tage) wurde das Artikellayout dort renoviert (Hint: Abreißen und neu bauen) und wir können deine kompetenten Betrachtungen in übersichtlicher Form genießen. Da fällt mir ein, Worst-Case wäre natürlich ein Printartikel in einem Sonderheft, aber für dasThema würde ich sogar zur Not an den Kiosk gehen. :)

Coda
2008-07-27, 15:26:03
Sorr wenn ich mich jetzt einfach so einmische. :biggrin: Aber hier in dem anandtech artikel ist mir aufgefallen dass die HD4870 irgendwie den besseren Kontrast und Bildschärfe hat auch die Farben sind lebendiger.... und nvidias 16x Q CSSA sieht IMO schlechter aus als ATIs 8x MSAA.

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=11
Die "besseren Farben" sind rein spielespezifisch und betreffen nur den Hintergrund wie man sehr gut sieht.

Anandtech hätte besser etwas anderes als Vergleich genommen weil dadurch wegen anderem Kontrast das AA auch nicht vergleichbar ist. CSAA hat dort aber wirklich Probleme, es gibt ja auch noch den ganz normalen MSAA-Modus.

derguru
2008-07-27, 16:13:23
Sorr wenn ich mich jetzt einfach so einmische. :biggrin: Aber hier in dem anandtech artikel ist mir aufgefallen dass die HD4870 irgendwie den besseren Kontrast und Bildschärfe hat auch die Farben sind lebendiger.... und nvidias 16x Q CSSA sieht IMO schlechter aus als ATIs 8x MSAA.

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=11

das fällt nicht nur dir auf sondern fast jedem der mal von nv zu ati gewechselt hat und das kommt nicht daher das man eine neue karte gekauft hat und es schön reden will.es ist tatsächlich so das fast jeder sagt das es farbenfroher und schärfer ist.ob es nur an den gammawerten liegt kann ich mir kaum vorstellen,ich habs nie so hinbekommen das ich zufrieden war.

Gast
2008-07-27, 16:52:47
das fällt nicht nur dir auf sondern fast jedem der mal von nv zu ati gewechselt hat und das kommt nicht daher das man eine neue karte gekauft hat und es schön reden will.es ist tatsächlich so das fast jeder sagt das es farbenfroher und schärfer ist.ob es nur an den gammawerten liegt kann ich mir kaum vorstellen,ich habs nie so hinbekommen das ich zufrieden war.

Kann ich nur zustimmen, bin vor kurzem auch zu ATI gewechselt.
Es stimmt der Content von ATi flimmert eher, dafür sind subjektiv die Texturen farbefroher und allgemein knackiger/schärfer. Gefällt mir persönlich besser als die Bildqualität von Nvidia.

Coda
2008-07-27, 17:14:22
das fällt nicht nur dir auf sondern fast jedem der mal von nv zu ati gewechselt hat und das kommt nicht daher das man eine neue karte gekauft hat und es schön reden will.es ist tatsächlich so das fast jeder sagt das es farbenfroher und schärfer ist.ob es nur an den gammawerten liegt kann ich mir kaum vorstellen,ich habs nie so hinbekommen das ich zufrieden war.
Mir ist überhaupt gar nichts dergleichen aufgefallen.

AckytheG
2008-07-27, 17:28:13
Kann ich nur zustimmen, bin vor kurzem auch zu ATI gewechselt.
Es stimmt der Content von ATi flimmert eher, dafür sind subjektiv die Texturen farbefroher und allgemein knackiger/schärfer. Gefällt mir persönlich besser als die Bildqualität von Nvidia.
Zumindest die Farbdarstellung lässt sich bei nV via Digital Vibrance anpassen.
Die Frage ist, ob diese Farbenpracht auch die "richtigere" Darstellung des Bildes ist.
Wie es aussieht, gefällt vielen hier im Forum ja die schärfere/flimmrigere Darstellung der ATis auch besser, obwohl sie objektiv gesehen weiter vom Optimum entfernt ist.
Das könnte bei der Farbdarstellung genauso der Fall sein...
Ich muss allerdings auch gestehen, dass mir bei der Farbdarstellung zwischen nV und ATi bisher keine Unterschiede aufgefallen sind.

Bzgl. R520/580 und optimaler Texturfilter:
Ich habe sämtliche Generationen von ATi seit R300 besessen (R300->R420->R520->RV670) und muss feststellen, dass sich die Qualität der Filterung bei jeder dieser Kartenserien verschlechtert hat. (die Winkelabhängigkeit vor R520 mal außen vor gelassen...)
R420 brachte uns den Bri-Filter und seit R520 neigt der Filter zunehmend zum Flimmern.
Von perfekter Texturfilterung ist meiner Meinung nach auch die R5XX-Serie weit entfernt.

Raff
2008-07-27, 17:33:04
Von perfekter Texturfilterung ist meiner Meinung nach auch die R5XX-Serie weit entfernt.

Ja. Aber mit A.I. Off bietet R5x0 sehr gutes, flimmerfreies AF.

Mir ist überhaupt gar nichts dergleichen aufgefallen.

Mir auch nicht. Das "schärfere Bild" kommt von A.I., und A.I. unterfiltert.

MfG,
Raff

Gast
2008-07-27, 17:51:34
Zumindest die Farbdarstellung lässt sich bei nV via Digital Vibrance anpassen.
Die Frage ist, ob diese Farbenpracht auch die "richtigere" Darstellung des Bildes ist.
Wie es aussieht, gefällt vielen hier im Forum ja die schärfere/flimmrigere Darstellung der ATis auch besser, obwohl sie objektiv gesehen weiter vom Optimum entfernt ist.
Das könnte bei der Farbdarstellung genauso der Fall sein...
Ich muss allerdings auch gestehen, dass mir bei der Farbdarstellung zwischen nV und ATi bisher keine Unterschiede aufgefallen sind.

Bzgl. R520/580 und optimaler Texturfilter:
Ich habe sämtliche Generationen von ATi seit R300 besessen (R300->R420->R520->RV670) und muss feststellen, dass sich die Qualität der Filterung bei jeder dieser Kartenserien verschlechtert hat. (die Winkelabhängigkeit vor R520 mal außen vor gelassen...)
R420 brachte uns den Bri-Filter und seit R520 neigt der Filter zunehmend zum Flimmern.
Von perfekter Texturfilterung ist meiner Meinung nach auch die R5XX-Serie weit entfernt.

also ist die filterung von nvidia perfekt?




Das "schärfere Bild" kommt von A.I., und A.I. unterfiltert.

MfG,
Raff

vielleicht ist diese unterfilterung genau das was manchen so gefällt!
geschmäcker sind verschieden!

Gruss

Gast
2008-07-27, 17:52:59
Von perfekter Texturfilterung ist meiner Meinung nach auch die R5XX-Serie weit entfernt.Mein R580 gefällt mir ganz gut mit beinah winkelunabhängigem Aniso-Filter, voll trilinear...

Gast
2008-07-27, 17:53:49
Mir auch nicht. Das "schärfere Bild" kommt von A.I., und A.I. unterfiltert.

MfG,
Raff

das es dir und coda nicht aufgefallen ist wundert mich nicht.
Ich seit nicht am spielen sondern schaltet stunden lang die aa und af modis durch und sucht nach flimmerigen kanten und nach microrucklern.
Es gibt aber leute welche stunden, wochen lang games SPIELEN, wenn man dann auf ati wechselt ist das erste was einem auffällt: andere farbgebung, nicht so blas wie nvidia und kontrastreicher, ob es einem gefällt ist geschmacksache aber es gibt einen unterschied.
Um den zu sehen muss man seine aufmerksamkeit auf das gesamtbild richten können und nicht bei ne textur hängen bleiben, es bedarf viel traning um sowas vollbrinngen zu können.;)

gruss

AckytheG
2008-07-27, 18:05:17
also ist die filterung von nvidia perfekt?...
Die perfekte Filterung gibt es sicher (noch) nicht.
Aber meiner Meinung nach ist nV seit G80 näher am Optimum.

Mein R580 gefällt mir ganz gut mit beinah winkelunabhängigem Aniso-Filter, voll trilinear...
Insgesamt sah das Bild der R500er Serie schon deutlich besser aus als das des Vorgängers.
Bei ATi würde ich mir den isotropen Filter des R300 und die geringe Winkelabhängigkeit seit der R500er Serie wünschen und wäre eigentlich schon zufrieden.
Aber "gefallen" ist ja eh ein eher subjektiver Begriff...

Coda
2008-07-27, 18:05:40
Es gibt keinen Unterschied an den Farben. Garantiert nicht. Beide IHVs müssen sich an die D3D-Spec halten.

Bei gleichem Gamma, Brightness und Contrast ist da auch beim Ausgabegerät nichts anders. Das ist pure Einbildung.

derguru
2008-07-27, 18:19:10
Es gibt keinen Unterschied an den Farben. Garantiert nicht. Beide IHVs müssen sich an die D3D-Spec halten.

Bei gleichem Gamma, Brightness und Contrast ist da auch beim Ausgabegerät nichts anders. Das ist pure Einbildung.


vielleicht in der theorie aber darum gehts ja nicht,vielleicht verstärkt ja auch die unterfilterung diesen effekt aber fakt ist für mich und glücklicherweise genug andere das es keine einbildung ist.
mir ist es egal wodurch die schärfe optik zustande kommt obs am filter liegt oder nicht,für mich sieht das aufjedenfall um welten besser aus,klar ist geschmackssache.

stellt mir 2 monitore mit dem selben spiel hin ich und ich garantiere das ich jedes mal weiß welche grafikarte in der steckt.(nv oder ati)

übertrieben gesagt könnte man das so vergleichen ein tft ohne Glare gegen ein einen mit,so ähnlich empfinde ich schon fast den effekt.

Coda
2008-07-27, 18:19:39
vielleicht in der theorie
Nein, auch in der Praxis.

stellt mir 2 monitore mit dem selben spiel hin ich und ich garantiere das ich jedes mal weiß welche grafikarte in der steckt.(nv oder ati)
Blödsinn. Den meisten fällt ja nichmal der Unterschied an den Texturfiltern auf. Und die Farben sind nicht anders.

Wenn es einen Unterschied an Renderergebnissen gibt dann weil unterschiedliche Pfade in der Applikation verwendet werden. Was da dann "besser" ist auch so eine Sache. Das sind aber auch Ausnahmefälle.

Rainbow Six Vegas:
http://www.computerbase.de/bild/article/832/14/
http://www.computerbase.de/bild/article/832/15/

Lost Planet:
http://www.computerbase.de/bild/article/832/30/
http://www.computerbase.de/bild/article/832/31/

Bioshock:
http://www.computerbase.de/bild/article/832/22/
http://www.computerbase.de/bild/article/832/23/

Call of Juarez:
http://www.computerbase.de/bild/article/832/24/
http://www.computerbase.de/bild/article/832/25/

Crysis:
http://www.computerbase.de/bild/article/832/28/
http://www.computerbase.de/bild/article/832/29/

Wo hat da ATI "andere Farben"? Ich sehe nichts davon. Kann der Unterschied also nur noch davon kommen dass man an Gamma, Brightness und Contrast rumgeschraubt hat. Das kannst du aber bei jeder Karte standardisiert einstellen.

Das mit den "bessere Farben" wird von vielen Leuten nur schon so oft gebetsmühlenartig wiederholt dass es wirklich manche anfangen zu glauben.

derguru
2008-07-27, 18:34:05
ach komm mir jetzt nicht mit pics das kannste gleich knicken,sowas geht nur rl ist bloß schlecht zubeweisen.;)

Coda
2008-07-27, 18:34:42
Dann liegt es an Gamma, Brightness und Contrast. Kann man einstellen. Bei jeder Karte. Die Framebufferfarben sind exakt die gleichen.

Und ich habe bei meinem Monitor und Defaulteinstellungen keinen Unterschied bemerkt. Das würde man überhaupt auch schon auf dem Desktop sehen, nicht nur in 3D-Apps. Und das Ding ist farbkalibriert.

Wenn du solche Sachen behauptest, solltest du hier auch eine Erklärung dafür haben. Wir sind nicht in einem Esoterik-Forum oder bei Leuten die glauben man könnte mit abgeschliffenen CD-Rändern einen besseren Sound erzeugen.

Gast
2008-07-27, 18:45:51
Das mit den "bessere Farben" wird von vielen Leuten nur schon so oft gebetsmühlenartig wiederholt dass es wirklich manche anfangen zu glauben.

Das gleiche kann man aber über die MR und das flimmern auch behaupten!
Raff und Du (Stichwort: flimmern) wiederholen es auch solange bis es viele anfangen zu glauben und alles diesbezüglich verteufeln. Obwohl sie sich selber noch nie selbst ein Bild davon gemacht haben!

derguru
2008-07-27, 18:45:53
du erkennst nicht mal am desktop unterschiede?
ich muß gar nichts beweisen dafür bist du doch da,aber wenn du nicht mal im desktop was auffällt dann ist mir klar warum dir nichts auffällt.

habe keine erklärung dafür aber trotzdem ist es so und das ist keine einbildung,einbildung ist wenn man da keine unterschiede sieht.

Coda
2008-07-27, 18:47:14
Das gleiche kann man aber über die MR und das flimmern auch behaupten!
Nein, kann man nicht weil das nachweisbar ist. Was er hier behauptet ist einfach nicht haltbar.

du erkennst nicht mal am desktop unterschiede?
ich muß gar nichts beweißen dafür bist du doch da,aber wenn du nicht mal im desktop was auffällt dann ist mir klar warum dir nix auffällt.
Was heißt "nicht einmal". Wenn du Windows in den Standardeinstellungen hast wird der Framebuffer-Inhalt LINEAR über DVI übertragen. Es findet rein überhaupt keine Veränderung des Bildes mehr statt.

Das Ausgabebild muss also absolut exakt gleich beim Bildschirm ankommen. Was erzählst du eigentlich für Käse? Wie oft muss ich noch wiederholen dass ihr nicht an den Farbeinstellungen rumspielen sollt und dann Dinge behaupten sollt? Darunter fallen auch so Monstrositäten wie "Digital Vibrance" bei NVIDIA.

Es ist absolut unhaltbar zu behaupten dass selbst im 2D-Betrieb ein Unterschied der Grafikkarten-Ausgabe da wäre. Das ist ja wohl lächerlich.

AckytheG
2008-07-27, 19:10:49
...ich muß gar nichts beweisen dafür bist du doch da...
:lol: Der war gut!
Coda präsentiert Dir oben den Gegenbeweis, den Du mal eben dezent ignorierst und dann kommt dieser Satz.
Soweit Du eine sinnvolle Diskussion anstrebst, solltest Du Deine Argumente schon irgendwie untermauern.
Einfach eine Behauptung aufzustellen und dann den Gegenbeweis zu fordern bringt uns hier sicherlich nicht weiter.

derguru
2008-07-27, 19:17:41
:lol: Der war gut!
Coda präsentiert Dir oben den Gegenbeweis, den Du mal eben dezent ignorierst und dann kommt dieser Satz.
Soweit Du eine sinnvolle Diskussion anstrebst, solltest Du Deine Argumente schon irgendwie untermauern.
Einfach eine Behauptung aufzustellen und dann den Gegenbeweis zu fordern bringt uns hier sicherlich nicht weiter.

habe keine erklärung dafür aber trotzdem ist es so und das ist keine einbildung,einbildung ist wenn man da keine unterschiede sieht.

was meinste warum ich das hier rein schreibe weil ich halt wissen will wieso und coda erklärung ist nichts sagend.

Mr. Lolman
2008-07-27, 19:20:20
Wo hat da ATI "andere Farben"? Ich sehe nichts davon. Kann der Unterschied also nur noch davon kommen dass man an Gamma, Brightness und Contrast rumgeschraubt hat. Das kannst du aber bei jeder Karte standardisiert einstellen.

NV hat in der Vergangenheit immerwieder was an der Farbdarstellung geändert. Ich weiss aber nicht, ob das nur bei Betatreibern der Fall war. Aber frag mal Razor, der hat diesbezüglich schon öfter was in seinen Treibertests geschrieben.

AckytheG
2008-07-27, 19:24:56
was meinste warum ich das hier rein schreibe weil ich halt wissen will wieso und coda erklärung ist nichts sagend.
Du brauchst ja keine Erklärung dafür zu haben.
Es würde schon reichen, wenn Du Deine Behauptung durch Bildmaterial untermauerst.
Mach meinetwegen ein paar Fotos von Deinem Bildschirm oder suche im Web danach.
Aber Coda hat inzwischen genug Argumente gebracht, die Deiner These widersprechen.

Es ist deshalb wenig sinnvoll einfach stur weiter auf Deiner Behauptung rumzureiten.
Ich mache mir langsam Sorgen um Codas Blutdruck...

NV hat in der Vergangenheit immerwieder was an der Farbdarstellung geändert. Ich weiss aber nicht, ob das nur bei Betatreibern der Fall war. Aber frag mal Razor, der hat diesbezüglich schon öfter was in seinen Treibertests geschrieben.
Treten diese Unterschiede auch bei digitaler Übertragung zum Monitor auf?

Coda
2008-07-27, 19:25:33
NV hat in der Vergangenheit immerwieder was an der Farbdarstellung geändert. Ich weiss aber nicht, ob das nur bei Betatreibern der Fall war. Aber frag mal Razor, der hat diesbezüglich schon öfter was in seinen Treibertests geschrieben.
Razor glaub ich nur leider kein Wort von dem was er schreibt. ich hatte noch nie geänderte Farbeinstellungen mit einem Betatreiber und ich hatte lang genug NVIDIA. Der Typ hat hier schon mehr als genügend Müll abgelassen.

Evtl. hat aber zeitweise mal "Digital Vibrance" nicht funktioniert, was ich aber nie verwende, weil es einfach nur ein Schrottbild erzeugt.

Treten diese Unterschiede auch bei digitaler Übertragung zum Monitor auf?
Es gab keine. Wie oft noch? Zumindest nicht bei normaler linearer Gamma 1,0-Ausgabe ohne irgendwelches "Digital Vibrance"-Zeug o.ä.

AckytheG
2008-07-27, 19:35:41
Es gab keine. Wie oft noch? Zumindest nicht bei normaler linearer Gamma 1,0-Ausgabe ohne irgendwelches "Digital Vibrance"-Zeug o.ä.
Nur um das klarzustellen:
Ich habe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6684871#post6684871) schon geschrieben, dass mir auch nichts aufgefallen ist.
Trotzdem steht noch Razors Aussage im Raum und vielleicht bringt uns das ja weiter...

Aber mal was Anderes:
Mit welchem Mipmap Detail Level betreibt Ihr Eure Radeons eigentlich?
Ist es immernoch so, dass HQ einen leicht negativen LOD appliziert und erst Q die optimale Qualität bringt?
Ich habe vorhin mal beide Einstellungen getestet - der Schärfegrad änderte sich leicht aber das Flimmern war in etwa gleich stark...

Gast
2008-07-27, 19:36:02
vielleicht ist diese unterfilterung genau das was manchen so gefällt!
geschmäcker sind verschieden!

Gruss
rofl Naja, diese Leute müssen dann eine Geforce7 ja geradezu geliebt haben

Coda
2008-07-27, 19:47:44
Mit welchem Mipmap Detail Level betreibt Ihr Eure Radeons eigentlich?
0 natürlich.

Ist es immernoch so, dass HQ einen leicht negativen LOD appliziert und erst Q die optimale Qualität bringt?
Hrm? Das war noch nie der Fall.

AckytheG
2008-07-27, 20:00:24
Hrm? Das war noch nie der Fall.
Okay, dann hatte ich das falsch in Erinnerung.

Auf der X1800 hatte ich meist auf Q gestellt, um das Bild etwas ruhiger zu bekommen.
Da die Frames etwas weniger wurden, habe ich wohl ein paar falsche Schlussfolgerungen gezogen...

Gast
2008-07-27, 20:49:36
Es gibt keinen Unterschied an den Farben. Garantiert nicht. Beide IHVs müssen sich an die D3D-Spec halten.
.Bei gleichem Gamma, Brightness und Contrast ist da auch beim Ausgabegerät nichts anders. Das ist pure Einbildung.

1



Ich habe ja nun heute gerade meine 8600GTS Extreme gegen eine 3850 X-TurboIII getauscht.
Und habe nun bisher mehrere Games getestet.
und die settings der Games immer gleich eingestellt !und ja, es gibt in den Games sichtbare Bildunterschiede, gerade bei Beleuchtung und den Farben.
Auch wirken Wassereffekte viel lebendieger bei ATI.
Die gesammte Beleuchtung ist Atmospherischer.



2.
ch bin auch von NVIDIA auf ATI gwechselt und finde auch das es bei ATI sauberer aussieht, aber das ist ne Ansichtssache.


Das sind nur 2 beispiele, ich kann dir 1000der posten. im luxforum, forumbase,pcgh, in englishen forums überall berichten user das gleiche.
Ist das jetzt die weltweite verschwörung?
Ich habe die gleiche erfahrung gemacht, also erzähl mit nix von: du hast dein monitor umgestellt oder so, nach einem jahr zocken nvidia gegen eine ati getauscht und die farben sind anders.ob besser oder nicht ist egal , sicher anders.punkt.

gruss

Raff
2008-07-27, 20:58:18
Auf der X1800 hatte ich meist auf Q gestellt, um das Bild etwas ruhiger zu bekommen.
Da die Frames etwas weniger wurden, habe ich wohl ein paar falsche Schlussfolgerungen gezogen...

Hm? Q auf einem R520, einer Ati-GPU?

MfG,
Raff

Coda
2008-07-27, 21:03:48
Ich habe die gleiche erfahrung gemacht, also erzähl mit nix von: du hast dein monitor umgestellt oder so, nach einem jahr zocken nvidia gegen eine ati getauscht
Nein hab ich nicht. Mein Monitor ist ein LCD2690WUXi auf Standardeinstellung (Gamma 2,2) und ich habe von NVIDIA auf ATI gewechselt vor 2 Wochen und es gibt absolut genau gar keinen Unterschied.

Dafür gibt es auch null technische Gründe. Vor allem nicht über DVI. Das wird dir sicher auch jeder von PCGH usw. bestätigen die regelmäßig die GPUs tauschen.

AckytheG
2008-07-27, 21:07:03
Hm? Q auf einem R520, einer Ati-GPU?...
Mir geht's um die Einstellungsmöglichkeit unten im Anhang.
Gibt's so ähnlich auch im CCC - heißt "Mipmap Detail Level"...

Coda
2008-07-27, 21:08:13
Das solltest du tunlichst auf "Hohe Qualität" lassen sonst hast du unschärfere Texturen.

AckytheG
2008-07-27, 21:20:29
Auf dem RV670 bringt das Umstellen auf Qualität sowieso nichts mehr.
Die Texturen werden unschärfer aber es flimmert trotzdem.
Auf dem R520 war "Qualität" dagegen ein guter Kompromiss aus Flimmern und Texturschärfe...

Fetza
2008-07-27, 21:29:26
Wenn dir die Filterqualität bei der 2900 gefällt wird sie bei der 4850/70 nicht weniger gefallen.

mfg grobi
Lol, da schau an. Da sieht man mal was für ein Bild hier aufgebaut wird, die Leute glauben schon der Monitor würde die ganze Zeit flackern.

...."Hm, mit der HD2900 fand ich alles top aber jetzt...."
die filterquali hat sich von der 2900XT bis jetzt doch nicht verändert!?
genau das habe ich vermutet bzw befürchtet, jetzt wird bereits für gut befundene filterqualität für schlecht erklärt.

Ja, das mag sein, aber leider war das:

Das ärgert mich, weil mir nämlich die filterqualität der hd2900 meines bruders sehr gut gefällt. Warum macht ati nur so einen scheiss? Das haben die doch überhaupt nicht nötig. ;(

... ein kleiner fehler meinerseits, ich meinte natürlich die X1900 XT meines bruders, also den r580. :) Den r600 und alle anderen ati-karten danach, habe ich nichtmehr in aktion gesehen. :)

Gast
2008-07-27, 21:47:46
Aber frag mal Razor, der hat diesbezüglich schon öfter was in seinen Treibertests geschrieben.
Meinte Razor nicht das TV-Overlay?

Gast
2008-07-27, 21:49:00
1



Ich habe ja nun heute gerade meine 8600GTS Extreme gegen eine 3850 X-TurboIII getauscht.
Und habe nun bisher mehrere Games getestet.
und die settings der Games immer gleich eingestellt !und ja, es gibt in den Games sichtbare Bildunterschiede, gerade bei Beleuchtung und den Farben.
Auch wirken Wassereffekte viel lebendieger bei ATI.
Die gesammte Beleuchtung ist Atmospherischer.

Witzig - ich habe am Wochenende von Geforce auf Radeon und wieder zurück gewechstel. Mehrmals. Und es sieht gleich aus. :D

Gast
2008-07-27, 22:26:26
Witzig - ich habe am Wochenende von Geforce auf Radeon und wieder zurück gewechstel. Mehrmals. Und es sieht gleich aus. :D


du muss schon längere zeit ein game spielen und nach paar wochen wechseln, irgendwelche vergleiche nach dem motto karte rein-raus brinngen nix.
Und ja du bist ein witziger.

Coda
2008-07-27, 22:41:16
Wieso "bringt das nichts"? Wenn ein Level gleich aussieht tun es die anderen nicht oder was? Gerade "mehrere Wochen" zwischen Vergleichen führen doch zu einer völlig verzerrten Wahrnehmung.

Was du hier andeutest kann nur durch unterschiedliche Ausgabekurven erzeugt werden und die ist nunmal unter Windows völlig linear und in Spielen standardisiert verändert.

Es gibt keinen Unterschied. Da könnt ihr reden soviel ihr wollt.

aths
2008-07-27, 22:44:23
Kann ich nur zustimmen, bin vor kurzem auch zu ATI gewechselt.
Es stimmt der Content von ATi flimmert eher, dafür sind subjektiv die Texturen farbefroher und allgemein knackiger/schärfer. Gefällt mir persönlich besser als die Bildqualität von Nvidia.Meine GeForce 7 hatte in WoW auch schärfere Texturen als meine GeForce 8. Wobei leider auch das Flimmern stärker war. Obwohl ich deswegen mit 2x Supersampling zockte und dachte, das Flimmern wäre praktisch weg, ist es jetzt auf der GeForce 8 (ebenfalls mit 2x AA) noch besser. Man muss es in Bewegung vergleichen.

Bei GeForce 8/9 sollte man die trilineare "Optimierung" abschalten, dann hat man bei 16x AF fast mathematisch perfektes trilineares AF. Mir sind 5%, 10% oder 15% fps-Rate egal wenn ich dafür in allen Situationen anständig gefilterte Texturen bekomme.

Bei GeForce 6 und 7 konnten auch fast alle Besitzer mit der bei GeForce 7 anfangs indiskutable, später noch auf HQ bestenfalls grenzwertigen anisotropen Texturfilterung leben. Ich verlange aber im Shaderzeitalter, dass Texturen kompromisslos gut gefiltert werden.


Mein R580 gefällt mir ganz gut mit beinah winkelunabhängigem Aniso-Filter, voll trilinear...Voll trilinear bei aktiviertem AI aber nur im AF-Tester. Ich finde es megapeinlich, dass sowohl AMD als auch Nvidia standardmäßig nicht mehr trilinear filtern können. HALLO!! Nicht mal vernünftige trilineare Filterung wird mit den Standardsettings geboten. Was kommt als nächstes? MIP-Map-Dithering? Turbo-Texturing? Point Sampling ("so schön scharf")?

Coda
2008-07-27, 22:52:54
Wenn man kein AF einschält filtert G8x Quality AFAIK korrekt trilinear.

Ansonsten stimme ich dir natürlich völlig zu.

aths
2008-07-27, 22:54:33
Wo hat da ATI "andere Farben"? Ich sehe nichts davon. Kann der Unterschied also nur noch davon kommen dass man an Gamma, Brightness und Contrast rumgeschraubt hat. Das kannst du aber bei jeder Karte standardisiert einstellen.Screenshotvergleiche bringen insofern nichts als da man natürlich den NV-Screenshot auf einer NV-Karte und den AMD-Screenshot auf einer AMD-Karte betrachten müsste.

Ich hab kürzlich bei einem Crysis erst auf einer 9800 GTX, dann auf einer HD 4850 gesehen. Die Farben empfand ich dabei als identisch. Der Beweis ist erbracht, dass beide im Framebuffer (bis auf Rundungsfehler) identische Werte stehen haben. Ich wüsste nicht, dass die Bildausgabe bei beiden Herstellern unterschiede in der Wiedergabe macht. Zumal "bessere" (also kräftigere) Farben gar nicht möglich sind, wenn alle Kanäle von 0 bis 100% korrekt dargestellt werden. Man könnte die Sättigung analysieren und die Sättigung nichtlinear (ähnlich Gamma) hochziehen, so dass im Gegensatz zu Digital Vibrance die gesättigten Farben nicht gleich zulaufen. Aber davon habe bislang rein gar nichts bemerkt.

Man muss auch (wie von dir schon angedeutet) unbedingt mit einem Umschalter direkt hintereinander vergleichen. Ich hab mal bei Konsolen (Cube und PS2) die Grafik von zwei Spielen verglichen. Wenn man nicht per Umschalter dieselben Stellen vergleicht, gelangt man schnell zu falschen Schlüssen. Wir erinnern uns schlechter an Bilder als man denkt.

Nazar
2008-07-27, 23:00:16
Nein hab ich nicht. Mein Monitor ist ein LCD2690WUXi auf Standardeinstellung (Gamma 2,2) und ich habe von NVIDIA auf ATI gewechselt vor 2 Wochen und es gibt absolut genau gar keinen Unterschied.

Dafür gibt es auch null technische Gründe. Vor allem nicht über DVI. Das wird dir sicher auch jeder von PCGH usw. bestätigen die regelmäßig die GPUs tauschen.


Dann bist Du blind oder hast extreme Sehschwächen. Ich habe den gleichen Monitor und habe sofort die Veränderungen auf dem Desktop und in den Spielen bemerkt.
Gerade WoW ist deutlich farbintensiver. Ist nicht nur mir ist das aufgefallen, auch meinen Freunden. Die Schrift der Chars in WoW über deren Köpfen ist deutlich schärfer. Bei der Flimmernproblematik muss man einen Rechner mit G80/92 danebenstellen, um zu wissen wo es Unterschiede gibt. Und die sind bei weitem nicht so groß wie Du darstellst. Teilweise bemerkt man dann sogar das NV stärker Flimmert. Allerdings muss man zugeben, dass man kaum noch weiss ob das Textur- oder Shaderflimmern ist.
Von Deiner Seite wird nur übertrieben (GTX7900 filtert in AF so gut wie die HD48XX). Du hast Dich wie in Bitbull in etwas verbissen, was keiner ausser Dir in dieser Stärke wahrnimmt.
Du machst so ein Faß auf, dass ich Freunden bei mir zu Hause am PC zeigen muss, dass das was Du erzählst pure Übertreibung ist.
Die haben den Müll hier gelesen und wirklich geglaubt, dass ATI so stark flimmert, dass man unweigerlich Kopfschmerzen bekommen muss.
Das ATI ein schlechteres AF hat, weiss nun jeder aber Du übertreibst so stark, dass man sich wundern muss, weshalb es noch keine Unterlassungsklage wegen Rufmords gegeben hat...

Coda
2008-07-27, 23:04:07
Dann bist Du blind oder hast extreme Sehschwächen.
Weder das eine noch das andere.

Schließt du deinen Monitor über DVI an? Über VGA kann vieles schief gehen. Über DVI ist der Output definitiv identisch. Es gibt technisch keinen Punkt im kompletten System der daran etwas ändern könnte bei einer linearen Ausgabekurve.

Macht euch doch nicht lächerlich. Es wäre ja wohl schlimm wenn man bei einem digitalen System Unterschiede in der Ausgabe hätte wenn alles standardisiert sind. Die gleichen Chips werden schließlich in FireGL- und Quadro-Produkten verwendet wo Farbe absolut kritisch ist.

Und überhaupt glaube ich dir kein Wort von dem was du da redest. Ich könnte dir jetzt sogar das Lügen unterstellen.

Von Deiner Seite wird nur übertrieben (GTX7900 filtert in AF so gut wie die HD48XX).
Wo habe ich das behauptet? Ich sagte, dass G70 HQ besser filtert als R580 A.I. Standard. Und das ist auch der Fall. Quality ist natürlich völlig schlimm und deutlich schlechter als RV770.

Du machst so ein Faß auf, dass ich Freunden bei mir zu Hause am PC zeigen muss, dass das was Du erzählst pure Übertreibung ist.
Das einzige was ich will ist, dass man den scheiß abschalten kann. Fertig aus. Und wenn man keinen großen Wind drum macht dann wird sich auch nichts ändern.

Zudem solltest du dich da mal an der eigenen Nase fassen. Leute glauben heute G7x würde egal in welcher Einstellung sofort Kopfschmerzen verursachen was einfach nicht wahr ist.

Raff
2008-07-27, 23:21:42
Dann bist Du blind oder hast extreme Sehschwächen. Ich habe den gleichen Monitor und habe sofort die Veränderungen auf dem Desktop und in den Spielen bemerkt.
Gerade WoW ist deutlich farbintensiver.

WTF? Ich sehe da auch nix. Tagtäglich jongliere ich mit Grafikkarten, aber Farbunterschiede sind mir da noch nicht untergekommen. Aber wenn du die Ati-Sättigung so magst, kannst du ja mal mit der "Digitalen Schwingung" (X-D) im Nvidia-CP spielen.

Bau dir mal eine Voodoo ein, fummel nicht am Treiber und starte ein Glide-Spiel. Dann wird's heller ... warum auch immer 3dfx das machte. Heutzutage unterscheidet sich da nichts.

(GTX7900 filtert in AF so gut wie die HD48XX)

Bis 2:1 (und vielleicht 4:1) bei HQ: doch, ist möglich.

MfG,
Raff

Gast
2008-07-27, 23:34:50
Vorweg: folgende Erfahrung bezieht sich auf VGA und nicht auf DVI.

Den Unterschied in der Farbgebung zwischen NVidia und ATI hatte ich auch wahrgenommen, und zwar kann ich mich konkret an Dungeon Siege erinnern, wo das Bild einer Radeon 9800 farbenfroher und kräftiger als auf einer Geforce4 wirkte. Das ist mir sofort aufgefallen.

Tatsächlich hatte ich damals bei der Geforce4 "Digital Vibrance" benutzt, um auf das gleiche Level wie bei der Radeon zu kommen. Insofern war ich über diese Funktion richtig froh; wenn man sie maßvoll einsetzte (ich verschob den Regler nur um wenige Grade) erzeugte sie gute Ergebnisse. :)

Wie gesagt das war noch mit VGA, zu DVI kann ich keine Aussage machen. Vielleicht hat sich diese Erfahrung bei vielen Usern festgesetzt und es ist heute bei DVI wirklich ein bisschen Einbildung im Spiel bei dem angeblichen Unterschied.

Coda
2008-07-27, 23:38:07
Bei DVI ist es nicht nur ein "bisschen Einbildung" sondern reine Einbildung. Es kann sich schlicht und einfach kein Unterschied mehr bei digital an das Ausgabegerät übertragenen Werten ergeben wenn der gleiche Framebufferinhalt vorhanden ist.

Das sollte ja wohl jedem Menschen mit ein wenig Hirn einleuchten.

Tesseract
2008-07-27, 23:46:22
Das sollte ja wohl jedem Menschen mit ein wenig Hirn einleuchten.

scheinbar nicht. deswegen gibt es auch dicke premium-DVI-kabel mit goldkontakten um 60€+. :D

Successor
2008-07-28, 01:21:24
scheinbar nicht. deswegen gibt es auch dicke premium-DVI-kabel mit goldkontakten um 60€+. :D

Dergleichen bei HDMI - noch sinnfreier, wenn man unterstellen mag das die digitalen Signale noch besser sind :)

Gast
2008-07-28, 01:33:48
Voll trilinear bei aktiviertem AI aber nur im AF-Tester. Ich finde es megapeinlich, dass sowohl AMD als auch Nvidia standardmäßig nicht mehr trilinear filtern können. HALLO!! Nicht mal vernünftige trilineare Filterung wird mit den Standardsettings geboten.Bin der zitierte Gast mit der R580. Benutze halt die ATT und habe die Trilinear Optimizations ausgeschaltet und High Quality AF aktiviert - ehrlich gesagt weiss ich gar nicht mehr, was die Treiber-Defaults sind ;) Du hast sicher recht, dass dies nicht der Standardfall ist, und finde es gerade bei der Leistung heutiger Beschleuniger ziemlich daneben.

AckytheG
2008-07-28, 05:26:54
Bin der zitierte Gast mit der R580. Benutze halt die ATT und habe die Trilinear Optimizations ausgeschaltet und High Quality AF aktiviert - ehrlich gesagt weiss ich gar nicht mehr, was die Treiber-Defaults sind ;) Du hast sicher recht, dass dies nicht der Standardfall ist, und finde es gerade bei der Leistung heutiger Beschleuniger ziemlich daneben.
Beim RV670 wird bei HQ AF über die ATT nur brilinear gefiltert.
Stellt man Qualität oder Performance ein, bekommt man reinstes bilineares Filtering.
Wie man echte trilineare Filterung aktiviert, hab ich bis jetzt noch nicht rausgefunden - wahrscheinlich geht's garnicht mehr.
Getestet habe ich das Ganze mit Flatout2.

Bei Crysis allerdings habe ich mit allen drei Einstellungen unterschiedlich hohe Frames.
Trotzdem wird immer brilinear gefiltert - die Unterschiede sind minimal.
Könnte sein, dass ATis künstliche "Intelligenz" bei verschiedenen Spielen unterschiedlich filtert.
Weiß da Jemand Genaueres?

Grestorn
2008-07-28, 06:10:58
Dergleichen bei HDMI - noch sinnfreier, wenn man unterstellen mag das die digitalen Signale noch besser sind :)

Bessere HDMI Kabel machen eingeschränkt Sinn, wenn sie sehr lange sind oder besonders abgeschirmt sein müssen, wg. Störquellen (z.B. parallele 220V Stromversorgung). Aber sonst sind die €500 Goldkabel natürlich absoluter Quatsch und immer wieder ein Quell allgemeiner Erheiterung ... :)

Mr. Lolman
2008-07-28, 10:13:56
Das solltest du tunlichst auf "Hohe Qualität" lassen sonst hast du unschärfere Texturen.

Das LOD-Bias wird aber erst mit Hoher Leistung angehoben, mit den anderen Einstellungen wird einfach früher aus der nächst kleineren Mipmap gesampelt.
Du hast also damit recht, dass die Texturen unschärfer werden, aber eben (ausgenommen hohe Leistung) erst beim Mipmapübergang.

Habs gestern bei Crysis getestet und da verhält sichs so, wie beschrieben, nur das ich keinen positiven Effekt hinsichtlich Flimmrigkeit feststellen konnte. D.h. die Texturen werden zwar unschärfer, aber flimmern trotzdem noch genauso (oder allenfalls minimalst weniger).

reunion
2008-07-28, 10:50:42
Ja und das nicht nur Treiberbedingt.

Auf dem r580 hast du bei HQAF + AI Off fast die gleiche Quali wie beim G80 @ HQ (minimale unterschiede).
Aber selbst AI Standard + HQAF flimmert auf r580 weniger.

AI_standard ist identisch zwischen R5xx und R6xx, nur AI_off wurde schlechter. Bei 16xAF wurde sogar ein "LOD-Bug" behoben. Und natürlich ist das Treiberbedingt.

deekey777
2008-07-28, 11:00:18
AI_standard ist identisch zwischen R5xx und R6xx, nur AI_off wurde schlechter. Bei 16xAF wurde sogar ein "LOD-Bug" behoben. Und natürlich ist das Treiberbedingt.
Nein, AI On des RV570 unterscheidet sich extrem von dem des RV770 (Stand Juli dieses Jahres). Die Unterschiede kann man nie und nimmer anhand zweier Screenshots sehen, sondern nur anhand von Differenzbildern.

reunion
2008-07-28, 11:10:04
Nein, AI On des RV570 unterscheidet sich extrem von dem des RV770 (Stand Juli dieses Jahres). Die Unterschiede kann man nie und nimmer anhand zweier Screenshots sehen, sondern nur anhand von Differenzbildern.

Wenn es sich so "extrem" unterscheidet wie du sagst sollte man das auch anders beobachten können. Ich bin jedenfalls von einer X1950pro auf eine 3870 umgestiegen und konnte trotz einer Vielzahl an Vergleichen nicht den geringsten Unterschied feststellen.

Mr. Lolman
2008-07-28, 11:15:42
Wenn es sich so "extrem" unterscheidet wie du sagst sollte man das auch anders beobachten können. Ich bin jedenfalls von einer X1950pro auf eine 3870 umgestiegen und konnte trotz einer Vielzahl an Vergleichen nicht den geringsten Unterschied feststellen.

Bei Just Cause zB. sieht mans auch ohne Differenzbilder. Da ist mir der Unterschied geradezu ins Gesicht gesprungen - nämlich Moiré-Artefakte an den bewegten Ästen div. Bäume.

EDIT: Kann aber sein, dass sich das mit Mipmapdetail@Q bessert. Müsst ich mal testen.

reunion
2008-07-28, 11:23:37
Bei Just Cause zB. sieht mans auch ohne Differenzbilder. Da ist mir der Unterschied geradezu ins Gesicht gesprungen - nämlich Moiré-Artefakte an den bewegten Ästen div. Bäume.

EDIT: Kann aber sein, dass sich das mit Mipmapdetail@Q bessert. Müsst ich mal testen.

Mhm, vielleicht bin ich dafür wirklich nicht sensibel genug. Just Cause habe ich allerdings auch nicht.

Raff
2008-07-28, 11:25:02
Nein, AI On des RV570 unterscheidet sich extrem von dem des RV770 (Stand Juli dieses Jahres). Die Unterschiede kann man nie und nimmer anhand zweier Screenshots sehen, sondern nur anhand von Differenzbildern.

Extrem? Wo? Beides flimmert, jedoch leicht verschoben. Wo gibt es denn relevante Unetrschiede und was soll "besser" sein? Solange beide flimmern und sich keines davon flimmerfrei absetzt, ist das für mich "gleich störend".

MfG,
Raff

Mr. Lolman
2008-07-28, 11:27:44
Mhm, vielleicht bin ich dafür wirklich nicht sensibel genug. Just Cause habe ich allerdings auch nicht.

Man siehts ohne direktem Vergleich im Normalfall tatsächlich kaum. Bis auf Just Cause. Da bewegen sich die Äste so, dass immer zw. 2 Mipmapstufen geblendet wird - und zu allem Überfluss sind die Mipmaps zueinander auch ziemlich unterschiedlich. Und das erzeugt dann halt das Moiré, was beim R580 definitiv nicht zu sehen war.

AckytheG
2008-07-28, 13:31:54
Man siehts ohne direktem Vergleich im Normalfall tatsächlich kaum. Bis auf Just Cause. Da bewegen sich die Äste so, dass immer zw. 2 Mipmapstufen geblendet wird und zu allem Überfluss sind die Mipmaps zueinander auch ziemlich unterschiedlich sind. Und das erzeugt dann halt das Moiré was beim R580 definitiv nicht zu sehen war.
Diese Musterbildung zwischen den Mips ist mir bei sehr vielen Spielen aufgefallen.
Auch bei Crysis darf man sie an Kisten und dergleichen bewundern.

Das LOD-Bias wird aber erst mit Hoher Leistung angehoben, mit den anderen Einstellungen wird einfach früher aus der nächst kleineren Mipmap gesampelt.
Du hast also damit recht, dass die Texturen unschärfer werden, aber eben (ausgenommen hohe Leistung) erst beim Mipmapübergang.

Habs gestern bei Crysis getestet und da verhält sichs so, wie beschrieben, nur das ich keinen positiven Effekt hinsichtlich Flimmrigkeit feststellen konnte. D.h. die Texturen werden zwar unschärfer, aber flimmern trotzdem noch genauso (oder allenfalls minimalst weniger).
Zwischen Quality @R520 und Q/HQ @RV670 liegen nach meinem Empfinden Welten.
Wer mit dem R5x0 schon auf HQ gespielt hat, dürfte dagegen (vom Moiré abgesehen) keine so großen Unterschiede feststellen.

ShadowXX
2008-07-28, 13:48:11
Diese Musterbildung zwischen den Mips ist mir bei sehr vielen Spielen aufgefallen.
Auch bei Crysis darf man sie an Kisten und dergleichen bewundern.

Zwischen Quality @R520 und Q/HQ @RV670 liegen nach meinem Empfinden Welten.
Wer mit dem R5x0 schon auf HQ gespielt hat, dürfte dagegen (vom Moiré abgesehen) keine so großen Unterschiede feststellen.
Ich hab diese Moiré auf dem RV670 ziemlich häufig bemerkt, das war auch der Grund warum Sie aus dem Zweitrechner geflogen ist und durch ne 8800GT damals ersetzt wurde (obwohl die Karte eigentlich völlig überdimensioniert war für den Kasten...naja...momentan ist ne 9800GTX drinne, die ist noch viel überdimensionierter).

Gast
2008-07-28, 20:15:51
Also, ich bin von einer 8800GT, welche jetzt im Zweitrechner werkelt, auf eine HD 4850 umgestiegen. Ich kann deshalb aus Erfahrung sprechen und sage, das man beim AF und AA keine sichtbaren Unterschiede sieht. Screenshots auf denen ein 1x1cm großer Bereich rausgepickt wird interessieren nicht, es geht darum, ob es beim Spielen auffällt. Das einzige was auffällt ist, daß die HD 4850 etwas stärker flimmert, aber auch nur bei flimmeranfälligen Texturen. Störend ist es für mich jedenfalls noch nicht.

Desweiteren sind auch die Farben und Kontraste auf beiden Karten identisch. Man muß nur beide Karten kalibrieren. Die Ati hat bei Default-Einstellungen zuviel Kontrast und zuwenig Helligkeit, die Nvidia zuviel Helligkeit und zuwenig Farbsättigung. Meine Karten sind so eingestellt, das ich auf beiden Systemen ein fürs menschliche Auge identisches Bild habe.

V2.0
2008-07-29, 07:42:42
Bis auf das Flimmenr halt.

Mr.Magic
2008-07-29, 18:37:31
Also, ich bin von einer 8800GT, welche jetzt im Zweitrechner werkelt, auf eine HD 4850 umgestiegen. Ich kann deshalb aus Erfahrung sprechen und sage, das man beim AF und AA keine sichtbaren Unterschiede sieht.

Einspruch!

Ich kann deshalb aus Erfahrung sprechen, und sage, dass ich beim AF und AA keine sichtbaren Unterschiede sehe.

So habe ich mit der Aussage kein Problem mehr.

CompEx
2008-07-30, 11:03:38
Bei DVI ist es nicht nur ein "bisschen Einbildung" sondern reine Einbildung. Es kann sich schlicht und einfach kein Unterschied mehr bei digital an das Ausgabegerät übertragenen Werten ergeben wenn der gleiche Framebufferinhalt vorhanden ist.

Das sollte ja wohl jedem Menschen mit ein wenig Hirn einleuchten.

Solche Aussagen sind ziemlich sinnlos. Deine Aussage macht NUR dann Sinn, wenn die Menschheit ALLE Einflussfaktoren auf die Qualität kennen würde. Tut sie aber nicht. Wissenschaftler rätseln da schon lange, wieso es empirisch beobachtbare Unterschiede gibt, für die man keine vollständige theoretische Erklärung hat. Ansatzpunkte sind z. B.: zeitliche Faktoren bei der Datenübertragung (bei Ton und Bild relevant, anders z. B. als beim Kopieren von Daten auf verschiedene Datenträger), Störstrahlung (immer und überall vorhanden; mal mehr, mal weniger)...

Apropos Empirie: hab's selber (natürlich blind: Testaufbau durch andere Person erfolgt) und an anderen ausprobiert. Im übrigen gibt es gerade bei HDMI tausend problematische Kombinationen von (zertifizierten) Geräten und Kabeln, die einen fehlerfreien Betrieb unmöglich machen. Habe solche Fälle selber sowohl bei DVI-Kabel und Monitor als auch beim DVD-Player und HDMI-Kabel erlebt. Die Lösung war jeweils ein Kabeltausch. Kabeldefekte lagen nicht vor, da die Kabel an anderen Geräten funktionierten und ich teilweise mehrere Kabel des gleichen Herstellers hatte. Neben solchen krassen Unterschieden (Geht/geht nicht) gibt es auch viele feine (geht gut/geht noch etwas besser).

Coda
2008-07-30, 15:05:26
Solche Aussagen sind ziemlich sinnlos.
Nein sind sie nicht.

DVI ist ein digitales System. Entweder es kommt ein totaler Müll beim Monitor an oder aber das korrekte Bild.

skampi
2008-07-30, 15:44:16
Nein sind sie nicht.

DVI ist ein digitales System. Entweder es kommt ein totaler Müll beim Monitor an oder aber das korrekte Bild.


Mag im Fall von DVI richtig sein, die Begründung von wegen digitales System ist falsch. Ohne Kenntnis der einzelnen Protokoll Layer bei DVI versteig ich mich mal in die Aussage dass auch bei digitalen Übertragungsverfahren Informationsverfälschungen auftreten können.

Coda
2008-07-30, 15:52:24
Es können maximal einzelne Bits kippen. Das würde auch nur ein Rauschen ergeben aber keine komplett andere Farbe über das ganze Bild.

Viel wahrscheinlicher ist aber dass die Synchronisation gleich ganz ausfällt bei Störungen und das Bild einfach komplett schwarz wird. DVI verwendet 8b/10b-Encoding und kann damit auch feststellen wenn Bits falsch sind.

Fetza
2008-08-01, 01:29:33
Gibt es eigentlich zurzeit bei ati tendenzen, dass sie endlich diese unsäglichen bildqualitätsverschlechterungen (so genannte optimierungen!) mit den nächsten treibern wieder rückggängig machen?

Ich habe mir jetzt mal codas gif-vergleiche angesehen, bei dem flimmern rollen sich einem ja die fussnägel hoch! Das ärgert doppelt, denn die karte finde ich ansonsten endgeil.

ShadowXX
2008-08-01, 01:59:27
Gibt es eigentlich zurzeit bei ati tendenzen, dass sie endlich diese unsäglichen bildqualitätsverschlechterungen (so genannte optimierungen!) mit den nächsten treibern wieder rückggängig machen?

Nein....die Leute Kaufen ja trotzdem. Und wie schon erwähnt ist es seit r5x0 eigentlich nur noch schlechter geworden....
Und solange in den Foren zu lesen ist "ich finde das Bild bei ATI irgendwie schärfen und bunter" wird sich daran auch nichts ändern.

Im Gegenteil....ich habe die Befürchtung das ATI anfangen wird weiter Transistoren in dem Bereich zu sparen um festzustellen ab wann das Flimmer auch dem letzten 08/15-Dau auffällt.
Aber Scharf ist es ja auf Screenshots.....:rolleyes:

Grestorn
2008-08-01, 07:34:20
Noch schlimmer, es steht zu befürchten, dass sich auch nVidia wieder auf solche Tricks einlässt, nachdem sich zeigt, wie gut ATI damit fährt.

Unyu
2008-08-01, 09:39:05
Tja AMD fährt damit gut, heute wie früher.
Nvidia fuhr damit nicht gut.

Schlechte Situation für Nvidia, aber sie müssen es wohl trotzdem wagen.

Gast
2008-08-01, 09:41:25
Noch schlimmer, es steht zu befürchten, dass sich auch nVidia wieder auf solche Tricks einlässt, nachdem sich zeigt, wie gut ATI damit fährt.


Fraglich ist ob nicht schon bei der GTX260/280 schon an den Samples gespaart wird.

Gast
2008-08-01, 09:44:54
...
Nvidia fuhr damit nicht gut.
...


Käse. Die GF6 /GF7 Reihe verkaufte sich trotz Extrem-Flimmer-Filter gut. Gab hier genug im Forum die das relativiert haben.

Grestorn
2008-08-01, 09:52:34
Fraglich ist ob nicht schon bei der GTX260/280 schon an den Samples gespaart wird.

Einfach mal ein Gerücht in die Welt setzen, obwohl es noch nicht mal Anhaltspunkte dafür gibt... :up:

Käse. Die GF6 /GF7 Reihe verkaufte sich trotz Extrem-Flimmer-Filter gut. Gab hier genug im Forum die das relativiert haben.

Genau, bei nVidia ist das selbe Flimmern natürlich "Extrem" während man es bei ATI kaum sieht, gell? ;)

Mr. Lolman
2008-08-01, 10:08:09
Genau, bei nVidia ist das selbe Flimmern natürlich "Extrem" während man es bei ATI kaum sieht, gell? ;)

Es ist bei weitem nicht das selbe Flimmern. G70 default ist deutlich schlechter als G80 default. ;)

Grestorn
2008-08-01, 10:10:27
Das war nicht die Frage. Es geht datum wie weit G70 "Quality" mit R770 "AI Standard" vergleichbar ist.

G70 Quality mag im Schnitt gerne etwas mehr flimmern, aber das eine als "extrem" und das andere als "kaum sichtbar" zu bezeichnen ist nun auch nicht korrekt.

Mr. Lolman
2008-08-01, 10:15:19
Das war nicht die Frage. Es geht datum wie weit G70 "Quality" mit R770 "AI Standard" vergleichbar ist.

G70 Quality mag im Schnitt gerne etwas mehr flimmern, aber das eine als "extrem" und das andere als "kaum sichtbar" zu bezeichnen ist nun auch nicht korrekt.

Es flimmert aber im Schnitt deutlich mehr. Ich hatte/hab sowohl nen NV40 als auch nen RV770. An meine Q3a gifs kannst du dich wohl noch erinnern. Vll. geht sichs das Wochenende aus, welche vom RV770 zu machen.

Grestorn
2008-08-01, 10:16:50
Wir müssen das nicht zerreden. Ich kann und will die G70 nicht verteidigen. Ich will nur darauf aufmerksam machen, das man die Welt weder durch eine Rote noch eine Grüne Brille sehen sollte. Und das hat der Gast oben offenbar nicht geschafft.

Es geht darum, das Tricks wieder Einzug halten, nachdem die BQ gerade mal ein bis zwei Generationen optimal war. Und das ist extrem schade.

Mr. Lolman
2008-08-01, 10:17:59
Wir müssen das nicht zerreden. Ich kann und will die G70 nicht verteidigen. Ich will nur darauf aufmerksam machen, das man die Welt weder eine Rote noch eine Grüne Brille sehen sollte. Und das hat der Gast oben offenbar nicht geschafft.

Schon klar. (Die gifs mach ich aber trotzdem, sobald ich dazukomm. ;))


Es geht darum, das Tricks wieder Einzug halten, nachdem die BQ gerade mal ein bis zwei Generationen optimal war. Und das ist extrem schade.

Ich glaub nicht, dass es wieder schlimmer wird. Die NV BQ ist aktuell ganz ok (default), bis sehr gut (HQ) und bei Ati ist sie auch seit R600 gleich (nämlich mit NV default vergleichbar) geblieben.

ShadowXX
2008-08-01, 11:02:09
Ich glaub nicht, dass es wieder schlimmer wird. Die NV BQ ist aktuell ganz ok (default), bis sehr gut (HQ) und bei Ati ist sie auch seit R600 gleich (nämlich mit NV default vergleichbar) geblieben.
Sorry, das sehe ich anders.

Ich hatte den G80 (und da der über den Jordan ging) auch noch den G92 und jetzt ne 4870.....und selbst default auf G80/G92 flimmert weniger als AI Standard.
Nicht extrem unterschiedlich, aber wahrnehmbar.

Gast
2008-08-01, 11:20:57
Es ist bei weitem nicht das selbe Flimmern. G70 default ist deutlich schlechter als G80 default. ;)

G70 default ist immer noch besser als A.I Standard.

Mr. Lolman
2008-08-01, 11:24:48
G70 default ist immer noch besser als A.I Standard.

Ja genau. :rolleyes:

EDIT: Ich werd wohl echt ein paar gifs machen müssen...

flatbrain
2008-08-01, 11:27:05
Ja genau. :rolleyes:

EDIT: Ich werd wohl echt ein paar gifs machen müssen...

Ignorier doch einfach die Trolle Spammer (sorry, wollte keine Trolle beldeidigen)... dann bleibt das Thema wenigstens lesbar.

The_Invisible
2008-08-01, 12:02:41
Noch schlimmer, es steht zu befürchten, dass sich auch nVidia wieder auf solche Tricks einlässt, nachdem sich zeigt, wie gut ATI damit fährt.

dann würde es natürlich sofort einen 3dcenter artikel über die problematik geben. wo ist denn der der AI artikel?

mfg

deekey777
2008-08-01, 12:20:35
dann würde es natürlich sofort einen 3dcenter artikel über die problematik geben. wo ist denn der der AI artikel?

mfg
Schreib doch einen.

Gast
2008-08-01, 12:36:37
Ja genau. :rolleyes:

EDIT: Ich werd wohl echt ein paar gifs machen müssen...

:rolleyes:
Die sollte lieber jemand machen, der unvoreingenommen ist, dein starker Hang zu ATI ist ja unverkennbar.

V2.0
2008-08-01, 13:16:56
Das war nicht die Frage. Es geht datum wie weit G70 "Quality" mit R770 "AI Standard" vergleichbar ist.

G70 Quality mag im Schnitt gerne etwas mehr flimmern, aber das eine als "extrem" und das andere als "kaum sichtbar" zu bezeichnen ist nun auch nicht korrekt.

Vor allem wurde damals ja auch G70 HQ als nur gerade eben annehmbar bezeichnet.

dann würde es natürlich sofort einen 3dcenter artikel über die problematik geben. wo ist denn der der AI artikel?

mfg

Ein recht schweres Thema. Screenshots kannst Du kaum verwenden, da dort die "Schärfe" oftmals positiv bewertet wird. Also mußt Du Videos aufnehmen. Nun findet man leicht einige bekannte und prominente Stellen, aber da wird dann auf Contentfehler hingewiesen. Flimmern ist ne Sache der subjektiven Wahrnehmung und schwer zu "beweisen", wenn man es nicht sehen will. 3dc könnte sicher einen guten Artikel verfassen, aber gerade auch die PCGH hat das Thema doch gut aufgearbeitet.

Nakai
2008-08-01, 13:34:11
:rolleyes:
Die sollte lieber jemand machen, der unvoreingenommen ist, dein starker Hang zu ATI ist ja unverkennbar.

Da eh jeder irgendwie einen Hang zu einer Firma hat, kann man solche Tests eh vergessen. Aber wer wäre besser geeignet als Lolman?
Am besten machens mehrere Leute, damit wenigstens etwas mehr neutraler wird.

Aber da eh alles subjektiv ist, kann man eh kaum einen guten Schluss daraus ziehen. Ich persönlich achte nicht auf die BQ wenn ich zocke. Natürlich ist das bei jedem anders.


mfg Nakai

Mr. Lolman
2008-08-01, 13:35:39
:rolleyes:
Die sollte lieber jemand machen, der unvoreingenommen ist, dein starker Hang zu ATI ist ja unverkennbar.

Klar, weil ich dann in den gifs herummalen werd, oder wie? :rolleyes:

X-Force
2008-08-01, 13:44:21
du sollst du die trolle nicht füttern

RainingBlood
2008-08-01, 14:32:00
bin vor kurzem von einer 8800GT auf eine 4850 gewechselt und habe, nach dem Thread hier, das schlimmste erwartet. Was soll ich sagen, trotz intensiven zockens (aktuelle Shooter und Rennspiele, 16xAF), ist mir weiter nichts negatives aufgefallen. Mmn wird mit Kanonen auf Spatzen geschossen.

Coda
2008-08-01, 15:09:36
Jain. Die Problematik ist dass die Einbußen an Bildqualität durchaus wahrnehmbar sind obwohl es im Jahr 2008 eigentlich keinen Zweck mehr hat außer den Balken um ein paar Prozent zu verlängern.

Dem Kunden sollte wie schon oft gesagt wenigstens die Wahl gelassen werden das Zeug auszuschalten.

Blaire
2008-08-01, 16:26:25
Ja genau. :rolleyes:

EDIT: Ich werd wohl echt ein paar gifs machen müssen...

Zumindest war die Moire Neigung bei Ati schon damals höher...ich erinnere mich da an die HL2 Engine oder Farcry. Aber NV Quality war trotzdem damals unzumutbar.

desert
2008-08-01, 16:36:50
Klar, weil ich dann in den gifs herummalen werd, oder wie? :rolleyes:

würde ich dir zutrauen nur damit ati besser dasteht.

Es kommen doch überall deine kinder hervor, die du mit deinem hass auf nvidia gefüttert hast, und posten in jedem forum das ati die bq könige sind und nvidia nur dreck produziert und sowas geiles wie a.i. garnicht hinbekommen.

deswegen brauchen wir das auch garnicht, denn eins ist klar "nichts kommt an eine bildqualtität einer ati ran" dieses hat sich so durch sein fanboymässiges posten hier im forum schon festgesetzt das jeder diskussion darüber sinnlos ist, also halten wir fest ati ist der king und lass uns in frieden weiter leben.

Mr. Lolman
2008-08-01, 16:37:04
Zumindest war die Moire Neigung bei Ati schon damals höher...ich erinnere mich da an die HL2 Engine oder Farcry. Aber NV Quality war trotzdem damals unzumutbar.

Hast einen Link dazu? Denn die Moiré Neigung war mW sicher nicht höher, da sowohl Moiré als auch Flimmern einfach von ner Einsparung der Textursamples herrühren. Und da hat NV damals so fleissig gespart, dass div. Seiten (3DCenter, hardware.fr, Computerbase, PCGH, xbitlabs) zum Schluss kamen, dass G70 HQ mit ATi default vergleichbar ist.

BTW: Das G84 Video hab ich schon gemacht. Zuhause wirds in ein gif umgewandelt, und noch ein RV770 gif erstellt. Am Ende werd ich dann ein Post ins Forum stellen, wo man die berüchtigte Q3a Szene zw NV40, R300, G84 und RV770 vergleichen kann

desert
2008-08-01, 16:40:38
Hast einen Link dazu? Denn die Moiré Neigung war mW sicher nicht höher, da sowohl Moiré als auch Flimmern einfach von ner Einsparung der Textursamples herrühren. Und da hat NV damals so fleissig gespart, dass div. Seiten (3DCenter, hardware.fr, Computerbase, PCGH, xbitlabs) zum Schluss kamen, dass G70 HQ mit ATi default vergleichbar ist.

BTW: Das G84 Video hab ich schon gemacht. Zuhause wirds in ein gif umgewandelt, und noch ein RV770 gif erstellt. Am Ende werd ich dann ein Post ins Forum stellen, wo man die berüchtigte Q3a Szene zw NV40, R300, G84 und RV770 vergleichen kann


musst nur mal raff fragen, da gab es in der pcgh mal so ein paar schöne fotos, aber wahrscheinlich ist das content bedingt und nur ein absoluter einzelfall und lässt somit keine rückschlüsse zu

Mr. Lolman
2008-08-01, 16:45:04
musst nur mal raff fragen, da gab es in der pcgh mal so ein paar schöne fotos, aber wahrscheinlich ist das content bedingt und nur ein absoluter einzelfall und lässt somit keine rückschlüsse zu

Dem hab ich eh vor kurzem eine PN geschrieben und er hat noch nicht geantwortet.

Also Raff: Falls du das hier liest - bitte auf meine PN antworten und gleichzeitig zeigen, wo ATI-AI damals mehr als G70 default geflimmert haben soll. :|


Ehrlich gesagt, glaub ich aber nicht, dass Raff damals schon bei der PCGH gearbeitet hat. Vll kann ja jemand, der den Artikel gelesen hat, eruieren, welche Ausgabe das war.

Blaire
2008-08-01, 16:48:12
Hast einen Link dazu? Denn die Moiré Neigung war mW sicher nicht höher, da sowohl Moiré als auch Flimmern einfach von ner Einsparung der Textursamples herrühren. Und da hat NV damals so fleissig gespart, dass div. Seiten (3DCenter, hardware.fr, Computerbase, PCGH, xbitlabs) zum Schluss kamen, dass G70 HQ mit ATi default vergleichbar ist.

Ist lange her, damals gabs auch Videolinks wo das in CS:Source gezeigt wurde. Die gab es bei NV Quality auch, aber nicht bei NV HQ! Bei Farcry hab ich es auch u.a. deutlich im Baumhauslevel bemerkt so toll war AI Standard damals auch nicht wollte ich nur sagen.

Mr. Lolman
2008-08-01, 16:52:59
Ist lange her, damals gabs auch Videolinks wo das in CS:Source gezeigt wurde. Die gab es bei NV Quality auch, aber nicht bei NV HQ! Bei Farcry hab ich es auch u.a. deutlich im Baumhauslevel bemerkt so toll war AI Standard damals auch nicht wollte ich nur sagen.


Beim Baumhauslevel wurde doch das erste Mal die Pfeiloptimierung von NV entdeckt. Ich kann mich nicht erinnern, dass es da jemals einen Vergleich zu Ati gegeben hätt.

Blacksoul
2008-08-01, 16:56:08
Auf Raff könnt ihr noch eine weile warten. Der liegt gerade irgendwo hacke bei Wacken rum und weiß sicher nicht einmal, welchen Tag wir heute haben. :D


t.b.d

Blaire
2008-08-01, 16:57:01
Das war mit den ersten G7x Treibern wo es so eine pfeilähnliche Optimierung gab. ;D Ab den FW78.05 wenn ich mich recht erinnere, war das aber behoben. Aus Farcry gab es damals jedenfalls auch Videos wo man Moire deutlich sah ich google nachher mal, vieleicht find ich noch was.

Mr. Lolman
2008-08-01, 17:09:14
Das war mit den ersten G7x Treibern wo es so eine pfeilähnliche Optimierung gab. ;D Ab den FW78.05 wenn ich mich recht erinnere, war das aber behoben. Aus Farcry gab es damals jedenfalls auch Videos wo man Moire deutlich sah ich google nachher mal, vieleicht find ich noch was.


BTW ich hab sogar noch den Thread gefunden, wo ich damals einen Farcry vergleich gemacht hab, und am NV40 vgl mit R300 alles unterHQ deutlich Moirélastiger war, als mit ATi AI. (Damals hast du als Konter einen Vergleich von Dungeonsiege gebracht, wo bei NV anscheinend SSAA aktiviert war ;))

Aber egal - wie ich mich kenn hab ich die Screenshots sicher noch irgendwo zuhause herumgammeln - wenn wir schon beim Hervorgraben alter Kamellen sind. Was mich nur wundert ist, dass sich bei so manchem hier schön langsam die Erinnerungen verklären und man ATi AI schlechter reden will, als es damals war: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3282496&postcount=853



BTW: Der aktuelle NV-WHQL-Treiber (175.19) aktiviert übrigens die "Anisotrope Abtastoptimierung" sobald man AF-Settings setzt. Ich würd also an eurer Stellte BQ-mässig von den Default-Settings nicht zuviel erwarten

deekey777
2008-08-01, 17:20:19
würde ich dir zutrauen nur damit ati besser dasteht.

Es kommen doch überall deine kinder hervor, die du mit deinem hass auf nvidia gefüttert hast, und posten in jedem forum das ati die bq könige sind und nvidia nur dreck produziert und sowas geiles wie a.i. garnicht hinbekommen.

deswegen brauchen wir das auch garnicht, denn eins ist klar "nichts kommt an eine bildqualtität einer ati ran" dieses hat sich so durch sein fanboymässiges posten hier im forum schon festgesetzt das jeder diskussion darüber sinnlos ist, also halten wir fest ati ist der king und lass uns in frieden weiter leben.
Noch ein Posting in so einem Ton und es hagelt mit roten Karten.
Es ist doch nicht normal, dass eine Diskussion mit solchen Äußerungen gestört wird.

Blaire
2008-08-01, 17:24:49
BTW ich hab sogar noch den Thread gefunden, wo ich damals einen Farcry vergleich gemacht hab, und am NV40 vgl mit R300 alles unterHQ deutlich Moirélastiger war, als mit ATi AI. (Damals hast du als Konter einen Vergleich von Dungeonsiege gebracht, wo bei NV anscheinend SSAA aktiviert war ;))

Aber egal - wie ich mich kenn hab ich die Screenshots sicher noch irgendwo zuhause herumgammeln - wenn wir schon beim Hervorgraben alter Kamellen sind. Was mich nur wundert ist, dass sich bei so manchem hier schön langsam die Erinnerungen verklären und man ATi AI schlechter reden will, als es damals war: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3282496&postcount=853


http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia
So fing alles an damals... Ati trickste bei der X8x0 nur durch Registrytweaks bekam man volle BQ zurück. Hab einige Verlinkungen auf beyond3d gefunden von den Videos was leider immer mit "404 Not Found" endete vermutlich existiert das alte Forum in der Form nicht mehr schade.
Edit: Deine Quake3 Vergleiche in Ehren aber OpenGL gab es schon damals nicht sehr viele Games.

V2.0
2008-08-01, 17:50:31
BTW ich hab sogar noch den Thread gefunden, wo ich damals einen Farcry vergleich gemacht hab, und am NV40 vgl mit R300 alles unterHQ deutlich Moirélastiger war, als mit ATi AI. (


Im Vergleich zu R300 sicher. Im Vergleich zu RV770...... :|

X-Force
2008-08-01, 19:16:20
lolman suchst du die stelle bei hl 2 wo das moire am stärksten ist ?
das ist dann die szene wo man den buggy bekommt, der an dem kran hängt

die hallendächer zeigen aus der richtigen perspektive sehr schöne muster ;)

Mr. Lolman
2008-08-01, 19:16:59
lolman suchst du die stelle bei hl 2 wo das moire am stärksten ist ?
das ist dann die szene wo man den buggy bekommt, der an dem kran hängt

die hallendächer zeigen aus der richtigen perspektive sehr schöne muster ;)

Klingt interessant. Hast vll. ein Savegame?

Fetza
2008-08-02, 01:06:37
Nein....die Leute Kaufen ja trotzdem. Und wie schon erwähnt ist es seit r5x0 eigentlich nur noch schlechter geworden....
Und solange in den Foren zu lesen ist "ich finde das Bild bei ATI irgendwie schärfen und bunter" wird sich daran auch nichts ändern.

Im Gegenteil....ich habe die Befürchtung das ATI anfangen wird weiter Transistoren in dem Bereich zu sparen um festzustellen ab wann das Flimmer auch dem letzten 08/15-Dau auffällt.
Aber Scharf ist es ja auf Screenshots.....:rolleyes:

Dabei finde ich, das es eigentlich schon wirklich jedem zocker, und selbst, wenn er nur alle jubeljahre mal zockt, sofort auffallen müsste.

Noch schlimmer, es steht zu befürchten, dass sich auch nVidia wieder auf solche Tricks einlässt, nachdem sich zeigt, wie gut ATI damit fährt.

Mach uns mal keine angst hier!:eek: - also ich denke, dass das nvidia garnicht nötig hat, wo sie doch so auf tmus setzen. Ich denke mal, das ati vor allem wegen des preises aktuell so gut fährt. Naja und vielleicht wegen dem featureset. (dx10.1)

Es flimmert aber im Schnitt deutlich mehr. Ich hatte/hab sowohl nen NV40 als auch nen RV770. An meine Q3a gifs kannst du dich wohl noch erinnern. Vll. geht sichs das Wochenende aus, welche vom RV770 zu machen.

Den nv40 habe ich mir damals speziell besorgt für doom3. Auf der einen seite war ich begeistert, wie gut man damit doom3 zocken konnte, auf der anderen seite hat mich das schlechtere aa (kein downsampling) und vor allem der grottige af-filter damals geschockt. Nach zwei monaten hatte ich die schnauze voll, und habe es bereut meinen r300 verkauft zu haben. Das flimmern war vor allem in spielen wie daoc unerträglich.

bin vor kurzem von einer 8800GT auf eine 4850 gewechselt und habe, nach dem Thread hier, das schlimmste erwartet. Was soll ich sagen, trotz intensiven zockens (aktuelle Shooter und Rennspiele, 16xAF), ist mir weiter nichts negatives aufgefallen. Mmn wird mit Kanonen auf Spatzen geschossen.

Also wenn es so flimmert, wie auf den gifs von coda, dann sind die spatzen so groß wie truthähne.;)

RainingBlood
2008-08-02, 10:33:50
Also wenn es so flimmert, wie auf den gifs von coda, dann sind die spatzen so groß wie truthähne.;)


ich sehe keinen Sinn darin, Extreme herauszusuchen, die nur wenige Szenen betreffen oder auch die Konkurrenz. Steig mal in der BF2 Mod OPK in ein Flugzeug, flieg über eine Stadt und labe dich an flimmernden Texturen. Für eine Diskussion sicher wertvoller Stoff, für den Normalospieler meist obsolet.

Coda
2008-08-02, 15:53:17
Die Texturen die in HL² flimmern kommen nicht nur in wenigen Szenen vor.

_DrillSarge]I[
2008-08-02, 16:00:27
Die Texturen die in HL² flimmern kommen nicht nur in wenigen Szenen vor.
HL2 flimmert allgemein.

wieviel performance könnten die optimierungen denn bringen? sind doch bestimmt eh nur paar prozent.
fast gleich schlimm finde ich solch stage-optimierungen, dass nur noch bi-(bri)linear gefiltert wird.

AckytheG
2008-08-02, 16:39:18
I[;6697372']...fast gleich schlimm finde ich solch stage-optimierungen, dass nur noch bi-(bri)linear gefiltert wird.
Da steht ATi im Vergleich zu nVidia auch schlechter da.
Seit R600 lässt sich der trilineare Filter nicht mehr forcieren - auch nicht mit 3rd-Party Tools...

desert
2008-08-02, 17:43:03
I[;6697372']HL2 flimmert allgemein.

wieviel performance könnten die optimierungen denn bringen? sind doch bestimmt eh nur paar prozent.
fast gleich schlimm finde ich solch stage-optimierungen, dass nur noch bi-(bri)linear gefiltert wird.

eben da wird gemauert ohne ende, es gibt keine benches mehr zwischen a.i. off und a.i. standard hardtecs4u hatte mal welche gemacht da kostete es bis 55 % an leistung, aber ist nur shaderreplacement sonst ist nämlich kein unterschied feststellbar.

Aber die atifanboy fraktion weigert sich weiterhin solche benches durchzuführen, die mehr als ein spiel beinhalten, gibt nämlich auch spiele wo der unterschied in einer timedemo nur 3 -4 % ist, aber bei einem savegame plötzlich bis zu 20 %.

Also glauben wir weiterhin das zwischen a.i. off und a.i. standard nur ein minimaler unterschied besteht, so klein das man sich das überprüfen sparen kann.

_DrillSarge]I[
2008-08-02, 17:52:37
Also glauben wir weiterhin das zwischen a.i. off und a.i. standard nur ein minimaler unterschied besteht, so klein das man sich das überprüfen sparen kann.
das einzig "riesige" beispiel war doom3 zu r4xx zeiten. durch shaderreplacement war dort eine große steigerung möglich. das hat aber jetzt nix mit af zu tun. gegen sowas "unsichtbares" hab ich eigentlich nix (über solche replacements kann man sich natürlich auch streiten).
in ut2004 zB sieht man sehr deutlich diverse "optimierungen". vielleicht war das beim release von ut2k4 für flüssiges spielen ganz nützlich (solange es abschaltbar bleibt). aber heutzutage ist das doch wurst.
bei vielen älteren spielen fällt sowas auf. und dort ist es absolut unnötig.
was bei 3dmark und co geht ist mir auch egal. dort wird anscheinend viel arbeit investiert, da man des öfteren auch mal in den releasenotes damit "wirbt".
ich glaube auch nicht, dass diese af-speziefischen optimierungen in aktuellen titeln (bspw. cysis) ziwschen unspielbar und flüssig entscheiden. es wird wohl eher auf sowas wie 20 vs. 21 fps rauslaufen (extremste settings mal abgesehen 1 vs. 5 fps :D).

Gast
2008-08-02, 19:51:28
Den nv40 habe ich mir damals speziell besorgt für doom3. Auf der einen seite war ich begeistert, wie gut man damit doom3 zocken konnte, auf der anderen seite hat mich das schlechtere aa (kein downsampling) und vor allem der grottige af-filter damals geschockt.
Kein Downsampling?!? Gammakorrigierten Downfilter (was je nach Monitor und Einstellungen auch durchaus schlechter aussehen kann) gabs erst mit späteren Treibern.
So ganz ohne Downfilter hättest du kein schlechtes AA, sondern gar keins ;)

Coda
2008-08-02, 21:12:11
I[;6697372']wieviel performance könnten die optimierungen denn bringen? sind doch bestimmt eh nur paar prozent.
Auf RV770 wird es sehr wenig sein, genau deswegen verstehe ich ja nicht warum ATI es nicht abschaltbar macht.

Dann wären doch alle weitgehend zufrieden.

Gast
2008-08-03, 18:45:23
Da steht ATi im Vergleich zu nVidia auch schlechter da.
Seit R600 lässt sich der trilineare Filter nicht mehr forcieren - auch nicht mit 3rd-Party Tools...

Mit dem nagelneuen ATI tray tool kann man es einstellen glaub ich.

AckytheG
2008-08-03, 21:19:40
Mit dem nagelneuen ATI tray tool kann man es einstellen glaub ich.
Die Tray-Tools boten schon immer die Möglichkeit einen trilinearen Filter zu forcieren.
Seit R600 ist dieser durch die ATT gesetzte Reg-Eintrag sogar die Standardeinstellung des Control-Centers.
Wenn man im CCC also das 16-fache AF aktiviert, entspricht das dem unten markierten Eintrag der Tray-Tools.

Das bedeutet aber mitnichten, dass auch wirklich trilinear gefiltert wird.
Wer mit dem AF-Tester spielt oder die Mips einfärbt, bekommt volle Tri-Filterung, bei Spielen ist das eher Glückssache...

Gast
2008-08-04, 00:49:07
Ich meine aber das (AF Höchster Qualität???)

http://www.abload.de/img/attaf7w6.png

Nazar
2008-08-04, 01:40:30
bin vor kurzem von einer 8800GT auf eine 4850 gewechselt und habe, nach dem Thread hier, das schlimmste erwartet. Was soll ich sagen, trotz intensiven zockens (aktuelle Shooter und Rennspiele, 16xAF), ist mir weiter nichts negatives aufgefallen. Mmn wird mit Kanonen auf Spatzen geschossen.

Wenn es mal nur Kanonen wären... ;D
Die Leute hier benutzen Atombomben und das nur mal so zwischendurch...
Man kann über etwas diskutieren oder etwas anbeten... über den Status der Diskussion sind die meisten hier schon längst drüber hinaus.
Zur Zeit stampfen einige eine Neue Sekte aus dem Boden.
In dieser Sekte trägt man Grün und wer das nicht macht, der bekommt sein "Privatgespräch" und danach trägt er GRÜN oder ist ein Teufel in "rot" ;D

Was mich ehrlich gesagt wundert, dass genau diese Leute das mangelhafte Verhalten der Leistung von 4*AA gegenüber 8*AA bei grün nicht die Bohne juckt.. gerade in der heutigen Zeit... hm... da sind wohl die A-Bomben ausgegangen ;)
Aber hey... es kommt halt immer nur darauf an, wer in welchem Forum sein Einfluss und Ruf für welche Sache (und mag diese auch sehr persönlicher Natur sein) einsetzt.

Hier hatte jemand Einblick in eine andere "Relegion" und findet, dass diese nicht 100% seiner Ansicht entspricht und erweitert den Hexen Hammer nun um den Abschnitt "ATI AF und der Scheiterhaufen des Glaubens".

Man kann sicher sein, dass er in jedem Thread wo es um AF und ATI geht auftaucht und nicht müde wird uns vom bösen Teufel ATI und den üblen Klaune des AF zu berichten... es lebe die Meinungsfreiheit ;D

Coda
2008-08-04, 02:29:46
Yeah right. Ich bin so grün, dass ich mir ne 4870 gekauft und sie seit Wochen im Rechner hab.

Spinn dir was anderes zusammen. Der Einbruch von 8xAA auf NVIDIA-Karten ist in Benchmarks klar erkennbar. Das ist der große Unterschied.

AckytheG
2008-08-04, 03:23:01
Ich meine aber das (AF Höchster Qualität???)

http://www.abload.de/img/attaf7w6.png
Dieser Reiter war seit der R520er Generation eigentlich dafür gedacht dem anisotropen Filter die Winkelabhängigkeit zu nehmen.
Seit R600 ist diese Einstellung jedoch Treiberstandard und der Reiter wird nicht mehr benötigt (deshalb ist er bei mir ausgegraut - auch in der aktuellesten Version der ATT).

Dass er bei Dir noch vorhanden ist, verwundert mich ein wenig.
Oder steckt keine Karte der HD-Serie in Deinem Rechner?

...
ziemlich viel Voreingenommenes
...
Du scheinst grundsätzlich misszuverstehen, worum es Coda und uns Anderen hier eigentlich geht.
Ziel unserer Kritik ist es nicht ATi den Absatz zu verderben oder irgendwelche Käuferschichten umzupolen - was hätten wir auch davon?! :|

Der Thread existiert, weil ATi über den Treiber einen AF-Sparfilter anbietet, der sich seit R600 nicht mehr deaktivieren lässt - und das muss gefälligst geändert werden!
Ob Du oder etwa 90% der anderen ATi-User mit der aktuellen Filterqualität zufrieden sind, ist dabei völlig unwichtig, weil das den restlichen 10% herzlich wenig nützt.

Was spricht denn Deiner Meinung nach gegen:
1. Das Entkoppeln von Filteroptimierungen und Bugfixes im Treiber
2. Einen Teibereintrag, der kompromisslos den trilinearen Filter immer und überall aktiviert und
3. Die Möglichkeit, Supersampling-AntiAliasing über den Treiber zu aktivieren?

Im schlimmsten Fall hättest Du ein paar Treiberfeatures mehr, mit denen Du nichts anfangen kannst.
Wäre das wirklich so schlimm?

Fetza
2008-08-04, 03:30:31
Kein Downsampling?!? Gammakorrigierten Downfilter (was je nach Monitor und Einstellungen auch durchaus schlechter aussehen kann) gabs erst mit späteren Treibern.
So ganz ohne Downfilter hättest du kein schlechtes AA, sondern gar keins ;)

So meinte ich, ja :-) Aber ich habe bisher noch nicht eine situation gehabt, wo es nicht deutlich schlechter ohne gamma korrektur aussah. Allerdings zocke ich auch nur auf crts.

Edit: Der nv40 brauch aber übrigends später derbe ein, wenn man den downfilter zugeschaltet hatte.

samm
2008-08-04, 04:15:31
Dieser Reiter war seit der R520er Generation eigentlich dafür gedacht dem anisotropen Filter seine Winkelabhängigkeit zu nehmen.
Seit R600 ist diese Einstellung jedoch Treiberstandard und der Reiter wird nicht mehr benötigt (deshalb ist er bei mir ausgegraut - auch in der aktuellesten Version der ATT).

Dass er bei Dir noch vorhanden ist, verwundert mich ein wenig.
Oder steckt keine Karte der HD-Serie in Deinem Rechner?Müsste schon, sonst gäbe es die Auswahl des Box-Filters nicht, oder?

Ich wäre auch dringend dafür:
Was spricht denn Deiner Meinung nach gegen:
1. Das Entkoppeln von Filteroptimierungen und Bugfixes im Treiber
2. Einen Teibereintrag, der kompromisslos den trilinearen Filter immer und überall aktiviert und
3. Die Möglichkeit, Supersampling-AntiAliasing über den Treiber zu aktivieren?Zumal in naher Zukunft eine HD4xxx in meinem PC werkeln wird, und ich ihre Leistung gern in bildverbessernde Massnahmen investieren würde.

AckytheG
2008-08-04, 04:22:58
Müsste schon, sonst gäbe es die Auswahl des Box-Filters nicht, oder?
Das ist ein gutes Argument!
Vielleicht liegt's am Betriebssystem, dass er nicht ausgegraut ist.
Ich benutze zur Zeit noch WinXP und der Gast wohl Vista.

Kann das mal Jemand anderes mit einem RV670/770 und XP/Vista gegenprüfen?
Tut sich eventuell doch was beim Filtering?

Edit:
Unter Vista ist der Reiter tatsächlich noch aktiv.
Trilineares Filtering gibt's damit aber trotzdem nicht...

Gast
2008-08-04, 20:29:12
Dieser Reiter war seit der R520er Generation eigentlich dafür gedacht dem anisotropen Filter die Winkelabhängigkeit zu nehmen.
Seit R600 ist diese Einstellung jedoch Treiberstandard und der Reiter wird nicht mehr benötigt (deshalb ist er bei mir ausgegraut - auch in der aktuellesten Version der ATT).

Dass er bei Dir noch vorhanden ist, verwundert mich ein wenig.
Oder steckt keine Karte der HD-Serie in Deinem Rechner?


HD4870 steckt im Rechner mit win vista 64bit.

Marty98
2008-08-10, 03:46:30
Kommt der Artikel noch?

Raff
2008-08-10, 14:44:08
Klar kommt der. Drängen bringt aber gar nichts, denn gut Ding braucht Weile ... und Zeit haben berufstätige Schreibsklaven relativ wenig. ;)

MfG,
Raff

_DrillSarge]I[
2008-08-10, 14:48:12
frage am rande: wurde mit neueren triebern auch das ai-verhalten auf r5xx verändert?
hab gerade keine lust die x1950 nochmal einzubauen :).

Wilhelm
2008-08-28, 10:49:55
/Push

Lange nichts mehr vom Artikel gehört - was ist los?

Raff
2008-09-20, 20:29:59
Ohgottogottogott ...
Habt ihr euch mal Crysis Warhead angesehen? Ich fand das GF8-AF (http://www.pcgameshardware.de/aid,660404/News/Crysis_Warhead_Einsparungen_beim_Texturfilter_gesichtet/) ja schon grenzwertig, aber A.I. ist erwartungsgemäß noch hässlicher. Die Ati-Pros wollen doch immer aktuelle Spiele – voilá!

Dafür fluppt das Spiel sehr geil auf der HD 4870. Enthusiast, 1.680x1.050, kein AA/AF:

8800 GTX: 19 Fps
HD 4870: 27 Fps
4870 @ 850/2.300: 31 Fps

MfG,
Raff

Gummikuh
2008-09-20, 22:08:10
Wär gut,wenn ihr bei den Screenshots auch mal Bildbereiche einkreist oder so...hab die Eingabehilfen net an :biggrin:.

Hast eh ein "zu feines "Auge für sowas :biggrin:

Gast
2008-09-20, 22:33:33
Dafür fluppt das Spiel sehr geil auf der HD 4870. Enthusiast, 1.680x1.050, kein AA/AF:

8800 GTX: 19 Fps
HD 4870: 27 Fps
4870 @ 850/2.300: 31 Fps


Welche Stelle sollen das sein? Lad mal hoch. ;)

Gast
2008-09-21, 00:11:25
wahnsinn, ATIs AI sieht da ja wirklich grausam aus, hätte nicht gedacht, dass es so arg ist: http://www.pcgameshardware.de/aid,653641/Test/Benchmark/Duell_der_Texturfilter_Radeon_gegen_Geforce_-_der_direkte_Vergleich/?page=3

Gast
2008-09-21, 01:02:49
wahnsinn, ATIs AI sieht da ja wirklich grausam aus, hätte nicht gedacht, dass es so arg ist: http://www.pcgameshardware.de/aid,653641/Test/Benchmark/Duell_der_Texturfilter_Radeon_gegen_Geforce_-_der_direkte_Vergleich/?page=3
Ich sehe da keinen unterschied bis auf fehlende details.

Gummikuh
2008-09-21, 01:41:33
ja eben...der Hintergrund...das seht man sofort...aber was sonst noch?...Kömnte ja auch PC gegen PS3 sein...also zeigt mal eure kenntnisse deutlich...bitte :wink:

nVoodoo
2008-09-21, 01:54:35
Mal so eine Frage in den Raum... gäbe es denn überhaupt irgendeine theoretische Möglichkeit die perfekte schärfe zu erreichen mit 0 flimmern? Weil entweder hat man mehr schärfe mit mehr flimmern oder weniger schärfe mit weniger flimmern...

Gummikuh
2008-09-21, 02:19:03
Wüßt ich auch mal gern...könnte ja auch testen mit meinem Lappi und PC....aber wenn man da screenshots macht...nimmt da auch der Monitor Einfluß...oder nicht.

Ist zwar leistungsmäßig ein gehöriger Unterschied...aber von der Qualität her müssten ja ähnliche Ergebnisse zustande kommen...dann sollte aber auf meinen Haupt-PC Vista installiert sein.

Savay
2008-09-21, 06:06:45
wahnsinn, ATIs AI sieht da ja wirklich grausam aus, hätte nicht gedacht, dass es so arg ist: http://www.pcgameshardware.de/aid,653641/Test/Benchmark/Duell_der_Texturfilter_Radeon_gegen_Geforce_-_der_direkte_Vergleich/?page=3


ist das 16xAF? nun die ATi wirkt wie erwartet deutlich schärfer....jo dürfte mehr flimmern...die farben wirken auch etwas anders.

ansonsten muss ich aber sagen ist es bei beiden bildern nicht so wie ich es mir im optimalfall wünschen würde. das ist doch beides nie im leben wirklich trilinear?! oder habe ich was an den augen :|

Gast
2008-09-21, 15:52:39
Also irgendwie wirkt das nicht gut eingefangen. Bei der ATI scheint noch Rauch/Nebel von einer Explosion (?) im Hintergrund zu sein, dafür ist der Rest des Bildes schärfer und kontrastreicher, während die NV sehr matschig wirkt.

_DrillSarge]I[
2008-09-21, 17:47:33
crysis an sich ist für einen af-vergleich schonmal ungeeignet, vor allem mit pom.
€: vor allem bei älteren titeln sieht man optimierungen meist viel besser
bspw. battlefield 1942 (ganz schlimm), serious sam (alle teile), ut2004 usw.

Gast
2008-09-21, 17:49:35
Also irgendwie wirkt das nicht gut eingefangen. Bei der ATI scheint noch Rauch/Nebel von einer Explosion (?) im Hintergrund zu sein, dafür ist der Rest des Bildes schärfer und kontrastreicher, während die NV sehr matschig wirkt.

richtig, weil es korrekt gefiltert ist, ATI unterfiltert gnadenlos was natürlich schärfer wirkt und flimmert.

die AI-off-shots wirken auf den ersten blick ziemlich gleich wie jene von NV, weil dann eben auch nicht mehr unterfiltert wird.

Aquaschaf
2008-09-21, 18:05:51
Mal so eine Frage in den Raum... gäbe es denn überhaupt irgendeine theoretische Möglichkeit die perfekte schärfe zu erreichen mit 0 flimmern?

Theoretisch: mit unendlich hoher Bildauflösung ;)

Coda
2008-09-21, 18:59:08
Ausreichend hohe Abtastung würde auch reichen. Wenn man doppelt so viele Samples nimmt wie die maximale Frequenz ist, dann kann man das Signal 100% rekonstruieren.

Das hängt dann natürlich auch vom Rekonstruktionsfilter ab. Ich glaube der ist heute auch noch nicht so ganz optimal.

X-Force
2008-09-21, 20:31:39
eben, wenn ati und nvidia endlich mal ihre hausaufgaben machen würde müsste da nix flimmern und man müsste keine bugwellen sehen und hätte scharfe texturen

vielleicht sollte man mal frauen ins management lassen damit nicht nur schwanzlänge zählt

MegaManX4
2008-09-21, 20:57:03
eben, wenn ati und nvidia endlich mal ihre hausaufgaben machen würde müsste da nix flimmern und man müsste keine bugwellen sehen und hätte scharfe texturen

vielleicht sollte man mal frauen ins management lassen damit nicht nur schwanzlänge zählt

Das einzige was dann passieren würde, wäre das wir 100 Grafikchips hätten, die alle genau das gleiche könnten und gleich aussehen würden.

MadManniMan
2008-09-26, 11:04:49
Frauen hin oder her - künftige Artikel sollte unbedingt an dem Thema dranbleiben.

Gast
2008-09-27, 16:07:43
Frauen hin oder her - künftige Artikel sollte unbedingt an dem Thema dranbleiben.

was soll dranbleiben heißen?

der letzte artikel der sich kritisch mit den texturfiltern auseinandersetzt war zu G7x-zeiten.

an G8x und nachfolgern zeigt sich ja, dass er was genutzt hat, ATI darf aber machen was sie wollen, und niemand darf darüber sprechen.

4 Vitamins
2008-09-27, 18:08:30
.
ATI darf aber machen was sie wollen, und niemand darf darüber sprechen.

ah ja.....stimmt! in dem thread haben alle darüber geschrieben.:P


gruss.

Gast
2008-09-27, 18:47:09
eben, wenn ati und nvidia endlich mal ihre hausaufgaben machen würde müsste da nix flimmern und man müsste keine bugwellen sehen und hätte scharfe texturen

vielleicht sollte man mal frauen ins management lassen damit nicht nur schwanzlänge zählt

Man sollte nich auser Acht lassen, das die Entwickler der Spiele genauso mist bauen können. Shaderaliasing oder rauschende Texturen sind einfach ein Graus. Und gegen Matschtexturen gibts nunmal kein Gegenmittel, auch über den Treiber forciertes AF kann nicht immmer helfen (und soll es auch nicht, wozu können die Entwickler es denn einbauen).

Nazar
2008-09-27, 21:36:40
wahnsinn, ATIs AI sieht da ja wirklich grausam aus, hätte nicht gedacht, dass es so arg ist: http://www.pcgameshardware.de/aid,653641/Test/Benchmark/Duell_der_Texturfilter_Radeon_gegen_Geforce_-_der_direkte_Vergleich/?page=3

Hmm da steht Mouseover G80 und Mouseout R770. Beim Mousover werden die Bodentexturen total matschig/unscharf.. Details gehen verloren.. auch eine Art um AF zu "verbessern" ;D
Was ich sehr seltsam finde.. zwischen dem G80 AF=on und AF=off gibt es keine Unterschiede.. auch in der Entfernung bleiben die Texturen unkenntlich... da könnte amn AF auch weglassen!

Das im Hintergrund hat mit dem Dynamischen Nebel zu tun....

Gast
2008-09-27, 22:12:10
Hmm da steht Mouseover G80 und Mouseout R770. Beim Mousover werden die Bodentexturen total matschig/unscharf.. Details gehen verloren.. auch eine Art um AF zu "verbessern" ;D


natürlich sieht es unschärfer aus, das was du bei ATI mehr an "details" siehst sind keine details sondern unterfilterung, was in bewegung nicht mehr schön aussieht, auch wenn es auf screenshots schärfer wirkt. sonst könnte ich ja gleich negatives LOD-bias nehmen, sieht noch schärfer aus, flimmert aber noch mehr.
wirklich "komisch" dass ATI mit AI-off weitgehend identisch aussieht, was die detaildarstellung betrifft.


Was ich sehr seltsam finde.. zwischen dem G80 AF=on und AF=off gibt es keine Unterschiede.. auch in der Entfernung bleiben die Texturen unkenntlich... da könnte amn AF auch weglassen!

also ich finde da keine shots ohne AF für einen vergleich.

Raff
2008-09-28, 00:10:15
Ich möchte nochmal hervorheben, dass das Alter der Spiele irrelevant ist. Einzig die Texturen sind von Relevanz. Ich habe heute wieder mit HL2 herumgespielt, das mit der Fakefactory-Texturmod rattenscharfe Tapeten auffährt. Das Flimmern mit einer Radeon (HD 4870) ist einfach grausig – ich kann so nicht spielen! Crysis (Warhead) fährt öft ähnlich fiese Texturen auf, legt aber noch eine Armada an Shadercode darüber. Die Folge ist ähnlich: Es macht großes Aua.

Ich bin echt gespannt, wann die zur Besinnung kommen. Die TMUs reichen doch jetzt aus, um wenigstens einen versteckten Schalter für maximale BQ einzubauen ...

MfG,
Raff

C.D.B.
2008-09-28, 09:29:17
... Ich bin echt gespannt, wann die zur Besinnung kommen. Die TMUs reichen doch jetzt aus, um wenigstens einen versteckten Schalter für maximale BQ einzubauen ...

Solange kein "Feedback" bei ATI einschlägt, wie es bsp. NV wegen ihres G70 erfahren durfte, wird ATI wohl - leider - nur auf Schwanzlänge aus sein.

Ich spiele auch den CM8.2 auf meinem R580. Aber erhöhtes (Textur)Flimmern gegenüber dem Orig-Content ist mir nicht aufgefallen. Bin ich bereits total verflimmert, oder betrifft dieses Phenomän nur R6xx/R7xx? :rolleyes:

LovesuckZ
2008-09-28, 10:33:57
Ich möchte nochmal hervorheben, dass das Alter der Spiele irrelevant ist. Einzig die Texturen sind von Relevanz. Ich habe heute wieder mit HL2 herumgespielt, das mit der Fakefactory-Texturmod rattenscharfe Tapeten auffährt. Das Flimmern mit einer Radeon (HD 4870) ist einfach grausig – ich kann so nicht spielen! Crysis (Warhead) fährt öft ähnlich fiese Texturen auf, legt aber noch eine Armada an Shadercode darüber. Die Folge ist ähnlich: Es macht großes Aua.


Und trotzdem hast du dir eine 4870 gekauft. Ich weiß nicht, wieso meckerst du über etwas, was du selbst korrigieren könntest? :confused:

Mr. Lolman
2008-09-28, 11:01:24
Und trotzdem hast du dir eine 4870 gekauft. Ich weiß nicht, wieso meckerst du über etwas, was du selbst korrigieren könntest? :confused:

Raff ist eben übersensibilisiert. Ein kleiner Dämpfer wars ja auch , dass selbst NV HQ bei den Flimmerbeispielen in Crysis flimmert. Trotzdem wärs nett, wenn zumindest AIoff/high wieder R580-Qualität bringt.

BTW: Raff ich wart schon seit fast 2 Monaten auf eine Antwort zu einer PN, die ich dir diesbezüglich geschickt hab.

LovesuckZ
2008-09-28, 11:38:37
Selbst wenn er es überdramatisiert, er kann es einfach beheben. Entweder durch Verkauf oder durch Verwendung einer anderen Karte.
Ich verstehe daher nicht, wieso man sich dauernd über das Thema aufregt, aber nichts dagegen unternimmt.

Schlammsau
2008-09-28, 11:42:29
Selbst wenn er es überdramatisiert, er kann es einfach beheben. Entweder durch Verkauf oder durch Verwendung einer anderen Karte.
Ich verstehe daher nicht, wieso man sich dauernd über das Thema aufregt, aber nichts dagegen unternimmt.

was soll er denn dagegen Unternehmen? Das Problem ist, eine 4870 ist in Warhead z.B. "nur" 50% (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6808482#post6808482)schneller als seine 8800GTX. Das wird ihn evtl. von einem Verkauf abhalten. ;)

Gast
2008-09-28, 11:51:25
was soll er denn dagegen Unternehmen? Das Problem ist, eine 4870 ist in Warhead z.B. "nur" 50% (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6808482#post6808482)schneller als seine 8800GTX. Das wird ihn evtl. von einem Verkauf abhalten. ;)


nachdem man AI-off einstellt noch immer? abgesehen davon, dass es damit noch immer schlechter als bei NV aussieht.

eine 260/280GTX wäre zudem noch schneller und dabei schöner, im gegensatz zur situation vor einigen jahren hat man heute wenigstens die wahl hardware die schön filtern kann(darf?) zu kaufen.

LovesuckZ
2008-09-28, 11:52:04
Dann soll er mit dem Meckern aufhören.

aths
2008-09-28, 12:45:17
Ich möchte nochmal hervorheben, dass das Alter der Spiele irrelevant ist. Einzig die Texturen sind von Relevanz. Ich habe heute wieder mit HL2 herumgespielt, das mit der Fakefactory-Texturmod rattenscharfe Tapeten auffährt. Das Flimmern mit einer Radeon (HD 4870) ist einfach grausig – ich kann so nicht spielen! Crysis (Warhead) fährt öft ähnlich fiese Texturen auf, legt aber noch eine Armada an Shadercode darüber. Die Folge ist ähnlich: Es macht großes Aua.

Ich bin echt gespannt, wann die zur Besinnung kommen. Die TMUs reichen doch jetzt aus, um wenigstens einen versteckten Schalter für maximale BQ einzubauen ...Aus meiner Sicht ist eine öffentliche Kritik in einem großen, einflussreichen deutschen Medium (hint, hint) schon deshalb erforderlich, damit sich die Grünen nicht wieder bemüßigt fühlen, den "Optimierungen" nachzueifern.

Und ATI müsste ja nur endlich mal die Filterverschlechterungen von den validen Optimierungen entkoppelt.

Wobei ich auch beim G80- (besser gesagt, G84 und G92-) HQ-Modus in WoW auf dem Boden durchaus noch Schimmrigkeit habe, solange das nicht mit 2x Supersampling geglättet wird.

Raff
2008-09-28, 14:34:24
Solange die Hälfte der Nutzer "nichts sieht" oder das Flimmern einfach leugnet (das sind die Wenigsten), wird sich leider ein Scheiß tun. Und dass ich fürs Meckern auf den Deckel bekomme, bedeutet nichts anderes als "Junge, das Problem ist nichtig". ;)

Aber weil ich so nett bin, erkläre ich gerne nochmal, warum ich mir eine HD 4870 gekauft habe: Ich fand sie äußerst interessant. Schnell und günstig – endlich wieder eine gescheite Ati-Karte. Und ich mag sie auch ... wenn ich nicht gerade so ein Flimmerspiel zocke. Sie hat nur dieses klitzekleine Problem gekoppelter "Optimierungen". Der Treiber nimmt einem immer mehr Kontrolle: AAA funktioniert in der Hälfte der Spiele nicht oder nur partiell, weil einfach auf Supersampling verzichtet wird.

Wobei ich auch beim G80- (besser gesagt, G84 und G92-) HQ-Modus in WoW auf dem Boden durchaus noch Schimmrigkeit habe, solange das nicht mit 2x Supersampling geglättet wird.

Ja, fiese Texturen ahoi. Diese "Schimmrigkeit" ist aber lächerlich im Vergleich mit A.I. Stell einfach mal Q + "Optimierungen" ein und leg noch 30% Flimmern drauf.

MfG,
Raff

robbitop
2008-09-28, 14:58:21
Warum schreibt ihr bei der PCGH nichtmal einen anständigen Artikel über dieses Problem?

Raff
2008-09-28, 14:59:20
Weil das 3DCenter seit gefühlten 2 Jahren dazu etwas schreibt. ;)

MfG,
Raff

Gast
2008-09-28, 16:10:44
Ich bin auch von einer 8800GT auf die HD4850 umgestiegen. Von der Performance her ist die HD4850 ein feines Kärtchen, vor allem weil sie leicht voltmodden und übertakten kann. Aber die Treiber von Ati sind echt aus der Steinzeit. Das fängt mit dem wirklich extremen Flimmern an ( spielt mal Devil may cry 4 ) und geht über Instabilitäten in einigen Games bis dahin, daß man bei vielen Games kein AA/AF über den Treiber erzwingen kann. Ich hatte vor der 8800GT eine 7900GT und muß leider sagen, die 7900GT war auf HQ ruhiger im Bild als die HD4850. Wenn Ati hier nicht bald etwas ändert, dann war dies defenitv meine letzte Ati-Karte.

Nicht das man mich hier falsch versteht, ich finde die Hardware des R770 sehr gut, aber das, was Ati mittels den Treibern daraus herausholt ist einfach grausig. Wenn man bei 3DC nicht so Ati-freundlich wäre, dann hätte man schon längst eine Artikel darüber verfasst und diesen bei Ati-Produkten, welche bei Geizhals gelistet sind, verlinkt.

Gast
2008-09-28, 16:10:51
Was ist denn das für ein Argument? Das 3DC ist kein Printmagazin.

PCGH_Raffael
2008-09-28, 16:48:43
Was ist denn das für ein Argument? Das 3DC ist kein Printmagazin.

Die PCGH auch nicht mehr allein. Der Online-Auftritt ist in den letzten Jahren um Dimensionen gewachsen. Und solch ein Artikel käme dann auch online – in direkter Konkurrenz zum 3DC.

MfG,
Raff

Gast
2008-09-28, 17:06:35
Die PCGH auch nicht mehr allein. Der Online-Auftritt ist in den letzten Jahren um Dimensionen gewachsen. Und solch ein Artikel käme dann auch online – in direkter Konkurrenz zum 3DC.


konkurrenz belebt das geschäft, also was spricht dagegen, beim 3dcenter tut sich ja leider nicht mehr viel.

akuji13
2008-09-30, 20:14:45
Ich habe heute wieder mit HL2 herumgespielt, das mit der Fakefactory-Texturmod rattenscharfe Tapeten auffährt. Das Flimmern mit einer Radeon (HD 4870) ist einfach grausig – ich kann so nicht spielen! Crysis (Warhead) fährt öft ähnlich fiese Texturen auf, legt aber noch eine Armada an Shadercode darüber. Die Folge ist ähnlich: Es macht großes Aua.

...und trotzdem spielst du Crysis und Warhead.
Deine Aussagen sind absolut unglaubwürdig und passen hinten und vorne nicht zusammen.

Du empfiehlst in einem anderen thread eine 200€ Grafikkarte für Crysis/Warhead...was in einer elendigen Flimmerorgie endet, egal ob NV oder ATI.
Das kannst du komischerweise aber (durch)spielen.

Auf der anderen Seite regst du dich (zurecht) über ATIs Filterqualität auf...irgendwie passt mir da die Gewichtung nicht.
Klar liegt das eine am Hersteller und das andere am Spiel, das Ergebnis ist aber letztlich gleich.

Vor allem ist mir immer noch nicht klar, warum du eine 4870 gekauft hast!?
Du wusstest doch sicher vor 99.9% aller user hier mehr über diese Karte und hast sie vermutlich auch viel eher testen können.
Warum wartest du da nicht auf GTX260/280?

Gast
2008-09-30, 20:37:26
Aus meiner Sicht ist eine öffentliche Kritik in einem großen, einflussreichen deutschen Medium (hint, hint) schon deshalb erforderlich, damit sich die Grünen nicht wieder bemüßigt fühlen, den "Optimierungen" nachzueifern.


Daumen nach oben.

Raff
2008-09-30, 23:11:16
Zeugs

Hallooo, es geht hier nicht um mich! Sondern darum, dass der Rest der zockenden Welt merkt, dass die Radeons minderwertig filtern! Erst dann wird sich etwas tun. Nicht, wenn sich 0,1 Prozent der Leute aufregen und der Rest es nicht sieht! Dass Nvidia bei der GF7 zum Handeln gezwungen wurde liegt primär daran, dass der NV4x/G7x-Treiberstandard noch viel schlimmer aussah/aussieht – und zwar in so gut wie jedem Spiel. Erst wenn die Masse sieht, entsteht für Ati/AMD eine Gefahr. Ihr Komiker haltet mit eurer Kritik an den Kritkern standhaft dagegen.

MfG,
Raff

Coda
2008-09-30, 23:19:33
Du glaubst doch nicht ernsthaft, dass irgendjemand der in die Grabenkriege verwickelt ist dir abnimmt, dass du nicht einfach nur gegen ATI bashen willst.

Sinnlos. Wir müssen alle erstmal wieder ordentlich die Augen rausgeflimmert bekommen bevor sich da was tut. Von ATI hat sich wegen HL² auch nie wieder jemand gemeldet auf Beyond3D.

Die Texturen in Warhead sind einfach nur unfassbar schlimm. Gut dass das im allgemeinen Flimmern des Spiels untergeht, sonst müsste man echt kotzen.

Raff
2008-09-30, 23:26:33
Ich find's ja schon beruhigend, dass es noch Leute wie dich gibt, die die Gülle angemessen ankreiden. Bei der geballten Ignoranz, die in diversen Foren tippt, kann einem schon mal das Kotzen kommen. Dranbleiben!

MfG,
Raff

vinacis_vivids
2008-09-30, 23:51:37
Ich hab mir meiner einzelnen HD4870 jetzt mal World of Warcraft Trial gespielt (bis lvl 10) 1920x1200xAAAx8AAx16AF. Das flimmern fällt nicht auf. Ich würd sogar sagen, dass es nicht anders mit meiner alten 8800GT aussah.

Silverbuster
2008-10-01, 00:04:28
Jetzt muss ich mal blöd fragen... ich hab mir heute mein 4850 bestellt, und war eigentlich am überlegen ob es nicht eine 9800GTX+ werden sollte, hab mich dann aber aufgrund der besseren Performance unter 8xAA für die ATI entschieden.
Meine Frage jetzt, würde man in einem kommenden ATI Treiber die Möglichkeit haben, besseres Filtering einzustellen, würde dann die Leistung der 4850 unter 8xAA drastisch sinken? Denn dann wäre ja meine Entscheidung eher dämlich gewesen.
Bin ja eigentlich nicht so empfindlich und insgesamt ist mir Leistung wichtiger, aber wenn man die Filter bei ATI verbessern würde, sie auf nVida Niveau bringen würde und die Karte dann langsamer wäre, würde mich das sehr ärgern.

Und die zweite Frage, kann ich bei den AA Einstellungen durch einschalten von z.B. Narrow Tent oder Egge-detect das flimmern vermindern?

akuji13
2008-10-01, 00:09:02
Bei der geballten Ignoranz, die in diversen Foren tippt, kann einem schon mal das Kotzen kommen.

Bei deiner Scheinheiligkeit kommt mir definitiv das Kotzen.
Flimmern ist scheisse, trotzdem tust du es dir an.
DU hast eine ATI 4870 gekauft, unterstützt damit den Hersteller der
dafür verantwortlich ist und heulst jetzt hier rum, obwohl eigentlich JEDEM vorher klar war, das die Filterqualität nicht besser werden würde.

Soll das komisch sein?

Nazar
2008-10-01, 00:28:23
Ich möchte nochmal hervorheben, dass das Alter der Spiele irrelevant ist. Einzig die Texturen sind von Relevanz. Ich habe heute wieder mit HL2 herumgespielt, das mit der Fakefactory-Texturmod rattenscharfe Tapeten auffährt. Das Flimmern mit einer Radeon (HD 4870) ist einfach grausig – ich kann so nicht spielen! Crysis (Warhead) fährt öft ähnlich fiese Texturen auf, legt aber noch eine Armada an Shadercode darüber. Die Folge ist ähnlich: Es macht großes Aua.

Ich bin echt gespannt, wann die zur Besinnung kommen. Die TMUs reichen doch jetzt aus, um wenigstens einen versteckten Schalter für maximale BQ einzubauen ...

MfG,
Raff

Na baust Du jetzt auch mit an dem bösen AF Wolkenkratzer?

Zuerst hies es "ja hier wird auf hohem Niveau gemotzt; so schlimm ist denn nun auch nicht aber halt zu sehen".

Nun heisst es "boah ey ich bekomme Augenkrebs, da werden ja Blinde wieder sehend".

Hat der grüne Riese ein paar Scheine rüberwachsen lassen, um das Thema wieder von "Minimücke" zu "Megaelefant" aufzublasen?

Bisher habe ich diese angeblichen "RIESENGROßE" Flimmerorgien noch nie sehen können!
Wo ist dieses Mörderflimmern, welches jeglichen Sehnerv sofort und unwiederbringlich abtötet?

Bisher konnte ich nur feststellen das ATI die Texturen ein wenig zu scharf darstellt und NV so weich, dass der Textureverlauf schon vor den Füßen verloren geht.
So What?
Flimmer ist scheisse aber matschige Texturen supergut?
Wo sehen denn die Bodentexturen auf der NV noch gut aus?
Wer ist denn hier blind?!

Sorry aber so langsam muss man den Gerüchten Glauben schenken, dass NV mit Geld für Presse sorgt!

vinacis_vivids
2008-10-01, 00:40:32
Jetzt muss ich mal blöd fragen... ich hab mir heute mein 4850 bestellt, und war eigentlich am überlegen ob es nicht eine 9800GTX+ werden sollte, hab mich dann aber aufgrund der besseren Performance unter 8xAA für die ATI entschieden.


Probieren geht übers studieren. Da du kein Superexperte ala Raff bist, wirste nix merken =)

Bumsfalara
2008-10-01, 00:43:59
Bisher konnte ich nur feststellen das ATI die Texturen ein wenig zu scharf darstellt und NV so weich, dass der Textureverlauf schon vor den Füßen verloren geht.
So What?
Flimmer ist scheisse aber matschige Texturen supergut?
Wo sehen denn die Bodentexturen auf der NV noch gut aus?
Wer ist denn hier blind?!
ATI unterfiltert, deswegen "erscheinen" Texturen vermeindlich schärfer. Sind sie aber nicht, da wird einfach nur nicht richtig gefiltert.

Den Nvidias kann man die Matschtexturen wie bei jeder anderen Grafikkarte auch durch AF austreiben. Zur Zeit ist es einfach so, dass die ATI sehr stark zum Flimmern neigen. Das sehe sogar ich und ich bin wahrlich nicht empfindlich gegen sowas.

Aber die Aussage, Nvidia "zermatscht" die Texturen kann und darf man so einfach nicht stehen lassen. Auch darf man die aktuellen Filtermethoden von ATI nicht gutheißen oder sogar als besser darstellen, sonst zieht nVidia demnächst gleich.

Leistung ist mehr als genug da um Hochqualitativ zu filtern, nur leider interessiert sich der 08/15 Zocker mehr für Benchmarkbalken als für Bildqualität.

vinacis_vivids
2008-10-01, 00:54:26
Hier mal Crysis auf ner ATI Karte(n)
Extra aufgenommen auf der besagten stelle. (AI Standard)
http://www.pcgameshardware.de/screenshots/medium/2008/07/E6691829-1396-649D-F1AEDBF91E8857D5A.I._Off_-_RV770.png
http://rapidshare.com/files/132045997/crysis64_4AA16AF.avi
http://www.pcgameshardware.de/aid,652945/Test/Benchmark/Duell_der_Texturfilter_Radeon_gegen_Geforce/?page=2

Aquaschaf
2008-10-01, 01:06:48
und geht über Instabilitäten in einigen Games bis dahin, daß man bei vielen Games kein AA/AF über den Treiber erzwingen kann.

Instabilitäten bei welchen Spielen und welche Spiele bei denen sich kein AA/AF erzwingen läßt? Beachten: je nach Spiel kann AI on Voraussetzung dafür sein. Die Filterqualität ist riesiger und valider Kritikpunkt. Aber Instabilitäten habe ich seit Jahren keine auf ATI-Treiber zurückführen können. Da würde ich ehrlich gesagt mal schauen ob mit deinem System alles stimmt..

Bumsfalara
2008-10-01, 01:30:22
Hier mal Crysis auf ner ATI Karte(n)
Extra aufgenommen auf der besagten stelle. (AI Standard)
http://www.pcgameshardware.de/screenshots/medium/2008/07/E6691829-1396-649D-F1AEDBF91E8857D5A.I._Off_-_RV770.png
http://rapidshare.com/files/132045997/crysis64_4AA16AF.avi
http://www.pcgameshardware.de/aid,652945/Test/Benchmark/Duell_der_Texturfilter_Radeon_gegen_Geforce/?page=2
Das ist ja schön und gut dass du hier ne Aufnahme von Crysis machst, aber ohne Vergleich bringt das nicht allzuviel.

Das Video flimmert auf jeden Fall sehr stark. Interessant wäre ein direkter Vergleich gegen eine x1900 oder ähnliches mit HQ-AF und AI-Off (sofern die neuen Treiber denen nicht das gute Filtern ausgetrieben haben).
Oder auch ein Vergleich gegen eine nVidia Karte wäre angebracht.

Silverbuster
2008-10-01, 01:52:20
Probieren geht übers studieren. Da du kein Superexperte ala Raff bist, wirste nix merken =)

Nun ja.... ich merke das eine oder andere schon, wenn auch nicht so schlimm wie es meist dargestellt wird. Ein blödes Beispiel, da ich grade KOTR2 mal wieder angespielt habe, meine Uralt 6800 hatte deutlich besseres AF geliefert als meine jetzige 3850, obwohl ich AI ausgestellt habe und Mip Map auf beste Quailtät gestellt habe.
Auch das AA sieht meiner Meinung nach auf nVidia Karten besser aus, jedoch suche ich das "starke" flimmern bis heute. Sicher, hier und da sieht man es und es sieht wirklich nicht schön aus, aber insgesamt ist es ertragbar und keineswegs so schlimm wie es hier von einigen dargestellt wird, sonst hätte ich jetzt nicht wieder eine ATI Karte bestellt.

Gast
2008-10-01, 02:00:43
Meine Frage jetzt, würde man in einem kommenden ATI Treiber die Möglichkeit haben, besseres Filtering einzustellen, würde dann die Leistung der 4850 unter 8xAA drastisch sinken?

AA hat mit AF nichts zu tun;)

Silverbuster
2008-10-01, 02:06:52
AA hat mit AF nichts zu tun;)

:uhammer2: Pff... hab mich da vertan.

vinacis_vivids
2008-10-01, 03:02:05
Auch das AA sieht meiner Meinung nach auf nVidia Karten besser aus, jedoch suche ich das "starke" flimmern bis heute.

Ich glaub du verwechselst da etwas :rolleyes: Die Kantenglättung und auch der Filter waren bei der 6800Ultra extrem schlecht.

Blaire
2008-10-01, 03:17:05
Ich glaub du verwechselst da etwas :rolleyes: Die Kantenglättung und auch der Filter waren bei der 6800Ultra extrem schlecht.

Was war daran schlechter? 4xAA war bei beiden Ati/NV identisch, Ati bot noch 6xMSAA , NV hatte dafür 8xSAA
Außerdem bot Nvidia schon damals an, die Optimierungen abzuschalten, bei Atis X800 war das damals nicht möglich über den Treiber...

Silverbuster
2008-10-01, 03:20:11
Ich glaub du verwechselst da etwas :rolleyes: Die Kantenglättung und auch der Filter waren bei der 6800Ultra extrem schlecht.

Nein, ich verwechsel da nichts, zumindest in KOTR 2 sah es am Anfang in der Station auf der 6800 deutlich besser aus. Grade der Raum mit dem Gitter auf dem Boden. Die Texturen waren damals auf der 6800 zwar nicht ganz so scharf, aber bei der 3850 kann man schwache übergänge sehen sowie leichtes ... naja.... flimmern ist es nicht direkt, aber anders kann ich es nicht umschreiben. Bei der 6800 war es etwas matschiger, sah aber subjektiv für mich besser aus da ich weder Übergänge noch dieses "flimmern" hatte.
War auch nur ein einziger Vergleich, da ich KOTR 2 heute grade mal installiert hatte um es noch mal zu spielen, und ich war etwas erschrocken wie der Boden aussah. So mies hatte ich das nicht in Erinnerung.

@Blaire
Es geht nicht um AA sondern um AF :wink:

grobi
2008-10-01, 09:16:38
@Silverbuster

Hattest du damals vielleicht einen CRT und dadurch einen völlig anderen Bildeindruck?

Raff
2008-10-01, 09:27:43
Nazar, bevor du mir zum 100. Mal ans Bein pisst: Hattest du jemals den Vergleich mit einer Geforce 8/9/10? Offenbar nicht.

MfG,
Raff

Gast
2008-10-01, 13:02:58
Und die zweite Frage, kann ich bei den AA Einstellungen durch einschalten von z.B. Narrow Tent oder Egge-detect das flimmern vermindern?ED bringt gegen Shader- und Texturgeflimmer nix, wirkt ja nicht aufs ganze Bild sondern nur auf Kanten. Narrow und Wide Tent hingegen helfen deutlich.
Genau wie auch Quincunx und 4x9tap :weg:

Mr. Lolman
2008-10-01, 13:30:08
Nazar, bevor du mir zum 100. Mal ans Bein pisst: Hattest du jemals den Vergleich mit einer Geforce 8/9/10? Offenbar nicht.

MfG,
Raff

Dafür hab ich in der Arbeit mittlerweile eine 640MB 8800GTS @650/950MHz. Und ja, das AF ist im default Modus besser, aber nur sehr minimal* (V.a. muss man bedenken, dass sich auch die anisotrope Abtastoptimierung aktiviert, sobald man übern Treiber AF einstellt. D.h. Treiberdefault ist Q+aniso.Opt.)

*Was sich durch das immernoch existente Begrenzungslinienproblem und die enorme Flimmrigkeit bei negativem LOD imo mehr als ausgleicht...

Damit will ich ATi nicht in Schutz nehmen, sondern nur konstatieren, dass die default BQ beider IHVs ziemlich gleichwertig ist. Gewettert hab ich damals, als das noch nicht der Fall war, und deswegen überall verzerrte Benchmarks entstanden sind. Lässt man die Treibereinstellungen auf Defaultwerten, ist die BQ mittlerweile sehr ähnlich.

Besser könnt sie allerdings immernoch sein, denn gerade mit AIoff/high+deaktivierte Optimierungen hat ein R580, je nach App., tw. sichtbar besseres Bild produziert, als ein RV770 - was imo ein Unding ist.

Gast
2008-10-01, 13:44:56
(V.a. muss man bedenken, dass sich auch die anisotrope Abtastoptimierung aktiviert, sobald man übern Treiber AF einstellt. D.h. Treiberdefault ist Q+aniso.Opt.)

nur hat diese seit G80 keine wirkung mehr, bei NV gibt es seit G80 nur mehr "brilinear", keine anderen optimierungen mehr.


Damit will ich ATi nicht in Schutz nehmen, sondern nur konstatieren, dass die default BQ beider IHVs ziemlich gleichwertig ist.

sind sie eben nicht, selbst AI-off ist meistens noch minimal schlechter als NVs default.

vinacis_vivids
2008-10-01, 13:53:32
sind sie eben nicht, selbst AI-off ist meistens noch minimal schlechter als NVs default.

Beweis?

Gast
2008-10-01, 13:55:32
Meine Frage jetzt, würde man in einem kommenden ATI Treiber die Möglichkeit haben, besseres Filtering einzustellen, würde dann die Leistung der 4850 unter 8xAA drastisch sinken?


die leistung insbesondere mit AF würde insgesamt sinken, unabhängig vom eingestellten AA-modus. ob man nun mit 8xAA und ordentlichem filter schneller oder langsamer als NV wäre kann man schlecht vorhersehen und hängt in erster linie natürlich auch von den verwendeten karten ab.

AI-off ist zumindest ein indiz, aber da auch dort seit R6xx nicht alle optimierungen abgestellt werden wäre der einbruch mit ordentlichem filter noch größer

allerdings musst du dir da keine gedanken machen, ATI wird die HD4xxx-karten ohnehin nie besser filtern lassen (falls das überhaupt möglich ist und die probleme nicht sogar teilweise durch einsparungen in hardware bedingt sind)

Und die zweite Frage, kann ich bei den AA Einstellungen durch einschalten von z.B. Narrow Tent oder Egge-detect das flimmern vermindern?

edge-detect bringt überhaupt nichts, da es nur an kanten wirkt. die Tent-filter verringern in erster linie leichtes flimmern minimal, haben gegen starkes flimmern aber keine chance. wenn flimmern mal da ist lässt es sich kaum durch postprocessing beheben. genausowenig wie man bei NVs quincux damals den schärfeverlust nicht durch negatives LOD ausgleichen konnte ohne zumindest leichtes flimmern zu erhalten.

Raff
2008-10-01, 13:56:53
Dafür hab ich in der Arbeit mittlerweile eine 640MB 8800GTS @650/950MHz. Und ja, das AF ist im default Modus besser, aber nur sehr minimal* (V.a. muss man bedenken, dass sich auch die anisotrope Abtastoptimierung aktiviert, sobald man übern Treiber AF einstellt. D.h. Treiberdefault ist Q+aniso.Opt.)

*Was sich durch das immernoch existente Begrenzungslinienproblem und die enorme Flimmrigkeit bei negativem LOD imo mehr als ausgleicht...

Damit will ich ATi nicht in Schutz nehmen, sondern nur konstatieren, dass die default BQ beider IHVs ziemlich gleichwertig ist. Gewettert hab ich damals, als das noch nicht der Fall war, und deswegen überall verzerrte Benchmarks entstanden sind. Lässt man die Treibereinstellungen auf Defaultwerten, ist die BQ mittlerweile sehr ähnlich.

Besser könnt sie allerdings immernoch sein, denn gerade mit AIoff/high+deaktivierte Optimierungen hat ein R580, je nach App., tw. sichtbar besseres Bild produziert, als ein RV770 - was imo ein Unding ist.

D'accord. Dass die BQ mit Treiberdefault vergleichbar ist, bestreitet ja niemand ernsthaft. Ich bin anhand der mir bekannten Spiele aber der Meinung, dass NV-Quality in den meisten Fällen besser aussieht als A.I. Standard. Relevant ist das aber kaum, denn Flimmern und Banding sind eben Flimmern und Banding ... etwas, das bei HQ nicht auftritt (Warhead ausgenommen :mad: ).

MfG,
Raff

Mr. Lolman
2008-10-01, 13:58:13
nur hat diese seit G80 keine wirkung mehr, bei NV gibt es seit G80 nur mehr "brilinear", keine anderen optimierungen mehr.


Falsch.


177.98, 16xAF, links: Q, rechts Q+aniso Opt.

http://www.abload.de/thumb/q6o1.png (http://www.abload.de/image.php?img=q6o1.png) http://www.abload.de/thumb/q_aniso_optc6c.png (http://www.abload.de/image.php?img=q_aniso_optc6c.png)

Raff
2008-10-01, 14:01:00
Beweis?

Das wird in 5 Spielen stimmen, in 5 anderen nicht. Die Unterschiede sind minimal. Beides schaut nicht optimal aus. Ein Problem ist es aber nur bei der Radeon, denn bessere BQ als mit A.I. Off gibt's nicht. Und: Ohne A.I. kein Crossfire.

MfG,
Raff

Mr. Lolman
2008-10-01, 14:09:54
D'accord. Dass die BQ mit Treiberdefault vergleichbar ist, bestreitet ja niemand ernsthaft. Ich bin anhand der mir bekannten Spiele aber der Meinung, dass NV-Quality in den meisten Fällen besser aussieht als A.I. Standard. Relevant ist das aber kaum, denn Flimmern und Banding sind eben Flimmern und Banding ... etwas, das bei HQ nicht auftritt (Warhead ausgenommen :mad: ).

MfG,
Raff

Kann schon sein. Q ist aber nunmal nicht treiberdefault und ATi hat ja außerdem noch die anderen genannten Vorteile. Am Sanyo PLV Z5 spiel ich Crysis bspw nur mehr mit 1920x1080, LOD-1 und POM. Und dank dem negativem LOD, und ATis bekanntermassen geringerer Flimmerneigung bei einem solchen ist die BQ (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6795048#post6795048) in einem solchen Setting eindeutig besser als bei NV.

Bei diversen Rennspielen, lässt sich, wie gesagt ähnliches beobachten.



Ich streite auch nicht ab, dass in den allermeisten Fällen die mögliche BQ bei NV insgesamt höher ist, aber manchmal kommts mir schon so vor, als würde aus einer Mücke ein Elefant gemacht werden. Nochmal zu deinem PCGH Crysis AF-Vergleich (mit POM). AIoff ist bei deinem Beispiel unschärfer als AFoff und wird von dir als besser bezeichnet. Ich kann mir vorstellen, dass bei AIoff einfach garkein applikationsseitiges AF mehr appliziert wird (zB wegen Abschaltung von appspezifischen Optimierungen unzo), während "AFoff" - was bei ATi ja mit AppAF gleichzusetzen ist - von Crysis offensichtlich doch appseitiges AF eingesetzt wird.

Nun mutet imo die Quintessenz eines AF-Vergleichs, gerade das Bild am Besten zu bezeichnen, wo anscheinend garkein AF-appliziert wird, doch ein bisschen paradox an, oder?

V2.0
2008-10-01, 14:14:40
Q nicht Treiberdefault bei NV? Seit wann?

Mr. Lolman
2008-10-01, 14:17:34
Q nicht Treiberdefault bei NV? Seit wann?

Wohl schon länger. Hat aber wiedermal niemand bemerkt. Eine zeitlang war bei deaktiviertem AF autoimatisch die trilineare Optimierung aktiv - beim 177.98 ist das nicht mehr der Fall - und sobald man AF übern Treiber einstellt, aktiviert sich automatisch die anisotrope Abtastoptimierung.

D.h. Default ist Q und sobald man irgendeinen AF-Wert einstellt ists Q+aniso.Opt.


EDIT: Noch schlimmer!

Die Defaultsettings hergestellt (mit dem Button 'wiederherstellen') und schon ist die trilineare Optimierung aktiv. Wenn man nun einen AF-Wert einstellt ist zusätzlich auch die anisotrope Abtastoptimierung aktiv.

D.h.: Default ist beim 177.98 Q + tri.Opt. und sobald man irgendeinen AF-Wert einstellt ists Q + tri.Opt + aniso.Opt + Clamp

Gast
2008-10-01, 14:26:12
Wohl schon länger. Hat aber wiedermal niemand bemerkt. Eine zeitlang war bei deaktiviertem AF autoimatisch die trilineare Optimierung aktiv - beim 177.98 ist das nicht mehr der Fall - und sobald man AF übern Treiber einstellt, aktiviert sich automatisch die anisotrope Abtastoptimierung.

D.h. Default ist Q und sobald man irgendeinen AF-Wert einstellt ists Q+aniso.Opt.


EDIT: Noch schlimmer!

Die Defaultsettings hergestellt (mit dem Button 'wiederherstellen') und schon ist die trilineare Optimierung aktiv. Wenn man nun einen AF-Wert einstellt ist zusätzlich auch die trilineare Optimierung aktiv.

D.h.: Default ist Q + tri.Opt. und sobald man irgendeinen AF-Wert einstellt ists Q + tri.Opt + aniso.Opt + Clamp
Das kommt natürlich darauf an, wie man das umstellt. Wenn man den nHancer benutzt, passiert das nicht.

Mr. Lolman
2008-10-01, 14:27:50
Das kommt natürlich darauf an, wie man das umstellt. Wenn man den nHancer benutzt, passiert das nicht.

Stimmt. Für HW-Tests gilt das aber nicht. (Wenn man die ATT nutzt kann man auch diverse Registry Keys umstellen.) ;)

vinacis_vivids
2008-10-01, 14:30:15
Das wird in 5 Spielen stimmen, in 5 anderen nicht. Die Unterschiede sind minimal. Beides schaut nicht optimal aus. Ein Problem ist es aber nur bei der Radeon, denn bessere BQ als mit A.I. Off gibt's nicht. Und: Ohne A.I. kein Crossfire.

MfG,
Raff

Stellt sich die Frage wieso AI. Off erwähnt wird. Die AI Optimierungen betreffen den Filter überhaupt nicht.
Hab jetzt zusätzlich zur HD4870 eine X1950xtx hier. Kann aber keinerlei Unterschiede feststellen.

Mr. Lolman
2008-10-01, 14:31:12
Stellt sich die Frage wieso AI. Off erwähnt wird. Die AI Optimierungen betreffen den Filter überhaupt nicht.
Hab jetzt zusätzlich zur HD4870 eine X1950xtx hier. Kann aber keinerlei Unterschiede feststellen.

Die Unterschiede sind auch nur minimal - aber dennoch vorhanden. Bei Just Cause sieht mans zB bei den Blättern.

=Floi=
2008-10-01, 14:33:51
drehst du es dir da nicht ein wenig zurecht mit deinen einstellungen? Ich meine für dich ist das ganz toll und brauchbar, aber nicht um die BQ vergleichen zu können.
Ich könnte jetzt auch SLI und SSAA anführen bei NV und auf die beste bq pochen, aber das ist beides eher etwas für freaks und experten.

edit
diese optimierung war leider bisher IMMER aktiv und die musste man bisher immer nachträglich ausschalten. Das ist sicherlich nicht toll, aber zumindest kann ich es ausschalten! Leider flimmert ohne diese optimierung zB. GTR2 extrem.

Mr. Lolman
2008-10-01, 14:39:31
drehst du es dir da nicht ein wenig zurecht mit deinen einstellungen? Ich meine für dich ist das ganz toll und brauchbar, aber nicht um die BQ vergleichen zu können.

Du meinst die Übersteuerung am Beamer? Das sollte kein pauschalisierende Aussage sein, sondern einfach ein Beispiel für eben die Tatsache, dass NV, je nach präferenzierten Settings, nicht immer und automatisch überall besser ist.

Per default schonmal garnicht und bei maximal möglichen Settings wohl meistens schon, aber eben nicht immer. War also nur ein Beispiel, k?

Gast
2008-10-01, 16:04:20
Stellt sich die Frage wieso AI. Off erwähnt wird. Die AI Optimierungen betreffen den Filter überhaupt nicht.



natürlich, AI betrifft praktisch nur die filteroptimierungen, andere dinge kann man ja recht schwer optimieren ;)

Black-Scorpion
2008-10-01, 16:55:06
natürlich, AI betrifft praktisch nur die filteroptimierungen, andere dinge kann man ja recht schwer optimieren ;)
Falsch.
A.I. betrifft alle Optimierungen gute wie schlechte.

Gast
2008-10-01, 17:58:55
Und deshalb sollte man AI Standart immer nur gegen Nvidia Q benchen. HQ ist von der BQ wesentlich besser als AI Standart. Wer das nicht eingesteht ist blind.

Gast
2008-10-01, 19:01:26
*Was sich durch das immernoch existente Begrenzungslinienproblem und die enorme Flimmrigkeit bei negativem LOD imo mehr als ausgleicht...


Ich wüsste nicht das Ati Karten CLAMP hätten... gezackelte Begrenzungslinien gibts auch auf Ati Karten nur nicht so stark. Aber bei NV kann man sich per Clamp im Treiber helfen.

Mr. Lolman
2008-10-01, 19:07:15
Ich wüsste nicht das Ati Karten CLAMP hätten... gezackelte Begrenzungslinien gibts auch auf Ati Karten nur nicht so stark. Aber bei NV kann man sich per Clamp im Treiber helfen.

Womit sie dann unscharf werden. Das ganze wurde schon zigmal durchgekaut...

Gast
2008-10-01, 19:11:18
Womit sie dann unscharf werden. Das ganze wurde schon zigmal durchgekaut...

Wurde es , aber NV bietet nunmal die Treibermöglichkeit an, ich hab schon von einigen Ati Besitzern gelesen die sich sowas auch im Catalyst wünschen würden da Renngames dadurch weniger flimmern.

Mr. Lolman
2008-10-01, 19:14:59
ich hab schon von einigen Ati Besitzern gelesen die sich sowas auch im Catalyst wünschen würden da Renngames dadurch weniger flimmern.

Tatsächlich? Schätze, dass es helfen könnte das Mipmap Detail Level eine Stufe runterzuschalten.

Gast
2008-10-01, 19:39:15
Tatsächlich? Schätze, dass es helfen könnte das Mipmap Detail Level eine Stufe runterzuschalten.
Normalerweise werden ja nur bestimmte Texturen mit negativen LOD-Bias gerendert. Wenn mich nicht alles täuscht ist das Problem bei GTR2 ja in erster Linie die Rennstrecke selber. Wenn man das LOD-Bias im Treiber umstellt wird ja alles matschiger, auch die Autos usw.

Und wie gesagt, bei mit ATI flimmert GTR2 ja auch aufgrund des negativen LOD (wenn auch weniger stark als bei Nvidia), da wäre man mit Clamp besser beraten. Mit 16xAF ist es auch wieder scharf genug.

Einige Fanstrecken verwenden sogar überhaupt keine Mipmaps, da ist es sehr nützlich, dass es bei Nvidia die Möglichkeit gibt, Mipmapping zu erzwingen. Oder gibt es das bei ATI mittlerweile auch?

Black-Scorpion
2008-10-01, 19:50:19
Normalerweise werden ja nur bestimmte Texturen mit negativen LOD-Bias gerendert. Wenn mich nicht alles täuscht ist das Problem bei GTR2 ja in erster Linie die Rennstrecke selber. Wenn man das LOD-Bias im Treiber umstellt wird ja alles matschiger, auch die Autos usw.

Und wie gesagt, bei mit ATI flimmert GTR2 ja auch aufgrund des negativen LOD (wenn auch weniger stark als bei Nvidia), da wäre man mit Clamp besser beraten. Mit 16xAF ist es auch wieder scharf genug.

Einige Fanstrecken verwenden sogar überhaupt keine Mipmaps, da ist es sehr nützlich, dass es bei Nvidia die Möglichkeit gibt, Mipmapping zu erzwingen. Oder gibt es das bei ATI mittlerweile auch?
Er meinte doch Mipmap Detail Level und nicht LOD Bias.

Mr. Lolman
2008-10-01, 19:51:47
Die Option 'Mipmap Detail Level' ist nicht mit LOD-Bias gleichzusetzen. Denn tatsächlich wird beim Mipmapübergang bloß die kleinere Mipmap stärker gewichtet. Ist natürlich nur sinnvoll, bei Texturen mit leicht negativem LOD-Bias.


Andererseits hat man ja bei NV das Problem bei geclampten Bias, dass die Seitenlinien dann unscharf werden, weswegen man erst wieder SSAA reinknallen muss. Imo bräuchte man einfach 32 (oder gar 64?) AF, wo der Leistungsverlust wohl aber auch in keinem guten Verhältnis zum BQ-Gewinn steht. Außerdem (und da geh ich mit den LFS-Machern konform) find ich negativen LOD-Bias zT durchaus sinnvoll...

Bei SSAAA sowieso (weil da keine automatische LOD-Anpassung stattfindet), und im Grunde genommen eigentlich bei Alphatests generell. Klar werden die dann flimmriger, aber irgendwie siehts m.E. auch natürlicher aus. :eek:


*darauf wart, dass ich von Coda und aths für die Aussage eine am Deckel bekomm*

Gast
2008-10-01, 20:03:37
Andererseits hat man ja bei NV das Problem bei geclampten Bias, dass die Seitenlinien dann unscharf werden, weswegen man erst wieder SSAA reinknallen muss. Imo bräuchte man einfach 32 (oder gar 64?) AF, wo der Leistungsverlust wohl aber auch in keinem guten Verhältnis zum BQ-Gewinn steht. Außerdem (und da geh ich mit den LFS-Machern konform) find ich negativen LOD-Bias zT durchaus sinnvoll...


Saubere Begrenzungslinien gibts auch bei Ati nicht daher ist das Thema eigentlich sinnlos zu diskutiern. Nvidia hat Clamp und SSAA , auf Ati Karten hat man keine Wahl und muss sich das schönreden.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6549626&postcount=47

Mr. Lolman
2008-10-01, 20:09:00
Saubere Begrenzungslinien gibts auch bei Ati nicht daher ist das Thema eigentlich sinnlos zu diskutiern. Nvidia hat Clamp und SSAA , auf Ati Karten hat man keine Wahl und muss sich das schönreden.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6549626&postcount=47

Das Beispiel muss man sich wirklich nicht schönreden. Nur schade, dass es mieskomprimierte JPGs sind.

Ronny145
2008-10-01, 21:00:00
Das Beispiel muss man sich wirklich nicht schönreden. Nur schade, dass es mieskomprimierte JPGs sind.


Die Bilder sind von mir. Sieht eigentlich genauso aus mit PNGs. Aber hier sind welche.

http://www.abload.de/thumb/1r9b.png (http://www.abload.de/image.php?img=1r9b.png)http://www.abload.de/thumb/2o5s.png (http://www.abload.de/image.php?img=2o5s.png)http://www.abload.de/thumb/3dte.png (http://www.abload.de/image.php?img=3dte.png)http://www.abload.de/thumb/4897.png (http://www.abload.de/image.php?img=4897.png)

AckytheG
2008-10-02, 03:15:47
Tatsächlich? Schätze, dass es helfen könnte das Mipmap Detail Level eine Stufe runterzuschalten.
Das tut es seit R600 leider nicht mehr.
Ich hab den Detail-Level hier auf einer HD3850 schon um mehrere Stufen gesenkt - dann hatte ich ein matschiges Bild und trotzdem Bildflimmern...

Auf einem R520 lief das noch wunderbar, der hat generell weniger geflimmert.
Wenn man beim AF aber an den notwendigen Samples spart, hilft es wohl auch nicht mehr viel die Mips unterschiedlich zu gewichten.

...Imo bräuchte man einfach 32 (oder gar 64?) AF, wo der Leistungsverlust wohl aber auch in keinem guten Verhältnis zum BQ-Gewinn steht...
Durch die Adaptivität des AF dürfte sich der Leistungsverlust eigentlich in Grenzen halten.
Das Problem sind hier sicher eher die notwendigen Veränderungen an der Hardware, die wohl nach Meinung der Designer in keinem Verhältnis zum Bildqualitätsgewinn stehen.
64-faches AF wäre für mich der Kaufanreiz schlechthin für eine Graka - sofern aber auch ordentlich gefiltert wird...

Mr. Lolman
2008-10-02, 09:46:29
Das tut es seit R600 leider nicht mehr.
Ich hab den Detail-Level hier auf einer HD3850 schon um mehrere Stufen gesenkt - dann hatte ich ein matschiges Bild und trotzdem Bildflimmern...

Auf einem R520 lief das noch wunderbar, der hat generell weniger geflimmert.
Wenn man beim AF aber an den notwendigen Samples spart, hilft es wohl auch nicht mehr viel die Mips unterschiedlich zu gewichten.

Ich glaub eher, dass der Samplesparmechanismus adaptiv arbeitet und bei unschärferen Mipmapübergängen noch mehr spart.


Durch die Adaptivität des AF dürfte sich der Leistungsverlust eigentlich in Grenzen halten.

Denkt man. Tatsächlich ist der Sprung von 8xAF auf 16xAF schon nicht ganz günstig. Bei 64xAF hat man dann schon bis zu 512 Samples/Pixel.


Das Problem sind hier sicher eher die notwendigen Veränderungen an der Hardware, die wohl nach Meinung der Designer in keinem Verhältnis zum Bildqualitätsgewinn stehen.
64-faches AF wäre für mich der Kaufanreiz schlechthin für eine Graka - sofern aber auch ordentlich gefiltert wird...

ACK.

Gast
2008-10-02, 20:32:11
Denkt man. Tatsächlich ist der Sprung von 8xAF auf 16xAF schon nicht ganz günstig. Bei 64xAF hat man dann schon bis zu 512 Samples/Pixel.


wo? bei meiner karte ist es jedenfalls so gut wie egal ob ich 8x oder 16x einstelle.

jede weitere stufe kostet prozentuell immer weniger leistung.

Coda
2008-10-02, 23:36:52
Ich glaub eher, dass der Samplesparmechanismus adaptiv arbeitet und bei unschärferen Mipmapübergängen noch mehr spart.
Sicher nicht. Sowas kann der Filter der GPU unmöglich wissen.

Mr. Lolman
2008-10-03, 08:25:27
wo? bei meiner karte ist es jedenfalls so gut wie egal ob ich 8x oder 16x einstelle.

jede weitere stufe kostet prozentuell immer weniger leistung.

Bei Crysis ist AF tw. ziemlich teuer.

Sicher nicht. Sowas kann der Filter der GPU unmöglich wissen.

Aber bei gleicher Sampleanzahl müsste ja bei stärkerer Gewichtung der kleineren Mip eine Bildberuhigung stattfinden, oder?

Gast
2008-10-03, 17:58:34
Bei Crysis ist AF tw. ziemlich teuer.



ob 8x oder 16x macht allerdings kaum einen unterschied mehr.

mittlerweile ist es zwar so, dass der einbruch von 1x auf 2x noch geringer ist, da die karten ihre füllrate ohne AF garnicht ausschöpfen können, von 4x auf 8x ist der unterschied aber schon eher gering und von 8x auf 16x noch geringer.

Unyu
2008-10-03, 18:24:40
Bei Crysis ist AF tw. ziemlich teuer.

Ziemlich pauschal formuliert.

Welche Karte meinst du damit?

sulak
2008-10-03, 18:44:15
Bei Crysis ist AF tw. ziemlich teuer.


Ziemlich pauschal formuliert.

Welche Karte meinst du damit?

Ich bin so frei und poste mal zur Unterstützung mein Ergebnis hierzu:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6823795&postcount=75

System: Q6600@3GHz / XP32SP2 / GTX260 / 4GBRAM / FW177.92

Auflösung ist 1440*900
AF Anwendungsgesteuert: 34,1FPS (wird wohl nur 2xAF verwendet, wenn überhaupt)
16xAF HQ im Treiber erzwungen: 27,5FPS
16xAF Q im Treiber erzwungen: 30FPS

Gast
2008-10-03, 20:23:01
AF Anwendungsgesteuert: 34,1FPS (wird wohl nur 2xAF verwendet, wenn überhaupt)
16xAF HQ im Treiber erzwungen: 27,5FPS
16xAF Q im Treiber erzwungen: 30FPS

wieso erzwingst du auch das AF im treiber? ist doch klar, dass dann jeder texturzugriff im shader plötzlich anisotrop gefiltert wird, was natürlich ziemlich dämlich ist.

standardmäßig filtert crysis übrigens 8x auf max details.

Mr. Lolman
2008-10-03, 20:47:11
wieso erzwingst du auch das AF im treiber? ist doch klar, dass dann jeder texturzugriff im shader plötzlich anisotrop gefiltert wird, was natürlich ziemlich dämlich ist.

standardmäßig filtert crysis übrigens 8x auf max details.

So schauts aber ehrlich gesagt nicht aus...

Gast
2008-10-03, 23:24:48
wieso erzwingst du auch das AF im treiber? ist doch klar, dass dann jeder texturzugriff im shader plötzlich anisotrop gefiltert wird, was natürlich ziemlich dämlich ist.

standardmäßig filtert crysis übrigens 8x auf max details.

Tut es mit Sicherheit nicht, selbst forciertes 4xAF auf Quality sieht besser aus als Anwendungsgesteuert... Kann aber auch sein, das in den Custom Konfigs etwas verändert wurde. Werde morgen mal paar Vergleichscreenshots machen. Das Bild einer HD4870 mit AI auf Leistung entspricht dem, was ich auf Anwendungsgesteuertem AF bekomme ^^

sulak
2008-10-03, 23:26:26
Der Post ist von mir...

BTW einfach mal in den Benchmark Thread schauen, da gibts genug Screenshots, und wenn einer komisch aussieht, dann weil kein AF forciert wurde (egal welcher GPU Hersteller).

Gast
2008-10-03, 23:33:15
Tut es mit Sicherheit nicht, selbst forciertes 4xAF auf Quality sieht besser aus als Anwendungsgesteuert...

dann schau selber nach, wenn du mir nicht glaubst.

Gast
2008-10-05, 19:43:38
Guten Abend,

was hat es eigentlich mit der Funktion "AF höchster Qualität aktivieren" der ATI Tray Tools auf sich?

http://www.abload.de/img/traytoolsnmw.jpg

Ist dies vielleicht die inoffizielle Entkoppelung der hier bemängelten Qualitätsoptimierungen vom Treiber? Wenn nein, was hat diese Funktion sonst für Auswirkungen?

Gast
2008-10-05, 19:44:42
PS: Die Tray Tools Version ist die "1.6.9.1342 Beta" von heute.

http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/ati_tray_tools/

Gast
2008-10-05, 20:38:01
Ist dies vielleicht die inoffizielle Entkoppelung der hier bemängelten Qualitätsoptimierungen vom Treiber? Wenn nein, was hat diese Funktion sonst für Auswirkungen?

soweit ich weiß bei neuen karten überhaupt keine.

vor einigen jahren gab es bei ATI (bei NV übrigens auch, wenn auch nicht @default) die optimierung, dass mit AF nur die erste texturstage trilinear gefiltert wird, der rest nur bilinear.

mit dem schalter konnte man das ganze deaktivieren.

heute gibt es diese optimierung allerdings nicht mehr, es wird (außer bei AI-off) generell nur brilinear gefiltert (natürlich nur bilinear wenn es die anwendung anfordert)

Raff
2008-10-05, 22:42:26
Guten Abend,

was hat es eigentlich mit der Funktion "AF höchster Qualität aktivieren" der ATI Tray Tools auf sich?

http://www.abload.de/img/traytoolsnmw.jpg

Ist dies vielleicht die inoffizielle Entkoppelung der hier bemängelten Qualitätsoptimierungen vom Treiber? Wenn nein, was hat diese Funktion sonst für Auswirkungen?

"AF höchster Qualität" gilt nur für X1000-Karten. Diese filtern standardmäßig winkelabhängig (wie R300 und darüber), diese Option schaltet die Winkelabhängigkeit ab und ist auch im CCC zu finden. HD2000 und darüber filtert ab Werk ohne Winkelabhängigkeit ... ok, fast.

MfG,
Raff

deekey777
2008-10-10, 22:22:09
Jetzt habe ich meine Killerapp gefunden: Ghost Recon Advanced Warfighter. Was da abgeht, ist nicht normal (HD3850). Aus dem Kopf lieferte meine X1950GT ein hübscheres Bild. Wer es erleben will: Einfach die GRAW-Demo herunterladen... ;(