PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AF-Quali-Wer hat Schuld an der Situation?


eXodia
2005-08-09, 20:34:09
Hi!

Im Moment ist das Thema der AF-Optimierungen in aller Munde und ich möchte mit diesem Thread versuchen etwas mehr über den "Schuldigen" herauszufinden.

Der Hauptschuldige ist natürlich der GPU-Entwickler selbst, mir geht es hier aber mehr um den Mitschuldigen, das sind nämlich, aus meiner Sicht, zumindest zum Teil, auch wir.

Es fing alles mit dem R300 an - welcher ein Meilenstein der GPU-Entwicklung war (unbestritten) - aber es gab auch Schatten nur das ihn die Leute vor lauter Euphorie nicht sahen - und selbst wenn sie in sahen wurde großzügig darüber hinweg gesehen bzw. nicht aussreichend informiert. NV wurde zwar für die gute AF-Quali damals gelobt nur wurde die AF-Quali des R300 nicht als wirklich gravierender Nachteil angesehen, so das der Eindruck entstand sie sei nicht so wichtig. Nun gibt es dann, wenn die Filterqualität doch nicht so die Rolle spielt, für den anderen Großen VGU-Produzenten natürlich keinen Grund ein paar Prozentpunkte extra Leistung "hervorzuzaubern". Folglich fing auch dieser an zu Optimieren - diese Optimierungen waren dann aber abschaltbar (FX-Series) - jedoch war auch das wieder Salz in der Wunde. Hier wurden dann weitere Fehler begangen, so wurde zwar z.B. in der PCGH darauf hingewiesen das die AF-Quali des einen besser sei als die eines anderen, aber eine wirkliche Rolle spielte sie nicht. Das der NV35 keinen so guten absatz fand lag sicherlich hauptsächlich am Chip selbst (ordered grid, etc.) ; jedoch wurde aus meiner Sicht die schlechtere AF-Quali des R350 nicht wirklich herausgestellt, so das wir uns doch zumindest zum Teil, einen kleinen Vorwurf gefallen lassen müssen: Warum haben wir es so sehr ignoriert und rissen die 9800Pro den Händlern förmlich aus den Händen. - Jetzt würd ja leuten empfohlen keine 7800 zu kaufen, wegen schlechter AF-Quali -
Bei der nächsten Chipgeneration wurde demzufolge kräftig weiteroptimiert, bei ATI und Nvidia, und es kann einfach nicht sein das ich bei einer High-End Grafikkarte, für die ich
500€ bezahlen muss Texturen habe die Trotz 16AF nur 2AF erhalten. Das haben wir uns aber, zumindest zum Teil, durch unser eigenes Versagen vorzuwerfen (meine persöhnliche Meinung).

Wir ernten jetzt mit dem G70 quasi die Früchte unserer eigenen Arbeit. Uns hat die AF-Quali nie so sehr interessiert und ich hoffe sehr das mit dem Aufschrei der gerade jetzt durch unsere Community geht sich die Hersteller zurückbesinnen. Das gillt vor allem für ATI da der R520 quasi fertig ist. Hier kann ein positives zeichen gesetzt werden, oder auch nicht. Für den Fall das auch hier wieder mehr optimiert wurde, kann ich nur hoffen das der Aufschrei noch viel größer sein wird als es beim G70 der Fall war (der Artikel in der PCGH war ja zumindest ein Anfang, auch wenn er mir persöhnlich nicht weit genug ging). Falls dies nicht der Fall ist und ATI, zumindest im HQ-Modus, volle AF-Qualität bietet kann der Aufschrei auch hier nicht groß genug sein - hier müssen dann alljene welche die Chips testen reagieren und darauf in großem Maße aufmerksam machen - das ist die, meiner Meinung nach, die einzige Chance hier eine Trendwende zu schaffen. Wir müssen zeigen das uns die AF-Quali nicht egal ist und das wir nicht gewillt sind noch weiter "Optimierungen" hin zu nehmen, denn nur dann besinnen sich die Hersteller vielleicht zurück und wir erleben wieder eine AF-Quali ala GF4.

Was würdet ihr dazu sagen? Stimmt ihr mir zu? Sollte die AF-Quali von den Testern mehr beachtung erhalten?

Mich würde eure Meinung dazu sehr interessieren (Bitte kein geflame oder Beleidigungen)!

GrUß

Gast
2005-08-09, 20:37:19
Es fing alles mit dem R300 an - welcher ein Meilenstein der GPU-Entwicklung war (unbestritten) -
LOL?
Der R300 war ein riesen Fortschritt gegenüber dem R200.

Adam D.
2005-08-09, 20:41:13
Stimmt ja schon, was du schreibst, aber IMO vertust du dich bei einem Ding: Der Vergleich R300 - NV30/35 ist falsch. Die 9800Pro wurden in solchen Massen gekauft, weil sie einfach die beste erhältliche Karte war. Wer beste AF-Qualität haben wollte und einigermaßen gut informiert war, wusste zu der Zeit, dass das AF vom NV3x überlegen war.
Aber die Spieler wollten Performance, und da lag der R300 klar vorne. Und die Optimierungen waren lange net so krass wie sie jetzt sind.
Warum das so ist, hast du ja geschrieben.

LOL?
Der R300 war ein riesen Fortschritt gegenüber dem R200.
Aber genau das hat er doch geschrieben :|

Tjell
2005-08-09, 20:42:52
Die Schuldfrage ist für Historiker interessant.

Spieler wollen eher wissen: "AF-Qualität: Welcher Hersteller weist einen Weg aus der Filter-Misere?".

eXodia
2005-08-09, 20:44:12
LOL?
Der R300 war ein riesen Fortschritt gegenüber dem R200.

Und das hab ich wohl nicht damit zum Ausdruck gebracht? :|

GrUß

Gast
2005-08-09, 20:47:20
Die Schuldfrage ist für Historiker interessant.

Spieler wollen eher wissen: "AF-Qualität: Welcher Hersteller weist einen Weg aus der Filter-Misere?".
Ack.

Botcruscher
2005-08-09, 21:01:25
Die Schuldfrage ist für Historiker interessant.

Spieler wollen eher wissen: "AF-Qualität: Welcher Hersteller weist einen Weg aus der Filter-Misere?".


Ja aber bisher sehe ich nur über tolle Tests mit schönen Balken in den Magazinen.

Na liebe PCGH Schreiberlinge eine Aufschreichen hats ja gegeben. Wann traut sich endlich mal jemand wirklich was über die Quali zu schreiben? Wann wird das endlich mitgetestet?

Eine Karte bei der es nicht möglich ist alle "OPtimierungen/Cheats" abzuschalten gehöhrt eigentlich abgewertet.

Mr. Lolman
2005-08-09, 21:02:32
Das Problem ist die Wahrnehmungsschwelle. Ich behaupt mal, das >90% kaum nen Unterschied merken zwischen NV25 und R300 AF. Das R200 AF war jedoch so schlecht, dass es seitens der Reviewer schon damals ordentlich verrissen wurde. Die AF Blumen trugen auch viel dazu bei. Nun ist die BQ bei NV schon so weit, dass ich mal frech behaupte, dass NV40 Q+alle Opts sehr oft schon deutlich schlechter aussieht, als R200 AF. Und dafür kann ATi wirklich nix. Die Reviewer sind schuld, dass sie nicht genau genug auf die BQ achten. Das war aber schon zu Voodoo1 Zeiten so, und bessert sich erst jetzt langsam. Aber uns als Käufter darf man nix anlasten.

Imo existieren kaum solche Fanboys hier, wie du sie anprangerst . Es ist halt jeder von der HW überzeugt, die er gerade in seinem Rechner hat - falls nicht tut er dies auch im Forum kund. Als Fanboy verkneift man sich das natürlich. Nur kann man als ATi Fanboy kaum was von der "schlechten BQ" des R300 erkennen, wenn die des R200 vorher noch schlechter war. Das wissen nur NV Umsteiger. Diese sind aber wohl kaum ATi Fanboys. Und komischerweise hat auch kaum jemand der Geeks hier, sich über das (im Spielealltag) "schlechte" *AF des R300 mokiert. Also kanns nicht so übel sein. Und beim AF ists nun mal so, das ausgehend vom Lehrbuch AF auf jeden Fall Optimierungspotential besteht, ohne die Qualität objektiv zu verschlechtern (Extrembeispiel: Einfärbige Textur braucht garkein AF) - subjektiv kann man noch viel weiter gehen.

Extrem betrachtet: ATi hat beim AF den ersten Schritt gesetzt, NV beim AA. Denn MSAA glättet zu Gunsten der Performance nicht sogut wie SSAA ;)

Und nochmal: Der erste bekannte Benchmarkcheat kam von NV!



*Dieses schlechte Ati AF entspricht ca. dem NV40 HQ, von dem bis vor kurzem noch alle Überzeugt waren.

eXodia
2005-08-09, 21:06:47
Und nochmal: Der erste bekannte Benchmarkcheat kam von NV!

Hab ich nicht bestritten, aber irgendwie kommt es mir so vor als ob du mir das unterstellst... :| (hab das nicht mal irgendwo erwähnt)

GrUß

Gast
2005-08-09, 21:10:32
Hab ich nicht bestritten, aber irgendwie kommt es mir so vor als ob du mir das unterstellst... :| (hab das nicht mal irgendwo erwähnt)

GrUß
Du hast doch gefragt wer schuld ist?
Lolman hat deine Frage beantwortet.
NVIDIA.

betasilie
2005-08-09, 21:11:42
Die Schuldfrage ist für Historiker interessant.

Spieler wollen eher wissen: "AF-Qualität: Welcher Hersteller weist einen Weg aus der Filter-Misere?".
FULL ACK. :up:

Das Topic ist völlig unnütz, da die Antwort nur subjektiv sein kann.

Demirug
2005-08-09, 21:14:41
Und nochmal: Der erste bekannte Benchmarkcheat kam von NV!

Nein, von 3DLabs.

Gast
2005-08-09, 21:19:00
schuldige gibt es wie immer mehrere, hauptsächlich sind aber reviewer/user schuld, und das schon seit langem.

dass r200-AF war unbrauchbar, ja sogar schlechter als jenes der NV1x-serie. in den reviews wurde zwar darauf hingewiesen dass Geforce3/4 die bessere qualität bietet, was aber mehr oder weniger unterging, vor allem die "balkengucker" sahen nur 16x vs. 8x und noch dazu schneller, das muss einfach besser sein.

als dann der R300 kam wurde nicht kritisiert, dass es ATI noch immer nicht schafft (annähernd) winkelunabhängiges AF alá NV2x/3x zu bieten sondern sogar gelobt dass dieses gegenüber dem vorgänger besser wurde, was wirklich kein kunsststück ist. trotzdem bietet bis heute kein einziger ATI-chip nicht mal vollständiges 2xAF auf allen winkeln.

blöd für die ganze sache war natürlich auch dass NV nach der GF4 das quasi-monopol durch die schwache vorstellung und verspätung der FX-serie nicht nur verloren hat sondern stark eingebrochen war. dadurch war NV natürlich gezwungen für die nächste generation vorkehrungen zu treffen um mit ATI mithalten zu können. da man gesehen hat dass ATI für derartige spielchen nicht bestraft wird hatte man natürlich keine andere wahl.

für die preise ist die ständig anhaltende konkurrenz wie wir sie momentan haben ist natürlich gut für die preise, aber leider schlecht für die qualität.

Winter[Raven]
2005-08-09, 21:22:32
Und nochmal: Der erste bekannte Benchmarkcheat kam von NV!

Das wäre? Meinst du die Sache mit Quake 3? Was gabs den zu derzeit noch zu Cheaten, NV war zu derzeit Nr.1...

Gast
2005-08-09, 21:23:49
Nun ist die BQ bei NV schon so weit, dass ich mal frech behaupte, dass NV40 Q+alle Opts sehr oft schon deutlich schlechter aussieht, als R200 AF.

also schlechter als R200-AF geht es wohl wirklich nicht mehr ;)

aber mit HP+alle Opts kommst du zumindest in OGL schon ziemlich gleich der R200-qualität. die winkelabhängigkeit ist nahezu identisch, es gibt nur bilinear und der flimmergrad dürfte auch ähnlich sein ;)

Gast
2005-08-09, 21:29:59
Nein, von 3DLabs.
Für CAD braucht man kaum Texturen. ;)

Demirug
2005-08-09, 21:32:07
Für CAD braucht man kaum Texturen. ;)

Deswegen habe sie ja auch bei einem damals beliebten Geometrietest nachgeholfen.

Gast
2005-08-09, 21:34:25
Deswegen habe sie ja auch bei einem damals beliebten Geometrietest nachgeholfen.
Wir sprechen doch hier nicht über Polygone, sondern übers AF.
Ohne Texturen kein AF. :)

Demirug
2005-08-09, 21:38:35
Wir sprechen doch hier nicht über Polygone, sondern übers AF.
Ohne Texturen kein AF. :)

An der Stelle ging es um Benchmarkcheats. Ich wollte auch lediglich aufzeigen das die Verlockung bei Benchmarks nachzuhelfen auch vor Firmen wie 3DLabs nicht halt macht.

MikBach
2005-08-09, 21:49:25
An der Stelle ging es um Benchmarkcheats. Ich wollte auch lediglich aufzeigen das die Verlockung bei Benchmarks nachzuhelfen auch vor Firmen wie 3DLabs nicht halt macht.
Ist auch interessant zu wissen, aber hier geht es um das AF.
Also eher für Gamer interessant, nicht für CAD-Fuzzies.

PS der Gast war ich. :)

Demirug
2005-08-09, 21:59:34
Ist auch interessant zu wissen, aber hier geht es um das AF.
Also eher für Gamer interessant, nicht für CAD-Fuzzies.

PS der Gast war ich. :)

Da gibt es durchaus schon Zusammenhängen. Damals hat man ja noch gar nicht über das AF geredet. Es war als auch völlig uninteresant da Zugunsten der Leistung zu sparen, wenn es der Chip überhaupt beherscht hat. Das Problem hat also nicht erst mit dem AF angefanagen sondern sich zum AF hin verlagert als es für die Benchmarks an Bedeutung gewonnen hat. Für den Fall das wir nicht in die Situation gekommen wären das man AA und AF braucht um bei den Benchmarks noch Leistungssteigerungen aufzuzeigen hätte sich keiner am AF vergangen.

Man müsste ergo das AF nur wieder für das Benchmarkergebniss irrelevant machen machen um den Anreitz wegzunehmen.

MikBach
2005-08-09, 22:04:38
Da gibt es durchaus schon Zusammenhängen. Damals hat man ja noch gar nicht über das AF geredet. Es war als auch völlig uninteresant da Zugunsten der Leistung zu sparen, wenn es der Chip überhaupt beherscht hat. Das Problem hat also nicht erst mit dem AF angefanagen sondern sich zum AF hin verlagert als es für die Benchmarks an Bedeutung gewonnen hat.
Das halte ich für ein Gerücht...
Was hat denn AF-Performance mit CAD zu tun?

Piffan
2005-08-09, 22:12:30
Das halte ich für ein Gerücht...
Was hat denn AF-Performance mit CAD zu tun?

Willst du nicht verstehen oder kannst du nicht? Die Frage ist nach den Ausführungen von Demirurg absolut unverständlich.

MikBach
2005-08-09, 22:14:23
Willst du nicht verstehen oder kannst du nicht? Die Frage ist nach den Ausführungen von Demirurg absolut unverständlich.
Kannst du mir bitte auf die Sprünge helfen, ich kann damit nichts anfangen....

Winter[Raven]
2005-08-09, 22:19:21
So schwer ist es doch nicht...

3dlabs trickste, da erkannte man bei ATI als auch NV, dass man auch bei AF sparen und tricksen könnte ... einfache Schlussfolgerung für Schwanzvergleiche... :(

*ich will GF4 AF*

Demirug
2005-08-09, 22:19:49
Das halte ich für ein Gerücht...
Was hat denn AF-Performance mit CAD zu tun?

Schreibe ich so unverständlich? Hier geht es um das große Gesamtbild.

Damit an einem Feature manipuliert wird muss es erst einmal für einen Benchmark wichtig sein. Die Manipulation des AFs wurde erst in dem Moment interesant als mit AF Bechmarks durchgeführt wurden. Und dieses Prinzip gilt schon von Anfang an. Solange nicht mit 32 Bit gebencht wurde war es völlig uniteresant bei 32 Bit Texturen Hand anzulegen.

Man darf also bei der Suche nach den Ursachen für die derzeitige Situation nicht erst so spät in der Geschichte der 3D Beschleuniger anfangen. Aus der Vorgeschichte war es nahezu zwingend das sobald AF bei den Benchmarks eine Rolle spielt es dort auch zu solchen Dingen kommen muß. Das AF wird erst dann keine Beachtung als "Optimierungsziel" mehr bekommen wenn die Shaderprogramme ihr eigenes "AF" fahren um das Shaderaliasing weg zu bekommen.

betasilie
2005-08-09, 22:20:07
Kannst du mir bitte auf die Sprünge helfen, ich kann damit nichts anfangen....
Die miese AF Problematik ist nur ein Symptom eines größeren Problems.

MikBach
2005-08-09, 22:27:01
Die miese AF Problematik ist nur ein Symptom eines größeren Problems.
OK, akzeptiiert.
@Demi
Nonsense pur?

eXodia
2005-08-09, 23:06:36
... das mit 3D-Labs wusste ich nich, aber ich muss sagen, ich finde es schon ein bisschen erschreckend...

GrUß

Matrix316
2005-08-09, 23:54:22
']
*ich will GF4 AF*

Wie wäre denn die Performance eines NV40 oder G70 mit dem GF4 AF?! :confused: Gibts da irgendwo Benchmarks mit Vergleichsbildern (am besten auch mal ATI dazu)?

eXodia
2005-08-10, 00:01:05
Wie wäre denn die Performance eines NV40 oder G70 mit dem GF4 AF?! :confused: Gibts da irgendwo Benchmarks mit Vergleichsbildern (am besten auch mal ATI dazu)?

Zumindest wäre die Performance nicht so viel schlechter, aber der Balken wäre halt trozdem ein Stück kürzer -> zumindest brechen die Karten unter 16AF nicht mehr ein (was wohl an der Winkelabhängigkeit liegt) -> aber imo wäre es ohne großartigen Performance-Verlust möglich.

http://www.beyond3d.com/previews/nvidia/g70/index.php?p=19

GrUß

deekey777
2005-08-10, 00:07:37
Wie wäre denn die Performance eines NV40 oder G70 mit dem GF4 AF?! :confused: Gibts da irgendwo Benchmarks mit Vergleichsbildern (am besten auch mal ATI dazu)?

Ich habe mal aths gefragt bzw. er hat auf meine Frage geantwortet, wie groß der Performanceeinbruch wäre, wenn man die Winkelabhängigkeit der NV40 abschalten würde. Seine Antwort war so Pi-Mal-Daumen, daß man dies nicht so pauschal sagen kann: Man kann mit 20-30% rechnen.
(aths kann mich auch korrigieren, wenn mich mein Erinnerungsvermögen im Stich läßt.)

eXodia
2005-08-10, 00:10:25
*puh*, wenn das stimmt wär es heftig... trozdem, zumindest unter HQ, sollten sie alle abschaltbar sein... dafür ist es ja High Quality...

GrUß

Piffan
2005-08-10, 00:26:26
... das mit 3D-Labs wusste ich nich, aber ich muss sagen, ich finde es schon ein bisschen erschreckend...

GrUß

Was ist daran erschreckend?

Genau anders rum würde ich mich sehr wundern. Ich möchte mal einen Bereich wissen, wo nicht gemauschelt und betrogen wird. Vielleicht bei den Pfadfindern.

Es mag Firmen geben, wo man mehr Energie zum Täuschen einsetzt und andere, wo man es nicht so nötig hat, sicher auch ne Frage der Unternehmenskultur.

eXodia
2005-08-10, 00:28:52
Genau anders rum würde ich mich sehr wundern. Ich möchte mal einen Bereich wissen, wo nicht gemauschelt und betrogen wird.

Ich will ja jetzt nicht sagen das du es gut findest wenn betrogen wird, aber irgendwie kommt mir das so rüber :|

GrUß

Piffan
2005-08-10, 00:43:22
Ich will ja jetzt nicht sagen das du es gut findest wenn betrogen wird, aber irgendwie kommt mir das so rüber :|

GrUß

Mir kommt manche Betroffenheit etwas gespielt vor....

Dennoch wäre es falsch zu resignieren. Wenn man Missstände anprangert bzw. bekanntmacht, kann man ne Verhaltensänderung bewirken. Einen schlechten Ruf können Firmen, die was verkaufen, überhaupt nicht brauchen.

eXodia
2005-08-10, 00:45:00
Dennoch wäre es falsch zu resignieren. Wenn man Missstände anprangert bzw. bekanntmacht, kann man ne Verhaltensänderung bewirken. Einen schlechten Ruf können Firmen, die was verkaufen, überhaupt nicht brauchen.

da haste recht!

GrUß

MadManniMan
2005-08-10, 02:16:41
Ich erinnere mich noch gut an den Launch des R300 und mein erstauntes Gesicht, als ich die Performance des 9700 Pro AF im Bericht von Anandtech sah ... meine Güte war die Karte schnell!

Und genau diese AF-Geschwindigkeit wurde damals in den Himmel gelobt, wenn das AF überhaupt Beachtung fand.

Wenn man außerhalb der Konzerne selbst einen Schuldigen festmachen will, dann die unbedarften Schreiberlinge, die sich selbst täuschten und vom Feedback des Klientels auch noch in dieser Idiotie bestätigen ließen.
Es ist nunmal Aufgabe der Journalisten, kritisch aufzuklären - mich amüsiert, daß jetzt von allen Seiten ein Aufschrei herumgeht ... als ob es nicht schon vorher bekannt gewesen wäre. Die Reaktion der PCGH in allen Ehren, aber z.B. ohne den massiven(?) Aufschrei auch hier im Forum wäre dem Thema sicher nicht soviel Aufmerksamkeit geschenkt worden.


Die Reaktion der Print- und Online-Medien ist viel zu vorsichtig, als daß sie großartig was ausrichten könnte. Denke ich.

MadManniMan
2005-08-10, 02:20:32
Achja:
nicht zu vergessen sei auch, daß (ich vermute es zumindest) das Thema Anti Aliasing leichter für den noch Unwissenden erfassbar ist, zumal in den Printmedien - wenn denn mal Vergleichsbilder angestrengt wurden - der Vorteil vernünftigen AFs wesentlich schlechter darstellbar ist.

Und nochwas: viele wissen gar nicht mehr, wie ordentliches AF aussieht und können sich nicht vorstellen, wieviel "besser" es in einigen Situationen ausschaut.

tombman
2005-08-10, 05:31:25
naja, viele reviewer werden das schlechte AF selbst nicht gemerkt haben und selbst wenn sie es hätten, warum sollten sie dann abwerten, wenn es sie selbst nicht so stört? Immerhin schreiben die die reviews ja nicht für geeks sondern für die MASSE, und die Masse würde diese Abwertung vielleicht gar nicht verstehen....

Ich als reviewer eines großen Printmagazins würde einfach eine alte Graka hernehmen (GF3 zb) und screenshots von hochfrequentem Inhalt machen und daneben screenshots von aktueller hardware. Als Überschrift "So betrügen uns ATI und Nvidia bei der Bildqualität!" (Bild mäßig :D)

DAS würde fett reinhauen- mit dem Ergebnis, daß man dann keine hw zum testen mehr bekommt ;D;D

SKYNET
2005-08-10, 06:58:20
Extrem betrachtet: ATi hat beim AF den ersten Schritt gesetzt, NV beim AA. Denn MSAA glättet zu Gunsten der Performance nicht sogut wie SSAA ;)

Und nochmal: Der erste bekannte Benchmarkcheat kam von NV!
[/size]


bitte? NV haben ihr AA stetig verbessert, von dem grottigen AA beim NV2x/3x zum SEHR gutem AA des NV4x/G70, da ging es also genau in die andere richtung als mit dem AF.

der erste bekannte... nö! und ich will nicht wissen was man alles findet wenn man ATI(so ab R200) genauer unter die lupe nimmt... :|

Gast
2005-08-10, 07:03:15
Nein, von 3DLabs.

Hi

Permidia2 bei Final Reality?

Wobei nv mit dem Riva auch nicht besser war. :D

Gruss Labberlippe

Gast
2005-08-10, 07:06:58
also schlechter als R200-AF geht es wohl wirklich nicht mehr ;)

aber mit HP+alle Opts kommst du zumindest in OGL schon ziemlich gleich der R200-qualität. die winkelabhängigkeit ist nahezu identisch, es gibt nur bilinear und der flimmergrad dürfte auch ähnlich sein ;)

Hi

Wobei ich sagen muss, das mir das AF von R200 eigentlich lieb war, da die damaligen Karten massig eingebrochen sind.
Wobei R200 nicht ganz stimmt da ja schon das ganze im R100 integriert war.
Gerade meine Radeon SDR hatte dennoch mit den AF Macken eine bessere Performance als die damaligen MX Karten und da war bei dennen an AF gar nichts zu denken.
Da sah Quake3 mit der Radeon SDR und den AF schon um einiges besser aus vorallem die Performance hat auch gepasst.

Ich bin damals mit meinen Duron 800 auf 55,9 fps gekommen (1024x768 32 Bit mit AF )

Gruss Labberlippe

Piffan
2005-08-10, 07:15:19
Tja, heute sind alle sooo schlau. Als damals ow und Quasar für das gute AF der NV- Karten fochten, wurden sie hier regelmäßig mit der Fanboy- Keule angegriffen......

Übrigens: Mir ist die Winkelabhängigkeit selbst nie auf die Nerven gegangen. Aber gestern habe ich nach längerer Zeit mal wieder Morrowind installiert. Bei diesem Spiel mit dem sehr unebenen Terrain springt es ja sogar mir ins Gesicht.

Daher wäre es wirklich ein feiner Zug von Ati/NV, wenn man diese Optimierung abstellen könnte....

Es wird oft gefragt, wie stark diese Tricks die Grakas entlasten. Kann man dort überhaupt eine Zahl angeben? Wohl kaum, hängt immer von der dargestellten Szene ab. In Levels mit ebenen Böden/Decken und senkrechten Wänden kann es nicht viel Unterschied machen, in Höhlen und Tälern/welligem Terrain dagegen schon....

Gast
2005-08-10, 07:30:56
Tja, heute sind alle sooo schlau. Als damals ow und Quasar für das gute AF der NV- Karten fochten, wurden sie hier regelmäßig mit der Fanboy- Keule angegriffen......

Übrigens: Mir ist die Winkelabhängigkeit selbst nie auf die Nerven gegangen. Aber gestern habe ich nach längerer Zeit mal wieder Morrowind installiert. Bei diesem Spiel mit dem sehr unebenen Terrain springt es ja sogar mir ins Gesicht.

Daher wäre es wirklich ein feiner Zug von Ati/NV, wenn man diese Optimierung abstellen könnte....

Es wird oft gefragt, wie stark diese Tricks die Grakas entlasten. Kann man dort überhaupt eine Zahl angeben? Wohl kaum, hängt immer von der dargestellten Szene ab. In Levels mit ebenen Böden/Decken und senkrechten Wänden kann es nicht viel Unterschied machen, in Höhlen und Tälern/welligem Terrain dagegen schon....

Hi

Nicht ganz Piffan.
Auch ich habe damals das ATI AF bevorzugt aus Performance gründen, gegen das AF von nVIDIA hatte ich nie etwas.
Leider haben die Karten damals aber leider nicht genug Kraft um das AF wirklich zu bringen und da war mir die ATi Variante lieber.

Gruss Labberlippe

Gast
2005-08-10, 07:32:41
Hi

Nachtrag:

Gerade mein Posting mit der Radeon SDR war einer meiner bewegründe um gewisse Abstriche zu akzeptieren.
Damals hatte die Games aber auch nicht wirklich die Texturen wo man einen deutlichen Unterschied sehen konnte.

Gruss Labberlippe

Exxtreme
2005-08-10, 08:41:43
Naja, man muss auch beachten, daß das grottige AF des R200 nicht so ein großer Nachteil war. Die Anzahl der Spiele, welche nicht aus 90°-Winkeln bestand, war damals verschwindend gering und der Performancevorteil war nicht zu verachten. Heutzutage würde ich es mir aber auch nicht mehr antun wollen.

Und ich denke, daß die Reviewer die meiste Schuld an der Miserie tragen. Zu Zeiten der GF1/GF2/R100/R200 war es üblich marketingverseuchte Whitepapers abzuschreiben und sie ungeprüft in die Artikel zu übernehmen. Dann kamen so Widersprüche, daß man bei der Voodoo 3 die fehlende 32-Bit Farbtiefe bemängelt hat, aber als die Radeon 64 gegen die GF2 getestet wurde, die 16-Bit-Farbtiefe plötzlich gaaanz wichtig war. Auf die Bildqualität wurde fast nicht geachtet etc. Es wurde ausschliesslich die Performance. Jetzt rückt man ganz langsam davon ab. Aber Balkenlängen haben immer noch die grösste Priorität.

SKYNET
2005-08-10, 08:45:26
Tja, heute sind alle sooo schlau. Als damals ow .....



[offtopic] wo ist der eigentlich? :confused:

seahawk
2005-08-10, 08:53:33
Was man braucht ist eine radikale Änderung der Bewertung nei Grafikkarten.

Beim G70 sollte man z.B. prinzipiell um eine Note abwerten. Damit liegt der in der Gesamtnote hinter den Karten der Vorgängergeneration und das zu Recht !!

Ich denke man sollte so werten :

40% Speed
30% BQ
30% Feature : (15% Lautstärke,10% Leistungsaufnahme, 5% Ausstattung)

Das wären ganz interessante Ergebnisse.

Gast
2005-08-10, 08:57:37
bitte? NV haben ihr AA stetig verbessert, von dem grottigen AA beim NV2x/3x zum SEHR gutem AA des NV4x/G70, da ging es also genau in die andere richtung als mit dem AF.

Wie wäre es mit Thema lesen? :|
Hier geht es ums AF, nicht um AA.

Mr. Lolman
2005-08-10, 09:09:56
bitte? NV haben ihr AA stetig verbessert, von dem grottigen AA beim NV2x/3x

4xAA vom NV1x glättet besser als 4xAA vom NV2x/3x.


der erste bekannte... nö! und ich will nicht wissen was man alles findet wenn man ATI(so ab R200) genauer unter die lupe nimmt... :|

Ab R200, meinetwegen. NV hat jedoch min. schon seit NV1x (GF2) Zeiten gecheatet.

Mr. Lolman
2005-08-10, 09:14:33
Tja, heute sind alle sooo schlau. Als damals ow und Quasar für das gute AF der NV- Karten fochten, wurden sie hier regelmäßig mit der Fanboy- Keule angegriffen......

Du meinst wohl, dass man von ow und Konsorten mit der Fanboy Keule angegriffen wurde, wenn man nix gegen das R300 AF gesagt hat. Außerdem find ichs lächerlich jetzt am R300 herum zuhacken, wenn das beste was NV momentan bietet nicht mal an das R300 AF rankommt.


Es wird oft gefragt, wie stark diese Tricks die Grakas entlasten. Kann man dort überhaupt eine Zahl angeben? Wohl kaum, hängt immer von der dargestellten Szene ab. In Levels mit ebenen Böden/Decken und senkrechten Wänden kann es nicht viel Unterschied machen, in Höhlen und Tälern/welligem Terrain dagegen schon....

Ich schätz mal das NV2x AF sicher 40-60% langsamer ist, als das was wir momentan sehen.

(del676)
2005-08-10, 09:17:58
Ati weil sie damit angefangen haben
Wir weil wir die Scheisse geschluckt haben
Nvidia weil sie es nachgemacht haben
Wir weil wir wieder geschluckt haben
Nvidia weil sie es noch weiter verschlimmert haben

HajottV
2005-08-10, 09:26:26
Als damals ow und Quasar für das gute AF der NV- Karten fochten, wurden sie hier regelmäßig mit der Fanboy- Keule angegriffen......


Hallo,

es ist richtig, daß das Thema AF-Qualität selbst in Fachkreisen zu lange stiefmütterlich behandelt wurde, und es ist gut, daß hier ein Umdenken stattfindet.

Das Problem sehe ich eher in der breiten uninformierten Masse. Die Informierten machen vielleicht 1% des Marktes aus (im Highend sicher mehr, aber im Massenmarkt Lowend vermutlich nahe bei 0%). Ich habe es schon zu oft erlebt, daß Freunde eine Highend-Karte gekauft hatten und dann ohne AA und AF Spiele spielen, bei denen man locker 4+xAA/16xAF reinhauen kann.

Ach ja, ow hier hat hier nicht für NV-Karten gefochten, ow hat für NV-Karten gestritten. (Der Rauswurf war imho absolut überfällig.)

Gruß

Jörg

SKYNET
2005-08-10, 11:32:56
4xAA vom NV1x glättet besser als 4xAA vom NV2x/3x.



ja, und das AA der NV4x ist besser als das der NV1x

wenns NV beim AA um speed gegangen wäre hätten sie das AA einfach so grottig gelassen wies mit NV2x-3x war.

aber will nicht wissen wieviel das winkelabhängige AF dafür wieder rausgeboxt hat... :|

Coda
2005-08-10, 11:33:49
4xAA vom NV1x glättet besser als 4xAA vom NV2x/3xNV2x/3x können auch Supersampling ;)

Winter[Raven]
2005-08-10, 12:02:25
NV2x/3x können auch Supersampling ;)

Konnte es nicht schon der NV10? aka GF1 ?

MadManniMan
2005-08-10, 12:31:41
']Konnte es nicht schon der NV10? aka GF1 ?

4xAA vom NV1x glättet besser als 4xAA vom NV2x/3x.


;)

Winter[Raven]
2005-08-10, 12:38:53
;)

Hehe ... wer lesen kann, ist klar im Vorteil :biggrin:

deekey777
2005-08-10, 12:57:38
Ati weil sie damit angefangen haben
Wir weil wir die Scheisse geschluckt haben
Nvidia weil sie es nachgemacht haben
Wir weil wir wieder geschluckt haben
Nvidia weil sie es noch weiter verschlimmert haben


Wir weil wir die Scheisse geschluckt haben <- Nenne mir aber eine gleichwertige Alternative zum R300. Die gab/gibt es nicht, darum wurde diese auch gekauft, selbst wenn die AF-Qualität schlechter war.
Die Gründe, warum beim NV30/35 der brilineare Filter eingesetzt wurde, haben wenig mit der winkelabhängigen AF des AF zu tun, sondern mit seiner für den NV30/35 unerreichbaren Leistung, wenn es um "echte" DX9 Spiele ging. Darum kann man die Herabsetzung der Filterqualität beim NV30/35 IMHO "verzeihen". Beim R420 hat man nur das weiterentwickelt, was schon da war. Doch die Winkelabhängigkeit der NV40-Serie nur deswegen zu begründet, weil die anderen es auch tun und man sich dazu genötigt fühle, ist doch ein schlechter Witz.

Beim G70 kann man die Winkelabhängigkeit/unnötige AF-Optimierungen anprangern, allein wegen der verfügbaren Füllrate. Doch was soll nVidia denn tun? Die G70 muß sich als schnellere Grafikkarte bzw. die schnellste Grafikkarte auf dem Markt zeigen, doch die heutigen PCs bzw. die meisten PCs sind für diese "unwürdig langsam": Selbst unter höchsten Qualitätseinstellungen scheinen die sehr PR-wichtigen Spiele CPU-limitiert zu sein, was bei den Kontrahenten zu beinahe gleichen Ergebnissen führt, da muß man doch nicht noch unnötig die Grafikkarte belasten, selbst wenn es um wenige Frames geht, aber die Balkenlänge stimmt.
(Ich weiß, dieser Absatz ist bescheuert formuliert, hoffentlich aber verständlich.)
Ob wir eine Bilderbuch-AF Qualität sehen, wenn zB vielleistungsfähigere Prozessoren verfügbar sind, weiß ich nicht, doch zumindest mit der Veröffentlichung der nächsten Generation kann man diese bei der alten Generation sehen. Für ATi ist es eh zu spät, da kann man nichts ändern.

MikBach
2005-08-10, 13:04:07
NV2x/3x können auch Supersampling ;)
Genauso wie der R200. :rolleyes:
Richtig anwendbar war es eh nicht, weil zu lahm.

MikBach
2005-08-10, 13:08:25
ja, und das AA der NV4x ist besser als das der NV1x

Wobei die fehlende Gammakorrektur manchmal übel auf die BQ schlägt.
Man sieht manchmal ein leichtes Grieseln. Jaggies. ;)

eXodia
2005-08-10, 13:12:38
Mir fällt zum Thema Printmedien noch eine interessante Anekdote ein:

Als ich letztens an einen "Freund" meine 6800nu für 250€ verkaufte ( :biggrin: ) hielt er grad die brandneue "keine Ahnung wie die Zeitung hieß" in den Händen und fing prompt an über die 7800 zu fachsimpeln, wie genial schnell sie doch wäre und was sie denn alles könne. Ich sagte das das ja alles schön und gut wäre, kam dann aber auf das Thema AF zu sprechen (wusste wahrscheinlich nicht einmal was das is - aber egal).
Ich erntete nur Kopfschütteln mit dem Kommentar: "Das könne nicht sein." - Denn in seiner Zeitung sei nix davon erwähnt und die müssen es ja wissen...
Traurig, traurig - aber genau hier sehe ich das Problem - fragt euch doch einfach mal wenn ihr in der Straßenbahn sitzt oder im Supermarkt steht wieviele von den Leuten um euch herum wohl etwas von der Materie verstehen - eben, genau dann müssen die Printmedien ran - und wir müssen sie auf solche Missstände aufmerksam machen...

GrUß

deekey777
2005-08-10, 13:29:01
[offtopic] wo ist der eigentlich? :confused:

Zurückgekehrt auf den Vulkan:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=1845522&postcount=69

Sorry.

Der Thread ist so geil.

stav0815
2005-08-10, 13:31:09
Mir fällt zum Thema Printmedien noch eine interessante Anekdote ein:

Als ich letztens an einen "Freund" meine 6800nu für 250€ verkaufte ( :biggrin: ) hielt er grad die brandneue "keine Ahnung wie die Zeitung hieß" in den Händen und fing prompt an über die 7800 zu fachsimpeln, wie genial schnell sie doch wäre und was sie denn alles könne. Ich sagte das das ja alles schön und gut wäre, kam dann aber auf das Thema AF zu sprechen (wusste wahrscheinlich nicht einmal was das is - aber egal).
Ich erntete nur Kopfschütteln mit dem Kommentar: "Das könne nicht sein." - Denn in seiner Zeitung sei nix davon erwähnt und die müssen es ja wissen...
Traurig, traurig - aber genau hier sehe ich das Problem - fragt euch doch einfach mal wenn ihr in der Straßenbahn sitzt oder im Supermarkt steht wieviele von den Leuten um euch herum wohl etwas von der Materie verstehen - eben, genau dann müssen die Printmedien ran - und wir müssen sie auf solche Missstände aufmerksam machen...

GrUß

ich persönlich halte Printmedien für ein Werk des Teufels.
Sie kommen nur monatlich raus und bringen ein Softwareseitiges Wissen zu Tage, bei Hardware wird immer nur an der Oberfläche gekratzt.

/e: einzige ausnahme bietet hier das c't Magazin

Demirug
2005-08-10, 13:39:57
ich persönlich halte Printmedien für ein Werk des Teufels.
Sie kommen nur monatlich raus und bringen ein Softwareseitiges Wissen zu Tage, bei Hardware wird immer nur an der Oberfläche gekratzt.

/e: einzige ausnahme bietet hier das c't Magazin

Die c't ist auch nicht mehr das was sie mal war. Gerade bei der Grafikhardware ist es inzwischen ganz schlimm. Sie gehöhren zwar zu den wenigen die von Zeit zu Zeit mal noch die Analoge Signalqualität messen aber das ist ein Überbleibsel aus den Zeiten als sie noch auf der Höhe der Zeit waren.

Coda
2005-08-10, 13:43:03
Genauso wie der R200. :rolleyes:
Richtig anwendbar war es eh nicht, weil zu lahm.Ach ne? Ich wollte nur Payne klar machen, dass das NV2x AA sicher nicht schlechter ist als das von NV1x.

MikBach
2005-08-10, 14:08:18
Die c't ist auch nicht mehr das was sie mal war. Gerade bei der Grafikhardware ist es inzwischen ganz schlimm. Sie gehöhren zwar zu den wenigen die von Zeit zu Zeit mal noch die Analoge Signalqualität messen aber das ist ein Überbleibsel aus den Zeiten als sie noch auf der Höhe der Zeit waren.
Ja, bei Grakas macht c´t die Grätsche, sonst aber top. :up:

edit:

Ach ne? Ich wollte nur Payne klar machen, dass das NV2x AA sicher nicht schlechter ist als das von NV1x.
Hast ja Recht, aber das AF ist hier das Thema. :|

Winter[Raven]
2005-08-10, 14:22:24
MikBach

Willst du es nicht verstehen? AF-Unterfilterung und Winkelabhänigleit ist nur ein Syndrom eines größeren Probelems ... und da kannst du dich nicht nur auf das AF festsetzen.

MikBach
2005-08-10, 14:25:27
']MikBach

Willst du es nicht verstehen? AF-Unterfilterung und Winkelabhänigleit ist nur ein Syndrom eines größeren Probelems ... und da kannst du dich nicht nur auf das AF festsetzen.
Was gibt es denn am AA auszusetzen?
Viel optimieren kann man da nicht.
TSAA und wir sind alle glücklich, ;)
Das AF, was die 7800GTX bietet, ist einfach unterirdisch.

PS Lies mal das Thema, "AF-Quali-Wer hat Schuld an der Situation?"

davidzo
2005-08-10, 15:33:32
Die c't ist auch nicht mehr das was sie mal war. Gerade bei der Grafikhardware ist es inzwischen ganz schlimm. Sie gehöhren zwar zu den wenigen die von Zeit zu Zeit mal noch die Analoge Signalqualität messen aber das ist ein Überbleibsel aus den Zeiten als sie noch auf der Höhe der Zeit waren.

fullack, ich hab mein abo gekündigt, weilö de rhardwareteil immer kleiner und schlechter wurde. Ich hab mich damals schon aufgeregt, dass sie 4x NV30 quincux gegen 4x r300 FSAA antreten lassen haben, aber die letzten hardwaretests die ich gesehen habe waren noch weitaus schlimmer.

mal zum thema:

Ich dneke nicht, dass man so einfach einen HQschalter für FSAA im treiber realisieren kann, der dann die volle quali bietet, denn es fehlen doch einfach transistoren. Sonst wäre das ganze ja sehr einfach.
ohne die fehlenden transistoren wäre der r300 niedriger getaktet gewesen, ein gutes stück teurer oder hätte kein so wunderbares AntiAliasing gehabt. Der r300 hatte 8pipelines und trotzdem den geringeren transistorcount im gegensatz zum nv30, das kommt nicht von irgendwoher.

Bleibt die Frage, ob wir lieber eine geringere performance wegen geringerem takt und teurere chips vorziehen, wenn wir dann echtes 8x aniso statt echtem 2x mit teils echtem 4x-16x bekommen.
Und da würde ich sagen, dass ich mit dem guten 2x aniso dass der r200 schon hatte und dem 2x des r300 schon relativ zufrieden bin, erst recht wenn man 4x 8x und 16x in den meisten winkeln zusätzlich darunter mischt.

Ich hätte nun allerdings vom r4xx erwartet das mindest aniso wenigstens auf 4x zu heben und vom 7800gtx ebenfalls die messlatte ein wenig höher zu legen.

Man muss halt mit der zeit gehen und ich bin der meinung, das ati beim r300 richtig gehandelt hat. chips mit über 100mio transistoren sind nicht gerade billig gewesen in veralteter 150nm Fertigung und wie man am 160mio r420 gesehen hat, haben die zusätzlichen 8 pipelines nichtmal 50mio der transis ausgemacht. Der Rest geht für Vertexshader, Pixelshader und logikbausteine etwa für aniso drauf. Da kann man mal sehen, was diese extrafeatures alles an transis kosten. ATI hätte mit einem r200 supersampling und r200 aniso in einem fiktiven r300 womöglich platz für 12 oder mehr pipelines gehabt. nicht dass ich das dem 8pipes r300 vorziehe, aber ich finde das verhältnis aus transis für pipelines und restliche logik beim r300 sehr gut ausgewogen und bezweifle dass ein fiktiver r300 mit echtem 8x aniso besser gewesen wäre.

ATI und hätte mit dem r420 dasselbe verhältnis aus leistung und qualität beibehalten sollen, stattdessen haben sie nur in pipes investiert und keine qualitätsfeatures die über r300technik hinausgehen geboten, das ist arm.
Ich hoffe der r520 wird da wieder ausgewogener, in 350mio transistoren hat man vielviel platz... :)

Um nun auf den Titel zurück zu kommen. Ich sehe den fehler nicht in der Vergangenheit, der r200aniso war auf der zeit, nvidia war mit dem nv2x einfach seiner zeit vorraus, ati auf der anderen seite mit dem featureset des r200. selbst der r300 hatte imo noch ein ausgewogenes featureset und ausreichenden aniso. Der fehler liegt imo in der jetzigen generation an chips beider hersteller, r4xx, nv4x und erst recht g70 hätten mehr qualität liefern müssen.
ich bin also der Meinung, das beide Firmen schuld an der jetzigen situation sind und halte nichts davon die filterqualitätsfrage ewig zurück zu verfolgen um einen anfangsschuldigen zu finden. jeder, der irgendwann damit weiter gemacht hat ist automatisch auch schuldig.

DrumDub
2005-08-10, 16:44:12
Die c't ist auch nicht mehr das was sie mal war. Gerade bei der Grafikhardware ist es inzwischen ganz schlimm. Sie gehöhren zwar zu den wenigen die von Zeit zu Zeit mal noch die Analoge Signalqualität messen aber das ist ein Überbleibsel aus den Zeiten als sie noch auf der Höhe der Zeit waren. ich frag mich die ganze zeit, warum der zuständige redakteur da nicht mal endlich gefeuert wird. die sachlichen fehler (ich sprech noch nicht mal von den fehlern im bereich der erklärung der theorie. die sind noch haarsträubender), die mir als laie aufgefalllen sind, sind wirklich katastrophal...

Tigerchen
2005-08-10, 16:44:33
*puh*, wenn das stimmt wär es heftig... trozdem, zumindest unter HQ, sollten sie alle abschaltbar sein... dafür ist es ja High Quality...

GrUß


Es ist nun mal so daß SSAA und "echtes" AF so viel Performance kosten daß User in Scharren davonlaufen wenn da nicht beim AF optimert bzw. MSAA geboten würde. Man muß halt nur wissen wie weit man gehen kann. ATI hat bei der R200 (auch von mir) die rote Karte bekommen und nV kriegt auch so einiges zu hören für die 7800er Serie. Wobei ich mir nicht sicher bin ob das G70 AF nicht doch durch einen Designfehler, also ohne Cheatabsicht, verpfuscht wurde.

Demirug
2005-08-10, 17:15:27
ich frag mich die ganze zeit, warum der zuständige redakteur da nicht mal endlich gefeuert wird. die sachlichen fehler (ich sprech noch nicht mal von den fehlern im bereich der erklärung der theorie. die sind noch haarsträubender), die mir als laie aufgefalllen sind, sind wirklich katastrophal...

Anscheined ist er noch das Beste was sie haben.

Winter[Raven]
2005-08-10, 17:18:53
Das AF, was die 7800GTX bietet, ist einfach unterirdisch.

Das liegt im Auge des Betrachters, unter Irdisch verstehe ich ein Misch-Masch! HQ auf dem G70 ist minimal schlechter, und von allen die von Flimmern reden, sollten nicht auf Gerüchte hören, sondern es selbst einmal beobachtet haben.

deekey777
2005-08-10, 17:18:59
ich frag mich die ganze zeit, warum der zuständige redakteur da nicht mal endlich gefeuert wird. die sachlichen fehler (ich sprech noch nicht mal von den fehlern im bereich der erklärung der theorie. die sind noch haarsträubender), die mir als laie aufgefalllen sind, sind wirklich katastrophal...

Und wer moderiert dann c't TV?

So schlimm ist die c't auch wieder nicht. Zumindest haben die prophezeit, daß SC3 eine SM2.0 Unterstützung per Patch bekommt.

Piffan
2005-08-10, 19:09:46
Und wer moderiert dann c't TV?

So schlimm ist die c't auch wieder nicht. Zumindest haben die prophezeit, daß SC3 eine SM2.0 Unterstützung per Patch bekommt.

Na wenn das keine guten Gründe sind. :D

Gast
2005-08-10, 19:25:58
Wäre es theoretisch denkbar, dass das Flimmern/Grieseln, ausgehend von einem Bug, bei den kleineren Varianten behoben wird? Zumindest beim Videoprozessor bei den 6ern war es ja so.

MikBach
2005-08-10, 21:02:18
']Das liegt im Auge des Betrachters, unter Irdisch verstehe ich ein Misch-Masch! HQ auf dem G70 ist minimal schlechter, und von allen die von Flimmern reden, sollten nicht auf Gerüchte hören, sondern es selbst einmal beobachtet haben.
Das ist jetzt aber nicht dein Ernst?
Hast du dir mal eine 7800GTX angesehen?

Winter[Raven]
2005-08-10, 21:23:40
Natürlich habe ich es, und es werden die auch andere bestätigen können das dieses "flimmern" nicht so extrem ausgeprägt ist. Natürlich liegt es am User das zusehen oder nicht. Ich habe die 7800GTX mehrere Tage Testen dürfen, und ich ahbe speziell alle Spiele die ich so im Schrank stehen habe installiert und getestet. Mein Fazit ist: Es ist NICHT SO SCHLIMM, wie viele es behaupten, von den nichtmal jeder das AF in Aktion gesehn hat.

Spasstiger
2005-08-10, 21:26:23
Meinem Empfinden nach wurde die AF-Qualität von ATI und Nvidia schon immer genauer untersucht. Und als der R300 rauskam wurde klar festgestellt, dass das AF der GeForce 4 TI besser war als das des R300, allerdings war das AF des R300 auch bei höchster Stufe noch bei minimalen Performanceinbussen nutzbar, während die GeForce 4 Ti Karten im Vergleich bei aktiviertem AF deutlich Federn lassen musste. Für Qualitätsfanatiker war der R300 somit doch die bessere Wahl. Außerdem war der Unterschied beim R300 zur GF 4 Ti Reihe nicht so gravierend, dass das subjektiv eine Rolle gespielt hätte. Als Nvidia dieses brilineare Filtern einführte, war die AF-Qualität bei Nvidia vorübergehend sogar subjektiv schlechter als bei ATI bis Nvidia dann die Möglichkeit anbot, die Optimierungen auszuschalten, weil die User eben möglichst optimale AF-Qualität wollten (wenn sie mit der GeForce FX schon nicht die schnellste DX9-Karte gekauft haben, dann wenigstens doch die mit der besten Bildqualität).

Ich sehe die Schuld an der AF-Misere der GeForce 7800 GTX nicht bei den Usern.

eXodia
2005-08-10, 21:26:45
]Ich habe die 7800GTX mehrere Tage Testen dürfen

Ich will auch ne 7800GTX testen dürfen... *heul*
Das musste gesagt werden!

GrUß

MikBach
2005-08-10, 21:26:56
' Mein Fazit ist: Es ist NICHT SO SCHLIMM, wie viele es behaupten, von den nichtmal jeder das AF in Aktion gesehn hat.
:confused:
Ist nicht dein Ernst?

Winter[Raven]
2005-08-10, 21:29:19
:confused:
Ist nicht dein Ernst?

Sprech ich Chinesisch? :mad:

Frag doch Shadow, er kann dir das selbe Bestätigen... HQ+Optimierungen OFF + Clamp...

Spasstiger
2005-08-10, 21:33:56
Schon die GeForce 6800 Reihe flimmert deutlich mehr als alle Radeons. Zuletzt ist mir das bei der Live for Speed 2 Alpha auf einer GeForce 6800 aufgefallen. Ich habe die Alpha zuerst auf meiner Radeon 9700 gespielt, 1280x960, 4xAA, 8:1 AF. Sah alles sehr gut aus, flüssig, kein Flimmern, keine Treppchen.
Danach habe ich das Spiel auf einer GeForce 6800 getestet, 1280x1024, 4xAA, 8:1 AF (Quality-Einstellung im Treiber). Mir ist gleich aufgefallen, dass insbesondere die Sandtextur und die Rasentextur neben der Fahrbahn extrem flimmerte. Besonders wenn man langsamer fuhr, kam einem das Bild sehr unruhig vor (in Kurven z.b.).
Kann sein, dass der gestochen scharfe 17" TFT-Monitor, der an der GeForce 6800 hängt, dafür mitverantwortlich ist (an meiner Radeon 9700 hängt ein 19" Iiyama CRT Monitor), aber den größten Anteil am Flimmern wird die Grafikkarte selbst haben.

P.S.: Ich habe bei meiner Radeon 9700 Catalyst AI deaktiviert, die GeForce 6800 ließ ich jedoch mit der Standardeinstellung "Quality" statt "High Quality" laufen. War keine Absicht, aber vielleicht sollte ich für einen fairen Vergleich das Spiele nochmal bei "High Quality" testen. Mir gings ja bei dem Test nicht darum, das Flimmern zu analysieren, sondern einfach nur, wie schnell das Game mit der GeForce 6800 rennt. Das Flimmern war dann nur ein Nebeneffekt, der mir beim Testen auffiel.

MikBach
2005-08-10, 21:38:09
']Sprech ich Chinesisch? :mad:

Frag doch Shadow, er kann dir das selbe Bestätigen... HQ+Optimierungen OFF + Clamp...
Winter, du weißt, was jetzt kommt...
LOL.

Gast
2005-08-10, 21:41:26
Wayne?

Er hat recht, HQ ohne Opt + Clamp ist annehmbar, der Unterschied ist marginal zu einer 6800er Karte, vergleichbar mit dem Unterschied zwischen R300 Serie und allem was nach RV360 kam (erste Karte mit Smple Opt. oder?)

MikBach
2005-08-10, 21:44:03
Wayne?

Er hat recht, HQ ohne Opt + Clamp ist annehmbar, der Unterschied ist marginal zu einer 6800er Karte, vergleichbar mit dem Unterschied zwischen R300 Serie und allem was nach RV360 kam (erste Karte mit Smple Opt. oder?)
LOL.-..

eXodia
2005-08-10, 22:33:48
@MikBach:

Ich will ja nix sagen, aber mekst du es selber :|
Deine persöhnliche Meinung in allen Ehren, aber wieso schließt du von dir auf andere :| - wenn du nach jedem Post immer nur LoL postest wird das mit ner vernünftigen Diskussion in diesem Thread nichts mehr...

GrUß

ShadowXX
2005-08-10, 22:40:59
LOL.-..

LOL ruhig.

Ich hab die 7800GTX seit dem Launch...und das Sie überhaupt stärker als die 6800Ultra flimmert (die ich davor hatte, bzw. ich hatte sogar beide eine Zeit lang gleichzeitig), habe ich erst "bemerkt" als im mForum davon gesprochen wurde.

Und ja, sie flimmert in bestimmten Situationen etwas stärker als die 6800Ultra (immer alles auf HQ mit allen Optimierungen aus und Clamp)....aber nicht in allen.

Ich hab schon Games gespielt, wo ich selbst beim Nebeneinanderlaufen von 6800U und GTX keine Unterschiede gesehen haben.....selbst mit suchen.

Dann gibt es wieder Games, wo es tatsächlich etwas auffällt....das ist dann aber mehr ein Grieseln und weniger ein Flimmern.

Es geht mir jetzt aber nicht darum, das AF der GTX in den Himmel zu heben, da es tatsächlich Games gibt, wo es (etwas) schlechter aussieht....es geht nur darum, das das "Flimmern" nicht soooo extrem ist, wie es teilweise dargestellt wird.

Wenn man im Forum darüber liesst, hat man immer das Gefühl, als würde das ganze Bild bei der GTX Flackern und man könnte kaum was auf dem Bildschirm erkennen....

Es scheint aber auch sehr viel mit der eigenen Wahrnehmung und ebnso mit dem Datensichtgerät (TFT oder CRT) und dessen Einstellungen zu tun zu haben.
Ich hatte schon 5 Leute bei mir, die sich das "Flimmern" in Aktion ansehen wollten....und die wurden alle Entäuscht..das "Flimmern" hat gerade mal ein einziger überhaupt Bemerkt und dessen Kommentar war nur "Und deswegen regen die sich alle so auf??".

Wie schon erwähnt, ich will die AF-Schwäche des GTX nicht schönreden (und damit meine ich mehr, das man auf HQ ohne Optimierungen gehen muss um ein ATI ähnliches AF zu haben und weniger das "Flimmern"), aber ich persönlich empfinde es mit abstand nicht so schlimm bzw. so gut ausmachbar, wie es hier Teilweise dargestellt wird.

Das aths damit nicht leben kann, das nehme ich ihm sogar ab....und auch ich will, das das ganze spätestens mit der nächsten Generation wieder besser wird....aber es ist nicht so schlimm wie hier Teilweise getan wird.

So...und jetzt steinigt mich.

Als Randbemerkung:
In dem moment wo man 8xS zuschaltet, sieht man sowieso keinen Unterschied zwischen 6800U & GTX mehr (nur mit dem Unterschied, das man bei verdammt vielen Games ohne Problem bei der GTX 8xS zuschalten kann, während es bei der 6800U wesentlich weniger sind....genau gesagt ist bis jetzt die FEAR-Demo das einzige "Game", wo ich nicht mindestens 8xS zuschalten konnte).....aber das nur am Rande.

P.S.
ich hab auch ATI Karten im Einsatz und finde das der r3x0 einer der besten Chips der letzten Jahre war.

@Topic:
Schuld sind meiner Meinung nach
a.) die Reviewer, speziell als es Radeon AF vs. nv3x AF ging wurde da extrem viel mist gebaut.

aber auch

b.) die User.....die dem ganzen Glauben geschenkt haben und dem Großteil Speed vor Qualität ging.

Ich hätte bei der GTX auch lieber nv3x oder sogar nv25 AF gehabt...aber stellt euch mal die Benchmarks vor....nV wäre von den Reviewern zerissen worden wegen zu kleiner Peni...ähhh Benchmarkbalken.
Mir wärs egal gewesen...aber nV hätte kaum Karten verkauft.

Ich persönlich glaube inzwischen sowieso an einen HW-Bug....

Ehrlich gesagt bin ich trotz der AF-Schwäche (die ich persönlich als gar nicht so extrem finde (im vergelich zum nv40)) sehr zufrieden mit der GTX.
Speed ist mehr als genug vorhanden und in 95% der Games kann ich mindestens 8xS einschalten...und dann gibts sowieso keine "Flimmerprobs" mehr.

Winter[Raven]
2005-08-10, 22:45:37
AMEN Shadow, AMEN! :)

MadManniMan
2005-08-10, 22:54:17
Das Problem ist eher, daß die Leute - berechtigterweise - die Unterschiede zwischen den einzelnen Generationen für marginal und vernachlässigbar halten ... ohne dabei ein Auge für "die Sache" zu haben!
Und diese ist nunmal dieses ekelhaft schleichende Verschlimmbessern!

Ich selbst hatte erstmals AF mit der GF2MX genutzt, es war quasi for free, da eh viel zu viel Füllrate mit einem kleinen Haufen Bandbreite auskommen mußte. Danach kam die Ti200 und mit ihr AF-Level, die ich vorher nicht kannte. Da ich aber unbedingt 2*AA an haben wollte, schraubte ich gleichsam die Qualität beim AF zurück (max. 2*AF oder 4*AF mit Bi-Hack).
Mit der 9500 Pro konnte ich überall und ohne mit der Wimper zu zucken 16*AF(je nach App Bi/TS-Tri/Fulltri) einstellen - der Vorteil gegenüber der Ti200 war gegeben.
Wenn ich nun das AF meiner 6600Go mit dem der 9500 Pro vergleiche, sind die Unterschiede wirklich minimal, kaum einen Deut unter dem Niveau, das ich von meinem R300 kannte, aber immerhin merkbar.

Aber: ich habe mir irgendwann aus Spaß noch eine Ti4200, dann eine FX5800 gekauft - erstere zeigte mir, wie BF42 mit 8*AF auszusehen hat und letztere, daß ich es durchaus performant(Ohne Bri! Das seh ich zu schnell!) höchste Qualität bringen kann.
Und das will ich zurück.

Mein Problem, oder eher... mein Vorteil: ich weiß, was hier vermißt wird. Viele wissen es nicht, Lolman z.B. ;(

Nazar
2005-08-10, 23:34:31
AF und die Optimierungen und wer war/ist schuld!?
Laut dem Autor, mal wieder der User.
Wieso machen es sich viele immer so "einfach".

Als ob WIR wirklich das bekommen würden, was wir wollen!

Wenn wir wirklich das bekommen würden, was wir wirklich wollen, dann hätten wir Grafikkarten, welche mit allen möglichen Einstellungen und ohne Geschwindigkeitseinbußen, jedes erdenkliche Spiel, in jeder Auflösung darstellen könnte.

Aber haben wir das bekommen?
Nein.
Aber wenn uns was "schlechtes" verkauft wird, dann, ja genau dann WOLLTEN wird das GENAU SO haben! :rolleyes:

Der Konsument fragt bestimmt nicht "minderwertige" Ware nach.

ABER

Der Konsument versucht (was bleibt ihm auch über) den Versprechungen der Anbieter glauben zu schenken.
Diese möchten/müssen ihre Ware mit ALLE MITTELN an den Mann bringen.
Das wir (der Konsument) dabei belogen werden, darf man nicht als Einverständniserklärungen ansehen, dass wir das auch so wollen.

Der R300 und der NV3X sind ein falsches Beispiel!
Der NV3X kann eine bessere Qualität liefern, als ein R300.

ABER
schon bei gleicher Qualität war der NV3x langsamer als der R300.
Mit der besten Qualität war eigentlich kein Spiel mehr spielbar.
Eine "Optimierung" war nötig, um den Spielgenuss zu erhalten.

HEUTE
hat man aber die Leistung, welche dem NV3x und R300 gefehlt haben.
Weshalb eine Optimierung FÜR den Spielgenuss eigentlich eine Qualitätsverbesserung bedeuten MUSS.

Es ist wie bei Intel und der "PIII beschleunigt das I-Net" :rolleyes:
Viele Kunden wissen gar nicht, was die 1000 Begriffe bedeuten, mit denen die Hersteller um sich werfen.

Beim Autokauf kann uns auch keiner erzählen, dass mehr Komfort ein Wechsel von Beheizten Ledersitzen zu Platiksitzen ohne alles bedeutet.
Und wieso?
Weil das Auto und dessen Funktionweise fast jedem Bekannt ist und alle wissen was Komfort da bedeutet.
Beim PC ist das nicht so.
Hier müssen sie sich auf die "Verspreche(r)n" der Hersteller verlassen.
Sie nehmen an, das bessere Qualität dieses halt auch bedeutet.
Wenn sie dann von den Herstellern "beschissen" werden, das als "Eigenverschulden" hinzustellen, zeugt von einer sehr einfältigen Denkweise.

eXodia
2005-08-10, 23:40:41
Laut dem Autor, mal wieder der User.

Hab ich nie behauptet. Ich hab gesagt das der GPU-Hersteller die Verantwortung trägt - hab das allerdings nur einmal erwähnt da ich dies für klar hielt.
Ich habe lediglich behauptet das wir eine gewisse Mitschuld tragen.

GrUß

eXodia
2005-08-10, 23:42:25
Laut dem Autor, mal wieder der User.

Hab ich nie behauptet. Ich hab gesagt das der GPU-Hersteller die Hauptverantwortung trägt - hab das allerdings nur einmal erwähnt, da ich dies für klar hielt.

Der Hauptschuldige ist natürlich der GPU-Entwickler selbst

Ich habe lediglich behauptet das wir eine gewisse Mitschuld tragen.

zeugt von einer sehr einfältigen Denkweise.

danke :| - siehe oben

GrUß

Edit: sry. doppelpost :rolleyes:

Mr. Lolman
2005-08-10, 23:47:59
Das Problem ist eher, daß die Leute - berechtigterweise - die Unterschiede zwischen den einzelnen Generationen für marginal und vernachlässigbar halten ... ohne dabei ein Auge für "die Sache" zu haben!
Und diese ist nunmal dieses ekelhaft schleichende Verschlimmbessern!

[...]

Aber: ich habe mir irgendwann aus Spaß noch eine Ti4200, dann eine FX5800 gekauft - erstere zeigte mir, wie BF42 mit 8*AF auszusehen hat und letztere, daß ich es durchaus performant(Ohne Bri! Das seh ich zu schnell!) höchste Qualität bringen kann.
Und das will ich zurück.

Mein Problem, oder eher... mein Vorteil: ich weiß, was hier vermißt wird. Viele wissen es nicht, Lolman z.B. ;(

Ok, jetzt hast dus geschafft. Morgen kommt ne GF4 in meinen Rechner und dann seh ich mir das AF mal genauer an. X-D


Ich schrieb schon, dass ich mich deinen Forderungen nicht ganz anschliesse. Und zwar deswegen, weil AF á la NV2x, vom momentanen Spielecontent ausgehend, noch sehr rechenlastig ist, und man den Performanceeinbruch ja von der GF4 kennt. Bei nem BQ Feature dass sich als quasi Standard etabliert hat ist so ein Performanceeinbruch halt nicht tragbar. Da ja AF Einstellungen immer öfter von der App selbst vorgenommen werden, sehen sich die IHVs gezwungen, mit dem jeweils schnelleren ( :rolleyes: ) AF der Konkurrenz mitzuhalten und so dreht sich die Spirale immer weiter. Da hats auch keinen Sinn, jetzt das R300 AF (und desssen User) anzuprangern, aber gleichzeitig das G70 AF mit 8xS geradezubiegen...



Meine Forderung ist ein vollständig adaptiver AF Algorithmus, der ausgehend von nem optimalen Grenzwert die jeweils passende Optimierung nutzt. Da kann dann meinetwegen das AF stellenweise brilinear sein, oder gar bilinear, solang die Sampleanzahl im Verhältnis zum Rauschgrad der Textur stimmt.

Ziel ist natürlich ein perfektes AF* bei bestmöglicher Performance.


*gleich der Texturqualität von (mipmaplosem ;)) linearem Filtering kombiniert mit nem enorm hohen SSAA Anteil (z.B. 1000x :D)


Wenn ich nun das AF meiner 6600Go mit dem der 9500 Pro vergleiche, sind die Unterschiede wirklich minimal, kaum einen Deut unter dem Niveau, das ich von meinem R300 kannte, aber immerhin merkbar.


Meinst du jetzt HQ oder default AF?

Gast
2005-08-10, 23:55:02
Schon die GeForce 6800 Reihe flimmert deutlich mehr als alle Radeons. Zuletzt ist mir das bei der Live for Speed 2 Alpha auf einer GeForce 6800 aufgefallen. Ich habe die Alpha zuerst auf meiner Radeon 9700 gespielt, 1280x960, 4xAA, 8:1 AF. Sah alles sehr gut aus, flüssig, kein Flimmern, keine Treppchen.
Danach habe ich das Spiel auf einer GeForce 6800 getestet, 1280x1024, 4xAA, 8:1 AF (Quality-Einstellung im Treiber). Mir ist gleich aufgefallen, dass insbesondere die Sandtextur und die Rasentextur neben der Fahrbahn extrem flimmerte. Besonders wenn man langsamer fuhr, kam einem das Bild sehr unruhig vor (in Kurven z.b.).
Kann sein, dass der gestochen scharfe 17" TFT-Monitor, der an der GeForce 6800 hängt, dafür mitverantwortlich ist (an meiner Radeon 9700 hängt ein 19" Iiyama CRT Monitor), aber den größten Anteil am Flimmern wird die Grafikkarte selbst haben.



das liegt weniger am monitor als an deinen treibereinstellungen.

mit Q kann beim NV40 unter gewissen texturen flimmern auftreten (manchmal recht stark, manchmal praktisch nicht bemerkbar). die 9700 hat aber außer der winkeloptimierung keine optimierung.

teste mal den NV40 unter HQ, sicherheitshalber mit LOD-clamp und du hast mindestens ein so schönes bild wie mit der radeon9700.


Als Nvidia dieses brilineare Filtern einführte, war die AF-Qualität bei Nvidia vorübergehend sogar subjektiv schlechter als bei ATI bis Nvidia dann die Möglichkeit anbot, die Optimierungen auszuschalten,

imo war das FX-AF zu jeder zeit den ati-karten (und NV4x+) überlegen. die trilineare optimierung ist die einzige die ich unter umständen tollerieren würde, da sie je nach textur wirklich kaum auffällt, im gegensatz zu sample-optimierungen oder der winkeloptimierung die meistens sofort ins auge stechen.

Mr. Lolman
2005-08-10, 23:58:59
teste mal den NV40 unter HQ, sicherheitshalber mit LOD-clamp und du hast mindestens ein so schönes bild wie mit der radeon9700.


Statt "mindestens" passt hier imo "ungefähr" besser.

Gast
2005-08-11, 00:00:21
Ich schrieb schon, dass ich mich deinen Forderungen nicht ganz anschliesse. Und zwar deswegen, weil AF á la NV2x, vom momentanen Spielecontent ausgehend, noch sehr rechenlastig ist, und man den Performanceeinbruch ja von der GF4 kennt. Bei nem BQ Feature dass sich als quasi Standard etabliert hat ist so ein Performanceeinbruch halt nicht tragbar. Da ja AF Einstellungen immer öfter von der App selbst vorgenommen werden, sehen sich die IHVs gezwungen, mit dem jeweils schnelleren ( :rolleyes: ) AF der Konkurrenz mitzuhalten und so dreht sich die Spirale immer weiter. Da hats auch keinen Sinn, jetzt das R300 AF (und desssen User) anzuprangern, aber gleichzeitig das G70 AF mit 8xS geradezubiegen...


die GF4 hatte auch noch gewisse probleme da sie auch bei parallel zur bildebene liegenden texturen immer die halbe füllrate verlor.

die FX-serie kann aber die gleiche qualität mit (für damalige zeiten) guter performance bieten.



Meine Forderung ist ein vollständig adaptiver AF Algorithmus, der ausgehend von nem optimalen Grenzwert die jeweils passende Optimierung nutzt. Da kann dann meinetwegen das AF stellenweise brilinear sein, oder gar bilinear, solang die Sampleanzahl im Verhältnis zum Rauschgrad der Textur stimmt.


jeder guter (und heute implementierter) AF-algorithmus ist adaptiv und verwendet je nach verzerrungsgrad der textur den minimal möglichen AF-grad.
die GF4 hatte ja wie oben geschrieben noch probleme und filterte quasi immer mindestens 2x anisotrop obwohl es nicht notwendig war, seit der FX-serie besteht dieses problem aber nicht mehr.

Gast
2005-08-11, 00:03:17
Statt "mindestens" passt hier imo "ungefähr" besser.


würde ich nicht sagen, nv hat noch immer das genauere LOD, unterfiltert beim NV40 unter HQ nicht und ist damit theoretisch sogar etwas besser. da ich bezweifle dass man diese unterschiede in der praxis sieht hab ich den satz mit dem wort "mindestens" quasi etwas entwertet, schlechter ist es auf keinen fall.

MadManniMan
2005-08-11, 00:05:46
Guter Ansatz, den Du verfolgst - mir persönlich würde ja reichen, per Hand alles einstellen zu können ... selbst wenn Treiberdefault pointgesampelt wird ;)

Aber schön, daß Du Dir die GF4 mal anguckst - wie gesagt, ich empfehle BF42 - idealerweise Bocage!

Mr. Lolman
2005-08-11, 00:17:03
jeder guter (und heute implementierter) AF-algorithmus ist adaptiv und verwendet je nach verzerrungsgrad der textur den minimal möglichen AF-grad.
die GF4 hatte ja wie oben geschrieben noch probleme und filterte quasi immer mindestens 2x anisotrop obwohl es nicht notwendig war, seit der FX-serie besteht dieses problem aber nicht mehr.

Dann funktioniert das aber nicht besonders gut, denn selbst bei einfärbigen Texturen filtert der NV40 mit (dem von den AF Blumen bekannten) 16xAF, wenns eingestellt ist...

davidzo
2005-08-11, 02:46:22
würde ich nicht sagen, nv hat noch immer das genauere LOD, unterfiltert beim NV40 unter HQ nicht und ist damit theoretisch sogar etwas besser. da ich bezweifle dass man diese unterschiede in der praxis sieht hab ich den satz mit dem wort "mindestens" quasi etwas entwertet, schlechter ist es auf keinen fall.

was wieder außer acht lässt, dass man schon beim nv4x versucht hat einen höheren afgrad durch einen billigen schärfefilter vorzutäuschen um damit bei standbildern unter reviewern die besseren noten zu bekommen (hat sogar teils geklappt). beim g70 hat mans wohl endgültig auf die spitze getrieben.

erinnert mich irgendwie an die geforce3ti und der schlamassel um quincux, das angeblich 4xfsaa für den preis von 2x schaffen solle aber nichts anderes als nen unschärfefilter und 2x fsaa war. mit dem unterschied, dass du beim fsaa noch genau die wuali messen kannst, beim aniso wirds schon schwieriger.

obwohl, wäre es nicht möglich ein idealrendering einer röhre in der alle winkel vorkommen mit dem bild was die graka ausspuckt zu vergleichen um den schärfegrad zu bestimmen und auch wieder rechnerisch fünf oder mehr frames nacheinander mit sich selbst zu vergleichen um flimmern festzustellen? oder mache ich da jetzt nen denkfehler? sicherlich wäre das rechen und programmieraufwändig und man müsste sich über eine genaue auswertung gedanken machen, aber über so einen ansatz müsste es doch funzen...

gisbern
2005-08-11, 05:55:01
ich wollte mich auch nochmal zur Thematik Bildquali Vergleich Radeon -Geforce einschalten. Was diese Themen anbelangt bin ich wirklich vollnoob - will heißen ich habe kein geschultes Auge für Grafikfehler etc. Leider ist aber selbst unter den genannten optimalen TreiberEinstellungen die Welt nur so am Flimmern unter CS, CSS, Splinter Cell 3, F.E.A.R Demo, eigentlich fast alle Spiele. Man merkts schön an langen geraden ebenen, das in bestimmten Entfernungen auf einmal so flimmernde Artefakte, etc. enstehen........ Bei meiner alten Radeon 9800er war das definitiv nicht so.

Fazit : selbst der GrakaNoob siehts ( leider :frown: )

mapel110
2005-08-11, 09:09:49
Das, was man bei FEAR sieht, kann doch nicht mit dem AF zusammenhängen, oder doch?!
Also da ists kein Grieseln der Texturen, da ists regelrechtes Aufpoppen und starkes Flackern der Texturen in der Ferne. Irgendwie gefällt mir das gar nicht, aber das sieht für mich mehr danach aus, dass es am Spiel liegt bzw einer Technik, die das Spiel einsetzt.

MikBach
2005-08-11, 10:25:00
Das, was man bei FEAR sieht, kann doch nicht mit dem AF zusammenhängen, oder doch?!
Im Leben nicht.

Also da ists kein Grieseln der Texturen, da ists regelrechtes Aufpoppen und starkes Flackern der Texturen in der Ferne. Irgendwie gefällt mir das gar nicht, aber das sieht für mich mehr danach aus, dass es am Spiel liegt bzw einer Technik, die das Spiel einsetzt.
Da sind entweder die Progger oder der Treiber schuld.

@gisbern

Dann musst du etwas falsch machen, wenn ich bei meiner 6800GT alle Optimierungen ausschalte und auf HQ stelle, ist das AF fast so gut wie mit der 9800PRO.
Sehr selten kann man noch ein minimales Grieseln feststellen, aber das fällt echt kaum auf beim Spielen.

gisbern
2005-08-11, 22:37:27
ich werd nachher mal bei CS n paar Screenies machen und uppen. Vielleicht deute ich die Grafikeffekte ja falsch, ich weiß nur , daß da was störendes ist.

gisbern
2005-08-12, 05:24:49
Hier mal ein Beispiel von dem, was ich meine

http://img224.imageshack.us/img224/1830/csassault00089nt.th.jpg (http://img224.imageshack.us/my.php?image=csassault00089nt.jpg)




in Bewegung sieht das ganze natürlich noch 10 mal bescheidener aus.

DrumDub
2005-08-12, 13:05:02
Hier mal ein Beispiel von dem, was ich meine

http://img224.imageshack.us/img224/1830/csassault00089nt.th.jpg (http://img224.imageshack.us/my.php?image=csassault00089nt.jpg)




in Bewegung sieht das ganze natürlich noch 10 mal bescheidener aus. öhmm... das sieht irgendwie nach bilinearem af aus. :|

Gast
2005-08-12, 13:41:33
Dann funktioniert das aber nicht besonders gut, denn selbst bei einfärbigen Texturen filtert der NV40 mit (dem von den AF Blumen bekannten) 16xAF, wenns eingestellt ist...

ich hab mich vielleicht schlecht ausgedrückt oder du hast ungenau gelesen ;)

der tatsächlich applizierte AF-grad hängt vom verzerrungsgrad und nicht vom inhalt der texturen ab.

zweiteres halte ich auch kaum für sinnvoll. sinnvolles AF sollte von der anwendung bestimmt werden, und da kann der programmierer/designer, wenn er z.b eine einfärbige textur einsetzt, entscheiden dass diese kein AF benötigt und das ganze entsprechend rendern.

gisbern
2005-08-12, 17:14:04
öhmm... das sieht irgendwie nach bilinearem af aus. :|


ich hab das leider sowohl mit im Treiber aktivierten Trilinearem, als auch wenn ich es ausschalte und in Spielen aktiviere. Es wirkt beim laufen dann immer etwaws verschwommen, und artefakthaft.

Mr. Lolman
2005-08-12, 17:26:14
ich hab mich vielleicht schlecht ausgedrückt oder du hast ungenau gelesen ;)

der tatsächlich applizierte AF-grad hängt vom verzerrungsgrad und nicht vom inhalt der texturen ab.

Ich glaub wir haben einfach aneinander vorbei geredet. Natürlich hängt der AF Grad von der Verzerrung ab....


zweiteres halte ich auch kaum für sinnvoll. sinnvolles AF sollte von der anwendung bestimmt werden, und da kann der programmierer/designer, wenn er z.b eine einfärbige textur einsetzt, entscheiden dass diese kein AF benötigt und das ganze entsprechend rendern.

...jedoch wär ne zusätzliche Adaptivität hinsichtlich des Texturcontents besser. Denn dann kann man auch Samples einsparen, ohne dass man unterfiltert - soferns der Content zulässt. Und dass sich momentan die IHVs im Zweifelsfall nicht darum scheren was fürn AF die App anfordert, zeigt ja die Brilinearität bei HQ und UT2003/04.

Neomi
2005-08-12, 18:01:41
...jedoch wär ne zusätzliche Adaptivität hinsichtlich des Texturcontents besser. Denn dann kann man auch Samples einsparen, ohne dass man unterfiltert - soferns der Content zulässt.

Und du meinst wirklich, das wäre sinnvoll? Auch bei einer einfarbigen Textur wird unterfiltert, wenn nicht alle relevanten Texel berücksichtigt werden. Es macht dann zwar keinen (optischen) Unterschied im Endergebnis, aber eine Unterfilterung bleibt eine Unterfilterung. Und um zu entscheiden, ob es einen Unterschied machen würde, müßten die Texel eh gelesen werden. Die nach einer kurzen Analyse eventuell zu verrechnen, braucht mehr Zeit, als sie generell und ungeprüft zu verrechnen.

Der bessere Ansatz ist es, für einfarbige Dinge erst gar keine Textur zu nutzen. Wenn die Engine aus technischen Gründen (Datenhaushalt beispielsweise) eine Textur benötigt, kann ruhig eine einfarbige Textur rein. Die muß dann aber nicht in 1024x1024 vorliegen, das wäre einfach nur schlechter (da unnötig aufgeblasener) Content. 4x4 reicht völlig (bzw. 1x1, aber die Vorteile sind da nur noch theoretischer Natur), dann wird (meistens) auch nur noch der Vergrößerungsfilter herangezogen.

Demirug
2005-08-12, 18:05:41
Neomi, bei einer einfarbigen Texture kannst du nicht unterfiltern. Das ist mathematisch nicht möglich.

Man darf diese Überlegung wie ich schon anderweitig aufgeführt habe aber nicht auf die Gesamte Texture Anwendgen sondern auf Zonen.

aths
2005-08-12, 18:08:04
Denn dann kann man auch Samples einsparen, ohne dass man unterfiltert - soferns der Content zulässt. Und dass sich momentan die IHVs im Zweifelsfall nicht darum scheren was fürn AF die App anfordert, zeigt ja die Brilinearität bei HQ und UT2003/04.Das mit dem Unterfiltern sollte man trotzdem nicht tun, auch nicht für Zonen, wie Demirug vorschlägt. Ich sehe da Probleme in der Kontinuität.

Bei einem analogen Signal könnte man einfach die Sample-Abstände vergrößern. Die Textur liegt digital vor, mit festen Sample-Abständen. Verlässt man dieses Raster und übersieht einfach einige Texel, und begibt sich nach Shannon/Nyquist nicht mal in den Aliasing-Bereich, müsste es trotzdem Moiré-artige Effekte geben.

Für rein einfarbige Flächen wird man kaum Texturen nehmen, da hat Neomi Recht, und wenn doch, wird nur ein bekloppter Entwickler dafür AF für den Magfilter aktivieren. Bilinear reicht da aus (wobei 4x4 zu klein sein könnte, da ATI nur 6 Bit Auflösung für die Gewichte beim Bi-Filter nutzt.)

Gute Texturen, für die AF genutzt wird, sollten von vornherein so sein, dass man tatsächlich jedes Texel berücksichtigen muss. Sonst wäre es Verschwendung von Speicherplatz und Speicherbandbreite.

Neomi
2005-08-12, 18:35:39
Neomi, bei einer einfarbigen Texture kannst du nicht unterfiltern. Das ist mathematisch nicht möglich.

Das sehe ich anders. Natürlich bleibt bei einfarbigen Texturen das Endergebnis identisch, aber das würde ich nicht als Kriterium heranziehen. Der Weg ist das Ziel. Daß die Abkürzung nicht auffällt, ist dabei nur ein Sonderfall. So wäre meine Definition von Unterfilterung. Eine offizielle Definition habe ich nicht gefunden, ich finde da per Google nur eine News von hier (aber die Worte stehen nicht im Zusammenhang) und ein Zierfischforum.

aths
2005-08-12, 18:41:06
Das sehe ich anders. Natürlich bleibt bei einfarbigen Texturen das Endergebnis identisch, aber das würde ich nicht als Kriterium heranziehen. Der Weg ist das Ziel. Daß die Abkürzung nicht auffällt, ist dabei nur ein Sonderfall. So wäre meine Definition von Unterfilterung. Eine offizielle Definition habe ich nicht gefunden, ich finde da per Google nur eine News von hier (aber die Worte stehen nicht im Zusammenhang) und ein Zierfischforum.Betrachtest du die einfarbige Textur im Spektrum, hast du kein Signal-Band, sondern nur einen Koeffizienten bei f=0. Dementsprechend groß können die Sample-Abstände sein.

Um nicht zu unterfiltern benötigt man eine Samplefrequenz >= 2x Maximal-Frequenz im Signal. Das würde ich als Kriterium heranziehen.

Andererseits wird man immer bilinear filtern (Pointsampling bringt keine Vorteile) und für eine einfarbige Textur sollte man auch nur bilineare Filterung und kein AF aktivieren. Dann gewinnt man mit Unterfilterung keine Leistung. Enthält eine Textur nur niederfrequente Anteile, würde ich aber auch nicht unterfiltern wollen. Wenn man wirklich unterfiltern könnte ohne dass man einen Unterschied sieht, ist die gewählte Texturauflösung zu hoch. Bei vernünftigem Content sehe ich keine Chance, mit Unterfilterung Performance zu sparen ohne tatsächlich die Qualität zu senken.

Neomi
2005-08-12, 18:49:18
Das mit dem Unterfiltern sollte man trotzdem nicht tun, auch nicht für Zonen, wie Demirug vorschlägt. Ich sehe da Probleme in der Kontinuität.

Die Probleme sehe ich auch. Man müßte schon im Grenzbereich zwischen zwei Zonen beide Filtersettings durchrechnen und dazwischen interpolieren, aber der Mehraufwand würde wohl mehr kosten, als die Zonenaufteilung bringen würde.

Für rein einfarbige Flächen wird man kaum Texturen nehmen, da hat Neomi Recht, und wenn doch, wird nur ein bekloppter Entwickler dafür AF für den Magfilter aktivieren. Bilinear reicht da aus (wobei 4x4 zu klein sein könnte, da ATI nur 6 Bit Auflösung für die Gewichte beim Bi-Filter nutzt.)

Den Anisotropen Filtermodus gibt es für den Magfilter nicht wirklich. Zumindest fällt mir gerade keine GPU ein, die das anbietet, wäre ja auch nicht gerade sinnvoll. Die 6 Bit können bei einfarbigen Texturen auch nichts mehr kaputtmachen, die Summe aller Gewichte bleibt bei 1.

Gute Texturen, für die AF genutzt wird, sollten von vornherein so sein, dass man tatsächlich jedes Texel berücksichtigen muss. Sonst wäre es Verschwendung von Speicherplatz und Speicherbandbreite.

Genau.

Neomi
2005-08-12, 18:56:11
Betrachtest du die einfarbige Textur im Spektrum, hast du kein Signal-Band, sondern nur einen Koeffizienten bei f=0. Dementsprechend groß können die Sample-Abstände sein.

Um nicht zu unterfiltern benötigt man eine Samplefrequenz >= 2x Maximal-Frequenz im Signal. Das würde ich als Kriterium heranziehen.

OK, überzeugt. Ich hatte jetzt nur berücksichtigt, daß bei dieser "Unterfilterung" definitiv vorhandene Texel ignoriert werden.

aths
2005-08-12, 19:04:03
Die Probleme sehe ich auch. Man müßte schon im Grenzbereich zwischen zwei Zonen beide Filtersettings durchrechnen und dazwischen interpolieren, aber der Mehraufwand würde wohl mehr kosten, als die Zonenaufteilung bringen würde.Genau. Nun könnte es sein dass eine Textur einen reinen einfarbigen Bereich hat. Die Tiles, die auch noch Details zeigen, könnten dann voll, die Tiles die rein einfarbig sind, rein bilinear gefiltert werden. Aber wann gibt es solche Situationen schon mal?

Den Anisotropen Filtermodus gibt es für den Magfilter nicht wirklich. Zumindest fällt mir gerade keine GPU ein, die das anbietet, wäre ja auch nicht gerade sinnvoll. Die 6 Bit können bei einfarbigen Texturen auch nichts mehr kaputtmachen, die Summe aller Gewichte bleibt bei 1.Ja, aber für Farbverläufe würden sich ja 2x2-Texturen anbieten – was bei ATI dann ziemlich komisch aussieht.

Kann man für den Magnify kein AF einstellen? Auch bei Vergrößerung kann man nichtquadratische Pixel im Textur-Space haben.

aths
2005-08-12, 19:13:36
Meinem Empfinden nach wurde die AF-Qualität von ATI und Nvidia schon immer genauer untersucht. Und als der R300 rauskam wurde klar festgestellt, dass das AF der GeForce 4 TI besser war als das des R300, allerdings war das AF des R300 auch bei höchster Stufe noch bei minimalen Performanceinbussen nutzbar, während die GeForce 4 Ti Karten im Vergleich bei aktiviertem AF deutlich Federn lassen musste. Für Qualitätsfanatiker war der R300 somit doch die bessere Wahl.Nur beim Antialiasing. Die AF-Qualität der GF4 ist der des R300 deutlich überlegen.

Außerdem war der Unterschied beim R300 zur GF 4 Ti Reihe nicht so gravierend, dass das subjektiv eine Rolle gespielt hätte. Ja, viele sehen da keine gravierenden Unterschiede. Jetzt mit WoW wird für immer mehr Leute der Nachteil durch die Winkelabhängigkeit ersichtlich.

Als Nvidia dieses brilineare Filtern einführte, war die AF-Qualität bei Nvidia vorübergehend sogar subjektiv schlechter als bei ATI bis Nvidia dann die Möglichkeit anbot, die Optimierungen auszuschalten, weil die User eben möglichst optimale AF-Qualität wollten (wenn sie mit der GeForce FX schon nicht die schnellste DX9-Karte gekauft haben, dann wenigstens doch die mit der besten Bildqualität).

Ich sehe die Schuld an der AF-Misere der GeForce 7800 GTX nicht bei den Usern.Die Schuld bei der vergurkten AF-Implementierung im G70 hat Nvidia. Keine Frage. Auch das NV40-AF ist für einen SM3-Chip imo indiskutabel, das R300/R420-AF ebenfalls nicht mehr zeitgemäß.

Neomi
2005-08-12, 19:42:09
Kann man für den Magnify kein AF einstellen? Auch bei Vergrößerung kann man nichtquadratische Pixel im Textur-Space haben.

Einstellen könnte man es schon, genau so wie man auch PyramidalQuad und GaussianQuad einstellen könnte. Allerdings beherrscht das keine Grafikkarte. Nichtmal die 6600, die ich hier in meinem Entwicklungsrechner habe, kann beim Vergrößern anisotrop filtern.

Demirug
2005-08-12, 19:50:45
Einstellen könnte man es schon, genau so wie man auch PyramidalQuad und GaussianQuad einstellen könnte. Allerdings beherrscht das keine Grafikkarte. Nichtmal die 6600, die ich hier in meinem Entwicklungsrechner habe, kann beim Vergrößern anisotrop filtern.

Versuch mal bei Managed DX einen Filter in einen nicht unterstützten Modus zu zwingen.

Bei den Radeons kann man auch für den Mag Filter AF einstellen bei den nVidia Karten allerdings auch wenn man eine ältere DX Version nimmt. IIRC wird das MAG AF bei den nVidia Karten automatisch aktiviert wenn das MIN AF aktiv ist.

Neomi
2005-08-12, 20:48:40
Bei den Radeons kann man auch für den Mag Filter AF einstellen bei den nVidia Karten allerdings auch wenn man eine ältere DX Version nimmt.

Tatsache, mein Fehler. Ich sollte wohl nicht von den Caps einer featuremäßig fortschrittlicheren Karte auf die Features einer anderen schließen. Obwohl ich den Caps der Radeon auch nicht blind vertraue. Ich bin mir z.B. ziemlich sicher, daß sie Den Border-Adressierungsmodus wie gewünscht nutzt, wenn man ihn einstellt, obwohl der laut Caps nicht unterstützt wird.

Managed DX nutze ich nicht. Was passiert denn da, wenn man etwas nicht unterstütztes erzwingen will?

Demirug
2005-08-12, 21:36:26
Tatsache, mein Fehler. Ich sollte wohl nicht von den Caps einer featuremäßig fortschrittlicheren Karte auf die Features einer anderen schließen. Obwohl ich den Caps der Radeon auch nicht blind vertraue. Ich bin mir z.B. ziemlich sicher, daß sie Den Border-Adressierungsmodus wie gewünscht nutzt, wenn man ihn einstellt, obwohl der laut Caps nicht unterstützt wird.

Mit dem Border war irgendwas. Das geht IIRC nicht in allen Fällen und wird deswegen nicht gemeldet.

Managed DX nutze ich nicht. Was passiert denn da, wenn man etwas nicht unterstütztes erzwingen will?

Es wird eine Exception geworfen.

Neomi
2005-08-13, 00:21:37
Mit dem Border war irgendwas. Das geht IIRC nicht in allen Fällen und wird deswegen nicht gemeldet.

Das ist ja doof. Vor allem, da Clamp keine wirkliche Alternative ist, zu viele Einschränkungen bei den Mipstufen. Ich habe gerade danach gesucht, was da mit Border nicht stimmt, aber leider nichts genaues gefunden.

eXodia
2005-08-13, 17:07:17
Also die einzige möglichkeit die ein Printmedium hat sich damit tiefgründiger auseinanderzusetzten ist IMO ein solches was sich ausschließlich mit Grakas beschäftigt, da hier nicht auch noch andere themen wie Proz. oder Ram, etc. behandelt werden. -> viel platz um sich ausschlieslich auf ein Thema zu konzentrieren. Das problem hierbei ist das sich ein solches Medium wohl nicht verkaufen würde da es nur wenige gibt die sich hauptsächlich dafür interessieren...( wenns gut wär würd ich mir eins holen... :D )

GrUß

Oblivion
2005-08-14, 19:04:27
Also die einzige möglichkeit die ein Printmedium hat sich damit tiefgründiger auseinanderzusetzten ist IMO ein solches was sich ausschließlich mit Grakas beschäftigt, da hier nicht auch noch andere themen wie Proz. oder Ram, etc. behandelt werden. -> viel platz um sich ausschlieslich auf ein Thema zu konzentrieren. Das problem hierbei ist das sich ein solches Medium wohl nicht verkaufen würde da es nur wenige gibt die sich hauptsächlich dafür interessieren...( wenns gut wär würd ich mir eins holen... :D )

GrUß

Braucht man heutzutage für alles Spezialisten - ging doch früher auch ohne ... manchmal versteh ich das System echt nimma

@Topic: hab seit gestern eine 6800GT und ja ich erkenne die Unterschiede - aber so schlimm is es nun auch wieder nicht - weil so groß is der Unterschied zwischem dem G70 und dem N4X in dem Bereich glaub ich nicht

Oblivion
2005-08-14, 19:08:02
Ati weil sie damit angefangen haben
Wir weil wir die Scheisse geschluckt haben
Nvidia weil sie es nachgemacht haben
Wir weil wir wieder geschluckt haben
Nvidia weil sie es noch weiter verschlimmert haben

"Wir haben diese Scheisse geschluckt" - hättest du damals, nur weil die AF Quali net grad besonders war dir keine neue Graka gekauft? Glaub ich kaum

Black-Scorpion
2005-08-14, 20:26:04
@Topic: hab seit gestern eine 6800GT und ja ich erkenne die Unterschiede - aber so schlimm is es nun auch wieder nicht - weil so groß is der Unterschied zwischem dem G70 und dem N4X in dem Bereich glaub ich nicht
Dann schau dir die Videos in dem Artikel an.
HighEnd-Chip G70: Nur noch mit flimmernder Grafik? (http://www.3dcenter.org/artikel/g70_flimmern/)