PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Einseitige BQ-Diskussion ATI/NVidia


BlutenderFleischer
2006-03-11, 18:21:14
Bisher war ich nur stiller Leser, aber die Einseitigkeit, mit der die Diskussion geführt wird, hat mich letztenendes dazu gebracht, mich mal anzumelden.
Also:
Der AF von NVidia ist für die Tonne. Das kann man ungeschminkt so stehen lassen, weil es stimmt.
Aber das Thema AA wird totgeschwiegen. ATI hat weder vernünftiges SSAA noch vernünftige Mixmodi.
Mit dem Release des G71 und des R580 sind die Karten erstmals in der Lage, hohes AA bei modernen Spielen (ohne SLI) vernünftig darzustellen, daher gewinnt es an Bedeutung.
Meine Behauptung: G71 bietet mit 2x2, 4x4 SSAA eine deutlich bessere BQ als ATI, da diese Modi auf R580 nicht verfügbar sind. Vernünftigen Support bietet mir ATI nur bei MSAA, für MSAA brauche ich aber keine X1900XTX, da kann man gleich bei seiner X800XT oder 6800GT/U bleiben.
MSAA ist nur in der Lage reale Kanten zu glätten, Aliasing innerhalb von Texturen bleibt bestehen, NVs SSAA glättet auch dieses mit.
Der Vorteil, auch innerhalb Texturen glätten zu können, wiegt den Nachteil des schwachen Flimmerns (auf Hohe BQ ist es kaum noch wahrnehmbar, es sei denn man WILL es UNBEDINGT sehen) mehr als auf. Und die neue GraKa Generation wird vom Performance Hit nicht mehr in die Knie gezwungen.

Spasstiger
2006-03-11, 18:30:12
4x4 SSAA packt auch eine GeForce 7900 GTX nicht so locker leicht, wie du das hier darstellst.
2x2 SSAA ist mit ATI-Karten möglichen, wenn man den DXTweaker verwendet.

Gut, bei GTA San Andreas ist 16xS AA natürlich was feines, wem es nur um das Spiel geht, würde ich klar zur einer NVidia-Karte raten. Aber z.B. Fear mit 16xS AA in 1280x1024 auf einer GeForce 7900 GTX? Das muss man sich nicht unbedingt antun.

Übrigens wird der SSAA-Vorteil meiner Meinung nach oft genug erwähnt, es gibt hier fast keine sachliche Grafikkarten-Diskussion, in der das Thema nicht fällt.

Mit dem Adaptiven AntiAliasing ist ATI außerdem schon einen Schritt in Richtung Supersampling gegangen.

Mr. Lolman
2006-03-11, 18:37:59
x) 2x2AA = 3x höhere Füllratenlast. 4x4 = 15x höhere Füllratenlast.
x) AAA/TSAA hilft gegen Texturkantenflimmern.
x) Gutes AF macht SSAA überflüssig.

Odal
2006-03-11, 18:38:42
zumal man eben wie angesprochen den DXTweaker von Demi nehmen kann. Neue Spiele wird es aber kaum geben die man mit SSAA noch ansprechend auf einer 7900GTX / 1900XTX spielen kann.

Spasstiger
2006-03-11, 18:45:44
Man muss auch bedenken, dass nur eine Handvoll 3D-Freaks wie wir hier im Forum überhaupt was mit SSAA anzufangen wissen. Und wer SSAA samt Mixmodi braucht, hat ja die Möglichkeit, eine Nvidia-Karte zu kaufen. Für die breite Masse ist es eher ein uninteressantes Feature (genauso kann man natürlich auch beim wuAF von ATI argumentieren).
Und wenn man übers SSAA diskutiert, sollte man noch erwähnen, dass ordered-Grid-Muster wie bei Nvidias SSAA leider sehr uneffektiv sind. ;)
Auch erwähnenswert ist, dass Nvidia im Treiber offiziell nur 2xSSAA freigibt in Form des 8xS Mischmodus.

Gast
2006-03-11, 19:16:54
Wer NV-Karten ohne (Riv)atuner einsetzt interessiert sich doch eh nicht für Bilqualität, nur der Balken, der soll länger werden! :uhammer:

Blackpitty
2006-03-11, 19:40:30
ich sag auch mal meine Meinung.

für mich ist das vollkommen egal, welche Firma(ATI oder nVidia) das bessere Bild produziert, denn beide erstellen eins, und ob da nun ein Pixel besser aussieht als das andere ist doch sowas von egal, ich sehe überhaupt keinen Unterschied, und wenn auf irgend so einem Vergleichsbild einer ist, dann fällt der im Game niemals auf, oder nehmt ihr ne Lupe beim zocken?

Mir ist es wichtig, dass es keine hässlichen Teppeneffeckte an den Kannten gibt, und der Rest spielt sich in einem so minimalen Bereich ab, das er doch kaum Wahrnehmbar ist, besonders wenn man sich auf das Spiel konzentriert.

deekey777
2006-03-11, 19:52:14
Man muss auch bedenken, dass nur eine Handvoll 3D-Freaks wie wir hier im Forum überhaupt was mit SSAA anzufangen wissen. Und wer SSAA samt Mixmodi braucht, hat ja die Möglichkeit, eine Nvidia-Karte zu kaufen. Für die breite Masse ist es eher ein uninteressantes Feature (genauso kann man natürlich auch beim wuAF von ATI argumentieren).
Und wenn man übers SSAA diskutiert, sollte man noch erwähnen, dass ordered-Grid-Muster wie bei Nvidias SSAA leider sehr uneffektiv sind. ;)
Auch erwähnenswert ist, dass Nvidia im Treiber offiziell nur 2xSSAA freigibt in Form des 8xS Mischmodus.

Rate mal, um welches SSAA es sich beim DX Tweaker handelt. ;)
ich sag auch mal meine Meinung.

für mich ist das vollkommen egal, welche Firma(ATI oder nVidia) das bessere Bild produziert, denn beide erstellen eins, und ob da nun ein Pixel besser aussieht als das andere ist doch sowas von egal, ich sehe überhaupt keinen Unterschied, und wenn auf irgend so einem Vergleichsbild einer ist, dann fällt der im Game niemals auf, oder nehmt ihr ne Lupe beim zocken?

Mir ist es wichtig, dass es keine hässlichen Teppeneffeckte an den Kannten gibt, und der Rest spielt sich in einem so minimalen Bereich ab, das er doch kaum Wahrnehmbar ist, besonders wenn man sich auf das Spiel konzentriert.

Es ist extrem wahrnehmbar, wenn AT- oder AB-Texturen nicht antia-alisiert werden. Das sieht jeder.
Ich werde micht bestimmt wiederholen, aber ich hatte eine 9100 128 MB in meinem Rechner, die nur SSAA beherrscht, dann kam die 9600XT mit ihrem MSAA, und siehe da: Kanten, wo vorher keine waren. Erst mit adaptivem Anti-Aliasing (mit 4xRGSSAA bzw. 6xSGSSAA für AT-/AB-Texturen) wirkt alles ruhiger, besonders in Bewegung.

Blackpitty
2006-03-11, 20:15:42
mit meiner 7800GTX habe ich auch keine Kanten sichtbar, und bin vollstens zufrieden damit.

Ich wollte auch nur mit meinem Posting ausdrücken, dass es doch auf die wichtigen Sachen wie glatte Kanten ankommt, und so andere minimale Unterschiede in einer Textur doch eh nicht wargenommen werden, jedenfalls nicht von mir. Ich stelle aber in Games schon aus gewonheit Af an.

Ich würde aber meinen Grafikkartenkauf nie an solchen Dingen entscheiden, sondern eher an anderen, wie Preis, gebotene Leistung, Stromvebrauch, Zubehör und so weiter, aber nicht an einer minimalen besseren BQ die ich sowieso nicht wahrnehme außer auf einem in einer Zeitung schlechtgedruckten Bild :rolleyes:

Fetza
2006-03-11, 20:18:03
(genauso kann man natürlich auch beim wuAF von ATI argumentieren).

sehe ich anders, das wuAF bietet deutlich bessere af quali die sehr performant umgesetzt wird. Wie SSAA auf die füllrate schlägt wurde ja oben bereits gesagt. SSAA ist wohl kaum mit einem modernen shooter nutzbar, wuAf jedoch ohne weiteres.

greetz

Fetza

Monger
2006-03-11, 20:30:00
Mit Supersampling kenne ich mich nicht aus, aber es scheint mir doch insgesamt eine ziemlich dämliche Idee zu sein. Der Gewinn an Bildqualität steht in keinem Verhältnis zu den Performance Kosten. Für bestimmte Effekte wie eben die Alpha Texturen ist Super Sampling nicht uninteressant, aber man sieht ja, wie sehr es auch dort die Performance herunterreisst.

Kantenglättung sieht man bis 4fach imho sehr deutlich, AF sieht man - je nach Spiel - auch immer noch deutlich. Der Unterschied muss auch einem Otto-Normalspieler auffallen, und ist somit durchaus ein Kaufargument.

Raff
2006-03-11, 20:42:25
x) Gutes AF macht SSAA überflüssig.

Richtig. Nvidias Mischmodi wären in Kombination mit TSSAA garnicht notwendig, wenn die anisotrope Filterung nicht flimmern würde und obendrein winkelunabhängig wäre. Ein netter Bonus wäre es dann aber trotzdem.

MfG,
Raff

Gast
2006-03-11, 20:51:16
...Ein netter Bonus wäre es dann aber trotzdem.Vor allem, da es auch auf Flimmershader wirkt, auf die TSSAA nicht reagiert. Auch aus Kompatibilitätssicht sind SSAA-Modi häufig die einzige Möglichkeit, überhaupt Kantenglättung zu bekommen, vor allem bei SW-Antiquitäten, bei denen moderne Grakas auch bei wahnwitzigen Sampledichten kaum aus dem Winterschlaf aufwachen.

Mr.Magic
2006-03-11, 21:31:43
Juhu, ATi bietet endlich gutes AF nachdem sie nVidia gezwungen haben ihre AF-Qualität zu senken. Allgemein ist es natürlich positiv, da wir somit in Zukunft wohl von beiden Anbietern vernünftiges AF bekommen werden.

Rate mal, um welches SSAA es sich beim DX Tweaker handelt. ;)


Es ist extrem wahrnehmbar, wenn AT- oder AB-Texturen nicht antia-alisiert werden. Das sieht jeder.
Ich werde micht bestimmt wiederholen, aber ich hatte eine 9100 128 MB in meinem Rechner, die nur SSAA beherrscht, dann kam die 9600XT mit ihrem MSAA, und siehe da: Kanten, wo vorher keine waren. Erst mit adaptivem Anti-Aliasing (mit 4xRGSSAA bzw. 6xSGSSAA für AT-/AB-Texturen) wirkt alles ruhiger, besonders in Bewegung.

Ja, den Effekt kenne ich gut. Als ich 2001 den Hauptrechner von einer Voodoo 5 auf eine GeForce 3 umrüstete war das ein Schock. 4xAA und 2xAF der GeForce kamen nicht mal an das 2xAA ohne AF der Voodoo ran. Das war so grausam, dass ich bis auf wenige Ausnahmen, nämlich Spiele die von T&L spürbar profitierten (z.B. Gothic), fast nur noch am Zweitrechner (und somit der Voodoo 5) spielte.

Raff
2006-03-11, 21:34:24
Juhu, ATi bietet endlich gutes AF nachdem sie nVidia gezwungen haben ihre AF-Qualität zu senken. Allgemein ist es natürlich positiv, da wir somit in Zukunft wohl von beiden Anbietern vernünftiges AF bekommen werden.

Wenn man Nvidia nicht in die Betrachtung einbezieht, hat Ati seine AF-Methoden kontinuierlich verbessert.

MfG,
Raff

Black-Scorpion
2006-03-11, 21:54:09
Juhu, ATi bietet endlich gutes AF nachdem sie nVidia gezwungen haben ihre AF-Qualität zu senken.
Stimmt, alle Mitarbeiter von ATI haben mit schweren Geschützen vor nVidias HQ gestanden und gedroht es nieder zumachen wenn sie das AF nicht verschlechtern. ;)
Es war ganz allein nVidias Entscheidung die Qualität beim AF runter zuschrauben.

Gast
2006-03-11, 22:40:51
Stimmt, alle Mitarbeiter von ATI haben mit schweren Geschützen vor nVidias HQ gestanden und gedroht es nieder zumachen wenn sie das AF nicht verschlechtern. ;)
Es war ganz allein nVidias Entscheidung die Qualität beim AF runter zuschrauben.
Welche deiner beiden Behauptungen hat nun eine unterschwelligere Ironie?


Q

Mr.Magic
2006-03-11, 22:45:35
@Raff

Und wenn man 3dfx nicht in betracht zieht hat nVidia mit AA die Welt revolutioniert. Mit anderen Worten: "Was willst Du damit sagen?".

Stimmt, alle Mitarbeiter von ATI haben mit schweren Geschützen vor nVidias HQ gestanden und gedroht es nieder zumachen wenn sie das AF nicht verschlechtern. ;)
Es war ganz allein nVidias Entscheidung die Qualität beim AF runter zuschrauben.

Wenn man es ganz genau nimmt sind die ganzen Tester schuld die nur auf die Zahlen guckten ohne auf die Qualität einzugehen. Es wurde nur gesehen/geschrieben ATi's Karten sind bei 16xAF schneller als nVidia's bei 8xAF. Das ATi's 16xAF nicht mal an das 4xAF der FXen rankam wurde verschwiegen. Als ob die FX nicht genug Probleme gehabt hätte, nein, man musste in Test auch noch auf dem "minderwertigeren" (8x gegenüber 16x) AF rumreiten. Und da nVidia genau weiß, dass der Durchschnittsdau auf Bildqualität sowieso keinen Wert legt, wurde ebenfalls auf Winkelabhängigkeit umgestellt.

nVidia ist schuld, dass AA lange Zeit vernachlässigt wurde - ohne die Voodoo 5 gäbe es wohl immer noch keines und ohne ATi wären wir wohl immer noch beim Ordered Grid MSAA; wenigstens kamen sie zuerst mit TAA, kleines Trostpflaster
ATi ist schuld, dass AF lange Zeit beschissen war - die erste Karte die es halbwegs vernünftig konnte war die X1800
nVidia ist schuld, dass SM2.0 nie irgendeine Relevanz hatte
ATi ist schuld, dass eine verstärkte Verwendung von SM3.0 so weit verzögerte, dass es wohl nie wirklich relevant wird (mit Vista und Unified Shadern stirbt mein Interesse an SM3.0)
ATi ist schuld, dass es keine vernünftige, einheitliche HDR-Implementierung in Spielen gibt

Wenn ich länger überlege fallen mir bestimmt noch 1000 Sachen ein die beide Hersteller verbockten. Das ATi vernünftiges AF bietet ist für mich jedoch kein Grund zu feiern. Um von mir dafür gelobt zu werden hätten sie das schon bei dem R300 bieten müssen und das winkelabhängige AF bei NV40+ wäre uns erspart geblieben.

Gast
2006-03-11, 22:45:51
Wenn man Nvidia nicht in die Betrachtung einbezieht, hat Ati seine AF-Methoden kontinuierlich verbessert.

MfG,
Raff
Besonders der Schritt von R3xx zu R4xx war toll. Versteckte Optimierungen und gesenktes LOD.

Q

Raff
2006-03-11, 22:51:54
Besonders der Schritt von R3xx zu R4xx war toll. Versteckte Optimierungen und gesenktes LOD.

Q

Lächerlich, wenn man den Sprung von R200 auf R300 anschaut. Und jetzt R520 mit teilweiser (komisches Wort) Winkelunabhängigkeit.

Nicht dass ich falsch verstanden werde: Nvidias AF-Methode war bis einschließlich NV38 superb (ohne "Optimierungen"). Aber Ati hat sich grob stets gesteigert und nun überholt. Schuld daran, dass NV "downgradete" waren vor allem die Tester zu Zeiten von "NV30 vs. R300".

MfG,
Raff

Gast
2006-03-11, 22:58:15
Lächerlich, wenn man den Sprung von R200 auf R300 anschaut. Und jetzt R520 mit teilweiser (komisches Wort) Winkelunabhängigkeit.

MfG,
Raff
Stimmt, aber schlechter als R200 konnten es ja nur die Jungs von XGI machen. Da war eine Verbesserung von biWaAF auf triWaAF keine große Kunst. Allerdings war auch das noch "lächerlich" gegen das AF, welches selbst eine GF3 besser hinbekam (bis 2xAF sogar die GF2).

Das erste akzeptable AF seit der GF3/4/FX ist das der X1K.


Q

Coda
2006-03-11, 22:58:52
x) Gutes AF macht SSAA überflüssig.Ja, wenn man die Entwickler mit irgendwas schmerzhaftem dazu zwingt ihre Shader flimmerfrei zu machen.

Da das so sein sollte geb ich dir recht ;)

Gast
2006-03-11, 23:02:41
Wie schaut es eigentlich in Zukunft aus? Eigentlich sollten doch, je polygon- und damit kantenreicher die Spiele werden, die Füllraten-Unterschiede zwischen MSAA und SSAA langsam abnehmen.
Klar, noch sind es Welten...

Anderer Punkt: Parallax Occlusion Mapping. Gehyped ohne Ende, verwendet in ein paar Techdemos und AFAIK zwei Spielen (CoD2 und Oblivion). Dort wird konventionelles MSAA samt Adaptiven oder transparenten Spielereien wirkungslos bleiben.
Doch ein Fall für SSAA? Oder muss man hier aus Leistungsgründen doch auf einmal mit Wandertreppen leben?

Q

Mr.Magic
2006-03-12, 00:02:24
Dummerweise sind noch viel zu viele Käufer unbedarft was AA angeht. Somit bleibt es vorerst für Hardware- und Softwareentwickler eine Kür und keine Pflicht. Es wird wohl in den nächsten Jahren immer wieder Zeiten geben wo wir ohne AA leben müssen, vor allem wenn neue Effekte dazukommen. Wenn ich an die ganzen SM1&2-Spiele denke die aufgrund der Art ihrer Full-Screen-Effects-Implementierung kein AA zulassen könnte ich kotzen.

Fazit: Wir werden wohl immer wieder mit Wandertreppen leben müssen oder können der Softwareindustrie durch Verzicht zeigen das wir sowas nicht wollen.

Spasstiger
2006-03-12, 03:30:18
sehe ich anders, das wuAF bietet deutlich bessere af quali die sehr performant umgesetzt wird. Wie SSAA auf die füllrate schlägt wurde ja oben bereits gesagt. SSAA ist wohl kaum mit einem modernen shooter nutzbar, wuAf jedoch ohne weiteres.

greetz

Fetza
Von der Performance sprach ich ja gar nicht, sondern von der Sichtbarkeit. Uns 3D-"Freaks" fällt der Unterschied natürlich sofort auf, weil wir auf solche Dinge achten und weil wir wissen, wo man hinschauen muss.
Einem Laien wird der Unterschied zwischen aktiviertem und nicht aktiviertem wuAF beim Spielen niemals auffallen, wenn man ihn nicht auf die unterschiedliche Bildqualität hinweist und ihm Anweisungen gibt, wo er hinzuschauen hat.

Immerhin sind wir soweit, dass viele Spiele AntiAliasing und anisoptropes Filtern direkt in den Grafikoptionen anbieten, was zu einem größeren Interesse an diesen Features führt. Ende 2003 oder Anfang 2004 musste ich beispielsweise einem Radeon 9800 XT Besitzer noch direkt die Vorteile von AA/AF zeigen und ihm erklären, wie er diese Features zuschalten kann und wo er AA besser weglässt.Z.B. habe ich ihm gezeigt, was in Need for Speed Underground passiert, wenn man Motion Blur und AA aktiviert. Dann hab ich ihm gezeigt, wie das Spiel ohne Motion Blur, dafür aber mit 6xAA aussieht. Er war schlicht begeistert. Und ich habe mich gefreut, etwas für die Akkzeptanz von AA/AF getan zu haben. ;)

Wie schaut es eigentlich in Zukunft aus? Eigentlich sollten doch, je polygon- und damit kantenreicher die Spiele werden, die Füllraten-Unterschiede zwischen MSAA und SSAA langsam abnehmen.
Klar, noch sind es Welten...
Polygonreichtum hat keinen Einfluss auf den Füllraten-Bedarf.

Ailuros
2006-03-12, 04:24:30
Erstens hatte NV3x schon einige Optimierungen im Vergleich zu NV2x und zweitens ist das HQ AF auf R5x0/RV5x0 nicht "winkel-unabhaengig" sondern winkelunabhaengiger.

Komischerweise verlieren R5x0 etwa 50% mit HQ AF wenn man AI abschaltet, eben genauso wie auch GFs (quality-->high quality) im adaptiven SSAA demo von Humus.

Natuerlich wird sich kein Mensch so leicht hinsetzen und das Ganze mal ausnahmsweise unter die Lupe nehmen, weil es eben gerade schoen passt dass NVIDIA alleine die ganze Kritik fuer Filterungs-Optimierungen einkassiert und ATI einfach verschont wird.

Manche sollten endlich mal die roten Brillen und die Spiegeleier von ihren Augen entfernen und gegen den Optimierungs-quark protestieren. So lange einer der beiden damit verschont bleibt wird sich wohl schwer etwas aendern. Und ja sogar wenn zukuenftige GPUs eine kleinere Winkel-abhaengigkeit haben als heute.

Ailuros
2006-03-12, 04:28:49
Polygonreichtum hat keinen Einfluss auf den Füllraten-Bedarf.

Sein Gedanke ist zwar logisch aber es wird dauern bis wir zu dem Punkt kommen. Momentan sind Polygone so gross dass prozentuell die Eckdaten eines Polygons um zich Male kleiner sind in Quantitaet als im inneren eines Polygons.

Jetzt stell Dir mal einen Fall vor, wo Polys so winzig sind dass die obrigen Balance sich radikal aendert. In dem Fall macht dann Multisampling nicht mehr viel Sinn. Und nochmal selbst wenn bezieht sich eine solche These auf die nicht absehbare Zukunft.

Mr. Lolman
2006-03-12, 09:55:00
Natuerlich wird sich kein Mensch so leicht hinsetzen und das Ganze mal ausnahmsweise unter die Lupe nehmen, weil es eben gerade schoen passt dass NVIDIA alleine die ganze Kritik fuer Filterungs-Optimierungen einkassiert und ATI einfach verschont wird.

Manche sollten endlich mal die roten Brillen und die Spiegeleier von ihren Augen entfernen und gegen den Optimierungs-quark protestieren. So lange einer der beiden damit verschont bleibt wird sich wohl schwer etwas aendern. Und ja sogar wenn zukuenftige GPUs eine kleinere Winkel-abhaengigkeit haben als heute.

Du hast anscheinend zugang zu ner X1. Nimms doch selbst unter die Lupe anstatt zu jammern.

Coda
2006-03-12, 11:21:12
Polygonreichtum hat keinen Einfluss auf den Füllraten-Bedarf.Nicht ganz richtig. Viele kleine Polygone schmälern die Effizienz von Rasterizern beachtlich und damit sinkt auch die effektive Füllrate.

Aber SSAA wird dadurch trotzdem nicht schneller sondern bleibt gleich lahm ;)

Raff
2006-03-12, 12:21:13
Aber sobald Multisampling sich von der Geschwindigkeit dem Supersampling nähert, bekommt letzteres mehr Sinn. Sparse grid SSAA? ;)

MfG,
Raff

Gast
2006-03-12, 12:26:09
Lächerlich, wenn man den Sprung von R200 auf R300 anschaut. Und jetzt R520 mit teilweiser (komisches Wort) Winkelunabhängigkeit.



vor dem R300 das AF der radeon als bildverbesserung zu bezeichnen ist ja schon ein frevel.

Ailuros
2006-03-12, 13:44:25
Du hast anscheinend zugang zu ner X1. Nimms doch selbst unter die Lupe anstatt zu jammern.

Eine bessere Antwort haette ich von Dir sowieso nicht erwartet.

3DCenter hat einen ausgezeichneten Anfang gemacht mit dem X1900 Review; man koennte eventuell als Beispiel auch etwas tiefer eingreifen und die ganze Sache unter die Lupe nehmen und zeigen dass bei beiden IHVs wenn behauptet wird dass Optimierungen ausgeschaltet sind, doch noch etwas im Hintergrund schlummert.

Hier geht es gar nicht wer bescheisst bei der Filterung, sondern wer besser seine Bescheisserei verstecken kann.

Wie dem auch sei, wenn ich Lust dazu bekomme so viel Zeit fuer so ein Projekt zu opfern, dann vielleicht schon. Ich hab die Lust generell fuer jeglichen 3D Mist in letzter Zeit verloren, eben weil mir viel zu viele ihre Meinung nach ihren Bevorzugungen und Interessen orientieren und dieser kleinpolitische Mist geht mir so langsam auf den Wecker.

Nazar
2006-03-12, 13:54:10
mit meiner 7800GTX habe ich auch keine Kanten sichtbar, und bin vollstens zufrieden damit.

Ich wollte auch nur mit meinem Posting ausdrücken, dass es doch auf die wichtigen Sachen wie glatte Kanten ankommt, und so andere minimale Unterschiede in einer Textur doch eh nicht wargenommen werden, jedenfalls nicht von mir. Ich stelle aber in Games schon aus gewonheit Af an.

Ich würde aber meinen Grafikkartenkauf nie an solchen Dingen entscheiden, sondern eher an anderen, wie Preis, gebotene Leistung, Stromvebrauch, Zubehör und so weiter, aber nicht an einer minimalen besseren BQ die ich sowieso nicht wahrnehme außer auf einem in einer Zeitung schlechtgedruckten Bild :rolleyes:

Wenn für dich Sachen wie Energieverbrauch/Preis wichtig sind, dann sind die Grafikkarten, über die wir hier reden, für dich eh uninteressant!

Und warum erzählst du immer die BQ unterschiede sind minimal!?
Du hast mit Sicherhheit noch nie das AA/AF der X1x00Xxx genossen!
Die BQ Unterschiede sind gewaltig.
Man muss schon blind sein, wenn man das als "minimal" bezeichnet!

Was du in Bewegung nich wahrnehmen kannst, siehst du auf einem Bild erst recht nicht! ;D

Juhu, ATi bietet endlich gutes AF nachdem sie nVidia gezwungen haben ihre AF-Qualität zu senken. Allgemein ist es natürlich positiv, da wir somit in Zukunft wohl von beiden Anbietern vernünftiges AF bekommen werden.


Es wird keiner zu gar nichts gezwungen oder hat ATI wuAF aus dem Herstellungprozess der X1900XT entfernt, weil die 7800GTX 512 so nah an der X1800Xx war?
Laut deiner Meinung hätte ATI auf wuAF verzichten müssen (wurde ATI von NV dazu gezwungen :| ), um die Leistungkrone sicher zu haben.

Wenn jemand einen Hersteller zu etwas "zwingen" kann, dann der Käufer!
Denn nur der entscheidet was er kauft (wenn er denn die Wahl hat ;))!

@Raff

Und wenn man 3dfx nicht in betracht zieht hat nVidia mit AA die Welt revolutioniert. Mit anderen Worten: "Was willst Du damit sagen?".



Wenn man es ganz genau nimmt sind die ganzen Tester schuld die nur auf die Zahlen guckten ohne auf die Qualität einzugehen. Es wurde nur gesehen/geschrieben ATi's Karten sind bei 16xAF schneller als nVidia's bei 8xAF. Das ATi's 16xAF nicht mal an das 4xAF der FXen rankam wurde verschwiegen. Als ob die FX nicht genug Probleme gehabt hätte, nein, man musste in Test auch noch auf dem "minderwertigeren" (8x gegenüber 16x) AF rumreiten. Und da nVidia genau weiß, dass der Durchschnittsdau auf Bildqualität sowieso keinen Wert legt, wurde ebenfalls auf Winkelabhängigkeit umgestellt.

nVidia ist schuld, dass AA lange Zeit vernachlässigt wurde - ohne die Voodoo 5 gäbe es wohl immer noch keines und ohne ATi wären wir wohl immer noch beim Ordered Grid MSAA; wenigstens kamen sie zuerst mit TAA, kleines Trostpflaster
ATi ist schuld, dass AF lange Zeit beschissen war - die erste Karte die es halbwegs vernünftig konnte war die X1800
nVidia ist schuld, dass SM2.0 nie irgendeine Relevanz hatte
ATi ist schuld, dass eine verstärkte Verwendung von SM3.0 so weit verzögerte, dass es wohl nie wirklich relevant wird (mit Vista und Unified Shadern stirbt mein Interesse an SM3.0)
ATi ist schuld, dass es keine vernünftige, einheitliche HDR-Implementierung in Spielen gibt

Wenn ich länger überlege fallen mir bestimmt noch 1000 Sachen ein die beide Hersteller verbockten. Das ATi vernünftiges AF bietet ist für mich jedoch kein Grund zu feiern. Um von mir dafür gelobt zu werden hätten sie das schon bei dem R300 bieten müssen und das winkelabhängige AF bei NV40+ wäre uns erspart geblieben.

Als Grundlage dient doch deine Aussage "ATI hat NV zur Verschlechterung der BQ gezwungen".
Man kann es aber auch anders Ausdrücken:
ATI hatte damals erkannt, dass der User gar nicht alle BQ-Features einsetzen kann, wenn die Geschwindigkeit in den Spielen stimmen sollte!
Das hat ja dann auch NV bewiesen. Denn mit den eingeschalteten "Verschönerungen" waren die Spiele nur noch eine Dia-Show.

Bei dir kommt zur Zeit nur unüberlegtes Fanboygesülze rüber!
Schlimm ist aber, du merkst nicht mal dass du dir andauernd selber in den Hintern trittst!

Gast
2006-03-12, 14:13:18
Es wird keiner zu gar nichts gezwungen oder hat ATI wuAF aus dem Herstellungprozess der X1900XT entfernt, weil die 7800GTX 512 so nah an der X1800Xx war?
Laut deiner Meinung hätte ATI auf wuAF verzichten müssen (wurde ATI von NV dazu gezwungen :| ), um die Leistungkrone sicher zu haben.

Wenn jemand einen Hersteller zu etwas "zwingen" kann, dann der Käufer!
Denn nur der entscheidet was er kauft (wenn er denn die Wahl hat ;))!

stimmt, er hat sich etwas unglücklich ausgedrückt, nicht ATI haben NV zum schlechten AF gezwungen sondern die reviewer und kunden, die sich großteils nur für die balkenlänge interessieren.

Gast
2006-03-12, 14:16:57
Der Käufer hat immer die Wahl. Wenn alle Angebote ihm nicht passen kann er einfach den Kauf aufschieben oder das Geld für was anderes ausgeben. Diese Option scheinen die meisten konstant auszublenden, dann soll man sich über fragwürdige HW- und SW-Qualität aber auch nicht wundern...

Mr. Lolman
2006-03-12, 14:31:00
Eine bessere Antwort haette ich von Dir sowieso nicht erwartet.

Danke.


3DCenter hat einen ausgezeichneten Anfang gemacht mit dem X1900 Review; man koennte eventuell als Beispiel auch etwas tiefer eingreifen und die ganze Sache unter die Lupe nehmen und zeigen dass bei beiden IHVs wenn behauptet wird dass Optimierungen ausgeschaltet sind, doch noch etwas im Hintergrund schlummert.

Hier geht es gar nicht wer bescheisst bei der Filterung, sondern wer besser seine Bescheisserei verstecken kann.

Wenn die Bescheisserei übel ist, kann man sie garnicht verstecken. Es sei, denn die Screenshotfunktion, hilft dabei mit. :|


Wie dem auch sei, wenn ich Lust dazu bekomme so viel Zeit fuer so ein Projekt zu opfern, dann vielleicht schon. Ich hab die Lust generell fuer jeglichen 3D Mist in letzter Zeit verloren, eben weil mir viel zu viele ihre Meinung nach ihren Bevorzugungen und Interessen orientieren und dieser kleinpolitische Mist geht mir so langsam auf den Wecker.

Ich hatte auch keinen Bock auf meinen 3DC Artikel. Aber ich hab ihn dann doch geschrieben. Und zwar, damit ich der Community von meinem Ausflug ins NV Lager noch etwas mitgeben konnte.

Die investigative Arbeit dahinter war jedoch keine besondere Freude. Dementsprechend ists auch vll. verständlich, dass meine schon öfter platzierte Kritik ggü NV. nicht das Ergebnis stundenlanger Ermittlungsarbeit war, sondern einfach Dinge betraf, die mir beim PC-Alltag auffielen. (wie eben auch das störrische CP)

Und dass ich eben nicht gerne mein Mowl halte, hat ATi auch schon begreifen müssen.

Außerdem spielt sich hinter den Kulissen genug ab. Es gibt halt div. 3DC User, die ihr Wissen nicht der gesamten Community mitteilen, sondern neben ein paar Ausnahmen hauptsächlich ihre Erfahrungen direkt an div. Redakteure weiterleiten. So sind im deutschsprachigen Bereich momentan min. 2 weitere Artikel in der Mache, die sich mit BQ auseinandersetzen. Geduld ist der Weg zum Yedi, junger Padawan :)

Ailuros
2006-03-12, 14:31:27
Die BQ Unterschiede sind gewaltig.
Man muss schon blind sein, wenn man das als "minimal" bezeichnet!

Ein wirklich "gewaltiger" Unterschied waere 800*600*16 /bilinear (only) und kein AA gegen 1600*1200*32 mit 4xAA/16xAF.

Damit der durchschnittliche Gamer erstmal die kleinere Winkelabhaengigkeit sehen kann, muss er nicht nur ein trainiertes Auge haben sondern Du musst ihn dann auch auf die Unterschiede hinweisen.

So und jetzt zeigt mir erstmal einen ausfuehrlichen Artikel im Netz wo auf solche Unterschiede hingewiesen wird. Ein oder zwei laecherliche screenshots die oefters sogar gar keinen Unterschied zeigen und sonst nur Leistungfirlefanz. Wenn ich nach Lolman angeblich jammere dass keiner solche Aspekte unter die Lupe genommen hat gilt es von meinem Standpunkt sowohl fuer die positiven als auch die negativen Aspekte dieser Karten.

Wie erwartet Ihr eigentlich dass der durchschnittliche Gamer solche Unterschiede erstmal sehe kann wenn er begrenzte Erfahrung und keine greifbaren Hilfsmittel hat? Ach ja nur weil es oft gesagt wird und weil ein paar reviews Leistungsbalken mit HQ AF zeigen? :rolleyes:

Es wird keiner zu gar nichts gezwungen oder hat ATI wuAF aus dem Herstellungprozess der X1900XT entfernt, weil die 7800GTX 512 so nah an der X1800Xx war?
Laut deiner Meinung hätte ATI auf wuAF verzichten müssen (wurde ATI von NV dazu gezwungen ), um die Leistungkrone sicher zu haben.

Man aendert normalerweise keine Algorithmen bei refreshes und das gilt fuer alle Hersteller.

Wenn jemand einen Hersteller zu etwas "zwingen" kann, dann der Käufer!
Denn nur der entscheidet was er kauft (wenn er denn die Wahl hat )!

+1! Kein einziger Zweifel, aber.....

Bei dir kommt zur Zeit nur unüberlegtes Fanboygesülze rüber!
Schlimm ist aber, du merkst nicht mal dass du dir andauernd selber in den Hintern trittst!

Und hier kommt auch das "aber" fuer oben. Zeig ihm doch einfach mal den Unterschied in screenshots (oh wie schwer HQ AF an und aus), denn was der Bauer nicht kennt....

DanMan
2006-03-12, 14:32:13
ATI hatte damals erkannt, dass der User gar nicht alle BQ-Features einsetzen kann, wenn die Geschwindigkeit in den Spielen stimmen sollte!
Das hat ja dann auch NV bewiesen. Denn mit den eingeschalteten "Verschönerungen" waren die Spiele nur noch eine Dia-Show.
Ja, is klar. ATI war damals schon schlauer als alle anderen und hat es nur richtig gemacht. ATI eben.
Willst du etwa behaupten, dass die Situation aktuell bei ATI anders ist? Das verkommt unter den Umständen genauso zur Diashow.
Bei dir kommt zur Zeit nur unüberlegtes Fanboygesülze rüber!
Schlimm ist aber, du merkst nicht mal dass du dir andauernd selber in den Hintern trittst!
Fanboy Beschuldigungen stehen hier unter Strafe. Außerdem: Getroffene Hunde bellen.

Ailuros
2006-03-12, 14:40:18
Danke.

War aber nicht als Beleidigung gemeint. Ich weiss Gott sei Dank wenn Du Recht hast.


Ich hatte auch keinen Bock auf meinen 3DC Artikel. Aber ich hab ihn dann doch geschrieben. Und zwar, damit ich der Community von meinem Ausflug ins NV Lager noch etwas mitgeben konnte.

Die investigative Arbeit dahinter war jedoch keine besondere Freude. Dementsprechend ists auch vll. verständlich, dass meine schon öfter platzierte Kritik ggü NV. nicht das Ergebnis stundenlanger Ermittlungsarbeit war, sondern einfach Dinge betraf, die mir beim PC-Alltag auffielen. (wie eben auch das störrische CP)

Und dass ich eben nicht gerne mein Mowl halte, hat ATi auch schon begreifen müssen.

Außerdem spielt sich hinter den Kulissen genug ab. Es gibt halt div. 3DC User, die ihr Wissen nicht der gesamten Community mitteilen, sondern neben ein paar Ausnahmen hauptsächlich ihre Erfahrungen direkt an div. Redakteure weiterleiten. So sind im deutschsprachigen Bereich momentan min. 2 weitere Artikel in der Mache, die sich mit BQ auseinandersetzen. Geduld ist der Weg zum Yedi, junger Padawan :)

Dein Artikel gehoert erstmal uebersetzt und dazu noch der X1900 Review. In deutsch kann ich damit nicht viel anfangen, weil leider zu wenige insgesamt Deutsch lesen koennen.

Gleiches gilt auch fuer zukuenftige Artikel von 3DCenter und auch andere Seiten.

Gast
2006-03-12, 14:53:32
Polygonreichtum hat keinen Einfluss auf den Füllraten-Bedarf.
Du hast recht, das war schludrig formuliert von mir.

So besser?
Was, wenn wir an einen Punkt in der Zukunft kommen, an dem aufgrund diverser anderer Limitierungen (wie zum Beispiel immenser Polygon-Reichtum) Multi-Sampling seinen Füllraten-Vorteil gegenüber Super-Sampling nur noch in sehr geringem Maße ausspielen, seine Nachteile, was die Bildqualität im allgemeinen angeht aber nicht mehr verdecken kann?


Q

Ailuros
2006-03-12, 15:09:11
Was, wenn wir an einen Punkt in der Zukunft kommen, an dem aufgrund diverser anderer Limitierungen (wie zum Beispiel immenser Polygon-Reichtum) Multi-Sampling seinen Füllraten-Vorteil gegenüber Super-Sampling nur noch in sehr geringem Maße ausspielen, seine Nachteile, was die Bildqualität im allgemeinen angeht aber nicht mehr verdecken kann?


Dazu waeren aber GPUs in heutiger oder vorhersehbarer Zukunft erstmal verdammt ineffizient. Ich wuerde eher wetten dass bis es erstmal so weit kommt, wir fundamental bessere/effizientere AA und Filterungs-Algorithmen sehen werden. Irgendwann werden es IHVs schon schaffen zu einer effektiven Implementierung von wahrem adaptivem AA zu kommen. AF Algorithmen analysieren Texels und je nach Bedarf werden verschiedene AF-sample Anzahlen angewendet. Ich will hoffen dass es mit AA auch irgendwann mal klappen wird, selbst wenn man dann >16x samples braucht; hohe AA sample-Anzahlen moegen erschreckend klingen auf ersten Blick, aber falls es irgendwann klappen sollte ist der Bandbreiten-/bzw. Fuellraten-bedarf auch nicht mehr so enorm. Die Mehrzahl der heutigen Texels bekommen auch nicht sehr viel mehr als 2xAF samples ab im Durchschnitt.