PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : RV770/GT200: AF-Skalierung


Seiten : 1 [2] 3

Jake Dunn
2009-06-21, 20:41:50
Nö, default vs. default, nur VSync aus.

Ist NV Def. nicht Q+Opt. :|

y33H@
2009-06-21, 20:42:58
Nein, die Sampleoptimierung ist deaktiviert und es wird nicht geclampt.

Schlammsau
2009-06-21, 20:44:24
Weißt du wie schnell es heißt, Page XY sind Fanboys? Da bist du schneller weg als du schauen kannst.Nö, default vs. default, nur VSync aus.

Du denkst das Seiten wie die PCGH, Computerbase und HT4u, wenn sie denn das Thema ansprechen, einfach vom Erdboden verschwinden? Nicht dein Ernst oder. :|

Jake Dunn
2009-06-21, 20:45:00
Achso

Bringt/Kostet das viel?

LovesuckZ
2009-06-21, 20:46:07
Nein, die Sampleoptimierung ist deaktiviert und es wird nicht geclampt.

Clamp schaltet sich immer automatisch ein, wenn man im Treiber ansiotrop filtert.

IVN
2009-06-21, 20:46:07
Du denkst das Seiten wie die PCGH, Computerbase und HT4u, wenn sie denn das Thema ansprechen, einfach vom Erdboden verschwinden? Nicht dein Ernst oder. :|
So meint er das wahrscheinlich nicht. Es wäre aber kein Wunder wenn sie nie wieder Samples von ATi bekommen würden. Kapische was das dann bedeutet?

y33H@
2009-06-21, 20:47:00
@ LovesuckZ

Treiber-AF ist aber nicht per default an. Wenn ich per Spiel AF aktiviere, wird nicht geclampt.

@ Schlammsau

Weißt du, wie sehr du AMD da ans Bein pisst, wenn du AI-off gegen HQ stellst und letzteres ist weitaus performanter und sieht besser aus? Das freut die sicherlich ungemein ... ansprechen ist was anderes, klar. Die ganzen Fanboys und "ich seh kein Unterschied"-User, die dich flamen sind aber auch nicht gerade etwas, was man sich wünscht.

Schlammsau
2009-06-21, 20:47:01
Nein, die Sampleoptimierung ist deaktiviert und es wird nicht geclampt.
Sind also die Einstellungen die CB verwendet die Default Settings?

LovesuckZ
2009-06-21, 20:47:32
Das sind sie aber nicht unabhängig und somit haben ihre Test keine Aussagekraft.

derguru
2009-06-21, 20:52:25
So meint er das wahrscheinlich nicht. Es wäre aber kein Wunder wenn sie nie wieder Samples von ATi bekommen würden. Kapische was das dann bedeutet?
ja das ati weniger karten verkaufen würde,das bedeutet es.oh wie tragisch keine samples,omg.

wer ist von wem abhängig,bin mir nicht so sicher.:rolleyes:

y33H@
2009-06-21, 20:54:34
Das sind sie aber nicht unabhängig und somit haben ihre Test keine Aussagekraft.Was willst du gerade sagen? Was meinst du mit unabhängig?

LovesuckZ
2009-06-21, 20:57:07
Was willst du gerade sagen? Was meinst du mit unabhängig?

Wer seine Test so durchführt, um die ein oder andere Firma zu befriedigen, der kann sich nicht als "unabhängiger" Tester bezeichnen.

y33H@
2009-06-21, 20:58:23
Ach so. Naja ... befriedigen ... AMD wie NV sind nicht begeistert, wenn man sagt die Produkte sind schei0e^^

LovesuckZ
2009-06-21, 21:01:29
Ich will auch keine Aussagen oder Fazits haben, sondern Test, die alle Facetten jederzeit abdecken.

IVN
2009-06-21, 21:09:35
ja das ati weniger karten verkaufen würde,das bedeutet es.oh wie tragisch keine samples,omg.

wer ist von wem abhängig,bin mir nicht so sicher.:rolleyes:

Tja, es gab mal ein Problem zw. 3DC und ATI...vll. solltest du die SuFu anwerfen?

y33H@
2009-06-21, 21:09:53
Vierfacher Aufwand. Das kann sich kaum einer leisten, zumindest nicht jedes Mal.

LovesuckZ
2009-06-21, 21:11:49
Vierfacher Aufwand. Das kann sich kaum einer leisten, zumindest nicht jedes Mal.

Ihr verdient Geld durch Klicks. Und Klicks erreicht man, indem den Leuten was bietet. Man muss investieren, um etwas zu verdienen.

y33H@
2009-06-21, 21:15:43
Es klicken aber nicht 4x so viele Leute. Und mit etwas Pech wird man in die Fanboy-Ecke geschoben und haben weniger Klicks. Objektiv wäre Q, HQ, AI-def und AI-off das Abdecken der Facetten, subjektiv fühlen sich wieder einige an Bein gepisst und krakeelen quer durchs Web wie schei0e Seite X/Y ist. Ich halte das echt für n Risiko, zumindest solange bis es die Leute gecheckt haben.

puntarenas
2009-06-21, 21:20:18
^^ CB Testet zB so......

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/6/#abschnitt_testsystem

Computerbase zählt auch zu den unrühmlicheren Vertretern ihrer Zunft, sie haben aber zugegeben auch die tödlichsten Fanoymarodeure im Forum.

Ich glaube gern, dass die PCGH sich ohne Schere im Kopf aus dem Markt schießen würde, Sachverstand haben sie dagegen in der Redaktion und blind sind sie auch nicht. Was mir aber fehlt sind umfangreiche Kartenreviews im Nachgang zu den stumpfen Launchbenchmarkvergleichen. Richtungsweisend finde ich noch immer die einstigen Performance-Reports im 3DCenter. Daran grob orientiert die Möglichkeiten einer Hardwaregeneration anhand einer Spieleauswahl ausloten, nur bezüglich einer Kartenfamilie, was bringt welche qualitative Verbesserung, in welchen Bereichen des Bildes wirkt sich das aus und was kostet es. Ganz ohne Vergleichswerte der Konkurrenz, die kriegt ihren eigenen Roundup.

Wenn die ATI-Artikel dabei kürzer und enttäuschender ausfielen, dann läge das daran dass die Karten weniger Tuningmöglichkeiten und keine Option auf sauberes AF bieten. Als Maximum kommt dann 16xLQAF mit 24xEDAA und AAA heraus, da kann ein todesmutiger Praktikant dann auch ruhig ins Fazit schreiben, dass grenzgeniale Polygonkanten ein schwacher Trost für meist MS-AAA und Gammelfilter sind.

Bei Nvidia die Qualität noch weiter zurückzuschrauben ginge dagegen IMHO vollkommen in die falsche Richtung, der Modus der Wahl bleibt HQAF. Das macht auch unter anderem den hier (nicht) diskutierten Artikel besonders schlecht. Natürlich klingt es zunächst plausibel, auf qualitative Vergleichbarkeit zu achten. Tatsächlich verfälscht dieser Ansatz aber das Bild, denn am Ende reduziert sich ein Vergleich der beiden Hersteller auf die Frameraten bei 4xAA/16xLQAF und 8xAA/16xLQAF. Anhand dieser beider Einstellungen, die mir und vielen anderen Nvidia-Usern im Traum nicht einfallen würden, lassen sich die Karten unmöglich einordnen. Wenn man die AF-Skalierung bei Nvidia betrachtet, dann doch bitte HQAF, den minderwertigen Schmonz dann von mir aus als Zugabe.

Nvidia habe ich eigentlich nur vorzuwerfen, dass HQAF nicht die Standardvorgabe im Treiber ist. Die Schwäche der aktuellen Generation bei 8xMSAA ist dagegen eine lang zurückliegende Designentscheidung, die man im Hinterkopf haben sollte. Der Modus wird einam aber trotzdem nicht vorenthalten und im Alltag zeigt sich schnell, dass man ihn ohnehin so gut wie nie benötigt. Es gibt vorher eingach zu viele andere Prioritäten wie TAA (und leider immer seltener eine Option auf Hybridmodi) und dann gibt es mit CSAA eine hübsche, schnelle Alternative zum Performancegrab.

Verglichbarkeit existiert nicht und das Herumreiten darauf reduziert den Blickwinkel auf zwei Qualitätseinstellungen, von denen mindestens 8xAA/16xLQAF gelinde formuliert rein akademische Bedeutung hat. Daraus werden dann Preis-/Leistungsdiagramme abgeleitet, ich weiß nicht ob man darüber lachen oder weinen soll.

y33H@
2009-06-21, 21:37:07
Vll sollte man, statt mit aller Gewalt AMD und NV in ein Diagramm zu pressen, das Ganze splitten.

Zukünftiges Beispiel für NVund HL2 Ep3:

* 10 Karten von 9600GT bis GTX380
* 1.280 x 1.024 mit 4x MSAA und Treiber-def
* 1.680 x 1.050 mit 4x MSAA und 16:1 HQ ohne Optis
* 1.680 x 1.050 mit 4x TMSAA/TSSAA und 16:1 HQ ohne Optis
* 1.920 x 1.200 mit 4x MSAA und 16:1 HQ ohne Optis
* 1.920 x 1.200 mit 4x TMSAA/TSSAA und 16:1 HQ ohne Optis
* 1.920 x 1.200 mit 16xS und 16:1 HQ ohne Optis

Das gleiche für AMD. Praxisnahe Settings und schauen, wie gut das Spiel damit läuft - schließlich ist das das Spannende. Im Prinzip ists doch egal, ob AMD oder NV schneller ist, wichtig ist, wie das Spiel bei welcher Optik auf welcher Karte läuft. Und solange MS per DX die IHVs nicht zu identischer BQ zwingt, sind alle AMD-NV-Fps-Vergleiche (wenn AA und AF mit dabei sind) wenn man es genau nimmt für den Arsch.

Problem meiner Idee: Wahnsinniger Aufwand.

Dr. Cox
2009-06-21, 23:13:25
Wenn du ein komplettes Review nur mit AI-off machst, AMD redet nie wieder mit dir oder dich töten die Fanboys.

Ich glaube nicht, dass es sich AMD leisten kann nicht mehr mit euch zu reden. Ist AMD denn so nicht kooperativ, wenn ihr AMD so darum bittet AI und die AF-Optimierungen zu trennen?

Die Fanboys sind allerdings ein Problem ;D

Allerdings habe die schon einmal eingesehen das ATI aufgrund der Optimierungen derzeit schlechter filter ;)

desert
2009-06-21, 23:36:09
Hardtecs4u hatte mal kurz zeit a.i on und a.i. off in ihren tests drinne. Aber nur bis zur hd2900 xt. Da sollte zwar welche kommen, sie wurden aber nie veröffentlicht. Ob da jemand sanften druck ausgeübt hat?

http://ht4u.net/reviews/2007/nvidia_g80_roundup/index14.php

Wenn ich mir das anschaue ist das nicht zu unterschätzen.

Und auch ein artikel über die a.i. cheaterei sollte schon seit 3 Jahren erscheinen auf 3dcenter. Wird er aber auch nie.

ich weiss nur wenn es nvidia auch wagen sollte die selben spielchen zufahren wie ati, werden schlammsau und co. gewaltige geschütze auffahren das man nvidia nur noch mit hq testen darf.

Was macht ihr eigentlich wenn nvidia die 8aa schwäche beseitigt und ati mehr verliert in der testumgebung? Wird das dann auch totgeredet und mehr auf realistische einstellungen wert gelegt?

bo$$
2009-06-21, 23:41:33
wie immer die gleichen amd/ati-basher am start .
und das witzige daran ist , dass leute wie lovesucks tatsächlich noch denken, dass sie auf andere objektiv wirken .
langsamm könntet ihr schon mal anfangen , 3dcenter.org umzubennen in nvidia-center.org.
hört sich doch prima an oder etwa nicht ?
früher oder später wird ati wieder highend-chips rausbringen und mit diesen kommt dann eine bessere BQ .
hauptsache die schnellsten produkte sind ganz oben im diagramm und wie viel fps man mit 100euro karten bei hoher BQ hat, interessiert doch eh keine sau.
dass man im test eine gtx 285 mit ner 4870 verglichen hat , wird nicht kritsiert .
wenn man allerdings mit ai on bencht , hagelt es nur noch kritik und die reaktionen ähneln teilweise der weltuntergangs-szene ausm neuen nicolas cage film.
ist nun mal so , dass ati ne schlechtere filterqualität bietet aber muss jede diskussion über grafikkarten auf diesen mist hinauslaufen ?
fällt euch ansonsten nichts kritisierbares mehr ein oder wird nur darauf rumgehackt , weil ati darin schlechter darsteht ?.
wenn es einigen hier so wichtig ist , mit vergleichbaren settings zu benchen , wieso hat man damals bei 7900gtx vs x1900 nicht 1% so schlimm wie hier gejammert ?
ich mein , diese diskussion ( wenn mans noch so nennen darf ) , geht schon seit über 2jahren und außer dass immer wieder die selbe kacke wiederholt wurde , hat sich nichts verändert .
es wird nur noch nach gründen gesucht um zu bashen , mehr nicht.
die ausreden , wir würden was bewirken mit flames oder " fairness gegenüber nvidia zeigen " , sind doch nur ein vorwand um munter weiter zu bashen und ati einen deftigen rufmord zu verpassen.
am geilsten sind noch die vergleiche mit augenkrebs oder " ich würd mich lieber mit ner 8600gts quälen als mit ner 4870 " etc. .
gott hat dich schon genug gequält , in dem er dich sehr schlecht bestückt hat :D - eine gtx 285 wird dir da auch nicht helfen , um deine komplexe zu verarbeiten ...
bitte schreibt spätestens bis mittwoch ne news , die wie folgt lautet : 3dcenter-forum dient ab jetzt nur noch als plattform für hasstiraden gegen ati und andersdenker werden nicht geduldet oder man kriegt es mit admin-abuse und beitrag-lösche zu tun .
da weiss man wenigstens vorab woran man ist , bevor man den fehler macht und hier mal nen besuch abstattet , um etwas sinnvolles zu lesen .
und nur weil einige user hier lange registriert sind , muss man ihnen keine freikarte zum bashing geben.
kann doch nicht sein , dass nicht mal ein admin auf den tisch haut und paar user bannt ..
ich habs mir anders überlegt , papagai-center.org oder center-fuer-die-groeßten-hater.org ,wären deutlich stärkere und um einiges zutreffendere domains für 3dcenter als nvidia-center.org .
aber vieleicht ist meine kritik an 3dc gar nicht berechtigt und ich nehme nur die flames über ati karten wahr, wie unser - immer stramm in objektiver haltung stehender , leuten sofort den mund verbietender ( zumindest immer eifrig am versuchen ) , netter froind - der lovesucks
manche user hier sollten sich lieber mal locker machen , anstatt alles nachzuplappern und sich zu sehr in diese sache reinzusteigern . cheers

y33H@
2009-06-21, 23:50:22
früher oder später wird ati wieder highend-chips rausbringen und mit diesen kommt dann eine bessere BQ .Aha. Man bietet also nur konkurrenzfähige BQ wenn man scheller ist? Geile Logik.wie viel fps man mit 100euro karten bei hoher BQ hat, interessiert doch eh keine sau.Eine HD4770 ist performant genug für 4x MSAA, warum aber nicht für gescheites AF?



sich zu sehr in diese sache reinzusteigernsind doch nur ein vorwand um munter weiter zu bashen und ati einen deftigen rufmord zu verpassen.Als ob du dich nicht reinsteigerst ...

bo$$
2009-06-22, 00:01:02
immerhin spamme ich nicht so viel , dass ich ganze anatomiebücher schreiben könnte wie du und paar andere grüne hier .
ich schaue alle 4-5 tage hier rein und dat wars auch schon .

Gast
2009-06-22, 00:20:16
wieso hat man damals bei 7900gtx vs x1900 nicht 1% so schlimm wie hier gejammert ?
Damals gab es 2 Geizhals Links zu 3DC Artikeln.
Die GF6 hatte erst einen 3DC Links, die X8xx oder früher hatten exakt null 3DC Links.

Die GF7 (und teils die GF6) wurden sehr oft mit HQ getestet.

Damals wurde gemeckert, die Magazine sind mitgezogen und Nvidia hat reagiert.


dass man im test eine gtx 285 mit ner 4870 verglichen hat , wird nicht kritsiert .Ein 4890 Crossfire X hat das selbe ALU:TEX Verhältnis einer 4870 oder 2900 XT.
Da hier nur relative Zahlen und keine absoluten FPS verglichen werden spielt dies keine Rolle, solange kein weiterer Faktor wie zb ein zu kleiner VRAM dazwischen funkt.


wenn es einigen hier so wichtig ist , mit vergleichbaren settings zu benchenWenn nicht, dann kann man sich die Bencherei gleich sparen.
Fakt ist, das die jetztige Situation Müll ist.
Nutzlose Benches dank fehlendem TAA/AAA, in denen AMD durch AI bevorteilt und Nvidia durch 8xMSAA benachteiligt wird.



früher oder später wird ati wieder highend-chips rausbringen und mit diesen kommt dann eine bessere BQ .AMD hat bereits ein 600€ Gerät am Start, nennt sich 4890 Crossfire X.
FPS mäßig gehört dieser Lösung teilweise die Krone.

Seis drum, es kann doch nicht sein das einerseits 24x Poygonglättung ermöglicht wird, andererseits sind wir auf dem AF Niveau von vor 6 Jahren.

LovesuckZ
2009-06-22, 00:36:56
wie immer die gleichen amd/ati-basher am start .
und das witzige daran ist , dass leute wie lovesucks tatsächlich noch denken, dass sie auf andere objektiv wirken .
langsamm könntet ihr schon mal anfangen , 3dcenter.org umzubennen in nvidia-center.org.
hört sich doch prima an oder etwa nicht ?
früher oder später wird ati wieder highend-chips rausbringen und mit diesen kommt dann eine bessere BQ .
hauptsache die schnellsten produkte sind ganz oben im diagramm und wie viel fps man mit 100euro karten bei hoher BQ hat, interessiert doch eh keine sau.
dass man im test eine gtx 285 mit ner 4870 verglichen hat , wird nicht kritsiert .
wenn man allerdings mit ai on bencht , hagelt es nur noch kritik und die reaktionen ähneln teilweise der weltuntergangs-szene ausm neuen nicolas cage film.
ist nun mal so , dass ati ne schlechtere filterqualität bietet aber muss jede diskussion über grafikkarten auf diesen mist hinauslaufen ?
fällt euch ansonsten nichts kritisierbares mehr ein oder wird nur darauf rumgehackt , weil ati darin schlechter darsteht ?.
wenn es einigen hier so wichtig ist , mit vergleichbaren settings zu benchen , wieso hat man damals bei 7900gtx vs x1900 nicht 1% so schlimm wie hier gejammert ?
ich mein , diese diskussion ( wenn mans noch so nennen darf ) , geht schon seit über 2jahren und außer dass immer wieder die selbe kacke wiederholt wurde , hat sich nichts verändert .
es wird nur noch nach gründen gesucht um zu bashen , mehr nicht.
die ausreden , wir würden was bewirken mit flames oder " fairness gegenüber nvidia zeigen " , sind doch nur ein vorwand um munter weiter zu bashen und ati einen deftigen rufmord zu verpassen.
am geilsten sind noch die vergleiche mit augenkrebs oder " ich würd mich lieber mit ner 8600gts quälen als mit ner 4870 " etc. .
gott hat dich schon genug gequält , in dem er dich sehr schlecht bestückt hat :D - eine gtx 285 wird dir da auch nicht helfen , um deine komplexe zu verarbeiten ...
bitte schreibt spätestens bis mittwoch ne news , die wie folgt lautet : 3dcenter-forum dient ab jetzt nur noch als plattform für hasstiraden gegen ati und andersdenker werden nicht geduldet oder man kriegt es mit admin-abuse und beitrag-lösche zu tun .
da weiss man wenigstens vorab woran man ist , bevor man den fehler macht und hier mal nen besuch abstattet , um etwas sinnvolles zu lesen .
und nur weil einige user hier lange registriert sind , muss man ihnen keine freikarte zum bashing geben.
kann doch nicht sein , dass nicht mal ein admin auf den tisch haut und paar user bannt ..
ich habs mir anders überlegt , papagai-center.org oder center-fuer-die-groeßten-hater.org ,wären deutlich stärkere und um einiges zutreffendere domains für 3dcenter als nvidia-center.org .
aber vieleicht ist meine kritik an 3dc gar nicht berechtigt und ich nehme nur die flames über ati karten wahr, wie unser - immer stramm in objektiver haltung stehender , leuten sofort den mund verbietender ( zumindest immer eifrig am versuchen ) , netter froind - der lovesucks
manche user hier sollten sich lieber mal locker machen , anstatt alles nachzuplappern und sich zu sehr in diese sache reinzusteigern . cheers

Persönliche Anfeindungen sind immer die Bestätigung, dass man mit der Kritik goldrichtig liegt und der Diskussionspartner keine Gegenargumente hat.
Lustig, wie du mich oder die Seite in misskredit bringen willst, aber selbst nichtmal annährend etwas hervorbringst, dass man dich ernst nehmen könnte.
Oder anders gesagt: Kleiner Fanboy geh wieder in deine Computerbase Spielecke zurück.

Coda
2009-06-22, 02:01:50
früher oder später wird ati wieder highend-chips rausbringen und mit diesen kommt dann eine bessere BQ .
Die Qualität die wir heute bei ATI haben ist immer noch die gleiche wie bei R600 - und das Ding war zumindest als Highend konzipiert. Das der dann enttäuscht hat spielt hier keine Rolle.

ATI weiß sehr genau was sie mit dem Filter tun. Es ist nicht so als wäre das irgend ein Fehler.

V2.0
2009-06-22, 07:08:05
Unbd ide Qualität ist seit R600 auch völlig in Ordnung. Nicht perfekt und auch schlechter als HQ-AF bei NV, aber für die meisten Anwender im täglichen Spielealltag ausreichend.

Banshee18
2009-06-22, 07:58:21
Unbd ide Qualität ist seit R600 auch völlig in Ordnung. Nicht perfekt und auch schlechter als HQ-AF bei NV, aber für die meisten Anwender im täglichen Spielealltag ausreichend.
Und die Qualität ist beim Dacia Logan auch völlig in Ordnung. Nicht perfekt und auch schlechter als die S-Klasse von Mercedes, aber für die meisten Nutzer im täglichen Fahralltag ausreichend. :uclap:

V2.0
2009-06-22, 08:04:59
Und die Qualität ist beim Dacia Logan auch völlig in Ordnung. Nicht perfekt und auch schlechter als die S-Klasse von Mercedes, aber für die meisten Nutzer im täglichen Fahralltag ausreichend. :uclap:

Absolut.

DrFreaK666
2009-06-22, 10:47:56
Absolut.

Damit kannst du hier aber nicht punkten.
Ich sehe diese ganze Geschichte ganz ähnlich wie du.
Es gibt aber auch andere, die das nicht akzeptieren wollen und benötigen deshalb zur Diskussion 100 ähnliche Threads.

Grestorn
2009-06-22, 11:02:03
Es spricht ja auch gar nix gegen einen Dacia, so lange nicht die Dacia Fangemeinde sich und die ganze Welt davon überzeugt dass ihr Dacia mindestens genauso doll ist wie der Benz, dabei aber doch viel billiger ist.

Gast
2009-06-22, 11:08:04
Es spricht ja auch gar nix gegen einen Dacia, so lange nicht die Dacia Fangemeinde sich und die ganze Welt davon überzeugt dass ihr Dacia mindestens genauso doll ist wie der Benz, dabei aber doch viel billiger ist.
...und Auto-Motor-Sport den selben Eindruck vermittelt, indem lustige, unlautere Vergleiche angeführt werden Beide fassen 5 Personen und beide erreichen im Stadtverkehr spielend 50km/h, die Heizung des Dacia bringt das Wageninnere im Winter ebenso wie die Klimatronic bei Mercedes auf angenehme 22°, der Scheibenwischer hält die Sicht bei beiden frei solange es nicht regnet und beim Volltanken überrundet der günstige Dacia den Benz sogar, eine Tankfüllung kostet nur halb so viel. :eek:

Gast
2009-06-22, 11:21:26
Es spricht ja auch gar nix gegen einen Dacia, so lange nicht die Dacia Fangemeinde sich und die ganze Welt davon überzeugt dass ihr Dacia mindestens genauso doll ist wie der Benz, dabei aber doch viel billiger ist.

Lächerlich. Das kann man genauso gut umgekehrt sehen, indem die Benz-Fahrer stets krampfhaft bemüht sind, ihre Anschaffung durch gezieltes Hinauspicken der Schwächen bei der Konkurrenz zu rechtfertigen und dabei die Problemzonen des eigenen Favoriten unter den Teppich kehren. So agieren beide Seiten. Und so wird es auch die nächsten 60 Seiten weitergehen, bis dann -etliche Usersperren später- der Thread geschlossen wird, da man nicht 1mm mehr vom Fleck gekommen ist.

Dieses Thema ist mittlerweile etwa auf demselben Niveau wie seinerzeit der "PC ist Tot, es lebe die Konsole" - Flamethread. Ergo irgendwo zwischen unglaublich und Fremdschämen.

Gast
2009-06-22, 12:14:28
Lächerlich. Das kann man genauso gut umgekehrt sehen, indem die Benz-Fahrer stets krampfhaft bemüht sind, ihre Anschaffung durch gezieltes Hinauspicken der Schwächen bei der Konkurrenz zu rechtfertigen und dabei die Problemzonen des eigenen Favoriten unter den Teppich kehren. So agieren beide Seiten. Und so wird es auch die nächsten 60 Seiten weitergehen, bis dann -etliche Usersperren später- der Thread geschlossen wird, da man nicht 1mm mehr vom Fleck gekommen ist.

Dieses Thema ist mittlerweile etwa auf demselben Niveau wie seinerzeit der "PC ist Tot, es lebe die Konsole" - Flamethread. Ergo irgendwo zwischen unglaublich und Fremdschämen.

Word!

V2.0
2009-06-22, 12:28:47
Sehe ich auch so. Die allermeisten Websites benchen heute in halbwegs vergleichbaren Settings und damit ist die Vergleichbarkeit gewährleistet.

Ansonsten kommt es bei ATI zwar schon öfters mal zu störenden Flimmereffekten, aber diese stellen doch im Vergleich zu contentinduzierten Flimmern und Shaderflimmern seltenere Fälle da. Wer also nicht dauernd von ATI zu NV und zurück wechselt wird es kaum bemerken.

Beide Seiten verhalten sich extrem peinlich.

Grestorn
2009-06-22, 12:38:06
Ich weiß nicht ob man die Angst, dass sich nVidia genötigt sieht, Zwangsflimmern einzuführen um besser konkurieren zu können, als peinlich sehen kann. Ich finde die Gefahr sehr realistisch.

Gast
2009-06-22, 12:51:56
Ich weiß nicht ob man die Angst, dass sich nVidia genötigt sieht, Zwangsflimmern einzuführen um besser konkurieren zu können, als peinlich sehen kann. Ich finde die Gefahr sehr realistisch.
...und wenn sie schon dabei sind, vielleicht brauchen wir bald keinen nHancer mehr. Wie man bei ATI sieht reicht ein AF-Qualitätsmodus für alle und da muss es nichtmal hohe Qualität sein, dazu eine automatische Auswahl des TAA-Modus, weg mit Hybrid- und SuperSampling, ist in vielen aktuellen Spielen sowieso unscharf. Genau genommen braucht man auch keine nach außen sichtbaren Profile und anpassbare Kompatibilitätsbits, ATI-User geben sich auch mit EXE-Renaming klar oder wissen, dass fehlendes AA halb so schlimm ist, sieht man eh nur wenn man genau hinschaut...

DrFreaK666
2009-06-22, 12:53:07
Ich weiß nicht ob man die Angst, dass sich nVidia genötigt sieht, Zwangsflimmern einzuführen um besser konkurieren zu können, als peinlich sehen kann. Ich finde die Gefahr sehr realistisch.

Dann sind die Ergebnisse zumindest vergleichbar :biggrin:

deekey777
2009-06-22, 12:58:34
Sehe ich auch so. Die allermeisten Websites benchen heute in halbwegs vergleichbaren Settings und damit ist die Vergleichbarkeit gewährleistet.

Ansonsten kommt es bei ATI zwar schon öfters mal zu störenden Flimmereffekten, aber diese stellen doch im Vergleich zu contentinduzierten Flimmern und Shaderflimmern seltenere Fälle da. Wer also nicht dauernd von ATI zu NV und zurück wechselt wird es kaum bemerken.

Beide Seiten verhalten sich extrem peinlich.
Den Wechsel von der X1950GT zur HD3850 habe ich mehr als deutlich sehen können, aber hauptsächlich in HL2&Co.

Aber es ist schön zu sehen, wie sich eingefleischte NV-User Sorgen um uns, die ATi-User, machen.

V2.0
2009-06-22, 13:13:48
Ich weiß nicht ob man die Angst, dass sich nVidia genötigt sieht, Zwangsflimmern einzuführen um besser konkurieren zu können, als peinlich sehen kann. Ich finde die Gefahr sehr realistisch.

Die Angst teile ich sogar, aber im Endeffekt wird man dann sagen müssen, dass der Markt auf BQ-Features keinen Wert legt.

Oder anders gesagt, ATI hat eine Lösung die für viele nicht störend ist, oder die sich viele schön reden können.

desert
2009-06-22, 13:40:44
Den Wechsel von der X1950GT zur HD3850 habe ich mehr als deutlich sehen können, aber hauptsächlich in HL2&Co.

Aber es ist schön zu sehen, wie sich eingefleischte NV-User Sorgen um uns, die ATi-User, machen.

Ihr seit mir völlig egal, nur wird nvidia durch die cheaterei wohl auch dazu gezwungen werden am af rumzupfuschen und dann bekommen wir auch die schummel filter.

Und ich verstehe nicht das wir heutzutage die super duper tollen grafikkarten haben die alles berechnen können, nur beim af wird rumgeschummelt. Ich meine was bringt mir 8aa wenn dafür die texturen flimmern?

Gast
2009-06-22, 14:08:49
Ihr seit mir völlig egal, nur wird nvidia durch die cheaterei wohl auch dazu gezwungen werden am af rumzupfuschen und dann bekommen wir auch die schummel filter.

Und ich verstehe nicht das wir heutzutage die super duper tollen grafikkarten haben die alles berechnen können, nur beim af wird rumgeschummelt. Ich meine was bringt mir 8aa wenn dafür die texturen flimmern?

seid/seit....

Reg Du Dich lieber darüber auf, dass wir PCler oft nur noch Spieler 2. Klasse sind. Dann wirst Du feststellen, dass das "AF-Problem" noch das geringste Übel ist.

Gast
2009-06-22, 14:35:52
Reg Du Dich lieber darüber auf, dass wir PCler oft nur noch Spieler 2. Klasse sind. Dann wirst Du feststellen, dass das "AF-Problem" noch das geringste Übel ist.
..und den Krieg in Afghanistan, das schlechte Wetter, Pommes mit Mayo wieder teurer... und... und... und...


Thema hier zur Zeit: Anisotrope Filterung
Problem: ATI bietet nur einen Modus und der ist minderwertig
Lösung: nicht in Sicht
Feststellung: Grafikkarten können definitiv nicht ausschließlich über Balkendiagramme verglichen werden, insbesondere bei Nvidia-Karten fallen sonst gewichtige Punkte unter den Tisch und in der Praxis wenig bedeutende Aspekte bekommen überdimensional Gewicht
Kritik: derzeitige Grafikkartenvergleiche tun genau dies
mögliche Folgen: Marktmechanismen führen nur in der Theorie zu guten Lösungen, gehen Verbraucher bei ihrer Wahl jedoch von falschen oder unvollständigen Informationen aus, führen Marktmechanismen zu schlechten Lösungen

Kein Grund, wie so oft vom Thema abzulenken. Wenn du über "Spieler zweiter Klasse" diskutieren willst gibt es bestimmt auch einen Thread zu diesem Thema.

deekey777
2009-06-22, 14:49:09
Ihr seit mir völlig egal, nur wird nvidia durch die cheaterei wohl auch dazu gezwungen werden am af rumzupfuschen und dann bekommen wir auch die schummel filter.

Und ich verstehe nicht das wir heutzutage die super duper tollen grafikkarten haben die alles berechnen können, nur beim af wird rumgeschummelt. Ich meine was bringt mir 8aa wenn dafür die texturen flimmern?
Zum Start des NV40 verbreitete Nvidia das Märchen, dass sie nur deswegen die wikelabhängige Filterung intergriert haben, weil sie sich benachteiligt fühlten. Dass die Wirklichkeit ganz anders war, wollen einige selbst heute nicht einsehen.

So lange es keine technischen Gründe gibt, wird Nvidia nie und nimmer auf die Idee kommen, die Bildqualität abzusenken.

IVN
2009-06-22, 14:51:20
Zum Start des NV40 verbreitete Nvidia das Märchen, dass sie nur deswegen die wikelabhängige Filterung intergriert haben, weil sie sich benachteiligt fühlten. Dass die Wirklichkeit ganz anders war, wollen einige selbst heute nicht einsehen.

So lange es keine technischen Gründe gibt, wird Nvidia nie und nimmer auf die Idee kommen, die Bildqualität abzusenken.
Wieso soll das ein Märchen sein? Sie hatten damals die unasbalanciertere (PS zu sehr an TMUs gekoppelt) Architektur, genau wie ATi heute.

deekey777
2009-06-22, 14:54:59
Wieso soll das ein Märchen sein? Sie hatten damals die unasbalanciertere (PS zu sehr an TMUs gekoppelt) Architektur, genau wie ATi heute.
Sie haben Transistoren eingespart. So oder so: Sie haben behauptet, dass dies nur darauf zurückzuführen ist, weil der R300 winkelabhängige Filterung hatte, während der NV30/35 da besser war und die ganzen Reviews dies nicht gewürdigt hätten etc.

IVN
2009-06-22, 15:00:33
Sie haben Transistoren eingespart. So oder so: Sie haben behauptet, dass dies nur darauf zurückzuführen ist, weil der R300 winkelabhängige Filterung hatte, während der NV30/35 da besser war und die ganzen Reviews dies nicht gewürdigt hätten etc.
Ja, und inwiefern ist die Situation jetzt anders? ATi spart wieder am AF, während NV gutes AF hat, und im Glauben an faire Vergleiche genau wegen des guten AFs sehr viele Transis in die TMUs stecken müsste. Da aber keine Sau das gute AF interessiert, ist es nur berechtigt zu sagen, "na wisst ihr was, liebe Konsumenten, ihr könnt uns am A**** lecken, ihr werdet jetzt genau das bekommen, was ihr verdient, und zwar das verkorkste AF von ATi - und wir werden durch diese Maßnahme an den TMUs sparen, und die freigewordene Die-Fläche in ALUs investieren."

Schrotti
2009-06-22, 15:38:13
Ja, und inwiefern ist die Situation jetzt anders? ATi spart wieder am AF, während NV gutes AF hat, und im Glauben an faire Vergleiche genau wegen des guten AFs sehr viele Transis in die TMUs stecken müsste. Da aber keine Sau das gute AF interessiert, ist es nur berechtigt zu sagen, "na wisst ihr was, liebe Konsumenten, ihr könnt uns am A**** lecken, ihr werdet jetzt genau das bekommen, was ihr verdient, und zwar das verkorkste AF von ATi - und wir werden durch diese Maßnahme an den TMUs sparen, und die freigewordene Die-Fläche in ALUs investieren."

Genauso wird es kommen. Danke ATI.

Coda
2009-06-22, 15:48:11
Sie haben Transistoren eingespart. So oder so: Sie haben behauptet, dass dies nur darauf zurückzuführen ist, weil der R300 winkelabhängige Filterung hatte, während der NV30/35 da besser war und die ganzen Reviews dies nicht gewürdigt hätten etc.
Also ich denke schon, dass das auch mit ein Grund war.

Transistoren sparen kann man damit aber wirklich nicht unerheblich. Die Berechnung der Line-Of-Anisotropy ist in NV40-Form weitaus einfacher.

Banshee18
2009-06-22, 17:17:11
Aber es ist schön zu sehen, wie sich eingefleischte NV-User Sorgen um uns, die ATi-User, machen.
Ein wichtiger Punkt ist, dass man als Qualitätsbewusster Spieler nur zu nV greifen kann. Ich möchte aber gerne die Qual der Wahl haben, die habe ich aber nicht, solange man bei ATi nur Matsch gegen Flimmern tauschen kann, es kein SSAA und keine Wahl zwischen MS und SS beim Transparenz-AA gibt. Nichteinmal eine ordentliche Profilverwaltung gibt es. Die 4890 ist eine ausgezeichnete Karte, da ist es doch Blödsinn, dass es an den Treibern scheitert.
ATi könnte sicherlich viele neue Kunden hinzugewinnen, aber das wollen sie anscheinend nicht. :confused:

Raff
2009-06-22, 17:20:41
Genauso wird es kommen. Danke ATI.

Nein. Die Kunden wollen Scheiße, die Kunden sind König, die Kunden bekommen Scheiße. Kausalität. Ergo: Danke, "DAUs".

MfG,
Raff

LovesuckZ
2009-06-22, 17:28:41
Nö, die Kunden wollen keine Scheiße. Sie erkundigen sich und kaufen. Woher soll der Kunde wissen, welche Möglichkeiten die Karten offenbaren, wenn selbst die Reviewer sich mit Scheiße zufrieden geben?
Ihr seid nicht besser als die Kunden, die nur "scheiße wollen" - ihr ermutigt sich regelrecht, da ihr mit euren eingeschränkten vergleichen klar sagt, dass diese "Scheiße" komplett ausreichend sei.

Labberlippe
2009-06-22, 17:44:00
Hi

Guckt mal über den Tellerrand nicht jeder legt wert auf perfekte Filterung.
In der Tat muss ich zugestehen das mir die Filterqualittät von ATI reicht.
Ich sehe kaum Unterschiede, welche derart gravierend wären, welche mir den Spielspass vermiessen würden.
Ich sehe es auch nicht ein, das ich alle Jahre meinen Rechner upgrade nur damit ich den Jimmie reissen kann.

Bei mir liegt es daran das ich mit meinen Rechner eher auf Musik und Videos ausgerichtet habe.
Da ziehe ich den TV Out und Multimonitor Fähigkeiten von ATI gegenüber von nVIDIA bei weiten vor.

Hier wird ja ein Weltuntergang Szenario quasi erschaffen was schon wieder an Übertreibung grenzt.

Klar wäre es schöner wenn ATI endlich mal dein AI Mist entkoppeln würde, bestreitet ich auch gar nicht aber langsam nervt es in jeden Thread hier über ATI über deren Filterqualität abzulästern.

Gruss Labberlippe

Raff
2009-06-22, 17:44:57
Nö, die Kunden wollen keine Scheiße. Sie erkundigen sich und kaufen. Woher soll der Kunde wissen, welche Möglichkeiten die Karten offenbaren, wenn selbst die Reviewer sich mit Scheiße zufrieden geben?
Ihr seid nicht besser als die Kunden, die nur "scheiße wollen" - ihr ermutigt sich regelrecht, da ihr mit euren eingeschränkten vergleichen klar sagt, dass diese "Scheiße" komplett ausreichend sei.

Jaja. Mehr als dauernd darauf herumreiten kann man nicht. Die Leute sehen's nicht, wollen es nicht sehen oder es sind einfach die Balken im Sichtfeld. Wenn selbst hier im Forum die "Ich seh nix"-Kommentare regnen, braucht man's im Media Markt gar nicht erst zu versuchen.

MfG,
Raff

Mr.Magic
2009-06-22, 17:46:14
Guckt mal über den Tellerrand nicht jeder legt wert auf perfekte Filterung.

Warum wurde dann bei NV40 und G70 so ein Terz veranstaltet?

Schlammsau
2009-06-22, 17:48:55
Warum wurde dann bei NV40 und G70 so ein Terz veranstaltet?

Weil wie schon tausend mal geschrieben, die default Filterquali damals beim G70, noch sehr sehr viel schlechter war als die jetzige von ATi!
Warum will das nicht in eure Schädel?

Labberlippe
2009-06-22, 17:49:12
Jaja. Mehr als dauernd darauf herumreiten kann man nicht. Die Leute sehen's nicht, wollen es nicht sehen oder es sind einfach die Balken im Sichtfeld. Wenn selbst hier im Forum die "Ich seh nix"-Kommentare regnen, braucht man's im Media Markt gar nicht erst zu versuchen.

MfG,
Raff

Hi

Bei den meisten geht es nicht ums sehen wollen sondern darum das die nicht rund um die Uhr auf den Computerzocken.
Den meisten Usern sagen AF und FSAA nichteimal was.
Klar wer den Unterschied nicht kennt, der frisst das auch so, wenn man allerdings mal optimale Qualität gewohnt ist, dann will man logischerweise nicht mehr runter.

Bestreite ich auch gar nicht.

Nur ATI Karten werden nur auch wegen der Filterqualität angegriffen und die Kärtchen haben noch genug andere Vorteile so das ich mit dieser Minderung ohne Probleme leben kann.

Gruss Labberlippe

(Ironie?)

Labberlippe
2009-06-22, 17:57:16
Warum wurde dann bei NV40 und G70 so ein Terz veranstaltet?


Hi

Den Terz hat es schon seit den R200 bei ATI gegeben.
Da wurde gejammert das es kein MSAA gab, dann war das AF unter aller Tonne u.s.w.

Also was soll das.
nV hat es wieder geschafft das AF von der Qualität anzuheben, bestreitet ja auch keiner aber interresannterweise hat damals NV Mist gebaut und ATI wurde es von den üblichen Verdächtgen hier wieder mal angelastet.

Gruss Labberlippe

Coda
2009-06-22, 18:00:22
Warum will das nicht in eure Schädel?
Weil es nicht wahr ist. So viel schlechter war das gar nicht.

Schlammsau
2009-06-22, 18:01:42
Weil es nicht wahr ist. So viel schlechter war das gar nicht.

Wenn ich mir die Gif´s von Reunion so ansehe, stellen sich mir die Haare auf.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7290566#post7290566

Blaire
2009-06-22, 18:02:02
Weil wie schon tausend mal geschrieben, die default Filterquali damals beim G70, noch sehr sehr viel schlechter war als die jetzige von ATi!

Das möcht ich bezweifeln, aber darum geht es auch garnicht es geht um Vergleichbarkeit der Karten und wenn AI Off dem NV Quality Modus näher ist als AI Low dann sollte man das auch so testen mit allen Konsequenzen und gleichem Recht für alle.

Mr.Magic
2009-06-22, 18:05:03
Weil wie schon tausend mal geschrieben, die default Filterquali damals beim G70, noch sehr sehr viel schlechter war als die jetzige von ATi!
Warum will das nicht in eure Schädel?

Warum wurden dann NV20-3x nicht für ihre herausragende Filterqualität gelobt, bzw. ATi für ihren Scheiß heruntergemacht? Genau im Gegenteil, die 9700 mit ihrem 16xKrüppel-AF wurde gelobt, weil es schneller war als das 8xBilderbuch-AF der GF5800. Das die R8500 weder AF noch AA wirklich konnte hat damals praktisch auch niemanden interessiert. Und jetzt komm' mir nicht mit DX9 oder FSAA, es geht um die Filter.

Ich habe bei der Berichterstattung einfach die Schnauze davon voll, dass bei ATi immer alles schöngeredet wird, und wehe bei NV geht mal was schief...
Als Kunde bin ich fast froh darüber, dadurch kann man relativ bedenkenlos aktuelle nVidia-Produkte kaufen.

Nur ATI Karten werden nur auch wegen der Filterqualität angegriffen und die Kärtchen haben noch genug andere Vorteile so das ich mit dieser Minderung ohne Probleme leben kann.

Die da wären?

Ordentliches AF? Fehlanzeige.
Ordentliches AA (Hybridmodi/SSAA)? Fehlanzeige.
Treiberqualität/Einstelloptionen? Fehlanzeige.
Stereo3D? Fehlanzeige.

LovesuckZ
2009-06-22, 18:06:58
Hi

Guckt mal über den Tellerrand nicht jeder legt wert auf perfekte Filterung.
In der Tat muss ich zugestehen das mir die Filterqualittät von ATI reicht.
Ich sehe kaum Unterschiede, welche derart gravierend wären, welche mir den Spielspass vermiessen würden.
Ich sehe es auch nicht ein, das ich alle Jahre meinen Rechner upgrade nur damit ich den Jimmie reissen kann.

Bei mir liegt es daran das ich mit meinen Rechner eher auf Musik und Videos ausgerichtet habe.
Da ziehe ich den TV Out und Multimonitor Fähigkeiten von ATI gegenüber von nVIDIA bei weiten vor.

Hier wird ja ein Weltuntergang Szenario quasi erschaffen was schon wieder an Übertreibung grenzt.

Klar wäre es schöner wenn ATI endlich mal dein AI Mist entkoppeln würde, bestreitet ich auch gar nicht aber langsam nervt es in jeden Thread hier über ATI über deren Filterqualität abzulästern.

Gruss Labberlippe

Komische Ansicht. Demnach sind auch 8xMSAA Vergleiche komplett für die Katz, "weil nicht jeder Wert auf perfekte Polygonkantenglättung legt"?
Ich frage mich, wenn ihr keinen Wert auf Bildqualität legt, wieso habt ihr dann eine AMD Karte für Spiele? Der einzige frapierende Vorteil ist 8xMSAA - aber wieso sollte jemand bei der Kantenglättung soviel Wert auf Flimmerfreiheit legen, wenn es ihnen bei den Texturen komplett egal ist? :|

Gast
2009-06-22, 18:08:33
Das möcht ich bezweifeln, aber darum geht es auch garnicht es geht um Vergleichbarkeit der Karten [...]
Nein, nein und nochmals nein! Dabei kommt man am Ende zu dem Trugschluß, man hätte die Karten miteinander verglichen. Dabei hat man nur zwei Kompromisssettings herausgepickt, wo bleibt denn die Vergelichbarkeit, wenn man wesentliche Aspekte der Hardware- und Treibermöglichkeiten eines Herstellers unter den Tisch fallen lässt und sich auf den kleinstmöglichen Nenner (4xAA/16xLQAF) nebst einem Idiotensetup (8xAA/16xLQAF/kein AAA/TAA) beschränkt.

Banshee18
2009-06-22, 18:12:42
Weil wie schon tausend mal geschrieben, die default Filterquali damals beim G70, noch sehr sehr viel schlechter war als die jetzige von ATi!
Default ist AF aus. Die Default-Qualität ist absolut Wurst, wichtig ist die maximal erreichbare Qualität.

Gast
2009-06-22, 18:21:38
Hi

Bei den meisten geht es nicht ums sehen wollen sondern darum das die nicht rund um die Uhr auf den Computerzocken.


Das ist sicher auch ein Punkt. Aber der wichtigste Aspekt wurde bisher völlig ausgelassen: Wo schaut der Spieler hin? Da gibt es nun offenbar diverse NV-Freunde, die beim Spielen 5 Meter vor dem Protagonisten auf den Boden/die Wand schauen und entsprechend bei ATI ein Grieseln erkennen (hoffentlich fahren sie so nicht Auto). Wer aber immer möglichst weit nach vorne schaut (Augenhöhe), dem fallen diese Filtertricks während 99% der Spielzeit nicht auf. Deswegen sind das noch lange keine DAUs. Unbekannte Leute so zu nennen zeugt übrigens von mangelndem Charakter. Aber das nur am Rande.

Wo steht übrigens geschrieben, dass man auf Teufel komm raus mit Q/HQ benchen muss? Vielleicht ist ja "high performance" bei beiden Herstellern die am besten vergleichbare Einstellung.

Tesseract
2009-06-22, 18:27:55
Nein. Die Kunden wollen Scheiße, die Kunden sind König, die Kunden bekommen Scheiße. Kausalität. Ergo: Danke, "DAUs".

MfG,
Raff

nicht wirklich. die kunden halten sich meist an:
a) eckdaten
b) empfehlungen
c) preis

punkt c) fällt in die kathegorie "wollen scheiße" weil es da ganz einfach nicht anders geht. die anderen beiden punkte hingegen sind zu einem großen teil eine verfehlung der reviewer.

den uneterschied zwischen nv- und amd-AF siehen die meisten zwar nicht, den unterschied von +-10% FPS aber ebensowenig. allerdings werden die karten am richtwert FPS - und sei der noch so praxisfern (stichwort: beschnittene achsen sie nicht bei null beginnen) - gemessen.

würden die ganzen reviews hauptsächlich die bildqualität auseinander nehmen hätten wir wohl spätestens nächste generation von beiden herstellern lehrbuch-qualität und einen haufen zusätzlicher features wie supersampling usw. - wenn vielleicht auch nicht als defaulteinstellung.

Genau im Gegenteil, die 9700 mit ihrem 16xKrüppel-AF wurde gelobt, weil es schneller war als das 8xBilderbuch-AF der GF5800.

zu der zeit war die situation aber auch etwas anders weil das "lehrbuch-AF" in etwa den stellenwert hatte, den heute supersampling hat: toll in gewissen situationen aber meistens unbrauchbar weil zu langsam.
da war einfach der spatz in der hand besser als die taube auf dem dach.

Da gibt es nun offenbar diverse NV-Freunde, die beim Spielen 5 Meter vor dem Protagonisten auf den Boden/die Wand schauen und entsprechend bei ATI ein Grieseln erkennen (hoffentlich fahren sie so nicht Auto).
die situation ist meist genau anders rum: man läuft in einem spiel irgendwo rum, will sich reinversetzen und plötzlich schlägt einem irgendein flimmerscheiß ins gesicht, der wie ein fremdkörper duch die landschaft wandert.
das wäre - um bei deiner analogie zu bleiben - so als würde dir wärend der autofahrt alle paar meter jemand aus einem fenster mit einem laserpointer in die augen leuchten. wie du da konzentriert fahren willst will ich sehen.

Mr.Magic
2009-06-22, 18:30:14
Das ist sicher auch ein Punkt. Aber der wichtigste Aspekt wurde bisher völlig ausgelassen: Wo schaut der Spieler hin? Da gibt es nun offenbar diverse NV-Freunde, die beim Spielen 5 Meter vor dem Protagonisten auf den Boden/die Wand schauen und entsprechend bei ATI ein Grieseln erkennen (hoffentlich fahren sie so nicht Auto). Wer aber immer möglichst weit nach vorne schaut (Augenhöhe), dem fallen diese Filtertricks während 99% der Spielzeit nicht auf. Deswegen sind das noch lange keine DAUs. Unbekannte Leute so zu nennen zeugt übrigens von mangelndem Charakter. Aber das nur am Rande.

Ich spiele z.B. fast nur Open World/Sanbox-Spiele -bevorzugt RPGs- und schaue mir recht gern gemütlich die Gegend an, da fällt einem sowas schon auf.

Wo steht übrigens geschrieben, dass man auf Teufel komm raus mit Q/HQ benchen muss? Vielleicht ist ja "high performance" bei beiden Herstellern die am besten vergleichbare Einstellung.

Eigentlich sollte man gar nicht stupide benchen, sondern immer Geschwindigkeit und Bildqualität detailiert beschreiben/aufzeigen. Dann hätten die Kids allerdings keine Balkengrafiken mehr (die ich mir z.B. gar nicht weiter ansehe - hauptsache die neue Karte ist bei HQ mindestens ~doppelt so schnell).

Gast
2009-06-22, 18:32:19
Deswegen sind das noch lange keine DAUs. Unbekannte Leute so zu nennen zeugt übrigens von mangelndem Charakter.
So wie "anonymes" Posten als Gast. :redface: :D


Wo steht übrigens geschrieben, dass man auf Teufel komm raus mit Q/HQ benchen muss? Vielleicht ist ja "high performance" bei beiden Herstellern die am besten vergleichbare Einstellung.
Man sollte Nvidia-Karten überhaupt nicht auf diese Weise mit ATI-Karten vergleichen. Bei Nvidia bietet sich HQ-AF geradezu an, dazu MSAA und CSAA und nach Wahl TMSAA oder TSSAA.

Bei ATI hat der User keine Wahl, da ist A.I. Standard und Random-AAA nicht nur empfehlenswert, sondern einfach die Vorgabe und das muss man dann natürlich nehmen.

y33H@
2009-06-22, 18:35:11
@ Gast

Du hast in einem Shooter, einem RPG, einem RTS oder einem Rennspiel idR zu 90% Boden vor der virtuellen Fresse.

Mr.Magic
2009-06-22, 18:38:12
zu der zeit war die situation aber auch etwas anders weil das "lehrbuch-AF" in etwa den stellenwert hatte, den heute supersampling hat: toll in gewissen situationen aber meistens unbrauchbar weil zu langsam.
da war einfach der spatz in der hand besser als die taube auf dem dach.

Finde ich jetzt gar nicht. Meine GF3 war damals bei 4xSAA/4xAF praktisch durchgehend schneller als meine Voodoo 5. Die große Ausnahme war UT, das habe ich bis zur GF4600 weiter auf der V5 gezockt.

Gast
2009-06-22, 18:49:42
@ Gast

Du hast in einem Shooter, einem RPG, einem RTS oder einem Rennspiel idR zu 90% Boden vor der virtuellen Fresse.

Zügle bitte deine unsägliche Ausdrucksweise.

Gast
2009-06-22, 19:04:30
Meine GF3 war damals bei 4xSAA/4xAF praktisch durchgehend schneller als meine Voodoo 5. Die große Ausnahme war UT, das habe ich bis zur GF4600 weiter auf der V5 gezockt.
Ich hatte eine GeForce 4 TI 4400 und mit der habe ich es lang ausgehalten, erst eine X1900XT hat sie Jahre später verdrängt. Ich wusste nichts von AA und AF und das hat meiner Hardware eine willkommene Langlebigkeit beschert.

Erst als ein Neukauf anstand habe ich mich etwas weitgehender informiert und hier bei 3DCenter.org unschätzbar wertvolle Grundlagenartikel und Reviews gefunden, in denen ausführlich auf die Möglichkeiten bezüglich AF- und AA-Modi der Karten eingegangen wurde. Da wusste ich erst, mit was für einer Grütze ich mich jahrelang zufrieden gegeben hatte.

Ich habe dann lang geschwankt zwischen einer älteren Radeon mit r480, einer GeForce7 und einer X1800XT, bis ich dann endlich zugegriffen habe war die X1900XT natürlich unwiderstehlich, sehr leistungsstark, mit tollem 6xAA und dem zu der Zeit besten AF.

Wenn ich mir überlege, ich würde heute den Schritt vom Nullblicker zum etwas bewussteren Grafikkartenkäufer machen, ich würde in erster Linie irreführende Benchmarkvergleiche zu Gesicht bekommen. Die großen Seiten verstehen es leider nicht, eine Begeisterung für die Technologie zu wecken, stattdessen gibt es immerwährendes Copy&Paste, man lullt die Leser ein und malt blöde Balken.

Wenn das so weitergeht, dann ist der PC früher oder später wirklich nur noch eine unhandliche Spielkonsole und die Plattform hat sich überlebt. Es gibt also Leute, die auf den größten deutschen Hardwareseiten unterwegs sind und nichts von den AA- und AF-Modi ihrer Grafikkarte wissen. Epic Fail!

Labberlippe
2009-06-22, 19:06:30
Warum wurden dann NV20-3x nicht für ihre herausragende Filterqualität gelobt, bzw. ATi für ihren Scheiß heruntergemacht? Genau im Gegenteil, die 9700 mit ihrem 16xKrüppel-AF wurde gelobt, weil es schneller war als das 8xBilderbuch-AF der GF5800. Das die R8500 weder AF noch AA wirklich konnte hat damals praktisch auch niemanden interessiert. Und jetzt komm' mir nicht mit DX9 oder FSAA, es geht um die Filter.

Schön und gut nur damals sind die GF Karten derbe mit AF eingebrochen wenigsten konnte man noch AF von Ati nutzen auch wenn das Bugwellen AF auch derbst war.
Damals waren die Texturen zu diesen AF sogar noch gutmütig und dadurch hat es nicht ganz so gestört.
War aber deutlich zu sehen in der Tat.



Ich habe bei der Berichterstattung einfach die Schnauze davon voll, dass bei ATi immer alles schöngeredet wird, und wehe bei NV geht mal was schief...
Als Kunde bin ich fast froh darüber, dadurch kann man relativ bedenkenlos aktuelle nVidia-Produkte kaufen.
Wir haben damals schon lang und breit in den Foren darüber diskutiert.
Die Printmedien damals hatten sich mit solchen Themen nicht wirklich auseinander gesetzt was heute gott sei dank anders ist.
Dann Kaufe nVIDIA bedenkenlos und legt den AMD/ATI Usern nicht nahe einfach nur DAU zu sein, weil die mit deren AF leben können.




Die da wären?

Ordentliches AF? Fehlanzeige.
Ordentliches AA (Hybridmodi/SSAA)? Fehlanzeige.
Treiberqualität/Einstelloptionen? Fehlanzeige.
Stereo3D? Fehlanzeige.

AF darüber diskutieren wir gerade wie man sieht sind die Geschmäcker verschieden.

SSAA bietet offiziell nVIDIA gar nicht an auch wenn es über Tools aktiviert werden kann.

Einstellungsoptionen?
Also ohne nHancer und co kann man auch nicht viel mehr einstellen als bei ATI.
Ich sage ja das leider eingie Sachen ruhig von AI ausgenommen werden könnten nur ist das leider halt nicht so.

Stereo3D sowas ähnliches bietet AMD auch auf deren Webseite an, das typische Rot/Blau. (Rot / Blau wenn ich mich nicht irre.)
Nutzt Stereo 3D wer?

Zum Punkt.
Man kann mit Grafikkarten nicht nur spielen, das meinte ich Ursprünglich und nicht nur Funktion für "3D beschleunigtes" Spielen.

Gruss Labberlippe

y33H@
2009-06-22, 19:09:13
Also ohne nHancer und co kann man auch nicht viel mehr einstellen als bei ATI.TAA-Modi wählbar, HQ und Optimierungen kann man abschalten. Einfluss auf SLI.

Labberlippe
2009-06-22, 19:13:50
Komische Ansicht. Demnach sind auch 8xMSAA Vergleiche komplett für die Katz, "weil nicht jeder Wert auf perfekte Polygonkantenglättung legt"?
Ich frage mich, wenn ihr keinen Wert auf Bildqualität legt, wieso habt ihr dann eine AMD Karte für Spiele? Der einzige frapierende Vorteil ist 8xMSAA - aber wieso sollte jemand bei der Kantenglättung soviel Wert auf Flimmerfreiheit legen, wenn es ihnen bei den Texturen komplett egal ist? :|


Hi

Liest Du auch eigentlich sachen bevor du quotest?
Wo habe etwas zu 8x MSAA geschrieben?
Man glaubt es kaum LS aber es gibt Menschen denen 4xAF reicht und lieber FSAA raufdrehen weil die Polygonkanten hassen.

Wir diskutieren über soetwas schon seit Jahren, es ist und bleibt Geschmackssache.
Aber andere User als "Daus" durch die Blume zu bezeichen und dann nahe legen zu wollen die sollen sich ein anderes Forum suchen, weil ja hier quasi die 3D Gurus das sagen haben, ist schon ein starkes Stück was hier in div. Threads abgelassen wird.
Wenn Ihr alle so gut seid dann fängt doch mal alle schön brav Artikel zuschreiben an und verteilt es an alle Printmedien welches Ihr finden könnt.

Gruss Labberlippe

Gast
2009-06-22, 19:16:11
Weil wie schon tausend mal geschrieben, die default Filterquali damals beim G70, noch sehr sehr viel schlechter war als die jetzige von ATi!
Warum will das nicht in eure Schädel?


Weils Bullshit ist, und sowas kommt mir nicht in den Schädel. Was ATI im Moment bietet ist das schlechteste, was es je gab.

Labberlippe
2009-06-22, 19:17:14
TAA-Modi wählbar, HQ und Optimierungen kann man abschalten. Einfluss auf SLI.

Hi

H/V Polarisation einstellbar bei den ATI Karten seit R200, ging bei den letzten nVIDIA Karten nicht.

Gruss LAbberlippe

Labberlippe
2009-06-22, 19:19:22
Weils Bullshit ist, und sowas kommt mir nicht in den Schädel. Was ATI im Moment bietet ist das schlechteste, was es je gab.

Hi

Da bin ich ja froh das ich wieder die 1650er drin habe mit HQ AF. ;D

Damit mal klar ist, hier im Thread geht es eigentlich um die Skalierung mit AF.
In meine Augen ist nVIDIA Sieger, zwar sind beide von den Verlust gleichauf allerdings berücksichtige ich dies das nVIDIA ja sauberer Filtert nur was teilweise wie gesagt hier wieder abgelassen wird. mann mann mann...


Gruss Labberlippe

Mr.Magic
2009-06-22, 19:21:21
Einstellungsoptionen?
Also ohne nHancer und co kann man auch nicht viel mehr einstellen als bei ATI.

nHancer ist "nur" ein Frontend/GUI, man kann alles direkt in der Registry einstellen.

Stereo3D sowas ähnliches bietet AMD auch auf deren Webseite an, das typische Rot/Blau. (Rot / Blau wenn ich mich nicht irre.)
Nutzt Stereo 3D wer?

Ich nutzte Stereo3D (Shutter) von der Voodoo Banshee bis zur GeForce 7, und war über den nativen Support ab ungefähr der GF2 sehr froh. Es gab durchaus viele Fans der Technik, auch wenn die meisten Leute nie durch die Eingewöhnungsphase kamen. Dummerweise riecht das "neue" Angebot von NV etwas nach Abzocke, weshalb ich mich momentan in Verzicht übe.

Zum Punkt.
Man kann mit Grafikkarten nicht nur spielen, das meinte ich Ursprünglich und nicht nur Funktion für "3D beschleunigtes" Spielen.

Ich hatte lange nichts mehr mit 3D-Designern zu tun, aber traditionell waren die Quadro-Treiber besser. Hatte selbst mit 3D Studio nie Probleme.
Entwickler und Professoren mögen idR nVidia-Karten/Treiber mW auch lieber... Worauf wolltest du also hinaus? Die vielfältigen Einsatzmöglichkeiten von CUDA?

H/V Polarisation einstellbar bei den ATI Karten seit R200, ging bei den letzten nVIDIA Karten nicht.

Dazu gibt es von mir ein herzliches HÄ?

http://www.abload.de/img/screenhunter_01jun.221opjb.png

kruemelmonster
2009-06-22, 19:23:26
Ein wichtiger Punkt ist, dass man als Qualitätsbewusster Spieler nur zu nV greifen kann. Ich möchte aber gerne die Qual der Wahl haben, die habe ich aber nicht, solange man bei ATi nur Matsch gegen Flimmern tauschen kann, es kein SSAA und keine Wahl zwischen MS und SS beim Transparenz-AA gibt. Nichteinmal eine ordentliche Profilverwaltung gibt es. Die 4890 ist eine ausgezeichnete Karte, da ist es doch Blödsinn, dass es an den Treibern scheitert.
ATi könnte sicherlich viele neue Kunden hinzugewinnen, aber das wollen sie anscheinend nicht. :confused:

Signed!

Warum ist ATI eigentlich so ein rotes Tuch was Kritik betrifft?

Immer noch der Underdog-Sympathie-Bonus?

Oder durften keine AI-Artikel erscheinen weil AMD dann in der prä-Phenom 2-Phase gar nüscht mehr verkauft hätte?

Die Angst teile ich sogar, aber im Endeffekt wird man dann sagen müssen, dass der Markt auf BQ-Features keinen Wert legt.

Oder anders gesagt, ATI hat eine Lösung die für viele nicht störend ist, oder die sich viele schön reden können.

NV40/G7x haben gezeigt dass sich "der Markt" erziehen lässt. Wenn aber keiner der Erzieher (=Reviewer) den Arsch in der Hose hat und ATI in die Wutecke schickt, können sie weiterhin 500€ Karten an den Mann bringen die in Sachen BQ (diese definiert sich aus mehr als nur glatte Polygon-Kanten) von 50€ NV-Karten zersägt werden. Ansonsten kann man ATI nur gratulieren, wie gut sie es geschafft haben Stoffwechselendprodukte (AF) und Zuckerguß (fps/€) so zu mischen dass alle noch nen Nachschlag wollen.

Mit dieser (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7305727&postcount=700) BQ-Grütze braucht man mir jedenfalls nicht ankommen, seit G80 gehört HQ 16x AF und die Option auf (T)SSAA zum Zocken einfach dazu. Das ist der Maßstab und nicht irgendein Rumgeeiere nach dem Motto "am ehesten ist Q mit ATIs Best-of-BQ-Modus AI off zu vergleichen, wobei Q immernoch besser aussieht". Hoffentlich kommt da irgendwann mal was Verbindliches seitens Microsoft.

LovesuckZ
2009-06-22, 19:26:16
Hi

Liest Du auch eigentlich sachen bevor du quotest?
Wo habe etwas zu 8x MSAA geschrieben?
Man glaubt es kaum LS aber es gibt Menschen denen 4xAF reicht und lieber FSAA raufdrehen weil die Polygonkanten hassen.

Ahso, denen stört also das Flimmern der Schatten, der Texturen und des Alpha Tests nicht? Ich würde eher sagen, diese Leute gibt es nicht. Flimmern ist ein generelles Problem und je lokaler das Problem wird, umso anstrengender ist es, sich nicht darauf zu konzentrieren.
Ich habe mal Warhammer Online gespielt und das Flimmern der Texturen war grausam. Ich wüsste nicht, wie man damit spielen könnte, wenn man sich so sehr an Kantenflimmern stören würde.


Wir diskutieren über soetwas schon seit Jahren, es ist und bleibt Geschmackssache.
Aber andere User als "Daus" durch die Blume zu bezeichen und dann nahe legen zu wollen die sollen sich ein anderes Forum suchen, weil ja hier quasi die 3D Gurus das sagen haben, ist schon ein starkes Stück was hier in div. Threads abgelassen wird.
Wenn Ihr alle so gut seid dann fängt doch mal alle schön brav Artikel zuschreiben an und verteilt es an alle Printmedien welches Ihr finden könnt.

Gruss Labberlippe

Lächerliche Unterstellung. "Geschmacksache" bedeutet, dass 8xMSAA Verleiche somit ebenfalls nichtig sind. Wieso hört man von dir in der Richtung nichts? Anscheinend musst du es als so wichtig empfinden, dass diese Vergleiche fair wären.
Ich sehe verstärkt, dass vorallen AMD User einfach nur Unsinn erzählen, um ihre Firma zu schützen. Das hat nichts mehr mit Geschmack zu tun, sondern schon mehr mit Fanboytum und Besessenheit.

Labberlippe
2009-06-22, 19:36:21
nHancer ist "nur" ein Frontend/GUI, man kann alles direkt in der Registry einstellen.

Was anderes macht ATI Tray Tool auch nichts.



Ich nutzte Stereo3D (Shutter) von der Voodoo Banshee bis zur GeForce 7, und war über den nativen Support ab ungefähr der GF2 sehr froh. Es gab durchaus viele Fans der Technik, auch wenn die meisten Leute nie durch die Eingewöhnungsphase kamen. Dummerweise riecht das "neue" Angebot von NV etwas nach Abzocke, weshalb ich mich momentan in Verzicht übe.

Ja nur hat sich diese Technik nichtmal in Ansatz durchgesetzt, schön natürlich wenn man es noch nutzen kann aber Du gibst die Begründung ja selbst weshalb Du momentan darauf verzichtest.



Ich hatte lange nichts mehr mit 3D-Designern zu tun, aber traditionell waren die Quadro-Treiber besser. Hatte selbst mit 3D Studio nie Probleme.
Entwickler und Professoren mögen idR nVidia-Karten/Treiber mW auch lieber... Worauf wolltest du also hinaus? Die vielfältigen Einsatzmöglichkeiten von CUDA?
Von 3D Design habe ich gar nicht gesprochen.
Was Cuda betrifft warten wir mal ab, geht aber auch in Richtung Knete.
Da hinkt ATI sogar noch um eine Spur nach.
Lassen wir uns mal überraschen.



Dazu gibt es von mir ein herzliches HÄ?

http://www.abload.de/img/screenhunter_01jun.221opjb.png

Aha komisch bei den letzen Karten liess er mir die Einstellungen nicht zu.
Geschweige den das wenn ich ne 2te Device hatte das der liebe nVIDIA Treiber mir so einfach die Bildschirme vertauscht hatte und ich gezwungen war die Treiber neu zu installieren.

Dachte zuerst es lag am Bildschirm und am Beamer, denkste es hatte weder Richtig noch mit einer 8400er und der GeForce7 richtig funktioniert.


Gruss Labberlippe

Mr.Magic
2009-06-22, 19:44:52
Was anderes macht ATI Tray Tool auch nichts.

Und, wo sind dort die ganzen nützlichen Einstellungen? Nicht lügen, ich habe einen Rechner mit Radeon da und kann es nachprüfen.

Labberlippe
2009-06-22, 19:46:05
Ahso, denen stört also das Flimmern der Schatten, der Texturen und des Alpha Tests nicht? Ich würde eher sagen, diese Leute gibt es nicht. Flimmern ist ein generelles Problem und je lokaler das Problem wird, umso anstrengender ist es, sich nicht darauf zu konzentrieren.
Ich habe mal Warhammer Online gespielt und das Flimmern der Texturen war grausam. Ich wüsste nicht, wie man damit spielen könnte, wenn man sich so sehr an Kantenflimmern stören würde.
Siehste, ich spiele kein Warhammer Online.
Wie kommst Du dazu Dinge anderen zu Unterstellen nur weil es Dich stört.
BQ ist und bleibt Geschmacksache.
Kritik ist schön und gut aber einfach mit der Meinung drüber fahren und dann einfach auf Gewalt die Meinung durch drücken kann nicht förderlich sein.

Ein User hier hatte auch versucht das AF Thematik aufzugreifen und dann wurde Ihm nahegelegt das er andere Spiele nehmen soll.

Dann erstellt auch schön brav Artikel und verlasst euch nicht auf andere.
Die Seite wäre sicherlich dankbar wenn alle die hier sind sich eingigen und Screens zur Verfügung stellen und dann einen deftigen Artikel zu diesen Thema erstellen.

Das wäre sicherlich Förderlicher als hier ständig in jeden Thread darüber zu jammern wie bescheiden die Qualität doch von AMD ist.




Lächerliche Unterstellung. "Geschmacksache" bedeutet, dass 8xMSAA Verleiche somit ebenfalls nichtig sind. Wieso hört man von dir in der Richtung nichts? Anscheinend musst du es als so wichtig empfinden, dass diese Vergleiche fair wären.
Ich sehe verstärkt, dass vorallen AMD User einfach nur Unsinn erzählen, um ihre Firma zu schützen. Das hat nichts mehr mit Geschmack zu tun, sondern schon mehr mit Fanboytum und Besessenheit.

Du kannst nicht alle AMD User hinstellen als würden Sie nur Unsinn erzählen, andere haben halt einach einen anderen Schwerpunkt.
Mir zum Beispiel ist spielen auf dem PC nicht so wichtig.
Deshalb bin ich mit den AMD Karten zufrieden, so einfach ist das.
Ich kenne genug Leute die nVIDIA Karten haben und nur diese wollen.
Ich verbaue auch genug nVIDIA Karten in den Rechner ein, warum auch nicht die Kunden sind zufrieden ich dann auch.

Gruss Labberlippe

Labberlippe
2009-06-22, 19:46:48
Und, wo sind dort die ganzen nützlichen Einstellungen? Nicht lügen, ich habe einen Rechner mit Radeon da und kann es nachprüfen.

Hi

Was definierst Du als nützlich? da können wir ewig darum palavern.
Nützlich finde ich das ich die Taktung einstellen kann, da ja die liebe Saphire gespart hat und die per CCC nicht geht.

Abegesehen davon hatten wir geredet das die Tools ja alle die Einstellungen über die Registry vornehmen.

Gruss Labberlippe

Gast
2009-06-22, 19:54:22
Was definierst Du als nützlich da können wir ewig darum palavern.

Ich wüsste zum Beispiel gern, warum ATI seine Kunden mit EXE-Renaming abspeist, Nvidia bietet seit Jahren komfortable (gerade für Frontend-Schreiber ein Segen) Kompatibilitätsbits.

Ansonsten hat man beim AAA keine Wahl, da kann auch Ray Adams nichts ändern und beim AF gibt es nunmal nur einen sinnvollen Modus, wenig Sielraum für Fremdtools. Wo es bei ATI aufhört fängt die tolle Profilverwaltung mit nHancer doch erst an. :)

Mr.Magic
2009-06-22, 19:54:35
Hi

Was definierst Du als nützlich da können wir ewig darum palavern.

Gruss Labberlippe

Hybrid-/SS-AA, TM-/TS-AA, HQAF ohne jegliche "Optimierungen" und ohne Einfluss auf spezifische Fixes, Vertical Sync mit TP-Automatik, frei einstellbares AA-Override (für UT3 & Co.)

Das mal so aus dem Stehgreif. Da findet sich bestimmt noch mehr.

Labberlippe
2009-06-22, 19:58:15
Hi

Nochmal und ganz langsam.
Ich hatte mehr als deutlich genug erwähnt das AMD den ganzen AI Mist ruhig entkoppeln sollte.

Ihr bringt die ganze Zeit nur Vergleiche was sich auf den AI Mist hinausläuft.
Mir geht es darum das ein grossteil der User sich nicht daran stört und die AMD User einfach Fanboys oder Daus hingestellt werden.

Nochmal es ist und bleibt Subjetiv wie jeder dies empfindet.

Gruss Labberlippe

Labberlippe
2009-06-22, 20:02:08
Hybrid-/SS-AA, TM-/TS-AA, HQAF ohne jegliche "Optimierungen" und ohne Einfluss auf spezifische Fixes, Vertical Sync mit TP-Automatik, frei einstellbares AA-Override (für UT3 & Co.)

Das mal so aus dem Stehgreif. Da findet sich bestimmt noch mehr.

Hi

Und mir reicht es wenn ich auf die schnelle die Taktfrequenz ändern kann und ohne CCC die 3D Einstellungen vornehmen kann.
Auf Profile pfeife sowieso, da ich zum Beispiel je nach Spiel die Einstellungen sowieso davor ändere.

Was nützlich ist entscheidet jeder für sich selbst.

Gruss Labberlippe

Dr. Cox
2009-06-22, 20:13:11
Jaja. Mehr als dauernd darauf herumreiten kann man nicht. Die Leute sehen's nicht, wollen es nicht sehen oder es sind einfach die Balken im Sichtfeld. Wenn selbst hier im Forum die "Ich seh nix"-Kommentare regnen, braucht man's im Media Markt gar nicht erst zu versuchen.

MfG,
Raff

Dann habt ihr als Redakteure die Pflicht den DAUs die schlechte Filterqualität der ATI-Karten um die Ohren zu hauen, bis sie um Gnade winseln, bei Nvidia hat es ja auch geklappt ;) :D

Gast
2009-06-22, 20:33:40
Mir geht es darum das ein grossteil der User sich nicht daran stört und die AMD User einfach Fanboys oder Daus hingestellt werden.



Das sind sie doch auch. Niemand kann ernsthaft schlechte Bildqualität wollen, also entweder haben die ATI User keine Ahnung, was an BQ möglich ist, oder sie sind Fanboys, weil die die miese BQ verteidigen.

Black-Scorpion
2009-06-22, 20:37:48
Was hier zum Teil von einem Redakteur an Spitzen verteilt wird hätte jeden einfachem User schon Karten beschert.
Aber er kann treten und austeilen wie er Lust und Laune hat.
Reagiert man darauf genauso Spitz ist man der blöde und kassiert eine Karte.

Reaktion von irgend einem Mod Fehlanzeige.

Die Hexenverfolgung war ein Scheißdreck gegen das was die üblichen Verdächtigen hier veranstalten.

Labberlippe
2009-06-22, 20:44:59
Das sind sie doch auch. Niemand kann ernsthaft schlechte Bildqualität wollen, also entweder haben die ATI User keine Ahnung, was an BQ möglich ist, oder sie sind Fanboys, weil die die miese BQ verteidigen.


Hi

Und entweder gibt es ATI User die wie ich, sehrwohl Ahnung haben aber nur keinen Schwerpunkt darauf legen.

Das ist wiedereinmal typisch andere User einfach als Fanboy oder als unwissend hinstellen nur weil derjenige eine andere Sichtweise der Dinge hat.

Ich zocke nicht wirklich am PC und ich bin mit der AMD Karte zufrieden auch kann ich sehr wohl mit der BQ leben.
Bin ich jetzt unwissend oder nur Fanboy für Dich? oder beides.?

Gruss Labberlippe

Gast
2009-06-22, 20:45:16
Hybrid-/SS-AA, TM-/TS-AA, HQAF ohne jegliche "Optimierungen" und ohne Einfluss auf spezifische Fixes, Vertical Sync mit TP-Automatik, frei einstellbares AA-Override (für UT3 & Co.)

Das mal so aus dem Stehgreif. Da findet sich bestimmt noch mehr.

Das Wort heißt "Stegreif".

Da findet sich sicherlich noch mehr, aber auch bei ATI. Stichwort DVD/BR/TV/Overlay/Dualmonitor, bei denen NV teilweise deutlich den Kürzeren zieht.
Du bist schwer Offtopic, aber man musste Dich etwas bremsen, bevor Du noch einen NV-Herzkasperl kriegst.

Mr.Magic
2009-06-22, 21:03:11
Da findet sich sicherlich noch mehr, aber auch bei ATI. Stichwort DVD/BR/TV/Overlay/Dualmonitor, bei denen NV teilweise deutlich den Kürzeren zieht.
Du bist schwer Offtopic, aber man musste Dich etwas bremsen, bevor Du noch einen NV-Herzkasperl kriegst.

Wieso sollte ich ein Herzkasperl kriegen? Ich gucke ganz gemütlich DVDs am TV - angeschlossen an meiner GF, und füttere nebenher a bisserl einen Troll.
Das mit dem Dualmonitor ist nervig, aber was soll es denn für Probleme mit Overlay geben?

Gast
2009-06-22, 21:20:15
AMDs Vizepräsidentin des Produkt- und Plattform-Marketings, Leslie Sobon, geht noch einen Schritt weiter. Die meisten Kunden interessiere es nicht, welche Features sie bekommen - ein Rating nach Leistung und Features wäre vollkommen überflüssig, da es viele Kunden auch schlicht nicht verstehen.Quelle: PCGH (http://www.pcgameshardware.de/aid,687929/AMD-deutet-radikale-Aenderungen-der-CPU-Namensschemata-an/CPU/News/)

;D

Schlammsau
2009-06-22, 21:38:35
Quelle: PCGH (http://www.pcgameshardware.de/aid,687929/AMD-deutet-radikale-Aenderungen-der-CPU-Namensschemata-an/CPU/News/)

;D

Tja, so siehts in der Realität aus Jungs.

reunion
2009-06-22, 21:39:34
Quelle: PCGH (http://www.pcgameshardware.de/aid,687929/AMD-deutet-radikale-Aenderungen-der-CPU-Namensschemata-an/CPU/News/)

;D

Du findest das witzig, aber er hat vollkommen recht. Die Frage ist halt nur ob man das ausnutzen sollte. Aber das ist leider Realität. Siehe nur das Namenchaos gerade auch bei NV in letzter Zeit. Aber bei dem Link von dir geht es ja eher um eine Vereinfachung.

derguru
2009-06-22, 21:59:25
Viel wichtiger zur Erschließung neuer Kunden wäre es, nicht den Prozessor und dessen Eigenschaften zu bewerben, sondern das, was der Kunde davon hat. Bis auf ein paar Ausnahmen wäre dies nämlich bei anderen elektronischen Endgeräten wie Fernseher und Handys genauso: Man interessiere sich nicht dafür, was drin steckt, sondern nur was man damit anstellen kann - so der Bericht auf extremetech.com. Wie genau das aussehen könnte, ist nicht bekannt.
ja wie soll denn so ein name aussehen(heißt dann ein Phenom II X4 Spielecpu oder wie soll man sich das vorstellen)und wo bitte gibt es denn vergleiche bei fernseher oder handys?

Botcruscher
2009-06-22, 21:59:44
...sondern das, was der Kunde davon hat. Bis auf ein paar Ausnahmen wäre dies nämlich bei anderen elektronischen Endgeräten wie Fernseher und Handys genauso: Man interessiere sich nicht dafür, was drin steckt, sondern nur was man damit anstellen kann...

Der Mann hat gerade 95%+ seiner Zielgruppe richtig eingeschätzt. Der Boom in Netbookmarkt kommt ja nicht von ungefähr.

ja wie soll denn so ein name aussehen(heißt dann ein Phenom II X4 Spielecpu oder wie soll man sich das vorstellen)und wo bitte gibt es denn vergleiche bei fernseher oder handys?

High-end for performance and gaming könnte man als zusatz nennen. Das es bitter nötig ist sieht man ja jeden Tag bei MM.

Gast
2009-06-22, 22:12:28
Siehe nur das Namenchaos gerade auch bei NV in letzter Zeit.
Lustig das du gerade NV erwähnst, die gerade in letzter Zeit ein vorbildliches Namensschema fahren und nicht AMD mit ihren neuen Modellen.

Tja, so siehts in der Realität aus Jungs.
Ich hoffe du lernst daraus, 8xMSAA Performance ist vollkommen gleichgültig.
Preis/Leistung ist vollkommen gleichgürlig, gerade wenn der Punkt Leistung entfällt.
Bleibt nur zu sagen, das eine 4870 günstiger als eine 4890 ist, ergo besser.

reunion
2009-06-22, 22:28:27
Lustig das du gerade NV erwähnst, die gerade in letzter Zeit ein vorbildliches Namensschema fahren und nicht AMD mit ihren neuen Modellen.


Vorbildlich? ;D
Da gäbe es viel zu erzählen aber das ist hier nicht das Thema, siehe die entsprechenden Threads. Da wird noch genug Schindluder verkauft. Die 4730-Karten welche du vermutlich meinst sind sicherlich genauso zu kritisieren, auch wenn das Sache der zwei Boardpartner war und auf mangelnde 40nm Chips zurück zu führen ist.

Gast
2009-06-22, 22:39:38
Du weißt genau das ich 4730, 4770, 4790, 4830 und 4860 meine.

IVN
2009-06-22, 23:20:50
zu der zeit war die situation aber auch etwas anders weil das "lehrbuch-AF" in etwa den stellenwert hatte, den heute supersampling hat: toll in gewissen situationen aber meistens unbrauchbar weil zu langsam.
da war einfach der spatz in der hand besser als die taube auf dem dach.
http://www.xbitlabs.com/articles/video/display/geforce-fx_16.html#sect0

http://www.anandtech.com/showdoc.aspx?i=1779&p=14

Sonyfreak
2009-06-23, 00:38:52
BQ ist und bleibt Geschmacksache.Seit wann ist Bildqualität Geschmacksache? Lässt sich doch objektiv bewerten.

mfg.

Sonyfreak

Labberlippe
2009-06-23, 00:45:10
Seit wann ist Bildqualität Geschmacksache? Lässt sich doch objektiv bewerten.

mfg.

Sonyfreak
Hi

Freilich lässt sich das objektiv bewerten dennoch haben die meisten halt doch z.B Unschärfe lieber oder haben sogar die Farbeinstellungen alles andere als neutral.

Gucken wir mal im TV Bereich zurück, damals hatten alle Sony Trinitron TV Geräte einen leichten Rotstich bei weiss, wobei hingegen die Telefunken da astrein waren.
Technisch gesehen waren die Sony bei mir ein grosser Mist, die Kunden sind aber darauf abgefahren.
Wenn der Kunde sagt er kann damit leben und Ihm stört das nicht dann kanns mir egal sein.
Ich kann Ihn sehrwohl darauf hinweisen und das sollte man auch und wenn er später dann selbst mal Vergleiche anstellt, dann habe ich mehr bewirkt als wie den Kunden unbedingt überzeugen zu wollen das meine Ansicht richtig ist.


Gruss Labberlippe

y33H@
2009-06-23, 01:13:42
Jeder kann seine eigene Subjektivität leben, solange er sich der Objektivität bewusst ist. Ein AMDler mag sagen, dass flimmerndes LQ-AF samt Banding für ihn besser aussieht als NVs flimmerfreies HQ-AF, er darf dabei aber die objektive Tatsache, dass AMDs AF technisch klar unterlegen ist, nicht leugnen.

Grestorn
2009-06-23, 09:15:50
Weil wie schon tausend mal geschrieben, die default Filterquali damals beim G70, noch sehr sehr viel schlechter war als die jetzige von ATi!
Warum will das nicht in eure Schädel?

Weil es schlicht nicht stimmt!

reunion
2009-06-23, 09:18:29
Weil es schlicht nicht stimmt!

Doch. Schlammsau hat das auch bereits verlinkt. Sonst kannst du dir auch gerne die 3D-Center-Artikel zu Gemüte führen. Es gab natürlich noch HQ, aber verglichen wurde lange Zeit mit default-Q. Von der Winkelabhängigkeit ganz zu schweigen.

Raff
2009-06-23, 10:11:21
NV4x/G7x Q + Opts sieht wirklich grausam aus, daran gibt's nichts zu rütteln. Dagegen ist A.I. Balsam für die Glubscher.

MfG,
Raff

desert
2009-06-23, 10:21:28
Doch. Schlammsau hat das auch bereits verlinkt. Sonst kannst du dir auch gerne die 3D-Center-Artikel zu Gemüte führen. Es gab natürlich noch HQ, aber verglichen wurde lange Zeit mit default-Q. Von der Winkelabhängigkeit ganz zu schweigen.

vielleicht solltest du und andere dir einen anderen artikel von ats erstmal zu gemüte führen.


...Damit die Chips in dieser Auflösung tatsächlich schnell sind, wird weiter am AF "optimiert". So werden bei den isotropen Samples keine trilinearen, sondern nur noch "brilinear" gefilterte genommen. Und es wird untersampelt: Bei einem Verzerrungsverhältnis von z. B. 1:12 werden vielleicht nur 10 Samples erzeugt (die genaue Methode ist leider unbekannt).

Unterabtastung führt jedoch immer zu Fehlern - und die Texturfilterung wurde erfunden, um eben jene Fehler zu vermeiden. AF-"Optimierung" per Unterfilterung führt somit den Daseinszweck von Filterung ad absurdum. Die Folge: Flimmrige Texturen, und dies, wo die neue Karte gerade einige hundert Euro gekostet hat....

reunion
2009-06-23, 10:24:56
vielleicht solltest du und andere dir einen anderen artikel von ats erstmal zu gemüte führen.


...Damit die Chips in dieser Auflösung tatsächlich schnell sind, wird weiter am AF "optimiert". So werden bei den isotropen Samples keine trilinearen, sondern nur noch "brilinear" gefilterte genommen. Und es wird untersampelt: Bei einem Verzerrungsverhältnis von z. B. 1:12 werden vielleicht nur 10 Samples erzeugt (die genaue Methode ist leider unbekannt).

Unterabtastung führt jedoch immer zu Fehlern - und die Texturfilterung wurde erfunden, um eben jene Fehler zu vermeiden. AF-"Optimierung" per Unterfilterung führt somit den Daseinszweck von Filterung ad absurdum. Die Folge: Flimmrige Texturen, und dies, wo die neue Karte gerade einige hundert Euro gekostet hat....

Das ist offen bekannt und habe ich nie bestritten. Was du jetzt damit willst bleibt wohl dein Geheimnis. Unterabtastung war auch der Grund warum NV4x/G7x derart grieselten. Zu wenig Samples führen genau zu dem oft angesprochenen flimmern. BTW, wenn man etwas zitiert sollte man auch einen entsprechenden Link zur Quelle angeben. Dein Zitat verrät nicht mal auf was sich die Beschreibung überhaupt bezieht.

desert
2009-06-23, 10:31:01
Das ist offen bekannt und habe ich nie bestritten. Was du jetzt damit willst bleibt wohl dein Geheimnis. Unterabtastung war auch der Grund warum NV4x/G7x derart grieselten. BTW, wenn man etwas zitiert sollte man auch einen entsprechenden Link zur Quelle angeben. Dein Zitat verrät nicht mal auf was sich die Beschreibung überhaupt bezieht.

eben nicht. in diesem Thread wird die flimmerigkeit geradezu als weltgrösste erfindung behandelt. Und mal ehrlich g70 hat nicht viel mehr auf standard geflimmert (ohne opts) als r4xx. Das das totale geflimmer war ist auch leicht übertrieben.

Wenn ich mich richtig erinnere war auch das geflimmer auf hq nur ein bug, der beseitigt wurde. Und somit hat auch das "flimmermonster" g70 gut gefiltert auf hq, natürlich winkelabhängig aber ohne flimmer.

reunion
2009-06-23, 10:38:11
eben nicht. in diesem Thread wird die flimmerigkeit geradezu als weltgrösste erfindung behandelt.


Inwiefern? Ich kann dir nicht folgen.


Und mal ehrlich g70 hat nicht viel mehr auf standard geflimmert (ohne opts) als r4xx. Das das totale geflimmer war ist auch leicht übertrieben.

Oh doch, davon konnte ich mich selbst überzeugen. Genauso wie ich mich von RV670 vs. G92 überzeugen konnte. R4xx filterte nur bri aber sparte keine Samples, das konnte er vermutlich noch gar nicht (kam erst ab R5xx). NV4x/G7x waren außer auf HQ absolut schrecklich. Wenn du das als nicht so schlimm empfunden hast und dich jetzt über AI_def aufregst bist du wenig glaubwürdig.


Wenn ich mich richtig erinnere war auch das geflimmer auf hq nur ein bug, der beseitigt wurde. Und somit hat auch das "flimmermonster" g70 gut gefiltert auf hq, natürlich winkelabhängig aber ohne flimmer.

Ne, G70 spart auch auf HQ immer noch an Samples. Bei einem Treiber war es zwar besonders extrem aber ganz ausgemerzt wurde das nie. Kannst ja auch gerne Coda fragen.

y33H@
2009-06-23, 10:39:45
Es gab natürlich noch HQKorrekt. Und genau das ist es: Du konntest auf einer GF7 HQ ohne Optimierungen nutzen und die BQ des AF stark verbessern. Bei einer Radeon kannst du das nicht.

reunion
2009-06-23, 10:44:29
Korrekt. Und genau das ist es: Du konntest auf einer GF7 HQ ohne Optimierungen nutzen und die BQ des AF stark verbessern. Bei einer Radeon kannst du das nicht.

Verglichen wurde trotzdem mit Q - genau das über was sich hier (zurecht) aufgeregt wird. Und GF7 HQ war winkelabhängig und auch in punkto Filterung bestenfalls minimal besser als heute AI_def. Und genau das ist der schon oft angesprochene Punkt: Wer damals einen G7x besaß ist wenig glaubwürdig wenn er sich heute an AMD brüskiert. Aber das ist eh immer das gleiche Spiel.

desert
2009-06-23, 11:02:31
Verglichen wurde trotzdem mit Q - genau das über was sich hier (zurecht) aufgeregt wird. Und GF7 HQ war winkelabhängig und auch in punkto Filterung bestenfalls minimal besser als heute AI_def. Und genau das ist der schon oft angesprochene Punkt: Wer damals einen G7x besaß ist wenig glaubwürdig wenn er sich heute an AMD brüskiert. Aber das ist eh immer das gleiche Spiel.


wurde es nicht.

Treibereinstellungen: nVidia-Grafikkarten

Systemleistung: Hohe Qualität
Vertikale Synchronisierung: Aus
MipMaps erzwingen: keine
Trilineare Optimierung: Aus
Anisotrope Mip-Filter-Optimierung: Aus
Optimierung des anisotropen Musters: Aus
Negativer LOD-Bias: Clamp
Gamma-angepasstes AA (G70): Ein
Transparenz AA (G70): Aus
Treibereinstellungen: ATi-Grafikkarten

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive Anit-Aliasing: Off
High Quality AF: Off
Truform: Always Off

da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Off“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/4/#abschnitt_testsystem



das ist der test zur asus x1800 xt auch die vorhergehenden wurden mit hq gemacht. Und soll so gewesen sein wie a.i. off, natürlich winkelabhängig.

reunion
2009-06-23, 11:04:39
wurde es nicht.

Treibereinstellungen: nVidia-Grafikkarten

Systemleistung: Hohe Qualität
Vertikale Synchronisierung: Aus
MipMaps erzwingen: keine
Trilineare Optimierung: Aus
Anisotrope Mip-Filter-Optimierung: Aus
Optimierung des anisotropen Musters: Aus
Negativer LOD-Bias: Clamp
Gamma-angepasstes AA (G70): Ein
Transparenz AA (G70): Aus
Treibereinstellungen: ATi-Grafikkarten

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive Anit-Aliasing: Off
High Quality AF: Off
Truform: Always Off

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/4/#abschnitt_testsystem

das ist der test zur asus x1800 xt auch die vorhergehenden wurden mit hq gemacht.

Einige wenige Seiten und das auch erst nachdem G70 schon ewig am Markt war. NV40 wurde ohnehin die gesamte Lebenszeit mit Q gebencht.

reunion
2009-06-23, 11:09:25
Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Off“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.


das ist der test zur asus x1800 xt auch die vorhergehenden wurden mit hq gemacht. Und soll so gewesen sein wie a.i. off, natürlich winkelabhängig.


Willst du mich verarschen? Also das ist wirklich unterstes Niveau, da werden schon Zitate verfälscht.

"Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird."

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/4/#abschnitt_testsystem

desert
2009-06-23, 11:14:22
Willst du mich verarschen? Also das ist wirklich unterstes Niveau, da werden schon Zitate verfälscht.

"Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird."

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/4/#abschnitt_testsystem

eher du, aber extra nochmal für weil ich dich ja "verarschen" will.

Achtung: Nach sorgfältiger Überlegung and mehrfacher Analyse selbst aufgenommener Spielesequenzen, sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Off“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/10/#abschnitt_testsystem

Wieso wurde das eigentlich von off auf standard geändert, haben da schon die ati fanboys solange gemeckert bis es geändert wurde?:wink:

Kannst es ruhig zugeben, du hast doch auch bestimmt nächte lang mails geschrieben

desert
2009-06-23, 11:16:54
Einige wenige Seiten und das auch erst nachdem G70 schon ewig am Markt war. NV40 wurde ohnehin die gesamte Lebenszeit mit Q gebencht.

aha und r4xx war jetzt der bq king oder wie? Das wird ja immer schöner.

ATi hatte nur einmal bessere bq und das war zu Rxx zeiten, winkelabhängig und flimmerfrei auf a.i. off. Sonst war deren bq eigentlich immer schlechter als die von nvidia.

Aber hat ja niemanden interessiert, hauptsache hässlich und schnell.

reunion
2009-06-23, 11:17:12
aha und r4xx war jetzt der bq king oder wie? Das wird ja immer schöner.

Es war deutlich besser als Nv4x_Q ja. R4xx war sogar besser als R5xx abgesehen von der Winkelabhängigkeit.

ATi hatte nur einmal bessere bq und das war zu Rxx zeiten, winkelabhängig und flimmerfrei auf a.i. off. Sonst war deren bq eigentlich immer schlechter als die von nvidia.

Aber hat ja niemanden interessiert, hauptsache hässlich und schnell.

Das ist schlicht falsch. Aber warum sage ich das überhaupt?

eher du, aber extra nochmal für weil ich dich ja "verarschen" will.

Achtung: Nach sorgfältiger Überlegung and mehrfacher Analyse selbst aufgenommener Spielesequenzen, sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Off“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/10/#abschnitt_testsystem


Bei deinem vorherigen Link stand eindeutig Standard. Den hast du erst jetzt raus gekramt.


Wieso wurde das eigentlich von off auf standard geändert, haben da schon die ati fanboys solange gemeckert bis es geändert wurde?:wink:

Kann nur ein Tippfehler sein, es wurde ja auch mit Standard verglichen.


Kannst es ruhig zugeben, du hast doch auch bestimmt nächte lang mails geschrieben

Du bist echt peinlich. Das habe ich im Gegensatz zu dir sicher nicht nötig, kannst ja gerne mit dir selbst weiter diskutieren, ich steige hier aus.

desert
2009-06-23, 11:35:23
Es war deutlich besser als Nv4x_Q ja. R4xx war sogar besser als R5xx abgesehen von der Winkelabhängigkeit.


.

ich glaube du verwechselt r4xx mit r5xx.

LovesuckZ
2009-06-23, 11:36:56
Verglichen wurde trotzdem mit Q - genau das über was sich hier (zurecht) aufgeregt wird. Und GF7 HQ war winkelabhängig und auch in punkto Filterung bestenfalls minimal besser als heute AI_def. Und genau das ist der schon oft angesprochene Punkt: Wer damals einen G7x besaß ist wenig glaubwürdig wenn er sich heute an AMD brüskiert. Aber das ist eh immer das gleiche Spiel.

Komisch, mir war nicht bewusst, dass die ehemaligen G7x User heute nicht ebenfalls mit einer schlechten Filterung spielen könnten. Okay, sie müssen sich notgedrungen mit fehlender Winkelabhängigkeit abgeben, aber die generelle Filterqualität lässt sich selbst heute noch erreichen.
ich finde es viel bezeichnender, dass r5xx heute auch r6xx/r7xx Hardware besitzen und ihre vorzügliche Filterqualität beim r5xx nichtmal annährend erreichen können.
Und das sind die, die sich vor ein paar Jahren über die Konkurrenzhardware "brüskiert" haben. "Aber das ist eh immer das gleiche Spiel" mit den AMD Usern.

Gast
2009-06-23, 11:53:46
Korrekt. Und genau das ist es: Du konntest auf einer GF7 HQ ohne Optimierungen nutzen und die BQ des AF stark verbessern. Bei einer Radeon kannst du das nicht.

G70 HQ war aber eine zeitlang schlechter als NV40 Q (Zu dem Zeitpunkt als der G70 erschien und blöderweise einen ärgerlichen Treiberbug hatte, der nur flotte, aber hässliche AF-BQ zuließ). 3 Monate hats afaik gedauert, bis der Bug endlich gefixt war.

desert
2009-06-23, 12:00:17
G70 HQ war aber eine zeitlang schlechter als NV40 Q (Zu dem Zeitpunkt als der G70 erschien und blöderweise einen ärgerlichen Treiberbug hatte, der nur flotte, aber hässliche AF-BQ zuließ). 3 Monate hats afaik gedauert, bis der Bug endlich gefixt war.


und hd4 hatte mal 2 monate lang kein af unter dx10 bis es endlich gefixt wurde. War ein treiberbug und gut ist.

Nur bei nvidia ist es wieder volle absicht

Gast
2009-06-23, 12:26:26
Was geht mir diese Diskussion über alberne Treiberdefaults auf den Zeiger, dazu noch angereichert mit Ausflügen ins Grafikkartenmuseum.

Entscheidend ist, was kann ich aus der Hardware herausholen, erfreulicherweise ist HQ nur 3 Klicks entfernt, war es Anno G70 auch schon.

ATI hat sich aus dem Enthusiasten- und HighEnd-Bereich verabschiedet und produziert nur noch Mainstreamkarten. Das ist soweit okay, aber dass es ihnen gelingen konnte, derart wohlwollende Presse zu ernten und damit den Eindruck zu erwecken, die Value-Chips könnten auch höheren Ansprüchen gerecht werden, ist eine Schande.

Ich hatte wirklich die Hoffnung, dass die PC-Plattform weiter durch Flexibilität glänzen und innovativ in Sachen 3D-Rendering sein würde. ATI kommt aber mit einem nicht mehr zeitgemäßen AF und unsäglichen Treibereinschränkungen durch, die Plattform verliert an Innovationskraft und Flexibilität.

Es wäre an der Zeit gewesen, endlich das Shaderflimmern anzugehen, entweder durch einen geeigneten neuen Ansatz oder durch besseren Support für SuperSampling und Hybride im Zusammenhang mit Postprocessing. Das kann man dank ATI wohl getrost vergessen, die haben keinerlei Interesse an qualitativem Rendering, die können und wollen halt nur noch billig. Nvidia wird sich kaum leisten können, an "Schnickschnack" wie Bildqualität und zusätzlichen Treiberfeatures zu feilen, wenn ATI die Spirale nach unten dreht.

Gast
2009-06-23, 12:55:03
Krass - demächst hat ATI auch Jesus gekreuzigt

Gast
2009-06-23, 12:55:40
Hybride sind leistungstechnisch ohnehin für die Katz. Gut programmierte Shader wären die weitaus bessere Lösung.

Außerdem kann man das Grieseln ja auch mit Downsampling bekämpfen.

kruemelmonster
2009-06-23, 13:12:13
war, war, war...früher waren die Gummistiefel aus Holz, das interessiert keine Sau mehr.

Man hatte und hat bei NV Möglichkeiten BQ weit überhalb von Default einzustellen, ob NV40 oder G80. Nur ist für G80 HQ nicht zwingend nötig, für NV40/G7x war es dagegen sehr sinnig.

Bei ATI rennt man gegen die DAU-Mauer, die im Catalyst errichtet wurde. Friss oder stirb.

Kommt ein NV-User durch einen Beobachtungsprozess in die Lage die gegebene BQ kritisch zu beurteilen, kann er sich mit vielen Optionen austoben und eine Einstellung finden die seinem neuen Maßstab gerecht wird.

Kommt ein ATI-User durch einen Beobachtungsprozess in die Lage die gegebene BQ kritisch zu beurteilen, kann er höchstens AI deaktivieren was für CF tödlich ist. Er wird sich weiterhin kaum bewußt sein dass die Bildunruhe an seiner Graka liegt und sich beim nächsten Graka-Kauf wieder an ATI orientieren, die sind ja so schön billig.

p.s.:

Hybride sind leistungstechnisch ohnehin für die Katz.

Sag das nochmal wenn du ein altes GTA oder Flatout auf ner ATI spielst, mit tollem Flimmerbrei. 500fps sind sinnlos, also warum nicht überschüssige Leistung in BQ investieren. Ach, ich vergas, dieses Prinzip ist AMD'lern ja nicht so geläufig. :P

Außerdem kann man das Grieseln ja auch mit Downsampling bekämpfen.

ATI könnte das Flimmern auch einfach weglassen...Warum sollte der User den Mist des IHVs wegräumen müssen?


Das Schlimme bei ATI ist die nicht vorhandene Wahl. Schön und gut dass der Mehrheit die Filterquali ausreicht. Aber nicht nur für oben angesprochenen Fall wäre es schön "mehr" einstellen zu können, auch wenn das abartig Leistung frisst. Solange man aber nicht wählen kann: Q vs AI off mit dem Hinweis das man bei ATI die Wahl zwischen Kompatibilität und BQ hat.

Gast
2009-06-23, 13:25:37
Krass - demächst hat ATI auch Jesus gekreuzigt
Pontius Pilatius.

Auf jeden Fall hätte ein intelligenter, freiheitsliebender Mensch wie Jesus eine Nvidia-Karte gekauft. Die DAU-Mauer im Catalyst hätte er angeprangert und im ATI-Tempel Schreibtische umgeworfen. Vermutlich hätte er auch an ihrer ATI-Karte Erblindete geheilt, den verblödeten Fanboys Trost gespendet und außerdem hätte er PCGH und ComputerBase vergeben.

Gast
2009-06-23, 13:33:39
Man hatte und hat bei NV Möglichkeiten BQ weit überhalb von Default einzustellen, ob NV40 oder G80. Nur ist für G80 HQ nicht zwingend nötig, für NV40/G7x war es dagegen sehr sinnig.

Mit dem Unterschied, dass es beim G70 nach dem Release noch mindestens 3 Monate gedauert hat, bis der einstellbare HQ Modus auch wirklich besser war als NV40 Q - was ja nach heutigen Maßstäben betrachtet - unter aller Sau war.

kruemelmonster
2009-06-23, 13:36:53
Mit dem Unterschied, dass es beim G70 nach dem Release noch mindestens 3 Monate gedauert hat, bis der einstellbare HQ Modus auch wirklich besser war als NV40 Q - was ja nach heutigen Maßstäben betrachtet - unter aller Sau war.

1. früher waren die Gummistiefel aus Holz
2. NV hat (meinetwegen 3 Monate zu spät) geliefert - ATI hat ihre BQ seit R600 (!!!) kein Stück weiterentwickelt

OT:
3. NV verschönert durch Ambient Occlusion Spiele jenseits von AA & AF - was macht ATI?

Gast
2009-06-23, 13:40:55
1. früher waren die Gummistiefel aus Holz
2. NV hat (meinetwegen 3 Monate zu spät) geliefert - ATI hat ihre BQ seit R600 (!!!) kein Stück weiterentwickelt
...und mit R600 erstmal zurückentwickelt. Bei A.I. Standard ein klein wenig, A.I. Off wurde dagegen bewusst kaputt sabotiert, liefert aber sowieso nicht mehr, womit R520 unter A.I. Off noch überzeugen konnte.

Coda
2009-06-23, 13:41:29
Mit dem Unterschied, dass es beim G70 nach dem Release noch mindestens 3 Monate gedauert hat, bis der einstellbare HQ Modus auch wirklich besser war als NV40 Q - was ja nach heutigen Maßstäben betrachtet - unter aller Sau war.
HQ war immer gleich wie bei NV40. Nur Quality war am Anfang noch schlechter.

Get your facts right.

Gast
2009-06-23, 13:52:18
HQ war immer gleich wie bei NV40. Nur Quality war am Anfang noch schlechter.

Get your facts right.

Nö. Sicher nicht. G70Q war schlechter und G70HQ war minimal unterm Niveau vom NV40Q - bis zum 78.03.

Coda
2009-06-23, 13:53:02
Das wage ich zu bezweifeln. Ist aber auch eigentlich egal.

Gast
2009-06-23, 13:54:42
http://alt.3dcenter.org/artikel/g70_flimmern/index2.php

reunion
2009-06-23, 13:59:22
Wie schnell die Leute doch so etwas vergessen. Wie schon mehrmals erwähnt war ein R4xx vorbildhaft und filterte nur bri, sparte aber keine Samples. NVs default-Qualität war lange Zeit unter aller Sau und auch mit HQ gerade so akzeptabel. Ein späterer Treiber brachte dann die Qualität von G70 wieder ca. auf NV4x-Niveau, aber mehr auch nicht. Verglichen wurde trotzdem von vielen bis zuletzt mit default vs. default.

kruemelmonster
2009-06-23, 14:02:22
http://alt.3dcenter.org/artikel/g70_flimmern/index2.php

Letzter Satz aus dem Artikel:

Man sollte deshalb (GeForce 6 und 7) immer im HQ-Modus benchen, da die Konkurrenz (zumindest mit "A. I." auf "low") kein solches Flimmern zeigt.

Analogie: Man sollte deshalb Radeons immer im AI-Off-Modus benchen, da die Konkurrenz (zumindest mit HQ) kein solches Flimmern zeigt.

Und hier kommt bei mir wieder eine oft gestellte Frage durch: warum war es legitim, NV zu benachteiligen, indem man ihnen HQ aufgebrummt hat, mit ATI soll man aber heutzutage netter sein und ja nicht AI deaktivieren? Vergleichbare BQ wäre das Ergebnis, nur scheint das nur erwünscht wenn NV dabei n blaues Auge bekommt.

Coda
2009-06-23, 14:06:25
http://alt.3dcenter.org/artikel/g70_flimmern/index2.php
Wo ist da bitte G70 HQ schlechter als NV40 Q?

Aber korrekt ist offenbar, dass G70 HQ tatsächlich schlechter war als NV40 HQ zu dem Zeitpunkt.

Ailuros
2009-06-23, 14:20:57
Nö. Sicher nicht. G70Q war schlechter und G70HQ war minimal unterm Niveau vom NV40Q - bis zum 78.03.

Da ich die Affaere noch sehr gut in Erinnerung habe, funktionierte lediglich der switch der HQ einstellte in den Treibern vor 78.03 beta nicht.

Wie schnell die Leute doch so etwas vergessen. Wie schon mehrmals erwähnt war ein R4xx vorbildhaft und filterte nur bri, sparte aber keine Samples. NVs default-Qualität war lange Zeit unter aller Sau und auch mit HQ gerade so akzeptabel. Ein späterer Treiber brachte dann die Qualität von G70 wieder ca. auf NV4x-Niveau, aber mehr auch nicht. Verglichen wurde trotzdem von vielen bis zuletzt mit default vs. default.

Was genau soll man hier vergessen haben? Ich hab damals von NV kurz vor dem release eine 7800GTX zugeschickt bekommen um diese unter die Lupe zu nehmen. Meine erste Reaktion war wortwoertlich "unacceptable AF quality under high quality" und innerhalb von nur Tagen bekam ich ueber NV's extranet den 78.03 zugeschickt. Dass ich fast zwei Wochen brauchte den damaligen write up zusammenzukritzeln liegt wohl eher dass ich auch andere Beschaeftigungen ausser dem Zeug damals hatte. Du wirst oben sehen koennen was an dem Treiber falsch lag und ich bekam damals sogar einen ausfuehrlichen log file woran es genau lag.

Gast
2009-06-23, 14:44:51
Ich hab damals von NV kurz vor dem release eine 7800GTX zugeschickt bekommen um diese unter die Lupe zu nehmen. Meine erste Reaktion war wortwoertlich "unacceptable AF quality under high quality" und innerhalb von nur Tagen bekam ich ueber NV's extranet den 78.03 zugeschickt.


So ein Gschichtl. Die 7800GTX kam Ende Juni. Den 78.03 Beta gabs erst im September.

PCGH_Carsten
2009-06-23, 15:23:26
Wie schnell die Leute doch so etwas vergessen. Wie schon mehrmals erwähnt war ein R4xx vorbildhaft und filterte nur bri, sparte aber keine Samples.
Leider falsch. R4xx führte das fort, was mit RV360 begonnen wurde.

reunion
2009-06-23, 15:26:03
Leider falsch. R4xx führte das fort, was mit RV360 begonnen wurde.

Richtig, was aber nur bri-Filterung war AFAIK. Die Sampleeinsparungen kamen erst mit R5xx. Zumindest war es bei R4xx bedeutend besser.

Gast
2009-06-23, 15:26:49
Leider falsch. R4xx führte das fort, was mit RV360 begonnen wurde.

Und das war interessanterweise trotz Optimierungen sogut, dass man ohne weiteres mit dem repariertem G70 HQ mithalten konnte.

Gast
2009-06-23, 15:27:21
Richtig, was aber nur bri-Filterung war. Die Sampleeinsparungen kamen erst mit R5xx. Zumindest war es bei R4xx bedeutend besser.

AFAIK kamen die erst mit dem R6xx.

reunion
2009-06-23, 15:28:35
AFAIK kamen die erst mit dem R6xx.

Nö, die waren definitiv auch schon bei R5xx vorhanden. AI_off war dort freilich noch vorbildlich, was mit R6xx Geschichte war.

Mr. Lolman
2009-06-23, 15:30:21
Nö, die waren definitiv auch schon bei R5xx vorhanden. AI_off war dort freilich noch vorbildlich, was mit R6xx Geschichte war.

Ich wüsste nicht, dass es einen Unterschied zw. R4x0 AIlow und R5x0 AIlow gibt. :|

deekey777
2009-06-23, 15:31:41
Wie lange es wohl noch dauert, bis wir beim Q3-Cheat landen?

Raff
2009-06-23, 15:33:19
Ich wüsste nicht, dass es einen Unterschied zw. R4x0 AIlow und R5x0 AIlow gibt. :|

Hmm. Da waberte mal die Vermutung im Raum, dass mit dem R520 die LOD-Berechnung genauer und das B(r)i-Banding dadurch auffälliger wurde. Unabhängig von "Area"-AF.

MfG,
Raff

reunion
2009-06-23, 15:35:01
Ich wüsste nicht, dass es einen Unterschied zw. R4x0 AIlow und R5x0 AIlow gibt. :|

Da gab es definitiv Unterschiede zuungunsten von R5xx. Ich habe das damals längere Zeit verglichen. R5xx flimmerte wo R4xx noch tadellose Qualität bot.

Hmm. Da waberte mal die Vermutung im Raum, dass mit dem R520 die LOD-Berechnung genauer und das B(r)i-Banding dadurch auffälliger wurde. Unabhängig von "Area"-AF.

MfG,
Raff

Das wurde zumindest spekuliert ja. Für mich sah das aber klar nach klassischer Sample-Optimierung aus die bei R4xx so noch nicht vorhanden war.

kruemelmonster
2009-06-23, 15:49:28
Genug Geschichtsstunde oder wollen wir AMDs aktuelle Verfehlungen weiter mit kaltem Kaffee relativieren?

aths
2009-06-23, 18:00:37
Wie schnell die Leute doch so etwas vergessen. Wie schon mehrmals erwähnt war ein R4xx vorbildhaft und filterte nur bri, sparte aber keine Samples. NVs default-Qualität war lange Zeit unter aller Sau und auch mit HQ gerade so akzeptabel. Ein späterer Treiber brachte dann die Qualität von G70 wieder ca. auf NV4x-Niveau, aber mehr auch nicht. Verglichen wurde trotzdem von vielen bis zuletzt mit default vs. default.Brilineare Filterung ist auch eine Art, Samples zu sparen. Die Bug-HQ-"Qualität" (wahrscheinlich war es Absicht, Nvidia versuchte, damit durchzukommen) war unerträglich, die gefixte HQ-Qualität gerade so akzeptabel vom Flimmern, leider nicht von der Winkelabhängigkeit.

IVN
2009-06-23, 20:44:01
Hybride sind leistungstechnisch ohnehin für die Katz. Gut programmierte Shader wären die weitaus bessere Lösung.

Außerdem kann man das Grieseln ja auch mit Downsampling bekämpfen.
;D

Das ist fast das gleiche wie SSAA.

Ailuros
2009-06-23, 23:05:54
So ein Gschichtl. Die 7800GTX kam Ende Juni. Den 78.03 Beta gabs erst im September.

Man hat nur Zugang zu NV's extranet wenn man unter aktivem NDA steht. Was genau kannst Du hier nicht verstehen? Oder soll ich die gesamte langweilige Geschichte der Focus Gruppe nochmal auftischen?

Gast
2009-06-24, 02:12:58
;D

Das ist fast das gleiche wie SSAA.Nicht fast. Sondern exakt. Ye Olde OGSSAA :uup:
Nur anders erreicht, was etwas andere Problembereiche zufolge hat ("manchmal Unschärfe" vs "manchmal unlesbares HUD").
Die Zeltfilter helfen auch gegen nichtgeometriebasiertes Aliasing, machen aber auch das GeometrieAA besser. Gibts auf NVs nicht (mehr, RIP Quincunx und 4x9tap :usad:).

Ailuros
2009-06-24, 12:38:57
Nicht fast. Sondern exakt. Ye Olde OGSSAA :uup:
Nur anders erreicht, was etwas andere Problembereiche zufolge hat ("manchmal Unschärfe" vs "manchmal unlesbares HUD").
Die Zeltfilter helfen auch gegen nichtgeometriebasiertes Aliasing, machen aber auch das GeometrieAA besser. Gibts auf NVs nicht (mehr, RIP Quincunx und 4x9tap :usad:).

Also mir persoenlich stehen Voll-bild Blur-filter ueberhaupt nicht. Die edge detect CFAA modi auf Radeons sind da um Welten besser nur leider kosten sie auch ziemlich viel was die Leistung betrifft.

Die IHVs koennten kinderleicht ihre Algorithmen so anpassen dass jeglicher custom filter weder HUD noch irgendwelchen Text auf einem Frame beruehrt:

http://v3.espacenet.com/publicationDetails/biblio?DB=EPODOC&adjacent=true&locale=en_EP&FT=D&date=20080709&CC=EP&NR=1941447A1&KC=A1

Gast
2009-06-24, 12:54:21
http://v3.espacenet.com/publicationDetails/biblio?DB=EPODOC&adjacent=true&locale=en_EP&FT=D&date=20080709&CC=EP&NR=1941447A1&KC=A1
Spitzfindigkeiten, viele ATI-User (sieht man auch hier im Thread, keine Ahnung warum das nicht in die Köpfe einiger Freaks will) wollen automatisch gewählte Einstellungen, wenn Leistung übrig ist kann man die Bildqualität mit 8xAA oder gar 24xEDAA mehr als genug erhöhen und bei 8xAA gibt es auch die Blur-Probleme nicht. Nvidia-Fanatiker würden aber sicherlich Tage damit zubringen, Custom-Filter auszuprobieren, ATI-User spielen lieber und schauen auf das Spielgeschehen, nicht auf technischen Schnickschnack und ob irgendwo mal was anderes als die Shader flimmern.

Die Auswahl an Qualitätseinstellungen geht sogar bei ATI jetzt schon fast zu weit und macht alles nur kompliziert, Nvidia-User kommen ohne nHancer ja nicht einmal mehr zurecht und du willst Custom Filter? Leute, spielt mit den Spielen, nicht mit der Grafikkarte! ;D

IVN
2009-06-24, 12:54:54
Nicht fast. Sondern exakt. Ye Olde OGSSAA :uup:
Nur anders erreicht, was etwas andere Problembereiche zufolge hat ("manchmal Unschärfe" vs "manchmal unlesbares HUD").
Die Zeltfilter helfen auch gegen nichtgeometriebasiertes Aliasing, machen aber auch das GeometrieAA besser. Gibts auf NVs nicht (mehr, RIP Quincunx und 4x9tap :usad:).

Der Punkt war, das man Downsampling NICHT im glechen Atemzug erwähnen soll, in dem man schon über die schlechte Performance der Hybridmodi gelässtert hat. ;)

Grestorn
2009-06-24, 13:40:03
Spitzfindigkeiten, viele ATI-User (sieht man auch hier im Thread, keine Ahnung warum das nicht in die Köpfe einiger Freaks will) wollen automatisch gewählte Einstellungen, wenn Leistung übrig ist kann man die Bildqualität mit 8xAA oder gar 24xEDAA mehr als genug erhöhen und bei 8xAA gibt es auch die Blur-Probleme nicht. Nvidia-Fanatiker würden aber sicherlich Tage damit zubringen, Custom-Filter auszuprobieren, ATI-User spielen lieber und schauen auf das Spielgeschehen, nicht auf technischen Schnickschnack und ob irgendwo mal was anderes als die Shader flimmern.

Die Auswahl an Qualitätseinstellungen geht sogar bei ATI jetzt schon fast zu weit und macht alles nur kompliziert, Nvidia-User kommen ohne nHancer ja nicht einmal mehr zurecht und du willst Custom Filter? Leute, spielt mit den Spielen, nicht mit der Grafikkarte! ;D

Gerade das Gegenteil ist der Fall. Bei ATI muss ich jedesmal vor dem Spielstart die Einstellungen neu vornehmen, wenn ich das Optimum erreichen will. Beim einen Spiel funktioniert AA nicht oder bremst zu sehr, beim anderen muss EDAA zuschalten beim anderen nicht usw.

Und das bei jedem Spielstart!

Bei nVidia kann ich theoretisch alleine mit der Option "AA-Einstellungen des Spiels aufwerten" schon viel erreichen: Die Spiele, die AA von Haus aus können, bekommen dann den besseren Modus den ich im Treiber eingestellt habe. Alle anderen werden vom nicht funktionierenden Treiber AA auch nicht behindert.

Und wenn ich für ein Spiel eigene Einstellungen brauche, um das Optimum herauszuholen (also z.B. 16xAF / 16xAA), dann muss ich das eben nur EINMAL einstellen und das wird dann für dieses Spiel immer automatisch verwendet, nicht aber für andere Spiele.

Dazu brauche ich noch nicht mal nHancer, das geht auch im Panel, wenn auch nicht so bequem.

Bei Deinem Posting merkt man nur, dass Du Dich noch nie ernsthaft mit den Möglichkeiten des nVidia Treibers auseinandergesetzt hast.

Gast
2009-06-24, 13:54:44
Gerade das Gegenteil ist der Fall. Bei ATI muss ich jedesmal vor dem Spielstart die Einstellungen neu vornehmen, wenn ich das Optimum erreichen will. Beim einen Spiel funktioniert AA nicht oder bremst zu sehr, beim anderen muss EDAA zuschalten beim anderen nicht usw.

Und das bei jedem Spielstart!


Mit den ATT kann man ohne Probleme für jedes Spiel eigene Profile definieren. :|

Schlammsau
2009-06-24, 13:58:25
Gerade das Gegenteil ist der Fall. Bei ATI muss ich jedesmal vor dem Spielstart die Einstellungen neu vornehmen, wenn ich das Optimum erreichen will. Beim einen Spiel funktioniert AA nicht oder bremst zu sehr, beim anderen muss EDAA zuschalten beim anderen nicht usw.

Und das bei jedem Spielstart!

Bei nVidia kann ich theoretisch alleine mit der Option "AA-Einstellungen des Spiels aufwerten" schon viel erreichen: Die Spiele, die AA von Haus aus können, bekommen dann den besseren Modus den ich im Treiber eingestellt habe. Alle anderen werden vom nicht funktionierenden Treiber AA auch nicht behindert.

Und wenn ich für ein Spiel eigene Einstellungen brauche, um das Optimum herauszuholen (also z.B. 16xAF / 16xAA), dann muss ich das eben nur EINMAL einstellen und das wird dann für dieses Spiel immer automatisch verwendet, nicht aber für andere Spiele.

Dazu brauche ich noch nicht mal nHancer, das geht auch im Panel, wenn auch nicht so bequem.

Bei Deinem Posting merkt man nur, dass Du Dich noch nie ernsthaft mit den Möglichkeiten des nVidia Treibers auseinandergesetzt hast.

Da muss ich dir Widersprechen.

Genau das alles geht bei ATi auch. Und zwar mit mit dem Profil Manager im CCC oder noch kompfortabler in den ATT.

Wie kommst du darauf, dass das nicht gehen sollte?

"Bei Deinem Posting merkt man nur, dass Du Dich noch nie ernsthaft mit den Möglichkeiten des ATi Treibers auseinandergesetzt hast."

Ailuros
2009-06-24, 14:02:08
Spitzfindigkeiten, viele ATI-User (sieht man auch hier im Thread, keine Ahnung warum das nicht in die Köpfe einiger Freaks will) wollen automatisch gewählte Einstellungen, wenn Leistung übrig ist kann man die Bildqualität mit 8xAA oder gar 24xEDAA mehr als genug erhöhen und bei 8xAA gibt es auch die Blur-Probleme nicht. Nvidia-Fanatiker würden aber sicherlich Tage damit zubringen, Custom-Filter auszuprobieren, ATI-User spielen lieber und schauen auf das Spielgeschehen, nicht auf technischen Schnickschnack und ob irgendwo mal was anderes als die Shader flimmern.

Das ist die bloedeste Kategorisierung von Verbrauchern die ich je gelesen habe.

Die Auswahl an Qualitätseinstellungen geht sogar bei ATI jetzt schon fast zu weit und macht alles nur kompliziert, Nvidia-User kommen ohne nHancer ja nicht einmal mehr zurecht und du willst Custom Filter? Leute, spielt mit den Spielen, nicht mit der Grafikkarte! ;D

So einen Algorithmus stellt man normalerweise ueberhaupt nicht zur Auswahl, sondern er laeuft so oder so wo immer CFAA (wie auf heutigen Radeons) eingestellt wird. Nur so nebenbei das verlinkte Patent wird in heutigen erhaeltlichen Handys mit advanced GUIs benutzt. Ergo es muss sich nicht nur auf 3D Spiele begrenzen und hoehere Bildqualitaet ist stets ein nettes Plus fuer jeglichen Benutzer.

Als Verbrauer ist es mein unumstrittenes Recht die hoechstmoegliche Qualitaet zu verlangen und da gibt es keinen einzigen Einwand dagegen noch von Dir noch von jemand anders.

LovesuckZ
2009-06-24, 14:09:08
Spitzfindigkeiten, viele ATI-User (sieht man auch hier im Thread, keine Ahnung warum das nicht in die Köpfe einiger Freaks will) wollen automatisch gewählte Einstellungen, wenn Leistung übrig ist kann man die Bildqualität mit 8xAA oder gar 24xEDAA mehr als genug erhöhen und bei 8xAA gibt es auch die Blur-Probleme nicht. Nvidia-Fanatiker würden aber sicherlich Tage damit zubringen, Custom-Filter auszuprobieren, ATI-User spielen lieber und schauen auf das Spielgeschehen, nicht auf technischen Schnickschnack und ob irgendwo mal was anderes als die Shader flimmern.

Komisch, ich wüsste nicht, wieso man sich noch AMD Hardware kaufen sollte, wenn man nichtmal Wert auf AA legen würde. Der einzige Vorteil, den diese Karten haben ist die Leistung mit 8xAA - aber Qualität ist anscheinend garnicht gewollt. :|


Die Auswahl an Qualitätseinstellungen geht sogar bei ATI jetzt schon fast zu weit und macht alles nur kompliziert, Nvidia-User kommen ohne nHancer ja nicht einmal mehr zurecht und du willst Custom Filter? Leute, spielt mit den Spielen, nicht mit der Grafikkarte! ;D

Kauf dir ne Konsole. Da kannst du nichts einstellen und bekommst bei 2/3 der Anbieter sogar AMD Hardware. ;D

Gast
2009-06-24, 14:11:30
Kauf dir ne Konsole. Da kannst du nichts einstellen und bekommst bei 2/3 der Anbieter sogar AMD Hardware. ;D
Muss ich nicht, ATI liefert mir den Komfort einer Spielkonsole auch am PC.

_DrillSarge]I[
2009-06-24, 14:12:30
Der einzige Vorteil, den diese Karten haben ist die Leistung mit 8xAA
alles klar :|. aber sonst gehts noch?
ja, es gibt sparfilter, ja es gibt die damit verbundene ai-problematik. aber das als einzigen vorteil hinzustellen ist frech. :|

Ailuros
2009-06-24, 14:29:40
Der Post des Gasts hat mich keineswegs gestoert; er sollte aber einsehen koennen dass wenn man ihm nichts unterdruecken sollte es genauso auch fuer alle andere gelten sollte. Es wird wohl nicht allzu schwer sein jedermans Bevorzugungen respektieren zu koennen.

Mr. Lolman
2009-06-24, 14:46:04
Der Post des Gasts hat mich keineswegs gestoert

Warum löschst du es dann?

LovesuckZ
2009-06-24, 14:55:21
I[;7377311']alles klar :|. aber sonst gehts noch?
ja, es gibt sparfilter, ja es gibt die damit verbundene ai-problematik. aber das als einzigen vorteil hinzustellen ist frech. :|

Anscheinend ist dir auf die schnelle kein weiterer Pluspunkt eingefallen, als erstmal mit Ablenkungen zu kontern.
Was bieten denn eine AMD Karte gegenüber einer gleichwertigen nVidia Karte als weiteren Vorteil abseits der tollen Leistung mit 8xMSAA? :confused:

Ailuros
2009-06-24, 14:59:24
Warum löschst du es dann?

Weil es erstens nichts mit dem eigentlichem Thema zu tun hat und weil zweitens dynamische Filter bei CFAA keinen Millimeter an Leistung kosten.

Grestorn
2009-06-24, 15:00:35
Mit den ATT kann man ohne Probleme für jedes Spiel eigene Profile definieren. :|

Bei ATI ist es ok, ein Thrid-Party Tool zu nehmen (welches sich im System verankern muss, da der Treiber das nicht von alleine kann), bei nVidia ist es aber natürlich total baba ein Tool zu nehmen, obwohl dieses völlig passiv ist, weil der Treiber diese grundlegende Aufgabe bereits von sich aus beherrscht.

_DrillSarge]I[
2009-06-24, 15:00:38
Anscheinend ist dir auf die schnelle kein weiterer Pluspunkt eingefallen, als erstmal mit Ablenkungen zu kontern.
Was bieten denn eine AMD Karte gegenüber einer gleichwertigen nVidia Karte als weiteren Vorteil abseits der tollen Leistung mit 8xMSAA? :confused:
ein exzellentes preis-/leistungsverhältnis vielleicht?

Grestorn
2009-06-24, 15:02:59
Da muss ich dir Widersprechen.

Genau das alles geht bei ATi auch. Und zwar mit mit dem Profil Manager im CCC oder noch kompfortabler in den ATT.

Mit ATT geht es, aber nur weil der ATT Hooks im System platziert und somit selbst feststellt, wenn ein Spiel gestartet wird. ATT ist damit durchaus als "invasiv" zu bezeichnen (was aber nichts grundsätzlich schlechtes sein muss, nur u.U. Probleme mit Punkbuster & Co. machen kann).

Der ProfilManager im CCC ist passiv, d.h. man muss das Profil manuell aktivieren und kann bestenfalls einen Shortcut erstellen, mit dem erst das Profil und dann das Spiel gestartet wird. Das ist schon sehr umständlich.

"Bei Deinem Posting merkt man nur, dass Du Dich noch nie ernsthaft mit den Möglichkeiten des ATi Treibers auseinandergesetzt hast."

Irrtum.

Raff
2009-06-24, 15:07:05
I[;7377404']ein exzellentes preis-/leistungsverhältnis vielleicht?

Naja. "Leistung" definiert sich nicht nur durch die Anzahl rausgeblasener Fps (auch wenn das immer so dargestellt wird). Leistung ist auch die Fps-Qualität, die Lautstärke und Leistungsaufnahme beim Rendern, Kompatibilität, Optionen im Treiber, et cetera ...

MfG,
Raff

Gast
2009-06-24, 15:08:01
Der ProfilManager im CCC ist passiv, d.h. man muss das Profil manuell aktivieren und kann bestenfalls einen Shortcut erstellen, mit dem erst das Profil und dann das Spiel gestartet wird. Das ist schon sehr umständlich.

Blöd ist halt, dass man ohne Kompatibilitätsbits weiter auf EXE-Renaming angewiesen ist, wenn die AA-Kompatibilität oder Crossfire nicht schon vom Treiber-Release unterstützt werden. Da können auch die ATT nichts ändern und das macht die ganze Profilgeschichte ein wenig halbherzig, eigentlich ist das ein Pseudofeature. Am Ende zählen aber FPS/€ und solche Spielereien wie die Profilverwaltung brauchen 99% der Spieler sowieso nicht, läuft eh alles mit Standardeinstellungen perfekt und mit guter Qualität. :)

Mr.Magic
2009-06-24, 15:08:07
Anscheinend ist dir auf die schnelle kein weiterer Pluspunkt eingefallen, als erstmal mit Ablenkungen zu kontern.
Was bieten denn eine AMD Karte gegenüber einer gleichwertigen nVidia Karte als weiteren Vorteil abseits der tollen Leistung mit 8xMSAA? :confused:

Spar es dir. Ich habe gestern ein paar Vorteile von nVidia-Treibern aufgezählt. Alles was zurückkam war "Braucht man eh alles nicht!".

LovesuckZ
2009-06-24, 15:08:42
Naja. "Leistung" definiert sich nicht nur durch die Anzahl rausgeblasener Fps (auch wenn das immer so dargestellt wird). Leistung ist auch die Fps-Qualität, die Lautstärke und Leistungsaufnahme beim Rendern, Kompatibilität, Optionen im Treiber, et cetera ...

MfG,
Raff

Wollte ich gerade schreiben: Wie definiert man als AMD User Leistung? Anscheinend einzig an der 8xMSAA Leistung - und somit am einzigen Vorteil.

_DrillSarge]I[
2009-06-24, 15:09:22
Naja. "Leistung" definiert sich nicht nur durch die Anzahl rausgeblasener Fps (auch wenn das immer so dargestellt wird). Leistung ist auch die Fps-Qualität, die Lautstärke und Leistungsaufnahme beim Rendern, Kompatibilität, Optionen im Treiber, et cetera ...

MfG,
Raff
ja. ich meine auch "fps-leistung". (€: und nein, nicht nur bei 8xMSAA.) wer mehr als das will muss momentan eben etwas "aufpreis" zahlen und zu nv greifen.
wobei man nun auch bei dem ganzen ai-rotz nicht hysterisch übertreiben sollte ;).

Nazar
2009-06-24, 15:11:51
Letzter Satz aus dem Artikel:



Analogie: Man sollte deshalb Radeons immer im AI-Off-Modus benchen, da die Konkurrenz (zumindest mit HQ) kein solches Flimmern zeigt.

Und hier kommt bei mir wieder eine oft gestellte Frage durch: warum war es legitim, NV zu benachteiligen, indem man ihnen HQ aufgebrummt hat, mit ATI soll man aber heutzutage netter sein und ja nicht AI deaktivieren? Vergleichbare BQ wäre das Ergebnis, nur scheint das nur erwünscht wenn NV dabei n blaues Auge bekommt.

Du weißt aber was Du schreibst?
Beziehst Dich auf den Artikel aus der Vergangenheit, wo alle Test GF vs RD mit default gegen default gebencht wurde obwohl die GF nur unter HQ Einstellungen die BQ einer RD erreicht hatte und nun behautest Du das damals die GF benachteiligt wurden, weil man versuchte gleiche BQ vs gleiche BQ zu benchen?

Den Artikel hast Du aber gelesen?
http://alt.3dcenter.org/artikel/g70_flimmern/index2.php

Ohne ATI würden viele FANBoys das doppelte für ihr GFXkarten hinblättern müssen.
Richtig gut ist aber, dass viele von denen, die sich jetzt hier an der GFX Quali der ATI hochziehen, damals steif und fest behauptet haben, die default BQ der 6/7800 sei gleichwertig mit der der X1/800 gewesen.
Jetzt auf einmal war sie doch schlechter und sowieso ist ATI = BÖSE.

Einige werden gar nicht müde sich die Schenkel auf diesem lahmen Gaul wund zu reiten ohne zu merken das sie ein "Kick mich" Schild auf dem Rücken haben; selber anpepappt :D

LovesuckZ
2009-06-24, 15:17:47
I[;7377431']ja. ich meine auch "fps-leistung". (€: und nein, nicht nur bei 8xMSAA.) wer mehr als das will muss momentan eben etwas "aufpreis" zahlen und zu nv greifen.
wobei man nun auch bei dem ganzen ai-rotz nicht hysterisch übertreiben sollte ;).

Da kommen wir dem Kern näher: AMD User interessieren keine Bildqualität.
Gut so, ist vollkommen in Ordnung. Aber dann sollte man wenigsten die Eier haben und sich zu dem Thema dann auch in Zukunft nicht mehr äußern.

Gast
2009-06-24, 15:23:19
Da kommen wir den Kern näher: AMD User interessiert keine Bildqualität.

Schwachsinn, aber jenseits einer gewissen Mindestqualität musst du sichtbare Verbesserungen mit der Lupe suchen. ATI-User sind sehr wohl Qualitätsbewusst und keineswegs DAUs, die gebräuchlichsten Einstellungen sind schließlich 4x und 8xAA mit 16xAF! Was glaubst denn du, warum alle namhaften Seiten diese Einstellungen benchen, aus Gefälligkeit? Früher waren 8xAA und 16xAF kaum nutzbar, dank ATI ist das mittlerweile auch bei bezahlbaren Karten Standart!

reunion
2009-06-24, 15:27:48
AMD-User in dem Sinn gibt es (bis auf minimalste Ausnahmen) nicht. Man kauft das was zum Kaufzeitpunkt das bessere Produkt zu sein scheint. Aber wer immer NV kauft, egal ob sie gute oder schlechte BQ haben, stromsparende oder unnötig stromfressende Karte verkaufen, schnelle oder langsame Karten liefern, laute oder leise Lüfter verbauen, etc. pp. - der sollte schonmal ganz still sein.

LovesuckZ
2009-06-24, 15:30:23
Schwachsinn, aber jenseits einer gewissen Mindestqualität musst du sichtbare Verbesserungen mit der Lupe suchen. ATI-User sind sehr wohl Qualitätsbewusst und keineswegs DAUs, die gebräuchlichsten Einstellungen sind schließlich 4x und 8xAA mit 16xAF! Was glaubst denn du, warum alle namhaften Seiten diese Einstellungen benchen, aus Gefälligkeit? Früher waren 8xAA und 16xAF kaum nutzbar, dank ATI ist das mittlerweile auch bei bezahlbaren Karten Standart!

Aha, "gewisse Mindestqualität" - und was "mindest" ist, entscheidet AMD? :|
AMD user haben kein Interesse daran. Und wenn es dochmal passiert, geht es nur um die Huldigung ihrer Kaufentscheidung. Wäre nVidia mit 8xAA nicht so dermaßen lahm, hätte sie keinen spielerelevanten Vorteil gegenüber der Konkurrenz. Und wenn man sich dabei überlegt, dass man einer starken Einschränkungen der Einstellungen unterliegt, ist es lustig, dass einzig "FPS-Leistung" als "Leistung" definiert wird. ;D

AMD-User in dem Sinn gibt es (bis auf minimalste Ausnahmen) nicht. Man kauft das was zum Kaufzeitpunkt das bessere Produkt zu sein scheint. Aber wer immer NV kauft, egal ob sie gute oder schlechte BQ haben, stromsparende oder unnötig stromfressende Karte verkaufen, schnelle oder langsame Karten liefern, laute oder leise Lüfter verbauen, etc. pp. - der sollte schonmal ganz still sein.

Du meinst Schlammsau? Der hat AMD.

reunion
2009-06-24, 15:35:44
Es war offensichtlich wer gemeint war, da hilft auch dumm stellen nichts.

Schlammsau
2009-06-24, 15:39:06
Du meinst Schlammsau? Der hat AMD.

Was? Vor 1 1/2 Jahren hatte ich noch eine Geforce verbaut du Schlauberger. :mad:

LovesuckZ
2009-06-24, 15:39:19
Es war offensichtlich wer gemeint war, da hilft auch dumm stellen nichts.

Echt? Schon erstaunlich, wie wenig du weißt, aber trotzdem so groß den Mund aufmachst.
Du weißt schon, dass ich pünktlich zum 6.November 2006 mir eine 8800GTX bestellt habe und somit seitdem nicht mehr von schlechter Bildqualität geplagt wurde? Im Gegensatz zu AMD Usern, die anscheinend ein Bedürfniss hatten, die Filterung der NV4x/G7x Karten zu kritisieren und heute mit rv6xx/rv7xx Karten rumlaufen, wo ihnen die Filterung plötzlich egal wäre und Bildqualität sowieso "subjektiv" sei.

Mr. Lolman
2009-06-24, 15:43:31
Mit ATT geht es, aber nur weil der ATT Hooks im System platziert und somit selbst feststellt, wenn ein Spiel gestartet wird. ATT ist damit durchaus als "invasiv" zu bezeichnen (was aber nichts grundsätzlich schlechtes sein muss, nur u.U. Probleme mit Punkbuster & Co. machen kann).

Man kann sich mit den ATT auch ganz simpel neue Shortcuts erstellen, die zuerst das gewünschte ATT Profil laden, und dann die Spiele-exe. Das funzt dann ganz ohne Hooks.

Schlammsau
2009-06-24, 15:51:43
Mit ATT geht es, aber nur weil der ATT Hooks im System platziert und somit selbst feststellt, wenn ein Spiel gestartet wird. ATT ist damit durchaus als "invasiv" zu bezeichnen (was aber nichts grundsätzlich schlechtes sein muss, nur u.U. Probleme mit Punkbuster & Co. machen kann).
Ich spiele auch schon lange Online damit und hatte noch nie Probleme.
Weder bei CoD4 noch in CSS und schon gar nicht in Crysis Wars.
Wie kommst du darauf?


Der ProfilManager im CCC ist passiv, d.h. man muss das Profil manuell aktivieren und kann bestenfalls einen Shortcut erstellen, mit dem erst das Profil und dann das Spiel gestartet wird. Das ist schon sehr umständlich.
Aber es geht.
Probieren mit welchen Settings ein Spiel gut läuft und es dann im Treiber einstellen, muss man auch bei nVidia. Ob es jetzt bei ATi 1 oder 2 Klicks mehr sind, spielt doch nun wirklich keine Rolle!

Irrtum.
Mir deucht wohl doch. Deine Kernaussage war, dass es bei ATi nicht möglich ist. Aber es ist möglich!

kruemelmonster
2009-06-24, 16:02:10
Du weißt aber was Du schreibst?
Beziehst Dich auf den Artikel aus der Vergangenheit, wo alle Test GF vs RD mit default gegen default gebencht wurde obwohl die GF nur unter HQ Einstellungen die BQ einer RD erreicht hatte und nun behautest Du das damals die GF benachteiligt wurden, weil man versuchte gleiche BQ vs gleiche BQ zu benchen?

Ja, ich weiß was ich schreibe, danke der Nachfrage. "Benachteiligen" war eine ungünstige Wortwahl, gleichstellen gefällt mir mittlerweile besser.

Damals war default vs default nicht vergleichbar in Sachen BQ, NV hatte mit Q Sparfilter im Einsatz. Um wieder vergleichbare (auf möglichst gleicher BQ aufbauende) Benchmarks zu haben, wurde HQ vs AI low getestet.

Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.
NV Mehrarbeit aufzubrummen um eine mit ATI vergleichbare BQ zu erreichen war komplett legitim.

Zeitsprung ins Jahr 2009:

default vs default ist nicht vergleichbar in Sachen BQ, ATI hat mit AI Standard Sparfilter im Einsatz. ATI Mehrarbeit durch AI Off aufzubrummen um eine mit NV vergleichbare BQ zu erreichen wird nicht als legitim empfunden.

Warum?
Was ist an ATI so unglaublich toll, fps/€ mal beiseite, das BQ nebensächlich wird? Gibt's ne Flöte spielende Gratis-RealLife-Ruby in jedem Karton?


Richtig gut ist aber, dass viele von denen, die sich jetzt hier an der GFX Quali der ATI hochziehen, damals steif und fest behauptet haben, die default BQ der 6/7800 sei gleichwertig mit der der X1/800 gewesen.
Jetzt auf einmal war sie doch schlechter und sowieso ist ATI = BÖSE.

Wenn du jemand direkt ansprechen möchtest, dann tue dies. Ich fühle mich nicht angesprochen, mein NV40 musste wegen der mangelhaften BQ nem R420 den Slot räumen.

Konsequenz FTW. BQ FTW.

Sonst brauch ich keine neue Graka sondern zock in 800x600 LQ. Das die ATI'ler alles Gutes bei NV mit "braucht man eh nicht" abwiegeln, sagt doch alles. Lieber tot als grün oder welche Einstellung steckt hinter dem Festhalten an den Radeons, obwohl sie nachweislich weniger BQ auf den Schirm zaubern? 8xAA? Kann's nicht sein, BQ scheint ja nicht wichtig zu sein. Bleibt also einzig der Preis als 'rotes' Argument.

Mr.Magic
2009-06-24, 16:04:03
{BLAHBLUBB}die default BQ der 6/7800 sei gleichwertig mit der der X1/800 gewesen.
Jetzt auf einmal war sie doch schlechter und sowieso ist ATI = BÖSE.

Vielleicht sollte man sich mal ansehen wieso nVidia überhaupt das Flimmer-AF bei der NV40 (was anderes ist der G70 technologisch nicht) eingeführt hat. ATI ist sicher nicht böse, oder zumindest nicht böser als andere Konzerne, aber sie haben exzellentes virales Marketing.

Zu TNT/Rage/Voodo-Zeiten gab sich die BQ nicht viel.
Bei den ersten Radeons war die Bildqualität im direkten Vergleich ätzend, da sich seit der Rage nicht viel getan hatte. Die GeForce dagegen hatte ab ungefähr der GF3 durchaus brauch-/verwendbares AA(Hybridmodi)&AF* - war ja auch noch als 3dfx-Gegner konzipiert
*Wobei Gothic z.B. mit maximalem AA (afair 2x2SS) und höherer Auflösung auf der GF2 schneller als auf der Voodo 5500 mit 2xFSAA lief (und besser aussah).
Die R9 hatte mieses 16xAF (aber dafür tolles, rotiertes MSAA). Damals wurde in Artikeln gerne vermerkt, dass NV's (WAS NUR 8x)AF der GF5 langsamer ist. Über die Qualität der Texturfilter verlor niemand ein Wort, hat ja niemanden interessiert.
Als dann die GF6 ATI's bisheriges Schluder-AF kopierte, gab es plötzlich eine Radeon mit ordentlichem AF, und um die miese BQ der GF wurde dann ein großes Tamtam veranstaltet.
Seit der G80 gibt es wieder gutes AF bei NV, bei der Radeon aber nicht mehr. Nun kommt das große ABER. Jetzt interessiert sich niemand mehr für die Bildqualität. Abgesehen von der handvoll Leute, die seit der Rx mehr Schalter für A.I. fordern. Wobei ich aus der Ecke nur noch wenig vernehme, möglicherweise haben die alle aus Frust eine GF gekauft.

Lange Rede, kurzer Sinn. Entweder überall BQ (und Optionen) einfordern [bin ich dafür], oder immer die Schnauze halten, aber nicht das Fähnchen nach dem Wind richten, bitte. Danke.

Um mal zum Grundthema zurückzukommen. Man müsste Vergleiche andersrum aufziehen.
Die FPS möglichst fixieren, indem man die Optionen soweit hochschraubt, bis die Karten etwa die gleiche Rendergeschwindigkeit erreichen, und dann anhand von Bildern & Videos zeigen welche Bildqualität man dafür bekommt.
So wären potentielle Käufer qualitätsbewusster, und die IHVs hätten einen Grund da nicht zu schludern.

LovesuckZ
2009-06-24, 16:12:14
Vielleicht sollte man sich mal ansehen wieso nVidia überhaupt das Flimmer-AF bei der NV40 (was anderes ist der G70 technologisch nicht) eingeführt hat. ATI ist sicher nicht böse, oder zumindest nicht böser als andere Konzerne, aber sie haben exzellentes virales Marketing.

Der NV40 hat einen HQ Schalter, der jedenfalls die generelle Filterung wieder auf das Niveau der GF3/4 setzte. Erst der G70 hatte wesentlichere Optimierungen, die zu diesem krassen Flimmern neigte.


Als dann die GF6 ATI's bisheriges Schluder-AF kopierte, gab es plötzlich eine Radeon mit ordentlichem AF, und um die miese BQ der GF wurde dann ein großes Tamtam veranstaltet.


Nicht ganz. Der r420 bot eine noch schlechtere Filterqualität als der r300. Da gab es ja diesen Skandal im Jahr 2004 als herauskam, dass AMD ihren Filter optimierte, aber die Journalisten gezielt über diese Tatsache belogen hat.

Ailuros
2009-06-24, 16:16:37
1. IMHLO hat NV versucht zwischen NV40 und G7x die AF Optimierungen die ATI bis zum Zeitpunkt hatte einfach nachzumachen. Jegliche Unterschiede koennten daran liegen dass beide GPU Familien zu dem Zeitpunkt eben nicht auf 1:1 gleich filtern und daher koennte es durchaus sein dass die optimierte AF Qualitaet auf GFs mieser war im Vergleich zu ATI's. Ein Punkt zum gruebeln waere dass das "brilinear" seit G80 einen gesunden Schritt besser ist als bei NV4x/G7x.

2. Haengen mir zwar solche Debatten wie diese eigentlich zum Hals raus weil man den Schlammschlachten diverser Fanboys nicht entgehen kann, ich werde sie aber weiterhin insgesamt als positiv ansehen weil sich nur etwas in diesem Bereich aendert wenn man meckert und dieses gilt fuer alle IHVs. Kein IHV sollte Ruhe bekommen wenn etwas stoert und solange ein jeglicher IHV dem empfindlicheren Verbraucher die Wahl laesst zwischen leicht besserer Leistung mit Bildqualitaetskosten gegen leicht schlechterer Leistung mit besserer Bildqualitaet hab ich nicht das geringste einzuwenden.

Cliff notes: ATI entgeht mir NICHT jeglicher Kritik so lange sie nicht erlauben dass wenn nicht alle zumindest die meisten AF Optimierungen abgeschaltet werden und dieses bitteschoen ohne dass andere kritische (nicht AF relevante) Leistungs-Optimierungen nicht gleichzeitig abgeschaltet werden.

Mr.Magic
2009-06-24, 16:23:26
Der NV40 hat einen HQ Schalter, der jedenfalls die generelle Filterung wieder auf das Niveau der GF3/4 setzte.

Es ging um NV30 und NV40 (bzw. R300, das ist in etwa das gleiche Filterniveau). Der NV30 bietet gutes AF bis 8x. Wobei das 4xAF der GF5 besser aussah als das 16xAF der GF6.

Nicht ganz. Der r420 bot eine noch schlechtere Filterqualität wie der r300. Da gab es ja diesen Skandal im Jahr 2004 als herauskam, dass AMD ihren Filter optimierte, aber die Journalisten gezielt über diese Tatsache belogen hat.

Stimmt, irgendwas war bei der R420. Hat scheinbar keine großen Wellen geworfen, sonst könnte ich mich daran richtig erinnern.

LovesuckZ
2009-06-24, 16:26:14
Es ging um NV30 und NV40 (bzw. R300, das ist in etwa das gleiche Filterniveau). Der NV30 bietet gutes AF bis 8x. Wobei das 4xAF der GF5 besser aussah als das 16xAF der GF6.

nVidia fing ab dem NV30 an, die Qualität herunterzuschrauben. Beim ersten Streich reduzierten sie die Qualität so dermaßen, dass man z.B in Halo eine braune Masse vorsich hergezogen hat. War wirklich sehr spaßig...
Beim NV40 gab es dann schon von anfang den HQ Schalter - dass das AF aufgrund der Winkelabhängigkeit nicht an das der GF3/4/5 Serie heranreichte, ist klar. Die generelle Filterung war aber fast identisch.

Mr.Magic
2009-06-24, 16:32:35
Den HQ-Schalter gab es schon bei der GF3 (zumindest konnte man per aTuner bestimmte Sachen umstellen), wenn nicht müsste ich mich schon sehr täuschen. Die Qualitätsgrütze gab es AFAIR nur relativ kurze Zeit, da wir alle laut dagegen protestiert haben.

Gast
2009-06-24, 16:32:37
Um mal zum Grundthema zurückzukommen. Man müsste Vergleiche andersrum aufziehen.
Die FPS möglichst fixieren, indem man die Optionen soweit hochschraubt, bis die Karten etwa die gleiche Rendergeschwindigkeit erreichen, und dann anhand von Bildern & Videos zeigen welche Bildqualität man dafür bekommt.
So wären potentielle Käufer qualitätsbewusster, und die IHVs hätten einen Grund da nicht zu schludern.Das halte ich für eine gute Idee. Man ignoriert einfach jegliche FPS-Counter und achtet nur darauf, dass die FPS zu keiner Zeit unter 30 sinken. Die dann mit den zu testenden Karten zu erreichende Bildqualität wird nach vorher festgelegten Kriterien bewertet.

Zusätzlich könnte man das gleiche nochmal mit FPS oberhalb des Vsync-Limits von heute meist 60 FPS testen. Für Multi-GPU-Setups müsste man sich zum Bewerten der Mikroruckler-Geschichte noch etwas überlegen.

Sicherlich nicht perfekt die Methode, aber deutlich aussagekräftiger als Vergleiche von reinen FPS-Werten, die oft sowieso oberhalb der durch das Ausgabegerät überhaupt dargestellten Frames pro Sekunde liegen. Mich nicht, ob ein Produkt jetzt 70 oder 85 FPS bringt. Viel mehr will ich wissen, welche Einstellungen ich fahren kann, ohne dass es ruckelt.

deekey777
2009-06-24, 16:37:14
1. IMHLO hat NV versucht zwischen NV40 und G7x die AF Optimierungen die ATI bis zum Zeitpunkt hatte einfach nachzumachen. Jegliche Unterschiede koennten daran liegen dass beide GPU Familien zu dem Zeitpunkt eben nicht auf 1:1 gleich filtern und daher koennte es durchaus sein dass die optimierte AF Qualitaet auf GFs mieser war im Vergleich zu ATI's. Ein Punkt zum gruebeln waere dass das "brilinear" seit G80 einen gesunden Schritt besser ist als bei NV4x/G7x.

2. Haengen mir zwar solche Debatten wie diese eigentlich zum Hals raus weil man den Schlammschlachten diverser Fanboys nicht entgehen kann, ich werde sie aber weiterhin insgesamt als positiv ansehen weil sich nur etwas in diesem Bereich aendert wenn man meckert und dieses gilt fuer alle IHVs. Kein IHV sollte Ruhe bekommen wenn etwas stoert und solange ein jeglicher IHV dem empfindlicheren Verbraucher die Wahl laesst zwischen leicht besserer Leistung mit Bildqualitaetskosten gegen leicht schlechterer Leistung mit besserer Bildqualitaet hab ich nicht das geringste einzuwenden.

Cliff notes: ATI entgeht mir NICHT jeglicher Kritik so lange sie nicht erlauben dass wenn nicht alle zumindest die meisten AF Optimierungen abgeschaltet werden und dieses bitteschoen ohne dass andere kritische (nicht AF relevante) Leistungs-Optimierungen nicht gleichzeitig abgeschaltet werden.Mein Problem ist, dass hier einige Äußerungen andeuten, dass die Besitzer einer Radeon die dümmsten Nüße der Welt sind, weil sie sich eben eine Radeon gekauft haben.
Ja, die "Optimierungen" sind Mist, aber sie sind nicht so tragisch, wie es hier getan wird, da es eben auf das Spiel ankommt. In HL2 etc sind sie die Pest, in STALKER CS habe ich mich von diesen nie gestört gefühlt (in SoC läuft dagegen was ganz Krankes ab, was ich mit der seligen X1950GT feststellen konnte und mit der HD3850 weiterhin sah). GoW flimmert von sich aus (insbesondere auf High/Very High), in Crysis (Shader auf Very High) wird eh nicht gefiltert, was im CCC eingestellt wird.

Dass die Radeons seit HD2400/2600 überlegene Videobeschleunigung haben (die so gern heruntergespielte VC-1-Beschleunigung erwies sich als Unsinn, denn VC-1 wird deutlich öfter eingesetzt, als man glaubt, und dazu noch bei absoluten Blockbustern wie Batman-Filmen), wird hier vergessen. Auch sind die Radeons in HQV-Vergleichen weit vorn, man hat vollen Zugriff auf die De-Interlacing-Modi, Pull-Down-Erkennung, usw. Auch ist das CCC deutlich unkomplizierter als Nvidias CP. Über das CCC hat man seit Jahren die Möglichkeit der Übertaktung, seit Monaten die Möglichkeit der Lüftersteurung.
Noch bequemer geht's nicht. Profile lassen sich mit wenigen Klicks erstellen, auf Wunsch wird auch das Spiel gestartet, wenn man das entsprechende Profil aktiviert.

Trotzden sind die Radeon-Besitzer dumme Nüße...

Klingone mit Klampfe
2009-06-24, 16:39:27
Sicherlich nicht perfekt die Methode, aber deutlich aussagekräftiger als Vergleiche von reinen FPS-Werten, die oft sowieso oberhalb der durch das Ausgabegerät überhaupt dargestellten Frames pro Sekunde liegen. Mich nicht, ob ein Produkt jetzt 70 oder 85 FPS bringt. Viel mehr will ich wissen, welche Einstellungen ich fahren kann, ohne dass es ruckelt.

Das halte ich auch für den richtigen Ansatz. Früher gab es in der "PC Games" ja auch nur ein Ampelsystem mit rot, gelb oder grün. Die tatsächliche FPS-Zahl interessierte keine Sau, das kam erst um die Jahrtausendwende herum in Mode.

kruemelmonster
2009-06-24, 16:40:43
Lange Rede, kurzer Sinn. Entweder überall BQ (und Optionen) einfordern [bin ich dafür], oder immer die Schnauze halten, aber nicht das Fähnchen nach dem Wind richten, bitte. Danke.


Word!


Um mal zum Grundthema zurückzukommen. Man müsste Vergleiche andersrum aufziehen.
Die FPS möglichst fixieren, indem man die Optionen soweit hochschraubt, bis die Karten etwa die gleiche Rendergeschwindigkeit erreichen, und dann anhand von Bildern & Videos zeigen welche Bildqualität man dafür bekommt.
So wären potentielle Käufer qualitätsbewusster, und die IHVs hätten einen Grund da nicht zu schludern.

Dieser (gute) Ansatz: http://www.hardocp.com/article.html?art=MTY0MSw0LCxoZW50aHVzaWFzdA== ist nix neues.

Er müsste nur von mehr als einer Seite praktiziert werden.

LovesuckZ
2009-06-24, 16:40:48
Schön, was haben 2D Features nun mit der ansiotropen Filterung zu tun? Und, wer kauft sich eine 200€ teure Karte, um damit mehr Filme zu schauen als zu spielen?
Nichts. Statt also einfach irgendwie noch beim Thema zu bleiben, wird auf andere Kriegsschauplätze gewechselt. Wobei VC-1 nur für diejenigen von interesse ist, die sich über den PC auch HD Medien anschauen. Und ich glaube, dass aufgrund von Kompartibilitätsproblemen viele eher auf einen Player umgestiegen sind. Jedenfalls finde ich meine PS3 angenehmer für Blu-Rays als mein Laufwerk von Lg mit der PowerDVD OEM version...

Mr.Magic
2009-06-24, 16:47:08
Dass die Radeons seit HD2400/2600 überlegene Videobeschleunigung haben (die so gern heruntergespielte VC-1-Beschleunigung erwies sich als Unsinn, denn VC-1 wird deutlich öfter eingesetzt, als man glaubt, und dazu noch bei absoluten Blockbustern wie Batman-Filmen), wird hier vergessen. Auch sind die Radeons in HQV-Vergleichen weit vorn, man hat vollen Zugriff auf die De-Interlacing-Modi, Pull-Down-Erkennung, usw. Auch ist das CCC deutlich unkomplizierter als Nvidias CP. Über das CCC hat man seit Jahren die Möglichkeit der Übertaktung, seit Monaten die Möglichkeit der Lüftersteurung.

Da verwende ich jetzt einfach mal einen Spielzug aus dem ATI-Regelbuch. Das braucht doch alles keine Sau!
Nicht ernst gemeint, irgend jemand findet sich immer, der bestimmte Sachen benötigt. Laptop/HTPC ohne DXVA kann z.B. grausam sein, und/oder man hat weniger Leistung für Filter übrig.
Warum NV die direkte Übertaktungsmöglichkeiten aus den Treibern entfernte, und allen ein schwules Zusatzprogramm dafür aufzwingen wollte, wissen sie wahrscheinlich selbst nicht so genau.

reunion
2009-06-24, 16:58:09
Echt? Schon erstaunlich, wie wenig du weißt, aber trotzdem so groß den Mund aufmachst.
Du weißt schon, dass ich pünktlich zum 6.November 2006 mir eine 8800GTX bestellt habe und somit seitdem nicht mehr von schlechter Bildqualität geplagt wurde? Im Gegensatz zu AMD Usern, die anscheinend ein Bedürfniss hatten, die Filterung der NV4x/G7x Karten zu kritisieren und heute mit rv6xx/rv7xx Karten rumlaufen, wo ihnen die Filterung plötzlich egal wäre und Bildqualität sowieso "subjektiv" sei.

Du weichst aus, aber das ist nichts neues. Du hattest auch einen NV3X, einen NV4X, einen G7X und einen G8X. Völlig egal wie gut oder schlecht NV in was auch immer war, für dich war nur eines wichtig: Das NV drauf steht. Du hast aber schon sowas von keine Legitimation hier irgend welche anderen User für deren Kaufentscheidung zu kritisieren. Heutige AMD-User haben ganz einfach andere Prioritäten oder haben zu einem Zeitpunkt gekauft wo die AMD-Karten noch deutlich billiger waren oder was auch immer. Aber die wenigstens haben so wie du einfach nur nach dem Hersteller gekauft.

LovesuckZ
2009-06-24, 17:09:24
Du weichst aus, aber das ist nichts neues. Du hattest auch einen NV3X, einen NV4X, einen G7X und einen G8X. Völlig egal wie gut oder schlecht NV in was auch immer war, für dich war nur eines wichtig: Das NV drauf steht. Du hast aber schon sowas von keine Legitimation hier irgend welche anderen User für deren Kaufentscheidung zu kritisieren.

Lustig, ich hatte auch eine 9500 und eine X1800XTPE. Vielmehr Karten konnte man sich als Schüler auch nicht leisten. :|
Und ich hätte keine Legitimation? So, wir wollen also user anhand ihrer Kaufentscheidung von vor 5,6,7 Jahren in Misskredit bringen. Nene, du. Sowas ist lächerlich. Aber vielleicht ist das auch nur das typische AMD Fanboy getue, um seine Lieblingsfirma zu schützen.

reunion
2009-06-24, 17:17:29
Lustig, ich hatte auch eine 9500 und eine X1800XTPE. Vielmehr Karten konnte man sich als Schüler auch nicht leisten. :|
Und ich hätte keine Legitimation? So, wir wollen also user anhand ihrer Kaufentscheidung von vor 5,6,7 Jahren in Misskredit bringen. Nene, du. Sowas ist lächerlich. Aber vielleicht ist das auch nur das typische AMD Fanboy getue, um seine Lieblingsfirma zu schützen.

Ich warte ja nur drauf das nV (hoffentlich nicht) die Filterung wieder herunter schraubt und du deinen Aussagen zum wiederholten male widersprechen musst um deine Kaufentscheidung für - oh Wunder - eine NV-Karte rechtfertigen zu können. Da helfen auch keine plumpen Fanboyanschuldigungen oder sonst was, deine Glaubwürdigkeit war nie vorhanden. Andere rechtfertigen vielleicht ihre aus heutiger Sicht falsche Kaufentscheidung, du rechtfertigst nur das was NV macht. Aber mach nur weiter so, ist eh nichts neues mehr. Auf eine Antwort von dir gehe ich nicht mehr ein, das führt nur zu endlosem Hick-Hack.

deekey777
2009-06-24, 17:20:08
Schön, was haben 2D Features nun mit der ansiotropen Filterung zu tun? Und, wer kauft sich eine 200€ teure Karte, um damit mehr Filme zu schauen als zu spielen?
Nichts. Statt also einfach irgendwie noch beim Thema zu bleiben, wird auf andere Kriegsschauplätze gewechselt. Wobei VC-1 nur für diejenigen von interesse ist, die sich über den PC auch HD Medien anschauen. Und ich glaube, dass aufgrund von Kompartibilitätsproblemen viele eher auf einen Player umgestiegen sind. Jedenfalls finde ich meine PS3 angenehmer für Blu-Rays als mein Laufwerk von Lg mit der PowerDVD OEM version...
Jeder, der eine Grafikakrte für 200 Euro kauft und diese eine Radeon ist, hat diese Optionen, die eine Geforce für das gleiche Geld nicht hat. Auch nicht für 300 oder 400 oder 1800.
Es ist kein anderer "Kriegsschauplatz", auf den ich ausweiche, sondern Tatsache.

y33H@
2009-06-24, 17:25:07
Die Tatsache ist aber eine Tatsache, die für den "Kriegsschauplatz" Leistung (BQ, Fps usw.) nicht von Relevanz ist.

deekey777
2009-06-24, 17:28:25
Die Tatsache ist aber eine Tatsache, die für den "Kriegsschauplatz" Leistung (BQ, Fps usw.) nicht von Relevanz ist.
Ach ja? Na gib mir doch einen Grund dafür, warum man diese Optionen wegblenden muss. Ich mach den Anfang: "Der Radeon-Usern ist die Bildqualität egal. ..." Und du setzt das fort.

LovesuckZ
2009-06-24, 17:29:42
Ich warte ja nur drauf das nV (hoffentlich nicht) die Filterung wieder herunter schraubt und du deinen Aussagen zum wiederholten male widersprechen musst um deine Kaufentscheidung für - oh Wunder - eine NV-Karte rechtfertigen zu können. Da helfen auch keine plumpen Fanboyanschuldigungen oder sonst was, deine Glaubwürdigkeit war nie vorhanden. Andere rechtfertigen vielleicht ihre aus heutiger Sicht falsche Kaufentscheidung, du rechtfertigst nur das was NV macht. Aber mach nur weiter so, ist eh nichts neues mehr. Auf eine Antwort von dir gehe ich auch nicht mehr ein, da führt nur zu endlosem Hick-Hack.

Erstaunlich, das du nicht verstehst, dass deine persönlichen Anfeindungen zeigen, dass DU keine Gegenargumente hast. Persönliche Anfeindungen sind immer die Bestätigung, dass der andere recht hat.
Aber als Tipp: Vielleicht bist du nicht in der Lage dich in einem Zeitraum von 4-6 Jahren auch geistig weiter zuentwickeln. Aber nehme nicht an, dass Menschen in anderen Kulturen ebenfalls so leben.
Vielleicht ist dein Problem auch einfach, dass du im jahr 2003-2005 stehen geblieben bist und jetzt mit einen Menschen redest, der sich weiter entwickelt hat. Daher finde ich es in Ordnung, denn ich habe auch keine Lust mit jemanden zureden, der 4-6 jahre noch aufholen sollte.

Jeder, der eine Grafikakrte für 200 Euro kauft und diese eine Radeon ist, hat diese Optionen, die eine Geforce für das gleiche Geld nicht hat. Auch nicht für 300 oder 400 oder 1800.
Es ist kein anderer "Kriegsschauplatz", auf den ich ausweiche, sondern Tatsache.

Natürlich hat man die Option - die CPU. VC-1 war bis auf die erste Stage enthalten, nTunes kann man bequem auf nvidia.com runterladen und sollte einem die Bildqualität per Hardware-Decodierung nicht gefallen, lebt die CPU als backup.
Sry, aber hier wird wiedermal vom Thema abgelenkt.

Gast
2009-06-24, 17:33:52
Es ist kein anderer "Kriegsschauplatz", auf den ich ausweiche, sondern Tatsache.
Gut, aber in Reviewartikeln werden die Dinger als Spielegrafikkarten dargestellt, da liest man nirgends, dass ordentliches Rendering eine Schwachstelle der Radeons ist, sie aber als Multimedia-Karten überzeugen können. Selbiges in Kaufberatungen, sogar hier im Forum, Radeons werden als Spielekarten mit unerreichtem P/L-Verhältnis propagiert.

Der Schwerpunkt solcher Karten ist natürlich das Rendering, die respektablen Multimedia-Features kriegt man auch schon für ganz kleines Geld in Low-Profile und Passivbauweise. In Sachen Spielbetrieb kann man aber nicht unengeschränkt behaupten, ATI sei konkurrenzfähig. Tatsächlich gibt es ein weites Feld von Optionen und Qualitätssettings, wo eine aktuelle Radeon überhaupt nicht mit kann (vermutlich könnte sie, der Catalyst erlaubt es nicht). ATI ist nur konkurrenzfähig, wenn man sehr niedrige Ansprüche an Bildqualität und Treiberfeatures hat.

kruemelmonster
2009-06-24, 17:50:47
Schwachsinn, aber jenseits einer gewissen Mindestqualität musst du sichtbare Verbesserungen mit der Lupe suchen.

Diese gezielte Desinformation seitens mancher ATI-User ist ja nicht zum aushalten. Guckt euch die Crysis-Videos von y33H@ an, ist eindeutig auch ohne Lupe.

Btw, die Mindestqualität hat vor ~ 30 Monaten der G80 definiert. Daran müssen sich neue Produkte messen lassen.

Schlammsau
2009-06-24, 17:51:33
Diese gezielte Desinformation seitens mancher ATI-User ist ja nicht zum aushalten. Guckt euch die Crysis-Videos von y33H@ an, wer da, um die Unterschiede zu erkennen, ne Lupe braucht, der braucht viel dringender einen Optiker.

Btw, die Mindestqualität hat vor ~ 30 Monaten der G80 definiert. Daran müssen sich neue Produkte messen lassen.

Wo siehst du da noch Unterschiede, ausser der Linien auf der Strasse?

kruemelmonster
2009-06-24, 17:54:43
Die Aussage des werten Herrn Gastes war:
Schwachsinn, aber jenseits einer gewissen Mindestqualität musst du sichtbare Verbesserungen mit der Lupe suchen.

Hast du eine Lupe benötigt, um den Flimmerbrei bei ATI zu erkennen?

LovesuckZ
2009-06-24, 18:27:14
Btw, die Mindestqualität hat vor ~ 30 Monaten der G80 definiert. Daran müssen sich neue Produkte messen lassen.

Wobei man hier sagen muss, dass die Default-Filterung noch hinter der einer GF2 (trilinear) bzw. GF3 (8xAF) zurücksteht. Es ist erstaunlich, dass man 8 Jahre nach der GF3 sich mit einer schlechteren Default-Filterung zufrieden geben muss.

Frank1974
2009-06-24, 18:32:25
Ach ja? Na gib mir doch einen Grund dafür, warum man diese Optionen wegblenden muss. Ich mach den Anfang: "Der Radeon-Usern ist die Bildqualität egal. ..." Und du setzt das fort.

In diesem Thread geht es nur um das AF, alles andere gehört hier nicht rein, wenn es um AA- Modi geht oder Video Qualität, kann man gerne darüber reden, aber hier passt das nicht zum Thema.

/edit
Da ich die Qualität von ATI AF im Moment nicht kenne(1900XT letzte Karte von ATI), mische ich mich auch nicht ein, ich muss sowas selber sehen, dann kann ich meckern, ich überlege im Moment auch, ob ich mir eine 4830 oder 4770 kaufen sollte, sind schön günstig und dann könnte ich auch was zur Qualität sagen.

mfg
Frank

Gast
2009-06-24, 18:33:01
Es ist erstaunlich, dass man 8 Jahre nach der GF3 sich mit einer schlechteren Default-Filterung zufrieden geben muss.
Das ist sogar richtig Moppelkotze, Nvidia sollte zur AF-Qualität bei HQ stehen und dies als Treiberdefault einstellen, das ist doch sowieso was die User verwenden.

Grestorn
2009-06-24, 19:43:21
Wie die allgemeine Sicht auf die Dinge zwischen nVidia und ATI ist, kann man sehr gut hier sehen: http://www.gamestar.de/community/gspinboard/showthread.php?t=359498

Die meisten sind immer noch der festen Überzeugung, dass bei ATI grundsätzlich alles besser ist. Wirklich überprüfen tut das keiner und das allgemeine "Hörensagen" erledigt den Rest.

Während damals bei nVidia's BQ Mängeln jede Menge nVidia Besitzer richtig kräftig auf nVidia eingeprügelt haben, scheint es so zu sein, dass ATI machen kann was sie wollen, die allgemeine positive Meinung ist davon völlig unbeeindruckt.

Gast
2009-06-24, 19:55:31
Während damals bei nVidia's BQ Mängeln jede Menge nVidia Besitzer richtig kräftig auf nVidia eingeprügelt haben, scheint es so zu sein, dass ATI machen kann was sie wollen, die allgemeine positive Meinung ist davon völlig unbeeindruckt.

mit 3dcenter meinst du natürlich alle user auf der welt .

Gast
2009-06-24, 22:18:44
Du hattest auch einen NV3X, einen NV4X, einen G7X und einen G8X. Völlig egal wie gut oder schlecht NV in was auch immer war, für dich war nur eines wichtig: Das NV drauf steht.Leider kann ich eine derartige Ansicht bestens nachvollziehen. Für mich kommen ATI-Karten ebenfalls nicht in Frage, da die Qualität der Treiber einfach indiskutabel ist. Seit der Übernahme durch AMD hat man sich zwar teilweise verbessert, aber abseits von Direct3D und Mainstreamspielen lassen die ATI-Treiber nunmal stark zu wünschen übrig, sodass diese Karten einfach keine ernsthafte Alternative darstellen. Dazu kommt ein unterdurchschnittlicher Support.

Bei Nvidia ist dies anders. Auch wenn man nicht für ein großes Studio an AAA-Spielen entwickelt, bekommt man hier immer eine qualifizierte Antwort, auch wenn es manchmal etwas dauern mag.

Wenn es dann auch noch so weit ist, dass man im einzigen Einsatzgebiet der 3D-Fähigkeiten von ATI-Chips, nämlich der Computerspiele, nur noch unterirdische Bildqualität zu sehen bekommt und von vorne bis hinten bevormundet und für einen Vollidioten gehalten wird, frage ich mich ernsthaft, wie ein Online- oder Printmagazin, das etwas auf sich hält, für derartigen Schund eine Kaufempfehlung aussprechen kann.

Sonyfreak
2009-06-24, 22:33:24
Wenn es dann auch noch so weit ist, dass man im einzigen Einsatzgebiet der 3D-Fähigkeiten von ATI-Chips, nämlich der Computerspiele, nur noch unterirdische Bildqualität zu sehen bekommt und von vorne bis hinten bevormundet und für einen Vollidioten gehalten wird, frage ich mich ernsthaft, wie ein Online- oder Printmagazin, das etwas auf sich hält, für derartigen Schund eine Kaufempfehlung aussprechen kann.Nicht böse sein, aber das was AMD liefert ist weit entfernt von einer "unterirdischen Bildqualität". Man mag sich in der Hinsicht nicht mit Nvidias aktueller Riege messen können, aber so schlimm ists nun auch wieder nicht. ;)

mfg.

Sonyfreak

IVN
2009-06-24, 22:37:21
Nicht böse sein, aber das was AMD liefert ist weit entfernt von einer "unterirdischen Bildqualität". Man mag sich in der Hinsicht nicht mit Nvidias aktueller Riege messen können, aber so schlimm ists nun auch wieder nicht. ;)

mfg.

Sonyfreak
Ach nein? Wenn man z.B. ab und zu ältere Spiele spielt, wie Warcraft3 und Homeworld 2 - wo man auch SSAA dazuschalten kann - was hat da ATi zu bieten? Ehrlich gesagt ist das was ATi an max Quali liefern kann unterirdisch in Vergleich zu SSAA + NV-HQ-AF...

Ohhh ja, und dabei ist es egal ob NV SSAA offiziel anbietet, und wieviel es prozentuell an Leistung kostet, denn für die alten Perlen, ist auch mit SSAA genug Leistung da.

Sonyfreak
2009-06-24, 22:44:06
Die deutsche Sprache hält für die meisten Eigenschaften mehr als nur zwei Adjektiven parat. Und auf "fast perfekt" folgt für mich nun mal nicht "unterirdisch". :)

mfg.

Sonyfreak

IVN
2009-06-24, 22:49:14
Die deutsche Sprache hält für die meisten Eigenschaften mehr als nur zwei Adjektiven parat. Und auf "fast perfekt" folgt für mich nun mal nicht "unterirdisch". :)

mfg.

Sonyfreak
OK, wenn NV's Output mit SSAA + HQ-AF "fast perfekt" ist, wie würdest du dann ATi's 8xMSAA + AI-AF beschreiben?

Schlammsau
2009-06-24, 22:52:31
was hat da ATi zu bieten? Ehrlich gesagt ist das was ATi an max Quali liefern kann unterirdisch in Vergleich zu SSAA + NV-HQ-AF...

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/

Auf den ATi-Karten ist zudem der Edge-Detection-Filter einen Versuch wert. Eine bessere Geometrie-Kantenglättung gibt es auch bei Nvidia nicht und die Performance bricht meistens nicht ins Bodenlose ein.

:rolleyes:

IVN
2009-06-24, 22:54:41
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/



:rolleyes:
Ohhh ja, und die Polygonkanten sind ja das einzige im Bild, was geglättet werden möchte? :rolleyes:

y33H@
2009-06-24, 22:57:44
@ Schlammsau



Zeig mir, wo man n Unterschied zwischen 8x MSAA und 24x ED-CFAA sieht. Das in Fps-Verschwendung. Steck die Leistung in TAA und SSAA. Ups, letzteres gibts ja nicht. Dann müssen die Shader und die Texturen halt weiter flimmern. Ups, letztere flimmern ja eh. Na gut, dann stecken wir die Fps halt in Wide-Tent. Dann flimmert nichts mehr. Ups, das sieht aber aus als wäre ich besoffen .... hmmm ... stecke ich das Geld halt in ne billige HD3870 und ne Pulle Wodka kaufen - sieht ja fast genauso aus und kostet weniger als ne HD4890.

Gast
2009-06-24, 23:05:10
Ach nein? Wenn man z.B. ab und zu ältere Spiele spielt, wie Warcraft3 und Homeworld 2 - wo man auch SSAA dazuschalten kann - was hat da ATi zu bieten? Ehrlich gesagt ist das was ATi an max Quali liefern kann unterirdisch in Vergleich zu SSAA + NV-HQ-AF...

Ohhh ja, und dabei ist es egal ob NV SSAA offiziel anbietet, und wieviel es prozentuell an Leistung kostet, denn für die alten Perlen, ist auch mit SSAA genug Leistung da.

Genau das ist der Hauptgrund, warum ich mir atm keine noch so günstige ATI-Graka kaufen würde. Ja, auch die NVidia-Treiber sind nicht perfekt, aber warum zum Geier hält man an den Crossfire-Profilen, dem nichtvorhandensein von SSAA (speziel für ältere Games genial, wenn man schon die Leistung hat..) und dem AI-Quatsch fest ? NVidia machts doch vor, das es auch anders geht..
*Sarkasmus an* es scheint aber nur um möglichst lange Balken zu gehen*Sarkasmus off*

_DrillSarge]I[
2009-06-24, 23:06:16
OK, wenn NV's Output mit SSAA + HQ-AF "fast perfekt" ist, wie würdest du dann ATi's 8xMSAA + AI-AF beschreiben?
als mittelmäßig.
intel=unterirdisch

y33H@
2009-06-24, 23:10:51
OK, wenn NV's Output mit SSAA + HQ-AF "fast perfekt" ist, wie würdest du dann ATi's 8xMSAA + AI-AF beschreiben?1/5 von Punkten - denn außer der Geometrie flimmern die Texturen (doppelt gewertet, da das AF minderwertig ist und es kein SSAA gibt), die Alpha-Tests, das Alpha-Blending und die Shader. Hab ich was vergessen?

Gast
2009-06-24, 23:14:12
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/



:rolleyes:
Merkst du nicht wie du dich lächerlich machst?

Jedenfalls wiedersprichst du dir ständig selbst.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/



:rolleyes:
Tja, so siehts in der Realität aus Jungs.
Ich gebs auf, dann sollen alle BQ Fetischisten nVidia kaufen und alle anderen ATi.
In dem CB Link pickst du dir sogar nur einen Aspekt des AA raus, sehr konsequent.

BQ ist egal, aber AA ist wichtig.
SSAA ist egal, TSSAA ist egal, Hauptsache Polygonkanten. Es sei den es geht mal gerade wieder kein MSAA bei AMD.


Entscheide mal was du willst.
Ich verstehe ja das du eine GTX 285 mit einer 4870 vergleichst mit dem Resultat das die 4870 billiger ist, eine GTX 260 als Verlgeich würde dir nie einfallen, den dann wäre das Preisargument kapputt.
Aber das hier ist Mopelkotze. Da BQ ja, dort BQ nein, hier BQ nur wenn blabla, außer, dort keine BQ, ....

IVN
2009-06-24, 23:14:37
I[;7378411']als mittelmäßig.
intel=unterirdisch
Hast ja gewissermaßen Recht. Ich ging von einem anderen Bezugssystem aus.

_DrillSarge]I[
2009-06-24, 23:17:35
1/5 von Punkten - denn außer der Geometrie flimmern die Texturen (doppelt gewertet, da das AF minderwertig ist und es kein SSAA gibt), die Alpha-Tests, das Alpha-Blending und die Shader. Hab ich was vergessen?
ganz toll :uclap:

das ist, als würde ich nv so bewerten:
- 3 keine custom-AA filter (für jeden fehlenden -1, box nicht mitgerechnet)
- 1 lahmes 8xMSAA
- 1 die shader (hä?)
= 0/5 punkten
:|
alles sehr sinnlos.
übrigens brauchts für alpha-blending kein aaa/tsaa, dass wird von normalem msaa erfasst ;)

Sonyfreak
2009-06-24, 23:20:15
Hast ja gewissermaßen Recht. Ich ging von einem anderen Bezugssystem aus.Die Leute, die sich über AMDs anisotropen Filter beschweren, sind nunmal größtenteils BQ-Freaks. Zu dieser Gruppe zähle auch ich mich. Nur dann gleich von einer "unterirdischen" Qualität zu sprechen ist für mich doch etwas weit her geholt.

mfg.

Sonyfreak

y33H@
2009-06-24, 23:21:55
@ _DrillSarge]I[

Es ging um den optischen Output, Fps irrelevant *g* Zudem ist 8x MSAA in der Praxis imo nicht von Relevanz - AAA samt 4x MSAA ist idR besser.übrigens brauchts für alpha-blending kein aaa/tsaa, dass wird von normalem msaa erfasstGras in Oblivion? ASBT? *grübel*die shader (hä?)Parallax Mapping etwa wird von OGSSAA gebügelt - sieht sehr sehr fett aus.

Gast
2009-06-24, 23:22:15
[;7378411']
intel=unterirdisch
Intel erhebt (noch) nicht den Anspruch leistungsstarke "Spiele GPUs" zu designen.
AMD schon, sie erheben sogar den Anspruch auf die "Performancekrone" mit 4x4890.

aber warum zum Geier hält man an den Crossfire-Profilen, dem nichtvorhandensein von SSAA (speziel für ältere Games genial, wenn man schon die Leistung hat..) und dem AI-Quatsch fest ?
Zumindest der letzte Punkt ist schnell erklärt:
- Ja wir bieten doch die Möglichkeit alles zu deaktivieren, ihr wolltet es doch!
- Die Reviewer schluckens, sie beugen sich AMD indem sie mit AI-on testen. Im Endeffekt ein klarer Sieg für AMD, warum sollten sie ihren Vorteil mal eben so freiwillig abgeben?

Für alle anderen Punkte hilft auch der Link aus Post 470: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7378010&postcount=470
AMDs Ruf ist enkoppelt vom tatsächlichen Zustand. Der einzige Punkt der AMDs Ruf trüben könnte, wären weniger FPS als die Konkurrenz zu einem deutlich schlechteren Preis.
Alles andere hat null Chancen. Ist der Preis z.b. nur minimal schlechter, so tut sich nichts am Ruf.

IVN
2009-06-24, 23:23:31
I[;7378432']ganz toll :uclap:

das ist, als würde ich nv so bewerten:
- 3 keine custom-AA filter (für jeden fehlenden -1, box nicht mitgerechnet)
- 1 lahmes 8xMSAA
- 1 die shader (hä?)
= 0/5 punkten
:|
alles sehr sinnlos.
übrigens brauchts für alpha-blending kein aaa/tsaa, dass wird von normalem msaa erfasst ;)
Custom-AA ist nichts anderes als getweaktes MSAA, ergo es ist weit weniger wert als SSAA, da es nur die Polygonkanten glättet, SSAA aber das ganze Bild. Lahmes 8xMSAA ist ein valider Punkt. Und Shader? Was ist mit denen? Da kannst du kein Punkt abziehen, wenn ATi auch nichts in diese Richtung hat.

_DrillSarge]I[
2009-06-24, 23:26:26
das war KEINE ernsthafte "rechnung" :D

y33H@
2009-06-24, 23:26:42
NT- und WT-CFAA gehen auch auf das ganze Bild :ulol:Ja wir bieten doch die Möglichkeit alles zu deaktivieren, ihr wolltet es doch!AI-off flimmerts immer noch und das doppelte Banding geht idR auch nicht weg.

IVN
2009-06-24, 23:29:21
Die Leute, die sich über AMDs anisotropen Filter beschweren, sind nunmal größtenteils BQ-Freaks. Zu dieser Gruppe zähle auch ich mich. Nur dann gleich von einer "unterirdischen" Qualität zu sprechen ist für mich doch etwas weit her geholt.

mfg.

Sonyfreak
Naja, ich bezog mich nicht nur aufs AF, sondern auch auf all das was NV hat, und ATi eben nicht hat. Das wichtigste ist SSAA.


Und liebe ATi-Fans, kommt mir bitte nicht mit Tent oder irgendwas anderes was nur die Kanten glättet. Denn seien wir mal ehrlich, böte ATi SSAA an, würde es jeder ATianer, in Spielen wo es die Leistung zuließe, sofort einschalten. Denn es ist so gut, das SSAA. Und wer das Ggt. behauptet, hat es entweder noch nicht erlebt, oder ist sehbehindert.

Gast
2009-06-24, 23:30:23
Lustig, bis zur HD2 gabs gerade mal 6xMSAA bei AMD.
Heute bietet AMD 8xMSAA und zusätzlich einen einzigen Brauchbaren CFAA Modus.

Nvidia bot damals 8xS, bzw nur 4xQ, ab der GF8 gibts 16xQ. Auch hier ist ein klarer Fortschritt erkennbar.

Auf Seiten von SSAA hat sich nur bei Nvidia was getan, bei AMD hat nicht mal den Anfangsprung geschafft.
AAA wird von AMD kontrolliert



16xAF gibts seit wann? Naja, ist schon ewig her. Auf jeden Fall ist hier eine Qualität, die vor 3 Jahren heftig kritisiert wurde voll in Ordnung, jegliche Kritik ist unerwünscht.

Gast
2009-06-24, 23:32:15
NT- und WT-CFAA gehen auch auf das ganze Bild :ulol:AI-off flimmerts immer noch und das doppelte Banding geht idR auch nicht weg.
Ups, ich meinte die ominösen "spielespezifischen Optimierungen".
Wenn ein Spiel darauf ungut anspricht zb UT3 oder CoD4, in dem Details fehlen sicherlich gut.

_DrillSarge]I[
2009-06-24, 23:37:53
Wenn ein Spiel darauf ungut anspricht zb UT3 oder CoD4, in dem Details fehlen sicherlich gut.
zumindest das bei ut3 ist gefixt. zu cod4 kann ich nix sagen

wobei amds statement, dass bei ai-off ALLE optimierungen abgeschaltet werden eine glatte lüge ist.

y33H@
2009-06-24, 23:38:53
Lustig, bis zur HD2 gabs gerade mal 6xMSAA bei AMD.Das 6x SGMSAA war damals aber sau geil.

Gast
2009-06-24, 23:40:37
I[;7378496']zumindest das bei ut3 ist gefixt. zu cod4 kann ich nix sagen
Mag sein, jedenfalls ist für solche Fälle AI-off gut.
Nur was die Filterqualität darin zu suchen hat bleibt leider ein Vermächtnis der Marketingabteilung, die damit erfolgreich seit Jahren die gesamte Presse kontrollieren.

Gast
2009-06-24, 23:43:11
Das 6x SGMSAA war damals aber sau geil.
Mag sein, dennoch ist das sowas von pervers, die Glättungsqualität der Polgonkanten ist voran geschnellt.
Gleichzeitig ist auf einmal diese höhere Qualiät überlebensnotwenig, während auf der anderen Seite ein bereits erreichte Qualität unwichtig ist.

Recht Unverständlich für einen Außenstehenden.

y33H@
2009-06-24, 23:48:03
Aus Dev-Sicht iwie verständlich. MSAA funktioniert idR und spackt nicht rum [sieht man von Deferred-Rendering ab, welches halt DX10 braucht], SSAA oder TAA dagegen erzeugt gerne mal Bildfehler (kollidiert mit irgendwelchen Post-Effekts oder Alpha-Tests werden durchsichtig) oder zieht erst gar nicht. Zudem schluckt es oft (fast) immer mehr Leistung als MSAA und 95% der User fassen den Treiber (oder gar den nHancer oder die ATTs) eh nicht an. Ergo MSAA ins Spiel packen und gut ists.

EDIT
Ausnahmen wie die aktuelle Souce-Engine (A2C) oder Gamebryo (TMSAA-ähnlicher Algorithmus in Fallout 3) oder Real-Virtuality-3 (Arma2 mit OGSAA) bestätigen die Regel.

Schade, aber so ists halt.

Gast
2009-06-24, 23:53:07
Ein Dev hat doch das Ziel tatsächlich möglichst viel BQ zu erziehlen.
Dazu zählt auch ein ordentlich geglätteter Wald und nicht ein flimmernder Wald mit 2 geglätteten Felsbrocken alle 200m.
Klar, MSAA ist so spottbillig, wenn eh nichts geglättet wird.
Nungut, ist halt so.