PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Appell an die ATi-Nutzer: Schaut doch auch mal genauer hin ...


Seiten : [1] 2

Raff
2006-04-18, 20:24:59
Die Leute scheinen bei ATi echt nicht zu gucken. Nvidia ist böse, daher muss man ganz genau schauen. Ich greife mir mittlerweile echt an den Kopf, wenn ich höre, dass Nvidia flimmert wie Sau (das tun sie zweifellos in Quality mit "Optimierungen"), ATi allerdings auch mit aktivem A.I. perfekte Texturen anbietet – schön wär's! :mad:

Mein R520 öffnete mir die vermeintlich NV40-geschädigten Augen: ATi kocht auch nur mit Wasser. Nichts gegen Shader-Replacement, aber gegen Filter-Sparmaßnahmen, die sichtbar sind ... gerade wenn man den direkten R3x0-Vergleich bzw. den mit A.I. off hat. So Schwarz-Weiß ist die BQ eben nicht. Im Kampf zwischen A.I. on vs. Nvidia-HQ kann letzteres auch besser aussehen. Es gibt nämlich Fälle (hallo, Blizzard), in denen es ein Quality-artiges Bri-Flimmern mit A.I. gibt ... sehr störend. Bei Nvidias HQ ist zwar auch oft ein Flimmern/Grieseln präsent, aber lange nicht so kontrastreich ... wo ist da die angebliche Überfilterung?

Artikel dazu? Hmm ... ich habe keine Zeit und Böcke. ;) Man kann eh viel schwafeln – den Unterschied optisch nachvollziehbar aufzuzeigen, wird das größte Problem sein. Screenshots? Muha, nicht sichtbar. High-Res-Videos? Zu groß, aber das einzig sinnvolle.

Aber: Ich habe keinen G70 lange genug gehabt, um eindeutige Aussagen darüber zu machen, wie viel schlimmer das Teil die Augen angreift als ein NV40!

Ändert aber nichts daran, dass ATi keineswegs die flimmerfreie Weste hat, die ihnen nahezu das gesamte Web andichtet. Immerhin gibt es eine Lösung: A.I. deaktivieren. Oder das selten funktionierende 4xSSAA per DXTweaker. Das plus HQ-AF ergibt die schärfsten Texturen weit und breit. Bei Nvidia geht SSAA immer – ein Pluspunkt, der für die absolut beste BQ gerade so reicht.

Positive Beispiele, die sich über Flimmern hier beschwerten, sind laut meines Erinnerungsvermögens tombman, Blaire und Ulukay, die ich hier noch einmal nennen möchte.

Appell zum Flamewar? Nein! Auch wenn die Wahrheit oft weh tut. ;)

Nachtrag: Ja, meine Wortwahl kann rückblickend von einigen Leuten missverstanden werden, was ich zu entschuldigen bitte. Ich bin kein ATi/NV-Fanboy, was den meisten im Forum ja bekannt sein dürfte. Vielen Dank für die Aufmerksamkeit und beehren sie diesen Thread bald wieder.

MfG,
Raff

Die gelbe Eule
2006-04-18, 20:28:42
Weißt Du warum das so stark gepusht wird?

http://www.geizhals.at/a195715.html

Schau Dir die Links genauer an, die führen alle zu 3DC.

Nur als Beispiel. Das G70 Flimmern verlinken die bestimmt noch auf G80 Karten und Euer Filtertricksartikel ist neu dazugekommen. Irgendwie komisch das sie das immernoch drin haben und nicht ansatzweise korrigieren.

Odal
2006-04-18, 20:30:43
stimmt ati sollte endlich filteroptimierungen und bugfixes/shaderreplacement trennen

ich schalte auch deswegen sehr oft A.I. off

Odal
2006-04-18, 20:32:01
Weißt Du warum das so stark gepusht wird?

http://www.geizhals.at/a195715.html

Schau Dir die Links genauer an, die führen alle zu 3DC.

Nur als Beispiel. Das G70 Flimmern verlinken die bestimmt noch auf G80 Karten und Euer Filtertricksartikel ist neu dazugekommen. Irgendwie komisch das sie das immernoch drin haben und nicht ansatzweise korrigieren.

naja am Problem hat sich ja noch nicht wirklich was geändert....

Frank1974
2006-04-18, 20:32:49
Hab ich schon mehrmals gesagt, ich bin von meiner 1900XT genauso enttäuscht wie ich es bei der 7800GTX auch war.

Sind beide nicht ihr Geld Wert gewesen, Punkt aus.

Gruss
Frank

MartinRiggs
2006-04-18, 20:53:02
Vielleicht solltet ihr einfach mal zocken und nicht mit der Lupe vorm TFT/CRT hocken.
Ich hab ne olle X850XT und hab Catalyst A.I immer an und ich bekomme weder Augenkrebs noch sonstwas.
Mir kommt es langsam so vor als wenn alle nur irgendwo was suchen um bestimmte Karten/Hersteller schlecht zu machen. :crazy2:
Genauso ein Beispiel Oblivion - Klar ist das Game verbuggt, die entfernten Texturen könnten besser sein, aber wenn man mal durchs Forum schaut gewinnt man den Eindruck das die meisten nur tweaken anstatt das geile Game zu genießen.
Aber ich gebe halt auch keine 1000 DM für ne "mache bunte Bildchen-Karte" aus.
Na ja wers braucht.....

Frank1974
2006-04-18, 20:59:55
Vielleicht solltet ihr einfach mal zocken und nicht mit der Lupe vorm TFT/CRT hocken.
Ich hab ne olle X850XT und hab Catalyst A.I immer an und ich bekomme weder Augenkrebs noch sonstwas.
Mir kommt es langsam so vor als wenn alle nur irgendwo was suchen um bestimmte Karten/Hersteller schlecht zu machen. :crazy2:
Genauso ein Beispiel Oblivion - Klar ist das Game verbuggt, die entfernten Texturen könnten besser sein, aber wenn man mal durchs Forum schaut gewinnt man den Eindruck das die meisten nur tweaken anstatt das geile Game zu genießen.
Aber ich gebe halt auch keine 1000 DM für ne "mache bunte Bildchen-Karte" aus.
Na ja wers braucht.....

Da brauch man keine Lupe für, wer die Optimierungen ned sieht soll froh sein, und wer keinen Hohen Anspruch hat brauch hier auch nicht mitzureden, ich gebe nun mal 500€ oder mehr für ne Grafikkarte aus, da erwarte ich dann aber auch einiges von, und wie gesagt ich rede jetzt beide Hersteller schlecht, beide liefern mir nicht das was ich erwartet habe :mad:.

Gruss
Frank

MartinRiggs
2006-04-18, 21:04:09
So anspruchlos bin ich nu auch nicht, zocke immer wo es geht mit AA/AF.
Aber mir kommt es echt so vor als wird auch viel gesucht.
Raff z.b. scheint sich ja auf WOW zu beziehen, dessen Grafik ich sowieso fürn Arsch finde.
Aber bei den von mir gezockten Games finde ich die Bildqualität ok
(CS:Source, FEAR, LFS S2, GT legends, Oblivion etc.)

4 Vitamins
2006-04-18, 21:10:51
[QUOTE=MartinRiggs]Vielleicht solltet ihr einfach mal zocken und nicht mit der Lupe vorm TFT/CRT hocken.
Genauso ein Beispiel Oblivion - Klar ist das Game verbuggt, die entfernten Texturen könnten besser sein, aber wenn man mal durchs Forum schaut gewinnt man den Eindruck das die meisten nur tweaken anstatt das geile Game zu genießen.
QUOTE]

Du hast das spiel ja gekauft, deswegen spielst du es mit freude....
Die meisten laden es irgendwo runter um sich über die texturen und schatten zu unterhalten. Jedem das seine :wink:

gruss.

Frank1974
2006-04-18, 21:15:47
[QUOTE=MartinRiggs]Vielleicht solltet ihr einfach mal zocken und nicht mit der Lupe vorm TFT/CRT hocken.
Genauso ein Beispiel Oblivion - Klar ist das Game verbuggt, die entfernten Texturen könnten besser sein, aber wenn man mal durchs Forum schaut gewinnt man den Eindruck das die meisten nur tweaken anstatt das geile Game zu genießen.
QUOTE]

Du hast das spiel ja gekauft, deswegen spielst du es mit freude....
Die meisten laden es irgendwo runter um sich über die texturen und schatten zu unterhalten. Jedem das seine :wink:

gruss.

Ich habe meine auch gekauft :rolleyes:, und nicht LowBudget, ich kaufe mir die Spiele immer wenn sie noch neu sind zum Vollpreis, wenn du nochmal solche Allgemeinen Unterstellungen hier anbringst werd ich deinen Beitrag melden, klar.

Wechselbalg
2006-04-18, 21:16:44
Ich habe eine X800 Pro und merke schon, dass es nicht flimmerfrei ist, aber habe mich aus all den Diskussionen eigentlich rausgehalten, da ich es nicht bei mir selber mit den aktuellen Nvidia Karten vergleichen kann. (Habe nur mal die Default Einstellung bei einem Freund gesehen und hätte die jetzt schlechter als AI Low gewertet, was aber ja kein Wunder ist)

Da ich aber jetzt wie man an der Grafikkarte sieht auch nicht immer die neuesten Karten habe, erwarte ich durchaus, dass ein paar 'Optimierungen' notwendig sind, wenn ich etwas neueres spiele. Bei einer High End Karte würde es mich aber definitiv stören und weil dort Leistung vorhanden ist auch AI wohl deaktivieren.

Doch es wäre wirklich ideal, wenn diese Kopplung von Filteroptimierung und anderen Bugfixes endlich wegkommen würde.

Botcruscher
2006-04-18, 21:17:07
Solange we man es ausschalten kann wayne. :confused:

Woodmaster
2006-04-18, 21:20:34
Vielleicht solltet ihr einfach mal zocken und nicht mit der Lupe vorm TFT/CRT hocken.
Ich hab ne olle X850XT und hab Catalyst A.I immer an und ich bekomme weder Augenkrebs noch sonstwas.
Mir kommt es langsam so vor als wenn alle nur irgendwo was suchen um bestimmte Karten/Hersteller schlecht zu machen. :crazy2:
Genauso ein Beispiel Oblivion - Klar ist das Game verbuggt, die entfernten Texturen könnten besser sein, aber wenn man mal durchs Forum schaut gewinnt man den Eindruck das die meisten nur tweaken anstatt das geile Game zu genießen.
Aber ich gebe halt auch keine 1000 DM für ne "mache bunte Bildchen-Karte" aus.
Na ja wers braucht.....


volle Zustimmung.


Gruß

Woodmaster

MikBach
2006-04-18, 21:24:44
Du hast das spiel ja gekauft, deswegen spielst du es mit freude....
Die meisten laden es irgendwo runter um sich über die texturen und schatten zu unterhalten. Jedem das seine :wink:

gruss.
Ähm, ein wenig konstruktiver wäre schon wünschenswert.

@Raff
Kannst du Beispiele (Spiele/Motive/Texturen) nennen?

Ich bin auch extrem anspuchsvoll, was die BQ angeht, allerdings bin ich mit meiner X800XT doch im Großen und Ganzem zufrieden.

Klar, die BQ ist sicherlich nicht perfekt, zumindest mit AI-low, was ich meistens nutze...jedoch bekomme ich fast immer eine (fast) perfekte BQ.
Ich zocke aber in der letzten Zeit recht wenig, nur Morrowind.
Aber auch bei Morrowind sind mir kleine Fehlerchen zu Augen gekommen. Die BQ ist zwar über weite Stellen hervorragend (1280x960 6xAAA und 8xAF), Steintexturen (Burgen) flimmern aber in weiter Entfernung. Gehe ich näher ran, sieht es wieder aus wie es soll.
Um das zu sehen muß man aber echt sehr genau hinsehen.

Wie es sich mit dem R5x0 verhält, vermag ich nicht zu sagen, da ich nur kurz einen in Aktion gesehen habe, bei Spielen, wo es eh wenig Probs mit der BQ gibt.

stav0815
2006-04-18, 21:27:05
naja, ich sehe oft keinen Unterschied zwischen AF 4x und AF 8x...
aber ob AI on ist oder off seh ich auch mit meiner X800.
Und das kann es nicht sein. Was ich sehe, mag ich ned. Wenn jemand durch unsichtbare Optimierungen Performance gewinnt, dann bin ich sofort dabei, aber das ist oberhammer!

4 Vitamins
2006-04-18, 21:28:55
[QUOTE=4 Vitamins]

Ich habe meine auch gekauft :rolleyes:, und nicht LowBudget, ich kaufe mir die Spiele immer wenn sie noch neu sind zum Vollpreis, wenn du nochmal solche Allgemeinen Unterstellungen hier anbringst werd ich deinen Beitrag melden, klar.


Warum diese aufregung.....es ist keine unterstellung, sondern tatsache.
"alle" die ich kenne laden sich games runter, spielen 2 stunden, labern wie scheisse das game dann ist, schmeissen es in die ecke und laden sich ein neues runter...nur um mit reden zu können.
Es ist hier im forum selbstverständlich anders ;D ;D ;D ;D ...das ist schon klar. Und ich habe auf ein posting geantwortet (MartinRiggs)und nicht etwas in den raum geworfen. Musst dich nich agesprochen füllen. Und das du ein orginal game hast, will niemand wissen.


gruss

4 Vitamins
2006-04-18, 21:35:29
und kennt ihr das: wenn 5 Leute sagen es flimmert, dann sieht der 6te es auch flimmern, obwohl nicht flimmert.

Gruss.

ps. meine X1600Xt flimmert auch..... (sage ich während ich auf meine "geschenkte" 7900GTX schaue) :wink:

MikBach
2006-04-18, 21:45:54
und kennt ihr das: wenn 5 Leute sagen es flimmert, dann sieht der 6te es auch flimmern, obwohl nicht flimmert.
Warum sollten 5 Leute sagen, dass es flimmert, wenn es das nicht tut...? :|

Gast
2006-04-18, 21:56:57
Warum sollten 5 Leute sagen, dass es flimmert, wenn es das nicht tut...? :|

3DCenter veröffentlicht einen Artikel über das Texturflimmern bei G70-Karten. Wenn nun jemand davon gehört hat und in einem Forum nachfragt, weil er beabsichtigt diese Karte zu kaufen, werden ihm Leute erzählen, die BQ von nVidia-Karten sei mieserabel, obwohl diese Leute selbst keine solche Karte besitzen, aber den Artikel gelesen haben. Wenn das nun auch fett bei geizhals steht und somit jeder, der sich nur etwas mit Hardware beschäftigt, davon gehört hat, stehen nVidia-Karten ziemlich blöd da, obwohl es bei ATi vielleicht gar nicht so viel besser ist.

Gast
2006-04-18, 22:03:41
Solche Sachen verbreiten sich halt schnell. 256 MB-Karten sind doch auch in allen Hardware-Foren totgeschrieben, weil CB einen solchen Artikel verfasst hat. Wer besaß denn schon eine X1800 XT mit 256 MB, ist dann auf die 512 MB-Version umgestiegen, hat seine Erfahrungen gemacht und dann geschrieben? Keiner! Der CB-Artikel und ein Balken reichen, schon raten alle von der 256 MB-Version ab, obwohl sie selbst vielleicht selbst nur eine GeForce 2 besitzen und gar nicht mitreden können.

MikBach
2006-04-18, 22:08:47
3DCenter veröffentlicht einen Artikel über das Texturflimmern bei G70-Karten. Wenn nun jemand davon gehört hat und in einem Forum nachfragt, weil er beabsichtigt diese Karte zu kaufen, werden ihm Leute erzählen, die BQ von nVidia-Karten sei mieserabel, obwohl diese Leute selbst keine solche Karte besitzen, aber den Artikel gelesen haben.
Wenn man den Artikel auf die Standardsettings bezieht, dann ist er immernoch gültig. Da hat NV keine Chance.
Beabsichtigt man aber etwas zu "tunen", dann kann man auch mit einer NV-Karte für die meisten zufrieden stellende Ergebnisse erreichen, keine Frage.


Wenn das nun auch fett bei geizhals steht und somit jeder, der sich nur etwas mit Hardware beschäftigt, davon gehört hat, stehen nVidia-Karten ziemlich blöd da, obwohl es bei ATi vielleicht gar nicht so viel besser ist.
Wenn man weiß wie, kann man auch die bessere BQ bei ATI bekommen, man muß es nur einstellen.
Aus meiner Erfahrung kann ich nur sagen, dass die X800XT eine besser BQ als die 6800GT hat, welche ich davor hatte.
Das war aber noch vor dem G70, die BQ war also bei der 6800GT schlechter als mit aktuellen Treibern, dafür ist die Karte mit neueren Treibern auch langsamer...

Gast
2006-04-18, 22:15:10
Wenn man den Artikel auf die Standardsettings bezieht, dann ist er immernoch gültig. Da hat NV keine Chance.

Sicher. Dann sollte der Artikel aber anders lauten: "nVidia-Treiber von Haus aus auf Leistung statt Qualität getrimmt", oder so ähnlich. Bei ATi siehts doch nicht anders aus, wenn man in den Treibern alles auf Leistung stellt.

MikBach
2006-04-18, 22:31:49
Sicher. Dann sollte der Artikel aber anders lauten: "nVidia-Treiber von Haus aus auf Leistung statt Qualität getrimmt", oder so ähnlich.
Als der Artikel geschrieben wurde, war die max. erreichbare BQ beim G70 miserabel. Dass dies gefixt wurde, steht auch am Ende des Artikels.
Einfach nur lesen.

Bei ATi siehts doch nicht anders aus, wenn man in den Treibern alles auf Leistung stellt.
Warum sollte man das tun?
AI-low und alles auf High ist meistens die richtige Einstellung. Manchmal ist es auch nötig das AI auszuschalten, aber auf Leistung zu stellen wäre ziemlich dämlich, da man damit nicht mehr Performance hat.

4 Vitamins
2006-04-18, 22:33:41
Solche Sachen verbreiten sich halt schnell. 256 MB-Karten sind doch auch in allen Hardware-Foren totgeschrieben, weil CB einen solchen Artikel verfasst hat. Wer besaß denn schon eine X1800 XT mit 256 MB, ist dann auf die 512 MB-Version umgestiegen, hat seine Erfahrungen gemacht und dann geschrieben? Keiner! Der CB-Artikel und ein Balken reichen, schon raten alle von der 256 MB-Version ab, obwohl sie selbst vielleicht selbst nur eine GeForce 2 besitzen und gar nicht mitreden können.

Respekt :wink:

Iceman346
2006-04-18, 22:57:44
Nein, flimmerfrei ist meine X1900XT natürlich nicht. Aber im direkten Vergleich flimmert sie, mit AI Standard, deutlich weniger als die 6800GT auf HQ die ich vorher drin hatte.

Saw
2006-04-18, 23:11:35
Trotz Flimmern werden High-End-Karten trotzdem gekauft. Egal ob es eine ATi oder Nvidia-Kärtchen ist. Welche Alternativen hat man denn auch schon? Man kann sich dagegen auflehnen, aber den Chipherstellern ist das völlig scheißegal. Da wird an der Bildqualität geschraubt, um möglichst die beste Leistung rauszukitzeln und dann später sich mit langen "Balken" präsentieren zu können. Der Enthusiast wird regelrecht dadurch heiß gemacht und wundert sich hinterher, dass er für ca. 500€ eine flimmerige Bildqualität bekommen hat.

Gast
2006-04-18, 23:30:00
ps. meine X1600Xt flimmert auch..... (sage ich während ich auf meine "geschenkte" 7900GTX schaue) :wink:
stimmt mich bedenklich...

ich habe ein samsung x60 student edition zurückgeschickt/-gegeben eben wegen dem flimmern -> samsungs aussage dazu war "produktionsfehler"...aber sofern das ein prinzipielles prob ist bin ich echt froh...ich war kurz davor doch die notebook lieber reparieren zu lassen

(del676)
2006-04-18, 23:48:39
High-Res-Videos? Zu groß, aber das einzig sinnvolle.

nicht doch - da reicht ein normaler screenshot von CS-OFFICE aus ;)

3 komische moire-bugwellen - bei ai standard oder sogar ai off

http://img212.imageshack.us/my.php?image=css1py.jpg

Raff
2006-04-18, 23:57:52
Es flimmern beide. Aber es wird nur auf einem herumgehackt. Wo ist also mein Problem? ;)

Nein, flimmerfrei ist meine X1900XT natürlich nicht. Aber im direkten Vergleich flimmert sie, mit AI Standard, deutlich weniger als die 6800GT auf HQ die ich vorher drin hatte.

Du hast doch WoW. Bitte schau dir mal diese beiden Screenies, geschossen vor den Türen eines beliebten Farm-Ortes, an. Alle anderen natürlich auch.

http://img72.imageshack.us/img72/7080/10lr1.th.jpg (http://img72.imageshack.us/my.php?image=10lr1.jpg) http://img208.imageshack.us/img208/2296/22tf.th.jpg (http://img208.imageshack.us/my.php?image=22tf.jpg)

Was ist mit, was ohne A.I.? Beides 16xHQ-AF.

Bekanntes Phänomen: Was auf dem Screen "scharf" wirkt, ist in Bewegung ein höchst karzinogenes Flimmern! Gerade das auf dem Bild wenig auffallende Terrain vor dem Char. Und das in 1600x1200! Das extremste Beispiel. Vielleicht mag jemand mit einem aktivierten NV40/G70 und HQ ja mal ein Bildchen posten. Man beachte auch den entstehenden Matsch am Grasanfang links.

Extremes Beispiel. Gibt noch mehr Szenen, wo A.I. nervt. Wer will, wer hat?

MfG,
Raff

Coda
2006-04-19, 00:01:08
Meine Rede. Mehr sag ich nicht zu dem Thema.

hyperterminal
2006-04-19, 00:15:00
Solche Sachen verbreiten sich halt schnell. 256 MB-Karten sind doch auch in allen Hardware-Foren totgeschrieben, weil CB einen solchen Artikel verfasst hat. Wer besaß denn schon eine X1800 XT mit 256 MB, ist dann auf die 512 MB-Version umgestiegen, hat seine Erfahrungen gemacht und dann geschrieben? Keiner! Der CB-Artikel und ein Balken reichen, schon raten alle von der 256 MB-Version ab, obwohl sie selbst vielleicht selbst nur eine GeForce 2 besitzen und gar nicht mitreden können.
Da gebe ich dir vollkommen Recht. Die Tests anerkannter Hardware-Magazine haben einen grossen Einfluss auf die Kaufempfehlungen und das Konsumverhalten der Verbraucher.
Ihnen obliegt eine grosse Verantwortung, mit der es verantwortungsvoll umzugehen geht.
Meiner Meinung nach muesste das 3DCenter einen neuen Artikel rausbringen, in dem die Produkte der beiden grossen Grafikkartenhersteller genauestens unter die Lupe genommen werden.
Das Ergebnis sollte dann einer im Geizhals-Forum bekanntgeben.

Ich selber hatte eine GeForce 6800 GT und eine Radeon x800 Pro (bin also kein Fanboy). Beide haben geflimmert, wobei es bei der GeForce etwas staerker war. Das hat man selbst auf meinem alten ausgebrannten 17" CRT noch deutlich wahrnehmen koennen.

Mit meiner jetztigen Grafikkarte, einer 7800 GT, kann ich zumindest bei einer kleinen Zahl der Spiele auf 1024x768 den 8xS AA Modus benutzen, um so ein flimmerfreies Bild zu bekommen.

MadMan2k
2006-04-19, 00:26:11
erm.. wieso schaltest du denn AI nicht generell ab, wenns doch dann so aussieht, wie du es willst?

Iceman346
2006-04-19, 00:30:13
Du hast doch WoW. Bitte schau dir mal diese beiden Screenies, geschossen vor den Türen eines beliebten Farm-Ortes, an. Alle anderen natürlich auch.

Sorry, wass WoW angeht konnte ich nicht mehr vergleichen, da ich mit dem Spiel aufgehört hab bevor ich die Grafikkarte gewechselt hab. Aber um ein paar Namen zu nennen:
- Bei Sims 2 flimmerte auf dem NV40 immer das Gras um Häuser herum und in der Stadteilübersicht, dass tut es auf der X1900 ebenfalls, aber nicht in dem Umfang
- Viele Texturen in Everquest 2 flimmern auf der ATi Karte deutlich weniger.

Der Härtetest wär ja Riddick gewesen, dass flimmert aber wahrscheinlich überall furchtbar. Leider hab ichs verkauft.

Quasar
2006-04-19, 00:31:26
Meine Rede. Mehr sag ich nicht zu dem Thema.
Tjo, wenn man früher sowas wagte zu behaupten, war man ja ein pöser Fanpoy. *shrugs*
Jedem das seine.


Ich habe da auch so eine nette Stelle in Oblivion, aber da muss ich erst nochmal schauen, ob die Ursache nicht eine andere sein könnte. Oblivions Texturen sind z.T. ja sehr hochfrequent.

Quasar
2006-04-19, 00:33:03
Der Härtetest wär ja Riddick gewesen, dass flimmert aber wahrscheinlich überall furchtbar. Leider hab ichs verkauft.
Bei Riddick ist's zum größten Teil Normal-Map-Flimmern, das kriegen herkömmliche Texturfilter nicht weg.

Mr. Lolman
2006-04-19, 00:40:03
Raff

Stellst du die Settings im CCC oder in den ATT ein?

Raff
2006-04-19, 00:43:43
erm.. wieso schaltest du denn AI nicht generell ab, wenns doch dann so aussieht, wie du es willst?

Darum geht's nicht. ;)

Raff

Stellst du die Settings im CCC oder in den ATT ein?

CCC, um bei meinen Aussagen "offizielle" Ati-Späße heranzuziehen.

Ich lade btw gerade WoW-Videos hoch, unkomprimiert ...

MfG,
Raff

Gast
2006-04-19, 01:05:14
Tja, mir wollte das nie jemand glauben. Da war man dann der böse Troll und generell ein Fanboy. Und überhaupt, wenn ein Gast sowas sagt, kann es ja gar nicht stimmen. ;)

Ich kann nur sagen, dass beide Hersteller nicht gerade heilig sind. Da hat man dermaßen leistungsfähige Grafikkarten und muss sich mit derartigen Filter-"Optimierungen" rumschlagen. Ich hoffe, dass wir in der nächsten Generation bei beiden IHVs endlich anständiges AF inkl. vollem tri-Filter bekommen. Die "Optimierungen" können sie ja von mir aus optional anbieten für die Leute die jetzt auch "Hohe Leistung" oder "AI-Advanced" benutzen. ;) ATI sollte dringend die Bugfixes von den Cheats trennen. Ja, das wäre eine schöne Welt. ;)

crusader4
2006-04-19, 01:18:28
Auch wenn eher die aktuellen Karten im Fokus sind: Zur Zeit spiele ich Morrowind auf meiner 9800Pro. Einstellungen sind AI low, 6xAA+QAAA und 16xAF (nebenbei bemerkt ist das Spiel damit immer noch hoffnungslos CPU-limitiert) bei 1280x1024. Die Sichtweite habe ich auf Maximum per fps-Optimizer gesetzt. Das ergibt ein schönes Bild. Aber wenn in der Entfernung ein Gebäude im Festungsstil zu sehen ist, flimmert dieses ziemlich abartig. Entfernte Vegetation flimmert auch deutlich sichtbar, allerdings fällt das nicht so auf, weil es nicht so flächig ist wie an den Gebäuden. Ich habe die Textur-Mods "KP Morrowind Visual Pack 2.11" und "KP Morrowind Visual Pack 2.2 Nature" installiert. Ob das im Original ohne diese Mods auch so flimmert, weiß ich nicht.

Grüße, Crusader

Odal
2006-04-19, 01:43:02
Es flimmern beide. Aber es wird nur auf einem herumgehackt. Wo ist also mein Problem? ;)

naja also man muss hier zwischen Contentbasiertem Flimmern und "Optimierungs"flimmern unterschieden...
es gibt so einige Texturen die aufgrund ihrer Struktur immer Flimmern werden...genauso gibt es Shader Aliasing.....das ist alles als Flimmern zu erkennen, und die Ursache zu finden ist oft schwer...

so habe ich hier im forum schon 2 threads zur Flimmer"problematik" bei ATI Karten eröffnet...zumindest bei der Flimmerproblematik bei DoD:Source hab ich animierte Gifs gemacht...dort hat das ausstellen von A.I. etc. nichts bewirkt...weiterhin haben diese Stellen auf allen Karten auf denen ich bisher DoD:Source sah geflimmert....

da könnte man schon vermuten das es am Content oder Shaderaliasing lag.

Raff
2006-04-19, 02:06:51
Klar sind es oft die Texturen. Aber mit WoW habe ich oben bereits ein sichtbar an A.I. hängendes Flimmerbeispiel gepostet. Das ist eben nicht das einzige.

Oh, ich vergaß: Mein Browser ist - natürlich erst am Ende des zweiten Videos - komplett abgeschmiert ... Links adé. Nun habe ich keine Lust mehr, das wieder hochzuladen. ;)

MfG,
Raff

kmf
2006-04-19, 02:29:55
Jetzt hattest du doch vorher alle Möglichkeiten das zu eruieren, sei es bei Carsten oder bei Daniel, denn die haben das doch schon lange vor dir bemerkt und gewußt. Redet ihr denn gar nicht miteinander? Oder darf davon ..., nein! - jetzt halte ich aber meine Klappe. :D

Mr.Magic
2006-04-19, 03:31:31
Auch wenn eher die aktuellen Karten im Fokus sind: Zur Zeit spiele ich Morrowind auf meiner 9800Pro. Einstellungen sind AI low, 6xAA+QAAA und 16xAF (nebenbei bemerkt ist das Spiel damit immer noch hoffnungslos CPU-limitiert) bei 1280x1024. Die Sichtweite habe ich auf Maximum per fps-Optimizer gesetzt. Das ergibt ein schönes Bild. Aber wenn in der Entfernung ein Gebäude im Festungsstil zu sehen ist, flimmert dieses ziemlich abartig. Entfernte Vegetation flimmert auch deutlich sichtbar, allerdings fällt das nicht so auf, weil es nicht so flächig ist wie an den Gebäuden. Ich habe die Textur-Mods "KP Morrowind Visual Pack 2.11" und "KP Morrowind Visual Pack 2.2 Nature" installiert. Ob das im Original ohne diese Mods auch so flimmert, weiß ich nicht.

Grüße, Crusader

Bei vielen Texturen und Texturpaketen für Morrowind fehlen Mipmaps. Das flimmert auf Entfernung mit nVidia-Karten ohne Ende. Wie sehr sich das bei ATi's auswirkt kann ich nicht beurteilen (nach meiner Erfahrung mit anderen Spielen flimmert es immernoch, weniger, aber sichtbar). Jedenfalls habe ich bei mir jegliches Flimmern Morrowinds beseitigt, indem ich mittels DDS-Converter sicherstellte, dass alle Texturen Mipmaps verwenden.

tombman
2006-04-19, 04:55:11
und ich hab damals sogar ein HL2 Beweisvideo geupped um zu zeigen, daß ATi-BQ nicht der heilige Gral ist. Beide haben KEINE perfekte BQ, und beide kochen nur mit Wasser ;)
QED :cool:

Wechselbalg
2006-04-19, 06:18:31
Wobei Morrowind doch afaik ohnehin nur bilinear filterte oder? Das dürfte dort dann zumindest nicht unbedingt mit AI zu erklären sein.

Ansonsten finde ich aber wie gesagt nicht störend, dass es mit "Optimierungen" eine Flimmerneigung hat, sondern dass ich die "Optimierungen" nicht einzelnd anwählen kann. Alle abzustellen, obwohl nur die Filterung etwas verbockt ist, ist sicherlich nicht die richtige Methode.

Gast
2006-04-19, 07:18:19
und ich hab damals sogar ein HL2 Beweisvideo geupped um zu zeigen, daß ATi-BQ nicht der heilige Gral ist. Beide haben KEINE perfekte BQ, und beide kochen nur mit Wasser ;)
QED :cool:


Lol, sicher kochen beide mit Wasser und belichten ihre Chips auf Silizium. Totz dessen flimmern Games auf aktuellen Nvidia-Karten teils deutlich, da braucht man nichts schön zu reden und auch nicht mit den kleinen Flimmerstellchen zu kommen, nach dem Motto:

"Guck ma hier, hier!! Jetzt hab ich auch ne Stelle gefunden wos auf der ATI flimmert. Juhu, ätsch bätsch..."

ZilD
2006-04-19, 07:20:44
bei den meisten spielen die schnell ablaufen (meisten ego shooter und rennspiele etc.) bekommt man doch beim spielen sowieso nicht viel von den grafikdetails mit.

stehen alle vor ner mauer mit 3292393 zoom und schauen sich die texturen aus 3292393 kilometer entfernung an um festzustellen das ati bzw. nvidida doch besser ist als alle anderen ? :|

(del676)
2006-04-19, 08:31:37
erm.. wieso schaltest du denn AI nicht generell ab, wenns doch dann so aussieht, wie du es willst?

nicht doch - da reicht ein normaler screenshot von CS-OFFICE aus ;)

3 komische moire-bugwellen - bei ai standard oder sogar ai off

http://img212.imageshack.us/my.php?image=css1py.jpg

;)

seahawk
2006-04-19, 09:11:33
Vielleicht solltet ihr einfach mal zocken und nicht mit der Lupe vorm TFT/CRT hocken.
Ich hab ne olle X850XT und hab Catalyst A.I immer an und ich bekomme weder Augenkrebs noch sonstwas.
Mir kommt es langsam so vor als wenn alle nur irgendwo was suchen um bestimmte Karten/Hersteller schlecht zu machen. :crazy2:
Genauso ein Beispiel Oblivion - Klar ist das Game verbuggt, die entfernten Texturen könnten besser sein, aber wenn man mal durchs Forum schaut gewinnt man den Eindruck das die meisten nur tweaken anstatt das geile Game zu genießen.
Aber ich gebe halt auch keine 1000 DM für ne "mache bunte Bildchen-Karte" aus.
Na j wers braucht.....

Und ich spiele privat mir ner 7800Gt auf HQ und habe uahc noch mein Augenlicht behalten.

seahawk
2006-04-19, 09:19:08
Lol, sicher kochen beide mit Wasser und belichten ihre Chips auf Silizium. Totz dessen flimmern Games auf aktuellen Nvidia-Karten teils deutlich, da braucht man nichts schön zu reden und auch nicht mit den kleinen Flimmerstellchen zu kommen, nach dem Motto:

"Guck ma hier, hier!! Jetzt hab ich auch ne Stelle gefunden wos auf der ATI flimmert. Juhu, ätsch bätsch..."

Nur auf default. Auf HQ ohne Optimierungen ist das Flimmern auch bei NV selten oder kontentabhängig.

Hakkerstiwwel
2006-04-19, 09:22:05
@Raff
aktivierst AF ingame, oder ueber das CCC. Ingame kann manchmal die Differenz ausmachen, die du zwischen AI on/off siehst.
Was mich mehr stoert, ist dass bei den R5x0 die verbesserte LOD Berechnung oefters mal schlechter funktioniert als bei der R420, schoen zu sehen bei B&W2, wo ich beim ranzoomen oefters mal totalen Matsch erhalte, zoome ich dann wieder zurueck und wieder ran, ist die Szene ploetzlich glasklar...

Ri*g*g*er
2006-04-19, 10:59:40
Hi all,

Also ich hatte eine GeForce 6800 GT und eine ATI X 850 XT und da war auf jeden Fall die ATI in der Bildqualität und Geschwindigkeit besser.

Nun hab ich eine X1900 XT im Rechner und AAA und HighQ AF sind jawohl mehr als genial.
Es gibt halt jede Menge Schalter und Einstellmöglichkeiten da muss man testen bis der Arzt kommt.
Am besten sein Lieblingsspiel.

Aber noch mal zu WoW und Raff zurück:

Was hast Du mit den InGame WoW Settings gemacht ?
Da gibt es nämlich eine wesentliche Möglichkeit auf die Bildqualität Einfluss zu nehmen. Diese wird auch nicht -deaktiviert- wenn man es über den Treiber forciert. Probiere da mal ein wenig rum.

Mfg
Ri*g*g*er

Gast
2006-04-19, 11:07:16
...
Bei Nvidia geht SSAA immer – ein Pluspunkt, der für die absolut beste BQ gerade so reicht.
...

MfG,
Raff
Das ist nicht Dein Ernst, oder etwa doch? Hast Du schonmal die Bildqualität bei GTR / GTL / MotoGP auf einer GeForce6/7 mit SSAA gg. X800/1800 mit MSAA verglichen? Oder versuche mal den FM06 / Fifa06 zu vergleichen. Ein vom Blickwinkel abhängiges Flimmern der Linien (Strecken- bzw. Spielfeldbegrenzung) tritt bei den Radeons nicht auf, bei den GeForce-Karten ist es selbst mit 16xAA nicht weg zu bekommen. Trotz der bekannten Überlegenheit von effektivem SSAA ggü. effizientem MSAA.

Das ATI mit aktivierten "Optimierungen" eine schlechtere Texturqualität liefert als ohne ist doch völlig axiomatisch. In der Tat wäre es wünschenswert die sinnvollen Optimierungen von den Bildverschlimmerungs-Optimierungen zu trennen, keine Frage.

Aber pauschale Aussagen darüber, welche(r) Grafikkarte(nhersteller) die bessere Bildqualität hat, würde ich mir nicht anmaßen wollen. Die (wenn auch meist inoffiziellen) Hybrid-AA-Modi mit SS-Anteil von nVidia sind ein Vorteil, ebenso die Möglichkeit Alphatest-Texturen per SSAA zu "behandeln", was komplettes SSAA eigentlich überflüssig macht. Bei ATI stehen u.a. der großartige 6xMSAA-Modus und Area-AF auf der Habenseite.

Einen generellen Vorteil sehe ich bei keinem der beiden, daher kann auch keine Seite fehlerfrei sein. Auf pauschale Aussagen, wie Grafikkarte XY hat die beste Bildqualität / ist die schnellste kann man nie etwas geben.

TheBrother
2006-04-19, 11:36:32
Hoi,

Ich muss doch zugeben dass ich gerade durch die 3DC-Artikel was BQ angeht einiges "empfindlicher" geworden bin. Früher ist mir das einfach nie aufgefallen - warum? weil ich nichts besseres gewohnt war. Doch nach 500 Threads mit "ui das krieseln, schwabbeln, Bugwelle wegen überfilterung" usw usf... Naja dann schaut man schon genauer hin.

Aber: das alles ist sehr sehr subjektiv. Es gibt (leider) keinen standard an dem man sich messen kann. da helfen auch keine NV<->ATI Vergleiche weil jeder Treiber, jeder Hersteller (sogar teilweise jede Graka Generation) anders Rendert, und es einfach keinen Optimalen Qualitäts Standard gibt. Möglich wäre sowas vielleicht mit einem selbst programmierten Software Renderer der nur für BQ Zwecke einzelne Frames bzw Sequenzen berechnet.
Vielleicht wäre so ein sinnvoller Vergleich möglich. - Doch im Moment ist das meiner Meinung nach alles recht sinnfrei, weil es einfach keine eindeutigen Vergleichsmöglichkeiten gibt.

Gruß

Brother

Saw
2006-04-19, 11:48:20
Tja, das ist wohl die Frage: Wird nun gemogelt bei der Bildqualität oder nicht?

Odal
2006-04-19, 11:53:27
naja ich wär ja dafür das Microsoft da was macht...

z.b. in die DX9 bzw. DX10 Spezifikation AF mitaufnehmen und winkelunabhängiges 4xAF in Hardware fordern...sonst bekommen die GPUs einfach keine DX Segnung

dann bei der WHQL Zertifizierung jeden Treiber auf Filtercheats untersuchen, und gegebenfalls die WHQL Zertifizierung verweigern....
oder halt irgend ein anderes BQ Zertifizat..auf jedenfall muss das eine dritte unabhängige Instanz steuern.

The_Invisible
2006-04-19, 15:32:46
bei meinem geliebten "Zelda - OoT" + Highres Texturpack flimmert selbst 4x4SSAA + HQ noch ;D aber damit meine ich richtiges flimmern, nicht wie manche hier die 1pixel an der falschen stelle gleich als "mörderflimmern und die welt geht gleich unter" ansehen

könnte auch ein video machen, dann sehen die meisten mal "richtiges" flimmern :D

mfg

Die gelbe Eule
2006-04-19, 15:41:46
Irgendwie driftet der Thread wieder in 343242342423 OTs ab ...

Raff
2006-04-19, 17:53:43
Hehe. War klar, dass da Protest kommt. Sorry, aber ich hätte mir auch gewünscht, dass der R520 mit A.I. so aussieht wie mein R350, aber eben mit 3x so viel Fps ...

@Raff
aktivierst AF ingame, oder ueber das CCC. Ingame kann manchmal die Differenz ausmachen, die du zwischen AI on/off siehst.
Was mich mehr stoert, ist dass bei den R5x0 die verbesserte LOD Berechnung oefters mal schlechter funktioniert als bei der R420, schoen zu sehen bei B&W2, wo ich beim ranzoomen oefters mal totalen Matsch erhalte, zoome ich dann wieder zurueck und wieder ran, ist die Szene ploetzlich glasklar...

Aber noch mal zu WoW und Raff zurück:

Was hast Du mit den InGame WoW Settings gemacht ?
Da gibt es nämlich eine wesentliche Möglichkeit auf die Bildqualität Einfluss zu nehmen. Diese wird auch nicht -deaktiviert- wenn man es über den Treiber forciert. Probiere da mal ein wenig rum.

Mfg
Ri*g*g*er

16xHQ-AF via CCC, Catalyst 6.4 WHQL, MSAA im Spiel. Im Grafikmenü steht selbstredend alles am Anschlag, inklusive des Hakens bei "trilinearer Filter" sowie einem deaktivierten LOD-System. Es gibt doch nichts zu zweifeln, wenn A.I. off in Bewegung besser aussieht als die Konkurrenz, oder? Nur wenn es aktiv ist, dann mag ich meckern ...

Nie habe ich die Koppelung von Shader-Replacements und Filtersparmaßnahmen mehr verflucht!

MfG,
Raff

Mr. Lolman
2006-04-20, 00:36:42
16xHQ-AF via CCC, Catalyst 6.4 WHQL, MSAA im Spiel

Stell mal AAA/AF komplett im CCC (oder ATT) ein.

Zumindest bei Farcry hab ich die Erfahrung gemacht, dass zB das Wasser mit CCCAF viel (!!!) besser aussieht, als mit AppAF. Nämlich eben genau so schön geglättet wie auf den von mir gezeigten Screenshot(ausschnitten).

Bröslig ists nur mit AppAF. Ist vll. bei WoW ähnlich, oder liegts, meinst du, wirklich bloß am AI?. Denn ich spiel zwar kein WoW, aber bei anderen Spielen fiel mir AI bis jetzt nicht negativ auf...

Hakkerstiwwel
2006-04-20, 08:39:14
Stell mal AAA/AF komplett im CCC (oder ATT) ein.

Zumindest bei Farcry hab ich die Erfahrung gemacht, dass zB das Wasser mit CCCAF viel (!!!) besser aussieht, als mit AppAF. Nämlich eben genau so schön geglättet wie auf den von mir gezeigten Screenshot(ausschnitten).

Bröslig ists nur mit AppAF. Ist vll. bei WoW ähnlich, oder liegts, meinst du, wirklich bloß am AI?. Denn ich spiel zwar kein WoW, aber bei anderen Spielen fiel mir AI bis jetzt nicht negativ auf...
AppAF = tri auf allen Stages
CCCAF = bri auf allen Stages
da leider viele Games kein AppAF anbieten ist man hier der gebuerstete.
Ati sollte zumindest bei AreaAF, welches ja hoechste Qualitaet bieten sollte, full-tri filtern.

AYAlf
2006-04-20, 08:51:28
bestimmt haben beide firmen nicht die optimale bildqualitaet im auge .. sondern die geschwindigkeit.

aber sein wir doch mal ehrlich .. die bildqualitaet von einer nvidia ist wesentlich schlechter !
wer das nicht sieht braucht echt ne brille.

das kleinere uebel ist immer noch ati. ob mit oder ohne A.I.

r@w
2006-04-20, 09:29:36
aber sein wir doch mal ehrlich .. die bildqualitaet von einer nvidia ist wesentlich schlechter !
wer das nicht sieht braucht echt ne brille.
Irgendwie scheint der komplette Inhalt dieses Threads, wie auch der einleitende Post von Raff - ohne auch nur den gringsten Eindruck zu hinterlassen - vollständig an Dir vorbei gegangen zu sein. Das ist mal wirklich eine Leistung!

Du verköperst genau das, was Raff in seinem initialen Post anprengerte...

Razor

Nazar
2006-04-20, 09:36:38
Sowas von einem Mitglied der 3DCenter Crew... was ein Armutszeugnis!

Was soll das sein, wenn kein Aufruf zum Flameware?

Die Überschrift alleine ist schon ein Aufruf zum Flamen!

Traurig, wenn schon die MODs nicht mehr ihr Hirn einschalten bevor sie solche Threads starten.

Hier wird die Stellung dazu (aus)genutzt, um einen Thread zu starten, der ansonsten SOFORT von einem MOD geclosed würde!

Was soll alleine die Bemerkung "ATI flimmert auch"?
Ich kenne keinen, der das nicht schon erwähnt hat.. mal mehr mal weniger stark!
Das ganze wurde schon 1000 mal durchgekaut von allen Seiten beleuchtet und es wurde festgestellt, dass alle nur mit Wasser kochen.
Trotz allem wird hier nun wieder unterschwellig die BQ von NV und ATI in speziellen Spielen miteinander verglichen, wo beide Karten ihre Probleme haben. Leider wird ausser acht gelassen, dass die mehrzahl der Spiele auf der ATI wirklich besser aussehen.

Weshalb aber nun wieder mal aus ein "mehrzahl der Spiele" ein "ATI ist immer besser und das stimmt so nicht" gemacht wird, kann nur den Schluß auf Flameware zulassen.. oder langer Weile..?

@MR. Raff.. du solltest dein unüberlegtes Fanboygequatsche schnellstens löschen, da du deinem und vorallem dem Ansehen der 3DCenter Crew, mit so einem geflame nur schadest.

Dieser Thread sollte vielen eine Lehre sein... wir sind alle nur Menschen und Macht wird oft mißbraucht!

JaDz
2006-04-20, 09:57:49
... Traurig, wenn schon die MODs nicht mehr ihr Hirn einschalten bevor sie solche Threads starten ...
Raff ist neuerdings Mod? Armer Raff. So eine Arbeit würde ich mir nicht aufhalsen.;)

robbitop
2006-04-20, 10:42:31
Sowas von einem Mitglied der 3DCenter Crew... was ein Armutszeugnis!
So einen Mist kann ich nicht mehr hören!

Die Crewmember schreiben ausschließlich Artikel. Das hat mit dem Forum (bis auf das 3DC Unterforum) gar nichts zu tun. Hier darf und soll jeder seine eigene Meinung sagen. Natürlich gilt das was du anprangerst eher für Mods (die widerum nichts mit der Seite zu tun haben). Das betrifft zwar dann auch Raff, aber nicht mehr den Rest der reinen Crew.
Allerdings lag es nicht in Raffs Absicht, hier eine destruktive Diskussion anzuzettlen, was auch seinem Eingangspost zu entnehmen ist.
Ich als R5xx Besitzer, ohne viel Zeit zum Testen der BQ, habe aus seiner "Untersuchung" (welche sicherlich eher subjektiven charakter besitzt) einiges gelernt. Und gerade für Raff lege ich meine Hand ins Feuer, dass er einer der wenigen Leute ist, der neutral an die Sache herangeht.

Zum Wort "Armutszeugnis" muss ich wohl nichts mehr sagen? :|

Gast
2006-04-20, 11:51:03
AppAF = tri auf allen Stages
CCCAF = bri auf allen Stages
da leider viele Games kein AppAF anbieten ist man hier der gebuerstete.
Ati sollte zumindest bei AreaAF, welches ja hoechste Qualitaet bieten sollte, full-tri filtern.

seit der R4xx-reihe (bzw. eigentlich schon auf der radeon 9600) gibt es bei ATI mit aktiviertem AI praktisch immer nur brilinear.

außnahmen gibt es nur bei großen unterschieden zwischen den mips, oder anders ausgedrückt bei color-mips.

deekey777
2006-04-20, 12:39:50
Sowas von einem Mitglied der 3DCenter Crew... was ein Armutszeugnis!

Was soll das sein, wenn kein Aufruf zum Flameware?

Die Überschrift alleine ist schon ein Aufruf zum Flamen!

Traurig, wenn schon die MODs nicht mehr ihr Hirn einschalten bevor sie solche Threads starten.

Hier wird die Stellung dazu (aus)genutzt, um einen Thread zu starten, der ansonsten SOFORT von einem MOD geclosed würde!

Was soll alleine die Bemerkung "ATI flimmert auch"?
Ich kenne keinen, der das nicht schon erwähnt hat.. mal mehr mal weniger stark!
Das ganze wurde schon 1000 mal durchgekaut von allen Seiten beleuchtet und es wurde festgestellt, dass alle nur mit Wasser kochen.
Trotz allem wird hier nun wieder unterschwellig die BQ von NV und ATI in speziellen Spielen miteinander verglichen, wo beide Karten ihre Probleme haben. Leider wird ausser acht gelassen, dass die mehrzahl der Spiele auf der ATI wirklich besser aussehen.

Weshalb aber nun wieder mal aus ein "mehrzahl der Spiele" ein "ATI ist immer besser und das stimmt so nicht" gemacht wird, kann nur den Schluß auf Flameware zulassen.. oder langer Weile..?

@MR. Raff.. du solltest dein unüberlegtes Fanboygequatsche schnellstens löschen, da du deinem und vorallem dem Ansehen der 3DCenter Crew, mit so einem geflame nur schadest.

Dieser Thread sollte vielen eine Lehre sein... wir sind alle nur Menschen und Macht wird oft mißbraucht!
Achte auf deine Wortwahl!

Vertigo
2006-04-20, 12:54:42
...
Allerdings lag es nicht in Raffs Absicht, hier eine destruktive Diskussion anzuzettlen, was auch seinem Eingangspost zu entnehmen ist.
...

Was denn sonst?


Die Leute scheinen bei ATi echt nicht zu gucken. ... Ich greife mir mittlerweile echt an den Kopf, wenn ich höre, dass Nvidia flimmert wie Sau ...

Mein R520 öffnete mir die vermeintlich NV40-geschädigten Augen: ATi kocht auch nur mit Wasser. ... Im Kampf zwischen A.I. on vs. Nvidia-HQ kann letzteres auch besser aussehen. ... Bei Nvidias HQ ist zwar auch oft ein Flimmern/Grieseln präsent, aber lange nicht so kontrastreich ...

Bei Nvidia geht SSAA immer – ein Pluspunkt, der für die absolut beste BQ gerade so reicht.

...

MfG,
Raff



Mit solchen Fünkchen entstehen nunmal unweigerlich Flammen.

Odal
2006-04-20, 12:59:38
naja ganz glücklich gewählt ist raffs eingangspost nicht. Wenn man seine sonstigen Beiträge nicht kennt könnte man ihm böse Absichten unterstellen. Aber ich denke (genau wie robbitop) das raff hier einer der wenigen ist die versuchen objektiv an BQ vergleiche heranzugehen. Ob jetzt seine Aussage so verallgemeinert werden kann sei jetzt mal dahin gestellt. Fakt ist das im ATI A.I. zum teil Filtercheats verborgen sind...und fakt ist das das nicht in Ordnung ist beides nur gemeinsam aktivieren zu können.

Vertigo
2006-04-20, 13:04:29
... Fakt ist das im ATI A.I. zum teil Filtercheats verborgen sind...und fakt ist das das nicht in Ordnung ist beides nur gemeinsam aktivieren zu können.
Meine Rede - eine Trennung von sinnvollen Verbesserungen (wie Shader Replacement) und Bildverschlimmbesserungen wäre angebracht und sollte (programmier)technisch kein Problem sein. Aber aus Marketingsicht? "Catalyst A.I." klingt doch klasse, oder? Ein einzelner Schalter und die künstliche Intelligenz regelt alles ... willkommen in der Matrix!

MikBach
2006-04-20, 13:12:53
Sowas von einem Mitglied der 3DCenter Crew... was ein Armutszeugnis!

Was soll das sein, wenn kein Aufruf zum Flameware?

Die Überschrift alleine ist schon ein Aufruf zum Flamen!

Traurig, wenn schon die MODs nicht mehr ihr Hirn einschalten bevor sie solche Threads starten.

Hier wird die Stellung dazu (aus)genutzt, um einen Thread zu starten, der ansonsten SOFORT von einem MOD geclosed würde!

Was soll alleine die Bemerkung "ATI flimmert auch"?
Ich kenne keinen, der das nicht schon erwähnt hat.. mal mehr mal weniger stark!
Das ganze wurde schon 1000 mal durchgekaut von allen Seiten beleuchtet und es wurde festgestellt, dass alle nur mit Wasser kochen.
Trotz allem wird hier nun wieder unterschwellig die BQ von NV und ATI in speziellen Spielen miteinander verglichen, wo beide Karten ihre Probleme haben. Leider wird ausser acht gelassen, dass die mehrzahl der Spiele auf der ATI wirklich besser aussehen.

Weshalb aber nun wieder mal aus ein "mehrzahl der Spiele" ein "ATI ist immer besser und das stimmt so nicht" gemacht wird, kann nur den Schluß auf Flameware zulassen.. oder langer Weile..?

@MR. Raff.. du solltest dein unüberlegtes Fanboygequatsche schnellstens löschen, da du deinem und vorallem dem Ansehen der 3DCenter Crew, mit so einem geflame nur schadest.

Dieser Thread sollte vielen eine Lehre sein... wir sind alle nur Menschen und Macht wird oft mißbraucht!
Ich glaube da hast du Raff missverstanden.
Es wird sicherlich niemand bestreiten, dass ATI zu Zeit die bessere BQ bietet. Raff wollte nur darauf hinweisen, und das mit recht, dass es bei ATI ab und an auch Probleme mit der BQ gibt.

Kommt zwar nicht so oft wie bei NV vor und vielleicht auch nicht so extrem. Dass es Probleme gibt, ist jedoch nicht abzustreiten.

BH abgemeldet
2006-04-20, 13:27:27
Irgendwie scheint der komplette Inhalt dieses Threads, wie auch der einleitende Post von Raff - ohne auch nur den gringsten Eindruck zu hinterlassen - vollständig an Dir vorbei gegangen zu sein. Das ist mal wirklich eine Leistung!

Du verköperst genau das, was Raff in seinem initialen Post anprengerte...
Das ist gut. Denn worum geht es hier? Seit Hunderten von Jahren - oder waren es Tausende? - ist der letzte ATI-Fanboy der Meinung, daß es schon fein wäre, wenn man bei AI die Fixes und die 'normalen' Leistungoptimierungen von den Filtertricks trennen könnte. Nichts neues also.

Ebenfalls bestreitet der letzte NV-Fanboy nicht mehr, daß die Renderquali unter 'Quality' schlechter ist als bei ATI mit AI_low. Unabhängig davon, ob er sich dran stört oder nicht. Nichts neues also.

Alle außer Raff wissen es, daß alle sich bewußt sind, daß AI u.a. ein AF-Cheat ist und es nicht besser sein kann als wu-TriAF. Seit Monaten keinen Post gesehen wo jemand behaupten würden, AI_low flimmert absolut nicht. Mit AI_low befindet man sich halt weit vor NV-Quality und kurz vor NV-HighQuality. Mit mäßig +FPS im Rücken. Ebenfalls nichts neues.

Keiner weiß was mit HQ umgestellt wird. Die Karten - NV40, G7x hat noch genug Power für das aktuelle Content - brechen teils so furchtbar ein, daß man es imho kaum nur dem TriAF zuschreiben könnte. Das kriegt man bei ATI sogar selten mit AI_off hin. Was WIRKLICH unter IA passiert weiß auch keiner hier. Nichts neues leder. Eine Disku darüber fände ich wesentlich interessanter als das hier.

Welche Disku des letzten Monate (?) Raff dazu bewegt hat, 04.2006 einen Thread mit dem Inhalt 'Guckt doch mal genauer hin, AI_low kann auch flimmern' kann ich also nicht nachvollziehen.

Was an AI nicht gefällt ("Bündelung") wird wie gesagt seit Urzeiten aufgezeigt. Was gefällt, ist, daß man sich das im Gegensatz zu Quality bei nachlassender Leistung (FPS) noch gut ziehen kann. Deswegen findet man es gut. Nicht, weil es maximale VPU-Leistung flimmerfrei ermöglicht.

Wie das imho Ideal auszusehen hat, zeigt ATT mit seinen AF Modis. Welche aber unverschämtrerweise, seitens ATI, je nach dem nicht mit jedem Cat und nicht mit jedem Chip 100% funktionieren: Performance, Quality, Quality /w Tri, HighQuality AF (wu).

@Nazar
Das war extrem schwach. Sorry.

HOT
2006-04-20, 13:30:26
Ich hatte nach meiner 6800GT eine X850XT und nun eine X1900XTX im Rechner. Schon bei der X850XT kam es mir so vor, als hätte ich flimmern im Bild, und so war es dann auch, vor allem in WoW. Das hat sich mit der X1900XTX nicht geändert. Jedoch empfinde ich das Flimmern nicht schlimmer als bei der 6800GT damals, ist in etwa ähnlich.
Das eingentlich Schlimme dabei ist, dass ausgerechnet WoW jetzt ein Spiel ist, bei dem die Filtergeschwindigkeiten bei solchen Karten (schon bei der 6800GT) sowas von egal ist, da es eh kaum Leistung benötigt. Bei FEAR und Oblivion sind mir jedoch keine Optimierungen aufgefallen.

HOT
2006-04-20, 13:33:32
Das ist gut. Denn worum geht es hier? Seit Hunderten von Jahren - oder waren es Tausende? - ist der letzte ATI-Fanboy der Meinung, daß es schon fein wäre, wenn man bei AI die Fixes und die 'normalen' Leistungoptimierungen von den Filtertricks trennen könnte. Nichts neues also.

Ebenfalls bestreitet der letzte NV-Fanboy nicht mehr, daß die Renderquali unter 'Quality' schlechter ist als bei ATI mit AI_low. Unabhängig davon, ob er sich dran stört oder nicht. Nichts neues also.

Alle außer Raff wissen es, daß alle sich bewußt sind, daß AI u.a. ein AF-Cheat ist und es nicht besser sein kann als wu-TriAF. Seit Monaten keinen Post gesehen wo jemand behaupten würden, AI_low flimmert absolut nicht. Mit AI_low befindet man sich halt weit vor NV-Quality und kurz vor NV-HighQuality. Mit mäßig +FPS im Rücken. Ebenfalls nichts neues.

Keiner weiß was mit HQ umgestellt wird. Die Karten - NV40, G7x hat noch genug Power für das aktuelle Content - brechen teils so furchtbar ein, daß man es imho kaum nur dem TriAF zuschreiben könnte. Das kriegt man bei ATI sogar selten mit AI_off hin. Was WIRKLICH unter IA passiert weiß auch keiner hier. Nichts neues leder. Eine Disku darüber fände ich wesentlich interessanter als das hier.

Welche Disku des letzten Monate (?) Raff dazu bewegt hat, 04.2006 einen Thread mit dem Inhalt 'Guckt doch mal genauer hin, AI_low kann auch flimmern' kann ich also nicht nachvollziehen.

Was an AI nicht gefällt ("Bündelung") wird wie gesagt seit Urzeiten aufgezeigt. Was gefällt, ist, daß man sich das im Gegensatz zu Quality bei nachlassender Leistung (FPS) noch gut ziehen kann. Deswegen findet man es gut. Nicht, weil es maximale VPU-Leistung flimmerfrei ermöglicht.

Wie das imho Ideal auszusehen hat, zeigt ATT mit seinen AF Modis. Welche aber unverschämtrerweise, seitens ATI, je nach dem nicht mit jedem Cat und nicht mit jedem Chip 100% funktionieren: Performance, Quality, Quality /w Tri, HighQuality AF (wu).

@Nazar
Das war extrem schwach. Sorry.

Wirklich gutes Posting und volle Zustimmung.

The_Invisible
2006-04-20, 13:36:47
ich bin der meinung das man auch mal nen artikel ala "ATI und BQ" rausbringt, aber wahrscheinlich gibts da vorher noch zig nvidia artikel bevor sowas geschieht :rolleyes:

und an genau dieser situation kann man auch schon sehen warum soviel negatives über nvidia geredet wird und ati als unschuldslamm dasteht, vor allem in diesem forum ist es extrem...

mfg

Gast
2006-04-20, 13:40:56
Mit AI_low befindet man sich halt weit vor NV-Quality und kurz vor NV-HighQuality. Mit mäßig +FPS im Rücken. Ebenfalls nichts neues.Wo wurde denn genau dies (AI_low kurz vor nV-HQ) wirklich so genau untersucht, dass Du es hier als bekannten, unverrückbaren Fakt hinstellst?

MikBach
2006-04-20, 13:50:45
ich bin der meinung das man auch mal nen artikel ala "ATI und BQ" rausbringt, aber wahrscheinlich gibts da vorher noch zig nvidia artikel bevor sowas geschieht :rolleyes:
Gab es doch schon:
http://www.3dcenter.de/artikel/2003/11-21_a.php
Seit dem hat sich nicht viel geändert, die BQ ist dank AREA-AF (etwas) besser geworden.

und an genau dieser situation kann man auch schon sehen warum soviel negatives über nvidia geredet wird und ati als unschuldslamm dasteht, vor allem in diesem forum ist es extrem...

mfg
Wird wohl daran liegen, dass in diesem Forum eher weniger Daus unterwegs sind und die Leute das Flimmern hier besser einschätzen können, als in irgendwelchen Dau-Foren.

Wo wurde denn genau dies (AI_low kurz vor nV-HQ) wirklich so genau untersucht, dass Du es hier als bekannten, unverrückbaren Fakt hinstellst?
http://www.3dcenter.de/artikel/g70_flimmern/index2.php

Odal
2006-04-20, 13:57:03
Das eingentlich Schlimme dabei ist, dass ausgerechnet WoW jetzt ein Spiel ist, bei dem die Filtergeschwindigkeiten bei solchen Karten (schon bei der 6800GT) sowas von egal ist, da es eh kaum Leistung benötigt. Bei FEAR und Oblivion sind mir jedoch keine Optimierungen aufgefallen.

nur bei WoW zu cheaten und woanders nicht ergibt für ATI keinen sinn....1. ist WoW wie du sagst eh schnell genug...und 2. hab ich noch nicht eine Seite gesehen die WoW gebencht hat.

Da du ja davon sprachst das dieses "Flimmern" bei allen deinen drei Karten (6800GT, X800 X1900XT) ähnlich ist, geh ich hier von einem Contentbasiertem Flimmern aus und nicht von einem Flimmern durch Treiber"optimierungen"

aber ich hab WoW nicht (mehr) und kann es daher nicht selbst untersuchen, sondern muss mich auf die hier gemachten Aussagen stützen.

Gast
2006-04-20, 14:05:36
Das Flimmern bei WoW liegt auf jeden Fall am Content. Auf meiner 6800GT flimmern die Texturen ohne AF sogar mehr als mit (kein Witz, getestet mit HQ in den Treibereinstellungen und Ingame-AF).

derMeister
2006-04-20, 14:33:39
Vergleicht mal beim 3Dmark05 und 06 jeweil bei Canyon Flight das Vorderteil ( Bug ) vom Schiff. Die Holztexturen flimmern da sehr stark, beim 06 dagegen überhaupt nicht, am Treiber kann es nicht liegen wohl eher am 3Dmark selber.
Hab es auch schon an der X850 beobachtet, aber nur beim 05, unabhängig vom Treiber damals.
Bei der FX5900 hatte ich dieses Texturgeflimmer auch beim 05, da viel es nur nicht so auf weil das so Arschlahm ablief.

Gast
2006-04-20, 15:25:37
Ati kocht auch nur mit Wasser, das ist klar.

Und da das Flimmern nur subjektiv aufgefasst werden kann, kann man auch keine Vergleiche ziehen, die vollkommen objektiv sind.
Hinzu kommt noch das viele niemals ein Bild auf eine NV-Karte bzw. ATI-Karte betrachten konnten und daher auf "kompetente" und "seriöse" Berichte und Meinungen vertrauen.
Das muss nicht unbedingt falsch sein, zeigt aber wiedermal die Ahnungslosigkeit Vieler, die blind vertrauen und überhaupt keine Vergleiche ziehen.

Aber ich finde ehrlich gesagt endlich mal kommen musste.
Irgendwann wird auch ATI das Ziel vom Geflame werden, wie jetzt.
Eine objektive Meinung kann ich selber nicht geben, da ich selber eine ATI-Karte habe und seit über 5 Jahren keine NV-Karte besessen hatte.

@Nazar:
Jo es klingt wirklich etwas nach NV-Fanboy, bis jetzt wurde auch noch nicht das Gegenteil bewießen, aber Mr.Raff hat Recht.
ATI benutzt Filtertricks und versteckt diese einfach besser.
Naja hab mal was gefunden wenn es etwas bringt:

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/bericht_versteckspiele_atis_texturfilter/

Saw
2006-04-20, 15:30:25
Hier eine offizielle Stellungnahme von ATI

http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/offizielles_ati-statement_texturfilterung/

PingpiN
2006-04-20, 15:34:42
Hier eine offizielle Stellungnahme von ATI

http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/offizielles_ati-statement_texturfilterung/

Von 2004 was soll uns das sagen.

Banshee18
2006-04-20, 16:47:30
Raff vorzuwerfen, er sei ein Fanboy, ist so ziemlich das Lächerlichste, was man behaupten kann. Wer sowas behauptet, kennt ihn nicht.

AppAF = tri auf allen Stages
CCCAF = bri auf allen Stages
Beziehst du das auf Far Cry?
Jedenfalls ist App-AF nicht immer optimal. Schaut euch z.B. mal CoD2 mit App-AF an, ein schlimmeres Flimmern habe ich noch nirgends gesehen. *würg* Wenn man AF außerhalb einstellt (mit A.I. low), sieht es gut aus.

Gast
2006-04-20, 16:50:07
Gab es doch schon:
http://www.3dcenter.de/artikel/2003/11-21_a.php
Seit dem hat sich nicht viel geändert, die BQ ist dank AREA-AF (etwas) besser geworden.


seit damals hat sich sogar sehr viel geändert, einerseits zum schlechteren (brilinear, eventuell unterfilterung seit R4xx (eigentlich schon seit der 9600)), andererseit aber auch deutlich zum besseren (AreaAF, genauere LOD-berechnung seit R5xx)

Raff
2006-04-20, 16:56:19
Nun ist es raus: Ich bin ein Nvidia-Fanboy übelster Sorte. Meine Tarnung war allerdings bisher so perfekt, dass ich mehrheitlich für einen ATi-Fanboy gehalten wurde. Komisch.

Mal Ernst beiseite: Kritik an zweifellos vorhandenen Mängeln zeugt nicht von Parteilichkeit, sondern von Augengebrauch. Und wenn dauernd ein Hersteller für bei beiden auftretende BQ-Mängel zur Sau gemacht wird, dann muss ich meckern. Übrigens sind Diskussionen um meine Person samt "Macht" (;D) hier nicht so ganz das Topic. Morddrohungen nehme ich seit jeher gerne per PN entgegen. ;)

Aber ein Dank an alle, die "an mich glauben". :)

_____________________________________________________________________

Topic: Ich traue App-AF nicht. Dass letzteres kategorisch tri-AF liefern soll, wäre zwar schön, ist aber definitiv nicht so. Das habe ich erst gestern bei F.Ü.N.F. gesehen: bi-AF, oder sonstwas abgespecktes, jedenfalls mit sichtbaren MIP-Übergängen. Forciert via CCC gab es trilinear, sogar mit A.I. ;)

MfG,
Raff

4 Vitamins
2006-04-20, 16:57:51
Mal ne DAU frage, warum, da manche behaupten ATI Filter sind "optimiert", flimmert es nicht bei allen spielen :confused:
Entweder ist etwas schlecht, dann muss es bei allen spielen schlecht sein oder es ist gut und es liegt an den spielen dass es flimmert, nicht an dem AF.......bitte um aufklärung.

gruss

dilated
2006-04-20, 17:02:21
a.i low einschalten... soo viel bringt das ai eh nicht

es liegt an beidem spiel und graka

der ganze thread is witzlos....

Gast
2006-04-20, 17:14:16
Mal ne DAU frage, warum, da manche behaupten ATI Filter sind "optimiert", flimmert es nicht bei allen spielen :confused:


auch NV-optimierungen flimmern nicht in allen spielen ;)

schon alleine das ausschalten der AF-sample-optimierung kann das flimmern in vielen spielen elliminieren.

es kommt immer auf den content an wieviele der optimierungen man (praktisch) nicht sieht.

tritt beispielsweise der extremfall ein dass nur einfärbige texturen verwendet werden kannst du die filter soviel optimieren wie du willst und es wird nicht der geringste unterschied auftreten, egal ob du point-sampling oder 16xAF verwendest. (der spieledesigner der einfärbige texturen filtern lässt, bzw. dafür überhaupt texturen verwendet, gehört allerdings auch erschossen ;) )

im anderen extremfall (z.b. ein schwarz-weiß-karo) kann der filter noch so gut sein, es wird trotzdem flimmern (oder extrem unscharf sein)

da nicht alle texturen den filter 100%ig ausreizen nimmt man ein gewisses maß an optimierungen nicht wahr.

4 Vitamins
2006-04-20, 17:16:06
auch NV-optimierungen flimmern nicht in allen spielen ;)

schon alleine das ausschalten der AF-sample-optimierung kann das flimmern in vielen spielen elliminieren.

es kommt immer auf den content an wieviele der optimierungen man (praktisch) nicht sieht.

tritt beispielsweise der extremfall ein dass nur einfärbige texturen verwendet werden kannst du die filter soviel optimieren wie du willst und es wird nicht der geringste unterschied auftreten, egal ob du point-sampling oder 16xAF verwendest. (der spieledesigner der einfärbige texturen filtern lässt, bzw. dafür überhaupt texturen verwendet, gehört allerdings auch erschossen ;) )

im anderen extremfall (z.b. ein schwarz-weiß-karo) kann der filter noch so gut sein, es wird trotzdem flimmern (oder extrem unscharf sein)

da nicht alle texturen den filter 100%ig ausreizen nimmt man ein gewisses maß an optimierungen nicht wahr.

Danke. :)

TrigPe
2006-04-20, 17:17:39
Raff vorzuwerfen, er sei ein Fanboy, ist so ziemlich das Lächerlichste, was man behaupten kann. Wer sowas behauptet, kennt ihn nicht.


Beziehst du das auf Far Cry?
Jedenfalls ist App-AF nicht immer optimal. Schaut euch z.B. mal CoD2 mit App-AF an, ein schlimmeres Flimmern habe ich noch nirgends gesehen. *würg* Wenn man AF außerhalb einstellt (mit A.I. low), sieht es gut aus.

...dann probier mal FlatOut. :D

Hakkerstiwwel
2006-04-20, 17:27:22
....
Topic: Ich traue App-AF nicht. Dass letzteres kategorisch tri-AF liefern soll, wäre zwar schön, ist aber definitiv nicht so. Das habe ich erst gestern bei F.Ü.N.F. gesehen: bi-AF, oder sonstwas abgespecktes, jedenfalls mit sichtbaren MIP-Übergängen. Forciert via CCC gab es trilinear, sogar mit A.I. ;)

MfG,
Raff
arrgghhh....mein Fehler. Fordert die App nur Bi an gibt s natuerlich auch nur bi und kein tri. Fordert die App allerdings tri an bekommst du auch tri.
btw: afaik hat Demis D3D Tweaker auch ein Modul um bestimmte AF Modi zu forcen. Hast du schon mal damit rumgespielt?

Saw
2006-04-20, 17:53:37
Von 2004 was soll uns das sagen.
Ups, sorry. Mein Fehler. ;(

thade
2006-04-20, 17:57:59
Raff vorzuwerfen, er sei ein Fanboy, ist so ziemlich das Lächerlichste, was man behaupten kann. Wer sowas behauptet, kennt ihn nicht.


Raff ist ein Fanboy!

Ein 3dfx Boy, der gerne eine V5 6000 zur Frau haben möchte ;)

Banshee18
2006-04-20, 18:01:01
...dann probier mal FlatOut. :D
Habe ich gerade, ist ebenfalls schrecklich. Wie können die Entwickler sowas anbieten? Da ist ja Pointfiltering schöner.

Raff ist ein Fanboy!

Ein 3dfx Boy, der gerne eine V5 6000 zur Frau haben möchte ;)

Okay, da gebe ich dir sogar Recht. :biggrin:

PHuV
2006-04-20, 18:17:42
Die einzige Lösung für das Flimmerproblem:

Intern mit höheren Auflösungen rechnen und dann so darstellen, was die reale Auflösung hergibt, dann kann man sich das Filtern und rechnen sparen ;) . :biggrin:

Nichtsdestotrotz kann ich die ganze Diskussion nicht nachvollziehen, wenns ein bißchen flimmern solle (was ich bisher nicht nachvollziehen konnte), meine Güte, ist doch nicht das Drama, viel übler finde ich Fehldarstellungen und einbrechende Frameraten. Und um das Problem der Filterung in Verbindung einer mehr als ausreichenden Performance zu lösen, da müssen noch ein paar Jährchen ins Land gehen, bis die Rechenpower der GPU(s) so aussreichend ist, daß man sich nicht mehr mit all diesen Optimierungstricks behelfen muß und darauf verzichten kann. Ansonsten schätze ich mal, daß wir noch einige Jahre mit diesen Problemen leben müssen.

Raff
2006-04-20, 18:19:12
Raff ist ein Fanboy!

Ein 3dfx Boy, der gerne eine V5 6000 zur Frau haben möchte ;)

Im Rechner würde mir eigentlich schon reichen. ;) Sonst hast du Recht.

MfG,
Raff

Banshee18
2006-04-20, 18:24:47
Die einzige Lösung für das Flimmerproblem:

Intern mit höheren Auflösungen rechnen und dann so darstellen, was die reale Auflösung hergibt, dann kann man sich das Filtern und rechnen sparen ;) . :biggrin:
Das ganze nennt sich dann Supersampling und ist leider nicht umsonst.

Nichtsdestotrotz kann ich die ganze Diskussion nicht nachvollziehen, wenns ein bißchen flimmern solle (was ich bisher nicht nachvollziehen konnte), meine Güte, ist doch nicht das Drama, viel übler finde ich Fehldarstellungen und einbrechende Frameraten. Und um das Problem der Filterung in Verbindung einer mehr als ausreichenden Performance zu lösen, da müssen noch ein paar Jährchen ins Land gehen, bis die Rechenpower der GPU(s) so aussreichend ist, daß man sich nicht mehr mit all diesen Optimierungstricks behelfen muß und darauf verzichten kann. Ansonsten schätze ich mal, daß wir noch einige Jahre mit diesen Problemen leben müssen.
Vorausgesetzt, der Content ist nicht "böse", hat man mit ordentlicher, unoptimierter anisotroper Filterung immer ein flimmerfreies Bild. Das ist auch heute schon möglich auf ATI-Karten mit HQAF und A.I. off. Die heutige Performance ist nicht das Problem.

The_Invisible
2006-04-20, 18:36:41
die nvidia treiber default einstellung ist sowieso nicht optimal, wenn man die anisotropischen optimierungen ausschaltet siehts mit den texturen gleich viel besser aus (mit Q+TriOpt), bringen an performance tuts aber fast garnix (die af optimierungen)

mfg

Raff
2006-04-20, 19:34:11
Ati kocht auch nur mit Wasser, das ist klar.

Und da das Flimmern nur subjektiv aufgefasst werden kann, kann man auch keine Vergleiche ziehen, die vollkommen objektiv sind.
Hinzu kommt noch das viele niemals ein Bild auf eine NV-Karte bzw. ATI-Karte betrachten konnten und daher auf "kompetente" und "seriöse" Berichte und Meinungen vertrauen.
Das muss nicht unbedingt falsch sein, zeigt aber wiedermal die Ahnungslosigkeit Vieler, die blind vertrauen und überhaupt keine Vergleiche ziehen.

Naja, so ein paar Freaks (huhu) fahren eben Rot-Grün und können daher direkt vergleichen, was wo wie besser aussieht. Wenn ich hier beispielsweise meckere, dann kommt das nicht nur, weil ich ja so ein Fanboy bin. ;)

Dass BQ bzw. Flimmern stets subjektiv sein soll, finde ich nicht unbedingt. Natürlich ist die Bewertung von Grafik Geschmacksache und keineswegs an der Anzahl langer Pixel-Shader auszumachen, immerhin ist auch das Designen der Spielwelten eine Art Kunst. Aber gewisse Dinge sind immer "richtig". Dazu gehört z.B. dass die Texturen nicht flimmern (sollten), wenn der Filter sonst sauber arbietet, oder IMHO auch der Verzicht auf hässliche Alphatests. Das einzig subjektive daran bleibt, inwieweit der Mist das Individuum ankotzt – das meintest du wohl, ok.

arrgghhh....mein Fehler. Fordert die App nur Bi an gibt s natuerlich auch nur bi und kein tri. Fordert die App allerdings tri an bekommst du auch tri.
btw: afaik hat Demis D3D Tweaker auch ein Modul um bestimmte AF Modi zu forcen. Hast du schon mal damit rumgespielt?

Nope, aber die Idee hat was ... mal gucken. :)

Flimmern ist bei einem "sauberen" Texturfilter klar texturabhängig – Kieselboden in Half-Life 2 flimmert z.B. auch auf einer GeForce FX @ HQ. Dagegen hilft nur Super-Sampling.

Für Shader-Aliasing kann der Filter aber nichts. Wobei das durch MIP-Übergänge oder Unterfilterung auch stärker auffallen kann ... fiel mir bei Quake 4 und Quality-Spielereien mit meinem NV40 auf. Naja, NV-Treiberdefault verdient die Bezeichnung "Quality" schlicht und ergreifend nicht.

Wie auch immer: Je fieser/empfindlicher der Content, desto eher fallen die Optimierungen auf. World of WarCraft reagiert auf alles abseits des Filter-"Optimums" höchst allergisch. Dazu gehört eben auch A.I. Ist doch schön, wenn man neben Synthies solchen Real-World-Kram hat, der Sparmaßnahmen gnadenlos aufdeckt, oder? ;) Blöd ist nur, wenn man sich davon genervt fühlt ... so einer bin ich.

Das Problem ist im Übrigen nicht nur WoW ... das wäre ja noch zu verschmerzen. Blöderweise geht A.I. aber noch in anderen Spielen auf Kosten der BQ. Beweise? Ich versuche das gerade zu veranschaulichen ohne fette Videos zu machen ...

MfG,
Raff

MikBach
2006-04-20, 20:20:15
Naja, so ein paar Freaks (huhu) fahren eben Rot-Grün und können daher direkt vergleichen, was wo wie besser aussieht.
Eben. Außerdem hat man ja noch Freunde und Kollegen, wo man auch andere Karten testen kann...:)

Dass BQ bzw. Flimmern stets subjektiv sein soll, finde ich nicht unbedingt.
Ack. Wenn es flimmert, dann flimmert es. Punkt. Wenn jemand es nicht sieht, dann sollte sich dieser glücklich schätzen, aber sich auch nicht an solchen Diskussionen beteiligen. Es bringt nämlich ziemlich wenig einen Blinden nach dem schöneren Bild zu fragen...;)

Flimmern ist bei einem "sauberen" Texturfilter klar texturabhängig – Kieselboden in Half-Life 2 flimmert z.B. auch auf einer GeForce FX @ HQ. Dagegen hilft nur Super-Sampling.
Right. Kiesel- und Steintexturen sind sehr oft flimmeranfällig, auch bei Morrowind.

Für Shader-Aliasing kann der Filter aber nichts. Wobei das durch MIP-Übergänge oder Unterfilterung auch stärker auffallen kann ... fiel mir bei Quake 4 und Quality-Spielereien mit meinem NV40 auf. Naja, NV-Treiberdefault verdient die Bezeichnung "Quality" schlicht und ergreifend nicht.
Nvidia sollte die Default-Einstellung echt verbessern, denn mittlerweile scheint sich sogar bei den Daus herumgesprochen zu haben, dass ATI die bessere BQ hat.
Nicht dass die paar Prozentpunkte bei Benches nach hinten losgehen...

Wie auch immer: Je fieser/empfindlicher der Content, desto eher fallen die Optimierungen auf. World of WarCraft reagiert auf alles abseits des Filter-"Optimums" höchst allergisch. Dazu gehört eben auch A.I. Ist doch schön, wenn man neben Synthies solchen Real-World-Kram hat, der Sparmaßnahmen gnadenlos aufdeckt, oder? ;) Blöd ist nur, wenn man sich davon genervt fühlt ... so einer bin ich.
Wie siehts denn mit AI-off aus?
Ich glaube nicht, dass WoW Shaderreplacement braucht...:rolleyes:

Das Problem ist im Übrigen nicht nur WoW ... das wäre ja noch zu verschmerzen. Blöderweise geht A.I. aber noch in anderen Spielen auf Kosten der BQ. Beweise? Ich versuche das gerade zu veranschaulichen ohne fette Videos zu machen ...

MfG,
Raff
Dann bin ich mal gespannt. :)
Aber ohne Videos wirds schwierig...;)

Aquaschaf
2006-04-20, 21:11:16
Bei Warcraft 3 fällt die brilineare Filterung übrigens auch störend auf ;)

(del)
2006-04-20, 23:59:14
Das Problem ist im Übrigen nicht nur WoW ... das wäre ja noch zu verschmerzen. Blöderweise geht A.I. aber noch in anderen Spielen auf Kosten der BQ. Beweise? Ich versuche das gerade zu veranschaulichen ohne fette Videos zu machen ...
Ich muß sagen ich bin schwer enttäuscht, daß Dir mein Post (BH abgemeldet) für ein Replay nicht fein genug war :biggrin: So müßte man aber den Thread in dieser Form vielleicht ad acta legen. Das wäre natürlich doof ;)
Bissl schwierig wird es aber jetzt schon, da sich keine Birne findet die "Bei mir sieht damit alles wie mit AI_off/NV-HQ aus" behauptet.

Nun gut. Probier halt noch kleinwenig...

Angiesan
2006-04-21, 00:19:10
@raff,

schön es fällt auch mal einem auf, dem man hier kennt und auch zuhört.
Es gibt bei ATI mit AI low einige "Optimierungen" die nicht nur den AF Filter betreffen.
Ein Beispiel wo es mir erst nach einem direkten Vergleich aufgefallen ist war z.B. Fear
habe einfach nicht verstanden wie meine alte X800XT PE fast genauso schnell sein konnte wie meine zu diesenm Zeitpunkt brandneue 7800GTX .
Nachdem ich dan meinen Brüllwürfel(Barbone) mit X800 gleichzeitig an meinen TFT gehängt habe und einfach umschalten konnte waren die Unterschiede sofort erkennbar.
obwohl im Spiel gleiche Einstellungen gefahren wurden, waren die Beleuchtungsdetails nicht gleich!!!
Bei der X800 waren gerade die Stellen welche bei der 7800 sehr dunkel waren durch den Schattenwurf von Wänden sehr hell ohne eigentlich einen Schatten richtig darzustellen. Auf der anderen Seite sahen die Steinwände auf der ATI viel plastischer aus. Seltsam.
Ein anderes Bsp. wurde hier schon angeführt CoD2 das AF der ATI ist hier zumindest auf einem x800 im Spiel eingeschaltet wirklich bescheiden.
Und ja auch auf der HQ flimmern ab und zu die G70 bzw. G71
Ich glaube, die Luft bei den high End Karten ist so dünn geworden, dass Beide, ATI und NV in den so prestigträchtigen Benches nicht mehr ohne Optimierungen auskommen.
Das die IQ darunter leider nehmen Beide billigend in Kauf und wir die Spinner :-) die sich der high Endhardware verschrieben haben zahlen den Preis für unser stetiges Gieren nach noch mehr Leistung. Ich hoffe sehr, dass wenn die Rufe nach guter bis sehr guter IQ zunehemen wir nicht nur mehr Leistung bekommen sondern endlich auch sehr gute IQ.

Grüße

(del)
2006-04-21, 00:26:55
@raff,

schön es fällt auch mal einem auf, dem man hier kennt und auch zuhört.
Es gibt bei ATI mit AI low einige "Optimierungen" die nicht nur den AF Filter betreffen.
Ein Beispiel wo es mir erst nach einem direkten Vergleich aufgefallen ist war z.B. Fear
habe einfach nicht verstanden wie meine alte X800XT PE fast genauso schnell sein konnte wie meine zu diesenm Zeitpunkt brandneue 7800GTX .
Nachdem ich dan meinen Brüllwürfel(Barbone) mit X800 gleichzeitig an meinen TFT gehängt habe und einfach umschalten konnte waren die Unterschiede sofort erkennbar.
obwohl im Spiel gleiche Einstellungen gefahren wurden, waren die Beleuchtungsdetails nicht gleich!!!
Bei der X800 waren gerade die Stellen welche bei der 7800 sehr dunkel waren durch den Schattenwurf von Wänden sehr hell ohne eigentlich einen Schatten richtig darzustellen. Auf der anderen Seite sahen die Steinwände auf der ATI viel plastischer aus. Seltsam
Screenshots her.

Angiesan
2006-04-21, 00:39:20
Screenshots her.
Du meinst sicherlich die Screenshots von Fear?!!
Kann ich Dir zur zeit nicht liefern, da der Barbone teildemontiert in der Ecke steht und auf neuen Speicher wartet, da ich den für mein neues Sys gebraucht habe, werde aber Morgen mal ein paar savegames hochladen und es wird sich sicherlich ein x800 Besitzer finden der mal von den Stellen Screenshots machen kann denke nicht das es dort anderst aussieht
Ich erkläre mich gerne bereit die Screens von NV einzustellen, da mein aktuelles sys mit NV bestückt ist.

Grüße

dilated
2006-04-21, 00:49:33
Das Problem ist im Übrigen nicht nur WoW ... das wäre ja noch zu verschmerzen. Blöderweise geht A.I. aber noch in anderen Spielen auf Kosten der BQ. Beweise? Ich versuche das gerade zu veranschaulichen ohne fette Videos zu machen ...

MfG,
Raff
dann machs aus

AYAlf
2006-04-21, 10:14:02
Irgendwie scheint der komplette Inhalt dieses Threads, wie auch der einleitende Post von Raff - ohne auch nur den gringsten Eindruck zu hinterlassen - vollständig an Dir vorbei gegangen zu sein. Das ist mal wirklich eine Leistung!

Du verköperst genau das, was Raff in seinem initialen Post anprengerte...

Razor

ich glaube du hast nicht verstanden auf was raff hinaus will ... bitte lesen .. dann denken .. dann schreiben .. danke

FLAMEWAR

auf nix anderes hat es der thread ersteller abgesehen.

das sieht man schon an der wortwahl.

Vertigo
2006-04-21, 12:08:49
ich glaube du hast nicht verstanden auf was raff hinaus will ... bitte lesen .. dann denken .. dann schreiben .. danke

FLAMEWAR

auf nix anderes hat es der thread ersteller abgesehen.

das sieht man schon an der wortwahl.
Die Wortwahl ist in der Tat sehr unglücklich und wirkt auch recht einseitig - und ja, jeder normale User hätte sich mit solchen Äußerungen mindestens 7 Tage Auszeit eingehandelt. Na und? Das ändert doch an den Tatsachen nichts und man sollte doch versuchen über die eigentliche Thematik sachlich zu streiten, anstatt sinnlose Flames zu entzünden. Aber es scheint in diesem Forum generell nicht möglich zu sein, über irgendetwas mit sachlichen Argumenten zu diskutieren. Raff hat's ja auch nicht gerade versucht ...

][immy
2006-04-21, 12:10:47
nun ich muss sagen bis vor kurzem konnte ich das "flimmern" der texturen was hier einige beschreiben nicht wirklich nachvollziehen. allerdings habe ich auch bei meinem NV40 immer HQ eingestellt. zumindest bis oblivion kam und ich versuchte das spiel möglichst gut aussehen zu lassen und überall flüssig zu bekommen. also habe ich doch mal auf Quality umgestellt und bin in den städten fast aus den latschen gekippt (zum glück saß ich im stuhl :) ) als ich mich bewegte. der den schalter habe ich sehr schnell wieder auf HQ gestellt, weil die texturen so dermaßen am flimmern waren.

das das bei ATi nicht anders ist kann ich mir auch sehr gut vorstellen. dennoch fand ich die allgemeine qualität von ati besser als die von nvidia. mag vor allem damit zusammenhängen das ich mit ati-karten bisher sehr viel mehr bessere erfahrungen gesammelt habe. einzige was die auf jeden fall einführen sollten (neben einer flimmerfreiheit von texturen bei AI-on) wäre SSAA per treiber direkt unterstützt. ich versteh bisher immernoch nicht warum die das nicht reinbringen, wenn es doch unter linux schon längst geht. zwar würde die die füllrate extrem verringern, aber für alte spiele wäre es die beste wahl des AAs.

aber warum das flimmern bei ATi nicht so erwähnt wird hat wahrscheinlich auch die tatsache das ATi z.B. in den letzten generationen immer wieder die filterqualität ansich erhöht hat (z.B. die Radeon 8500er konnten nur bi AF). Inzwischen gibt es ja Area-AF usw, das wird denen in vielen tests wahrscheinlich als pluspunkt angerechnet während nvidia seit einiger zeit die BQ runterregelet und keine neuen features mehr in die treiber einbaut außer SLI-unterstützung, welche aber wohl für die wenigsten benutzer auch nur ansatzweise interessant sein dürfte.

SLI ist ja gut und schön, aber von optimierungen auf dieser seite haben nur die wenigsten user etwas.
zumindest habe ich in den letzten treiberreleases von nvidia kaum etwas gesehen außer das probleme mit SLI bereinigt wurden. Ältere Chips sind bei nvidia auch immer sehr kurzlebig in den treibern. zumindest schreibt ATi auch rein das probleme noch mit "ur"-alten radeon chips behoben wurden, was ich bei nvidia echt vermisse.
Ältere karten werden bei nvidia teilweise auch künstlich verlangsamt indem optimierungen rausfliegen, was aber auch zur besseren bildqualität beitragen kann, aber zu sehen wie eine GeForce 4 von treiber-release zu release immer langsamer wurde ist echt nicht wirklich schön. alte treiber sind gut und schön, aber die machen teilweise dann doch probleme mit neueren spielen.

was ich bei nvidia ebenfalls vermisse ist der korrekte support von auflösungen unter 640*480. da ich gerne noch ältere spiele spiele sind solche auflösungen keine seltenheit auf meinem pc. z.B. Dune 2000. nutzt leider nur 640*400 als auflösung. das dumme ist nur, das die bei meinem TFT als 640*360 ankommt oder sonst irgendwas in der richtung. sprich oben und unten fehlt was. und nein am TFT liegt es nicht. kaum hatte ich einen älteren grafikkartentreiber drauf lief es wieder. bei den ati-treibern konnte ich solche fehler bisher nicht feststellen. das komische an diesem problem ist, das es mit einem neueren treiber mal behoben ist und mit einem weiterem release wieder auftritt.

bei ATi stört mich an den treibern die abhängigkeit des neuen Control panels. ich hab zwar .Net ansich ganz gern, aber warum läuft das so mieß und verbrät noch so viel speicher. das alte war zwar nicht unbedingt schön, lief aber wenigstens problemlos.

4 Vitamins
2006-04-21, 12:26:36
dann machs aus

genau :wink:

Dieser Topic hätte einen Sinn wenn ATI bei A.I. OFF probleme hätte.
So weit ich hier gelesen habe , spricht ihr aber nur von A.I. standard oder Advance. Was ist verwunderlich dran, dass wenn ich A.I einschalte die Bildquali leidet....das ist doch klar das dann optimierungen greifen.
Dies diskussion dient nur der stimmungs mache.
Der einziege angebrachte vergleich wäre zwischen Default ATI: Default Nvidia,
welche Karte brinngt da kein optimum. (die antwort kennt schon jeder)
Soviel ich mit bekommen habe dient A.I zu verbesserung der Performance auf kosten der Qualität...........(bitte verbessern wenn es nicht stimmt.)

"Ich schalte Filteroptimierung ein und das Bild wird schlechter!!"
Ja hast du eine verbesserung erwartet :confused:

gruss

Gast
2006-04-21, 12:36:22
genau :wink:

Dieser Topic hätte einen Sinn wenn ATI bei A.I. OFF probleme hätte.
So weit ich hier gelesen habe , spricht ihr aber nur von A.I. standard oder Advance. Was ist verwunderlich dran, dass wenn ich A.I einschalte die Bildquali leidet....das ist doch klar das dann optimierungen greifen.Wie schon oft geschrieben, ist doch das Problem, dass AI off auch sehr sinnvolle Shader-Replacements, Bugfixes und insbesondere auch die CF-Profile abschaltet.

AI off ist also eigentlich nicht wirklich empfehlenswert. Es fehlt bei ATI die Möglichkeit, performance Optimierungen die zu Lasten der Bildqualität gehen, getrennt von allen anderen spieleabhängigen Optimierungen auszuschalten.

4 Vitamins
2006-04-21, 12:48:39
Wie schon oft geschrieben, ist doch das Problem, dass AI off auch sehr sinnvolle Shader-Replacements, Bugfixes und insbesondere auch die CF-Profile abschaltet.

AI off ist also eigentlich nicht wirklich empfehlenswert. Es fehlt bei ATI die Möglichkeit, performance Optimierungen die zu Lasten der Bildqualität gehen, getrennt von allen anderen spieleabhängigen Optimierungen auszuschalten.
Warum ist A.I Off nicht empfehlenswert???
Welche Filter einstellung ist bei ATI karten die mit der bessten QUALITÄT, (performance ausser acht gelassen).???

gruss

The_Invisible
2006-04-21, 12:51:22
Wie schon oft geschrieben, ist doch das Problem, dass AI off auch sehr sinnvolle Shader-Replacements, Bugfixes und insbesondere auch die CF-Profile abschaltet.

AI off ist also eigentlich nicht wirklich empfehlenswert. Es fehlt bei ATI die Möglichkeit, performance Optimierungen die zu Lasten der Bildqualität gehen, getrennt von allen anderen spieleabhängigen Optimierungen auszuschalten.

jop, aber anscheinend darf man hier ja ATI hard/software nicht kritisieren ohne gleich böse blicke zu bekommen bzw gleich zu behaupten das das hier ein flamethread wäre (der kennt raff nicht)

mfg

Vertigo
2006-04-21, 12:52:20
...
Es fehlt bei ATI die Möglichkeit, performance Optimierungen die zu Lasten der Bildqualität gehen, getrennt von allen anderen spieleabhängigen Optimierungen auszuschalten.
Das stimmt - leider. Aber AI off ist absolut empfehlenswert. Die Performanceunterschiede zu aktiviertem AI kann man eigentlich vergessen.

Gast
2006-04-21, 13:02:54
Warum ist A.I Off nicht empfehlenswert???Das habe ich doch geschrieben. Weil damit auch spezielle Bugfixes für einzelne Spiele, Performanceverbessernde Shaderreplacements bei identischer Qualität und die CrossFire-Einstellungen deaktiviert werden.

Welche Filter einstellung ist bei ATI karten die mit der bessten QUALITÄT, (performance ausser acht gelassen).???AI off. Aber nur dann, wenn das Spiel keine speziell zu beachtenden Bugs hat, man kein CF benutzt und man mit den teils herben Performance-Einbußen durch die fehlenden Shaderreplacements leben will.

Gast
2006-04-21, 13:03:32
Das stimmt - leider. Aber AI off ist absolut empfehlenswert. Die Performanceunterschiede zu aktiviertem AI kann man eigentlich vergessen.Das hängt vom Spiel ab (wie heftig Shaderreplacements eingesetzt werden) und natürlich gilt das nur, wenn man kein CF nutzt.

Vertigo
2006-04-21, 13:06:45
Das hängt vom Spiel ab (wie heftig Shaderreplacements eingesetzt werden) und natürlich gilt das nur, wenn man kein CF nutzt.
Also mit den Games, die ich so zocke macht es keinen entscheidenden Unterschied - über ein paar Prozente will ich nicht streiten.

4 Vitamins
2006-04-21, 13:13:23
AI off. Aber nur dann, wenn das Spiel keine speziell zu beachtenden Bugs hat, man kein CF benutzt und man mit den teils herben Performance-Einbußen durch die fehlenden Shaderreplacements leben will.

Tut mir leid aber von herben Performance-Einbußen, wenn man zwischen A.I. off und A.I. Standard wechselt, kann keine Rede sein. Es sind meistens 2-5% unterschied. Spiele immer A.I. off und bis jetzt sind mir zum glück keine bugs aufgefallen. Kann sein, dass es spiele gibt bei welchen mit A.I an, Bugs beseitigt werden. Ich kenne keine.

gruss

Vertigo
2006-04-21, 13:16:53
Tut mir leid aber von herben Performance-Einbußen, wenn man zwischen A.I. off und A.I. Standard wechselt, kann keine Rede sein. Es sind meistens 2-5% unterschied. Spiele immer A.I. off und bis jetzt sind mir zum glück keine bugs aufgefallen. Kann sein, dass es spiele gibt bei welchen mit A.I an, Bugs beseitigt werden. Ich kenne keine.

gruss
Unterschrift: Heinrich

Trennung

Generell finde ich, das Filteroptimierungen - egal ob rot oder grün - weit weniger Leistung bringen als sie Qualitätseinbußen verursachen.

JaDz
2006-04-21, 13:19:12
"Ich schalte Filteroptimierung ein und das Bild wird schlechter!!"
Ja hast du eine verbesserung erwartet :confused:

Mhm... wie der Name Optimierung nahelegt sollte ein optimierter Filter Texturen natürlich optimaler (auch besser genannt) filtern.:P;)

Vertigo
2006-04-21, 13:21:49
Mhm... wie der Name Optimierung nahelegt sollte ein optimierter Filter Texturen natürlich optimaler (auch besser genannt) filtern.:P;)
Diese Annahmen sind nun wirklich sehr naiv. Was unter einem Optimum zu verstehen ist, ist oft genug eine Frage der Definition. Das Wort "optimaler" gibt es nicht, nur optimal oder suboptimal. Man kann Filter-Algorithmen auch auf Geschwindigkeit optimieren ... zu Lasten der Qualität natürlich - wie es aktuell Stand der Technik ist. Mir gefällt das auch nicht.

4 Vitamins
2006-04-21, 13:22:46
jop, aber anscheinend darf man hier ja ATI hard/software nicht kritisieren ohne gleich böse blicke zu bekommen bzw gleich zu behaupten das das hier ein flamethread wäre (der kennt raff nicht)

mfg

Warum eine Disskusion führen über ein Problem welches es garnicht gibt.
Dass es mit "A.I.an" bei manchen (sehr wenigen) Games probleme gibt (wobei man nicht so ohne weiteres sagen kann es liegt am ATI Treiber) ist NORMAL und nicht anders zu machen (zumindest im moment).
Stell die A.I. auf OFF und gut ist. Wenn es dann flimmert dann ist ein Thread berechtigt. (sonst ist es stimmungs mache)

gruss

The_Invisible
2006-04-21, 13:23:13
Tut mir leid aber von herben Performance-Einbußen, wenn man zwischen A.I. off und A.I. Standard wechselt, kann keine Rede sein. Es sind meistens 2-5% unterschied. Spiele immer A.I. off und bis jetzt sind mir zum glück keine bugs aufgefallen. Kann sein, dass es spiele gibt bei welchen mit A.I an, Bugs beseitigt werden. Ich kenne keine.

gruss

das selbe spiel wie zwischen nvidia HQ vs Q, eigentlich kein unterschied

mfg

4 Vitamins
2006-04-21, 13:26:04
Mhm... wie der Name Optimierung nahelegt sollte ein optimierter Filter Texturen natürlich optimaler (auch besser genannt) filtern.:P;)

OPTIMUM = bestmöglicher KOMPROMIS zwischen LEISTUNG und BILDQUALITÄT

wie soll es gehen bei gleiche Bildqualität :confused: .......falls du die formel kennst, lass dich als Gott feiern. :wink:

Vertigo
2006-04-21, 13:27:52
Ruckelt noch....oder hast du schon eine ATI
Gibt's eigentlich auch Strafen für Flames in Signaturen?!

4 Vitamins
2006-04-21, 13:29:53
Gibt's eigentlich auch Strafen für Flames in Signaturen?!

Ich weiss ja nich was du da siehst.
Ich habe ne ATI karte und es Ruckelt nicht.......wo ist das Problem???
Warum soll kreativität beschtrafft werden?? :wink:

BH abgemeldet
2006-04-21, 13:31:21
das selbe spiel wie zwischen nvidia HQ vs Q, eigentlich kein unterschied
Diese pauschale Lügerei geht mir langsam auf den Senker...

Vertigo
2006-04-21, 13:32:10
Ich weiss ja nich was du da siehst.
Ich habe ne ATI karte und es Ruckelt nicht.......wo ist das Problem???
Warum soll kreativität beschtrafft werden?? :wink:
Ist mir genauso ergangen und ich fordere einfach mal gleiches Recht für alle - aber es wird natürlich wiedermal nix passieren, musst Dir also keine Sorgen machen ...

The_Invisible
2006-04-21, 13:32:59
Warum eine Disskusion führen über ein Problem welches es garnicht gibt.
Dass es mit "A.I.an" bei manchen (sehr wenigen) Games probleme gibt (wobei man nicht so ohne weiteres sagen kann es liegt am ATI Treiber) ist NORMAL und nicht anders zu machen (zumindest im moment).
Stell die A.I. auf OFF und gut ist. Wenn es dann flimmert dann ist ein Thread berechtigt. (sonst ist es stimmungs mache)

gruss

diesen thread LESEN dann weisst du bescheid

mfg

MikBach
2006-04-21, 13:33:39
das selbe spiel wie zwischen nvidia HQ vs Q, eigentlich kein unterschied

mfg
Jetzt wird´s aber lächerlich:
Lesen bildet! (http://www.3dcenter.de/artikel/g70_flimmern/index2.php)

The_Invisible
2006-04-21, 13:38:04
Jetzt wird´s aber lächerlich:
Lesen bildet! (http://www.3dcenter.de/artikel/g70_flimmern/index2.php)

ich meine performance falls das wer mitbekommen hat, und sehen tut man es auch nur bei speziellen texturen... aja, wo ist jetzt der passende artikel für ati?

mfg

BH abgemeldet
2006-04-21, 13:39:04
[immy']also habe ich doch mal auf Quality umgestellt und bin in den städten fast aus den latschen gekippt (zum glück saß ich im stuhl :) ) als ich mich bewegte. der den schalter habe ich sehr schnell wieder auf HQ gestellt, weil die texturen so dermaßen am flimmern waren.

das das bei ATi nicht anders ist kann ich mir auch sehr gut vorstellen
Oh Leute... Kann doch nicht jeder zweite hier merkbefreit sein (?) Ergab sich dieses Resume etwa aus dem jetztigen Verlauf des Threads? Also. Es IST anders bei ATI. Das heißt nicht, daß es dann überhaupt nicht flimmert, aber es ist schon bissl anders als Quality ;)

aber warum das flimmern bei ATi nicht so erwähnt wird hat wahrscheinlich auch die tatsache das ATi z.B. in den letzten generationen immer wieder die filterqualität ansich erhöht hat
Das liegt daran, daß das Flimmern mit AI_low zwar ab und an da ist, aber halt nur marginal. Wenn es den Leute so auf den Sack gehen würde wie NV-Quality, hätten sie bestimmt nicht erst gewartet bis Raff es auch mal bemerkt.

Momentan hat ATI mit dem Catalyst aber andere Probleme als AI. DIE sollte man erstmal wieder in den Griff bekommen. Dann machen wir wegen AI richtig Streß ;)

ShadowXX
2006-04-21, 13:43:27
Wie auch immer: Je fieser/empfindlicher der Content, desto eher fallen die Optimierungen auf. World of WarCraft reagiert auf alles abseits des Filter-"Optimums" höchst allergisch. Dazu gehört eben auch A.I. Ist doch schön, wenn man neben Synthies solchen Real-World-Kram hat, der Sparmaßnahmen gnadenlos aufdeckt, oder? ;) Blöd ist nur, wenn man sich davon genervt fühlt ... so einer bin ich.

Genau dafür hab ich übrigens ein absolutes Gegenbeispiel:

Kennst du Gun?

Falls nicht: Der Boden bei Gun flimmert mit nV-Karten (ab nv40) so extrem und unübersehbar, das ich zweifelte, ob AF überhaupt greift.

Beim einem r580 mit HQAF sieht man gar nix mehr flimmern.

Das ist wirklich ein unterschied wie Tag und Nacht zwischen den beiden Karten (und auf Gun ist definitiv von keinem der beiden IHVs irgendetwas hinoptimiert).

Schon mal überlegt, das es bei WoW (bei dem sich auch die nV-Karten nicht gerade mit ruhm bekleckern) wirklich nur Contentabhängig sein könnte?

MikBach
2006-04-21, 13:45:27
ich meine performance falls das wer mitbekommen hat,
Ähm, beim NV40 bricht die Performance mit HQ teilweise dramatisch ein. Woher ich das Weiß? Weil ich selbst eine 6800GT hatte...

und sehen tut man es auch nur bei speziellen texturen...
Sieht aber viel schlimmer als bei ATI´s AI-low aus.


aja, wo ist jetzt der passende artikel für ati?

mfg
Lese doch bitte, was ich verlinkt habe!
Dort ist ein Vergleich ATI vs NV. Was willst du mehr?

(del)
2006-04-21, 13:46:38
ich meine performance falls das wer mitbekommen hat
Du selbst hast aber schon mitbekommen, daß das nur für Dein System mit Deiner 7900 zu stimmen scheint? Kommst aus diesem Thread hierhin http://www.forum-3dcenter.org/vbulletin/showthread.php?t=291208 und quaselst wieder den gleichen Mist. Entschuldiugung für meinen Schreibstil jetzt, aber irgendwann merkts doch der letzte Depp. D.h. davor müßtest Du es doch schon längst gepeilt haben. Was ist los mit Dir? Ich dachte die alten 3DC-"Tugenden" legen wir langsam so nach und nach alle ab...

The_Invisible
2006-04-21, 14:01:35
Du selbst hast aber schon mitbekommen, daß das nur für Dein System mit Deiner 7900 zu stimmen scheint? Kommst aus diesem Thread hierhin http://www.forum-3dcenter.org/vbulletin/showthread.php?t=291208 und quaselst wieder den gleichen Mist. Entschuldiugung für meinen Schreibstil jetzt, aber irgendwann merkts doch der letzte Depp. D.h. davor müßtest Du es doch schon längst gepeilt haben. Was ist los mit Dir? Ich dachte die alten 3DC-"Tugenden" legen wir langsam so nach und nach alle ab...

was soll ich machen, soll ich die fps werte nach unten korrigieren damit ihr glücklich seit? ist ja das gleiche wie oblivion, ne ati ist x1900 ist nix schneller als ne 7900gtx (dort ist übrigens zwischen HQ vs Q genau 0fps unterschied), aber es wird überall anders angeprangert...

mfg

Vertigo
2006-04-21, 14:06:59
was soll ich machen, soll ich die fps werte nach unten korrigieren damit ihr glücklich seit? ist ja das gleiche wie oblivion, ne ati ist x1900 ist nix schneller als ne 7900gtx (dort ist übrigens zwischen HQ vs Q genau 0fps unterschied), aber es wird überall anders angeprangert...

mfg
Das Problem ist, dass viele die hier posten gar keine eigenen Erfahrungen gemacht haben und nur irgendwelche Posts aus Foren oder Reviews auf Websites kennen und das dann für bare Münze nehmen. Wagt es einer, seine persönlichen Erfahrungen zu äußern, wird sofort aus allen Rohren auf ihn gefeuert. Mit ruhiger, sachlicher Argumentation ist es dann auch schnell vorbei - siehe hier ...

Ich glaube langsam wirklich, dass in diesem Forum hier über gar nichts mehr sachlich diskutiert werden kann.

][immy
2006-04-21, 14:36:22
was soll ich machen, soll ich die fps werte nach unten korrigieren damit ihr glücklich seit? ist ja das gleiche wie oblivion, ne ati ist x1900 ist nix schneller als ne 7900gtx (dort ist übrigens zwischen HQ vs Q genau 0fps unterschied), aber es wird überall anders angeprangert...

mfg

wenn das system in deiner sig dein aktuelles ist, dann dürfte das wirklich an deinem prozessor liegen das du keinen geschwindigkeitsunterschied merkst, da oblivion ja unter anderem starke anforderungen an den prozessor stellt.
auf meinem system (deinem sehr ähnlich außer das die grafikkarte eine 6800 GT ist) merke ich die unterschiede zwischen Quality und High Quality sehr wohl. sowohl in der performance als auch in der qualität.

The_Invisible
2006-04-21, 14:38:10
[immy']wenn das system in deiner sig dein aktuelles ist, dann dürfte das wirklich an deinem prozessor liegen das du keinen geschwindigkeitsunterschied merkst, da oblivion ja unter anderem starke anforderungen an den prozessor stellt.
auf meinem system (deinem sehr ähnlich außer das die grafikkarte eine 6800 GT ist) merke ich die unterschiede zwischen Quality und High Quality sehr wohl. sowohl in der performance als auch in der qualität.

die stelle in oblivion war aber 100% gpu limitiert, lies dir einfach den oblivion thread durch ;)

mfg

Odal
2006-04-21, 14:38:38
was soll ich machen, soll ich die fps werte nach unten korrigieren damit ihr glücklich seit? ist ja das gleiche wie oblivion, ne ati ist x1900 ist nix schneller als ne 7900gtx (dort ist übrigens zwischen HQ vs Q genau 0fps unterschied), aber es wird überall anders angeprangert...

mfg


auf was war denn deine 7900GTX für den Oblivion Test getaktet? Von NVidia wird für die 7900GTX ein Takt von 650Mhz GPU und 800Mhz Speichertakt. Eine X1900XTX hat gleichen GPU Takt (also auch 650Mhz) und 775Mhz Ramtakt.

wenn du wirklich die aussage "eine x1900 ist nix schneller als ne 7900GTX" treffen willst musst du beide schon unübertaktet mit den vom IHV angedachten Default Takten testen.

Weiterhin glaube ich irgendwie nicht das deine 7900GTX 19FPS haben soll wo eine 6800Ultra nur 6FPS hat. So unterschiedlich sind die Architekturen dann nun auch wieder nicht. Vielleicht einen Fehler beim testen gemacht?

Gast
2006-04-21, 15:10:30
Dieser Topic hätte einen Sinn wenn ATI bei A.I. OFF probleme hätte.
So weit ich hier gelesen habe , spricht ihr aber nur von A.I. standard oder Advance. Was ist verwunderlich dran, dass wenn ich A.I einschalte die Bildquali leidet....das ist doch klar das dann optimierungen greifen.
Dies diskussion dient nur der stimmungs mache.


nachdem einem viele oft weißmachen wollen, dass ATIs AI-low mit NVs HQ vergleichbar ist, ist durchaus mal ein thread angebracht wo jemand der BEIDE karten besitzt das eindeutig widerlegt.

in einer zeit wo es sogar größere websiten und hardwaremagazine gibt die karten in diesen settings gegeneinander antreten lassen ist es durchaus an der zeit, dass jemand aufzeigt welchen schwachsinn die da gegeneinander testen.

TrigPe
2006-04-21, 15:20:10
Ich weiss ja nich was du da siehst.
Ich habe ne ATI karte und es Ruckelt nicht.......wo ist das Problem???
Warum soll kreativität beschtrafft werden?? :wink:

OT

Wie kommst du auf 650MHZ bei deiner Sapphire? :eek:
VMod? Wenn ja, wo.


MfG

4 Vitamins
2006-04-21, 15:29:47
OT

Wie kommst du auf 650MHZ bei deiner Sapphire? :eek:
VMod? Wenn ja, wo.


MfG

Ohne VMod 650/820Hz 52°C/71°C
Brinngt aber nix da cpu zu schwach (A64 2430Hz)
Deswegen läuft momentan 620/740Hz.

Edit: temps bei Aquamark:
2006-04-21 15:36:04 Clocks set to: 650.70 / 801.00
2006-04-21 15:36:07 Temperature: GPU: 47.0°C GPU environment: 39.0°C
2006-04-21 15:36:17 Temperature: GPU: 47.1°C GPU environment: 38.0°C
2006-04-21 15:36:27 Temperature: GPU: 48.3°C GPU environment: 39.0°C
2006-04-21 15:36:37 Temperature: GPU: 47.6°C GPU environment: 39.0°C
2006-04-21 15:36:47 Temperature: GPU: 47.4°C GPU environment: 39.0°C
2006-04-21 15:36:57 Temperature: GPU: 47.5°C GPU environment: 39.0°C
2006-04-21 15:37:07 Temperature: GPU: 47.5°C GPU environment: 40.0°C
2006-04-21 15:37:17 Temperature: GPU: 52.3°C GPU environment: 40.0°C
2006-04-21 15:37:27 Temperature: GPU: 52.3°C GPU environment: 41.0°C
2006-04-21 15:37:37 Temperature: GPU: 61.5°C GPU environment: 41.0°C
2006-04-21 15:37:47 Temperature: GPU: 61.5°C GPU environment: 44.0°C
2006-04-21 15:37:57 Temperature: GPU: 62.5°C GPU environment: 44.0°C
2006-04-21 15:38:07 Temperature: GPU: 62.5°C GPU environment: 45.0°C
2006-04-21 15:38:17 Temperature: GPU: 64.1°C GPU environment: 45.0°C
2006-04-21 15:38:27 Temperature: GPU: 64.1°C GPU environment: 47.0°C
2006-04-21 15:38:37 Temperature: GPU: 64.4°C GPU environment: 47.0°C
2006-04-21 15:38:47 Temperature: GPU: 64.4°C GPU environment: 47.0°C
2006-04-21 15:38:57 Temperature: GPU: 65.9°C GPU environment: 47.0°C
2006-04-21 15:39:07 Temperature: GPU: 65.9°C GPU environment: 48.0°C
2006-04-21 15:39:17 Temperature: GPU: 67.8°C GPU environment: 48.0°C
2006-04-21 15:39:27 Temperature: GPU: 60.4°C GPU environment: 48.0°C
2006-04-21 15:39:37 Temperature: GPU: 55.9°C GPU environment: 47.0°C
2006-04-21 15:39:46 Loading profile 'Default':
2006-04-21 15:39:46 Gamma: loaded
2006-04-21 15:39:46 Core clock: 650.70 MHz -> 583.90 MHz
2006-04-21 15:39:46 Mem clock: 801.00 MHz -> 689.00 MH

Hakkerstiwwel
2006-04-21, 15:31:05
nachdem einem viele oft weißmachen wollen, dass ATIs AI-low mit NVs HQ vergleichbar ist, ist durchaus mal ein thread angebracht wo jemand der BEIDE karten besitzt das eindeutig widerlegt.

in einer zeit wo es sogar größere websiten und hardwaremagazine gibt die karten in diesen settings gegeneinander antreten lassen ist es durchaus an der zeit, dass jemand aufzeigt welchen schwachsinn die da gegeneinander testen.
Das Problem ist: was willst du miteinander vergleichen? AI Low liegt viel naeher bei HQ, als bei Q. Vergleichst du Q vs AI Low, hat nV einen Vorteil, und wird auf Settings gebencht, die sich niemand zumuten kann. Am "fairsten" waere HQ vs AI Low + Area AF, auch wenn dies leichten Vorteil fuer nV bedeuten wuerde.

MikBach
2006-04-21, 16:29:54
nachdem einem viele oft weißmachen wollen, dass ATIs AI-low mit NVs HQ vergleichbar ist, ist durchaus mal ein thread angebracht wo jemand der BEIDE karten besitzt das eindeutig widerlegt.

Wie willst du das denn widerlegen?
Es gibt Spiele, bei denen NV@HQ schlechter aussieht wie AI-low bei ATI...

IMHO ist AI-low aber in 99% der Fälle mit NV@HQ vergleichbar. Es gibt Ausnahmen, wo NV besser ist, aber umgekehrt ist es auch möglich...

Gast
2006-04-21, 16:33:52
Das Problem ist: was willst du miteinander vergleichen?

AI-off gegen HQ wäre immer noch das fairste.

Q+TriOpt, ohne AnisoOpt auf NV gegen AI-on wäre immer noch fairer als HQ gegen AI-on. in diesem fall sicher mit leichten qualitätsvorteilen bei ATI, aber wesentlich weniger als jenen von NV wenn man HQ gegen AI-on testet.

HQ gegen AI-off wäre dagegen noch am fairsten, und vor allem auf karten mit der leistungsklasse einer x1900 oder 7900 am realistischsten, denn wer gibt denn bitte 400€+ für eine graka aus um dann mit brilinearer filterung zu spielen?

leider muss man auch hier noch aufpassen dass man gewisse spiele wie doom3 (kein shaderreplacement bei ATI) und die unreal-turnament-reihe (auch auf HQ nur brilinear bei NV) nicht mittestet.

es wäre auf jedenfall die fairste variante grundsätzlich so zu setzen, und zusätzlich für ATI noch ein ansporn filtertricks und vernünftige optimierungen nicht in einen topf zu werfen.

BlutenderFleischer
2006-04-21, 17:16:59
Der Author hat völlig Recht...was die Thematik angeht. Ich kann aber nicht nachvollziehen, wie gerade ein Mitglied der 3dCenter-Crew so etwas postet..."Die Geister ich rief, werd ich nicht mehr los"...in unzähligen Artikeln wurde das sogenannte "Flimmern", "Grieseln", "Vibrieren" und was die NV-Karten angeblich noch so tun thematisiert. Über ATIs fehlendes SSAA (insbesondere der geniale 8xS Kombimodus), das unausgereifte und in der Funktion zufallsabhängige Crossfire, der R580-Fön (man erinnere sich an den Aufstand, den es zu Zeiten der 5800U gab) hat man sich dezent ausgeschwiegen.
Hier mal drei Kostproben der letzten Zeit...
http://www.3dcenter.de/artikel/neue_filtertricks/
http://www.3dcenter.de/artikel/2004/12-20.php
http://www.3dcenter.de/artikel/g70_flimmern/
Wo bleibt den der Großbericht über ATIs fehlendes SSAA??? Das konnte schon die Voodoo5!
Wenn man ein Mitglied der 3dCenter Crew mal anschreibt, bekommt man keine Antwort; hier eine PN die ich einem anderen Mitglied der 3dCenter Crew geschrieben habe, er schreibt hier viele Artikel, es ist aber nicht der Threadersteller, er hat sogar eine sehr gute Software programmiert...ich erlaube mir, die PN zu posten, weil ich eh keine Antwort darauf bekommen habe:

"Hallo xxxx

das Forum ist ja seit langem geprägt von der Diskussion über die BQ auf ATI und NVidia Karten, wo ja insbesondere oft das Argument HQAF bei ATI genannt wird. Ich bin der Meinung, daß mit dem G71 die NV-Karten mittlerweile leistungsfähig genug sind, um in den meisten, auch aktuellen Spielen, SSAA zu nutzen. Da Du ja so etwas wie der AA-Experte hier bist (Du hast ja die meisten Artikel darüber geschrieben), wende ich mich damit mal an Dich. Der Artikel soll einfach untersuchen, ob der G71 leistungsfähig genug ist, um SSAA zu nutzen. Die Tests könnten wie folgt aussehen: einen synthetischen Bench, dazu COD2, FEAR, Far Cry und Source, damit sind die beliebtesten Engines und die modernsten Spiele abgedeckt, die Meßlatte liegt also ausreichen hoch. Vor dem Hintergrund, daß 19"TFTs immer beliebter und günstiger werden, macht es Sinn 1280x1024 als Default zu nutzen. Dazu höchste Qualität, alle Optimierungen aus, 16xAF. Bei den AA-Modi sollte der Schwerpunkt auf 8xS und 16xS liegen, 12xS macht glaube ich keinen Sinn, genausowenig wie reine SS-Modi. Zur Vergleichbarkeit stellt man dann noch 4xMSAA zur Verfügung.
Analog dazu, um einen wesentlichen ATI-Vorteil zu behandeln, könnte man einen weiteren Artikel erstellen mit dem Thema "Ist HDR mit AA auf heutigen Karten nutzbar", da das ja eine Stärke der ATI-Karten ist. Ich habe im Benchmarking Forum schon einen Thread aufgemacht, der das Thema SSAA behandelt, wenn die Ergebnisse aussagekräftig genug ist und der Thread Resonanz zeigt, kannst Du Dir ja mal Gedanken darüber machen, ob so ein Artikel Sinn machen würde, ich denke aber man sollte bei der BQ nicht nur ATIs HQAF betrachten, sondern auch die andere Seite der Medaille."

Auf diese PN habe ich nicht einmal eine Antwort erhalten.
Aufgrund der Leistungsfähigkeit neue Karten, behandeln beide Artikel meiner Meinung nach eine Thematik die man als "3dCenter" vielleicht mal beleuchtet sollte anstatt sich mit "Sandra" auseinander zu setzen (auch wenn es ein guter, sehr lesenswerter Artikel ist, wirklich neue Erkentnisse verbreitet er nicht).
Wäre schön, in diesem Umfeld mal die Meinung eines 3dCenter Authors zu diesen Artikeln zu hören.

BlutenderFleischer
2006-04-21, 17:26:19
Aus meiner Erfahrung kann ich nur sagen, dass die X800XT eine besser BQ als die 6800GT hat, welche ich davor hatte.
Das war aber noch vor dem G70, die BQ war also bei der 6800GT schlechter als mit aktuellen Treibern, dafür ist die Karte mit neueren Treibern auch langsamer...


Schon mal 8xS angeschaltet? Oh...Sorry...geht wohl nicht auf deiner X800XT...

Mr. Lolman
2006-04-21, 17:27:43
Der Author hat völlig Recht...was die Thematik angeht. Ich kann aber nicht nachvollziehen, wie gerade ein Mitglied der 3dCenter-Crew so etwas postet..."Die Geister ich rief, werd ich nicht mehr los"...in unzähligen Artikeln wurde das sogenannte "Flimmern", "Grieseln", "Vibrieren" und was die NV-Karten angeblich noch so tun thematisiert. Über ATIs fehlendes SSAA (insbesondere der geniale 8xS Kombimodus), das unausgereifte und in der Funktion zufallsabhängige Crossfire, der R580-Fön (man erinnere sich an den Aufstand, den es zu Zeiten der 5800U gab) hat man sich dezent ausgeschwiegen.
Hier mal drei Kostproben der letzten Zeit...
http://www.3dcenter.de/artikel/neue_filtertricks/
http://www.3dcenter.de/artikel/2004/12-20.php
http://www.3dcenter.de/artikel/g70_flimmern/
Wo bleibt den der Großbericht über ATIs fehlendes SSAA??? Das konnte schon die Voodoo5!


1. Der 8xS Modus ist alles andere als genial, und existiert nur deswegen, weil NV >4x kein MSAA mehr hat. (analog zu 4xS bei =<NV3x). Der SS-Anteil ist 1x2 OGSAA, d.h. es werden nicht mal alle Texturen geglättet, sondern entweder die Horizontalen, oder die Vertikalen (d3d/ogl). Dabei wird aber mal schnell die doppelte Füllrate verblasen.

Dementsprechend bietet NV ja auch nur den 8xS Modus offiziell an. Wo das Problem hinführt sieht man bei den SLI/SuperAA Modi, wo 14xSuperAA ca. gleichgut wie 16xSLI AA aussieht, aber oft mehr als doppelt so schnell läuft..

2. Wenn der Texturfilter versagt, kann ein (geringer) SSAA-Anteil auch nix mehr reparieren. Vgl GTA-SA, was am NV40 mit 8xS + HQ AF sichtbar mehr griesselt als am R580 mit 6xAA + HQ AF.


3. Was die Lautstärke betrifft, so quote ich mich mal selbst:
So verzerren sich die Erinnerungen. Ne 5800 Ultra mit FXFlow Lüfter schaffte bis zu 13 Sone, die X1900XT "nur" knapp 6. Somit ist die X1900XT ca so laut wie diese, damals als "sehr leise" (:ulol: ) (http://www.tomshardware.de/graphic/20030715/kaufberatung-grafikkarten-35.html) erachtete, 5900 Ultra hier:
http://www.chip.de/ii/13530339_ff5e3608ca.jpg

/edit:

Ja SSAA konnte schon die Voodoo5. Aber das ist nicht zu vergleichen mit NVs SSAA (Misch-)Modi - wegen dem frei wählbaren Subpixelraster der 3dfx VSA100 Chips. Vgl 3dfx Voodoo5 4xAA, NV40 16xAA: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3254832&postcount=214

The_Invisible
2006-04-21, 17:46:54
*gähn*

mal wieder das übliche "ati ist überall super, nvidia nirgendwo" gerede... selbst stromverbrauch und abwärme sind da wahrscheinlich herzlichst egal, hat eh jeder wasserkühlung für den sommer und ein atomkraftwerk im garten stehen, sind ja also keine argumente...

mfg

MikBach
2006-04-21, 17:49:37
Schon mal 8xS angeschaltet? Oh...Sorry...geht wohl nicht auf deiner X800XT...
Welch sinnloser Kommentar...
Dafür kann ich Transparenz-AA erzwingen und z.B FarCry in 1024x768 mit 6xAAA (Performance) flüssig spielen.
Eine äquivalente BQ bei ausreichender Performance bekommt man mit einem NV40 nicht hin...

BlutenderFleischer
2006-04-21, 17:49:58
1. Der 8xS Modus ist alles andere als genial, und existiert nur deswegen, weil NV >4x kein MSAA mehr hat. (analog zu 4xS bei =<NV3x). Der SS-Anteil ist 1x2 OGSAA, d.h. es werden nicht mal alle Texturen geglättet, sondern entweder die Horizontalen, oder die Vertikalen (d3d/ogl). Dabei wird aber mal schnell die doppelte Füllrate verblasen.

Dementsprechend bietet NV ja auch nur den 8xS Modus offiziell an. Wo das Problem hinführt sieht man bei den SLI/SuperAA Modi, wo 14xSuperAA ca. gleichgut wie 16xSLI AA aussieht, aber oft mehr als doppelt so schnell läuft..

2. Wenn der Texturfilter versagt, kann ein (geringer) SSAA-Anteil auch nix mehr reparieren. Vgl GTA-SA, was am NV40 mit 8xS + HQ AF sichtbar mehr griesselt als am R580 mit 6xAA + HQ AF.


3. Was die Lautstärke betrifft, so quote ich mich mal selbst:


/edit:

Ja SSAA konnte schon die Voodoo5. Aber das ist nicht zu vergleichen mit NVs SSAA (Misch-)Modi - wegen dem frei wählbaren Subpixelraster der 3dfx VSA100 Chips. Vgl 3dfx Voodoo5 4xAA, NV40 16xAA: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3254832&postcount=214

Der 8xS Modus ist göttlich...aber das ist ja subjektiv und einen ATI-Menschen kann man davon eh nicht überzeugen. Naja, es gibt ja noch einen 2x2+4xMSAA Mischmodus im nHancer. Aber der sieht ja auch kacke aus...nicht wahr?
Wieviel Füllrate verblasen wird ist doch egal! Hauptsache man bleibt über 25-30FPS, mehr liefert ein Fernsehbild ja auch nicht...über ruckelndes Fernsehen hat sich hier zumindest noch niemand beklagt.
Man muss langsam einsehen, daß dank steigender Chipleistung SSAA die Zukunft gehört!
Zur Lautstärke: gut, das basiert auf zuverlässigen Daten, ich gebe dir Recht. Nervig laut sind 6 Sone aber immer noch.
Achja, habe vorhin völlig den Punkt Stromverbrauch vergessen, da wäre auch mal ein Artikel interessant...

BlutenderFleischer
2006-04-21, 17:51:01
Welch sinnloser Kommentar...
Dafür kann ich Transparenz-AA erzwingen und z.B FarCry in 1024x768 mit 6xAAA (Performance) flüssig spielen.
Eine äquivalente BQ bei ausreichender Performance bekommt man mit einem NV40 nicht hin...

Bei 1024x768 reicht ein NV40 (ab 68GT) für 8xS aus, was deutlich besser aussieht als 6xTAA

BlutenderFleischer
2006-04-21, 17:53:01
/edit:

Ja SSAA konnte schon die Voodoo5. Aber das ist nicht zu vergleichen mit NVs SSAA (Misch-)Modi - wegen dem frei wählbaren Subpixelraster der 3dfx VSA100 Chips. Vgl 3dfx Voodoo5 4xAA, NV40 16xAA: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3254832&postcount=214

Ich habe nie behauptet, daß NVs SSAA besser ist als das der V5. Würde ich als großer 3Dfx Anhänger auch nie tun ;D
Habe lediglich gesagt, daß der R580 nicht mal vergleichbare AA-Modi wie der VSA-100 beherrscht...im Jahre 2006!

Mr. Lolman
2006-04-21, 17:54:36
*gähn*

mal wieder das übliche "ati ist überall super, nvidia nirgendwo" gerede... selbst stromverbrauch und abwärme sind da wahrscheinlich herzlichst egal, hat eh jeder wasserkühlung für den sommer und ein atomkraftwerk im garten stehen, sind ja also keine argumente...

mfg

Beim Zocken ist mir der Stromverbrauch egal. Deswegen hab ich auch mein System übertaktet. Wär der Stromverbrauch nicht egal, würd die Mehrleistung in keinem Verhältnis zum Mehrverbrauch stehen (v.A. wenn man die Spannungen erhöht)

Idle brauchen die aktuellen ATi Karten weniger als die NV Karten und die Lautstärke ist unter 2D recht angenehm (der fiese ASUS NF4-Bridgequirl ist lauter ;()

Das was mir im Nachhinein bei meiner NV Karte wirklich besser gefallen hat, ist dass sich der Treiber mit ~30MB weniger Hauptspeicher begnügt hat. Auch BQ-mässig hält sich NV HQ und R580 AIlow so ca. in Waage.

MikBach
2006-04-21, 17:55:00
Man muss langsam einsehen, daß dank steigender Chipleistung SSAA die Zukunft gehört!

Quatsch.
AA soll Kanten glätten. Und dafür reicht eine hohe MSAA-Stufe völlig aus.
SSAA benutzt man bei NV oft, weil nur max 4xAA MSAA geht oder weil das AF nicht zufriedenstellend arbeitet...

Gast
2006-04-21, 17:55:08
1. Der 8xS Modus ist alles andere als genial, und existiert nur deswegen, weil NV >4x kein MSAA mehr hat. (analog zu 4xS bei =<NV3x). Der SS-Anteil ist 1x2 OGSAA, d.h. es werden nicht mal alle Texturen geglättet, sondern entweder die Horizontalen, oder die Vertikalen (d3d/ogl). Dabei wird aber mal schnell die doppelte Füllrate verblasen.



klar werden alle texturen geglättet, nur der schärfevorteil existiert nur in einer ebene.

Gast
2006-04-21, 17:56:46
Man muss langsam einsehen, daß dank steigender Chipleistung SSAA die Zukunft gehört!


ganz sicher nicht bei neuen spielen ist selbst ein füllratenmonster wie die 7900GTX zu langsam, und das heute

Mr. Lolman
2006-04-21, 17:59:27
...was deutlich besser aussieht als 6xTAA

Bei Fracry eher nicht. BTW: Mit ner X1900 geht sogar HDR+AA ;)

Ich habe nie behauptet, daß NVs SSAA besser ist als das der V5. Würde ich als großer 3Dfx Anhänger auch nie tun ;D
Habe lediglich gesagt, daß der R580 nicht mal vergleichbare AA-Modi wie der VSA-100 beherrscht...im Jahre 2006!

Tut ja der G7x auch nicht. SSAA Modi schon, vergleichbar aber nicht. (Mein Link zeigt, dass 3dfx 4xAA durchaus besser aussehen kann als NV 16xS)

Der 8xS Modus ist göttlich...aber das ist ja subjektiv und einen ATI-Menschen kann man davon eh nicht überzeugen. Naja, es gibt ja noch einen 2x2+4xMSAA Mischmodus im nHancer. Aber der sieht ja auch kacke aus...nicht wahr?

Sieht nicht Kacke aus. Nur tw. schlechter als 3dfx 4xAA - bei prozentuell deutlich mehr verblasener Leistung (Milchmädchenrechnung: 16 Samples/Pixel vs. 4 Samples)

Raff
2006-04-21, 17:59:31
Ohoh, da habe ich aber was losgetreten. Meine Absicht war - auch wenn das einige hier denken - nicht, einen Flammenkrieg zu starten. Habe allerdings keine Lust, jedem einzeln zu erklären, dass das so ist, daher bleibt's hierbei. Merkt euch einfach, dass ich keinen der beiden bevorzuge, weil einer lieber ist als der andere, dann kommen wir vielleicht prima aus.

Oh, meine Intention hinter dem Thread? Nochmal nachschlagen, weil noch immer viel dem "NV hässlich, ATi unfehlbar"-Glauben erliegen. Natürlich nicht alle, wie denn auch, in diesem Forum.

Das was mir im Nachhinein bei meiner NV Karte wirklich besser gefallen hat, ist dass sich der Treiber mit ~30MB weniger Hauptspeicher begnügt hat. Auch BQ-mässig hält sich NV HQ und R580 AIlow so ca. in Waage.

Schön zu hören, äh, lesen. Ich kann also nicht ganz Nvidia-verblendet sein, wenn dir das auch auffällt. :)

MfG,
Raff

Mr. Lolman
2006-04-21, 18:02:50
klar werden alle texturen geglättet, nur der schärfevorteil existiert nur in einer ebene.

Wenn in eine Richtung nicht mehr Samples existieren, kann auch keine Glättung/zusätzliche Schärfe entstehen.

MikBach
2006-04-21, 18:07:05
Bei 1024x768 reicht ein NV40 (ab 68GT) für 8xS aus, was deutlich besser aussieht als 6xTAA
FarCry wird nie auf NV-Karten besser aussehen, weil die Schatten dort mit einer NV-Karte schlechter aussehen. Da hilft auch 32xSSAA nichts. :D

Ähnliches Problem wie ATI mit BF2 hat, nur halt umgekehrt und nicht so extrem bei FarCry.

Gast
2006-04-21, 19:05:16
Quatsch.
AA soll Kanten glätten. Und dafür reicht eine hohe MSAA-Stufe völlig aus.
SSAA benutzt man bei NV oft, weil nur max 4xAA MSAA geht oder weil das AF nicht zufriedenstellend arbeitet......oder der Shaderprogger geschlampt hat und man ohne SSAA übelst augenkrebsinduzierendes Geflimmer ertragen muß. Aber nein, das wäre ja ein objektiver Punkt, der nix mit der jeweiligen IHV-Gottheit zu tun hat, der man Opfergaben in Form von Flammereien auf dem 3dc-Altar darbietet. Ohauerha, ja, ATI hat die momentan bessere Hardware, wenn sie aber in ihre Treiber nicht die ach-so-nutzlosen Features wie Hybridmodi, SSAA-Modi und vernünftigen th2go-Support einpflegen kauf ich weiterhin bei NV, obwohl die das wunderschöne 8xS-old durch das doofe asymetrische neue 8xS ersetzt haben. Funzt 8xS-old eigentlich wieder oder ist das immer noch kaputt?

Disclaimer:
Die in diesem Beitrag enthaltene Empörung über die hiesige Götzenanbetung ist nicht im speziellen auf den Gequoteten gemünzt sondern vielmehr auf unsere beiden "Gemeinden".

(del)
2006-04-21, 19:18:31
Das Problem ist, dass viele die hier posten gar keine eigenen Erfahrungen gemacht haben und nur irgendwelche Posts aus Foren oder Reviews auf Websites kennen und das dann für bare Münze nehmen. Wagt es einer, seine persönlichen Erfahrungen zu äußern, wird sofort aus allen Rohren auf ihn gefeuert. Mit ruhiger, sachlicher Argumentation ist es dann auch schnell vorbei - siehe hier ...

Ich glaube langsam wirklich, dass in diesem Forum hier über gar nichts mehr sachlich diskutiert werden kann.
Das Problem ist, daß ich sie habe. Und im verlinkten Thread Leute von IHREN Erfahrungen sprechen. Gar mit Raff an der Spitze. Such also nicht Probleme wo keine sind. Daher muß ich Dir zustimmen. Hier kann man wirklich über nichts sachlich diskutieren, da jeder die Situation so zusammendichtet wie es ihm ins Bild passt. Du natürlich nicht. Woher Du jetzt aber weißt wer von den "vielen die hier Posten" nun seine Erfahrungen gemacht hat und wer nicht - und warum man Raff in dem Thread glauben darf und in anderem nicht - wird wohl Dein Geheimnis bleiben.

Ganz davon ab, daß die Storys unserer Stars hier für mich weniger Gewicht haben als Artikel von 3DC oder CB. Daher interessiert mich Invisibles "ich habs festgestellt" nicht so sehr wie Raffs oder Lolis NV40-Erfahrungen mit HighQuality. Da ich jetzt nicht "ich habs so erlebt" schreiben kann, da keine Nv mehr im Haus, bin ich wohl jetzt einer "von den vielen". Ja alles klar dann.

Was war nochmal das Problem?

(del)
2006-04-21, 19:23:38
Oh, meine Intention hinter dem Thread? Nochmal nachschlagen, weil noch immer viel dem "NV hässlich, ATi unfehlbar"-Glauben erliegen
Ja man muß an Forceware nach der Installation bissl rumdrehen. Dann ist das hässliche weitgehend weg.

Jetzt mal ehrlich, wer hat diesen Thread bestellt? :| :biggrin:

Saw
2006-04-21, 19:31:00
Was war nochmal das Problem?
Man hat bei der heiligen Kuh "ATI" flimmeriges Verhalten festgestellt. :D

(del)
2006-04-21, 19:33:03
Man hat bei der heiligen Kuh "ATI" flimmeriges Verhalten festgestellt. :D
Ich meine in diesem Thread.

Saw
2006-04-21, 19:34:42
Ich meine in diesem Thread.
Was schrieb denn Raff in seinem Eingangspost?

(del)
2006-04-21, 19:36:43
Was schrieb denn Raff in seinem Eingangspost?
Daß auch er endlich Stellen gefunden hat wo es flimmert?

Gast
2006-04-21, 19:44:39
Daß auch er endlich Stellen gefunden hat wo es flimmert?

genauer gesagt hat er hat er gesagt dass sich die bildqualität im verhältnis zum R3xx verschlechtert hat, obwohl alle etwas anderes behaupten.

(del)
2006-04-21, 19:51:40
genauer gesagt hat er hat er gesagt dass sich die bildqualität im verhältnis zum R3xx verschlechtert hat, obwohl alle etwas anderes behaupten.
Genauer gesagt hat er (1x) gesagt, daß die Leute behaupten würden, ATI bietet mit AI_on (wohl _low) "perfekte Texturen". Ich kenn aber niemanden der das hier (oder da) behauptet. Vielleicht hat er sich mit dem Forum vertan ;)

Daß der R5x0 bei gleichen Einstellungen schlechter rendert als ein R3x0 wäre einen Artikel wert. Fertig. Wobei ich immer dachte, zum R5x0 kamen wu-AF und anderes Pipapo was die Renderquali steigern und nicht sinken soll.

Im Großen&Ganzen hab ich aber keinen Bock mehr mit über die Feuchtigkeit des Wassers zu diskutieren. Einige haben mal wieder in vorgespielter Objektivität alles gegeben ;)

MikBach
2006-04-21, 19:57:25
...oder der Shaderprogger geschlampt hat und man ohne SSAA übelst augenkrebsinduzierendes Geflimmer ertragen muß.
Erwischt. :D
Habe Shaderaliasing ganz vergessen... :redface:

Aber nein, das wäre ja ein objektiver Punkt, der nix mit der jeweiligen IHV-Gottheit zu tun hat, der man Opfergaben in Form von Flammereien auf dem 3dc-Altar darbietet. Ohauerha, ja, ATI hat die momentan bessere Hardware, wenn sie aber in ihre Treiber nicht die ach-so-nutzlosen Features wie Hybridmodi, SSAA-Modi und vernünftigen th2go-Support einpflegen kauf ich weiterhin bei NV,
Mit vernünfigem AF und Transparenz-AA braucht man kein SSAA oder Hybridmodi, außer wenn die Progger bei den Shadern geschlampt haben, oder sagen wir besser beim Content.

obwohl die das wunderschöne 8xS-old durch das doofe asymetrische neue 8xS ersetzt haben. Funzt 8xS-old eigentlich wieder oder ist das immer noch kaputt?
AFAIK geht das mit dem nHancer. Bin mir aber nicht so ganz sicher.

edit: was ist mit th2go-Support gemeint?

Gast
2006-04-21, 20:08:13
Erwischt. :D
Habe Shaderaliasing ganz vergessen... :redface:

Mit vernünfigem AF und Transparenz-AA braucht man kein SSAA oder Hybridmodi, außer wenn die Progger bei den Shadern geschlampt haben, oder sagen wir besser beim Content.Ach komm, wir kennen doch unsere Pappenheimer bei den IHVs und ISVs. Die finden immer wieder neue Möglichkeiten, eigentlich ausgezeichnete Hardware zur Flimmerschleuder zu machen, sei es aus Unachtsamkeit oder Balkengeilheit.
AFAIK geht das mit dem nHancer. Bin mir aber nicht so ganz sicher.Könnte das mal wer antesten, das war doch mal zwischenzeitlich so ein Murksmodus mit 4xRG-MSAA-Wirkung auf Geometrie und 2x2 OGSSAA-Wirkung auf Texturen.

edit: was ist mit th2go-Support gemeint?Das hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=281919

MikBach
2006-04-21, 20:18:06
Ach komm, wir kennen doch unsere Pappenheimer bei den IHVs und ISVs. Die finden immer wieder neue Möglichkeiten, eigentlich ausgezeichnete Hardware zur Flimmerschleuder zu machen, sei es aus Unachtsamkeit oder Balkengeilheit.
Also ich finde man kann es auch übertreiben, ehrlich.
Wenn man die Einstellungen voll aufdreht (max. AF, max Transparenz-AA), hat man bei den meisten Spielen eine super Qualität.
Mit NV@HQ und ATI AI-off/low kan man eigentlich ganz zufrieden sein. Bei den wenigen Ausnahmen liegt es oft am Content, da kannst du auch den besten Filter haben, wird dir nichts bringen.

Das hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=281919
:confused:
Was denn konkret?

edit: alles klar.

Gast
2006-04-21, 21:06:36
Ich agiere halt stets nach dem Motto "Erhoffe das Beste, aber bereite dich auf das Schlimmste vor". Ist mit HQ/AI-Off und TSSAA/AAA alles in Butter, wunderbar, im schlimmsten Fall (Shaderaliasing/nicht deaktivierbare "Optimierungen") kann ich bei NV-Karten aber mit SSAA/Hybrid das Geflimmer ein wenig bändigen. Ginge das auch bei ATI-Karten, ich würde eine solche auf die Einkaufsliste setzen, vor allem wegen WuAF. Jedenfalls vorausgesetzt, die Kompatibilitätsprobleme (Crossfire/Auflösungen) mit th2go wären ebenfalls ausgeräumt. Naja, scheiß Konjunktiv, wird wohl wieder eine NV oder deren zwei.

BlutenderFleischer
2006-04-21, 21:09:54
Hier haben schon mehrere Geschrieben, daß die Leistung der G71 Chips nicht für SSAA ausreicht. Beweist es doch! Dazu soll doch der Artikel gut sein!

MikBach
2006-04-21, 21:19:45
Ich agiere halt stets nach dem Motto "Erhoffe das Beste, aber bereite dich auf das Schlimmste vor". Ist mit HQ/AI-Off und TSSAA/AAA alles in Butter, wunderbar, im schlimmsten Fall (Shaderaliasing/nicht deaktivierbare "Optimierungen") kann ich bei NV-Karten aber mit SSAA/Hybrid das Geflimmer ein wenig bändigen.
Ok, wenn du meinst dass es in Zukunft schlimmer wird, dann kann ich dir den Glauben auch nicht nehmen...
Ich bin da eher positiv eingestellt, auch was die Optimierungen betrifft.
Sollte ein IHV auf die BQ-Schraube drücken, dann gibt´s halt wieder einen Aufstand, wie beim G70.

Ginge das auch bei ATI-Karten, ich würde eine solche auf die Einkaufsliste setzen, vor allem wegen WuAF. Jedenfalls vorausgesetzt, die Kompatibilitätsprobleme (Crossfire/Auflösungen) mit th2go wären ebenfalls ausgeräumt.
SSAA geht auch über den DX-Tweaker. Aber wie gesagt, habe ich den DX-Tweaker nie wirklich gebraucht, da mir die BQ, mit Transparrenz-AA eigentlich immer ausreicht.
Und ich bin sicherlich nicht anspruchslos.

Naja, scheiß Konjunktiv, wird wohl wieder eine NV oder deren zwei.
Da unterscheiden wir uns wohl.
Ich bin da eher auf Preis/Leistung getrimmt, also kommt SLI/Crossfire gar nicht in Frage. Von anderen Nachteilen mal abgesehen.

Gast
2006-04-21, 21:21:44
O

SSAA geht auch über den DX-Tweaker.



allerdings wird das eh schon anspruchsvolle SSAA damit nochmal langsamer.

MikBach
2006-04-21, 21:22:36
Hier haben schon mehrere Geschrieben, daß die Leistung der G71 Chips nicht für SSAA ausreicht. Beweist es doch! Dazu soll doch der Artikel gut sein!
Bei modernen Spielen wie FEAR, FarCry, BF2, Earth2160 oder B&W2 wird es sicherlich eng. Kommt natürlich auch auf die gewünschte Auflösung an.

MikBach
2006-04-21, 21:25:48
allerdings wird das eh schon anspruchsvolle SSAA damit nochmal langsamer.
Der Zusammenhang, warum das SSAA über den DX-Tweaker langsamer sein soll, ist mir nicht ganz klar.

Gast
2006-04-21, 21:30:07
Der Zusammenhang, warum das SSAA über den DX-Tweaker langsamer sein soll, ist mir nicht ganz klar.

höchstwahrscheinlich weil sich noch eine zusätzliche software zwischen die anwendung und die api schiebt.

wenn der treiber weiß dass SSAA verwendet wird kann er auch bestimmt im speichercontroller einige zugriffe entsprechend optimieren, was so natürlich auch nicht möglich ist.

es ist eigentlich auch egal warum es langsamer ist, es ist ein fakt dass es deutlich langsamer ist.

MikBach
2006-04-21, 21:35:27
höchstwahrscheinlich weil sich noch eine zusätzliche software zwischen die anwendung und die api schiebt.

wenn der treiber weiß dass SSAA verwendet wird kann er auch bestimmt im speichercontroller einige zugriffe entsprechend optimieren, was so natürlich auch nicht möglich ist.
Klingt plausibel.

es ist eigentlich auch egal warum es langsamer ist, es ist ein fakt dass es deutlich langsamer ist.
Deutlich langsamer als was?
Der Treiber bietet diese Option nicht an.

Gast
2006-04-21, 21:44:21
Ok, wenn du meinst dass es in Zukunft schlimmer wird, dann kann ich dir den Glauben auch nicht nehmen...
Ich bin da eher positiv eingestellt, auch was die Optimierungen betrifft.
Sollte ein IHV auf die BQ-Schraube drücken, dann gibt´s halt wieder einen Aufstand, wie beim G70.Ich glaube in der Tat, daß es schlimmer wird, nur die Schuld sehe ich nicht primär bei den IHVs. Je komplizierter die Shader werden desto weniger trivial ist shaderinternes AA. Wenn sogar bei reinen Fleissarbeiten wie z.B. der Übersetzung von Oblivion absoluter Bockmist fabriziert wird, wie schlimm wird das dann erst bei komplizierten Sachen wie Shadern, die unter bestimmten Bedingungen flimmern wie Sau?
SSAA geht auch über den DX-Tweaker. Aber wie gesagt, habe ich den DX-Tweaker nie wirklich gebraucht, da mir die BQ, mit Transparrenz-AA eigentlich immer ausreicht.
Und ich bin sicherlich nicht anspruchslos.

Da unterscheiden wir uns wohl.
Ich bin da eher auf Preis/Leistung getrimmt, also kommt SLI/Crossfire gar nicht in Frage. Von anderen Nachteilen mal abgesehen.SLI ist an sich auch nicht so mein Ding, vor allem AFR halte ich für eine bescheuerte Idee. In Kombination mit th2go gibts symetrische Hybridmodi (8xS-old, 16xS) aber nur bei 1920x480, SLI-AA (und CF-SuperAA, wenn CF generell denn gehen würde und Radeons diese Auflösung im 3D-Modus überhaupt ausspucken würden) müsste bis 3840x1024 funzen. Und der DX-Tweaker, so ein wundervolles Stück Software er auch sein mag, bringt unter OpenGL leider nichts.

MikBach
2006-04-21, 21:56:21
Ich glaube in der Tat, daß es schlimmer wird, nur die Schuld sehe ich nicht primär bei den IHVs. Je komplizierter die Shader werden desto weniger trivial ist shaderinternes AA. Wenn sogar bei reinen Fleissarbeiten wie z.B. der Übersetzung von Oblivion absoluter Bockmist fabriziert wird, wie schlimm wird das dann erst bei komplizierten Sachen wie Shadern, die unter bestimmten Bedingungen flimmern wie Sau?
Na ja, von einer Übersetzung auf die Programmierung zu schliessen halte ich doch ein wenig zu gewagt.

Und der DX-Tweaker, so ein wundervolles Stück Software er auch sein mag, bringt unter OpenGL leider nichts.
Deswegen heisst er ja auch DX-Tweaker. :)
Aber wie liegt der Prozentsatz an OGL-Spielen, die so in einem Jahr erscheinen?
1% oder geht es doch in Richtung 2 %?

Ist aber auch egal. OGL wird bei den Spielen wahrscheilich eh aussterben...
Vista trägt auch dazu bei.

Gast
2006-04-21, 22:09:02
Na ja, von einer Übersetzung auf die Programmierung zu schliessen halte ich doch ein wenig zu gewagt.Beides kostet Zeit und Geld. Aus der Perspektive ist es nicht sonderlich gewagt.

Gast
2006-04-21, 22:17:39
Deutlich langsamer als was?
Der Treiber bietet diese Option nicht an.

als treiber-SSAA, mit einer nvidia-karte kann man beides testen ;)

ich glaube da ist die annahme nicht so falsch, dass auch bei ATI ein ordentlich in den treiber integriertes SSAA schneller wäre ;)

MikBach
2006-04-21, 22:19:24
Beides kostet Zeit und Geld. Aus der Perspektive ist es nicht sonderlich gewagt.
Doch.
Es gibt Spiele, die sehr gut programmiert sind, aber die Übersetzung schlecht ist...
Wir kommen jetzt aber heftig vom Topic ab.
Man redet gerade hier darüber, dass ATI´s AF auch manchmal flimmert...

Ronny145
2006-04-21, 22:38:44
was soll ich machen, soll ich die fps werte nach unten korrigieren damit ihr glücklich seit? ist ja das gleiche wie oblivion, ne ati ist x1900 ist nix schneller als ne 7900gtx (dort ist übrigens zwischen HQ vs Q genau 0fps unterschied), aber es wird überall anders angeprangert...

mfg



Das ist eine Lüge. Da hast du eine Stelle getestet, wo es keinen Unterschied gibt. Also ist es überall so, oder wie? Ich habe mit meiner 7800 GT einen deutlichen Unterschied bemerkt.

Gast
2006-04-21, 22:40:57
Doch.
Es gibt Spiele, die sehr gut programmiert sind, aber die Übersetzung schlecht ist...
Wir kommen jetzt aber heftig vom Topic ab.
Man redet gerade hier darüber, dass ATI´s AF auch manchmal flimmert......genau, auch, wie NV, nur daß man bei NV SSAA oder einen Hybridmodus zuschalten kann und das Geflimmer wird eingedämmt. Wie bereits gesagt, böte mir ATI all die Kleinigkeiten, die ich an GFs und deren Treibern so mag, ich würde mit fliegenden Fahnen überlaufen, denn ich sehe ihre Hardware als überlegen an. Das Gesamtpaket aus Hardware und Treiber ist momentan für mich aber bei NV ein weit besseres, denn ohne SSAA-Option ist auch der mustergültigste IHV mit den einwandfreisten Texturfiltern (also ein fiktiver, denn die beiden Fraktionen tun sich ja nicht soviel) nicht gegen alle Flimmereien gefeit, die ISVs können es jederzeit verbocken (Riddick :rolleyes: ) und werden es wohl in Zukunft häufiger als bisher.

Gast
2006-04-21, 22:45:28
pfft
hatte mal nach ner neueinstellung vergessen auf hq zustellen(6600gt)
auf einmal lüppte fear bei 1024 auf medium
kaum stellte ich auf hq fings manchmal an zu ruckeln

MikBach
2006-04-21, 22:59:12
...genau, auch, wie NV, nur daß man bei NV SSAA oder einen Hybridmodus zuschalten kann und das Geflimmer wird eingedämmt. Wie bereits gesagt, böte mir ATI all die Kleinigkeiten, die ich an GFs und deren Treibern so mag, ich würde mit fliegenden Fahnen überlaufen, denn ich sehe ihre Hardware als überlegen an. Das Gesamtpaket aus Hardware und Treiber ist momentan für mich aber bei NV ein weit besseres, denn ohne SSAA-Option ist auch der mustergültigste IHV mit den einwandfreisten Texturfiltern (also ein fiktiver, denn die beiden Fraktionen tun sich ja nicht soviel) nicht gegen alle Flimmereien gefeit, die ISVs können es jederzeit verbocken (Riddick :rolleyes: ) und werden es wohl in Zukunft häufiger als bisher.
Auch mit SSAA bekommt man das Flimmern nicht immer weg.
Ist kein Heilmittel gegen alles.
Wenn der Content stimmt sollte es auch ohne SSAA zufriedenstellend funktionieren.

MikBach
2006-04-21, 23:00:31
pfft
hatte mal nach ner neueinstellung vergessen auf hq zustellen(6600gt)
auf einmal lüppte fear bei 1024 auf medium
kaum stellte ich auf hq fings manchmal an zu ruckeln
Super! :rolleyes:
Und was hat das jetzt mit dem Topic zu tun? :frown:

edit:
Wir wollen in diesem Thread rausfinden, wo ATI´s AI flimmert (nehme ich doch stark an).
Oder wo es sogar mit AI-off flimmert. Das ist alles.
Ich habe mal Morrowind als Kanditaten genannt. WoW ist auch in Verdacht, wir brauchen mehr Spiele. Vielleicht wird daraus ja auch ein Artikel...

Odal
2006-04-21, 23:17:05
DoD:Source flimmert...liegt aber höchstwahrscheinlich am Content.... SuFu dürfte da einen Thread von mir mit animierten Gifs ausspucken

BH abgemeldet
2006-04-21, 23:20:15
Super! :rolleyes:
Und was hat das jetzt mit dem Topic zu tun? :frown:
Wenn The_Invidsible im Thread nicht rumquatschen würde, wahrscheinlich nichts.

edit:
Wir wollen in diesem Thread rausfinden, wo ATI´s AI flimmert (nehme ich doch stark an).
Oder wo es sogar mit AI-off flimmert. Das ist alles.
Ich habe mal Morrowind als Kanditaten genannt. WoW ist auch in Verdacht, wir brauchen mehr Spiele. Vielleicht wird daraus ja auch ein Artikel...
Du willst Raffs Job machen? Der beschränkt sich doch bestimmt nicht nur auf Erstellen von Threads oder?

4 Vitamins
2006-04-21, 23:29:06
Oder wo es sogar mit AI-off flimmert. Das ist alles.
Ich habe mal Morrowind als Kanditaten genannt. WoW ist auch in Verdacht, wir brauchen mehr Spiele. Vielleicht wird daraus ja auch ein Artikel...

Wo soll es bei Morrowind flimmern?? und bei welche einstellung?? habe es "ganz zufällig" auf der platte. :D

Gruss

MikBach
2006-04-21, 23:38:32
Wo soll es bei Morrowind flimmern?? und bei welche einstellung?? habe es "ganz zufällig" auf der platte. :D

Gruss
Steintexturen, bei kleineren Häusern kaum sichtbar, bei Burgen flimmert es in weiterer Entfernung deutlich sichtbar.

Gast
2006-04-21, 23:54:26
Auch mit SSAA bekommt man das Flimmern nicht immer weg.
Ist kein Heilmittel gegen alles.
Wenn der Content stimmt sollte es auch ohne SSAA zufriedenstellend funktionieren.Mit OGSSAA bekommt man das Flimmern aber immer gemindert, und der Content stimmt immer öfter nicht so wirklich. Bei den deutlich unterschiedlichen SM-Interpretationen von NV und ATI auch kein Wunder, da jede Kombination aller Shader durchzutesten ist schon PITA, suboptimale Texturfilter tun ihr übriges dazu.

Raff
2006-04-22, 00:37:29
Daß der R5x0 bei gleichen Einstellungen schlechter rendert als ein R3x0 wäre einen Artikel wert. Fertig. Wobei ich immer dachte, zum R5x0 kamen wu-AF und anderes Pipapo was die Renderquali steigern und nicht sinken soll.

Ein R5x0 rendert mit HQ-AF auch besser als ein R3x0 – aber nur, wenn A.I. aus ist. Ansonsten sieht man mit empfindlichen Glubschern häufiger Artefakte, die nicht da sein sollen. Genauso bei einem R4x0: Gleiche BQ wie ein R3x0, wenn A.I. aus ist, R5x0 (wa-) Niveau wenn an.

Du willst Raffs Job machen? Der beschränkt sich doch bestimmt nicht nur auf Erstellen von Threads oder?

Mein Job? Wo? Vielleicht sehe ich mich ja nur als Augenöffner. So ein Öffner ist übrigens eine geniale Erfindung, wie wir gerade bei 2-3 Bierchen feststellen durften. Aber ein Handy tut's idR auch. ;)

MfG,
Raff

BH abgemeldet
2006-04-22, 01:23:41
Mein Job? Wo? Vielleicht sehe ich mich ja nur als Augenöffner
Erstmal all die Blinden finden.

So ein Öffner ist übrigens eine geniale Erfindung, wie wir gerade bei 2-3 Bierchen feststellen durften. Aber ein Handy tut's idR auch. ;)
1. Kerle ziehen es einfach ab. Bei manchen Flaschen/Marken wird es sogar aufgedreht ;)

2. Bier saufen und online sein. Jetzt wissen wir wozu das führt :D Um mal was positives beizutragen: So langsam komm ich dahinter was Du mit dem Thread meinst. Und negatives: Die Einleitung war halbwegs beschiessen. Der halbe Thread ist voll Mißverständnisse und von dem Rest ist wiederum die Hälfte mit irgendwelchem NV-Gelabber durchsiebt, daß es erstmal abzuschütteln gab. Nix gut. Das nächste Mal machst Du das aber so semiprofesionell wie man es von Dir gewohnt ist :up: Damit mein ich nichtmal, daß der Text schlecht war/ist, aber Du müßtest Deine Schweine mittlerweile am Gang erkennen oder?

Nichtsdestotrotz zeigst Du damit - zwar keinen neuen - aber ohne Frage einen vorhandenen Misstand auf. Bitte am Ball bleiben.

nacht

Coda
2006-04-22, 01:41:13
Aber ein Handy tut's idR auch.
Oder der Autoschlüssel... ;)

Odal
2006-04-22, 01:43:47
ist zwar extrem offtopic aber der beste öffner für ne flasche ist ne flasche :D

ist war weit hergeholt aber genauso bei der "flimmerproblematik"...da brauchts meist einen anderen user um einen dafür zu "öffnen" ... sprich das meiste ist eine art "flimmerhype" :D
einiges extremes flimmern ist natürlich störend.

Odal
2006-04-22, 01:45:03
Oder der Autoschlüssel... ;)

wer trinkt soll aber nicht fahren ;) und am besten keinen autoschlüssel griffbereit haben

BlutenderFleischer
2006-04-22, 02:19:47
Man jetzt verlinkt ihr das hier schon in den News. Macht doch einfach einen NV Artikel "Ist SSAA heutzutage sinnvoll nutzbar" und einen ATI-Artikel "Ist HDR+AA heutzutage sinnvoll nutzbar".

betasilie
2006-04-22, 02:28:14
Das Flimmern mit meiner X1900XT in WOW nervt echt wie sau. Ziemlich mies im Vergleich zur X800-Serie.

Fetza
2006-04-22, 05:11:55
Das Flimmern mit meiner X1900XT in WOW nervt echt wie sau. Ziemlich mies im Vergleich zur X800-Serie.

Welche settings hast du denn gesetzt? Und ist A.I. ein oder ausgestellt? Ich versteh nicht wie leute mit so einer high-end karte das A.I. auf ein lassen, die karte hat doch nun wirklich genug saft :)

Achja und die beiden oberen gastbeiträge sind von mir :redface: is ja schon spät, und das ist mir beim versuch einzuloggen passiert :D

Nacht

Fetza

The_Invisible
2006-04-22, 08:34:44
Das ist eine Lüge. Da hast du eine Stelle getestet, wo es keinen Unterschied gibt. Also ist es überall so, oder wie? Ich habe mit meiner 7800 GT einen deutlichen Unterschied bemerkt.

hab ich mir die stelle ausgesucht? nein, lies doch lieber mal den thread bevor du postest

außerdem habe ich sehrwohl auch unterschiede ausgemacht wie zb UT2004, auch hier, LESEN!

mfg

Ronny145
2006-04-22, 08:42:58
hab ich mir die stelle ausgesucht? nein, lies doch lieber mal den thread bevor du postest

außerdem habe ich sehrwohl auch unterschiede ausgemacht wie zb UT2004, auch hier, LESEN!

mfg

Dann schreibe nicht das es keinen Unterschied macht! Das macht es sehr wohl.

MikBach
2006-04-22, 09:55:40
Man jetzt verlinkt ihr das hier schon in den News. Macht doch einfach einen NV Artikel "Ist SSAA heutzutage sinnvoll nutzbar" und einen ATI-Artikel "Ist HDR+AA heutzutage sinnvoll nutzbar".
Ähm, falsche Baustelle? :confused:

Hier geht es um das AF, nicht AA.

BTW der Artikel über HDR + AA wäre ziemlich kurz, da GPUs, die dies beherrschen ziemlich neu sind und es zur Zeit nur 2 oder 3 Spiele gibt die dies unterstützen. SSAA gibt es aber schon seit Jahren. AFAIK seit dem R200.

Rente
2006-04-22, 10:00:49
Und ist A.I. ein oder ausgestellt? Ich versteh nicht wie leute mit so einer high-end karte das A.I. auf ein lassen, die karte hat doch nun wirklich genug saft :)
Du bist dir aber schon im Klaren, das sämtliche Bugfixes für Spiele verloren gehen, wenn AI aus ist, oder?!
Trilineare Filterung und andere Bildqualitätoptimierungen lassen sich eigentlich prima über das ATi Tray Tool an- oder ausschalten, ohne das man auf Bugfixes verzichten muss, zumindestens war das bis vor 5-6 Monaten so.

MikBach
2006-04-22, 10:02:36
Du willst Raffs Job machen? Der beschränkt sich doch bestimmt nicht nur auf Erstellen von Threads oder?
Nein, das kann ich auch gar nicht, da ich z.B. WoW nicht besitze, also eins der Spiele, wo es deutlich sichtbar ist.
Nach den Beschreibungen zu urteilen, auch von betareverse, würde ich wahrscheinlich Augenkrebs bekommen.

Gast
2006-04-22, 10:14:46
Ähm, falsche Baustelle? :confused:

Hier geht es um das AF, nicht AA.Einerseits ja, andererseits hat SSAA eben auch AF-Wirkung und exzellente Flimmerverminderungsqualitäten.
SSAA gibt es aber schon seit Jahren. AFAIK seit dem R200.Wohl eher NV10, für die TNTs wars wohl auch angekündigt, aber afaik nie rausgekommen.

MikBach
2006-04-22, 10:31:59
Einerseits ja, andererseits hat SSAA eben auch AF-Wirkung und exzellente Flimmerverminderungsqualitäten.
Lieber gescheites AF und gut programmierter Content anstatt sinnlos Bandbreite zu verpulvern.

Wohl eher NV10, für die TNTs wars wohl auch angekündigt, aber afaik nie rausgekommen.
Hast recht.

Gast
2006-04-22, 10:42:43
Lieber gescheites AF und gut programmierter Content anstatt sinnlos Bandbreite zu verpulvern.Schon wieder einerseits andererseits. Einerseits muß ich dir zustimmen, andererseits scheinen gescheites AF und gut programmierter Content von Jahr zu Jahr seltener zu werden, während SSAA noch immer funzt und tut, was es tun soll. Lieber den leistungsfressenden Spatz in der Hand als die Taube auf dem Dach, von dem man sie manchmal mit seiner sparsamen Zwille herunterschießen kann.

4 Vitamins
2006-04-22, 10:55:26
Ein R5x0 rendert mit HQ-AF auch besser als ein R3x0 – aber nur, wenn A.I. aus ist. Ansonsten sieht man mit empfindlichen Glubschern häufiger Artefakte, die nicht da sein sollen. Genauso bei einem R4x0: Gleiche BQ wie ein R3x0, wenn A.I. aus ist, R5x0 (wa-) Niveau wenn an.

MfG,
Raff

Was soll dieses "aber nur wenn A.I aus ist"......wo hat ATI behauptet dass "A.I an" identisch mit "A.I. off" ist. Es ist technisch unmöglich.
Jeder der das beste Bild haben will, kann locker bei ATI "A.I. off" stellen.
Also stellen wir fest: "ATI flimmert nicht"
Und dass es (manchmal)flimmert wenn Optimirungen an sind, ist uninteressant, da man diese abstellen kann und wenn bei A.I.off flimmern gibt, liegt es am schlecht oder ungünstig programmierten game.
Wenn man bei zwei Karten die Bildqualität vergleich dann "nur" mit DEFAULT Einstellungen. Bei Gamebenches kann man die Qualitätseinstellungen einander anpassen, mann will ja wissen, wie läuft die Karte mit "alltagseinstellungen".
Welche Karten Default besser sind ist klar. :biggrin:

Also zu versuchen eine Karte mit "gewalt" flimmern anzuhängen, welches NUR auftritt wenn man Optimierungen einschaltet...........kann ich nich nachvollziehen :confused:

Gast
2006-04-22, 11:28:44
Wohl eher NV10, für die TNTs wars wohl auch angekündigt, aber afaik nie rausgekommen.

es gab damals den einen oder anderen treiber der SSAA unterstützte.

allerdings konnte man dieses nicht erzwingen, sondern musste im spiel aktiviert werden, und da kann ich mich nur an ein (freeware)-spiel erinnern wo das möglich war ;)

Gast
2006-04-22, 11:36:49
OK, also ab NV10 allgemein einsetzbar. Oder gab es auch Treiber, die auch bei TNTs das Erzwingen ermöglichten?

Gast
2006-04-22, 11:54:29
OK, also ab NV10 allgemein einsetzbar. Oder gab es auch Treiber, die auch bei TNTs das Erzwingen ermöglichten?

nicht das ich wüsste, in den späteren treibern flog die SSAA-unterstützung dann ja wieder raus.

HOT
2006-04-22, 13:29:27
Das Flimmern mit meiner X1900XT in WOW nervt echt wie sau. Ziemlich mies im Vergleich zur X800-Serie.

Also ich kann keinen Unterschied zwischen der X850XT und der X1900XTX erkennen, flimmern beide. Allerdings flimmert die 6800GT auf HQ auch, wenn auch weniger, wenn HQ ohne Optimierungen an ist.

BlutenderFleischer
2006-04-22, 13:54:38
Ähm, falsche Baustelle? :confused:

Hier geht es um das AF, nicht AA.

BTW der Artikel über HDR + AA wäre ziemlich kurz, da GPUs, die dies beherrschen ziemlich neu sind und es zur Zeit nur 2 oder 3 Spiele gibt die dies unterstützen. SSAA gibt es aber schon seit Jahren. AFAIK seit dem R200.

Hier geht es nicht um AF, sondern um Flimmern und wie man es beseitigt. Ob man das jetzt mit AF beseitigt oder SSAA ist ja egal, hauptsache es geht weg, die BQ ist gut und es ist noch spielbar.
SSAA gibt es seit dem VSA 100

Raff
2006-04-22, 14:00:38
Nein, das gab es - wie vor einigen Posts erwähnt - schon mit dem NV10, a.k.a. GeForce256. Allerdings nur OGSSAA, das auch noch die GeForce7-Serie kann. 3dfx' VSA-100 bietet das überlegene rotated/sparse grid Super-Sampling.

MfG,
Raff

BlutenderFleischer
2006-04-22, 14:02:06
Nein, das gab es - wie vor einigen Posts erwähnt - schon mit dem NV10, a.k.a. GeForce256. Allerdings nur OGSSAA, das auch noch die GeForce7-Serie kann. 3dfx' VSA-100 bietet das überlegene rotated/sparse grid Super-Sampling.

MfG,
Raff

Ahh stimmt, habe das durcheinandergeworfen, bin davon ausgegangen, daß der VSA-100 früher kam....

Raff
2006-04-22, 15:31:31
Urks. Ich habe soeben mal wieder CS: Source angeworfen ... Schaut ebenfalls grauenhaft aus. Getestet habe ich Compound als CT.

MfG,
Raff

betasilie
2006-04-22, 15:57:27
Welche settings hast du denn gesetzt? Und ist A.I. ein oder ausgestellt? Ich versteh nicht wie leute mit so einer high-end karte das A.I. auf ein lassen, die karte hat doch nun wirklich genug saft :)

Achja und die beiden oberen gastbeiträge sind von mir :redface: is ja schon spät, und das ist mir beim versuch einzuloggen passiert :D

Nacht

Fetza
Ich habe A.I. an, weil ich bisher null probleme hatte. Bei WOW werd eich es mal ausmachen, wenn es am Texturfilter rumcheatet.

The_Invisible
2006-04-22, 16:20:25
Ich habe A.I. an, weil ich bisher null probleme hatte. Bei WOW werd eich es mal ausmachen, wenn es am Texturfilter rumcheatet.

keine probleme ist gut, das hat man auch bei nvidia in "highperformance" nicht ;)

mfg

betasilie
2006-04-22, 16:23:03
keine probleme ist gut, das hat man auch bei nvidia in "highperformance" nicht ;)

mfg
Nun bei meiner X800 ist mit mit A.I. auf low nie was negatives aufgefallen, und ich habe meine nVidia verkauft, weil sie geflimmert hat wie sau.

BlutenderFleischer
2006-04-22, 16:25:19
Nein, das gab es - wie vor einigen Posts erwähnt - schon mit dem NV10, a.k.a. GeForce256. Allerdings nur OGSSAA, das auch noch die GeForce7-Serie kann. 3dfx' VSA-100 bietet das überlegene rotated/sparse grid Super-Sampling.

MfG,
Raff

Wenn es so überlegen war, warum nutzt es dann keiner mehr??
Ist es überlegen, was BQ UND Leistung angeht?
Ist es schwer zu implementieren???

Raff
2006-04-22, 16:59:22
Wenn es so überlegen war, warum nutzt es dann keiner mehr??
Ist es überlegen, was BQ UND Leistung angeht?
Ist es schwer zu implementieren???

Überlegen in Sachen Qualität, verglichen mit OGSS. 4xRGSSAA (Voodoo5 5500) hat eine EER von 4x4 auf alle Objekte, genau wie Nvidias 4x4 OGSSAA. Nur letzteres sechzehntelt die Füllrate der Karte, ersteres viertelt ... ;) Die Texturschärfung ist beim 4x4 allerdings doppelt so gut. 2x2 OGSS hat die gleiche EER wie 2xRGSS (Voodoo4 4500).

Nachteile: Natürlich ist RGSS noch immer deutlich langsamer als RGMS, zudem braucht ersteres auch Hardware-Anpassungen – im Gegensatz zu OGSS.
________________________________________________________________________________ ____________________________________

@ Topic:

Ich experimentiere übrigens gerade mit animierten GIFs (thx @ Lolman für die Inspiration). Erste Beweise für nerviges A.I. hier:

http://rapidshare.de/files/18656899/WOW1.gif.html
http://rapidshare.de/files/18657463/WOW2.gif.html

WOW1 => A.I. Standard
WOW2 => A.I. Disabled

Leider wird durch die billige Farbpalette die Qualität beinträchtigt, aber der Unterschied ist gut sichtbar. Bitte auf den Boden unmittelbar vor meinem Paladin achten, nicht auf den Griesbrei noch viel weiter vorne ... das kommt durch das GIFen und flimmert ingame nicht so. Das Flimmern, das ingame so stört, geht hingegen etwas im GIF unter ... ;( Naja, Hauptsache platzsparend + Unterschied ...

MfG,
Raff

(del)
2006-04-22, 17:04:20
Urks. Ich habe soeben mal wieder CS: Source angeworfen ... Schaut ebenfalls grauenhaft aus. Getestet habe ich Compound als CT
Wird die Sig jetzt wieder angepaßt oder stimmt das erstmal soweit? ;)

@The_Invisible
Bitte versuch den Thread doch nicht andauernd auf Dein Niveau runter zu ziehen.

Raff
2006-04-22, 17:05:58
Wird die Sig jetzt wieder angepaßt oder stimmt das erstmal soweit? ;)

Ich schwanke. Mal kotzt mich das eine, mal das andere mehr an. Sobald ich mehr A.I.-Beispiele finde, die übel aussehen, wird das wieder angepasst.

MfG,
Raff

The_Invisible
2006-04-22, 17:08:21
Wird die Sig jetzt wieder angepaßt oder stimmt das erstmal soweit? ;)

@The_Invisible
Bitte versuch den Thread doch nicht andauernd auf Dein Niveau runter zu ziehen.

OT: was hastn du für probleme (mit mir)? heute wohl mit den linken fuß aufgestanden oder so...

mfg

(del)
2006-04-22, 17:18:12
Ich schwanke. Mal kotzt mich das eine, mal das andere mehr an. Sobald ich mehr A.I.-Beispiele finde, die übel aussehen, wird das wieder angepasst
Du meinst die "übler" aussehen. Wenn beide Probanden gleich übel aussehen... ;) Ich würd aber gerne auch mal etwas anderes als WoW sehen. Das war für seine schwierige Texturen schon bei der Veroffentlichung bekannt. Das sorgte imho auch für den ersten Aufschrei beim G70 mit dem alten Treiber.

Zum Grundsätzlichen. Hatten wir schon. Es geht ja um ganze Texturen und nicht einzelne Pixel. Sollte man da nicht über Griseln statt über Flackern reden?

@The_Invisibel
Na klar doch.

Raff
2006-04-22, 17:24:37
Warum willst du dauernd die Tatsache, dass A.I. nervt und sogar mehr flimmern kann als Nvidia-HQ, schönreden? Schon ein Fall ist diskussionswürdig (sofern es am Filter liegt und nicht an den Texturen). Und da es nicht nur einer ist, kommen auch mehr Bildchen. Und wenn A.I. mal auffällt, dann stärker als Nvidia-HQ. Das bei WoW erinnert mich stark an Quality ... in CS:S übrigens auch.

Wie gesagt, ich stecke gerade in meinen GIF-Kinderschuhen und fummle noch an den Schnürsenkeln. ;)

Mir ist beim Testen aufgefallen, dass, wenn es flimmert/grieselt/suckt, in nächster Nähe zum Betrachter am auffälligsten ist.

MfG,
Raff

(del)
2006-04-22, 18:23:24
Warum willst du dauernd die Tatsache, dass A.I. nervt und sogar mehr flimmern kann als Nvidia-HQ, schönreden?
Sorry für meine Ehrlichkeit jetzt, aber hast Du einen an der Waffel? :| Was für schönreden? Zum einen nervt es Dich. Das will keiner schönreden.

Schön bei den Fakten und klugen fundierten Aussagen bleiben und alles wird gut. Was bei wievielen Fällen für Dich diskussionswürdig ist, bleibt für Dich diskussionswürdig. Will ich Dir ebenfalls nicht absprechen. Stell das hier aber nicht so selbstherrlich in den Raum. Ich hab schon mehrmals erwähnt, daß hier Mißstände angesproichen werden. Was los mit Dir?
Mein Einwurf lautete, ob Du mit Deiner brisanten und nun offentlichen Entdeckung bei WoW hängen bleibst oder ob man sich noch etwas anderes ansehen darf.

Ich kann mir schon gut vorstellen, daß ich Dir in dem Thread auf den Senker gehe, aber das sollte imho kein Grund für Dich sein mit der von Dir gewohnten Qualität nachzulassen.

Bis später.

The_Invisible
2006-04-22, 18:26:56
Ich kann mir schon gut vorstellen, daß ich Dir in dem Thread auf den Senker gehe, aber das sollte imho kein Grund für Dich sein mit der von Dir gewohnten Qualität nachzulassen.

Bis später.

was ist für dich qualität? alles was pro ati ist und gegen nv?

wie ich schon gesagt habe: mit linken fuß aufgestanden und wahrscheinlich ist auch noch die freundin flöten gegangen, da kann ich das schon verstehen ;)

mfg

Raff
2006-04-22, 18:29:41
BessereHälfte, schonmal daran gedacht, dass mir Dinge erst auffallen können, wenn ich eine Karte habe, die besagte Mängel aufweist? ;) Ich quatsche BQ-Ansichten nicht nach, sondern teste selbst. Blöderweise hatte ich diese Gelegenheit bisher nur mit einem NV40 und R350/360 sowie einem NV38. Der R520 kam erst letzte Woche. Und einige scheint der Inhalt des Threads ja zu überraschen.

Und meine "Qualität" ist nicht gefallen. Sie bemängelt nur eben mal berechtigt die Roten und nicht - wie bisher - die Grünen.

MfG,
Raff

betasilie
2006-04-22, 18:29:57
Warum willst du dauernd die Tatsache, dass A.I. nervt und sogar mehr flimmern kann als Nvidia-HQ, schönreden?
Nun, wie Du schon sagst kann es ähnlich viel Flimmern, wie bei NV. Nur ist das bei weitem nicht bei jedem Spiel so und außerdem kann man es umgehen, indem man A.I. ausschaltet.

Von daher ist es ärgerlich, aber imo bei weitem nicht so schlimm, wie bei den nVida karten.

(del)
2006-04-22, 18:31:11
was ist für dich qualität? alles was pro ati ist und gegen nv?

wie ich schon gesagt habe: mit linken fuß aufgestanden und wahrscheinlich ist auch noch die freundin flöten gegangen, da kann ich das schon verstehen ;)
Bitte versuch den Thread doch nicht andauernd auf Dein Niveau runter zu ziehen.

Meldung ist raus. Tut mir leid. Manche legen die Maske schon nach paar Seiten ab. Traurig.

(del)
2006-04-22, 18:35:46
BessereHälfte, schonmal daran gedacht, dass mir Dinge erst auffallen können, wenn ich eine Karte habe, die besagte Mängel aufweist? ;)
Ja. Ich hab schon nacheditiert :redface: Das mit dem schönreden lies die Finger leider zu schnell über die Tasta fliegen ;)

Und meine "Qualität" ist nicht gefallen. Sie bemängelt nur eben mal berechtigt die Roten und nicht - wie bisher - die Grünen
Ist doch korrekt. Wer tobt hier mehr außer Ulu über den 6.3/6.4 Cat? Ich? Na also ;)

OnT: GIFs find ich wegen der abgesägten Palette suboptimal. Ich weiß, ist alles schwierig, aber imho solltet ihr euch für solche Fälle was brauchbareres einfallen lassen.

Raff
2006-04-22, 19:08:41
OnT: GIFs find ich wegen der abgesägten Palette suboptimal. Ich weiß, ist alles schwierig, aber imho solltet ihr euch für solche Fälle was brauchbareres einfallen lassen.

Ich auch. Aber ich kann nicht jedesmal ein 30+ MB-Video hochladen, da ich nicht weiß, wie ich verlustfrei komprimieren kann. Der Movie Maker saugt diesbezüglich.

CS:S:

http://rapidshare.de/files/18666425/CSS1.gif.html
http://rapidshare.de/files/18666932/CSS2.gif.html

Auch hier gilt: Ingame fällt das stärker auf, auch wenn die GIFs nun sehr gut aussehen. 1280x1024 mit 6xAA (ingame)/16xHQ-AF (CCC) per FRAPS halfsize capturing und 25 Fps.

Mittlerweile kann ich fast sicher sagen, dass die "Optimierung" erst ab 1600x1200 voll zur Geltung kommt, was Augenkrebs angeht. Wenn ich das AVIe oder GIFe, dann sprengt das leider alles.

MfG,
Raff

Banshee18
2006-04-22, 19:23:07
Ich kann deine gifs nicht anguxx0rn, da rapidshare sie statt downloaden direkt anzeigen will.

"Die Grafik "http://dl26cg.rapidshare.de/files/18666425/1060347985/CSS1.gif" kann nicht angezeigt werden, weil sie Fehler enthält."

Raff
2006-04-22, 19:29:49
Schräg, habe nichts anderes als oben gemacht. :|

Bin übrigens ein Depp. Ich mache jetzt mal Versuche in 1600x1200 oder 2048x1536 (mit einem R5x0 praxisrelevante Auflösungen :D) und verkleinere oder nutze Ausschnitte.

MfG,
Raff

(del)
2006-04-22, 20:01:19
Schräg, habe nichts anderes als oben gemacht. :|

Bin übrigens ein Depp. Ich mache jetzt mal Versuche in 1600x1200 oder 2048x1536 (mit einem R5x0 praxisrelevante Auflösungen :D) und verkleinere oder nutze Ausschnitte
Haben FRAPS-Anims welche die gleiche Menge an Infos besitzen wioe die Gifs wirklich 20-30MB? Eine 5s Sequenz kann doch nicht 50MB haben? Höhstens mit 25 BMPs pro Sekunde :confused: =)

Immerhin würde es noch MNG geben ("Animated PNG"). Was IrfanView anzeigen kann, ist gut ;) Wäre nur die Frage, ob die Erstellungstools brauchbar sind.

Raff
2006-04-22, 20:06:26
Was ich aufnehme, hat 20-30 MB, und 25 Fps ist Minimum. Bei den GIFs habe ich dann 30 Einzelbilder genommen, was mit der Kompression auf ~5 MB kommt.

Ich lade gerade einen Leckerbissen hoch. 2048x1536 halfsize (mehr als 1024-er Videos gehen mit der Trial von FRAPS wohl nicht).

€dit:

Wer mag: http://rapidshare.de/files/18672706/hl2_2006-04-22_19-32-36-96.avi.html (22,8 MB)

2048x1546 + 6xAA (ingame)/16xHQ-AF (CCC), A.I. Standard. Und immer schön Fullscreen ansehen! Das Herunterskalieren macht den Effekt bei der Auflösung praktisch nicht zunichte. :)

MfG,
Raff

ungebetener Gast
2006-04-22, 20:17:58
"CSS1.gif" zeigt mir firefox ebenfalls nicht an meint nur "fehlerhaft"


und dann möchte ich mal anfügen das ich es sehr begrüssen würde wenn "ihr" regelmässig möglichst "lautstark" die hersteller darauf hinweist das es einfach völlig unakzeptabel ist wenn moderne high end grafikkarten nicht in der lage sind texturen flimmerfrei darzustellen.

für den preis erwarte ich das der hersteller einen einfach zu bedienenden regler mitliefert: "perfekte texturqualität dafür langsam / schnell dafür texturqualität nebensächlich". von mir aus auch zwischenstufen.

wenn dem käufer schon bei normaler nutzung also oberflächlichem betrachten weil man hauptsächlich mit "ballern" beschäftigt ist gravierende mängel in der darstellung aufallen hat der texturfilter ja wohl komplett versagt.

man möge mich berichtigen aber praktisch alle spiele zeigen öberflächen die mit texturen benagelt sind und ausgerechnet diese vermag keiner der heute üblichen grafikchips fehlerfrei darzustellen? sehr traurig ...

MikBach
2006-04-22, 20:24:54
Ich schwanke. Mal kotzt mich das eine, mal das andere mehr an. Sobald ich mehr A.I.-Beispiele finde, die übel aussehen, wird das wieder angepasst.

MfG,
Raff
:confused:

Du hast jetzt Probleme bei WoW und CS:S festgestellt, ok.
Und danach willst du entscheiden, ob NV@HQ besser ist wie AI-low?
Das kann wohl nicht dein ernst sein... :|

Was ist mit den Spielen, wo ATI´s AI-low besser aussieht als NV´s HQ?

Raff
2006-04-22, 20:29:49
Ich sagte nicht, dass es damit getan ist und dass das die einzigen Spiele sind ...

Und ich sollte wohl besser nichts mehr schreiben, da mich eh keiner versteht. X-D

Diskutiert erst mal allein weiter. :|

MfG,
Raff

MikBach
2006-04-22, 20:33:45
Ich sagte nicht, dass es damit getan ist und dass das die einzigen Spiele sind ...

Und ich sollte wohl besser nichts mehr schreiben, da mich eh keiner versteht. X-D

Diskutiert erst mal allein weiter. :|

MfG,
Raff
Bitte nicht eingeschnappt sein. :) :comfort:

Das Video geht bei mir nicht. WMP spuckt eine Fehlermeldung aus.
"ClassFactory kann angeforderte Klasse nicht liefern" :|
Fehlt mir irgendein Codec, oder wie? :confused:

Raff
2006-04-22, 20:41:24
Für FRAPS-Videos muss afaik FRAPS installiert sein.

Erwähnte ich, dass A.I. off an der Stelle praktisch perfekt aussieht? Nein? Ok, jetzt. Bei hohen Auflösungen werden die Optimierungen hässlicher, der "reine" Filter schöner ... aus Fps-Sicht leider falsch herum.

Vermutung: Beim R5x0 soll ja die LOD-Berechnung genauer sein als noch beim R4x0. Das würde erklären, warum einen die MIP-Übergänge so anspringen.

MfG,
Raff