PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Anisotrope Filterung - Qualität, Flimmern und A.I.-Einstellungen nach R5xx


Seiten : 1 2 [3] 4

Lolman
2008-07-21, 08:26:22
Ich hab's schonmal gesagt, wer das als "gut" empfindet soll sich bei NVIDIA nen negativen LOD einstellen. Dann hast das gleiche in besser.

Das stimmt nun definitiv nicht. NV+negativer LOD ist garantiert nicht besser als ATI AI.

BTW: Wann skypen wir mal?

Gast
2008-07-21, 08:43:17
Zumindest kann man resümieren, dass Q und AI_standard "all in all" gut vergleichbar sind, die Benchmarks also relativ fair sind. Das AMDs Filter "intelligent" arbeiten soll ist ja nichts neues, deshalb die inkonsistente Qualität.

Denke ich nicht. Eher HQ vs. Stadndard A.I.

Q ist bei NV in vielen Spielen zu schlecht.

electric_delicate
2008-07-21, 08:48:27
Denke ich nicht. Eher HQ vs. Stadndard A.I.

Q ist bei NV in vielen Spielen zu schlecht.

Das würde ich nicht sagen. Q vs. AI Standard ist der geeignetste Vergleich.
So wie es Computerbase schon lange macht.

Cpl. Dwayne Hicks
2008-07-21, 09:19:50
Das würde ich nicht sagen. Q vs. AI Standard ist der geeignetste Vergleich.
So wie es Computerbase schon lange macht.

Sehe ich auch so!

misterh
2008-07-21, 12:24:00
EINS NOCHMAL FÜR ALLE

1. ATI filtert schlechter als Nvidia?

ja das stimmt, aber nicht so wie Ihr immer behauptet.

2. Bei Nvidia flimmert nicht.

Das stimmt nicht, auch mit Nvidia hatte ich flimmern erkennen können wie zb CSS.

Also beide Hersteller haben halt Ihre stärke und schwäche.
Wie Raff mal bei ein Video zeigte das angeblich nur ATI stark flimmert, war völlig falsch. Sowas hab ich nie sehen können, wenn dann sehr minimal wie auch mit Nvidia war, die ich hatte.

derguru
2008-07-21, 12:37:09
klar flimmern nv karten sogar bei HQ.

mach mal gothic3 das ist das reinster flimmerspiel;)

Raff
2008-07-21, 12:39:15
HQ flimmert aber deutlich seltener als A.I. Standard, das wurde immer wieder bewiesen. Ausnahmen bestätigen die Menstruation.

Bei einer GeForce hat der Nutzer aber die Möglichkeit, mit der SSAA-Keule die gröbsten Flimmerorgien zu bügeln.

MfG,
Raff

Gast
2008-07-21, 12:42:48
Dafür flimmert Q öfter

derguru
2008-07-21, 12:43:17
HQ flimmert aber deutlich seltener als A.I. Standard, das wurde immer wieder bewiesen. Ausnahmen bestätigen die Menstruation.

Bei einer GeForce hat der Nutzer aber die Möglichkeit, mit der SSAA-Keule die gröbsten Flimmerorgien zu bügeln.

MfG,
Raff


wieso kommst du eigentlich immer mit HQ gegen A.I. standart?wenn du schon vergleiche ziehst dann mach es auch Q gegen A.I. standart oder wiederum HQ gegen A.I.off.

ach ja ssaa in welchem spiel kann man denn das nutzen;) ich kann es kaum mit einer 260gtx mit overclock nutzen.entweder gehts gar nicht,fehlerhaft oder performance ist so stark in leidenschaft gezogen das man wieder beim standard AA bleibt.sowas sollte man praktisch beurteilen und nicht theorestisch.(es ist nicht aus spaß offiziell nicht mehr vorhanden)

misterh
2008-07-21, 12:49:01
klar flimmern nv karten sogar bei HQ.

mach mal gothic3 das ist das reinster flimmerspiel;)

meinst du mich? hab ich irgendswo anders behauptet?

HQ flimmert aber deutlich seltener als A.I. Standard, das wurde immer wieder bewiesen. Ausnahmen bestätigen die Menstruation.

Bei einer GeForce hat der Nutzer aber die Möglichkeit, mit der SSAA-Keule die gröbsten Flimmerorgien zu bügeln.

MfG,
Raff

dein vergleich hinkt

derguru
2008-07-21, 12:49:47
@misterh

nein ich meine die flimmerkiste da.

Raff
2008-07-21, 12:50:28
Komisch, ich nutze SSAA mit einer (stark übertakteten) 8800 GTX in fast jedem Spiel ... von Crysis mal abgesehen. Was mache ich fal... äh, richtig?

MfG,
Raff

misterh
2008-07-21, 12:51:08
@misterh

nein ich meine die flimmerkiste da.

ach so ok ^^

misterh
2008-07-21, 12:57:17
Komisch, ich nutze SSAA mit einer (stark übertakteten) 8800 GTX in fast jedem Spiel ... von Crysis mal abgesehen. Was mache ich fal... äh, richtig?

MfG,
Raff

was bist du für ein ****

lass das SSAA aus dem Spiel

wir wissen das SSAA meisten glättet, was zu sehen ist. Erst recht wenn du 4x4 einschaltest.

Raff
2008-07-21, 12:58:55
Ist da jemand ein klein wenig aggressiv? Hier geht's um eine BQ-Diskussion. Und zu der gehört auch, wie man ebendiese verbessern kann. SSAA ist da ein probates Mittel.

MfG,
Raff

misterh
2008-07-21, 13:01:30
Ist da jemand ein klein wenig aggressiv? Hier geht's um eine BQ-Diskussion. Und zu der gehört auch, wie man ebendiese verbessern kann. SSAA ist da ein probates Mittel.

MfG,
Raff

lass SSAA weg, dann wissen wir auch wie schlecht nvidia da filtert. Nicht unbedingt soviel besser.

Raff
2008-07-21, 13:03:46
Wo siehst du im obigen Mördervergleich denn SSAA? Der entstand ohne. Wäre SSAA aktiv, wäre die BQ konkurrenzlos gut ... und die Fps im Keller. Das war doch nur eine Anmerkung, dass der GF-Nutzer neben HQ, das schon besser ist als Radeon-Qualität, eine weitere Option hat, die Texturqualität zu steigern.

MfG,
Raff

MartinRiggs
2008-07-21, 13:03:57
Was bringt mir SSAA wenn ich es nicht nutzen kann?
Ich weiss ja nicht wo deine Schmerzgrenze liegt aber mit SSAA laufen nur die wenigstens Titel flüssig, neue schon gar nicht.
Crysis mag mit 20-30 FPS gut spielbar sein, andere Games fühlen sich mit niedrigen FPS verursacht durch SSAA einfach beschissen an.

Gast
2008-07-21, 13:08:07
Neue Titel sind im Vergleich zu alten rar.
Gibt ja mehr als nur 3 Spiele ....

Gast
2008-07-21, 13:08:58
Komisch, ich nutze SSAA mit einer (stark übertakteten) 8800 GTX in fast jedem Spiel ... von Crysis mal abgesehen. Was mache ich fal... äh, richtig?

MfG,
Raff

kA was du falsch machst, so wie ich das sehen wohl alles wenn ich deine Videos sehe mit der ATI Karte.

SSAA steht garnicht zur Debatte, das ist nicht Standard vom Treiber also wird das auch weg gelassen ganz einfach.

electric_delicate
2008-07-21, 13:11:09
@Raff
hier wissen alle das nV@HQ + SSAA sehr gut aussieht. Nur ist es selten nutzbar und dann nur auch unter Einschränkungen (Performance)!
Genauso kann ich bei einer ATi - AI Off, 8xAA + 24x Wide Tent laufen lassen. Sieht auch traumhaft aus, nur spielbar ist es nicht.

Raff
2008-07-21, 13:13:03
Dem versierten Nutzer ist es komplett Wurstsalat, ob etwas offiziell ist oder nicht. Bringt es Nutzen, wird es aktiviert. Oder würdet ihr ernsthaft SSAA ignorieren, wenn es in den Tiefen der Radeon-Registrierungseinträge schlummerte? Wenn ja: selbst schuld.

ED-CFAA bearbeitet Texturen übrigens nicht, die Tent-Filter blurren sie. Und 24x ED-CFAA ist auf einer HD 4870 sehr wohl nutzbar. Mei, was red' ich hier eigentlich, ist doch eh alles falsch. Macht was ihr wollt, die Fakten bleiben aber bestehen. EOD.

MfG,
Raff

Gast
2008-07-21, 13:14:09
hier wissen alle das nV@HQ + SSAA sehr gut aussieht. Nur ist es selten nutzbar und dann nur auch unter Einschränkungen (Performance)!
Wie viele Spiele wurden dieses Jahr relesed?
Wie viele Spiele wurden davor released?

Genauso kann ich bei einer ATi - AI Off, 8xAA + 24x Wide Tent laufen lassen. Wide Tent ist doch dieser Weichzeichner?

misterh
2008-07-21, 13:16:18
Genauso kann ich bei einer ATi - AI Off, 8xAA + 24x Wide Tent laufen lassen. Sieht auch traumhaft aus, nur spielbar ist es nicht.

bei Wide Tent ist 8x dann 16x. Nicht 24x

Erst mit EDGE 24x bei 8xMSAA.

electric_delicate
2008-07-21, 13:17:09
Dem versierten Nutzer ist es komplett Wurstsalat, ob etwas offiziell ist oder nicht. Bringt es Nutzen, wird es aktiviert. Oder würdet ihr ernsthaft SSAA ignorieren, wenn es in den Tiefen der Radeon-Registrierungseinträge schlummerte? Wenn ja: selbst schuld.

CFAA bearbeitet Texturen übrigens nicht. 24x ED-CFAA ist auf einer HD 4870 sehr wohl nutzbar. Mei, was red' ich hier eigentlich, ist doch eh alles falsch. Macht was ihr wollt, die Fakten bleiben aber bestehen. EOD.

MfG,
Raff

Mit meiner übertakteten 4850 ist z.B. Grid und CoD4 bei 24x Edge Detect nicht mehr spielbar! Vielleicht ist es bei älteren Games spielbar aber definitiv nicht bei neuen Games, die auch neueren Karten einiges abverlangen.

electric_delicate
2008-07-21, 13:18:15
Wie viele Spiele wurden dieses Jahr relesed?
Wie viele Spiele wurden davor released?

Wide Tent ist doch dieser Weichzeichner?
bei Wide Tent ist 8x dann 16x. Nicht 24x

Erst mit EDGE 24x bei 8xMSAA.

Sorry, habe Edge Detect mit Wide Tent verwechselt. Meinte 24x Edge Detect!

derguru
2008-07-21, 13:28:14
@Raff
hier wissen alle das nV@HQ + SSAA sehr gut aussieht. Nur ist es selten nutzbar und dann nur auch unter Einschränkungen (Performance)!
Genauso kann ich bei einer ATi - AI Off, 8xAA + 24x Wide Tent laufen lassen. Sieht auch traumhaft aus, nur spielbar ist es nicht.


eben bin ja selbst beeindruckt von der bildquali mit ssaa aber was habe ich davon wenn ich es nutzen kann aber die performance total hinter hinkt,nichts.

schön um mal paar bilder zumachen um vielleicht ati karten besitzer zu ärgern aber mehr auch nicht.

dazu kommt das man ja froh sein kann wenn mal überhaupt aa funktioniert in spielen,siehe unreal engine 3 etc.

aber komm ist ja egal,Raff hat ja recht "HQ flimmert weniger als A.I. Standard":wink:allein dieser satz ohmann und cu hab koppping.

Gast
2008-07-21, 14:25:56
eben bin ja selbst beeindruckt von der bildquali mit ssaa aber was habe ich davon wenn ich es nutzen kann aber die performance total hinter hinkt,nichts.Langsam wirds zwar wirklich langweilig, immer wieder dem gleichen Pseudoargument mit der immer gleichen Antwort zu begegnen, aber so unkommentiert kann mans einfach nicht stehen lassen:
Auf einem PC laufen nicht nur die Spiele, die in seinem Baujahr rausgekommen sind. Darauf laufen auch ältere Spiele. Bei denen man Auflösung, AA, AF, Details uswusf. alle an die Decke nageln kann und die FPS trotzdem am Vsync kleben. Manchmal sind sogar nigelnagelneue Spiele so genügsam. Nein, nicht nur "Abenteuer auf dem Ponyhof". Z.B. Starcraft 2 wird garantiert ein solcher Titel.

Mr.Magic
2008-07-21, 14:35:31
[...]Auf einem PC laufen nicht nur die Spiele, die in seinem Baujahr rausgekommen sind. Darauf laufen auch ältere Spiele. Bei denen man Auflösung, AA, AF, Details uswusf. alle an die Decke nageln kann und die FPS trotzdem am Vsync kleben.[...]

Stimmt. Außerdem kann man sich drei GTX280 in den Rechner knallen, wenn man unbedingt SSAA in jedem Spiel braucht. Wer die beste Qualität will darf über den Preis nicht meckern, sei das Ton, Bild, der fahrbare Untersatz, oder nur "wos zum Essen".

Grestorn
2008-07-21, 14:44:17
klar flimmern nv karten sogar bei HQ.

mach mal gothic3 das ist das reinster flimmerspiel;)

Seit wann flimmert denn G3? Wenn man AA und TSSAA zuschaltet (was das echt heftige Flimmern der Bäume und Gräser behebt, was aber auch nichts mit der hier diskutierten Problematik zu tun hat) flimmert in G3 überhaupt nichts!

misterh
2008-07-21, 14:45:51
Seit wann flimmert denn G3? Wenn man AA und TSSAA zuschaltet (was das echt heftige Flimmern der Bäume und Gräser behebt, was aber auch nichts mit der hier diskutierten Problematik zu tun hat) flimmert in G3 überhaupt nichts!

lass TSSAA weg...........und mach TMSAA

derguru
2008-07-21, 15:13:18
Seit wann flimmert denn G3? Wenn man AA und TSSAA zuschaltet (was das echt heftige Flimmern der Bäume und Gräser behebt, was aber auch nichts mit der hier diskutierten Problematik zu tun hat) flimmert in G3 überhaupt nichts!


ich red aber nicht von grässern und bäumen,und wenn aufeinmal das AF HQ nicht mehr reicht um das flimmern zu bekämpfen dann muss urplötzlich jetzt noch aa herhalten oder was?

Mr.Magic
2008-07-21, 15:22:53
ich red aber nicht von grässern und bäumen,und wenn aufeinmal das AF HQ nicht mehr reicht um das flimmern zu bekämpfen dann muss urplötzlich jetzt noch aa herhalten oder was?

Welches Flimmern?

Texturflimmern gibt es bei Gothic 3 jedenfalls kaum. Nur ein paar Holztexturen waren ein wenig hochfrequent, der Rest passte.

Gast
2008-07-21, 15:24:41
ich red aber nicht von grässern und bäumen,und wenn aufeinmal das AF HQ nicht mehr reicht um das flimmern zu bekämpfen dann muss urplötzlich jetzt noch aa herhalten oder was?

nicht nur das aa, sondern in den meisten fällen das "SSAA", das offiziell gar nicht existiert.

Coda
2008-07-21, 15:25:58
ich red aber nicht von grässern und bäumen,und wenn aufeinmal das AF HQ nicht mehr reicht um das flimmern zu bekämpfen dann muss urplötzlich jetzt noch aa herhalten oder was?
Die Gräser flimmern wegen Alpha-Tests nicht wegen AF. Man sollte schon wissen von was man redet bevor man hier groß rumbrüllt.

nicht nur das aa, sondern in den meisten fällen das "SSAA", das offiziell gar nicht existiert.
Ob das offiziell existiert oder nicht ist insofern völlig egal, weil es in den letzten 5 Jahren mit jede Treiber funktioniert hat.

derguru
2008-07-21, 15:29:15
Die Gräser flimmern wegen Alpha-Tests nicht wegen AF.

Man sollte schon wissen von was man redet bevor man hier groß rumbrüllt.
und vorallem sollte man lesen können ich habe nicht von gräsern und bäumen geredet oder geschrieben.

Grestorn
2008-07-21, 15:33:34
lass TSSAA weg...........und mach TMSAA

Sieht nicht viel schlechter aus. Natürlich etwas flimmriger im Gras, aber das hat nun nichts mit dem AF Problem zu tun, dass hier diskutiert wird.

Denn nicht transparenten Texturen (Boden, Häuser etc.) flimmern kein bisschen. Und deren Flimmern ist ja das hier diskutierte Problem!

Coda
2008-07-21, 15:33:38
Was denn sonst? Die Texturen sind viel zu niederfrequent in G3 um zu flimmern. Es kann auch Shaderflimmern sein, dagegen hilft das beste AF nicht.

Grestorn
2008-07-21, 15:35:06
und vorallem sollte man lesen können ich habe nicht von gräsern und bäumen geredet oder geschrieben.

Dann frag ich mich, wo Du bei G3 Flimmern siehst - wenn man Gräser und Bäume außen vor lässt. Mach doch mal ein Video von dem Flimmern.

desert
2008-07-21, 15:35:27
eben bin ja selbst beeindruckt von der bildquali mit ssaa aber was habe ich davon wenn ich es nutzen kann aber die performance total hinter hinkt,nichts.

schön um mal paar bilder zumachen um vielleicht ati karten besitzer zu ärgern aber mehr auch nicht.

dazu kommt das man ja froh sein kann wenn mal überhaupt aa funktioniert in spielen,siehe unreal engine 3 etc.

aber komm ist ja egal,Raff hat ja recht "HQ flimmert weniger als A.I. Standard":wink:allein dieser satz ohmann und cu hab koppping.

komisch ich spiele jedes spiel mit min. 4xssaa,tmsaa und 16af und hq, ausser crysis, ist zwar nur ein hybridmodi aber jedes bischen ssaa hilft schon ungemein beim heutigen shaderaliasing

derguru
2008-07-21, 15:37:34
überzeugt euch selbst,einfach auf die wand zurennen in der ego sicht am besten, passt ja gerade gut zum thema an die wand rennen.

avi hoch laden ist zu heavy die datei ist zu groß ,deshalb kann es ja jeder selbst testen mit dem savegame,wer da sagt ruhiges bild der sollte zum augenarzt,apropo ist HQ 16AF

http://rapidshare.com/files/131350294/gothic3.rar.html

@Coda

und rumbrüllen tue ich nur wenn ich sowas wie von Raff lese das HQ weniger flimmert als A.I. standard.das ist das gleiche als würde ich sagen ati´s 4msaa ist besser als nv 8msaa,was sind das denn für vergleiche und wenn das nicht reicht dann kommt noch ssaa ins spiel,das ist dann http://smiliestation.de/smileys/Schilder/99.gif (http://smiliestation.de/)

und kommt nicht mit dem thema für alte spiele kann man aber ssaa nutzen,es kauft sich niemand eine highendkarte um quake2 mit ssaa zuspielen,übertreibt mal nicht.

misterh
2008-07-21, 15:38:55
Sieht nicht viel schlechter aus. Natürlich etwas flimmriger im Gras, aber das hat nun nichts mit dem AF Problem zu tun, dass hier diskutiert wird.

Denn nicht transparenten Texturen (Boden, Häuser etc.) flimmern kein bisschen. Und deren Flimmern ist ja das hier diskutierte Problem!

sag ich doch, ohne SSAA ist auch bei Nvidia flimmern zu sehen.

davon war doch die ganze zeit die Rede oder?

wenn ATI auch eine auswahl mit SSAA hätte, wäre auch hier evtl so das nicht mehr flimmern tut.

Grestorn
2008-07-21, 15:41:55
sag ich doch, ohne SSAA ist auch bei Nvidia flimmern zu sehen.

davon war doch die ganze zeit die Rede oder?

wenn ATI auch eine auswahl mit SSAA hätte, wäre auch hier evtl so das nicht mehr flimmern tut.

TSSAA ist nicht SSAA. Bei SSAA wird das gesamte Bild supergesamplet und dadurch jegliches Flimmern unterdrückt, also auch Shaderflimmern oder durch schlechtes Filtering erzeugtes.

Bei TSSAA werden ja nur transparente Texturen supersamplet, die üblicherweise viel zu klein sind, um durch AF erzeugtes Flimmern zu erzeugen. Transparente Texturen flimmern durch den AlphaTest am Übergang zwischen undurchsichtigen und durchsichtigen Bereichen der Textur. Und das völlig unabhängig von AF oder sonst irgendeinem Filter.

misterh
2008-07-21, 15:43:32
TSSAA ist nicht SSAA. Bei SSAA wird das gesamte Bild supergesamplet und dadurch jegliches Flimmern unterdrückt, also auch Shaderflimmern oder durch schlechtes Filtering erzeugtes.

Bei TSSAA werden ja nur transparente Texturen supersamplet, die üblicherweise viel zu klein sind, um durch AF erzeugtes Flimmern zu erzeugen. Transparente Texturen flimmern durch den AlphaTest am Übergang zwischen undurchsichtigen und durchsichtigen Bereichen der Textur. Und das völlig unabhängig von AF oder sonst irgendeinem Filter.

das weiss ich, hab nicht genauer geschrieben.

aber ihr bringt immer SSAA egal ob TSSAA oder SSAA ins Spiel rein, was zum Thema eigentlich nicht gehört und daher vergleichbarkeit nicht mehr gültig ist.

Gast
2008-07-21, 15:56:21
das weiss ich, hab nicht genauer geschrieben.

aber ihr bringt immer SSAA egal ob TSSAA oder SSAA ins Spiel rein, was zum Thema eigentlich nicht gehört und daher vergleichbarkeit nicht mehr gültig ist.

Das muss man halt reinbringen, weils im treiber schon seit 5jahren gibt ;) und urplötzlich alle gtx280 besitzer in allen games "ssaa" anschalten.

LovesuckZ
2008-07-21, 15:58:36
EINS NOCHMAL FÜR ALLE

1. ATI filtert schlechter als Nvidia?

ja das stimmt, aber nicht so wie Ihr immer behauptet.

2. Bei Nvidia flimmert nicht.

Das stimmt nicht, auch mit Nvidia hatte ich flimmern erkennen können wie zb CSS.

Also beide Hersteller haben halt Ihre stärke und schwäche.
Wie Raff mal bei ein Video zeigte das angeblich nur ATI stark flimmert, war völlig falsch. Sowas hab ich nie sehen können, wenn dann sehr minimal wie auch mit Nvidia war, die ich hatte.

Und bei AMD flimmert es an der Stelle eben stärker. Wenn es jedoch bei AMD flimmert, muss es dies noch lange nicht bei nVidia.
So und nicht anders.

Grestorn
2008-07-21, 16:00:48
das weiss ich, hab nicht genauer geschrieben.

aber ihr bringt immer SSAA egal ob TSSAA oder SSAA ins Spiel rein, was zum Thema eigentlich nicht gehört und daher vergleichbarkeit nicht mehr gültig ist.

Es ging hier darum, dass Guru schrieb, dass G3 extrem flimmern würde. Ich dachte nur, er verwechselt da was (nämlich das Flimmern durch Aliasing).

@Guru:
Ich hab mir Deinen Spielstand angesehen und weiß was Du meinst. Das Mauerwerk zeigt schönstes Flimmern samt Moiré Muster, wenn man darauf zuläuft.

ABER: Wenn sich der Spieler auf der Normalen-Achse auf eine Textur zubewegt (also so, dass die Textur in keine Richtung verzerrt ist, sondern rechtwinklig zum Spieler liegt) und sie trotzdem flimmert, dann kann das nur entweder an der Textur selbst liegen, die zu hochfrequent ist, oder an einem Shader. AF wird bei solchen unverzerrten Texturen schließlich gar nicht angewandt.

In diesem Fall ist es wohl ein Shader, nämlich der Bump-Mapping Shader, der das Mauerwerk mit einem Eindruck von Tiefe versehen soll.

Also: Dieses Flimmern hat auch nichts mit dem hier diskutierten AF-Flimmern zu tun!

misterh
2008-07-21, 16:01:26
Und bei AMD flimmert es an der Stelle eben stärker. Wenn es jedoch bei AMD flimmert, muss es dies noch lange nicht bei nVidia.
So und nicht anders.

ja ne ist klar. nur solche antwort kannste schreiben. anders ist auch von dir nicht zu erwarten ^^

aber egal

wir haben alle verstanden was wir meinen und nun gut isses.

Ich hasse krieg.

Gast
2008-07-21, 16:06:34
Und bei AMD flimmert es an der Stelle eben stärker. Wenn es jedoch bei AMD flimmert, muss es dies noch lange nicht bei nVidia.
So und nicht anders.

Natürlich flimmerts auch bei Nvidia. Das Flimmern wird durch die unschärfe nach hinten ein wenig kaschiert bei HQ. Und bei Q isses zudem unschaft und es flimmert wie sau. Einfach mal die Vids von Raff angucken.

Xmas
2008-07-21, 16:09:13
AF wird bei solchen unverzerrten Texturen schließlich gar nicht angewandt.
Dass eine Wand senkrecht zur Blickrichtung steht heißt nicht dass die Textur unverzerrt ist. Wenn eine quadratische Textur auf ein Rechteck gemappt wird kommt auch AF zum Einsatz.

derguru
2008-07-21, 16:24:19
Es ging hier darum, dass Guru schrieb, dass G3 extrem flimmern würde. Ich dachte nur, er verwechselt da was (nämlich das Flimmern durch Aliasing).

@Guru:
Ich hab mir Deinen Spielstand angesehen und weiß was Du meinst. Das Mauerwerk zeigt schönstes Flimmern samt Moiré Muster, wenn man darauf zuläuft.

ABER: Wenn sich der Spieler auf der Normalen-Achse auf eine Textur zubewegt (also so, dass die Textur in keine Richtung verzerrt ist, sondern rechtwinklig zum Spieler liegt) und sie trotzdem flimmert, dann kann das nur entweder an der Textur selbst liegen, die zu hochfrequent ist, oder an einem Shader. AF wird bei solchen unverzerrten Texturen schließlich gar nicht angewandt.

In diesem Fall ist es wohl ein Shader, nämlich der Bump-Mapping Shader, der das Mauerwerk mit einem Eindruck von Tiefe versehen soll.

Also: Dieses Flimmern hat auch nichts mit dem hier diskutierten AF-Flimmern zu tun!
Dass eine Wand senkrecht zur Blickrichtung steht heißt nicht dass die Textur unverzerrt ist. Wenn eine quadratische Textur auf ein Rechteck gemappt wird kommt auch AF zum Einsatz.

und dann ist man wieder am anfang einer sagt ja der andere nein.das kann man dann bis zum nächsten jahrhundert diskutieren.
eigentlich redet man schon am thema vorbei,ich dachte es geht hier nur um die af leistung(qualität) und das hat dann auch mit ssaa und sonst was nichts zutun.

Coda
2008-07-21, 16:25:24
und rumbrüllen tue ich nur wenn ich sowas wie von Raff lese das HQ weniger flimmert als A.I. standard.das ist das gleiche als würde ich sagen ati´s 4msaa ist besser als nv 8msaa,was sind das denn für vergleiche und wenn das nicht reicht dann kommt noch ssaa ins spiel,das ist dann http://smiliestation.de/smileys/Schilder/99.gif (http://smiliestation.de/).
Das Problem ist dass HQ verwendbar ist, A.I. off aber nicht.

Gegen die A.I.-off Qualität mit appspezifischen Optimierungen würde ich gar nichts sagen, aber A.I. standard flimmert mir einfach zu viel.

derguru
2008-07-21, 16:32:41
Das Problem ist dass HQ verwendbar ist, A.I. off aber nicht.

Gegen die A.I.-off Qualität mit appspezifischen Optimierungen würde ich gar nichts sagen, aber A.I. standard flimmert mir einfach zu viel.


ist das so?habe seit der 3er serie keine ati karte zum vergleichen.

aber
@misterh ,du hast doch sogar cf.schalte mal A.I. off und schau mal nach und was mich noch persöhnlich interessiert geht noch cf wenn man es ausschaltet?

misterh
2008-07-21, 16:36:34
ist das so?habe seit der 3er serie keine ati karte zum vergleichen.

aber
@misterh ,du hast doch sogar cf.schalte mal A.I. off und schau mal nach und was mich noch persöhnlich interessiert geht noch cf wenn man es ausschaltet?

CF geht nicht mehr, wenn AI off ist.

derguru
2008-07-21, 16:43:34
CF geht nicht mehr, wenn AI off ist.

ok thx,
bei sowas kriegt man die krise ati baut diesmal echt gute karten und stellen sich selbst steine in den weg.kein freies wählen von ssaa,Tssaa wenn es mal lust hat,mit A.I. off erst sauberes Af aber das ohne CF,powerplay geht nicht obwohl jeder das manuelle runterschalten kann ohne das es probleme macht.einfach kopfschüttel die vermasseln ihr produkt selbst.

Coda
2008-07-21, 16:44:01
Es geht nicht nur CF nicht mehr, sondern auch viele andere Dinge.

Gast
2008-07-21, 16:44:14
Das muss man halt reinbringen, weils im treiber schon seit 5jahren gibt ;) und urplötzlich alle gtx280 besitzer in allen games "ssaa" anschalten.Die GeForce 256 ist schon etwas länger her. Seitdem kann man mit jeder späteren GeForce SSAA genießen. Und zwar bei immer mehr Spielen, weil das klassische Gegenargument "fehlendes Tempo" mit leistungsfähigerer HW früher oder später keines mehr ist. Da rückt eher das Gegenargument "zu wenig VRAM" in den Vordergrund, was allerdings wieder nur gegen MSAA-Samples seine volle Schlagkraft entfaltet.

Grestorn
2008-07-21, 16:52:05
und dann ist man wieder am anfang einer sagt ja der andere nein.das kann man dann bis zum nächsten jahrhundert diskutieren.
eigentlich redet man schon am thema vorbei,ich dachte es geht hier nur um die af leistung(qualität) und das hat dann auch mit ssaa und sonst was nichts zutun.

XMas hat schon recht, aber die Textur in Deinem Beispiel ist nun mal nicht verzerrt. Ohne Not wird ein Designer kaum eine Textur verzerrt auf eine ebene Hausfläche aufpappen... :)

reunion
2008-07-21, 16:54:51
Es geht nicht nur CF nicht mehr, sondern auch viele andere Dinge.

Beispiele (außer Doom3)? :)
Und CF geht auch mit AI_off noch, nur "anders".

derguru
2008-07-21, 16:57:11
Beispiele (außer Doom3)? :)
Und CF geht auch mit AI_off noch, nur "anders".

wie nur anders was soll das denn bedeuten?

Gast
2008-07-21, 16:57:26
es kauft sich niemand eine highendkarte um quake2 mit ssaa zuspielen,übertreibt mal nicht.
1. Woher willst du das wissen?
2. Gibt es zwischen Quake 2 und Crysis keine weiteren Spiele?

reunion
2008-07-21, 17:03:08
wie nur anders was soll das denn bedeuten?

IMHO wird dann Supertiling oder ein anderweitiger Modus verwendet. Vielleicht werden auch nur die spezifischen Optimierungen deaktiviert und eine art default-Profil angewendet. Ich hatte mit einem 3870 CF System jedenfalls auch mit AI_off bei diversen Anwendungen definitiv höhere Werte als mit einer Karte.

deekey777
2008-07-21, 17:04:01
Wäre es möglich, dass die gesperrten User dort bleiben, wo sie zu sein haben: nicht in diesem Forum?

derguru
2008-07-21, 18:11:47
IMHO wird dann Supertiling oder ein anderweitiger Modus verwendet. Vielleicht werden auch nur die spezifischen Optimierungen deaktiviert und eine art default-Profil angewendet. Ich hatte mit einem 3870 CF System jedenfalls auch mit AI_off bei diversen Anwendungen definitiv höhere Werte als mit einer Karte.


ok so hat man aber leider nicht mehr die erwartete skalierung.
hmm ich muss mir die karten jetzt auch mal kaufen will das mal selbst sehen ob das wirklich augenschmerzen verursacht,denn ganz zufrieden bin ich mit der 260gtx auch nicht aber das ist eine andere geschichte;)

Gast
2008-07-22, 03:46:59
eben bin ja selbst beeindruckt von der bildquali mit ssaa aber was habe ich davon wenn ich es nutzen kann aber die performance total hinter hinkt,nichts.


Erzählt doch keinen Quatsch. Im Zeitalter von 8xMSAA läuft auch 8xS flüssig. Und die Karten werden nicht langsamer , sondern VIEL schneller daher sind die SSAA sinnvoller denn je. Du kannst beispielsweise Klassiker wie Oblivion oder Tomb Raider mit 8xS oder 16xS flüssig zocken, solange eine GTX280 im Rechner schlummert und sooo alt sind die Games auch nicht. Das Argument von wegen sie wären zu langsam, das zieht einfach nicht.

Gast
2008-07-24, 02:12:23
"Rough" Raff hat einen Artikel bei PCGH geschrieben und es soll der Beginn einer kleinen Serie sein. Jetzt noch weitere Artikel dieser Art (3DCenter, ComputerBase, ht4u, ...) und wenigstens aus Deutschland bekommt ATI mal ein wenig öffentlichen Druck: Duell der Texturfilter: Radeon gegen Geforce (http://www.pcgameshardware.de/aid,652945/Test/Benchmark[url=/Duell_der_Texturfilter_Radeon_gegen_Geforce/)

Banshee18
2008-07-24, 04:06:24
...weshalb wir überlegen, Geforce-Karten fortan mit dem Treiberstandard zu testen. Was meinen Sie?
Lieber HQ vs. A.I. off. Das ist zwar auch nicht ganz fair, aber es wird ATi eher dazu bewegen, etwas an der aktuellen Situation zu ändern.

Coda
2008-07-24, 04:25:59
Was gibt's da überhaupt zu überlegen. HQ gegen A.I. Standard is einfach Quatsch.

tEd
2008-07-24, 05:01:08
Ich denke auch vorallem für die Highend Karten macht nur HQ Sinn und bei ati halt A.I off.

Bei Budget Karten kann man noch eher Q vs A.I on

Gast
2008-07-24, 05:03:22
Richtig die maximal mögliche Filterqualität sollte gelten.

Gast
2008-07-24, 07:51:37
A.I. off kostet überproportional viel Leistung. Ich denke HQ gegen AI standard ist genau richtig.

Grestorn
2008-07-24, 07:59:27
A.I. off kostet überproportional viel Leistung. Ich denke HQ gegen AI standard ist genau richtig.

Klar, immer so hindrehen, dass ATI den maximalen Vorteil hat.

Es gibt nur zwei denkbar sinvolle Varianten bei Vergleichen:

- Treiberstandards (also Q + Tri.Opt gegen AI Std.)
- Beste Qualität (also HQ gegen AI off)

Alles andere ist vollkommen sinnbefreit. Warum sollte man den einen Hersteller ggü. den anderen in irgendeiner Weise bevorteilen?

desert
2008-07-24, 08:58:41
Klar, immer so hindrehen, dass ATI den maximalen Vorteil hat.

Es gibt nur zwei denkbar sinvolle Varianten bei Vergleichen:

- Treiberstandards (also Q + Tri.Opt gegen AI Std.)
- Beste Qualität (also HQ gegen AI off)

Alles andere ist vollkommen sinnbefreit. Warum sollte man den einen Hersteller ggü. den anderen in irgendeiner Weise bevorteilen?

weil ati den kunden nicht verarscht, denn ati hat nur das beste für uns kunden im sinn,die zocken uns nicht ab wie nvidia. Nvidia ist einfach böse, cheaten einfach immer nur und weil ati einfach die beste bildqualität hat da kommt auch keine geforce auf hq ran.

Gast
2008-07-24, 09:11:28
weil ati den kunden nicht verarscht, denn ati hat nur das beste für uns kunden im sinn,die zocken uns nicht ab wie nvidia. Nvidia ist einfach böse, cheaten einfach immer nur und weil ati einfach die beste bildqualität hat da kommt auch keine geforce auf hq ran.

So sieht es aus.

Gast
2008-07-24, 09:21:55
Fakt ist aber imo, daß bei ner ATI das Bild wesentlich schärfer rüberkommt! Sicher flimmert es mal hier mal da, aber die Texturen sehen auf ner ATI imo besser aus. Ich habe den Vergleich zwischen ner 8800gts512 und ner HD3870. Das perfekte Bild gibt es imo bei keinem der beiden IHVs. Es liegt imo an dem User selbst, mit was für einem Makel er eher leben kann!

LovesuckZ
2008-07-24, 09:33:23
Lieber HQ vs. A.I. off. Das ist zwar auch nicht ganz fair, aber es wird ATi eher dazu bewegen, etwas an der aktuellen Situation zu ändern.

Ja, leider schließt man wieder den falschen Entschluss. Komisch, dass die Leute beim AA nicht so flexible sind und bei nVidia konsequent 8xMSAA anwenden. :rolleyes:

desert
2008-07-24, 09:44:43
Ja, leider schließt man wieder den falschen Entschluss. Komisch, dass die Leute beim AA nicht so flexible sind und bei nVidia konsequent 8xMSAA anwenden. :rolleyes:

ist doch nicht das problem von ati wenn nvidia bei 8xmsaa versagt, bekommen das halt nicht hin, dafür braucht es schon die power einer ati.

Grestorn
2008-07-24, 09:47:01
Ja, leider schließt man wieder den falschen Entschluss. Komisch, dass die Leute beim AA nicht so flexible sind und bei nVidia konsequent 8xMSAA anwenden. :rolleyes:

Hast Du die Fronten gewechselt oder missverstehe ich das gerade?! :)

LovesuckZ
2008-07-24, 09:52:55
ist doch nicht das problem von ati wenn nvidia bei 8xmsaa versagt, bekommen das halt nicht hin, dafür braucht es schon die power einer ati.

Wenn es keine Ironie ist:
Das exakt selbe kann man derzeit über A.I off sagen. Warum beim AF so flexible getan wird und beim AA man nur in starren Denkmuster bleibt, ist dagegen nicht verständlich.

flatbrain
2008-07-24, 09:55:38
Mir wären ja zwei Testläufe am Liebsten: Default-Einstellung des Treibers und max. Qualität. Und wenn max. Q. eben AI off bedeutet, tut es mit leid für AMD, aber dann muss eben auf weitere sinnvolle Optimierungen verzichtet werden. Nur so wird sich AMD bewegen lassen, die AF-Verschlimmbesserungen von den sinnvollen Optimierungen zu trennen.

Gast
2008-07-24, 09:56:41
Wenn es keine Ironie ist:
Das exakt selbe kann man derzeit über A.I off sagen. Warum beim AF so flexible getan wird und beim AA man nur in starren Denkmuster bleibt, ist dagegen nicht verständlich.

Wieso denn? Das 8xAA von Nvidia ist doch qualitativ dem von 8xAA ATI unterlegen.

desert
2008-07-24, 10:01:39
Wieso denn? Das 8xAA von Nvidia ist doch qualitativ dem von 8xAA ATI unterlegen.

und auch das af ist dem af von nvidia überlegen, das ist immer schön knackig scharf und nicht so verblurrt wie bei nvidia, musst doch nur mal rennspiele le spielen da kommt die wahre af schwäche der geforcekarten rüber. ati ftw.

reunion@work
2008-07-24, 10:03:29
Wenn es keine Ironie ist:
Das exakt selbe kann man derzeit über A.I off sagen. Warum beim AF so flexible getan wird und beim AA man nur in starren Denkmuster bleibt, ist dagegen nicht verständlich.

Weil du mal wieder Äpfel mit Birne vergleichst. Es geht darum möglichst gute Vergleichbarkeit herzustellen. Und da ist so ein CSAA-Modi mit Sicherheit keine Alternative zu 8xMSAA. Schon gar nicht wo man auch 8xMSAA haben kann. Beim AF ist das schon wesentlich schwieriger. AI_off schaltet leider auch sinnvolle Dinge ab und ist deshalb nicht wirklich zu gebrauchen. Also ist man bei AMD fast gezwungen AI_standard zu verwenden. Adequate Qualität dazu bekommt man von NV wohl am ehesten mit Q+Tri-Ops, weshalb es wohl auch am sinnvollsten ist so zu vergleichen.

flatbrain
2008-07-24, 10:07:16
Weil du mal wieder Äpfel mit Birne vergleichst. Es geht darum möglichst gute Vergleichbarkeit herzustellen. Und da ist so ein CSAA-Modi mit Sicherheit keine Alternative zu 8xMSAA. Schon gar nicht wo man auch 8xMSAA haben kann. Beim AF ist das schon wesentlich schwieriger. AI_off schaltet leider auch sinnvolle Dinge ab und ist deshalb nicht wirklich zu gebrauchen. Also ist man bei AMD fast gezwungen AI_standard zu verwenden. Adequate Qualität dazu bekommt man von NV wohl am ehesten mit Q+Tri-Ops, weshalb es wohl auch am sinnvollsten ist so zu vergleichen.

Werden bei AI off Optimierungen/Features deaktiviert, die die Bildqualität verschlechtern?

Gast
2008-07-24, 10:08:11
und auch das af ist dem af von nvidia überlegen, das ist immer schön knackig scharf und nicht so verblurrt wie bei nvidia, musst doch nur mal rennspiele le spielen da kommt die wahre af schwäche der geforcekarten rüber. ati ftw.

also ich spiel grid und muss sagen, dass ati da wunderbare bilder liefern ;)

reunion@work
2008-07-24, 10:14:14
Werden bei AI off Optimierungen/Features deaktiviert, die die Bildqualität verschlechtern?

Es wird (laut AMD) alles Applikationsspezifische deaktiviert. Also Shaderreplacements, welche die Bildqualität nicht beeinflussen aber die Leistung steigern, verschiedenste "Hacks" welche u.a. AA in Spielen ermöglichen wo es sonst nicht möglich wäre, Bugfixes für Spiele die sonst nicht korrekt dargestellt werden, die Crossfire-Profile, und eben auch besagte Texturfilteroptimierungen (zumindest bis zu einem gewissen Grad).

deekey777
2008-07-24, 10:18:50
Ja, leider schließt man wieder den falschen Entschluss. Komisch, dass die Leute beim AA nicht so flexible sind und bei nVidia konsequent 8xMSAA anwenden. :rolleyes:
Was hat das mit der Diskussion zu tun? Nichts. Gar nichts. Noch weniger als nichts und gar nichts zusammen.
Und es wurde mehrmals belegt, dass 16xCSAA dem echten 8xMSAA unterlegen ist.

Wieso denn? Das 8xAA von Nvidia ist doch qualitativ dem von 8xAA ATI unterlegen.
Unsinn.

flatbrain
2008-07-24, 10:19:13
Es wird (laut AMD) alles Applikationsspezifische deaktiviert. Also Shaderreplacements, welche die Bildqualität nicht beeinflussen aber die Leistung steigern, verschiedenste "Hacks" welche u.a. AA in Spielen ermöglichen wo es sonst nicht möglich wäre, Bugfixes für Spiele die sonst nicht korrekt dargestellt werden, die Crossfire-Profile, und eben auch besagte Texturfilteroptimierungen (zumindest bis zu einem gewissen Grad).

Dann wäre es im Sinne der bestmöglichen Bildqualität ja gerechtferigt, AI off vs. HQ zu testen.

LovesuckZ
2008-07-24, 10:19:22
Es geht darum möglichst gute Vergleichbarkeit herzustellen. Und da ist so ein CSAA-Modi mit Sicherheit keine Alternative zu 8xMSAA. Schon gar nicht wo man auch 8xMSAA haben kann. Beim AF ist das schon wesentlich schwieriger. AI_off schaltet leider auch sinnvolle Dinge ab und ist deshalb nicht wirklich zu gebrauchen. Also ist man bei AMD fast gezwungen AI_standard zu verwenden. Adequate Qualität dazu bekommt man von NV wohl am ehesten mit Q+Tri-Ops, weshalb es wohl auch am sinnvollsten ist so zu vergleichen.

Tja, was bei A.I Off die Optimierungen sind, ist bei 8xMSAA der Einbruch der Leistung gegenüber 16xCSAA.
Wieso sollten nVidia User 8xMSAA einsetzen, wenn die Leistung a) sehr deutlich einbricht, b) die Qualität zu 16xCSAA nicht dem Einbruch rechtfertig und c) 16xCSAA mit 4xTSSAA genauso schnell ist? :rolleyes:
nVidia bietet einen gleichwertigen AF Modus an? Das ist toll. AMD bietet einen fast gleichwertigen HQ Modus an? Warum also nicht auch diese vergleichen? Beim AA bleibt man doch auch nicht bei 4xMSAA.

Was hat das mit der Diskussion zu tun? Nichts. Gar nichts. Noch weniger als nichts und gar nichts zusammen.
Und es wurde mehrmals belegt, dass 16xCSAA dem echten 8xMSAA unterlegen ist.


Und A.I Standard ist auch A.I Off unterlegen. Komisch, A.I Standard wird trotzdem verwendet. :rolleyes:
Und es eine Analogie, ein Vergleich, um das Problem aufzuzeigen.

desert
2008-07-24, 10:22:08
Es wird (laut AMD) alles Applikationsspezifische deaktiviert. Also Shaderreplacements, welche die Bildqualität nicht beeinflussen aber die Leistung steigern, verschiedenste "Hacks" welche u.a. AA in Spielen ermöglichen wo es sonst nicht möglich wäre, Bugfixes für Spiele die sonst nicht korrekt dargestellt werden, die Crossfire-Profile, und eben auch besagte Texturfilteroptimierungen (zumindest bis zu einem gewissen Grad).

ausserdem fällt es doch garnicht auf wenn man spielt und deswegen muss man a.i. standard gegen hq benchen, da wie gesagt ati ja die bessere bq hat, kann ja jeder hier im forum bestätigen oder frag mal im pcgh forum nach.

Und jeder weiss doch auch das nvidia z.b. bei crysis weniger berechnet als eine ati, hat pcgh ja auch mal nachgewiesen. Und deswegen muss man schon hq gegen a.i. standard benchen um den cheat vorteil der geforces auszugleichen.

reunion@work
2008-07-24, 10:24:05
Dann wäre es im Sinne der bestmöglichen Bildqualität ja gerechtferigt, AI off vs. HQ zu testen.

Im Sinne der bestmöglichen Qualität ja (wenn nicht gerade AA-Hacks od. Bugfixes deaktiviert werden etc.), im Sinne der Vergleichbarkeit nein.

flatbrain
2008-07-24, 10:26:55
Im Sinne der bestmöglichen Qualität ja (wenn nicht gerade AA-Hacks od. Bugfixes deaktiviert werden etc.), im Sinne der Vergleichbarkeit nein.

Warum im Sinne der Vergleichbarkeit nein? Wenn man durch das Deaktivieren von AI das max. mögliche an AF-IQ erreicht, dann sollte diese Einstellung im AF-IQ-Vergleich gewählt werden. Imo ist nämlich genau dieser Vergleich notwendig, um AMD zu einer Abkehr von der aktuellen Praxis zu bewegen.

deekey777
2008-07-24, 10:27:36
Lieber HQ vs. A.I. off. Das ist zwar auch nicht ganz fair, aber es wird ATi eher dazu bewegen, etwas an der aktuellen Situation zu ändern.

Wenn man HQ gegen AI off testet, so liegt es in der Macht des Redakteurs die Realtiät zu verfälschen: Bis auf paar Ausnahmen spielt keiner mit AI off. Ein "knallharter" Test mit AI off verfälscht die Realität.

Aber:
Ein mitdenkender Redakteur kann folgendes machen: Zunächst schreibt er, was AI seinem Kenntnis nach so alles macht. Dann macht er Tests mit AI on vs. off ohne MSAA/AF, um herauszufinden, ob anwendungsspezifische Optimierungen wie Shaderreplacement oder visuelles Bugfixing über AI geregelt werden. Dann kommen obligatorische Tests mit HQ, Q mit einer oder anderen Optimierung, AI on und AI off. Auch Bildvergleiche (ggf. bewegte Bilder) sind erwünscht.

Und dann wertet er die Ergebnisse aus und macht ATi und die gesamte AI-Politik zur Sau.

Tja, was bei A.I Off die Optimierungen sind, ist bei 8xMSAA der Einbruch der Leistung gegenüber 16xCSAA.
Wieso sollten nVidia User 8xMSAA einsetzen, wenn die Leistung a) sehr deutlich einbricht, b) die Qualität zu 16xCSAA nicht dem Einbruch rechtfertig und c) 16xCSAA mit 4xTSSAA genauso schnell ist? :rolleyes:
nVidia bietet einen gleichwertigen AF Modus an? Das ist toll. AMD bietet einen fast gleichwertigen HQ Modus an? Warum also nicht auch diese vergleichen? Beim AA bleibt man doch auch nicht bei 4xMSAA.



Und A.I Standard ist auch A.I Off unterlegen. Komisch, A.I Standard wird trotzdem verwendet. :rolleyes:
Und es eine Analogie, ein Vergleich, um das Problem aufzuzeigen.
Glaubst du nicht, dass es langsam langweilig wird, wenn du versuchst, zwei Sachen miteinander zu vergleichen, die miteinander nichts zu tun haben? Eine Analogie gibt es da nicht.

reunion@work
2008-07-24, 10:28:14
ausserdem fällt es doch garnicht auf wenn man spielt und deswegen muss man a.i. standard gegen hq benchen, da wie gesagt ati ja die bessere bq hat, kann ja jeder hier im forum bestätigen oder frag mal im pcgh forum nach.

Und jeder weiss doch auch das nvidia z.b. bei crysis weniger berechnet als eine ati, hat pcgh ja auch mal nachgewiesen. Und deswegen muss man schon hq gegen a.i. standard benchen um den cheat vorteil der geforces auszugleichen.

Kann mal jemand diesen Witzbold abstellen?

Grestorn
2008-07-24, 10:29:15
ausserdem fällt es doch garnicht auf wenn man spielt und deswegen muss man a.i. standard gegen hq benchen, da wie gesagt ati ja die bessere bq hat, kann ja jeder hier im forum bestätigen oder frag mal im pcgh forum nach.

Und jeder weiss doch auch das nvidia z.b. bei crysis weniger berechnet als eine ati, hat pcgh ja auch mal nachgewiesen. Und deswegen muss man schon hq gegen a.i. standard benchen um den cheat vorteil der geforces auszugleichen.

Wieso verbreitest und wiederholst Du eigentlich ständig schon längst als falsch entlarvte oder längst überholte Gerüchte?

Nichts von all dem stimmt in irgendeiner Weise. Dass ATI eine in irgendeiner Weise bessere BQ hat, lässt sich genauso wenig nachvollziehen, wie dass nVidia in Crysis weniger rendert (das Beispiel mit der angeblich nicht gerenderten Glasscheibe wurde bereits mehrfach widerlegt!).

LovesuckZ
2008-07-24, 10:32:01
Glaubst du nicht, dass es langsam langweilig wird, wenn du versuchst, zwei Sachen miteinander zu vergleichen, die miteinander nichts zu tun haben? Eine Analogie gibt es da nicht.

Die "zwei Sachen" sind exakt gleich. Wo du da einen Unterschied siehst, ist mir schleierhaft.
Erkläre doch mal, warum A.I Off bei AMD nicht anzuwenden wäre und 8xMSAA bei nVidia dagegen trotz der Nachteile als "vergleichbarer" Modus gelte.

reunion@work
2008-07-24, 10:34:37
Warum im Sinne der Vergleichbarkeit nein? Wenn man durch das Deaktivieren von AI das max. mögliche an AF-IQ erreicht, dann sollte diese Einstellung im AF-IQ-Vergleich gewählt werden. Imo ist nämlich genau dieser Vergleich notwendig, um AMD zu einer Abkehr von der aktuellen Praxis zu bewegen.

Aus besagten Gründen. Es wird dann eben optimiert vs. unoptimiert verglichen. Aber vielleicht ist das wirklich nötig um AMD zu einer Abkehr zu bewegen.

flatbrain
2008-07-24, 10:38:56
Wenn man HQ gegen AI off testet, so liegt es in der Macht des Redakteurs die Realtiät zu verfälschen: Bis auf paar Ausnahmen spielt keiner mit AI off. Ein "knallharter" Test mit AI off verfälscht die Realität.


Unter der Sichtweise müsste man mit Treiber default Einstellungen benchen...

desert
2008-07-24, 10:39:33
Wieso verbreitest und wiederholst Du eigentlich ständig schon längst als falsch entlarvte oder längst überholte Gerüchte?

Nichts von all dem stimmt in irgendeiner Weise. Dass ATI eine in irgendeiner Weise bessere BQ hat, lässt sich genauso wenig nachvollziehen, wie dass nVidia in Crysis weniger rendert (das Beispiel mit der angeblich nicht gerenderten Glasscheibe wurde bereits mehrfach widerlegt!).

also hier haben mir schon mal 3 oder 4 leute zugestimmt, also muss da wohl was dran sein, jedenfalls mehr als dagegen sind. Und durchforste doch mal die foren bei pcgh,gamestar und luxx überall wird gesagt das ati besser ist und a.i, nicht schlimm ist. und lolli kommt auch jedesmal mit seinen rennspielen.

flatbrain
2008-07-24, 10:42:27
also hier haben mir schon mal 3 oder 4 leute zugestimmt, also muss da wohl was dran sein, jedenfalls mehr als dagegen sind. Und durchforste doch mal die foren bei pcgh,gamestar und luxx überall wird gesagt das ati besser ist und a.i, nicht schlimm ist. und lolli kommt auch jedesmal mit seinen rennspielen.

Wenn du keinen Bock auf einen ernsthafte Diskussion hast, spar dir doch einfach das Schreiben... Soll ja Leute geben, die sich für das Thema interessieren.

deekey777
2008-07-24, 10:55:10
Die "zwei Sachen" sind exakt gleich. Wo du da einen Unterschied siehst, ist mir schleierhaft.
Erkläre doch mal, warum A.I Off bei AMD nicht anzuwenden wäre und 8xMSAA bei nVidia dagegen trotz der Nachteile als "vergleichbarer" Modus gelte.
Warum soll ich dir etwas erklären, wenn du bisher noch nicht geschafft hast, deine Behauptung in irgendeiner Weise zu untermauern? Das kannst du gleich vergessen.

Unter der Sichtweise müsste man mit Treiber default Einstellungen benchen...
Stimmt, zu kurz gedacht.

LovesuckZ
2008-07-24, 11:11:08
Warum soll ich dir etwas erklären, wenn du bisher noch nicht geschafft hast, deine Behauptung in irgendeiner Weise zu untermauern? Das kannst du gleich vergessen.


Habe ich. Habe dafür meinen eigenen Thread erhalten.
Fakt ist, dass A.I Off besser aussieht als A.I Standard und fast ein ähnliches Niveau erreicht wie HQ bei nVidia. Somit kann man beide Einstellungen vergleichen - alle Nachteile, die mit A.I Off einhergehen, sind wohl kaum relevant für die ansiotrope Filterungsqualität.

Grestorn
2008-07-24, 11:20:03
also hier haben mir schon mal 3 oder 4 leute zugestimmt, also muss da wohl was dran sein, jedenfalls mehr als dagegen sind. Und durchforste doch mal die foren bei pcgh,gamestar und luxx überall wird gesagt das ati besser ist und a.i, nicht schlimm ist. und lolli kommt auch jedesmal mit seinen rennspielen.

Ich finde zu JEDER Meinung 3-4 Leute, die mir zustimmen... :)

Es gibt in der Tat ein paar Rennspiele älteren Semesters, bei denen die Engine und der nVidia Treiber nicht optimal zusammenarbeiten. Das ist es aber dann auch schon. Wer nur diese Spiele spielt, ist wohl besser mit einer Karte von ATI bedient.

deekey777
2008-07-24, 11:37:39
Habe ich. Habe dafür meinen eigenen Thread erhalten.
Fakt ist, dass A.I Off besser aussieht als A.I Standard und fast ein ähnliches Niveau erreicht wie HQ bei nVidia. Somit kann man beide Einstellungen vergleichen - alle Nachteile, die mit A.I Off einhergehen, sind wohl kaum relevant für die ansiotrope Filterungsqualität.
Tja, was bei A.I Off die Optimierungen sind, ist bei 8xMSAA der Einbruch der Leistung gegenüber 16xCSAA.
Wieso sollten nVidia User 8xMSAA einsetzen, wenn die Leistung a) sehr deutlich einbricht, b) die Qualität zu 16xCSAA nicht dem Einbruch rechtfertig und c) 16xCSAA mit 4xTSSAA genauso schnell ist? :rolleyes:
nVidia bietet einen gleichwertigen AF Modus an? Das ist toll. AMD bietet einen fast gleichwertigen HQ Modus an? Warum also nicht auch diese vergleichen? Beim AA bleibt man doch auch nicht bei 4xMSAA.



Und A.I Standard ist auch A.I Off unterlegen. Komisch, A.I Standard wird trotzdem verwendet. :rolleyes:
Und es eine Analogie, ein Vergleich, um das Problem aufzuzeigen.


Da sind Bildchen mit 16xCSAA und 16xQ:
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_19.html#sect0
Man sieht einen recht deutlichen Unterschied. Aus der Sicht des Users ist dieser unstrittig vernachläßigbar, wenn er in von ihm gewünschten FPS-Bereich bleibt.
Und jetzt: Wo ist hier der Zusammenhang zu der Diskussion in diesem Thread?

Oder noch besser: Wo ist der Zusammenhang zu der ursprünglichen Äußerung:
Lieber HQ vs. A.I. off. Das ist zwar auch nicht ganz fair, aber es wird ATi eher dazu bewegen, etwas an der aktuellen Situation zu ändern.
(Es geht ums Testen.)
Kantenglättung und Texturenfilterung sind verschiedene paar Schuhe. Eine Analogie gibt es hier nicht, denn man wendet die Analogie nur dann, wenn man eine Lücke in seiner Argumentation hat, diese aber mit einem vergleichbaren Agrument schließt. Wie du die vier fehlenden Subpixel an den Kanten mit Unterfilterung durch AI on vergleichen kannst, hast du bisher nicht begründet. Deine Äußerung, dass der Einbruch der FPS (16xCSAA vs. 8xMSAA <-> AI on vs. off) miteinander vergleichbar sei, ist kaum ernstzunehmen.

desert
2008-07-24, 11:51:12
Wenn du keinen Bock auf einen ernsthafte Diskussion hast, spar dir doch einfach das Schreiben... Soll ja Leute geben, die sich für das Thema interessieren.


eine ernsthaft diskussion ist sowieso unmöglich, da ati die bessere bildqualität hat, es keinem auffällt oder auffallen will das ati unter a.i. standard flimmert, und es absolut niemanden interessiert solange es ati ist, wäre nvidia vom flimmern betroffen, holla die waldfee.


aber so, schau dir die foren an. überall wird von jedem erzählt das ati die bessere bildqualität hat und a.i. standard sowieso über jeden zweifel erhaben ist. Und weigert sich ja auch jede benchmarkseite benches von a.i. standard gegen a.i. off durchzuführen unter teils fadenscheinigen begründungen.

Nur eine seite hat es mal gewagt und da teilweise diskrepanzen von 60 % leistungsunterschied aufgedeckt aber ist interessiert sich keine sau dafür, dann kommen aussagen wie "da kannste mal sehen was ati für fähige leute hat, bei nvidia arbeiten nur idioten" "ist doch gut wie ati noch das letzte bischen leistung für uns rauskitzelt".

Was ging für ein rauschen durchs internet als der g70 unter den ersten treiberversionen noch extrem flimmierte, dies wurde aber mit späteren treibern behoben, währenddessen ati hässliche moiremuster auf den bildschirm zauberte, kümmert sich keine sau drum.

LovesuckZ
2008-07-24, 12:03:20
Oder noch besser: Wo ist der Zusammenhang zu der ursprünglichen Äußerung:

Ich weiß wirklich nicht, wie man hier den Zusammenhang nicht verstehen kann. Dort wird geäußert, ob man denn bei nVidia nicht wieder Q einstellen sollte. Das wäre so als man beim AA nur bei 4xMSAA veharren würde - da nVidia mit 8xMSAA sehr viel Leistung einbüßt.


Kantenglättung und Texturenfilterung sind verschiedene paar Schuhe. Eine Analogie gibt es hier nicht, denn man wendet die Analogie nur dann, wenn man eine Lücke in seiner Argumentation hat, diese aber mit einem vergleichbaren Agrument schließt. Wie du die vier fehlenden Subpixel an den Kanten mit Unterfilterung durch AI on vergleichen kannst, hast du bisher nicht begründet. Deine Äußerung, dass der Einbruch der FPS (16xCSAA vs. 8xMSAA <-> AI on vs. off) miteinander vergleichbar sei, ist kaum ernstzunehmen.

Schade, dass du nicht verstanden, worauf ich mich beziehe. Wirklich, jemand der arrogant auftritt, sollte dann wenigsten erkennen, dass ich mich auf die Tester beziehe und nicht auf die Auswirkungen der einzelnen Verfahren.

Kriton
2008-07-24, 12:16:09
Wie siehst es eigentlich mit A.I. Advanced aus, das im Artikel kurz erwähnt wird?

MikBach
2008-07-24, 12:21:54
Habe ich. Habe dafür meinen eigenen Thread erhalten.
Fakt ist, dass A.I Off besser aussieht als A.I Standard und fast ein ähnliches Niveau erreicht wie HQ bei nVidia. Somit kann man beide Einstellungen vergleichen - alle Nachteile, die mit A.I Off einhergehen, sind wohl kaum relevant für die ansiotrope Filterungsqualität.
Hä?
Willst du nur Bilder vergleichen oder auch Benchen?
Wenn du auch Benchen willst, dann kannst du doch nicht AI-off verwenden, weil du damit alle anderen Optimierungen, die auf die BQ keinen Einfluss haben, auschaltest und damit keine echte Vergleichbarkeit bei der Performance hast.

- Treiberstandards (also Q + Tri.Opt gegen AI Std.)

Genauso würde ich testen. Alles andere macht keinen Sinn

flatbrain
2008-07-24, 12:26:15
Hä?
Willst du nur Bilder vergleichen oder auch Benchen?
Wenn du auch Benchen willst, dann kannst du doch nicht AI-off verwenden, weil du damit alle anderen Optimierungen, die auf die BQ keinen Einfluss haben, auschaltest und damit keine echte Vergleichbarkeit bei der Performance hast.


Warum nicht. Nur so kann überhaupt die Performance bei maximaler BQ verglichen werden. Wenn AMD der Meinung ist, AF und sinnvolle Optimierungen, die keinen EInfluß auf die IQ haben, fest miteinander zu verknüpfen, müssen sie mit dem Nachteil einer Deaktivierung aller Optimierungen leben. Von NV wurde zu Recht immer gefordert, Optimierungen unabhängig von einander konfigurierbar zu gestalten, Gleiches sollte auch bei AMD gelten.

Gast
2008-07-24, 12:30:51
Es wird (laut AMD) alles Applikationsspezifische deaktiviert. Also Shaderreplacements, welche die Bildqualität nicht beeinflussen aber die Leistung steigern, verschiedenste "Hacks" welche u.a. AA in Spielen ermöglichen wo es sonst nicht möglich wäre, Bugfixes für Spiele die sonst nicht korrekt dargestellt werden, die Crossfire-Profile, und eben auch besagte Texturfilteroptimierungen (zumindest bis zu einem gewissen Grad).


Das sind größtenteils Lügen von AMD.

flatbrain
2008-07-24, 12:33:20
Das sind größtenteils Lügen von AMD.

Gut. Dann teile mit uns die Wahrheit.

MikBach
2008-07-24, 12:34:55
Warum nicht. Nur so kann überhaupt die Performance bei maximaler BQ verglichen werden. Wenn AMD der Meinung ist, AF und sinnvolle Optimierungen, die keinen EInfluß auf die IQ haben, fest miteinander zu verknüpfen, müssen sie mit dem Nachteil einer Deaktivierung aller Optimierungen leben. Von NV wurde zu Recht immer gefordert, Optimierungen unabhängig von einander konfigurierbar zu gestalten, Gleiches sollte auch bei AMD gelten.
Ich bin ja auch dafür, dass ATI die AF-Optimierungen von den anderen Sachen trennt, keine Frage.
Nur wenn man die Performance messen will, ist AI-off einfach Quatsch.
Als ein Zusatz zu den Treiberstandards wäre es vielleicht ok.
Man würde aber trotzdem nicht sehen, wie viel besseres AF bei ATI "kostet", sondern wie stark ein Spiel optimiert ist (Shaderreplacement u.ä.).
Und ich weiss nicht, ob das jemanden überhaupt interessiert...
Außerdem wäre es ja objektiv gesehen unfair ATI gegenüber, da man solche Optimierungen bei NV nicht abstellen kann. Wenn das ginge, dann könnte man auch mit AI-off testen, das wäre dann gerecht.

flatbrain
2008-07-24, 12:40:10
Ich bin ja auch dafür, dass ATI die AF-Optimierungen von den anderen Sachen trennt, keine Frage.
Nur wenn man die Performance messen will, ist AI-off einfach Quatsch.
Als ein Zusatz zu den Treiberstandards wäre es vielleicht ok.
Man würde aber trotzdem nicht sehen, wie viel besseres AF bei ATI "kostet", sondern wie stark ein Spiel optimiert ist (Shaderreplacement u.ä.).
Und ich weiss nicht, ob das jemanden überhaupt interessiert...
Außerdem wäre es ja objektiv gesehen unfair ATI gegenüber, da man solche Optimierungen bei NV nicht abstellen kann. Wenn das ginge, dann könnte man auch mit AI-off testen, das wäre dann gerecht.

Es ist kein Quatsch. Wenn man die Performance unter bestmöglicher AF-Qualität testen will, und darum geht es ja primär in diesem Thread, dann muss man das mit AI off testen, wenn unter dieser EInstellung die AF-IQ der von nV´s HQ am nächsten kommt. Es geht auch nicht um "würde", "könnte" oder "sollte", sondern den aktuellen IST-Zustand. Wenn AMD nicht will, das man "HQ-AF" mit AI on erreicht, müssen sie mit den Nachteilen des AI off leben...

reunion@work
2008-07-24, 12:41:15
Das sind größtenteils Lügen von AMD.

Ja du hast wohl recht. Das sind auch meine Beobachtungen.

Gast
2008-07-24, 12:44:43
genauso wenig nachvollziehen, wie dass nVidia in Crysis weniger rendert (das Beispiel mit der angeblich nicht gerenderten Glasscheibe wurde bereits mehrfach widerlegt!).

Und die Reflexionen beim Wasser? Der erste Treiber für die 8800GT hat getrickst das ist Fakt, sogar im 3D Center gab es eine News dazu ;)
Waren rund 11% die der Treiber schneller war, als der Nachfolgende, um ncht zu schlecht damals gegen die Hd3870 auszusehen.

MikBach
2008-07-24, 12:49:44
Es ist kein Quatsch. Wenn man die Performance unter bestmöglicher AF-Qualität testen will, und darum geht es ja primär in diesem Thread, dann muss man das mit AI off testen, wenn unter dieser EInstellung die AF-IQ der von nV´s HQ am nächsten kommt. Es geht auch nicht um "würde", "könnte" oder "sollte", sondern den aktuellen IST-Zustand. Wenn AMD nicht will, das man "HQ-AF" mit AI on erreicht, müssen sie mit den Nachteilen des AI off leben...
Wenn man mit maximaler Qualität testen will, dann hast du natürlich recht.
Die Frage ist halt nur, ob es sinnvoll ist für die paar Prozent BQ (wobei man dies natürlich so nicht sagen kann, da man nur schwer BQ in Prozent ausdrücken kann), teilweise starke Einbrüche bei der Performance in Kauf nehmen willst und nicht die reale Performance ohne AF-Optimierungen messen willst, weil das nicht geht...

puntarenas
2008-07-24, 12:49:57
Lieber HQ vs. A.I. off. Das ist zwar auch nicht ganz fair, aber es wird ATi eher dazu bewegen, etwas an der aktuellen Situation zu ändern.
Aus Usersicht würde ich mir ganz klar wünschen, dass ATI mit A.I. Off so lange an die Wand gebencht wird, bis sie ihre AF-Sparmaßnahmen von den sonstigen Optimierungen, Bugfixes, CF, ... trennen.

Als Hardwaremagazin kann PCGH das aber nicht bringen, denn es wäre völlig an der Realität vorbeigemessen. Ich würde auf jeden Fall die Treiberstandards gegeneinander testen und dann eine Zeit lang Überstunden machen. Nach den Standardwerten könnte man den Wechsel auf höschstmögliche Bildqualität (A.I. Off und NV HQ) genüsslich zelebrieren, nochmal messen, ATI beim Zusammenbruch zuschauen. Pointe: Selbst mit den relativ enormen Einbrüchen kommt ATI nicht ganz an NV HQ heran, dafür fehlen in diesem nutzlosen Modus Shadrereplacements, Bugfixes, Crossfire-Support, ...

Wenn das für die regelmäßigen Reviews bei PCGH zu aufwändig ist (gebe aber ein Fleißkärtchen :)), dann hoffe ich auf weitere derartige Differenzierungen in Raffs Artikelserie. Man muss die Masse sensibilisieren und die steht sich im Moment leider immer noch mit knackig scharfen Standbildern im Weg. Wenn es gelingt, dass ATI in Zukunft die "schlechte" Filterqualität und das Fehlen eines sinnvollen HQ-Modus als "G'schmäckle" anhaftet, dann werden sie gegensteuern müssen.

Grestorn
2008-07-24, 12:57:33
Und die Reflexionen beim Wasser? Der erste Treiber für die 8800GT hat getrickst das ist Fakt, sogar im 3D Center gab es eine News dazu ;)
Waren rund 11% die der Treiber schneller war, als der Nachfolgende, um ncht zu schlecht damals gegen die Hd3870 auszusehen.

Der betroffene Treiber war Beta und hatte schlicht einen Bug. nVidia hatte es zu diesem Zeitpunkt nicht nötig, "nicht schlecht" gegen ATI auszusehen.

Sonyfreak
2008-07-24, 12:58:02
Kein Nvidia-User der halbwegs eine Ahnung von der Materie hat wird seine Geforce abseits der HQ-Einstellung betreiben. Wenn ich schon was spiele, dann möchte ich auch bestmögliche Qualität. Die annähernd vergleichbare Treibereinstellung bei ATI wäre AIoff, und daher wäre ich auch für eben diesen Vergleich.

Was bringt mir ein Flimmer-"Q vs. AIon"-Vergleich, wenn ich so niemals spielen würde?

mfg.

Sonyfreak

desert
2008-07-24, 13:04:25
Ich bin ja auch dafür, dass ATI die AF-Optimierungen von den anderen Sachen trennt, keine Frage.
Nur wenn man die Performance messen will, ist AI-off einfach Quatsch.
Als ein Zusatz zu den Treiberstandards wäre es vielleicht ok.
Man würde aber trotzdem nicht sehen, wie viel besseres AF bei ATI "kostet", sondern wie stark ein Spiel optimiert ist (Shaderreplacement u.ä.).
Und ich weiss nicht, ob das jemanden überhaupt interessiert...
Außerdem wäre es ja objektiv gesehen unfair ATI gegenüber, da man solche Optimierungen bei NV nicht abstellen kann. Wenn das ginge, dann könnte man auch mit AI-off testen, das wäre dann gerecht.


deswegen lässt sich zum grösstenteil nur ein leistungsunterschied feststellen wenn aa/af an sind? also die shaderreplacements nicht greifen sollten.

wer weiss vielleicht wird unter a.i. standard ja auch gar kein 8aa gerechnet oder es wird intern eine kleinere auflösung gerechnet und die dann hochskaliert ausgegeben, vielleicht kommt da ja die perfomance in hohen auflösungen her?

Es kann nur keiner sagen weil es niemand ausprobiert und alle ATI gewähren lassen, die können doch machen was sie wollen und alle klatschen applaus.

Coda
2008-07-24, 13:11:20
Ja du hast wohl recht. Das sind auch meine Beobachtungen.
Meine nicht. Bugfixes und AA-Hacks sind definitiv weg und Crossfire läuft halt im Supertiling-Modus der immer geht aber miese Performance liefert ohne Profil.

derguru
2008-07-24, 13:15:30
das geht mir nicht in den kopf,

wieso testet der A.I. standard vs.HQ

und ist das sicher das A.I.off viel leistung verliert?ich habe die karte nicht aber ich könnte mir vorstellen das die 4er serie stark genug dafür ist.dazu kommt das ich ein paar spiele mal zwischen HQ und Q getestet hatte und da gabs auch keine nennenswerten performanceverlust.(hat das denn einer mal mit ati karten getestet?)
ich glaub A.I. off wurde von amd komplett vernachlässigt oder total ignoriert,deshalb auch die andere probleme wie kein cf usw.

naja der vegleich ist mal schwer in die hose gegangen und dann dieser fingerfrauf satz "Vergessen Sie beim Betrachten aktueller und kommender Radeon-Benchmarks nicht, dass die Geforce-Karten meist hübschere Texturen liefern",einfach nur würg.

vielleicht wacht so amd mal auf würde die bugs sozusagen die bei A.I.off entstehen ausmerzen.

Coda
2008-07-24, 13:17:26
und ist das sicher das A.I.off viel leistung verliert?
A.I. off wird bei vielen Spielen deshalb schon sehr viel verlieren weil die sinnvollen Optimierungen fehlen.

Man kann eben nicht genau messen wieviel davon vom Texturfilter kommt. Vielleicht will das ATI auch genau vermeiden.

ich glaub A.I. off wurde von amd komplett vernachlässigt oder total ignoriert,deshalb auch die andere probleme wie kein cf usw.
Nein. Das ist bewusst so. Das war schon der Fall als A.I. das erste Mal eingeführt wurde. ATI hat damals gesagt "wir haben eine Option mit der man ALLES abschalten kann" um der Optimierungsdiskussion zu entgehen.

naja der vegleich ist mal schwer in die hose gegangen
Das ist eine haltlose Behauptung. Es wurden alle wesentlichen Punkte sehr gut angesprochen.

desert
2008-07-24, 13:18:42
das geht mir nicht in den kopf,

wieso testet der A.I. standard vs.HQ

und ist das sicher das A.I.off viel leistung verliert?ich habe die karte nicht aber ich könnte mir vorstellen das die 4er serie stark genug dafür ist.dazu kommt das ich ein paar spiele mal zwischen HQ und Q getestet hatte und da gabs auch keine nennenswerten performanceverlust.
ich glaub A.I. off wurde von amd komplett vernachlässigt oder total ignoriert,deshalb auch die andere probleme wie kein cf usw.

naja der vegleich ist mal schwer in die hose gegangen und dann dieser fingerfrauf satz "Vergessen Sie beim Betrachten aktueller und kommender Radeon-Benchmarks nicht, dass die Geforce-Karten meist hübschere Texturen liefern",einfach nur würg.

vielleicht wacht so amd mal auf würde die bugs sozusagen die bei A.I.off entstehen ausmerzen.

zu seligen r580 zeiten hat ati bis zu 56 % an perfomance verloren wenn a.i. off getestet wurde, auf a.i. off und g70 auf hq war meistens der g70 schneller als der r580 und das teilweise beträchlich.

reunion@work
2008-07-24, 13:26:55
Meine nicht. Bugfixes und AA-Hacks sind definitiv weg und Crossfire läuft halt im Supertiling-Modus der immer geht aber miese Performance liefert ohne Profil.

Ja, das ist zumindest tw. korrekt. Viele Spiele zeigen aber auch kaum Änderungen. Wobei es natürlich auch schwer ist zu beurteilen wo der Treiber sonst eingreifen würde. Man hat ja nur die Performance um zu einem Schluss zu kommen.

zu seligen r580 zeiten hat ati bis zu 56 % an perfomance verloren wenn a.i. off getestet wurde, auf a.i. off und g70 auf hq war meistens der g70 schneller als der r580 und das teilweise beträchlich.

G70 HQ war auch kaum besser als AI_standard und bei AI_off hat(te) man wieder das Problem mit den sinnvollen Optimierungen, zumal ein R5xx auf AI_off noch perfekt filterte.

Coda
2008-07-24, 13:29:56
Ja, das ist zumindest tw. korrekt.
Wo ist das "tw." denn nicht korrekt?
Ich bezweifle dass ATI da irgendwie noch rumpfuscht. A.I. dürfte ein komplett eigenständiger Codepfad sein mit all dem Zeug drin der einfach komplett deaktiviert wird.

desert
2008-07-24, 13:31:40
G70 HQ war auch kaum besser als AI_standard und bei AI_off hat(te) man wieder das Problem mit den sinnvollen Optimierungen, zumal ein R5xx auf AI_off noch perfekt filterte.


das mag für die ersten treiberversionen richtig sein, nach beheben der flimmerproblematik war hq doch schon ein bischen besser als a.i. standard. Unter standard kann man z.b. wunderschöne moiremuster bei bestimmten texturen beobachten.

Gast
2008-07-24, 13:33:52
Wenn man AI off bencht gibt es 2 Möglichkeiten

a) ATI trennt Bugfixes und Optimierungen
b) auch AI off schaltet die Optimierungen nicht mehr ab

Bei einigen Spielen kann man schon heute den Verdacht haben, dass b) richtig ist. (minimale Differenz zu AI standard)

Coda
2008-07-24, 13:34:39
Solange A.I. Standard nur den Texturfilter betrifft weil sonst nichts gefixt werden muss ist der Unterschied natürlich gering.

derguru
2008-07-24, 13:40:02
Nein. Das ist bewusst so. Das war schon der Fall als A.I. das erste Mal eingeführt wurde. ATI hat damals gesagt "wir haben eine Option mit der man ALLES abschalten kann" um der Optimierungsdiskussion zu entgehen.


Das ist eine haltlose Behauptung. Es wurden alle wesentlichen Punkte sehr gut angesprochen.

und trotzdem hätte er versuchen müssen da er alles parart in A.I. off mehr einzugehen,im endeffekt hat er es komplett ignoriert.ich hätte gerne bild und performance vergleiche im A.I.off gesehen.ich bin der meinung man kann nicht 2 verschiedene settings als vergleich nehmen(HQ vs.A.I.standard).

dazu kommt das nv karten immernoch Flimmern wie hier und das nicht zu knapp
http://rapidshare.com/files/131968285/XR_3DA_2008-07-24_00-44-28-59.avi.html

zu seligen r580 zeiten hat ati bis zu 56 % an perfomance verloren wenn a.i. off getestet wurde, auf a.i. off und g70 auf hq war meistens der g70 schneller als der r580 und das teilweise beträchlich.

das kann mit den heutigen karten aber nicht mehr vergleichen.

Gast
2008-07-24, 13:41:38
Der betroffene Treiber war Beta und hatte schlicht einen Bug. nVidia hatte es zu diesem Zeitpunkt nicht nötig, "nicht schlecht" gegen ATI auszusehen.

Der Treiber wurde aber in den Reviews verwendent ;) Und da NV alle paar Monate einen WHQL bringen (was sowieso eine sauerei ist), aber so kann man sich natürlich rausreden...is klar :rolleyes:

Coda
2008-07-24, 13:47:02
dazu kommt das nv karten immernoch Flimmern wie hier und das nicht zu knapp
http://rapidshare.com/files/13196828...28-59.avi.html
Das Problem ist dass der Shader auch noch flimmern kann. Da hilft dann der beste Texturfilter nichts mehr. Habe ich aber auch schon öfters gesagt.

das kann mit den heutigen karten aber nicht mehr vergleichen.
Bei den Spielen die 56% auf einem R580 verloren haben dürfte das auch noch heute so sein. Weil das kommt mit Garantie nicht vom Texturfilter.

derguru
2008-07-24, 14:01:20
Bei den Spielen die 56% auf einem R580 verloren haben dürfte das auch noch heute so sein. Weil das kommt mit Garantie nicht vom Texturfilter.


wie kommste denn darauf? die texelfüllrate die maßgebend für die af performance entscheident ist 1/3 zur 4870 karte.das gilt für den r580 und den r600.

Coda
2008-07-24, 14:04:56
Der hauptsächliche Performanceverlust mit A.I. off ist in den ganz krassen Fällen aber eben nicht die AF-Performance, sondern einfach der Fakt dass die Optimierungen deaktiviert werden.

Bei 56% müsste ja mindestens mehr als die Hälfte der Füllrate wegfallen. Das ist völlig unrealistisch, vor allem weil viel der Latenz auch hinter ALU versteckt werden kann.

LovesuckZ
2008-07-24, 14:16:47
Hä?
Willst du nur Bilder vergleichen oder auch Benchen?
Wenn du auch Benchen willst, dann kannst du doch nicht AI-off verwenden, weil du damit alle anderen Optimierungen, die auf die BQ keinen Einfluss haben, auschaltest und damit keine echte Vergleichbarkeit bei der Performance hast.


Vergleichbarkeit != Praxisrelevanz.
Bei der Filterungsqualität ist A.I Off gegen HQ vergleichbar. Nur weil AMD alles unter Off stellt, ändert es nichts an dieser Tatsache.

derguru
2008-07-24, 14:33:59
Das Problem ist dass der Shader auch noch flimmern kann. Da hilft dann der beste Texturfilter nichts mehr. Habe ich aber auch schon öfters gesagt.


ja bloß das shaderflimmern noch mit af verstärkt wird:wink:

Der hauptsächliche Performanceverlust mit A.I. off ist in den ganz krassen Fällen aber eben nicht die AF-Performance, sondern einfach der Fakt dass die Optimierungen deaktiviert werden.

Bei 56% müsste ja mindestens mehr als die Hälfte der Füllrate wegfallen. Das ist völlig unrealistisch, vor allem weil viel der Latenz auch hinter ALU versteckt werden kann.

ja deshalb sag ich ja das die ati karten sauberes af ohne groß leistungsverlust anbieten "könnten",wo es noch sinn gemacht hatte am af zu tricksen wie beim r580 oder r600 ist bei der 4er serie nicht mehr nötig.vielleicht wird es ja mal A.I. HQ(wiederspruch in sich aber ich nenn es mal so)geben oder wie man es auch nennen mag denn A.I.off wird so bleiben wie es ist da es wohl zu viel aufwand machen würde.

Coda
2008-07-24, 14:38:53
,wo es noch sinn gemacht hatte am af zu tricksen wie beim r580 oder r600 ist bei der 4er serie nicht mehr nötig
Wie kommst du eigentlich zu dem Schluss? ALU:TMU ist bei RV770 exakt gleich wie bei RV670. Beides ist um Faktor 2,5 gewachsen.

Wenn der Filter auf RV670 die ALUs limitiert dann tut er es auch bei RV770.

derguru
2008-07-24, 14:51:30
Wie kommst du eigentlich zu dem Schluss? ALU:TMU ist bei RV770 exakt gleich wie bei RV670. Beides ist um Faktor 2,5 gewachsen.

Wenn der Filter auf RV670 die ALUs limitiert dann tut er es auch bei RV770.

ganz einfach beim rv670 war der af performanceverlust sehr oft fast in dem niveau wie 4aa(20%) und beim 4870 ist der af verlust nicht mal der rede wert.

Banshee18
2008-07-24, 14:55:40
Als Hardwaremagazin kann PCGH das aber nicht bringen, denn es wäre völlig an der Realität vorbeigemessen.
Vielleicht muss man ATi-Usern auch erst die Realität zeigen.
Jeder nV-User spielt mit HQ, weil er maximale Qualität will. Warum wollen ATi-User nicht die maximale Qualität?

derguru
2008-07-24, 15:11:09
Vielleicht muss man ATi-Usern auch erst die Realität zeigen.
Jeder nV-User spielt mit HQ, weil er maximale Qualität will. Warum wollen ATi-User nicht die maximale Qualität?

die realität sollte man ati zeigen und nicht den usern.ati hat es halt verschlafen oder was ich eher denke denen geht es am arsch vorbei da eh nur 1% der leute überhaupt das bemerken.

mit jeder kannst du nur von dir und meinetwegen noch paar anderen fanboys reden.
nicht aus spass ist default nur Q.was dann auch bedeutet das mind.90% der user auch da bleiben.

raff sollte mal lieber sinnvolle vergleiche machen wie z.b. performance unterschiede von Q und A.I. standard(da es in etwa die selbe bildqualität hat).

L233
2008-07-24, 15:17:14
[...] da eh nur 1% der leute überhaupt das bemerken.

[...] das mind.90% der user auch da bleiben.

Erstmal: lol @ aus der Kimme gezogene Statisiken.

Dann: meinst Du nicht, dass Leute, die €200 und mehr für Grafikkarten ausgeben, eventuell nicht unbedingt die "ich lass alles auf Standard"-User sind?

Und schließlich: mit gleichem "Argument" könnte man jede Optimierung auf Kosten der BQ rechtfertigen.

Gast
2008-07-24, 15:23:23
Vielleicht muss man ATi-Usern auch erst die Realität zeigen.
Jeder nV-User spielt mit HQ, weil er maximale Qualität will. Warum wollen ATi-User nicht die maximale Qualität?

NV User gehen auf HQ, weil sie noch aus der G70/1 Generation meinen, dass sie es müssen.

ATI User hatten nie einen Grund über AI standard zu meckern und auch heute gibt es den eigentlich nicht, da es der perfekte Kompromiss ist.

Unyu
2008-07-24, 15:26:19
AI standard .... der perfekte Kompromiss ist.
Wenns flimmert ist es eben überhaupt nicht perfekt.

Der perfekte Kompromiss existiert einfach nicht, solange AI-off so ist, wie es ist.

derguru
2008-07-24, 15:27:18
Erstmal: lol @ aus der Kimme gezogene Statisiken.

Dann: meinst Du nicht, dass Leute, die €200 und mehr für Grafikkarten ausgeben, eventuell nicht unbedingt die "ich lass alles auf Standard"-User sind?

Und schließlich: mit gleichem "Argument" könnte man jede Optimierung auf Kosten der BQ rechtfertigen.


mit jeder du kannst nur von dir und meinetwegen noch paar anderen fanboys reden.

kein kommentar,
da ist der erste schon parat,http://smiliestation.de/smileys/Schilder/47.gif (http://smiliestation.de/)

ShadowXX
2008-07-24, 15:36:39
NV User gehen auf HQ, weil sie noch aus der G70/1 Generation meinen, dass sie es müssen.

ATI User hatten nie einen Grund über AI standard zu meckern und auch heute gibt es den eigentlich nicht, da es der perfekte Kompromiss ist.
Wenn ist es eher HQ bei nV der perfekte Kompromiss, da es nur relativ wenig mehr Leitung als Q + Opt kostet. Man braucht bei keinem Game (ab 8800GT) aus Grund der Angst zu wenig FPS zum Gamen zu haben auf HQ verzichten (im Prinzip hab ich 16xHQAF nie aus gehabt (8800GTX, 8800GTS/512 & 9800GTX*), ausser bei Crysis, da bin ich auf 4xHQAF zurück).

kein kommentar,
da ist der erste schon parat,http://smiliestation.de/smileys/Schilder/47.gif (http://smiliestation.de/)
Du solltest vielleicht mal selber deine Sig beherzigen.

Ich hab selber ne ATI momentan (und hatte auch schon früher welche) und sag ebenfalls das es verdammt braune masse ist was ATI da macht (genaugenommen hab ich das seit der Einführung von AI beanstandet).
Auch der Rückschritt der AF Filterung vom r520/580 zu R600/RV6x9/RV7x0 hab ich nie gutgeheissen.

Und ich glaube auch das du die Menge der Leute die sowas interessierst unterschätzt.



*die Reihenfolge und Zusammenstellung is ne längere Geschichte und hat was damit zu tun das bei der 8800GTX nach 1 3/4 jahren der Speicher hochgegangen ist).

Mr.Magic
2008-07-24, 15:41:55
NV User gehen auf HQ, weil sie noch aus der G70/1 Generation meinen, dass sie es müssen.

So ein Quatsch. BQ-Fetischisten verwendeten immer HQ-AF und Hybrid-AA (afair ab GF3). Nur war ab NV40 die max. AFQ eben für eine Weile auf R300/400-Niveau reduziert.

Wer zwischen Q und HQ oder A.I. on/off keinen Unterschied sieht, darf sich glücklich schätzen.

Banshee18
2008-07-24, 16:36:25
ATI User hatten nie einen Grund über AI standard zu meckern und auch heute gibt es den eigentlich nicht, da es der perfekte Kompromiss ist.
Warum sollte man bei einer High-End-Karte, die genug Power für maximale AF-Qualität hat, Kompromisse eingehen?
Warum kann man dem User nicht einfach die Wahl lassen, seine Bildqualität selbst zu wählen? Mit einer nV kann ich, wenn ich möchte, auch die schlechtere ATi-Bildqualität erreichen. Warum lässt mir ATi praktisch nicht die Wahl, nahezu perfekte nV-Bildqualität zu erreichen?

Ein Fanboy bin ich ganz sicher nicht, ich hatte vor meiner 8800GTX eine X1900XT, davor eine X1800XL und schon viele andere ATi-Karten.
Kann man das hässliche kleine Wörtchen "Fanboy", das nur für aggressive Stimmung sorgt, nicht einfach aus dem Spiel lassen? Bitte.... ;(

Gast
2008-07-24, 16:50:05
Ich find A.I Standard gut, hat mich noch nie gestört.

Gast
2008-07-24, 16:54:27
Ich find A.I Standard gut, hat mich noch nie gestört.

mich auch nich, bin zufrieden damit.

vinacis_vivids
2008-07-24, 17:09:27
Ok hier mein Vorschlag:

Ich hab hier ein Savegame hochgeladen von Crysis, in diesem Level einfach ca 3sec aufnehmen und nur dabei nach vorn laufen ohne die Maus zu bewegen
in den Settings wie unten steht, bitte ohne MODs in Crysis:

hier das Savegame:

http://www.keepmyfile.com/download/9f757e2286253

diese Settings in Fraps:

http://www.abload.de/img/frapsfm6.jpg (http://www.abload.de/image.php?img=frapsfm6.jpg)

und diese in Crysis:

Crysis DX10 1280x720 "HIGH" 4xAA 16xAF

Ich habs mal gemacht
http://rapidshare.com/files/132045997/crysis64_4AA16AF.avi

Bitte um beurteilung, ist ne RV770.
Ist diese Stelle in Bewegung:
http://www.abload.de/thumb/a.i.standard-rv770sbf.png (http://www.abload.de/image.php?img=a.i.standard-rv770sbf.png)

derguru
2008-07-24, 17:27:55
ist das 100% dx10 very high? weil bei raffs videos ploppen die steine nicht erst auf sondern sind schon zusehen.

wenn ja ist das flimmern genau wie bei meiner 260gtx.

ich habs ja gesagt lasst den kram von mister cfgs weg bei solchen vergleichen.

Banshee18
2008-07-24, 17:30:46
Ich find A.I Standard gut, hat mich noch nie gestört.
mich auch nich, bin zufrieden damit.
Und weil viele mit ihrem Opel Corsa zufrieden sind, verliert Mercedes Benz seine Daseinsberechtigung?
Die ganze Diskussion ist eigentlich total unnötig. ATi bietet nicht maximale Bildqualität, ohne dafür auf andere Optimierungen und Bugfixes verzichten zu müssen, und das muss man ihnen ankreiden.

Frank1974
2008-07-24, 17:31:28
Ich habs mal gemacht
http://rapidshare.com/files/132045997/crysis64_4AA16AF.avi

Bitte um beurteilung, ist ne RV770.
Ist diese Stelle in Bewegung:
http://www.abload.de/thumb/a.i.standard-rv770sbf.png (http://www.abload.de/image.php?img=a.i.standard-rv770sbf.png)



Biite nicht Rapidshare, da dauert der Download in letzter Zeit ewig.

Und dann noch Zocker28, bei dem reagiere ich ganz empfindlich, der ist hier gesperrt und ich hoffe für immer, von dem kann nichts Neutrales kommen, sorry:rolleyes:

mfg
Frank

vinacis_vivids
2008-07-24, 17:35:01
Biite nicht Rapidshare, da dauert der Download in letzter Zeit ewig.

Und dann noch Zocker28, bei dem reagiere ich ganz empfindlich, der ist hier gesperrt und ich hoffe für immer, von dem kann nichts Neutrales kommen, sorry:rolleyes:

mfg
Frank

Das Video hab ich gemacht und es ist eine Szene, die Raff auf screenie geschossen hat.

Frank1974
2008-07-24, 17:48:49
Hier mal etwas ganz fieses.

Ich bin aber der Meinung das ich dieses Geflimmer nicht auf meiner 8800GTS hatte, jedenfalls nicht so schlimm, mit einem älteren Treiber.

Gothic3@max, GTX280 FW177.35@HQ
4xAA, 16xAF
http://www.files.to/get/336701/9hgm3o6yqi

3x3SSAA, 16xAF, dann aber dank 10-20fps unspielbar, aber schön sauber
http://www.files.to/get/336724/ddgtebki0n

/edit
Das ist aber hauptsächlich in dem Winkel so schlimm, geht man umgekehrt, also aus dem Dorf raus, dann flimmert es fast gar nicht

mfg
Frank

Gast
2008-07-24, 17:55:06
Hier mal etwas ganz fieses.

Ich bin aber der Meinung das ich dieses Geflimmer nicht auf meiner 8800GTS hatte, jedenfalls nicht so schlimm, mit einem älteren Treiber.

Gothic3@max, GTX280 FW177.35@HQ
4xAA, 16xAF
http://www.files.to/get/336701/9hgm3o6yqi

3x3SSAA, 16xAF, dann aber dank 10-20fps unspielbar, aber schön sauber
http://www.files.to/get/336724/ddgtebki0n

mfg
Frank

Hm, imho wurde bei der GTX280/260 das ALU:TEX Verhältnis erhöht, ist also nicht so abwegig dass man auch bei NV anfängt zu sparen wo man meint dass es nicht auffällt.

Gast
2008-07-24, 18:05:23
Hier mal etwas ganz fieses.

Ich bin aber der Meinung das ich dieses Geflimmer nicht auf meiner 8800GTS hatte, jedenfalls nicht so schlimm, mit einem älteren Treiber.

Gothic3@max, GTX280 FW177.35@HQ
4xAA, 16xAF
http://www.files.to/get/336701/9hgm3o6yqi

3x3SSAA, 16xAF, dann aber dank 10-20fps unspielbar, aber schön sauber
http://www.files.to/get/336724/ddgtebki0n

/edit
Das ist aber hauptsächlich in dem Winkel so schlimm, geht man umgekehrt, also aus dem Dorf raus, dann flimmert es fast gar nicht

mfg
Frank

sieht nach richtig fiesem AF flimmern aus. das bestätigt mich nur wieder meiner annahme das sich beide hersteller in sachen bildqualität nichts nehmen!

Coda
2008-07-24, 18:07:17
Nur weil etwas flimmert heißt es noch lange dass es vom Texturfilter kommt.

Und du liegst falsch. HQ filtert mit Sicherheit besser als A.I. Standard. Da gibt's nichts zu diskutieren.

Gast
2008-07-24, 18:09:14
Nur weil etwas flimmert heißt es noch lange dass es vom Texturfilter kommt.

Und du liegst falsch. HQ filtert mit Sicherheit besser als A.I. Standard. Da gibt's nichts zu diskutieren.

ok von was kommt das flimmern dann?

MikBach
2008-07-24, 18:09:39
Vielleicht muss man ATi-Usern auch erst die Realität zeigen.
Jeder nV-User spielt mit HQ, weil er maximale Qualität will.
Das ist jetzt aber nicht dein ernst, oder?
Ich persönlich kenne ja schon ein paar, die immer Treiber-Default spielen, egal ob NV oder ATI.
Und auch einige, die noch nichtmal AA oder AF dazuschalten. Von Schwachmaten, die einfach die Spiele-DVD einlegen und teilweise mit nicht ganz aufgedrehten Details spielen, obwohl die Graka dies locker packen würde, ganz zu schweigen.
Leute, vergesst nicht, dass es hier im Forum schon einige Cracks gibt, die die BQ sehr gut einschätzen können, weil sie das Thema kennen und auch über eine entsprechende Wahrnehmungsfähigkeit besitzen.
Nur der Normal-Spieler braucht kein HQ oder AI-off, wenn er mit dem Standard schon super zufrieden ist.
Deswegen wird auch meistens so getestet, da man ja für die breite Masse testet und nicht für die paar Prozent der Cracks.
Ich würde es aber sehr begrüssen, wenn man noch zusätlich von ein paar Spielen die Werte für die maximale BQ hätte.
So könnte man auch die BQ-Cracks zufrieden stellen.

Aber jetzt immer mit maximaler BQ zu testen geht imho am Bedarf der meisten Kunden bzw der Leser vorbei.
Ist so als ob ich in einer Zeitung für Hartz4-Empfänger sauteure Uhren testen würde, überspitzt gesagt. :)

Es wird hier auch so gemeckert, als ob Treiber-Default immer schlecht wäre, aber das sind eher die Ausnahmen und nicht die Regel.
Der informierte Crack weiss eh, was er sich holen soll und was für eine BQ er braucht um zu "überleben". Nur sollte man die Realität nicht verkennen und so tun, als ob wir hier der Nabel der Welt sind. :)

ShadowXX
2008-07-24, 18:14:36
ok von was kommt das flimmern dann?
Wenn der Content (= Textur) zu Hochfrequent ist, bringt kein noch so guter Texturfilter mehr etwas.

Viele verwechseln dann auch noch Shaderflimmern und Texturflimmern.

flatbrain
2008-07-24, 18:16:43
Kann einer an dieser Stelle mal ganz kurz in zwei Sätzen erklären, wie es zum Shaderflimmern kommt?

vinacis_vivids
2008-07-24, 18:24:27
Ich habs mal gemacht
http://rapidshare.com/files/132045997/crysis64_4AA16AF.avi

Bitte um beurteilung, ist ne RV770.
Ist diese Stelle in Bewegung:
http://www.abload.de/thumb/a.i.standard-rv770sbf.png (http://www.abload.de/image.php?img=a.i.standard-rv770sbf.png)

ist das 100% dx10 very high? weil bei raffs videos ploppen die steine nicht erst auf sondern sind schon zusehen.

wenn ja ist das flimmern genau wie bei meiner 260gtx.

ich habs ja gesagt lasst den kram von mister cfgs weg bei solchen vergleichen.


Hier in veryhigh ohne irgendwelche Modskacke. Leider waren bei dem Vid keine 30fps ingame möglich. Immer wenn die Aufnahme beginnt, fallen die fps auf 15-16fps
Einstellung: veryhigh 1280x720x8AAx16AF mit Crossfire 4870+4850
http://www.files.to/get/336812/4mjc4bwq5k

Aja, vielleicht kann jemand mit der GTX2x0 diese Szene nachahmen, bitte auch auf Vid pls.

Gast
2008-07-24, 18:26:12
Wenn der Content (= Textur) zu Hochfrequent ist, bringt kein noch so guter Texturfilter mehr etwas.

Viele verwechseln dann auch noch Shaderflimmern und Texturflimmern.

und wie unterscheidet der grafikkartenbesitzer dann zwischen shaderflimmern,das ja die aktuellen radeons haben (sollen),und texturflimmern?

Frank1974
2008-07-24, 18:27:09
Was für ein flimmern das in Gothic3 auch ist, es sieht an der Stelle grausam aus, aber das ist jetzt nicht die Regel in Gothic3, wie gesagt geht man den gleichen Weg nur umgekehrt ist es schon fast nicht mehr sichtbar.

mfg
Frank

vinacis_vivids
2008-07-24, 18:30:05
und wie unterscheidet der grafikkartenbesitzer dann zwischen shaderflimmern,das ja die aktuellen radeons haben (sollen),und texturflimmern?

Er kauft sich Karten beider Firmen, fördert die Wirtschaft, und guckt sich das alles an ;)

Gast
2008-07-24, 18:33:50
Er kauft sich Karten beider Firmen, fördert die Wirtschaft, und guckt sich das alles an ;)
keine gute lösung!

Fetza
2008-07-24, 18:35:56
Mal eine frage: Für einen g80-umsteiger, wie wird sich die filterqualität darstellen, wenn man in höheren auflösungen zockt, mindert das nicht das flimmern? Und wie siehts mit ssaa modus für ati karten aus, gabs da nicht eine möglichkeit, mittels ati-tool welche einzustellen?

MikBach
2008-07-24, 18:37:36
und wie unterscheidet der grafikkartenbesitzer dann zwischen shaderflimmern,das ja die aktuellen radeons haben (sollen),und texturflimmern?
Wir sprechen hier im Thread aber über die anisotrope Filterung, ergo Texturflimmern, was die ATIs haben sollen, aber besser nicht hätten...
Shaderflimmern betrifft nicht das AF und betrifft beide IHVs.

Man kann es zwar mit SSAA bekämpfen, bei modernen Spielen (wo es auch häufiger vorkommt als bei älteren, logisch) reicht die Leistung aber oft nicht aus.

edit:
Mal eine frage: Für einen g80-umsteiger, wie wird sich die filterqualität darstellen, wenn man in höheren auflösungen zockt, mindert das nicht das flimmern?
Ja, eine höhere Auflösung mindert das Flimmern, vor allem beim Shaderflimmern gut sichtbar.

Coda
2008-07-24, 18:38:05
Mal eine frage: Für einen g80-umsteiger, wie wird sich die filterqualität darstellen, wenn man in höheren auflösungen zockt, mindert das nicht das flimmern?
Nein, wieso sollte es?

Nazar
2008-07-24, 18:43:23
Nein, wieso sollte es?

Aber klar!
Wieso sollte es nicht?

Aquaschaf
2008-07-24, 18:43:24
Kann einer an dieser Stelle mal ganz kurz in zwei Sätzen erklären, wie es zum Shaderflimmern kommt?

Genauso wie es zu Texturflimmern kommt: wenn die Ausgabe des Shaders zu hochfrequent ist für die Bildauflösung. Praktisch passiert das meistens bei normal mapping in Kombination mit einem specular-Anteil bei der Beleuchtung (das ist beispielsweise das weiße Glanzlicht auf dem Bild in diesem Artikel: http://de.wikipedia.org/wiki/Phong_Shading).

Aber klar!
Wieso sollte es nicht?

Es ist umgekehrt. Für eine Hypothese kann (oder sollte) man eine Begründung verlangen. Eine Hypothese aufzustellen und einen Gegenbeweis zu fordern ist logisch nicht sinnig ;)

Coda
2008-07-24, 18:48:32
Ja, eine höhere Auflösung mindert das Flimmern, vor allem beim Shaderflimmern gut sichtbar.
Wenn dann überhaupt nur in der Magnification, also dem größten Mip-Level. Ansonsten filtert die GPU immer an der maximalen Nyquist-Frequenz und die wird durch höhere Auflösung nunmal auch erhöht.

Sprich: Solange die Texturen detailiert genug sind bringt es überhaupt nichts.

MikBach
2008-07-24, 18:48:48
Nein, wieso sollte es?
Doch, tut es.
Shaderflimmern von Metalltüren und Metallrahmen.
Das erste mal bei FC gesehen, aber auch FEAR ist ein gutes Beispiel.
Wenn man die Auflösung erhöht ist das Flimmern geringer, oder ich hatte gerade was an den Augen. :P

Zum Thema hochfrequentes Material ist dieses noch ganz brauchbar und recht einfach erklärt:
http://www.vrvis.at/vr/cgr4/sampling/index.html

Coda
2008-07-24, 18:50:07
Doch, tut es.
Shaderflimmern von Metalltüren und Metallrahmen.
Das erste mal bei FC gesehen, aber auch FEAR ist ein gutes Beispiel.
Wenn man die Auflösung erhöht ist das Flimmern geringer, oder ich hatte gerade was an den Augen. :P[/url]
Es verschiebt das Problem nur weiter nach hinten. Siehe letzten Post von mir.

Gast
2008-07-24, 18:50:20
Wir sprechen hier im Thread aber über die anisotrope Filterung, ergo Texturflimmern, was die ATIs haben sollen, aber besser nicht hätten...
Shaderflimmern betrifft nicht das AF und betrifft beide IHVs.

aber woher weiss der unbedachte zocker was was ist?

MikBach
2008-07-24, 18:54:18
Es verschiebt das Problem nur weiter nach hinten. Siehe letzten Post von mir.
Das kann sein, da ich es mir aus der Nähe angesehen habe und davon ausgehe, dass es sich um den grössten Mip-Level handelte.

edit:
aber woher weiss der unbedachte zocker was was ist?
Bei dem von mir genannten Beispiel mit den Metall ist es eindeutig, aber sonst ist es schwierig zu sagen, wodurch das Flimmern verursacht wird. Das wissen oft auch die Cracks nicht.

BTW ich glaube wir sind hier mittlerweile reichlich OT ;)

Coda
2008-07-24, 18:55:39
In der Nähe hast du damit sicher recht. Das liegt einfach daran dass die Frequenz pro Pixel abnimmt.

Aber Flimmern minimieren würde ich das nicht nennen. Wenn die DPI gleich bleiben auf einem Monitor dürften die Flächen bei denen es flimmert ungefähr gleich groß sein über ein Spiel verteilt.

Raff
2008-07-24, 18:56:52
Es verschiebt das Problem nur weiter nach hinten. Siehe letzten Post von mir.

Das reicht aber oft. :) In 2560x1600 schaut einiges besser aus als in 1680x1050 ...

MfG,
Raff

mrt
2008-07-24, 19:40:03
Auf einem CRT beobachtet? Dann liegts an der höheren Pixeldichte, damit nimmt dich Fläche der "flimmernden" Pixel ab (auf dem Bildschirm).

Savay
2008-07-24, 19:50:51
In der Nähe hast du damit sicher recht. Das liegt einfach daran dass die Frequenz pro Pixel abnimmt.

Aber Flimmern minimieren würde ich das nicht nennen. Wenn die DPI gleich bleiben auf einem Monitor dürften die Flächen bei denen es flimmert ungefähr gleich groß sein über ein Spiel verteilt.


hängt doch gewiss auch vom content ab?! :|

halt je nachdem ob das pixelshading über alle mip stages appliziert wird oder nicht...

da frage ich mich grade wieso das mip mapping eigentlich nicht so gut greift bei shadern...das ausgangsmaterial sind ja eigentlich in jedem fall die zugrunde liegenden texturen die ja entsprechend niederfrequenter sind je weiter sie weiter sie vom POV entfernt sind oder wird immer die basis textur angewendet ohne berücksichtigung des LoD grades? :confused:

Gast
2008-07-24, 19:52:21
Vielleicht muss man ATi-Usern auch erst die Realität zeigen.
Jeder nV-User spielt mit HQ, weil er maximale Qualität will. Warum wollen ATi-User nicht die maximale Qualität?

das schreit geradezu nach einer öffentlichen umfrage. wer mag?

Coda
2008-07-24, 20:01:04
halt je nachdem ob das pixelshading über alle mip stages appliziert wird oder nicht...
Klingt so als hättest du an der Stelle eine falsche Vorstellung. Ein Pixelshader sampled eine Textur an einer bestimmten Stelle und rechnet dann mit dem zurückgegebenen Wert weiter.

D.h. der Pixelshadercode weiß eigentlich gar nichts von den Mipmaps. Es gibt zwar Methoden eine bestimmte LOD-Stufe zu samplen aber das ist nur in Spezialfällen nützlich.

Es gibt deshalb auch kein automatisches Shader-LOD. Das ist ja eins der großen Probleme was die Flimmeranfälligkeit von Shadern angeht. Wenn man zwei gesamplete Texturen verrechnet dann sollten zwar die Texturdaten Nyquist einhalten aber über das Resultat sagt das noch lange nichts.

Savay
2008-07-24, 20:14:04
Klingt so als hättest du an der Stelle eine falsche Vorstellung. Ein Pixelshader sampled eine Textur an einer bestimmten Stelle und rechnet dann mit dem zurückgegebenen Wert weiter.

D.h. der Pixelshadercode weiß eigentlich gar nichts von den Mipmaps. Es gibt zwar Methoden eine bestimmte LOD-Stufe zu samplen aber das ist nur in Spezialfällen nützlich.

Es gibt deshalb auch kein automatisches Shader-LOD. Das ist ja eins der großen Probleme was die Flimmeranfälligkeit von Shadern angeht. Wenn man zwei gesamplete Texturen verrechnet dann sollten zwar die Texturdaten Nyquist einhalten aber über das Resultat sagt das noch lange nichts.

hm ja soweit verständlich. ist es möglich die pixelshader nur über bestimmte mip stages anzuwenden? (edit: ach hattest du ja grade schon geschrieben!) ähnlich wie bei "detail textures" die ja oft nur auf der ersten mip stufe liegen?

ich kann mir schon vorstellen das es pixelbrei gibt wenn ein shader der eigentlich für die ausgangstextur geschrieben wurde aufeinmal eine geringer aufgelöste version der selben textur vorgesetzt bekommt. :rolleyes:

ist das textur lod mittlerweile "automatisch" oder müssen die mipstages eigentlich noch hinterlegt sein...mir war so als wäre das bei der UE1 der fall gewesen. kann sein das mich meine erinnerung trügt

Coda
2008-07-24, 20:17:34
hm ja soweit verständlich. ist es möglich die pixelshader nur über bestimmte mip stages anzuwenden? ähnlich wie bei "detail textures" die ja oft nur auf der ersten mip stufe liegen?
Ja man kann ja pro Pixel die Entfernung ausrechnen und dann überblenden. Z.B. wendet Crysis das Occlussion-Bump-Mapping auch nicht in der Distanz an.

Das was ich vorher geschrieben hatte hat damit nicht direkt was zu tun. Der Pixelshader kontrolliert die TMU, nicht andersrum.

ist das textur lod mittlerweile "automatisch" oder müssen die mipstages eigentlich noch hinterlegt sein...mir war so als wäre das bei der UE1 der fall gewesen. kann sein das mich meine erinnerung trügt
Die Mipmaps werden normal einfach offline vorberechnet und dann die ganze Textur mit den Mips auf die GPU geladen.

Automatisch geht es allerdings nicht, man kann durchaus auch noch Texturen ohne Mipmaps laden. Ergibt halt nicht viel Sinn.

Gast
2008-07-24, 20:18:32
Das reicht aber oft. :) In 2560x1600 schaut einiges besser aus als in 1680x1050 ...

MfG,
Raff

Was aber nun wieder weniger an der Auflösung als den kleineren Bildpunkten des Monitors liegt. Ändern sich die DPI nicht, darf eine höhere Auflösung keine Änderung bewirken.

Savay
2008-07-24, 20:33:17
Ja man kann ja pro Pixel die Entfernung ausrechnen und dann überblenden. Z.B. wendet Crysis das Occlussion-Bump-Mapping auch nicht in der Distanz an.

Das was ich vorher geschrieben hatte hat damit nicht direkt was zu tun. Der Pixelshader kontrolliert die TMU, nicht andersrum.


Die Mipmaps werden normal einfach offline vorberechnet und dann die ganze Textur mit den Mips auf die GPU geladen.

Automatisch geht es allerdings nicht, man kann durchaus auch noch Texturen ohne Mipmaps laden. Ergibt halt nicht viel Sinn.

wäre es dann nicht möglich einen angepassten shader je nach mipstage zu verwenden? :wink: gut weit entfernt von automatischem lod da der aufwand wohl recht groß sein würde damit die ergebnisse aussehen wie gewollt :rolleyes:

ansonsten...könnte nicht der shader in eine textur schreiben die dann ja wiederrum gefiltert werden könnte... :confused: dann bräuchts aber wohl doch eine "automatische" mipmap generierung

4 Vitamins
2008-07-24, 20:53:44
Fakt ist, dass A.I Off besser aussieht als A.I Standard

dummes geschwätz!!!!!!!!

A.I Off und A.I oN standard filtern gleich, ausser in deiner ganz eigenen welt.

gruss

Coda
2008-07-24, 20:54:23
wäre es dann nicht möglich einen angepassten shader je nach mipstage zu verwenden?
Ich weiß nicht wie ich es genau sagen soll aber Mipstages sind auf Shader nicht anwendbar. Welche Mip genommen wird hängt ja unter anderem von der Entfernung und der Auflösung ab.

Man kann Shader-LOD machen, aber das ist unabhängig davon.

Banshee18
2008-07-25, 04:42:00
...viel Text...
Stimmt, ich hätte besser "Jeder nV-User, der etwas von anisotroper Filterung versteht, spielt mit HQ, weil er maximale Qualität will." schreiben sollen.

Gamer68
2008-07-25, 11:02:52
dummes geschwätz!!!!!!!!

A.I Off und A.I oN standard filtern gleich, ausser in deiner ganz eigenen welt.

gruss


genauso ist es, das "flimmern" wird bissel weniger aber die Bildqualität leidet deutlich unter AI OFF das AF wird noch schlimmer.

deekey777
2008-07-25, 11:25:28
genauso ist es, das "flimmern" wird bissel weniger aber die Bildqualität leidet deutlich unter AI OFF das AF wird noch schlimmer.
Lest ihr und versteht ihr den Thread, bevor ihr so etwas schreibt?
Das ist ja grausam.

flatbrain
2008-07-25, 11:36:08
Lest ihr und versteht ihr den Thread, bevor ihr so etwas schreibt?
Das ist ja grausam.

Erwartest du jetzt nicht etwas viel...?
AF unter AI off ist besser als unter AI on.

Gast
2008-07-25, 12:34:12
Ja. kostet aber auch Leistung. Jetzt werden einige sagen ja, aber die Grakas haben doch genug Power! Dann sollte sich ATI auch nicht grämen und dem User freie Handlungsfreiheit lassen. Hier wird man ja voll beschnitten. Just my kind of thinking.

aths
2008-07-25, 17:21:02
Ich weiß nicht wie ich es genau sagen soll aber Mipstages sind auf Shader nicht anwendbar. Welche Mip genommen wird hängt ja unter anderem von der Entfernung und der Auflösung ab.

Man kann Shader-LOD machen, aber das ist unabhängig davon.Ich schlage sowas wie "Shader-AF" vor. Es werden für eine Textur pro Pixel die Gradienten berechnet, wobei es die Textur nicht im Speicher gibt. Man hat einfach die Größe in Texeln vorgegeben. Dann berechnet er die AF-Samplepositionen und lässt dort den Pixelshader durchlaufen und mischt die Ergebnisse in die finale Farbe.

Gast
2008-07-25, 21:26:50
Hallo,
ein user sucht tage lang nach einer texture die bei ati mehr flimmert als bei nvidia und stellt anhand dessen die absurde these auf das ati schlechter filtert und die marsmänschen klatschen beifall.
LOL LOL LOL!!!!!

Wenn du nicht mehr (ich meine >10 games wo es durchgehend flimmert)
argumente hast, hast du genau null bewiesen!!!!
Wenn ich mir zeit nehme und suche, finde ich auch beispiele wo nvidia flimmert, DANN DEINE THESE WIEDERLEGT!! :)


gruss

Raff
2008-07-25, 21:31:01
Auch wenn das nur ein lächerlicher Flame-Versuch ist: Ich finde dir deine zehn Spiele. Jedes Spiel mit guten Texturen und Shaderauflage wird es zeigen. Und es werden monatlich mehr. Die Zeit ist gegen "Optimierungen" des Texturfilters.

"Durchgehend flimmernd" geht aber noch nicht, denn so verpfuscht sind aktuell weder Content noch Filter. Dazu braucht's schon einen G7x @ Quality oder einen R200.

MfG,
Raff

Daedalus
2008-07-25, 21:35:23
bei wow oder auch hdro sieht man sehr schön die unterschiede beim texturfilter. meine x1900xt war da deutlich besser als die hd3850 welche ich danach hatte, allerdings nur mit ai off. wobei bei hdro es selbst mit der x1900xt oder meiner jetzigen 8800gt noch etwas geflimmert hat, aber bei weitem nicht so schlimm wie bei der 3850er. hab leider die ati nicht mehr, sonst würde ich videos dazu erstellen.

Raff
2008-07-25, 21:46:56
Du sagst es. WoW wird eh mein nächstes Ziel. Ein sehr dankbares. :naughty: Ansonsten: 3DC-Artikel ftw!

Coda, wollen wir eine Allianz gründen? Kampf der Verblendung, der Blindheit, den Fanboys!

MfG,
Raff

pest
2008-07-25, 21:48:38
die Welt ist nicht schwarz/weiß Raff

Raff
2008-07-25, 21:50:24
Aus Verbohrtheit Lügen zu verbreiten oder Fakten zu leugnen ist sehr wohl schwarz.

"Mir ist nicht warm, die Klimaerwärmung gibt's also nicht." :ulol:

MfG,
Raff

Grestorn
2008-07-25, 21:51:29
die Welt ist nicht schwarz/weiß Raff

Für viele aber wohl Rot/Grün :)

Gamer68
2008-07-25, 21:55:14
toll ATI flimmert bissel und Nvidia cheatet halt Deteils weg, ist doch schön ausgeglichen :rolleyes: (und da kann ich sofort jede Menge Spiele nennen)

Raff
2008-07-25, 22:01:10
Huh, welche? Das interessiert mich ernsthaft. Denn was Crysis angeht, auf das du zweifellos anspielst, handelte es sich um einen - mal wieder ungeschickt platzierten - Treiberbug.

MfG,
Raff

Gamer68
2008-07-25, 22:06:13
Huh, welche? Das interessiert mich ernsthaft. Denn was Crysis angeht, auf das du zweifellos anspielst, handelte es sich um einen - mal wieder ungeschickt platzierten - Treiberbug.

MfG,
Raff

Nein Crysis nicht nur , DIRT, Stalker, UT3 und Jericho es sind nur ganz kleiner Details aber trotzdem.

Raff
2008-07-25, 22:07:33
Details welcher Art? Sofern es sich um Texturdetails ("Schärfe") handelt, dann ist das sicher kein Cheat, sondern der korrekteren Filterung anzuhängen.

MfG,
Raff

Gast
2008-07-25, 22:11:05
Nein Crysis nicht nur , DIRT, Stalker, UT3 und Jericho es sind nur ganz kleiner Details aber trotzdem.

Behauptungen muss man auch beweisen. Ansonsten bla...

Gast
2008-07-25, 22:39:59
Also für mich fehlt noch Witcher in dieser Auflistung. In meinen Augen flimmerts.

Mr. Lolman
2008-07-26, 01:38:43
"Mir ist nicht warm, die Klimaerwärmung gibt's also nicht." :ulol:

MfG,
Raff

http://debatte.welt.de/kommentare/63831/klimakatastrophe+alles+nur+heisse+luft ;)

Fetza
2008-07-26, 04:02:44
Wir sprechen hier im Thread aber über die anisotrope Filterung, ergo Texturflimmern, was die ATIs haben sollen, aber besser nicht hätten...
Shaderflimmern betrifft nicht das AF und betrifft beide IHVs.

Man kann es zwar mit SSAA bekämpfen, bei modernen Spielen (wo es auch häufiger vorkommt als bei älteren, logisch) reicht die Leistung aber oft nicht aus.

edit:

Ja, eine höhere Auflösung mindert das Flimmern, vor allem beim Shaderflimmern gut sichtbar.
Nein, wieso sollte es?
Aber klar!
Wieso sollte es nicht?
Wenn dann überhaupt nur in der Magnification, also dem größten Mip-Level. Ansonsten filtert die GPU immer an der maximalen Nyquist-Frequenz und die wird durch höhere Auflösung nunmal auch erhöht.

Sprich: Solange die Texturen detailiert genug sind bringt es überhaupt nichts.
Doch, tut es.
Shaderflimmern von Metalltüren und Metallrahmen.
Das erste mal bei FC gesehen, aber auch FEAR ist ein gutes Beispiel.
Wenn man die Auflösung erhöht ist das Flimmern geringer, oder ich hatte gerade was an den Augen. :P

Zum Thema hochfrequentes Material ist dieses noch ganz brauchbar und recht einfach erklärt:
http://www.vrvis.at/vr/cgr4/sampling/index.html
Es verschiebt das Problem nur weiter nach hinten. Siehe letzten Post von mir.
Das kann sein, da ich es mir aus der Nähe angesehen habe und davon ausgehe, dass es sich um den grössten Mip-Level handelte.

edit:

Bei dem von mir genannten Beispiel mit den Metall ist es eindeutig, aber sonst ist es schwierig zu sagen, wodurch das Flimmern verursacht wird. Das wissen oft auch die Cracks nicht.

BTW ich glaube wir sind hier mittlerweile reichlich OT ;)
In der Nähe hast du damit sicher recht. Das liegt einfach daran dass die Frequenz pro Pixel abnimmt.

Aber Flimmern minimieren würde ich das nicht nennen. Wenn die DPI gleich bleiben auf einem Monitor dürften die Flächen bei denen es flimmert ungefähr gleich groß sein über ein Spiel verteilt.
Das reicht aber oft. :) In 2560x1600 schaut einiges besser aus als in 1680x1050 ...

MfG,
Raff

Hmm ok, also entnehme ich den ganzen kommentaren mal ein "jein".

Angenommen ich würde mich eine x2 besorgen, und möchte dann in 1920x1800 (auf nem 32" hdtv fernseher) zocken, dazu 8xaa und 16xaf, wo ich ja wohl leider ai on nehmen muss, wie sehr flimmert es dann?

Ich frage deshalb, weil ich ungern geld verschwende, die filterung sollte schon gut sein, wenn das bild schwimmt lohnt es ja nicht. Und ich meine jetzt wirklich das texturfiltern, nicht das shaderflimmer, was ja bei allen karten auftritt.

derguru
2008-07-26, 04:26:20
Hmm ok, also entnehme ich den ganzen kommentaren mal ein "jein".

Angenommen ich würde mich eine x2 besorgen, und möchte dann in 1920x1800 (auf nem 32" hdtv fernseher) zocken, dazu 8xaa und 16xaf, wo ich ja wohl leider ai on nehmen muss, wie sehr flimmert es dann?

Ich frage deshalb, weil ich ungern geld verschwende, die filterung sollte schon gut sein, wenn das bild schwimmt lohnt es ja nicht. Und ich meine jetzt wirklich das texturfiltern, nicht das shaderflimmer, was ja bei allen karten auftritt.

hast du kein kumpel der eine ati karte hat wo du dir ein bild machen kannst?denn so gravierend ist das wirklich nicht mit den flimmern.empfehlungen kannst du bei sowas vergessen das mußte dir schon selbst anschauen.

Fetza
2008-07-26, 04:50:37
hast du kein kumpel der eine ati karte hat wo du dir ein bild machen kannst?denn so gravierend ist das wirklich nicht mit den flimmern.empfehlungen kannst du bei sowas vergessen das mußte dir schon selbst anschauen.

Naja, mein bruder hat einen r580, aber soweit ich weiss, hat der ja noch einen af-filter, der ohne treiberoptimierung auskommt. Das hat doch erst mit der 3xxx generation einzug gehalten, oder?

Gast
2008-07-26, 09:45:36
hast du kein kumpel der eine ati karte hat wo du dir ein bild machen kannst?denn so gravierend ist das wirklich nicht mit den flimmern.empfehlungen kannst du bei sowas vergessen das mußte dir schon selbst anschauen.

das ist das beste was man machen kann.fakt ist ati flimmert mit AI on manchmal mehr als die konkurrenz. aber so schlimm wie es hier von gewissen personen propagiert wird ist es nicht.
ich habe beide hersteller (8800GT und 3870) und mir ist nie aufgefallen wo etwas flimmern soll bis ich direkt darauf hingewiesen wurde. im spielgeschehen nimmt man sowas gar nicht war!
klar ist es nicht so toll wenn der eine hersteller mehr zum flimmern neigt als der andere und das solllte auch bekämpft werden. aber noch sehr viel schlimmer finde ich das VRAM problem des anderen herstellers. das sollte in erster linie bekämpft werden.
aber wie ich das hier sehe sind Raff und Coda doch eher nv biased.
finds schade

Gast
2008-07-26, 10:14:20
das ist das beste was man machen kann.fakt ist ati flimmert mit AI on manchmal mehr als die konkurrenz.

Nicht nur manchmal sondern immer.


aber so schlimm wie es hier von gewissen personen propagiert wird ist es nicht.

Doch das ist es.

Gast
2008-07-26, 10:51:38
Nein das ist es nicht. Hängt alles vom Betrachter ab. Mir fällt Flimmern nur auf wenn ich direkt darauf achte und ich spiele auf einer 7800 GTX im ''Quality''-modus. Also stellt euch gefälligst nicht so an. Wenn ihr unbedingt Bildqualität als Onaniervorlage braucht dann kauft euch eine nVidia und gebt ruhe.

Mr. Lolman
2008-07-26, 11:09:34
Ich sag mal so: Wenn man auf Screenshots sichtbare Schärfeunterschiede zw. ATi und NV erkennt, kann man auch davon ausgehen, dass die Grafik in Bewegung flimmrig ist. Sind die Screenshots gleich, ist die BQ höchstwahrscheinlich auch in Bewegung ähnlich.

CB zB hat in ihren Reviews von jedem getesteten Spiel Screenshots von ATi und NV.

Raff
2008-07-26, 13:00:31
http://debatte.welt.de/kommentare/63831/klimakatastrophe+alles+nur+heisse+luft ;)

X-D

Ich sag mal so: Wenn man auf Screenshots sichtbare Schärfeunterschiede zw. ATi und NV erkennt, kann man auch davon ausgehen, dass die Grafik in Bewegung flimmrig ist. Sind die Screenshots gleich, ist die BQ höchstwahrscheinlich auch in Bewegung ähnlich.

Ganz genau so ist es. Ausnahmen bestätigen die Regel.

MfG,
Raff

Gast
2008-07-26, 13:48:16
CB zB hat in ihren Reviews von jedem getesteten Spiel Screenshots von ATi und NV.
:uclap: Super - geh hier mal auf das Bild und warte den Alt-Text ab (und dann checke mal, welcher Test das ist.)

G92 und RV670...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/12/#abschnitt_call_of_duty_4

Mr. Lolman
2008-07-26, 15:09:06
:uclap: Super - geh hier mal auf das Bild und warte den Alt-Text ab (und dann checke mal, welcher Test das ist.)

G92 und RV670...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/12/#abschnitt_call_of_duty_4

Ja und? Hier siehts eben so aus, als würde der G92 flimmriger sein. Imo kein Ding der Unmöglichkeit (v.a. bei Treiberdefaulteinstellungen).

Gast
2008-07-26, 15:28:01
Ja und? Hier siehts eben so aus, als würde der G92 flimmriger sein. Imo kein Ding der Unmöglichkeit (v.a. bei Treiberdefaulteinstellungen).
Alte shots heißen auch alte Treiber. und sagen zu neuen Karten nicht unbedingt viel aus - siehe G70 vs. NV40

Raff
2008-07-26, 15:30:55
Das gleiche Level wollte ich schon mal heranziehen, um zu zeigen, dass die Radeon mehr flimmert. ;D

MfG,
Raff

Gast
2008-07-26, 17:18:41
Das gleiche Level wollte ich schon mal heranziehen, um zu zeigen, dass die Radeon mehr flimmert. ;D

MfG,
Raff
Ist doch eh sinnlos. Manche Leute sehen's einfach wirklich nicht, denen kann's egal sein. Manche Leute sehen's, aber es ist ihnen wie die Mikroruckler nicht wichtig. Manche Leute sind einfach Fanboys, denen kannst du sowieso nichts beweisen, weil sie immer wieder die Sache mit dem Niveau beginnen und dich dann da unten mit ERfahrung schlagen.

Fetza
2008-07-26, 17:45:06
Ich sag mal so: Wenn man auf Screenshots sichtbare Schärfeunterschiede zw. ATi und NV erkennt, kann man auch davon ausgehen, dass die Grafik in Bewegung flimmrig ist. Sind die Screenshots gleich, ist die BQ höchstwahrscheinlich auch in Bewegung ähnlich.

CB zB hat in ihren Reviews von jedem getesteten Spiel Screenshots von ATi und NV.


Könnte man eigentlich bei den radeon sonst einfach den lod-regler einfach etwas mehr ins plus ziehen? Dann wären die texturen doch weniger scharf, und es würde nichtmehr so flimmer, oder bin ich da auf dem holzweg?

Wie siehts jetzt eigentlich aus zwischen r580 und rv670, gibts da jetzt diese af unterschiede (treiberbedingt), oder nicht?

Aquaschaf
2008-07-26, 18:00:30
Könnte man eigentlich bei den radeon sonst einfach den lod-regler einfach etwas mehr ins plus ziehen? Dann wären die texturen doch weniger scharf, und es würde nichtmehr so flimmer, oder bin ich da auf dem holzweg?

Dann hast du einfach eine schlechtere Texturauflösung.

Fetza
2008-07-26, 18:40:45
Dann hast du einfach eine schlechtere Texturauflösung.

Hmm ok, das ist unakzeptabel :-)

Gast
2008-07-26, 20:54:53
Warum ist eigentlich noch kein Hinweis zum Flimmern von Ati-Karten bei Geizhals aufgetaucht? Beim G70/71 gab es da auch eine Link, der nichts bei einer Preissuchmaschine zu suchen hat. Aber 3D Center ist und bleibt rot, da kann kommen was will. In meinem Hauptrechner sitzt übrigens eine HD 4850, wenn jetzt wieder jemand meint ich wäre Nv-Fanboy.

Raff
2008-07-26, 20:57:33
Tja, das müsste den Geizhälsen mal einer sagen. ;) Es gibt aber einen Unterschied: G7x-Treiberdefault war/ist eine Katastrophe, A.I. liefert in den meisten Fällen ein brauchbares Bild.

MfG,
Raff

ShadowXX
2008-07-26, 22:05:40
Wie siehts jetzt eigentlich aus zwischen r580 und rv670, gibts da jetzt diese af unterschiede (treiberbedingt), oder nicht?
Ja und das nicht nur Treiberbedingt.

Auf dem r580 hast du bei HQAF + AI Off fast die gleiche Quali wie beim G80 @ HQ (minimale unterschiede).
Aber selbst AI Standard + HQAF flimmert auf r580 weniger.

Lurtz
2008-07-26, 23:01:11
Ich spiele gerade CoD 4 mit einer HD4850, die Bodentexturen flimmern ja echt schlimm (A.I. Standard). Das letzte Mal ist mir das in der Stärke beim G70 aufgefallen.

aths
2008-07-27, 00:20:33
Warum ist eigentlich noch kein Hinweis zum Flimmern von Ati-Karten bei Geizhals aufgetaucht? Beim G70/71 gab es da auch eine Link, der nichts bei einer Preissuchmaschine zu suchen hat. Aber 3D Center ist und bleibt rot, da kann kommen was will. Aus der ATI-Ecke heißt es immer wieder, 3DC sei grün. Solange beide Ecken schreien, macht das Center alles richtig.

Gast
2008-07-27, 00:44:47
Ich spiele gerade CoD 4 mit einer HD4850, die Bodentexturen flimmern ja echt schlimm (A.I. Standard). Das letzte Mal ist mir das in der Stärke beim G70 aufgefallen.

welche Karte hattest du vor der 4850?

Lurtz
2008-07-27, 01:29:21
welche Karte hattest du vor der 4850?
9800Pro -> 7800GT -> X1950XT -> HD3870 -> HD4850

Ist mir klar dass die von der Filterqualität alle nicht besonders gut waren, aber bei CoD ists mir richtig heftig aufgefallen. Ganz so stark wie auf den Konsolen flimmert es nicht, aber es ist definitiv auffällig.

Raff
2008-07-27, 01:44:00
Nun, die HD 3850 filtert exakt so wie die 4870.

MfG,
Raff

maddawn
2008-07-27, 06:48:18
Die Filterkritik ist absolut berechtigt. Das ATI kein SSAA anbietet ist auch sehr schade. Andererseits ist der "V-Ram-Bug" und die DX 10.1 Verweigerung bei NVidia zumindest für mich auch ein extremes Ärgernis.

Cpl. Dwayne Hicks
2008-07-27, 07:00:17
Huh, welche? Das interessiert mich ernsthaft. Denn was Crysis angeht, auf das du zweifellos anspielst, handelte es sich um einen - mal wieder ungeschickt platzierten - Treiberbug.

MfG,
Raff

Sorr wenn ich mich jetzt einfach so einmische. :biggrin: Aber hier in dem anandtech artikel ist mir aufgefallen dass die HD4870 irgendwie den besseren Kontrast und Bildschärfe hat auch die Farben sind lebendiger.... und nvidias 16x Q CSSA sieht IMO schlechter aus als ATIs 8x MSAA.

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=11

Fetza
2008-07-27, 08:07:16
Ja und das nicht nur Treiberbedingt.

Auf dem r580 hast du bei HQAF + AI Off fast die gleiche Quali wie beim G80 @ HQ (minimale unterschiede).
Aber selbst AI Standard + HQAF flimmert auf r580 weniger.

Das ärgert mich, weil mir nämlich die filterqualität der hd2900 meines bruders sehr gut gefällt. Warum macht ati nur so einen scheiss? Das haben die doch überhaupt nicht nötig. ;(

grobi
2008-07-27, 09:11:11
Wenn dir die Filterqualität bei der 2900 gefällt wird sie bei der 4850/70 nicht weniger gefallen.

mfg grobi

The_Invisible
2008-07-27, 09:19:00
Aus der ATI-Ecke heißt es immer wieder, 3DC sei grün. Solange beide Ecken schreien, macht das Center alles richtig.

wieso? gibts seitens 3dcenter schon einen artikel der die AI problematik behandelt?

mfg

Gast
2008-07-27, 09:22:49
Das ärgert mich, weil mir nämlich die filterqualität der hd2900 meines bruders sehr gut gefällt. Warum macht ati nur so einen scheiss? Das haben die doch überhaupt nicht nötig. ;(


Lol, da schau an. Da sieht man mal was für ein Bild hier aufgebaut wird, die Leute glauben schon der Monitor würde die ganze Zeit flackern.

...."Hm, mit der HD2900 fand ich alles top aber jetzt...."

Gast
2008-07-27, 10:06:06
Tja, das müsste den Geizhälsen mal einer sagen. ;) Es gibt aber einen Unterschied: G7x-Treiberdefault war/ist eine Katastrophe, A.I. liefert in den meisten Fällen ein brauchbares Bild.

MfG,
Raff

Es muss ja auf G7x keiner Treiberdefault benutzen, man hat bei Nvidia ja die Wahl und HQ auf G7x ist deutlich besser als. A.I.

Gast
2008-07-27, 11:10:12
Das ärgert mich, weil mir nämlich die filterqualität der hd2900 meines bruders sehr gut gefällt. Warum macht ati nur so einen scheiss? Das haben die doch überhaupt nicht nötig. ;(

die filterquali hat sich von der 2900XT bis jetzt doch nicht verändert!?
genau das habe ich vermutet bzw befürchtet, jetzt wird bereits für gut befundene filterqualität für schlecht erklärt.

Gast
2008-07-27, 11:35:13
Alte shots heißen auch alte Treiber. und sagen zu neuen Karten nicht unbedingt viel aus - siehe G70 vs. NV40

Was willst du damit sagen? Das CB bei jedem neuen Treiber die Shots in ihren Reviews allesamt aktualisieren sollen? Wer soll das denn bitte bewerkstelligen?

Wobei... interessant wäre die Idee schon für eine kleine Tabelle, die sozusagen den Stand der Dinge in Sachen AF und Flimmern zeigt. Man nehme 3 anfällige Spiele, sowie die beiden aktuellsten/beliebtesten Grafikships von Ati und Nvidia und mache eine kleine Screenshottabelle, die mit jedem neuen Treiber aktualisiert wird - dürfte vom Aufwand ja machbar sein.

Gast
2008-07-27, 11:54:27
die filterquali hat sich von der 2900XT bis jetzt doch nicht verändert!?
genau das habe ich vermutet bzw befürchtet, jetzt wird bereits für gut befundene filterqualität für schlecht erklärt.
huch?

vinacis_vivids
2008-07-27, 12:39:50
Es muss ja auf G7x keiner Treiberdefault benutzen, man hat bei Nvidia ja die Wahl und HQ auf G7x ist deutlich besser als. A.I.

mmmhhhhh, HQ auf der G7x ist eine Katastrophe und niemals besser als A.I. Std.

Raff
2008-07-27, 13:02:50
mmmhhhhh, HQ auf der G7x ist eine Katastrophe und niemals besser als A.I. Std.

Nein. Der Treiberstandard (Quality + 2 "Optimierungen") ist katastrophal, HQ ohne Opts ist ok. Ich seh' schon, da müssen mal Erinnerungen aufgefrischt werden. Ich rieche einen Artikel ... ;)

MfG,
Raff

Gast
2008-07-27, 13:24:00
Ich seh' schon, da müssen mal Erinnerungen aufgefrischt werden. Ich rieche einen Artikel ... ;)


Shootout!

R4xx, R5xx, R6xx, R7xx (letzte zwei offensichtlich identisch)
GeForce der 5er, 6er, 7er, 8er, 9er und GTX 2XX Reihe (letzte drei offenischtlich identisch)

A.I. On und Off, NV Quality und HQ, das wäre ein Artikel von Format. Sperrt doch mal zwei Redakteure mit guten Augen für 3 Tage in einen Keller, reicht ihnen Pizza und Kaffe durch einen Türspalt und dann geht Online. Animierte PNGs scheinen ja eine gute Illustationsmöglichkeit, Videos sind 2008 leider immer noch zu trafficlastig. :)

Mr. Lolman
2008-07-27, 13:28:34
G7x0 HQ ist mit R580 AI vergleichbar. Das ist zumindest das Ergebnis div. HW-Seiten die die Filterqualität untersucht haben. Nun ist mit G80 HQ etwas besser geworden und ab dem R600 AI etwas schlechter. Aktuell ist Q mit Ai-Default vergleichbar.

Shootout!

R4xx, R5xx, R6xx, R7xx (letzte zwei offensichtlich identisch)
GeForce der 5er, 6er, 7er, 8er, 9er und GTX 2XX Reihe (letzte drei offenischtlich identisch)

A.I. On und Off, NV Quality und HQ, das wäre ein Artikel von Format. Sperrt doch mal zwei Redakteure mit guten Augen für 3 Tage in einen Keller, reicht ihnen Pizza und Kaffe durch einen Türspalt und dann geht Online. Animierte PNGs scheinen ja eine gute Illustationsmöglichkeit, Videos sind 2008 leider immer noch zu trafficlastig. :)

3 Tage? 3 Wochen schon eher. Nur spielt da mein Arbeitgeber nicht mit. Wenn man einen guten AI Artikel in 3 Tagen schreiben könnt, gäbs ihn längst.

Raff
2008-07-27, 13:38:49
Mal sehen, was sich einrichten lässt. Das gibt sicher wieder 'nen 1a-Flamewar, sollte die ultrapöse GF7 @ HQ mal besser aussehen als A.I. Standard ... :ulol: Und da gibt's fürwahr Fälle.

MfG,
Raff

Gast
2008-07-27, 13:43:00
Mal sehen, was sich einrichten lässt. Das gibt sicher wieder 'nen 1a-Famewar, sollte die ultrapöse GF7 @ HQ mal besser aussehen als A.I. Standard ... :ulol:

Der katastrophale Ruf der GF7 dürfte aber einen nicht zu unterschätzenden Anteil an der Entwicklung hin zum sehr guten AF (auch hier ist ja noch Luft, aber im Moment halt Referenz) der Karten von G80 aufwärts gehabt haben, auch wenn vielleicht nicht ausreichend differenziert wurde. :)

Mr. Lolman
2008-07-27, 13:48:26
Mal sehen, was sich einrichten lässt.

Du meinst nen Test zw R580 AI und G70 HQ?


Das gibt sicher wieder 'nen 1a-Flamewar, sollte die ultrapöse GF7 @ HQ mal besser aussehen als A.I. Standard ... :ulol: Und da gibt's fürwahr Fälle.

MfG,
Raff

Sicher gibts die Situationen. Andersrum gibts auch Situationen wie RV770 AI besser aussieht als G80 HQ.