PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AF-Vergleich inkl. Videos: Radeon HD 4000/5000 gegen Geforce GTX 200/400


Seiten : [1] 2 3 4 5 6 7 8

Raff
2010-04-18, 20:46:07
Tag!

Immer wieder kommt es hier zu Verbal-Duellen, welche die AF-Qualität aktueller Grafikkarten zum Thema haben. Lasst uns Blicke auf die Ergebnisse werfen! Wer besonders fiese Fälle zu sehen meint, der postet Screenshots (besser: Videos) und idealerweise noch das passende Savegame zu seinem Fund. So ist es möglich, dass andere Nutzer mit anderen Grafikkarten nachstellen können, was ihr ankreidet. Interessant ist natürlich stets Radeon vs. GeForce.

Die Angabe der genauen Einstellungen im Treiber ist wichtig!

Ich beschränke mich vorerst auf die Entgleisungen meiner Radeon HD 5870 im Alltag, da ich diese als Hauptkarte die ganze Zeit zum Spielen nutze. Ohne SSAA ist das AF leider oftmals grenzwertig ... bis katastrophal. Diese Fälle zeige ich euch.

Crysis Warhead

HD 5870, D3D10, 1.680x1.050, 4x MSAA/16:1 AF, Catalyst 10.3b:
http://www.abload.de/image.php?img=crysis2010-04-1319-46-uu2b.png

Wer nicht sieht, worauf es ankommt: Gemeint ist der abrupte Schärfe-Übergang im Kies, links, knapp unterhalb der Höhe des Fadenkreuzes. Kurz: In diesem Spiel tritt auf einer Radeon nicht nur starkes Flimmern auf, sondern bei bestimmten Texturen auch Banding. Dieses ist im Video (neben dem Flimmern) zu sehen. Eine GeForce flimmert ebenfalls, das Banding ist jedoch nur im Ansatz zu erahnen.

AF-Save (http://www.multiupload.com/QCQO36KUTX)

Video 1: http://www.load.to/MuKhr537NT/Crysis_4x_MSAA,_16x_AF,_Cypress,_A.I._Standard.avi
Video 2: http://www.load.to/jqV1S8aR3j/Crysis_4x_MSAA,_16x_AF,_Cypress,_A.I._Standard-2.avi

GTA 4 – Episodes from Liberty City

Erst am Freitag bekommen, freute ich mich über einige amüsante Spielstunden – ohne AA, ohne die Option auf SGSSAA, weil der Renderer darauf keine Lust hat, ohne ENB-Mod. Schon nach wenigen Spielminuten begegnete mir jedoch das Grauen: nicht nur Flimmern, sondern abermals MIP-Map-Banding, induziert durch bilineares AF. Soviel zum Irrglauben, eine HD 5000 filtere stets trilinear anisotrop. :ulol:

A.I. Standard, 16:1 AF:
http://www.abload.de/thumb/a.i.standardtreiber-afy296.png (http://www.abload.de/image.php?img=a.i.standardtreiber-afy296.png)

A.I. Standard, Trilinear ingame:
http://www.abload.de/thumb/trilinearl2g1.png (http://www.abload.de/image.php?img=trilinearl2g1.png)

Video (http://www.load.to/gduXauhI17/GTA_4_-_EFLC_Radeon_HD_5870,_16x_AF,_A.I._Standard.avi) (~132 MiB)

Das Banding tritt mit Treiber- oder Applikation-AF in gleicher Ausprägung auf. A.I. Off ist ebenfalls gleich hässlich. Erweitert schiebt das MIP-Band einige Zentimeter weiter nach vorne (negativer Texture LOD). Brrr. Übrigens scheint 2:1 AF trilinear zu sein, darüber wird's bi:

http://www.abload.de/thumb/2xafingame10wp.png (http://www.abload.de/image.php?img=2xafingame10wp.png)

Ein Save gibt's nicht, da das Spiel kein Quicksaving ermöglicht. Prinzipiell sollte jede Gittertextur in GTA 4 und den Episoden taugen, um den Filter zu testen. Ich habe auf die Schnelle nicht getestet, ob sich das normale GTA 4 genauso verhält. Ich weiß nur, dass Letzteres auf meiner Geforce GTX 280 einst trilinear gefiltert wurde.

Gothic 3 (CP 1.74, volle Kanne tweaked (http://www.pcgameshardware.de/aid,759119/Gothic-3-V174-So-tweaken-Sie-das-Spiel-auf-Gothic-4-Niveau/Action-Spiel/Test/))

HD 5870: 16x AF, A.I. Standard, kein AA (http://www.1filesharing.com/mirror/0BX4YGPC/Gothic%203%20tweaked%20HD%205870%2016x%20AF.avi)
HD 5870 #2: 16x AF, A.I. Standard, 4x SGSSAA (http://www.1filesharing.com/mirror/0BD5ZGOH/Gothic%203%20tweaked%20HD%205870%2016x%20AF%204x%20SGSSAA.avi)
GTX 280: 4x MSAA/16:1 AF, Quality (http://www.multiupload.com/1G19H4HCYC)

Savegame: Gothic 3 AF-Bandenkrieg.rar (http://www.multiupload.com/0THXVDMFUR)

Es ist Nacht, daher ist das Video dunkel. Die Radeon banded höllisch, was vor allem bei nächtlicher Beleuchtung auftritt. Das SGSSAA-Video zeigt, dass Supersampling zwar gegen jede Form des Flimmerns hilft, der verdammte Bandenkrieg aber trotzdem tobt. Die GeForce filtert zwar nicht flimmer- (Shaderflimmern), aber bandenfrei.

Guild Wars NEU!

Gorkons Videos vergleichen eine Mobility HD 4650 (RV7xx) mit einer GTX 460 (GF10x):

Vergleich 1 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8268053&postcount=1049)
Vergleich 2 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8266299&postcount=1027)

Feiner Flimmer-Content meets Spar-AF – der Klassiker, bei dem jedes eingesparte Textursample auffällt. Beachtet, dass ein RV7xx (HD 4000) tendenziell mehr flimmert als ein Evergreen (HD 5000)!
_____

Nun seid ihr dran. =) Gute Video-Hoster sind beispielsweise:

http://multiupload.com/
www.1filesharing.com
www.load.to
www.uploaded.to
www.rapidshare.com (zur Not)

MfG,
Raff

Spasstiger
2010-04-18, 21:05:10
Da hatte ich mal ein Video gepostet, was eine Art Worst-Case bei ATI zeigt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926042&postcount=27.
Coda meinte schon, das sei Pointsampling, obwohl es 16:1 "HQ"-AF ist. :freak:
Da der Download momentan nicht verfügbar ist, werde ich das Video neu hochladen. Entstand übrigens auf einer Radeon HD 2900 Pro.

DrFreaK666
2010-04-18, 21:07:51
Raff, du arbeitest ja bei einem bekannten Hardware-Magazin+online-Mag und habt als Print-Medie eine gewisse Macht.
Konfrontiert AMD doch damit und lasst nicht locker bis es im Treiber gebessert wurde :smile:

Fetter Fettsack
2010-04-18, 21:09:15
Kleine Frage nebenbei: Wenn Texturen übelst flimmern, liegt das dann grundsätzlich am AF oder kann das auch etwaige Ursachen in der Spieleengine selbst haben?

EDIT:
Konfrontiert AMD doch damit und lasst nicht locker bis es im Treiber gebessert wurde

Da wird man aber einerseits diplomatisch sein zu müssen und andererseits konsequent Druck ausüben. Dadurch kann die Gefahr enstehen, dass man als lästig empfunden wird. Und Magazine leben ja zum Teil auch von dem zeitgerechten Erhalt von Samples neuer Karten. Insofern stelle ich mir das nicht so einfach vor.

Aquaschaf
2010-04-18, 21:15:53
Kleine Frage nebenbei: Wenn Texturen übelst flimmern, liegt das dann grundsätzlich am AF oder kann das auch etwaige Ursachen in der Spieleengine selbst haben?

Wenn aus irgendeinem Grund kein Mip-Mapping verwendet wird, dann ist es die Schuld vom Spiel (Venetica z.B.). Texturen und Shader können auch "böse" sein, d.h. so hochfrequent dass auch saubere Texturfilterung flimmert.

Coda
2010-04-18, 21:16:48
Coda meinte schon, das sei Pointsampling, obwohl es 16:1 "HQ"-AF ist. :freak:
Ich kann mich zwar nicht genau daran erinner, aber ich gehe davon aus, dass ich gesagt habe die Textur hätte keine Mips.

Und ich bin immer noch ziemlich sicher, dass damit irgendwas nicht stimmt. So flimmern kann selbst der beschisseneste Filter nicht.

pXe
2010-04-18, 21:22:16
Eins bzw. zwei meiner Videos hab ich inzwischen auch mal hochgeladen:

Battlefield Bad Company 2
4AA, 16AF, alles auf max, 1280x800

GTX260 HQ
http://www.megaupload.com/?d=TIOJIBXT

ATI 5850, AI Standard
http://www.megaupload.com/?d=GI7GYK58


HL2 und Crysis kommt noch.

Edit: Downloads gehen wohl im Moment nicht.


pXe

Gast
2010-04-18, 21:23:01
Raff, du arbeitest ja bei einem bekannten Hardware-Magazin+online-Mag und habt als Print-Medie eine gewisse Macht.
Konfrontiert AMD doch damit und lasst nicht locker bis es im Treiber gebessert wurde :smile:
Vor allem diese BI/BRI-Sauerei geht überhaupt gar nicht. Das lässt sich auf jeden Fall beheben, wenn der Laden mal zur Vernunft kommt. Ich frage mich, warum nV nicht mehr auf diese offene Flanke eindrischt bei ihren Powerpoint-Präsentationen? Was AMD da im Schnitt abliefert, ist unter aller Sau und übelste Performancecheaterei. Für Penisbalken wird Hässlichkeit und Grauen pur in Kauf genommen indem ein Filtering aus der Steinzeit angeboten wird -warum nicht, dem durchschnittlichen HIGH-AMD-User gefällt anscheindend sowas oder hat das Sehvermögen eines Maulwurfs.

Raff
2010-04-18, 21:27:19
Raff, du arbeitest ja bei einem bekannten Hardware-Magazin+online-Mag und habt als Print-Medie eine gewisse Macht.
Konfrontiert AMD doch damit und lasst nicht locker bis es im Treiber gebessert wurde :smile:

Keine Sorge. ;)

Eins bzw. zwei meiner Videos hab ich inzwischen auch mal hochgeladen:

Battlefield Bad Company 2
4AA, 16AF, alles auf max, 1280x800

GTX260 HQ
http://www.megaupload.com/?d=TIOJIBXT

ATI 5850, AI Standard
http://www.megaupload.com/?d=GI7GYK58


HL2 und Crysis kommt noch.


pXe

Der Video-Download funktioniert leider nicht.

Wenn aus irgendeinem Grund kein Mip-Mapping verwendet wird, dann ist es die Schuld vom Spiel (Venetica z.B.). Texturen und Shader können auch "böse" sein, d.h. so hochfrequent dass auch saubere Texturfilterung flimmert.

Oft ist es auch so, dass ein Spiel anders anisotrop filtern lässt als der Treiber (via Forcierung). Es kommt ab und an vor, dass ein Spiel (für bestimmten Texturlagen) Bi-AF-Verbrechen anfordert, daher sollte man immer auch Treiber-AF verschiedener Qualitätsstufen anfordern.

MfG,
Raff

DrFreaK666
2010-04-18, 21:31:37
Vor allem diese BI/BRI-Sauerei geht überhaupt gar nicht. Das lässt sich auf jeden Fall beheben, wenn der Laden mal zur Vernunft kommt. Ich frage mich, warum nV nicht mehr auf diese offene Flanke eindrischt bei ihren Powerpoint-Präsentationen? Was AMD da im Schnitt abliefert, ist unter aller Sau und übelste Performancecheaterei. Für Penisbalken wird Hässlichkeit und Grauen pur in Kauf genommen indem ein Filtering aus der Steinzeit angeboten wird -warum nicht, dem durchschnittlichen HIGH-AMD-User gefällt anscheindend sowas oder hat das Sehvermögen eines Maulwurfs.

Tja, in der GS steht halt:" + bestes AF, - AF flimmert teils minimal".
Viele glauben das halt

pXe
2010-04-18, 21:35:51
Keine Sorge. ;)



Der Video-Download funktioniert leider nicht.
...

Toll, als die Uploads zu Ende waren hab ich beide gecheckt, da gings noch. Ka was megaupload da macht :mad:.


pXe

Raff
2010-04-18, 21:36:46
Check auch mal www.load.to. Das wurde mir hier wärmstens empfohlen (gell, guru? ;)).

MfG,
Raff

DrFreaK666
2010-04-18, 21:37:55
Toll, als die Uploads zu Ende waren hab ich beide gecheckt, da gings noch. Ka was megaupload da macht :mad:.


pXe

War bei mir auch mal so.
Nach ner Weile gings wieder

edit: diese Seite finde ich auch nicht schlecht: http://uploaded.to/

Spasstiger
2010-04-18, 21:38:14
Ich kann mich zwar nicht genau daran erinner, aber ich gehe davon aus, dass ich gesagt habe die Textur hätte keine Mips.

Stimmt, das hast du gemeint. Die Textur hat aber definitiv Mipmaps, denn wenn ich Mipmaps ausschalte, sieht es noch tausendmal gruseliger aus.
Evtl. wurden die Mipmaps nicht sauber generiert.

Raff
2010-04-18, 21:41:57
War bei mir auch mal so.
Nach ner Weile gings wieder

edit: diese Seite finde ich auch nicht schlecht: http://uploaded.to/

Habe mal drei Hoster ins Startposting integriert. =)

Mag nicht mal jemand meine Stellen mit einer GeForce aufgreifen? Ich habe keine Lust, die Grafikkarte zu wechseln.

MfG,
Raff

derguru
2010-04-18, 21:49:24
ladet das zeug mit http://www.1filesharing.com/ der verteilt das dann an fast an alle hoster weiter.

BeeRockxs
2010-04-18, 22:34:54
Ich hätte mal ne Frage,
ist das Flimmern, das man in diesem (http://www.load.to/CTKgRFsgpr/iw4mp_2010-04-18_22-25-35-78.zip) Video sieht (an den Drehknöpfen links an der Waffe z.B.) ein Unterfilterungsartefakt, oder kommt das von der Engine?
Das ist 16:1 AF, AI standard auf einer 4870.

Gast
2010-04-18, 23:06:17
Tja, in der GS steht halt:" + bestes AF, - AF flimmert teils minimal".
Viele glauben das halt
Wo liegt das Problem, an AMD oder den unfähigen/gekauften/unobjektiven Magazinen oder Preissuchmaschinen? Die GS und geizhals sind ja das perfekte Beispiel.

Gast
2010-04-18, 23:27:32
Ich hätte mal ne Frage,
ist das Flimmern, das man in diesem (http://www.load.to/CTKgRFsgpr/iw4mp_2010-04-18_22-25-35-78.zip) Video sieht (an den Drehknöpfen links an der Waffe z.B.) ein Unterfilterungsartefakt, oder kommt das von der Engine?
Das ist 16:1 AF, AI standard auf einer 4870.
Das ist Shaderaliasing.
Jungs, könnt ihr die Videos nächstes Mal mit dem Codec H.261 auf normale Größen bringen? Kaum Qualitätsverlust und man sieht das Flimmern weiterhin.

BeeRockxs
2010-04-18, 23:29:12
Das ist Shaderaliasing.
Jungs, könnt ihr die Videos nächstes Mal mit dem Codec H.261 auf normale Größen bringen? Kaum Qualitätsverlust und man sieht das Flimmern weiterhin.
Danke für die Information.
Ich hab einfach mit Fraps gecaptured, habe bisher noch nie irgendwelche Umkodierungen gemacht. :)

nVoodoo
2010-04-19, 00:06:43
Habe mal drei Hoster ins Startposting integriert. =)

Mag nicht mal jemand meine Stellen mit einer GeForce aufgreifen? Ich habe keine Lust, die Grafikkarte zu wechseln.

MfG,
Raff

Ich hab zwar keine GeForce zur Hand habe das Video so gut es geht mit meiner HD4850 nachgestellt ;)

AF-Save DX10 1680x1050 4xMSAA;16xAF Catalyst 8.741

http://www.load.to/HeNbK8L3yz/AF-Save_4xMSAA_16xAF_RV770_Standard-AI.avi

_DrillSarge]I[
2010-04-19, 06:20:24
Hd4850//Cat. 8.74

1xAA (AA geht im spiel nicht)//16xAF (übers CCC)//AI low.//Vista

Wolfenstein - banding + bugwelle(n)
(kein save, einfach in der konsole "map game/tavern/tavern.mpk" eingeben)

besonders auf markierte stellen schauen:
http://www.abload.de/thumb/22mel.jpg (http://www.abload.de/image.php?img=22mel.jpg)

http://rapidshare.com/files/377512248/Wolfenstein1_BQ.mp4

Gast
2010-04-20, 11:45:21
Kommt da eigentlich noch was aus der NV-Fraktion?
Bis jetzt sehe ich hier keinen 1:1 Vergleich.

_DrillSarge]I[
2010-04-20, 16:17:24
Kommt da eigentlich noch was aus der NV-Fraktion?
sieht bestimmt genauso (schlecht) aus.*

*ja, gemeine flame-aussage. ich behaupte das jetzt aber so lange bis der gegenbeweis kommt, damit das hier mal ins rollen kommt.

Coda
2010-04-20, 16:20:35
Oft ist es auch so, dass ein Spiel anders anisotrop filtern lässt als der Treiber (via Forcierung). Es kommt ab und an vor, dass ein Spiel (für bestimmten Texturlagen) Bi-AF-Verbrechen anfordert, daher sollte man immer auch Treiber-AF verschiedener Qualitätsstufen anfordern.
Ab D3D10/11 gibt es kein Bi-AF mehr. Die API hat es entsorgt.

Falls in einem D3D10/11-Spiel sowas sichtbar ist, dann ist es eindeutig Cheaterei.

Gast
2010-04-20, 16:38:18
Kommt da eigentlich noch was aus der NV-Fraktion?
Bis jetzt sehe ich hier keinen 1:1 Vergleich.

ist doch genau das gleiche wie beim microruckler-vergleich von spasstieger. da gibt es auch keine werte von sli. und die behauptung sli skaliert besser als crossfire wurde ja nun von einer anderen seite wiederlegt.

Iruwen
2010-04-20, 16:46:42
Den Vergleich müsste man allerdings nochmal mit GTX 285 SLI und ausgereiften Treibern machen. Ansonsten skaliert 2xSLI immer noch besser.

Raff
2010-04-20, 16:59:06
I[;7981939']sieht bestimmt genauso (schlecht) aus.*

*ja, gemeine flame-aussage. ich behaupte das jetzt aber so lange bis der gegenbeweis kommt, damit das hier mal ins rollen kommt.

Tut es nicht, das sehe ich tagtäglich auf der Arbeit. Ich habe leider gerade genug Stress und daher keine Muße, zuhause eine GeForce einzubauen, daher muss da mald jemand in die Bresche springen.

Ab D3D10/11 gibt es kein Bi-AF mehr. Die API hat es entsorgt.

Falls in einem D3D10/11-Spiel sowas sichtbar ist, dann ist es eindeutig Cheaterei.

Bedeutet, dass App-AF unter D3D10+ niemals bilinear sein kann, nur das via Treiber forcierte?

MfG,
Raff

Gast
2010-04-20, 17:09:14
Kommt da eigentlich noch was aus der NV-Fraktion?

Nö!

Gast
2010-04-20, 17:23:14
I[;7981939']sieht bestimmt genauso (schlecht) aus.


Oder einfach deshalb, da es dort sowas erst garnicht bzw.kaum gibt?

Gast
2010-04-20, 17:42:03
Ab D3D10/11 gibt es kein Bi-AF mehr. Die API hat es entsorgt.

Wie, kein bilinearer Filter mehr? Das wäre aber blöd, manchmal braucht man einfach nicht mehr.

Oder gibt es nur kein bilineares AF mehr, das wäre ja sogar sinnvoll, da jede Textur die von AF profitiert auch vom trilinearen Filter profitiert.

Coda
2010-04-20, 17:46:19
Bedeutet, dass App-AF unter D3D10+ niemals bilinear sein kann, nur das via Treiber forcierte?
Ja, bedeutet es.

Wie, kein bilinearer Filter mehr? Das wäre aber blöd, manchmal braucht man einfach nicht mehr.
Doch, aber nicht anisotrop.

Gast
2010-04-20, 18:21:58
Falls in einem D3D10/11-Spiel sowas sichtbar ist, dann ist es eindeutig Cheaterei.
Und es taucht ja in D3D10 auf, nämlich im beliebten Benchmark Crysis Warhead . AMD weiß also ganz genau was sie machen, das ist kein Unfall im Treiber oder sonstwo. Bewusste Verarsche, seit Jahren.
Einzig alleine wundert mich, dass nV dies nicht ankreidet und den Finger in die Wunde drückt. Ihr eigenes AF ist schon seit G80 sauber und die Konkurrenz schlabbert/cheatet schon seit Jahren rum. Wenn es umgekehrt wäre, würde die Presse und die Fanboys schon lange rumkreischen. Aber AMD darf sich anscheindend alles erlauben. Mit Unfähigen/Verlierern hat man bekanntlich oft Verständnis und Mitleid. Zudem sieht man, wie schlampig weltweit getestet wird. Es wird ausschließlich der Penisbalken in Excel erfasst und beim Benchen wohl aufs Klo gegangen. Amd könnte auch 'n schwarzen Bildschirm hinzaubern und fabelhaft fps-Werte produzieren, die meisten Tester dürften davon nichts mitbekommen. Da lob ich mir Redakteure, die noch Sehschärfe größer eines Maulwurfs als die restliche Zunft besitzen und diese BQ-Misere ankreiden und auf Besserung hoffen. Von selbst kommen die in Kanada nämlich nicht zur Besinnung.

DrFreaK666
2010-04-20, 18:29:56
Und es taucht ja in D3D10 auf, nämlich im beliebten Benchmark Crysis Warhead . AMD weiß also ganz genau was sie machen, das ist kein Unfall im Treiber oder sonstwo. Bewusste Verarsche, seit Jahren.
Einzig alleine wundert mich, dass nV dies nicht ankreidet und den Finger in die Wunde drückt. Ihr eigenes AF ist schon seit G80 sauber und die Konkurrenz schlabbert/cheatet schon seit Jahren rum. Wenn es umgekehrt wäre, würde die Presse und die Fanboys schon lange rumkreischen. Aber AMD darf sich anscheindend alles erlauben. Mit Unfähigen/Verlierern hat man bekanntlich oft Verständnis und Mitleid. Zudem sieht man, wie schlampig weltweit getestet wird. Es wird ausschließlich der Penisbalken in Excel erfasst und beim Benchen wohl aufs Klo gegangen. Amd könnte auch 'n schwarzen Bildschirm hinzaubern und fabelhaft fps-Werte produzieren, die meisten Tester dürften davon nichts mitbekommen. Da lob ich mir Redakteure, die noch Sehschärfe größer eines Maulwurfs als die restliche Zunft besitzen und diese BQ-Misere ankreiden und auf Besserung hoffen. Von selbst kommen die in Kanada nämlich nicht zur Besinnung.

Du als nv-User könntest mal etwas Produktives (Videos) zum Thread beitragen.
Ich brauche es nicht, da hier schon einige AMD-Videos hochgeladen wurden...

Gast
2010-04-20, 18:40:15
Tag!

Immer wieder kommt es hier zu Verbal-Duellen, welche die AF-Qualität aktueller Grafikkarten zum Thema haben. Lasst uns Blicke auf die Ergebnisse werfen! Wer besonders fiese Fälle zu sehen meint, der postet Screenshots (besser: Videos) und idealerweise noch das passende Savegame zu seinem Fund. So ist es möglich, dass andere Nutzer mit anderen Grafikkarten nachstellen können, was ihr ankreidet. Interessant ist natürlich stets Radeon vs. GeForce.

Die Angabe der genauen Einstellungen im Treiber ist wichtig!

Ich beschränke mich vorerst auf die Entgleisungen meiner Radeon HD 5870 im Alltag, da ich diese die ganze Zeit zum Spielene nutze. Ohne SSAA ist das AF leider oftmals grenzwertig ... bis katastrophal. Zwei solcher Fälle zeige ich euch – einer ist schon bekannt:

Crysis Warhead

HD 5870, D3D10, 1.680x1.050, 4x MSAA/16:1 AF, Catalyst 10.3b:
http://www.abload.de/image.php?img=crysis2010-04-1319-46-uu2b.png

Kurz: In diesem Spiel tritt auf einer Radeon nicht nur starkes Flimmern auf, sondern bei bestimmten Texturen auch Banding. Dieses ist im Video (neben dem Flimmern) zu sehen. Eine GeForce flimmert ebenfalls, das Banding ist jedoch nur im Ansatz zu erahnen.

AF-Save (http://www.fileuploadx.de/775659)

Video 1: http://www.load.to/MuKhr537NT/Crysis_4x_MSAA,_16x_AF,_Cypress,_A.I._Standard.avi
Video 2: http://www.load.to/jqV1S8aR3j/Crysis_4x_MSAA,_16x_AF,_Cypress,_A.I._Standard-2.avi

GTA 4 – Episodes from Liberty City

Erst am Freitag bekommen, freute ich mich über einige amüsante Spielstunden – ohne AA, ohne die Option auf SGSSAA, weil der Renderer darauf keine Lust hat, ohne ENB-Mod. Schon nach wenigen Spielminuten begegnete mir jedoch das Grauen: nicht nur Flimmern, sondern abermals MIP-Map-Banding, induziert durch bilineares AF. Soviel zum Irrglauben, eine HD 5000 filtere stets trilinear anisotrop. :ulol:

A.I. Standard, 16:1 AF:
http://www.abload.de/thumb/a.i.standardtreiber-afy296.png (http://www.abload.de/image.php?img=a.i.standardtreiber-afy296.png)

A.I. Standard, Trilinear ingame:
http://www.abload.de/thumb/trilinearl2g1.png (http://www.abload.de/image.php?img=trilinearl2g1.png)

Video (http://www.load.to/gduXauhI17/GTA_4_-_EFLC_Radeon_HD_5870,_16x_AF,_A.I._Standard.avi) (~132 MiB)

Das Banding tritt mit Treiber- oder Applikation-AF in gleicher Ausprägung auf. A.I. Off ist ebenfalls gleich hässlich. Erweitert schiebt das MIP-Band einige Zentimeter weiter nach vorne (negativer Texture LOD). Brrr. Übrigens scheint 2:1 AF trilinear zu sein, darüber wird's bi:

http://www.abload.de/thumb/2xafingame10wp.png (http://www.abload.de/image.php?img=2xafingame10wp.png)

Ein Save gibt's nicht, da das Spiel kein Quicksaving ermöglicht. Prinzipiell sollte jede Gittertextur in GTA 4 und den Episoden taugen, um den Filter zu testen. Ich habe auf die Schnelle nicht getestet, ob sich das normale GTA 4 genauso verhält. Ich weiß nur, dass Letzteres auf meiner Geforce GTX 280 einst trilinear gefiltert wurde.

Nun seid ihr dran. =) Gute Video-Hoster sind beispielsweise:

www.1filesharing.com
www.load.to
www.uploaded.to
www.rapidshare.com (zur Not)

MfG,
Raff

warum steht in deinem post:
"AF-Vergleich inkl. Videos: Radeon HD 4000/5000 gegen Geforce GTX 200/400"

wenn du keinen vergleich lieferst?

Bis jetzt ist es ein billige anti Ati Campagne und zwar solange bis es videos von nvidia als gegenstück gibt.

Iruwen
2010-04-20, 18:45:41
Die sollst du liefern. Mach keine billige Kampagne draus.

Gast
2010-04-20, 18:45:52
Bis jetzt ist es ein billige anti Ati Campagne und zwar solange bis es videos von nvidia als gegenstück gibt.

Die Videos belegen aber nunmal das dort Schweinereien im Gange sind, völlig unabhängig was bei Nvidia passiert oder nicht passiert Punkt

DrFreaK666
2010-04-20, 18:53:54
Die Videos belegen aber nunmal das dort Schweinereien im Gange sind, völlig unabhängig was bei Nvidia passiert oder nicht passiert Punkt

Thread-Titel lesen und verstehen (Stichwort: gegen Geforce GTX 200/400")

Gast
2010-04-20, 18:57:26
Thread lesen und verstehen (Stichwort: gegen Geforce GTX 200/400"

Ja und? Trotzdem gibts auf Ati Karten Banding, was soll diese Laberei auf PCGH wurde doch schon bewiesen, das es auf Nvidia sowas nicht gibt siehe Bilder im GTX480 Review.

DrFreaK666
2010-04-20, 19:03:06
Ja und? Trotzdem gibts auf Ati Karten Banding, was soll diese Laberei auf PCGH wurde doch schon bewiesen, das es auf Nvidia sowas nicht gibt siehe Bilder im GTX480 Review.

Bilder = Videos??

Gast
2010-04-20, 19:03:57
Bilder = Videos??

Ich sehe den Unterschied auch auf Bildern, du etwa nicht?

Schlammsau
2010-04-20, 19:05:13
Die Videos belegen aber nunmal das dort Schweinereien im Gange sind, völlig unabhängig was bei Nvidia passiert oder nicht passiert Punkt

Eine Schweinerei ist, wenn man zB in Crysis 8xMSAA einstellt, und nur 8xCFAA bekommt.

DrFreaK666
2010-04-20, 19:07:03
Ich sehe den Unterschied auch auf Bildern, du etwa nicht?

Der Thread heisst nicht: Gäste sehen alles

Raff
2010-04-20, 19:08:06
Eine Schweinerei ist, wenn man zB in Crysis 8xMSAA einstellt, und nur 8xCFAA bekommt.

... was nachgewiesenermaßen nicht stimmt.

Wow, hier rennen immer noch ein paar Leute herum, die das Spar-AF leugnen. Wacht bitte endlich auf.

MfG,
Raff

DrFreaK666
2010-04-20, 19:09:41
... was nachgewiesenermaßen nicht stimmt.

Wow, hier rennen immer noch ein paar Leute herum, die das Spar-AF leugnen. Wacht bitte endlich auf.

MfG,
Raff

Ich leugne nicht.
Mich nervts, dass hier Gäste trollen, aber zu faul sind um Videos aufzunehmen

Gast
2010-04-20, 19:13:05
Frage: Warum ladet ihr die Videos nicht bei Youtube hoch? Ich hasse es, einzelne Riesendateien runterzuladen.

Schlammsau
2010-04-20, 19:13:18
... was nachgewiesenermaßen nicht stimmt.

Wow, hier rennen immer noch ein paar Leute herum, die das Spar-AF leugnen. Wacht bitte endlich auf.

MfG,
Raff

Ich leugne nicht!
Ich sehe es aber nicht als wichtig genug an, um von Schweinerei oder Augenkrebs zu reden.

Hast du eigentlich meine PN bekommen?

DrFreaK666
2010-04-20, 19:13:47
Frage: Warum ladet ihr die Videos nicht bei Youtube hoch? Ich hasse es, einzelne Riesendateien runterzuladen.

AFAIK der Qualität wegen

Gast
2010-04-20, 19:13:55
2. Frage: Wie ist denn das AF des R520? Besser oder schlechter als das der HD 4xxx / 5xxx?

Gast
2010-04-20, 19:14:54
AFAIK der Qualität wegen

Da kann man doch aber auch mittlererweile HD-Videos hochladen? Oder muss man dafür eine Art Premiumaccount haben?

Schlammsau
2010-04-20, 19:15:55
Da kann man doch aber auch mittlererweile HD-Videos hochladen? Oder muss man dafür eine Art Premiumaccount haben?

Trotzdem ist die BQ auf YT viel zu schlecht, für einen Videovergleich.
Auch die von 1080p-Flash-Videos.

Gast
2010-04-20, 19:20:20
Trotzdem ist die BQ auf YT viel zu schlecht, für einen Videovergleich.
Auch die von 1080p-Flash-Videos.

Also Flimmern wird man ja noch bei solcher Qualität erkennen: http://www.youtube.com/watch?v=BvuvgV3w33o :usad:

Gast
2010-04-20, 19:30:34
2. Frage: Wie ist denn das AF des R520? Besser oder schlechter als das der HD 4xxx / 5xxx?Die erreichbare Maximalqualität? Wesentlich besser auf 5xx als auf den späteren Generationen.
Standard? Keine Ahnung.

Gast
2010-04-20, 19:33:52
Die erreichbare Maximalqualität? Wesentlich besser auf 5xx als auf den späteren Generationen.
Standard? Keine Ahnung.

Erreichbare Maximalqualität bitte. A.I. disabled?

Gast
2010-04-20, 19:46:12
Frage: Warum ladet ihr die Videos nicht bei Youtube hoch? Ich hasse es, einzelne Riesendateien runterzuladen.

Du willst wirklich die AF-Qualität in einem Youtube-Video beurteilen?

Coda
2010-04-20, 19:55:46
2. Frage: Wie ist denn das AF des R520? Besser oder schlechter als das der HD 4xxx / 5xxx?
Besser. A.I. off tastete absolut sauber ab, nur die Gradientenberechnung war etwas komisch.

... was nachgewiesenermaßen nicht stimmt.
Es heißt halt 8xQ, so wie es auch im Treiber benannt wird. Kann man halt wunderbar als Trollvorlage verwenden.

Gast
2010-04-20, 20:04:28
Besser. A.I. off tastete absolut sauber ab, nur die Gradientenberechnung war etwas komisch.

Dann werde ich später mal ein Flimmervideo mit meiner X1800 XT hochladen, dass alles dagewesene übertrumpfen wird. :D

Gast_samm
2010-04-20, 20:19:53
mehr nVideos, bitte! Wäre schön, wenn man einen 1:1-Vergleich hätte, würde den Thread durchaus mit Sinn füllen ;)

Nazar
2010-04-20, 20:24:19
... was nachgewiesenermaßen nicht stimmt.

Wow, hier rennen immer noch ein paar Leute herum, die das Spar-AF leugnen. Wacht bitte endlich auf.

MfG,
Raff

Trotz allem fehlt der Vergleich von Dir, auch wenn das AF sehr schlecht aussieht.
Es ist genau das, was ich bei PCGH immer anprangere, diese einseitige Berichterstattung.
Was willst Du denn mit dieser Kampange erreichen?
So wie Du das anstellst, ist es klar, das Du hier nur provozierst und zwar die Leute, die daran eh nichts ändern können.
Wenn Du Vergleichen willst, dann mach es auch!
ATI AF sieht grausam aus, nur ist das wieder ein Extrem und der angebliche Vergleich ist nicht enthalten.
Wieder mal sehr einseitig.. schade :frown:

BAGZZlash
2010-04-20, 20:26:30
Also Flimmern wird man ja noch bei solcher Qualität erkennen: http://www.youtube.com/watch?v=BvuvgV3w33o :usad:
Gerade dieses Beispiel zeigt, dass Auflösung nichts wert ist, wenn fein aufgelöster Content kaputtkomprimiert wird.

DrFreaK666
2010-04-20, 20:27:56
Trotz allem fehlt der Vergleich von Dir, auch wenn das AF sehr schlecht aussieht.
Es ist genau das, was ich bei PCGH immer anprangere, diese einseitige Berichterstattung.
Was willst Du denn mit dieser Kampange erreichen?
So wie Du das anstellst, ist es klar, das Du hier nur provozierst und zwar die Leute, die daran eh nichts ändern können.
Wenn Du Vergleichen willst, dann mach es auch!
ATI AF sieht grausam aus, nur ist das wieder ein Extrem und der angebliche Vergleich ist nicht enthalten.
Wieder mal sehr einseitig.. schade :frown:

Raff wollte ja, dass andere User mitmachen.
Leider scheint es für Geforce-Besitzer nicht interessant zu sein

HarryHirsch
2010-04-20, 20:32:00
Trotz allem fehlt der Vergleich von Dir, auch wenn das AF sehr schlecht aussieht.
Es ist genau das, was ich bei PCGH immer anprangere, diese einseitige Berichterstattung.
Was willst Du denn mit dieser Kampange erreichen?
So wie Du das anstellst, ist es klar, das Du hier nur provozierst und zwar die Leute, die daran eh nichts ändern können.
Wenn Du Vergleichen willst, dann mach es auch!
ATI AF sieht grausam aus, nur ist das wieder ein Extrem und der angebliche Vergleich ist nicht enthalten.
Wieder mal sehr einseitig.. schade :frown:

Natürlich ist das gemeckere einseitig. Es betrifft ja auch nur einen Hersteller.

btw. ich find den Thread toll. :up:

Raff
2010-04-20, 21:01:41
Trotz allem fehlt der Vergleich von Dir, auch wenn das AF sehr schlecht aussieht.
Es ist genau das, was ich bei PCGH immer anprangere, diese einseitige Berichterstattung.
Was willst Du denn mit dieser Kampange erreichen?
So wie Du das anstellst, ist es klar, das Du hier nur provozierst und zwar die Leute, die daran eh nichts ändern können.
Wenn Du Vergleichen willst, dann mach es auch!
ATI AF sieht grausam aus, nur ist das wieder ein Extrem und der angebliche Vergleich ist nicht enthalten.
Wieder mal sehr einseitig.. schade :frown:

Argh, war ja klar, dass da wieder so einer spawt. PCGH? Wo siehst du hier die PCGH? Jeder kann sich im Zeitalter des Internets hinsetzen und mir ans Bei... ääh, ein paar Videos machen! Das habe ich auch gemacht. Von zuhause, am Privatrechner, wie das viele andere auch schon getan haben. Das Problem ist nur mein Ruf als "Pixelzähler", der mir den Hauch des Bösen verleiht, obwohl eigentlich gar nicht ich, sondern der Texturfilter die Schuld trägt. Ich habe als Privatmensch, der nun mal (nur) eine Radeon besitzt, Szenen gepostet, die in mir einen Brechreiz erzeugen. Nun könntet ihr ja Gegenbeispiele liefern. =)

Ich habe erfreut und gleichermaßen überrascht festgestellt, dass in diesem Thread lange angenehme Ruhe war, bis wieder ein paar Leute ihre heilige Kuh in Gefahr sahen. Wetten, dass der gleiche Thread zu gleichen Uhrzeit andere Züge angenommen hätte, wenn ich anstelle der Radeon-Fails flimmernde GeForce-Szenen gepostet hätte? Alle hätten's gewusst und fleißig auf Nvidia eingedroschen. ;D

In diesem Sinne und angesichts meiner nicht mehr vorhandenen Mod-Rechte schließe ich mich Harry und dem Grillsarg an: Mods, waltet eures Amtes. =)

MfG,
Raff

DrFreaK666
2010-04-20, 21:03:25
eigentlich schade. Hätte mich über weitere Videos gefreut

Jake Dunn
2010-04-20, 21:06:32
Würde mal 2 Sachen gerne sehen, einmal Warhead mit dem Hemlock-Treiber und Just Cause (NV vs. ATI) z.b. im Bereich neben der Strasse wo man den Typen sein Auto mit dem Traktor rauszieht (ziemlich am Anfang oder ähnliches).

Raff
2010-04-20, 21:07:41
Die Mods sollen ja nicht dichtmachen, sondern den Mist entsorgen.

MfG,
Raff

DrFreaK666
2010-04-20, 21:11:47
Die Mods sollen ja nicht dichtmachen, sondern den Mist entsorgen.

MfG,
Raff

achso. ok :-)

Würde mal 2 Sachen gerne sehen, einmal Warhead mit dem Hemlock-Treiber und Just Cause (NV vs. ATI) z.b. im Bereich neben der Strasse wo man den Typen sein Auto mit dem Traktor rauszieht (ziemlich am Anfang oder ähnliches).

Wäre echt interessant zu sehen ob es mit dem hemlock-Treiber besser war oder damals niemand so genau hingeschaut hat

y33H@
2010-04-20, 21:14:04
Eine Schweinerei ist, wenn man zB in Crysis 8xMSAA einstellt, und nur 8xCFAA bekommt.Du kannst auf einer Geforce nur 8x oder 8xQ einstellen, einen Schalter namens 8x MSAA gibt genauso wenig wie es einen Modus namens 8x CFAA gibt. 8x ist 8x CSAA, also 4x MSAA mit zusätzlichen Coverage-Samples. Und 8xQ ist 8x MSAA. Das ist seit Jahren so, im Treiber-Panel wie in diversen Spielen. Eine Schweinerei ist es, Dinge zu behaupten, die kompletter Bullshit sind und auch nach der x-ten Erklärung weiterhin Bullshit zu verzapfen. So wie du es hier gerade getan hast. Ich weiß, du bist nicht vollkommen lernresistent, also ...

DrFreaK666
2010-04-20, 21:17:18
Du kannst auf einer Geforce nur 8x oder 8xQ einstellen, einen Schalter namens 8x MSAA gibt genauso wenig wie es einen Modus namens 8x CFAA gibt. 8x ist 8x CSAA, also 4x MSAA mit zusätzlichen Coverage-Samples. Und 8xQ ist 8x MSAA. Das ist seit Jahren so, im Treiber-Panel wie in diversen Spielen. Eine Schweinerei ist es, Dinge zu behaupten, die kompletter Bullshit sind und auch nach der x-ten Erklärung weiterhin Bullshit zu verzapfen. So wie du es hier gerade getan hast. Ich weiß, du bist nicht vollkommen lernresistent, also ...

Als ich noch ne geforce hatte dauerte es bei mir auch ne Weile, bis ich gecheckt habe, dass 8xQ 8xMSAA ist. 4xMSAA heisst ja 4x und nicht 4xQ, oder?

y33H@
2010-04-20, 21:24:22
4x MSAA heißt 4x.
4xQ gibt es nicht.

Man mag NV für die Bezeichnung schelten, ja. Aber NV flamen, weil man sich selbst nicht informiert und dann die falsche Behauptung aufstellen, wenn man "8x MSAA wählt, bekommt man nur 4x MSAA" ist untragbar. Back to Topic bitte, ich hoffe die Sache ist nun ein für alle mal geklärt.

Coda
2010-04-20, 21:27:28
Um das mal festzuhalten: Die Unterstellung lautet NVIDIA würde absichtlich "8x CSAA" 8x und "8x MSAA" = 8xQ nennen weil sie denken, es gibt Leute die zu blöd sind das in Benchmarks ggü. ATI zu durchschauen? Srsly?

Da ist natürlich ATI viel besser, die lassen einem erst gar keine Wahl beim AF und es ist immer scheiße. Da weiß man was man hat.

y33H@
2010-04-20, 21:31:07
Es kam vor einigen Jahren eine Hetze (http://www.ngohq.com/skds-corner/14519-ati-struggle-in-crysis.html) quer durch die Foren auf, weil einer "herausgefunden" hat, dass man in Crysis mit 8x ja nur 4x MSAA erhält.

Die pseudo-logische Folgerung: Nvidia cheatet in Crysis :ulol:

Raff
2010-04-20, 21:31:22
Da ist natürlich ATI viel besser, die lassen einem erst gar keine Wahl beim AF und es ist immer scheiße. Da weiß man was man hat.

:ulol:

Das ist jedenfalls DAU-freundlich, während Nvidia frech "voraussetzt", dass man sich etwas informiert, was diese vielen tollen Schalter/Optionen so bringen.

MfG,
Raff

Gast
2010-04-20, 21:35:46
Um das mal festzuhalten: Die Unterstellung lautet NVIDIA würde absichtlich "8x CSAA" 8x und "8x MSAA" = 8xQ nennen weil sie denken, es gibt Leute die zu blöd sind das in Benchmarks ggü. ATI zu durchschauen? Srsly?


Wer sagt das? Das Schema von NV ist einfach nicht in Sich konsistent. Die Gründe dafür darf sich jeder selbst ausmalen. Wer es nicht weiß fliegt zwangsläufig auf die Schnauze.

2x = 2xMSAA
4x = 4xMSAA
8x = 4xMSAA + 4xCSAA
16x = 4xMSAA +12 CSAA

y33H@
2010-04-20, 21:37:56
Wer es nicht weiß, sollte sich zwangsläufig informieren. So wie überall im Leben halt :rolleyes: Dumm sterben bringt's einfach nicht.

Gast
2010-04-20, 21:45:12
Wer es nicht weiß, sollte sich zwangsläufig informieren. So wie überall im Leben halt :rolleyes: Dumm sterben bringt's einfach nicht.

Und das rechtfertigt diese inkonsistente Nomenklatur? Ich freue mich schon darauf wenn man bei 16x AF nur noch 12x bekommt oder so Späße. Wenn man es weiß kann es einen Wurst sein, aber ich frage mich warum man es überhaupt nötig hat solche Tricks zu verwenden.

Gast
2010-04-20, 21:47:18
Um das mal festzuhalten: Die Unterstellung lautet NVIDIA würde absichtlich "8x CSAA" 8x und "8x MSAA" = 8xQ nennen weil sie denken, es gibt Leute die zu blöd sind das in Benchmarks ggü. ATI zu durchschauen? Srsly?


Es gibt selbst in diesem Freak-Forum genug Leute die man erst mal darauf hinweisen muss das sie erst mit 8xQ 8xMSAA bekommen, also so witzig finde ich das nicht.

y33H@
2010-04-20, 21:51:23
Und das rechtfertigt diese inkonsistente Nomenklatur?Die bei Nvidia seit Jahren vorhandene zusätzliche Auswahl an AA-Modi abseits von nur MSAA rechtfertigt dies wohl. CSAA gibt es eine gefühlte Ewigkeit und im Gegensatz zu AMDs CFAA-Modi sind diese auch unter DX10/DX11 in diversen Spiele-Menüs anwählbar.

I am Robot
2010-04-20, 21:51:51
Dass keine Videos kommen, zeigt eben schön, wie sehr das Thema interessiert. Selbst in einem Enthusiasten Forum. Von Augenkrebs und vergleichbarem Schwachsinn schwafeln eh nur ein paar wenige. Vermutlich jene, die beim Spielen 8 Meter vor den Protagonisten schauen. Hoffentlich fahren sie so nicht Auto *schauder*.

Natürlich wäre ein HQ-Schalter schön, aber dann würden die ewig Unzufriedenen wieder etwas anderes finden.... Als ob es nichts Wichtigeres gäbe...

y33H@
2010-04-20, 21:53:09
Bei einem nahezu optimalen Produkt wie der HD5870 fällt ein flimmerndes Manko wie das minderwertige AF eben um so mehr auf. Leider und zum Glück.

Gast
2010-04-20, 21:58:37
Die bei Nvidia seit Jahren vorhandene zusätzliche Auswahl an AA-Modi abseits von nur MSAA rechtfertigt dies wohl. CSAA gibt es eine gefühlte Ewigkeit und im Gegensatz zu AMDs CFAA-Modi sind diese auch unter DX10/DX11 in diversen Spiele-Menüs anwählbar.

Das etwas schon lange falsch läuft ist kein gutes Argument. Man hätte die CSAA-Modi abwerten sollen, denn das sind sie auch im Vergelich zu MSAA, aber nicht die normalen MSAA-Modi aufwerten. Wenn 4x = 4xMSAA, dann muss auch 8x = 8xMSAA sein, bei den CSAA-Samples muss man dann auf die niedrigere Qualität hinweisen.

Und CFAA lässt sich unter DX10/11 in jedem Spiel problemlos über den Treiber forcen.

y33H@
2010-04-20, 22:01:07
Aha, 16xQ sieht also schlechter aus als 8xQ ("niedrigere Qualitä")? Wohl kaum :rolleyes:
Und CFAA lässt sich unter DX10/11 in jedem Spiel problemlos über den Treiber forcen. Unterschied Treiber forcieren und ingame-Auswahl ist dir bekannt?

Gast
2010-04-20, 22:02:06
Mal ein sehr guter Post y33H@!
Muss zugeben, dass ich dich in den letzten Wochen schon als NVidea Fanboy abgestemptelt hab. :-)

Und an die Fanboys. Denkt mal über eurer Verhalten nach und zerstört nicht gleich jeden Thread!

Es gibt auf Produkten von Nvidea und Ati was zu meckern. Das perfekte Produkt gibt's eben selten. Freut euch doch, dass es 2 Hersteller gibt, die um die Gunst von uns Kunden kämpfen.

LovesuckZ
2010-04-20, 22:02:41
Ein Spiel sollte entweder nur die MSAA Modi anbieten oder alle - und dann die Bezeichnungen aus dem nVidia-Panel nehmen.
Abgesehen davon gibt es bei nVidia nur eine Grad-Bezeichnung ohne Suffix:
2x
4x
8x
8xQ
16x
16xQ
32x

Es ist also ersichtlich, dass 8x nicht besser ist als 8xQ.

y33H@
2010-04-20, 22:04:49
Muss zugeben, dass ich dich in den letzten Wochen schon als NVidea Fanboy abgestemptelt hab.Ich war nie Fanboy, nur harscher Kritiker. Aber das erkennen viele leider nicht bzw. wollen es nicht erkennen. Unangenehme Gegenüber stempelt man nur gerne ab, damit sie für den eigenen (Pseudo-)Horizont vermeintlich keine Gefahr darstellen. Whatever, THX.

EDIT
Einmal ins Panel schauen, Sache klar.

http://www.abload.de/img/2010-04-20_220521x6vx.png

Gast
2010-04-20, 22:05:45
Aha, 16xQ sieht also schlechter aus als 8xQ ("niedrigere Qualitä")? Wohl kaum :rolleyes:


Habe ich das gesagt? Nein. Aber ist freilich einfacher so zu tun als würde man es nicht verstehen. CSAA-Samples sind schlechter als MSAA-Samples.

Wenn 4x = 4xMSAA und 8x = 8xMSAA, dann muss man 4xMSAA + 4x CSAA eben 8x "lower quality" oder was auch immer nennen, aber dann nicht einfach so tun als wäre das 8xMSAA und 8xQ dann besser als 8xMSAA, denn genau das suggeriert die Nomenklatur. Ich hoffe du verstehst was ich sage. :rolleyes:


Unterschied Treiber forcieren und ingame-Auswahl ist dir bekannt?

Nein. Nenne ihn mir.

HarryHirsch
2010-04-20, 22:06:48
Ein Spiel sollte entweder nur die MSAA Modi anbieten oder alle - und dann die Bezeichnungen aus dem nVidia-Panel nehmen.
Abgesehen davon gibt es bei nVidia nur eine Grad-Bezeichnung ohne Suffix:
2x
4x
8x
8xQ
16x
16xQ
32x

Es ist also ersichtlich, dass 8x nicht besser ist als 8xQ.

Bei allem mit "Q" denkt der unwissende wahrscheinlich das es sich um "Quality" handelt. :uclap:

y33H@
2010-04-20, 22:13:46
CSAA-Samples sind schlechter als MSAA-Samples. CSAA-Samples gibt es nur zusammen mit MSAA-Samples. Und 16x sieht je nach Spiel auch besser aus als 8x - obwohl ersteres 4x MSAA + 12 CSAA und letzteres 8x MSAA ist. Die Nomenklatur suggeriert eine bessere Optik und damit hat sie nicht zwingend Unrecht, im Gegenteil liegt sie meist sogar richtig. So tun als ob tut keiner, da das Control-Panel die Modi nur listet und keine Details zu den MSAA- und CSAA-Samples gibt.

Und der Unterschied zwischen Treiber forcieren und ingame-Auswahl ist schlicht, dass letzteres für 99% der User die übliche Methode ist: Im Spiel alles auf volle Rotze. Im Treiber basteln nur wenige. Offenbar hat AMD kein Interesse daran, die CFAA-Modi auch ingame zugänglich zu machen - oder die Devs keinen Bock aus bestimmten Gründen. Bei NV dagegen gibt's oft CSAA und MSAA.

Gast
2010-04-20, 22:27:50
Und das rechtfertigt diese inkonsistente Nomenklatur? Ich freue mich schon darauf wenn man bei 16x AF nur noch 12x bekommt oder so Späße. Wenn man es weiß kann es einen Wurst sein, aber ich frage mich warum man es überhaupt nötig hat solche Tricks zu verwenden.
8xAF unter dem Namen 16xAF bekommst du bereits heute. Siehe G70Q-RV800.

Dass keine Videos kommen, zeigt eben schön, wie sehr das Thema interessiert. Selbst in einem Enthusiasten Forum. Von Augenkrebs und vergleichbarem Schwachsinn schwafeln eh nur ein paar wenige. Vermutlich jene, die beim Spielen 8 Meter vor den Protagonisten schauen. Hoffentlich fahren sie so nicht Auto *schauder*.

Raff hat seine Videos gepostet, die anderen paar kann man sich im Fred zusammensuchen.
Das müsste alles in den Startfred, inlusive Savegames.
Um bei Raff zu bleiben, abgsehen von der dünnen Leitung und dem Savegame hält mich der Nichtbesitz von GTA4/Crysis Warhead davor ab ein Gegenvideo hochzuladen.


Natürlich wäre ein HQ-Schalter schön, aber dann würden die ewig Unzufriedenen wieder etwas anderes finden.... Als ob es nichts Wichtigeres gäbe...Wenn man einen Haufen Kohle ausgibt kann man sich auch mal was dafür wünschen.
Besonders weils kein großer Aufwand für AMD und keinerlei Nachteil für die Uninteressierten ist.

I am Robot
2010-04-20, 22:31:56
Besonders weils kein großer Aufwand für AMD und keinerlei Nachteil für die Uninteressierten ist.

Und das weißt Du woher? Kann der Chip das überhaupt? Ich behaupte: Wenn's so einfach wäre, gäbe es schon lange ein Tool, welches das ermöglichen würde.
Ansonsten halt SSAA einschalten. Bei den ganzen Konsolenports, die eh nur DX9 beinhalten, reicht die Leistung in der Regel.

dllfreak2001
2010-04-20, 22:33:44
Ich werde kein Video hochladen, aber paar Bilder von GTA4-Original.

Wenn ich nur wüsste wo man dieses Gitter findet. Ich wäre für eine
Markierung auf der Karte sehr dankbar.
Die sind leider nicht überall gleich, wobei ich sagen muss, dass bei mir der Schatten
einen solchen ähnlichen Effekt macht.
Ich glaube GTA4 ist wegen seiner komischen Krüppel-Engine kein gutes Vergleichsobjekt.

Gast
2010-04-20, 22:37:14
Und das weißt Du woher? Kann der Chip das überhaupt? Ich behaupte: Wenn's so einfach wäre, gäbe es schon lange ein Tool, welches das ermöglichen würde.Die Vergangenheit zeigt es mir, das es AMD besser kann.
Das Filterqualität nichts mit AI zu tun hat ist doch wohl einleuchtend? Das ist reine Schickane oder sonstwas, jedenfalls kein Naturgesetz.
Sollte die Hardware nichts derartiges mitmachen, naja dann muss weiter gescholten werden das sie es mal wieder kann.
Die Presse hat versagt, sonst wärs nie soweit gekommen, deshalb muss sie das wieder gutmachen.
Mit RV800 hat man ja für die Presse die Blume gerundet und dafür Lob kassiert, aber die Filtercheattransistoren hat man drin gelassen? Ja alles klar, das gehört gelobt.


Ansonsten halt SSAA einschalten. Bei den ganzen Konsolenports, die eh nur DX9 beinhalten, reicht die Leistung in der Regel.
Klasse, dann kann ich gleich bei meiner Geforce bleiben. Viel Geld gespart, danke für den Tipp.

nVoodoo
2010-04-20, 22:38:01
Da ich anscheinend das Banding und das Flimmern in den Vid´s nicht sehe oder übersehe kann mir denn einer sagen ob das Video von Raff (5870) zu meinem mit der 4850 so einer großer Unterschied ist?

Desweiteren da ja noch keine NV GPU Vid´s hier beigesteuert wurden ich hab noch ne 9650M GT im Laptop ;D

Und die 3 1/2 Seiten OT Müll könnten auch mal entfernt werden...

Wie wäre es mit einem neuen Thread... Thema egal inkl. 99,9% OT?!

Gast
2010-04-20, 22:41:59
Und das rechtfertigt diese inkonsistente Nomenklatur? Ich freue mich schon darauf wenn man bei 16x AF nur noch 12x bekommt oder so Späße.


Bekommst du bei ATI ja auch, zwar die Schärfe von 16x, aber gefiltert wird wohl kaum mehr als 12x, was natürlich in dem bekannten flimmern resultiert.

Schlammsau
2010-04-20, 22:44:07
Die bei Nvidia seit Jahren vorhandene zusätzliche Auswahl an AA-Modi abseits von nur MSAA rechtfertigt dies wohl. CSAA gibt es eine gefühlte Ewigkeit und im Gegensatz zu AMDs CFAA-Modi sind diese auch unter DX10/DX11 in diversen Spiele-Menüs anwählbar.

Und wo liegt jetzt der genaue Vorteil zu ATi?
Bei denen kann man die CFAA-Modi nämlich im Treiber auswählen und die funzen auch unter DX10+! :eek:

I am Robot
2010-04-20, 22:45:59
Die Vergangenheit zeigt es mir, das es AMD besser kann.
Das Filterqualität nichts mit AI zu tun hat ist doch wohl einleuchtend? Das ist reine Schickane oder sonstwas, jedenfalls kein Naturgesetz.
Sollte die Hardware nichts derartiges mitmachen, naja dann muss weiter gescholten werden das sie es mal wieder kann.
Die Presse hat versagt, sonst wärs nie soweit gekommen, deshalb muss sie das wieder gutmachen.
Mit RV800 hat man ja für die Presse die Blume gerundet und dafür Lob kassiert, aber die Filtercheattransistoren hat man drin gelassen? Ja alles klar, das gehört gelobt.


Klasse, dann kann ich gleich bei meiner Geforce bleiben. Viel Geld gespart, danke für den Tipp.

Gelobt gehört es nicht, aber es gibt Schlimmeres. Ich bin überzeugt, dass der Chip es nicht besser kann. Die von Dir genannten "Filtercheattransistoren" hat man tatsächlich drin gelassen.

Wegen mir brauchst Du tatsächlich keine Ati zu kaufen. Da habe ich nichts davon.

Gast
2010-04-20, 22:49:12
Und das weißt Du woher? Kann der Chip das überhaupt? Ich behaupte: Wenn's so einfach wäre, gäbe es schon lange ein Tool, welches das ermöglichen würde.
Ansonsten halt SSAA einschalten. Bei den ganzen Konsolenports, die eh nur DX9 beinhalten, reicht die Leistung in der Regel.
Was soll der Chip nicht können? Trilinear filtern, kann der auf jeden Fall. Macht man aber nicht in Benchmarktiteln, sonst würde es kein Banding geben. Und AMD fuscht per AI für ihre Titel individuell rum und das bleibt dann bis in alle Ewigkeit so bestehen, siehe DOOM3 z. B., obwohl jetzt mehr als genug Leistung vorhanden ist. Und SGSSA hilft bei Banding auch nicht allzuviel und die Leute mit Juniper können sich selbst in alten Titeln nicht viel SSAA erlauben, wenn die Auflösung schon 1680x1050 beträgt.
Das einzige, was der Chip evtl. nicht kann, ist das Flimmern zu beheben. Da gibt es unterschiedliche Meinungen. Einige sagen, Unterabtastung lässt sich per Treiner beheben, andere sagen, ist wohl durch die Hardware limitiert.

Gast
2010-04-20, 22:50:56
Gelobt gehört es nicht, aber es gibt Schlimmeres. Ich bin überzeugt, dass der Chip es nicht besser kann. Die von Dir genannten "Filtercheattransistoren" hat man tatsächlich drin gelassen.

Ja, es gibt schlimmeres.
Z.b. das es damals zu G70 Zeiten der Aufhänger schlecht hin war.

Deshalb ist es ein Thread in einem Forum. Geh in einen anderen Thread oder zu CB oder Luxx, da bist du wegen solchen Dingen sorgenfrei. Da kann man sich ungestört über die FPS in Crysis bei 8xMSAA ohne TAA unterhalten.


Wegen mir brauchst Du tatsächlich keine Ati zu kaufen. Da habe ich nichts davon.Ich hätte gerne besagten Modus einer Geforce auf einer Radeon.
Seh es ein oder lass es.

dllfreak2001
2010-04-20, 22:54:35
Wo wird in Doom3 gecheatet?

Ich habe bis jetzt noch nichts davon mitbekommen.

I am Robot
2010-04-20, 23:02:14
Ja, es gibt schlimmeres.
Z.b. das es damals zu G70 Zeiten der Aufhänger schlecht hin war.

Deshalb ist es ein Thread in einem Forum. Geh in einen anderen Thread oder zu CB oder Luxx, da bist du wegen solchen Dingen sorgenfrei. Da kann man sich ungestört über die FPS in Crysis bei 8xMSAA ohne TAA unterhalten.

Ich hätte gerne besagten Modus einer Geforce auf einer Radeon.
Seh es ein oder lass es.

Mich hat der G70 nie gestört; ich hatte ja auch keinen. Was der konnte und was nicht, ging entsprechend an mir vorbei.

Nun, besagten Modus gibt es nun mal nicht. Ich nehme die Schuld aber gerne auf mich.

Ich hatte übrigens seinerzeit Videos inklusive Savegame hier (allerdings in einem anderen Thread, doch das Thema war ebenfalls bezüglich Filterqualität) hochgeladen; die stammten aus "The Witcher". Damals wurden auch erst 20 Seiten vollgeschrieben, ehe ein dummer Gast (ich) dahergelaufen kam und endlich Nägel mit Köpfen machte.

y33H@
2010-04-20, 23:10:57
@ Schlammsau

Der Vorteil ist, ich muss nicht jedes Mal im Treiber rumfummeln. CSAA geht btw auch DX10 [Crysis!].

Gast
2010-04-20, 23:16:15
Wo wird in Doom3 gecheatet?

Ich habe bis jetzt noch nichts davon mitbekommen.
Flimmern und Banding vorhanden (besonders bei Bodentexturen zu sehen)
Ein Relikt, wo Doom 3 noch in Benchmarks zu finden war. Das wurde kaputt optimiert für ein paar FPS. Da das ganze in AI gegossen ist, bleibt das in alle Ewigkeit so - es sei denn, es formiert sich Widerstand und Protest im Internet, dann besteht ein Fünkchen Hoffnung.
Normalerweise würde mir das alles am Arsch vorbei gehen, aber leider hat Amd bei ihren aktuellen Karten Features, die die Konkurrenz nicht hat. Und mit gutem AF, jedenfalls auf Option, wäre ein schwerer, mir sofort ins Auge stechender, Negativpunkt ausgemerzt und das Paktet für mich rund. Gutes AF ist wirklich wichtig, um Welten wichtiger als Tesselation, Physx oder ein paar fps.

nVoodoo
2010-04-20, 23:27:57
Flimmern und Banding vorhanden (besonders bei Bodentexturen zu sehen)


Dann schieb doch mal n Savegame rüber ich erstell auch gerne nochn Vid mit Doom 3... auch gerne mit der 9650M GT ;D

Habe wir nicht extra den Thread hier damit man auch mal eine direkten Video Vergleich haben statt irgendwelche Behauptungen?

Coda
2010-04-20, 23:30:54
auch gerne mit der 9650M GT ;D
Das spielt gar keine Rolle, seit G80 ist das AF auf jeder NVIDIA-Karte absolut identisch.

Gast
2010-04-20, 23:50:43
Dann schieb doch mal n Savegame rüber ich erstell auch gerne nochn Vid mit Doom 3... auch gerne mit der 9650M GT ;D

Überall dort, wo die Lüftungsgitter auf dem Boden zu finden, sind geeignete Stellen für deine 9650M GT, so wie hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7978917&postcount=3
Wenn ned, lade ich morgen mal ein Savegame hoch.
Domm hat den großen Vorteil, dass sonst kaum Hochfrequentes zu sehen ist und es sehr dunkel ist. Wäre jedes Spiel so, würde man die Optimierungen kaum sehen, andererseits bräuchte man auch nicht wirklich AF. ;D

kmf
2010-04-20, 23:53:35
Überall dort, wo die Lüftungsgitter auf dem Boden zu finden, sind geeignete Stellen für deine 9650M GT, so wie hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7978917&postcount=3
Wenn ned, lade ich morgen mal ein Savegame hoch.
Domm hat den großen Vorteil, dass sonst kaum Hochfrequentes zu sehen ist und es sehr dunkel ist. Wäre jedes Spiel so, würde man die Optimierungen kaum sehen, andererseits bräuchte man auch nicht wirklich AF. ;D
Herrschaftszeiten, ich erschreck mich bei dem Game immer so. Da hab ich echt kein Auge für AF etc. :(

/edit ... bin aber seit Jahren auf Geforce Nvidia unterwegs. Da brauch man sich keine Sorgen zu machen. :smile:

nVoodoo
2010-04-20, 23:54:29
Das spielt gar keine Rolle, seit G80 ist das AF auf jeder NVIDIA-Karte absolut identisch.


Naja das war eher auf Crysis bezogen weil bei 4-5fps weiß ich nicht ob da noch viel auf dem vid zu sehen is aber Doom 3 sollte die packen ;)

@Gast naja ich werd ma ne stelle suchen (aber nicht mehr heute) kannst aber gerne morgen noch n Savegame hochladen das man einen einheitlichen Vergleich hat falls andere auch mal Testen wollen :P

-=Popeye=-
2010-04-21, 05:14:59
Damit endlich das Geheule aufhört hier die NV-Fraktion.

Crysis Warhead

GTX 285, D3D10, 1680x1050, 4x MSAA/16x AF, GeForce 197.45 WHQL (HQ):

Video: http://www.load.to/dDqgx6J71n/crysis64_4x_MSAA,_16x_AF,_GT200b,_HQ.avi

edit: Video eingefügt

_DrillSarge]I[
2010-04-21, 06:51:19
^^na endlich. :D heut nachmittag genauer angucken:

Doom3@Ultra//HD4850//8xAA/16xAF (per CCC)//Ai low// Cat. 8.74

http://www.bilderkiste.org/show/thumbnail/4c407fbcb2cd9cf645ff1b143c165cc0/Doom3_2010-04-21_06-46-37-64.jpg (http://www.bilderkiste.org/show/details/4c407fbcb2cd9cf645ff1b143c165cc0/Doom3_2010-04-21_06-46-37-64.jpg.html)

save
http://rapidshare.com/files/378281777/Doom3BQ1.7z
vid
http://rapidshare.com/files/378281432/Doom3_BQ1.mp4

Frank1974
2010-04-21, 07:08:55
I[;7983110']^^na endlich. :D heut nachmittag genauer angucken:

Doom3@Ultra//HD4850//8xAA/16xAF (per CCC)//Ai low// Cat. 8.74

http://www.bilderkiste.org/show/thumbnail/4c407fbcb2cd9cf645ff1b143c165cc0/Doom3_2010-04-21_06-46-37-64.jpg (http://www.bilderkiste.org/show/details/4c407fbcb2cd9cf645ff1b143c165cc0/Doom3_2010-04-21_06-46-37-64.jpg.html)

save
http://rapidshare.com/files/378281777/Doom3BQ1.7z
vid
http://rapidshare.com/files/378281432/Doom3_BQ1.mp4

Ein kurzer Blick hat mir gereicht, um zu sehen das es bei dem NV Vid deutlich ruhiger ist, es ist zwar nicht perfekt, aber deutlich besser, aber das wusste ich schon vorher, hab mir das Savegame angeschaut, hatte nur keine Lust ein Video zu machen.

@8xAA, 8xQ Leute
Und zu 8xAA, 8xQAA, wer das nicht weiß der tut mir echt leid und sollte hier im Forum nicht mehr posten, in so einem Forum gehört das zum Allgemeinwissen, wenn man so etwas nicht weiß ist das nur noch peinlich.
Aber AMD/ATI User scheinen mir im Allgemeinen recht ahnungslos, selbst wenn bei ATI Texturen fehlen, muss man sie wohl aufklären das da etwas nicht stimmt, allein merken würden sie es wohl nicht;D

Den letzten Satz nicht so ernst nehmen, aber bei einigen kann ich nur mit dem Kopf schütteln;)

mfg
Frank

DrFreaK666
2010-04-21, 07:19:38
Ein kurzer Blick hat mir gereicht, um zu sehen das es bei dem NV Vid deutlich ruhiger ist, es ist zwar nicht perfekt, aber deutlich besser, aber das wusste ich schon vorher, hab mir das Savegame angeschaut, hatte nur keine Lust ein Video zu machen.

@8xAA, 8xQ Leute
Und zu 8xAA, 8xQAA, wer das nicht weiß der tut mir echt leid und sollte hier im Forum nicht mehr posten, in so einem Forum gehört das zum Allgemeinwissen, wenn man so etwas nicht weiß ist das nur noch peinlich.
Aber AMD/ATI User scheinen mir im Allgemeinen recht ahnungslos, selbst wenn bei ATI Texturen fehlen, muss man sie wohl aufklären das da etwas nicht stimmt, allein merken würden sie es wohl nicht;D

Den letzten Satz nicht so ernst nehmen, aber bei einigen kann ich nur mit dem Kopf schütteln;)

mfg
Frank

Also macht es deiner Meinung nach Sinn, dass bei nv 4xMSAA 4x und 8xMSAA 8xQ heisst... :freak:

_DrillSarge]I[
2010-04-21, 07:21:15
könnt ihr diese "wer nennt sein AA wie und warum"-diskussion woanders austragen?

Gast
2010-04-21, 07:29:56
CSAA-Samples gibt es nur zusammen mit MSAA-Samples. Und 16x sieht je nach Spiel auch besser aus als 8x - obwohl ersteres 4x MSAA + 12 CSAA und letzteres 8x MSAA ist. Die Nomenklatur suggeriert eine bessere Optik und damit hat sie nicht zwingend Unrecht, im Gegenteil liegt sie meist sogar richtig. So tun als ob tut keiner, da das Control-Panel die Modi nur listet und keine Details zu den MSAA- und CSAA-Samples gibt.


Also gibst du zu, dass es diverse Fälle gibt, wo 16x schlechter aussieht, als 8xQ.

Und der Unterschied zwischen Treiber forcieren und ingame-Auswahl ist schlicht, dass letzteres für 99% der User die übliche Methode ist: Im Spiel alles auf volle Rotze. Im Treiber basteln nur wenige. Offenbar hat AMD kein Interesse daran, die CFAA-Modi auch ingame zugänglich zu machen - oder die Devs keinen Bock aus bestimmten Gründen. Bei NV dagegen gibt's oft CSAA und MSAA.

Dafür ists im Treiber leichter foriebar, als bei NV. Bei NV muss man unmständlich den AA Modus 'aufwerten', bei ATi stellt man im Treiber Filter und AAA ein, wie's einem gefällt, und kann, je nach Spiel Ingame die Sampleanzahl so hoch stellen, wie's die Spieleperformance erlaubt.

Maorga
2010-04-21, 08:09:34
Dafür ists im Treiber leichter foriebar, als bei NV. Bei NV muss man unmständlich den AA Modus 'aufwerten', bei ATi stellt man im Treiber Filter und AAA ein, wie's einem gefällt, und kann, je nach Spiel Ingame die Sampleanzahl so hoch stellen, wie's die Spieleperformance erlaubt.

Also dies trifft nun überhaupt nicht zu, man muss bei nV nicht den AA Modus umständlich aufwerten. Es ist richtig das es diesen Schalter gibt, der von Haus aus bei einigen Spielen aktiv ist, da dort inGame kein AA eingestellt werden kann und durch das Forcieren es zu Problemen bzw. überhaupt kein AA kommt.

Sowohl ATI als auch nV kann man sehr gut über das ControlPanel einstellen. Es gibt gute Tools die einem hier noch das Leben erleichten wie Ati tray tools oder der allseits beliebte nHancer.

Wenn jemand nicht mit 'Pixelbrei' spielen will dann interessiert er sich dafür und schaltet die richtigen Schalter um. Selbst Computerbildspiele Leser beherrschen dies.

Durch das Profilmanagement für einzelne Spiele kann man individuell das AA wie das AF anpassen. Und ich muss sagen bisher ist mir kein Spiel untergekommen bei dem ich kein AA hätte einstellen können. Und daheim habe ich eine HD2600 und eine 8800GT.
Sicher manchmal ist es schon recht kniffelig dies einzustellen und dann kam noch dazu das bei neueren Treibern die Applikation erst wieder neu gestartet werden muss, dass die neuen Einstellungen greifen. Aber was tut man nicht alles für die Optik.

Ob nun CSAA oder pures MSAA besser ist hängt ja sehr wohl vom Kontent ab (2D Objekte wie Gräser Zäune usw.). Hier kann es bei neuen Spielen besser sein mit mehr Coveragesamples zu arbeiten bei alten hingegen eher auf pures multisampling zu setzen.

Nicht jeder kann mit 4x4 Supersampling spielen :) Deswegen gibt es ja auch einiges an Auswahl.

Biba

Maorga

V2.0
2010-04-21, 08:21:47
Gähn, wieder ne AF Debatte.

Spielt Spiele und schaut nicht auf dumme Pixel, deren Flimmern meist eher am Content als an der Karte liegt.

Die AF Qualität bei AMD ist gut genug.

boxleitnerb
2010-04-21, 08:33:50
Nein, ist sie nicht. Für dich vielleicht, aber es gibt eben Leute mit höheren Ansprüchen. Bei der Power, die die Karten heutzutage haben, kann man eine einwandfreie Filterung erwarten Alles, was flimmert/Banding zeigt, kann (!) den Spieler ablenken und störend wirken. Das muss nicht sein.

Schlammsau
2010-04-21, 09:32:35
Jeder halbwegs informierte ATi-User weiss von der schlechteren AF-Quali der Radeons!

Nur scheint es die allermeisten nicht zu stören, wie auch mich.

Es gibt ja ein adäquates Mittel dagegen, in Form von SGSSAA, wenn es dann doch als zu schlimm empfunden wird.

Wie gesagt, ich kann damit leben, weil es mir kaum bis gar nicht auffällt. Und es ergeht vielen ähnlich!

V2.0
2010-04-21, 09:35:27
Nein, ist sie nicht. Für dich vielleicht, aber es gibt eben Leute mit höheren Ansprüchen. Bei der Power, die die Karten heutzutage haben, kann man eine einwandfreie Filterung erwarten Alles, was flimmert/Banding zeigt, kann (!) den Spieler ablenken und störend wirken. Das muss nicht sein.

Gittertexturen usw. sehen imho immer schlecht aus, unabhängig welche Karte da filtert. Wenn man das verhindern will muss man Gitter eben als 3D Objekte nachbilden und dann verschwindet das Problem von ganz alleine.

Armaq
2010-04-21, 11:11:55
Jeder halbwegs informierte ATi-User weiss von der schlechteren AF-Quali der Radeons!

Nur scheint es die allermeisten nicht zu stören, wie auch mich.

Es gibt ja ein adäquates Mittel dagegen, in Form von SGSSAA, wenn es dann doch als zu schlimm empfunden wird.

Wie gesagt, ich kann damit leben, weil es mir kaum bis gar nicht auffällt. Und es ergeht vielen ähnlich!
Wenn man vor einem TN-Panel sitzt, fällt das oft gar nicht auf.

boxleitnerb
2010-04-21, 11:15:38
Gittertexturen usw. sehen imho immer schlecht aus, unabhängig welche Karte da filtert. Wenn man das verhindern will muss man Gitter eben als 3D Objekte nachbilden und dann verschwindet das Problem von ganz alleine.

Es gibt nicht nur Gittertexturen in einem Spiel.
SGSSAA ist nur für die Spiele ein Allheilmittel, die AA überhaupt unterstützen und die noch DX9 sind. Für den Rest bringt mir das nix.

Schlammsau
2010-04-21, 11:17:10
Wenn man vor einem TN-Panel sitzt, fällt das oft gar nicht auf.

Kann gut sein, ich zB hab "nur" ein TN-Panel.

Auch Raff hat mal vor einiger Zeit angedeutet, das es gut sein kann, dass das flimmern auch "Monitorabhängig" sein kann.

Mein 23" TFT kostete nur 160€......

V2.0
2010-04-21, 11:34:42
Es gibt nicht nur Gittertexturen in einem Spiel.
SGSSAA ist nur für die Spiele ein Allheilmittel, die AA überhaupt unterstützen und die noch DX9 sind. Für den Rest bringt mir das nix.

Ich habe auf den Content angesprochen und nicht wie eine Graka "schlechten" Content noch retten kann. Ein Gittertextur ist da für mich das typische Besipiel. Im Endeffekt mäßte da ein 3D-Gitter sein und ne Bodentextur darunter.

Oder die typische "Kiestextur". Heute sollte man die mit Tesselation eher echte räumlich machen und nicht als platte 2 D Textur die bei jeder Karte bescheiden aussieht.

boxleitnerb
2010-04-21, 11:40:10
Es gibt in Spielen nunmal Texturen, so what? Oder willst du alles mit Tessellation vollpfeffern? Vielleicht ist irgendwann in 5-10 Jahren mal jede Oberfläche 3D, aber jetzt eben noch nicht.
Sicher gibt es Content, der auf beiden Karten flimmert, das ist aber keine Entschuldigung, es nicht so gut zu machen wie möglich.
My 2 cents.

Raff
2010-04-21, 12:32:16
Oder die typische "Kiestextur". Heute sollte man die mit Tesselation eher echte räumlich machen und nicht als platte 2 D Textur die bei jeder Karte bescheiden aussieht.

Nvidia-HQ, R5x0 A.I. Off oder auch eine GeForce 3/4 filtern Evilness wie die berüchtigte Kiestextur ziemlich sauber. Erst die Kombination aus bösem Content plus einem billigen Filter lässt arge Artefakte entstehen (hochfrequente Shader-Sünden ausgenommen ...).

MfG,
Raff

nVoodoo
2010-04-21, 14:27:10
Leider nicht direkt vergleichbar da geringere Auflösung und Crysis@Mainstream

Dafür aber HQ vs. Q

9650m GT

AF-Save DX10 1440x900 4xMSAA;16xAF (HQ) 197.16

http://www.load.to/P3JV7TW8OB/af-save_4xmsaa_16xAF_HQ.avi

AF-Save DX10 1440x900 4xMSAA;16xAF (Q) 197.16

http://www.load.to/rzgJRjbPqf/af-save_4xmsaa_16xaf_Q.avi

Pinoccio
2010-04-21, 14:53:17
sOT:
Gittertexturen usw. sehen imho immer schlecht aus, unabhängig welche Karte da filtert. Wenn man das verhindern will muss man Gitter eben als 3D Objekte nachbilden und dann verschwindet das Problem von ganz alleine.Gittertexturen können auch wunderbar aussehen, vgl.z. B. die beiden Screens von Blaire (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7978917&postcount=3).

mfg

Gast
2010-04-21, 14:58:05
sOT:
Gittertexturen können auch wunderbar aussehen, vgl.z. B. die beiden Screens von Blaire (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7978917&postcount=3).

mfg

screens... DAS ZEUG FLIMMERT WENN IN BEWEGUNG

LovesuckZ
2010-04-21, 14:58:42
screens... DAS ZEUG FLIMMERT WENN IN BEWEGUNG

Nö, nicht mit nVidia's TSSSAA.

Mr. Lolman
2010-04-21, 15:37:00
Nö, nicht mit nVidia's TSSSAA.

Naja. Ganz am Ende vom Gitter sieht man auch im Standbild noch leichtes Moiré.

V2.0
2010-04-21, 16:46:59
sOT:
Gittertexturen können auch wunderbar aussehen, vgl.z. B. die beiden Screens von Blaire (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7978917&postcount=3).

mfg

Der hintere Bereich zeigten leichten Moire, aber das ist nicht der Punkt. Leuchte mir der Lampe auf das Gitter und Du kannst nicht durchsehen. Der schwarze Teil der Gitter Textur wird sogar ebenso erhält wie das eigentliche Gitter. Sorry, aber wer sich da in seiner Immersion ins Spiel weniger gestört fühlt, als beim leichten Texturflimmern der ATI ist imho eine Pixelpeeper. Und wenn Nv mit der extrem erhöhten Dreiecksleistung der GF100 dafür sorgt, dass wir an solchen Stellen in Zukunft echte Gitter sehen und Tesselation uns echte 3D Kieselsteine schenkt, dann werde ich sie dafür ewig feiern, sicher weit mehr als für den Unterschied im Texturfilter.

Sonyfreak
2010-04-21, 18:18:51
Auch Geometrie kann flimmern. Nicht umsonst verwendet man Modelle mit unterschiedlichen Detailstufen.

mfg.

Sonyfreak

Raff
2010-04-21, 18:35:28
So ist es. Mit massig Polygonen wird gar nichts besser, da jedes Polygon bis zu drei Kanten hat, die flimmern. Ergo braucht's für viele kleine Polygone nicht nur ein gescheites LOD-System, sondern auch gescheite Abtastung.

MfG,
Raff

Coda
2010-04-21, 18:56:33
Bei Anti-Aliasing können sie aber wenigstens nicht cheaten :D

Raff
2010-04-21, 19:29:20
Jau ... aber: Böse Zungen behaupten, dass CSAA "vercheatetes" MSAA ist ... so wie MSAA eigentlich "vercheatetes" SSAA darstellt. :naughty:

MfG,
Raff

Gast
2010-04-21, 20:51:47
Auch Geometrie kann flimmern. Nicht umsonst verwendet man Modelle mit unterschiedlichen Detailstufen.

mfg.

Sonyfreak

Das ist den Nv-Usern egal. Hauptsache Dreiecke. Auch wenn sie flimmern und flackern. Aber wehe, wenn der AF-Filter der Konkurrenz flimmert. Dann ist hier gleich die Hölle los.

Blaire
2010-04-21, 21:07:14
Naja. Ganz am Ende vom Gitter sieht man auch im Standbild noch leichtes Moiré.

LOD ;) Das weisst du auch ganz genau...

V2.0
2010-04-21, 21:10:06
So ist es. Mit massig Polygonen wird gar nichts besser, da jedes Polygon bis zu drei Kanten hat, die flimmern. Ergo braucht's für viele kleine Polygone nicht nur ein gescheites LOD-System, sondern auch gescheite Abtastung.

MfG,
Raff

Doch die Grafik wird realistischer, da die Welt nicht flach ist. Dass dafür mehr Anforderungen an an das AA gestellt werden bestreite ich auch gar nicht. trotzdem wäre mir der Weg dauerhaft lieber als eine weitere Verbesserung der Texturfilter und die Möglichkeit öfter SSAA zu nutzen.

Fetter Fettsack
2010-04-21, 21:15:03
Ich habe sporadisches Flimmern von größeren Texturteilen in BC2 unter DX9 (meist der Himmel) auf einer 4670, das sehr unangenehm ist und nach einiger Zeit wieder verschwindet, sprich, man kann nacher wieder auf die vorher flimmernde stelle blicken ohne das diese Erscheinung erneut auftritt.

Kann das am AF liegen oder ist die Ursache eher bei der Engine beheimatet?

Gast
2010-04-21, 21:46:38
weitere Verbesserung der Texturfilter
Falsche Formulierung.
R500 Niveau wär schonmal ein guter Anfang, G80 Niveau erst recht. Aber das ist keine weitere Verbesserung, sondern ein erreichen alter Qualitäten.

Gast
2010-04-21, 23:13:33
Ich habe sporadisches Flimmern von größeren Texturteilen in BC2 unter DX9 (meist der Himmel) auf einer 4670, das sehr unangenehm ist und nach einiger Zeit wieder verschwindet, sprich, man kann nacher wieder auf die vorher flimmernde stelle blicken ohne das diese Erscheinung erneut auftritt.

Kann das am AF liegen oder ist die Ursache eher bei der Engine beheimatet?

Engine

V2.0
2010-04-22, 07:55:55
Falsche Formulierung.
R500 Niveau wär schonmal ein guter Anfang, G80 Niveau erst recht. Aber das ist keine weitere Verbesserung, sondern ein erreichen alter Qualitäten.

Da widerspreche ich noch nicht einmal. Und ja NV hat Vorteile beim AF und das ist gut für den Nutzer, aber man darf imho die Contententwickler nicht ignorieren.

Die haben weit mehr Möglichkeiten flimmernde Texturen zu vermieden und den Content zu verbessern, wenn sie die Leistung der Karten zu einer erhöhten Detaillierung der Welt nutzen.

Ich finde es einfach dumm, dass wir bald Spiegelungen im Ohrring des Bossgegners haben, aber immer noch auf Gittertexturen glotzen und keine echten Gitter bekommen.

Das soll keine Rechtfertigung für die AF Qualität von ATI sein und es soll ganz sicher keine Rechtfertigung sein um es Hardwaretestern zu ermöglichen die Differenz in der Filterqualität zu ignorieren, aber wir als Spieler sollten imho nicht nur gute Filterqualität fordern, sondern auch einen entsprechenden Content und die Verbesserung des Contents durch Nutzung der Möglichgkeiten der neuen Grafikkartengeneration.

Ich habe ja noch Hoffnung, dass NV mit der GF100 Serie ein ersten Schritt in diese Richtung getan hat und Softwareentwickler antreibt diese Möglichkeiten zu nutzen.

Sonyfreak
2010-04-22, 10:54:38
Das ist den Nv-Usern egal. Hauptsache Dreiecke. Auch wenn sie flimmern und flackern. Aber wehe, wenn der AF-Filter der Konkurrenz flimmert. Dann ist hier gleich die Hölle los.Mir wäre bisher noch nicht aufgefallen, dass NV-User besonders an einer hohen Polygonanzahl interessiert sind. :confused:
Ich finde es einfach dumm, dass wir bald Spiegelungen im Ohrring des Bossgegners haben, aber immer noch auf Gittertexturen glotzen und keine echten Gitter bekommen.Es wurde gerade erwähnt, warum das nicht gemacht wird. Im schlimmsten Fall flimmert so ein Polygongitter 3x so stark wie eines, das aus Texturen besteht. Dazu kommen die eklatant höheren Hardwareanforderungen.

mfg.

Sonyfreak

Gast
2010-04-22, 10:59:42
Kann mal jemand erklären, warum trotz der absoluten Winkelunabhängigkeit bei ATI zu den entsprechenden Effekten kommt?

Sonyfreak
2010-04-22, 11:09:31
Kann mal jemand erklären, warum trotz der absoluten Winkelunabhängigkeit bei ATI zu den entsprechenden Effekten kommt?Die AMD-Karten schlampen bzw. sparen irgendwo bei der Berechnung. Das heißt es werden zwar alle Texturen bei egal welchem Winkel gefiltert, aber eben nicht auf dem Niveau, das wünschenswert wäre. Genau erklären kann dir das aber vermutlich nur ein 3D-Guru wie Coda.

mfg.

Sonyfreak

Gast
2010-04-22, 11:13:53
Mir wäre bisher noch nicht aufgefallen, dass NV-User besonders an einer hohen Polygonanzahl interessiert sind. :confused:
Es wurde gerade erwähnt, warum das nicht gemacht wird. Im schlimmsten Fall flimmert so ein Polygongitter 3x so stark wie eines, das aus Texturen besteht. Dazu kommen die eklatant höheren Hardwareanforderungen.

mfg.

Sonyfreak

Tatsächlich nicht? Seit bekannt wurde, dass der neue Chip in Tessellation stark ist, besteht praktisch das ganze Forum nur noch aus dem Wort.
--

Mich würde interessieren, wie die Leute, die sich ab einem stellenweise flimmernden AF stören, eigentlich spielen. Die Immersion findet bei solchen Spielern ja leider offenbar nicht statt. Das wiederum erhärtet den Verdacht, dass gerade Enthusiasten die Spiele gar nicht spielen, sondern bestenfalls "anzocken" und nach Schwachstellen suchen. Zudem ist die Flimmerneigung angeblich auch vom Monitor abhängig. Es ist also nicht jeder, der mit dem ATI-AF zufrieden ist, ein Dummkopf oder eine blinde Kuh. Er spielt vielleicht anders, hat nicht den entsprechenden Monitor oder akzeptiert schlicht und ergreifend diese kleine Schwachstelle der RV8XX Chip Reihe.

Hier nun seitenlang uralte Themen wiederzukauen, führt zu rein gar nichts. Wenn's Euch stört (was legitim ist), schreibt euer Anliegen direkt an ATI, dann ändert sich vielleicht etwas. Hier führt's garantiert nur zu Sticheleien und Sperrungen.

Sonyfreak
2010-04-22, 11:17:15
Klar, es gibt auch Leute, die sich Herr der Ringe auf einer 32cm Röhre oder dem Handy anschauen. Ich gehöre nicht zu dieser Gruppe.

mfg.

Sonyfreak

lilgefo~
2010-04-22, 11:23:58
Hier nun seitenlang uralte Themen wiederzukauen, führt zu rein gar nichts. Wenn's Euch stört (was legitim ist), schreibt euer Anliegen direkt an ATI, dann ändert sich vielleicht etwas. Hier führt's garantiert nur zu Sticheleien und Sperrungen.

Ne. Dieses breitgetrete und rumnörgeln is das Beste überhaupt. Braucht man sich ja nur mal die Microruckler Geschichte anschauen. Wenn alle die Fresse halten und nen Brief an Ati schreiben ham die kein Problem damit. Solche Diskussionen hier, selbst wenn die Hälfte das schönredet/nicht sieht/whatever, führen dazu, dass den Karten da ein entsprechender Ruf angeheftet wird und mehr Leute (selbst die die es selber nicht sehen) sehen sich genötigt dies bei der Beurteilung der Karten dazu zu schreiben. Mundpropaganda halt. Ist wie stille Post am Ende komtm dann an, dass Ati irgendwie viel schlechter 'anistrep filetriert als wie den nvidia KArten.' Das wirkt sich dann auch aufs Kaufverhalten aus.
Und dann passiert auch was.

N0Thing
2010-04-22, 11:33:20
Mich würde interessieren, wie die Leute, die sich ab einem stellenweise flimmernden AF stören, eigentlich spielen. Die Immersion findet bei solchen Spielern ja leider offenbar nicht statt. Das wiederum erhärtet den Verdacht, dass gerade Enthusiasten die Spiele gar nicht spielen, sondern bestenfalls "anzocken" und nach Schwachstellen suchen. Zudem ist die Flimmerneigung angeblich auch vom Monitor abhängig. Es ist also nicht jeder, der mit dem ATI-AF zufrieden ist, ein Dummkopf oder eine blinde Kuh. Er spielt vielleicht anders, hat nicht den entsprechenden Monitor oder akzeptiert schlicht und ergreifend diese kleine Schwachstelle der RV8XX Chip Reihe


Mir ist bei HL2 mit einer GeForce 6800 das Flimmern von Texturen massiv negativ aufgefallen. Dachte damals aber, dies würde einfach am Spiel liegen. Über die Artikel von 3DCenter hab ich dann die wahren Gründe erfahren und ein paar Monate später war das Spielerlebnis mit einer X1950GT deutlich angenehmer. Es ist einfach eine Frage der persönlichen Wahrnehmung und ob einen das Flimmer überhaupt stört. Es hat nichts mit Dummheit, Blindheit oder etwas in der Art zu tun.

N0Thing
2010-04-22, 11:47:42
Ne. Dieses breitgetrete und rumnörgeln is das Beste überhaupt. Braucht man sich ja nur mal die Microruckler Geschichte anschauen. Wenn alle die Fresse halten und nen Brief an Ati schreiben ham die kein Problem damit. Solche Diskussionen hier, selbst wenn die Hälfte das schönredet/nicht sieht/whatever, führen dazu, dass den Karten da ein entsprechender Ruf angeheftet wird und mehr Leute (selbst die die es selber nicht sehen) sehen sich genötigt dies bei der Beurteilung der Karten dazu zu schreiben. Mundpropaganda halt. Ist wie stille Post am Ende komtm dann an, dass Ati irgendwie viel schlechter 'anistrep filetriert als wie den nvidia KArten.' Das wirkt sich dann auch aufs Kaufverhalten aus.
Und dann passiert auch was.

Ich denke auch nicht, daß eine Diskussion in einem (diesem) Forum dazu führt, daß ATI irgend etwas ändern wird. Sachliche Artikel (die z.B. bei Geizhals verlinkt werden) bringen mehr und erreichen deutlich mehr Personen.

Das Problem erscheint mir eher darin zu liegen, daß im englischsprachigen Raum das Thema AF gar kein Thema ist. In Reviews meist nur eine Randnotiz, ein Test mit der AF Blume, das wars.

Damit sich etwas ändert, müssen wohl mehrere (viele) Leute direkt bei AMD fordern, daß bei den AF-Samples nicht mehr gespart wird.
Falls es so sein sollte, daß die AF-Filterung von der Hardware liegt und keine Begrenzung mit Treiber dafür verantwortlich ist, muß man so oder so erst einmal auf den Nachfolger der aktuellen Architektur warten. Bis dahin wird AMD wohl nichts mehr am Design ändern.

Iruwen
2010-04-22, 11:53:44
Mich würde interessieren, wie die Leute, die sich ab einem stellenweise flimmernden AF stören, eigentlich spielen. Die Immersion findet bei solchen Spielern ja leider offenbar nicht statt.

Gerade das Flimmern stört die Immersion aber leider sehr, deutlich mehr als schlechter Content, unrealistische Szenarien usw. weil man aus der Realität genau weiß wie z.B. ein Feldweg auszusehen hat.

Riipa
2010-04-22, 12:44:02
Mich würde interessieren, wie die Leute, die sich ab einem stellenweise flimmernden AF stören, eigentlich spielen. Die Immersion findet bei solchen Spielern ja leider offenbar nicht statt. Das wiederum erhärtet den Verdacht, dass gerade Enthusiasten die Spiele gar nicht spielen, sondern bestenfalls "anzocken" und nach Schwachstellen suchen.

Ich hatte eine 6800 GT und das Flimmern hat mich beim Spielen angekotzt. Es verging viel Zeit, ich stieg von einer 8800 GTS 640 auf eine 4890 um, das Flimmern lag gedanklich weit hinter mir - und nach circa fünfzehn Minuten spielen habe ich geflucht wie ein Bierkutscher, weil mir schon der erste Ausritt in WoW fieses Geflimmer brachte.

In diesem Sinne: Man muss nicht nach Fehlern suchen, die einen förmlich anspringen.

Frank1974
2010-04-22, 13:07:04
Gähn, wieder ne AF Debatte.

Spielt Spiele und schaut nicht auf dumme Pixel, deren Flimmern meist eher am Content als an der Karte liegt.

Die AF Qualität bei AMD ist gut genug.

Wenn man schon so ankommt, dann braucht man wohl deiner Meinung überhaupt nichts mehr an der BQ machen, oder?

[Ironiemodus an]
Bleiben wir gleich bei, 4xMSAA als höchstes wählbar, Effekte sind auch gut genug, kann also alles so bleiben, bessere Grafik als jetzt braucht man nicht, dann können Nvidia und ATI, jetzt aufhören GK zu produzieren, so hört sich das bei dir an, mehr braucht man nicht... [Ironiemodus aus]

Das AF kann gar nicht gut genug sein, selbst das von Nvidia flimmert mir noch zu viel.

Und ich sehe das so, das die Grafikkarten Hersteller, mit den Entwicklern zusammen arbeiten und die Treiber genau anpassen, es gibt viel zu viele Unterschiedliche Systeme, die Entwickler können da gar nicht auf alle Karten von ATI oder Nvidia alles anpassen, umgekehrt haben es ATI und Nvidia viel leichter die Anpassungen vor zu nehmen, weil sie alle ihre Karten bestens kennen, Nvidia macht das ja auch sehr gut mit ihrem Programm, aber ATI will ja nichts investieren, die interessieren sich gar nicht für den Kunden.

@Tropic
Und zu Metro wird immer gesagt es sei ein NV Spiel, wo sind Handfeste Beweise dafür, was in Foren als Hörensagen gepostet wird, oder von pro ATI Seiten, das ist alles kein Beweis.
Vielleicht ist es so, vielleicht aber auch nicht, das sind alles nur Spekulationen.

Noch mal zum AF, für mich ist es der wichtigste Schalter überhaupt, ohne hat man nur Matsch und mit sollte es schön Scharf sein, wenn es geht ohne zu flimmern.

Das AA ist mir aber auch sehr wichtig, 4x sollte Minimum sein, aber je mehr desto besser, Spiele die kein AA bieten, kann man aber wenigstens mit Downsampling spielen, wenn man eine NV Karte hat, das ist auch keine Fummelarbeit, das sollte jeder Anfänger können, mit der Beschreibung in Dargo seinem Thread, das meiste davon wusste ich sogar ohne Beschreibung, nur mit DX10 Games brauchte ich die Hilfe.

Und ich finde das alles irgendwie zum Thema passt, weil wenn einer sagt das AF von ATI ist gut genug, dann kann man gleich aufhören, neue oder verbesserte Effekte an zu bieten, ich will aber so etwas nicht, jede Verbesserung zählt für mich.
ATI fühlt sich ja bestätigt mit ihrem LowQ AF, wenn sie überall lesen, das ist doch gut genug, so etwas darf einfach nicht sein.

Ich bin schon fast 36 Jahre alt, ich weiß nicht wie viele Jahre ich noch am PC spielen werde, ich würde gerne noch sehen, das man, eine Highend Karte vorausgesetzt, in jedem Game ohne das kleinste flimmern spielen kann, also in Bewegung so flimmerfrei wie auf einem Foto, nicht mit fotorealistisch verwechseln, das wird es wohl nie geben, die echte Welt hat einfach zu viele Details.
Und auch die Farben wird ein Monitor nie so wiedergeben können, man wird immer erkennen was ein Spiel ist, glaube ich zumindest.

mfg
Frank

boxleitnerb
2010-04-22, 14:31:32
Man müsste auch die Spielehersteller etwas mehr sensibilisieren.

Beispiel Just Cause 2: Ist es normal, dass selbst auf HQ die Straßentexturen heftig flimmern? Ich klettere grad in den Bergen rum und das ist echt übelst!

Raff
2010-04-22, 14:33:33
Das liegt nicht am Texturfilter, die Entwickler scheinen da irgendwelche gänzlich weltfremden Shader anzuwenden, gegen die nur Supersampling hilft. Dumm nur, dass das Spiel D3D10 nutzt ...

MfG,
Raff

Gast
2010-04-22, 14:44:58
Ich hatte eine 6800 GT und das Flimmern hat mich beim Spielen angekotzt. Es verging viel Zeit, ich stieg von einer 8800 GTS 640 auf eine 4890 um, das Flimmern lag gedanklich weit hinter mir - und nach circa fünfzehn Minuten spielen habe ich geflucht wie ein Bierkutscher, weil mir schon der erste Ausritt in WoW fieses Geflimmer brachte.

In diesem Sinne: Man muss nicht nach Fehlern suchen, die einen förmlich anspringen.
Schön gesagt. Das Geflimmer, Gespringe, Geblinke springt einen Menschen mit gesunder Wahrnehmung immer ins Auge. Deshalb wird ja auch Internetwerbung animiert und man wird sofort auf sie aufmerksam, obwohl sie außerhalb des Sichtbereichs positioniert ist.

V2.0
2010-04-22, 17:30:57
Das liegt nicht am Texturfilter, die Entwickler scheinen da irgendwelche gänzlich weltfremden Shader anzuwenden, gegen die nur Supersampling hilft. Dumm nur, dass das Spiel D3D10 nutzt ...

MfG,
Raff

Und das meine ich, bei aller Kritik an der Hardware darf man die Contententwickler nicht vergessen.

Gast
2010-04-22, 17:56:30
Gittertexturen usw. sehen imho immer schlecht aus, unabhängig welche Karte da filtert. Wenn man das verhindern will muss man Gitter eben als 3D Objekte nachbilden und dann verschwindet das Problem von ganz alleine.


Ähm sicher, wenn man nur mehr 4-8AA-Samples zur Verfügung hat macht das sicher weniger Probleme als ordentliche Texturfilterung

Coda
2010-04-22, 17:58:26
Das liegt nicht am Texturfilter, die Entwickler scheinen da irgendwelche gänzlich weltfremden Shader anzuwenden, gegen die nur Supersampling hilft. Dumm nur, dass das Spiel D3D10 nutzt ...
Dumm ist da relativ zu sehen. Humus hat gemeint, dass es dadurch fast doppelt so schnell läuft als mit der D3D9-Engine.

Kann mal jemand erklären, warum trotz der absoluten Winkelunabhängigkeit bei ATI zu den entsprechenden Effekten kommt?
Weil die Abtastung damit nichts zu tun hat.

Die Winkelunabhängigkeit besagt nur, dass an jeder Stelle immer der maximal mögliche AF-Grad angewendet wird, z.B. 16:1.

Wenn sie bei 16:1 tri-AF aber beispielsweise 12 mal brilinear die Textur samplen, dann flimmert es eben. Sie sparen sich aber fast 50% der nötigen Bandbreite und 4 8 Takte.

Gast
2010-04-22, 18:02:59
Und wenn Nv mit der extrem erhöhten Dreiecksleistung der GF100 dafür sorgt, dass wir an solchen Stellen in Zukunft echte Gitter sehen und Tesselation uns echte 3D Kieselsteine schenkt, dann werde ich sie dafür ewig feiern, sicher weit mehr als für den Unterschied im Texturfilter.

Geometrie wird immer deutlich stärker zum Flimmern neigen, als eine ordentlich gefilterte Textur, so viel Antialiasing kannst du gar nicht einstellen, dass ein feines Gitter mit echter Geometrie flimmerfrei wäre.

Coda
2010-04-22, 18:04:37
Selbstverständlich kann man das einstellen. Die Geometrie muss nach dem Abtasttheorem eben eine halb so hohe Frequenz haben wie die Samplefrequenz.

Bei 4xAA kann man durchaus eine Kante pro Pixel sauber darstellen (vor allem wenn man nicht einen Boxfilter verwendet). Die Applikation muss eben mit LOD dafür sorgen, dass dies nicht überschritten wird.

LovesuckZ
2010-04-22, 18:59:00
Dumm nur, dass das Spiel D3D10 nutzt ...

MfG,
Raff

Nö, dumm nur, wenn man eine Nicht-"GF100"*-Karte besitzt. Ich habe hier mit 8xTSSSAA kein Flimmern.


* oder keine nVidia-Hardware.

Gast
2010-04-22, 19:43:25
Die Applikation muss eben mit LOD dafür sorgen, dass dies nicht überschritten wird.

Dummerweise gibt es aber für Geometrie (noch) kein automatisches LOD.

Raff
2010-04-22, 20:13:09
Nö, dumm nur, wenn man eine Nicht-"GF100"*-Karte besitzt. Ich habe hier mit 8xTSSSAA kein Flimmern.


* oder keine nVidia-Hardware.

Doch, hast du. Im Spiel gibt's einige Stellen, die ganz eigen-/abartig flimmern. Das hatte ich in der Demo auf meiner GTX 280 in der Heimat auch. Gottseidank ist das nicht überall so ... aber das wäre aufgefallen. X-D

MfG,
Raff

Coda
2010-04-22, 20:23:20
Dummerweise gibt es aber für Geometrie (noch) kein automatisches LOD.
Das wird es auch (im Allgemeinen) nie geben, aber ich kenne kaum ein Spiel das heutzutage kein LOD mehr einsetzen würde.

Iruwen
2010-04-22, 23:15:38
Wieso wird es das nie geben?

Kant
2010-04-23, 00:30:04
Wieso wird es das nie geben?

Bei Texturen, also mipmaps, hat die grafik-karte jederzeit alle Informationen zur Verfügung, und die Generierung der Detail-Stufen, bzw das wechseln auf diese, ist schnell, einfach, und automatisch durchzuführen.

Bei Geometrie-Daten kennt der Vertex-Shader zu jedem Zeitpunkt nur einen einzigen Eckpunkt, und auch im Geometrie Shader hat man nur sehr begrenzten Zugriff auf die restliche Szene. Außerdem hat eine Vertex ja meist weitaus mehr Informationen als nur die reine Position (Textur koordinaten, Shader-Parameter, etc)
Dazu kommt noch, das die Reduktion von Geometrie weitaus komplexer als das runterrechnen von Texturen ist, und selbst bei (nicht-Echtzeit) Modelling Software mitunter bizarre Ergebnisse bringt.

In der Engine selbst hingegen, lässt sich sehr einfach die Darstellungsgröße des zu zeigenden Meshs berechnen, und entsprechend das Mesh in jeweiliger Detailstufe zum rendern schicken. Von der Implementation einfach, von der Geschwindigkeit optimal... Einzig der Grafiker/Modeller muss halt mehrere Detailsstufen erstellen. (Hat somit aber auch die volle Kontrolle über die Darstellung)

Dicker Igel
2010-04-24, 20:08:20
Wenn man Tesselation dementsprechend einsetzt, könnte es funktionieren.
Man baut alle Modelle lowpoly und pustet sie in einem gewissen Sichtbereich auf, dabei könnte man ja sogar einen linearen, oder dynamischen Übergang schaffen.
Aber ob die derzeitigen GPU's das dann packen ...

Coda
2010-04-24, 20:21:59
Wieso wird es das nie geben?
Weil der Rechner zu doof dazu ist festzustellen welche Polygone er wegkürzen kann.

Es gibt zwar gute Algorithmen die die Silhouette möglichst gut erhalten, aber nichts was wirklich funktionieren würde.

Wenn man Tesselation dementsprechend einsetzt, könnte es funktionieren.
Man baut alle Modelle lowpoly und pustet sie in einem gewissen Sichtbereich auf, dabei könnte man ja sogar einen linearen, oder dynamischen Übergang schaffen.
Aber ob die derzeitigen GPU's das dann packen ...
Ja, das ist noch der vielversprechendste Ansatz. Auch wenn man dann das Low-Resolution-Model immer noch selber machen muss und das Displacement-Mapping auch seine Einschränkungen hat.

Dicker Igel
2010-04-24, 20:49:39
Kommt nun drauf an wie man es texturiert, aber normalerweise sollten ja alle Maps auch noch auf das "aufgepustete" Objekt passen, da ja die Größe nicht verändert wird.
Man hat halt mehr Polys + Vertices, die UV Map sollte noch passen.
Durch die Tesselation sollten die Normals halt nicht leiden, das Lowpoly Objekt muss darauf ausgelegt sein, was ich mir ziehmlich aufwendig vorstelle, grade wenn man ein ganzes Game damit befüllt.

dllfreak2001
2010-05-03, 11:52:32
http://www.abload.de/thumb/16afddaw.jpg (http://www.abload.de/image.php?img=16afddaw.jpg)

Mit einer ATI Radeon HD 4570 Mobile 16xAF

Blaire
2010-05-07, 02:50:19
Zufällig entdeckt, hier wurden auch diverse Unregelmäßigkeiten auf 5870 Karten aufgedeckt.
http://extrahardware.cnews.cz/test-geforce-gtx-480-iii-directx-11-anti-aliasing-pretaktovani-overclock
http://extrahardware.cnews.cz/files/images/clanky/2010/04duben/geforce_gtx_480_3/iq/ache/ut3_hd5870_16afy6fw.jpg

^^ Ein Schelm wer böses dabei denkt. :wink:

Raff
2010-05-07, 09:02:06
Interessant, aber nicht wirklich neu. :) In Just Cause 2 habe ich auch schon eindeutiges Banding gesehen. Dort ist's allerdings verschmerzbar, da es nur auf bestimmten Oberflächen in Kombination mit Dämmerungslicht auftritt. Und mit Supersampling via Tool ist's kaum wahrnehmbar.

MfG,
Raff

Fetter Fettsack
2010-05-07, 09:36:53
Und mit Supersampling via Tool ist's kaum wahrnehmbar.

Wenn ich mich da kurz einmischen darf: welches Tool meinst du da?

Raff
2010-05-07, 09:44:33
Das hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481802 (rockt!) =) Höhere Auflösungen schieben das Banding Richtung Horizont.

MfG,
Raff

Fetter Fettsack
2010-05-07, 12:22:16
Danke sehr, Raff =) .

Ronny145
2010-05-07, 12:34:52
Hat jemand Oblivion? Ich würde ganze gerne anhand Tombmans save sehen wie der Boden auf Nvidia Karten aussieht.

Fetter Fettsack
2010-05-07, 14:45:43
Oblivion ja, potente (nVidia-)Karte leider nein.^^

@topic

Würde sich die Qualität des ATi AFs merkich verändern, wenn man ihm mit dem Tool, das Raff gepostet hat, zu Leibe rückt?

Gast
2010-05-07, 15:05:16
Das hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481802 (rockt!) =) Höhere Auflösungen schieben das Banding Richtung Horizont.

Kommt der Effekt durch das Downsampling zustande oder würde es den gleichen Effekt auch geben, wenn beispielsweise ein Monitor eine extrem hohe Pixeldichte aufweisen würde?
Nichtsdestotrotz (ich liebe dieses Wort) wäre es um Welten effzienter, wenn ATI endlich diese Kindergartenspiele lassen würde und normal Filtern würde. Erst den Filter versauen, um dann mit Hochsamplen und Wiedereindampfen die Schäden zu bekämpfen bei brutalen Fps-Einbußen, die um Welten höher sind, als die AF-Optimierungen gebracht haben, ist hirnrissig
Da ist ja Multi-GPU hingegen ja noch Effizienz und Vernunft pur.
Ich hoffe, die Entscheidungsträger bei ATI setzen bald mal wieder ihre Brille auf, um zu sehen, dass ihre Optimierungen für jeden sichtbar sind und extrem stören. Vielleicht sollte man lieber die Texturen ganz ausblenden, bringt fps und Texturen sind eh unwichtig. Hauptsache aalglatte Polygone. Das ist ja wohl ATI's Motto.

Grestorn
2010-05-07, 16:06:10
Hat jemand Oblivion? Ich würde ganze gerne anhand Tombmans save sehen wie der Boden auf Nvidia Karten aussieht.

Hast Du nen Link zu dem Save zur Hand?

Ronny145
2010-05-07, 16:29:01
Hast Du nen Link zu dem Save zur Hand?

http://www.file-upload.net/download-2496880/Save-22---tombriel.rar.html


4xAA 16xAF AI Standard (leider nur 1280x1024)

http://s10.directupload.net/images/100507/temp/czuuklr4.png (http://s10.directupload.net/file/d/2152/czuuklr4_png.htm)

Blaire
2010-05-07, 17:14:47
Das hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481802 (rockt!) =) Höhere Auflösungen schieben das Banding Richtung Horizont.


Glaub ich dir gerne Raff, dennoch bin ich der Meinung das Ati hier viel zu gut bei wegkommt, das nimmt schon Züge von Nvidia früherer Tage an, wenn ich das sehe! Klar wieder mal wird argumentiert es seien nur Bugs...klar ganz zufällig zum GTX480 Launch. :wink: Denen sollte mal richtig auf die Finger gehaun werden, damit dieser Scheiss endlich aufhört, die Karten haben soviel Power das solche Tricksereien völlig unnötig sind. Und ohne richtig Kritik scheinen die das nicht zu begreifen, Hauptsache Improvements Improvements Improvements...Nvidia hat daraus gelernt, während Ati so ziemlich einen Freibrief zu haben scheint und das kann nicht sein.
Ein 1.Schritt wäre einen älteren Treiber zu nutzen, wo diese Optimierungen nicht zu sehen sind (falls es das überhaupt jemals der Fall war). Ansonsten sind das keine fairen Vergleiche, in der neuen PCGH Hardware wird z.b. Crysis normal gebencht und mit den GTX4x0 vergleichen, obwohl die "Optimierungen" deutlich zu sehen sind, das ist weder fair, noch vergleichbar.

Grestorn
2010-05-07, 20:20:46
http://www.file-upload.net/download-2496880/Save-22---tombriel.rar.html

Hier ist das gewünschte Movie aus Oblivion. 1280x800, 16xAF (Treiber), 4x AA (Treiber), im Spiel alles auf Maximum.

www.nhancer.com/downloads/Oblivion_tombman.avi

Gast_samm
2010-05-07, 20:35:30
Schön, dass sich nun auch nVidia-Vergleiche einfinden! *movie lad*

Grestorn
2010-05-07, 20:38:29
Wenn gewünscht mach ich noch ein Video aus GTA IV: SFLC. Crysis Warhead habe ich nicht. Was wird sonst noch benötigt?

boxleitnerb
2010-05-07, 20:46:17
Der Clip stockt irgendwie. Hat das noch wer?

Grestorn
2010-05-07, 20:47:53
Wenn Du die Hüpfer nach links meinst: Das kommt weil der Spieler an zwei Objekten hängen bleibt. Ich wollte das nicht beheben, denn sonst wäre der Spielstand nicht reproduzierbar.

Ansonsten stockt es bei mir nicht - sonderlich rund läuft es aber auch nicht (auch nicht ohne SLI), liegt wohl an der Aufnahme durch FRAPS.

boxleitnerb
2010-05-07, 20:51:15
Ah, VLC war der Schuldige. WMP geht. War das Q oder HQ? Gegen Ende flimmert es an der Steintextur des Wegs schon sichtbar auf mittlere Entfernung.

Ronny145
2010-05-07, 21:02:06
Hier ist das gewünschte Movie aus Oblivion. 1280x800, 16xAF (Treiber), 4x AA (Treiber), im Spiel alles auf Maximum.

www.nhancer.com/downloads/Oblivion_tombman.avi


HQ im Treiber? Kannst du mal noch ein screenshot machen?

Grestorn
2010-05-07, 21:05:12
Argh! Tri Opt war an. Und ich Trottel schau nicht nach. Wie doof. Aber HQ war es schon. Soll ich das jetzt noch mal aufnehmen?

Ronny145
2010-05-07, 21:10:12
Die Stelle ist nicht so günstig zum Aufnehmen. Die Spielfigur müsste man so positionieren das er nirgends hängebleibt und das save nochmal abspeichern. Das Pferd ändert ja auch seine Position. Flimmert auf jeden Fall auch bei mir. Sind sonst Unterschiede auf dem Bild zu sehen?

Grestorn
2010-05-07, 21:13:31
Ich nehm das Video wieder runter (Kontingent sparen) und mach später ein neues, auch mit einem neuen Save, zum besseren Nachvollziehen.

Ronny145
2010-05-07, 21:21:49
Rechts der Weg zum Schluss könnte sich eignen. Der scheint auch Flimmeranfällig zu sein. Hattest du HDR aktiviert?

Grestorn
2010-05-07, 21:29:01
Hattest du HDR aktiviert?Ja, war an.

Gast
2010-05-07, 22:58:02
Argh! Tri Opt war an. Und ich Trottel schau nicht nach. Wie doof. Aber HQ war es schon.
Das geht doch gar nicht, oder haben die das geändert? Bei HQ waren doch automatisch die Tri-Opt. ausgeschaltet. Afaik gab es nur irgendwann mal einen Bug in OpenGL.

Grestorn
2010-05-08, 00:01:17
Das Control Panel schaltet TriOpt automatisch aus, wenn HQ an ist. Mit nHancer kann man das theoretisch getrennt steuern, wobei es nicht ganz klar ist, ob die Einstellung bei HQ auch eine Auswirkung hat. Ich schau mir das morgen mal an, vielleicht macht es wirklich keinen Unterschied.

Mr. Lolman
2010-05-08, 14:34:51
Argh! Tri Opt war an. Und ich Trottel schau nicht nach. Wie doof. Aber HQ war es schon. Soll ich das jetzt noch mal aufnehmen?

Trilineare Optimierung ist doch eh standardmäßig aktiv. (also auch bei allen Benchmarks). Wieso also abschalten, wenn man Vergleiche machen will?

Oder ists etwa ok, die für Benchmarks aktiv zu haben und bei BQ-Vergleichen jedoch nicht, oder wie jetzt?

Mr. Trollman
2010-05-08, 15:55:37
Oder ists etwa ok, die für Benchmarks aktiv zu haben und bei BQ-Vergleichen jedoch nicht, oder wie jetzt?
Natürlich ist beides okay. Für halbwegs faire Performancevergleiche bei vergleichbarer BQ sollte es an, für Vergleiche der maximal möglichen BQ dagegen aus sein. Wo liegt das Problem?

LovesuckZ
2010-05-08, 16:14:23
HQ kostet kaum noch etwas - CB.de ermittelte <= 2%. Es ist also fair HQ gegen A.I On in einem BQ Vergleich anzuwenden. Denn wir haben ja gelernt, dass im Balkendiagramm die BQ nur eine untergeordnete Rolle spielt.

Blaire
2010-05-08, 17:23:36
Denn wir haben ja gelernt, dass im Balkendiagramm die BQ nur eine untergeordnete Rolle spielt.

Man könnte bei Nvidia auch "Hohe Leistung" wählen, das bringt immerhin noch ein paar FPS. Wenn Bildqualität doch sowieso kaum noch eine Rolle spielt. :freak:

Raff
2010-05-09, 17:36:42
Glaub ich dir gerne Raff, dennoch bin ich der Meinung das Ati hier viel zu gut bei wegkommt, das nimmt schon Züge von Nvidia früherer Tage an, wenn ich das sehe! Klar wieder mal wird argumentiert es seien nur Bugs...klar ganz zufällig zum GTX480 Launch. :wink: Denen sollte mal richtig auf die Finger gehaun werden, damit dieser Scheiss endlich aufhört, die Karten haben soviel Power das solche Tricksereien völlig unnötig sind. Und ohne richtig Kritik scheinen die das nicht zu begreifen, Hauptsache Improvements Improvements Improvements...Nvidia hat daraus gelernt, während Ati so ziemlich einen Freibrief zu haben scheint und das kann nicht sein.
Ein 1.Schritt wäre einen älteren Treiber zu nutzen, wo diese Optimierungen nicht zu sehen sind (falls es das überhaupt jemals der Fall war). Ansonsten sind das keine fairen Vergleiche, in der neuen PCGH Hardware wird z.b. Crysis normal gebencht und mit den GTX4x0 vergleichen, obwohl die "Optimierungen" deutlich zu sehen sind, das ist weder fair, noch vergleichbar.

Von mir gibt's erst einen Freibrief, wenn der erarbeitet wurde.

HQ kostet kaum noch etwas - CB.de ermittelte <= 2%. Es ist also fair HQ gegen A.I On in einem BQ Vergleich anzuwenden. Denn wir haben ja gelernt, dass im Balkendiagramm die BQ nur eine untergeordnete Rolle spielt.

HQ kostet auf einem GF100 aber mehr als auf einem GT200 (im schlimmsten Fall das Doppelte). AF ist auf einem Furby generell teurer geworden. Kein Wunder beim neuen ALU-TMU-Verhältnis.

Man könnte bei Nvidia auch "Hohe Leistung" wählen, das bringt immerhin noch ein paar FPS. Wenn Bildqualität doch sowieso kaum noch eine Rolle spielt. :freak:

Du wirst vielleicht lachen oder weinen, aber in Crysis Warhead sieht IMO selbst High-Performance-AF inklusive aller Optimierungen ähnlich "gut" aus wie das, was eine HD 5000 produziert. Die Radeon flimmert etwas weniger (das lässt sich via A.I. Erweitert ausgleichen), dafür produziert die GeForce kein so offensichtliches Banding. :ulol: Wer sowieso mit SSAA spielt, der kann alle "Optimierungen" anknipsen und sich über die etwas höhere Bildrate freuen. Paradox, aber funktionell ...

MfG,
Raff

Schlammsau
2010-06-11, 19:41:55
Ich lade gerade 3 Videos hoch.... :naughty:

Schlammsau
2010-06-11, 21:12:57
Sooooo das erste ist On:
Warhead@DX9@High, 1920x1080, 4xAA, 16xAF, A.I. Off ....besser gehts (leider) nicht!
http://www.megaupload.com/?d=YI8TZN1A

Hier das Savegame zum gegentesten:
http://www.megaupload.com/?d=DOQFPDB9

Und bitte mit dem WMP anschauen, im VLC zB ist das Video zu dunkel und das flimmern wird verstärkt. Bei mir sieht das Video nur im Windows Media Player genauso aus wie Ingame!

Wäre schön, wenn ein GeForce Besitzer, ein Q (Default Einstellung) und ein HQ Video uppen würde.

Dimon
2010-06-11, 21:18:58
Nimm noch Fallout 3 zum Vergleich :biggrin:

Da Flimmern Radeons unglaublich stark, Geforce Grakas dagegen kaum...

Schlammsau
2010-06-11, 21:24:28
Nimm noch Fallout 3 zum Vergleich :biggrin:

Da Flimmern Radeons unglaublich stark, Geforce Grakas dagegen kaum...

Das Game hab ich nicht.

boxleitnerb
2010-06-11, 21:38:13
Kann mir jemand verraten, wieso ich immer nur 236MB laden kann?

Schlammsau
2010-06-11, 22:50:55
Sooooo das erste ist On:
Warhead@DX9@High, 1920x1080, 4xAA, 16xAF, A.I. Off ....besser gehts (leider) nicht!
http://www.megaupload.com/?d=YI8TZN1A

Hier das Savegame zum gegentesten:
http://www.megaupload.com/?d=DOQFPDB9

Und bitte mit dem WMP anschauen, im VLC zB ist das Video zu dunkel und das flimmern wird verstärkt. Bei mir sieht das Video nur im Windows Media Player genauso aus wie Ingame!

Wäre schön, wenn ein GeForce Besitzer, ein Q (Default Einstellung) und ein HQ Video uppen würde.

Und hier mit der schlechtesten Quali.
Warhead@DX9@High, 1920x1080, 4xAA, 16xAF, A.I. Advanced, Optimierungen on ....schlechter gehts nicht!
http://www.megaupload.com/?d=BA112N47

Schlammsau
2010-06-11, 23:27:50
Was los?
Überzeugt mich davon das Q deutlich besser als A.I. Standard (Off) ist.

Gast
2010-06-11, 23:29:32
Du glaubst doch sowieso nur was du glauben willst, ATI Fanboy vom Dienst im 3DC.

Gast
2010-06-11, 23:33:28
Was los?
Überzeugt mich davon das Q deutlich besser als A.I. Standard (Off) ist.
Wozu.
HQ interessiert dich nicht. AI-on der HD2,3,4 oder 5 ist für dich voll in Ordnung.

Da muss man dich nicht bekehren. Allerdings versteh ich nicht, warum du auf einmal AI-on als so toll stellen musst, toller als Q. Als ob das ein Unterschied für dich wäre, wenn das eine unwichtig ist, ist es beides.

hq-hq
2010-06-11, 23:34:29
LoL, ich hab leider warhead nicht... hat auch keiner von dem ich's leihen könnte ;)

Bucklew
2010-06-11, 23:54:18
Da muss man dich nicht bekehren. Allerdings versteh ich nicht, warum du auf einmal AI-on als so toll stellen musst, toller als Q. Als ob das ein Unterschied für dich wäre, wenn das eine unwichtig ist, ist es beides.
Naja, bei seinem Monitor sieht er eh keinen Unterschied zwischen A.I. on, A.I. off, Q, HQ, 1920x1080 oder 640x480 - lassen wir ihm seinen Spaß :biggrin:

Schlammsau
2010-06-12, 09:43:57
LoL, ich hab leider warhead nicht... hat auch keiner von dem ich's leihen könnte ;)
Und Crysis?

Schlammsau
2010-06-12, 12:09:24
Und hier noch eins mit 8xSGSSAA und 16xAF
http://www.megaupload.com/?d=YUM1VEIQ
viel Spass!

Und bitte mit dem WMP anschauen, im VLC zB ist das Video zu dunkel und das flimmern wird verstärkt. Bei mir sieht das Video nur im Windows Media Player genauso aus wie Ingame!

Schlammsau
2010-06-12, 12:54:35
Wasn los? 24 Downloads des ersten Videos und kein Kommentar dazu bzw ein Video einer GeForce?

Los Leute....macht ein Video und stellt es rein. Ich will Q (Treiber Default) in Aktion sehen.

Ich weiss das diese Szene echt gemein ist und sie flimmert deutlich auf Radeons.

Vertigo
2010-06-12, 13:00:46
Ich weiss das diese Szene echt gemein ist und sie flimmert deutlich auf Radeons.
Wie das? Hast du jetzt einen neuen Monitor? Es gibt doch nun wirklich reichlich Vergleichsvideos u. a. auf der aktuellen PCGH-DVD und das Thema ist allgemein nicht sonderlich neu. Lass es doch einfach gut sein. Du bist ATI-Fanboy und das ist cool, Mann! :up:

Schlammsau
2010-06-12, 13:08:33
Wie das? Hast du jetzt einen neuen Monitor? Es gibt doch nun wirklich reichlich Vergleichsvideos u. a. auf der aktuellen PCGH-DVD und das Thema ist allgemein nicht sonderlich neu. Lass es doch einfach gut sein. Du bist ATI-Fanboy und das ist cool, Mann! :up:

Und der nächste der den andren Thread nicht verstanden hat! :rolleyes:
Wenn es wirklich so ist, dass das schlechtere AF wenn dann nur mit einem sehr teuren TFT wahrgenommen wird, bzw. derart ausgeprägt ist, ist es ein muss die Leute daruf hinzuweisen!
So wie ich.....ich lese hier immer von krassen Unterschieden, aber sie sind mir nach wie vor noch nicht wirklich ins Auge gesprungen.

Meiner Meinung nach ist Q mit A.I. On vergleichbar!
HQ ist A.I. Off überlegen.
Und primär ging es mir um diese Aussage von Blaire:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8080008#post8080008
Auch wenn immer gesagt wird, das Quality mit Ai Standard vergleichbar wäre, das stimmt einfach nicht. In Coda`s Filtertester ist selbst Quality deutlich besser und weniger flimmeranfällig. Da kommt viel zu wenig Kritik es wird alles so hingenommen..

Ich will beweise sehen wo Q (Treiber Default) deutlich besser sein soll als ATis A.I. On!

Wie bereits oben geschrieben.....HQ ist besser als A.I. On!


Und eigentlich kann ich kein richtiger Fanboy sein, wenn ich momentan zu einer 470 greifen würde, weil ich sie für interessanter halte. ;)

Gast
2010-06-12, 13:09:34
Wasn los? 24 Downloads des ersten Videos und kein Kommentar dazu bzw ein Video einer GeForce?

Los Leute....macht ein Video und stellt es rein. Ich will Q (Treiber Default) in Aktion sehen.

Ich weiss das diese Szene echt gemein ist und sie flimmert deutlich auf Radeons.
Mal ein kleiner Denkanstoss: Vielleicht mag sich keiner die Mühe machen, weil du schon oft genug bewiesen hast, wie beratungsresistent du bist?

-> "Ich habe mir meine Meinung bereits gebildet, bitte verwirren Sie mich nicht mit Fakten".

-carsten

Sentionline
2010-06-12, 13:11:05
Wäre schön, wenn ein GeForce Besitzer, ein Q (Default Einstellung) und ein HQ Video uppen würde.
Bin jetzt zufällig auf das Thema aufmerksam geworden und wie man weiss steuere ich gerne gegen. Hab allerdings nur eine GTS250. Videos kann ich heute abend mal welche machen. Muss mir erstmal dein Warhead Video ansehen und demnach das gleiche tun.

Sag mir bitte welche Spiele du zum Vergleich hast, dann kann ich mal schauen welche ich davon hab.

Mit was nimmst du auf? Fraps?

Im Grunde hab ich beide Lager hier. Ich setz mich heute abend mal einpaar Stunden dran.

mfg

Megamember
2010-06-12, 13:13:17
Ich will beweise sehen wo Q (Treiber Default) deutlich besser sein soll als ATis A.I. On!

Wie bereits oben geschrieben.....HQ ist besser als A.I. On!


)

Und genau das gibts als Vergleichsvideos mit Splitecreen in der PCGH 6/2010 CD zu sehen (480 vs 5870). Ati flimmert, Nvidia nicht, Punkt.
Erst als man (SG)SSAA angestellt hat hat sichs ausgeflimmert.

puntarenas
2010-06-12, 13:18:42
Was los?
Überzeugt mich davon das Q deutlich besser als A.I. Standard (Off) ist.
Vermutlich glaubt kein Mensch mehr, dass du tatsächlich an einer Aufklärung interessiert bist, ganz besonders seit du dich neulich auf deinen kaputten Monitor und deine Sehschwäche herausgeredet hast.

Sich mit dir zu beschäftigen ist Zeitverschwendung und zum Thema Filtercheats wurde alles gesagt. So lange ATI im Teiber keine Möglichkeit bietet, die Qualitätseinsparungen zu deaktivieren, taugen die Karten eben nicht für höchste Qualitätsansprüche. Eine Qualitätsliga weiter unten mögen sie eine gute Wahl darstellen, aber das ist ja unbestritten.

In den Kommentaren zum Zotac GeForce GTX 470 & 480 Review (http://www.3dcenter.org/artikel/zotac-geforce-gtx-470-480-review) bringt aths ein Kernproblem vieler Grafikkartenreviews auf den Punkt:

Wenn die Framerate im Zusammenhang mit AF sinkt, ist das kein Verlust an Leistung. Es ist ein Verlust an Framerate. Aber bei besseren Pixeln. Es ist doch keine gute Leistung, zwar viele Frames zu liefern aber mit schlecht berechneten Pixeln.

Radeons spielen hinsichtlich der maximal möglichen Bildqualität streng genommen einfach in einer anderen Liga und für einen Bildqualitätsvergleich zwischen Radeon-AF und Nvidia Q interessiert sich doch keine bildqualitätsbewusste Sau. Rein akademisch ist das zwar natürlich eine legitime Fragestellung, aber da sie dir ohnehin nur dazu dienen soll, deine Relativierungskampagne weiterzureiten, hoffe ich dass niemand darauf einsteigt.

Nvidia geriet beim SGSSAA ins Hintertreffen und hat reagiert. Mit einem Wettbewerb um reine Balkenlänge ist niemandem gedient, wir bräuchten zwei Hersteller, die auch an der Bildqualitätsfront konkurrieren.

Gast
2010-06-12, 13:19:28
Wasn los? 24 Downloads des ersten Videos und kein Kommentar dazu bzw ein Video einer GeForce?

Kein Warhead zur Hand.
Hast du schonmal gefragt. Nimm einfach mal was anderes gängigeres. Gibt doch mehr als nur Crysis xy.

Natürlich ist Crysis sehr geschickt, weil AMD hier nachweißlich schlechter als üblich filtert. Aber was soll man tun wenn mans nicht hat. Naja, mit ein Grund das ich die meisten Reviews für Müll halte, wenn dort Cheatspiele die mich nicht interessieren getestet werden.

Schlammsau
2010-06-12, 13:20:32
Bin jetzt zufällig auf das Thema aufmerksam geworden und wie man weiss steuere ich gerne gegen. Hab allerdings nur eine GTS250. Videos kann ich heute abend mal welche machen. Muss mir erstmal dein Warhead Video ansehen und demnach das gleiche tun.

Sag mir bitte welche Spiele du zum Vergleich hast, dann kann ich mal schauen welche ich davon hab.

Mit was nimmst du auf? Fraps?

Im Grunde hab ich beide Lager hier. Ich setz mich heute abend mal einpaar Stunden dran.

mfg
Schön.....
Da das AF ja nicht angerührt wurde, ist das kein Problem.

Momentan hab ich:
Crysis
Crysis Warhead
Crysis Wars
DiRT2
HAWX
Serious Sam HD - First Encounter
UT 3
Street Fighter IV
Half Life Cinematic Mod 1-3
Half Life - Lost Coast
CoD4 - MW2

Videos hab ich mit Fraps aufgezeichnet.
Wichtig ist, dass du die Videos mit spielbaren Frameraten aufnimmst. Je schneller desto besser. Abspielen musst du die Videos dann mit dem WMP, weil die Videos im VLC zB zu dunkel sind und bei mir zumindest das flimmern verstärkt wird.

Schlammsau
2010-06-12, 13:24:02
Und genau das gibts als Vergleichsvideos mit Splitecreen in der PCGH 6/2010 CD zu sehen (480 vs 5870). Ati flimmert, Nvidia nicht, Punkt.
Erst als man (SG)SSAA angestellt hat hat sichs ausgeflimmert.
Kann man diese Videos Online beziehen?

Sentionline
2010-06-12, 13:24:32
Momentan hab ich:
Crysis Warhead
Street Fighter IV
CoD4 - MW2
Mit denen kann ich dienen und ich schau mal was ich machen kann. Im Grunde ist das ein Kampf der Krümmel, das auch noch viel Arbeit kostet. Zudem schwierig zu realisieren für den Privatmann, weil die Programme und Equipment fehlt.

Ich werds aber einmal für dich machen. Kann ja nicht so schwer sein... :)

Schlammsau
2010-06-12, 13:35:36
Mit denen kann ich dienen und ich schau mal was ich machen kann. Im Grunde ist das ein Kampf der Krümmel, das auch noch viel Arbeit kostet. Zudem schwierig zu realisieren für den Privatmann, weil die Programme und Equipment fehlt.

Ich werds aber einmal für dich machen. Kann ja nicht so schwer sein... :)
:smile:

Raff
2010-06-12, 13:36:40
Kann man diese Videos Online beziehen?

Nein. Jedenfalls noch nicht.

MfG,
Raff

Schlammsau
2010-06-12, 13:45:45
Nein. Jedenfalls noch nicht.

MfG,
Raff

Hmmm....muss ich die PCGH wohl doch mal kaufen. :tongue:

@Sentio
ich hab noch die Just Cause 2 Demo!

kruemelmonster
2010-06-12, 14:32:19
Vermutlich glaubt kein Mensch mehr, dass du tatsächlich an einer Aufklärung interessiert bist, ganz besonders seit du dich neulich auf deinen kaputten Monitor und deine Sehschwäche herausgeredet hast.

Sich mit dir zu beschäftigen ist Zeitverschwendung und zum Thema Filtercheats wurde alles gesagt. So lange ATI im Teiber keine Möglichkeit bietet, die Qualitätseinsparungen zu deaktivieren, taugen die Karten eben nicht für höchste Qualitätsansprüche. Eine Qualitätsliga weiter unten mögen sie eine gute Wahl darstellen, aber das ist ja unbestritten.

In den Kommentaren zum Zotac GeForce GTX 470 & 480 Review (http://www.3dcenter.org/artikel/zotac-geforce-gtx-470-480-review) bringt aths ein Kernproblem vieler Grafikkartenreviews auf den Punkt:

Radeons spielen hinsichtlich der maximal möglichen Bildqualität streng genommen einfach in einer anderen Liga und für einen Bildqualitätsvergleich zwischen Radeon-AF und Nvidia Q interessiert sich doch keine bildqualitätsbewusste Sau. Rein akademisch ist das zwar natürlich eine legitime Fragestellung, aber da sie dir ohnehin nur dazu dienen soll, deine Relativierungskampagne weiterzureiten, hoffe ich dass niemand darauf einsteigt.

Nvidia geriet beim SGSSAA ins Hintertreffen und hat reagiert. Mit einem Wettbewerb um reine Balkenlänge ist niemandem gedient, wir bräuchten zwei Hersteller, die auch an der Bildqualitätsfront konkurrieren.

Signed :up:

Ich hab damals im alten Videovergleichsthread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=456731) auf Schlammsau's Szenen geantwortet und nach ewigem Hin-und-Her dann sowas als Antwort (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7384700#post7384700) bekommen:

Bei Lost Coast, würde ich ATi 7/10 Punkte geben, nVidia 9/10 bei maximal möglicher Quali.
Bei allen anderen mir bekannten Games, bekommt ATi 8/10 und nVidia 9/10 Punkte.

In Worten ausgedrückt, liefert ATi eine gute Qualität und nVidia eine sehr gute Bildqualität. Wie gesagt, bei den maximal möglichen Settings und nicht unter Default!

Damals hat er sich Zahlen aus dem Allerwertesten ziehen lassen, heute ist es sein Monitor :freak:
Nochmal mach ich seinen Eiertanz nicht mit, soll er sich seine Flimmerkarte weiter schönreden, mir egal.

Schlammsau
2010-06-12, 14:42:03
Signed :up:

Ich hab damals im alten Videovergleichsthread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=456731) auf Schlammsau's Szenen geantwortet und nach ewigem Hin-und-Her dann sowas als Antwort (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7384700#post7384700) bekommen:



Damals hat er sich Zahlen aus dem Allerwertesten ziehen lassen, heute ist es sein Monitor :freak:
Nochmal mach ich seinen Eiertanz nicht mit, soll er sich seine Flimmerkarte weiter schönreden, mir egal.

Damals ging es noch um die HD4000er gegen die Geforce 200er Serie.
Das sich mittlerweile etwas geändert hat, sollte auch dir Krümmel aufgefallen sein.
Und nochmal für dich, ich will bewiesen haben, dass nVidias Q (Treiber default) deutlich besser als ATis A.I. Default ist.
Das ist ja die Aussage von Blaire!

y33H@
2010-06-12, 14:43:55
Schau dir die Crysis-Videos der PCGH an. Das Flimmern und Banding bei AMD ist heftig.

Schlammsau
2010-06-12, 14:51:45
Schau dir die Crysis-Videos der PCGH an. Das Flimmern und Banding bei AMD ist heftig.

Ich kenne das Banding!

kruemelmonster
2010-06-12, 14:52:03
Damals ging es noch um die HD4000er gegen die Geforce 200er Serie.
Das sich mittlerweile etwas geändert hat, sollte auch dir Krümmel aufgefallen sein.
Und nochmal für dich, ich will bewiesen haben, dass nVidias Q (Treiber default) deutlich besser als ATis A.I. Default ist.
Das ist ja die Aussage von Blaire!

Wie puntarenas sehr treffend schrieb, ein rein akademischer Vergleich. HQ auf GeForce ist quasi für lau zu haben, du hast jedoch keinen HQ-Schalter.
Das ist immer noch der entscheidene Punkt, AMD soll endlich konkurrenzfähige Filterung ermöglichen. Klar wird das viele fps kosten, es kann doch aber überhaupt nicht sein das die Radeons noch für ihr schnelles AF in Crysis gelobt werden. Wenn ich weniger mache, bin ich schneller fertig, das ist keine Kunst.

Um mal einen anderen Vergleich zu bringen: im Schulsport müssen Mädchen für die gleiche Note auch weniger leisten als Jungen. Fängt man hier etwa an die sportlichen Leistungen zu relativieren? Nein, es ist einfach eine andere Liga.
Genau so sollte auch der BQ-Unterschied zwischen Rot und Grün kommuniziert werden, man kann beide IHV einfach nicht auf eine Stufe stellen.

Nachtrag:

Damals ging es noch um die HD4000er gegen die Geforce 200er Serie.
Das sich mittlerweile etwas geändert hat, sollte auch dir Krümmel aufgefallen sein.

1. Siehe Threadtitel.
2. Was denn erwähnenswertes, außer der runden Blume und das du den Ameisenhaufen vor deinen DX9-Füssen jetzt mit der SSAA-Keule glattbügeln kannst?

Gast
2010-06-12, 14:58:32
Das ist immer noch der entscheidene Punkt, AMD soll endlich konkurrenzfähige Filterung ermöglichen. Klar wird das viele fps kosten, es kann doch aber überhaupt nicht sein das die Radeons noch für ihr schnelles AF in Crysis gelobt werden. Wenn ich weniger mache, bin ich schneller fertig, das ist keine Kunst.


Die Masse schaut halt nur wieviel FPS bekomme ich fürs Geld und das animiert Hersteller letztendlich dazu die Filterung zu Gunsten des FPS Balkens zu kastrieren.
Solange die User die Produkte trotzdem kaufen und es auch noch versuchen klein zu reden, wird sich das nicht ändern.

corvus
2010-06-12, 15:01:30
Damals ging es noch um die HD4000er gegen die Geforce 200er Serie.
Das sich mittlerweile etwas geändert hat, sollte auch dir Krümmel aufgefallen sein.
Und nochmal für dich, ich will bewiesen haben, dass nVidias Q (Treiber default) deutlich besser als ATis A.I. Default ist.
Das ist ja die Aussage von Blaire!


was willste andauernd mit Blaire?
Der Junge hat soviel Grafikverstand im kleinem Fußzeh.....
Und vorallem Augen und nen anständigen Monitor..

Und vorallem der Satz AI Standard......dann schalt es doch aus und zocke....manman...dein Getrolle geht doch nur noch nach hinten los!
Und vorallem kanns keiner mehr lesen!

kruemelmonster
2010-06-12, 15:06:28
Die Masse schaut halt nur wieviel FPS bekomme ich fürs Geld und das animiert Hersteller letztendlich dazu die Filterung zu Gunsten des FPS Balkens zu kastrieren.

Leider. Bei Radeons sollte man dann aber nicht von einem guten Preis/Leistungs-Verhältnis sprechen, denn Leistung = fps und BQ.
Den Radeons aber fehlt HQ-Filterung, DX10/11-SSAA und PhysX (Faktum, die Gründe dafür außen vor gelassen), ergo haben sie keine Leistung sondern lediglich hohe fps und damit nur ein gutes Preis/fps-Verhältnis.

Solange die User die Produkte trotzdem kaufen und es auch noch versuchen klein zu reden, wird sich das nicht ändern.

Zumindest PCGH kämpft, und wird dafür prompt als NV-Fanboy-Redaktion abgestempelt. :(

Gast
2010-06-12, 15:20:24
Zumindest PCGH kämpft, und wird dafür prompt als NV-Fanboy-Redaktion abgestempelt. :(


Du musst das im Verhältnis sehen, nur weil jemand für eine gute Sache kämpft heißt das nicht, dass er nicht biased ist.
PCGH ist abseits der AF-Diskussion auch nicht zimperlich wenn es gegen AMD geht und das soll auch kritisiert werden.
An dieser Stelle ist der Ausdruck "NV-Fanboy-Redaktion" zumindest nicht ganz verwunderlich und sollte auch verkraftet werden.

y33H@
2010-06-12, 15:24:19
Es soll kritisiert werden, wenn zu Recht kritisiert wird? ;D

Wo ist PCGH bitte denn "auch nicht zimperlich wenn es gegen AMD geht"? Die X6 werden gelobt, die neuen 8er-Chipsätze ebenfalls, die HD5k-Serie sowieso und die aktuellen Mobile-Plattformen auch. Aber hey - "NV-Fanboy-Redaktion" ist da trotzdem angebracht :ulol: Leute gibt's ...

Gast
2010-06-12, 15:33:19
Du musst das im Verhältnis sehen, nur weil jemand für eine gute Sache kämpft heißt das nicht, dass er nicht biased ist.
PCGH ist abseits der AF-Diskussion auch nicht zimperlich wenn es gegen AMD geht und das soll auch kritisiert werden.
An dieser Stelle ist der Ausdruck "NV-Fanboy-Redaktion" zumindest nicht ganz verwunderlich und sollte auch verkraftet werden.
Dafür das PCGH AI-on testet, TSSAA gegen MSAAA gestellt hat und fleissig m it bei der 8xMSAA Kampagne ist supertwichtig gewirkt hat, siehst du sie als grün an?

Meinst du das eine solch grobe Benachteilung nVidias darauf hindeuted, das diese Leute nVidia biased sind?

Gast
2010-06-12, 15:34:55
Scheinbar gilt man nur als neutral, wenn man die Geforce 400 vollkommen vernichtend in den Boden redet und über die tolle AF Blume der HD5 berichtet. :rolleyes:

Fetter Fettsack
2010-06-12, 19:26:19
Die X6 werden gelobt, die neuen 8er-Chipsätze ebenfalls, die HD5k-Serie sowieso und die aktuellen Mobile-Plattformen auch.

Wobei ihr vermutlich auch noch dazusagen müsst, dass ihr dieses "Lob" aufgrund der technischen Ausführung und damit der Brauchbarkeit dieser Dinge ausgesprochen habt und nicht, damit ihr auch mal etwas positives über AMD/ATi berichtet ;D .

Nein, Spaß bei Seite, Kritik, so sie sachlich und nicht an der Haaren herbeigezogen ist, ist immer gut, auch wenn sie von jemanden kommen mag, der mit einem Hersteller ansich schon eher ruppig umgeht.
Und wenn es eben PCGH ist, dass sich in Sachen AF recht kritisch benimmt, was wäre daran nun so schlimm? Der Sache nach ist die Kritik ja (allgemeinem Konsens nach) berechtigt, auch wenn es nicht immer für alle so wichtig ist, daher wüsste ich nicht, was man an dieser Vorgangsweise kritisieren sollte. Zu irgendwelchen unsachlichen und pauschalen Ausritten haben sie sich nicht hinreißen lassen, also ist doch eh alles in Butter, oder?

Einzig, dass sich dann immer irgendwelche Salz-in-die-Wunde-Streuer bei irgendwelchen Mankos eines IHVs finden, die dann auch noch wie dir Irren nachtreten und damit die überzogenen Gegenreaktionen beschwören (die ja eigentlich genauso unnötig sind in ihrer Emotionalität, wie ich finde), die erachte ich als hochgradig unnötig und der Qualität der Diskurse sehr abträglich.

Schlammsau
2010-06-13, 18:39:32
Sentio?

Sentionline
2010-06-14, 06:40:28
Guten morgen.

Nein ich bin nicht verschollen und auch nicht weg vom Fenster. Einpaar Videos hab ich fertig, aber noch nicht alle. Hoffe das ich bis heute abend, späterstens aber bis Mittwoch fertig. Ich hab eben auch ein RL.

Bezüglich des AF hab ich ganz gut aufgepasst und kann schonmal im Voraus sagen das ich einige fiese Ecken in Crysis Warhead gefunden habe, wo die ATi Karte so ihre effekte hat. Das "flimmern" an sich bezieht sich nicht nur auf einen Punkt, sondern verteilt sich auch auf benachbarte Texturen. Komisch zu beschreiben, da selten sichtbar (und bei Nvidia gar nicht). Könnt ihr selber begutachten wenn ich die Videos gepostet habe und die Saves eben mal auf einer HD5x vergleichen.

Erstmal Kaffee ins Gesicht schütten...

mfg

Schlammsau
2010-06-14, 17:48:30
Guten morgen.

Nein ich bin nicht verschollen und auch nicht weg vom Fenster. Einpaar Videos hab ich fertig, aber noch nicht alle. Hoffe das ich bis heute abend, späterstens aber bis Mittwoch fertig. Ich hab eben auch ein RL.

Bezüglich des AF hab ich ganz gut aufgepasst und kann schonmal im Voraus sagen das ich einige fiese Ecken in Crysis Warhead gefunden habe, wo die ATi Karte so ihre effekte hat. Das "flimmern" an sich bezieht sich nicht nur auf einen Punkt, sondern verteilt sich auch auf benachbarte Texturen. Komisch zu beschreiben, da selten sichtbar (und bei Nvidia gar nicht). Könnt ihr selber begutachten wenn ich die Videos gepostet habe und die Saves eben mal auf einer HD5x vergleichen.

Erstmal Kaffee ins Gesicht schütten...

mfg

:up:

ich bin gespannt!

Schlammsau
2010-06-14, 22:17:35
Bin da auf was gestossen. :naughty:
Ok...ist nicht wirklich was neues, aber verdammt effektiv gegen flimmern!

Was haltet ihr davon?
Warhead, DX9, High, 1440x900, 4xAA, 16xAF, A.I. Standard
http://www.megaupload.com/?d=LKRBRY5I
Gleiche Szene wie die letzten Videos aber diesmal mit einer etwas niedrigeren Auflösung, damit es zu keinen Skalierungsproblemen kommt, und einer kleinen Modifikation :biggrin: im Treiber.

Auch diesmal wieder mit dem Windows Media Player anschauen, weil sonst das Bild zu dunkel ist.

N0Thing
2010-06-15, 00:51:32
und einer kleinen Modifikation :biggrin: im Treiber.

Und was kann man sich darunter vorstellen? :confused:

Bucklew
2010-06-15, 01:03:41
Und was kann man sich darunter vorstellen? :confused:
Er hat den ATI-Treiber deinstalliert und einen Nvidia installiert :biggrin:

Schlammsau
2010-06-15, 06:17:31
Ich sage später was ich gemacht habe.

"Ich" habe geschafft, dass AF-Flimmern weitestgehend deutlich zu mindern, ohne dabei die BQ zu verschlechtern.

*Schulterklopf*

Gast
2010-06-15, 06:47:24
Ich sage später was ich gemacht habe.

"Ich" habe geschafft, dass AF-Flimmern weitestgehend zu eliminieren, ohne dabei die BQ zu verschlechtern.

*Schulterklopf*

Ich rieche ein epic :facepalm: auf uns zukommen. ;D

Sentionline
2010-06-15, 07:02:56
Die wege des Herren sind unergründlich.

Guten Morgen :smile:

Schlammsau
2010-06-15, 07:52:17
Lasst mir doch auch meinen Spass und die kleinen Übertreibungen. ;)

Schaut euch das Video an, und sagt mir was ihr davon haltet.