PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Forceware: Qualität vs Hohe Qualität


c0re
2006-09-29, 15:02:27
Hi,

wo kann ich Vergleichs-Screenshots dazu finden? [Nach Möglichkeit auch Praxis orientierte Shots. D.h. nicht irgendwelche Test Bilder, sondern Bilder aus Spielen.]

Und wie groß ist der Performance Unterschied im Durchschnitt? [Ich weiß, dass es von minimalen bis großen Unterschieden, je nach Anwendung, alles gibt. Ich will den ~ Schnitt wissen oder "von bis Werte" wissen, dann rechne ich das selber aus.]

Edit: Gemeint mit Qualität ist das Standard-Setting, gemeint mit Hohe Qualität ist ebenfalls das Standard-Setting.[D.h. einfach auf Qualität / Hohe Qualität klicken, ohne diverse Optimiereung manuell zu verändern]

Mr. Lolman
2006-09-29, 15:56:54
Einen Durschschnitt zu errechnen ist imo sinnfrei. Der Unterschied zw. Q (default) und HQ kann 0% - 50% betragen. Wobei die Tendenz eher nach unten geht, also imo ~10%...

Gast
2006-09-29, 17:21:03
Was wäre denn so ein Fall, wo HQ viel Performance frisst? In über einem Jahr G70GTX-Besitz ist mir ein solcher nie aufgefallen. Der Performanceverlust durch korrekt eingestelltes HQ war immer äußerst minimal, in manchen (wenigen) Spielen sogar nichtmal messbar.

AnarchX
2006-09-29, 17:22:29
Was wäre denn so ein Fall, wo HQ viel Performance frisst? In über einem Jahr G70GTX-Besitz ist mir ein solcher nie aufgefallen. Der Performanceverlust durch korrekt eingestelltes HQ war immer äußerst minimal, in manchen (wenigen) Spielen sogar nichtmal messbar.

UT2004 ist das Worstcase-Szenario.

c0re
2006-09-29, 18:24:12
UT2004 ist das Worstcase-Szenario.

Ganz besonders die Map Primeval!

Einen Durschschnitt zu errechnen ist imo sinnfrei. Der Unterschied zw. Q (default) und HQ kann 0% - 50% betragen. Wobei die Tendenz eher nach unten geht, also imo ~10%...

Ahja, gut dann weiß ich so grob wo ich dran bin... thx

DeutscherHerold
2006-09-29, 19:26:23
hm mich würde vergleichsscreenshots doch mal interessieren.

cR@b
2006-09-29, 19:37:28
hm mich würde vergleichsscreenshots doch mal interessieren.

Bringt nicht viel, da es sich hauptsächlich in Bewegung bemerkbar macht! Als ich die 68er Ultra damals hatte, stach es mir fast meine Augen aus :( Erst über ein Jahr später wurde das Problem offiziell verkündet um genau zu sein mit dem G70 eigentlich. Das war fast wie Akte X ;) jeder wollte es vertuschen und erst spät wurde es in den Reviews erwähnt... zuuu spät leider, sonst wäre ich wieder bei Ati gelandet :D

Einen Schaden habe ich davon getragen, wie man an meiner Signatur nur unschwer erkennen kann........

DeutscherHerold
2006-09-29, 19:43:02
das heisst, dass sich in der praxis schon ein gewisser unterschied bemerkbar macht?

cR@b
2006-09-29, 19:48:01
das heisst, dass sich in der praxis schon ein gewisser unterschied bemerkbar macht?

Naja wie schon so oft erwähnt hat jeder Mensch ein individuelles Wahrnehmungsvermögen! Der Eine mehr, der Andere eben weniger ;) leider bin ich mit meiner Wahrnehmung gestraft... wäre lieber der andere Part :( :( :(

DeutscherHerold
2006-09-29, 20:13:04
ja oder mit einem riesen schuss vorstellungskraft, die dich quasi wegen der tatsache DASS es einen unterschied geben muss einen unterschied sehen LÄSST :-)

c0re
2006-09-29, 21:38:04
ja oder mit einem riesen schuss vorstellungskraft, die dich quasi wegen der tatsache DASS es einen unterschied geben muss einen unterschied sehen LÄSST :-)

Nein, nein. Man sieht je nach Spiel und Situation Unterschiede, wenn man genau hinschaut. Das Problem ist: Hat man den Unterschied einmal gesehen, fällt er einem immer wieder auf ;) Und je mehr Zeit man hat zu schauen, ohne das was passiert, desto mehr fällt es auf. Will heißen in Rennspielen fällts mir deutlich weniger auf, als z.B. in einem Strategie Spiel oder einem Ego-Shooter.

Prinzipiell gilt aber: Wer nicht genug Leistung hat, könnte sie durch Umschalten auf den Qualitäts-Modus in Kombination mit der manuellen Aktivierung aller Optimierungen dann doch kriegen - und dass ohne die Details
zu minimieren. Macht also dann schon Sinn. Denn weniger Detais fallen mehr auf, als "Qualität oder Hohe Qualität". Daher wollte ich aus reinem Interesse mal wissen, wieviel % man an Performance im groben Schnitt auf diese Weise dazu gewinnt.

Im Regelfall macht es - so würd ich dann jetzt mal sagen - 1-5 Fps aus. Im Idealfall (UT 04,Primeval) aber auch mal ~ 10 Fps und gar etwas mehr. Und ob 20 FPS oder 30 FPS, ist ein großer Unterschied. Subjektiv deutlich größer als zwischen 40 und 50 FPS.

DeutscherHerold
2006-09-29, 21:44:43
Nein, nein. Man sieht je nach Spiel und Situation Unterschiede, wenn man genau hinschaut. Das Problem ist: Hat man den Unterschied einmal gesehen, fällt er einem immer wieder auf ;)

STICHWORT: Pixelfehler *G*G*G*G*

Raff
2006-09-29, 21:44:44
ja oder mit einem riesen schuss vorstellungskraft, die dich quasi wegen der tatsache DASS es einen unterschied geben muss einen unterschied sehen LÄSST :-)

Quality tut jedenfalls weh. Sehr sogar. Zwar nicht immer, aber immer öfter. Screenies @ GF6800:

http://666kb.com/i/ahy81gw3831bscsep.jpg
http://666kb.com/i/ahy81xozgpy2mml75.jpg

Jetzt denke dir das in Bewegung. Man schiebt permanent die MIP-Maps vor sich her und zudem flimmert der Boden so sehr, dass man schonmal einen Termin bei Arzt machen kann.

MfG,
Raff

DeutscherHerold
2006-09-29, 21:47:01
hm ja stimmt schon...

Raff
2006-09-29, 21:49:52
Vielleicht sollte man hinzusagen, dass Atis Standardsettings auf einem R5x0 fast genauso mistig aussehen ...

MfG,
Raff

Coda
2006-09-29, 22:37:34
Quality ist für mich nicht auszuhalten. Jedesmal wenn ich nen neuen Treiber installier und es dadurch wieder auf Quality zurückgesetzt wird frag ich mich im Spiel warum die dummen Texturen auf einmal so flackern - bis ich drauf komm an was es liegt.

Das Argument "man sieht es nicht" ist leider nicht mehr drin bei mir. Meine Augen sind wohl zu sensibilisiert.

A.I. ist aber genauso ätzend.

Raff
2006-09-29, 22:39:01
Alle, die das nicht sehen, sind IMO irgendwo beneidenswert ...

MfG,
Raff

Gast
2006-09-29, 22:59:38
Supersampling ist trotzdem keine Lösung :tongue:

Raff
2006-09-29, 23:00:41
Bei solchem Hardcore-Flimmern idR nicht, das stimmt. Aber um HQ gänzlich zu entflimmern und gegen Shader/Bump-Aliasing schon. :tongue:

MfG,
Raff

Gast
2006-09-29, 23:18:16
Schaut Euch den Zaun und das Geländer der roten Brücke an.....vieleicht sollten wir doch mal einen Einstellungs Lehrgang und was für Tools benutze ich Lehrgang machen...so könnt ich Euch Karten für 5000€ kaufen und es sieht immer noch arm aus....nix für ungut aber sowas ist sowas von lächerlich.

BAGZZlash
2006-09-30, 10:21:03
Warum kriegt die Wand da links eigentlich so wenig AF ab? Das sieht ja richtig §&%!"/&$ aus. Ich kann mich erinnern, daß mir das genau an der Stelle auch schon aufgefallen war, als ich da stand.

The_Invisible
2006-09-30, 11:26:57
die füllrate der 7900 serie ist eigentlich so groß das hq fast nichts mehr zusetzt, auch bei primeval

habe da mal selber gebencht: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4199010&postcount=18

wenn SSAA zum einsatz kommt und somit füllrate knapp wird bemerkt man es noch am ehesten

@BAGZZlash
eben das typische winkelabhängige filtern, sollte aber eigentlich schon min seit geforce 6 bekannt sein. wundert mich manchmal schon das leute so überraschend tun obwohl es schon ein alter hut ist

mfg

Gast
2006-09-30, 11:30:00
Schaut Euch den Zaun und das Geländer der roten Brücke an.....vieleicht sollten wir doch mal einen Einstellungs Lehrgang und was für Tools benutze ich Lehrgang machen...so könnt ich Euch Karten für 5000€ kaufen und es sieht immer noch arm aus....nix für ungut aber sowas ist sowas von lächerlich.

Es ging ums AF nicht um TSSAA. Ich denke dafür waren die Bilder aussagekräftig genug.

Warum kriegt die Wand da links eigentlich so wenig AF ab? Das sieht ja richtig §&%!"/&$ aus. Ich kann mich erinnern, daß mir das genau an der Stelle auch schon aufgefallen war, als ich da stand.

Weil das AF der GeForces nun mal leider winkelabhängig ist.

Gast
2006-10-01, 08:45:33
Dummes Zeug..wenns mir nicht zu blöde wäre würd ich ein paar Bilder hochladen..oder schließt mittlerweile die eine Einstellung die ander aus?
Geht ins ATI Unterforum trollen.
Hatten wir alles schon wie "huch ich seh ja gar keinen Zaun mehr" usw....

Gast
2006-10-01, 11:01:34
Was willst du? Es ging um den Boden nicht um den verkackten Zaun!

MDG
2006-10-01, 11:08:56
Sorry für OT: Ab und zu frage ich mich, wie sich leute so aufregen können, dass sie Ihre "Muttersprache" in dieses Forum hereinbringen müssen.

MDG

Mr. Lolman
2006-10-01, 12:18:09
die füllrate der 7900 serie ist eigentlich so groß das hq fast nichts mehr zusetzt, auch bei primeval

habe da mal selber gebencht: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4199010&postcount=18

wenn SSAA zum einsatz kommt und somit füllrate knapp wird bemerkt man es noch am ehesten

@BAGZZlash
eben das typische winkelabhängige filtern, sollte aber eigentlich schon min seit geforce 6 bekannt sein. wundert mich manchmal schon das leute so überraschend tun obwohl es schon ein alter hut ist

mfg

UT2004 war NV40 Worstcase. Beim G70 dürfte es eher Quake4 oder Prey sein...

Ronny G.
2006-10-01, 20:56:40
Ich glaube das man dieses Flimmern/unterschied Allg. nicht auf Bildern rüberbringen kann, das sieht man am besten bei bewegten Bildern, sehe auf den HL2 Bildern echt nicht wirklich Unterschiede, eigentlich bin ich nicht so oberflächig.

Raff
2006-10-01, 21:10:58
Schalte sie mal im Bildbearbeitungsprogramm durch. Die "Unterschiede" flimmern. Was auf den Bildern schärfer wirkt, ist in Bewegung Augenkrebs.

MfG,
Raff

Gast
2006-10-02, 10:11:40
Anandtech hat die X1950 vs. 7950GX2 gebencht, man hat auch unterschiedliche Quality Modi benutzt da sieht man das es a bissl was an Speed bringt Quality einzuschalten.
http://www.xbitlabs.com/articles/video/display/quality_vs_quantity_11.html

Sind nie mehr als 6-7 FPS die man gewinnt, in nem Shooter kann das vieleicht wichtig sein ne gewisse FPS zu halten da sonst das "profesionelle" Spielen nicht möglich ist, aber wer das tut hat auch keine 7300 in der Kiste *g

Ich fahr seit meiner FX5900 HQ, niemals darunter, immer Atuner oder andere Programme um die Optimierungen abzuschalten, den größten Performance Gewinn hat man meist in dem man die Auflösung eins runter dreht oder mal den Ultra Detail Schalter in den Spielen bearbeitet ;)

Mephisto
2006-10-02, 11:57:33
den größten Performance Gewinn hat man meist in dem man die Auflösung eins runter dreht Wenn mann einen LCD-Monitor nutzt, ist das IMO keine Option. Der Verlust an Bildqualität durch die Interpolation des Monitors ist viel schlimmer als die Optimierungen bei Quality.

Mr. Lolman
2006-10-02, 12:05:38
Anandtech hat die X1950 vs. 7950GX2 gebencht, man hat auch unterschiedliche Quality Modi benutzt da sieht man das es a bissl was an Speed bringt Quality einzuschalten.
http://www.xbitlabs.com/articles/video/display/quality_vs_quantity_11.html

Sind nie mehr als 6-7 FPS die man gewinnt, in nem Shooter kann das vieleicht wichtig sein ne gewisse FPS zu halten da sonst das "profesionelle" Spielen nicht möglich ist, aber wer das tut hat auch keine 7300 in der Kiste *g

Naja Serious Sam2 wird auf der 7950GX2 um fast 30% flotter, wenn man auf HQ verzichtet...

/edit: Titan Quest wird um fast 85% schneller :O
/edit: Interessant auch wie sich die 3Dmark06 Score ändert: http://www.xbitlabs.com/articles/video/display/quality_vs_quantity_18.html

Gast
2006-10-02, 12:12:50
Awas, muss man doch net, in HQ auf beiden Karten spielbar. Wer schaltet bitte auf Quality wenns in HQ spielbar ist?...

Mr. Lolman
2006-10-02, 12:16:56
Awas, muss man doch net, in HQ auf beiden Karten spielbar. Wer schaltet bitte auf Quality wenns in HQ spielbar ist?...

Niemand, außer die HW Tester, die die ganzen Benchmarkbalken produzieren :mad:

Gast
2006-10-02, 12:17:48
Wenn mann einen LCD-Monitor nutzt, ist das IMO keine Option. Der Verlust an Bildqualität durch die Interpolation des Monitors ist viel schlimmer als die Optimierungen bei Quality.

Klar, ich hab selbst einen 19" Widescreen aber ich hab auch ne passende Graka ;) Eher schalt ich runter auf 2xAA (bei EQ2 z.b.) als das ich am Texturefilter was drehe.

Wenn ich mir nen TFT zulege sollte ich auch darauf achten das die Grafikkarte auch genug Power für die Auflösung hat, oder nicht??

Rente
2006-10-02, 12:20:48
Klar, ich hab selbst einen 19" Widescreen aber ich hab auch ne passende Graka ;) Eher schalt ich runter auf 2xAA (bei EQ2 z.b.) als das ich am Texturefilter was drehe.

Wenn ich mir nen TFT zulege sollte ich auch darauf achten das die Grafikkarte auch genug Power für die Auflösung hat, oder nicht??
Naja, bei einem 5:4-TFT schaltet man eben auf 16:9 oder 16:10 Auflösungen um (oder 1280x960), dann wird das Bild zwar kleiner, man hat aber nur Balken oben und unten (wenn die Interpolation aus ist) was meiner Meinung noch erträglich ist, es sollte aber wirklich eher eine Notlösung sein.

The_Invisible
2006-10-02, 12:30:00
Naja Serious Sam2 wird auf der 7950GX2 um fast 30% flotter, wenn man auf HQ verzichtet...

/edit: Titan Quest wird um fast 85% schneller :O
/edit: Interessant auch wie sich die 3Dmark06 Score ändert: http://www.xbitlabs.com/articles/video/display/quality_vs_quantity_18.html

bullshit

ich erreiche mit meiner ordinären 7900GTX mit HQ schon 6200 marks, und jetzt wird ne 7950gx2 auf einmal langsamer sein, kann wenn nur ein treiberbug mit sli sein oder die tester haben was getrunken. aber ist eh klar das es dich wieder freut...

mfg

Mr. Lolman
2006-10-02, 12:35:49
aber ist eh klar das es dich wieder freut...

mfg

Wo freu ich mich?

The_Invisible
2006-10-02, 12:59:44
Wo freu ich mich?

ich weiß es einfach ;)

mfg

Gast
2006-10-02, 13:06:27
Ja Ivsible versucht mall wieder zu dementieren.;)Das weiss ich auch einfach..

Gast
2006-10-02, 13:08:51
Also jetzt weisst man hauptsache dank Xbitlabs das eine 7950 GX2 mit gleicher Bildqualität grade mall so schnell wie eine X1950 XTX ist.:top:

r@w.
2006-10-02, 13:37:21
Also jetzt weisst man hauptsache dank Xbitlabs das eine 7950 GX2 mit gleicher Bildqualität grade mall so schnell wie eine X1950 XTX ist.:top:

Zumindest DU meinst dies zu wissen!
:D

Und im ernst: selbst nVidia HQ ist mit den wu-AF der 'neuen' von ATI und schon gar nicht mit dem der 'alten' nVidias bis FX5 zu vergleichen... aber das hatten wir ja schon alles mal.

Hochinteressant fand ich diesen Bench von Xbitlabs:
http://www.xbitlabs.com/images/video/quality_quantity/diagrams/titan_4x.gif

:O

'Nett'...
Sehr, sehr "stümmich", nüch?
:up:

Razor

Rente
2006-10-02, 13:41:59
Sagen wir es mal so: Die waren einfach zu dumm SLi richtig zu benutzen (und das bei xBitLabs...)!
Mal läuft nur eine 7900GT/X mal laufen beide Kerne und was bei 1280x1024 los war ist mir unerklärlich...

r@w.
2006-10-02, 13:45:09
Jip...
Wollte damit nur die "Wertigkeit" dieses Tests heraus stellen.

Razor

Mr. Lolman
2006-10-02, 13:47:42
Und im ernst: selbst nVidia HQ ist mit den wu-AF der 'neuen' von ATI und schon gar nicht mit dem der 'alten' nVidias bis FX5 zu vergleichen... aber das hatten wir ja schon alles mal.

Wenn, dann ist ATis wu-AF schon garnicht mit mit NVs AF (welches auch immer zu vergleichen). !!

Seit dem Catalyst 6.6 kann man nicht nur kaum noch einen Unterschied zw. Aioff und Aion ausmachen, sondern die (default) AF-Blume, sieht der von NV auch ziemlich ähnlich. Wegen so Leuten wie dir, hab ich damals auch echt gedacht, dass NV40 default AF viel besser ist als R300 default AF. Bis ichs dann selbst gesehen hab.

Auf versteh ich Raffs Seitenhiebe auf ATis AF tw. nicht ganz. Das schaut 100%ig in jeder Situation deutlich besser aus, als NV40 default. (Da G70 AF immernoch ein bisschen schlechter aussieht als NV40 AF, erübrigt sich imo fast schon jegliche Diskussion)

Raff
2006-10-02, 13:54:04
Lolli, sorry, aber A.I. on ist in vielen (nicht allen!) Spielen ein Karzinogen par excellence. Zock doch z.B. mal etwas CS Source (beispielsweise Compound) oder WoW, da flimmert fast jeder Untergrund deutlich sichtbar. LQ-AF mit A.I. on ist demnach oft schlechter als NV-HQ. Nicht falsch verstehen: Beides flimmert IMO zu arg. Bei Ati hat man aber immerhin die letzte Option in Form von A.I. Off. Damit hat man 99% flimmerfreie Texturen.

Und im ernst: selbst nVidia HQ ist mit den wu-AF der 'neuen' von ATI und schon gar nicht mit dem der 'alten' nVidias bis FX5 zu vergleichen... aber das hatten wir ja schon alles mal.

Razor

Mein NV38 @ 8x HQ-AF liefert nur mit etwas gutem Willen ein besseres Bild als mein R520 @ 8x A.I.-Off-HQ-AF.

MfG,
Raff

Mr. Lolman
2006-10-02, 13:58:47
Lolli, sorry, aber A.I. on ist in vielen (nicht allen!) Spielen ein Karzinogen par excellence. Zock doch z.B. mal etwas CS Source (beispielsweise Compound) oder WoW, da flimmert fast jeder Untergrund deutlich sichtbar. LQ-AF mit A.I. on ist demnach oft schlechter als NV-HQ.

MfG,
Raff

Das ist doch sicher auch bei HL² so. Reich mir bitte mal ein Savegame rüber, wo man das sehen kann. Wirkt ja fast so, als wollt ich euch verarschen, nach dem Geschrei, was ich bei NVs Filterung angestellt hab. Aber ernsthaft: Bei NV-AF sprangen mir die Unterschiede sofort ins Auge, bei ATi AI nicht so.

cR@b
2006-10-02, 14:52:33
Da braucht man garnicht mehr lange rum diskutieren... ATi hat definitiv die Hosen an in Sachen Filterung! Erstens weniger Flimmern und zweitens dann auch noch mehr performance mit A.I. off z.B.!! nV cheatet in diesem Falle etwas mehr aber ATi hatte genauso schon Dreck am Stecken!!! :D Ich könnte beiden Firmen den Hals umdrehen aber naja was willste machen? Gibt ja kaum andere Hersteller zur Auswahl...

r@w.
2006-10-02, 15:46:32
Wegen so Leuten wie dir...

Tjo... wer lesen kann, ist klar im Vorteil, oder?
Ich schrieb: "bis FX5" oder übersetzt auch "bis <NV40", wenn Dir das eindeutiger erscheint...

Und ja, das "Default AF" des NV40 zu Zeiten des R300 war besser, als das des R300.
Aber das würde hier wohl zu weit führen, oder?

Razor

r@w.
2006-10-02, 15:51:39
Mein NV38 @ 8x HQ-AF liefert nur mit etwas gutem Willen ein besseres Bild als mein R520 @ 8x A.I.-Off-HQ-AF.

Jup!
Vor allen Dingen mit 'aktuellen' Treibern.
In den 50'ern hat nVidia wohl damit bekonnen, das Ganze 'etwas' zu komplizieren...

Razor

r@w.
2006-10-02, 15:54:47
Da braucht man garnicht mehr lange rum diskutieren... ATi hat definitiv die Hosen an in Sachen Filterung! Erstens weniger Flimmern und zweitens dann auch noch mehr performance mit A.I. off z.B.!! nV cheatet in diesem Falle etwas mehr aber ATi hatte genauso schon Dreck am Stecken!!! :D Ich könnte beiden Firmen den Hals umdrehen aber naja was willste machen? Gibt ja kaum andere Hersteller zur Auswahl...

Jo... ATI hat damit 'angefangen' die Filterung immer mehr zu vermurksen, bis nVidia keine Wahl mehr hatte, es ihnen gleich zu tun. Hat dieses aber gottlob mit dem R520 endlich wieder ad acta gelegt... jetzt muss nur noch nVidia nachziehen (hoffentlich mit dem G80!) und "alles ist wieder gut".

Razor

Raff
2006-10-02, 16:12:42
Streng genommen wurde Ati kontinuierlich besser, nicht schlechter (von R100 bis R580 stets nach oben, Bri-Spielereien ab RV360/R420 ausgenommen). ;) Das ändert aber nichts daran, dass Nvidia spätestens seit der GeForce3 deutlich in Sachen Qualität überlegen war.

MfG,
Raff

Mr. Lolman
2006-10-02, 16:42:16
Und ja, das "Default AF" des NV40 zu Zeiten des R300 war besser, als das des R300.
Aber das würde hier wohl zu weit führen, oder?


Nein!

Gast
2006-10-02, 17:06:29
...und zweitens dann auch noch mehr performance mit A.I. off z.B.!!

Hä?
Mit A.I. aus geht die Performance etwas runter, wenn sie raufgehen würde, würd ich mir mal gedanken machen...

Gast
2006-10-02, 17:08:45
Nein!
Spam anyone?

Bei gleichen Einstellungen war das Filtern des NV40 leicht besser, da gabs afaik auch noch nicht die 3 Optimierungen einzel aktivierbar.
Und in den ATI Treibern war immer eine Optimierung aktiv die das Bild etwas weichgezeichneter erschienen lies, nV war schärfer. Hat dann teils zu flimmern geführt und dann gabs den LOD Clamper *g

Mr. Lolman
2006-10-02, 17:28:05
Zum NV40 Release hatte der 60.72 per default schon ne Sample Optimierung, gekoppelt mit nem brilinearem Filter: http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=16

Der R300 filterte auf jeden Fall besser. Auch wenn uns damals die AF Blumen alle was anderes weis machen wollten. Aber du hast Recht. Die einzelnen Option wurden im Control Panel afaik erst mit irgendeinem 66er Treiber freigeschalten. Und der Schmäh mit dem "schärferen" Bild ist mittlerweile echt alt. :|

Razor
2006-10-02, 17:30:46
Der BriFilter kam mit den 50'er Treibern (für die FX'en) und er ging auch mit den 50'ern (54.xx AFAIK)... sprich: man konnte ihn deaktivieren.
Keine Ahnung, was Du mit irgendwelchen 60'ern willst...

Und bei der GeForce6-Reihe war er von Anfang an deaktivierbar!

Der Default-Filter der R300 war absoluer Murks... hat mich damals echt abgestoßen!

Razor

Mr. Lolman
2006-10-02, 19:01:13
Der BriFilter kam mit den 50'er Treibern (für die FX'en) und er ging auch mit den 50'ern (54.xx AFAIK)... sprich: man konnte ihn deaktivieren.
Keine Ahnung, was Du mit irgendwelchen 60'ern willst...

Und bei der GeForce6-Reihe war er von Anfang an deaktivierbar!


Ja der Brifilter schon, aber nicht die Sample Optimierung (die ja eindeutig auch aktiv ist, auf den Serious Sam Screenshots). Und der "Murks" Filter des R300 war besser als der von R4x0/5x0 (zumindest bis Catalyst 6.6), denen man ja momentan beste AF Qualität attestiert. Also wie jetzt? :confused:

Anscheinend willst du einfach nicht wahrhaben, dass das NV40 AF von Anfang an überbewertet wurde.

Ab den 60ern Treiber wurde dann noch die Steuerung Sample und Mipfilteroptimierung eingeführt, jedoch sieht R300 AF auch eindeutig besser aus, als NV40 Quality ganz ohne Optimierungen!!!: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3282496&postcount=853

Damals wollten einem aber alle einreden, dass NV default dem ATi default überlegen wäre (aufgrunddessen hab ich mir auch ne 6800GT gekauft), jetzt war der Kack endlich vergessen und vorbei und nun fängst du schon wieder dieser Tatsachenverdreherei an??

Raff
2006-10-02, 21:28:43
Das ist doch sicher auch bei HL² so. Reich mir bitte mal ein Savegame rüber, wo man das sehen kann. Wirkt ja fast so, als wollt ich euch verarschen, nach dem Geschrei, was ich bei NVs Filterung angestellt hab. Aber ernsthaft: Bei NV-AF sprangen mir die Unterschiede sofort ins Auge, bei ATi AI nicht so.

Ich lade jetzt extra ein 20 MiB schweres Fraps-Video hoch, das das Flimmern mit dem Catalyst 6.8 zeigt. Link folgt, kann etwas dauern. Ist übrigens Bestandteil des gerade etwas geeisten Artikels zu dem Thema.

Meinen Appell-Thread zu dem Thema kennst du aber auch noch, oder? ;)

€dit: http://rapidshare.de/files/35260007/CSS_A.I._Standard_-_HQ-AF.avi.html

Bitte "vollbildlich" ansehen, danke. In Echt ist alles schärfer, der Effekt also noch fieser.

MfG,
Raff

Razor
2006-10-03, 05:06:27
Anscheinend willst du einfach nicht wahrhaben, dass das NV40 AF von Anfang an überbewertet wurde.

Ich habe NICHTS vom NV40 gesagt, aber Du kommst - wie ein Flummi - immer wieder damit an!
Offenbar bist Du an einer 'ordentlichen' Diskussion nicht interessiert...

Das wa-AF der NV40+ war/ist genauso schei.e, wie das von ATI bis zur R520 (merke: <R520! Gell?).
Da jetzt auch noch irgendwelche 'Abstufungen' vornehmen zu wollen, ist Haarspalterei...

ATI hat es endlich geschafft, einen Weg zur 'vernünftigen' Filterung zu finden, auch wenn es noch nicht 100% optimal ist... vor allem das Erzwingen von AI=off ist absoluter Nonsense. Und wenn nVidia nun wieder zu den Möglichkeiten eines NV3x zurück findet, muss sich ATI u.U. warm anziehen, um die Qualität von nVidia zu 'schlagen'.

Mitte November werden die Karten neu gemischt!
Bin mal gespannt, ob good-old-Lolman dann wieder nur schweigt, oder endlich auch mal ein gutes Haar an nVidia findet.
Aber das nur am Rande...

Razor

cR@b
2006-10-03, 12:16:57
Hä?
Mit A.I. aus geht die Performance etwas runter, wenn sie raufgehen würde, würd ich mir mal gedanken machen...


Dieser Satz war gegenüber der nV HQ Variante gemeint... sorry für meine schlechte Ausdrucksweise D: Also sprich im Vergleich ist die A.I. off Variante flimmerfreier und dazu noch performanter als die nV HQ Variante ;)

cR@b
2006-10-03, 12:20:19
Ich habe NICHTS vom NV40 gesagt, aber Du kommst - wie ein Flummi - immer wieder damit an!
Offenbar bist Du an einer 'ordentlichen' Diskussion nicht interessiert...

Das wa-AF der NV40+ war/ist genauso schei.e, wie das von ATI bis zur R520 (merke: <R520! Gell?).
Da jetzt auch noch irgendwelche 'Abstufungen' vornehmen zu wollen, ist Haarspalterei...

ATI hat es endlich geschafft, einen Weg zur 'vernünftigen' Filterung zu finden, auch wenn es noch nicht 100% optimal ist... vor allem das Erzwingen von AI=off ist absoluter Nonsense. Und wenn nVidia nun wieder zu den Möglichkeiten eines NV3x zurück findet, muss sich ATI u.U. warm anziehen, um die Qualität von nVidia zu 'schlagen'.

Mitte November werden die Karten neu gemischt!
Bin mal gespannt, ob good-old-Lolman dann wieder nur schweigt, oder endlich auch mal ein gutes Haar an nVidia findet.
Aber das nur am Rande...

Razor


Hmm kann ich nicht bestätigen... mit meiner 9700 pro waren alle Games ohne Flimmern und mit der 68er Ultra habe ich dann den Unterschied klar und deutlich warnehmen müssen. Spielte zu seiner Zeit immer DAoC und mit der ATi gab es da kein Flimmern... mit der 68er dann leider schon :(

Raff
2006-10-03, 12:35:38
Hmm kann ich nicht bestätigen... mit meiner 9700 pro waren alle Games ohne Flimmern und mit der 68er Ultra habe ich dann den Unterschied klar und deutlich warnehmen müssen. Spielte zu seiner Zeit immer DAoC und mit der ATi gab es da kein Flimmern... mit der 68er dann leider schon :(

Kann ich bestätigen. Die Filterqualität auf einem R3x0 war/ist auch mit aktiviertem A.I. praktisch flimmerfrei (außer bei besonders gemeinen Texturen) ... eben weil man keine Bri-Spiele betrieb (die TMUs sollen das nicht können, woran ich aber irgendwie nicht so recht glaube, wenn der RV360 sie auch kann). NV4x-HQ-AF ist idR "schärfer" als R3x0-AF, flimmert aber eindeutig in diversen Fällen. Ein R5x0 mit aktivem A.I. (Standard) ist noch penetranter, da man "flimmerndes Banding" erkennen kann (siehe Video oben), wohingegen NV(40)-HQ etwas "dezenter" flimmert. NV-Quality setzt allem die Krone auf und ist IMO in 90% der Spiele inakzeptabel ... auch wenn es oft extrem viel Leistung bringt. Zur G70-Qualität kann ich aber nichts Genaues sagen ...

MfG,
Raff

cR@b
2006-10-03, 12:53:04
Kann ich bestätigen. Die Filterqualität auf einem R3x0 war/ist auch mit aktiviertem A.I. praktisch flimmerfrei (außer bei besonders gemeinen Texturen) ... eben weil man keine Bri-Spiele betrieb (die TMUs sollen das nicht können, woran ich aber irgendwie nicht so recht glaube, wenn der RV360 sie auch kann). NV4x-HQ-AF ist idR "schärfer" als R3x0-AF, flimmert aber eindeutig in diversen Fällen. Ein R5x0 mit aktivem A.I. (Standard) ist noch penetranter, da man "flimmerndes Banding" erkennen kann (siehe Video oben), wohingegen NV(40)-HQ etwas "dezenter" flimmert. NV-Quality setzt allem die Krone auf und ist IMO in 90% der Spiele inakzeptabel ... auch wenn es oft extrem viel Leistung bringt. Zur G70-Qualität kann ich aber nichts Genaues sagen ...

MfG,
Raff

NV40 gleich G70 ;) Bin mal gespannt, ob der G80 hier besser punktet bzw. überhaupt punktet :D Ich entscheide meinen nächsten Grakakauf fast 100% nach diesem Kriterium! Mag kein Flimmern mehr :(

Raff
2006-10-03, 12:56:02
Beide Hersteller bieten Lösungen für das Flimmern an. Nvidia: OGSSAA(-Hybriden), was natürlich schwer Leistung kostet. Ati bietet A.I. Off ... und das kostet oft mehr als viele wahrhaben wollen.

MfG,
Raff

cR@b
2006-10-03, 13:08:01
Wird Zeit, dass sich die Cracks hier zusammen tun und eine völlig neue Graka entwickeln und ATi bzw. nVidia dazu zwingen, was gescheites auf den Markt zu bringen! Vor allem auch mal wieder so nen Quantensprung von einer Karte zur nächsten Karte, damit man auch was an der Performance spürt :D

The_Invisible
2006-10-03, 13:13:04
Dieser Satz war gegenüber der nV HQ Variante gemeint... sorry für meine schlechte Ausdrucksweise D: Also sprich im Vergleich ist die A.I. off Variante flimmerfreier und dazu noch performanter als die nV HQ Variante ;)

ich kenne nur den test von hardtecs4u (http://hardtecs4u.de/reviews/2006/x1900_7900/) wo hq gegen ai off verglichen wird und die ati meist den kürzeren zieht, worauf beruhst du also deine aussage?

mfg

Razor
2006-10-03, 17:15:07
Hmm kann ich nicht bestätigen...

Wieso?
Tust Du doch!
Hmmm...

Oder gibt es hier tatsächlich Leute, die nicht wissen, dass 6x00 = NV40+?
GeForceFX(5) = NV3x = beste Filterung, wo gibt... noch immer.

Und natürlich hat ein R300 (bei mir die Radeon9500@9700) sogar kräftig geflimmert.
Das lag aber nicht an irgendwelchen BriFiltern, sondern schlicht an ganz normaler ÜberUnterfilterung.

Lolmann hat damals ganz gute Tips gegeben, dies in den Griff zu bekommen, in dem man mit irgendwelchen Tweakern das LOD herab setzte (0.7 sollte wohl 'ideal' sein, wenn ich recht entsinne), aber das fürhrte dann auch gleich zu matschigen Texturen... nur da es dort leider kein SSAA gab, um dies zu kompensieren, war das leider auch keine Lösung (für mich).

CMR2 war so ein Game, welches hinsichtlich der Flimmerneigung z.Bsp. ganz extrem war...
...davon war auf der FX5200 (später FX5900) absolut NICHTS zu sehen!

Und wenn hier nochmal jemand mit dem NV40 aka 6800GT/Ultra/wasweißich kommt...
...dann VERGESS ICH MICH!
;)

Razor

Gast
2006-10-03, 20:34:20
Das lag aber nicht an irgendwelchen BriFiltern, sondern schlicht an ganz normaler Überfilterung.


überfilterung führt zu unschärfe aber sicher nicht zum flimmern.

Raff
2006-10-03, 20:35:52
Er meint natürlich Unterfilterung. Das Problem kenne ich übrigens nicht ... CMR 2 muss das einzige Spiel sein. ;)

MfG,
Raff

c0re
2006-10-04, 20:14:46
Hab jetzt auf Qualität mit allen Optimierungen gesetzt. VSync + Triple Buffering auch noch aus. Das bringt in jedem Spiel deutlich spürbar Performance und schaut wie gesagt imo besser aus, als Details, AA oder AF zu minimieren.

Am ehesten würd ich noch die Auflösung reduzieren. Vorher war bei meinem 19" CRT 1024 x 768 die Grenze. Bei meinem neuen 16:10 20" TFT sehen Auflösungen < 1280 x 800 aber eher bescheiden aus. Am besten sieht_mit Abstand_ die empfohlene Auflösung von 1680 x 1050 aus.

Dazu reicht meine Kiste nicht mehr immer, um das mit HQ und vollen Details + AA und AF darzustellen. (P4 3,4 Ghz, 1 Gig Ram, GF 6800 Ultra 256 MB).

Klar, wenn man genug Leistung hat, sollte man sie auch in Form von maximaler Bildqualität nutzen, so zumindest meine Philosophie! (Lieber 30 FPS und ALLES @ Maximum + AA und AF, als 40 FPS oder mehr mit weniger Details etc.)


Fazit: Ich empfehle jedem, der Performance Probleme hat, diese Optimierungen zu aktiveren!

Mr. Lolman
2006-10-04, 20:51:51
Full Ack!

Lolmans Erkenntnis #139837462:

Texturfilteroptimierungen sind eigentlich was feines*. Es obliegt einzig und allein dem Hardwaretester, die richtigen Vergleiche zu ziehen. Wenn man, in welch auch immer gearteter Missachtung der NVidia Reviewerguides (die zumindest Quality ohne Optimierunge empfehlen), die Karten mit den Standardtreibereinstellungen (Quality + Optimierungen) bencht und mit ATi vergleicht, ist man entweder voreingenommen, ignorant oder beides.

@BTW: Raff. Ich hab das Video gesehen und bin mir ziemlich sicher, dass ein G7x @ HQ da genauso flimmert.


*solang sie abschaltbar sind ;)

4711
2006-10-04, 21:17:43
Meine Herren was ein Kindergarten echt,schon alleinen wieder Deine Antwort..ich bin mir sicher das da auch eine....
Kannst Du und deinesgleichen nicht einfach sagen OK Schwamm drüber die ATI flimmert auch und fertig!?
So langsam beginn ich euch ATI FANBOYS zu hassen denn was anderes seid ihr nicht!

Mr. Lolman
2006-10-04, 22:39:31
Wieso so unfreundlich? Nur weil ich schon wiederholt darauf hingewiesen habe, dass die Default Einstellungen beider IHVs nicht vergleichbar sind? Wenn Raff meint, dass AIlow flimmert, mag er recht haben. Dies ist aber ohnehin bekannt. Es wurde dem ATi AF nie völlige Flimmerfreiheit attestiert!

Das Problem ist eben, dass die BQ direkt die Performance gekoppelt ist. Lässt ein HW-Tester (unbewusst) den einen IHV mit besserer BQ antreten, hat der nicht nur den nachteil, dass er langsamer ist, sondern dass es der Tester tw. garnicht mitbekommt, dass die BQ besser. Deswegen wurde auch solang optimiert, bis die G70 Käufer aufschriien, dass die BQ selbst mit HQ nicht einwandfrei ist. Das konnte NV nach allen wichtigen Reviews glücklicherweise so gut fixen, sodass der G70 nur mehr minimal schlechter filtert als der NV40. Dass es tw. Performance kostet ist klar, aber das macht ja nix, weil ohnehin fast alle Reviews nur mit Quality + Optimierungen gebencht haben. Neben den fiesen brösligen Texturen haben die tw. allen Ernstes (unabsichtlich) Mipmap Banding, in Form von bi AF auf den Screenshots abgebildet, gemeint, dass das Bild schärfer ist und NV deswegen eine bessere BQ bescheinigt.

Und lauter solcher Scheiss passiert andauernd. Auch 3dfx hatte damit zu kämpfen...

Gast
2006-10-05, 22:35:25
Ich lade jetzt extra ein 20 MiB schweres Fraps-Video hoch, das das Flimmern mit dem Catalyst 6.8 zeigt. Link folgt, kann etwas dauern. Ist übrigens Bestandteil des gerade etwas geeisten Artikels zu dem Thema.

Meinen Appell-Thread zu dem Thema kennst du aber auch noch, oder? ;)

€dit: http://rapidshare.de/files/35260007/CSS_A.I._Standard_-_HQ-AF.avi.html

Bitte "vollbildlich" ansehen, danke. In Echt ist alles schärfer, der Effekt also noch fieser.

MfG,
Raff
Habe mal als Vergleich die gleiche Stelle mit einer 7900GX2 nachgestellt. Settings waren HQ, alle Opt. aus, 4xAA, 16xAF
http://rapidshare.de/files/35629994/CSS_NV_HQ_16xAF_4xAA_TRSSAA.avi.html

Grestorn
2006-10-05, 22:44:01
Ich hätte mich wirklich für die Videos interessiert, aber RapidShare ist echt das letzte und verlangt außerdem Wucherpreise.

Nein danke.

Raff
2006-10-05, 22:47:28
Habe mal als Vergleich die gleiche Stelle mit einer 7900GX2 nachgestellt. Settings waren HQ, alle Opt. aus, 4xAA, 16xAF
http://rapidshare.de/files/35629994/CSS_NV_HQ_16xAF_4xAA_TRSSAA.avi.html

Super, danke! =)

Und das schaut so gut aus? Das ist absolut A.I.-Off-Niveau! War hoffentlich kein 4xS (o.ä.) an. :D

MfG,
Raff

Gast
2006-10-05, 22:50:04
Super, danke! =)

Und das schaut so gut aus? Das ist absolut A.I.-Off-Niveau! War hoffentlich kein 4xS (o.ä.) an. :D

MfG,
Raff
Nein, war nur 4AA mit TRSSAA an. Das dürfte aber darauf keinen Einfluss haben, oder?

Raff
2006-10-05, 22:53:01
Nein, das lässt die Texturen ganz in Ruhe. Bin echt erstaunt. Ich brauche 'ne GF7 ...

MfG,
Raff

Blaire
2006-10-05, 22:57:34
Ulukay bemängelte ja auch schon bei der Ati dieses Moire bei CS:Source und hat sich deshalb wieder ne Nvidia geholt.

HisAirness@23
2006-10-05, 23:05:51
Nein, das lässt die Texturen ganz in Ruhe. Bin echt erstaunt. Ich brauche 'ne GF7 ...

MfG,
Raff
Ich habe das Video erstellt aber vergessen mich einzuloggen. :biggrin:
Hatte erst eine X1900XT und mir wäre beinahe das 7900GX2 Schnäppchen entgangen, weil ich Angst hatte vor der oft erwähnten Flimmerproblematik. Mit meiner X1900XT spielte ich immer mit AI @standard. War allerdings nicht zufrieden mit der Bildqualität, hatte allerdings Bedenken, dass es bei NV noch schlimmer ist. Aber wenn man konsequent HQ, alle Opts. aus und den LOD-Schalter auf Clamp stellt, ist die Qualität bis auf wenige Ausnahmen gut.
Das einzige was ich wirklich manchmal vermisse, ist das wu AF weniger HDR und gleichzeitiges AA.

Mr. Lolman
2006-10-06, 01:57:56
Nein, das lässt die Texturen ganz in Ruhe. Bin echt erstaunt. Ich brauche 'ne GF7 ...

MfG,
Raff

Ich nicht! Die Auflösung vom NV Video ist höher, die Mipmaps weiter hinten. Aber echt Raff, dass du darauf reinfällst :|

akuji13
2006-10-06, 02:49:45
Die Framerate des NV Videos ist dramatisch schlechter als bei der ATI,kann man schön am Rucken der Gebäude erkennen;Raffs Video läuft einfach flüssiger.
Wenn das eine 7900GX2 bei nur 4xAA+16xAF sein soll..gute Nacht.
Außerdem sollte ein Vergleich wohl mit mehr als einem Spiel stattfinden.

:rolleyes:

P.S: Warum heisst das Video eigentlich TRSSAA am Ende?

Raff
2006-10-06, 06:43:33
Ich nicht! Die Auflösung vom NV Video ist höher, die Mipmaps weiter hinten. Aber echt Raff, dass du darauf reinfällst :|

Hehe, nein. Ich kenne die Szene auch von meiner X1800 in 2048x1536 ... da ist es kein Stück besser. Im Gegenteil, erst ab 1600x1200 fängt es IMO richtig an zu stören. Ich weiß aber gerade nicht mehr, in welcher Auflösung ich das Video gemacht habe ...

MfG,
Raff

Razor
2006-10-06, 06:57:27
Tjo... RapidShare und Fraps-Codec.
DAS liebe ich wirklich...

Zumindest scheint ja einer unserer Gurus überzeugt.
;)

Razor

P.S.: in 43 Minuten sitz' ich schon im Büro! ;)

akuji13
2006-10-06, 09:06:25
...was immer noch keine Erklärung für das extrem ruckelige Video ist,bedingt durch eine niedrige Framerate.

:rolleyes:

Gast
2006-10-06, 10:11:22
Fraps erzeugt durch den Readback immer eine sehr niedrige Framerate, das hat nix mit der Karte zu tun.

akuji13
2006-10-06, 10:33:00
Lol.
Ja ne ist,klar.
Sorry aber wie soll ich es anders sagen: so einen Quark hört man selten.
Ich hab schon hunderte Videos mit Fraps aufgenommen,eine solche niedrige Framerate in CS:S (WAS für eine Herausforderung für eine HighEnd Karte!) bekomme ich nur durch qualitätsteigerne Maßnahmen (ala AAA) hin.

Außerdem ist deine "Theorie" leider mit einem grundsätzlichen Fehler behaftet: Raffs Video läuft deutlich flüssiger (wer das nicht sieht,sollte sich Gedanken machen ob er in dieser Diskussion am richtigen Platz ist),wo ist den da dein "Readback"?

:rolleyes:

Mr. Lolman
2006-10-06, 10:49:43
Hehe, nein. Ich kenne die Szene auch von meiner X1800 in 2048x1536 ... da ist es kein Stück besser. Im Gegenteil, erst ab 1600x1200 fängt es IMO richtig an zu stören. Ich weiß aber gerade nicht mehr, in welcher Auflösung ich das Video gemacht habe ...

MfG,
Raff

Sry, aber da das Flimmern von den Mipmapübergängen kommt ist deine Theorie unmöglich. Die Mips verschieben sich nach hinten, je höher die Auflösung ist. Bei 2048 müsste die Szene fast flimmerfrei sein. Wenn du in HL² (Savegame Möglichkeit) so eine Szene findest, dann kann ich dir das auch beweisen.

Dein Video ist BTW in 800x600 (Mach mal eins in 1024 und stell dich ein bisschen weiter vor, so dass die flimmerrelevanten Stellen im Dunklen liegen.
müsste dann ca. soaussehen wie das NV Video...)

akuji13 hat BTW recht. Das NV Video hat ne viel geringere Framerate. Es wurde zwar mit 30fps aufgenommen, tatsächlich sinds aber <15.

HisAirness@23
2006-10-06, 13:51:33
Hehe, nein. Ich kenne die Szene auch von meiner X1800 in 2048x1536 ... da ist es kein Stück besser. Im Gegenteil, erst ab 1600x1200 fängt es IMO richtig an zu stören. Ich weiß aber gerade nicht mehr, in welcher Auflösung ich das Video gemacht habe ...

MfG,
Raff
Auflösung des Videos war 1024x768 und Fraps hat mit 30 Fps aufgenommen.

Raff
2006-10-06, 15:02:57
Sry, aber da das Flimmern von den Mipmapübergängen kommt ist deine Theorie unmöglich.

Ich hab' eine Theorie geäußert? ;)

Die Mips verschieben sich nach hinten, je höher die Auflösung ist. Bei 2048 müsste die Szene fast flimmerfrei sein.

An dieser Stelle nicht. Siehe unten.

Wenn du in HL² (Savegame Möglichkeit) so eine Szene findest, dann kann ich dir das auch beweisen.

Die gibt's zuhauf. Ich habe allerdings aktuell die Fakefactory-Mod drauf, was das ganze noch verstärkt ...

Dein Video ist BTW in 800x600 (Mach mal eins in 1024 und stell dich ein bisschen weiter vor, so dass die flimmerrelevanten Stellen im Dunklen liegen.
müsste dann ca. soaussehen wie das NV Video...)

Ja, ich habe nachgesehen und erinnere mich wieder. Ich hab's in 1600x1200 mit halfsize capturing aufgenommen, bei eingestellten 30 Fps. Und nein, es flimmert dort mit A.I. überall!

akuji13 hat BTW recht. Das NV Video hat ne viel geringere Framerate. Es wurde zwar mit 30fps aufgenommen, tatsächlich sinds aber <15.

Ich weiß nicht, was da schiefgelaufen ist, aber ich erinnere mich gut an ähnliche Probleme bei einigen meiner Videos. Es kommt genau drauf an, was man in dem Programm einstellt.

Übrigens, ich weiß nicht, warum ihr euch so künstlich darüber aufregt. ;) Meine Aussage war/ist, dass das vielgelobte A.I. Standard oft inakzeptabel flimmert – das NV-Video widerlegt dies nicht (wie auch). Sofern bei HisAirness@23 alles mit rechten (MSAA-)Dingen zuging, ist dieser Umstand noch schlimmer. Das auch von mir gerne bemängelte NV-HQ ist gerne mal hübscher ... aua.

MfG,
Raff

akuji13
2006-10-06, 17:25:13
IÜbrigens, ich weiß nicht, warum ihr euch so künstlich darüber aufregt. ;) Meine Aussage war/ist, dass das vielgelobte A.I. Standard oft inakzeptabel flimmert – das NV-Video widerlegt dies nicht (wie auch). Sofern bei HisAirness@23 alles mit rechten (MSAA-)Dingen zuging, ist dieser Umstand noch schlimmer. Das auch von mir gerne bemängelte NV-HQ ist gerne mal hübscher ... aua.

Ich rege mich nicht auf,ich sage nur,das mit dem Video etwas nicht stimmt (es ist definitiv VIEL zu langsam ist),weil ich aus eigener Erfahrung (sprich Tests mit beiden Herstellern) weiß,das sowohl ATIs als auch NVs an dieser Stelle flimmern. :wink:

WIE inakzeptabel das A.I. teilweise ist,kann jeder z.B. an Just Cause sehen,dagegen ist das CS:S noch harmlos.
Und das es sicher auch Spiele gibt,wo eine NV weniger flimmert als eine ATI,dürfte auch nichts weltbewegendes sein,ähnliches gibt es ja auch in Bezug auf das AF und dessen Aussehen bei gleicher Einstellung
(z.B. 8x eingestellt aber bei xy sieht es nach viel mehr aus als bei yx oder umgekehrt).
Um alle Spiele bestmöglich zu genießen,MUSS man Karten beider Hersteller im Rechner haben.

Gast
2006-10-06, 17:30:10
Um alle Spiele bestmöglich zu genießen,MUSS man Karten beider Hersteller im Rechner haben.

nö, ne aktuelle ATI mit AI-off sollte es auch tun ;)

HisAirness@23
2006-10-06, 17:37:59
Ich rege mich nicht auf,ich sage nur,das mit dem Video etwas nicht stimmt (es ist definitiv VIEL zu langsam ist),weil ich aus eigener Erfahrung (sprich Tests mit beiden Herstellern) weiß,das sowohl ATIs als auch NVs an dieser Stelle flimmern. :wink:

WIE inakzeptabel das A.I. teilweise ist,kann jeder z.B. an Just Cause sehen,dagegen ist das CS:S noch harmlos.
Und das es sicher auch Spiele gibt,wo eine NV weniger flimmert als eine ATI,dürfte auch nichts weltbewegendes sein,ähnliches gibt es ja auch in Bezug auf das AF und dessen Aussehen bei gleicher Einstellung
(z.B. 8x eingestellt aber bei xy sieht es nach viel mehr aus als bei yx oder umgekehrt).
Um alle Spiele bestmöglich zu genießen,MUSS man Karten beider Hersteller im Rechner haben.
Ich bin in dem Video nicht gegangen, sondern war im crouch Modus. Vielleicht liegt es daran, dass es so langsam erscheint.

AnarchX
2006-10-06, 17:43:36
nö, ne aktuelle ATI mit AI-off sollte es auch tun ;)

Tolle Alternative..:uclap:
Man kann nur hoffen, dass sich die AI-Politik mit R600 endlich mal ändert und die Bugfixes entkoppelt werden.

PCGH_Carsten
2006-10-06, 17:58:16
Sry, aber da das Flimmern von den Mipmapübergängen kommt ist deine Theorie unmöglich. Die Mips verschieben sich nach hinten, je höher die Auflösung ist. Bei 2048 müsste die Szene fast flimmerfrei sein.

Dein Einwand wäre richtig, aber 2.048 ist schon wieder so hoch, dass die Filtereinsparungen innerhalb der Original-Textur (Mip0) sichtbar werden. Ist auch in Q3A sehr schön zu sehen - Ati sagte mir vor bald zwei Monaten, dass es sich um einen Bug handelt, der bald gefixt wird. Ich hoffe auf den 6.10.


Übrigens, ich weiß nicht, warum ihr euch so künstlich darüber aufregt. ;)
Doch, das weißt du. :) Weil nicht sein kann, was nicht sein darf.

akuji13
2006-10-07, 08:42:31
Ich bin in dem Video nicht gegangen, sondern war im crouch Modus. Vielleicht liegt es daran, dass es so langsam erscheint.

Nein,ich bin auch gekrochen und habe selbst mit maximaler Qualität ein dramatisch flüssigeres (dein Video ruckt permanent) Video.
Das heisst nicht,das du was gefakt hast!
Ich selbst glaube nämlich,das es auch Spiele gibt wo eine NV weniger flimmern kann als eine ATI mit A.I. off.
Warum sollten nicht Texturen unterschiedlich auf den Karten reagieren können?
Dennoch ist was nicht in Ordnung,evtl. mit Fraps selbst.

:wink:

@Gast

Selbst das A.I. off hilft hier nicht,auch damit gibts es teilweise Texturflimmern,kann natürlich sein das nur ich das sehen will. :wink:
Warum man trotzdem 2 Karten BEIDER Hersteller haben muss um bestmöglich zu spielen?

-Je nach Spiel ist mal ATI oder NV schneller
-Je nach Spiel wirkt der AF unterschiedlich gut bei beiden (und da hilft dann auch HQ AF nicht weiter!)
-Je nach Spiel Schattenprobleme bei beiden (NV mit FC und ATI mit CoJ)

Das sind Fakten,alles andere ist Fan-Boy Gequatsche.

@PCGH_Carsten

An der Diskussion seid "ihr" (die Tester im Netz und des Drucks im allgemeinen) nicht ganz unschuldig.
Zu der Zeit als A.I. noch bessere Ergebnisse brachte als momentan,wurde das ganze teilweise in den Himmel gelobt
und viele Münzen jetzt "das-was-so-war-muss-auch-immer-so-bleiben!" auf den heutigen Tag und die kommenden um.

:wink:

The_Invisible
2006-10-07, 09:09:58
Das sind Fakten,alles andere ist Fan-Boy Gequatsche.


also ist es gequatsche wenn man nen gescheiten opengl (linux) treiber braucht und vielleicht ne genügsame karte, soso...

mfg

Gast
2006-10-07, 09:34:46
@PCGH_Carsten

An der Diskussion seid "ihr" (die Tester im Netz und des Drucks im allgemeinen) nicht ganz unschuldig. Zu der Zeit als A.I. noch bessere Ergebnisse brachte als momentan,wurde das ganze teilweise in den Himmel gelobt und viele Münzen jetzt "das-was-so-war-muss-auch-immer-so-bleiben!" auf den heutigen Tag und die kommenden um.

:wink:
Meine persönliche Meinung ist, dass ein Stück Technik (in vertretbarem Rahmen) soweit vom User einstellbar sein sollte, wie es die Hardware erlaubt und nicht die Treiber-Software. Wenn ich mich dazu entscheide, selbst Lightmaps o.ä. auf allen Stufen voll trilinear filtern zu wollen, dann will ich das auch einstellen können. So habe ich zu meiner Netz-Zeit nach bestem Wissen und Gewissen getestet.

In der PCGH testen wir praxisnah und haben zu diesem Thema Umfragen erhoben. Ich kann mich zwar ad hoc nicht mehr an den genauen Prozentsatz erinnern, aber die Ati-User spielten mehrheitlich mit AI auf default, während die Nvidia-Besitzer zu großen Teilen auf HQ gewechselt haben (dabei vermutlich aber nicht erst die drei Filteroptimierungen abschalteten und LOD-Clamp aktivierten, wie wir es tun).

Dazu kommt, dass der Unterschied zwischen Ati und Nvidia bei Treiberdefault deutlich größer ist, als wenn ich bei Nvidia HQ einschalte und Ati auf default belasse. Wir liegen Ati schon seit bekanntwerden der Optimierungen und der kurz darauf erfolgten Einführung von "AI" in den Ohren, Filteroptimierungen und die sogenannten Bug-Fixes (u.a. das D3-Shaderreplacement) getrennt abschaltbar zu machen.

Das liegt aber natürlich nicht in deren Interesse, da sie so das Argument verlieren, wenn wir AI abschalteten, würden ja auch die Bug-Fixes verlorengehen, während die Shaderreplacements bei Nvidia@HQ aktiv blieben. Niemand gibt gern seinen Vorteil auf.

PCGH_Carsten ohne Cookie

akuji13
2006-10-07, 10:49:19
also ist es gequatsche wenn man nen gescheiten opengl (linux) treiber braucht und vielleicht ne genügsame karte, soso...

Rofl.

Warum einen Treiber für eine Minderheit entwickeln?
Warum einen Treiber entwicklen,dessen Zukunft (OpenGL) schlecht aussieht?
Warum einen Treiber für HighEnd Karten (die anderen werden nur freundlicherweise noch mitgeschliffen) entwickeln,die unter Linux eh nicht so genutzt werden können,wie es ihre Bestimmung ist,nämlich Windows Spiele zu spielen?
Gleich im Anschluß daran: wieviel aktuelle Windows Spiele laufen denn unter Linux mit einer NV? 1%? Vermutlich nichtmal soviel,und das bereits mit Emulation oder Gefummel.
Warum Stromsparende Karten entwicklen,wenn 99.9% der Käufer dieses Segmentes der Verbrauch völlig egal ist?

Ich kann das Genöhle nicht mehr hören,einen Porsche kaufe ich mir auch nicht um damit Sprit zu sparen oder zum Einkaufen.
Ihr seid es,die sich vielleicht mal Gedanken machen müssen,ob ihr eure Hardware so betreibt,wie es vom Hersteller vorgesehen war.
Ich kaufe keinen Hammer um zu sägen.
Auch tut ihr immer so,als ob das Problem nicht schon vorher bekannt wäre,trefft eure Entscheidung als mündiger Kunde.
ATI sieht Linux nunmal als unwichtig an und es ist damit eure Entscheidung die für euch richtigen Konsequenzen zu ziehen.
Wenn euch Linux und Lautstärke am Herzen liegen,kauft NV.
Mir sind Leistung und Bildqualität am wichtigsten,Stromverbrauch (weil ich Spaß haben will),Laustärke (weil ich Wasserkühle) und Kompatibilität für Linuxdistris (weil ich die immer nur anteste) interessiert mich ehrlich gesagt absolut nicht.
Mal völlig davon abgesehen das ich aus beruflichen Gründen von jeweils beiden Herstellern aktuelle Karten besitze.
Übrigens: es ging hier lediglich um die Bildqualität,alle andere Faktoren waren eigentlich außen vor.

:wink:

@PCGH_Carsten

Da stimme ich mit dir völlig überein,die meisten User sind unwissend oder es ist ihnen egal.
Auch in dem Punkt,das alles ab- oder anschaltbar sein sollte.
Hier bekleckern sich beide Großen nicht gerade mit Ruhm.

:rolleyes:

The_Invisible
2006-10-07, 11:28:28
dafür das du linux immer nur "antestest" hast du aber eine ganz schöne klappe darüber was nun sinnvoll "wäre". linux ist immer mehr im kommen, somit auch opengl und die ganzen 3d desktops. spiele gibt es zuhauf in opengl (win&lin) abseits vom mainstream, diese gibts sogar für viele plattformen.

manchen gefällts aber anscheinend wenn sie gezwungen werden welches os man einsetzt und welche spiele man spielen soll, ist ja auch jedem seine eigene sache, aber nicht mir mir

mfg

Sonyfreak
2006-10-07, 11:57:26
Warum einen Treiber für eine Minderheit entwickeln?
Warum einen Treiber entwicklen,dessen Zukunft (OpenGL) schlecht aussieht?
Warum einen Treiber für HighEnd Karten (die anderen werden nur freundlicherweise noch mitgeschliffen) entwickeln,die unter Linux eh nicht so genutzt werden können,wie es ihre Bestimmung ist,nämlich Windows Spiele zu spielen?
Gleich im Anschluß daran: wieviel aktuelle Windows Spiele laufen denn unter Linux mit einer NV? 1%? Vermutlich nichtmal soviel,und das bereits mit Emulation oder Gefummel.
Warum Stromsparende Karten entwicklen,wenn 99.9% der Käufer dieses Segmentes der Verbrauch völlig egal ist?Meiner Meinung nach sollte eine Grafikkarte in möglichst allen Spielen eine P/L mäßige Leistung erbringen. Was bringt es mir, eine Grafikkarte zu kaufen, mit der ich dann nur Spiele spielen kann, die von einer Firma darauf zurecht optimiert wurden?

Ich erwarte mir von einer Grafikkarte außerdem auch vollen 3D-beschleunigten Linuxsupport, da ich sie ja nicht nur für Windows angeschafft habe. Wenn man eine ganze Usergemeinde praktisch aussperrt, spricht das ja nicht gerade für eine Firma.

Ich bin mir sicher, dass es weit mehr Leute gibt, denen der Stromverbrauch und die Lautstärke wichtig sind, als du denkst. Bei meiner letzten Aufrüstung meines PCs habe ich mir überlegt, eine X1900XT zu kaufen. Dann habe ich vom Stromverbrauch und von der Lautstärke gelesen, und schon waren meine Überlegungen hinfällig, und ich hab mir eine 7900GT geholt. Es ist halt immer Einstellungssache, was einem an einem Produkt wichtig ist.

mfg.

Sonyfreak

Sven77
2006-10-07, 12:05:41
Warum einen Treiber entwicklen,dessen Zukunft (OpenGL) schlecht aussieht?

einfach nur LOL :rolleyes:

Palpatin
2006-10-07, 12:08:45
100% Agree, Stromverbrauch stört mich nur wenn ich deswegen ein neues Netzteil kaufen muss aber irgendwann kommt man da sowiso nie dran vorbei. Die Lautstärke bekommt man schon irgendwie in den Griff beim zocken kann man notfalls auch mit Leben und Linux Treiber intressieren 99,5 aller Zocker eh 0 und sind bei weitem nimmer so schlecht wie zum Teil noch behauptet wird. BQ ist zwar wichtig aber zum Teil bissel überbewertet ich seh zum Beispiel kaum unterschied ob ich bei ATI nun HQ AF an oder aus hab oder ob ich Cat. off oder Standart hab einzig Advanced verschlechtert die BQ ab und zu spürbar aber um wirklich viel bessere BQ zu erhalten braucht man sich nur nen größeren Monitor mit besserem Panel und höhere Auflösung zu kaufen.

Raff
2006-10-07, 12:19:56
Tja, es gibt aber (gerade in diesem Forum) auch viele Leute, die jede Filtereinsparung sehen und Wert auf hochtwertige Texturen legen. Und mal ehrlich, was soll denn der Mist? Wenn man schon Features einschaltet, die zur Qualitätsverbesserung entwickelt wurden, dann sollen sie auch ihren Job erfüllen. Nvidia missachtet das bei Quality + "Optimierungen" so asozial, dass "16x" AF dank des extremen Flimmerns irgendwo schlimmer aussieht als trilinear.

Was wäre, wenn Atis neuer AA-Modus eine Art "6x optimized" würde, bei dem je nach Winkel Samples eingespart würden und dies zur Folge hätte, dass es manchmal besser und manchmal schlechter als 4x AA aussähe? Sinnlose Mist! Wenn ich 4x AA will, dann stelle ich genau diesen Modus ein. Wenn mir 2x reicht oder ich doch 6x Subsamples will, dann nehme ich die entsprechenden Modi. Genauso läuft es mit der AF-Sample-Optimierung bzw. Winkelabhängigkeit. Wenn ich 16x einstelle, dann will ich auch 16x auf jede Textur, die dies erfordert, und nicht oft 2x oder 4x, weil die Hersteller das für sinnvoll halten. Für was hat's denn dann die Modi 2x und 4x? Die ergeben wenigstens ein homogenes Bild ...

MfG,
Raff

Sonyfreak
2006-10-07, 12:30:37
Und genau dieses Problem mit den Filtern, sehe ich auch als größten Nachteil der Nvidia Karten. Mich nervt es bei meiner 7900GT einfach irrsinnig, dass ich manche Details im Gelände bei einem Spiel korrekt AF gefiltert sehe, und genau daneben, breitet sich eine Schlammwüste aus, weil an Samples gespart wurde. :mad:
Ich hoffe wirklich sehr, dass man entweder per Treiberupdate (was ich eher nicht glaube) oder bei der nächsten Generation, dann auch wirklich alle Optimierungen abschalten kann bei den Nvidia Karten.

mfg.

Sonyfreak

akuji13
2006-10-07, 23:03:33
dafür das du linux immer nur "antestest" hast du aber eine ganz schöne klappe darüber was nun sinnvoll "wäre".

Aha,weil ich Linux nicht oft oder intensiv genug benutze,darf ich mir keine Meinung dazu bilden.
Sinnvoll für eine HighEnd Karte ist eine Linuxdistri sicher nicht.
Diese Karten werden zum Spielen aufwendiger Spiele gebaut und davon gibt es unter Linuxdistris fast keine.


linux ist immer mehr im kommen, somit auch opengl und die ganzen 3d desktops. spiele gibt es zuhauf in opengl (win&lin) abseits vom mainstream, diese gibts sogar für viele plattformen.

Abseits des Mainstreams befinden sich außschließlich Spiele,die keine HighEnd Karte benötigen und über genau die diskutieren wir hier.
Nenn mir doch mal das Verhältnis von D3D Titel zu OpenGL Titeln im Mainstreambereich. :wink:
Da kackt OpenGL furchtbar ab.
Was du als "ist im kommen" siehst,sind geringfügig gesteigerte Absätze für Endbenutzerlinzenzen und etwas besserer Absatz im Servermarkt.
Beim Enduser ist der Linuxanteil verschwindend gering und regional geht er teilweise gegen Null (z.B. in Asien).


manchen gefällts aber anscheinend wenn sie gezwungen werden welches os man einsetzt und welche spiele man spielen soll, ist ja auch jedem seine eigene sache, aber nicht mir mir

Aja.
Wo werde ich denn gewzungen ein MS Bestriebssystem einzusetzen?
Nirgends.
Es sei denn,ich möchte Programme benutzen,die für Windows programmiert wurden.
Das ist allerdings normal,ich kann auch keine X-Box 360 Spiele auf einer PS3 spielen,geschweige denn Linuxprogramme unter Windows.
Da zwingen die mich doch tatsächlich Linux zu benutzen,Unverschämtheit!
Es gibt neben Linux auch andere Alternativen,wie z.B. ReactOS,welches falls es jemals "fertig" sein wird eine nahezu 100% Kompatibilität zu Windows Programmen bieten wird.
Wenn du schon einen Schuldigen suchen möchtest,suche den bei den Entwicklern,die entscheiden was wofür gebracht wird und wie man sieht,ist ihnen Linux im großen und ganzen ziemlich Wurst.

@Sonyfreak

Das ist dein Problem.
Dann darfst du auch kein Spiel von Firma xy kaufen,weil das ein Windows Spiel ist und damit alle Linux User aussperrt.
Es ist nunmal in der Natur der Sache,das Produkte für einen bestimmten Bereich gemacht werden und welcher das ist,entscheidet nunmal der Hersteller oder indirekt vielleicht auch der Kunde durch seine Kaufentscheidung.
Was die Lautstärke betrifft,stimme ich dir absolut zu,auch ein Gamer hätte gerne eine fast lautlose Kühlung.
Aber einen geringen Verbauch zu erwarten,halte ich schlichtweg für eine Dummheit.
Wer sparen will,sollte garkeinen Computer haben oder eine andere Karte kaufen.
Computer sind ein unnützes Hobby und dafür muss man auch bereit sein,Geld zu investieren.

@Svenn77

Wie wichtig OpenGL den Entwicklern ist,sieht man an den Spielen die in den letzten 2 Jahren erschienen sind. :wink:
Wäre Carmack nicht,wäre OpenGL im Spielebereich bereits verschwunden.
Da hilft auch keine Stärkung von OpenGL unter Vista wenns die Programmierer nicht nutzen.

@topic

Wir sind völlig off-topic.
Ich glaube im Kernpunkt dürften sich hier alle einig sein:
Der Endverbraucher hat ein Anrecht,selbst zu entscheiden was er in welcher Qualität haben möchte.
Und das bieten beide großen nicht.

:wink:

Razor
2006-10-08, 09:37:38
Warum einen Treiber für eine Minderheit entwickeln?

Klar... deswegen gibt es ja noch immer keinen "vernünftigen" ATI-Treiber für Vista.
Und das, obwohl ATI mit M$ 'klüngelt'...
:D

Warum einen Treiber entwicklen,dessen Zukunft (OpenGL) schlecht aussieht

Tjo... nur leider ist OpenGL die am weitesten verbreitete Grafik-Schnittstelle überhaupt.
Aus dem professionellen Umfeld sogar überhaupt nicht weg zu denken!

Merke: OpenGL deckt 100% aller (PC-)Systeme ab, D3D 'nur' etwa 97%...
;)

Egal... wer so etwas schreibt hat sich automatisch als Noob geoutet.
Besser nächstes mal etwas nachdenken, bevor man so etwas schreibt...

Razor

Razor
2006-10-08, 09:48:52
Tja, es gibt aber (gerade in diesem Forum) auch viele Leute, die jede Filtereinsparung sehen und Wert auf hochtwertige Texturen legen. Und mal ehrlich, was soll denn der Mist? Wenn man schon Features einschaltet, die zur Qualitätsverbesserung entwickelt wurden, dann sollen sie auch ihren Job erfüllen. Nvidia missachtet das bei Quality + "Optimierungen" so asozial, dass "16x" AF dank des extremen Flimmerns irgendwo schlimmer aussieht als trilinear.

Und wo ist jetzt as Problem, die Aniso-Optimierungen zu deaktivieren oder gleich auf "HQ" zu stellen?
(dass man vorher Sub-Optimierungen deaktivieren muss, ist eine Mär, da bei neueren Treibern schon lange nicht mehr nötig)

Genauso läuft es mit der AF-Sample-Optimierung bzw. Winkelabhängigkeit. Wenn ich 16x einstelle, dann will ich auch 16x auf jede Textur, die dies erfordert, und nicht oft 2x oder 4x, weil die Hersteller das für sinnvoll halten. Für was hat's denn dann die Modi 2x und 4x? Die ergeben wenigstens ein homogenes Bild ...Und genau dieses Problem mit den Filtern, sehe ich auch als größten Nachteil der Nvidia Karten. Mich nervt es bei meiner 7900GT einfach irrsinnig, dass ich manche Details im Gelände bei einem Spiel korrekt AF gefiltert sehe, und genau daneben, breitet sich eine Schlammwüste aus, weil an Samples gespart wurde. :mad:

An Euch beide:

Und warum stellt man denn dann unbedingt 16xAF ein?
Mache ich NIE...

Klar ist der Unterschied größer, je höher der AF-Level eingestellt wird. Deswegen liegt doch nichts näher, als diesen zu reduziren... auf 8xAF in meinem Falle. Der Unterschied zwischen "maxAF" und "optimizedAF" ist dann nicht so krass und passt sich besser ins Bild ein.

Für mich ist "16xAF" bei nVidia faktisch unnutzbar (wie "Clone" mit "FullScreenDevice" in letzter Zeit auch ;-).
Und selbstverständlich schalte ich die beiden Aniso-Optimierungen direkt nach Treiber-Installation grundsätzlich aus.
Der BriFilter 'darf' gerne bleiben und wird via Profil deaktiviert, wenn er in einer App stört...

Razor

P.S.: zu den "after driver installation tasks" zählt selbstredend auch das "clamp"en von negativem LOD-Bias.

Sonyfreak
2006-10-08, 10:04:41
An Euch beide:

Und warum stellt man denn dann unbedingt 16xAF ein?
Mache ich NIE...

Klar ist der Unterschied größer, je höher der AF-Level eingestellt wird. Deswegen liegt doch nichts näher, als diesen zu reduziren... auf 8xAF in meinem Falle. Der Unterschied zwischen "maxAF" und "optimizedAF" ist dann nicht so krass und passt sich besser ins Bild ein.Ich stelle den Treiber zuerst auf Quality, dann dreh ich händisch alle Optimierungen ab, und dann stell ich den Treiber auf High Quality.

Den 16xAF Modus nutze ich eigentlich auch gar nicht, vermutlich aus dem Grund, dass ich 8xAF noch von meiner Geforce 5900XT gewohnt bin. Trotzdem kommt es da eben zu Situationen, die bei mir einfach einen Brechreiz auslösen. Ich erwarte mir halt von meinen Grafikkarten, dass sich bei diesen die Optimierungen vollständig ausschalten lassen, gerne auch auf Kosten der Leistung. Das ist leider momentan nicht möglich.

mfg.

Sonyfreak

TobiWahnKenobi
2006-10-08, 10:15:37
ich hab' mir auf NV-hardware schon vor langer zeit die hohen AF-modi abgewöhnt und bin für mich zu dem fazit gekommen, dass alles oberhalb von 4x AF für'n popo ist.


(..)

mfg
tobi

Razor
2006-10-08, 10:21:49
Ich stelle den Treiber zuerst auf Quality, dann dreh ich händisch alle Optimierungen ab, und dann stell ich den Treiber auf High Quality.

Halte ich für übertrieben...
Ist aber nur meine persönliche Meinung.

Trotzdem kommt es da eben zu Situationen, die bei mir einfach einen Brechreiz auslösen.

Als da wären?
:confused:

ich hab' mir auf NV-hardware schon vor langer zeit die hohen AF-modi abgewöhnt und bin für mich zu dem fazit gekommen, dass alles oberhalb von 4x AF für'n popo ist.

Der Performance-Unterschied ist nahe Null.
Was also soll es für einen Sinn haben, z.Bsp. in Rennsimuationen etcpp auf 8xAF zu verzichten?
Hmmm...

Razor

TobiWahnKenobi
2006-10-08, 10:27:35
Der Performance-Unterschied ist nahe Null.
der optische zugewinn auch.

Was also soll es für einen Sinn haben, z.Bsp. in Rennsimuationen etcpp auf 8xAF zu verzichten?
Hmmm...

Razor
ein homogenes, einheitlich gefiltertes und ruhiges bild? ich bin eher der oblivion oder BF2 -zocker, aber die letzte rennsim, die mir die kotze im hals anstiegen ließ (wohlgemerkt nur auf NV-hardware) war GT-Legends.


wer ist eigentlich hübscher? Nalu oder Ruby..

http://img222.imageshack.us/img222/6185/photo0013bw9.th.jpg (http://img222.imageshack.us/my.php?image=photo0013bw9.jpg)


(..)

mfg
tobi

Razor
2006-10-08, 10:35:36
der optische zugewinn auch.

Nöh...
Gerade die Farbahnmarkierungen "in der Ferne" sehen mit 8xAF einfach besser aus.
Und bei anderen Anwendungen 'stört' 8xAF zumindest nicht (meistens ;-).

ein homogenes, einheitlich gefiltertes und ruhiges bild? ich bin eher der oblivion oder BF2 -zocker, aber die letzte rennsim, die mir die kotze im hals anstiegen ließ (wohlgemerkt nur auf NV-hardware) war GT-Legends.

GT-Legends ist mit 4xS, TSSAA und 8xAF (in meinen Einstellungen!) absolut OK.
Klar, das (von ATI 'erfundene' ;-) wa-AF ist ein effektiver Nachteil in 'unebenen' Games, den ja auch fast alle ATI-Generationen teilen... aber das ist nun ein wirklich alter Hut und wird sich vermutlich mit der nächsten Generation ändern.

wer ist eigentlich hübscher? Nalu oder Ruby..

Dawn!
:biggrin:

Razor

P.S.: bei den nVidia-Mädels prangt wenigstens kein großes Logo auf der Brust... finde ich persönlich ansprechender.

Sonyfreak
2006-10-08, 13:04:43
Als da wären? :confused:Hier zwei Beispiele für solche Situationen, die bei EQ2 häufig vorkommen:

http://666kb.com/i/ai6za9wfm6xagnnwg.png

http://666kb.com/i/ai6zcz8evgrrugw5c.png

mfg.

Sonyfreak

Grestorn
2006-10-08, 13:26:55
Hier zwei Beispiele für solche Situationen, die bei EQ2 häufig vorkommen:

http://666kb.com/i/ai6za9wfm6xagnnwg.png

http://666kb.com/i/ai6zcz8evgrrugw5c.png

mfg.

Sonyfreak

Was stört Dich an den Shots? Insbesondere in Deinem 2. Shot kann ich keinerlei Artefakte auf Grund wa AF oder anderen AF-Optimierungen erkennen. Und auch im ersten fallen sie einem nicht gerade ins Auge.

Raff
2006-10-08, 13:28:15
Meinst du das ernst? Bei der Schräge ist Matsch, beim geraden Boden ist es scharf.

MfG,
Raff

Grestorn
2006-10-08, 13:41:06
Meinst du das ernst? Bei der Schräge ist Matsch, beim geraden Boden ist es scharf.

MfG,
Raff

Wenn Du das im 2. Shot meinst: Das ist doch ganz klar. Das ist Matsch, weil der Winkel zum Betrachter viel flacher ist. Dem kommt man nur mit mehr AF bei, aber auch nur in bestimmten Grenzen. Schließlich ist die Auflösung der Textur in einer Ache massiv gestaucht, da bekommt man grundsätzlich nicht mehr alle Details unter.

Mit winkelabhängigkeit hat das nichts zu tun, da diese Textur in einem exakt durch 90 teilbaren Winkel zum Betrachter liegt.

Im ersten Shot gibts durch das Gefälle nach links tatsächlich verschiedene Winkel. Aber gerade da fallen mir die Unterschiede in den Texturauflösungen kaum auf. Die weiter hinten sichtbaren Texturen im ersten Shot haben wieder das Problem, dass ihre Winkel sehr flach zum Betrachter sind und damit naturgemäß die Auflösung fehlt.

Sonyfreak
2006-10-08, 14:00:41
Also meiner Meinung nach, sehen die Bilder dank dem AF einfach nur katastrophal aus. Die geraden Flächen sind schön gefiltert, und an den leicht schrägen Flächen sieht man nur noch verschwommenen Matsch.
Wer das nicht sieht hat wirklich Glück gehabt, denn mir tut das in den Augen weh. ;(

mfg.

Sonyfreak

Sven77
2006-10-08, 14:04:42
mit tut die miese grafik in den augen weh..

Gast
2006-10-08, 14:09:16
Was hat das bitte mit dem Thema zu tun? Mal wieder den Counter aufpolieren und sonst nichts?

Grestorn
2006-10-08, 14:10:24
Also meiner Meinung nach, sehen die Bilder dank dem AF einfach nur katastrophal aus. Die geraden Flächen sind schön gefiltert, und an den leicht schrägen Flächen sieht man nur noch verschwommenen Matsch.
Wer das nicht sieht hat wirklich Glück gehabt, denn mir tut das in den Augen weh. ;(

mfg.

Sonyfreak

Sorry, aber das ist auf jeder Grafikkarte so und ist prinzipbedingt. Wenn Du sehr schräg auf eine Textur schaust, verlierst Du durch die begrenzte Auflösung des Bildschirms immer Auflösung.

Wenn, wie in dem Fall von Deinem 2. Shot, Du genau rechtwinklig schräg auf die Textur schaust (Boden- oder Wandtextur), wird nur eine Achse gestaucht, die andere bleibt unverändert. Genau da setzt AF an: Ohne AF wäre die Textur nun in beiden Richtungen nur noch mit verringerter Auflösung zu sehen. Mit AF sind die Texturdetails von links nach rechts in voller Auflösung zu sehen und nur die Details von oben nach untern gehen verloren.

Das ist ein Grundprinzip von 3D Grafik und hat nichts mit schlechterer Qualität eines bestimmten GraKa-Herstellers zu tun.

Wenn es DAS ist, was ihr immer als so brutal schlechte Qualität bei nV Karten seht... na dann ist mir alles klar.

Grestorn
2006-10-08, 14:12:17
mit tut die miese grafik in den augen weh..

Mir tut Deine Aussage weg. Man sollte schon ein klein wenig Ahnung von den Grundlagen haben, bevor man soll vollmundig kritisiert.

Sonyfreak
2006-10-08, 14:34:20
Warum sieht dann das AF auf der 5900XT, die jetzt im PC meines Bruders arbeitet, wesentlich besser aus?

Hier noch mal zwei Bilder, nur diesmal von der FX:

http://666kb.com/i/ai71lsdgahidif8w0.png

http://666kb.com/i/ai71lfv8ktap8l0ao.png

Wie man hoffentlich erkennen kann, ist das AF (trotz der leicht anderen Perspektiven), wesentlich besser.

mfg.

Sonyfreak

EDIT: eingeschalten war sowohl bei der Geforce FX als auch bei der Geforce 7 4xAA und 8xAF

Gast
2006-10-08, 14:53:36
Kann man die Bilder auch mal zu gleichen Tageszeit bzw. Helligkeit haben? so macht es imho nicht viel Sinn. Die Stelle ist aber sehr gut gewählt.

Gast
2006-10-08, 15:00:19
Wie man hoffentlich erkennen kann, ist das AF (trotz der leicht anderen Perspektiven), wesentlich besser.
Die Perspektive ist nicht "leicht" anders, sondern für das betreffende Polygon extremst anders. Versuch mal die Stelle besser zu treffen, damit man ordentliche Vergleichsbilder hat.

Sonyfreak
2006-10-08, 15:28:14
Es ist sehr schwer, von derselben Stelle zwei identische Screenshots zu machen, da ich ja auf zwei anderen Rechnern mit unterschiedlichen Einstelungen das Spiel offen haben muss. Außerdem kann ich immer nur einmal eingeloggt sein, und die Tageszeit im Spiel ändert sich auch die ganze Zeit.

mfg.

Sonyfreak

Grestorn
2006-10-08, 19:16:59
Es ist sehr schwer, von derselben Stelle zwei identische Screenshots zu machen, da ich ja auf zwei anderen Rechnern mit unterschiedlichen Einstelungen das Spiel offen haben muss. Außerdem kann ich immer nur einmal eingeloggt sein, und die Tageszeit im Spiel ändert sich auch die ganze Zeit.

mfg.

Sonyfreak

Du musst doch auf den ersten Blick sehen, dass bei Deinem ATI Vergleichbild die Textur im 2. Shot wesentlich weniger stark gestaucht ist, oder?

Mach mal den selben Winkel, geh also auf der ATI zwei Schritte nach vorn... ok? Am besten Du gehst in den Window-Modus von EQ und zeigst Dir den nV-Shot in einem extra Fenster an. Dann sollte es ganz einfach sein, die exakt selbe Szene herzustellen!

Und beim ersten Shot sehe ich keinen Unterschied, außer dass er heller ist auf der ATI.

aths
2006-10-08, 19:52:08
Wenn mann einen LCD-Monitor nutzt, ist das IMO keine Option. Der Verlust an Bildqualität durch die Interpolation des Monitors ist viel schlimmer als die Optimierungen bei Quality.Das kann man so generell nicht sagen.



Meine persönliche Meinung ist, dass ein Stück Technik (in vertretbarem Rahmen) soweit vom User einstellbar sein sollte, wie es die Hardware erlaubt und nicht die Treiber-Software. Wenn ich mich dazu entscheide, selbst Lightmaps o.ä. auf allen Stufen voll trilinear filtern zu wollen, dann will ich das auch einstellen können. So habe ich zu meiner Netz-Zeit nach bestem Wissen und Gewissen getestet.Wie hast du trilinear gefilterte Lightmaps getestet, wenn für diese gar keine MIP-Maps vorliegen? Es ergibt gar keinen Sinn, mit trilinear gefilterten Lightmaps spielen zu wollen.



Mir tut Deine Aussage weg. Man sollte schon ein klein wenig Ahnung von den Grundlagen haben, bevor man soll vollmundig kritisiert.Hat er auch. Links und rechts ist die Textur natürlich nicht rechtwinklig, entsprechend setzt die AF-Winkelabhängigkeit ein. Immer an das Pixel im Texelspace denken! Sobald es kein Rechteck mehr ist, geht es mit der Winkelabhängigkeit los.

Gast
2006-10-08, 20:45:04
Wie man hoffentlich erkennen kann, ist das AF (trotz der leicht anderen Perspektiven), wesentlich besser.



beim ersten kommt zeigt die winkelabhängigkeit ihre auswirkungen, wobei sie hier meiner meinung nicht wirklich stark sind.

beim 2. shot sind das aber völlig andere perspektiven, das fragliche polygon ist einmal 25 pixel hoch, beim zweiten mal 70 pixel.

das erste ist also mehr als doppelt so stark verzerrt, um annähernd die gleiche schärfe zu erreichen müsste der AF-grad im ersten scrennshot um 2 stufen höher sein.

Sonyfreak
2006-10-08, 21:50:42
Du musst doch auf den ersten Blick sehen, dass bei Deinem ATI Vergleichbild die Textur im 2. Shot wesentlich weniger stark gestaucht ist, oder?Zuerst mal habe ich keine ATI Karte in einem meiner Windowsrechner wie oben schon geschrieben. :wink:

Mir ist es aufgefallen, dass der Winkel nicht gleich ist, allerdings ist das mit Augenmaß auch recht schwer. Ich werde es aber morgen nochmal versuchen, und dann hier zwei möglichst identische Vergleichsbilder reinposten.

mfg.

Sonyfreak

The_Invisible
2006-10-08, 23:22:47
Zuerst mal habe ich keine ATI Karte in einem meiner Windowsrechner wie oben schon geschrieben. :wink:

Mir ist es aufgefallen, dass der Winkel nicht gleich ist, allerdings ist das mit Augenmaß auch recht schwer. Ich werde es aber morgen nochmal versuchen, und dann hier zwei möglichst identische Vergleichsbilder reinposten.

mfg.

Sonyfreak

sorry wenn ich es so sage, aber genau durch solche "usertests" entstehen falsche eindrücke von verschiedenen bildqualitätsettings wenn man es nicht 100% genau macht bzw machen kann

zb würde es mich mit "richtigen tests" mal interessieren wie es um Q (default) vs Q (alle optimierungen aus) vs HQ wirklich steht

mfg

MarcWessels
2006-10-08, 23:41:47
GT-Legends ist mit 4xS, TSSAA und 8xAF (in meinen Einstellungen!) absolut OK.
Klar, das (von ATI 'erfundene' ;-) wa-AF ist ein effektiver Nachteil in 'unebenen' Games, den ja auch fast alle ATI-Generationen teilen... aber das ist nun ein wirklich alter Hut und wird sich vermutlich mit der nächsten Generation ändern.Was ist mit den Linien auf der Fahrbahn?

Gast
2006-10-09, 00:34:00
sorry wenn ich es so sage, aber genau durch solche "usertests" entstehen falsche eindrücke von verschiedenen bildqualitätsettings wenn man es nicht 100% genau macht bzw machen kann

zb würde es mich mit "richtigen tests" mal interessieren wie es um Q (default) vs Q (alle optimierungen aus) vs HQ wirklich steht

mfg
Habe noch mal die Couter-Strike Compound Map mit der Einstellung Quality ohne Optimierungen getestet. Mein Eindruck war, dass die IQ durchaus mit Ai standard vergleichbar ist. Eher ist das Flimmern schwächer aber dafür mehr über das Bild verteilt.
Allerdings kann ich das nur anhand Raffs Video beurteilen, da mir die X1xxx Serie nicht zur Verfügung steht!

Grestorn
2006-10-09, 07:50:58
Hat er auch. Links und rechts ist die Textur natürlich nicht rechtwinklig, entsprechend setzt die AF-Winkelabhängigkeit ein. Immer an das Pixel im Texelspace denken! Sobald es kein Rechteck mehr ist, geht es mit der Winkelabhängigkeit los.

Nun begeb ich mich ein wenig aufs Glatteis, aber das bezweifle ich doch stark. Dann würde ja jede Textur, die rechtwinklig zum Betrachter steht, also jede Boden und jede Wandtextur an den Rändern Unschärfe zeigen. Und das ist auch bei winkelabh. AF noch nie der Fall gewesen.

Nach allem, was ich bisher gelesen habe, muss das Polygon ggü. dem Betrachter schiefwinklig atehen, damit das wa AF Nachteile bringt. Das haben auch alle Screenshots, die ich bisher sah, so gezeigt.

Bist Du Dir wirklich 100% sicher mit Deiner Aussage, aths?

Razor
2006-10-09, 11:06:00
Hier zwei Beispiele für solche Situationen, die bei EQ2 häufig vorkommen:

http://666kb.com/i/ai6za9wfm6xagnnwg.png
http://666kb.com/i/ai6zcz8evgrrugw5c.pngWarum sieht dann das AF auf der 5900XT, die jetzt im PC meines Bruders arbeitet, wesentlich besser aus?
Hier noch mal zwei Bilder, nur diesmal von der FX:

http://666kb.com/i/ai71lsdgahidif8w0.png
http://666kb.com/i/ai71lfv8ktap8l0ao.png

Wie man hoffentlich erkennen kann, ist das AF (trotz der leicht anderen Perspektiven), wesentlich besser.

"Leicht andere Perspektive"?
Hast Du Dir das eigentlich mal im Detail angesehen?
:confused:

Hier mal ein direkter Vergleich, den Du eigentlich auch mal selber hättest machen können:

http://mitglied.lycos.de/razor3dc/pics/EQ2_2_vergl.png

Der Unterschied ist wie Himmel und Hölle!

Ganz im Gegenteil sieht der Shot der GF7 sogar sehr viel besser aus, als der der FX. Die Details sind sehr viel besser heraus gearbeitet, Kontrast und Farbgebung wesentlich ansprechender. Die von Dir beanstandete Stelle ist - wie Grestorn ja schon sagte - mit Sicherheit auf die Unvergleichbarkeit der beiden Shots zurück zu führen... unterschiedliche Aufnahme-Positionen und vermutlich nicht einmal vergleichbare Treiber-/InGame-Einstellungen. Auch sieht es so aus, als ob bestimmte Optimierungen im Treiber bei der GF7 nicht deaktiviert wurden... die ansioOpts sind hier wohl noch zum Teil an.

Deaktiviere die Optimierungen, versuche heraus zu finden, mit welchen Einstellungen (und überhaupt welcher Game-Version... mit/ohne Mods?) Du da überhaupt vergleichst und ziehe vergleichbare Positionen heran.

Razor

P.S.: und Dein erster Vergleich ist eigentlich ein gutes Beispiel, dass wa-AF nicht unbedingt stören muss... da gibt es sehr viel schlimmere Situationen in denen diese Form der Optimierung wirklich kaum zu ertragen ist.

Razor
2006-10-09, 11:07:38
Was ist mit den Linien auf der Fahrbahn?

Was soll damit sein?
:confused:

Irgendwie passt Deine Frage nicht zu Zitat...

Razor

Gast
2006-10-09, 11:11:20
Was soll damit sein?
:confused:

Irgendwie passt Deine Frage nicht zu Zitat...Hör mal auf dich dumm zu stellen.

Razor
2006-10-09, 11:29:10
Nöh...
Gerade die Farbahnmarkierungen "in der Ferne" sehen mit 8xAF einfach besser aus.
Und bei anderen Anwendungen 'stört' 8xAF zumindest nicht (meistens ;-).

<..>

GT-Legends ist mit 4xS, TSSAA und 8xAF (in meinen Einstellungen!) absolut OK.
Klar, das (von ATI 'erfundene' ;-) wa-AF ist ein effektiver Nachteil in 'unebenen' Games, den ja auch fast alle ATI-Generationen teilen... aber das ist nun ein wirklich alter Hut und wird sich vermutlich mit der nächsten Generation ändern.

Razor

Gast
2006-10-09, 11:38:10
Und was ist mit den Linien auf der Fahrbahn?

Sonyfreak
2006-10-09, 15:59:00
Ich habe den Test in EQ2 nochmal gemacht, genau wie vorher nur diesmal mit wirklich fast identischem Blickwinkel(etwa diese Stelle KLICK (http://mitglied.lycos.de/razor3dc/pics/EQ2_2_vergl.png)). An der Güte der Filterung konnte ich zumindestens keinen Unterschied bemerken, dafür flimmert das AF auf der Geforce 7 doch relativ deutlich, was man aber auf den Screenshots nicht sehen kann.

Getestet habe ich die Stelle auf beiden PCs mit dem Forceware 91.47, HQ Settings im Treiber eingestellt nach bewährter Art und anschließend AA und AF eingeschalten.

Da die Screenshots leider wieder nicht komplett identisch sind, da sich eben der Stand der Sonne in der Zwischenzeit geändert hat, habe ich ihn nicht hochgeladen. Sollte jemand trotzdem die beiden Vergleichsbilder sehen wollen, kann ich sie später noch nachliefern.

mfg.

Sonyfreak

EDIT: Falls jemand ersthaftes Interesse haben sollte, kann ich noch versuchen, eine Szene aus einem anderen Spiel zu vergleichen.

Grestorn
2006-10-09, 16:08:04
Ich habe den Test in EQ2 nochmal gemacht, genau wie vorher nur diesmal mit wirklich fast identischem Blickwinkel(etwa diese Stelle KLICK (http://mitglied.lycos.de/razor3dc/pics/EQ2_2_vergl.png)). An der Güte der Filterung konnte ich zumindestens keinen Unterschied bemerken, dafür flimmert das AF auf der Geforce 7 doch relativ deutlich, was man aber auf den Screenshots nicht sehen kann.

Getestet habe ich die Stelle auf beiden PCs mit dem Forceware 91.47, HQ Settings im Treiber eingestellt nach bewährter Art und anschließend AA und AF eingeschalten.

Da die Screenshots leider wieder nicht komplett identisch sind, da sich eben der Stand der Sonne in der Zwischenzeit geändert hat, habe ich ihn nicht hochgeladen. Sollte jemand trotzdem die beiden Vergleichsbilder sehen wollen, kann ich sie später noch nachliefern.

mfg.

Sonyfreak

EDIT: Falls jemand ersthaftes Interesse haben sollte, kann ich noch versuchen, eine Szene aus einem anderen Spiel zu vergleichen.

Bei den Texturen darf nix flimmern. Was genau soll da flimmern? Bist Du sicher, dass Du die Einzel-Optimierungen auch alle ausgeschaltet hast?

Sonyfreak
2006-10-09, 16:31:15
Ich in mir ganz sicher, alle Optimierungen ausgeschalten zu haben. Zuerst in den Quality Mode geschalten, dann alle Optimierungen von Hand abgeschalten, und nachher noch in den High Quality Modus geschalten.

Für das Video habe ich die ganze Prozedur extra noch einmal wiederholt, um ganz sicher zu gehen, dass alles passt. Von besagter Stelle habe ich noch ein Video gemacht, dass ich noch in ein selbstentpackendes 7-Zip Archiv gegeben, und dann bei Rapidshare hochgeladen habe. Hier klicken (http://rapidshare.de/files/36088997/EverQuest2_2006-10-09_16-20-08-31.exe.html)

mfg.

Sonyfreak

aths
2006-10-09, 16:57:03
Nun begeb ich mich ein wenig aufs Glatteis, aber das bezweifle ich doch stark. Dann würde ja jede Textur, die rechtwinklig zum Betrachter steht, also jede Boden und jede Wandtextur an den Rändern Unschärfe zeigen. Und das ist auch bei winkelabh. AF noch nie der Fall gewesen. Die Frage ist, wie groß die Unschärfe wird. Natürlich fällt die Schärfe nicht gleich auf das Level von 2x AF. Dass beim Betrachten eines Bodens und perfekter (kreisrunder) LOD-Berechung links und rechts, "wo es schräg wird", das MIP-Band Richtung unten wandert (also zum Betrachter hin) ist klar. Unschärfer wird es am Rand bei den starken Verzerrungen mit oder ohne AF (je nach dem, wie stark die Verzerrungen sind.)

Bist Du Dir wirklich 100% sicher mit Deiner Aussage, aths?Beim AF spielt die Lage des Polygons direkt keine Rolle mehr, Texturfilterung ist eine 2D-Angelegenheit. Quadbasierte Texturfilterung wird mit den Texelkoordinaten-Abständen innerhalb des Quads vorgenommen. Die einzige Möglichkeit die ich für stark winkelabhängiges AF sehe ist, im als Parallelogramm vereinfachten Pixel im Texture Space als Line of Anisotropy nur entweder die Verbindung der längsten Diagonalen zu nehmen (für 45°-Winkel) oder die Verbindung der Seitenhalbierenden der beiden kürzeren Seitenlängen (für 90°-Winkel.) Ein schneller Test mit dem OpenGL-Filter-Tester ergab, dass auch das stark winkelabhängige AF die Randbereiche links und rechts noch zu waagerecht laufenden MIP-Bändern macht. Seltsamerweise zeigt der Vordergrund (Übergang MIP 0 und MIP 1) ein seltsames Zackenmuster. In diesem Lichte: Was AF angeht, bin ich mir mit keiner meiner Aussagen zu 100% sicher.

Weit außen links und rechts müsste das Pixel im Texture Space zwar ein ziemlich schiefes Parallelogramm sein, aber mit sehr ungleich großen Seitenkanten. Dann könnte die Vereinfachung auf ein Rechteck für die A-Filterung noch genügend genaue Ergebnisse liefen. Jedenfalls muss man von dieser Warte aus gucken, es ist nicht so dass er die Lage des Polygons feststellt und anhand dessen den Max-AF-Grad herunterregelt.

Mr. Lolman
2006-10-09, 17:01:59
Und was ist mit den Linien auf der Fahrbahn?

Razor findet sie ok (Und das wären sie wohl auch , wenn ATi nicht vorgemacht hätte, dass man auch Mipmaps mit negativem LOD Bias schön filtern kann).

aths
2006-10-09, 17:08:47
Razor findet sie ok (Und das wären sie wohl auch , wenn ATi nicht vorgemacht hätte, dass man auch Mipmaps mit negativem LOD Bias schön filtern kann).Die Filterqualität bei negativem LOD spielt keine Rolle, da negatives LOD per se schlecht ist. Anstatt solche Phantom-Diskussionen zu führen sollte man beim Topic bleiben.

Da kann ich aus eigener Erfahrung sagen: Der HQ-Modus ist vom Flimmern her grenzwertig, der Q-Modus ohne zusätzliches Supersampling eine Zumutung für den qualitätsbewussten Spieler. Von der AF-Texturschärfeverteilung ist die GF6 und GF7 generell eine Zumutung. Razors ständiges Lavieren wie toll die GF7 doch sei, zeugt von mangelndem Problembewusstsein. Darauf braucht man auch nicht weiter eingehen, denn er lässt sich nicht von Tatsachen verwirren.


Dass das AF bei negativem LOD-Bias bei einer aktuellen GF voll in die Hose geht liegt an der Performance-optimierten Implementierung. ATIs AF nutzt tendenziell eine zu hohe Abtastrate und kann damit teilweise negatives LOD ausgleichen.

Mr. Lolman
2006-10-09, 17:22:06
Die Filterqualität bei negativem LOD spielt keine Rolle, da negatives LOD per se schlecht ist. Anstatt solche Phantom-Diskussionen zu führen sollte man beim Topic bleiben.

Um bis zum Horizont scharfe Begrenzunglinien haben zu können, braucht man anscheinend negatives LOD. 16xAF allein reicht da nicht aus, wie man schon an div. NV Screenshots sehen konnte. Außerdem sehen Bäume und Gräser einfach besser aus, wenn das LOD minimal negativ ist. Denn oft wird schon bei der 1. Mip von div. Alphatexturen der Großteil der Struktur eingebüßt, weswegen gerade botanische Objekte etwas eigen aussehen, sobald aus ner Mip>0 gesampelt wird.

Außerdem sind mir tw. noch Unstimmigkeiten mit Render2Texture aufgefallen, wodurch, z.B. das gesamte Bild im Rückspiegel eines LFS2 Wagens mit LOD Clamp unschärfer ist, als ohne LOD Clamp (ohne das 2.eres zum Flimmern neigen würde)

Da wir diese Diskussion nicht zum ersten Mal führen und anscheinend dabei nie ein Ergebnis rausschaut, bitte ich dich zu beachten, dass anscheinend min 4. verschiedene Rennspielhersteller alle negatives LOD verwenden, um in dem einen oder anderen Bereich zu zusätzlicher Schärfe zu kommen. Dass dies nichts mit dem Unvermögen der Artists zu tun hat, zeigt auch der Umstand, dass in solchen Fällen negatives LOD nicht einfach generell einngesetzt wird, sondern nur auf Texturen bei denen das auch augenscheinlich einen Sinn ergibt, appliziert wird.

aths
2006-10-09, 17:46:52
Um bis zum Horizont scharfe Begrenzunglinien haben zu können, braucht man anscheinend negatives LOD. 16xAF allein reicht da nicht aus, wie man schon an div. NV Screenshots sehen konnte. Außerdem sehen Bäume und Gräser einfach besser aus, wenn das LOD minimal negativ ist. Denn oft wird schon bei der 1. Mip von div. Alphatexturen der Großteil der Struktur eingebüßt, weswegen gerade botanische Objekte etwas eigen aussehen, sobald aus ner Mip>0 gesampelt wird. Das ist alles auf grundlegende Probleme zurückzuführen, die man beim MIP-Mapping nun mal hat. Gerade Alphatesting ist beim MIP-Mapping problematisch. (Auch Normal-Maps lassen sich nur schlecht mippen. Man nimmt Texturfilterung aus mehreren Gründen für alles mögliche und nicht nur für den Einsatzzweck, wo sie gut funktioniert.) Was du "besser" nennst, ist lediglich flimmriger, auch wenn es bei ATIs AF und gemäßigtem LOD-Biasing noch nicht gleich übelst losflimmert. Dass mit den Fahrbahnbegrenzungen in der Ferne wird vermutlich daran liegen, dass ein höheres Verzerrungsverhältnis als 16:1 vorliegt. Dann kann 16x AF auch nicht mehr für Texelschärfe bis ins letzte Pixel sorgen. LOD-Biasing macht die letzten Pixel schärfer, aber lässt dann auch die gesamte Straßentextur flimmern. Flimmert die gesamte Straßentextur noch nicht, dann weil sie per se zu unscharf ist. Ein AF welches in der Regel übermäßig abtastet, kostet dann auch mehr Leistung. ATIs Plus ist es, dass ihr Area-AF bis zu 8x sehr gut ist und der Geschwindigkeitsverlust dabei noch in Ordnung ist, während bei die GeForce die Combiner während der A-Filterung die meiste Zeit ruhen was Performanceverschwendung ist (aber in normalen Spielen, die Multitexturing nutzen, keinen großen Unterschied macht.)

Insofern ist ATIs AF-Lösung als dreifach überlegen anzusehen:

- Mit A. I. off kein Flimmern.

- Mit Area-AF bishin zu 8x AF eine erträgliche Winkelabhängigkeit.

- Sehr gute Performance trotz trilinearem 8x-AF.


Trotzdem sehe ich keinen Sinn in der Diskussion, wie sich das AF bei negativem LOD-Bias schlägt. Dann könnten wir auch anfangen, über DVC und "Bildschärfung" auf Nvidia-Karten zu sprechen ... (es gibt Leute, die mögen und nutzen das, obwohl es die Bildqualität objektiv nicht verbessert.)

Außerdem sind mir tw. noch Unstimmigkeiten mit Render2Texture aufgefallen, wodurch, z.B. das gesamte Bild im Rückspiegel eines LFS2 Wagens mit LOD Clamp unschärfer ist, als ohne LOD Clamp (ohne das 2.eres zum Flimmern neigen würde)Mangels großer Erfahrung mit LFS sind mir solche Details noch nicht aufgefallen. Was Nvidia beim LOD-Clamp genau macht, ist mir nicht bekannt. Angeblich wird das LOD-Bias auf 0 geclampt. Ich erinnere mich schwach an Forenpostings die so auslegbar sind, dass das nicht die gesamte Wirkung vom LOD-Clamp-Schalter sein kann, aber weiß nicht, in welchen Threads das war.

Da wir diese Diskussion nicht zum ersten Mal führen und anscheinend dabei nie ein Ergebnis rausschaut, bitte ich dich zu beachten, dass anscheinend min 4. verschiedene Rennspielhersteller alle negatives LOD verwenden, um in dem einen oder anderen Bereich zu zusätzlicher Schärfe zu kommen.... dann im Tausch gegen zusätzliches Aliasing.

Dass dies nichts mit dem Unvermögen der Artists zu tun hat, zeigt auch der Umstand, dass in solchen Fällen negatives LOD nicht einfach generell einngesetzt wird, sondern nur auf Texturen bei denen das auch augenscheinlich einen Sinn ergibt, appliziert wird.Texturfilterung funktioniert nur so lange, wie nicht am LOD-Bias gespielt wird. Beim Alphatesting funktioniert der Filter sowieso nicht mehr richtig. Ein Grund mehr, auf reinen Alphatest zu verzichten.

Razor
2006-10-09, 18:55:48
An der Güte der Filterung konnte ich zumindestens keinen Unterschied bemerken,

...was schon mal gut ist.

dafür flimmert das AF auf der Geforce 7 doch relativ deutlich, was man aber auf den Screenshots nicht sehen kann.

...was eine glatte Lüge sein dürfte!

Sorry, aber jetzt glaube ich eher, dass Du Dir was an den Haaren herbei ziehst!
Bei EQ2 kann da überhaupt nix flimmern... offenbar weißt Du auch gar nicht, was es mit der "Flimmer-Problematik" auf sich hat.

Mach' ein Video, wenn Du das 'Flimmern' beweisen möchtest...
(auch wenn dies keinen Sinn haben dürfte ;-)

Razor

Razor
2006-10-09, 19:01:45
Razors ständiges Lavieren wie toll die GF7 doch sei, zeugt von mangelndem Problembewusstsein. Darauf braucht man auch nicht weiter eingehen, denn er lässt sich nicht von Tatsachen verwirren.

Geht es Dir noch gut aths?

Ich selber schrieb davon, dass die Filterung von NV40+ suboptimal sei (diese als "Zumutung" zu bezeichnen zeugt von Ignoranz ;-) und lediglich die Filterqualität bis NV3x (FX5x00!) das beste ist und bleibt, was bis dato zu erblicken war... einschließlich der jetzt gebotenen "Qualität" (ohne Bugfixing für Games!) von ATI.

Ein 'tradeoff', der mir gar nicht schmecken würde...

Razor

Banshee18
2006-10-09, 19:06:20
- Mit Area-AF bishin zu 8x AF eine erträgliche Winkelabhängigkeit.
Auch bei 16x AF, imho. Schoneinmal in der Praxis gesehen?

Gast
2006-10-09, 19:36:13
Wie hast du trilinear gefilterte Lightmaps getestet, wenn für diese gar keine MIP-Maps vorliegen? Es ergibt gar keinen Sinn, mit trilinear gefilterten Lightmaps spielen zu wollen.
Wie kann etwas "Sinn ergeben"? Das ist eine genauso sinnlose Formulierung wie die, etwas würde keinen Sinn "machen".

Zum Thema: Das war ein Beispiel.

Sonyfreak
2006-10-09, 20:32:19
Mach' ein Video, wenn Du das 'Flimmern' beweisen möchtest...
(auch wenn dies keinen Sinn haben dürfte ;-)
Kleiner Tipp: Sieh dir mal meinen vorigen Post an!

Ich finde es übrigens wirklich super von dir, mich der Lüge zu bezichtigen. Wenn das hier das allgemeine Verhalten von dir gegenüber mir in Zukunft sein sollte, werde ich dich ab sofort ignorieren müssen. Mir wäre es aber deutlich lieber, wenn du dir mal überlegst, was du schreibst und du gegebenenfalls auch lernst, dich zu benehmen. :mad:

mfg.

Sonyfreak

Gast
2006-10-09, 22:56:23
Razor findet sie ok (Und das wären sie wohl auch , wenn ATi nicht vorgemacht hätte, dass man auch Mipmaps mit negativem LOD Bias schön filtern kann).

naja, schön ist was anderes, weniger schrottig als die konkurrenz eher.

Gast
2006-10-09, 23:00:15
Auch bei 16x AF, imho. Schoneinmal in der Praxis gesehen?

die winkelabhängigkeit ist zwar auch auf 16x in ordnung, allerdings gibt es starke LOD-probleme.

da dies vor allem schräge texturen betrifft, dürfte das genau dann nicht auffallen, wenn WA-AF auch nicht aufflällt ;)

Mr. Lolman
2006-10-09, 23:18:14
die winkelabhängigkeit ist zwar auch auf 16x in ordnung, allerdings gibt es starke LOD-probleme.


Die LOD Probleme sind aber nur im Bereich zu finden, wo 16x gefiltert wird. D.h. schlimmstenfalls hat man an den Stellen nur 8xAF, was aber imo kein Grund ist 8xAF generell vorzuziehen...

akuji13
2006-10-09, 23:42:03
Tjo... nur leider ist OpenGL die am weitesten verbreitete Grafik-Schnittstelle überhaupt.
Aus dem professionellen Umfeld sogar überhaupt nicht weg zu denken!

Merke: OpenGL deckt 100% aller (PC-)Systeme ab, D3D 'nur' etwa 97%...
;)

Egal... wer so etwas schreibt hat sich automatisch als Noob geoutet.
Besser nächstes mal etwas nachdenken, bevor man so etwas schreibt...


Stimmt,als Noob hast du dich gerade geoutet.
Und lesen ist auch nicht deine Stärke,war sie aber auch noch nie in den letzten Jahren.
Über was für Karten wird in diesem thread im allgemeinen gesprochen?
Richtig!
Karten ala 7900 GTX und X1900 XTX...die welchem Zweck dienen?
Richtig!
Dem Spielen!
Damit betreibt man nichtmal Inventor und schon garnicht ein professionelles Programm.
Scheinbar hast du in deinem ganzen Leben noch kein einziges mal vor einem Rechner gesessen mit dem gearbeitet wird,da stecken die Karten um die es hier geht garnicht drin.
Also brauche ich auch keinen Windows (!) OpenGL Treiber,denn da ist garkein Windows drauf. :wink:
Merke: im Spielesektor ist und bleibt OpenGL tot und HighEnd Karten von NV und ATI werden primär für das Darstellen von Windows Spielen gebaut (Schonmal was von Zielgruppen gehört?),alles andere ist gnädiges Beiwerk.
Wenn OpenGL soooo wichtig wäre,würde es auch von ATI bessere Treiber geben.
Zu Vista: es gibt kein Vista,für Betas Treiber zu entwckeln ist Zeitverschwendung.
Deine Äpfel-Birnen Vergleiche sind ziemlich abwegig,gleich versuchst du uns noch zu erzählen FireWire wäre für Windows Benutzer wichtig,weil die Verbreitung in der Apple Welt ganz gut ist.
Wie war das mit dem erst denken dann schreiben?

Raff
2006-10-09, 23:48:58
Meint ihr ernsthaft, dass ihr mit eurem liebevollen Umgang irgend etwas sinnvolles erreicht?

MfG,
Raff

Gast
2006-10-09, 23:50:07
@Razor
aths ist ein Ignorant und Sonyfreak ein Lügner. Jetzt, wo es feststeht, könnte man die Diskussion fachmännisch weiter führen. Oder möchtest du noch weitere Persönlichkeitsanalysen hinzufügen?

Gast
2006-10-09, 23:52:08
Meint ihr ernsthaft, dass ihr mit eurem liebevollen Umgang irgend etwas sinnvolles erreicht?Ich find, wenn Razor hier mal fertig ist, wird man sich ganz normal weiter unterhalten können. Alterungsprozesse scheinen leider nicht per se von Reifeprozessen begleitet zu werden :(

Sven77
2006-10-10, 00:07:20
Scheinbar hast du in deinem ganzen Leben noch kein einziges mal vor einem Rechner gesessen mit dem gearbeitet wird,da stecken die Karten um die es hier geht garnicht drin.

du anscheinend auch nicht, consumer-karten sind in diesem bereich verbreiteter als du denkst. nicht jedes animationsstudio hat für jeden mitarbeiter eine 6000eur workstation. mal davon abgesehen, das die Quadro-karten nix anderes als minimal geänderte Geforces sind. lustig das bei uns z.B. nur Nvidias (von 6800GT bis Quadro 4500) im einsatz sind, und keine ATI's.. die sind nämlich unbrauchbar (auch die FireGL). und nein, wir daddeln im büro nicht :rolleyes:

Also brauche ich auch keinen Windows (!) OpenGL Treiber,denn da ist garkein Windows drauf.

nämlich? bitte mal z.B. bei autodesk nachschauen, welche OS die dortigen programme unterstützen..

Merke: im Spielesektor ist und bleibt OpenGL tot und HighEnd Karten von NV und ATI werden primär für das Darstellen von Windows Spielen gebaut (Schonmal was von Zielgruppen gehört?),alles andere ist gnädiges Beiwerk.
Wenn OpenGL soooo wichtig wäre,würde es auch von ATI bessere Treiber geben.

im moment sieht es mau aus, zugegeben. aber da OpenGL im professionellen bereich allgegenwärtig ist und es dort auch bleiben wird, würd ich nicht allzuschlecht über die zukunft von OpenGL urteilen. im gegenteil, echtzeitvisualisierung ist im moment in aller munde (stichwort Nvidia Quadroplex).. directX wird da sicher kein fuss fassen ;)
das ATI keine anständigen OpenGL treiber auf die reihe bringt, dürfte daran liegen das sie die gleiche meinung vertreten wie du.. reine spezialisierung auf gamer, während nvidia eher ein mehrschichtiges klientel bedient.

vielleicht OT, aber OpenGL ist nicht tot, und wird sicher auch nicht so schnell sterben

Gast
2006-10-10, 00:09:11
das ATI keine anständigen OpenGL treiber auf die reihe bringt, dürfte daran liegen das sie die gleiche meinung vertreten wie du.. reine spezialisierung auf gamer, während nvidia eher ein mehrschichtiges klientel bedientHej Member, darf ich dich auf das Threadthema aufmerksam machen? Danke.

Tamro
2006-10-10, 01:02:24
Hej Member, darf ich dich auf das Threadthema aufmerksam machen? Danke.
Kann das Teil hier mal geschlossen werden?

Mittlerweile sind wir an einem Punkt, der zum eigentlichen Thema nicht mehr allzuviel beiträgt. Ich würde euch alle gerne mal an einem runden Tisch sehen über diese Themen diskutierend, wäre bestimmt sehr unterhaltsam.

/edit:

Jetzt verschwende ich für so einen Post meinen 900. Eintrag. :(

Gast
2006-10-10, 01:07:23
Vielleicht könnte man einfach zum Thema zurückkehren? Muß ja nicht heißen, daß wenn irgendwelche Vollpfosten von 9 Seiten die 2 letzten schreddern wollen, ein Thread automatisch kaputt ist. Das wäre ja einfach ;)

Wer wagt ein "Zwischenresummee" zum Thema? Was fehlt noch um brauchbare Schlüße zu ziehen? Wie stellt man es an(/ein)?

akuji13
2006-10-10, 01:25:38
das ATI keine anständigen OpenGL treiber auf die reihe bringt, dürfte daran liegen das sie die gleiche meinung vertreten wie du.. reine spezialisierung auf gamer, während nvidia eher ein mehrschichtiges klientel bedient.

Ja...leider (auch wenn es mich nicht betrifft).
Das solls dann auch gewesen sein mit ot,die anderen haben Recht mit ihrer Kritik,das Thema ist auch mir entglitten.

@back to topic

Das Ganze hat mir keinerlei neue Erkenntnis gebracht,ich schalte grundsätzlich alle "Optimierungen" (Verarschungen würde auch passen) aus und gehe bei den NVs auf hohe Qualität.
Außnahme z.B. mit den ATIs bei Oblivion,wo ich A.I. nutzen muss um HDR+AA zu bekommen.
Das sieht dann aber immer noch besser aus als auf meiner 7900 GTX.
Dafür sieht mit der NV aber z.B. das AF in Brothers in Arms besser aus.

Ich bleibe dabei,eigentlich muss man eine HighEnd von NV und ATI haben,dumm nur das man dazu gleich 2 Rechner braucht,oder hat schon jemand jeweils 1 auf einem SLi Board untergebracht und abwechselnd betrieben?
(Ich glaube ich versuch das mal,genug Hardware liegt hier ja rum. :smile: )
Alleine schon,um aus jedem Spiel das Optimum an Geschwindigeit rauszuholen,denn wie wir alle wissen laufen bestimmte Spiele unterschieldich schnell auf den Herstellern.
Das auch A.I. flimmert,war mich eigentlich schon immer klar,nur weil es am Anfang selten geflimmert hat,was vermutlich an günstigen Texturen gelegen hat.

4711
2006-10-10, 11:26:34
Außnahme z.B. mit den ATIs bei Oblivion,wo ich A.I. nutzen muss um HDR+AA zu bekommen.
Das sieht dann aber immer noch besser aus als auf meiner 7900 GTX

genau zumal man ja kein AA hat bei HDR.........was ein Wunder und was ein Vergleich.

aths
2006-10-10, 14:33:26
Auch bei 16x AF, imho. Schoneinmal in der Praxis gesehen?Die "Praxis" verschleiert oft Sachen, die sich in synthetischen Tests objektiv zeigen lassen. Im 16x-Modus hat das Area-AF Schwächen in der korrekten LOD-Berechnung. Trotzdem ist ATIs aktuelles Area-AF bei A. I. off Nvidias aktuellem HQ-AF insgesamt um Längen voraus. Kürzlich habe ich etwas Max Payne 1 gezockt und mir fiel die starke Winkelabhängigkeit schnell ins Auge. Imo absolut lächerlich bei einer Karte von der Leistung einer 7600 GT. SM3 inkl. Vertex Texturing! FP16-Texturfilterung für Pixel! Absurde 6,7 Gigatexel Leistung! Und dann so eine unwürdige AF-Qualität.

Wie kann etwas "Sinn ergeben"? Das ist eine genauso sinnlose Formulierung wie die, etwas würde keinen Sinn "machen".Nein. Im Deutschen kann etwas Sinn ergeben, aber nicht Sinn machen.

Razor
2006-10-10, 20:21:14
Karten ala 7900 GTX und X1900 XTX...die welchem Zweck dienen?
Richtig!
Dem Spielen!

Und worauf basieren diese "HighEnd"-Lösungen?
Richtig!
Auf Mainstream-Chips.

Soll das etwa bedeuten, dass es - nur weil es HighEnd-Varianten einer GPU-Generation gibt - deswegen keine vernünftigen Treiber für den Mainstream/Office/Workstation-Bereich geben soll?

Sorry, aber Deine Argumentation geht leider vollkommen an der Realität vorbei!

Razor

Mr.Magic
2006-10-10, 20:42:14
Andersrum wird ein Schuh draus. Erst werden die Highend-GPUs entwickelt und dann speckt man diese für den Mainstream ab.

Razor
2006-10-10, 21:08:38
Andersrum wird ein Schuh draus. Erst werden die Highend-GPUs entwickelt und dann speckt man diese für den Mainstream ab.

Ah ja...
Wenn Du also tatsächlich der Meinung bist, dass das 'große' Geld mit HighEnd-Karten gemacht wird?
:confused:

Razor

Mr.Magic
2006-10-10, 21:15:30
Was glaubst du warum bei der Markteinführung neuer Modelle zuerst Highend auf den Markt kommt? Die sind die Schablone, dann sägt man einfach ein paar Pixel-/Vertex-Einheiten etc. weg und hat seine Mainstreamkarte. Häufig sind, vor allem anfangs, Mainstream-Karten auch einfach Highend-Produkte mit defekten Einheiten.

BAGZZlash
2006-10-10, 23:39:11
Ah ja...
Wenn Du also tatsächlich der Meinung bist, dass das 'große' Geld mit HighEnd-Karten gemacht wird?
:confused:

Razor

Mir fällt zum wiederholten Male Deine unsachliche Argumentation auf, Razor. Hat er doch gar nicht gesagt. Im Gegenteil, was er sagt, stimmt.

Razor
2006-10-11, 09:11:26
Was glaubst du warum bei der Markteinführung neuer Modelle zuerst Highend auf den Markt kommt? Die sind die Schablone, dann sägt man einfach ein paar Pixel-/Vertex-Einheiten etc. weg und hat seine Mainstreamkarte. Häufig sind, vor allem anfangs, Mainstream-Karten auch einfach Highend-Produkte mit defekten Einheiten.

Informier Dich bitte, was die komplexe Entwicklung solcher Einheiten angeht.
Da wird keinesfalls etwas "weg gesägt", um Mainstream-Produkte zu erhalten...
...würde ein IHV so etwas vorsätzlich machen, wäre er schon pleite, bevor er angefangen hat.

Fakt ist, dass eine Massenproduktion von Mainstream-Chips ganz anders vorbereitet werden muss, als die Fertigung von ein paar HighEnd-Chips, die zur not (jetzt mal übertrieben) in einer Prototyp-Fertigung erzeugt werden können. Geht bei einer Massenfertigung etwas schief, dann gerät die gesamte Produktion in Gefahr und die ursprüngliche Kalkulation (in der es um Cents geht!) kann den Bach runter gehen... auch werden HighEnd-Chips aus Marketing-Fründen zuerst released, um den Markt "anzufüttern".

Aber es geht hier in diesem Thread nicht um Fertigungs-Mechanismen, oder?
Offenbar hast Du Dich mit der Thematik noch nicht auseinander gesetzt, sondern versuchst Dinge aus der Beobachtung heraus für Dich zu erklären.

Im Gegenteil, was er sagt, stimmt.

Bist Du seine "Mama"?
:confused:

Nein, tut es nicht.
Und wenn Du nichts zu Thema beizutragen hast, dann würde ich Dich bitten... ach was solls.

Razor

Grestorn
2006-10-11, 09:39:57
Man muss nicht immer recht haben, Razor. In diesem Fall hast Du nicht recht.

Es geht nicht um Fertigungstechniken, wie Du ja auch selbst festgestellt hast. Warum Du dann auf einmal darauf kommst, damit zu argumentieren, dass MainStream-Lösungen ganz andere Anforderungen in der Fertigung haben als MainStream-Lösungen ist um so unverständlicher.

Aber um Dich mal selbst zu zitieren:

"Und worauf basieren diese "HighEnd"-Lösungen?
Richtig!
Auf Mainstream-Chips."

Und da immer zuerst HighEnd Lösungen auf den Markt kommen, BASIEREN die Mainstream-Lösungen in der Tat auf den HighEnd-Lösungen von der Architektur her.

Von Fertigung war gar nicht die Rede, sondern von der Architektur.

Du hast im Übrigen manchmal eine mehr als unangebrachte Art zu reagieren, wenn jemand anderer Meinung ist als Du selbst.

Razor
2006-10-11, 09:47:41
Und da immer zuerst HighEnd Lösungen auf den Markt kommen, BASIEREN die Mainstream-Lösungen in der Tat auf den HighEnd-Lösungen von der Architektur her.

Marketing ist keine technische Notwendigkeit!
Du solltest das eigentlich wissen...

Razor

AnarchX
2006-10-11, 09:52:31
Ob Highend, Mainstream oder Lowend, all diese GPUs basieren auf einer skalierbaren Architektur...;)

Aber diese Diskussion ist hier absolut OT.

Tamro
2006-10-11, 10:31:05
Ob Highend, Mainstream oder Lowend, all diese GPUs basieren auf einer skalierbaren Architektur...;)

Aber diese Diskussion ist hier absolut OT.

Immer noch! Wann kommt ihr denn zurück zum eigentlichen Thema?

aths
2006-10-11, 11:03:21
Ob Highend, Mainstream oder Lowend, all diese GPUs basieren auf einer skalierbaren Architektur...;)Ja das stimmt heute, in der Vergangen nur bedingt. GF2 MX basiert auf einer GF2 GTS, da waren mehr Umbauarbeiten erforderlich als zwei Pipelines wegzulassen. GeForce FX 5200 und 5600 sind nicht einfach kleine Versionen von der 5800. Die Skalierbarkeit hat sich beim NV40 deutlich verbessert, aber natürlich basieren Highend-Produkte nicht auf Mainstream-Produkten. Die skalierbare Architektur wird erst so entwickelt, dass sich High-Performance-GPUs realisieren lassen und später zurechtgestutzt nach dem klar ist, mit welchen Produkten man welche Segmente gut bedienen kann. Ich frage mich manchmal, welche absurden Behauptungen noch von bestimmten Leuten rangezerrt werden, wenn die Argumente ausgehen. Dieses aus meiner Sicht rüpelhafte Verhalten tut der Diskussion imo weniger gut als wenn es mal für einige Postings ot wird.

Imo wird den so genannten 3D-"Optimierungen" des Treibers in der Öffentlichkeit viel zu wenig Bedeutung beigemessen. Als News-Schreiber würde ich mindestens ein mal pro Woche die betreffenden Hersteller ermahnen, zur Vernunft zurückzukehren.

Grestorn
2006-10-11, 12:20:36
Marketing ist keine technische Notwendigkeit!
Du solltest das eigentlich wissen...


Und es ist reines Marketing, dass die Mainstream-Versionen technisch üblichwerweise nahezu identisch mit den vorher releasten HighEnd-Versionen sind, lediglich mit weniger Takt, Pipelines, Shadereinheiten...

Razor
2006-10-12, 18:10:54
Und es ist reines Marketing, dass die Mainstream-Versionen technisch üblichwerweise nahezu identisch mit den vorher releasten HighEnd-Versionen sind, lediglich mit weniger Takt, Pipelines, Shadereinheiten...

...und weniger Transistoren.
Immer an den Spruch "marketing sells" denken!

Mainstream-Karten verkaufen sich ohne HighEnd-Varianten nun mal nicht gut und gleiches gilt dann für's UltraLowEnd des OEM-Marktes. Ist halt was anderes ob gerade ATI im HighEnd-Segment die Nase vorn hat oder eben nVidia. Nach der Leistung im Midrange (Retail-Bereich) oder LowEnd (OEM-Bereich) fragt eigentlich niemand...

Und um Dein Kommentar mal umzudrehen:
Und es ist reines Marketing, dass die HighEnd-Versionen technisch üblichwerweise nahezu identisch mit den später releasten Mainstream-Versionen sind, lediglich mit mehr Takt, Pipelines, Shadereinheiten...

Gell?
;)

Razor

aths
2006-10-13, 13:09:15
...und weniger Transistoren.
Immer an den Spruch "marketing sells" denken!Der Spruch heißt "sex sells" (und gibt damit eine Marketing-Empfehlung.) Für "marketing sells" findet Google unter 20.000 Treffer, darunter aber auch Sachen wie "Catalina Marketing Sells Direct Marketing Services Division to Valassis". "Sex sells" wird ca. 1.000.000 mal gefunden.

Mainstream-Karten verkaufen sich ohne HighEnd-Varianten nun mal nicht gut und gleiches gilt dann für's UltraLowEnd des OEM-Marktes. Ist halt was anderes ob gerade ATI im HighEnd-Segment die Nase vorn hat oder eben nVidia. Nach der Leistung im Midrange (Retail-Bereich) oder LowEnd (OEM-Bereich) fragt eigentlich niemand...

Und um Dein Kommentar mal umzudrehen:Du drehst ganz gern mal jemandem die Worte um, wenn du nicht weiter kommst – und stellst hier (teilweise richtige) Behauptungen auf, die aber mit dem Thema leider nichts zu tun haben. Wenn du jetzt was zwar korrektest sagst, hast du mit der vorherigen Behauptung trotzden mich recht. Gib einfach zu, dass du dich mit deiner Behauptung verrannt hast und alles ist gut. Hier geht es auch nicht um Meinungen. Die Tatsachenbehauptung "Und worauf basieren diese "HighEnd"-Lösungen? Richtig! Auf Mainstream-Chips." ist nachprüfbar falsch.

Gell?
;)Gell? ;) ;) :) :smile: :D :|





Und es ist reines Marketing, dass die Mainstream-Versionen technisch üblichwerweise nahezu identisch mit den vorher releasten HighEnd-Versionen sind, lediglich mit weniger Takt, Pipelines, Shadereinheiten...Zumal wie gesagt die Highend-Produkte zunächst das technisch machbare ausloten, während die Midrange und Meanstream-Produkte dann vergleichsweise kurzfristig so zugeschnitten werden, wie es der Markt erfordert.

r@w.
2006-10-17, 11:49:36
Der Spruch heißt "sex sells" (und gibt damit eine Marketing-Empfehlung.) Für "marketing sells" findet Google unter 20.000 Treffer, darunter aber auch Sachen wie "Catalina Marketing Sells Direct Marketing Services Division to Valassis". "Sex sells" wird ca. 1.000.000 mal gefunden.

um genau zu sein... 981.000 mal.
(Stand heute, jetzt ;-)

Dann such mal nur nach "sex"!
Das findest Du dann 683.000.000 mal...
...was Du mir allerdings damit sagen möchtest, ist mir nicht ganz klar.

Ist es für Dich vielleicht neu, dass das Wörtchen "sex" für viele (offenbar auch für Dich) attraktiver erscheint, als eben der umständlichere und wohl auch für viele unverständlichere Begriff "marketing"?

Übrigens bringt "no business like show business" mal locker 380.000 Treffer...
(was ebenso sinnlos in der Feststellung ist ;-)

Du drehst ganz gern mal jemandem die Worte um, wenn du nicht weiter kommst – und stellst hier (teilweise richtige) Behauptungen auf, die aber mit dem Thema leider nichts zu tun haben. Wenn du jetzt was zwar korrektest sagst, hast du mit der vorherigen Behauptung trotzden mich recht. Gib einfach zu, dass du dich mit deiner Behauptung verrannt hast und alles ist gut. Hier geht es auch nicht um Meinungen. Die Tatsachenbehauptung "Und worauf basieren diese "HighEnd"-Lösungen? Richtig! Auf Mainstream-Chips." ist nachprüfbar falsch.

Nö.
Es ist genauso falsch, wie die Umkehr-Behauptung.
Oder bist Du etwa der Meinung, dass Mainstream-Karten auf den HighEnd-Karten "basieren"?
Hoffentlich nicht...

Ist ähnlich irrwitzig, als würde man behaupten, dass die Menschen von den Affen abstammen.
Sowohl die "Affen", wie auch die Menschen sind Primaten und stammen von den Australopethicinen ab...
(was allerdings nicht klärt, warum die Menschen meinen, "intelligent" zu sein ;-)

Was ich damit sagen will?
:confused:

Alles... HighEnd, wie Mainstream, als auch (Ultra-)LowEnd basiert auf einer skalierbaren Architektur, die mit dem Fokus auf das größte Absatzgebiet entwickelt wurde und entsprechend kosteneffizient sein muss, aber ebenso HighEnd ermöglichen soll.

Nicht anderes wollte ich mit meinem - zugegeben 'einfachen' (und ohne den zitierten Kotext irre führenden ;-) - Kommentar zum Ausdruck bringen. Das weißt Du auch, nur läßt Du es Dir nicht nehmen, unsachliche und zum Thema nichts beizutragende Kommentare zu verfassen. Ich hingegen 'liebe' es einfach... und so drücke ich es aus. Auch wenn dies dann ohne den gegebenen Kontext (als Reaktion auf ein vorheriges Kommentar mit eigentlich erkennbaren Parallelen ;-) für einige 'unrichtig' erscheint...

Zumal wie gesagt die Highend-Produkte zunächst das technisch machbare ausloten, während die Midrange und Meanstream-Produkte dann vergleichsweise kurzfristig so zugeschnitten werden, wie es der Markt erfordert.

Das tut ja schon fast weh...
"kurzfristig" wird bei Mainstream-Produkten überhaupt nichts "zugeschnitten".
Alle Eckdaten stehen schon vor genauer Vorstellung einer Maximal-Leistung im HighEnd-Bereich fest.
(alles andere wäre auch wirtschaftlicher Unfug)

Razor

aths
2006-10-17, 16:38:38
um genau zu sein... 981.000 mal.
(Stand heute, jetzt ;-)

Dann such mal nur nach "sex"!
Das findest Du dann 683.000.000 mal...
...was Du mir allerdings damit sagen möchtest, ist mir nicht ganz klar.Schade.

Ist es für Dich vielleicht neu, dass das Wörtchen "sex" für viele (offenbar auch für Dich) attraktiver erscheint, als eben der umständlichere und wohl auch für viele unverständlichere Begriff "marketing"?"Marketing", also zum / in den Markt zu bringen, etwas zu vermarkten (anzupreisen), etwas zu vertreiben, das beinhaltet das Verkaufen bereits. "Marketing sells" wäre eine Tautologie. "Sex sells" ist keine Tautologie, sondern ein bekannter Spruch.

Nö.
Es ist genauso falsch, wie die Umkehr-Behauptung.
Oder bist Du etwa der Meinung, dass Mainstream-Karten auf den HighEnd-Karten "basieren"?
Hoffentlich nicht...Technologisch schon. Man nimmt einige Teile heraus oder verkauft GPUs von denen einige Units defekt sind, die dann deaktiviert werden. Dein Ausflug in die Evolutionstheorie ist schön und gut, aber bezogen auf das beanstandete Posting unpassend.

Die Basis (die Grundlage, der Bezug) der Mainstream-GPUs sind die Highend-GPUs mit ihren skalierbaren Baugruppen und Features. Manchmal fallen Features aus Kostengründen weg, manchmal kommen neue hinzu, wie z. B. TwinView bei der GeForce 2 MX. Die GeForce 2 GTS basiert sicher nicht auf der GeForce 2 MX.

Alles... HighEnd, wie Mainstream, als auch (Ultra-)LowEnd basiert auf einer skalierbaren Architektur, die mit dem Fokus auf das größte Absatzgebiet entwickelt wurde und entsprechend kosteneffizient sein muss, aber ebenso HighEnd ermöglichen soll.

Nicht anderes wollte ich mit meinem - zugegeben 'einfachen' (und ohne den zitierten Kotext irre führenden ;-) - Kommentar zum Ausdruck bringen. Jetzt wo es nicht mehr weiter geht, behauptest du einfach, dass du das von Beginn an so sagen wolltest – eine spätere Neuinterpretation deiner älteren Postings sieht man in diesem Zusammenhang öfters.

Das tut ja schon fast weh...
"kurzfristig" wird bei Mainstream-Produkten überhaupt nichts "zugeschnitten".
Alle Eckdaten stehen schon vor genauer Vorstellung einer Maximal-Leistung im HighEnd-Bereich fest.
(alles andere wäre auch wirtschaftlicher Unfug)Ich glaube dass ich sagen kann, von solchen Dingen ein wenig mehr Ahnung zu haben. Wirtschaftlicher Unfug ist dabei jedenfalls nichts, im Gegenteil ist es wirtschaftlich klug, bei skalierbaren Architekturen möglichst zeitnah zu handeln.

Razor
2006-10-17, 18:15:37
So aths... extra nochmal für Dich.
Allerdings bin ich mir sicher, dass Du - wie immer - nur wieder mal 'Sticheln' willst...

Karten ala 7900 GTX und X1900 XTX...die welchem Zweck dienen?
Richtig!
Dem Spielen!Und worauf basieren diese "HighEnd"-Lösungen?
Richtig!
Auf Mainstream-Chips.

Dir fallen hier gewisse Parallelen auf?
Hoffentlich...

Das, was ich eigentlich sagen wollte, kam danach:

Soll das etwa bedeuten, dass es - nur weil es HighEnd-Varianten einer GPU-Generation gibt - deswegen keine vernünftigen Treiber für den Mainstream/Office/Workstation-Bereich geben soll?

Und das alles in einem einzigen Post!

Wenn Du also weiter auf Deiner aberwitzigen Argumentation beharrst und mir hier Dinge in den Mund legen willst... nur weiter so.
Zitier nur weiter, ohne den Kontext zu brücksichtigen und verstehe absichtlich falsch, was nicht mißzuverstehen ist.

In meinen Augen - und auch wohl derer anderer - ist das einfach nur lächerlich...
Wir sollten diese "Diskussion" hier wirklich beenden.

Ich glaube dass ich sagen kann, von solchen Dingen ein wenig mehr Ahnung zu haben.

Vom Marketing hast Du offenbar überhaupt keine Ahnung!
Auch feht Dir ebenso der Einblick in Produktionszyklen/-mechanismen großer Wirtschafts-/Technologieunternehmen...

Deine technische Reputation steht ausser Frage, aber hier ziehst Du Dir etwas an, was Dir einfach nicht paßt... sorry.

Razor

DeutscherHerold
2006-10-17, 18:17:52
Back 2 Topic

Beim Gothic 3 habe ich ca 10-15 FPS weniger bei High Quality als mit Quality. Wenn man bedenkt, dass das Spiel bei ca 40 FPS läuft ist das ein WORT!

aths
2006-10-19, 00:58:31
So aths... extra nochmal für Dich.
Allerdings bin ich mir sicher, dass Du - wie immer - nur wieder mal 'Sticheln' willst...Ich will nicht, dass es erst hüh und dann hott geht.

Vom Marketing hast Du offenbar überhaupt keine Ahnung!Doch. Im Studium hatten wir auch Marketing, in der Klausur schrieb ich eine 2,3. Dann habe ich in der Praxis als Journalist auch öfters mal mit Presseerklärungen zu tun, die ja in der Regel von Marketingspezialisten verfasst wird.



Back 2 Topic

Beim Gothic 3 habe ich ca 10-15 FPS weniger bei High Quality als mit Quality. Wenn man bedenkt, dass das Spiel bei ca 40 FPS läuft ist das ein WORT!Wobei ich mich manchmal frage, ob die HQ irgendwie noch absichtlich langsam machen – da ja die Flimmeranfälligkeit in Vergleich mit der Radeon noch immer relativ stark ist.

r@w.
2006-10-19, 09:11:13
Ich will nicht, dass es erst hüh und dann hott geht.

Kann ich verstehen...
Hoffe aber, Dir gezeigt zu haben, dass dem nicht so ist.
(vielleicht hätte ich ja meinen 'anstößlichen' Post mit einem TripleSmilie versehen sollen ;-)

Doch. Im Studium hatten wir auch Marketing, in der Klausur schrieb ich eine 2,3. Dann habe ich in der Praxis als Journalist auch öfters mal mit Presseerklärungen zu tun, die ja in der Regel von Marketingspezialisten verfasst wird.

Was weniger mit der Praxis in der Technologie-Entwicklung zu tun hat.
Zumal das Marketing ja erst einsetzt, wenn die (skalierbare) Basistechnologie steht.
Aber seis drum...

Razor

P.S.: Bei ATI könntest Du im übrigen recht haben, denn die Leutz verpulvern relegelmäßig Geld, indem sie HighEnd-Chips 'verstümmeln', nur um Mainstream-Produkte bringen zu können... letztes prominetes Beispiel X1900GT vs. X1900PRO. Hat zwar noch nichts mit dem (Ultra-)LowEnd/OEM-Markt zu tun, ist aber immerhin fakt.

Gast
2006-10-19, 21:17:48
Wobei ich mich manchmal frage, ob die HQ irgendwie noch absichtlich langsam machen – da ja die Flimmeranfälligkeit in Vergleich mit der Radeon noch immer relativ stark ist.

was sollte das für einen sinn machen?

r@w.
2006-10-20, 09:37:01
was sollte das für einen sinn machen?

Frage ich mich auch... zumal ATI mit aktiviertem AI ebenfalls gut flimmert.

Man muss dort schon AI abschalten und eine wirklich gute Filterung zu erhalten und nahezu flimmerfrei spielen zu können... dumm nur, dass dann auch Bugfixes für Games abgeschaltet werden.

Razor

Gast
2006-10-20, 11:52:21
Frage ich mich auch... zumal ATI mit aktiviertem AI ebenfalls gut flimmert.

Man muss dort schon AI abschalten und eine wirklich gute Filterung zu erhalten und nahezu flimmerfrei spielen zu können... dumm nur, dass dann auch Bugfixes für Games abgeschaltet werden.

Razor

Hast du überhaupt ne ATI?

r@w.
2006-10-20, 11:59:51
Hast du überhaupt ne ATI?

Jup... sogar mehrere!
:D

Razor

TobiWahnKenobi
2006-10-20, 14:49:26
jepp - ich hab' auch mehrere und kann ohne mich zu weit aus dem fenster zu lehnen behaupten, dass jede X1000er ATI einer GF6 und GF7 in sachen flimmeranfälligkeit, anisotroper filterung und HQAA-nutzbarkeit überlegen ist. auch mit AI @standard.


(..)

mfg
tobi

Gast
2006-10-20, 15:29:11
jepp - ich hab' auch mehrere und kann ohne mich zu weit aus dem fenster zu lehnen behaupten, dass jede X1000er ATI einer GF6 und GF7 in sachen flimmeranfälligkeit, anisotroper filterung und HQAA-nutzbarkeit überlegen ist. auch mit AI @standard.


(..)

mfg
tobi
Das mit der Flimmeranfälligkeit kann man pauschal so nicht sagen. Spiele viel MS Train Simulator und da hat das Gleisbett und der Kies auf Ai @standard stark geflimmert. Auf Ai @off wars weg. Auch verschiedene Bodenbeläge in Top Spin flimmerten stark, wenn Ai @standard. Mit ner GF6 hatte ich dort auf Quality ohne Optimierungen und clamp aktiviert ein besseres Bild als mit meiner X1900 mit Ai @standard.

TobiWahnKenobi
2006-10-20, 17:25:03
natürlich kann man das pauschal sagen. ich würde sogar extra-pauschal behaupten, dass 90 von 100 spielen auf ATI besser aussehen. vielleicht sind's sogar 95.

bei NV gibts atm gar nichts. weder gute optik, noch ausstattung. frameschleudern für benchmark-fetichisten halt.


(..)

mfg
tobi

Grestorn
2006-10-20, 17:37:02
bei NV gibts atm gar nichts. weder gute optik, noch ausstattung. frameschleudern für benchmark-fetichisten halt.

Nur gut, dass Meinungen nicht uniformiert sind. Auch wenn Du es wohl gerne so hättest, so wie Du Dich ausdrückst.

Du bist im falschen Thread. Troll Dich bitte anderswo.

The_Invisible
2006-10-20, 17:55:26
natürlich kann man das pauschal sagen. ich würde sogar extra-pauschal behaupten, dass 90 von 100 spielen auf ATI besser aussehen. vielleicht sind's sogar 95.

bei NV gibts atm gar nichts. weder gute optik, noch ausstattung. frameschleudern für benchmark-fetichisten halt.


(..)

mfg
tobi

ja klar, man braucht nur mal die wörter treiber und opengl in die diskussion einwerfen, das genügt den meisten schon. aber man muss ja anscheinend immer alles verallgemeinen.

mfg

Mr. Lolman
2006-10-20, 17:59:43
OpenGL läuft doch eh gut:

http://images.anandtech.com/graphs/x1950%20pro%20launch_101606101028/13335.png

TobiWahnKenobi
2006-10-20, 18:13:32
quake und co laufen doch völlig zufriedenstellend.. allerdings hab' ich mir die ID-shooter über die jahre abgewöhnt.. doom und quake sind doch immer der selbe brei.

@invisible
willst du jetzt wieder auf der linux-schiene kommen? da bricht man sich beim einbinden von ATI und NV -treibern gleichermaßen einen ab und ich kenne notebooks, die auch mit linux klarkommen, obwohl sie einen ATI mobility chip haben.. oder meinst du mit "treiber", dass man bei ATI nicht dreißig betas pro monat testen muss.. das stimmt dann wenigstens, obwohl man das ja bei NV auch nicht muss.

@grestorn
in den gefilden, in denen ich mich rumdrücke sind die meinungen schon ziemlich uniform. zumindest unter den besserwissern ist die GF7 spielerisch verrufener als die X1900.


(..)

mfg
tobi

The_Invisible
2006-10-20, 18:16:40
man leute, ich meine doch nicht die zum tode optimierten spiele sondern sowas wo noch keiner optimiert hat und die wahre opengl leistung rüberkommt -> http://www.anandtech.com/printarticle.aspx?i=2828

das die ati leuts für die mainstream opengl spiele immer optimierungen reinfrickeln ist ja nix neues

mfg

Mr. Lolman
2006-10-20, 18:22:21
man leute, ich meine doch nicht die zum tode optimierten spiele sondern sowas wo noch keiner optimiert hat und die wahre opengl leistung rüberkommt -> http://www.anandtech.com/printarticle.aspx?i=2828

das die ati leuts für die mainstream opengl spiele immer optimierungen reinfrickeln ist ja nix neues

mfg

Bei OpenGL dürfte es noch eher wichtig sein, auf welcher HW programmiert wird. Das sieht man auch bei Prey. Das ist out of the box auch flotter auf ATi
Karten. Und die Treiberoptimierungen sind ja per se nicht schlecht, solang sie die Bildqualität nicht negativ beeinflussen...

TobiWahnKenobi
2006-10-20, 18:34:43
bei den paar openGL spielchen, die ich so habe, wäre es mir sogar banane, ob die zu tode optimiert sind oder auch nicht. das hauptanwendungsgebiet für meinen derzeitigen 3D-beschleuniger sind directX-spiele und windows. denke dass es vielen so geht, die sich für 300, 400 oder 500€ eine graka kaufen. da (unter windows+DX) muss es gut aussehen und anständig performen. und genau da liegt auch der hase im pfeffer. bei den NV-karten muss man viel verstellen um den gesamteindruck erträglich zu bekommen. das beste hat man dann aber bei weitem noch nicht erreicht - obwohl man dann schon viel von der suggerierten leistung eingebüßt hat.. bei ATI ist es viel viel leichter ein gutes bild auf das display zu bekommen. nicht auf ein oder zwei spiele bezogen, sondern eher overall betrachtet..
ich behaupte mal, dass das gros der user, die openGL-abteilung an einer hand abzählen kann. unspielbar langsam dürfte eigentlich kein OGL-spiel sein, ob mit optis oder ohne.


(..)

mfg
tobi

Gast
2006-10-21, 14:09:26
Und die Treiberoptimierungen sind ja per se nicht schlecht, solang sie die Bildqualität nicht negativ beeinflussen...Tun sie aber in Q4 und D3.

Mr. Lolman
2006-10-21, 15:00:26
Tun sie aber in Q4 und D3.

Nur durch briAF:

AIoff: http://www.myloads.de/upload2/16692.png
AIlow: http://www.myloads.de/upload2/16690.png

Razor
2006-10-21, 18:39:51
jepp - ich hab' auch mehrere und kann ohne mich zu weit aus dem fenster zu lehnen behaupten, dass jede X1000er ATI einer GF6 und GF7 in sachen flimmeranfälligkeit, anisotroper filterung und HQAA-nutzbarkeit überlegen ist. auch mit AI @standard.

Was genau hast Du an dem Wörtchen "ebenfalls" nicht verstanden?
:confused:

Und dabei ist es mir vollkommen wurscht, ob der eine in Sachen Flimmer-/NichtFlimmer-Fähigkeit überlegen ist, oder nicht.
Ich persönlich würde es jedenfalls äusserst unbefriedigend empfinden, wenn man auch das nötige GameBugfixing per AI-Off deaktivieren muss.

Es ist ein Anfang, aber ganz sicher nicht der Weisheit letzter Schluß.
BEIDE haben sie Dreck am Stecken (ATI mehr als nVidia, historisch gesehen) und zumindest nVidia muss mit der nächsten Generation zeigen, ob sie es (wieder) besser können... ATI sollte endlich mit diesem AI-Mist aufhören.

That's it!

Razor

Gast
2006-10-21, 23:58:12
Bei OpenGL dürfte es noch eher wichtig sein, auf welcher HW programmiert wird. Das sieht man auch bei Prey. Das ist out of the box auch flotter auf ATi
Karten. Und die Treiberoptimierungen sind ja per se nicht schlecht, solang sie die Bildqualität nicht negativ beeinflussen...
Das tun sie aber immer. Nur in manchen Spielen, wie auch den Shots von D3, die du weiter oben gebracht hast, fällt es weniger stark auf. Außerdem hängt es auch vom Betrachter ab - es soll ja Leute geben, die sehen nichtmal, ob AA oder AF an oder aus sind.

Gast
2006-10-22, 00:03:40
OpenGL läuft doch eh gut:

http://images.anandtech.com/graphs/x1950%20pro%20launch_101606101028/13335.png
Ein ziemlich untypisches Ergebnis.