Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die neuen Features im G70-Chip
Leonidas
2005-06-26, 01:47:00
Der versprochene Technik-Artikel zum G70.
Link:
http://www.3dcenter.org/artikel/2005/06-26_a.php
mapel110
2005-06-26, 02:00:34
Die GeForce2-Serie verkaufte sich hingegen (vor allem dank der GeForce2 MX) prächtig. Im Gegensatz zu ihrem Vorgänger hatte eine GeForce2-Pixelpipeline keine einzelne trilineare TMU mehr, sondern sondern zwei TMUs, die allerdings jeweils pro Takt nur ein bilineares Textursample erstellen konnten. Das war ein Zugeständnis an die Tatsache, dass die Wichtigkeit von Texelfüllrate zunahm. Die GeForce256 war übrigens die einzige Nvidia-GPU mit trilinearen TMUs.
Die GeForce4 Ti hatte nicht nur Vorteile: Die Video-Eigenschaften des jetzt GeForce4 MX genannten GeForce2-MX-Upgrades wurden nicht geboten, die Geschwindigkeit bilinearer anisotropen Filterung war beschnitten. Dennoch verkaufte sie sich – im Gegensatz zur GeForce3 – wie geschnitten Brot.
irgendwie schlecht formuliert bzw bisschen durcheinander. kann das sein?
Lange Rede, kurzer Sinn: Durch den Einbau von Additionsrechenwerken wurde die im NV40 noch bestehende Multiplikationslastigkeit beseitigt. Die G70-Rechenwerke bieten jetzt eine ausgewogene Mischung, weshalb man auch leichter auf den G70 optimieren kann. Die dp3-Operation ist unter anderem – aber nicht nur – für pixelgenaues Shading und fürs Bumpmapping wichtig. Auch MAD-Befehle werden oft gebraucht. Der von Nvidia implizit angegebene Leistungsvorteil von bis zu 25 Prozent mehr Rechenkraft pro Takt erscheint uns nicht übertrieben, je nach Shader kann der Vorteil sogar noch deutlicher ausfallen. Die G70-Architektur ist offenbar für die Ausführung langer Pixelshader mit mindestens -zig Befehlen pro Pixel optimiert.
-zig was?
Eine übliche SingleCore-CPU berechnet je nach Typ pro Takt bis zu zwei MAD-Operationen in FP32-Genauigkeit. Da schafft eine einzelne "normale" Pixelpipeline schon doppelt so viel, da es ja vier Kanäle (R, G, B und A) gibt. Eine G70-Pipe bringt nun 2x MAD pro Pixelpipe und hat 24 davon – das sind 192 MADs pro Takt im Pixelshader. Die acht Vertexshader können insgesamt weitere 32 MADs beisteuern, so dass der G70 pro Takt 224 MADs berechnen kannhö. Das ist 112x mal mehr als eine gängige CPU. Eine DualCore-CPU müsste demnach mit über 24 GHz laufen, um die gleiche maximale MAD-Leistung wie der G70 zu bringen. Allerdings ist die CPU eben auf das Ausführen von "richtigen" Programmen optimiert, während die GPU auf das Bearbeiten von Datenströmen ausgelegt wurde. Da CPU und GPU für jeweils andere Aufgaben optimiert sind, ergibt unser Vergleich der MAD-Rechenleistung nicht ungeheuer viel Sinn.
btw ziemlich blöder Vergleich, der Marketingursprung haben könnte, aber naja ...
Die Treiber sind beim Auslieferungstermin in der Regel noch nicht ausoptimiert, trotzdem wären Shadermarks interessant – welche wir nachreichen werden. Shadermarks sind, als synthetischer Tests, natürlich überwiegend zur Architekturbeurteilung gedacht. Der Anwender möchte dagegen zumeist zuerst die Bildqualität und Performance in seinen Anwendungen wissen. Eine Auwahl an ersten Benchmarks bieten wir hier anzubieten.
Ein Quad ist im folgenden ein Block von 2x2 Pixeln. Seit langer Zeit werden nur Quadpipes verbaut, der G70 hat also tatsächlich nur 6 Pipelines im Pixelteil, von denen jede Pipeline bis zu vier Pixel gleichzeitig berechnen kann. Unter Instruction Pointer wird desweiteren ein Zeiger verstanden, der auf die Stelle im Shader-Programm verweist, die gerade berechnet wird.
Der ganze Absatz kommt mir vor, als ob da was fehlen würde. Also ich seh da keinen Zusammenhang. :(
Pinoccio
2005-06-26, 02:15:16
Der imho unverständlichste Artikel des 3dCenters ... :-(
"Doch es gab eine Reihe sinnvoller Verbesserungen, von denen wir über die wichtigsten einen Überblick geben möchten."
Es gibt eine Reihe von Verbesserungen und zweimal geben ist einmal zuviel.
"GeForce2 MX" vs "GeForce2-MX-Upgrades"
Einmal mit und einmal ohne Bindestrich erscheint mir inkonsequent.
(dieses Problem taucht mehrfach auf ...)
"die Geschwindigkeit bilinearer anisotropen Filterung" ?
"–" vs "-" Bindestrich vs. Gedankenstrich, und das von aths ...
"Allerdings multiplizieren sich diese Effekte – die Pixelshaderleistung hat demnach ein Potenzial von 61 Prozent Leistungsplus"
Wir haben als +57,5% vs +61,25%. oO
"Beim G70 kostet im Pixelshader ein If, ElseIf oder EndIf-Befehl wie im NV40 zwei Takte."
besser:
Beim G70 kostet im Pixelshader ein If, ElseIf oder EndIf-Befehl wie im NV40 zwei Takte.
(ebenso die folgenden Code-Schnipsel)
Dazu kommt einige imho unschöne Ungreimtheiten in der Rechtschreibung, aber darüber werde ich mich nicht nochmal auslassen, vergleiche hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2839952#post2839952).
mfg Sebastian
mapel110
2005-06-26, 02:34:31
Nvidia argumentierte gegenüber der Presse sinngemäß, dass ATIs AF-Qualität ja deutlich schlechter als bei der GeForce ist und man bei Reviews einen fairen Vergleich haben möchte.
Gibts dafür mal eine Quelle, wo nvidia offen zugibt, dass AF verschlechtert zu haben? Kann mich irgendwie nicht daran errinnern. :(
Es kommt mal wieder so rüber, dass ATI schuld ist. ATI hat das Filtern der Texturen von Generation zu Generation verbessert. So what?!
Generell wirkt die Kritik am AF dadurch irgendwie gar nicht. ATI ist eben schuld. Sollen die wieder "zurück" zu Geforce3-Filterung, zurück zu etwas, dass sie noch nie boten. :|
///////////////
Schon bei der Vermarktung der GeForceFX 5200 spielte die kommende neue Windows-Generation eine Rolle. Doch ähnlich wie bei Doom 3, von Nvidia als Argument zunächst für die GeForce4 Ti herangezogen, dann bei der GeForceFX 5800 ausgeschlachtet, um bei der GeForceFX 5900 erneut aufgeführt zu werden, kam das Spiel erst mit dem Erscheinen des NV40. Wenn man speziell für Longhorn eine Grafikkarte braucht, sollte man sich die Hardware dann kaufen, wenn die Software da ist.
Schon die Geforce3 wurde mit Doom3 vermarktet.
MadManniMan
2005-06-26, 03:30:31
Schöner Artikel, wirklich sehr schön - ganz ehrlich!
Die Kritik am AF finde ich grandios, die Bewertung des AA gelungen.
Fragt sich: wo bleiben die "Spezial-Benches" ?
mapel110
2005-06-26, 03:34:02
Schöner Artikel, wirklich sehr schön - ganz ehrlich!
Okay, bis auf meine Kritik Zustimmung hierbei. (y)
Es war auch sicher viel Arbeit.
"GeForce2 MX" vs "GeForce2-MX-Upgrades"
Einmal mit und einmal ohne Bindestrich erscheint mir inkonsequent.
(dieses Problem taucht mehrfach auf ...)Ich wohne in einer Straße, die Willi-Bredel-Weg heißt. Der Namensgeber hieß aber nicht Willi-Bredel.
"die Geschwindigkeit bilinearer anisotropen Filterung" ?Bitte immer genau angeben, mindestens mit Seitenzahl.
"–" vs "-" Bindestrich vs. Gedankenstrich, und das von aths ...
Wo? Eigentlich nehme ich – als Gedankenstrich und - als Bindestrich.
""Allerdings multiplizieren sich diese Effekte – die Pixelshaderleistung hat demnach ein Potenzial von 61 Prozent Leistungsplus"
Wir haben als +57,5% vs +61,25%. oOWie meinst du das? Weil der Unterschied nicht so groß sei? Deswegen muss man doch trotzdem korrekt rechnen.
Nvidia argumentierte gegenüber der Presse sinngemäß, dass ATIs AF-Qualität ja deutlich schlechter als bei der GeForce ist und man bei Reviews einen fairen Vergleich haben möchte.
Gibts dafür mal eine Quelle, wo nvidia offen zugibt, dass AF verschlechtert zu haben? Kann mich irgendwie nicht daran errinnern. :(Gespräch auf der CeBit.
Es kommt mal wieder so rüber, dass ATI schuld ist. ATI hat das Filtern der Texturen von Generation zu Generation verbessert. So what?!Von einem sehr niedrigen Niveau aus.
Generell wirkt die Kritik am AF dadurch irgendwie gar nicht. ATI ist eben schuld. Sollen die wieder "zurück" zu Geforce3-Filterung, zurück zu etwas, dass sie noch nie boten. :|Ich habe mich bemüht, Nvidia hier nicht aus der Pflicht zu nehmen, sondern deutlich zu machen, dass mich bei der Bewertung des G70 die Implementierung vom AF im R300+ nicht interessiert. Wenn das nicht so rüberkam wie erhofft, werde ich das in einem möglichen Extra-Artikel zum Thema AF noch deutlicher machen.
Schon die Geforce3 wurde mit Doom3 vermarktet.Daran erinnere ich mich kaum, erstmalig bei der GeForce4 Ti assoziiere ich das mit Doom3. Das kann natürlich sein, dass NV schon bei der GF3 die Leute heiß machte.
Ein Quad ist im folgenden ein Block von 2x2 Pixeln. Seit langer Zeit werden nur Quadpipes verbaut, der G70 hat also tatsächlich nur 6 Pipelines im Pixelteil, von denen jede Pipeline bis zu vier Pixel gleichzeitig berechnen kann. Unter Instruction Pointer wird desweiteren ein Zeiger verstanden, der auf die Stelle im Shader-Programm verweist, die gerade berechnet wird.
Der ganze Absatz kommt mir vor, als ob da was fehlen würde. Also ich seh da keinen Zusammenhang. :(Dort werden zwei Begriffe erläutert, die im weiteren Textverlauf auftreten.
Okay, bis auf meine Kritik Zustimmung hierbei. (y)
Es war auch sicher viel Arbeit.Im Prinzip hätte ich meinen Text wegwerfen und neu schreiben müssen. Doch dazu ist einfach die Zeit nicht da.
Fragt sich: wo bleiben die "Spezial-Benches" ?Wer plenkt kriegt nichts geschenkt!
Was mich im Moment viel mehr interessiert ist eine Kontrolle des Hinweises den ich von Damien Triolet (hardware.fr) erhalten habe, dass Nvidia im G70 beim AF unterfiltert. Das traue ich NV auch zu – um erst mal fett die letzten fps beim Benchmark abzustauben.
tombman
2005-06-26, 06:33:10
Mal so als Frage: wieviel Leistung in % würde zb der G70 verlieren, wenn er vollen 16xAF in allen Winkeln anbieten würde?
Wenn es mehr als 5% ist, wird es Nvidia nicht machen, da kann 3dcenter noch so gegen Windmühlen ankämpfen :(
Das Problem an der Sache ist, daß die meisten diese winkelabhängige AF Spielerein bei aktueller hw NICHT SEHEN oder nicht merken, also wird in der Richtung auch nix "verschenkt" von Nvidia.
Und solange ATI bei seinem AF bleibt wird Nvidia es ned verbessern und benchmarks verlieren nur weil ein paar freaks dann zufrieden sind ;)
Tigerchen
2005-06-26, 07:21:59
Ein Artikel über die Features des G70 der dazu genutzt wurde um die abstrusen Vorstellungen von aths über des anisotropen Texturfilter darzustellen.
Und alles ist natürlich die Schuld von ATI. :|
Ich frage mich was dieses unreflektierte Gebashe in dem Artikel zu suchen hat.
Exxtreme
2005-06-26, 07:27:57
Ein Artikel über die Features des G70 der dazu genutzt wurde um die abstrusen Vorstellungen von aths über des anisotropen Texturfilter darzustellen.
Und alles ist natürlich die Schuld von ATI. :|
Ich frage mich was dieses unreflektierte Gebashe in dem Artikel zu suchen hat.
Wieso abstrus? Mich stört die AF-Implementierung meiner R300 auch da ich sehr viel WoW spiele. Da sieht man das leider. Und ausserdem gibt es eh' einige Indizien, daß selbst der NV40 winkelunabhängig filtern kann. Ein Schalter wäre hier IMHO das beste. Wer volle Qualität will, der schaltet die Winkelabhängigkeit aus. Wer 200 fps anstatt 180 fps will, der schaltet diese ein.
BlackBirdSR
2005-06-26, 08:06:21
Ein Artikel über die Features des G70 der dazu genutzt wurde um die abstrusen Vorstellungen von aths über des anisotropen Texturfilter darzustellen.
Und alles ist natürlich die Schuld von ATI. :|
Ich frage mich was dieses unreflektierte Gebashe in dem Artikel zu suchen hat.
Gehört hier vielleicht nicht rein.
Aber warum kann man denn als Informationsbegeisterter Leser nicht über sowas hinweglesen, und sich die Infos aus dem Text holen, um die es geht?
Oder geht es gar nicht um Informationen`?
Mal so als Frage: wieviel Leistung in % würde zb der G70 verlieren, wenn er vollen 16xAF in allen Winkeln anbieten würde?Das kann ich nur schätzen. Ich schätze, dass man bei überwiegender Füllratenlimitierung schon mal 20% einbüßen kann. In Synthies könnte es noch "schlimmer" werden, geschätzt 30%. Nur würde man das ja in Form von Texturqualität sehen.
Das Problem an der Sache ist, daß die meisten diese winkelabhängige AF Spielerein bei aktueller hw NICHT SEHEN oder nicht merken, also wird in der Richtung auch nix "verschenkt" von Nvidia.Das Problem ist, vor allem dass die an ATI gewöhnten es kaum sehen. An das Mehr an Qualität gewöhnt man sich schneller als man sich an die Reduktion gewöhnt.
Ich finde es von NV recht dreist, wie sie beim NV40 dem User den ATI-Style heimlich unterjubeln wollten, die schienen wirklich zu denken dass das (zumindest auf längere Sicht) keinem auffallen würde.
[COLOR="#000088"]
Ein Artikel über die Features des G70 der dazu genutzt wurde um die abstrusen Vorstellungen von aths über des anisotropen Texturfilter darzustellen. Was ist an meinen Vorstellungen denn abstrus?
Und alles ist natürlich die Schuld von ATI. :| Willkürliche Lesart,
Ich frage mich was dieses unreflektierte Gebashe in dem Artikel zu suchen hat.... denn ausgeteilt wird in beide Richtungen. Und die Verantwortlichkeit beim NV40 und G70 liegt bei Nvidia.
Tigerchen
2005-06-26, 08:40:11
Gehört hier vielleicht nicht rein.
Aber warum kann man denn als Informationsbegeisterter Leser nicht über sowas hinweglesen, und sich die Infos aus dem Text holen, um die es geht?
Oder geht es gar nicht um Informationen`?
aths privater Rachefeldzug gegen unumgängliche Optimierungen beim AF nervt.
Wenn er meint das immer und ständig in seinen Beiträgen einbringen zu müßen braucht er sich auch nicht zu wundern wenn andere ihren Unwillen zum Ausdruck bringen.
[COLOR="#000088"]
aths privater Rachefeldzug gegen unumgängliche Optimierungen beim AF nervt.Warum ist diese "Optimierung", den AF-Maximalgrad vom Z-Winkel abhängig zurückzuschrauben "unumgänglich"?
Ich kann mit meiner 6600 GT AGP einiges mit 4x Supersampling spielen. Die für hochwertiges AF erforderliche Füllratenleistung ist schon lange da.
Wenn er meint das immer und ständig in seinen Beiträgen einbringen zu müßen braucht er sich auch nicht zu wundern wenn andere ihren Unwillen zum Ausdruck bringen. Ich kann verstehen, dass es Unwillen erzeugt, wenn man immer wieder lesen muss, welche Kompromisse die eigene Grafik-Hardware eingeht, wenn es darum geht, Texturleistung in Texturqualität umzuwandeln. Es ist sicher nervig immer wieder lesen zu müssen, dass man bei eingestelltem 16x AF in Wahrheit – aufs gesamte Bild bezogen – etwas viel schlechteres bekommt. Aber mich interessieren keine Tricks der IHV, die einen "16x" genannten Modus zur Verfügung stellen der in ganz wenigen Winkeln auch mal bis zu 16x AF bietet, aber ansonsten deutlich weniger. Mich interessiert, was die effizienteste Methode wäre, Füllrate in Texturqualität umzusetzen. Da denke ich, eine begründete Meinung zu haben. Die Grundzüge sind hier (http://www.3dcenter.de/artikel/2004/12-20.php) dargelegt. Da finde ich Entgegungen wie "abstruse Vorstellung" oder "unumgängliche Optimierung" etwas dürftig.
Der AF-Modus, den ich für optimal halte, bietet in jedem Winkel die gleiche Texturschärfe bis zum eingestellten AF-Maximalgrad. Man wählt also je nach Leistung die gewünschte Texturqualität und erhält diese dann im ganzen Bild. In einem Bild verzerrt dargestellte Texturen durchweg scharf zu bekommen kostet zwar entsprechend Leistung, aber es ist sinnvoller bei Leistungsmangel lieber ingesamt in der Schärfe runterzugehen. Schon die 6600 GT AGP hat wie gesagt oft noch die Leistung für (mindestens 2x) Supersampling. Die 7800 GTX hat mehr als genug Leistung für quasi-perfekte anisotrope Filterung. AF möchte ich aktivieren, damit es wirkt. Im gesamten Bild.
Die winkelabhängige "Optimierung" ist tatsächlich eine Ent-Optimierung. Um die Gesamtbildqualität auf ein bestimmtes Level zu bringen ist (wegen dem Zwang zur höheren Auflösung oder Supersampling) mehr Füllratenleistung notwendig als bei vernünftigem AF. Wer keine besonders scharfen Texturen will, stellt einfach einen geringen AF-Grad ein. Aber was nervt es, nebeneinander detailreich gerenderte und unscharf texturierte Flächen zu sehen, nur weil letzere in einem ungünstigen Winkel dargestellt sind. Aus diesem Grunde spiele ich kaum mit 16x AF, sondern lebe lieber mit durchgängig vergleichsweise unscharfen Texturen (2x oder 4x AF) und nehme, wenn es geht, Supersampling – was mehr Leistung kostet als es Bildqualität bringt.
Wenn du meinst, die bewusste AF-Optimierung sei "unumgänglich", dann ist dazu zu sagen, dass sie ja nur dann für mehr Geschwindigkeit sorgen kann, wenn entsprechend Qualität geopfert wird. Ich möchte aber 16x AF nicht nur einstellen, sondern auch sehen – ansonsten kann ich ja einen niedrigeren AF-Maximalgrad einstellen.
Ailuros
2005-06-26, 09:08:57
aths privater Rachefeldzug gegen unumgängliche Optimierungen beim AF nervt.
Wenn er meint das immer und ständig in seinen Beiträgen einbringen zu müßen braucht er sich auch nicht zu wundern wenn andere ihren Unwillen zum Ausdruck bringen.
"Unumgaenglich" als Bezeichnung nervt noch mehr, ueberhaupt wenn ich mir sicher bin dass es auch anders geht. Haette das Ganze ueberhaupt nichts mit ATI zu tun, wuerdest Du Dich wohl auch nicht darueber beschweren.
So und da ich leider auch zu "schlechte" Augen fuer hohe Bildqualitaet habe, kann mir jemand sagen ob der LOD bug auf den G70-ern immer noch da ist?
SamLombardo
2005-06-26, 09:25:25
Daran erinnere ich mich kaum, erstmalig bei der GeForce4 Ti assoziiere ich das mit Doom3. Das kann natürlich sein, dass NV schon bei der GF3 die Leute heiß machte.
Doch doch. Ich erinnere nur an die GF3 Vorstellung mit den ersten Doom3 Bildern und Aussagen wie: "Mit einer GF2U wird man Doom3 mit vollen Details nicht mit 30fps spielen können" - impliziert dass man es mit einer GF3 könnte...
In einer PCGH aus 2001 (k.A welche genaue Nummer): "Wer schon heute mit Doom 3 liebäugelt kommt um den Kauf einer GF3 nicht herum" *lol* Möchte wissen wie viele sich wegen solcher Weissagungen eine GF3 gekauft haben um "Ready for Doom3" zu sein...
Gruß Sam
Doch doch. Ich erinnere nur an die GF3 Vorstellung mit den ersten Doom3 Bildern und Aussagen wie: "Mit einer GF2U wird man Doom3 mit vollen Details nicht mit 30fps spielen können" - impliziert dass man es mit einer GF3 könnte...
In einer PCGH aus 2001 (k.A welche genaue Nummer): "Wer schon heute mit Doom 3 liebäugelt kommt um den Kauf einer GF3 nicht herum" *lol* Möchte wissen wie viele sich wegen solcher Weissagungen eine GF3 gekauft haben um "Ready for Doom3" zu sein...
Gruß SamIch Depp: JC persönlich hatte sich ja fürs GF3-Launchevent einspannen lassen. Die Passage im Artikel werde ich also noch umformulieren.
BlackBirdSR
2005-06-26, 10:03:46
[COLOR="#000088"]
aths privater Rachefeldzug gegen unumgängliche Optimierungen beim AF nervt.
Wenn er meint das immer und ständig in seinen Beiträgen einbringen zu müßen braucht er sich auch nicht zu wundern wenn andere ihren Unwillen zum Ausdruck bringen.
Wie schon gesagt.
Wenn es nervt, warum liest du nicht einfach drüber?
Es entsteht dir ja weder durch den Text, noch dessen teilweises Ausblenden im Kopf ein Schaden.
nggalai
2005-06-26, 10:18:04
Guter Artikel, aths. Ich fand ihn gut lesbar und sehr interessant. Als "pragmatischer" Anwender haben mir insbesondere die Absätze über AA und AF gefallen. Und ich stimme da mit dir überein--die Alphatest-Glättung ist für mich DAS Killerfeature der G70.
Schade zu sehen, dass dafür die Texturqualität wieder gelitten hat oder, wie von dir mit dem Hinweis auf Damien angedeutet, sogar noch deutlich unfairer "optimiert" wird, als man noch akzeptieren könnte. Ich kann NVs Ansatz schon verstehen ... Benchmarkergebnisse zählen, also ent-optimiert man halt, obwohl die Karte die nächsten Jahre genug Saft haben dürfte, um zumindest 4° oder 8° AF in voller Qualität zu bieten. Das Argument, dass man "an den Spieler" denke und ihm den bestmöglichen Mix aus Qualität und Leistung bieten möchte, kann ich so nicht gelten lassen. Bei einer eher langsamen Karte? Ja. Bei der G70 in den vorliegenden Versionen? Sicher nicht.
resonatorman
2005-06-26, 10:48:23
Klasse Artikel wieder mal!
Seite 3, "Weiterhin eingeschränktes AF", Absatz 3 : "Beim NV40 wurde nun der ATI-Style bezüglich AF limitiert." Soll wohl eher heißen "imitiert"?
BTW endlich mal Tigerchen auf die Ignorelist gesetzt wegen der "Qualität" seiner Beiträge und der penetranten Blauschreibung.
Madkiller
2005-06-26, 10:55:16
Schöner Artikel, wirklich sehr schön - ganz ehrlich!
Die Kritik am AF finde ich grandios, die Bewertung des AA gelungen.
Fragt sich: wo bleiben die "Spezial-Benches" ?
Dem kann ich mich nur anschließen...
:up: @aths
Wie schon gesagt.
Wenn es nervt, warum liest du nicht einfach drüber?
Es entsteht dir ja weder durch den Text, noch dessen teilweises Ausblenden im Kopf ein Schaden.
Jap....und nebenbei gesagt hat aths IMHO auch völlig Recht.
(del676)
2005-06-26, 10:55:34
Grandios!
Vor allem der Feldzug gegen das grauenhafte AF.
Leider scheint es sonst keine Sau zu stören (ausser ein paar wenigen), insofern wird sich das bei der nächsten Grafikkartengeneration wohl auch nicht ändern.
aths privater Rachefeldzug gegen unumgängliche Optimierungen beim AF nervt.
Wenn er meint das immer und ständig in seinen Beiträgen einbringen zu müßen braucht er sich auch nicht zu wundern wenn andere ihren Unwillen zum Ausdruck bringen.
Definiere unumgänglich. Die Leistung wächst immer mehr und es bleibt immer mehr Überschuß für AA&AF man köönnte auch völlig Porblemlos SSAA und unoptimiertes AF reinschalten bei der heutigen Leistung. MAn häte zwar nich t so doll hohe Zahlen im CP stehten dafür im Endeffekt das bessere Bild.
Grandios!
Vor allem der Feldzug gegen das grauenhafte AF.
Leider scheint es sonst keine Sau zu stören (ausser ein paar wenigen), insofern wird sich das bei der nächsten Grafikkartengeneration wohl auch nicht ändern.
jo das sieht man wie leicht Marketing manipulieren kann.
lilgefo~
2005-06-26, 11:07:01
Eine Auwahl an ersten Benchmarks bieten wir hier anzubieten.
Müsste es nicht: Eine Auswahl an ersten Benchmarks bieten wir hier. heißen?
Schöner Artikel, aber mir schwirren vor lauter Zahlen die Sinne. Weiter oben hat nggalai einen recht guten Kommentar abgegeben, der auch meine Meinung voll wiederspiegelt.
PS: Einen Fehler hab ich entdeckt, mit dem letzten Wort im Absatz kann ich nicht so recht was anfangen.
Eine übliche SingleCore-CPU berechnet je nach Typ pro Takt bis zu zwei MAD-Operationen in FP32-Genauigkeit. Da schafft eine einzelne "normale" Pixelpipeline schon doppelt so viel, da es ja vier Kanäle (R, G, B und A) gibt. Eine G70-Pipe bringt nun 2x MAD pro Pixelpipe und hat 24 davon – das sind 192 MADs pro Takt im Pixelshader. Die acht Vertexshader können insgesamt weitere 32 MADs beisteuern, so dass der G70 pro Takt 224 MADs berechnen kannhö.
Super Artikel und vor allem recht kritisch in den wichtigen Punkten. Das gefällt mir :)
Ausserdem bin auch ich der Meinung, dass das Alpha-Test-AA DAS Killerfeature dieser Generation ist.
Hallo, Alle,
Danke Ath, super Artikel, auch wenn ich von dem Fachspezifischen nicht viel verstehe, bin ich mit dir einer Meinung: Es muss möglich sein, mit einer so schnellen Karte maximale Bildqualität zu erreichen, wie das umgesetzt wird, ist mir egal.
Exxtreme
2005-06-26, 12:55:37
Hier mal ein Screenshot vom "tollen" :rolleyes: winkelabhängigen 16x AF:
http://img291.echo.cx/img291/8243/wowscrnshot0626051148275cf.th.jpg (http://img291.echo.cx/my.php?image=wowscrnshot0626051148275cf.jpg)
Man beachte den Boden vor dem Elementargeist. Da sieht man richtig, was aths meinte. Scharfe Texturen direkt neben kaum mit AF behandelten Texturen. Wobei das in game noch stärker ins Auge fällt.
Thanks to ImageShack for Free Image Hosting (http://www.imageshack.us)
LovesuckZ
2005-06-26, 12:58:08
In WoW ist es wirklich extrem. Dort kann man das AF nur verfluchen!
Exxtreme
2005-06-26, 13:03:58
In WoW ist es wirklich extrem. Dort kann man das AF nur verfluchen!
Das Problem ist, daß die zukünftigen Outdoor-Spiele IMHO kaum noch rechtwinklige Level-Architektur haben werden. Sprich, WoW dürfte nur der Vorgeschmack sein.
Wenn diese Winkelabhängigkeit abschaltbar ist dann soll Nvidia es auch abschalbar machen durch einen Schalter im CP oder so. Kann doch nicht so schwer sein.
Leonidas
2005-06-26, 13:04:35
Ein Artikel über die Features des G70 der dazu genutzt wurde um die abstrusen Vorstellungen von aths über des anisotropen Texturfilter darzustellen.
Ich denke, es ist ziemlich logisch dargelegt, daß es diebezüglich eine hohe Ungereimtheit gibt: Auf der einen Seite bekommen wir bessere AA-Modi und wird die Schnelligkeit des Chips gerühmt - welche ja letztlich nur dazu genutzt wird, höhere Filtermodi zu aktivieren und damit eine bessere BQ zu erreichen. Auf der anderen Seite beschneiden die Hersteller beim AF die bestmögliche BQ bzw. trauen sich keine weiteren Verbesserungen zu.
Warum? SM4 wird dann irgendwann auch mal mit besserer BQ beworben werden. Warum kann man nicht ein besseres AF bauen und das ebenfalls so bewerben? Es geht in beiden Fällen schlicht um bessere BQ.
PS: Bisher gefundene Schreibfehler gefixt.
Wobei das in game noch stärker ins Auge fällt.In Bewegung ists fürchterlich. In Max Payne sehe ich das winkelabhängige AF wenn ich mich unter eine Hauswand stelle, nach oben gucke um mich dann um die Z-Achse drehe, dann "pulsiert" die Texturschärfe. In WoW hat man scharfe und unscharfe Texturen direkt nebeneinander, und das finde ich voll zum Heulen. Ich möchte durchgehend scharfe Texturen und das kann (gutes) AF am effizientesten erledigen. Mit meinen 4 Gigatexeln Füllratenleistung kann ich WoW mit 4x Supersampling einigermaßen spielen.
Das Problem ist, daß die zukünftigen Outdoor-Spiele IMHO kaum noch rechtwinklige Level-Architektur haben werden. Sprich, WoW dürfte nur der Vorgeschmack sein.Genau das ist ja der Irrwitz: Bei strikter 90°-Architektur bringt das "optimierte" AF keinen Leistungsvorteil. Wenn die "Optimierung" einen spürbaren Geschwindigkeitsvorteil bringen soll geht das nur, in dem partiell kräftig Qualität geopfert wird. 8x neben 2x sieht aber hässlicher aus als durchgehendes 4x. Ich kann Tigerchens Vorwurf von wegen "abstrus" schon im Ansatz nicht nachvollziehen und hoffe dort auf eine Begründung. Ebenso, warum das "unumgänglich" sein soll bei 302 M Transistoren und einer Leistung von 10 Gigatexeln.
Für WoW überlege ich, ohne Scheiß, die FX 5900 XT wieder einzubauen. Außer WoW spiele ich atm am PC eh nichts großartig anderes mehr.
Exxtreme
2005-06-26, 13:18:11
Genau das ist ja der Irrwitz: Bei strikter 90°-Architektur bringt das "optimierte" AF keinen Leistungsvorteil. Wenn die "Optimierung" einen spürbaren Geschwindigkeitsvorteil bringen soll geht das nur, in dem partiell kräftig Qualität geopfert wird. 8x neben 2x sieht aber hässlicher aus als durchgehendes 4x. Ich kann Tigerchens Vorwurf von wegen "abstrus" schon im Ansatz nicht nachvollziehen und hoffe dort auf eine Begründung.
Sehe ich auch so. Wenn man 16x einstellt dann sollte man auch 16x bekommen und nicht 2x - 16x. Wenn 16x zu langsam ist dann setzt man die Qualität runter. So muss man von vorneherein mit reduzierter Qualität leben egal ob die Leistung reicht oder nicht.
Tigerchens Verwürfe kann ich rein logisch nicht nachvollziehen ... höchstens psychologisch. So nach dem Motto, der Glaube versetzt Berge.
Mephisto
2005-06-26, 13:26:58
Seite 3:
Bei der GeForce4 Ti wurde die Leistung von bilinearem AF geschmählert
Kommt doch von schmal, oder?
deekey777
2005-06-26, 13:32:03
...
Daran erinnere ich mich kaum, erstmalig bei der GeForce4 Ti assoziiere ich das mit Doom3. Das kann natürlich sein, dass NV schon bei der GF3 die Leute heiß machte.
Wenn mich nicht alles täuscht, wurde die Geforce 3 zum ersten Mal während der Präsentation des PowerMac G4 gezeigt; dabei wurde von John Carmack auch seine neue Grafikengine mit ihrer Schattentechnik gezeigt. Von Doom 3 war aber keine Rede, zumindest nicht eindeutig.
Sephiroth
2005-06-26, 13:54:21
Klasse Artikel aths! :up:
Im Gegensatz zu Tigerchen finde ich es richtig gut, daß du die gebotene AF Qualität immer anprangerst. Ein Ein- und Auschalten jener "Optimierung" wäre wirklich super - per default aktiviert aber abschaltbar, wenn man will.
Ich bin nochmal richtig gespannt auf einen Vergleichstest mit dem kleinen Bruder der 7800GTX und ob dieser noch für AGP (mit Bridge Chip ja kein großes Problem) kommt.
MountWalker
2005-06-26, 14:10:27
...
Für WoW überlege ich, ohne Scheiß, die FX 5900 XT wieder einzubauen. Außer WoW spiele ich atm am PC eh nichts großartig anderes mehr.
Es muss ja nicht erst WoW sein, schon Morrowind hatte eine durch und durch anti-rechteckige Landschaftsarchitektur und seit Jahren sind die Bodentexturen dort mit dem PlugIn "Landscape Remix" auch scharf genug um sich bei hohen AF-Modi nicht "weitsichtig" vorzukommen.
Die 5900 käme für mich als Ersatz aber nicht in Frage, weil die OG-Maske stärker nervt, als unscharfe Texturen - da spiele ich lieber mit niedrigeren AF-Modi, wenn ich dafür 4x SG-AA habe. ;)
In WoW ist es wirklich extrem. Dort kann man das AF nur verfluchen!
nicht nur WoW, praktisch überall wo es outdoor-level gibt, farcry ist outdoor gleich schlimm.
Hier mal ein Screenshot vom "tollen" :rolleyes: winkelabhängigen 16x AF:
http://img291.echo.cx/img291/8243/wowscrnshot0626051148275cf.th.jpg (http://img291.echo.cx/my.php?image=wowscrnshot0626051148275cf.jpg)
Man beachte den Boden vor dem Elementargeist. Da sieht man richtig, was aths meinte. Scharfe Texturen direkt neben kaum mit AF behandelten Texturen. Wobei das in game noch stärker ins Auge fällt.
Thanks to ImageShack for Free Image Hosting (http://www.imageshack.us)
ICh freu mich schon auf die ersten "ich seh da nix" antworten :>
btw: war hier nicht Werbung unerwünscht O_o
MadManniMan
2005-06-26, 15:41:30
Tschuldigung, waren 8 Bier heut Nacht, also nochma:
Wo bleim die "Spezial-Benches"? <- ungeplenkt!
Mal ernsthaft: in der aktuellen Form bieten die guten alten 3DC-Artikel in einigen Belangen wirkliche Neuigkeiten, ergänzen sich mit den dutzenden anderen zu einem großen Ganzen - doch da liegt wiederum auch der Hase im Pfeffer:
Ohne Beyond3D und co. funktionieren die Artikel nicht richtig.
Habt ihr die Karte schon gar nicht mehr, sodaß gar nix mehr gebencht werden kann?
Mir verlangts nach 3DC-TAA-Bildern, noch Vergleichsshots, die sich mit der Frage nach dem evtl. unterfilterten AF beschäftigen. Aber ich möche eben auch Benches, viel mehr Benches!
MFG, MMM
Tschuldigung, waren 8 Bier heut Nacht, also nochma:
Wo bleim die "Spezial-Benches"? <- ungeplenkt!Frag Leo :)
Und mach keine Hektik! Es ist doch wichtiger, sich zu überlegen, was man wie benchen sollte damit es einen vernünftigen Erkenntnisgewinn gibt. Das kann Wochen dauern, oder noch länger. Ich bin sicher dass einige Gurus Ideen haben werden.
Mal ernsthaft: in der aktuellen Form bieten die guten alten 3DC-Artikel in einigen Belangen wirkliche Neuigkeiten, ergänzen sich mit den dutzenden anderen zu einem großen Ganzen - doch da liegt wiederum auch der Hase im Pfeffer:
Ohne Beyond3D und co. funktionieren die Artikel nicht richtig.Ich versuche natürlich einen Zustand zu erreichen, dass man auch mit 3dc alleine klar kommt. Andererseits folge ich meinen eigenen Interessen, also ob sich der Inhalt meiner Artikeln mit anderen überschneidet oder nicht, stellt sich dann erst hinterher heraus.
GloomY
2005-06-26, 17:52:44
Seite 3:Ebenso finden wie die Fortschritte bei der Implementierung vom Shader Model 3 im G70 gut."wir" statt "wie", oder? :)
Ansonsten kann ich mich den Ausführungen um die AF-Optimierungen nur anschliessen.
zeckensack
2005-06-26, 18:09:40
Daran erinnere ich mich kaum, erstmalig bei der GeForce4 Ti assoziiere ich das mit Doom3. Das kann natürlich sein, dass NV schon bei der GF3 die Leute heiß machte.Die Geforce 3 wurde auf der Macworld 2001 vorgestellt (http://www.insidemacgames.com/news/story.php?ArticleID=2175).
Fetza
2005-06-26, 18:10:43
Hi,
der Artikel kommt mir stellenweise etwas nach "ATI ist schuld, und macht ja sowieso alles nur nach" vor. Das wurde ja, soweit ich hier einige postings richtig verstanden habe, auch von einigen anderen Usern empfunden.
Das NVidia jetzt, nach NV30, NV35, NV40 endlich mal auch "gamma korrektes" downsampling in hardware realisiert, läßt mich übrigends gerade als NV40-Besitzer nicht in Jubelschreie ausbrechen. Dies war längst überfällig. Die Softwarelösung desselben AA`s, was ich mit meinem NV40 nehmen kann, ist auch keinesfalls per Treiber aktivierbar, so wie Aths das in seinem Artikel darstellt. Oder habe ich das nur falsch verstanden? In jedem Fall muss ich dafür extra Tools nutzen! Den nutzen von Supersampling AA kann ich auch nicht so hoch einschätzen, wie Aths, wenn ich ne Radeon im Rechner habe, nehme ich halt statt Supersampling AA dann ne höhere Auflösung, wo ist das Problem? Gut die G70 geht da jetzt neue Wege, aber zumindest beim NV40 fand ich das Argument mit dem Supersampling Modi nicht stichhaltig.
Wo ich aber eben beim durch schmökern des Artikels wirklich lachen musste, ist dieser Abschnitt:
"Bei unzähligen Details merkt man Nvidias Bestreben, Leistung und Qualität zu liefern. Dazu riskierten sie auch Naserümpfen, so zum Beispiel bei der GeForceFX-5800-Ultra-Kühllösung. Das Kühlprinzip wurde später (in einer leiseren Version) von ATI übernommen. Auch SLI – nur wenige können sich dies leisten – wurde von ATI imitiert."
Jetzt mal ehrlich, möchte der Autor hier ähnlich humorig sein, wie die Entwickler von NVidia, die später mal so ein selbstironisches Fun-Video zu ihrer Flow-Fx Kühlung gebracht haben? Wenn ich mir mal die Radeon 9800 XT ansehe, fällt mir beim besten Willen keine Verwandschaft zur Flow-FX auf :-) Aber warscheinlich hat ja auch Arctic Cooling mit ihren VGA-Silencer nur die tolle Flow-FX Kühlung nachgemacht, natürlich in einer leiseren Form. Aber letztlich verdanken wir all dies ja nur "Nvidias Bestreben, Leistung und Qualität zu liefern. " zusammen mit ihrer löblichen Bereitschaft zum " Naserümpfens" des Kunden :-)
Flow-FX wurde keineswegs eingeführt, weil NVidia ihren NV30 damit geplant hätte, vielmehr war es eine Notlösung weil der low-k Fertigungsprozess von TSMC nicht bereit war. Da wurde dann schnell diese grottige Kühlung nachgeschleudert, um das Teil dann trotzdem auf den Markt zu werfen, ohne Rücksicht auf den Kunden. Es wäre schon, wenn Aths dies nächstesmal bitte bedenkt, bevor er so eine, ich nenne es jetzt mal äußerst subjektive Äußerung tätigt.
Die sache mit SLI ist zwar schon richtig, allerdings sind ATI`s GPUs schon seit Jahren für Multichip Lösungen bereit. Natürlich haben wir es trotzdem NVidia zu Verdanken, das endlich wieder in diesem Bereich sich etwas für uns Spieler tut.
Naja, also das wären jetzt zumindest meinte Kritikpunkte, gut gefallen hingegen haben mir die technischen Hintergründe des Artikels.
Gruß
Fetza
was ist eigentlich der unterschied zwischen transparenz supersampling und transparenz multisampling?
den bisherigen reviews nach ist zweiteres ja eigentlich umsonst, aber irgendeinen sinn muss dieser modus doch haben.
Erstmal ein :up: an aths, sehr guter und informativer Artikel. Jetzt wissen wir ja, warum der G70 so gut beim Pixel-Shading performt.
Ich hab' da aber noch was gefunden!
- Seite 2, Überschrift: "Nichtlineare Downfilterung"
Sollte wohl eher nichtlineares (oder non-) Downfiltering heißen. Alles andere ist eine merkwürdige Deutsch-Englisch-Konstruktion.
- Dann etwas darunter, zweiter Absatz nach der Zwischen-Überschrift: "Wenns nichts ausmacht, bitte noch mit nichtlinearem Downfiltering. Genau das bietet nun der G70"
Wenn's
- Beim Fazit, zweiter Absatz: "Ebenso finden wie die Fortschritte bei der Implementierung vom Shader Model 3 im G70 gut."
Finden wir
- Absatz darunter: "Nur die Polygone, die es brauchen bekommen Supersampling, und zwar mit der bestmöglichen Subpixel-Anordnung."
Nur die Polygone, die es brauchen, bekommen ...
Sorry, aber ich seh auch jeden Sch... ;)
Ansonsten klasse! =)
MfG,
Raff
Quasar
2005-06-26, 22:37:25
Die einfachste und wirksamste Methode, die AF-Qualität anzuprangern, wäre, einen der bekannten Tunneltester einfach auf eine Seitenzahl einzustellen, die nur ungünstige Winkel für bekannt optimiertes AF zeigt und diese dann mit GF3/4/FX zu vergleichen.
6 - setzen.
Wenn "Balkenlänge" das einzige ist, was die IHVs interessiert, sollen sie halt Balkenlänge bekommen.
So war die Riva TNT2 – im wesentlichen nur ein Takt-Upgrade der Riva TNT – ein großer Verkaufserfolg, nicht zuletzt dank der Riva TNT2 M64, die für Spieler allerdings kaum geeignet war.
Die GeForce2-Serie verkaufte sich hingegen (vor allem dank der GeForce2 MX) prächtig.
TNT2 trug nur anfangs das Riva im Namen, der M64 dann soweit ich weiß gar nicht mehr.
Das "hingegen" im zweiten Satz wirkt deplatziert, weil es hier keinen Gegensatz gibt.
Nicht etwa, weil Texturen unwichtiger würden – die Texturierungsleistung kommt jetzt eben über die große Anzahl an Pixelpipes (16 statt 4 Pipelines berechnen 16 statt 8 Texel pro Takt). Aber im Verhältnis zu arithmetischen Rechnungen geht der Anteil der Texturleistung zurück.
Also werden die Texturen doch unwichtiger... ;)
was ist eigentlich der unterschied zwischen transparenz supersampling und transparenz multisampling?
den bisherigen reviews nach ist zweiteres ja eigentlich umsonst, aber irgendeinen sinn muss dieser modus doch haben.
Der Modus hat durchaus einen Sinn, wie man auch anhand dieser Demo (http://www.humus.ca/index.php?page=3D&ID=61) beobachten kann. Allerdings hat NVidia IMO bei der Implementation geschlampt und der Modus ist in seiner aktuellen Form kaum zu gebrauchen. Eine bessere Variante ist aber definitiv möglich.
Den nutzen von Supersampling AA kann ich auch nicht so hoch einschätzen, wie Aths, wenn ich ne Radeon im Rechner habe, nehme ich halt statt Supersampling AA dann ne höhere Auflösung, wo ist das Problem? Gut die G70 geht da jetzt neue Wege, aber zumindest beim NV40 fand ich das Argument mit dem Supersampling Modi nicht stichhaltig.
Wirklich hoch eingeschätzt wird auch nur das Sparse (bitte ohne d!) Grid Supersampling des G70. So hoch kannst du die Auflösung gar nicht mehr erhöhen, um äquivalente Alpha-Kanten-Qualität zu bekommen. Aber auch dem OGSS hat ATI momentan manchmal nichts entgegenzusetzen. Denn es gibt ja auch limitierende Faktoren für die Auflösung, wie der Monitor oder die Rendertarget-Maximalgröße.
@ Quasar:
Perfektionierungsvorschlag:
Man nehme statt einem AF-Tunnel eine für die Filterung gemeine reale Spielszene, in der idealerweise einige unoptimierte Winkel direkt in einem Meer aus "optimiertem" Matsch liegen, damit es auch der Blindeste ohne eingefärbte MIPs sieht und niemand behaupten kann, in echten Spielen würde man keinen Unterschied bemerken.
Piffan
2005-06-26, 23:57:15
Ich kenne Wow nicht und habe ehrlicherweise noch kein Spiel erlebt, wo mich das winkeladaptive Filtern gestört hat. Bei Gothic2 habe ich es an Hängen versucht zu finden, aber wieder Fehlanzeige. Wahrscheinlich lag es daran, dass bei Gothic die Übergänge zu weich sind oder die "schlechten" Flächen so groß sind, dass es nicht auffällt. Wenn allerdings das Terrain ausgesprochen wellig/hügelig ist, könnte es völlig anders aussehen. Solange scharfe und unscharfe Zonen nicht zu krass hervorstechen oder sie nicht direkt nebeneinander liegen, ist es wohl wirklich nicht so sehr störend. Es kommt auch auf die Sensibilität an, schließlich gehöre ich zu den Menschen, die die Grafik von HL2 gut finden und die Flimmer- Zäune ignorieren können.
@aths: Warum schreibst Du von vielen Designern, die auf Multisampling keine Rücksicht nehmen? Warum so zurückhaltend und nicht gleich Valve bzw. HL2 genannt? Hat Dich am Ende die Erfahrung mit der HL2- Kolumne vorsichtiger werden lassen und willst Du Deinen Artikel von Angriffen aus der Fanboy- Ecke freihalten? Hat aber nichts genützt, diesmal kam ein Angriff aus der roten Ecke. :D
Nee, war nur ein Scherz am Rande. Wie immer bist Du Dir in dem Artikel treu geblieben und hast die Kröten genannt, die man beim Hardware- Kauf schlucken muss. Es ist in der Tat ein Witz, dass man die User bevormundet und ihnen die Möglichkeit genommen hat, die Qualität selbst zu bestimmen, schlimmer sie noch mit Pseudo- Werten regelrecht verarscht. (Sorry, aber ich kenne kein passenderes Wort).
Der Artikel ist nach meinem Geschmack und dem Beurteilungsvermögen eines interessierten Spielers (Laien) sehr gut.
Ich bin mal gespannt, wie die Wirkung des Transparenz- AA auf die Flimmerzäune von HL2 ist. Der Ansatz, nur die Problembereiche mit Supersampling zu bearbeiten, ist schon recht pfiffig. Ich frage mich nur gerade, was weniger Füllrate frisst: gleich mit korrektem Blending zu arbeiten oder zunächst mit mit Alpha- Test zu Pfuschen und dann selektiv das Supersampling drüberlaufen zu lassen....Die Pfusch- Variante wäre immerhin "kompatibel" zu älterer Hardware....
Was WoW angeht kann ich aths nur zustimmen. Das AF sieht dort einfach nur besch... eiden aus und schreit zusätzlich zum Alphatesting nach SSAA.
MfG,
Raff
Sollte wohl eher nichtlineares (oder non-) Downfiltering heißen. Alles andere ist eine merkwürdige Deutsch-Englisch-Konstruktion.Ist es ohnehin. Sonst müsste es heißen "Non-linear downfiltering", dann müsste auch der restliche Artikel in Englisch sein, oder ich hätte "Nichtlineare Herunterfilterung" schreiben müssen (bzw. "Nichtlineare Zusammenfilterung.) "Non" setze ich prinzipiell so wenig wie möglich ein. (Beispiel: Eine Radeon 9600 ist bei mir eine Radeon 9600 und keine 9600 Non-Pro.)
- Dann etwas darunter, zweiter Absatz nach der Zwischen-Überschrift: "Wenns nichts ausmacht, bitte noch mit nichtlinearem Downfiltering. Genau das bietet nun der G70"
Wenn'sWarum sollte da ein Apostroph stehen?
- Beim Fazit, zweiter Absatz: "Ebenso finden wie die Fortschritte bei der Implementierung vom Shader Model 3 im G70 gut."
Finden wirStimmt.
- Absatz darunter: "Nur die Polygone, die es brauchen bekommen Supersampling, und zwar mit der bestmöglichen Subpixel-Anordnung."
Nur die Polygone, die es brauchen, bekommen ...Ob da wirklich ein Komma hinkommt, weiß ich nicht.
Hi,
der Artikel kommt mir stellenweise etwas nach "ATI ist schuld, und macht ja sowieso alles nur nach" vor. Das wurde ja, soweit ich hier einige postings richtig verstanden habe, auch von einigen anderen Usern empfunden.Ich weiß nicht, woran das liegt. ATI mache ich zum Vorwurf, das AF prinzipiell so vernachlässigt zu haben, aber für die AF-Implementierung im G70 ist alleine Nvidia verantwortlich. Dass ATI mit ihrem AF so gut wegkommt liegt imo teilweise an Testern, die die Texturqualität nicht kompetent einschätzen können (im Vergleich zur GeForce3 oder 4, bzw. FX ohne "Optimierungen".) Im gleichen Zuge wundert mich wie leidensfähig die Nvidia-User zur FX-Zeit waren, als es den Zwang zu "brilinarer" Filterung gab.
Ich bestehe z. B. darauf, dass eine Karte "out of the box" (gemeint ist mit den Standard-Einstellungen beim Treiber) ohne trilineare bzw. Sample-"Optimierung" arbeitet. Die Karte soll standardmäßig das tun, was ihr anbefohlen wird, das heißt bei eingestellter trilinearen Filterung trilinear filtern und in jedem Fall das Nyquist-Kriterium voll einhalten.
Dass ATIs "Optimierungen" nicht sofort heftig kritisiert wurden liegt nicht zuletzt daran, dass ATI bestimmte Dinge (Unterfilterung, brilineare Filterung, u. a.) recht gut verstecken kann, weil sie es nur sanft einsetzen. NV hat ja auch mit beidem experimentiert, aber aus Verzweiflung, noch ein oder zwei Frames mehr zu schinden, die Filterqualität dermaßen abgesenkt dass es selbst normalen Spielern auffiel. Die GF6-Serie wird noch lange in vielen Köpfen als Texturflimmer-Karten gesehen werden ungeachtet der Tatsache, dass es bei der richtigen Einstellung (HQ-Modus, LOD-Clamp aktiviert) nicht flimmern muss. (Es sei denn, es ist "Shaderflimmern" oder es liegt an ungünstigem Textur-Content.)
Genauso weigere ich mich, den G70 als durchweg tollen Chip anzusehen – nicht mit diesem AF. Das G70-AF ist imo kein Wermutstropfen, sondern eine Zumutung.
Das NVidia jetzt, nach NV30, NV35, NV40 endlich mal auch "gamma korrektes" downsampling in hardware realisiert, läßt mich übrigends gerade als NV40-Besitzer nicht in Jubelschreie ausbrechen. Dies war längst überfällig. Die Softwarelösung desselben AA`s, was ich mit meinem NV40 nehmen kann, ist auch keinesfalls per Treiber aktivierbar, so wie Aths das in seinem Artikel darstellt. Oder habe ich das nur falsch verstanden? In jedem Fall muss ich dafür extra Tools nutzen! Ja, man braucht einen Tweaker, aber der setzt nur einen Registry-Eintrag auf einen undokumentierten Wert.
Den nutzen von Supersampling AA kann ich auch nicht so hoch einschätzen, wie Aths, wenn ich ne Radeon im Rechner habe, nehme ich halt statt Supersampling AA dann ne höhere Auflösung, wo ist das Problem? Welche maximale Auflösung schafft dein Monitor bei erträglicher Bildfrequenz?
Wo ich aber eben beim durch schmökern des Artikels wirklich lachen musste, ist dieser Abschnitt:
"Bei unzähligen Details merkt man Nvidias Bestreben, Leistung und Qualität zu liefern. Dazu riskierten sie auch Naserümpfen, so zum Beispiel bei der GeForceFX-5800-Ultra-Kühllösung. Das Kühlprinzip wurde später (in einer leiseren Version) von ATI übernommen. Auch SLI – nur wenige können sich dies leisten – wurde von ATI imitiert."
Jetzt mal ehrlich, möchte der Autor hier ähnlich humorig sein, wie die Entwickler von NVidia, die später mal so ein selbstironisches Fun-Video zu ihrer Flow-Fx Kühlung gebracht haben?Afaik war das Video von Fans nachgestellt, oder irre ich hier?
Wenn ich mir mal die Radeon 9800 XT ansehe, fällt mir beim besten Willen keine Verwandschaft zur Flow-FX auf :-) Aber warscheinlich hat ja auch Arctic Cooling mit ihren VGA-Silencer nur die tolle Flow-FX Kühlung nachgemacht, natürlich in einer leiseren Form. Aber letztlich verdanken wir all dies ja nur "Nvidias Bestreben, Leistung und Qualität zu liefern. " zusammen mit ihrer löblichen Bereitschaft zum " Naserümpfens" des Kunden :-)Der Artikel hätte weiteres anführen können, z. B. den Stromstecker, eingeführt von 3dfx, übernommen dann von Nvidia/3dfx, dann von ATI. Erst haben sich Leute lustig gemacht und auf ihre ATI Radeon verwiesen die sowas nicht nötig hätte, dann bringt ATI eine vergleichbare Lösung und plötzlich ist alles ganz anders.
Flow-FX wurde keineswegs eingeführt, weil NVidia ihren NV30 damit geplant hätte, vielmehr war es eine Notlösung weil der low-k Fertigungsprozess von TSMC nicht bereit war.Und weil Nvidia unbedingt 500 MHz schaffen wollte, um wenigstens einige wenige Benchmarks zu gewinnen.
Da wurde dann schnell diese grottige Kühlung nachgeschleudert, um das Teil dann trotzdem auf den Markt zu werfen, ohne Rücksicht auf den Kunden. Es wäre schon, wenn Aths dies nächstesmal bitte bedenkt, bevor er so eine, ich nenne es jetzt mal äußerst subjektive Äußerung tätigt.Wurde der NV30 in großem Maßstab verkauft, oder fand er nicht vielmehr keine Gnade vor dem Kunden? Letzteres wurde doch im Artikel gesagt.
Doch vieles von dem, was mit dem NV30 eingeführt wurde, treffen wir heute (in verbesserter Form) wieder. Dazu zählt auch eine unterschiedliche Taktung für 2D und 3D.
Die sache mit SLI ist zwar schon richtig, allerdings sind ATI`s GPUs schon seit Jahren für Multichip Lösungen bereit. Natürlich haben wir es trotzdem NVidia zu Verdanken, das endlich wieder in diesem Bereich sich etwas für uns Spieler tut.Wobei ich mir Bemerkungen zur Verfügbarkeit an dieser Stelle verkniff. Auch Nvidia-GPUs sind seit eh und je multichipfähig, nur kamen Dualchip-Quadro-Karten wohl über das Teststadium nicht hinaus.
Wenn ich das anmerken darf: "ATIs GPUs" – und nicht ATI's oder gar ATI`s.
resonatorman
2005-06-27, 06:26:28
Warum sollte da ein Apostroph stehen?
Als Platzhalter für das fehlende "e" aus "Wenn es..."
Ob da wirklich ein Komma hinkommt, weiß ich nicht.
Aber ich : es kommt eins hin ;) .
Demirug
2005-06-27, 06:30:45
Afaik war das Video von Fans nachgestellt, oder irre ich hier?
Du irrst gewahltig.
resonatorman
2005-06-27, 06:35:14
Du irrst gewahltig.
Das waren doch sogar nVidia-Mitarbeiter IIRC...?
Als Platzhalter für das fehlende "e" aus "Wenn es..."Schreibst du auch "Er ging in's Zimmer", weil es eigentlich "Er ging in das Zimmer" heißen müsste? Nicht überall, wo was ausgelassen wird (es heißt ja auch was statt 'was für etwas) kommt der Apostroph. Soweit ich weiß, kann der Apostroph neuerdings weggelassen werden wenn er ein e ersetzt. Und um gegen die allgemeine Apostroph-Wut zu kämpfen entscheide ich mich bei Wahlfreiheit immer dafür, kein Apostroph zu verwenden.
Aber ich : es kommt eins hin ;) .Zumindest nach den alten Regeln. Nach den neuen Regeln werden viel weniger Kommas gesetzt. Allerdings sind mir die Kommaregeln insgesamt nicht so geläufig.
Du irrst gewahltig.Hrr hrr. Das sah so amateurhaft aus, dass ich dachte das wäre von Amateuren gedreht :uclap:
resonatorman
2005-06-27, 06:53:55
Schreibst du auch "Er ging in's Zimmer", weil es eigentlich "Er ging in das Zimmer" heißen müsste?
Ja, tue ich. Aber du hast recht, ich schreibe noch nach den alten Regeln ;). In diesem Fall macht das oft so falsch gebrauchte Apotroph aber Sinn.
Das Komma sollte auch hin, um den Einschub abzutrennen; möglich wäre evtl. noch gar kein Komma.
Erstmal ein :up: an aths, sehr guter und informativer Artikel. Jetzt wissen wir ja, warum der G70 so gut beim Pixel-Shading performt.Ach ja: Bloß nichts überbewerten. Ich habe Hinweise bekommen, dass es eher an einer besser auslastbaren Pipe als an zusätzlicher Rechenkraft liegt. Bevor es hier neue Erkenntisse gibt, die natürlich nur von Leuten gewonnen werden können die Shader programmieren können, sehe ich wenig Sinn dazu genaueres zu schreiben. Außer eben die Bitte, den Artikel nicht als unumstößlichen Tatsachenbericht zu sehen.
Grestorn
2005-06-27, 07:33:21
Den nutzen von Supersampling AA kann ich auch nicht so hoch einschätzen, wie Aths, wenn ich ne Radeon im Rechner habe, nehme ich halt statt Supersampling AA dann ne höhere Auflösung, wo ist das Problem?
Supersampling lässt sich nicht durch höhere Auflösungen ersetzen.
Wenn man heftiges Alpha-Test flimmern hat (Unterholz, Blätter, Maschendrahtzäune) hilft eine höhere Auflösung kein bisschen. Supersampling aber schon.
Grestorn
2005-06-27, 07:42:52
Ja, tue ich. Aber du hast recht, ich schreibe noch nach den alten Regeln ;). In diesem Fall macht das oft so falsch gebrauchte Apotroph aber Sinn.
Nein. "ins" für "in das" hat man auch schon in der alten Reschtschreibung ohne Apostroph geschrieben.
"ins" ist auch in die offizielle Grammatik eingeflossen und keine Dialektverkürzung mehr. Genau wie "in dem" zu "im" geworden ist usw.
Zum Thema Apostroph empfehle ich mal folgende Lektüre:SPIEGEL Zwiebelfisch (http://www.spiegel.de/kultur/zwiebelfisch)!
resonatorman
2005-06-27, 07:49:12
Na klar, der grestorn muß wieder mal recht behalten...und das Komma gehört dann da wohl auch nicht hin ;) ?
Übrigens geht es ja eigentlich um "wenn's" für "wenn es", hat "wenns" also auch den Weg in die Reschtschreibung gefunden?
Grestorn
2005-06-27, 09:25:37
Na klar, der grestorn muß wieder mal recht behalten...und das Komma gehört dann da wohl auch nicht hin ;) ?
Übrigens geht es ja eigentlich um "wenn's" für "wenn es", hat "wenns" also auch den Weg in die Reschtschreibung gefunden?
Es geht mir nicht darum, recht zu behalten. Und Fehler mache ich sicher genügend.
Du warst aber offensichtlich der Meinung, dass man "ins" erst seit der neuen Rechtschreibung schreibt, was halt nicht stimmt. Das wollte ich Dir nur mitteilen. Mir persönlich ist es völlig wurscht, wie Du schreibst und wieviel Fehler Du dabei machst. Rechtschreibfehler korrigiere ich prinzipiell nur bei aths! :D
"wenn es" schreibt man nach meinem Gefühl übrigens tatsächlich als "wenn's". "wenns" wird man in keinem Wörterbuch finden.
resonatorman
2005-06-27, 09:44:10
"wenn es" schreibt man nach meinem Gefühl übrigens tatsächlich als "wenn's". "wenns" wird man in keinem Wörterbuch finden.
Na toll, daß wir uns mal einig sind!
Also @aths : Wenn's und bitte das Komma noch... ;)
BTW schreibe ich nach wie vor "in's Kino gehen" :P (aber "grestorns Beitrag" - ohne Apostroph)
Mr. Lolman
2005-06-27, 10:22:46
Ein 4xSG + 2x2OG Mischmodus? Wie soll der aussehen? Die Krönung wärs sicher nicht. Das wär dann wohl eher was Richtung 16xSG - bei gleicher Rechenlast wie 4x4OG....
Ein 4xSG + 2x2OG Mischmodus? Wie soll der aussehen?Na wie wohl?
Die Krönung wärs sicher nicht. Das wär dann wohl eher was Richtung 16xSG - bei gleicher Rechenlast wie 4x4OG....Es wäre (für einen 16x-Modus) die Krönung mit dem, was der G70 an AA-Technik zur Verfügung stellt.
Mr. Lolman
2005-06-27, 10:31:06
Beim NV40 wurde nun der ATI-Style bezüglich AF imitiert. Vorteil: Es wird jetzt halbwegs gleiche Bildqualität verglichen (wobei die GeForce weiterhin leicht im Vorteil ist).
Seh ich definitiv nicht so. Was bei NV sehr stark auffällt, ist, dass es innerhalb einer Mip anscheinend ne feste Sampleanzahl gibt. Dementsprechend ist bei bilinearem (A-)Filtering immer der letzte Teil einer Mipmap Richtung Fluchtpunkt unterfiltert. Mit nem gutem trilinearem Filter kann man das wieder geradebiegen, hat dafür aber die Einschränkung, dass AF bei Spielen ohne Mipmaps praktisch nicht wirkt -> GTA Serie...
Bei direkten Vergleichen (ja ich habs mir genau angesehen) ist alles unter HQ tw schon duetlich schlechter als R300 Qualität, während HQ so ziemlich die gleiche Quailtät erreicht (aufgunrd der unterschiedlichen Funktionsweise ists unmöglich sich eine Szene rauszupicken, und aufgrund derer ein allgemeingültiges Fazit zu fällen)
BTW schreibe ich nach wie vor "in's Kino gehen" :P Das ist falsch geschrieben. Es heißt "ins Kino".
"wenn es" schreibt man nach meinem Gefühl übrigens tatsächlich als "wenn's". "wenns" wird man in keinem Wörterbuch finden.http://www.spiegel.de/kultur/zwiebelfisch/0,1518,283781,00.html
Dort steht:
"Der Apostroph kann dort gesetzt werden, wo das Pronomen "es" zu "s" verkürzt ist:"
[...]
Seit Zulassung der Rechtschreibreform gilt hier der Apostroph als entbehrlich, man darf daher auch schreiben: "
Bastian Sick vertraue ich in sprachlichen Fragen.
Mr. Lolman
2005-06-27, 10:34:50
Es wäre (für einen 16x-Modus) die Krönung mit dem, was der G70 an AA-Technik zur Verfügung stellt.
Ist eigentlich egal. Rechenleistungstechnisch ist jeder SSAA Modus > 4x eh nur ne praktisch nicht verwertbare Draufgabe...
/edit: Was limitiert eigenlich die max. mögliche Sampleanzahl bei SGSSAA? Der gleiche Faktor wie beim SGMSAA?
Seh ich definitiv nicht so. Was bei NV sehr stark auffällt, ist, dass es innerhalb einer Mip anscheinend ne feste Sampleanzahl gibt. Dementsprechend ist bei bilinearem (A-)Filtering immer der letzte Teil einer Mipmap Richtung Fluchtpunkt unterfiltert. Mit nem gutem trilinearem Filter kann man das wieder geradebiegen, hat dafür aber die Einschränkung, dass AF bei Spielen ohne Mipmaps praktisch nicht wirkt -> GTA Serie...Das GeForce-AF ist adaptiv, ich halte es für sehr wahrscheinlich dass die AF-Samplezahl pro Quad bestimmt wird und nicht pro MIP. Anisotrope Filterung sollte meiner Meinung nach immer im Zusammenspiel mit trilinearer Filterung appliziert werden, und Spiele sollten bei Basemaps grundsätzlich MIP-Maps entweder selbst mitbringen oder notfalls Auto-MIP-Mapping einschalten.
Bei direkten Vergleichen (ja ich habs mir genau angesehen) ist alles unter HQ tw schon duetlich schlechter als R300 Qualität, während HQ so ziemlich die gleiche Quailtät erreicht (aufgunrd der unterschiedlichen Funktionsweise ists unmöglich sich eine Szene rauszupicken, und aufgrund derer ein allgemeingültiges Fazit zu fällen)Ich denke wir stimmen darin überein, dass die NV40-Hardware bessere Filterqualität erreichen kann als die R300-Hardware. Was im Spiel tatsächlich geboten wird muss von Fall zu Fall bewertet werden. Ich kenne kein Beispiel, wo Q (ohne weitere "Optimierungen") schon "deutlich schlechter" als R300 (mit AI on) sein soll. Wenn du solche Beispiele kennst, wäre das imo einen eigenen Thread wert, da NV behauptet mit Q eben eine der Konkurrenz vergleichbare Qualität zu bringen. Ist die Qualität in Wahrheit "deutlich schlechter" muss das in Review-Bewertungen mit einfließen.
Ist eigentlich egal. Rechenleistungstechnisch ist jeder SSAA Modus > 4x eh nur ne praktisch nicht verwertbare Draufgabe...Für einige, wenige Applikationen reicht die Leistung noch. Die Qualität (Kanten und Texturen) wäre gigantisch. Natürlich ist das kein sinnvoller Modus, aber falls eine Anwendung anspruchslos genug ist, warum dann nicht Extremqualität bieten.
/edit: Was limitiert eigenlich die max. mögliche Sampleanzahl bei SGSSAA? Der gleiche Faktor wie beim SGMSAA?Das weiß ich nicht. Aber beide Verfahren werden wohl über Multisample-Buffer realisiert. Da vermute ich einen Begrenzung, wahrscheinlich gibt es weitere.
Mr. Lolman
2005-06-27, 11:04:30
Das GeForce-AF ist adaptiv, ich halte es für sehr wahrscheinlich dass die AF-Samplezahl pro Quad bestimmt wird und nicht pro MIP. Anisotrope Filterung sollte meiner Meinung nach immer im Zusammenspiel mit trilinearer Filterung appliziert werden, und Spiele sollten bei Basemaps grundsätzlich MIP-Maps entweder selbst mitbringen oder notfalls Auto-MIP-Mapping einschalten.
Automipmapping funktioniert (schon länger) nicht. Das ist ein Placeboschalter. Gegen deine Quadtheorie spricht, dass bei bilinearen Mipmaps pro Mipmap die Schärfe zum Fluchtpunkt ansteigt um mit der nächsten Mipmapstufe wieder deutlich abzufallen. Ergo NV bi-AF = NV OpenGL Q+opts AF = unbrauchbar.
Ich denke wir stimmen darin überein, dass die NV40-Hardware bessere Filterqualität erreichen kann als die R300-Hardware. Was im Spiel tatsächlich geboten wird muss von Fall zu Fall bewertet werden. Ich kenne kein Beispiel, wo Q (ohne weitere "Optimierungen") schon "deutlich schlechter" als R300 (mit AI on) sein soll. Wenn du solche Beispiele kennst, wäre das imo einen eigenen Thread wert, da NV behauptet mit Q eben eine der Konkurrenz vergleichbare Qualität zu bringen. Ist die Qualität in Wahrheit "deutlich schlechter" muss das in Review-Bewertungen mit einfließen.
Du schreibst doch Techartikel. Ich hab schon oft genug angefragt direkt bei 3DCenter aktiv als Crewmitglied mitwirken zu dürfen. Da war nie gewünscht und deswegen befinden sich alle meine Ausführungen in irgendwelchen Threads. Ich hab keinen Bock die jedesmal aufs neue rauszusuchen...
Aber, du könntest dir mal Kais Texturfix für Q3a besorgen und dann die einzelnen Optimierungen durchtesten und den Flimmergrad jew. mit dem der Ati Karten vergleichen. Q ohne Opts flimmert bei Q3a schon grauenhaft (ja auch ganz ohne der aniso-Sampleooptimierung die unter OpenGL hässliches NV biAF in seiner reinsten Form präsentiert)
Ich hab auch schon Vergleiche mit SC:CT (d3d) angestellt. Mit biAF ist Ati unter jeder Qualitätsstufe eindeutig vorn. Mit tri-AF in Bewegung (gecaptured mit fraps und dann fürs forum in animierte gifs umgewandelt) war HQ und Atis standard AF qualitativ gleich gut einzuordnen.
Automipmapping funktioniert (schon länger) nicht. Das ist ein Placeboschalter.Was für ein Schalter? Die Applikation kann über die API Auto-MIP-Mapping verlangen. Wenn sie das nicht tut, sollte der Programmierer einem hochnotpeinlichen Verhör unterzogen werden.
(Ein Placebo-Schalter würde übrigens auch funktionieren. Der Placebo-Effekt ist ja das Wirken ohne Wirkstoff.)
Gegen deine Quadtheorie spricht, dass bei bilinearen Mipmaps pro Mipmap die Schärfe zum Fluchtpunkt ansteigt um mit der nächsten Mipmapstufe wieder deutlich abzufallen. Ergo NV bi-AF = NV OpenGL Q+opts AF = unbrauchbar.Für meine Quadtheorie spricht :) dass das LOD pro Quad und nicht pro MIP berechnet wird. Bei bilinearer Filterung hat man einen ungleichmäßigen Schärfeverlauf. Trilineare Filterung ist ja gerade dafür entwickelt, das zu beseitigen. AF wurde entwickelt um auch bei einem u-v-Verhältnis ungleich 1:1 noch volle Schärfe anbieten zu können.
Du schreibst doch Techartikel. Ich hab schon oft genug angefragt direkt bei 3DCenter aktiv als Crewmitglied mitwirken zu dürfen. Da war nie gewünscht und deswegen befinden sich alle meine Ausführungen in irgendwelchen Threads. Ich hab keinen Bock die jedesmal aufs neue rauszusuchen...Ich bin ziemlich sicher dass Leo einen Artikel von dir auch dann veröffentlicht, wenn du (noch?) kein Crew-Mitglied bist, sofern der Artikel 3dc-Qualität erreicht. Ich bin nicht der Chef-Red von 3dc, aber begrüße jede Veröffentlichung die sich mit Grafik-Themen auseinandersetzt.
Dass Q ohne Opts "deutlich schlechter" als R420 mit aktivem AI ist, halte ich derzeit für unzutreffend, während mir Hinweise auf bestimmte LOD-Spielchen von NV, die nur in bestimmten Benchmarks zu sehen sein sollen, Sorgen machen. Wenn Q ohne Opts eher flimmeranfällig ist muss untersucht werden, woran das liegt: Unterfilterung oder "böse" Texturen?
Blöderweise funktioniert bei mir bei Demis AF-Tester das Textur-Laden nicht. Sonst würde ich mal einen Vergleich Q vs HQ machen, wobei allerdings zu vermuten ist dass sein Tool eh einer Applikationserkennung unterliegt und der Treiber dort ausnahmsweise genau das tut, was er soll.
Aber, du könntest dir mal Kais Texturfix für Q3a besorgen und dann die einzelnen Optimierungen durchtesten und den Flimmergrad jew. mit dem der Ati Karten vergleichen. Q ohne Opts flimmert bei Q3a schon grauenhaft (ja auch ganz ohne der aniso-Sampleooptimierung die unter OpenGL hässliches NV biAF in seiner reinsten Form präsentiert)Kais "Fix" arbeitet mit nachgeschärften Texturen. Daraus können sich "böse" Texturinhalte ergeben die prinzipiell flimmeranfällig sind. Jegliche "Sampleoptimierungen" lehne ich grundsätzlich ab, Tests mit solchen "Optimierungen" halte ich für sinnlos da sie das Nyquist-Kriterium verletzen. Wenn Q ohne Optimierung flimmert, HQ aber nicht, heißt das dass bei Q in Wahrheit noch eine "Sampleoptimimierung" aktiv ist, und Nvidias Control Panel Dinge vorgaukelt die nicht vorhanden sind.
Leider habe ich keine ATI-Karte zum Vergleichen (die 9600 ist verkauft) aber selbst wenn – ich habe nur einen PC und wenig Lust, ständig die Grafikkarte zu wechseln. Wenn es bei ATI weniger flimmert kann es auch daran liegen, dass die ungenaue LOD-Berechnung dazu führt dass die niedriger aufgelöste MIP zu früh ins Spiel kommt (was Bandbreite spart und die Hitrate im Texturcache erhöht) also der mögliche Schärfegrad gar nicht voll ausgenutzt wird.
Ich hab auch schon Vergleiche mit SC:CT (d3d) angestellt. Mit biAF ist Ati unter jeder Qualitätsstufe eindeutig vorn. Mit tri-AF in Bewegung (gecaptured mit fraps und dann fürs forum in animierte gifs umgewandelt) war HQ und Atis standard AF qualitativ gleich gut einzuordnen.Ich bezweifle dass animierte GIFs genügend Qualität bieten um es beurteilen zu können. Da könnten leichte Vorteile (für wen auch immer) schnell wegkomprimiert werden (durch die Reduktion auf 256 Farben.)
Mr. Lolman
2005-06-27, 11:49:06
Was für ein Schalter? Die Applikation kann über die API Auto-MIP-Mapping verlangen. Wenn sie das nicht tut, sollte der Programmierer einem hochnotpeinlichen Verhör unterzogen werden.
Mipmaps erzwingen im Forcewaretreiber...
(Ein Placebo-Schalter würde übrigens auch funktionieren. Der Placebo-Effekt ist ja das Wirken ohne Wirkstoff.)Was ja sehr vom eigenen Subjektivismus abhängt: Vorherrschende Meinung: mipmaploses Af ist ja kein Problem, man kann ja Mipmaps erzwingen.
Tatsache: Man kann keine Mipmaps erzwingen.
Für meine Quadtheorie spricht :) dass das LOD per Quad und nicht per MIP berechnet wird. Bei bilinearer Filterung hat man einen ungleichmäßigen Schärfeverlauf. Trilineare Filterung ist ja gerade dafür entwickelt, das zu beseitigen. AF wurde entwickelt um auch bei einem u-v-Verhältnis ungleich 1:1 noch volle Schärfe anbieten zu können.Wie erklärst du dir dann die Eigenheiten beim biAF?
Denn ATis biAF bietet völlig homogene Schärfe über alle Mipmaps und unterscheidet sich vom tri-AF nur durchs bi-Band, was je nach Texturcontent bisweilen nichteinmal sichtbar ist...
Ich bin ziemlich sicher dass Leo einen Artikel von dir auch dann veröffentlicht, wenn du (noch?) kein Crew-Mitglied bist, sofern der Artikel 3dc-Qualität erreicht. Ich bin nicht der Chef-Red von 3dc, aber begrüße jede Veröffentlichung die sich mit Grafik-Themen auseinandersetzt.Hm, ich überleg mir da mal was. Eigentlich wollt ich einen 3dfx bezogenen Artikel verfassen, aber die Voodoo5 6000 lässt eh auf sich warten..
Dass Q ohne Opts "deutlich schlechter" als R420 mit aktivem AI ist, halte ich derzeit für unzutreffend, während mir Hinweise auf bestimmte LOD-Spielchen von NV, die nur in bestimmten Benchmarks zu sehen sein sollen, Sorgen machen.Tests mal durch. Nimm aber ein Spiel wo die Texturinhalte auch scharf genug sind, nicht dass das zu so einer Farce verkommt wie bei computerbase wo man die AF Qualität anhand von UT2004 bestimmt...
Blöderweise funktioniert bei mir bei Demis AF-Tester das Textur-Laden nicht. Sonst würde ich mal einen Vergleich Q vs HQ machen, wobei allerdings zu vermuten ist dass sein Tool eh einer Applikationserkennung unterliegt und der Treiber dort ausnahmsweise genau das tut, was er soll. Tests doch mal in ner App. Q3a ist zwar alt, aber eignet sich dafür wunderbar
Du wirst sehen, dass alles unter HQ völlig unbrauchbar ist, sofern nicht appspezifische Optimierungen den Filter mutwillig auf ne bestimmte Qualität festlegen (wie bei Ut2004 z.B.)
Kais "Fix" arbeitet mit nachgeschärften Texturen. Daraus können sich "böse" Texturinhalte ergeben die prinzipiell flimmeranfällig sind. Jegliche "Sampleoptimierungen" lehne ich grundsätzlich ab, Tests mit solchen "Optimierungen" halte ich für sinnlos da sie das Nyquist-Kriterium verletzen. Wenn Q ohne Optimierung flimmert, HQ aber nicht, heißt das dass bei Q in Wahrheit noch eine "Sampleoptimimierung" aktiv ist, und Nvidias Control Panel Dinge vorgaukelt die nicht vorhanden sind.Ja eben. Wenn dann scharfe/flimmeranfällige Texturinhalte deutlich aufzeigen, dass nicht nur NVs standard Qualität, sondern auch auch der Qualitätsmodus mit deaktivierten Optimierungen schon deutlich flimmriger ist als ATi AF, dann ist das wohl eher ein Indikator als irgendeine vorherrschende Meinung, die noch dazu von NV höchstpersönlich propagiert wird...
BTW: Was sollte den Q vgl zu HQ denn sonst anders machen, wenn nicht ne Optimierung der Samples...
Leider habe ich keine ATI-Karte zum Vergleichen (die 9600 ist verkauft) aber selbst wenn – ich habe nur einen PC und wenig Lust, ständig die Grafikkarte zu wechseln. Wenn es bei ATI weniger flimmert kann es auch daran liegen, dass die ungenaue LOD-Berechnung dazu führt dass die niedriger aufgelöste MIP zu früh ins Spiel kommt (was Bandbreite spart und die Hitrate im Texturcache erhöht) also der mögliche Schärfegrad gar nicht voll ausgenutzt wird.Würdest du meine Screenshots kennen (oder hättest dus dir selbst schon mal genau angesehen), wüsstest du, dass bei ATi die niedriger aufgelöste Mip später in Spiel kommt als bei NV. Nicht nur das: (Zumindest*) bei Splintercell wird NV AF zu den Bildschirmrändern unschärfer als ATi - völlig unabhängig vom AF-Grad!!!
Außerdem sehe ich das als deine Aufgabe an, deine Ausführungen auch irgendwo zu verifizieren, sonst kann man sich theoretische Betrachtungen gleich sparen - überhaupt bei so nem heiklen Thema, wo die Vergleichsparameter direkt vom IHV stammen.
Ich zweifle dass animierte GIFs genügend Qualität bieten um es beurteilen zu können. Da könnten leichte Vorteile (für wen auch immer) schnell wegkomprimiert werden (durch die Reduktion auf 256 Farben.)Deswegen hab ichs auch so umständlich ausgedrückt: Ich hab mir natürlich dass Ganze auch als unkomprimiert gecapturedtes avi reingezogen, nur fürs Forum gabs animierte gifs. Aber aufgrund der gewählten Szene kommt die 8bit Farblimitation kaum zu tragen. Außerdem wird die Limitation wohl kaum dazu führen, dass besseres Af plötzlich schlechter wirkt, als nicht so gutes :|
*andere Spiele hab ich mir noch nicht so genau angesehen...
Piffan
2005-06-27, 13:08:01
Nix gegen Fortbildung bzgl. der Schreibe und gegen die Filterdiskussion, aber könnte man den Focus bitte wieder auf den Punkt bringen, der WIKRLICH neu beim G70 ist? Ich meine das Transparenz- AA. Gibts da bald Erkenntnisse über die Wirkung auf Spiele wie Gothic, Farcry und nicht zuletzt HL2? Beispielbilder wären fett und auch Hinweise auf den Einfluss auf die Performance, z.B. bei Outdoorszenen im Wald bei Gothic oder Farcry....DAS ist es, was mich interessiert. :D
Liege ich richtig, wenn ich davon ausgehe, dass der Füllratenhunger des neuen AAs vom Anteil der Alpha- Test-Texturen am Gesamtbild abhängt? Also HL2 gar nicht einbricht, wohl aber ein Szene im Wald?
Ob da wirklich ein Komma hinkommt, weiß ich nicht.
Entweder keins oder beide.
/edit: Was limitiert eigenlich die max. mögliche Sampleanzahl bei SGSSAA? Der gleiche Faktor wie beim SGMSAA?
Ja. Beim SGSSAA wird einfach die Geometrie mehrfach gerendert und dabei einzelne Samples ausmaskiert. Centroid Sampling sorgt dann für die richtige Textursampleposition. Folglich kann man nur so viele Samples nutzen wie auch bei Multisampling möglich sind.
Liege ich richtig, wenn ich davon ausgehe, dass der Füllratenhunger des neuen AAs vom Anteil der Alpha- Test-Texturen am Gesamtbild abhängt? Also HL2 gar nicht einbricht, wohl aber ein Szene im Wald?
Ja.
Demirug
2005-06-27, 13:22:49
Ja. Beim SGSSAA wird einfach die Geometrie mehrfach gerendert und dabei einzelne Samples ausmaskiert. Centroid Sampling sorgt dann für die richtige Textursampleposition. Folglich kann man nur so viele Samples nutzen wie auch bei Multisampling möglich sind.
Ist das sicher das beim TSSAA auch die geometrie mehrfach durchgeschleust wird oder kümmert sich der Rasterisierer darum das für jedes Sample ein Pixel für den Shader zustanden kommt?
Nur noch ganz kurz zur Klärung:
Ob da wirklich ein Komma hinkommt, weiß ich nicht.
Auch wenn ich eigentlich immer nach Gefühl und nicht nach (daher nie gelernten) Regeln schreibe: IMHO ist das ein eingeschobener Nebensatz, den es auch am Ende zu trennen gilt.
Und dass man das Apostroph anstelle eines "e"s nur optinal setzt, ist mir neu. Wieder was gelernt. Auf der sicheren Seite ist man aber, indem man es immer ausschreibt. :D
Eine letzte Entschulding fürs OT.
MfG,
Raff
HiddenGhost
2005-06-27, 14:23:45
Wie steht es denn nu um die Videofunktion. Wird HDTV mit H264 beschleunigt? Hat der G70 vielleicht sogar HDCP?
Wie erklärst du dir dann die Eigenheiten beim biAF?
Denn ATis biAF bietet völlig homogene Schärfe über alle Mipmaps und unterscheidet sich vom tri-AF nur durchs bi-Band, was je nach Texturcontent bisweilen nichteinmal sichtbar ist...
bilineare filterung mit homogener schärfe ist nicht möglich, egal ob mit oder ohne AF.
das "bi-band" ist ja schließlich nur ein abrupter übergang einer unscharfen mip auf eine schärfere.
Wie steht es denn nu um die Videofunktion. Wird HDTV mit H264 beschleunigt? Hat der G70 vielleicht sogar HDCP?
angeblich hat nvidia gesagt dass treiber mit H264-beschleunigung erst gegen jahreswechsel kommt.
wird wohl ähnlich lange dauern wie die pure-video-beschleunigung beim nv4x, aber wenigstens weiß man es vorher.
Mr. Lolman
2005-06-27, 17:52:25
bilineare filterung mit homogener schärfe ist nicht möglich, egal ob mit oder ohne AF.
das "bi-band" ist ja schließlich nur ein abrupter übergang einer unscharfen mip auf eine schärfere.
Mann bei sowas bekomm ich einen Hals. :mad: :mad: :mad: :mad:
Aber gut, extra wegen dir, such ich jetzt diese fuckin Screenshots...
MadManniMan
2005-06-27, 17:55:27
Mann bei sowas bekomm ich einen Hals. :mad: :mad: :mad: :mad:
Ähm, bwäh! Obgleich ich auch immer vom bi-AF Gebrauch gemacht habe, als ich noch hauptsächlich den Desktoprechner und damit die 9500 Pro nutze, so muß ich doch zugeben, daß sich homegending bei Bi schon in meinem Kopf ausschließt!
Mr. Lolman
2005-06-27, 18:03:10
Q3a biAF: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2796940#post2796940
Q3a HQ: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2887133#post2887133
SC3 Demo biAF: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2888110#post2888110
SC3 Demo HQ: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2897886#post2897886
/edit:
AF @ Q3a, q3dm17: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2780512#post2780512
bei den biAF erkennt man recht probelmlos unterscheide (ja bei beiden) zwischen den Texturstufen. Was sollte das nun bringen?
Ich muss sagen, dass mir aths' AF-Rants inzwischen auch sauer aufstoßen. Wenn sie für sich allein ein oder mehrere Artikel bilden würden - schön und gut. Aber dass praktisch jeder neuere Artikel von aths irgendwie zu diesem Thema findet - nein, danke, es wird langsam zwanghaft.
Der unbefangene Leser möchte vieleicht fragen: Die neuen Features des G70? Am AF wurde ja gar nichts verändert*, wieso reitet der Autor dann mindestens (!) ein Drittel des Artikels darauf herum?
Der Rest des Artikels - also der Teil, der wirklich die neuen Features des G70 beleuchtet - gefiel mir sehr gut, nichts anderes erwartet man von aths. Dieser Teil war schön formuliert, angemessen komplex und erfrischend informativ.
Aber dieser Artikel als ganzes hätte besser nicht "Die neuen Features im G70-Chip" getitelt, sondern eher "G70 - Die Vergewaltigung des anisotropen Filters geht weiter" :(
* Da ist ein winziger Absatz auf Seite 3, der spekuliert, dass AF mit G70 und den aktuellen Treibern weniger Flimmern als NV40 verursacht - aber das geht ziemlich unter.
MountWalker
2005-06-27, 19:17:24
Ich muss sagen, dass mir aths' AF-Rants inzwischen auch sauer aufstoßen. Wenn sie für sich allein ein oder mehrere Artikel bilden würden - schön und gut. Aber dass praktisch jeder neuere Artikel von aths irgendwie zu diesem Thema findet - nein, danke, es wird langsam zwanghaft.
....[/SIZE]
Je unakzeptabler ein Umstand ist, desto stärker und auch häufiger muss er kritisiert werden, denn sobald das Thema nirgends mehr angekreidet wird, nur weil sich nichts mehr verändert ist der Umstand gesellschaftlich vollends akzeptiert. Es ist nötig Themen wieder und wieder zu beleuchten, weil man immer wieder neue Leser hat, die das Thema noch nicht kennen und manche das Thema erst bei zehnten oder zwanzigsten Mal verstehen, ich hätte mein 3DCenter-Lesezeichen enfernt, wenn Aths nicht wieder darauf eingegangen wäre. ;)
Ich find's in Ordnung. Wenn man die Hersteller nicht immer wieder darauf stößt wird sich nie etwas ändern.
Fetza
2005-06-27, 19:26:20
Ich weiß nicht, woran das liegt. ATI mache ich zum Vorwurf, das AF prinzipiell so vernachlässigt zu haben, aber für die AF-Implementierung im G70 ist alleine Nvidia verantwortlich. Dass ATI mit ihrem AF so gut wegkommt liegt imo teilweise an Testern, die die Texturqualität nicht kompetent einschätzen können (im Vergleich zur GeForce3 oder 4, bzw. FX ohne "Optimierungen".) Im gleichen Zuge wundert mich wie leidensfähig die Nvidia-User zur FX-Zeit waren, als es den Zwang zu "brilinarer" Filterung gab.
Genau darauf wollte ich hinaus.
Ich bestehe z. B. darauf, dass eine Karte "out of the box" (gemeint ist mit den Standard-Einstellungen beim Treiber) ohne trilineare bzw. Sample-"Optimierung" arbeitet. Die Karte soll standardmäßig das tun, was ihr anbefohlen wird, das heißt bei eingestellter trilinearen Filterung trilinear filtern und in jedem Fall das Nyquist-Kriterium voll einhalten.
Full Ack
Dass ATIs "Optimierungen" nicht sofort heftig kritisiert wurden liegt nicht zuletzt daran, dass ATI bestimmte Dinge (Unterfilterung, brilineare Filterung, u. a.) recht gut verstecken kann, weil sie es nur sanft einsetzen. NV hat ja auch mit beidem experimentiert, aber aus Verzweiflung, noch ein oder zwei Frames mehr zu schinden, die Filterqualität dermaßen abgesenkt dass es selbst normalen Spielern auffiel. Die GF6-Serie wird noch lange in vielen Köpfen als Texturflimmer-Karten gesehen werden ungeachtet der Tatsache, dass es bei der richtigen Einstellung (HQ-Modus, LOD-Clamp aktiviert) nicht flimmern muss. (Es sei denn, es ist "Shaderflimmern" oder es liegt an ungünstigem Textur-Content.)
Genau das ist auch der Grund, warum ich mich letztlich etwas geärgert habe, den NV40 erworben zu haben. Das AF des R300 war meiner Meinung von der Filterqualität durchaus ok, wenn eben auch leider nicht hochqualitativ. Eine weitere (und diesmal deutlich spürbare) Absenkung der Qualität, hätte ich daher von einer neuen Generation von GPU nicht erwartet.
Genauso weigere ich mich, den G70 als durchweg tollen Chip anzusehen – nicht mit diesem AF. Das G70-AF ist imo kein Wermutstropfen, sondern eine Zumutung.
Ack
Ja, man braucht einen Tweaker, aber der setzt nur einen Registry-Eintrag auf einen undokumentierten Wert.
Aber das finde ich schon albern von NVidia, man hätte dieses Feature wenigstens regulär verfügbar machen müssen. Auch wenn die Performance dann unweigerlich in den Keller fällt.
Welche maximale Auflösung schafft dein Monitor bei erträglicher Bildfrequenz?
1600x1200 mit 90 Hz
Afaik war das Video von Fans nachgestellt, oder irre ich hier?
Jup, das war definitiv von NV-Mitarbeitern. :-)
Der Artikel hätte weiteres anführen können, z. B. den Stromstecker, eingeführt von 3dfx, übernommen dann von Nvidia/3dfx, dann von ATI. Erst haben sich Leute lustig gemacht und auf ihre ATI Radeon verwiesen die sowas nicht nötig hätte, dann bringt ATI eine vergleichbare Lösung und plötzlich ist alles ganz anders.
Naja gut, aber die "Erfindung" einer zusätzlichen Energiezufuhr durch nen Stecker ist, wie ich finde nicht wirklich als Entwicklung bzw Nachahmung zu sehen. Sobald die zusätzliche Leistung gefragt war, musste man dann halt eben darauf zurückgreifen.
Und weil Nvidia unbedingt 500 MHz schaffen wollte, um wenigstens einige wenige Benchmarks zu gewinnen.
Wobei mir eigentlich kein echtes Spiel einfällt, was auf dem chip schneller gelaufen hätte, evlt ein paar synthetische Benchmarks. Selbst der 3DMark war doch auf dem NV30 langsamer.
Wurde der NV30 in großem Maßstab verkauft, oder fand er nicht vielmehr keine Gnade vor dem Kunden? Letzteres wurde doch im Artikel gesagt.
Das stimmt allerdings!
Doch vieles von dem, was mit dem NV30 eingeführt wurde, treffen wir heute (in verbesserter Form) wieder. Dazu zählt auch eine unterschiedliche Taktung für 2D und 3D.
Genauso, wie wir jetzt aber zb endlich 4xRGAA mit "gamma korrektem" downsampling beim G70 haben. 2 Jahre nach dem R300
Wobei ich mir Bemerkungen zur Verfügbarkeit an dieser Stelle verkniff. Auch Nvidia-GPUs sind seit eh und je multichipfähig, nur kamen Dualchip-Quadro-Karten wohl über das Teststadium nicht hinaus.
Hier wäre aber doch die Frage interessant, warum dem so ist.
Wenn ich das anmerken darf: "ATIs GPUs" – und nicht ATI's oder gar ATI`s.
Natürlich, ich werds mir merken :) Ich würde gerne noch anmerken, das hier meiner Meinung nach zuviele Leute, auf ein paar marginale Rechtschreib bzw Grammatikfehler achten. Die Kommasetzung sollte nun wirklich nicht das Interessante an einen Hardware Artikel sein ;)
Gruss
Fetza
Mann bei sowas bekomm ich einen Hals. :mad: :mad: :mad: :mad:
Aber gut, extra wegen dir, such ich jetzt diese fuckin Screenshots...
wieso kriegst du da einen hals?
oder erklär mir als was du ein mip-banding bezeichnen würdest, bei mir ist es jedenfalls ein abrupter schärfeübergang
Mr. Lolman
2005-06-27, 19:57:52
wieso kriegst du da einen hals?
oder erklär mir als was du ein mip-banding bezeichnen würdest, bei mir ist es jedenfalls ein abrupter schärfeübergang
Ok, dann hab ich etwas dick aufgetragen. Statt "völlig homogen" meinte ich "weitaus homogener als bei NV"
MadManniMan
2005-06-27, 20:00:40
Ok, dann hab ich etwas dick aufgetragen. Statt "völlig homogen" meinte ich "weitaus homogener als bei NV"
Gut, daß dus einsiehst ;) Es ist aber doch bemerkenswert, wie stark die Unterschiede sind!
Piffan
2005-06-27, 21:28:36
Als ich meine 9700 in Betrieb genommen habe, empfand ich das Bi- AF als so gut, dass ich ne ganze Weile nur mit Bi-AF gespielt habe. Mit der Geforce 4 wäre ich nie auf die Idee gekommen, schon allein weil der Performance- Gewinn marginal bis nicht feststellbar war. Bei der Geforce 3 sah das schon anders aus, da lohnte es sich, bis auf die Grundtextur alles in Bi zu fahren......
Der Trick bei der Ati bestand wohl lediglich darin, dass die kritischen Bodentexturen mit hohem Af- Grad gefiltert werden und damit die Mipmap- Übergänge in die Ferne verschoben wurden. Inzwischen hat sich meine Sensibilität gesteigert und ich kann Übergänge zwischen den Mipmaps weder auf der Grundtextur, noch auf den höheren Stages verknusen. Liegt sicher auch an der Art meiner derzeit favorisierten Spiele, denn dort gibts stets Außenareale, wo viele Texturelagen "gestreut" werden. Bei Farcry oder UT2004 werden viele Texturlagen "intelligent" verwendet (wenn verschiedene Bodenarten in einander überfließen). Und wenn dann die "Loseblätter- Schicht" mit fiesem Banding vor einem hermipt, dann sieht das einfach bescheiden aus.
Mr. Lolman
2005-06-27, 21:41:18
OT: Kanns sein, dass bei neueren NV Treibern @ default gar keine Optimierungen mehr aktiv sind?
/edit:
Ich hab 3 Videos à 100MB unkomprimiertem Material beisammen die eindeutig zeigen, dass eine 6800GT @ Treiber default(=Qualität ohne Optimierungen beim 77.62) schlechter filtert als eine 9500@pro!!!
Und NVs Hohe Qualität = ATi Treiber default...
/edit2:
ATi 9500@pro Q3a Video 640x480x32. 4xAA/16xAF, 30MB 7zip:
http://rapidshare.de/files/2641777/ati_4xAA_16xAF.7z.html
6800GT Q3a Video 640x480x32. 4xAA/16xAF, Qualität, keine Optimierungen, 30MB 7zip:
http://rapidshare.de/files/2642240/nv_4xAA_16xAF.7z.html
6800GT Q3a Video 640x480x32. 4xAA/16xAF, Hohe Qualität, 30MB 7zip:
http://rapidshare.de/files/2643138/nv_4xAA_16xAF_HQ.7z.html
Ist das sicher das beim TSSAA auch die geometrie mehrfach durchgeschleust wird oder kümmert sich der Rasterisierer darum das für jedes Sample ein Pixel für den Shader zustanden kommt?
Laut DemoCoder hat dies ein NVidia-Treiberentwickler bestätigt.
/edit:
Ich hab 3 Videos à 100MB unkomprimiertem Material beisammen die eindeutig zeigen, dass eine 6800GT @ Treiber default(=Qualität ohne Optimierungen beim 77.62) schlechter filtert als eine 9500@pro!!!
auf pre-x800 ja (kein brilinear auf der radeon)
auf x800 und co ist die qualität auf default sehr wohl vergleichbar, und HQ auf nvidia ist in extrem kritischen szenen (z.b. moire-tester) eindeutig besser als bei ati (und ja ich kann das vergleichen, ich hab in einem rechner eine 6800GT und daneben eine 9800pro, die ja sogar noch besser filtern soll als die x800er reihe)
Mr. Lolman
2005-06-27, 22:56:06
Meine Links zeigen auch extrem kritische Szenen...
MadManniMan
2005-06-27, 23:47:48
Hmwääh, wie kommt man an die Dateien als nicht-Member von dem Verein da ran?
Mr. Lolman
2005-06-27, 23:57:09
Auf Free klicken und ein paar Sekunden warten...
...dann taucht unten der Downloadlink auf.
MadManniMan
2005-06-28, 01:18:08
*hrrr* Danke!
Leider is mein Downloadkontingent für die Stunde aufgebraucht ... also nachher nochmal probieren - nur, weils Du bist, Lolman! :D
Ich muss sagen, dass mir aths' AF-Rants inzwischen auch sauer aufstoßen. Wenn sie für sich allein ein oder mehrere Artikel bilden würden - schön und gut. Aber dass praktisch jeder neuere Artikel von aths irgendwie zu diesem Thema findet - nein, danke, es wird langsam zwanghaft.
Der unbefangene Leser möchte vieleicht fragen: Die neuen Features des G70? Am AF wurde ja gar nichts verändert*, wieso reitet der Autor dann mindestens (!) ein Drittel des Artikels darauf herum?
* Da ist ein winziger Absatz auf Seite 3, der spekuliert, dass AF mit G70 und den aktuellen Treibern weniger Flimmern als NV40 verursacht - aber das geht ziemlich unter.Hrm? Auf dem G70 flimmert es meinen Informationen nach mehr. Das sichtbare Bild besteht zum größten Teil aus gefilterten Texturen. Deshalb ist es aus meiner Sicht wichtig, der Texturfilterung besonderes Augemerk zukommen zu lassen.
Der Rest des Artikels - also der Teil, der wirklich die neuen Features des G70 beleuchtet - gefiel mir sehr gut, nichts anderes erwartet man von aths. Dieser Teil war schön formuliert, angemessen komplex und erfrischend informativ.
Aber dieser Artikel als ganzes hätte besser nicht "Die neuen Features im G70-Chip" getitelt, sondern eher "G70 - Die Vergewaltigung des anisotropen Filters geht weiter" :(Texturfilterung ist für mich kein Nebenthema. Was soll ich mit einem G70 der SM3 und die Leistung von 10 Gigatexeln hat, wenn:
- Texturen standardmäßig flimmern,
- Selbst der HQ-Modus noch flimmert, wo die 6800 in Ordnung ist,
- Trotz aktiviertem 16x AF neben scharfen auch sehr unscharfe Texturen zu sehen sind?
1600x1200 mit 90 Hz800x600 mit 4x OGSSAA heißt ja, das Bild in 1600x1200 zu rendern und dann herunterzurechnen. Beim so genannten 4x rotated grid ist die "effektive" Qualität aber höcher als würde man das Bild in 1600x1200 rendern. Nur OGSSAA kann – und selbst dann nicht immer – sinnvoll durch Auflösung ersetzt werden.
Naja gut, aber die "Erfindung" einer zusätzlichen Energiezufuhr durch nen Stecker ist, wie ich finde nicht wirklich als Entwicklung bzw Nachahmung zu sehen. Sobald die zusätzliche Leistung gefragt war, musste man dann halt eben darauf zurückgreifen.Zuerst waren es NV-User, die über die 3dfx-ler lachten. Dann waren es ATI-User, die über NV-ler lachten.
Wobei mir eigentlich kein echtes Spiel einfällt, was auf dem chip schneller gelaufen hätte, evlt ein paar synthetische Benchmarks. Selbst der 3DMark war doch auf dem NV30 langsamer.Geht es rein um Texturfüllrate (und werden komprimierte Texturen verwendet) muss der NV30 Ultra schneller sein.
Genauso, wie wir jetzt aber zb endlich 4xRGAA mit "gamma korrektem" downsampling beim G70 haben. 2 Jahre nach dem R300Tatsächlich Gamma-korrekt ist das bei keinem.
Hier wäre aber doch die Frage interessant, warum dem so ist.NV sah offenbar keine Notwendigkeit, mehr Leistung zur Verfügung zu stellen.
Natürlich, ich werds mir merken :) Ich würde gerne noch anmerken, das hier meiner Meinung nach zuviele Leute, auf ein paar marginale Rechtschreib bzw Grammatikfehler achten. Die Kommasetzung sollte nun wirklich nicht das Interessante an einen Hardware Artikel sein ;) Ich bin dankbar über die Meldung auch kleiner Fehler, ein Hardware-Artikel (mit Bindestrich :)) sollte in jeder Beziehung fehlerfrei sein.
Mipmaps erzwingen im Forcewaretreiber...Die Applikation kann MIP-Mapping erzwingen. Die FW-Einstellung bewirkt zumindest in meinen OpenGL-Applikationen nichts. Aber man kann in OpenGL mit einer handvoll Befehlszeilen trilinerare Filterung (mit Auto-MIP-Mapping) aktivieren.
Was ja sehr vom eigenen Subjektivismus abhängt: Vorherrschende Meinung: mipmaploses Af ist ja kein Problem, man kann ja Mipmaps erzwingen.
Tatsache: Man kann keine Mipmaps erzwingen.Hm, wieso sollte AF ohne MIP-Mapping "kein Problem" sein? Sofern Texturen "normal", also als Bildtexturen verwendet werden, ist MIP-Mapping Pflicht. Sonst kann der Filter doch das Nyquist-Kriterium nicht immer einhalten. MIP-Mapping (bei SW-Renderern) wurde schon eingesetzt, bevor der bilineare Filter zum Einsatz kam.
Wie erklärst du dir dann die Eigenheiten beim biAF?
Denn ATis biAF bietet völlig homogene Schärfe über alle Mipmaps und unterscheidet sich vom tri-AF nur durchs bi-Band, was je nach Texturcontent bisweilen nichteinmal sichtbar ist...Bilineare Filterung muss ein Bi-Band zeigen. Jenes ist die Stelle, wo zwei Detailstufen (MIPs) scharf aneinander prallen. AF ändert nichts an dieser Auswirkung bilinearer Filterung. Schreibst du was von "völlig homogene Schärfe über alle Mipmaps" und "unterscheidet sich vom tri-AF nur durchs bi-Band" frage ich mich, wie das Bi-Band dann entstehen soll – wenn nicht durch einen Unterschied im Detailreichtum (gemessen pro Pixel.) Trilineare Filterung überblendet die Samples aus zwei MIP-Stufen und sorgt für einen gleichmäßigen Detailgrad. Das Bi-Band kommt nicht durch die gleiche Sample-Zahl pro MIP zustande (was wie gesagt auch nicht sein kann, da das LOD pro Quad berechnet wird) sondern weil alles von der gleichen MIP-Stufe gesampelt wird, während sich "nach hinten" in der Grafik das Pixel:Texel-Ratio ändert.
Stell dir vor du guckst senkrecht auf ein texturiertes Polygon, welches langsam verkleinert wird. Mit bilinearer Filterung hast du immer wieder mal Sprünge im Detailgrad. Nur trilineare Filterung beseitigt das, mit AF hat das nichts zu tun.
Hm, ich überleg mir da mal was. Eigentlich wollt ich einen 3dfx bezogenen Artikel verfassen, aber die Voodoo5 6000 lässt eh auf sich warten..Warum nicht was ATI-bezogenes?
Tests mal durch. Nimm aber ein Spiel wo die Texturinhalte auch scharf genug sind, nicht dass das zu so einer Farce verkommt wie bei computerbase wo man die AF Qualität anhand von UT2004 bestimmt...
Tests doch mal in ner App. Q3a ist zwar alt, aber eignet sich dafür wunderbar
Du wirst sehen, dass alles unter HQ völlig unbrauchbar ist, sofern nicht appspezifische Optimierungen den Filter mutwillig auf ne bestimmte Qualität festlegen (wie bei Ut2004 z.B.)
[QUOTE=Mr. Lolman]Ja eben. Wenn dann scharfe/flimmeranfällige Texturinhalte deutlich aufzeigen, dass nicht nur NVs standard Qualität, sondern auch auch der Qualitätsmodus mit deaktivierten Optimierungen schon deutlich flimmriger ist als ATi AF, dann ist das wohl eher ein Indikator als irgendeine vorherrschende Meinung, die noch dazu von NV höchstpersönlich propagiert wird...
BTW: Was sollte den Q vgl zu HQ denn sonst anders machen, wenn nicht ne Optimierung der Samples..."Intellisampling", also Texturanalyse und daraus abgeleitet eine Senkung des AF-Maximalgrades.
Aber ein schneller Test mit Xmas' OpenGL Filter Tester zeigt, dass Q tatsächlich unterfiltert. Offensichtlich deshalb, weil die "Sample-Optimimierung" ungefragt aktiviert wird, obwohl man das eigentlich separat ein- und ausschalten können sollte. Das ist vermutlich wieder so ein "Bug".
Solange dieser "Bug" aktiv ist, ist die Q-Einstellung (sofern man nicht zufällig mit Supersampling spielt) natürlich unbrauchbar. NV kann sich auf was gefasst machen.
Würdest du meine Screenshots kennen (oder hättest dus dir selbst schon mal genau angesehen), wüsstest du, dass bei ATi die niedriger aufgelöste Mip später in Spiel kommt als bei NV. Nicht nur das: (Zumindest*) bei Splintercell wird NV AF zu den Bildschirmrändern unschärfer als ATi - völlig unabhängig vom AF-Grad!!!
Außerdem sehe ich das als deine Aufgabe an, deine Ausführungen auch irgendwo zu verifizieren, sonst kann man sich theoretische Betrachtungen gleich sparen - überhaupt bei so nem heiklen Thema, wo die Vergleichsparameter direkt vom IHV stammen. Als meine Aufgabe sehe ich es an, die Wahrheit zu suchen. Wenn du z. B. andeutest, bilineares AF solle kein Bi-Banding zeigen, kann ich dem nicht folgen. Einer von uns hat den bilinearen Filter nicht verstanden und ich bin ziemlich gewiss, dass ich weiß wie der bilineare Filter funktioniert. Nur vom Vergleichen von Screenshots wird man nicht schlauer, wenn man verstehen möchte wie das untersuchte Feature funktioniert. Man sollte natürlich die Screenshots untersuchen, um herauszufinden ob das Feature tatsächlich so umgesetzt wurde wie es sein sollte. Und hier gehen mir die "Bugs" vom FW CP langsam auf den Keks.
Was meinst du mit "bei Splintercell wird NV AF zu den Bildschirmrändern unschärfer"?
Deswegen hab ichs auch so umständlich ausgedrückt: Ich hab mir natürlich dass Ganze auch als unkomprimiert gecapturedtes avi reingezogen, nur fürs Forum gabs animierte gifs. Aber aufgrund der gewählten Szene kommt die 8bit Farblimitation kaum zu tragen. Außerdem wird die Limitation wohl kaum dazu führen, dass besseres Af plötzlich schlechter wirkt, als nicht so gutes :|Das kann nicht ausgeschlossen werden.
Zu deinen Screenshots schreibe ich noch was.
Mr. Lolman,
ich habe die beiden Q3A-Bilder mit bi-AF minutenlang untersucht. Bei NV sieht es richtig aus: Man sieht das MIP-Band deutlich, immerhin ist die nächstkleinere MIP auf beiden Achse nur halb so hoch aufgelöst.
Bei der Radeon sieht man das Band weniger deutlich (und es ist außerdem zwei Quads oder so nach hinten verschoben.) Dabei scheint es mir nicht, dass etwa "brilinear" aktiv ist, dann dürfte man das Band so nicht sehen. Stattdessen sieht es – in Vergrößerung und im direkten Vergleich – so aus, als ob der LOD-Übergang bei der Radeon so ungenau ist, dass an einigen Stellen die Quads zu früh bzw. zu spät auf die neue MIP wechseln. Ungewolltes MIP-Map-Dithering sozusagen. Ungewollt daher, weil keine Struktur erkennbar ist (was mich einfach auf eine ungenaue LOD-Berechnung schließen lässt) und das Dithering auch nicht über die gesamte MIP geht. Bei Texturen mit kontrastreichen, feinen Strukturen, also wenn trilineare Filterung besonders nötig ist, dürfte sich dieses Dithering (ob gewollt oder nicht) besonders negativ auswirken.
Gaestle
2005-06-28, 10:57:04
Hier mal von hardware.fr ein AF vergleich NV40 <-> G70:
http://www.hardware.fr/medias/screenshots.php?id=IMG0013236
Für mich sieht es so aus, als wäre es beim G70 ein Tick homogener (vermatscht), oder täusche ich?
Nichtsdestotrotz sieht's bei beiden einfach Mist aus.
Grüße
Mr. Lolman
2005-06-28, 11:27:49
Mr. Lolman,
ich habe die beiden Q3A-Bilder mit bi-AF minutenlang untersucht. Bei NV sieht es richtig aus: Man sieht das MIP-Band deutlich, immerhin ist die nächstkleinere MIP auf beiden Achse nur halb so hoch aufgelöst.
Bei NV sieht es richtig - scheisse - aus, sry...
Bei der Radeon sieht man das Band weniger deutlich (und es ist außerdem zwei Quads oder so nach hinten verschoben.) Dabei scheint es mir nicht, dass etwa "brilinear" aktiv ist, dann dürfte man das Band so nicht sehen. Stattdessen sieht es – in Vergrößerung und im direkten Vergleich – so aus, als ob der LOD-Übergang bei der Radeon so ungenau ist, dass an einigen Stellen die Quads zu früh bzw. zu spät auf die neue MIP wechseln. Ungewolltes MIP-Map-Dithering sozusagen. Ungewollt daher, weil keine Struktur erkennbar ist (was mich einfach auf eine ungenaue LOD-Berechnung schließen lässt) und das Dithering auch nicht über die gesamte MIP geht. Bei Texturen mit kontrastreichen, feinen Strukturen, also wenn trilineare Filterung besonders nötig ist, dürfte sich dieses Dithering (ob gewollt oder nicht) besonders negativ auswirken.
Also noch kontrastreicher und feiner? Zeig mir mal sowas. Die von mir gezeigt Textur ist so ziemlich der Worstcase. Und da steht Ati deutlich besser da, als NV...
Wenn du Zeit hast, zieh dir mal die Videos. Neuester Treiber für beide GraKas,
Default Einstellungen.
Grestorn
2005-06-28, 11:43:16
Es gibt eigentlich keine Diskussion darüber, wie ein Bilinear gefiltertes Bild aussehen muss.
Sich darüber zu beschweren, dass nVidia bei der Einstellung "Bilinear" ein korrektes Bild liefert, wenn ATI ein offensichtlich nicht korrekt bilinear gefiltertes Bild liefert, ist etwas absurd muss ich sagen.
Wie ist das bei der AF-Blume? Wenn man bilinear filtert müsste man bei ATI doch sehen, dass keine saubere Trennung der MipMaps vorgenommen wird, oder?
Grestorn
2005-06-28, 11:45:28
Nichtsdestotrotz sieht's bei beiden einfach Mist aus.In wie fern? Weil bestimmte Winkel unschärfer sind als andere?
Das ist ja nun leider nichts neues. Wär schön, wenn man das abschalten könnte, mich persönlich stört aber Texturflimmern weit aus stärker als leichtes Schärfepumpen.
Ersteres sieht man sofort und kann es auch kaum ignorieren. Bei letzterem muss man schon genau auf bestimmte Stellen achten.
Mr. Lolman
2005-06-28, 11:50:46
Die Applikation kann MIP-Mapping erzwingen. Die FW-Einstellung bewirkt zumindest in meinen OpenGL-Applikationen nichts. Aber man kann in OpenGL mit einer handvoll Befehlszeilen trilinerare Filterung (mit Auto-MIP-Mapping) aktivieren.
Hm, wieso sollte AF ohne MIP-Mapping "kein Problem" sein? Sofern Texturen "normal", also als Bildtexturen verwendet werden, ist MIP-Mapping Pflicht. Sonst kann der Filter doch das Nyquist-Kriterium nicht immer einhalten. MIP-Mapping (bei SW-Renderern) wurde schon eingesetzt, bevor der bilineare Filter zum Einsatz kam.Bei Ati und dem NV28 ists kein Problem: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=202040
Mipmapping bei SW? Hast du auch ein Beispiel parat? Ich kenn nur Mipmaploses Pointfiltering bei Spielen mit Sw-Renderer...
Bilineare Filterung muss ein Bi-Band zeigen. Jenes ist die Stelle, wo zwei Detailstufen (MIPs) scharf aneinander prallen. AF ändert nichts an dieser Auswirkung bilinearer Filterung. Schreibst du was von "völlig homogene Schärfe über alle Mipmaps" und "unterscheidet sich vom tri-AF nur durchs bi-Band" frage ich mich, wie das Bi-Band dann entstehen soll – wenn nicht durch einen Unterschied im Detailreichtum (gemessen pro Pixel.) Trilineare Filterung überblendet die Samples aus zwei MIP-Stufen und sorgt für einen gleichmäßigen Detailgrad. Das Bi-Band kommt nicht durch die gleiche Sample-Zahl pro MIP zustande (was wie gesagt auch nicht sein kann, da das LOD pro Quad berechnet wird) sondern weil alles von der gleichen MIP-Stufe gesampelt wird, während sich "nach hinten" in der Grafik das Pixel:Texel-Ratio ändert.
Stell dir vor du guckst senkrecht auf ein texturiertes Polygon, welches langsam verkleinert wird. Mit bilinearer Filterung hast du immer wieder mal Sprünge im Detailgrad. Nur trilineare Filterung beseitigt das, mit AF hat das nichts zu tun. Ach ich weiss eh wie bilineares Filtering funktoiniert. Deswegen hab in nem anderen Post, das "völlig homogen" auch schon abgeschwächt. Von da her hättest, du wohl nicht die Funktionsweise des biAF so genau ausführen müssen. Aber trotzdem thx..
Warum nicht was ATI-bezogenes?Hab nur ne 64MB 9500@pro. Damit kann man keine Großen Sprünge machen. Vll. irgendwas übern (bei Ati sinnvoll nutzbarem) bilinearem Filter...
"Intellisampling", also Texturanalyse und daraus abgeleitet eine Senkung des AF-Maximalgrades.
Aber ein schneller Test mit Xmas' OpenGL Filter Tester zeigt, dass Q tatsächlich unterfiltert. Offensichtlich deshalb, weil die "Sample-Optimimierung" ungefragt aktiviert wird, obwohl man das eigentlich separat ein- und ausschalten können sollte. Das ist vermutlich wieder so ein "Bug".
Solange dieser "Bug" aktiv ist, ist die Q-Einstellung (sofern man nicht zufällig mit Supersampling spielt) natürlich unbrauchbar. NV kann sich auf was gefasst machen.
Als meine Aufgabe sehe ich es an, die Wahrheit zu suchen. Wenn du z. B. andeutest, bilineares AF solle kein Bi-Banding zeigen, kann ich dem nicht folgen. Einer von uns hat den bilinearen Filter nicht verstanden und ich bin ziemlich gewiss, dass ich weiß wie der bilineare Filter funktioniert. Nur vom Vergleichen von Screenshots wird man nicht schlauer, wenn man verstehen möchte wie das untersuchte Feature funktioniert. Man sollte natürlich die Screenshots untersuchen, um herauszufinden ob das Feature tatsächlich so umgesetzt wurde wie es sein sollte. Und hier gehen mir die "Bugs" vom FW CP langsam auf den Keks.Nicht nur dir. Ich spiele mittlerweile alle Spiele mit SSAA oder HQ, weil mir das Geflimmer am Keks geht. Leider erreicht so die Karte nicht die Leistung, wie man sie aus Benchmarks kennt. (weil die meisten mit Q testen)
Was meinst du mit "bei Splintercell wird NV AF zu den Bildschirmrändern unschärfer"?Vergleich mal NV und Ati Shots. Direkt neben der Waffe, sowie am Stein ist NV unabhängig vom AF Grad unschärfer: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2897886#post2897886
Mr. Lolman
2005-06-28, 11:52:49
Für mich sieht es so aus, als wäre es beim G70 ein Tick homogener (vermatscht), oder täusche ich?
Es ist genau umgekehrt. Bem G70 ist da ne weitere Optimierung aktiv. Der Texturcontent ist beim Übergang zur nächsten Mip merkbar schärfer als beim NV40 Bild. Also praktisch inhomogeneres AF als beim NV40 = Verschlechterung des AF = Gegenteil von dem, was aths in seinem Artikel behauptet....
Mr. Lolman
2005-06-28, 11:56:14
Es gibt eigentlich keine Diskussion darüber, wie ein Bilinear gefiltertes Bild aussehen muss.
Sich darüber zu beschweren, dass nVidia bei der Einstellung "Bilinear" ein korrektes Bild liefert, wenn ATI ein offensichtlich nicht korrekt bilinear gefiltertes Bild liefert, ist etwas absurd muss ich sagen.
Wie ist das bei der AF-Blume? Wenn man bilinear filtert müsste man bei ATI doch sehen, dass keine saubere Trennung der MipMaps vorgenommen wird, oder?
Das ist ja der Schas. Bei AF Blume sieht alles schön bunt und blumig aus, aber diese Dinger geben keinen Aufschluss darüber wie gut (flimmerfrei, gleichmässig scharf) die Grafik wirklich ist. Und wenn Ati irgendeinen Kniff verwendet, dass die Mipmapübergänge nicht so aprupt sind wie bei NV ist das doch keine Verletzung irgendwelcher idiotischer Filterkriterien sondern ein verwertbarer Vorteil fürn Kunden.
Wenn man das hier nicht bald einsehen will, muss ich wohl meine eigene HW Seite öffnen, denn soviel Ignoranz ist mir bisher kaum wo untergekommen...
dildo4u
2005-06-28, 12:02:15
Das ist ja der Schas. Bei AF Blume sieht alles schön bunt und blumig aus, aber diese Dinger geben keinen Aufschluss darüber wie gut (flimmerfrei, gleichmässig scharf) die Grafik wirklich ist. Und wenn Ati irgendeinen Kniff verwendet, dass die Mipmapübergänge nicht so aprupt sind wie bei NV ist das doch keine Verletzung irgendwelcher idiotischer Filterkriterien sondern ein verwertbarer Vorteil fürn Kunden.
Wenn man das hier nicht bald einsehen will, muss ich wohl meine eigene HW Seite öffnen, denn soviel Ignoranz ist mir bisher kaum wo untergekommen...
Hier gehts aber um die 7800GTX und da sollte keiner gezwungen sein mit BI-AF zu zocken.
Mr. Lolman
2005-06-28, 12:05:38
Hier gehts aber um die 7800GTX und da sollte keiner gezwungen sein mit BI-AF zu zocken.
Mit ner NV40 war man das bis vor kurzem (Q+OPts = biAF unter OpenGL)
/edit:
Und die Unterschiede im biAF zeigen ja auch nur, dass NV trilinearer Filter weitaus genauer arbeiten muss um die gleiche Qualität wie bei Ati zu erreichen...
dildo4u
2005-06-28, 12:06:30
Mit ner NV40 war er das bis voer kurzem (Q+OPts = biAF unter OpenGL)
Und bei den neuen Treibern nicht mher?
Mr. Lolman
2005-06-28, 12:14:28
Und bei den neuen Treibern nicht mher?
Nö, da sind die Optimierungen anscheinend standardmässig deaktiviert. Aber Qualität alleine ist immernoch (oder mittlerweile?) nicht (mehr?) ausreichend. Der Unterschied ist frappierend (genauso wie die Benchmarkwerte) Ich hätt' z.B: nie auch nur ein gutes Haar am ATifiltering gelassen, wenn es tatsächlich vergleichbar mit dem Qualitätscrap von NV wäre.
Kannst dir ja auch die Videos ziehen...
Mit ner NV40 war man das bis vor kurzem (Q+OPts = biAF unter OpenGL)
nur mit aktiver mip-filter-optimierung, welche standardmäßig deaktiviert ist.
Wie ist das bei der AF-Blume? Wenn man bilinear filtert müsste man bei ATI doch sehen, dass keine saubere Trennung der MipMaps vorgenommen wird, oder?Das hängt davon ab. Siehe http://www.3dcenter.org/artikel/2003/11-21_b.php, unten.
Grestorn
2005-06-28, 13:30:05
Das hängt davon ab. Siehe http://www.3dcenter.org/artikel/2003/11-21_b.php, unten.
Danke für den Link! Höchst aufschlussreich.
Natürlich, werden ATI-Freunde mit einer guten Portion Berechtigung sagen, hat das in der Realität kaum negative Auswirkungen. Im Gegenteil: Es scheint Fälle zu geben, wie der von Lolman beschriebene, wo dieses durch Rechenfehler entstehende, ungewollte Dithering zu einer subjektiven Bildverbesserung (bei Bi-AF) führt.
Auch mal ein Effekt... :)
Eigentlich könnte man mit der selben Argumentationskette auch behaupten, dass man doch auch Polygon-Kanten nicht so super genau rechnen muss, oder? Genaugenommen würde man damit eine Art kostenloses Anti-Aliasing bekommen ... :D
Bei NV sieht es richtig - scheisse - aus, sry....Bei NV sieht es korrekt aus. So muss bilineare Filterung aussehen.
Also noch kontrastreicher und feiner? Zeig mir mal sowas. Die von mir gezeigt Textur ist so ziemlich der Worstcase. Und da steht Ati deutlich besser da, als NV...Die Textur zeigt "Grissel", keine größeren zusammenhängend erkennbaren Strukturen. Wenn ATI da so ein Detailrauschen reinhaut, fällt das nicht so störend auf.
Wenn du Zeit hast, zieh dir mal die Videos. Neuester Treiber für beide GraKas,
Default Einstellungen.Dass Texturen mit aktivierter AF-Sample-"Optimization" flimmern ist mir auch ohne die Videos klar. Ich zieh sie mir trotzdem mal.
Mr. Lolman
2005-06-28, 13:34:02
nur mit aktiver mip-filter-optimierung, welche standardmäßig deaktiviert ist.
AFAIK waren bei älterebn Treibern immer alle Optimierungen aktiv, und nur wenn man von Q auf HQ wechselt und wieder zurück, war dann die anisotrope Mipfilteroptimierung auch deaktiviert...
Bei Ati und dem NV28 ists kein Problem: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=202040
Mipmapping bei SW? Hast du auch ein Beispiel parat? Ich kenn nur Mipmaploses Pointfiltering bei Spielen mit Sw-Renderer...Doom, Duke Nukem, iirc.
Nicht nur dir. Ich spiele mittlerweile alle Spiele mit SSAA oder HQ, weil mir das Geflimmer am Keks geht. Leider erreicht so die Karte nicht die Leistung, wie man sie aus Benchmarks kennt. (weil die meisten mit Q testen)NV behauptet, mit Q eine vergleichbare Qualität zur Competetion zu geben. Liegen sie deutlich darunter, muss das klar angesprochen werden, z. B. in den News.
Vergleich mal NV und Ati Shots. Direkt neben der Waffe, sowie am Stein ist NV unabhängig vom AF Grad unschärfer: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2897886#post2897886JPEG-komprimiert und erst bei Gamma 3,0 sehe ich überhaupt was – unter diesen Umständen kann ich keine vernünftige Bewertung vornehmen.
Mr. Lolman
2005-06-28, 13:43:42
Doom, Duke Nukem, iirc.Nö, haben beide keine Mipmaps...
NV behauptet, mit Q eine vergleichbare Qualität zur Competetion zu geben. Liegen sie deutlich darunter, muss das klar angesprochen werden, z. B. in den News.Dann tu das bitte...
JPEG-Komprimiert und erst bei Gamma 3,0 sehe ich überhaupt was – unter diesen Umständen kann ich keine vernünftige Bewertung vornehmen.JPG90 (iirc). Da fällt selbst mit nem überscharfen TFT nix mehr auf (und glaub mir ich seh bei fast allen Screenshots im schönsten Screenshotsthread irgendwelche Artefakte, wo andere meinen eine gute BQ zu erkennen)
Wegen Gamma 3: Das Spiel ist in natura genauso hell wie auf den Screenshots. Ich wollt die Bilder nicht nachbearbeiten. Man merkt den Schärfeunterschied aber auch im vergrößerten, animierten gif.
Mit ner NV40 war man das bis vor kurzem (Q+OPts = biAF unter OpenGL)
/edit:
Und die Unterschiede im biAF zeigen ja auch nur, dass NV trilinearer Filter weitaus genauer arbeiten muss um die gleiche Qualität wie bei Ati zu erreichen...Die trilineare Filterung einer GeForce arbeitet tatsächlich genauer als bei ATI – aber warum muss er genauer rechnen um die gleiche Qualität zu erreichen? Die Unterschiede im bi-AF zeigen, dass ATI in solchen Fällen keine korrekte bilineare Filterung kann. Der LOD-Algo ist schon dafür zu ungenau. Das Bi-Band wird reduziert in dem es davor Quads mit zu unscharfer Filterung gibt, und dahinter Quads, die flimmern. Das ist aus meiner Sicht kein Ausweis von Qualität.
MIP-Banding zu beseitigen ist Aufgabe des trilinearen Filters. Meine aufgebrachtes Gekeile gegen die Einführung des "brilinearen" Filters war ja nicht umsonst, sondern weil damit wieder ein MIP-Band sichtbar wird, wenn auch nicht so krass wie bei reiner bilinearen Filterung. Unter der Bezeichnung "trilineare" Filterung wurde etwas verkauft, was nicht trilinear ist. Ebenso poche ich darauf, dass bilineare Filterung bilinear filtert, und der LOD-Algo zur richtigen MIP greifen soll.
Mr. Lolman
2005-06-28, 14:05:04
Die trilineare Filterung einer GeForce arbeitet tatsächlich genauer als bei ATI – aber warum muss er genauer rechnen um die gleiche Qualität zu erreichen? Die Unterschiede im bi-AF zeigen, dass ATI in solchen Fällen keine korrekte bilineare Filterung kann. Der LOD-Algo ist schon dafür zu ungenau. Das Bi-Band wird reduziert in dem es davor Quads mit zu unscharfer Filterung gibt, und dahinter Quads, die flimmern. Das ist aus meiner Sicht kein Ausweis von Qualität.
Die Mipmaps sind nicht zu unscharf (dann wäre das Bild nämlich verwaschen), sie sind nur nicht so (über-)scharf wie es eigentlich der Fall sein müsste. Imo haben sie genau die richtige Schärfe...
Nö, haben beide keine Mipmaps...
UT "classic"! Ich habe das vor ein paar Tagen mal wieder in Software angeworfen und war erstaunt, da (plötzlich?) Mip-Maps zu sehen.
MfG,
Raff
Nö, haben beide keine Mipmaps...Müsste ich noch mal sehen. Ich bin ziemlich sicher in SW-3D-Spielen den Wechsel von Texturdetailstufen gesehen zu haben, iirc war das schon in Doom.
Dann tu das bitte...Die News schreibt Leo. Ich habe die nächsten Tage keine Zeit, um groß Artikel zu schreiben (oder viel im Forum zu machen.)
JPG90 (iirc). Da fällt selbst mit nem überscharfen TFT nix mehr auf (und glaub mir ich seh bei fast allen Screenshots im schönsten Screenshotsthread irgendwelche Artefakte, wo andere meinen eine gute BQ zu erkennen)
Wegen Gamma 3: Das Spiel ist in natura genauso hell wie auf den Screenshots. Ich wollt die Bilder nicht nachbearbeiten. Man merkt den Schärfeunterschied aber auch im vergrößerten, animierten gif.Ich sehe in den Screenshots nicht viel. Die vergrößerte Animation zeigt, dass entweder die Farbreduktion kräftig zugeschlagen hat oder dass bestimmte Bereiche grundsätzlich flimmern.
Die Mipmaps sind nicht zu unscharf (dann wäre das Bild nämlich verwaschen), sie sind nur nicht so (über-)scharf wie es eigentlich der Fall sein müsste. Imo haben sie genau die richtige Schärfe...Dein Posting kann im Kontext nicht deuten. Wenn man die passende MIP aussucht, die weder zu scharf noch zu unscharf ist, muss man bei bilinearem Filtering ein gut sichtbares bi-Band bekommen.
DrumDub
2005-06-28, 14:22:55
hmm... vielleicht hat ati bezüglich der filterung einfach bessere psychovisuelle analysen gemacht, die trotz theoretisch schlechterer qualität für das auge besser aussehen, als die theoretisch korrekte implementierung von nv mit optimierungen? vielleicht ist das rauschen also abischt, was auf grund von analysen bewusst so eingesetzt wurde.
Mr. Lolman
2005-06-28, 14:25:56
Dein Posting kann im Kontext nicht deuten. Wenn man die passende MIP aussucht, die weder zu scharf noch zu unscharf ist, muss man bei bilinearem Filtering ein gut sichtbares bi-Band bekommen.
Dein Denkfehler ist, dass du eine gleichbleibende Schärfe innerhalb einer einzlenen Mip vorraussetzt. Dann ists wär die Sache auch klar. Entweder is die mipmap dann zu scharf, oder sie ist zu unscharf. Bei Ati ist das jedoch nicht der Fall. Innerhalb ner einzelnen Mip sinkt die Schärfe bis zur nächst kleineren immer weiter ab, nur um diese dann wieder mit voller schärfe darzustellen. Also praktisch ein brilinearer Filter, bei dem das Mipband nicht eliminiert wird, wenn du so willst...
Mr. Lolman
2005-06-28, 14:30:30
UT "classic"! Ich habe das vor ein paar Tagen mal wieder in Software angeworfen und war erstaunt, da (plötzlich?) Mip-Maps zu sehen.
MfG,
Raff
Ok stimmt. Da war der Softwarerenderer aber auch ein Zugeständnis an die Leute ohne 3dfx Karte. (der konnte sogar so ein pseudo bilineares Filtering)
Gaestle
2005-06-28, 16:28:21
In wie fern? Weil bestimmte Winkel unschärfer sind als andere?
Das ist ja nun leider nichts neues. Wär schön, wenn man das abschalten könnte, mich persönlich stört aber Texturflimmern weit aus stärker als leichtes Schärfepumpen.
Ersteres sieht man sofort und kann es auch kaum ignorieren. Bei letzterem muss man schon genau auf bestimmte Stellen achten.
Naja, die unterschiedlichen Schärfen bei den Winkeln sind das eine (das ist ja für meine Augen beim G70 weniger stark - deshalb schrub ich "homogener"), andererseits ist so richtig kein relativ flüssiger Übergang zwischen noch recht scharfen Texturen und Matsch zu sehen, was aber IMHO wünschenswert wäre.
Und wegen dem Texturflimmern: Sorry, aber außer bei Gothic2-Gräsern ist es mir bis jetzt nicht aufgefallen, bin da wohl ziemlich dickhäutig. Wobei ich aber auch nicht soviel zocke, derzeit nur eben G2 (naja und Chrome).
Aber irgendwann kommen ja noch die DarkMod für D3, G3 und ein paar FM's für Thief3 und SC:CT... *sabber*
Grüße
AFAIK waren bei älterebn Treibern immer alle Optimierungen aktiv, und nur wenn man von Q auf HQ wechselt und wieder zurück, war dann die anisotrope Mipfilteroptimierung auch deaktiviert...
ich habe jede menge treiber der 7x-serie ausprobiert, darunter alle offiziellen (waren ja net so viele ;) )und auch jede menge inoffizielle und bei mir war bei keinem die mip-filter-optimierung aktiv, wobei ich natürlich nicht ausschließen kann dass es beim einen oder anderen inoffiziellen treiber doch standardmäßig aktiv war.
außerdem bringt diese optimierung auch aus performancesicht praktisch nichts, wenn man sowieso schon "brilinear" filtert, wobei die qualität noch deutlich unter dem brilinearen filter liegt.
Dein Denkfehler ist, dass du eine gleichbleibende Schärfe innerhalb einer einzlenen Mip vorraussetzt. Dann ists wär die Sache auch klar. Entweder is die mipmap dann zu scharf, oder sie ist zu unscharf. Bei Ati ist das jedoch nicht der Fall. Innerhalb ner einzelnen Mip sinkt die Schärfe bis zur nächst kleineren immer weiter ab, nur um diese dann wieder mit voller schärfe darzustellen. Also praktisch ein brilinearer Filter, bei dem das Mipband nicht eliminiert wird, wenn du so willst...Meine anderen Postings zu diesem Thema hast du doch gelesen?
Grestorn
2005-06-28, 17:14:12
Und wegen dem Texturflimmern: Sorry, aber außer bei Gothic2-Gräsern ist es mir bis jetzt nicht aufgefallen, bin da wohl ziemlich dickhäutig. Wobei ich aber auch nicht soviel zocke, derzeit nur eben G2 (naja und Chrome). Das liegt auch daran, dass nur wenig Spiele derart anfällig dafür sind, wie Gothic 2. Dieses Spiel ist ohne SS oder Transparent SS kaum zu ertragen (für mich jedenfalls).
Bei den meisten anderen Spielen ist es weit aus weniger schlimm, und wenn mal ein Maschendrahtzaun flimmert, so kann man damit leben wenn es sein muss.
Mr. Lolman
2005-06-28, 17:27:56
Meine anderen Postings zu diesem Thema hast du doch gelesen?
Ja sicher. Aber ich versteh nicht, inwiefern du weiterhin behaupten kannst, dass ATi schlechter filtert. Wenn du dich weiter an meiner Aussage bezügl. der "völlig homogenen Schärfe" aufhängst - das hab ich längst relativiert.
Und selbst wenn ATi mit ihrer bilinearen Filterung irgendwelche Kriterien nicht einhält, dann frag ich mich, inwieweit das ein Indikator für theoretisch schlechtere Filterqualität sein soll. (v.A. wenn die Praxis genau das Gegenteil zeigt)
Die NV28 Anisoblume war auch ganz nach Nyquist, die NV40 Blume bis inkl 2xAF nichtmehr, und trotzdem sind wir uns hier wohl einig, dass das 2x HQ AF eines NV40 qualitativ besser ist, als das eines NV28.
/edit: Außerdem ist die Texturfilterung des R300 einem Nv28 ähnlicher als einem NV40. Ein NV28 hat (genauso wie der R300) kein Problem mit Mipmaplosem AF. (Es gibt keine Unterfilterung) Das bedeutet, dass der NV28 und der R3x0 (und der R420 schätz ich) innerhalb der Mips (idF Mip0) je nach LOD unterschiedlich viele Samples verwerten kann, und der NV40 kann das nicht.
Ergo: Für gute Filterqualität braucht ein NV40 unbedingt Mipmaps (möglichst ohne verschobenen LOD, sonst flimmerts übel), während dem R300/NV28 Nutzer ohne Mipmaps nicht das Grausen kommt. -> Die gesamte GTA Serie (ab GTA3, vorher gabs ne andere Engine) schaut auf NV Karten >NV28 deutlichst schlechter aus, als bei der Konkurrenz (SSAA mal aussen vor gelassen)
Somit ist eine gute Filterqualität beim NV40 von mehr äußeren Faktoren abhängig wie beim NV28/Rxx, was mir schon reichen würde um das NV40 AF ungesehen als pauschal schlechter zu beurteilen. Aber das verlang ich garnicht. Ich möchte nur, dass das Geschwätz vom besseren NV Af endlich aufhört. Wo das hinführt, sieht man beim G70 -> Weitere Absenkung der AF-Qualität. (hoffentlich nur aufgrund eines Treiber"bugs")
Ja sicher. Aber ich versteh nicht, inwiefern du weiterhin behaupten kannst, dass ATi schlechter filtert. Wenn du dich weiter an meiner Aussage bezügl. der "völlig homogenen Schärfe" aufhängst - das hab ich längst relativiert.
Und selbst wenn ATi mit ihrer bilinearen Filterung irgendwelche Kriterien nicht einhält, dann frag ich mich, inwieweit das ein Indikator für theoretisch schlechtere Filterqualität sein soll. (v.A. wenn die Praxis genau das Gegenteil zeigt)
[QUOTE=Mr. Lolman]Die NV28 Anisoblume war auch ganz nach Nyquist, die NV40 Blume bis inkl 2xAF nichtmehr, und trotzdem sind wir uns hier wohl einig, dass das 2x HQ AF eines NV40 qualitativ besser ist, als das eines NV28.Die Blume zeigt an, welche MIP genommen wird. Sie zeigt nicht an, wie viele Texel tatsächlich verrechnet werden – über die Einhaltung des Nyquist-Kriteriums erhält man demnach keine Aussage.
Die Bildqualität bewerte ich nicht nach meinem Geschmack, sondern ich frage, ob die eingestellte Qualität geboten wird. Da geht es nicht um "irgendwelche" Kriterien, es geht um Begriffsdefinitionen, die entweder erfüllt werden, oder nicht.
/edit: Außerdem ist die Texturfilterung des R300 einem Nv28 ähnlicher als einem NV40. Ein NV28 hat (genauso wie der R300) kein Problem mit Mipmaplosem AF. (Es gibt keine Unterfilterung) Das bedeutet, dass der NV28 und der R3x0 (und der R420 schätz ich) innerhalb der Mips (idF Mip0) je nach LOD unterschiedlich viele Samples verwerten kann, und der NV40 kann das nicht. Sofern es keine MIP-Maps gibt, wird es – AF hin oder her – in entsprechenden Situationen flimmern. Das LOD wird pro Quad berechnet. Auch der AF-Grad kann nur pro Quad festgelegt werden, denn dieser richtet sich nicht nach der MIP-Stufe, sondern dem Verzerrungsgrad. Anhand des LODs wird doch erst die MIP-Stufe ausgewählt, man kann gar nicht andersherum von der MIP-Stufe auf das LOD schließen, was du (wenn ich dich richtig verstehe) meinst.
Ergo: Für gute Filterqualität braucht ein NV40 unbedingt Mipmaps (möglichst ohne verschobenen LOD, sonst flimmerts übel), während dem R300/NV28 Nutzer ohne Mipmaps nicht das Grausen kommt. -> Die gesamte GTA Serie schaut auf NV Karten >NV28 deutlichst schlechter aus, als bei der Konkurrenz (SSAA mal aussen vor gelassen)Für gute Filterqualität braucht man trilineare Filterung (was MIP-Mapping impliziert) und hochwertige anisotrope Filterung. Dabei ist heutige trilineare Filterung bei Auto-MIP-Mapping recht weit von dem entfernt, was ich unter optimaler trilinearen Filterung verstehe, nämlich sRGB-korrekte MIPs und zur Berechnung des trilinearen Samples ein spezieller 4x4-Filterkernel der nicht nur traditionelles MIP-Mapping nachstellt. (Wobei ich das noch nicht zuende durchdacht habe und nicht sicher bin ob das nicht vielleicht sogar einen 5x5-Kernel erfordert.)
Somit ist eine gute Filterqualität beim NV40 von mehr äußeren Faktoren abhängig wie beim NV28/Rxx, was mir schon reichen würde um das NV40 AF ungesehen als pauschal schlechter zu beurteilen. Aber das verlang ich garnicht. Ich möchte nur, dass das Geschwätz vom besseren NV Af endlich aufhört. Wo das hinführt, sieht man beim G70 -> Weitere Absenkung der AF-Qualität. (hoffentlich nur aufgrund eines Treiber"bugs")Dass der NV40 (und höchstwahrscheinlich auch G70) besseres AF bringen kann als die beste verfügbare Radeon halte ich nicht für "Geschwätz", sondern für eine hinreichend belegte Tatsache. Was in Spielen tatsächlich geboten wird, sollte Gegenstand einer Untersuchung sein.
Mr. Lolman
2005-06-28, 18:40:12
Die Bildqualität bewerte ich nicht nach meinem Geschmack, sondern ich frage, ob die eingestellte Qualität geboten wird.
Wenn du dir ein Auto kaufst was im Prospekt mit 200kmh Höchstgeschwindigkeit beworben wird und es fährt aber tatsächlich 230kmh, regst du dich dann auch beim Verkäufer auf?
/edit: Was ja eigentlich ein unpassendes Beispiel ist. Denn ATi nennt ihr biAF nicht biAF sondern Performance AF. Und wie Performance AF auszusehen hat, ist wohl nirgends definiert ;)
Sofern es keine MIP-Maps gibt, wird es – AF hin oder her – in entsprechenden Situationen flimmern.Ja mein Freund der Theorie. Schau dir mal mipmaploses AF beim NV28/Rxx0 an und vergleichs mit NV40/G70. Es hat kein Sinn über theoretische Sollsituationen zu diskutieren, wenn die Praxis ohnehin ganz anders aussieht...
Hier nochmal der Link, wo das schon getestet wurde:
http://www.forum-3dcenter.de/vbulletin/showthread.php?t=202040
Für gute Filterqualität braucht man trilineare Filterung (was MIP-Mapping impliziert) und hochwertige anisotrope Filterung.Ja und ein Computer ist ein Apparat, der Informationen mit Hilfe eines programmierbaren Algorithmus verarbeiten kann. Was bezweckst du mit solchen Floskeln?
Dass der NV40 (und höchstwahrscheinlich auch G70) besseres AF bringen kann als die beste verfügbare Radeon halte ich nicht für "Geschwätz", sondern für eine hinreichend belegte Tatsache. Was in Spielen tatsächlich geboten wird, sollte Gegenstand einer Untersuchung sein.
Ob ers kann oder nicht ist egal, solang man in der Praxis schlechteres AF serviert bekommt. Jedesmal wenn wir drüber diskutieren, soll die ganze Sache dann Gegenstand einer Untersuchung sein, der du anscheinend nur traust, wenn du sie auch selbst durchführst. Denn ich hab das Ganze schon ausgiebigst untersucht, und darauf gibts du anscheinend auch nix.
Deswegen bitte ich dich:
Führe, alsbald wie möglich, selbst so eine Untersuchung durch (aber bitte anhand von praktischen Beispielen, nicht nur so AF-blumenmässig, wie die letzten, da die AF-Blumen ja nur einen Teilaspekt der AF Qualität indizieren; wie du selbst gerade anmerktest), und vermeide bis zum Ergebnis dieser irgendwelche Pauschalwertungen bezügl. der AF Qualitätsunterschiede zw. den IHVs.
Denn selbst wenn du, dich der Thematik von der theoretischen Seite näherst und somit meinetwegen auch gute Gründe hast, von nem besseren AF bei NV Karten zu sprechen, so ists die Tatsache, dass jeder, der deine diesbezüglichen Ausführungen liest, zu dem Schluss kommt, dass das NV AF insgesamt etwas besser ist als das von ATi, was zumindest in den Standardtreibereinstellungen schon mal definitiv falsch ist!
Um nochmal das Autobeispiel zu pentrieren: Ein von 200 auf 150PS gedrosselter Motor ist doch für den Autofahrer auch nicht besser als ein 170PS Motor, nur weil der Motor auch die 200PS schaffen würde. Es zählt was der Kunde bekommt. Und das sind nunmal 150PS...
Quasar
2005-06-28, 18:53:51
Tests mal durch. Nimm aber ein Spiel wo die Texturinhalte auch scharf genug sind, nicht dass das zu so einer Farce verkommt wie bei computerbase wo man die AF Qualität anhand von UT2004 bestimmt...
Tat man das?
Quasar
2005-06-28, 19:11:27
/edit2:
ATi 9500@pro Q3a Video 640x480x32. 4xAA/16xAF, 30MB 7zip:
http://rapidshare.de/files/2641777/ati_4xAA_16xAF.7z.html
6800GT Q3a Video 640x480x32. 4xAA/16xAF, Qualität, keine Optimierungen, 30MB 7zip:
http://rapidshare.de/files/2642240/nv_4xAA_16xAF.7z.html
6800GT Q3a Video 640x480x32. 4xAA/16xAF, Hohe Qualität, 30MB 7zip:
http://rapidshare.de/files/2643138/nv_4xAA_16xAF_HQ.7z.html
Die Videos wollen leider nicht mehr - das erste wurde bereits 5 mal runtergeladen, das zweite 3 mal. :(
Mr. Lolman
2005-06-28, 19:14:08
Tat man das?
iirc schon. Zwar nicht beim letzten Vergleich (warum gibts da bei NV bei den praktischen Auswirkungen nur ein Screenshot von einem Spiel und bei ATi von 2 Spielen)
Auch ist die gewählte Szene bei HL² absolut unbrauchbar. Wenn dann ein Screenshot, wo die Texturinhalte auch deutlich die Grenzen der Filtertechniken aufzeigen. Die SC:CT Demo ist bspw dafür ganz gut geeignet.
mapel110
2005-06-28, 19:14:31
Die Videos wollen leider nicht mehr - das erste wurde bereits 5 mal runtergeladen, das zweite 3 mal. :(
einfach ein paar Sekunden warten, steht doch darunter. :|
Mr. Lolman
2005-06-28, 19:16:40
Die Videos wollen leider nicht mehr - das erste wurde bereits 5 mal runtergeladen, das zweite 3 mal. :(
Leider gibts da ein Downloadlimit pro Stunde, weswegen du immer nur eins ziehen kannst (oder requesten, ob dus dann wirklich ziehst, ist rapidshare egal)
Hab ich im vorhinein leider nicht gewusst, sonst hätt ich mich nach ner anderen Lösung umgesehen...
mapel110
2005-06-28, 19:17:48
Leider gibts da ein Downloadlimit pro Stunde, weswegen du immer nur eins ziehen kannst (oder requesten, ob dus dann wirklich ziehst, ist rapidshare egal)
Hab ich im vorhinein leider nicht gewusst, sonst hätt ich mich nach ner anderen Lösung umgesehen...
Hm? mit einer Neueinwahl beim ISP sollte es eigentlich wieder gehen. Hab dazu jetzt aber keine Lust. X-(
Quasar
2005-06-28, 19:18:30
iirc schon. Zwar nicht beim letzten Vergleich (warum gibts da bei NV bei den praktischen Auswirkungen nur ein Screenshot von einem Spiel und bei ATi von 2 Spielen)
Auch ist die gewählte Szene bei HL² absolut unbrauchbar. Wenn dann ein Screenshot, wo die Texturinhalte auch deutlich die Grenzen der Filtertechniken aufzeigen.
Du meinst jetzt den Optimierungsartikel von neulich? Naja, UT2004 hat jedenfalls mehr in Sachen Texturschärfe zu bieten, als die überschärften Texturen auf Kais Q3-Texturenpack.
Die SC:CT Demo ist bspw dafür ganz gut geeignet.
Sicher, daß man da nicht eventuell kleinere Verfälschungen aufgrund zwangsweise unterschiedlicher Shaderpräzision hat, gerade was Flimmern angeht, sind Shader ja nicht immer unschuldig.
hmm... vielleicht hat ati bezüglich der filterung einfach bessere psychovisuelle analysen gemacht, die trotz theoretisch schlechterer qualität für das auge besser aussehen, als die theoretisch korrekte implementierung von nv mit optimierungen? vielleicht ist das rauschen also abischt, was auf grund von analysen bewusst so eingesetzt wurde.
Dann würde das ganze permanent und mit einem "sinnvoll diffusen" Muster auftreten. Tut es aber nicht, manchmal sind die Übergänge gerade, seltener diffus, häufig sogar asymmetrisch und ziemlich Moiré-ähnlich.
Und schon gar nicht würde es beim trilinearen Filter dann auch auftreten – tut es aber. ;)
Wenn du dir ein Auto kaufst was im Prospekt mit 200kmh Höchstgeschwindigkeit beworben wird und es fährt aber tatsächlich 230kmh, regst du dich dann auch beim Verkäufer auf? Man kann auch Beispiele konstruieren, wo die meisten Leute Quincunx-AA höherwertiger als 2x RGMSAA einschätzen würden.
Ja mein Freund der Theorie. Schau dir mal mipmaploses AF beim NV28/Rxx0 an und vergleichs mit NV40/G70. Es hat kein Sinn über theoretische Sollsituationen zu diskutieren, wenn die Praxis ohnehin ganz anders aussieht...
Hier nochmal der Link, wo das schon getestet wurde:
http://www.forum-3dcenter.de/vbulletin/showthread.php?t=202040Spiele die MIP-Mapping brauchen, aber MIP-Mapping nicht aktivieren, sind halt blöd. AF kann fehlendes MIP-Mapping etwas abschwächen, aber nicht ersetzen. Ich sehe keinen Sinn darin, den reichlich bescheuerten Fall zu diskutieren wenn ein Spiel, das MIP-Mapping braucht, kein MIP-Mapping nutzt.
Deine Praxis-Erfahrung in Ehren (das ist nicht ironisch gemeint) aber ich sehe bei dir noch nicht, dass du dir darüber im Klaren bist, wie Texturfilterung funktioniert. Ich halte beides für notwendig, mein Freund der Praxis.
Ja und ein Computer ist ein Apparat, der Informationen mit Hilfe eines programmierbaren Algorithmus verarbeiten kann. Was bezweckst du mit solchen Floskeln?Die "Floskel" war die Antwort auf deine Meinung, was gute Filterung ist.
Ob ers kann oder nicht ist egal, solang man in der Praxis schlechteres AF serviert bekommt. Jedesmal wenn wir drüber diskutieren, soll die ganze Sache dann Gegenstand einer Untersuchung sein, der du anscheinend nur traust, wenn du sie auch selbst durchführst. Denn ich hab das Ganze schon ausgiebigst untersucht, und darauf gibts du anscheinend auch nix.
Deswegen bitte ich dich:
Führe, alsbald wie möglich, selbst so eine Untersuchung durch (aber bitte anhand von praktischen Beispielen, nicht nur so AF-blumenmässig, wie die letzten, da die AF-Blumen ja nur einen Teilaspekt der AF Qualität indizieren; wie du selbst gerade anmerktest), und vermeide bis zum Ergebnis dieser irgendwelche Pauschalwertungen bezügl. der AF Qualitätsunterschiede zw. den IHVs.
Denn selbst wenn du, dich der Thematik von der theoretischen Seite näherst und somit meinetwegen auch gute Gründe hast, von nem besseren AF bei NV Karten zu sprechen, so ists die Tatsache, dass jeder, der deine diesbezüglichen Ausführungen liest, zu dem Schluss kommt, dass das NV AF insgesamt etwas besser ist als das von ATi, was zumindest in den Standardtreibereinstellungen schon mal definitiv falsch ist!
Um nochmal das Autobeispiel zu pentrieren: Ein von 200 auf 150PS gedrosselter Motor ist doch für den Autofahrer auch nicht besser als ein 170PS Motor, nur weil der Motor auch die 200PS schaffen würde. Es zählt was der Kunde bekommt. Und das sind nunmal 150PS...Ich spiele, wenn nicht mit Supersampling, dann auf jeden Fall mit HQ und kann das nur jedem anraten. In Benchmarks sollte man beurteilen, was standardmäßig geboten wird und den Treiber-"Bug", dass die AF-Sample-"Optimierung" aktiv ist, berücksichtigen. Das heißt, entweder bencht man die GeForce gar nicht erst gegen die Radeon oder man bencht die GF nur im HQ-Modus. Damien Triolet hat nun festgestellt, dass die 7800 GTX auch in HQ im Vergleich zur 6800 (HQ) flimmert. Ich werde Leo bitten das in die News zu bringen und seine Benchmark-Ergebnisse für ungültig zu erklären weil sie mit inakzeptabler Texturqualität erzeugt wurden.
Abgesehen von UT 2003 und 2004 wird – afaik – bei HQ auf jegliche "Optimierung" verzichtet. Dann filtert der NV40 besser als R420. Ob nun so viel besser, dass der normale User im direkten Vergleich einen Vorteil für den NV40 oder Nachteil für den R420 sieht, weiß ich nicht. Entscheidend besser ist der NV40, das belegt das AF-Muster, nicht.
Mr. Lolman
2005-06-28, 20:01:24
Du meinst jetzt den Optimierungsartikel von neulich? Naja, UT2004 hat jedenfalls mehr in Sachen Texturschärfe zu bieten, als die überschärften Texturen auf Kais Q3-Texturenpack.
Das ist ja die irrige Annahme. Zeckensack selbst hat sich mal über den Texturpfusch von Unrealenginespielen aufgeregt. Denn im Durchschnitt sind die UT2003/04 Texturen eher zu unscharf, wass mit einem negativen LOD Bias behoben werden sollte. Aber NV kocht da generell sein eigenes Süppchen und deswegen ist nicht nur der (in der ini) eingestellte LOD Bias hinfällig sondern auch die gewählte Filterqualität. (HQ gibts in UT nicht)
Die überscharfen Texturen von Kai sind da sehr viel praktischer. 1. Pfuscht Q3a nicht mit dem LOD herum. 2. sind die Texturen zwar bei weitem nicht so hoch aufgelöst, dafür wird jeder Texel auch wirklich für die Struktur benötigt (im Ggs zu Ut2003/04)
Außerdem ist das Spiel schnell geladen und die Startposition ist immer gleich (macht die Vergleichbarkeit einfacher)
Wenn ichs schaffen würde, zumindest 10fps mit der Voodoo5 zu capturen könnt ich auch zeigen, dass 16xAF (Q) schon fast schlechter (flimmriger) aussieht als 4xSGSSAA mit LOD -1.5...
Sicher, daß man da nicht eventuell kleinere Verfälschungen aufgrund zwangsweise unterschiedlicher Shaderpräzision hat, gerade was Flimmern angeht, sind Shader ja nicht immer unschuldig.
Wieso? Der SM1.1 Pfad sollte auf allen Karten gleich aussehen. (und iirc tuts das auch)
/edit: Achso du meinst FP16/32 vs. FP24. AFAIR limitiert bei den SM1.1 Shadern von SC:CT nirgends die Genauigkeit, aber vll weiss Demi dazu mehr...
Quasar
2005-06-28, 20:10:23
Die überscharfen Texturen von Kai sind da sehr viel praktischer. 1. Pfuscht Q3a nicht mit dem LOD herum. 2. sind die Texturen zwar bei weitem nicht so hoch aufgelöst, dafür wird jeder Texel auch wirklich für die Struktur benötigt (im Ggs zu Ut2003/04)
Na, hoffentlich ist das mal nicht eine irrige Annahme. Sowohl 1. als auch 2..
Und wenn überschärfte Texturen flimmern, dann flimmern sie manchmal nur, weil das Nyquist-Dingenskirchen unterwandert wurde.
Mr. Lolman
2005-06-28, 20:15:22
Man kann auch Beispiele konstruieren, wo die meisten Leute Quincunx-AA höherwertiger als 2x RGMSAA einschätzen würden.
Sry, aber des sind keine konstruierten Beispiele. Dafür leg ich meine Hand ins Feuer. ATis Performance ist überall eindeutig schöner als NV Q+Optimierungen...
Spiele die MIP-Mapping brauchen, aber MIP-Mapping nicht aktivieren, sind halt blöd. AF kann fehlendes MIP-Mapping etwas abschwächen, aber nicht ersetzen. Ich sehe keinen Sinn darin, den reichlich bescheuerten Fall zu diskutieren wenn ein Spiel, das MIP-Mapping braucht, kein MIP-Mapping nutzt.
Aber vielleicht gibt das Aufschluss über die tatsächliche Funktionsweise des AF. Man braucht die Beispiele nicht wegdiskutieren nur wenn man als Theoretiker mal keine Ahnung hat, was da eigentlich passiert. (Falls ich mich täuschen sollte, dann erklär mir bitte, wie die Unterschiede zw. mipmaplosen AF des NV28 und des NV40 zustandekommen.)
Deine Praxis-Erfahrung in Ehren (das ist nicht ironisch gemeint) aber ich sehe bei dir noch nicht, dass du dir darüber im Klaren bist, wie Texturfilterung funktioniert. Ich halte beides für notwendig, mein Freund der Praxis.
Somit müssten wir uns eigentlich wunderbar ergänzen :naughty:
Ich spiele, wenn nicht mit Supersampling, dann auf jeden Fall mit HQ und kann das nur jedem anraten. In Benchmarks sollte man beurteilen, was standardmäßig geboten wird und den Treiber-"Bug", dass die AF-Sample-"Optimierung" aktiv ist, berücksichtigen. Das heißt, entweder bencht man die GeForce gar nicht erst gegen die Radeon oder man bencht die GF nur im HQ-Modus. Damien Triolet hat nun festgestellt, dass die 7800 GTX auch in HQ im Vergleich zur 6800 (HQ) flimmert. Ich werde Leo bitten das in die News zu bringen und seine Benchmark-Ergebnisse für ungültig zu erklären weil sie mit inakzeptabler Texturqualität erzeugt wurden.
Das nenn ich mal ne klare Ansage :up:
Abgesehen von UT 2003 und 2004 wird – afaik – bei HQ auf jegliche "Optimierung" verzichtet. Dann filtert der NV40 besser als R420. Ob nun so viel besser, dass der normale User im direkten Vergleich einen Vorteil für den NV40 oder Nachteil für den R420 sieht, weiß ich nicht. Entscheidend besser ist der NV40, das belegt das AF-Muster, nicht.
AFAIK stimmt das nicht. HQ gibts bei UT2003/04 garnicht. Es wird immer brilinear gefiltert. Anscheinend greift bei UT2003/04 ein eigens für das Spiel optimierter Algorithmus...
Mr. Lolman
2005-06-28, 20:17:25
Na, hoffentlich ist das mal nicht eine irrige Annahme. Sowohl 1. als auch 2..
Ich bin mir nahezu 100% sicher, sowohl mit meinen Ausführungen zu UT2003/04 wie zu Q3a...
Sry, aber des sind keine konstruierten Beispiele. Dafür leg ich meine Hand ins Feuer. ATis Performance ist überall eindeutig schöner als NV Q+Optimierungen...Ich dachte, es geht noch um die Frage, ob man bei bilinearer Filterung MIP-Banding sehen sollte, oder nicht.
Aber vielleicht gibt das Aufschluss über die tatsächliche Funktionsweise des AF. Man braucht die Beispiele nicht wegdiskutieren nur wenn man als Theoretiker mal keine Ahnung hat, was da eigentlich passiert. (Falls ich mich täuschen sollte, dann erklär mir bitte, wie die Unterschiede zw. mipmaplosen AF des NV28 und des NV40 zustandekommen.)Da habe ich keine Ahnung und derzeit ist mir meine Zeit zu schade, mich mit dem imo hirnrissigen Fall zu befassen, auf MIP-Mapping zu verzichten wenn mans braucht. (Im Moment schwirren mir viele andere Dinge durch den Kopf – und meine geistige Kapazität ist begrenzt.)
AFAIK stimmt das nicht. HQ gibts bei UT2003/04 garnicht. Es wird immer brilinear gefiltert. Anscheinend greift bei UT2003/04 ein eigens für das Spiel optimierter Algorithmus...Genau das meinte ich ja. Das habe ich auf der CeBit angesprochen (konkret Adam Foat) der davon nichts wusste und fragte, ob ich schon den neuesten Treiber probiert hätte. Das hatte ich natürlich noch nicht (war ganz frisch.) Der Test ergab dann, dass sich daran nichts geändert hatte. Den Kirk hatte ich mal gefragt, wieso Early-Z-Occlusion nicht standardmäßig für die GeForce4 Ti in D3D aktiviert ist (sondern nur für einige Benchmarks.) Der wusste davon nichts und meinte, Early-Z-Occlusion sollte immer aktiv sein ("should be enabled"). Wenn ich dann an Jens Neuschäfer einen Treiber-Bug weitergebe, z. B. dass in Max Payne (vermutlich auch in anderen Spielen) ab dem Q-Modus brilineare Filterung aktiv ist, auch wenn die Checkbox leer ist (während HQ tatsächlich trilinear filtert, und der Bri-Schalter ab Q z. B. im Filtertester ja funktioniert) leitet er das weiter, aber ändern tut sich am Treiber nichts. An die eigentlich Verantwortlichen für solche Entscheidungen kommst du als Presse-Fuzzi nicht ran.
Und wenn man Filter-Optimierungen anspricht und der Gegenüber weiß, dass er sich jetzt nicht drücken kann, wird versucht die Sichtbarkeit der Qualitätsminderung wegzudiskutieren. Das ist bei ATI nicht anders. Frag mal Quasar. Rene Fröleke wand sich wie ein Aal – er musste eine Treiberpolitik verteidigen, von der er mir selbst gar nicht so überzeugt schien.
Das ist auch von der menschlichen Ebene her schwierig – ich werde im Tonfall leicht agressiv, wenn es um Grundsätze geht. Das baden Leute aus, die dafür eigentlich keine Verantwortung tragen.
Die gesamte GTA Serie (ab GTA3, vorher gabs ne andere Engine) schaut auf NV Karten >NV28 deutlichst schlechter aus, als bei der Konkurrenz (SSAA mal aussen vor gelassen)
kleine korrektur, GTA SA verwendet mip-mapping (zumindest großteils), vice city und gta3 sind mit 4x4FSAA gut spielbar, und wesentlich schöner als jedes AF in GTA sein kann.
Zitat von Mr. Lolman
Leider gibts da ein Downloadlimit pro Stunde, weswegen du immer nur eins ziehen kannst (oder requesten, ob dus dann wirklich ziehst, ist rapidshare egal)
Hab ich im vorhinein leider nicht gewusst, sonst hätt ich mich nach ner anderen Lösung umgesehen...
einfach cookie von der seite löschen und neu einwählen um die IP zu ändern und schon kann man runterziehen soviel man will ;)
Quasar
2005-06-28, 20:59:32
einfach cookie von der seite löschen und neu einwählen um die IP zu ändern und schon kann man runterziehen soviel man will ;)
Das kann's nicht sein - ich war noch nie zuvor bei rapidshare - kann also auch dort nicht "mein" limit überschritten haben.
Quasar
2005-06-28, 21:01:09
Ich bin mir nahezu 100% sicher, sowohl mit meinen Ausführungen zu UT2003/04 wie zu Q3a...
Ich meinte mehr die Eignung speziell überschärfter Texturen für solche Zwecke. Zeckis Moire-Monster flimmert auch ganz übel bsw.
Das kann's nicht sein - ich war noch nie zuvor bei rapidshare - kann also auch dort nicht "mein" limit überschritten haben.
du wirst per IP und mit dem cookie identifiziert, und überschreitest schon mit 1 download oft das limit.
mit anderer IP und ohne cookie wirst du als neuer user identifiziert und bekommst wieder xxMB/h zum download.
das funktioniert nur nicht wenn du über einen externen proxy ins netz gehst, dessen IP sich nicht ändert (und dann bei rapidshare gespeichert wird)
Mr. Lolman
2005-06-28, 21:51:31
kleine korrektur, GTA SA verwendet mip-mapping (zumindest großteils),
In der 1. Stadt nur teilweise. Müsste mal weiterspielen...
In der 1. Stadt nur teilweise. Müsste mal weiterspielen...
kleinere objekte wie autos, sträucher etc. verwenden kein mip-mapping, straßen und alles was man auf größere entfernungen sieht verwendet aber mipmapping (sofern man es in den optionen aktiviert)
Quasar
2005-06-28, 22:25:02
du wirst per IP und mit dem cookie identifiziert, und überschreitest schon mit 1 download oft das limit.
mit anderer IP und ohne cookie wirst du als neuer user identifiziert und bekommst wieder xxMB/h zum download.
das funktioniert nur nicht wenn du über einen externen proxy ins netz gehst, dessen IP sich nicht ändert (und dann bei rapidshare gespeichert wird)
Ich hab das schon kapiert, aber wie kommt es, daß ich bei meinem ersten Besuch ever dort direkt mit der Meldung konfrontiert wurde, die Dateien wären bereits 5 bzw. 3 mal runtergeladen worden.
Wie gesagt, ich war vorher noch nie bei Rapidshare.
Ich hab das schon kapiert, aber wie kommt es, daß ich bei meinem ersten Besuch ever dort direkt mit der Meldung konfrontiert wurde, die Dateien wären bereits 5 bzw. 3 mal runtergeladen worden.
Wie gesagt, ich war vorher noch nie bei Rapidshare.
möglich dass dein ISP dich über einen proxy mit dem netz verbindet, den dann natürlich mehrere kunden gleichzeitig nützen. rapidshare erkennt dann nur die IP des proxys und identifiziert dann alle kunden die über diesen proxy laufen als gleich. (steht übrigens auch in den FAQ)
MountWalker
2005-06-28, 23:40:45
Müsste ich noch mal sehen. Ich bin ziemlich sicher in SW-3D-Spielen den Wechsel von Texturdetailstufen gesehen zu haben, iirc war das schon in Doom.
...
Ich kann mich auch daran erinnern einmal Doom mit Mip-Mapping gespielt zu haben, aber das war nicht Doom-Standard, sondern mit irgendeinem Mod. Vielleeicht wars der OpenGL-Renderer für Doom, aber sicher bin ich mir da nicht. :wink:
Die Doom-Demo kann man bei Id ja immernoch herunterladen.
Doom benutzt nur Point-Sampling. Quake1/QuakeWorld benutzt Mipmapping.
Mr. Lolman
2005-06-28, 23:54:07
Quake1/QuakeWorld benutzt Mipmapping.
Im Softwaremodus afaik nicht...
Doch. Auch im Software-Modus. Die Mipmaps sind sogar seperat abgespeichert (vorberechnet).
Bi/Trilineares Filtern kam aber erst mit GLQuake.
Marodeur
2005-06-29, 09:22:17
Das AF wurde also schlechter bzw. "optimiert"... Hmmm...
Diese Karte ist absolut Highend und somit
a) Für Leute die Benchmarks lieben und da immer gern vorn dabei sind
b) Für Leute die keine Kompromisse in der Bildqualität eingehen möchten sondern Spiele so schön haben wollen wie es nur möglich ist
Kurzum:
Wird AF-Qualität zugunsten von ein paar FPS geopfert und die Möglichkeit dies abzustellen nicht zur Verfügung gestellt stempelt meiner Meinung nach NVidia ALLE Kunden die diese Karte kaufen in die Gruppe der Benchmarker und Balkenlängengeilen ab. Für Spiele kauft anscheinend niemand diese Karte laut deren Gedankengang...
So seh ich als Laie das und es gefällt mir gar nicht, egal ob ich mir selbst so eine Karte leisten kann oder nicht...
Ich hab das schon kapiert, aber wie kommt es, daß ich bei meinem ersten Besuch ever dort direkt mit der Meldung konfrontiert wurde, die Dateien wären bereits 5 bzw. 3 mal runtergeladen worden.
Wie gesagt, ich war vorher noch nie bei Rapidshare.Ja, aber andere User.
Doom benutzt nur Point-Sampling. Quake1/QuakeWorld benutzt Mipmapping.Pointsampling und MIP-Mapping widersprechen sich nicht.
Nicht zwangsläufig. Aber DOOM verwendet beim Point Sampling halt kein Mipmapping X-D
Mr. Lolman
2005-06-29, 12:39:53
Nicht zwangsläufig. Aber DOOM verwendet beim Point Sampling halt kein Mipmapping X-D
Quake1 auch nicht...
DrumDub
2005-06-29, 12:52:44
Dann würde das ganze permanent und mit einem "sinnvoll diffusen" Muster auftreten. Tut es aber nicht, manchmal sind die Übergänge gerade, seltener diffus, häufig sogar asymmetrisch und ziemlich Moiré-ähnlich.
Und schon gar nicht würde es beim trilinearen Filter dann auch auftreten – tut es aber. ;) hmm.. muss mir wohl nochmal aths artikel zum ati-af reinziehen. so genau hab ich das nämlich nicht mehr im kopf. wäre interessant diese untersuchung aus dem artikel für den nv40/g70 mal zu wiederholen:
http://www.3dcenter.org/images/2003/11-21_lodgrenze_r300.png
http://www.3dcenter.org/images/2003/11-21_lodgrenze_nv25.png
http://www.3dcenter.org/artikel/2003/11-21_a.php
Quake1 auch nicht...
http://www.gamedev.net/reference/articles/article985.asp
Ursprünglich war es wohl hauptsächlich als Speicher-Optimierung für den Surface-Cache gedacht. Der Nebeneffekt ist halt, dass sich das Pixelflimmern auch reduziert.
Mr. Lolman
2005-06-29, 16:56:29
http://www.gamedev.net/reference/articles/article985.asp
Ursprünglich war es wohl hauptsächlich als Speicher-Optimierung für den Surface-Cache gedacht. Der Nebeneffekt ist halt, dass sich das Pixelflimmern auch reduziert.
Also ich seh da kein Mipmapping:
http://www.base6.com/portfolio/images/mds_shot1.gif
http://www.answers.com/main/content/wp/en/thumb/2/29/320px-Quake_1_screenshot_320x200_e1m3.png
http://www.perthpcug.org.au/~sherat/sshots~1.html
/edit: Weil mir das keine Ruhe lässt, und im Netz nur Fitzelbilder finden sind, hab ich mal selbst nen Screenshot angefertigt. Und siehe da, Quake nutzt wirklich Mipmaps in SW. (auch wenn das kaum auffällt)
http://img150.echo.cx/img150/729/aufnahme37sb.th.jpg (http://img150.echo.cx/my.php?image=aufnahme37sb.jpg)
Sag' ich doch :biggrin:
Es fällt halt nur nicht so auf, da mangels Texturfilter die Mip-Übergänge sehr untergehen.
MountWalker
2005-06-29, 18:02:07
Also ich hab mal eine neue Doom-Demo die laut Download.com 2003 veröffentlicht wurde (läuft auch problemlos inklusive Sound auf WinXP) heruntergeladen und da sieht man Bi-Bänder (sehr deutlich), aber es flimmert trotzdem.
Probierts mal aus:
http://www.download.com/Doom-demo/3000-7453_4-10246293.html?tag=lst-0-3
P.S.
Die FPS-Begrenzung funktioniert dabei leider genauso wenig wie bei Rockstar Classics -> meist grottenschlechte Performance.
Also ich hab mal eine neue Doom-Demo die laut Download.com 2003 veröffentlicht wurde (läuft auch problemlos inklusive Sound auf WinXP)
Reden wir von demselben Doom?
[edit]: Mipmapping wurde wohl erst für DOOM64 implementiert, aber das war erst 1996:
http://66.249.93.104/search?q=cache:L5H_SgqYrFAJ:ign64.ign.com/articles/060/060379p1.html+doom+mipmapping&hl=en&ie=UTF-8
Reden wir von demselben Doom?
[edit]: Mipmapping wurde wohl erst für DOOM64 implementiert, aber das war erst 1996:
http://66.249.93.104/search?q=cache:L5H_SgqYrFAJ:ign64.ign.com/articles/060/060379p1.html+doom+mipmapping&hl=en&ie=UTF-8
Schau dir doch mal dei Demo hinter dem Link an, das ist Doom (1) Version 1.9. ;)
Ohje ohje, lassen sich denn alle von den Herstellern
verarschen? Rechenpower Megaleistung Megapreis. hab gerade eben meine x850PE verscherbelt und meine alte
9800XT reaktiviert! Also diese Grakas sind das Papier nicht Wert abgestimmt auf aktuelle benches und was weiter-- beim Zocken Standbildchen bestaunen ehrlich gesagt sind aber auch wunderschön nur bis die mal laufen lernen ist die nächste Generation schon veraltet und mit etwas Glück
funktionieren sie dann auch richtig wenigstens zum halben Preis. Ist schon eigenartig diese Abzocke
und die PC Architektur liegt im Koma!
Al der Kreole
Deine Meinung. :rolleyes:
Fetza
2005-07-06, 07:28:42
Zuerst waren es NV-User, die über die 3dfx-ler lachten. Dann waren es ATI-User, die über NV-ler lachten.
Naja, Empfindungssache... weil einige fanboys meinen sie müssten lästern, gibt das ja nicht wirklich die allgemeine Meinung wieder. Mal abgesehen davon, das mich nicht wirklich interessiert, worüber sich fanboys pikieren.
Geht es rein um Texturfüllrate (und werden komprimierte Texturen verwendet) muss der NV30 Ultra schneller sein.
Nur geht es in Spielen nunmal kaum um theoretischer Füllraten, sondern um "Real-World" performance. Hier war der NV30 ein Witz, da beißt die Maus keinen Faden ab.
Tatsächlich Gamma-korrekt ist das bei keinem.
Ist eine deutlich besser Kantenglättung sichtbar, oder nicht?
NV sah offenbar keine Notwendigkeit, mehr Leistung zur Verfügung zu stellen.
Was meiner Meinung nach eindeutig ein Fehler ist!
Ich bin dankbar über die Meldung auch kleiner Fehler, ein Hardware-Artikel (mit Bindestrich :)) sollte in jeder Beziehung fehlerfrei sein.
Schon richtig, wollte damit auch eigentlich mehr zum Ausdruck bringen, das mich in erster Linie die aus dem Artikel zu ziehenden Infos interessieren.
Gruss
Fetza
Nur geht es in Spielen nunmal kaum um theoretischer Füllraten, sondern um "Real-World" performance. Hier war der NV30 ein Witz, da beißt die Maus keinen Faden ab.
naja, so lange man keine PS2.x-shader verwendete war sie durchaus konkurrenzfähig von der geschwindigkeit her.
Ist eine deutlich besser Kantenglättung sichtbar, oder nicht?
imo nein. in "real-world" kann ich ehrlich gesagt praktisch keinen unterschied sehen, nur auf screenshots wenn man gamma-korrekt und nicht korrekt direkt hintereinander sieht, wobei dann imo die "gamma-korrekte" version je nach situation etwas besser, manchmal aber auch etwas schlechter aussieht.
sicher nice-to-have (vor allem wenn es auch abschaltbar ist), alles in allem aber nur ein tolles marketingfeature. ATI und nvidia sollen endlich mal (wieder) ordentliches AF realisieren anstatt transistoren für derart unnütze features zu verschwenden.
Nur geht es in Spielen nunmal kaum um theoretischer Füllraten, sondern um "Real-World" performance. Hier war der NV30 ein Witz, da beißt die Maus keinen Faden ab.Ein Witz in welcher Beziehung? R300 war extrem stark. NV30 war nicht gegen den R300 geplant, sondern als NV25-Nachfolger. Hätte NV vorher gewusst, wozu ATI imstande ist, hätten sie etwas anderes gebracht. Den User interessiert natürlich nicht, was sich NV wann dachte, sondern wie er sein Geld am besten anlegt. Die meisten kauften den R300.
NV brachte sozusagen erst mal die Features, und später die Leistung. Davon kann man halten, was man will. Der typische Spieler war mit ATIs R300 deutlich besser bedient.
Ist eine deutlich besser Kantenglättung sichtbar, oder nicht?Meiner subjektiven Meinung nach: In vielen Situationen ist die Kantenglättung nicht deutlich besser sichtbar. Die Option auf "gamma-adjusted" Downfiltering begrüße ich natürlich, und ich nutze das bereits ganz gerne (trotz des Performance-Drops) auf meiner 6600 GT.
Schon richtig, wollte damit auch eigentlich mehr zum Ausdruck bringen, das mich in erster Linie die aus dem Artikel zu ziehenden Infos interessieren.Übrigens habe ich einige neue Detailinfos, vermutlich wird es irgendwann noch einen zweiten Artikel zur G70-Technologie geben.
Fetza
2005-07-07, 17:18:59
Ein Witz in welcher Beziehung? R300 war extrem stark. NV30 war nicht gegen den R300 geplant, sondern als NV25-Nachfolger. Hätte NV vorher gewusst, wozu ATI imstande ist, hätten sie etwas anderes gebracht. Den User interessiert natürlich nicht, was sich NV wann dachte, sondern wie er sein Geld am besten anlegt. Die meisten kauften den R300.
Sicherlich ist er der Nachfolger des NV25, jedoch muss er sich ja mit dem Kokurrenzprodukt messen. Daher wird NVidia ihn schon als
"Schlachtschiff" gegen den nächsten ATI Chip angesehen haben.
NV brachte sozusagen erst mal die Features, und später die Leistung. Davon kann man halten, was man will. Der typische Spieler war mit ATIs R300 deutlich besser bedient.
Natürlich sind neue Features immer sinnvoll, aber gerade beim NV30 war ich nicht so überzeugt. Die Dawn demo sollte ja etliche der neuen Features nutzen, letztlich lief es aber sogar bei gleicher Darstellungsqualität auf einem R300, nur noch schneller und mit besserem AA, das AF war allerdings dafür beim NV30 um so besser.
Meiner subjektiven Meinung nach: In vielen Situationen ist die Kantenglättung nicht deutlich besser sichtbar. Die Option auf "gamma-adjusted" Downfiltering begrüße ich natürlich, und ich nutze das bereits ganz gerne (trotz des Performance-Drops) auf meiner 6600 GT.
Nun meinem Empfinden nach, ist es ein fast schon riesiger Unterschied, gerade bei den horizontalen Kanten. Und da hätte ich von meiner 6800gt mehr erwartet, der Performance drop mit "gamma-korrektem" AA ist wirklich groß, und frist viel von der vom NV40 bereitgestellten Performance. Das ging bei mir sogar so weit, das ich lieber höhere Auflösungen nehme, und dafür nur 2x AA.
Übrigens habe ich einige neue Detailinfos, vermutlich wird es irgendwann noch einen zweiten Artikel zur G70-Technologie geben.
Ich bin gespannt :-)
Sicherlich ist er der Nachfolger des NV25, jedoch muss er sich ja mit dem Kokurrenzprodukt messen. Daher wird NVidia ihn schon als "Schlachtschiff" gegen den nächsten ATI Chip angesehen haben.Mit dem NV30 konnten sie nicht gewinnen, trotz 500 MHz. Sie haben nicht umsonst so schnell es ging den NV35 rausgebracht.
Natürlich sind neue Features immer sinnvoll, aber gerade beim NV30 war ich nicht so überzeugt. Die Dawn demo sollte ja etliche der neuen Features nutzen, letztlich lief es aber sogar bei gleicher Darstellungsqualität auf einem R300, nur noch schneller und mit besserem AA, das AF war allerdings dafür beim NV30 um so besser.Um den NV30 für Echtzeitanwendungen zu nutzen durfte man es mit Floating-Point-Rechnungen im Pixelshader nicht übertreiben. Die Shader müssen, einfach gesagt, so kurz sein, dass selbst R300 sie noch ausführen kann. Man kann aber, wenn es nicht auf Echtzeit kommt, deutlich mehr machen als auf dem R300. Bestimmte Engines, die -zig oder hunderte Instruktionen für Pixel vorsehen, wurden dann ja auch auf der GeForce FX entwickelt. Auf dem NV40 laufen sie deutlich schneller, auf G70 noch mal spürbar schneller und auf dem nächsten oder übernächsten Chip werden sie dann in hoher Auflösung bei allen Effekten vernünftige Geschwindigkeit anbieten.
Nun meinem Empfinden nach, ist es ein fast schon riesiger Unterschied, gerade bei den horizontalen Kanten. Und da hätte ich von meiner 6800gt mehr erwartet, der Performance drop mit "gamma-korrektem" AA ist wirklich groß, und frist viel von der vom NV40 bereitgestellten Performance. Das ging bei mir sogar so weit, das ich lieber höhere Auflösungen nehme, und dafür nur 2x AA.Bitte nicht das Wort "gamma-korrekt" verwenden. Da ist nichts gamma-korrekt. In Dingen AA spielt das persönliche Empfinden stark mit ein. Dennoch sollte die nichtlineare Herunterfilterung das auch objektiv bessere Bild liefern, die Frage ist dann nur, wie stark man den Vorteil sieht. Ich finde es sehr gut, dass NV erlaubt, diese Option an- oder auszuschalten, während man bei ATI immer gamma-adjusted AA hat.
Defenda
2005-07-31, 10:57:47
aths:
Lob und Anerkennung. Lange her, einen solch guten, objektiven und professionell gestalteten technischen Bericht gelesen zu haben- Hut ab !
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.