PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wer glaubt Ihr wird die nächste AA-Qualitäts/Leistungsrunde gewinnen?


Ailuros
2003-11-07, 19:48:46
Wer glaubt ihr wird die naechste AA-Qualitaets/Leistungsrunde gewinnen?

a) NV40
b) R420

Endorphine
2003-11-07, 20:21:20
Original geschrieben von Ailuros
Wer glaubt ihr wird die naechste AA-Qualitaets/Leistungsrunde gewinnen?

a) NV40
b) R420 Ich will auch!!!111 :jump:

Spass bei Seite: mal ehrlich, wozu eine Detailfrage um AA/AF, wenn es dazu nicht mal den Hauch einer Spekulationsgrundlage gibt? Es ist doch noch gar nichts bekannt, was als Spekulationsgrundlage dienen könnte, oder?

Aquaschaf
2003-11-07, 20:32:18
An Spekulationsgrundlage ist das Gerücht da, dass NVidia ein "zufälliges" Abtastmuster verwenden will. Und die Aussage des ATI Mitarbeiters in dem Interview, aus der man schließen kann dass ATI kein "zufälliges" Abtastmuster beim R420 verwenden wird. Ich lege mich nicht auf a) oder b) fest...

Endorphine
2003-11-07, 20:46:08
Ahso :) Dann stimme ich mal für ATI, wenn es um MSAA geht. Das gammakorrigierte sparsed grid MSAA ist nVidia derzeit sehr weit voraus. Wenn ATI es weiterentwickelt (oder zumindest einen 8x-sparsed Modus anbietet) kann ATI es kaum noch verbessern. Höchstens noch Supersample-AA als Bonus anbieten, wenn besonders viel Leistungsüberschuss vorhanden ist.

Den Level von ATI muss nVidia erst einmal erreichen. Gammakorrigiertes MSAA und sparsed grid. Wobei das Subpixelmuster bei ATI ja auch noch programmierbar ist (siehe XFree86-Server), das fehlt nVidia AFAIK ebenfalls. Zu viel aufzuholen, als dass nVidia da an ATI vorbeiziehen könnte denke ich. ATI wird sicher beim R4xx ein weiterentwickeltes AA vorzeigen. Da hat nVidia IMHO einfach zu viel zu überbieten.

Ich stimme mal für ATI. Dafür denke ich, dass nVidia weiterhin beim Texturfilter vorn liegen wird :) ATI wird den Leistungs- und Transistorsparvorteil des winkeladaptiven AF sicher nicht aufgeben. Bis auf ein paar Freaks hat das sowieso niemand wahrgenommen. Den Leistungsvorteil kann man aber in jeder Gamestar/Computerbild in den Benchmarkcharts bewundern.

DrumDub
2003-11-07, 20:46:57
ich hab da so meine zweifel, ob beide überhuapt was neues bringenw erden.

wobei ich es nv schon eher zutraue, da sie im moment nicht wirklich konkurrenzfähig beim aa sind (außer 8xS :freak: ).

Gast
2003-11-07, 20:50:27
Rein aus dem Bauch heraus, würde ich sagen muß NV was tun! Darum sag ich mal NV40, da ich glaube
das es in den nächsten 2 Jahren ein hin und her zwischen nv und ati geben wird!
Da so langsam ja wieder mehr player in diesem Sektor aktive werden!

Wie wir gesehen haben reicht es ja nicht sich auf seinen Lorbeeren auszuruhen.

MS wird mit dem neuen OS ja auch dx9 Verlangen bzw. darauf aufsetzen, somit müßten auch onboard Lösungen dx9 unterstützen! Da liegt es ja auf der Hand das mehr attraktive Grafik auf den Markt kommt, wenn man schon mal dx9 unterstützt (VIA Sis usw.) kann man ja auch gleich einen schritt weiter gehen.
Und in den karten Markt einsteigen, liegt immerhin nahe!

KEINPLAN
2003-11-07, 20:53:04
Original geschrieben von Gast
Rein aus dem Bauch heraus, würde ich sagen muß NV was tun! Darum sag ich mal NV40, da ich glaube
das es in den nächsten 2 Jahren ein hin und her zwischen nv und ati geben wird!
Da so langsam ja wieder mehr player in diesem Sektor aktive werden!

Wie wir gesehen haben reicht es ja nicht sich auf seinen Lorbeeren auszuruhen.

MS wird mit dem neuen OS ja auch dx9 Verlangen bzw. darauf aufsetzen, somit müßten auch onboard Lösungen dx9 unterstützen! Da liegt es ja auf der Hand das mehr attraktive Grafik auf den Markt kommt, wenn man schon mal dx9 unterstützt (VIA Sis usw.) kann man ja auch gleich einen schritt weiter gehen.
Und in den karten Markt einsteigen, liegt immerhin nahe! Bin Ich gewesen automatisches ausloggen Sonn kack

Byteschlumpf
2003-11-07, 21:19:25
Original geschrieben von Gast
Rein aus dem Bauch heraus, würde ich sagen muß NV was tun!

Genau!
Daher tippe ich darauf, dass nVidia der welterste GPU-Entwickler sein wird, der seine Chips serienmäßig mit Rußpartikelfilter ausstatten wird! :D

Ailuros
2003-11-07, 21:36:50
MS wird mit dem neuen OS ja auch dx9 Verlangen bzw. darauf aufsetzen, somit müßten auch onboard Lösungen dx9 unterstützen! Da liegt es ja auf der Hand das mehr attraktive Grafik auf den Markt kommt, wenn man schon mal dx9 unterstützt (VIA Sis usw.) kann man ja auch gleich einen schritt weiter gehen.
Und in den karten Markt einsteigen, liegt immerhin nahe!

Ich sehe von XGi/S3 bis jetzt nichts, dass die AA Loesungen von ATI/NV momentan ueberwinden kann.

An Spekulationsgrundlage ist das Gerücht da, dass NVidia ein "zufälliges" Abtastmuster verwenden will. Und die Aussage des ATI Mitarbeiters in dem Interview, aus der man schließen kann dass ATI kein "zufälliges" Abtastmuster beim R420 verwenden wird. Ich lege mich nicht auf a) oder b) fest...

Bitte stochastic oder semi-stochastic nicht mit einem poisson pattern verwechseln.

Spass bei Seite: mal ehrlich, wozu eine Detailfrage um AA/AF, wenn es dazu nicht mal den Hauch einer Spekulationsgrundlage gibt? Es ist doch noch gar nichts bekannt, was als Spekulationsgrundlage dienen könnte, oder?

Doch R3xx und NV3x. Von da ab kann man bis zu 200M Transistoren maximal hochspekulieren und sich mal vorstellen was jeder da anrichten koennte ohne die vorige Pipeline total in die Luft zu jagen.

Anstatt staendig ueber bloedsinnige Taktraten, Herstellungsprozesse oder Anzahl von Pipelines zu spekulieren, wollte ich mal sehen was das Publikum hier dazu denkt.

Wobei die Mehrzahl der Spekulationen ueber Taktraten und co sowieso auch nur selten getroffen sind. Also wer will mitspielen? :)

Gast
2003-11-07, 22:10:23
Endlich mal wieder ein richtiger Speku Thread.

Dann will ich auch mal gleich auf die Kacke hauen:

Ich denke NV wird auch ein RG Muster für 4 Sample anbieten, während sich bei ATI nichts tut, warum auch.

Endorphine
2003-11-07, 22:25:26
Original geschrieben von Gast
Endlich mal wieder ein richtiger Speku Thread.

Dann will ich auch mal gleich auf die Kacke hauen:

Ich denke NV wird auch ein RG Muster für 4 Sample anbieten, während sich bei ATI nichts tut, warum auch. Rotated Grid wäre aber ziemlich wenig. ATI hat sparsed grid, Gammakorrektur und – zusätzlich – die programmierbare Subpixelgridposition in der Hinterhand. Wenn nV nur mit 4x RGMSAA ankommt wäre das ein bischen sehr wenig Weiterentwicklung. Ich denke da unterschätzt du nVidia.

aths
2003-11-08, 01:43:49
Original geschrieben von Endorphine
Rotated Grid wäre aber ziemlich wenig. ATI hat sparsed grid, Gammakorrektur und – zusätzlich – die programmierbare Subpixelgridposition in der Hinterhand. Wenn nV nur mit 4x RGMSAA ankommt wäre das ein bischen sehr wenig Weiterentwicklung. Ich denke da unterschätzt du nVidia. Bei 4x entspricht "RG" == "sparsed". Bei 6x ist "RG" schlecht drin.

Welchen Sinn haben "programmierbare" Subpixelpositionen derzeit?

aths
2003-11-08, 01:51:59
Original geschrieben von Ailuros
Ich sehe von XGi/S3 bis jetzt nichts, dass die AA Loesungen von ATI/NV momentan ueberwinden kann.Ich auch nicht. Nach etwas überlegen bin ich zur Meinung gelangt, dass eine MSAA-Pipe doch ein klein wenig aufwändiger ist, als nur "vorne" und "hinten" bisschen was dranzubasteln.

Original geschrieben von Ailuros
Anstatt staendig ueber bloedsinnige Taktraten, Herstellungsprozesse oder Anzahl von Pipelines zu spekulieren, wollte ich mal sehen was das Publikum hier dazu denkt.Ich bin sehr froh, dass du kürzlich ein Zitat von B3D gepostet hast, wo darauf eingegangen wurde, dass Zufalls-Grids sehr viele Subpixel benötigen. Ich halte Zufalls-Muster, egal nach welcher Verteilung, momentan für Unsinn.

Beim MSAA gibt's ja auch das Problem des Z/Stencil-Renderings, weshalb ich stark annehme, dass in überschaubarer Zukunft höchstens 8x MSAA "reuelos" möglich ist, vielleicht gibt's auch 16x als Angeber-Feature, was dann aber mit heftigem Leistungseinbruch zu bezahlen wäre.

Ich spekuliere, dass NV beim NV40 endlich mal das HRAA weggeschmissen hat, und was deutlich besseres entwickelt. Ich hoffe darauf, dass mindestens 2x, 4x und 8x-Grids mit voller EER-Ausnutzung geboten wird.

Ailuros
2003-11-08, 03:00:37
Ich bin sehr froh, dass du kürzlich ein Zitat von B3D gepostet hast, wo darauf eingegangen wurde, dass Zufalls-Grids sehr viele Subpixel benötigen. Ich halte Zufalls-Muster, egal nach welcher Verteilung, momentan für Unsinn.

Jittered grid semi-( oder pseudo) stochastic gibt gute Resultate ab 16x samples. Es gibt viel zu viele Varianten und Ideen oder workarounds die nicht unbedingt toll klingen, koennten aber unter Umstaenden eine gute Loesung werden wenn die richtigen Modifikationen eingestellt werden und der Algorithmus in allen Faellen auch fehlerfrei laufen wird. Z3 klingt nicht aeusserst toll auf Papier, aber eine kluge Modifizierung der Basis-Idee koennte Wunder wirken.

Ich verfolge SA's Aussagen schon seit Jahren uebrigens und bisher (obwohl er leider in letzter Zeit verschwunden ist) war er immer so gut informiert dass viele seiner Aussagen sogar "prophetisch" in relativem Sinn aussahen. Als er von einer Vereinigung von PS/VS vor geraumer Zeit schrieb, hielt es die Mehrzahl fuer Bloedsinn.

15.October 2002:

The point is that there is a great deal of inefficiency yet in today's hardware. Improving the rendering efficiency provides a route to improving performance that does not necessarily require costly new processes, large numbers of pipelines, etc. Not that these aren't great to have, they are. Just that there is also still plenty of low hanging fruit that can come from improving rendering efficiency.

As an example, you might simply added 8k of frame/depth buffer cache to a standard IMR (about a 32x32 pixel tile's worth) , then recommend that developers sort their render in roughly tile order and roughly front to back within a tile region. Older titles that did not do this would still see some benefit from the cache while developers that took full advantage of it would get tiler-like performance with a standard IMR. For those developers that wanted to use application driven deferred rendering they could still render the scene twice, once without shading (to set the depth buffer) and then again with shading.

Hierarchical z buffering would add even more benefit, especially if the upper levels were cached on the chip. I would recommend up to 5 levels (for quick elimination of large stencil polys, bounding volume occlusion checks, etc.).

Providing for the use of z occlusion culling using bounding volumes to eliminate unnecessary hidden vertex and pixel processing. This becomes an ever increasing issue as triangle rates and scene complexity increase. It think it important to provide this capability as a standard feature across all 3d hardware vendors and APIs. Z occlusion culling works particularly well with 5 or more levels of hierarchical z to quickly determine the visibility of the bounding volumes.

Using more efficient multisampling AA techniques such as Z3 or other coverage mask approach and sparse grid sampling, could provide 16x or even 32x near stocastic AA with little performance impact. It would correctly handle implicit edges and order independent transparency sorting to boot.

There are still some improvements both in performance and quality that can be made in anisotropic filtering as well. Some of the ideas in the Feline approach would be useful.

There are, of course, many other possibilities. Improving rendering efficiency has just begun to be tapped and offers all the vendors the opportunity for a great deal of performance improvement in the near term.


Anti-aliasing is a broad subject that is not limited to 3d graphics. In fact, much of the original research was done for sound processing.

There are several things to consider when evaluating the effectiveness of an anti-aliasing mechanism at removing aliasing. These include the filter shape, the filter size, and the continuity (sampled versus analytical input and filter function).

In addition to effectiveness you must also consider bandwidth and computational requirements.

For analytical input such as procedural textures the most effective anti-aliasing technique is to use an analytical windowed sync filter kernel such as the Lanczos3 sycn filter (spline based). This is not practical yet for real time 3d.

For sampled input such as traditional sampled textures, true analytical filters are not an option and some form of sampled anti-aliasing must be used. Two of the best sampling anti-aliasing techniques are stocastic jittered sampling and sparse supersampling.

Stocastic jittered sampling is better when a large number of samples (say >32 in the kernel) is used.

Sparse supersampling works better for a smaller number of samples (say <= 32) since it provides a better use of samples at near horizontal and near vertical edges. Rotated grids are a simple mechanism that achieves some of this, however sparse supersampling provides even better use of the samples than a simple rotated grid. For instance, for 16 samples an ordered grid provides only 4 levels of gradation for near horizontal and near vertical edges, while a rotated grid will provide more gradations at these angles is has a similar problem to ordered grid at other angles. 16x sparse supersampling however provides 16 levels of gradation at all edge angles. Thus all the samples are fully utilized to provide graduated colors at all edge angles. When the number of samples gets high enough, it can be worthwhile to use a better filter shape (weighted) than a simple box filter.

Multi-sampling eliminates much of the high memory bandwidth costs by using the same surface color for each surface sample in a pixel (so the color is only calculated once per pixel rather than once per sample), but it only anti-aliases edges and requires special handling to properly deal with alpha blending. It must be coupled with anisotropic filtering of the textures for complete anti-aliasing of the scene. In this case, multi-sampling only processes the sample z values at the edge pixels, while anisotropic filtering only processes the sample color values at the interior pixels thereby eliminating much of the processing.

Anisotropic filtering has also been the focus of a lot of early anti-aliasing research. This is an efficient mechanism for anti-aliasing textures since it doesn't need to store or compare the z values at each of the sample points, eliminating this cost for all the interior pixels. The best forms of anisotopic filtering use adaptive, jittered sampling based on the degree of anisotropy and using a weighted filter kernel. It also requires some special handling to properly deal with alpha blended transparency.

Supersampling (using say either sparse supersampling or stocastic jittered supersampling techniques) provides a slightly better quality than a combination of multi-sampling and anisotropic filtering for the same number of samples per pixel and using the same sampling technique since it properly deals with variations of color within a pixel and properly deals with transparency with no special handling (assuming the surfaces were ordered properly when rendered). However, it comes at a very high cost in memory bandwidth and processing bandwidth, usually far too high for the slightly added benefit on current 3d hardware.


Eric meinte meiner Meinung nach einen poisson pattern, der sowieso zu schwer zum implementieren ist.

Ailuros
2003-11-08, 03:17:34
Beim MSAA gibt's ja auch das Problem des Z/Stencil-Renderings, weshalb ich stark annehme, dass in überschaubarer Zukunft höchstens 8x MSAA "reuelos" möglich ist, vielleicht gibt's auch 16x als Angeber-Feature, was dann aber mit heftigem Leistungseinbruch zu bezahlen wäre.

Das Bedenken ueber stencil op/MSAA Kombinationen war aber nicht so offensichtlich in einem anderem Forum *wink*.

Spass beiseite ich hab zwar keine konkrete Informationen was die ROPs der naechsten Information bei NV40 betrifft, aber Uttar besteht darauf dass angeblich nichts dazugefuegt wurde. Theoretisch kann NV3x (kudos an die Quelle die wohl anonym bleiben will) AFAIK wenn 4 Takte im PS verbracht werden bis zu vier loops ohne grossen Leistungsverlust vornehmen, wobei texel Fuellrate fast unberuehrt bleibt und pixel Fuellrate dafuer verbrannt wird. 4 loops * 4xMSAA = 16x MSAA; nur wuerde ich fuer NV3x nicht mehr als einen 4*4 grid in dem Fall schaetzen.

NV4x braucht ergo (hoechstwahrscheinlich) unter diesen Voraussetzungen keine extra ROPs, nur eben eine kluge Modifizierung um bei zwei loops auch einen 8*8 grid zu erreichen. Ich wuerde genauso schaetzen dass der filter on scanout Trick, der schon einige Bandbreite unter Vorraussetzungen spart, nicht aufgegeben wird. War die Vorraussetzung nicht dass bei NV3x und 4x MSAA die Leistung nicht und 3/5-el der Bildwiederholrate faellt? Davon ausgegangen dass es fuer 2xMSAA nur 2/3-el waren, koennte man auch hier nicht weiterhin optimieren fuer mehr samples?

Fuer R420 wuerde ich auf drei blocks raten und keine Aenderung der Anzahl von Z-stencil Einheiten pro "pipeline". Kann sein dass hier vielleicht Z/stencil units sogar dynamisch rekonfiguriert werden (nochmal kudos anonyme Quelle *kicher*) aber sonst sieht ein die Steigerung von 3 zu 4 loops sehr wahrscheinlich aus.

R3xx= (3 loops * 2xAA = 6xAA)
R4xx= (4 loops * 2xAA = 8xAA)

Alles nur IMHO (mit all den vorhersehbaren Fehlern eines Laien) und ein Patchwork von Informationen die ich hier und da gesammelt hab (kann sein dass ich einige sogar falsch verstanden habe).

Ailuros
2003-11-08, 03:22:14
Von der Tatsache aus dass ATI's 6x sparse so in etwa "handoptimiert" ist, waere das nicht auch eine Vorraussetzung fuer mehr als 4x sparse wo immer auch anzutreffen?

KEINPLAN
2003-11-08, 03:37:59
Original geschrieben von Ailuros
Das Bedenken ueber stencil op/MSAA Kombinationen war aber nicht so offensichtlich in einem anderem Forum *wink*.

Spass beiseite ich hab zwar keine konkrete Informationen was die ROPs der naechsten Information bei NV40 betrifft, aber Uttar besteht darauf dass angeblich nichts dazugefuegt wurde. Theoretisch kann NV3x (kudos an die Quelle die wohl anonym bleiben will) AFAIK wenn 4 Takte im PS verbracht werden bis zu vier loops ohne grossen Leistungsverlust vornehmen, wobei texel Fuellrate fast unberuehrt bleibt und pixel Fuellrate dafuer verbrannt wird. 4 loops * 4xMSAA = 16x MSAA; nur wuerde ich fuer NV3x nicht mehr als einen 4*4 grid in dem Fall schaetzen.

NV4x braucht ergo (hoechstwahrscheinlich) unter diesen Voraussetzungen keine extra ROPs, nur eben eine kluge Modifizierung um bei zwei loops auch einen 8*8 grid zu erreichen. Ich wuerde genauso schaetzen dass der filter on scanout Trick, der schon einige Bandbreite unter Vorraussetzungen spart, nicht aufgegeben wird. War die Vorraussetzung nicht dass bei NV3x und 4x MSAA die Leistung nicht und 3/5-el der Bildwiederholrate faellt? Davon ausgegangen dass es fuer 2xMSAA nur 2/3-el waren, koennte man auch hier nicht weiterhin optimieren fuer mehr samples?

Fuer R420 wuerde ich auf drei blocks raten und keine Aenderung der Anzahl von Z-stencil Einheiten pro "pipeline". Kann sein dass hier vielleicht Z/stencil units sogar dynamisch rekonfiguriert werden (nochmal kudos anonyme Quelle *kicher*) aber sonst sieht ein die Steigerung von 3 zu 4 loops sehr wahrscheinlich aus.

R3xx= (3 loops * 2xAA = 6xAA)
R4xx= (4 loops * 2xAA = 8xAA)

Alles nur IMHO (mit all den vorhersehbaren Fehlern eines Laien) und ein Patchwork von Informationen die ich hier und da gesammelt hab (kann sein dass ich einige sogar falsch verstanden habe). Oje oje das soll ich nun noch kapieren, das ist nun in meinem zustand zuviel des guten! Aber ich bleibe dabei, da nv beim aa nicht viel gemacht hat in letzter Zeit, denke ich mal das sie da was neues bringen werden! Ihre ohnehin schon guten af Eigenschaften verschnellern werden, um den sogenannten brilenaren Filter abzuschaffen, wie er so schön genannt wird.
Obwohl ich der Meinung bin das ati damit anfing!
Das Gegenteil gilt für ati, die werden am af basteln! Zum Rest heute nachmittag mehr!

Transistor Count pah Dual Core IBM läßt grüßen und wen sie nur die ps vs auslagern

Ailuros
2003-11-08, 03:42:21
Gerade weil sie nichts seit geraumer Zeit geandert haben (nur minimale Aenderungen zwischen NV20-NV25-NV3x), ist es ein Grund mehr dass sie in der Abteilung endlich was anderes liefern werden. Immer natuerlich im Raum des moeglichen.

KEINPLAN
2003-11-08, 03:50:40
Original geschrieben von Ailuros
Gerade weil sie nichts seit geraumer Zeit geandert haben (nur minimale Aenderungen zwischen NV20-NV25-NV3x), ist es ein Grund mehr dass sie in der Abteilung endlich was anderes liefern werden. Immer natuerlich im Raum des moeglichen. Habe ich vielleicht unverständlich gesagt! Aber ich meine ja, das sie fast nix außer quinix, (oder wie der Schrott heißt) gebracht haben. Deswegen wird beim aa was kommen.
speku 3dfx patente, oder so wie sage der eigene Geometrie protzie! Und mit IBM als Vertigungs Partner wären 2 dies auf einem package möglich.
Der Trend bewegt sich ja dorthin, wobei nv schon zur v1 Zeit sagte ein Chip wäre immer besser!

Ailuros
2003-11-08, 04:02:44
Na ja NV25 bekam 4xS und den filter on scanout Trick und NV3x bekam dann noch mehr hybride MSAA/SSAA modi dazu. Quincunx gab es schon seit NV20 (was auch von aths als HRAA bezeichnet wurde).

Und mit IBM als Vertigungs Partner wären 2 dies auf einem package möglich.

Schon moeglich aber nicht fuer diese Generation; ist auch noch nicht notwendig.

Der Trend bewegt sich ja dorthin, wobei nv schon zur v1 Zeit sagte ein Chip wäre immer besser!

Es ist ja auch keine "multichip" Loesung in dem Sinn; das Resultat wird immer nur ein chip sein *kicher*

speku 3dfx patente, oder so wie sage der eigene Geometrie protzie!

Die ROPs Idee oben mit dem Austausch von pixel und texel fuellrate soll vom Rampage als primitivere Idee originieren, als schon im NV25/NV30 zu finden.

betasilie
2003-11-08, 04:13:11
Original geschrieben von aths
Welchen Sinn haben "programmierbare" Subpixelpositionen derzeit?
Wohl garkeinen oder nutzt das irgendein Game?

Original geschrieben von Endorphine
Rotated Grid wäre aber ziemlich wenig.
Und wie soll ein sparsed grid mit 4 Subpixeln aussehen? :w00t:
Original geschrieben von DrumDub
wobei ich es nv schon eher zutraue, da sie im moment nicht wirklich konkurrenzfähig beim aa sind (außer 8xS :freak: ).
Selbst 8xS kommt um Welten nicht an das 6*AA-SG von ATI dran. :nono:

BOT

Ich bezweifel, dass ATI SSAA anbieten wird, weil es wahrscheinlich zu aufwendig wäre SS gammakorrigiert hinzubekommen. Ich tippe aber drauf, dass ATI 8*FSAA anbieten wird mit einem schönen sparsed grid. =)

NV muss eigentlich was richtig gutes beim AA bringen, aber NV traue ich auch zu, dass es ihnen egal ist.
-------
ATI wird, wie Endorphine auch schon schrieb, imho nichts großartig beim AF ändern. Jedenfalls werden sie kein vollwertiges AF alá NV anbieten, was ich aber auch nicht schlimm finde.

NV hat anders zu tun, als sich um ihr AF zu kümmern, denn das ist ja schon ganz gut.
-------
ATI wird beim R420 Shader3.0 anbieten, allerdings wird der Chip wahrscheinlich nicht so gut performen mit den 3.0er Shadern. Dafür wird ATI aber nochmals gehörig Performance bei den 2.0er Shadern zulegen, was ja für 2004 wichtiger sein sollte, da Karten mit 3.0Shaderünterstützung wohl nicht sehr verbreitet sein werden und die Softwaredeveloper somit sowas nicht nicht in ihre Spiele implementieren werden.

Der NV40 wird wahrscheinlich bei den 3.0er Shadern schneller sein als der R420, allerdings wird der R420 bei den 2.0er Shader davonziehen, was imho für das Jahr 2004 wesentlich wichtiger sein wird, da es wohl kein Spiel geben wird, welches Schader3.0 unterstützt. ... Vielleicht STALKER.
-----------

Mein Fazit:
Von der Tendenz her würde ich sagen, das ATI den besseren Chip bauen wird, da ATI einfach nicht soviel nachzuholen hat wie NV und sich voll aufs optimieren konzentrieren kann und ggf. 8*AA implementieren wird. ATI wird mit dem R500 dann allerdings gehörig bei den 3.0-Shadern nachzuholen haben, denn 2005 werden die 3.0er Shader wahrscheinlich dann wirklich wichtig werden. ... Es könnte aber auch der Fall eintreten, auf den ich immer noch hoffe, und NV bringt einen echten Knaller in Form des NV40 mit ganz neuen tollen AA-Modi und extrem guter Performnce, insbesondere bei den 2.0-Shadern.

Ich habe mir ja realtiv kurz nach dem Relaese des R300 eine 9700er gekauft und bin heute, insbesondere wegen der Übertaktbarkeit auf >9800Pro-Niveau, immer noch up-to-date mit meiner Karte und sehr sehr zufrieden. Zu Weihnachten schenke ich mir dann einen Voltmod, dann sollte die Karte bis zum NV40/R420 reichen. ;)

Daher finde ich die Frage "R420 - NV40?" sehr, sehr spannend und freue mich auf wirklich neue GPUs.
Hoffentlich werde ich nicht von beiden Firmen enttäuscht.

Ailuros
2003-11-08, 05:32:08
Uhmmm bitte es geht hier nicht um Shader....

aths
2003-11-08, 10:09:56
Original geschrieben von betareverse
Selbst 8xS kommt um Welten nicht an das 6*AA-SG von ATI dran. :nono:Wie kommst du denn darauf? "Welten" sind das nun nicht.
Original geschrieben von betareverse
Ich bezweifel, dass ATI SSAA anbieten wird, weil es wahrscheinlich zu aufwendig wäre SS gammakorrigiert hinzubekommen. Das hat eigentlich nichts mit der Gammakorrektur zu tun, wenn in der MSAA-Pipe SSAA gleich mit vorgesehen wäre (per Loop Back oder so...) Ist bei ATI offenbar aber nicht, und "herkömmliches" Downfiltering ist eben ohne Gamma-Gegenkorrektur.

aths
2003-11-08, 12:05:11
Original geschrieben von Ailuros
Na ja NV25 bekam 4xS und den filter on scanout Trick und NV3x bekam dann noch mehr hybride MSAA/SSAA modi dazu. Quincunx gab es schon seit NV20 (was auch von aths als HRAA bezeichnet wurde). 4xS läuft auch auf GF3, das ist ja 'ne reine Treiberfrage. Beim NV25 sind die Samplepositionen leicht verschoben, das Grid liegt ab NV25 (bzw. NV17) schön zentriert im Pixel und nicht mehr nach oben links verschoben. Aber es bleibt eben bei 4 Multi-Samples pro Pixel, und eben beim 4x-OG-Muster, weshalb ich auch das NV38-MSAA noch als "HRAA" bezeichne.

Ich wüsste gerne mal, ob NV20 schon einen 10-Bit-RAMDAC hatte...

Spake
2003-11-08, 12:29:51
so weit ich das verstanden habe wurde die echte weiterentwicklung sprich R400 von ATI gestrichen(bitte notfalls korrigieren)
antstatt dessen kommt doch der R420 auf basis des R3xx

deshalb vermute ich das ATI an ihrem grundlegendem AA prinzip nix ändern werden


nv wiederrum benutzt ja schon seit dem nv20 ihr AA fast unverändert also sehe ich dort deutlich größere chancen auf ein besseres/anderes AA

betasilie
2003-11-08, 15:36:00
Original geschrieben von Ailuros
Uhmmm bitte es geht hier nicht um Shader....
Stimmt. Es war spät in der Nacht.:)

... ATI wird imho definitiv bei der AA-Qualität vorne bleiben.

Ailuros
2003-11-08, 15:54:24
Irgendwie passt mir die Moeglichkeit eines (mehr oder weniger) Gleichstands schon eher, koennte aber total falsch liegen. IHVs aeussern sich selten gerne ueber Details was spezifische Algorithmen betrifft.

Ich wüsste gerne mal, ob NV20 schon einen 10-Bit-RAMDAC hatte...

Lass mich nochmal nachstoebern in altem Kram, obwohl ich mir fast sicher bin dass NV25 fast den ganzen RAMDAC von "you know what" bekam...


350 MHz 10-bit RAMDAC with independently programmable gamma
VIP Port 1.1 w/2.0 extensions - including ability to support HDTV resolution data rates


Selbst wenn NV20 einen 10bit RAMDAC hatte, war gamma programmierbar?

Ailuros
2003-11-08, 17:45:32
Thowe,

Check your PM.

Thowe
2003-11-08, 18:11:23
Original geschrieben von Ailuros
Thowe,

Check your PM.

Mache ich, melde mich :)

zeckensack
2003-11-09, 02:28:25
Original geschrieben von Ailuros
Selbst wenn NV20 einen 10bit RAMDAC hatte, war gamma programmierbar? Gamma ist programmierbar. Ist es auf NV4 (aka RivaTNT) btw auch schon :)

(das ist nur eine ganz simple Lookup-Tabelle, und hat mit AA oder sonstigen Qualtitäts-Features nichts zu tun)

Xmas
2003-11-09, 03:12:30
Original geschrieben von aths
Das hat eigentlich nichts mit der Gammakorrektur zu tun, wenn in der MSAA-Pipe SSAA gleich mit vorgesehen wäre (per Loop Back oder so...) Ist bei ATI offenbar aber nicht, und "herkömmliches" Downfiltering ist eben ohne Gamma-Gegenkorrektur.
Eric Demers hat diese Aussage schon relativiert, Gammakorrektur wäre auch bei Supersampling möglich (denn auch Texturen können bei DX9-Chips gammakorrigiert gefiltert werden (allerdings mit festem Gammawert 2,2).

Ich bin 100% davon überzeugt, dass NVidia im NV40 sowohl AA als auch AF verbessern wird.

aths
2003-11-10, 01:52:35
Original geschrieben von betareverse
... ATI wird imho definitiv bei der AA-Qualität vorne bleiben. "imho" oder "definitiv"???

Original geschrieben von Ailuros
Selbst wenn NV20 einen 10bit RAMDAC hatte, war gamma programmierbar? Wie meinst du das? Wenn man das Gamma nicht einstellen kann, braucht's auch kein Gamma...
Original geschrieben von Xmas
Eric Demers hat diese Aussage schon relativiert, Gammakorrektur wäre auch bei Supersampling möglich (denn auch Texturen können bei DX9-Chips gammakorrigiert gefiltert werden (allerdings mit festem Gammawert 2,2).Ist nur 2,2 Pflicht?? Oder ist "irgendein" Gamma Pflicht? Oder ist das gar keine Pflicht?

Ailuros
2003-11-11, 14:47:40
Nach intensiver herumfragerei bei verschiedenen Leuten sieht es aus dass:

1. Jegliche Form von stochastic sampling noch viel zu teuer fuer heutige Verhaeltnisse und dessen Implemenatierung ist *seufz*.

2. Man fuer die etwas weitergegriffene Zukunft Varianten von puren edge-AA Methoden auch nicht ausschliessen sollte (ohne Matrox's FAA Macken natuerlich).

Ich bin 100% davon überzeugt, dass NVidia im NV40 sowohl AA als auch AF verbessern wird.

Danke Captain Obvious errr sorry Xmas. Dabei hab ich den Thread mit Absicht aufgemacht, damit Leute wie Du sinnvolle Spekulationen vorlegen koennen.

Nur wuerde ich liebend gerne hoeren was (mit dem vorigen NV3x als Grundsatz und moegliche NV4x Spezifikationen) fuer NVIDIA im Bereich von FSAA theoretisch moeglich ist.

Ich wuerde mal sagen dass ATI erstmal sehr wenig im MSAA Bereich aendern wird, ausser dass vielleicht noch 8x sparse dazukommt.

Jetzt mal einen Schritt weiter fuer die weniger "absehbare" Zukunft:

NV hat IMO einen Vorteil im Sinn dass bis jetzt MS und SS gleichzeitig als unabhaengige oder hybride Loesungen vorhanden sind. Ich gehe mal von Eric's und OpenGL guy's Aussagen (im Interview und B3D forums) aus dass es wirklich nicht so leicht sein sollte Supersampling fuer R3xx/PC hinzuzufuegen.

Sollte es notwendig sein in der Zukunft dass stellenweise ab und zu wahlweise SSAA eingesetzt werden muss (alphas, procedural textures usw usw.), habe ich das Gefuehl dass es fuer NV hier leichter sein wird, alleine von der Software bzw. Treiber-Seite her.

10M$ question: was passiert wenn Polygone extrem klein werden in der Zukunft?

Gast
2003-12-06, 12:36:59
Original geschrieben von Ailuros

1. Jegliche Form von stochastic sampling noch viel zu teuer fuer heutige Verhaeltnisse und dessen Implemenatierung ist *seufz*.


Das schon angesprochene Jittered Sampling arbeitet ja auch nicht soo toll.
Random Digit Scrampling bringt recht schnell bessere Ergebnisse als ein festes Grid.
Kennt nur leider kaum jemand und amerikanische Hersteller beschäftigen sich in der Regel auch kaum mit Papern von deutschen Wissenschaftlern :/
Mit 4 oder 6 Samples ist ein festes Grid imo besser....

Danke Captain Obvious errr sorry Xmas. Dabei hab ich den Thread mit Absicht aufgemacht, damit Leute wie Du sinnvolle Spekulationen vorlegen koennen.


Tun sie Doch ;)


Sollte es notwendig sein in der Zukunft dass stellenweise ab und zu wahlweise SSAA eingesetzt werden muss (alphas, procedural textures usw usw.), habe ich das Gefuehl dass es fuer NV hier leichter sein wird, alleine von der Software bzw. Treiber-Seite her.


Begründung?
Zumindest bei procedural textures ist ein Antialiasing bei der Generierung schon möglich und auch sinnvoll. Also Sache der Programmierer.


10M$ question: was passiert wenn Polygone extrem klein werden in der Zukunft?

Dann kriegt Raytracing einen nicht zu unterschätzenden Vorteil gegenüber Rasterizing :D

Hauwech
2003-12-06, 13:29:16
Original geschrieben von Ailuros
*snip*

Jetzt mal einen Schritt weiter fuer die weniger "absehbare" Zukunft:

NV hat IMO einen Vorteil im Sinn dass bis jetzt MS und SS gleichzeitig als unabhaengige oder hybride Loesungen vorhanden sind. Ich gehe mal von Eric's und OpenGL guy's Aussagen (im Interview und B3D forums) aus dass es wirklich nicht so leicht sein sollte Supersampling fuer R3xx/PC hinzuzufuegen.

Sollte es notwendig sein in der Zukunft dass stellenweise ab und zu wahlweise SSAA eingesetzt werden muss (alphas, procedural textures usw usw.), habe ich das Gefuehl dass es fuer NV hier leichter sein wird, alleine von der Software bzw. Treiber-Seite her.

10M$ question: was passiert wenn Polygone extrem klein werden in der Zukunft?

Was ich mich frage ist warum ATI Supersampling auf dem Mac anbietet aber nicht fuer PC. Ist das so schwierig bis unmoeglich in den Treiber einzubauen?
Wie sieht es bei Linux mit Supersampling aus? Dort gibt es unter anderem sogar programmierbare Subpixelpositionen. Auch hier die Frage, warum nicht fuer PC und/oder Mac?

Ich behaupte einfach mal das ATI koennte wenn sie denn wollten aber aus irgendeinem Grund machen sie es nicht. Wenn mal wieder ein Interview ansteht waere das doch mal eine interessante Frage. =)

Winter[Raven]
2003-12-06, 13:45:36
Nun, ich würde auch aus dem Bauch heraus auf Nvidia's NV40 tippen, ich hoffe NVidia wird genung Anstand haben und aus dem Fehler mit R3xx gelernt haben, und somit wieder sehr stark verbessert zurück kommt.

Ich glaube kaum das NV es sich gefallen lässt das ihr AA im Vergleich zu ihrem Konkurenten um einiges "nicht Welten" schlchter kommt und sie somit Kunden verlieren.

GRiNSER
2003-12-06, 14:05:05
Original geschrieben von Hauwech
Was ich mich frage ist warum ATI Supersampling auf dem Mac anbietet aber nicht fuer PC. Ist das so schwierig bis unmoeglich in den Treiber einzubauen?
Wie sieht es bei Linux mit Supersampling aus? Dort gibt es unter anderem sogar programmierbare Subpixelpositionen. Auch hier die Frage, warum nicht fuer PC und/oder Mac?

Ich behaupte einfach mal das ATI koennte wenn sie denn wollten aber aus irgendeinem Grund machen sie es nicht. Wenn mal wieder ein Interview ansteht waere das doch mal eine interessante Frage. =)

Hab mal gelesen, dass es ein wenig viel aufwand wäre, wenn ATi Supersampling in die Windowstreiber integrieren würde, da sie sehr viele Optimierungen [gegen Bildfehler] für die Spiele machen müssten... [spiele gibts ja nicht so zahlreich für Mac]

Hauwech
2003-12-06, 14:31:22
Hmmm guter Punkt GRiNSER :)

Kostet es eigentlich extra Transistoren im Chip um Supersampling ueberhaupt per Treiber anbieten zu koennen?

reunion
2003-12-06, 15:13:25
Original geschrieben von Hauwech
Hmmm guter Punkt GRiNSER :)

Kostet es eigentlich extra Transistoren im Chip um Supersampling ueberhaupt per Treiber anbieten zu koennen?

Nein, SSAA lässt sich einfach per Treiber "freischalten", somit ist theoretisch jede karte in der Lage SSAA anzubieten...

Ailuros
2003-12-06, 16:40:02
Das schon angesprochene Jittered Sampling arbeitet ja auch nicht soo toll.
Random Digit Scrampling bringt recht schnell bessere Ergebnisse als ein festes Grid.
Kennt nur leider kaum jemand und amerikanische Hersteller beschäftigen sich in der Regel auch kaum mit Papern von deutschen Wissenschaftlern :/
Mit 4 oder 6 Samples ist ein festes Grid imo besser....

>16 samples zumindest. Wer hat gesagt dass jegliche Form von stochastic mit weniger als 16 Sinn macht?

Begründung?
Zumindest bei procedural textures ist ein Antialiasing bei der Generierung schon möglich und auch sinnvoll. Also Sache der Programmierer.

Begruendung fuer was? Wieso man stellenweise SSAA einsetzen koennte? Um all die corner-cases zu loesen bei der MSAA/AF Kombinationen Schwaechen zeigen; gross sind die Anteile einer Szene wohl nie und Nebeneffekte auch nicht so oft anzutreffen, also koennen theoretisch ein paar Schuesse SSAA hier und da nicht schaden.

Dann kriegt Raytracing einen nicht zu unterschätzenden Vorteil gegenüber Rasterizing.

Korrekt und was noch? Es geht hier um AA.

Demirug
2003-12-06, 16:59:58
Original geschrieben von reunion
Nein, SSAA lässt sich einfach per Treiber "freischalten", somit ist theoretisch jede karte in der Lage SSAA anzubieten...

Wenn du von OGSSAA redest gebe ich dir im Prinzip recht. Bei 2x2OG würde sich dabei in der Regel aber auch die maximale Auflösung halbieren.

Möchte man was anderes als ein OG muss es in der Hardware schon vorgesehen sein oder man muss die gesamte Geometrie merfach versetzt rendern.

Gast
2003-12-06, 17:26:21
Original geschrieben von Ailuros
>16 samples zumindest. Wer hat gesagt dass jegliche Form von stochastic mit weniger als 16 Sinn macht?


Du sagt Jittered Sampling bringt schon bei bei 16 Samples ein vernünftiges Ergebnis. Nach dieser Aussage behaupte ich dann RDS bringt die selbe Qualität schon oft bei 8 Samples....
Damit wären wir < 10 :)


[B]
Begruendung fuer was? Wieso man stellenweise SSAA einsetzen koennte? Um all die corner-cases zu loesen bei der MSAA/AF Kombinationen Schwaechen zeigen; gross sind die Anteile einer Szene wohl nie und Nebeneffekte auch nicht so oft anzutreffen, also koennen theoretisch ein paar Schuesse SSAA hier und da nicht schaden.


Schaden kann das natürlich nie. Aber es gibt für viele Sachen andere Lösungen als gleich mit BruteForce ranzugehen. Warum sollte man anstatt gleich mit Supersampling anzurücken nicht etwas verwenden, was Antialiasing schon vorher verhindert?
Summed Area Tables wären schonmal ein Ansatz. Nvidia hat über SAT auch auf der letzen GDC einen Vortrag gehalten.....

[B]
Korrekt und was noch? Es geht hier um AA.

Dann spielt Multisampling eh eine untergeordnete Rolle.
Dort gibt es dann sinnvolleren Varianten (siehe auch das Antialiasing, dass von das Pixar verwandt wird)


Dein Unterton könnte übrigens irgendwie freundlicher sein für eine vernünftige Diskussion....

Demirug
2003-12-06, 17:34:32
Original geschrieben von Gast
Summed Area Tables wären schonmal ein Ansatz. Nvidia hat über SAT auch auf der letzen GDC einen Vortrag gehalten.....

Bei Pixelshading Kanten nutzt SAT aber leider auch nicht. Wenn ich wählen könnte hätte ich gerne noch einen Subpixel-Shader. Also ein kleines Programm das man pro Subpixel laufen lassen kann. Dann könnte man ohne Problem den Aufwendigen Teil pro Pixel rechnen und zum Beispiel nur den Wert für den Alpha-Test pro Subpixel ermitteln. Dazu fallen mir dann auch noch ein paar Optimierungen ein.

zeckensack
2003-12-06, 17:35:57
Original geschrieben von Demirug
Bei Pixelshading Kanten nutzt SAT aber leider auch nicht. Wenn ich wählen könnte hätte ich gerne noch einen Subpixel-Shader. Also ein kleines Programm das man pro Subpixel laufen lassen kann. Dann könnte man ohne Problem den Aufwendigen Teil pro Pixel rechnen und zum Beispiel nur den Wert für den Alpha-Test pro Subpixel ermitteln. Dazu fallen mir dann auch noch ein paar Optimierungen ein. Ich will zuerst mal einen Downfilter-Shader ;)

Demirug
2003-12-06, 17:41:00
Original geschrieben von zeckensack
Ich will zuerst mal einen Downfilter-Shader ;)

Schnauze voll von "Kein AA bei Fullschreen Effekten"?

Gast
2003-12-06, 17:42:34
Original geschrieben von Demirug
Bei Pixelshading Kanten nutzt SAT aber leider auch nicht. Wenn ich wählen könnte hätte ich gerne noch einen Subpixel-Shader. Also ein kleines Programm das man pro Subpixel laufen lassen kann. Dann könnte man ohne Problem den Aufwendigen Teil pro Pixel rechnen und zum Beispiel nur den Wert für den Alpha-Test pro Subpixel ermitteln. Dazu fallen mir dann auch noch ein paar Optimierungen ein.

Direkt leider nicht. Mir würden zwar Lösungen einfallen, aber die sind grotten lahm. Ist aber nicht gesagt, dass jemand der sich damit länger beschäftigt nicht eine sinnvolle Lösung findet :)
Lösungen gibts auf jeden Fall. Sie müssen halt nur gefunden werden ;)

Xmas
2003-12-06, 17:55:23
Original geschrieben von Ailuros
Danke Captain Obvious errr sorry Xmas. Dabei hab ich den Thread mit Absicht aufgemacht, damit Leute wie Du sinnvolle Spekulationen vorlegen koennen.

Nur wuerde ich liebend gerne hoeren was (mit dem vorigen NV3x als Grundsatz und moegliche NV4x Spezifikationen) fuer NVIDIA im Bereich von FSAA theoretisch moeglich ist.
Was sind schon sinnvolle Spekulationen? Denkbar wäre fast alles mögliche, was so in den letzten Jahren erforscht und realisiert wurde.

Am wahrscheinlichsten ist es IMO, dass NVidia auch Sparse Grid MSAA, gammakorrigiert und bis zu 8 Samples einbaut. Aber auch FAA, Z3, oder sowas wie 3Dlabs SuperScene AA sind möglich.

Beim AF ist es wohl unzweifelhaft dass 16x reinkommt, aber ob jetzt bei der LOD-Bestimmung wie gespart wird, ob Texram, Feline, Escalante, Fast Footprint Mipmapping oder sonst irgendwas verwendet wird, bleibt wohl eine Überraschung.

Ailuros
2003-12-07, 04:35:59
Dann spielt Multisampling eh eine untergeordnete Rolle.
Dort gibt es dann sinnvolleren Varianten (siehe auch das Antialiasing, dass von das Pixar verwandt wird)

Genau und um das ging es mir auch; zwar viel zu weit in die Zukunft gegriffen, aber obwohl ich momentan MSAA gegenueber SSAA bevorzuge, ist es mir klar dass die erste nur eine temporaere Leistungs-optimierte Loesung ist.

Am wahrscheinlichsten ist es IMO, dass NVidia auch Sparse Grid MSAA, gammakorrigiert und bis zu 8 Samples einbaut. Aber auch FAA, Z3, oder sowas wie 3Dlabs SuperScene AA sind möglich.

Beim AF ist es wohl unzweifelhaft dass 16x reinkommt, aber ob jetzt bei der LOD-Bestimmung wie gespart wird, ob Texram, Feline, Escalante, Fast Footprint Mipmapping oder sonst irgendwas verwendet wird, bleibt wohl eine Überraschung.

Das klingt schon besser als nur eine generelle Notiz dass sie Algorithmen aendern bzw. verbessern werden. Ich draengel ja nur zu einer genaueren Meinung, genau weil ich die Meinung von gewissen Leuten auch dementsprechend schaetze.

Halbwegs OT Frage (und nicht dass Cel-Shading wohl oefters benuetzt werden wird...): kann es sein dass gamma-correction nicht sehr viel bringt mit Cel-shading? XIII sieht mir zumindest selbst in hohen Aufloesungen mit 4x sparse "merkwuerdig" aus; nebenbei ist es das erste Spiel wo mir die AF-Winkelabhaengigkeit so stark in's Auge haut bei merkwuerdigen Winkeln. In manchen Stellen ein absolutes moire-fest.

***edit:

Beispiel...

http://users.otenet.gr/~ailuros/XIIIb.JPG