PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Fast 100% sicher, dass NV 30 mit 128 bit Interface


egdusp
2002-11-12, 19:02:45
Laut einem Interview mit David Kirk von
http://www.hardwareaccelerated.com/
"We’ll move to 256bit when we feel that the cost and performance balance is right."

mfg
egdusp

Eusti
2002-11-12, 19:10:50
Originally posted by egdusp
"We’ll move to 256bit when we feel that the cost and performance balance is right."Was dann in der Schlussfolgerung heisst: "Wenn NVidia es für günstig genug hält, kommt der NV30 mit 256bit" ;)

Ficus
2002-11-12, 19:33:24
...oder mit 2x 128 ;)

DrFreaK666
2002-11-12, 19:36:54
Originally posted by Eusti
Was dann in der Schlussfolgerung heisst: "Wenn NVidia es für günstig genug hält, kommt der NV30 mit 256bit" ;)

ich glaub kaum, dass Nvidia extra dann ne 256bit-NV30 bauen wird.
Die meinen damit bestimmt dann die nachfolger

Muh-sagt-die-Kuh
2002-11-12, 20:08:43
Wenn der NV30 nur ein 128 bit Interface hat, dürfte es für ATI extrem einfach sein, die Leistungskrone (sollten sie sie denn überhaupt abgeben...) zurückzuerobern.....ein R300 mit 500 mhz DDR-II Speicher würde schon reichen.

StefanV
2002-11-12, 20:08:46
Originally posted by Ficus
...oder mit 2x 128 ;)
Wie du hier (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=40183) siehst, ist es Blödsinn, was du hier vorschlägst, da NV atm schon ein 4x32bit BUS nutzt, ATI bei der 9700 4x64bit...

nggalai
2002-11-12, 20:12:09
fast 100% Sicher = Spekulationsforum. ;)

ta,
-Sascha.rb

Richthofen
2002-11-12, 20:30:13
"
Wenn der NV30 nur ein 128 bit Interface hat, dürfte es für ATI extrem einfach sein, die Leistungskrone (sollten sie sie denn überhaupt abgeben...) zurückzuerobern.....ein R300 mit 500 mhz DDR-II Speicher würde schon reichen.
"

Die Frage ist ob Nvidia den NV30 nicht doch schon für mehr ausgelegt hat nur es für nicht notwendig hält.
Es könnte genauso gut sein, das sie entweder mit schnellerem RAM oder dann doch mit einer Powerausführung kontern.
Die Frage ist auch wieviel ATI und Nvidia das wert ist - finanziell meine ich.

StefanV
2002-11-12, 20:39:50
Originally posted by Richthofen
"
Wenn der NV30 nur ein 128 bit Interface hat, dürfte es für ATI extrem einfach sein, die Leistungskrone (sollten sie sie denn überhaupt abgeben...) zurückzuerobern.....ein R300 mit 500 mhz DDR-II Speicher würde schon reichen.
"

Die Frage ist ob Nvidia den NV30 nicht doch schon für mehr ausgelegt hat nur es für nicht notwendig hält.
Es könnte genauso gut sein, das sie entweder mit schnellerem RAM oder dann doch mit einer Powerausführung kontern.
Die Frage ist auch wieviel ATI und Nvidia das wert ist - finanziell meine ich.


Hoch lebe nVidia, sie leben hoch, 3x hoch


Ach, bei NV ist so vorrausdenken, die haben für alles 'ne Antwort, was??

Und warum überlassen sie ATI schon seit mittlerweile 3 Monaten den enorm wichtigen High End Markt??
Vielleicht haben sie doch nix anzubieten?

Außerdem:

Schonmal dran gedacht, daß ATI noch 'etwas' Reserven bei der R300 hat und 'mal eben' mit 'ner Ultra Version kontern könnten, wenn sie denn wollten??

Fazit:

Für NV schauts momentan nicht sonderlich gut aus...

Pussycat
2002-11-12, 20:51:43
Das Stück finde ich das beste:

I believe that a well- designed graphics architecture puts all of the transistors in all of the right places.

Ach ja, wer keine Lust hat sich den quote zu suchen:


A wider memory interface is one way to increase bandwidth, but there are other ways. As you mention, DDR2 is another way of building a higher throughput memory system. I think that DDR2 is going to be really exciting for the graphics community, since it brings the potential of more memory bandwidth per signal pin. This is a good trend, regardless of how many bits wide the datapath is!

We’ll move to 256bit when we feel that the cost and performance balance is right.

aths
2002-11-12, 20:56:26
- ATIs derzeitiges Interface ist von der effektiven Leistung her auch mit 128 Bit Breite zu toppen, selbst wenn man keinen Tiler hat.

- ATI bleibt der Weg, einfach schnellere RAMs zu verbauen.

- Wenn nVidia ihr erstes 256-Bit-Interface auf den Markt bringt, haben Matrox und ATI schon die 2. Karten-Generation mit 256 Bit anzubieten.

- Speicherbandbreite ist wichtig, aber nicht alles. Dank spezieller FSAA-Techniken, die wirklich nur die Kanten bearbeiten und nicht das gesamte Bild beackern (GF4 glättet bei z.B. 4x nur die Kanten, arbeitet aber effektiv mit 4 Bildern) ist die Geschwindigkeit eines guten Chips mit schnellen 128-Bit-DDR-Bausteinen durchaus ok.

- Eine besondere Leistung ist der NV30 nicht. DX9? Hat Radeon9700 schon längst. Tausende Instruktionen für den PixelShader? Nutzt in der Lebenszeit der Karte sowieso kein Spiel.

- ATI führte mit Radeon9700 eine wirkliche neue Leistungs- und Featureklasse ein. Auch wenn NV soviel Wert auf die Technik legt: Nüchtern betrachtet ist der NV30 technisch imo ein kleinerer Sprung als von GeForce3 zu Radeon8500.

robbitop
2002-11-12, 21:07:21
laut Speku kein wirklich revolutionäres FSAA/AF...sondern nur etw. verbessert...ausser cineFX is das Teil nix wirklich dolles...wenn die Spekus stimmen....

ich hätte mir gewünscht dass das FSAA dank 3dfxlern besser und schnller würde oder ne Art FAA und schnelles AF..wenn man FAA hätte wäre die R300 zu toppen.

zeckensack
2002-11-12, 21:10:52
Originally posted by robbitop
...ausser cineFX is das Teil nix wirklich dolles...
Ich sag's gerne nochmal:

CineFX = NV30

Genauso wie
HRAA = Multisampling in speziellen Ausprägung der Gf4Ti
oder
LMA = CBMC + Early-Z

Der oben zitierte Teil deines Satz oben ist also - sorry - völlig inhaltslos ;)

robbitop
2002-11-12, 21:18:18
@ Z-Bag sorry, ich vergas ;)

nein ich meine damit die Monster PS/VS die zu lebzeiten quark sind...

aths
2002-11-12, 21:27:09
Originally posted by robbitop
laut Speku kein wirklich revolutionäres FSAA/AF...sondern nur etw. verbessert... Ich erwarte, dass sie - wie ATI - eine Art Differenzbuffer-Technik (gerne als Framebuffer-Komprimierung umschrieben) verwenden. Auch würde es langsam Zeit für 4x RGAA.

robbitop
2002-11-12, 21:32:37
wie wäre es mit 16x OG Edge FAA ???

das wäre ma ne Entwicklung (geht da auch eine FramebuffeKompression?)
wenn ja das auch noch :D

Exxtreme
2002-11-12, 21:42:48
Originally posted by robbitop
wie wäre es mit 16x OG Edge FAA ???


Naja, 16 OG ist nicht wirklich viel besser als 4x RG. ATis 6x SMOOTHVISION2 (all CAPS!) dürfte besser glätten als 16x OG.

robbitop
2002-11-12, 22:06:02
naja 4xOG sieht auch besser aus als 2xRG...auch wenn nicht viel...
aber ich meinte an sich 16xRG ..(hab aus versehen OG geschrieben)...

ausserdem kommt es auf den zu glättenden Winkel an..aber schau dir ma die MGA Präsentation an, und dort sehen die geglätteten Kanten extrem gut aus..ausserdem kaum Leistungsverlust...

Ailuros
2002-11-12, 22:19:43
Was Fragment AA betrifft, wuerde ich eher raten dass IHV's auf solche Techniken mindestens eine Generation spaeter als R300/NV30 anwenden werden (wenn ueberhaupt; und ich meine nicht R350 oder NV35).

Ailuros
2002-11-12, 22:23:55
laut Speku kein wirklich revolutionäres FSAA/AF...sondern nur etw. verbessert

Revolutionaer ist sowieso relativ heutzutage. Voruebergehend bleiben IHV's immer noch auf den bekannten super/multisampling Algorithmen. Da kann's eigentlich nur Evolutionen geben ;)

egdusp
2002-11-12, 23:02:41
Originally posted by Ailuros


Revolutionaer ist sowieso relativ heutzutage. Voruebergehend bleiben IHV's immer noch auf den bekannten super/multisampling Algorithmen. Da kann's eigentlich nur Evolutionen geben ;)

Es gab da mal eine alte Powerpoint Präsentation von David Kirk, AFAIR zur Vorstellung des GF3. In dieser hat er die Reihenfolge SSAA, MSAA, FAA beschrieben. Seit dem sind ca. 2 Jahre vergangen, eine Realisierung des FAA wäre in dieser Zeit ohne Probleme möglich gewesen. Einen Zeitraum von 2 Jahren kann man auch kaum vorübergehend nennen.


mfg
egdusp

mapel110
2002-11-12, 23:12:32
Originally posted by aths
- ATIs derzeitiges Interface ist von der effektiven Leistung her auch mit 128 Bit Breite zu toppen, selbst wenn man keinen Tiler hat.

- ATI bleibt der Weg, einfach schnellere RAMs zu verbauen.

- Wenn nVidia ihr erstes 256-Bit-Interface auf den Markt bringt, haben Matrox und ATI schon die 2. Karten-Generation mit 256 Bit anzubieten.

- Speicherbandbreite ist wichtig, aber nicht alles. Dank spezieller FSAA-Techniken, die wirklich nur die Kanten bearbeiten und nicht das gesamte Bild beackern (GF4 glättet bei z.B. 4x nur die Kanten, arbeitet aber effektiv mit 4 Bildern) ist die Geschwindigkeit eines guten Chips mit schnellen 128-Bit-DDR-Bausteinen durchaus ok.

- Eine besondere Leistung ist der NV30 nicht. DX9? Hat Radeon9700 schon längst. Tausende Instruktionen für den PixelShader? Nutzt in der Lebenszeit der Karte sowieso kein Spiel.

- ATI führte mit Radeon9700 eine wirkliche neue Leistungs- und Featureklasse ein. Auch wenn NV soviel Wert auf die Technik legt: Nüchtern betrachtet ist der NV30 technisch imo ein kleinerer Sprung als von GeForce3 zu Radeon8500.

full ack

mfg mapel110

Demirug
2002-11-12, 23:17:13
Originally posted by egdusp


Es gab da mal eine alte Powerpoint Präsentation von David Kirk, AFAIR zur Vorstellung des GF3. In dieser hat er die Reihenfolge SSAA, MSAA, FAA beschrieben. Seit dem sind ca. 2 Jahre vergangen, eine Realisierung des FAA wäre in dieser Zeit ohne Probleme möglich gewesen. Einen Zeitraum von 2 Jahren kann man auch kaum vorübergehend nennen.


mfg
egdusp

AFAIK sind diese Folien schon wesentlich älter. Es müste ein Keynode vortrag für eine Computergrafik conferenz gewessen sein und zwar noch vor dem NV20. Auf der Folien sind verschiedene AA ansätze in der rheinfolge brute force zu intelegent aufgeführt. Also von SuperSampling über Multisample zu einen Fragment Ansatz oder vollständige A-Buffer.

Quasar
2002-11-12, 23:55:12
Originally posted by zeckensack
HRAA = Multisampling in speziellen Ausprägung der Gf4Ti
oder
LMA = CBMC + Early-Z

HRAA = Multisampling in speziellen Ausprägung der GF3(+Ti),
Das FSAA der GF4 nennt sich offiziell Accuview ;)

LMA = CBMC + Early-Z [+Lossless Z-Compression + AutoPreCharge + QuadCache +Fast Z-Clear]
;)

Quasar
2002-11-12, 23:57:13
Originally posted by aths
Nüchtern betrachtet ist der NV30 technisch imo ein kleinerer Sprung als von GeForce3 zu Radeon8500.

Das hätte ich gern mal ausführlich erklärt und begründet..... :)

Sir Integral Wingate Hellsing
2002-11-13, 01:01:39
da das nen speku-thread ist:
http://www.ati-news.de/HTML/news.shtml <= R9700 "ULTRA" by Tyan @ 400MHz GPU ;)

ich denke da geht selbst mit der 0,15µm R300 noch einiges...

EDIT: Pic added (by The Inquirer)


http://www.theinquirer.net/images/articles/tacky.jpg

zeckensack
2002-11-13, 01:07:48
Originally posted by Quasar

HRAA = Multisampling in speziellen Ausprägung der GF3(+Ti),
Das FSAA der GF4 nennt sich offiziell Accuview ;)Oink! Mein Fehler :D
LMA = CBMC + Early-Z [+Lossless Z-Compression + AutoPreCharge + QuadCache +Fast Z-Clear]
;) War die komplette Liste nicht erst LMA2?

aths
2002-11-13, 01:18:19
Originally posted by zeckensack
Oink! Mein Fehler :D
War die komplette Liste nicht erst LMA2? Precharge, QuadCache und Fast Z Clear sind neu in LMAA2.

aths
2002-11-13, 01:23:31
Originally posted by Quasar
Das hätte ich gern mal ausführlich erklärt und begründet..... :) Ich hab heute ein mathe-praktikum abgerechnet (das nächste wird aufwändiger als das erste und zweite zusammen) und ein SOE-Projekt vorverteidigt. Bis nächste Woche muss ich in 8086-ASM ein Programm schreiben. Kurz, ich hab den Kopf voll und keine Zeit für ausführliche Erklärungen und Begründungen. Daher nur die Kurzform:

NV30-Shader = R300-Shader mit erweitertem Instruction-Count. (Es gibt auch ein paar zusätzliche Befehle, aber das ist weniger wichtig.)

PixelShader 1.4 = "Halber Weg" zu PS.2.0, während PS.1.1 nur ein besserer Register Combiner (mit 4 Texturen) ist.

GF3: 8-Bit-Rendering mit 1 Vorzeichenbit, Radeon8500: Overbright Lighting, erweiterte Fixpunktgenauigkeit.

aths
2002-11-13, 01:35:19
Originally posted by robbitop
naja 4xOG sieht auch besser aus als 2xRG...auch wenn nicht viel...
aber ich meinte an sich 16xRG ..(hab aus versehen OG geschrieben)...16x RG macht nicht wirklich Sinn.

Unreal Soldier
2002-11-13, 02:03:25
Alles gut und schön was hier über FAA oder RGAA MSAA gesprochen wird, aber imHO meine Frage ist (und dazu ärgere ich mich sehr):

WARUM KOMMT DENN NICHT 8xRGAA ENDLICH IM MARKT???
DIESES VERFAHREN FÜR AA WAR SEIT DER V5 6000 DRIN ???
WARUM MÜSSEN WIR 2 JARE WARTEN BIS WIR DIE DAMALIGE 3DFX-AA_QUALITÄT ERST JETZT ZU SEHEN BEKOMMEN????

Na Leute es doch zum Kotzen wenn man bedenkt dass 8xRGAA noch von keiner Karte geboten wird. Obwohl die Qualität dieses Verfahren so viel ich weiß zu den besten zählt oder täusche ich mich.

MfG
Unreal Soldier

Unregistered
2002-11-13, 09:19:09
Originally posted by Unreal Soldier

WARUM KOMMT DENN NICHT 8xRGAA ENDLICH IM MARKT???
DIESES VERFAHREN FÜR AA WAR SEIT DER V5 6000 DRIN ???
WARUM MÜSSEN WIR 2 JARE WARTEN BIS WIR DIE DAMALIGE 3DFX-AA_QUALITÄT ERST JETZT ZU SEHEN BEKOMMEN????



Auf den 3dfx Karten ist AA eh nicht nutzbar, weil VIEL zu langsam. Also was soll dieses Geschreie??
Und Gamma-korrigiert ist das AA bei 3dfx auch nicht.
AA in 3dfx Quali mit brauchbarer Geschwindigkeit gibt es seit der GF3.

Unregistered
2002-11-13, 12:06:18
Originally posted by aths
16x RG macht nicht wirklich Sinn.

sehe ich auch so.

Z3 oder Z3+SA's Verbesserungen, die er im Beyond3D-Forum diskutiert hat sind wesentlich besser (und viel schneller als 16xRGMS)

Link:
http://www.beyond3d.com/forum/viewtopic.php?t=994&start=0&postdays=0&postorder=asc&highlight=

StefanV
2002-11-13, 13:52:30
Originally posted by Unregistered


Auf den 3dfx Karten ist AA eh nicht nutzbar, weil VIEL zu langsam. Also was soll dieses Geschreie??
Und Gamma-korrigiert ist das AA bei 3dfx auch nicht.
AA in 3dfx Quali mit brauchbarer Geschwindigkeit gibt es seit der GF3.

Quatsch!

Die meisten damaligen Spiele ließen sich bei 1024x768@16bit durchaus mit 2xFSAA spielen!

Und das 'nur' mit 'ner V5/5500, die V5/6000 hätte da noch einen drauf gelegt, die wäre mit 2x FSAA so schnell wie die 5500 ohne FSAA!!

Denn wie man aus den Benches von V5/5500 zu V4/4500 mit/ohne FSAA weiß, ist der VSA-100 mit 2 Chips bei 2x FSAA so schnell wie ein einzelner VSA-100 ohne FSAA...

MeLLe
2002-11-13, 15:12:39
Full ack.

Auf meiner V5-6000 ist 4xFSAA durchaus sehr gut in Auflösungen bis 1024x768x32bit nutzbar. Die Qualität ist bis heute praktisch kaum erreicht (die AA-Quali wohlgemerkt. AF lassen wir mal außen vor.). 8xFSAA ist in 800x600x32bit gut zu verkraften, wie eben 4xFSAA auf einer V5-5500. Und was Du da (in 8xFSAA) zu sehen bekommst, kann ich nicht beschreiben. Nur ein Wort: smooth...

Unregistered
2002-11-13, 18:50:03
Originally posted by MeLLe
Full ack.

Auf meiner V5-6000 ist 4xFSAA durchaus sehr gut in Auflösungen bis 1024x768x32bit nutzbar. Die Qualität ist bis heute praktisch kaum erreicht (die AA-Quali wohlgemerkt. AF lassen wir mal außen vor.). 8xFSAA ist in 800x600x32bit gut zu verkraften, wie eben 4xFSAA auf einer V5-5500. Und was Du da (in 8xFSAA) zu sehen bekommst, kann ich nicht beschreiben. Nur ein Wort: smooth...


Das FSAA der R9700 ist derzeit der Masstab und das ist besser als das von 3dfx dank Gammkorrektur.

4xFSAA auf einer V5500 kann man vergessen, das geht vielleicht bei ganz alten Spielen noch oder in sehr niedrigen Auflösungen. Für aktuellere Games ist doch die Rohleistung der V5500 oder 6000 schon zu gering.

Und verwaschene Texturen können mir auch gestohlen bleiben oder wo ist das AF der Voodoos?

Ich habe nichts gegen 3dfx, aber deren Zeit ist lange vorbei und an heutigen Verhältnissen gemessen sind die Karten einfach langsam.

robbitop
2002-11-13, 18:56:16
man bedenke das alter der VSA100 Chips...
und ausserdem solten sie zur Selben Zeit mit der GF1 rauskommen...und die 6000er war jeder Ultra überlegen und MIT FSAA sowieso..3dfx war in entscheidenden Sachen seiner Zeit vorraus, nur leider verzögerten sich die Sachen zu doll.

man bedenke Ende 1999 war an sich der Rampage mit VS/PS geplant...also der GF3 Konkurrent zur GF1 Launch...

Skinner
2002-11-13, 19:18:59
löl hier gibt es ganz viel spekulatius ;D

Ich liebe es wenn viel spekuliert wird, und am ende hat eh keiner recht ;) Also sage ich einfach mal: abwarten und tee trinken :D

StefanV
2002-11-13, 19:33:13
Originally posted by robbitop
man bedenke das alter der VSA100 Chips...
und ausserdem solten sie zur Selben Zeit mit der GF1 rauskommen...und die 6000er war jeder Ultra überlegen und MIT FSAA sowieso..3dfx war in entscheidenden Sachen seiner Zeit vorraus, nur leider verzögerten sich die Sachen zu doll.

man bedenke Ende 1999 war an sich der Rampage mit VS/PS geplant...also der GF3 Konkurrent zur GF1 Launch...

1. mit FSAA hat sogar die V5/5500 die GF2 ULTRA 'zerlegt'...

2. AF braucht der VSA-100 nicht, da Supersampling in etwa den gleichen Effekt hat.

3. Supersampling glättet mehr als Multisampling.

4. das FSAA der Voodoo gehört zum besten, was ich jeh gesehen hab.

5. 4x RGSAA hat KEINE andere GPU außer dem VSA-100, die Radeon 9700 ist die erste Karte, die 4x RGMSAA kann, die Geforce können nur 4xOGMSAA und 2xRGMSAA...

robbitop
2002-11-13, 19:36:54
@Stefan
damit erzählst du MIR nix neues ;-)

StefanV
2002-11-13, 19:49:54
Originally posted by robbitop
@Stefan
damit erzählst du MIR nix neues ;-)

i know ;)

Aber anscheinend ist es dem gast nicht so ganz bekannt, wie innovativ im Bereich FSAA der VSA-100 war...

robbitop
2002-11-13, 19:52:36
deshalb uA liebte ich 3dfx ja so sehr ...heutzutage wird FSAA nur noch auf Kantenglättung beschränkt..schade....

ich liebe neben Speed eben noch Innovation in der GPU...und die VSA100 hatte noch ein paar nette effekte ..motion blur uA...

Ailuros
2002-11-13, 20:37:25
Es gab da mal eine alte Powerpoint Präsentation von David Kirk, AFAIR zur Vorstellung des GF3. In dieser hat er die Reihenfolge SSAA, MSAA, FAA beschrieben. Seit dem sind ca. 2 Jahre vergangen, eine Realisierung des FAA wäre in dieser Zeit ohne Probleme möglich gewesen. Einen Zeitraum von 2 Jahren kann man auch kaum vorübergehend nennen.

Obwohl Demirug schon darauf geantwortet hat, hier eine Kleinigkeit von 1998 (Aniso lass ich mal weg voruebergehend ;) ) :

http://users.otenet.gr/~ailuros/AA.gif

Ich kann zwar nicht wissen fuer welche Methode sich jeder IHV in der Zukunft entscheiden wird, aber Forschungen werden nie aufgegeben....

Ailuros
2002-11-13, 20:43:21
Full ack.

Auf meiner V5-6000 ist 4xFSAA durchaus sehr gut in Auflösungen bis 1024x768x32bit nutzbar. Die Qualität ist bis heute praktisch kaum erreicht (die AA-Quali wohlgemerkt. AF lassen wir mal außen vor.). 8xFSAA ist in 800x600x32bit gut zu verkraften, wie eben 4xFSAA auf einer V5-5500. Und was Du da (in 8xFSAA) zu sehen bekommst, kann ich nicht beschreiben. Nur ein Wort: smooth...

Kein Kommentar zur Qualitaet, jedoch hab ich so einige Zweifel was smooth mit 32bpp betrifft. Colourless ist mehr oder weniger bekannt und wie er seine V5 6000 bekam, daher auch der folgende Screenshot mit 8xRGSS. Lass mich mal raten mit 4xRGSS ist die Geschwindigkeit doppelt so hoch. :rolleyes:

http://users.otenet.gr/~ailuros/Colourless.jpg

robbitop
2002-11-13, 20:51:11
was is dieses sache mit dem ABuffer? kann das ma jmd erklären?

is das besser als Edge FAA?

Ailuros
2002-11-13, 20:51:26
Originally posted by robbitop
deshalb uA liebte ich 3dfx ja so sehr ...heutzutage wird FSAA nur noch auf Kantenglättung beschränkt..schade....

ich liebe neben Speed eben noch Innovation in der GPU...und die VSA100 hatte noch ein paar nette effekte ..motion blur uA...

Theoretisch koennte man einen Supersampling Algorithm so modifizieren dass Texturen bis zu 32-tap anisotropic Qualitaet gefiltert werden, was RGSS noch idealer machen wuerde. Leider stellt Supersampling zu hohe Ansprueche was Fuellrate/Bandbreite betrifft. Wenn Supersampling dann waer mir dann ein Tiler doch schon lieber.

Nichtdestotrotz obwohl 3dfx Gigapixel aufkaufte um einen Tiler auf den Markt zu bringen, hatte sowie Spectre als auch Fear (3dfx/GP Tech-combo) Multisampling, via den sogenannten M-Buffer.

Motion blur ist moeglich entweder durch temporal oder spatal AA oder auch Vertex Shader heutzutage.

FormatC
2002-11-13, 20:53:03
Ich glaube er hatte mit "smooth" die Kantenglättung beschrieben, nicht die FPS. ;)

robbitop
2002-11-13, 20:53:28
ja denn SS wäre aus performance sicht ein erheblicher PR Nachteil gewesen..aber who knowes vieleicht wollten sie es parallel anbeiten?

Ailuros
2002-11-13, 20:53:48
Originally posted by robbitop
was is dieses sache mit dem ABuffer? kann das ma jmd erklären?

is das besser als Edge FAA?

3dfx's T-Buffer (T nach Gary Tarolli), ist auch ein A(ccumulation) Buffer der von SGI's A-buffer Implementation stammt.

Ailuros
2002-11-13, 21:00:33
Originally posted by FormatC
Ich glaube er hatte mit "smooth" die Kantenglättung beschrieben, nicht die FPS. ;)

Auf meiner V5-6000 ist 4xFSAA durchaus sehr gut in Auflösungen bis 1024x768x32bit nutzbar. Die Qualität ist bis heute praktisch kaum erreicht (die AA-Quali wohlgemerkt. AF lassen wir mal außen vor.). 8xFSAA ist in 800x600x32bit gut zu verkraften, wie eben 4xFSAA auf einer V5-5500. Und was Du da (in 8xFSAA) zu sehen bekommst, kann ich nicht beschreiben. Nur ein Wort: smooth...

Ich persoenlich war in der Mehrheit von Spielen auf 2xRGSS in 1024x768x16 oder niedrigeren Aufloesungen mit 32bpp mit der V5 5k5 limitiert. 4xRGSS in 1024 (egal welche Farbtiefe) war eher eine Ausnahme als die Regel. Ideal fuer racing/flight sims im Jahr 2000.

Demirug
2002-11-13, 21:05:55
Originally posted by robbitop
was is dieses sache mit dem ABuffer? kann das ma jmd erklären?

is das besser als Edge FAA?

Von der Qualität gibt es im Prinzip keinen unterschied zwischen Edge FAA (richtiges nicht die Matrox Version) und dem Einsatz von A Buffern. In beiden Fällen bestimmt die anzahl der Samples und die anordnung die Qualität.

A-Buffer funktionieren nun noch folgenden Prinzip. Jedes Fragment wird erst mal ganz normal gerendert. Der Unterschied liegt nun beim schreiben in den Backbuffer. Es wird jedes Fragment mit Farbinformation, Z-Plane des Fragments und abdeckung des Pixels gespeichert. Wenn der Frame komplett ist werden für jeden Pixel alle gespeicherten Samples wieder eingeladen und zum endpixel zusammengesetzt. Das ganze ist einem DR-Tiler nicht unähnlich.

Der Einsatz von ABuffer in Hardware wird allgemein als kompliziert sowie Bandbreiten und speicher intensiv angesehen.

Es wären allerdings durchaus modifikationen am grundverfahren möglich die es erlauben den speicherverbrauch und die Bandbreite im Rahmen zu halten. Das Z3 Verfahren ist eine solche Variation. Allerdings geht dieses Verfahren auch einige Kompromisse ein.

robbitop
2002-11-13, 21:07:25
also ist der TBuffer ein A Buffer?

oder kann mir jmd mehr erzählen?

wäre also Edge FAA das bisher am effektivste AA???

Ailuros
2002-11-13, 21:09:29
Dafuer waere aber eine Kombination von Z3 und FAA nicht mal eine schlechte Idee. ;)

Demirug
2002-11-13, 21:12:01
robbitop:

Das problem mit A Buffern ist das es zwei bedeutungen für diesen Begriff gibt:

1. Den A(ccumulation) Buffer von OpenGL
2. Den A-Buffer für das entsprechende AA-Verfahren. Da dieses aber derzeit keine rolle spielt ist diese beutung untergeordnet.

robbitop
2002-11-13, 21:12:41
Z3 ???

verdammt was is das?

vieleicht ein FAA mit glättung aller Polygonkannten

robbitop
2002-11-13, 21:13:55
@Demi danke aber nur Schlagworte helfen mir nicht viel, wie wäre es mit einer kleinen Erklärung? auch bitte für Z3...

die Grösse des A Buffers bestimmt sicher die Performance?

Demirug
2002-11-13, 21:14:33
Originally posted by Ailuros
Dafuer waere aber eine Kombination von Z3 und FAA nicht mal eine schlechte Idee. ;)

??? Was bringt das den? Ich kann mir im Moment gerade nicht vorstellen wie das eine vom anderen profitieren könnte.

Ailuros
2002-11-13, 21:18:19
Originally posted by robbitop
also ist der TBuffer ein A Buffer?

oder kann mir jmd mehr erzählen?

wäre also Edge FAA das bisher am effektivste AA???

Ja Tbuffer ist eine A-Buffer. Aus historischen Gruenden hier zwei Ausschnitte aus dem nie veroeffentlichten 3dfx-Glossary 2000:

T-Buffer™ : The T-Buffer allows several key digital effects for improving photorealism in real-time 3D graphics rendering. The primary purpose of 3dfx's T-Buffer technology is to improve image quality. The challenge is exactly how to narrow this gap between computer-generated 3D graphics and what users typically see in real life, photography, and motion pictures. The T-Buffer attempts to narrow the gap considerably by offering real-time hardware acceleration of spatial anti-aliasing, motion blur, depth of field, and some other closely-related effects.

M-Buffer™ : "M" stands for multi-sample. While the VSA-100 FSAA algorithm (aka T-Buffer) relies on super-sampling FSAA method (where a unique texture lookup is performed per subsample), in the multi-sampling method, used by Spectre, only one texture lookup per *pixel* (so that all subsamples use the same texture lookup value) is required. This is an optimization that the workstation folks have done for years, and is visually unnoticeable. However, it reduces the amount of texture lookup by a factor of 4 compared to the VSA-100 method, so the performance for the Spectre M-buffer method is therefore much better.

Wieso sollte edge-AA das effektiveste AA sein? Es hat zwei grosse Vorteile:

a) Um so einiges schneller

b) Erlaubt hoehere Anzahl an Samples wegen a)

Effektiver waere es meiner Meinung dann nur wenn es mit texture aliasing, pixel popping oder moire helfen wuerde.

Ailuros
2002-11-13, 21:19:58
Originally posted by Demirug


??? Was bringt das den? Ich kann mir im Moment gerade nicht vorstellen wie das eine vom anderen profitieren könnte.

Z3 (modifiziert) nicht fuer die ganze Szene... ;)

robbitop
2002-11-13, 21:21:06
was wieder performance rauben würde und uns zurück zu SSAA bringt ;-)

robbitop
2002-11-13, 21:21:35
was ist Z3?

Demirug
2002-11-13, 21:24:28
Originally posted by robbitop
@Demi danke aber nur Schlagworte helfen mir nicht viel, wie wäre es mit einer kleinen Erklärung? auch bitte für Z3...

die Grösse des A Buffers bestimmt sicher die Performance?

Zu Z3 habe ich schon was gepostet: http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=27872

Was hast du bei bei dem A-Buffer AA noch nicht verstanden?

Die grösse ist ja bei den Verfahren eines der Probleme da man vorher nie sagen kann wie viele AA-Samples in dem Buffer gespeichert werden müssen. Minimal sind es so viele Samples wie Punkte auf dem Bildschirm. Umd die Anzahl der benötigten Buffergrösse zu bestimmen müsste man im vorfeld schon wissen wie viele Pixel jedes Dreieck bedeckt und daraus die Summe bilden. Man kann sich also vorstellen das der Buffer sehr gross sein muss man aber die grösse ohne kompletten durchlauf der Geometrie durch das Trisetup nicht vorherbestimmen kann.

Ailuros
2002-11-13, 21:25:38
Originally posted by robbitop
was ist Z3?

posted by SA at Beyond3D:

My own preference for hardware antialiasing would be to use a techniques similar to the Z3 algorithm. It has the following advantages:

1) The amount of AA work (both computations and memory bandwidth) on a pixel depends on the number of visible fragments in a pixel, rather than the number of samples per pixel (a very big advantage). Hence, it is "adaptive". That is, it spends more memory bandwidth and computation time on pixels with lots of visible fragments (that need more antialiasing), and less time or pixels with fewer fragments (and need little or no geometric AA. This allows a very large number of samples per pixel (say 16, 32, or more) with a relatively small amount of extra memory bandwidth and a bit wider AND computation. If the frame buffer were in on-chip memory, the AA would appear "free" regardless of the number of samples per pixel.

2) It uses much less memory and memory bandwidth for a given quality of AA than supersampling. The memory and memory bandwidth consumption should be small enough to allow the same number of samples per pixel at all resolutions.
If the frame buffer were on chip, you could offer the same high quality AA at all resolutions (say 1600x1200 by 16x) for "free".

3) It can provide order independant transparency for "free".

One change I would make to the Z3 algorithm would be the use of jittered sampling rather than sparse supersampling. It would use edge crossings to lookup coverage masks from an assortment of masks. Each mask in the assortment would have a different set of jitter values. This would mean that the same edge crossings would result in a slightly different coverage pattern for each mask in the assortment. The R200 appears to use 16 different masks with different jitter values. This is probably enough if the masks themselves are used in a random fashion. It is important that the same mask be used with a particular pixel across frames to avoid flicker. The mask to pixel assignement should therefore be random across the screen but constant across frames. A simple way to provide random mask assignement is to use an assortment of mask assignement lookup tables. Each mask assignement lookup assigns a random arrangement of all 16 masks to a set of 16 pixels. This creates a sort of random hierarchy of coverage masks across the screen. While not perfectly stocastic, it is fairly close. Another change I would make, though probably not at first, would be to use a wider weighted filter for the samples (say gaussian weights), using the same set of weights for each mask in the assortment.


BTW, here's a link to the Z3 algorithm:

http://www.research.compaq.com/wrl/people/jouppi/Z3/Z3paper.pdf


There are some important points about the Z3 algorithm:

- It uses a fixed amount of storage per pixel (enough for 3 fragments). This is critical for hardware.

- It merges coverage mask information for the two closest (in Z) fragments when the number of fragments exceeds 3. This has the effect of usually merging fragments from the same surface (therefore they often do not overlap in Z).

- It stores all the information about the plane of the triangle (z,dz/dx,dz/dy) for later z computations and not just a single z value. This allows computing the precise occlusion within a pixel.

- It correctly antialiases transparent/translucent polygons. This also provides order independent transparency as a side benefit (which is still a significant problem for most 3d hardware).


I have been somewhat surprised that more vendors have not yet used coverage mask AA. It is somewhat more complex to implement, but has substantial benefits in the number of samples operated on for a given amount of memory, memory bandwidth, and computation.

Also coverage mask AA works ideally with deferred rendering since in that case you don't need to store the fragment colour for each fragment (up to 3) in a pixel. This is because the fragment coverage masks in a pixel have all had a chance to reach their final values before rendering (during the HSR step). By the time you render, you use the fragment coverage mask to define the percent of the fragment colour to store in the frame buffer.

If you use coverage mask AA with a traditional, you need to store the fragment colour of each fragment (up to 3 per pixel). This is still much better than storing one colour per sample though (say 16 per pixel).

ZilD
2002-11-13, 21:26:01
is mir egal mit wieviel bit's die dinger kommen , ich will satte frames :D in 1600x1200@85 Hz und allen details in derzeitigen games und kommenden.
(wird es der nv30 schaffen ?).

robbitop
2002-11-13, 21:29:27
naja nicht schlecht und danke für die Links..aber kein Stencil AA

naja da bin ich selbiger Meinung wie du Demi: FAA mit Z AA und Stencil AA ....und ich denke das könnte mit der Parhelia2 war werden ;-)

StefanV
2002-11-13, 21:31:24
IMHO ist es das beste SSAA in Hardware zu pressen.


Wenn man die Pipes so auslegen würde, daß sie gleich 2 und mehr Samples rendern würde, dann müsste das ähnlich schnell sein wie MSAA.

Allerdings hat man dann ein paar Transistoren mehr verwentet...

robbitop
2002-11-13, 21:36:31
@SP
genauer bitte!

achja und was is mit dem Bandbreitenbedarf?
auf den Speicher müsste man trotzdem zugreifen..naja stimmt du sagtest ja wie MS...naja also megafette TMUs...

Demirug
2002-11-13, 21:36:33
Originally posted by Stefan Payne
IMHO ist es das beste SSAA in Hardware zu pressen.


Wenn man die Pipes so auslegen würde, daß sie gleich 2 und mehr Samples rendern würde, dann müsste das ähnlich schnell sein wie MSAA.

Allerdings hat man dann ein paar Transistoren mehr verwentet...

Wenn eine Pipeline mehr als 1 Sample berechnen soll kannst du sie auch gleich entsprechend oft duplizieren. SSAA ist einfach nur bruteforce nicht mehr und nicht weniger.

aths
2002-11-13, 22:27:59
Originally posted by Demirug
Wenn eine Pipeline mehr als 1 Sample berechnen soll kannst du sie auch gleich entsprechend oft duplizieren. SSAA ist einfach nur bruteforce nicht mehr und nicht weniger. Wie wäre es mit "konfigurierbaren" Mischmodes? Gerüchteweise wird der NV30 eine Auswahl an MSAA+SSAA-Modes bringen.

Unregistered
2002-11-13, 22:35:01
Originally posted by egdusp
Laut einem Interview mit David Kirk von
http://www.hardwareaccelerated.com/
"We’ll move to 256bit when we feel that the cost and performance balance is right."

mfg
egdusp

hm, warum soll das denn unbedingt aussagen das der NV30 kein 256bit Raminterface hat.
Er sagt ja das sie es verwenden werden wenn das Kosten/Leistungs Verhältnis stimmt. Wer ja möglich das dieses Verhältnis, laut Nvidia,ja beim NV30 erreicht ist. Haben ja immer noch nix gegenteiliges behauptet. Und ich glaub nicht so ganz, das die große verspätung nur auf den Fertigungsprozess zurückzuführen ist. Die haben bestimmt was geändert.
Nur mal so´n denkansatz.

Cu, Pinhead

Demirug
2002-11-13, 22:40:52
Originally posted by aths
Wie wäre es mit "konfigurierbaren" Mischmodes? Gerüchteweise wird der NV30 eine Auswahl an MSAA+SSAA-Modes bringen.

das währe auf jeden fall der beste mögliche kompromiss. Wenn man wirklich zuviel Fragmentleistung übrig hat kann man sie dann ja mit SSAA verheizen. Die meisten Probleme die man mit SSAA bekämpfen kann müssten sich aber auch im Bereich der Texturfilter beser lösen lassen. Wobei IMHO man primär das Speicherverbrauch und Bandbreitenproblem beim AA in den Griff bekommen muss um auch in Zukunft hier noch verbesserungen zu erreichen.

Pussycat
2002-11-14, 14:41:18
eh, Melle, hast du wirklich ein V5-6000? Woher? Von Ebay?

Ailuros
2002-11-14, 15:29:41
Originally posted by Demirug


das währe auf jeden fall der beste mögliche kompromiss. Wenn man wirklich zuviel Fragmentleistung übrig hat kann man sie dann ja mit SSAA verheizen. Die meisten Probleme die man mit SSAA bekämpfen kann müssten sich aber auch im Bereich der Texturfilter beser lösen lassen. Wobei IMHO man primär das Speicherverbrauch und Bandbreitenproblem beim AA in den Griff bekommen muss um auch in Zukunft hier noch verbesserungen zu erreichen.

Theoretisch koennte man durch Texturfilter schon vieles loesen, aber da ich bezweifle dass NV30 mehr als einen modifizierten TexMax Algorithm praesentieren wird, ist nach wie vor ein hybrider SS/MS Mode der besste Kompromiss. Also NV dann doch bitte rotierte samples fuer SS auch noch und bitteschoen auch fuer openGL (was 4xS betrifft), obwohl ich irgendwie das Gefuehl habe dass fuer openGL nur die Anzahl der samples bei MSAA erhoeht wird...

MeLLe
2002-11-14, 15:43:56
Originally posted by Pussycat
eh, Melle, hast du wirklich ein V5-6000? Woher? Von Ebay?
Ja hab ich. Nicht von Ebay. "Privat erstanden".

Pussycat
2002-11-14, 16:48:11
bei 3dfx eingebrochen?

robbitop
2002-11-14, 16:54:59
achja was ich zum FSAA von NV anmerken wollte...aus Quallisicht ist das 4xS Verfahren bis auf die afaik fehlende Gammakorrektur sicher das beste 4x RG Verfahren. Ich denke der Nachteil ist der Performancefressende Teil.

Mit genügend Füllrate dürfte das aba auch gut nutzen lassen...ähnlich wie 4xRGMS...aber eben qualitativ besser...

trotzdem wäre ein adaptives AA nicht schlecht

Exxtreme
2002-11-14, 17:01:24
Ich will nur RG SuperSampling bei genügend Speed. Alles andere empfinde ich als qualitativ schlechtere Approximation. MSAA ist bei einigen Spielen zwar ein ziemlich guter Kompromiss, es gibt aber auch Games, da ist MSAA qualitativ klar im Nachteil.

robbitop
2002-11-14, 17:09:30
leider ist der Füllratenaspekt aus Performancesicht sehr negativ......
denn man verliert einfach zuviel Leistung und die Games sind dann unSMOOTH....

aths
2002-11-14, 23:44:41
Originally posted by robbitop
leider ist der Füllratenaspekt aus Performancesicht sehr negativ......
denn man verliert einfach zuviel Leistung und die Games sind dann unSMOOTH.... "Die" Games? Die neuen Games, ja. Ich möchte gerne zwischen MSAA und SSAA wählen dürfen. Übrigens würde ich 4x RG MSAA dem 4xS-Modus vorziehen. Wenn schon Misch-Mode, dann gleich 8xS.

Quasar
2002-11-15, 01:31:49
Wenn wir hier schon "Wünsch' dir was" spielen, dann würde ich gerne einen extra-Chip für's FSAA haben, der braucht nur das fertig Bild einmal aufbläh0rn, wieder herunterzuskalieren und Richtung DSub zu schicken. Am besten mit einem eigenen kleinen Speicher und das bei einer Auflösung von 1600x1200 ca. 150x pro Sekunde....

Ailuros
2002-11-15, 06:32:45
Am besten mit einem eigenen kleinen Speicher und das bei einer Auflösung von 1600x1200 ca. 150x pro Sekunde....

Sooooo klein wird der Speicher gar nicht sein, bei so vielen samples und der Aufloesung. Das Auge ist vollkommen zufrieden mit 16xRGSS (4x4).

egdusp
2002-11-15, 08:32:57
Originally posted by Quasar
Wenn wir hier schon "Wünsch' dir was" spielen, dann würde ich gerne einen extra-Chip für's FSAA haben, der braucht nur das fertig Bild einmal aufbläh0rn, wieder herunterzuskalieren und Richtung DSub zu schicken. Am besten mit einem eigenen kleinen Speicher und das bei einer Auflösung von 1600x1200 ca. 150x pro Sekunde....

Nun, ich könnte mir zumindest vorstellen, dass deine Vorstellung auch einen Sinn ergibt. Sofern alle Kanten mit einem Extra bit gekennzeichnet werden, könnten sie nachher geglättet werden, was zwar kein exaktes AA darstellt, aber evtl. auch gute Ergebnisse bringt.
Vor allem, wenn auch der Verlauf der Kante gespeichert wird (4 bit würden da reichen).

0 0
0 0
Dies würde einem 4xOGAA entsprechne AFAIK. Ein rotaed Grid ist sicher auch möglich.
Keine Ahnung ob das mit Stencil SHadows auch funktioniert, war nur eine kleine Gedankenspielerei.

Evtl. kann so auch ein Early Edge Check durchgeführt werden, der allerdings keinen Extra Chip bräuchte.

mfg
egdusp

MeLLe
2002-11-15, 08:33:00
Originally posted by Pussycat
bei 3dfx eingebrochen?
nein. natürlich net. :)

Pussycat
2002-11-15, 13:12:40
Nee ist deutlich :), aber wie denn wohl?