PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Um 3dfx trauern// war:Konkurrenz für ATI/Nvidia?


Mr. Lolman
2006-03-04, 10:51:13
*um3dfxheul*

Mr. Lolman
2006-03-04, 10:53:16
Pff. Die waren doch selber schuld.

Naja,... :rolleyes:

Coda
2006-03-04, 10:54:13
Nix naja. Der Zug war abgefahren, man kann nicht glauben mit der gleichen Architektur 4 Generationen zu fahren.

Mr. Lolman
2006-03-04, 10:57:15
Nix naja. Der Zug war abgefahren, man kann nicht glauben mit der gleichen Architektur 4 Generationen zu fahren.

Der Rampage war fertig und die Voodoo5 konnte sich alles andere als schlecht gegen die GF2 behaupten. Dem Featurehype war man halt auf lange sicht nicht gewachsen, aber damalige Spiele sehen (bis auf 1-2 Ausnahmen) auf ner Voodoo5 besser aus als auf ner GF2 - natürlich nicht zuletzt wegen dem immer nutzbaren 2xSGSSAA.

Piffan
2006-03-04, 11:00:26
Imho hat 3Dfx es versaut. Zu lange am Chip für den Nintendo rumgefrickelt und zu lange nichts getan für den Pc- Bereich. Vielleicht war man auch zu lange auf die Festigung des vermeintlichen Monopols auf Spielebeschleuniger für Pcs fixiert.
Als sie pleite waren, war ihre Technik allerdings zeitgemäß. Leider waren wohl die Mittel zu knapp, um es marketingtechnisch mit NV aufzunehmen.

Coda
2006-03-04, 11:04:06
Natürlich hat es 3Dfx selber versaut, wer denn sonst? Ist es nVIDIAs Schuld dass sie das bessere Marketing haben?

Mr. Lolman
2006-03-04, 11:11:03
aggressiver=besser?

Raff
2006-03-04, 11:14:35
Warum kommt alle 2 Wochen die gleiche Diskussion? Der viel zu frühe Tod von 3dfx war ein Resultat aus vielen Faktoren, an denen natürlich hauptsächlich 3dfx selbst Schuld hatte. Dass allerdings die Presse kollektiv auf Nvidias Gehaltsliste gestanden hat (so wirkte es), hat noch mal gut reingehauen.

Wer behauptet, dass die Voodoo5 nicht konkurrenzfähig wäre, der hat nie eine genutzt! Zu Lebzeiten konnte man mehr Spaß mit ihr haben als mit einer GF2. Eigentlich immer noch.

MfG,
Raff

Coda
2006-03-04, 11:19:02
aggressiver=besser?Ja. Aus Marktwirtschaftlicher Sicht schon. Ist ja schließlich eine Aktiengesellschaft und nicht die Wohlfahrt.

Mr.Magic
2006-03-04, 11:50:40
Warum kommt alle 2 Wochen die gleiche Diskussion? Der viel zu frühe Tod von 3dfx war ein Resultat aus vielen Faktoren, an denen natürlich hauptsächlich 3dfx selbst Schuld hatte. Dass allerdings die Presse kollektiv auf Nvidias Gehaltsliste gestanden hat (so wirkte es), hat noch mal gut reingehauen.

Wer behauptet, dass die Voodoo5 nicht konkurrenzfähig wäre, der hat nie eine genutzt! Zu Lebzeiten konnte man mehr Spaß mit ihr haben als mit einer GF2. Eigentlich immer noch.

MfG,
Raff

Nicht nur die Presse war etwas seltsam.
Soweit ich mich erinnern kann wurde damals (2000) auf der ECTS die Voodoo 5 zur besten PC Hardware gekührt (aufgrund der überlegenen Bildqualität durch FSAA) und in allen PCs auf der Messe waren GeForce verbaut. Leider war das kein Einzelfall.

Aquaschaf
2006-03-04, 11:57:25
Aber selbst wenn sich Presse und Marketing anders verhalten hätten wäre es doch auch mit 3dfx zuende gegangen.

Piffan
2006-03-04, 14:18:36
Aber selbst wenn sich Presse und Marketing anders verhalten hätten wäre es doch auch mit 3dfx zuende gegangen.

Aha!

Darf man auch den Grund erfahren?

Coda
2006-03-04, 14:36:27
Rampage war auch nicht so der Bringer...

Controller Khan
2006-03-04, 15:40:55
passiert ist passiert.

Das Management von 3dfx hat etliche Fehlentscheidungen getroffen.

Gutes Marketing ist meistens oft wichtiger als gute Technik.

Lange Featurelisten & gut klingende Namen sind halt wichtig für Massenmedien und Otto-Normalverbraucher. (32-Bit, T&L, 3DMark)

3dfx gibt es seit Anfang 2001 nicht mehr, somit ist sinnfrei zu spekulieren wie 3dfx im Jahr 2006 ausgesehen hätte.

Mr. Lolman
2006-03-04, 18:07:08
Rampage war auch nicht so der Bringer...

:confused:

Der Rampage hätte schon in der 1 Chip Version, mit 250Mhz, die Füllrate einer GF4 Ti4200 gehabt....

Demirug
2006-03-04, 18:21:23
:confused:

Der Rampage hätte schon in der 1 Chip Version, mit 250Mhz, die Füllrate einer GF4 Ti4200 gehabt....

Pixel: Ja

Texel: Nein

Sample: Nein

Aquaschaf
2006-03-04, 18:24:19
Gutes Marketing ist meistens oft wichtiger als gute Technik.

Das wage ich zu bezweifeln.

Raff
2006-03-04, 19:19:38
Pixel: Ja

Texel: Nein

Sample: Nein

Und wenn schon. Für eine Standard-GeForce3 hätte es gereicht. Und dann hat man noch effizientes SLI. :naughty:

Btw, demi: Kommt da noch ein Artikel? Bitte. =)

MfG,
Raff

reunion
2006-03-04, 19:22:43
:confused:

Der Rampage hätte schon in der 1 Chip Version, mit 250Mhz, die Füllrate einer GF4 Ti4200 gehabt....


Rampage hatte nur eine TMU pro Pipeline, es wäre also die Zwei-Chip-Variante notwendig gewesen, um mit NV20 in punkto Füllrate gleichzuziehen. Aber wenn es nur nach dem ginge, hätte eine Voodoo5 auch nicht die geringste Chance gegen eine GF2. Durch die SLi-Variante hätte man dafür faktisch einen 8x1-Chip mit 256-bit Speicherinterfance.

Außerdem hätte Rampage die Geforce 3 in punkto IQ vernichtet - 4xRGMSAA plus 16xAF konnte nV erst mit NV40 liefern. So düster sah es also wirklich nicht aus.

thade
2006-03-04, 19:27:21
Imho hat 3Dfx es versaut. Zu lange am Chip für den Nintendo rumgefrickelt

Nintendo? Eher SEGA fürs Dreamcast!

Raff
2006-03-04, 19:30:57
Außerdem hätte Rampage die Geforce 3 in punkto IQ vernichtet - 4xRGMSAA plus 16xAF konnte nV erst mit NV40 liefern. So düster sah es also wirklich nicht aus.

Gerade zur anisotropen Filterung des Rampage hätte ich gerne noch mehr Infos. Winkelunabhängig? Trilinear?

MfG,
Raff

reunion
2006-03-04, 19:36:44
Gerade zur anisotropen Filterung des Rampage hätte ich gerne noch mehr Infos. Winkelunabhängig? Trilinear?

MfG,
Raff


Dazu ist leider nichts an die Öffentlichkeit gedrungen, alles was man weiß, ist das bis zu 128tap möglich waren.

Demirug
2006-03-04, 20:01:23
Dazu ist leider nichts an die Öffentlichkeit gedrungen, alles was man weiß, ist das bis zu 128tap möglich waren.

Das ist so nicht ganz richtig. Der Funktionscode mit dem die LOD berechnet wurde ist vollständig offen gelegt.

Piffan
2006-03-04, 20:09:50
Nintendo? Eher SEGA fürs Dreamcast!

Stimmt! Habe das was verwechselt. BTW: Wer hat denn nun den Chip für den Dreamcast geliefert? War das ein Power- Chip von IMG? Oder alles falsch?

reunion
2006-03-04, 20:12:16
Das ist so nicht ganz richtig. Der Funktionscode mit dem die LOD berechnet wurde ist vollständig offen gelegt.

Huch? Und wo kann man den finden, bzw. was sagt dieser über die AF-Qualität aus?

Demirug
2006-03-04, 20:26:25
Huch? Und wo kann man den finden, bzw. was sagt dieser über die AF-Qualität aus?

In dem 230 Seiten Dokument das nVidia als Patentschrift eingereicht hat.

Genauer habe ich mir die Formel nie angesehen vorallem weil Formeln in der "Textschreibweisse" ein Horror sind.

thade
2006-03-04, 20:36:44
Stimmt! Habe das was verwechselt. BTW: Wer hat denn nun den Chip für den Dreamcast geliefert? War das ein Power- Chip von IMG? Oder alles falsch?

NEC lieferte den DC Chip. PowerVR Basis!

Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=269297) Infos über den 3DFX Chip.

Thanatos
2006-03-04, 20:44:20
Sorry, für OT, aber der wievielte "3dfx Märtyrer und nvidia ist ja so böse" Thread ist das jetzt? ;(

Mir kommt es so vor, als würden die 3dfx threads mit dem selben Thema periodisch jeden Monat neu auftauchen ;(

Ferengie
2006-03-04, 23:00:42
Natürlich hat es 3Dfx selber versaut, wer denn sonst? Ist es nVIDIAs Schuld dass sie das bessere Marketing haben?

Nvidias besseres Marketing u. die allg. Presse, fehlender Retailmarkt (man kann auch als Nischenbediener gut existieren) halte ich nur einen kleineren Faktor.

Ich hab das damals intensiv aktienseitig verfolgt.
Ich bleibe immer noch bei der Meinung das Nvidia durch Fonds, Banken usw. dermassen gepusht wurde, dass 3dfx auch mit besseren Bilanzen und doppelt soguten Produkten zertrampelt worden wäre.

Gast
2006-03-04, 23:07:06
Ich bleibe immer noch bei der Meinung das Nvidia durch Fonds, Banken usw. dermassen gepusht wurde, dass 3dfx auch mit besseren Bilanzen und doppelt soguten Produkten zertrampelt worden wäre.

hätten sie so dermaßen tolle produkte gehabt, dann hätten sie auch bessere bilanzen gehabt und nicht nvidia sondern 3dfx wäre gepusht worden ;)

Fetza
2006-03-05, 06:57:19
Nix naja. Der Zug war abgefahren, man kann nicht glauben mit der gleichen Architektur 4 Generationen zu fahren.

Die voodoo 5 generation konnte mit einem aa verfahren aufwarten, was nv karten erst seit dem g70 liefern, ich zähl jetzt mal nicht die jahre die zwischen den beiden generationen liegen... :rolleyes:

Während die geforce generation damals stolz t&l einführte, was als einzigstes fleißig vom 3dmursk genutzt wurde zur damaligen zeit, bot die voodoo 5 in den meisten spielen gleichwertige performance mit erheblich, ja man muss schon sagen überwältigender grafikqualität.

Das was 3dfx gekillt hat war wohl auch eher der 3dmurks und redakteure, die einfach dessen werte publizierten, statt kritisch zu hinterfragen, was dieser benchmark wirklich aussagt.

greetz

Fetza

Tigerchen
2006-03-05, 09:26:05
Die voodoo 5 generation konnte mit einem aa verfahren aufwarten, was nv karten erst seit dem g70 liefern, ich zähl jetzt mal nicht die jahre die zwischen den beiden generationen liegen... :rolleyes:

Während die geforce generation damals stolz t&l einführte, was als einzigstes fleißig vom 3dmursk genutzt wurde zur damaligen zeit, bot die voodoo 5 in den meisten spielen gleichwertige performance mit erheblich, ja man muss schon sagen überwältigender grafikqualität.

Das was 3dfx gekillt hat war wohl auch eher der 3dmurks und redakteure, die einfach dessen werte publizierten, statt kritisch zu hinterfragen, was dieser benchmark wirklich aussagt.

greetz

Fetza

3dFX hatte zwar ein tolles SSAA. Es führte allerdings in vielen Spielen zu der derben Performanceeinbrüchen. Das trilineare Dithern finde ich übrigens abträglich für eine überwältigende Grafikqualität.

Tigerchen
2006-03-05, 09:29:07
:confused:

Der Rampage hätte schon in der 1 Chip Version, mit 250Mhz, die Füllrate einer GF4 Ti4200 gehabt....

Hätte Rampage nicht auch noch SAGE nötig gehabt um konkurrenzfähig zu sein? Wäre es nicht wieder auf ein teures Multichipdesign hinausgelaufen?

Coda
2006-03-05, 10:36:28
Die voodoo 5 generation konnte mit einem aa verfahren aufwarten, was nv karten erst seit dem g70 liefern, ich zähl jetzt mal nicht die jahre die zwischen den beiden generationen liegen...

Während die geforce generation damals stolz t&l einführte, was als einzigstes fleißig vom 3dmursk genutzt wurde zur damaligen zeit, bot die voodoo 5 in den meisten spielen gleichwertige performance mit erheblich, ja man muss schon sagen überwältigender grafikqualität.

Das was 3dfx gekillt hat war wohl auch eher der 3dmurks und redakteure, die einfach dessen werte publizierten, statt kritisch zu hinterfragen, was dieser benchmark wirklich aussagt.Nein. 3Dfx hätte es ihnen mit Marketing klarmachen müssen. Die Redakteure hatten damals größtenteils überhaupt keine Ahnung worüber sie schreiben.

nVIDIA hat sie eben entsprechend instruiert, 3Dfx hat wohl auf seinen "Namen" vertraut - fataler Fehler.

Mr. Lolman
2006-03-05, 10:38:34
3dFX hatte zwar ein tolles SSAA. Es führte allerdings in vielen Spielen zu der derben Performanceeinbrüchen. Das trilineare Dithern finde ich übrigens abträglich für eine überwältigende Grafikqualität.


Der VSA100 kann einwandfrei trilinear filtern. Bei nem hohen SSAA Modus, mit stark negativem LOD fällt bilinear jedoch auch nicht mehr auf, und falls doch, gibts ja noch Mipmapdithering.

Coda
2006-03-05, 10:39:33
Wenn es mit AF auffällt dann muss es logischerweise auch mit negativem LOD und SSAA auffallen. Der Effekt ist schließlich der gleiche.

Mr. Lolman
2006-03-05, 11:26:11
Wenn es mit AF auffällt dann muss es logischerweise auch mit negativem LOD und SSAA auffallen. Der Effekt ist schließlich der gleiche.

Zu der Zeit gabs meistens noch nicht so scharfe Texturen. Da reichte bilinear + negativem LOD total. Und bei den paar Spielen wo das nicht der Fall war, war Mipmapdithering meistens ganz ok. Die Q3a Szene kennt ja mittlerweile jeder und weiss auch, dass das den so ziemlichen Worstcase darstellt. Die Szene von Max Payne hat aths mal verwendet um den brilinearem Filter zu demonstrieren. Dh.: so hässlich wie auf den Screenshots, wars eigentlich kaum wo. ;)

http://666kb.com/i/11908ms640kxt.jpg

http://666kb.com/i/1190a9ms5mwht.jpg

Coda
2006-03-05, 11:30:05
Zu der Zeit gabs meistens noch nicht so scharfe Texturen.Huh? Das ist dafür ziemlich irrelevant.

Mr. Lolman
2006-03-05, 11:33:33
Huh? Das ist dafür ziemlich irrelevant.

Imo nicht. Ich post noch gern ein paar andere Q3a Screenshots mit anderen (unschärferen) Texturen und reinem bilinearem Filtering...

edit:

http://666kb.com/i/1190dzxtc4bup.jpg

http://666kb.com/i/1190e2t47m51d.jpg

http://666kb.com/i/1190e40u6z6kh.jpg

Raff
2006-03-05, 12:26:52
Was ich hier im Forum immer wieder feststelle: Viele versuchen anhand der Theorie logisch 3dfx' Bildqualität zu erklären, scheitern aber an der Realität. Jungs, baut euch eine Voodoo5 ein und spielt mal eine Runde! Dann hören endlich mal diese Diskussionen auf.

MfG,
Raff

robbitop
2006-03-05, 12:34:28
Das Problem ist, dass viele nur von der mathematischen Theorie ausgehen. Was näher an der mathematischen Wahrheit liegt ist besser.
Nur vernachlässigt man dabei die menschliche Wahrnehmung. Dieser ist es manchmal ziemlich egal, was mathematisch korrekt ist oder nicht. In der hinsicht, sieht das ATI WA AF gar nicht so schlecht aus, trotz mathematischer Unterlegenheit und so geht es sicher auch den Voodoos.

Coda
2006-03-05, 12:57:39
Das glaub ich dir ja, aber das ändert nichts daran, dass es 3Dfx nunmal selber versaut hat in jeglicher Hinsicht.

Zuerst die eigene Platinenproduktion, dann der viel zu späte Rampage und das absolut schlechte Marketing.

Gmax
2006-03-05, 13:52:29
Ich trauere eigentlich mehr dem Kyro als dem Voodoo nach. Der hatte meines Erachtens nach mehr Potenzial :frown:

Gast
2006-03-05, 15:34:12
warum hat ati die nicht geschluckt?

Bokill
2006-03-05, 15:48:05
... Das was 3dfx gekillt hat war wohl auch eher der 3dmurks und redakteure, die einfach dessen werte publizierten, statt kritisch zu hinterfragen, was dieser benchmark wirklich aussagt ... Das mag man so sehen, aber 3DFX hatte viel angekündigt, kam aber nie rechtzeitig mit Produkten auf den Markt.

Auch, dass sie in Sachen Speichertechnologie eher konservativ ausgerichtet waren (schnellstes EDO EVER auf der Voodoo II), wie auch die Ausrichtung sehr konservativ den AGP-Slot zu nutzen, trägt jetzt zu meiner Einsicht bei dass 3DFX nicht in jeglicher Hinsicht vorne waren.

Statt das Geld in Fabs und Werbeaktionen, hätte man die geplanten Projekte "Time to Market" bringen müssen. Genau das exerzierte NVIDIA vor.

MFG Bobo(2006)

thade
2006-03-05, 15:53:00
Was ich hier im Forum immer wieder feststelle: Viele versuchen anhand der Theorie logisch 3dfx' Bildqualität zu erklären, scheitern aber an der Realität. Jungs, baut euch eine Voodoo5 ein und spielt mal eine Runde! Dann hören endlich mal diese Diskussionen auf.

Also Ich muss auch sagen, Ich war noch vor einiger Zeit der selben Meinung wie einige GeForce Verfechter hier haben. Ich hatte das erste Mal 2003 eine Voodoo5, war aber übehaupt nicht zufrieden mit der Karte, was aber eher an Mir lag, weil Ich mich gar nicht beschäftigt habe mit der Karte.

Letztendlich manifestierte sich bei Mir eine gewisse Anti 3DFX Haltung. Bis Ich letztes Jahr auf Raffs Voodoo Thread stieß. Manche Screens beeidruckten Mich, deswegen gab Ich der Voodoo5 nochmals die Chance sich bei Mir zu beweisen.

Heute sage Ich, die Voodoo5 ist eine richtig gute Karte, mit phenomänaler FSAA Quali. Man kann 2*AA eigentlich fast überall einsetzen, nur das dieses 3DFX 2*FSAA, mindestens 4*FSAA heutiger Karten entspricht.

Auch vom Speed attestier Ich der Karte jetzt mehr Power als Früher. Dazu kommt noch die Möglichkeit alte Games in Glide zu spielen, vor allem Unreal Engine 1 Games rocken mit der Voodoo.

Ich würde jedem empfehlen sich eine Voodoo5 einzubauen, dann "neuere" Games testen, sich drüber wundern, warum die Karte ohne das Killerfeature TnL so gut performt. Schaut Euch nur mal Raffs Thread an, da sind schon ein paar sehr gute Bsp dabei.

Lasst Euch bekehren, die Dunkle Seite der Macht ist nicht mächtiger, sondern nur leichter zu erlernen, einfach verführerischer. ;)

Coda
2006-03-05, 15:59:00
nur das dieses 3DFX 2*FSAA, mindestens 4*FSAA heutiger Karten entspricht.Für die Kantenglättung ist das absoluter Blödsinn. Ja man bekommt dazu noch nen AF-Effekt, das können moderne Karten aber auch so.

Raff
2006-03-05, 16:30:16
Für die Kantenglättung ist das absoluter Blödsinn. Ja man bekommt dazu noch nen AF-Effekt, das können moderne Karten aber auch so.

Nvidia konnte erst mit dem NV40 MSAA anbieten, das dem 3dfx'schen 2xRGSS in Sachen Polygonglättung überlegen ist. Das 4xOGMS einschließlich GeForce FX ist ein Witz.

Der V5 fehlt nur etwas AF, um in Sachen BQ ganz oben mitzuspielen. Wobei die LoD-Tweaks schon nahe an 4xAF rankommen, wenn man 4xSGSS anmacht.

IMHO haben Ati und Nvidia erst vor kurzem zu 3dfx' 4xSGSSAA aufgeschlossen: Mit 4xMS + Transparency-AA. Ati bietet mit 6xAAA das bisherige Optimum, Nv hat mit 16xS überdies auch einen feinen Modus.

MfG,
Raff

Coda
2006-03-05, 16:33:34
Nvidia konnte erst mit dem NV40 MSAA anbieten, das dem 3dfx'schen 2xRGSS in Sachen Polygonglättung überlegen ist.Das ist doch überhaupt nicht wahr. Das GeForce 3 2xMSAA hatte auch schon ein rotiertes Muster.

Außerdem redet er von heutigen Karten.

Raff
2006-03-05, 16:34:39
Ich sagte überlegen, nicht gleichwertig (bei Polygonglättung).

MfG,
Raff

reunion
2006-03-05, 16:38:49
Bei Polygonkanten ist es auch heute "nur" gleichwertig, das Muster von 3dfx war bereits optimal.

Coda
2006-03-05, 16:39:11
Äh und jetzt? Er redet trotzdem von heutigen Karten X-D

reunion
2006-03-05, 16:40:05
Also ich verstehe jetzt gar nichts mehr. :|
X-D

Coda
2006-03-05, 16:44:10
warum hat ati die nicht geschluckt?PowerVR? Weils denen ganz gut geht?

Raff
2006-03-05, 16:45:49
Mal so ein Gedanke: Vor etwa einem Jahr bemerkten die Grünen, eventuell unter Einfluss der übernommenen 3dfx-Ingenieure, dass transparente Texturen saugen und man sie deshalb glätten könne. Nun kostet der Spaß aber bei z.B. massivem Alphatesting (Serious Sam 2 Greendale ahoi) mal eben knapp so viel wie äquivalentes Vollbild-Supersampling. Tolle Entwicklung. Warum bietet man nicht gleich Vollbild-6xSGSS an und nimmt den AF-Effekt mit?

MfG,
Raff

reunion
2006-03-05, 16:48:49
Erstens ist der AF-Effekt minimal, und zweites gibt es eben auch Szenen, in denen das Ganze fast gar nichts kostet. FSSSAA ist viel zu ineffizient.

Coda
2006-03-05, 16:51:51
Und zweitens weil der Chip kein rotated-grid FSAA kann außer man appliziert die Techik auf alle Flächen und wird damit sogar noch deutlich mehr Füllrate verbraten.

Raff
2006-03-05, 16:57:21
Ein G70/71 hat extrem viel Füllrate, da bietet sich FSSSAA (OMG) doch förmlich an. Sicher, dazu braucht es Hardware-Anpassung.

Und als "minimal" würde ich den AF-Effekt nicht bezeichnen. Bereits 3dfx'sches 4xAA erlaubt Textur-LoDs im stark negativen Bereich, mit 6xFSSS ginge noch mehr. Dann bräuchte man eben entsprechend weniger "normale" anisotrope Filterung, eventuell wäre 4xAF auf alle Winkel ausreichend für rattenscharfe Texturen im ganzen Level. Dazu absolute Flimmerfreiheit.

MfG,
Raff

Coda
2006-03-05, 16:58:59
Alphatest glätten (und vermeiden!) + AF + Shader Antialiasing + MSAA ist sicherlich die sehr viel ökonomischere Lösung.

Wohl genau aus diesem Grund weigeren sich die Hersteller Supersampling in ihre Chips zu bauen. Theoretisch ist dies nämlich gar nicht so viel aufwendiger.

Raff
2006-03-05, 17:02:10
SSAA ist ja nicht nur bei Alphatests und "normalen" Texturen sinnvoll. Man denke an Bump-Maps und Pixelshading, die mit MSAA munter vor sich hinflimmern. Quake 4 mit einer 4x4 EER (oder besser) auf alles ... hui. =)

MfG,
Raff

Coda
2006-03-05, 17:06:20
Ich hab doch gesagt, dann muss man eben Shader-AA machen. Nicht umsonst hat SM3 dafür Derivate-Instructions.

SSAA hat keine Zukunft, da kannst du dir sicher sein.

Raff
2006-03-05, 17:09:45
Es hätte aber bis zum heutigen Tage und darüber hinaus großen Sinn. ;)

MfG,
Raff

Fetza
2006-03-05, 18:12:41
Das mag man so sehen, aber 3DFX hatte viel angekündigt, kam aber nie rechtzeitig mit Produkten auf den Markt.

ack


Auch, dass sie in Sachen Speichertechnologie eher konservativ ausgerichtet waren (schnellstes EDO EVER auf der Voodoo II), wie auch die Ausrichtung sehr konservativ den AGP-Slot zu nutzen, trägt jetzt zu meiner Einsicht bei dass 3DFX nicht in jeglicher Hinsicht vorne waren.

ack, in jeglicher hinsicht meinte ich auch nicht, das ist utopisch, wohl kein hersteller ist generell in jeder hinsicht vorne.


Statt das Geld in Fabs und Werbeaktionen, hätte man die geplanten Projekte "Time to Market" bringen müssen. Genau das exerzierte NVIDIA vor.


MFG Bobo(2006)

full ack, der wechsel vom reinen chipentwickler hin zum entwickler/produzenten hat 3dfx wohl auch letztlich mit gekillt. Der broken war zu groß und 3dfx hat sich daran verschluckt zudem waren auch firmen wie diamond, creative usw damals sauer, weil 3dfx keine chips mehr an fremdhersteller verkaufen wollte und erst auf komplett eigen fabrizierte karten gesetzt hatte. Als man das später wieder änderte zickten die dann natürlich :)

greetz

Fetza

Edit: Was ich persönlich auch immer an 3dfx geliebt habe, war dessen glide schnittstelle. Eine sehr effiziente api die direkt auf ihre karten optimiert war. An NVs stelle hätte ich dies auch probiert, da wären bestimmt noch so 10-10 prozent mehr performance drinn. Aber das ist leider schon zu spät.

Xmas
2006-03-05, 19:05:38
Was ich hier im Forum immer wieder feststelle: Viele versuchen anhand der Theorie logisch 3dfx' Bildqualität zu erklären, scheitern aber an der Realität. Jungs, baut euch eine Voodoo5 ein und spielt mal eine Runde! Dann hören endlich mal diese Diskussionen auf.

MfG,
Raff
Nicht jeder war von der V5-Bildqualität so restlos begeistert. Ich zum Beispiel nicht. Die Karte war sicher nicht schlecht, aber auch nicht herausragend gut.


Mal so ein Gedanke: Vor etwa einem Jahr bemerkten die Grünen, eventuell unter Einfluss der übernommenen 3dfx-Ingenieure, dass transparente Texturen saugen und man sie deshalb glätten könne. Nun kostet der Spaß aber bei z.B. massivem Alphatesting (Serious Sam 2 Greendale ahoi) mal eben knapp so viel wie äquivalentes Vollbild-Supersampling. Tolle Entwicklung. Warum bietet man nicht gleich Vollbild-6xSGSS an und nimmt den AF-Effekt mit?

MfG,
Raff
TSAA kostet nur dann so viel wie Vollbild-Supersampling, wenn es praktisch Vollbild-Supersampling ist.
Was ich NVidia viel eher vorhalte ist dass sie Transparency Multisampling (Alpha to Coverage) nicht gepusht haben, obwohl prinzipiell schon seit GeForce 3 unterstützt.

Und als "minimal" würde ich den AF-Effekt nicht bezeichnen. Bereits 3dfx'sches 4xAA erlaubt Textur-LoDs im stark negativen Bereich,
Weniger als -1.

Gast
2006-03-05, 19:26:27
Zu der Zeit gabs meistens noch nicht so scharfe Texturen. Da reichte bilinear + negativem LOD total. Und bei den paar Spielen wo das nicht der Fall war, war Mipmapdithering meistens ganz ok. Die Q3a Szene kennt ja mittlerweile jeder und weiss auch, dass das den so ziemlichen Worstcase darstellt. Die Szene von Max Payne hat aths mal verwendet um den brilinearem Filter zu demonstrieren. Dh.: so hässlich wie auf den Screenshots, wars eigentlich kaum wo. ;)

http://666kb.com/i/11908ms640kxt.jpg

http://666kb.com/i/1190a9ms5mwht.jpg

beide szenen (vor allem die quake-szene) sind ja geradezu hässlich, was die mipmapinterpolation angeht, und das schon auf einem standbild, wie das in bewegung aussieht will ich garnicht erst wissen.

Mal so ein Gedanke: Vor etwa einem Jahr bemerkten die Grünen, eventuell unter Einfluss der übernommenen 3dfx-Ingenieure, dass transparente Texturen saugen und man sie deshalb glätten könne. Nun kostet der Spaß aber bei z.B. massivem Alphatesting (Serious Sam 2 Greendale ahoi) mal eben knapp so viel wie äquivalentes Vollbild-Supersampling. Tolle Entwicklung. Warum bietet man nicht gleich Vollbild-6xSGSS an und nimmt den AF-Effekt mit?

TSSAA kostet im schlimmsten fall (alles alpha-tests) genau gleich viel leistung als FSAA. im besten fall (garkeine AT-Texturen) genau gleich viel leistung wie multisampling. es setzt die leistung also so effizient wie möglich in qualität um.
4xTSSAA kostet auch mit vielen AT-texturen in der regel "nur" 50% performance, FSSSAA würde in der gleichen szene 75% kosten (wenn man von grakalimitierung ausgeht), was die FPS nochmal halbieren würde.

Und als "minimal" würde ich den AF-Effekt nicht bezeichnen. Bereits 3dfx'sches 4xAA erlaubt Textur-LoDs im stark negativen Bereich, mit 6xFSSS ginge noch mehr. Dann bräuchte man eben entsprechend weniger "normale" anisotrope Filterung, eventuell wäre 4xAF auf alle Winkel ausreichend für rattenscharfe Texturen im ganzen Level. Dazu absolute Flimmerfreiheit.

mehr als "2xAF" bekommst du mit 4xFSSSAA nicht flimmerfrei hin (bei 4xRGSSAA kann sogar ein LOD von -1, also "2xAF" unter gewissen umständen zu leichtem flimmern führen, aber das wollen wir mal vernachlässigen)

bei 2xRGSSAA kannst du bei 3dFX blöderweise das LOD überhaupt nicht verschieben ohne flimmer zu riskieren. 2xSSAA überfiltert nämlich nur in einer richtung (bei RGSSAA blöderweise noch dazu in einer extrem ungünstigen richtung) so dass ein allgemeines verschieben des LODs zwangsweise in anderen winkeln zum flimmern führt.

aths
2006-03-05, 19:27:58
Was ich hier im Forum immer wieder feststelle: Viele versuchen anhand der Theorie logisch 3dfx' Bildqualität zu erklären, scheitern aber an der Realität. Jungs, baut euch eine Voodoo5 ein und spielt mal eine Runde! Dann hören endlich mal diese Diskussionen auf.Gamma-optimierte Speicherung im Framebuffer macht schon was aus. Die Ergebnisse von Texturblends sind dank Gamma-Optimierung bei UT in Glide (16 Bit Framebuffer, 32 Bit Textur-Blending) besser als in D3D mit 32 Bit.

Das Problem ist, dass viele nur von der mathematischen Theorie ausgehen. Was näher an der mathematischen Wahrheit liegt ist besser.
Nur vernachlässigt man dabei die menschliche Wahrnehmung. Dieser ist es manchmal ziemlich egal, was mathematisch korrekt ist oder nicht. In der hinsicht, sieht das ATI WA AF gar nicht so schlecht aus, trotz mathematischer Unterlegenheit und so geht es sicher auch den Voodoos.Wenn es für das bessere Bild keine logische Erklärung gibt, hat man entweder die Mathematik dahinter nicht verstanden, oder einen irrelevanten Einzelfall gefunden. Das Bild, das näher am mathematisch korrekten ist, kann prinzipiell als das bessere betrachtet werden. Unsere Augen nehmen (innerhalb unserer Grenzen) die Realität wahr, also sollte 3D-Rendering die Realität so exakt wie möglich (in der Praxis wegen dem Echtzeitanspruch allerdings nur so exakt wie nötig) wiedergeben. Das kommt dann auch dem Auge entgegen. Dass Verfälschungen vom einen oder anderen als "besser" emfunden werden, kann man wegen der Subjektivität nicht als Kriterium heranziehen. Oftmals ist das auch mit Unwissen verbunden, so tönten viele GF2-Besitzer dass sie kein Antialiasing bräuchten da sie ja in 1600x1200 spielen würden. Sofern der Monitor was taugt, brauchen sie aber Antialiasing – spätestens, nachdem sie eine halbe Stunde mit vernünftigem AA gespielt haben.

Mr. Lolman
2006-03-05, 20:26:06
beide szenen (vor allem die quake-szene) sind ja geradezu hässlich, was die mipmapinterpolation angeht, und das schon auf einem standbild, wie das in bewegung aussieht will ich garnicht erst wissen.


Bei der Voodoo läuft anscheinend noch irgendein Filter@Scanout drüber. Da sieht mans ingame nicht so stark. Außerdem sind beide Szenen absoluter Worstcase. Weisst du wie hässlich falsch aktiviertes NV"HQ"AF in der Q3a Szene aussieht?

Wahrscheinlich nicht. Stell dir einfach ein hässliches Biband statt nem Mipmapübergang vor... :tongue:

Gast
2006-03-05, 20:27:48
Oftmals ist das auch mit Unwissen verbunden, so tönten viele GF2-Besitzer dass sie kein Antialiasing bräuchten da sie ja in 1600x1200 spielen würden. Sofern der Monitor was taugt, brauchen sie aber Antialiasing – spätestens, nachdem sie eine halbe Stunde mit vernünftigem AA gespielt haben.

naja wenn man beim röhrenmonitor die maske überfährt hat man ja sowas ähnliches wie SSAA ;)

Mr. Lolman
2006-03-05, 20:30:14
mehr als "2xAF" bekommst du mit 4xFSSSAA nicht flimmerfrei hin (bei 4xRGSSAA kann sogar ein LOD von -1, also "2xAF" unter gewissen umständen zu leichtem flimmern führen, aber das wollen wir mal vernachlässigen)


Bei damaligen Spielen (UT-Engine) war ein flimmerfreies LOD-2 drinnen. Ok, bei der standardmässigen Texturschärfe ist da kein Wunder. War doch das default LOD AFAIK schon bei -0.5. Trotzdem: LOD@ -1.5 + 4xSGSSAA sah eigentlich bei jedem Spiel gut aus.


bei 2xRGSSAA kannst du bei 3dFX blöderweise das LOD überhaupt nicht verschieben ohne flimmer zu riskieren. 2xSSAA überfiltert nämlich nur in einer richtung (bei RGSSAA blöderweise noch dazu in einer extrem ungünstigen richtung) so dass ein allgemeines verschieben des LODs zwangsweise in anderen winkeln zum flimmern führt.

Richtiger ist, dass sie in eine Richtung nicht überfiltern. Und zwar in die Richtung, in dem der Winkel der die Samples gedreht wirken. Also 45° nach rechts.

Coda
2006-03-05, 20:32:30
Es hätte aber bis zum heutigen Tage und darüber hinaus großen Sinn. ;)Nein. Es gehört vielmehr den Devs in den Arsch getreten gefälligst das Abtasttheorem einzuhalten.

Mr. Lolman
2006-03-05, 20:32:32
Wenn es für das bessere Bild keine logische Erklärung gibt, hat man entweder die Mathematik dahinter nicht verstanden, oder einen irrelevanten Einzelfall gefunden. Das Bild, das näher am mathematisch korrekten ist, kann prinzipiell als das bessere betrachtet werden. Unsere Augen nehmen (innerhalb unserer Grenzen) die Realität wahr, also sollte 3D-Rendering die Realität so exakt wie möglich (in der Praxis wegen dem Echtzeitanspruch allerdings nur so exakt wie nötig) wiedergeben. Das kommt dann auch dem Auge entgegen. Dass Verfälschungen vom einen oder anderen als "besser" emfunden werden, kann man wegen der Subjektivität nicht als Kriterium heranziehen. Oftmals ist das auch mit Unwissen verbunden, so tönten viele GF2-Besitzer dass sie kein Antialiasing bräuchten da sie ja in 1600x1200 spielen würden. Sofern der Monitor was taugt, brauchen sie aber Antialiasing – spätestens, nachdem sie eine halbe Stunde mit vernünftigem AA gespielt haben.


Naja, ein 2x2 box Filter verfälscht ja auch das Bild. Trotzdem wird wohl quasi jeder das gefilterte Bild besser finden, als das ungefilterte.

BTW: Ein bilinearer Filter verfälscht ja auch schon die Darstellung, oder? :rolleyes:

Coda
2006-03-05, 20:33:36
Naja, ein 2x2 box Filter verfälscht ja auch das Bild. Trotzdem wird wohl quasi jeder das gefilterte Bild besser finden, als das ungefilterte.Wie meinst du das? 2x2 OGSSAA? Das verfälscht das Bild doch nicht.

Falls du einen 2x2 Blur meinst: Gehts noch?

BTW: Ein bilinearer Filter verfälscht ja auch schon die Darstellung, oder? :rolleyes:Nö.

Mr. Lolman
2006-03-05, 20:39:34
Wie meinst du das? 2x2 OGSSAA? Das verfälscht das Bild doch nicht.

Falls du einen 2x2 Blur meinst: Gehts noch?

Nö, ich meinte 3dfxsches Postfiltering.


Nö.

Imo schon. Jeder Filter verfälscht das Original in gewisser Weise.

Coda
2006-03-05, 21:01:34
Nö, ich meinte 3dfxsches Postfiltering.Das is ja kein simpler 2x2-Filter. Und ja, es gibt durchaus Fälle wo das Ding sich negativ auswirkt.

Imo schon. Jeder Filter verfälscht das Original in gewisser Weise."Verfälschen" ist das falsche Wort, weil es so gewollt ist. An den Bereichen wo man keine Blockartefakte sehen würde mit nearest-filtering sieht auch bilinear nicht anders aus.

Mr. Lolman
2006-03-05, 21:05:33
Das is ja kein simpler 2x2-Filter. Und ja, es gibt durchaus Fälle wo das Ding sich negativ auswirkt.

Das will ich auch nicht abstreiten. Aber in wohl >95% der Fälle hat man eine zT deutliche BQ Verbesserung.


"Verfälschen" ist das falsche Wort, weil es so gewollt ist. An den Bereichen wo man keine Blockartefakte sehen würde mit nearest-filtering sieht auch bilinear nicht anders aus.

Die Verfälschungen von den aths sprach, sind ja auch absichtlich verursachte.

aths
2006-03-05, 21:06:44
Naja, ein 2x2 box Filter verfälscht ja auch das Bild. Trotzdem wird wohl quasi jeder das gefilterte Bild besser finden, als das ungefilterte. Dithering ist per se schlecht, aber ohne hätte man extremes Colorbandig (auch schlecht). Der Filter kann nur ohnehin schwaches Dithering weichmachen, ansonsten kommt er ja nicht zum Einsatz. Würde auffälliges Dithering weichgemacht, würde das gesamte Bild sehr unscharf. Der Filter der Voodoo ist eine Krücke. Die Verfälschung findet beim Runden / Dithern in den 16-Bit-Framebuffer statt. Der Filter versucht, den Teufel mit dem Beelzebub auszutreiben.

BTW: Ein bilinearer Filter verfälscht ja auch schon die Darstellung, oder? :rolleyes:Das hängt davon ab, wie man die Textur sieht. Zufällig schreib ich gerade was in der Richtung für eine bekannte Zeitschrift. Texturfilterung ist bei vernünftigen Bildtexturen keine Verfälschung, er nähert das Resultat an, was man bei extremen Supersampling erhalten würde.

Coda
2006-03-05, 21:07:21
Einen Postfilter muss man immer kritischer betrachten. Bei bilinear kann es ja nicht vorkommen dass dadurch Informationen verschwinden, bei dem Ding schon.

Texturfilterung ist bei vernünftigen Bildtexturen keine Verfälschung, er nähert das Resultat an, was man bei extremen Supersampling erhalten würde.Stimmt das auch bei der Magnification? Edit: Ne tuts nich, außer ich überlegs mir grad völlig falsch.

Mr. Lolman
2006-03-05, 21:11:08
ACK euch beiden.

P.S.: Hier ein 16bit Vergleich. Auffällig ist das sehr geringe Dithering der 3dfx Karten, schon ohne Postfilter. (Wegen dem höheren 3dfx Gamma wurde jew. eine Bildhälfte um 15% abgedunkelt): http://web.archive.org/web/20010904190445/3dconcept.ch/artikel/dithering/incoming-vergleich.jpg

Bokill
2006-03-05, 21:29:22
ack ... Edit: Was ich persönlich auch immer an 3dfx geliebt habe, war dessen glide schnittstelle. Eine sehr effiziente api die direkt auf ihre karten optimiert war. An NVs stelle hätte ich dies auch probiert, da wären bestimmt noch so 10-10 prozent mehr performance drinn. Aber das ist leider schon zu spät. Ja die Glideschnittstelle war damals was wirklich feines ...

Ein derartige Reaktion: "Boahhh ey" mit meinen damaligen Voodoo Spielen und Voodoo-Karten hatte ich danach nie wieder ...

Es ist aber müssig zu diskutieren, was wäre wenn, da Glide abgeschlossene Geschichte ist. Man sollte sich dafür einsetzen, dass neben Microsoft mit seinen DXnochwas weiterhin mindestens eine weitere Alternative beständig weiterentwickelt wird. Zum Glück lebt ja OpenGL weiterhin auch noch in der Spielewelt.

MFG Bobo(2006)

Xmas
2006-03-05, 21:51:08
ACK euch beiden.

P.S.: Hier ein 16bit Vergleich. Auffällig ist das sehr geringe Dithering der 3dfx Karten, schon ohne Postfilter. (Wegen dem höheren 3dfx Gamma wurde jew. eine Bildhälfte um 15% abgedunkelt): http://web.archive.org/web/20010904190445/3dconcept.ch/artikel/dithering/incoming-vergleich.jpg
Sehr gering finde ich das eigentlich nicht, nur ist das Dithern der Rage128 nochmal deutlich stärker (dafür weniger gleichmäßig). Natürlich war es keine schlechte Idee aus dem gegebenen Bandbreite das beste herauszuholen, aber qualitativ war es zu 32 Bit dann doch nochmal ein sichtbarer Unterschied.

Gast
2006-03-05, 22:25:14
Bei der Voodoo läuft anscheinend noch irgendein Filter@Scanout drüber. Da sieht mans ingame nicht so stark. Außerdem sind beide Szenen absoluter Worstcase. Weisst du wie hässlich falsch aktiviertes NV"HQ"AF in der Q3a Szene aussieht?



ja weiß ich, wie bilinear (um genau zu sein ist es bilinear), und ja reines bilinear sieht noch schlechter aus. trotzdem sind die von dir geposteten screens alles andere als schön.

btw.: ich bin nicht der "unfreundliche" gast von oben, schade das es auch solche gibt.

Richtiger ist, dass sie in eine Richtung nicht überfiltern. Und zwar in die Richtung, in dem der Winkel der die Samples gedreht wirken. Also 45° nach rechts.

ich glaub wir reden da vom selben nur eben "andersrum" ausgedrückt.
die korrekte LOD-blume für 2xRGSSAA wäre nvidias blume mit 1x2SS-anteilen um 45° gedreht (in welche richtung das 3dfx-FSAA war weiß ich jetzt nicht)

senkrechte und waagrechte flächen dürfen ein LOD von -0,5 (eigentlich nicht mal ganz, da der sampleabstand bei RGAA größer ist als bei OGAA) abbekommen, flächen in richtung der gedrehten samples -1 und um 90° dazu versetzte flächen garkein negatives LOD.

wenn ein spiel großteils waagrechte und senkrechte flächen enthält kann ich mir vielleicht noch maximal -0,5 vorstellen, mit leichtem flimmern.
aber das wahre ist das auch nicht, schließlich ist das nichtmal 2xAF.

Bei damaligen Spielen (UT-Engine) war ein flimmerfreies LOD-2 drinnen. Ok, bei der standardmässigen Texturschärfe ist da kein Wunder. War doch das default LOD AFAIK schon bei -0.5. Trotzdem: LOD@ -1.5 + 4xSGSSAA sah eigentlich bei jedem Spiel gut aus.

auch damals nicht, klar beginnt bei geringer texturauflösung die mipmap naturgemäß später, wodurch bei falschem LOD auch das flimmern erst später beginnt, aber es ist da.

andererseits hatte man damals in der regel auch geringere auflösungen, wodurch sich das flimmern wieder verstärkt.

Mr. Lolman
2006-03-05, 22:41:45
ja weiß ich, wie bilinear (um genau zu sein ist es bilinear), und ja reines bilinear sieht noch schlechter aus. trotzdem sind die von dir geposteten screens alles andere als schön.

btw.: ich bin nicht der "unfreundliche" gast von oben, schade das es auch solche gibt.

Hab ich mir schon gedacht. Naja, um den frechen Gast zu ärgern hab ich doch schnell nen "pseudo-HQ" Screenshot gemacht (6800GT, 4xAA/8xAF):

http://666kb.com/i/1191ywf5u00ld.jpg



ich glaub wir reden da vom selben nur eben "andersrum" ausgedrückt.
die korrekte LOD-blume für 2xRGSSAA wäre nvidias blume mit 1x2SS-anteilen um 45° gedreht (in welche richtung das 3dfx-FSAA war weiß ich jetzt nicht)

senkrechte und waagrechte flächen dürfen ein LOD von -0,5 (eigentlich nicht mal ganz, da der sampleabstand bei RGAA größer ist als bei OGAA) abbekommen, flächen in richtung der gedrehten samples -1 und um 90° dazu versetzte flächen garkein negatives LOD.

wenn ein spiel großteils waagrechte und senkrechte flächen enthält kann ich mir vielleicht noch maximal -0,5 vorstellen, mit leichtem flimmern.
aber das wahre ist das auch nicht, schließlich ist das nichtmal 2xAF.

auch damals nicht, klar beginnt bei geringer texturauflösung die mipmap naturgemäß später, wodurch bei falschem LOD auch das flimmern erst später beginnt, aber es ist da.

andererseits hatte man damals in der regel auch geringere auflösungen, wodurch sich das flimmern wieder verstärkt.

Ja, aber bei reinem bilinearem Filtering würde ohnehin erst ab nem LODBias von +0.5 nicht mehr unterfiltert. Trotzdem stört beim bilinearem Filtering am zuerst das Mipband. Beim Mipmapdithering wird dieser Bereich nur mehr tw. unterfiltert. Außerdem bild ich mir ein, dass bei aktivem Dithering das 3dfx LOD noch zusätzlich leicht positiver ist. Klar sind das alles nur Kompromisse, aber imo war Mipmapdithering + SGSSAA der bessere Komprimiss als trilineares Filtering + OGSSAA. Wenn dann die Geschwindigkeit für 32bit nicht reichte, machte 3dfx' 16/22bit das bessere Bild, als die Konkurrenz.

Naja, falls ich irgendwann meine Voodoo5 6000 zurückbekomme, werd ich eh ein ausführliches Retroreview basteln, mit massig BQ Vergleichen undso. =)

Gast
2006-03-05, 22:55:58
Hab ich mir schon gedacht. Naja, um den frechen Gast zu ärgern hab ich doch schnell nen "pseudo-HQ" Screenshot gemacht (6800GT, 4xAA/8xAF):

http://666kb.com/i/1191ywf5u00ld.jpg


auf diesem shot sieht das imo sogar besser aus als die vorrigen ;)
man sieht natürlich den mip-übergang, aber das ist alles, während beim geditherten bild über eine größere fläche "unregelmäßigkeiten" zu sehen sind.

ich weiß allerdings wie schrecklich das in bewegung aussehen muss ;)




Ja, aber bei reinem bilinearem Filtering würde ohnehin erst ab nem LODBias von +0.5 nicht mehr unterfiltert.


das weiß ich ehrlich gesagt nicht, korrektes trilinear unterfiltert aber nirgends.



Klar sind das alles nur Kompromisse, aber imo war Mipmapdithering + SGSSAA der bessere Komprimiss als trilineares Filtering + OGSSAA. Wenn dann die Geschwindigkeit für 32bit nicht reichte, machte 3dfx' 16/22bit das bessere Bild, als die Konkurrenz.


für kanten ja, für texturen definitiv nein.

flatbrain
2006-03-05, 23:00:55
Es wäre schön, wenn Flames/Beleidigungen hier unterbleiben.

aths
2006-03-06, 00:20:59
Einen Postfilter muss man immer kritischer betrachten. Bei bilinear kann es ja nicht vorkommen dass dadurch Informationen verschwinden, bei dem Ding schon.

Stimmt das auch bei der Magnification? Edit: Ne tuts nich, außer ich überlegs mir grad völlig falsch.Bei Vergrößerung würde Pointsampling+Supersampling ein anderes Ergebnis liefern, Texelblöcke mit geglätteten Kanten. Die Frage stellt sich, was die Textur ist: Farbpixel oder Farbtexel? Der Filter sieht die Texel als Punkte, nicht als Pixel. Das Ergebnis wird im Allgemeinen als besser gesehen, während "trilineares Pointsampling", solange Texturen nicht vergrößert werden, zumindest im Standbild erträglich ist. Die ungefilterten Blöcke bei Texturvergrößerung fallen aber sehr schnell auf.

Raff
2006-03-06, 00:33:07
Nein. Es gehört vielmehr den Devs in den Arsch getreten gefälligst das Abtasttheorem einzuhalten.

Und was hilft uns das bei den hunderten von erschienenen Spielen, die flimmern? Ich schaue gerade nach hinten. Natürlich ist es sinnvoller, einfach alles, was flimmert, zu verbannen.

MfG,
Raff

Coda
2006-03-06, 09:26:45
Bei Vergrößerung würde Pointsampling+Supersampling ein anderes Ergebnis liefern...Sag ich doch ;)

aths
2006-03-06, 16:03:00
Und was hilft uns das bei den hunderten von erschienenen Spielen, die flimmern? Ich schaue gerade nach hinten. Natürlich ist es sinnvoller, einfach alles, was flimmert, zu verbannen.Welche hunderte Spiele flimmern denn? Alphatest-Flimmern bekommt man ja neuerdings in den Griff.

Ailuros
2006-03-07, 02:09:52
Ein G70/71 hat extrem viel Füllrate, da bietet sich FSSSAA (OMG) doch förmlich an. Sicher, dazu braucht es Hardware-Anpassung.

Und als "minimal" würde ich den AF-Effekt nicht bezeichnen. Bereits 3dfx'sches 4xAA erlaubt Textur-LoDs im stark negativen Bereich, mit 6xFSSS ginge noch mehr. Dann bräuchte man eben entsprechend weniger "normale" anisotrope Filterung, eventuell wäre 4xAF auf alle Winkel ausreichend für rattenscharfe Texturen im ganzen Level. Dazu absolute Flimmerfreiheit.

MfG,
Raff


NV4x/G7x erlauben durch Applikationen auch 4*4 OGSS bis zu 1024*768.

2x sample SS = -0.5
4x sample SS = -1.0 (etwa 2xAF equivalent)
16x sample SS = -2.0 (etwas 4xAF equivalent)

So und jetzt erklaer mir mal bitte wieso irgend ein bloeder IHV einen chip bauen wuerde der eine so miese Balance zwischen Fuellrate und Bandbreite haben wuerde.

Die LOD Verschiebung der obrigen Modi laesst sich in Filterungstestern nachstellen und die idiotisch geringe Fuellrate die uebrigbleibt mit 16x SS genauso mit einem Fuellrate-Tester.

Und das ist nur ein Drittel der schlechten Nachricht wenn man SSAA hypothetisch mit AF ersetzen will. Hinzu kommt noch der enorme Bandbreiten und Speicher-verbrauch fuer hohe SS Sampleanzahlen und dafuer waere nur ein TBDR geeignet; wobei aber auch hier der Fuellraten-Aufwand durchaus gegen SSAA spricht.

--------------------------------------------------

***edit: Nachtrag zur ueblichen 3dfx Trauerei und nochmal fuer diejenigen die nur das einsehen wollen wass ihnen gerade passt:

Da der original Rampage eigentlich ein V2 Nachfolger haette sein sollen, war schon damals in den ersten R-Designs der M-Buffer (ja "M" fuer Multisampling) geplant. Als man nach etlichen Verspaetungen und re-Designs nach Avenger (V3) nochmal einsah dass es wieder nicht klappt, dachte man an dual chip boards und Tarolli wandelte den M-Buffer zum T-buffer um weil Napalm zu grosse Aenderungen gebraucht haette um Multisampling zu unterstuetzen und dazu gab es damals weder Zeit noch Resourcen.

Raff
2006-03-07, 09:49:13
NV4x/G7x erlauben durch Applikationen auch 4*4 OGSS bis zu 1024*768.

2x sample SS = -0.5
4x sample SS = -1.0 (etwa 2xAF equivalent)
16x sample SS = -2.0 (etwas 4xAF equivalent)

Du sagst es. Nvidia braucht den vierfachen Rechenaufwand, um mit 3dfx' 4xSGSS in Sachen Polygonglättung gleichzuziehen ... wobei es bei Nv immerhin "2xAF" mehr gibt bzw. geben sollte. Dass ein sparse grid effizienter ist, ist ja klar. ;)

MfG,
Raff

Ailuros
2006-03-07, 12:19:01
Du sagst es. Nvidia braucht den vierfachen Rechenaufwand, um mit 3dfx' 4xSGSS in Sachen Polygonglättung gleichzuziehen ... wobei es bei Nv immerhin "2xAF" mehr gibt bzw. geben sollte. Dass ein sparse grid effizienter ist, ist ja klar. ;)

MfG,
Raff

Polygonglaettung erreicht man auch mit 4xRGMS. Ich straeube mich lediglich gegen den Bloedsinn dass angeblich eine hohe SS- sample Anzahl eventuell AF ersetzen koennte.

Ob jetzt OG oder RGSS Du wirst um quasi 4xAF zu emulieren, auch 16xSS samples brauchen. Einer 7800GTX256 bleiben damit von den 10.3 GTexels/s bilinear nur noch 645 MTexels/s bilinear uebrig und das sind theoretische maximale Werte.

Samplepositionierung hat ueberhaupt nichts mit der Texturen-schaerfe zu tun. Ob 4xRGSS oder 4xOGSS, die LOD-Verschiebung sollte normalerweise auf -1.0 sein und ergo quasi 2xAF.

Coda
2006-03-07, 12:22:02
Uhm das hat schon was mit den Samplepositionen zu tun, aber praktisch ist es irrelevant, da der Unterschied so gering ist.

Ailuros
2006-03-07, 12:27:37
Uhm das hat schon was mit den Samplepositionen zu tun, aber praktisch ist es irrelevant, da der Unterschied so gering ist.

Eben weil der Unterschied so gering ist, ist es nicht der Rede Wert. Hier nochmal was ein Filterungstester anzeigt wenn zu AF noch SS dazuschaltet:

http://www.mitrax.de/?cont=artikel&aid=24&page=3

Ausser es hat sich was geaendert, SuperAA modi mit SS-Anteil versetzen LOD ueberhaupt nicht. Ein LOD offset mit SS ist nicht garantiert; es ist eben nur so dass normalerweise mit jeweils 2xSS samples um -0.5 versetzt wird.

Coda
2006-03-07, 12:29:18
Ich weiß schon wie sich das auswirkt. Bei nVIDIAs OGSSAA resultiert der LOD ja auch einfach aus der höheren Auflösung in der das Bild ursprünglich berechnet wurde. Da muss der Treiber nichtmal viel "denken" dabei - es passt automatisch.

betasilie
2006-03-07, 12:30:03
Das wage ich zu bezweifeln.
Na, dann schau dir doch mal die ganzen Verwirten an, die sich eine 6800GT/Ultra gekauft haben, weil sie geglaubt haben, dass SM3.0 ihnen was zu Lebzeiten des Chips groß was bringt.

Die X8xxer Karten waren und sind die wesentlich bessere Wahl, weil SM3.0 Funktionaltät erst ab Ende 2006 wirklich interessant wird und SM3.0-High-Details kannst Du Ende 2006 und 2007 mit einer 6800er Karte sicher nicht mehr fahren, wenn das schon jetzt nicht mehr wirklich geht bei vielen Spielen, wenn man vernünftige Frameraten haben will.

Auch einige sogenannten Profis hier im Forum, haben diesen Funktionalitätshype mit angezettelt, der den Kunden garnichts gebracht hat.

Das NV Marketing hat dann auch schön SM3.0 und HDR gehyped, obwohl der Kunde praktisch nichts davon hat und hatte. Ganz so wie damals zu 3DFX Zeiten, als 32bit als non-plus-ultra angepriesen wurde, obwohl die Karten in 32bit total einbrachen.

nVidia kann man das sicherlich nicht so richtig vorwerfen, aber einigen Leuten hier im Forum, die in ihrer Funktionalitätsgeilheit, den Lesern ein falsches Bild vermittelt haben. Aber trotzdem finde ich, dass Marketing nicht zu aggressiv sein sollte, und nVida hat in den letzten Jahren ein paar mal extrem unfeine Sachen in der Hinsicht gebracht.

Ailuros
2006-03-07, 12:38:18
Wir brauchen bessere Filterungs-Algorithmen und nicht die Fuellraten mit FS-SSAA verschwenden.

Eine Loesung fuer moegliches shader-aliasing fuer die Zukunft waere adaptives shader-AA, aber ich fuerchte dass auch hier das gleiche wie mit Transparenz-AA gelten wird: ist die Menge der alpha Test Texturen in einer Szene hoch genug , gewinnt man nicht unbedingt sehr viel in Leistung gegenueber full scene SS.

Mir waere es lieber wenn die Entwickler dafuer sorgen wuerden, dass ihre Spiele nur minimal oder gar kein Supersampling brauchen und dabei egal ob dieses adaptiv ist oder nicht.

Ailuros
2006-03-07, 12:48:45
Na, dann schau dir doch mal die ganzen Verwirten an, die sich eine 6800GT/Ultra gekauft haben, weil sie geglaubt haben, dass SM3.0 ihnen was zu Lebzeiten des Chips groß was bringt.

Die X8xxer Karten waren und sind die wesentlich bessere Wahl, weil SM3.0 Funktionaltät erst ab Ende 2006 wirklich interessant wird und SM3.0-High-Details kannst Du Ende 2006 und 2007 mit einer 6800er Karte sicher nicht mehr fahren, wenn das schon jetzt nicht mehr wirklich geht bei vielen Spielen, wenn man vernünftige Frameraten haben will.

Auch einige sogenannten Profis hier im Forum, haben diesen Funktionalitätshype mit angezettelt, der den Kunden garnichts gebracht hat.

Das NV Marketing hat dann auch schön SM3.0 und HDR gehyped, obwohl der Kunde praktisch nichts davon hat und hatte. Ganz so wie damals zu 3DFX Zeiten, als 32bit als non-plus-ultra angepriesen wurde, obwohl die Karten in 32bit total einbrachen.

nVidia kann man das sicherlich nicht so richtig vorwerfen, aber einigen Leuten hier im Forum, die in ihrer Funktionalitätsgeilheit, den Lesern ein falsches Bild vermittelt haben. Aber trotzdem finde ich, dass Marketing nicht zu aggressiv sein sollte, und nVida hat in den letzten Jahren ein paar mal extrem unfeine Sachen in der Hinsicht gebracht.


Es gibt aber auch einen Gegenfuss zu der Geschichte und zu diesem hat ATI ihr eigenes Marketing angepasst.

Man entwickelte den alten "R400" (siehe quasi Xenos ein SM3.0 USC und sah das dass Ding zu langsam als PC SM3.0 geworden waere. Man storniert das Ding, setzt den bisherigen Entwicklungsaufwan fuer Xenos ein, braucht ein paar "Maennerstunden" um R420 zu entwickeln und kommt mit 1.5 Jahre Verspaetung erst mit SM3.0 im PC an.

Was bringt SM3.0 und/oder float HDR heute dass es vor einem Jahr nicht brachte? Mit welcher Basisplatform entwickelten die Entwickler ihre zukuenftigen Spiele bis November 2005?

Marketing dreht Dir in allen Faellen eine Realtitaet zu recht die gerade eben zu dem was man gerade liefern kann passt. Ich sag es Dir mal anders und will hoffen dass es wenigstens hilft die Sache von einer anderen Perspektive zu sehen. Angenommen ATI haette R520 anstatt der R420 in 2004 veroeffentlicht. Waere es oder waere es nicht moeglich gewesen dass Entwickler etwas mehr mit gutem PS dynamischen branching herumgespielt haetten und wieso besteht hier die Moeglichkeit dass NVIDIA am Ende hier im Nachteil stehen wuerde?

***edit: und um es noch klarer zu stellen, als DX9.0 festgelegt und veroeffentlicht wurde waren SM2.0, SM2.0_extended und SM3.0 festgelegt. Die Spezifikationen wurden von allen IHVs und Microsoft (ja auch ATI) damals festgelegt und Du kannst auch wetten was Du willst dass ATI damals eine Veroeffentlichung einer SM3.0 GPU mit NVIDIA plante.

Ailuros
2006-03-07, 13:02:50
Das NV Marketing hat dann auch schön SM3.0 und HDR gehyped, obwohl der Kunde praktisch nichts davon hat und hatte. Ganz so wie damals zu 3DFX Zeiten, als 32bit als non-plus-ultra angepriesen wurde, obwohl die Karten in 32bit total einbrachen.

Lass mal NVIDIA weg aus der Rechnung und erklaer mir welcher Hersteller ausser 3dfx damals nur auf 16bpp oder 22bpp post-filtered begrenzt war?

Oder bist Du vielleicht so naiv zu glauben dass das selige 3dfx damals den SEGA Dreamcast Vertrag gegen Videologic verloren hat, weil sie 3dfx nicht "leiden" konnten? 3dfx arbeitete an einem V2-aenlichen Dingsbums, waehrend Videologic mit 32bpp, 1024*1024 Texturen und quasi 2x SSAA ankam.

3dfx hat ihr eigenes Grab ausgeschaufelt und mit dem unendlichen Mist die das obrige Management aufgetischt haben, haben sie auch kein besseres Ende verdient. Man hatte zu der Zeit damals wo man die Console fuer Sega entwickelte knapp 75 engineers und ein gesundes Prozentual davon arbeiteten am Consolen-chip. Und das war dann schon der Anfang vom Ende als man aus mangelnden Resourcen nur noch weiter aufgekochte und revampte chips auf den Markt brachte. SEGA aenderte fast in letzter Minute ihre Meinung und liess somit 3dfx auf einem Consolen-chip der ziemlich weit in Entwicklung lag im Stich. Die Resourcen und Zeitverschwendung bedeutete die erste Stornierung des R1-Rampage und damit begann die Saga der unendlichen Voodoo-core-revamps.

Es ist zwar bemerkenswert dass sie mit so wenig Personal dass zustande brachten was am Ende herauskam, aber genug mit der Weihraeucherei; 3dfx hat zu wenig geliefert und Rampage - der 4 totale re-designs erleiden musste - kam am Ende nie auf den Markt und selbst dann waere er auch nicht die absolute Revolution im Gegensatz zur Konkurrenz gewesen.

betasilie
2006-03-07, 13:07:42
Natürlich hat ATI auch erheblich an Agressivität zugelegt. Natürlich sind fortschrittliche Features gerne gesehen und ATI war da eine Zeit lang Bremse.

Der Praxis angepasst bedeutet das aber für den Konsumenten -> ATI böse was die Marktentwicklung angeht, da Technolgiebremse ..., aber auch auch ATI lieb, da sie die schnelleren Karten geboten haben für die Spiele der entsprechenden Genration.

Wie man das ganze bewertet für die Spielentwicklung ist eine Sache, aber Fakt ist, dass man als Konsument ganz klar mit den R420 Karten und Refresh besser gefahren ist, weil sie flimmerfreies AF bieten, schneller sind (abseits der Mainstreamspiele sogar erheblich) und das bessere MSAA bieten.

Und genau darum ging es mir. nVidia muss man anrechnen technologisch oft in gewissen Bereichen Vorreiter zu sein, was den Konsumenten aber wenig kratzt, da diese Technolgie nicht in Spielen nutzen kann. ATI bietet dafür Karten, die mehr den aktuellen Realtitäten angepasst sind. ... Schuld ist da imo keine, aber die Kunden haben mehrheitlich die falsche Ahrdware gekauft, weil sie in Features investiert haben auf Kosten der Leitung, die ihnen nichts bringen.

Raff
2006-03-07, 13:14:15
Warum bemängelt dauernd jemand, dass 3dfx in Endeffekt stets (enorm) aufgebohrte Voodoo1-Grafikkarten verkaufte? Wo war die Voodoo5 denn bitte wirklich hinten dran? T&L ... lachhaft. Was hinten rauskommt, das zählt. Und zu Lebzeiten war keine Voodoo ernsthaft hinter der Konkurrenz auf gleichem Preisniveau.

Und eine Revolution hätte mit dem Rampage gar nicht kommen müssen. Sondern "nur" ein Chip, der die Konkurrenz in gesundem Maße in die Schranken verweist und den Kritikern sowie OEMs das gibt, was sie wollen. Es war verdammt knapp. Dank der beschissenen Planung hat es eben nicht sollen sein ...

MfG,
Raff

Ailuros
2006-03-07, 14:29:51
Warum bemängelt dauernd jemand, dass 3dfx in Endeffekt stets (enorm) aufgebohrte Voodoo1-Grafikkarten verkaufte? Wo war die Voodoo5 denn bitte wirklich hinten dran? T&L ... lachhaft. Was hinten rauskommt, das zählt. Und zu Lebzeiten war keine Voodoo ernsthaft hinter der Konkurrenz auf gleichem Preisniveau.

So und jetzt entkoppel Dich bitte mal vom albernen damaligen 3dfx Marketing und erklaer mir warum 3dfx eine dritte Firma fuer eine getrennte T&L Einheit fuer Napalm beauftragte, diese sich aber zum erbrechen langsam bewiess. Dann erst entschied man sich fuer die hauseigene Sage Entwicklung.

Keine Voodoo ja? Dabei wundert mich warum die V4 damals intern bei 3dfx als "Loser" bezeichnet wurde.

Und eine Revolution hätte mit dem Rampage gar nicht kommen müssen. Sondern "nur" ein Chip, der die Konkurrenz in gesundem Maße in die Schranken verweist und den Kritikern sowie OEMs das gibt, was sie wollen. Es war verdammt knapp. Dank der beschissenen Planung hat es eben nicht sollen sein ...

Als Voodoo2 Nachfolger haette Rampage sehr wohl einen Unterschied gemacht.

Wo ist meine Antwort fuer den Verlust des SEGA Dreamcast Deals?

Hakkerstiwwel
2006-03-07, 14:35:06
Warum bemängelt dauernd jemand, dass 3dfx in Endeffekt stets (enorm) aufgebohrte Voodoo1-Grafikkarten verkaufte? Wo war die Voodoo5 denn bitte wirklich hinten dran? T&L ... lachhaft. Was hinten rauskommt, das zählt. Und zu Lebzeiten war keine Voodoo ernsthaft hinter der Konkurrenz auf gleichem Preisniveau.

Und eine Revolution hätte mit dem Rampage gar nicht kommen müssen. Sondern "nur" ein Chip, der die Konkurrenz in gesundem Maße in die Schranken verweist und den Kritikern sowie OEMs das gibt, was sie wollen. Es war verdammt knapp. Dank der beschissenen Planung hat es eben nicht sollen sein ...

MfG,
Raff
du kannst es drehen und wenden wie du willst: 3dfx Chips boten in einigen Aspekten mehr (FSAA), in anderen weniger (T&L, volle AGP funktionalitaet, 32 bit bis zum VSA100) u.a. als die Konkurenz, und waren zu spaet am Markt. Ob jetzt jemand diese fehlenden Features brauchte oder nicht, war letztendes egal. Ist der Ruf erst ruiniert...
Da das Mangement ausserdem die nicht hereinkommenden Einnahmen unnuetz verpulverte, anstatt das Kapital gewinnbringend zu nutzen, geschah das Unvermeidliche.
Noch mal: in der Summe ihrer Eigenschaften war V5 weder besser noch schlechter als ihre Konkurenz(nV1x, R100), sondern anders, und war am Markt vorbeientwickelt.
ps selbst Rampage, wenn er denn nun gekommen waere, haette die leeren Kassen nicht alleine fuellen koennen

Gast
2006-03-07, 14:36:26
Warum bemängelt dauernd jemand, dass 3dfx in Endeffekt stets (enorm) aufgebohrte Voodoo1-Grafikkarten verkaufte? Wo war die Voodoo5 denn bitte wirklich hinten dran? T&L ... lachhaft.


DOT3, EMBM, Cube mapping, AF..... gar nicht mal so lachhaft sondern eher traurig.

Ailuros
2006-03-07, 14:39:23
Natürlich hat ATI auch erheblich an Agressivität zugelegt. Natürlich sind fortschrittliche Features gerne gesehen und ATI war da eine Zeit lang Bremse.

Ich erwaehnte weder ein Bremse noch deutete sie an. ATI hat den SM3.0 zu ihrem eigenen Vorteil verpasst, um das geht es mir.

Der Praxis angepasst bedeutet das aber für den Konsumenten -> ATI böse was die Marktentwicklung angeht, da Technolgiebremse ..., aber auch auch ATI lieb, da sie die schnelleren Karten geboten haben für die Spiele der entsprechenden Genration.

Das mit den schnelleren Karten ist eben genauso albern. Nur die R420 war eine Faust gegen die 6800Ultra (und das auch nicht in allen Faellen), wobei aber ab 6800GT vs. X800PRO keine sichtbaren Unterschiede zu sehen waren und schon gar nicht im mainstream. Wieviel betraegt denn ultra high end genau vom insgesamten GPU Markt? 2% oder mehr?

Nicht nur hat sich NVIDIA gesunde AGP Marktanteile weiterhin aufgeschnappt zu der Zeit, sondern hatte mit der NV43 (ob AGP oder PCIe) einen klaren Gewinner im Portofolio.

Erst als ATI mehr AGP Loesungen und einen Anteil auf 110nm verschob, aenderte sich das Bild mehr zu Gunsten ATI's.

Wie man das ganze bewertet für die Spielentwicklung ist eine Sache, aber Fakt ist, dass man als Konsument ganz klar mit den R420 Karten und Refresh besser gefahren ist, weil sie flimmerfreies AF bieten, schneller sind (abseits der Mainstreamspiele sogar erheblich) und das bessere MSAA bieten.

Flimmerfrei mit allen Optimierungen eingeschaltet wohl doch nicht. Und das mit den Mainstream-spielen ist sowieso Quark da es auf R4xx keinen Speichercontroller gab um OpenGL nachzuhelfen.

Besseres MSAA (6x sparse) ja kein Zweifel, aber das war auch nichts Neues da dieses schon seit R3xx vorhanden war.

Und genau darum ging es mir. nVidia muss man anrechnen technologisch oft in gewissen Bereichen Vorreiter zu sein, was den Konsumenten aber wenig kratzt, da diese Technolgie nicht in Spielen nutzen kann. ATI bietet dafür Karten, die mehr den aktuellen Realtitäten angepasst sind.

Es ist und bleibt eine oede Entschuldigung und in dem Aspekt sind jegliche Parellelen mit 3dfx grandios daneben. Als 3dfx bergab ging, war ATI zweifellos der Vorreiter global im OEM Markt und dass weil sie eben auch eine Tonne von "nutzlosen" Features angeboten haben. ATI hatte lange vor 3dfx 32bpp in ihren GPUs.

Erst als NVIDIA den OEM Markt angriff kam ATI aus ihrem Schneckenhaus raus und konterte aggressiv auch im PC Markt.


... Schuld ist da imo keine, aber die Kunden haben mehrheitlich die falsche Ahrdware gekauft, weil sie in Features investiert haben auf Kosten der Leitung, die ihnen nichts bringen.

Mehrheitlich duerfte fuer X300/600/700 gelten. Da liegt die eigentliche Mehrzahl und der eigentliche groessere Gewinn.

Raff
2006-03-07, 15:04:30
So und jetzt entkoppel Dich bitte mal vom albernen damaligen 3dfx Marketing und erklaer mir warum 3dfx eine dritte Firma fuer eine getrennte T&L Einheit fuer Napalm beauftragte, diese sich aber zum erbrechen langsam bewiess. Dann erst entschied man sich fuer die hauseigene Sage Entwicklung.

Ich habe doch nie bestritten, dass 3dfx Ressourcen verballert hat. Aber mit dem bisschen, das man hatte, kam mit der Voodoo5 eine verdammt gute Karte heraus. Ich habe mit Marketing (das 3dfx unglücklicherweise nicht hatte) nichts am Hut.


Keine Voodoo ja? Dabei wundert mich warum die V4 damals intern bei 3dfx als "Loser" bezeichnet wurde.

Ok, war etwas unglücklich formuliert. Ich meinte das High-End-Segment. Die Voodoo4 sah in der Tat gegen GF2 MX und Kyro kein Land ... Glide ausgenommen.

Als Voodoo2 Nachfolger haette Rampage sehr wohl einen Unterschied gemacht.

War er denn schon für 1999 mit 4xRGMS und 16xAF geplant? :confused: Das wäre schon fast mehr als eine Revolution gewesen.

DOT3, EMBM, Cube mapping, AF..... gar nicht mal so lachhaft sondern eher traurig.

Keines der genannten Features war damals essenziell. Heutzutage vermisse ich lediglich AF, und wenn es nur maximal 4x wäre. Mit dem SSAA hat man - wie erwähnt - ja einen ähnlichen Effekt. Zu Lebzeiten hatte man davon mehr als von den bei drei Spielen genutzten Features EMBM oder Cube Mapping. Siehe SM3.0 bei NV. ;)

du kannst es drehen und wenden wie du willst: 3dfx Chips boten in einigen Aspekten mehr (FSAA), in anderen weniger (T&L, volle AGP funktionalitaet, 32 bit bis zum VSA100) u.a. als die Konkurenz, und waren zu spaet am Markt. Ob jetzt jemand diese fehlenden Features brauchte oder nicht, war letztendes egal. Ist der Ruf erst ruiniert...
Da das Mangement ausserdem die nicht hereinkommenden Einnahmen unnuetz verpulverte, anstatt das Kapital gewinnbringend zu nutzen, geschah das Unvermeidliche.
Noch mal: in der Summe ihrer Eigenschaften war V5 weder besser noch schlechter als ihre Konkurenz(nV1x, R100), sondern anders, und war am Markt vorbeientwickelt.
ps selbst Rampage, wenn er denn nun gekommen waere, haette die leeren Kassen nicht alleine fuellen koennen

Wollt oder könnt ihr es nicht sehen? Als die Voodoo5 erschien hatte man - eine starke CPU vorausgesetzt - eine schnelle Grafikkarte mit überlegener Bildqualität und maximaler Kompatibilität – Glide sei Dank. Keine GeForce2 kann derart schickes AA, keine GeForce2 startet Glide-Spiele. Wo war der Nachteil? Den gab es nur, wenn man eine billige CPU hatte. Für maximale Fps kaufte man sich damals also eine GF2 (MX). Allerdings sollte man nicht vergessen, dass SGSSAA for free auch nett ist. ;)

MfG,
Raff

deekey777
2006-03-07, 15:18:30
[...]Das mit den schnelleren Karten ist eben genauso albern. Nur die R420 war eine Faust gegen die 6800Ultra (und das auch nicht in allen Faellen), wobei aber ab 6800GT vs. X800PRO keine sichtbaren Unterschiede zu sehen waren und schon gar nicht im mainstream. Wieviel betraegt denn ultra high end genau vom insgesamten GPU Markt? 2% oder mehr?
[...]
... vom gesamten Markt. (Besser wäre vom ganzen Markt. Egal.)

Diese Diskussion ist sinnlos, wenn man vorher nicht bereit ist, die SuFu anzuwerfen und nach R400 und dann nach Projekt Loki zu suchen, um die Erinnerungen aus den Jahren 2002/2003 (eigentlich auch 2001) aufzufrischen.

Ailuros
2006-03-07, 15:30:27
Ich habe doch nie bestritten, dass 3dfx Ressourcen verballert hat. Aber mit dem bisschen, das man hatte, kam mit der Voodoo5 eine verdammt gute Karte heraus. Ich habe mit Marketing (das 3dfx unglücklicherweise nicht hatte) nichts am Hut.

Die aber null Chancen hatte im OEM Markt, weil auch ATI die originale R100 schon parat hatte.

Verdammt gut kommt auf die Perspektive an; haetten sie einen single chip Design gehabt der ihnen dass dual core Zeug erspart haette, haetten sie an den Dingern auch mehr verdient.

Ok, war etwas unglücklich formuliert. Ich meinte das High-End-Segment. Die Voodoo4 sah in der Tat gegen GF2 MX und Kyro kein Land ... Glide ausgenommen.

Fuer Glide brauchte man keine V4.

War er denn schon für 1999 mit 4xRGMS und 16xAF geplant? :confused: Das wäre schon fast mehr als eine Revolution gewesen.

32bpp, HW on chip transformations, per pixel lighting und API independent FSAA. Der M-Buffer duerfte zwar so alt sein aber ich will 16xAF fuer damals ernsthaft bezweifeln. DX7.0 wurde das Ding erst ab "R2", wobei man mit "R4" (ergo dem finalen Ding) auf DX8.0 gekommen waere.

Keines der genannten Features war damals essenziell. Heutzutage vermisse ich lediglich AF, und wenn es nur maximal 4x wäre. Mit dem SSAA hat man - wie erwähnt - ja einen ähnlichen Effekt. Zu Lebzeiten hatte man davon mehr als von den bei drei Spielen genutzten Features EMBM oder Cube Mapping. Siehe SM3.0 bei NV. ;)

Die Liste mit Spielen die damals EMBM unterstuetzten war um einiges laenger. EMBM wurde von Matrox vorgestellt und war eine Bitboys Lizenz.


Wollt oder könnt ihr es nicht sehen? Als die Voodoo5 erschien hatte man - eine starke CPU vorausgesetzt - eine schnelle Grafikkarte mit überlegener Bildqualität und maximaler Kompatibilität – Glide sei Dank.

Der groesste Glide-Kracher zu Zeiten V3 war Unreal Tournament. Sobald Vogel auf eigene Hand dann spaeter den OGL renderer nachschob, wollte ich von den 256*256 Texturen von Glide nichts mehr wissen.


Keine GeForce2 kann derart schickes AA, keine GeForce2 startet Glide-Spiele. Wo war der Nachteil? Den gab es nur, wenn man eine billige CPU hatte. Für maximale Fps kaufte man sich damals also eine GF2 (MX). Allerdings sollte man nicht vergessen, dass SGSSAA for free auch nett ist. ;)

Und wieviele ueberredete damals antialiasing ueberhaupt? Schoen aber nicht so brauchbar wie man es haette haben wollen. Erst Multisampling aka "high resolution AA" ueberredete die Massen um einiges mehr und wenn man der V5 das zugegeben schoene aber auf 22bpp begrenzte RGSS wegnimmt, bleibt auch nicht mehr viel berauschendes uebrig.

Wieviele spielte damals Quake3 als Gegenbeispiel und wieso waren Voodoos hier nicht die absoluten Kracher? Ja ich weiss jetzt kommt wieder der alberne Textur-Komprimierungs Quark und weiss der Geier was noch, was aber am Endresultat auch nicht viel aendert.

In der Zwischenzeit hat NVIDIA damals ihre T&L so missbraucht dass nochmal ein Scherpel an Leistung dazukam. Keiner sagt dass V5 mies waren, aber weit entfernt vom Alpha und Omega der damaligen GPUs. Es gibt guten Grund warum sich das Ding nicht durchgesetzt hat und das bloede Glide-Argument war sowieso schon seit V3 so langsam im Abklang.

thade
2006-03-07, 15:56:58
Oder bist Du vielleicht so naiv zu glauben dass das selige 3dfx damals den SEGA Dreamcast Vertrag gegen Videologic verloren hat, weil sie 3dfx nicht "leiden" konnten? 3dfx arbeitete an einem V2-aenlichen Dingsbums, waehrend Videologic mit 32bpp, 1024*1024 Texturen und quasi 2x SSAA ankam.


V2 ähnlichem Dingsdums? Eher nicht, es sind keine allzu großen Infos über den Chip zu finden, Ich hab mal gelesen(diese Seite funzt leider nicht mehr:(), dass der Dreamcast Chip durchaus 32bpp konnte. Denn viele sind der Meinung, der Chip würde auf Voodoo3 Technik basieren, was ja so gar nicht stimmt. Der DC Chip basierte auf Rampage.

Ich gehe davon aus, dass der 3DFX Chip, dem NEC PowerVR technologisch ebenbürtig war. SEGA of America wollte immer den 3DFX Chip für das DC, nur SEGA of Japan setzte auf NEC. Imho spielten da andere Faktoren mit, NEC ist ne japanische Firma, also nahm SEGA of Japan diesen PowerVR basierenden Chip. Das war rein politisch.

Was SEGA davon hatte, hat man ja gesehen. NEC konnte die Nachfrage nicht decken, so dass SEGA Nachschubprobleme in Japan bekam.

Tja Pech gehabt, hätten Sie lieber mal auf 3DFX gesetzt!

eXodia
2006-03-07, 15:57:47
Na, dann schau dir doch mal die ganzen Verwirten an, die sich eine 6800GT/Ultra gekauft haben, weil sie geglaubt haben, dass SM3.0 ihnen was zu Lebzeiten des Chips groß was bringt.

Dann bin ich also verwirrt :|

Diese Verwirten haben sich damals ne 6800GT geholt weil sie die eindeutig bessere Wahl war als die X800Pro, schneller bis gleichschnell und SM3.

Regards

Ailuros
2006-03-07, 16:16:52
V2 ähnlichem Dingsdums? Eher nicht, es sind keine allzu großen Infos über den Chip zu finden, Ich hab mal gelesen(diese Seite funzt leider nicht mehr:(), dass der Dreamcast Chip durchaus 32bpp konnte. Denn viele sind der Meinung, der Chip würde auf Voodoo3 Technik basieren, was ja so gar nicht stimmt. Der DC Chip basierte auf Rampage.

Und Du glaubst wirklich dass eine nullkommanichts Seite von damals mehr wusste als die eigentlichen Engineers damals oder?

Ich gehe davon aus, dass der 3DFX Chip, dem NEC PowerVR technologisch ebenbürtig war. SEGA of America wollte immer den 3DFX Chip für das DC, nur SEGA of Japan setzte auf NEC. Imho spielten da andere Faktoren mit, NEC ist ne japanische Firma, also nahm SEGA of Japan diesen PowerVR basierenden Chip. Das war rein politisch.

Was SEGA davon hatte, hat man ja gesehen. NEC konnte die Nachfrage nicht decken, so dass SEGA Nachschubprobleme in Japan bekam.

Tja Pech gehabt, hätten Sie lieber mal auf 3DFX gesetzt!

Hoffnung stirbt als letzte. Sowohl die alten Hasen an Engineers von Videologic als auch die vorigen 3dfx Engineers deuteten bei aelteren "off the record" Debatten auf die gleiche Sache.

Ja natuerlich haette der 3dfx hypothetische Consolen-Design die ganze Affaere gerettet; nicht nur weil es ein Ueberdesign war, aber weil sie auch den Zauberstab hatten gegen SONY effektiver anzutreten. Traeum weiter.

thade
2006-03-07, 16:26:34
Und Du glaubst wirklich dass eine nullkommanichts Seite von damals mehr wusste als die eigentlichen Engineers damals oder?

Woher du deine Infos nimmst, willst auch nicht offenlegen!?



Ja natuerlich haette der 3dfx hypothetische Consolen-Design die ganze Affaere gerettet; nicht nur weil es ein Ueberdesign war, aber weil sie auch den Zauberstab hatten gegen SONY effektiver anzutreten. Traeum weiter.

Hab Ich das gesagt? Dreamcast wäre auch mit 3DFX Chip nicht erfolgreicher gewesen, das habe Ich nie behauptet.

Gegen Sony konnte man sowieso nix ausrichten. Nur 3DFX selbst wäre nicht pleite gegangen, hätte SEGA auf Sie gesetzt!

Ailuros
2006-03-07, 16:28:49
Woher du deine Infos nimmst, willst auch nicht offenlegen!?

Muss ich auch nicht. Direkt von der Quelle duerfte reichen.

Hab Ich das gesagt? Dreamcast wäre auch mit 3DFX Chip nicht erfolgreicher gewesen, das habe Ich nie behauptet.

Gegen Sony konnte man sowieso nix ausrichten. Nur 3DFX selbst wäre nicht pleite gegangen, hätte SEGA auf Sie gesetzt!

Sega haette auf sie gesetzt, wenn sie auch etwas konkurrenzfaehigeres hergestellt haetten.

thade
2006-03-07, 16:31:57
Muss ich auch nicht. Direkt von der Quelle duerfte reichen.

Jaja :rolleyes: Ein an der Quelle Sitzender, träum weiter, dein Anti 3DFX Geschwätz lass stecken!


Sega haette auf sie gesetzt, wenn sie auch etwas konkurrenzfaehigeres hergestellt haetten.

Woher Du das alles weißt, du weißt Sicher auch die wahren Gründe für den Irak Krieg, erzähl mal ein wenig, Allwissender Gott :comfort:

Ailuros
2006-03-07, 16:43:24
Jaja :rolleyes: Ein an der Quelle Sitzender, träum weiter, dein Anti 3DFX Geschwätz lass stecken!

Ich war ein der aktivsten 3dfx-Supporter zu den Zeiten, nur leider oder Gott sei Dank nicht so blind wie Du.



Woher Du das alles weißt, du weißt Sicher auch die wahren Gründe für den Irak Krieg, erzähl mal ein wenig, Allwissender Gott :comfort:

Spar Dir den Sarkasmus und lies ausnahmsweise mal ein bisschen weiter als den Quark der die idiotische ex-3dfx-fanboy-Horde dahinquatscht.

Lies den ganzen Thread durch:

http://www.beyond3d.com/forum/showpost.php?p=276967&postcount=51

DeanoC ist ein bekannter Consolen-Entwickler und Simon Fenney der ihn spaeter im Thread leicht korrigiert ist einer der Vaeter des PowerVR Dreamcast chips. Du kannst von mir aus glauben dass Deano nur rein zufaellig einen Vergleich mit der V3 macht, aber ein bisschen forschen bevor man nur Mist daherblubbert wuerde helfen. Im Notfall ein e-mail an die ex-3dfx engineers, falls Du mit einem solchen je privat kommuniziert hast.

***edit: noch ein Schnipsel dazu:

http://www.beyond3d.com/forum/showpost.php?p=41923&postcount=2

thade
2006-03-07, 16:57:41
Ich war ein der aktivsten 3dfx-Supporter zu den Zeiten, nur leider oder Gott sei Dank nicht so blind wie Du......
.....Lies den ganzen Thread durch:


Ich war einer der aktivsten 3DFX-Basher die es gab ^^

War immer GeForce Befürworter und hab Mich nie ernsthaft mit einer 3DFX Karte beschäftigt. Die Voodoo5 änderte diese Ansichten, seitdem sehe Ich Aussagen über 3DFX und deren Fehler mit nem anderen Auge, auch wenn Ich nicht nicht soviel Ahnung wie Manche hier habe, will Ich auch ja auch gar nicht.

Nur über Sachen zu disktutieren die man nicht 100% weiß ist immer problematisch, einer sagt Dies, der andere widerum was Anderes!

Ich bleibe dabei und sage, SEGA of Japan, hat 3DFX wegen ihrer Herkunft im Regen stehen lassen.

Werde Mir aber den Thread durchlesen, nur nicht jetzt, dazu habe Ich keine Lust ;(

Ailuros
2006-03-07, 17:09:37
Ich war einer der aktivsten 3DFX-Basher die es gab ^^

War immer GeForce Befürworter und hab Mich nie ernsthaft mit einer 3DFX Karte beschäftigt. Die Voodoo5 änderte diese Ansichten, seitdem sehe Ich Aussagen über 3DFX und deren Fehler mit nem anderen Auge, auch wenn Ich nicht nicht soviel Ahnung wie Manche hier habe, will Ich auch ja auch gar nicht.

To steal from one source is plagiarim, to steal from many research.

Nur über Sachen zu disktutieren die man nicht 100% weiß ist immer problematisch, einer sagt Dies, der andere widerum was Anderes!

Aber nicht wenn man tagtaeglich fast mit vorigen engineers plaudert und aktiven support liefert.

Ich bleibe dabei und sage, SEGA of Japan, hat 3DFX wegen ihrer Herkunft im Regen stehen lassen.

Genauso wieso in 2004 SEGA PowerVR bzw. IMG im Regen stehen liess fuer Naomi3 und stattdessen im letzten Moment auf einen NVIDIA Design wechselte obwohl SEGA die PowerVR Serie5 dafuer lizenziert hatte? Wo spielt hier die Herkunft mit und was schert die Japaner denn ueberhaupt ob sie mit einer US oder einer britischen Firma zu tun haben?

Ich sag Dir auch wieso SEGA IMG diesmal fallen lies, weil das Resultat in Sachen Leistung zu schwach war.

Werde Mir aber den Thread durchlesen, nur nicht jetzt, dazu habe Ich keine Lust ;(

Och im Notfall schmeiss ein e-mail an Emmit Kilgariff der momentan bei NVIDIA arbeitet. Voriger hochranginger Engineer des Rampage-Teams. Eine kleine Anzahl arbeitet bei Quantum3D. Lass Dich aber von den moeglichen Antworten nicht enttaeuschen.

Gast
2006-03-07, 17:24:38
Allerdings sollte man nicht vergessen, dass SGSSAA for free auch nett ist. ;)




SSAA ist niemals for free, und wenn doch läuft im chip was verdammt schief.

Raff
2006-03-07, 17:26:44
SSAA ist niemals for free, und wenn doch läuft im chip was verdammt schief.

Das hatte ich im Zusammenhang mit CPU-Limitierung erwähnt.

Zum Rest äußere ich mich, falls ich nachher Lust drauf habe. ;)

MfG,
Raff

Ailuros
2006-03-07, 17:30:42
Das hatte ich im Zusammenhang mit CPU-Limitierung erwähnt.

Zum Rest äußere ich mich, falls ich nachher Lust drauf habe. ;)

MfG,
Raff

Gilt aber auch nur unter gewissen Bedingungen mit nur 2x SSAA samples; darin hat sich heutzutage nichts geaendert da GPUs immer noch 2xAA-wasauchimmer-samples pro Takt anwenden koennen.

Coda
2006-03-07, 18:02:47
Hä? Das gilt wenn dann nur für MSAA. Kann es sein dass du da was durcheinanderwirfst?

Gast
2006-03-07, 20:37:13
Woher du deine Infos nimmst, willst auch nicht offenlegen!?Muss er auch gar nicht. Bisher hat sich alles bewahrheitet, was Ail "prophezeit" hatte.

Ein an der Quelle Sitzender, träum weiter, dein Anti 3DFX Geschwätz lass stecken!;D

Ailuros
2006-03-08, 01:10:44
Hä? Das gilt wenn dann nur für MSAA. Kann es sein dass du da was durcheinanderwirfst?

Nein. Es durchaus vorkommen dass 2xSSAA ohne besondere Leistungsbusse kommt. Ein verdammt CPU-limitierter Flight-sim waere ein gutes Beispiel.

Ailuros
2006-03-08, 01:11:37
Muss er auch gar nicht. Bisher hat sich alles bewahrheitet, was Ail "prophezeit" hatte.


Uebertreib mir nur nicht zu stark. Ich mach mehr Fehler als manche ueberhaupt sehen koennen.

Coda
2006-03-08, 10:15:15
Nein. Es durchaus vorkommen dass 2xSSAA ohne besondere Leistungsbusse kommt. Ein verdammt CPU-limitierter Flight-sim waere ein gutes Beispiel.Ach so meinst du.

Mr. Lolman
2006-03-10, 11:55:18
Hier gibts ein paar schöne UnrealScreenshots: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4064460&postcount=83

Gast
2006-03-10, 15:41:11
Lolman, deine Screenshots sind zwar ganz schön anzusehen, aber meinst du nicht, dass es mittlerweile jeder weiß? In wievielen Threads willst du den Link noch posten? ;)

Mr. Lolman
2006-03-10, 15:58:44
Lolman, deine Screenshots sind zwar ganz schön anzusehen, aber meinst du nicht, dass es mittlerweile jeder weiß? In wievielen Threads willst du den Link noch posten? ;)

1-2 wahrscheinlich. Wenn mir dann immernoch fad ist, such ich noch ein paar weitere Threads, wos irgendwie dazupassen könnte ;)