PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3dfx - Gedenken an 3dfx zum 4. Todestag (jetzt der 7.)


Seiten : 1 [2] 3

Rampage 2
2004-12-25, 16:52:14
Na ja, kein Wunder, dass das Einschalten von AA kein Performanceverlust brachte...ohne AA war's nämlich auch nur 24fps - und zwar auf die Kommastellen genau:D

Sag mal, bei der Voodoo5 würde selbst ein 3GHz Prozzi noch was bringen, oder? Immerhin besitzt sie ja keine T&L-Einheit und so kann die CPU als "Ersatz" dafür fungieren...

Raff
2004-12-25, 16:57:03
Bei Spielen, die auf die Nutzung von Hardware-T&L ausgelegt wurden, bringen 3 GHz durchaus etwas. Bestes Beispiel ist der 3DMark2001SE (ja, kein Spiel ;)): Hier feuert ein A64 FX-55 eine Voodoo5 auf fast 4100 3DMarks, wo ein AthlonXP @ 2500 MHz nur etwa 3500 Marks schafft.

UT2004, Half-Life² und andere Spiele, die auf der V5 noch laufen, profitieren ebenfalls -- aber natürlich nicht in den dicksten Auflösungen. ;)

MfG,
Raff

Rampage 2
2004-12-25, 17:00:17
Wow, FX-55 und Voodoo5 - ich wollte sowieso schon fragen ob man die V5 in aktuelle Prozzis/Boards überhaupt reinstecken kann. Und wie sieht's auf der P4 EE aus? Auf P4's soll die Voodoo5 ja nicht laufen...

Sag mal, kann man UT2004 auf der V5 bei 1024x768x32Bit @ max. Details anständig zocken? Dann wäre ich stolz auf meine Karte...

Gast
2004-12-25, 17:05:12
Bei Spielen, die auf die Nutzung von Hardware-T&L ausgelegt wurden, bringen 3 GHz durchaus etwas. Bestes Beispiel ist der 3DMark2001SE (ja, kein Spiel ;)): Hier feuert ein A64 FX-55 eine Voodoo5 auf fast 4100 3DMarks, wo ein AthlonXP @ 2500 MHz nur etwa 3500 Marks schafft.



Das liegt aber nicht an HWT&L sondern an der CPU-Limitierung des 3DMarks2001.

MadManniMan
2004-12-25, 17:17:42
Das liegt aber nicht an HWT&L sondern an der CPU-Limitierung des 3DMarks2001.

...die durch HW T&L allerdings stark abgeschwächt wird ;)

Raff
2004-12-25, 17:20:54
Das liegt aber nicht an HWT&L sondern an der CPU-Limitierung des 3DMarks2001.

Und woher kommt die? ;) Man sollte doch meinen, dass eine Voodoo5 schon längst ausgereizt sein sollte.
Eine GeForce2 mit HW-T&L legt mit CPUs dieser Leistungsklasse AFAIK kein Stück mehr zu.

@ Rampage:

Also mit meiner Voodoo4 PCI rannte das Spiel klasse in 1024x768x16 -- allerdings nicht mit hohen Texturdetails. Eine Voodoo5 sollte das mit einer starken CPU im Rücken packen.

P4 geht übrigens auch ... allerdings nur PCI. Mit dem AthlonXP funktioniert AGP bis zum KT333-Chipsatz. Alles darüber liefert nur noch 1,5V AGP ...

MfG,
Raff

MadManniMan
2004-12-25, 17:27:26
Und woher kommt die? ;) Man sollte doch meinen, dass eine Voodoo5 schon längst ausgereizt sein sollte.
Eine GeForce2 mit HW-T&L legt mit CPUs dieser Leistungsklasse AFAIK kein Stück mehr zu.

Ich hoffe doch sehr, daß die Frage rhethorisch war? :|

Wie dem auch sei, ich antworte mal für die, denen es nicht einleuchtet:
schonmal dran gedacht, daß ne GF2 auf viel höherem Punkteniveau mit dem Skalieren aufhört?
Muß ich noch weitererklären? :naughty:

Raff
2004-12-25, 17:32:14
Na logo war die rhetorisch. :D
Genau wie Manni sagte: Eine GeForce2 kitzelt dank HW T&L auch aus kleineren CPUs "hohe" Scores, hört aber früher auf, mit schnelleren CPUs weiter zu skalieren. Eine Voodoo5 hingegen mag schwache CPUs garnicht, spuckt daher wenig Punkte aus. Dafür legt sie auch mit sehr starken Prozessoren zu, wo die GF2 bereits aufgehört hat.

Aktiviert man SW T&L auf der GF2, sollte sich das genauso verhalten wie bei der V5.

MfG,
Raff

LovesuckZ
2004-12-25, 17:37:57
Eine Voodoo5 hingegen mag schwache CPUs garnicht, spuckt daher wenig Punkte aus. Dafür legt sie auch mit sehr starken Prozessoren zu, wo die GF2 bereits aufgehört hat.


Das hat aber nicht mit dem zu tun: "Man sollte doch meinen, dass eine Voodoo5 schon längst ausgereizt sein sollte."
Der Leistungsgewinn wird ja nicht der GPU sondern der CPU gut geschrieben. Auch sollte eine GF2 von einer starken CPU profitieren (Physik Berechnungen...).

Gast
2004-12-25, 17:41:22
Und woher kommt die? ;)

Zuviele DrawCalls. Fast alle Karten legen im 3DMark2001 mit stärkerer CPU zu, auch eine GF2.

Raff
2004-12-25, 17:49:02
Das hat aber nicht mit dem zu tun: "Man sollte doch meinen, dass eine Voodoo5 schon längst ausgereizt sein sollte."
Der Leistungsgewinn wird ja nicht der GPU sondern der CPU gut geschrieben. Auch sollte eine GF2 von einer starken CPU profitieren (Physik Berechnungen...).

Yep:


Aktiviert man SW T&L auf der GF2, sollte sich das genauso verhalten wie bei der V5.


Was anderes habe ich ja auch nicht gesagt. :)
Aber die Frage war ja, ob eine Voodoo5 mit 3 GHz noch etwas anfangen kann. Die Antwort lautet eindeutig "Ja". Allerdings nur bei auf HW T&L optimierter Software, da dort die CPU nun die Arbeit erledigen muss, die auf Karten ab GF256 die GPU macht.

MfG,
Raff

Rampage 2
2004-12-25, 18:02:25
Dass die V5 PCI auf P4 läuft weiß ich auch - die Frage die ich gemeint habe war, ob sie auch mit der AGP-Version funktioniert... (oder ob man das mit irgendwelchen Moddings erreichen könnte)

Zu UT2004:

Nun ja, Texturdetails sind doch GPU-lastig, oder? Mit größeren Texturen erhöht sich ja der Bandbreitenbedarf - und die Voodoo5 hat ja nicht gerade sehr viel Bandbreite...

Btw. ist es technisch überhaupt möglich die 2048er Texturen von UT2004 auf 'ner Voodoo5 einzuschalten? Immerhin hat diese nur 64MB RAM...

Gast
2004-12-25, 21:07:41
Zuviele DrawCalls. Fast alle Karten legen im 3DMark2001 mit stärkerer CPU zu, auch eine GF2.

Der 3dmark2001 ist imo ohnehin kein guter Indikator für die Leistung der Voodoo Karten...

Gast
2004-12-25, 21:11:15
Btw. ist es technisch überhaupt möglich die 2048er Texturen von UT2004 auf 'ner Voodoo5 einzuschalten? Immerhin hat diese nur 64MB RAM...

Keine Ahnung. Hier gibts ein paar UT2004 Screenshots. Einige davon sind auch mit höchster Texturdetailstufe aufgenommen: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2570371&postcount=425

godess
2004-12-25, 21:55:48
leute warum trauert ihr eigentlich 3dfx hinterher?

war es nich so, dass sich 3dfx nach einem rasantem aufstieg etwas gehalten hat, und dann wieder genauso rasant wieder untergegangen ist? sicher, eins ist klar: 3dfx hat die 3d-grafik revolutioniert(stichwörter: gigapixel, anti-alaising, SLI), und dafür hat diese firma sicher einen historischen wert, ABER AM ENDE HAT 3dfx ALLES FALSCH GEMACHT, WAS MAN FALSCH MACHEN KANN. sie haben z.b. ca. ein jahr keinen neuen grafikchip mehr gehabt, und kommen dann mit einer grafikkarte, die für den mainstreammarkt gedacht ist, aber 2 chips auf dem pcb hat(voodoo5 5500). und dann noch eine mit 4 Chips und eigenem Netzteil, wo die Konkurrenz noch nicht mal einen stromstecker braucht, zu allem überfluss passte diese voodoo5 6000 in kaum einen computer, aber die is ja ehh nich mehr auf den markt gekommen. das ist einfach nur VERRÜCKT. dann haben sie, in ihrem größenwahn, noch den überlebenswichtigen OEM-Markt ignoriert. und dann sind sie nicht(oder zu spat) auf die neuesten technologien aufgesprungen(AGP, DDR-Speicher). und anstatt ihre chips konsequent weiterzuentwickeln, haben einfach multi-chip-grakas vorgestellt(ich kauf mir lieber eine leise, strom sparende, in mein gehäuse passende grafikkarte von nVidia, die mndestens genauso schnell ist, und zu dem noch diverse leckerlies wie Pixel-shader bietet.
einer firma, die so dermaßen versagt und sich runtergewirtschaftet hat, weine ich doch keine träne hinterher. 3dfx hat, als auf einmal Konkurrenz da war, das große zittern bekommen und wie gesagt jämmerlich versagt. anstatt ihre chips im einzelnen zu verbessern und weiterzuentwickeln, schocken sie die kunden mit unglaublich kranken monstergrafikkarten. 3dfx hat am ende kein richtiges know-how mehr gehabt, und war damit wertlos für den markt.
3dfx hat am anfang großes volbracht und am ende jämmerlich versagt. da gibt es für mich nix zu trauern.

wenn ich mich mit diesem thread unbeliebt mache, is es mir scheißegal, denn ich kann wenigstens objektiv(sachlich) betrachten.

greetz godess

Mr. Lolman
2004-12-25, 22:05:00
Nönö, unbeliebt machst du dich ja nicht. Du bist nur ein Opfer der damaligen Medienpropaganda. Klar die Voodoo5 5500 hatte 2 Chips. Na und? Die arbeiteten auch perfekt zusammen, und z.B: bei UT99 war ne Voodoo5 mit 4xAA auch schonmal so schnell wie ne GF2 ohne AA. BTW. Das AA der GF2 war eh zum vergessen, während das V5 5500 AA zumindest 2x überall nutzbar war (außer in Q3a, hat mans den fps zuliebe aus gelassen)

robbitop
2004-12-25, 22:35:01
Die Führungsetage von 3dfx war unbrauchbar. Tolle Ingenieure hatte man schon, aber auch der beste Motor ist ohne Fahrwerk unbrauchbar...

Crazy_Borg
2004-12-25, 23:21:37
...
dann haben sie, in ihrem größenwahn, noch den überlebenswichtigen OEM-Markt ignoriert.

Umgekehrt.
Der OEM Markt hat 3Dfx ignoriert, nicht umgekehrt.
Na gut, die Übernahme von STB kann man natürlich auch als Schritt weg vom OEM Markt ansehen.


...wo die Konkurrenz noch nicht mal einen stromstecker braucht...

Hmm...Ich hoffe du tust nicht so scheinheilig und hast dabei eine GF6800 oder ATi x800 ebenfalls mit Stromstecker im Rechner.
Inzwischen sind die an jeder Highend-Karte.
Warum stört das heute niemanden und damals haben sich alle aufgeregt???
> 350W Netzteil gabs damals auch schon. 3Dfx waren im Consumer-Bereich nun mal die ersten mit sowas, warum wird das negativ ausgelegt?


...und anstatt ihre chips konsequent weiterzuentwickeln, haben einfach multi-chip-grakas vorgestellt

ATI hat das auch mal versucht: ATI Rage Fury MAXX
Und nimmt man denen das übel? Nein, eigentlich nicht.
Höchstens dass es für das Teil keine Treiber mehr gibt ist 'ne Sauerei.


anstatt ihre chips im einzelnen zu verbessern und weiterzuentwickeln, schocken sie die kunden mit unglaublich kranken monstergrafikkarten

Nur weil sie zulange an der Voodoo1 Technologie festgehalten haben?
Die Voodoo 3 war konkurenzfähig, obwohl auch nur aufgebohrte Voodoo1.

Und nVidia macht heute auch nichts anderes.
Die aktuelle GeForce 6 basiert im Kern immer noch auf der GeForce 256.
Jedenfalls bis zur GF4 bin ich mir sicher. Die zeigte in einem Spiel (wers nachtesten will: Motorhead) die exakt gleichen Grafikfehler (fehlendes Lensflare + unsichtbares HUD). habs gesehen auf einer GF256, GF2MX und GF4ti.
An den treibern lags nicht, mit 'ner TNT waren da keine Fehler, an DirectX lag es auch nicht, denn mit der S3 Deltachrome ist es wieder fehlerfrei.
Also: Auch nvidia nutzt immer noch "alte" Technologie. Durch Shader aufgewertet zwar, aber eben trotzdem nichts vollkommen neues.
Motto: "Don't try to fix it if it ain't broken"

Und eine durch massig mehr Strom aufgepumpte Grafikkarte fällt für mich ebenfalls in die Kategorie "kranke Monstergrafikkarte". :cool:


wenn ich mich mit diesem thread unbeliebt mache, is es mir scheißegal, denn ich kann wenigstens objektiv(sachlich) betrachten.

Aber lass uns ruhig hier 3Dfx nachtrauern.
Niemand ist deswegen sauer, wenn du anderer Meinung bist.
Ist dein gutes Recht. Ist ein freies Land. :smile: (was ein Glück...stelle mir gerade den Beckstein als Medienminister vor... :eek: )

Coda
2004-12-25, 23:26:24
Ich bin ja im allg. einverstanden mit dem Post, aber ein NV40 hat mit NV10 nicht mehr sehr viel gemeinsam :rolleyes:

Jedenfalls bis zur GF4 bin ich mir sicher. Die zeigte in einem Spiel (wers nachtesten will: Motorhead) die exakt gleichen Grafikfehler (fehlendes Lensflare + unsichtbares HUD). habs gesehen auf einer GF256, GF2MX und GF4ti.
Das ist mit Sicherheit ein Treiberproblem.

robbitop
2004-12-25, 23:29:03
man hat den OEM Markt lange ignoriert.
Der verlangt nunmal Features. Hätte man wie geplant den Rampage nach der V1 oder meinetwegen nach der V2 gebracht, so hätte man sicher OEM Verträge mit abgespeckten Rampages bekommen. Dann hätte man noch ein zusätzliches Standbein gehabt.
Die Chipentwicklung gin bei 3dfx in letzter Konsequenz einfach in die falsche Richtung. Zum Schluss wollte man das korrigieren (z.T. dank neuem Manegement). Man kaufe Ingenieure mit GP und endlich neue Simulatoren und Tools. Doch da war leider alles schon zu spät...

Tigerchen
2004-12-26, 06:22:51
Nönö, unbeliebt machst du dich ja nicht. Du bist nur ein Opfer der damaligen Medienpropaganda. Klar die Voodoo5 5500 hatte 2 Chips. Na und? Die arbeiteten auch perfekt zusammen, und z.B: bei UT99 war ne Voodoo5 mit 4xAA auch schonmal so schnell wie ne GF2 ohne AA. BTW. Das AA der GF2 war eh zum vergessen, während das V5 5500 AA zumindest 2x überall nutzbar war (außer in Q3a, hat mans den fps zuliebe aus gelassen)

AA und eine fehlerfreie Texturkompression waren die einzigen Punkte bei denen 3dfx punkten konnte.
Schon wenige Monate nach dem Debut gabs aber schon die Radeon64 die in 32 Bit schneller war und natürlich die brutale GF2 ULTRA. Die konnte im damals brandneuen MDK2 die Konkurrenz dank Hardware-lightning deklassieren. Außerdem bot die V5 im September 2000 noch nicht mals trilineares Filtern unter OpenGL. Ist euch wohl egal, 3dfx darf das ja. Dafür ist das Geschrei heute umso größer wenn nV und ATI ihre Filter optimieren.
Während Voodoo-Jünger auf den Einsatz der T-Buffer Effekte warteten erschien um diese Zeit Evolva, natürlich mit T&L. Aber auch mit Dot3 Bumpmapping. Beides konnte die V5 nicht und verlor. Zu diesem Zeitpunkt waren T&L Spiele also endlich unterwegs zum Endverbraucher. Das haben wohl so einige bemerkt und die Fans wechselten zu nVidia.

Die GF2 ULTRA war natürlich ein teurer Blender um in Benchmarks zu glänzen. Und natürlich fielen viele drauf rein. Aber zeitgleich wurde der Nutzen von Bumpmapping und T&L erkennbar. Beides zusammen brachte wohl den Umschwung und die 3dfx-Umsätze in den Keller. Den Fehler alleine auf User zu schieben die auf die "Medienpropaganda" reinfallen ist ein wenig unverschämt. Der Fehler liegt bei 3dfx die es nicht fertig gebracht haben den Rampage/Sage zeitig fertig zu entwickeln. Wer zu spät kommt den bestraft das Leben.

Exxtreme
2004-12-26, 10:03:00
Die GF2 ULTRA war natürlich ein teurer Blender um in Benchmarks zu glänzen. Und natürlich fielen viele drauf rein. Aber zeitgleich wurde der Nutzen von Bumpmapping und T&L erkennbar. Beides zusammen brachte wohl den Umschwung und die 3dfx-Umsätze in den Keller. Den Fehler alleine auf User zu schieben die auf die "Medienpropaganda" reinfallen ist ein wenig unverschämt. Der Fehler liegt bei 3dfx die es nicht fertig gebracht haben den Rampage/Sage zeitig fertig zu entwickeln. Wer zu spät kommt den bestraft das Leben.

Naja, irgendwelche Bumpmapping-Effekte hatten nur sehr wenige Spiele und ein echter Nutzen von T&L kam erst viel später. Sicherlich gab es einige Q3A-Level die davon profitierten aber erst mit UT2003 gab es ein Spiel, welches mit T&L-Karten spürbar schneller lief solange die Speicherbandbreite nicht limitierte.

Tigerchen
2004-12-26, 10:53:18
Naja, irgendwelche Bumpmapping-Effekte hatten nur sehr wenige Spiele und ein echter Nutzen von T&L kam erst viel später. Sicherlich gab es einige Q3A-Level die davon profitierten aber erst mit UT2003 gab es ein Spiel, welches mit T&L-Karten spürbar schneller lief solange die Speicherbandbreite nicht limitierte.

Wieso immer die Frage was T&L brachte? Was hat es denn geschadet?

Welchen Nutzen brachten Motion blur oder depht of field ? 3dfx ist es ja nicht gelungen diese Features in DirectX unterzubringen. Dasselbe gilt für FXT1. Somit bleiben diese Features Insellösungen die nur unter OGL und das bereits sterbende Glide von nutzen waren. Was bleibt ist wieder mal AA, AA und nochmals AA. Für die V4 noch nicht mal dies. Zumal nicht jedem schmeckt daß Super-sampling ala Voodoo richtig Leistung kostet. Alles in allem also ein bißchen wenig,. Zumal V4 wegen der schwachen Leistung und die V5 wegen ihres Stromhungers für OEM's uninteressant war. Und nur vom Endverbrauchermarkt kann man nicht leben.

robbitop
2004-12-26, 10:55:39
was den Technologieteil angeht, stimme ich Tigerchen voll zu.
Bereits R100 unterstützte EMBM und Dot3 BM, hinzu kam HW T&L und echte 32bit TMUs (das hatte NV erst mit dem NV20).
3dfx hat bis zum Schluss veraltete HW gebaut. Das kann eine Weile gutgehen, wie man am R420 sieht, aber nicht zu lange...

reunion
2004-12-26, 11:03:01
Naja, irgendwelche Bumpmapping-Effekte hatten nur sehr wenige Spiele und ein echter Nutzen von T&L kam erst viel später. Sicherlich gab es einige Q3A-Level die davon profitierten aber erst mit UT2003 gab es ein Spiel, welches mit T&L-Karten spürbar schneller lief solange die Speicherbandbreite nicht limitierte.


ACK, bis auf ein paar Technologiedemos (und einige wenige Spiele die allerdings nicht wirklich von T&L profitierten) war da nicht viel. 3dfx hatte hingegen mit RGSSAA ein feature das nichtnur genial aussah, sondern auch in jedem Spiel sofort einsetztbar war.

Das Problem lag auch IMO weniger bei den Features, sondern vielmehr an der dann noch dazukommenden fehlenden Leistung (sowie natürlich an der fehlenden präsenz im OEM Markt). Wir sehen ja heute bei ATi die mit dem R400 ein ähnliches problem haben wie 3dfx damals mit dem Rampage, das solange die leistung stimmt sich kaum jemand über fehlende Feature aufregt. Man muss sich nurmal vorstellen ein GF2U Chip hatte höhere theoretische leistungswerte als vier(!) VSA-100 Chips die auf der Voodoo 5 6000 verbaut werden sollten. Wohl auch deshalb hat 3dfx diese Projekt auf Eis gelelgt, aber alleine schon diese Karte überhaupt solange zu entwickeln beweist von ziemlicher ratlosigkeit. 3dfx hat schlicht davon gelebt das man um jeden preis schneller war als die Konkurrenz, als das nichtmehr möglich war gingen die Umsätzte natürlich in den Keller. Alles was übrigblieb war eine gewaltige Fangemeinde.

Man könnte jetzt natürlich spekulieren das mit Rampage alles besser geworden wäre, allerdings glaube ich das sich der tot dadurch maximal hinausgezögert hätte. Denn die probleme blieben ja trozdem bestehen. Rampage hatte sein erstes tapeout noch immer in 0,25µm(!), während NV mit dem NV20 schon auf 0,15µm setzte. Man hatte außerdem unzählige Probleme, so wurden Leitungen vertauscht ect. Völlig unbegreiflich wie soetwas durch die Fehlerkontrolle kommen konnte. So konnte man damals schon vermuten das Rampage wohl eher zu spät als zu früh gekommen wäre und damit vermutlich ein ähnliches Schicksahl wie VSA100 erleiden hätte müssen.

Tigerchen
2004-12-26, 11:15:47
was den Technologieteil angeht, stimme ich Tigerchen voll zu.
Bereits R100 unterstützte EMBM und Dot3 BM, hinzu kam HW T&L und echte 32bit TMUs (das hatte NV erst mit dem NV20).
3dfx hat bis zum Schluss veraltete HW gebaut. Das kann eine Weile gutgehen, wie man am R420 sieht, aber nicht zu lange...

Genau. Das kann ATI auch passieren.

Demirug
2004-12-26, 11:33:23
Man könnte jetzt natürlich spekulieren das mit Rampage alles besser geworden wäre, allerdings glaube ich das sich der tot dadurch maximal hinausgezögert hätte. Denn die probleme blieben ja trozdem bestehen. Rampage hatte sein erstes tapeout noch immer in 0,25µm(!), während NV mit dem NV20 schon auf 0,15µm setzte. Man hatte außerdem unzählige Probleme, so wurden Leitungen vertauscht ect. Völlig unbegreiflich wie soetwas durch die Fehlerkontrolle kommen konnte. So konnte man damals schon vermuten das Rampage wohl eher zu spät als zu früh gekommen wäre und damit vermutlich ein ähnliches Schicksahl wie VSA100 erleiden hätte müssen.

Sie hätten sich aber unter umständen mit Rampage erstmal noch eine Generation durchkämpfen können. Mit 4 davon auf einer Karte wären sie auch sicherlich wieder sehr schnell gewesen und für die Verpackung hätten sie auch genügend Features gehabt. Zudem waren sie eigentlich dichter an DX9 dran als nVidia. Hört sich paradox an ist aber so. Wobei wir natürlich nicht wissen wie DX9 ausgesehen hätte wenn 3dfx da auch noch was hätte sagen dürfen.

Exxtreme
2004-12-26, 12:00:24
Genau. Das kann ATI auch passieren.

Jein. 3dfx hatte bei fast allen "relevanten" Features den Anschluss verloren, ATi ist ausschliesslich bei den Shadern hintendran. Und Shader sind nicht alles was eine GraKa ausmacht. Die anderen Features des NV40 wie HDR etc. sind IMHO noch nicht relevant.

robbitop
2004-12-26, 12:13:06
Jein. 3dfx hatte bei fast allen "relevanten" Features den Anschluss verloren, ATi ist ausschliesslich bei den Shadern hintendran. Und Shader sind nicht alles was eine GraKa ausmacht. Die anderen Features des NV40 wie HDR etc. sind IMHO noch nicht relevant.

Bumpmapping und T&L waren es seinerzeit auch nicht.

Demirug
2004-12-26, 12:13:09
Jein. 3dfx hatte bei fast allen "relevanten" Features den Anschluss verloren, ATi ist ausschliesslich bei den Shadern hintendran. Und Shader sind nicht alles was eine GraKa ausmacht. Die anderen Features des NV40 wie HDR etc. sind IMHO noch nicht relevant.

Die Shader werden aber zunehmen zu den primären Teilen. Was läuft den noch Fixed Funktions? Das Trisetup sowie die ROPs wobei bei den letzteren 3dLabs ja auch schon angefangen hat dafür Shader zu benutzten. Alles andere sind transparente Geschichten zur Steigerung der Performance.

Was HDR angeht kann man sicherlich geteilter Meinung sein. Aber konnte man das damals bei 16 vs 32 Bit nicht auch?

Mr. Lolman
2004-12-26, 12:26:08
Das Bumpmapping damals war ja nur ne Farce. Was bringen statische Bumpmaps? Nix, außer dass es auf ner Voodoo noch schlechter aussieht. Toll gemacht.

Gast
2004-12-26, 12:27:34
Jein. 3dfx hatte bei fast allen "relevanten" Features den Anschluss verloren, ATi ist ausschliesslich bei den Shadern hintendran. Und Shader sind nicht alles was eine GraKa ausmacht. Die anderen Features des NV40 wie HDR etc. sind IMHO noch nicht relevant.

"Ausschliesslich" ist gut, die Shader machen doch heute den größten Teil der Grafikkarte aus.
3dfx wird damals auch gedacht haben, die Features eines TNT oder Geforce wären nicht relevant. Das Ende kennt man ja.

Exxtreme
2004-12-26, 12:55:34
Bumpmapping und T&L waren es seinerzeit auch nicht.
Naja, statisches Bumpmapping hat sich bis heute nicht durchgesetzt. T&L wiederum schon wobei das absehbar war. Uns T&L wird jetzt durch Vertexshading abgelöst noch bevor es sich so richtig durchsetzen konnte.

robbitop
2004-12-26, 13:06:04
Naja, statisches Bumpmapping hat sich bis heute nicht durchgesetzt. T&L wiederum schon wobei das absehbar war. Uns T&L wird jetzt durch Vertexshading abgelöst noch bevor es sich so richtig durchsetzen konnte.

was verstehst du unter statischem BM? Dot3 b.s.w. ist IMO schon recht flexibel.
T&L kann durch den Vertexshader gemacht werden, allerdings ist eine echte HW T&L Unit dort um Einiges schneller. Und setzt man z.B. eine GF4MX ein, so kann man noch gut einige Spiele spielen, die sonst nicht mehr spielbar gewesen wären. T&L sei dank :)

Außerdem ging es mir um die damiligen Erfordernisse des Marktes. Ob diese sinnvoll sind, ist eine andere Frage.

MadManniMan
2004-12-26, 13:20:03
Bumpmapping und T&L waren es seinerzeit auch nicht.

Dafür ist die X800 XYZ verdammt schnell - der VSA-100 wäre es 2, 3 Quartale früher auch gewesen!

robbitop
2004-12-26, 13:21:33
Dafür ist die X800 XYZ verdammt schnell - der VSA-100 wäre es 2, 3 Quartale früher auch gewesen!

Das allein hätte nicht geholfen.
Die V5 6000 wäre auch sehr schnell gewesen.

MadManniMan
2004-12-26, 13:28:36
Das allein hätte nicht geholfen.
Die V5 6000 wäre auch sehr schnell gewesen.

...aber zu spät.

Die V5 ist eigentlich der NV10-Gegner gewesen ... mit dieser verschobenen Marktsituatin hätte man die V5 6k anfänglich gegen den NV15 stellen können, der NV11 hätte sich mit dem Daytona rumgeschlagen.
Der NV15 Ultra hätte vielleicht gegen die 6000 letztendlich partiell gewonnen, aber Rampage wäre sicherlich vor dem GF3 platziert worden - ich gehe davon aus, daß er noch vor dem NV20 dagewesen wäre, wäre 3dfx nicht gestorben.
Und davon ausgegangen, daß der VSA-100 noch ein 99er Jahrgang geworden wäre .... ouu! :usad:

MarcWessels
2004-12-26, 14:32:48
Die GF2 ULTRA war natürlich ein teurer Blender um in Benchmarks zu glänzen. Und natürlich fielen viele drauf rein.

Naja, in Q3A hatte ich seinerzeit Stellen, die mit der GTS 64 unter 30fps fielen und die dann mit meiner GF2 U auf einmal mit über 60fps sausten.

Mr. Lolman
2004-12-26, 14:51:52
Naja, in Q3A hatte ich seinerzeit Stellen, die mit der GTS 64 unter 30fps fielen und die dann mit meiner GF2 U auf einmal mit über 60fps sausten.

was imo unmöglich ist...

Ailuros
2004-12-26, 15:26:39
Sie hätten sich aber unter umständen mit Rampage erstmal noch eine Generation durchkämpfen können. Mit 4 davon auf einer Karte wären sie auch sicherlich wieder sehr schnell gewesen und für die Verpackung hätten sie auch genügend Features gehabt. Zudem waren sie eigentlich dichter an DX9 dran als nVidia. Hört sich paradox an ist aber so. Wobei wir natürlich nicht wissen wie DX9 ausgesehen hätte wenn 3dfx da auch noch was hätte sagen dürfen.

Die letzte Projektion vor dem Ende lag bei 2*rampage + 1*sage@200/200MHz und das fuer "nur" 500$ MSRP. Trotz dem Preis haette sich das Ding wohl nicht schlecht schaetzungsweise selbst gegen eine NV25 geschlagen.

Von 4 chips war fuer den PC Markt eigentlich nie die Rede AFAIK, ausser natuerlich Quantum3D.

Der single-chip Spectre waere wohl nicht schneller als eine NV20 gewesen, aber dafuer nur fuer 250$. Der einfache DX7+ (kein Sage) Spectre haette wohl am besten gegen die jeweiligen GFxMX konkurriert.

Schlecht war das Line-up und Feature-set bei weitem nicht; nur eben skalieren bei dual-chip Loesungen die Preise schwerer nach unten, was unter zu feistem Konkurrenz-Druck dann auch eventuell die Gewinn-marge weiterhin minimalisiert, wenn man nicht gleich am Rand des Verlusts verkaufen muss.

Was nun "Mojo" (nach Fear) betrifft -welcher eigentlich fuer dx9.0 geplant war - zeigten die damaligen Geruechte ziemlich begrenzte dx9.0 Features an, selbst im Vergleich zu ATI. Es waere auf jeden Fall der erste chip aus der Schmiede mit "integrierter" Geometrie-Einheit(-en) gewesen; ob dieser nun doch ein GP-TBDR war oder wohl doch nicht steht wohl in den Sternen.

Demirug
2004-12-26, 16:03:27
Die letzte Projektion vor dem Ende lag bei 2*rampage + 1*sage@200/200MHz und das fuer "nur" 500$ MSRP. Trotz dem Preis haette sich das Ding wohl nicht schlecht schaetzungsweise selbst gegen eine NV25 geschlagen.

Von 4 chips war fuer den PC Markt eigentlich nie die Rede AFAIK, ausser natuerlich Quantum3D.

Der single-chip Spectre waere wohl nicht schneller als eine NV20 gewesen, aber dafuer nur fuer 250$. Der einfache DX7+ (kein Sage) Spectre haette wohl am besten gegen die jeweiligen GFxMX konkurriert.

Schlecht war das Line-up und Feature-set bei weitem nicht; nur eben skalieren bei dual-chip Loesungen die Preise schwerer nach unten, was unter zu feistem Konkurrenz-Druck dann auch eventuell die Gewinn-marge weiterhin minimalisiert, wenn man nicht gleich am Rand des Verlusts verkaufen muss.

Was nun "Mojo" (nach Fear) betrifft -welcher eigentlich fuer dx9.0 geplant war - zeigten die damaligen Geruechte ziemlich begrenzte dx9.0 Features an, selbst im Vergleich zu ATI. Es waere auf jeden Fall der erste chip aus der Schmiede mit "integrierter" Geometrie-Einheit(-en) gewesen; ob dieser nun doch ein GP-TBDR war oder wohl doch nicht steht wohl in den Sternen.

AFAIK war noch eine Rampage Rev. B mit 225 MHz geplannt.

Aber selbst zwei davon sehe ich bestenfalls unterhalb einer GF4 TI 4200. Die Einchip Variante hätten aber für einige OEM Deals sorgen können weil man ja die wichtigen Checkbox-Features unterstützt hätte. nVidia hätte dann wohl auch nicht so lange die DX7 Linie im Lowcost Bereich mitschleifen können.

Unter Umständen hätten wir aber schon damals einen Shaderkrieg bekommen.

Wenn die DX9 Technik unterhalb von ATI gelegen hätte dann wäre die 2.0 Version wohl 3dfx zugefallen. Wobei viel weniger als ATI konnten sie aufgrund der Rampagebasis eigentlich nicht haben.

MadManniMan
2004-12-26, 16:31:43
Demi, inwiefern sollte es der Rampage schwer gehabt haben? Multitexturing-Leistung? Shader-Leistung?

Demirug
2004-12-26, 17:02:13
Demi, inwiefern sollte es der Rampage schwer gehabt haben? Multitexturing-Leistung? Shader-Leistung?

Als 4*1 Chip hätte er es gegen die 4*2 Lösungen der Mitbeweber einen schweren Stand gehabt. Selbst wenn wir jetzt einer Dualchip Lösung 100% Leistung zugestehen konnten nVidia und ATI trotzdem noch mit einem höheren Takt glänzen. Die Kostensituation jetzt mal noch ganz ausser acht gelassen.

Shader-Leistung hätte ja anfänglich erst mal aufgrund fehlender Titel keine Rolle gespielt. Später hätte es dann durchaus zu dem von mir erwähnten "Shaderkrieg" kommen können. Auf das Thema wollte ich ja aber an andere Stelle sowieso noch genauer eingehen.

Jerry25
2004-12-26, 17:02:17
Hallo Leute

Hier giebts ein selfmade 3dfx Tribute movie zum saugen:

http://213.239.195.162/board/thread.php?sid=a62eaa70ca5ef0bf759425d7a318d8e9&postid=357111#post357111

Grüsse und Frohe Festtage wünscht
Jerry

MadManniMan
2004-12-26, 17:21:34
Als 4*1 Chip hätte er es gegen die 4*2 Lösungen der Mitbeweber einen schweren Stand gehabt. Selbst wenn wir jetzt einer Dualchip Lösung 100% Leistung zugestehen konnten nVidia und ATI trotzdem noch mit einem höheren Takt glänzen. Die Kostensituation jetzt mal noch ganz ausser acht gelassen.

Hm, daß die Single-Chip Lösung nicht soviel gerissen hätte, ist klar. Aber denke ich so falsch, wenn ich einem 2*(4*1)-Board mehr Effizienz zusprechen würde als einem 4*2-Äquivalent?
Und ja, gegen den NV25 hätte auch meiner Meinung nach mehr kommen müssen. Da Rampage ja 0.25µ war, hätte vielleicht ein Shrink unter 15, 18, oder auch noch 22nm die Taktschraube nach oben gedreht.


Shader-Leistung hätte ja anfänglich erst mal aufgrund fehlender Titel keine Rolle gespielt. Später hätte es dann durchaus zu dem von mir erwähnten "Shaderkrieg" kommen können. Auf das Thema wollte ich ja aber an andere Stelle sowieso noch genauer eingehen.

Laß dir Zeit! :up:

Demirug
2004-12-26, 17:42:13
Hm, daß die Single-Chip Lösung nicht soviel gerissen hätte, ist klar. Aber denke ich so falsch, wenn ich einem 2*(4*1)-Board mehr Effizienz zusprechen würde als einem 4*2-Äquivalent?
Und ja, gegen den NV25 hätte auch meiner Meinung nach mehr kommen müssen. Da Rampage ja 0.25µ war, hätte vielleicht ein Shrink unter 15, 18, oder auch noch 22nm die Taktschraube nach oben gedreht.

Dazu muss man schauen was bei 4*2 zu Effizienz verlusten führt. Ich gehe jetzt mal aus Gründen der Vereinfachung von einfachem Multitexture Probleme ohne komplexen Shadereinsatz aus. In diesem Fall verliert eine x*2 Lösung immer dann Leistung wenn eine ungerade Anzahl von Samples gebraucht wird. Kommt mindestens der Trilineare Filter Flächendecken zum Einsatz kann eine solche Situation nicht auftreten. Es bleiben also nur noch Fälle mit bilinearen Filter und ungerader Texturanzahl. Also nicht gerade viele. 3dfx hätte sich geziehlt entsprechenden Spiele zum benchen suchen müssen.

Sie reine Pixelfillrate ist ja nun jetzt erst wieder in Verbindung mit Schatten und Z-Passes interesant geworden. Damals spielte sie keine Rolle.

Der Shrink hätte wie oben angeführt zu einer Rev. B mit 25 MHz mehr führen sollen.

MadManniMan
2004-12-26, 17:54:10
Dazu muss man schauen was bei 4*2 zu Effizienz verlusten führt. Ich gehe jetzt mal aus Gründen der Vereinfachung von einfachem Multitexture Probleme ohne komplexen Shadereinsatz aus. In diesem Fall verliert eine x*2 Lösung immer dann Leistung wenn eine ungerade Anzahl von Samples gebraucht wird. Kommt mindestens der Trilineare Filter Flächendecken zum Einsatz kann eine solche Situation nicht auftreten. Es bleiben also nur noch Fälle mit bilinearen Filter und ungerader Texturanzahl. Also nicht gerade viele. 3dfx hätte sich geziehlt entsprechenden Spiele zum benchen suchen müssen.

Gut, das ist richtig. Weiter gehts: was die Bandbreite angeht, hätte der 2*Rampage groß auftrumpfen können - hier wäre die Füllrate wohl in allen Belangen besser durchgekommen.
Wie schätzt du diesen Belang ein?


Der Shrink hätte wie oben angeführt zu einer Rev. B mit 25 MHz mehr führen sollen.

Für welchen Fertigungsprozeß war die Rev. B geplant?

reunion
2004-12-26, 18:32:07
Für welchen Fertigungsprozeß war die Rev. B geplant?

0,18µm, wobei Rampage IMO ohnehin nur als 0,18µm Chip auf den Markt gekommen wäre, die 0,25µm Chips waren nur zu testzwecken produziert worden, AFAIK lief bereits das erste Tapeout in 0,18µm mit über 200mhz.

Demirug
2004-12-26, 18:33:32
Gut, das ist richtig. Weiter gehts: was die Bandbreite angeht, hätte der 2*Rampage groß auftrumpfen können - hier wäre die Füllrate wohl in allen Belangen besser durchgekommen.
Wie schätzt du diesen Belang ein?

Das ist schwer einzuschätzen da mir über über eventuel vorhandene Massnahmen zur Bandbreitenschonung nichts bekannt ist. Bei Dualchiplösungen welche syncron arbeiten darf man allerdings das Problem der Caches nicht ausser acht lassen. im schlimmsten Fall muss man in beide Chips die identischen Daten laden womit der vorteil des doppelte so breiten Busses wieder dahin ist.

In jedem Fall wäre die Bandbreite aber teuer erkauft worden.

Für welchen Fertigungsprozeß war die Rev. B geplant?

0,18µm

reunion
2004-12-26, 18:42:46
Sie hätten sich aber unter umständen mit Rampage erstmal noch eine Generation durchkämpfen können. Mit 4 davon auf einer Karte wären sie auch sicherlich wieder sehr schnell gewesen und für die Verpackung hätten sie auch genügend Features gehabt. Zudem waren sie eigentlich dichter an DX9 dran als nVidia. Hört sich paradox an ist aber so. Wobei wir natürlich nicht wissen wie DX9 ausgesehen hätte wenn 3dfx da auch noch was hätte sagen dürfen.

4x Rampage plus 2x Sage gab es AFAIK nicht, noch glaube ich an die technische möglichkeit soetwas herzustellen, man hat es ja nichtmal geschaftte 4 VSA 100 Chips vernünfitig auf einer Platine unterzubringen. Da gab es unzählige probleme mit dem Platinendesign, sodass man vom ürsprünglich geplanten Design mit einem "Viererblock" abrückte und die 4 Chips nebeneinander platzieren musste.

Allerdings wäre IMO bereits die 2 Chip Variante in der lage gewesen den NV20 zu schlagen, gegen den NV25 wäre man dann allerdings ziemlich schlecht dagestanden, aber dieses problem hatte ja auch ATi.

reunion
2004-12-26, 18:51:07
Die V5 ist eigentlich der NV10-Gegner gewesen ... mit dieser verschobenen Marktsituatin hätte man die V5 6k anfänglich gegen den NV15 stellen können, der NV11 hätte sich mit dem Daytona rumgeschlagen.
Der NV15 Ultra hätte vielleicht gegen die 6000 letztendlich partiell gewonnen, aber Rampage wäre sicherlich vor dem GF3 platziert worden - ich gehe davon aus, daß er noch vor dem NV20 dagewesen wäre, wäre 3dfx nicht gestorben.
Und davon ausgegangen, daß der VSA-100 noch ein 99er Jahrgang geworden wäre .... ouu! :usad:

ACk, der VSA-100 war gegen den NV10 gedacht den er wie wir heute wissen auch geschlagen hätte, leider war 3dfx wegen der arg veralteten tools nicht in der lage diesen rechtzeitig fertigzustellen.

Demirug
2004-12-26, 18:51:46
An 4x Rampage plus 2x Sage gab es AFAIK nicht, noch glaube ich an die technische möglichkeit soetwas herzustellen, man hat es ja nichtmal geschaftte 4 VSA 100 Chips vernünfitig auf einer Platine unterzubringen. Da gab es unzählige probleme mit dem Platinendesign, sodass man vom ürsprünglich geplanten Design mit einem "Viererblock" abrückte und die 4 Chips nebeneinander platzieren musste.

Produktionstechnisch gebe ich dir völlig recht. Es war auch eher eine theoretische Überlegung und da sollen ja sogar bis zu 8 Chip zusammen einsetzbar gewesen sein.

Allerdings wäre IMO bereits die 2 Chip Variante in der lage gewesen den NV20 zu schlagen, gegen den NV25 wäre man dann allerdings ziemlich schlecht dagestanden, aber dieses problem hatte ja auch ATi.

Gegen eine GF3 (mit 200 MHz) hätte ich ein knappes Rennen erwartet. Wobei nVidia Preistechnisch sicherlich mehr Spielraum als 3dfx zur Verfügung gehabt hätte.

reunion
2004-12-26, 18:56:08
was unter zu feistem Konkurrenz-Druck dann auch eventuell die Gewinn-marge weiterhin minimalisiert, wenn man nicht gleich am Rand des Verlusts verkaufen muss.


Jap, das war das größte Problem, denn die Chips waren ja bis zum schluss keinesfalls Schrott, man konnte nur kaum geld daraus machen. Selbst zu V1/V2 zeiten waren die Gewinne äußerst bescheiden.

Xmas
2004-12-26, 19:08:16
Imo der komplette Anteil. Oder was könnte deiner Meinung nach, sonst die Ursache für bessere Qualität sein?
Ups, hab ich wegen den falschen Quote-Tags völlig übersehen.
Du musst unterscheiden zwischen Komprimierungs-Algorithmus und Datenformat/Dekomprimierung. Schließlich sind S3TC und FXTC verlustbehaftet, legen aber nicht genau fest welche Informationen verworfen werden müssen. Genauso wie JPEG ungleich JPEG ist, je nachdem mit welchem Programm du es erzeugst (dazu kommen noch völlig unterschiedliche "Qualitätsstufen").

Man kann also nicht sagen, die FXT1-Textur sieht hier besser aus, also ist FXTC besser als S3TC. Denn das wird wesentlich durch den Inhalt der Textur und den verwendeten Komprimierungs-Algorithmus im WickedGL-Treiber beeinflusst.

godess
2004-12-27, 19:59:44
kann es sein, dass mein 3dfx-kritik-post die trendwende in diesem thresd gebracht hat? :| auf einmal haben alle nur noch schlechtes über 3dfx gepostet
(ich bin weder stolz noch froh noch traurig darüber!)

Mr. Lolman
2004-12-27, 20:04:29
Versteh ich auch nicht.

MadManniMan
2004-12-28, 00:24:45
Nun, zunächst schrieb ich einen reinen, subjektiven Gedenkpost - ich war stets 3dfx-maniac und bleibe es auch. Dennoch ward meine Denkweise, was Grafikkarten und die gesamte Thematik drumherum anbelangt innert der letzten ... hm, zwei Jahre denke ich doch eher objektiv.
Und so gesehen muß man wohl kritisch sein :usad:

InsaneDruid
2005-02-19, 11:20:35
Wobei dein Post vor Fehlern auch nur so strotzt, Goddess.. Genau diese Sichtweise der Kunden war es auch die 3dfx ruinierten... wozu DDR Speicher, wenn die V5 durch ihre getrennte Speicheranbindung in der Bandbreite ähnlich hoch was.. "Buzzwordgeil" fällt mir da ein. Und was bitteschön meist du mit "nicht auf AGP aufgesprungen"... also meine 3000 als auch meine 5500 waren AGP Karten.. achja.. das Buzzword "AGP Texturing", damit konnte 3dfx nicht diesen, weil es absolut nichts brachte.

Und von wegen "am ende kein richtiges know-how mehr gehabt", "wertlos".. immerhin so wertlos das NV nicht umhin konnte sich dieses nicht vorhandene wertlose know how zu kaufen :)

Klar die Führungsetage hat Fehler gemacht aber 3dfx wurde aus meiner Sicht zu Tode gebuzzworded. Evtl waren die 3dfx Jungs einfach zu blauäugig, das genial perfide NV Marketing hat halt funktioniert.

Aber wurde ja schon zur Genüge erwähnt hier im Thread :)

Wie auch immer, 3dfx hat sich einen Platz in der Compi-Ecke meines Herzens verdient, gleich neben Commodore...

*schnüff*

Tigerchen
2005-02-19, 15:05:28
Wobei dein Post vor Fehlern auch nur so strotzt, Goddess.. Genau diese Sichtweise der Kunden war es auch die 3dfx ruinierten... wozu DDR Speicher, wenn die V5 durch ihre getrennte Speicheranbindung in der Bandbreite ähnlich hoch was.. "Buzzwordgeil" fällt mir da ein. Und was bitteschön meist du mit "nicht auf AGP aufgesprungen"... also meine 3000 als auch meine 5500 waren AGP Karten.. achja.. das Buzzword "AGP Texturing", damit konnte 3dfx nicht diesen, weil es absolut nichts brachte.

Und von wegen "am ende kein richtiges know-how mehr gehabt", "wertlos".. immerhin so wertlos das NV nicht umhin konnte sich dieses nicht vorhandene wertlose know how zu kaufen :)

Klar die Führungsetage hat Fehler gemacht aber 3dfx wurde aus meiner Sicht zu Tode gebuzzworded. Evtl waren die 3dfx Jungs einfach zu blauäugig, das genial perfide NV Marketing hat halt funktioniert.

Aber wurde ja schon zur Genüge erwähnt hier im Thread :)

Wie auch immer, 3dfx hat sich einen Platz in der Compi-Ecke meines Herzens verdient, gleich neben Commodore...

*schnüff*

Es ging beim Aufkauf durch nV wohl eher um die Ingenieure und um die alten Patente. Nicht auszudenken wenn irgendein Streithahn sich die unter den Nagel gerissen hätte. Da war der Kauf der sterblichen Überreste wohl billiger als eine Auseinandersetzung vor Gericht.

InsaneDruid
2005-02-19, 16:38:35
Und was sind Ingeneure anderes als lebendes knowhow? :)

Raff
2005-02-19, 16:50:41
Da der Thread eh wieder lebt: Hat einer von euch Informationen darüber, wann der neue Amigamerlin 3.1 R2 herauskommt? :)

MfG,
Raff

Dunkeltier
2005-02-19, 17:04:57
Ich weiß noch damals wie ich in meinen September 1997 erworbenen PC (AMD K6 200 Mhz, 32 MB EDO-RAM, 2.5 GB HDD, 4 MB S3 Virge DX) einige Zeit später eine 3dfx Miro Highscore 6 MB einbaute... Man, da ging sowas von die Post ab! Bei Unreal I gabs als ich aus dem Raumschiff kam so :eek: große Augen, meine Kinnlade klappte runter und ich sabberte. Das war so unglaublich, das ich von da an meine Playstaion nur noch stehen ließ.

Hatte dann natürlich alles von 3dfx durchgekauft. 2x Voodoo II mit je 12 MB, 'ne Banshee, 'ne Voodoo 3 2000/ 3000 und auch eine 3500 hatte ich gehabt, eine Voodoo 5 5500 sowieso. Die Geforce 2 hatte für mich keinen Style, kein Glide (worauf die meisten meiner Lieblingsspiele setzten) und kein so nutzbares und schönes AA. Die Krönung war mein AMD Duron 800 Mhz mit einer Voodoo 5 5500 sowie 2x Voodoo II 12 MB Karten in einem Rechner. ;D Der hat alles weggesteckt.

Die Voodoo 5 5500 ist später einer Kyro II gewichen. Ich habe mir immer nur die Grafikkarten von Underdogs gekauft.

InsaneDruid
2005-02-19, 17:33:47
Underdogs rulen ;) Die breite Masse klebt halt an Kartonfeatures.

Ich hab mit ner Voodoo Rush angefangen ;) zu tiefsten GLQuake Zeiten, dann ein Ausrutscher ins "verfluchte" :P NV Lager (Riva), da diese damals die Underdogs waren, massivst enttäuscht dann wieder ne Voodoo2 (die 8MB), 2 Wochen später ne 12MB, Voodoo3, Voodoo 5, dann auch ne Kyro.. allerdings flog die wieder raus und wurde wieder durch ne 5500 ersetzt die es danach noch 1 Jahr durchhielt (passiv gekühlt und dennoch übertaktet). Tapfere kleine Karte :) Werkelt heute noch in nem Rechner eines Kumpels.

Da ich nie ne "echte" Voodoo1 hatte, hab ich mir wenigstens jetzt noch eine organisiert, hat sogar einen K6-2 350 spendiert bekommen, damit sie sich wohlfühlt ;)

Tigerchen
2005-02-19, 19:20:13
Underdogs rulen ;) Die breite Masse klebt halt an Kartonfeatures.

Ich hab mit ner Voodoo Rush angefangen ;) zu tiefsten GLQuake Zeiten, dann ein Ausrutscher ins "verfluchte" :P NV Lager (Riva), da diese damals die Underdogs waren, massivst enttäuscht dann wieder ne Voodoo2 (die 8MB), 2 Wochen später ne 12MB, Voodoo3, Voodoo 5, dann auch ne Kyro.. allerdings flog die wieder raus und wurde wieder durch ne 5500 ersetzt die es danach noch 1 Jahr durchhielt (passiv gekühlt und dennoch übertaktet). Tapfere kleine Karte :) Werkelt heute noch in nem Rechner eines Kumpels.

Da ich nie ne "echte" Voodoo1 hatte, hab ich mir wenigstens jetzt noch eine organisiert, hat sogar einen K6-2 350 spendiert bekommen, damit sie sich wohlfühlt ;)

Undogs rulen? Auf so Underdogs die sich auf ihrem proprietärem Glidestandart ausruhen kann ich gut verzichten. Wer sich so wie Creative an einem Glideemulator versucht hat bekam direkt Post von der Rechtsabteilung. Wäre es gelungen ein Glidemonopol zu etablieren wär es wohl rasch zum technologischen Stillstand gekommen. Wir wissen ja wie langsam die entwickelt haben. Wie kann man nur Sympathie für so eine Firma empfinden?

Saeh-Bo
2005-02-19, 19:31:53
Daw waren noch Zeiten,
als S3 Virge, RageII und Oak3D oder so, noch mit 2MB für 500DM ausgeliefert wurden.
War natürlich klar, dass ausser den mitgelieferten Spielen nichts anderes lief.
Auch die 4MB Versionen waren eher 3D-Deceleratoren. (hmm warum muss ich jetzt an Celeron denken?)

Mein erster eigener Einstieg in die Welt der 3D-Chips war dann auch eine Monster 3D. Immerhin wollte ich nicht so beschissen werden, und hatte mich vorher gut informiert.
Nur beim K6-200 war ich mir nicht so sicher. Würde ich viel Leistung verlieren?

Damals war ich gerade begeistert am POD spielen. Tolles Rennspiel.
Beim Anblick der D3D Version blieb mir dann fast das Herz stecken. Egal wie nahe man an eine Wand ranging, es blieb z.B einfach nur blau. Da schönste Blau das ich je gesehen hatte.
MW2 Mercs mit D3D patch war dann ja gleich noch unglaublicher. Transparenzeffekte, Texturen in nie dagewesener Qualität, und nachts erhellten die roten blauen und grünen Laser die Täler.
Und der PCPlayer 3DBench attestierte meinem 200er K6 auch noch die gleiche Leistung wie einem P200MMX mit Voodoo. Die Welt war in Ordnung :)

Ich denke alleine für diesen Einsteig wird mir 3dfx immer in Erinnerung bleiben.
Denn wer kann schon von sich behaupten, dabei gewesen zu sein, als die ersten 3DChips geboren wurden?
Und dabei noch halbwegs alt genug um das alles zu verstehen.

ich war leider damals noch nicht altgenug um es zu verstehen...
Aber ich fand die neuen Effekte in NFS2 und vor allem die Wettereffekte bei FIFA 98 einfach genial mit meiner Voodoo ....
Was für eine es war weiß ich aber nichtmehr !

Mfg. Saeh

Dunkeltier
2005-02-19, 19:39:27
Undogs rulen? Auf so Underdogs die sich auf ihrem proprietärem Glidestandart ausruhen kann ich gut verzichten. Wer sich so wie Creative an einem Glideemulator versucht hat bekam direkt Post von der Rechtsabteilung. Wäre es gelungen ein Glidemonopol zu etablieren wär es wohl rasch zum technologischen Stillstand gekommen. Wir wissen ja wie langsam die entwickelt haben. Wie kann man nur Sympathie für so eine Firma empfinden?


Was verstehst du unter langsam entwickeln? Für 32 Bit war die damalige Speicherbandbreite schlichtweg lange Zeit zu gering, erst ab dem Geforce 3 konnte man dies sinnvoll einsetzen. So lang hätts der 22-Bit Voodoofilter allemal getan, der sah echt nicht schlecht aus. Und das 32 Bit Farbtiefe damals nicht unbedingt notwendig war, zeigte außer der 22-Bit Filter auch die Kyro II. Da sahen mit 16-Bit Farbtiefe wiedergegebenden Spiele ebenfalls klasse aus!

Und aF wurde auch erst mit der Geforce 3 langsam aber sicher nutzbar. Die Voodoo-Chips boten schon das richtige zu ihrer Zeit, leider war das dazugehörige Marketing scheiße.

Raff
2005-02-19, 19:50:18
[...] Und das 32 Bit Farbtiefe damals nicht unbedingt notwenig war, zeigte außer der 22-Bit Filter auch die Kyro II. Da sahen mit 16-Bit Farbtiefe wiedergegebenden Spiele ebenfalls klasse aus!
[...]

Das lag aber daran, dass bei der Kyro intern sowieso mit 32Bit gerechnet und dies bei geforderter 16Bit-Ausgabe nur heruntergerechnet wurde.

Ändert natürlich nichts an der Tatsache, dass ich dir zustimme, was 32Bit angeht. ;)

MfG,
Raff

Coda
2005-02-19, 19:50:34
Da sahen mit 16-Bit Farbtiefe wiedergegebenden Spiele ebenfalls klasse aus!Die hat intern alles mit 32 Bit zusammengerechnet - das gilt nicht.

3Dfx hätte mit richtiger Politik ihre Features auch anpreisen können. Das AA war ja sehr toll.

TM30
2005-02-19, 20:22:12
Hallöle. Hab mir mal die letzten Seiten von diesem Thread durchgelesen.

Bin auch 3dfx Fan seit dem ersten Tag...

----------------
Hier hat meine V5 6000 den 3DMark2001 mit 8xAA hinter sich :biggrin:

http://www.3dfx.ch/gallery/albums/album38/16_G.jpg

InsaneDruid
2005-02-19, 20:22:40
Undogs rulen? Auf so Underdogs die sich auf ihrem proprietärem Glidestandart ausruhen kann ich gut verzichten. Wer sich so wie Creative an einem Glideemulator versucht hat bekam direkt Post von der Rechtsabteilung. Wäre es gelungen ein Glidemonopol zu etablieren wär es wohl rasch zum technologischen Stillstand gekommen. Wir wissen ja wie langsam die entwickelt haben. Wie kann man nur Sympathie für so eine Firma empfinden?


Hätte, wäre, wenn.. meine Kristallkugel zeigt was anderes...

Als 3dfx aufkam gabs nunmal nur proprietäre APIs, und ich darf daran erinnern das der Riva128 Zeit seines Lebens keinen Opengl Treiber hatte, nichmal nen MiniGL, einfach nix. Und an die 1200 DM Kartenpreise nach dem Tod von 3dfx und vor dem Erstarken von ATi brauch ich auch nicht zu erinnern.

Und ne 5500 zog auch unter D3D und OGL noch ordentlich.

Aachenmade
2005-02-19, 21:02:15
Hätte, wäre, wenn.. meine Kristallkugel zeigt was anderes...

Als 3dfx aufkam gabs nunmal nur proprietäre APIs, und ich darf daran erinnern das der Riva128 Zeit seines Lebens keinen Opengl Treiber hatte, nichmal nen MiniGL, einfach nix.

Da musst du dich aber ganz gewaltig irren... sonst hätte ich mit meiner Riva128 damals ja nie GlQuake spielen können. Es war anders herum. Nvidia wurde für seinen OpenGL Treiber nach anfänglichen Startproblemen sogar sehr gelobt. Das war nämlich im Gegensatz zum MiniGL Treiber von 3dFX ein vollständiger ICD.
Ich war mit meiner Riva jedenfalls sehr zufrieden. Hatte nämlich keine Lust meine alte S3 Karte durch zwei neue Grakas zu ersetzen. Das wäre einfach zu teuer geworden.

Bye
Aachenmade

FatalError
2005-02-19, 22:27:22
ne ich hatte eine Riva 128 gepaart mit einer Diamond Monster 3d ..Die Riva war der voodoo sowas von dermaßen in sachen BQ unterlegen..Sie war schneller das ja aber es sah nicht so gut aus und es lief nicht so "smooth" und damals war der opengl icd von nvidia nicht gerade das gelbe vom ei...recht oft abgestürzt der icd.. da war der mini ogl treiber zwar von 3dfx beschränkt aber stabil..und anfängliche Inkompatibiltäten mit Ali chipsätzen hatte 3dfx auch nicht...
so my 2cents
mfg
FatalError

Tigerchen
2005-02-20, 06:15:16
ne ich hatte eine Riva 128 gepaart mit einer Diamond Monster 3d ..Die Riva war der voodoo sowas von dermaßen in sachen BQ unterlegen..Sie war schneller das ja aber es sah nicht so gut aus und es lief nicht so "smooth" und damals war der opengl icd von nvidia nicht gerade das gelbe vom ei...recht oft abgestürzt der icd.. da war der mini ogl treiber zwar von 3dfx beschränkt aber stabil..und anfängliche Inkompatibiltäten mit Ali chipsätzen hatte 3dfx auch nicht...
so my 2cents
mfg
FatalError


Oh am Anfang war 3dfx ja wirklich gut. Wer würde etwas anderes behaupten?
Meine Kritik bezieht sich auf die V4/5 und deren verspätetes Erscheinen auf dem Markt sowie dem eifersüchtigem festhalten am Glidestandard und mäßigen OpenGL Support.
Der OpenGL ICD lvon nV lief einwandfrei. Mit sowas hat sich ja 3dfx erst ernsthaft interessiert als Quake3 einen echten ICD verlangte. Also erst zur V3 Zeit. Da gabs dann plötzlich einen Beta-ICD der Quake3 spielbar machte. Wirklich gut war der aber nie. Die V3 war noch zu rechtfertigen und konnte mit den TNT2's noch gut mithalten. Für die V5 gilt dies nicht mehr. Die hatten nur ihr AA und nie genutzte T-Buffer Effekte. Kartonfeatures halt.....

Mr. Lolman
2005-02-20, 10:34:19
Die hatten nur ihr AA und nie genutzte T-Buffer Effekte. Kartonfeatures halt.....


Jaja AA ein Kartonfeature, da hast wohl noch nie AA aktiv gehabt. Aber bei ner NVidia kann ich verstehen, dass dir das AA nicht gefallen hat:

http://img88.exs.cx/img88/8211/3dfxvsnvidia4xogl31bb.jpg

Gasst
2005-02-20, 10:47:13
Der OpenGL ICD lvon nV lief einwandfrei. Mit sowas hat sich ja 3dfx erst ernsthaft interessiert als Quake3 einen echten ICD verlangte. Also erst zur V3 Zeit. Da gabs dann plötzlich einen Beta-ICD der Quake3 spielbar machte. Wirklich gut war der aber nie.


Quake3 verlangt keinen ICD, das läuft auch mit den MiniGL Treibern wie WickelGL.

Riptor
2005-02-20, 12:07:30
Man sollte auch immer wieder an die guten Zeiten erinnern. Mit einer Voodoo Graphics und auch der Voodoo Banshee konnte ich mich immer über fantastische Spielerlebnisse freuen: Tomb Raider 1+2, Descent GL, Quake GL, Quake 2, Quake 3, Half-Life, Counter-strike, Unreal, Unreal Tournament, Deus Ex, Sacrifice, No One Lives Forever, Motocross Madness, Aliens Versus Predator, Need for Speed 3+4+ Porsche Unleashed,... Ich hatte Voodoo Graphics, Riva 128, Voodoo Banshee, TNT, TNT2M64, Voodoo 3 3000 und TNT2 und in dieser Zeit war es immer ein hin oder her, trotzdem gab es eigentlich nie die große Problem und ich hatte vor allen Dingen mit den Voodoo-Karten Spaß, allein schon wegen Glide, WickedGL (CS lief damit um Welten besser, als mit D3D und ner TNT2!) und der doch deutlich besseren BQ im 2D-Betrieb... Mittlerweile sind es aber 4 Jahre her, seit dem ich die Voodoo 3 3000 im Rechner hatte, jetzt schustert sie in einem PII 300 und darf sich mit Word und Internet ausruhen. :)

Coda
2005-02-20, 12:22:19
CS lief damit um Welten besser, als mit D3D und ner TNT2!Logisch. D3D war in HL auch generell Schrott.

InsaneDruid
2005-02-20, 12:22:45
Da musst du dich aber ganz gewaltig irren... sonst hätte ich mit meiner Riva128 damals ja nie GlQuake spielen können. Es war anders herum. Nvidia wurde für seinen OpenGL Treiber nach anfänglichen Startproblemen sogar sehr gelobt. Das war nämlich im Gegensatz zum MiniGL Treiber von 3dFX ein vollständiger ICD.
Ich war mit meiner Riva jedenfalls sehr zufrieden. Hatte nämlich keine Lust meine alte S3 Karte durch zwei neue Grakas zu ersetzen. Das wäre einfach zu teuer geworden.

Bye
Aachenmade

Ich irre mich nicht ganz gewaltig.. ich hab ne Riva geholt am Tage als sie in DE rauskam, und bis die OGL Treiber erschienen vergingen Ewigkeiten, nämlich die berühmten "anfänglichen Schwierigkeiten". Ich vermute du hast deine Riva später gelauft/länger besessen als ich. GlQuake hab ich schon lange vorher auf meiner VRush gezockelt. Ich war zu der Zeit skeptisch was 2 Karten Lösungen anbelangte, deswegen hatte ich die Rush, und wollte danach die Riva, sie war ja als (eine der vielen) Voodoo Killer propagiert, konnte dieses Ziel aber nie erreichen.
Ich hab dann die Riva als 2d Karte weiterbenutzt um mir am Tag des Erscheinens in DE ne V2 gekauft, erstmal mit 8MB, weil die 12MB Karten erst 2 oder 3 Wochen später rauskamen. Als es dann die 12er gab hab ich natürlich ne 12er gekauft (und die 8er zurückgebenen :) - Waren genau 3 Wochen, der Verkäufer zögerte etwas, aber da es zu der Zeit kaum möglich war an die Vooodoos ranzukommen hat er sie zurückgenommen,und ich denke selber behalten, die wanderte schnurstracks in seinen Korb :) )

3Dfx in seinem letzten Jahr mit der V5 und dem V6 Debakel anzusehen und sie daran zu richten ist Augenwischerei (so als ob man NV nur an der FX bewerten würde), die 3dfx Ära war Jahre zuvor, und da waren sie das Nonplusultra. Und mit WickedGL hatte man als Kunde die Möglichkeit locker jedes OGL Game zu zocken, selbst Il2 lief da noch gut, und auch Q3 war sehr fix, wenn man nicht dem Hype erlag und statt 22Bit den 32Bit Mode nutze.

Tigerchen
2005-02-20, 14:26:06
Jaja AA ein Kartonfeature, da hast wohl noch nie AA aktiv gehabt. Aber bei ner NVidia kann ich verstehen, dass dir das AA nicht gefallen hat:




AA war wirklich gut. T-Buffer Effekte waren Karton Features. So war es gemeint. Kann ich kaum glauben daß du das anders gelesen hast :confused:

Wobei AA durchaus auch Probleme bereiten konnte. Gab seinerzeiz so einige die über unscharfe Schrift in Spielen wie Deus Ex klagten.

Tigerchen
2005-02-20, 14:31:29
Quake3 verlangt keinen ICD, das läuft auch mit den MiniGL Treibern wie WickelGL.


WickedGL ist kein MiniGL und es kommt nicht von 3dfx. Die konnten wirklich von Glück reden daß sich Metabyte erbarmt hat und dem erbärmlichen 3dfx OpenGL Support Beine gemacht hat.

Tigerchen
2005-02-20, 14:40:40
3Dfx in seinem letzten Jahr mit der V5 und dem V6 Debakel anzusehen und sie daran zu richten ist Augenwischerei (so als ob man NV nur an der FX bewerten würde), die 3dfx Ära war Jahre zuvor, und da waren sie das Nonplusultra. Und mit WickedGL hatte man als Kunde die Möglichkeit locker jedes OGL Game zu zocken, selbst Il2 lief da noch gut, und auch Q3 war sehr fix, wenn man nicht dem Hype erlag und statt 22Bit den 32Bit Mode nutze.



Natürlich muß man sie an dem messen was sie zur jeweiligen Zeit hervorgebracht haben. Du kannst nicht nur die glorreiche Zeit betrachten und alles andere vergessen. Das V5/Rampagedebakel war ja nicht nur im letzten Jahr von 3dfx. Die Entwicklung dieser Hardware setzte ja schon zu V2 Zeiten ein. Es gab also mehrere Jahre ein ständiges redesignen und Lückenfüller einschieben.

Mr. Lolman
2005-02-20, 17:49:02
WickedGL ist kein MiniGL und es kommt nicht von 3dfx. Die konnten wirklich von Glück reden daß sich Metabyte erbarmt hat und dem erbärmlichen 3dfx OpenGL Support Beine gemacht hat.


Ach, die ham herumgetrickst. WickedGL ist iirc nix anderes als ein OpenGL->Glide Wrapper mit Möglichkeit FXT1 zu forcieren. Das reicht schon für sehr gute Performance. Die OpenGL ICD war zu Zeiten der V5 eigentlich ganz in Ordnung. (Bei Q3a, 1280x1024, HQ, ca. auf dem Niveau einer GF2 GTS) Nur bei "fastest" konnte die GF2 ihre T&L Fähigkeiten ausspielen. Blöd für 3dfx, dass damals viele fastest gebencht haben. Auch blöd für 3dfx, für dass NV damals so ungeschoren davon kam, als sie trotz kaputter Treiberimplementierung bei Q3a S3TC forciert haben. Brachte wieder ein paar fps, und den Nudelaugen von Reviewern wars grösstenteils auch zuviel verlangt, den Crap einfach händisch zu deaktivieren...

Aachenmade
2005-02-20, 18:03:08
Ich irre mich nicht ganz gewaltig.. ich hab ne Riva geholt am Tage als sie in DE rauskam, und bis die OGL Treiber erschienen vergingen Ewigkeiten, nämlich die berühmten "anfänglichen Schwierigkeiten".

Also laut heise.de gabs im Januar/Februar '98 den ersten alpha-ICD für Win95 und im februar den erste beta-ICD für NT4. Kann also doch nicht so lange geadauert haben, da der Chip ja erst im September '97 kam. Wenn du deine Grafikkarten alle halbe Jahr austauschst, ist das natürlich für dich eine Ewigkeit. Für alle normalen Nutzer aber wohl kaum. Ich hab meine Viper 330 übrigends mit dem erscheinen vom Tomb Raider 2 gekauft. Das Spiel lief einfach nicht mehr auf nem P90 mit Softwarerenderer :-)

Bye
Aachenmade

Tigerchen
2005-02-20, 19:13:46
Ach, die ham herumgetrickst. WickedGL ist iirc nix anderes als ein OpenGL->Glide Wrapper mit Möglichkeit FXT1 zu forcieren. Das reicht schon für sehr gute Performance. Die OpenGL ICD war zu Zeiten der V5 eigentlich ganz in Ordnung. (Bei Q3a, 1280x1024, HQ, ca. auf dem Niveau einer GF2 GTS) Nur bei "fastest" konnte die GF2 ihre T&L Fähigkeiten ausspielen. Blöd für 3dfx, dass damals viele fastest gebencht haben. Auch blöd für 3dfx, für dass NV damals so ungeschoren davon kam, als sie trotz kaputter Treiberimplementierung bei Q3a S3TC forciert haben. Brachte wieder ein paar fps, und den Nudelaugen von Reviewern wars grösstenteils auch zuviel verlangt, den Crap einfach händisch zu deaktivieren...


Stimmt. Der S3TC Bug war wirklich ein Ärgernis.

InsaneDruid
2005-02-20, 19:50:50
Also laut heise.de gabs im Januar/Februar '98 den ersten alpha-ICD für Win95 und im februar den erste beta-ICD für NT4. Kann also doch nicht so lange geadauert haben, da der Chip ja erst im September '97 kam. Wenn du deine Grafikkarten alle halbe Jahr austauschst, ist das natürlich für dich eine Ewigkeit. Für alle normalen Nutzer aber wohl kaum. Ich hab meine Viper 330 übrigends mit dem erscheinen vom Tomb Raider 2 gekauft. Das Spiel lief einfach nicht mehr auf nem P90 mit Softwarerenderer :-)

Bye
Aachenmade

Also ein halbes Jahr IST eine Ewigkeit, vor allem weil die alpha/beta Teile auch nicht grade fehlerfrei waren. Und zu der Zeit kam schon die 128ZX (oder wie die 8MB Version hieß).. die Originale 128 hat also zu ihrer Lebzeit, oder meinetwegen "Blütezeit" kein OGL gekonnt.

Aachenmade
2005-02-20, 20:11:23
Also ein halbes Jahr IST eine Ewigkeit, vor allem weil die alpha/beta Teile auch nicht grade fehlerfrei waren. Und zu der Zeit kam schon die 128ZX (oder wie die 8MB Version hieß).. die Originale 128 hat also zu ihrer Lebzeit, oder meinetwegen "Blütezeit" kein OGL gekonnt.

Was war denn schon der ZX anderes als ein normaler mit 8 MB? Also ich empfinde das immer noch nicht als Ewigkeit, gerade wenn man bedenkt, daß ein OpenGL Treiber damals noch zur Kür gehörte.
BTW könnten man dann auch sagen, daß die X800 und die GeForce 6 Reihe auch ne Ewigkeit keinen vernünftigen Treiber hatte, da sich bei der X800 auch erst nach einiger Zeit die volle Leistungfähigkeit zeigte und die GF6 auch erst jetzt so langsam ihre Videobeschleunigung bekommt.

Bye
Aachenmade

desert
2005-02-20, 20:28:36
Also ich hatte die erst die voodoo1 und danach den banshee. Und muss sagen der war in der bildqualität allen anderen um längen überlegen. Und dieses ganze gehype von t + l und 32 bit hat 3dfx doch erst den todesstoß gegeben. ich trauere der firma schon nach. meine voodoo1 habe ich behalten und die wird noch ab undzu mal rausgekramt um damit schleichfahrt zuspielen. Das sah auf der 3dfx einfach göttlich aus.

Coda
2005-02-20, 20:52:43
als sie trotz kaputter Treiberimplementierung bei Q3a S3TC forciert habenDXT1 ist bei GeForce 1-3 sogar in Hardware kaputt, nicht im Treiber.

robbitop
2005-02-20, 21:53:25
DXT1 ist bei GeForce 1-3 sogar in Hardware kaputt, nicht im Treiber.
Ist das nicht erst seit NV40 gefixt?

Coda
2005-02-20, 22:39:01
Nein, auch GeForce 4 und FX machen es schon korrekt.

fadfasdf
2005-02-20, 23:21:16
ich hatte ne ti 4600 also wenn mich net alles täuscht hat die es noch nicht korrekt gemacht. müsste jedenfalls derbste einbildung gewesen sein...

Raff
2005-02-20, 23:24:50
ich hatte ne ti 4600 also wenn mich net alles täuscht hat die es noch nicht korrekt gemacht. müsste jedenfalls derbste einbildung gewesen sein...

Ging mir ähnlich. Das genannte Quake III "glänzte" mit feinen Arfefakten, die man per aTuner und "use DXT1 instead" und damit einhergehendem FPS-Verlust eliminieren musste.

Wo ist da was gefixt? Oder gab's noch 'nen Trick außer dithern? ;)

MfG,
Raff

Coda
2005-02-20, 23:35:10
DXT1 war grad der Problemfall. Also wenn ich nicht grad Alzheimer hab, bin ich mir da ziemlich sicher, dass bei der GeForce 4 der Fix schon drin war.

Savay
2005-02-20, 23:43:32
ab GF4 wird DXT1 gedithert...was den fehler abschwächt und nahezu nicht wahrnehmbar macht!
der NV25 hat definitv eine änderung der hardware erfahren welche das symptom abschwächt...komplett gefixt ist das problem afaik aber wirklich erst seit dem NV40

robbitop
2005-02-21, 08:16:34
ab GF4 wird DXT1 gedithert...was den fehler abschwächt und nahezu nicht wahrnehmbar macht!
der NV25 hat definitv eine änderung der hardware erfahren welche das symptom abschwächt...komplett gefixt ist das problem afaik aber wirklich erst seit dem NV40
wußte ichs doch :D

Gasst
2005-02-21, 09:27:45
Nein, auch GeForce 4 und FX machen es schon korrekt.

Erst aber der FX ist es korrekt.

Mr. Lolman
2005-02-21, 09:32:38
Erst aber der FX ist es korrekt.

Nein, erst ab dem NV40...



(zumindest behaupten das jetzt schon mehrere Leute)

InsaneDruid
2005-02-21, 10:36:30
Was war denn schon der ZX anderes als ein normaler mit 8 MB? Also ich empfinde das immer noch nicht als Ewigkeit, gerade wenn man bedenkt, daß ein OpenGL Treiber damals noch zur Kür gehörte.
BTW könnten man dann auch sagen, daß die X800 und die GeForce 6 Reihe auch ne Ewigkeit keinen vernünftigen Treiber hatte, da sich bei der X800 auch erst nach einiger Zeit die volle Leistungfähigkeit zeigte und die GF6 auch erst jetzt so langsam ihre Videobeschleunigung bekommt.

Bye
Aachenmade

Hehe, bissl selektive Wahrnehmung unter den 3dfx-Madigmachern, was? :) (jetzt nicht auf dich persönlich gemünzt, aber der Anfang der "OGL ICD @ Riva Diskussion war das Madigmachen von 3dfx ob eines fehlendes ICD, und das gleichzeitige Hypen von NV, die ja soo einen tollen ICD hatte.)

Und das komplette FEHLEN eines Treibers über ein halbes Jahr lang ist ja wohl was anderes als ein "nicht ganz optimierter" Treiber. Die "Kür" forcierte damals jedenfalls das man Quake2 in Software zocken musste, während die Voodoofraktion hardwarebeschleunigt daherkam (und bilinear gefiltert).

Btw die Videobeschleunigung beim NV verzögert sich ja auch nur weil der Videoprocessor einfach nicht funktioniert (Hardwaredefekt) und jetzt ne Alternative via Shader gestrickt wird.

Gasst
2005-02-21, 12:09:50
Nein, erst ab dem NV40...



(zumindest behaupten das jetzt schon mehrere Leute)

Dann irren diese Leute, denn ich habe es gerade auf einer FX getestet mit Quake3.

Aachenmade
2005-02-21, 12:30:30
Hehe, bissl selektive Wahrnehmung unter den 3dfx-Madigmachern, was? :) (jetzt nicht auf dich persönlich gemünzt, aber der Anfang der "OGL ICD @ Riva Diskussion war das Madigmachen von 3dfx ob eines fehlendes ICD, und das gleichzeitige Hypen von NV, die ja soo einen tollen ICD hatte.)

Und das komplette FEHLEN eines Treibers über ein halbes Jahr lang ist ja wohl was anderes als ein "nicht ganz optimierter" Treiber. Die "Kür" forcierte damals jedenfalls das man Quake2 in Software zocken musste, während die Voodoofraktion hardwarebeschleunigt daherkam (und bilinear gefiltert).

Btw die Videobeschleunigung beim NV verzögert sich ja auch nur weil der Videoprocessor einfach nicht funktioniert (Hardwaredefekt) und jetzt ne Alternative via Shader gestrickt wird.

Ich habe mit keinem Wort 3dFX madig gemacht und es liegt mir auch fern dies zu tun. Der Chip war zu seiner Zeit eine Revolution und auch gegenüber einem Riva128 mehr als gleichwertig. Das ist dann wohl selektive Wahrnehmung von dir. Ich bin fern davon irgendein Fanboy zu sein.
Nur reden jetzt die 3dFXler den Riva128 schlechter als er war. Ich hatte eine Karte mit dem Chip und war mit dieser sehr zufrieden. Sie war schnell, hatte einen Videoout (die Victory Erazor sogar einen Videoin, damit konnte man dann damals noch Premiere analog am PC gucken ;-) ) und für mich damals einfach die preiswertere Lösung.
Ich kann mich auch nicht daran erinnern jemals Quake2 im Softwaremodus gespielt zu haben. Der ICD muss damals also schon existiert und funktioniert haben. Insgesamt hatte ich die Karte sogar relativ lange.
Und das fehlen eines OpenGL-Treibers war zur damaligen Zeit nun wirklich nichts besonderes. Wie gesagt es war halt die Kür.

Bye
Aachenmade

robbitop
2005-02-21, 12:56:12
Dann irren diese Leute, denn ich habe es gerade auf einer FX getestet mit Quake3.

Zitat von Savay
ab GF4 wird DXT1 gedithert...was den fehler abschwächt und nahezu nicht wahrnehmbar macht!
der NV25 hat definitv eine änderung der hardware erfahren welche das symptom abschwächt...komplett gefixt ist das problem afaik aber wirklich erst seit dem NV40

Shindia
2005-02-21, 16:14:04
Also ich hab meine V5 5500 AGP auch noch und neulich testweise damit mal Rome Total War gezockt, um die neuen Amigamerlin Treiber zu testen. War erstaunlich gut spielbar und von der Bildqualität auch schön anzusehen (einfach nur so für sich genommen, ohne direkte Bildvergleiche mit anderen Grafikkarten ;) )

Hat mich direkt überrascht, zu was dieses betagte Stück noch fähig ist! :smile:
Läuft auch super in meinem Board, von daher werde ich das noch ne Weile behalten.

Ich vermisse 3dfx eigentlich schon, vor allem auch wegen der seither fehlenden Konkurrenz. Ich hoffe nun, daß S3 langfristig was auf die Reihe kriegt.

InsaneDruid
2005-02-21, 19:19:02
@ Aachenmade: ich habe EXTRA geschrieben das sich das NICHT auf dich bezieht.. es wurde aber 3dfx eine unzulängliche OGL Unterstützung vorgeworfen (NICHT von dir), und ich hab das mit dem über ein halbes Jahr fehlenden OGL Support @ Riva128 "gekontert". Denn was ist unzulänglicher als das komplette Fehlen?

Ich hab die Karte damals besessen, genauer gesagt sogar 2 Diamond Viper und eine Elsa Erazor, und ich war, sagen wir "not amused", über das Fehlen. Denn nein, fehlendes OGL war nicht "Kür", sondern Pflicht für Quake etc.

ollix
2005-06-11, 20:09:27
Verdammt, das sind ja jetzt schon fast 10 Jahre her, seit ich mir meine Monster 3D gekauft habe (müßte '96 gewesen sein und es war kurz vor Weihnachten). Wo ist bloß die Zeit geblieben. Habe nur noch meine Voodoo² mit 12MB - die V1 hatte ich an einen Kumpel verkauft.

Coda
2005-06-11, 20:57:20
Erst aber der FX ist es korrekt.Ich bin mir 100% sicher dass zumindest der Himmel bei Q3 nicht mehr falsch aussieht auf GeForce 4.

Xmas
2005-06-11, 21:11:40
Nur mit dem S3TC-Fix (der DXT1 nach DXT5 umsetzt), ansonsten ist es gedithert.

Coda
2005-06-12, 00:48:28
AFAIK eben nicht.

Raff
2005-06-12, 17:05:20
Topic!
Mittlerweile sind es ziemlich genau 4,5 Jahre. Es wird Zeit, sich wieder mit der Legende zu beschäftigen, oder? In Sachen Voodoo5 kommt da sicher bald was. ;)

MfG,
Raff

Juerg
2005-06-12, 17:37:27
Folgendes Rezept:

Man nehme:

1.
1000 Millionen Euro (z.B. Joint-Venture Kaptital aus den Milliarden Gewinnen pro Jahr! der Banken)

2.
Stelle 50 Ex-3dfx Ingenieure ein.

3.
Werbe je 10 Ingenieure von ATI, nVidia, PowerVR, Matrox und S3 ab uns stelle Sie ebenfalls ein.

4.
Kaufe 90nm Pizzas bei TMSC und als Option in 24 Monaten 65nm Omoletten

5.
Erwerbe ein Büro, Laborkomplex und Infrastruktur und lasse die Leute 24 Monate arbeiten.

6. Zielvorgabe: In 24 Monaten Lauch-Day das alle bis dato kaufbaren Grafiklösungen in den Schatten stellt um den Faktor 3-4 (so in etwa von V1 auf 2xV2)

7. Nenne die Firma 4egy. Ausgesprochen "Foriigi-wuai" Checkts jemand?

8. Bei genügend Vorbestellungen ist die Fnanzierung schon heute gesichert.

9. Fixpreis 800 Euro

10. Ich bestelle ein.

11. Ach lasst mich doch träumen...

12. Lerne zuerst Rechtschreibung... ;D

-3Dprophet-
2005-06-14, 14:50:58
Folgendes Rezept:

Man nehme:

1.
1000 Millionen Euro (z.B. Joint-Venture Kaptital aus den Milliarden Gewinnen pro Jahr! der Banken)

2.
Stelle 50 Ex-3dfx Ingenieure ein.

3.
Werbe je 10 Ingenieure von ATI, nVidia, PowerVR, Matrox und S3 ab uns stelle Sie ebenfalls ein.

4.
Kaufe 90nm Pizzas bei TMSC und als Option in 24 Monaten 65nm Omoletten

5.
Erwerbe ein Büro, Laborkomplex und Infrastruktur und lasse die Leute 24 Monate arbeiten.

6. Zielvorgabe: In 24 Monaten Lauch-Day das alle bis dato kaufbaren Grafiklösungen in den Schatten stellt um den Faktor 3-4 (so in etwa von V1 auf 2xV2)

7. Nenne die Firma 4egy. Ausgesprochen "Foriigi-wuai" Checkts jemand?

8. Bei genügend Vorbestellungen ist die Fnanzierung schon heute gesichert.

9. Fixpreis 800 Euro

10. Ich bestelle ein.

11. Ach lasst mich doch träumen...

12. Lerne zuerst Rechtschreibung... ;D

1000 Millionen = 1 Milliarde....

BlackArchon
2005-06-14, 15:08:44
...
7. Nenne die Firma 4egy. Ausgesprochen "Foriigi-wuai" Checkts jemand?
...Nein, leider nicht. ;(

TM30
2005-06-14, 15:11:44
3 --> 4
d --> e
f --> g
x --> y

Raff
2005-06-14, 15:20:32
Ah, alles klar. ;D

An die 3dfx-Freaks: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=228922

MfG,
Raff

Salvee
2005-06-14, 15:21:58
1000 Millionen = 1 Milliarde....

Ich dachte, 1024 Millionen ... :|

@Raff
Steh grade auf dem Schlauch, was kommt denn da noch in Sachen Voodoo5 ?

Skua
2005-06-14, 20:08:42
Ich dachte, 1024 Millionen ... :|
warum das denn? :ucrazy3: gibt auch noch was anderes als bits und bytes...

@Juerg
klingt erfolgversprechend, dein konzept. ;)

No.3
2005-06-14, 22:37:58
Topic!
Mittlerweile sind es ziemlich genau 4,5 Jahre. Es wird Zeit, sich wieder mit der Legende zu beschäftigen, oder? In Sachen Voodoo5 kommt da sicher bald was. ;)

meine "Voodoo-Machine" läuft (z.Z. nur mit ner V3 2000) - mal schauen wann ich Zeit für die V1 - V2 finde =)

Rainer

Monkey
2005-06-15, 00:25:59
schlagt mich, ich hatte nie ne voodoo. aber 96 ne matrox millenium mit 4mb wram..was eine geld verschwendung. denn ausser duke3d hab ich zu der zeit eh nix gezockt :(
die monster fand ich bei nem kollegen immer geil, und ich war neidisch :\

Raff
2005-06-15, 00:28:57
@Raff
Steh grade auf dem Schlauch, was kommt denn da noch in Sachen Voodoo5 ?

Der Treiber da. Und 1-2 Artikel über und mit Voodoo5s sicher ... ;)

MfG,
Raff

status
2005-06-19, 12:00:23
Ahoi

Hab jetzt nicht alles durchgelesen (19 seiten sind einfach zuviel!) aber ich hab da ne Frage. Was ist eigentlich aus STB geworden, werden da noch GPU`s produziert, oder hat Nvidia den Laden einfach dicht gemacht?

Coda
2005-06-19, 12:01:17
nVIDIA hat STB damals gar nicht übernommen iirc.

robbitop
2005-06-19, 12:28:26
nVIDIA hat STB damals gar nicht übernommen iirc.
Gehörte STB nicht 3dfx? Somit muss ja irgendwas mit der Fabrik passiert sein. Das Allermindiste ist ein Verkauf.

DrumDub
2005-06-19, 12:32:03
nVIDIA hat STB damals gar nicht übernommen iirc. richtig. nvidia hat nur das ip und mitarbeiter von 3dfx übernommen.

status
2005-06-21, 20:29:44
Gehörte STB nicht 3dfx? Somit muss ja irgendwas mit der Fabrik passiert sein. Das Allermindiste ist ein Verkauf.

Eben das meinte ich ja auch, das war ja der grösste Sargnagel der 3dfx noch selber eingekauft hat.

richtig. nvidia hat nur das ip und mitarbeiter von 3dfx übernommen.

öhm und der Rest? Kann mir ja niemand sagen das man den Rest auf den Müll geschmissen hat ;-)

Coda
2005-06-21, 20:37:11
Naja irgendwie möglichst gewinnbringend veräußert halt ;)

Xmas
2005-06-22, 01:25:22
NVidia hat ja nicht 3dfx gekauft, sondern Patente, Marken, etc. von 3dfx. Die Aktiengesellschaft 3dfx hatte danach noch für eine kurze Zeit Bestand und löste sich dann selbst auf. Dabei werden alle Werte verkauft, Gläubiger ausbezahlt und ein evtl. vorhandener Rest wird an die Gesellschafter verteilt.

Raff
2005-12-15, 08:35:30
*Ausgrab*

Heute auf den Tag genau ist es ein halbes Jahrzehnt her, seit die für viele schreckliche Nachricht des Kaufs durch Nvidia bekannt wurde. 5 Jahre -- eine verdammt lange Zeit in diesem Geschäft. Ich versuche mir da immer vorzustellen, wie es wäre, wenn die orangenen Jungs noch am Markt wären. Sähe das High-End-Segment (vor allem in Sachen Preisen) anders aus? Wären sie ähnlich S3 und XGI am unteren Ende tätig?

Wie auch immer. Lasst uns ihnen Gedenken, wie schon letztes Jahr. Die Karten ehren, die das Gaming am PC ins Rollen brachten. Die Hardware ehren, die sogar 2005 noch einige neue Spiele flüssig und ansehnlich auf den Schirm bringen kann. Den Karten gedenken, die zuerst das heute so wichtige FSAA in überragender Qualität boten.

Wer nicht mag, der möge auch bitte nicht spammen. ;)

MfG,
Raff

TM30
2005-12-15, 08:43:22
* ich leg gleich spontan ne Schweigeminute ein* ;(

papachrischi
2005-12-15, 09:05:22
Alle Jahre wieder, lasst die Toten ruhen! :D

InsaneDruid
2005-12-15, 09:08:05
*3dfx-Gedenkkerze anzünd*

MadManniMan
2005-12-15, 09:14:32
OMFG - 5 Jahre? Für mich sitzt der Schock tatsächlich noch wie von gestern! ;(

][immy
2005-12-15, 09:23:18
hoffe nur das meine V5 noch einige jahre durchhält ersatz gibt es ja leider nicht mehr wie sand am meer :(

DrumDub
2005-12-15, 10:15:17
*gedenk*
hab immer noch meine v3 2000 agp und v5 5500 agp... das waren noch zeiten.

No.3
2005-12-15, 10:29:28
*damals*

unsere ersten Netzwerksessions, auf ner Voodoo1 und nen K6-II :smile: :smile: :smile:

Rainer

TM30
2005-12-15, 10:32:02
alle gedenken sie jetze...

... und früher haben sie alle ne geforce 2 gts gekauft weil die 5500 ne Ecke langsamer war *GRML*

Mr. Lolman
2005-12-15, 10:32:26
;(


Ich hatte gehofft, euch heute mein Voodoo5 6000 Review präsentieren zu können. Leider hat Hank immernoch mein Kärtchen. Aber gut Ding braucht eben Weile. =)

TM30
2005-12-15, 10:33:00
lolman, was ist genau mit deiner karte los?

Mr. Lolman
2005-12-15, 10:48:29
lolman, was ist genau mit deiner karte los?

Das war irgendeine aus dem Quantumlager, wo ein Unwürdiger durch seine Bastelaktivitäten mehr zerstört, als repariert hat. Hank meinte, dass meine nur mehr als Ersatzteillager zu verwenden ist, und er mir bestenfalls eine ganz neue zusammenbasteln könnt.... (dementsprechend geduldig verharr ich der Dinge)

[Update:]

Anscheinend hat Hank doch noch ne Möglichkeit gefunden, die Karte zu reparieren. U.A. war die Hint-Bridge hinüber. Falls alles klappt, besitz ich vll. bald die weltweit erste/einzige Karte mit ner PLX-Bridge :naughty:

ollix
2005-12-15, 11:35:54
*schweig*

anorakker
2005-12-15, 12:35:20
wow, 5 jahre, das ist wirklich ne verdammt lange zeit...
eine solche revolution, wie sie mir damals 3dfx mit der voodoo1 beschert hat, wird wohl nichtmehr geschehen...leider besitze ich meine beiden 3dfx schätzchen nichtmehr (diamond monster und diamond monster fusion), trotzdem wird nir 3dfx auf ewig positiv in erinnerung bleiben :)

und wenn wir schon bei erinnerungen sind, diese seite hatte es mir damals als startseite angetan :
http://img220.imageshack.us/img220/9738/voodooextreme7pl.jpg

desert
2005-12-15, 14:29:48
Ja das waren noch zeiten als meine mutter mich für verrückt erklärt hat das ich 449,00 DM für eine Grafikkarte bezahlt habe.

Aber was waren das für plötzlich für schöne bilder auf dem bildschirm. Schleichfahrt mit 3dfx patch, jedi knight, longbow gold.

Lang lebe sie hoch die gute alte diamond monster 3d, die ist die einzige grafikkarte die ich jemals behalten habe.

Und jetzt habe ich mir eine voodoo 3 2000 pci gekauft damit ich endlich wieder die guten alten 3dfx zeiten erleben darf,und mich wieder daran erfreuen kann wie popelig jedi knight beim meinen bruder aussah der sich eine matrox mystique gekauft hatte ;)

DrumDub
2005-12-15, 14:40:53
und wenn wir schon bei erinnerungen sind, diese seite hatte es mir damals als startseite angetan :
http://img220.imageshack.us/img220/9738/voodooextreme7pl.jpg absolut. der schreibstil von voodooxtreme bzw. seinem gründer billy "wicked" wilson war einmalig. nach seinem weggang war voodooextreme leider auch geschichte, auch wenn es die site heute bei ign noch gibt. leider ist der billy ja mittlerweile tot. ;(

up¦²
2005-12-15, 15:30:42
Traurig, billy "wicked" wilson, RIP :|
Billy "Wicked" Wilson of Voodoo Extreme fame has passed away at the age of 33 (http://arstechnica.com/news.ars/post/20050315-4702.html)

Ich staune immer noch, wie locker damals die v1 und v2 gekauft wurden.
Ich hatte damals eine Matrox m3D und nach vviel frust schließlich lange doch noch eine v2 - plötzlich war alles einfach! 3dfx logo auf game und es lief einfach klasse. Der auslöser war: Unreal, das schaffte die m3d, alias PCX2, einfach nicht mehr. Hab damals lange gezweifelt, ob ich die G200 oder 3dfx kaufen sollte.
Eine wunderkarte von Tseng war auch asche ..., tja schließlich hatte ich beide, achwas hab sie immer noch rumliegen.
BTW:
http://www.computerbase.de/artikel/hardware/grafikkarten/2002/bericht_grafikkarten-historie/drucken/

InsaneDruid
2005-12-15, 16:03:14
Oh ja, Voodoo Extreme...
*hach*

InsaneDruid
2005-12-15, 16:06:44
alle gedenken sie jetze...

... und früher haben sie alle ne geforce 2 gts gekauft weil die 5500 ne Ecke langsamer war *GRML*


NEYN!

V5 gekauft, wie es sich anständigerweise gehörte.

Unser Clan war nVidia-befreite Zone. Und ist sie auch bald wieder, wenn der eine seine alte 4600 endlich mal verkloppt.

Juerg
2005-12-15, 16:07:55
Es war eben damals alles wie "Zauberei":

PPro 233, 82450 Mars, Matrox 2064 Mill 8 WRAM, Diamond Monster V1
Hatte die gelbe Verpackung nicht ein schwarzes rundes Auto darauf?

Doom, Quake, GlQuake... GlIDe, VoodooExtreme schwelg... =)

Mein privater Benchmark damals (1995) war folgendes: Ein schneller Computer war derjenige bei dem bei einem C:\DOS>dir *.* auf der Kommandozeile nicht mehr möglich war einzelne Zeilen zu lesen bzw. mitzuzählen beim scrollen... :biggrin:

Heute würde ich meine Spectre verticken und eine Fear kaufen... ;(

Übrigens die "private" Homepage der Familie Wilson:
http://www.novasio.com/

thade
2005-12-15, 16:21:17
Fakt ist vor 5 Jahren hat mich diese Nachricht keinesweg erschüttert. Mir war 3DFX völlig egal und ich war immer noch von meiner GeForce DDR begeistert....

Aber heute ist das anders. Wenn du dich ein wenig mit einer Voodoo5 beschäftigst muss man einfach zum 3DFX Fan werden. Unreal mit Glide spielen ist so dermaßen impressive, man muss immer an die genialste PC Zeit aller Zeiten zurückdenken, die man so nicht mehr erleben kann.

Diese Karte mit diesem imposanten AA ist einfach Hammer und wurde leider zu sehr unterschätzt.

Die Fachpresse hat zum Teil auch Schuld an dieser Miserie, damals waren Foren noch nicht so etabliert wie heute und man hatte nur PCGames, Gamestar usw...

Und was man da las über 3DFX, ist im Nachhinein einfach nur peinlich. Sicher NV hat alles richtig gemacht, 3DFX hat sich ein wenig ausgeruht auf ihren Voodoo1-2 Erfolgen, aber die Fachpresse stellte die von NV vorgestellten Feature's als undedingt notwendig hin. Deswegen griffen viele lieber zu NV..

Ich denke 3DFX hätte mit dem Rampage NV mächtig in Bedrängnis gebracht, der Rampage war ja der erste komplett neue Chip seit dem V1.

Stellt euch nur mal vor, wir hätten heute 3DFX, ATI und NV die sich gegenseitig pushen, es wäre einfach nur ideal für uns, die Kunden :)

Jetzt mal ne Frage:

Wieviel 3DFX Technik steckt in der GeForce FX???

Coda
2005-12-15, 16:22:58
Diese Karte mit diesem imposanten AA ist einfach Hammer und wurde leider zu sehr unterschätzt.Imposant wäre MSAA gewesen, SSAA war viel zu oft unbrauchbar.

Ich denke 3DFX hätte mit dem Rampage NV mächtig in Bedrängnis gebracht, der Rampage war ja der erste komplett neue Chip seit dem V1.Nach dem was in den Patentschriften steht wäre das Ding zwar ganz brauchbar aber kaum ein Überflieger geworden.

Wieviel 3DFX Technik steckt in der GeForce FX?Recht viel. Das Pixelprozessor-Design basiert auf Rampage, bei NV40 sogar noch viel deutlicher.

3Dfx war übrigens ganz allein an ihrem Untergang schuld, nicht nVIDIA und auch sonst niemand.

thade
2005-12-15, 16:29:29
Nach dem was in den Patentschriften steht wäre das Ding zwar ganz brauchbar aber kaum ein Überflieger geworden.


Aber doch mindestens GeForce3 Niveau?
Man kanns eh nie feststellen. Einer im Voodooalert hat doch nen Rampage der sogar läuft. Der wollte doch mal ein Review veröffentlichen :confused:


3Dfx war übrigens ganz allein an ihrem Untergang schuld, nicht nVIDIA und auch sonst niemand.

Das ist mir klar und sollte auch jedem klar sein, der NV deswegen nicht mag. 3DFX hätte das Selbe getan wie NV. 3DFX war ja auch nur ein kapitalistisches Unternehmen ;)

Coda
2005-12-15, 16:32:32
Aber doch mindestens GeForce3 Niveau?Nicht unbedingt. Die Pixelprozessoren wären unter Direct3D auch nicht mächtiger gewesen aus dem Grund das sie andere Features bieten, aber PS1.0 auch als PS1.1 kompilierbar hätte sein müssen.

Man kanns eh nie feststellen. Einer im Voodooalert hat doch nen Rampage der sogar läuft. Der wollte doch mal ein Review veröffentlichen :confused:Der Pixelprozessor ist recht gut beschrieben, zusammen mit dem spekulativen Takt kann man das schon beurteilen.

Das ist mir klar und sollte auch jedem klar sein, der NV deswegen nicht mag. 3DFX hätte das Selbe getan wie NV. 3DFX war ja auch nur ein kapitalistisches Unternehmen ;)Richtig.

reunion
2005-12-15, 16:36:17
Nicht unbedingt. Die Pixelprozessoren wären unter Direct3D auch nicht mächtiger gewesen aus dem Grund das sie andere Features bieten, aber PS1.0 auch als PS1.1 kompilierbar hätte sein müssen.


Rampage hätte die Geforce 3 in punkto IQ vernichtet - 4xRGMSAA plus 16xAF konnte nV erst mit NV40 liefern.
Und der Unterschied zwischen PS1.1 und 1.0 war IMO marginal. Hinzu kommt noch, dass diese Limitierung nur aufgrund der D3D-Schnittstelle gegeben war, bei entsprechender Programmierung hätte man selbst einen R200 nass gemacht.

Alles unter dem Gesichtspunkt, dass Rampage sein erstes Tapeout noch in 0,25µm hatte, während NV20 in 0,15µm entstand. 3dfx hatte IMHO jede menge "knowhow", welches leider katastrophal eingesetzt wurde.

Raff
2005-12-15, 16:47:48
Imposant wäre MSAA gewesen, SSAA war viel zu oft unbrauchbar.

;D

Sorry, aber das ist so IMHO Unfug. Hast du das 4x sparse grid SSAA der V5 5500 jemals in Aktion erlebt? Damit gespielt? Das hätte anno 2000 eigentlich jeden, der etwas Ahnung von Grafik hat, dermaßen flashen müssen, dass man es als gewaltigen Pluspunkt hätte sehen müssen. Verglichen mit dem lächerlichen OGSSAA der GF2, das damals gerne als "Ersatz" tituliert wurde, war das sehr imposant.

Und ich höre immer, dass es "unbrauchbar" war. Warum? Weil 1600x1200x32 damit ruckelt? 800x600 + 4xSGSS lief damals eigentlich immer anständig (nicht extrem gut) und deklassierte die GF2 in Sachen BQ um Welten.

Genauso heute mit Ati: 6xMS, auf Wunsch per RG auf Alphatests + 16x minimal winkelabhängige anisotrope Filterung. Das juckt auch nur wenige wirklich, die meisten ergötzen sich an den Fps der GTX 512. Schön.

MfG,
Raff

StefanV
2005-12-15, 16:50:02
3Dfx war übrigens ganz allein an ihrem Untergang schuld, nicht nVIDIA und auch sonst niemand.
Jop, mit dem Kauf von STB haben die ihr eigenes Grab geschaufelt...

thade
2005-12-15, 16:51:49
Jop, mit dem Kauf von STB haben die ihr eigenes Grab geschaufelt...

die haben sich dann auch noch GigaPixel oder so ähnlich gekauft.. Wurden sie am Ende noch Größenwahnsinnig ;) Genie und Wahn liegen oft nahe beieinander ^^.

StefanV
2005-12-15, 16:54:51
Sorry, aber das ist so IMHO Unfug.

Nein, das ist völlig korrekt, was Coda da sagte, denn SSAA ist viel zu lahm, als das es wirklich nutzbar war.

Mr. Lolman
2005-12-15, 16:55:47
AFAIK hätte NVidia wegen Patentrechtsverletzungen am Ende mehr Kohle an 3dfx zahlen müssen, als die Firma am Papier wert war. Wahrscheinlich auch ein Grund für die Übernahme.

InsaneDruid
2005-12-15, 16:57:42
Unter 16Bit war es durchaus nutzbar, und dafür war es gedacht.

16Bit+Postfilter+SSFSAA=Augenweide (für damalige Verhältnisse).

thade
2005-12-15, 16:58:54
Nein, das ist völlig korrekt, was Coda da sagte, denn SSAA ist viel zu lahm, als das es wirklich nutzbar war.

Wieso? Das 2fache SSAA der Voodoo5 konnte man immer dazuschalten. Selbst bei manchen neueren Games ala Max Payne oder LFS kann man damit recht ordentlich spielen. 4fach SSAA ist halt nur was für ältere Games wie HL oder Unreal, man kann es dort wunderbar nutzen.

Mr. Lolman
2005-12-15, 17:01:48
Unter 16Bit war es durchaus nutzbar, und dafür war es gedacht.

16Bit+Postfilter+SSFSAA=Augenweide (für damalige Verhältnisse).

Auch für heutige Verhältnisse (22bit, 4xAA @ Voodoo5 5500 PCI):

http://img62.imageshack.us/img62/6586/v5ut2k44xaa7qf.jpg (UT2004)
http://img15.imageshack.us/img15/2143/untitled23gm.jpg (LFS2)

/edit: Der Große HL² - IHV - AA Vergleich... (http://www.forum-3dcenter.de/vbulletin/showthread.php?t=187591)

Raff
2005-12-15, 17:06:46
Nein, das ist völlig korrekt, was Coda da sagte, denn SSAA ist viel zu lahm, als das es wirklich nutzbar war.

Hast du sie auch nie genutzt? Lolli und ich sprechen immerhin aus Erfahrungen, die bis zum heutigen Tage gehen. ;)

800x600x16 mit 4xAA ging immer. Damals sah bspw. NFS Porsche damit genial aus (das sagten sogar ein paar Zeitschriften X-D).

MfG,
Raff

reunion
2005-12-15, 17:12:31
Jop, mit dem Kauf von STB haben die ihr eigenes Grab geschaufelt...


Es gab viele Faktoren.
Man muss sich nur mal vor Augen halten, dass Rampage ursprünglich die Voodoo1(!) ersetzen sollte.

Mr. Lolman
2005-12-15, 17:15:47
Hast du sie auch nie genutzt? Lolli und ich sprechen immerhin aus Erfahrungen, die bis zum heutigen Tage gehen. ;)

800x600x16 mit 4xAA ging immer. Damals sah bspw. NFS Porsche damit genial aus (das sagten sogar ein paar Zeitschriften X-D).

MfG,
Raff

Noch kewler war der tw. kaum vorhandene Einbruch zw 1024x768x32 und 1024x768x22/2xAA. Auf der Radeon 8500 brauchte ich meistens schon 4xAA und 32bit damit das Bild eine optische Seigerung zu den 22bit/2xAA der V5 bot. Außerdem war die 8500 so tw. sogar etwas langsamer als die V5.

Leonidas
2005-12-19, 12:14:24
Fakt ist vor 5 Jahren hat mich diese Nachricht keinesweg erschüttert. Mir war 3DFX völlig egal und ich war immer noch von meiner GeForce DDR begeistert....

Aber heute ist das anders. Wenn du dich ein wenig mit einer Voodoo5 beschäftigst muss man einfach zum 3DFX Fan werden. Unreal mit Glide spielen ist so dermaßen impressive, man muss immer an die genialste PC Zeit aller Zeiten zurückdenken, die man so nicht mehr erleben kann.




Bei mir genau umgedreht. Damals hab ich mich gefragt, wie es nun überhaupt weitergehen soll. Heute sehe ich es aufgrund der vernünftigen Entwicklung deutlich relaxter.

Raff
2005-12-19, 12:27:52
Bei mir genau umgedreht. Damals hab ich mich gefragt, wie es nun überhaupt weitergehen soll. Heute sehe ich es aufgrund der vernünftigen Entwicklung deutlich relaxter.

Jopp, Ati bringt Nvidia gut ins Schwitzen. Aber wäre ein Dritter nicht noch klasse? :D

MfG,
Raff

Raff
2007-12-16, 01:40:26
*Leichenschänd*

Mir fiel beim Schauen auf die Uhr gerade auf, dass wir mittlerweile das siebte Jahr ohne 3dfx vollenden. Wer gedenkt mit? Ich würde zur Feier des Tages gerne mal wieder meine Göttin im Voodoo-PC für Retrospiele nutzen und Bildchen posten ... aber der Heiler kommt nicht zu Potte. ;)

MfG,
Raff

mapel110
2007-12-16, 02:05:40
Jopp, Ati bringt Nvidia gut ins Schwitzen. Aber wäre ein Dritter nicht noch klasse? :D

MfG,
Raff
Zwei Jahre weiter und wir bangen um ATI als einzigen Gegenpol zu nvidia.

Mit Vista hat sich das ganze Voodoo-Zeugs endgültig verabschiedet, oder gibts dafür schon Treiber?

vinacis_vivids
2007-12-16, 05:08:34
Der Zweite Artikel vom Ausgangspost ist nicht mehr verfügbar ;(;(;( müsste ich wieder mal lesen....

Stormscud
2007-12-16, 09:52:20
Jaja die alten Zeiten :biggrin:

Mit der Voodoo1 kam in den PC meiner Eltern das 3D Zeitalter. Dnach gabs noch ne Voodoo Banshee. Aber in meinen ersten eigenen PC hats leider keine 3Dfx mehr geschafft.

Aber wieder mal ein dritter Hersteller der im Grafikkartengeschäft mitmischt wäre schon nett. Wäre mir zwar lieber wenn es nicht Intel (die sind schon groß genug) wird, aber einen anderen aussichtsreichen Kandidaten haben wir nicht, oder?

Gast
2007-12-16, 10:56:55
AFAIK hätte NVidia wegen Patentrechtsverletzungen am Ende mehr Kohle an 3dfx zahlen müssen, als die Firma am Papier wert war. Wahrscheinlich auch ein Grund für die Übernahme.

Es gab keine Übernahme. 3dfx hat Konkurs angemeldet und die Konkursmasse wird vom Konkursverwalter eben verscherbelt und da hat Nvidia zugeschlagen.

Gast
2007-12-16, 10:59:07
Wieso? Das 2fache SSAA der Voodoo5 konnte man immer dazuschalten. .

Es hat die Leistung halbiert, so daß man höchstens noch in 800x600 spielen konnte. Da hab ich lieber ohne AA in 1024 oder 1280 gepsielt.

][immy
2007-12-16, 11:01:51
Noch kewler war der tw. kaum vorhandene Einbruch zw 1024x768x32 und 1024x768x22/2xAA. Auf der Radeon 8500 brauchte ich meistens schon 4xAA und 32bit damit das Bild eine optische Seigerung zu den 22bit/2xAA der V5 bot. Außerdem war die 8500 so tw. sogar etwas langsamer als die V5.
??
nene, ich vergöttere zwar auch meine V5 aber die Radeon 8500 war definitiv schneller als die V5 5500. bin ja von der 5500 auf die 8500 umgestiegen. zudem habe ich es vor ner Ewigkeit auch mal getestet (test ist hier (http://www.worldofff.de/index.php?WoffLink=14&head=no)). wüsste außer Diablo 2 nicht eine applikation wo die V5 schneller war

Raff
2007-12-16, 12:02:15
[immy;6115071']??
nene, ich vergöttere zwar auch meine V5 aber die Radeon 8500 war definitiv schneller als die V5 5500. bin ja von der 5500 auf die 8500 umgestiegen. zudem habe ich es vor ner Ewigkeit auch mal getestet (test ist hier (http://www.worldofff.de/index.php?WoffLink=14&head=no)). wüsste außer Diablo 2 nicht eine applikation wo die V5 schneller war

Bei Quake 3 ist im Falle der V5 und Kyro 2 eindeutig VSync an. Da ginge deutlich mehr. Vor allem mit dem WickedGL geht eine V5 bei der Q3-Engine ganz hübsch ab: http://3dcenter.de/artikel/voodoo5-6000/index8.php

Ansonsten ist die V5 5500 beispielsweise in Unreal Tournament oft schneller als die Radeon 8500: http://3dcenter.de/artikel/voodoo5-6000/index22.php

Meist liegt aber natürlich die Radeon vorne. Hat ja auch deutlich mehr Rohleistung. :)

MfG,
Raff

Exxtreme
2007-12-16, 12:10:54
Jo, ein dritter Hersteller wäre wohl echt nicht schlecht. Das Oligopol von AMD und Nvidia ist zwar immer noch besser als ein Monopol aber optimal ist es IMHO nicht. Für Spieleentwickler sicherlich ein Traum aber für den Endkunden IMHO nicht.

Intel will zwar Richtung Raytracing aber bis das marktreif ist da fliesst genug Wasser die Brenz runter.

][immy
2007-12-16, 12:11:13
Bei Quake 3 ist im Falle der V5 und Kyro 2 eindeutig VSync an. Da ginge deutlich mehr. Vor allem mit dem WickedGL geht eine V5 bei der Q3-Engine ganz hübsch ab: http://3dcenter.de/artikel/voodoo5-6000/index8.php

Ansonsten ist die V5 5500 beispielsweise in Unreal Tournament oft schneller als die Radeon 8500: http://3dcenter.de/artikel/voodoo5-6000/index22.php

Meist liegt aber natürlich die Radeon vorne. Hat ja auch deutlich mehr Rohleistung. :)

MfG,
Raff

an vsync kann es damals nicht gelegen haben. zum einen war es abgeschaltet und zum anderen lief der monitor mit 85 Hz.
die wicketgl treiber sind ja nett, aber erlauben nur 16-bit farbtiefe. der 22-bit filter war ja ganz nett, konnte aber nicht mit der 32-bit farbtiefe der radeon mithalten.

zudem, wenn ich mich noch recht entsinne lief auf der 8500er 32-bit schneller als 16-bit. war zwar wohl eher ein treiberbug aber die architekturen waren zu dem zeitpunkt eh auf 32-bit optimiert, von daher sollte man diese karten erst gar nicht in 16-bit testen. aber ist ja auch egal, die 8500er war eine spätere generation, wäre wohl sehr enttäuschen gewesen wenn diese nicht schneller wäre :)

aber wirklich schade das bisher weder ati noch nvidia ein SSAA in der qualität anbieten wie es die V5 konnte. ist zwar klar das die leistung dadurch arg in die knie geht und es für neuere spiele nicht zu gebrauchen ist, aber als optionale bild-auffrischung für alte spiele wäre das wirklich nett.

Raff
2007-12-16, 12:15:29
Der Zweite Artikel vom Ausgangspost ist nicht mehr verfügbar ;(;(;( müsste ich wieder mal lesen....

Ich hab das Startposting mal editiert. Geht wieder. ;)

[immy;6115220']an vsync kann es damals nicht gelegen haben. zum einen war es abgeschaltet und zum anderen lief der monitor mit 85 Hz.

Unter OpenGL vielleicht nicht? Getrennte Regler. :)

[immy;6115220']die wicketgl treiber sind ja nett, aber erlauben nur 16-bit farbtiefe.

Dem WGL ist es egal, ob du im Spiel 16 oder 32 Bit aktivierst, der macht beides. Und forciert optional Texturkompression. :)

[immy;6115220']der 22-bit filter war ja ganz nett, konnte aber nicht mit der 32-bit farbtiefe der radeon mithalten.

Musste er im Grunde auch nicht, weil die V5 ja auch 32 Bit konnte. Abseits der V5 6000 aber sehr langsam, wie bei allen anderen Karten bis zur GeForce3.

MfG,
Raff

aths
2007-12-16, 12:24:34
Bei Quake 3 ist im Falle der V5 und Kyro 2 eindeutig VSync an. Da ginge deutlich mehr. Vor allem mit dem WickedGL geht eine V5 bei der Q3-Engine ganz hübsch ab: http://3dcenter.de/artikel/voodoo5-6000/index8.phpIch weiß jetzt nicht obs bei Q3A oder Elite Force war, da brachte mir die Texturkomprimierung bei der Voodoo 4 4500 immerhin +25% fps.

Elite Force zockte ich in 800x600x16 – aber mit Antialiasing.


Wenn ich eine ATI-Karte ausbaue, dann, weil halt was besseres reinkommt. Wenn ich eine Nvidia-Karte ausbaue, dann, weil halt was besseres reinkommt. Wenn ich eine 3dfx-Karte ausbaute, hielt ich das gute Stück immer noch automatisch einige Sekunden andächtig in den Händen und ließ Revue passieren, was wir gemeinsam erlebt hatten. Auch wenn sie gegen eine bessere 3dfx-Karte ausgetauscht wurde.

Gast
2007-12-16, 13:06:04
Ja klar, NV war überhaupt nicht Schuild am Untergang von 3DFX.
Beruhigt weiter euer Gewissen, indem ihr euch selbst belügt.

NV hat durch Gelder und Marketing, dass beinah immer unter die Gürtellinie
ging die Konkurenz schlecht gemacht. Sie zögerten nicht einmal absolute Lügen zu verbreiten.
Das hat die Konkurenz in dem Ausmass nie getan...

Auch die Geschwindigkeit des Konkurs und des Aufkaufs von 3DFX war atemberaubend und sollte jedem zu denken geben. In den ersten paar Tagen
war auch nicht vom Konkurs gesprochen sondern es wurde überall von einer feindlichen Übernahme geredet. Erst später wurde mitgeteilt, dass 3DFX konkurs gegangen ist. Auch wurde direkt am Tag des Konkurs die 3DFX-HP deaktiviert (keine Treiber mehr) und stattdessen forderte NV alle 3dfx-Besitzer auf ihre Karten für 30 Dollar beim Kauf einer Geforce einzulösen.

Dankeschön Nvidia...

Exxtreme
2007-12-16, 17:42:38
Ja klar, NV war überhaupt nicht Schuild am Untergang von 3DFX.
Beruhigt weiter euer Gewissen, indem ihr euch selbst belügt.

NV hat durch Gelder und Marketing, dass beinah immer unter die Gürtellinie
ging die Konkurenz schlecht gemacht. Sie zögerten nicht einmal absolute Lügen zu verbreiten.
Das hat die Konkurenz in dem Ausmass nie getan...

Auch die Geschwindigkeit des Konkurs und des Aufkaufs von 3DFX war atemberaubend und sollte jedem zu denken geben. In den ersten paar Tagen
war auch nicht vom Konkurs gesprochen sondern es wurde überall von einer feindlichen Übernahme geredet. Erst später wurde mitgeteilt, dass 3DFX konkurs gegangen ist. Auch wurde direkt am Tag des Konkurs die 3DFX-HP deaktiviert (keine Treiber mehr) und stattdessen forderte NV alle 3dfx-Besitzer auf ihre Karten für 30 Dollar beim Kauf einer Geforce einzulösen.

Dankeschön Nvidia...
Marketing ist wayne. Ein Problem ist auch, daß sich damals die ganzen Reviewseiten von den Whitepapers einlullen liessen und diese Marketingpapiere quasi abschrieben. 3dconcept war so ziemlich die einzige Seite, die da nicht mitmachte. Leider half das alles nichts wenn die restlichen 95% quasi ein Sprachrohr sind weil sie es nicht besser wissen oder nicht besser wissen wollten.

Andererseits trifft auch 3dfx die Schuld. Man hat an zuvielen falschen Stellen gespart. Wenn die 3dfx-Ingenieure alles händisch machen mussten und bei ATi das mit diversen Tools voranstatten ging dann sollte es nicht verwundern, daß ATi irgendwannmal vorbeigezogen ist während 3dfx quasi auf einer Stelle stand und nur marginale Verbesserungen vorzeigen konnte. Das ist so als wenn du Entwickler x einen simplen Texteditor in die Hand drückst und Entwickler y eine komplette IDE. Entwickler y wird produktiver sein. Und das ist u.A. auch schief gelaufen. Aber das war ein klarer Managementfehler.

3dfx_is_gone
2007-12-17, 12:01:01
Remembering Voodoo1, Banshee, Voodoo 3000, where is all the voodoo gone ?

Rest in peace - may at times some current flow through your remaining conductions !

Is all the voodoo gone ? No, there are some systems alive, where the voodoo spirit is shining over the descendants.

Condolescence to a never forgotten faithful partner in gaming.

mapel110
2007-12-17, 12:46:32
Man sollte vielleicht auch mal bedenken, dass das Internet damals gar keine so große Rolle gespielt haben kann. Im Jahr 2000 waren die Onlinepreise andere und außer ein paar Nerds waren nicht gerade alle Käuferschichten unterwegs im Web.

Irgendwann hatte halt 3DFX ihren "Wir waren die Ersten"-Bonus verloren und sie boten keine neuen Anreize.
AA wird hier als Überfeature hingestellt. Damals haben noch weniger Leute gewusst, was das überhaupt ist und selbst heute sind es nur wenige.

aths
2007-12-17, 13:02:57
Ich nehme stark an dass die meisten Leute die eine stärkere Graka kaufen ("Performance") wissen, was Antialiasing ist und es auch nutzen wollen.

robbitop
2007-12-17, 13:09:14
Heute ja, denn die Aufklärung ist mittlerweile deutlich weiter fortgeschritten als damals.
Damals berichteten die Printmedien nur periphär über AA. Es ging eher um Balkenlängen.
Heute sind wir sogar schon soweit, dass es in Printmedien kleinere BQ Vergleiche von AA/AF und Aufdeckungen von Cheaterei gibt.

Wie auch immer: wer sich dem Markt nicht anpasst, stirbt. 3dfx tat das nicht, ergo gingen sie unter. (schlechtes Management macht die besten Firmen kaputt) Sehr sehr schade drum.

C.D.B.
2007-12-17, 14:27:03
*vormeinerV5500niederknie*

*kerzeanzünd*

*5minutenandächtigbete*

:D

Wie wohl die 3D-Welt heute aussehen würde, wenn NVidia ins Gras gebissen und 3Dfx sich mit ATI fetzen würde? (Dann gäbe es bestimmt vernünftiges AA :rolleyes:)


man connected sich, bye

Coda
2007-12-17, 14:31:13
Wie wohl die 3D-Welt heute aussehen würde, wenn NVidia ins Gras gebissen und 3Dfx sich mit ATI fetzen würde? (Dann gäbe es bestimmt vernünftiges AA :rolleyes:)
Wo genau haben wir heute "kein vernünftiges AA"? Alle modernen Karten haben Sparsed-Grid-Subsample-Muster und Gammakorrektur.

Und nein auch 3Dfx würde heute kein Supersampling mehr einsetzen. Das hätte schon Rampage abgeschafft.

Gast
2007-12-17, 15:28:18
Nun, zu meinen Voodoozeiten habe ich mit AA gespielt alles was dannach
kamm war einfach zu langsam um bei aktuellen Spielen AA zu ermöglichen. Außerdem haben die Voodoos bei AA viel besser skaliert als bei den heutigen Grakas.

UT zB. lief auf einer Voodoo allen Geforcen den Rang ab, wer mal genauer hinsieht merkt, dass nur Glide in UT1 die volle Bildqualität bot. Bei D3D mit ner NVidia musste wieder rumgecheatet werden indem man Transparenzen und Partikel deaktivierte.

Coda
2007-12-17, 15:54:44
Außerdem haben die Voodoos bei AA viel besser skaliert als bei den heutigen Grakas.
Völliger Schwachsinn. Schon 2x Supersampling hat bei den Voodoos zu 50% Füllratenverlust geführt und bei GPU-Limitierung dadurch auch zu halber Leistung. Das ist ein absoluter Humbug-Mythos.

Multisampling ist viel effizienter. Und heute mit den ganzen Kompressionsalgorithmen erst recht.

robbitop
2007-12-17, 16:00:47
Was mich wundert, ist dass weder NVIDIA noch ATI Supersampling irgendwie anbieten. Können tuns die Karten ja. Man könnte es ja anders vermarkten als das MSAA....sozusagen als Schmankerl für das man bei neueren Spielen SLI/CF bräuchte. Meinetwegen auch in der Reg verstecken.

Entweder will man das gar nicht, oder es ist die Arbeit des Implementierens nicht wert.

ATI bietet immerhin 2xRGSS über CF-AA an. NVIDIAs SLI-AA ist ja IIRC nur mit OGSS.

Exxtreme
2007-12-17, 16:18:26
Sie bieten es wohl deshalb nicht an weil sie Angst haben, daß irgendwelche Tester aufgrund von Inkompetenz das irgendwie aktivieren und dann anfangen zu testen. Und dann sieht man im Schwanzvergleich ziemlich alt aus weil das dann doch auf die Leistung schlägt.

Das R200-SSAA hat man nämlich auch mit dem GF3-MSAA verglichen obwohl das gänzlich verschiedene Verfahren sind.

Coda
2007-12-17, 16:23:26
Was mich wundert, ist dass weder NVIDIA noch ATI Supersampling irgendwie anbieten.
Weil man dafür Hardware braucht. Wie es aussieht wird's mit D3D10.1 aber sowieso vom Entwickler kontrollierbar. Ist meiner Ansicht nach sowieso der bessere Weg die BQ vom Spiel steuern zu lassen.

robbitop
2007-12-17, 16:39:38
Weil man dafür Hardware braucht.
Nunja, dass die Hardware es seit R300 und spätestens NV4x kann, zeigt ja TSAA. Ob das der beste Weg dafür ist, ist natürlich die Frage.
ATI sollte ein ähnliches Verfahren, wie 3dfx seinerzeit, schon beherrschen. Man schaue auf CF-AA.
Ich gehe davon aus, dass beide D3D10 Karten das schon könnten, wenn die IHVs wollten.

Die Fehlnutzung lasse ich in der heutigen Zeit nicht mehr gelten. Vor ein paar Jahren vieleicht noch. Schließlich kommt auch kein Heinz mehr auf die Idee 8xS vs 8xMS zu benchen oder 16xS oder SLI-AA vs MS oder CAA vs MSAA oder TAA vs reines MS.
Das zeigt, dass die Masse der Redakteure genug von AA verstehen (oder gut genug gebrieft sind) um solche Fehler nicht mehr zu machen.

Coda
2007-12-17, 16:49:45
Nunja, dass die Hardware es seit R300 und spätestens NV4x kann, zeigt ja TSAA.
Können sie nicht. Das ist eine Treibersache mit mehreren Renderdurchgängen und gepatchtem Vertexprogramm. Sag ich aber auch nicht zum ersten Mal.

ATI sollte ein ähnliches Verfahren, wie 3dfx seinerzeit, schon beherrschen. Man schaue auf CF-AA.
Was hat das damit zu tun? CF-AA betrifft nur den Downfilter wenn alle Samples schon fertig im Framebuffer liegen.

Ich gehe davon aus, dass beide D3D10 Karten das schon könnten, wenn die IHVs wollten.
Ich denke nicht. ATi müsste auf den 10.1-Karten wohl mindestens jedes Fragment-Programm patchen damit es halbwegs performant läuft (Loop um alles rum, entsprechende Texturoffsets berechnen, etc. Evtl. ist es auch gar nicht möglich).

robbitop
2007-12-17, 16:57:29
Können sie nicht. Das ist eine Treibersache mit mehreren Renderdurchgängen und gepatchtem Vertexprogramm. Sag ich aber auch nicht zum ersten Mal.
Ist mir bekannt. Dennoch könnte man das auf alle Pixel anwenden.


Was hat das damit zu tun? CF-AA betrifft nur den Downfilter wenn alle Samples schon fertig im Framebuffer liegen.
Eben. Man rendert den Framebuffer des Bildes eben 2x (oder 4x, 6x, ...) mit anderen Offsets und fügt diese beim downsampling zusammen. So funktionierte das 3dfx AA und AFAIK funktioniert das CF-AA ebenso.
Gut, bei CF-AA passiert das gleichzeitig, da beide Chips das simultan machen. Sollte aber nicht soo schwierig sein, dass ein Chip das hintereinander macht.

reunion
2007-12-17, 17:07:06
ATI bietet immerhin 2xRGSS über CF-AA an.

Das war einmal. CF-AA auf R6xx ist maximal 16x sparsed grid MSAA ohne SSAA-Anteil.

Coda
2007-12-17, 17:07:42
Ist mir bekannt. Dennoch könnte man das auf alle Pixel anwenden.
Wenn du bei 2xAA noch 25% Leistung haben willst kann man das gerne machen.

Eben. Man rendert den Framebuffer des Bildes eben 2x (oder 4x, 6x, ...) mit anderen Offsets und fügt diese beim downsampling zusammen. So funktionierte das 3dfx AA und AFAIK funktioniert das CF-AA ebenso.
Gut, bei CF-AA passiert das gleichzeitig, da beide Chips das simultan machen. Sollte aber nicht soo schwierig sein, dass ein Chip das hintereinander macht.
Dann sag auch Crossfire-Anti-Aliasing.

CFAA ist "Custom Filter Anti-Aliasing", also die neuen Blur-Modi des R6xx.

robbitop
2007-12-17, 17:12:18
Wenn du bei 2xAA noch 25% Leistung haben willst kann man das gerne machen.
Mir ging's ja nur um die Realisierbarkeit.



Dann sag auch Crossfire-Anti-Aliasing.

CFAA ist "Custom Filter Anti-Aliasing", also die neuen Blur-Modi des R6xx.
Crossfire-AA war aber zuerst da ;)
Wie auch immer, genau das Verfahren meine ich. Das sollte auch mit einem Chip funktionieren. Ich sehe auch nicht, warum das langsam sein sollte.

Coda
2007-12-17, 17:57:35
Mir ging's ja nur um die Realisierbarkeit.
Ging's dir nicht:
Was mich wundert, ist dass weder NVIDIA noch ATI Supersampling irgendwie anbieten.
Das impliziert eine praktikablen Ansatz.

Wie auch immer, genau das Verfahren meine ich. Das sollte auch mit einem Chip funktionieren. Ich sehe auch nicht, warum das langsam sein sollte.
Es geht nicht, weil man nicht das ganze Bild so einfach nochmal rendern kann in einem Renderloop.

3Dfx hatte spezielle Hardware um das zu ermöglichen auf den Chips und das haben die neuen Chips nicht mehr. Auch weil das fixed-function Logik ist die bald durch von den Entwicklern viel feiner kontrollierbarer programmierbarer Logik ersetzt wird (D3D10.1).

robbitop
2007-12-17, 18:10:57
Ging's dir nicht:

Das impliziert eine praktikablen Ansatz.
Da stand "irgendwie". Das impliziert noch keinen hoch effizientes Verfahren.

Egal: Worte sind Schall und Rauch. Wir wissen ja nun beide, was der andere meinte.

Es geht nicht, weil man nicht das ganze Bild so einfach nochmal rendern kann in einem Renderloop.
Aber in einem neuen Renderpass ginge das. Wäre das dem Treiber nicht möglich?
Wäre zwar nicht mehr so effizient, da man nochmal komplett von vorn anfangen müßte beim 2. Bild.

Coda
2007-12-17, 18:16:02
Aber in einem neuen Renderpass ginge das. Wäre das dem Treiber nicht möglich?
Wäre zwar nicht mehr so effizient, da man nochmal komplett von vorn anfangen müßte beim 2. Bild.
Würde evtl. schon, aber ich halte den Aufwand für das Ergebnis einfach für viel zu hoch als dass ich mich darüber wundern würde warum das nicht gemacht wird.

robbitop
2007-12-17, 18:27:24
Gibt's seitens den IHVs denn schon Anstrengungen das TSAA effizienter zu machen? Oder weicht man einfach mittelfristiafu auf TMAA zurück?

Raff
2007-12-17, 20:49:27
Ich weiß jetzt nicht obs bei Q3A oder Elite Force war, da brachte mir die Texturkomprimierung bei der Voodoo 4 4500 immerhin +25% fps.

Volle Kanne FXT1 mittels des WickedGL ermöglicht es einer Voodoo4 4500 laut neuesten Erkenntnissen auch mal, eine Voodoo3 regelrecht zu deklassieren: http://forum.voodooalert.de/thread.php?threadid=13478

Multisampling ist viel effizienter. Und heute mit den ganzen Kompressionsalgorithmen erst recht.

Das MSAA des NV20 war alles andere als effizient. Da sagst du aber was. Warum hat eigentlich noch nie jemand 4x OGMSAA mit OGSSAA auf dieser Architektur verglichen? Mal sehen, zu was ich zwischen den Jahren komme ...

MfG,
Raff

robbitop
2007-12-17, 21:28:09
MSAA kostete auf der GF3 enorm, da zu der Zeit die Bandbreite ein wesentlich kritischerer Flaschenhals war, als er es heute ist. (Bandbreitenschonung, kaum Aritmetik)
Mit heutigen Kompressionsalgoritmen, und heutiger Aritmetiklast ist das natürlich eine völlig andere Situation als damals.

Lolman
2007-12-17, 22:26:54
[QUOTE=Raff;6119388]Volle Kanne FXT1 mittels des WickedGL ermöglicht es einer Voodoo4 4500 laut neuesten Erkenntnissen auch mal, eine Voodoo3 regelrecht zu deklassieren: http://forum.voodooalert.de/thread.php?threadid=13478

Das war schon immer klar.

Raff
2007-12-18, 01:15:05
Ich sah nie solch imposante Zahlen, du etwa?

MfG,
Raff

PS: Account ftw.

Coda
2007-12-18, 01:35:03
Das MSAA des NV20 war alles andere als effizient.
Er sprach von HEUTIGEN Grafikkarten. Und da Supersampling dagegen als mit "weniger Einbruch" darzustellen ist einfach bloß reiner Schwachsinn.

Und selbst damals hat es nicht gestimmt. Mit Multisampling hast du im schlechtesten Fall (komplette Bandbreiten-Limitierung durch komplett fehlende Kompression und keiner Rechenlast) den Einbruch von Supersampling.

Bei manchen hab ich einfach den Eindruck als würden Sie glauben 3Dfx hätte irgendwie viel bessere Ingineure gehabt als nVIDIA und ATi heute, was schon allein schon Blödsinn ist weil genau die Leute heute bei diesen Firmen sind.

Raff
2007-12-18, 01:36:18
Er sprach von HEUTIGEN Grafikkarten. Und da Supersampling dagegen als mit "weniger Einbruch" darzustellen ist einfach bloß reiner Schwachsinn.

Dann halte ich mal mit konsequent schwindender Effektivität (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=391532) gegen. :naughty:

Und selbst damals hat es nicht gestimmt. Mit Multisampling hast du im schlechtesten Fall (komplette Bandbreiten-Limitierung durch komplett fehlende Kompression und keiner Rechenlast) den Einbruch von Supersampling.

Ja, auf einer GF3 durchaus anzutreffen. Bei 4x AA steht's dann aber 4x OG zu 4x RG (NV20 vs. Dual-VSA-100).

MfG,
Raff

Coda
2007-12-18, 01:43:48
Dann halte ich mal mit konsequent schwindender Effektivität (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=391532) gegen. :naughty:
Supersampling ist trotzdem grober Blödsinn. Auch heute noch.

Deshalb gibt's jetzt ja extrem fein kontrollierbares Anti-Aliasing in Direct3D 10.1. Da kannst du pro Pixel sagen was Supersampling braucht und wieviel Samples du überhaupt nehmen willst. Aber nein. Wir brauchen !unbedingt! Knüppel-AA. Bald! Eh is klar, ne.

Wird nicht mehr kommen Leute. Seht's ein.

Raff
2007-12-18, 01:44:55
Ja, brauchen wir. Wir sehen ja was passiert, wenn man die Entwickler entscheiden lässt, wie der Content auszusehen hat. Meinst du ernsthaft, die kleistern mal eben alles mit adaptivem SSAA zu?

MfG,
Raff

Coda
2007-12-18, 01:46:19
Brauchen wir nicht, wenn du mal lesen würdest was ich schreib und dein Hirn dazu einschalten würdest.

Bzw. aufhören würdest über Dinge zu reden deren Hintergrund du offenbar nicht verstehst. Es ist eben völliger Blödsinn "alles mit Supersampling zuzukleistern". Es reicht völlig den hochfrequenten Anteil des Shaders damit zu bearbeiten.

Und ja, das würden die Entwickler machen, wenn sie das Werkzeug heute dazu schon in den Händen hätten. Das ist schnell gemacht im Gegensatz zu einem mathematischen Ansatz das ganze erst von vornherein zu vermeiden (was ich nach wie vor bevorzuge).

Raff
2007-12-18, 01:47:28
Du bist mir wieder ein klein wenig zu aggressiv, lieber Coda.
Nur weil Türen geöffnet werden heißt das noch lange nicht, dass Entwickler hindurchgehen.

MfG,
Raff

Coda
2007-12-18, 01:49:44
Du verstehst die Hintergründe echt nicht. EOD.

Lolman
2007-12-18, 06:42:35
Ich sah nie solch imposante Zahlen, du etwa?

MfG,
Raff

PS: Account ftw.


Ja, damals an meinem Rechner. ;)

Gast
2007-12-18, 09:56:55
Damals waren die Spiele auch ein klein wenig anspruchsloser und besser optimiert als der heutige reine skript-müll.
Da konnte ich mit 2xssaa bei ner v4 4500 rumzocken ohne das die Spiel unspielbar waren.

Exxtreme
2007-12-18, 10:10:47
Bzw. aufhören würdest über Dinge zu reden deren Hintergrund du offenbar nicht verstehst. Es ist eben völliger Blödsinn "alles mit Supersampling zuzukleistern". Es reicht völlig den hochfrequenten Anteil des Shaders damit zu bearbeiten.

Und ja, das würden die Entwickler machen, wenn sie das Werkzeug heute dazu schon in den Händen hätten. Das ist schnell gemacht im Gegensatz zu einem mathematischen Ansatz das ganze erst von vornherein zu vermeiden (was ich nach wie vor bevorzuge).
Das ist halt die Frage ob sie es wirklich machen würden. So verbuggt wie manche Spiele rauskommen, habe ich das Gefühl, daß die Entwickler froh sind, daß das Spiel überhaupt halbwegs spielbar ist zum Releasetermin.

Von daher würde ich mir durchaus eine Option für gutes SSAA wünschen. :)

DrFreaK666
2007-12-18, 16:54:19
Wie wärs mit einem eigenen Thread?
Mit 3dfx hat es kaum noch zu tun...

robbitop
2007-12-18, 16:56:47
Das Thema ist eh erschöpft. Lieber soll nochmal eine technisch interessante Diskussion aufbrechen. Vieleicht findet sich später noch etwas zum Thema 3dfx.

Liszca
2007-12-18, 17:10:46
Das Thema ist eh erschöpft. Lieber soll nochmal eine technisch interessante Diskussion aufbrechen. Vieleicht findet sich später noch etwas zum Thema 3dfx.

also ich habe mir eine voodoo 5 5500 pci mit DVI ersteigert ;D

PCGH_Carsten
2007-12-18, 17:27:24
Sie bieten es wohl deshalb nicht an weil sie Angst haben, daß irgendwelche Tester aufgrund von Inkompetenz das irgendwie aktivieren und dann anfangen zu testen. Und dann sieht man im Schwanzvergleich ziemlich alt aus weil das dann doch auf die Leistung schlägt.

Das R200-SSAA hat man nämlich auch mit dem GF3-MSAA verglichen obwohl das gänzlich verschiedene Verfahren sind.
Genau - oder 6x MSAA mit 8xS-AA. Schon gemerkt, dass die GF8er keine xS-Modi mehr im Treiber haben?

Gast
2007-12-18, 18:01:05
Das R200-SSAA hat man nämlich auch mit dem GF3-MSAA verglichen obwohl das gänzlich verschiedene Verfahren sind.

Erstaunlicherweise ist das optische Ergebnis aber dasselbe, so dass der Vergleich hier gerechtfertigt ist.

Coda
2007-12-18, 18:05:22
Das optische Ergebnis ist nicht dasselbe. Die Texturen waren bei R200 dadurch schärfer.

Gast
2007-12-18, 18:11:34
Nein, das waren sie eben nicht, die Texturen waren komplett unverändert.

Coda
2007-12-18, 19:19:59
Das kann nicht sein.

Fetza
2007-12-18, 21:58:34
...und den es leider auf Grund von Komplikationen viel zu früh in den Tod gerissen hat.



Jo, also meine voodoo 2 karten waren mein erstes und bis heute einziges sli-system. Das waren wirklich schöne zeiten, ich hoffe allerdings, das ich jetzt von keinem fanatiker virtuel erschlagen werden, wenn ich erwähne, das es natürlich keine komplikationen im eigentlichen sinne waren, die 3dfx ableben einläuteten. Sondern vielmehr einfach eigenes verschulden seitens 3dfx. Wenn man auf einmal alles selber produzieren und verkaufen möchte (und sich dabei gewaltig überhebt), und alten geschäftspartnern die chiplieferung verweigert, muss man sich nicht wundern das die später auch nichts mehr von einem wissen möchten.

Der exitus liegt also im eigenen geschäftsgebaren begründet. Naja die karten warum trotzdem toll.;)

Mr. Lolman
2007-12-19, 08:33:36
Das kann nicht sein.

Und selbst wenn Ati das Mipmapbias verändert hätte, gabs ne nette überfilterung, die der Unterfilterung beim biAF entgegen steuerte. Außerdem wurden Alphatests ja auch geglättet.

@Gast: Somit ist SSAA niemals prinzipiell vergleichbar mit MSAA. Dadurch, dass aber auch ATis biAF mit NVS triAF verglichen wurde, war die insgesamte BQ/Performance mit AA/AF wieder relativ ähnlich.

Die 8500 war zwar keine schlechte Karte, aber wenn man Voodoo5 AA gewohnt war, war die Radeon geschwindigkeitsmässig bei gleicher BQ eher ein Sidegrade als ein Upgrade...

Corny
2007-12-19, 09:32:03
Ganz dumme Frage:

Wenn nVidia jetzt schon die ganzen 3Dfx Techniken und Patente besitzt, dann müssten die doch gleichwertiges AA anbieten können? :confused:
Performance müssten die aktuellen Karten ja genug dafür haben.

Lolman
2007-12-19, 09:43:46
Ganz dumme Frage:

Wenn nVidia jetzt schon die ganzen 3Dfx Techniken und Patente besitzt, dann müssten die doch gleichwertiges AA anbieten können? :confused:
Performance müssten die aktuellen Karten ja genug dafür haben.

Sicher könnten sie. Aber es ist nicht mehr so praktikabel wie damals (http://www.3dcenter.org/artikel/voodoo5-6000/index3.php) (Seite 3-4)

Gast
2007-12-19, 09:50:42
@Gast: Somit ist SSAA niemals prinzipiell vergleichbar mit MSAA.



Wer sagt denn, dass der R8500 kein MSAA kann? Es funktioniert zwar wohl nicht immer, aber in den Fällen in denen es funktioniert, ist es bis 2xAA mit dem der GF3 vergleichbar.
4xAA nicht, weil der R8500 hier RGAA macht und der GF3 nur OGAA.

Lolman
2007-12-19, 09:53:58
Wer sagt denn, dass der R8500 kein MSAA kann?

War das nicht eher RGSSAA, was gut aussah, wenn es funktionierte?

Ailuros
2007-12-19, 10:02:01
Wenn man in der Vergangenheit herumgrabt, dann sollte der groesste Vorteil sein dass man aus den Fehlern lernen kann.

Als noch 3D in seinen Windeln lag, wurde es ziemlich klar dass ganz grob praesentiert Bildqualitaet ueber Leistung nicht gewinnen kann. Eine so optimal wie moeglich Kombination der beiden bringt dann auch analoge Verkaufs-erfolge fuer jeglichen IHV. Zwei Beispiele fuer meinen persoenlichen Geschmack waeren Exemplare wie die 9700PRO und die 8800GTX.

Was jetzt das selige 3dfx betrifft, gehoert wohl leider Napalm nicht zu den obrigen Meilensteinen, sondern eher Voodoo1 und/oder Voodoo2. Nach dem letzteren ging es langsam bergab. Beschissenes Management, unendliche Geldverschwendung, eine eher merkwuerdige interne Arbeits-philosophie usw. und man verlor ueber Nacht eine aeusserst wichtigen Consolen-Deal an Videologic weil man eben nichts anstaendiges aus dem mythischen Rampage zeitig vorzeigen konnte. NEC/SEGA haetten damals einen Vogel gehabt wenn sie sich eine aufgekrempelte V2 haetten andrehen lassen.

Nichtdestominder verschwendete man wertvolle Resourcen fuer den oeden Desing den man dann nett aufs Regal verschachtete.

Zum allerletzten Mal nach Avenger (welcher auch als Zwischenschieber fuer Rampage diente) gab es den angeblichen "M buffer" fuer Rampage, der fuer nichts anderes als fuer Multisampling buffer steht. Da man aber mit knapp 40 engineers nichts zeitig auf die Beine stellen konnte, krempelte man Avenger leicht auf, entwickelte das multi-chip Zeug und Tarolli entwickelte den T-Buffer mit nur SSAA. Dieses haette sogar innerhalb von 6 Monaten damals dauern sollen, aber es hat wohl doch laenger am Ende gedauert.

Wie dem auch sei bis zum Ende von 3dfx war es deren engineers voll bewusst, dass fuer die Zukunft (ergo zwischen damals und heute) nur Multisampling ueberleben konnte. Selbst die protzigen auf Papier Gigapixel Designs (die 3dfx nach dem Aufkauf erfolglos zur Lizenzierung freigab) basierten ausschliesslich auf Multisampling und auch jeglicher zukuenftiger Desing nach Napalm. ***edit: (siehe auch "FSAA4free" fuer die Gigapixel Designs).

Um jetzt diesen eher albernen Kreis wieder zu schliessen: kombiniert man heute gutes MSAA mit gutem AF (Optimierungen aus), hat man in hohen Aufloesungen den bestmoeglichen Schnitt zwischen Bildqualitaet und Leistung. Supersampling hiess und heisst erstmal einen Kompromiss was die Aufloesung betrifft und natuerlich auch die Leistung.

Supersampling ist immer noch fuer 3D Spiele schlecht zu gebrauchen (ausser man spielt Spiele aus der Steinzeit) und 3dfx war nie den Mythos wert der die Firma auch heute noch verfolgt. Ja natuerlich waren sie gut genug fuer ihre Zeit bis zu einem gewissen Punkt, aber was man aus ihrem Mist lernen kann ist dass man nicht hoffen kann dass man ewig gewinnen kann wenn man sich zu lange auf seinen eigenen Lorbeeren ausruht.

Die erste Reaktion der damaligen 3dfx engineers als sie von NV aufgenommen wurden war in der Richtung: "scheisse die Kerle schuften sich hier aber ziemlich ab".

Ailuros
2007-12-19, 10:06:33
Wer sagt denn, dass der R8500 kein MSAA kann? Es funktioniert zwar wohl nicht immer, aber in den Fällen in denen es funktioniert, ist es bis 2xAA mit dem der GF3 vergleichbar.
4xAA nicht, weil der R8500 hier RGAA macht und der GF3 nur OGAA.

Seit wann ist R2x0 ueber Multisampling faehig?

Gast
2007-12-19, 10:17:58
Schon immer gewesen.

Exxtreme
2007-12-19, 10:19:07
War das nicht eher RGSSAA, was gut aussah, wenn es funktionierte?
Ja, es war RGSSAA. Es war nur dann aktiv wenn kein Fog im Spiel aktiviert war. Mir ist das damals bei einigen Spielen aufgefallen. Ich wusste nur nicht woran das lag, daß manchmal RGSSAA und manchmal OGSSAA genutzt wird. Thomas von tommti-systems.de hat dann die Gewissheit erbracht, daß das am Fog liegt. Gibt auch offizielle Statements seitens AMD/ATi.

Gast
2007-12-19, 10:24:21
Ja, es war RGSSAA.

Nein, wenn schon dann RGMSAA, denn es hatte keinerlei Einfluss auf Texturen.

Corny
2007-12-19, 10:35:24
Seit wann ist R2x0 ueber Multisampling faehig?

Er war nie Multisampling fähig! Nur SSAA, das wurde von unwissenden Zeitschriften (Gamestar) sogar regelmäßig als Nachteil angerechnet, wg. der schlechten Performance.

Ich selbst hatte eine Radeon 8500 (tut immer noch im Zweit PC) und die AA Qualität ist sehr gut, die Performance aber entsprechend mies.

Exxtreme
2007-12-19, 10:37:52
Nein, wenn schon dann RGMSAA, denn es hatte keinerlei Einfluss auf Texturen.
Es hatte Einfluss auf Texturen. :rolleyes:

Gast
2007-12-19, 10:52:30
Vom Widerholen wird deine falsche Aussage auch nicht richtiger.

Exxtreme
2007-12-19, 10:58:11
Vom Widerholen wird deine falsche Aussage auch nicht richtiger.
Meine Aussage ist nicht falsch und deshalb wiederhole ich sie. Ich habe mit dieser Grafikkarte 2 Jahre lang gespielt und das Teil werkelt immer noch in einem meiner Rechner. Und ich sehe den Unterschied zwischen SSAA und MSAA auf den ersten Blick.

Mr. Lolman
2007-12-19, 11:10:25
Supersampling ist immer noch fuer 3D Spiele schlecht zu gebrauchen (ausser man spielt Spiele aus der Steinzeit) und 3dfx war nie den Mythos wert der die Firma auch heute noch verfolgt. Ja natuerlich waren sie gut genug fuer ihre Zeit bis zu einem gewissen Punkt, aber was man aus ihrem Mist lernen kann ist dass man nicht hoffen kann dass man ewig gewinnen kann wenn man sich zu lange auf seinen eigenen Lorbeeren ausruht.

Naja, Voodoo5-SGSSAA war für die damalige Zeit schon genial und praktisch. Man konnte sich dafür 32bit Rendering und trilineares Filtering sparen und hatte dabei noch eine (zumindest theoretische) Möglichkeit für weiter T-Buffereffekte. Und wenn ich mir ansehe wieviel Leistung/Transistoren für MSAA fähige ROPs verblasen wird und was für ein treiberseitiger Entwicklungsaufwand für Transparenz-AA betrieben wird, so drängt sich mir hinundwieder doch der Gedanke auf, dass ein pures Fillratemonster mit SGSSAA-Support garnicht so schlecht dastehen würde.

Auf der anderen Seite wär so ein Ding eine technologische Sackgasse, so wies auch letztenendes der Napalm war und würde an einer schlechten Skalierbarkeit des AA leiden.

@all:
Einerseits unoptimiertes Lehrbuch-AF zu fordern und andererseits auf MSAA zu bestehen ist eigentlich ein bisschen inkonsequent.


Die erste Reaktion der damaligen 3dfx engineers als sie von NV aufgenommen wurden war in der Richtung: "scheisse die Kerle schuften sich hier aber ziemlich ab".

Was auch notwendig war um 3dfx zu überholen ;)

Exxtreme
2007-12-19, 11:16:05
@all:
Einerseits unoptimiertes Lehrbuch-AF zu fordern und andererseits auf MSAA zu bestehen ist eigentlich ein bisschen inkonsequent.

Der Meinung bin ich auch. :D

Für mich war MSAA schon immer mit reduziert trilinearem AF vergleichbar. Sprich, Leistung schinden auf Kosten der Bildqualität. Was anderes macht brilineare Filterung auch nicht.

Coda
2007-12-19, 11:19:04
Was auch notwendig war um 3dfx zu überholen ;)
Schon zu Voodoo-3-Zeiten nicht mehr.

Gast
2007-12-19, 11:22:13
Meine Aussage ist nicht falsch und deshalb wiederhole ich sie. Ich habe mit dieser Grafikkarte 2 Jahre lang gespielt und das Teil werkelt immer noch in einem meiner Rechner. Und ich sehe den Unterschied zwischen SSAA und MSAA auf den ersten Blick.


Dann kannst du ja sicher Beweis-Screenshots anfertigen, ich müsste meine Karte erst wieder einbauen.

Mr. Lolman
2007-12-19, 11:40:53
Schon zu Voodoo-3-Zeiten nicht mehr.

Vom technologischen Aspekt her betrachtet, hast du recht.

aths
2007-12-19, 12:57:50
Der Meinung bin ich auch. :D

Für mich war MSAA schon immer mit reduziert trilinearem AF vergleichbar. Sprich, Leistung schinden auf Kosten der Bildqualität. Was anderes macht brilineare Filterung auch nicht.Das ist nicht das gleiche. AA braucht man nur um Geometrie zu glätten. Um Texturantialiasing zu gewährleisten wurde der Texturfilter erfunden.

@all:
Einerseits unoptimiertes Lehrbuch-AF zu fordern und andererseits auf MSAA zu bestehen ist eigentlich ein bisschen inkonsequent. Lehrbuch-AF bietet die meiste Qualität pro Rechenaufwand.

Lolman
2007-12-19, 13:39:15
Das ist nicht das gleiche. AA braucht man nur um Geometrie zu glätten. Um Texturantialiasing zu gewährleisten wurde der Texturfilter erfunden.

Sonderfall Alphatests unter OpenGL? Oder Texkill? Oder Flimmershader?


Lehrbuch-AF bietet die meiste Qualität pro Rechenaufwand.

Kommt auf die Gewichtung des Qualitätsaspekts an. Insofern könnte man von SGSSAA auch das Gleiche behaupten. Denn 'optimiertes' 8xAF ist wohl schneller als unoptimiertes 4xAF und sieht schärfer aus (aber je nach Texturinhalt auch unmerkbar bis deutlich flimmriger)

robbitop
2007-12-19, 16:12:29
Angeblich konnte R200 auch MSAA. Aber irgendwas in den ROPs war dann kaputt.

Ailuros
2007-12-21, 19:53:42
Naja, Voodoo5-SGSSAA war für die damalige Zeit schon genial und praktisch.
Man konnte sich dafür 32bit Rendering und trilineares Filtering sparen und hatte dabei noch eine (zumindest theoretische) Möglichkeit für weiter T-Buffereffekte. Und wenn ich mir ansehe wieviel Leistung/Transistoren für MSAA fähige ROPs verblasen wird und was für ein treiberseitiger Entwicklungsaufwand für Transparenz-AA betrieben wird, so drängt sich mir hinundwieder doch der Gedanke auf, dass ein pures Fillratemonster mit SGSSAA-Support garnicht so schlecht dastehen würde.

Nur originierte die gesamte Idee von 3dfx's FSAA original auf dem Multisampling Buffer fuer Rampage; irgend etwas mussten sie ja neues hinzufuegen. Es waren alle "M-Buffer" Effekte die man mangels Zeit und Resourcen relativ kurzfristig in Supersampling umwandelte.

Dass es damals das beste Supersampling auf dem GPU Markt war will ja auch keiner bezweifeln (und sollte auch nicht); es bleibt aber nach wie vor eine Notloesung sonst waere Napalm lediglich ein 32-bittiger Avenger in SLI gewesen und nichts anderes.

Welchen Treiberaufwand fuer Transparenz-AA ueberhaupt und welchen ROP Aufwand genau? Die groessten "Unkosten" duerften in die "Orthogonalitaet" der ROPs fliessen was AA betrifft. In heutigen Spielen ist 4xSSAA unmoeglich in einer anstaendigen Aufloesung und schon gar nicht Gott hilf wenn noch float HDR in die Mischung kommt.

@all:
Einerseits unoptimiertes Lehrbuch-AF zu fordern und andererseits auf MSAA zu bestehen ist eigentlich ein bisschen inkonsequent.

Bloedsinn.

Was auch notwendig war um 3dfx zu überholen.

....und natuerlich ist es genauso "genial" den ganzen Tag herumzuhocken und mit Kollegen Spiele spielen. Hast Du oder hattest Du ueberhaupt je eine Idee wie es intern in 3dfx zuging?



Was auch notwendig war um 3dfx zu überholen ;)[/QUOTE]

Raff
2007-12-21, 20:35:14
In heutigen Spielen ist 4xSSAA unmoeglich in einer anstaendigen Aufloesung und schon gar nicht Gott hilf wenn noch float HDR in die Mischung kommt.

Könnte bitte endlich jemand mithelfen, diesen Mythos zu töten? Ich scheine mir einzubilden, dass ich fast jedes Spiel mit 16xS (4x SS plus 4x MS) spiele ... auf einer Solisten-GPU, die bei Bedarf aber auch Bock auf eine Beziehung oder gar einen flotten Dreier hat.

MfG,
Raff

mapel110
2007-12-21, 20:39:06
Könnte bitte endlich jemand mithelfen, diesen Mythos zu töten? Ich scheine mir einzubilden, dass ich fast jedes Spiel mit 16xS (4x SS plus 4x MS) spiele ... auf einer Solisten-GPU, die bei Bedarf aber auch Bock auf eine Beziehung oder gar einen flotten Dreier hat.

MfG,
Raff
Bei 1600er Auflösung?

1280x1024 ist out of date für heutige High End Ware.

Raff
2007-12-21, 20:41:40
Ich zocke nur in der nativen Auflösung, und die ist 1680x1050.

MfG,
Raff

Lolman
2007-12-21, 20:43:06
Welchen Treiberaufwand fuer Transparenz-AA ueberhaupt

TSSAA ist leicht zu implementieren, kostet aber viel und funzt nur bei den standard Alphatests unter D3D. Ein gut funktionierendes und performantes Transparenz-AA (auf MS Basis) ist da wesentlich komplexer...

....und natuerlich ist es genauso "genial" den ganzen Tag herumzuhocken und mit Kollegen Spiele spielen. Hast Du oder hattest Du ueberhaupt je eine Idee wie es intern in 3dfx zuging?


Wenn das Produkt passt, spricht ja auch nix dagegen. Leider haben sies verabsäumt rechtzeitig Gas zu geben.

[immy;6115071']??
nene, ich vergöttere zwar auch meine V5 aber die Radeon 8500 war definitiv schneller als die V5 5500. bin ja von der 5500 auf die 8500 umgestiegen. zudem habe ich es vor ner Ewigkeit auch mal getestet (test ist hier (http://www.worldofff.de/index.php?WoffLink=14&head=no)). wüsste außer Diablo 2 nicht eine applikation wo die V5 schneller war

Nicht generell, sondern bei den besagten Settings. Wenn man Grafikeinstellungen wählte, wo die 8500 BQ besser (oder zumindest gleichwertig) aussah, als die der Voodoo5 war sie kaum noch schneller (wenn überhaupt)

Bei 1600er Auflösung?

1280x1024 ist out of date für heutige High End Ware.

Naja, ich zock am Beamer mit 1280x720. Da ist auf jedenfall Luft für massig SSAA (ok bei Crysis vll nicht, aber das ist ja ein anderes Thema ;))

Gast
2007-12-21, 20:50:04
Nach X Jahren immer noch über eine tote Hardware zu streiten, ist echt schon beachtlich .... Das schafft echt nur das 3DCenter...

Ist das son Intellektuellending? Klärt mich auf. Ich mein um den Rest von erbärmlichen Nullcheckern mal zu zeigen daß man die winzigsten Details einer seit zehn millionen Jahren ausgestorbenen, mythischen Fliegenschißart noch kennt?

Lasst die Toten endlich in Frieden ruuhn, Leichenfledderer.

Raff
2007-12-21, 20:51:00
Du bist im falschen Thread. Ati vs. Nvidia gibt's weiter unten.

MfG,
Raff