Archiv verlassen und diese Seite im Standarddesign anzeigen : 3dfx war dämlich
Also das sie ne Menge mist gemacht haben ist klar, aber das sie den Banshee abgespeckt haben der sonst ja sehr gut war ist ABSOLOUT unverständlich!!!
Wer wollte denn noch dicke Zusatzkarten wenn es die gleiche Leistung als 2D/3D bereits gab?
Tja wolltense wohl die alten V2 Lagerbestände abverkaufen, die Geier!
Aber pech gehabt sag ich da nur!
Super-S
2006-02-26, 18:25:36
:cool: Was willst du uns damit sagen ?????
:cool: Was willst du uns damit sagen ?????
ja das ich einfach nicht verstehn kann warum die so dämlich waren und warum die leute dem laden nachweinen...
jedes BABY kann sich denken das sich nicht jeder User verdummen lässt mit solchen Banshee-Abspeck-Abzock Produkten
Super Grobi
2006-02-26, 18:32:11
Du weisst aber was die Banshee und was die V2 12MB gekostet haben? Also was erzählst du für ein Quatsch? Zu Banshee-Zeiten war ein V2-SLI gespannt absolut High-End. Eine Banshee war günstiger als eine einzelne V2.
Richtiger Nachfolger der V2 waren V3-V5.
Ich werde das Gefühl nicht los, das du von 3dfx nicht viel mitbekommen hast. Evt. warst du da noch zu klein. (?)
SG
Du weisst aber was die Banshee und was die V2 12MB gekostet haben? Also was erzählst du für ein Quatsch? Zu Banshee-Zeiten war ein V2-SLI gespannt absolut High-End. Eine Banshee war günstiger als eine einzelne V2.
Richtiger Nachfolger der V2 waren V3-V5.
Ich werde das Gefühl nicht los, das du von 3dfx nicht viel mitbekommen hast. Evt. warst du da noch zu klein. (?)
SG
Jeder weiss das man am absolouten HighEnd Markt nicht viel verdienen kann, sprich SLI und co...
Sooviel günstiger war der Banshee nicht. Die Kunden hätten sich gewünscht das der Banshee ungefähr so schnell wäre wie wäre wie eine einzelne V2!
Das sagen jedenfalls viele Analysten..DER BANSHEE WURDE JA NICHT UMSONST EIN FLOP!!
Ich hab mir damals gesagt: Warum Banshee oder V2 wenn doch der TNT den Dienst besser tut, ohne EInschnitte und Zusatzkarten?
Und so haben wohl auch andere gedacht....Hätte 3dfx mal mich gefragt, würden sie heut noch leben..habe damals sogar angerufen und denen das gesagt, aber hat die nicht die Bohne interessiert...tja SELBER SCHULD!!
Super Grobi
2006-02-26, 18:42:32
Denoch ist 3dfx nicht an dieser Karte pleite gegannen. Hast wohl vergessen das es noch eine V3 2000 - V5 5500 zu kaufen gab? Hätte es eine V5 5500 mit DDR Ram und T&L gegeben, würde evt. 3dfx noch leben. Der VS101 hat ja DDR support, das kam nur leider alles zu spät.
SG
Denoch ist 3dfx nicht an dieser Karte pleite gegannen. Hast wohl vergessen das es noch eine V3 2000 - V5 5500 zu kaufen gab? Hätte es eine V5 5500 mit DDR Ram und T&L gegeben, würde evt. 3dfx noch leben. Der VS101 hat ja DDR support, das kam nur leider alles zu spät.
SG
Warum hat man eigentlich nicht einfach mal versucht ne fette Kühlung draufzubaun wie man es heute tut, nicht so nen popel Lüfter oder gar passiv.
Dann hätte man sicher noch 10-20% rausholen können und zum GF aufschliessen!
weil selbst mit großen kühlern warscheinlich nicht viel mehr gegangen wäre
hyperterminal
2006-02-26, 19:21:39
Im Nachhinein ist man immer schlauer. Ausserdem sind das alles nur Spekulationen.
Mir gehen diese ganzen "Was waere wenn 3dfx..."-Threads gehoerig auf den Sack. Lasst sie in Frieden ruhen.
LOCHFRASS
2006-02-26, 19:31:35
Also das sie ne Menge mist gemacht haben ist klar, aber das sie den Banshee abgespeckt haben der sonst ja sehr gut war ist ABSOLOUT unverständlich!!!
Beim Banshee war AFAIR eine TMU defekt, was beim V3 aber gefixt wurde.
Formica
2006-02-26, 19:35:41
3dfx ist meiner meinung nach wegen dem t&l hype kaputt gegangen...
anorakker
2006-02-26, 19:44:29
wahrscheinlich muss man da einen psychologen fragen, warum jemand mit einem 10 jahre alten thema troll-postings produziert, aber was solls, mal was neues X-D
zum thema : war damals sehr zufrieden mit meiner banshee, vllt. nicht so schnell wie ne v2, dafür gutes preisleistungsverhältnis und erfüllte ein ganz wichtiges kriterium : glide kompatibel ! das war mir damals zehnmal wichtiger als die reine geschw.
3dfx ist meiner meinung nach wegen dem t&l hype kaputt gegangen...
Nicht nur, ich denke vorallem wegen T&L und 32 bit-Rendering.
Dabei spielte es weniger eine Rolle, das diese Features noch nutzlos waren - sondern vielmehr das der Markt diese Dinge bereits früher haben wollte...
Hamster
2006-02-26, 20:01:48
Nicht nur, ich denke vorallem wegen T&L und 32 bit-Rendering.
Dabei spielte es weniger eine Rolle, das diese Features noch nutzlos waren - sondern vielmehr das der Markt diese Dinge bereits früher haben wollte...
nicht der markt, die presse!
eraser-x
2006-02-26, 20:11:57
@gast
du weist schon das 3dfx für sehr viele sachen die grundsteine gelegt hat?
du weist auch schon das es immer auch heute neue chips gibt die langsamer/schlechter wie dervorgänger sind?
du weist schon das gilde eine irre geile api war
du weist auch das zb aa bei 3dfx das best geboten hat was es gab das sogar noch lange über die lebensdauer der firma selbst
und das beste du weist schon das man tote ruhen lassen soll zumal es ist ja nun schon echt lange herdas die firma uns verlassen hat und die gründe dazu 10000000 mal schon in presse internet foren usw usw erzählt wurden
ich würde den fred hier schliessen
KinGGoliAth
2006-02-26, 20:26:41
3dfx ist meiner meinung nach wegen dem t&l hype kaputt gegangen...
jupp. aber auch wegen dem 32bit hype. es gab kaum ein spiel was 32bit sinnvoll (also auch mit 32bit texturen) unterstützen konnte und wenn doch lief das selbst auf den tollen nvidia karten saulangsam. 32bit war also da aber nicht einsatzfähig weil es zum einen keine wirklichen anwendungen dafür gab und zum anderen die harware für 32bit nicht ausreichend schnell war. aber trotzdem hatte 3dfx immer die arschkarte weil die keine 32bit hatten.
naja ist auch egal. die sache ist leider geschichte und über so ein gastgetrolle braucht man garnicht lange diskutieren... :rolleyes:
RyoHazuki
2006-02-26, 20:31:56
komisch das so gut wie kein gast einen richtig geistigen beitrag in diesem forum leisten kann! Ist echt schade, ich dachte nämlich das Gäste auch nur menschen sind.
Nicht nur, ich denke vorallem wegen T&L und 32 bit-Rendering.
Dabei spielte es weniger eine Rolle, das diese Features noch nutzlos waren - sondern vielmehr das der Markt diese Dinge bereits früher haben wollte...
warum nutzlos? T&L hat damals schon einiges an Speed gebracht und wurde z.B. auch schon von einer F1 Simulation die ich mir kurz nach der GF gekauft habe supported!
jupp. aber auch wegen dem 32bit hype. es gab kaum ein spiel was 32bit sinnvoll (also auch mit 32bit texturen) unterstützen konnte und wenn doch lief das selbst auf den tollen nvidia karten saulangsam. 32bit war also da aber nicht einsatzfähig weil es zum einen keine wirklichen anwendungen dafür gab und zum anderen die harware für 32bit nicht ausreichend schnell war. aber trotzdem hatte 3dfx immer die arschkarte weil die keine 32bit hatten.
naja ist auch egal. die sache ist leider geschichte und über so ein gastgetrolle braucht man garnicht lange diskutieren... :rolleyes:
Dann waren sie aber trotzdem dämlich!
Jeder weiss doch das nicht immer alles gerecht und fair und intelligent zugeht...
Man muss sich aber als intelligenter Mensch drauf einstellen,
wenn die DAUs oder die Presse eben 32bit wollen, dann gibt man es ihnen...
...daher ist dies kein Trollpost..
MarcWessels
2006-02-26, 21:00:48
Jeder weiss das man am absolouten HighEnd Markt nicht viel verdienen kann, sprich SLI und co...40% der V2-Käufer haben damals auf SLI gesetzt!
Ich hab mir damals gesagt: Warum Banshee oder V2 wenn doch der TNT den Dienst besser tut, ohne EInschnitte und Zusatzkarten?Dann hast Du Dir seinerzeit etwas vorgemacht! Die TNT war langsam (erst Recht in 32Bit), inkompatibel bzw. grottig in 90% aller Games und der 16Bit-Mode sah absolut gruselig aus!
Selbst die TNT2 Ultra war lediglich für Q3A zu gebrauchen, weshalb ich im April 1999 die V32000@3500 behalten und die TNT2U zurückgegeben hab'.
Im Dezember desselben Jahres habe ich gemerkt, dass ich mit der GeForce DDR zu früh auf's nVidia-Schiff gewechselt hatte; u.a. waren "Wheel Of Time" sowie "UT99" und "Unreal" eine Qual.
Die Zeit für nVidia-Chips war im Grunde erst Ende 2000 reif.
thade
2006-02-26, 21:18:22
Die TNT war langsam (erst Recht in 32Bit), inkompatibel bzw. grottig in 90% aller Games und der 16Bit-Mode sah absolut gruselig aus!
Selbst die TNT2 Ultra war lediglich für Q3A zu gebrauchen, weshalb ich im April 1999 die V32000@3500 behalten und die TNT2U zurückgegeben hab'.
Ach komm du übertreibst doch maßlos. Ich kaufte mir damals ne TNT(hatte vorher ne Voodoo) und war hochzufrieden. Ob nun Unreal (Direct3D Patch), Quake, Half Life, es lief alles wunderbar. Selbst in 32Bit, ich spielte eigentlich nur 32Bit, wars stets flüssig. Die TNT war schon ne gute Karte.
Ich hatte bei keinen einzigem Game richtige Probs und ich hatte nicht gerade wenig Games. Da ich von NV damals noch recht begeistert war, kaufte ich mir natürlich gleich ne GeForce DDR, mit der Quake3 so richtig abging.
Ja wie sich die Zeiten ändern ;)
Dann hast Du Dir seinerzeit etwas vorgemacht! Die TNT war langsam (erst Recht in 32Bit), inkompatibel bzw. grottig in 90% aller Games und der 16Bit-Mode sah absolut gruselig aus!
http://www.tomshardware.de/graphic/19981007/tnt-vs-voodoo-15.html
"Die Punkte, die zur Zeit für eine TNT Karte sprechen liegen aber ganz klar auf der Hand: Bessere Bildqualität, höhere Auflösungen bei ausreichender Frame Rate, AGP Unterstützung und nicht zuletzt der Preis. Wie bei einem neuen Produkt nicht anders zu erwarten, zeigte die TNT Karte im Test einige Schwächen. Diese beschränkten sich aber auf einige Schwächen der Treiber, die nur unter ganz bestimmten Umständen auftreten. So erhielten wir verzerrte Bilder beim Wechsel vom Windows Desktop zu Quake2 im Full-Screen Modus."
thade
2006-02-26, 21:23:30
Im Dezember desselben Jahres habe ich gemerkt, dass ich mit der GeForce DDR zu früh auf's nVidia-Schiff gewechselt hatte; u.a. waren "Wheel Of Time" sowie "UT99" und "Unreal" eine Qual.
Die Zeit für nVidia-Chips war im Grunde erst Ende 2000 reif.
LoL? Mit welcher Karte hab ich wohl unzählige Lans betritten? Es lief auf der GeForce alles richtig gut, von Qual keine Spur.
Die GeForce DDR war die Karte, mit der ich am längsten zufrieden war, selbst 2 Jahre danach liefen die Spiele noch mit Full Details absolut flüssig. Sowas gibts heute nicht mehr, super Karten die früheren NVs, ja sie bauen Heute immer noch gute Karten, nur nicht mehr die Besten :D
MarcWessels
2006-02-26, 21:53:58
Zweimal LOL zurück->
Du hattest keine Voodoo-Karte nach der Voodoo 1, also kannst Du wohl kaum mitreden.
Erstens mal hast Du bei "Unreal 1" mit D3DPatch sehr viel vom wahren U-Flair verpasst, denn in D3D sah Unreal nicht mehr wirklich gut aus und neigte zudem zum Hoppeln und dann waren wirklich ALLE Spiele (und ich hatte seinerzeit wirklich einen Großteil der am Markt erhältlichen Spiele stets zu Hause) außer Q3A auf der TNT einfach grottig gegenüber der Perfromance (UND dem Aussehen!), die man mit V2SLI oder einer Voodoo3 erreichen konnte!
Ähnliches gilt für UT99 auf einer Nicht-Glidefähigen Karte: Ich habe mich total geärgert, dass ich meine V3 verkauft hatte und nun in UT mit der GeForce DDR dastand. Von "Wheel Of Time" ganz zu schweigen... :(
Es dauerte dann noch eine lange lange Zeit bis es den OpenGL-Patch von Loki gab', mit dem ich UT dann endlich wieder gescheit und ohne Schluckauf spielen konnte.
P.S.: Klar BTW, dass Q3A nur gut lief, wenn man mit komprimierten Texturen udn somit gestreiftem Himmel spielte...
thade
2006-02-26, 22:07:11
Zweimal LOL zurück->
Du hattest keine Voodoo-Karte nach der Voodoo 1, also kannst Du wohl kaum mitreden.
Erstens mal hast Du bei "Unreal 1" mit D3DPatch sehr viel vom wahren U-Flair verpasst, denn in D3D sah Unreal nicht mehr wirklich gut aus und neigte zudem zum Hoppeln und dann waren wirklich ALLE Spiele (und ich hatte seinerzeit wirklich einen Großteil der am Markt erhältlichen Spiele stets zu Hause) außer Q3A auf der TNT einfach grottig gegenüber der Perfromance (UND dem Aussehen!), die man mit V2SLI oder einer Voodoo3 erreichen konnte!
Ähnliches gilt für UT99 auf einer Nicht-Glidefähigen Karte: Ich habe mich total geärgert, dass ich meine V3 verkauft hatte und nun in UT mit der GeForce DDR dastand. Von "Wheel Of Time" ganz zu schweigen... :(
Es dauerte dann noch eine lange lange Zeit bis es den OpenGL-Patch von Loki gab', mit dem ich UT dann endlich wieder gescheit und ohne Schluckauf spielen konnte.
Ja und ich hatte nur ne Voodoo1, aber meine Kumpel hatten noch 3DFX Karten. Ich war mit einer TNT in keinster Weise benachteiligt, in HL nicht, in UT99 schon mal gar nicht. Sorry aber ich hatte damals kein Prob UT99 ordentlich zu zocken, es lief wunderbar in 1024*768 in 32Bit mit Full Details. Mit der GeForce hatte ich ebenso wenig Probs.
Sicher hatte man in manchen GlideGames das Nachsehen, aber Glide verlor immer mehr an Bedeutung. Du tust ja so, als hätte es damals nur 3DFX Karten gegeben mit denen man ordentlich zocken konnte, das ist ja mal sehr weit hergeholt. Bis zum TNT mag das zustimmen, aber als TNT kam gabs eine durchaus gelungene Alternative zu den 3DFX Karten.
Ich weiß ja nicht was du alles gespielt hast, ich hab sehr viele Games(die Bekannteren und Guten) gehabt und konnte mich nicht beklagen. So what....
MarcWessels
2006-02-26, 22:18:53
Dann hast Du wohl eben kein Auge für auffälligen Schluckauf (UT99).
Sicher hatte man in manchen GlideGames das Nachsehen, aber Glide verlor immer mehr an Bedeutung. Du tust ja so, als hätte es damals nur 3DFX Karten gegeben mit denen man ordentlich zocken konnte, das ist ja mal sehr weit hergeholt. Bis zum TNT mag das zustimmen, aber als TNT kam gabs eine durchaus gelungene Alternative zu den 3DFX Karten.Ich tue nicht so, es war nunmal in der Tat wirklich so! Ab Ende 2000 eben nicht mehr, aber vorher??
thade
2006-02-26, 22:23:24
Dann hast Du wohl eben kein Auge für auffälligen Schluckauf (UT99).
Ich tue nicht so, es war nunmal in der Tat wirklich so! Ab Ende 2000 eben nicht mehr, aber vorher??
Ach bitte und Ich und meine Freunde sind alle blind damals gewesen? Ich sehe sehr gut, ich bin da sehr empfindlich in solchen Sachen. Ich diese Erfahrung nicht gemacht, von daher verstehe Ich Dich auch nicht.
Ich war zufrieden mt den NV Karten, meinst Du ich würde jetzt hier Blödsinn erzählen?
MarcWessels
2006-02-26, 22:35:00
Na, dann warte mal, bis Mr. Lolman und Co. diesen Thread hier sehen; ich bin sicher nicht der Einzige, der 3DFX vs. nVidia auch noch im Nachhinein so sieht.
Ich könnte Dich ja genausogut fragen, ob Du mich für blind hältst, oder was denkst Du was der Grund war, dass ich damals meine TNT1 nur für 2D genutzt, meine TNT2U zugunsten der V3 zurückgegeben hab' und von der GF1 enttäuscht war? Realitätsverlust meinerseits?
thade
2006-02-26, 22:48:47
Ja keine Ahnung, aber ich spreche nur von meiner Erfahrung mit TNT und Co, ich habe eben keine negative Erfahrung mit dieser Graka gemacht.
Die TNT war damals die Graka die jeder wollte, zumindest in meinem näheren Umfeld. UT kam ja erst September 99 oder noch später, ich spielte UT hauptsächlich mit meiner im Dezember gekauften GeForce DDR. Aber ich kann mich an keine größeren Probs mit UT und der TNT/Geforce erinnern.
Von daher kann ich es nicht hinnehmen, wenn einer behauptet die TNT wäre Crap gewesen, da war Sie meilenweit davon entfernt.
Ich hab ja noch ne PCI TNT hier rumliegen, ich kann ja UT mal testen mit den früheren Treibern......!
ich verstehe nicht wie man auf der einen seite eine firma die nur unser geld will (welch VERBRECHEN !) verherrlichen kann und auf der anderen seite eine firma die nur unser geld will (welch VERBRECHEN !) niedermachen muss...
Smoke Screen
2006-02-27, 01:23:51
Meine persönliche Erfahrung deckt sich in etwa mit MarcWessels was optische
Qualität angeht. UT`99,Unreal,WoT,Rune sah auf ner 3dfx-Karte in 16Bit sehr
oft geiler aus als mit ner TNT oder GF1/2/3 in 32Bit. Ich will nicht sagen besser
einfach irgendwie hübscher,atmosphärischer. Keine Ahnung woran das lag. Bin
kein Technikfreak. Hab hier jedoch ne zeitlang zwei PC`s gehabt. Einer mit NV`s
und einer mit 3DFx-Karten. Und wenn wir so zu zweit ein bißchen gezockt haben
fiel es mir halt auf das mit ner 3dfx-Karte die gleiche Szenerie immer auf
seltsame Weise augenschmeichelnder rüberkam.
Yavion
2006-02-27, 01:40:22
Naja also dass 3dfx Probleme bekommen hat lag kaum an der Banshee. Ich erinnere mich da eher an Probleme mit Gewinnspannen bei der Voodoo3, fehlende Position im OEM-Markt, Kauf von STB(?) danach ewig lange Verzögerungen des Voodoo4/5 (fast 12 Monate!), während NVidia und ATI gut verdienten und Marktanteile gewannen, zumal Glide gegenüber Direct3d und OpenGl an Wichtigkeit verlor.
DR.DEATH
2006-02-27, 04:23:46
Meine persönliche Erfahrung deckt sich in etwa mit MarcWessels was optische
Qualität angeht. UT`99,Unreal,WoT,Rune sah auf ner 3dfx-Karte in 16Bit sehr
oft geiler aus als mit ner TNT oder GF1/2/3 in 32Bit. Ich will nicht sagen besser
einfach irgendwie hübscher,atmosphärischer. Keine Ahnung woran das lag. Bin
kein Technikfreak. Hab hier jedoch ne zeitlang zwei PC`s gehabt. Einer mit NV`s
und einer mit 3DFx-Karten. Und wenn wir so zu zweit ein bißchen gezockt haben
fiel es mir halt auf das mit ner 3dfx-Karte die gleiche Szenerie immer auf
seltsame Weise augenschmeichelnder rüberkam.
Euch beiden kann man nur voll und ganz zustimmen. Ueber die Optik kann man streiten aber ueber die Geschwindigkeit nicht. In Unreal war in meinem damaligen Rechner (Celi II 850@1133) eine GF2 gerade mal so schnell wie meine uebertaktete V3 3k und das auch nur aufgrund des OGL Patches von Smirftsch (huhu Msrftisch :D), allerdings war das zielen mit der GF2 wesentlich schwieriger (Mousegeschwindigkeit war FPS abhaengig). Insofern kann man einen Vergleich mit einer TNT/TNT2 gleich in die Tonne treten. Die Beobachtungen vom Gast und Lucian kann ich absolut nicht nachvollziehen.
Der Banshee/V2 Vergleich hinkt auch irgendwie. Immerhin war die Banshee fuer 300DM zu haben und eine V2 hat schon ne ganze Stange mehr gegekostet, von SLI mal ganz zu schweigen.
Spasstiger
2006-02-27, 04:46:06
Ich habe damals die Voodoo Banshee der RivaTNT aus folgenden Gründen vorgezogen:
- bessere Performance auf langsamen CPUs (hatte einen AMD K6 266)
- Glide-Unterstützung (Unreal sah mit Glide besser aus und lief deutlich besser)
- günstigerer Preis
- etablierter 3D-Chiphersteller
Der Vorzug vor der Voodoo 2 hatte folgende Gründe:
- höherer Takt als die Voodoo 2 und damit bessere Performance in Singletexturing-Spielen (waren damals nicht gerade wenige!)
- mehr Speicher als auf der Voodoo 2
- 3D-Auflösungen über 800x600 möglich (Voodoo 2 SLI kam nie in Frage)
(- Verkauf der alten Rage Pro)
Ich fand meine Voodoo Banshee eine klasse Karte und auf meiner ersten Lan hat so manch einer gestaunt, dass man mit einem AMD K6 266 bzw. mit einem AMD-Prozessor generell Unreal und Half-Life flüssig spielen konnte. Auf meiner zweiten Lan hatten drei Leute mehr eine Voodoo Banshee, die zuvor mit einer Riva128 unterwegs waren. ;)
Um hier mal MarcWessels bei seinem einsamen Kampf zu unterstützen:
Vor rund 2 Jahren habe ich mal aus Spass aus alter, ungenutzer Hardware einen Rechner zusammengebaut und darauf Unreal 1 gespielt. Drin war ein Intel Pentium 2 233 MHz, 256 MB SD-Ram, eine 30 GB Platte und meine alte Voodoo Banshee. Unreal lief darauf sehr anständig. Serious Sam und Quake 3 waren dagegen eine Qual.
Hab dann von einem Kumpel eine GeForce 2 MX bekommen, die er nicht mehr brauchte. Habe diese natürlich sofort in den alten Rechner eingebaut und erstmal Quake 3 und Serious Sam ausprobiert, bei denen ich mir Vorteile durch T&L versprochen habe. Und tatsächlich, die beiden Games liefen auf einmal "spielbar" mit 15 bis 30 fps auf vollen Details in 1024x768. Unreal dagegen wurde mit der GeForce 2 MX zur Ruckelorgie trotz aktuellsten Patches und D3D-Unterstützung. Die Detail-Texturen, die mit Glide Standard sind, habe ich natürlich auch für D3D aktiviert. Hab dann wieder die Voodoo Banshee eingebaut und Unreal weitergezockt. ;)
jupp. aber auch wegen dem 32bit hype. es gab kaum ein spiel was 32bit sinnvoll (also auch mit 32bit texturen) unterstützen konnteEs braucht keine 32 bit Texturen um 32 bit Framebufferauflösung sinnvoll zu nutzen.
Meine persönliche Erfahrung deckt sich in etwa mit MarcWessels was optische
Qualität angeht. UT`99,Unreal,WoT,Rune sah auf ner 3dfx-Karte in 16Bit sehr
oft geiler aus als mit ner TNT oder GF1/2/3 in 32Bit. Ich will nicht sagen besser
einfach irgendwie hübscher,atmosphärischer. Keine Ahnung woran das lag. Bin
kein Technikfreak. Hab hier jedoch ne zeitlang zwei PC`s gehabt. Einer mit NV`s
und einer mit 3DFx-Karten. Und wenn wir so zu zweit ein bißchen gezockt haben
fiel es mir halt auf das mit ner 3dfx-Karte die gleiche Szenerie immer auf
seltsame Weise augenschmeichelnder rüberkam.
Habe gleiche Erfahrung mit meiner Voodoo 3 gemacht in z.B. Unreal 1 und Unreal Tournament. Noch Heute zocke ich ab und zu Unreal 1. Hab 2 Versionen installiert: Einmal für 3Dfx (Glide Wrapper) und eine für OpenGL (S3TC Texturen).
Im 3Dfx Modus schaut Unreal 1 noch heute besser aus, als im standard Direct 3D Modus. Die Farben wirken satter, das Bild kontrastreicher, wordurch eine gewisse Plastizität entsteht.
Erst durch die spezial Patches in Verbindung mit den S3TC Texturen aus Unreal Tournament, schaut OpenGL besser aus!
Meiner Meinung nach wird 3dfx auch völlig zu Unrecht gehyped. Sie hatten mit der Voodoo 1 eine der ersten wirklich brauchbaren 3D Beschleunigerkarten, keine Frage. Auch BQ mässig standen sie gut da (das AA war sehr gut) keine Frage, aber was kam dann? 3dfx hat mehr oder weniger ihren einen Chip Jahrelang ausgeschlachtet ohne grossartig was neues zu bringen. Da nicht soviel rauszuquetschen war hat man eben SLI eingesetzt. Als 2 Karten nicht mehr ausreichten um mithalten zu können hat man mehre GPUs auf eine gepackt. Das sowas nicht endlos weiter geht und irgendwann total gegen den Baum geht ist doch klar.
catamaran
2006-02-27, 14:59:20
Ich bin da etwas gespalten. Viele Spiele liefen auf einer Voodoo einfach flüssiger und oft auch mit mehr Effekten. Selbts WinCommander5 stellt mit Glide mehr Effekte als mit D3D zur Schau. Liegt aber eben daran, daß die Grundlage für diese Spiele, die Engine, meits mit dem Hauptaugenmerk auf Glide entwickelt wurde. D3D kam oft erst später als Patch oder wurde nur unvollständig implementiert.
Beispiele: Tomb Raider 2?, WC5, POD, Unreal1 !!! um nur ein paar bekannte Vertreter zu nennen.
Zur Verteidungung der TNT-Fraktion möchte ich allerdings sagen, daß ich NIE irgendwelche Probleme mit meiner TNT1 und UT99 hatte. 800x600x32 bei Highest Details war auf dem K6/3 400 absolut flüssig. Diablo2 hingegen war ein Graus und hatte öfters Ruckler drin. Selbst die TNT2 mochte dieses Spiel nicht besonders. Anders meine damalige V3 2000: kein einziger Ruckler in D2 unter der Verwendung von Glide (gleiches System wie die TNT1 und TNT2).
Ich will damit aber nicht sagen, daß die Technik der 3dfx-Karten dermaßen besser war, sondern viele Spiele wurden einfach auch durch die teils miserablen D3D Implementierungen völlig verpfuscht.
KinGGoliAth
2006-02-27, 16:08:31
Ich will damit aber nicht sagen, daß die Technik der 3dfx-Karten dermaßen besser war, sondern viele Spiele wurden einfach auch durch die teils miserablen D3D Implementierungen völlig verpfuscht.
jopp. unter glide war in der tat alles scheller und auch schicker. ging leider alles verloren mit 3dfx.
Da nicht soviel rauszuquetschen war hat man eben SLI eingesetzt.
das klingt grade so als wäre das ein verbrechen. im gegenteil. damals war das eine revolution. nicht nur in sachen technik sondern auch bei bildqualität und speed. und heute hat nvidia sli wieder ausgegraben. und ati auch.
ich frage mich grade wirklich wer der hier mitredenden überhaupt eine 3dfx karte im rechner hatte. :|
maul aufreissen über dinge reden von denen man keine ahnung hat kann jeder... :rolleyes:
DrFreaK666
2006-02-27, 16:38:57
jopp. unter glide war in der tat alles scheller und auch schicker. ging leider alles verloren mit 3dfx.
das klingt grade so als wäre das ein verbrechen. im gegenteil. damals war das eine revolution. nicht nur in sachen technik sondern auch bei bildqualität und speed. und heute hat nvidia sli wieder ausgegraben. und ati auch.
ich frage mich grade wirklich wer der hier mitredenden überhaupt eine 3dfx karte im rechner hatte. :|
maul aufreissen über dinge reden von denen man keine ahnung hat kann jeder... :rolleyes:
Also ich hatte mal eine TNT2-Ultra zusammen mit 2 Voodoos.
Die Ultra nutze ich haptsächlich für Games mit Q2-Engine.
Lief auch unter 1600 noch super.
Die Voodoos nutze ich natürlich für alle Unreal-Engine-Spiele.
Die Spiele sahen damit nicht so steril aus
J0ph33
2006-02-27, 17:03:10
@Odal, laut Zeitplan hätte ein gewisser 3dfx-Chip namens "Rampage" spätestens im Jahr 2000 das Licht der Welt erblicken sollen...(u.a. mit DX8 und dazu nötigen Pixelshadern usw.)
das es dazu nicht kam hatte hauptsächlich gründe im finanziellen/marktwirtschaftlichen bereich...3dfx' Ingenieure waren außergewöhnlich gut (kein wunder, dass viele jetzt bei nV arbeiten, auch wenn der FX als erster Chip mit 3dfx-Ingenieursanteil (afair!) auf Grund der DX9-Spezifikation Pech hatte)
thade
2006-02-27, 17:12:04
GeForce FX :D
http://www.4gamer.net/specials/geforcefx/images/003.jpg
http://www.4gamer.net/specials/geforcefx/images/005.jpg
MarcWessels
2006-02-27, 18:32:23
Zur Verteidungung der TNT-Fraktion möchte ich allerdings sagen, daß ich NIE irgendwelche Probleme mit meiner TNT1 und UT99 hatte. 800x600x32 bei Highest Details war auf dem K6/3 400 absolut flüssig.Das von mir dort bemängelte Hoppeln (sogar noch mit einer GF2 Ultra!!!) kannst Du sehr leicht nachvollziehen, indem Du Dich um die eigene Achse drehst, vor allen in Räumen in denen Fackeln sind. Es ist nicht nur die (angezeigte) Framerate, sondern es werden in der Tat ein ganzer Packen Frames übersprungen, sprich, es ruckelt nicht, sondern sie fehlen einfach!
Mit meiner Voodoo3 mit 3500er Takt lief UT99 stets mit 60fps in 1024x768; auf Auflösungen wie 1600x1200 war UT anscheinend nie ausgelegt, weil es selbst später auf stärkeren karten + OpenGL-Loki-Patch wieder zu diesem Hoppeln kam,a ber jedenfalls konnte ich mit der GeForce 3 im April 2001 endlich wider UT99 spielen dank des Loki-OpenGL-Patches und das dann noch mit den schönen S3TC-Texturen in 1024x768x32 mit inkl. AF. :)
Noch ein "schönes" Beispiel-> "TOCA 2"... Es mag sich komsich anhören, aber der Bremsweg war mit meiner Test-V3 wesentlich kürzer als mit meiner TNT2Ultra. Das einzige Spiel aus der Zeit, welches auf GLIDE ausgelegt war und trotzdem auf der TNT2U vernünftig lief, war "Dethkarz". Dort reichte auch die 32Bit-Power, so dass es keinen optischen Nachteil gegenüber der Voodoo brachte.
das klingt grade so als wäre das ein verbrechen. im gegenteil. damals war das eine revolution. nicht nur in sachen technik sondern auch bei bildqualität und speed.Yep, ich erinnere mich mit Freuden an ein unvergessenes Spiel: "G-Police"! :smile:
Das hat damals in der demo Ende 1997 auf meiner Voodoo 1 geruckelt wie Sau. Dann kam der März 1998, meine beiden Voodoo 2 8MB (die 12er hatte sich verspätet; wurd' drei Wochen später durch diese ersetzt) warteten schon, doch leider funzte das sLI-Kabel nicht. Naja, also erstmal eine V2: "G-Police" lief in 800x600 absolut flüssig (im Gegensatz zur V1 in 640x480), aber in 1024x768 hakelig, wenn uch immer noch flüssiger als mit der V1. Und dann hatte ich am nächsten Tag ein funktionstüchtiges sI-Kabel und WOW, alles komplett mit 60fps in 1024x768 - und das war für mich wirklich eine ähnliche Revolution wie der V1-Launch im Dezember 1996, denn jetzt hatte ich nicht nur 3D-beschleunigte Grafik, sondern das Ganze nich in einer damals unglaublichen Auflösung von 1024x768!!! :eek:
SLI war cool und wurde erst ein Jahr später bei mir durch eine Single-GPU-Lösung, sprich die V3 abgelöst, die in D3D 30% schneller war und darüberhinaus NOCH schönere Bilder auf den Schirm warf, als die beiden V2s - da habe ich Unreal 1 nochmal komplett durchgespielt. :)
MarcWessels
2006-02-27, 18:39:43
-bitte löschen-
das klingt grade so als wäre das ein verbrechen. im gegenteil. damals war das eine revolution. nicht nur in sachen technik sondern auch bei bildqualität und speed.
Naja ein Verbrechen ist das nicht, nur um mitzuhalten musten sie eben auf SLI setzen. Die haben sich einfach zu sehr auf ihren Lorbeeren ausgeruht. Voodoo 1 und 2 waren praktisch identisch...bei der Voodoo 3 haben sie dann mehr oder weniger nur einen 2D Teil hinzugefrickelt(Banshee lass ich mal aussen vor). Voodoo 4 und 5 war praktisch das gleiche... da wurde zur Voodoo 3 ein wenig an der Architektur geschraubt aber auch nicht wirklich ne neue Technologie. Die Voodoo 5500 hatte 2 GPUs drauf und konnte der GF1 trotzdem meistens nicht das Wasser reichen (nichtmal in Bezug auf Speed erst in hohen Auflösungen holte sie etwas auf). Die Voodoo 6000 ist ja nichtmal wirklich erschienen und kam mit 4 GPUs vielleicht knapp über GF1 DDR niveau (wenn überhaupt), T&L hatten die damals alle nicht und dummerweise kamen dann Spiele raus die unbedingt T&L brauchten. Die Voodoos haben zu ihrer Zeit nur so gerockt weil sie eben mit die ersten waren und mit Glide ihre eigene 3D Schnittstelle mitbrachten. Ab der Voodoo 3 hätte 3dfx mal wirklich was neues bringen sollen und die Voodoo 2 hätte schon einen 2D Teil hinzugefrickelt bekommen müssen (nich erst beim Kastrat Banshee) da normale 2D Grafikkarten auch schon teuer waren da griff man doch später lieber zum Riva128 oder TNT.
und heute hat nvidia sli wieder ausgegraben. und ati auch.
jo weil sie mit 2 Karten doppelt soviel verdienen ;) als sinnvoll empfinde ich sli nicht. ATI musste nur gleichziehen darum auch der Schnellschuss Crossfire damit sie bei den Benchmarks nicht zu sehr ins Hintertreffen gerieten.
ich frage mich grade wirklich wer der hier mitredenden überhaupt eine 3dfx karte im rechner hatte. :|
maul aufreissen über dinge reden von denen man keine ahnung hat kann jeder... :rolleyes:
Ich hatte ne Voodoo 1 (dürfte sogar noch da sein) und ne Voodoo 2 mit 12MB ;).
@Odal, laut Zeitplan hätte ein gewisser 3dfx-Chip namens "Rampage" spätestens im Jahr 2000 das Licht der Welt erblicken sollen...(u.a. mit DX8 und dazu nötigen Pixelshadern usw.)
Ja der ominöse Rampage... 3dfx hat einfach zulange technologisch geschlafen.
reunion
2006-02-27, 19:12:37
3dfx' Ingenieure waren außergewöhnlich gut
Sehe ich genau so. Trotz unterirdischen Entwicklungstools und einem Bruchteil der Transistorenanzahl der Konkurrenz leisteten die 3dfx-Chip außergewöhnliches IMHO. Heute wäre es undenkbar, mit der Hälfter der Transistoren und einem extrem veralteten Fertigungsprozess ein konkurrenzfähiges Produkt zu präsentieren. Gegen das dümmste Management helfen eben auch die besten Ingenieure nichts.
KinGGoliAth
2006-02-27, 19:13:07
Naja ein Verbrechen ist das nicht, nur um mitzuhalten musten sie eben auf SLI setzen.
kaum. besonders nvidia macht vor wie man auch sli anbieten kann und trotzdem nebenbei produkte weiter- bzw neu entwickelt.
wenn ich mich richtig erinner gab es sli schon für 6600, 6800 und jetzt für die 7800 karten. und die kamen alle in relativ (!) kurzer zeit raus. bei 3dfx war man auch mit anderen sachen beschäftigt (früher oder später drehte sich alles um die vsa 100) und hat sli vorgeschoben um erstmal ruhe zu haben und beim balkenvergleich nicht zu weit ins hintertreffen zugeraten.
jo weil sie mit 2 Karten doppelt soviel verdienen ;) als sinnvoll empfinde ich sli nicht. ATI musste nur gleichziehen darum auch der Schnellschuss Crossfire damit sie bei den Benchmarks nicht zu sehr ins Hintertreffen gerieten.
was du für sinnvoll empfindest interessiert garnicht. weder hier noch dort. wer herausragende leistung will, muß dafür auch herausragende preise bezahlen. ob das nun voodoo 2 sli ist, eine 7800 mit 512mb oder sogar 7800 512mb im sli ist egal.
ich würde mir auch nie sli holen (ausser ich wüßte nicht mehr wohin mit dem geld :D ) weil es unglaublich viel kostet und der leistungsgewinn im vergleich zum preis eher mittelmäßig ist aber es gibt leute die interessiert das geld nicht. gelle tombman? ;)
und für die ist sli auch gedacht und immer gedacht gewesen. für den enthusiasten.
leider sind die balkenlängen so wichtig, dass mal schnell ein wenig "optimiert" wird. dass dann das bild schlechter wird kümmert die presse dann nicht. die wollen nur wissen wer den längsten (balken :naughty: ) hat.
sli ist nicht selbstzweck sondern dient dazu die bedürfnisse der leute zu befriedigen, die sich sowas leisten können. die dürfen dann auch ruhig den preis dafür zahlen. schließlich wird das alles nicht umsonst entwickelt. und am ende ist es auch immer schön für die propagande, wenn man ein paar 3dmarks vor der konkurrenz liegt. dass sich sowas kaum jemand leisten kann interssiert da nicht.
also manchmal staune ich ja doch über die weltanschauung einiger leute hier. ;)
€:
die sache mit T&L ist in der tat dumm gelaufen aber dafür hatten die flagschiffe mit vsa chips auch fast AA for free. hast du mal bei einer geforce 1 oder 2 AA zugeschaltet? da ging garnix mehr. :D
bei ner voodoo hätte man sowas umsonst gekriegt. genau wie bewegungsunschärfe oder was da im gespräch war.
aber zuerst kam t&l und AA & unschärfe kam erst später dazu.
sie haben nicht geschlafen sondern auf die andere seite der medallie gesetzt. dass bei sowas nur einer gewinnen kann ist klar.
thade
2006-02-27, 19:19:39
Die Voodoo 5500 hatte 2 GPUs drauf und konnte der GF1 trotzdem meistens nicht das Wasser reichen (nichtmal in Bezug auf Speed erst in hohen Auflösungen holte sie etwas auf). Die Voodoo 6000 ist ja nichtmal wirklich erschienen und kam mit 4 GPUs vielleicht knapp über GF1 DDR niveau (wenn überhaupt), T&L hatten die damals alle nicht und dummerweise kamen dann Spiele raus die unbedingt T&L brauchten.
Du unterschätzt die Power der 4 VSA100, knapp GeForce DDR Niveau, die Karte war in Glide der GF2 U überlegen, selbst in QA3 konnte sie gut mithalten, vor allem in höheren Auflösungen.
Aber schau selbst: http://members.aon.at/grandadmiralthrawn/index.htm?http://www.hardoverclock.de/html/reviews/3dfx_voodoo5_6000_agp/v5-6000_1.htm
(links oben auf V5 6000 klicken, Verlinkung funzt leider net ;( )
Selbst die Voodoo5 5500 hat mehr Power, als ihr Früher immer attestiert wurde. Die Voodoo5 war/ist ne hervorragende Karte, mit einer BQ die man als Heute noch sehr gut bezeichnet. Auch war sie schnell, vor allem in Glide, selbst in TnL Games konnte sie noch gut mithalten.
Fazit: Die Voodoo5 rockt die Hütte, ich war Früher auch der selben Meinung wie Du, nur wenn man mal ein paar neuere Spiele testet und sieht wie gut die Voodoo5 noch performt mit dieser traumhaften BQ, kommt man manchmal schon ins Staunen.
Und du vergisst, die Voodoo5 5500 war nicht der Gegenspieler zur GeForce2, sondern zur GeForce 256, wäre die Karte schon 99 gekommen, wären sie nicht pleite.
Mit Rampage wäre NV mächtig in Bedrängnis gebracht worden, eine GeForce3 mit gutem FSAA, SLI Varianten waren geplant, dann hätte NV einpacken können!
kaum. besonders nvidia macht vor wie man auch sli anbieten kann und trotzdem nebenbei produkte weiter- bzw neu entwickelt.
joa NVidia entwickelt nebenbei neue Features 3dfx hat das aber verpennt damals.
was du für sinnvoll empfindest interessiert garnicht. weder hier noch dort. wer herausragende leistung will, muß dafür auch herausragende preise bezahlen. ob das nun voodoo 2 sli ist, eine 7800 mit 512mb oder sogar 7800 512mb im sli ist egal.
technologisch sinnvoll ist es aber trotzdem nicht. Und einfach nur mehrere GPUs auf eine Karte zu pflanzen (praktisch auch SLI) ist auch nicht sinnvoll sah man ja bestens an den Volari Gurken. Die ganze DUAL Core und Quad Core CPU Entwicklung betrachte ich auch eher skeptisch.
Für den Hersteller ist SLI natürlich toll keine Frage man hat ja den längsten, aber der Durchschnittsgamer wird sowas nicht kaufen, und der Durchschnittsgamer ärgert sich weil die neuen GPU Generationen geringe Performancezuwächse bringen und er wieder mal halbjährlich gemelkt werden soll für Mehrperformance unter 10-20%. NV&ATI verweisen dann ja auf SLI oder Quad-SLI....
ich würde mir auch nie sli holen (ausser ich wüßte nicht mehr wohin mit dem geld :D ) weil es unglaublich viel kostet und der leistungsgewinn im vergleich zum preis eher mittelmäßig ist aber es gibt leute die interessiert das geld nicht. gelle tombman? ;)
leisten könnte ich es mir auch, aber ich bin ein rational denkender Mensch und betrachte die Sache aus der Perspektive eines normalen Gamers und da ist SLI fürn Arsch zumal 1-2 Jahre Später mit dem SLI System kein Pfifferling mehr zu gewinnen ist.
€:
die sache mit T&L ist in der tat dumm gelaufen aber dafür hatten die flagschiffe mit vsa chips auch fast AA for free. hast du mal bei einer geforce 1 oder 2 AA zugeschaltet? da ging garnix mehr. :D
ich meine ich hätte Q3 auf ner GeForce 1 und AA problemlos sehr flüssig gespielt. Und Bildverbessernde Massnahmen sind nur solange gut wie sie genutzt werden können. Wenn ein T&L vorraussetzendes Spiel auf einer Karte nicht läuft bekommt man nichts zu sehen. Und ich denke mal es war abzusehen das T&L erstmal gehyped wird. Der DAU hat damals kein AA usw. benutzt der wollte das alle Spiele laufen.
rokko
2006-02-27, 19:56:42
Das Problem war doch das sie die Chips und Platinen alles selber vermarktet haben.
Da waren die anderen cleverer. Die haben einfach nur die Chips produziert und verkauft. Das drumherum haben sie sich so gespart.
Die V1 und gerade das V2 Sli Gespann war ncith bseonders preiswert.
Allerdings hatte es nach dem Einbau einen sofort sichtbaren Performance Gewinn.
Ich erinner mich da noch an Tomb Raider. Auf nem S3 Virge und dann auf nem V2 sli. :eek:
catamaran
2006-02-27, 19:57:43
Das von mir dort bemängelte Hoppeln (sogar noch mit einer GF2 Ultra!!!) kannst Du sehr leicht nachvollziehen, indem Du Dich um die eigene Achse drehst, vor allen in Räumen in denen Fackeln sind. Es ist nicht nur die (angezeigte) Framerate, sondern es werden in der Tat ein ganzer Packen Frames übersprungen, sprich, es ruckelt nicht, sondern sie fehlen einfach!
Ja, leider kann ich es nicht mehr nachvollziehen. All zu viele Levels hatten damals keine Fackeln drinnen. Die Gothic-Map jedenfalls lief 1A. Ut99 noch da, aber keine TNT(2) oder GeForce.
Bringen wir es doch auf den Punkt: STB-gekauft, keine Reseller mehr gehabt, Entwicklung verschlafen (GLIDE only und OGL nicht weiter), D3D völlig ignoriert (erst als es vielleicht schon zu spät war), von V1 zu V3 war quasi keine technische Innovation enthalten, V4/5 kamen zu spät und ohne T&L, die Innovationen wie T-Buffer waren afaik nur unter GLIDE möglich (zu dem Zeitpunkt eh schon fast weg vom Fenster), die geplante V6 war zu teuer, zu aufwendig, mit technischen Problemen gespickt (4! VSA100) und die Entwicklung des Nachfolgers völlig hinten dran.
Ich denke mal da haben am Ende Geld und Resourcen gefehlt. Eine Hand voll gute Ingenieure reichen eben auf die Dauer nicht aus. Da braucht es ein Haus davon.
Du unterschätzt die Power der 4 VSA100, knapp GeForce DDR Niveau, die Karte war in Glide der GF2 U überlegen, selbst in QA3 konnte sie gut mithalten, vor allem in höheren Auflösungen.
Aber schau selbst: http://members.aon.at/grandadmiralthrawn/index.htm?http://www.hardoverclock.de/html/reviews/3dfx_voodoo5_6000_agp/v5-6000_1.htm
(links oben auf V5 6000 klicken, Verlinkung funzt leider net ;( )
Selbst die Voodoo5 5500 hat mehr Power, als ihr Früher immer attestiert wurde. Die Voodoo5 war/ist ne hervorragende Karte, mit einer BQ die man als Heute noch sehr gut bezeichnet. Auch war sie schnell, vor allem in Glide, selbst in TnL Games konnte sie noch gut mithalten.
naja die Voodoo 5500 stinkt gegen eine GeForce1 DDR ziemlich ab...das eine 6000 vielleicht schneller wäre kann ja sein aber so schnell wie eine GF2 Ultra sicher nicht.
http://www.firingsquad.com/hardware/v55500preview/page9.asp
Die Voodoo 5500 kann mit nem sehr starken Prozessor in T&L Games vielleicht mithalten (Solangs überhaupt einen Softwaremodus für T&L gab) aber nicht auf den damaligen Möhren.
Fazit: Die Voodoo5 rockt die Hütte, ich war Früher auch der selben Meinung wie Du, nur wenn man mal ein paar neuere Spiele testet und sieht wie gut die Voodoo5 noch performt mit dieser traumhaften BQ, kommt man manchmal schon ins Staunen.
klar ich find die dinger ja auch nicht schlecht, hätte ich meine voodoo2 noch hätte ich mir jetzt noch eine dazugekauft und die als SLI mal in nen alten PII400@533 gesteckt. Damit wären so einige retrogames noch gut spielbar. Aber man darf 3dfx nicht so überhypen die haben technologisch gepennt.
Und du vergisst, die Voodoo5 5500 war nicht der Gegenspieler zur GeForce2, sondern zur GeForce 256, wäre die Karte schon 99 gekommen, wären sie nicht pleite.
ja wenn und wäre...wenn die GeForce FX nicht solche grosse Verspätung gehabt hätte und vor dem R300 gekommen wär hätten wir jetzt vielleicht lauter auf CineFX optimierte Games...und Farcry würde doppelt so schnell auf einer FX5900 laufen wie auf einer 9800XT
Mit Rampage wäre NV mächtig in Bedrängnis gebracht worden, eine GeForce3 mit gutem FSAA, SLI Varianten waren geplant, dann hätte NV einpacken können!
Was für SLI Varianten? selbst die höheren Voodoo 3 Modelle waren doch nur noch AGP.
thade
2006-02-27, 20:06:06
naja die Voodoo 5500 stinkt gegen eine GeForce1 DDR ziemlich ab...das eine 6000 vielleicht schneller wäre kann ja sein aber so schnell wie eine GF2 Ultra sicher nicht.
Wenn das Raff und LoLman sehen, gibts Haua :D
€dit: Wo stinkt die Karte denn bitte gegen eine GeForce DDR ab? Ich seh nix ^^
Was für SLI Varianten? selbst die höheren Voodoo 3 Modelle waren doch nur noch AGP.
SLI auf einer Karte, meine Ich. Da wäre NV richtig unter die Räder gekommen, wenn 3DFX einen Rampage mit 2 oder mehr Chips auf einer Karte veröffentlicht hätte. Speed wie GeForce3, FSAA was der der Gf3 überlegen gewesen wäre.....!
catamaran
2006-02-27, 20:07:36
Und du vergisst, die Voodoo5 5500 war nicht der Gegenspieler zur GeForce2, sondern zur GeForce 256, wäre die Karte schon 99 gekommen, wären sie nicht pleite.
!
Theoretisch richtig. Sie ist aber zu spät gekommen und musste sich wegen des Erscheinungszeitpunkts und auch des Preises einen Vergleich mit der GeForce2 gefallen lassen.
Ein V5 6000 war definitiv eine Powerkarte. Aber 1.) konnte man sie nicht wirklich kaufen und 2.) die angepeilte Preisregion hätte für 2 GeForce2-Karten gereicht.
3.) Sind viele der kursierenden Samples nicht lauffähig und benötigen ein Rework. Die Karte war afaik noch Wochen! von der eigentlichen Serienreife entfernt. Wenn man sieht in welchem Zustand die Samples ausgeliefert wurden, weiß man, daß es 3Dfx unter den Nägeln gebrannt haben muss.
catamaran
2006-02-27, 20:13:32
Die Voodoo 5500 kann mit nem sehr starken Prozessor in T&L Games vielleicht mithalten (Solangs überhaupt einen Softwaremodus für T&L gab) aber nicht auf den damaligen Möhren.
Die V5 skaliert mit einer starken CPU in der Tat besser als eine Geforce.
Eine Geforce1/2 mit 4xFSAA ist u.U erschreckend langsam.
Ansonsten hast du natürlich recht.
Was für SLI Varianten? selbst die höheren Voodoo 3 Modelle waren doch nur noch AGP.
AFAIK fehlten doch so gut wie alle AGP-Features. Das trifft auch noch auf die V5 zu.
MarcWessels
2006-02-27, 20:37:32
ich meine ich hätte Q3 auf ner GeForce 1 und AA problemlos sehr flüssig gespielt.Aber mit fleckigem, da komprimiertem Himmel. :tongue:
Ohne Komprimierung konnte ich Q2A erstmals mit der GF3 spielen, mit AF erstmals mit der Ti4600, in 1600x1200 mit der Radeon 9700Prp und mit 4xAA + 16xAF in 1600x1200 seit der GeForce 6800GT@UE.
Wenn das Raff und LoLman sehen, gibts Haua :D
Bin ich momentan zu müde für. Ist aber Nonsens, sobald die CPU nicht limitiert. Das war aber in Quake 3 fastest damals verdammt oft der Fall.
Ein V5 6000 war definitiv eine Powerkarte. Aber 1.) konnte man sie nicht wirklich kaufen und 2.) die angepeilte Preisregion hätte für 2 GeForce2-Karten gereicht.
3.) Sind viele der kursierenden Samples nicht lauffähig und benötigen ein Rework. Die Karte war afaik noch Wochen! von der eigentlichen Serienreife entfernt. Wenn man sieht in welchem Zustand die Samples ausgeliefert wurden, weiß man, daß es 3Dfx unter den Nägeln gebrannt haben muss.
GeForce2 Ultra = bis zu 1400 DM. Die V5 6k wäre ganz sicher nicht noch teurer geworden. Natürlich Spekulatius, aber irgendwo hört der Spaß mal auf. ;)
naja die Voodoo 5500 stinkt gegen eine GeForce1 DDR ziemlich ab...das eine 6000 vielleicht schneller wäre kann ja sein aber so schnell wie eine GF2 Ultra sicher nicht.
http://www.firingsquad.com/hardware/v55500preview/page9.asp
Die Voodoo 5500 kann mit nem sehr starken Prozessor in T&L Games vielleicht mithalten (Solangs überhaupt einen Softwaremodus für T&L gab) aber nicht auf den damaligen Möhren.
Sehr geiles Beispiel. Man sieht sehr gut, wie die GeForce bei dem lahmen Celeron davonzieht. Geht es dann aber in Auflösungen ab 1024x768 oder wird die CPU ein PIII, ist die V5 an der Reihe. Lässt sich übrigens auch auf den Kampf gegen die GF2 übertragen. V5 5500 + WickedGL vs. GF2 GTS = Gleichstand @ 1600x1200x32.
MfG,
Raff
joa blos 99/2000 hatte der Normalgamer noch keinen PIII600 oder höher ^^. Das sie mit steigender CPU LEistung sehr schön mitskaliert ist klar, wenn einige Sachen von der CPU übernommen werden müssen. Gespielte Auflösung war wenn überhaupt 1024x768 oft noch 800x600
paul.muad.dib
2006-02-28, 11:55:51
technologisch sinnvoll ist es aber trotzdem nicht. Und einfach nur mehrere GPUs auf eine Karte zu pflanzen (praktisch auch SLI) ist auch nicht sinnvoll sah man ja bestens an den Volari Gurken. Die ganze DUAL Core und Quad Core CPU Entwicklung betrachte ich auch eher skeptisch.
Für den Hersteller ist SLI natürlich toll keine Frage man hat ja den längsten, aber der Durchschnittsgamer wird sowas nicht kaufen, und der Durchschnittsgamer ärgert sich weil die neuen GPU Generationen geringe Performancezuwächse bringen und er wieder mal halbjährlich gemelkt werden soll für Mehrperformance unter 10-20%. NV&ATI verweisen dann ja auf SLI oder Quad-SLI....
Sehe ich ähnlich. Betrachtet mal die Daten eines X1900 XTX CF Systems:
728 Mio Transistoren
1 GB RAM
knapp 100.000 MB/s Speicherbandbreite
96 Pixelshader
20.400 MPixel/s Füllrate
Dann ist die Leistung doch eher bescheiden.
reunion
2006-02-28, 12:02:52
Sehe ich ähnlich. Betrachtet mal die Daten eines X1900 XTX CF Systems:
728 Mio Transistoren
1 GB RAM
knapp 100.000 MB/s Speicherbandbreite
96 Pixelshader
20.400 MPixel/s Füllrate
Dann ist die Leistung doch eher bescheiden.
Die heutigen Techniken sind aber nicht mit dem "3dfx-SLi" vergleichbar. Die 3dfx-Chips skalierten in jeder ausschließlich Grafikkarten-limitierten-Szene zu 100%. Auch wenn natürlich trotzdem Sachen wir der 2D-Kern in jedem Chip vorhanden sein mussten.
Das 3dfx-SLI war aber sehr effizient. In hohen Auflösungen ist eine Voodoo5 5500 eigentlich immer doppelt so schnell wie eine Voodoo4 4500. Wo ist also das Problem?
€dit: Genau, reunion. Mann, bin ich manchmal langsam. :D
MfG,
Raff
Spasstiger
2006-02-28, 13:39:29
knapp 100.000 MB/s Speicherbandbreite
Das kann man so nicht rechnen, aus dem gleichen Grund, warum man bei CF/SLI auch nicht einfach den Grafikspeicher addieren kann.
Smoke Screen
2006-02-28, 13:49:53
Meiner Meinung nach ist 3dFx den Bach runter weil sie keine Schnitte im OEM-
Markt bekommen haben. Die V3 kam viel zu spät,hatte nicht das
gewünschte Feature-Set und war auch zu teuer. Der Rampagne hätte es
vielleicht wieder rausgerissen und wär sicher ne Hammerkarte für den Retailmarkt
geworden,aber bis dahin reichte einfach die Finanzdecke nicht mehr.
MarcWessels
2006-02-28, 13:51:10
joa blos 99/2000 hatte der Normalgamer noch keinen PIII600 oder höher ^^. Das sie mit steigender CPU LEistung sehr schön mitskaliert ist klar, wenn einige Sachen von der CPU übernommen werden müssen. Gespielte Auflösung war wenn überhaupt 1024x768 oft noch 800x600Na ja, aber einen Celeron hatten ja wohl die wenigsten Spieler, sondern einen P III oder P2.
Zum Zeitpunkt, als die GeForce 1 DDR rauskam, hatte ich seit drei Monaten einen Athlon 600@660 - der "Enthusiast" hatte also erst Recht genügend CPU-Power für eine Voodoo (5).
Na ja, aber einen Celeron hatten ja wohl die wenigsten Spieler, sondern einen P III oder P2.
der PII war aber nicht schneller als ein Celeron 450, da der Celeron L2 Cache mit Fullspeed laufen hatte und der PII nur mit half-speed
paul.muad.dib
2006-02-28, 14:27:09
Das kann man so nicht rechnen, aus dem gleichen Grund, warum man bei CF/SLI auch nicht einfach den Grafikspeicher addieren kann.
Das ist mir schon klar. Die angegebene Bandbreite kann nicht genutzt werden, sie ist aber in Hardware vorhanden und geht in die Produktionskosten bzw. den Verkaufspreis ein. Was bewusst provokant formuliert.
der PII war aber nicht schneller als ein Celeron 450, da der Celeron L2 Cache mit Fullspeed laufen hatte und der PII nur mit half-speed
Kommt drauf an. Das PII-Topmodell mit 450 MHz war IIRC oft recht deutlich schneller, was auch vom FSB-Vorteil (100 gegenüber 66 MHz) kam. Klar, dass ein PII 300 da kein Land mehr sieht. Meiner lief aber auch mit 133 (350 @ 466 MHz). :D
MfG,
Raff
Spasstiger
2006-02-28, 14:42:08
Das ist mir schon klar. Die angegebene Bandbreite kann nicht genutzt werden, sie ist aber in Hardware vorhanden und geht in die Produktionskosten bzw. den Verkaufspreis ein. Was bewusst provokant formuliert.
Sorry, dann Asche über mein Haupt. ;)
stickedy
2006-02-28, 17:39:08
.
stickedy
2006-02-28, 17:40:39
du weist schon das gilde eine irre geile api war
Was war denn an GLide biete "irre geil"? Das war einfach nur ein abgespecktes OpenGL. Wäre sinnvoller gewesen gleich OpenGL zu nehmen...
Piffan
2006-02-28, 18:43:43
Was war denn an GLide biete "irre geil"? Das war einfach nur ein abgespecktes OpenGL. Wäre sinnvoller gewesen gleich OpenGL zu nehmen...
Glide statt OpenGl war reine Marketingstrategie. Man wollte einen Standard am Markte etablieren um ein Quasi- Monopol auf Spielebeschleuniger für Pcs zu festigen. OpenGL war offen für Mitbewerber.........
stickedy
2006-02-28, 18:48:09
Logisch... Und daran ist nix "irre geil"
Hübie
2006-02-28, 20:00:38
@gast
du weist schon das 3dfx für sehr viele sachen die grundsteine gelegt hat?
du weist auch schon das es immer auch heute neue chips gibt die langsamer/schlechter wie dervorgänger sind?
du weist schon das gilde eine irre geile api war
du weist auch das zb aa bei 3dfx das best geboten hat was es gab das sogar noch lange über die lebensdauer der firma selbst
und das beste du weist schon das man tote ruhen lassen soll zumal es ist ja nun schon echt lange herdas die firma uns verlassen hat und die gründe dazu 10000000 mal schon in presse internet foren usw usw erzählt wurden
ich würde den fred hier schliessen
Du weisst eines nicht: das weisst von dem Wissen abgeleitet wird und mit doppeltem "s" geschrieben wird :tongue:
Aber du bist eindeutig im Recht mit deinen Aussagen.
Keine Fledderei bitte :rolleyes:
Ich habe damals 200Mark (glaub ich) in eine Power VR investiert und bin bitter auf die Schnauze gefallen - dann für 500 Moppen ne 3dfx Voodoo² mit 12MB gekauft und die Welt war wieder in Ordnung.
Jetzt kann man genauso fragen, warum Intel so dämlich ist und seit viel zu langer Zeit eine ineffiziente Prozessorarchitektur verbaut und Marktanteile verschenkt.... Oder warum Daimler-Chrysler die E-Klasse verkauft, obwohl die noch im "Beta-Stadium" is...oder warum Leute Bildzeitung lesen... Oder warum ... Oder warum... Oder warum??
bye Hübie
Blacksoul
2006-02-28, 21:32:43
Das 3dfx-SLI war aber sehr effizient. In hohen Auflösungen ist eine Voodoo5 5500 eigentlich immer doppelt so schnell wie eine Voodoo4 4500. Wo ist also das Problem?
Es macht in heutigen Spielen Probleme.
t.blacksoul.d
Drill
2006-02-28, 21:41:53
SLI auf einer Karte, meine Ich. Da wäre NV richtig unter die Räder gekommen, wenn 3DFX einen Rampage mit 2 oder mehr Chips auf einer Karte veröffentlicht hätte. Speed wie GeForce3, FSAA was der der Gf3 überlegen gewesen wäre.....!
nur mal so als frage: woher kommen deine erkenntnisse über die leistungsfähigkeit des rampage, dass du diese aussage treffen kannst.(gab es offizielle specs? wenn ja ist immer noch die frage ob sie so auch umgesetzt worden wären bzw ob die theoretische leistung erreicht worden wäre.)
thade
2006-02-28, 21:58:05
nur mal so als frage: woher kommen deine erkenntnisse über die leistungsfähigkeit des rampage, dass du diese aussage treffen kannst.(gab es offizielle specs? wenn ja ist immer noch die frage ob sie so auch umgesetzt worden wären bzw ob die theoretische leistung erreicht worden wäre.)
http://img510.imageshack.us/img510/8179/unbenannt4oc.jpg
http://img510.imageshack.us/img510/1286/unbenannt22hb.jpg
Außerdem hätte Ich 3DFX durchaus einen Meilenstein Chip zugetraut, der Rampage war schon immer im Hintergrund entwickelt worden. Rampage wäre ne Bombe geworden!
Scose
2006-02-28, 22:02:28
Das 3dfx schlussendlich am Pressehype um 32bit und T&L mit zu Grund gegangen ist bin ich überzeugt.
Aber die Firma selbst hat auch gravierende Fehler gemacht.
Schaut euch die 800er Serie von Ati an, kein HDR,kein SM3.0
Die Karten waren zum Teil schneller als die 6000er Serie von Nvidia aber in der Presse wurden diese fehlenden Features immer wieder genannt.
Aber HDR kann man auf der 6000er schlichtmal vergessen, viel zu langsam.
Klar ATI hat das nicht den Kopf gekostet aber man konnte sehen wie Nvidia wieder extrem an Marktanteilen gewann.
So ähnlich wie damals bei der Einführung mit 32Bit,war quasi unbrauchbar aber hätte das zur der Zeit keine Firma eingeführt wären wir vielleicht heute noch mit 16(24)Bit Farbtiefe am zocken.
Schlussendlich waren es wohl unglückliche Umstände die zum vollständigen Kollaps führten.
thade
2006-02-28, 22:09:04
Aber die Firma selbst hat auch gravierende Fehler gemacht.
Schaut euch die 800er Serie von Ati an, kein HDR,kein SM3.0
Klar ATI hat das nicht den Kopf gekostet aber man konnte sehen wie Nvidia wieder extrem an Marktanteilen gewann.
Total falsch, sry.
NV holte wegen dem G70 und wegen der Verzögerung des R520 auf, nicht wegen der X800 Serie. Die Karten verkauften sich prächtig, ATI hat nix falsches gemacht mit der X800, SM3 ja das Schlagmichtotargument der NVler, wo sind denn die vielen SM3 Spiele ^^, aber gehört nicht hier her!
sklave_gottes
2006-02-28, 23:23:38
Ich muss da Scose recht geben!
Von den ersten karten haben sich die 6800gt am besten verkauft.Hat aber unteranderem auch am guten preis gelegen.
vor markteintrit von der 7800 reihe lang der markt anteil von x800 zu 6800 karten klar zugunsten von nvidia
Scose
2006-02-28, 23:36:04
Eben, die Marktanteile haben sich nach dem NV30/35 Fiasko zum Release des NV40 wieder stark nach NV geschoben und diese mit dem rechtzeitigen Release des G70 weiter ausgebaut.
Nichtsdestrotrotz hat sich die 800er Serie auch gut verkauft aber eben nicht so wie die 6000er.
Sah man alleine schon an den halbjährlichen Steam-Umfragen bezüglich eingesetzter Hardware.
Und genau das geschah in ähnlicherweise mit den Voodoo-Karten damals, nur eben deutlich ausgeprägter.
Es war ja nicht so das sich niemand Voodoo's gekauft hat.
Zudem hatte 3dfx zu diesem Zeitpunkt schon arge Liquiditätsprobleme und der Geschäftsbereich deckte eben nur 3D-Grafikkarten ab. Dann noch die Entwicklungsverzögerung und Probleme mit der VooDoo6000 und dann war wohl aus die Maus.
Blacksoul
2006-03-01, 00:00:43
Total falsch, sry.
NV holte wegen dem G70 und wegen der Verzögerung des R520 auf, nicht wegen der X800 Serie. Die Karten verkauften sich prächtig, ATI hat nix falsches gemacht mit der X800, SM3 ja das Schlagmichtotargument der NVler, wo sind denn die vielen SM3 Spiele ^^, aber gehört nicht hier her!
NV holte wegen der insg. kompletten Produktpalette auf.
Sprich 6200, 6600, 6800. Sowas hatte ATI zu der Zeit nicht.
Besonders die OEMs waren natürlich von der 6200 mit SM 3.0 angetan.
Wegen einem Chip, der zudem ein Refresh ist, holt man keine Marktanteile. Schon gar nicht bei einem High-End-Chip, wie es beim G70 der Fall ist.
Bei 3dfx war es genau das selbe. 3dfx konnte nicht den gesamten Markt bedienen.
Gegen die GeForce 2 MX z. B. konnte 3dfx absolut gar nichts ausrichten.
Die Voodoo 4 4500 war für das Geld auch zu langsam.
Gegen Ende konnte 3dfx noch ein paar OEM-Deals abschließen, dafür war es jedoch dann zu spät.
t.blacksoul.d
paul.muad.dib
2006-03-01, 00:04:38
3dfx hat praktisch seit der Voodoo 1 nur Speedupgrades für den immer gleichen Chip herausgebracht. War doch klar, dass das nicht auf Dauer funktioniert, imo sind sie zu Recht pleite gegangen.
Und was den unveröffentlichen Wunderchip angeht, sage ich nur Papier ist geduldig und Marketing neigt immer zu Überteibungen.
Es macht in heutigen Spielen Probleme.
t.blacksoul.d
Hätte 3dfx selbst seit fünf Jahren Treiber geschrieben, gäbe es diese Probleme nicht.
3dfx hat praktisch seit der Voodoo 1 nur Speedupgrades für den immer gleichen Chip herausgebracht. War doch klar, dass das nicht auf Dauer funktioniert, imo sind sie zu Recht pleite gegangen.
Und was den unveröffentlichen Wunderchip angeht, sage ich nur Papier ist geduldig und Marketing neigt immer zu Überteibungen.
Der VSA-100 konnte schon ein "klein wenig" mehr als der SST-1. Bis zur Voodoo3 hast du aber Recht. :)
MfG,
Raff
stickedy
2006-03-01, 00:50:10
Genau, die 3dfx-Treiber waren ja auch so super toll in ihrer Qualität :rolleyes:
Ich hatte keine Probleme. :|
Was ich meinte, war auch eher, dass 2-3 Fans nicht die Entwicklung übernehmen können, die ein ganzes Team im Laufe eines halben Jahrzehnts geschafft hätte.
MfG,
Raff
stickedy
2006-03-01, 01:00:36
Ich hatte keine Probleme. :|
Was aber eher daran lag, dass man als Spielehersteller damals an 3dfx nicht herumkam. D.h. die Spiele wurden für den Treiber angepasst damit sie liefen.
Die Konformität und Kompatiblität der 3dfx-Treiber war nämlich unter aller Sau.
Aber ansonsten geb ich ich natürlich schon recht! Wobei ich bezweifeln möchte, dass 3dfx heutzutage die V5 noch vernünftig unterstützen würde bzw. könnte. Das liegt einfach daran, dass V5 einige Features fehlen, die heutige Spiele einfach voraussetzen, wie z.B. T&L (vgl. auch mir PowerVR Kyro)
thade
2006-03-01, 01:01:59
3dfx hat praktisch seit der Voodoo 1 nur Speedupgrades für den immer gleichen Chip herausgebracht. War doch klar, dass das nicht auf Dauer funktioniert, imo sind sie zu Recht pleite gegangen.
Und was den unveröffentlichen Wunderchip angeht, sage ich nur Papier ist geduldig und Marketing neigt immer zu Überteibungen.
Ja und wo ist das Problem?
Man konnte ja gut mithalten bzw war Klassenprimus. Wieso wird das als Nachteil gesehen die Weiterentwicklung? Selbst der VSA100 basiert noch auf dem UrVoodoo.
Voodoo2 und 3 waren in der Tat nur Speedupgrades, aber brauchte man damals mehr? Das 24Bit der Voodoo3, war dem 32bit eh ebenbürtig, größere Texturen als 256*256 brauchte man Anno 98/99 auch nicht zwingend!
Du unterschätzt 3DFX, die Fähigkeiten dieses kleinen Teams waren hervorragend, nur 3DFX hätte anders gemanaged werden müssen, der Kauf von STB ist imho der schlimmste Fehler gewesen. So vergraulte man die Hersteller und überließ sie NV und Co.
Rampage wäre ein großartiger Chip geworden, dabei bleibe Ich!
Wieso wünscht du einer Firma den Bankrott? Wärst nicht froh wenn 3DFX noch unter Uns weilen würde? Wäre doch ideal für uns Konsumenten, 3 Große fähige Chiphersteller, nicht nur 2.
Wieso wünscht du einer Firma den Bankrott? Wärst nicht froh wenn 3DFX noch unter Uns weilen würde? Wäre doch ideal für uns Konsumenten, 3 Große fähige Chiphersteller, nicht nur 2.
Dann hätten wir jetzt 1meter lange Grakas mit 30 voodoo1 Chips drauf die in 80nm gefertigt sind und 10 Terraherz takten, 12x SLI um mit einer 6600GT mitzuhalten (mit per Software emulierten Shadern versteht sich ;) ) *scrn*
Spasstiger
2006-03-01, 05:56:10
Das 24Bit der Voodoo3, war dem 32bit eh ebenbürtig, größere Texturen als 256*256 brauchte man Anno 98/99 auch nicht zwingend!
22 Bit intern, 16 Bit extern waren das. Und dem 32 Bit von anderen Grafikkarten war es sicher nicht ebenbürtig, es war nur besser als das 16 Bit anderer Hersteller (an das 16 Bit von ATI denk, schauder).
Dann hätten wir jetzt 1meter lange Grakas mit 30 voodoo1 Chips drauf die in 80nm gefertigt sind und 10 Terraherz takten, 12x SLI um mit einer 6600GT mitzuhalten (mit per Software emulierten Shadern versteht sich ;) ) *scrn*
Mit extremer Überzeichnung, die als Flame aufgefasst werden könnte, kommen wir auch nicht weiter. ;) Schaut euch die Roadmaps an ... der Rampage hat seinen Release (Anfang 2001) offensichtlich nur verdammt knapp verpasst. Das macht es um so tragischer. Und das Ding war mit PS1.0 ganz sicher keine Voodoo Graphics mehr.
Wo bleibt btw Demis Artikel zu dem Thema? =)
22 Bit intern, 16 Bit extern waren das. Und dem 32 Bit von anderen Grafikkarten war es sicher nicht ebenbürtig, es war nur besser als das 16 Bit anderer Hersteller (an das 16 Bit von ATI denk, schauder).
Klar war 32 Bit später schöner (in Quake III zum Bleistift). Aber im Gegensatz zum 32 Bit auf Nvidias TNTs war 3dfx' 22 Bit stets flüssig und meist keineswegs hässlich. Eine Art "32 Bit light" (in Sachen Qualität) für die, die unbedingt mehr Qualität als 16 Bit haben und trotzdem nicht in Liqiditätsprobleme in Sachen Fps kommen wollten. ;)
MfG,
Raff
paul.muad.dib
2006-03-01, 09:58:57
Ja und wo ist das Problem?
Man konnte ja gut mithalten bzw war Klassenprimus. Wieso wird das als Nachteil gesehen die Weiterentwicklung? Selbst der VSA100 basiert noch auf dem UrVoodoo.
Das Poblem besteht darin, dass die Produkte nicht mehr Konkurrenzfähig waren, sondern vom Nimbus des Voodoo Names gelebt haben. Der Nachteil der Weiterentwicklung war, dass irgendwann das Design weder gnügend Speed, noch neue Features brachte..
Voodoo2 und 3 waren in der Tat nur Speedupgrades, aber brauchte man damals mehr? Das 24Bit der Voodoo3, war dem 32bit eh ebenbürtig, größere Texturen als 256*256 brauchte man Anno 98/99 auch nicht zwingend!
"Brauchen" ist ein schlechtes Wort, denn was man "braucht" ist immer subjektiv. Ich habe diese Zeit nicht aktiv mitverfolgt, mir aber im Nachhinein viel dazu angelesen. Eine höhere Auflösung als 800x600 wäre schon nicht schlecht gewesen, was man ansonsten alles zu der Zeit sinnvoll anwenden konnte, weiß ich nicht. Ich gebe aber zu Bedenken, dass in der Regel Grafikkarten auch etwas länger, sprich 1-3 Jahre halten sollen und nach einer solchen Zeit werden bestimmte Features schon eingesetzt.
Du unterschätzt 3DFX, die Fähigkeiten dieses kleinen Teams waren hervorragend, nur 3DFX hätte anders gemanaged werden müssen, der Kauf von STB ist imho der schlimmste Fehler gewesen. So vergraulte man die Hersteller und überließ sie NV und Co.
War 3dfx so klein gegenüber NV? Ati war imo am größten, weil sie den OEM-Markt hatten. NV hatte aber ebenfalls kein anderes Standbein und musste sich eine Position in einem Markt erkämpfen, der von 3dfx dominiert würde. Daher glaube ich eher, dass 3dfx der Große war.
Rampage wäre ein großartiger Chip geworden, dabei bleibe Ich!
Das kann niemand mit Sicherheit sagen.
Wieso wünscht du einer Firma den Bankrott? Wärst nicht froh wenn 3DFX noch unter Uns weilen würde? Wäre doch ideal für uns Konsumenten, 3 Große fähige Chiphersteller, nicht nur 2.
Ich wünsche keiner Firma bankrott. Ich sage nur, dass es mehr Gründe für diesen gab, als eine Kette unglücklicher Zufälle, sondern die Produkte einfach nicht Konkurrenzfähig waren. Wenn sie es gewesen wären, waren sie zu sehr verspätet.
Zu der Frage, ob 3 Chiphersteller nicht besser wären:
Der GPU Markt ist gekennzeichnet durch einen hohen Anteil an Forschungs&Entwicklungskosten. Dadurch besteht ein starler Hang zur Konzentration und nur wenige Firmen können wirtschaftlich arbeiten. Ob die optimale Zahl jetzt 2 oder 3 ist, oder langfristig sogar nur einer wird überleben können, kann ich nicht beurteilen. Das hängt von der sogenannten MOTB (Mindest-optimale-Betriebsgröße), also von den Kostensenkungspotentialen, die sich aus einer Vergrößerung des Betriebes ergeben, ab.
Bei einer Zahl von 2 Herstellern wäre so oder so einer Pleite geangen oder aus dem Markt ausgetreten.
Mr. Lolman
2006-03-01, 11:00:30
Ich wünsche keiner Firma bankrott. Ich sage nur, dass es mehr Gründe für diesen gab, als eine Kette unglücklicher Zufälle, sondern die Produkte einfach nicht Konkurrenzfähig waren. Wenn sie es gewesen wären, waren sie zu sehr verspätet.
Die 3dfx Produkte waren alle konkurrenzfähig. Nur der Featuresetgeile Spieler griff lieber zur GF2 GTS. NVs 32bit war deswegen notwendig weil 16bit hässlich aussah. Das AA der GF2 war unbrauchbar; nur den T&L Vorteil konnte man nutzen. Blöderweise gabs auch das ein oder andere Spiel, bei dem der T&L Vorteil zu einem Nachteil wurde, sofern die Auflösung hoch genug gewählt war. Die Voodoo5 5500 war tatsächlich alles andere als schwach: Klick (http://www.3dconcept.ch/reviews/voodoo55500agp/26.htm)
Die doppelt so schnelle Voodoo5 6000 war demnach tw. locker über GF3 Niveau. In ner Heiseumfrage warens AFAIK trotzdem 90% die lieber zur NVidia Karte griffen - wohl wegen dem ach so wichtigen Featureset. Dabei rennt auf der V5 nicht nur jedes Spiel, was auch auf der GF2 rennt - noch besser, die BQ war mit 2xAA absolut einwandfrei und mit 4xAA perfekt: Klick (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3254832&postcount=214)
Noch ein paar weitere Screenshots: Klick (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2554684&postcount=53) und Klick (http://www.3dfxzone.it/enboard/topic.asp?TOPIC_ID=2155)
paul.muad.dib
2006-03-01, 11:08:40
Gegenbeispiel:
http://www.3dcenter.de/artikel/voodoo5-5500/6.php
Außerdem sollte man nicht vergessen, dass ein NV Chip gegen zwei Voodoos angetreten ist. Das wird sich sicher auch auf die Preise ausgewirkt haben.
Blutmaul
2006-03-01, 11:17:10
Ich meine der Hauptfehler von 3Dfx war, die Karten in Eigenregie herstellen zu wollen und sicherlich ein Management, das es nicht geschafft hat, gewisse Marketingfeatures der Konkurrenz pressewirksam zu Kontern.
Bis zu den Zeiten der TNT-2 war 3Dfx konkurrenzfähig genug, denn Riesenauflösungen in 32-Bit-Farben waren dazumal immer noch ein schrecklicher Performancekiller und die Voodookarten sahen bei 16-Bit allemal besser aus.
Das die Geforce256 dann 3Dfx killen würde war klar, weil der Markteintritt zu einer Zeit erfolgte, als 3Dfx nur mit Versprechen gegenhalten konnte und die tatsächliche Verfügbarkeit ihrer neuen Karten nie ausreichend gegeben war.
Ich hab nach der TNT-2 dann auch eine Geforce256 gekauft, weil ich einem Pleitier (3Dfx) kein Geld hinterherschmeissen wollte.
Die technische Qualität der Nvidia-Hardware war damals leider so grottig, das ich dann auf ATI umgestiegen bin - das habe ich nie bereut.
Ich finde es schade, das 3Dfx nicht mehr am Markt ist, aber wenigsten haben wir 2 Firmen die sich Konkurrenz machen.
Die wahnwitzigen Hardwarelösungen von 3Dfx, sind jedenfalls selbst heute noch ein Aha-Erlebnis!
Mr. Lolman
2006-03-01, 11:21:30
Gegenbeispiel:
http://www.3dcenter.de/artikel/voodoo5-5500/6.php
Außerdem sollte man nicht vergessen, dass ein NV Chip gegen zwei Voodoos angetreten ist. Das wird sich sicher auch auf die Preise ausgewirkt haben.
Eine Voodoo5 5500 AGP war günstiger als eine GF2 GTS.
Achja, hab ich schon erwähnt, dass 3dfx' 22bit deutlich besser aussah als NVs 16bit? (Bei ca. 5% Leistungseinbruch ggü normalen 16bit)
Mr. Lolman
2006-03-01, 11:31:49
Ontopic:
Die Banshee war ein Topprodukt um ~1750 Schilling =~250Mark =~125€.
Die TNT war teurer und hatte keinen 16bit Postfilter. P.S.: Mit der Banshee hab ich Unreal in 1024x768 gespielt.
Spasstiger
2006-03-01, 12:25:08
Die TNT war teurer und hatte keinen 16bit Postfilter. P.S.: Mit der Banshee hab ich Unreal in 1024x768 gespielt.
Hehe, ich ebenso. Und das mit einer 250 DM günstigen Grafikkarte. Voodoo 2 SLI war wesentlich teurer und eine RivaTNT erreichte weder die grafische Qualität noch die Performance der Voodoo Banshee in Unreal, zumindest mit den ersten D3D-Patches.
eXodia
2006-03-01, 13:04:08
Es kommt halt nur zu 50% auf das Produkt an, die restilichen 50% sind das Marketing. Genau da war NV meilenweit vorne und imo hätte es mit ner Marketingabteilung ala NV bis zum Rampage gereicht. Gewusst wie NV :wink:
Regards
Mit extremer Überzeichnung, die als Flame aufgefasst werden könnte, kommen wir auch nicht weiter. ;) Schaut euch die Roadmaps an ... der Rampage hat seinen Release (Anfang 2001) offensichtlich nur verdammt knapp verpasst. Das macht es um so tragischer. Und das Ding war mit PS1.0 ganz sicher keine Voodoo Graphics mehr.
Gibt es ein lauffähiges Engineering Sample vom Rampage? Nein. Wie schonmal erwähnt wurde Papier ist geduldig. Über den R420 hat man im Vorfeld ja auch spekuliert das dieser 32 pipelines bekommt und SM3 support mit hohen Taktraten taktet usw. Ich habe nichts gegen 3dfx habe ja sogar 2 Voodoos besessen...und spiele sogar mit dem Gedanken mir ein Retrosystem mit 2xVoodoo2 SLI aufzubauen...aber dennoch bin ich der MEinung das sie es einfach selbst vergeigt haben....immer nur mehr Chips irgendwo draufklatschen bringts eben nicht.
Es gibt mindestens einen lauffähigen Rampage ... aber nicht in der Form, wie er der GeForce3 hätte Konkurrenz machen sollen. Da fehlt noch die Geometrie-Einheit "Sage", zudem sind die Treiber wohl noch immer Pre-Alpha ...
MfG,
Raff
Mr. Lolman
2006-03-01, 13:17:10
Gibt es ein lauffähiges Engineering Sample vom Rampage?
Ja!
http://www.thedodgegarage.com/3dfx/rampage.htm
MarcWessels
2006-03-01, 13:38:37
Die 3dfx Produkte waren alle konkurrenzfähig. Nur der Featuresetgeile Spieler griff lieber zur GF2 GTS. NVs 32bit war deswegen notwendig weil 16bit hässlich aussah. Das AA der GF2 war unbrauchbar; nur den T&L Vorteil konnte man nutzen. Blöderweise gabs auch das ein oder andere Spiel, bei dem der T&L Vorteil zu einem Nachteil wurde, sofern die Auflösung hoch genug gewählt war. Die Voodoo5 5500 war tatsächlich alles andere als schwach: Klick (http://www.3dconcept.ch/reviews/voodoo55500agp/26.htm)Damals wurde wie heute offenbar kein Wert auf vergleichbare Bildqualität gelegt, messen die doch Unreal Tournament in 16Bit auf beiden Karten (GF2GTS häßlich und Voodoo 5 5500 schön)! :|
Also das sie ne Menge mist gemacht haben ist klar, aber das sie den Banshee abgespeckt haben der sonst ja sehr gut war ist ABSOLOUT unverständlich!!!
Wer wollte denn noch dicke Zusatzkarten wenn es die gleiche Leistung als 2D/3D bereits gab?
Tja wolltense wohl die alten V2 Lagerbestände abverkaufen, die Geier!
Aber pech gehabt sag ich da nur!Immer diese Missverständnisse. Mit der Banshee wurde endlich ein 2D-Kern integriert. Der nimmt ja auch Platz ein, und dafür wurde dann eine Texel-FX-Unit gestrichen. Banshee war insofern als Office-Karte gedacht. Später gabs auch Office-Karten (Velocity-Serie) auf Voodoo3-Basis mit nur 8 MB RAM. Die verkauften sich aber nicht so doll, weil damals alle 16 MB (oder mehr) haben wollten – auch im Home-PC zum Email-schreiben.
Naja ein Verbrechen ist das nicht, nur um mitzuhalten musten sie eben auf SLI setzen. Jede Voodoo, inklusive Voodoo1 und Voodoo3, ist SLI-fähig. SLI war eine sehr elegante Möglichkeit, die Füllratenleistung effizient zu steigern. Heute steht SLI vor diversen Schwierigkeiten, die es damals nicht gab. SLI war zu Voodoo-Zeiten einfach eine sinnvolle Technik. Leider wurde sie dem Endkunden für Voodoo1 und 3 nicht angeboten – mit Voodoo3 SLI hätte 3dfx zwischendurch einige Marktanteile halten können.
Die Voodoo-Serie war einzigartig. Die Dinge, die die Glide-API zur Verfügung stellte, konnte die Voodoo direkt ausführen. Die Treiber-Schicht war entsprechend dünn und darauf optimiert dass genau das geboten wurde, was der Gamer brauchte.
Die Voodoo-Serie war einzigartig. Die Dinge, die die Glide-API zur Verfügung stellte, konnte die Voodoo direkt ausführen. Die Treiber-Schicht war entsprechend dünn und darauf optimiert dass genau das geboten wurde, was der Gamer brauchte.Ich glaube nicht dass jemand Glide nachtrauert. OpenGL/Direct3D sind von der Abstraktion dennoch nur hauchdünn darüber.
Solche Märchen halten sich natürlich gerne, wenn die Treiber auf etwas optimiert sind und es deshalb schneller läuft. Soweit ich weiß hat 3Dfx für OpenGL einen Glide-Wrapper verwendet, was natürlich zusätzlichen Overhead bedeutet.
Mr. Lolman
2006-03-01, 16:15:46
Soweit ich weiß hat 3Dfx für OpenGL einen Glide-Wrapper verwendet, was natürlich zusätzlichen Overhead bedeutet.
AFAIK war das nur bei den ersten Quake kompatiblen MiniGL-Treibern der Fall. Die WickedGL Treiber von Metabyte haben nach Glide gewrappt, und waren zT deutlich schneller als die nativen 3dfx OpenGL Treiber.
paul.muad.dib
2006-03-01, 17:39:13
Ja!
http://www.thedodgegarage.com/3dfx/rampage.htm
Sehe ich das richtig, dass sie es auch mit dem Rampage noch nicht geschafft haben, einen einzelnen Chip zu bauen, der alle Funktionen integriert?
Ich glaube nicht dass jemand Glide nachtrauert. OpenGL/Direct3D sind von der Abstraktion dennoch nur hauchdünn darüber.
Solche Märchen halten sich natürlich gerne, wenn die Treiber auf etwas optimiert sind und es deshalb schneller läuft. Soweit ich weiß hat 3Dfx für OpenGL einen Glide-Wrapper verwendet, was natürlich zusätzlichen Overhead bedeutet.Glide kann nur das, was der Chip direkt kann. Glide nimmt dem Entwickler nur ab, selbst die Register beschreiben zu müssen. Damit ist in Glide nicht so bequem zu programmieren, da man zum Beispiel Transformationen etc. selbst machen darf. Heute bin ich strikt gegen eine solche ziemlich low-levelige Programmierung. Weiland, zu Voodoo-Graphics-Zeiten, war es der Weg zu flüssiger und schöner Grafik.
Mr. Lolman
2006-03-01, 17:47:47
Sehe ich das richtig, dass sie es auch mit dem Rampage noch nicht geschafft haben, einen einzelnen Chip zu bauen, der alle Funktionen integriert?
Meinst du die TnL Einheit?
Sehe ich das richtig, dass sie es auch mit dem Rampage noch nicht geschafft haben, einen einzelnen Chip zu bauen, der alle Funktionen integriert?Das klingt so negativ, als ob es nachteilig wäre, eine schöne skalierbare Architektur zu haben ohne für jedes Segment einen Extra-Chip entwickeln zu müssen.
paul.muad.dib
2006-03-02, 10:12:10
Das klingt so negativ, als ob es nachteilig wäre, eine schöne skalierbare Architektur zu haben ohne für jedes Segment einen Extra-Chip entwickeln zu müssen.
Naja, ist es nicht teurer, immer mehrer Chips auf eine Karte kleben zu müssen? Ganz abgesehen von den benötigten Leitungen und Latenzen, die dadurch entstehen.
Es gibt ja auch skalierbare Designs wie den NV40, die nur einen Chip haben.
3dfx hat doch eine eigene api gehabt ala glide oder?
war damals noch nicht so bewandert am pc sektor.
aufjedenfall hat mich die miro highscore 3d ~350€ gekostet :eek:
GMX ist vorallem am gierigen Management gescheitert, daß ihnen keine modernen Entwicklungstools bereitsellen wollte. Dazu war das Marketing auch nicht so gut, wie das von nV (was sie aber eher sympatisch macht).
Mr. Lolman
2006-03-27, 14:33:00
GMX ist vorallem am gierigen Management gescheitert, daß ihnen keine modernen Entwicklungstools bereitsellen wollte. Dazu war das Marketing auch nicht so gut, wie das von nV (was sie aber eher sympatisch macht).
Dementsprechend betracht' ich Hank Semenec, den Chefentwickler der Voodoo5 6000 auch als Helden.
Bloß meine Voodoo5 6000 sollte er mir mal zurückgeben. :rolleyes:
Glide kann nur das, was der Chip direkt kann. Glide nimmt dem Entwickler nur ab, selbst die Register beschreiben zu müssen. Damit ist in Glide nicht so bequem zu programmieren, da man zum Beispiel Transformationen etc. selbst machen darf. Heute bin ich strikt gegen eine solche ziemlich low-levelige Programmierung. Weiland, zu Voodoo-Graphics-Zeiten, war es der Weg zu flüssiger und schöner Grafik.Schonmal Glide angesehen? So Low-Level ist das nun auch wieder nicht.
Shambhala
2006-03-27, 15:32:41
Ich kapiers grad net entweder hat sich der Threadersteller im chip vertan, oder gar keine Ahnung von 3DFX und hat irgendwo ne Karte in nem Computermuseum gesehen.
Meine Diamond Banshe (1999) damals, war eine sehr gut 2D/3D karte.
Hätte sich der Threadersteller auf die Voodoo Rush(1997) bezogen wäre es für mich nachvollziehbar. den diese Karte war wirklich Müll.
Jaja das 0815 Setup damals Matrox Mystic/Millenium und ne 2x Voodoo1/2 im Rechner.
Aber die Diskussion im gesamten ist ganz interessant.
Ich kann mich noch erinnern was fuer ein Hurerei es gab einen TNT auf nem AMD zum laufen zubringen oh was hab ich Nvidia verflucht. Ich glaub in dieser Zeit hat 3DFX sehr viele Karten verkauft :)
catamaran
2006-03-27, 15:49:21
Ich kann mich noch erinnern was fuer ein Hurerei es gab einen TNT auf nem AMD zum laufen zubringen oh was hab ich Nvidia verflucht. Ich glaub in dieser Zeit hat 3DFX sehr viele Karten verkauft :)
Also ich habe meine TNT einfach in den AGP gesteckt, Treiber installiert und fertig. Ich hatte nie Probleme mit der Karte (K6/3 400 und Via MVP3).
Controller Khan
2006-03-28, 03:12:54
auch Ati und PowerVR hatten eigene APIs (Ati:CIF ?), under Dos nicht vermeidbar (kein OpenGL)
glide war sehr gut dokumentiert und 3Dfx Marktführer.
TNT + Athlon war einfach eine grauenhafte kombination.
Die TNT war gut in Benchmarks gut, aber in den Spielen waren Voodoos problemloser und schneller.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.