PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was habt ihr eigentlich gegen 3dfx??


Unregistered
2001-10-29, 19:15:44
Mir gefällt es überhaupt nicht wie manche von euch über 3dfx reden.
Ich bin schon seit 6 Jahren Hardcoregamer ,und hab Zeiten erlebt wo man über Nv`idiots` lachte.Ausserdem finde ich V5 viel besser als alles andere.GeForce sux , obwohl ich selbst eine habe.

3DFX 4 EVER !!

Pengo
2001-10-29, 19:22:49
Ich habe nichts mehr gegen 3Dfx (hatte mal ein Taschenmesser und einen Gummihammer), man sollte über verstorbene nicht schlecht reden.

syronth
2001-10-29, 19:25:02
Ich _hatte_ mal was gegen diese 3dfx-Logos auf diversen Spielepackungen - aber seit sie verschwunden sind...

ow
2001-10-29, 19:44:16
3dfx hat sich gegen jede Entwicklung im 3D Bereich gestellt, die wollten nur ihr Glide Monopol ausbauen.

Dazu noch extrem schlechte Treiber (es gibt bis heute keinen ICD für Voodoos, der den Namen verdient).

Razor
2001-10-29, 20:58:10
Ich hab' selber noch 'ne Voodoo2 im Zweit-rechner.
Irgendwie ist Voodoo auch kult, aber eben auch Vergangenheit.
Also Friede ihrer Asche !

3dfx hat das bekommen, was sie verdienten. Sie waren zu gierig und haben die Quittung bekommen...
That's it !
;-)

In diesem Sinne

Razor

aths
2001-10-29, 21:22:50
"3dfx hat sich gegen jede Entwicklung im 3D Bereich gestellt, die wollten nur ihr Glide Monopol ausbauen."

Was nicht umbedingt zum Nachteil gereicht hätte.

"Dazu noch extrem schlechte Treiber (es gibt bis heute keinen ICD für Voodoos, der den Namen verdient)."

Ich bin seit jenher mit den Voodoo-Treibern (Voodoo1, Banshee, 4) zufrieden und kann nicht meckern.

An 3dfx hat mir die bedingungslose Auslegung auf Zockerkarten gefallen und der grosse Fortschritt der Voodoo-Serie, der immerhin bis zur Voodoo3 fast unverändert sehr spieletaugliche Karten brachte.

Kai
2001-10-29, 22:47:08
Originally posted by aths
An 3dfx hat mir die bedingungslose Auslegung auf Zockerkarten gefallen und der grosse Fortschritt der Voodoo-Serie, der immerhin bis zur Voodoo3 fast unverändert sehr spieletaugliche Karten brachte.

Welchen Fortschritt meinst Du genau? Also ich würde es nach meiner Meinung mal so ausdrücken ... Was glaubst Du, welche Games wir Heute spielen würden, wenn 3Dfx "noch immer" eine Monopolstellung behaupten würde? Turok 12 mit Turok 2 - Engine ? Apropos, ich hatte auch mal ne Voodoo2 ;) War wirklich krass damals, aber 3Dfx haben meiner Ansicht nach viel zu wenig für die Salonfähigkeit von neueren 3D-Features beigetragen.


Ahja, quote doch bitte mal - ich komm bei deinen Post's immer durcheinander weil Du Statements immer nur einklammerst ;)

Kosh
2001-10-29, 23:19:10
3dfx ist an ihrer eigen Dummheit gepaart, mit einem Megaunfähigen Management, zugrunde gegangen.

Schade.Ich habe meine Voodoo2 geliebt :D

Pengo
2001-10-30, 00:18:01
Originally posted by aths
"3dfx hat sich gegen jede Entwicklung im 3D Bereich gestellt, die wollten nur ihr Glide Monopol ausbauen."

Was nicht umbedingt zum Nachteil gereicht hätte.


Ich hätte nichts gegen ein 3DFX Monopol, aber Glide war einfach zu primitiv in Vergleich zur Konkurrenz (OpenGL), und nur im Zeitlupentempo weiterentwickelt worden. (Wie die 3dfx Hardware)

aths
2001-10-30, 00:57:08
"Welchen Fortschritt meinst Du genau?"

Voodoo bot 16-Bit-Floating-Point-Z-Buffer statt nur Integer, grundsätzlich SLI, von Anfang an verschiedene Texturkompressionen (NCC, palettized textures) - und Glide. Dank Glide gibts kaum ein Overlay, der die Grafik verlangsamt. Wie man weiss, ist DX ziemlich CPU-lastig.

Die Fortschritte bis einschliesslich Voodoo3 waren zwar recht gering, aber der Vorsprung mit dem Ur-Voodoo-Chip war so gewaltig, dass das bis zur Voodoo3 ausreichte. "Alte Technik" hin oder her - zum zocken war eine Voodoo3 in ihrer Zeit exzellent, fertig.

Ich bin nicht bereit, bei Texurgrössen von 2048² von Fortschritt zu sprechen. In eine 32-MB-TNT2 passte gerade mal eine dieser Texturen (bei 32 Bit). Das war unbrauchbar.

Der VSA bot wieder tolle Fortschritte wie T-Buffer und FXT1. Sie schwammen nicht auf der T&L-Welle mit, sondern entwickelten neue Features.

nVidia konnte ihre Entwicklungen glaubhafter an den Mann bringen, als 3dfx, ja. Übrigens war der Voodoo3 u. a. deshalb recht uninspiriert, da das die "letzte" Voodoo sein sollte - bis zum Rampage, halt.

Zwei richtungsweisende Grafik-Kracher kommen mit Glide am besten daher: Unreal und UlimaIX. "Alte Technik" hin oder her. Eine Voodoo5 setzt seine Füllrate besser um, als eine GTS. "Alte Technik" hin oder her.

Pengo
2001-10-30, 01:40:27
Ultima 9 ist kein Kracher, sondern eine Beleidigung für die ganze Programmierergemeinschaft, es gibt kein anderes Windows Executable mit so vielen Bugs und Mem Leaks. Es bleibt wohl auch das langsamste Spiel aller Zeiten (auf allen Grafikkarten). Der größe Witz war daß wenn man den SoundCache verdoppelte die Frameraten um 40% stiegen, wollte sogar ein Tool schreiben das dies automatisch macht, aber irgendwann ist U9 im Mülleimer gelandet.

Leonidas
2001-10-30, 01:58:25
Unabhängig aller Fehler ist 3dfx nun einmal der Pionier. Und das hat nun einmal einen gewissen, nicht durch spätere Fehler wieder auszubügelnden Wert.

Haarmann
2001-10-30, 07:30:18
Pengo, wenn OpenGL soooo viel besser is als Glide, wie kann man denn bei 3dfx Karten OpenGL auf Glide3 wrappen?
3dfx haben viele neue Features gebracht, ihr lacht über den 22bit Filter, aber würdet ihr auch über nen 40 Bit Filter lachen?

Razor
2001-10-30, 10:46:31
Würde mich eher über 'echte' 64-Bit freuen !
;-)

Razor

thomasius
2001-10-30, 10:52:22
ich hab auch nichts gegen 3dfx, aber sie sind halt nicht mehr da,
ein monopol ist immer für uns user schlecht, damals wie heute.
von daher finde ich es schade, dass sie geschluckt wurden.
auch fand ich die letzten karten nicht mehr ganz so gut, irgendwie am kunden vorbeigedacht.

Legolas
2001-10-30, 12:37:46
Originally posted by Leonidas
Unabhängig aller Fehler ist 3dfx nun einmal der Pionier. Und das hat nun einmal einen gewissen, nicht durch spätere Fehler wieder auszubügelnden Wert.

Dito :D:D Auch hat 3Dfx an der Spezifizierung von Dx8 mitgearbeitet (T-Buffer, Vertexshader). Also so inovationsfeindlich waren und sind sie nie gewesen. Das unfähige Management hat nur immer dafür gesorgt, daß der Rampage x mal ein komplettes Redesign bekommen hat, anstatt ihn mal zur Marktreife zu bringen(IMHO ist es die Aufgabe des Managements die Entwickler dazu zu bewegen, was marktreifes zu entwickeln, und nicht immer an einem für die Entwickler perfekten Grafikchip zu arbeiten, der aber dann nur im Labor läuft). Nvidia hätte ja sonst nicht über 100 Ingeneure übernommen, wenn die wirklich nur Schrott produziert hätten, wie manche hier behaupten..

Unregistered
2001-10-30, 14:16:58
an den äusserungen vieler personen merkt man wie wenig ahnung sie eigentlich von allem haben!!!
3dfx war doch die firma die den ersten 3d beschleuniger auf den markt brachte (wenn man von dem lächerlichen nv1 mal absieht).
und auf dieser seite gibt es doch einen artikel über das ach so tolle dx7 t&l. das könnt ihr euch doch an den hut stecken.
der t-buffer von 3dfx war doch die wirkliche revolution.
dx7 t&l ist ein mist und der t-buffer ein grosser schritt hin zum photorealistischen rendering.
die sli technologie von 3dfx war es doch die einzig sinvolle methode die bandbriete weiter zu erhöhen. nvidia weiss mit ihrer herkömmlichen methode der erhöhung des speichertaktes einfach nichtmehr weiter, warum hätten sie sonst die taktung der gf3 serie künstlich so niedrig gehalten???
und welcher geometrieprozessor war denn so fortschrittlich, der externe sage von 3dfx natürlich.
und ich will garnicht wissen wie nvidia ausgesehen hätte wenn 3dfx ihren chip mit der gigapixel technologie verschmolzen hätte (das wäre im übrigen gerade jetzt der fall gewesen).
ein prototyp von gigapixel deklassierte doch schon mit nur um die 150mhz chip- bzw. speichertakt und sdr sdram ihre gefroce konkurrenz.
hätte 3dfx ihren zeitplan eingehalten wären sie doch unangefochtener grafikmeister, denn schon voodoo3 war nie geplant, doch aufgrund vieler verspätugen wurde erst die voodoo3 und dann der vsa100 eingeschoben. und selbst diese hätten nvidia in grund und boden gestampft.
wie gesagt wurden die vielen verspätungen, und aber auch nur diese, 3dfx um verhängnis.
jetzt haben wir ein monopol von nvidia die die nächsten 2 jahre nach und nach nur 3dfx bzw. gigapixeltechnologie ausschlahten werden und die vermeintlichen sensationellen neuheiten zu einem horrenden preis verkaufen werden.
die 2 konkurrenten ati und st sind zwar ganz nett, haben aber nicht das potential nvidia vom thron zu stürzen.
die 2 grössten hoffnungsträger sind aber die bitboys die die erste wirkliche revolution seit dem voodoo graphics auf den markt bringen könnten sowie vielleicht via mit der aufgekauften technologie von s3.

Unregistered
2001-10-30, 14:20:05
achso ja,
diejenigen die mal wieder überhaupt keine ahnung haben werden sofort wieder laut loslachen,
aber die 0,01% die etwas davon verstehen wissen was ich meine,
denn s3 war nicht so schlecht wie es ihre letzten entwicklungen aussehen liessen.

Unregistered
2001-10-30, 14:30:36
Originally posted by Unregistered
an den äusserungen vieler personen merkt man wie wenig ahnung sie eigentlich von allem haben!!!
3dfx war doch die firma die den ersten 3d beschleuniger auf den markt brachte (wenn man von dem lächerlichen nv1 mal absieht).
und auf dieser seite gibt es doch einen artikel über das ach so tolle dx7 t&l. das könnt ihr euch doch an den hut stecken.
der t-buffer von 3dfx war doch die wirkliche revolution.
dx7 t&l ist ein mist und der t-buffer ein grosser schritt hin zum photorealistischen rendering.
die sli technologie von 3dfx war es doch die einzig sinvolle methode die bandbriete weiter zu erhöhen. nvidia weiss mit ihrer herkömmlichen methode der erhöhung des speichertaktes einfach nichtmehr weiter, warum hätten sie sonst die taktung der gf3 serie künstlich so niedrig gehalten???
und welcher geometrieprozessor war denn so fortschrittlich, der externe sage von 3dfx natürlich.
und ich will garnicht wissen wie nvidia ausgesehen hätte wenn 3dfx ihren chip mit der gigapixel technologie verschmolzen hätte (das wäre im übrigen gerade jetzt der fall gewesen).
ein prototyp von gigapixel deklassierte doch schon mit nur um die 150mhz chip- bzw. speichertakt und sdr sdram ihre gefroce konkurrenz.
hätte 3dfx ihren zeitplan eingehalten wären sie doch unangefochtener grafikmeister, denn schon voodoo3 war nie geplant, doch aufgrund vieler verspätugen wurde erst die voodoo3 und dann der vsa100 eingeschoben. und selbst diese hätten nvidia in grund und boden gestampft.
wie gesagt wurden die vielen verspätungen, und aber auch nur diese, 3dfx um verhängnis.
jetzt haben wir ein monopol von nvidia die die nächsten 2 jahre nach und nach nur 3dfx bzw. gigapixeltechnologie ausschlahten werden und die vermeintlichen sensationellen neuheiten zu einem horrenden preis verkaufen werden.
die 2 konkurrenten ati und st sind zwar ganz nett, haben aber nicht das potential nvidia vom thron zu stürzen.
die 2 grössten hoffnungsträger sind aber die bitboys die die erste wirkliche revolution seit dem voodoo graphics auf den markt bringen könnten sowie vielleicht via mit der aufgekauften technologie von s3.

Genau meine Meinung, danke, dass ich nicht so viel schreiben muss ;).
Der größte Fehler von 3dfx war eindeutig, dass sie den Rampage nie zur Serienreife gebracht haben, eigentlich hätte der schon nach der Voodoo2 rauskommen sollen. Stattdessen mussten sie immer wieder ihren ersten Voodoo Chip verbessern, um noch halbwegs mithalten zu können. Außerdem kam noch dazu, dass die meisten Leute auf die ganze TnL Propaganda reingefallen sind und der TBuffer von 3dfx somit kaum Beachtung gefunden hat.

Razor
2001-10-30, 14:30:54
Hier nochmal was, von jemanden der keine Ahnung (aber 'ne Voodoo2 im Zweirechner stecken) hat:

Schwerwiegende Fehler von 3dfx:
- einseitige Ausrichtung der Treiber auf Gamer
- Nicht-Erfüllung der eigenen Release-Aussagen
- Release von 'Zwischenprodukten'
- SLI mit 4 Chips konnte nicht zum Laufen gebracht werden
- Probleme bei der Entwicklung neuer Chips
- Top-Karten waren durch zu aufwendige Implementierung zu teuer (trotzdem schlechte Gewinnspanne)
- Gier, die dazu führte, die OEM's auszuschließen, um selber den Reibach zu machen
- Mißmangement in der Geschäftsführung
usw. usf. ...

Hab' ich irgendwas vergessen ?

Und sie wurden nicht geschluckt, sondern sie sind Pleite gegangen.
nVidia hat nur die lohnenswerten 'Reste' gekauft, mehr nicht...

In diesem Sinne

Razor

aths
2001-10-30, 14:58:13
"auch fand ich die letzten karten nicht mehr ganz so gut, irgendwie am kunden vorbeigedacht."

Ich fand die letzten Karten sehr gut. Denn sie boten Anti-Aliasing. Das ist jetzt eine Frage der persönlichen Einstellung: FSAA wünschte ich mir schon immer. Und 3dfx hat die in meinen Augen erste vernünftige Lösung gebracht. Bei mir hatten sie somit wieder einen dicken Pluspunkt. Hinzu kommt FXT1. Was ich dem VSA allerdings ankreide ist fehlendes Loopback und fehlendes vernünftiges Bumpmapping.

Haarmann
2001-10-30, 15:06:43
Das Ableben von 3dfx kann man eigentlich in einem Wort ausdrücken - Alex Leupp - ich denke mal der Mann kann ned besonders gut gewesen sein, dass man ihn nach nur 11 Monaten bei ChipExpress so einfach gehen liess...
Unter ihm wurde ausm fast Turnaround von Greg Ballard (es ging wieder aufwärts) innert kurzer Zeit der Umsatz gedrittelt und die Ausgaben verdoppelt... Und das obwohl die durchschnittliche 3dfx Karte wohl teurer wurde.
Leupp verzögerte und stoppte die absolut einwandfrei funktionierende V5 6000 ... (es gibt 50 V5 6000 und niemand hat je nen Problem damit gefunden ...)
Leupp liess die Gigapixel GP1 ned in Serie gehen ...
Leupp liess TV Karten bauen ...
Leupp liess an nutzlosen Messen tig Millionen liegen ...
Leupp hat einen Lagerbestand an Voodookarten aufgebaut, der noch bis Heute reicht.

Mit solchen Entscheidungen ruiniert man auch NVidia in kurzer Zeit.
Denken wir nur an die Verluste durch Überproduktion, die Cisco erlitten hat...

Matrix316
2001-10-30, 15:10:47
Bis zum 128er hat man über nvidia gelacht, bis zum Athlon hat man über AMD gelacht und bis zur Radeon hat man mehr oder weniger über ATI gelacht...und heute lachen wir eben über 3DFx weil sie es eben nicht geschafft haben 32 Bit zu integrieren als es Zeit war...(naja paar andere Sachen ham sie auch noch verbockt)...

Über Cyrix wurde z.B. immer gelacht - es wird eben immer über die gelacht die schlecht sind.:D

aths
2001-10-30, 15:13:32
"der t-buffer von 3dfx war doch die wirkliche revolution.
dx7 t&l ist ein mist und der t-buffer ein grosser schritt hin zum photorealistischen rendering."

Das sehe ich nicht ganz so krass. Transformation in dedizierter Hardware kann Sinn machen. Es ist aber halt "nur" CPU-Entlastung, während mit dem T-Buffer völlig neue Effekte möglich sind. Beide Sachen sind auf explitite Unterstützung angewiesen (Ausnahme natürlich FSAA via T-Buffer)

Razor:

"Schwerwiegende Fehler von 3dfx:
- einseitige Ausrichtung der Treiber auf Gamer"

Für mich kein Fehler. Im Gegenteil, die Konzentration auf das Zocker-Segment bei gleichzeitig guten 2D-Eigenschaften halte ich für richtig. Da kann "ow" noch so schreien. Der normale Gamer braucht keine komplette OpenGL ICD.

"- Nicht-Erfüllung der eigenen Release-Aussagen"

Ist anderen auch passiert.

"- Release von 'Zwischenprodukten'"

Wo ist da der Fehler?

"- SLI mit 4 Chips konnte nicht zum Laufen gebracht werden"

Konnte, wurde aber zu teuer. Die Voodoo2 konnte bis zu 3 TMUs haben und SLI laufen. Das wären 6 TMUs auf einer Karte, so viel wie im Radeon7500. Die Voodoo-Architektur war meines Erachtens konsequent auf zukunftsfähigkeit auslegt.

"- Probleme bei der Entwicklung neuer Chips"

Probleme gibts immer. Bei 3dfx waren einige hausgemacht (alte Designtools benutzt etc.)

"- Top-Karten waren durch zu aufwendige Implementierung zu teuer (trotzdem schlechte Gewinnspanne)"

Teuer? Naja, sie verbauten nur Standard-HW, wenn auch ein bisschen massiver. Sie wählten eher den preiswerteren Weg, im Gegensatz zu nVidia.

"- Gier, die dazu führte, die OEM's auszuschließen, um selber den Reibach zu machen"

Ja, gut gedacht, schlecht gemacht. Es hätte klappen können, aber letzlich wären sie besser beraten gewesen, weiterhin als Chipproduzent für andere aufzutreten.

"- Mißmangement in der Geschäftsführung"

Dort auch, aber nicht nur. Meiner Meinung waren waren die Ingenieure von 3dfx genauso exzellent wie die von nVidia. (Kein Wunder, die meisten kennen sich ja von früher.) Sie waren durch den ungeheuren Erfolg der Voodoo-Serie aber zu siegesgewiss. Während nVidia lange Zeit als ewig Zweiter hinter hechelte und entsprechenden Siegeswillen mit sich brachte. Dementsprechend der aggressive Markt-Auftritt, der für nVidia letztlich erfolgreich war.


Und noch ein Gedanke: Auch die GeForce3 ist letzlich eine Voodoo. Die Voodoo-Architektur ist im Grundkonzept (Kyro mal ausgenommen) in allen erhältlichen 3D-Chips drin. 3dfx hinterliess als Vermächnis eine bis heute brauchbare 3D-Beschleunigungs-Architektur.

Legolas
2001-10-30, 15:21:37
Originally posted by aths

Und noch ein Gedanke: Auch die GeForce3 ist letzlich eine Voodoo. Die Voodoo-Architektur ist im Grundkonzept (Kyro mal ausgenommen) in allen erhältlichen 3D-Chips drin. 3dfx hinterliess als Vermächnis eine bis heute brauchbare 3D-Beschleunigungs-Architektur.

Und die stammt aber allerdings auch nur von SGI... denn da kommen sie alle her.. Nvidia wie 3Dfx..

Kai
2001-10-30, 15:26:22
Originally posted by Unregistered
an den äusserungen vieler personen merkt man wie wenig ahnung sie eigentlich von allem haben!!!
3dfx war doch die firma die den ersten 3d beschleuniger auf den markt brachte (wenn man von dem lächerlichen nv1 mal absieht).
und auf dieser seite gibt es doch einen artikel über das ach so tolle dx7 t&l. das könnt ihr euch doch an den hut stecken.
der t-buffer von 3dfx war doch die wirkliche revolution.
dx7 t&l ist ein mist und der t-buffer ein grosser schritt hin zum photorealistischen rendering.
die sli technologie von 3dfx war es doch die einzig sinvolle methode die bandbriete weiter zu erhöhen. nvidia weiss mit ihrer herkömmlichen methode der erhöhung des speichertaktes einfach nichtmehr weiter, warum hätten sie sonst die taktung der gf3 serie künstlich so niedrig gehalten???
und welcher geometrieprozessor war denn so fortschrittlich, der externe sage von 3dfx natürlich.
und ich will garnicht wissen wie nvidia ausgesehen hätte wenn 3dfx ihren chip mit der gigapixel technologie verschmolzen hätte (das wäre im übrigen gerade jetzt der fall gewesen).
ein prototyp von gigapixel deklassierte doch schon mit nur um die 150mhz chip- bzw. speichertakt und sdr sdram ihre gefroce konkurrenz.
hätte 3dfx ihren zeitplan eingehalten wären sie doch unangefochtener grafikmeister, denn schon voodoo3 war nie geplant, doch aufgrund vieler verspätugen wurde erst die voodoo3 und dann der vsa100 eingeschoben. und selbst diese hätten nvidia in grund und boden gestampft.
wie gesagt wurden die vielen verspätungen, und aber auch nur diese, 3dfx um verhängnis.
jetzt haben wir ein monopol von nvidia die die nächsten 2 jahre nach und nach nur 3dfx bzw. gigapixeltechnologie ausschlahten werden und die vermeintlichen sensationellen neuheiten zu einem horrenden preis verkaufen werden.
die 2 konkurrenten ati und st sind zwar ganz nett, haben aber nicht das potential nvidia vom thron zu stürzen.
die 2 grössten hoffnungsträger sind aber die bitboys die die erste wirkliche revolution seit dem voodoo graphics auf den markt bringen könnten sowie vielleicht via mit der aufgekauften technologie von s3.


hätten, hätten, hätten, hätten ... hätte ich damals meine Ex-Freundin nicht bei nem anderen Kerl erwischt, wär ich wohl immernoch mit ihr zusammen.

Razor
2001-10-30, 15:32:39
@aths
Das sehe ich nicht ganz so krass. Transformation in dedizierter Hardware kann Sinn machen. Es ist aber halt "nur" CPU-Entlastung, während mit dem T-Buffer völlig neue Effekte möglich sind. Beide Sachen sind auf explitite Unterstützung angewiesen (Ausnahme natürlich FSAA via T-Buffer)
Multisampling braucht keine explizite Unterstützung...
(zumindest keine GraKa-Spezifische)
- einseitige Ausrichtung der Treiber auf Gamer"

Für mich kein Fehler. Im Gegenteil, die Konzentration auf das Zocker-Segment bei gleichzeitig guten 2D-Eigenschaften halte ich für richtig. Da kann "ow" noch so schreien. Der normale Gamer braucht keine komplette OpenGL ICD.
Leute denen Universalität am Herzen lag, wurden von den Kopf gestoßen und der reine Gamer-Markt ist zu klein...
"- Nicht-Erfüllung der eigenen Release-Aussagen"

Ist anderen auch passiert.
Aber doch nicht so...
(außer den Bitboy's vielleicht)
;-)
"- Release von 'Zwischenprodukten'"

Wo ist da der Fehler?
Etwas heraus zu bringen, nur um etwas heraus zu bringen kann nicht gut sein.
"- SLI mit 4 Chips konnte nicht zum Laufen gebracht werden"

Konnte, wurde aber zu teuer. Die Voodoo2 konnte bis zu 3 TMUs haben und SLI laufen. Das wären 6 TMUs auf einer Karte, so viel wie im Radeon7500. Die Voodoo-Architektur war meines Erachtens konsequent auf zukunftsfähigkeit auslegt.
Warum hat Quantum dann eine eigenen SLI-Technik entwickelt ?
(und eben nicht die von 3dfx benutzt ?)
"- Probleme bei der Entwicklung neuer Chips"

Probleme gibts immer. Bei 3dfx waren einige hausgemacht (alte Designtools benutzt etc.)
Aber keine, die sich nicht lösen ließen...
(außer bei den BitBoys vielleicht ;-)
Vor allem dann im Prinzip 'unfertige' Zwischenlösungen heraus zu bringen, ist wirtschaftlicher Wahnsinn.
"- Top-Karten waren durch zu aufwendige Implementierung zu teuer (trotzdem schlechte Gewinnspanne)"

Teuer? Naja, sie verbauten nur Standard-HW, wenn auch ein bisschen massiver. Sie wählten eher den preiswerteren Weg, im Gegensatz zu nVidia.
Preiswerter, als nVidia ?
Ich bitte dich !
"- Gier, die dazu führte, die OEM's auszuschließen, um selber den Reibach zu machen"

Ja, gut gedacht, schlecht gemacht. Es hätte klappen können, aber letzlich wären sie besser beraten gewesen, weiterhin als Chipproduzent für andere aufzutreten.
Klar, hätte klappen können...
Und deswegen geht ATI ja jatzt auch genau den umgekehrten Weg !
"- Mißmangement in der Geschäftsführung"

Dort auch, aber nicht nur. Meiner Meinung waren waren die Ingenieure von 3dfx genauso exzellent wie die von nVidia. (Kein Wunder, die meisten kennen sich ja von früher.) Sie waren durch den ungeheuren Erfolg der Voodoo-Serie aber zu siegesgewiss. Während nVidia lange Zeit als ewig Zweiter hinter hechelte und entsprechenden Siegeswillen mit sich brachte. Dementsprechend der aggressive Markt-Auftritt, der für nVidia letztlich erfolgreich war.
nVidia war ein Newcomer zu dieser Zeit und die haben keine andere Wahl, als zu hecheln...
Aber mittlerer Weile haben sie einen eigenen Weg und andere hecheln hinterher...

Die Ingeneure waren hervrragend, aber jeder ist immer nur so gut, wie es zugelassen wird. Und wenn die Motivation fehlt, sieht's halt schlecht mit guter Qualität und effizienter Arbeit aus...
Und noch ein Gedanke: Auch die GeForce3 ist letzlich eine Voodoo. Die Voodoo-Architektur ist im Grundkonzept (Kyro mal ausgenommen) in allen erhältlichen 3D-Chips drin. 3dfx hinterliess als Vermächnis eine bis heute brauchbare 3D-Beschleunigungs-Architektur.
Auch die Voodoo-Architektur besierte auf SGI-Renderern. 3dfx hat es nur als erstes geschafft, dieses für den Nicht-Professionellen Bereich verfühbar zu machen. Und ganz klar, wird 3dfx auch immer der Pionier bleiben und deswegen auch nicht vergessen werden.

Und die gf3 hat schlicht Nichts mehr mit damaligen Voodoo-Karten gemein. Als Voodoo4/5 auf den markt kamen, gab's schon lange 32-Bit Karten von nVidia und auch die gfddr hatte schon das Licht der Welt erblickt. Die Ansätze sind Grundverschieden, was ja auch dazu führte, daß es zu einem Entweder-Oder kam und viele sich dann halt für nVidia entschieden haben.

Klar, alle (Nicht-Tiler) sind klassische SGI-Renderer, aber der Umkehrschluß, daß die NV-Karten auf 3dfx-Technik basieren ist schlicht nicht zulässig, nur weil 3dfx früher dran war...
(Schon mal was von Patent-Schutz gehört ?)

In diesem Sinne

Razor

P.S.: Sie waren die Pioniere, aber was sie zum Schluß gemacht haben, war ziemlicher Schrott !

Unregistered
2001-10-30, 15:38:52
das hab ich mir ja schon gedacht.
aber es sind DOCH alles fakten!!!
und alle "hätte" beziehen sich doch nur auf den nicht eingehaltenen zeitplan.
3dfx war und bleibt die beste grafikkartenfirma aller zeiten.
sie entwickelten die besten technologien und scheiterten nur an ihrem nie eingehalenen zeitplan.

Kai
2001-10-30, 15:47:34
Originally posted by Unregistered
das hab ich mir ja schon gedacht.
aber es sind DOCH alles fakten!!!
und alle "hätte" beziehen sich doch nur auf den nicht eingehaltenen zeitplan.
3dfx war und bleibt die beste grafikkartenfirma aller zeiten.
sie entwickelten die besten technologien und scheiterten nur an ihrem nie eingehalenen zeitplan.

Tja, auch scheduling will gelernt sein. Wer zu doof dafür ist, muss sterben, so ist das nunmal - friss oder stirb! Glaubst Du, nur weil "3Dfx" draufstand, hätten alle Gläubiger die Hand in die Luft gehoben und "Halleluja, wir lieben euch - versucht's einfach nochmal - und nochmal - und nochmal" geschrien?

3Dfx sind an ihrer Geldgier erstickt, sieh's ein.

Haarmann
2001-10-30, 16:04:49
Mag sein, dass 3dfx ned immer im Plan lag... immerhin hatte es 3dfx ned nötig übertaktete Grakas an Tomshardware zu schicken für nen möglichst gutes Preview... (TnT2 U)
Immerhin kündeten 3dfx keine Specs an, die dann erst die Nachfolgekarte(Chip) einhalten konnte... (TnT Specs)

Wie haben doch alle im 3dconcept Forum gelacht, als man hörte, ein Rampage habe nur "lächerliche" 800MPix und 1.6MTex Füllrate - das is ja ned mehr als ne GTS höhnten die alle... GF3 wird alles wegfegen usw...
OK, die GF3 hat alles weggefegt (setzten sich also an die Spitze) und das mit genau 800MPix und 1.6MTex...
Da hätte ich doch echt zu gerne mal ne 2 Rampage/Sage Karte laufen gesehen... Hätte nur interessant sein können...

P.S. Ohne HW T+L ist ein kompletter ICD so sinnvoll wie Zahnschmerzen...

Ceiser Söze
2001-10-30, 16:20:29
@Haarmann

Leupp liess die Gigapixel GP1 ned in Serie gehen
Von einem Prototypen zur Marktreife dauert es länger als man denkt. Man hätte GP1 nicht in wenigen Monaten auf den Markt bringen können. Das Ganze war mehr ein erstes Rohdesign als ein funktionierender Chip. Womöglich fehlten noch wichtige Features etc.

Leupp liess TV Karten bauen ...
Die VoodooTV war eigentlich mehr ein praktisch kostenloses Extra. Hier wurden wohl kaum Ressourcen verschwendet - die Technologie hatte man bereits durch den STB-Aufkauf ergattert, also wieso sie nicht zu Geld machen? Leider reichte es natürlich nicht...

Leupp liess an nutzlosen Messen tig Millionen liegen ...
Das war klar ein Fehler, aber eben auch eine Verzweiflungstat...

Leupp hat einen Lagerbestand an Voodookarten aufgebaut, der noch bis Heute reicht.
So einfach ist das nicht: Der Grund darin liegt bei den eingekauften Fabs. Fabs sind teuer und risikoreich. Sie müssen rund um die Uhr laufen, da sonst nur noch mehr Geld aus dem Fenster geschmissen wird - und davon kommt auch der viel zu hohe Lagerbestand. Und der sinkende Marktanteil erledigte der Rest: Die Lagerbestände stiegen nur noch mehr an. Und damit stiegen die Lagerkosten usw... Ein Teufelskreis halt...

Leupp kann man eigentlich nur vorwerfen, dass er nicht schnell genug reagiert und gleich bei seinem Antritt grosse Veränderungen vorgenommen hat. Die Fab in Mexico wollte er z.B. erst verkaufen, als es bereits zu spät war. Aber eigentlich ist man sich überall einig, dass der Hauptfehler klar bei Ballard und nicht bei Leupp liegt: Mit dem STB-Aufkauf und dem V5-Desaster manövrierte man sich bereits 1999 ins Abseits - sinkende Margen und höhere Kosten durch die Fabs erledigten die Firma. Hätte Leupp etwas drastischere Massnahmen ergriffen, hätte er die Firma vielleicht noch einmal retten können. Lässt sich eigentlich ganz gut mit dem Swissair-Debakel vergleichen. Der Sanierungsplan ist auch dort in die Hose gegangen, weil man zu lange gezögert hat und immer noch an die Macht des Markennamens glaubte... :)

Pengo
2001-10-30, 18:11:31
Originally posted by Haarmann
Pengo, wenn OpenGL soooo viel besser is als Glide, wie kann man denn bei 3dfx Karten OpenGL auf Glide3 wrappen?
3dfx haben viele neue Features gebracht, ihr lacht über den 22bit Filter, aber würdet ihr auch über nen 40 Bit Filter lachen?

Man kann alles auf alles wrappen (sogar Direct3D auf Glide was 3DFX durch Klagen gegen die Programmierer zu verhindern versuchte) - nur mit welchen Erbebnis. Wie willst du z.B. 32Bit OpenGL auf Glide wrappen ohne drastischen Qualitätsverlust? Es spielt keine Rolle was ich würde (obwohl ich einen Filter der alles blurrt grundsätzlich ablehne), Glide hatte nicht mal so einfache Sachen wie 32Bit oder große Texturen, also sollte die ganze Geschichte schnell vergessen werden.

Pengo
2001-10-30, 18:15:37
Originally posted by aths
"auch fand ich die letzten karten nicht mehr ganz so gut, irgendwie am kunden vorbeigedacht."

Ich fand die letzten Karten sehr gut. Denn sie boten Anti-Aliasing. Das ist jetzt eine Frage der persönlichen Einstellung: FSAA wünschte ich mir schon immer. Und 3dfx hat die in meinen Augen erste vernünftige Lösung gebracht. Bei mir hatten sie somit wieder einen dicken Pluspunkt. Hinzu kommt FXT1. Was ich dem VSA allerdings ankreide ist fehlendes Loopback und fehlendes vernünftiges Bumpmapping.

Fehlende anisotrope Filterung und die Langsamkeit des Chips waren die größten schwächen. Es war traurig daß 3Dfx mit 2 Chips einen einzigen NVidia Chip nicht schlagen konnte. Dadurch war es schon klar daß 3DFX am Ende ist, obwohl die Pleite an sich seit Jahren vorhersehbar war.

Pengo
2001-10-30, 18:19:10
Originally posted by Unregistered
das hab ich mir ja schon gedacht.
aber es sind DOCH alles fakten!!!
und alle "hätte" beziehen sich doch nur auf den nicht eingehaltenen zeitplan.
3dfx war und bleibt die beste grafikkartenfirma aller zeiten.
sie entwickelten die besten technologien und scheiterten nur an ihrem nie eingehalenen zeitplan.

Mit Wartburg vergleichbar - wenn sie nur andere Produkte rausbegracht hätten, dann würden sie noch heute mit Audi und Mercedes konkurrieren :)

Pengo
2001-10-30, 18:20:37
Originally posted by Ceiser Söze
@Haarmann

Leupp liess die Gigapixel GP1 ned in Serie gehen
Von einem Prototypen zur Marktreife dauert es länger als man denkt. Man hätte GP1 nicht in wenigen Monaten auf den Markt bringen können. Das Ganze war mehr ein erstes Rohdesign als ein funktionierender Chip. Womöglich fehlten noch wichtige Features etc.

Genau, Microsoft hat Gigapixel nachträglich den Laufpass gegeben also hat damit wohl etwas nicht gestimmt.

Labberlippe
2001-10-30, 18:34:22
Originally posted by Pengo


Man kann alles auf alles wrappen (sogar Direct3D auf Glide was 3DFX durch Klagen gegen die Programmierer zu verhindern versuchte) - nur mit welchen Erbebnis. Wie willst du z.B. 32Bit OpenGL auf Glide wrappen ohne drastischen Qualitätsverlust? Es spielt keine Rolle was ich würde (obwohl ich einen Filter der alles blurrt grundsätzlich ablehne), Glide hatte nicht mal so einfache Sachen wie 32Bit oder große Texturen, also sollte die ganze Geschichte schnell vergessen werden.

Und dennoch rennt D3D/OpenGL bei UT sowhl grafisch als auch Performancemässig nach.

Gruss Labberlippe

Labberlippe
2001-10-30, 18:35:15
Originally posted by Pengo


Genau, Microsoft hat Gigapixel nachträglich den Laufpass gegeben also hat damit wohl etwas nicht gestimmt.

Nachträglich rofl

Gruss Labberlipe

Labberlippe
2001-10-30, 18:36:44
Originally posted by Pengo


Mit Wartburg vergleichbar - wenn sie nur andere Produkte rausbegracht hätten, dann würden sie noch heute mit Audi und Mercedes konkurrieren :)

noch nie eine V5 gehabt was?

T-Buffer war genial, aber Ihr dürft euch über den FSAA rückschritt erfreuen, ist auch was.

Gruss Labberlippe

Labberlippe
2001-10-30, 18:38:38
Originally posted by Pengo


Man kann alles auf alles wrappen (sogar Direct3D auf Glide was 3DFX durch Klagen gegen die Programmierer zu verhindern versuchte) - nur mit welchen Erbebnis. Wie willst du z.B. 32Bit OpenGL auf Glide wrappen ohne drastischen Qualitätsverlust? Es spielt keine Rolle was ich würde (obwohl ich einen Filter der alles blurrt grundsätzlich ablehne), Glide hatte nicht mal so einfache Sachen wie 32Bit oder große Texturen, also sollte die ganze Geschichte schnell vergessen werden.

Der einzige der meineswissens nach eine Klage bekommen hat.
War Ceative und diese verbauten 3dfx Chips somit durften sie laut Verträge (vermutung meinerseits) sicher keinen Glide Wrapper anbieten.
Die privaten wurden in Ruhe gelassen.

Gruss Labberlippe

Ceiser Söze
2001-10-30, 18:42:16
Originally posted by Pengo

Genau, Microsoft hat Gigapixel nachträglich den Laufpass gegeben also hat damit wohl etwas nicht gestimmt.

Das lag nicht an Gigapixel sondern am extremen Lobbying, das nVidia betrieben hat, um an den XBox-Deal zu kommen. Microsoft stand vor der Entscheidung "Kosten vs. Risiko" - Gigapixel war ein Risikofaktor, da das Unternehmen ein kleiner StartUp war, nVidia verlangte dagegen viel mehr Geld. Am Ende entschied man sich für nVidia (in meinen Augen ein Fehlentscheid, wenn man nun betrachtet, wie teuer die XBox ist und wieviel Verlust MS zudem noch pro Gerät macht).
Hätte Microsoft bereits von dem 3dfx/Gigapixel-Deal gewusst, wäre es vielleicht anders herausgekommen (3dfx wollte Gigapixel ja zuerst nicht aufkaufen, sondern die Technologie nur lizenzieren - erst später entschied man sich für eine Übernahme).

Razor
2001-10-30, 18:50:40
Originally posted by Labberlippe


Und dennoch rennt D3D/OpenGL bei UT sowhl grafisch als auch Performancemässig nach.

Gruss Labberlippe
Das Game ist für GLIDE geschrieben worden !
Erst nachträglich wurde D3D (*würg* OpenGL) implementiert...

Würde man speziell auf S3 Virge 64+ optimieren, hätten die anderen Kontrahenten (auch 3dfx ;-) das Nachsehen !

Gott sei dank, ist damit jetzt Schluß !
(jeah und U2 wird auf 3dfx dann nicht mehr sonderlich dolle laufen, zumindest nicht besser, als auf jeder anderen Karte auch)
;-)

In diesem Sinne

Razor

Labberlippe
2001-10-30, 18:59:55
Originally posted by Razor

Das Game ist für GLIDE geschrieben worden !
Erst nachträglich wurde D3D (*würg* OpenGL) implementiert...

Würde man speziell auf S3 Virge 64+ optimieren, hätten die anderen Kontrahenten (auch 3dfx ;-) das Nachsehen !

Gott sei dank, ist damit jetzt Schluß !
(jeah und U2 wird auf 3dfx dann nicht mehr sonderlich dolle laufen, zumindest nicht besser, als auf jeder anderen Karte auch)
;-)

In diesem Sinne

Razor

Komisch wenn die Games auf nv geschrieben sind wird gejubelt.
Böser 3dfx hat gezeigt, das mit wenig Hardware auch mehr geht.

Gruss Labberlippe

Razor
2001-10-30, 19:04:14
Böser 3dfx hat gezeigt daß es nur auf 3dfx-Hardware vernünftig geht...
(oder kann mar gar net mit Matrox, ATI, ImgTech und co. spielen, obwohls auf NV geproggt wurde ?)
;-)

In diesem Sinne

Razor

Labberlippe
2001-10-30, 19:07:32
Originally posted by Razor
Böser 3dfx hat gezeigt daß es nur auf 3dfx-Hardware vernünftig geht...
(oder kann mar gar net mit Matrox, ATI, ImgTech und co. spielen, obwohls auf NV geproggt wurde ?)
;-)

In diesem Sinne

Razor

Kann man UT auch nicht auf andere Karten spielen?

Gruss Labberlippe

Labberlippe
2001-10-30, 19:09:03
Übrigens U9 geht auch auf Kyro und ATi Karten. :-)

heheh ok der war unfair.

Gruss Labberlippe

Razor
2001-10-30, 19:13:55
U9 ?
*kreisch*
*lauf amok*
*randalier*

Puh, das tat gut !
;-)

In diesem Sinne

Razor

P.S.: Die UT-Programmierer mußte sich ja was einfallen lassen, da 3dfx nun von dannen ist...
(aber es läuft noch immer nicht so, wie es könnte)
;-)

Schon mal UT auf Radeon8500 gesehen ?
UT ist zwar besser als U9, aber immer noch ein Relikt !
(bald isses genauso futsch wie 3dfx)

Warum woul U2 kein GLIDE mehr unerstützt ?
Komisch....

Labberlippe
2001-10-30, 19:20:16
Originally posted by Razor
U9 ?
*kreisch*
*lauf amok*
*randalier*

Puh, das tat gut !
;-)

In diesem Sinne

Razor

P.S.: Die UT-Programmierer mußte sich ja was einfallen lassen, da 3dfx nun von dannen ist...
(aber es läuft noch immer nicht so, wie es könnte)
;-)

Schon mal UT auf Radeon8500 gesehen ?
UT ist zwar besser als U9, aber immer noch ein Relikt !
(bald isses genauso futsch wie 3dfx)

Warum woul U2 kein GLIDE mehr unerstützt ?
Komisch....

Kleiner Gag seitens von Dir Du Schelm.
Hmm weil der Tom sich plötzlich in Nv verliebt hat.
In meine Augen rennt Glide um einiges flüssiger als D3D.
Teste mal ein game auf Glide und das selbe in D3D.
Bei D3D merkt man mehr zwischenruckler.
Egal bei welchen Game.

Übrigens UT sieht mit einer Radeon auch Top aus.
Aber 32 Bit ist sicher notwendig, bei Glide ndurch Postfilter nicht unbedingt.
PS: ATi hat ne nett Funktion zieht gut bei 16 Bit.
Fehler Diffusion Dithering
geordnetes Dithering
Dithering deaktivieren.


Gruss Labberlippe

Razor
2001-10-30, 19:25:22
Bei mir ruckelt nichts !

Auch lüft bei mir UT auch in 32-Bit flüssig...
Aber ich muß FSAA abschalten (zumindest runter schalten, damit's auch flüssig bleibt !
Und an mein 32-tap aniso laß ich nichts dran...

Soll ich mal benchen ?

Nein ? Schon gut, ich laß es dann auch...
;-)

Razor

aths
2001-10-30, 19:26:00
Razor, ich weiss nicht, was mit dir los ist. Du hast vor einigen Tagen irgendwie weniger, aber deutlich sinnvolleres Zeug geschrieben. Wenn du vom Trip runter bist, antworte ich auch auf deine lange Antwort.

aths
2001-10-30, 19:26:38
Pengo: "Fehlende anisotrope Filterung und die Langsamkeit des Chips waren die größten schwächen. Es war traurig daß 3Dfx mit 2 Chips einen einzigen NVidia Chip nicht schlagen konnte. Dadurch war es schon klar daß 3DFX am Ende ist, obwohl die Pleite an sich seit Jahren vorhersehbar war."

Die Zahl der Chips spielt keine Rolle. Der VSA war als SLI-System konzipiert. Die V5 kann die GTS je nach Spiel (U9 mal aussen vor) und CPU sehr wohl schlagen.

Razor
2001-10-30, 19:30:43
@aths

Du mußt nicht antworten, wenn Du nicht willst !
Jeder soll tun, was er will...
;-)

Aber habe ich Dich irgendwie verägert ?
Hmmm... Egal !

V5 schlägt GTS ?
Vice versa !
;-)

Razor

aths
2001-10-30, 19:49:45
> Multisampling braucht keine explizite Unterstützung...

Ich redete von T&L vs. T-Buffer.

> Leute denen Universalität am Herzen lag, wurden von den Kopf gestoßen und der reine Gamer-Markt ist zu klein...

Das ist deine Meinung.

> Etwas heraus zu bringen, nur um etwas heraus zu bringen kann nicht gut sein.

Geld verdienen.

> Warum hat Quantum dann eine eigenen SLI-Technik entwickelt ?

Frag sie. Es gibt 3dfx V5 6000. Die funktionieren.

> Vor allem dann im Prinzip 'unfertige' Zwischenlösungen heraus zu bringen, ist wirtschaftlicher Wahnsinn.

Welche "unfertigen" Lösungen sprichst du an?

> Preiswerter, als nVidia ?

Zumindest nicht teurer.

> Klar, hätte klappen können... Und deswegen geht ATI ja jatzt auch genau den umgekehrten Weg !

Vor dem Schreiben bitte Gehirn einschalten. Was ich vorschlug war, dass 3dfx einerseits Karten selbst produziert und andererseits nach wie vor Chips liefert. Dass ATI zum Chipproduzenten wird ist ein Beispiel und widerlegt nicht die Meinung, dass es mit STB hätte klappen können.

> nVidia war ein Newcomer zu dieser Zeit und die haben keine andere Wahl, als zu hecheln...

nVidia war vor 3dfx da.

> Und die gf3 hat schlicht Nichts mehr mit damaligen Voodoo-Karten gemein.

Doch. Sie verarbeitet nach einem Triangle Setup Dreiecke, die linienweise gerendert werden.

> Als Voodoo4/5 auf den markt kamen, gab's schon lange 32-Bit Karten von nVidia und auch die gfddr hatte schon das Licht der Welt erblickt.

Als ob 32 Bit eine grosse Änderung bedeutet. Intern rechneten die Voodoos auch mit 32 Bit.

> Die Ansätze sind Grundverschieden, was ja auch dazu führte, daß es zu einem Entweder-Oder kam und viele sich dann halt für nVidia entschieden haben.

Eine Renderpipeline ist vom Prinzip her immer gleich.

> Klar, alle (Nicht-Tiler) sind klassische SGI-Renderer, aber der Umkehrschluß, daß die NV-Karten auf 3dfx-Technik basieren ist schlicht nicht zulässig, nur weil 3dfx früher dran war...

nVidia versuchte mit dem NV1 einen bestimmten Weg einzuschlagen. Dann orientierten sie sich aber an dem, was 3dfx mit der Original Voodoo machte. Bin einschliesslich GF3 ist das vom Prinzip her immer das gleiche gewesen. Sie übernahmen z.B. von der Voodoo2 die Idee, mehrere Textureinheiten pro Pipeline zu integrieren.

Haarmann
2001-10-30, 19:53:03
Also ich weiss ned, wie ihr alle drauf kommt, dass der GP1 ein unfertiges Produkt war... es gab durchaus Treiber samt Karten die liefen... und das taten die verdammt schnell, wie zu vernehmen war. Die V5 6k wäre schneller gewesen und man konnte sichs wohl ned leisten 2 Treiber zu entwickeln, dafür an Messen Geld rauswerfen ;-).

3dfx hatte keine FAB für Chips, die immer laufen muss... das waren Bestückungseinheiten etc, die kannste locker für nen paar Tage abschalten.

Leupp hat einfach versagt - sonst hätten die den ned nach 11 Monaten ziehen lassen (vor 3dfx)... wenn die den gar vorher ned gefeuert haben. Leider konnte ich das ned in Erfahrung bringen.
Leupp hätte die V4 streichen sollen im Retail und dafür die GP1 bringen, samt V5 mit 2 und 4 Chips. Die Performancekrone hätte die Verkäufe sicher besser angekurbelt als jegliche dämliche Messe. Auch OEM Deals wären sicher gewesen auf die Art und Weise - dazu die quasi AIW Serie ala V3 3500.
So hatte er quasi nur 2 Produkte. Damit gewinnste nie gegen nen Konkurrenten, der 10 hat.


@Pengo, wenn ich Audi höre, dann tun mir deren Kunden leid...
Es gibt von denen ein Model, das funktionierte überhaupt ned... nach der ersten Revision funktionierte es noch immer ned... danach hat man dann doch etwas gefunden, womit man das Model knapp fahrbar machen konnte... und was tat man? Man verkaufte den Bugfix noch den Kunden und die waren grossteil so votzendämlich dass zu bezahlen...

Ich dachte immer, Glide3 sei etwas flexibler...

Razor
2001-10-31, 03:08:25
@aths

nee... lieber doch nicht...
;-)

Razor

P.S.: Gewöhn Dir einen anderen Ton an und wir können gerne wieder diskutieren, so aber nicht.

aths
2001-10-31, 04:17:57
"P.S.: Gewöhn Dir einen anderen Ton an und wir können gerne wieder diskutieren, so aber nicht."

Worte, die wachrütteln. Von einem, der den ganzen gestrigen Tag mit "gutem Beispiel" voran ging.

Echte "Glanzleistung".

dagmundna
2001-10-31, 04:20:48
Hört auf euchn zu zanken...

...ein bisschen Friede, ein bisschen Freude...

Labberlippe
2001-10-31, 05:52:38
Yeah gibt es euch macht euch fertig.

:wink:

Was ist den mit euch los?
Nur zur Info: Wir reden hier über Grakas!

Der Optimisus zu einen Produkt ist schön und Recht aber
sich deswegen auf der Husten zu haben.

Macht euch es nicht kompliziert das kommt schon von alleine im Leben. *ggggg*

Jaja die Grakas.

*rofl*

Ausser Ihr habt was Abseits diskutiert, was wir nicht mitbekommen haben.

Gruss Labberlippe

Razor
2001-10-31, 14:39:37
@Laberlippe

Nee.. wir haben nichts 'abseits' diskutiert... wenn dann nur hier im Forum.
Für mich ist dieses Thema allerdings erst mal gestorben.
:-(

Aber um auf 3dfx zurück zu kommen:

Hab gerade nochmal nachgeschaut und mußte fest stellen, daß ich gar nicht auf 32-Bit bei UT spiele...
Sorry, Laberlippe, da hat's mich hin gerissen !
;-)

Natürlich läuft UT nur unter 16-Bit flüssig, allerdings mit anisoFilter...

Somit gehen <removed> (ich sach's nicht ;-) und Unreal/UT eindeutig an 3dfx !

In diesem Sinne

Razor

aths
2001-10-31, 15:34:58
"Unreal/UT eindeutig an 3dfx !"

Du hast doch eine Voodoo2. Guck dir mal bei "Phobos" auf der Plattform ("draußen") die Monde (die herumfliegenden Brocken) an. Die sind irgendwie stimmiger beleuchtet.

Guck die mal die Textur an, die diese Sonne mit Korona und Strahlenkranz darstellt. Bei D3D sieht man deutlich die Ränder und die Farbabstufungen. Bei Glide sieht es glatter aus.

Die D3D-Umsetzung von Unreal/UT ist kein Glanzstück.

Wenn man mit einer Voodoo3/4/5 vor einer Wand steht (und hohe Qualität beim Postfiltering aktiviert hat) sieht man natürlich diese Farbränder (16 Bit halt.) Was man nicht sieht, ist das Raster. (Das sieht man dann natürlich auf dem Screenshot.) Jedenfalls ist das Raster mit Radeon oder Geforce natürlich "sehr gut" zu sehen. Das ist für die Voodoos jetzt nicht das absolute Qualitäts-Plus, aber nett auf jeden Fall :)

Labberlippe
2001-10-31, 18:10:51
Originally posted by Razor
@Laberlippe

Nee.. wir haben nichts 'abseits' diskutiert... wenn dann nur hier im Forum.
Für mich ist dieses Thema allerdings erst mal gestorben.
:-(

Aber um auf 3dfx zurück zu kommen:

Hab gerade nochmal nachgeschaut und mußte fest stellen, daß ich gar nicht auf 32-Bit bei UT spiele...
Sorry, Laberlippe, da hat's mich hin gerissen !
;-)

Natürlich läuft UT nur unter 16-Bit flüssig, allerdings mit anisoFilter...

Somit gehen <removed> (ich sach's nicht ;-) und Unreal/UT eindeutig an 3dfx !

In diesem Sinne

Razor

Siehste mit der Radeon läuft auch Bit flüssig.
Die Radeon braucht sich nicht hinter einer V5 verstecken. :-)
Wobei der 16 Bit Modus schwach aussieht, allerdings kommt der nie bei mir zum Einsatz, da 32 Bit eigentlich gleichschnell ist.

Gruss Labberlippe

Legolas
2001-10-31, 18:13:39
Originally posted by aths
Wenn man mit einer Voodoo3/4/5 vor einer Wand steht (und hohe Qualität beim Postfiltering aktiviert hat) sieht man natürlich diese Farbränder (16 Bit halt.) Was man nicht sieht, ist das Raster. (Das sieht man dann natürlich auf dem Screenshot.) Jedenfalls ist das Raster mit Radeon oder Geforce natürlich "sehr gut" zu sehen. Das ist für die Voodoos jetzt nicht das absolute Qualitäts-Plus, aber nett auf jeden Fall :)

Genau die Sichtbarkeit dieses Rasters macht eben den Unterschied zw. schlechter und guter 16Bit Qualität... Als ich das erstemal Quake3 mit ner Voodoo 3 auf dem Rechner eines Freundes gesehen habe, hab ich gedacht, er spielt in 32 Bit, weil ich von meiner TNT eine deutlich schlechtere 16-Bit Qualität gewohnt war.

Razor
2001-10-31, 18:43:19
@Laberlippe

UT unter 32-Bit fast gleichschnell ?
Wohl kaum !
Lockere 30% einbruch...
(sollte ich mal 'nen Update drauf' tun ?)

Na ja, spiele 'eh lieber Q3 !
;-)

Razor

Unregistered
2001-10-31, 18:50:30
Originally posted by Razor
@Laberlippe

UT unter 32-Bit fast gleichschnell ?
Wohl kaum !
Lockere 30% einbruch...
(sollte ich mal 'nen Update drauf' tun ?)

Na ja, spiele 'eh lieber Q3 !
;-)

Razor

Naja ein Update wird Dir nicht viel helfen.
Das HyperZ von ATi leistet ganze Arbeit.
Aber die GeForce3 müste auf alle Fälle schnell genug sein.

Gruss Labberlippe

Razor
2001-10-31, 18:54:39
So, jetzt reichts !
;-)

Ich probier das jetzt mal aus...
Bis gleich !
;-)

Razor

Pengo
2001-10-31, 19:23:33
Originally posted by Labberlippe


Nachträglich rofl

Gruss Labberlipe

Klar nachträglich, es hieß monatelang in die XBOX kommt ein Chip von Gigapixel, dann hat sich aber MS doch für NVidia entschieden, und Gigapixel war die Existenzgrundlage genommen, deshalb von 3DFX übernommen (für da 10fache den eigentlichen Wertes).

Pengo
2001-10-31, 19:25:16
Originally posted by Labberlippe


noch nie eine V5 gehabt was?

T-Buffer war genial, aber Ihr dürft euch über den FSAA rückschritt erfreuen, ist auch was.

Gruss Labberlippe

War so genial daß sich die Spieleindustrie drauf gestürzt hat. Ach ja, ich habs vergessen - die böse Weltverschwörung gegen die genialen 3DFX Produkte.

Legolas
2001-10-31, 19:30:11
Originally posted by Pengo


War so genial daß sich die Spieleindustrie drauf gestürzt hat. Ach ja, ich habs vergessen - die böse Weltverschwörung gegen die genialen 3DFX Produkte.

Für T-Buffer FSAA braucht man keine Unterstützung...

Pengo
2001-10-31, 19:34:42
Originally posted by Labberlippe


Komisch wenn die Games auf nv geschrieben sind wird gejubelt.
Böser 3dfx hat gezeigt, das mit wenig Hardware auch mehr geht.

Gruss Labberlippe

Welche Verkaufsversion eines Spieles wurde auf nv geschrieben? IMHO laufen alle Spiele auf Rage128 und TNT, bis jetzt wurde NICHTS auf nv geschrieben. Wenn dem so wäre würden alle Spiele nen ganzen Level besser aussehen, aber die Verkaufszahlen würden um 50% einsacken.

Pengo
2001-10-31, 19:37:18
Originally posted by Labberlippe


Kann man UT auch nicht auf andere Karten spielen?

Gruss Labberlippe

Ja, nur weil Epic mitten drin in der Glide-only-Entwicklung gesehen hat daß 3DFX am sinken ist und Direct3D und OpenGL Ports hinzugefügt hast, es bleibt trotzdem ein für Glide optimiertes Spiel (zum Glück eines der letzen).

Pengo
2001-10-31, 19:38:33
Originally posted by Labberlippe
Übrigens U9 geht auch auf Kyro und ATi Karten. :-)

heheh ok der war unfair.

Gruss Labberlippe

War überhaupt nicht unfair, NVidia hat es nicht eingesehen den Treiber vergewaltigen zu müssen um paar fps rauszuholen, war auch richtig so, Programmierer sollen auf Grafikkarten optimieren, nicht Treiberentwickler auf Spiele. Es gibt ja Standards.

Unregistered
2001-10-31, 19:39:25
Originally posted by Pengo


Welche Verkaufsversion eines Spieles wurde auf nv geschrieben? IMHO laufen alle Spiele auf Rage128 und TNT, bis jetzt wurde NICHTS auf nv geschrieben. Wenn dem so wäre würden alle Spiele nen ganzen Level besser aussehen, aber die Verkaufszahlen würden um 50% einsacken.

Welche Games wurde für 3dfx geschrieben?
Damals wie 3dfx am Markt gekommen ist, hat es noch keine vernünftigen API´s gegeben.
D3D 3 war nicht zu gebrauchen.
Alle Hersteller hatten mehr oder weniger eine eigene API
Rendition, 3dfx, PowerVR etc.

Besser wurde die ganze Sache natürlich mit DX 5
Allerdings war damals Glide um einiges vorraus.
Heute 3dfx den Vorwurf geben, das sie eine Eigene API hatten ist lächerlich.
nv konnte nur mit OpenGL kontern, was auch gut war. ;-)

Gruss Labberlippe

Pengo
2001-10-31, 19:42:39
Originally posted by aths
Pengo: "Fehlende anisotrope Filterung und die Langsamkeit des Chips waren die größten schwächen. Es war traurig daß 3Dfx mit 2 Chips einen einzigen NVidia Chip nicht schlagen konnte. Dadurch war es schon klar daß 3DFX am Ende ist, obwohl die Pleite an sich seit Jahren vorhersehbar war."

Die Zahl der Chips spielt keine Rolle. Der VSA war als SLI-System konzipiert. Die V5 kann die GTS je nach Spiel (U9 mal aussen vor) und CPU sehr wohl schlagen.

Natürlich spielt die Zahl der Chips eine Rolle,man stelle sich vor - Ferrari braucht 2 Motoren um an Mercedes Benz heranzukommen - die Welt hätte sich kaputtgelacht. In der Masse der Spiele ist klar eine GTS schneller, es gibt natürlich Ausnahmen, vor allem Glide Spiele.

Unregistered
2001-10-31, 19:45:22
Originally posted by Pengo


Ja, nur weil Epic mitten drin in der Glide-only-Entwicklung gesehen hat daß 3DFX am sinken ist und Direct3D und OpenGL Ports hinzugefügt hast, es bleibt trotzdem ein für Glide optimiertes Spiel (zum Glück eines der letzen).

Sorry aber das ist ein blödsinn.
Damals war die V2 brandaktuell.
Epic musste auch auf andere Rücksicht nehmen.
Es gab einiges mehr am Markt als Heute.
PowerVr, Rentition, Matrox, 3DLabs, ATi nVIDIA.
Und jeder hatte mindesten 2 Chips parat.

Schade das diese API gestorben ist, die hatte funktioniert und es wurde nicht soviel Schindluder getrieben.
OpenGL offener Standart alles schön und Recht.
Aber wenn nur nv Extension abgefragt werden und die anderen Karten aussen bleiben, bringt es auch nicht viel.
D3D ist da schon besser nur verdammt CPU lastig.

Gruss Labberlippe

Unregistered
2001-10-31, 19:46:56
Originally posted by Pengo


War überhaupt nicht unfair, NVidia hat es nicht eingesehen den Treiber vergewaltigen zu müssen um paar fps rauszuholen, war auch richtig so, Programmierer sollen auf Grafikkarten optimieren, nicht Treiberentwickler auf Spiele. Es gibt ja Standards.

Wie UT rausgekommen ist, waren die nv Treiber auch noch nicht das gelbe von Ei.
Erst mit den Deto änderte es sich stückenweisse.
Erst seit gestern eine Graka?

Gruss Labberlippe

ow
2001-10-31, 19:47:03
Originally posted by Legolas


Für T-Buffer FSAA braucht man keine Unterstützung...


... und für FSAA braucht man keinen T-Buffer.

Pengo
2001-10-31, 19:48:11
Originally posted by Labberlippe
Yeah gibt es euch macht euch fertig.

:wink:

Was ist den mit euch los?
Nur zur Info: Wir reden hier über Grakas!

Der Optimisus zu einen Produkt ist schön und Recht aber
sich deswegen auf der Husten zu haben.

Macht euch es nicht kompliziert das kommt schon von alleine im Leben. *ggggg*

Jaja die Grakas.

*rofl*

Ausser Ihr habt was Abseits diskutiert, was wir nicht mitbekommen haben.

Gruss Labberlippe

Das was aths abliefert nennst Diskuttieren? Immer wenn ihm Argumente ausgehen, und das ist oft, kommt er mit herablassenden Sprüchen daher.

Unregistered
2001-10-31, 19:53:11
Originally posted by ow



... und für FSAA braucht man keinen T-Buffer.

Für das 3dfx Verfahren (was ich weiss) schon.
Welches bedeutent besser Aussieht als das FSAA der Radeon/GeForce2.
Bei der Radeon/GeForce2 müsst Ihr auf 4fach gehen, damit diese optische anähernd den Anschluss auf 3dfx 2x halten können.
1024x768 16 Bit 2FSAA noch jedes Game auf einer V5 flüssig gezockt.

inkl. Max Payne

Quake3 mit T-Buffer Motion Blur netter Augenschmauss.
PS: Auch dafür wird der T-Buffer benötigt.
Schade das hier nicht angesetzt worden ist.

Gruss Labberlippe

Unregistered
2001-10-31, 19:54:43
Originally posted by Pengo


Das was aths abliefert nennst Diskuttieren? Immer wenn ihm Argumente ausgehen, und das ist oft, kommt er mit herablassenden Sprüchen daher.

Sein Bier nicht meins.
Wenn er meint.

*Schulterzucken*

Gruss Labberlippe

Pengo
2001-10-31, 19:55:40
Originally posted by Unregistered


Welche Games wurde für 3dfx geschrieben?
Damals wie 3dfx am Markt gekommen ist, hat es noch keine vernünftigen API´s gegeben.
D3D 3 war nicht zu gebrauchen.
Alle Hersteller hatten mehr oder weniger eine eigene API
Rendition, 3dfx, PowerVR etc.

Besser wurde die ganze Sache natürlich mit DX 5
Allerdings war damals Glide um einiges vorraus.
Heute 3dfx den Vorwurf geben, das sie eine Eigene API hatten ist lächerlich.
nv konnte nur mit OpenGL kontern, was auch gut war. ;-)

Gruss Labberlippe

Ich mache 3DFX nicht den Vorwurf eine eigene API gehabt zu haben - daß war der größte Vorteil - Rendition hatte die bessere Technik, allerdings die schlechtere API. Solange 3DFX Markführer war hatte ich kein Problem mit Glide, allerdings haben sie zu lange darauf gesetzt.

Unregistered
2001-10-31, 19:57:45
Originally posted by Pengo


Ich mache 3DFX nicht den Vorwurf eine eigene API gehabt zu haben - daß war der größte Vorteil - Rendition hatte die bessere Technik, allerdings die schlechtere API. Solange 3DFX Markführer war hatte ich kein Problem mit Glide, allerdings haben sie zu lange darauf gesetzt.

Yepp da stimme ich Dir zu.
3dfx hätte Glide in meine Augen sogar freigeben sollen.
Wäre besser gewesen.

Rendition hatte ne Top Bildqualität nur ohne die eigene APR R-Redline war der Chip leider langsam. :-(

Gruss Labberlippe

Pengo
2001-10-31, 20:05:38
Originally posted by Unregistered


Sorry aber das ist ein blödsinn.
Damals war die V2 brandaktuell.
Epic musste auch auf andere Rücksicht nehmen.
Es gab einiges mehr am Markt als Heute.
PowerVr, Rentition, Matrox, 3DLabs, ATi nVIDIA.
Und jeder hatte mindesten 2 Chips parat.

Schade das diese API gestorben ist, die hatte funktioniert und es wurde nicht soviel Schindluder getrieben.
OpenGL offener Standart alles schön und Recht.
Aber wenn nur nv Extension abgefragt werden und die anderen Karten aussen bleiben, bringt es auch nicht viel.
D3D ist da schon besser nur verdammt CPU lastig.

Gruss Labberlippe

Klar mußte Epic Rücksicht nehmen, allerdings nicht als sie angefangen haben zu entwickeln, da waren noch viele Spiele Glide-Only oder mit Glide+Software-Modus unterstützung.

Ich vermisse die API überhaupt nicht, zu Zeiten von Voodoo Graphics war sie sicherlich nützlich, aber als 3DFX massig Marktanteile verlor war sie nur noch eine Last für alle Gamer mit nicht 3DFX Karten und technisch meilenweit hinter OpenGL zurück.

So lange auch andere Karten unterstützt werden ist der Verwendung von Extensions des Marktführers nichts einzuwenden, viele Spieler profitieren (oder werden es) nun mal davon, den anderen entstehen keine großen Nachteile.

Thowe
2001-10-31, 20:25:44
:wink:

Kein Bock auf jeden einzelnen einzugehen, also: Bleibt bitte sachlich und schreibt nur das was ihr 100% wisst und was belegbar ist. Es schadet nicht wenn man mal ein paar Minuten nichts sagt und sich im Detail überlegt was zu schreiben und was nicht zu schreiben ist.

Aber persönliche Angriffe werde ich nicht dulden, wer dies tut diskutiert als nächstes mit mir über benehmen. Es ist jeden gestattet mal etwas direkter zu posten, aber ich erwarte das er auch bereit ist sich zu entschuldigen oder anderen Weg sich gütlich zu einigen.

Subjektive Meinungen sollte man auch als solche hervorheben, also nicht "die Voodoo-Karten hatten immer unscharfe Texturen", sondern "Nach meinem empfinden waren die Texturen der Voodoo-Karten zu unscharf" ist die gleiche Aussage, klingt aber weniger angressiv.

Also ich würde es begrüssen wenn wir hier und auch in den anderen Threads es erreichen könnten das etwas sachliche Ruhe einkehrt, dienlich sind die teilweise schon zu direkten Angriffe sicher nicht und helfen tun sie auch keinen.

Have much Fun

aths
2001-10-31, 20:25:58
Pengo: [T-Buffer] "War so genial daß sich die Spieleindustrie drauf gestürzt hat."

Wie lange hat es gedauert, ehe DX7 T&L vernünftig genutzt wurde? Der T-Buffer im VSA war als Vorgeschmack auf den Rampage-T-Buffer zu sehen. Damit die Spiele-Entwickler darauf vorbereitet werden war es doch ziemlich clever, ihn schon in den (diesmal nur wirklich) letzten Voodoos einzusetzen.

Pengo
2001-10-31, 21:03:00
Originally posted by aths
Pengo: [T-Buffer] "War so genial daß sich die Spieleindustrie drauf gestürzt hat."

Wie lange hat es gedauert, ehe DX7 T&L vernünftig genutzt wurde? Der T-Buffer im VSA war als Vorgeschmack auf den Rampage-T-Buffer zu sehen. Damit die Spiele-Entwickler darauf vorbereitet werden war es doch ziemlich clever, ihn schon in den (diesmal nur wirklich) letzten Voodoos einzusetzen.

Was meinst du mit "ehe". Welches Spiel nutzt vernünftig HW T&L. Imho soll Unreal 2 das allererste sein, ob dem so wird bleibt aber abzuwarten.

Die T-Buffer Effekte waren nicht nur zu lahm, ich vermisse sie in keinem Spiel. Sowas wie Field of Depth habe ich auch nach paar Bier und so toll finde ich es nicht.

Razor
2001-10-31, 21:48:07
@Laberlippe

So, ich bin nun zurück !
;-)

Hat aber doch ein wenig länger gedauert, aber dazu später mehr...

Erst einmal vorweg:
32-Bit ist gut spielbar !
Habe mal die beiden Benches, hier von 3DCenter benutzt und bin zu folgenden Ergebnissen gekommen:

UTBench: 39 fps
Benchmark: 69 fps

Ist ganz OK und somit gebe ich Dir recht, daß UT also ohne weiteres mit 'ner gf3 zu gamen ist !
;-)

Aber jetzt kommts:

Erst einmal hab' ich das komplette Game neu installiert, weil da so einige Irregularitäten waren und das ganze Ding irgendwie ziemlich durch den Wind war. Also alles neu drauf' und dann mal los gebencht... sah' ganz nett aus... (s.o.)

Nun wollte ich natürlich auch meine Darstellungsqualität ausprobieren (2xQFSAA und 32-tap aniso)... und ?... FSAA und aniso for free !?!

Hmmm...
Gleiche Ergebnisse - das konnte schlicht nicht sein !

Also mal direkt ins Spiel gegangen udn fest gestellt: Nix !
Kein FSAA und auch kein aniso...

Treiber-Bug, dachte ich (zumal gerade der 22.50 drauf' gespielt wurde), aber nix da ! MaxPayne und auch TR5 funzten hervorragend...

Mal den guten alten Deto12.90 drauf gemacht...
Gleiches Ergebnis !

Hmmm...

Sag mal, Laberlippe, welche DX-Version wird eigentlich von UT benutzt ?
MaxPayne nutzt DX7(8), TR5 nutzt noch DX5... und da funzt es...

Sehr merkwürdig - weißt Du, worauf das zurück zu führen ist ?
Würd mich echt mal interessieren !

Aber lange Rede, kurzer Sinn:

Zumindest performt die gf3 in etwa auf V5 5500 - Nivau

http://www.3dcenter.de/artikel/voodoo5-5500/7.php
Hier erreicht eine Voodoo5 5500 also 65fps
Meine gf3 schafft 69fps

http://www.3dconcepts.de/reviews/3dprophet4500/21.htm
Die Voodoo5 5500 erreicht dort 41 fps
Die dort getestete gf3 dann 38 fps
Und meine gf3 dann 39 fps
(Radeon-Nivau und man sollte noch erwähnen, daß ich einen PIII900 hab und dort ein Athlon1100 zugrunde lag)

Also nochmal meine Aussage zurück und vice versa !
;-)

In diesem Sinne

Razor

aths
2001-10-31, 23:33:54
"Was meinst du mit "ehe". Welches Spiel nutzt vernünftig HW T&L. Imho soll Unreal 2 das allererste sein, ob dem so wird bleibt aber abzuwarten."

Dann kannst du dich nicht über mangelnde T-Buffer-Unterstützung beschweren. Wenn T&L schon 3 Jahre braucht...

"Die T-Buffer Effekte waren nicht nur zu lahm,"

... und wie gesagt als Vorspiel zum Rampage-T-Buffer zu sehen, als DX8-Karte ist eine GF3 auch zu lahm!

"ich vermisse sie in keinem Spiel. Sowas wie Field of Depth habe ich auch nach paar Bier und so toll finde ich es nicht."

soft reflections und soft shadows sind ebenfalls mit dem T-Buffer möglich.

Labberlippe
2001-11-01, 17:06:15
Originally posted by Razor
@Laberlippe

So, ich bin nun zurück !
;-)

Hat aber doch ein wenig länger gedauert, aber dazu später mehr...

Erst einmal vorweg:
32-Bit ist gut spielbar !
Habe mal die beiden Benches, hier von 3DCenter benutzt und bin zu folgenden Ergebnissen gekommen:

UTBench: 39 fps
Benchmark: 69 fps

Ist ganz OK und somit gebe ich Dir recht, daß UT also ohne weiteres mit 'ner gf3 zu gamen ist !
;-)

Aber jetzt kommts:

Erst einmal hab' ich das komplette Game neu installiert, weil da so einige Irregularitäten waren und das ganze Ding irgendwie ziemlich durch den Wind war. Also alles neu drauf' und dann mal los gebencht... sah' ganz nett aus... (s.o.)

Nun wollte ich natürlich auch meine Darstellungsqualität ausprobieren (2xQFSAA und 32-tap aniso)... und ?... FSAA und aniso for free !?!

Hmmm...
Gleiche Ergebnisse - das konnte schlicht nicht sein !

Also mal direkt ins Spiel gegangen udn fest gestellt: Nix !
Kein FSAA und auch kein aniso...

Treiber-Bug, dachte ich (zumal gerade der 22.50 drauf' gespielt wurde), aber nix da ! MaxPayne und auch TR5 funzten hervorragend...

Mal den guten alten Deto12.90 drauf gemacht...
Gleiches Ergebnis !

Hmmm...

Sag mal, Laberlippe, welche DX-Version wird eigentlich von UT benutzt ?
MaxPayne nutzt DX7(8), TR5 nutzt noch DX5... und da funzt es...

Sehr merkwürdig - weißt Du, worauf das zurück zu führen ist ?
Würd mich echt mal interessieren !

Aber lange Rede, kurzer Sinn:

Zumindest performt die gf3 in etwa auf V5 5500 - Nivau

http://www.3dcenter.de/artikel/voodoo5-5500/7.php
Hier erreicht eine Voodoo5 5500 also 65fps
Meine gf3 schafft 69fps

http://www.3dconcepts.de/reviews/3dprophet4500/21.htm
Die Voodoo5 5500 erreicht dort 41 fps
Die dort getestete gf3 dann 38 fps
Und meine gf3 dann 39 fps
(Radeon-Nivau und man sollte noch erwähnen, daß ich einen PIII900 hab und dort ein Athlon1100 zugrunde lag)

Also nochmal meine Aussage zurück und vice versa !
;-)

In diesem Sinne

Razor

Hi

Ich hoffe mal das ich bald wieder mein UT bekomme, dann werde ich auch mal Testen. ;-)
Wie gesagt Leistungsverlust gibt es kaum.

Sag mal, Laberlippe, welche DX-Version wird eigentlich von UT benutzt ?
MaxPayne nutzt DX7(8), TR5 nutzt noch DX5... und da funzt es...

Sehr merkwürdig - weißt Du, worauf das zurück zu führen ist ?
Würd mich echt mal interessieren !

=> Was ich weiss nutzt UT DX5 sollte eigentlich bei der installation angezeigt werden.
Hmm werde dann es mit meiner Radeon austesten.
Hast bei den preferences gecheckt ob da eine Einstellung in die Quere kommt ?

Gruss Labberlippe

Haarmann
2001-11-01, 18:16:05
Wenn der T-Buffer sinnlos is, dann würd mich interessieren wozu Quincunx FSAA is...
Das geht bestenfalls als leistungsfressender BlurFilter durch.

Ich hab lieber MotionBlur als Pixelbrei.

T+L ala GF1 und GF2 Games, werden wir nicht ein Einziges je sehen - das is so sicher wie det Amen in der Kirche.

Innovation ala NVidia? - Nein Danke.

Razor
2001-11-01, 18:27:57
@Laberlippe

Hab' zumindest versucht, da was zu finden, aber mir ist nicht aufgefallen, was das sein könnte...
Hmmm...

Zumindest ist alles an, was Qualität bringt... gibt's da etwa Dinge, die man besser nicht aktivieren sollte ?

Und wofür ist eigentlich
-UseAGP (hat irgendwie keinen Unterscheid zutage gefördert)
-Use32BitZBuffer (nützt wohl nur was, wenn's die Treiber auch unterstützten)
-UseVideoMemoryVB (meint das etwa VesaBios ?)
Ist alles auf False...

Wär nett, wenn Du das mal checken könntest !
;-)

Thank's im Voraus

Razor

Kai
2001-11-01, 18:37:10
Originally posted by Haarmann
Das geht bestenfalls als leistungsfressender BlurFilter durch.

Nicht mit 32tap aniso dazu geschaltet. Hab's mal ausprobiert, wie Razor sagte - und es sieht echt smooth aus.

Ansonsten kann man ja auf ne 8500 ausweichen - da ist der BlurFilter schon drin - und er bringt sogar noch mehr Leistung als ohne ;D

aths
2001-11-01, 18:57:12
"Nicht mit 32tap aniso dazu geschaltet. Hab's mal ausprobiert, wie Razor sagte - und es sieht echt smooth aus."

Das ist das Problem. Ein anisotroper Filter soll schräge Texturen (auch in der Ferne) noch scharf, aber eben glatt halten. Der Blurfilter macht sie unscharf, womit ein gutes Stück Qualitätsgewinn gleich wieder weggefiltert wird.

Razor
2001-11-01, 19:05:21
@Kai

Und das schöne ist, daß dieses Texturflimmern auch gleich mit verschwindet !
;-)

Razor

Pengo
2001-11-01, 22:22:10
Originally posted by Haarmann
Wenn der T-Buffer sinnlos is, dann würd mich interessieren wozu Quincunx FSAA is...
Das geht bestenfalls als leistungsfressender BlurFilter durch.

Ich hab lieber MotionBlur als Pixelbrei.

T+L ala GF1 und GF2 Games, werden wir nicht ein Einziges je sehen - das is so sicher wie det Amen in der Kirche.

Innovation ala NVidia? - Nein Danke.

Wer hat hier in Forum behauptet daß Quincunx gut ist?

Xmas
2001-11-02, 22:05:59
Originally posted by Pengo
Wer hat hier in Forum behauptet daß Quincunx gut ist?
Kai und Razor ;D
Und ich glaube schon, dass sie beurteilen können was ihnen besser gefällt... mir persönlich gefallen andere Verfahren besser.

Labberlippe:
RGSS ist durchaus auch ohne T-Buffer möglich. Und "den Anschluss auf 3dfx 2x halten" ist etwas übertrieben. 2x2 OGSS sieht besser aus als 2x RGSS.

Haarmann, ich möchte nicht wissen in welcher Kirche du bist :biggrin:

aths
2001-11-02, 22:40:02
Ich würde den Blur-Filter nicht zum AA dazu zählen. AA erhöht die Informationen in einem Bild, Unschärfe senkt diese.

"2x2 OGSS sieht besser aus als 2x RGSS." - Ja, aber nur ein bisschen. Insofern ist das 2x2 FSAA beim GF3 sinnlos, da sehr viel mehr Leistung gebraucht wird - und das Ergebnis kaum besser wird.

Razor
2001-11-03, 08:17:43
@Haamann

Schon mal in diesen Thread geschaut ?
GeForce3 Ti500 sinnvoll ? (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=6003)
;-)

@Xmas

QFSAA mit 32-tap aniso sieht einfach smooth aus !
(und ja, ich denke schon, daß wir das beurteilen können ;-)

Sicher mag's bessere Verfahren geben, aber gerade die sehr leichte unschärfe bringt IMHO sogar noch optische Vorteile, da man ja zeimlich dicht vor dem Moni hockt und so oft jeden Pixel erkennen kann. Bei Standbildern mag's 'nen bischen merkwürdig aussehen, aber wer das Ganze schon mal in Aktion gesehen hat, weiß, was ich meine...
(ist aber definitiv Geschmackssache ;-)

In diesem Sinne

Razor

aths
2001-11-03, 15:16:27
"QFSAA mit 32-tap aniso sieht einfach smooth aus !"

smooth heißt glatt. Unschärfe sieht eher weich als glatt aus. Das wäre dann soft. Der gleiche Effekt liesse sich mit weniger Aufwand erreichen, wenn für hintere Texturen ein höheres MIP-Level gewählt würde. Ich vermute, dass der 16-tap-Filter ohne nachträgliche Unschärfe bei den Texturen einen ähnlichen Eindruck hinterläßt.

"QFSAA" - Das Antialiasing wird ja nicht auf den gesamten Schirm (F) gemacht, sondern nur auf die Kanten. Die Weichzeichnung geht über den gesamten Schirm, aber das ist kein Antialiasing.

Es wäre für den Endkunden besser gewesen, wenn nVidia beim 2x2 HRAA ein gedrehtes Raster verwendet hätte, als das Bild auf Wunsch nachträglich unscharf zu machen.