PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : die Kyro2 ist also doch total scheiße


VedekBareil
2001-12-21, 01:13:30
wie ich gerade gehört (und auch selbst festgestellt) habe, kann die nämlich unter OpenGL nicht trilinear filtern.
D.h. die Bildqualität ist total schrott.

Kai
2001-12-21, 01:14:58
Bitte?

Klar, trilinear sieht ja auch um WELTEN besser aus als Bilinear ;) Finde ich absolut nicht, ich sehe IMO kaum nen Unterschied.

KiBa
2001-12-21, 01:21:36
@Kai
In letzter Zeit mal beim Optiker gewesen? Könnte aufschlußreich sein... ;)
Spaß beiseite, imo stören die harten "Kanten", die man vor sich herschiebt schon gewaltig. Zumal diese auch bei schnellen Bewegungen auffallen, da sie sich immer im gleichen Abstand befinden.
Texturfilterung trägt neben der Auflösung am meisten zur subjektiven Bildqualität bei! Ich wünschte, ich hätte auch ne Grafikkarte, die bei 1280x1024 + Anisotr. noch flüssige Bilder liefern könnte.

Unregistered
2001-12-21, 01:25:35
Originally posted by Kai
Bitte?

Klar, trilinear sieht ja auch um WELTEN besser aus als Bilinear


das tut es in der Tat.
Ich finde diese Nahtstellen zwischen den Mipmap-Stufen grauenvoll.


Finde ich absolut nicht,


wie schön für dich.
Es soll auch Leute geben, die die 2D-Qualität der Geforce absolut nicht schlechter als die der Kyro finden. Komischerweise finden solche Leute die Kyro aber auch scheiße.


ich sehe IMO kaum nen Unterschied.

na sehr sicher bist du dir ja offenbar nicht. Wenn du schon IMO (=in mey *opinion*) sagst. Ich pflege i.a. sehr genau wissen, ob ich einen Unterschied sehe, und nicht nur ne Meinung darüber zu haben.

Kai
2001-12-21, 02:15:47
Grosses Sorry ... :) Ich hab da was verwechselt, bin wohl doch ein bissken müde ;)

Ok, aber nur weil die Kyro2 kein TF in oGL kann ist sie ja noch lange nicht Schrott.

VedekBareil
2001-12-21, 02:26:04
Originally posted by Kai
Ok, aber nur weil die Kyro2 kein TF in oGL kann ist sie ja noch lange nicht Schrott.

Oh doch, das ist sie!!!
Ohne TF ist die Bildqualität scheiße, und ne Karte die keine vernünftige Bildqulität liefern kann ist schrott!

Kai
2001-12-21, 02:35:47
Du trägst deinen Nick zu Unrecht wie ich sehe ...

GloomY
2001-12-21, 02:35:49
Öhm, wer behauptet denn sowas ? ???

Also ich hab' mal mit Serious Sam (was ja bekanntlich OpenGL benutzt) ein paar Screenshots gemacht:

zuerst bilinear:

GloomY
2001-12-21, 02:37:32
und jetzt trilinear:

Kann mir einer dieser hochverehrten Anwesenden erklären, wie jetzt auf einmal die Übergänge zwischen den Mip-Maps verschwunden sind, obwohl die Kyro ja angeblich kein trilineares Filtern unter OpenGL unterstützt?

aths
2001-12-21, 03:47:34
Gloomy,

offenbar weil einige ihre Grafikkarte nicht einstellen können.

nggalai
2001-12-21, 08:11:05
Die Kyro-II kann trilinear und anisotrop filtern, auch unter OpenGL.

Der einzige Nachteil (neben der niedrigen Geschwindigkeit beim anisotropen Filtering) ist, dass unter OpenGL Textur-LOD im Treiber hardcoded ist und keinen BIAS zulässt, selbst wenn die Applikation (wie z.B. SS) das eigentlich anbieten könnte.

ta,
.rb

mirp
2001-12-21, 09:43:27
Originally posted by VedekBareil
wie ich gerade gehört (und auch selbst festgestellt) habe, kann die nämlich unter OpenGL nicht trilinear filtern.
D.h. die Bildqualität ist total schrott.

Das liegt an der Texturkompression. Wenn man die abschaltet, verschwinden auch die Balken. Leider wird die Kyro2 ohne TC beim Trilinearen Filtern oft ziemlich langsam.

Haarmann
2001-12-21, 10:52:57
Offenbar gibts verschiedene Kyros... meine hat seltsamerweise dieses Feature ;-)

Ev sind gewisse Leute auch nur zu dumm um es einzuschalten?

aths
2001-12-21, 12:47:04
Übrigens,

selbst eine Voodoo4/5 kann trilinear filtern :)

StefanV
2001-12-21, 12:59:22
aths:

Koennen das nicht schon viele Karten ab der 2. Generation (also die, die sich erstmals Beschleuniger nennen duerfen ;))???
Zumindest hatten das einige teilweise implementiert (Rage PRO??)

Frank
2001-12-21, 13:01:09
Originally posted by aths
Übrigens,

selbst eine Voodoo4/5 kann trilinear filtern :)
das erwarte ich bei einen solch "jungen" Karte. Oder was willst du jetzt damit sagen?

PS.
übrigens, selbst eine G400 beherrscht echtes Trilineares Filtern.

GloomY
2001-12-21, 13:04:11
Originally posted by Haarmann
Offenbar gibts verschiedene Kyros... Glaube ich weniger.
Es gab schon sooo viele Tests der Kyro während des letzten halben Jahres und dort wurde nichts dergleichen festgestellt.
Und nun soll auf einmal herauskommen, daß es Hardwareunterschiede zwischen den einzelnen Produkten geben soll ???

Die Voodoo2 war doch die erste Karte, die trilinear filtern konnte, oder?

ow
2001-12-21, 13:13:49
Originally posted by Stefan Payne
aths:

Koennen das nicht schon viele Karten ab der 2. Generation (also die, die sich erstmals Beschleuniger nennen duerfen ;))???
Zumindest hatten das einige teilweise implementiert (Rage PRO??)


Ne, das kann sogar der S3Virge schon.;)

ow
2001-12-21, 13:16:30
Originally posted by GloomY


Die Voodoo2 war doch die erste Karte, die trilinear filtern konnte, oder?


Nein, s.o.


Die meisten 3dfx Chips duerften zwar trilineares Filtern beherrschen, AFAIK ist es aber in keinem Treiber implementiert, da die Leistung wohl zu sehr einbricht.

Deshalb nutzt 3dfx mipmap-dithering (ist ne schlechte Approximation von echtem trilinear)

nggalai
2001-12-21, 13:23:10
GloomY,

nur kurz: Haarmann war sarkastisch, als er sagte

> Offenbar gibts verschiedene Kyros...

ta,
.rb

Legolas
2001-12-21, 13:29:26
Wenn man etwas mit dem LOD-Bias rumspielt, dann bekommt man die Kanten an den Mip-Map Übergängen auch ohne Trilineares Filtering ziemlich gut weg... Wenn das der Kyro-Treiber nicht erlaubt, dann ists natürlich nicht möglich... aber da der Kyro ja trilineares Filtering unterstützt..

ow
2001-12-21, 13:37:28
Originally posted by Legolas
Wenn man etwas mit dem LOD-Bias rumspielt, dann bekommt man die Kanten an den Mip-Map Übergängen auch ohne Trilineares Filtering ziemlich gut weg...


Nein, weg bekommst du die nicht mit mipmap-lod-bias.
Du kannst nur die Stufe verschieben (zum Betrachter hin oder von ihm weg).

aths
2001-12-21, 14:25:02
Die Bemerkung mit den V4/5-Karten kam deshalb, weil immer wieder mal behauptet wurde, diese könnten nicht trilinear filtern.

Nun kann lt. Ersteller des Threads auch eine Kyro nicht trilinear filtern. Das fand ich lustig, daher meine Anspielung.

Legolas
2001-12-21, 14:39:11
Originally posted by ow



Nein, weg bekommst du die nicht mit mipmap-lod-bias.
Du kannst nur die Stufe verschieben (zum Betrachter hin oder von ihm weg).
Subjektiv fallen sie aber halt dann weniger auf... Das mein ich eigentich mit fast wegbekommen...

VedekBareil
2001-12-21, 18:19:37
nun Leute, dann verratet mir doch mal, wie ich denn bei Quake 3 und Voayger Elite Force das trilineare Filtern eingeschaltet bekomme!
Ich bin ganz Ohr!

In den Grafikeinstellungen der beiden Spiele läßt sich das zwar aktivieren, der optische Effekt (also das Filtern der Mipmap-Übergänge) bleibt jedoch aus!

Die Treiber-Einstellungen für OpenGL enthalten keine Optionen für TF, da kann man es also nicht einschalten.
Und was die Texturkompression angeht: die habe ich in den Treiber-Einstellungen NICHT aktiviert.

Daß das TF bei Serious Sam funzt, hab ich mittlerweile auch herausgefunden, nur bei Q3 und EF will es nicht.

Unregistered
2001-12-21, 18:21:49
Originally posted by aths
Nun kann lt. Ersteller des Threads auch eine Kyro nicht trilinear filtern. Das fand ich lustig, daher meine Anspielung.

du zitierst mich sinnentstellend.
Ich sprach vom TF *unter OpenGL*, nicht vom TF generell.

Der letzte Satz reimte sich sogar ;)

VedekBareil
2001-12-21, 19:05:21
sodele, bei EF läßt sich das Problem wie folgt lösen:
in den Grafikoptionen "Komprimierte Texturen" auf "Aus".
Und schon funzt das TF einwandfrei.

Nutr bei Q3 geht das nicht, denn da gibt es diese Option nicht.

Andre
2001-12-21, 19:28:05
Originally posted by VedekBareil
sodele, bei EF läßt sich das Problem wie folgt lösen:
in den Grafikoptionen "Komprimierte Texturen" auf "Aus".
Und schon funzt das TF einwandfrei.

Nutr bei Q3 geht das nicht, denn da gibt es diese Option nicht.

Richtig, aber gib mal Folgendes in der Q3-Konsole ein:

/seta r_ext_compress_textures 0

und danach

/vid_restart.

Dann sind auch bei Q3 die komprimierten Texturen aus.

VedekBareil
2001-12-21, 22:58:25
Danke Andre :)

VedekBareil
2001-12-21, 23:02:45
OK Leutz, ihr habt mich überzeugt: ich ziehe meine in der Überschrift aufgestellte These zurück, die Kyro2 ist nicht total scheiße ;)

Aber Kai, sagt mir mal, warum ich deiner Meinung nach meinen Nick zu unrecht trage?

Nasenbaer
2001-12-22, 00:13:23
@VedekBareil

Wie wärs wenn du in Zukunft erst denkst dann brüllst? Das kann jeder aber man sollte sich seine sache immer erst 100&ig sicher sein bevor mans maul aufmacht!

Mfg Nasenbaer

VedekBareil
2001-12-22, 01:01:50
Originally posted by Nasenbaer
@VedekBareil

Wie wärs wenn du in Zukunft erst denkst dann brüllst?

warum in Zukunft?

Xmas
2001-12-22, 02:59:10
Wann denn sonst? In der Vergangenheit???

Unregistered
2001-12-22, 23:49:26
Originally posted by Xmas
Wann denn sonst? In der Vergangenheit???

zum Beispiel.
Außerdem ist auch noch eine Gegenwart auf dem Markt. :D

VedekBareil
2001-12-23, 00:04:52
Mennooooo!
Dauernd vergessen ich, das "Unregistered" wegzumachen und meinen Nick da hinzusetzen :(
Gibt es dann keine Möglichkeit das irgendwie zu automatisieren?

Vedek Bareil
2001-12-23, 00:22:01
Hilfe Hilfe!
Was geht denn hier vor??
Wie es aussieht, hab ich immer meinen eigenen Nick falsch geschrieben, aber wieso wurde dann mein Paßwort akzeptiert?? ???

Nasenbaer
2001-12-23, 01:18:21
Wieso aktivierst du nicht die Cookies dann bist du immer eingeloggt :)

Oder denkst du dieses Feature ist zu unsicher? Denkst du denn der Rest von Windows ist sicher ? :lol:

Doomtrain
2001-12-23, 01:24:46
Originally posted by Nasenbaer
Wieso aktivierst du nicht die Cookies dann bist du immer eingeloggt :)

Oder denkst du dieses Feature ist zu unsicher? Denkst du denn der Rest von Windows ist sicher ? :lol:

Manche Leute denken gar nicht, sie labern nur.

Vedek Bareil
2001-12-23, 02:27:40
Originally posted by Nasenbaer
Wieso aktivierst du nicht die Cookies dann bist du immer eingeloggt :)


hatt' ich, ging trotzdem nich.
Mußte erst hier auf der Hauptseite dieses Forums was ausfüllen, jetzt geht es.

GloomY
2001-12-23, 20:17:05
Originally posted by Nasenbaer
@VedekBareil
Wie wärs wenn du in Zukunft erst denkst dann brüllst? Das kann jeder aber man sollte sich seine sache immer erst 100&ig sicher sein bevor mans maul aufmacht!
So seh' ich das auch...

StefanV
2001-12-24, 17:29:24
War Vedek Bareil nicht der, der sehr eng mit Maj. Kira 'befreundet' war??

Und später an verbrennungen abgenibbelt ist??

agentl
2001-12-25, 14:28:35
Leutz was wollt ihr für ca. 210 DM erwarten???? Ne Graka die dir nen deinen Hund gassi führt???? Schaut ihr euch jedes Bild einzeln an wenn ihr UT oder RTWC oder was weiß ich spielt?! Ich will jetz nicht sagen das man den Unterschied zwischen Tri und Bi nich sieht aber für den Preis ist das absolut zu verkarften. Ich hatte ne Kyro II und was mich über das Tri hinweg tröstet ist die gestochen scharfe 2D quali - absolut spitze. Aber ich find Nvidia auch nicht schlecht, hatt noch nie Probs mit deren Karten! Man muß einfach abwägen jede Karte auf dem Markt hat seine entscheidenden Vor- und Nachteile!! Es gibt einfahc keine Preis-/Leistungs Riesen alle haben ihre Macken! Ich denk eher das ganze Prob liegt an unserem ganzen PC System wie es aufgebeut ist usw. Es sollte mal langsam ein paar helle Köbbe geben die sich mal Gedanken machen und ne neue Ära einleiten!
Peace :-)

Vedek Bareil
2001-12-25, 16:42:31
Originally posted by agentl
Leutz was wollt ihr für ca. 210 DM erwarten????


na auf jeden Fall mehr als für 0 DM. Soviel hätte ich nämlich bezahlt, wenn ich meine alte Geforce 1 SDR dringelassen hätte. Und die konnte immerhin Trilineares F.


Schaut ihr euch jedes Bild einzeln an wenn ihr UT oder RTWC oder was weiß ich spielt?! Ich will jetz nicht sagen das man den Unterschied zwischen Tri und Bi nich sieht aber für den Preis ist das absolut zu verkarften.


ist es nicht. Schon gar nicht wenn man vorher ne Karte drinhatte, die Tri konnte. Aber auch sonst nicht: es gibt Karten, die Tri können und deutlich weniger als 210 DM kosten.


Ich hatte ne Kyro II und was mich über das Tri hinweg tröstet ist die gestochen scharfe 2D quali - absolut spitze. Aber ich find Nvidia auch nicht schlecht, hatt noch nie Probs mit deren Karten! Man muß einfach abwägen jede Karte auf dem Markt hat seine entscheidenden Vor- und Nachteile!! Es gibt einfahc keine Preis-/Leistungs Riesen alle haben ihre Macken!


Fehlendes Tri wäre aber doch ein allzu großer Nachteil.

Aber das macht ja alles gar nichts, denn die Kyro II KANN Tri, man muß nur die Texturkompression abschalten.

Vedek Bareil
2001-12-25, 16:44:38
Gegenfrage: war Stefan Payne nicht der Bruder von Max Payne?
*mal inspiziert, ob er irgendwo Verbrennungen hat*
;)

Nebucanezar
2001-12-25, 17:11:09
Originally posted by ow
Die meisten 3dfx Chips duerften zwar trilineares Filtern beherrschen, AFAIK ist es aber in keinem Treiber implementiert, da die Leistung wohl zu sehr einbricht.

Deshalb nutzt 3dfx mipmap-dithering (ist ne schlechte Approximation von echtem trilinear)

Offenbar war nVidia diese Approximation gut genug, um die von 3dfx mit dem Voodoo 2 erfundene und patentierte Technologie zu klauen und in allen TNT / TNT2-Chips standardmässig zu nutzen, ohne dafür einen Cent Lizenzgebühren zu bezahlen.

Pengo
2001-12-25, 17:30:01
Originally posted by Nebucanezar


Offenbar war nVidia diese Approximation gut genug, um die von 3dfx mit dem Voodoo 2 erfundene und patentierte Technologie zu klauen und in allen TNT / TNT2-Chips standardmässig zu nutzen, ohne dafür einen Cent Lizenzgebühren zu bezahlen.

Wenn 3DFX geklagt hat, heißt es überhaupt nicht daß sie im Recht waren und jetzt werden wir es nie mehr erfahren. Hätte nvidia wirklich was geklaut, dann hätten sie jetzt z.B. ATI verklagt, da sie ja alle 3DFX Patente besitzen. Tri-Dithering ist so grottenschlecht daß man es mit Absicht gar nicht klauen kann. 3DFX war die Bildqualität nie wichtig, deshalb das lange halten an 16Bit, kleinen Texturen und der fehlenden anisotropen Filterung beim VSA-100.

Wer sehen will wie extrem übel Tri-Dithering auf einer V5 ausschaut - hier der link:

http://www.hardware.fr/html/articles/lire.php3?article=239&page=5

aths
2001-12-25, 18:20:59
Pengo,

du schreibst, 3dfx wäre die Bildqualität egal gewesen. Dem wäre entgegen zu halten:

Voodoos sind bekannt für warme Farben, haben ab Voodoo3 einen vernünftigen 22-Bit-Postfilter, was die 16-Bit-Grafik in der Tat verbessert, und ab 1024x768 ist auch trilineares Dithering meistens besser als der einfache bilineare Filter. Der VSA-100 wäre m.E. zu schwach gewesen, um 16x anisotrop zu filtern.

Sie hielten nicht an 16 Bit fest, weil ihnen IQ egal war. Sondern weil V3 auf 16 Bit optimiert war und in 32 Bit gegenüber der Konkurrenz zurück gefallen wäre. Fast alle sind sich einig dass die Voodoo3 zu ihrer Zeit mit 16 Bit voll auskam und der 22-Bit-Filter ein besseres Tradeoff bot, als eine (damals) nutzlose 32-Bit-Option.

Was du als "extrem übel" bezeichnet, ist im Standbild bei Vergrößerung gut zu sehen. (So wurde weiland auch der Vorteil von 32 Bit "nachgewiesen"! Ausserdem wurde dieser Screenshot ohne 22-Bit-Filter geschossen, was das Raster mildern kann.) In der Praxis (keine Vergrößerung, Bewegung) sieht es nicht "extrem übel", sondern "gar nicht mal so übel" aus.

Schade, Pengo, dass du diese Uralt-Methoden ranziehst (Vergrößerung, kein Postfilter) um mal wieder die "schlechte" IQ irgend einer Voodoo nachzuweisen.

MadManniMan
2001-12-25, 19:19:26
@gloomy: wann sieht man dich eigentlich mal wieder im GHB?

Exxtreme
2001-12-25, 19:32:31
@ Pengo
In diesem Fall muss ich aths recht geben. MipMap-Dithering sieht "nicht schlecht" aus - habe selber noch eine Voodoo2 am Laufen. Und wäre 3dfx damals die Bildqualität nicht wichtig gewesen dann hätten sie nicht den "22 Bit-Postfilter" eingebaut. Dieser Filter war zur damaligen Zeit IMHO die bessere Lösung als 32 Bit-Rendering, das damals bis zu 40% Performance kostete. Wegen der max. Texturgrösse hat sich damals kaum einer Sorgen gemacht. Und die Spiele, die eine höhere Texturauflösung erfordern kann man heute an einer Hand abzählen. Der fehlende Aniso-Filter und auch die fehlenden BumpMapping-Arten wiegen bei der V5 IMHO schon schwerer. Es waren die Gründe warum ich mich damals gegen eine Voodoo5 entschied.

Gruß
Alex

Pengo
2001-12-25, 20:00:48
Ich habe Q3 auf meiner g200 in 640x480x32 gespielt, der 22Bit Modus ist der Beweis für die Unfähigkeit von 3DFX mit der Konkurrenz mitzuhalten. Man kann sich einen Luftballon an die Brust kleben statt ein Auto mit Airback zu kaufen, es ist sicherlich die billigere Lösung. Ich habe selbst mal eine Voodoo Graphics gehabt und der Umstieg auf die G200 war ein Erlebnis, später mit einer GF2 konnte ich endlich auch in hohen Auflösungen spielen. 3DFX ist zurecht seit v2 tot, wer zu spät kommt, den bestraft das Leben.

Exxtreme
2001-12-25, 20:22:03
@ Pengo
Tja, Q3A kann man mit einer V3 mit 1024x768 flüssig spielen. Und Unfähigkeit würde ich 3dfx nicht vorwerfen. 32-Bit Rendering war damals so sinnvoll wie heute 3D-Texturen - nämlich gar nicht. Und wenn dann bei einer sehr niedrigen Auflösung. Und Q3A war das erste Spiel, bei dem man den Unterschied zw. 16 Bit und 32 Bit erkennen konnte. Als die V3 rauskam war Halflife aktuell. Und ich konnte bei Halflife leider keinen Unterschied zw. 16 und 32 Bit erkennen. 3dfx war damals wohl der Meinung, daß ein 'verbesserter' 16-Bit-Modus besser ist als der, damals sehr performance-fressender, 32-Bit-Modus. IMHO waren 3dfx-Karten eher was für "Praktiker". Leider hat 3dfx es nicht geschafft richtig damit zu werben und damit Erfolg zu erzielen. Viele (auch ich damals) sind den 32 Bit-/ und 2048x2048-Texels-Hype gefolgt, ohne zu wissen, daß es damals keine Praxisrelevanz hatte.

Gruß
Alex

Pengo
2001-12-25, 20:41:15
Originally posted by Exxtreme
@ Pengo
Tja, Q3A kann man mit einer V3 mit 1024x768 flüssig spielen. Und Unfähigkeit würde ich 3dfx nicht vorwerfen. 32-Bit Rendering war damals so sinnvoll wie heute 3D-Texturen - nämlich gar nicht.

Dann würde 3DFX überleben. Ob es sinnvoll ist bestimmen die Kunden, für mich war es schon zur TNT1/G200 Zeiten sinnvoll. Für nicht sinnvoll haben es die Leute erachtet die es gar nicht hatten, also 3DFX fans, was man nicht hat und nicht haben kann ist automatisch unbrauchbar. Ich werfe 3DFX auf jeden fall Unfähigkeit vor, 32Bit war nicht schwierig zu implementieren und jeder bis auf 3dfx ist schnell auf den Zug mit aufgesprungen. Nach den v1 und v2 Erfolgen haben sie einfach nur noch Bier getrunken (oder vielleicht gar was stärkeres wenn man sich Sachen wie Rush oder Banshee anschaut), einige ihrer Fans haben aus Frust ein nicht existierendes Phantom namens Rampage erfunden. Und kommt jetzt nicht mit "Beweisen" daß es sowas wie Rampage gab, da kann ich genauso gut behaupten daß BMW Prototypen fliegender Autos hat. Klar hat 3DFX was im Hintergrund entwickelt, wie fast jede andere Hardwarefirma auch, ob es zu 10 oder 90% fertig war, kann aber keiner sagen. Trotzdem fand ich die vielen "Rampage haut alles weg" Sprüche im 3dConcept Forum äußerst amüsant!

aths
2001-12-25, 20:57:46
Pengo,

erst versuchst du, MIP Map Dithering schlechter zu machen als es ist, jetzt führst du den Rampage an, obwohl der gar nicht zum Thema gehört. Der Rampage ist kein Fantasie-Produkt, sondern war ein im Grunde fertiger Chip. Wie toll oder nicht der nun wirklich ist, werden wir vermutlich nie erfahren. Deshalb ist es müßig, hier diskutieren zu wollen.

Du hast Recht, 3dfx missachtete mit der Voodoo3 die Wünsche vieler Käufer. Was 3dfx ein schlechtes Image brachte. Ungeachtet dessen gehörte die Voodoo3 zu ihrer Zeit zum besten, was man kaufen konnte. Sie bot das beste 16-Bit-Bild, war verdammt schnell und kompatibel mit Glide.

Die Beurteilung der Grafikkarten hängt von den persönlichen Vorlieben ab. Für dich mag Voodoo3 schon früher der letzte Rotz gewesen sein. Ungeachtet dessen fand sie, trotz der Prügel in den Medien, eine ziemlich große Verbreitung. Wenn man sich auf den Standpunkt stellt, dass Verkaufszahlen (die über OEM-PCs mal ausgenommen) etwas über die Brauchbarkeit einer Hardware aussagt, war die Voodoo3 nicht schlecht.

3dfx scheiterte an der Verspätung beim Rampage und an den Verzögerungen beim Überbrückungschip VSA-100. Die Voodoo3 war lange das beste was sie zu verkaufen hatten, auch dann noch, als nVidia eine ganze Generation weiter war. Das überlebte 3dfx nicht.

edit: Rechtschreibung.

Darkstar
2001-12-25, 20:59:30
Originally posted by Exxtreme
Und Q3A war das erste Spiel, bei dem man den Unterschied zw. 16 Bit und 32 Bit erkennen konnte.

Mit Ausnahme von Forsaken, Tomb Raider II und noch einigen anderen …
Als die V3 rauskam war Halflife aktuell. Und ich konnte bei Halflife leider keinen Unterschied zw. 16 und 32 Bit erkennen.

Dazu muß man das Spiel mit der Option „-32bpp“ starten. Danach sollte der Himmel um einiges besser aussehen (ist zumindest in Counterstrike so – hab es für HL noch nicht überprüft).
3dfx war damals wohl der Meinung, daß ein 'verbesserter' 16-Bit-Modus besser ist als der, damals sehr performance-fressender, 32-Bit-Modus.

Die PowerVR-Karten der ersten Generation (von der Bildqualität sowieso jeder Vodoo-Karte bis einschließlich Voodoo3 haushoch überlegen) liefen in TrueColor fast genauso schnell (manchmal auch langsam) wie in 16bit. Wie haben die das damals bloß gemacht?!

Quasar
2001-12-25, 21:18:40
Originally posted by Darkstar

Wie haben die das damals bloß gemacht?!

Na genauso wie heute....Inifinite Planes eingesetzt, anstatt Polygonbasiertes Rendering zu verwenden..sprich, intelligente Technologie, die zwar immer ein paar Kinderkrankheiten hatte, aber ihrer Zeit meistens etwas voraus war.

Ob damals schon durchgehend in 32Bit gerendert wurde, weiß ich allerdings nicht.

Fest steht für mich nur, daß Quake2 auf einer PowerVR mit 4MB RAM wesentlich besser aussah, was die Texturqualität angeht, als mit einer Voodoo (2), und im Gegensatz zu dieser auch in 1024 zu starten war.

Zur IQ-Geschichte der Voodoo-Chips sage ich nichts (mehr), da die Hardcore-3dfxer eh nichts auf ihre heiligen Kühe kommen lassen. (-> stark überfilterte Texturen, extreme Gamma-Werte)

Exxtreme
2001-12-25, 22:05:44
Originally posted by Darkstar

Mit Ausnahme von Forsaken, Tomb Raider II und noch einigen anderen …

Sorry, habe mich falsch ausgedrückt. Ich meinte wo der Unterschied gravierend war.

Originally posted by Darkstar

Dazu muß man das Spiel mit der Option „-32bpp“ starten. Danach sollte der Himmel um einiges besser aussehen (ist zumindest in Counterstrike so – hab es für HL noch nicht überprüft).

Also, IMHO sah HL mit 16 Bit nicht schlechter aus als mit 32 Bit. Damals waren die Spiele auch an 16 Bit angepasst.

Originally posted by Darkstar

Die PowerVR-Karten der ersten Generation (von der Bildqualität sowieso jeder Vodoo-Karte bis einschließlich Voodoo3 haushoch überlegen) liefen in TrueColor fast genauso schnell (manchmal auch langsam) wie in 16bit. Wie haben die das damals bloß gemacht?!

Genau. Sie waren im Vergleich zu einer Voodoo in den meisten Spielen sehr langsam, ausser wenn das Spiel in PowerSGL geschrieben wurde. Dann haben sie jede Voodoo abgehängt. Da die meisten Spiele damals aber in Glide geschrieben wurden, konnte PowerVR sich leider nicht durchsetzten.

Gruß
Alex

Haarmann
2001-12-25, 22:15:05
Quasar,

ich hatte ne M3D und Q2 sah damit besser aus... es war aber langsamer als mit der V2 SLI ...
Allerdings sahs auch besser aus, denn mit jeder NV Karte, weil kein Rotstich - ev macht ich mal nen paar Screens ;-) - habe die Karte ja noch immer. Leider war sie zu langsam und die PowerVR2 kam zu lange nicht.

Legolas
2001-12-25, 22:44:57
Originally posted by Darkstar

Mit Ausnahme von Forsaken, Tomb Raider II und noch einigen anderen …


:rofl: Tomb Raider 2??? Wo soll man denn Da nen Unterschied zw. 16 und 32 Bit sehen??? hab dieses Game ziemlich ausgiebig gespielt, und einen Unterschied zwischen 16 und 32 Bit konnte ich beim besten Willen nicht feststellen... Gleiches gilt für HL... diese beiden Games verwenden 8Bit Texturen als Ausgangsmaterial und haben nicht sonderlich viele Transparenzeffekte.. wo man da irgendeinen Unterschied feststellen kann ist mir wirklich mehr als schleierhaft..

Quasar
2001-12-25, 22:54:28
Originally posted by Haarmann
Quasar,

ich hatte ne M3D und Q2 sah damit besser aus... es war aber langsamer als mit der V2 SLI ...
Allerdings sahs auch besser aus, denn mit jeder NV Karte, weil kein Rotstich - ev macht ich mal nen paar Screens ;-) - habe die Karte ja noch immer. Leider war sie zu langsam und die PowerVR2 kam zu lange nicht.

Na was wunder, das eine einzelne 1st-Generation Karte langsamer ist, als zwei 2nd Generation bschleuniger, die zudem auch noch 6 Chips dafür brauchten....

Zur BQ sag ich nix....is zu lange her, und auf s einbauen hab ich jetzt keinen Bock...

StefanV
2001-12-26, 00:19:56
@Pengo

Du vergisst aber, daß die G200 bei 32bit nicht so stark einbrach wie die TNT!!

Unter 32bit war die G200 damals teilweise recht nahe an der TNT dran.

Hab hier irgendwo noch eine alte c't rumliegen, in der das getestet wurde, ist recht interessant wie stark die TNT damals doch eingebrochen ist *eg*

@Quasar

Mit dem überfiltern der ersten Voodoos hast du nicht ganz unrecht ;)
Naja, damals steckte die Technik noch in den Kinderschuhen ;)
Heute in 'normalen' Schuhen ;)

Vedek Bareil
2001-12-26, 00:43:53
was dieses Mipmap-Dithern angeht:
ich hatte zwar nie eine 3dfx-Karte, wohl aber eine TNT1, und die schien in einigen Spielen (u.a. Unreal, Incoming, Elite Force sowie dem 3DMark 99) anstelle von Trilinearem Filtern dieses Dithering zu machen. Und das sah ziemlich unschön aus, und zwar nicht erst bei genauem Hinsehen oder bei Vergrößerung, sondern beim normalen Spielen.
Bei Incoming sah das Bild sogar besser aus, wenn ich auf Bilinear herunterschaltete, die Nahtstellen zwischen den Mipmap-Stufen waren da tatsächlich das kleinere Übel. Pengos "extrem übel" ist da durchaus gerechtfertigt.
Klar, kann natürlich sein, daß die Voodoos das Mipmap-Dithern schöner hinbekamen als nVidia's TNTs. Wenn ich mir jedoch die Screenshots auf dieser französischen Seite angucke, bin ich da nicht überzeugt von. So sehr stark wird die Vergrößerung da ja auch nicht sein. Besonders das Fadenkreuz auf dem Bild wo Trilinear, Voodoo 5 druntersteht, sieht ja grauenhaft aus. Ich habe das mal auf 50% verkleinert, und es sah immer noch fast genauso übel aus.

Legolas
2001-12-26, 01:10:41
Die Auflösung machts.. je höher die Auflösung, desto weniger fällt das Dithering ins Auge.. aber wofür den ganzen Stress, wenn man mit ner passenden LOD-Bias Einstellung die Übergänge zw. den Mipmap stufen doch sowieso ziemlich gut kaschieren kann, vor allem, wenn man zusätzlich noch FSAA hinzuschaltet..

EDIT
Ich hab mir jetzt auch mal ein paar Screenshots gemacht, und die Ditheringmuster sind so fein, daß sie erst ab 170% Vergrößerung auffallen.. ohne Vergrößerung hab ich keine Ditheringmuster sehen können, beim besten Willen nicht..
/EDIT

GloomY
2001-12-26, 14:26:43
Originally posted by MadManniMan der Rula
@gloomy: wann sieht man dich eigentlich mal wieder im GHB? Hab' mich doch in den wohlverdienten Weihnachtsurlaub abgemeldet :D
btw: Vorhin hab' ich mal wieder reingeschaut' ;)

Zum Thema: Ich bin auch der Meinung, daß 32 Bit Framebuffer (nicht 32 Bit Rendering - das tun alle Karten intern auch mit 16 Bit Framebuffer) zu damaliger Zeit einfach zu viel Performance gekostet hat und daher nicht sinnvoll war.
3Dfx's Weg über 16 Bit plus Postfilter war meiner Meinung nach der bessere. Gerade bei den TNTs gab's oftmals Performanceverluste von 50% in 1024 beim Umschalten von 16 auf 32 Bit. Sowas ist untragbar, da kann man mir als Zocker noch so viel von der Bildqualität vorschwärmen, ich brauch halt einfach Frames... ;)

Pengo
2001-12-26, 15:34:32
Originally posted by GloomY
Hab' mich doch in den wohlverdienten Weihnachtsurlaub abgemeldet :D
btw: Vorhin hab' ich mal wieder reingeschaut' ;)

Zum Thema: Ich bin auch der Meinung, daß 32 Bit Framebuffer (nicht 32 Bit Rendering - das tun alle Karten intern auch mit 16 Bit Framebuffer) zu damaliger Zeit einfach zu viel Performance gekostet hat und daher nicht sinnvoll war.
3Dfx's Weg über 16 Bit plus Postfilter war meiner Meinung nach der bessere. Gerade bei den TNTs gab's oftmals Performanceverluste von 50% in 1024 beim Umschalten von 16 auf 32 Bit. Sowas ist untragbar, da kann man mir als Zocker noch so viel von der Bildqualität vorschwärmen, ich brauch halt einfach Frames... ;)

Achso, 32Bit Performanceeinbruch bei der TNT ist untragbar, Performanceeinbruch bei v5 und FSAA ist nicht weiter schlimm, es wurde immer mit zweierlei Maß gemessen, zum Glück nur von der 3DFX Fangemeinde, die Kunden haben 3DFX zu recht durch ihre Kaufentscheidungen abgestraft.

Ob die Performanceeinbrüche durch 32Bit, FSAA oder anisotrope Filterung gerechtfertig sind sollte der Kunde entscheiden, 3DFX war unfähig auf Kundenwünsche zu reagieren, die Leute wollen nicht die gleiche Technik 20 Jahre lang ausgeschlachtet haben, auch Rampage hätte die Firma nicht gerettet, die Firmenpolitik war lange Zeit so schlecht daß da nichts mehr zu machen war. Eine Firma die nicht auf Kundenwünsche reagiert und keine Gewinne einfährt kann nicht überleben, so ist die Marktwirtschaft.

GloomY
2001-12-26, 15:57:09
IMHO wurde FSAA nicht als MUST-HAVE-Feature verkauft wie das Benutzen des 32Bit-Framebuffers.

Pengo
2001-12-26, 16:08:45
Originally posted by GloomY
IMHO wurde FSAA nicht als MUST-HAVE-Feature verkauft wie das Benutzen des 32Bit-Framebuffers.

Als was dann? Es war die Ausrede von 3DFX für das Fehlende HW T&L, sie wollten sich angeblich zuerst auf die Bildqualität konzentieren. Glide war beim v5 release ziemlich unwichtig, FSAA hatte auch die Konkurrenz, die Karte war nicht mehr die beste Wahl - Leute haben sich für Geforce Karten entschieden, Ende von 3DFX.

GloomY
2001-12-26, 16:16:17
Es war ein Zusatz.
Als 32Bit vs. 16 Bit diskutiert wurde, da hat man 16 Bit als total veraltet abgetan und (angeblich gravierenden) Unterschiede bemängelt.
Anders bei FSAA: Man hat man die Grafikqualität ohne FSAA trotzdem noch als gut bewertet (so zumindest die allgemeine Meinung).

Als 3Dfx das FSAA der Voodoo5 brachte, hatten die Geforces nur Supersampling (ordered Grid, oder?), was nicht an die Qualität der V5 herankam (rotated Grid?).

Exxtreme
2001-12-26, 16:31:09
Originally posted by Pengo


Als was dann? Es war die Ausrede von 3DFX für das Fehlende HW T&L, sie wollten sich angeblich zuerst auf die Bildqualität konzentieren.
Und damit IMHO recht gehabt. Als die GF1 rauskam, hatte HW-T&L keinen praktischen Nutzen, da es kein Spiel gab, das dadurch beschleunigt wurde. Und die Spiele, die vom HW-T&L profitieren kannst du heute an einer Hand abzählen. Als die V5 rauskam hatte AA einen praktischen Nutzen, da ALLE(!) Spiele damit mit einen Schlag besser aussahen. Und als die V5 rauskam gab es kein Spiel, das zu langsam auf der V5 war auch incl. AA.
Originally posted by Pengo

Glide war beim v5 release ziemlich unwichtig, FSAA hatte auch die Konkurrenz, die Karte war nicht mehr die beste Wahl - Leute haben sich für Geforce Karten entschieden, Ende von 3DFX.
Schon mal mit einer GF2GTS oder Radeon 1 mit AA gespielt? Ich schon. 2x AA war bis max. 800x600 brauchbar und im Gegensatz zu 3dfx leider nur OGSS, was dessen Nutzen erheblich einschränkte. Es brachte kaum eine Verbesserung der BQ. Da ist 3dfx' AA wesentlich besser, da es auch bei 1024x768 schnell genug war und dank RGSS wesentlich schöner.

Gruß
Alex

Labberlippe
2001-12-26, 16:54:19
Originally posted by Pengo


Als was dann? Es war die Ausrede von 3DFX für das Fehlende HW T&L, sie wollten sich angeblich zuerst auf die Bildqualität konzentieren. Glide war beim v5 release ziemlich unwichtig, FSAA hatte auch die Konkurrenz, die Karte war nicht mehr die beste Wahl - Leute haben sich für Geforce Karten entschieden, Ende von 3DFX.

Nicht richtig, 3dfx wollte gleich auf eine freiprogrammierbare T&L gehen, da die DX7 T&L einfach zu schwach ist.
Was sich auch als richtig herausgestellt hat, wie man bei den Games sieht.
Aber alle mussten ja lieber Kritisieren das die V5 keine T&L hat.
Die V5 hat wenigsten ein vernünftiges FSAA, wo die anderen Hersteller noch immer beim basteln sind.
Mir hat FSAA mehr gebarcht wie als T&L

Gruss Labberlippe

Pengo
2001-12-26, 17:03:32
Nicht richtig, 3dfx wollte gleich auf eine freiprogrammierbare T&L gehen, da die DX7 T&L einfach zu schwach ist.
Was sich auch als richtig herausgestellt hat, wie man bei den Games sieht.

Bei welchen Games sieht man es? IMHO wird Unreal 2 das erste Spiel sein das vom HW T&L nutzen zieht, das habe wir 3DFX zu verdanken, durch ihre Sturheit haben sie die Entwicklung aufgehalten, das gilt für 32 Bit, Stencil Buffer, große Texturen und HW T&L. Wäre 3DFX ein Jahr früher zugrunde gegangen hätten wir heute viel bessere Grafik in vielen Spielen (da fast alle Grafikkarten heute HW T&L hätten), deshalb war ich richtig froh als 3DFX Pleite gegangen ist.

Aber alle mussten ja lieber Kritisieren das die V5 keine T&L hat.
Die V5 hat wenigsten ein vernünftiges FSAA, wo die anderen Hersteller noch immer beim basteln sind.

3DFX FSAA ist nur besser auf Vergrößerungen und in den Augen der 3DFX Fans. Es war lahm und keinesfalls besser, wie diese Screenshot beweisen:

http://www.tech-report.com/reviews/2001q4/vidcards/index.x?pg=16

Nicht auf die üble Texturequalität der v5 achten, nur das FSAA anschauen.

Mir hat FSAA mehr gebarcht wie als T&L

Mir gar nichts, da ich eine GF3 habe könnte ich es nutzen, in FPS-games ist es kaum zu sehen, alte Spiele kann ich in 1600x1200x32 4x aniso spielen und brauche kein FSAA.

Haarmann
2001-12-26, 17:10:05
32 Bit interessierte offenbar kein Aas zur Zeit von TnT und TnT2, denn NVs Karten waren damals allesamt langsamer und 32 Bit, als die Matrox und ATIs.
Damit das ned einfach so leer dasteht...
http://www6.tomshardware.com/graphic/99q3/990825/athlon_graphic-03.html
Was zu sagen ist, die TnT2 Ultra is sogar übertaktet (150/183 ist Stocktakt).

http://www6.tomshardware.com/graphic/98q4/981210/rage128-07.html

Rage128 vs TnT1 unter 32 Bit is allerdings etwas unfair... Aber immerhin zeigts doch deutlich, dass die TnT unter 32 Bit bestenfalls als schlechter Witz durchgeht.

Pengo
2001-12-26, 17:31:28
Originally posted by Haarmann
32 Bit interessierte offenbar kein Aas zur Zeit von TnT und TnT2, denn NVs Karten waren damals allesamt langsamer und 32 Bit, als die Matrox und ATIs.
Damit das ned einfach so leer dasteht...
http://www6.tomshardware.com/graphic/99q3/990825/athlon_graphic-03.html

Es hab verschiedene TNT2 U, die von Hercules war IMHO höher getaktet.

Also ist für dich Expendable 1024x768x32 57 fps ein Witz? Warst du nicht derjenige der meinte Ultima 9 mit 20 fps ist gut zu spielen? LOL!

Haarmann
2001-12-26, 17:48:05
Ich spiele kein Ultima 9... ich finde alle ultima seit I Scheisse ;-)

Und ich hatte zu der Zeit ne G400Max und keine TnT2 ;-)

NV gab nur Garantie bis 150/183

Pengo
2001-12-26, 18:08:21
Garantie vom Kartenhersteller ist entscheidend.

Quasar
2001-12-26, 18:20:28
Und Hercules garantierte in der ersten Serie (bevor sie pleite gingen) eben bis 175/200MHz...

Im ersten Link zur TNT-Vernichtung durch die mit doppelt soviel RAM ausgestattete Rage128 steht auch folgendes zu 32Bit:
The most important thing about Rage 128's 3D performance under 32-bit color is that is proves Scott Sellers and whole 3Dfx wrong. When Voodoo3 was presented 3 weeks ago, 3Dfx apologized for the missing 32-bit color rendering ability of Voodoo3 by claiming that 32-bit color rendering was 'anyway a frame rate killer' and thus pointless.

I guess Scott and his colleagues have to learn a lesson from ATI, 32-bit color rendering is NOT a frame rate killer. ATI's engineers are up to it and seemingly the technicians from 3Dfx are not. Anyway, in 32-bit rendering Rage 128 is currently as good and as fast as it gets.


@Haarman:
Wenn du eine Seite weiter (http://www6.tomshardware.com/graphic/99q3/990825/athlon_graphic-04.html) gelesen hättest, wäre dir folgendes aufgefallen:


P.S.: Dir ist aber schon bekannt, daß der frühe Matrox oGL ICD Probleme mit der korrekten Zuordnung von Z-Buffer und Rendering Depth hatte? Man bekam trotz gegenteiliger Auswahl keine 24Bit Z-Buffer wenn man 32Bit Rendering Depth angewählt hatte....

Ein Schelm, wer im Lichte der jüngsten Ereignisse, böses dabei denkt...

aths
2001-12-26, 21:39:33
Pengo,

du schreibst: "Achso, 32Bit Performanceeinbruch bei der TNT ist untragbar, Performanceeinbruch bei v5 und FSAA ist nicht weiter schlimm"

Stimmt. 32 Bit bot kaum, FSAA bietet bei der Voodoo5 deutlich mehr Qualität.

Pengo
2001-12-26, 21:53:26
Originally posted by aths
Pengo,

du schreibst: "Achso, 32Bit Performanceeinbruch bei der TNT ist untragbar, Performanceeinbruch bei v5 und FSAA ist nicht weiter schlimm"

Stimmt. 32 Bit bot kaum, FSAA bietet bei der Voodoo5 deutlich mehr Qualität.

Es ist Ansichtssache. Ich würde mir nie 16Bit UT oder Q3 antun, FSAA ist mir völlig egal, kaum bemerkbar, schon gar nicht bei FPS games.

Eine v5 war beim Release schon ohne FSAA lahm genug.

Haarmann
2001-12-26, 22:35:40
Du wirst lachen Quasar...

Ich hab das gesehen, aber ich weiss, dass die G400 unter Q3 lahm wie ne Ente war ;-) - Wie gesagt, ich hatte selber eine. Und die G400 war auch unter Q3 16 Bit ne Ente... weil der ICD Treiber schlicht unausgereift und neu war. Deswegen gabs die TurboGL für Q3 - die auch ned der Hit waren, weswegen ich dann trotz der tollen D3D Leistung ne andere Karte eingebaut hab...
Und auch das mit der R128 weiss ich von Tom... Nur nachdem ich dank Tom mein SLI Rig gegen ne TnT getauscht hatte und nur noch geflucht habe, halte ich von Tom ned wirklich viel...
Useful diese Seite, aber sein Urteil is für rein nix...

Mir isses bekannt mit den Z Problemen, aber das war ein Feature und kein Bug... NV kann nur full z bei 32 Bit - kein 16 Bit Z bei 32 bpp... ATI und Matrox können auch 16 Bit z bei 32 Bit Frambuffer... Wenn einer nun nur den Framebuffer auf 32 stellt, dann gings bei der TnT gut, aber bei ATI und G400 ned. Its a Feature not a Bug.

Auch bei der Frage Radeon vs GF2 wurde by the Way noch immer 16 Bit gemessen, denn unter 32 Bit hatte ne GTS ned viel zu husten - Vor allem beim Einsatz eines Athlon.
Man sieht die Benchtabellen immer nach 16 Bit geordnet bei Tom... Wer aber 32 Bit gut findet, sollte trennen oder auch gleich nach 32 ordnen ;-).