PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: 3dfx Voodoo5-6000 Review


Seiten : [1] 2

Leonidas
2007-01-21, 22:59:22
Link:
http://www.3dcenter.org/artikel/voodoo5-6000/


Dank an Raff, Mr. Lolman & robbitop für die riesige Arbeit (massig Benchmarks, 193 MB an Screenshots!), Dank an Juerg für das Diagramm-Makro.

Gast
2007-01-22, 00:08:10
so ein Scheiss interessiert heute keine Sau mehr, aber danke trotzdem!

Turrican-II
2007-01-22, 00:11:24
so ein Scheiss interessiert heute keine Sau mehr, aber danke trotzdem!


:mad: :mad: gehts noch?



ich finde artikel erstklasig :)

Raff
2007-01-22, 00:12:20
Wir wissen, dass dieser Artikel die Lesergemeinde spalten wird. Das wurde eben eindrucksvoll bewiesen. ;)

Trotzdem sollten auch (oder gerade) die Kritiker mal ein, zwei Blicke darauf werfen.

MfG,
Raff

Spasstiger
2007-01-22, 00:14:12
Beim Überfliegen hab ich festgestellt, dass auf Seite 9 der Link zum Bild "8xAA, 16 Bit, keine Mipmaps" nicht funktioniert. Folgende Adresse wird verlinkt: http://www.3dcenter.de/artikel/voodoo5-6000/FAKK2_VSA100-8x-16bit_nomips.php.

misterh
2007-01-22, 00:14:24
Finde auch gut :wink:

tombman
2007-01-22, 00:18:04
Naja, Uralthardware ne Träne nachzuweinen is ned meins- bin halt ne Speed-Hure ;)
Sicher, war ein nettes Kärtchen, aber, wie nach einem kurzen Besuch auf dem Friedhof, denkt man sich "und wohin gemma jetzt essen?" ;D

Raff
2007-01-22, 00:20:59
Die Karte wäre genau das gewesen, was du hättest kaufen "müssen". ;)

MfG,
Raff

tombman
2007-01-22, 00:23:38
Die Karte wäre genau das gewesen, was du hättest kaufen "müssen". ;)

Das glaub ich nicht, Tim ;) Zu der Zeit gabs ja schon schnelle Nvidia HW mit 32bit, T&L usw...
Die Benchmarks der 6000er im Artikel sind ja auch eher schwach IMO...

Mr. Lolman
2007-01-22, 00:38:34
Du weisst schon, dass du die 6k mit der GF2 Ultra vergleichen solltest (siehe auch die Zeitleiste). Bis auf D3D unter XP (v.a. in hohen Auflösungen) geht die 6k da eigentlich arg gut ab.

Wenn du bedenkst, dass der ganze Treiberschmarrn auch in den Druchschnittswerten drinnen ist, steht die 6k imo garnicht so schlecht da.

tombman
2007-01-22, 00:50:37
Naja, wäre wohl in der Praxis doch eher die Geforce3 geworden- mit SHADER ;)
(Februar 2001)
Das wäre so als ob man das schnellste Impulsantrieb-Raumschiff mit dem ersten Warpschiff vergleicht ;D;D

Nene, ich behaupte mal die 6000er wäre sowieso abgestunken, einfach viel zu alte Technik...

Raff
2007-01-22, 00:51:45
Thema 32 Bit, T&L und alte Technik: Schau dir den Artikel genau an, nicht Nvidias Marketingpapiere. :naughty:

MfG,
Raff

AtTheDriveIn
2007-01-22, 00:59:24
Warum gibts eigentlich Geforce FX Screenshots wo diese Karte doch gar nicht mitgetestet wurde? ;)

BlackBirdSR
2007-01-22, 01:00:15
Was mir als erstes aufgefallen ist:

Dioe R200 hält ja durchweg sehr gut mit :eek:

Raff
2007-01-22, 01:04:32
Warum gibts eigentlich Geforce FX Screenshots wo diese Karte doch gar nicht mitgetestet wurde? ;)

BQ-Vergleich. :) Die X1900 ist ja auch partiell drin.

Was mir als erstes aufgefallen ist:

Dioe R200 hält ja durchweg sehr gut mit :eek:

Für einen GeForce3-Konkurrenten von 2001 ist die Vorstellung im Schnitt eher schwach, wie auch die BQ. Meinst du den R100, aka Radeon 64 MiB DDR?

MfG,
Raff

Wechselbalg
2007-01-22, 01:05:55
Ja. Ich finde, dass man bei der R200 durchaus merkt, dass sie ja glaube ich neben Vertexshadern auch noch eine T&L Einheit hatte (oder irre ich mich da gerade?)

Bei Max Payne 2 ist sie einmal sogar mit dem 1 Ghz Barton schneller, als mit 2,6 Ghz Takt. Aber um den R200 geht es hier ja gerade nicht, auch wenn ich da noch ein paar Fragen zu hätte.

Ich finde den Artikel jedenfalls sehr schön und teilweise mit doch erstaunlichen Ergebnissen, obwohl ich ja selber auch ein paar Voodoos bei mir rumliegen habe und euer Treiben hier im Forum etwas verfolge. Morgen dazu sicherlich mehr, wenn ich nicht so müde bin, aber schon mal: Daumen hoch :)

Superheld
2007-01-22, 01:11:56
bin ich blind oder warum finde ich den BQ-Vergleich nicht;(

StefanV2
2007-01-22, 01:24:16
Für einen GeForce3-Konkurrenten von 2001 ist die Vorstellung im Schnitt eher schwach, wie auch die BQ. Meinst du den R100, aka Radeon 64 MiB DDR?

MfG,
Raff

Naja, war ja leider 'nur' die Version mit 64MiB TSOP RAM, die Version mit BGA RAM ist um einiges schneller, warum auch immer...

BTW:
Interessant wäre gewesen, wenn ihr mal Half Life 2 getestet hättet, einmal im DX6/7 Mode und einmal im DX8(.1) Mode für GF3/4 und R200 ;)

Ansonsten ganz nette Fleißarbeit, der Artikel kommt allerdings IMO etwas arg spät...

Mr. Lolman
2007-01-22, 01:25:09
bin ich blind oder warum finde ich den BQ-Vergleich nicht;(

Der geht da leider in der Tat etwas unter.

Am Ende der Spielebenchmarks wurden Screenshots vom jew. Spiel angefertigt. (einfach aufs nächste Spiel klicken und dann eine Seite zurückblättern *g*)

Aquaschaf
2007-01-22, 01:29:36
Interessant wie inhomogen die Ergebnisse sind. Es hätten gerne noch mehr Spiele getestet werden können. Der Test ist trotzdem sehr nett - auch die andere ältere Hardware sehe ich dort teilweise ziemlich anders als ich die Verhältnisse in Erinnerung habe :)

ernesto.che
2007-01-22, 01:32:33
Ach herrlich, 3dfx polarisiert noch immer. Danke für die viellen interessanten Benchmarks, Screenshots und Ausführungen.

Mr. Lolman
2007-01-22, 02:33:44
Naja, wäre wohl in der Praxis doch eher die Geforce3 geworden- mit SHADER ;)
(Februar 2001)

Da ist ein Fehler passiert. Ich hab eigentlich immer die die Verfügbarkeitsdaten genommen (bei den Spielen der Einfachheit halber das US-Release Datum). Die GF3 war erst Mitte Mai 2001 verfügbar. Ende Februar war bloß das Vorstellungsdatum. Muss ich noch fixen.

tombman
2007-01-22, 02:34:24
ich brauch keine marketing
Papiere um zu sehen, daß die
6000er auch bei Erscheinen
ein Reinfall gewesen wäre.
Die freaks hätten die Karte
vielleicht zwei Monate behalten
und dann bei Erscheinen der gf3
schneller abgestoßen als ne
normale Frau nen Exfreund ;)

Diese verklärte Huldigung der
"Göttin" werd ich nie verstehen, bin vielleicht nicht nerdig genug dafür ;D

Mr. Lolman
2007-01-22, 02:37:31
Wenn die 6k zeitgleich mit der 5500 AGP erschienen wär, hättest sie fast 1 Jahr behalten können.

Oder angesichts der UT2k4 AA Scores zB auch länger^^

The Master
2007-01-22, 02:38:06
also ich finde es erstaunlich das man eine nie veröffentlichte karte mit marktreifen karten getestet hat...die eine sogar mit "alpha" treibern und die anderen mit ZUTODE optimierten treibern...

und hin und wieder trotzdem die "zamgebastelte" karte gewinnt...

bin kein 3dfx fanboy ;) habe alle 3 hersteller...nv,ati,3dfx (voodoo1)
nur muss man schon sagen das es eine"gute" karte ist wenn man ut04 darauf zum laufen bekommt...

wenn ich bedenke das ich meinen pc x2 3800+ ati 1900xt 2gb ram usw bei utß4 in 1280x1024 in die KNIE zwinge!!!!! und das nichtmal mit gemoddeten maps oder so...

also hut ab vor dieser "alten" hardwarel...möge sie trotzdem in frieden ruhen...

mfg
masta

ps: bitte kein geflame das war meine sachliche meinung ;)

Banshee18
2007-01-22, 03:02:28
Schöner Artikel, habe ihn gerade komplett gelesen.:up:

Aber es scheinen wirklich viele Screenshots nicht zu gehen, da solltet ihr nochmal durchklicken. Oder ich habe eine sehr hohe Trefferqoute. Von vielleicht 10 Bildern, die ich angeklickt habe, gingen 3 Stück nicht.

Gast
2007-01-22, 04:03:46
Ich hab zwar noch nicht alle 26 Seiten gelesen und mit Performance und Features hat's auch nix zu tun, was man meiner Meinung nach aber bei allen Voodoo Karten ab der 3er nicht unterschätzen sollte ist die Qualität des VGA-Ausgangs, bis auf die Matrox Karten (und da nur bis zur 400er Serie) kann da Nix mithalten. Gestochen scharfes Bild!
Hab vor einigen Monaten mal wieder meinen alten Rechner mit Voodoo3 3000 PCI an meinem 21 Zöller gehabt, das waren Welten zu meiner Asus V8420 Deluxe und das obwohl ich nur 1280x960 fahre. Bei 1600X1200 ist der Unterschied noch krasser.
Und warum? Nur wegen einiger weniger Cent für die Analogausgänge :-(

Gruß

Rechner-Tester

Gast
2007-01-22, 04:46:59
In FAKK2 stimmt bei der GeforceFX bzw. Geforce4 etwas
mit dem Schatten nicht, der ist bei der Spielerfigur komplett schwarz:
http://www.3dcenter.org/artikel/voodoo5-6000/FAKK2_NV38-8xS-2x-32bit.php



Naja, wäre wohl in der Praxis doch eher die Geforce3 geworden- mit SHADER ;)
(Februar 2001)
Das wäre so als ob man das schnellste Impulsantrieb-Raumschiff mit dem ersten Warpschiff vergleicht ;D;D

Nene, ich behaupte mal die 6000er wäre sowieso abgestunken, einfach viel zu alte Technik...

Wenn die Voodoo 5 6000 rausgekommen wäre, dann zu
der Zeit oder maximal 2 Monate später in dem die Voodoo 5 5500 erschienen ist.
D.h. sie hätte 1 ganzes Jahr Vorsprung vor der Geforce 3 gehabt.

Und Außerdem wäre der wahre Konkurrent der Geforce 3
sowieso nicht mehr die V5 6000 geworden, wenn 3dFX weitergelebt hätte, sondern der Rampage

Und der Rampage hätte jede Geforce 3 in die Knie gezwungen.
So sieht's aus. :P

Gast
2007-01-22, 04:51:06
Rampage Specs siehe auch hier:
http://www.3dfx-altar.com/content/futureproducts/
http://www.digit-life.com/articles/3dfxtribute/index.html

Leonidas
2007-01-22, 05:27:07
Beim Überfliegen hab ich festgestellt, dass auf Seite 9 der Link zum Bild "8xAA, 16 Bit, keine Mipmaps" nicht funktioniert. Folgende Adresse wird verlinkt: http://www.3dcenter.de/artikel/voodoo5-6000/FAKK2_VSA100-8x-16bit_nomips.php.


Gefixt.




Aber es scheinen wirklich viele Screenshots nicht zu gehen, da solltet ihr nochmal durchklicken. Oder ich habe eine sehr hohe Trefferqoute. Von vielleicht 10 Bildern, die ich angeklickt habe, gingen 3 Stück nicht.

Alles durchgeschaut und entsprechend korrigiert.

tombman
2007-01-22, 06:14:14
...hätte -wäre- würde- könnte...
Tjo, Pech, sie kam nie auf den Markt :cool:

UNd wenn Nvidia oder Ati eines Tages sterben, dann weine ich auch denen keine Träne nach, denn die sind nicht unsere Verwandten, sondern nur Leute die UNSER Geld wollen, ned mehr und ned weniger... ;)

moep
2007-01-22, 06:57:35
hmm interessanter Artikel

ist schon interessant wie so ein "Monster" einer Firma das Genick brechen kann(technische Probleme)

ich warte ja auf den TAG an dem Nvidia und ATI endlich merken das immer "schnellere" und "heißere" Chips nicht der richtige Weg sind und auch die Bildqualität wichtig ist ;)

Aber den Tag werd ich sicher auch nimmer erleben.....

LovesuckZ
2007-01-22, 07:32:37
ich warte ja auf den TAG an dem Nvidia und ATI endlich merken das immer "schnellere" und "heißere" Chips nicht der richtige Weg sind und auch die Bildqualität wichtig ist ;)
Aber den Tag werd ich sicher auch nimmer erleben.....

Was gibt es an der Bildqualität der jetzigen Karten auszusetzen?

Gast
2007-01-22, 08:32:07
Gleich im ersten Satz eine Verdrehung der Tatsachen, denn Nvidia hat 3dfx nicht übernommen sondern 3dfx ging einfach konkurs.

Gast
2007-01-22, 08:48:40
Du weisst schon, dass du die 6k mit der GF2 Ultra vergleichen solltest (siehe auch die Zeitleiste). Bis auf D3D unter XP (v.a. in hohen Auflösungen) geht die 6k da eigentlich arg gut ab.


Aber auch nur mit einer COU, die es damals nicht gab. Dazu passt natürlich der folgeden Satz:

Dennoch: Das Niveau der GeForce2 Ultra wird fast erreicht. Unterschieden werden muss nur klar zwischen neuen und alten Spielen. Bei ersteren profitieren die GeForce-Karten klar von ihren aktuellen Treibern, während die Voodoos das Nachsehen haben. Betrachtet man jedoch nur die Spiele um den Releasezeitpunkt der Karten, dann sieht das Bild vor allem in 1600x1200 anders aus.

Vielleicht sollte man auch nur CPUs betrachten, die es damals gab.

robbitop
2007-01-22, 10:12:51
Deshalb haben wir doch 1 GHz mit gebencht. Aber wenn man eine CPU Limitierung durch hohe Auflösungen wegwischt, dann sieht man, dass die Voodoo5 6000 auf GF3 Level ist, was doch für eine Karte die Mitte 2000 geplant war (und nur weil man da noch nix vom PCI Rework wußte nicht kam) verdammt gut war.
Mit den Win98 Treibern sieht man oft, dass die Kompatibilität und die Performance besser waren als die damaligen beta Win2k Treiber (diese sind ja heute dank offenem Source Code und SFFT ja nicht mehr zu vergleichen).

Aquaschaf
2007-01-22, 10:20:50
dann sieht man, dass die Voodoo5 6000 auf GF3 Level ist, was doch für eine Karte die Mitte 2000 geplant war (und nur weil man da noch nix vom PCI Rework wußte nicht kam) verdammt gut war.

Selbst wenn die Performance in ähnliche Regionen kommt teilweise - es steht eben Techlevel <DirectX7 gegen DirectX8. Das und der technische Aufwand der für diese Leistung notwendig ist relativiert es aus meiner Sicht wiederum ziemlich.

robbitop
2007-01-22, 10:28:26
Im Jahre 2000 gabs aber weder DX8 noch eine GF3 ;) (zumal es nach der Einführung der GF3 auch noch Ewigkeiten dauerte, eh sich eine brauchbare Umsetzung von Pixelshadern in Spielen wiederfanden. Sehr lange blieb es bei normalem Multitexturing)

Aquaschaf
2007-01-22, 10:30:45
Naja, wenn du den Vergleich mit der Geforce 3 schon bringst.. ;)

reunion
2007-01-22, 10:53:16
Gleich beim ersten Absatz: Woher kommen die 125mio Euro Kaufsumme? AFAIK waren das 112mio US-Dollar.

Der Artikel ist sonst erklassig, und auch die Balken sind in dieser Form sehr übersichtlich und angenehm zu lesen. :up:

Weil ich es gerade sehe: Bei SS SE - TdJ ist einmal in 1024x768x16 bei der GF4 Ti ein Zeilenfehler im Balken.

Lightning
2007-01-22, 11:12:12
Deshalb haben wir doch 1 GHz mit gebencht. Aber wenn man eine CPU Limitierung durch hohe Auflösungen wegwischt, dann sieht man, dass die Voodoo5 6000 auf GF3 Level ist, was doch für eine Karte die Mitte 2000 geplant war (und nur weil man da noch nix vom PCI Rework wußte nicht kam) verdammt gut war.

Wenn man die CPU-Limitierung wegwischt wird der Vergleich aber gerade eben unfair, weil die Voodoo 5 6000 offenbar zu viel CPU-Last erzeugt bzw. die GeForces (dank T&L?) die CPU entlasten.

Aber wie du sagtest wurde ja zum Glück auch mit 1 GHz gebencht. Die Werte mit 2.6 GHz sind zwar ebenfalls interessant, haben aber imo keine Relevanz für eine Bewertung der Karte zu Lebzeiten (wenn sie denn gelebt hätte).


edit: Ansonsten habe ich den Artikel noch nicht ausführlich gelesen, werde ich dann mal in Ruhe tun. :)

Mephisto
2007-01-22, 11:13:16
Seite 3:
da jene Grafikkarten nur einen VSA-100-Chip hat

BlackBirdSR
2007-01-22, 11:26:15
Der Artikel ist sonst erklassig, und auch die Balken sind in dieser Form sehr übersichtlich und angenehm zu lesen. :up:



Es war auch eines der Ziele, die Balken leicht erkennbar darzustellen. Ich denke Robbitop und Raff haben da sehr gute Arbeit geleistet.
Wenn ich etwas zum Kotzen finde, sind es diese annähernd gleichfarbigen Balken, die unter dem Diagramm eine Legende haben, deren Farben man kaum unterscheiden kann.

Ich hatte mit dem Artikel nichts zu tun, also kann ich mal ein großes Lob aussprechen, ohne Eigenlob daraus zu machen :up:

Raff
2007-01-22, 11:29:29
Aber wie du sagtest wurde ja zum Glück auch mit 1 GHz gebencht. Die Werte mit 2.6 GHz sind zwar ebenfalls interessant, haben aber imo keine Relevanz für eine Bewertung der Karte zu Lebzeiten (wenn sie denn gelebt hätte).

Das kann man so oder so sehen. Wenn man "nur" mit einem XE6800 bencht, dann ist eine 8800 GTX in der üblichen Spieleauflösung 1280xY auch nur minimal schneller als eine Radeon X1950 XTX. ;) Wer seine Karte etwas behalten will und dann die CPU aufrüstet/übertaktet, bemerkt das wahre Potenzial. Natürlich ist das mit 2,6 GHz der Extremfall der Gegenüberstellung, aber das war ja auch das Ziel.

Was mich etwas enttäuscht: Fast jeder hier schaut wieder nur auf die Balken. Dass die Voodoo5 6000 damals neben der brachialen 32-Bit-Leistung so nebenbei "ganz passables" AA und somit superbe BQ bot, geht komplett unter.

MfG,
Raff

LovesuckZ
2007-01-22, 11:43:37
Was mich etwas enttäuscht: Fast jeder hier schaut wieder nur auf die Balken. Dass die Voodoo5 6000 damals neben der brachialen 32-Bit-Leistung so nebenbei "ganz passables" AA und somit superbe BQ bot, geht komplett unter.


Das 8xAA heutzutage unbrauchbar ist, ist doch jedem klar. Das ist das Problem, wenn wir Karten von früher mit heutigen Mitteln vergleichen. ;)
Und bevor ich 800*600 auf meinen 20" WS interpolieren, bevorzuge ich Mulitsampling mit TASSAA.

Mr. Lolman
2007-01-22, 11:47:49
Aber wie du sagtest wurde ja zum Glück auch mit 1 GHz gebencht. Die Werte mit 2.6 GHz sind zwar ebenfalls interessant, haben aber imo keine Relevanz für eine Bewertung der Karte zu Lebzeiten (wenn sie denn gelebt hätte).


Man kann die Werte ja auch interpolieren^^

Das 8xAA heutzutage unbrauchbar ist, ist doch jedem klar. Das ist das Problem, wenn wir Karten von früher mit heutigen Mitteln vergleichen. ;)
Und bevor ich 800*600 auf meinen 20" WS interpolieren, bevorzuge ich Mulitsampling mit TASSAA.

Leider war zB in NFS5 Glide nicht benchbar. Das hab ich auf ner 5500 PCI in 960x720 mit 4xAA gespielt. Auf der Voodoo5 6000 müssten sogar 1024x768 8xAA drinnen sein, genauso wie in LFS2 und diversen Glide/WickedGL-Spielen. Außedem war ja nicht nur das 8xAA gut. Einfach mal Screenshots ansehen...

LovesuckZ
2007-01-22, 11:58:15
Leider war zB in NFS5 Glide nicht benchbar. Das hab ich auf ner 5500 PCI in 960x720 mit 4xAA gespielt. Auf der Voodoo5 6000 müssten sogar 1024x768 8xAA drinnen sein, genauso wie in LFS2 und diversen Glide/WickedGL-Spielen.

Wie sieht es in UT2004 aus? Das fehlte im 8xAA Balken. ;)

Außedem war ja nicht nur das 8xAA gut. Einfach mal Screenshots ansehen...

8xAA hebt ihr ins achen Bildqualität öfters heraus. Das das jedoch nur eine theoretische Sache ist, lasst ihr unter dem Teppich fallen.

Mr. Lolman
2007-01-22, 12:06:36
Wie sieht es in UT2004 aus? Das fehlte im 8xAA Balken. ;)

Nun werd nicht zickig. In UT2004 rulort die 6k ohnehin knapp auf Ti4200 Level, mit 2xSSAA. Alle Karten ab GF3 wurden mit 2x Multisampling getestet und können sich trotzdem nicht abheben. Glide Spiele sind für 8xAA schnell genug. Unreal1 rennt perfekt in 1280x1024 8xAA. Was machts auf ner GF2 Ultra?. Maximal mit 4xAA und einem 2x2EER laufen. Klar ist heute nur mehr die Qualität gut, und die Geschwindigkeit gerade mit 8xAA ausser Konkurrenz.

Aber um das zu Wissen brauchts kein Review, sondern nur ein bisschen Hausverstand. Denn das Review sagt auch nicht: "Los gehts euch alle ne 6k kaufen, weil da alle eure Spiele auf nem 20" WS in Fullres mit 8xAA laufen", sondern:

"Seht her wie stark die Karte damals war, und was für eine gute Qualität das 8xAA hat, selbst nach aktuellem Empfinden"



8xAA hebt ihr ins achen Bildqualität öfters heraus. Das das jedoch nur eine theoretische Sache ist, lasst ihr unter dem Teppich fallen.

Wieso theoretisch. Die Spiele die abgelichtet wurden, laufen in dem Setting auch ganz brauchbar (natürlich für Fps-junkies nicht befriedigend, andererseits muss man auch wissen, dass man mit 4 Buffer (=NV default Prerenderlimit 3) weitaus mehr fps braucht, als mit 2.

Raff
2007-01-22, 12:07:42
Das 8x AA war keineswegs theoretisch. (http://www.3dcenter.org/artikel/voodoo5-6000/index26.php) Nur ist das eben kein "High Resolution AA" ... auch wenn die V5 6000 das 4x SSAA schon fast so schnell ausspuckt wie eine GF3 4xS.

Man sollte weiterhin nicht vergessen, dass das 4x AA ebenfalls besser ist als alles andere Jahre danach. Mit der 6000 ist dies überall in 1024x768 (und oft darüber) einsetzbar. Vergleicht mal die AA-Fps der 6000 mit der GF2U ... man stellt fest, dass eher die GF3 mit 4xS auf ihrem Level liegt. Das sind die beeindruckenden Momente. :)

MfG,
Raff

Klingone mit Klampfe
2007-01-22, 12:22:20
Super Artikel, vor allem, weil ihr auch eine Kyro 2 testet :) Wirklich schade, dass sie kaum unterstützt wurde und insgesamt mein größter Hardware-Fehlkauf war.

Jetzt muss ich aber weiterlesen... ;)

Leonidas
2007-01-22, 12:23:11
Gleich beim ersten Absatz: Woher kommen die 125mio Euro Kaufsumme? AFAIK waren das 112mio US-Dollar.


Damals waren es (anderer D-Mark-Kurs!) umgerechnet 125 Mill. Euro. Aber egal, wurde auf die originale Angabe hin korrigiert.





BTW - Neue Version der Zeitleiste: ftp://81.217.22.54/Diverses/zeitleiste_2201.gif
...

Eingebaut.




Seite 3:
da jene Grafikkarten nur einen VSA-100-Chip hat

Gefixt.

Mr. Lolman
2007-01-22, 12:24:48
Außerdem stehts ja im Artikel. Wollte man auf NV GraKas bis inklusive NV40 ein AA was in keinem Fall schlechter ist als 3dfx' 4xAA brauchte man 4x4 OGSSAA.

Damit war ne 6800GT theoretisch nur mehr so schnell wie ne 6k mit 4xAA. Theroretisch deswegen, weil wir mit Hl² so einen Test schonmal gemacht hatten. Da stands zwar DX9 gegen DX7 aber, dafür konnte sich eine 6800GT mit 4x4 OGSSAA auch kaum von ner Voodoo5 5500 PCI (!) mit 4xSGSSAA abheben.


Und Außerdem wäre der wahre Konkurrent der Geforce 3
sowieso nicht mehr die V5 6000 geworden, wenn 3dFX weitergelebt hätte, sondern der Rampage


Genau. Zeitleiste ist eh schon gefixt. Und mit der Argumentation kann man auch gleich sagen: Na warten wir einfach noch ein Jahr länger und holen uns statt der Voodoo5 6000 keine GeForce 3 sondern gleich eine Radeon 9700 pro. ;)

LovesuckZ
2007-01-22, 12:39:31
Nun werd nicht zickig. In UT2004 rulort die 6k ohnehin knapp auf Ti4200 Level, mit 2xSSAA. Alle Karten ab GF3 wurden mit 2x Multisampling getestet und können sich trotzdem nicht abheben.

Und?
Trotzdem wären solche Beispiele mit 8xAA nicht verkehrt. Oder wären die Ergebnisse dann im einstelligen Bereich?

Glide Spiele sind für 8xAA schnell genug. Unreal1 rennt perfekt in 1280x1024 8xAA. Was machts auf ner GF2 Ultra?. Maximal mit 4xAA und einem 2x2EER laufen. Klar ist heute nur mehr die Qualität gut, und die Geschwindigkeit gerade mit 8xAA ausser Konkurrenz.

Ihr vergleicht das AA mit dem AA von heutigen Karten. Also müsst ihr euch auch den praktischen Nutzen stellen. Und 8xSSAA wird selbst auf einer 8800GTX unglaublich langsam sein.
Da bringt es mir nichts, dass die Spiele vielleicht in 800*600 super laufen würden.
Die Zeiten haben sich einfach geändert.

Lightning
2007-01-22, 12:48:05
Das kann man so oder so sehen. Wenn man "nur" mit einem XE6800 bencht, dann ist eine 8800 GTX in der üblichen Spieleauflösung 1280xY auch nur minimal schneller als eine Radeon X1950 XTX. ;)

Sicher, aber wenn man zwei Grafikkarten zu ihren Lebzeiten vergleicht, muss auch die restliche Hardware dazu passen. Zudem hinkt der Vergleich etwas: Die 8800 GTX und X1950 XTX brauchen vergleichbar viel CPU-Last und skalieren ihrer Leistung entsprechend ähnlich.
Man könnte sagen, dass die GeForce 2 besser auf die damaligen CPUs abgestimmt war. Was natürlich nicht bedeutet, dass die Voodoo 5 deswegen langsam(er) war.

Wer seine Karte etwas behalten will und dann die CPU aufrüstet/übertaktet, bemerkt das wahre Potenzial. Natürlich ist das mit 2,6 GHz der Extremfall der Gegenüberstellung, aber das war ja auch das Ziel.

Spätestens bei moderneren Spielen wie UT2003 hätte der Voodoo 5 auch die gute Skalierung mit der CPU nur wenig genutzt, weil die Leistung dort dennoch nicht ausreicht, um eine GeForce 2 zu schlagen.

Was mich etwas enttäuscht: Fast jeder hier schaut wieder nur auf die Balken. Dass die Voodoo5 6000 damals neben der brachialen 32-Bit-Leistung so nebenbei "ganz passables" AA und somit superbe BQ bot, geht komplett unter.

MfG,
Raff

Ich denke niemand bezweifelt, dass die Voodoo 5 6000 beim Anti-Aliasing konkurrenzlos gut war. Das ist ganz klar ein großer Pluspunkt (wegen dem ich mir damals auch eine Voodoo 5 zugelegt hätte). Man darf aber nicht vergessen, dass das AA freilich nicht immer noch mit vernünftiger Performance einsetzbar war, vor allem in neueren Spielen.

Die 32-Bit-Leistung sehe ich jetzt allerdings nicht als so brachial an.

Mr. Lolman
2007-01-22, 13:01:22
Und?
Trotzdem wären solche Beispiele mit 8xAA nicht verkehrt. Oder wären die Ergebnisse dann im einstelligen Bereich?

Keine Ahnung. Ich schätz mal. Es ging uns aber nicht darum unspielbare fps zu produzieren sondern zu zeigen, wie sehr die 6k praktisch einsatzbar war.
Und nun dürfte zumindest mal das TnL Vor(ur)teil der GFs bei UT2004 weggefallen sein, denn zum Release von Ut2k4 war schon ein XP-M 2600+ verfügbar.


Ihr vergleicht das AA mit dem AA von heutigen Karten. Also müsst ihr euch auch den praktischen Nutzen stellen. Und 8xSSAA wird selbst auf einer 8800GTX unglaublich langsam sein.
Da bringt es mir nichts, dass die Spiele vielleicht in 800*600 super laufen würden.
Die Zeiten haben sich einfach geändert.

Haben wir ja. Es wär perfide gewesen zB eine X1900XTX mit in die Benchmarks aufzunehmen, deswegen musste es bei einer theoretischen Betrachtung bleiben - steht alles im BQ-Teil - außerdem hab ich schon mit Raff kämpfen müssen, dass er die 2 Generationen neuere Ti4200 mitreinnimmt. Das wir so nen neuen Prozii getestet haben, hatte auch den Sinn zu zeigen, wie sehr die 6k mit einer Systemaufrüstung mitwachsen kann. Ein Techjunkie, Marketingopfer oder einfach wohlhabender HW Freak hätte natürlich mit dem Release der GF3 gleich zu dieser umgeschwenkt. Anderere hätten vll. nur mal (günstigere) CPU Aufrüstung betrieben. Auch dass wir DS2 mitgetestet haben, was erst ~5 Jahre nach der 6k produziert wurde, ist eher praxisfern - 2005 hatte selbst der grösste 3dfx Fanboy schon genügend günstige/schnelle Aufrüstmöglichkeiten!

Trotzdem: Schön dass das Review so einen Anklang findet, aber der Aufwand steigt exponentiell mit der Größe des Reviews. Raff hat ~2500 Benchmarks getätigt, bis auf den Technik/Diagramme- (robbi) und BQ/Screenshotteil den gesamten Text verfasst und ich bin wohl ebenso lang davor gesessen und hab mir den Kopf über den BQ/Screenshots passende Formulierungen und div. Unregelmässigkeiten im Testablauf zerbrochen.

Das Review behauptet ja auch nicht dass die Karte als gesamtes Produkt mit heutigen GraKa konkurrenzfähig ist. Das ist schon mal insofern nicht möglich, da ja Moore mit seinem Gesetz eine Verdoppellung der Komplexität von ICs im Zeitraum von ~24 Monaten vorrausgesagt hat.
Die GraKas werden in einem Zeitraum von 2 Jahren aber locker 4x schneller (was sich mit der Entwicklung der Halbleiter schlägt und deswegen die Geräte momentan immer fetter/schwerer und energiehungriger werden). Eine 9700pro war in Extremsituationen schon 4x schneller als ne Ti4200. Ne X1900XTX ist da tw. locker 16-20x flotter als ne Ti4200.

Ursprünglich wars NV die mit einem kurzen Produktionszyklus die Konkurrenz mehr oder weniger ausbooten konnte. Jedenfalls kommt man dann genau in das Dilemma, dass wenn man meint, ~1 Jahr länger auf ne GF3 warten zu können, dass ~ ein Jahr später schon wieder die massig schnellere 9700 pro vor der Tür stand.

Dass eine 6 Jahre alte GraKa in der Performance in keinster Weise mit aktuellen Geräten mithalten kann ist klar. Dass haben wir aber auch im Artikel klargestellt. Wenn man wissen will, wieviel schneller ne X1900XTX als HW von Anno 2000 ist muss man halt auf das nächte Megareview von digit-life warten (oder man rechnets überschlagsmässig aus), das war aber nicht der Gegenstand der Betrachtung.

Der war eher, mit diversen Vorurteilen aufzuräumen und der Lady mal so richtig auf den Zahn zu fühlen. Und ich denke, dass ist uns ganz gut gelungen. :)

Odal
2007-01-22, 13:11:44
also sicherlich ein guter artikel....aber ein paar kleiner anmerkungen

ein Barton@1Ghz sollte schneller als ein ur sockelA Athlon @1,2Ghz sein
sollte eher mit der durchschnittscpu eines besserausgestatteten rechners damals getestet werden...(auch heute hat noch nicht jeder der HighEnd GraKas kauft gleich einen Core2Duo 6800 ^^)
ein test mit einer damaligen durchschnitts cpu des anspruchsvollen gamers (833Mhz PIII vielleicht) wäre sinniger...ich hatte im März2001 auf einen athlon900 geupgraded und ich kaufe eigentlich immer über durchschnitt

ok nächster punkt...mit hardware der damaligen zeit und in den damaligen spielen und der Auflösung von damals (1024x768 max. eher manchmal noch 800x600) sehe ich die voodoo5 6000 hinter einer GF2Ultra

und dann noch ein kommentar zu 3dfx.....4 GPU vs 1 GPU + das PCB für eine 4GPU Karte....wofür NVidia eine GPU brauchte braucht 3DFX 4 stück...

3DFX ist nicht zuletzt eingegangen weil sie statt neue GPUs zu entwickeln einfach nur immer mehr auf die Boards gepappt haben.... die V5-6000 hätte 3DFX finanziell den rest gegeben bzw. sie hätten sie entsprechend teuer verkaufen müssen das sich nur wirkliche 3DFX freaks das ding gekauft hätten...

Ailuros
2007-01-22, 13:18:26
Dank an alle Beteiligten an den netten Nostalgie-trip sowohl was vergangene HW als auch alte Spiele betrifft. Man kann sehen dass in dem Versuch sehr viel und ziemlich vorsichtige Arbeit steckt und die paar Einwaende die ich an manchen Stellen haette, feg ich gleich weg vom Tisch.

Ich wuerde es schwer haben einer V5 6000 nachzutrauern und schon gar nicht heutzutage; fragt mich eher was ich vor ca. 4 Jahren bezahlt haette um ein KYRO3 Sample in die Finger zu bekommen LOL ;)

Wie dem auch sei, nochmal ein grosser Lob an alle Beteiligten. Ausgezeichnete Arbeit!

SShock3
2007-01-22, 13:22:49
Danke, klasse Artikel !!!

*in Erinnerungen schwelg*

Mr. Lolman
2007-01-22, 13:26:12
3DFX ist nicht zuletzt eingegangen weil sie statt neue GPUs zu entwickeln einfach nur immer mehr auf die Boards gepappt haben.... die V5-6000 hätte 3DFX finanziell den rest gegeben bzw. sie hätten sie entsprechend teuer verkaufen müssen das sich nur wirkliche 3DFX freaks das ding gekauft hätten...

Na, GaryT hat im Interview auf B3D selbst gemeint, dass man mehrere günstig produzierte GPUs auf SLI Boards tw. lukerativer (oder zumindest ähnlich lukerativ) verkaufen kann, wie eine teuer produzierte GPU. Klar ist das Ding freakig, aber schon die 5500 konnte man günstiger verkaufen, als NV die GF2 GTS. Die Ultra war ja ohnehin knapp doppelt so teuer, da wär die doppelte Chipanzahl der 6k (vgl zur 5500) finanziell auch drinnen gewesen. Ich sehs imo eher als Meisterleistung an, dass man 4 GPUs auf einem PCB unterbringen konnte, wo NV mit der 7900GX2 gerade mal Platz für 1 fand.

BTW: Der Barton ist nicht schneller. Darauf haben wir schon geachtet. Die Voodoo5s waren Karten - prädestiniert für AA. Als ich meine 5500 PCI im Jahr 2000 bekam, hatte ich einen PII-2/333@416. In quasi allen Spielen war (zumindest 2x) AA4free. Ich somitwar einer der wenigen, die tw. schon vor 6 Jahren ein 4x4EER am Schirm hatten (und nicht erst vor ~2.5 Jahren mit dem NV40 - wie so viele).

Mit dem Relase des XP1500+ rüstete ich auch gleich auf den auf. Da machte sich natürlich schon das GPU Limit der 5500 bemerkbar. Im März 2002 kam dann eine Radeon 8500 in den Rechner.

Das Teil hatte eine geile Technik und war auch ziemlich schnell, aber das AA war leider oft nur auf NV Niveau. Und so kams dann, dass ich SS:SE in 1024x768x32 +4xOGSSAA auf der Radeon 8500 spielte (weil ich nicht wollte dass es schlechter aussieht, als auf der 5500) und weniger fps hatte, als mit der Voodoo5 5500 in 1024x768x22 2xAA (!!!) :eek:

Aquaschaf
2007-01-22, 13:44:03
Ich sehs imo eher als Meisterleistung an, dass man 4 GPUs auf einem PCB unterbringen konnte, wo NV mit der 7900GX2 gerade mal Platz für 1 fand.

Ein NV40 dürfte ein kleines bischen komplizierter in der Anbindung sein als ein VSA100. Mit dem Vergleich kann man nicht viel anfangen ;)

Mr. Lolman
2007-01-22, 15:25:16
Ein NV40 dürfte ein kleines bischen komplizierter in der Anbindung sein als ein VSA100. Mit dem Vergleich kann man nicht viel anfangen ;)
Naja, dafür war die Fertigungstechnologie beim NV40 auch schon weit ausgereifter...

Gast
2007-01-22, 15:29:14
Klasse Artikel, wer damals dabei gewesen ist weiß warum er geschrieben wurde.
Die voodo 5 6000 wäre damals der Killer geworden ohne wenn und aber, ob die Spieler damals 500-600DM ausgegeben hätten ist fraglich (eine TNT2 ultra kostete damals ca 250-300DM) denn es wurde viel über den Preis gemault.

Mr. Lolman
2007-01-22, 15:47:48
Klasse Artikel, wer damals dabei gewesen ist weiß warum er geschrieben wurde.
Die voodo 5 6000 wäre damals der Killer geworden ohne wenn und aber, ob die Spieler damals 500-600DM ausgegeben hätten ist fraglich (eine TNT2 ultra kostete damals ca 250-300DM) denn es wurde viel über den Preis gemault.


Naja, die Spieler die tw. >1000 Mark für ne GF2 Ultra locker gemacht haben, hätten die Kohle auch in eine Voodoo5 6000 investieren können. Als Karte für den Massenmarkt war die 6k ohnehin nie gedacht. Die hätte imo hauptsächlich ein Prestigeobjekt werden sollen.

Gast
2007-01-22, 15:59:49
Also ich finde den Artikel klasse, schon alleine aus nostalgischen gründen.

Die Vodoo 3 3000 PCI war meine erste 3D Grafikkarte und der Effekt von 2D auf 3D der war einfach bombastisch beeindruckend, alles darauffolgende war zwar auch immer wieder eine Steigerung, der "wow" -Effekt blieb aber leider immer aus. Schön bei dem Test fand ich ebenfalls das meine anschliesende Kyro2 mit einbezogen ist.... ich hatte damals auch noch nen 1000er TB AMD hat alles gepasst....

Vielen Dank!

Undertaker
2007-01-22, 16:56:00
Naja, die Spieler die tw. >1000 Mark für ne GF2 Ultra locker gemacht haben, hätten die Kohle auch in eine Voodoo5 6000 investieren können. Als Karte für den Massenmarkt war die 6k ohnehin nie gedacht. Die hätte imo hauptsächlich ein Prestigeobjekt werden sollen.

Ich habe diese Summe damals locker gemacht, zusammen mit einem zu dieser Zeit ebenfalls absolut High-endigem Athlon C 1,33GHz... und wenn man jetzt die Benchmarks sieht (der 1,0GHz Barton sollte etwa im Bereich des 1,33GHz Athlon liegen), merkt man das die Voodoo auf einer solchen CPU einfach absolut keine Chance gehabt hätte... schönes und schnelles AA ist zwar ne feine Sache, die gigantischen Verluste durch 32bit Farbtiefe (was mir deutlich wichtiger ist als AA) verhindern eben dieses aber schon bei 1024x768x32...

aber guter Artikel :)

aths
2007-01-22, 17:07:50
Im Artikel sind die meisten AF-Schärfe-Äquivalent-Angaben übertrieben, weil das LOD-Bias zu stark gesenkt wurde. Wenn die Texturen das hergeben, könnte man es auch ohne SSAA ein Stück senken, um sich somit "AF" zu holen.


Bei 2x SSAA wäre streng genommen gar kein LOD-Bias drin. Tatsächlich dürfte -0,25 möglich sein. -0,5 kann bereits zu Moiré führen.

Bei 4x SSAA wäre beim OG-Muster -1 drin, beim SG (sparse grid) eigentlich etwas weniger. Jedenfalls nach konversativer Auffassung. Tatsächlich kann man etwas großzügiger sein. -1 // -1,5 (-1,25) dürfte aber absolutes Limit sein, besser wäre wohl -0,75 // -1,25. Wenn auch -1,5 // -2 drin ist dann müssten die Texturen schon sehr verwaschen sein, dass man auch ohne SSAA am Bias spielen könnte.

Bei 8x SGSSAA wird konversativ gerechnet nicht mal 3x-AF-Äquivalenz geboten. Wenn man die Zusammenhänge etwas lässiger auslegt, könnte man vielleicht auch mit einem LOD-Bias von -1,5 // -2 hinkommen. -1,25 // -1,75 dürfte allerdings das schönere Bild ergeben.


Was bei der Äquivalenzrechnung nicht übersehen werden darf: Information kommt nicht nur durch LOD-Bias-Verschiebung. Damit man die Information auch sieht, muss sie auch eingerechnet werden. Dafür muss sie aber zunächst mal zur Verfügung stehen, also abgetastet werden.

J0ph33
2007-01-22, 17:22:56
auch hier nochmal: Einfach großartig, dieser Test...

irgendwann werde ich das Geld haben, ganz sicher....irgendwann....dann werde auch ich ein Voodoo5-6000-Schrein bauen ;)

Raff
2007-01-22, 17:23:09
also sicherlich ein guter artikel....aber ein paar kleiner anmerkungen

ein Barton@1Ghz sollte schneller als ein ur sockelA Athlon @1,2Ghz sein
sollte eher mit der durchschnittscpu eines besserausgestatteten rechners damals getestet werden...(auch heute hat noch nicht jeder der HighEnd GraKas kauft gleich einen Core2Duo 6800 ^^)

Neue Grafikkarten testet man heutzutage idR auch mit den schnellsten verfügbaren CPUs. Das hat den Grund, dass sich die Grafikkarten in ihrer Rechenleistung schneller entwickeln als CPUs und sonst kaum Unterschiede herauskämen. Hat auch einen Sinn, denn wer ist schon so "kaputt" und kauft sich zu seiner 50€-CPU eine Graka für das 10-fache? ;) So auch bei der 6000. Die hätte sicher niemand ohne eine CPU mit mindestens einem Gigahertz gekauft ... obwohl das aus BQ-Sicht (AA "for free") sogar etwas Sinn ergeben hätte.

Ich habe diese Summe damals locker gemacht, zusammen mit einem zu dieser Zeit ebenfalls absolut High-endigem Athlon C 1,33GHz... und wenn man jetzt die Benchmarks sieht (der 1,0GHz Barton sollte etwa im Bereich des 1,33GHz Athlon liegen), merkt man das die Voodoo auf einer solchen CPU einfach absolut keine Chance gehabt hätte... schönes und schnelles AA ist zwar ne feine Sache, die gigantischen Verluste durch 32bit Farbtiefe (was mir deutlich wichtiger ist als AA) verhindern eben dieses aber schon bei 1024x768x32...

aber guter Artikel :)

In 1024x768 hat die 6000 "keine Chance", richtig. Allerdings muss man sich mal ansehen, in welchen Bereichen man sich bewegt. Wenn die 6000 in 1024x768x16 dank der damaligen Top-CPU auf 60 Fps Average kommt, die GF2 Ultra jedoch auf 80 ... who cares? Flüssig ist flüssig, mehr nur überflüssig. ;) Wenn man aber Eye-Candy mag und die Karte dann wegbricht, suckt das IMO viel mehr. Und genau hier - dort, wo man auch aktuelle Karten bewertet - zieht die 6000 der Ultra stellenweise meilenweit davon.

Zu den gigantischen Verlusten bei 32 Bit: Die sind verglichen mit der gesamten GeForce2-Serie verschwindend gering. Die 6000 kann ihre Füllrate dank dicker Bandbreite auch in 32 Bit voll ausspielen, daher ist auch erst die GeForce3 schneller/gleich schnell. Damals hättest du nichts Besseres für 32 Bit bekommen können. Übrigens - wie Lolli auch breit im BQ-Teil ausgeführt hat - braucht man definitiv in den meisten Fällen ab 4x AA kein 32 Bit. Das SSAA bügelt jegliches Dithering weg! Siehe Shots. =)

Und ob der Barton nun 5-10% schneller ist als ein Tbird 1,2 macht die Unterschiede zwar dezent größer, aber es ändert rein gar nichts an der Wertung. :)

MfG,
Raff

Mr. Lolman
2007-01-22, 17:36:44
Im Artikel sind die meisten AF-Schärfe-Äquivalent-Angaben übertrieben, weil das LOD-Bias zu stark gesenkt wurde. Wenn die Texturen das hergeben, könnte man es auch ohne SSAA ein Stück senken, um sich somit "AF" zu holen.


Bei 2x SSAA wäre streng genommen gar kein LOD-Bias drin. Tatsächlich dürfte -0,25 möglich sein. -0,5 kann bereits zu Moiré führen.

Bei 4x SSAA wäre beim OG-Muster -1 drin, beim SG (sparse grid) eigentlich etwas weniger. Jedenfalls nach konversativer Auffassung. Tatsächlich kann man etwas großzügiger sein. -1 // -1,5 (-1,25) dürfte aber absolutes Limit sein, besser wäre wohl -0,75 // -1,25. Wenn auch -1,5 // -2 drin ist dann müssten die Texturen schon sehr verwaschen sein, dass man auch ohne SSAA am Bias spielen könnte.

Bei 8x SGSSAA wird konversativ gerechnet nicht mal 3x-AF-Äquivalenz geboten. Wenn man die Zusammenhänge etwas lässiger auslegt, könnte man vielleicht auch mit einem LOD-Bias von -1,5 // -2 hinkommen. -1,25 // -1,75 dürfte allerdings das schönere Bild ergeben.

Was bei der Äquivalenzrechnung nicht übersehen werden darf: Information kommt nicht nur durch LOD-Bias-Verschiebung. Damit man die Information auch sieht, muss sie auch eingerechnet werden. Dafür muss sie aber zunächst mal zur Verfügung stehen, also abgetastet werden.

Ich wusste, dass da von deiner Seite noch Einwände kommen werden. Allerdings denke ich auch, dass ich im Artikel deutlich gemacht habe, dass die Diskrepanz zw Nyquist Grenzwerten und tatsächlichen Spielinhalten damals noch viel höher war als heute.

So gabs zB bei UT99 mit LOD -1.5 ohne AA bis 16xfache Unterfilterung. Damals war das gut, konnte man so einfach billig eine höhere Bildschärfe (erkauft durch Unterfilterung) erreichen. Bei nem heutigen Spiel bekommt man mit LOD -1.5 Augenkrebs, (wenn nicht ein paar Supersamples, oder ATis AF da noch ein bisschen drüber fahren).

Will sagen: Meine Äquivalenzrechnungen beziehen sich natürlich auf damalige Gegebenheiten. Und damit war ich eh noch konservativ unterwegs. AFAIK wars Techreport die in ihrem Voodoo5 5500 Artikel meinten, dass mit 4xAA man das LOD problemlos um -2 absenken kann.

Klar bei einem heutigen Spiel, gilt die Rechnung nicht mehr, da die Unterabtastung trotz der Supersamples zu hoch wäre. Aber einer GraKa ists beim AF wurscht, wie scharf die Texturen sind, eine unscharfe Textur wird mit einem 4xAF verhältnismässig auch nicht schärfer als, eine scharfe Textur.

Ich habe diese Summe damals locker gemacht, zusammen mit einem zu dieser Zeit ebenfalls absolut High-endigem Athlon C 1,33GHz... und wenn man jetzt die Benchmarks sieht (der 1,0GHz Barton sollte etwa im Bereich des 1,33GHz Athlon liegen), merkt man das die Voodoo auf einer solchen CPU einfach absolut keine Chance gehabt hätte... schönes und schnelles AA ist zwar ne feine Sache, die gigantischen Verluste durch 32bit Farbtiefe (was mir deutlich wichtiger ist als AA) verhindern eben dieses aber schon bei 1024x768x32...

aber guter Artikel :)

Bei ner Voodoo brauchts mit 4xAA meistens kein 32bit. Das sieht man auch auf den Screenshots. Tw. ist da wirklich kein Unterschied zw. 16bit und 32bit auszumachen. Der 16bit Unterschied ist aber auch schon ohne AA signifikant, geht im Review ein bisschen unter. Hier ein (schon etwas älterer) Screenshot, der das ein bisschen verdeutlicht.

http://img88.exs.cx/img88/6228/3dfx16bitvs22bitvs32bit5ra.jpg
Hier noch ein weiterer Vergleich zw. den unterschiedlichen Postfiltering Mechanismen der Voodoo5: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2938323&postcount=70


Außerdem war der Test ohnehin unfair. NVs hässliche Interpretation von DXT1 geht da zB völlig unter. Vor ~2 Jahren hab ich mal nen (nicht ganz neutralen ;)) Beitrag im Voodooalert Forum verfasst, der ein paar damalige NV Screenshots gegen eine V5 stellt: http://www.voodooalert.de/wbb2/thread.php?threadid=8083

aths
2007-01-22, 17:57:21
Ich wusste, dass da von deiner Seite noch Einwände kommen werden. Allerdings denke ich auch, dass ich im Artikel deutlich gemacht habe, dass die Diskrepanz zw Nyquist Grenzwerten und tatsächlichen Spielinhalten damals noch viel höher war als heute.

So gabs zB bei UT99 mit LOD -1.5 ohne AA bis 16xfache Unterfilterung.Bei entsprechenden Texturen.

Damals war das gut, konnte man so einfach billig eine höhere Bildschärfe (erkauft durch Unterfilterung) erreichen. Bei nem heutigen Spiel bekommt man mit LOD -1.5 Augenkrebs, (wenn nicht ein paar Supersamples, oder ATis AF da noch ein bisschen drüber fahren).AF wirkt nur in eine Richtung – die andere flimmert lustig weiter.

Will sagen: Meine Äquivalenzrechnungen beziehen sich natürlich auf damalige Gegebenheiten. Und damit war ich eh noch konservativ unterwegs. AFAIK wars Techreport die in ihrem Voodoo5 5500 Artikel meinten, dass mit 4xAA man das LOD problemlos um -2 absenken kann. Die Äquivalenzrechnung ist wie gesagt schon deshalb so nicht gültig, weil die AF-Schärfeinformation nicht nur durch die höher aufgelösten Texturen kommt, sondern auch durch gesampelte Texel. Letzteres wird beim "Überziehen" des Bias' nicht geleistet.

Gast
2007-01-22, 18:17:19
schönes und schnelles AA ist zwar ne feine Sache, die gigantischen Verluste durch 32bit Farbtiefe (was mir deutlich wichtiger ist als AA) verhindern eben dieses aber schon bei 1024x768x32...


LOL, 32 Bit Farbtiefe brauchst du doch nur auf Nicht Voodoo Karten.
Die Voodoo Karten haben den 22 Bit Postfilter und der macht 32 Bit so ziemlich überflüssig, vor allem wenn man noch berücksichtigt, wieviel mehr an Leistung man im 22 Bit Modus aus der Karte rausholt.

Und ja, ich habe mir für meine alten Spiele (viele davon Glide optimiert) noch einen extra Voodoo Rechner mit einer Voodoo 5 5500 zusammengebaut, weil
die Grafik bei diesen Spielen auf einer theoretisch besseren Geforce 4 einfach beschissen aussieht und das Spiel nichtmal vernünftig läuft.

Bestes Beispiel:
Klingon Honor Guard (Unreal Engine)
Der Direct3d Modus geht nur in 16 Bit, dementsprechend sieht das auf einer Geforce 4 so richtig scheiße aus.
Bei OpenGL ist das etwas besser, aber dafür gibt es dann Artefakt Fehler.
Kurz gesagt, auf der Geforce 4 macht dieses Spiel keinen Spaß.

Ganz anders dagegen die Voodoo 5, da rennt das Spiel im Glide Modus geradzu und sieht auch noch verdammt gut aus.

In der Anfangszeit der 3d Spieleära war es ein Fehler, keine Voodoo Karte zu kaufen.
Die anderen 3d Karten haben sich meiner Meinung erst nach Release der Geforce 3, also im Jahr 2001 gelohnt, denn man muß immer berücksichtigen, daß man im Jahr 2000 immer noch ne ganze Menge an Glide Spiele spielen konnte und auch noch hatte und wer noch gerne Low Budget Titel kauft, für den gilt das sowieso.

Mr. Lolman
2007-01-22, 18:36:26
Die Äquivalenzrechnung ist wie gesagt schon deshalb so nicht gültig, weil die AF-Schärfeinformation nicht nur durch die höher aufgelösten Texturen kommt, sondern auch durch gesampelte Texel. Letzteres wird beim "Überziehen" des Bias' nicht geleistet.

Wobei die Samples für die Mips>0 durch ihre höhere Ähnlichkeit untereinander schonmal eher ausgelassen werden können, als die der Basemap. ;)
Ich rede ja auch deswegen von einem "ungefähren" Schärfeäquivalent und hab mich um eine extra vorsichtige Formulierung bemüht.

Denn Fakt ist, dass div. User (genauso wie damals die IHV) um bestmögliche BQ bemüht waren. Nach damaligen Gesichtspunkten war zumindest für Epic -1.5 besser als 0.0 - schon ohne AA. So weit würde ich mich nie aus dem Fenster lehnen. Das Einzige was man uns vorwerfen kann, ist dass die starke LOD Verschiebung schon deutlich Performance kostet - vom BQ Standpunkt gibts diverse AF Treibereinstellungen auf weitaus neueren Karten die ein viel schlechteres Bild erzeugen.

Andererseits waren wir bemüht, halbwegs vergleichbare aber gleichzeitig umso mehr im Alltagsgebrauch relevante Settings zu nehmen um uns nichts vorwerfen lassen zu müssen.
__________________________


Das optimale Review hätte imo eh ein bisschen anders ausgesehen:

Man wär nur über den Umweg der Screenshots an die Benchmarkwerte gekommen, was den Effekt gehabt hätte, das jeder User seine persönlich relevanten Vergleiche ziehen hätte können und auch müssen. Aber sowas soll erst mal jemand basteln - der Aufwand wär enorm... :rolleyes:

Dann hätten wir nicht den Zwang zu vergleichbaren Settings gehabt, hätten tw. noch mehr LOD/AA- Settings und Kombinationen anbieten können usw. Ist ja im Endeffekt eine Frage des Zeitaufwands und der war fürs Review schon in der vorliegenden Form enorm.

Ich bleib dabei. Die Settings sind ein guter Kompromiss zw. Vergleichbarkeit und Fairness. (Man hätte uns zB. wohl faschiert, wenn die GF3 und GF4 alle nur mit SSAA rechnen hätten dürfen)

Gast
2007-01-22, 18:44:10
Ein toller Artikel, danke an alle Beteiligten!
Ich selbst habe zwar erst im August 2000 einen eigenen Rechner gehabt, durfte aber vorher mit der Familienkiste (AMD K6 2 366Mhz, ATi Rage2) staunen, wenn die LAN-Kumpels mit ihren Voodoos und ihren TNTs die Frameraten um sich schmissen ;) Danke für diesen nostalgischen Ausflug!
OT: Ich erinnere mich sogar (und gerne) daran, wie ich die erste ATi Radeon kaufte, kaum das sie draußen war. Treiber waren besch****, keine hatte von der Karte gehört oder glaubte, die könne was. Bis ich UT99 auf D3D spielte, mit allen Details (Konsole) an. Das gab ein Theater!

Gast
2007-01-22, 19:07:11
Deshalb haben wir doch 1 GHz mit gebencht. Aber wenn man eine CPU Limitierung durch hohe Auflösungen wegwischt, dann sieht man, dass die Voodoo5 6000 auf GF3 Level ist, was doch für eine Karte die Mitte 2000 geplant war (und nur weil man da noch nix vom PCI Rework wußte nicht kam) verdammt gut war.


Bei der Füllrate ist das ja auch kein Wunder und mehr als einfaches Multitexturing stellt die Voodoo ja nicht dar, du musst bedenken, daß bei einer GF3 doch einige Transistoren ungenutzt bleiben bei den Tests.

Gast
2007-01-22, 19:18:13
Das 8x AA war keineswegs theoretisch. (http://www.3dcenter.org/artikel/voodoo5-6000/index26.php) Nur ist das eben kein "High Resolution AA" ...

Es ist so höchstens schnell wie 2xAA auf einem einzelnen VSA100, also Voodoo 4500, was da an Füllrate noch übrig bleibt, reicht kaum für Auflösungen über 640x480.

Undertaker
2007-01-22, 19:18:38
Ganz anders dagegen die Voodoo 5, da rennt das Spiel im Glide Modus geradzu und sieht auch noch verdammt gut aus.

In der Anfangszeit der 3d Spieleära war es ein Fehler, keine Voodoo Karte zu kaufen.
Die anderen 3d Karten haben sich meiner Meinung erst nach Release der Geforce 3, also im Jahr 2001 gelohnt, denn man muß immer berücksichtigen, daß man im Jahr 2000 immer noch ne ganze Menge an Glide Spiele spielen konnte und auch noch hatte und wer noch gerne Low Budget Titel kauft, für den gilt das sowieso.

welche spiele mit glide unterstützung kamen denn nach erscheinen der geforce 2 serie noch heraus? meines wissens nicht viele...

robbitop
2007-01-22, 19:22:32
Bei der Füllrate ist das ja auch kein Wunder und mehr als einfaches Multitexturing stellt die Voodoo ja nicht dar, du musst bedenken, daß bei einer GF3 doch einige Transistoren ungenutzt bleiben bei den Tests.
Was anderes habe ich auch nie behauptet (ja sogar explizit im Test erwähnt). Aber in den Spielen die zu Lebzeiten dieser Karte war, spielte das keine Rolle.

@aths und Lolman
war das LOD bei 3dfx nicht anders skaliert als bei NV/ATI? (im Sinne von kleiner)

robbitop
2007-01-22, 19:23:57
Es ist so höchstens schnell wie 2xAA auf einem einzelnen VSA100, also Voodoo 4500, was da an Füllrate noch übrig bleibt, reicht kaum für Auflösungen über 640x480.
Die Ergebnisse sprechen für sich. Es ist durchaus ab und an real nutzbar. Reine Rohleistungsbetrachtung sagt noch wenig über die Nutzbarkeit aus.

aths
2007-01-22, 19:36:25
@aths und Lolman
war das LOD bei 3dfx nicht anders skaliert als bei NV/ATI? (im Sinne von kleiner)Das ist bereits umgerechnet.

Es ist so höchstens schnell wie 2xAA auf einem einzelnen VSA100, also Voodoo 4500, was da an Füllrate noch übrig bleibt, reicht kaum für Auflösungen über 640x480.Viele Spiele waren mit der Voodoo4 4500 auch mit 2x AA spielbar.

Raff
2007-01-22, 19:43:32
Ich denke, wir haben genug Zahlen geliefert, um zu zeigen, was wo wie gut spielbar war. Und die sind real und ungeschönt.

MfG,
Raff

aths
2007-01-22, 19:50:56
Wobei die Samples für die Mips>0 durch ihre höhere Ähnlichkeit untereinander schonmal eher ausgelassen werden können, als die der Basemap. ;)
Ich rede ja auch deswegen von einem "ungefähren" Schärfeäquivalent und hab mich um eine extra vorsichtige Formulierung bemüht. Wie gesagt kommt AF-Schärfe dadurch, dass mehr Informationen verrechnet werden und nicht nur dadurch, dass das LOD-Bias verschoben wird. Das LOD-Bias sorgt dafür, dass mehr Informationen zur Verfügung stehen, aber sie müssen auch genutzt (gesampelt) werden.

MIP-Mapping hat zwar auch eine Tiefpass-Wirkung. Deshalb kann man aber noch lange nicht ungestraft Texel übergehen. Sonst könnte man ja gleich das LOD-Bias ins Positive schieben und dann ohne Unterfilterung arbeiten. Kann man aber nicht, da es Schärfe kostet. Andersherum kann man bei MIP-Maps nicht einfach unterfiltern, da es zum Flimmern führen kann. Das Flimmern dürfte zwar von der Amplitude geringer sein als bei Basemap-Unterfilterung, aber die Texturfilterung wurde erfunden, um Aliasing zu vermeiden.

Denn Fakt ist, dass div. User (genauso wie damals die IHV) um bestmögliche BQ bemüht waren. Nach damaligen Gesichtspunkten war zumindest für Epic -1.5 besser als 0.0 - schon ohne AA. Das ist ein einzelnes Beispiel. Mit dem korrekten Bias von 0 sieht es wahrscheinlich zu unscharf aus. Ingesamt ist es ein Beispiel für schlechtes Artwork, man würde performanter fahren, detailliertere Texturen bei einem Bias von 0 zu sampeln.

So weit würde ich mich nie aus dem Fenster lehnen. Das Einzige was man uns vorwerfen kann, ist dass die starke LOD Verschiebung schon deutlich Performance kostet - vom BQ Standpunkt gibts diverse AF Treibereinstellungen auf weitaus neueren Karten die ein viel schlechteres Bild erzeugen. (Bitte: Bindestriche. AF-Treibereinstellung, BQ-Standpunkt, LOD-Verschiebung etc. – ohne Bindestriche sind die Sätze schwerer zu lesen.)

AF-Unterfilterung lehne ich grundsätzlich ab, wie du weißt. Ebenso lehne ich ein falsches LOD-Bias ab. Während ich gegen den AF-"Optimierungs"-Unsinn kämpfe (à la "Wir optimieren so, dass es keinen optischen Unterschied gibt, aber mehr Performance, als FREU DICH!!!11") ist auch klar, dass ich bei LOD-Bias-Spielereien auf die Einhaltung objektiver und sinnvoller Kriterien poche.

RavenTS
2007-01-22, 19:56:59
Feine Sache! Wer keine nostalgische Ader hat wird das einfach nicht verstehen, Menschen sind einfach unterschiedlich. Der eine mag halt n altes Auto oder ne alte und seltene GraKa, der andere nicht.
Sich darüber jetzt zum millionstenmal hier zu fetzen find ich einfach nur unnötig.

Was mich jetzt noch interessiert hätte wäre eine Vergleich anhand des Energieverbrauchs und des Kühlungsaufwandes gewesen...

Gast
2007-01-22, 20:00:03
Das ist bereits umgerechnet.

Viele Spiele waren mit der Voodoo4 4500 auch mit 2x AA spielbar.

Dann haben diese Spiele nur geringe Auflösungen unterstützt, ansonsten hätte ich die Auflösung hochgedreht und dann wird es wieder knapp mit der Füllrate.

Raff
2007-01-22, 20:05:56
Was mich jetzt noch interessiert hätte wäre eine Vergleich anhand des Energieverbrauchs und des Kühlungsaufwandes gewesen...

Kühlaufwand, hm. Da spalten sich die Vorstellungen IMO. 3dfx hat auch der "Göttin" die relativ billigen Aavid-Lüfter samt Minimalisten-Kühlkörper darunter spendiert. Das reicht, um die vier VSA-100-Chips stabil auf 183 MHz laufen zu lassen. Aber, und das ist auch der Grund, warum viele 6000-Nutzer mit weiteren Passivkühlern und Lüftern nachhelfen, die gesamte Platine beginnt nach etwas Zockerei - gerade mit 4x/8x AA - regelrecht zu glühen. Daher sollte man das Schätzchen nur in gut belüfteten Gehäusen betreiben.

Zum Stromverbrauch und der Lautstärke entleihe ich mir mal die Daten der PCGH (der Artikel der Ausgabe 11/2006 stammt aus meiner Feder):

V5 5500: 2,4 Sone
V5 6000: 3,0 Sone

Verbrauch (Gesamt-PC):

V5 5500 (2D): 125 Watt
V5 6000 (2D): 152 Watt
V5 5500 (3D): 140 Watt
V5 6000 (3D): 177 Watt

MfG,
Raff

Gast
2007-01-22, 20:22:11
Will sagen: Meine Äquivalenzrechnungen beziehen sich natürlich auf damalige Gegebenheiten. Und damit war ich eh noch konservativ unterwegs. AFAIK wars Techreport die in ihrem Voodoo5 5500 Artikel meinten, dass mit 4xAA man das LOD problemlos um -2 absenken kann.


komischerweise beziehst du die "damaligen begebenheiten" aber nur auf die V5.

4x OGSSAA erlaubt das LOD straffrei um -1 zu senken, 4xSGSSAA theoretisch etwas weniger, aber so kleinlich wollen wir wirklich nicht sein. ist der texturinhalt unscharf genug um ein LOD von -2 mit 4xSSAA zu erlauben und nicht zu stark zu flimmern, kann man das LOD auch ohne SSAA das LOD um -1 senken bei gleich viel/wenig flimmern.

der vorteil bei 4xSSAA gegenüber keinem SSAA bleibt bei -1, unabhängig vom content, daher wird der erreichbare "AF-grad" maximal verdoppelt.
bei 8xSGSSAA dürfte der vorteil irgendwo bei -1,5 liegen, auch nicht mehr.

mit 2xRGSSAA ist es sowieso sinnlos das LOD zu verringern, da nur in eine richtung überfiltert wird, dass diese nun diagonal ist nützt auch nichts. kann man hier das LOD verschieben, ohne dass es zu visuellen einbußen kommt kann man das gleiche ohne SSAA auch machen.

aths
2007-01-22, 20:24:47
Dann haben diese Spiele nur geringe Auflösungen unterstützt, ansonsten hätte ich die Auflösung hochgedreht und dann wird es wieder knapp mit der Füllrate.Warum hättest du die Auflösung hochgedreht? Ich empfand (und empfinde) 1024x768 mit 2x AA durchweg besser als 1600x1200 ohne AA.

Mr. Lolman
2007-01-22, 20:33:26
Wie gesagt kommt AF-Schärfe dadurch, dass mehr Informationen verrechnet werden und nicht nur dadurch, dass das LOD-Bias verschoben wird. Das LOD-Bias sorgt dafür, dass mehr Informationen zur Verfügung stehen, aber sie müssen auch genutzt (gesampelt) werden.

MIP-Mapping hat zwar auch eine Tiefpass-Wirkung. Deshalb kann man aber noch lange nicht ungestraft Texel übergehen. Sonst könnte man ja gleich das LOD-Bias ins Positive schieben und dann ohne Unterfilterung arbeiten. Kann man aber nicht, da es Schärfe kostet. Andersherum kann man bei MIP-Maps nicht einfach unterfiltern, da es zum Flimmern führen kann.

Das hab ich nirgendwo bestritten.


Das ist ein einzelnes Beispiel. Mit dem korrekten Bias von 0 sieht es wahrscheinlich zu unscharf aus. Ingesamt ist es ein Beispiel für schlechtes Artwork, man würde performanter fahren, detailliertere Texturen bei einem Bias von 0 zu sampeln.

Das Artwork würde maximal eine Verschiebung von -0.25 erlauben, wenn überhaupt.Bei einem Nyquistkorrektem LOD von -1.5 müsste ein Texel jedoch ~3² Pixel abdecken, so dass nur mehr die 'übliche', im Rahmen von bilinearem Filtering erlaubte, aths-approved-"Unterfilterung"* appliziert würde. Und das ist afair nirgendwo in einer Basemap aus UT99 der Fall.


AF-Unterfilterung lehne ich grundsätzlich ab, wie du weißt. Ebenso lehne ich ein falsches LOD-Bias ab.

*) Unterfilterung ists ja theoretisch nur dann, wenns die Wahrnehmungsschwelle übersteigt. Denn eine einfarbige Textur wird auch mit einem LOD von -10 nicht unterfiltert. Eine zweifarbige Textur mit 1bit Unterschied wird im Sinne des Abstasttheorems auch nicht verletzt, wenn das Flimmern unter der Wahrnehmungsschwelle bleibt.

Deine Wahrnehmungsschwelle ist wohl mitunter eine der niedrigsten überhaupt hier. In dem Review ging es nicht darum deine Wahrnehmungsschwelle zu befriedigen, die sich ja mit der Zeit ja auch immer weiter abzusenken scheint - bis sie sich im Alter irgendwann wieder anhebt *g*

Tatsächlich wollten wir einen Durchschnitt produzieren, in dem in jedem Spiel, trotz fixem LOD-Setting, die bestmögliche Darstellungsqualität erzeugt worden wäre. Hätten wir den Grenzwert an der Stelle angesetzt in der in keinem Fall Unterfilterung entstanden wär, wären die Benchmarkbalken wohl etwas länger geworden, dafür hätten die Screenshots über die durchschnittlich (!!!) suboptimale Darstellungsqualität aufschluß gegeben. Naja. Wär in Anbetracht dessen, das man beim Überfliegen ohnehin nur die Balken sieht, vll. garnichtmal nicht so schlecht gewesen X-D

Mr. Lolman
2007-01-22, 20:36:15
ist der texturinhalt unscharf genug um ein LOD von -2 mit 4xSSAA zu erlauben und nicht zu stark zu flimmern, kann man das LOD auch ohne SSAA das LOD um -1 senken bei gleich viel/wenig flimmern.

Der Einwand ist gut, aber praktisch ist das nicht der Fall. Es ist oft so, dass 2xSGSSAA mit -0.5 flimmriger ist, als 4xSGSSAA mit -1.5.

Gast
2007-01-22, 21:09:53
Ich weiß nicht ob man das so stehen lassen kann im Fazit: "Besonderes Augenmerk sollte man weiterhin auf die Effizienz des 3dfx-SLI legen, denn sie liegt unter optimalen Konditionen sogar über der sagenhaften 100%-Marke!"

Klingt etwas zu hochgelobt finde ich, man kann doch Prä DX7 SLI nicht mit dem nötigen Aufwand für heutiges SLI/Crossfire vergleichen und auf die 100% verweisen. Zumal das quasi QuadSLI der 6000er heutzutage ja nicht mehr funktionieren würde (Shaderberechnungen mal ausen vor) da nur 3 Bilder maximal vorausberechnet werden können, und keine 4 oder mehr. Genau deswegen ist QuadSLI ja fast sinnlos atm.

Mr. Lolman
2007-01-22, 21:11:05
Die Bilder werden nicht vorraus berrechnet, sondern gleichzeitig. Da ist kein Lag drinnen, wie bei Quad-SLI-AFR...

Gast
2007-01-22, 21:13:36
Kühlaufwand, hm. Da spalten sich die Vorstellungen IMO. 3dfx hat auch der "Göttin" die relativ billigen Aavid-Lüfter samt Minimalisten-Kühlkörper darunter spendiert. Das reicht, um die vier VSA-100-Chips stabil auf 183 MHz laufen zu lassen. Aber, und das ist auch der Grund, warum viele 6000-Nutzer mit weiteren Passivkühlern und Lüftern nachhelfen, die gesamte Platine beginnt nach etwas Zockerei - gerade mit 4x/8x AA - regelrecht zu glühen. Daher sollte man das Schätzchen nur in gut belüfteten Gehäusen betreiben.


Man denke sich einen Kühler wie der der G8800er Serie auf einer Voodoo5, mit Heatpipes und dickem Radiallüfter mit Airtunnel geht da sicher einiges mehr.
Nicht nur Grafikchips haben sich weiterentwickelt wie man ja daran sehr gut sieht sind wir Kühlleistungstechnisch auch sehr weit fortgeschritten.

IceFire
2007-01-22, 21:18:58
ein richtig guter bericht! enthält auch sehr gute hintergrundinformationen über die textur- und antialiasing-technik!

hm, da ihr euch ja ziemlich damit beschäftigt habt... ihr schreibt, damals gab es keine api, um die effekte wie Depth of Field oder Soft Relections, etc. als durchschnittsprogrammierer anzusteuern... wie sieht das denn heute aus?
ich hab mich mal ein bisschen in die Glide-API versucht einzuarbeiten, bin da aber noch nicht weit gekommen... ist das DoFB über die glide-api mittlerweile ansprechhbar?

und bitte, ändert den letzten Satz :( ich bin derart optimistisch, dass die karte bald wieder laufen wird, dass ich sie nicht als tot bezeichnen würde... höchstens als schwerkrank ;), obwohl so ein defekt für dich sicher ein schwerer schock war.... aber mit ein bisschen guten gelingen geht es ihr hofffentlich bald wieder 1a ;-)


ich hab mir mal überlegt, woher die synchronisationsprobleme mit der 6k herkommen könnten... könnte dies mit dem pci-rework zusammenhängen? laut hank wird da ja das sekundäre pci netzwerk mit anderen zeiten aufgebaut, um längere signalaufbauzeiten zu erreichen (oder so ähnlich ^^), so dass die kommunikation der chips untereinander einfach ausgebremst wird und die karte deshalb so lange synchronisieren muss?
das pci rework behebt ja das problem nicht in seinem kern, sondern umschifft es nur... aber glücklicherweise geht es ja.
vllt. wäre es möglich, ein paar der benches zu wiederholen mit einer 6k ohne pci-rework, die dann zwar mit einem absturzrisiko läuft, aber vllcht. auf voller geschwindikeit läuft? oder schmatzen die karten so schnell ab, dass ein vollständiger durchlauf sicher nicht möglich ist?

Raff
2007-01-22, 21:20:51
IMO kann es nicht am Rework liegen, da Glide und OGL ja sauber laufen.

Zur Karte: Ich muss Hank mal wieder nerven ... auch wegen des 256-MiB-Projekts. ;D

MfG,
Raff

Klingone mit Klampfe
2007-01-22, 22:12:53
Diese LOD-Geschichte hätte einen eigenen Artikel verdient, weil ich mir als Laie so rein gar nichts darunter vorstellen kann und ich von den bisherigen Erklärungen offen gestanden dezente Kopfschmerzen bekomme.

Das dürfte auch einer der Gründe dafür sein, dass manche "nur auf die Balken schauen", wie Raff so schön sagte. Ich gehöre auch dazu :rolleyes:

Mr. Lolman
2007-01-22, 22:18:28
hm, da ihr euch ja ziemlich damit beschäftigt habt... ihr schreibt, damals gab es keine api, um die effekte wie Depth of Field oder Soft Relections, etc. als durchschnittsprogrammierer anzusteuern... wie sieht das denn heute aus?
ich hab mich mal ein bisschen in die Glide-API versucht einzuarbeiten, bin da aber noch nicht weit gekommen... ist das DoFB über die glide-api mittlerweile ansprechhbar?

AFAIK immernoch nicht. Besser ists wenn du dich aber direkt an einen der Glideprogger wendest.

http://www.3dfxzone.it/koolsmoky/glide.html
http://www.users.on.net/~triforce/glidexp/

Diese LOD-Geschichte hätte einen eigenen Artikel verdient, weil ich mir als Laie so rein gar nichts darunter vorstellen kann und ich von den bisherigen Erklärungen offen gestanden dezente Kopfschmerzen bekomme.

Das dürfte auch einer der Gründe dafür sein, dass manche "nur auf die Balken schauen", wie Raff so schön sagte. Ich gehöre auch dazu :rolleyes:

Naja. Screenshots ansehen hilft auch. ;)

aths
2007-01-22, 23:01:40
komischerweise beziehst du die "damaligen begebenheiten" aber nur auf die V5.

4x OGSSAA erlaubt das LOD straffrei um -1 zu senken, 4xSGSSAA theoretisch etwas weniger, aber so kleinlich wollen wir wirklich nicht sein. ist der texturinhalt unscharf genug um ein LOD von -2 mit 4xSSAA zu erlauben und nicht zu stark zu flimmern, kann man das LOD auch ohne SSAA das LOD um -1 senken bei gleich viel/wenig flimmern.

der vorteil bei 4xSSAA gegenüber keinem SSAA bleibt bei -1, unabhängig vom content, daher wird der erreichbare "AF-grad" maximal verdoppelt.
bei 8xSGSSAA dürfte der vorteil irgendwo bei -1,5 liegen, auch nicht mehr.

mit 2xRGSSAA ist es sowieso sinnlos das LOD zu verringern, da nur in eine richtung überfiltert wird, dass diese nun diagonal ist nützt auch nichts. kann man hier das LOD verschieben, ohne dass es zu visuellen einbußen kommt kann man das gleiche ohne SSAA auch machen.Das ist nach der strengen Auslegung argumentiert und auch richtig.

Tatsächlich kann man "in der Praxis" das LOD-Bias mit Supersampling oft ein wenig stärker verschieben. Bei 2x AF wird ja in eine Richtung 2x höher abgetastet. Bei 4x Supersampling wird in die "benötigte" Richtung ebenfalls nur 2x höher abgetastet, aber in die andere, nicht benötigte Richtung, wird überabgetastet. Deshalb kann man bei vielen Texturen das LOD-Bias noch ein klein wenig weiter nach unten drehen, ohne dass es gleich flimmert.

Bei 8x sparse Supersampling liegen die Texel ja "sparse", so dass bei der Filterung bei überzogen starkem LOD-Biasing kein Texel übersehen (sondern "nur" falsch gewichtet eingerechnet) wird. Beliebig weit kann man das natürlich nicht treiben und die Frage ist auch, ob es überhaupt "besser" wird als mit korrektem Bias.

Bei 2x kann man sich eigentlich gar kein LOD-Biasing erlauben. Hier habe ich auch mit der Voodoo 4 4500 erlebt, dass man mit einem negativen LOD-Bias schnell Moiré reinbekommt. Trotzdem ist bei normalen Texturen oft ein wenig Biasing möglich. (Wieder steht die Frage, ob die Texturen damit auch "besser" werden.)

aths
2007-01-22, 23:43:05
Das Artwork würde maximal eine Verschiebung von -0.25 erlauben, wenn überhaupt.Bei einem Nyquistkorrektem LOD von -1.5 müsste ein Texel jedoch ~3² Pixel abdecken, so dass nur mehr die 'übliche', im Rahmen von bilinearem Filtering erlaubte, aths-approved-"Unterfilterung"* appliziert würde. Und das ist afair nirgendwo in einer Basemap aus UT99 der Fall. Dann flimmert es also heftig. Nur weil Epic das als OK ansah, ist es noch lange nicht OK.

*) Unterfilterung ists ja theoretisch nur dann, wenns die Wahrnehmungsschwelle übersteigt. Denn eine einfarbige Textur wird auch mit einem LOD von -10 nicht unterfiltert. Eine zweifarbige Textur mit 1bit Unterschied wird im Sinne des Abstasttheorems auch nicht verletzt, wenn das Flimmern unter der Wahrnehmungsschwelle bleibt. Über Bitrauschen hatten wir schon im Chat gesprochen.

Deine Wahrnehmungsschwelle ist wohl mitunter eine der niedrigsten überhaupt hier. In dem Review ging es nicht darum deine Wahrnehmungsschwelle zu befriedigen, die sich ja mit der Zeit ja auch immer weiter abzusenken scheint - bis sie sich im Alter irgendwann wieder anhebt *g*Mir geht es darum, möglichst sinnvolle Kriterien zu finden, die möglichst objektiv sind.

Tatsächlich wollten wir einen Durchschnitt produzieren, in dem in jedem Spiel, trotz fixem LOD-Setting, die bestmögliche Darstellungsqualität erzeugt worden wäre. Hätten wir den Grenzwert an der Stelle angesetzt in der in keinem Fall Unterfilterung entstanden wär, wären die Benchmarkbalken wohl etwas länger geworden, dafür hätten die Screenshots über die durchschnittlich (!!!) suboptimale Darstellungsqualität aufschluß gegeben. Naja. Wär in Anbetracht dessen, das man beim Überfliegen ohnehin nur die Balken sieht, vll. garnichtmal nicht so schlecht gewesen X-DIch glaube nicht,

- dass bis an die Flimmergrenze gebiaste Texturen gut sind

- oder dass man mit Q bzw. AI on spielen sollte,

sofern man auf Qualität wert legt. "Vergleichbare Qualität" zu finden, wobei der Vergleich ebenfalls flimmrig ist, halte ich bei einer BQ-Diskussion für sinnlos.

Unforgiven_II
2007-01-23, 00:07:53
An dieser Stelle wollen wir noch von einer unserer beiden Testkarten Abschied nehmen. Sie starb am Sonntag, den 7. Januar 2007 beim Wiedereinbau ins System.
Aaaaaaaaaaaaaaaargh! Warum nur? Sie war doch noch so gut!

RavenTS
2007-01-23, 00:14:59
Kühlaufwand, hm. Da spalten sich die Vorstellungen IMO. 3dfx hat auch der "Göttin" die relativ billigen Aavid-Lüfter samt Minimalisten-Kühlkörper darunter spendiert. Das reicht, um die vier VSA-100-Chips stabil auf 183 MHz laufen zu lassen. Aber, und das ist auch der Grund, warum viele 6000-Nutzer mit weiteren Passivkühlern und Lüftern nachhelfen, die gesamte Platine beginnt nach etwas Zockerei - gerade mit 4x/8x AA - regelrecht zu glühen. Daher sollte man das Schätzchen nur in gut belüfteten Gehäusen betreiben.

Zum Stromverbrauch und der Lautstärke entleihe ich mir mal die Daten der PCGH (der Artikel der Ausgabe 11/2006 stammt aus meiner Feder):

V5 5500: 2,4 Sone
V5 6000: 3,0 Sone

Verbrauch (Gesamt-PC):

V5 5500 (2D): 125 Watt
V5 6000 (2D): 152 Watt
V5 5500 (3D): 140 Watt
V5 6000 (3D): 177 Watt

MfG,
Raff

OK, aber ein Vergleich zu den Karten der anderen Hersteller hätte ich jetzt interessanter gefunden ;)

Vega2002
2007-01-23, 01:01:47
Sehr sehr schoener Test.
Es ist gut zu sehen, was die 6600 leisten konnte und was nicht, welches zum untergang wahrscheinlich auch mit beitrug. (leider)
Hatte selber jahre lang 3dfx Karten. Schade nur das sie die Zeiten der Zeit nicht erkannt haben. Z.B. miese Bildqualität damits schneller wird :(
Auch wenns jetzt nicht gerade zur 6600 passt, muss ich es doch loswerden.
Auf den meisten Bildvergleichen zwischen der 8500 und der geforce3-4. Fällt mir auf, das der r200, fast immer das bessere Bild liefert. Teilweise sogar etwas weitere darstellung von Objekten ect. Außerdem werden häufig im Hintergrung, bei denn geforce modellen, mit fehlenden/fehlerhaft dargestellten Objekten geschummelt. Auch das AF wirkt meist nicht so weit wie bei dem r200 (dieser sollte doch sau schlechtes AF besitzen?!?).

Warum ging eigentlich nicht AA bei UT mit der 8500 ? Bin mir ziemlich sicher, das ich das damals schon eingestellt hatte mit meiner 8500. Kann es jetzt nicht mehr beweisen aber es war an da bin ich mir sicher. Hab mit dem r200 angefangen bei den meisten Spielen aa / af einzuschalten. Daher meine Frage ;)

Allerdings muss ich ehrlich sagen, es wäre schoen, wenn man die alte "Göttin" evtl. mal in frieden sterben lässt.

Odal
2007-01-23, 01:17:26
Neue Grafikkarten testet man heutzutage idR auch mit den schnellsten verfügbaren CPUs. Das hat den Grund, dass sich die Grafikkarten in ihrer Rechenleistung schneller entwickeln als CPUs und sonst kaum Unterschiede herauskämen.

eben, spieler rüsten auch eher ihre GPU auf als ihre CPU

meine aktuelle CPU hat 3 grafikkartengenerationen durchlebt

aber mir gings eigentlich darum das die voodoo einen sonderfall darstellte weil fehlende hardwarefeatures (T&L) einfach durch die CPU berechnet werden konnten..und das is halt heute nicht der fall...
ein interessent der v5-6k sieht die langen dinger ähh balken im diagramm des 1,2ghz pcs und spürt hinterher die ernüchterung wenn er sich das teil in seinen 700mhz rechner einbaut...

die voodoo5 ercheatet einfach zuviel leistung aufgrund eines hardwaremangels in kombination mit einer starken cpu...

es gab durchaus spiele die software t&l expliziet anwählbar anboten..mich würde es mal intertessieren ob die auf einer gefrosch2 mit 1,2ghz cpu unterstützung im software t&l schneller liefen als im hardware t&l

Xmas
2007-01-23, 02:00:35
Allerdings hatte man damals keine API-Extension zur Verfügung, welche es dem Entwickler ermöglicht hätte, auf diese Features direkt zurückzugreifen - die Transformationen mussten manuell erfolgen. Demnach hätte jemand eine modulare T-Buffer-Engine programmieren müssen, damit diese Features ihren Einsatz in kommerzielle Spiele gefunden hätten.
Ich habe keine Ahnung was der Autor mit einer "modularen T-Buffer-Engine" meint, aber zumindest in OpenGL (und wohl auch in der letzten Version von Glide) war alles vorhanden was man brauchte.

Auch die Aussage dass Quad-Pipelines weniger fortschrittlich seien, ist sehr gewagt.

Mmmmh
2007-01-23, 02:56:15
Irgendwie verstehe ich die Diskussion überhaupt nicht. Habe mich extra angemeldet. Ich gebe zu, von den technischen Background verstehe ich nichts.

Fast jeden Tag statte ich 3dcenter einen Besuch wegen News und Links ab. Die News des Wochenendes habe ich bereits durchgeackert, da fällt mein Blick auf einen neuen Eintrag bei den Artikel-News. Was? Neu? Voodoo 5 6000? Klick!
Mein Blick fällt auf das 3dfx-Logo, das Datum des Artikels. Ich lese die Einleitung, registriere den Umfang von 26 Seiten und entschließe mich den Artikel in Ruhe später zu studieren.

Ja, ich hatte das Gefühl, das hier eine verspätete Bescherung stattfindet. Also habe ich das Studium des Artikels in eine für mich freundlichere Zeit verlegt. Umso aufgeregter war ich, als ich den Artikel anfing zu lesen.
Den Text habe ich komplett gelesen, auch wenn ich nicht alles vestanden habe. Die einzelnen Tests hab ich z.T. übersprungen. Für eine tiefgründige Analyse des Artikles sind wohl Tage und Wochen statt Minuten und Stunden erforderlich. Nichts desto trotz stoße ich bei den ca. ersten 50 Kommentaren auf die üblichen Benchmarkbalkenheinis. Da wird der falsche Prozzi bemängelt, die falschen Spiele, falsche Settings......

Das Allerwichtigste wird überhaupt nicht gewürdigt!

FÜR DIESEN TEST MUSSTE EINE ÜBER 1000,- EURO TEURE UND NICHT ERSETZBARE GRAFIKARTE IHR LEBEN AUSHAUCHEN!

Würde mich freuen, über Wiederbelebungsversuche Nachricht zu erhalten.

Kommen wir zu den Benchmarks. Sehr uneinheitlich. Mal skaliert die 6000er wundersamerweise auf über 100%, mal auf unter 100% gegenüber der 5500er. Da liegt immer noch einiges im Argen! Wen wunderts. Damals wurde der Treibersupport praktisch über Nacht eingestellt. Erinnere mich immer noch voller Zorn daran.:mad:
Auch die 6000er hätte den Niedergang von 3dfx nicht vehindern können. Der Niedergang von 3dfx hatte andere Ursachen.

Bemerkenswert fand ich den Test mit NFS-Porsche-Schwarzwald. Das war das letzte Spiel, das auf meinem K6-3-550 zufriedenstellend (Glide sei Dank) lief.

Ein für mich nicht unwesentliches Feature der VSA100-Reihe wurde gar nicht erwähnt! Zumindest bei meiner damaligen 5500 funktionierte das tadellos. Egal ob Glide, DX oder OGL. Das voreingestellte AA konnte mittels Hotkey jederzeit mitten im Spiel ein- und ausgeschaltet werden. Hat man solchen Komfort einmal kennengelernt, möcht man ihn nicht wieder missen!

Ich habe auch einige Screenshots unter die Lupe genommen. Am besten sticht in Sachen AA Dungeon Siege 2 hervor. Das Spiel läuft zwar auf Voodoo unterirdisch, schiebe das aber mal auf die Treiber. Um eine vagen Eindruck von Voodoo-AA zu erhalten, sollte man mal die Screenshots der Voodoo mit den Anderen vergleichen. Man beachte die Holzpfähle!

Im Großen und Ganzen bringt der Test nichts Neues. In meiner Erinnerung spuken noch Tests von der 4500 und 5500 herum, die eine Tendenz zeigten, die sich mit dem hier veröffentlichtem nachvollziehen läßt.

Hoffentlich kann das verstorbene Exemplar wiederbelebt werden. Wo bleibt der Defilibrator!

Ansonsten R.I.P.

Gruß andreas


PS: Meine Voodoo3 2000 PCI hat noch 3 Jahre Herstellergarantie! lol

DeusExMachina
2007-01-23, 03:19:07
ganz dumme Frage am Rand: Wie habt Ihr es hinbekommen, bei NFS: Porsche und Taktraten jenseits der 2Ghz, nicht das bekannte Texturenproblem zu haben. Entschuldigung für das OT, doch brennt mir die Frage sehr auf der Zunge.

Gast
2007-01-23, 08:20:50
Warum hättest du die Auflösung hochgedreht? Ich empfand (und empfinde) 1024x768 mit 2x AA durchweg besser als 1600x1200 ohne AA.

Was spielst du denn auf einer V4 in 1024 mit 2AA? Und für die 1600er Auflösung ist die V4 nun wirlich nicht gemacht.

Rogue
2007-01-23, 13:10:59
Hmmm ich verstehe nicht wieso sich der Voodoo-Hype solange hält.

Meine erste 3D karte war ne Geforce1 256DDR gefolgt und ner GF 3 usw. usw.
Zu jeder zeit waren die karten den 3dfx Dingern überlegen.
Selbst dieser gern Zitierte "T-Buffer" war im Verglich zu den TNT/TNT2 Chips ein Witz denn wer so einen Buffer unbedingt hätte haben wollen konnte sich den bei Nvidia selbst schaffen. Der Chip war einfach flexibler.

Als Pioniere im 3D-Segment haben sie für die Voodoo 1 & 2 sicher Lob und Anerkennung verdient, spätestens aber mit der Voodoo 3 waren sie nunmal abgeschlagen und ausser dem Fanhype gabs da eigentlich keine echten Kaufargumente mehr.

Selbst die Voodoo 3 lief bei vielen Games schlecht bis garnicht. Nur durch ein paar Games die mit Glide immernoch besser aussahen (bzw. wenn man feste dran glauben wollte) wie z.B. Half-Life verkaufte sich die Karte noch einigermassen. Alles ab Voodoo 5xxx ging bei uns zu der Zeit nurnoch als "Spielzeug für Liebhaber" durch.
Das ist es heute und das war es schon als die Karten damals auf den Markt kamen. Die Konkurenz war einfach schon bedeutend weiter...

Raff
2007-01-23, 13:25:49
Das Allerwichtigste wird überhaupt nicht gewürdigt!

FÜR DIESEN TEST MUSSTE EINE ÜBER 1000,- EURO TEURE UND NICHT ERSETZBARE GRAFIKARTE IHR LEBEN AUSHAUCHEN!

Würde mich freuen, über Wiederbelebungsversuche Nachricht zu erhalten.

[...]

PS: Meine Voodoo3 2000 PCI hat noch 3 Jahre Herstellergarantie! lol

Sinngemäßes Zitat von Hank Semenec: "3dfx' warranty goes into the 7th year! :D". Recht hat er ... denn er repariert ja die Göttinnen. Zu meiner gibt's noch keine News, aber ich haue ihn die Tage mal an.


ganz dumme Frage am Rand: Wie habt Ihr es hinbekommen, bei NFS: Porsche und Taktraten jenseits der 2Ghz, nicht das bekannte Texturenproblem zu haben. Entschuldigung für das OT, doch brennt mir die Frage sehr auf der Zunge.

Äh, naja, das ist so ... *räusper* Die Texturen sind mit 2,6 GHz dezent matschiger.

Hmmm ich verstehe nicht wieso sich der Voodoo-Hype solange hält.

Meine erste 3D karte war ne Geforce1 256DDR gefolgt und ner GF 3 usw. usw.
Zu jeder zeit waren die karten den 3dfx Dingern überlegen.
Selbst dieser gern Zitierte "T-Buffer" war im Verglich zu den TNT/TNT2 Chips ein Witz denn wer so einen Buffer unbedingt hätte haben wollen konnte sich den bei Nvidia selbst schaffen. Der Chip war einfach flexibler.

Als Pioniere im 3D-Segment haben sie für die Voodoo 1 & 2 sicher Lob und Anerkennung verdient, spätestens aber mit der Voodoo 3 waren sie nunmal abgeschlagen und ausser dem Fanhype gabs da eigentlich keine echten Kaufargumente mehr.

Selbst die Voodoo 3 lief bei vielen Games schlecht bis garnicht. Nur durch ein paar Games die mit Glide immernoch besser aussahen (bzw. wenn man feste dran glauben wollte) wie z.B. Half-Life verkaufte sich die Karte noch einigermassen. Alles ab Voodoo 5xxx ging bei uns zu der Zeit nurnoch als "Spielzeug für Liebhaber" durch.
Das ist es heute und das war es schon als die Karten damals auf den Markt kamen. Die Konkurenz war einfach schon bedeutend weiter...

Hast du den Artikel gelesen? Ich denke nicht.

MfG,
Raff

robbitop
2007-01-23, 13:29:16
Selbst dieser gern Zitierte "T-Buffer" war im Verglich zu den TNT/TNT2 Chips ein Witz denn wer so einen Buffer unbedingt hätte haben wollen konnte sich den bei Nvidia selbst schaffen. Der Chip war einfach flexibler.
Aha? Inwiefern? IMO weißt du nicht, wovon du sprichst.


Als Pioniere im 3D-Segment haben sie für die Voodoo 1 & 2 sicher Lob und Anerkennung verdient, spätestens aber mit der Voodoo 3 waren sie nunmal abgeschlagen und ausser dem Fanhype gabs da eigentlich keine echten Kaufargumente mehr.
Nunja die Voodoo3 3500 war mindestens genausoschnell wie eine TNT2 Ultra und beherrschte zusätzlich noch Glide. Allerdings war 3dfx was Checklistfeatures angeht ein wenig zurück ja.


Selbst die Voodoo 3 lief bei vielen Games schlecht bis garnicht. Nur durch ein paar Games die mit Glide immernoch besser aussahen (bzw. wenn man feste dran glauben wollte) wie z.B. Half-Life verkaufte sich die Karte noch einigermassen.
Aha? Wo war denn eine TNT2 so bedeutend schneller als eine Voodoo3?


Alles ab Voodoo 5xxx ging bei uns zu der Zeit nurnoch als "Spielzeug für Liebhaber" durch.
Das ist es heute und das war es schon als die Karten damals auf den Markt kamen. Die Konkurenz war einfach schon bedeutend weiter...
Wo war die Konkurrenz denn so viel weiter? Die Voodoo 5 5500 war ein paar Prozent langsamer als eine Geforce 2 GTS ja. Dafür war sie aber auch billiger und sie beherrschte 4xSG-SSAA.

Gast
2007-01-23, 13:50:08
Auf den meisten Bildvergleichen zwischen der 8500 und der geforce3-4. Fällt mir auf, das der r200, fast immer das bessere Bild liefert. Teilweise sogar etwas weitere darstellung von Objekten ect. Außerdem werden häufig im Hintergrung, bei denn geforce modellen, mit fehlenden/fehlerhaft dargestellten Objekten geschummelt. Auch das AF wirkt meist nicht so weit wie bei dem r200 (dieser sollte doch sau schlechtes AF besitzen?!?).


das sauschlechte am R200-AF war nicht nur die winkelabhängigkeit sondern das extreme flimmern, auf screenshots wirkte es dadurch aber schärfer.

Klingone mit Klampfe
2007-01-23, 13:59:20
Äh, naja, das ist so ... *räusper* Die Texturen sind mit 2,6 GHz dezent matschiger.

Auch wenn es eigentlich nicht hierher gehört: Warum eigentlich? Gibt es da einen logischen, technischen Zusammenhang oder ist das ein simpler "Bug" des Spiels?

Raff
2007-01-23, 14:05:09
Es gibt keinen logischen Zusammenhang zwischen einer Absenkung der Texturqualität bei erhöhter CPU-Power ... denn die juckt das gar nicht. Texturen sind Angelegenheit der Graka.

das sauschlechte am R200-AF war nicht nur die winkelabhängigkeit sondern das extreme flimmern, auf screenshots wirkte es dadurch aber schärfer.

Und auch noch nur bilinear. 16x AF ist einfach ein einziges Geflimmer mit sichtbarem MIP-Banding.

MfG,
Raff

Xmas
2007-01-23, 14:18:02
Während Glide aufgrund von einer dem W-Buffer ähnlichen, nichtlinearen Quantisierung
Wieso "dem W-Buffer ähnlich"? Es ist das, was man einen W-Buffer nennt (obwohl die Bezeichnungen Eye Space Depth Buffer genauer ist).

Mr. Lolman
2007-01-23, 14:31:12
Wieso "dem W-Buffer ähnlich"? Es ist das, was man einen W-Buffer nennt (obwohl die Bezeichnungen Eye Space Depth Buffer genauer ist).

Siehst du, deswegen wär es notwendig gewesen, sich nochmal mit dir oder Zecki zusammenzusetzen. Das wurde aber in der allgemeinen Verwirrung übersprungen. Da ich mir nicht sicher war, obs nicht noch ne sublimere Definition für W-Buffering gibt (und auch von anderen Seiten keine Einwände bezügl. der Formulierung kamen) steht das nun so wies dasteht.

Ich habe keine Ahnung was der Autor mit einer "modularen T-Buffer-Engine" meint, aber zumindest in OpenGL (und wohl auch in der letzten Version von Glide) war alles vorhanden was man brauchte.


Das Problem war ja, dass man die Vertices manuell transfomieren musste. D.h. für jedes Spiel hätte zB DoF oder MB neu implementiert werden müssen. Mit modularer T-Buffer Engine war einfach ein kleines Tool gemeint, mit dem der ISV die Effekte nur mehr parametrisieren hätte müssen.

In wie weit dies möglich gewesen wäre, ist natürlich die andere Frage. ;)

aths
2007-01-23, 16:16:22
Was spielst du denn auf einer V4 in 1024 mit 2AA? Und für die 1600er Auflösung ist die V4 nun wirlich nicht gemacht.Da gabs einige Glide-Spiele, die das ermöglichten.

Die Voodoo5 6000 – um die es hier geht – hätte man entsprechend mit 8x SSAA nutzen können. Selbst wenn "nur" 4x drin gewesen wäre (dann bei 1024x768) wäre die Qualität besser als ginge man nur über die Auflösung.

Das ist auch der Grund, warum ich eine Voodoo 5 5500 jeder GeForce 2 vorgezogen hätte: 1024x768 mit 2x AA ist praktisch immer drin, die GeForce 2 bietet ohne AA bei 1600x1200 keine so gute Grafik.

aths
2007-01-23, 16:22:22
Hmmm ich verstehe nicht wieso sich der Voodoo-Hype solange hält.Weil du nicht dabei gewesen warst, kannst du es nicht verstehen. You had to be there!

Meine erste 3D karte war ne Geforce1 256DDR gefolgt und ner GF 3 usw. usw.(Bitte: 3D-Karte mit Bindestrich. Fehlen Bindestriche, liest sich ein Text deutlich schwieriger.)

Zu jeder zeit waren die karten den 3dfx Dingern überlegen.Den 3dfx-Dingern (Bindestrich, seit dem ß mein Rechtschreib-Lieblingsthema) waren sie vom Featureset her überlegen. Als die GeForce256 DDR rauskam, hatte 3dfx noch immer nur bestenfalls die Voodoo3 3500 im Angebot, später kam aber die Voodoo5 5500 dazu. Featuremäßig abgeschlagen hätte ich sie trotzdem einer GeForce 2 vorgezogen. Wegen dem Sparse-Grid-Supersampling.

Selbst dieser gern Zitierte "T-Buffer" war im Verglich zu den TNT/TNT2 Chips ein Witz denn wer so einen Buffer unbedingt hätte haben wollen konnte sich den bei Nvidia selbst schaffen. Der Chip war einfach flexibler.Wie hättest du das denn machen wollen mit dem Buffer?

Als Pioniere im 3D-Segment haben sie für die Voodoo 1 & 2 sicher Lob und Anerkennung verdient, spätestens aber mit der Voodoo 3 waren sie nunmal abgeschlagen und ausser dem Fanhype gabs da eigentlich keine echten Kaufargumente mehr.

Selbst die Voodoo 3 lief bei vielen Games schlecht bis garnicht. Nur durch ein paar Games die mit Glide immernoch besser aussahen (bzw. wenn man feste dran glauben wollte) wie z.B. Half-Life verkaufte sich die Karte noch einigermassen. Alles ab Voodoo 5xxx ging bei uns zu der Zeit nurnoch als "Spielzeug für Liebhaber" durch.
Das ist es heute und das war es schon als die Karten damals auf den Markt kamen. Die Konkurenz war einfach schon bedeutend weiter...Für die Voodoo 3 gab es sehr gute Verkaufsargumente: Glide, hohe Kompatibilität, hohe Performance. Bei der Voodoo 5 war die Konkurrenz in Dingen T&L und Register Combiner deutlich weiter. Man kann 3dfx zurecht vorwerfen, auf die Technologiebremse getreten zu sein. Doch die Grafikqualität und noch spielbare Performance mit SGSSAA war unschlagbar.

Gast
2007-01-23, 16:47:30
Und auch noch nur bilinear. 16x AF ist einfach ein einziges Geflimmer mit sichtbarem MIP-Banding.

MfG,
Raff
Wobei das damals(!) nicht so ein Nachteil war weil die Texturen der Spiele an sich recht unscharf waren. Man sah das Mipmap-Banding und das Geflimmere, es störte aber nicht so sehr. Zudem war die starke Winkelabhängigkeit auch nicht so ein Thema weil die meisten Spiele 90°-Winkel hatten. Wenn ich aber ein moderneres Spiel mit dem R200 spiele ... *würg*.


MfG
Die pfiese Priesterin

Raff
2007-01-23, 17:50:39
Da der Thread hier noch immer stark frequentiert ist: Wir suchen Leute für eine Übersetzung ins Englische. Hätte da jemand Zeit und Böcke? =)

MfG,
Raff

AtTheDriveIn
2007-01-23, 18:30:34
Als Pioniere im 3D-Segment haben sie für die Voodoo 1 & 2 sicher Lob und Anerkennung verdient, spätestens aber mit der Voodoo 3 waren sie nunmal abgeschlagen und ausser dem Fanhype gabs da eigentlich keine echten Kaufargumente mehr.

Selbst die Voodoo 3 lief bei vielen Games schlecht bis garnicht. Nur durch ein paar Games die mit Glide immernoch besser aussahen (bzw. wenn man feste dran glauben wollte) wie z.B. Half-Life verkaufte sich die Karte noch einigermassen.

Ich stand damals vor der Entscheidung V3 3000 oder TNT2 pro/ultra. Ich habe mich gegen die Argumente einiger Freunde(kein 32bit,...) für die Voodoo entschieden und es niemals nie bereut. Die Karte war sauflott und ultrakompatibel zu allem. Abgeschlagen sieht anders aus, denn später haben mich genau diese Freunde beneidet. ;)

Ich denke du hast das nicht mehr richtig in Erinnerung...

(die Xentor32 ist eine TNT2 Ultra)
http://www.guru3d.com/review/guillemot/xentor32/bench_total.gif

Gast
2007-01-23, 18:36:35
Wobei das damals(!) nicht so ein Nachteil war weil die Texturen der Spiele an sich recht unscharf waren.

Texturen waren auch damals ähnlich hoch aufgelöst wie heute, außerdem ändert der Texturcontent nichts an dem qualitativ völlig unbrauchbaren AF der R8500. Ich hab AF direkt ausgeschaltet und nie wieder eingeschaltet. Lieber gutes trilineares Filtern als bilineares-AF Geflimmere.

Gast
2007-01-23, 19:04:33
Texturen waren auch damals ähnlich hoch aufgelöst wie heute, außerdem ändert der Texturcontent nichts an dem qualitativ völlig unbrauchbaren AF der R8500. Ich hab AF direkt ausgeschaltet und nie wieder eingeschaltet. Lieber gutes trilineares Filtern als bilineares-AF Geflimmere.
Sorry aber ich habe damals etliche Spiele/Demos angezockt und das einzige Spiel, welches mit dem R200 IMHO wirklich ekelig aussah war Serious Sam: Second Encounter. Ansonsten empfand ich es nicht wirklich als störend auch wenn man die Artefakte gesehen hat wenn man drauf geachtet hat. Gut, ich bin da nicht unbedingt videophil X-D in Sachen Texturfilterung. Gutes AA ist mir wichtiger und da bot der R200 leider nichts. :( Dafür der R300 umso mehr.


MfG
Die pfiese Priesterin

Coda
2007-01-23, 19:08:57
Während Glide aufgrund von einer dem W-Buffer ähnlichen, nichtlinearen Quantisierung von Tiefeninformationen von Präzisionsproblemen größtenteils verschont blieb...

Die Aussage ist falsch (außer ich hab's nicht richtig verstanden). Der W-Buffer ist linear und der Z-Buffer nicht.

Der Z-Buffer hat sich heute aber eh durchgesetzt, weil es sehr viel öfter der Fall ist das man bei nahen Polygonen eine hohe Z-Auflösung braucht und in der Entfernung nicht so sehr.

Auch die Aussage dass Quad-Pipelines weniger fortschrittlich seien, ist sehr gewagt.

Das ist mir auch aufgefallen. Großer Blödsinn. Durch Quad-Pipelines spart man sich sehr viel Logik, was den Füllratennachteil mehr als kompensieren sollte.

Weil du nicht dabei gewesen warst, kannst du es nicht verstehen. You had to be there!

Ich war dabei und versteh's trotzdem nicht.

Mr. Lolman
2007-01-23, 19:42:00
Die Aussage ist falsch (außer ich hab's nicht richtig verstanden). Der W-Buffer ist linear und der Z-Buffer nicht.

Der Z-Buffer hat sich heute aber eh durchgesetzt, weil es sehr viel öfter der Fall ist das man bei nahen Polygonen eine hohe Z-Auflösung braucht und in der Entfernung nicht so sehr.


Der W-Buffer bietet eine zur Entfernung linear ansteigende Genauigkeit. Bei einer linearen Quantisierung der Tiefeninformationen würde sich die Präzision Richtung Z nicht erhöhen, da die Quantisierungsabstände immer die gleichen wären. Eine nichtlineare Quantisierung beim W-Buffer entspricht somit einer linear ansteigende Präzision bei der Abtastung der Z-Werte.

Dass man W-Buffering heutzutage nicht mehr braucht liegt wohl hauptsächlich daran, dass ein 32bit Z-Buffering eine >65000x höhere Präzision hat, als ein 16bit Z-Buffer.

(del)
2007-01-23, 20:50:14
Wir wissen, dass dieser Artikel die Lesergemeinde spalten wird. Das wurde eben eindrucksvoll bewiesen. ;)

Trotzdem sollten auch (oder gerade) die Kritiker mal ein, zwei Blicke darauf werfenSchwachbrüstige Gastgetrolle nimmt sich jetzt wer zu Herzen? Na also.

Es gab zwar schon "unzählige" Artikel auf 3DC, aber das Teil ist unumstritten DIE Referenz. Es könnte auch über Blumenerde handeln. Für mich absolute Spitzenklasse!

Mögen sich auch paar Fehler in der 'Sachkenntnis' eingeschlichen haben, wer hier noch etwas veroffentlichen will, der muß sich erstmal damit messen. Damit ist nicht der Umfang dieses Werkes gemeint, sondern seine allgemeine Qualität und Aufarbeitung.

p.s.: Kann mir jemand erklären, warum so ein Artikel die Gemüter erhitzen kann? coda? aths? Der liebe Rest? Laßt mal euren Sachverstand die Argumente und Meinungen liefern und gut ist. Mehr braucht hier keiner...

aths
2007-01-23, 21:59:48
p.s.: Kann mir jemand erklären, warum so ein Artikel die Gemüter erhitzen kann? coda? aths? Der liebe Rest? Laßt mal euren Sachverstand die Argumente und Meinungen liefern und gut ist. Mehr braucht hier keiner...Hä? Ich bin einer der größten 3dfx-Fanboys, den das Forum je gesehen hat.

Gast
2007-01-23, 22:15:11
p.s.: Kann mir jemand erklären, warum so ein Artikel die Gemüter erhitzen kann? coda? aths? Der liebe Rest? Laßt mal euren Sachverstand die Argumente und Meinungen liefern und gut ist. Mehr braucht hier keiner...
Hach, wer die Zeiten DAMALS erlebt hat ... 3DConcept.net und so. :D

MfG
Die pfiese Priesterin

Mr. Lolman
2007-01-23, 22:37:32
Dann flimmert es also heftig. Nur weil Epic das als OK ansah, ist es noch lange nicht OK.
Es sah ja jeder als ok an. Du hast ja auch Unreal auf ner 3dfx Karte gespielt und dich über die BQ gefreut.


Über Bitrauschen hatten wir schon im Chat gesprochen.
Genau. Ich wollte dies auch nur kurz fürs Forum anschneiden.


Mir geht es darum, möglichst sinnvolle Kriterien zu finden, die möglichst objektiv sind.

Ich glaube nicht,

- dass bis an die Flimmergrenze gebiaste Texturen gut sind

- oder dass man mit Q bzw. AI on spielen sollte,

sofern man auf Qualität wert legt. "Vergleichbare Qualität" zu finden, wobei der Vergleich ebenfalls flimmrig ist, halte ich bei einer BQ-Diskussion für sinnlos.
Da stimm ich dir natürlich zu. Allerdings sollte, wenn man Wert auf Qualität legt, einen AA-Modus mit einem hohen EER verwenden. Genau so, wie wir bei 3dfx Kompromisse bezügl Texturschärfe und -flimmergrad eingehen mussten, mussten wirs eben bei den anderen Herstellern mit dem EER machen. Außerdem wurden ohnehin alle Karten nach Möglichkeit mit bilinearem Filter gebencht. Das gleicht imo die paar D3D Benchmarks wo die 3dfx Karten zwangsweise dithern 'durften' (während bei andere Karten anisotrop gefiltert haben), durch die LOD-Überblendung mehr als aus.

Außerdem sind für 100% Vergleichbarkeit ohnehin die noAA-Benchmarks da.

Wenn man sich für die BQ-Benchmarks interessiert, sollte man sich halt auch unbedingt die Screenshots ansehen und so seine Vergleiche ziehen. Und wenn du meinst, dabei wurden div. subjektive Grenzwerte überschritten (flimmern kann mit einem geübten Auge auch auf Screenshots 'sehen';)), dann kannst du dir die Hand mit demjenigen geben, der zB eine hohe EER hässlich findet. Jedem seine subjektive Meinung. Meiner Meinung nach, kann auch ein Spiel mit bilinearem Filtering und LOD 0.0 durchaus irritierender sein, als eins mit überhaupt keinen Mipmaps - das kommt alles nur auf den jew. Betrachter an.

No.3
2007-01-23, 23:46:00
wunderschöner Artikel :smile:


mal noch ne Frage zu den 32 - 22 - 16 Bit Querelen.

Sind die 32 Bit wirklich 2^32 Farben (d.h. 11 Bits für rot und grün und 10 für blau (oder so) - oder doch nur 24 Bit Farben mit 8 Bit Alpha-Kanal ??



Nunja die Voodoo3 3500 war mindestens genausoschnell wie eine TNT2 Ultra und beherrschte zusätzlich noch Glide. Allerdings war 3dfx was Checklistfeatures angeht ein wenig zurück ja.

jup, eben - hatte ne TNT2 und ne Voodoo 3, erstere in nem Norma 800 GHz Rechner und zweitere in nem maximal übertakteten Sys mit K6-II @450.

Fazit:

TNT2 32 Bit, unspielbar und sah nicht besser aus als die V3

TNT2 16 Bit, vermutlich schneller als die V3 (beim Spielen nicht bemerkbar) aber die Grafikqualität war wüüürrrrrg

Coda
2007-01-23, 23:50:10
Der W-Buffer bietet eine zur Entfernung linear ansteigende Genauigkeit.

Nein. Der Tiefenwert ist beim W-Buffer direkt linear zur Entfernung von der Kamera.

Du verbreitest immer genügend Unsinn hier:
W-buffering provides a linear representation of distance in the depth buffer. Z-buffering is nonlinear and allocates more bits for surface that are close to the eyepoint and less bits farther away

As W is directly proportional to the Z depth relative to the viewer, the result is a linear interpretation of depth.

Etc. pp. Und das ist nicht die einzige Quelle. Und ja ich habe schon W-Buffer benützt inkl. der dafür notwendigen perspektivischen Projektion. Erzähl mir doch nix.

Bei einer linearen Quantisierung der Tiefeninformationen würde sich die Präzision Richtung Z nicht erhöhen, da die Quantisierungsabstände immer die gleichen wären. Eine nichtlineare Quantisierung beim W-Buffer entspricht somit einer linear ansteigende Präzision bei der Abtastung der Z-Werte.

Ich versteh nur blub. Wovon redest du? In der Entfernung mehr Präzision? Das wäre ja komplett kontraproduktiv.

Dass man W-Buffering heutzutage nicht mehr braucht liegt wohl hauptsächlich daran, dass ein 32bit Z-Buffering eine >65000x höhere Präzision hat, als ein 16bit Z-Buffer.

Blödsinn. W-Buffer ergeben einfach keinen großen Sinn für die meisten Anwendungen. Wenn W-Buffer besser wären, würden sie das auch bei erhöhter Präzision sein. Und nein es liegt nicht daran das es schwieriger zu implementieren wäre.

aths
2007-01-23, 23:56:22
Es sah ja jeder als ok an. Du hast ja auch Unreal auf ner 3dfx Karte gespielt und dich über die BQ gefreut. (3dfx-Karte bitte mit Bindestrich.)

Ich weiß nicht mehr, ob mir in Unreal Texturflimmern auffiel. Jedenfalls ist klar, dass bei vernünftigen Texturen das optimale LOD-Bias eines von Null ist. Bei diesem Punkt sehe ich eigentlich keinen Diskussionsbedarf.


Da stimm ich dir natürlich zu. Allerdings sollte, wenn man Wert auf Qualität legt, einen AA-Modus mit einem hohen EER verwenden. Genau so, wie wir bei 3dfx Kompromisse bezügl Texturschärfe und -flimmergrad eingehen mussten, mussten wirs eben bei den anderen Herstellern mit dem EER machen. Außerdem wurden ohnehin alle Karten nach Möglichkeit mit bilinearem Filter gebencht. Das gleicht die paar D3D Benchmarks wo die 3dfx Karten zwangsweise dithern 'durften' (während bei andere Karten anisotrop gefiltert haben), imo durch die LOD-Verschiebung mehr als aus.So oder so kommt man nicht zu wirklich vergleichbarer BQ. Das ist bei der Voodoo 5 imo aber ohnehin unnötig, da sie eine BQ-Karte ist. Eine GeForce 2 bietet zwar bessere Texturqualität, aber insgesamt ist die Voodoo 5 der GF2-BQ überlegen, und das bei spielbarer Performance.

Außerdem sind für 100% Vergleichbarkeit ohnehin die noAA-Benchmarks da.Nur kauft man kaum eine Voodoo 5, um ohne Antialiasing zu spielen.

Wenn man sich für die BQ-Benchmarks interessiert, sollte man sich halt auch unbedingt die Screenshots ansehen und so seine Vergleiche ziehen. Und wenn du meinst, dabei wurden div. subjektive Grenzwerte überschritten (flimmern kann mit einem geübten Auge auch auf Screenshots 'sehen';)), dann kannst du dir die Hand mit demjenigen geben, der zB eine hohe EER hässlich findet. Jedem seine subjektive Meinung. Meiner Meinung nach, kann auch ein Spiel mit bilinearem Filtering und LOD 0.0 durchaus irritierender sein, als eins mit überhaupt keinen Mipmaps - das kommt alles nur auf den jew. Betrachter an.Aus Standbildern heraus lässt sich nur schwer abschätzen, ob es in Bewegung flimmert. Hohe EER ist bei Antialiasing objektiv gut. Bei fast allen Texturen sind MIP-Maps sehr sinnvoll, MIP-Map-loses Rendering führt dann zu grauenhaftem Flimmern. Nur weil es einige Spiele gab, die kein MIP-Mapping nutzen und trotzdem gespielt wurden, stellt das nicht den Sinn von MIP-Maps infrage.


Coda,

bei deinen ganzen Kraftausdrücken glaube ich nicht, dass du besonders ernst genommen wirst. Nur weil du das eine oder andere Detail besser weißt, musst du anderes nicht als "Unsinn" und "Bullshit" abtun.

Coda
2007-01-23, 23:59:22
Wird man hier doch in letzter Zeit eh nicht mehr. Lolman geht mir aufn Keks, er versucht ständig irgendwelchen Mist zu verbreiten.

Der Artikel hat einen Fehler an dieser Stelle und dieser wird mal wieder zugunsten des heiligen 3Dfx ausgelegt. Deshalb will er es auch nicht akzeptieren.

aths
2007-01-23, 23:59:56
wunderschöner Artikel :smile:


mal noch ne Frage zu den 32 - 22 - 16 Bit Querelen.

Sind die 32 Bit wirklich 2^32 Farben (d.h. 11 Bits für rot und grün und 10 für blau (oder so) - oder doch nur 24 Bit Farben mit 8 Bit Alpha-Kanal ??Natürlich RGBA 8888, also 8 Bit pro RGB-Farbkanal, "TrueColor". "32 Bit" ist insofern nur 256x (8 Bit) feiner Farb-aufgelöst als 16 Bit. Problem bei 16 Bit: Man kann mit Ausnahme von Schwarz und Weiß keine Graustufen darstellen. Auch bei TrueColor kann man nur 256 Graustufen darstellen – zuwenig für feine Farbverläufe.

aths
2007-01-24, 00:00:35
Wird man hier doch in letzter Zeit eh nicht mehr. Lolman geht mir aufn Keks, er versucht ständig irgendwelchen Mist zu verbreiten.Lolman ist auf dem Wege der Erleuchtung. Ich glaube nicht dass du mit herausgerotzten Berichtigungen auf Aufmerksamkeit stößt.

Coda
2007-01-24, 00:02:36
Wenn ich nachweislich erwiesene Fakten anmerke (das noch in eingermaßen sachlichem Ton) und er sich dann anmaßt mich mit falschen Sachen berichtigen zu müssen, dann mein lieber Aths reagiere ich nunmal pampig.

No.3
2007-01-24, 00:04:32
Natürlich RGBA 8888, also 8 Bit pro RGB-Farbkanal, "TrueColor". "32 Bit" ist insofern nur 256x (8 Bit) feiner Farb-aufgelöst als 16 Bit. Problem bei 16 Bit: Man kann mit Ausnahme von Schwarz und Weiß keine Graustufen darstellen. Auch bei TrueColor kann man nur 256 Graustufen darstellen – zuwenig für feine Farbverläufe.

also zeigen die "32 Bit Karten" effektiv also nur 24 Bit Farben.

wenn der Voodoo "22 Bit Modus" also "effektiv" 22 Bit Farben darstellt, dann ist der Unterschied 16777216 <> 4194304 Farben praktisch nicht mehr zu erkennen.

Gast
2007-01-24, 00:08:43
(3dfx-Karte bitte mit Bindestrich.)

aths, Pedanterie ist auch kein Mittel der Wahl, um sich dem Diskussionspartner in angenehmen Licht zu präsentieren. :)
Nur so als Tipp, wenn du schon Codas Ausdrucksweise kritisierst.

Gast
2007-01-24, 00:09:55
Der Artikel hat einen Fehler an dieser Stelle und dieser wird mal wieder zugunsten des heiligen 3Dfx ausgelegt. Deshalb will er es auch nicht akzeptieren.Sagt mal sind wir hier im Irrenhaus? Du hast eine Stelle angemeckert, er nach bestem Wissen und Gewissen geantowrtet, du um 23:50 gekontert (bzw. "hingerotzt") Jetzt haben wir nichtmal 00:07 und schon will er überhaupt nichts wahr haben und genausowenig akzeptieren? Darf er sich vielleicht nun selbst schlau machen, statt einfach nur an deiner Rotze zu schnüffeln?

Sorry, aber du bashst dich in den letzten Tagen irgendwie selbst...

Gast
2007-01-24, 00:14:26
Was ich immer noch überhaupt net raffe ist, warum 3DFX die EINZIGE Firma war, deren Grafikchips PERFEKT GLEICHMÄSSIG mit VSync funktionierten, und sechs Jahre später selbst hunderte Euros teure Karten immer noch unsynchronisiert betrieben werden müssen, weil Bewegungen sonst ungleichmäßig werden.

Was für einen Bockmist bauen die heute eigentlich?

Gast
2007-01-24, 00:15:00
Wenn ich nachweislich erwiesene Fakten anmerkeDann wollen manche erstmal nachschauen, ob sie wirklich nachweislich erwiesen sind. Die Leute wollen doch lernen und verstehen und nicht nur dir nach dem Mund plappern. Willst du es, lieber Gott? Auch wenn du Recht hast (!) gibt es bereits jetzt schon keinen Grund sich aufzuregen.

BH. Gute Nacht :|

StefanV
2007-01-24, 00:17:31
also zeigen die "32 Bit Karten" effektiv also nur 24 Bit Farben.

wenn der Voodoo "22 Bit Modus" also "effektiv" 22 Bit Farben darstellt, dann ist der Unterschied 16777216 <> 4194304 Farben praktisch nicht mehr zu erkennen.
Nur ist der '22bit Modus' der Voodoos kein 22bit Modus sondern nur ein besonders optimierter 16bit Modus (damals noch zu akzeptieren da viele Spiele keinen 32bit Modus konnten, wobei es auch damals schon karten gab, die recht gut im 32bit Modus waren, die G400 und Rage128 zum Bleistift), bei letzterer hat man sich auch gleich die Mühe für einen optimierten 16bit Modus gespart und sich gleich um 32bit gekümmert...

Coda
2007-01-24, 00:19:00
Dann wollen manche erstmal nachschauen, ob sie wirklich nachweislich erwiesen sind.

Man könnte mir zur Abwechslung aber auch mal was glauben. In letzter Zeit ist es echt nervig hier.

Was ich immer noch überhaupt net raffe ist, warum 3DFX die EINZIGE Firma war, deren Grafikchips PERFEKT GLEICHMÄSSIG mit VSync funktionierten, und sechs Jahre später selbst hunderte Euros teure Karten immer noch unsynchronisiert betrieben werden müssen, weil Bewegungen sonst ungleichmäßig werden.

Was für einen Bockmist bauen die heute eigentlich?

Das ist jetzt nicht ernst gemeint oder? So einen Effekt gibt es sicher nicht. Evtl. solltest du mal Tripple-Buffer einschalten.

Nur ist der '22bit Modus' der Voodoos kein 22bit Modus sondern nur ein besonders optimierter 16bit Modus (damals noch zu akzeptieren da viele Spiele keinen 32bit Modus konnten, wobei es auch damals schon karten gab, die recht gut im 32bit Modus waren, die G400 und Rage128 zum Bleistift), bei letzterer hat man sich auch gleich die Mühe für einen optimierten 16bit Modus gespart und sich gleich um 32bit gekümmert...

Zumal das ein Postfilter ist, was das Bild nicht unbedingt besser macht. Verlorene Informationen sind verlorene Informationen - alte Binsenweisheit.

aths
2007-01-24, 00:21:44
Wenn ich nachweislich erwiesene Fakten anmerke (das noch in eingermaßen sachlichem Ton) und er sich dann anmaßt mich mit falschen Sachen berichtigen zu müssen, dann mein lieber Aths reagiere ich nunmal pampig.Lieber Coda, auch du hast schon – aus Unwissen, nicht aus böser Absicht – Unsinn erzählt. Gerne ist das Forum dann behilflich, um Dinge richtigzustellen. Auch ich habe hier im Forum schon Müll vom Stapel gelassen.

Lolmans Vorstellungen sind schon manchmal etwas komisch. Aber ich weiß auch nicht alles (weißt du alles) und schreibe dann manchmal Stuss. Wer ohne Sünde ist, werfe den ersten Stein. Es ist ja nicht so, dass er absichtlich bei falschen Darstellungen bleibt.

StefanV
2007-01-24, 00:25:17
Was ich immer noch überhaupt net raffe ist, warum 3DFX die EINZIGE Firma war, deren Grafikchips PERFEKT GLEICHMÄSSIG mit VSync funktionierten, und sechs Jahre später selbst hunderte Euros teure Karten immer noch unsynchronisiert betrieben werden müssen, weil Bewegungen sonst ungleichmäßig werden.

Was für einen Bockmist bauen die heute eigentlich?
Das musst du anders sehen:

Einmal sind damals viele Spiele für Softwarerenderer geschrieben worden, 3DFX wurde zum Teil reingepatcht, ist ja klar, das das Spiel dann flüssiger läuft.
zum anderen sind die Datenmengen im Vergleich zu heute ein schlechter Witz.

Du musst dir mal auf der Zunge zergehen lassen:
Die V1 hatte 2MiB Textur Ram und 2MiB Framebuffer, heutige Karten haben z.T. mehr als das hundertfache...
Und da die Grafik nicht so aufwendig war, konnte man mehr Zeit damit verpulvern, damits ganze wirklich gut läuft...

Wobei Punkt 1: die meisten Rechner hatten garkeinen 3D Beschleuniger, am zutreffensten sein dürfte...

Coda
2007-01-24, 00:25:58
Es ist ja nicht so, dass er absichtlich bei falschen Darstellungen bleibt.

Na da bin ich hier aber anderes gewohnt. Vor allem bzgl. "Bei 3Dfx flimmert auch bei LOD -1024 mit 2xSupersampling NIX!!!111" usw.

Hör mir doch auf. Da ist doch keine normale Diskussion mehr möglich.

Mr. Lolman
2007-01-24, 00:33:38
Ok, ich hab mich da ein bisschen in die Irre leiten lassen. Sry, va. für den Stuss in Post #122. So müssts dann aber stimmen, oder?

"Während Glide aufgrund einer, dem W-Buffering entsprechenden, linearen Quantisierung von Tiefeninformationen von Präzisionsproblemen größtenteils verschont blieb..."

Coda
2007-01-24, 00:35:14
Das stimmt so ja auch nicht. Die 3Dfx-Karten konnten einen W-Buffer verwenden, aber der Standard war bei den meisten Spielen genauso der Z-Buffer. Das ist völlig orthogonal zu Direct3D und OpenGL.

Die damaligen nVIDIA-Karten konnten iirc auch W-Buffering. Ich würde den Paragraphen so einfach streichen, weil das kein Vorteil seitens 3Dfx ist. Sie hatten einfach den Nachteil nur mit 16-Bit-Z leben zu müssen. Man muss ja nicht alles schönreden.

Mr. Lolman
2007-01-24, 00:46:27
Dann bin ich mir zumindest ab dieser Stelle 100% sicher, dass die Unreal Engine in Glide einen W-Buffer applizierte und in allen anderen Apis nicht. Denn darauf stützen sich zum großen Teil meine Beobachtungen, also auf die unterschiedliche Darstellungsqualität bei den Verschiedenen Apis in div. Engines. Und ehrlich gesagt hatte ich bis jetzt (v.a. durch den Editor und auch durch die gute Dokumentation im Netz) hauptsächlich die Unreal Engine genutzt um mein Wissen zu vertiefen.

Und da konnt ich ehrlich gesagt nicht wissen, dass Epic so frech ist, und bloß Glide einen W-Buffer einsetzt, und in anderen Direct3D und OpenGL fröhlich die Pixel mittels Z-Buffering gegeneinander kämpfen lassen. Sieht man sowas, dann denkt man sich halt, dass das an der Glide Api liegt, und nicht das Epic dies vll. auch noch absichtlich so dreht. :rolleyes:

Also sry nochmal für den Stuß der dadurch entstanden ist....

aths
2007-01-24, 00:48:55
also zeigen die "32 Bit Karten" effektiv also nur 24 Bit Farben.

wenn der Voodoo "22 Bit Modus" also "effektiv" 22 Bit Farben darstellt, dann ist der Unterschied 16777216 <> 4194304 Farben praktisch nicht mehr zu erkennen.Die 22-Bit-Farbe entsteht aber aus 16-Bit-Farbe. Die 24-Bit-Information bei 32-Bit-Rendering ist "echt", die 22-Bit-Information von den Voodoos stammt aus einem 16-Bit-Framebuffer. Intern wird natürlich auch mit 32 Bit (24 Bit Farbe) gerendert, doch der Framebuffer fasst nur 16 Bit pro Pixel.

Der 22-Bit-Filter ist eine Art Rekonstruktionsfilter, der versucht, das Dithering rückgängig zu machen. Das geht allerdings nur begrenzt. Dithering tauscht räumliche Auflösung gegen (in der Fläche) erhöhte Farbauflösung. Die verlorene räumliche Auflösung lässt sich nicht mehr zurückgewinnen.

Coda
2007-01-24, 00:52:01
Dann bin ich mir zumindest ab dieser Stelle 100% sicher, dass die Unreal Engine in Glide einen W-Buffer applizierte und in allen anderen Apis nicht. Denn darauf stützen sich zum großen Teil meine Beobachtungen, also auf die unterschiedliche Darstellungsqualität bei den Verschiedenen Apis in div. Engines. Und ehrlich gesagt hatte ich bis jetzt (v.a. durch den Editor und auch durch die gute Dokumentation im Netz) hauptsächlich die Unreal Engine genutzt um mein Wissen zu vertiefen.

Und da konnt ich ehrlich gesagt nicht wissen, dass Epic so frech ist, und bloß Glide einen W-Buffer einsetzt, und in anderen Direct3D und OpenGL fröhlich die Pixel mittels Z-Buffering gegeneinander kämpfen lassen. Sieht man sowas, dann denkt man sich halt, dass das an der Glide Api liegt, und nicht das Epic dies vll. auch noch absichtlich so dreht. :rolleyes:

Also sry nochmal für den Stuß der dadurch entstanden ist....

Naja bei der Unreal-1-Engine lief bei anderen APIs außer Glide so einiges schief (da stimmen ja noch nicht mal die Farben, obwohl auch bei D3D und Glide die Gamma-Ramp veränderbar ist). Ich würde das nicht immer als Vergleich heranziehen. Ich vermute das liegt u.A. daran dass Unreal seine komplett eigenständige Vertex-Transformationspipeline hat und das D3D und OGL überhaupt nicht so gerne mögen.

Wenn du Sicherheit willst: Frag Zeckensack (falls der überhaupt noch erreichbar ist). Der Glide-Wrapper müsste das eigentlich mitbekommen was die App anfordert. Falls er UT99 oder Unreal noch installiert hat ist das eine Sache von 5 Minuten. Oder er weiß es eh schon auswendig vom Debuggen.

Gast
2007-01-24, 01:00:18
Man könnte mir zur Abwechslung aber auch mal was glauben. In letzter Zeit ist es echt nervig hierDu tust das doch auch bei keinem ;) Gönn' den Leuten das, die sich trotz allem immer wieder als lernfähig und lernwillig erweisen. Einfach nur zuhören und glauben kann man in der Kirche...


und wech

Raff
2007-01-24, 01:47:14
Nur ist der '22bit Modus' der Voodoos kein 22bit Modus sondern nur ein besonders optimierter 16bit Modus (damals noch zu akzeptieren da viele Spiele keinen 32bit Modus konnten, wobei es auch damals schon karten gab, die recht gut im 32bit Modus waren, die G400 und Rage128 zum Bleistift), bei letzterer hat man sich auch gleich die Mühe für einen optimierten 16bit Modus gespart und sich gleich um 32bit gekümmert...

Zum Erscheinen der genannten Karten war keine auch nur annähernd "gut". 32 Bit war 1999-2000 nur in den seltensten Fällen schöner, kostete aber immer ganz fies. Eine Rage 128 hat keinen "guten" 32-Bit-Modus, verliert aber IIRC weniger beim Sprung von 16 Bit, welches wiederum sehr kompromissbehaftet war. Langsam im Vergleich zur Konkurrenz und ganz üble Rasterung.

MfG,
Raff

StefanV
2007-01-24, 02:06:06
Hm, dann schmeiß ich mal die matrox Millenium G400 ins Feld, die den Voodoos in allen Punkten überlegen war.

Und das wichtigste:
Das Teil konnt sogar trilineare Filterung (ja, wirklich, echtes!!) und kein Mip Map Dithering wie das 3DFX Zeugs (kann der VSA100 eigentlich schon TF?!)

Mr. Lolman
2007-01-24, 02:40:26
Hm, dann schmeiß ich mal die matrox Millenium G400 ins Feld, die den Voodoos in allen Punkten überlegen war.

Und das wichtigste:
Das Teil konnt sogar trilineare Filterung (ja, wirklich, echtes!!) und kein Mip Map Dithering wie das 3DFX Zeugs (kann der VSA100 eigentlich schon TF?!)

Hm, war die nicht verdammt teuer und erreichte tw, nichtmal Banshee Speed?

Coda
2007-01-24, 03:05:28
Ne.

http://www.xbitlabs.com/articles/video/display/matrox-g400max.html

Mr. Lolman
2007-01-24, 03:31:28
Naja in OpenGL wars anscheinend derb CPU limitiert, so wie die in Q2 Crusher abfällt, wobei ihr die hohen Auflösungen noch am besten schmecken:

http://www.anandtech.com/showdoc.aspx?i=951&p=1

Coda
2007-01-24, 03:57:21
Die späteren OpenGL-Treiber waren aber offenbar besser laut XBit. Bei Non-T&L-Hardware muss der OpenGL-Treiber eben alle Transformationen durchführen, bei Direct3D erledigt das die Runtime (und die war immer sehr gut optimiert).

Auf jeden Fall war die Karte sehr gut. Schade dass Matrox danach nichts mehr zustande brachte.

aths
2007-01-24, 04:28:12
Und das wichtigste:
Das Teil konnt sogar trilineare Filterung (ja, wirklich, echtes!!) und kein Mip Map Dithering wie das 3DFX Zeugs (kann der VSA100 eigentlich schon TF?!)Trilineare Filterung (single-pass) ist auch auf einer Voodoo 2 möglich. Ohne dass die TMUs selbst trilinear filtern können.

Gast
2007-01-24, 09:00:45
Naja, wäre wohl in der Praxis doch eher die Geforce3 geworden- mit SHADER ;)
(Februar 2001)
Das wäre so als ob man das schnellste Impulsantrieb-Raumschiff mit dem ersten Warpschiff vergleicht ;D;D

Nene, ich behaupte mal die 6000er wäre sowieso abgestunken, einfach viel zu alte Technik...

joe kongo @ work

Sag ich auch mal so, mich störte damals schon die Vodoo2 welche
unterm Unreal Eröffnungsbildschirm (dort wo's rund ums Schloss ging) überhitzte und den Rechner abschmieren lies. Nach 3 Fingerkühlkörpern war dann Ruhe. Und die proprietären Glide Treiber waren auch fies von 3DFX
anstatt OGL zu nutzen oder weiterzuentwickeln.
Sein wir doch alle froh das 3DFx untergegangen ist :).

Gast
2007-01-24, 09:25:33
Wenn du Sicherheit willst: Frag Zeckensack (falls der überhaupt noch erreichbar ist). Der Glide-Wrapper müsste das eigentlich mitbekommen was die App anfordert. Falls er UT99 oder Unreal noch installiert hat ist das eine Sache von 5 Minuten. Oder er weiß es eh schon auswendig vom Debuggen.Alle Glide-Spiele die was auf sich halten, auch U1 und UT99, nutzen den W-Buffer, und der Grund dafür ist banalerweise die Performance. W braucht das Teil sowieso um die Texturen perspektivisch korrekt zu applizieren, Z dagegen ginge extra. Einen W-Buffer zu nutzen heißt dass man sich einen pro Vertex zusätzlich zu berechnenden Parameter sparen kann.

Auf der Hardware-Ebene können die Voodoos freilich gar nichts mit (Gleitkomma-)W anfangen. Macht aber nichts, der Treiber schummelt das schon irgendwie hin. Der tut einfach so als gäbe es da ein Gleitkommaformat mit 4 Bit Exponent und 12 bit Mantisse, was zu einer durchaus vorteilhaften Verteilung der Präzision über die Tiefe führt, aber die Hardware versteht Tiefenwerte nur als lineare 16 Bit-Integer. Dies ist ein Geheinmnis das ich höchstselbst dem Tiefeninterpolator einer Voodoo 3 entlockte.
*brustschwell*

Auf die Textur-/Farb-/Sonstwas-Qualität hat das alles gar keinen Einfluss. Qualitätsunterschiede zum Z-Buffer gibt's maximal in Form von geringerem Z-Fighting. Wobei dies genau genommen ein Applikationsproblem ist, denn den gleichen primitiven Trick wie der Voodoo-Treiber könnte auch die Applikation selbst einsetzen.

-zecki

Gast
2007-01-24, 10:01:58
Zum Erscheinen der genannten Karten war keine auch nur annähernd "gut". 32 Bit war 1999-2000 nur in den seltensten Fällen schöner, kostete aber immer ganz fies.

32Bit ist immer, d.h in allen Fällen, schöner als 16 Bit. Ausnahmen davon gibt es keine.

RavenTS
2007-01-24, 10:14:33
32Bit ist immer, d.h in allen Fällen, schöner als 16 Bit. Ausnahmen davon gibt es keine.

Und was ist wenn die Texturen nur in 16Bit vorliegen und der 32Bit-Modus nur für die Feature-Liste ist.?!

Gast
2007-01-24, 10:24:54
Die Framebufferfarbtiefe hat nichts mit der Texturfarbtiefe zu tun.

robbitop
2007-01-24, 10:26:17
Und was ist wenn die Texturen nur in 16Bit vorliegen und der 32Bit-Modus nur für die Feature-Liste ist.?!
Selbst dann. Wenn (z.B durch alpha blending) mehrere Lese- und Schreibvorgänge auf den Framebuffer auf den selben Pixel mehrfach durchgeführt werden müssen, schleichen sich gerade bei 16 bpp immer größere Rundungsfehler ein und es gibt Farbverfälschungen (kennst du bei NFS vieleicht als grünen Rauch? und bei shootern als lila Nebel).

Mr. Lolman
2007-01-24, 11:06:17
32Bit ist immer, d.h in allen Fällen, schöner als 16 Bit. Ausnahmen davon gibt es keine.

Doch, schau dir mal die Screenshots an. Zumindest stand der Leistungsverlust oft in keinem guten Verhältnios zu Qualitätsgewinn...

Raff
2007-01-24, 11:16:18
32Bit ist immer, d.h in allen Fällen, schöner als 16 Bit. Ausnahmen davon gibt es keine.

Da kommt man mit handfesten Beweisen in Form von Screenshots und doch hangelt es Widersprüche, irgendwo geil. ;D Was bringt mir ein 2% schöneres Bild, wenn es 50% Fps kostet (TNT bis GF2 Ultra)?

MfG,
Raff

Gast
2007-01-24, 11:20:06
Selbst dann. Wenn (z.B durch alpha blending) mehrere Lese- und Schreibvorgänge auf den Framebuffer auf den selben Pixel mehrfach durchgeführt werden müssen, schleichen sich gerade bei 16 bpp immer größere Rundungsfehler ein und es gibt Farbverfälschungen (kennst du bei NFS vieleicht als grünen Rauch? und bei shootern als lila Nebel).

Der grüne Rauch ist Folge des 5-6-5 Framebuffer Formats, würde man nur 15 Farb-Bits (5-5-5) oder (5-5-5-1) nutzen, wäre der Rauch farblich ok.

Rogue
2007-01-24, 11:55:47
Herrlich, wer hier nicht pro-3dfx ist wird sofort mit Zahlen, Tabellen und Screenshots erschlagen. Wenn das nicht reicht schaltet man einfach das Niveau eine Stufe runter und meckert an Formulierungen und Zeichensetzung herum.

Ich WAR dabei, allerdings zu der Zeit wie bereits geschrieben zufriedener Nvidia-Besitzer.

Vielleicht solltet ihr mal nicht immer nur auf den "Glide-Paradebeispielen" herumreiten und euch eine "Pseudo-Überlegenheit" einreden die es vielleicht bei einigen Titeln gab, aber längst nicht maßgeblich für den gesammten damaligen Spielemarkt war.

Ich habe zu der Zeit für sehr viele Leute Rechner "spieletüchtig" gemacht. Nicht jeder Lanbesucher / Clanmitglied etc. war so bewandert in Sachen Computer wie die meisten Leute hier im Forum.

Wenn ich damals die Voodoo´s in die Finger bekommen hab wusste ich das die Probleme losgingen.
Klar, auf Games wie Unreal bzw. generell Spielen mit Glideunterstützung waren die Karten ne feine Sache.
Bei vielen anderen Titeln (man möge mir verzeihen das ich keine Aufzeichungen/Benchmarks/Screenshots etc. aus diesen Zeiten habe) waren die Karten aber schlichtweg ein krampf. Da bedurfte es schon recht viel gefummel am Spiel und am Treiber um den Leuten zu helfen.

Ich hab wirklich das Gefühl das jede Eigenart (egal ob gewollt oder nicht gekonnt) hier als Feature verkauft wird.
Kein Mensch hat was dagegen wenn ihr euren Karten hinterhertrauert, aber die Lobeshymnen die hier gesungen werden sind absolut einseitig und blind im bezug auf den Alltagseinsatz und Kompatiblität.

Unsere Voodoo-User hatten immer ein schmales Segment an Titeln wo ihre Karten zugegebenermaßen richtig gut aussahen und abgingen. Dafür gabs aber auch wesentlich mehr Titel wo die Karten rumzickten , mies aussahen oder beinahe nicht zum laufen zu bringen waren. Gut meine TNT2/Geforce1 war vielleicht keine Glide-Rakete, aber sie lief mit allem und sie sah überall gut aus.

Ich konnte jedenfalls sehr viel entspannter neue Titel ausprobieren als so mancher Voodoo-User zu der Zeit.
Nebenbei hatte ich auch schon fürs Spielen nicht ganz so wichtige Dinge wie TV-Out usw. Die ELSA-Karten die ich hatte haben meiner Meinung nach einfach insgesamt viel mehr fürs Geld geboten.

Meinetwegen packt nun eure ganzen damaligen Glide-Lieblingstitel wieder aus und erschlagt mich Daten.
Als ein nicht ganz so techno-freakiger Spieler hab ich meine eigenen Erfahrungen aus der Zeit und die sind nunmal nicht so rosarot und bluming wie der Voodoo-Fanclub das hier so gerne hinstellt.

robbitop
2007-01-24, 12:09:54
Der grüne Rauch ist Folge des 5-6-5 Framebuffer Formats, würde man nur 15 Farb-Bits (5-5-5) oder (5-5-5-1) nutzen, wäre der Rauch farblich ok.
Die Rundungsfehler wären dadurch keinesfalls geringer. Und das resultiert letztendlich in falschen Farbwerte. Das ist mathematisch Fakt. Darüber brauchen wir nicht zu diskutieren.

Mr. Lolman
2007-01-24, 12:12:57
Die Rundungsfehler wären dadurch keinesfalls geringer. Und das resultiert letztendlich in falschen Farbwerte. Das ist mathematisch Fakt. Darüber brauchen wir nicht zu diskutieren.

Ja der wird sogar größer. Aber es kommt zu keinen Farbverfälschungen Richtung eine bestimmten Farbkanals.

robbitop
2007-01-24, 12:14:25
Herrlich, wer hier nicht pro-3dfx ist wird sofort mit Zahlen, Tabellen und Screenshots erschlagen. Wenn das nicht reicht schaltet man einfach das Niveau eine Stufe runter und meckert an Formulierungen und Zeichensetzung herum.

Ich WAR dabei, allerdings zu der Zeit wie bereits geschrieben zufriedener Nvidia-Besitzer.

Vielleicht solltet ihr mal nicht immer nur auf den "Glide-Paradebeispielen" herumreiten und euch eine "Pseudo-Überlegenheit" einreden die es vielleicht bei einigen Titeln gab, aber längst nicht maßgeblich für den gesammten damaligen Spielemarkt war.

Ich habe zu der Zeit für sehr viele Leute Rechner "spieletüchtig" gemacht. Nicht jeder Lanbesucher / Clanmitglied etc. war so bewandert in Sachen Computer wie die meisten Leute hier im Forum.

Wenn ich damals die Voodoo´s in die Finger bekommen hab wusste ich das die Probleme losgingen.
Klar, auf Games wie Unreal bzw. generell Spielen mit Glideunterstützung waren die Karten ne feine Sache.
Bei vielen anderen Titeln (man möge mir verzeihen das ich keine Aufzeichungen/Benchmarks/Screenshots etc. aus diesen Zeiten habe) waren die Karten aber schlichtweg ein krampf. Da bedurfte es schon recht viel gefummel am Spiel und am Treiber um den Leuten zu helfen.

Ich hab wirklich das Gefühl das jede Eigenart (egal ob gewollt oder nicht gekonnt) hier als Feature verkauft wird.
Kein Mensch hat was dagegen wenn ihr euren Karten hinterhertrauert, aber die Lobeshymnen die hier gesungen werden sind absolut einseitig und blind im bezug auf den Alltagseinsatz und Kompatiblität.

Unsere Voodoo-User hatten immer ein schmales Segment an Titeln wo ihre Karten zugegebenermaßen richtig gut aussahen und abgingen. Dafür gabs aber auch wesentlich mehr Titel wo die Karten rumzickten , mies aussahen oder beinahe nicht zum laufen zu bringen waren. Gut meine TNT2/Geforce1 war vielleicht keine Glide-Rakete, aber sie lief mit allem und sie sah überall gut aus.

Ich konnte jedenfalls sehr viel entspannter neue Titel ausprobieren als so mancher Voodoo-User zu der Zeit.
Nebenbei hatte ich auch schon fürs Spielen nicht ganz so wichtige Dinge wie TV-Out usw. Die ELSA-Karten die ich hatte haben meiner Meinung nach einfach insgesamt viel mehr fürs Geld geboten.

Meinetwegen packt nun eure ganzen damaligen Glide-Lieblingstitel wieder aus und erschlagt mich Daten.
Als ein nicht ganz so techno-freakiger Spieler hab ich meine eigenen Erfahrungen aus der Zeit und die sind nunmal nicht so rosarot und bluming wie der Voodoo-Fanclub das hier so gerne hinstellt.
Du erschlägst Leute mit Unsachlichkeit und Unwissen, während die 3DCenter Redaktion versucht, durch objektive Fakten auszuhelfen. Raff und Lolman haben sehr viele Spiele mit den VSA Karten getestet und ich kenne kaum jemanden, der sich in dem Gebiet besser auskennt als die beiden.

Aber gut, wir lassen uns gerne belehren. Nenne konkrete Beispiele, die deine Geschichten belegen und wir können das sofort sachlich nachprüfen. (die Benches sind übrigens alle in D3D und OpenGL, nicht in Glide)

robbitop
2007-01-24, 12:15:55
Ja der wird sogar größer. Aber es kommt zu keinen Farbverfälschungen Richtung eine bestimmten Farbkanals.
Das ändert nichts an meiner Aussage. Es entsteht ein farblicher Fehler, der zu sehen ist (neben dem Ditheringmuster ab und an).

Mr. Lolman
2007-01-24, 12:26:36
Herrlich, wer hier nicht pro-3dfx ist wird sofort mit Zahlen, Tabellen und Screenshots erschlagen. Wenn das nicht reicht schaltet man einfach das Niveau eine Stufe runter und meckert an Formulierungen und Zeichensetzung herum.

Ich WAR dabei, allerdings zu der Zeit wie bereits geschrieben zufriedener Nvidia-Besitzer.

Vielleicht solltet ihr mal nicht immer nur auf den "Glide-Paradebeispielen" herumreiten und euch eine "Pseudo-Überlegenheit" einreden die es vielleicht bei einigen Titeln gab, aber längst nicht maßgeblich für den gesammten damaligen Spielemarkt war.

Ich habe zu der Zeit für sehr viele Leute Rechner "spieletüchtig" gemacht. Nicht jeder Lanbesucher / Clanmitglied etc. war so bewandert in Sachen Computer wie die meisten Leute hier im Forum.

Wenn ich damals die Voodoo´s in die Finger bekommen hab wusste ich das die Probleme losgingen.
Klar, auf Games wie Unreal bzw. generell Spielen mit Glideunterstützung waren die Karten ne feine Sache.
Bei vielen anderen Titeln (man möge mir verzeihen das ich keine Aufzeichungen/Benchmarks/Screenshots etc. aus diesen Zeiten habe) waren die Karten aber schlichtweg ein krampf. Da bedurfte es schon recht viel gefummel am Spiel und am Treiber um den Leuten zu helfen.

Ich hab wirklich das Gefühl das jede Eigenart (egal ob gewollt oder nicht gekonnt) hier als Feature verkauft wird.
Kein Mensch hat was dagegen wenn ihr euren Karten hinterhertrauert, aber die Lobeshymnen die hier gesungen werden sind absolut einseitig und blind im bezug auf den Alltagseinsatz und Kompatiblität.

Unsere Voodoo-User hatten immer ein schmales Segment an Titeln wo ihre Karten zugegebenermaßen richtig gut aussahen und abgingen. Dafür gabs aber auch wesentlich mehr Titel wo die Karten rumzickten , mies aussahen oder beinahe nicht zum laufen zu bringen waren. Gut meine TNT2/Geforce1 war vielleicht keine Glide-Rakete, aber sie lief mit allem und sie sah überall gut aus.

Ich konnte jedenfalls sehr viel entspannter neue Titel ausprobieren als so mancher Voodoo-User zu der Zeit.
Nebenbei hatte ich auch schon fürs Spielen nicht ganz so wichtige Dinge wie TV-Out usw. Die ELSA-Karten die ich hatte haben meiner Meinung nach einfach insgesamt viel mehr fürs Geld geboten.

Meinetwegen packt nun eure ganzen damaligen Glide-Lieblingstitel wieder aus und erschlagt mich Daten.
Als ein nicht ganz so techno-freakiger Spieler hab ich meine eigenen Erfahrungen aus der Zeit und die sind nunmal nicht so rosarot und bluming wie der Voodoo-Fanclub das hier so gerne hinstellt.

Lustig, dass dich dieses Review so stört. Denn eigentlich haben wir NV sogar zu gut wegkommen lassen. Wie haben NV-Karten mit bestens ausoptimierten Treibern getestet, kein Wort über deren DXT1-Pfusch verloren (der wohl übler war als alle 32bit Rundungsfehler zusammen), ja sogar die durchschnittliche Wahl Screenshot-Szenen spricht eher für NV Karten. So gibts zufälligerweise viele Szenen, in denen die Kanten gerade so fallen, dass NVs 2xOGSSAA fast genausogut aussieht wie 3dfx 2xSGSSAA.

Bei der Z-Buffer Geschichte bin ich froh, dass sich Zecki gemeldet hat (und im Grunde meine Ausführungen bestätigt) und ansonsten, solltest du dir vll. bewusst, sein, dass wir von 9 Spielen gerade mal 2 Spiele in Glide getestet haben

Tatsächlich wars sogar eher so (ich weiss, das klingt jetzt fanboymässig war aber tatsächlich so) dass die Voodookarten treiberseitig lange Zeit kompatibler waren, als die Konkurrenz. Meistens hat man eine 3dfx Karte eingebaut und sie hat funktioniert. Ein Freund von mir zog deswegen auch eine Voodoo3 3000 einer GF1 SDR vor, da die GF auf seinem Rechner immer wieder mal abstürze produzierte.

Wie gesagt, hätten wir auch ne völlig andere Zugangsweise wählen können. Zuerst dem User die Screenshots an den Schirm knallen - ihm durch undeutliche Beschriftung und verwirrender Formatierung zu dem Schluss kommen lassen, dass 3dfx 22bit mit NV 32bit vergleichbar ist (womit wir zumindest bei den 3dfx 4xAA Screenshots sogar durchgekommen wären *g*), und anhand der jew. Benchmarks dem User dann aufs Auge drücken können, dass man auf ner Voodoo5 nicht nur häufig (vergleich mal die 16bit mit den 32bit Ergebnissen :naughty: ) GF4 Speed erreicht hat, sondern dies auch mit ner besseren Qualität (4x4EER bei 3dfx vs. 4x2 bei NV)

Also halb so wild. Zuzugegeben damals viele Geforcekarten verbaut zu haben, war schonmal der 1. Schritt, einzugestehen, dass das vll. ein Fehler war, ist dann der Nächste ;)

Mr. Lolman
2007-01-24, 12:31:01
Das ändert nichts an meiner Aussage. Es entsteht ein farblicher Fehler, der zu sehen ist (neben dem Ditheringmuster ab und an).

Naja, beim 16bit Rendering entsteht die Grünverschiebung aber nunmal durch die andere Auflösung des grünen Farbkanals. NV hat dafür ja extra Richtung Lila nach verschoben um dem entgegen zu steuern. (Trotzdem sieht man in den UT2004 Screenshots grünen Schmand an den Wänden)

Bei einem 5551-Format gabs diese Verschiebung nicht. Die Rundungsfehler hat man tw. schon mit dem Postfilter ganz gut in den Griff bekommen, spätestens aber mit 4xSGSSAA.

StefanV
2007-01-24, 12:33:14
Hm, war die nicht verdammt teuer und erreichte tw, nichtmal Banshee Speed?
Nein, das war die G200, die übrigens trotz 64bit Speicherinterface nicht soo weit von der Riva TNT entfernt war, im 32bit Modus (im 16bit Modus war der Unterschied größer), gleiches trifft AFAIK auch auf die Savage 3D/4 zu...

Die G400 MAX war damals das beste wo gibt, sowohl vom Featureset als auch von der Performance, getaktet war die MAX übrigens mit 150/200MHz.
Nur das Übertakten war (zur damaligen Zeit) nicht so ganz einfach, da das gute Stück einen Referenztakt hatte und dann 2Teiler/Multis genutzt hat, um daraus den Core und RAM Takt zu generieren, erst später mit dem MGA Tweak Tool konnte man das Teil wirklich übertakten.


Die G400 ist übrigens auch ein hervorragendes Beispiel dafür, das man ein hervorragendes Produkt anbieten kann und es einem trotzdem nichts nutzt (ok, etwas teurer war sie, das stimmt schon, war aber auch besser -> TV Out, erste Karte mit 2 Display Controllern)...

robbitop
2007-01-24, 12:36:18
IIRC waren die OGL Treiber des G400 ziemlicher Murks.

Gast
2007-01-24, 12:39:34
Alle Glide-Spiele die was auf sich halten, auch U1 und UT99, nutzen den W-Buffer, und der Grund dafür ist banalerweise die Performance. W braucht das Teil sowieso um die Texturen perspektivisch korrekt zu applizieren, Z dagegen ginge extra. Einen W-Buffer zu nutzen heißt dass man sich einen pro Vertex zusätzlich zu berechnenden Parameter sparen kann.

Versteh ich nicht. Für perspektivisch korrektes Texturemapping interpoliert man linear 1/z und (u/z, v/z) für z.B. die Texturkoordinaten im Screenspace über das Dreieck. Pro Pixel rechnet man wieder z = 1/z, dann u=z*u/z und v=z*u/v. Wo brauchst du da bitte W?

Coda
2007-01-24, 12:39:54
Letzter Post war von mir...

Edit: Okay habe endlich verstanden. Es wird für die perspektivisch korrekte Interpolation Camera-Space-Z benötigt (also W) und nicht Z [-1,1]. Warum schreibt das auch keiner so richtig verständlich auf.

Gast
2007-01-24, 12:42:46
Das ändert nichts an meiner Aussage. Es entsteht ein farblicher Fehler, der zu sehen ist (neben dem Ditheringmuster ab und an).

Deine Aussage ist falsch, du führst den grünen Rauch auf die Farbverfälschung durch 16Bit zurück und das stimmt nicht.

Mr. Lolman
2007-01-24, 12:43:25
Nein, das war die G200, die übrigens trotz 64bit Speicherinterface nicht soo weit von der Riva TNT entfernt war, im 32bit Modus (im 16bit Modus war der Unterschied größer), gleiches trifft AFAIK auch auf die Savage 3D/4 zu...

Die G400 MAX war damals das beste wo gibt, sowohl vom Featureset als auch von der Performance, getaktet war die MAX übrigens mit 150/200MHz.
Nur das Übertakten war (zur damaligen Zeit) nicht so ganz einfach, da das gute Stück einen Referenztakt hatte und dann 2Teiler/Multis genutzt hat, um daraus den Core und RAM Takt zu generieren, erst später mit dem MGA Tweak Tool konnte man das Teil wirklich übertakten.

Die G400 ist übrigens auch ein hervorragendes Beispiel dafür, das man ein hervorragendes Produkt anbieten kann und es einem trotzdem nichts nutzt (ok, etwas teurer war sie, das stimmt schon, war aber auch besser -> TV Out, erste Karte mit 2 Display Controllern)...

Gut, mit guten Treibern war sie später sicher ein feines Teil. Allerdings, haben einem der hohe Preis (600 Mark) und die anfangs schwachen Treiber schon ein wenig abgeschreckt (so wars sie in Q2-Crusher tatsächlich tw. nichtmal auf Banshee Niveau, dies schon um 250 Mark gab)

Mr. Lolman
2007-01-24, 12:46:58
Letzter Post war von mir...

w = 1/z

robbitop
2007-01-24, 12:47:37
Deine Aussage ist falsch, du führst den grünen Rauch auf die Farbverfälschung durch 16Bit zurück und das stimmt nicht.
Das ist zumindest eine Teilursache des Problems. Btw wir sind mit dem Erbsenzählen hier ziemlich offtopic. EOD.

Coda
2007-01-24, 12:56:33
w = 1/z

Nein. Die perspektivische Projektionsmatrix spuckt 4 Werte aus:

x,y,z im homogenen Clipspace und zusätzlich noch w (alter Z-Wert im Cameraspace). Das 1/w interpoliert man für die Texturierung, z/w für den Z-Buffer. Wenn man also W-Buffering verwendet hat man schon w an jedem Pixel, weil man w=1/1/w sowieso ausrechnen muss für die anderen Interpolanten.

Mr. Lolman
2007-01-24, 12:59:19
Nein. Aber fast...


The mapping w = 1/z is called the reciprocal transformation and maps the z; plane one-to-one and onto the w; plane except for the point z = 0;, which has no image, and the point w = 0;, which has no preimage or inverse image.

http://www.maplesoft.com/applications/app_center_view.aspx?AID=1424
Hm, klär mich bitte auf.


/edit: Danke :)

Gast
2007-01-24, 13:11:05
Die G400 ist übrigens auch ein hervorragendes Beispiel dafür, das man ein hervorragendes Produkt anbieten kann und es einem trotzdem nichts nutzt (ok, etwas teurer war sie, das stimmt schon, war aber auch besser -> TV Out, erste Karte mit 2 Display Controllern)...
Matrox hatte leider nur OpenGL-Treiber gebracht mit denen man Quake 3 gerade so starten konnte. Zu was anderem taugten sie aber nicht wirklich. Da waren andere Hersteller besser in dieser Hinsicht. Und an OpenGL kam man als ernsthafter Zocker nicht vorbei.

MfG
Die pfiese Priesterin

Klingone mit Klampfe
2007-01-24, 13:18:34
Btw wir sind mit dem Erbsenzählen hier ziemlich offtopic. EOD.

Ehrlich gesagt sollte man sich dieser Diskussion durchaus stellen, der Artikel hat schließlich mit den "Fitzel-Details" angefangen ;)

Persönlich finde ich das ganze eher abstrakt, ich habe noch nie gedacht: "Ui, ein W-Buffer! Und der LOD ist -1,5!" - ich habe "nur" gespielt.

Rogue
2007-01-24, 13:52:03
Du erschlägst Leute mit Unsachlichkeit und Unwissen, während die 3DCenter Redaktion versucht, durch objektive Fakten auszuhelfen. Raff und Lolman haben sehr viele Spiele mit den VSA Karten getestet und ich kenne kaum jemanden, der sich in dem Gebiet besser auskennt als die beiden.

Aber gut, wir lassen uns gerne belehren. Nenne konkrete Beispiele, die deine Geschichten belegen und wir können das sofort sachlich nachprüfen. (die Benches sind übrigens alle in D3D und OpenGL, nicht in Glide)

"Unsachlichkeit und Unwissen", ahja. Ist vielleicht deine Sicht der Dinge, aber nur weil ich hier keine 100 Benchmarks poste disqualifiziert mich das noch lange nicht. Ob die Fakten so objektiv sind lass ich jetzt mal so dahingestellt. Jeder kann sich Fakten rauspicken und evtl. etwas unliebsamere Fakten unter den Tisch fallen lassen.
Die herumreiterei auf den Daten macht dir sicher Spaß zumal niemand von uns die Möglichkeit hat einen Test in diesem Umfang bei sich Zuhause zu wiederholen. Darüberhinaus werden wohl genausowenig Leute noch ihre Grafikkarten von damals besitzen geschweige denn Screenshots, Benchmarks, Treiber usw. .

Ich hab nie Messwerte im Artikel angezweifelt, aber ich kann dir als Messtechniker auch jedes 08/15 Produkt in einem Bericht als superb darstellen. Schau dich doch auf den unzähligen Hardware-Review-Seiten um. Dort wird doch nichts anderes getan als Fakten immer so zu verpacken als ob man grade das neuste Stück Wunderhardware entdeckt hätte. Ich unterstelle niemandem bewusst einen "geschönten pro-Voodoo Artikel" erstellt zu haben, aber ihr seid nunmal Fans und seid vielleicht etwas blind für die Schattenseiten die nunmal jedes Ding hat.

Von den Screenshots der Games wo die Karte sicherlich ne Wucht war, den ganzen tollen und sicherlich richtigen Daten mal abgesehen gibt es aber immernoch Faktoren die sich nicht mit einem Messgerät erfassen lassen und nur subjektiv wiedergegeben werden können.

In meiner Erfahrung/Erinnerung tauchen da nunmal massive Kompatiblitätsprobleme und nicht gerade berauschende Leistungen in Titeln auf die nun nicht unbedingt "designed for 3dfx" waren. Das wäre auch sicher nicht so hängengeblieben wenn sichs um Einzelfälle gehandelt hätte. Soll ich nun losrennen und all den Leuten mit denen ich damals an den Rechnern geschraubt habe ein Interview unter Eid abverlangen ? Dein Unterton vonwegen "Geschichten = gelogen" kannst du dir auch sparen. Nicht jeder der nicht deiner Meinung ist und keinen Sack Messwerte anschleift ist automatisch ein niederträchtiger Lügner dessen grösstes Ziel es ist deine geliebte Voodoo in den Dreck zu ziehen. Ich empfehle mal ne Stunde Sauerstoff und mindestens eine Valium.

Meinetwegen reite auf deinen Werten rum, im Endeffekt ist es ja auch egal. Die Firma gibts nicht mehr und selbst wenn wäre ja niemand gezwungen sich die Karten zu kaufen. Bau dir ruhig deinen Voodoo-Altar aber mach nicht gleich jeden an der nicht gleich ehrfürchtig davor auf die Knie fällt.

Coda
2007-01-24, 13:57:53
Trilineare Filterung (single-pass) ist auch auf einer Voodoo 2 möglich. Ohne dass die TMUs selbst trilinear filtern können.

Erst jetzt gelesen. Nö ist es nicht. Das ist das Dithering das Stefan ansprach.

Mr. Lolman
2007-01-24, 14:50:37
Erst jetzt gelesen. Nö ist es nicht. Das ist das Dithering das Stefan ansprach.

Sie hat 2 TMUs was ausreicht (in Szenen ohne Multitexturing ;)) Singlepass trilinear filtern. Die Interpolation zw. den jew. 2 Mipstufen macht man halt softwareseitig.

Xmas
2007-01-24, 14:52:10
Das Problem war ja, dass man die Vertices manuell transfomieren musste. D.h. für jedes Spiel hätte zB DoF oder MB neu implementiert werden müssen. Mit modularer T-Buffer Engine war einfach ein kleines Tool gemeint, mit dem der ISV die Effekte nur mehr parametrisieren hätte müssen.
DoF (man rendert die Szene von verschiedenen Punkten aus) oder MB (man rendert die Szene zu verschiedenen Zeitpunkten) sind so einfach zu implementieren dass da praktisch nichts mehr zu vereinfachen ist.

Der Z-Buffer hat sich heute aber eh durchgesetzt, weil es sehr viel öfter der Fall ist das man bei nahen Polygonen eine hohe Z-Auflösung braucht und in der Entfernung nicht so sehr.
Nein, der Z-Buffer hat sich tatsächlich unter anderem durchgesetzt weil er billiger zu implementieren ist, denn Z ist im Screen-Space linear. Deswegen sind die Z-Interpolatoren viel billiger und Z-Buffer-Kompression effizient machbar, beides sehr wichtig für Multisampling. W (also normalerweise Eye-Space Z) müsste dagegen perspektivkorrigiert interpoliert werden.
Ein FP-W-Buffer hätte ja auch einen konstanten relativen Fehler, ähnlich einem invertierten FP-Z-Buffer.

AFAIK hat NVidia nie einen W-Buffer implementiert, ATI aber in Radeons bis R2xx.


Natürlich RGBA 8888, also 8 Bit pro RGB-Farbkanal, "TrueColor". "32 Bit" ist insofern nur 256x (8 Bit) feiner Farb-aufgelöst als 16 Bit. Problem bei 16 Bit: Man kann mit Ausnahme von Schwarz und Weiß keine Graustufen darstellen.
Natürlich kann man das, nur ist jede zweite Graustufe eben nicht rein grau.


Erst jetzt gelesen. Nö ist es nicht. Das ist das Dithering das Stefan ansprach.
Doch, ist es. Sogar eine Voodoo 1 mit zwei TexelFX könnte das (was es allerdings nie im Consumer-Markt gab AFAIK). Aber eben nur mit Single-Texturing. Bei Multitexturing wäre Dithering erforderlich, denn dann reicht eine TMU pro Texturschicht.

Mr. Lolman
2007-01-24, 14:59:24
MB (man rendert die Szene zu verschiedenen Zeitpunkten)

Hm, hatte mir ganze Zeit aus irgendeinem Grund eingebildet, dass man die Vertices für T-Buffer-MotionBlur manuell transfomieren muss. Ok, dann ists ja wohl echt kein Problem.

Xmas
2007-01-24, 15:14:12
Hm, hatte mir ganze Zeit aus irgendeinem Grund eingebildet, dass man die Vertices für T-Buffer-MotionBlur manuell transfomieren muss. Ok, dann ists ja wohl echt kein Problem.
Ich weiß nicht was du mit "manuell transformieren" meinst. Die CPU transformiert natürlich, aber ob die Engine nun viermal in vier Frames die Positionen neu berechnet oder viermal in einem Frame, ist vom Aufwand her dasselbe.

Mr. Lolman
2007-01-24, 15:19:24
Ich weiß nicht was du mit "manuell transformieren" meinst. Die CPU transformiert natürlich, aber ob die Engine nun viermal in vier Frames die Positionen neu berechnet oder viermal in einem Frame, ist vom Aufwand her dasselbe.

Das ist mir schon klar, der Hirnknoten hat sich nun auch gelöst. Softshadows oder Softreflections muss man aber dennoch händisch implementieren.

Coda
2007-01-24, 15:21:25
Nein, der Z-Buffer hat sich tatsächlich unter anderem durchgesetzt weil er billiger zu implementieren ist, denn Z ist im Screen-Space linear.

Hm? 1/z sollte doch im Screenspace linear sein, oder nicht?

Xmas
2007-01-24, 16:03:18
Hm? 1/z sollte doch im Screenspace linear sein, oder nicht?
Der Unterschied zwischen dem Z- und dem W-Buffer ist, dass beim Z-Buffer die Eingangsgröße Screenspace-linear interpoliert wird, während beim W-Buffer die Eingangsgröße perspektivkorrigiert interpoliert wird.

Wenn du als Eingangsgröße also 1/Zeye verwendest, was ja im Screenspace linear sein soll, benutzt du einen Z-Buffer. Zscreen = 1/Zeye bekommst du übrigens dann, wenn du eine übliche Projektionsmatrix (glFrustum) mit near = 1, far -> +Inf verwendest und die Depth Range invertierst (1 für near, 0 für far, statt andersrum).

robbitop
2007-01-24, 17:36:31
"Unsachlichkeit und Unwissen", ahja. Ist vielleicht deine Sicht der Dinge, aber nur weil ich hier keine 100 Benchmarks poste disqualifiziert mich das noch lange nicht. Ob die Fakten so objektiv sind lass ich jetzt mal so dahingestellt. Jeder kann sich Fakten rauspicken und evtl. etwas unliebsamere Fakten unter den Tisch fallen lassen.
Die herumreiterei auf den Daten macht dir sicher Spaß zumal niemand von uns die Möglichkeit hat einen Test in diesem Umfang bei sich Zuhause zu wiederholen. Darüberhinaus werden wohl genausowenig Leute noch ihre Grafikkarten von damals besitzen geschweige denn Screenshots, Benchmarks, Treiber usw. .

Ich hab nie Messwerte im Artikel angezweifelt, aber ich kann dir als Messtechniker auch jedes 08/15 Produkt in einem Bericht als superb darstellen. Schau dich doch auf den unzähligen Hardware-Review-Seiten um. Dort wird doch nichts anderes getan als Fakten immer so zu verpacken als ob man grade das neuste Stück Wunderhardware entdeckt hätte. Ich unterstelle niemandem bewusst einen "geschönten pro-Voodoo Artikel" erstellt zu haben, aber ihr seid nunmal Fans und seid vielleicht etwas blind für die Schattenseiten die nunmal jedes Ding hat.

Von den Screenshots der Games wo die Karte sicherlich ne Wucht war, den ganzen tollen und sicherlich richtigen Daten mal abgesehen gibt es aber immernoch Faktoren die sich nicht mit einem Messgerät erfassen lassen und nur subjektiv wiedergegeben werden können.

In meiner Erfahrung/Erinnerung tauchen da nunmal massive Kompatiblitätsprobleme und nicht gerade berauschende Leistungen in Titeln auf die nun nicht unbedingt "designed for 3dfx" waren. Das wäre auch sicher nicht so hängengeblieben wenn sichs um Einzelfälle gehandelt hätte. Soll ich nun losrennen und all den Leuten mit denen ich damals an den Rechnern geschraubt habe ein Interview unter Eid abverlangen ? Dein Unterton vonwegen "Geschichten = gelogen" kannst du dir auch sparen. Nicht jeder der nicht deiner Meinung ist und keinen Sack Messwerte anschleift ist automatisch ein niederträchtiger Lügner dessen grösstes Ziel es ist deine geliebte Voodoo in den Dreck zu ziehen. Ich empfehle mal ne Stunde Sauerstoff und mindestens eine Valium.

Meinetwegen reite auf deinen Werten rum, im Endeffekt ist es ja auch egal. Die Firma gibts nicht mehr und selbst wenn wäre ja niemand gezwungen sich die Karten zu kaufen. Bau dir ruhig deinen Voodoo-Altar aber mach nicht gleich jeden an der nicht gleich ehrfürchtig davor auf die Knie fällt.
Gibt's auch etwas mehr als nur heiße Luft? :| Ich würde deine Kritik gerne nachstellen und somit aufklären. Nenne mir doch bitte ein paar Spielebeispiele deiner "Kompatibilitätsprobleme" und wir stellen das umgehend nach.

Mmmmh
2007-01-24, 18:22:14
In meiner Erfahrung/Erinnerung tauchen da nunmal massive Kompatiblitätsprobleme und nicht gerade berauschende Leistungen in Titeln auf die nun nicht unbedingt "designed for 3dfx" waren.

Seltsam. Gerade aus Kompatibilitäts-Gründen hatte ich mir damals die Voodoo3 gekauft. Auf der Karte lief einfach alles. Von Voodoo1-Spielen wie Bleifuß-Rally, Tombraider, WC Prophecy bis Quake3, SystemShock2 und NFS Porsche. Letzteres lief auf meinem K6-2-550 ziemlich rucklig. Ein kurzes Editieren irgendeiner ini auf Glide und es lief sauber. Die billigste Tuningmaßnahme, die ich jemals durchgefürt habe. :biggrin:
Seltsamerweise lief die V5-5500 AGP in NFS Porsche auf MVP3 mit K6-2-550 langsamer als V3-2000 PCI. Vielleicht weiß jemand, woran das lag.:confused:

PS: Baue übrigens morgen eine V3 3000 in meinen XP3200+ ein. Ist nur vorübergehend, bis die 1950pro da ist. Mal sehen, was sich mit der Karte noch so anfangen läßt.:D

Gast
2007-01-24, 18:27:09
Letzter Post war von mir...

Edit: Okay habe endlich verstanden. Es wird für die perspektivisch korrekte Interpolation Camera-Space-Z benötigt (also W) und nicht Z [-1,1]. Warum schreibt das auch keiner so richtig verständlich auf.Glide hat so eine lustige fest definierte Vertex-Struktur (ja, eine struct in C).
Da gibt's ein oow, was 1/w sein soll und im Intervall [1/65328;1.0] liegen darf/soll/muss. 1/w wird dann linear interpoliert, und gleichermaßen für die TMUs wie auch für den W-Buffer -- und nochmal: er heißt nur so; er ist wenn überhaupt ein 1/W-Buffer aber im Grunde ist auch das eine Fehlinformation.
Wenn man diesen Wert pro Vertex ausrechnet und einfüllt, was man zum Texturieren ohnehin braucht, reicht das eben schon.

Wer den Z-Buffer haben will, muss dazu in einen "ooz"-Member der Vertex-Struktur eine Gleitkommazahl eintragen die laut Manual eine lineare Funktion von oow sein soll, und im Intervall [0.0;65535.0] zu liegen hat. Das heißt man nimmt oow, skaliert es (zwei FLOPs) und speichert es nochmal. Da dies keinerlei Qualitätsgewinn darstellt, hat es niemand gemacht, der nicht aus anderen, besseren Gründen (Multi-API-Kram, Tiefenpuffer zurücklesen für irgendwelche Effekte) unbedingt mit so einem Format arbeiten wollte.

No.3
2007-01-24, 19:00:11
Die 22-Bit-Farbe entsteht aber aus 16-Bit-Farbe. Die 24-Bit-Information bei 32-Bit-Rendering ist "echt", die 22-Bit-Information von den Voodoos stammt aus einem 16-Bit-Framebuffer. Intern wird natürlich auch mit 32 Bit (24 Bit Farbe) gerendert, doch der Framebuffer fasst nur 16 Bit pro Pixel.

Der 22-Bit-Filter ist eine Art Rekonstruktionsfilter, der versucht, das Dithering rückgängig zu machen. Das geht allerdings nur begrenzt. Dithering tauscht räumliche Auflösung gegen (in der Fläche) erhöhte Farbauflösung. Die verlorene räumliche Auflösung lässt sich nicht mehr zurückgewinnen.

aja, gut - danke Euch für die Erklärungen

die Kyro hatte doch auch eine sehr gute 16 Bit Qualität, aber unter 16 Bit kaum schneller als unter 32 Bit, da sie intern alles in 32 Bit gerechnet und erst am Schluss auf 16 Bit reduziert hat?

StefanV
2007-01-24, 19:16:44
Öhm, die Kyro kann garkein 16bit, auch wenns nach außen so ausschaut, gemacht wird alles in 32bit, überall, durchgehend.

Gast
2007-01-24, 19:29:59
Ich denke, daß einer der Gründe für die Dominanz von NVidia ab der TNT war, daß sie die erste Firma war, die für Consumer-Karten einen vollwertigen OpenGL-Treiber gratis geliefert hat.
ATI hat dann lange gebraucht um nachzuziehen und ist bis heute doch nicht so gut bei OpenGL.

Und die anderen (Matrix, S3, 3dFx und andere) haben es gar nicht zuwege gebracht. Und durch Quake 3 und deren 32bit-Texturen war dann NVidia vorne. Und dann kam der GeForce mit der riesigen Füllrate (T&L war ja damals eigentlich praktisch irrelevant und nur fürs Marketing). Damit haben sie alle anderen plattgemacht.

Coda
2007-01-24, 20:34:38
Öhm, die Kyro kann garkein 16bit

Natürlich kann sie 16 Bit. Es ergibt halt das gleiche Resultat als würde man alles zuerst mit 32 Bit rendern und dann auf 16 Bit dithern. Das hat aber trotzdem Qualitätseinbußen zu Folge, wenn auch nicht so große wie sonst üblich.

Aquaschaf
2007-01-24, 20:50:56
Texturen waren auch damals ähnlich hoch aufgelöst wie heute

Nein. Es sei denn du hast eine sehr weit gestreckte Vorstellung davon was 'ähnlich' ist ;)

No.3
2007-01-24, 21:05:18
Natürlich kann sie 16 Bit. Es ergibt halt das gleiche Resultat als würde man alles zuerst mit 32 Bit rendern und dann auf 16 Bit dithern. Das hat aber trotzdem Qualitätseinbußen zu Folge, wenn auch nicht so große wie sonst üblich.

hmm, kay, besser als Voodoo 22 Bit ?

Gast
2007-01-24, 21:12:13
Nein. Es sei denn du hast eine sehr weit gestreckte Vorstellung davon was 'ähnlich' ist ;)

Spätestens ab Quake3 wurde Texturen >256² eingesetzt, heute sind sie meist immer noch <2048². Da hat sich also nicht viel getan.

(del)
2007-01-24, 21:14:00
Da kommt man mit handfesten Beweisen in Form von Screenshots und doch hangelt es Widersprüche, irgendwo geil. ;D Was bringt mir ein 2% schöneres Bild, wenn es 50% Fps kostet (TNT bis GF2 Ultra)?Der Unterschied von 16 zu diesem pseudo 22bit Modus war sofort merkbar. Egal, ob es ein PR-Name war und es knallhart real gerechnet nur 19 oder 21bit waren. Darauf wollte ich nicht mehr verzichten. Kostete aber auch Leistung. Ich konnte das mit OC auffangen. War nicht wirklich viel.

Hatte dann eine TNT2pro und die zeigte an staubigen/nebligen Orten in 32bit wesentlich bessere Übergänge (Unreal). Wie du schon sagst, stand damals der Nutzen für einen Heini mit einer Voodoo in 22bit in keinem Verhältnis zu den FPS, die eine TNT2 mit 32bit verlor.

Und auch die 16bit Modis standen nicht zur Debatte. ZB. die TNT2 renderte wesentlich (sofort sichtbar) schlechter die 16bit als zB. eine V2. Man war mit dieser Generation bereits zu 32bit verdammt. Sie lieferte aber noch nicht die Leistung. Auch in 800x600 eher schlecht als recht.

Zur Zeiten der Mystique stellten sich solche Überlegungen überhaupt nicht. Man hatte eine 3dfx im Rechner oder man spielte nicht wirklich...

(del)
2007-01-24, 21:17:10
hmm, kay, besser als Voodoo 22 Bit ?Ich bin immernoch der Meinung, daß solange 3dfx irgendeine Relevanz hatte, niemand so gut 16bit rendern konnte. Bei 22bit stellt sich die Frage also garnicht :)

Gast
2007-01-24, 21:29:44
Und dann kam der GeForce mit der riesigen Füllrate (T&L war ja damals eigentlich praktisch irrelevant und nur fürs Marketing). Damit haben sie alle anderen plattgemacht.Ja, die GF2. Bis dahin aber hat mich das überhaupt nicht interessiert. Hatte die GF1 am Anfang nicht so ihre Mühe sich von den TNT2ultras abzusetzen?

Coda
2007-01-24, 21:53:48
hmm, kay, besser als Voodoo 22 Bit ?

Definitiv.

Mr. Lolman
2007-01-24, 21:59:35
Definitiv.

Kommt drauf an. Tatsächlich besser ist sie nur bei massivem Alphablending. Und da oft auch nur besser als 22bit 2xAA, mit 4xAA hat man idf zwar immernoch dem Grünstich drinnen, dafür aber überhaupt kein Dithering.

Gast
2007-01-24, 22:03:55
Definitiv.JETZT will ich aber Screenshots sehen.

aths
2007-01-24, 22:13:38
Und was ist wenn die Texturen nur in 16Bit vorliegen und der 32Bit-Modus nur für die Feature-Liste ist.?!Auch dann ist, sofern Multitexturing genutzt wird, oder Gouraud-Shading, oder auch nur Texturfilterung, 32-Bit-Rendering besser.


Die Framebufferfarbtiefe hat nichts mit der Texturfarbtiefe zu tun.Naja. Bei 16-Bit-Texturen kann trotzdem ein 32-Bit-Framebuffer sinnvoll sein. Andersherum hätte ich lieber 32-Bit-Texturen, auch wenn ich nur einen 16-Bit-Framebuffer habe. Man kann FB-Farbtiefe und Textur-Farbtiefe natürlich unabhängig voneinander wählen.


Spätestens ab Quake3 wurde Texturen >256² eingesetzt, heute sind sie meist immer noch <2048². Da hat sich also nicht viel getan.512x512 oder 1024x1024 ist schon ein recht großer Unterschied. Spiele die für hohe Auflösungen gedacht sind, nutzen auch höhere Texturauflösung. Allerdings hat sich die Monitor-Auflösung seit Quake 3 (1024x768) auch nicht unbedingt verdoppelt – wer spielt schon in 2048x1536?

Raff
2007-01-24, 22:19:07
JETZT will ich aber Screenshots sehen.

Schau den Artikel an. ;) Da laufen die Voodoos mit 22 Bit.

MfG,
Raff

aths
2007-01-24, 22:29:14
Die Rundungsfehler wären dadurch keinesfalls geringer. Und das resultiert letztendlich in falschen Farbwerte. Das ist mathematisch Fakt. Darüber brauchen wir nicht zu diskutieren.Rundungsfehler wären bei 5-5-5 zwar größer, aber auch anders. 5-6-5 führt u. a. zu grün-lila-Rauchdarstellungen, 5-5-5 tut das nicht.

w = 1/zDas kann man so nicht sagen. 1/z spielt eine wichtige Rolle bei der W-Berechnung, aber ganz so einfach ist es nicht.



Alle Glide-Spiele die was auf sich halten, auch U1 und UT99, nutzen den W-Buffer, und der Grund dafür ist banalerweise die Performance. W braucht das Teil sowieso um die Texturen perspektivisch korrekt zu applizieren, Z dagegen ginge extra. Einen W-Buffer zu nutzen heißt dass man sich einen pro Vertex zusätzlich zu berechnenden Parameter sparen kann.

Auf der Hardware-Ebene können die Voodoos freilich gar nichts mit (Gleitkomma-)W anfangen. Macht aber nichts, der Treiber schummelt das schon irgendwie hin. Der tut einfach so als gäbe es da ein Gleitkommaformat mit 4 Bit Exponent und 12 bit Mantisse, was zu einer durchaus vorteilhaften Verteilung der Präzision über die Tiefe führt, aber die Hardware versteht Tiefenwerte nur als lineare 16 Bit-Integer.Hrm? Vergleichsoperationen von FP-Werten werden doch immer mit "Integer-Logik" durchgeführt. Oder meinst du was anderes?

Sonyfreak
2007-01-24, 22:29:16
Schöner Artikel über die letzte Dämonin der alten Zeit! :smile:

mfg.

Sonyfreak

aths
2007-01-24, 22:40:30
Ja, die GF2. Bis dahin aber hat mich das überhaupt nicht interessiert. Hatte die GF1 am Anfang nicht so ihre Mühe sich von den TNT2ultras abzusetzen?Höchtens aufgrund starker CPU-Limitierung. TNT2 Ultra brachte bis zu 300 Megatexel bilinear, die GF256 bis zu 480 Megatexel trilinear.


Ich denke, daß einer der Gründe für die Dominanz von NVidia ab der TNT war, daß sie die erste Firma war, die für Consumer-Karten einen vollwertigen OpenGL-Treiber gratis geliefert hat.
ATI hat dann lange gebraucht um nachzuziehen und ist bis heute doch nicht so gut bei OpenGL.

Und die anderen (Matrix, S3, 3dFx und andere) haben es gar nicht zuwege gebracht. Und durch Quake 3 und deren 32bit-Texturen war dann NVidia vorne. Und dann kam der GeForce mit der riesigen Füllrate (T&L war ja damals eigentlich praktisch irrelevant und nur fürs Marketing). Damit haben sie alle anderen plattgemacht.Das ist jetzt imo etwas sehr verkürzt. Ich werde vielleicht irgendwann doch mal einen Riesenartikel zur GeForce-Serie veröffentlichen, der natürlich zeigt, dass Nvidias Erfolg nicht zufällig kam. Auch wenn ich mit vielen GPU-Designentscheidungen nicht besonders glücklich bin.

aths
2007-01-24, 22:46:16
Zumal das ein Postfilter ist, was das Bild nicht unbedingt besser macht. Verlorene Informationen sind verlorene Informationen - alte Binsenweisheit.Obwohl das erst mal richtig ist, dass sich verlorene Informationen nicht wiederherstellen lassen, ist das kein generelles Argument gegen Postfilter. Die Frage ist, wie die Pixel aus dem Bildschirmpuffer für die Monitordarstellung rekonstruiert werden. Jedes Pixel als kleines farbiges Quadrat anzuzeigen, ist eine mögliche Form der Rekonstruktion. Bei geditherten Inhalten nicht unbedingt die beste Möglichkeit.

Postfilter sind manchmal sinnvoll, wenn sie dem menschlichem Empfinden entgegenkommen. Tonemapping bei HDR-Rendering ist auch eine Art Postfilter (wenn man das mal sehr weitläufig auslegt.)

Mein Fernseher mit digitalem Bildverarbeitungs-Schnickschnack ("Pixel Plus 2") erzeugt zwar manchmal Artefakte, bringt aber im Wesentlichen ein deutlich besseres Bild als ohne digitale Nachbearbeitung. Die im PAL-Signal vorhandene Information wird anders ("besser") dargestellt im Vergleich zur 1:1-Ausgabe.

Popeljoe
2007-01-24, 23:30:15
Hm, das die 3 zu positivem Wahnsinn neigen, wußte ich ja schon. :)
Dieses Mal haben sie aber wirklich noch was draufgelegt! ;)
Klasse Artikel mit viel Herzblut... :up:
P1

Raff
2007-01-25, 01:22:56
Höchtens aufgrund starker CPU-Limitierung. TNT2 Ultra brachte bis zu 300 Megatexel bilinear, die GF256 bis zu 480 Megatexel trilinear.

Wenn bei der GeForce-Serie die Füllrate die Leistung bestimmt hätte, dann wären die Karten konstant und ohne Kompromisse vorne gewesen. Die originale GeForce mit SDR-SDRAM hatte aber in der Tat häufig Probleme, gerade gegen eine V3 3500 mit ihren 366 MT/s und dezent mehr theoretischer Bandbreite ... wobei das sicher in den meisten Fällen mit CPU-Limitierung kombiniert wurde.

MfG,
Raff

Coda
2007-01-25, 03:34:21
JETZT will ich aber Screenshots sehen.

Wozu? Bei Alpha-Overdraw hat die 3Dfx immer mehr Verluste die sich aufsummieren. Das ist bei den Kyros nicht der Fall.

Wenn das Dithering der Kyros nicht absolut grottig ist kann das nicht überboten werden. Durch keinen Postfilter.

aths
2007-01-25, 03:46:52
Wenn bei der GeForce-Serie die Füllrate die Leistung bestimmt hätte, dann wären die Karten konstant und ohne Kompromisse vorne gewesen. Die originale GeForce mit SDR-SDRAM hatte aber in der Tat häufig Probleme, gerade gegen eine V3 3500 mit ihren 366 MT/s und dezent mehr theoretischer Bandbreite ... wobei das sicher in den meisten Fällen mit CPU-Limitierung kombiniert wurde.Die 3500 wurde kaum verkauft. Mit SDR-RAM hatte die GeForce 256 so viel Bandbreite wie die Voodoo3 3000. Wenn sie sich nicht deutlich von der Voodoo absetzen konne, lag das an CPU-Limitierung, anfangs möglicherweise auch an noch unausgereiften Treibern.

Man sollte auch nicht neue Graka-Technik nur an alten Spielen messen. Sonst müsste man auch die GeForce 3 als enttäuschend einstufen, weil sie sich anfangs (bei entsprechenden Spielen, oft noch im 16-Bit-Modus) nicht entscheidend von der GeForce 2 absetzen konnte, und von der Ultra gelegentlich geschlagen wurde.

Popeljoe
2007-01-25, 07:13:50
Man sollte auch nicht neue Graka-Technik nur an alten Spielen messen. Sonst müsste man auch die GeForce 3 als enttäuschend einstufen, weil sie sich anfangs (bei entsprechenden Spielen, oft noch im 16-Bit-Modus) nicht entscheidend von der GeForce 2 absetzen konnte, und von der Ultra gelegentlich geschlagen wurde.
Naja, von außen betrachtet traf das aber auch auf die FX Reihe zu, die konnten sich ja auch kaum oder gar nicht von der GF 4 Serie absetzen...
Letztlich waren die FX dann aber noch wesentlich enttäuschender. ;)
P1

mapel110
2007-01-25, 12:28:18
Naja, von außen betrachtet traf das aber auch auf die FX Reihe zu, die konnten sich ja auch kaum oder gar nicht von der GF 4 Serie absetzen...
Letztlich waren die FX dann aber noch wesentlich enttäuschender. ;)
P1
Schau dir nochmal Benchmarks der FX-Reihe an. Wenn ich heute das gute AF berücksichtige (hab ich damals nicht gemacht und viele andere wohl auch nicht), muss ich wirklich sagen, so schlecht war die FX-Serie nicht, auch und gerade aus Performance-Sicht.

Das CPU-Limit spielt ja immer wieder eine Rolle. Auch die aktuellen Karten G80 usw können ja ihre wirkliche Leistungsfähigkeit teilweise nicht unter Beweis stellen.

LovesuckZ
2007-01-25, 12:40:25
Naja, von außen betrachtet traf das aber auch auf die FX Reihe zu, die konnten sich ja auch kaum oder gar nicht von der GF 4 Serie absetzen...
Letztlich waren die FX dann aber noch wesentlich enttäuschender. ;)
P1

Da täuscht du dich.
Eine 5800 Ultra kam mit 500/1000MHz als Taktung daher. Die Geforce 4 TI 4600 hatte 300/650MHz. In Prozent hat die 5800Ultra einen 66% höheren Coretakt und eine 53% höhere Speicherbandbreite.

der_roadrunner
2007-01-25, 13:58:30
Da täuscht du dich.
Eine 5800 Ultra kam mit 500/1000MHz als Taktung daher. Die Geforce 4 TI 4600 hatte 300/650MHz. In Prozent hat die 5800Ultra einen 66% höheren Coretakt und eine 53% höhere Speicherbandbreite.

Und sie unterstützt Dx9 was ja auch ein plus für die FX-Serie ist/war.

der roadrunner

Coda
2007-01-25, 14:07:10
Naja, von außen betrachtet traf das aber auch auf die FX Reihe zu, die konnten sich ja auch kaum oder gar nicht von der GF 4 Serie absetzen...

Da trügt dich deine Erinnerung aber ziemlich.

Und sie unterstützt Dx9 was ja auch ein plus für die FX-Serie ist/war.

Naja. Eher nicht ;)

IceFire
2007-01-25, 18:03:14
verdammt... was ein mist. irgendein idiot hat das voodooalert forum gehackt...

der_roadrunner
2007-01-25, 18:11:49
Und sie unterstützt Dx9 was ja auch ein plus für die FX-Serie ist/war.
Naja. Eher nicht

:confused:

Was meinst du damit? Die FX sind DX9 Karten.

der roadrunner

Black-Scorpion
2007-01-25, 18:49:23
Sie sind schnelle DX8.1 Karten.
SM2 ist eher nicht ihre Stärke.
Jedenfalls nicht wenn der Code nicht auf die Karten optimiert wurde.

der_roadrunner
2007-01-25, 19:41:24
Und warum läuft dann Oblivion mit 'ner FX 5700 beim Kumpel?

der roadrunner

Edit:

Die haben nur PS 1.4 oder täusche ich mich?

Black-Scorpion
2007-01-25, 19:50:03
Keine Ahnung, habe das Spiel nicht.
Aber es wird schon seinen Grund haben das manche Spiele so Gnädig sind und die FX gleich als DX8.1 einstufen. ;)

Gast
2007-01-25, 19:58:49
Spätestens ab Quake3 wurde Texturen >256² eingesetzt, heute sind sie meist immer noch <2048². Da hat sich also nicht viel getan.

2048² ist ja auch "nur" 64x so viel wie 256².

Gast
2007-01-25, 20:15:07
2048² ist ja auch "nur" 64x so viel wie 256².

Gekonnt die <> Zeichen ignoriert?;) 512 auf 1024 ist nur noch ein Faktor 4.

robbitop
2007-01-25, 20:15:25
Oblivion nutzt SM2. Die NV3x beherrscht sogar fast SM3. Nur leider sehr langsam. Oblivion lief auf einer Radeon 9600XT, die bei SM2 ja rund 2x so schnell wie eine FX5700U sein sollte, grausam. Und das auf 800x600 und reduzierten Details. Ist aber alles OT hier.

Huhn
2007-01-25, 20:32:04
finde den Artikel etwas pro-Voodoo aber gut, man merkt halt schon welche Meinung der Autor bzw die Autoren haben. Darüber hinaus finde ich die Leistung recht ernüchternd wenn man sich die Probleme mit Software und der Hardware vor Augen hält und dann auch noch eine aktuellere CPU braucht um die Voodoo überhaupt in Schwung zu bringen. Für mich bleibt unterm Schlusststrich die bessere BQ (af /aa). Die werden aber schon durch Shader oder z.b. t&l bedingt wieder wettgemacht. Man muss sich halt damals entscheiden zwischen neuester Technik (Radeon/Geforce) oder eben altbewährtem (Voodoo). Mochte meine V1 /Voodoo Banshee, trotzdem denke ich nicht, dass die V5 6k kein großer Erfolg gewesen wäre (Treiber/Software/Hardware/fehlende neue Features). Besser hätte 3dfx das Geld damals in den Nachfolger gesteckt. Vielleicht würde es sie dann noch geben.......

Popeljoe
2007-01-25, 20:56:21
Schau dir nochmal Benchmarks der FX-Reihe an. Wenn ich heute das gute AF berücksichtige (hab ich damals nicht gemacht und viele andere wohl auch nicht), muss ich wirklich sagen, so schlecht war die FX-Serie nicht, auch und gerade aus Performance-Sicht.

Das CPU-Limit spielt ja immer wieder eine Rolle. Auch die aktuellen Karten G80 usw können ja ihre wirkliche Leistungsfähigkeit teilweise nicht unter Beweis stellen.
Naja, ich erinnere mich an die damaligen Benches der 5600er und die konnten sich nur unter bestimmten Umständen (Vollmond, Krötenzunge unterm Lüfter usw.) von den GF 4Ti 4200 absetzen.
Das die Ultra die 4600 geowned hat würde ich nicht in Zweifel ziehen, nur war sie nur marginal (imo unter 5%) schneller, als ne 9700 pro.
P1
P.s.: außerdem wollte ich schlicht mal den Advocatus diaboli spielen und Aths mal etwas foppen! :D

ollix
2007-01-25, 20:58:10
Wenn das Dithering der Kyros nicht absolut grottig ist kann das nicht überboten werden. Durch keinen Postfilter. Damals sah man praktisch auf kaum einem Bild überhaupt einen Unterschied und wenn dann nur sehr Minimales per Differenzbild. Man sah ja aber eben auch praktisch keinen Unterschied in der fps-Rate ...

Popeljoe
2007-01-25, 21:00:56
Oblivion nutzt SM2. Die NV3x beherrscht sogar fast SM3. Nur leider sehr langsam. Oblivion lief auf einer Radeon 9600XT, die bei SM2 ja rund 2x so schnell wie eine FX5700U sein sollte, grausam. Und das auf 800x600 und reduzierten Details. Ist aber alles OT hier.
Hm warum haben dann die User einer 5700U damals so rumgejammert? ;)
Und zwar genau darüber, daß die 9600XT User Oblivion halbwegs zocken konnten, sie aber nicht!
P1
P.s.: sorry 4 OT^2 ;(

StefanV
2007-01-25, 21:06:37
Natürlich kann sie 16 Bit. Es ergibt halt das gleiche Resultat als würde man alles zuerst mit 32 Bit rendern und dann auf 16 Bit dithern. Das hat aber trotzdem Qualitätseinbußen zu Folge, wenn auch nicht so große wie sonst üblich.
Was doch am Ende wieder darauf hinaus läuft, das sie kein 16bit kann, wenn sie alles in 32bit macht...

Ok, nach außen hin bietet sie noch einen 16bit Rendermodus, die Kyro...

Popeljoe
2007-01-25, 21:11:26
Irgendwie ist es extrem schade, daß sich die Grakawelt momentan auf nur 2 Spieler reduziert hat. :(
Keine Kyros und Voodoos mehr auf dem Markt, die Diskussionen laufen nur noch auf dem schwarz-weiß (ich weiß: rot-grün) Level ab... ;(
P1

der_roadrunner
2007-01-25, 21:19:28
Ist doch wie auf dem Prozessoren Markt. Aber vielleicht ist ja Intel in Zukunft der lachende Dritte.

der roadrunner

robbitop
2007-01-25, 21:23:17
Darüber hinaus finde ich die Leistung recht ernüchternd wenn man sich die Probleme mit Software und der Hardware vor Augen hält und dann auch noch eine aktuellere CPU braucht um die Voodoo überhaupt in Schwung zu bringen.
Braucht man eben nicht. Die Spiele laufen allesamt mit einer 1 GHz CPU flüssig. Ob ich jetzt 80 fps oder 60fps habe spielt doch für den User keine Rolle. Aber die Grafikpower ist eben da, um auch flüssig AA zusätzlich hinzubekommen.
Klar sind aufgrund des Prototypenstatus Treiber und Hardware nicht Serienreif. Im Falle einer V5 6000 Serie wäre das jedoch anders gekommen. Was sie kann, hat sie oft genug in den Benches gezeigt, wenn in 16x12 sogar eine Geforce 3 angegriffen wird.


Für mich bleibt unterm Schlusststrich die bessere BQ (af /aa). Die werden aber schon durch Shader oder z.b. t&l bedingt wieder wettgemacht.
Inwiefern das bitte? Ich habe es nicht erlebt, dass Spiele zu Lebzeiten von NV15 und VSA von Shadern oder TnL großartig profitiert hätten.

trotzdem denke ich nicht, dass die V5 6k kein großer Erfolg gewesen wäre (Treiber/Software/Hardware/fehlende neue Features). Besser hätte 3dfx das Geld damals in den Nachfolger gesteckt. Vielleicht würde es sie dann noch geben.......
Natürlich nicht. Das war einfach nur ein Enthusiast Produkt, wie es die GX2 Serie von NV ist. Um 3dfx retten zu können, ist viel zu viel schief gegangen im Management. Da hätte wohl nicht mal ein mittleres Wunder helfen können. Aber das ist eine andere Geschichte...

Gast
2007-01-25, 21:57:15
War das Zusatznetzteil bei der Karte dabei ?

No.3
2007-01-25, 22:07:19
Was doch am Ende wieder darauf hinaus läuft, das sie kein 16bit kann, wenn sie alles in 32bit macht...

Ok, nach außen hin bietet sie noch einen 16bit Rendermodus, die Kyro...

definieren sich die Farbmodis nicht darüber mit wievielen Bits das Bild am Bildschirm ankommt? Der Weg dorthin kann doch egal sein.

mapel110
2007-01-25, 22:15:47
definieren sich die Farbmodis nicht darüber mit wievielen Bits das Bild am Bildschirm ankommt? Der Weg dorthin kann doch egal sein.
Jo, nur ist manchmal der "Rechenweg" nicht ganz unwichtig. Wenn man dort höhere Präzision hat, kann das Vorteile bringen.

Ist wie beim Taschenrechner, der mehr Nachkommastellen berücksichtigt beim Rechnen.

Popeljoe
2007-01-25, 22:24:43
Jo, nur ist manchmal der "Rechenweg" nicht ganz unwichtig. Wenn man dort höhere Präzision hat, kann das Vorteile bringen.

Ist wie beim Taschenrechner, der mehr Nachkommastellen berücksichtigt beim Rechnen.
Aber sollte man nicht in erster Linie das Ergebnis sehen am Bildschirm betrachten?
Im Falle der Voodoos sollte es dann aber ein 22 zölliger CRT Moni sein, es gab schließlich fast keine TFT oberhalb 19 Zoll anno 2000(?)! ;)
P1

Raff
2007-01-25, 23:23:25
finde den Artikel etwas pro-Voodoo aber gut, man merkt halt schon welche Meinung der Autor bzw die Autoren haben. Darüber hinaus finde ich die Leistung recht ernüchternd wenn man sich die Probleme mit Software und der Hardware vor Augen hält und dann auch noch eine aktuellere CPU braucht um die Voodoo überhaupt in Schwung zu bringen. Für mich bleibt unterm Schlusststrich die bessere BQ (af /aa). Die werden aber schon durch Shader oder z.b. t&l bedingt wieder wettgemacht. Man muss sich halt damals entscheiden zwischen neuester Technik (Radeon/Geforce) oder eben altbewährtem (Voodoo). Mochte meine V1 /Voodoo Banshee, trotzdem denke ich nicht, dass die V5 6k kein großer Erfolg gewesen wäre (Treiber/Software/Hardware/fehlende neue Features). Besser hätte 3dfx das Geld damals in den Nachfolger gesteckt. Vielleicht würde es sie dann noch geben.......

1. Damals gab es keine Treiberprobleme – und keine Shader
2. Die Windows-98-Treiber sind schneller/problemloser bei den damaligen Spielen
3. Wie robbi schon sagte: Mit einem Gigahertz war alles schnell genug. Die stark überschüssige Leistung investierte man dann in 32 Bit, hohe Auflösungen und/oder AA
4. Wer eine V5 6000 hat, ist 3dfx gegenüber sicher nicht ganz neutral. Es ging aber alles mit rechten Dingen zu, sonst wäre der Artikel witzlos. Man sieht ja deutlich auch Schatten, oder?

MfG,
Raff

Gast
2007-01-26, 00:28:18
finde den Artikel etwas pro-Voodoo aber gut, man merkt halt schon welche Meinung der Autor bzw die Autoren habenStört es? Coda hat die Haare - die letzten :up: - auch leicht grün gefärbt und trotzdem ist er meistens sehr objektiv.
Irgendwelche persönliche Tendenzen aus den Sätzen herauslesen zu können sagt noch lange nicht aus, daß alles 'einseitig' geschrieben ist. Der Artikel ist Spitzenklasse.

Xmas
2007-01-26, 02:14:55
Gekonnt die <> Zeichen ignoriert?;) 512 auf 1024 ist nur noch ein Faktor 4.
Wobei die Größe der einzelnen Texturen nicht allzuviel aussagt. Was zählt ist wieviel Texturmaterial insgesamt vorhanden ist und vor allem wie es eingesetzt wird. Ich kann auch auf einem Handy mit 3D-Beschleunigung 2048²-Texturen verwenden (und manche tun das auch). Das heißt aber nicht automatisch dass die Szene außergewöhnlich detailiert texturiert wäre.

aths
2007-01-26, 09:21:28
Naja, ich erinnere mich an die damaligen Benches der 5600er und die konnten sich nur unter bestimmten Umständen (Vollmond, Krötenzunge unterm Lüfter usw.) von den GF 4Ti 4200 absetzen.
Das die Ultra die 4600 geowned hat würde ich nicht in Zweifel ziehen, nur war sie nur marginal (imo unter 5%) schneller, als ne 9700 pro.Wieso sollte sich eine 5600 von der 4600 absetzen? Die 5600 konnte sich sehr gut von der MX 460 absetzen, und dafür war sie auch gebaut. Die 5800 konnte sich auch ohne Ultra von der 4600 absetzen. Die 4600 war ja im Vergleich zur GeForce 3 Ti 500 auch nicht gerade um Welten schneller, aber doch ein gutes Stück.



Was doch am Ende wieder darauf hinaus läuft, das sie kein 16bit kann, wenn sie alles in 32bit macht...

Ok, nach außen hin bietet sie noch einen 16bit Rendermodus, die Kyro...Das ist Wurscht, wann wo auf 16 Bit gerundet wird. Sobald ein 16-Bit-Framebuffer genutzt wird, spricht man vom 16-Bit-Modus. Dass der 16-Bit-Modus der Kyro sehr gut war, wird ja durch die lange nicht so guten 16-Bit-Modi der Konkurrenz nicht unwahrer.

thomasius
2007-01-26, 09:43:49
ein bisl offtopic


die intention des autors dieses artikels würde mich interessieren. klar habe ich die einleitung gelesen, aber klar wurde es mir dadurch nicht. mir fehlt sozusagen der grund einen solchen artikel zu schreiben.

auch fehlt mir die aussagefähigkeit dieses artikels, über etwas schreiben, was nicht annähernd produktionsreife hatte

robbitop
2007-01-26, 09:55:49
Es ging einfach mal darum zu zeigen, was der Mythos Voodoo 5 6000 wirklich kann, ein paar Hintergrundinformationen zu liefern und ein kleiner hauch von "was wäre wenn". ;)