PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia's Grafikchip-Politik


Rampage 2
2002-10-07, 15:27:12
Peace Leute,

Nvidia's Politik wird noch Nvidia's Tod bedeuten. Denn während Ati
und 3dfx mit jedem neuen Grafikchip eine neue Generation einführten
macht Nvidia mit jedem 2. Grafikchip ein "Refresh" - verspricht neue
Leistungs- und Fähigkeiten-Dimensionen - und hält diese nicht (voll-
ständig) ein. Ich will mal hier 'ne Liste geben:

GeForce 1 : (1999) Integrierte T&L-Einheit, höherer Chiptakt
später: DDR-RAM (GeForce DDR)
GeForce 2 : (2000) DDR-RAM, höherer Chip- und Speichertakt,Pixelsha-
der
(Obwohl bei der GeForce2 das meiste nur Feintuning
ist, kann mann nicht von einem Refresh sprechen,
da Nvidia eine neue Leistungsdimension einführte
und seine Versprechen hielt.
GeForce2 Ultra: Obwohl der gleiche Chip, kann man auch hier von
einer neuen Generation sprechen, da dieser Chip
fast 50% höhere Leistungen bringt als GF2 GTS.

GeForce3 (2001): Wieder eine neue Generation. Nachdem einige Schön-
heitsfehler beseitigt wurden, konnte der GF3 mit
seiner neuen Architektur (LMA1) teilweise doppelt
so schnelle Leistungen erbringen als GF2 Ultra
trotz gleichen Speichertaktes und mit seinen neuen
3D-Features und Vertexshader die Zustimmung der
Fachpresse gewinnen - auch wenn Nvidia seine Ver-
sprechen (7 - 10x schneller als GF2 GTS usw.) nicht
vollständig einhielt. Zudem gab es schon wenige
Monate nach der Einführung deutliche Preissenkungen

GeForce3 Ti 500 GeForce3 Refresh. Zusammen mit neuen Treibern bis
zu 30% schneller als GeForce3

GeForce4 Ti 4600 Hier fangen die Probleme an. Gut, doppelter Vertex-
Shader, höherer Speichertakt und LMA2 hören sich
nicht schlecht an. Aber dass dieser Chip erst bei
1600x1200x32 Bit und 4xFSAA 50% schneller und
sonst bei normalen Auflösungen nur 20-30% schneller
als eine GeForce3 Ti500 ist, klingt nicht beein-
druckend. Wenn man die GF3 übertaktet erreicht man
dasselbe. Beschissene Leistungen bei AF-Einsatz
Einziger Lob: Brute Force, Gute AA-Qualität und
zugleich bei sehr hohen Auflösungen (1600x1200)
noch spielbar.
Von wegen "bis zu 300% schneller mit LMA2" ...
Die GF4 ist nur eine bessere,getunte GF3

GeForce 5 Hier kann man wirklich wieder von einer neuen
Generation sprechen. Außerdem hat Nvidia gesagt,
dass der NV30 DDR-II benutzen wird. Wenn dieser
Chip dann auch mit 512-Bit Architektur kommt könnte
er bis zu 4x-8x schneller (also doppelt so schnell
wie R300) sein. Das klingt fantastisch

GeForce6 Demnach wird der NV35 wieder nur ein Refresh sein.
Höherer Takt und einige neue Features.

oder kurz 1.) Neue Gen'
2.) Refresh
3.) Neue Gen'
4.) Refresh
5.) Neue Gen'
6.) Refresh
usw.

Das ist schematisch gezeigt Nvidias Politik.

Zwar keine gute Politik, aber irgendwie schafft sie sich durchzusetzen,
aber nicht mehr lange, wenn das so weitergeht...

Muh-sagt-die-Kuh
2002-10-07, 16:33:27
Originally posted by Rampage 2
Peace Leute,

Denn während Ati und 3dfx mit jedem neuen Grafikchip eine neue Generation einführten macht Nvidia mit jedem 2. Grafikchip ein "Refresh" - verspricht neue Leistungs- und Fähigkeiten-Dimensionen - und hält diese nicht (vollständig) ein.Aha....

Voodoo 1 + 1 weitere TMU = Voodoo 2
Banshee = hochgetaktete Voodoo 1 mit 2D Part
Voodoo 3 = hochgetaktete Voodoo 2 mit 2D Part
Voodoo 5 = Voodoo 3 mit 32 bit Rendering Support und FSAA

Nur mal so zum nachdenken.

Börk
2002-10-07, 16:34:23
Originally posted by Rampage 2

GeForce 2 : (2000) DDR-RAM, höherer Chip- und Speichertakt,Pixelshader
Was???Wie???Wo???
Hab ich etwa was verpasst???
Zwar gute Politik, aber irgendwie schafft sie sich durchzusetzen,

Stimmt, des is wirklich gut Politik. Erst werden neue Features eingeführt und dann wird mit nem Refresh die Rohleistung so verbessert dass die neuen features auch sinnvoll einzusetzten sind.
Davon sollte sich ATI mal ne Scheibe abschneiden und nicht ewig nur eine Version eines Chips zu haben, dafür aber nix in anderen Preissegmenten. Allerdings scheint sich das ja dank R300 deutlich verbessert zu haben.
Ausserdem wer brauch schon dauernd neue features, die dann sowieso nicht genutzt werden, da ist es doch wesentlich sinnvoller ein Refresh zu machen, der dann auch die wirklich sinnvollen Sachen (Rohleistung, AA, AF)besser kann.
Das jetzt die jeweiligen Refreshs von NVidia auch nicht wirklich perfekt sind ist eine andere Sache, aber grundsätzlich haben sie die richtige Marktstrategie.

ow
2002-10-07, 16:45:34
Originally posted by Muh-sagt-die-Kuh
Aha....

Voodoo 1 + 1 weitere TMU = Voodoo 2
Banshee = hochgetaktete Voodoo 1 mit 2D Part
Voodoo 3 = hochgetaktete Voodoo 2 mit 2D Part
Voodoo 5 = Voodoo 3 mit 32 bit Rendering Support und FSAA

Nur mal so zum nachdenken.


Ich werd's mal ausformulieren: ;)

3dfx hat insgesamt nur 1 Chipgeneration gebracht, und zwar die auf Basis des "Voodoo graphics core".

Eine 2 Generation von 3dfx Chips gab es nicht mehr (Rampage,...)



/edit:

"Vorteil" von NVs Politik: man kann Chips ueberspringen, wer eine GF3 hat, der braucht keine GF4 und wer eine GF1 hatte, der brauchte auch keine Gf2.

"Nachteil" bei ATi: man muss eigentlich jede Chipgeneration kaufen, weil die Unterschiede/Geschwindigkeit zu gross sind.

nggalai
2002-10-07, 16:50:49
Originally posted by burk23

Was? Wie? Wo?
Hab ich etwa was verpasst???
Nö. :) NV hat mit der GF2 das "per pixel shading" (i.e. Dot3 bump-mapping) an die grosse Glocke gehängt. Und manchmal wird halt umgangssprachlich "Pixelshader" daraus, obwohl's das gar nicht hat. ;)

ta,
-Sascha.rb

Iceman346
2002-10-07, 17:02:33
Wenn man es ganz eng sieht kann man bei Nvidia seit der GF1 von 2 Generationen reden:

1. Generation: GF1-GF2 Ultra (DX7 Karten)
2. Generation: GF3-GF4 (DX8 Karten)

Alle Zwischenschritte waren eigentlich nur Designerweiterungen und Optimierungen.

LovesuckZ
2002-10-07, 17:03:13
Originally posted by Rampage 2
Wenn man die GF3 übertaktet erreicht man
dasselbe.
Toll...

Börk
2002-10-07, 17:35:31
Originally posted by Rampage2
Wenn man die GF3 übertaktet erreicht man
dasselbe.

Ich glaub net dass man durch übertakten 2 Vertex shader "erreicht".
Ausserdem erreicht man mit der GF3 net schnelles Quincunx (doll oder).

Börk
2002-10-07, 17:41:32
Originally posted by nggalai
Nö. :) NV hat mit der GF2 das "per pixel shading" (i.e. Dot3 bump-mapping) an die grosse Glocke gehängt. Und manchmal wird halt umgangssprachlich "Pixelshader" daraus, obwohl's das gar nicht hat. ;)

ta,
-Sascha.rb
Des is gut zu wissen, dann kann ich mir ja getrost ne GF4MX kaufen, wenn die auch nen "Pixelshader" hat, und den Vertex Shader kann ich ja dann über CPU emulieren ;D.
Ne es ist aber schon unglaublich was für Gerüchte durch Unwissenheit verbreitet werden. Aber vielleicht is des ja von NVidia so gewollt, dass durch die Namensähnlichkeit Leute verarscht werden.
Naja aber ich will hier NV nix unterstellen, die würden ja mit solch miesen Marketingtricks Niiiieee im Leben arbeiten ;)

Lotus
2002-10-07, 18:12:11
Originally posted by burk23

Ich glaub net dass man durch übertakten 2 Vertex shader "erreicht".
Ausserdem erreicht man mit der GF3 net schnelles Quincunx (doll oder).

als ich kann mir nicht vorstellen das einer mit Quincunx spielt und das auch noch als schön empfindet :D :D

Exxtreme
2002-10-07, 18:17:14
Originally posted by Lotus


als ich kann mir nicht vorstellen das einer mit Quincunx spielt und das auch noch als schön empfindet :D :D
Wieso? Bei untexturierten Polygonen ist Quincunx gar nicht so schlecht.
;) :lol: :bounce:

Gruß
Alex

nggalai
2002-10-07, 20:52:58
Hola burk23,Originally posted by burk23
Ne es ist aber schon unglaublich was für Gerüchte durch Unwissenheit verbreitet werden. Aber vielleicht is des ja von NVidia so gewollt, dass durch die Namensähnlichkeit Leute verarscht werden.
Naja aber ich will hier NV nix unterstellen, die würden ja mit solch miesen Marketingtricks Niiiieee im Leben arbeiten ;) Nein, das eher nicht--der Begriff "Per Pixel Shading" ist deutlich älter als "Pixelshader". ;)

ta,
-Sascha.rb

ice cool69
2002-10-07, 21:04:35
ati steigt doch auf die selbe strategie um weil sie einfach die ergibigste ist.
der r350 soll ein r300 mit ein paar neuen features (dx9.1) sowie detailverbesserungen und höherem chiptakt werden. der unterschied ist auch nicht viel größer als von gf3 zu gf4...

find ich persönlich auch gut so, ein featureoverkill nutzt keinem was und ati hat bisher immer ne generation ausgelassen, also kein refresh gemacht, das erklärt warum es immer einen komplett neuen grafikchip gab.

Rampage 2
2002-10-07, 21:14:35
Originally posted by Lotus


als ich kann mir nicht vorstellen das einer mit Quincunx spielt und das auch noch als schön empfindet :D :D

Dies stimmt zum Teil. Bei normalen Aufösungen sieht's wirklich zu
verwaschen aus. Erst ab der 1600x1200er Auflösung zeigt Quincunx
seine wahre Stärke: Das Bild ist nicht mehr so verwaschen und zudem
siehts dann mit Quincunx weit besser aus, als herkömmliches Anti-
Aliasing.Außerdem benötigt Quincunx weniger Leistung als andere
AA-Methoden. Mal sehen wie Nvidia's 4xS AA aussehen wird...

Rampage 2
2002-10-07, 21:25:06
Originally posted by Muh-sagt-die-Kuh
Aha....

Voodoo 1 + 1 weitere TMU = Voodoo 2
Banshee = hochgetaktete Voodoo 1 mit 2D Part
Voodoo 3 = hochgetaktete Voodoo 2 mit 2D Part
Voodoo 5 = Voodoo 3 mit 32 bit Rendering Support und FSAA

Nur mal so zum nachdenken.

Die Voodoo1 kann aber nicht triliniar filtern. Voodoo2 kann das(fast).
Und damals war triliniare Filterung etwas besonderes. Zudem ist die
Voodoo2 mit einer weiteren TMU doppelt so schnell wie eine V1. Dann
kann man schon von einer neuen Generation sprechen. Bei der Voodoo3
war das genauso, zudem hatte diese noch einen 22Bit-Filter und unter-
stützte die volumerischen Echtzeitschatten in Q3-Engines.

Und die Voodoo5 (welche ich zu Hause in der Kiste habe) kann weit
mehr als 32Bit rendern und FSAA. Du hast den Accumulation Buffer
und den doppelten Chipsatz vergessen.

Rampage 2
2002-10-07, 21:29:21
Originally posted by ice cool69
ati steigt doch auf die selbe strategie um weil sie einfach die ergibigste ist.
der r350 soll ein r300 mit ein paar neuen features (dx9.1) sowie detailverbesserungen und höherem chiptakt werden. der unterschied ist auch nicht viel größer als von gf3 zu gf4...

find ich persönlich auch gut so, ein featureoverkill nutzt keinem was und ati hat bisher immer ne generation ausgelassen, also kein refresh gemacht, das erklärt warum es immer einen komplett neuen grafikchip gab.

Wenn du den DDRII-Speicher des R350 als "kleines" Feature verstehst,
habe ich nichts mehr zu sagen. Immerhin führt diese zu bis zu 60%
höheren Taktraten und so zu neuen Leistungsdimensionen...

Rampage 2
2002-10-07, 21:38:14
Originally posted by ow



Ich werd's mal ausformulieren: ;)

3dfx hat insgesamt nur 1 Chipgeneration gebracht, und zwar die auf Basis des "Voodoo graphics core".

Eine 2 Generation von 3dfx Chips gab es nicht mehr (Rampage,...)



/edit:

"Vorteil" von NVs Politik: man kann Chips ueberspringen, wer eine GF3 hat, der braucht keine GF4 und wer eine GF1 hatte, der brauchte auch keine Gf2.

"Nachteil" bei ATi: man muss eigentlich jede Chipgeneration kaufen, weil die Unterschiede/Geschwindigkeit zu gross sind.






Ähem, nur so, der GeForce2 ist doppelt so schnell wie eine GF1 und
ich glaube nicht, dass jemand dann nicht aufmerksam darauf wird.
Denn, wenn das was du sagts richtig wäre, könnte ich auch sagen,ich
brauche nur eine GF3 um Doom3 1024er Auflösung bei allen Details mit
AA und AF spielen zu können und ich bräuchte keine GF4 oder R300...

Richthofen
2002-10-07, 22:33:30
"
Wenn du den DDRII-Speicher des R350 als "kleines" Feature verstehst,
habe ich nichts mehr zu sagen. Immerhin führt diese zu bis zu 60%
höheren Taktraten und so zu neuen Leistungsdimensionen...
"

Ja und? Wo ist dann bitte die grosse Design Änderung, das man von einem neuen Chip sprechen kann?
Da wird nicht viel neu sein.
Das BSP GF3 > GF4 passt da doch recht gut als Vergleich.

Leute seht doch einfach mal ein auch wenns euch nicht in den Kram passt, das die Nvidia Strategie die bessere ist und letztlich ATI nun dazu zwingt das selbe zu machen.
Niemand kann jedes Jahr ein Neudesign bringen. Das rentiert sich nicht und die Ressourcen dafür sind auch nicht da.

Wer aber wie ATI in der Vergangenheit den Refresh nicht bringt, wird es nie auf nen grünen Zweig bringen.
Der Grund ist der ASP (die Unwissenden informieren was das heisst :) ) der am fallen ist wie ein nasser Sack.
Wer nix Neues bringt, wird immer miesere Margen haben.
Das Produkt das man neu rausbringt, verkauft sich ein halbes Jahr später nicht mehr zu dem selben Preis.
Die Firmen und da ist es egal ob AMD, NV oder Intel können ihre Margen nur halten, wenn sie ständig refreshen und somit in allen Marktsegmenten immer präsent sind.
Wenn dies mal nicht der Fall ist geht es rapide abwärts.

Bestes Beispiel aktuell AMD. Kaum fehlen die High End Refreshes sinkt der ASP und die Margen ins Bodenlose und dann heisst es dunkel rot am Quartalsende. Und wenn das lange anhält, ist der Ofen schnell aus.

Also höhrt mal auf rumzujammern und seht einfach ein das Firmen Geld verdienen müssen, da sonst wie gesagt feierabend ist. Und wer nur einmal im Jahr nen Graka Chip bringt, wird kein Geld in diesem Marktsegment machen so simpel und einfach ist das.

Das hat nix mit mieser Politik zu tun, sondern ist schlichtweg eine betriebswirtschaftliche Notwendigkeit.
Und da man nunmal nicht ständig ein komplettes Neu Design liefern kann, wird eben refresht und da auch ATI lernfähig ist, werden sie wohl oder übel mitziehen müssen. Was meint ihr wohl wieso die ARTx gekauft haben.
Nicht nur das die was drauf haben, sondern mit einem Entwicklerteam kann man in dem Markt nicht überleben, schon gar nicht wenn der Konkurent 3 unterhält.
Der rüstet einen sonst blitzschnell tot.

Und genau aus diesen beschriebenen Gründen, werden kleine wie PowerVR, SIS und Trident nie eine grosse Rolle spielen sondern immer nur mal Eintagsfliegen fabrizieren.
Die haben schlichtweg nicht genug Zeit um abzukassieren, weil die Konkurenz dann schon wieder eine Genration weiter ist.

Simple, einfach und brutal wie immer im Leben :)
Kapital ist trumpf und wer Geld und Ressourcen hat wird immer der Gewinner sein.
Intel ist ein so gutes Beispiel dafür. Das sollte auch dem dümmsten einleuchten.

Börk
2002-10-07, 22:46:08
Originally posted by nggalai
Hola burk23,Nein, das eher nicht--der Begriff "Per Pixel Shading" ist deutlich älter als "Pixelshader". ;)

ta,
-Sascha.rb
Ich weiss aber zumindest stammt der begriff pixelshader von NV.
Und du musst zugeben dass es für den DAU wirklich nicht einfach ist Per Pixel Shading und Pixelshader auseinander zuhalten. Wenn das nicht mal die "Profis" schaffen, wie soll der Otto-normal-verbraucher des dann raffen.

ice cool69
2002-10-07, 23:01:10
auch wenn ich das pro-nvidia gelaber von richthofen auf den tod nicht ausstehen kann, dass ati um die refreshes nicht rumkommt wenn sie irgendwann mal mit ati gleichziehen wollen stimmt absolut.

und dass ddr2 eine gute neuerung ist, genauso wie dx9.1 und detailverbesserungen, der meinung bin ich auch. nur ist es halt ein "refresh" und kein völlig neuer chip.

ich bin aber auch der meinung dass in zukunft der rhytmus neuer chip-refresh immer weniger stattfinden wird sondern sich alles immer mehr vermischen wird (immerwieder deutliche verbesserungen aber kein komplett neuer chip) so wie es bei den prozessoren der fall ist.

spätestens mit den voll programmierbaren chips wird dies der fall sein (stichwort p10).

egdusp
2002-10-07, 23:13:27
Originally posted by Rampage 2
oder kurz 1.) Neue Gen'
2.) Refresh
3.) Neue Gen'
4.) Refresh
5.) Neue Gen'
6.) Refresh
usw.

Das ist schematisch gezeigt Nvidias Politik.

Zwar keine gute Politik, aber irgendwie schafft sie sich durchzusetzen,
aber nicht mehr lange, wenn das so weitergeht...

Ich sehe in deiner Argumentation nichts, was darauf hindeutet, dass es dadurch nVidia schlechter gehen wird. Ich stimme in diesem Punkt Richthofen zu, dass es kein Fehler sondern eine zwingende Vorraussetzung zum Überleben in einem heftig umkäpften Markt ist.

In der Auto0mobilindustrie hat das BMW sehr erfolgreich praktiziert. Alle 2-3 Jahre bringen sie eine neue Generation heraus die zumeist nur geringe Änderungen zum Vorgänger aufweißt. Dies ist zwar in der Entwicklung teurer als nur alle 5 jahre neu zu entwickeln (wie Mercedes es macht), aber der Erfolg gibt ihnen recht.

Ansonsten wird man auf Probleme stoßen wie sie Creative mit ihren Soundblaster hat.
Keiner der eine anständige Soundkarte hat, wird sich eine neue kaufen und eine anständige Soundkarte kann auch schon 3 Jahre alt sein.
Deshalb haben sie ja jetzt auch die Audigy 2 releast, die eigentlich nur eine Audigy 1.1 ist.

mfg
egdusp

ice cool69
2002-10-07, 23:30:53
naja aber dass creative probleme mit den soundblastern hat kann man auch nicht gerade behaupten.

Radeonator
2002-10-07, 23:42:06
Ich denke kaum das NV wirklich was zu befürchten hat, dazu ist die PR Maschine zu stark und den ein oder anderen guten Chip haben Sie schliesslich auch in petto...

egdusp
2002-10-07, 23:54:22
Originally posted by ice cool69
naja aber dass creative probleme mit den soundblastern hat kann man auch nicht gerade behaupten.

Aber Creative hat eingesehen, dass selbst das absolute Topprodukt eines Marktes nicht gegen Preisverfall immun ist. Die Audigy 1 war bereits das Topprodukt ohne ernsthafte Konkurrenz bevor die Audigy 2 herauskam, die kaum verändert ist.
Ohne neue (= bessere im allgemeinen Bewußtsein) Produkte lassen sich die Preise nicht halten. Besonders im Computerberreich verjähren Produktesehr schnell. Dieses Bewußtsein haben sich auch die Leute angeignet. Erklär denen mal, warum eine 2 Jahre alte Hardware noch genauso teuer ist wie zur Markteinführung, während alles andere nur noch die Hälfte kostet.
Eine Soundkarte verliert zwar nicht so schnell an Nutzwert wie eine Graka, aber sie wird genauso schnell in der Herstellung billiger.

Ich bin sicher, dass Creative liebend gerne einen neuen Soundprozessor entwickelt hätte, wenn es sinnvoll gewesen wäre. Aber wahrscheinlich ist der heutige Bedarf an noch besserer und leistungsfähiger Soundhardware äußerst gering.
Wieviele Spieler benutzen denn schon 3D Sound?
Wieviele Spieler wissen, dass 3D Sound auch ohne Surround Anlage Sinn macht?
Wer außer Spielern braucht leistungsfähigere Soundchips?

Wenn Creative jetzt an der Leistungsschraube dreht, dann verspielen sie zukünftiges Potential. Gebe nie mehr als gefordert.

Intel beschleunigt seine Prozzis ja auch nur immer bis knapp über AMDs.

mfg
egdusp

ice cool69
2002-10-08, 00:18:31
das ist ja das problem. solange keine konkurrenz da ist stagniert der markt. und das ist ja anscheinend was der herr richthofen gerne hätte.
diesbezüglich wäre ich über ein aggressiveres vorgehen seitens nvidia in diesem markt wirklich angetan bzw. mein nächstes mainboard kommt von nvidia mit deren soundchip.
wenn sie da ordentlich weiterentwickeln und auf soundblaster-niveau kommen oder sogar drüber dann bin ich mehr als zufrieden.

solange der markt allerdings stagniert und nichts wirklich neues brauchbares rauskommt bleibt meine sb live 5.1 drin...

ernesto.che
2002-10-08, 00:19:13
Originally posted by Rampage 2


Die Voodoo1 kann aber nicht triliniar filtern. Voodoo2 kann das(fast).
Und damals war triliniare Filterung etwas besonderes. Zudem ist die
Voodoo2 mit einer weiteren TMU doppelt so schnell wie eine V1. Dann
kann man schon von einer neuen Generation sprechen. Bei der Voodoo3
war das genauso, zudem hatte diese noch einen 22Bit-Filter und unter-
stützte die volumerischen Echtzeitschatten in Q3-Engines.

Und die Voodoo5 (welche ich zu Hause in der Kiste habe) kann weit
mehr als 32Bit rendern und FSAA. Du hast den Accumulation Buffer
und den doppelten Chipsatz vergessen.

Also selbst der VSA-100 ist ein aufgebohrter Voodoo Graphics, wenn auch ziemlich heftig. Es sind immer neue Features hinzugekommen, ein neues Design aber hat 3dfx nie veröffentlicht.
Muss ja aber nicht schlecht sein, es entscheidet immer nur das, "was hinten raus komm".
So lange das bei Nvidia stimmt, wird Nvidia auch keine existentiellen Probleme bekommen.

ow
2002-10-08, 09:24:27
Originally posted by Rampage 2


Die Voodoo1 kann aber nicht triliniar filtern. Voodoo2 kann das(fast).
Und damals war triliniare Filterung etwas besonderes. Zudem ist die
Voodoo2 mit einer weiteren TMU doppelt so schnell wie eine V1. Dann
kann man schon von einer neuen Generation sprechen. Bei der Voodoo3
war das genauso, zudem hatte diese noch einen 22Bit-Filter und unter-
stützte die volumerischen Echtzeitschatten in Q3-Engines.

Und die Voodoo5 (welche ich zu Hause in der Kiste habe) kann weit
mehr als 32Bit rendern und FSAA. Du hast den Accumulation Buffer
und den doppelten Chipsatz vergessen.



1) kein Voodochip kann trilineare Filterung nutzen, wenn Multitexturing genutzt wird. Selbst eine V5 kann das nicht.

2) Geschwindigkeit hat nichts mit Chipgeneration zu tun.

3) Den 22 Bit Postfilter haben ALLE Voodoo Chips ausser dem V1 AFAIK.

4) Die V3 kann keine volumetrischen Echtzeitschatten in Q3 berechnen, weil ihr der Stencilbuffer fehlt.

5) Was ist denn an doppeltem Chipsatz so besonderes?
Das gibt's als SLI schon viel laenger als die V5.
Und 2 Chips werden nur dann genuztt, wenn einer zu langsam ist, um konkurrenzfaehig zu sein.

thomasius
2002-10-08, 09:33:45
also ich persönlich finde nv s firmenpolitik sehr clever, sie verkaufen nach wie vor sehr viele grakas und die sind gut, wenn sie einen vorhandenen chipsatz als neuerung verkaufen und die käufer drauf reinfallen, dann ist das umso cleverer.

also aus nvs und wirtschaftlicher sicht, einfach ne gute firmenpolitik.

und ich glaube nicht, dass nv irgendwann ins hintertreffen gerät, klar haben sie zur zeit nicht das topprodukt, aber das is ja wohl bei den verkaufszahlen nicht so schlimm, außerdem arbeiten sie dran...

p.s. habe selbst seit der tnt2pro keine nv karte mehr besessen, nicht dass man mich als nvidiot darstellt.

Duran
2002-10-08, 09:45:22
Auf einer GEFORCE 2 PIXEL SHADER ? wo lebst du denn :O

Duran
2002-10-08, 09:47:25
NV wird weiter marktführer bleiben weil es ATI net schafft lauffähige hardware (besser gesagt treiber ) auf den markt zu bringen :| ich bin jetzt mutig und sag das ende von ATI voraus (siehe quartals zahlen ) :P

aths
2002-10-08, 11:25:01
Originally posted by ow
1) kein Voodochip kann trilineare Filterung nutzen, wenn Multitexturing genutzt wird. Selbst eine V5 kann das nicht.Auf Voodoo, auch Voodoo5, wird in der Regel ohnehin nur bilineare Filterung genutzt.
Originally posted by ow
4) Die V3 kann keine volumetrischen Echtzeitschatten in Q3 berechnen, weil ihr der Stencilbuffer fehlt.Der Treiber meldet imo einen Stencil-Buffer. Ob der über SW realisiert wird, weiß ich nicht, das kann ja auch sein. Das Feature an sich ist meines Wissens vorhanden :)
Originally posted by ow
Und 2 Chips werden nur dann genuztt, wenn einer zu langsam ist, um konkurrenzfaehig zu sein. Wobei es dem Enduser egal sein kann, wie die Leistung erreicht wird: Ob über hochgetaktete Chips mit hochgezüchtetem DDR-RAM oder eben Multichip- (und RAM-) Einsatz.

aths
2002-10-08, 11:26:43
Originally posted by Evil_Duran
Auf einer GEFORCE 2 PIXEL SHADER ? wo lebst du denn :O Der PixelShader bei GeForce3 ist nur eine Erweiterung der NSR-Technologie, die schon bei GeForce2 zur Verfügung stand. Pixelgenaue Beleuchtung war auch mit GeForce1 schon möglich.

ow
2002-10-08, 12:48:00
Originally posted by aths
Auf Voodoo, auch Voodoo5, wird in der Regel ohnehin nur bilineare Filterung genutzt.



Na ist ja auch kein Wunder, dass bilinear benutzt wird, wenn trilinear nicht moeglich ist.


Der Treiber meldet imo einen Stencil-Buffer. Ob der über SW realisiert wird, weiß ich nicht, das kann ja auch sein. Das Feature an sich ist meines Wissens vorhanden :)


Ich weiss. Tat er auf der Banshee auch.
Ja, wird ueber SW realisiert, damit ist die Performance noch etwas schlechter als die des GDI-SW Renderers.:D


Wobei es dem Enduser egal sein kann, wie die Leistung erreicht wird: Ob über hochgetaktete Chips mit hochgezüchtetem DDR-RAM oder eben Multichip- (und RAM-) Einsatz.


Da stimme ich zu.
Aber statt einen Chip derer 2 auf eine Platine zu basteln halte ich nicht fuer fortschrittlich oder gar eine neue Generation.

nagus
2002-10-08, 12:53:00
Originally posted by ow


Na ist ja auch kein Wunder, dass bilinear benutzt wird, wenn trilinear nicht moeglich ist.


dass meine voodoo5 kein trilinear filtering unterstürtz ist mir auch "neu"...

ow
2002-10-08, 12:54:39
Das kommt wohl daher, dass du nicht allzuviel Ahnung zu haben scheinst.

Lies mal, was ich in meinem vorletzten Posting geschrieben habe unter Punkt 1).

nagus
2002-10-08, 12:58:06
Originally posted by ow
Das kommt wohl daher, dass du nicht allzuviel Ahnung zu haben scheinst.

Lies mal, was ich in meinem vorletzten Posting geschrieben habe unter Punkt 1).

kann es sein, dass trilinear-filtering nur unter glide korrekt funktioniert? ( ich meine bei der v5 und mit multisampling )

ow
2002-10-08, 13:05:30
Die TMUs der Voodoo Chips koennen nur 4Texel/Clk verarbeiten, damit ist bilineares mipmapping moeglich.
Zum trilinearen Filtern muessen aber 8Texel gefiltert werden (je 4 aus 2 unterschiedlichen mipmap-leveln).

Mann kann dazu 2 TMUs nutzen, dann ist aber kein gleichzeitiges Multitexturing moeglich (denn dafuer muessen ja jeweils 2x4 Texel aus unterschiedlichen Texturen genutzt werden aber nicht aus unterschiedlichen mipmap-leveln).

Also koennen die Voodoos (wie auch die NV TNT Chips) entweder trilinear single-textururing oder bilinear-mipmap mit Multitexturing.

Das ist nicht vom API (D3D, OGL, Glide) abhaengig, sondern eine HW-Limitierung.

aths
2002-10-08, 13:07:17
Originally posted by ow
Da stimme ich zu.
Aber statt einen Chip derer 2 auf eine Platine zu basteln halte ich nicht fuer fortschrittlich oder gar eine neue Generation. Statt einer TMU nun 2 TMUs zu verbauen, halte ich so gesehen auch nicht für eine neue Generation (GF1->2) Die Voodoo5 war die erste Karte, die ein in jeder Hinsicht (Qualität und Speed) sinnvolles Anti-Aliasing bot. Insofern denke ich, kann man gegenüber Voodoo3 problemlos von einer neuen Generation sprechen.

aths
2002-10-08, 13:09:59
Originally posted by nagus
kann es sein, dass trilinear-filtering nur unter glide korrekt funktioniert? ( ich meine bei der v5 und mit multisampling ) Die Voodoos boten 'Trilineares Dithering' an, um einen Trilinearen Effekt zu bieten. Ab 1024x768 (auf 17 Zoll) hat man in der Tat eine Grafik, die trilinearer Filterung schon recht nahe kommt. Counter-Strike z.B. spielte ich zwar ohne FSAA, aber in 32 Bit und mit "MIP-Map-Dithering" (das angesprochene Verfahren) und hatte eine ansprechende Grafik. (Vom fehlendem FSAA mal abgesehen, da nur Voodoo4, wo man sinnvollerweise zwischen FSAA und 32 Bit abwägt. Mit 16 Bit hatte ich Z-Flackern.)

nggalai
2002-10-08, 13:11:57
Originally posted by nagus


kann es sein, dass trilinear-filtering nur unter glide korrekt funktioniert? ( ich meine bei der v5 und mit multisampling ) Nein. Die Voodoo-Karten bieten trilineares dithering, nicht filtering. i.e. eine Annäherung.

ta,
-Sascha.rb

Birdman
2002-10-08, 13:12:31
Originally posted by nagus
kann es sein, dass trilinear-filtering nur unter glide korrekt funktioniert? ( ich meine bei der v5 und mit multisampling )
Nope, ging unter keiner API....bzw. halt immer nur in SingleTexturing Games, daher fiel es damals noch ned so auf, da noch ein grossteil der Games SingleTexturing verwendeten, und man zudem ja nen superhässliches Dithering einbaute (3dfx + nv) um trilinear zu "emulieren" wenn mutitexturing angewandt wird.

aber ich versteh nicht, wieso hier bei 3dfx nie von fortschritt geredet wird. klar, die technologie hat sich nie bahnbrechend weiterentwickelt, aber hätte sie das tun sollen? hätte uns das irgendwas gebracht? NEIN
3dfx hat dort aufgestockt, wo es uns am meisten gebracht hat, und zwar bei der rohpower. die voodoo2 war ja schon deutlich schneller als die voodoo1, doch dass man die auch als SLI benutzen konnte, machte das ganze erst richtig interessant. 3-4 facher speed gegenüber dem vorgänger, sowas gabs seither nie mehr.
na ja, für mich waren das jedenfalls quantensprünge, wenn andere halt lieber technologische fortschritte gesehen hätten, iss mir das egal, nachvollziehen kann ichs aber ned.

nggalai
2002-10-08, 13:12:31
Originally posted by nggalai
Nein. Die Voodoo-Karten bieten trilineares dithering, nicht filtering. i.e. eine Annäherung.

edit: lol, aths war schneller. :D

ta,
-Sascha.rb

aths
2002-10-08, 13:16:42
Originally posted by ow
Also koennen die Voodoos (wie auch die NV TNT Chips) entweder trilinear single-textururing oder bilinear-mipmap mit Multitexturing.

Das ist nicht vom API (D3D, OGL, Glide) abhaengig, sondern eine HW-Limitierung. Der Erklärung wäre hinzuzufügen, dass trilineare Filterung mit Multitexturing auch mit einer einzigen bilinearen TMU ausführbar wäre. Dazu müsste die Pipeline über eine Loopback-Logik verfügen. Das scheint bei Voodoo nicht der Fall zu sein.

Mit "Multitexturing" ist umgangssprachlich "Multitexturing in einem Takt" gemeint. Mein Beispiel erledigt MT nur noch pro Pass, nicht mehr pro Takt. Aber wir sind ja beim Feature- und nicht beim Leistungsaspekt. Dass sich mit einer einzigen TMU auf der Pipeline auch anisotrop filtern lässt, und das bei 8x MT, beweist z.B. der Kyro.

Lange Rede, kurzer Sinn: Dass VSA-100 nur Pipeline Combining, aber kein Loopback beherrscht, ist im imo klar anzukreiden. Statt Pipeline Combining hätte er z.B. eine Logik verpasst kriegen sollen, mit der pro Pipeline drei bis zu trilinear gefilterten Texeln erzeugbar gewesen wären.

Legolas
2002-10-08, 13:27:01
Originally posted by ow
3) Den 22 Bit Postfilter haben ALLE Voodoo Chips ausser dem V1 AFAIK.


Stimmt AFAIK nur bedingt. Erst ab dem V3 hatte der Postfilter eine 2x2 Pixelmaske. Alles darunter glaube ich eine 4x1. Deswegen hat die V2 Ausgabe mit Postfilter teilweise leichte Querstreifen. Dieses Manko wurde beim V3 durch den 2x2 Postfilter beseitigt.

StefanV
2002-10-08, 14:45:52
Originally posted by Evil_Duran
NV wird weiter marktführer bleiben weil es ATI net schafft lauffähige hardware (besser gesagt treiber ) auf den markt zu bringen :| ich bin jetzt mutig und sag das ende von ATI voraus (siehe quartals zahlen ) :P

Und 3DFX und Tseng werden wieder auferstehen...

Unregistered
2002-10-08, 15:18:04
Ich möchte mal stark bezweifeln, dass ATI mittelfristig in der Versenkung verschwinden wird. Die haben genug Kapital um auch mal ne längere Durststrecke zu überwinden - und zur Zeit befinden die sich eher in Aufbruchsstimmung. Es wird auch immer Leute geben, die schon aus Prinzip nie beim Marktführer kaufen würden... ;)

Und das die Treiber so schlecht sind, kann man wirklich nicht behaupten. Auf meiner Radeon 8.5K lief bis jetzt bis auf Mohaa alles auf Anhieb - und Mohha lief dann auch, nach dem ich nen neuen Treiber installiert hatte.

Ich hatte bis jetzt: 3DFX, nVidia, Ati und alle hatten ihre Vor- und Nachteile. Ich möchte mich auch hier auf keine Seite schlagen - auch wenn ich mir bezüglich 3DFX natürlich auch leichte Befangenheit attestieren muss - schon allein aus Nostalgie...

Die Fehler die 3DFX gemacht hat waren IMHO eher Marketingmäßiger Natur, sie haben nämlich wirklich an der Power ihrer Chips gearbeitet, anstatt in "Featuritis" auszubrechen. Zu Voodoo3-Zeiten hat keiner 32 Bit gebraucht, zu Voodoo4/5 Zeiten war auch T&L noch kein Thema, aber das waren eben die Dinge, auf die der Käufer geachtet hat.
Da waren sie natürlich selbst schuld. "As Market Requires" ist hier der Zauberpunkt.

Aber ATI hat im Gegensatz zu 3DFX noch ein gutes Standbein im OEM-Markt (man darf auch die große Verbreitung in MAC-Kreisen nicht vergessen!!!) und ich denke nicht, dass die wirklich Probleme kriegen werden...

ow
2002-10-08, 16:59:25
Originally posted by aths
Statt einer TMU nun 2 TMUs zu verbauen, halte ich so gesehen auch nicht für eine neue Generation (GF1->2)


Habe ich ja auch nicht behauptet. Gf1 und Gf2 sind eine Generation, ebenso GF3 und GF4.


Die Voodoo5 war die erste Karte, die ein in jeder Hinsicht (Qualität und Speed) sinnvolles Anti-Aliasing bot. Insofern denke ich, kann man gegenüber Voodoo3 problemlos von einer neuen Generation sprechen.


Den Speed kannst du doch vergessen. Der ist mit AA nicht besser als bei einer GF1/2 auch. Dafuer fehlt es der V5 einfach an Pixel-Fuellrate.

Bei neuer Generation denke ich vorallem an Sachen wie AF, DOT3 BM, T&L,...

Ausser AA und TC hat die V5 doch nichts neues gegnueber der V3, und 32Bit hatten andere Chips schon lange.

ow
2002-10-08, 17:03:25
Originally posted by aths
Die Voodoos boten 'Trilineares Dithering' an, um einen Trilinearen Effekt zu bieten. Ab 1024x768 (auf 17 Zoll) hat man in der Tat eine Grafik, die trilinearer Filterung schon recht nahe kommt. Counter-Strike z.B. spielte ich zwar ohne FSAA, aber in 32 Bit und mit "MIP-Map-Dithering" (das angesprochene Verfahren) und hatte eine ansprechende Grafik. (Vom fehlendem FSAA mal abgesehen, da nur Voodoo4, wo man sinnvollerweise zwischen FSAA und 32 Bit abwägt. Mit 16 Bit hatte ich Z-Flackern.)


Ich kenne das trilineare Dithering und in vielen Faellen ist es einfach unbrauchbar, weil das Bild extrem pixelig an den mipmap-Uebergaenge wirkt.

Was CS angeht: in den 3dfx Optionen kann man AFAIR die "Z-Buffer Praezision" (was auch immer das ist:D) einstellen (normal, fast, fastest), nur bei normal gibt es keinerlei Z-Fehler, bei fast und fastest konnte ich schon leichte Z-Fehler auf meiner Banshee mit zB. Q3 sehen.

ow
2002-10-08, 17:07:44
Originally posted by aths
Der Erklärung wäre hinzuzufügen, dass trilineare Filterung mit Multitexturing auch mit einer einzigen bilinearen TMU ausführbar wäre. Dazu müsste die Pipeline über eine Loopback-Logik verfügen. Das scheint bei Voodoo nicht der Fall zu sein.

Mit "Multitexturing" ist umgangssprachlich "Multitexturing in einem Takt" gemeint. Mein Beispiel erledigt MT nur noch pro Pass, nicht mehr pro Takt. Aber wir sind ja beim Feature- und nicht beim Leistungsaspekt. Dass sich mit einer einzigen TMU auf der Pipeline auch anisotrop filtern lässt, und das bei 8x MT, beweist z.B. der Kyro.

Lange Rede, kurzer Sinn: Dass VSA-100 nur Pipeline Combining, aber kein Loopback beherrscht, ist im imo klar anzukreiden. Statt Pipeline Combining hätte er z.B. eine Logik verpasst kriegen sollen, mit der pro Pipeline drei bis zu trilinear gefilterten Texeln erzeugbar gewesen wären.


Ja aths, das weiss ich doch alles.:)
Und ich gebe dir da absolut recht. Nur bringt es nichts zu sagen "wenn er gehabt haette..."..... mein TNT kann auch kein trilinear mit MT.:D

ow
2002-10-08, 17:10:30
Originally posted by Legolas


Stimmt AFAIK nur bedingt. Erst ab dem V3 hatte der Postfilter eine 2x2 Pixelmaske. Alles darunter glaube ich eine 4x1. Deswegen hat die V2 Ausgabe mit Postfilter teilweise leichte Querstreifen. Dieses Manko wurde beim V3 durch den 2x2 Postfilter beseitigt.


Ich habe es schon oefters erwaehnt und es ware schoen, wenn du dir das merken koenntest:;)

Auch mein Banshee kann 2x2 und 4x1 Postfilter. GANZ SICHER.

Beim V2 bin ich mir nicht sicher, da ich nie eine besessen habe, aber ich vermute, dass der das auch kann.

ow
2002-10-08, 17:14:01
Originally posted by Unregistered

Die Fehler die 3DFX gemacht hat waren IMHO eher Marketingmäßiger Natur, sie haben nämlich wirklich an der Power ihrer Chips gearbeitet, anstatt in "Featuritis" auszubrechen. Zu Voodoo3-Zeiten hat keiner 32 Bit gebraucht, zu Voodoo4/5 Zeiten war auch T&L noch kein Thema, aber das waren eben die Dinge, auf die der Käufer geachtet hat.
Da waren sie natürlich selbst schuld. "As Market Requires" ist hier der Zauberpunkt.



Du weisst doch: die Sache mit der Henne und dem Ei. Was war zuerst da?:D;)

Haette es damals keine neuen Features gegeben, dann wuerden wir heute noch mit V2 Grafik spielen. Also zB. keine Texturen groesser als 256x256.
Zuerst muesen die Chips die Features beherrschen, und einige Zeit spaeter werden sie von Entwicklern genutzt.

Schnitzl
2002-10-08, 20:19:14
Originally posted by ow

Den Speed kannst du doch vergessen. Der ist mit AA nicht besser als bei einer GF1/2 auch. Dafuer fehlt es der V5 einfach an Pixel-Fuellrate.
hm, scheint mir ganz so, als hättest du nie ne V5 gehabt.
Ich hatte ein und ebenso ne GF1DDR
Pixel-Füllrate hin oder her: Das waren Welten bei AA.

ow
2002-10-08, 20:32:32
Wenn jemand ein paar Benches da hätte.....

Ich habe nur eine Gf2MX oder alternativ eine Kyro1 anzubieten und die dürften von der Geschwindigkeit her beide mit der V5 mithalten bei FSAA.

Von der AA-Qualität allerdings nicht.

Quasar
2002-10-08, 20:38:58
Ohne das jetzt groß nachzubenchen, würde ich mal pauschal sagen, dass beide Karten für 1024x768x32 + FSAA zu lahm waren, zumindest in Shootern.

StefanV
2002-10-08, 20:43:18
Originally posted by ow
Wenn jemand ein paar Benches da hätte.....

Ich habe nur eine Gf2MX oder alternativ eine Kyro1 anzubieten und die dürften von der Geschwindigkeit her beide mit der V5 mithalten bei FSAA.

Von der AA-Qualität allerdings nicht.

Ja, beide ohne FSAA mit einer V5 mit 2x FSAA *eg*

ow
2002-10-08, 21:15:44
Originally posted by Quasar
Ohne das jetzt groß nachzubenchen, würde ich mal pauschal sagen, dass beide Karten für 1024x768x32 + FSAA zu lahm waren, zumindest in Shootern.


Ja, sind sie.

-ow@lost cookie-

Birdman
2002-10-08, 23:18:51
Originally posted by ow
Ich habe es schon oefters erwaehnt und es ware schoen, wenn du dir das merken koenntest:;)

Auch mein Banshee kann 2x2 und 4x1 Postfilter. GANZ SICHER.

Beim V2 bin ich mir nicht sicher, da ich nie eine besessen habe, aber ich vermute, dass der das auch kann.
Also ich habe sicher 1 oder 1.5 jahre mit V2 und später V2 SLI gezockt, und die karte konnte kein 2x2 Postfilter.
Die Quersteifen waren auch immer recht deutlich zu sehen, von daher war die BQ sicher ned allererste Sahne. (dafür hate sie in keinem Spiel Grafikfehler oder ähnliches, und Q2 sieht auch heute nur auf voodoo karten richtig gut aus ;) )

aths
2002-10-09, 00:11:03
Originally posted by ow
Ich kenne das trilineare Dithering und in vielen Faellen ist es einfach unbrauchbar, weil das Bild extrem pixelig an den mipmap-Uebergaenge wirkt.Das ist dein Eindruck, dem ich hier nicht widersprechen möchte. Auf meiner Banshee benutzte ich diese Ditherung nie. Auf der Voodoo4 dagegen recht häufig.
Originally posted by ow
Was CS angeht: in den 3dfx Optionen kann man AFAIR die "Z-Buffer Praezision" (was auch immer das ist:D) einstellen (normal, fast, fastest), nur bei normal gibt es keinerlei Z-Fehler, bei fast und fastest konnte ich schon leichte Z-Fehler auf meiner Banshee mit zB. Q3 sehen. Der 16-Bit-Z-Buffer reichte nicht aus, um bei CS alle Polygone flackerfrei darzustellen, also forcte ich in Glide/OpenGL 32 Bit Rendering, was neben der Farbtiefe auch den Z-Buffer auf 32 Bit stellt.

aths
2002-10-09, 00:11:09
Originally posted by ow
Den Speed kannst du doch vergessen. Der ist mit AA nicht besser als bei einer GF1/2 auch. Dafuer fehlt es der V5 einfach an Pixel-Fuellrate.Dafür bekommt man mit 2x AA fast die Qualität von GeForce 4x AA, und mit der 4x Qualität kann derzeit nur Parhelia an Polygonaußenkanten bzw. Radeon9700 an allen Polygonkanten mithalten.
Originally posted by ow
Bei neuer Generation denke ich vorallem an Sachen wie AF, DOT3 BM, T&L,...Andere mögen da vielleicht an Multisample-Buffer und AA denken.
Originally posted by ow
Ausser AA und TC hat die V5 doch nichts neues gegnueber der V3, und 32Bit hatten andere Chips schon lange. Wenn ich mir die Sache ansehe, ist AA heutzutage ein unverzichtbares Standard-Feature, was eben auf Voodoo zuerst in brauchbarer Form angeboten wurde.

aths
2002-10-09, 00:14:08
Originally posted by Quasar
Ohne das jetzt groß nachzubenchen, würde ich mal pauschal sagen, dass beide Karten für 1024x768x32 + FSAA zu lahm waren, zumindest in Shootern. In 16 Bit ist FSAA auf der Voodoo5 auch in Shootern einsetzbar (ohne dabei natürlich Quaker-Profis zu befriedigen. Es gibt ja neben Quake auch noch andere Shooter) Das gute beim Voodoo5-16-Bit-Modus ist ja nicht nur der 22-Bit-Postfilter, sondern auch die Art des Downfiltering. D.h., das fertige Bild bei 16 Bit und 2x FSAA kann deutlich mehr Farben als aus dem 16-Bit-Farbraum enthalten. Voodoo hat imo das hochwertigste 16-Bit-Rendering was es je gab. (Kyro rendert ja grundsätzlich in 32 Bit, auch in 16-Bit-Modus.)

aths
2002-10-09, 00:14:42
Originally posted by ow
Auch mein Banshee kann 2x2 und 4x1 Postfilter. GANZ SICHER.Jopp.
Originally posted by ow
Beim V2 bin ich mir nicht sicher, da ich nie eine besessen habe, aber ich vermute, dass der das auch kann. Afaik kam der 2x2-Filter erst mit Banshee.

ice cool69
2002-10-09, 00:20:17
gings hier nicht mal um die nvidia grafikchippolitik?
obwohl, das thema is eh durchgekaut soweit ich das erkennen kann. ich bin für schließen...

aths
2002-10-09, 01:22:19
Hast Recht. Zumal Unternehmens-Politik eher in "Politik und Wirtschaft" diskutiert werden sollte, sind wir doch arg offtopic.

ow
2002-10-09, 09:20:51
Originally posted by aths

Der 16-Bit-Z-Buffer reichte nicht aus, um bei CS alle Polygone flackerfrei darzustellen, also forcte ich in Glide/OpenGL 32 Bit Rendering, was neben der Farbtiefe auch den Z-Buffer auf 32 Bit stellt.

Also fuer CS muesste der 16Bit Z ausreichen.
Erst bei Q3 gibt's da in eineigen Level Z-Fehler.

ow
2002-10-09, 09:23:42
Originally posted by aths
Voodoo hat imo das hochwertigste 16-Bit-Rendering was es je gab.

IMO hat das immer noch NV.
Das Dithering auf den Voodooos ist ziemlich uebel, da hilft auch der Postfilter nicht viel auch wenn er die Farbzahl etwas erhoeht.
Wenn das Dithering nichts taugt, kann man 16Bit Modi vergessen.

aths
2002-10-09, 21:26:32
Originally posted by ow
IMO hat das immer noch NV.
Das Dithering auf den Voodooos ist ziemlich uebel, da hilft auch der Postfilter nicht viel auch wenn er die Farbzahl etwas erhoeht.
Wenn das Dithering nichts taugt, kann man 16Bit Modi vergessen. Das Dithering bei 3dfx, zumindest VSA-100, ist viel gleichmäßiger als selbst beim NV25. (Wobei bei GF4 der 16-Bit-Modus ohnehin Makulatur ist :))