PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie schnell schätzt ihr die Voodoo5 6000 ein?


Raff
2006-12-13, 20:02:07
Ja, was meint ihr? Welcher Karte kann sie aus Leistungssicht wirklich Paroli bieten?

Ziel des Threads ist das Sammeln von Meinungen. Aussagen zur tatsächlichen Leistungsfähigkeit oder Vorschläge etwaiger Konkurrenten gibt es keine von meiner Seite, ihr seid dran. ;)

Und, bitte: Wem das Thema schon immer oder erst in letzter Zeit auf die Weichteile geht, der möge einfach nichts sagen.

MfG,
Raff

Gast
2006-12-13, 20:05:32
ich schätz mal irgendwo zwischen Geforce2 Ultra und Geforce3Ti500, je nach einstellungen.

btw: sollte das teil nicht Voodoo6 6000 heißen?

StefanV
2006-12-13, 20:10:28
GF2 'echte' Pro, mal schneller, mal nicht.

kmf
2006-12-13, 20:23:44
Mit Qualitätseinstellung (32bit) denke ich, daß sie etwa auf Niveau der Ati Radeon 7500 (64MB) ist. Die war mit dieser auch schneller als die GF2 Ultra. Letztere hatte eigentlich nur unter 16bit was los, unter 32bit brach sie doch ziemlich ein. Mit eingeschalteter Kantenglättung dürfte alleinig die Voodoo noch spielbare Frameraten erzeugen.

Mr. Lolman
2006-12-13, 20:25:25
@Raff: Da hätt auch ne Umfrage ganz gut gepasst.

F5.Nuh
2006-12-13, 20:35:45
GeForce 3 Ti 200 oder Ti 500, je nach Einstellung

Sonyfreak
2006-12-13, 20:40:19
Je nach Spiel und Einstellung würde ich schätzen, dass sie zwischen einer Geforce 2 Pro/GTS und einer Geforce 4 Ti4200 liegt, wenn der Prozessor schnell genug ist.

mfg.

Sonyfreak

Spasstiger
2006-12-13, 20:47:11
GeForce 2 Ultra.
Zur GeForce 3 reichts mangels Shadertechnik nicht ganz aus. ;)

Spannend wäre aber mal ein Vergleich mit 4xSSAA und einer aktuelleren Grafikkarte (z.B. GeForce 4 Ti). Ich könnte mir vorstellen, dass hier die V5 6K als Siegerin hervorgeht.

Raff
2006-12-13, 21:04:00
@Raff: Da hätt auch ne Umfrage ganz gut gepasst.

Hm ...

GeForce 2 Ultra.
Zur GeForce 3 reichts mangels Shadertechnik nicht ganz aus. ;)

Nur die Geschwindigkeit beachten, Shader gab's anno 2000/2001 ja in Spielen eh praktisch nicht. In Sachen BQ ist sie eh nicht ganz einzuordnen. Beim AA noch immer absolute Spitze, beim Texturfilter ziemlich ärmlich. Da gibt's nur AF in Kombination mit dem SSAA. ;)

MfG,
Raff

Coda
2006-12-14, 00:13:42
Mit eingeschalteter Kantenglättung dürfte alleinig die Voodoo noch spielbare Frameraten erzeugen.

Das ist ein Gerücht. Es ist schließlich Supersampling was die Voodoo macht. Das war nicht schnell. Schnelles AA gabs erst ab der GeForce 3 (Multisampling).

Spannend wäre aber mal ein Vergleich mit 4xSSAA und einer aktuelleren Grafikkarte (z.B. GeForce 4 Ti). Ich könnte mir vorstellen, dass hier die V5 6K als Siegerin hervorgeht.

Gleicher Blödsinn.

(+44)
2006-12-14, 00:30:55
Ähm, das ist jetzt echt keine "Glaubensfrage" - bencht doch einfach diverse Spiele und vergleicht mit den Ergebnissen von anderen ATi/nV-Karten... oO

Und wer sich ernsthaft für Voodoos interessiert weiß doch wie schnell/langsam eine V5 6000 ist...

J0ph33
2006-12-14, 01:00:01
geforce 3 (Ti 200, in hohen auflösungen, ohne shader usw. usf.)

ich denke, dass dieses "brainstorming" nur einer kleiner prolog für einen großen artikel ist, nicht wahr, raff? ;)

=Floi=
2006-12-14, 01:04:37
die voodoos brechen ja bei 16 bit ebenfalls ein also wird sie da sicherlich nix überholen :D :D :D
wenn dann 16bit und da war sie schon schneller als so manch anderes modell das hier schon genannt wurde

Raff
2006-12-14, 01:25:17
Das ist ein Gerücht. Es ist schließlich Supersampling was die Voodoo macht. Das war nicht schnell. Schnelles AA gabs erst ab der GeForce 3 (Multisampling).

In Wahrheit ist das MSAA der GeForce3 kaum schneller als Supersampling. Ihr fehlten einfach noch einige Effizienztechniken. Heutzutage kostet MSAA in der Tat nichts – im Vergleich.

Gleicher Blödsinn.

Er bezieht sich wohl auf den bewiesenen Blödsinn, dass eine Voodoo5 mit 4x AA idR mehr Fps macht als eine GeForce2, auch wenn letztere ohne AA schneller sein mag.

MfG,
Raff

der_roadrunner
2006-12-14, 05:25:18
Also laut der PC-Games Hardware 11/2007 sollte die Voodoo5 6000 der Geforce 2 Ultra paroli bieten. Und nach deren Aussage soll das 8xSSAA der Voodoo sogar dem 6xMSAA aktueller Radeons überlegen sein. Aber ich denke mal, dass es sehr auf's Spiel ankommt.

der roadrunner

StefanV
2006-12-14, 05:56:20
Naja, die Performance von 8x FSAA sollt in etwa der V4-4500 mit 2x FSAA entsprechen ergo ziemlich unbrauchbar für damals gängige Spiele...

Erst mit der R300 konnt man auch wirklich FSAA einsetzen...

Gast
2006-12-14, 08:17:49
MSAA konnte man schon ab der Geforce4 sinnvoll einsetzen. 2x bot da den besten Kompromiss. 4x war auch sehr oft nutzbar, speziell bei der 4600er.

Gast
2006-12-14, 08:19:48
btw es gibt doch etliche Benchmarks zu der Karte im Web. Eine Webseite hatte doch sogar ein Video-Review zu der Karte gemacht. Weiß nur nicht mehr welche das war. Ist gar nicht mal solange her, iirc 2004 oder 2005.

mfg mapel110

Gast
2006-12-14, 08:21:58
Naja, die Performance von 8x FSAA sollt in etwa der V4-4500 mit 2x FSAA entsprechen ergo ziemlich unbrauchbar für damals gängige Spiele...

Erst mit der R300 konnt man auch wirklich FSAA einsetzen...
Vielmehr ist richtig, dass der R300 sich von der 4600 (NV25?!) nur unter FSAA damals wirklich absetzen konnte. Rowpower ohne AA war nahezu identisch. Obendrein hat man die verzogenen Vergleiche im Kopf. Gutes vs schlechtes AF, sag ich nur.

Mr. Lolman
2006-12-14, 08:50:14
MSAA konnte man schon ab der Geforce4 sinnvoll einsetzen. 2x bot da den besten Kompromiss. 4x war auch sehr oft nutzbar, speziell bei der 4600er.

2xRGSAA liess sich auch mit ner Voodoo5 55000 überall einsetzen. Und im Gegensatz zur damaligen Konkurrenz brachte der 4xAA Modus noch ne deutliche Qualitätssteigerung...

GanjaBob
2006-12-14, 09:29:55
selbst eine 8800GTX hat keine chance gegen dass monster! :)

Lightning
2006-12-14, 09:36:43
Vielmehr ist richtig, dass der R300 sich von der 4600 (NV25?!) nur unter FSAA damals wirklich absetzen konnte. Rowpower ohne AA war nahezu identisch. Obendrein hat man die verzogenen Vergleiche im Kopf. Gutes vs schlechtes AF, sag ich nur.

Auch die Rohleistung einer Radeon 9700 ist dank doppelt so vielen Pixel-Pipelines und doppelt so breitem Speicherinterface gepaart mit relativ hohen Taktraten wesentlich höher.


Zum Thema: Im großen und ganzen GeForce2 Ultra, würde ich sagen. Für beide Kontrahenten werden sich allerdings Spiele und Einstellungen finden lassen, in denen einer von beiden deutlich vorbeizieht.
Meiner Meinung nach sollte man allerdings nicht nur Spiele in Betracht ziehen, die es bei Erscheinen der beiden Karten gegeben hätte (wenn die 6000 denn erschienen wäre ;)), sondern auch die zu "Lebzeiten" der Karten, also so 1-2 Jahre danach.

robbitop
2006-12-14, 09:38:36
Eine V5 6000 müßte 2,2x so schnell wie eine V 5 5500 sein.
Die delta 0,2 entstehen durch den höheren Takt.
Dadurch, dass SLI (bei damaligen Spielen gab's ja noch kein R2T oder irgendwelche Fullscreen Effekte) alle VSA Chips in einem Bild arbeiten ließ, war das Verfahren im Bereich von 100%iger Effizienz, was die Erhöhung der Rohleistung anging (im Gegensatz zu AFR/SFR/Supertiling).
Eine Voodoo 5 5500 ist mit den neusten Modtreibern und Glide/WickedGL Hexereien fast so schnell wie eine GF2 GTS. Dann sollte die V 5 6000 ca doppelt so schnell wie eine GF2 GTS sein.
Die getesteten Spiele sind sicher ohne Shader und Anforderungen von mehr als 2 Texturen pro Pass, somit kann man davon ausgehen, dass die 6K über einer GF3 und etw unter einer GF4 liegen wird. Der GF2 fehlt vor allem die Bandbreite. (und die Bandbreiteneffizienz...die 6K hat ja immerhin ein 4x unterteiltes Interface) Je nach Situation.
Ich kann mir vorstellen, dass in einer Overdrawlastigen Szene die V5 6000 etwas mehr einbricht als die Konkurrenz.


Auch die Rohleistung einer Radeon 9700 ist dank doppelt so vielen Pixel-Pipelines und doppelt so breitem Speicherinterface gepaart mit relativ hohen Taktraten wesentlich höher.



Die Verdopplung der Pixelpipelines brachte Füllratentechnisch eigentlich nichts. Es blieb ja bei 8 TMUs. Klar die Füllrateneffizienz wurde durch die feinere Granularität ein wenig besser. Vor allem aber brachten die 2 Quadpipes aber 8 CoIssue ALUs, welche für die SM2 Rechenleistung ganz gut war (ok 2002 spielte das keine Rolle).

Entscheidend war das 256 Bit breite Interface, die Colorcompression und ein vernünftiges SG MSAA.

Mr. Lolman
2006-12-14, 13:22:02
Ich kann mir vorstellen, dass in einer Overdrawlastigen Szene die V5 6000 etwas mehr einbricht als die Konkurrenz.


Nicht in Glide. Ich bau an einem UT Level, welches auf der Voodoo5 5500 @1024x768x22/2xAA in OpenGL schon deutlich ruckelt, in Glide aber mit 60fps flutscht :biggrin:

robbitop
2006-12-14, 13:30:29
Das liegt möglicherweise an der crappy OGL Umsetzung bei UT.
Glide kann Overdraw auch nicht verhindern.

Raff
2006-12-14, 13:47:29
Aber zumindest Overhead. Naja, das bringt nur was, wenn die CPU limitiert – kommt in UT aber oft vor.

MfG,
Raff

AnarchX
2006-12-14, 14:03:41
Nicht in Glide. Ich bau an einem UT Level, welches auf der Voodoo5 5500 @1024x768x22/2xAA in OpenGL schon deutlich ruckelt, in Glide aber mit 60fps flutscht :biggrin:
Original OpenGL-Renderer oder einer der Weiterentwickelten?

StefanV
2006-12-14, 14:04:05
Vielmehr ist richtig, dass der R300 sich von der 4600 (NV25?!) nur unter FSAA damals wirklich absetzen konnte. Rowpower ohne AA war nahezu identisch. Obendrein hat man die verzogenen Vergleiche im Kopf. Gutes vs schlechtes AF, sag ich nur.
Nein, schau dir mal die letzten Reviews dazu an, da wird die TI4600 von der R300 in Grund und Boden gerammt.

Aus 2 Gründen:
a) die Treiber sind etwas besser optimiert
b) die CPUs sind schneller geworden

Letzteres ist bei einigen Karten ein mittelprächtiges Problem...

robbitop
2006-12-14, 14:07:40
Aber zumindest Overhead. Naja, das bringt nur was, wenn die CPU limitiert – kommt in UT aber oft vor.

MfG,
Raff
Selbst bei einer 2,6 GHz Barton CPU?
Kein Wunder bei der OGL Umsetzung. Warum nicht mal D3D probiert?

AnarchX
2006-12-14, 14:10:41
Kein Wunder bei der OGL Umsetzung.
Der von unabhängiger Seite weiterentwickelte OpenGL-Renderer ist aber imo deutlich besser und schneller als Direct3D-Renderer.
Link:http://cwdohnal.home.mindspring.com/utglr/
btw. Es gibt nun auch einen D3D8-Renderer. :|

Mr. Lolman
2006-12-14, 14:11:54
Original OpenGL-Renderer oder einer der Weiterentwickelten?

Einer der Weiterentwickelten. OpenGLtreiber war der S3TC kompatible "3dfx OpenGL ICD version 1.0.0.0761" von Reid Campbell, x3dfx. (http://www.3dfxzone.it/koolsmoky/glide.html)

Raff
2006-12-14, 14:18:15
Selbst bei einer 2,6 GHz Barton CPU?
Kein Wunder bei der OGL Umsetzung. Warum nicht mal D3D probiert?

Non-3dfx-Karten lasse ich stets in Direct3D laufen, denn in OGL werden keine Detail Textures dargestellt.

MfG,
Raff

AnarchX
2006-12-14, 14:19:24
Non-3dfx-Karten lasse ich stets in Direct3D laufen, denn in OGL werden keine Detail Textures dargestellt.


Mit dem enhanced OpenGL-Renderer (http://cwdohnal.home.mindspring.com/utglr/) AFAIK schon...;)

robbitop
2006-12-14, 14:34:28
Non-3dfx-Karten lasse ich stets in Direct3D laufen, denn in OGL werden keine Detail Textures dargestellt.

MfG,
Raff
Hu? Ich dachte die gehen nur mit MeTal und mit dem Hack von Daniel Vogel auch mit OGL.

AnarchX
2006-12-14, 14:35:08
Hu? Ich dachte die gehen nur mit MeTal und mit dem Hack von Daniel Vogel auch mit OGL.
Detail Texturen != S3TC-Texturen...;)

robbitop
2006-12-14, 14:46:56
Detail Texturen != S3TC-Texturen...;)
Aha? Dann ist das so eine "Rausch-Textur" wie bei Max Payne 1?
Das macht ja nur bei low res Haupttexturen wirklich Sinn.

AnarchX
2006-12-14, 14:48:32
Aha? Dann ist das so eine "Rausch-Textur" wie bei Max Payne 1?
Das macht ja nur bei low res Haupttexturen wirklich Sinn.

Genau ist so eine "Rausch-Textur", welche aber imo den Texturen von Unreal1 - UT2004 doch das gewisse Etwas gegeben hat.

Mr. Lolman
2006-12-14, 14:56:44
Das macht ja nur bei low res Haupttexturen wirklich Sinn.

Das macht bei jeder Textur sinn, bei der der Magnificationfilter zum einsatz kommt. Also fast bei allen. Sinnlos wärs erst dann, wenn die Texturen so hoch aufgelöst sind, dass der magfilter nicht mehr benötigt wird. Da ziehen aber sicher noch ein paar Jahre ins Land, bis es soweit ist...

Coda
2006-12-14, 15:09:38
In Wahrheit ist das MSAA der GeForce3 kaum schneller als Supersampling.

Du glaubst ja wohl selber nicht, dass 2xMSAA auf der GeForce 3 100% mehr Füllrate gebraucht hat. Selbst ohne Effizienzsteigerung ist das Unsinn.

Er bezieht sich wohl auf den bewiesenen Blödsinn, dass eine Voodoo5 mit 4x AA idR mehr Fps macht als eine GeForce2, auch wenn letztere ohne AA schneller sein mag.

Die Voodoo 5 verliert exakt 50% Leistung durch 2xAA, genauso wie die GeForce auch.

robbitop
2006-12-14, 15:14:16
Du glaubst ja wohl selber nicht, dass 2xMSAA auf der GeForce 3 100% mehr Füllrate gebraucht hat. Selbst ohne Effizienzsteigerung ist das Unsinn.

Die GF3 verlor bis zu 40% bei 2xMSAA. Lag aber auch daran, dass die eher Bandbreiten als Füllratenlimitiert war und dass EarlyZ mit MSAA erst ab NV25 funktionierte.

@Lolman

jaha einen gewissen Sinn hat es noch, aber der nimmt natürlich mit steigender Texturgröße ab. Und kosten tut so eine Detailmap ja auch noch Füllrate.

Raff
2006-12-14, 15:24:19
Du glaubst ja wohl selber nicht, dass 2xMSAA auf der GeForce 3 100% mehr Füllrate gebraucht hat. Selbst ohne Effizienzsteigerung ist das Unsinn.

Wenn ich was sage, dann glaube ich idR nicht, sondern habe das in der Praxis beobachtet.

MfG,
Raff

robbitop
2006-12-14, 15:47:35
Außer wenn du crap erzählst X-D

Raff
2006-12-14, 17:38:13
Außer wenn du crap erzählst X-D

Das mach' ich eh immer, robbi. :tongue:

___

Thema: Einige liegen mit ihren Schätzungen schon ziemlich gut. Die Leute, die ich vorher fragte, lagen teils weit daneben ...

MfG,
Raff

(+44)
2006-12-14, 20:14:07
Wie gesagt - wieso muss man schätzen wenn die Leistung seit Jahren bekannt ist? Nen Benchmark/ne Timedemo wird wohl schonmal jemand mit der Karte gemacht haben, oder?!

Mal angenommen jemand käme mit der Frage, wie schnell wir nen P4 im Vergleich zu nem Athlon64 einschätzen - er würde wahrscheinlich zu Tode gebashed ;)

Thema wäre evtl. was für den OT-Bereich, da eröffne ich dann auch gleich den NetBurst/Athlon-Einschätzungsthread :uhippie:

Raff
2006-12-14, 21:57:25
Im Gegensatz zum P4 existieren von der V5 6000 nur <100 funktionsfähige Exemplare ... und vielleicht 3% davon wurden jemals für einen gescheiten Artikel missbraucht. Der Thread dient nur dazu, abzuschätzen, wie viele Leute überrascht oder bestätigt werden. Eine Bestandsaufnahme, wie die Karte in den Gedächtnissen hängengeblieben ist. Unser kommender Artikel wird jedenfalls alles offenbaren: Stärken und Schwächen.

MfG,
Raff

robbitop
2006-12-14, 22:22:30
Unser kommender Artikel wird jedenfalls alles offenbaren: Stärken und Schwächen.

MfG,
Raff
Die V5 6000 hat Schwächen? :|

Raff
2006-12-14, 22:25:16
Haha. Wer bei dem Artikel ernsthaft eine völlig verblendete Heiligsprechung erwartet, der sollte mal aufwachen. ;)

MfG,
Raff

robbitop
2006-12-14, 22:33:13
Haha. Wer bei dem Artikel ernsthaft eine völlig verblendete Heiligsprechung erwartet, der sollte mal aufwachen. ;)

MfG,
Raff
Das klingt so gar nicht nach euch Jungs... X-D
Kleiner Spaß...ich bin schon gespannt auf euer Meisterwerk.

Gast
2006-12-15, 16:45:58
Ihr überschätzt die Karte etwas

http://3dcenter.de/artikel/2001/01-29.php


Laut diesen Zahlen läuft die Voodoo5-6000 unter 16 Bit sehr ähnlich einer nVidia GeForce2 Pro und unter 32 Bit sehr ähnlich einer nVidia GeForce2 Ultra, aber nicht darüber.

Raff
2006-12-15, 17:19:31
1. Nur ein Benchmark
2. Die CPU ist eher hüftlahm als 2000-er High-End
3. Kam der WickedGL zum Einsatz?

MfG,
Raff

eXodia
2006-12-15, 17:21:59
Ich persönlich fände es aber seltsam die V5 6000 mit einer CPU zu testen, welche zu ihrer Zeit Lichtjahre nicht in Sicht war, ist imo etwas unsinnig und nicht representativ.

Regards

Coda
2006-12-15, 17:22:51
Wenn ich was sage, dann glaube ich idR nicht, sondern habe das in der Praxis beobachtet.

2xSGSSAA auf V5: Das Bild wird 2x berechnet -> Halb so viele FPS wenn GPU limitiert. Da braucht man fast keinen Gehirnschmalz dafür. Es ist exakt der gleiche Füllratenverlust und es wird genauso viel oder wenig geloopt wie auf einer GeForce bei Supersampling.

Eine GeForce 3 verliert durch MSAA deutlich weniger. Glaube es oder nicht.

Raff
2006-12-15, 17:25:37
Ich persönlich fände es aber seltsam die V5 6000 mit einer CPU zu testen, welche zu ihrer Zeit Lichtjahre nicht in Sicht war, ist imo etwas unsinnig und nicht representativ.

Regards

Deswegen gibt es auch eine Gegenüberstellung zwischen High-End von 2000 und dem, was man ~2003 hätte gegenüber stellen können: einen Barton @ 2,6 GHz.

2xSGSSAA auf V5: Das Bild wird 2x berechnet -> Halb so viele FPS wenn GPU limitiert. Da braucht man fast keinen Gehirnschmalz dafür. Es ist exakt der gleiche Füllratenverlust und es wird genauso viel oder wenig geloopt wie auf einer GeForce bei Supersampling.

Eine GeForce 3 verliert durch MSAA deutlich weniger. Glaube es oder nicht.

Nochmals: Ich glaube nicht, ich messe.

MfG,
Raff

Coda
2006-12-15, 17:26:30
Nochmals: Ich glaube nicht, ich messe.

Das ist schön für dich, aber die Messung wird mich genauso bestätigen. Es sei denn es wurde Glide vs. Direct3D oder anderer Unsinn gemessen und das Spiel war eigentlich CPU limitiert.

Das VSA100-Supersampling ist ein mehrfaches Berechnen des Bildes und braucht damit n-fache Rechenleistung. Darüber braucht man nicht streiten sondern muss es einfach akzeptieren.

Spasstiger
2006-12-15, 19:40:26
Ist eigentlich eine GeForce 4 MX 460 (300 MHz Chiptakt, 275 MHz Speichertakt) schneller als eine GeForce 2 Ultra (250 MHz Chiptakt, 230 MHz Speichertakt)?
Wenn ja, sollte man ja die Voodoo 5 6000 mal gegen eine GeForce 4 MX 460 antreten lassen. Ich könnte vielleicht sogar noch so eine MX-460 auftreiben. Die wäre allerdings ohne Originalkühler (wobei mein alter VGA Silencer passt, macht halt nur ein wenig Krach ;)).

robbitop
2006-12-15, 19:45:31
Ist eigentlich eine GeForce 4 MX 460 (300 MHz Chiptakt, 275 MHz Speichertakt) schneller als eine GeForce 2 Ultra (250 MHz Chiptakt, 230 MHz Speichertakt)?
Deutlich schneller sogar. (IIRC ~30% schneller)


Wenn ja, sollte man ja die Voodoo 5 6000 mal gegen eine GeForce 4 MX 460 antreten lassen. Ich könnte vielleicht sogar noch so eine MX-460 auftreiben. Die wäre allerdings ohne Originalkühler (wobei mein alter VGA Silencer passt, macht halt nur ein wenig Krach ;)).
Raff hat ne MX440 die sich kräftig übertakten lässt.

Raff
2006-12-15, 19:48:41
Da sie den Speichertakt nicht mitmacht ("nur" ~260 MHz), fällt eine simulierte MX-460 weg. Aber: Anhaltspunkt (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5008534&postcount=47). :naughty:

Neben der MX-440 haben wir aber genug Konkurrenz, die neuer ist als die GF2 Ultra. ;)

MfG,
Raff

robbitop
2006-12-15, 23:01:59
Die Füllrate der übertakteten GF4MX ist einen Tick niedriger und die Bandbreite ist sogar um 37% geringer. Wobei die Füllrateneffizienz der VSA deutlich höher sein dürfte.
Grund 1: diese besitzt noch Pixelpipelines und keine Quadpipes
Grund 2: die V5 6000 kann 8 Farbwerte pro Takt schreiben, die GF4MX nur 2.
Die Granularität ist deutlich besser beim VSA.
EarlyZ Culling scheint beide Nachteile gerade so wieder rauszuholen. Das finde ich so schlecht nicht.

Aber natürlich kann die GF4MX kein SGSSAA. Dafür MSAA und AF, TnL und DP3 Mapping. Praktisch ist die NV17 IMO die bessere Karte (das SSAA mal aussen vor). Aber eine Legende ist sie nicht...

Raff
2006-12-15, 23:12:44
Das GeForce4-Erbe in der MX haut sogar enorm viel raus. In dem Thread finden sich ja noch mehr Werte.

MfG,
Raff

BlackBirdSR
2006-12-16, 07:28:00
Sollten die Ergebniss heute! so ausfallen, dass die V5 6000 eventuell knapp an die GF4 Serie ranreichen könnte ich einigen Fällen; dann hoffe ich doch, dass ich nicht Folgendes lesen muss:

Wäre die Voodoo5 6000 damals erschienen und wären die Treiber etwas optimierter, so hätte man Nvidia auch noch bis in die GF4 Serie hinein den Markt streitig machen können.

Das wäre unsinn ;)

robbitop
2006-12-16, 09:55:35
Die Voodoo 5 6000 war sowieso nicht wirklich Consumer marktgerecht. Die Produktionskosten waren viel zu hoch. Dazu war sie technisch eher Richtung DX6. Das Teil hätte IMO gar nichts geändert.

stav0815
2006-12-16, 10:07:12
Die Voodoo 5 6000 war sowieso nicht wirklich Consumer marktgerecht. Die Produktionskosten waren viel zu hoch. Dazu war sie technisch eher Richtung DX6. Das Teil hätte IMO gar nichts geändert.

Befürchte ich auch. Genauso wie für XGI die Volari Duo Serie nichts gebracht hat.

Spasstiger
2006-12-16, 10:35:31
Dazu war sie technisch eher Richtung DX6.
Jopp, spätestens mit Battlefield 1942 und UT2003 ging ohne T&L nicht mehr viel. Jede GeForce 3 war für beide Spiele schnell genug und selbst mit den GeForce 2 Karten konnte man mit leichten Abstrichen gut spielen (sofern genug Prozessorpower vorhanden war).
Und sogar Farcry war auf einer GeForce 3 noch gut spielbar. Eine Voodoo 5 6000 hätte da echt alt ausgesehen.

Ok, ich hab jetzt den Rampage nicht in die Überlegungen mit einbezogen. Ich glaube aber nicht, dass dieser gegen die GeForce 4 TI hätte bestehen können.

robbitop
2006-12-16, 10:52:26
Also eine relativ aktuelle CPU schafft TnL für UT2004 nebenher problemlos. Zumindest schafft es mein Core Duo 1,66 GHz im Notebook.

Spasstiger
2006-12-16, 11:01:42
Also eine relativ aktuelle CPU schafft TnL für UT2004 nebenher problemlos. Zumindest schafft es mein Core Duo 1,66 GHz im Notebook.
Eine Voodoo 5 6000 wäre allerdings eher mit einem Athlon 1,2 bis 1,4 GHz gepaart gewesen, welcher doch um einiges langsamer ist als ein Core Duo 1,66 GHz.
Und ich denke mal, dass jemand mit einer GeForce 2 Ultra und einem Athlon 1,4 in UT2003 wesentlich höhere Frameraten geboten bekommt als jemand mit derselben CPU und einer Voodoo 5 6000.

Und wenn es die Voodoo 5 6000 wirklich noch auf den Markt geschafft hätte, wäre das wohl nicht vor 2001 passiert, wo schon die GeForce 3 mit ihrer Shaderfähigkeit drohend im Weg stand. Wie sich gezeigt hat, war die Shaderfähigkeit auch bei dieser Leistungsklasse nicht nutzlos (siehe Farcry).
Ein Voodoo-5-6000-Käufer hätte sich im Nachhinein wohl wie ein GeForce-FX-5800-Käufer gefühlt. Beides sind eher kurzlebige Karten.

robbitop
2006-12-16, 11:25:26
Liegt vor allem an der großen Verspätung. Die gesamte VSA Reihe sollte ja Anfang 2000 kommen. Nagut aber das 8xSGSSAA darf man nicht vergessen. Das ist schon eine nette BQ. Nachträglich finde ich aber eine GF4MX besser.

Sonyfreak
2006-12-16, 11:34:51
Außerdem konnte man mit dem erscheinen der Geforce 4 Reihe auch relativ preiswert an DX8 Hardware herankommen. Geforce 4Ti 4200er Karten waren richtige P/L Sieger, und lange Zeit auch schneller als Mittelklasse DX9 Karten. Spätestens gegen diese Karten um 150-200€ hätte die Voodoo 6000 keine Chance mehr gehabt.

mfg.

Sonyfreak

Raff
2006-12-16, 11:50:40
Ist ja schön, dass ihr die V5 6000 jetzt schon mit GeForce-Karten vergleicht, die eine "4" zieren, ehrt die Karte ... aber meint ihr nicht, dass das ein klein wenig unfair ist? Der Konkurrent der V5 6000 wäre die GeForce2 Ultra gewesen. Kurze Zeit später dann die GeForce3 ... und erst ein ganzes Jahr später die GeForce4! Sollte die V56k dennoch an letztere herankommen, wie wäre das? Es ist doch klar und normal, dass irgendwann auch das schnellste Modell von neuerem Mainstream abgezogen wird. Eine 8800 wird 2008 auch Probleme haben.

MfG,
Raff

robbitop
2006-12-16, 12:22:58
Tja die V5 6000 kam jedoch nie. Guess what: das hatte auch seine Gründe. Das Teil konnte kein GF2 Ultra Konkurrent sein, weil es einfach zu teuer und zu groß war. Das war einfach nicht marktgerecht. Zu ähnlichen Kosten hätte NV auch eine Dual NV15 bauen können (sie waren wie 3dfx clever genug zu wissen, dass das niemals von den Kosten klappen kann). Nur weil ein IHV so verrückt war und die Idee erwogen hatte, 4 Chips auf eine Karte zu bauen, ist das noch lange keine Meisterleistung.
Hui wenn ich heute 4x G80 auf eine Karte klebe...dann wird es vermutlich auch ein paar Jahre dauern, bis ein SingleChip die Leistung erreicht.

Ich weiß nicht, was daran so aufregend sein soll.

Raff
2006-12-16, 12:24:48
Prestige. Endlich wieder an der Spitze. Es ist doch vollkommen klar, dass das nichts anderes gebracht hätte. Und wer das nicht aufregend findet, der ist vielleicht falsch im Thread. ;)

MfG,
Raff

robbitop
2006-12-16, 12:32:39
Wie gesagt, das Teil ist nie am Markt gewesen. 3dfx hat das Teil nicht umsonst gecancled. Das war ein Laborhüter. Insofern nett, dass es mal in die Hände von normalen Menschen gekommen ist (wer weiß, was alles in den NV/ATI Labors rumliegt). Das wär sicher nicht passiert, wäre 3dfx nicht untergegangen. Aber marktrelevant war es halt nicht.

Mr. Lolman
2006-12-16, 12:39:35
Wie gesagt, das Teil ist nie am Markt gewesen. 3dfx hat das Teil nicht umsonst gecancled. Das war ein Laborhüter. Insofern nett, dass es mal in die Hände von normalen Menschen gekommen ist (wer weiß, was alles in den NV/ATI Labors rumliegt). Aber relevant ist es damit kein Stückchen.

Gecancelt wurde sie wohl, wegen den ganzen Verzögerungen. Das Ding wurde letztenendens viel teurer als zunächst angedacht. In der letzten Revision (3900-A) machte man sogar das PCB dicker, weil man dachte, dass die Instabilitäten durch elektrische Störungen bedingt sind.

Als dies auch nichts half, hat man halt die Karte gecancelt, und erst danach schaffte ein 3dfx Ingeneur, das PCI-Rework, welches die gewünschte Stabilität brachte.

robbitop
2006-12-16, 12:49:45
Siehst du, technisch und von den Kosten war die V5 6000 nicht als GF2 U Konkurrent machbar. Klar als Enthusiaskarte für das 1,5x wäre das vieleicht denkbar gewesen. Aber eben kein GF2U Konkurrent mehr. In dem Falle hätte ATI vieleicht eine Radeon MAXX gebracht und NV vieleicht auch etw ähnliches. Machbar ist vieles... ;)

Das 8xSGSSAA habe ich der Karte ja nicht abgesprochen.

Mr. Lolman
2006-12-16, 12:55:20
Siehst du, technisch und von den Kosten war die V5 6000 nicht als GF2 U Konkurrent machbar. Klar als Enthusiaskarte für das 1,5x wäre das vieleicht denkbar gewesen. Aber eben kein GF2U Konkurrent mehr. In dem Falle hätte ATI vieleicht eine Radeon MAXX gebracht und NV vieleicht auch etw ähnliches. Machbar ist vieles... ;)

Hätten sie nicht soviele Revisionen benötigt, wär sie nicht so teuer geworden und hätte (imo) kostendeckendend zum Preis einer GF2 Ultra verkauft werden können.

robbitop
2006-12-16, 13:00:23
Hätten sie nicht soviele Revisionen benötigt, wär sie nicht so teuer geworden und hätte (imo) kostendeckendend zum Preis einer GF2 Ultra verkauft werden können.
Hätte, wenn und aber... ;)
So ein komplexes PCB entwickelt man auch nicht mal eben so. Was meinst du warum es keine Dual NV15 oder R100 gab?
Das wäre ein ähnlich komplexes Projekt gewesen. Sicher sogar schneller.

Das ist eine Behauptung ohne Grundlage.
Du willst behaupten, dass 4x Packages, 128 MiB SDRAM, ein so großes PCB, entsprechende Spannungswandlung, 4 Kerne ähnlich teuer wie ein PCB mit 64 MiB DDR-SDRAM, einem Kern und einem Package mit inkomplixerer Spannungswandlung waren? :|

Einer der Gründe, warum die V5 5500 billiger war als die GTS, ist der Performance und Featureunterschied. Die Marge einer GTS war IMO größer als einer V5 5500. Die Ultra war für NV so viel teurer nicht. Die 6k hingegen fast doppelt so teuer wie eine 5500.

Mastermind
2006-12-16, 13:09:31
Warum belagern die Voodookas nicht nVidia? Die haben doch die Technologie, aber bisher nur einen Teil davon umgesetzt. Mit der G80 wäre doch mit wenig Aufwand eine sehr viel bessere AA-Qualität als auf der V56k möglich und zusammen mit dem genialen AF und auch sonstigen Qualitäten hätte man das Nonplusultra an Leistung und Qualität! :smile:

Ist wohl der Markt für zu klein? :frown:

Lightning
2006-12-16, 13:38:42
Warum belagern die Voodookas nicht nVidia? Die haben doch die Technologie, aber bisher nur einen Teil davon umgesetzt. Mit der G80 wäre doch mit wenig Aufwand eine sehr viel bessere AA-Qualität als auf der V56k möglich und zusammen mit dem genialen AF und auch sonstigen Qualitäten hätte man das Nonplusultra an Leistung und Qualität! :smile:

Ist wohl der Markt für zu klein? :frown:

So wie ich das sehe dürfte es schon lange keine Verwendung mehr für alte 3dfx-Technologien geben. Wir sind mittlerweile eben schon 6 Jahre weiter.

Und SGSSAA ist weder eine Erfindung von 3dfx, noch könnte es nicht prinzipiell für jede Grafikkarte implementiert werden. Der Grund, warum das nicht gemacht wird, kann nur der sein, dass man der Meinung ist der Aufwand würde sich nicht lohnen.

Mr. Lolman
2006-12-16, 13:44:56
Das ist eine Behauptung ohne Grundlage.
Du willst behaupten, dass 4x Packages, 128 MiB SDRAM, ein so großes PCB, entsprechende Spannungswandlung, 4 Kerne ähnlich teuer wie ein PCB mit 64 MiB DDR-SDRAM, einem Kern und einem Package mit inkomplixerer Spannungswandlung waren? :|

Ich behaupte nicht, dass es ähnlich teuer war, sondern dass es ähnlich teuer verkauft hätte werden können. Das die GF2 Käufer (so wie praktisch alle Käufer von Konkurrenzloser Highend-HW) abgezockt wurden ist klar, denn eine Gf2 Ultra wurde sicher nicht doppelt so teuer produziert wie ne GTS, wohl aber um den z.T. doppelten Preis verkauft..

Raff
2006-12-16, 14:03:43
Das ist eine Behauptung ohne Grundlage.
Du willst behaupten, dass 4x Packages, 128 MiB SDRAM, ein so großes PCB, entsprechende Spannungswandlung, 4 Kerne ähnlich teuer wie ein PCB mit 64 MiB DDR-SDRAM, einem Kern und einem Package mit inkomplixerer Spannungswandlung waren? :|

Ich könnte mir z.B. vorstellen, dass 64 MiB High-Endiger DDR-SDRAM in kleinen Mengen deutlich teurer sind als 128 MiB SDR-SDRAM mit 6 ns oder 5,5. ;)

MfG,
Raff

robbitop
2006-12-16, 14:04:47
Achso ja gut. Aber es ist eben nie passiert. 3dfx wollte sich natürlich nicht die Margen versauen. Gerade in der damaligen Lage. ;)

Lightning
2006-12-16, 14:52:04
Natürlich sind solch hohe Settings für ältere Spiele immer eine nette Option (für neuere hingegen nicht brauchbar, das war bei den Voodoos nicht anders).

Dennoch: SGSSAA braucht doch eine spezielle Implementierung in Hardware, erhöht damit den Transistorbedarf und bewirkt somit vielleicht, dass dafür andere Features zurücktreten müssen. Man könnte also schon überlegen, ob es nicht doch sinnvoll war, sich erstmal auf günstigere AA-Modi zu konzentrieren.

robbitop
2006-12-16, 14:53:48
Spätestens R300 und NV40 beherrschen SG-SSAA. Sie nutzen es lediglich nicht. (Grundvorraussetzung für TAA)

Raff
2006-12-16, 14:57:08
Natürlich sind solch hohe Settings für ältere Spiele immer eine nette Option (für neuere hingegen nicht brauchbar, das war bei den Voodoos nicht anders).

Wie Lolli und ich schon mehrfach sagten: Mit einer 5500 war immer 2x AA drin, folglich schafft eine 6000 dort immer 4x (sogar etwas schneller!). 8x AA war auch sehr oft nutzbar. Aber gut, das zeigen wir auch im Artikel.

MfG,
Raff

Lightning
2006-12-16, 14:58:10
Spätestens R300 und NV40 beherrschen SG-SSAA. Sie nutzen es lediglich nicht. (Grundvorraussetzung für TAA)

Stimmt, daran dachte ich nicht. Auf jeden Fall sehr schade, dass dies nicht in reiner Form im Treiber angeboten wird.
Die möglichen Modi sind allerdings nicht so hoch wie es bei der Voodoo5 6000 der Fall ist. Und das wird ja immer so oft zitiert, dass die AA-Qualität dieser Karte so lange nicht erreicht wurde bzw. immer noch nicht erreicht ist.


edit:
Wie Lolli und ich schon mehrfach sagten: Mit einer 5500 war immer 2x AA drin[...]

Ok, das hängt natürlich von der Auflösung ab. Wenn man 1024x768 aber als Standardauflösung sehen würde, würde die Leistung imho längst nicht immer reichen.

Dunkeltier
2006-12-16, 16:45:08
Die 3dfx Voodoo 5 6000 war alles andere als ein am Markt vorbei entwickeltes Produkt. Sie war schlichtweg ein Bildqualitätsmonster. Ich hatte "damals" eine 32MB DDR-SDRAM Creative Labs Annihilator Pro Geforce 256 - welche an für sich zwar schnell war. Dafür aber längst kein so gutes Bild wie die 3dfx Karte bot. Und seien wir mal ehrlich: Für 32Bit war die Geforce damals nicht schnell genug. Zudem beherrschte sie kein Glide, sah in 16Bit (wo die Voodoo-Karten einen ziemlich gut aussehenden 22Bit Modus für Spiele boten) scheiße aus und bot auch keine wirklich überall nutzbare Kantenglättung. Bei der 3dfx Voodoo 5 5500, welche ich damals besaß, war eigentlich immer und überall 800x600 bis 1024x768 mit 2-facher Kantenglättung drin. Bei "Gammelspielen" wie Half-Life sogar 4-fache Kantenglättung.

T&L wurde von der Presse gnadenlos überhypt. War zu dieser Zeit so sinnvoll wie jetzt 'ne D3D10 Karte für D3D1 Spiele zu kaufen. Aus meiner Sicht würde ich die Voodoo 5 5500 zwischen der Geforce und der Geforce 2 einordnen, die Voodoo 5 6000 sehe ich als Konkurrent zur Geforce 2 Ultra bzw. sogar minimal drüber. Mit entsprechend leistungsstarken Unterbau und in damals aktuellen Spielen... Ach ja, für meine 5500er hatte ich 600-700 DM bezahlt gehabt. Ich habe den Kauf dieser Karte weniger bereut, wie den der Geforce. Denn diese machte ständig alle naselang Probleme, waren damals wohl irgendwelche Treiberprobleme oder Resourcenkonflikte. War froh, als ich den Scheiß dann los war. Meine Voodoo 5 5500 wurde damals übrigens von 'nem AMD Duron 800 Mhz angetrieben, ein ziemlich gängiger Unterbau. Die CPU blieb, aber die Voodoo mußte dann einer Kyro II weichen. Ich hatte es damals irgendwie mit den Underdogs. ;) Leider gibt es seit geraumer Zeit keine wirklichen Konkurrenten mehr - was an der gestiegenen Komplexität und dem Entwicklungsaufwand der GPUs liegt.

Raff
2006-12-17, 16:25:08
Na dann splittet doch mal das Topic, ihr Banausen. :tongue:

MfG,
Raff

deekey777
2006-12-17, 16:43:33
Na dann splittet doch mal das Topic, ihr Banausen. :tongue:

MfG,
Raff
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=339649
Bitte haltet euch an den Topic.
Sollte etwas fälschlich herausgesplittet worden sein, schreibt es nocmal. :biggrin:

Gast
2006-12-17, 18:03:02
Die 3dfx Voodoo 5 6000 war alles andere als ein am Markt vorbei entwickeltes Produkt. Sie war schlichtweg ein Bildqualitätsmonster. .

Natürlich war sie komplett am Markt vorbei entwickelt wie man an den Stückzahlen sieht. Und ausser AA ist auch nichts mit Bildqualität, nichtmal AF kann die Voodoo.

Raff
2006-12-17, 18:25:15
Das 2x AF der GF2-Serie hatte natürlich einen phänomenalen Einfluss auf die Texturschärfe. :| Erst bei der GF3 kann man von einem Sprung sprechen. Und was für einer bei der Filterung!

MfG,
Raff

Gast
2006-12-17, 18:36:32
Die 3dfx Voodoo 5 6000 war alles andere als ein am Markt vorbei entwickeltes Produkt. Sie war schlichtweg ein Bildqualitätsmonster. Ich hatte "damals" eine 32MB DDR-SDRAM Creative Labs Annihilator Pro Geforce 256 - welche an für sich zwar schnell war. Dafür aber längst kein so gutes Bild wie die 3dfx Karte bot. Und seien wir mal ehrlich: Für 32Bit war die Geforce damals nicht schnell genug. Zudem beherrschte sie kein Glide, sah in 16Bit (wo die Voodoo-Karten einen ziemlich gut aussehenden 22Bit Modus für Spiele boten) scheiße aus und bot auch keine wirklich überall nutzbare Kantenglättung. Bei der 3dfx Voodoo 5 5500, welche ich damals besaß, war eigentlich immer und überall 800x600 bis 1024x768 mit 2-facher Kantenglättung drin. Bei "Gammelspielen" wie Half-Life sogar 4-fache Kantenglättung.

T&L wurde von der Presse gnadenlos überhypt. War zu dieser Zeit so sinnvoll wie jetzt 'ne D3D10 Karte für D3D1 Spiele zu kaufen. Aus meiner Sicht würde ich die Voodoo 5 5500 zwischen der Geforce und der Geforce 2 einordnen, die Voodoo 5 6000 sehe ich als Konkurrent zur Geforce 2 Ultra bzw. sogar minimal drüber. Mit entsprechend leistungsstarken Unterbau und in damals aktuellen Spielen... Ach ja, für meine 5500er hatte ich 600-700 DM bezahlt gehabt. Ich habe den Kauf dieser Karte weniger bereut, wie den der Geforce. Denn diese machte ständig alle naselang Probleme, waren damals wohl irgendwelche Treiberprobleme oder Resourcenkonflikte. War froh, als ich den Scheiß dann los war. Meine Voodoo 5 5500 wurde damals übrigens von 'nem AMD Duron 800 Mhz angetrieben, ein ziemlich gängiger Unterbau. Die CPU blieb, aber die Voodoo mußte dann einer Kyro II weichen. Ich hatte es damals irgendwie mit den Underdogs. ;) Leider gibt es seit geraumer Zeit keine wirklichen Konkurrenten mehr - was an der gestiegenen Komplexität und dem Entwicklungsaufwand der GPUs liegt.

Die Geforce 256 war der beste Chip der je gelaunched wurde und da kann ein technisch gammliger VSA100 nicht mal ansatzweise mithalten.

Quake 3 Arena lief auf der GeForce zur Höchstform auf, im Vergleich zu anderen Karten. Für 32Bit war sie sehr wohl schnell genug, wieso muss man immer solche Unwahrheiten daherbringen?

Mit einer GeForce konnte man auch Jahre später noch gut zocken!

=Floi=
2006-12-17, 20:58:43
naja die gf256 war eine neue generation aber auch ich muß zugeben dass es schon beeindruckend war wie q3 darauf lief


wieviel flop hat denn eigentlich die 6000er?

Gast
2006-12-17, 21:02:21
Das 2x AF der GF2-Serie hatte natürlich einen phänomenalen Einfluss auf die Texturschärfe. :|

allerdings, 2xAF bringt weitaus die größte BQ-steigerung, der sprung auf 4x ist schon deutlich kleiner, auf 8x wenn man nicht sehr genau darauf achtet kaum mehr auszumachen, 16x ohne differenzbildvergleiche in 99% der fälle kaum sichtbar.

gleiches beim FSAA, 2x bringt gegenüber keinem FSAA extrem viel, 4x noch recht viel, höhere modi nur mehr eine geringe steigerung der BQ.

Mr. Lolman
2006-12-17, 21:09:47
Jaja, das Prinzip des abnehmenden Grenzertrags ;)

Andererseits war man mit ner Voodoo5 ohnehin bedacht min. mit 2xAA zu spielen, mit LOD Verschiebung (und Überblendung) konnte man damit ungefähr die Schärfe von 2xAF erreichen...

Gast
2006-12-17, 21:25:22
Das 2x AF der GF2-Serie hatte natürlich einen phänomenalen Einfluss auf die Texturschärfe. :| Erst bei der GF3 kann man von einem Sprung sprechen. Und was für einer bei der Filterung!

MfG,
Raff

Die GF2 filtert genauso gut wie die GF3, halt mit höchstens 2xAF. Und da auch für AF das Gesetz des abnehmenden Ertrages gilt, ist der Sprung von keinem AF zu 2xAF höher als der von 2xAF zu 4xAF.

Raff
2006-12-17, 21:27:58
Ich wollte damit sagen, was Lolli ausführte: Was die die GeForces inklusive 2 auffahren, das kann man mit SSAA + LOD-Verschiebung ausgleichen. Schön war am 2x AF der GF2s primär, dass es so günstig daher kam, denn die Füllrate limitierte ja fast nie.

MfG,
Raff

StefanV
2006-12-17, 21:34:14
wieviel flop hat denn eigentlich die 6000er?
Garkeine weil keine Shader...

Gast
2006-12-17, 21:39:04
Jaja, das Prinzip des abnehmenden Grenzertrags ;)

Andererseits war man mit ner Voodoo5 ohnehin bedacht min. mit 2xAA zu spielen, mit LOD Verschiebung (und Überblendung) konnte man damit ungefähr die Schärfe von 2xAF erreichen...

2xAA halbiert aber die Füllrate auf der Voodoo und das 2xAF auf der Geforce kostet fast keine Leistung. Es sagt ja keiner was gegen das sehr gute AA der Voodoo aber ein Bildqualitätsmonster war sie eben nicht, dazu gehört mehr als nur AA.

Raff
2006-12-17, 21:42:48
Bei den damaligen Texturen war es kein Problem, mit 8x AA das LOD auf -2 zu ziehen. Kombiniert ergibt das etwa die Wirkung von 4x AF. Ups ... jetzt gibt's sicher wieder Schelte von aths, Coda & Co. ... :D

MfG,
Raff

Gast
2006-12-17, 21:57:34
Andererseits war man mit ner Voodoo5 ohnehin bedacht min. mit 2xAA zu spielen, mit LOD Verschiebung (und Überblendung) konnte man damit ungefähr die Schärfe von 2xAF erreichen...

damit das ohne flimmern geht musst du schon auf 4xAA schalten und dann war die leistung der V5 schon ziemlich am ende, die 6000er wäre natürlich schnell genug.

Mr. Lolman
2006-12-17, 21:58:19
2xAA halbiert aber die Füllrate auf der Voodoo und das 2xAF auf der Geforce kostet fast keine Leistung. Es sagt ja keiner was gegen das sehr gute AA der Voodoo aber ein Bildqualitätsmonster war sie eben nicht, dazu gehört mehr als nur AA.

Ohne AA hatte die Voodoo5 BQ-mässig keine Chance gegen die Geforce. Jedoch spielte ich auf der Voodoo5 (bis auf Q3a) alle meine Spiele mit min. 2xAA - und in Relation zur Performance stand die Voodoo5 in dem Setting BQ-mässig viel besser da als ne GF2. Denn mit SGSSAA brachte man damals schon viel Ruhe ins Bild. Z.B. stellte eine GF2 GTS MoHAA schön in 1024x768x32 und 2xAF dar, aber trotzdem flimmerten die ganzen Alphatests an den Bäumen, im Ggs zu ner Voodoo5 5500 mit 1024x768x22 und 2xRGSSA: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2357639&postcount=3012

Spiele die mit 4xAA spielbar waren sehen selbst nach heutigen Standards noch astrein aus: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=4064460&postcount=83

urbi
2006-12-17, 22:13:54
Ich schätze die Karte ordnet sich in etwa bei den Topmodellen der DX7-Generation ein: Geforce 2 Ultra wäre etwas zu tief gegriffen genau wie Radeon 64MB DDR ViVo (Radeon 7200). Eher auf dem Level der Radeon 7500.

misterh
2006-12-17, 22:26:53
Ich schätze die Karte ordnet sich in etwa bei den Topmodellen der DX7-Generation ein: Geforce 2 Ultra wäre etwas zu tief gegriffen genau wie Radeon 64MB DDR ViVo (Radeon 7200). Eher auf dem Level der Radeon 7500.

kommt immer auf spiel an!!!

robbitop
2006-12-18, 10:15:36
Garkeine weil keine Shader...
Ach und Texturfilterung und Rasterizing erledigen sich also von selbst? Ein BiLERP allein kostet schon so einige FLOPs.

Was sind eigentlich Shader? In wiefern unterscheiden sie sich von Texturcombinern? Kostet das Rechenleistung?

Gast
2006-12-18, 11:14:53
Spiele die mit 4xAA spielbar waren sehen selbst nach heutigen Standards noch astrein aus: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=4064460&postcount=83Die UT-Shots sehen wirklich recht gut aus. Der hier (http://666kb.com/i/119gu6dxtodmp.jpg) zum Beispiel ist schon beeindruckend, wenn man das Alter der Hardware sowie Software berücksichtigt.

rookz
2006-12-18, 11:24:36
Ich würde sagen nur auf die Rohleistung bezogen liegt sie mit entsprechender (amd CP ab 2GHz) CPu zwischen einer Geforce 2 GTS und einer Geforce 3 ( non TI ).

Eine Voodoo 5500 wird auch bei älteren CPUs wie sie damals zum Einsatz kamen von einer Geforce 2 MX überrannt.

maximus_hertus
2006-12-18, 17:35:59
Die V5 5500 wurde nicht von einer GF2 MX überrannt. Selbst mit damaligen Mainstream CPU's (ca. 800 MHz) war man auf GF1 DDR Niveau, also doch deutlich über der MX (Ausnahmen bestätigen die Regel).

Raff
2006-12-18, 17:52:26
Jaein. Eine V5 5500 hat in HW-T&L-optimierten Spielen bei niedrigen Auflösungen schon Probleme mit einer GF2 MX. Die verschwinden aber gänzlich, wenn die Auflösung auf 1024x768 oder höher geht. Dort reicht nämlich die Rohleistung der GF2 MX nicht mehr aus.

MfG,
Raff

Gast
2006-12-18, 17:52:50
Ja, was meint ihr? Welcher Karte kann sie aus Leistungssicht wirklich Paroli bieten?
Unter welchem Bedingungen?

- Rohleistung
- Alte Spiele
- Neue Spiele
- Alter Unterbau
- Aktueller Unterbau
- Bildqualität
- Beste, noch spielbare Settings
- Spielekompatibilität


Q

Gast
2006-12-18, 19:07:04
Die V5 5500 wurde nicht von einer GF2 MX überrannt. Selbst mit damaligen Mainstream CPU's (ca. 800 MHz) war man auf GF1 DDR Niveau,

die GF2MX war ungefähr auf GF1-niveau.

rookz
2006-12-18, 20:34:18
naja aber mit damaligen Prozessoren kamen die Geforce besser klar und konnten ihre Leistung entfalten. Eine Geforce1 DDR war teilweise schneller als eine Geforce2 MX.

So aber wieder back to topic ;)

Gast
2006-12-22, 14:49:19
Eigentlich war der Dac der GF256-Karten richtig schlecht.

Alte Grakas mit t&l können natürlich in den damaligen spielen nicht mit heutigen CPUS und ner V66k mithalten.
Wurde ja auch mal erläutert das heutige Prozessoren x-fach schneller den T&L-Kram erledigen als die alten GF-karten hardwareseitig.

Raff
2006-12-22, 15:38:15
Ja, ein Core 2 Duo mit 3,5 GHz kann es bei der Transformationsleistung vielleicht mit einer GeForce4 aufnehmen. Das, was man einer Voodoo5 6000 allerdings maximal vorsetzen kann, einen hochgezüchteten Athlon XP, kommt nur knapp in GeForce2-Gefilde bei HW-T&L-optimierter Software.

Eine Geforce1 DDR war teilweise schneller als eine Geforce2 MX.

Kein Wunder, da die gesamte NV1x-Architektur permanent am Bandbreitenlimit fährt. DDR ist da ein Segen, der aber nicht alle Probleme löst.

MfG,
Raff

Gast
2006-12-22, 20:07:58
Ach und Texturfilterung und Rasterizing erledigen sich also von selbst? Ein BiLERP allein kostet schon so einige FLOPs.


eigentlich zählen wir aber immer nur die programmierbaren FLOPs, sonst müsste man die angabe auch bei heutigen karten um einiges erhöhen, bilinear filtern können die schließlich auch noch ;)

Liszca
2006-12-30, 18:08:30
Cool war das es bei seinem stromverbrauch gleich ein netzteil dabei hatte, da spart man sich den kauf eines netzteils beim aufrüsten, könnte man echt wieder einführen.

Gast
2006-12-30, 18:59:19
Zwei Netzteile sind aber immer teurer als ein einzelnes etwas stärkeres, also ich möchte keine externen Netzteile zusätzlich noch bezahlen.

Raff
2006-12-30, 19:18:52
Das ist war IMO kein Vorteil, sondern bei den meisten PC-Netzteilen damals eine Notwendigkeit. Und was wurde damals schon bei der 5500 wegen des Stromsteckers geheult. Komisch, dass das schon vor Jahren zum Standard wurde. ;)

Interessant ist jedoch, dass die 6000 das Ding gar nicht zwingend braucht, denn die lauffähigen Exemplare verfügen über einen Stromanschluss direkt auf der Platine, angeschlossen ans Netzteil.

MfG,
Raff

Gast
2006-12-30, 19:25:38
In der PCGHardware haben sie kürzlich eine Voodoo5 6000, eine Voodoo5 5500, eine Geforce 2 GTS und eine Gefroce 2 Ultra getestet. Die 6000er lag zwischen GTS und Ultra. Ich fahre selbst ne 5500 in nem Dual P3 800er und die Performance liegt auf dem Niveau zwischen Geforce 1 und 2. Mit dem grandiosen AA liegt die Voodoo 5 5500 mit Qualitätseinstellungen auf dem Niveau der GF2 GTS

robbitop
2006-12-30, 20:05:13
eigentlich zählen wir aber immer nur die programmierbaren FLOPs, sonst müsste man die angabe auch bei heutigen karten um einiges erhöhen, bilinear filtern können die schließlich auch noch ;)
Sagt wer? Ist natuerlich eine Frage der Sichtweise.Aber pauschal zu Sagen, eine prä DX8 GPU hätte keine Rechenleistung ist IMO grober Unfug. Zumal die DX8-ShaderALUs auch nichts anderes als Texturecombiners sind. Die sind über entsprechende extensions auch programmierbar.

Gast
2006-12-30, 23:15:12
Interessant ist jedoch, dass die 6000 das Ding gar nicht zwingend braucht, denn die lauffähigen Exemplare verfügen über einen Stromanschluss direkt auf der Platine, angeschlossen ans Netzteil.


klar, bis es endlich mal lauffähige exemplare gab, waren ja auch pc-netzteile deutlich stärker.

Coda
2006-12-30, 23:40:32
Zumal die DX8-ShaderALUs auch nichts anderes als Texturecombiners sind.

Nur bei nVIDIA. R200 war bei den Pixelshadern auch wirklich programmierbar und nicht nur konfigurierbar.

robbitop
2006-12-31, 00:13:29
Nur bei nVIDIA. R200 war bei den Pixelshadern auch wirklich programmierbar und nicht nur konfigurierbar.
Richtig, PS1.4 waren schon eher in Richtung SM2 als SM1.

Liszca
2006-12-31, 05:09:41
Das ist war IMO kein Vorteil, sondern bei den meisten PC-Netzteilen damals eine Notwendigkeit. Und was wurde damals schon bei der 5500 wegen des Stromsteckers geheult. Komisch, dass das schon vor Jahren zum Standard wurde. ;)

Interessant ist jedoch, dass die 6000 das Ding gar nicht zwingend braucht, denn die lauffähigen Exemplare verfügen über einen Stromanschluss direkt auf der Platine, angeschlossen ans Netzteil.

MfG,
Raff

sehe ich das richtig du würdest also jammern wenn du zur geforce 9800 GTX für 700€ noch ein netzteil bekommen würdest??? du würdest dir also lieberst noch zusätzlich zu den fast 700 euro nochmal 100 euro für ein netzteil ausgeben, das dann ja noch nichtmal für sli reicht. ISS KLAR ALTER.

Lord Wotan
2006-12-31, 13:29:12
Ja, was meint ihr? Welcher Karte kann sie aus Leistungssicht wirklich Paroli bieten?

Ziel des Threads ist das Sammeln von Meinungen. Aussagen zur tatsächlichen Leistungsfähigkeit oder Vorschläge etwaiger Konkurrenten gibt es keine von meiner Seite, ihr seid dran. ;)

Und, bitte: Wem das Thema schon immer oder erst in letzter Zeit auf die Weichteile geht, der möge einfach nichts sagen.

MfG,
Raff

Ich denke ein Vergleich ist so nicht möglich weil die Voodoo Karten weder alles rund um AGP Port können, denn sie nutzen diesen Port nur als besseren PCI Bus. Noch können sie Hardware T&L

Raff
2006-12-31, 17:17:58
Wichtig ist doch, was in der Praxis herauskommt, nicht das, was auf dem Papier kein Häkchen hat.

MfG,
Raff

tokugawa
2006-12-31, 18:04:29
Wichtig ist doch, was in der Praxis herauskommt, nicht das, was auf dem Papier kein Häkchen hat.

MfG,
Raff

Naja, wichtig ist auch, wie leicht es dem Entwickler gemacht wird, dass etwas g'scheites rauskommt. Da sind so manche Häkchen wirklich nützlich.

Mr. Lolman
2006-12-31, 20:04:17
Naja, wichtig ist auch, wie leicht es dem Entwickler gemacht wird, dass etwas g'scheites rauskommt. Da sind so manche Häkchen wirklich nützlich.

Bei TnL war das aber nicht der Fall ;)

Raff
2007-01-01, 03:28:14
Sagen wir mal, es war in den ersten zwei Jahren weit von "zwingend nötig" entfernt. 2001 wurde es mit SeSam 2nd & Co so langsam sinnvoll ... wobei man angesichts der geringen Unterschiede mit schneller CPU darüber streiten kann.

MfG,
Raff

Mr. Lolman
2007-01-01, 03:39:41
Ja, vom Performancestandpunkt. Arbeitserleichterung brachte es dem Entwickler jedoch nicht...

No.3
2007-01-01, 03:48:23
lol, die gfx'ler sind noch unterwegs... :biggrin:

anyway, gutes neues und gute nacht...