PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welches war der wegweisendste Grafikchip der letzten 10 Jahre?


marlurau
2004-08-07, 12:43:14
Ich bin, wie manche vielleicht schon wissen sehr geschichtsinteressiert, auch im Bernsteinikbereich (Wortspiel).
Gestern nacht kam die Frage auf, welches der wegweisendste Grafikchips ist.
Also wo man sagen kann: vor und nach dem Erdbeben.
Ist es der GF1 oder der GF4 oder doch erst die Rad 97 ??
Durch welche Eigenschaft/Eigenschaften bedingt ?
Überhaupt, wie lange seht ihr die Lebensdauer eines GPU-also nach wieviel Jahren ist er völlig überholt ?
Ich schätze so ca. 6 Jahre

Liquaron
2004-08-07, 12:45:29
Ich würde ganz klar Geforce sagen.
Man was für eine geile Karte.
Selbst heute laufen manche Games noch mit ihr.
Auch von der Technik her ein Meilenstein.

T-n L Einheit---> toll :)

Sogar mit ddr Speicher hrhrhrhr

StefanV
2004-08-07, 12:50:38
Eindeuticz:

Voodoo5!!

Die erste Karte, bei der man FSAA hatte.

Danach:

9700:

Die erste Karte, bei der man das FSAA auch wirklich nutzen konnte ;)

deekey777
2004-08-07, 12:51:54
Wie hiess eigentlich der allererste nVidia Chip?

Seraf
2004-08-07, 12:52:52
Die Voodoo1 natürlich.

Schöner als PowerVR (damals, weil PowerVR Treiber nur Mist produzierten).
Gleichschnell und um Welten schöner als der Big King Matrox damals.

Im Vergleich zu den Konsolen auch meilenweiter Unterschied.

Danach wachten die großen GK Hersteller auf und lieferten erstmal Gurken an 3D Beschleunigern ab.
Ich erinner mich da noch an S3 Virge und ATI Rage1 und Matrox die garnichts auf die Reihe bekommen haben.

-error-
2004-08-07, 12:53:21
Hmmm, früher war ich noch nicht so damit vertraut und würde auch auf die Gforce2 tippen, danach aber die legendäre 9700Pro, die Nvidia einen richtigen Schock verpasst hat.

THX ATI für den R300 ;)

AtTheDriveIn
2004-08-07, 12:54:45
Voodoo1: War die erste Graka die auf Polygon-Basis renderte und hat den ganzen 3D Markt quasi eingeläutet.

betasilie
2004-08-07, 12:55:02
Die Voodoo1 natürlich. http://www.handykult.de/plaudersmilies.de//happy/xyxthumbs.gif

Kraven
2004-08-07, 12:56:18
Von wegen Geforce!
Der wegweisendste Grafikchip ist immer noch der Voodoo 1 von 3DFX. Dieser Chip hat für die Akzeptanz von 3D-Beschleunigern sehr viel beigetraten und war lange Zeit führend, was seine Features angeht.
Der erste richtig brauchbare 3D-Beschleuniger eben!

Skusi
2004-08-07, 12:56:23
Für mich ganz klar die GF3 mit PS.
Als ich das erste mal das Wasser bei Morrowind gesehen habe, sind mir die Tränen in die Augen geschossen. Das hat mich auf jeden Fall mehr beeindruckt, als meine Voodoo 1 mit ihren gefilterten Texturen.

avalanche
2004-08-07, 13:08:45
Von wegen Geforce!
Der wegweisendste Grafikchip ist immer noch der Voodoo 1 von 3DFX. Dieser Chip hat für die Akzeptanz von 3D-Beschleunigern sehr viel beigetraten und war lange Zeit führend, was seine Features angeht.
Der erste richtig brauchbare 3D-Beschleuniger eben!
Jo, die Voodoo war wirklich "wegweisend".
Für mich ganz klar die GF3 mit PS.
Als ich das erste mal das Wasser bei Morrowind gesehen habe, sind mir die Tränen in die Augen geschossen. Das hat mich auf jeden Fall mehr beeindruckt, als meine Voodoo 1 mit ihren gefilterten Texturen.
Ja, das Wasser war schon beeindruckend, aber wegweisend waren die Pixelshader IMO nicht. Pixelshader waren mal wieder was Neues, allerdings war der Weg, der CPU noch mehr "Grafik-Arbeit" abzunehmen, klar.

EDIT: Der Weg war auch schon vor der Voodoo klar. Eigentlich müsste man noch weiter als "Voodoo" zurückgehen, aber der Thread beschränkt sich ja auf die letzten 10 Jahre.

Kraven
2004-08-07, 13:14:39
Für mich ganz klar die GF3 mit PS.
Als ich das erste mal das Wasser bei Morrowind gesehen habe, sind mir die Tränen in die Augen geschossen. Das hat mich auf jeden Fall mehr beeindruckt, als meine Voodoo 1 mit ihren gefilterten Texturen.
Diesen Wassereffekt gab es schon lange vor Morrowind bei Outcast! Und das ganz ohne 3D-Beschleunigung..

Coda
2004-08-07, 13:16:27
Ich würde auch R300 sagen, das war die erste Karte die wirklich von der Technologie "zu früh" da war.

StefanV
2004-08-07, 13:20:40
Wie hiess eigentlich der allererste nVidia Chip?

NV1, offiziell *eg*

Schimpfte sich zwischendurch glaube auch STG2000 oder so...

Kane02
2004-08-07, 13:26:11
Eindeutig die Voodoo 1 von 3Dfx.

incurable
2004-08-07, 13:43:43
Bei 10 Jahren ist es für mich auch ganz klar die Voodoo 1.

Aber in den letzten 5 Jahren wäre es wahrscheinlich ATi's R3xx Baureihe.

Skusi
2004-08-07, 13:44:03
Diesen Wassereffekt gab es schon lange vor Morrowind bei Outcast! Und das ganz ohne 3D-Beschleunigung..

Aber hier gehts um wegweisende GraKas und nicht Programmiertechniken.

Crazy_Bon
2004-08-07, 13:53:13
Auch wenn es schon zuvor einige Chips sich 3D-Beschleuniger schimpften, erst die Voodoo von 3dfx läutete die Ära der Beschleunigerchips richtig ein.

MechWOLLIer
2004-08-07, 13:57:56
Natürlich 3DFX mit dem Voodoo1. Ohne diese KArte wären wir vermutlich noch nicht annähernd sowit in Sachen 3D Technik wie jetzt.
Die Wegweisendste Karte ich ich persönlich hatte war eine RAdeon 9700. AA und AF, egal bei welchem Spiel gepaart mit einer modernen Technik.

BadFred
2004-08-07, 14:09:01
Klingt jetzt ein wenig klugscheißerisch, aber das Ding hieß nicht "Voodoo1", sondern "Voodoo Graphics".

;(
sry

Ich kann mich zwischen Voodoo Graphics und der GeForce 3 nicht entscheiden.

Gohan
2004-08-07, 14:54:41
Alles was abstimmungswürid ist, habe ich mal in eine Liste gepackt. Hoffentlich sind die Codenamen richtig ^^

Crazy_Bon
2004-08-07, 14:57:38
Wieso fängt beim Poll die Nvidiachips erst ab TNT an? Schliesslich gab es noch die Riva128, die war auch sehr verbreitet gewesen.
PowerVR 1 und Matrox Mystique wird auch völlig unter dem Teppich gekehrt.

Quasar
2004-08-07, 14:57:59
Voodoo Graphics, was sonst?

deekey777
2004-08-07, 14:58:10
NV1, offiziell

Schimpfte sich zwischendurch glaube auch STG2000 oder so...


Ist er zu alt für die Umfrage?

MiamiNice
2004-08-07, 14:59:27
Für mich ganz klar auch die Voodoo 1. Mit Ihr hat alles angefangen.

InsaneDruid
2004-08-07, 15:08:57
Ganz klar: Voodoo Graphics

IVN
2004-08-07, 15:11:10
Kyro -revolutionery arhitecture=TBR

ice cool69
2004-08-07, 15:13:49
Voodoo Graphics natürlich.
Geforce 256 DDR und R300 waren zwar die Chips mit denen der jeweilige Hersteller richtig dick in den Markt preschen konnte, technologisch gesehen war aber der größte Schritt die Voodoo Graphics, da gibts nix. ;)

Edit: technisch gesehen ist auch der Kyro vor der Geforce/Radeon-Reihe anzusiedeln. Nur hat sich die Technik noch nicht durchgesetzt obwohl sie offensichtlich die beste ist. Aber so ist der Markt, es setzt sich selten der Beste durch (siehe M$)

incurable
2004-08-07, 15:17:06
Wieso fängt beim Poll die Nvidiachips erst ab TNT an? Schliesslich gab es noch die Riva128, die war auch sehr verbreitet gewesen.
PowerVR 1 und Matrox Mystique wird auch völlig unter dem Teppich gekehrt.
Und wenn wir schon bei 3D-Chips sind, die es besser nie gegeben hätte (Mystique), finde ich sollte man auch die 3D-Bremsen aus der S3 Virge Serie nicht vergessen. ;)

Raff
2004-08-07, 16:10:52
3dfx' Voodoo Graphics natürlich! Dieses kleine Wunderwerk der Ingenieurskunst läutete das Zeitalter der 3D-beschleunigten Games ein. Endlich verschwanden die Pixelblöcke, endlich wurden die Spiele schöner und dabei deutlich schneller.

Danach würde ich nVidias NV20 (GF3) nennen. Pixel-Shading war der nächste große Schritt, um Spiele realisischer wirken zu lassen.

Die Voodoo5 sollte man aber auch nennen, denn das RG-SSAA ist noch heute in Sachen Qualität ganz oben dabei.

€dit: Ich habe mal die Codenamen der ersten 3 Voodoos hinzugefügt, bin mir aber nicht mehr 100%ig sicher, ob sie stimmen. ;)

MfG,
Raff

(del676)
2004-08-07, 16:15:57
Voodoo 1 -> Matrix G400 -> Geforce 1 -> Radeon 9700

StefanV
2004-08-07, 16:25:49
Ist er zu alt für die Umfrage?
Naja, eher zu unbedeutend...

Damals gabs ja nicht wirklich DX, dazu arbeitete das Teil auch noch mit Curved Surfaces und noch ein paar andere Dinge, die 'nicht so schön' sind/waren...

tokugawa
2004-08-07, 17:28:49
Diesen Wassereffekt gab es schon lange vor Morrowind bei Outcast! Und das ganz ohne 3D-Beschleunigung..

Das war nicht derselbe Wassereffekt. Outcast hatte eine ganz andere Struktur, räumliche Objekte zu repräsentieren (Voxel eben statt der normal üblichen Polygonalen "Boundary-Representation", auch genannt B-Rep).

Ich finde schon, dass Fragment und Vertex Programs revolutionär waren. So ein logischer Weg war es nämlich nicht, sie hätten stattdessen den (viel logischeren, aber auch beschisseneren) Weg nehmen können, die Register Combiner weiter auszubauen.

Programmierbare Teile in der Render-Pipeline sind _schon_ eine Revolution gewesen.

Aber meine Wahl fällt auf Voodoo I, weil die den Boom eingeläutet hat. Das erste mal haben Anwender den SINN einer Grafikkarte mit 3D-Beschleunigungsfunktionen eindrucksvoll gesehen. Die anderen älteren Versuche wie mit einigen propietären Funktionen auf der Matrox Millenium I sind ja kläglich gescheitert.

Auf dem guten zweiten Platz landet für mich die GeForce 3, eben wegen der Programmierbarkeit (obwohl noch nicht wesentlich mächtiger als die Register Combiner waren).

Einige Kommentare zu anderen Kommentaren in diesem Thread:


Eindeuticz:

Voodoo5!!

Die erste Karte, bei der man FSAA hatte.

Danach:

9700:

Die erste Karte, bei der man das FSAA auch wirklich nutzen konnte ;)


Ich finde, dass FSAA nicht revolutionär ist. Ist ein altbekanntes Prinzip, schon damals. Gut, man kann aber sagen, dass es nett war, es mal in der Praxis auf Consumer-Hardware anzutreffen.


Voodoo1: War die erste Graka die auf Polygon-Basis renderte und hat den ganzen 3D Markt quasi eingeläutet.


Voodoo I ist _nicht_ der erste Chip, der auf Polygonbasis renderte. Das gab's im Profibereich bei SGI schon früher, sogar schon mit TnL (dafür mit fehlender Texturierung in Hardware... also irgendwie die gegensätzliche Entwicklung zu Consumerhardware, wo es Texturing in Hardware vor TnL in Hardware gab).

reunion
2004-08-07, 20:19:29
[x] Voodoo Graphics

Eindeutig die V1, kein anderer Chip war seit dem jemals wieder in der Lage die Konkurrenz derart zu distanzieren (außer vielleicht die V2 ;)). Der V1 war nichtnur um den Faktor 2-3 schneller als alles was es davor gab, er bot auch noch eine überlegene BQ. Zum ersten mal war er möglich am PC vernünftig zu spielen und die Konsolen in den Schatten zu stellen.

m0ep
2004-08-07, 20:32:26
Voodoo Graphics ;9 endlich billineare Texturfilterung :D

Miles Teg
2004-08-07, 22:01:01
Voodoo

GUNDAM
2004-08-07, 22:05:37
Die Geforce natürlich. Die hat mit T&L eine neue Ära in der Grafikkartengeschichte eingeleitet.

M@g
2004-08-07, 22:13:18
Voodoo Graphics, und mit Unreal wurde klar wohin die Reise geht.

LordVoodoo
2004-08-07, 22:17:15
[x]R300

Würd ja auch gerne für die Voodoo voten (siehe über meinen Avatar xD), aber als die Voodoo I rauskam war ich noch etwas jung und hatte nicht viel mit PCs am Hut. : O

Btw, es müsste R300 (Radeon 9500 - 9700) heißen, die Radeon 9800 basiert auf dem R350/360. : O

MikBach
2004-08-07, 23:01:43
[x]R300

da mit dieser GPU das Spielen in einer neuen Dimension möglich wurde.

Lokadamus
2004-08-07, 23:18:41
mmm...

Der Voodoo war der wegweisende Grafikchip, welcher durch seine eigene Schnittstelle erst die Effekte ermöglichte, wozu andere noch einige Jahre brauchten. Als Konkurenzprodukt zu dieser Schnittstelle enstand das, was wir unter OpenGL kennen. 3dfx wollte seine Schnittstelle nicht hergeben, bzw. hätte Lizenzen verkauft, wozu keiner Lust hatte. Der nächste grosse Sprung war die Geforce 1, womit es erstmal möglich war, Spiele in 1024x786 Auflösung flüssig zu spielen, wobei das nicht wegweisend, aber technologisch ein Meisterwerk war ...

Geschichte von NVidia:
http://www.computerbase.de/lexikon/NVidia
http://www.tweakers4u.de/new/do.php?include=artikel/history_nvidia/seite1.php

FeuerHoden
2004-08-07, 23:35:04
Also ich konnte schon lange vor der Geforce 256 in 1024x768 zocken. Mit 2 V2 Karten ist das auch heute kein Problem ;)

tokugawa
2004-08-07, 23:50:30
mmm...

Der Voodoo war der wegweisende Grafikchip, welcher durch seine eigene Schnittstelle erst die Effekte ermöglichte, wozu andere noch einige Jahre brauchten. Als Konkurenzprodukt zu dieser Schnittstelle enstand das, was wir unter OpenGL kennen. 3dfx wollte seine Schnittstelle nicht hergeben, bzw. hätte Lizenzen verkauft, wozu keiner Lust hatte. Der nächste grosse Sprung war die Geforce 1, womit es erstmal möglich war, Spiele in 1024x786 Auflösung flüssig zu spielen, wobei das nicht wegweisend, aber technologisch ein Meisterwerk war ...

Geschichte von NVidia:
http://www.computerbase.de/lexikon/NVidia
http://www.tweakers4u.de/new/do.php?include=artikel/history_nvidia/seite1.php


OpenGL und andere Grafikschnittstellen gab's schon vor Glide.

PP
2004-08-08, 01:26:17
[x]Voodoo 5
Wegen FSAA

MadManniMan
2004-08-08, 01:37:17
VooDoo Graphics ... danach der GF3, das Teil wirkt für mich heute noch in sich absolut stimmig :)

mapel110
2004-08-08, 01:43:01
Voodoo1 natürlich

marlurau
2004-08-08, 07:20:39
Okay, die Voodoo 1 scheint der erste Kandidat zu sein.
Ich habe seit 1996 Pcs, began mit gebrauchten 386(dem Schnellsten ;D )mit Tseng 4000 Graka. Hab damals über die Voodoo nur mitgekriegt,daß die als EXtra-Karte zur Haupt-PCI-GK angeschlossen wurde.
Die sog. 3D-Chips Virge und Mystique kenn ich,da könnt ihr im 3D 99 entweder alle 2 sek 1 Bild sehen oder garnichts,weil Karte nicht mitspielt.
Also seit 1995 3 Sprünge bei GPU für PCs Voodoo -- GF -- Rad 97 .

Jensk22
2004-08-08, 08:27:39
Für mich ist eindeutig die erste Voodoo GPU der evolutionerer Schritt bei den Grafikchips gewesen. Zwar noch im Verbund mit der nV Riva128, aber die Wirkung hatte es damals in sich.

Blumentopf
2004-08-08, 08:44:43
[x] Voodoo Graphics (SST-1)

Ist doch glasklar. Voodoo hat damals eingeschlagen wie ein Hammer.

Chris Lux
2004-08-08, 09:12:05
Ich finde schon, dass Fragment und Vertex Programs revolutionär waren. So ein logischer Weg war es nämlich nicht, sie hätten stattdessen den (viel logischeren, aber auch beschisseneren) Weg nehmen können, die Register Combiner weiter auszubauen.

Programmierbare Teile in der Render-Pipeline sind _schon_ eine Revolution gewesen.

zu letztem: ganz klar ;)

aber da du in deinem post so schön geklugscheisst hast (schönes wort ;)):
was meinst du was die erstem pixel/fragment shader waren, wie sie auch bei morrowind zum einsatz kamen? genau! aufgebohrte register combiner! *scnr* ;)

edit: [X] voodoo graphics, ganz klar.

Chris Lux
2004-08-08, 09:20:42
Der Voodoo war der wegweisende Grafikchip, welcher durch seine eigene Schnittstelle erst die Effekte ermöglichte, wozu andere noch einige Jahre brauchten. Als Konkurenzprodukt zu dieser Schnittstelle enstand das, was wir unter OpenGL kennen. 3dfx wollte seine Schnittstelle nicht hergeben, bzw. hätte Lizenzen verkauft, wozu keiner Lust hatte. Der nächste grosse Sprung war die Geforce 1, womit es erstmal möglich war, Spiele in 1024x786 Auflösung flüssig zu spielen, wobei das nicht wegweisend, aber technologisch ein Meisterwerk war ...


wie schon erwähnt, gab es openGL schon als graphic library, die sich aus irisGL entwickelte und somit aus dem puren workstationsegment herauskam. nun da es eine offene speztifikation einer graphic schnittstelle war/ist konnten alle hersteller ihre eigene implemplementierung bauen. glide war proprietär für 3dfx und als auch andere hersteller konkurrenzfähige produkte hatten brauchte man auch eine einheitliche graphic API, wo zuerst vermehrt auf openGL gesetzt wurde (da auch ab win95 mit patch dies konnte) und dann MS direct3D einführte.

sorum würde ich das erzählen. IMO hat 3dfx pionierarbeit geleistet, was die verbreitung und die anwendung von 3d beschleunigung am heimischen PC angeht. RIP 3Dfx.

edit: tippfehler

Mordred
2004-08-08, 09:29:29
[x]NV10

Der erste wirklch gute Grafikchip imho. BRachte dank hardware t&l einen spürbaren Geschwindigkeitszuwachs und war sehr lange ein brauchbarer Unterbau.

Roadkill
2004-08-08, 09:40:15
Verstehe nicht, wie man eine andere Antwort als den Voodoo1 Chip nennen kann...

Nefilim
2004-08-08, 10:22:29
Voodoo 1 - Damit fing für mich das Zeitalter der 3D-Beschleunigung an :)

Lokadamus
2004-08-08, 10:42:19
OpenGL und andere Grafikschnittstellen gab's schon vor Glide.mmm...

Stimmt, hab eben gegoogelt und gesehen, das SGI OpenGL 1992 veröffentlicht hat. Ich wusste gar nicht, das OpenGL so alt ist ...

ernesto.che
2004-08-08, 14:13:05
Voodoo Graphics, keine Frage.

http://www.voodooalert.de/graphics/galerie/voodoographics/vgr_3.jpg


btw: Wegweisendste wäre mit einem kleinen w schöner.

Und bei Grafikchip kann man ruhig das s entfernen... :p

AtTheDriveIn
2004-08-08, 14:39:45
Mordred'][x]NV10

Der erste wirklch gute Grafikchip imho. BRachte dank hardware t&l einen spürbaren Geschwindigkeitszuwachs

Das sich das Gerücht immer nocht hält ;)
Der Geschwindigkeitszuwachs der Geforce256 resultierte aus seinen 4 Pixel Pipelines und der guten Speicherbandbreite.

Es lag mitnichten an dem vielumworbenen T&L.

Marketinggeblubber nennt sich sowas.

Mordred
2004-08-08, 14:42:46
Das sich das Gerücht immer nocht hält ;)
Der Geschwindigkeitszuwachs der Geforce256 resultierte aus seinen 4 Pixel Pipelines und der guten Speicherbandbreite.

Es lag mitnichten an dem vielumworbenen T&L.

Marketinggeblubber nennt sich sowas.
JA genau deswegen haben die Benches es auch bestätigt (die ich btw auch selbst gemacht habe) o_O NAchdneken vorm schreiben ._.

AtTheDriveIn
2004-08-08, 14:46:55
Mordred']JA genau deswegen haben die Benches es auch bestätigt (die ich btw auch selbst gemacht habe) o_O NAchdneken vorm schreiben ._.

Bei Nvidia Techdemos bestimmt. ;)

Es bestreitet ja keiner das die Geforce Geschwindigkeitemäßig damals erstmal alles in den Schatten stellte, aber das hatte nur bedingt was mit der T&L Einheit zu tun, auch wenn nv das wohl gerne so gehabt hätte.

Mordred
2004-08-08, 14:49:57
Bei Nvidia Techdemos bestimmt. ;)

Es bestreitet ja keiner das die Geforce Geschwindigkeitemäßig damals erstmal alles in den Schatten stellte, aber das hatte nur bedingt was mit der T&L Einheit zu tun, auch wenn nv das wohl gerne so gehabt hätte.

Wo habe ich Techdemos erwähnt? Es waren Spiele mal mit software mal mit hardware t&l. Ich bench doch keine techdemos o_O

ernesto.che
2004-08-08, 14:52:45
Wenn ich mich recht erinnere, bremst die T&L Einheit von GF256 sogar bei stärken CPUs (>1000MHz).

Mordred
2004-08-08, 15:01:43
Wenn ich mich recht erinnere, bremst die T&L Einheit von GF256 sogar bei stärken CPUs (>1000MHz).

Wenn die CPU genug Luft hat tut sie das logisch. Das ist aber auch bei ner GF4TI nicht anders ;)

Es ist ja dazu da die CPU zu entlasten damit sie mehr Luft hat. Das das ganze seinen Sinn verliert wenn die CPU eh noch mehr wie genug power hat ist irgendwie logisch oder?

Fakt ist aber: Wenn die CPU keine Puste mehr hat ist Hardware T&L ein Segen ;)

Ein gf4MX läuft mittlerweile auch meist schneller wenn man software t&L wählt

cyrix1
2004-08-08, 15:05:49
die Voodoo Graphics =)
hatte die als PCI 3d-beschleuniger karte neben der ati rage und später riva eingebaut.
schön mit dem vga monitorkabel von der rage zur vodoo und dann zum monitor =)

ne, aber selbst später lief zb Unreal oder UT einfach super mit der vodoo graphics

cyrix1
2004-08-08, 15:09:45
schade um 3dfx :(
wenn sie nur wieder auferstehen könnten :(

ich weiss noch wie ich mir damals ne voodoo 5 6000 holen wollte; die monsterkarte mit 2 (oder mehr?) kühlern drauf und schon 128mb (sd?)ram
das antialiasing und anisoptrope filtering war damals auch neu.

naja schade:( kurz darauf wurde 3dfx ja von nvidia aufgekauft und dann holte ich mir die neue gf4ti

Mordred
2004-08-08, 15:11:18
schade um 3dfx :(
wenn sie nur wieder auferstehen könnten :(

ich weiss noch wie ich mir damals ne voodoo 5 6000 holen wollte; die monsterkarte mit 2 (oder mehr?) kühlern drauf und schon 128mb (sd?)ram
das antialiasing und anisoptrope filtering war damals auch neu.

naja schade:( kurz darauf wurde 3dfx ja von nvidia aufgekauft und dann holte ich mir die neue gf4ti

Was trauern immer alle 3DFX hinterher? Die würden auch nix besseres bauen wie Nvidia oder ATI ;>

ernesto.che
2004-08-08, 15:16:01
Mordred']Was trauern immer alle 3DFX hinterher? Die würden auch nix besseres bauen wie Nvidia oder ATI ;>



Tut das "wie" nicht in deinen Ohren weh? Da gehört ein "als" hin, kein "wie".

Smoke Screen
2004-08-08, 15:22:20
Der Voodoo Graphics Chip hat überhaupt erst die 3D-Ära eingeläutet.
Übrigens hat das absolut nix mit 3dfx-Nachtrauern zu tun.
NVidia faßte erst Fuß mit dem Riva-128,welcher damals der erste gute
Allround-Chip war. Und ne Zeitlang war die Combo Riva-128ZX + 2xVoodoo2 SLI
absolutes High-End.

Mordred
2004-08-08, 15:23:01
Tut das "wie" nicht in deinen Ohren weh? Da gehört ein "als" hin, kein "wie".

Das is mir sowas von egal :> ICh schreibs wie ich grad lust hab.

Mir würds eher weh tun nichts besseres zu tun zu haben, als sowas zu korrigieren. o_O Da haste übrigens gleich noch einen wenns dir spaß macht :)

tokugawa
2004-08-08, 16:08:39
zu letztem: ganz klar ;)

aber da du in deinem post so schön geklugscheisst hast (schönes wort ;)):
was meinst du was die erstem pixel/fragment shader waren, wie sie auch bei morrowind zum einsatz kamen? genau! aufgebohrte register combiner! *scnr* ;)


Das ist mir schon klar, dass die ersten Pixel Shader (und Shader Modelle) nicht komplexer waren als Register Combiner (die NVParse Library zeigt das ja sehr deutlich).

Aber es geht darum, dass das Programmierparadigma der Shader Programme revolutionär war, das meinte ich. Anstatt selber Registerblöcke kryptisch zusammenzuschalten, einfach die Shading-Semantik auf Assembler (und später Hochsprachenebene) zu bringen, das war zumindest aus der Sicht der Entwickler eine mittlere Revolution.

Daher bleib ich dabei:

Platz 1: die Voodoo Graphics weil die 3D in den Consumer-Markt etabliert hat.

Platz 2: die GeForce3 wegen des neuen Programmierparadigmas der Shader Programme (was womöglich nur für Entwickler interessant war... aber trotzdem. Deswegen eben Platz 2 :).

tokugawa
2004-08-08, 16:09:51
Tut das "wie" nicht in deinen Ohren weh? Da gehört ein "als" hin, kein "wie".



Für Österreicher nicht. Denen tut eher Norddeutsch in den Ohren weh, normalerweise :D



Übrigens, T&L bei der GeForce 256 halte ich nicht für sooo revolutionär. Erstens war die Geometrie-Unit der GeForce 256 noch nicht so leistungsfähig, und zweitens gab's T&L eh schon vorher, bei professioneller Workstationgrafik (da gab's T&L vor Textur-Beschleunigung, also die umgekehrte Entwicklung als bei der Consumer-Grafik).

Übrigens, die Voodoo 1 wurde tatsächlich noch nur "Voodoo" genannt am Anfang. Bzw wurde ihr Name erst dann in Voodoo Graphics umgewandelt, als die Voodoo 2 rauskam, bzw kurz danach (d.h. eine Zeitlang war der Name "Voodoo 1" tatsächlich gerechtfertigt. Und eigentlich ist es das für mich auch jetzt noch, da sie eben als "Voodoo" rauskam).

Simon Moon
2004-08-08, 16:32:33
1. Voodoo1 - Erstmals 3D-Beschleunigung mit Texturen und guter Geschwindigkeit.
2. Geforce3 / Radeon 8500 - Erstmals programierbare Shader.
3. Kyro1/2 - wohl bis heute die effektivste Graka (im PC Bereich) was das Umsetzen der Füllrate betrifft.

Chris Lux
2004-08-08, 18:21:10
Das ist mir schon klar, dass die ersten Pixel Shader (und Shader Modelle) nicht komplexer waren als Register Combiner (die NVParse Library zeigt das ja sehr deutlich).

Aber es geht darum, dass das Programmierparadigma der Shader Programme revolutionär war, das meinte ich. Anstatt selber Registerblöcke kryptisch zusammenzuschalten, einfach die Shading-Semantik auf Assembler (und später Hochsprachenebene) zu bringen, das war zumindest aus der Sicht der Entwickler eine mittlere Revolution.

jap das schon, doch waren die so genannten pixel shader nur unter dx rein als assembler nutzbar. unter opengl gibts eigentlich bis heute keine allgemeine möglichkeit diesen technologielevel zu nutzen. bei nvidia ist es immer noch über die register combiner extensions nutzbar (war auch nicht mehr) und bei ati konnte man schon sehr einfache assembler programme schreiben.
ich stimme dir zu, dass die gf3 die programmierbarkeit der pipeline einleutete, doch so richtig frei nutzbar wurde es erst aber der gfFX bzw. dem R300.

ein bisschen OT: ich würde mir echt für openGL2.0 oder zukünftige schnittstellen wünschen, dass man die API bereinigt, um diese neuen konzepte sauber abzubilden und altlasten rauszuwerfen (auch wenn es dadurch für anfänger komplizierter wird)

tokugawa
2004-08-08, 19:19:40
jap das schon, doch waren die so genannten pixel shader nur unter dx rein als assembler nutzbar. unter opengl gibts eigentlich bis heute keine allgemeine möglichkeit diesen technologielevel zu nutzen. bei nvidia ist es immer noch über die register combiner extensions nutzbar (war auch nicht mehr) und bei ati konnte man schon sehr einfache assembler programme schreiben.
ich stimme dir zu, dass die gf3 die programmierbarkeit der pipeline einleutete, doch so richtig frei nutzbar wurde es erst aber der gfFX bzw. dem R300.

ein bisschen OT: ich würde mir echt für openGL2.0 oder zukünftige schnittstellen wünschen, dass man die API bereinigt, um diese neuen konzepte sauber abzubilden und altlasten rauszuwerfen (auch wenn es dadurch für anfänger komplizierter wird)

Das stimmt allerdings, deswegen weine ich auch Cg nach, denn das Konzept von Cg, eine Hochsprache, die in jede beliebige API und jeden beliebigen Chip, auch jene mit GeForce3/4 Techlevel kompiliert (also auch in NV_ spezifischen Shader Extensions) aus ein und demselben Quellcode, und dadurch Renderpfade vermeidet/revolutioniert, vermisse ich heute noch.

Unter OpenGL ist es allerdings immer noch so - dass "erweiterte" Shader auch wiederum hersteller-spezifische Extensions erfordern (schon die FX konnte ja mehr als über ARB_fragment_program und ARB_vertex_program exponiert wurde). Stimmt also, ich wünsche mir auch einen Mechanismus unter OpenGL, die das ganze etwas übersichtlicher macht. Renderpfade sind ganz und gar nicht spaßig zu programmieren :) vor allem wenn man die Target-Hardware nicht besitzt.

Obwohl Sh (sh. http://www.gamasutra.com/features/20040716/mccool_01.shtml) sehr ähnlich klingt und interessant sein dürfte.

AtTheDriveIn
2004-08-08, 19:31:01
Mordred']Wenn die CPU genug Luft hat tut sie das logisch. Das ist aber auch bei ner GF4TI nicht anders ;)

Es ist ja dazu da die CPU zu entlasten damit sie mehr Luft hat. Das das ganze seinen Sinn verliert wenn die CPU eh noch mehr wie genug power hat ist irgendwie logisch oder?

Fakt ist aber: Wenn die CPU keine Puste mehr hat ist Hardware T&L ein Segen ;)

Ein gf4MX läuft mittlerweile auch meist schneller wenn man software t&L wählt

Ich empfehle mal folgende Lektüre einer bekannten Seite:
http://www.3dcenter.org/artikel/t_und_l/

Mordred
2004-08-08, 20:20:12
Ich empfehle mal folgende Lektüre einer bekannten Seite:
http://www.3dcenter.org/artikel/t_und_l/
Den kenn ich der ändert aber auch nix an dem was ich gescheriben habe :> Benchmarks (spiele) lügen nicht

robbitop
2004-08-08, 22:33:38
Voodoo1: War die erste Graka die auf Polygon-Basis renderte und hat den ganzen 3D Markt quasi eingeläutet.

AFAIK Unsinn.
Es gab bereits polygonbasierte 3D Chips vor dem Voodoo Graphics. Nur war der Voodoo zum ersten Mal schnell genug, um das ganze zu beschleunigen.
Und im NonPC Bereich gibt es Polygonbasierte Grafikunits noch viel länger

@Mordred
hast du eine Ahnung wie schwer sich CPUs mit der Transformation von Dreiecken tun?
Eine HW Transformationseinheit ist dort ein Schritt in die richtige Richtung. allerdings war das Ganze nicht neu. Der Pyramit3D bot dies schon vorher, im NonPC Bereich (Arcade/SGI) gab es auch dies schon vorher.
In UT2003 jedenfalls kommt TnL ganz gut zum Einsatz.
Bei Aquanox2 ebenfalls...nur dass es sich dort um die programmierbare TnL Unit (VS) handelt.

Ailuros
2004-08-09, 00:13:01
Fuer mich haben alle existierenden und schon laengst verschwundenen IHVs zur Evolution der Grafikkarte mehr oder weniger beigetragen.

Nun gut die Voodoo1 ist wie die erste Liebe: man vergisst sie nie egal wie alt man ist und hier spielt immer ein bisschen ein gewisser Psychologie-Faktor mit.

Sonst kann ich bei mir keine besondere Nostalgie sehen; Grafikkarten sind ein Stueck Silizium die dazu dienen dass ich meine Spiele spielen und den PC fuer andere Aufgaben benutzen kann; nicht mehr und nicht weniger.

Wenn ich mir ein neues Auto kaufe, dann denke ich selten auf die vorige veraltete Karre mit Nostalgie zurueck. Ueberhaupt wenn die neue besser aussieht, schneller laeuft und weniger Probleme aufweisst. Gilt genauso fuer Grakas; falls nicht dann hat man eben eine falsche Wahl getroffen.

Ailuros
2004-08-09, 00:36:55
Mordred']Wenn die CPU genug Luft hat tut sie das logisch. Das ist aber auch bei ner GF4TI nicht anders ;)

Ein System sollte balanciert aufgebaut sein. Es ist im Grunde Schwachsinn eine GF4Ti mit einem P2 400Mhz zu paaren oder andersrum eine TNT2 mit einem 1.4GHz Athlon. Du wirst wohl wissen warum.

Es ist ja dazu da die CPU zu entlasten damit sie mehr Luft hat. Das das ganze seinen Sinn verliert wenn die CPU eh noch mehr wie genug power hat ist irgendwie logisch oder?

Ja zum ersten Satz. Von HW T&L sollte man keine Wunder erwarten, aber es hilft trotzdem zu einem sehr nennenswerten Grad. Frueher als die originale GeForce erschienen, waren die Mehrheit der Spiele entweder Fuellraten oder CPU limitiert. Seitdem aber Spiele mit wahrem T&L optimierten code auftauchten (siehe U2 engine), sieht es eher so aus dass egal was fuer eine CPU verwendet wird in Kombination mit einer GPU ohne HW T&L, dass es zu sehr starker CPU Limitierung fuehrt. Nur eben weil Teil des Codes fuer die T&L Einheit der GPU bestimmt ist und die CPU extra Arbeit anwenden muss und wertvolle Resourcen unnoetig verschwendet.

Fakt ist aber: Wenn die CPU keine Puste mehr hat ist Hardware T&L ein Segen ;)

HW T&L ist genauso eine Vorraussetzung wie eine starke CPU heutzutage. Heutige Spiele ohne weder/noch ist sinnlos.

Ein gf4MX läuft mittlerweile auch meist schneller wenn man software t&L wählt

Bitte mit Zahlen von Echtzeit-Spielen nachweisen. Normalerweise ist reines SW T&L wenn man alles nur auf die CPU schiebt und da wird es grausam langsam, denn CPUs vertragen sehr schlecht Filterungs-Vorgaenge.

Das letzte mal als ich HW T&L abgeschaltet habe in UT2k3, war der reine HW T&L Fall zweimal so schnell als der halbwegs SW T&L Fall. Und ich sage halbwegs weil wenn Du in UT2k3 HW T&L abschaltest, uebernimmt die Graka und deren Treiber noch so einige Funktionen wie eben die Filterung.

Ausprobieren kann das wohl jeder. In UT2k3 oder UT2k4 einfach:

UseHardwareTL=False
UseHardwareVS=False

...oder eben in UT2k4 den reinen SW renderer benutzen, wo die ganze Last dann tatsaechlich auf die CPU geladen wird.

Mordred
2004-08-09, 01:25:47
Ein System sollte balanciert aufgebaut sein. Es ist im Grunde Schwachsinn eine GF4Ti mit einem P2 400Mhz zu paaren oder andersrum eine TNT2 mit einem 1.4GHz Athlon. Du wirst wohl wissen warum.
Hab ich was anderes behauptet o_O Eher weniger. Ich habe nur gesagt das auch das t&l einer TI net mehr viel bringt wenn die CPU überdimmensioniert ist. Was bei jedem (mir bekannten) hardware t&l der Fall ist.


Ja zum ersten Satz. Von HW T&L sollte man keine Wunder erwarten, aber es hilft trotzdem zu einem sehr nennenswerten Grad. Frueher als die originale GeForce erschienen, waren die Mehrheit der Spiele entweder Fuellraten oder CPU limitiert. Seitdem aber Spiele mit wahrem T&L optimierten code auftauchten (siehe U2 engine), sieht es eher so aus dass egal was fuer eine CPU verwendet wird in Kombination mit einer GPU ohne HW T&L, dass es zu sehr starker CPU Limitierung fuehrt. Nur eben weil Teil des Codes fuer die T&L Einheit der GPU bestimmt ist und die CPU extra Arbeit anwenden muss und wertvolle Resourcen unnoetig verschwendet.HAbe ebenfalls nichts anderes behauptet. Es ging wie gesagt nur um den Fall überdimesnionierte CPU.



HW T&L ist genauso eine Vorraussetzung wie eine starke CPU heutzutage. Heutige Spiele ohne weder/noch ist sinnlos. HAbe ich auch nirgends angezweifelt. Falls du es verpasst hast meine Äusserungen waren PRO t&L



Bitte mit Zahlen von Echtzeit-Spielen nachweisen. Normalerweise ist reines SW T&L wenn man alles nur auf die CPU schiebt und da wird es grausam langsam, denn CPUs vertragen sehr schlecht Filterungs-Vorgaenge.

Das letzte mal als ich HW T&L abgeschaltet habe in UT2k3, war der reine HW T&L Fall zweimal so schnell als der halbwegs SW T&L Fall. Und ich sage halbwegs weil wenn Du in UT2k3 HW T&L abschaltest, uebernimmt die Graka und deren Treiber noch so einige Funktionen wie eben die Filterung.

Ausprobieren kann das wohl jeder. In UT2k3 oder UT2k4 einfach:

UseHardwareTL=False
UseHardwareVS=False

...oder eben in UT2k4 den reinen SW renderer benutzen, wo die ganze Last dann tatsaechlich auf die CPU geladen wird.
Nuja bei den Produkten ist der Fall überdimesionierte CPU nicht so schnell zu erreichen. Etwas ältere Sachen wie zum Beispiel Nocturne laufen mit software t&l flotter. Bzw. wenn man es nicht explizit anwählt. Auch der ein oder andere Benchmark kommt bisschen besser zurecht mit software t&l wenn die CPU entsprechend dick ist. Zum Beispiel bei gf4mx gepaart mit 3,2 GHz p4 mekrt man das doch recht deutlich ;> Bei der TI 4200 und de 3,2 konnte man auch noch nen kleinen Unterscheid festestellen. Erst ab der GF4TI 4600 war die Grafikkarte wieder im Vorteil.Aber wie gesagt das waren dann Sachen wo sich die CPU primär gelangweilt hat.

Irgendwie dünkt mich du hast meine Ausführungen falsch aufgefasst :>

Ailuros
2004-08-09, 01:50:50
Nuja bei den Produkten ist der Fall überdimesionierte CPU nicht so schnell zu erreichen. Etwas ältere Sachen wie zum Beispiel Nocturne laufen mit software t&l flotter. Bzw. wenn man es nicht explizit anwählt.

Seit wann ist Nocturne ein T&L Spiel? Es gibt einen gesunden Unterschied zwischen einem Spiel dass ein paar Transformationen und gelegentlich ein paar Belichtungen benutzt und reinem T&L optimierten code. Nocturne war so verbuggt dass der Leistungseinbruch dem Resultat zu seiner Zeit ueberhaupt nicht enstprach.

Auch der ein oder andere Benchmark kommt bisschen besser zurecht mit software t&l wenn die CPU entsprechend dick ist.

Welcher genau?

Hier mal als Abwechslung reale Nummern:

UT2k4, Primeval demo, 1024*768*32

Pixo Renderer
(absolut mieseste Bildqualitaet; auf KEINEN Fall vergleichbar mit den anderen beiden Tests): 18.278 fps

D9 Renderer
(HW T&L und VS on): 48.968 fps

D9 Renderer
(HW T&L und VS off): 22.477 fps

Zum Beispiel bei gf4mx gepaart mit 3,2 GHz p4 mekrt man das doch recht deutlich ;> Bei der TI 4200 und de 3,2 konnte man auch noch nen kleinen Unterscheid festestellen. Erst ab der GF4TI 4600 war die Grafikkarte wieder im Vorteil.

Ein 3.2 GHz P4 ist fuer beide Faelle quasi eine Verschwendung, mehr ueberhaupt fuer eine GF4MX. Deshalb hab ich auch ein so langes "Vorwort" gepostet.

Als die GF4MX erschien und auch jegliche NV25 waren ueberhaupt keine 3.2GHz P4's verfuegbar. Wie glaubst Du wird sich in der Zukunft eine heutige NV40 mit einem zukuenftigen 4.5-5GHz CPU verhalten?

Irgendwie dünkt mich du hast meine Ausführungen falsch aufgefasst :>

Sieht mir nicht so aus. Eine GF4MX ist ein 2 Jahre altes low end Produkt; was damit ein heutiger high end Prozessor zu tun hat ist mir ehrlich gesagt fremd; und dabei ist es egal wie sich T&L im einen oder anderen Fall verhaelt. So ein System macht sowieso keinen Sinn. Die CPU wird sich sowieso theoretisch langweilen - ob nun onboard T&L oder nicht - eben weil GPUs schon immer nur bis zu einem gewissen Punkt skalieren und ich hab bis jetzt noch keine Ausnahme gesehen.

Mordred
2004-08-09, 01:58:47
Seit wann ist Nocturne ein T&L Spiel? Es gibt einen gesunden Unterschied zwischen einem Spiel dass ein paar Transformationen und gelegentlich ein paar Belichtungen benutzt und reinem T&L optimierten code. Nocturne war so verbuggt dass der Leistungseinbruch dem Resultat zu seiner Zeit ueberhaupt nicht enstprach. Was tut das zur Sache du wolltest nur ein Spiel wissen wo es was bringt bitte da haste eins.



Welcher genau? Village Mark.

Hier mal als Abwechslung reale Nummern:

UT2k4, Primeval demo, 1024*768*32

Pixo Renderer
(absolut mieseste Bildqualitaet; auf KEINEN Fall vergleichbar mit den anderen beiden Tests): 18.278 fps

D9 Renderer
(HW T&L und VS on): 48.968 fps

D9 Renderer
(HW T&L und VS off): 22.477 fps



Ein 3.2 GHz P4 ist fuer beide Faelle quasi eine Verschwendung, mehr ueberhaupt fuer eine GF4MX. Deshalb hab ich auch ein so langes "Vorwort" gepostet.

Als die GF4MX erschien und auch jegliche NV25 waren ueberhaupt keine 3.2GHz P4's verfuegbar. Wie glaubst Du wird sich in der Zukunft eine heutige NV40 mit einem zukuenftigen 4.5-5GHz CPU verhalten?Warum schreibe ich überdimmesnioniert denk jetzt mal ganz scharf nach



Sieht mir nicht so aus. Eine GF4MX ist ein 2 Jahre altes low end Produkt; was damit ein heutiger high end Prozessor zu tun hat ist mir ehrlich gesagt fremd; und dabei ist es egal wie sich T&L im einen oder anderen Fall verhaelt. So ein System macht sowieso keinen Sinn. Die CPU wird sich sowieso theoretisch langweilen - ob nun onboard T&L oder nicht - eben weil GPUs schon immer nur bis zu einem gewissen Punkt skalieren und ich hab bis jetzt noch keine Ausnahme gesehen.Irgendwie glaube ich langsam du willst garnicht verstehen was ich geschreiben habe o_O. Hast du dir das Posting auf das ich geantwortet habe durchgelesen? Wer hat überhaupt geschrieben das die Config Sinn mahcen muss? Ich rede die ganze Zeit von Überdimensionierten CPus das beinhaltet quasi automatsich ein unausgewogenes System. Es hat hier auch neimand drüber diksutiert ob das Sinn machn würde oder nich das war auch schlicht nicht das Thema

Ailuros
2004-08-09, 02:33:57
Was tut das zur Sache du wolltest nur ein Spiel wissen wo es was bringt bitte da haste eins.

Nocturne= kein T&L Spiel.

Village Mark.

Auch kein standhaftes Beispiel. Quake3 hat auch ein paar Transformationen, war bei seinem erscheinen absolut Fuell-raten limitiert und ist auf heutigen Systemen sehr CPU limitiert.

VillageMark ist ein Overdraw-Test demo und ist schon seit Jahren verdammt veraltet. Wer sagt Dir dass es ueberhaupt reinen T&L optimierten code enthaelt? Es wurde fuer KYRO entwickelt und PowerVR waere schoen bloed gewesen wenn es sich um T&L optimierten code gehandelt haette.

Warum schreibe ich überdimmesnioniert denk jetzt mal ganz scharf nach.

Die Resultate kamen von einem absolut balancierten setup. Eben ein Versuch mit den bis jetzt moeglichen Mitteln und noch genauer einem echten Spiel Unterschiede zwischen HW und SW T&L zu illustrieren. Wer muss hier genau scharf nachdenken?

Irgendwie glaube ich langsam du willst garnicht verstehen was ich geschreiben habe o_O.

Deine bisherige Dokumentation hat mich eben weitgehend ueberzeugt.....


Hast du dir das Posting auf das ich geantwortet habe durchgelesen? Wer hat überhaupt geschrieben das die Config Sinn mahcen muss? Ich rede die ganze Zeit von Überdimensionierten CPus das beinhaltet quasi automatsich ein unausgewogenes System. Es hat hier auch neimand drüber diksutiert ob das Sinn machn würde oder nich das war auch schlicht nicht das Thema.

Ich warte immer noch auf brauchbare Werte, Beispiele, Dokumentation die Deine angeblichen Punkte unterstuetzen. Im Leerraum diskutieren kann jeder, aber ich bin hartnaeckig genug Beweise zu wollen. Unterstuetze erstmal Deine Behauptungen mit realen T&L Spielen und Leistungsnummern und dann macht diese Debatte erstmal wieder Sinn.

Wer lesen kann oder nicht, kann wohl jeder dritte selber beurteilen.

Mordred
2004-08-09, 02:41:45
ICh habe dir grade Sachen genannt. Ach und btw. Nocturne unterstützt hardware t&l. Installier es und überzeug dich selbst. Wie gut es das nutzt ist jetz ein andere Sache.

Obs dich überzeigt oder nicht ist mir recht egal du kannst die von mir genannten Punkte gerne selber testen dann kannste dich selber von überzeugen.

Anscheinend willst du auch wirklich nicht verstehen worum es am Anfang ging. ICh hab es grade schon gefragt hast du das urpostuing gelesen? anscheined nicht. Damit du verstehst warum ich von überdimensionierten CPus rede. Er sagte 1Ghz Rechner zu Zeiten der GF1DDR waren 500-600 Standard. Vllt kannst du so langsam mal nachvollziehen warum ich von überdimensionierten CPus geredet habe. Sollte es jetzt immer noch nicht geklingelt haben solltest du dir langsam Sorgen machen. Du hättest jetzt aber aucbh durch schlichtes lesen des postings von ernesto.che selber drauf kommen können.

Im übringen hast du mit Sachen angefangen die nicht zur Diskussion standen. :>

tokugawa
2004-08-09, 02:53:06
Quake3 hat auch ein paar Transformationen, war bei seinem erscheinen absolut Fuell-raten limitiert und ist auf heutigen Systemen sehr CPU limitiert.


Also, eigentlich hat jedes Spiel Transformationen. Ich weiß, vermutlich wolltest du's nicht so formulieren, aber so wie du's formuliert hast, klingt's als wären Transformationen was besonders, wie ein Effekt oder so. Geometrie-Transformation bezieht sich ja auf die Viewing Pipeline, und jeder Vertex in einem Spiel wird transformiert, ob er will oder nicht.

D.h. je mehr Vertizes (also je mehr Triangles), desto heftiger wird HW Transform & Lighting bzw. die Geometrie-Einheiten belastet. Es ist auch eine Frage des Engine-Designs, eine Balance zwischen Fillrate und Geometrie-Transformationsrate zu bekommen, da gibt's eine Formel die mittels Triangle-Transformation-Rate, Fillrate und Overdraw-Faktor den durchschnittlichen optimalen "Triangle Area" (also wieviel Pixel bzw. Fragments ein Triangle groß ist) berechnet, für jeden Chip. Durchschnittlich ist das bei heutigen GPUs glaub ich bei ca. 4 Fragments pro Triangle.

Ailuros
2004-08-09, 03:04:24
Mordred']ICh habe dir grade Sachen genannt. Ach und btw. Nocturne unterstützt hardware t&l. Installier es und überzeug dich selbst. Wie gut es das nutzt ist jetz ein andere Sache.

Obs dich überzeigt oder nicht ist mir recht egal du kannst die von mir genannten Punkte gerne selber testen dann kannste dich selber von überzeugen.

Anscheinend willst du auch wirklich nicht verstehen worum es am Anfang ging. ICh hab es grade schon gefragt hast du das urpostuing gelesen? anscheined nicht.

Im übringen hast du mit Sachen angefangen die nicht zur Diskussion standen. :>

Es standen T&L Applikationen zur Debatte und KEINE der von Dir aufgefuehrten verdienen diesen Titel, wie sehr Du auch darauf bestehen magst. Ich hab keine Lust weiterhin Zeit zu verschwenden mit jemand der ein paar verkorkste und ungenaue Beispiele in die Luft wirft und diese als "Beweise" empfindet.

Ich hab Nocturne und nein es hat keinen T&L optimierten code.

robbitop
2004-08-09, 03:05:58
mach mal bei 3DMark01 SW TnL an. Egal was für eine CPU du hast (heutig verfügbare). Bei einer GF4MX wird man mit HW TnL in diesem Setting enorm schneller sein (habe das mal getestet).
Bereits die TnL Unit der GF2 sollte mehr an Dreiecken/Takt transformieren als jeder P4/Athlon64. Spezielle Recheneinheiten sind meist deutlich besser als allgemeine.

Mordred
2004-08-09, 03:08:47
Es standen T&L Applikationen zur Debatte und KEINE der von Dir aufgefuehrten verdienen diesen Titel, wie sehr Du auch darauf bestehen magst. Ich hab keine Lust weiterhin Zeit zu verschwenden mit jemand der ein paar verkorkste und ungenaue Beispiele in die Luft wirft und diese als "Beweise" empfindet.

Ich hab Nocturne und nein es hat keinen T&L optimierten code.
Ui da ist aber jemand sehr von sich eingenommen was ;> Nun gut ich dikutiere auch nicht gerne mit Leuten die nichtmal in der Lage sind den Zusammenhang zwischen dem Urposting und meiner Aussage zu sehen :>

Wenn Nocturne es net unterstützt warum kann man es dann auswählen *kopfkratz* Fragen über Fragen.

Was wäre für dich nen gutes Beispiel? 3DMark2000? Auch da lässt sich meine Aussage bestätigen.

Ailuros
2004-08-09, 03:13:20
Also, eigentlich hat jedes Spiel Transformationen. Ich weiß, vermutlich wolltest du's nicht so formulieren, aber so wie du's formuliert hast, klingt's als wären Transformationen was besonders, wie ein Effekt oder so.

Ich hab's als Beispiel erwaehnt im Paragraphen wo es ueber Villagemark ging. Nach den eigenen Aussagen von PVR Angestellten, entwickelten sie ein demo dass sich wie ein normales Spiel zu dieser Zeit verhalten sollte und das einen sehr hohen Overdraw (wieder fuer diese Zeitspanne) zwischen 4 und 5.0 illustrierte.

Dieser durchschnittliche Overdraw Faktor wurde schon mit dem ersten Serious Sam Spiel etwas spaeter erreicht.

NVIDIA hatte uebrigens Q3a damals in der 100 T&L Spiele Vermarktungs-Liste.....

Ailuros
2004-08-09, 03:27:59
Mordred']Ui da ist aber jemand sehr von sich eingenommen was ;> Nun gut ich dikutiere auch nicht gerne mit Leuten die nichtmal in der Lage sind den Zusammenhang zwischen dem Urposting und meiner Aussage zu sehen :>

Wenn Nocturne es net unterstützt warum kann man es dann auswählen *kopfkratz* Fragen über Fragen.

Was wäre für dich nen gutes Beispiel? 3DMark2000? Auch da lässt sich meine Aussage bestätigen.

MDK2 hatte auch eine T&L Option im config na und? Es war trotzdem kein T&L optimiertes Spiel.

3dmark2000? Wen kuemmert dx6 SW? Wenn dann schon eher 3dmark2001.

Das erste Spiel mit reinem T&L optimierten code ist UT2k3. Und nein wenn man da HW T&L abstellt wird eine lahmarschige GPU wie die GF4MX mit SW T&L nicht schneller und schon gar nicht mit einer 3.2GHz P4 CPU. Dieser Quark kann gerne nochmal 20 Seiten laenger werden, daran aendert sich aber nichts.

Kein Kommentar zum Rest. Persoenliche Seitenschwuenge aus Verlegenheit lassen mich kalt.

GloomY
2004-08-09, 12:20:07
Voodoo Graphics ;9 endlich billineare Texturfilterung :DImho konnte das der S3 Virge auch schon, bloss mit unakzeptabel langsamer Frame-Rate.

Die Voodoo 1 vereinigte Features und Speed. Und das war letztendlich das Geniale an dieser Karte =)
Mordred']Das is mir sowas von egal :> ICh schreibs wie ich grad lust hab.lhc Scheribe ejTzt ahUc Mla sO wei cih wLil, weil Mri sad gAzn eGla Its undweli Rih ALel dNan pR0lbmee hbat udn skduhf vbjakzGveukf cjwHte kajhbeawRtbobk jbJöbhs, gell? ;)

robbitop
2004-08-09, 12:31:35
hm...was wäre denn eine Bedingung wo eine TNL Unit das Spiel bremsen würde?

Mein Ansatz:

1. das Spiel hat verdammt viele Dreiecke zu transformieren (UT2003 oder deutlich mehr), so dass hier nicht mehr Füllrate oder Bandbreite limitiert, sondern Dreickstransformation.
2. die CPU hat brachial mehr Transformationsleistung. Denn bei ein wenig mehr Transformationsleistung wäre die CPU nur damit beschäftigt, dreieckezu Transformieren und man hätte keine Rechenzeit für die anderen, rechenintensiven Elemente (Sound, I/O, Physik, KI ...).
Allein dafür sind heutige CPUs schon ausgelastet genug, um nun sich auch noch um die Transformation zu kümmern. Somit entlastet man die CPU. Mir wäre kein Spiel bekannt, in dem 34Mio Vertices/s limitieren würden in Relation zum Einsatz der CPU für SW TnL.

Ich habe leider keine Benches/Quellen zur Hand, kann mich aber errinnern, dass die GF2MX damals sogar einen P4 mit enormen Vorsprung besiegt hat in dieser Disziplin.
Wenn man sowas praktisch mal ausprobieren möchte dann kann man das ja mal mit 3DAnalyze und UT2003 tun. Hier wurde AFAIR ziemlich viel TNL im Spiel gebraucht. Oder mal mit 3DMark01.

Vorher wurde TNL nur sporadisch eingesetzt.

Madkiller
2004-08-09, 12:40:27
IMO auch ganz klar die Voodoo Graphics (SST-1)

Mordred
2004-08-09, 12:42:23
Kein Kommentar zum Rest. Persoenliche Seitenschwuenge aus Verlegenheit lassen mich kalt.

Diese Reaktion bestätigt meine Aussage komplett :) Selbstverliebt? Du hast nichtmal versucht zu merken warum ich es schrieb was :> Naja nochmal werd ich es jetzt nicht schreiben es steht schon mindestens 5 mal hier im Thread. Irgendwann geht auch mir mal die Geduld aus.

@ Glommy: Kannste gerne tun ich kanns lesen :) Ausserdem hinkt der Vergleich dann doch etwas verdrehtes als und wie (was ich in dem Forum hier wegen solchen Leuten eigntlich schon aus Prinzip missachte ebenso den imperativ) ändert nichts an der Verständlichkeit eines Satzes. Dein Mischmasch hingegen schon :>

Desweiteren find ich es doch höchst belustigend wenn wieder Leute auf ihren Rechtschreibfeldzug gehen. Vorallem wenn es Leute sind wo ich selbst schon elfundneunzig mal Fehler gesehen habe :> Also bitte lass mich damit in Ruhe :)

GloomY
2004-08-09, 12:49:38
Mordred']@ Glommy: Kannste gerne tun ich kanns lesen :)Schön, dann sag' mir doch mal, was die letzten paar Worte bedeuten sollen...

btw: Ich nehme mal an, dass du mich meinst. Wenn nicht, dann nix für ungut ;)
Mordred']
Ausserdem hinkt der Vergleich dann doch etwas verdrehtes als und wie (was ich in dem Forum hier wegen solchen Leuten eigntlich schon aus Prinzip missachte ebenso den imperativ) ändert nichts an der Verständlichkeit eines Satzes. Dein Mischmasch hingegen schon :>Es ist deiner Einstellung, die ich kritisiere, nicht deine Rechtschreibfehler.

edit: Natürlich auch die

[X] "Voodoo 1"

Mordred
2004-08-09, 12:55:51
Schön, dann sag' mir doch mal, was die letzten paar Worte bedeuten sollen...

Die hab ich als einfach auf die Tastatur gekloppt gewertet der Rest davor war aber wunderbar lesbar :) Wenn das wirklich Worte waren dann korrigiere ich meine Aussage hiermit auf teilweise ;)

<athsmode>deine nicht deiner</athsmode>
Was ist daran so schlimm? Ich finde Leute die alles mögliche korrigieren wollen aber selber dauernd fehler machen wesentlich schlimmer :> Aber gut jedem das seine ;)

Korak
2004-08-09, 13:04:48
Und jetzt halten wir uns alle wieder brav an die Topic

DrumDub
2004-08-09, 13:21:06
IMO auch ganz klar die Voodoo Graphics (SST-1)

jupp. seh ich auch so. quake2 auf ner voodoo war 1998 für mich der einstieg ins 3d-gaming. man war ich beeinruckt. :)

tokugawa
2004-08-09, 15:37:53
Ich hab's als Beispiel erwaehnt im Paragraphen wo es ueber Villagemark ging. Nach den eigenen Aussagen von PVR Angestellten, entwickelten sie ein demo dass sich wie ein normales Spiel zu dieser Zeit verhalten sollte und das einen sehr hohen Overdraw (wieder fuer diese Zeitspanne) zwischen 4 und 5.0 illustrierte.

Dieser durchschnittliche Overdraw Faktor wurde schon mit dem ersten Serious Sam Spiel etwas spaeter erreicht.

NVIDIA hatte uebrigens Q3a damals in der 100 T&L Spiele Vermarktungs-Liste.....

Quake 3 verwendet ja OpenGL, oder? Da ist Hardware-TnL ziemlich automatisch drin (außer du multiplizierst die Matrizen der Viewing Pipeline selbst). Das passt schon, dass es in der HW TnL Liste drin ist, meiner Meinung nach.

stav0815
2004-08-09, 17:15:43
NV20. Er brachte zu ersten mal wirklich einsetzbares AA und AF mit und war es afaik auch der erste Grafikchip mit Shaderunterstützung die auch genutzt wurde. Dazu kommt noch dass sein Refresh (die geForce 4) nVidia auch zum durchbruch im Retail Markt verholfen hat und auch im Einsteiger Segment mit der Ti4200 wirklich gute Leistungen bot!

Schwarzmetaller
2004-08-09, 17:17:12
Kann man eigentlich nicht so genau sagen, die ganzen Chips der Couleur S3 Virge, Rendition, Matrox Mystique, NVidia Riva 128, 3D Labs Permedia, ATI Rage und 3DFX Voodoo Graphics waren die wegweisenden der letzten 10 Jahre. Vorher waren Grafikkarten einfach Geräte um die Computerdaten optisch auszugeben, mit der ersten Generation von 3D-Chips wurde zum ersten Mal der CPU Rechenarbeit abgenommen und 3D-Features gebracht die die Bildqualität immer mehr in Richtung Realität hin verschoben haben (ein Trend der heute immer noch aktuell ist), d.h alle First Gen 3D Chips

MFG
Schwarzmetaller

Edit: Hab mal als Stellverterter für den SST-1 (Voodoo Graphics) gevotet, genausogut hätte ich den ATI Rage nehmen können, der massenweise als erster OEM-3D-Chip verwendet wurde

Xmas
2004-08-09, 18:44:52
Der wegweisendste Chip war IMO NV20. Oder vielleicht doch der VS25203? ;)

Voodoo Graphics konnte einfach noch zu wenig, um einen "Weg" zu weisen.

zeckensack
2004-08-09, 18:52:27
[x] Geforce 2MX

reunion
2004-08-09, 18:55:59
[x] Geforce 2MX

Scherz?? :crazy:

zeckensack
2004-08-09, 19:22:21
Scherz?? :crazy:Kein Scherz. Die MX hat die Segmentierung des Graka-Markts total umgekrempelt. Vorher gab es quasi einen Hersteller pro Preissegment. Mit der MX hat NVIDIA gezeigt, dass auch ein einziger Hersteller mehrere Preissegmente bedienen kann, und das auch noch sehr erfolgreich -- auch bezogen auf die Synergieeffekte in Entwicklung und Marketing.

Wenn du dir ansiehst, wann sich die ganzen anderen Chipschmieden (S3, 3DLabs, Rendition) aus dem Consumer-3D-Geschäft zurückgezogen haben, dann wirst du wahrscheinlich feststellen, dass das zu grossen Teilen mit der Veröffentlichung der Geforce 2MX zusammenhing.

ATI war die einzige Firma, die das überlebt hat, und zwar indem sie das Rezept kopierten (nannte sich damals Radeon VE).

Von der reinen Performance her ist die MX natürlich alles andere als revolutionär, und auch von den Features her ist sie nicht besonders sexy. Trotzdem war das IMO das Produkt, mit dem dieser Markt erst richtig erwachsen wurde.

Quasar
2004-08-09, 19:26:26
[x] Geforce 2MX

Einen Weg hat er/sie (ich tendiere hier klanglich zu letzterem) gewiesen - aber keinen besonders positiven.


@TnL-Disputanten:
Bis jetzt reden hier die meisten nur von T, das L wird aber geflissentlich übersehen. ;)
Ich bin selbst nicht gerade ein Anhänger der aths'schen TnL-Artikel und deren Grundtenor, aber bis dato zeigen die sog. GPUs ihre Stärken eher im T und mit Abstrichen auch in leichteren "L"-Übungen. Sobald es jedoch zur Sache geht, fällt die L-Leistung ziemlich in den Keller und "kleinere" TnL-Chips werden durchaus von den modernen CPUs (schaut auch mal woanders als in der Wintel-Welt) überflügelt. ;)

(del676)
2004-08-09, 19:27:13
was is mit:
TNT2 M64
Voodoo 3 2000
Voodoo 4 4500

Ailuros
2004-08-09, 22:46:14
Quake 3 verwendet ja OpenGL, oder? Da ist Hardware-TnL ziemlich automatisch drin (außer du multiplizierst die Matrizen der Viewing Pipeline selbst). Das passt schon, dass es in der HW TnL Liste drin ist, meiner Meinung nach.

Wenn das "L" fehlen wuerde, haette ich nichts einzuwenden. Von dem abgesehen hat es sich meiner Meinung in der Vergangenheit bewiesen dass eine vorhandene T&L Einheit nicht unbedingt hoehere Leistung im spezifischen Spiel landet oder sogar eine Vorraussetzung war.

Hohe effektive Fuell-raten und/oder gute Speicher-Optimierungen dann eher schon.

TM30
2004-08-09, 22:53:28
ganz klar der Voodoo Graphics (Voodoo 1) Ich hatte vorher ne Tseng Labs ET4000 und dann kam die Diamond Monster 3D dazu, man war das ein Mordsmäßiger Quantensprung. Als ich das Ding eingebaut hatte und dann das erste Spiel gespielt hab bin ich zu meinem Vadder raus, hab bald Freudentränen geweint ;) Man das warn Zeiten... heute isses ein Aufguss über dem anderen...

KinGGoliAth
2004-08-09, 23:00:24
da muss ich auch nochmal meinen senf dazu geben:

[x] voodoo 1

ganz klarer fall weil die jungs von 3dfx damit den ersten richtigen und massetauglichen 3d chip für (damalige) hardcore gamer im lager hatte.

ich seh mich immernoch staunen als ich meine monster 3d in den rechner gedrückt, das durchschleif kabel angeklemmt hatte und dann GLQuake gezockt habe. da taten sich ganz andere welten auf.

geforce 1 könnte man an zweiter stelle nennen wegen hardware t&l. aber ob es dazu je gekommen wäre, wenn sich voodoo nicht durchgesetzt hätte?


ps: falls es mir jemand übel nimmt, dass ich in einem öffentlichen forum auf ein indiziertes spiel verweise dann kann mich die person mal gepflegt am...
schließlich leben wir in einem freien land und sind mündige bürger.

tokugawa
2004-08-09, 23:13:50
Kein Scherz. Die MX hat die Segmentierung des Graka-Markts total umgekrempelt. Vorher gab es quasi einen Hersteller pro Preissegment. Mit der MX hat NVIDIA gezeigt, dass auch ein einziger Hersteller mehrere Preissegmente bedienen kann, und das auch noch sehr erfolgreich -- auch bezogen auf die Synergieeffekte in Entwicklung und Marketing.

Wenn du dir ansiehst, wann sich die ganzen anderen Chipschmieden (S3, 3DLabs, Rendition) aus dem Consumer-3D-Geschäft zurückgezogen haben, dann wirst du wahrscheinlich feststellen, dass das zu grossen Teilen mit der Veröffentlichung der Geforce 2MX zusammenhing.

ATI war die einzige Firma, die das überlebt hat, und zwar indem sie das Rezept kopierten (nannte sich damals Radeon VE).

Von der reinen Performance her ist die MX natürlich alles andere als revolutionär, und auch von den Features her ist sie nicht besonders sexy. Trotzdem war das IMO das Produkt, mit dem dieser Markt erst richtig erwachsen wurde.

Stimmt, kann ich nur zustimmen. Daran hab ich gar nicht gedacht, aber wenn ich in meine Geldbörse schau, dann werd ich immer wieder daran erinnert, dass für mich eine Midrange-Karte eigentlich das meiste genauso erledigt wie eine teure High-End-Karte.

Ich denke, dass die Frage in diesem Thread halt ungenau ist. Es gibt Revolutionen in vielen Bereichen, daher gibt es auch nicht _den_ wegweisensten Chip, sondern halt jeweils einen in jeder möglichen Kategorie.

tokugawa
2004-08-09, 23:16:02
Einen Weg hat er/sie (ich tendiere hier klanglich zu letzterem) gewiesen - aber keinen besonders positiven.


Inwiefern "keinen besonders positiven"?

Der Weg, dass die Leute (ich z.B.) keine 500 Euro (oder wieviel damals in der jeweiligen Währung eine High-End-Karte gekostet hat) ausgeben wollen, um auch einigermaßen gut spielen zu können, und man daher für diese Leute auch passende abgespeckte Versionen schafft, war doch prinzipiell positiv.

Dass es ausartet in irgendwelche SE-64-bit-Krücken ist ja nichts negatives per se (nur für die, die solche Karten dann verwechseln).

tokugawa
2004-08-09, 23:19:40
Wenn das "L" fehlen wuerde, haette ich nichts einzuwenden. Von dem abgesehen hat es sich meiner Meinung in der Vergangenheit bewiesen dass eine vorhandene T&L Einheit nicht unbedingt hoehere Leistung im spezifischen Spiel landet oder sogar eine Vorraussetzung war.


Ach so, verwendet Quake 3 nicht das standardmäßige OpenGL-Lightmodel?

Und, ja, es wird halt der Fall sein, dass die (niedrigen) Polygonraten in einem Spiel nicht so viel ausgemacht haben.


Hohe effektive Fuell-raten und/oder gute Speicher-Optimierungen dann eher schon.

Ja, wie gesagt, liegt halt an den Engines bzw. Spielen von damals. Man konnte und kann allerdings (wenn der Entwickler wollte) durchaus so programmieren, dass es TnL fordert und es was bringt.

jc110
2004-08-09, 23:34:12
Wirklich wegweisend war natürlich nur die Voodoo Graphics - vorher haben die Hersteller nur von "3D-Beschleunigung" gefaselt (teilweise war das eher "3D-Ausbremsung") und sich danach am Voodoo und V2 orientiert... Die TNT hatte ja eine ach so tolle Bildqualität und konnte 32Bit - allerdings waren das doch nur theoretische Werte, die Voodoos waren die spielbare Realität. Danach war eher das Marketing bestimmter Hersteller wegweisend, 3dfx's Aussage von der Fillrate zu torpedieren...

Coda
2004-08-09, 23:44:00
Ach so, verwendet Quake 3 nicht das standardmäßige OpenGL-Lightmodel?
Nö. Lightmaps für's Level und nen Lightgrid für die Models.

Das L in T&L is eh für die Katz, weil es kaum Spiele gibt die Vertexlight einsetzen. Vielleicht irre ich mich da aber auch ...

Mit den Vertexshadern hat sich das eh erledigt.

tokugawa
2004-08-10, 00:14:18
Nö. Lightmaps für's Level und nen Lightgrid für die Models.


Dann wär Quake 3 sogar disqualifiziert gewesen für die Computergrafik-Laborübung auf meiner Uni, wo Spiele programmiert werden (in OpenGL) :D

Find ich witzig.


Das L in T&L is eh für die Katz, weil es kaum Spiele gibt die Vertexlight einsetzen. Vielleicht irre ich mich da aber auch ...


Ich kenn genug Spiele, die das einsetzen. Und Spiele sind nicht die einzige Anwendung. Schon gar nicht unter OpenGL.


Mit den Vertexshadern hat sich das eh erledigt.

Das stimmt allerdings.

Ailuros
2004-08-10, 05:05:29
Ja, wie gesagt, liegt halt an den Engines bzw. Spielen von damals. Man konnte und kann allerdings (wenn der Entwickler wollte) durchaus so programmieren, dass es TnL fordert und es was bringt.

Coda hat es auf den Punkt getroffen.

Q3a war Fuell-raten limitiert und alle anderen folgenden Spiele die die gleiche engine benutzten CPU limitiert.

Was VS nun betrifft:

3dmark03/GT2:

HW VS = 65.1 fps
SW VS = 18.6 fps

*hust*

AYAlf
2004-08-10, 08:40:12
voodoo 1 .. ganz klar!

3dfx forever!

robbitop
2004-08-10, 10:24:44
Was VS nun betrifft:

3dmark03/GT2:

HW VS = 65.1 fps
SW VS = 18.6 fps

*hust*

sieht mir aber nicht nach einer GF4MX aus. ;-)
Dass VPUs mit mehreren VS nicht limitieren, was TnL angeht, sollte ja klar sein. (wobei ersteres für mich auch klar wäre...nur leider habe ich keine mehr hier)

Senior Sanchez
2004-08-10, 10:40:45
[x] voodoo graphics

ich habe diese zwar nie richtig miterlebt (nur mal bei nem kumpel gesehen), aber aus meiner sicht eine Revolution in Sachen 3D Technologie aufm PC. Ich selbst bin mit ner Voodoo 2 eingestiegen und das erste mal als ich dann spiele, die ich vorher nur mühesam in Software spielen konnte, in Hardware 3D sah, WOW sag ich da nur, ich hätte heulen können, war einfach zu geil! Die grafikkarten sind zwar immer schneller und besser geworden (V2 -> Radeon 8500 -> Radeon 9700), doch son feeling hatte ich nie mehr bei 3D Karten. Es war einfach etwas atemberaubendes mit der ersten Voodoo!

Schade nur das 3dfx es nicht geschafft hat die V4, V5 und V5 6000 rechtzeitig aufn Markt zu bringen. IMO ist das der Grund warum 3dfx baden gegangen ist, weil nVidia in der Zeit mächtig aufgeholt und überholt hatte und sich auch die unterstützung vieler Spielehersteller dadurch sichern konnte.

RIP 3dfx


mfg Senior Sanchez

bluey
2004-08-10, 10:48:24
Voodoo Graphics natürlich.

RIP meine gute alte Monster 3D

Nvidia sollte mal auch ne 3D Erweiterungskarte bringen. Dann könnte ich ATI und NVIDIA gleichzeitig nutzten ;)

eViLsTieFel
2004-08-10, 13:10:47
Der wegweisendste Graphikchip?
Der Radeon-Chip, der nur teilweises Filtering durch winkelabhängigkeit erlaubte und nicht alle Stages gleich beachtete.
Das scheint ja so toll zu sein, dass das erstmal alle anderen Hersteller nachmachen mussten... naja, zumindest Nvidia.
Scheint ja ein schöner Trend zu sein, Qualität wegzuschneiden, für ein paar FPS mehr.

Eigentlich denke ich da aber an die Voodoo 1 - da wurde aus harten Pixeln endlich eine schöne interpolierte Fläche. Zwar anfangs noch matschig, aber der Weg war geebnet!

Quasar
2004-08-10, 13:18:17
Inwiefern "keinen besonders positiven"?
Der Weg, dass die Leute (ich z.B.) keine 500 Euro (oder wieviel damals in der jeweiligen Währung eine High-End-Karte gekostet hat) ausgeben wollen, um auch einigermaßen gut spielen zu können, und man daher für diese Leute auch passende abgespeckte Versionen schafft, war doch prinzipiell positiv.
Dass es ausartet in irgendwelche SE-64-bit-Krücken ist ja nichts negatives per se (nur für die, die solche Karten dann verwechseln).

Mir ist es bisher auch nur einmal passiert, daß ich quasi im Affekt gut 900DM für eine Grafikkarte ausgegeben habe - und das wird auch mit Sicherheit nicht wieder vorkommen. Das erstmal dazu. :)

Was ich jedoch meinte war, daß die GeForce2MX eine abgespeckte Version der vollständigen GeForce2 war - natürlich um die breite Masse anzusprechen, aber eben auch, um mit den Zugpferden "TnL" und dem Brand "GeForce" diese Käufer dahingehend zu locken, daß diese glauben sollten, es gäbe hier "beinahe" eine richtige GeForce2 für den halben Preis.

Natürlich verschließt sich das denkende Individuum so einer Annahme, aber wie sagt man so schön - Die Intelligenz einer Gruppe nimmt linear mit steigender Anzahl an Individuen ab. ;)

Zeckis zweiten Post gab es, als ich begann zu schreiben übrigens noch nicht - er enthält durchaus auch aufgreifenswerte Aspekte, die ich nicht berücksichtigte.

Ailuros
2004-08-10, 15:49:52
sieht mir aber nicht nach einer GF4MX aus. ;-)
Dass VPUs mit mehreren VS nicht limitieren, was TnL angeht, sollte ja klar sein. (wobei ersteres für mich auch klar wäre...nur leider habe ich keine mehr hier)

Ich hab auch nirgends behauptet, dass es sich bei irgend welchen vorigen Resultaten um eine MX handelt.

Momentan fuer heutige Verhaeltnisse liegen diese Resultate fast nahe am Optimum. Dedizierte HW ist eben in der Mehrzahl der Faelle eine bessere Idee und ja da ist es ein fuenfacher thread gegen einen einzigen, aber auch wiederrum etwa 6.5x niedrigere Taktrate fuer die VS MIMD.

roman
2004-08-10, 16:16:29
[x] Voodoo Graphics

War imho die Initialzündung für Echtzeit-3D-Beschleunigung im Consumermarkt, und damit sozusagen der Urvater aller heutigen Grafikchips. Auch wenns vorher schon Karten wie die Matrox Mystique gab, der Voodoo + Glide brachten das alles auf einen gemeinsamen Nenner und legten den Grundstein für die PC-Spiele, wie wir sie heute kennen.

DasheR
2004-08-10, 16:28:07
Voodoo 1 ganz klar!!! :finger:

Inquisitor
2004-08-10, 16:39:54
[x] Voodoo Graphics

Als ich die Karte drinnen hatte und das erste mal in Aktion sah, fiel mir die Kinnlade runter und ich habe mir gedacht: "Wahnsinn, das hat uns mir einem Schlag 10 Jahre in die Zukunft katapultiert".

Gast
2004-08-12, 04:06:04
Also ich würde ganz klar den Voodoo Graphics wählen.

1. Voodoo Graphics

Wobei weitere wegweisende Grafikchips noch folgende in geschichtlicher Reihenfolge währen:

2. Voodoo 5 (wegen FSAA, das T&L der Geforce 1&2 war ja nicht zu gebrauchen, zählt also nicht)

3. Kyro 2 (wegen der erstmals richtig gut funktionierenden TBR Architektur, der PowerVR 1 konnte sich ja damals gegen den Voodoo Graphics wegen lauter Macken nicht durchsetzen)

4. Geforce 3 wegen den Pixel Shadern


Und 5. Die momentan zukunftsweisenste Karte von allen, die habt ihr nämlich alle vergessen. :)
Ist der Prototyp der ersten Raytracing Grafikkarte für normale PCs
Den SaarCor Chip:

http://www.saarcor.de/

Gast
2004-08-12, 04:10:47
Also diese Karte hier:

http://graphics.cs.uni-sb.de/~jofis/SaarCOR/DynRT/Klein/SaarCOR-HW_with_description.jpg

aths
2004-08-12, 06:18:06
Der wegweisendste Chip war IMO NV20. Oder vielleicht doch der VS25203? ;)

Voodoo Graphics konnte einfach noch zu wenig, um einen "Weg" zu weisen.Gefilterte Texturen in Echtzeit. Voodoo Graphics konnte wenig, das aber sehr schnell. Voodoo beeindruckte nicht mit einer langen Featureliste, aber mit flüssiger 3D-Grafik.

reunion
2004-08-12, 10:44:34
Gefilterte Texturen in Echtzeit. Voodoo Graphics konnte wenig, das aber sehr schnell. Voodoo beeindruckte nicht mit einer langen Featureliste, aber mit flüssiger 3D-Grafik.

ACK, bis zur V1 war Spielen am PC ein Trauerspiel mit hässlichen Texturen und vor sich hinruckendeln Objekten, erst die legendäre Voodoo erlaubte flüssiges Spielen über 30fps.

MannDesAuges
2004-08-12, 14:57:47
Leider kann ich nicht voten, da der Riva128 fehlt. :P

Wegweisend verstehe ich nicht nur unter Berücksichtigung der technischen Features. Der Riva128 von NVidia war IMHO die erste brauchbare 2D/3D-Karte. Sie war in Q2 z.B. weder so flott, noch so hübsch wie die Voodoo Graphics, aber:
1. Mit OpenGL wurde im Gegensatz zu Glide eine offene Schnittstelle benutzt.
2. Die Karte war für den Mainstream-Consumer bezahlbar (bei dennoch akzeptabler Leistung und kein extra zu zahlendes Add-On).

Gerade der letzte Punkt hat IMHO 3dfx das Genick gebrochen, da die Firma sich auf ihren "Exlusiv-Produkt" zu lange ausgeruht hat, der VoodooBanshee kam zu spät und war lausig.
Eine Technik kann noch so toll sein, sie muss bezahlbar sein. Den Umsatz macht die Masse und dieses Geschäft ist das härteste.

KinGGoliAth
2004-08-12, 15:13:28
Leider kann ich nicht voten, da der Riva128 fehlt. :P

Wegweisend verstehe ich nicht nur unter Berücksichtigung der technischen Features. Der Riva128 von NVidia war IMHO die erste brauchbare 2D/3D-Karte. Sie war in Q2 z.B. weder so flott, noch so hübsch wie die Voodoo Graphics, aber:
1. Mit OpenGL wurde im Gegensatz zu Glide eine offene Schnittstelle benutzt.
2. Die Karte war für den Mainstream-Consumer bezahlbar (bei dennoch akzeptabler Leistung und kein extra zu zahlendes Add-On).

Gerade der letzte Punkt hat IMHO 3dfx das Genick gebrochen, da die Firma sich auf ihren "Exlusiv-Produkt" zu lange ausgeruht hat, der VoodooBanshee kam zu spät und war lausig.
Eine Technik kann noch so toll sein, sie muss bezahlbar sein. Den Umsatz macht die Masse und dieses Geschäft ist das härteste.

hm. das zweifel ich alles irgendwie aufs schärfste an weil
-eine voodoo karte war auch nich so teuer und man konnte sie auf vorhandene 2d karten aufbauen.
-"Sie war in Q2 z.B. weder so flott, noch so hübsch wie die Voodoo Graphics" wenn eine grafikkarte nicht mit den spielen klarkommt die ich spiele dann kauf ich mir die auch nicht. auch wenn die nur ne mark gekostet hat. was soll ich denn mit dem schrott? das is genau wie mit den (meisten) onboard grafiken: billig aber saulangsam. nur für office betrieb zu nutzen und keine spiele. jeder der einigermaßen ahnung und anspruch gehabt hat, hat sich ne vodoo auf seine billige 2d karte gesetzt und wußte dann was er hatte anstatt sich eine schlechte 2d/3d kombi zu kaufen.
-3dfx hat sich nicht ausgeruht. im gegenteil
voodoo 1 war ein hammerteil
voodoo 2 war (auch mit SLI) ein monstergerät und ist zum teil bis heute im einsatz und schneller als ne geforce 1 (von den mx modellen mal zu schweigen)
voodoo banshee war 2d grafik + voodoo 2 core (wenn ich mich richtig erinner) und auch ganz geil.
voodoo 3 war auch ohne richtiges agp nen gutes gerät. ich habe mit meiner voodoo 3 3000 pci problemlos noch max payne gezockt.
alles was später kam is leider nicht mehr ganz "fertig" geworden weil alle leute zu den t&l karten gelaufen sind.

von daher würde ich 3dfx nicht zu schlecht dastehen lassen. mal ganz davon abgesehen, dass die meisten alten spiele die ich aus der zeit habe in glide besser aussehen als in d3d oder opengl. und schneller laufen.
wenn man vergleicht was ati und nvidia zu voodoo 1 und 2 (und zum teil auch zu 3) zeiten hatten dann is das lächerlich.

InsaneDruid
2004-08-12, 15:23:36
Nur das der Riva128 Zeit ihres (aktiven) Lebens ein OpenGL Treiber gefehlt hat. Hatte selbst son Teil (naja, genaugenommen hatte ich 3, 2 Viper330 und ne Erazor), und es dauerte ewig und drei Tage bis die OGL Treiber kamen. Aber da war sie (die Karten) schon wieder veraltet. Hat mir dann noch als 2D Karte für meine diversen Voodoo2 gedient :)

Von daher seh ich das Argument nicht wirklich. Und Q2 @ Voodoo lief auch unter OpenGL und damals hatte sogut wie jeder Hersteller ne proprietäre API im Ärmel, NV setzte halt auf das (auch nicht "offene") DX.

Und schlussendlich waren die Karten bei Markteintritt NICHT deutlich im Preis von ner Voodoo zu unterscheiden.

sadasew
2004-08-12, 15:27:46
ne Voodoo2 war niemals schneller als ne GeForce1!!!
Auch mit SLI nicht!!!

Mal wieder ein Voodoofreak der blödes Zeug daher bringt!!!
Ihr lobt 3dfx immer so hoch dabei waren sie die größten Nieten!!
Wenn man Erfolg hat wie ATI oder NVidia dann muss die Leistung , das Produkt und die Werbung funzen!!!

Also alle 3DFX Freaks sind für mich nur Leute die nicht loslassen können!!

SKYNET
2004-08-12, 15:34:34
[x] Riva TNT 1/2
[x] NV10 (GeForce256)
[x] NV15 (GeForce 2)
[x] NV20 (GeForce 3)
[x] NV25 (GeForce 4Ti)
[x] NV30 (GeForce FX)
[x] NV40 (GeForce 6800)


jedesmal technologisch gesehn ein neuen meilen stein gelegt.

gevotet habe ich im übrigen für NV40, das beste stück grafik hardware der letzten 10 jahre.

KinGGoliAth
2004-08-12, 15:36:43
ne Voodoo2 war niemals schneller als ne GeForce1!!!
Auch mit SLI nicht!!!

Mal wieder ein Voodoofreak der blödes Zeug daher bringt!!!
Ihr lobt 3dfx immer so hoch dabei waren sie die größten Nieten!!
Wenn man Erfolg hat wie ATI oder NVidia dann muss die Leistung , das Produkt und die Werbung funzen!!!

Also alle 3DFX Freaks sind für mich nur Leute die nicht loslassen können!!

erzähl nix.
3dfx hat die ersten brauchbaren 3d karten gebracht. also so schlecht wie du behauptest könenn die dann ja nichgewesen sein. oder warum hat es vorher kein anderer hersteller geschafft sowas auf die beine zu stellen? da kannst du sagen was du willst.

und nen flamer können wir hier nicht gebrauchen. :down:

ps:
ein "!" -> wichtig
zwei "!" -> sehr wichtig
mehr als zwei "!" -> völlig unsinnig und keiner beachtung wert.

gilt übrigens auch für "?" :biggrin:

MannDesAuges
2004-08-12, 15:45:45
...jeder der einigermaßen ahnung und anspruch gehabt hat, hat sich ne vodoo auf seine billige 2d karte gesetzt und wußte dann was er hatte anstatt sich eine schlechte 2d/3d kombi zu kaufen.


...wenn der Papi ihm die Kohle in den Arsch bläst, oder wer und woher auch immer. Dein Diktum finde ich anmaßend.


voodoo banshee war 2d grafik + voodoo 2 core (wenn ich mich richtig erinner) und auch ganz geil.


IIRC haben die Leute über schlechte Treiberunterstützung und zu wenig Leistung zu vergleichbaren Produkten geklagt. Kann mich hier irren.

MannDesAuges
2004-08-12, 15:50:24
Nur das der Riva128 Zeit ihres (aktiven) Lebens ein OpenGL Treiber gefehlt hat.

Wie lange geht das "aktive" Leben, bis ein Nachfolgemodell auf dem Markt ist? Muss dann jeder sofort neukaufen?


Und schlussendlich waren die Karten bei Markteintritt NICHT deutlich im Preis von ner Voodoo zu unterscheiden.

Sicher?

roman
2004-08-12, 15:56:56
[x] Riva TNT 1/2
[x] NV10 (GeForce256)
[x] NV15 (GeForce 2)
[x] NV20 (GeForce 3)
[x] NV25 (GeForce 4Ti)
[x] NV30 (GeForce FX)
[x] NV40 (GeForce 6800)


jedesmal technologisch gesehn ein neuen meilen stein gelegt.

gevotet habe ich im übrigen für NV40, das beste stück grafik hardware der letzten 10 jahre.

Inwiefern haben Geforce 2 + 4 technologische Meilensteine gesetzt?

KinGGoliAth
2004-08-12, 15:57:13
...wenn der Papi ihm die Kohle in den Arsch bläst, oder wer und woher auch immer. Dein Diktum finde ich anmaßend.


und ich deine version beleidigend und abwertend. :P

es ist nunmal so:
entweder man kauft sich gleiche ne vernünftige grafikkarte oder man kauft sich zwei. nämlich zuerst eine "günstige" und dann eine vernünftige.

wie die leute die sich über eine geforce 2 mx für nen paar mark gefreut haben und sich dann gewundert haben warum die geforce 1 schneller war. :biggrin:

ActionNews
2004-08-12, 16:04:21
Schade, dass man nicht PowerVR PCX1/2 angeben kann.
Ich fand das TBDR wegweisend. Leider war PowerSGL viel unständlicher zu programmieren als Glide weshalb fast alle Spielehersteller auf Glide setzten. Von den Features halte ich PowerVR PCX1/2 der Voodoo1 mindestens ebenbürtig .

CU ActionNews

MannDesAuges
2004-08-12, 16:09:54
es ist nunmal so:
entweder man kauft sich gleiche ne vernünftige grafikkarte oder man kauft sich zwei. nämlich zuerst eine "günstige" und dann eine vernünftige.

wie die leute die sich über eine geforce 2 mx für nen paar mark gefreut haben und sich dann gewundert haben warum die geforce 1 schneller war. :biggrin:

vernünftig = HighEnd = (sehr) teuer? doch anmaßend?

Kein Scherz. Die MX hat die Segmentierung des Graka-Markts total umgekrempelt. Vorher gab es quasi einen Hersteller pro Preissegment. Mit der MX hat NVIDIA gezeigt, dass auch ein einziger Hersteller mehrere Preissegmente bedienen kann, und das auch noch sehr erfolgreich -- auch bezogen auf die Synergieeffekte in Entwicklung und Marketing.

Wenn du dir ansiehst, wann sich die ganzen anderen Chipschmieden (S3, 3DLabs, Rendition) aus dem Consumer-3D-Geschäft zurückgezogen haben, dann wirst du wahrscheinlich feststellen, dass das zu grossen Teilen mit der Veröffentlichung der Geforce 2MX zusammenhing.

ATI war die einzige Firma, die das überlebt hat, und zwar indem sie das Rezept kopierten (nannte sich damals Radeon VE).

Von der reinen Performance her ist die MX natürlich alles andere als revolutionär, und auch von den Features her ist sie nicht besonders sexy. Trotzdem war das IMO das Produkt, mit dem dieser Markt erst richtig erwachsen wurde.

Merkst du was? Ich habe in meinem ersten Post hier auch betont, dass ich wegweisend nicht ausschließlich gleich Leistung/Geschwindigkeit und technischer Vorsprung setzte.

KinGGoliAth
2004-08-12, 16:17:42
hm.

scheinbar haben wir beide da unterschiedliche vorstellungen.

ich für meinen teil würde für eine grafikkarte (oder für alles andere auch) lieber ein bischen mehr geld ausgeben und dann etwas "vernünftiges" im sinne von gut und solide haben.

man bekommt immer das wofür man bezahlt. is ja klar.

wenn ich etwas wirklich gutes für 100€ haben kann dann kaufe ich mir keine mittelklasse für 80 euro.

is zumindest meine einstellung. und nicht nur bei grakas oder hardware sondern überall.

InsaneDruid
2004-08-12, 16:17:44
Wie lange geht das "aktive" Leben, bis ein Nachfolgemodell auf dem Markt ist? Muss dann jeder sofort neukaufen?

Ja, bis zum Nachfolger. Und nein, dann "muss" man nicht sofort eine neue kaufen, aber die Karte ist dann veraltet, und kann dann ganz sicher nicht mehr "wegweisend" sein. Der Treibersupport damals war ein Flop, da saß man nun, das teure Kärtchen im Rechner ind zockte Quake2 im Softwarerenderer. Sehr prickelnd. In der frühen Zeit (die du offenbar nicht mitgemacht hast) lief kaum ein Game auf der Karte anständig. Das war nunmal die große Zeit der Voodoos, die rulten da surpreme.

Sicher?

Sicher. Die Voodoos waren damals recht preiswert, klar gibt es immer billigeres, aber schon für meine MiroSD20 hatte ich 750DM hingelegt.. Anno 1993. Da kamen später selbst die 650 Steine für ne 12MB V2 noch günstig.

MannDesAuges
2004-08-12, 16:31:19
Ja, bis zum Nachfolger. Und nein, dann "muss" man nicht sofort eine neue kaufen, aber die Karte ist dann veraltet, und kann dann ganz sicher nicht mehr "wegweisend" sein. Der Treibersupport damals war ein Flop, da saß man nun, das teure Kärtchen im Rechner ind zockte Quake2 im Softwarerenderer. Sehr prickelnd. In der frühen Zeit (die du offenbar nicht mitgemacht hast) lief kaum ein Game auf der Karte anständig. Das war nunmal die große Zeit der Voodoos, die rulten da surpreme.

Sicher. Die Voodoos waren damals recht preiswert, klar gibt es immer billigeres, aber schon für meine MiroSD20 hatte ich 750DM hingelegt.. Anno 1993. Da kamen später selbst die 650 Steine für ne 12MB V2 noch günstig.

Die GeForce 2MX z.B. war, als sie auf den Markt kam, technisch nicht das Top-Produkt, da es schnelleres gab. Auch du setzt "wegweisend" gleich technologisch wegweisend?
Ich hatte für meine Riva128 IIRC ca. 300 DM damals gezahlt.


In der frühen Zeit (die du offenbar nicht mitgemacht hast) lief kaum ein Game auf der Karte anständig.


Pssst: Ich zocke seit man kleine Boxen zum Anschluss an das TV-Gerät kaufen konnte. ;)

InsaneDruid
2004-08-12, 17:45:35
Nein. Die GF2MX hatte aber wenigstens funktionierende Treiber. Die Voodoo1 war sicherlich NICHT technologisch wegweisend, aber sie war der erste massenverfügbare Chip der zb hinreichend schnell bilinear filtern konnte.

Die Riva128 konnte dies in ihrer "active time" eben nicht wirklich, da ihr zb komplett der OGL Treiber fehlte. Die Karte war somit weder technologisch, nach markttechnisch wegweisend. Einfach weil sie unfertig auf den Markt kam.

Und btw mit den "frühen Zeiten" meinte ich die frühen Zeiten der Riva128. Ich hatte das Teil sobald es hier in DE verfügbar war. Ich hab gesehen wie wegweisend die Treiber nicht existent waren. :)

Unreg. B-Loch
2004-08-12, 18:03:44
Skynet schrieb:
[x] Riva TNT 1/2
[x] NV10 (GeForce256)
[x] NV15 (GeForce 2)
[x] NV20 (GeForce 3)
[x] NV25 (GeForce 4Ti)
[x] NV30 (GeForce FX)
[x] NV40 (GeForce 6800)


jedesmal technologisch gesehn ein neuen meilen stein gelegt.

gevotet habe ich im übrigen für NV40, das beste stück grafik hardware der letzten 10 jahre.
ich schreibe: Spacko! LoL!
NV40 (technologisch gut),
NV30 (technologisch gut, aber lahm wie nix ---> Vergleichbar mit der Virge; R300 kam früher und bot zur zeit der NV25 mehr Leistung und bessere Technologie -> R300),
NV25 (öhm... shice Teil),
NV20 (DX8 hmm... kann man auch 8500 nehmen)
NV15 (öhm.... außer höherer Taktung... lol)
NV10 (TnL. Ok. )
TNT1/2 (Naja...)

Alles in Allem: NV-FANBOY ;)

mein Vote geht an die Voodoo ;) (nur kann man als Gast net voten :D )

Chris Lux
2004-08-12, 18:11:09
Ja, bis zum Nachfolger. Und nein, dann "muss" man nicht sofort eine neue kaufen, aber die Karte ist dann veraltet, und kann dann ganz sicher nicht mehr "wegweisend" sein. Der Treibersupport damals war ein Flop, da saß man nun, das teure Kärtchen im Rechner ind zockte Quake2 im Softwarerenderer. Sehr prickelnd. In der frühen Zeit (die du offenbar nicht mitgemacht hast) lief kaum ein Game auf der Karte anständig. Das war nunmal die große Zeit der Voodoos, die rulten da surpreme.


full ack...


Sicher. Die Voodoos waren damals recht preiswert, klar gibt es immer billigeres, aber schon für meine MiroSD20 hatte ich 750DM hingelegt.. Anno 1993. Da kamen später selbst die 650 Steine für ne 12MB V2 noch günstig.

ich kann mich noch erinnern, meine TNT2Ultra 32MB hab ich für 450DM gekauft und die war zu dem zeitpunkt brandneu und der primus....

Marodeur
2004-08-12, 18:29:15
Für mich wegweisend auch eindeutig die Voodoo 1...

Erinner mich noch halbwegs dran... Zuerst hatte ich als "Beschleuniger" eine Matrox Millenium, damals das superteil... Mit Nascar Racing als Game anbei... Dann kam die Voodoo und es ging richtig los... Einfach blos WOW... :eek:

Riplex
2004-08-12, 19:23:26
Grafikkarten Laufbahn:

Voodoo I (450 DM)
Voodoo II (380 DM)
Voodoo 3 3000 (300 DM)
Elsa GF256 mit SD-RAM *lol* (400 DM)
Asus GF 2 Pro (449 DM)
Asus GF 3 Deluxe (479 DM)
Asus GF 4 TI 4400 (269 Euro)
Asus FX 5900 nU (379 Euro)

Was ist den mit dem S3 Virge ? War das nicht der erst 3D Grafikchip ?

LovesuckZ
2004-08-12, 19:41:56
IIRC haben die Leute über schlechte Treiberunterstützung [...] geklagt.

Einen Treiber fuer Quake3, einen fuer Starcraft.
War die Zeit schoen mit der Banshee :ugly:

Sunrise
2004-08-12, 20:44:52
...
voodoo 2 war (auch mit SLI) ein monstergerät und ist zum teil bis heute im einsatz und schneller als ne geforce 1 (von den mx modellen mal zu schweigen)...
Bitte keine Gerüchte in die Welt setzen...

NV10 (GeForce 1 SDR / DDR) vs. Voodoo2 SLI war kein wirkliches Duel. Die GeForce 1 war ihrer Zeit extrem voraus (4x1), bot bei weitem die bessere Bildqualität (nicht nur die Filterung, auch das Durchschleifen der Karten(n) entfiehl hier komplett) und sie war mehr als deutlich schneller. Sogar eine Quantum3D Obsidian2 X-24 SLI (2x Voodoo2 auf einer Karte) hatte hier deutlich das Nachsehen, aber die Karte war so teuer, dass damals wirklich nur die richtigen Freaks zugegriffen hatten.

-> Die "Creative Labs 3D Blaster Annihilator Pro AGP" (DDR-Modell) läuft seit ich sie damals gekauft habe heute noch butterweich, FarCry und D3 sind die einzigsten Spiele, die absolut nichtmehr spielbar sind. Die Karte ist seit 1999 im Rechner, hat bisher jedes Spiel seit damals mitgemacht und war die beste Investition, die ich im PC-Bereich jemals getätigt habe.

@Topic:
Die Voodoo1 war definitiv ein Phänomen und damals die einzige Karte, welche den PCPlayer-Würfel vollständig (inkl. Textur) und ordentlich (mit bilinearer Filterung) zum rotieren brachte -> Die Massen waren begeistert.

Die GeForce 1 und vor allem die GeForce 2 MX ließen NV zum endgültigen Big-Player der GPU-Industrie aufsteigen und das völlig zurecht. Ich kann zeckensack hier nur zustimmen.

Xmas
2004-08-12, 21:16:29
Gefilterte Texturen in Echtzeit. Voodoo Graphics konnte wenig, das aber sehr schnell. Voodoo beeindruckte nicht mit einer langen Featureliste, aber mit flüssiger 3D-Grafik.
Schön und gut, aber ich finde reine Geschwindigkeit nun mal nicht besonders "wegweisend".

Quasar
2004-08-12, 21:55:10
Damit du auch was zum Vergleich hast (Specs entsprechen meinem Rechner mit dem ich dieses hier gerade tippe):

http://www.mdgx.com/bench.htm#BEN


Sorry, aber aus den Angaben werd' ich nicht schlau - ein 700er Coppermine, der einen Multi von 13 hat, eine GF1 DDR mit 300MHz Chiptakt?

Sry4 OT

Sunrise
2004-08-12, 23:32:38
Sorry, aber aus den Angaben werd' ich nicht schlau - ein 700er Coppermine, der einen Multi von 13 hat, eine GF1 DDR mit 300MHz Chiptakt?

Sry4 OT
Scheinbar hat er erst später mit einem Powerleap Slot-1-Adapter auf einen "Intel FC-PGA2 370 pins Socket Pentium III Tualatin SSE Celeron 1.3 GHz" aufgerüstet, das erklärt den 13er Multi. Außerdem scheint er bei einem Upgrade des Systems die GF1DDR durch eine GF4-4600 ersetzt zu haben, was auch nicht sonderlich klar ersichtlich ist.

Der Link ist generell mit Vorsicht zu genießen, (ich habe leider keine besseren Vergleich mehr finden können) da der Autor der Seite einiges durcheinandergewürfelt hat.

Ein paar Durchläufe 3DMark2000 v.1.1 und Q2 v3.20 Demo2.dm2 später, komme ich aber zu dem Schluß, dass die Benchwerte nahezu mit meinem P3-650@725 und GF1DDR@135|345 übereinstimmen und gehe daher auch davon aus, dass er diese Benches noch mit dem alten System gefahren hat.