PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Retro-Vergleich: Grafikkarten zum Jahrtausendwechsel (3dfx, ATi, Matrox, nVidia & S3)


Mega-Zord
2017-07-23, 19:36:31
Einleitung
Wir befinden uns im Jahr 1999. Wir sind gerade dabei uns einen neuen PC zu kaufen. Dabei achten wir natürlich peinlichst auf das "Year 2000 ready" Label. Noch viel wichtiger ist uns Gamern aber natürlich, welche Grafikkarte soll in den Rechner. Eigentlich wäre die korrekte Antwort natürlich "GeForce 256", aber damals war noch DirectX 6 angesagt. Wir hätten sonst auch nicht die Qual der Wahl gehabt, sondern, wie heute, mit "Friss oder stirb!" vorlieb nehmen müssen. Wir halten uns also noch einmal kurz vor Augen, dass 1999 vorerst letztmalig so viele mehr oder weniger konkurrenzfähige Hersteller Grafikchips für den Gamer im Angebot haben.

Die Testkandidaten
http://galerie.lanhost.de/d/104320-1/dx6gpus.jpg
Meine Auswahl von Dx6-Karten. Warum es zwei ATI-Karten gibt wird noch geklärt


InnoVison Savage4 Pro Extreme
3dfx Voodoo3 3000
Ati Rage Fury Maxx
Hercules Rage 128 Pro
Matrox G400 MAX
MSI nVIDIA Riva TNT2 Pro


Ich selber habe vor 18 Jahre leider keine dieser Karten besessen. Mein Mediamarkt PC von 1998 hatte eine Ati Xpert2000, die trotz damals üppigen 32 MB nicht gerade schnell war.
Wärend meiner kleinen Benchmark Session musste ich leider feststellen, dass die ursprüngliche Liste (ohne Rage 128 Pro) nicht ganz korrekt ist. Die Rage Fury Maxx war von Ati damals eigentlich als Gegenspieler zur GeForce gedacht war... Nun weiß ich auch, warum sie heute so schwer zu bekommen ist. Das Teil war der GeForcer leider recht gnadenlos unterlegen und das zum gleichen Preis. Ich habe also noch schnell eine Hercules Rage 128 Pro hinterher geschickt.

Es folgt eine Kurzübersicht der Karten...

InnoVison Savage4 Pro Extreme

GPU: S3 Savage4 Pro
VRAM: 32 MB SDR (64 bit)
Takt (GPU/RAM): 115/110 MHz
Startpreis: ca. 250,- DM


http://galerie.lanhost.de/d/104334-1/3DC_Savage4_Pro_a.jpg


3dfx Voodoo3 3000

GPU: 3dfx Avenger
VRAM: 16 MB SDR (128 bit)
Takt (GPU/RAM): 166/166 MHz
Startpreis: ca. 400,- DM


http://galerie.lanhost.de/d/104342-1/3DC_Voodoo3_3000_a.jpg


ATI Rage Fury Maxx

GPU: 2x Rage128 Pro
VRAM: 2x 32 MB SDR (128 bit)
Takt (GPU/RAM): 125/143 MHz
Startpreis: ca. 600,- DM


http://galerie.lanhost.de/d/104330-1/3DC_RageFury_Maxx_a.jpg

Ich möchte mich an der dieser Stelle ganz herzlich bei Screemer (https://www.forum-3dcenter.org/vbulletin/member.php?u=17583) bedanken, der mir die Maxx für diesen Test zur Verfügung gestellt hat.

Matrox Millenium G400 MAX

GPU: G400 (Toucan)
VRAM: 32 MB SGR (128 bit)
Takt (GPU/RAM): 150/200 MHz
Startpreis: ca. 600,- DM


http://galerie.lanhost.de/d/104322-1/3DC_G400_MAX_a.jpg


MSI (MS8806) Riva TNT2 Pro

GPU: nVIDIA NV5
VRAM: 32 MB SDR (128 bit)
Takt (GPU/RAM): 143/166 MHz
Startüreis: ca. 400,- DM (kam aber ca. 6 Monate nach der Ultra, als es schon die GF1 zu kaufen gab)


http://galerie.lanhost.de/d/104338-1/3DC_TNT2_Pro_a.jpg


Hercules Rage 128 Pro

GPU: ATI Rage 128 Pro
VRAM: 32 MB SDR (128 bit)
Takt (GPU/RAM): 120/120 MHz
Startpreis: ca. 300,- DM


http://galerie.lanhost.de/d/104326-1/3DC_Rage128_Pro_a.jpg


Nun sollte auch klar sein, warum ich die GF256 als Spielverderber außen vor gelassen habe. S3, 3dfx und Matrox sind kurze Zeit später vom Spielfeld der Gamer-Grafikkarten verschwunden. Seit dem kann man hier in Kaufberatungsthreads herrlich trollen, wenn man fragt, welche Grafikkarte man kaufen soll.

Natürlich wollen wir herausfinden, welche Grafikkarte es nun für unseren Millenium PC werden soll. Wir müssen also wissen, wie schnell sie sind. Dazu benötigen wir natürlich Schwanzmark-Programme. Meine Auswahl hierfür war mehr oder weniger Glücklich, große Wagnisse waren nicht dabei.


Final Reality (D3D)
3DMark99 (D3D)
3DMark2000 (D3D)
3DMark2001SE (D3D)
GL Excess (OpenGL)


Mir ist bewusst, dass diese Auswahl kritikwürdig ist und ich mal besser auch eine oder zwei Timedemos benutzen hätte sollen. Aber ich war auch ein bisschen froh, dass überhaupt alles lief. Das ist bei der Treiberqualität von ATI und S3 wohl keineswegs selbstverständlich.

Das Testsystem:

ASUS P3B-F (BIOS 1008)
MSI MS-6905 Master (Ver. 2) Sockeladapter
Intel Pentium III Processor 900 MHz, 256K Cache, 100 MHz FSB
768 MB PC-133 RAM
Creative Sound Blaster Live! 5.1
Intel Pro/100 LAN
Adaptec 29160LP Ultra160 SCSI Adapter
ASUS 50x CD Laufwerk
Fujitsu MAN3367MP 36 GB SCSI HDD
Enermax 365 Watt Netzteil


Das ganze befinden sich in dem Fujitsu-Gehäuse meines 1998 erworbenen Mediamarkt PCs... ja, der aus dem 2. Absatz. Die verbauten Komponenten von damals besitze ich allerdings nicht mehr, lediglich das Floppy Laufwerk könnte noch original sein.

Als Betriebssystem kommt natürlich Windows 98 SE zum Einsatz. Aktuelle Treiber und Viren sind installiert.

Verwendete Grafiktreiber:

S3 4.12.01.8228-8.20.33
Amigamerlin 2.9 für die Voodoo3
ATI 4.12.7942 (Maxx) und 4.13.7192 (Rage 128 Pro)
Matrox 6.82.016.0
nVIDIA 41.09


Benchmarkergebnisse

1. Final Reality war von den Max Payne Jungs (Remedy), bevor sie das Spiel rausgebracht haben. In einem der Tests fliegt ein Shuttle durch eine Wolkenkratzer-Metropole, wo man deutliche Hinweise auf das spätere Spiel findet. Der Benchmark ist ein Blick wert, allerdings sind die Ergebniss bei "neueren" Karten, wie jene in diesem Review, mit Vorsicht zu genießen.

http://galerie.lanhost.de/d/104315-1/FR.jpg

2. Wenn es um die DirectX 6 Features geht, ist man mit dem 3DMarkt99 vermutlich nicht ganz falsch beraten. Ich wäre davon ausgegangen, dass sich die Rage Fury Maxx Platz 1 mit deutlich mehr Vorsprung sichert. Aber hier und bei den folgenden Ergebnissen ist ganz gut zu erkennen, dass die G400 MAX nicht nur ein Papiertiger war.

http://galerie.lanhost.de/d/104309-1/3DMark99.jpg

3. Bei der 2000er Version des Mad Onion Benchmarks kämpfen alle Karten ohne Hardware T&L. Die Maxx gewinnt mit deutlichem Vorsprung aber die Matrox bleibt wieder knapp vor der nVIDIA-Karte.

http://galerie.lanhost.de/d/104311-1/3DMark2000.jpg

4. 32 bit kann die Voodoo nicht und daher kommt sie auch leider nicht mit in Wertung des 3DMark2001. Hier ging beiden ATI Karten deutlich die Puste aus. Besonders bei Game 3 (Lobby) auf High schien die Maxx treiberbedingte Probleme zu haben, denn ansonsten war sie immer dicht bei der TNT2 Pro.

http://galerie.lanhost.de/d/104313-1/3DMark2001.jpg

5. Damit die Voodoo3 auch mal was gewinnt, wollte ich eigentlich noch einen OpenGL Benchmark bringen. Aber da hat die TNT2 Pro alle anderen Karten so ziemlich gut in die Schranken gewiesen. Das hier die G400 so stark war, hat mich aber wirklich gewundert, weil afair OpenGL nicht gerade die Stärken der der Matrox Treiber war. Die ATI Karten haben hier auch nicht wirklich gut ausgesehen und somit war die S3 einmal nicht letzter.

http://galerie.lanhost.de/d/104317-1/GLXS.jpg

Mein Fazit

Als erste möchte ich noch einmal ein dickes Dankeschöne an Screemer geben für die geliehene Rage Fury Maxx. Diese Karte ist einer der wenigen weißen Flecken in meiner Sammlung und sicher ein genauso tolles Sammlerstück wie etwa eine Voodoo5 oder Matrox Parhelia.

Ich habe mittlerweile die eine oder andere 3D-Karte in meiner Sammlung. Das wesentliche von der Voodoo Graphics bis zur GeForce GTX 480 ist vorhanden. Aber natürlich macht Besitz alleine nicht Glücklich und deshalb ist es immer wieder schön, die Karten in Aktion zu sehen. Die Karten werden von mir in der Regel nach Erwerb kurz auf Herz und Nieren getestet. Es gibt natürlich nur wenige Karten, die einen permanenten Platz in einem Retro-PC bekommen. Deswegen hat es mir hier um so mehr Spaß gemacht, diesen inszenierten Test zu machen und dieses Review zu schreiben. Ich hoffe, dass das hier auch einigen anderen Mitgliedern und Gästen hier gefällt. Ich hoffe, es motiviert zur Nachahmung. Vielleicht mache ich so etwas in der Art noch einmal. Ich bin stets für Wünsche und Anregungen offen.

Nun kommen wir mal zum Ernst der Sache. Hier müssen einige Produkte hochgejubelt und andere durch den Schmutz gezogen werden. Der Savage4 Pro muss ich in diesem Test lassen, dass sie sich einwandfrei installieren ließ und ohne groß was zu tweaken lief. Die Leistung lässt natürlich keinen Sturm der Begeisterung aufkommen. Die Karte war wohl eher als Konkurrenz zur Vanta und später TNT2 M64 gedacht. Aber für ein paar DM mehr hätte ich bei Geldknappheut wohl eher in eine V3 2000 oder eben eine Rage 128 Pro investiert. Interessant bleibt aber die OpenGL Performance. Ich denke, dass ich dass noch einmal in Spielen testen werde.

Die Rage 128 Pro hat meiner Meinung nach fürs aufgerufene Geld recht ordentlich was geboten. Wobei ich erst einmal über ein sooo altes Problem bei ATI meckern muss. TREIBER! Es war mir nicht mögliche die Hercules und eine andere ATI Rage 128 Pro Ultra mit dem von AMD zur Verfügung gestellten Treibern für diese Karten einfach per Doppelklick zu installieren. Eine geeignete Grafikkarte wurde nciht gefunden, hieß es da lapidar. Ich musste mir die Vendor IDs der Karten anschauen und mit denen der .ini-Datei im Treiberverzeichnis vergleichen. Über den Gerätemanager habe ich dann die Installation einer Rage Fury Pro erzwungen, die mit geeignet schien. So sollte es im Jahr 1999 nicht mehr zugehen! Aber als sie lief, war die Performance ok und die Bildqualität auch.

Eigentlich hat der siamesische Zwilling von ATI ganz gut geliefert und konnte zwei von vier Benchmarks für sich entscheiden (Final Reality zählt nicht wirklich). Aber wenn man Bedenkt, dass die anderen Kandidaten hier im Feld eigentlich gar nicht die Gegber waren, sonder der neue GeForce-Chip von nVIDIA, ist das Ergebnis etwas ernüchternd. Eine Elsa Erazor jagt die Rage Fury Maxx durch die Benchmarks, wie ein Pitbull ein Kleinkind auf dem Spielplatz (steile These, aber Beweis folgt). Weiterhin ist diese Grafikkarten nicht unter Windows NT zu gebrauchen, da die Treiberarchitektur nur unter Win9x funktioniert. Unter Win2k und XP ist die Karte eigentlich nur noch eine mittelmäßig getaktete Rage 128 Pro. Im Umfeld der anderen DirectX 6 Karten und unter Windows 98 SE macht die Karte aber Laune und hat mich nicht zuletzt wegen des Seltenheitsfaktors hoch erfreut. Die ca. 100,00 EUR, die in der Bucht dafür aufgerufen werden, ist sie mir jedoch nicht wert.

Ich frage mich ob es zu hart ausgedrückt ist, wenn ich die TNT2 Pro eine seelenlose Ansammlung von integrierten Schaltungen nenne? Aber das trifft es eigentlich ganz gut. Die Karte hat immer geliefert, die Treiber funktionierten reibungslos und die Karte war und ist günstig. Leider fehlt ihr die gewisse Exklusivität einer Rage Fury Maxx oder einer G400 MAX... sie ist eben keine 6 Monate ältere TNT2 Ultra. Die TNT2 wurde von NV mit Erscheinen der GeForce 256 einfach noch einmal in der günstigeren Fertigungsweise als Pro noch einmal neu aufgelegt. Somit war es eine Karte für die letzten Schnäppchenjäger, des letztens Jahrtausends, die nichts wagen wollten. Short story long telled.

Die Voodoo3 3000 ist realistisch gesehen nur... *BAM* *Aua!!!* Glide ist 1999 immer noch eine wichtige 3D-API. Wenn ein Spiel Glide unterstützt, will man eine Voodoo haben. Das 32bit-Gelaber ist auch nur dazu da, um davon abzulenken, dass 16 bit mit einer nVIDIA auch echt scheiße aussieht. Colour Bending konnte ich bei einer 3dfx Karte trotz 16 bit Farbtiefe nie erkennen. Unreal, diverse Need for Speeds, Tomb Raider uvm. sehen mit Voodoo-Karten einfach besser aus. Diablo 2 spiele ich heute noch mit Glide-Wrapper. Ein solcher Test hier vermag es nicht, die Stärken einer Voodoo3 hervorzuheben. Traurige Fakt ist aber leider auch, dass 3dfx damals schon der Underdog war... nur wussten sie es noch nicht.

Die Matrox G400 MAX ist kein billiges Spielzeug. Wie die TNT2 Ultra wurden ca. 600,- DM aufgerufen. Dafür gab es eine selektierte und hochgetaktete G400-GPU und für damalige Verhältnisse unfassbar schnellen VRAM. Erst die DDR-Variante der GeForce hatte mehr Speicherbandbreite. Man muss zugeben, dass Enviroment Bumpmapping kein Feature war, was sich groß durchgesetzt hat, aber haben ist besser als brauchen. Die Möglichkeit, zwei Monitore an eine Karte anzuschließen war 1999 noch lange kein Standard. Hinzu kommt, dass Matrox es hinbekommen hat, ordentlich Software für das vernüftige Ansteuern von zwei Screens unter Windows zu ermöglichen. Sowas wollte man damals eigentlich nur auf dem Mac unter OS9 machen. Die Qualität des VGA-Signals ist extrem geil. Selbst auf neuen TFTs vermisst man den DVI-Ausgang nicht (natürlich nur solange der TFT noch analog angesteuert werden kann). Das die Karte nicht nur auf dem Papier Hammer ist, lassen die Benchmarks IMO wenigstens erahnen. Sie hat mich etwas überrascht und ist mein persönlicher Begleiter fürs Zocken ins Jahr 2000

Nachtrag

Es ist nicht ganz einfach, die ursprünglichen Preise der Karten zu recherchieren. Teil weise sind die Werte geschätzt bis geraten. Für sachdienliche Hinweise oder alte Alternate Doppelseiten-Anzeigen bin ich immer zu haben.
Der eine oder andere mag jetzt auch behaupten, dass man für unsere gute Deutsche Mark ach so viel bekommen hat. "600 Mark, dass sind 300 Teuro... dafür bekomtm man ja nichts mehr im High End Segment!" Bei einer geschätzen durchschnittlichen Inflationsrate von 3% entsprechen 600,- DM heute einer Kaufkraft von ca. 500,00 EUR. Dafür gibt es fast eine 1080. Das schlimme ist, dass die ganzen Spinner jedes Jahr etwas mehr Scheinrecht haben... aber dafür leben sie auch immer mehr in der Vergangenheit.

patrese993
2017-07-23, 20:11:07
War bei Win98 nicht was, daß bei 512MB RAM Schluß war?

Ich hab auch noch so einen Rechner rumstehen, den ich damals beim Blödmarkt geholt hatte...
Ein Pentium III 500, dann mit 384MB, ner ATI Xpert, die dann einer Elsa Erazor III gewichen ist, habe entsprechend für die TNT2 abgestimmt.

Rooter
2017-07-23, 20:29:45
[x] Rage 128 Pro

War bei meinem ersten PC dabei (gekauft vor 18 Jahren...) und ich war überrascht wie gut die sich auch Jahre später noch schlug.

War bei Win98 nicht was, daß bei 512MB RAM Schluß war?
Um mehr als 512 MB Arbeitsspeicher betreiben zu können, sind kleine Veränderungen, z. B. an der system.ini, notwendig. Dazu wird der VCache begrenzt. Ab 1 bis 2 GB muss der adressierbare physische Speicher MaxPhysPage begrenzt werden, um die Stabilität des Systems aufrecht zu erhalten.

MfG
Rooter

patrese993
2017-07-23, 20:42:25
[x] Rage 128 Pro

War bei meinem ersten PC dabei (gekauft vor 18 Jahren...) und ich war überrascht wie gut die sich auch Jahre später noch schlug.




MfG
Rooter

:up:
wußte doch, daß ich da noch was im Hinterkopf hatte, danke!
Bekomm grad Lust, die Kiste mal wieder in Betrieb zu nehmen *g*

seba86
2017-07-24, 00:38:53
[x] Rage 128 Pro
War bei meinem ersten PC dabei (gekauft vor 18 Jahren...) und ich war überrascht wie gut die sich auch Jahre später noch schlug.


sorry, ich bin erst mit einer Geforce 2 MX400 @P3 900 im Millenium-Jahr richtig eingestiegen (davor 2D @P1 133)... aber die Rage 128 Pro war doch von vornerein mies?! An welchen Spielen warst du überrascht?

--
Die Geforce 256 hätte noch reingepasst... sicher wäre im einen oder anderen Spiel die TNT2 Ultra oder G400Max dennoch schneller gewesen?!

Nein, die Geforce 256 hat alle Grafikkarten vernichtet (http://www.tomshardware.com/reviews/full-review-nvidia,134.html), auch in der SDR-Version.

Loeschzwerg
2017-07-24, 07:56:14
[x] TNT2 wäre meine Wahl

Damals hat es bei mir nur für eine M64 gereicht... Gothic 1 war da eine ziemliche Qual ^^ Der Rest des Systems war mit einem Athlon Classic 550MHz und 2x 64MB bestückt.

seba86
2017-07-24, 08:16:30
Für Gothic 1 hat aber selbst eine Ati Rage II onboard 4MB gereicht @maximal Details, die nochmal mindestens 50% schlechter war.

Ich glaube es lag eher am RAM+CPU...

Loeschzwerg
2017-07-24, 08:46:37
Rage II onboard und max. Settings? :| Sicher nicht ^^ Aber ja, das Spiel lief auch mit schlechter Hardware, sah dann halt nur unterirdisch aus :D

Wenn schon eine Voodoo 6000 nur solche Werte liefert:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=328908

seba86
2017-07-24, 09:09:24
Eben alle Schieber nach rechts (bis auf die CPU-typische Sichtweite) gingen problemlos - deswegen hat es sich ja in meinen Gedächtnis eingebrannt! Auflösung war aber 640x480. War definitiv auch spielbar mit 192 MB RAM.

EDIT: Gothic 1/2 ist zu 99% rein CPU limitiert.

Loeschzwerg
2017-07-24, 09:52:47
Wundert mich dennoch, auch wenn das Spiel stark CPU/RAM limitiert ist. Vermutlich wurde durch einen Treiberfehler nicht die vollen Texturen dargestellt, denn ich meine auch eine Voodoo 3 hatte da so manche Probleme bei der Leistung. Kann mich aber auch täuschen, ist lange her :) Müsste man mal testen (Mega-Zord?! ;)).

Mr.Magic
2017-07-24, 10:11:43
Gothic war der erste Titel, bei dem das fehlende Hardware T&L, mir mit der Voodoo den Spaß verdarb.
Das Spiel lief auf meinem Hauptsystem damals, Voodoo 5 in 800x600 mit 2xAA + Athlon 1333, einfach nicht rund. Auf dem Zweitsystem, GeForce 2 Ti in 1024x768 mit 4xAA + Athlon 850, war es dagegen absolut spielbar.

Hardware natürlich AFAIR. Kann sein, dass ich fürs tatsächliche Spielen die GF2 mit dem Thunderbird gepaart hatte. Ich erinnere mich für Gothic mit RAID 0 experimentiert zu haben. Das waren schöne Zeiten. Einfach mal kurz in der Arbeit Hardware aus dem Regal nehmen, und ausprobieren...

vad4r
2017-07-24, 10:45:20
Ich bin schon recht früh auf den Nvidia Zug gesprungen und hatte mir nach der Matrox Mystique eine TNT1, danach die TNT2 geholt. Meine V2 als Begleitschutz hatte ich da noch immer mit dabei...

seba86
2017-07-24, 10:45:36
Was shice ist, dass man die ersten 3 Gothic-Teile nur mit Rucklern spielen kann - auch auf 5Ghz Kaby-Lakes @ RAM-Disk @ 1080Ti @ 128GB DDR4 . Zumindest da war Gothic 4 Arcania (war nicht mal sooo schlecht) den Vorgängern weit voraus. Aber man gewöhnt sich dran. Und bei Risen hat man das ja auch gefixt.

Loeschzwerg: Ja, wer weiß xD

BTW Passend zum Thread noch:

- Auf einer Voodoo3 lief die Stalker-Beta (war eine kleine Insel, noch mit kazaa lite runtergeladen; habe die vielleicht noch da) @640x480 mit über 30fps sehr flüssig durch. Hat mich gerade wegen den 16MB VRAM gewundert. Aber im nachhinein hat Stalker sehr humane Anforderungen, lief es auch spielbar auf einer GMA950 bzw. mit mittleren-hochen Details auf einer GMA 4500.
- HL² lief auch mit einer G400MAX mit größeren Grafikfehlern. Je nach Szene etwas bis gar nicht spielbar.
- Dark Project 1, welches zwingend eine 3D-Karte zum Laufen benötigte, lief bei mir auch auf einem P1 133 mit 2MB onboard 2D-only-CirrusLogic-Grafik schwarz-weiß in winzigem Fenster flüssig - als ich nach 30 sekunden Kokel-Geruch wahrnahm habe ich den Rechner vom Strom genommen. Lief aber nach jener einmaligen Aktion reibungslos weiter

Mark3Dfx
2017-07-24, 10:59:16
[x] Matrox Mystique G220 4MB + 4MB SGRAM Modul & Diamond Monster 3Dfx
und dann mit dem SW Force Feedback Joystick MW2 zocken...

hAch

BlacKi
2017-07-24, 11:12:23
[x] TNT2 wäre meine Wahl

Damals hat es bei mir nur für eine M64 gereicht...
genau wie bei mir. meine hatte 32mb Vram. damals war nur der preis und der Vram ausschlagebend für den kauf. war kein fertig pc, den hab ich damals aus alten gebrauchten und teils neuen teilen zusammengebaut. ich hab damals die karte mit einem celeron 300A mit 64mb ram und 20gb hdd betrieben. die nachladeruckler waren nicht sehr schön in deus ex, aber damals konnte man sowas noch ertragen.^^

Mega-Zord
2017-07-25, 00:59:39
Wundert mich dennoch, auch wenn das Spiel stark CPU/RAM limitiert ist. Vermutlich wurde durch einen Treiberfehler nicht die vollen Texturen dargestellt, denn ich meine auch eine Voodoo 3 hatte da so manche Probleme bei der Leistung. Kann mich aber auch täuschen, ist lange her :) Müsste man mal testen (Mega-Zord?! ;)).

Ich hatte so etwas mit den Texturen in einem anderen Testumfeld mal festgestellt. Da funktionierte durch irgendwelche Bugs die Texturfilterung bei einigen Karten nicht. Das sorgte dann natürlich für hammer Ergebnisse. Ich kann mir so etwas also grundsätzlich vorstellen.

Ich habe in meinen Tests alles auf Default gelassen bis auf VSync. Das ist am Ende sicher nicht Fair, aber man kommt sonst vom hundersten ins tausendste und ist am Ende immer noch nicht zufrieden ;D

Loeschzwerg
2017-07-25, 08:10:19
Hui, starkes Ergebnis der G400 :cool:

Mega-Zord
2017-07-25, 09:47:53
Hui, starkes Ergebnis der G400 :cool:

Ich war auch etwas erstaunt. Mich wundert es, dass damals dann offenbar so wenige verkauft wurden. War etwas teurer als ein TNT2 und eine V3 3000, aber bot natürlich einer super Signalqualität, sehr saubere Darstellung und war recht schnell, wie man sieht.

Es kann aber natürlich sein, dass die ersten Treiber nicht so gut waren. Man sagte ihr ja große Schwächen in OpenGL nach. Auf der anderen Seite war NV damals sehr aggressiv am Markt.

Auf jeden Fall bekommt man heute die TNT2 hinterher geworfen und die G400 MAX ist doch recht teuer, wenn sie mal irgendwo auftaucht.

Disconnected
2017-07-25, 16:52:10
Die G400 war aber nur kurz in Führung, kurz darauf kam die GeForce 256. Und ich dachte auch, dass der Einführungspreis für das Führungsmodell höher lag, ca. 600 DM. Genausoviel kostete die Geforce SDR, 800 DM die DDR-Version. Matrox und ATI waren damals bei Gamern nicht so angesagt, da zählten vor allem 3dfx und später dann NV (wahrscheinlich wegen den Treibern).

seba86
2017-07-25, 20:30:34
Die G400MAX (und leicht schlechtere in qualitiver wie performancetechnischer) G450 habe ich noch. Gerade erstere ist ja mehr wert als eine Gef 1030/ RX 560 ^^

Wie kam es eigentlich zur 256 im Namen der Gefrosch?

StefanV
2017-07-25, 20:53:58
Damals habe ich mir die Matrox G400 gekauft - für satte 50€ weniger als 'ne Geforce (AFAIR SDR zu dem Zeitpunkt).
Dürfte aber sogar bisserl nach 2000 gewesen sein.
Zu Geforce 2 Zeiten war es eine Voodoo 5, die leider kaputt ging und daher gegen 'ne Radeon (weiß gerad nicht mehr welche, meine, dass das die 32DDR war) getauscht wurde...

Naja, damals habe ich halt ab und an mal meinen PC mit dem TV verbunden. Und spätestens dann hatte man die Nase voll von manchen Herstellern, die nicht einmal Overscan implementierten...
Wie kam es eigentlich zur 256 im Namen der Gefrosch?
Ev. wegen dem 128bit DDR-SDRAM Interface. Oder weil das Teil 4 Pipelines mit 2 TMUs hatte und somit, theoretisch, 256bit berechnen kann...
Hui, starkes Ergebnis der G400 :cool:
Wobei hier leider relativ wenig 32bit Farbtiefe Ergebnisse vorhanden sind.
Damit sollte die G400 die TNT2 ziemlich verhauen und relativ nahe an die Geforces kommen. Die hatten ja aus irgendwelchen Gründen eine '32bit Schwäche', die sich sehr lange durch die Produkte zog...
AFAIR hat erst die GF3 oder sogar 4 diesen Zustand behoben.

Ich war auch etwas erstaunt. Mich wundert es, dass damals dann offenbar so wenige verkauft wurden. War etwas teurer als ein TNT2 und eine V3 3000, aber bot natürlich einer super Signalqualität, sehr saubere Darstellung und war recht schnell, wie man sieht.
Die ganzen Publikationen waren damals ziemlich im Bett mit nVidia, aus welchen Gründen auch immer. Alles andere wurde, so gut es geht, schlecht geredet. Und irgendwelche Vorteile der anderen unter den Teppich gekehrt, wie auch die Nachteile der nVidia Karten.
Ein gutes Beispiel ist auch Voodoo 3 gegen TNT2. Die TNT2 war viel zu lahm für 32bit, dennoch wurde das als unglaublich wichtiger Vorteil verkauft...

Bei der Matrox G400 war das auch nicht anders.

Wobei die Vorteile der G400 noch andere waren. Du konntest zwei Bildschirme anschließen und unabhängig voneinander betrieben oder eben Bildschirm und Fernsehr. TV Out wurde über eine Kabelpeitsche realisiert...
Die G400 war auch die erste Karte die EMBM konnte.

Wobei die Savage 4 die erste Karte war, die S3TC konnte. Das Problem hierbei war, dass S3 zu geizig für 'nen 128bit Speicherinterface war...

€dit:
Interessantes Detail am Rande:
Die ATi Karten waren lange Zeit die (mit Abstand) kühlsten Grafikkarten, die man kaufen konnte.
Ja, sogar der ekelige Quirl der ersten Radeons war einfach völliger Bullshit und hätte ohne Probleme durch einen passiven Block wie hier auf der Rage 128 Pro Karte zu sehen, ersetzt werden können.

Leider war die Mentalität damals, dass Lüfter = super duper toller waren. So dass man sich aus 'Marketinggründen' für einen Lüfter entschied...
Bei den Rage 128 Karten war es besonders bitter...
Denn diese Karten wurden wirklich nicht nennenswert warm - zumindest verglichen mit den Hitzköpfen von TNT2 und Co...

Loeschzwerg
2017-07-25, 21:00:00
Weil die 4 Render Pipelines des NV10 mit 256Bit arbeiten. Die Parhelia war ja z.B. die erste 512Bit GPU bzw. hatte einen 512Bit Ringbus.

Edit: @Stefan: Stimmt, die war da sehr stark. Leider kam die Karte allgemein nicht so gut weg. Mag vielleicht auch an den nicht ganz ausgereiften Treibern (Leistung blieb auf der Strecke) gelegen haben?

Mega-Zord
2017-07-25, 21:35:33
Interessantes Detail am Rande:
Die ATi Karten waren lange Zeit die (mit Abstand) kühlsten Grafikkarten, die man kaufen konnte.
Ja, sogar der ekelige Quirl der ersten Radeons war einfach völliger Bullshit und hätte ohne Probleme durch einen passiven Block wie hier auf der Rage 128 Pro Karte zu sehen, ersetzt werden können.

Leider war die Mentalität damals, dass Lüfter = super duper toller waren. So dass man sich aus 'Marketinggründen' für einen Lüfter entschied...
Bei den Rage 128 Karten war es besonders bitter...
Denn diese Karten wurden wirklich nicht nennenswert warm - zumindest verglichen mit den Hitzköpfen von TNT2 und Co...

Das lässt auch auch interessante performance-steigernde Maßnahmen zu. Die Hercules Rage und die G400 MAX waren die einzigen Karten im Feld, die Speicher mit 5 ns hatten. Die Matrox hat das mit ihren 200 MHz Speichertakt auch genutzt (das war damals echt ein Ansage).
Auf jeden Fall konnte ich mit Übertaktungstools aus der Hercules noch ordentlich was rausholen. Da war der Speicher nie ein Limit. Die GPU würde dann irgendwann aber gerne mehr Strom haben. Ich denke, dass hier mit einem Voltmod und besserer Kühlung ordentlich was drin gewesen wäre. Die hätte die eine oder andere Karte gut verblasen.
Um so peinlicher ist es, dass die Rage Fury Maxx nur 7 ns Speicher hatte und somit die Ventilatoren am Ende überhaupt nichts brachten.

Mit guter Kühlung hat das leider sehr lange gedauert bei den Herstellern. IMO waren die GeForce7 mit den Quadro Kühlern, die ersten brauchbar aktiv gekühlten Grafikkarten. Diese Artic Coolung Lüfter waren teilweise ganz ok. Aber gerade, da wo sie VRAM mit kühlen sollten waren sie zu ungenau gefertigt und haben auf jeden Fall meine Galaxy Glacier 6800 GT auf dem Gewissen.

Captian Sheridan
2017-07-25, 21:50:16
Timedemos in Unreal/Unreal Tournament, Deus Ex,Ultima IX Ascension benutzen, und dann führt die Voodoo.
Bei der CPU-Limitierung von Ultima IX echt beeindruckend.

Alles, was Glide benutzt hat, lief auf den Voodoos am besten.

Descent 3 hat alle 3 damals relevanten APIs zur Auswahl: Direct3D,OpenGL,Glide
und lässt sich per Timedemo benchen.

Persönlich finde ich echte Spiele deutlich aussagekräftiger als synthetische
Benchmarks.

Kurgan
2017-07-26, 01:26:12
der jahrgang ging an mir vorbei, war da noch auf meinem vodoo 2 sli-gespann unterwegs. 2*12mb grafikspeicher xD
danach kam dann die power vr kyro 2, dann meine erste (und bisher einzige) nvidia, eine gf 4200

Mega-Zord
2017-07-26, 06:52:45
der jahrgang ging an mir vorbei, war da noch auf meinem vodoo 2 sli-gespann unterwegs. 2*12mb grafikspeicher xD
danach kam dann die power vr kyro 2, dann meine erste (und bisher einzige) nvidia, eine gf 4200

Die Kyro II hatte ich auch. Aber das Teil war ehrlich gesagt einfach nur billig und die Treiber extrem scheiße. 2001 noch eine DirectX 6 Karte zu verkaufen war schon etwas realitätsfern. Ich erinnere mich, dass viele Spiele richtig scheiße liefen. Da war es wenig Trost, dass einige wenige Spiele auf Nivau und teilweise etwas über dem einer damals fast doppelt so teuren GeForce2 liefen.

Ein V2 SLI könnte ich aber im Nachgang auch noch einmal als Vergleich heranziehen. Ich habe hier noch eine Monster 3D II und eine Gainward Dragon 3000 liegen jeweils mit 12 MB in meiner Sammlung.

EDIT:
Ich habe nun einmal Einzelbilder der Karten im Startpost hinzugefügt. Dabei bin ich auch Limitierungen des Forums gestoßen, welche ganz offensichtlich auch von 1999 sind. Es sind maximal 15 Bilder pro Posting erlaubt, dazu gehören auch Smileys... Ersten: Why?... Zweitens: WTF?

;D ;D ;D ;D ;D
;D ;D ;D ;D ;D
;D ;D ;D ;D ;D

StefanV
2017-07-26, 07:18:09
Mit guter Kühlung hat das leider sehr lange gedauert bei den Herstellern. IMO waren die GeForce7 mit den Quadro Kühlern, die ersten brauchbar aktiv gekühlten Grafikkarten. Diese Artic Coolung Lüfter waren teilweise ganz ok. Aber gerade, da wo sie VRAM mit kühlen sollten waren sie zu ungenau gefertigt und haben auf jeden Fall meine Galaxy Glacier 6800 GT auf dem Gewissen.
Nope

Eigentlich sollte es die Tyan Radeon 9800 sein, die hier brauchbar wäre. Die 9800XT dürft auch recht anständig sein, da ATi eher auf Temperaturregelung während nVidia auf 2D/3D Regelung setzte....

Ein V2 SLI könnte ich aber im Nachgang auch noch einmal als Vergleich heranziehen. Ich habe hier noch eine Monster 3D II und eine Gainward Dragon 3000 liegen jeweils mit 12 MB in meiner Sammlung.

Wenn die beiden KArten zusammen laufen, nur zu. Aber V2 SLI war verdammt zickig...
Da brauchtest oft 2 identische Karten...

Mega-Zord
2017-07-26, 08:46:39
Nope

Eigentlich sollte es die Tyan Radeon 9800 sein, die hier brauchbar wäre. Die 9800XT dürft auch recht anständig sein, da ATi eher auf Temperaturregelung während nVidia auf 2D/3D Regelung setzte....

Wenn die winzigen Propeller von einem vernünftigen Hersteller waren. Viele GF6 und deren Quadro-Brüder hatten kleine Lüfter von Delta verbaut. Die waren in der Tat ganz ordentlich.

Radeon 9000 Karten hatte ich nie. Zu der Zeit hatte ich noch eine Ti4400 und bin dann auf eine 6800 umgestiegen.
Bis auf die Radeon 8500LE waren all meine Ati Karten eine Enttäuschung. Die letzte war eine 7970 GHz. Noch ein Versuch wird es in den nächsten wohl auch nicht. Alle Karten in meiner Sammlung bestätigen mehr oder weniger meine schlechten Erfahrungen (vor allem mit den Treibern). Deswegen werde ich die nächsten auch nur noch NV kuafen... möge der Fanboy-Streit beginnen :D

Wenn die beiden KArten zusammen laufen, nur zu. Aber V2 SLI war verdammt zickig...
Da brauchtest oft 2 identische Karten...

Da mach dir mal keine Sorgen, das Gespann lief bereits. Man darf natürlich keine originalen Treiber von 3dfx installieren. Jedem Voodoo-Liebhaber dürfte die seite 3dfxzone.it bekannt sein ;)

Ben Carter
2017-07-26, 10:18:33
Ich hatte damals zuerst eine Savage 4 und dann eine Voodoo 3 3000. Habe aber für die G400 Max gestimmt, die ich mir sicherlich geholt hätte, wenn es monetär möglich gewesen wäre. :)

lg Ben

bnoob
2017-07-26, 11:01:07
Ich habe nun einmal Einzelbilder der Karten im Startpost hinzugefügt. Dabei bin ich auch Limitierungen des Forums gestoßen, welche ganz offensichtlich auch von 1999 sind. Es sind maximal 15 Bilder pro Posting erlaubt, dazu gehören auch Smileys... Ersten: Why?... Zweitens: WTF?

;D ;D ;D ;D ;D
;D ;D ;D ;D ;D
;D ;D ;D ;D ;D
Du kannst in den Postoptionen die Smileyumwandlung abschlaten, dann geht wahrscheinlich ein Bild mehr...

@Topic: Cooles Projekt, sehr gerne gelesen!

seba86
2017-07-26, 11:11:59
Ev. wegen dem 128bit DDR-SDRAM Interface. Oder weil das Teil 4 Pipelines mit 2 TMUs hatte und somit, theoretisch, 256bit berechnen kann


Ah danke; Also war die Geforce 256 SDR tatsächlich nur eine Geforce 128 :eek: bzw. schon damals mit den Namen geschummelt...

Wegen der Hitzwentwicklung: Anno 201x hat meine Nachbarn ihre Röhre mit nem 16:10 Flat Monitor getauscht. Mit der verbauten Ati Rage konnte ich den Monitor auch mit Tweaks, Powerstrip etc. nicht korrekt ansteuern; hatte bereits damals ein Thread hier eröffnet..
Letzenendlich hatte ich als billigste Lösung eine Gef2MX verbaut... komplett ohne aufgesetztem Kühler nur der nackte Chip mit einem traurigen Rest an WLP. Und was soll ich sagen... der hat die nächsten 1-2 Jahre tadellos ohne Beschwerden gereicht xD

Mega-Zord
2017-07-26, 13:14:14
Ah danke; Also war die Geforce 256 SDR tatsächlich nur eine Geforce 128 :eek: bzw. schon damals mit den Namen geschummelt...

Nein, die GPU hat intern mit 256 bit gerechnet. Das Speicherinterface war sowohl in der SDR- als auch in der DDR-Variante 128 bit breit.

Topic: Cooles Projekt, sehr gerne gelesen!

Danke, mir hat bisher noch die Zeit gefehlt, um ein kleines Fazit zu schreiben. Die ein oder andere Idee für weitere Tests gibt es ja auch. Ich werde den Startpost wohl noch eine weile lebendig halten.

seba86
2017-07-26, 19:15:56
Denkfehler, jetzt hab ichs, thx

Mega-Zord
2017-07-27, 00:16:41
So, kleine Veränderungen vorgenommen und endlich das Fazit ergänzt :D

Loeschzwerg
2019-07-15, 19:59:04
Ich packe die Ergebnisse einfach mal hier rein :)

VIA Eden 500MHz
256MB DDR2-533 (Single Channel)
UniChrome Pro II IGP (1 PS, 2 TMUs; 200MHz; 32MB Shared)

XP Prof SP3

3DMark 2000: 1416 (CPU 74)
3DMark2001se: 542

Benutzername
2019-07-16, 20:31:59
Ich habe damals zwischen der Voodoo3 und der S3 Savage4 und der Matrox G400 geschwankt.

Habe dann letztere geholt, weil ein Freund die Voodo 3 hatte und die an meinem supergeilen Sony Trinitron Monitor richtig matschig aussah als Ich den mal testweise auf einer LAN-Party an die Voodoo 3 gestöpselt habe. Die S3 hatte nie gute Treiber. Leider. Genausop die PowerVR Kyro2. Freund ahtte die, geiles Teil, aber miese Treiber.

Ich war aber schon Matrox vorbelastet mit einer Mystique und einer G200. Und Glide war ja schon auf dem Weg aufs Abstellgleis.

------------------------------------------------

Ein gutes Beispiel ist auch Voodoo 3 gegen TNT2. Die TNT2 war viel zu lahm für 32bit, dennoch wurde das als unglaublich wichtiger Vorteil verkauft...



Ray-tracing ist genauso ein Marketingstunt. Okay mit etwas mehr Substanz als 32-bit Farbtiefe bei Riva TNT2, aber doch sehr begrenzt im Moment.


Ach ja, die Matroxkarten waren in 32-bit genauso schnell wie in 24 oder 16. Nimm das nVidia. :P

Benutzername
2019-07-16, 20:35:06
Radeon 9000 Karten hatte ich nie. Zu der Zeit hatte ich noch eine Ti4400 und bin dann auf eine 6800 umgestiegen.
Bis auf die Radeon 8500LE waren all meine Ati Karten eine Enttäuschung. Die letzte war eine 7970 GHz. Noch ein Versuch wird es in den nächsten wohl auch nicht. Alle Karten in meiner Sammlung bestätigen mehr oder weniger meine schlechten Erfahrungen (vor allem mit den Treibern). Deswegen werde ich die nächsten auch nur noch NV kuafen... möge der Fanboy-Streit beginnen :D

Ich bin meistens mit Linux unterwegs, und der nVidia Treiber saugt. Na, wann gibt es Wayland support? Auch wenn Ich im Moment an einem Rechner mit GTX960 sitze. Ich tendiere doch eher zu AMd mittlerweile wegen der besseren TReiber unter Linux.



Da mach dir mal keine Sorgen, das Gespann lief bereits. Man darf natürlich keine originalen Treiber von 3dfx installieren. Jedem Voodoo-Liebhaber dürfte die seite 3dfxzone.it bekannt sein ;)


Das ist ja geschummelt. ;)

Sowas sollte es auch für die S3 Savage/Chrome oder die PowerVRs geben. Hachja... *träum*

Loeschzwerg
2019-07-17, 06:56:50
Mit den offiziellen 3dfx Treibern wäre das Ergebnis vermutlich recht ähnlich bis gleich ausgefallen. Die Mod-Treiber bringen idR etwas für Spiele/Anwendungen ab ~2001.

@Mega-Zord: Kannst ja noch einen Nachtest machen falls du Lust dazu hast :)

Mega-Zord
2019-07-17, 12:15:58
Mit den offiziellen 3dfx Treibern wäre das Ergebnis vermutlich recht ähnlich bis gleich ausgefallen. Die Mod-Treiber bringen idR etwas für Spiele/Anwendungen ab ~2001.

@Mega-Zord: Kannst ja noch einen Nachtest machen falls du Lust dazu hast :)

Was soll ich nachtesten? Ein V2-SLI-Gespann wäre vermutlich ganz nett und vor 20 Jahren kam ja auch die erste GeForce auf den Markt.

Loeschzwerg
2019-07-17, 13:49:15
Die V3 mit den letzten offiziellen Treibern von 3dfx anstatt dem AmigaMerlin. Ich erwarte da aber keine großartige Differenz, außer evtl. beim 3DMark01.

Mega-Zord
2019-07-17, 16:03:14
Denn werde ich wohl mal ein GeForce-Spezial aufbereiten. Die wird ja auch 20 Jahre alt im Oktober.

Folgende Karten werden dann wohl als Vergleich herangezogen:

GeForce-256 (DDR kam ja erst 2000 raus)
Voodoo3 3500
TNT2 Ultra
Rage Fury Maxx
Rage Fury
G400 MAX
Savage4

Mr.Magic
2019-07-17, 18:38:49
Kein Multiple Choice?

AFAIR hatte ich im Januar eine Voodoo Banshee gekauft. Irgendwann wurde dann die Riva TNT2 angeschafft, und direkt am nächsten Tag eine Voodoo 3000, weil die TNT2 auf meinem Board einfach nicht stabil lief. Der NV-Treiber mit ALi Aladdin Kompatibilität kam dann ein paar Tage später...

Mal die Voodoo 3 gewählt. Die lief astrein, und der 22bit Filter war brauchbarer als 32bit bei der TNT.

Mega-Zord
2019-07-17, 18:57:26
Kein Multiple Choice?

Verstehe deine Frage nicht. Die von mir gelisteten Karten werden dann alle noch einmal gebencht. Vielleicht ändere ich aber die Plattform, da ich noch ein KX133-Board mit Athlon 700 habe. Das wird aber eh ein neuer Thread, der die GeForce-256 aus gegebenem Anlass in den Mittelpinkt stellt.

Nächstes Jahr kann ich einen Heulböje-Thread zum Thema 3dfx erstellen :D

Mr.Magic
2019-07-17, 20:28:15
Die (Um)Frage war welche Karte ich 1999 gekauft hätte. Ich hatte tatsächlich mehrere aus der Liste gekauft. Daher wäre MC halt nett gewesen.

Athlon 700-900 ist für eine GF256 sinnvoll.
Diese Athlons haben wir damals massenweise verkauft (hatte meinen eigenen Athlon 700 AFAIR mit 850Mhz laufen). Die erste GeForce waren anfangs nur in relativ geringen Stückzahlen verfügbar, und gingen idR noch am selben Tag wieder raus.

Mega-Zord
2019-07-17, 22:41:22
Es ging bei der Umfrage ja darum, welche man gekäuft hätte. Quasi die Lieblingskarte, wenn Geld keine Rolex spielt, da ist multiple choice sinnlos.

Ich werde wohl auch den Athlon nehmen. Es geht mir auch gar nicht um die Vergleichbarkeit mit den Benchmarks hier, sondern einfach um ein paar alte Teile wieder mal laufen zu lassen :)

EDIT: Ich sehe gerade in meinen Google Notizen, dass ich diese Karten hier auch mit Quake III Arena gebencht habe. Es stehen dummerweise keine Auflösungen dabei. Aber da jede Karte, außer die 3DFX-Karten, zwei Werte hat, gehe ich davon aus, dass es sich bei beiden Werten um die selbe Auflösung handelt... einmal 16, einmal 32 Bit Farbtiefe. Da habe ich auch ein V2-SLI Gespann ins Rennen geschickt. Interesse? :D

DR.ZEISSLER
2022-01-18, 16:09:06
Ich hatte damals eine Voodoo3 bin dann später zu ATI und war zwischendurch bei NVIDIA.
Aktuell habe ich eine Rage128pro im G4-Cube unter OS9.0.4 und 10.2.8 in Betrieb und die finde ich richtig gut.

rokko
2022-02-19, 20:14:26
Voodoo3 3500

Das war die mit dem TV Tuner und dem dickem Kabel?

Mega-Zord
2022-02-20, 10:53:51
Das war die mit dem TV Tuner und dem dickem Kabel?

Richtig und sie hat 183 MHz. Leider ist das Kabel auch ein großer Schwachpunkt dieser Karte. Das Kabel ist so starr und schwer, dass der Anschluss an der Karte da sehr drunter leided. Außerdem muss man das Kabel unbedingt anschließen, da die 3500er nur diesen einen proprietären Anschluss für das Kabel hat. Der Monitor kann nur über dieses Kabel verbunden werden.

Loeschzwerg
2022-02-20, 10:57:44
Kaufen und glücklich sein: https://www.ebay.de/itm/231395437970 :):) Hintergrundinfo zum Anschluss selbst -> https://en.wikipedia.org/wiki/VESA_Plug_and_Display

Dann spart man sich diese dämliche Kabelpeitsche der 3500. Oder man gibt Geld für eine Compaq Voodoo 3500 aus, der fehlt der ganze TV Kram und hat einen normalen VGA.

Mega-Zord
2022-02-20, 11:04:05
Dass man einen Adapter für über 20 EUR kaufen muss, wenn das originale Kabel hat, ist für mich trotzdem ein Schwachpunkt.

Loeschzwerg
2022-02-20, 11:08:27
Stimmt schon, aber in Anbetracht der Preise von 3dfx Karten spielt das eigentlich schon keine Rolle mehr und es gibt keinen zusätzlichen Signalverlust durch die blöde Peitsche.

Mega-Zord
2022-02-20, 12:02:16
Die 3500TV war mit über 50 EUR tatsächlich meine teuerste Voodoo-Karte in meiner Sammlung. Die beiden 5500er habe ich sehr früh oder mit extrem viel Glück bekommen. Die waren zusammen billiger als die 3500TV. :D