PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : T&L - Hardware vs. Software


Mega-Zord
2021-06-09, 12:55:34
Ich habe hier endlich mein neues AGP-Test-Rig in Betrieb genommen und teste gerade einige Karten.

Die GeForce-256 kam ja mit dem Killer-Feature Hardware T&L. Nun habe ich beim 3DMark2000 allerdings bessere Ergebnisse, wenn ich das nicht benutze. Die Kombination aus GeForce DDR und Athlon64 4000+ war in freier Wildbahn sichern icht zu finden, aber wenn ich im 3DMark2000 T&L auf AMD Athlon oder 3DNow stelle, habe ich 7.000 statt 6.400 Punkte. Die Direct3D Schnittstelle selbst führt allerdings per Software zu einem deutlich schlechterem Ergebnis, nämlich nur 6.000 Punkte.

Konnte man in den Spielen auch so detailliert einstellen, wie das T&L berechnet werden sollte? Im 3DMark2001 SE kann man nur noch D3D Hardware und Software auswählen, die CPU-Optimierungen für AMD und Pentium III gibt es nicht mehr.

Ich werde demnächst auch mal die GF2 Ultra und die GF3 testen und sehen, wie es sich bei deutlich schnelleren Karten verhält.

Echte First World Problems hier. :D

][immy
2021-06-09, 13:31:33
Das ist so korrekt.
Du nutzt eine zu starke CPU ;)
Besonders in den Anfangszeiten von Hardware T&L wurden schnell die CPUs flotter bei >1 GHz zu der damaligen Zeit wenn ich mich nicht irre.
Erst die Geforce 2 & 3 konnten hier wieder Boden gut machen.

Anzumerken wäre allerdings, das die CPU tatsächlich entlastet wird. Wenn die also in der Zeit was anderes hätte tun können, hättest du natürlich einen Performance-Vorteil gehabt.
Die Spiele von damals die T&L Unterstützung boten waren aber nicht grad CPU fordernd. Und wenn es so war, war die Geforce 256 auch schon wieder zu lahm.
Die Software T&L Unterstützung der Voodoo 5 mittels Treiber war daher mit der Zeit immer weniger ein Nachteil.

Mega-Zord
2021-06-09, 13:52:57
Schade, genau die V5 kann ich auf dem System nicht testen. Würde ein AGP zu PCI Adapter die Leistung einer V5 nennenswert beeinträchtigen?

Ganon
2021-06-09, 18:21:26
Ja, das HW T&L der GeForce 256 war praktisch nutzlos. Hatte damals auch eine gekauft und naja... es war ja an sich keine schlechte Karte, aber das ganze Marketing dahinter war überzogen :D Man war halt jung.

Wirklich was gebracht hat's erst mit der Geforce 2, aber wurde dann auch relativ fix von Vertex Shadern und Co. komplett abgelöst.

Mega-Zord
2021-06-09, 19:38:28
Damals wurde alles schnell abgelöst. Ich meine, die TNT2 Ultra hat auch über 600 DEM gekostet, als sie Anfang 1999 raus kam. Bereits im Oktober gab es die GeForce-256, im Dezember die DDR-Version. Im September 2000, also kein Jahr nach Veröffentlichung der Ur-GeForce kam die GeForce2. Aber ja die wurde kein halbes Jahr später von der GeForce3 abgelöst. ;D

In der Zeit hat sich aber auf jeden Fall auch die CPU-Leistung verdoppelt.

Die ganzen Spiele mit id Tech 3 Engine in den 2000er Jahren haben schon dafür gesorgt, dass man Hardware T&L haben wollte.

Aber die ELSA Erazor X² ist eine meiner Lieblingskarten aus meiner Sammlung. :)

maximus_hertus
2021-06-09, 19:58:39
Die TNT2 Ultra war erst ab Mai 1999 kaufbar (lieferbar)

Die GF256 SD und DDR passt, wobei die DDR im Dezember nur schwer zu kriegen war und erst Anfang Januar eine breite Verfügbarkeit gegeben war.

Die GF2 konnte man ab Juni 2000 dann kaufen (habe ich direkt am ersten Tag als sie im Shop meines Vertrauens angeliefert wurde).

Im August folgte die GF2 Ultra, die nochmals 20-30% oben drauf legte (und immer 64MB hatte).

Die GF3 war dann ab März 2001 kaufbar. Immerhin erst 9 Monate nach der GF2.

Mega-Zord
2021-06-09, 20:38:00
Wobei ich gerade in Tests festgestellt habe, dass die 64MB der GF2 alleine überhaupt nichts bringen. Ich habe die ASUS V7700 als 32MB und als 64MB-Karte. Die 64 ist zwar immer schneller aber im Rahmen der Messungenauigkeit. Die Ultra war aufgrund des hoch getakteten Speichers so enorm viel schneller. Die Ur-GeForce3 konnte nur technisch mehr. Wirklich schneller war erst die Ti500.

Das waren schon sehr rasante Zeiten. Heute bekomme ich für meine 2 Jahre alte Enthusiast-Karte noch den Neupreis... mindestens ;D

EDIT:
Ich habe jetzt auch mal die GeForce3 getestet. Selbst da fährt man mit einer extrem schnellen CPU mit der Athlon-Beschleunigung besser. Er bei der GeForce4 ist die Hardware T&L-Leistung der GPU deutlich überlegen.

Scorpius
2021-06-10, 10:24:46
Der 3DMark herzunehmen ist auch kein richtiger Maßstab, weil da bei der Punkteberechnung immer wieder ziemlichen Schmu betrieben wurde. Hat bei den unrealistischen "Bonuspunkten" für 3dnow! und SSE bei den CPUMarks vom 99er 3DMark schon angefangen. Daher kannst wenn überhaupt da nur die fps von den Spielsequenzen vergleichen oder eben in echten Spielen. Aber nicht mit so einer dicken CPU, die kaschiert viel zu viel.

Jup war typisches Nvidia Marketing, aber nicht ganz so schlimm wie TNT und das rumgereite auf 32bit obwohl diese ja meistens mit 32bit abseits von 640x480 teils massiv einbricht.

Ja das T&L der Geforce 256 hatte zwei Nachteile:
Erstens gab es jetzt nicht wirklich soviele Spiele die starken Vorteil oder gar T&L vorausgesetzt hätten
Zweitens war die T&L Einheit unflexibel.

Der wirklich nutzbare Vorteil der Geforce war die Speicherbandbreite mit der Geforce 256 DDR wodurch man auch bei aktuellen Titeln Power in den hohen Auflösungen mit 32bit hatte. Bei TNT2 musste man doch eine Auflösung runter bei 32bit. Daher hatte die Geforce 256 SDR was von Fahren mit angezogener Handbremse.

Daher hab ich gewartet und bin dann damals von der Voodoo 3 3000 umgestiegen auf die DDR Geforce mit dem wohl längsten Namen :freak: Creative Labs 3D Blaster Annihilator Pro. Müsste die auch mal wieder entstauben, sind halt schon selten die ersten Geforce. Weiß nicht ob von denen weniger verkauft, mehr weggeschmissen wurden oder überdurchschnittlich kaputt gingen über die Zeit, weil waren ja ziemlich am AGP-Limit.

Loeschzwerg
2021-06-10, 10:57:23
Weiß nicht ob von denen weniger verkauft, mehr weggeschmissen wurden oder überdurchschnittlich kaputt gingen über die Zeit, weil waren ja ziemlich am AGP-Limit.

Waren sehr sehr teuer die DDR Karten und es gibt tatsächlich viele Karten die herumzicken bzw. Fehler zeigen.

Zur T&L Thematik CPU<->GPU: Ich meine Phil (PhilsComputerLab) hatte das auch in seinem Retro Video zur Geforce 256 angesprochen und Werte gezeigt.

Mega-Zord
2021-06-10, 11:32:29
Der 3DMark herzunehmen ist auch kein richtiger Maßstab, weil da bei der Punkteberechnung immer wieder ziemlichen Schmu betrieben wurde. Hat bei den unrealistischen "Bonuspunkten" für 3dnow! und SSE bei den CPUMarks vom 99er 3DMark schon angefangen. Daher kannst wenn überhaupt da nur die fps von den Spielsequenzen vergleichen oder eben in echten Spielen. Aber nicht mit so einer dicken CPU, die kaschiert viel zu viel.

Ja ich habe mir auch die Ergebnisse im Detail angeschaut und verglichen. An dieser Stelle sei gesagt, dass es nicht so einfach war, die ResultBrowser von MadOnion noch irgendwo zu bekommen. Das sind auch schon mehr FPS in den Game-Szenen. Aber grundsätzlich muss ich da noch mal Quake III benchen für einen besseren Gesamtüberblick.

Auffällig ist beim Vergleich ovn GF2 und GF3, dass gerade die Ultra in diversen Bereichen schneller ist, als die GF3 ohne Ti. Wenn man sich die theoretischen Werde der Füllrate ansieht, wird auch klar warum. 2 MT bei der GF2 Ultra vs. 1,6 MT bei der GF3. Ich denke, dass die GeForce3 nur was für Early Adopters war und die breite Masse erst mit der Ti4200 ein Jahr später in die DX8-Welt eingestiegen ist.

Scorpius
2021-06-10, 13:21:44
Unter 16bit Farben hat man die 1,6MT vs. 2MT schon gemerkt aber unter 32bit war die GF3 trotzdem schneller da intern effizienter. Rohleistung ist nicht alles. Aber im Vergleich zum Preis war es schon zuwenig für den Preis der Anfangs aufgerufen wurde. War ja glaube ich derselbe Preis wie die Geforce 2 Ultra oder leicht darüber. Nvidia wollte damals wohl testen wie weit sie mit dem Preis hochgehen können. Aber Geforce 3 TI200 und TI500 haben schon einige gekauft vorallem die Ti200. Aber die Ti200 war lange kein so Kassenschlager wie später die TI4200. Hab sowieso das Gefühl, dass die Geraden (Geforce 2,4,6) die besseren Karten waren und auch mehr gekauft wurden.
Was ich immer schwierig finde wenn man heute Benchmarks laufen lassen möchte muss man gerade bei Nvidiatreibern ja aufpassen welche Karten man testet und aus welchem Zeitraum die Spiele/Programme sind, da sonst nur bullshit rauskommt.

Mega-Zord
2021-06-10, 13:35:44
Ein 44er Omega kx kam bei diesen Karten zum Einsatz, das ist wohl DER Treiber für Karten bis GF4.

Crazy_Borg
2021-06-14, 11:46:53
Ich meine mich zu erinnern das GF256 DDR Karten gut 20% mehr kosteten als ihre SDR Pendants.
Irgendwann Anfang 2000 vor einem Computerladen Hannover Lange Laube:
S3 Savage 2000: 625 DM
Geforce SDR: ab 640 DM aufwärts
Geforce DDR: ab 790 DM aufwärts

Und ja, jeder weiss was ich Depp gekauft damals habe. :freak:

---EDIT---
Oder? Jetzt kommen mir Zweifel.
Daher: Ohne Gewähr!

Scorpius
2021-06-16, 01:44:55
Was heißt 44er Omega Treiber ? Basiert der auf den 44er Detonator? Für OpenGL spielt es glaube ich keine so große Rolle, aber unter D3D ist das schon viel zu neu für Geforce 1,2 und auch 3

Wenn das ein etwas teurerer Laden ist kann es vielleicht sein. Aber ich hatte im K&M vor Ort damals 600 noch gezahlt, ok war jetzt eine etwas günstige Creative. Die Karten sind aber schnell im Preis gefallen, weil ich meine mich noch geärgert zu haben, dass man ruck zuck die deluxe Variante von Asus unter 600 DM bekommen hat. War nach der Voodoo 3 3000 auch die letzte Karte welche ich zum Release gekauft habe.

Benutzername
2021-06-25, 16:00:56
Schade, genau die V5 kann ich auf dem System nicht testen. Würde ein AGP zu PCI Adapter die Leistung einer V5 nennenswert beeinträchtigen?


Warum hast Du keine PCI slots? Mini-ITX mobo? :confused:

Scorpius
2021-06-25, 18:49:35
Warum hast Du keine PCI slots? Mini-ITX mobo? :confused:
äääääääääääh ? :freak:
Die Voodoo 5 ist höchstwahrscheinlichst AGP sonst würde er nicht nach einem AGP zu PCI Adapter fragen?

denjudge
2021-06-26, 10:35:36
Ich meine mich zu erinnern das GF256 DDR Karten gut 20% mehr kosteten als ihre SDR Pendants.
Irgendwann Anfang 2000 vor einem Computerladen Hannover Lange Laube:
S3 Savage 2000: 625 DM
Geforce SDR: ab 640 DM aufwärts
Geforce DDR: ab 790 DM aufwärts

Und ja, jeder weiss was ich Depp gekauft damals habe. :freak:

---EDIT---
Oder? Jetzt kommen mir Zweifel.
Daher: Ohne Gewähr!

Also ich habe meine GeForce 256DDR damals auf der langen Laube gekauft. 660 DM.