PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : TnL - das eingelöste Versprechen


Quasar
2004-09-24, 17:50:17
Update (siehe unten)

Angestiftet mal wieder durch Herrn Stefan Payne (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2169005&postcount=185) und dessen beharrliche Behauptungen, TnL würde sogar von den zur Zeit der GF256 aktuellen CPUs (in diesem Beispiel ein Athlon650) schneller von diesen berechnet, als es die dedizierte Hardware in der ersten Generation der GPUs konnte.

Ich habe leider ein wenig zuviel versprochen in meinem Antwortpost - die 660MHz wollte mein guter alter Athlon Classic 600 ob seiner etwas gewagten Kühlkonstruktion nicht mehr so stabil mitmachen, wie ich es gern gehabt hätte und so musste ich mich mit folgendem System begnügen:

*******************************************
CPU: AMD Athlon 600 (Classic, 512kB L2-Cache bei halber Frequenz)
Mainboard: EPOX 7KXA (VIA Chipsatz)
RAM: 3 x 128 MB PC100-2-2-2 SDR-SDRAM
HDD: Langsam und klein (Quantum Bigfoot mit 1,2GB)
Grafik: ELSA Erazor X (Det. 45.23)
OS: Windows98 (+DirectX8.1, VIA 4in1 4.35)


Zum Vergleich noch ein FastFame 3SLAP-i815-Mainboard mit CeleronII 566MHz und ansonsten gleicher Ausstattung wie oben

*******************************************
Applikationen:
- CPU-Mark99
- Turok-Demo
- Incoming-Demo
- 3DMark2000 v1.1
- UT2003-Demo


*******************************************
Ergebnisse:
*******************************************
CPU-Mark99: 52,8 (Celeron: 38,5)
---
Ok, der Athlon ist schneller als der Celeron - ich bin nicht überrascht.
---


Turok-Demo: 128,3fps (Celeron: 94,2)
---
Der Benchmark lief in 800x600 (16Bit selbstredend) mit allen Optionen aktiviert.
---


Incoming-Demo: 77,27 (Celeron: 77,71)
---
Diesmal in 1024x768 und sogar in 32Bit - und prompt schleichen wir an der Grenze des Möglichen für die Grafikkarte entlang. ;)
---


Kommen wir nun zu den interessanteren Dingen - wie zum Beispiel dem Vergleich HW-TnL ggü. SW-TnL.


3DMark2000 v1.1: 3658 (Celeron 2758)
---
Ein Default Run (1024, 16Bit) zeigte, daß der Athlon der GF256 noch etwas mehr Leistung zu entlocken vermochte.
---


3DMark2000 v1.1 CPU-TnL: 2539 (Celeron 2039)
---
Bis auf die TnL-Optimierung (P3- bzw. 3DNow-Opt.) wurde nichts ggü. dem default-run verändert - der Abstand zwischen den beiden Werten schrumpft zusammen.


3DMark2000 v1.1 HPC 1 Licht: 6915 vs. 4758 (Celeron 6788 vs. 3778)
---
Mit HW-TnL (der jeweils erste Wert) sieht die Sache zwischen den beiden Systemen noch halbwegs ausgeglichen aus - CPU-spezifisches TnL zeigt mehr als 25% Vorsprung für den Athlon)
---


3DMark2000 v1.1 HPC 4 Lichter: 3281 vs. 3578 (Celeron 3336 vs. 3086)
---
Hier läßt sich die GPU schon in Sachen TnL von der stärkeren CPU abledern. Der Celeron schafft's noch nicht ganz...
---


3DMark2000 v1.1 HPC 8 Lichter: 1755 vs. 2866 (Celeron 1762 vs. 2648)
---
Hier holt sich die GPU auf beiden Seiten eine ordentliche Klatsche ab - offenbar kann die CPU besser mit der gesteigerten Anforderung fertigwerden. Interessant ist, daß die 3DNow-Optimierung ggü. der SSE-Optimierung hier stark an Boden verliert und nur noch knapp vorne liegt.
---


Nun aber, erinnern wir uns an sowohl an die Kernaussage "in Spielen" als auch die Versprechen, die zur Einführung von HW-TnL gemacht wurden (und auch in diversen Artikeln z.T. bös' auf's Korn genommen wurden): HW-TnL soll Spiele spielbarer, d.h. in diesem Falle schneller machen - und da muss sich die Geometrieberechnung die vorhandenen Ressourcen noch mit einigem anderen wie "KI", Physik, Licht und Animation teilen.

Als Parade-Beispiel für die HW-TnL-Generation kann UT2003 dienen - denn hier wird die DX7- und auch die DX8-Generation bereits brutal am Limit betrieben, was heutzutage "vernünftige" Auflösungen und Detail-Settings betrifft. Ohne HW-TnL-fähige GPU gab es Probleme, das Spiel überhaupt zum Laufen zu kriegen - das lag IIRC aber eher daran, daß die Programmierer des Spiels Cube-Mapping in einen nicht vorhandenen Kausalzusammenhang mit HW-TnL stellten.
Ob UT2003 mit allen Details auf der GF256 flüssig läuft - ich glaube, das Bedarf keiner Klärung. Ist es allerdings mit reduzierten Details überhaupt noch einigermaßen erträglich lauffähig - das wäre hier die entscheidende Frage und in Bezug auf das Thema: Wieviel Anteil daran hat die TnL-Einheit?

Ich benutze das UT2003-Demo, FlyBy und Botmatch des Citadel-Levels in 640x480 und ziemlich weit abgesenkten Details (ich bin nicht sicher, ob man sie noch weiter senken kann....).

HW-TnL UT2003-Demo, Citadel-Botmatch: 26,29 (Celeron 18,05)
SW-TnL UT2003-Demo, Citadel-Botmatch: 14,79 (Celeron 8,79)

HW-TnL UT2003-Demo, Citadel-FlyBy: 62,71 (Celeron 51,30)
SW-TnL UT2003-Demo, Citadel-FlyBy: --,-- (Celeron 18,50)
---
(Trotz mehrfachen Versuchens, inkl. Reboot, wollte die Citadel-Botmatch-Sequenz nicht durchlaufen und brach mit einer critical-exception in der Engine ab. Ersatzweise für den Athlon deshalb die Asbestos-Botmatch-Sequenz:

UT2003-Demo, Asbestos-Botmatch: 70,43 (HW) vs. 38,24 (SW).
---


Anscheinend kann TnL doch eine CPU soweit entlasten, dass auch und gerade in realen Games eine Steigerung der Spielbarkeit gegeben ist. 50% im Botmatch und fast 100% im FlyBy, wiewohl nicht 1:1 repräsentativ für eine echte Spielsituation (für die UT2003-Vollversion reichte die HDD-Kapazität leider nicht aus), sind doch recht deutlich und auch nicht wegzudiskutieren, wenn man nun noch 50MHz auf den Athlon draufrechnet.

HW-TnL, das [endlich] doch eingelöste Versprechen. ;)

_________________________________________________________
Update
Das komplette System um den A600 neu aufzubauen hatte ich irgendwie keine Lust, also musste der Surf-Rechner meiner Freundin dran glauben für diesen Nachtest.

System:
Celeron 1GHz (Tualatin-Core, 256k L2 Cache), i815-Mainboard, 3x128MB PC133-SDR-SDRAM auf 2-2-2-5, WinXP, SP1, default DX8.1, alle Einstellungen für Systemleistung optimiert, 1GB Swap auf eigener Partition, Benchmarks und Games ebenfalls auf separater Partition der DTLA-307015 (deathstar...), dazu die ELSA Erazor X (GF256, 32MB, 120/166MHz) mit Deto 45.23

Dieses Mal ein etwas stärkeres System, dem sich das HTnL der GF256 stellen muss.

CPUMark99: 85
Turok800x600: 170,4fps

Das erstmal als kleiner Indikator, was uns erwartet.

3DMark2000 v1.1:
Score: 4218 HTnL (4160 P3-TnL)
HPC: 7069 - 3349 - 1766 HTnL (7332 - 6167 - 5076 P3-TnL)
Hier kann die CPU schon beinahe die GPU schlagen (in den HPC-Tests tut sie es bereits durchweg).

Da die Festplatte ein wenig geräumiger ausfiel, diesmal auch 'echte' Spiele, als da wären Dungeon Siege, Max Payne und UT2003 (nicht die Demo, sondern Vollversion).

Der alphabetischen Reihenfolge folgend, zunächst Dungeon Siege.

Da dieses Spiel eher CPU- als grafikkartenlimitiert ist, gleich in die vollen und 1024x32, trilinearen Filter, aber keine Schatten ausgewählt.
HTnL: 35,47fps
STnL: 31,62fps

Nicht viel und auch nicht genug, um da wirklich eine verbesserte Spielbarkeit zu erkennen - ausser, man will es unbedingt.


Als nächstes der kleine Bruder von Stefan, May Payne:
Auch hier ein wenig probiert, maximale Details ausgewählt und einmal in 800x600 und einmal in 1024x16Bit die PCGH-VGA-Demo probiert: Beide Ergebnisse wichen sowohl in Soft- als auch in harter Version nur um <0,61fps voneinander ab.

HTnL: 24,40 (1024) / 25,10 (800)
STnL: 17,96 (1024) / 18,02 (800)

Mit etwas mehr als 30% Zugewinn die 25fps-Marke geknackt (Meßschwankungen großzügig mit hineingerechnet ;)), die eine knappe Spielbarkeit gewährleisten sollte. Mit Soft-TnL setzte beide Male der 10fps-Begrenzer ein, der die Framerate künstlich am unteren Limit hielt (bei der Szene mit dem explodierenden Helikopter).

Schließlich und endlich nun die Vollversion von UT2003 mit 3DCenter's own Pyramid-Demo - kein Rumgeeiere mehr mit Botmatch und FlyBy, von denen nichts 100% repräsentativ für das echte Game ist.
Auflösung betrug 1024x768 in 16Bit, Texturen und World waren auf 'normal', Character Details auf 'lowest', Physics auf 'low', alle weiteren Optionen ausser 'Blob Shadows' (reduziert die CPU-Last) und 'trilinear' (gibt's auf der GF256 für umsonst) waren deaktiviert. Audio war im Safe-Mode - ebenfalls um CPU-Leistung zu sparen.

HTnL: 29,94fps
STnL: 15,62fps

Interessanterweise sind nun, da das echte Spiel herhalten musste, sogar noch mehr als 'nur' 50% Mehrleistung herausgekommen - HTnL ist doppelt so schnell, wie per CPU transformierte Level-Geometrie und das bei nichtmal minimalen grafischen Details. ;D

Fazit:
Sogar mit 1GHz-CPU (zugegeben, nicht der potentesten) ist das TnL der GF256 noch in der Lage, entweder ein paar, nicht entscheidende FPS mehr auf den Schirm zu zaubern, oder aber, in zwei von drei Spielen, die Spielbarkeit deutlich zu verbessern bzw. sie überhaupt herzustellen.

HTnL ist ein Versprechen, dessen Einhaltung auf äußere Umstände warten musste, die seit zwei Jahren nunmehr eingetreten sind.

Tigerchen
2004-09-24, 18:11:57
@Quasar
Bei den Lichtertests bremst nicht die Transformation sondern das Lightning. Es war aber schon "damals" nicht mehr umstritten daß die Transformation zu jener Zeit am Bedeutensten war und das Lightning eigentlich zu lahm.

LOCHFRASS
2004-09-24, 18:12:46
Die Situation in UT2k3 ist mir schon laenger bekannt, hat dort doch damals meine GF2 MX400 die Kyro 2 und V5 boese gepwnt, teilweise wars auf den beiden Karten praktisch unspielbar. So lahm war das Gesamtsystem gar nicht, Celli 1300@1600, Abit BE6-II, 384 MiB PC133. Uebrigens hat sich die Taktsteigerung der CPU in Verbindung mit der K2 und V5 nahezu vollstaendig in Mehrleistung umgesetzt.

Quasar
2004-09-24, 18:16:21
@Quasar
Bei den Lichtertests bremst nicht die Transformation sondern das Lightning. Es war aber schon "damals" nicht mehr umstritten daß die Transformation zu jener Zeit am Bedeutensten war und das Lightning eigentlich zu lahm.

Lighting - ansonsten ack. Aber es gehört von der Begrifflichkeit nunmal leider zusammen. :)


Die Situation in UT2k3 ist mir schon laenger bekannt, hat dort doch damals meine GF2 MX400 die Kyro 2 und V5 boese gepwnt, teilweise wars auf den beiden Karten praktisch unspielbar.
Da kam dann ja von der Ablehner-Fraktion direkt das Argument, das läge an den Treibern - entweder seien die PowerVR/3dfx-Treiber nicht für so hohe Lasten gedacht, nicht offiziell für das OS (meist Win2k/XP) released oder einfach die nV-Treiber "fies" optimiert. ;)

Piffan
2004-09-24, 18:27:15
Guter "Artikel". Frage mich nur, was Herr Schmärz dazu sagt.......

hmx
2004-09-24, 18:54:16
Da ich z.Zt. noch auf meien Graka warte hab ich als Übergang eine GF256@150/210 eingebaut. UT2004 konnte ich mit 800x600x16 und alles auf niedrig ausser die Detailtextures recht gut spielen. Hab zwar einen Tbred@2,2GHz den es damals noch nicht gab, aber die Graka ist auf jedenfall fähig das Spiel einigermaßen flüssig darzustellen.
Übrigens bei FarCry hab ich kurz die MP-Karte Research ausprobiert. Mit 800x600x32 (!) und alles sonst auf niedrig gut spielbar! Und so schlecht aussehen tuts nicht.

Edit:
Gothic2 hatte ich ausprobiert,das ein recht CPU-Limitiertes Spiel war. In 1024x768x32 mit allen details lief es flüssig, und in der Hafenstadt ruckelte es zwar aber nicht viel mehr als schon mit einer 9800pro. Einzig wenn viele Blending und Lichteffekte sichtbar waren sind die fps in die Knie gegangen. Zum erscheinen der GF256 hätten wahrscheinlich alle mit offenem Mund die Grafik bewundert, wenns damals schon Gothic2 gegeben hätte...

Piffan
2004-09-24, 19:04:17
Da ich z.Zt. noch auf meien Graka warte hab ich als Übergang eine GF256@150/210 eingebaut. UT2004 konnte ich mit 800x600x16 und alles auf niedrig ausser die Detailtextures recht gut spielen. Hab zwar einen Tbred@2,2GHz den es damals noch nicht gab, aber die Graka ist auf jedenfall fähig das Spiel einigermaßen flüssig darzustellen.
Übrigens bei FarCry hab ich kurz die MP-Karte Research ausprobiert. Mit 800x600x32 (!) und alles sonst auf niedrig gut spielbar! Und so schlecht aussehen tuts nicht.

Mein Schwager zockt Farcry auf ner Gf2 (Gladiac von Elsa) und er ist auch zufrieden. Musste zwar auch die Grafik entzaubern, aber dennoch sieht es solide aus und spielt sich prima.

aths
2004-09-24, 21:24:18
Zum Zeitpunkt des Artikel-Releases waren die T&L-Versprechen nicht eingelöst. Insofern halte ich den Seitenhieb für nicht angebracht.

Die Ergebnisse in UT zeigen, dass trotz T&L keine vernünftigen Frameraten zustande kommen, jedenfalls nicht in einer angenehmen Auflösung und Farbtiefe. Die GeForce 256, GeForce2 GTS und GeForce2 MX sind keine empfehlenswerten Karten für "T&L-Spiele".

Savay
2004-09-24, 21:55:11
TROTZDEM hat HW-TnL einen schub bei der spielegrafik gebracht ;) wenn auch später und weniger stark als gedacht!

gäbe es keine TnL Grakas hätten wir wohl auch (u.A.) keine U-Engine 2.0/2.5 die solche "polygon-massen" darstellt...

das entkräftet den artikel doch ein wenig..auch wenn ich ihn erst letztens wieder genüsslich gelesen habe...weil der großteil darin einfach stimmt!! :D besonders der umstand das T&L ohne FSAA nicht sonderlich nützlich ist...genauso wie Bumpmapping ohne AF auch nicht wirklich sinnvoll ist

das beispiel zeigt aber gut wie lange bestimmte features einfach brauchen um sich durchzusetzen. bzw das sie jahre auf einen "einigermaßen" sinnvollen einsatz warten.
nicht um das misszuverstehen: ich rede nicht davon das die GF256 schnell genug wäre um rein transformationsseitig die grafikausgabe wesentlich zu beschleunigen (klar...jede 1GHz CPU ist für sich schneller!)...es geht um das feature an sich.
keine GF1 = keine GF6 mit VS3.0! DX7 T&L war ja im grunde der anstoß in richtung DX8/DX9 VS...was man denke ich auch nicht unterschätzen sollte...hätten sich TnL grakas nicht sogut verkauft wären wir vielleicht noch nicht bei den geliebten VS angelangt ;)

man sollte aber trotzem mal überlegen was es uns am ende ausser einfach nur mehr polygone eingebracht hat:

- bessere KI
- bessere Physik
- besserer Sound
etc.

was lernen wir jedenfalls aus dieser ewigen geschichte? traue keiner pressepräsentation! und glaube nicht alles was dir von herstellern erzählt wird und warte lieber ab denn es wird schon alles besser :D

Muh-sagt-die-Kuh
2004-09-24, 22:01:42
Zum Zeitpunkt des Artikel-Releases waren die T&L-Versprechen nicht eingelöst. Insofern halte ich den Seitenhieb für nicht angebracht.Darüber gab es schon damals ein paar sehr kontroverse Diskussionen...ich war damals auf jeden Fall nicht deiner Meinung und dazu stehe ich auch heute noch.

Quasar
2004-09-24, 22:04:55
Zum Zeitpunkt des Artikel-Releases waren die T&L-Versprechen nicht eingelöst. Insofern halte ich den Seitenhieb für nicht angebracht.

Nun sei nicht gleich eingeschnappt - Dinge ändern sich. :)

aths
2004-09-24, 22:52:01
Nun sei nicht gleich eingeschnappt - Dinge ändern sich. :)Heutzutage kann man sehen, dass die GF mit HW T&L schneller sein kann als mit SW T&L. Doch die Spiele die tatsächlich Highpoly-Modelle verwenden benötigen schon was vom Kaliber GF4 Ti. Natürlich hätte es die nicht ohne GF3, und jene nicht ohne GF256 gegeben. Der Vertexshader 1.1 ist hardwaremäßig eine verbesserte NV10-T&L-Unit.

Gast
2004-09-24, 23:41:54
gegenbeispiel: dungeon siege, lief auf software t&l wesentlich besser als hardware t&l auf einem amd 1700+ und geforce3 ti500.

MadManniMan
2004-09-25, 14:57:13
Die Ergebnisse in UT zeigen, dass trotz T&L keine vernünftigen Frameraten zustande kommen, jedenfalls nicht in einer angenehmen Auflösung und Farbtiefe. Die GeForce 256, GeForce2 GTS und GeForce2 MX sind keine empfehlenswerten Karten für "T&L-Spiele".

Hm, du wirst zugeben, daß die Situationen, in denen derlei Kombinationen "passieren", eher die Ausnahme sind - z.B. ne LAN auf der spontan jemand dazustößt und nur noch ein solch antiquirter Rechner zur Verfügung steht - und dann aber ein 600er Athlon mit GF1 die bessere Kombination denn ein 600er Athlon mit K2 oder V5 wäre. Knapp 30fps mit der GF zeigen doch, daß man zumindest mit gesenkten Ansprüchen Spaß haben kann!

Ich selbst habe ähnliches erlebt, als ein Freund mit einem 350er P2 BF1942 mitspielen wollte, jedoch trotz, oder gerade wegen seiner TNT2(und 3D-Analyze ... HW TnL Dings umgehen, gell?) noch ein übles CPU-Limit Problem hatte.
Mit einer eingebauten GF1 konnte er dann - dem HW TnL sei Dank! - einigermaßen vernünftig mitspielen.
Und komm mir jetzt nicht mit "Aber die Füllrate!" - die 300 MPixel gegenüber den 480 MPixel sind zwar merklich, aber 800*600 gegenüber 640*480 kompensieren den Füllratenunterschied.

Was ich sagen will: HW TnL hat irgendwie schon immer in gewissen Situationen geholfen =)

Mr. Lolman
2004-09-25, 15:21:28
HW TnL hat irgendwie schon immer in gewissen Situationen geholfen =)


Was ich sagen will:


Den Nutzen von HW T&L spricht keiner ab. Nur ists damals kein Musthave gewesen. Gut QuakeII und QuakeIII freuten sich schon ordentlich über HW T&L. Aber schon damals wurde ja gepredigt, dass die HW, die nicht die neueste Technik hat, schon bald veraltet sein wird.

Ich konnte mit der Voodoo5 super spielen. Unreal Tournament und Undying z.B. mit dem genialem 4xFSAA. Für MoHAA war immernoch 1024, 2xFSAA drinnen. Klar bringt HW T&L was, vor allen bei optimierten Treibern und aktuellen Spielen. Aber damals? Da wars ungefähr so ein Must Have wie es SM3.0 heute ist. Vielleicht noch ein bisschen mehr, weil man zumindest in 2-3 Spielen einen reellen Nutzen aus der Technik ziehen konnte. SM3.0 bringt momentan keinem was. (Ausser den Entwicklern, aber für die kauf ich nicht meine HW. So selbstlos bin ich leider nicht) Wenn ich ir ne GF6800 zulege, dann wegen dem Stereosupport und nicht wegen SM3.0 oder CineFXII oder Ultra Shadow Dingens, oder wie sie alle heissen.

gnomi
2004-09-25, 15:39:08
Ich meine mich daran zu erinnern, daß T&L-Spiele wie Giants, Black&White oder Sacrifice beispielsweise auf einer Geforce 1 (DDR) bedeutend besser liefen, als dies auf einer weitaus neueren Kyro 2 der Fall war. Ich weiß natürlich nicht genau, ob man dies nun ausschließlich der fehlenden T&L Einheit anlasten kann. Die Kyro 2 ist ja eine sehr spezielle Karte, und in vielen praktischen Situationen schien ihr auch oftmals die Füllrate auszugehen. Umgekehrt gab es aber auch ihr besonders gut liegende Spiele wie Serious Same, UT classic oder Quake III. Bei Sacrifice sah IIRC auch eine Voodoo 5 vergleichsweise sehr schlecht gegenüber den Geforce Karten aus...

Was UT angeht: Zum Erscheinungstermin der 2003er Fassung befand sich in meinem Zweitrechner eine Geforce 2 Pro TI mit 32MB Ram. Diese lieferte wirklich gut spielbare Ergebnisse. Lediglich auf die sehr großen Texturqualitäts-Einstellungen mußte ich ob des zu kleinen Grafikkartenspeichers verzichten.

MadManniMan
2004-09-25, 15:39:31
Ich sage ja gar nicht, daß aths in seinem Ansatz Unrecht hatte - TnL ist auf manchen Karten genauso sinnvoll, wie SM2a auf 64bit-Speicher Boards.
Jedoch neigts du, aths, meines Erachtens zu sehr dazu, Aussagen zu verteigen, die du gar nicht zu verteidigen brauchst und verschließt dich deshalb dagegen, daß TnL eben auch was bringt. ;)

aths
2004-09-25, 16:38:52
Hm, du wirst zugeben, daß die Situationen, in denen derlei Kombinationen "passieren", eher die Ausnahme sind - z.B. ne LAN auf der spontan jemand dazustößt und nur noch ein solch antiquirter Rechner zur Verfügung steht - und dann aber ein 600er Athlon mit GF1 die bessere Kombination denn ein 600er Athlon mit K2 oder V5 wäre. Knapp 30fps mit der GF zeigen doch, daß man zumindest mit gesenkten Ansprüchen Spaß haben kann!Solche Spiele waren zum Zeitpunkt des Artikels rar gesät. T&L kann nicht viel außer sture Matrizenmultiplikationen ausführen. Der Vertexshader ist ein vernünftiger Ansatz.

Ich selbst habe ähnliches erlebt, als ein Freund mit einem 350er P2 BF1942 mitspielen wollte, jedoch trotz, oder gerade wegen seiner TNT2(und 3D-Analyze ... HW TnL Dings umgehen, gell?) noch ein übles CPU-Limit Problem hatte.
Mit einer eingebauten GF1 konnte er dann - dem HW TnL sei Dank! - einigermaßen vernünftig mitspielen.
Und komm mir jetzt nicht mit "Aber die Füllrate!" - die 300 MPixel gegenüber den 480 MPixel sind zwar merklich, aber 800*600 gegenüber 640*480 kompensieren den Füllratenunterschied.

Was ich sagen will: HW TnL hat irgendwie schon immer in gewissen Situationen geholfen =) Um das bei BF zu testen, müsste man das Spiel auf der gleichen Karte mit und ohne HW T&L laufen lassen.

Jedoch neigts du, aths, meines Erachtens zu sehr dazu, Aussagen zu verteigen, die du gar nicht zu verteidigen brauchst und verschließt dich deshalb dagegen, daß TnL eben auch was bringt. ;)Dass Max Payne auf einer GF2 MX ganz passabel läuft, ist sicher auch der T&L-Unit zuzurechnen. Erst recht kann einer GF2 Pro bei CPU-Limitierung die T&L-Unit was bringen. Aber wenn man jetzt "T&L-Spiele" sieht, sieht man halt Spiele die auf HW T&L optimiert sind und zur Not auch noch per SW transformieren können. Alte 3DMark-Versionen boten z. B. 3DNow oder SSE-Support zur Verschnellerung an. Würden T&L-Spiele die vorhandene CPU optimal ausnutzen, würde es für die HW T&L-Unit im Vergleich wahrscheinlich anders aussehen.

Auf der anderen Seite wurde der geometrische Detailreichtum in UT2003 sicher mit dem Hintergedanken entwickelt, dass das Spiel auf GPUs (mit HW T&L) laufen würde, und entsprechende Transformationsleistung für statische, aber detaillierte Geometrie vorhanden ist.

Gast
2004-09-25, 16:46:05
Was ich sagen will:


Den Nutzen von HW T&L spricht keiner ab. Nur ists damals kein Musthave gewesen. Gut QuakeII und QuakeIII freuten sich schon ordentlich über HW T&L. Aber schon damals wurde ja gepredigt, dass die HW, die nicht die neueste Technik hat, schon bald veraltet sein wird.

Ich konnte mit der Voodoo5 super spielen. Unreal Tournament und Undying z.B. mit dem genialem 4xFSAA. Für MoHAA war immernoch 1024, 2xFSAA drinnen. Klar bringt HW T&L was, vor allen bei optimierten Treibern und aktuellen Spielen. Aber damals? Da wars ungefähr so ein Must Have wie es SM3.0 heute ist. Vielleicht noch ein bisschen mehr, weil man zumindest in 2-3 Spielen einen reellen Nutzen aus der Technik ziehen konnte. SM3.0 bringt momentan keinem was. (Ausser den Entwicklern, aber für die kauf ich nicht meine HW. So selbstlos bin ich leider nicht) Wenn ich ir ne GF6800 zulege, dann wegen dem Stereosupport und nicht wegen SM3.0 oder CineFXII oder Ultra Shadow Dingens, oder wie sie alle heissen.

-
Ich zitiere dies nur exemplarisch.
-

Darum ging es Quasar doch überhaupt nicht, ihr alle habt wiedermal die Absicht euren "Kleinkrieg" aus anderen Threads hier herein zu verlagern um euch eure Argumente wieder um die Ohren hauen zu können. SM3 ja/nein, 3DC ja/nein, immer wieder werden neue Technologien als "Dingens" abgetan und als Humbug hingestellt, die momentan und in den nächsten 2 Jahren keiner brauch, aber es endlich mal einzusehen, dass wenn in die Grafikchips diese Technologien nicht eingebaut werden, es überhaupt nicht erst zu einer Nutzung jener kommt, das scheint nicht in jedes Hirn rein zu gehen.
Stattdessen wird wieder der eigene Standpunkt hart und fest verteidigt und der Rest der Menscheit wird als "ungläubige" hingestellt, die Frevel am FPS Wahn begehen oder nur wunschdenken äusern.

OT: Darum sinkt auch das allgemeine Niveau der Foren die 3D-Grafik, speziell Grafikchips und Spiele, behandeln. Schauplätze sind das, die Argumentation ist meist dürftig und es gibt so gut wie nie (99%) einen Konsenz, meist böses Blut das im nächsten Thread aufgearbeitet werden muss. Da kann sich keiner rausnehmen.

MadManniMan
2004-09-25, 16:55:48
Um das bei BF zu testen, müsste man das Spiel auf der gleichen Karte mit und ohne HW T&L laufen lassen.

Da ich jetzt los muß, nur hierauf eine Antwort:

- kluk(tm), wie ich war, habe ich natürlich noch die GF auf TNT2-Füllrate getaktet gehabt ... ich wüßte nicht, was sonst noch hätte groß einen Unterschied machen sollen, außer der TnL Einheit

hmx
2004-09-25, 17:05:15
Also bin auch der Meinung, dass aths in dem Artikel damals recht gehabt hatte. TnL war kein must have. Aber heutzutage hört man oft wenn neue Features eingeführt werden, dass diese zu Lebzeiten der entsprechenden Graka nicht mehr benutz werden. Dass dies so nicht stimmt zeigt aber wohl, dass man mit einer GF256 (die nicht langsamer als eine MX400 ist) noch mit Einschränkungen bei der Grafik vernünftig spielen kann.

Muh-sagt-die-Kuh
2004-09-25, 17:50:08
Würden T&L-Spiele die vorhandene CPU optimal ausnutzen, würde es für die HW T&L-Unit im Vergleich wahrscheinlich anders aussehen.Genau das ist der springende Punkt: Wieso unnötig die CPU belasten, wenn die GPU die gleiche Aufgabe mit guter Geschwindigkeit erledigen kann? Würde man so argumentieren wie du, wären z.B. auch PCI-Karten mit einem Kryptoprozessor überflüssig....die sind meist nämlich nicht so schnell wie eine moderne CPU, die das ganze schneller könnte, sich so aber anderen Aufgaben widmen kann.

aths
2004-09-25, 17:57:38
Genau das ist der springende Punkt: Wieso unnötig die CPU belasten, wenn die GPU die gleiche Aufgabe mit guter Geschwindigkeit erledigen kann?So unnötig ist das nicht. Wenn die CPU T&L macht, kann sie gleich mittels backface culling einiges rauswerfen. Die GPU muss aber erst mal alle Daten geschickt bekommen. Belastet die RAM-Bandbreite.

Natürlich sollten "stupide" Aufgaben besser von einem spezialisiertem Coprozessor übernommen werden. Damit das ein Bringer ist, muss natürlich auch die Umgebung stimmen.

Quasar
2004-09-25, 20:39:32
Dungeon Siege habe ich eben auch mal probiert - allerdings auf einem anderen System. Dort hat die HTnL-Version einen Vorsprung von ca. 30% ggü. der STnL. (P3-S @1400MHz ggü. FX5800u @150/200MHz)

Coda
2004-09-25, 20:44:32
So unnötig ist das nicht. Wenn die CPU T&L macht, kann sie gleich mittels backface culling einiges rauswerfen. Die GPU muss aber erst mal alle Daten geschickt bekommen. Belastet die RAM-Bandbreite.
Glaub mir, das übertragen der Daten über AGP 1x wäre schneller als ein manuelles Backface Culling von jedem Face. Das ist absolut tödlich.

Piffan
2004-09-26, 10:28:16
Es war von Anfang an klar, welches POTENTIAL hinter der neuen Technik steckt. Die Demos von Crytek (Isle- Demo) hätten eigentlich die letzten Zweifler überzeugen müssen. Dass es so spät konsequent genutzt wird, liegt nicht an der Technik an sich, sondern eher an marketingtechnischen Zwängen (Kompatibiliät zu "alten" Systemen).

LovesuckZ
2004-09-26, 16:13:32
Schon ein Jahr nach dem Erscheinen der Kyro2 gab es das offizielle Spiel zum Spider-Man Film und dieses benoetigte eine Hardware TßL Einheit, um es ueberhaupt starten zu koennen.
Nicht jeder wechselt seine Karten wie Unterhosen und somit bringen fuer ihne auch Features, welche eine lange "Wartezeit" aufgewiesen haben, etwas.

zeckensack
2004-09-26, 19:26:11
Quasar,
Es gab Beweise für den Nutzen von HW-T&L auch schon früher. Schau dir diesen uralten Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=243579) bitte nochmal an :)

aths
2004-09-26, 19:42:38
Es war von Anfang an klar, welches POTENTIAL hinter der neuen Technik steckt. Die Demos von Crytek (Isle- Demo) hätten eigentlich die letzten Zweifler überzeugen müssen.Nachdem was mir zu Ohren kam, ist ebenjene Engine nicht besonders gut auf HW T&L abgestimmt.

Quasar ohne Kekse
2004-09-26, 23:36:53
Quasar,
Es gab Beweise für den Nutzen von HW-T&L auch schon früher. Schau dir diesen uralten Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=243579) bitte nochmal an :)

Ja, den kenne ich, danke. :)

Coda
2004-09-26, 23:53:38
Nachdem was mir zu Ohren kam, ist ebenjene Engine nicht besonders gut auf HW T&L abgestimmt.
Was kam dir denn zu Ohren?
Die Meshes sind sicherlich alle optimiert auf T&L, beim Terrain kann ich mir da nicht sicher sein.

Quasar
2004-09-27, 21:12:33
Es war von Anfang an klar, welches POTENTIAL hinter der neuen Technik steckt. Die Demos von Crytek (Isle- Demo) hätten eigentlich die letzten Zweifler überzeugen müssen. Dass es so spät konsequent genutzt wird, liegt nicht an der Technik an sich, sondern eher an marketingtechnischen Zwängen (Kompatibiliät zu "alten" Systemen).

Darum ging es ja gerade - jedes Beispiel wurde "damals" entweder mit maßlos optimierten Treibern (Quake3) oder dem "Techdemo-Charakter" von bsw. X-Isle, Isle of Morg und noch etlichen anderen versucht zu entkräften - teils sicherlich berechtigt.

Gerade darum wollte ich mal ein Game nehmen, welches käufliche erwerbbar ist und das viel gespielt wird und das nicht Q3A heisst.

aths
2004-09-27, 22:07:07
Was kam dir denn zu Ohren?
Die Meshes sind sicherlich alle optimiert auf T&L, beim Terrain kann ich mir da nicht sicher sein.... du sagst es.

MadManniMan
2004-09-27, 23:09:04
Solche Spiele waren zum Zeitpunkt des Artikels rar gesät. T&L kann nicht viel außer sture Matrizenmultiplikationen ausführen. Der Vertexshader ist ein vernünftiger Ansatz.

Allerdings reicht die Blödheit der Transformationseinheit dennoch dazu aus, den mit ihr ausgestatteten Grafikkarten ein längeres Leben zu bescheren...

Dass Max Payne auf einer GF2 MX ganz passabel läuft, ist sicher auch der T&L-Unit zuzurechnen. Erst recht kann einer GF2 Pro bei CPU-Limitierung die T&L-Unit was bringen. Aber wenn man jetzt "T&L-Spiele" sieht, sieht man halt Spiele die auf HW T&L optimiert sind und zur Not auch noch per SW transformieren können. Alte 3DMark-Versionen boten z. B. 3DNow oder SSE-Support zur Verschnellerung an. Würden T&L-Spiele die vorhandene CPU optimal ausnutzen, würde es für die HW T&L-Unit im Vergleich wahrscheinlich anders aussehen.

...wie du ja mit Maxey ganz richtig ansprichst.

Auf der anderen Seite wurde der geometrische Detailreichtum in UT2003 sicher mit dem Hintergedanken entwickelt, dass das Spiel auf GPUs (mit HW T&L) laufen würde, und entsprechende Transformationsleistung für statische, aber detaillierte Geometrie vorhanden ist.

Warum sollte das nicht so geschehen sein?

aths
2004-09-28, 13:12:23
Allerdings reicht die Blödheit der Transformationseinheit dennoch dazu aus, den mit ihr ausgestatteten Grafikkarten ein längeres Leben zu bescheren...... was imo eher an der nutzbaren Füllrate liegt. Der GF2 MX200 wird die T&L-Unit beispielsweise nichts nützen. Ich möchte auf einer GeForce prinzipiell nicht im 16-Bit-Modus spielen – ob mit oder ohne T&L, im 32-Bit-Modus hängt auch eine GTS nicht mehr an CPU-Limitierung, sondern an der Bandbreite. (Es sei denn man stellt CPU-lastige Details so hoch, dass die Graka so oder so in unspielbare Bereiche sinkt.)

...wie du ja mit Maxey ganz richtig ansprichst.Dass Mr. Payne lieber T&L-beschleunigt ermittelt, ist ein mutiger Schritt von Remedy gewesen. Sie hielten sich an dem, was machbar ist (DX7-Technik, aber Foto-Texturen) und brachen bewusst mit dem alten T&L-Verfahren, das nur der Kompatibilität wegen noch geboten wird. Man kann nicht auf ewig alte Technik unterstützen.

Auf der anderen Seite läuft Max Payne auf jeder Voodoo5 ohne Probleme. Hier liegt auch der Hund begraben: T&L oder RG-FSAA? Etwas schnellere Grafik in einigen Spielen, oder deutlich schönere in allen 3D-Spielen? NV entschied sich, im NV10 erst T&L und dann (vernünftiges) AA im NV20 zu bringen. Das ist eine Möglichkeit. Meines Erachtens ist der umgekehrte Weg – erst Dreicke schöner zu machen, und dann schneller – der sinnvollere Weg. Aber damals wie heute zählt ja primär die Balkenlänge.

Warum sollte das nicht so geschehen sein? Hm?

Tigerchen
2004-09-28, 16:48:29
... was imo eher an der nutzbaren Füllrate liegt. Der GF2 MX200 wird die T&L-Unit beispielsweise nichts nützen. Ich möchte auf einer GeForce prinzipiell nicht im 16-Bit-Modus spielen – ob mit oder ohne T&L, im 32-Bit-Modus hängt auch eine GTS nicht mehr an CPU-Limitierung, sondern an der Bandbreite. (Es sei denn man stellt CPU-lastige Details so hoch, dass die Graka so oder so in unspielbare Bereiche sinkt.)

Dass Mr. Payne lieber T&L-beschleunigt ermittelt, ist ein mutiger Schritt von Remedy gewesen. Sie hielten sich an dem, was machbar ist (DX7-Technik, aber Foto-Texturen) und brachen bewusst mit dem alten T&L-Verfahren, das nur der Kompatibilität wegen noch geboten wird. Man kann nicht auf ewig alte Technik unterstützen.

Auf der anderen Seite läuft Max Payne auf jeder Voodoo5 ohne Probleme. Hier liegt auch der Hund begraben: T&L oder RG-FSAA? Etwas schnellere Grafik in einigen Spielen, oder deutlich schönere in allen 3D-Spielen? NV entschied sich, im NV10 erst T&L und dann (vernünftiges) AA im NV20 zu bringen. Das ist eine Möglichkeit. Meines Erachtens ist der umgekehrte Weg – erst Dreicke schöner zu machen, und dann schneller – der sinnvollere Weg. Aber damals wie heute zählt ja primär die Balkenlänge.

Hm?

Ist schon erstaunlich. So verbissen wie du heute für SM 3.0 kämpfst, welches ja nun bisher keinerlei nutzen gebracht hat, so verbissen hast du damals gegen eine neue Technik gekämpft. Dabei war mir damals schon klar daß T&L die Zukunft gehört. Und je eher es geboten wird desto eher ist mit Spielen zu rechnen die es nutzen. FSAA ist dagegen eher eine nette Zugabe. Ist auch heute das Erste was ich abschalte wenn es denn mal ruckelt.
Sag mal, kann man durch T&L und die Nachfolger nicht nur schnellere sondern sogar polygonreichere Spiele machen? Jetzt mal angenommen es wäre so. Sind viele Polygone nicht viel schöner als nur ein paar geglättete Dreiecke?

Wenn du also heute für SM 3.0 bist weil es die Entwicklung voranbringt hättest du damals auch für T&L sein müßen.

aths
2004-09-28, 18:39:20
[COLOR="#000088"]
Ist schon erstaunlich. So verbissen wie du heute für SM 3.0 kämpfst,Hm? Wo kämpfe ich für SM 3.0?

welches ja nun bisher keinerlei nutzen gebracht hat, so verbissen hast du damals gegen eine neue Technik gekämpft. Dabei war mir damals schon klar daß T&L die Zukunft gehört.Programmierbarer T&L gehört die Zukunft, ja. FF T&L war absehbar ein vergleichsweise kurzer Zwischenschritt (ähnlich FP24, welches nur durch ATIs Schwierigkeiten beim R400 künstlich verlängert wird.)

Und je eher es geboten wird desto eher ist mit Spielen zu rechnen die es nutzen. FSAA ist dagegen eher eine nette Zugabe. Ist auch heute das Erste was ich abschalte wenn es denn mal ruckelt. Für mich ist FSAA ein Pflichtfeature, das prinzipiell nie abgeschaltet wird. Aliasing-Bildfehler habe ich halt nicht so gern.

Sag mal, kann man durch T&L und die Nachfolger nicht nur schnellere sondern sogar polygonreichere Spiele machen? Jetzt mal angenommen es wäre so. Sind viele Polygone nicht viel schöner als nur ein paar geglättete Dreiecke? Nein.

Wenn du also heute für SM 3.0 bist weil es die Entwicklung voranbringt hättest du damals auch für T&L sein müßen. Läl. Differenzierung liegt dir offenbar nicht.

Mr. Lolman
2004-09-28, 19:04:20
LOL, ich hab damals von der plötzlich unabdingbaren Notwendigkeit einer HW T&L fähigen Karte genausownig gehalten, wie für mich heute SM3.0 ein Must have ist.

Das FSAA der V5 hat bei (fast) allen vorhandenen Spielen einen Nutzen erbracht. Aber wenn eine Technologie erst dann schön langsam ihren breiten Einsatz findet, wenn schon die nächste (oder gar übernächste) GraKageneration am Start steht, dann ist sie für mich nicht sinnvoll. Meine Radeon 9700pro hab ich mir damals auch nicht wegen DX9 gekauft, sondern, weil es tatsächlich Benchmarks gibt, bei denen die Radeon mit AA/AF 5-7x schneller als die schnellste GF4 war, und somit einem konsequenten Einsatz von AA/AF nix im Wege stand.

aths
2004-09-28, 20:39:31
LOL, ich hab damals von der plötzlich unabdingbaren Notwendigkeit einer HW T&L fähigen Karte genausownig gehalten, wie für mich heute SM3.0 ein Must have ist. Dass SM 3.0 für Gamer jetzt ein must-have ist, hat in diesem Forum hoffentlich niemand behauptet.

Meine Radeon 9700pro hab ich mir damals auch nicht wegen DX9 gekauft, sondern, weil es tatsächlich Benchmarks gibt, bei denen die Radeon mit AA/AF 5-7x schneller als die schnellste GF4 war, und somit einem konsequenten Einsatz von AA/AF nix im Wege stand. 5-7x schneller? Diese Benches würde ich gerne sehen ...

LovesuckZ
2004-09-28, 20:50:19
LOL, ich hab damals von der plötzlich unabdingbaren Notwendigkeit einer HW T&L fähigen Karte genausownig gehalten, wie für mich heute SM3.0 ein Must have ist.


Und doch benutzt du heute die Hardwareunterstuetzung beim TßL und laesst nicht die CPU arbeiten.
Ich gehe jede Wette ein, dass du, wenn du ueber ein SM3.0 faehige Hardware verfuegst, auch hier jeden Vorteil nutzen wirst.
Daher, wenn es heute kein "Must Have" waere, warum dann in einem Jahr? Denn wie oft gesagt: Erst durch die heutige Technik kannst du es einsetzen.

Quasar
2004-09-28, 22:09:35
5-7x schneller? Diese Benches würde ich gerne sehen ...
3,5-4x war das Maximum, was ich damals herausbekam - bei teils etwas absurden Einstellungen. :ugly:

MadMan2k
2004-09-28, 22:26:20
Daher, wenn es heute kein "Must Have" waere, warum dann in einem Jahr?
Weil dann auch Hardware verfügbar ist, die Spiele, welche aus SM3 einen Vorteil ziehen, flüssig darstellen kann?
Oder willst du jetzt an unsere karitative Ader appelieren?

Quasar
2004-09-28, 22:39:16
Vielleicht nicht an die karitative, aber evtl. die eigennützige? ;)

MadMan2k
2004-09-28, 23:05:32
Vielleicht nicht an die karitative, aber evtl. die eigennützige? ;)
schauen wir mal, was hat den Leuten mit dem NV10 die T&L Einheit zu Lebzeiten der Grafikkarte gebracht? Steht im Artikel von aths.
T&L wurde erst richtig mit dem Erscheinen des R100 & NV15 genutzt - klar hatten da dann auch die NV10 Käufer ihre Vorteile, aber zu diesem Zeitpunkt gab es bereits weit bessere Karten in dem Preissegment und die Performance war trotzdem nicht gerade berauschend.

Und die Software wäre auch ohne ein weite Verbreitung des NV15 gekommen, da sie ja schließlich höhere Leistung gefordert hat, als der NV10 bieten konnte, sprich sie war bereits auf leistungsfähigere Grafikkarten ausgelegt, welche eben auch ohne des NV10 gekommen wären.

Für die Entwickler war der NV10 allerdings äußerst wertvoll, da sie sich an den neuen Features austoben konnten und tolle Techdemos erstellt haben, aus denen viel später mal ein richtiges Spiel wurde. (FarCry)

Ich denke man kann das als Analogie zu dem SM3.0 nehmen, wenn auch die Einführung nicht so lange dauern wird.

Quasar
2004-09-28, 23:17:29
schauen wir mal[...]
[...] ein wenig über unseren eigenen Tellerrand hinaus. ;)

Ohne Ei keine Henne.

Sackgesicht
2004-09-29, 08:33:51
[...]

Ohne Ei keine Henne.

oder ohne Henne kein Ei (wer war nun wohl zuerst da?) Wenn ich dabei noch bedenke dass der groesste Teil des nV Vorzeigetitels auf GF1 programmiert wurde...

Gast
2004-09-29, 09:25:03
Dass SM 3.0 für Gamer jetzt ein must-have ist, hat in diesem Forum hoffentlich niemand behauptet.

5-7x schneller? Diese Benches würde ich gerne sehen ...


5x schneller bei JKII, in 1600x1200, 4xAA/8xAF, AFAIK bei Anandtech gesehen
7x schneller beim Chameleonmark, iirc auch in 1600x1200, 4xAA 8xAF, keine Ahnung welches Review...

incurable
2004-09-29, 09:45:22
oder ohne Henne kein Ei (wer war nun wohl zuerst da?)
Ganz klar, das Ei gab es schon ein paar hundert Millionen Jahre vor dem gemeinem Haushuhn.

Mit anderen Worten: Das Henne-Ei-Problem ist garkeins oder findet sich höchstens zwischen Stuhllehne und Tastatur.

Sackgesicht
2004-09-29, 09:49:54
Ganz klar, das Ei gab es schon ein paar hundert Millionen Jahre vor dem gemeinem Haushuhn.

Mit anderen Worten: Das Henne-Ei-Problem ist garkeins oder findet sich höchstens zwischen Stuhllehne und Tastatur.

da aus diesen von dir zitierten Eiern keine Haushuehner kamen zweifle ich hiermit deine Argumentation an

incurable
2004-09-29, 09:55:32
da aus diesen von dir zitierten Eiern keine Haushuehner kamen zweifle ich hiermit deine Argumentation an
Ach ja? Hier geht's aber um das Henne-Ei-Problem, nicht das Henne-Haushuhnei-Problem, mkay? :cool:

Sackgesicht
2004-09-29, 10:11:05
Ach ja? Hier geht's aber um das Henne-Ei-Problem, nicht das Henne-Haushuhnei-Problem, mkay? :cool:
aus welchen Eiern kamen dann dann die damaligen Hennen welche spaeter zu Haushuehnern evoluierten?

Sackgesicht
2004-09-29, 10:12:32
aus welchen Eiern kamen dann dann die damaligen Hennen welche spaeter zu Haushuehnern evoluierten?
sollte heissen aus "wessen", aber jetzt genug OT

robbitop
2004-09-29, 10:53:33
hrn irgendwie sehe ich dieses blöde Getue immer öfter hier im Forum.
Nicht jeder kauft sich alle 6 Monate eine neue Karte. Dann können einem die zukunftsweisenden Features egal sein.
Es gibt jedoch sehr sehr viele Leute, die Grafikkarten über Jahre behalten.
Da bringt TnL schon was, oder das dedizierte HDR beim NV4x, oder die weitaus mächtigeren Shaderunits des NV4x (die sich erst bei längeren Shadern vom Spreu trennen). Klar wenn man sich dauernd eine neue Karte kauft, kann einem das egal sein. Aber sonst sind diese Technologien schon sehr nett und hilfreich gesehen.
Ein Kumpel von mir z.B. spielt seit 3,5 Jahren mit einer GF2MX und einem Athlon800 und er kann sogar UT2004 flüssig spielen (klar mit Abstrichen) und DAS finde ich beeindruckend. Er ist Spieler des Spieles wegen und nicht wegen Aliasings ect.

Was optimal mit neuer Technologie passieren kann, sah man am R300. Somit würde ich neue Technologien nicht immer gleich als unnützlich erklären, nur weil die Spiele noch nicht so fortgeschritten sind.

Und Quasar kann ich nur zustimmen: Henne - Ei.

Wir können froh sein, dass ATi und NV beide in ihrer 2002/03 Generation auf SM2 setzten. Selbst die 5200 tat das. Die nötige Verbreitung von SM2 HW ist somit gegeben und wir können heute Floating Point Shader geniessen.
Das sollte man nie vergessen.

incurable
2004-09-29, 12:20:23
aus wessen Eiern kamen dann dann die damaligen Hennen welche spaeter zu Haushuehnern evoluierten?
Ist doch klar, aus von einem Laufvogel gelegten Mutanteneiern mit Hühner-DNS. :tongue:

aber jetzt genug OT
Oki. :wink:

Demirug
2004-09-29, 12:38:30
robbitop, meine reden. Ich sage ja auch immer das man die "Laufzeit" einer Karte bei einer Kaufentscheidung unbedingt mit einbeziehen sollte.

MadMan2k
2004-09-29, 14:09:44
Ohne Ei keine Henne.
das habe ich doch versucht zu beschreiben; aus den NV10-Eiern kamen keine Hennen, auch wenn sie eine Eiform hatten ;)

MadMan2k
2004-09-29, 14:39:50
robbitop, meine reden. Ich sage ja auch immer das man die "Laufzeit" einer Karte bei einer Kaufentscheidung unbedingt mit einbeziehen sollte.
dazu würde ich aber weitesgehend die Performance der Karte und nicht ihr Featurereichtum heranziehen - denn was nützt einem, dass die Karte Effekt X darstellen kann, man ihn aber in der praxis Aufgrund von Performanceproblem abschalten muss?

Ich beziehe mich hier auf die NVX0 Versionen.

LovesuckZ
2004-09-29, 17:13:05
Weil dann auch Hardware verfügbar ist, die Spiele, welche aus SM3 einen Vorteil ziehen, flüssig darstellen kann?
Oder willst du jetzt an unsere karitative Ader appelieren?

Du meinst doch nicht Software, welche auf der Grundlage eines "nutzlosen" Features programmiert wurde?
Aber ich würde genauso argumentieren, wenn die Softwareentwicklung kein evolutionaererprozeß waere.

Quasar
2004-09-29, 18:03:51
das habe ich doch versucht zu beschreiben; aus den NV10-Eiern kamen keine Hennen, auch wenn sie eine Eiform hatten ;)

Deswegen setzt also UT2003 zumindest so auf HTnL, daß man einen ganz netten Boost in Sachen FPS bekommt.

Dann muss das wohl an der unglaublichen Verbreitung der.... errr..... Wildcat Realizm liegen - oda watt? :ugly:

MadMan2k
2004-09-29, 19:52:03
Dann muss das wohl an der unglaublichen Verbreitung der.... errr..... Wildcat Realizm liegen - oda watt? :ugly:
weder an der noch an dem NV10, sonder wegen dem NV15/ R100 am Horizont.

Quasar
2004-09-29, 20:12:40
weder an der noch an dem NV10, sonder wegen dem NV15/ R100 am Horizont.

Klar.... :rolleyes:
Deswegen setzen momentan auch so wahnsinnig viele Spiele auf SM3.0 (und sind ohne kaum mehr spielbar) - nicht wegen nV40, aber wegen nV50/R520 am Horizont? :ugly: :lol:

MadMan2k
2004-09-29, 20:56:30
Klar.... :rolleyes:
Deswegen setzen momentan auch so wahnsinnig viele Spiele auf SM3.0 (und sind ohne kaum mehr spielbar) - nicht wegen nV40, aber wegen nV50/R520 am Horizont? :ugly: :lol:
die Entwicklung von UT2003 Begann, als der NV10 Released wurde und die Engine wurde im Hinblick auf schnellere Karten entwickelt, denn der NV10 ist ja bewiesenermaßen damit überfordert.
Damit wäre die T&L Einheit des NV10 für damalige Zeiten nutzlos, denn er konnte weder mit der bandbreite, noch mit der Füllrate nachkommen.
Erst mit dem NV15 herrschte da annähernt Gleichgewicht. Man hätte sich den NV10 also sparen bzw. nur als Prototyp an die Entwickler gehen lassen können.

Und ja, alle jetzt entwickelten Spiele(Engines), werden vom SM3 Anspruch im Hinblick auf den NV50/R520 entwickelt.

Quasar
2004-09-29, 21:03:30
Erwiesenermaßen ist er das eben nicht. :)
edit2: Du hast das Eingangsposting gelesen, oder?
edit:
Dank HTnL

edit3:
Damit du nicht sagst, ich weiche deiner Argumentation aus:
Wenn du also annimmst, UT2003 sei im Hinblick auf die nV15/R100 entwickelt worden - was glaubst du, hat Epic da für eine Größe der Zielgruppe angepeilt? Nur die paar High-End Freaks, die sich immer gleich das neueste vom neuen kaufen, oder meinst du, sie wollten eventuell doch mehr als, sagen wir, 10.000 Einheiten des Spiels verkaufen?
Meinst du nicht, daß die Basis, die u.a. mit dem nV10 und dem nV11 geschaffen wurde, maßgeblich dafür war, welche Leistung man "dem Rechner" für Ut2003 zuzumuten bereit war?

MadMan2k
2004-09-29, 21:37:09
Erwiesenermaßen ist er das eben nicht. :)
edit2: Du hast das Eingangsposting gelesen, oder?

eben darauf bezieh ich mich ja - 26fps in 640x480 mit ziemlich abgesenkten Details? und das in einem MP-Shooter?


Meinst du nicht, daß die Basis, die u.a. mit dem nV10 und dem nV11 geschaffen wurde, maßgeblich dafür war, welche Leistung man "dem Rechner" für Ut2003 zuzumuten bereit war?[/i]
der NV10 ist Ende 99 erschienen, UT2003 Ende 2002. Ich denke es liegt da nahe, dass man den NV15 als Basis genommen hat.

Quasar
2004-09-29, 22:20:14
eben darauf bezieh ich mich ja - 26fps in 640x480 mit ziemlich abgesenkten Details? und das in einem MP-Shooter?
Die Wahrheit liegt - wie immer - in der Mitte, also irgendwo zwischen Botmatch und FlyBy. Letzteres serviert übrigens 62fps.
Und da UT2003 von Haus aus nicht so ein High-FPS Games wie bsw. Q3 ist, scheinen sich viele mit FPS in den 40er oder 50ern zufriedenzugeben, wie in-Game-Messungen u.a. von 3DCenter zeigen. ;)

edit:
BTW, die 26fps im Botmatch mit 12 Bots sind mit einem Athlon600 zustande gekommen. Der Celeron schaffte nur 18fps. Botmatches, insbesondere mit vielen Bots, sind CPU-limitiert, da die Charakter-Animation von der CPU gemacht wird (neben KI und Physik). HTnL nimmt ihr nur die Arbeit für's Gelände ab - wie man sieht, bringt das schon einiges...

der NV10 ist Ende 99 erschienen, UT2003 Ende 2002. Ich denke es liegt da nahe, dass man den NV15 als Basis genommen hat.
Wie groß war die installierte HTnL-Basis im September 2002 (da kam zumindest schonmal die Demo raus) sans nV10/nV11/RadeonSDR?
Bestimmt doch um einiges kleiner als mit, oder?

Und darum geht es - allein das Vorhandensein eines Features bewirkt technischen Fortschritt in SW, solange die installierte Basis groß genug ist. Gute Beispiele neben HTnL sind TC und Bump-Mapping.
Und wenn ein Feature sogar Speed bringt, anstatt welchen zu kosten, dann umso besser - und genau das ist mit dem HTnL des nV10 geschehen.

MadMan2k
2004-09-30, 17:14:52
Und darum geht es - allein das Vorhandensein eines Features bewirkt technischen Fortschritt in SW, solange die installierte Basis groß genug ist.
und genau daran zweifele ich.
Ich denke man macht es sich viel zu einfach, wenn man die dafür Verantwortlichen, für Idioten erklät, die nur auf die Verbreitung, nicht aber auf die nutzbarkeit der technischen Basis achten.

aths
2004-09-30, 18:16:58
5x schneller bei JKII, in 1600x1200, 4xAA/8xAF, AFAIK bei Anandtech gesehen4x AA und 8x AF sind jeweils auf ihre Weise unsinnige Vergleiche. Die Ti 4600 verliert bei 4x AA derb Leistung, allerdings bringt es ohnehin nur wenig Zusatzqualität. 8x AF sieht dafür schöner aus als auf der Radeon. Mit weltfremden Settings kann man natürlich auch irrelevante Leistungsunterschiede konstruieren.

aths
2004-09-30, 18:20:02
Meinst du nicht, daß die Basis, die u.a. mit dem nV10 und dem nV11 geschaffen wurde, maßgeblich dafür war, welche Leistung man "dem Rechner" für Ut2003 zuzumuten bereit war?Ich meine, nein. Nur weil man UT2003 noch irgendwie auf einer GF2 MX spielen kann, zielte Epic wohl kaum besonders auf diese Leute. Unterhalb GeForce4 Ti kommt für meine Begriffe nicht viel Freude auf.

Mit 'ner GF256 (vor allem der DDR-Version) oder einer GF2 MX (wenns nicht gerade die MX 100/200 ist) kommt vielleicht als anspruchsloser Gelegenheitszocker ins Fadenkreuz Epics Marktausrichtung. Die Engine wurde aber nicht als Eintagsfliege designt und sollte sich mit geringfügigen Änderungen auch 2004 noch verkaufen. Da kann man die Messlatte sicher höher setzen als die Hardware die während der Entwicklung verfügbar war als Zielhardware zu nehmen.

Prinzipiell ist es natürlich gut, dass die GF2 MX auch HW T&L hat. Die MX konnte sich fast jeder leisten, und je schneller sich ein Feature verbreitet desto eher wird es genutzt.

MadManniMan
2004-10-01, 01:32:06
Ich meine, nein. Nur weil man UT2003 noch irgendwie auf einer GF2 MX spielen kann, zielte Epic wohl kaum besonders auf diese Leute. Unterhalb GeForce4 Ti kommt für meine Begriffe nicht viel Freude auf.

...dann verstehst du doch aber auch, daß eine 4Ti schon das absolute Obermaß für den typischen Release-UT2003-Spieler darstellte?

Quasar
2004-10-01, 08:53:47
Ich meine, nein. Nur weil man UT2003 noch irgendwie auf einer GF2 MX spielen kann, zielte Epic wohl kaum besonders auf diese Leute.
Ganz klar meine Meinung: Als "Multiplikatoren" durch "Boah-geile-Grafik"-Faktor nicht, als Käufer ganz sicher schon. Die Leute in Foren wie diesem hier sind viel eher das, was man "early adopters" nennt und haben eine weit überdurchschnittliche Hardwareaustattung.
Sie sind als Käuferzielgruppe allerdings zahlenmäßig viel zu klein (nein, nicht 15.000 User, sondern 15.000 registrierte Accounts... User hat's hier maximal 1.000 IMO) um allein daraus ihre Beachtung zu rechtfertigen, sondern vielmehr dienen sie als billige und willfährige Demo-Plattform (neben den Spielmags, die Bilder von HQ-Settings veröffentlichen und dann Spielbarkeit auch auf kleineren Plattformen attestieren), bei denen sich dann eine weit größere Zielgruppe, nämlich der Freundeskreis, diese Games mal "in echt" anschauen kann und dann ob der tollen Grafik und hoffentlich ob des tollen Gameplays in den Laden rennt, um sich das Game zu kaufen.


Unterhalb GeForce4 Ti kommt für meine Begriffe nicht viel Freude auf.
Meinst du, du stellst mit diesem Anspruch eine durchschnittliche Meinung zu UT2003 zum ungefähren Release-Zeitpunkt dar?


Mit 'ner GF256 (vor allem der DDR-Version) oder einer GF2 MX (wenns nicht gerade die MX 100/200 ist) kommt vielleicht als anspruchsloser Gelegenheitszocker ins Fadenkreuz Epics Marktausrichtung.
Anspruchslose Gelegenheitszocker sind nun aber der größte Markt.



Die Engine wurde aber nicht als Eintagsfliege designt und sollte sich mit geringfügigen Änderungen auch 2004 noch verkaufen. Da kann man die Messlatte sicher höher setzen als die Hardware die während der Entwicklung verfügbar war als Zielhardware zu nehmen.
IMO sollte man die Fähigkeiten der Engine und die eingesetzt Teilmenge davon in einem gegebenen Spiel strikt trennen.
Die Engine-build, die in UT2003 verwendet wird, beherrscht, AFAIK, bsw. auch den Einsatz von Shadern in weit größerem Maße, als es UT2003 vermuten läßt.


Prinzipiell ist es natürlich gut, dass die GF2 MX auch HW T&L hat. Die MX konnte sich fast jeder leisten, und je schneller sich ein Feature verbreitet desto eher wird es genutzt.
Ab wann begann man bei nVidia doch gleich, die Einsteiger-Hardware mit mehr [Haupt- bzw. 3D-Rendering-]Features zu versehen, als die High-End Karten der Vorgängergeneration?
Wenn du das mal ohne Wortklauberei, wie bsw. einen unterstützten Blend-Modus oder ein Texturformat zu Hilfe zu nehmen, beantwortest, kommst du wieder zu dem Schluss, daß ohne HTnL in der GF256 auch kein HTnL in der GF2MX wahrscheinlich/möglich gewesen wäre.

Das alles ist aber nebensächlich, denn darum geht es hier nicht - HTnL und seine Bedeutung für einige erhältliche Spiele sind das Thema.

robbitop
2004-10-01, 09:11:08
naja aths. Du hast auch extreme Ansprüche an die Grafik. Die kann man an so alte Karten nicht mehr stellen. Sorry, finde dich manchmal etwas weltfremd (ich meine vA solche Situationen).

Ein Athlon600 und eine NV10/11 sind sicher keine Rakete und man muss Details runterstellen. Aber spielen um des Spieles Willen geht damit noch.
Und stell dir mal vor, du kommst auf eine LAN ohne eigenen PC und jmd bietet dir so einen 2.PC an, der dir ermöglicht, mitzuzocken. Dann kann TnL u.A. der Grund dafür sein, dass du überhaupt noch mitspielen kannst.

Gaestle
2004-10-01, 13:02:44
Also ich seh' es so, dass eine NEUE Karte zwei Dinge können muss:
1.) alles was aktuell da ist, so schnell rendern wie bisher noch nicht geschehen.
2.) einen Ausblick in die Zukunft geben. Auch wenn es nur ein Blick durch's Schlüsselloch ist. Schließlich will man ja in zwei-drei Jahren immer noch was verkaufen. Von daher wäre es IMHO ökonomisch falsch, gleich die Tür komplett aufzustoßen, wenn's ein Schlüsselloch-Blick auch tut.

Außerdem sollte man IMHO nicht vergessen, dass man nicht sofort von null auf hundert gehen kann, sonst hätte die allererste Grafikkarte eigentlich eine Karte sein müssen, die alles in Fotorealismus darstellen kann. Denn - vorausgesetzt dieser Realismus ist das letztliche Ziel der Entwicklung - alle Zwischenschritte hin zu diesem Realismus wären nach der Auffassung "NV10 war überflüssig, weil TnL-Einheit zu schwach" strenggenommen auch überflüssig.
Ich denke mal, ohne SM1.0 kein SM1.1, kein SM 1.3, kein SM1.4, kein SM2.0 und kein SM3.0 - denn auch wenn diese SM nicht technologisch aufeinander aufbauen - IDEEL werden sie schon zusammenhängen. Man hat gesehen, was SM1.0 kann, hat aber auch einige Defizite gesehen und diese ausgemerzt (SM1.1). Dann ist man noch weiter gegangen - SM1.3. Aber auch dies war nicht gut genug, also kam SM1.4 um diesen Standard dann zu SM2.0 weiterzueentwickeln.. etc. pp.

Insofern hatte IMHO HW-TnL auf jeden Fall seine Berechtigung und auch die GF256 (auch wenn ich bis heute ohne HW-TnL in jeglicher Form geblieben bin.... :biggrin: KYRO1 rulezzzzzzz!!!!).

Grüße

Quasar
2004-10-01, 16:26:56
Wären ~30fps im UT2003-Pyramid-Demo spielbar? Leo meinte in seinem Review der 5800 vs. 9700, die Grenze wären 25fps.

MadMan2k
2004-10-01, 16:39:15
2.) einen Ausblick in die Zukunft geben. Auch wenn es nur ein Blick durch's Schlüsselloch ist. Schließlich will man ja in zwei-drei Jahren immer noch was verkaufen. Von daher wäre es IMHO ökonomisch falsch, gleich die Tür komplett aufzustoßen, wenn's ein Schlüsselloch-Blick auch tut.

wozu soll man Transistoren für das Schlüsselloch verschwenden, wenn alles was man dadurch sieht Techdemos sind, die die Technik in völlig weltfremden Kontext einsetzten?
Stattdessen könnte man doch besser den Preis drücken oder ob der geringeren Transistorzahl höher takten...


Außerdem sollte man IMHO nicht vergessen, dass man nicht sofort von null auf hundert gehen kann,

stimmt aber dafür gibt es Prototypen, die man meinetwegen an Entwickler schicken kann, aber für den Endverbraucher IMO wenig Sinn machen.

Die ersten Grafikkarten sind übrigens von 0 auf 100 durchgestartet, denn die Features, welche sie hatten, haben sie auch beherrscht.

Bei NV sieht as allerdings so aus:

T&L: NV10 (prototyp) > NV15 (nutzbar)

SM1.x: NV20 (prototyp) > NV25 (nutzbar)

SM2.x: NV30 (prototyp) > NV35 (nicht viel besser) > NV40 (nutzbar)

SM3.0: NV40 (prototyp) > ...

Quasar
2004-10-01, 16:49:31
wozu soll man Transistoren für das Schlüsselloch verschwenden, wenn alles was man dadurch sieht Techdemos sind, die die Technik in völlig weltfremden Kontext einsetzten?
Stattdessen könnte man doch besser den Preis drücken oder ob der geringeren Transistorzahl höher takten...


stimmt aber dafür gibt es Prototypen, die man meinetwegen an Entwickler schicken kann, aber für den Endverbraucher IMO wenig Sinn machen.

Die ersten Grafikkarten sind übrigens von 0 auf 100 durchgestartet, denn die Features, welche sie hatten, haben sie auch beherrscht.

Bei NV sieht as allerdings so aus:

T&L: NV10 (prototyp) > NV15 (nutzbar)

SM1.x: NV20 (prototyp) > NV25 (nutzbar)

SM2.x: NV30 (prototyp) > NV35 (nicht viel besser) > NV40 (nutzbar)

SM3.0: NV40 (prototyp) > ...

Ich glaube nicht, das ein HW-Feature durch mehr Takt ersetzbar ist, wenn es sich erstmal in der Software genutzt wiederfindet.
Auch 10% höherer Takt oder ein um 10EUR geringerer Preis ändern daran nichts.

Auch deine von 0 auf 100 Analogie der ersten Grafikkarten stimmt so nicht ganz - denn die büßten oftmal Geschwindigkeit beim Nutzen dieser Features ein, wenn Games denn überhaupt deren Nutzung zuliessen.
Erst die Voodoo Graphics konnte bessere BQ mit besserem Speed verbinden, aber das war ja schon die zweite Generation. ;)

Und deine nV-History - naja, HTnL bringt in UT2003 ganz schön Leistung, selbst mit einem Tuleron 1GHz noch.... ;D

Quasar
2004-10-01, 19:23:49
Update, bitte Eingangsposting beachten.

StefanV
2004-10-01, 19:52:30
Hast du auch noch 'ne GF2 MX oder GF1 SDR??

Quasar
2004-10-01, 20:01:05
Das ist 'ne GF1 SDR. :)
Aber 'ne 2MX hab ich auch.

aths
2004-10-01, 21:58:34
...dann verstehst du doch aber auch, daß eine 4Ti schon das absolute Obermaß für den typischen Release-UT2003-Spieler darstellte?Wann kam UT 2003 noch mal raus? Falls das 2003 war, gabs schon besseres als die GF4 Ti. (So richtig genießen konnte ich UT2004 erst mit dem leider nur zeitweise eingebauten NV40.)

StefanV
2004-10-01, 22:03:26
DAmals hatte ich die Parhelia noch, als es rauskam, also kurz nach dem Release der PH müsste UT2003 rausgekommen sein.

Etwas später kam dann auch die 9700...

aths
2004-10-01, 22:03:30
Ganz klar meine Meinung: Als "Multiplikatoren" durch "Boah-geile-Grafik"-Faktor nicht, als Käufer ganz sicher schon.Ja. Auf der anderen Seite war sich Epic wohl bewusst, die gleiche Engine (mit ähnlichen Anforderungen) über einen längeren Zeitraum zu verkaufen. Was es an Hardware an dem Tag gab, als das Spiel zum ersten mal im Laden stand, ist damit nicht so entscheidend gewesen. Es ist ja auch kein Verbrechen ein Spiel zu releasen dass so manchen überlegen lässt, seine Hardware aufzurüsten.

Anspruchslose Gelegenheitszocker sind nun aber der größte Markt.Ob das auch bei einem Online-Shooter so ist, wage ich zu bezweifeln.

Ab wann begann man bei nVidia doch gleich, die Einsteiger-Hardware mit mehr [Haupt- bzw. 3D-Rendering-]Features zu versehen, als die High-End Karten der Vorgängergeneration?
Wenn du das mal ohne Wortklauberei, wie bsw. einen unterstützten Blend-Modus oder ein Texturformat zu Hilfe zu nehmen, beantwortest, kommst du wieder zu dem Schluss, daß ohne HTnL in der GF256 auch kein HTnL in der GF2MX wahrscheinlich/möglich gewesen wäre.Ich wüsste nicht, irgendwann das Gegenteil geäußert zu haben.

mapel110
2004-10-01, 22:09:25
sep 2002 kams raus. :)


SM2.x: NV30 (prototyp) > NV35 (nicht viel besser) > NV40 (nutzbar)


wenn ich mir die erste "ps2.0-miminum-anwendung" 3dmark05 anschaue, stimmt diese Aussage nicht.

aths
2004-10-01, 22:10:29
Etwas später kam dann auch die 9700...Darauf wollte ich hinaus :) Das Bessere ist des Guten Feind. Die GeForce4 Ti 4600 war gut ...

Gast
2004-10-02, 19:56:26
TnL war letztendlich ein Marketing-Gag von Nvidia, der Unterschied zu der "32-Bit-Lüge" mit der Nv die V3 gebasht hat ist das 32 bit rendering ein technischer Schritt war der kommen musste, auch wenn er bei den TnT-Karten und den damaligen Spielen nicht wirklich nutzbar war. Die Einführung war sinnvoll, die Vermarktung ein Witz. TnL hingegen war zu Dx7 Zeiten schlicht und ergreifend sinnlos. Ich bestreite nicht dass Ut2003 (!) u.ä. mit TnL schneller läuft, aber das sind Spiele der Dx8 Ära, nur wenige Spiele waren zu Dx7 Zeiten auf TnL optimiert, z.B. Q3A. In diesem speziellen Fall habe ich jedoch die Erfahrung gemacht dass es trotz Implementation keinen wirklichen Leistungvorteil brachte, ähnlich der Multiprozessor-Unterstützung der Engine, die war auch für die Katz...

Gast
2004-10-02, 20:13:15
Alle OpenGL-basierten Spiele unterstützen TnL ohne Zutun des Programmierers.

Lokadamus
2004-10-03, 06:54:55
Grafik: ELSA Erazor X (Det. 45.23)
mmm...

:eek: Fett :ucatch:. Hab eben dieses Review (http://www.hardtecs4u.com/reviews/2000/erazorx2/index3.php) gefunden, wo es heisst, dass die Karte mit der Treibernummer, ich zitiere:
Erst heute, nach Beendigung des Test's, erreichte uns das frische Treiberrelease von ELSA in deren Versionsnummer 4.12.01.0206-0050 auf Basis von NVIDIAs Referenztreiber v. 5.30. Die nachfolgenden Test's, Ausführungen und Ergebnisse beziehen sich damit noch auf die alten Treiber. Im Nachgang dazu, werden wir allerdings noch auf die neueste Revision eingehen.
rausgekommen ist. Ich bin von der Treiberentwicklung seitens NVidia enttäuscht, haben sie wohl fast 5 Jahre gebraucht, um von Treiber 45.23 auf Treiber 66.5X Beta zu kommen :ucrazy4: ... irgendwo hab ich einen grossen Denkfehler :ucrazy3: (und wer ihn findet, darf ihn behalten :P), aber Quasar weiss hoffentlich, was ich will :uup: ...

MadMan2k
2004-10-03, 09:58:40
Ich glaube nicht, das ein HW-Feature durch mehr Takt ersetzbar ist, wenn es sich erstmal in der Software genutzt wiederfindet.
Auch 10% höherer Takt oder ein um 10EUR geringerer Preis ändern daran nichts.

jemand mit ner FX5600 dürfte da anders drüber denken... ;)


Auch deine von 0 auf 100 Analogie der ersten Grafikkarten stimmt so nicht ganz - denn die büßten oftmal Geschwindigkeit beim Nutzen dieser Features ein, wenn Games denn überhaupt deren Nutzung zuliessen.
Erst die Voodoo Graphics konnte bessere BQ mit besserem Speed verbinden, aber das war ja schon die zweite Generation. ;)
da haste ir aber gerade die ausnahme herausgepickt - die ersten Karten mit 3D-Features waren eher Testläufe, ob sowas vom privaten Markt benötigt wird, was man anesichts der wackeligen Versuche auch min nein hätte beantworten können - bis Voodoo Graphics kam.
Davor und danach(bis NV) waren allerdings alle Fatures auch auf der Karte nutzbar, auf der sie vorgestellt wurden.


Und deine nV-History - naja, HTnL bringt in UT2003 ganz schön Leistung, selbst mit einem Tuleron 1GHz noch.... ;D
jo ne Leistungssteigerung um 100%, bei dem Celeron sogar um 130% - allerdings ist UT2003 mit 30fps immernoch im unspielbaren Bereich...

Ailuros
2004-10-03, 13:49:09
Im Endeffekt brauchen wir heute genauso viel Geometrie-Einheiten in HW, als auch hochqualitatives Antialiasing (genauso wie 32bpp).

Ich erinnere mich noch an das 100 T&L Spiele PR-Geblubber, genauso aber auch an ein merkwuerdiges Versprechen dass FSAA auf VSA-100 spielbar sein wird.

Ganz grob und vereinfacht meinte man wohl im ersten Fall nur das "T" und nicht das "L"; im zweiten Fall meinte man eben eher 16bpp obwohl es eher tragische Ironie war dass Napalm der erste 3dfx chip war der fuer 32bpp faehig war.

Anders ausgedrueckt wurde hier in diesem Thread Kompatibilitaet fuer die Zukunft erwaehnt und auch Beispiele wie KYRO. Haette die damalige Cooperation zwischen STM und IMG den originalen KYROIII stehen gelassen und haette dieser den Platz der KYROII eingenommen, dann waere der erste nicht nur kompatibler gewesen, er haette auch eine viel laengere Brauchbarkeit gehabt. Das "ich brauchte im Jahr 2001 kein T&L" ist Bloedsinn wenn man bedenkt dass Naomi2 auch noch heute durchaus brauchbar ist im Arcade-Markt.

Noch ein Stueck weiter (um mich ein bisschen von der Theorie zu entfernen): der PDA/mobile Markt ist immer noch in seinen Windeln was 3D betrifft und es geht so langsam los.

Ich werde zwar eingestehen muessen dass sich dieser Markt verdammt schneller bewegen wird als der PC desktop Markt in der Vergangenheit, aber PowerVR selber machte einen Ansatz mit einem chip der eine optionale Geometrie-Einheit mit sich fuehren kann, waehrend andere IHVs wie NVIDIA anscheinend doch noch momentan mit einem chip ankommen dem eine volle integrierte Geometrie-Einheit fehlt.

In dem Fall ist NV auch spaeter in diesen Markt eingestiegen, was wohl nur heisst dass sie so schnell wie moeglich nachholen werden.

Nochmal zurueck zum Antialiasing: zweifellos ist der Qualitaet's-Unterschied zwischen OGSS und RGSS gross was die V5/GTS Aera betrifft, aber die damalige Behauptung seitens 3dfx dass GF2/OGSS nur "SW-FSAA" waere, war eine bodenlose Frechheit. Dass der T-Buffer ein Nachgedanke war fuer den VSA-100 und nur eine SSAA Variante des MSAA M-Buffers auf Rampage ist auch nichts neues. Falls es hier um "nicht eingeloeste Versprechen" gehen wuerde, dann hat wohl auch 3dfx quasi den Zug verpasst brauchbareres Antialiasing zeitig zu liefern (dass 3dfx mit einer T&L Einheit von einer dritten Firma - mit grottenschlechter Geometrie-Leistung - fuer Napalm vor der Veroeffentlichung herumspielte lass ich auch lieber weg).

Die eigentliche Frage ist ob man sich auf das PR-/Marketing-Geblubber des jeglichen IHV konzentrieren will, oder ob man sich hinsetzen will und die Vergangenheit unter einem anderen Licht ansehen.

Quasar
2004-10-03, 15:00:48
aber Quasar weiss hoffentlich, was ich will :uup: ...
Ja, du willst, daß ich versuche, UT2003 mit einem fünf Jahre alten Treiber zum Laufen zu bekommen. Dieser Logik zufolge hätte ich allerdings einen Treiber nehmen müssen, der zu Zeiten des UT2003-Launches aktuelle war - September 2002?

Um ehrlich zu sein, habe ich darüber nachgedacht, aber ich wollte mir einfach die Zeitersparnis gönnen, nicht erst groß rumprobieren zu müssen, ab welchem Treiber welches Spiel noch funktionierte und da ich mit dem 45.23er sehr lange recht gute Erfahrungen gemacht habe (u.a. auch mit GF2MX), nahm ich halt diesen - so wie es jedem freisteht, dies zu tun, der heute mit einer GF256 UT2003 spielen möchte.

Lokadamus
2004-10-03, 15:09:14
Ja, du willst, daß ich versuche, UT2003 mit einem fünf Jahre alten Treiber zum Laufen zu bekommen. Dieser Logik zufolge hätte ich allerdings einen Treiber nehmen müssen, der zu Zeiten des UT2003-Launches aktuelle war - September 2002?

Um ehrlich zu sein, habe ich darüber nachgedacht, aber ich wollte mir einfach die Zeitersparnis gönnen, nicht erst groß rumprobieren zu müssen, ab welchem Treiber welches Spiel noch funktionierte und da ich mit dem 45.23er sehr lange recht gute Erfahrungen gemacht habe (u.a. auch mit GF2MX), nahm ich halt diesen - so wie es jedem freisteht, dies zu tun, der heute mit einer GF256 UT2003 spielen möchte.mmm...

Nicht mit dem ganz alten Treiber, aber einer aus der 20er oder 30er Reihe wäre nett. Im September 2002 dürfte der 40.52 Deto- Treiber rausgekommen sein, zumindest laut Google (http://www.google.de/search?q=september+2002+nvidia+detonator) ... es würde mich nicht wundern, wenn mit den alten Treibern die Ausgangsaussage stimmen würde. Nebenbei "sollte" auch der Name der verwendeten .exen umbenannt sein, um sicher zu gehen, dass Nvidia keine Optimierungen drinne hat, ansonsten sind solche Treibertests (das ist ja das doofe bei Grafikkarten) etwas "dumm" und es werden wieder Optimierungen benutzt ...

Quasar
2004-10-03, 15:26:37
jemand mit ner FX5600 dürfte da anders drüber denken... ;)
Inwiefern sollte eine fiktive FX5600 mit mehr Takt (wieviel mehr wäre realistisch?) aber ohne DX9-Shaderhardware von diesem Mehrtakt profitieren, wenn es darum geht, DX9-Shader auszuführen?


da haste ir aber gerade die ausnahme herausgepickt - die ersten Karten mit 3D-Features waren eher Testläufe, ob sowas vom privaten Markt benötigt wird, was man anesichts der wackeligen Versuche auch min nein hätte beantworten können - bis Voodoo Graphics kam.
Davor und danach(bis NV) waren allerdings alle Fatures auch auf der Karte nutzbar, auf der sie vorgestellt wurden.
EMBM auf der Matrox G400?
32Bit-Rendering auf der Matrox G200?
TnL auf der Savage2000 (funktionierte TnL dort nun oder nicht)?

Ich glaube nicht, das man hier diversen IHVs Schuld geben muss. Features müssen nunmal erstmal vorhanden sein, bevor sie in Software genutzt werden können.

Oder glaubst du, ein beliebiger ISV würde heute eine Software im Massenmarkt verkaufen wollen, die bsw. 64Bit-Technologie voraussetzt oder Festplattenplatz im Terabyte-Bereich oder >4GiB RAM?


jo ne Leistungssteigerung um 100%, bei dem Celeron sogar um 130% - allerdings ist UT2003 mit 30fps immernoch im unspielbaren Bereich...
Da sind aber zumindest Leonidas und ich anderer Meinung.

Wie schnell lief Quake I noch gleich mit Voodoo Graphics und GLide? ;) (http://graphics.tomshardware.com/graphic/19971130/quake-03.html) (**ick mich, ich bin ein Smiley)
Auch unspielbar und Voodoo Graphics damit nutzlos? Denke, kaum, oder?

Quasar
2004-10-03, 15:28:42
mmm...

mmm.... wir reden hier von einer GF256 - Ich glaube, deren Optimierungen sind schon längst wieder rausgeflogen - man wollte doch die Nachfolger verkaufen.

edit:
BTW, es geht hier nicht um einen Treibertest, sondern um den Nutzen eines gewissen HW-Features.

Coda
2004-10-03, 15:35:31
Wie schnell lief Quake I noch gleich mit Voodoo Graphics und GLide?
Gar nicht, es gab nie einen Glide-Port von Quake.

Quasar
2004-10-03, 15:56:55
Aber einen OpenGL-Port, den der 3dfx-Treiber auf GLide-Instructionen umgesetzt hat AFAIK.
Zumindest aber einen auf die von Q benutzen Anweisungen beschränkten OpenGL-Wasauchimmer.

Piffan
2004-10-03, 18:46:55
Es gab einen Mini- OpenGl- Port/Treiber von Dfx. Von Wicked-3d wurde ne eigene Version gestrickt....War sehr schlank und beschleunigte Spiele wie Half-life und Hexen2/Heretic 2 recht ordentlich....Sogar Quake 3 sah durch den Mini-openGl- Treiber von Wicked 3d auf ner Voodoo2- SLI recht gut aus.....performance-technisch gesehen.

Lokadamus
2004-10-03, 19:26:37
mmm.... wir reden hier von einer GF256 - Ich glaube, deren Optimierungen sind schon längst wieder rausgeflogen - man wollte doch die Nachfolger verkaufen.

edit:
BTW, es geht hier nicht um einen Treibertest, sondern um den Nutzen eines gewissen HW-Features.mmm...

Jup, und dummerweise braucht man für gewisse Hardware irgendwelche Treiber und diese werden permanent weiterentwickelt oder warum braucht die Welt alle paar Wochen einen neuen Satz an Grafikkartentreibern? Die Hardware ist immernoch die gleiche ...

Quasar
2004-10-03, 19:30:07
Gibt es ein Indiz dafür, daß die HTnL-Leistung der GF256 mit älteren Treibern unter UT2003 geringer ist, daß du so darauf herumreitest?

Oder mehr die Filteroptimierungen - die allerdings erst mit der FX-Serie Überhand nahmen?

MadMan2k
2004-10-03, 21:33:08
Inwiefern sollte eine fiktive FX5600 mit mehr Takt (wieviel mehr wäre realistisch?) aber ohne DX9-Shaderhardware von diesem Mehrtakt profitieren, wenn es darum geht, DX9-Shader auszuführen?

falscher Ansatz: warum sollen Shader ausgeführt werden? Wegen der Grafischen Ausgabe einer Anwendung, konkret eines Spieles, bei der es auf Ausführungsgeschwindigkeit ankommt.
Wenn eben diese wegen den Shadern abnimmt, und man die Shader abschalten muss, hat man ein paar nutzlose transistoren auf der Karte...


EMBM auf der Matrox G400?
32Bit-Rendering auf der Matrox G200?
TnL auf der Savage2000 (funktionierte TnL dort nun oder nicht)?

ok, hast recht...


Da sind aber zumindest Leonidas und ich anderer Meinung.

Wie schnell lief Quake I noch gleich mit Voodoo Graphics und GLide? ;) (http://graphics.tomshardware.com/graphic/19971130/quake-03.html) (**ick mich, ich bin ein Smiley)
Auch unspielbar und Voodoo Graphics damit nutzlos? Denke, kaum, oder?
was war Quake1 primär noch gleich? Richtig, Singleplayer.

Quasar
2004-10-03, 21:52:37
wozu soll man Transistoren für das Schlüsselloch verschwenden, wenn alles was man dadurch sieht Techdemos sind, die die Technik in völlig weltfremden Kontext einsetzten?
Stattdessen könnte man doch besser den Preis drücken oder ob der geringeren Transistorzahl höher takten...
Ich glaube nicht, das ein HW-Feature durch mehr Takt ersetzbar ist, wenn es sich erstmal in der Software genutzt wiederfindet.
Auch 10% höherer Takt oder ein um 10EUR geringerer Preis ändern daran nichts.
jemand mit ner FX5600 dürfte da anders drüber denken... ;)
Inwiefern sollte eine fiktive FX5600 mit mehr Takt (wieviel mehr wäre realistisch?) aber ohne DX9-Shaderhardware von diesem Mehrtakt profitieren, wenn es darum geht, DX9-Shader auszuführen?
falscher Ansatz: warum sollen Shader ausgeführt werden? Wegen der Grafischen Ausgabe einer Anwendung, konkret eines Spieles, bei der es auf Ausführungsgeschwindigkeit ankommt.
Wenn eben diese wegen den Shadern abnimmt, und man die Shader abschalten muss, hat man ein paar nutzlose transistoren auf der Karte...
Vielleicht war meine (hier fett hervorgehobene) Einschränkung nicht klar genug. :)
Ich hätte vielleicht schreiben sollen, "wenn es sich erstmal in der Software vorausgesetzt wiederfindet".
Irgendwann ist für die meisten Features der Zeitpunkt erreicht, an dem es Spiele gibt, die ein bestimmtes Feature einfach voraussetzen. Ein Beispiel, was dir vielleicht leichter akzeptabel erscheint, weil hier nV die Gearschtne sind, wäre Splinter Cell 3. Hier gibt es keinen Support mehr für shaderlose Hardware - da nützen auch die 300MHz einer GF4 MX460 gegenüber den 175MHz einer GF3 Ti200 nichts mehr.

Mein Beispiel war vorher eben UT2003 - ohne HTnL lief hier per default nichts und mit einem High-End Rechner aus der Launch-Zeit der GF256 liefe das Game heute noch mit Ach und Krach (merke: ich sprach nie von makelloser Spielbarkeit).
Soll ich mal die Kyro II (die allerdings auch noch 'etwa' später herauskam) oder eine Rage128 oder TNT2u in den Athlon tun und schauen, wie toll UT2003 damit und mit Soft-TnL noch läuft?

Wie gesagt, ein paar kleinere Maps habe ich ohne größere Probleme spielen können - natürlich nicht so angenehm wie mit einem aktuellen Rechner, soviel sollte einem der gesunde Menschenverstand schon klarmachen. ;)


was war Quake1 primär noch gleich? Richtig, Singleplayer.
Primär eigentlich ein Egoshooter, wie UT2003. Die Mär, daß dafür durchgehende 60fps nötig seien, kommt von 3dfx und Quake3. ;)

Ailuros
2004-10-04, 00:08:01
Soll ich mal die Kyro II (die allerdings auch noch 'etwa' später herauskam) oder eine Rage128 oder TNT2u in den Athlon tun und schauen, wie toll UT2003 damit und mit Soft-TnL noch läuft?

Extrem CPU limitiert (single player/botmatches) fuer alle. Leistung steigt je nach CPU Frequenz, auch ueber die Grenzen wo jegliche dieser Karten normalerweise nicht mehr skalieren.

K2 geht noch in 800*600 normal detail AFAIK. Haette STM den K3@166MHz fuer die K2 nicht storniert haette dieser theoretisch mit Leichtigkeit mit einer GF3 Ti200 konkurrieren koennen in UT2k3.

robbitop
2004-10-04, 00:19:26
wenn sie das Ding damals ohne Komplikationen in einer nicht zu langen Zeitspanne marktreif bekommen hätten ja.
Aber wer weiss, ob das so geklappt hätte...

Ailuros
2004-10-04, 02:54:17
wenn sie das Ding damals ohne Komplikationen in einer nicht zu langen Zeitspanne marktreif bekommen hätten ja.
Aber wer weiss, ob das so geklappt hätte...

Keine Ahnung ob 166MHz@150nm je zu Silizium kam und wenn ja, wann. STM stornierte auf jeden Fall dieses Projekt fuer die K2 AFAIK. K3@250MHz/130nm war Anfang 2002 Produktionsreif.

Um das geht es ja gar nicht im Grund; es geht mir darum dass eine K3@166MHz mit 4 pipes/DDR/T&L nicht nur schneller und natuerlich etwas teurer als die K2 gewesen waere, aber haette auch eine um einiges laengere Lebenszeit in relativem Sinn gehabt. STM furzte eine Ewigkeit selbst mit der KYRO und KYRO2 bei TSMC herum, weil sie in ihrem eigenen Malta fab immer noch mit oedem 250nm Quark beschaeftigten.

Dass PowerVR gleich beim Einsatz im PDA/mobile Markt der noch in Windeln liegt, an eine Geometrie-Einheit dachte (optional aber fuer alle Modelle), sagt mir persoenlich dass man vielleicht Fehler der Vergangenheit eingesehen hat und die Strategie dementsprechend angepasst hat.

robbitop
2004-10-04, 08:25:57
130nm für Anfang 2002 (auch wenn die VPU nicht so komplex und hochgetaktet war)?? Damals war 130nm AFAIR weder bei TSMC noch bei UMC so weit, dass ein High Performance Prozess in Serie gehen könnte bei akzeptablen Ausbeuten. Wobei ich mich auch hier irren kann.

Ich frage mich nur, ob man den K3 denn schnell genug hinbekommen hätte.
Ein Lizenzmodell ist ziemlich suboptimal für einen IHV. Es dauert alles viel länger und vieles wird sicher nicht so wie geplant (viele Köche verderben den Brei).

Ailuros
2004-10-04, 09:25:45
130nm für Anfang 2002 (auch wenn die VPU nicht so komplex und hochgetaktet war)?? Damals war 130nm AFAIR weder bei TSMC noch bei UMC so weit, dass ein High Performance Prozess in Serie gehen könnte bei akzeptablen Ausbeuten. Wobei ich mich auch hier irren kann.

Natuerlich irrst Du Dich und Du weichst auch vom Thema zu stark ab. 130nm nicht low-k 130nm und ich weiss genau seit wann die Samples existieren.

Ich frage mich nur, ob man den K3 denn schnell genug hinbekommen hätte.
Ein Lizenzmodell ist ziemlich suboptimal für einen IHV. Es dauert alles viel länger und vieles wird sicher nicht so wie geplant (viele Köche verderben den Brei).

Um das geht es auch nicht. Der Punkt ist anderswo und dabei ging es nur um falsche Entscheidungen weil STM (im gegebenen Fall der Kunde) nichts davon gehalten hat. Nach deren Empfindung war das Preis/Leistungs-Niveau hoeher bei K2 und der K3 wurde einfach auf einen neuen Prozess fuer 130nm/250MHz + refreshes nochmal nachgeplant (und Du weisst genau dass so was nicht eine Frage von ein paar Wochen ist). Hier liegt das Thema und das Problem und nicht ob es moeglich gewesen waere. Elan gab es schon eine Ewigkeit davor in Naomi2 boards.

Natuerlich kann das Lizenzmodell suboptimal werden wenn man einen bekloppten Kunden hat; ATI's Lizenz an Microsoft fuer Xenon ist aber im anderen Fall nicht suboptimal. Ja anderer Markt aber hier kann man sich auch keine Verspaetungen oder miese Designs leisten wenn man schon gegen einen Giganten wie SONY antreten will.

Nochmal mein Punkt ist anderswo: waere tatsaechlich T&L so unwichtig und nutzlos am Ende, dann gaebe es keinen Grund fuer PVR gleich mit einer so starken Geometrie-Einheit in den PDA Markt einzutreten, ueberhaupt wo dieser momentan eher gerade noch am Anfang ist.

robbitop
2004-10-04, 09:46:20
schön, dass ich nun weiss was der Punkt ist und was nicht.
Danke für die Diskussion.

Lokadamus
2004-10-04, 19:56:11
Gibt es ein Indiz dafür, daß die HTnL-Leistung der GF256 mit älteren Treibern unter UT2003 geringer ist, daß du so darauf herumreitest?

Oder mehr die Filteroptimierungen - die allerdings erst mit der FX-Serie Überhand nahmen?mmm...

Die Filteroptimierungen und was damit zusammenhängt ...

Quasar
2004-10-04, 19:58:53
Brilinear und solche Geschichten kann die GF256 doch noch nichtmal...

hmx
2004-10-04, 21:11:36
Brilinear würde auf einer GF256 auch nichts bringen, da 4x1tri...

robbitop
2004-10-04, 21:55:57
nein. Das würde nur bei fast-tri-tmus nichts bringen.
Echte Tri TMUs können auch 2xbi AF for free samplen.
Und da Brilinear im Prinzip Bilinear + sehr wenig trilineare Filterung zwischen den Mipmaps (Mipband) ist, würde man schon davon profitieren.
Allerdings natürlich nicht in dem Maße wie bei einer X*1bi Architektur.

hmx
2004-10-04, 22:02:59
So weit ich weiss kann die die GF256 wie übrigens auch die GF4ti nur entweder
4 bilineare oder 4 trilineare Samples pro Takt erstellen. (der "AF-Bug" der GF4ti, die GF256 zeigte afaik das selbe Verhalten)
Hätte vielleicht dazuschreiben sollen, dass dies bei tri-TMUs nicht zwangsläufig so sein muss.

robbitop
2004-10-04, 23:02:59
hm, davon wusste ich noch nichts.
Man lernt nie aus :-)

kann das jemand verifizieren?

hmx
2004-10-04, 23:05:35
Ich glaube das stand irgendwo in dem GF4ti AF-Bug Artikel.

aths
2004-10-05, 00:18:41
nein. Das würde nur bei fast-tri-tmus nichts bringen.
Echte Tri TMUs können auch 2xbi AF for free samplen.Nicht unbedingt.

Ailuros
2004-10-05, 00:29:18
mmm...

Die Filteroptimierungen und was damit zusammenhängt ...

Ein Algorithmus ist nicht nur Software-basierend.

Wie dem auch sei beim release der originalen GF gab es genau wieviel Karten der Konkurrenz die wahres trilinear vollziehen konnten?

aths
2004-10-05, 00:37:42
Ein Algorithmus ist nicht nur Software-basierend.

Wie dem auch sei beim release der originalen GF gab es genau wieviel Karten der Konkurrenz die wahres trilinear vollziehen konnten?Voodoo kanns Single Pass :)

Ailuros
2004-10-05, 00:39:12
Nicht unbedingt.

2xAF bringt sowieso nur maessige Resultate, ausser es handelt sich um sehr kleine Raeume als Beispiel. Wenn es um 2xbiAF ginge dann ist mir reines trilinear oder bilinear + SSAA doch lieber (rein auf Qualitaet konzentriert).

Ailuros
2004-10-05, 00:40:06
Voodoo kanns Single Pass :)

Echtes trilinear? :|

***edit: zur Zeit der GF256 Vorstellung hatte ich eine V3 3000. Das einzige etwas "schnellere" damals von 3dfx war die 3500.

aths
2004-10-05, 00:46:56
Echtes trilinear? :|

***edit: zur Zeit der GF256 Vorstellung hatte ich eine V3 3000. Das einzige etwas "schnellere" damals von 3dfx war die 3500.Voodoo3 kann auch echtes trilinear, jedenfalls wenn man die Hardware betrachtet. Im Treiber war ja nur dieses MIP-map-dithering freigeschaltet.

marco42
2004-10-05, 00:53:07
Heutzutage kann man sehen, dass die GF mit HW T&L schneller sein kann als mit SW T&L. Doch die Spiele die tatsächlich Highpoly-Modelle verwenden benötigen schon was vom Kaliber GF4 Ti. Natürlich hätte es die nicht ohne GF3, und jene nicht ohne GF256 gegeben. Der Vertexshader 1.1 ist hardwaremäßig eine verbesserte NV10-T&L-Unit.

bist du dir da so sicher? wenn du GLSL transform() benutzt hast du probleme unter nv2x. da da etwas anderes heraus kommen kann, wie unter der hardwired geometry engine. steht sehr schon beschrieben in nvidia paper zu ihrer GLSL implementation drin.

Ailuros
2004-10-05, 01:11:06
Voodoo3 kann auch echtes trilinear, jedenfalls wenn man die Hardware betrachtet. Im Treiber war ja nur dieses MIP-map-dithering freigeschaltet.

Ich dachte schon ich haette mit einem Jahr Erfahrung mit Avenger etwas uebersehen. Theoretisch unterstuetzte auch die R200 MSAA in dem Sinn...

Lokadamus
2004-10-05, 05:05:21
Ein Algorithmus ist nicht nur Software-basierend.mmm...

:| Beschimpfung über geistige Höhenflüge ... Über Software, welches dummerweise Software ist und damit irgendwie zur GPU gelangen muss (zum Glück nicht über die CPU, ansonsten haben wir ein kleines Verständnisproblem:|), kann man sehr viele Sachen optimieren, was soweit gehen kann, das viele Funktionen von der Graka auf die CPU verlagert werden kann. Wenn ich mich auf eine alte Aussage beziehe, hab ich leider das Vergnügen, das ich mich um "sämtliche" Parameter, die die Leistung beeinflüssen können, auseinandersetzen darf. Genauso wäre ein Test für Software- TnL auf einer 3 GHz- Maschine auch nett, nur dürfte da die CPU schneller sein als die GPU der Geforce 1, was zwar die Kernaussage bestätigen würde, aber im falschen Zusammenhang sein würde ...

robbitop
2004-10-05, 07:46:09
Nicht unbedingt.
Dann sei bitte so freundlich und erläutere das ein wenig ;)

StefanV
2004-10-05, 08:33:04
Ein Algorithmus ist nicht nur Software-basierend.

Wie dem auch sei beim release der originalen GF gab es genau wieviel Karten der Konkurrenz die wahres trilinear vollziehen konnten?
Hm, Matrox G200 + G400 ;)

Quasar
2004-10-05, 11:06:04
Voodoo kanns Single Pass :)
Auch Single-Cycle? ;)

BTW,
zurück um Thema (zumindest ansatzweise), die GF256 kann nicht zwei bilineare AF-Samples pro TMU und Takt erzeugen. Dafür braucht sie zwei Takte.

zeckensack
2004-10-05, 11:34:33
Voodoo kanns Single Pass :)Voodoo 2 ja, allerdings unter Verlust der Multitexturing-Fähigkeit. Voodoo Graphics nein. Der kann nur mipmap dithering.

Trilinear geht nur mit zwei Passes (!=zwei Takte; der Chip muss wirklich nochmal komplett neu rendern).
Trilinear+Dual Texturing auf Voodoo 2: dito. Geht nur mit Multipass.

Ailuros
2004-10-05, 11:46:19
mmm...

:| Beschimpfung über geistige Höhenflüge ... Über Software, welches dummerweise Software ist und damit irgendwie zur GPU gelangen muss (zum Glück nicht über die CPU, ansonsten haben wir ein kleines Verständnisproblem:|), kann man sehr viele Sachen optimieren, was soweit gehen kann, das viele Funktionen von der Graka auf die CPU verlagert werden kann. Wenn ich mich auf eine alte Aussage beziehe, hab ich leider das Vergnügen, das ich mich um "sämtliche" Parameter, die die Leistung beeinflüssen können, auseinandersetzen darf. Genauso wäre ein Test für Software- TnL auf einer 3 GHz- Maschine auch nett, nur dürfte da die CPU schneller sein als die GPU der Geforce 1, was zwar die Kernaussage bestätigen würde, aber im falschen Zusammenhang sein würde ...

Frage: arbeitet jeder Algorithmus auf jeder GPU, wenn die Hardware nicht zuvor angepasst wird? Auf das wollte ich hinaus; im jeglichen anderen Fall koennte man Algorithmen auf jede veraltete GPU einfach hinzufuegen. Filterungs-Optimierungen im gegebenen Fall fuer eine GF256 wie man sie auf NV3x/4x finden kann eben nicht.

Unter welchen genau Bedingungen wuerde die 3GHz CPU schneller sein als selbst eine GF1? Lass mich raten 512*384*16 mit etwas dass verdammt point sampling aehnelt ja? Meine verstaendlichen Ubertreibungen zur Seite im letzten Satz, ich lese viel zu oft in letzter Zeit auch bei B3D ueber die uebertolle SW-Renderer die zich-male schneller sind als RefRast. Zwar forschen in der Abteilung selbst die grossen IHVs nach, aber es gibt schon guten Grund dafuer.

Wenn ich HW T&L und VS im ini von UT2kX abstelle (was ueberhaupt nicht reinem SW-Rendering gleicht) verliere ich zumindest die Haelfte der Leistung und ja das auf einem XP3000+. Den Pixorenderer greif ich mir lieber nicht zur Hand weil ich keine Geduld fuer seconds per frame habe.

Quasar
2004-10-05, 11:54:09
Kurzes Update:
Die GF256 könnte auch bis 47fps (zumindest auf meiner Gurke von P3), wenn die CPU sie lassen würde.
Die Settings von oben mit allerdings nochmals neuerem Treiber (66.81) ergaben im Pyramid-Timedemo auf dem P3-S 1,4GHz 36,7fps in 1024 mit 'normal' Texturen. Spielbar?

Abgeschaltetes HTnL bremst in ansonsten selben Settings auf 22,3fps. Spielbar? ;)

Beide Male i.Ü. mit trilinearem Filer... *gg*

Ailuros
2004-10-05, 12:07:38
Kurzes Update:
Die GF256 könnte auch bis 47fps (zumindest auf meiner Gurke von P3), wenn die CPU sie lassen würde.
Die Settings von oben mit allerdings nochmals neuerem Treiber (66.81) ergaben im Pyramid-Timedemo auf dem P3-S 36,7fps in 1024 mit 'normal' Texturen. Spielbar?

Abgeschaltetes HTnL bremst in ansonsten selben Settings auf 22,3fps. Spielbar? ;)

Beide Male i.Ü. mit trilinearem Filer... *gg*

Der zweite Test sagt mir gar nichts. Wuerdest Du eine KYRO2 als Beispiel nehmen koenntest Du froh sein dass das Ding mit der Unzahl von Bots im Pyramid demo die 10-15fps uebertreffen kann.

Benutzt Du aber im Gegenteil ein flyby demo mit gleichen settings fuer beide, wird die GF1 vor der K2 eher in schlechtem Licht stehen.

Das Zeug ist alles zu relativ. Das einzige Fazit hier ist dass man fuer eine reine T&L optimierte Applikation wie UT2kX zur gleichen Zeit eine sehr starke CPU und eine sehr starke Geometrie-Einheit auf der GPU haben muss. Noch besser eine Unmenge von Fuell-rate auf der GPU fuer hohe Aufloesungen. Mit nur einer starken CPU und einer GPU ohne T&L, sollte man eher 1on1 indoor maps mit low details spielen oder noch besser ohne jegliche Gegner gegen die Wand ballern; macht auch errr......sagen wir mal Spass ;)

Quasar
2004-10-05, 12:15:36
Was genau ist zu relativ?
Zuerst waren Botmatch und FlyBy nicht aussagefähig genug - jetzt ist es das Pyramid-Demo auch nicht? :gruebel:

Das eine GF256 gegen eine K2 in non-TnL Szenarien nicht anstinken kann, behauptet doch wohl hoffentlich niemand, der noch bei Trost ist, oder?


edit:
Da's grade so viel Spaß macht:
!edit2: Auf P3-S 1,4GHz!

UT2003, wie gesagt, 36 zu 22.
Giants: 39 zu 33 (800x32)
Far Cry: Cooler01-Demo läuft in 800x32 mit ~30fps.
Doom III: 18,7fps (minimal via Menü, 640x32)
Painkiller: 49/15fps (C5L1 / C5L2, minimal via Menü)

Erstaunlich.... Ebenso, wie die Tatsache, daß der Bug in Giants verschwindet, wenn ich auf HTnL verzichte... evtl. eine Auswirkung der unterschiedlichen Realisierung über fixed-function oder Vertexshader?

Ailuros
2004-10-05, 19:22:44
Was genau ist zu relativ?
Zuerst waren Botmatch und FlyBy nicht aussagefähig genug - jetzt ist es das Pyramid-Demo auch nicht? :gruebel:

Das eine GF256 gegen eine K2 in non-TnL Szenarien nicht anstinken kann, behauptet doch wohl hoffentlich niemand, der noch bei Trost ist, oder?

Ich hab nichts gegen Pyramid, ganz im Gegenteil. Bei UT2kX braucht man eben eine Kombination von einer starken CPU, starken T&L/VS Einheit(-en) und eine Unmenge von Fuellrate (zu der Schlussvolgerung kam ich auch im vorigen Post, also bitte nicht falsch interpretieren).

Lies bitte nochmal die paar letzten Saetze in meinem vorigen Post durch. Kein T&L ist dann eher um die Landschaft zu bewundern ohne Gegner.

Quasar
2004-10-05, 19:42:56
Eher andersrum - die Landschaft profitiert von TnL.
Ohne HTnL, aber mit starker CPU könnte man gut Indoor-Maps mit einer Unmenge an Bots/Gegner zocken. Mit HTnL, aber schwacher CPU eher beliebige Maps, aber eben weniger Bots/Gegner.
Mit HTnL und starker CPU dann beliebige Maps mit beliebiger Anzahl Bots.
Mit obigem und zusätzlich viel Füllrate kann man dann auch noch die Settings aufdrehen.

Aber das sind Idealvoraussetzungen - die GF256 bietet eher "Rohkost". ;)

Lokadamus
2004-10-05, 20:42:07
AMD Athlon 600, Treiber 45.XX
HW-TnL UT2003-Demo, Citadel-Botmatch: 26,29 (Celeron 18,05)
SW-TnL UT2003-Demo, Citadel-Botmatch: 14,79 (Celeron 8,79)

HW-TnL UT2003-Demo, Citadel-FlyBy: 62,71 (Celeron 51,30)
SW-TnL UT2003-Demo, Citadel-FlyBy: --,-- (Celeron 18,50)

1 GHz, Treiber 45.XX
HTnL: 29,94fps
STnL: 15,62fps

1 GHz, Treiber 66.81
UT2003, wie gesagt, 36 zu 22.

:| Hab ich das so richtig verstanden? Wenn ja, scheint der neue Treiber einiges gebracht zu haben und dabei ist die Hardware doch gleichgeblieben :P ...

Frage: arbeitet jeder Algorithmus auf jeder GPU, wenn die Hardware nicht zuvor angepasst wird? Auf das wollte ich hinaus; im jeglichen anderen Fall koennte man Algorithmen auf jede veraltete GPU einfach hinzufuegen. Filterungs-Optimierungen im gegebenen Fall fuer eine GF256 wie man sie auf NV3x/4x finden kann eben nicht.

Unter welchen genau Bedingungen wuerde die 3GHz CPU schneller sein als selbst eine GF1? Lass mich raten 512*384*16 mit etwas dass verdammt point sampling aehnelt ja? Meine verstaendlichen Ubertreibungen zur Seite im letzten Satz, ich lese viel zu oft in letzter Zeit auch bei B3D ueber die uebertolle SW-Renderer die zich-male schneller sind als RefRast. Zwar forschen in der Abteilung selbst die grossen IHVs nach, aber es gibt schon guten Grund dafuer.

Wenn ich HW T&L und VS im ini von UT2kX abstelle (was ueberhaupt nicht reinem SW-Rendering gleicht) verliere ich zumindest die Haelfte der Leistung und ja das auf einem XP3000+. Den Pixorenderer greif ich mir lieber nicht zur Hand weil ich keine Geduld fuer seconds per frame habe.mmm...

Gratuliere zu deiner 1. Frage und der hoffentlichen Erkenntnis, warum ich die ganze Zeit auf den Treibern rumreite (und mich dabei noch nichtmal die Filteropotimierungen selber interessieren) ...

Ich hab von Software allgemein geschrieben: Die Frage ist, wie UT intern die Resourcen verwaltet. Anscheinend klaut die KI alle freien Resourcen der CPU und sie haben keinen richtigen Softwarerenderer, laut deiner Aussage, was wiederum einen Test in diesem Sinne erschwert (0 Bots und nur Maps starten? im Hintergrund sollten auch alle möglichen Programme ausgeschaltet sein, es wäre ärgerlich, wenn ein Virenscanner sich dauernd einmischen würde) ...

Und ja, ich hab momentan etwas schlechte Laune, entschuldigt bitte den etwas rauhen Ton von mir :(

Quasar
2004-10-05, 21:01:32
AMD Athlon 600, Treiber 45.XX
HW-TnL UT2003-Demo, Citadel-Botmatch: 26,29 (Celeron 18,05)
SW-TnL UT2003-Demo, Citadel-Botmatch: 14,79 (Celeron 8,79)

HW-TnL UT2003-Demo, Citadel-FlyBy: 62,71 (Celeron 51,30)
SW-TnL UT2003-Demo, Citadel-FlyBy: --,-- (Celeron 18,50)


edit: Ab hier Pyramid-Timedemo mit UT2003-VV
Celeron-T 1 GHz, Treiber 45.XX
HTnL: 29,94fps
STnL: 15,62fps

edit: Ab hier andere CPU, ausser Konkurrenz! Nur noch HTnL vs. SoftTnL
Pentium3-S 1,4GHz, Treiber 66.81
UT2003, wie gesagt, 36 zu 22.

:| Hab ich das so richtig verstanden? Wenn ja, scheint der neue Treiber einiges gebracht zu haben und dabei ist die Hardware doch gleichgeblieben :P ...
Nein, sorry. Ich habe es nochmal etwas deutlicher gemacht. Die neuen Benches sind quasi "ausser Konkurrenz" auf meinem Rechner entstanden - einem P3-S mit 1,4GHz.



mmm...

Gratuliere zu deiner 1. Frage und der hoffentlichen Erkenntnis, warum ich die ganze Zeit auf den Treibern rumreite (und mich dabei noch nichtmal die Filteropotimierungen selber interessieren) ...

Ich hab von Software allgemein geschrieben: Die Frage ist, wie UT intern die Resourcen verwaltet. Anscheinend klaut die KI alle freien Resourcen der CPU und sie haben keinen richtigen Softwarerenderer, laut deiner Aussage, was wiederum einen Test in diesem Sinne erschwert (0 Bots und nur Maps starten? im Hintergrund sollten auch alle möglichen Programme ausgeschaltet sein, es wäre ärgerlich, wenn ein Virenscanner sich dauernd einmischen würde) ...
Sorry, aber die Treiber dürften da zumindest auf einer GF256 nicht mehr viel ausmachen - die rennt eh am Füllratenlimit.

KI - ok, mag sein. Aber von einem Software-Renderer war von mir aus nie die Rede - damit hat Ailuros angefangen. Ich redete nur von Software (CPU) Transform and Lighting. :)

Ailuros
2004-10-06, 00:08:37
Gratuliere zu deiner 1. Frage und der hoffentlichen Erkenntnis, warum ich die ganze Zeit auf den Treibern rumreite (und mich dabei noch nichtmal die Filteropotimierungen selber interessieren) ...

Mein originaler Satz oben ueber die Algorithmen war auch nicht an Dich gerichtet. Ich hab aber trotzdem versucht meine Logik zu erklaeren, um Missverstaendnissen zu entgehen.

Ich hab von Software allgemein geschrieben: Die Frage ist, wie UT intern die Resourcen verwaltet. Anscheinend klaut die KI alle freien Resourcen der CPU und sie haben keinen richtigen Softwarerenderer, laut deiner Aussage, was wiederum einen Test in diesem Sinne erschwert (0 Bots und nur Maps starten? im Hintergrund sollten auch alle möglichen Programme ausgeschaltet sein, es wäre ärgerlich, wenn ein Virenscanner sich dauernd einmischen würde) ...

Der Pixodrive-Renderer ist ein reiner SW-renderer laeuft aber um einiges besser in UT2k4. Ich werde mal versuchen ob mich UMark mit dem Ding spielen laesst, sobald ich nach Hause komme. Die Resultate werden aber nur dazu dienen die wahre Leistung eines XP3000+ im Spiel darzustellen und nichts anderes. Was ich Dir aber sagen kann ist dass der Renderer abscheulich aussieht, viel sollte man in solchen Faellen sowieso nicht erwarten.

Das dumme mit anderen benches in UT2kX und abgestelltem HW T&L ist dass ich den Verdacht habe dass die GPU immer noch bei Transformationen zumindest mithilft.

Und ja, ich hab momentan etwas schlechte Laune, entschuldigt bitte den etwas rauhen Ton von mir :(

Keine Sorge. Ich ticke nur ab wenn ich persoenlich und ohne Grund angegriffen werde. Eine etwas hitzige Debatte die stets beim Thema bleibt, stoert mich nie.

Ailuros
2004-10-06, 00:17:31
KI - ok, mag sein. Aber von einem Software-Renderer war von mir aus nie die Rede - damit hat Ailuros angefangen. Ich redete nur von Software (CPU) Transform and Lighting. :)

Selber erdacht hab ich mir das auch nicht. Ich hatte mal aehnliche Experimente mit HW T&L in UT2k3 im B3D Forum gepostet und bekam eine Warnung via PM dass es sich trotzdem nicht eigentlich um reines SW T&L handelt. Ein einfacher Benutzter war es auch nicht. Deshalb auch meine Vorbehaltungen fuer diese Tests. Ob es tatsaechlich so ist kann ich nicht wissen.

Ich hab momentan auch nicht im Gedaechtnis was der Pixodrive Renderer genau macht; muss mir das genauer zu Hause ansehen.

Quasar
2004-10-06, 19:10:38
Ich hatte mal aehnliche Experimente mit HW T&L in UT2k3 im B3D Forum gepostet und bekam eine Warnung via PM dass es sich trotzdem nicht eigentlich um reines SW T&L handelt. Ein einfacher Benutzter war es auch nicht.
Magst du da näher drauf eingehen?

Ailuros
2004-10-07, 07:19:17
Magst du da näher drauf eingehen?

Es geht hier mehr um die Definition von SW T&L. Ich persoenlich sehe es in etwa so:

HW T&L/VS wird abgeschaltet: CPU und GPU teilen sich hoechstwahrscheinlich die Transformationen (nicht T&L/VS units) und das Lighting geht wohl auf die CPU.

Beispiel:

CTF Face3/12bots/800*600


Pixodrive SW Renderer:

min 5.05 avg 25.74 max 41.45

D3D Renderer, HW T&L/VS off:

min 20.53 avg 48.29 max 119.99

D3D Renderer, HW T&L/VS on:

min 21.98 avg 85.26 max 170.17

Fair und Aussagekraeftig ist dieser Vergleich nun auch wieder nicht, denn im ersten Fall uebernimmt die CPU quasi alles (deshalb sieht es auch so bekloppt aus); aber der Punkt zu dem ich eigentlich kommen moechte ist dass selbst wenn eine Karte keine T&L Einheit besitzt, heisst es auf keinen Fall dass die GPU auch nicht mitspielt.

Und ja das sind volle 6 VS Einheiten oben @350MHz und ein 3000XP. Ich koennte auch eine verrueckt hohe Aufloesung benutzen, aber das waere dann noch unfairer fuer die CPU.

Renn mal das Spiel mit dem Pixodrive Renderer und schau genau hin in welchen Stellen die Leistung auf einzaehlige Ziffern purzelt :wink:

***edit: Pixodrive ist um einiges ausgereifter bei UT2k4. Bei 2k3 wollte bei mir zumindest das Ding nie richtig funktionieren. Nichtsdestominder man kann mit dem Ding das Spiel mit low detail 640*480 schon spielen; es sieht dann eben eher nach einem uralten Mame renderer aus mit gigantischen Quadraten, aber das sind unwichtige Kleinigkeiten ;D

aths
2004-10-07, 14:36:03
Dann sei bitte so freundlich und erläutere das ein wenig ;)Wenn die 2. TMU die Koordinaten einfach von der 1. TMU / 2 nimmt, dann kann man nur trilinear filtern. Trilineare TMUs sind ja trilineare und nicht 2x bilineare TMUs, wobei man mit 2x bilinear auch trilinear filtern kann. AF-Samples sind für sich bi- oder trilinear. 2x bi AF also nicht auf jeder Tri-TMU möglich, da man die Line of Anisotropy anders berechnet als die Koordinaten für das 2. Bi-Sample für trilineare Filterung.

robbitop
2004-10-07, 16:50:56
Wenn die 2. TMU die Koordinaten einfach von der 1. TMU / 2 nimmt, dann kann man nur trilinear filtern. Trilineare TMUs sind ja trilineare und nicht 2x bilineare TMUs, wobei man mit 2x bilinear auch trilinear filtern kann. AF-Samples sind für sich bi- oder trilinear. 2x bi AF also nicht auf jeder Tri-TMU möglich, da man die Line of Anisotropy anders berechnet als die Koordinaten für das 2. Bi-Sample für trilineare Filterung.

dankeschön :)

aths
2004-10-07, 17:03:15
I feel the need to das noch mal ausführlicher zu erklären.

Wir haben ja nicht "die TMU", sondern die Quad-TMU, die pro Takt 4 bi-Samples (für jedes Pixel eins) berechnet. **

Aus dem Interpolator kommen die Texturkoordinaten für jedes Pixel. Die Quad-TMU berechnet die Differenzen zwischen den Koordinaten. Daraus wird im Zusammenspiel mit der Texturgröße das LOD bestimmt, wodurch sich wiederum ergibt, welche MIP ausgewählt wird. (Das ist der Vorkomma-Teil vom LOD.)

Der Nachkommateil wird fürs trilineare Filtering gebraucht, da sich hieraus ergibt, wie stark Bi-Sample_1 und Bi-Sample_2 im endgültigen Tri-Sample vertreten sind.*

Die 2. TMU filtert aus einer anderen MIP, die in beiden Achsen genau halb so groß ist. Entsprechend müssen die Samplepositionen angepasst werden. (Die Texturkoordinaten ändern sich natürlich nicht, aber die Position an der tatsächlich ausgelesen wird ändert sich. Liest man aus MIP_2 an der Stelle (100, 50) muss aus MIP_3 die Stelle (50, 25) gelesen werden. Die Position darf Nachkomma-Stellen haben, Bi-F heißt ja, 2x2 Texel zu filtern. Bei "100.25" z. B. fließt das 100-er Texel zu 75%, das 101-er Texel zu 25% ein.)

Die neuen Samplepositionen zu berechnen ist kein Aufwand, da man "/2" sehr einfach rechnen kann, egal ob mit Fixpoint oder Floatingpoint.

Wenn NV10 nun eine trilineare Quad-TMU hat, heißt das nicht, dass er damit 2x AF berechnen kann. Bi-AF filtert auf der gleichen MIP an unterschiedlichen Stellen.


* "Brilinear" erreicht man durch eine Modifikation des Nachkomma-Anteils. Beispielsweise könnte alles bis ,2 auf ,0 abgerundet und alles ab ,8 aufgerundet werden. Die Nachkommastellen zwischen ,2 und ,8 werden dann auf ,0 - ,99 abgebildet. Der Füllratenvorteil ergibt sich dadurch, dass man sich bei ,0 das Filtern aus der Folge-MIP ganz sparen kann, die (virtuell) nächste TMU kann dann also schon die darauffolgendeTextur filtern.


** Ein Quad aus 2x2 Pixeln deckt in der Regel nur 9 Texel ab. Lt. Nvidia kann der Cache aber 16 Texel/Takt liefern. Demirug meinte mal, dass das in bestimmte Situationen auch notwendig ist.