PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Software T&L...künstlich langsam?


Gohan
2001-12-22, 11:34:41
Ist jetzt nur reine Sekulation, ja? Ich hab mal bei Madonion die höchste Punktzahl einer Voodoo 5 und einer Kyro 2 angesehen. Lagen beide bei etwa 3140 Punkten.

Die Voodoo 5 hatte als Prozessor einen Athlon XP der auf 1707 Mhz lief. Also müsste da doch genug power exestieren, Software T&L genügend schnell zu emulieren. Auch die Kyro läuft auf so einem highspeed System( sogar auf 1795 Mhz), liefert aber fast die selben Werte.

Liegt es vielleicht einfach nur daran das Prozessor und Graka ihre Daten nicht schneller austauschen können, oder ist hier was anderes noch eingreifend? Das Voodoo 5 System hatte nämlich einen fsb von 170 Mhz...

korregiert mich wenn ich flasch liege :)

Razor
2001-12-22, 11:51:30
In GPU's integriertes Hardware T&L ist sehr viel schneller, als eine 'Software'-Lösung über die CPU.

Man sollte sich mal vorstellen, daß die Hardware-Implementierungen um einiges spezialisierter sind, als es CPU's sein können. Immerhin gibt's auf CPU-Seite zumindest die meist noch unterforderten Erweiterungen ala SSE/3DNow, die da helfen können. Sollte es aber bald Anwendungen geben die massiv von T&L-Berechnungen gebrauch machen, werden die CPU's da nicht mehr mitkommen können.

Irgendwer (wenn ich nur wüsste wo das war) hat mal zum besten gegeben, daß eine 15-20GHz CPU notwendig wäre, um HW T&L-Berechnungen ala R8500/gf3 durchführen zu können. Und man sollte auch noch bedenken, daß die CPU ja auch noch mit anderen Dingen beschäftig ist...

Wie dem auch sei, HEUTE gibt es kaum oder gar KEINE Anwendung die dermaßen von T&L-Berechnungen gebrauch macht, denn solange es noch GraKa's ala TNT/Voodoo/Kyro gibt, muß darauf Rücksicht genommen werden und zumindest ImgTech will dem vermutlich Rechnung tragen und und ihre Nächste dann mit einer Hardware-Implementierung beglücken, der Rest wird bald austerben...

Allerdings schon vor 2 Jahren HW T&L als DAS Feature zu vermarkten war sicherlich verfrüht !

In diesem Sinne

Razor

P.S.: Das Transforming kann relativ einfach emuliert werden, das Lighting hingegen nicht...
Schöner Artikel auf 3DConcept: http://www.3dconcept.ch/artikel/T&L/

Gohan
2001-12-22, 11:56:18
Hm...jo könnt stimmen. Aber so langsam ist das Software T&L im 3D Mark2k1 garnicht. Meine alte GeForce 2 verlor "nur" 20 fps durch das abschalten. Und damit lief immer noch alles flüssig :) Also wird software T&L noch lange zu gebrauchen sein...sogar die U2 alpha lief ja durchaus gut ohne T&L, der Kyro fehlten halt Curved Surfaces :(

Razor
2001-12-22, 12:02:01
Madonion sollte entlich mal zum Besten geben, was genau gemacht wird, wenn man Sotware T&L benutzt. Wenn man dies bei Real-World-Benches macht (z.Bsp. MaxPayne), dann ist der Verlust erheblich und kann nur durch 'intelligente' Rendering-Techniken wieder kompensiert werden.

Auch wird das 'L' vom T&L. i.e. das 'Lighting' heute noch kaum benutzt (wie ich schon vorher schrieb). Würden Anwendungen davon massiv gebrauch machen, dann sind Software-Lösungen nicht mehr sinnvoll...

In diesem Sinne

Razor

P.S.: Und vergiß das U2 'Techdemo' (war keine Alpha !)...
so etwas Detailarmes wird hoffentlich nicht dabei heraus kommen !

Piffan
2001-12-22, 12:09:16
Originally posted by Gohan
Hm...jo könnt stimmen. Aber so langsam ist das Software T&L im 3D Mark2k1 garnicht. Meine alte GeForce 2 verlor "nur" 20 fps durch das abschalten. Und damit lief immer noch alles flüssig :) Also wird software T&L noch lange zu gebrauchen sein...sogar die U2 alpha lief ja durchaus gut ohne T&L, der Kyro fehlten halt Curved Surfaces :(

U2?! Wo ist die denn schon gewesen? Muß ja mal wieder ne finstere Quelle gewesen sein "g"

Wenn die Entwickler sich tüchtig Mühe geben, dann wird man mit TL mehr Polygone als ohne darstellen. Ist eine Frage des LOD- Systems. Dummerweise nimmt der Rechenaufwand exponentiell zu, wenn man nur noch geringfügige Verbesserungen vornimmt.


Die dolle True Form Technologie wird gar nicht so viel bringen, auch die Curved Surfaces nicht... Es sei denn, daß man nun die Beleuchtung komplett in Hardware durchführen wollte. Allerdings ist die derzeitige Hardware da ganz schnell am Anschlag, beim Highpoly Count sieht man es ja..... Es wird wohl noch lange brauchen, bis mal alles in Hardware läuft, bis dahin sehen die Lightmaps gut genug aus, finde ich jedenfalls...

Gargamel
2001-12-22, 14:49:07
Also im Moment sollte in keinerlei Software eine reine HW T&L Einheit als grundvoraussetzung vorhanden sein !
Denn selbst Games wie Max Payne können auf Mittelklasse Systemen (so um 700 Mhz) ohne HW T&L zumindest in 800*600 flüssig gespielt werden.
Ich selbst hatte ne ATI XPERT 2000, und konnte Max Payne relativ flüssig genießen (ausser in sehr rechenintensiven Situationen wie Massenschießereien)...

Unregistered
2001-12-22, 16:36:09
Ich muss da Gohan schon Recht geben. Gibt es euch nicht zu denken, dass ein Prozessor bei manchen spielen ohne Hardware T6L mehre Millionen Polygone pro Sekunde berechnen kann, aber beim 3dmark nur 100k? Da kann doch irgendwas nicht stimmen.

Tomp60311

Pengo
2001-12-22, 18:08:41
Originally posted by Piffan


U2?! Wo ist die denn schon gewesen? Muß ja mal wieder ne finstere Quelle gewesen sein "g"

U2 alpha gibts seit Monaten im IRC zum saugen.

Haarmann
2001-12-22, 19:59:42
Genau Pengo...

Und meine Meinung dazu lass ich mal ned raus ;-)

Aber es is schon erstaunlich, dass NVs Treiber im SW T+L Modus bei guter CPU auch 10 Mio Ploys im 10 Murks hinkriegen...
Andere dagegen viel weniger

Unregistered
2001-12-22, 22:12:07
Originally posted by Unregistered
Ich muss da Gohan schon Recht geben. Gibt es euch nicht zu denken, dass ein Prozessor bei manchen spielen ohne Hardware T6L mehre Millionen Polygone pro Sekunde berechnen kann, aber beim 3dmark nur 100k? Da kann doch irgendwas nicht stimmen.

Tomp60311

Mein Tipp ist, das SW T&L einfach vernachlässigt wird. In der Vergangenkeit war es ja auch so. Spiele, die sich auf DirectX für z.B. BSP verlassen haben, waren dann auch verlassen und langsam.

Mir kann keiner erzählen, das eine 2000Mhz CPU langsamer ist als eine 250Mhz GPU, die ja auch andere Aufgaben zu erfüllen hat.

Ich hatte z.B. gerade meinen PII-350 auf eine GF1DDR hochgerüstet (hatte vorher eine TNT2) und 3dMark2000 zeigte überhaupt keinen Unterschied zwischen HW T&L und dem Intel optimierten SW T&L Modus von 3dMark2000.

Sicher ist das nur ein dummer Benchmark, aber es gibt keinen Real-Life Vergleich, weil ja die aktuellen Spiele SW T&L garnicht mehr implementieren und sich so auf die DirectX HW T&L Emulation verlassen, die ja wie zu erwarten langsam ist.

SimonX

Gohan
2001-12-22, 22:32:41
Argh Unverschähmt heit wen dem so währe! Da sollte sich MS um eine bessere Emulierung kümmern :| Das wäre ja wirklich ein Arschtitt für alle nicht T&L Karten benutzer...

Haarmann
2001-12-23, 00:16:07
Was heisst das wäre ???

Aber sehts doch locker... solange die Spiele laufen - wen interessierts, was 3dmurks meint?

ow
2001-12-23, 01:57:48
Originally posted by Gohan
Argh Unverschähmt heit wen dem so währe! Da sollte sich MS um eine bessere Emulierung kümmern :| Das wäre ja wirklich ein Arschtitt für alle nicht T&L Karten benutzer...


Dem ist nicht so, und emuliert wird da schon gar nichts.

SW T&L läuft eben in Software auf einem frei programmierbaren CPU, während HW T&L auf dafür spezieller HW im Grafikchip laüft und daher wesentlich schneller ist, als eine Software-Implementierung.


Allgemein:

Software auf CPU: frei programmierbar/flexibel, aber langsam

spezielle HW: nicht frei programmierbar/unflexibel, aber sehr schnell


Und die T&L Leistung der HW T&L Unit eines GF2 wird von einer 2GHz CPU+SW bei weitem nicht erreicht.

Gohan
2001-12-23, 10:51:36
Hier ist noch ein Fehler des 3DMarks 2001 im Anhang. Leider funktioniert diese Option nicht ;)

ow
2001-12-23, 11:33:51
Originally posted by Gohan
Hier ist noch ein Fehler des 3DMarks 2001 im Anhang. Leider funktioniert diese Option nicht ;)


Das ist kein Fehler des 3DMarks.

3dfx hat versucht, die Geometrie-Pipeline von DX7 zu umgehen und eigenen T&L Code dafür zu schreiben. Nennt sich Geometrie-Assistent AFAIK.

Der Nutzen ist recht gering, scheint auch nicht überall zu funktionieren.

Gohan
2001-12-23, 11:55:55
Oh, hm...ma schauen wo es überall funktioniert :)

Birdman
2001-12-23, 13:46:34
Alle predigen hier T&L, dabei bringt es gerade in hohen Auflösungen und HQ-Grafix nen feuschten Furz.
Habe dafür extra mal mit dem SeriousSam2 Demo gebencht (Cooperative Demo) und dabei ist folgendes rausgekommen:

Sys. PIII-S @1.4Ghz, GF3, 512MB, SSam @1600x1200x32 HQ
********************************
Software T&L
-------------
Average FPS: 31.2
High Peak: 66.5
Low Peak: 20.3
+++++++++++++++++++++++++++++++++
Hardware T&L
-------------
Average FPS: 31.1
High Peak: 67.0
Low Peak: 20.2
++++++++++++++++++++++++++++++++++

Sooooo viel, bzw. wenig bringt T&L auf der Grafwixkarte, wenn die Bandbreite eng wird. Mag sein dass eine r200 Karte mit T&L ein bissel besser dasteht, da sie dank HyperZ eine höhere bandbreite hat, aber das wird sich spätestens nächste woche noch zeigen, wenn ich auch damit ein paar benchmarks mache.

aths
2001-12-23, 16:07:49
Razor,

du schreibst: "P.S.: Das Transforming kann relativ einfach emuliert werden, das Lighting hingegen nicht..."

Interessant ist, dass die meisten T&L-Titel das Lighting weiterhin per Software machen. Bekannt ist auch, dass eine moderne CPU bei mehrfachten Lichtquellen eine HW T&L-Einheit abhängt.

Die DX7 HW T-Einheit kann einfach nur zwei Matrizen multiplizieren, und ist daher nur für einfache Aufgaben brauchbar. Gary Tarolli hat sich mal darüber ausgelassen :)

ow,

geometry assist von 3dfx emuliert eine DX7 HW T&L und führt auf Athlon-Systemen in der Regel zu besseren Ergebnissen, als DX7 SW T&L. Obwohl Max Payne eine DX8 Anwendung ist, lässt sich mit auf x3dfx-Code basierenden Treibern das Spiel auch auf einer Voodoo mit "HW T&L" zocken. Ganz witzig :)

Der Nutzen ist eher theoretische Natur, da man so Programme, die T&L zwingend voraussetzen, dennoch nutzen kann. Allerdings sind mir solche Programme nicht bekannt.

Haarmann
2001-12-23, 16:46:51
Die Idee dahinter is eigentlich genial (also mitm GeoAssist).
Man kann das DX7 resp 8 T+L auf die CPUs optimieren und doch hat jeder Entwickler eines Games nix damit zu tun und man bleibt bei der DX7 API resp DX8.
Interessant z.B. für DX7 mit P4 SSE2 oder so...

Gohan
2001-12-23, 16:48:56
Hätte sich wahrscheinlcih auch durchgesetzt, wäre 3Dfx nicht pleite gegangen :(

nggalai
2001-12-23, 18:48:09
Birdman,

wie kannst Du in der SS2-Demo hardware TnL deaktivieren?

???

ta,
.rb

Gohan
2001-12-23, 19:33:37
Irgenwann glaub ich mal gelesen zu haben, das 3Dfx vorhatte durch ein Biosupdate, auf der Voodoo 5 5500 richtiges Hardware T&L zu ermöglich...kann das irgendwer bezeugen? :)

Legolas
2001-12-23, 19:38:37
Und wie soll das gehen??? Wenn im Chip keine T&L Unit vorhanden ist, dann kann man auch nicht nachträglich per Bios-Update HW T&L ermöglichen.

Gohan
2001-12-23, 19:45:23
Das GeometrieAssit verwendet nur einen eigenen Code...wenn 3Dfx den Code geändert hätte? :|

Birdman
2001-12-23, 21:33:16
@nggalai

Nun ja, ich habe da unter den Advanced Rendering Options so'n Punkt der nennt sich T&L Usage.

Habe grad nochmals in 800x600x32bit gebencht (little trouble demo) und dabei wurde ich selber überrascht:

Software: 90.4 / 246.8 / 55.3 (avg/max/min)
Hardware: 90.6 / 345.1 / 51.6 (avg/max/min)

So wies aussieht ist Software zu bevorzugen, liefert die konstanteren frameraten und bessere low peak werte.

Legolas
2001-12-23, 21:41:36
Originally posted by Gohan
Das GeometrieAssit verwendet nur einen eigenen Code...wenn 3Dfx den Code geändert hätte? :|

GeoAssist wird aber von der CPU ausgeführt und nicht vom GrafikChip wie richtiges HW T&L...

aths
2001-12-24, 15:34:11
Legolas,

Warum ist HW T&L auf der GPU "richtiges HW T&L", im Gegensatz zur CPU-Lösung? Ist die GPU richtigere HW als die CPU? Hehe.

Ich denke, wir reden um Sachen die gar nicht so bedeutend sind. Beim Vertex Shader muss ich jedenfalls gestehen: Das ist sinnvoll. Man erwartet DX9-Spezifikationen und DX8-Spiele. Und kaum DX7-T&L-Spiele, oder?

Pengo
2001-12-24, 15:47:59
Originally posted by aths
Legolas,

Warum ist HW T&L auf der GPU "richtiges HW T&L", im Gegensatz zur CPU-Lösung? Ist die GPU richtigere HW als die CPU? Hehe.


Also ist für dich Software-Rendering immer Hardware-Rendering, da es ja von der CPU, also Hardware durgeführt wird, du biegst dir wie immer alles zurecht, um immer was dagegen sagen zu können.

Legolas
2001-12-24, 15:57:27
@aths

Richtiges HW T&L weil es von dedizierter Hardware ausgeführt wird, was man von T&L auf ner x86 CPU nicht behaupten kann. Insofern kann der VSA 100 kein T&L, weil er nicht dafür gebaut wurde und auch nicht frei programmierbar ist. Da hilft auch ein Bios Update nix. T&L kann hier also immer nur von der CPU ausgeführt werden, nicht vom Grafikchip.

Haarmann
2001-12-24, 16:23:03
Ob ich ne Matrix auf der CPU, oder der GPU multipliziere is definitif Banane...
Also HW T+L nach DX7 is den wirklich der Hammer...
Bei VS und PS lastiger DX8 HW sieht die Welt ganz anders aus, aber die gabs zu 3dfx Zeiten auch ned.

Birdman
Aber ohne 349 FPS peak kannste doch keine Lanforce2 gewinnen ;-)

ow
2001-12-24, 17:16:14
Originally posted by Haarmann
Ob ich ne Matrix auf der CPU, oder der GPU multipliziere is definitif Banane...



Haha, wirklich guter Witz.

Muss man dir jetzt auch noch den Unterschied zwischen HW und SW erklären?:D

Razor
2001-12-25, 10:44:57
Det Transforming kann sicher auch locker von 'ner CPU übernommen werden, Haarmann...
(egal, ob DX7 HW T&L oder DX8 VS)

Aber wie sieht's mit dem Lighting aus ?
???

Und der Rest war doch wohl hoffentlich nur 'nen Witz, oder ?
;-)

Razor

Haarmann
2001-12-25, 10:52:15
Tja OW... ich hab 2 CPUs ;-) Schon vergessen? Auch ne Variante von HW T+L - wird nur leider ned unterstützt :-( - wäre aber bei ner Kyro2 sicher interessant.

Razor

Wenn das Lighning genutzt würde... aber genau der Teil liegt zu 99% brach, wenn das T schon lange genutzt wird. Beste BSPs sind alle Quake Engine Games (damit meine ich Q1 Q2 und Q3 basierte Games).

Exxtreme
2001-12-25, 10:57:00
@ Haarmann
Ja, leider liegt das Lighting brach. Liegt wahrscheinlich aber daran, daß nur die Radeon 8500 es schnell genug mit mehreren Lichtquellen ausführen kann. Da es aber noch etliche Leute mit GraKas ohne HW-T&L gibt, wird es wohl leider so schnell nicht eingesetzt werden.

Gruß
Alex

Razor
2001-12-25, 11:00:08
Einigen wir uns doch einfach darauf, Haarmann, daß...

T = sinnlos
L = nicht (wenn's genutzt würde)
;-)

Und wenn wir noch 'nen bissel warten (so bis Mai nächsten Jahres), dann dürfen wir auch das L in Aktion sehen. Habe gerade gestern die neue PCG bekommen, Da ist 'nen netter Bericht über U2 drinnen und ein wirklich imposantes Video...

Schon mal Rauchschwaden erlebt, die duch 'nen Rocket-Shot auseinender wabern und das auch noch mit mehreren Quellen beleuchtet ?
WOW !

Det hab' ich noch net erlebt !
Und des is 'nen DX7 T&L-Game (im Kern)...

Schaun' wir also einfach mal, was da demnächst so kommt. So werden dann wohl nicht DX HW T&L'er einpacken, oder eben auf solche 'Nettigkeiten' verzichten müssen !
;-)

Det wird wirklich interessant !

Razor

ow
2001-12-25, 13:52:35
Originally posted by Haarmann
Tja OW... ich hab 2 CPUs ;-) Schon vergessen? Auch ne Variante von HW T+L - wird nur leider ned unterstützt :-( - wäre aber bei ner Kyro2 sicher interessant.




Auch 2 CPUs werden nicht die T&L-Leistung einer HW T&L erreichen.
In der Spiele-Praxis ist´s natürlich egal, da die Grafikhardware ihre max. T&L Leistung nur bei Punkt- oder Liniendarstellung der Geometrie erreicht, alles ohne Texturen.

ow
2001-12-25, 14:00:47
Originally posted by Exxtreme
@ Haarmann
Ja, leider liegt das Lighting brach. Liegt wahrscheinlich aber daran, daß nur die Radeon 8500 es schnell genug mit mehreren Lichtquellen ausführen kann. Da es aber noch etliche Leute mit GraKas ohne HW-T&L gibt, wird es wohl leider so schnell nicht eingesetzt werden.

Gruß
Alex


Nein, das glaube ich nicht.
Schnell genug sind alle Grafikchips mit HW T&L, auch CPUs bewältigen mehrere Lichtquellen problemlos.

Aber lightmaps haben halt lange Tradition und haben sich bewährt. Da will wohl keiner so recht umsteigen auf was Neues.

Quasar
2001-12-25, 14:27:09
Originally posted by Haarmann
Ob ich ne Matrix auf der CPU, oder der GPU multipliziere is definitif Banane...


Klar ist das Banane...genauso Banane, als wenn du versuchtest, z.B. bilinearen Filter, persepktivenkorrektur, und alpha blending per CPU durchzuführen. Die kann all das, deswegen ist es ja auch die CPU.

Aber das heißt noch lange nicht, das dedizierte HW nicht zig-fach schneller darin ist. Nimme doch einfach mal die Emulation eines Modem (Softmodem)...wie hoch ist denn da die CPU-Last im Gegensatz zum billigsten externen Modem, daß man kaufen kann?

Oder wie wäre es mit Audio-Processing? aktiviere mal 64 Stimmen Surround-Sound in UT....selbst ne normale SB Live fängt da an zu schwächeln......

Oder der billige AC97-Sound....


Hardware-Lösungen haben schon ihren Sinn, und sind aufgrund ihrer Spezialisierung auch deutlich schneller, schon bei wesentlich geringerem Takt...

Versuch doch mal Q2-Crusher mit Software-Renderer...

aths
2001-12-25, 17:54:52
Razor,

umso mehr Lichtquellen ins Spiel kommen, umso langsamer wird die HW T&L-Einheit. Dabei sinkt die Geschwindigkeit einer GPU offenbar mehr, als wenn die Berechnungen über die CPU laufen. Jedenfalls fand Hardware Lighting via DX7 T&L nicht ohne Grund sogut wie keine Verwendung. Bei einer Handvoll Lichtquellen wäre nicht mehr von Entlastung zu sprechen.

Exxtreme
2001-12-25, 18:15:02
Originally posted by ow

Nein, das glaube ich nicht.
Schnell genug sind alle Grafikchips mit HW T&L, auch CPUs bewältigen mehrere Lichtquellen problemlos.

Nein, das glaube ich weniger.
Habe mal 3DMurks2000[TM] über mein System laufen lassen.

Software-T&L:
1 Lichtquelle: 264 KTriangels
4 Lichtquellen: 263 KTriangels
8 Lichtquellen: 265 KTriangels

T&L mit Athlon-Optimierung:
1 Lichtquelle: 5932 KTriangels
4 Lichtquellen: 5206 KTriangels
8 Lichtquellen: 4259 KTriangels

HW-T&L mit der Radeon 8500:
1 Lichtquelle: 23934 KTriangels
4 Lichtquellen: 17547 KTriangels
8 Lichtquellen: 12903 KTriangels

Tja, je nach der Anzahl der Lichtquellen ist die T&L-Einheit der Radeon 8500 ca. 3-4 Mal schneller als mein 1200 MHz Athlon mit der Athlon-Optimierung.
Dabei ist in diesem Beispiel die CPU nur mit der T&L-Berechnung beschäftigt. Bei Spielen übernimmt die CPU auch andere Aufgaben (Kollisionsabfragen, Gegner-KI, usw.) und dann stimmen die oberen Zahlen auch nicht mehr. Gut, die T&L-Einheit wird auch nutzlos, wenn das Fillratelimit erreicht wird, aber dagegen hilft ein Herabsetzen der Auflösung/Texturqualität.

Wie die GFx-Serie hier performt weiss ich leider nicht.
Originally posted by ow

Aber lightmaps haben halt lange Tradition und haben sich bewährt. Da will wohl keiner so recht umsteigen auf was Neues.
Tja, das stimmt wohl. Sie brauchen bei Weitem nicht so viele Resourcen wie Lighting. Sie sind aber nur bei statischer Beleuchtung zu gebrauchen.

Gruß
Alex

aths
2001-12-25, 18:28:46
Legolas,

während du mit den Gefährten den Gefahren trotzt, fandest zu Zeit, zu schreiben: "Insofern kann der VSA 100 kein T&L, weil er nicht dafür gebaut wurde und auch nicht frei programmierbar ist. Da hilft auch ein Bios Update nix. T&L kann hier also immer nur von der CPU ausgeführt werden, nicht vom Grafikchip."

Du hast Recht, der VSA-100 kann kein T&L. Ist es nun wichtig, ob T&L von der GPU gemacht wird? Wenn es auch die CPU machen kann, welche unzweifelhaft HW ist? Nicht alle Grakas können HW T&L, aber jeder Computer mit Graka hat HW T&L.

Ehe auf einer CPU T&L gemacht werden kann, muss sie entsprechend angesprochen werden. Genau wie eine GPU T&L, die ja auch nicht von alleine transformiert. Sie führt letztlich nur Matrizen-Multiplikationen aus, was dank einer korrekten Transformationsmatrix "zufällig" die richtige Transformation ergibt. Diese Transformations-Matrix muss weiterhin von der CPU berechnet werden. Es wird ein *Teil* der Geometrie-Pipeline auf die Grafikkarte gelegt.

"HW T&L" unterstützt "SW T&L", wobei SW T&L letzlich Quatsch ist. Software wird auch für "HW T&L" benötigt, aber "SW T&L" läuft wie "HW T&L" auf Hardware.

Unregistered
2001-12-25, 18:48:31
Was nützt T&L wenn die meisten Graka vom Speicher her limitieren.
Bei den MX Serien ist T&L sowieso eine Verschwendung.

Wenn T&L so super wäre, dann müsten wir schon Grafiken haben das uns die Augen rausfallen.

Gruss Labberlippe

Andre
2001-12-25, 19:04:51
Originally posted by Unregistered
Wenn T&L so super wäre, dann müsten wir schon Grafiken haben das uns die Augen rausfallen.

Gruss Labberlippe

Labberlippe,

dass liegt aber nicht zwingend am T&L, sondern eher an der eher konservativen Einstellung der Spieleentwickler.
Schließlich muss sich ein Produkt auch bein non-T&L-Karten (welche es noch massig gibt) verkaufen.

Generell ist es sicherlich nicht tragisch, wenn T&L auf der CPU ausgeführt wird - wenn man annimmt, dass jeder dafür die Power aufm Mobo hat.
Für CPUs im mittleren Level ist HW-T&L auf der Graka aus meiner Sicht wesentlich effizienter - selbst bei einer MX.

Exxtreme
2001-12-25, 19:08:35
Originally posted by Andre

Für CPUs im mittleren Level ist HW-T&L auf der Graka aus meiner Sicht wesentlich effizienter - selbst bei einer MX.
Klar, bis 800x600 schon ;). Nur bis dieser Auflösung wird die T&L-Einheit nicht von der geringen Speicherbandbreite ausgebremst. Wenn man höher gehen will und T&L ausnutzen will muss man AFAIK mindestens zu einer GF2x greifen.

Gruß
Alex

Unregistered
2001-12-25, 19:09:58
Originally posted by Andre


Labberlippe,

dass liegt aber nicht zwingend am T&L, sondern eher an der eher konservativen Einstellung der Spieleentwickler.
Schließlich muss sich ein Produkt auch bein non-T&L-Karten (welche es noch massig gibt) verkaufen.

Generell ist es sicherlich nicht tragisch, wenn T&L auf der CPU ausgeführt wird - wenn man annimmt, dass jeder dafür die Power aufm Mobo hat.
Für CPUs im mittleren Level ist HW-T&L auf der Graka aus meiner Sicht wesentlich effizienter - selbst bei einer MX.

So ähnlich sehe ich es auch.
Wobei man aber noch erwähnen muss, das die Spielehersteller halt mal wieder Spiele erstellen sollen.

Wenn mir jemand erzählen will das T&L vom Prog nicht abgefragt werden kann muss ich lachen.
Solle Sie halt eine Abfrage einbauen.
Bei Non T&L Karten weniger Details
Bei T&L Karten die volle Optimierung.

Aber lieber werden solche Games wie Max Payne auf den Desktop geknallt, was alles andere als ein Grafisches Wunderwerk ist.

Gruss Labberlippe

Andre
2001-12-25, 19:11:31
Originally posted by Exxtreme

Klar, bis 800x600 schon ;). Nur bis dieser Auflösung wird die T&L-Einheit nicht von der geringen Speicherbandbreite ausgebremst. Wenn man höher gehen will und T&L ausnutzen will muss man AFAIK mindestens zu einer GF2x greifen.

Gruß
Alex

Bei mir zumindest nicht in 16 Bit, bei 1024x768 @ 16 Bit merke ich schon einen DEUTLICHEN Unterschied, ob ich mit oder ohne T&L auf der Graka zocke (hab btw nen Athlon 750).
Bei 32 Bit ist ne MX bei den aktuellen Games meistens eh überfordert, dass will ich net bestreiten.

ow
2001-12-25, 20:49:16
Originally posted by Exxtreme

Nein, das glaube ich weniger.
Habe mal 3DMurks2000[TM] über mein System laufen lassen.

Software-T&L:
1 Lichtquelle: 264 KTriangels
4 Lichtquellen: 263 KTriangels
8 Lichtquellen: 265 KTriangels

T&L mit Athlon-Optimierung:
1 Lichtquelle: 5932 KTriangels
4 Lichtquellen: 5206 KTriangels
8 Lichtquellen: 4259 KTriangels

HW-T&L mit der Radeon 8500:
1 Lichtquelle: 23934 KTriangels
4 Lichtquellen: 17547 KTriangels
8 Lichtquellen: 12903 KTriangels

Tja, je nach der Anzahl der Lichtquellen ist die T&L-Einheit der Radeon 8500 ca. 3-4 Mal schneller als mein 1200 MHz Athlon mit der Athlon-Optimierung.

Gruß
Alex


Die HW T&L ist zwar wesentlich schneller als CPU T&L, aber selbst die 5Mio. Polygone des AMD werden auch im nächsten Jahr für alle Spiele mehr als ausreichen.

Aber dein SW T&L Ergebnis ist äusserst schwach, da ist was faul.

Zum Vergleich:

AMD K6-2 400, ALi V, GF2MX, AGP1x

SW T&L

High Polygon Count (1 Light): 2125 KTriangles/s
High Polygon Count (4 Lights): 1318 KTriangles/s
High Polygon Count (8 Lights): 933 KTriangles/s

3DNow T&L

High Polygon Count (1 Light): 2282 KTriangles/s
High Polygon Count (4 Lights): 1800 KTriangles/s
High Polygon Count (8 Lights): 1420 KTriangles/s

HW T&L GF2MX

High Polygon Count (1 Light): 5052 KTriangles/s
High Polygon Count (4 Lights): 4533 KTriangles/s
High Polygon Count (8 Lights): 2503 KTriangles/s

Quasar
2001-12-25, 21:48:45
Interessant ist auch, wenn man mal die verschiedenen SIMD-Befehlssätze vergleicht:

Vertex-Shader TnL (da auf GF nicht direkt in HW, sondern per VS-Programm emuliert) @220MHz GPU:
22563/12294/6395

Software TnL via AthlonXP @1656
14588/10306/6568

3DNow! TnL via AthlonXP @1656
12962/10921/8170

Athlon-opt. via AthlonXP @1656
11500/10301/7676

SSE-Opt. via AthlonXP @1656
14373/11383/9316


Solange also nur eine Lichquelle auftritt, siegt HW-TnL eindeutig mit 50% Vorsprung vor dem Zweitplatzierten, SSE.
Bei 4 Lichtquellen nehmen sich die Combattanten nich allzuviel, während bei 8 Lichtern SSE mit beinahe 50% Vorsprung auf HW-TnL siegen kann.
Interessant auch, daß beim 3DMark200 in der angeblich besser auf den Athlon optimierten Version 1.1 SSE, welches beim AthlonXP per Abbildung auf die 3DNow-Register emuliert iwrd, also quasi Software-SSE ist, noch immer deutlich schneller als die beste 3dNow Implementierung ist...

Exxtreme
2001-12-25, 22:11:51
Originally posted by Quasar

Solange also nur eine Lichquelle auftritt, siegt HW-TnL eindeutig mit 50% Vorsprung vor dem Zweitplatzierten, SSE.
Bei 4 Lichtquellen nehmen sich die Combattanten nich allzuviel, während bei 8 Lichtern SSE mit beinahe 50% Vorsprung auf HW-TnL siegen kann.

AFAIK liegt es daran, daß die Spiele-T&L-Grakas nur eine Lichtquelle gleichzeitig(!) berechnen können. Bei 8 Lichtquellen brauchen sie 8 Durchläufe. Deswegen ein so 'schlechtes' Ergebnis. Die professionellen OGL-GraKas können mehrere Lichtquellen gleichzeitig berechnen und brechen nicht so stark ein.

Gruß
Alex

Exxtreme
2001-12-25, 22:39:13
Originally posted by ow

Aber dein SW T&L Ergebnis ist äusserst schwach, da ist was faul.
Habe jetzt die Tests unter Win98 gemacht (die oberen Tests sind unter Win2k erstellt worden).

Software-T&L
1 Lichtquelle 3876
4 Lichtquellen 3104
8 Lichtquellen 2492

Software-T&L mit Athlon-Optimierung
1 Lichtquelle 6719
4 Lichtquellen 5722
8 Lichtquellen 4517

Software-T&L mit 3DNow!-Optimierung
1 Lichtquelle 6178
4 Lichtquellen 5184
8 Lichtquellen 4336

HW-T&L siehe mein oberes Posting

Gruß
Alex

aths
2001-12-25, 23:02:22
Andre,

du hast die 32-Bit-Limitierung der "GPU for the masses" (GF2 MX) angesprochen. Da fragt man sich, warum die TNT-Freaks weiland auf 32 Bit schworen und 16 Bit für entgültig out erklärten. Während viele Besitzer einer nVidia-Mittelklasse-CPU sich besinnen und in 16 Bit spielen.

Das soll (natürlich) kein Angriff gegen dich sein. Sondern ein allgemeiner Denkanstoss, was die Einschätzung von Gary Tarolli betrifft. Der Mann gab zu, dass 32 Bit schöner aussehen, aber behauptete unablässig, zur Bildqualität zählt auch die Framerate entscheidend dazu.

Zum Topic: Es kann nicht der Sinn von T&L sein, davon nur bei 16 Bit zu profitieren. Ja, das ist eigentlich keine Eigenschaft von T&L, sondern vom beschränkten Design der MX (und anderer Karten). Betrachtet man die Praxisrelevanz von Features, muss man aber auch die tatsächliche Hardware betrachten.

Spiele-Entwickler werden also trotz T&L nicht auf Polygonmassen setzen. Nicht nur, weil noch genügend Leute Karten ohne T&L haben, sondern auch, weil T&L bei vielen Karten nur sehr bedingt beschleunigt. Ob das nun an T&L oder der Bandbreiten-Limitierung liegt, ist dabei nicht von Interesse.