PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Christian Reul (Hercules) über 3D Prophet 4800, EnTAL und 3D Prophet FDX 8500LE


ActionNews
2002-03-21, 12:31:14
In einem Video von Giga über die Hercules 4800 ( www.giga.de -> Help-Bereich oder siehe Link auf www.kyroworld.de ) ist die Rede von einer Mischung aus Software- und Hardware-T&L beim EnTAL! Also wenn ich Christian Reul richtig verstanden habe, dann werden einige grundlegende T&L- Berechnungen in Hardware durchgeführt und andere aber von der CPU verarbeitet ! Naja macht igendwie schon Sinn ! Praktisch alle Rechner werden heute mit mehr als 1 GHz ausgeliefert , sodass die Frameraten durch die teilweise CPU-Berechnung nicht sinken sollen und es wirkt sich positiv auf den Preis aus, der mit 129 Euro echt moderat ausfällt (Im Internet wird es die bestimmt auch noch ein Stück billiger geben )!
Auch wird über die 3D Prophet FDX 8500LE gesprochen! Sie soll mit 250MHz (nicht 230 wie manche behaupten) getaktet sein und für ca. 239 Euro über die Ladenteke gehen! Echt sehenswert das Video, aber mit 10MB nicht unbedingt was für 56K-Modem Besitzer (Ich hab's trotzdem gewagt :D)! Den neuesten Quicktime-Player sollte man allerdings auch installiert haben!

CU ActionNews

ow
2002-03-21, 12:36:39
Welchen Sinn hat eine teilweise SW-Loesung gegenueber einer reinen HW-Loesung?

Ist doch alles nur dummes Marketing Gelaber.

Identität
2002-03-21, 12:38:42
Je schneller die CPU um so schneller die T&L Berechnung. Hardware T&L bleibt immer gleich schnell/langsam und wird mit der Zeit zur Bremse.

ow
2002-03-21, 12:41:22
Ja, aber die heutige HW T&L ist schon so schnell, dass in den naechsten 2 Jahren kein Spiel auch nur annaehernd diese Leistung ausreizt.

ActionNews
2002-03-21, 12:41:29
Originally posted by Identität
Je schneller die CPU um so schneller die T&L Berechnung. Hardware T&L bleibt immer gleich schnell/langsam und wird mit der Zeit zur Bremse.

Genau! Außerdem ist eine solche Lösung auch billiger, d.h. die Karten können günstiger angeboten werden! Was im angepeilten OEM und Einsteigermarkt sicher auch Sinn macht!

CU ActionNews

ow
2002-03-21, 12:43:45
Billiger? Was? Dass PVR keine reine HW T&L zustande kriegt? Ist IMHO nur ein Armutszeugnis.
Und bei der bescheidenen Fuellrate der K2 hilft eh nix. Weder etal noch HW T&L.

Identität
2002-03-21, 12:45:32
@ow

Ein XP2000+ ist heute bereits schneller als T&L der Geforce256.

Karten ohne Hardware T&L (DX7) sind zukunftsicherer, weil sie besser mit neueren CPUs skalieren.

ow
2002-03-21, 12:48:28
Na und?

Wo willst du den mirt der ganzen T&L Leistung hin, wenn der Rasterizer weit vorher schlappmacht?

ActionNews
2002-03-21, 12:51:45
Originally posted by ow
Billiger? Was? Dass PVR keine reine HW T&L zustande kriegt? Ist IMHO nur ein Armutszeugnis.
Und bei der bescheidenen Fuellrate der K2 hilft eh nix. Weder etal noch HW T&L.

Hallo? Sieh dir mal die T&L-Einheit des PowerVR Naomi2-Chips an! Der hat eine Leistung davon kann eine Geforce 3 oder Radeon 8500 nur träumen und die ist schon über zwei Jahre alt (die kann bei 250MHz bei SECHS Lichtern 25 Millionen Polygone verarbeiten; eine Radeon 8500 bei EINEM Licht 30 Millionen und eine Geforce3 auch bei EINEM gerade 18 Millionen Polygone; für die Geforce4 hab ich keine Zahlen da)!
Ob PowerVR keine (programmierbare) T&L-Einheit zusammenbringt werden wir ja beim KyroIII sehen!
Und sicher ist das billiger, weil weniger Silizium gebraucht wird und dadurch die Herstellungskosten sinken!

CU ActionNews

Identität
2002-03-21, 12:52:52
du wolltest ja nur wissen was Software T&L bringt. Jetzt weisst du es.

ow
2002-03-21, 12:54:35
@AN

In welchem Teil der 3D pipeline wird die Framerate in Games limitiert?

ActionNews
2002-03-21, 12:58:43
Naja, wieviel Fillrate hat denn eine Geforce4MX460? 300MHz und 2 Renderpipelines, macht 600 MPixel/s! Der KyroIISE hätte dann 400 MPixel/s und der KyroII konnte mit seinen 350 MPixel/s schon einer GTS mit 800MPixel/s paroli bieten! Sicher sind die 400MPixel/s nicht berauschend und das ist in der Tat eine Schwachstelle des KyroII SE, aber eine MX440 oder MX460 ist da auch nicht viel besser dran!

CU ActionNews

Unregistered
2002-03-21, 13:15:23
wie immer das gleiche q OW

motze nicht über Sachen von denen du nicht weis was sie wirklich bringen....

Modulor
2002-03-21, 13:43:48
Originally posted by ow
[B]Billiger? Was? Dass PVR keine reine HW T&L zustande kriegt? Ist IMHO nur ein Armutszeugnis.
...


Der PowerVR MBX hat bereits eine T&L Einheit nach DX8.1. David Harold hat dieses auf der CeBIT - nicht nur mir gegenüber - erwähnt.

ActionNews
2002-03-21, 14:22:38
Originally posted by Modulor


Der PowerVR MBX hat bereits eine T&L Einheit nach DX8.1. David Harold hat dieses auf der CeBIT - nicht nur mir gegenüber - erwähnt.

Stimmt! Das hatte ich ganz vergessen! Der MBX hat ja schon einen VGP (Vertex Geometry Prozessor -> programmierbares T&L)! Da brauchen wir nicht mal den KyroIII abwarten, ob PowerVR das hinbekommt, das haben sie ja bereits :)!

CU ActionNews

ActionNews
2002-03-21, 14:26:28
*ups* Doppelpost :(!

aths
2002-03-21, 14:53:09
ActionNews,

ich wage doch sehr zu bezweifeln, dass der Kyro "Teile" von T&L in HW hat. Entweder hat er mindestens DX7 T&L HW komplett (was nicht der Fall zu sein scheint), oder *gar keinen* speziellen HW-Support.

Gohan
2002-03-21, 14:58:36
Na aths? Auch dem Mofawahn verfallen? ;D

HOT
2002-03-21, 15:12:52
Das stimmt so nicht ganz, aths. S3TL war eine ähnliche Entwickung, wie PowerVR uns das jetzt beschreibt. Dummerweise lief S3TL nur bei der Treemark wirklich gut und war etwas sehr schwachbrüstig.
Die Idee einer CPU unterstützenden T&L Einheit ist also nicht neu und macht theoretisch durchaus Sinn, da sie nicht nur für DX7 T&L verwendet werden kann - eine teilweise Hardwarelösung + CPU ist flexibler und könnte sich theoretisch auch auf Vertexshaderanwendungen hilfreich auswirken. Ich glaube, das war das eigentliche Ziel, dass PowerVR damit verfolgt, DX7 T&L ist eh nur ne Zeiterscheinung und verschwindet bald wieder in der Versenkung.
Wie das im Endeffekt jedoch realisiert wird, bleibt abzuwarten. Fest steht jedoch eind: Wenn dieses Verfahren nicht effektiv wäre, wäre es nicht im KyroII SE enthalten. PowerVR hat bisher ausschliesslich auf die grössmögliche Effizienz gesetzt und das wird sich IMHO jetzt auch nicht ändern.

aths
2002-03-21, 15:17:26
Gohan: Nur für kurze Zeit :)

Hot, bei einer VS-Emulation macht teilweiser HW-Support Sinn, bei DX7 T&L kann ich mir das nicht vorstellen. Wenn schon, dann richtig. Außerdem spricht PowerVR selbst nur von "driver technology".

Argo Zero
2002-03-21, 15:29:35
So langsam wirds ja langweilig diese NV vs. ATI vs. PVR threats...
Es ist doch auch egal was so ein hercules fuzzie meint/behauptet - ausschlaggebend sind die benchmarks... und davon gibts noch keine vom K2 SE..
mich beeindruckt marketing 0 bei anderen scheint es ne rießige streit-welle auszulösen was man ja an der posting anzahl von diesem einem anderem threat sehen kann

ow
2002-03-21, 15:57:49
Originally posted by Unregistered
wie immer das gleiche q OW

motze nicht über Sachen von denen du nicht weis was sie wirklich bringen....


und wie immer das gleiche zurueck

Da ich weiss, welche Technik was bringt, erlaube ich mir, solche Aussagen zu treffen.

ow
2002-03-21, 15:58:45
Originally posted by Modulor


Der PowerVR MBX hat bereits eine T&L Einheit nach DX8.1. David Harold hat dieses auf der CeBIT - nicht nur mir gegenüber - erwähnt.


Was ist denn PVR MBX???

ow
2002-03-21, 16:01:03
Originally posted by aths
ActionNews,

ich wage doch sehr zu bezweifeln, dass der Kyro "Teile" von T&L in HW hat. Entweder hat er mindestens DX7 T&L HW komplett (was nicht der Fall zu sein scheint), oder *gar keinen* speziellen HW-Support.


Ich koennte mir zumindest derzeit nicht vorstellen welche "grundlegenden" (s.o.) T&L Funktionen in HW und der Rest in SW erledigt werden sollte.

Load-Balancing wie es 3Dlabs bei den Oxygen Karten macht JA, aber alles andere....

ow
2002-03-21, 16:07:57
Originally posted by HOT
Das stimmt so nicht ganz, aths. S3TL war eine ähnliche Entwickung, wie PowerVR uns das jetzt beschreibt. Dummerweise lief S3TL nur bei der Treemark wirklich gut und war etwas sehr schwachbrüstig.



S3TL ist AFAIK eine reine (leider fehlerhafte) HW-Loesung.


Die Idee einer CPU unterstützenden T&L Einheit ist also nicht neu und macht theoretisch durchaus Sinn, da sie nicht nur für DX7 T&L verwendet werden kann - eine teilweise Hardwarelösung + CPU ist flexibler und könnte sich theoretisch auch auf Vertexshaderanwendungen hilfreich auswirken.


Und wie stellst DU dir die technische Umsetzung vor?


Ich glaube, das war das eigentliche Ziel, dass PowerVR damit verfolgt, DX7 T&L ist eh nur ne Zeiterscheinung und verschwindet bald wieder in der Versenkung.


Festverdrahtete T&L Einheiten gibt es seit ueber 10 Jahren und die werden in gewissen Bereichen auch in den naechsten 10-20 Jahren noch eingesetzt.

Uebrigens gibt es nichts, dass sich DX7 T&L nennt.


Fest steht jedoch eind: Wenn dieses Verfahren nicht effektiv wäre, wäre es nicht im KyroII SE enthalten. PowerVR hat bisher ausschliesslich auf die grössmögliche Effizienz gesetzt und das wird sich IMHO jetzt auch nicht ändern.


Was denn jetzt: IMHO oder steht es fest?
Fest steht gar nichts ausser dass eine reine HW T&L jeder Halb SW-HW Loesung ueberlegen ist.

aths
2002-03-21, 16:55:26
Die Frage ist hier doch eher, ow, ob man die Mehrleistung durch dediziertes HW T&L braucht.

Die MBX ist die mobile Lösung (und scheint einen DX8.1 konformen VertexShader in HW zu haben.)

Unregistered
2002-03-21, 17:20:52
Originally posted by ow



und wie immer das gleiche zurueck

Da ich weiss, welche Technik was bringt, erlaube ich mir, solche Aussagen zu treffen.

da du aber nicht wirklcih weist welche technik die kyro2 se benutzt ist deine obige aussagen eben auch falsch :)

Ceiser Söze
2002-03-21, 17:27:07
PowerVR MBX hat keine T&L-Unit, sondern kann (muss aber nicht) von einem zweiten Chip namens VGP (Vertex Geometry Processor) unterstützt werden. Also eine Art Rampage/Sage-Kombination. Alternativ kann man den Chip auch mit einer SH-5 CPU kombinieren...

Tannjew
2002-03-21, 17:29:30
Originally posted by ow

Was denn jetzt: IMHO oder steht es fest?
Fest steht gar nichts ausser dass eine reine HW T&L jeder Halb SW-HW Loesung ueberlegen ist.

Na ja, was hängt ihr auch alle so an T&L? Ich hab da mal einen Artikel über den Sinn und Unsinn von T&L gelesen, wo war das noch gleich? Vielleicht 3dcenter? ;-)

Wie auch immer, die SW-Lösung von PowerVR ist ein richtig guter Clou, wozu denn eine HW-T&L Einheit wenn man es kostengünstiger auch so kann?
T&L ist mittlerweile nicht mehr als ein Marketing Gag. Früher hat es Sinn gemacht, jetzt nimmer...

Ach ja, noch Grüße an Thowe und ActionNews!

ActionNews
2002-03-21, 17:32:29
Originally posted by ow



Was ist denn PVR MBX???

http://www.powervr.com/Release.asp?ID=38

Da steht ein wenig was drüber drin :)!

Naja und zum EnTAL kann ich nur sagen, was Christian Reul dazu gesagt hat! Nagelt mich nicht darauf fest, ich kann's nicht überprüfen!

CU ActionNews

Haarmann
2002-03-21, 18:50:29
HW T+L is eigentlich ned schädlich, wenn mans auch umgehen kann, falls sich das lohnt.
Ein P4 2.4 GHz also ein 1.6A auf 2.4 ist jedenfalls sicherlich schnell genug für T+L inkl Culling (sowas wie die Kyro macht), wenns die Graka nur ne GF DDR oder ne GF2 MX is - dann würden die Karten profitieren.

Die Kyro hat zwar kein HW T+L, dafür ein komplettes HW Culling, welches allen NV und ATI Karten fehlt.

ow
2002-03-21, 18:56:24
Originally posted by aths
Die Frage ist hier doch eher, ow, ob man die Mehrleistung durch dediziertes HW T&L braucht.

Die MBX ist die mobile Lösung (und scheint einen DX8.1 konformen VertexShader in HW zu haben.)

Die Frage ist, ob die MBX als NICHT-PC device überhaupt was von DX8.1 weiss, oder?;)

ow
2002-03-21, 18:59:25
Originally posted by Tannjew


T&L ist mittlerweile nicht mehr als ein Marketing Gag. Früher hat es Sinn gemacht, jetzt nimmer...




Also meine CPU hat besseres zu tun, als sich mit für sie stupidem T&L zu quälen.
Das überlass ich lieber der HW, die dafür gemacht ist.

ow
2002-03-21, 19:03:49
Originally posted by ActionNews


http://www.powervr.com/Release.asp?ID=38

Da steht ein wenig was drüber drin :)!


CU ActionNews


Thx.:)

Aber MBX scheint mir eine Lösung für 'kleinere' Geräte.

ow
2002-03-21, 19:14:53
Originally posted by Haarmann
HW T+L is eigentlich ned schädlich, wenn mans auch umgehen kann, falls sich das lohnt.
Ein P4 2.4 GHz also ein 1.6A auf 2.4 ist jedenfalls sicherlich schnell genug für T+L inkl Culling (sowas wie die Kyro macht), wenns die Graka nur ne GF DDR oder ne GF2 MX is - dann würden die Karten profitieren.



Nö, kann ich wiederlegen:)

Auch wenn mein XP1700 eine bessere T&L Leistung hat als meine GF2MX (3,8 zu 2,5Mio. tri./s 3DM2k1 default), so ist HW T&L im 3DMark2k1 gerade in den high detail Szenen noch 10% schneller als SW T&L (~2560 zu ~2310 Punkte).
Die CPU Entlastung gurch HW T&L sollte man nicht vergessen, das kommt der Game/Bench 3D-Engine sehr wohl zu gute.

2,5 Mio tri./s tun den XP bei SW T&L schon fordern (~60%), bei HW T&L machts ca. nix. Die HW T&L Leistung der GF2MX ist auf K6-2 450 und XP1700 exakt identisch, die 3DMark Leistung nicht (~1000 zu ~2560).



Die Kyro hat zwar kein HW T+L, dafür ein komplettes HW Culling, welches allen NV und ATI Karten fehlt.

Das TBR verhilft dem Kyro nur zur besseren Ausnutzung seiner (knappen) Füllrate und der Speicherbandbreite. Hat mit T&L und der Polygonmenge garnix zu tun.

Tannjew
2002-03-21, 19:19:13
Klar, das HW T&L kannst du ruhig deiner Grafikkarte überlassen. Warum auch nicht? Nur wenns nicht wirklich nötig ist macht es auch keinen Sinn über fehlendes H&W T&L Einheit her zu ziehen. Aber es gibt halt Menschen die müssen über alles meckern... ;-)

By the way: Benutzt du auch zwei Zahnbürsten, eine für Morgens und eine für Abends?

zeckensack
2002-03-21, 19:47:38
Zum Thema S3TL:

Ich bin Besitzer einer Savage2k-Graka. Einer der späteren Treiber erlaubte es, das angeblich 'fehlerhafte' HW-T&L nach DX7 einzuschalten. Ergebnis: Funktionell ist die Einheit in Ordnung, allerdings ist sie nicht in der Lage, Lichter korrekt zu deaktivieren und dadurch Performance zuzulegen.

3DMark2000 Polygon-Durchsatz bei einem Licht ~2.5MTris/s, bei acht Lichtern ~2.5MTris/s. Das macht die Karte in den Standardfällen mit keinem oder einem Licht zu langsam, bei acht Lichtern ist die Leistung durchaus bemerkenswert.

Zum Thema 'Nutzen von HW-T&L':
Aus den AMD docs zur Optimierung für Athlon (hab hier PDF #22007) kann man entnehmen, daß eine vollständig optimierte Matrix/Vektor-Multiplikation 16 Takte braucht. Bei null aktivierten Lichtern, muß diese Operation bei Software-T&L zweimal pro Vertex durchgeführt werden (einmal Objekt- nach Welt-Koordinaten, dann noch Kameraprojektion).

Maximaler Durchsatzwert ohne Licht und ohne jede Pixeldarstellung für GF2Ti ist (laut NVIDIA selbst) ~32MVerts/s.
Dafür bräuchte man auf einem Athlon ergo 32M/s*32Takte=1024MHz CPU-Takt. GF4Ti4600 soll (wieder laut NVIDIA) 136MVerts/s transformieren können. Wären dann 4.352GHz Takt, die nur für Transformation draufgehen würden.

Zum Thema 'Wofür die ganze Leistung, wenn das Backend eh ausbremst?':
Kleinere Dreiecke nehmen. Wenn ein Dreieck im Schnitt nur noch 1~5 Pixel bedeckt, was bei hochaufgelösten Modellen ja auch der Fall ist, wird T&L-Durchsatz sehr schnell wichtiger als Rasterizing.

HOT
2002-03-21, 20:00:22
S3TC ist definitiv eine CPU unterstützende T&L Einheit; es wäre doch gar nicht MÖGLICH eine T&L Einheit zusammen mit einer Rendering Einheit, die grösstenteils der der Geforce2 MX entspricht (nur mit mehr Funktionen), in nur 12Mio Transistoren zu pressen! Mehr hatte der Chip nämlich garnicht!

zeckensack
2002-03-21, 20:45:22
Nachtrag:

Originally posted by zeckensack
Zum Thema 'Nutzen von HW-T&L':
Aus den AMD docs zur Optimierung für Athlon (hab hier PDF #22007) kann man entnehmen, daß eine vollständig optimierte Matrix/Vektor-Multiplikation 16 Takte braucht.

Die AMD-Docs, die ich hier herangezogen habe, beziehen sich auf Athlon Classic und Thunderbird. 16 Takte sind 'best case', dh alles liegt abrufbereit im L1-Cache vor. Mit SSE-Support in den neueren Cores verschiebt sich das ganze vorraussichtlich nur wenig, da intern für 3DNow! und SSE die gleichen Ressourcen verwendet werden.

ow
2002-03-21, 20:50:23
Originally posted by Tannjew
Klar, das HW T&L kannst du ruhig deiner Grafikkarte überlassen. Warum auch nicht? Nur wenns nicht wirklich nötig ist macht es auch keinen Sinn über fehlendes H&W T&L Einheit her zu ziehen. Aber es gibt halt Menschen die müssen über alles meckern... ;-)

By the way: Benutzt du auch zwei Zahnbürsten, eine für Morgens und eine für Abends?


Was heisst hier, wenn´s nicht nötig ist?

Würdest du deine Sound-, Modem-, Netzwerkfunktionen auch der CPU überlassen, oder wäre nicht dafür spezialisierte HW besser?

zeckensack
2002-03-21, 20:53:08
Nachtrag #2:

Originally posted by zeckensack
GF4Ti4600 soll (wieder laut NVIDIA) 136MVerts/s transformieren können. Wären dann 4.352GHz Takt, die nur für Transformation draufgehen würden.

Bekanntermaßen geht die Transformationsleistung bei den Geforces abhängig von der Anzahl der verwendeten Lichter rapide abwärts. Von Overkill ist der Vertex-Durchsatz IMO weit entfernt, vor allem wenn man noch an die zusätzliche Bremse namens 'Vertex Shader' denkt. Wenn HW-T&L (zumindest nach DX7) heute auch bei den Einstiegskarten Standard wäre, würden wir wahrscheinlich 'ne Menge Spiele sehen, die sowohl Hardwarelichter als auch ordentlich aufgelöste Geometrie benutzen.

Mal'n theoretischer Ausblick, was Spiele so machen könnten:
Im Schnitt vier aktive Lichter und ordentlich aufgelöste Geometrie (~500 000 Dreiecke pro Frame). Bei diesen Vorraussetzungen wäre ein GF4Ti4600 (Schätzwert: 30MTris/s) ab 60fps bereits geometrielimitiert. Software-T&L-Lösungen würden in Relation mindestens genauso schnell in den Keller gehen.

IMO kann die Hardwareleistung also ruhig noch steigen, auch und vor allem im Bereich T&L.

Quasar
2002-03-21, 20:55:57
Gutes Beispiel, ow.

@HOT:
Bist du besoffen oder ich? Oder kapiere ich deinen Post mit dem "S3TC" einfach nur nicht?

mh01
2002-03-21, 23:07:53
Originally posted by ow
Ja, aber die heutige HW T&L ist schon so schnell, dass in den naechsten 2 Jahren kein Spiel auch nur annaehernd diese Leistung ausreizt.

Kommt darauf an, was Du unter HW T&L verstehst.
Mit HW T&L á la DX7 kannst Du heute keinen Blumentopf mehr gewinnen.
Auf solcher Hardware möchte ich dann mal Titel wie Unreal 2, Kreed oder Doom 3 erleben (spätestens mit Doom 3 wird diese Hardware kapitulieren).
Und wenn ich mir aktuelle Verkaufszahlen anschaue, muss ich DX7-HW-T&L zum "heutigen HW T&L" zählen...

ActionNews
2002-03-22, 08:36:25
Originally posted by ow

Thx.:)

Aber MBX scheint mir eine Lösung für 'kleinere' Geräte.

Ja stimmt! Das ist ein Chip für PDAs und Handhelds, Settopboxen usw...
Und was heißt da "aber"?

CU ActionNews

ActionNews
2002-03-22, 08:41:09
Originally posted by zeckensack
Zum Thema S3TL:

Ich bin Besitzer einer Savage2k-Graka. Einer der späteren Treiber erlaubte es, das angeblich 'fehlerhafte' HW-T&L nach DX7 einzuschalten. Ergebnis: Funktionell ist die Einheit in Ordnung, allerdings ist sie nicht in der Lage, Lichter korrekt zu deaktivieren und dadurch Performance zuzulegen.

3DMark2000 Polygon-Durchsatz bei einem Licht ~2.5MTris/s, bei acht Lichtern ~2.5MTris/s. Das macht die Karte in den Standardfällen mit keinem oder einem Licht zu langsam, bei acht Lichtern ist die Leistung durchaus bemerkenswert.

Zum Thema 'Nutzen von HW-T&L':
Aus den AMD docs zur Optimierung für Athlon (hab hier PDF #22007) kann man entnehmen, daß eine vollständig optimierte Matrix/Vektor-Multiplikation 16 Takte braucht. Bei null aktivierten Lichtern, muß diese Operation bei Software-T&L zweimal pro Vertex durchgeführt werden (einmal Objekt- nach Welt-Koordinaten, dann noch Kameraprojektion).

Maximaler Durchsatzwert ohne Licht und ohne jede Pixeldarstellung für GF2Ti ist (laut NVIDIA selbst) ~32MVerts/s.
Dafür bräuchte man auf einem Athlon ergo 32M/s*32Takte=1024MHz CPU-Takt. GF4Ti4600 soll (wieder laut NVIDIA) 136MVerts/s transformieren können. Wären dann 4.352GHz Takt, die nur für Transformation draufgehen würden.

Zum Thema 'Wofür die ganze Leistung, wenn das Backend eh ausbremst?':
Kleinere Dreiecke nehmen. Wenn ein Dreieck im Schnitt nur noch 1~5 Pixel bedeckt, was bei hochaufgelösten Modellen ja auch der Fall ist, wird T&L-Durchsatz sehr schnell wichtiger als Rasterizing.

Du vergisst aber, dass Nvidia bei ihren Angaben keine echten Dreiecke angibt sondern nur Punkte! Die echte Leistung leigt also eigentlich viel niedriger und das HW-T&L braucht sehr viel Bandbreite! SO einfach ist das also nicht! In der Chip steht zum Beispiel, dass eine Radeon 8500 bei einem Licht 32 Millionen Polygone pro Sekunde berechenen kann, eine Geforce3Ti500 kommt auf 18 Millionen bei gleichen Bedingungen und einer Geforce4 könnte man dann durch den zweiten Vertex Shader 36 Millionen zugestehen (da habe ich keine genauen Zahlen)!

CU ActionNews

ow
2002-03-22, 10:01:24
Originally posted by ActionNews


Ja stimmt! Das ist ein Chip für PDAs und Handhelds, Settopboxen usw...
Und was heißt da "aber"?

CU ActionNews


Die Verbindung zu DX8.1 ist mir nicht klar, deshalb "aber".

ow
2002-03-22, 10:03:46
Originally posted by ActionNews


Du vergisst aber, dass Nvidia bei ihren Angaben keine echten Dreiecke angibt sondern nur Punkte! Die echte Leistung leigt also eigentlich viel niedriger und das HW-T&L braucht sehr viel Bandbreite! SO einfach ist das also nicht! In der Chip steht zum Beispiel, dass eine Radeon 8500 bei einem Licht 32 Millionen Polygone pro Sekunde berechenen kann, eine Geforce3Ti500 kommt auf 18 Millionen bei gleichen Bedingungen und einer Geforce4 könnte man dann durch den zweiten Vertex Shader 36 Millionen zugestehen (da habe ich keine genauen Zahlen)!

CU ActionNews

Un du scheinst nicht lesen zu koennen, sonst haettest du gesehen, das ZS von Vertices spricht (=Punkte) und nicht von Polygonen.;);)

Und HW T&L braucht auch nicht viel Bandbreite.

Identität
2002-03-22, 10:11:39
Festverdrahtetes DX7 T&L ist tot. Jeder Entwickler, der was auf der Kappe hat, kann dies bestätigen. Heutige CPUs können T&L schneller und flexibler, siehe auch den Artikel von der Game Developers Conference: http://www.gamedev.net/columns/events/gdc2002/view.asp?SectionID=1

You can't always assume that hardware T&L is going to be faster. Operations like skinning and blending can sometimes be faster in software (due to result caching).

Hardware T&L ist unter anderem an Nvidia gescheitert, so paradox dies klingt. T&L ist nur wichtig, wenn intensiv Lighting genutzt wird, weil Lighting im Gegensatz zum Transformieren wirklich rechenintensiv ist. Nvidia T&L-Einheiten sind für aufwendige Beleuchtungsoperationen (8 Lichter und mehr [geswitched natürlich]) aber nicht brauchbar. Da sich grosse Zahlen besser vermarkten liessen entwickelte Nvidia eine T&L-Einheit mit möglichst grossem Transformations-Durchsatz. Den hohen Transistorbedarf für die Transformationslogik musste man mit weniger FMAC-Einheiten im Lighting-Teil kompensieren, sonst wär der Geforce256 nicht realisierbar gewesen. Korrigiert hat man diesen aus Marketinggründen gefällten Entscheid bis heute nicht.

Die langsame Lighting-Einheit von Nvidia hat die Spieleindustrie ausgebremst. Jeder Chiphersteller, der heute noch eine festverdrahtete Hardware T&L-Einheit oder einen einfachen Vertex Shader integriert, bremst die Spieleindustrie daher aus und verteuert Grafikchips und Karten unnötig. Spieler und Entwickler werden nie wirklich von Marketing-Features wie DX7 T&L oder lahmen Vertex Shader profitieren können.

Quasar
2002-03-22, 11:35:47
Bei mir sind die HW TnL-Werte deutlich höher, als die mit Software TnL, zumindest was den synthetischen 3DMark2001 angeht.

HOT
2002-03-22, 11:54:33
Wie gesagt: bei der 3DMark.
In echten Spielen sieht die Geschichte anders aus. Ich sprach im Übrigen nicht von S3TC sondern von S3TL.

ow
2002-03-22, 11:58:22
@Hot

Na und?
Meinst du in anderen Apps waere das Verhalten anders?

Da kann ich nur drueber lachen.

Derzeit sind alle HW T&L Units immer noch weit ueberdimensioniert fuer die erhaeltlichen Spiele.

ActionNews
2002-03-22, 12:06:50
Originally posted by Quasar
Bei mir sind die HW TnL-Werte deutlich höher, als die mit Software TnL, zumindest was den synthetischen 3DMark2001 angeht.

Das liegt aber auch daran, das der 3DMark2001 nur noch die Software-Emulation von DirectX verwendet und die aber nicht gerade sehr optimiert ist und auch keinerlei SSE oder 3DNow verwendet! Im 3DMark2000 gab es wesentlich effektivere Software-T&L-Emulationen!

CU ActionNews

ow
2002-03-22, 12:45:20
Selbstverstaendlich nutzt die DX7/8 SW T&L ISSE&3DNow sofern die CPU das kann.

HOT
2002-03-22, 13:05:15
Originally posted by ow
@Hot

Na und?
Meinst du in anderen Apps waere das Verhalten anders?

Da kann ich nur drueber lachen.

Derzeit sind alle HW T&L Units immer noch weit ueberdimensioniert fuer die erhaeltlichen Spiele.



Richtig, das sind sie. Diese Leistung wird auch in absehbarer Zeit nicht genutzt werden - ausser von der 3DMark.

HOT
2002-03-22, 13:08:39
Originally posted by ActionNews


Das liegt aber auch daran, das der 3DMark2001 nur noch die Software-Emulation von DirectX verwendet und die aber nicht gerade sehr optimiert ist und auch keinerlei SSE oder 3DNow verwendet! Im 3DMark2000 gab es wesentlich effektivere Software-T&L-Emulationen!

CU ActionNews


Das ist nicht richtig, Action. Die 3DMark 2001 nutzt die SoftwareT&L Implementation von DirectX und ist somit schon recht gut auf SIMD optimiert.
In der 3DMark2000 gab es noch separate Optimierungen auf die entsprechenden CPUs.

ow
2002-03-22, 13:13:28
Originally posted by HOT




Richtig, das sind sie. Diese Leistung wird auch in absehbarer Zeit nicht genutzt werden - ausser von der 3DMark.

Und den ganzen professionellen OGL Anwendungen. Muesstest mal Viewperf6.1.1 oder Indy3D auf der GF2MX sehen.

ow
2002-03-22, 13:17:22
Originally posted by HOT



Das ist nicht richtig, Action. Die 3DMark 2001 nutzt die SoftwareT&L Implementation von DirectX und ist somit schon recht gut auf SIMD optimiert.
In der 3DMark2000 gab es noch separate Optimierungen auf die entsprechenden CPUs.

Korrekt. Bis einschliesslich DX7 konnten die Programmierer eigenen T&L Code verwenden.

Heisst:
Bis DX6 gab es keine DX Geometrie Pipeline, da ging es nur ueber programmeigenen T&L Code.

Unter DX7 kann man die DX7 Geo Pipe nutzen (HW/SW) ODER eigenen T&L Code schreiben.

Ab DX8 laeuft jedes T&L ueber die DX8 Geo Pipe. Eigener T&L Code der Programmierer ist nicht mehr zulaessig.

Quasar
2002-03-22, 13:22:31
Originally posted by HOT
S3TC ist definitiv eine CPU unterstützende T&L Einheit...

Originally posted by HOT
Ich sprach im Übrigen nicht von S3TC sondern von S3TL.

Also nur ein Vertipper.


Originally posted by ActionNews
Das liegt aber auch daran, das der 3DMark2001 nur noch die Software-Emulation von DirectX verwendet und die aber nicht gerade sehr optimiert ist und auch keinerlei SSE oder 3DNow verwendet! Im 3DMark2000 gab es wesentlich effektivere Software-T&L-Emulationen!
CU ActionNews

Danke für den Hinweis, AN, aber das war mir wohl bekannt. Auch im 3DMark2000 entsteht eine solche Situation.

1Light 4Lights 8Lights
HW TnL 100% 55,9% 32,8%
SW TnL 48,4% 19,6% 16,0%
SSE TnL 39,0% 31,0% 24,0%
3DNow TnL 30,6% 27,2% 19,8%
3DNow Enh TnL 30,4% 24,8% 19,0%
Jeder Wert is auf HW TnL mit einem Licht bezogen.

HOT
2002-03-22, 13:23:23
Originally posted by ow


Und den ganzen professionellen OGL Anwendungen. Muesstest mal Viewperf6.1.1 oder Indy3D auf der GF2MX sehen.


ist aber eher uninteressant für einen Mainstreamchip.

Sebuste
2002-03-22, 13:26:49
am anfang der beiträge zu diesem thread stand
" Je schneller die CPU um so schneller die T&L Berechnung. Hardware T&L bleibt immer gleich schnell/langsam und wird mit der Zeit zur Bremse."

wie schaut das jetzt mit nem Athlon xp 2000+ und ne voodoo5 5500 aus ?

hat da jemand werte ?

HOT
2002-03-22, 13:35:26
Eine Voodoo5 ist in den meisten Games schon mit einem GHz Athlon an ihrem Fillratelimit. Inder 3DMark nützt natürlch eine stärkere CPU schon etwas.

Sebuste
2002-03-22, 13:37:44
warum nicht mit dem geo assistent müßte es doch schon was bringen da mit diesem die fillrate höcher ist als normal.

HOT
2002-03-22, 13:52:04
Die Berechnung der Geometrie hat auf die Berechnung der Fillrate keinerlei Einfluss.
Die eine Einheit berechnet Geometrie und die andere das Rendering.
Das wird sich erst mit DX9 ändern, wo das Rendering dann Einfluss auf die Geometrie haben wird.
Durch den Geometry Assistant hat die Voodoo nicht mehr und nicht weniger Fillrate - die Fillrate kann nur besser ausgenutzt werden, da mehr Geometriedaten zum rendern zur Verfügung stehen.

ow
2002-03-22, 15:22:29
Originally posted by HOT



ist aber eher uninteressant für einen Mainstreamchip.


Fuer's Gaming insgesamt ist die T&L Leistung nicht entscheidend. Aber die CPU-Belastung (durch SW T&L) schon.

zeckensack
2002-03-22, 15:34:47
Ging grad um Überdimensionierte HW-T&L
Originally posted by HOT
Richtig, das sind sie. Diese Leistung wird auch in absehbarer Zeit nicht genutzt werden - ausser von der 3DMark.

Genau da liegt der Hase im Pfeffer. Weiste auch woran das liegt? Einzig und allein daran, daß viele heute verkaufte Karten immer noch kein HW-T&L haben. Sei's jetzt DX7 oder DX8, wurscht.

Machen wir mal ein etwas kleineres Beispiel:
Ich will 60fps, die Szene besteht aus 150000 Dreiecken (100000 wurden uns übrigens schon bei Vorstellung des RivaTNT versprochen!) und im Schnitt ist ein einziges Hardware-Licht aktiv.
Lichtberechnung braucht mindestens nochmal eine Matrixmultiplikation (Normale*inverse Viewmatrix), ein Skalarprodukt (Winkel bestimmen), und noch ein Skalarprodukt + Wurzel (Entfernung vom Licht bestimmen). Ich setz das jetzt mal mit 32 weiteren Takten an, wahrscheinlich sind es mehr. Macht summa summarum 64 Takte pro Vertex (setze hier Vertices und Dreiecke gleich -> Optimalfall mit langen TriStrips).
Macht 60*150000*64=576Mio Takte gehen pro Sekunde für die Software-T&L drauf. Ich schenk dir jetzt mal 20%, wg Geo-Assist, zieh sie dir aber gleich wieder ab, weil die 64 eben Best-Case sind und nicht wirklich immer alles im L1-Cache vom Prozzi vorliegt. Ich könnts aufgrund mangelnder Hauptspeicherbandbreite auch guten Gewissens verfünffachen, aber sei's drum.

Nuuuuun, diese 9 Mio Dreiecke pro Sekunde mit einem Licht können Karten mit HW-T&L locker bewältigen. Warum seh'n wir solche Szenen dann nicht? Wegen der weiten Verbreitung von Chips ohne T&L, egal ob TNT2, Voodoo oder Kyro. Ich hab nichts gegen die Performance dieser Karten, aber man muß auch endlich einsehen, daß ihre bloße Existenz die Spieletechnologie immer noch massiv ausbremst. Es ist heutzutage paradoxerweise einfacher, komplexe Physiksimulation durchzuziehen, als einfach mal hochaufgelöste Modelle zu verwenden.

Wenn die Entwickler endlich mal genug Mut zusammenkratzen, ihre Systemanforderungen über P2-350 + TNT2 anzuheben, dann werden Software-T&L Lösungen ganz schnell richtig alt aussehen.

ow
2002-03-22, 15:41:35
Da stimme ich dir absolut zu, Zeckensack.

Dr.Doom
2002-03-22, 15:47:02
@Zecke:
Wieso bremst nur die Spieleindustrie?
Warum Technik in ein Spiel integrieren, die 3% bis 5% aller Spieler überhaupt sehen können?

IMO das liegt auch(!) an des exorbitanten Wuchter-Preisen von Grafikkarten.

(EDIT: Rechtschreibung *grr*)

Andre
2002-03-22, 15:57:33
Originally posted by Dr.Doom
@Zecke:
Warum Technik in ein Spiel integrieren, die 3% bis 5% aller Spieler überhaupt sehen können?

3 bis 5 %???
Als ich denke, dass der Markanteil der T&L doch wohl etwas größer ausfällt - bei VS/PS, DX 8.0/8.1 - HW siehts vielleicht noch etwas anders aus.
Aber ich stimme mal zeckensack in seinen Ausführungen zu.

HOT
2002-03-22, 17:36:08
Originally posted by zeckensack


Genau da liegt der Hase im Pfeffer. Weiste auch woran das liegt? Einzig und allein daran, daß viele heute verkaufte Karten immer noch kein HW-T&L haben. Sei's jetzt DX7 oder DX8, wurscht.

Machen wir mal ein etwas kleineres Beispiel:
Ich will 60fps, die Szene besteht aus 150000 Dreiecken (100000 wurden uns übrigens schon bei Vorstellung des RivaTNT versprochen!) und im Schnitt ist ein einziges Hardware-Licht aktiv.
Lichtberechnung braucht mindestens nochmal eine Matrixmultiplikation (Normale*inverse Viewmatrix), ein Skalarprodukt (Winkel bestimmen), und noch ein Skalarprodukt + Wurzel (Entfernung vom Licht bestimmen). Ich setz das jetzt mal mit 32 weiteren Takten an, wahrscheinlich sind es mehr. Macht summa summarum 64 Takte pro Vertex (setze hier Vertices und Dreiecke gleich -> Optimalfall mit langen TriStrips).
Macht 60*150000*64=576Mio Takte gehen pro Sekunde für die Software-T&L drauf. Ich schenk dir jetzt mal 20%, wg Geo-Assist, zieh sie dir aber gleich wieder ab, weil die 64 eben Best-Case sind und nicht wirklich immer alles im L1-Cache vom Prozzi vorliegt. Ich könnts aufgrund mangelnder Hauptspeicherbandbreite auch guten Gewissens verfünffachen, aber sei's drum.

Nuuuuun, diese 9 Mio Dreiecke pro Sekunde mit einem Licht können Karten mit HW-T&L locker bewältigen. Warum seh'n wir solche Szenen dann nicht? Wegen der weiten Verbreitung von Chips ohne T&L, egal ob TNT2, Voodoo oder Kyro. Ich hab nichts gegen die Performance dieser Karten, aber man muß auch endlich einsehen, daß ihre bloße Existenz die Spieletechnologie immer noch massiv ausbremst. Es ist heutzutage paradoxerweise einfacher, komplexe Physiksimulation durchzuziehen, als einfach mal hochaufgelöste Modelle zu verwenden.

Wenn die Entwickler endlich mal genug Mut zusammenkratzen, ihre Systemanforderungen über P2-350 + TNT2 anzuheben, dann werden Software-T&L Lösungen ganz schnell richtig alt aussehen.


Das mag vieleicht sogar stimmen. Doch es gibt mittlerweile genug DX7 T&L Karten auf dem Markt. Warum gibt es keine Spiele, wo der Detailgrad so hoch geregelt werden kann, dass T&L notwendig wird? An den 100k Kyro Karten, die bisher verkauft wurden, wird dieser Trend wohl kaum liegen. Die Antwort ist ganz einfach: es ist schlichtweg für die Optik nicht nötig, die Geometriedetails so drastisch zu erhöhen! Dinge wie Pixelshader, Bumpmapping, Textugrösse und damit Fillrate etc. (also Rendering) bringen optisch WESENTLICH mehr als nur die Geometriedetails zu erhöhen. Desweiteren ist es einfacher, nur einen Detailgrad zu haben, der nur leicht skaliert werden kann. Das es anders durchaus möglich ist, zeigt das Game Sacrifice sehr gut. Nur den Spieleherstellern scheint der Aufwand dafür einfach zu hoch zu sein und die Karten sind den Spieleherstellern von der Fillrate her nicht schnell genug.

Man muss sich ja auch noch folgendes vergegenwärtigen: wie kann ich mehr Polygone am sinnvollsten nutzen? Zum einen kann man den Detailgrad der Modelle erhöhen um diese abzurunden. Das ist aber angesichts der heutigen CPU Leistung in gewissem Rahmen passiert - man sieht es ganz deutlich bei Truform - hier entstehen Seitenlange Threads, die den Sinn von Truform in Frage stellen, obwhol Truform GENAU DAS TUT! Und jetzt meckern DIE GLEICHEN LEUTE darüber, dass T&L nicht genutzt wird - da stimmt ja wohl irgendwas nicht. Zum zweiten kann man mehr Details (Objekte) hinzufügen ABER mehr dieser Objekte bedeutet HÖHEREN OVERDRAW! Das benötig wieder MEHR RENDERING! Das ist bei bruteforce AUCH ineffizient.

Wegen dieser Gründe ist es auch sehr fraglich, ob DX7 T&L sich JEMALS überhaupt durchsetzen wird. Ein hochoptimiertes Programm gepaart mit Hardware wobei die Grafikkarte einige Transformationen übernimmt würde vollkommen ausreichen, um bei heutigen Spiele die CPU ausreichend zu entlasten. Bei Vertexshadern ist es natürlich nicht ganz so einfach, aber auch hier könnte diese Art T&L zu betreiben durchaus helfen.

ActionNews
2002-03-23, 21:10:11
Originally posted by ow



Die Verbindung zu DX8.1 ist mir nicht klar, deshalb "aber".

www.mitrax.de (CeBIT-Report):
Der MBX wird hier, wie David betonte, von einer voll DX 8.1 kompatiblen T&L Einheit unterstützt.

CU ActionNews

nocturne
2002-03-23, 22:25:39
Originally posted by HOT

es ist schlichtweg für die Optik nicht nötig, die Geometriedetails so drastisch zu erhöhen! Dinge wie Pixelshader, Bumpmapping, Textugrösse und damit Fillrate etc. (also Rendering) bringen optisch WESENTLICH mehr als nur die Geometriedetails zu erhöhen.

Dem kann ich nur vehement widersprechen. Schau Dir doch mal heutige Spiele genau an und frage Dich dann, was Dich an der Optik am meisten stört.

Es ist oft die polygonarme Bauklötzchen-Geometrie.

Die Texturen sind heute schon oft ziemlich scharf und die Pixeleffekte ziemlich gut. Z.B. beim brandneuen Serious Sam 2 lassen die texturen kaum noch was zu wünschen übrig.

Schau Dir aber z.B. die Spielfiguren bei MOHAA an und frage Dich: was stört mich am meisten?

Am meisten stört mich, dass sie so "eckig" aussehen. Sowohl die Figuren als auch die Aussenlevels in den meisten Spielen. Mehr Geometriedetails (Polygone) würden hier den grössten Fortschritt bringen.

@mod's : kann man diesen Subthread "mehr Polygone" irgendwie auslagern?

Identität
2002-03-24, 12:19:32
Originally posted by nocturne
Dem kann ich nur vehement widersprechen. Schau Dir doch mal heutige Spiele genau an und frage Dich dann, was Dich an der Optik am meisten stört.

Flimmernde Texturen, "Jaggies" entlang von Kanten, Moire-Muster, fehlendes Motion Blur, unregelmässige fps-Raten (speziell bei viel Transparenzeffekten ruckelt es oft).


Am meisten stört mich, dass sie so "eckig" aussehen. Sowohl die Figuren als auch die Aussenlevels in den meisten Spielen. Mehr Geometriedetails (Polygone) würden hier den grössten Fortschritt bringen.

Dank ATI Truform sieht man in RTCW oder Serious Sam Second Encounter keine Ecken mehr. Truform oder ähnliche Techniken (Matrox Displacement Mapping) sind der Weg in die Zukunft.

Ausserdem stören mich die Infinite Loop Hänger meiner Geforce auf VIA, eigentlich mehr als jeder Bildfehler.

HOT
2002-03-24, 12:51:13
Originally posted by nocturne


Dem kann ich nur vehement widersprechen. Schau Dir doch mal heutige Spiele genau an und frage Dich dann, was Dich an der Optik am meisten stört.

Es ist oft die polygonarme Bauklötzchen-Geometrie.

Die Texturen sind heute schon oft ziemlich scharf und die Pixeleffekte ziemlich gut. Z.B. beim brandneuen Serious Sam 2 lassen die texturen kaum noch was zu wünschen übrig.

Schau Dir aber z.B. die Spielfiguren bei MOHAA an und frage Dich: was stört mich am meisten?

Am meisten stört mich, dass sie so "eckig" aussehen. Sowohl die Figuren als auch die Aussenlevels in den meisten Spielen. Mehr Geometriedetails (Polygone) würden hier den grössten Fortschritt bringen.

@mod's : kann man diesen Subthread "mehr Polygone" irgendwie auslagern?

Wenn du da die Polygondetails erhöhst, bekommst du allerdings nur minimal bessere Ergebnisse hin, es sei den du erhöhst die Detail WIRKLICH drastisch (so wie Truform es tut). Allein durch erhöhte Geometriedetails bekommst du das Problem nicht gelöst; schliesslich entsteht ein gewaltiger Overhead dadurch, der FSB, Speicherbandbreite und AGP Bus und schliesslich auch die CPU selbst extrem belastet; also Dinge, die der Rechner ohnehin nicht genug hat. Es wäre hier viel intelligenter HOS Funktionen zu nutzen, (N oder RT-Patches), als die CPU bzw. Infrastruktur noch höheren Anforderungen entgegenzustellen.
HOS Techniken erlauben es, mit nur wenigen Eck-/Kontrollpunkte absolut runde Ergebnisse zu liefern. Die CPU muss also nur wenige Eck/-Kontrollpunkte berechnen, die dann auch weniger die Speicherbandbreite und den AGP Bus belasten.
Du siehst also, T&L allein bringt allein nicht wirklich deutliche Verbesserungen, nur in Verbindung mit HOS Techniken wird T&L wirklich beansprucht, wobei die CPU nicht soviel Arbeit hat und die gesparte Rechenpower noch für KI und andere Berechnungen übrig hat.

Aber HOS ist wohl eher noch Zukunftsmusik, vor allem RT Patches werden sich wohl in abehbarer Zeit wohl nicht durchsetzen. Meiner Meinung nach sollten sich die Grafikchipentwickler erstmal um wirklich effektive Bildverbesserungen bemühen. Eine vernünftige Implementation von FSAA UND Anisotropischen Filtern wäre hier wohl die nächste Wegmarke, die es zu erreichen gilt, und da sind sowohl ATI als auch NVidia auf dem richtigen Weg.
Der nächste Schritt wäre dann displacement Mapping und Pixelshading, womit sich wiedermal im Renderingbereich einiges tun wird.