PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GF3 vs GF4 Ti4x00 bei GLEICHEM Takt


Kennung Eins
2002-04-28, 21:17:19
Wenn man eine GeForce4 Ti mit einer GeForce3 vergleichen würde, wobei beide Karten mit gleichem Takt laufen sollen, wieviel schneller wäre die GeForce4?

Doomtrain
2002-04-28, 21:18:22
Originally posted by Kennung Eins
Wenn man eine GeForce4 Ti mit einer GeForce3 vergleichen würde, wobei beide Karten mit gleichem Takt laufen sollen, wieviel schneller wäre die GeForce4?

Ausprobieren!!! Viel kanns nicht sein.

Kennung Eins
2002-04-28, 21:23:02
Originally posted by Doomtrain
Viel kanns nicht sein. jo hab ich mir auch gedacht. Würde mich aber schon mal interessieren, wieviel denn die "neuen Techniken" à la LMA II usw tatsächlich bringen.

Unregistered
2002-04-28, 21:23:23
Ziemlich viel

Doomtrain
2002-04-28, 21:25:22
Originally posted by Unregistered
Ziemlich viel

10-15% mehr auf keinen Fall.

Kennung Eins
2002-04-28, 21:32:59
Originally posted by Unregistered
Ziemlich viel watt ne Antowort!
Ich denke wohl auch, daß es nur so um 10% sein werden, wobei ich noch eher zu 5% tendiere...naja. Kann mal jmd aths seine GF3 leihen? ;)

Quasar
2002-04-28, 21:37:25
Es werden um die 8-9% im Normalfall sein. So hab ich es jedenfalls beim Templemark gemessen.

Major J
2002-04-28, 22:09:40
Werden schon ein paar Prozent sein. (10-15)
Wenn man eine GF2 und GF3 gleich taktet und z.B den 3DMark laufen lässt, ist die GF3 deutlich schneller.
(Natürlich nur Game 1-3)

Kennung Eins
2002-04-28, 22:40:36
nur von der GF2 zur GF3 sinds doch schon ein paar mehr Unterschiede, als von der GF3 zur GF4, oder?

Piffan
2002-04-28, 23:18:14
Na klar, vor allem bei dx8- Spielen ;)

Aber auch sonst macht eine G3 die G2 furchtbar nass. Bin nämlich von der G2- Ultra auf ne G3Ti200 umgestiegen. Muß sagen, daß ich es nie bereut habe: Schneller sowieso, aber nun auch noch AF und FSAA dazu...Der Sprung von der G3 zur G4 dürfte auch gut sein: Einmal die Takte und dann die doppelte Vertex- Einheit.....Allerdings kommt ein Wechsel erst mal nicht in Frage, dazu müßte schon ein außergewöhnlich reizvolles Spiel kommen...

aths
2002-04-29, 00:16:03
Kennung1,

hier der 3DMark: http://www.3dwin.net/main/modules.php?name=Reviews&rop=showcontent&id=36&page=6 - beim 3DMark scheint die neue Technik einiges zu bringen.

Doomtrain
2002-04-29, 00:40:45
Originally posted by aths


Beim 3DMark scheint die neue Technik einiges zu bringen.

Aber auch NUR da denke ich!

Unregistered
2002-04-29, 02:27:59
Glaub ich kaum nur 15% .
Eher 40-50 je nachdem wieviel AnisotropicFiltering oder FSAA ins Spiel kommt.

Kai
2002-04-29, 02:37:05
Originally posted by Unregistered
Glaub ich kaum nur 15% .
Eher 40-50 je nachdem wieviel AnisotropicFiltering oder FSAA ins Spiel kommt.

Joo - 170 %, genau ... ;)

15 - 20% erscheinen mir IMO realistisch.

Dunkeltier
2002-04-29, 02:46:57
Es kommt drauf an, mit welchen Einstellungen. IMHO würde ich sagen, es sind 10%-15%. Bestenfalls in optimierten Anwendungen oder unter Einsatz von af & FSAA bis zu 20%. Mehr aber echt nicht.

Kennung Eins
2002-04-29, 08:03:57
Originally posted by aths
Kennung1,

hier der 3DMark: http://www.3dwin.net/main/modules.php?name=Reviews&rop=showcontent&id=36&page=6 - beim 3DMark scheint die neue Technik einiges zu bringen. thx für den Link!

Unregistered
2002-04-29, 17:35:56
Schonmal was von zweiten Vertex Shader gehört?
40-50% ist realistisch

Unregistered
2002-04-29, 17:38:45
Natürlich meine ich Extremsituationen und nicht pauschal sondern bis 40-50% schneller bei gleichem Takt...

Kai
2002-04-29, 19:26:41
Originally posted by Unregistered
Schonmal was von zweiten Vertex Shader gehört?
40-50% ist realistisch

Schonmal ein Game gesehen das überhaupt nur einen unterstützt ???

Piffan
2002-04-29, 20:48:08
Originally posted by Kai


Schonmal ein Game gesehen das überhaupt nur einen unterstützt ???

Jawohl, gibs diesen Dampfplauderern mal ordentlich...sind alle nvidiahörig bis zum Abwinken.... ;D

Arnold
2002-04-30, 02:08:45
Das runter takten einer G4 auf eine Taktfrequenz von einer G3 würde wahrscheinlich die Performance des Speichers auf der Graka so negativ beeinflussen das Sie sogar evtl. schlechter bei nem Benchmark abschneiden könnte.
Ist nur so ein gedanke von mir.!!!!!
Das hochtakten einer G3 macht diese zwar schneller, doch ist der Speicher von vornherein langsamer als bei ner G4 denke ich.
Oder gibts G3 mit dem gleichen Speicher wie auf ner G4.



Oder habe ich jetzt vieleicht Müll gelabert.???????

Quasar
2002-04-30, 07:33:00
Ja. ;)

Arnold
2002-04-30, 14:17:46
Originally posted by Quasar
Ja. ;)


Was ja?????

Ich habe Müll gelabert.

Razor
2002-04-30, 20:45:03
Ja !
:D

Beispiel:
Die gf4ti4200 kommt mit 4.0ns DDR-Speicher...
Die (ur-)gf3 hatte bereits 3,8ns DDR-Speicher.

Mehr möchte isch dazu eigentlich nicht sagen !
;-)

In diesem Sinne

Razor

Quasar
2002-04-30, 21:17:46
Originally posted by Arnold
Das runter takten einer G4 auf eine Taktfrequenz von einer G3 würde wahrscheinlich die Performance des Speichers auf der Graka so negativ beeinflussen das Sie sogar evtl. schlechter bei nem Benchmark abschneiden könnte.
Das runtertakten macht keinen Unterschied für den Speicher. Er liefe immer noch genausoschnell, als wenn er auf einer GF3 verbaut wäre. Außerdem ist die LMA-II verbessert worden, was sich in besserer Leistung bei gleichem Takt niederschlägt.

http://www.computerbase.de/article.php?id=81&page=8#villagemark_d3d



Ist nur so ein gedanke von mir.!!!!!
Das hochtakten einer G3 macht diese zwar schneller, doch ist der Speicher von vornherein langsamer als bei ner G4 denke ich.
Oder gibts G3 mit dem gleichen Speicher wie auf ner G4.
Oder habe ich jetzt vieleicht Müll gelabert.???????

Das gleiche in grün. Von vornherein ist der Speicher langsamer getaktet. Wenn du ihn hochtaktest, liefe er zwar genausoschnell wie auf einer gleichgetakteten GF4, die aber mehr mit der Bandbreite anfangen könnt.

IMHO ist es, ums vorsichtig auszudrücken, extrem unmöglich einen Test zu finden, wo die GF3 die GF$ bei gleichem Takt schlägt.

Quasar
2002-04-30, 21:22:04
Originally posted by aths
Kennung1,

hier der 3DMark: http://www.3dwin.net/main/modules.php?name=Reviews&rop=showcontent&id=36&page=6 - beim 3DMark scheint die neue Technik einiges zu bringen.

Nö. Das liegt an der höheren VS-Leistung. Guck dir mal den Bench in 1600x1200 an, der nur durch die Bandbreite bestimmt wird (im Gegensatz zum FSAA, wo auch die Verbesserungen im Accuview zum Tragen kommen).

aths
2002-04-30, 23:21:34
Quasar,

wieso "nö"? Die GF4 auf GF3-Takt ist auch bei 1600x1200 um immerhin 11% schneller. Davon abgesehen wird sie wohl eher bei niedrigeren Auflösungen, dafür aber mit FSAA eingesetzt.

Edit: Noch mal reichlich 10%, obwohl die GF3 schon etliche Bandbreitenoptimierungen hat, finde ich ziemlich gut. Von der FSAA-Performance ganz abgesehen...

Quasar
2002-04-30, 23:28:40
5850 vs. 5454 sind afaik knapp 7%, wovon sicher noch immer ein Teil auf den zweiten VS entfallen dürften, eine Einzelaufstellung der Ergebnisse wäre mal interessant.

Auf die "Ti/500" bist du doch wohl hoffentlich nicht reingefallen, oder?

edit: Außerdem hatten die GeForce4er den Vorteil der neueren Treiber...

edit: Um Mißverständnissen vorzubeugen: Grundsätzlich stimme ich dir zu, aber der 3DMark ist ein relativ schlechtes Beispiel, um die Effizienz der LMA-II zu zeigen.

Dunkeltier
2002-04-30, 23:36:54
Hm, die Radeon hat auch zwei Vertex Shader, oder? Der aber nicht immer "dual" arbeitet... ???

Arnold
2002-05-01, 02:00:41
Originally posted by Razor
Ja !
:D

Beispiel:
Die gf4ti4200 kommt mit 4.0ns DDR-Speicher...
Die (ur-)gf3 hatte bereits 3,8ns DDR-Speicher.

Mehr möchte isch dazu eigentlich nicht sagen !
;-)

In diesem Sinne

Razor


:...( :...( :...(

Dunkeltier
2002-05-01, 02:08:27
Hör auf zu flennen und den Thread mit Wasser zu fluten. Sonst kriegt mein PC einen Kurzschluß, und den Schaden darfst du dann bezahlen.

ZilD
2002-05-01, 04:10:15
naja die gforce 3 hätten sie sich sparen können.

aber ich spiel eh nur UT , also reicht die GTS *g*
und meine geschrottete radeon 8500FDX hängt jetzt an der wand!
muah =)

Dunkeltier
2002-05-01, 04:12:23
Originally posted by ZilD
naja die gforce 3 hätten sie sich sparen können.

aber ich spiel eh nur UT , also reicht die GTS *g*
und meine geschrottete radeon 8500FDX hängt jetzt an der wand!
muah =)

Und ich spiel nur Team Fortress. Verkaufe mir die Radeon, bevor du sie "nagelst" oder total kaputt machst. :) *haben wollen möglichst billig*

Kennung Eins
2002-05-01, 10:55:34
Originally posted by ZilD
naja die gforce 3 hätten sie sich sparen können.

aber ich spiel eh nur UT , also reicht die GTS *g*
und meine geschrottete radeon 8500FDX hängt jetzt an der wand!
muah =) Wieso das denn?? Wenn, dann hätten sie sich die GF4 sparen können, die bringt im Vergleich zur GF3 wesentlich weniger Unterschiede als von der GF2 zur GF3.

Ikon
2002-05-02, 01:06:09
Originally posted by Black Cow
Hm, die Radeon hat auch zwei Vertex Shader, oder? Der aber nicht immer "dual" arbeitet... ???

Nö, AFAIK nicht. Der R200 hat zwar eine separate DX7-TnL-Einheit ("Charisma Engine") im Gegensatz zur Geforce3/4 (die diese über ihre(n) Vertex-Shader emuliert), aber keinen zweiten Vertex-Shader. Dennoch liefert der Vertex-Shader der Radeon8500 extrem hohe Performance, weit schneller als der jeder Geforce3. Wie er gegen die zwei der Geforce4 abschneidet kann ich dir aber auch nicht sagen.

Ikon
-------------------------------------
AMD Duron 1200@1333 (1,82V)
Spire FridgeRock (7V)
DFI AK-76SN (AMD 761 & VIA VT82C686B)
256MB DDR-RAM Siemens 133MHz 2-3-3
PowerVR Kyro II 32MB
Seagate Barracuda IV 40GB
Soundblaster Live!

Dunkeltier
2002-05-02, 01:21:27
Originally posted by Ikon


Nö, AFAIK nicht. Der R200 hat zwar eine separate DX7-TnL-Einheit ("Charisma Engine") im Gegensatz zur Geforce3/4 (die diese über ihre(n) Vertex-Shader emuliert), aber keinen zweiten Vertex-Shader. Dennoch liefert der Vertex-Shader der Radeon8500 extrem hohe Performance, weit schneller als der jeder Geforce3. Wie er gegen die zwei der Geforce4 abschneidet kann ich dir aber auch nicht sagen.

Ikon
[/i]

Ich habe mich noch einmal schlau gemacht, und die Radeon hat einen 2. Vertexshader! Dieser kann aber nicht immer zum Einsatz kommen, sondern nur wenn die aktuelle Berechnung eine Subraktion und Addition ist (oder war es nicht multiplizieren und dividieren?).

Major
2002-05-02, 10:32:38
Also das die Radeon 2 Vertex Shader hat wäre mir aber ganz neu, ich bin ziemlich sicher, dass sie nur einen hat, der dafür aber wesentlich leistungsfähiger ist als der der Gf3/Gf4 (wenn man bei der GF4 einen nimmt :-))

Ikon
2002-05-02, 13:14:53
@Black Cow
Vieleicht kannst du uns ja sagen, wo du dich über den 2. Vertex-Shader schlau gemacht hast. Würde mich echt interessieren, obwohl ich leider bald wieder unter die NVIDIA-Jünger gehen muss (eine Elsa GeForce3-Ti200 für 133,- Euro kann man einfach nicht ausschlagen).

Ikon

StefanV
2002-05-02, 15:02:15
Ich denke auch, daß die Radeon 8k5 2 VS hat.

Der Transistor Unterschied zwischen GF3 und GF3 sind 6MIO Transistoren, da könnte ATI mit den 60MIO des R200 Cores sicher noch einen 2. VS dazupacken ;)

Ikon
2002-05-02, 15:24:17
@Stefan Payne
ATI könnte sicherlich einen 2.Vertex-Shader dazupacken. Die Frage ist nur wozu? Klar, für NVIDIA ist es einfacher der GF4 einen 2.VS zu verpassen anstatt ihr einen schnelleren (ev. höher-entwickelten) VS zu spendieren. Aber warum sollte ATI diesen Weg gehen, schließlich ist der R200 ihr erster Chip mit VS. Ein 2.VS der Radeon würde nur unnötig Transistoren verbrauchen -> höhere Kosten/Abwärme. Ausserdem denke ich, dass ATI diesen dann sicher vermarktet hätte, um zu zeigen, dass sie NV nicht "hinterherhinken". Nichtsdestotrotz tritt der Smartshader NV's Vertex-Shader leistungsmäßig ziemlich in den Hintern.

Ikon

zeckensack
2002-05-02, 15:36:21
Der 2te VS der R200 führt immerhin zu erstaunlichen Polygondurchsätzen im 3DMurks. IIRC war das damals auch eins der Hauptargumente für TruForm:
Unsere doppelte Geometrieeinheit ist so dermaßen schnell, mit AGP alleine kann man die garnicht füttern, also können wir uns Spökes wie TruForm ziemlich gut leisten.

Ich hatte da vor ein paar Wochen auch mal 'nen Link ausgebuddelt. Ist nur irgendwie verdammt schwierig, an ordentliche Specs zu kommen. Gibt einfach zu viel Rauschen im Netz (sprich: Möchtegern-HW-Seiten, die immer nur PR-Geblubber hinschreiben um irgendwie noch ein paar Seiten zu füllen).

ow
2002-05-02, 16:02:02
Originally posted by Ikon
@Stefan Payne
Nichtsdestotrotz tritt der Smartshader NV's Vertex-Shader leistungsmäßig ziemlich in den Hintern.

Ikon


Kannst du das auch irgendwie belegen?

Quasar
2002-05-02, 18:21:40
Ich tippe mal, daß einfach die zusätzlich vorhandene Charisma-Engine (erinnert ihr euch? Radeon I hatte schon VS 1.0) einige der einfacheren VS-Befehle übernehmen kann, besonders solche, die einfach nur Vertices durch die Pipe jagen, ohne sie zu transformieren (HiPoly-Test im 3DMark). Dadurch liesse sich die hohe synthetische Leistung bei gleichzeitigem Einbruch in realen Situationen erklären.

Dunkeltier
2002-05-02, 18:32:12
Originally posted by Quasar
Ich tippe mal, daß einfach die zusätzlich vorhandene Charisma-Engine (erinnert ihr euch? Radeon I hatte schon VS 1.0) einige der einfacheren VS-Befehle übernehmen kann, besonders solche, die einfach nur Vertices durch die Pipe jagen, ohne sie zu transformieren (HiPoly-Test im 3DMark). Dadurch liesse sich die hohe synthetische Leistung bei gleichzeitigem Einbruch in realen Situationen erklären.


Wenn ich meine Schinkenpizza aufgegessen habe und die Metalmusik zuende gehört habe, gebe ich dir einen Link bzw. scanne das Dokument ein. *auf die ganzen Ausgaben der PCGH schau*

zeckensack
2002-05-02, 18:37:26
Originally posted by Quasar
erinnert ihr euch? Radeon I hatte schon VS 1.0Nix da. Radeon 1 kann lediglich Skinning mit 4 Matrizen. Das reicht nur für die offiziell nie unterstützte VS-Version 0.5.
Alle in der freien Wildbahn existenten Vertex Shader kann das Ding nur in reiner Software-Emulation.

Dunkeltier
2002-05-02, 19:07:01
Ich zitiere die PC Games Hardware, Ausgabe Mai 2002 auf Seite 151: "Der Vertex Shader des Radeon 8500 kann unter gewissen Bedingungen auch zwei Befehle pro Takt ausführen ("Superskalar"), offenbar jedoch nur zwei verschiedene Instruktionen gleichzeitig, beispielsweise eine Addition und eine Multiplikation. Der Geforce 4 berechnet dagegen zwei komplizierte Multiplikationen gleichzeitig und hängt den Radeon 8500 Chip bei vielen Berechnungen ab, auch bei gleicher Taktfrequenz."

Damit ist bewiesen, das die Radeon 2 Vertexshader hat :).

Quasar
2002-05-02, 19:07:42
Ok, hab' mich etwas falsch erinnert...

Also, dann ratet weiter, ob 1 oder 2 ;)

Dunkeltier
2002-05-02, 19:08:53
Originally posted by Quasar
Ok, hab' mich etwas falsch erinnert...

Also, dann ratet weiter, ob 1 oder 2 ;)

Zwei, steht doch im Bericht. Der VS ist doppelt ausgelegt, kann aber nicht immer zum Zuge kommen.

Quasar
2002-05-02, 19:18:58
Das ist es, was die PCGH schreibt.....vielleicht stand's auch mal bei "the inquirer"...

Aber egal: Hat der Radeon eben zwei Stück...nützt ihm auch nix ;)

Dunkeltier
2002-05-02, 19:20:33
Originally posted by Quasar
Das ist es, was die PCGH schreibt.....vielleicht stand's auch mal bei "the inquirer"...

Aber egal: Hat der Radeon eben zwei Stück...nützt ihm auch nix ;)


Doch, er walzt damit eine Geforce 3 Ti 500 platt. Und NVidia hat in diesem Sinne die doppelte Auslegung des VS "kopiert" und modifiziert.

Quasar
2002-05-02, 19:26:59
Na, die Diskussion hatten wir schon zur Genüge, oder??

BTW gibt's den "richtigen" Double-VS schon seit dem nV2A....wer hat hier wohl abgeguckt?

ow
2002-05-02, 19:35:15
Originally posted by zeckensack
Nix da. Radeon 1 kann lediglich Skinning mit 4 Matrizen. Das reicht nur für die offiziell nie unterstützte VS-Version 0.5.
Alle in der freien Wildbahn existenten Vertex Shader kann das Ding nur in reiner Software-Emulation.


Und keyframe-interpolation kann der Radeon1 :)
Da gibt´s auch ne ATi Demo dazu.

/edit: s. auch hier

Quasar
2002-05-02, 19:38:00
Mir fällt da grad noch was ein, aber ich formulier's lieber als Frage:
Kann es möglich sein, daß der Radeon in den HiPoly-Tests mit dem Smartshader DX8-Dreiecke raushaut und mit seiner Charisma-Engine ein paar zusätzliche Dreiecke per Soft-TnL im Treiber dazupackt?

Razor
2002-05-02, 19:42:41
@Black Cow

Wie war das noch ?
"Wer lesen kann, ist klar im Vorteil !
;-)

Du hast geschrieben:
PC Games Hardware, Ausgabe Mai 2002 auf Seite 151: "Der Vertex Shader des Radeon 8500..."
Der Vertex Shader = Singular
Die Vertex Shader = Plural

Ergo besitzt die R8500 eben nur einen (Merke: Singular !) Vertex Shader, der in der Lage ist...

Kapiche ?
;-)

Das bedeutet lediglich, daß dieser eine VS in bestimmten Situationen 2 (unterschiedliche) Befehle gleichzeitig ausführen kann, weil bestimmte Komponenten dieses einen VS parallel laufen (können), womit dann auch erklärt wird, warum nicht zwei identische Befehle synchron ausgefürt werden können. Eben weil's nur ein VS ist, gell ?

In diesem Sinne

Razor

Dunkeltier
2002-05-02, 19:43:17
Originally posted by Quasar
Mir fällt da grad noch was ein, aber ich formulier's lieber als Frage:
Kann es möglich sein, daß der Radeon in den HiPoly-Tests mit dem Smartshader DX8-Dreiecke raushaut und mit seiner Charisma-Engine ein paar zusätzliche Dreiecke per Soft-TnL im Treiber dazupackt?


Nein, unmöglich. Oder belehrt mich eines besseren.

Dunkeltier
2002-05-02, 19:45:19
Originally posted by Razor
@Black Cow

Wie war das noch ?
"Wer lesen kann, ist klar im Vorteil !
;-)

Du hast geschrieben:

Der Vertex Shader = Singular
Die Vertex Shader = Plural

Ergo besitzt die R8500 eben nur einen (Merke: Singular !) Vertex Shader, der in der Lage ist...

Kapiche ?
;-)

Das bedeutet lediglich, daß dieser eine VS in bestimmten Situationen 2 (unterschiedliche) Befehle gleichzeitig ausführen kann, weil bestimmte Komponenten dieses einen VS parallel laufen (können), womit dann auch erklärt wird, warum nicht zwei identische Befehle synchron ausgefürt werden können. Eben weil's nur ein VS ist, gell ?

In diesem Sinne

Razor


Einer, der sich wie zwei verhält aber letztlich nur einer ist? ??? Ein Zwitter? Ein VS, der für zwei als auch für einen rechnet? *Sicherung im Gehirn durchbrenn* Ich versteh das nicht. Zwitter.

Quasar
2002-05-02, 19:46:46
Nee, is doch in jeder CPU seit dem Pentium das gleiche...

Dunkeltier
2002-05-02, 19:47:34
Bei der Geforce 4 ist aber auch nur die Rede vom "Shader-Block".

Razor
2002-05-02, 19:52:22
Originally posted by Black Cow

Nein, unmöglich. Oder belehrt mich eines besseren.
Wieso unmöglich ?

Die R8500 müsste theoretisch in der Lage sein, mit Ihrer Charisma-Engine (DX7 HW T&L) Polys durchzuziehen und eben auf dem VS ebenfalls ein DX7 T&L-Proggi laufen zu lassen. Wenn man das halbwegs vernünftig synchronisieren kann, dann hat man zwar keine 2 Vertex Shader, wohl aber 2 parallel laufende DX7 HW T&L - Engines, was durchaus diesen hogen Poly-Durchsatz erklären könnte.

Das Soft T&L dazu genommen werden kann, halte auch ich mittlerer Weile für ziemlich unwahrscheinlich, da es einfach zu schwierig erscheint, die Hardware und die Software so zu synchronisieren, daß damit eine echte Arbeitsteilung möglich ist (die CPU tut ja noch 'ne Menge mehr, als nur Polys zu transformieren - sie berechnet diese ja auch noch so 'nebenbei'...).

Egal, lange Rede kurzer Sinn...
;-)

Man könnte es also folgendermaßen formulieren:
Die Radeon hat zwar keine 2 Vertex Shader, aber kann Ihren einen (!) Vertex Shader mit der T&L-Einheit (Charisma Engine) kombinieren, um 2 T&L-Engines zu haben !

Na ? Was meint Ihr ?
???

Razor

Quasar
2002-05-02, 20:05:24
Originally posted by Razor

Das Soft T&L dazu genommen werden kann, halte auch ich mittlerer Weile für ziemlich unwahrscheinlich, da es einfach zu schwierig erscheint, die Hardware und die Software so zu synchronisieren, daß damit eine echte Arbeitsteilung möglich ist (die CPU tut ja noch 'ne Menge mehr, als nur Polys zu transformieren - sie berechnet diese ja auch noch so 'nebenbei'...).


...und könnte das auch der Grund sein, warum die Radeon in Benchmarks relativ gesehen besser abschneidet als in realen Spielesituationen?

Razor
2002-05-02, 20:06:18
Ui, det geht aber schnell hier...
;-)

@Quasar

"Nee, is doch in jeder CPU seit dem Pentium das gleiche..."

Jep, die Kunst ist halt nur, die Berechnungen, obwohl parallel ausgeführt, in der richtigen Reihenfolge zu behalten... ändert nicht viel am maximalen Durchsatz, aber erhöht die Rechengeschwindigkeit, wenn eben die unterschiedlichen Komponenten ausgelastet werden. Im ungünstigsten Fall kommen aber sehr viele gleiche Befehle hintereinander und da bringt die parallele Verarbeitung unterscheidlicher Befehle nichts mehr.

@Black Cow

"Bei der Geforce 4 ist aber auch nur die Rede vom "Shader-Block"."

Hä ?
Also alles hat bisher von einem 2. Vertex Shader gesprochen !
Von einem "Shader-Block" hab' ich noch nichts gehört...
Und selbst wenn dem so wäre, benötigt dieser Begriff noch ein wenig mehr Information, um vernünftig interpretiert werden zu können.

Bis denne

Razor

Dunkeltier
2002-05-02, 20:10:47
Originally posted by Razor

Wieso unmöglich ?

Die R8500 müsste theoretisch in der Lage sein, mit Ihrer Charisma-Engine (DX7 HW T&L) Polys durchzuziehen und eben auf dem VS ebenfalls ein DX7 T&L-Proggi laufen zu lassen. Wenn man das halbwegs vernünftig synchronisieren kann, dann hat man zwar keine 2 Vertex Shader, wohl aber 2 parallel laufende DX7 HW T&L - Engines, was durchaus diesen hogen Poly-Durchsatz erklären könnte.

Das Soft T&L dazu genommen werden kann, halte auch ich mittlerer Weile für ziemlich unwahrscheinlich, da es einfach zu schwierig erscheint, die Hardware und die Software so zu synchronisieren, daß damit eine echte Arbeitsteilung möglich ist (die CPU tut ja noch 'ne Menge mehr, als nur Polys zu transformieren - sie berechnet diese ja auch noch so 'nebenbei'...).

Egal, lange Rede kurzer Sinn...
;-)

Man könnte es also folgendermaßen formulieren:
Die Radeon hat zwar keine 2 Vertex Shader, aber kann Ihren einen (!) Vertex Shader mit der T&L-Einheit (Charisma Engine) kombinieren, um 2 T&L-Engines zu haben !

Na ? Was meint Ihr ?
???

Razor



IMHO ist die Charisma Engine letztlich die VS Einheit! Nur mit einem besseren Marketing Namen versehen.

Razor
2002-05-02, 20:17:23
Originally posted by Quasar


...und könnte das auch der Grund sein, warum die Radeon in Benchmarks relativ gesehen besser abschneidet als in realen Spielesituationen?
Das wäre dann aber schon fast Betrug, da die CPU dann ja um einiges mehr gefordert würde...

Aber klar, bei Benches braucht die CPU ja eigentlich nicht anderes zu tun, als Poly's zu berechnen und an die GraKa zu schicken. Indofern kann man ihr ja ruhig noch ein bissel mehr 'aufbürden' !
:D

Aber im Ernst, wenn ATI es wirklich für bestimmte Grafik-Engines hinbekommt, die Charisma-Engine mit ihrem VS zu kombinieren (obwohl ich vermute, daß die Charisma-Engine durchaus zum Teil von dem VS gebrauch macht ;-), dann wäre der sehr gute Poly-Durchsatz zu erklären (auch ohne Soft T&L). Schließlcih ist der VS ja Programmierbar und kann je nach Situation an die Arbeitsweise der (DX7-)Engine angepaßt werden, um so die Charisma-Engine zu entlasten.

Eine 'dynamische Anpassung' des Vertex-Shaders in DX7-Situationen sozusagen.

Was aber bedeuten würde, daß diese Anpassung für jede Grafik-Engine 'handoptimiert' sein müsste. Will sagen, bekannte Engine, neuer Treiber = gute bis sehr gute Performance. Neue Engine und/oder alter Treiber = schlechte Performance.

Hmmm...
Da fällt mir doch...
*spekulier*
;-)

Bis denne

Razor

aths
2002-05-02, 20:18:23
Eine T&L Einheit nach DX7 Standard kann keinen VS abgeben. Da kann man auch schwerlich die CPU Teilaufgaben machen lassen, und bestimmte VS-Aufgaben der DX7 T&L-Einheit zuschustern.

Entweder nutzt man T&L oder VS. Ich glaube nicht, dass die Radeon eine eigene DX7 T&L Unit hat. Das wäre Verschwendung von Die-Fläche.

Quasar
2002-05-02, 20:21:51
aths,
es geht hier auch mehr um die hohe Leistung speziell in den HiPoly-Tests der 3DMarks. Da ist nix mit "Vertexshader-only".

Außerdem wurde irgendwo mal ziemlich unwidersprochen Einigkeit erzielt, daß die Radeon8500 die alte Charisma-Engine (der Name der TnL-Einheit der Radeon-I), bzw. deren TnL-Teil, komplett in HW hat.

Razor
2002-05-02, 20:23:39
Originally posted by Black Cow

IMHO ist die Charisma Engine letztlich die VS Einheit! Nur mit einem besseren Marketing Namen versehen.
Auch bei der gf3 hat man früher vermutet, daß sie, wie die R200 auch, einen VS und eine DX7 T&L-Einheit besitzt, also 2 Geometrieeinheiten besitzt. Sehr merkwürdig war eben nur, daß diese offensichtlich nicht parallel genutzt werden konnten.

Bis sich ein Hardware-Entwickler nVidia's erdreistete, dieses zu negieren und damit auch zu erklären, warum eine gf3 nicht in der Lage ist, den VS und die DX7 T&L-Einheit parallel zu nutzen (was die API 'eh nicht zulassen würde, wohl aber der Treiber ;-).

Also ich bei bei der R8500 bisher immer von 2 Geo-Einheiten ausgegangen, allerdings keine 2 VS, sondern einen VS und die "Charisma Engine" (?) !
;-)

Bis denne

Razor

P.S.: Die gf3 besitzt definitiv nur eine Geo-Einheit !
...und ist trotzdem noch schnell :D

Dunkeltier
2002-05-02, 20:30:59
Entweder ist die VS der Radeon 8500 echt ein heißes Stück Technik (gewesen), oder Ati mogelt (glaube ich weniger). Das T&L nach der 7er Norm sich nicht mit PS & VS der 8er Norm kombinieren läßt, ist mir schon immer klar gewesen (probiert mal LKW Reifen auf´m PKW aufzuziehen).

IMHO scheint der Radeon 8500er Chip ziemlich gut designt worden zu sein, was man von den Treibern nicht immer behaupten kann (ich suche immer noch den 1290x960 [?] Modus)...

Razor
2002-05-02, 20:47:30
Originally posted by Black Cow

IMHO scheint der Radeon 8500er Chip ziemlich gut designt worden zu sein, was man von den Treibern nicht immer behaupten kann (ich suche immer noch den 1290x960 [?] Modus)...
Die Hardware war von ATI schon immer gut, vor allem auch qualitativ hochwertig...

Aber was Deinen Auflösungswunsch angeht:
Vielleicht solltest Du es mal mit 1280x960 probieren !
;-)

Bis denne

Razor

Dunkeltier
2002-05-02, 20:49:38
Originally posted by Razor

Die Hardware war von ATI schon immer gut, vor allem auch qualitativ hochwertig...

Aber was Deinen Auflösungswunsch angeht:
Vielleicht solltest Du es mal mit 1280x960 probieren !
;-)

Bis denne

Razor


War mir nicht so sicher, deshalb auch das Fragezeichen dahinter. Brauche die Auflösung für den Desktop und für Spiele. Was die Qualität von ATI betrifft: Wieso immer solche "Papplüfter"? Das störte mich schon immer. Und dieses konserative Design...

Quasar
2002-05-02, 20:55:25
Wenn du LKW-Reifen auf 'nen entsprechenden PKW aufziehst, haste 'nen sogenannten Mosntertruck, der alle plattmacht, was ihm unter die Räder kommt.. ;)

Und btw meinte ich hauptsächlich die HiPoly-Tests (siehe letztes Posting!) in den 3DMarks, die sicher wenn, dann nur extrem einfach VS-instruktionen für das halbwegs sinnlose stripen von Dreiecken nutzen dürften. Das sollte IMHO schon kombinierbar sein, und sei es, daß der VS per VS-Programm DX7-Dreiecke zusammen mit der alten Charisma-TnL macht...

Razor
2002-05-02, 21:01:21
Genau das habe ich gemeint, Quasar...
Habe ich das nicht sogar geschrieben ?
Hmmm...
;-)

Razor

aths
2002-05-02, 21:05:50
Quasar,

der Treiber müsste das Programm abchecken, ob es vom alten "VS 0.5" genutzt werden könnte, und müsste dann die Vertices auf beide Einheiten gleichmäßig verteilen. Das ist sicher nicht undenkbar, halte ich aber für unwahrscheinlich.

Auch bei der GF3 wurde erst gesagt, die DX7 T&L Logik sei noch enthalten.

Entweder hat die Radeon nen VS der hoch optimiert wurde (so dass fast jeden Takt ein fertiger Eckpunkt die Pipeline verlässt) oder ein Dual-Design. Ich sehe wie gesagt keinen Sinn darin, die alte T&L Logik auf dem Chip zu lassen. Denn wird VS 1.1 genutzt, läge dieser Teil der Chipfläche ungenutzt brach. Warum nicht noch ein paar Transitoren drauflegen und die Leistung verdoppeln?

Razor
2002-05-02, 21:15:33
@aths

Sorry, wenn ich Deine Anmerkungen zu Quasar kommentiere...

"der Treiber müsste das Programm abchecken, ob es vom alten "VS 0.5" genutzt werden könnte, und müsste dann die Vertices auf beide Einheiten gleichmäßig verteilen. Das ist sicher nicht undenkbar, halte ich aber für unwahrscheinlich."

Ist sicher ähnlich aufwändig, wie das Kombinieren von 2 Vertex-Shadern...

"Auch bei der GF3 wurde erst gesagt, die DX7 T&L Logik sei noch enthalten."

Was ja soager korrekt war, denn die Logic ist zu 100% erhalten geblieben (deswegen auch die hohe Kompatibilität !), nur die Basis hat sich geändert...

"Ich sehe wie gesagt keinen Sinn darin, die alte T&L Logik auf dem Chip zu lassen."

Vielleicht ATI's Methode, bewährte Technologie mir neuer zu kombinieren...
Oder einfach nur ein Trick, um in bestimmten Situationen besser da zu stehen...
Wer weiß ?
;-)

"Denn wird VS 1.1 genutzt, läge dieser Teil der Chipfläche ungenutzt brach."

Korrekt, was auch die hohe Poly-Leistung bei DX7 T&L erklären würde...
(weil es umgekehrt deutliche Vorteile bringen könnte !)

Bis denne

Razor

Quasar
2002-05-02, 21:23:43
Ich bin noch am Suchen, aber hier schonmal ein erstes Ergebnis:

http://www.planetsavage.net/hardware/radeon8500/index.shtml

Charisma Engine II - It's ATi's 2nd generation Transform and Lighting engine. It is a hardware accelerated, fixed function transform and lighting engine. This new engine works along with the new Smartshader engine of ATi which is similar to NVIDIA's programmable vertex shader.


und ein zweites:
http://www.hardwares.de/grafikkarten/ati/radeon8500/radeon8500.html

Ein weiteres hochgelobtes Feature ist die Charisma-Engine, diese Transform-, Clipping- und Lighting- Einheit ist theoretisch in der Lage 75 Milionen Dreiecke pro Sekunde zu berechnen, und das parallel zum Smart Shader.

Nummer drei:

http://www.de.tomshardware.com/graphic/01q3/010814/radeon8500-10.html
http://www.de.tomshardware.com/graphic/01q3/010814/images/graphics_pipeline.gif

4:
[quote]
http://www.techhard.com/docs/video/radeon8500/radeon8500_6.htm

CHARISMA ENGINE II
The second generation CHARISMA ENGINE II incorporates an improved fixed function transform and lighting pipeline in parallel with a new programmable Vertex Shader pipeline. It works in parallel with the programmable SMARTSHADER Vertex Shader engine and offers the highest level of performance ever found in a consumer based graphics processor.Both the fixed function and the programmable portions of the CHARISMA ENGINE II are now capable of processing up to 62.5 million triangles per second.

Und Nummero Cinque:

http://www.sysopt.com/articles/radeon8500/index8.html

The CHARISMA ENGINE II is a second generation fixed instruction hardware transform and lighting processor based upon the same architecture found with the original Radeon series of cards. The major change with the Radeon 8500 is performance, as this revision can process upto 62.5 million triangles per second. The original Radeon is rated over two times slower at only 30 million triangles per second.

Und ein letztes, besonders glaubwürdiges ;), da von Leo's Nebenbeschäftigung :
http://www.hardtecs.de/reviews/2002/his_r8500/ati_radeon8500_schema.png

Dunkeltier
2002-05-02, 21:27:05
Originally posted by Quasar
Ich bin noch am Suchen, aber hier schonmal ein erstes Ergebnis:



Smartshader = Vertexshader. Nur anderer Name. Die Charisma Engine scheint wohl nur für einige spezielle Bereiche fürs übertragen von Videobildern sein (wie der festverdrahtete VS bei der Matrox G550). Also nur ein spezielles "Befehlspaket" des Smartshaders...

Oder dient die "Charisma Engine" nicht dazu, eckige Übergänge an Figuren mit mehr Polygonen "auszustopfen"?

Quasar
2002-05-02, 21:34:04
Die Charisma-Engine ist die komplette TnL-Engine der Radeon-I

Razor
2002-05-02, 21:37:29
Och man, schwatte Kuh...
(Sorry ;-)

Quasar hat sich doch nun wirklich Mühe gegeben, oder ?

Smartshader = Vertex- und Pixel-Shader = DX8 (nur anderer Name)
Charisma Engine 2 = nachfolger der Charisma Engine 1 (Radeon 1) = HW T&L

Das steht da ziemlich eindeutig und alles, was man tun muß, ist es zu lesen !


Sorry, wenn ich nun vielleicht etwas ungeduldig klinge, aber Quasar hat genau das ausgegraben, war ich ebenfalls schon mehrfach gelesen habe...

R7500 = 1 Geo-Einheit = Charisma Engine (1)
R8500 = 2 Geo-Einheiten = Charisma Engine 2 (fixed T&L) + Smartshader (programmable VS/PS)

Eindeutiger geht's nimmer !

In diesem Sinne

Razor

P.S.: Und Quasar war wieder schneller und kürzer...
:D

Quasar
2002-05-02, 21:40:46
Vielleicht schneller weil kürzer? ;)

Razor
2002-05-02, 21:41:55
:D

Ikon
2002-05-02, 21:49:37
Originally posted by Black Cow



Smartshader = Vertexshader. Nur anderer Name. Die Charisma Engine scheint wohl nur für einige spezielle Bereiche fürs übertragen von Videobildern sein (wie der festverdrahtete VS bei der Matrox G550). Also nur ein spezielles "Befehlspaket" des Smartshaders...

Oder dient die "Charisma Engine" nicht dazu, eckige Übergänge an Figuren mit mehr Polygonen "auszustopfen"?


Eckige Übergänge an Figuren mit Polygonen ausstopfen? Was du meinst ist TRUFORM, was afaik beim R200 über den SMARTSHADER läuft. Das hat nix mit der fixed-function-TnL-Einheit zu tun. Obwohl ... wie ich gerade weiter oben lese ... Also die fixed-function-TnL-Unit soll angeblich 75 Mio. Triangles/sec schaffen, aber mit Benutzung des SMARTSHADERS schaffen beide "nur" noch 62,5 Mio Dreiecke/Sek. Da stimmt doch was nicht, kann das sein? Das würde ja doch andeuten, dass die DX7-TnL-Einheit den SMARTSHADER ausbremst. Aber dann auf der anderen Seite, erzähle ich vieleicht nur Bockmist.

Ikon

Quasar
2002-05-02, 22:00:25
Nö, tust du nich :)
Das liegt nur daran, dass bei einigen Tests von offiziellen Angaben ATis ausgegangen wurde, die ursprünglich auf eine mit 300MHz getaktete Radeon8500 hochgerechnet wurden (2,4GTex/s.) :).

Später hat man's dann wohl teilweise gemerkt/korrigiert und so wurde der Wert auf 250MHz-Entsprechungen runtergerechnet.

Ikon
2002-05-02, 22:04:13
Thx, man lernt ja nie aus. Also wohl doch separate fixed-function-T&L-Unit und Vertex-Shader. Allerdings nur, wenn man den Angaben von ATI trauen kann.

Ikon

Quasar
2002-05-02, 22:06:24
Originally posted by Ikon
Allerdings nur, wenn man den Angaben von ATI trauen kann.
Ikon

Oh je. Daran hab' ich gar nicht gedacht... :lol:

Dunkeltier
2002-05-02, 22:13:10
Originally posted by Ikon



Eckige Übergänge an Figuren mit Polygonen ausstopfen? Was du meinst ist TRUFORM, was afaik beim R200 über den SMARTSHADER läuft. Das hat nix mit der fixed-function-TnL-Einheit zu tun. Obwohl ... wie ich gerade weiter oben lese ... Also die fixed-function-TnL-Unit soll angeblich 75 Mio. Triangles/sec schaffen, aber mit Benutzung des SMARTSHADERS schaffen beide "nur" noch 62,5 Mio Dreiecke/Sek. Da stimmt doch was nicht, kann das sein? Das würde ja doch andeuten, dass die DX7-TnL-Einheit den SMARTSHADER ausbremst. Aber dann auf der anderen Seite, erzähle ich vieleicht nur Bockmist.

Ikon

Was die Übergänge betrifft: N-Patches

Charisma Engine II: festverdrahtetes T&L nach DX7 Norm oder Vertex & Pixelshader bis 1.4 DX8(.1) Norm.

Ich glaube, ich halte mich zu lange in diesem Forum auf. ?-) Ich bin nur noch verwirrt. Muß Gedanken sortieren. :santa:

Quasar
2002-05-02, 22:16:02
Nei-hein....

Charisma Engine II: festverdrahtetes T&L nach DX7 Norm und Vertex & Pixelshader bis 1.4 DX8(.1) Norm.

Dunkeltier
2002-05-02, 22:19:38
Originally posted by Quasar
Nei-hein....

Charisma Engine II: festverdrahtetes T&L nach DX7 Norm und Vertex & Pixelshader bis 1.4 DX8(.1) Norm.


Nei-hein! Man kann nur eines von beiden einsetzen, aber nicht beides zugleich im Spiel. Also hat der Programmierer beim programmieren die Wahl, das Spiel auf auf fest oder lose zu programmieren. Oder kann ich festes T&L mit Vertex und Pixelshadern kombinieren? ??? Argh, Kurzschlüße in meinen Gehirn! :naughty:

Ikon
2002-05-02, 22:25:57
Ich denke, dass es theoretisch durchaus möglich wäre, die DX7-T&L-Einheit parallel zum Vertex-Shader einzusetzen (sofern ATI keinen Müll erzählt hat + keine API-Limitierungen diesen Einsatz verhindern). In der Praxis wird die Sache aber wohl unter den Tisch fallen, da NV es leider nicht unterstützt.

Übrigens: der PS gehört bei ATI nicht wie hier fäschlicherweise behauptet zur Charisma Engine (er hat auch überhaupt nix mit dem VS zu tun), sondern zur PIXEL TAPESTRY II. Wollte das nur mal klären ...

Ikon

Dunkeltier
2002-05-02, 22:28:43
Originally posted by Ikon
Ich denke, dass es theoretisch durchaus möglich wäre, die DX7-T&L-Einheit parallel zum Vertex-Shader einzusetzen (sofern ATI keinen Müll erzählt hat + keine API-Limitierungen diesen Einsatz verhindern). In der Praxis wird die Sache aber wohl unter den Tisch fallen, da NV es leider nicht unterstützt.

Ikon


Und wie will ich dann Objekte mit den Shader verformen, die die feste T&L Einheit schon gerendert hat? Geht doch gar nicht, für das selbe zwei Sachen einzusetzen.


BTW, die Bildqualität könnte gar nicht auf Shader Niveau sein.

Ikon
2002-05-02, 22:35:50
Da hast du recht, aber wer behauptet, dass ALLE Objekte mit beiden Funktionen bearbeitet würden. Ich dachte eher so: Objekt 1 mit fixed-function und Objekt 2 mit VS. Aber ich muss auch sagen, dass das die Grenzen meines Wissens langsam sprengt. Abklatsch -> Black Cow

Ikon

Dunkeltier
2002-05-02, 22:42:28
Originally posted by Ikon
Da hast du recht, aber wer behauptet, dass ALLE Objekte mit beiden Funktionen bearbeitet würden. Ich dachte eher so: Objekt 1 mit fixed-function und Objekt 2 mit VS. Aber ich muss auch sagen, dass das die Grenzen meines Wissens langsam sprengt. Abklatsch -> Black Cow

Ikon

Ich gebe weiter an Quasar, oder Thowe. Die wissen es bestimmt.

Quasar
2002-05-02, 22:47:02
Danke :) aber über APIs und Programmierung usw weiß ich auch nicht viel.

Nur mit gesundem Menscheverstand sollten doch folgende Schlüsse zumindest nachvollziehbar sein:

nVidia hat in der GF3 nur einen VS, der per Programm DX7 TnL emuliert -> ATi hat in der Radeon eine DX7 TnL-Einheit + den VS -> Füttere den VS mit einem änhlichen Programm wie bei der GF3 und es wird auch was ähnliches rauskommen -> Füttere die DX7-TnL Einheit mit den entsprechenden Daten -> Ein extrem hoher DirectX7-Polygondurchsatz.

Daß die Charisma-Engine nicht bei DirectX8 hilft, denke ich auch, aber für DX7-Effekte wird man sicher beide kombinieren können...

AlfredENeumann
2002-05-03, 00:15:36
Originally posted by Ikon

ATI könnte sicherlich einen 2.Vertex-Shader dazupacken. Die Frage ist nur wozu?


TrueForm ?

Quasar
2002-05-03, 00:21:50
Nee, TruForm erzeugt zusätzliche Polygone, Vertex-Shader können aber nur schon vorhandene Geometrie bearbeiten.

StefanV
2002-05-03, 01:07:30
Ähm, soweit ich weiß ist in DX8 nur EIN Vertex Shader 'erlaubt'.

Oder anders:

Mit 2 Vertex Shadern kann DX8 nix anfangen!!

Dunkeltier
2002-05-03, 01:15:48
Originally posted by Stefan Payne
Ähm, soweit ich weiß ist in DX8 nur EIN Vertex Shader 'erlaubt'.

Oder anders:

Mit 2 Vertex Shadern kann DX8 nix anfangen!!


Und wieso macht die Radeon davon so stark gebrauch, das sie so gute Werte erzielt? BTW, die Geforce 4 Ti auch?! Ist erlaubt, wird ja intern im Chip von Cache in die Pipelines gegeben. Wie die Chips es berechnen ist (fast) egal, hauptsache das Ergebnis was rauskommt ist konform.

Ikon
2002-05-03, 01:21:41
Der 2.VS der GeForce4Ti ist für die API völlig transparent, die Programmierer können/müssen ihn nicht direkt ansprechen. Die 2 VS arbeiten parallel wie beim SMP. Die Instruktionsaufteilung erledigt die Hardware aber ganz alleine.

Ikon

StefanV
2002-05-03, 02:11:12
ah, ich wußte, daß das kommt *eg*

DX8 kann nur mit einem VS umgehen.
Die Radeon und die GF4 haben EINEN Vertexshader.
Ein Athlon hat ja auch eine FPU ;)

Wie der VS intern aufgebaut ist, spielt keine Rolle...

bei der GF4 ist der VS doppelt ausgelegt, sind aber nicht unabhängig.

Ergo:

die GF4 hat KEINE 2 Vertex Shader, sondern einen mit 2 Pipelines ;)

Xmas
2002-05-03, 04:31:15
Originally posted by Quasar
Nee, TruForm erzeugt zusätzliche Polygone, Vertex-Shader können aber nur schon vorhandene Geometrie bearbeiten.
Falsch. Tessellation jeglicher Art (HOS, Displacement Mapping) kommt vor dem Vertex Shader. Alle Eckpunkte werden vom VS bearbeitet.

Aber ansonsten verstehe ich die ganze Diskussion um die Vertex Shader nicht und muss hier Stefan recht geben. Wie der VS intern aufgebaut ist interessiert nicht die Bohne, entscheidend ist der Vertex-Durchsatz. Ob man jetzt zwei vollfunktionale Pipelines hat, eine die nur bestimmte Instruktionen verarbeiten kann oder vielleicht fünf, die dafür nur halb so schnell sind...

ow
2002-05-03, 09:19:43
Originally posted by Stefan Payne
Ähm, soweit ich weiß ist in DX8 nur EIN Vertex Shader 'erlaubt'.

Oder anders:

Mit 2 Vertex Shadern kann DX8 nix anfangen!!


AFAIK kannst du auch 4 oder 8 oder 16 VS einsetzen, wenn du willst, wieso sollte das begrenzt sein?

Ist genauso, als wuerdest du behaupten, ein OS wuerde nur eine FPU- Pipeline der CPU benutzen und koenne mit den 2 anderen FPU-pipes des XP nix anfangen.

ow
2002-05-03, 09:20:28
Originally posted by Ikon
Der 2.VS der GeForce4Ti ist für die API völlig transparent, die Programmierer können/müssen ihn nicht direkt ansprechen. Die 2 VS arbeiten parallel wie beim SMP. Die Instruktionsaufteilung erledigt die Hardware aber ganz alleine.

Ikon


So wird das wohl aussehen denke ich.

ow
2002-05-03, 09:21:42
Originally posted by Stefan Payne

die GF4 hat KEINE 2 Vertex Shader, sondern einen mit 2 Pipelines ;)

???

aths
2002-05-03, 12:09:05
Razor,

ich halte es für weniger aufwändig, 2 VS parallel zu betreiben. Jeweils wenn eine Pipeline frei ist, bekommt sie den nächsten Eckpunkt. So einfach.

""Auch bei der GF3 wurde erst gesagt, die DX7 T&L Logik sei noch enthalten."

Was ja soager korrekt war, denn die Logic ist zu 100% erhalten geblieben (deswegen auch die hohe Kompatibilität !), nur die Basis hat sich geändert..."

Was möchtest du damit sagen?



Quasar,

"based upon the same architecture" sagt nicht viel aus. Der PixelShader von GeForce3 basiert z.B. auf der gleichen Architektur des NSR der GTS. Aus dem Blockschaltbild entnehme ich lediglich, dass die Radeon8500 VertexShader hat. Dass die alte Logik noch enthalten ist, kann ich nicht entnehmen.

aths
2002-05-03, 12:12:07
ow,

Xmas hat es in diesem Thread schon gesagt, (ich habe es in anderen Thread auch mehrfach erwähnt). nVidias Gerede vom "dualen" VS bezieht sich auf den inneren Aufbau. Das interessiert den Programmierer nicht. Er interessiert sich nur für die Leistung. Aus logischer Sicht ist entweder VS-Funktionalität vorhanden, oder nicht.

StefanV
2002-05-03, 12:38:40
Originally posted by ow
AFAIK kannst du auch 4 oder 8 oder 16 VS einsetzen, wenn du willst, wieso sollte das begrenzt sein?

Ist genauso, als wuerdest du behaupten, ein OS wuerde nur eine FPU- Pipeline der CPU benutzen und koenne mit den 2 anderen FPU-pipes des XP nix anfangen.

1. schön, aber bei 4 liegen dann 3 Brach, da DX8 nur von einem gebrauch macht!!

2. ich hab nie gesagt, daß ein OS nur von einer FPU Pipeline gebrauch macht ;)
Ich hab nur gesagt, daß ALLE CPUs EINE FPU haben...

3.der NV25 hat einen Vertex Shader mit 2 Pipelines, genau wie der Athlon 1 FPU mit 3 Pipelines hat...

ow
2002-05-03, 12:43:03
Originally posted by aths
ow,

Xmas hat es in diesem Thread schon gesagt, (ich habe es in anderen Thread auch mehrfach erwähnt). nVidias Gerede vom "dualen" VS bezieht sich auf den inneren Aufbau. Das interessiert den Programmierer nicht. Er interessiert sich nur für die Leistung. Aus logischer Sicht ist entweder VS-Funktionalität vorhanden, oder nicht.


Richtig, und ueblicherweise werden 2 VS-pipes auch als 2 VS bezeichnet.

Quasar
2002-05-03, 12:54:10
Originally posted by aths
Quasar,

"based upon the same architecture" sagt nicht viel aus. Der PixelShader von GeForce3 basiert z.B. auf der gleichen Architektur des NSR der GTS. Aus dem Blockschaltbild entnehme ich lediglich, dass die Radeon8500 VertexShader hat. Dass die alte Logik noch enthalten ist, kann ich nicht entnehmen.

aths, guck dir doch noch einmal meine Belege an und dann belege das Gegenteil. Schlicht die Tatsache, daß du nicht bereit bist, das zu glauben, reicht mir als Gegenbeleg irgendwie nicht aus.

by Xmas
Falsch. Tessellation jeglicher Art (HOS, Displacement Mapping) kommt vor dem Vertex Shader. Alle Eckpunkte werden vom VS bearbeitet.

Was anderes behaupte ich auch nicht. AEN's Post klang für mich so, als wäre der 2.VS für's TruForm zuständig.
Im Nachhinein muss ich zugeben, daß man es auch anders hätte interpretieren können, so daß der 2.VS die Mehrbelastung durch die n-Patches auffangen sollte.

ow
2002-05-03, 13:01:23
Originally posted by Quasar



Was anderes behaupte ich auch nicht. AEN's Post klang für mich so, als wäre der 2.VS für's TruForm zuständig.

Im Nachhinein muss ich zugeben, daß man es auch anders hätte interprieren können, so daß der 2.VS die Mehrbelastung durch die n-Patches auffangen sollte.


Nein, so hab ich das gleich interpretiert.:D

Quasar
2002-05-03, 13:08:03
;)
Du hast das ja auch nicht gestern nacht gelesen, sondern (kaffeegestärkt und ausgeschlafen heute morgen.

aths
2002-05-03, 13:30:41
Quasar,

ich will hier keine schweren Geschütze auffahren, da ich mir nicht wirklich sicher bin. Deine Belege können mich allerdings nicht wirklich vom Gegenteil überzeugen. Wenn ich mir die Formulierungen ansehe, beziehen sich die Zitate deiner Quellen offenbar alle auf eine gemeinsame Quelle (oder sie schrieben voneinander ab.) Zum Blockschaltbild von ATI. Es scheint so, als hätte der R200 sowohl T&L als auch VS. Angesichts der Vergleiche der VS-Performance im 3DMark sehe ich die Unterteilung jedoch nicht phsysikalisch, sondern logisch gemeint. Die "Charisma Engine II" erlaubt entweder herkömmliches TCL oder den VS zu nutzen.

Bei 1 Licht ist die Radeon mit +75% im Vorteil, beim VertexShader mit +65%. T&L-Leistung und VS-Leistung korrelieren offenbar.

ow
2002-05-03, 13:34:01
Ich stimme da aths in allen Punkten zu.


/edit: btw/OT, kann mir jemand sagen, warum die T&L Leistung meiner Radeon1 doch deutlich unterhalb der meiner GF2MX liegt?? Dachte, die Radeon haette mehr T&L power...

Quasar
2002-05-03, 13:43:41
Originally posted by aths
Wenn ich mir die Formulierungen ansehe, beziehen sich die Zitate deiner Quellen offenbar alle auf eine gemeinsame Quelle (oder sie schrieben voneinander ab.)

Na sicher. Die Informationen kommen von ATi. Ich kann mir auch nicht vorstellen, daß jemand den Chip unter das Mikroskop legt und die verschiedenen Bereiche einzeln analysiert.

ow
2002-05-03, 14:04:03
Originally posted by Quasar


Ich kann mir auch nicht vorstellen, daß jemand den Chip unter das Mikroskop legt und die verschiedenen Bereiche einzeln analysiert.

Nein??

Ich kann mir das vorstellen und glaube, dass derartiges geschieht ('Industriespionage').

Quasar
2002-05-03, 14:27:34
Ja, da hast du wohl recht :)

Aber ich denke, daß die wenigstens Hardware-Reviewer zu solchen Mitteln greifen...

aths
2002-05-03, 14:36:30
Quasar,

was sagst du dazu, dass nicht nur die reine DX7 T&L-Leistung, sondern auch die VS-Leistung des R200 deutlich über dem des NV20 liegt?

Quasar
2002-05-03, 14:41:34
1) Das hat nichts mit dem Thema zu tun

2) Wo steht das

3) Ist das auch auf den gleichen Takt normalisiert?

aths
2002-05-03, 15:43:24
Quasar, ich schrieb: "Angesichts der Vergleiche der VS-Performance im 3DMark sehe ich die Unterteilung jedoch nicht phsysikalisch, sondern logisch gemeint. Bei 1 Licht ist die Radeon mit +75% im Vorteil, beim VertexShader mit +65%. T&L-Leistung und VS-Leistung korrelieren offenbar."

+65% ... +75% Leistung ist nicht alleine mit dem Takt erklärbar.

Quasar
2002-05-03, 16:39:03
Durch die parallele Nutzung der Charisma-Engine II und des Geometrie-Teils des Smartshader ----

Dunkeltier
2002-05-03, 17:06:33
Originally posted by Quasar
Durch die parallele Nutzung der Charisma-Engine II und des Geometrie-Teils des Smartshader ----


Das würde von einer effizienten Nutzung der Architektur sprechen. :)

Xmas
2002-05-03, 17:10:05
Originally posted by Quasar
Nee, TruForm erzeugt zusätzliche Polygone, Vertex-Shader können aber nur schon vorhandene Geometrie bearbeiten.

Originally posted by Quasar
Was anderes behaupte ich auch nicht. AEN's Post klang für mich so, als wäre der 2.VS für's TruForm zuständig.
Im Nachhinein muss ich zugeben, daß man es auch anders hätte interpretieren können, so daß der 2.VS die Mehrbelastung durch die n-Patches auffangen sollte.
Ich hatte deine Formulierung oben so interpretiert, als könnten die zusätzlichen Polygone, die TruForm erzeugt, nicht mehr vom VS bearbeitet werden.

Quasar
2002-05-03, 17:51:46
@Black Cow:
Ja. :)

@Xmas:
Dann hab' ich's vielleicht ein wenig mißverständlich ausgedrückt.

aths
2002-05-03, 18:03:38
Quasar,

die alte DX7 T&L Unit ist kein vollwertiger VS. Wird das VertexShader-Programm auf die Karte geladen, kann eine DX7 T&L Unit damit nichts anfangen. Ich weiss nicht, wie du da was "parallel" nutzen willst.

Quasar
2002-05-03, 18:11:51
Das weiss ich auch aths.

Aber guck doch einfach mal nach, wroüber wir hier sprechen: Die HiPoly-Tests der 3DMarks. Wenn die DX8-only-Code verwenden, installier ich mir freiwillig ne ATi!

Und in DX7 kannste wohl offenbar den VS als stinknormale TnL-Unit mißbrauchen und zusätzlich zum VS nutzen (meinetwegen auch transparent für die Applikation).

aths
2002-05-03, 18:23:31
Quasar,

im HighPoly-Test kommen offenbar 2 T&L-Einheiten zum Einsatz. Dabei sei erst mal dahin gestellt, ob sie DX7-Norm oder DX8-Anforderungen erfüllen.

Der Schluss, dass es 2 T&L-Units seien, kommt anbetracht der erheblichen Mehrleistung gegenüber der GeForce3.

Nun zeigt sich, dass auch im VertexShader-Test ein gewaltiger Vorsprung besteht. Ich würde wieder schließen, dass es sich intern um 2 Units handelt. Es wäre nun also anzunehmen, dass der R200-Core intern 2 VS-Units besitzt. Das ist so ungefähr das, was ich mir zum Thema denke. Denn wenn der R200 2 VS hat, kann diese Leistung immer genutzt werden. Hätte er 1 DX7 T&L und 1 VS, könnte in DX8 nur eine der beiden Units verwendet werden. Zumal man so nicht das gute Ergebnis im VertexShader-Test vom 3DMark2001 erklären kann.

Razor
2002-05-03, 18:36:11
Wie jetzt, was jetzt ?
(Shader-Wirrwar ;-)
???

Also nochmal gaaaaanz kurz:

Die gf4ti hat, wie der NV2A auch, natürlich 2 völlig unabhängige Vertex-Shader. Da aber DX8(.1) nur einen Vertex-Shader unterstützt (was sich mit DX9 ev ändern könnte ?), wird die Last gleichmäßig auf beide verteilt (ob nun per Treiber oder Hardware ist dabei ziemlich egal ;-). Theoretisch sollte es auch möglich sein, auf dem einen Vertex-Shader dann die DX7 T&L-Emu laufen zu lassen, während der andere weiterhin zur Verfügung steht, also theoretisch wie die Radeon auch... Natürlich ist letztgenanntes ziemlicher Quatsch, da es die DX-API verbietet D3D7 und D3D8 parallel zu initialiieren, insofern rein Softwareseitig der gleichzeitige Betrieb von DX7 HW T&L und DX8 Vertex Shader verhindert wird. Wie das Ganze dann allerdings mit OpenGL aussieht, entzieht sich meiner Kenntnis...

Die R8500 hat schlicht und ergreifend eine DX7 T&L Einheit und einen DX8 Vertex Shader. Kann also beide unter DX7 einsetzen (wie die gf4ti auch !), oder eben nur den Vertex Shader unter DX8. Die gf4ti kann in beiden Situationen, DX7 und DX8, beide Shader einsetzen.

That's it !

Im übrigen kann die modifizierte DirectX-API der XBox (Xware ;-) beide Vertex-Shader separat ansprechen. Welchen Sinn das allerdings machen könnte, kann hier vielleicht jemand anderes zum besten geben...

@aths

"ich halte es für weniger aufwändig, 2 VS parallel zu betreiben. Jeweils wenn eine Pipeline frei ist, bekommt sie den nächsten Eckpunkt. So einfach."

Da die Pipelines wohl mit gleicher Geschwindigkeit und gleichem Takt arbeiten (gf4ti), stelle ich mir das eher wie eine Weiche vor, die abwechselnd auf den einen, dann wieder auf den anderen lenkt. Dies würde ich nun überhaupt nicht als aufwendig bezeichnen...

Wenn aber beide Einheiten unterschiedlich aufgebaut sind (R8500), dann dürfte auch die Verarbeitungsgeschwindigkeit unterscheidlich sein. So muß nicht nur am Angang einfach aufgeteilt, sondern am Ende dann eben auch zusammen gesetzt werden. Das wiederum stelle ich mir eben 'etwas' komplizierter vor.
;-)
""Auch bei der GF3 wurde erst gesagt, die DX7 T&L Logik sei noch enthalten."

Was ja soager korrekt war, denn die Logic ist zu 100% erhalten geblieben (deswegen auch die hohe Kompatibilität !), nur die Basis hat sich geändert..."

Was möchtest du damit sagen?
Wo ist der Unterschied zwischen einem Programm, welches in Hardware gegossen ist, oder einer Hardware, die die in Hardware gegossenen Instruktionen als Programm mit gleicher oder höherer Geschwindigkeit ausführen kann ?

Verstehst Du nun, was ich damit sagen wollte ?

"Es scheint so, als hätte der R200 sowohl T&L als auch VS. Angesichts der Vergleiche der VS-Performance im 3DMark sehe ich die Unterteilung jedoch nicht phsysikalisch, sondern logisch gemeint."

Oder die Treiber sind einfach Schei..e !
;-)

Nein, im ernst. Schön, daß Du das so 'siehst', aber hast Du auch irgendetwas 'Greifbares' ?
???

@Stefan

"1. schön, aber bei 4 liegen dann 3 Brach, da DX8 nur von einem gebrauch macht!!"

So ein Quatsch, sorry !
Als ob die DX-API die Hardware direkt ansprechen würde...
Nee...

Ist letztlich eine Sache des Treibers, oder ?
;-)

"3.der NV25 hat einen Vertex Shader mit 2 Pipelines, genau wie der Athlon 1 FPU mit 3 Pipelines hat..."

Belege ?

@Black Cow

"Das würde von einer effizienten Nutzung der Architektur sprechen. ;)"

Oh ja, man könnte aber auch sagen, daß die DX7 HW T&L-Einheit ohne VS dann zeimlich schwach auf der Brust wäre (was im übrigen die eher schwache Poly-Leitung der R1 von ow erklären würde ;-) und erst durch Zunahme des VS gerade mal (!) 65-75% Mehrleistung schaft, obwohl nun doppelt ausgelegt. Was wiederum auch erklären würde, warum die gf4ti nun schneller ist, denn diese besitzt ja 2 vollwertige VS, gell ?

In diesem Sinne

Razor

Quasar
2002-05-03, 18:38:54
Originally posted by aths
Hätte er 1 DX7 T&L und 1 VS, könnte in DX8 nur eine der beiden Units verwendet werden. Zumal man so nicht das gute Ergebnis im VertexShader-Test vom 3DMark2001 erklären kann.

Doch. Wie du weißt, gibt es die Möglichkeit, VS per CPU (und damit imho auch per DX7-TnL) emulieren zu lassen.

Aber es geht erstmal auch eher um die HiPoly-Tests.

Dunkeltier
2002-05-03, 18:42:19
Die Geforce 4 Ti hat einen doppelt ausgelegten Vertexshader, wie die Radeon 8500! Nur das der VS der Geforce 4 Ti effizienter arbeitet. Der Radeon kann nur eine Addition und Multiplikation zugleich, die Geforce 4 Ti ist da unabhängiger.

Razor
2002-05-03, 18:45:15
Originally posted by aths
Quasar,

im HighPoly-Test kommen offenbar 2 T&L-Einheiten zum Einsatz. Dabei sei erst mal dahin gestellt, ob sie DX7-Norm oder DX8-Anforderungen erfüllen.

Der Schluss, dass es 2 T&L-Units seien, kommt anbetracht der erheblichen Mehrleistung gegenüber der GeForce3.

Nun zeigt sich, dass auch im VertexShader-Test ein gewaltiger Vorsprung besteht. Ich würde wieder schließen, dass es sich intern um 2 Units handelt. Es wäre nun also anzunehmen, dass der R200-Core intern 2 VS-Units besitzt. Das ist so ungefähr das, was ich mir zum Thema denke. Denn wenn der R200 2 VS hat, kann diese Leistung immer genutzt werden. Hätte er 1 DX7 T&L und 1 VS, könnte in DX8 nur eine der beiden Units verwendet werden. Zumal man so nicht das gute Ergebnis im VertexShader-Test vom 3DMark2001 erklären kann.
Sorry aths, aber soweit ich weiß, können DX8-VS-Befehle sogar von der CPU umgesetzt werden, warum dann nicht auch von einer fixed T&L-Engine ? Das einzige, was nicht auf 'anderen Rechenknechten' umgesetzt werden kann, sind schlicht Pixel-Shader-Funktionalitäten.

Also könnte man die Murks-Ergebnisse auch so interpretieren:

Unter DX7 benutzt die R2 nicht nur die fixed-T&L-Engine, sondern zusätzlich ein T&L-Vertex-Programm auf dem VS und neutzt beide parallel.

Unter DX8 benutzt die R2 nur den VS, beteiligt dann aber die CPU an der Arbeit...

Oder es werden bestimmte Befehle von der fixed-T&L-Engine interpretiert, wenn dies möglich ist und der Rest dann vom VS und CPU. Alles eine Sache der Treiber und eine Sache der Synchronisation... würde mich dann auch nicht mehr wundern, warum die Treiber so...
;-)
Originally posted by Black Cow
Die Geforce 4 Ti hat einen doppelt ausgelegten Vertexshader, wie die Radeon 8500! Nur das der VS der Geforce 4 Ti effizienter arbeitet. Der Radeon kann nur eine Addition und Multiplikation zugleich, die Geforce 4 Ti ist da unabhängiger.
Und woher nimmst Du diese Info's ?
Wäre nett, wenn Du diese Aussage belegen würdest, wenn Du sie schon als Fakt hinstellst...
;-)

Bis denne

Razor

Razor
2002-05-03, 18:47:40
Mist, Quasar war schon wieder schneller !
...weil kürzer...
;-)

Razor

Dunkeltier
2002-05-03, 18:48:11
Originally posted by Razor

Sorry aths, aber soweit ich weiß, können DX8-VS-Befehle sogar von der CPU umgesetzt werden, warum dann nicht auch von einer fixed T&L-Engine ? Das einzige, was nicht auf 'anderen Rechenknechten' umgesetzt werden kann, sind schlicht Pixel-Shader-Funktionalitäten.

Also könnte man die Murks-Ergebnisse auch so interpretieren:

Unter DX7 benutzt die R2 nicht nur die fixed-T&L-Engine, sondern zusätzlich ein T&L-Vertex-Programm auf dem VS und neutzt beide parallel.

Unter DX8 benutzt die R2 nur den VS, beteiligt dann aber die CPU an der Arbeit...

Oder es werden bestimmte Befehle von der fixed-T&L-Engine interpretiert, wenn dies möglich ist und der Rest dann vom VS und CPU. Alles eine Sache der Treiber und eine Sache der Synchronisation... würde mich dann auch nicht mehr wundern, warum die Treiber so...
;-)

Und woher nimmst Du diese Info's ?
Wäre nett, wenn Du diese Aussage belegen würdest, wenn Du sie schon als Fakt hinstellst...
;-)

Bis denne

Razor


Das die Geforce 4 Ti 2 VS Instruktionen zugleich verarbeitet ist wohl jeden bekannt. Und das die Radeon das auch kann, wenn auch nicht ganz so perfekt und unter dem Umstand das es eine Addition und Multiplikation sein muß, habe ich einige Posts früher in diesen Thread erwähnt.

Ich zitierte da die PC Games Hardware, Mai 2002. Ich glaube Seite 150 oder 151.

Razor
2002-05-03, 18:50:39
Nochmal, Black Cow, woher hast Du die Info, daß die gf4ti nur einen VS hat ?
???

Das die R2 das auch kann, oder eben auch nicht, versuchen wir ja gerade zu klären, denn was die PCGH da von sich gibt, muß auch nicht der Weisheit letzter Schluß sein, oder ?

In diesem Sinne

Razor

aths
2002-05-03, 18:50:50
Quasar,

ich wüsste nicht, wie man VertexShading teilweise von CPU und teilweise von GPU machen könnte. Die GF"4" MX T&L-Unit kann in HW nur DX7 T&L. Ein DX8-kompatbiler VS wird von der CPU emuliert.


Razor,

eine CPU ist im Gegensatz zu einer DX7 T&L-Einheit frei programmierbar. Als Von-Neuman-Maschine kann die CPU prinzipiell *jeden* Algorithmus ausführen, die festverdrahtete Matrizenmultiplikationseinheit namens T&L-Einheit nach DX7-Standard natürlich nicht.

ow
2002-05-03, 18:55:34
Originally posted by Quasar


Doch. Wie du weißt, gibt es die Möglichkeit, VS per CPU (und damit imho auch per DX7-TnL) emulieren zu lassen.




Nein.
Das geht nur rein über die CPU. Die DX7 T&L nutzt hier nichts.

Dunkeltier
2002-05-03, 18:57:22
Originally posted by Razor
Nochmal, Black Cow, woher hast Du die Info, daß die gf4ti nur einen VS hat ?
???

Das die R2 das auch kann, oder eben auch nicht, versuchen wir ja gerade zu klären, denn was die PCGH da von sich gibt, muß auch nicht der Weisheit letzter Schluß sein, oder ?

In diesem Sinne

Razor


Sonst müßte die Spieleengine speziell auf 2 Shader ausgelegt sein, was sie IMHO nicht ist. Weil ja auch "alte" DX8 Games direkt davon profitieren. Also kannst du davon ausgehen, das diese "zweite" Pipeline selber von der GPU mit Daten gefüttert wird, d.h. der GPU-Chip und nicht die Engine kümmert sich um derartigen Krams.

Razor
2002-05-03, 18:59:08
@aths

"ich wüsste nicht, wie man VertexShading teilweise von CPU und teilweise von GPU machen könnte."

Vorhin hast das 'Aufteilen' von Befehlen noch als "wenig aufwändig" bezeichnet...
;-)

"eine CPU ist im Gegensatz zu einer DX7 T&L-Einheit frei programmierbar. Als Von-Neuman-Maschine kann die CPU prinzipiell *jeden* Algorithmus ausführen, die festverdrahtete Matrizenmultiplikationseinheit namens T&L-Einheit nach DX7-Standard natürlich nicht."

Ich habe ja auch nicht behauptet, daß die DX7 T&L-Einheit ALLE Befehle ausführen kann, denn dann wär's ja ein kompletter VS, oder ? Aber die Bemerkung, daß die Geo-Einheiten der R2 eben nicht voll prarallel laufen können (eben "entweder oder"), könne darauf hinweisen, daß die fixed-engine der programmable-engine eben teilweise Arbeit abnehmen kann... selbstverständlich nur das, wozu sie in der Lage ist, gell ?
;-)

@ow

"Nein.
Das geht nur rein über die CPU. Die DX7 T&L nutzt hier nichts."

Why not ?
???

@Black Cow

"Sonst müßte die Spieleengine speziell auf 2 Shader ausgelegt sein..."

Warum denn das ?

"Weil ja auch "alte" DX8 Games direkt davon profitieren. Also kannst du davon ausgehen, das diese "zweite" Pipeline selber von der GPU mit Daten gefüttert wird, d.h. der GPU-Chip und nicht die Engine kümmert sich um derartigen Krams."

???

Bis denne

Razor

Quasar
2002-05-03, 19:12:30
@ow, aths:
Mein letzter Beitrag für heute ;).

Wie ihr beiden vielleicht wißt, meldet sich die DX7-TnL-Einheit der GF4MX beim 3DMark2001 als "pure" Device. Das ist, afaik möglich, sobald eine gewisse Mindestfunktionalität gewährleistet ist.


The following is paraphrased from the DirectX SDK:
The pure device is a variant of the hardware abstraction layer (HAL) device and is focused on hardware acceleration with more limited software emulation support than a HAL device. The pure device type supports hardware vertex processing only, and allows only a small subset of the device state to be queried by the application. Additionally, the pure device is available only on adapters that have a minimum level of capabilities.

The pure device type is intended for performance-sensitive applications that do not rely on software vertex processing or on the ability to query the device state. The pure HAL device has significant performance advantages over the (non-pure) HAL device, due to a guaranteed close mapping to the hardware, and reduced need for state shadowing.

---> from: http://www.rage3d.com/radeon/reg/index2.shtml

Wenn das also möglich ist, wie auch das "HW"-TnL der Kyro-200, wieso sollte es da nicht möglich sein, per Treiber gewisse Funktionen (die, die sich eben per DX7-"pure" Device machen lassen) von der Charisma-Engine durchführen zu lassen, und den Rest eben vom VS?

Da Ganze kann sehr gut transparent durchgeführt werden, so daß DX8 davon nicht unbedingt etwas mitbekommen muss.

Dunkeltier
2002-05-03, 19:13:44
Finde dich damit einfach ab, das die Radeon 8500 GPU wenn auch nicht immer aber häufig genug zwei Instruktionen gleichzeitig mit ihrer VS Einheit abarbeiten kann, fast wie die Geforce 4 Ti.

Und das der VS so gut performt, liegt nicht daran das irgendwelche T&L 7 Einheiten noch der Charisma Kram genommen wird, sondern schlicht und einfach an den effizienten Design welches zum Teil zwei Instruktionen auf einmal durch die GPU heizt.

Gerhard
2002-05-03, 19:29:47
Ich habe auch in einem Interview mit einem ATI-Entwickler gelesen, das der Radon8500 für DX7 den Vertexshader (mit entsprechenden Programmen) verwendet. Er hat (und das bestätigte er noch mehrmals) KEINE fixe T&L Einheit, diese wird eben nur mittels Vertexshader nachgeahmt. Der VS hat die meisten Recheneinheiten doppelt ausgeführt und ist entsprechend schnell.

Dies war auch in einem ATI Whitepaper zu sehen.

(Müsste nachsehen ob ich die URL noch finde)

Dunkeltier
2002-05-03, 19:36:39
Originally posted by Gerhard
Ich habe auch in einem Interview mit einem ATI-Entwickler gelesen, das der Radon8500 für DX7 den Vertexshader (mit entsprechenden Programmen) verwendet. Er hat (und das bestätigte er noch mehrmals) KEINE fixe T&L Einheit, diese wird eben nur mittels Vertexshader nachgeahmt. Der VS hat die meisten Recheneinheiten doppelt ausgeführt und ist entsprechend schnell.

Dies war auch in einem ATI Whitepaper zu sehen.

(Müsste nachsehen ob ich die URL noch finde)


Heißt das, das die RISC GPU von Ati DX7 T&L, PS 1.0/1.1/1.2/1.3 alles emuliert? Wie sieht es überhaupt mit dem OpenGL T&L aus? ??? Auch durch den VS emuliert...


Edit: Hab ich mir praktisch einen Emulator gekauft...

Gerhard
2002-05-03, 19:46:53
Naja, damit meinte ich nur das der Vertexshader entsprechende Vertexshaderprogramme für die Geometrieberechnung der DX7 Titel bekommt, und diese eben ausführt.
Pixelshader, Vertexshader, ... dies sind alles hochspezialisierte Einheiten, und sicher nicht mit universellen RISC CPUs vergleichbar, jede kann nur genau das, was sie können muss, das aber möglichst schnell.
Man kann sich das eher als viele getrennt hochspezialisiert Einheiten auf Chip vorstellen, die eben auf die entsprechend Aufgabe optimiert sind. Ein universeller Prozessor wäre wahrscheinlich viel zu langsam.

Edit:
Eine Ausnahme scheint es ja bald zu geben, wenn ich mir ansehe was 3dLabs da anscheinend entwickelt hat.
http://www.3dlabs.com/whatsnew/pressreleases/pr02/02-05-03-vpu.htm

WOW, wirklich ein Wahnsinn :O

Edit2:
Habe mir das Geschreibsel von früher nochmal angeschaut, mit DX7 Einheit meinge ich eigentlich die nicht/kaum programmierbare Geometrieeinheit von DX7/OpenGL, deren Funktion nun von der programmierbaren Geometrieeinheit (Vertexshader) übernommen werden kann.

Dunkeltier
2002-05-03, 19:53:29
Originally posted by Gerhard
Naja, damit meinte ich nur das der Vertexshader entsprechende Vertexshaderprogramme für die Geometrieberechnung der DX7 Titel bekommt, und diese eben ausführt.
Pixelshader, Vertexshader, ... dies sind alles hochspezialisierte Einheiten, und sicher nicht mit universellen RISC CPUs vergleichbar, jede kann nur genau das, was sie können muss, das aber möglichst schnell.
Man kann sich das eher als viele getrennt hochspezialisiert Einheiten auf Chip vorstellen, die eben auf die entsprechend Aufgabe optimiert sind. Ein universeller Prozessor wäre wahrscheinlich viel zu langsam.

Edit:
Eine Ausnahme scheint es ja bald zu geben, wenn ich mir ansehe was 3dLabs da entwickelt hat.
http://www.3dlabs.com/whatsnew/pressreleases/pr02/02-05-03-vpu.htm

Die Radeon GPU ist aber RISC ähnlich aufgebaut, und muß alle PS außer 1.4 emulieren. Aber wie die DX 7 Emulation gehen soll, verstehe ich nicht. Deswegen glaube ich da nicht dran. Und mit welcher "Einheit" soll OpenGL T&L berechnet werden, die Radeon muß eine festverdrahtete Einheit zusätzlich haben!

ow
2002-05-03, 20:15:45
@ Quasar


Die gesamte 3D pipeline auf dem Chip kennt eigentlich nur eine Richtung. Wenn das Vertex mal in der DX7 T&L drin ist, dann kommst du da schwer wieder dran. Mehrfaches hin- und her schicken zwischen CPU & GPU über den AGP ist zwar theoretisch denkbar aber praktisch unbrauchbar.

Ich wüsste nicht wie eine DX7T&L Unit beim vertex shading der CPU helfen könnte.


/edit: btw, im 3DM2k1 VS Test ist das Ergebnis auf meiner Radeon und GF2MX unabhängig davon, ob ich HW T&L oder SW T&L wähle. Beide Mal arbeitet ausschliesslich die CPU.

aths
2002-05-03, 20:48:49
Razor,

Es ist für die Grafikkarte kein Problem, ankommende Eckpunkte auf zwei interne VS (oder auch T&L) Einheiten zu verteilen. Ich habe nicht davon gesprochen, dass Programm-Befehle aufgeteilt werden können. Die DX7 T&L kann dem Vertex Shader auch nichts abnehmen. Sie könnte höchstens Execution Units (hier: Recheneinheiten) zur Verfügung stellen. Das macht allerdings wenig Sinn, da, soweit ich weiss, jeder Programmschritt im VS eh nur 1 Takt in Anspruch nimmt.


Black Cow,

um es einfach zu sagen: Der VertexShader kann DX7 T&L über ein (intern vorhandenes) VertexShader-Programm emulieren.

Quasar
2002-05-04, 05:36:26
Originally posted by ow
Die gesamte 3D pipeline auf dem Chip kennt eigentlich nur eine Richtung. Wenn das Vertex mal in der DX7 T&L drin ist, dann kommst du da schwer wieder dran. Mehrfaches hin- und her schicken zwischen CPU & GPU über den AGP ist zwar theoretisch denkbar aber praktisch unbrauchbar.

Ich wüsste nicht wie eine DX7T&L Unit beim vertex shading der CPU helfen könnte.


/edit: btw, im 3DM2k1 VS Test ist das Ergebnis auf meiner Radeon und GF2MX unabhängig davon, ob ich HW T&L oder SW T&L wähle. Beide Mal arbeitet ausschliesslich die CPU.

ow, das ist mir bekannt. Aber ist es soo unmöglich, daß eine Reihe von Instruktionen für ein Vertex, die vom Treiber als TnL-"kompatibel" erkannt wird, zur (DX7)TnL-Einheit geschickt wird, während die Instruktionen für ein anderes Vertex, die nicht als durch die TnL-Einheit ausführbar eingestuft werden, zur CPU geleitet werden?

ow
2002-05-04, 10:45:49
Ja AFAIK ist das unmöglich.

Die Vertices werden ALLE entweder 'geshadert' oder durch die festverdrahtete T&L geschickt, Mischbetrieb ist AFAIK nicht vorgesehen. Ist aber wohl eher eine Beschränkung des APIs.

Quasar
2002-05-04, 12:35:30
Aber sei teils durch die CPU und teils durch den DX-7-Teil der GPU zujagen ist möglich? Unabhängig jetzt mal von der eventuell vorhandenen DX8-Hw.

c't: Das Spiel Giants, das DirectX-8-Funktionen wie Vertex und Pixel Shader benutzen soll, bietet auf einer GeForce4-MX-Karte fast dieselbe visuelle Qualität wie auf einer GeForce4-TI-Grafikkarte, obwohl die MX-Chips keine Vertex- und Pixel-Shader enthalten. Wie setzen die Chips diese Funktionen um?

David Kirk: Vertex Shader werden auch vom GeForce4 MX beschleunigt und müssen nicht vollständig in Software laufen. Eine vollständige Vertex-Shader-Einheit ist sehr aufwendig. Für die MX-Chips fanden wir eine Lösung, die mit weniger Aufwand auskommt, aber trotzdem einige Vorteile einer Vertex-Shader-Einheit besitzt. Bestimmte Befehle der Vertex Shader kann der Treiber an den MX-Chip weitergeben, was die Leistung gegenüber einer reinen Softwareemulation erhöht. Pixel Shader sind mit einer MX-Karte allerdings nicht ausführbar, offenbar verwendet Giants sie nur spärlich.

aths
2002-05-04, 15:05:43
Quasar,

dieses DK-Zitat ist mir bekannt. Nun, der gute Mann äußerte sich auch mal so, dass die GF3 schon Teile des Framebuffers komprimiert... damit war aber nur die Z-Compression gemeint. Ich würde mich hüten, den Marketing- äh Scientist-Chief so zu lesen, wie man es als normaler Mensch lesen würde.

Es ist klar, dass ein Hin- und Herschicken der Daten zwischen CPU und GPU völlig inakzeptabel ist. Das würde nicht nur arg die Bandbreite belasten, sondern auch zu viel Verzögerung bringen. Kirk drückt sich sehr blumig aus. Zu blumig für meinen Geschmack, um daraus zu schließen, dass einige VS-Programmbefehle von der GPU und der Rest von der CPU gemacht wird. Das einzige was ich mir (schwer) vorstellen könnte ist, dass die CPU einiges macht und den Rest von der GPU erledigen lässt.

Razor
2002-05-04, 15:34:22
Originally posted by ow
Ja AFAIK ist das unmöglich.

Die Vertices werden ALLE entweder 'geshadert' oder durch die festverdrahtete T&L geschickt, Mischbetrieb ist AFAIK nicht vorgesehen. Ist aber wohl eher eine Beschränkung des APIs.
Wir reden hier doch nicht von der API, ow...
Denn die einzige API, die Du hier meinen könntest wäre doch wohl D3D, bzw. OGL, oder ?

Wir reden davon, daß der Treiber die API-Anfragen eben anders handhabt, als 'vorgesehen' !

Razor

Quasar
2002-05-04, 15:43:49
Mich würden die Vertex-Shader Daten einer GF4MX im Vergleich zu einer gleichgetakteten GF2Ti interessieren, oder zumindestens die einer GF4MX im Pure- und im HW-TnL Modus. Da dürfte dann ja lt. deiner Theorie kaum ein Unterschied bestehen, oder?

Und wenn doch, so deutete das stark auf Arbeitsteilung zwischen GPU und CPU hin. AFAIK hatten wir so etwas ähnliches schon einmal im Zusammenhang zu der "erstaunlichen" Skalierfähigkeit der nV-GPUs im Nature-Test besprochen.
http://www.ixbt.com/video/images/asus-gf4ti/g4-1024.png

Hier deutet auch einiges auf einen großen Unterschied in der VS-Realisierung zwischen GeForce3 und Radeon hin.

StefanV
2002-05-04, 16:24:41
Seh ich das richtig, daß der VS/PS der Radeon deutlich schneller ist, als der einer GF4???

Bei gleichem Takt versteht sich.

ANscheinend kann die R8k5 bei gleichem Takt TEILWEISE mit der GF4 mithalten...

Quasar
2002-05-04, 16:48:29
Ja, in diesem Test sieht's fast so aus. Seltsamerweise betrifft das aber nur die Radeon mit 128MB. Evtl. wurden hier auch unterschiedliche Treiber genutzt, dazu findet sich bei Digit-Life leider keine Angabe.

Worauf ich jedoch hinauswill ist der Unterschied der "alten" Karten GF3 und R8k5. Erstere legt mit steigender CPU-Leistung um 57% zu, letztere nur um knapp 12%.

Gerade wenn die Radeon einen teilweise doppelt ausgelegten Vertex-Shader haben sollte (und genau dieser sollte bei dieser Betrachtung den Ausschlag geben, da sich Pixelshader-Effekt mit der CPU kaum beschleunigen lassen), so spräche das deutlich für ein Load-Balancing im VS der GF3, da ja offenbar die Athlon750-CPU schon zur genügenden Vorarbeit in der Lage ist, einen doppelten VS annähernd auszulasten.