PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Hardware T&L - doch ganz brauchbar ...


zeckensack
2002-05-17, 17:01:57
In Premium's Thread wurde ja auch unter anderem der Sinn von T&L in Frage gestellt. Daß T&L 'nichts bringt', ist eine recht populäre Meinung, und auch immer wieder in Artikeln zu lesen. Ich will deshalb mal demonstrieren, daß das nicht unbedingt stimmen muß.

(@aths, bitte nicht als Angriff werten :) )

Also, ich hab's gerade nochmal nachgemessen, mit IMO deutlichen Resultaten. Wer meinen "Benchmarks sind Käse"-Thread kennt, der weiß, daß ich auf Mittelwertmessungen keinen großen Wert lege, sondern daß mich eher der 'worst case' interessiert. Dort habe ich auch meinen Testfall her, hier nochmal die Anleitung für Interessierte:

Q3-Team Arena kaufen, installieren, starten :D
In der Konsole "/cg_drawfps 1" und "/devmap mpterra1" eingeben.
Jetzt raus aus der Basis, rauf auf den Sniperturm (oberste Etage), vorne an die Kante stellen und die gegenüberliegende Sprungrampe ins Fadenkreuz nehmen (dadurch hat man etwa zwei Drittel der gesamten Karte im Blickfeld und die fps gehen in den Keller, wie kaum anderswo).

Getestet auf Duron (Morgan)@9x133MHz, Radeon 1 DDR 32MB@166/166MHz (9031er-Treiber), KT266A, 256MB PC2100-CL2:

Mit HW-T&L komme ich auf 78fps in 640x480x32 und auf 54 fps in 1024x768x32.

Ohne HW-T&L (abgeschaltet mittels RaidOn-Tweaker) erreiche ich hier bombastische 37fps, egal ob bei 640x480x32 oder 1024x768x32, Füllrate und Bandbreite spielen hier anscheinend überhaupt keine Rolle mehr.

In der (zugegebenermaßen reichlich unbrauchbaren) 640er Auflösung ergibt sich eine Leistungssteigerung um 110%, nur durch HW-T&L !
Bei 1024x768 sind es immerhin noch respektable 45%, die sich ausgehend vom geringen Basiswert durchaus lohnen.

Ich wage nicht daran zu denken, was passiert wäre, wenn ich eine Karte mit mehr Füllrate und Bandbreite ausprobiert hätte ;)

PS: Bitte nicht dafür hauen, daß ich schon wieder Team Arena genommen habe. Es ist zumindest ein echtes und auch nicht besonders neues Spiel.
PPS: Ein guter Sniper braucht mindestens 60fps(und eine hohe Auflösung). Alles darunter ist (bei Q3-Engine zumindest) IMO für'n Hund.

Ganon
2002-05-17, 17:55:05
Bei langsameren CPUs ist T&L wirklich brauchbar! Ich mit meinen 700Mhz+GF1DDR freue mich über jedes T&L-Game! Dank T&L kann ich mit meinem System auch noch RtCW ordendlich zocken, zwar mit rucklern aber wenigstens nicht unspielbar (rein subjektiv)!

MaxSPL
2002-05-17, 17:59:24
Originally posted by Ganon
Bei langsameren CPUs ist T&L wirklich brauchbar! Ich mit meinen 700Mhz+GF1DDR freue mich über jedes T&L-Game! Dank T&L kann ich mit meinem System auch noch RtCW ordendlich zocken, zwar mit rucklern aber wenigstens nicht unspielbar (rein subjektiv)!

Heisst das jetzt HW T&L wäre mit einer schnellen CPU nicht brauchbar???

IMO glaube ich schon (wie zeckensack schon getestet hat) das HW T&L einiges bringt... Nur, dass es meinstens nicht vollkommen ausgeschöpft wird, was T&L zu bieten hat... ;)

Demirug
2002-05-17, 18:01:11
Als Hardware t&l damals verfügbar wurde waren die 3d-engines einfach nicht in der lage davon zu profitieren da sie nicht ht&l freundlich waren. Es gibt da eine ganze Liste von Dingen die man berücksichtigen sollte.

Ich habe mal aus reinem Spass eine Demo geschrieben die mit ht&l langsamer war als mit software t&l. Durch ein paar änderungen war das ganze mit ht&l (Gforce1, Athlon 800) plötzlich 3 mal so schnell.

Also ht&l bringt schon was aber das Spiel muss in der lage sein das auch zu nutzen und das verhältnis CPU-GraKa muss passen.

Ganon
2002-05-17, 18:02:51
@MaxSPL
Na zeckensacks CPU würde ich nicht gerade bei "schnell" einordnen!

zeckensack
2002-05-17, 18:06:59
Originally posted by Ganon
@MaxSPL
Na zeckensacks CPU würde ich nicht gerade bei "schnell" einordnen! :bad1:
Ja, red' mir doch ein, daß ich schon wieder 300 Tacken für mehr Power ausgeben muß.
...
Hast' es schon fast geschafft...
Haben will!

;)

Quasar
2002-05-17, 21:00:49
JA, 1,2GHz sind schon ziemlich krötig ;)

Mal ernst, wozu, wenn man nicht solche Extremsituationen nachstellen will, braucht man zum zocken 1,5GHz oder mehr?

zeckensack
2002-05-18, 12:02:38
Originally posted by Quasar
JA, 1,2GHz sind schon ziemlich krötig ;)

Mal ernst, wozu, wenn man nicht solche Extremsituationen nachstellen will, braucht man zum zocken 1,5GHz oder mehr? Also ich halte meine 1.2GHz (nicht vergessen: 133MHz FSB/Speicher) für garnicht mal so übel. Wenn man bedenkt, daß 85% der Counterstrike-Spieler weniger haben ...

Etwas lahm ist die Kiste schon. Ich hoffe, daß sich das durch die neue Graka bessert.
*eskaumnocherwartenkönnundneuebenchmarksversprech* :)

Quasar
2002-05-18, 13:31:12
Sag' ich doch: reicht völlig!

Ganon
2002-05-18, 15:03:47
Originally posted by zeckensack
:bad1:
Ja, red' mir doch ein, daß ich schon wieder 300 Tacken für mehr Power ausgeben muß.
...
Hast' es schon fast geschafft...
Haben will!

;)

Du hast es ja noch gut! Guck mal mit was ich mich rumschlagen muss:

http://home.t-online.de/home/M.Hami/PC.jpg

Da läuft nicht mehr sehr viel drauf! Mein Prozzi ist halt ne Ecke zu langsam und Aufrüsten bringt nicht viel da in meinem PC alles schon zu alt ist->ich müsste alles wechslen!

StefanV
2002-05-18, 15:32:21
Originally posted by Ganon


Du hast es ja noch gut! Guck mal mit was ich mich rumschlagen muss:


Da läuft nicht mehr sehr viel drauf! Mein Prozzi ist halt ne Ecke zu langsam und Aufrüsten bringt nicht viel da in meinem PC alles schon zu alt ist->ich müsste alles wechslen!

setz ihn auf eGay *eg*

Für das, was du dafür bekommst, kannst dir fast 'nen 1GHz Duron+Board kaufen...

aths
2002-05-18, 16:12:38
zeckensack,

ehe HW T&L was bringt, müssen ja 2 Bedingungen erfüllt sein:

- GPU-Transformation schneller als CPU-Transformation
- HW T&L-freundliche Programmierung

Die T&L des GF256 ist, gemessen an heuten CPUs, zu langsam. Die des GTS ist weiterhin sehr unflexibel. Natürlich ist eine unflexible T&L-Unit besser als keine T&L-Einheit. In meinen Augen begehst du den Fehler, T&L am theoretischen Nutzen zu bewerten. Ich meine, dass es heute noch kein Spiel gibt, welches dank DX7 H&L wirklich bessere Grafik bringt, bzw. die "normale" Grafik geschwindigkeitsmäßig auf ein spielbares Niveau bringt. Dass es z.B. in QuakeIII Szenen gibt, wo sich T&L auszahlt, nehme ich natürlich zur Kenntnis.

Trotz T&L ist weiterhin eine starke CPU notwendig. Die CPU kann flexibler transformieren als T&L. Das macht T&L nicht überflüssig, ich denke in jedem Spiel könnte man es anwenden. Wie groß dann noch der Vorteil ist, steht auf einem anderen Blatt.

Nun, ein Vorteil ist auch dann einer, wenn er klein ist. Doch wo ist denn der Flaschenhals bei der GTS? Eine GTS mit CMBC, aber ohne T&L, wäre wohl schneller. Ich streite nicht ab, dass T&L Nutzen bringen kann. Doch ich bin überzeugt, dass mehr Speicherbandbreite, bzw. effizientere Nutzung derselben, mehr bringt als T&L. Auch in QuakeIII.

Der VertexShader hat mich nun ein Stückchen versöhnt. VertexShader auf der GPU halte zwar ebenfalls nicht für ein Muss, sondern "nice to have", aber deutlich sinnvoller als DX7 T&L. Spätestens mit dem VertexShader 2.0 sehe ich das Versprechen von T&L endlich auf dem Pfade er Einlösung. Denn dieser stellt endlich eine Flexibilität zur Verfügung, um die CPU von komplexen Aufgaben zu entlasten.

Zu deinem Beispiel, wo T&L mehr bringt als gesteigerte Graka-Leistung. Da geht meine Argumentation in die Richtung, dass eine schnellere CPU hier ebenfalls abhelfen kann - und natürlich mehr bringt, als nur T&L. Ich erkenne an, und das steht auch in der T&L-Kolumne, dass DX7 T&L bei entsprechender CPU-Dimensionierung schon was bringen kann. Doch bis heute bin ich nicht der Meinung, dass man beim Graka-Kauf auf dieses Feature achten muss. Bandwidth matters!!

Xmas
2002-05-18, 16:54:24
Originally posted by aths
ehe HW T&L was bringt, müssen ja 2 Bedingungen erfüllt sein:

- GPU-Transformation schneller als CPU-Transformation
Nun, das stimmt so nicht, schließlich arbeiten CPU und HW T&L parallel.

aths
2002-05-18, 16:59:12
So stimmt es in der Tat nicht. Ich hätte schreiben sollen: Die GPU-T&L muss gemessen an der CPU-Geschwindigkeit schnell genug sein.

zeckensack
2002-05-18, 17:04:42
aths,

Ich wollte lediglich darauf hinaus, daß man anhand der landläufig publizierten Standardbenchmarkdurchläufen noch nicht den Sinn oder Unsinn von T&L bewerten soll. Das Thema kam in einem anderen Thread wieder auf, es erschien mir jedoch sinnvoll, einen eigenen Thread dafür aufzumachen, erstens um nicht zu weit abzuschweifen, zweitens weil es vielleicht doch von allgemeinem Interesse ist.

Daß CPU-Leistung und Speicherbandbreite auch extrem wichtig sind, das sehe ich ganz genauso. Das kann ich mit der gleichen Methodik (Situationen unter extremer Last) ebenfalls deutlich klarer darstellen, als mit den überall anzutreffenden Mittelwerten aus Demo001 ...
Ansatzweise habe ich auch bereits versucht, das zu tun (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=14524).

Worauf ich hinaus will ist, daß T&L in vielen Spielen tatsächlich viel bringt, es lediglich oft unter den Tisch fällt, weil (IMO) falsch gemessen wird. Ich will den Einfluß des restlichen Systems dadurch nicht abwerten.


Originally posted by aths
zeckensack,

ehe HW T&L was bringt, müssen ja 2 Bedingungen erfüllt sein:

- GPU-Transformation schneller als CPU-Transformation
- HW T&L-freundliche Programmierung

Die T&L des GF256 ist, gemessen an heuten CPUs, zu langsam. Die des GTS ist weiterhin sehr unflexibel. Natürlich ist eine unflexible T&L-Unit besser als keine T&L-Einheit. In meinen Augen begehst du den Fehler, T&L am theoretischen Nutzen zu bewerten. Ich meine, dass es heute noch kein Spiel gibt, welches dank DX7 H&L wirklich bessere Grafik bringt, bzw. die "normale" Grafik geschwindigkeitsmäßig auf ein spielbares Niveau bringt. Dass es z.B. in QuakeIII Szenen gibt, wo sich T&L auszahlt, nehme ich natürlich zur Kenntnis.Der Vergleich zur Geforce 1 fehlt mir leider. Wenn ich annehme, daß die T&L-Einheiten der Radeon 1 und der Geforce 1 gleich 'gut' sind, und dann vom Taktverhältnis ausgehe (125MHz Geforce 1, 166MHz Radeon 1), dann wäre die Geforce in meinem Beispiel immer noch schneller als meine CPU, die, davon bin ich überzeugt, im Vergleich zur spielenden Gesamtbevölkerung sicher nicht zu langsam ist.

Und synthetisch ist dieser Test nun wirklich nicht ???
Auf dem Sniper-Turm herumzustehen, das ist in einem Teamspiel auf dieser Karte eine Aufgabe, die man durchaus schonmal über Stunden hinweg auszufüllen hat. Diese Situation ist extrem, aber sie ist auch praxisrelevant.

Trotz T&L ist weiterhin eine starke CPU notwendig. Die CPU kann flexibler transformieren als T&L. Das macht T&L nicht überflüssig, ich denke in jedem Spiel könnte man es anwenden. Wie groß dann noch der Vorteil ist, steht auf einem anderen Blatt.Programmierbares T&L ist wesentlich sinnvoller, da bin ich auf deiner Seite.
Es wird aber voraussichtlich noch auf Jahre hinweg zumindest ein (mehr oder weniger großer) Teil der Spielegeometrie statisch, und damit gut geeignet für 'unflexibles' T&L sein. Kandidat hierfür ist generell die Levelgeometrie, solange diese nicht deformierbar ist.

Nun, ein Vorteil ist auch dann einer, wenn er klein ist. Doch wo ist denn der Flaschenhals bei der GTS? Eine GTS mit CMBC, aber ohne T&L, wäre wohl schneller. Ich streite nicht ab, dass T&L Nutzen bringen kann. Doch ich bin überzeugt, dass mehr Speicherbandbreite, bzw. effizientere Nutzung derselben, mehr bringt als T&L. Auch in QuakeIII.Höhere Speicherbandbreite auf der Grafikkarte? ???
Wenn du das meinst, mein Vergleich zwischen der 640er und der 1024er Auflösung sollte doch ausreichend demonstrieren, daß keine Füllraten- oder Bandbreitenlimitierung vorliegt.
Hauptspeicherbandbreite wäre wieder etwas anderes, in dem Fall würde ich dir natürlich Recht geben. :)

Der VertexShader hat mich nun ein Stückchen versöhnt. VertexShader auf der GPU halte zwar ebenfalls nicht für ein Muss, sondern "nice to have", aber deutlich sinnvoller als DX7 T&L. Spätestens mit dem VertexShader 2.0 sehe ich das Versprechen von T&L endlich auf dem Pfade er Einlösung. Denn dieser stellt endlich eine Flexibilität zur Verfügung, um die CPU von komplexen Aufgaben zu entlasten.Volle Zustimmung meinerseits.
Zu deinem Beispiel, wo T&L mehr bringt als gesteigerte Graka-Leistung. Da geht meine Argumentation in die Richtung, dass eine schnellere CPU hier ebenfalls abhelfen kann - und natürlich mehr bringt, als nur T&L.Daß CPU-Leistung immer und überall nützlich ist, das wollte ich doch damit garnicht bestreiten.Ich erkenne an, und das steht auch in der T&L-Kolumne, dass DX7 T&L bei entsprechender CPU-Dimensionierung schon was bringen kann. Doch bis heute bin ich nicht der Meinung, dass man beim Graka-Kauf auf dieses Feature achten muss. Siehst du, eben dieser Meinung bin ich. Es ist nur sehr schwer, aus den verfügbaren Benchmarks eine Begründung für diese Meinung zu finden. Ich kann mich ja mal in meiner umfangreichen Spielesammlung noch weiter umschauen, ob sich eventuell sogar richtig alte Schinken durch statisches T&L beschleunigen lassen. :idea:
Wer mißt, mißt Mist, da geh' ich lieber selber nochmal ran, dann fühl ich mich wohler.
Bandwith matters!!Na klar, da wiederspreche ich dir nicht ;)

jedi
2002-05-18, 19:03:53
Originally posted by zeckensack
Daß T&L 'nichts bringt', ist eine recht populäre Meinung, und auch immer wieder in Artikeln zu lesen. Ich will deshalb mal demonstrieren, daß das nicht unbedingt stimmen muß.


Diese aussterbende "Meinung" wurde früher oft von Leuten ohne T&L-Karte vertreten, so wie von 16bit-Karten-Besitzern früher immer der Nutzen von 32bit-Rendering abgestritten wurde.

Da aber inzwischen fast alle eine Karte mit 32bit und T&L haben, müssen sie diese Vorteile nun eben nicht mehr herunterspielen... *eg*

aths
2002-05-18, 19:07:50
zeckensack,

ich sehe sind wir gar nicht weit auseinander. Zur GeForce256: Ich wage zu bezweifeln, dass sie Radeon-Qualitäten hat (und außerdem arbeitet sie mit 120, nicht 125 MHz :))

Statische Geometrie wird es noch auf lange Sicht geben, doch macht DX7 T&L deswegen Sinn? Backface Culling kann erst nach der Transformation gemacht werden, es müssen also alle Dreiecke über den Bus. Cullt die CPU, senkt das die Geometrie-Last. Angesichts der Tatsache, dass bei den meisten heutzutage AGP x4 funzt, ist das sicherlich verschmerzbar. Ich glaube aber nicht, dass noch lange DX7 T&L verwendet wird. Denn VertexShader 1.1 lässt sich bequem von der CPU emulieren. Wäre ich Programmierer, würde ich grundsätzlich den VertexShader verwenden, und keinen extra DX7-T&L-Codepath mehr einbauen.

Nutzt ein Spiel massenhaft statische Geometrie (auch wenn unflexible Geometrie nicht so gut ist wie dynamische, ist viel statische Geometrie natürlich besser als wenig) bringt DX7 T&L Vorteile. Allerdings steigt der Aufwand überproportional an, es wird mehr CPU-Power, RAM und auch RAM-Bandbreite gebraucht, ebenso AGP- und Graka-Bandbreite. (Außerdem wird das Rendering ineffizienter.) Die Graka kann durch möglichen T&L-Support an all diesen Dingen nichts ändern, außer beim Punkt 1, der benötigten CPU-Power. Nur das kann sie mildern. Natürlich brauche ich das dir nicht sagen :) Ich wiederhole mich hier trotzdem gerne, um dem T&L-Märchen entgegenzusteuern.

Ich freue mich für alle T&L-Graka-Besitzer, dass ungeachtet dessen dieses Feature nun (nach 3 Jahren) bei einigen Spielen in kritischen Situationen die Grafik-Geschwindigkeit verbessert. Meine Entscheidung zur GF4 kam allerdings nicht durch den "dualen" VertexShader, sondern durch die reichlich 10 GB/s Bandbreite, kombiniert mit vernünftigen Effizienz steigernder Logik. Allerdings möchte ich natürlich nicht in Abrede stellen, dass z.B. Quake basierende Spiele bei derzeitigen CPUs durch T&L hinzugewinnen. Ebenso ist es nicht abzustreiten, dass bei einer angenommenen langsameren CPU-Entwicklung der letzten Jahre das T&L-Feature deutlich wichtiger sein könnte, als es heute ist.

ow
2002-05-18, 20:52:24
Originally posted by aths
zeckensack,

ich sehe sind wir gar nicht weit auseinander. Zur GeForce256: Ich wage zu bezweifeln, dass sie Radeon-Qualitäten hat (und außerdem arbeitet sie mit 120, nicht 125 MHz :))




Zurecht.
Sie ist IMO wesentlich leistungsfähiger als die Radeon.

Ich hab hier eine GF2MX SDR und Radeon1 DDR und bei gleichem Takt (175/175) ist die T&L der MX ein gutes Stück schneller als die der Radeon.

aths
2002-05-19, 00:09:17
ow,

GF2 MX hat nicht die alte GF256-T&L, sondern T&L der "2. Generation" (nVidia) Ich kann mich daran erinnern, dass ein Raunen durch die Foren ging, als Leute feststellten dass man im 3DMark2000 Geometrie-Test mit sehr schnellen CPUs mit SW T&L besser als mit HW T&L abscheiden kann.

StefanV
2002-05-19, 00:26:23
Originally posted by ow
Zurecht.
Sie ist IMO wesentlich leistungsfähiger als die Radeon.

Ich hab hier eine GF2MX SDR und Radeon1 DDR und bei gleichem Takt (175/175) ist die T&L der MX ein gutes Stück schneller als die der Radeon.

Die GF2 hat 'ein paar' mehr Register...

Siehst du auch am Vulpine (oder welcher OGL 3DMurks verschnitt wars??).

Die TnL Einheit der GF2 ist also leistungsfähiger als die TnL Einheit der GF1, auch bei gleichem Takt!...

Ganon
2002-05-19, 00:32:50
Ich kann mich daran erinnern, dass ein Raunen durch die Foren ging, als Leute feststellten dass man im 3DMark2000 Geometrie-Test mit sehr schnellen CPUs mit SW T&L besser als mit HW T&L abscheiden kann.

Wieso schnelle CPU? Ich hab nen P3@700 und GF1DDR! Wenn ich SSE als T&L benutze dann macht die CPU bei 8 Lichtern mehr Polys als die Grafikkarte! Aber 8 Lichter nutzt ja noch kein Spiel!

Quasar
2002-05-19, 00:33:21
Stefan, inwiefern sieht man das beim VulpineGL Mark?

Legolas
2002-05-19, 00:36:10
Originally posted by Ganon


Wieso schnelle CPU? Ich hab nen P3@700 und GF1DDR! Wenn ich SSE als T&L benutze dann macht die CPU bei 8 Lichtern mehr Polys als die Grafikkarte! Aber 8 Lichter nutzt ja noch kein Spiel!

Genaugenommen nutzt fast kein Spiel überhaupt Lighting per T&L, sondern Lightmaps zur Beleuchtung.

StefanV
2002-05-19, 00:54:15
Originally posted by Quasar
Stefan, inwiefern sieht man das beim VulpineGL Mark?
Ah, die Suchen Funktion des Forums rult *eg*

Hier (http://forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=35&highlight=Vulpine) der Thread.

Das war die Sache mit dem Vertex Array Range, die die GF1 nicht hat...

Ganon
2002-05-19, 00:55:26
Originally posted by Legolas


Genaugenommen nutzt fast kein Spiel überhaupt Lighting per T&L, sondern Lightmaps zur Beleuchtung.

Es gibt aber ein paar die das nutzen! Aber trotzdem sind es nie 8! Vielleicht höhstens 2!

Quasar
2002-05-19, 01:07:32
Originally posted by Stefan Payne

Ah, die Suchen Funktion des Forums rult *eg*

Hier (http://forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=35&highlight=Vulpine) der Thread.

Das war die Sache mit dem Vertex Array Range, die die GF1 nicht hat...


aus der Readme des GLMark
Known Problems
nVidia TNT2 (Win98, Driver version 4.12.01.0618): Occassional z-fighting of the detail textures in the outdoor scenario (scene 1).
nVidia Geforce 256 SDR/DDR: Using Vertex Array Range does not work correctly (probably driver bug)
nVidia Geforce 2 MX (Driver version 4.12.01.0618): No known problems.
nVidia Geforce 2 GTS (Driver version 4.12.01.0618): No known problems.
nVidia Geforce 3 (NV20 Prototype, Win98): No known problems.

Ahh, lesen bildet....

Legolas
2002-05-19, 01:08:35
Nunja, die Anzahl der Spiele mit Hardware Lighting ist wohl nicht besonders groß, imho genau weil fast alle T&L-Units bei mehreren Lichtern extrem wegbrechen. Und eine Szene mit nur einem oder zwei Lichtern ist nicht wirklich toll, und das Feature daher nur bedingt praxistauglich, da man das Lighting ja recht gut durch Lightmaps machen kann.

Demirug
2002-05-19, 01:29:56
Originally posted by Legolas
Nunja, die Anzahl der Spiele mit Hardware Lighting ist wohl nicht besonders groß, imho genau weil fast alle T&L-Units bei mehreren Lichtern extrem wegbrechen. Und eine Szene mit nur einem oder zwei Lichtern ist nicht wirklich toll, und das Feature daher nur bedingt praxistauglich, da man das Lighting ja recht gut durch Lightmaps machen kann.

Man schaltet die Lichter ja nicht für die ganze Szene ein sonder immer nur für die beleuteten Polys. Performancemassig geht das.
Habe mal 60 Lichter auf ca 500 Objecte leuchten lassen wobei aber jedes Object von höchstens 3 Lichtern beleutet wurde. War mit einer GF1 noch annehmbar schnell.

Praxistauglich ist es aber trotzdem nicht. Vertexlights sehen bei Low-Poly geometrie einfach nicht gut aus. Der Gamer erwartet einfach mehr.

vogel
2002-05-19, 02:43:03
Software Vertex Processing (SVP) mag fuer alte Spiele ja ganz nett sein (z.B. Unreal Tournament) jedoch sieht es ziemlich duester aus fuer die naechste Generation ohne HW T&L. Man kann per .ini Einstellung unsere Engine zum SVP ueberreden also kann ich sehr einfach vergleichen wie sich eine GF4 Ti 4600 mit und ohne HW T&L schlaegt :) Ohne HW T&L sieht's bei hoechster Detailstufe nicht so rosig aus. Ich hab unten mal 'ne EMail angefuegt die ich vor ein paar Wochen verfasst habe.

--- snip ---

After playing a bit more with software vertex processing I did some simple math and I don't get how people can say that software vertex processing could be feasible for next gen games.

Let's say the CPU does nothing besides transforming vertices you maybe are lucky to get 2 million vertices per seconds on a relatively beefy CPU. This translates to 66,666 vertices at 30 fps. With our vertices to primitives ratio this roughly leads to 40,000 primitives which isn't that much. And then all your CPU does is transforming vertices... pathetic ;)

-- Daniel, Epic Games Inc.

nggalai
2002-05-19, 09:57:15
SVP sucks

[...]And then all your CPU does is transforming vertices... pathetic ;)LOL :lol: good one.

Zum Thema Praxistauglichkeit:

Demiurg hat recht--per vertex lighting macht nur dann Sinn, wenn die beleuchteten Modelle genug Polygone haben, ansonsten geht das Gefluche bei den Spielern oder beim Auftraggeber los. "Genug Polygone" heisst aber auch, dass man den lowest common denominator fürs Projekt entsprechend setzten muss--z.B. indem man sich auf TnL-HW beschränkt und keine Garantie für flüssiges Laufen der Applikation ohne TnL übernimmt.

Sind wir mal ehrlich--wer kauft sich zum Spielen eine Maschine mit 2GHz CPU, und hat dann eine TNT, V5 oder Kyro-II drin? Die Verhältnismässigkeit wäre in der Kombination nicht gegeben. Es gibt Tests, wo schon eine sub-1GHz CPU unter Software-TnL deutlich flotter als eine HW-Lösung ist; ob diese Ergebnisse auch in der realen Welt von stark TnL-limitierten Spielen gelten, werden wir ja endlich bald sehen. Ich bin in dieser Hinsicht sehr auf U2 gespannt, und warte noch immer auf die Veröffentlichung des Performance Analysers ;).

Natürlich machen Vertex Shader mehr "Sinn" als TnL à la DX7, aber auch mit "statischer Geometrie" kann man viel anstellen. Und mitlerweilen haben genug Leute Hardware, dass man da was machen könnte ohne dass dir die gesamte Presales-Abteilung an die Gurgel springt. Andererseits muss ich auch aths recht geben--Vertex Shader scheinen irgendwie logischer zu sein, ganz einfach weil die auch auf der CPU laufen. Allerdings wird's wohl mitm exzessiven VS-Einsatz auch noch ein wenig dauern, wenn man sich den Marktanteil an VS-fähiger Hardware so anschaut.

ta,
-Sascha.rb

Unregistered
2002-05-19, 13:23:04
Originally posted by vogel
Software Vertex Processing (SVP) mag fuer alte Spiele ja ganz nett sein (z.B. Unreal Tournament) jedoch sieht es ziemlich duester aus fuer die naechste Generation ohne HW T&L. Man kann per .ini Einstellung unsere Engine zum SVP ueberreden also kann ich sehr einfach vergleichen wie sich eine GF4 Ti 4600 mit und ohne HW T&L schlaegt :) Ohne HW T&L sieht's bei hoechster Detailstufe nicht so rosig aus. Ich hab unten mal 'ne EMail angefuegt die ich vor ein paar Wochen verfasst habe.

--- snip ---

After playing a bit more with software vertex processing I did some simple math and I don't get how people can say that software vertex processing could be feasible for next gen games.

Let's say the CPU does nothing besides transforming vertices you maybe are lucky to get 2 million vertices per seconds on a relatively beefy CPU. This translates to 66,666 vertices at 30 fps. With our vertices to primitives ratio this roughly leads to 40,000 primitives which isn't that much. And then all your CPU does is transforming vertices... pathetic ;)

-- Daniel, Epic Games Inc.

HW T&L klingt schön und gut :) aber
was nützt HW T&L wenn noch Karten wie Geforce256 und MX/200/400 gibt. ?
Die GeForce256 hat eine lahmere T&L und ist nicht gerade die schnellste Karte und SDR-Ram Ableger hat es auch gegeben.
Die MX hat zwar schon eine bessere T&L Einheit krepiert aber an der Speicherbandbreite.
Schön und gut wenn die T&L so viel bringt nur nützt es nichts wenn der Rest von der Karte nicht funktioniert.

Hier wird eine Kyro2SE trotz Software T&L besser abschneiden.
Eben weil das HSR sehr Effektiv vor geht.
(starke CPU vorrausgesetzt)

Kurz.
HW T&L bringt nur dann etwas wenn die Graka mit eine vernünftige Speicherbandbreite aufweisen kann.

Aber ganz klar würden Karten A und B technsich gleich bis auf T&L sein, wird auf alle Fälle die T&L Karte besser sein.

Nur wird leider wiedereinmal der Eindruck sugerriert das es ohne T&L nicht geht.

Gruss Labberlippe

Razor
2002-05-19, 14:10:39
Bald nicht mehr gehen wird, Laberlippe...
(kleiner aber feiner Unterscheid)

Bis denne

Razor

Exxtreme
2002-05-19, 14:27:47
Originally posted by Razor
Bald nicht mehr gehen wird, Laberlippe...
(kleiner aber feiner Unterscheid)

Bis denne

Razor
AFAIK stand das vor 2 Jahren in den White-Papers von nVidia auch drin. ;)

Gruß
Alex

Quasar
2002-05-19, 14:44:02
Da kannst du mal sehen, wie vorausschauend dort gedacht wird, Exxtreme! ;)

ow
2002-05-19, 20:57:45
Originally posted by aths
ow,

GF2 MX hat nicht die alte GF256-T&L, sondern T&L der "2. Generation" (nVidia) Ich kann mich daran erinnern, dass ein Raunen durch die Foren ging, als Leute feststellten dass man im 3DMark2000 Geometrie-Test mit sehr schnellen CPUs mit SW T&L besser als mit HW T&L abscheiden kann.



Nein, AFAIK sind die T&L von GF1/2 identisch.
Zumindest lässt die von NV angegebene T&L Leitung dies vermuten.

Iceman346
2002-05-19, 21:33:17
Originally posted by ow




Nein, AFAIK sind die T&L von GF1/2 identisch.
Zumindest lässt die von NV angegebene T&L Leitung dies vermuten.

Dafür hat Nvidia damals aber nett Werbung mit dem T&L der 2. Generation gemacht ;) Immer diese Papiertiger...

nocturne
2002-05-19, 23:09:23
Originally posted by Unregistered
HW T&L bringt nur dann etwas wenn die Graka mit eine vernünftige Speicherbandbreite aufweisen kann.

Klar, aber das ist kein Argument gegen T&L.

aths
2002-05-20, 03:53:55
Bei der GF2 MX schon :) Die Transistoren wären für early z occlusion etc. besser verwendet...

Unregistered
2002-05-20, 09:21:18
Originally posted by nocturne


Klar, aber das ist kein Argument gegen T&L.

Das habe ich auch nicht behauptet, nur sehe bei solchen Karten die T&L Einheit als fast sinnlos an.

Gruss Labberlippe

vogel
2002-05-20, 11:51:41
Originally posted by Unregistered

Das habe ich auch nicht behauptet, nur sehe bei solchen Karten die T&L Einheit als fast sinnlos an.

Ich wuerde die T&L Einheit nicht als sinnlos bezeichnen - ohne sind diese Karten naemlich langsamer :) Vielleicht nicht in syntethischen Benchmarks aber in Spielen. Bis jetzt ist mir noch keine Karte mit HW T&L untergekommen die mit SVP schneller waere als ohne.

-- Daniel, Epic Games Inc.

Quasar
2002-05-20, 12:54:51
Nein, du musst dich irren ;)
Hier sprechen doch alle aus jahrelanger persönlicher Erfahrung mit einer solchen Karte... ;)
(...oder sie wollen es nicht einsehen)

nocturne
2002-05-20, 13:37:13
Originally posted by vogel

Ich wuerde die T&L Einheit nicht als sinnlos bezeichnen - ohne sind diese Karten naemlich langsamer :) Vielleicht nicht in syntethischen Benchmarks aber in Spielen. Bis jetzt ist mir noch keine Karte mit HW T&L untergekommen die mit SVP schneller waere als ohne.

-- Daniel, Epic Games Inc.

Pssst Daniel,, Du wirst doch diese Anti-T&L-Vorurteile nicht mit hässlichen Fakten stören wollen. *eg*

Und von manchen Leuten, die sich Artikel gegen T&L aus den Fingern saugen wollen, wird der GF2MX eben gerne dazu missbraucht.

Das ist so, als wollte man einen Voodoo5-6000 mit einer zu langsamen 386er-CPU benchmarken, damit man dann behaupten kann "FSAA: das nicht eingelöste Versprechen". *eg*

Thowe
2002-05-20, 13:44:50
Originally posted by nocturne


Pssst Daniel,, Du wirst doch diese Anti-T&L-Vorurteile nicht mit hässlichen Fakten stören wollen. *eg*

Und von manchen Leuten, die sich Artikel gegen T&L aus den Fingern saugen wollen, wird der GF2MX eben gerne dazu missbraucht.

Das ist so, als wollte man einen Voodoo5 mit einer langsamen 386er-CPU benchmarken, damit man dann behaupten kann "Voodoo: das nicht eingelöste Versprechen". *eg*


Oiii, da hat mal wieder jemand den kompletten Sinn nicht verstanden (nicht verstehen wollen).

HOT
2002-05-20, 13:46:09
Meiner Meinung nach war es notwendig, T&L auf die Grafikhardware zu verlagern. Das Ganze setzt sich ja jetzt mit Vertexshadern und Displacementmapping fort. Wenn man HW T&L kritisiert, müsste man auch jede andere neue Technik in Grafikchips kritisieren. Wirklich sinnlos ist meiner Meinung nach kein Feature - jeder Hardwarehersteller hat schon sehr gute Gründe, warum er dies und jenes implementiert. Ich finde es immer wieder lustig, wenn Fans der einen oder anderen Seite Features "anprangern" obwohl das totaler Blödsinn ist. Denn nahezu JEDES Featrue hat eine Chance sich auf dem Markt durchzusetzen und bereichert die zukünftige Bildqualität in gewisser Weise.
Interessant an der Einführung von T&L auf dem Markt war nur, dass es eine Firma tatsächlich geschafft hat, durch dieses "Schlüsselfeature" die ganze Internetwelt der Hardware zu täuschen und sich damit letztendlich sogar durchzusetzen - siehe aths Artikel. Aber ich denke, das war mal eine gute Erfahrung, die die Internetwelt machen musste und jetzt nicht nur euphorisch sondern auch mit einer gewissen Skepsis und Unabhängigkeit an sowas rangeht.
Mittlerweiel allerdings sind die Konkurrenzlosen NV Zeiten wieder vorbei und wir dürfen uns über Vielfalt auf dem Markt freuen :)

Unregistered
2002-05-21, 14:07:56
Originally posted by vogel

Ich wuerde die T&L Einheit nicht als sinnlos bezeichnen - ohne sind diese Karten naemlich langsamer :) Vielleicht nicht in syntethischen Benchmarks aber in Spielen. Bis jetzt ist mir noch keine Karte mit HW T&L untergekommen die mit SVP schneller waere als ohne.

-- Daniel, Epic Games Inc.

Natürlich bringt es einen Vorteil und das wird mit guter T&L optimierung auch immer etwas bringen.
Allerdings haben die ersten Benches bei Andach ja gezeigt das eine Kyro2 gut mithalten kann.
Teilweise sogar Richtung GTS.
Allerdings muss man bei den MX und Kyros sicher die Auflösung unten halten.

Wenn ich ein aktuelles Game geniessen will muss ich mindesten 1024x768 in 32 Bit haben.
Darunter sieht es optisch nicht mehr ansprechend aus und genau da ist der Hund begraben.
T&L? ja super.
Bandbreite - nada nix und unzureichend für "flüssiges" Spielen.

Mit den neuen MX440 und MX460 gehört das aber der Vergangenheit an und ich bezweifle das wir wieder Karten mit 2,6 - 3,0 Gb/s Bandbreite bekommen. :)
(ausser Bürokarten ableger ala MX420, den die benötigen wahrlich kein DDR Ram, für was auch wenn ich nur Briefe oder Tabellen schreibe.)

Langer Rede Kurzer Sinn.
T&L ist gut aber nicht ernsthaft für die ehemaligen MX und Radeon SDR Kärtchen welche einfach nur ausgebremst wurden.
Es ist schon klar das es T&L einen Vorteil bringt, auch bei diesen Karten nur eben nicht berrauschend.

Gruss Labberlippe

Unregistered
2002-05-21, 14:16:37
Originally posted by nocturne


Pssst Daniel,, Du wirst doch diese Anti-T&L-Vorurteile nicht mit hässlichen Fakten stören wollen. *eg*

Und von manchen Leuten, die sich Artikel gegen T&L aus den Fingern saugen wollen, wird der GF2MX eben gerne dazu missbraucht.

Das ist so, als wollte man einen Voodoo5-6000 mit einer zu langsamen 386er-CPU benchmarken, damit man dann behaupten kann "FSAA: das nicht eingelöste Versprechen". *eg*

Dein Sarkasmus kannst Du mal ruhig liegen lassen.
Es wäre angebracht das Du einmal versucht die Postings zu lesen und vorallem zu verstehen.

Ich bin kein direkter Anti T&L Voruteiler.
Ich habe des öfteren gesagt das T&L einfach im damaligen Moment nicht das gebracht hat, was versprochen wurde.
Dafür haben wir jetzt aber PS 1.1-1.4und ohne die Vorstufe von T&L wäre es nicht möglich gewesen.

Bevor Du mir unobjektivität vorwirfst. würde ich Dir raten mal selbst Deine eigene Ton und Gangart hier umzudenken.

Übrigens ab 700 Mhz ist mit einer MX Schluss bei 1024x768 32 Bit ist nada.
Wenn die Karte zulegt dann nur, weil das Game CPU limitiert ist.
Kannst ja mal selbst mit Q3 testen.

mfg
Labberlippe

ow
2002-05-21, 16:21:10
LL

Ich muss dir da widersprechen.

Gerade damals zum Erscheinungszeitpunkt war T&L SEHR nuetzlich, da die CPUS erst so bei 600-700MHz angekommen waren und HW T&L hier die CPU wesentlich entlasten kann.
Bei einer 2GHz CPU kann ich ruhig schon mal 600-700MHz nur fuer T&L verbraten, bleiben immer noch 1,3-1,4GHz fuer andere Dinge (KI, Physik,....).


Was viele nicht begreifen ist, dass T&L nicht nur fuer hoeheren Speed gut ist, sondern bei gleichem Speed wesentlich weniger CPU Last zur Folge hat.

Das gilt generell, also auch fuer MXe und Radeons bei 1024x32Bit oder sogar darueber.

Nebenbei sind 3D Karten ja auch noch zu anderem Nuetze als nur zum Spielen (quadro, fireGL,..).

Demirug
2002-05-21, 16:37:51
Originally posted by ow
LL

Ich muss dir da widersprechen.

Gerade damals zum Erscheinungszeitpunkt war T&L SEHR nuetzlich, da die CPUS erst so bei 600-700MHz angekommen waren und HW T&L hier die CPU wesentlich entlasten kann.
Bei einer 2GHz CPU kann ich ruhig schon mal 600-700MHz nur fuer T&L verbraten, bleiben immer noch 1,3-1,4GHz fuer andere Dinge (KI, Physik,....).


Was viele nicht begreifen ist, dass T&L nicht nur fuer hoeheren Speed gut ist, sondern bei gleichem Speed wesentlich weniger CPU Last zur Folge hat.

Das gilt generell, also auch fuer MXe und Radeons bei 1024x32Bit oder sogar darueber.

Nebenbei sind 3D Karten ja auch noch zu anderem Nuetze als nur zum Spielen (quadro, fireGL,..).

Wobei wenn ich mir die Physik von UT 2003 anschaue kann ich verstehen das die ht&l wollen. Die verbraucht bestimmt ordentlich CPU Leistung.

Legolas
2002-05-21, 18:06:06
Originally posted by ow
LL

Ich muss dir da widersprechen.

Gerade damals zum Erscheinungszeitpunkt war T&L SEHR nuetzlich, da die CPUS erst so bei 600-700MHz angekommen waren und HW T&L hier die CPU wesentlich entlasten kann.
Bei einer 2GHz CPU kann ich ruhig schon mal 600-700MHz nur fuer T&L verbraten, bleiben immer noch 1,3-1,4GHz fuer andere Dinge (KI, Physik,....).


Als die GF256 erschienen ist, gabs fast keine Spiele, die HW-T&L nutzten. Zumindest praktisch alle damals erhältlichen DX-Games konnten kein HW-T&L nutzen, da sie extra mit T&L-Support nach DX7 ausgestattet werden mussten. 'Nur' bei Quake-Enginespielen, und anderen OGL-Engines kam das HW-T&L sofort zum tragen, und konnte dort die CPU entlasten.

noid
2002-05-21, 18:23:08
wie versprochen ? was wurde denn versprochen ? glaubt ihr noch annen weihnachtsmann ?

mir war es egal ob t&l richig genutzt wurde, solange mein spiel schneller war als früher , zu nem aktzeptablen preis im vergleich zu andren grakas.

ich will jetzt sehen , was alles versprochen wurde - wieviel % performance zuwachs, ansonsten können alle anit t&ler einpacken oder endlich einsehen, dass t&l die cpu zu einem gewissen grad entlastet und nicht qwie eax belastet

wieso seh ich hier noch im zeitalter der gf4 und ein paar gf3s noch namen wie GF256 ? da wird mir schlecht.... ( oder von mir aus ne neue ati, auch egal )

Unregistered
2002-05-21, 18:29:31
Hi

Sagt mal schreibe ich spanisch oder nur unverständlich.

Lesst nochmal meine Postings.

Ich sagte doch das T&L etwas bringt.
Nur damals hiess es grafische Wunder.
Was hat es bis jetzt gegeben.?
3DMark, Max Payne und die kommenden UT2 und Doom3 Games und da wird die MX und SDR nicht vernünftig sein, weil die Speicherbandbreite nicht ausreicht.
Da reist das T&L die MX und SDR Karten auch nicht mehr raus.


Kurz jetzt wo es endlich etwas bringt nutzt das nichts.
(Ausnahme Karten mit einer grösseren Speicherbandbreite und da je nach Bandbreitenschonungsverfahren.)

Das war ein Hauptpunkt der Kritiker von T&L.
Der nächste Kritikpunkt war das andere Hersteller wie 3dfx schon quasi gepeinigt wurden weil diese gleich auf Programmierbare Shader wollten, dafür hatten die endlich FSAA.
Wenn ein Hersteller kein T&L hatte war schon ein Punkteabzug bei den Reviews vorhanden.
(niach, jetzt weiche ich wieder vom Thema ab.)

Was Dein Argument betrifft ow, hat es Legolas schon schön formuliert.

Mein Gott, wenn man einmal was gegen nVIDIA Features sagt, dann zucken die Leute aus.......
Mein Gott der Sinn meines Postings wird doch nicht so schwer zu erfassen sein.

Gruss ein angefressener Labberlippe

[DH]Avenger
2002-05-21, 18:46:46
Also unsinnig ist T&L eigentlich nicht, eher die vielen Tests bei denen anhand synthetischer Szenen versucht wird, zu belegen dass eine 800MHz CPU ausreicht....sicherlich in diesen Synthi Tests, bei denen fast die gesamten 800MHz für T&L zur Verfügung stehen, bei echten Spielen blieben jedoch nach Abzug der Leistung die für die KI, Steuerung, Sound, "Datendirektion" usw. verwendet wird mit gut Glück noch 20-30% für T&L Berechnung übrig...

Unregistered
2002-05-21, 18:53:31
Originally posted by ow
LL

Ich muss dir da widersprechen.

Gerade damals zum Erscheinungszeitpunkt war T&L SEHR nuetzlich, da die CPUS erst so bei 600-700MHz angekommen waren und HW T&L hier die CPU wesentlich entlasten kann.
Bei einer 2GHz CPU kann ich ruhig schon mal 600-700MHz nur fuer T&L verbraten, bleiben immer noch 1,3-1,4GHz fuer andere Dinge (KI, Physik,....).


Was viele nicht begreifen ist, dass T&L nicht nur fuer hoeheren Speed gut ist, sondern bei gleichem Speed wesentlich weniger CPU Last zur Folge hat.

Das gilt generell, also auch fuer MXe und Radeons bei 1024x32Bit oder sogar darueber.

Nebenbei sind 3D Karten ja auch noch zu anderem Nuetze als nur zum Spielen (quadro, fireGL,..).

Nachtrag.
Mir ist schon klar das T&L auch bei den kleinen CPUs von 600 Mhz geholfen hat.
Allerdings nur bei Q3 und 3DMark und ehrlich gesagt da nicht viel.
Sobald man auch hier auf 1024x768 in 32 Bit gegangen ist, ist bei der MX die Puste ausgegangen.
Von grafische Wunder war nichts zu sehen.
Denn das hat ja das Marketing von nVIDIA vorgegaukelt.


Gruss Labberlippe

jedi
2002-05-21, 18:57:55
Originally posted by [DH]Avenger
Also unsinnig ist T&L eigentlich nicht, eher die vielen Tests bei denen anhand synthetischer Szenen versucht wird, zu belegen dass eine 800MHz CPU ausreicht....sicherlich in diesen Synthi Tests, bei denen fast die gesamten 800MHz für T&L zur Verfügung stehen, bei echten Spielen blieben jedoch nach Abzug der Leistung die für die KI, Steuerung, Sound, "Datendirektion" usw. verwendet wird mit gut Glück noch 20-30% für T&L Berechnung übrig...

Völlig richtig. Beim realen Spielen ist die CPU-Belastung deswegen auch viel höher als wenn man nur ein Timedemo abspielt, bei dem die CPU gar nicht "denken" muss. Deshalb kann man nicht nur 3DMark, sondern praktisch auch alle Spiele-Benchmarks in die Tonne treten, weil sich beim realen Spielen die CPU-Entlastung durch T&L viel stärker positiv auswirkt als bei Timedemos.

zeckensack
2002-05-21, 19:00:32
HW-T&L ist doch nicht NVIDIAs Schuld oder sowas. Früher oder später mußte das einfach kommen.

Man muß NVIDIA positiv anrechnen (!!), daß sie den Mut aufgebracht haben, HW-T&L zu früh einzuführen, gemessen am Nutzen in damaligen Spielen. Ein ganz wichtiges Henne/Ei-Problem (nämlich das des Entwickler-Supports) haben sie damit erstmal gelöst, Hut ab.

Was natürlich nicht sehr nett war, war die Art und Weise wie dieses zu Markte getragen wurde. Ich schreibe der Vermarktung von HW-T&L zB einen großen Batzen Teilschuld am Untergang von 3dfx zu.
edit:
Gilt selbstredend auch für S3.

zeckensack
2002-05-21, 19:03:39
Originally posted by jedi


Völlig richtig. Beim realen Spielen ist die CPU-Belastung deswegen auch viel höher als wenn man nur ein Timedemo abspielt, bei dem die CPU gar nicht "denken" muss. Deshalb kann man nicht nur 3DMark, sondern praktisch auch alle Spiele-Benmarks in die Tonne treten, weil sich beim realen Spielen die CPU-Entlastung durch T&L viel stärker positiv auswirkt als bei Timedemos. Jip. So ähnlich hatte dieser Thread ja auch einst begonnen. :stareup:

noid
2002-05-21, 19:07:01
ok, fsaa is auch ganz nett , aber wozu ? un dbei 3dfx mit 30fps oder < , was soll dass für spielespass sein ? motionblur is auch nur im kino gut um flüssige bewegungen zu emulieren.

hohe auflösung keine schlechten kanten, kein fsaa nötig ( bin mir sicher das diese feature nur für user mit 640x480 fetisch geschaffen wurde )

PS : warum denkt ihr alle, dass werbung stimmt ?

natürlich is t&l ein fortschritt, ein gewaltiger dazu ( 45% ) - aber ein scsi controller und nen lan karte mit soundcomco is t&l hald net ... wozu soll es auch ein wunder sein ? is halt ein feature (marketing!!!!).

Unregistered
2002-05-21, 19:15:22
Originally posted by noid
ok, fsaa is auch ganz nett , aber wozu ? un dbei 3dfx mit 30fps oder < , was soll dass für spielespass sein ? motionblur is auch nur im kino gut um flüssige bewegungen zu emulieren.

hohe auflösung keine schlechten kanten, kein fsaa nötig ( bin mir sicher das diese feature nur für user mit 640x480 fetisch geschaffen wurde )

PS : warum denkt ihr alle, dass werbung stimmt ?

natürlich is t&l ein fortschritt, ein gewaltiger dazu ( 45% ) - aber ein scsi controller und nen lan karte mit soundcomco is t&l hald net ... wozu soll es auch ein wunder sein ? is halt ein feature (marketing!!!!).

Nicht ganz.
Die Q3 Motion Blur demo hatte immer die gleichen Frames, egal ob FSAA und Motion Blur aktiviert oder nicht.
Da lag es anscheinend an der Demo.
Mein Schwager hat noch eine V5 mit einen 1,1Tb da habe ich es mal getestet.

Besonders bei alten Games wo die Auflösung star auf 640x480 war Metal Gear Solid, Fifa da hat FSAA schon geholfen.
Wobei Motion Blur mit Q3 nicht viel Sinn macht, hier wären Sportspiele eher gefragt.

Eines muss ich aber zugeben, bei der Q3 Motion Blur hatte ich kein Gefühl vom Ruckeln.
Auf Dauer aber hat es doch gestört da einfach zuviel geblurt wurde.

Gruss Labberlippe

Unregistered
2002-05-21, 19:16:23
Originally posted by zeckensack
Jip. So ähnlich hatte dieser Thread ja auch einst begonnen. :stareup:

Sorry wollte nicht gerade spamen aber ich habe auch nichts im eigentlichen Sinn gegen T&L gesagt.

Gruss Labberlippe

Quasar
2002-05-21, 19:19:08
Beim Lesen ist mit folgendes durch den Kopf gegangen (in no particular order):

nVidia hat bei der Vorstellung von TnL viel versprochen, sicher. Doch wie konnte man ernsthaft erwarten, ohne die Unterstützung von Spielen daran etwas zu ändern? Tendenziell (und das hat sich erst kürzlich wieder abgeschwächt) empfand ich die Grafik in OpenGL-Games der letzten paar Jahre als durchweg besser, als bei DirectX. Das mag natürlich nur ein Zufall gewesen sein, aber OpenGL nutzt TnL zumindest teilweise schon von Hause aus.

Der 3D-Mark wird immer kritisiert, daß er die aktuelle Situation nicht darzustellen in der Lage ist. Soweit richtig, doch hat er imho auch den Anspruch, die zukünftige Situation vorherzusehen und das tat er bislang ziemlich gut, wie z.B. der 2000er 3DMark belegt, wenn man sich mal die Hi-Q Tests anguckt: Sie sind CPU-Limitiert, wie es mit mehr und mehr aktuellen Games auch der Fall ist (RTCW, MOHAA, JK2, Morrowind, FluSi & RPGs sowieso). Der 2001er zeichnete vorweg, daß sich zunächst die CPU-Unterstützung per Vertexshader durchsetzen würde, weil man dies teilweise (performancetechnisch) in der CPU emulieren kann, Pixelshader wurden als Einzelfall behandelt (nur der Nature-Test nutzt diese).

Wenn ich mir mal die Screenies von zukünftigen Games anschaue, oder mir gar versuche DM mit per CPU berechnetem Dreiecksgitter vorzustellen, na dann Gute Nacht.

Heute kann das meiste an DX7-TnL sicher noch von High-End CPUs übernommen werden, aber sind wir doch mal ehrlich: Lieber eine TnL-Graka für €200 als eine TnL-CPU (sonst käme man sicher auch mit 1,0 anstatt 2,5GHz aus) für €700+.

Bis Entwicklungen auf dem Graka-Markt sich auf den Spielesektor durchschlagen dauert es eben eine Weile. Wo wäre denn heute die Unterstützung durch die Software-Firmen, wenn nV sich damals gesagt hätte "Ach, es gibt ja gar keine Games, die unser Feature unterstützen, sparen wir lieber Transistoren"??
Genau dasselbe ist es beim Bump Mapping. Zunächst gab's einige halbherzig gepatchte Games (ähnlich wie bei TnL), die's unterstützten. Vollständig ge-bumpmappedte Spiele sieht man aber auch heute noch nicht, aber die Tendenz nimmt zu.

Warum müsst ihr immer alles sofort haben wollen? Wie soll das bitte funktionieren, besonders, wenn sich kein einheitlicher Standard durchsetzt, weil jeder Hersteller sein eigenes Süppchen kocht?

Bis sich die Software-Entwickler vom mehr und mehr in technologischen Rückstand geratenen Glide abgewandt haben (jaja, ein kleines gallisches Dorf proggt immer noch in Glide) ist auch der komplette Lebenszyklus der Voodoo3 und mehr verstrichen, die auf Glide eigentlich schon längst nicht mehr angewiesen war.

Die Liste liesse sich endlos fortsetzen....32Bit, Bumpmapping, TnL, und nun eben Shader. Irgendjemand muss einfach Tatsachen schaffen, i.e. Feature in Hardware giessen, damit diese irgendwann später auch akzeptiert werden.

Die Zeiten eine Chris Roberts sind schon lange vorbei, heute werden sich nur noch zu wenig Leute einen neuen PC kaufen, damit ihr Lieblingsgame anständig läuft. Spielenentwicklung ist ein Millionenbusiness, obs uns gefällt oder nicht, und da wird nach dem Geschmack und der Hardware der Masse entwickelt.

Freuen wir uns doch, allesamt early adopters zu sein, die alten Games in nie gekannter Geschwindigkeit daddeln zu können und hier und da einen kleinen Vorgeschmack auf die nächste Generation an Software zu bekommen.

edit: jetzt hab ich so lange getippt, daß einiges schon vorweggenommen wurde :D

zeckensack
2002-05-21, 19:28:36
Originally posted by Unregistered


Sorry wollte nicht gerade spamen aber ich habe auch nichts im eigentlichen Sinn gegen T&L gesagt.

Gruss Labberlippe Das war doch keine Spamwarnung. ???
Und selbst wenn du was gegen T&L sagst, deine Meinung werde ich dir doch nicht verbieten. ???

Ich hab' mich doch nur gefreut, daß jedi im Grunde das gleiche gesagt hat, wie ich in meinem ersten Posting ;)
Immer schön weitermachen :)

jedi
2002-05-21, 19:58:46
Originally posted by zeckensack

Ich hab' mich doch nur gefreut, daß jedi im Grunde das gleiche gesagt hat, wie ich in meinem ersten Posting ;)

War mir gar nicht mehr bewusst, dass ich den Gedanken sooo von Dir unterbewusst übernommen hatte, dass ich mir vielleicht sogar eingebildet hatte, ich wäre von selber drauf gekommen. :glowface:

Naja, auf jeden Fall stimme ich Dir voll zu. :bier:

Demirug
2002-05-21, 20:14:57
Tja Hardware T&L könnte noch besser sein wenn die Karten in verbindung mit den Treiber nicht alle einen häslichen Desginfehler hätten der den effizienten paralelbetrieb verhindert.

Thowe
2002-05-21, 20:18:32
Ich stimme einfach mal Quasar zu (ist so schön einfach). Auch wenn ich aus diversen Gründen (nicht Spiele) schon immer ein Fan von HW TnL war, muss man es doch so sehen. nVidia hat TnL gerade für Spiele als must have feature verkauft, viel versprochen und gar nicht einhalten können, da es nicht in ihrer Macht lag. S3 ist leider an sich selbst gescheitert (heul, war meine Lieblingsfirma) und 3DFX hat zuviel Voodoo um nichts gemacht. Hart? Aber wahr!

Deshalb HW TnL heute und gerade in naher Zukunft ja, vor 3 Jahren war es nutzungstechnisch bei Spielen wurscht. Für mich eh, brauche viel Licht :D

Fragman
2002-05-22, 00:37:47
hw t&l war und ist bockmist. nv haette damals gleich den vs bringen sollen. ich weiss auch gar nicht wie nv damals darauf kam, das die spielehersteller es einsetzen werden. der g1 war kaum raus, da kamen auch schon die ersten kritiken, allen voran die nichtvorhandene faehigkeit, keine geometrie erzeugen zu koennen. selbst "einfachste" operationen sind damit nicht moeglich gewesen, da die einheit zu unflexible war. die spielehersteller haben immer geschimpft, und die, die angeblich games bringen wollten, haben diese entweder bis heute nicht gebracht (bsp. freespace) oder sie fuer den pc abgeschossen (halo, experience) oder die cpu's sind mittlerweile so schnell, das hw t%l nichts mehr bringt. so long..., hoffen wir auf die zukunft und setzen auf den vs bzw high level shader.

zeckensack
2002-05-22, 00:47:24
Was war denn das?

Da breiten wir hir einen so herzerwärmenden Thread vor deiner Nase aus, und das soll der Dank sein?
:bawling:

[DH]Avenger
2002-05-22, 00:51:23
Undank ist der Welten Lohn :smokin:

Demirug
2002-05-22, 01:13:19
Da hat aber jemand schlechte Laune. Aufgrund des Stills schliesse ich darauf das Fragman im Bezug auf diese Thema für Argumente sowieso nicht empfänglich ist darum spare ich mir das auch.

@zeckensack:
*ausverständnissmitheulen*:bawling:

[DH]Avenger
2002-05-22, 01:21:13
Das einzige was man am T&L der NVidia Karten (zumindest der 1er und 2er) aussetzen kann ist das Clipping als Feature beworben wird (bzw. eben gerade das Verhindern des Clippings), dieses aber mit der 2x2er Matrix von NVidia nicht möglich ist. ATI nutzt seit der R100 ne 4x4er, daher nennt ATI das ja auch TCL und nicht nur T&L ;) (da gabs mal einen sehr ausführlichen Artikel bei 3DConcept, leider hat ram die Pflaume ja aufgehört :( )

aths
2002-05-22, 09:12:45
Fragman,

auch mit einem VertexShader lassen sich keine Eckpunkte erzeugen.

Fragman
2002-05-22, 13:06:35
ich weiss, ich meinte auch nicht den vs in seiner jetzigen version.
vs2 wird mehr bringen, der durchbruch kommt aber erst mit high level shader.

ich bin so wuetend, weil ich t&l nicht mehr hoeren kann. was da ueber die jahre so alles an bockmist gequatscht und versprochen wurde...,
man sollte t&l endlich begraben und nach vorne blicken.

Demirug
2002-05-22, 13:44:24
Originally posted by Fragman
ich weiss, ich meinte auch nicht den vs in seiner jetzigen version.
vs2 wird mehr bringen, der durchbruch kommt aber erst mit high level shader.

ich bin so wuetend, weil ich t&l nicht mehr hoeren kann. was da ueber die jahre so alles an bockmist gequatscht und versprochen wurde...,
man sollte t&l endlich begraben und nach vorne blicken.

Ich enttäusche dich ja nich gerne aber auch vs2.0 kan keine Geometrie erzeugen.

Ansonsten war T6L ein notwendiger Zwischenschritt auf dem Weg.

ow
2002-05-22, 15:19:33
Originally posted by Demirug


Ansonsten war T6L ein notwendiger Zwischenschritt auf dem Weg.


:D

[ironie ein]

Fragman ist doch scheinbar der Meinung man koenne alle Entwicklungsschritte ueberspringen und NV haette gleich 1997 den Gf5 rausbringen sollen.
Wieso den ganzen TNT/TNT2/Gf12/3/4 Quatsch noch vorher? Ist doch unnuetz.;)

[ironie aus]

Demirug
2002-05-22, 15:28:30
Originally posted by ow



:D

[ironie ein]

Fragman ist doch scheinbar der Meinung man koenne alle Entwicklungsschritte ueberspringen und NV haette gleich 1997 den Gf5 rausbringen sollen.
Wieso den ganzen TNT/TNT2/Gf12/3/4 Quatsch noch vorher? Ist doch unnuetz.;)

[ironie aus]


Er hat doch recht. Wir sollten direkt zu GeForce 50 übergehen. Das ist das Teil mit dem man einen Planeten wirklichkeitsgetreu (dank visueller Atom simulation) darstellen kann. Die Bildinformationen werden dabei direkt in den visuellen kortex eingespeist.

War das jetzt fies???

ow
2002-05-22, 15:44:57
Wieso fies?

Wer voellig ohne Argumentation solche Behauptungen in den Raum stellt wie Fragman das tut, der sollte mit sowas rechnen.

Hast das IMO in deinem ersten Reply oben schon richtig erkannt.

Gruss,
ow

mapel110
2002-05-22, 15:49:06
ach, warum nicht gleich den pc ausschalten und im real-life rumballern.
die grafik in dem spiel in unschlagbar ;)

noid
2002-05-22, 16:33:03
@mapel110 : dann bist du ein überdimensionales auge mit ner waffe oben auf ?

frag mich was man da alles schlucken muss bis rl wie quake aussieht.

Simon Moon
2002-05-22, 16:41:24
ok, fsaa is auch ganz nett , aber wozu ?

Also ich dachte, der sinn sei, damit die Kanten ruhiger sind.

un dbei 3dfx mit 30fps oder < , was soll dass für spielespass sein ? motionblur is auch nur im kino gut um flüssige bewegungen zu emulieren.

Als die V5 aktuell war, mussten man nirgendwo mit 30fps rumdampfen, wo eine andere Karte nicht auch in diese Regionen eingebrochen wäre.

hohe auflösung keine schlechten kanten, kein fsaa nötig ( bin mir sicher das diese feature nur für user mit 640x480 fetisch geschaffen wurde )

Die Auflösung um sowas zu realisieren wurde noch auf keinem Monitor, den ein normal sterblicher vermag, geschaft.


PS : warum denkt ihr alle, dass werbung stimmt ?

natürlich is t&l ein fortschritt, ein gewaltiger dazu ( 45% ) - aber ein scsi controller und nen lan karte mit soundcomco is t&l hald net ... wozu soll es auch ein wunder sein ? is halt ein feature (marketing!!!!).

T&L = 45% zur Leistung? Das gilt für alle Anwendungen? Bzw. imho kapier ich nicht worauf du hinauswillst.

Simon Moon
2002-05-22, 16:52:31
Originally posted by mapel110
ach, warum nicht gleich den pc ausschalten und im real-life rumballern.
die grafik in dem spiel in unschlagbar ;)

Ja, mit meinem neuen Filter (Brille (tm)) sehen die Texturen darin sogar noch mals schärfer aus. Ich erkenne sogar die Augentextur von Vögeln. Apropos Vögel, die sind sowieso genial animiert. Wieviele Polygone so ein Vogel wohl hat? Btw. die Ghul-Engine im RealLife ist auch klasse :D

Fragman
2002-05-22, 17:33:27
ist immer dasselbe: wenn man sich nicht der massenmeinung anschliesst, dann darf man anscheinend keine haben.

Demirug
2002-05-22, 17:47:42
Originally posted by Fragman
ist immer dasselbe: wenn man sich nicht der massenmeinung anschliesst, dann darf man anscheinend keine haben.

Natürlich darf man hier seine eigne Meinung haben. Und gerade beim Thema Hardware T&L gibt es hier nun wirklich keine Massenmeinung.

Aber was du hier gemacht hast war einfach nur gegen Hardware T&L gewetter ohne die Diskussion um einen neuen Aspeckt zu bereichern.

Du hast aufgeführt das die Entwickler damit nicht zufrieden waren. Wir sind nie zufrieden und dehalb ist das leider kein gutes Argument.

Wenn du dich mit sachlichen Argumente beteiliegen willst bist du sicher gerne bei dieser Diskussion willkommen aber bitte kein pauschales flamen.

zeckensack
2002-05-22, 18:06:54
Ok, wenn's sein muß, dann fang ich mal an.

Originally posted by Fragman
hw t&l war und ist bockmist.Das statische T&L meiner grottenlahmen Radeon 1 beschleunigt zB ein reales Spielszenario um 110% gegenüber Software-T&L auf meinem System (Link steht in meiner Sig). Mit diesem Beispiel hatte der Thread begonnen. Hast du das nicht gelesen? Wieso ist das Bockmist?nv haette damals gleich den vs bringen sollen.Wahrscheinlich zuviel Aufwand. Bereits der Zwischenschritt 'statisches T&L' war ein großes Risiko für NV, trotzdem hat etwas gebracht. Das haben wir weiter oben schon durchgekaut.ich weiss auch gar nicht wie nv damals darauf kam, das die spielehersteller es einsetzen werden. der g1 war kaum raus, da kamen auch schon die ersten kritiken, allen voran die nichtvorhandene faehigkeit, keine geometrie erzeugen zu koennen. selbst "einfachste" operationen sind damit nicht moeglich gewesen, da die einheit zu unflexible war.Und trotzdem gibt es sinnvolle Anwendungsbereiche. Alles, was nicht animiert werden muß, ist prinzipiell für statisches T&L geeignet, selbst bei animierter Geometrie wird die CPU noch entlastet, da zumindest ein Teil der Operationen (die abschließende Transformation) von der Hardware übernommen wird.
die spielehersteller haben immer geschimpft, und die, die angeblich games bringen wollten, haben diese entweder bis heute nicht gebracht (bsp. freespace) oder sie fuer den pc abgeschossen (halo, experience)Contra. Messiah kam raus. Ich will jetzt hier nicht stundenlang aufzählen, aber seit DX7 nutzen alle Spiele HW-T&L. Viele werden dadurch nicht schneller, aber keins wird dadurch langsamer und es gibt schon einen ganzen Haufen, der dadurch eben doch schneller wird.die cpu's sind mittlerweile so schnell, das hw t%l nichts mehr bringt.110% auf einem Morgan-Duron@9x133MHz mit DDR-RAM. Und das ist eine Radeon 1. Selbst ein Athlon XP2100+ könnte es nicht schneller als diese uralt-Karte.so long..., hoffen wir auf die zukunft und setzen auf den vs bzw high level shader.Shader will ich auch haben, in diesem Punkt volle Zustimmung.

noid
2002-05-22, 18:09:07
@ El-Diablo : laut zeckensack wirkte sich das so auf die performance als schlechtestes ergebnis aus

( hoffe ich erinner mich jetzt ned falsch )

Simon Moon
2002-05-22, 21:13:31
Originally posted by noid
@ El-Diablo : laut zeckensack wirkte sich das so auf die performance als schlechtestes ergebnis aus

( hoffe ich erinner mich jetzt ned falsch )

In seinen paar Benchs. Aber so allgemein kann man das nicht sagen...

Fragman
2002-05-22, 22:39:54
messiah und auch sacrifice hab ich auch. bei messiah konnte man durch den wireframe modus gut sehen, das die figuren mit t&l mehr polys hatten, ist schon richtig, das wars dann aber auch. die level geometrie war dagegen nicht detailliert. ich stimm dir auch zu, dass die readon bei t&l berechnungen besser ist als ein schneller athlon, da aber die fuellrate der karte viel zu niedrig ist, relativiert sich der vorteil wieder. das war (ist?) ja auch nv's problem damals gewesen, zu wenig fuellrate, zu wenig bandbreite, um auch noch die polys mitzunehmen. nv haette damals erstmal daran arbeiten sollen.
und von den detaillierten games, die damals versprochen wurden kam auch noch keins raus. bin mal auf ut2 gespannt, ob es mit t&l oder mit vs schneller laeuft.

zeckensack
2002-05-23, 01:17:08
Lustige neue Messung:

Quake 2 Crusher-Demo

Ohne HW-T&L 112 fps
Mit HW-T&L 128 fps

Immerhin ...

Ich mess morgen nochmal nach, dann hab' ich mehr Füllrate (Radeon8500LE *lechz*)

Demirug
2002-05-23, 01:28:56
Originally posted by zeckensack
Lustige neue Messung:

Quake 2 Crusher-Demo

Ohne HW-T&L 112 fps
Mit HW-T&L 128 fps

Immerhin ...



Und dabei ist soweit ich mich erinnere Quake 2 noch nicht mal besonders HW-T&L freundlich.

ow
2002-05-23, 08:50:11
Originally posted by Demirug


Und dabei ist soweit ich mich erinnere Quake 2 noch nicht mal besonders HW-T&L freundlich.


Bei der knappen Handvoll an Polygonen, die in Q2 genutzt werden auch kein Wunder.;)

jedi
2002-05-23, 21:57:17
Originally posted by zeckensack
Lustige neue Messung:

Quake 2 Crusher-Demo

Ohne HW-T&L 112 fps
Mit HW-T&L 128 fps



Auch nur eine Timedemo ohne die CPU-Belastung, die man beim Spielen hätte. *eg*

Legolas
2002-05-23, 22:03:05
Originally posted by jedi


Auch nur eine Timedemo ohne die CPU-Belastung, die man beim Spielen hätte. *eg*

Wohl für die überwältigende KI in Q2, oder wie??? :D *eg*

SamLombardo
2002-05-24, 11:24:45
Haben eigentlich GF4TI Karten auch noch eine DX7 T&L Einheit (wie das bei der GF3 wohl ist???), oder wird bei GF4TI die ganze Geometrie durch die 2 Vertex Shader berechnet?

Legolas
2002-05-24, 12:10:04
Bei der GF3 wird DX7-style T&L durch ein Vertex-Shader-Programm realisiert. D.h. eine eigenen DX7-T&L-Einheit gibt es auf der GF3 nicht, sondern das wird vom Vertex-Shader übernommen. Ob das bei der GF4 auch so ist, weiß ich nicht, liegt aber imho nahe, da eine eigene DX7-T&L-Einheit nochmal einiges an Transistoren verbrauchen würde. Dadurch daß bei der GF3 das DX7-T&L vom VS gemacht wird, kann man übrigens beide Einheiten auch nicht parallel benutzen.

aths
2002-05-24, 12:43:30
Man könnte sie afaik auch dann nicht parallel nutzen, wenn es 2 physikalische Einheiten gäbe - weil die API da nicht mitspielt.

Demirug
2002-05-24, 12:44:41
Um es genau zu erfahren müsste man wahrscheinlich bei NVidia anfragen. Es ist jedoch davon auszugehen. Ich hab hier irgendwo die Vertex Shader Programme mit dehnen sich eine normale H T&L einheit nachprogrammieren läst.

Der weitere Vorteil wenn sie die VS Einheit auch für das H T&L benutzen ist das die Z-Werte nach der Transformation zuverläsig gleich sind. Ist das nicht der Fall kann es beim Alphablending probleme geben.

Demirug
2002-05-24, 12:47:29
Originally posted by aths
Man könnte sie afaik auch dann nicht parallel nutzen, wenn es 2 physikalische Einheiten gäbe - weil die API da nicht mitspielt.

Ich kann jetzt nur für DX sprechen. Dort kann man wie du richtig festgestellt hast entweder die Fixed Vertex T&L oder die Vertexshader benutzen. Beide gleichzeitig oder irgendwie verschalten macht auch eigentlich keinen grossen Sinn.

nocturne
2002-05-24, 14:23:17
Originally posted by Demirug
Um es genau zu erfahren müsste man wahrscheinlich bei NVidia anfragen. Es ist jedoch davon auszugehen. Ich hab hier irgendwo die Vertex Shader Programme mit dehnen sich eine normale H T&L einheit nachprogrammieren läst.


Das hat auch ein nVidia-Mitarbeiter mal in einem Interview bestätigt, dass es keine festverdrahtete DX7-Einheit mehr gibt, sondern das von einem Shader erledigt wird. Ich glaube, es war David Kirk selber.

Labberlippe
2002-05-24, 16:01:02
Originally posted by nocturne


Das hat auch ein nVidia-Mitarbeiter mal in einem Interview bestätigt, dass es keine festverdrahtete DX7-Einheit mehr gibt, sondern das von einem Shader erledigt wird. Ich glaube, es war David Kirk selber.

Ich warte noch immer auf ein Statement von Dir.

Gruss Labberlippe

jedi
2002-05-25, 21:10:18
Originally posted by aths
Man könnte sie afaik auch dann nicht parallel nutzen, wenn es 2 physikalische Einheiten gäbe - weil die API da nicht mitspielt. ^

Würde auch keinen wirklichen Sinn machen.

vogel
2002-05-30, 07:30:54
Originally posted by vogel
Let's say the CPU does nothing besides transforming vertices you maybe are lucky to get 2 million vertices per seconds on a relatively beefy CPU. This translates to 66,666 vertices at 30 fps. With our vertices to primitives ratio this roughly leads to 40,000 primitives which isn't that much. And then all your CPU does is transforming vertices... pathetic ;)

Ich bin zwar kein Fan von non- TnL Karten aber erstaunlicherweise schlaegt sich eine Kyro II in meinen gerade abgeschlossenen Tests ziemlich wacker - weitaus besser als ich erwartet hatte - und dass selbst in CPU limitierten Situationen. Da kann man dann die Aufloesung nett hochschrauben.

Jedoch ist es recht aufwendig die Kyro Architektur zu unterstuetzen... will gar nicht wissen wieviel Zeit das bisher gekostet hat.

-- Daniel, Epic Games Inc.

zeckensack
2002-05-30, 07:58:42
Originally posted by vogel

Ich bin zwar kein Fan von non- TnL Karten aber erstaunlicherweise schlaegt sich eine Kyro II in meinen gerade abgeschlossenen Tests ziemlich wacker - weitaus besser als ich erwartet hatte - und dass selbst in CPU limitierten Situationen. Da kann man dann die Aufloesung nett hochschrauben.

Jedoch ist es recht aufwendig die Kyro Architektur zu unterstuetzen... will gar nicht wissen wieviel Zeit das bisher gekostet hat.

-- Daniel, Epic Games Inc. Hmmm ...
Jetzt würde mich aber auch mal interessieren, wie du auf die 2Mio Verts/s gekommen bist. 'Beefy CPU' hört sich nach mindestens 1GHz an, Vektor*Matrix schafft man in 16 Takten, der Rest ist Speicherbandbreite. Da sollten grob geschätzt schon deutlich mehr als 2 Mio/s gehen. Oder geht's hier schon um größere Vertex-Shader ???

Wie hoch war denn die Geometrielast? (am liebsten Vertices/frame)

Thowe
2002-05-30, 21:11:44
Originally posted by vogel
Jedoch ist es recht aufwendig die Kyro Architektur zu unterstuetzen... will gar nicht wissen wieviel Zeit das bisher gekostet hat.

-- Daniel, Epic Games Inc.

Es lohnt sich :)

Werde überall für euch Werbung machen wie nett ihr seit auch die "kleinen" nicht zu vergessen. :)

ActionNews
2002-05-30, 21:51:37
Originally posted by vogel

Ich bin zwar kein Fan von non- TnL Karten aber erstaunlicherweise schlaegt sich eine Kyro II in meinen gerade abgeschlossenen Tests ziemlich wacker - weitaus besser als ich erwartet hatte - und dass selbst in CPU limitierten Situationen. Da kann man dann die Aufloesung nett hochschrauben.

Jedoch ist es recht aufwendig die Kyro Architektur zu unterstuetzen... will gar nicht wissen wieviel Zeit das bisher gekostet hat.

-- Daniel, Epic Games Inc.

Hallo Daniel !

Schön dass ihr auch an die Kyros denkt :)!
Ich hätte bis vor ca. einem Jahr auch nicht gedacht welche Leitung in der Kyro-Architektur steckt. Mittlerweile bin ich aber voll überzeugt und freue mich schon auf den KyroIII (Ich hoffe er schafft es noch in die Läden. Wäre nämlich schade um die innovative Deferred Render Technik :bawling: )!

CU ActionNews

vogel
2002-05-30, 22:39:39
Originally posted by zeckensack
Hmmm ...
Jetzt würde mich aber auch mal interessieren, wie du auf die 2Mio Verts/s gekommen bist. 'Beefy CPU' hört sich nach mindestens 1GHz an, Vektor*Matrix schafft man in 16 Takten, der Rest ist Speicherbandbreite. Da sollten grob geschätzt schon deutlich mehr als 2 Mio/s gehen. Oder geht's hier schon um größere Vertex-Shader ???

Wie hoch war denn die Geometrielast? (am liebsten Vertices/frame)
Nvidia ShaderEffects Demo, Athlon XP 1.4666 GHz

-- Daniel, Epic Games Inc.

KEFFER
2002-05-31, 13:19:27
Also meine Meinung zu HW T&L ist geteilt. Früher fand ich es geil. Entlastete meinen Celeron 366@550 bei Q3. Und was bei Quake spielen einen Vorteil schafft is sowieso Fett. Doch das is subjektive da ich halt ein QUAKER bin.
Nach Zeckensacks messung is ein Vorteil ja bewiesen,denn das schlimmste beim zocken is ja nicht mit 150 anstatt 200 fps zu spielen sondern die niedrigsten Frame raten sind entscheidend. Da diese sich auf die spielbarkeit und reaktion auswirken. Spiele natürlich lieber mit konst. 80 fps als mal 300 fps und mal 20. Und wenn auch bei schwachbrüstigen Cpu's in kritischen Szenen durch T&L die Frame raten nicht ganz in den Keller gehn. macht das aus unspielbar spielbar.

PS: Weiß ja nicht ob das jetzt zum Thema passt, aber noid...
was is denn dass für ein schwules Foto unter deinem Nick, dass bist doch nicht du oder ? Wenn ja sorry war net so gemeint.
Nicht als beleidigung aufnehmen, hab mir gestern vielleicht mal wieder etwas viel Thc durch den Kopf geblasen und bin ein wenig Agro...aber ich find das Pic voll hart...

zeckensack
2002-05-31, 14:19:13
Originally posted by KEFFER
[BPS: Weiß ja nicht ob das jetzt zum Thema passt, aber noid...
was is denn dass für ein schwules Foto unter deinem Nick, dass bist doch nicht du oder ? Wenn ja sorry war net so gemeint.
Nicht als beleidigung aufnehmen, hab mir gestern vielleicht mal wieder etwas viel Thc durch den Kopf geblasen und bin ein wenig Agro...aber ich find das Pic voll hart... [/B]Doch doch, das bin ich. Mitten in der Nacht irgendwo am See, einigermaßen besoffen und gerade beim Brötchenmampfen. Paparazzi sind schon was feines.

KEFFER
2002-05-31, 14:57:33
hi
Zu Zeckensack: Also ich will jetzt keine dumme diskusion anfangen, ob irgendwelche bilder blöd sind. Das will ich mir nicht anmaßen zu bewerten. Das Bild von dir meinte ich ja net. Das is schon ganz ok sehe auch manchmal so aus wenn ich wieder zuviel gezeckt habe und dem Fressflash nachgehe ;)
Jedoch meinte ich den Member "noid" dessen pic ich schon recht "schlimm" finde. Wollt nur wissen ob das ernst gemeint ist oder nur als naja Gag dort prangert. So ein bild tut man sich ja net freiwillig an.

PS: Thema T&L ,also enttäuscht war ich dann als (nach dem alten Celeron) mein Athlon "Classic" 700@900 ohne HT&L schneller war als mit. Ich könnte mir schon vorstellen das T&L auch performance vermindern kann wenn die Spiele nicht Cpu sondern ausschließlich bandbreiten limitiert sind. Denn das TL kostet ja auch ganz schön an speicher bandbreite und nimmt diese dann der eigentlichen (Pixel u. Texel) berechnung. Wenn dieses aber bei manchen Games bei entsprechender Auflösung und Farbtiefe der limitierende Faktor ist, müste diese unnütze (speicher) belastung der 3d Karte zu performance minderung führen. Solange eine entsprechend starke Cpu am werkeln ist.
oder wie seht ihr das?

zeckensack
2002-05-31, 15:12:23
Ach sooooo,

da schaust du einfach mal hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=20786) rein ;)

KEFFER
2002-05-31, 15:55:36
thx
Ich dachte schon so ein frescher kerl...

Unregistered
2002-05-31, 23:59:40
Originally posted by vogel
Jedoch ist es recht aufwendig die Kyro Architektur zu unterstuetzen...

Und wieso soll das so sein?

Tiling & HSR ist API-transparent. Für die Kypo-Performance tödliche Framebuffer-Locks und andere Hacks sollte man bei sauberer Programmierung sowieso vermeiden.. ;)

vogel
2002-06-01, 01:29:06
Originally posted by Unregistered


Und wieso soll das so sein?

Tiling & HSR ist API-transparent. Für die Kypo-Performance tödliche Framebuffer-Locks und andere Hacks sollte man bei sauberer Programmierung sowieso vermeiden.. ;)
Kein DXT3/5 und keine cubemaps. Dazu kommen noch ein paar weitere Limitierungen Aufgrund des Zusammenspiels von D3D SVP und Treiber (Fog) und ein paar blend modes die die Karte nicht unterstuetzt.

-- Daniel, Epic Games Inc.

Unregistered
2002-06-01, 09:24:05
Originally posted by vogel
Kein DXT3/5 und keine cubemaps.

Stimmt. Dafür kein kaputtes DXT1 das man umschiffen muss und EMBM, das man nicht über Render2Texture-Hacks emulieren muss. :)

LovesuckZ
2002-06-01, 09:45:59
Originally posted by vogel

und dass selbst in CPU limitierten Situationen. Da kann man dann die Aufloesung nett hochschrauben.


Schlagen sich da nicht alle Karten sehr gut, wenn der Cpu limitiert?

vogel
2002-06-01, 10:46:08
Originally posted by LovesuckZ


Schlagen sich da nicht alle Karten sehr gut, wenn der Cpu limitiert?
Sorry, das hab ich ein wenig ungenau formuliert: ich meinte, selbst auf HW TnL Karten CPU limitiert; also hatte ich erwartet, dass eine Karte ohne HW TnL weitaus schlechter abschneiden wuerde.

Die CPU Last kann man sehr schoen mit der Anzahl von Bots regeln und da reine Botmatches deterministisch sind (war 'ne heiden Arbeit) kann man das auch als Spektator schoen "benchen" :)

-- Daniel, Epic Games Inc.

zeckensack
2002-06-01, 17:28:25
Originally posted by vogel

Sorry, das hab ich ein wenig ungenau formuliert: ich meinte, selbst auf HW TnL Karten CPU limitiert; also hatte ich erwartet, dass eine Karte ohne HW TnL weitaus schlechter abschneiden wuerde.

Die CPU Last kann man sehr schoen mit der Anzahl von Bots regeln und da reine Botmatches deterministisch sind (war 'ne heiden Arbeit) kann man das auch als Spektator schoen "benchen" :)

-- Daniel, Epic Games Inc. Weißt du, ich wollte eigentlich gerade sowas wie deterministische Botmatches in die Benchmark-Wunschliste eintragen. Nur so schön formuliert hätte ich es wohl nicht :)

Xmas
2002-06-01, 23:46:50
Originally posted by Unregistered
und EMBM, das man nicht über Render2Texture-Hacks emulieren muss. :)
Hö? Das wär mir ja ganz neu dass man EMBM emulieren kann (bis auf Software-Rendering)... Die "Abhängigkeit" bei Dependent Texture Reads kann man nicht irgendwie auflösen.

aths
2002-06-02, 01:17:42
Total ot:

Xmas, Emboss BM ist doch nicht sooo unbrauchbar, wie gelegentlich
behauptet. (Eine PowerVR-Demo zeigt, dass Dot3 BM zwar besser, aber Emboss noch ganz nett aussieht.)

(Jedenfalls besser, als mit EMBM "emuliert". (Colorbanding³!) Von daher kam ich auch auf dieses Thema.)

Unregistered
2002-06-02, 15:58:46
Originally posted by Xmas
Hö? Das wär mir ja ganz neu dass man EMBM emulieren kann (bis auf Software-Rendering)... Die "Abhängigkeit" bei Dependent Texture Reads kann man nicht irgendwie auflösen.

EMBM als Feature kann man natülich nicht emulieren, einige damit mögliche Reflexionseffekte aber schon. Einfach zuerst in eine Textur rendern, dann im nächsten Schritt aus dieser Textur lesen, schon hast du deine Dependent Texture Reads. Ziemlich hässlich, langsam und unelegant, aber solche Hacks werde heutzutage gemacht, weil die NV1x-Klasse kein EMBM kann.

Xmas
2002-06-02, 16:50:46
Originally posted by Unregistered
EMBM als Feature kann man natülich nicht emulieren, einige damit mögliche Reflexionseffekte aber schon. Einfach zuerst in eine Textur rendern, dann im nächsten Schritt aus dieser Textur lesen, schon hast du deine Dependent Texture Reads. Ziemlich hässlich, langsam und unelegant, aber solche Hacks werde heutzutage gemacht, weil die NV1x-Klasse kein EMBM kann.
Das ist normales (dynamisches) Environment Mapping. Die Texturkoordinaten (pro Pixel) sind ja nicht von einem anderen Texture Read abhängig. Unebene Oberflächen bekommt man so doch nur, indem man die Geometrieauflösung verfeinert - und genau das soll Bumpmapping ja vermeiden.

Unregistered
2002-06-02, 22:51:14
Originally posted by Xmas
Das ist normales (dynamisches) Environment Mapping. Die Texturkoordinaten (pro Pixel) sind ja nicht von einem anderen Texture Read abhängig. Unebene Oberflächen bekommt man so doch nur, indem man die Geometrieauflösung verfeinert - und genau das soll Bumpmapping ja vermeiden.

http://developer.nvidia.com/view.asp?IO=2pass_mapped_bm

Da lesen sie einfach vom Framebuffer aus, dabei ginge es wohl einfacher das über eine gerenderte Textur umzusetzen.

Xmas
2002-06-03, 17:22:37
Originally posted by Unregistered
http://developer.nvidia.com/view.asp?IO=2pass_mapped_bm

Da lesen sie einfach vom Framebuffer aus, dabei ginge es wohl einfacher das über eine gerenderte Textur umzusetzen.
LOL, das ist ja praktisch das was ich mit "Software Rendering" meinte. Das Programm rendert jeden Pixel einzeln! Und läuft dementsprechend auf meiner GF3Ti200 mit ca. 5 fps...

Gerhard
2002-06-03, 21:35:55
EDIT: Huch, sollte doch öfter Refresh drücken, naha, um die Aussage von XMas zu bekräftigen:

Das NVidia Programm ist ein reiner Scherz (Wahrscheinlich durch Druck vom Marketing entstanden). Dort wird das EMBM Texel für Texel mit dem Prozessor berechnet, quasi SW-Rendering.

Quasar
2002-06-03, 21:40:48
Unterscheidet sich dein Posting zu subtil von dem Xmas' oder seh' nicht nur ich da keinen inhaltlichen Unterschied?

aths
2002-06-04, 00:59:42
Q: War dein Posting Spam oder nicht?

Andre
2002-06-04, 09:17:44
Originally posted by aths
Q: War dein Posting Spam oder nicht?

aths,
können wir beim Thema bleiben?

Quasar
2002-06-04, 13:25:24
Originally posted by aths
Q: War dein Posting Spam oder nicht?

Nein, war es nicht. Ich habe mit dem Schreiben begonnen, bevor Gerhard12 sein POsting geändert hat. Aber leider drückte die Blase in der Zwischenzeit und wer konnte ahnen, daß ihm nach Stunden auffiel, mal die Seite nicht mehr ausm Cache zu laden?