PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Schlechter Polygon Output bei Pc Grakas


Unregistered
2002-09-08, 14:33:49
Wieso bitte wird bei jeder Chipgeneration die Speicherbandbreite bis ins Unermessliche gesteigert , der Polygoncount bleibt jedoch immer recht niedrig , gemessen an den sonstigen Eigenschaften des Chips ?
Es ist unglaublich aber wahr , dass wir selbst mit einer Geforce 4 der PS2 in Bezug auf den Polygoncount hinterherrennen ...
Was bringen denn bitte 128 Mb Vram , Direct X8 , wenn die Spiele sowas von Polygonarm sind ...
Ich glaube , selbst der DC rendert nicht viel weniger Polys als aktuelle Pc - Spiele ( Soul Calibur , Shen mue 2 anyone ?)
Es sollte mal ne Graka rauskommen die da was reißen kann .. P10 ;)???

Unregistered
2002-09-08, 15:01:05
Hä soweit ich weiss hat ne 4400 ein Output von 127millionen Ploys per sec und das soll wenig sein?

Unregistered
2002-09-08, 15:12:59
Lass mal den High poly Test vom 3dmark 2001 laufen .
Ich denke über 45 Millionen wirst du nicht bekommen .
Dagegen schafft eine PS2 ca 60 M polys und ist schon bald 3 Jahre alt .
( und was du dar angegeben hast , ist imho der Peak der Verticles
; ein polygon besteht aus drei Verticen ...
auf machen Maschinen auch aus vier ( Sega´s Model 3)

Ganon
2002-09-08, 15:27:48
Dagegen schafft eine PS2 ca 60 M polys und ist schon bald 3 Jahre alt .

Sagt wer? Sony?

Unregistered
2002-09-08, 15:38:40
Öhm also ich besite selber eine PS2 das mit den 60 millionen stimm aber nur wenn die polys nackt sind mit textruren und effekten sind dann noch so 8-10Millionen

Unregistered
2002-09-08, 15:40:40
Und was du erzhälts ergibts sowie so keine sin da die X-Box die stärkste konsole zur zeit ist mit dem hösten poly count und jetz rad mal was für ne grakikarte drinn ist nhämlich ne GF4

Pitchfork
2002-09-08, 15:47:41
Klingt nach hübscher Falschinformation. Ist zwar etwas her, aber afaik hat die PS2 die 60 Mio Polys/sec auch nur als Peak Wert. Der stand damals im Vergleich zu einer GF1/2 mit 15-25 Mio Polys/sec.
Der Unterschied zwischen Polys/sec und Verts/sec ist in typichen Benchmarks irrelevant, da die Meshes nur einen neuen Vertex pro Poly dazunehmen und die beiden anderen aus dem Post Transform Vertex Cache holen (also den Vertex Prozessor nicht belasten).

Aber grundsätzlich gelten immer die gleichen Regeln:

diese Peakwerte werden nur erreicht, wenn ausser der Bildschirmprojektion nix mit dem Vertex gemacht wird, also noch nicht mal Texcoords verwendet.

Bei Vertex Shadern sieht man das ganz gut, weil dort in der Regel ein Befehl in einem Takt abgearbeitet wird:

Projektion = 4 Befehle pro Vertex
Parallele Lichtquelle = ~4-6 Befehle pro Vertex.
TexCoords = 1 Befehl pro Texture (kann nach oben gehen, je nach Tex Anim)
Fog = völlig vom Verfahren abhängig mal als Beispiel 7 Befehle pro Vertex.
Skinning = 5-10 Befehle pro Bone und Vertex
Punktlichtquelle = 10-20 Befehle pro Vertex.


Bei 200Mhz Takt und einer Vertex Einheit (GF3) können also 50 Mio Verts/sec transformiert und dargestellt werde, falls sie nur projiziert werden (4 Befehle).

Ein Vertex Shader von beispielsweise 30 Befehlen (Projection, TexCoords, Fog, 2 Lichtquellen) kommt also auf eine geschätzte Peakperformance von nur noch 6.6 Mio Vertex/sec.

Genau das gleiche passiert auf einer PS2, um so mehr pro Vertex gemacht wird, um so mehr sinkt die Peakperformance, auch wenn auf einer PS2 sich die Sache komplizierter berechnet.

Btw, wenn man jetzt die Speicherbandbreite/Pixelfüllrate hinzunimmt, wird man feststellen, daß für diese Peakperformance (nur Projektion des Vertex) bei einer Dual Vertex Shader GPU nur 2 Takte im Fragment Shader pro Dreieck gerechnet werden darf, das sind bei einer 4 Pixelpipe Architektur gerade mal 8 Pixel.
Bei einem Shader mit 30 Befehlen sind das immerhin 15 Takte, das sind das schonmal 60 Pixel, das ist dann ein Dreieck von 10x12 Pixeln vorausgesetzt es sin alle Texturen sind im Cache.

Man sieht also, daß der Peak Polydurchsatz wirklich nur bedingt aussagekräftig ist, wobei natürlich die langen Shader von VS2/3 auch mehr Leistung pro Vertex erfordern (siehe Quad Vertex Pipes).

Pitchfork

Unregistered
2002-09-08, 16:55:30
Sag mir mal bitte eine Geforce4 die ingame 8-10 m Polys darstellt ...
siehste ! Eine R200 schafft ca. 8 Millionen Polys + Ps1.4 Effekte bei 15 Fps , ne Geforce 4 schafft max. 12 M polys + Ps 1.0 Effekte bei 15 Fps. Also weit entfernt von flüssig . Ich wollte eigentlich nicht sagen , dass die PS2 ja ach so dolle ist , sondern vielmehr zeigen , dass unsere derzeit gängigen Grakas im Vergleich zur sonstigen Leistung echt etwas Polygonschwach daherkommen.
Und trotzdem ist der minimale Vorsprung von Highend Grakas im Vergleich zum 2 1/2 Graphic Synthesizer , was den Polycount angeht erbärmlich . Na´ja dafür haben wir mehr als 4Mb Videoram ;)
Was ich aber noch viel krasser finde , ist das der GS mit nur 150 getaktet ist . Hm so ein Shrink auf 0.13 bei 300 Mhz mit min.64Mb und Ps1.0 Effekte wäre ja eigentlich ne HART übertriebene Graka ,
für die meine Radeon 8500 wohl weichen müsste. Boah was für ein harter Polycount damit zu holen wäre ... Sind aber nur Gedankenspielerreien ( leider) ;(

Börk
2002-09-08, 17:03:11
Originally posted by Unregistered
Sag mir mal bitte eine Geforce4 die ingame 8-10 m Polys darstellt ...
siehste ! Eine R200 schafft ca. 8 Millionen Polys + Ps1.4 Effekte bei 15 Fps , ne Geforce 4 schafft max. 12 M polys + Ps 1.0 Effekte bei 15 Fps. Also weit entfernt von flüssig . Ich wollte eigentlich nicht sagen , dass die PS2 ja ach so dolle ist , sondern vielmehr zeigen , dass unsere derzeit gängigen Grakas im Vergleich zur sonstigen Leistung echt etwas Polygonschwach daherkommen.
Und trotzdem ist der minimale Vorsprung von Highend Grakas im Vergleich zum 2 1/2 Graphic Synthesizer , was den Polycount angeht erbärmlich . Na´ja dafür haben wir mehr als 4Mb Videoram ;)
Was ich aber noch viel krasser finde , ist das der GS mit nur 150 getaktet ist . Hm so ein Shrink auf 0.13 bei 300 Mhz mit min.64Mb und Ps1.0 Effekte wäre ja eigentlich ne HART übertriebene Graka ,
für die meine Radeon 8500 wohl weichen müsste. Boah was für ein harter Polycount damit zu holen wäre ... Sind aber nur Gedankenspielerreien ( leider) ;(
Joh also bei 300 Mhz, währen das dann 120Mio Polys, und das sind dann trotzdem weniger als die 127Mio der GF4, also irgendwie auch net so doll wie du denkst.
Ausserdem das mit PS1.0 geht net.
Aber der GS der PS3 soll ja auch 32MB Ram bekommen und noch wesentlich höher getaktet sein, also ich denk einfach mal der wird bei der netten baqndbreite von 48GB/s "etwas" schneller als eine GF4 sein.

Unregistered
2002-09-08, 17:04:28
und afaik ist der Xbox-chip dem GF4 ähnlich sind aber doch nicht identisch ( muss nicht stimmen ).
Würde bei nem Konsolenchip eh mehr Sinn machen das Hauptaugenmerk auf höhere Polyperformance zu setzen , da der Speicher arg begrenzt ist .
Ich mein ja immer noch das der Xboxchip mehr polys shiftet als ne tumbe GF4 ...

Unregistered
2002-09-08, 17:20:18
@blurk
Woher hast du diese Infos bezüglich des PS3 Grafikchips?
Kannste mal ein Link posten ?

Unregistered
2002-09-08, 17:22:12
48 GB Bandbreite ??????
Was zum Teufel haben die denn für Rams verbaut ?

Börk
2002-09-08, 17:31:21
Originally posted by Unregistered
48 GB Bandbreite ??????
Was zum Teufel haben die denn für Rams verbaut ?
Ne sorry sind "nur" 40 GB.
Normaler SDRAM mit ner 1024Bit anbindung.

Börk
2002-09-08, 17:36:57
Originally posted by Unregistered
@blurk
Woher hast du diese Infos bezüglich des PS3 Grafikchips?
Kannste mal ein Link posten ? sind nur spekulationen. die hab ich mal vor 4-5 monaten in amiland gelesen.

ow
2002-09-08, 17:41:31
Originally posted by Unregistered
Ich wollte eigentlich nicht sagen , dass die PS2 ja ach so dolle ist , sondern vielmehr zeigen , dass unsere derzeit gängigen Grakas im Vergleich zur sonstigen Leistung echt etwas Polygonschwach daherkommen.
;(


Das ist ja wohl völliger Unsinn.

Die Polyleistung aller Grakas ist weitaus überdimensioniert und wird nur durch die schwachen Leistungen des Rasterizers (Pixelshader) in Games stark begrenzt.

Was nützt einem Chip der 5-fache Polydurchsatz wenn er nicht schnell genug die Pixel berechnet kriegt? Garnichts.

Quasar
2002-09-08, 17:54:44
Originally posted by Unregistered
Sag mir mal bitte eine Geforce4 die ingame 8-10 m Polys darstellt ...
siehste ! Eine R200 schafft ca. 8 Millionen Polys + Ps1.4 Effekte bei 15 Fps , ne Geforce 4 schafft max. 12 M polys + Ps 1.0 Effekte bei 15 Fps. Also weit entfernt von flüssig .

Codecreatures. Mit GF4 um die dreissig fps, für ein Low-FPS-Games also schon halbwegs flüssig, dabei 12M+ Tris/s, inkl. Pixelshader-Effekten.

ow
2002-09-08, 18:03:24
Meine Gf2MX kommt im Aquamark auf max. etwa 3Mio. Poly/s.
Da sollte eine GF4 auch etwa 10Mio schaffen IMO.

Desti
2002-09-08, 18:24:39
Ich möcht erstmal nen PS2 Benchmark sehen der diese tollen Zahlen beweist.

Pitchfork
2002-09-08, 19:02:50
Originally posted by ow
Meine Gf2MX kommt im Aquamark auf max. etwa 3Mio. Poly/s.
Da sollte eine GF4 auch etwa 10Mio schaffen IMO.

AquaNox/AquaMark benutzt die DX7 TnL Engine nicht, sondern benutzt bei nv1x/r100 Hardware die CPU emulierten Vertex Shader. Ist also vom Polydurchsatz immer durch die CPU begrenzt auf DX7 Hardware.

Unregistered
2002-09-08, 19:41:34
Ja toll ,im Codecreatures bewgt sich ausser dem Lurch kein anderes Lebewesen durch die Landschaft , dann nimm ein paar Charaters dazu und schon haben wir wieder ein Fps_problemchen.

Unregistered
2002-09-08, 19:44:11
Die 127 M polys der GF4 können allein schon nicht stimmen , weil die GF dann fast doppelt so viele umpen würde wie eine Radeon 8500 und das ist zu 100 % nicht so .

Quasar
2002-09-08, 20:21:43
Es geht doch um Polygonleistung und nicht um Animation, Matrix-Skinning, Morphing usw.

Ausserdem bewegen sich Bäume, man selber bewegt sich, das Wasser bewegt sich. Das alles muss transformiert werden..

Klar, wenn du Polygonleistung mit 65536 Instruktionen umfassenden DX9-Shadern meinst, kriegst du nicht allzuviele Polygone transfomiert...

Was die 127M-2 Poly's der GF4 angeht, wo ist dein Problem?

Theoretisch Pumpt sie auch die doppelten Werte und in einigen Tests setzt sich das auch in die "theoretische Praxis" um.

Unregistered
2002-09-08, 20:25:57
Egal lassen wir es ;)

morfeus
2002-09-08, 20:56:00
Sehr interesantes Gespräch, betreffend
Polygonen. Schade dass ich so wenig verstehe.
Man lehrnt aber immer was dazu.;D

DrFreaK666
2002-09-08, 22:13:14
Originally posted by Unregistered
Öhm also ich besite selber eine PS2 das mit den 60 millionen stimm aber nur wenn die polys nackt sind mit textruren und effekten sind dann noch so 8-10Millionen

HAHAHAHAHA

Du bist ja lustig. Seit wann kann die PS2 denn Texturen darstellen????
OK OK, die PS2 kann wirklich riesige MEngen an Polygonen darstellen.
Das ist halt mal wieder das altbekannte Problem, dass PC-Games nicht auf bestimmte Komponenten optimiert werden dürfen...
Aber eine Stärke des PCs sind sicherlich die detailreichen Texturen und hohe Auflösungen. Davon können PS2-Besitzer und co nur von träumen...
SORRY, ist aber war...

Greetz DrFreaK666

LovesuckZ
2002-09-08, 22:16:25
Originally posted by DrFreaK666
Aber eine Stärke des PCs sind sicherlich die detailreichen Texturen und hohe Auflösungen. Davon können PS2-Besitzer und co nur von träumen...
SORRY, ist aber war...


Noe, ist keine Staerke des PC's.
Peinlich ist es aber schon, dass selbst die tote Dreamcast mit ihren Spielen bessere Texturen aufweisen kann als die PS2 ;D

aths
2002-09-08, 22:21:34
Meine Karte schafft ca. 20 Mio Eckpunkte (nicht Polygone) pro Sekunde, also so viel, wie schon eine GeForce2 MX lt. nVidia schaffen sollte.

DrFreaK666
2002-09-08, 22:26:18
Soso.
Detailreiche Texturen sind keine Stärke des PCs...???
Das musst du mir aber genauer erklären.
Man kann durch hochauflösende Texturen auch sehr viel erreichen...
Hab mal irgendwo gelesen, dass Aquanox für die PS2 umgesetzt wird.
Wie soll das denn aussehen??? Immerhin kann man auf dem PC "40MB" an Texturen anschalten...
Und wenn ich an die PS2-Umsetzungen von "UT" oder "Quake3" denke, dann sehen die PC-Versionen schon allein wegen den höher aufgelösten Texturen viel besser aus, oder etwa net???

Greetz DrFreaK666

ow
2002-09-08, 22:34:37
Originally posted by aths
Meine Karte schafft ca. 20 Mio Eckpunkte (nicht Polygone) pro Sekunde, also so viel, wie schon eine GeForce2 MX lt. nVidia schaffen sollte.

??
Wobei?

Also meine Gf2MX macht 17,4Mio. Polys im 3DMark2k1 bei 1 Licht.

Quasar
2002-09-08, 23:03:24
Meine Ti4600 schafft knapp 50 Millionen (grob gerundet) Dreiecke pro Sekunde...

Allerdings nur in gut optimierender Anordnung, mit einem einzigen Licht und ohne Texturoperationen.

Unregistered
2002-09-08, 23:08:20
Originally posted by Unregistered
Wieso bitte wird bei jeder Chipgeneration die Speicherbandbreite bis ins Unermessliche gesteigert , der Polygoncount bleibt jedoch immer recht niedrig , gemessen an den sonstigen Eigenschaften des Chips ?
Es ist unglaublich aber wahr , dass wir selbst mit einer Geforce 4 der PS2 in Bezug auf den Polygoncount hinterherrennen ...
Was bringen denn bitte 128 Mb Vram , Direct X8 , wenn die Spiele sowas von Polygonarm sind ...
Ich glaube , selbst der DC rendert nicht viel weniger Polys als aktuelle Pc - Spiele ( Soul Calibur , Shen mue 2 anyone ?)
Es sollte mal ne Graka rauskommen die da was reißen kann .. P10 ;)???

Wenn es nur so einfach wäre. *gg*

Der Hauptunterschied liegt einfach daran das die Konsolenbauer einfach mit weniger Hardware auskommen.
Im Schnitt bleibt die Konsole ca. 2 Jahre auf dem Markt.
Die Hersteller haben einfach viel mehr Zeit um die Software(Games) auf der Konsole anzupassen.
Auch verändert sich bei den Konsole die Graka CPU so gut wie nie.
Die vorgegebenen Werte bleiben auch im nächsten Built gleich.
Kurz der Software Hersteller optimiert das einmal auf die Kosole und das rennt dann auch wirklich auf alle anderen 1 millionen Stück gleich.
Beim PC ist das nicht der Fall.
Da gibt es 100e Festplatten Unterschiedlicher Grösse und Geschwindigkeit.
100e Rams dann x Mainbordchipsätze etc. von Grafikchips seit Riva 128 mal abgesehen.
Kurz die PC Games Hersteller müssen das alles berücksichtigen.
Denn wie die Hersteller die Games verkaufen wollen, dann müssen auch die die alten PC Systeme berückschitigen.
Berücksichtigen heisst auch wieder das Einsparungen im optischen Bereich gemacht werden müssen.
Freichlich könnten die PC Games Hersteller alles berücksichten, keine Frage, nur dann dauerte es noch länger bis das Game am Markt ist.
Nur hier fehlt dann die Zeit um dieses zu berücksichten.
Wenn das Game dann auf Monate verschoben wird springen die Investoren ab.
Springen die Investosren ab, dann gibt es kein Geld.
Kein Geld heist Laden dicht.
Ergo finito.

Gruss Labberlippe

aths
2002-09-09, 00:37:51
Originally posted by ow
??
Wobei?

Also meine Gf2MX macht 17,4Mio. Polys im 3DMark2k1 bei 1 Licht. Ich glaube, das war der Benmark, der das sagte.

Höhnangst
2002-09-09, 00:48:46
Originally posted by Unregistered
Im Schnitt bleibt die Konsole ca. 2 Jahre auf dem Markt.

Naja, also ne Konsole bleibt im Schnitt schon länger als 2 Jahre am Markt :eyes: :D.

Wie kommste denn ausgerechnet auf den Wert??

Xmas
2002-09-09, 04:05:56
Originally posted by ow
??
Wobei?

Also meine Gf2MX macht 17,4Mio. Polys im 3DMark2k1 bei 1 Licht.
Das macht dann wohl eher deine CPU.



Originally posted by aths
Ich glaube, das war der Benmark, der das sagte.
Recht unwahrscheinlich. Ich habe 12,6 Mio. Polygone, und dein System müsste locker auf mehr als das doppelte kommen.

Außerdem kann man auf einer Ti4600 das Limit von ca. 136 Mio. Dreiecken tatsächlich annähernd erreichen. Und das ist das Triange Setup Limit, das tatsächlich erreichbare Transformationslimit liegt noch höher.

aths
2002-09-09, 07:49:11
Originally posted by Xmas
Recht unwahrscheinlich. Ich habe 12,6 Mio. Polygone, und dein System müsste locker auf mehr als das doppelte kommen.

Außerdem kann man auf einer Ti4600 das Limit von ca. 136 Mio. Dreiecken tatsächlich annähernd erreichen. Und das ist das Triange Setup Limit, das tatsächlich erreichbare Transformationslimit liegt noch höher. Habe noch mal fix gebencht und komme nun auf rund 38 Mio Vertices pro Sekunde.

robbitop
2002-09-09, 08:35:41
zum PS2 Chip:
das waren 40GB/s ...ist aber eDRAM auf dem Chip selbst integriert, aber leider nur 4MB. Danach darf auf den langsamen Hauptspeicher zugegriffen werden.
AFAIK sind es mehr als 1024bit ...es waren 2048bit oder mehr...

ow
2002-09-09, 10:15:10
Originally posted by aths
Ich glaube, das war der Benmark, der das sagte.


Also meine GF2 MX auf Default schafft im Default-Benmark (1024x768x16, fullscreen, HW T&L, ohne Texturen):

20,2MTris/s.


Da sollte deine GF4 aber etwas mehr bringen.

[edit] Mit Texturen exakt derselbe Wert, 20,2MTris/s.

ow
2002-09-09, 10:18:14
Originally posted by Xmas

Das macht dann wohl eher deine CPU.



?? Wieso sollte meine CPU das machen?



Recht unwahrscheinlich. Ich habe 12,6 Mio. Polygone, und dein System müsste locker auf mehr als das doppelte kommen.



Welche Einstellungen beim Benmark benutzt ihr??
Meine Werte siehst du oben.

Mr. Lolman
2002-09-09, 11:24:13
@ow:
Ich würde sagen der default Benchmark ist 1024x768x32 falls ihr 3dm2k1 SE meint.

Aber egal mein XP1500+ @1350 MHz mit meiner ATi 8500 retail (275/550) schafft 35.4 Mio P/sec. (16bit) bei 32bit sinds sogar 36 Mio P/sec..

P.S. ow, falls wir wirklich alle vom 3DM2k1 sprechen muss ich dir sagen, das der Polygontester sowieso keine Texturen benutzt, und deswegen ist es egal, ob du die Texturen einschaltest oder ausschaltest (mit 3dAnalyzer?)

ow
2002-09-09, 11:37:42
Wir sprechen aber nicht vom 3DMark sondern von NVidias "Benmark".

Tests zur Messung der maximalen Polygonleistung dürfen niemals Texturen nutzen.

Mr. Lolman
2002-09-09, 12:30:02
aso,
bei dem hab ich 37.2 MTris/s.

aths score ist wirklich nicht hoch.

Iceman346
2002-09-09, 12:43:44
Beim Benmark schafft meine Radeon 8500 LE 34Millionen Polys/s (250/250 Mhz). Bei 275/270 sinds 37 Millionen.

zeckensack
2002-09-09, 14:40:33
Jedenfalls ein lustiger Thread :D

Wo gibt's denn den Beweis, daß die PS2 ihre 60 Mio auch erreicht? :|

Die Zahl für die Gf4Ti ist übrigens nachgewiesen (trotzdem nicht praxisrelevant, da NULL Pixel dargestellt wurden):
http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/005940.html

ow
2002-09-09, 14:49:47
Originally posted by zeckensack


Die Zahl für die Gf4Ti ist übrigens nachgewiesen (trotzdem nicht praxisrelevant, da NULL Pixel dargestellt wurden):
http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/005940.html


Solche theoretischen Zahlen sind nie praxisrelevant.
Gilt für die Pixelfilrate doch auch.
Die synthetischen Tests arbeiten meist mit 2 Dreiecken, die texturiert werden.
Die theoretische Pixelfillrate wird in keiner realen Applikation auch nur annähernd erreicht.

zeckensack
2002-09-09, 14:56:30
Ich weiß doch =)
Jedenfalls ist eine Gf4Ti4600 einer PS2 damit theoretisch überlegen. Der 'Nachweis' zeigt, daß NV's Paperspecs nicht übertrieben waren.
Wichtig ist jetzt erstmal das:
Originally posted by zeckensack
Wo gibt's denn den Beweis, daß die PS2 ihre 60 Mio auch erreicht? :|Solange das ein theoretischer Peak-Wert ist, ist dieser Thread eigentlich überflüssig ;)

Xmas
2002-09-09, 22:14:00
Originally posted by ow
?? Wieso sollte meine CPU das machen?

Hm, ich dachte der 3DMark2k1 benutzt immer VS.

ow
2002-09-09, 22:48:21
AFAIK wird der VS nur in den high-detail Szenen und im VS-Test genutzt.
Der Polycount kann wohl mit VS oder T&L laufen (Pure HW T&L oder HW T&L, ja nach DX7/8 Graka).

Demirug
2002-09-09, 23:03:23
Pure HW T&L sagt aber nichts darüber aus ob VS oder FF Vertex Processing benutzt wird.

Pure HW ist in spezieler DX Modus der schnellere Codepfade hat. Das muss allerdings vom Treiber unterstützt werden.

KaoS
2002-09-09, 23:15:07
ich hab zwar nich viel ahnung von dem ganzen gelaber, aber dass eine ps2 eine scheissgrafik aufn fernsehschirm kackt seh ich auch so ;). ne mal im ernst: sogar die xbox die theoretisch genauso schöne, oder sogar bessere, spielesequenzen als ein pc hinzaubern könnte, tut das nicht weil die farben einfach blass aussehen; was weiss ich an was dies liegen mag, hab zu hause keine xbox um mir das genauer anschauen zu können.

mfg kaos

ow
2002-09-10, 11:48:43
Originally posted by Demirug
Pure HW T&L sagt aber nichts darüber aus ob VS oder FF Vertex Processing benutzt wird.

Pure HW ist in spezieler DX Modus der schnellere Codepfade hat. Das muss allerdings vom Treiber unterstützt werden.

Hmmm....
AFAIK steht Pure HW T&L aber nur zur Auswahl bei DX8-fähigen Karten wie der GF3/4 und der Radeon8k5/9k7, so dass ich annahm, man bräuchte HW-VS dafür.
Wenn man im 3D-Analyzer 'emulate HW T&L caps' anhakt, dann kann man im 3DMark auch auf DX7 Karten 'Pure HW T&L' auswählen.

Demirug
2002-09-10, 13:25:47
ow:

habs gerade extra nochmal mit einer GF1 und einem T&L Sample (kein VS) auspropiert. Ich bekomme "pure hw vp". In dem Modus ist aber auf einer GF1 keine VS emulation mehr möglich.

ow
2002-09-10, 14:30:14
Was heisst das denn im Klartext für jemanden wie mich, der nicht allzuviel Ahnung hat?


Ich habe mal ein paar Samples des DX8.1 SDK probiert und bekomme entweder (sw vp) oder (hw vp) oder (pure hw vp), je nach Beispiel.

Cull/PointSprites = pure hw vp
DolphinVS/VertexShader = sw vp
VertexBlend = hw vp

Demirug
2002-09-10, 14:52:33
der unterschied zwischen sw und hw dürfte klar sein, oder?

das vertexblend nicht mit "pure hw vp" läuft hängt damit zusammen das dort renderstates zurückgelesen werden. Das ist bei einem "pure" Device nicht erlaubt. Mit ein bischen arbeit könnte man vertexblend auch pure Device tauglich machen

ow
2002-09-10, 16:04:04
Ja, der Unterschied zwischen sw und hw ist klar.

Ich dachte mir das immer so:

sw vp = Software VS bzw. SW T&L
hw vp = HW T&L alà DX7
pure hw vp = Hardware VS

Aber so einfach scheint es wohl nicht zu sein.

Zur VS Emulation auf DX7 Karten wird doch aber nicht die DX7 HW T&L genutzt, oder etwa doch? Das läuft doch alles rein auf der CPU.

Demirug
2002-09-10, 16:36:33
Man unterscheidet bei DX 3 Modies

sw : Alles auf der CPU
hw : Alles auf der Karte
mixed: CPU/Karte

wobei bei mixed die umschaltung zwischen CPU/Karte nur pro Draw Call möglich ist. Man kann also nicht einen Shader zu einem Teil auf der CPU und den rest auf der Karte laufen lassen.

der zusatz "pure" beschreibt nur das das DX und der Treiber in einen spezielen Modus gesetzt werden. Dieser Modus ist in der Regel schneller hat allerdings ein paar Einschräckungen. z.b keine VS Emulation und das rücklessen von Renderstates ist nicht erlaubt.

"Zur VS Emulation auf DX7 Karten wird doch aber nicht die DX7 HW T&L genutzt, oder etwa doch? Das läuft doch alles rein auf der CPU."

wie gesagt ja. Bei DX9 gibt es allerdings einen Trick um zuerst einen Teil von der CPU erledigen zu lassen und dann die FF Pipeline der Karte für den Rest zu benutzten. Ob das allerdings etwas im Bezug auf die Perfomancen bringt hab ich noch nicht getestet.

ow
2002-09-10, 16:51:07
Thx:)
Ich glaube jetzt habe ich es so halbwegs verstanden.

btw. ich hoffe doch, dass das unter OpenGL nicht so kompliziert ist.;)

(Und es stellt sich mir jetzt die Frage, warum das 'pure' in einigen Samples des DXSDK für eine DX7 Karte angeboten wird, im 3DMark jedoch nicht.:D)

[edit] die Frage hat sich geklärt. Ohne die Möglichkeit der VS-Emulation macht 'pure hw device' im 3DMark keinen Sinn.

SERUS
2002-09-11, 18:32:10
Also ich find, dass "Unregistert" mit dem Polyproblem schon recht hat, nicht im Vergleich mitder PS2 sondern allgemein. Zwar reichen die 127 Mio Polys der Geforce 3 mehrmahls um extrem detailierte Bilder zu erzeugen, jedoch sinkt der Wert bei zusätzlichen Befehlen, wie Skinning, Lightning (siehe 3DMark), und Sencil-Shadows so extrem, dass die Geschwindigkeit nichtmehr für (halbwegs) realistische Darstellungen (z.B. Doom 3)reicht. Wieso hat Carmack sonst die Polygonenzahl von Q3 zu D3 nur minimal, falls überhaupt erhöht. Und wie sieht es aus, wenn man den Detailgrad dann noch in Außenlandschaften erreichen will. Dafür braucht man deutlich mehr Polygonenrohleistung als es die aktuellen Chipgenerationen zur verfügung stellen (natürlich ist es im PS auch nicht viel anders :))

Demirug
2002-09-11, 18:46:59
SERUS:

Man darf natürlich nicht vergessen das bei DOOM III jedes dieser Polygone auf einer GF4 im durchschnitt 5 mal gerendert wird. Dazu kommen dann nochmal im durchschnitt 4 durchläufe für die Schattenpolys pro Objekt.

Die R8500 braucht übrigens nur 3/4 durchläufe und die R9700 könnte auf 3/2 kommen wenn JC sie richtig nutzt (davon ist aber IMO auszugehen).

Serus
2002-09-12, 08:56:58
jo genau das mein ich, mit 5fachem rendern jedes Polys geht der Polycount um der Faktor 5 runter. Wäre dieser aber gleich 4 mal so hoch würde der Polycount gleich (der 4Mal Langsameren Graka mit einem Pass) bleiben, also: MEHR POLYS! :)

ow
2002-09-12, 09:15:07
Nein, Serus.

Selbst bei 5-fachem Polycount muss dann jedes Dreieck 5 mal gerendert werden. Das ist der falsche Weg.

Der Rasterizer (Pixelshader) muss besser werden, so dass er jedes Poly nur 1x rendern muss und nicht 5x.

Nur so herum macht das Sinn.

Pitchfork
2002-09-12, 10:57:06
Originally posted by ow
Nein, Serus.

Selbst bei 5-fachem Polycount muss dann jedes Dreieck 5 mal gerendert werden. Das ist der falsche Weg.

Der Rasterizer (Pixelshader) muss besser werden, so dass er jedes Poly nur 1x rendern muss und nicht 5x.

Nur so herum macht das Sinn.

Funzt auch nur begrenzt. Das absolute Minimum ist:

1 Pass für jeden Schattenwerfer (nicht Empfänger) und Lichtquelle
1 Pass für die finale Optik.

Das können schon mal 3-4 Passes bei 2-3 Lichtquellen sein.
Bei Stencilshadows kommen auf jeden Fall noch ein Pass pro Lichtquelle und Schattenempfänger hinzu (und natürlich muß das Shadowvolume 2x gerendert werden, nicht nur einmal, Ausnahme R300).
Dann noch Specialeffects wie Volumetric Fog, Motion Blur, Depth of Field, Lens Flares und was es noch so alles gibt.

Die Tendenz geht momentan dazu, die Anzahl der Passes UND die Komplexität der Shader hochzuschrauben.
Die vier parallelen Rendertargets des R300 helfen etwas, aber nur partiell.

ow
2002-09-12, 11:44:05
Es ging mir eigentlich nur darum zu erklaeren, dass eine Erhoehung der Polygonleistung nicht geeignet ist, die Renderleistung zu erhoehen.

In Spielen limitiert nach wie vor der Rasterizer und nicht die Geometrie-Einheiten eines Chips.

SERUS
2002-09-12, 21:59:15
Danke ow, für die Erläuterung, aber an welchen Eckdaten kann man die Leistung des Rasterizers ablesen? Und wie viele Passes eine Graka für etwas besonderes braucht.
Und noch mal wasd zu dem was ich (falsch)behauptet hab: Mit den 4 Vertexshadern des R300 wird doch die Polyleistung ums 4 fache erhöht (im Vergleich zum R200)und damit doch auch die Anzahl an berechneten Polys (trotz da die Anzahl an benötigten renderingpasses pro Vertexshader gleich bleibt)Kann ein weiterer Vertexshader eigentlich den anderen Renderingpasses abnehmen, oder berechnet er komplett andere Eckpunkte? Also wenn ich schon wieder daneben lieg, dann wäre es nett, wenn mir des einer genau erklärt!!! (thx)

Xmas
2002-09-12, 22:43:26
Originally posted by SERUS
Danke ow, für die Erläuterung, aber an welchen Eckdaten kann man die Leistung des Rasterizers ablesen? Und wie viele Passes eine Graka für etwas besonderes braucht.
Und noch mal wasd zu dem was ich (falsch)behauptet hab: Mit den 4 Vertexshadern des R300 wird doch die Polyleistung ums 4 fache erhöht (im Vergleich zum R200)und damit doch auch die Anzahl an berechneten Polys (trotz da die Anzahl an benötigten renderingpasses pro Vertexshader gleich bleibt)Kann ein weiterer Vertexshader eigentlich den anderen Renderingpasses abnehmen, oder berechnet er komplett andere Eckpunkte? Also wenn ich schon wieder daneben lieg, dann wäre es nett, wenn mir des einer genau erklärt!!! (thx)
Alle VS-Pipelines führen synchron das gleiche Shader-Programm aus, mit unterschiedlichen Vertexdaten. Es wird also immer ein "Viererpack" Eckpunkte gelesen (sofern überhaupt vier oder mehr Eckpunkte gerade "anstehen"), parallel transformiert und in einem Post-Transform-Cache für weitere Verwendung durch den Rasterizer gespeichert. Ein weiterer Pass ist nichts anders als neue Geometrie die "zufällig" Positionsdaten und Normalen mit bereits gerenderten Dreiecken teilt.

SERUS
2002-09-14, 10:33:25
[QUOTE]Originally posted by ow
Es ging mir eigentlich nur darum zu erklaeren, dass eine Erhoehung der Polygonleistung nicht geeignet ist, die Renderleistung zu erhoehen.

In Spielen limitiert nach wie vor der Rasterizer und nicht die Geometrie-Einheiten eines Chips. [/QUOT

So is des aber nur in aktuellen Spielen, weil sich die Entwickler nicht trauen die Engine mit Per-Pixel Lightning und Schatten für alle Objekte (oder anderen VS-Effekten)auszustatten, da sie wissen, dass bei gleicher Polygonenzahl wie z.B in UT2003 das Spiel mit diesen Effekten allemal auf ner R300 spielbar wäre. Deshalb benutzen sie Trix, wie Texturprojektionen oder Cube-Maps um das ganze ähnlich aussehen zu lassen. Nur Doom 3 versucht das alles in Echtzeit zu berechnen und muss deshalb die Polygonenzahl runterschrauben und um das auszugleichen Trix wie Renderbump benutzen. Und schon gilt es als Meilenstein in der Grafikentwicklung :)

Börk
2002-09-14, 14:59:04
Aber ich denke wirklich das der polygon output bei heutigen Graka´s wirklich eher gering ist im vergleich zur füllrate.
Den selbst bei heutigen DX8 games wird nur ein sehr kleiner teil der polys von der graka berechnet, im idealfall sollten es aber alle sein (belehrt mich wenn ich da falsch liege).
Ich denke dass das dann auch das prob bei DOOM3 ist warum die models aus nur so wenigen polygonen bestehen.
Aber mit der GF4 und doppelt ausgelegtem Vertexshader sind die hersteller schon mal in die richtige richtung gegangen. aber das ist natürlich immer noch zu wenig.
Ich denke erst der 4x VS der R300 oder vielleicht erst ein 8x VS werden hier abhilfe schaffen, sodass wirklich runde models berechnet werden können.

zeckensack
2002-09-14, 15:06:28
Doom3 ist das denkbar schlechteste Beispiel was man überhaupt nehmen kann. Die Schattenumrisse werden auf der CPU berechnet, deswegen der geringe Polycount.

Wer meint, ein moderner PC könnte keine Polygone schaufeln, der möge sich doch bitte mal Morrowind oder die UT2003-Demo reinziehen.

ice cool69
2002-09-14, 16:46:45
das sehe ich genauso. auf den polycount eines unreal2 oder y-project kommt kein aktuelles ps2-game heran.

den einzigen vorteil den die ps2 gegenüber einem pc hat sind die 2 (sündhaftteuren) vektoreinheiten.
nur zb der G4 im MAC habt auch sowas.

in der praxis kannste die aber vergesen weil sie...

a) ...zu schwer programmierbar sind und

b) ...meist für sachen wie DTS 6.1 verwendet werden da die vektoreinheiten für den alleinigen gebrauch zur polygonberechnung wohl zu überdimensioniert wären für den rest der hardware...

in meinen augen bringt deie ps2 nicht mehr grafikqualität auf den bildschirm als eine gf4mx mit nem AXP (was der polycount der games angeht). in sachen texturen etc. fällt die ps2 noch viel weiter zurück, so in etwa auf tnt-niveau...

Börk
2002-09-15, 15:03:26
@ zecke
Gut vielleicht haste recht das bei DOOM3 die CPU die schatten übernimmt, aber könnte man des nicht auch die Graka berechnen lassen??? (da hab ich jetzt eigentlich keine ahnung)
Wenn ja wären heutige Graka warscheinlich auch überfordert.
Aber was ich eigentlich gemeint hatte war das ich heutige spiele einfach viel zu polygonarm finde, und das man des eigentlich mit relativ wenigem aufwand andern könnte. Ein guter ansatz dazu ist z.B. Truform allerdings ist für die wirklich sinnvolle nutzung von truform die radeon einfach nicht stark genug in der polygonenleistung.
Nochwas anderes wenn ich mir die benches der Radeon9700 abguck bin ich auch irgedwie entäuscht, 14.x Mio Poly/s gegenüber 12.x Poly/s finde ich irgendwie ein bisschen wenig im vergleich dazu wie z.B. die Bandbreite gesteigert wurde.
Wegen der PS2 also mir is schon klar dass ein PC heute wesentlich mehr polys schaufeln kann, aber es wär auch ziemlich schlecht wenn´s nicht so wär, schließlich is die PS2 schon seit über 2 Jahren draußen. Dafür ist die restliche leistung im verhältniss zur polygonen leistung aber auch wirklich erbärmlich.

Liszca
2002-09-16, 21:24:14
Also ich denke wenn es um polygone geht hat die kyroarchitektur die besten grundvorraussetzungen, achso, und die theoretische fuellrate war bei der schliesslich sehr na an der auf der packung angegebene defered rendering sei dank!

Xmas
2002-09-17, 01:05:34
Originally posted by Liszca
Also ich denke wenn es um polygone geht hat die kyroarchitektur die besten grundvorraussetzungen, achso, und die theoretische fuellrate war bei der schliesslich sehr na an der auf der packung angegebene defered rendering sei dank!
Und was hat das eine mit dem anderen zu tun?
Und ganz im Gegenteil, wenn es um viele kleine Polygone geht wird die Kyro-Architektur immer ineffektiver.

GloomY
2002-09-17, 09:43:19
Originally posted by Xmas

Und was hat das eine mit dem anderen zu tun?
Und ganz im Gegenteil, wenn es um viele kleine Polygone geht wird die Kyro-Architektur immer ineffektiver. Wenn sie kleiner werden, nimmt aber meist die Gesamtanzahl der Poligone zu, was zu höherem Overdraw führt. Das sollte die Effektivität relativ zu den anderen Grakas wieder normalisieren, wenn nicht sogar erhöhen.

ow
2002-09-17, 09:46:25
Originally posted by GloomY
Wenn sie kleiner werden, nimmt aber meist die Gesamtanzahl der Poligone zu, was zu höherem Overdraw führt. Das sollte die Effektivität relativ zu den anderen Grakas wieder normalisieren, wenn nicht sogar erhöhen.


Der Overdraw wird in Anzahl Pixeln gemessen und da ist es egal, ob der durch 1 Polygon oder oder 1000 Polygone erzeugt wird.
Nur wird der Kyro immer ineffizienter bei kleineren und mehr Polys.

Liszca
2002-09-17, 10:39:35
Originally posted by Xmas

Und was hat das eine mit dem anderen zu tun?
Und ganz im Gegenteil, wenn es um viele kleine Polygone geht wird die Kyro-Architektur immer ineffektiver.

Das kann man ja durch mehrere einheiten die den overdraw ueberpruefen sollen beheben (weis gerade nicht wie die heissen)

Xmas
2002-09-17, 18:24:03
Originally posted by Liszca
Das kann man ja durch mehrere einheiten die den overdraw ueberpruefen sollen beheben (weis gerade nicht wie die heissen)
Nein, kann man nicht. Das hat ja nichts mit dem Overdraw zu tun.

Gloomy,
mehr Polygone führen nicht zwangsläufig zu mehr Overdraw. Mehr Objekte tun dies.

Börk
2002-09-18, 14:19:29
Ich denke auch das dies einer der gründe ist das ati und nv keine deferred renderer rausbringen wird weil sie in zukunft einfach nicht mehr so der bringer sein werden im vergleich zum dazu nötigem aufwand.

Pussycat
2002-09-18, 14:35:46
Auch bigt es ein enormes Risiko. (Was, wenns ein Jahr länger dauert das Ganze zu perfektionieren? Bei PVR hat es auch lange gedauert).

NV würde so ein Risiko beim NV30 nie nehmen, da sie während der Planung des Chips noch unschlagbar schienen, ergo: ein neuer Ansatz ist überflüssig.