PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Shader 2.0 zu 3.0


Seiten : 1 [2]

aths
2006-03-01, 22:42:52
Die SM2-Implementierung des R300 war doch aber überall, außer beim Speed minimalistisch und die Bildqualität stimmte auch. SM2 allein brachte doch schon sehr viele Neuerungen ggü 1.x, warum diesen Standard gleich bei der Einführung noch übertreffen, der eine lange "Planungssicherheit" der Spieleentwickler und großartige Effekte gewährleistete? Mit SM3 fallen viele Schranken weg, die SM2 noch hatte. Warum sollte es den Entwickler freuen, Schranken berücksichtigen zu müssen?

Auch da hat ATi der GPU die Features mitgegeben, die für die nähere Zukunft relevant waren und das mit gutem Speed. Mir ist dieser Weg eher sympatisch, aber die schrittweise Einführung neuer Features ist auch wichtig, nur,daß sie nicht gleich als "must have" deklariert werden sollten.Bei allen guten Features die die R420 hat, SM3 bietet die klar besseren Shader-Features.

Gast
2006-03-01, 22:44:20
Das hast du gesagt. ;)

Aber mir ging es nur darum das ein Zusammenhang HDR Rendering und 6800 (NV40) hergestellt wurde.
Ein Leser könnte jetzt annehmen das erst ab NV40 HDR Rendering möglich ist.
Und deshalb spielt die Geschwindigkeit und ob es praktikabel war keine Rolle.

Ist wie mit der 5200.
Sie kann DX9, aber das ist für die Spielepraxis nicht zu gebrauchen.

selbst wenn ein leser das annehmen sollte! so ist es ab der 6800 praktikabel spielbar...

tokugawa
2006-03-01, 22:46:16
Naja doch, wenn der Entwickler keinen SM3 Pfad sondern nur einen SM4 Pfad und einen SM2 Pfad einbaut ist es eine Randnotiz.

Du verstehst es immer noch nicht, weswegen ich langsam glaube dass deine Argumente eher aus der Luft gegriffen sind.

Nochmals: Für Shader Model 3.0 ist gegenüber Shader Model 2.0 kein eigener Codepath nötig. 3.0er Shader laufen mit derselben API wie Shader Model 2.0 (nämlich DirectX 9). Das ist nur eine Profiländerung (die man normal sowieso automatisch abfrägt).

Ich benutze in meiner Engine 2.0er und 3.0er Shader wie ich's brauche. Alles über dasselbe Shader-Management.

Shader Model 3.0 nimmt quasi die Krücke aus Shader Model 2.0 heraus. So einfach ist das.

Somit ist es per se keine Randnotiz, weil SM 3.0 nicht separat gesehen werden kann wie es viele hier tun. SM 3.0 ist die logische Weiterentwicklung von SM 2.0, die es geben muß und besser früher als später, weil dann die nächste Entwicklung kommt, die dann auf Shader Model 3.0 aufbaut.


Die SM2-Implementierung des R300 war doch aber überall, außer beim Speed minimalistisch und die Bildqualität stimmte auch.


Ehrlich, das pure SM 2.0 des R300 stößt schon an Grenzen (64 Instruction Slots im Pixel Shader sind arg wenig). Die Grafikqualität von damals ist nicht mehr vergleichbar mit dem was heute Standard ist.

Natürlich "stimmte" es damals. Aber heute eben nicht mehr. Vor allem nicht wenn ich High-End-Effekte drin haben will, bin ich mit dem puren SM 2.0 des R300 stark eingeschränkt (da haben die 2.0b Erweiterungen der späteren ATIs doch ein wenig was gebracht).

Black-Scorpion
2006-03-01, 22:48:30
Ist man wieder beim Lieblingsthema angekommen?
nVidia kann alles besser, sind die besten und sind die einzigen die richtige GPUs bauen können.

Gast
2006-03-01, 22:49:11
Ich rede aber schon davon was die Karten jetzt kosten. Denn der Normalo der sich jetzt für SM3 oder SM2 interessiet tut dies meistens weil er sich jetzt eine neue Grafikkarte kaufen will.
Du vergisst das es noch die X800XT-PE gab.
Ausserdem ist selbst eine damals erschienene X800XT im Schnitt schon mindestens 10% schneller als eine 6800Ultra...und die X800XT-PE wäre es um mehr als 15%.

falsch! im schnitt schneller würde heißen überall schneller. Mal sachlich bleiben, außerdem hast du vergessen das die 6800UE wohl mindestens genau so schnell wenn nicht schneller als die x800XT-PE war...

Coda
2006-03-01, 22:49:32
Naja du brauchst ja mindestens ein Management für den Code der sich nicht mehr mit einem SM2-Profil kompilieren lässt. Ansonsten bringt dir SM3 ja nicht viel mehr als einen kleinen Speed-Bonus.

Odal
2006-03-01, 22:52:15
Du hast mir noch nicht gesagt, welche Games zwingend SM2.0 vorraussetzen....

Ich könnte mich momentan relativ ruhigen gewissens hier "hinstellen" und das, was Ihr SM3.0 "vorwerft" auf für SM2.0 behaupten.

Wieso SM2.0.....die Game die ich habe laufen auch alle mit PS1.3.
Ergo ist SM2.0 völlig überflüssig und unwichtig...läuft unter PS1.3 sogar alles schneller.


Klar gibt es auch einen Fallback für DX7/DX8 Hardware. Allerdings verpasst man ohne PS2 Hardware derzeit wirklich was anderes auf dem Bildschirm.


Ich bin sogar ehrlich....wenn mich jemand fragen würde, der sich jetzt einen neue Karte kaufen will (und nicht bis zum Herbst warten will), dem würde ich eine SM3.0-Karte empfehlen.
Einfach aus dem Grund, das ich keinen Sinn darin sehe, jetzt noch eine SM2.0-Karte zu kaufen, wenn es mehr als genug und auch performante nicht zu teure SM3.0 Karten gibt....dazu kommt natürlich dann noch, das jetzige SM3.0 Karten meistens auch mehr andere, zusätzliche Features bieten.
Noch ein grund weniger jemanden eine SM2.0 Karte zu empfehlen.


Siehs mal so: Wenn du irgend ein Staubsauger kaufst der ne bessere Saugkraft hat und genausoviel kostet wie einer mit ner schlechteren Saugkraft aber wo es gleich nen Milchaufschäumer dazu gibt den kein Schwein beim Staubsauger braucht und du noch nichtmal Kaffeetrinker bist, kaufst du doch auch nicht letzteres.
Ich kaufe ne Karte danach was sie mir auf den Schirm zaubert und mit wieviel FPS und was sie dabei kostet. Von wenn und aber und würde hätte Features hab ich nichts...die brauch ich nicht...die wünsch ich mir dann vielleicht für meine nächste Grafikkarte.


(Ich gehe jetzt von jemanden aus, der mindesten 300Euro investieren und auch häufiger daddelt.....bei anderen, die Primär am PC arbeiten wollen ist es natürlich durchaus anders)

Für mindestens 300€ stellt sich die Frage ob SM2 oder SM3 garnicht da die Dinger alle SM3 fähig sind. Da kommst du selbst als SM3 hasser der unter keinen Umständen SM3 Support haben will nicht drum rum wenns darum geht eine performante HighEnd Grafikkarte zu kaufen.

tokugawa
2006-03-01, 22:53:10
Ist man wieder beim Lieblingsthema angekommen?
nVidia kann alles besser, sind die besten und sind die einzigen die richtige GPUs bauen können.

Nein das nicht. Ich find das eine Frechheit von dir den kompetenten Leuten im Thread hier eine NVIDIA-Affinität (d.h. Fanboy-Gelaber) zu unterstellen.

Darum geht's außerdem überhaupt nicht, sondern nur darum dass SM 3.0 überhaupt nicht mit dem TnL Hype vergleichbar ist, da SM 3.0 im Gegensatz zu TnL doch einigen Usergruppen (Entwickler, Forscher, Visualisierer, General-Purpose-GPU-Programmierer) einiges gebracht hat.

reunion
2006-03-01, 22:54:07
Dass NV40 neben FP32/FP16 auch SM3* (auf höherem Niveau als R520/580, siehe Vertex Texturing), FP16-fähigen TMUs (was R520/580 und ebenfalls nicht bietet), extra Video-Prozessor, und ALUs die unter anderem eine dedizierte NRM_PP-Unit haben, und unabhängigen Vertexshader-Instruction-Pointer (hat auch R580 noch nicht) und einigen "unnötigen" Transistoren im Chip (funktionsunfähige Tonemapping-Unit, Schaltkreise für zukünftige mobile Versionen) nur 222 Mio Transistoren kostete, während ATIs R420 als doppelter R300 mit minimalen Erweiterungen 160 Mio kostete zeigt, dass Nvidia offenbar aus weniger Transistoren mehr machen kann. Wenn ATI das so nicht schafft, ihr Pech.

* SM3 erforert mehr als die Bereitstellung einiger neue Befehle und FP32-Unterstützung. Zum Beispiel muss das Dependent-Read-Limit fallen. Es müssen auch freie Swizzles unterstützt werden.

Das bestreitet auch keiner, natürlich ist das ihr Pech. Nur ist es eben Blödsinn zu behaupten, dass R520 nur früher hätte kommen müssen.

nV hat da wohl einen 3dfx-Bonus, deren Ingenieure waren schon immer verdammt gut darin, aus wenig viel zu machen. :)

Coda
2006-03-01, 22:57:12
Ist man wieder beim Lieblingsthema angekommen?
nVidia kann alles besser, sind die besten und sind die einzigen die richtige GPUs bauen können. :eek: Jetzt fällt es mir wie Schuppen von den Augen! Du hast recht! Alle Entwickler werden von nVIDIA bestochen!!111 Wie konnte ich das nur all die Jahre übersehen? :rolleyes:

tokugawa
2006-03-01, 22:57:30
Naja du brauchst ja mindestens ein Management für den Code der sich nicht mehr mit einem SM2-Profil kompilieren lässt. Ansonsten bringt dir SM3 ja nicht viel mehr als einen kleinen Speed-Bonus.

Naja, man muß ja an der Engine nicht viel verändern (oder gar nichts), wenn man das Profil eh "automatisch" bezieht (gut, ich verwende D3DX, da gibt's die nette Funktion D3DXGetPixelShaderProfile() und D3DXGetVertexShaderProfile()).

Wenn die Hardware die Shader nicht ausführen kann, muß man das halt managen (etwa über die techniques vom DirectX Effects Format). Aber an der Engine an sich ändert sich zumindest in meiner Erfahrung eher wenig, von dort ist die Schnittstelle zum Shader gleich egal ob es jetzt konkret ein SM 2.0 oder SM 3.0 Shader ist.

Coda
2006-03-01, 22:58:44
Wenn die Hardware die Shader nicht ausführen kann, muß man das halt managen (etwa über die techniques vom DirectX Effects Format). Aber an der Engine an sich ändert sich zumindest in meiner Erfahrung eher wenig, von dort ist die Schnittstelle zum Shader gleich egal ob es jetzt konkret ein SM 2.0 oder SM 3.0 Shader ist.Also bei mir würde SM2 gar nicht erst funktionieren, da ich dynamisch zusammengeklickte Shader hab deren Komplexität leider nicht vorher festgelegt werden kann ;)

Eigentlich muss ich damit das richtig funktioniert sogar irgendwann DX10 benützen.

tokugawa
2006-03-01, 23:01:00
Also bei mir würde SM2 gar nicht erst funktionieren, da ich dynamisch zusammengeklickte Shader hab deren Komplexität leider nicht vorher festgelegt werden kann ;)


Stimmt, das ist ein Feature das ich gern hätte, aber erst einmal ausgelassen hab (Deadline ist zu nah). Ich hab's mir da einfacher gemacht, aber dafür auch weniger flexibel. Aber gut, ich komm ja eigentlich aus dem OpenGL-Lager, und für eine erste DirectX-Engine bin ich eigentlich ganz zufrieden :)

Coda
2006-03-01, 23:02:41
Ganz fies an ATis SM2 finde ich ja immer noch das fehlende static branching in R4xx. Dafür sollte man ihnen nen Roundhouse-Kick in die Fresse verpassen. Das ist ja wohl übel einfach zu machen, wenn ich beim Design von R3xx nicht völlig danebenlieg. Brauchts im Prinzip nur eine Anweisung die den Instruction Pointer verschieben kann je nach Konstantenstatus oder eben nicht.

Black-Scorpion
2006-03-01, 23:04:22
Nein das nicht. Ich find das eine Frechheit von dir den kompetenten Leuten im Thread hier eine NVIDIA-Affinität (d.h. Fanboy-Gelaber) zu unterstellen.

Darum geht's außerdem überhaupt nicht, sondern nur darum dass SM 3.0 überhaupt nicht mit dem TnL Hype vergleichbar ist, da SM 3.0 im Gegensatz zu TnL doch einigen Usergruppen (Entwickler, Forscher, Visualisierer, General-Purpose-GPU-Programmierer) einiges gebracht hat.
Dann schau dir mal die Beiträge von Coda und aths an.
Da wird schon fast Gebetsmühlenartig wieder runtergebetet was nVidia alles hat und was alles besser ist.
Auch das mit dem Thema nichts zu tun.
Das was nVidia nicht hat wird nicht aufgezählt.
Achso stimmt ja, sowas gibt es ja nicht.

Coda
2006-03-01, 23:04:51
Du siehst echt Gespenster ;)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4032919#post4032919

Omg!!!!!!!!111 Teh pr0-ATI-Nerd str1kes b4ack :eek:

tokugawa
2006-03-01, 23:07:37
Dann schau dir mal die Beiträge von Coda und aths an.
Da wird schon fast Gebetsmühlenartig wieder runtergebetet was nVidia alles hat und was alles besser ist.
Auch das mit dem Thema nichts zu tun.
Das was nVidia nicht hat wird nicht aufgezählt.
Achso stimmt ja, sowas gibt es ja nicht.

Hallo? Es geht (ausnahmsweise mal) nicht um NVIDIA vs ATI?

Es geht um SM 3.0.

Hier wird nichts "aufgezählt". NVIDIA hat SM 3.0 nun mal verfügbar gemacht und treibt auch selbst (Forschung) die Entwicklung für SM 3.0 Effekte voran. ATI ist anzurechnen dass sie SM 3.0 nun auch endlich haben.

Aber hier basht keiner ATI. Und niemand lobt hier NVIDIA. Es geht um technische Fakten.

PS: außerdem find ich's witzig, mir NVIDIA-Affinität vorzuwerfen wenn die schnellste Grafikkarte in meinem Besitz eine ATI X1600 Pro ist...

Coda
2006-03-01, 23:08:17
tokugawa, der raucht irgendwas. Vergiss es einfach ;)

Odal
2006-03-01, 23:11:14
Du verstehst es immer noch nicht, weswegen ich langsam glaube dass deine Argumente eher aus der Luft gegriffen sind.

Nochmals: Für Shader Model 3.0 ist gegenüber Shader Model 2.0 kein eigener Codepath nötig. 3.0er Shader laufen mit derselben API wie Shader Model 2.0 (nämlich DirectX 9). Das ist nur eine Profiländerung (die man normal sowieso automatisch abfrägt).

Ich benutze in meiner Engine 2.0er und 3.0er Shader wie ich's brauche. Alles über dasselbe Shader-Management.

Shader Model 3.0 nimmt quasi die Krücke aus Shader Model 2.0 heraus. So einfach ist das.


Nein, ich verstehe genau was du meinst. Du verstehst mich anscheinend nicht. Die MArktdurchdringung von SM2 Karten ist recht gross; richtig? Das heisst man wird in Spielen SM2 Hardware noch eine ganze Weile unterstützen und einen Pfad besitzen welcher auf SM2 Hardware läuft. Kommt nun SM4 für D3D10 ist dafür ein SM4 Pfad notwendig. Es könnte ja durchaus sein das der Spieleentwickler keine Optimierungen einbaut da er die Relevanz nicht sieht (ich denke zwar das es anders sein wird aber das war nur hypothetisch gesprochen). Ich denke nicht das ein einziger Durchlauf eines SM2 Sahderprogrammes durch den Shadercompiler mit dem Target SM3 ausreicht um grossartig Performance rauszuholen. Um wirklich was erreichen zu können muss man da sicherlich schon etwas Hand anlegen.


Ehrlich, das pure SM 2.0 des R300 stößt schon an Grenzen (64 Instruction Slots im Pixel Shader sind arg wenig). Die Grafikqualität von damals ist nicht mehr vergleichbar mit dem was heute Standard ist.
Natürlich "stimmte" es damals. Aber heute eben nicht mehr. Vor allem nicht wenn ich High-End-Effekte drin haben will, bin ich mit dem puren SM 2.0 des R300 stark eingeschränkt (da haben die 2.0b Erweiterungen der späteren ATIs doch ein wenig was gebracht).


Werden denn die 64 Instruktionen bei heutigen Performanceblockbustern ala Fear überhaupt schon annähernd erreicht? Ich glaube nicht, oder doch?

Odal
2006-03-01, 23:15:34
falsch! im schnitt schneller würde heißen überall schneller. Mal sachlich bleiben, außerdem hast du vergessen das die 6800UE wohl mindestens genau so schnell wenn nicht schneller als die x800XT-PE war...

im schnitt schneller soll "Im Durchschnitt schneller" heissen. Und die Ur 6800Ultra war um 25Mhz langsamer getaktet als das spätere Modell. Auf High Quality (also bei ähnlicher BQ) ist sie das nunmal. Das damals beim Release nur auf Quality gebencht wurde steht auf einem anderen Blatt. Wenn ich Mipmap Detail und Texturdetail auf High Performance + anisothrope&trilineare Optimierungen explizit anstelle kann ich ja nochmal was herausholen. ^^

tokugawa
2006-03-01, 23:17:35
Nein, ich verstehe genau was du meinst. Du verstehst mich anscheinend nicht. Die MArktdurchdringung von SM2 Karten ist recht gross; richtig? Das heisst man wird in Spielen SM2 Hardware noch eine ganze Weile unterstützen und einen Pfad besitzen welcher auf SM2 Hardware läuft. Kommt nun SM4 für D3D10 ist dafür ein SM4 Pfad notwendig. Es könnte ja durchaus sein das der Spieleentwickler keine Optimierungen einbaut da er die Relevanz nicht sieht (ich denke zwar das es anders sein wird aber das war nur hypothetisch gesprochen). Ich denke nicht das ein einziger Durchlauf eines SM2 Sahderprogrammes durch den Shadercompiler mit dem Target SM3 ausreicht um grossartig Performance rauszuholen. Um wirklich was erreichen zu können muss man da sicherlich schon etwas Hand anlegen.


Nochmals: für SM 3.0 braucht man keinen eigenen Pfad. Und SM 3.0 erreicht man schon wenn man einen SM 2.0 Shader etwas aufmotzt mit wenigen Handgriffen (etwa wenn man zwei SM 2.0 Shader kombiniert oder ähnliches, kann schon mal ein Shader rauskommen der nur mehr auf SM 3.0 Hardware läuft).

Das ist also überhaupt kein Aufwand, SM 3.0 wird also schon deswegen nicht ausgelassen weil SM 3.0 quasi wie "SM 2.0 ohne die engen Beschränkungen" ist. Man kann quasi das tun was man mit SM 2.0 macht, aber mehr Effekte kombinieren, oder die Effekte selbst aufmöbeln.



Werden denn die 64 Instruktionen bei heutigen Performanceblockbustern ala Fear überhaupt schon annähernd erreicht? Ich glaube nicht, oder doch?

Ich kenne FEAR nicht im Detail, aber ich weiß aus eigener Erfahrung dass die 64 Instruktionen einfach ein Krampf sind, und ich mir oft denke "Mann, was noch möglich wäre wenn er mir noch eine weitere Instruktion gönnen würde".

So geschehen etwa bei einer versuchten Implementierung von Shadowmapping-Softshadows mit vielen PCF-Samples (nach einem NVIDIA-Paper... meine 9500 Pro hat da dann einfach aufgeben müssen, auf meiner FX 5900XT lief's langsam wie sau, und auf der 6600 "ganz ok, wenn auch nicht spektakulär").

"Vielleicht sollte ich nicht so mit High-End-Effekten hantieren" - das denken sich sicher viele Entwickler, skalieren die Effekte runter und bieten dann reduzierte Effekte an die nicht mehr so spektakulär sind wie sie sein könnten oder Artefakte/Inkorrektheiten bieten (etwa Schatten auf Parallax-gemappten Oberflächen, die sich nicht wölbt wie die Oberfläche, sondern ganz glatt drübergelegt wird sodass man sieht dass es eigentlich nur eine glatte Oberfläche ist).

Neomi
2006-03-01, 23:22:17
Werden denn die 64 Instruktionen bei heutigen Performanceblockbustern ala Fear überhaupt schon annähernd erreicht? Ich glaube nicht, oder doch?

Laß dich da mal nicht täuschen. Die 64 arithmetischen Instruktionen eines PixelShader 2.0 ermöglichen keinesfalls 8x so lange Shader wie mit den 8 Instruktionen einen PixelShader 1.3. Die einzelnen Instruktionen haben dafür viel zu stark an Mächtigkeit verloren. 64 Instruktionen sind recht wenig, wenn man nicht einfach nur ältere Effekte 1:1 portiert.

Odal
2006-03-01, 23:27:55
Nochmals: für SM 3.0 braucht man keinen eigenen Pfad. Und SM 3.0 erreicht man schon wenn man einen SM 2.0 Shader etwas aufmotzt mit wenigen Handgriffen (etwa wenn man zwei SM 2.0 Shader kombiniert oder ähnliches, kann schon mal ein Shader rauskommen der nur mehr auf SM 3.0 Hardware läuft).


Das man bei Kombination von 2 SM2 Shadern dzu kommen kann das PS2.0 nicht mehr ausreicht hat ja wohl eher mit dem Instruktionslimit zutun, welches bei PS2.x angehoben ist.
MAn muss für Sachen wie Branching usw. ja wohl HAnd anlegen. Das tut sich ja nicht von alleine. Hier wird einem immer Suggeriert das man einen PS2 Shader nur einmal durch den Shadercompiler jagen muss mit dem SM3 Target und raus kommt ein doppelt so schnell ablaufender SM3 Shader der dann nur auf SM3 Hardware läuft.


Ich kenne FEAR nicht im Detail, aber ich weiß aus eigener Erfahrung dass die 64 Instruktionen einfach ein Krampf sind, und ich mir oft denke "Mann, was noch möglich wäre wenn er mir noch eine weitere Instruktion gönnen würde".


auch in anständiger Performance für ein Spiel für aktueller Hardware?

Neomi
2006-03-01, 23:28:08
Ich kenne FEAR nicht im Detail, aber ich weiß aus eigener Erfahrung dass die 64 Instruktionen einfach ein Krampf sind, und ich mir oft denke "Mann, was noch möglich wäre wenn er mir noch eine weitere Instruktion gönnen würde".

Das kenne ich nur zu gut. Mit 66 Instruktionen wäre ich schon völlig zufrieden... :D

Odal
2006-03-01, 23:33:49
Laß dich da mal nicht täuschen. Die 64 arithmetischen Instruktionen eines PixelShader 2.0 ermöglichen keinesfalls 8x so lange Shader wie mit den 8 Instruktionen einen PixelShader 1.3. Die einzelnen Instruktionen haben dafür viel zu stark an Mächtigkeit verloren. 64 Instruktionen sind recht wenig, wenn man nicht einfach nur ältere Effekte 1:1 portiert.

Ich seh nur das einige Spiele heute schon ziemlich beschissen laufen auf heutiger Highend Hardware. Auch Spiele die sehr viele Shader nutzen aber Augenscheinlich nicht über das 64 Instruktionenlimit hinausreichen...sonst würden sie auf Hardware ala R300 ihren Dienst verweigern. Das man mit SM3 hier und da noch etwas optimieren könnte mag ja sein, nur das tut aktuell keiner (höchstens bei Spielen die noch in der Entwicklung sind). Gross optimieren kann man imho auch nur bei langen Shadern. Wenn deutlich weniger als 64 Instruktionen heutige HighEnd Hardware aber schon so ins schwitzen bringen wie z.b. FEAR was tun dann erst Spiele mit mehr als 64 Instruktionen pro Shader?

tokugawa
2006-03-01, 23:36:18
Das man bei Kombination von 2 SM2 Shadern dzu kommen kann das PS2.0 nicht mehr ausreicht hat ja wohl eher mit dem Instruktionslimit zutun, welches bei PS2.x angehoben ist.


Nicht nur. Was ist wenn du z.B. zwar einen Shadowmap-Lookup-Shader hast, und dann halt einfach z.B. eine variable Anzahl an aktiven Shadowmaps zulässt, und die halt durch einen Loop realisierst. Sowas in der Art. Also nicht nur reine Kombination durch copy-paste, sondern mit bißchen mitdenken.

Oder so wie Coda gemeint hat, das Kombinieren über ein gutes Shader-Management in der Engine (bzw. kann das Cg mit seinen "Shader interfaces" glaub ich auch). Aber da nimmt man sowieso an dass am Schluß ein SM 3.0 Shader rauskommt.


MAn muss für Sachen wie Branching usw. ja wohl HAnd anlegen. Das tut sich ja nicht von alleine.


Muß man beim Kombinieren ja auch (außer man hat ein mächtiges System zur Kombination von Shadern).

Der Aufwand "händisch" ist zumindest pro Shader minimal. Ein SM 3.0 Shader ist einfacher zu schreiben als ein SM 2.0 Shader - denn wie gesagt, SM 3.0 ist wie SM 2.0 nur ohne die engen Beschränkungen. D.h. ein SM 3.0 Shader schreibt sich (gerade in einer high level shading language) wunderschön, während man sich bei SM 2.0 oft nur ärgert.

D.h. auch vom Software-Engineering-Standpunkt aus wäre dieses "Hand anlegen" ein minimaler Aufwand.


Hier wird einem immer Suggeriert das man einen PS2 Shader nur einmal durch den Shadercompiler jagen muss mit dem SM3 Target und raus kommt ein doppelt so schnell ablaufender SM3 Shader der dann nur auf SM3 Hardware läuft.


Das ist was komplett anderes, du verwechselst es. Dieser Speedgewinn hier ist potentiell möglich, hat aber mit oben genannten Upgrade auf SM 3.0 keinen Zusammenhang.

SM 3.0 wird schon allein deswegen keine Randnotiz bleiben weil es einfach in eine vorhandene SM 2.0 Engine integrierbar ist (die 3.0er Shader müssten halt geschrieben werden, aber das ist nicht so ein wahnsinniger Aufwand, speziell mit Tools wie ATI RenderMonkey oder NVIDIA FX Composer).

Gerade mit diesen Tools verlagert sich das Bearbeiten und sogar das Erstellen von Shadern teilweise auf die Artists.

Und da Artists normalerweise eher geringe technische Ahnung haben, haben die mit SM 3.0 einfach mehr Freiheiten.


auch in anständiger Performance für ein Spiel für aktueller Hardware?

Aktuelle High-End-Hardware, ja (im konkreten Fall den ich meine etwa ist das mittelfristige (Testing-)Target eine GeForce 6800, das langfristige eine Radeon X1900 XTX 512).

Außerdem ist meine eigene Hardware-Ausstattung sowieso nicht "High-End":
- GeForce FX 5900 XT auf meiner NVIDIA Maschine "zuhaus"
- ATI Radeon X1600 Pro auf meiner ATI Maschine an meinem "Studienwohnort"
- GeForce Go 6600 im Laptop für unterwegs shader-programmieren

Odal
2006-03-01, 23:47:52
Der Aufwand "händisch" ist zumindest pro Shader minimal. Ein SM 3.0 Shader ist einfacher zu schreiben als ein SM 2.0 Shader - denn wie gesagt, SM 3.0 ist wie SM 2.0 nur ohne die engen Beschränkungen. D.h. ein SM 3.0 Shader schreibt sich (gerade in einer high level shading language) wunderschön, während man sich bei SM 2.0 oft nur ärgert.


Das mag ja alles richtig sein. Der umständliche SM2 Shader muss aber sowieso geschrieben werden, da es eine hohe Marktdurchdringung von SM2 Hardware gibt. Und auch SM2 das Grundgerüst von DX9 darstellt. Es kann sich kein Spieleentwickler leisten SM2 Hardware nicht mehr zu unterstützen solange das Spiel noch irgendwie auf SM2 Hardware leistungsmässig lauffähig wäre.
Da der Performance Gewinn auf Karten dieser gringen leistungsklasse eher marginal wäre das dynamic branching von NV SM3 Karten ziemlich unbrauchbar ist, könnte der Gamedesigner durchaus mit der Überlegung spielen eben nicht extra für die dann alten SM3 Karten zu optimieren sondern einfach einen SM4 Pfad einzubauen der ja wegen D3D10 erforderlich ist wenn SM4 Sachen verwendung finden sollen.

(die 3.0er Shader müssten halt geschrieben werden, aber das ist nicht so ein wahnsinniger Aufwand, speziell mit Tools wie ATI RenderMonkey oder NVIDIA FX Composer).


ja genau das mein ich ja, sie müssen geschrieben werden..auch wenn der Aufwand recht klein ist...aber du weisst ja selber wie schnell eine Graka Generation von einem Entwickler als alt und rückschrittlich abgetan wird.

tokugawa
2006-03-02, 00:27:41
Das mag ja alles richtig sein. Der umständliche SM2 Shader muss aber sowieso geschrieben werden, da es eine hohe Marktdurchdringung von SM2 Hardware gibt. Und auch SM2 das Grundgerüst von DX9 darstellt.


SM2 und SM3 sind beides das Grundgerüst von DX9. Glaub mir, programmiertechnisch gibt's hier keinen Unterschied, außer dass bei Shader Model 3.0 fähiger Hardware der Shader-Compiler sich weniger oft beschwert.



Es kann sich kein Spieleentwickler leisten SM2 Hardware nicht mehr zu unterstützen solange das Spiel noch irgendwie auf SM2 Hardware leistungsmässig lauffähig wäre.


Tja, weil eben gewisse Leute noch so lang SM 2.0 propagiert haben...



Da der Performance Gewinn auf Karten dieser gringen leistungsklasse eher marginal wäre das dynamic branching von NV SM3 Karten ziemlich unbrauchbar ist, könnte der Gamedesigner durchaus mit der Überlegung spielen eben nicht extra für die dann alten SM3 Karten zu optimieren sondern einfach einen SM4 Pfad einzubauen der ja wegen D3D10 erforderlich ist wenn SM4 Sachen verwendung finden sollen.


Shader die die SM4 Features nicht ausreizen wären ja dann sowieso SM 3.0 Shader, wenn ich mich nicht täusche. Ähnlich wie ein 3.0er Shader, der nicht SM 3.0 ausreizt -> der ist dann identisch mit einem SM 2.0 Shader was den Quellcode betrifft.


ja genau das mein ich ja, sie müssen geschrieben werden..auch wenn der Aufwand recht klein ist...aber du weisst ja selber wie schnell eine Graka Generation von einem Entwickler als alt und rückschrittlich abgetan wird.

Schnell? SM 2.0 ist schon extrem lang da. Und dennoch laufen die meisten Spiele noch immer auf SM 1.x. Würde man hier das gleiche Argument wie es die SM-3.0-Gegner hier verwenden anwenden, müsste man sagen: SM 2.0 ist unnütz! Wird ja gar noch nicht vorrausgesetzt!

Was ist also das Argument für SM 2.0? Richtig. Bessere Effekte.

Was ist das Argument für SM 3.0? Richtig. Bessere Effekte.

Warum gibt es noch nicht so viel "bessere Effekte" (in Spielen zumindest, Effekte per se gibt's schon genug) die das Potential von SM 3.0 zeigen? Weil man SM 3.0 noch nicht so viel Zeit gegeben hat wie man es SM 2.0 gegeben hat.


Ich verstehe eben nicht wieso manche beim einen in die eine Richtung ausschlagen und beim anderen (das eigentlich gar nicht so anders ist) in eine komplett andere.

Odal
2006-03-02, 00:59:30
SM2 und SM3 sind beides das Grundgerüst von DX9. Glaub mir, programmiertechnisch gibt's hier keinen Unterschied, außer dass bei Shader Model 3.0 fähiger Hardware der Shader-Compiler sich weniger oft beschwert.


du weisst was ich meine, bei einem Featureset was nicht alle Karten bieten die weit verbreitet sind wird sich häufig auf das kleinste gemeinsame Vielfache geeinigt... Das war schon bei der FX so. Die konnte mehr aber es wurde dennoch kein Nutzen draus gezogen ja schlimmer noch die konnte nichtmal den gemeinsamen Nenner performant darstellen. Erst jetzt wo die FX schon lange im GraKA Himmel ist beginnt man über die Nutzung der erweiterten Möglichkeiten nachzudenken.




Tja, weil eben gewisse Leute noch so lang SM 2.0 propagiert haben...


ja nun das ATI mit dem R420 kein SM3 lieferte und es darum bisher kaum relevanz in SPielen bietet ist zwar ärgerlich aber im Nachhinein nunmal nicht umkehrbar.



Shader die die SM4 Features nicht ausreizen wären ja dann sowieso SM 3.0 Shader, wenn ich mich nicht täusche. Ähnlich wie ein 3.0er Shader, der nicht SM 3.0 ausreizt -> der ist dann identisch mit einem SM 2.0 Shader was den Quellcode betrifft.


ich denke mal da es sich um ein neues DirectX handelt muss auch ein neuer Pfad her wenn man erweiterte Features nutzen möchte. Und das wollen Entwickler, alleine schon um ein Häkchen hinter SM4 Feature benutzt machen zu können.



Schnell? SM 2.0 ist schon extrem lang da. Und dennoch laufen die meisten Spiele noch immer auf SM 1.x. Würde man hier das gleiche Argument wie es die SM-3.0-Gegner hier verwenden anwenden, müsste man sagen: SM 2.0 ist unnütz! Wird ja gar noch nicht vorrausgesetzt!


Es gibt keine SM3 Gegner ich weiss garnicht wo du diese siehst, es gibt lediglich Leute die den Nutzen von SM3 auf bestimmter Hardware zu einer bestimmten Zeit infrage stellen.



Was ist also das Argument für SM 2.0? Richtig. Bessere Effekte.

Was ist das Argument für SM 3.0? Richtig. Bessere Effekte.


Was ist das Argument für SM4? Richtig. Bessere Effekte. Nur mit dem Unterschied das SM2 Hardware ein paar Jahre lang das maximum an Technologie darstellte und SM3 Hardware vielleicht 1 Jahr von den beiden IHVs bereitgestellt wird bevor SM4 kommt.


Warum gibt es noch nicht so viel "bessere Effekte" (in Spielen zumindest, Effekte per se gibt's schon genug) die das Potential von SM 3.0 zeigen? Weil man SM 3.0 noch nicht so viel Zeit gegeben hat wie man es SM 2.0 gegeben hat.


So ist es, nur dumm das SM3 bald schon wieder überholt ist und von SM4 abgelöst wird wo sich dann alle drauf stürzen wollen. Auch wenn SM3 eine Untermenge von SM4 darstellt sind SM4 Shader auf SM3 Hardware nicht mehr lauffähig sobald ein SM4 Feature benutzt wird.


Ich verstehe eben nicht wieso manche beim einen in die eine Richtung ausschlagen und beim anderen (das eigentlich gar nicht so anders ist) in eine komplett andere.

Ich weiss nicht was du meinst.

Gast
2006-03-02, 01:28:53
Weil er keine Gegenargumente hat …? Wer sich gegen tokugawa behaupten will, muss schon bisschen was wissen und nicht nur eine feste Meinung haben, von der er sich unter keinen Umständen abbringen lassen will.
So ein schlechtes Diskussionsniveau habe ich von Dir gar nicht erwartet. Man lernt nie aus – erstaunlich!

aths
2006-03-02, 01:41:33
So ein schlechtes Diskussionsniveau habe ich von Dir gar nicht erwartet. Man lernt nie aus – erstaunlich!Tja, wer bei tokugawa einfach nur seine Meinung wiederholt, anstatt ihm argumentativ zu begegnen und im Notfall sich um eine Antwort drückt indem er behauptet, dass tokugawa unfreundlich gewesen sei, muss sich dann auch die entsprechenden Gedanken dazu gefallen lassen.

Ist man wieder beim Lieblingsthema angekommen?
nVidia kann alles besser, sind die besten und sind die einzigen die richtige GPUs bauen können.Nvidia wurde, nicht nur in diesem Thread, auch kräftig kritisiert, ATI bekommt auch Lob, aber das scheint überlesen zu werden. Dass Nvidia seit NV30 featuremäßig insgesamt, mal mehr, mal weniger, vorne liegt, ist einfach eine Tatsache. Zu den Zeiten vom R200 war es genau andersrum, da war Nvidias NV25 nur ein lauer NV20-Aufguss welcher zudem ein Problem hatte, bei bilinearem AF nur halbe Füllratenleistung zu bringen. ATI war mit Pixelshader 1.4 auf halbem Wege zum Pixelshader 2.0, Nvidia bot mit 1.3 kaum mehr als 1.1. Da gibts auf 3DCenter auch einen Artikel aus jener Zeit, der das scharf kritisiert.

Es ist keineswegs so, dass der NV25 als Ausrutscher zu sehen ist und nun, wo NV die Feature-Führung wieder inne hat, die Welt in Ordnung wäre. Dass es Features alleine nicht bringen, haben NV30 und NV35 eindrucksvoll gezeigt. Außerdem sehe ich keinen Grund, warum NV nicht mal über einen längeren Zeitraum ins Hintertreffen geraten könnten. Im Moment sieht es im Highend-Moment für NV wieder ziemlich dürr aus: Die 7900 enttäuscht, sie bietet zwar gerade für ältere Spiele etwas mehr Leistung, aber die X1900 bietet in allen Spielen mehr Bildqualität durch bessere Texturfilterung (und durch glattere Kanten dank 6x sparse MSAA/AAA. Und das Texturflimmer-Problem hat die Radeon nicht in der Ausprägung wie NV40/G70. Und HDR-Rendering, so es keine HDR-Lightmaps braucht, kann die X1900 performant und in Kombination mit MSAA berechnen. Und es gibt einen 10:10:10:2-Framebuffer mit MSAA-Support. Und das Dynamic Branching im Pixelshader ist um Welten besser gelöst als beim NV40/G70. Und mit 3Dc gibt es eine 2:1-Normalmap-Komprimierung.)

tokugawa
2006-03-02, 02:55:19
du weisst was ich meine, bei einem Featureset was nicht alle Karten bieten die weit verbreitet sind wird sich häufig auf das kleinste gemeinsame Vielfache geeinigt... Das war schon bei der FX so. Die konnte mehr aber es wurde dennoch kein Nutzen draus gezogen ja schlimmer noch die konnte nichtmal den gemeinsamen Nenner performant darstellen. Erst jetzt wo die FX schon lange im GraKA Himmel ist beginnt man über die Nutzung der erweiterten Möglichkeiten nachzudenken.


Also ich hab noch immer eine FX 5900XT...



ja nun das ATI mit dem R420 kein SM3 lieferte und es darum bisher kaum relevanz in SPielen bietet ist zwar ärgerlich aber im Nachhinein nunmal nicht umkehrbar.


Tja...


ich denke mal da es sich um ein neues DirectX handelt muss auch ein neuer Pfad her wenn man erweiterte Features nutzen möchte. Und das wollen Entwickler, alleine schon um ein Häkchen hinter SM4 Feature benutzt machen zu können.


Auf einmal weißt du was Entwickler wollen? Entwickler wollen auch SM 3.0.



Was ist das Argument für SM4? Richtig. Bessere Effekte. Nur mit dem Unterschied das SM2 Hardware ein paar Jahre lang das maximum an Technologie darstellte und SM3 Hardware vielleicht 1 Jahr von den beiden IHVs bereitgestellt wird bevor SM4 kommt.

So ist es, nur dumm das SM3 bald schon wieder überholt ist und von SM4 abgelöst wird wo sich dann alle drauf stürzen wollen. Auch wenn SM3 eine Untermenge von SM4 darstellt sind SM4 Shader auf SM3 Hardware nicht mehr lauffähig sobald ein SM4 Feature benutzt wird.


Genauso mit SM 3.0 und SM 2.0.

Du. Ich glaube langsam verstehst du's. Das ist eine progressive Entwicklung. SM 3.0 ist mit SM 4.0 nicht tot, sondern lebt ja in SM 4.0 weiter, genauso wie es SM 2.0 mit SM 3.0 tut.

Und nochmals


SM3 Hardware vielleicht 1 Jahr von den beiden IHVs bereitgestellt wird bevor SM4 kommt.


Und? Glaubst du dass bei SM 4.0 die Spiele dann schneller eine solche Unterstützung haben werden als bei Einführung der SM 2.0 und SM 3.0 Karten?

Glaubst du wirklich dass mit Einführung von Direct3D 10 und SM 4.0 gleich Spiele rauskommen die das optimal nutzen?

In einem Jahr diskutieren wir vielleicht hier wieder über Sinn und Unsinn von SM 4.0, nur dass SM 3.0 dann den Platz von SM 2.0 heute annimmt und SM 4.0 den Platz von SM 3.0 hier.

SM 3.0 ist ein Zwischenschritt zu SM 4.0.

SM 2.0 ein Zwischenschritt zu SM 3.0.

Und es wird hier nichts ausgelassen. Die Lebensdauer für SM 3.0 ist noch lang genug dass hier was ordentliches gezeigt werden kann und wird.

Tigerchen
2006-03-02, 09:18:39
Tigerchen,

wenn man dich ernst nehmen soll, würde ich vorschlagen dass du auf die blaue Farbe verzichtest. Und dass du Leute, die offensichtlich mehr Ahnung haben, nicht der Lüge bezichtigst. Erst wenn du auf den anderen eingehst, ihm nicht in Argumentationsarmut einfach der Lüge bezichtigst und nicht mehr in blauer Farbe schreibst sondern – wie wir alle – in schwarz, besteht eine Veranlassung deine Postings ernstzunehmen.

Ich habe klar und deutlich und keineswegs "arm" argumentiert. Wer mir "Kappes" an den Kopf wirrft braucht sich über eine entsprechende Antwort nicht zu wundern. Das du deine Wahrheit für die allein selig Machende hälst überrascht mich nicht. So verwundert es kaum daß du jeden Schreiberling unterstützt der auch nur irgendwie gegen mich argumentierst. Wir werden nie Freunde werden und in welcher Farbe ich schreibe geht dich nichts an. Merk dir das mal.

Tigerchen
2006-03-02, 09:35:10
Klar. Deshalb ist es trotzdem noch lange nicht schlecht. Ich bin technisch genügend bewandert um meine Kaufentscheidungen vom Marketing zu entkoppeln ;)

Ich verstehe deinen Standpunkt ja irgendwie, nur leider ist er mir dann doch zu Fortschrittsfeindlich.


MMX ist auch nicht schlecht. Genausowenig wie SM 3.0. Was mich stört sind die Wunderdinge die mit Einführung dieser Dinge versprochen werden. Gerade weil du technisch so bewandert bist wundert es mich daß dir diese Marktschreierei ala "Aal-Jupp vom Hamburger Fischmarkt" keine Kopfschmerzen macht. Dann kauft man sich die neue Technik und wartet auf den Einsatz der tollen neuen Möglichkeiten. Jahrelang! Und dann stellt man fest daß die MMX-CPU oder die SM 3.0 Hardware schon wieder zu veraltet ist um Vorteile aus den neuen Features zu ziehen. Also besser zurücklehnen und das kaufen was einem aktuell am meisten bringt. Und das darf auch ruhig eine nVidia-Karte sein. Denn um ATI/nV gehts mir eigentlich gar nicht.

Und auch mal darüber nachzudenken ob jeder neue technisch korrekte Effekt wirklich einen ästhetischen Vorteil bringt ist sicher auch nicht verkehrt.

Tigerchen
2006-03-02, 09:39:21
HeyHey REBEL MOON RISING läuft nicht ohne MMX! :biggrin:
Wie gesagt intal hat es vorgegeben, keiner hat es genutzt. JETZT IST INTEL SCHULD!

Wann wurde MMX eingeführt und seit wann wird es wirklich genutzt?
Gilt für alle anderen Techniken auch. Vom i386-Modus bis zu X86-64.
Deshalb hab ich mich ja auch bewußt für einen günstigen SingleCore Prozessor entschieden. DualCore ist die Zukunft. Aber leben tu ich heute

Tigerchen
2006-03-02, 09:40:08
Dann ist die FX 5200 ja die Topkarte :)

Das hast du ja oft genug propagiert.

Tigerchen
2006-03-02, 09:57:08
Ich wage da keine Spekulationen. Aber dass beim NV40 dank SM3 seine Rohleistung effizienter eingesetzt werden kann, als hätte er kein SM3, ist fakt. Denn mit SM3 sind komplexe Effekte GPU- und CPU-schonender umsetzbar als mit SM2, erst recht als mit dem Minimalstandard 2.0.

Den nV40 werden also komplexe Effekte dank SM 3.0 nicht überfordern. Wieder so ein Versprechen auf die Zukunft. Diese Art von Verprechen kann ich zum Glück gut einschätzen. Ablage P.

Odal
2006-03-02, 10:05:32
Also ich hab noch immer eine FX 5900XT...


ich auch, du spielst damit aber nicht effektiv neue Spiele, und ich tu das auch schon lange nicht mehr, einfach viel zu langsam...selbst eine 6600GT war mittlerweile viel zu langsam um FEAR usw. brauchbar zu spielen.


Auf einmal weißt du was Entwickler wollen? Entwickler wollen auch SM 3.0.


Joa die haben sie ja jetzt bekommen, aber Spieler bekommen noch nicht wirklich SM3.



Genauso mit SM 3.0 und SM 2.0.


Das SM3 genauso eine Untermenge von SM3 ist weiss ich doch, nur SM2 war viel länger das Technologie maximum beider IHVs am Markt als SM3 es sein wird.


Du. Ich glaube langsam verstehst du's. Das ist eine progressive Entwicklung. SM 3.0 ist mit SM 4.0 nicht tot, sondern lebt ja in SM 4.0 weiter, genauso wie es SM 2.0 mit SM 3.0 tut.


Ja natürlich, aber inwieweit dann wirklich nur SM3 benutzt wird und nicht schon wieder SM4 mit in Spielen benutzt wird, das als Obermenge SM3 jetzt ja bald wieder ablöst stellt sich hier die Frage.


Und? Glaubst du dass bei SM 4.0 die Spiele dann schneller eine solche Unterstützung haben werden als bei Einführung der SM 2.0 und SM 3.0 Karten?
Glaubst du wirklich dass mit Einführung von Direct3D 10 und SM 4.0 gleich Spiele rauskommen die das optimal nutzen?


Nein das glaube ich natürlich nicht das es dann sofort SM4 Spiele geben wird. Was ich aber glaube ist das es dann schneller SM4 Spiele geben wird als es SM3 Spielge gegeben hat/wird. Spieleentwickler haben nunmal erst seit Oktober/November 2005 SM3 Hardware beider IHVs in ihren Rechnern stecken. Deshalb machen sie sich erst dann wirklich Gedanken SM3 sinnvoll einzusetzen. Die Entwicklung von einem Spiel dauert mehrere Jahre. Im Herbst kommt aber schon wieder SM4 was sicherlich noch performantere Möglichkeiten bietet. Ok nun kann man zwar sagen das SM3 ja SM3 ist und auf ATI Hardware genauso abläuft. Das wussten Spielentwickler aber bis Oktober 2005 nicht ob und was mit der neuen R520 Generation alles kommt. Es ist ja so einigen der Unterkiefer runtergefallen als es hiess ATI unterstützt keinen Vertexshader 3 bei SM3 weil dies unklar in der Spezifikation von Microsoft formuliert wurde. Also wird man mehr oder weniger erstmal abgewartet haben bis von beiden wirklich SM3 Hardware verfügbar ist. Das es vielleicht nicht so schwer ist aus den schon voirhandenen SM2 Shadern SM3 Shader zu basteln ist klar und das sich mit etwas Aufwand da noch etwas optimieren lässt. Aber du weisst ja sicher wie es ist ne Deadline zu haben. Da heisst es vom Publisher das muss endlich released werden Hauptsache es läuft. Das heist wir haben ca. 1 Jahr wo der Spieleentwickler wirklich die Hardwareunterstützung hat und weiss was die verfügbare SM3 hardware genau kann und vorallem auch wie schnell sie etwas kann (sehr wichtiger Punkt). Das heist wir sehen 2007 vielleicht das erste mal ne grössere Menge SM3 Titel. Allerdings möchte ich hier bezweifeln das in diesen denn dynamic branching eingesetzt wird, eben weil der Entwickler zwar sieht das dies relativ performant auf der ATI SM3 HArdware ist, bei der NVidia SM3 HArdware aber unter aller Kanone und da muss das Spiel schlieslich auch performant laufen. Kommt jetzt nur drauf an wielange D3D10 und dessen kleinster nenner SM4 state of the art ist, dann könnte man schätzungen abgeben ob nun deutlich mehr SM4 Spiele erscheinen als SM3 Spiele. Bringen eigentlich beide IHVs Ende des Jahres SM4 Hardware? Sicherlich oder da ja D3D10 kommt, dann könnte man glatt behaupten das schneller SM4 Spiele kommen als dies SM3 Spiele taten.


In einem Jahr diskutieren wir vielleicht hier wieder über Sinn und Unsinn von SM 4.0, nur dass SM 3.0 dann den Platz von SM 2.0 heute annimmt und SM 4.0 den Platz von SM 3.0 hier.


Jein, SM2 hat seit DX9 Hardwareunterstützung von Nvidia und von ATI und war somit 3 Jahre das technologische Maximum beider IHVs. SM3 ist 1 Jahr das technologische Maximum beider IHVs. SM3 mag als Technologie und für den Entwickler ein grosser Schritt sein, aber für den Markt sehe ich SM3-only weit weniger wichtig wie SM2.

ShadowXX
2006-03-02, 10:06:59
Das mag ja alles richtig sein. Der umständliche SM2 Shader muss aber sowieso geschrieben werden, da es eine hohe Marktdurchdringung von SM2 Hardware gibt. Und auch SM2 das Grundgerüst von DX9 darstellt. Es kann sich kein Spieleentwickler leisten SM2 Hardware nicht mehr zu unterstützen solange das Spiel noch irgendwie auf SM2 Hardware leistungsmässig lauffähig wäre.
Da der Performance Gewinn auf Karten dieser gringen leistungsklasse eher marginal wäre das dynamic branching von NV SM3 Karten ziemlich unbrauchbar ist, könnte der Gamedesigner durchaus mit der Überlegung spielen eben nicht extra für die dann alten SM3 Karten zu optimieren sondern einfach einen SM4 Pfad einzubauen der ja wegen D3D10 erforderlich ist wenn SM4 Sachen verwendung finden sollen.


Du darfst nicht vergessen, das SM4.0 nur in Zusammenhang mit D3D10 und damit im zusammenhang mit Windows Vista benutzt werden kann (OGL vernachlässige ich jetzt mal).

Da die Entwickler absolut nicht davon ausgehen können, das sofort alle auf Windows Vista und dazu noch D3D10-Fähige-Grakas umsteigen werden (das wird IMHO insgesamt länger dauern als der PS1.3 zu PS2.0 umstieg, der ca. 2 Jahre benötigte), wird DX9 mit seinem Shader 3.0 als höchstes Featureset wohl noch etwas länger das "Non-Plus-Ultra" (was der Devs mit guten gewissen einbauen kann, den eine D3D10-Karte kann ja definitiv das gesamte Featureset von SM3.0) darstellen.

Es wird wohl so sein, das viele XP mit einen SM4.0 Karte betreiben, aber dadurch nur SM3.0 benutzen können, genauso wie viele Vista mit einer SM3.0 Karte betreiben werden, die dann wiederum ebenfalls nur SM3.0 kann.

Nur beim zusammentreffen beider Faktoren Vista & SM4.0 Karte, kann SM4.0 eingesetzt werden....es müssen also 2 Faktoren passen.
Bei SM3.0 muss nur ein Faktor passen...man muss eine SM3.0-Fähige Karte haben....
Und gerade ein OS-Wechsel vollzieht sich meist eher schleppend.

Klar wird es ab und zu mal nen Game geben, welches einen eigenen D3D10-Pfad mitbringt, aber dann eher in der Art wie bei SM3.0 jetzt.

Tigerchen
2006-03-02, 10:09:06
Außerdem: wieso beschimpft niemand SM 2.0? Es ist doch unbestritten dass SM 2.0 was gebracht hat. Und SM 3.0 ist halt wie SM 2.0, nur mächtiger und weniger beschränkt.

Und SM 2.0 Spiele gab's auch nicht sofort.



Die 9700 Pro die ich damals kaufte beschleunigte meine aktuelle Software enorm. Das war mir wichtig. Daß sie dann nach 1-2 Jahren auch noch SM 2.0 Spiele so flott darstellte war kein Kaufargument sondern eine faustdicke positive Überraschung.

ShadowXX
2006-03-02, 10:12:09
Die 9700 Pro die ich damals kaufte beschleunigte meine aktuelle Software enorm. Das war mir wichtig. Daß sie dann nach 1-2 Jahren auch noch SM 2.0 Spiele so flott darstellte war kein Kaufargument sondern eine faustdicke positive Überraschung.


Du wirst es vielleicht nicht glauben, aber das tat meine 6800Ultra auch....und das obwohl Sie eine pöse SM3.0-Karte war.....

Und selbst wenn diese nun SM3.0 nur zum "angucken" bereitstellen würde, wäre dies nicht weiter schlimm, da Sie auch unter SM2.0 schnell genug ist (ich aber mir SM3.0 Effekte wenigstens mal angucken könnte bzw. von anderen Features profitiert habe).

Tigerchen
2006-03-02, 10:14:13
Sowas in der Art:


An Toplevel-DAUs: Kauft bitte keine Grafikkarten. Werdet Bienenzüchter.

An Normal-DAUs: SM 3.0 ist heute kein Must-Have-Feature für Gamer, aber sicher auch kein schlechtes Feature, da mit SM 3.0 Karten oftmals andere Features auch mit dabei sind, die bei den SM 2.0 Karten noch fehlen. Kaufentscheidung hängt von der persönlichen Präferenz (auch in Bezug auf Spielen) ab sowie vom Budget: Allgemeinaussagen kann man daher nicht treffen. Aber auch eine X800/X850 ist heute sicher noch kein Alteisen.

An Interessierte: SM 3.0 und SM 2.0 sind keine "verschiedenen" Dinge. Die beiden gehören zusammen. SM 3.0 ist wie SM 2.0, nur ohne die engen Beschränkungen und Limitierungen. Wenn SM 2.0 was gebracht hat gegenüber SM 1.x, warum sollte es SM 3.0 nicht auch tun? Und warum gibt man SM 3.0 nicht mal die Hälfte der Zeit, die SM 2.0 gebraucht hat um salonfähig zu werden? Und selbst heute brauchen nur eine Handvoll Spiele wirklich SM 2.0. Ist SM 2.0 deswegen "unnütz"?

Akzeptiert. Friedenspfeife?

Odal
2006-03-02, 10:29:28
Du darfst nicht vergessen, das SM4.0 nur in Zusammenhang mit D3D10 und damit im zusammenhang mit Windows Vista benutzt werden kann (OGL vernachlässige ich jetzt mal).

Da die Entwickler absolut nicht davon ausgehen können, das sofort alle auf Windows Vista und dazu noch D3D10-Fähige-Grakas umsteigen werden (das wird IMHO insgesamt länger dauern als der PS1.3 zu PS2.0 umstieg, der ca. 2 Jahre benötigte), wird DX9 mit seinem Shader 3.0 als höchstes Featureset wohl noch etwas länger das "Non-Plus-Ultra" (was der Devs mit guten gewissen einbauen kann, den eine D3D10-Karte kann ja definitiv das gesamte Featureset von SM3.0) darstellen.

Es wird wohl so sein, das viele XP mit einen SM4.0 Karte betreiben, aber dadurch nur SM3.0 benutzen können, genauso wie viele Vista mit einer SM3.0 Karte betreiben werden, die dann wiederum ebenfalls nur SM3.0 kann.

Nur beim zusammentreffen beider Faktoren Vista & SM4.0 Karte, kann SM4.0 eingesetzt werden....es müssen also 2 Faktoren passen.
Bei SM3.0 muss nur ein Faktor passen...man muss eine SM3.0-Fähige Karte haben....
Und gerade ein OS-Wechsel vollzieht sich meist eher schleppend.

Klar wird es ab und zu mal nen Game geben, welches einen eigenen D3D10-Pfad mitbringt, aber dann eher in der Art wie bei SM3.0 jetzt.

Man kann sich natürlich auch die Sachen zurecht biegen wie man sie gern hätte. Windows Vista und Nachfolger mit TCPA ist doch das was der Spieleentwickler endlich will. Einen halbwegs sicheren bald Hardware unterstützten Kopierschutz. Du glaubst nicht wie schnell viele von Win98 und WinMe auf WindowsXP umgestiegen sind als das rauskam, genauso werden sich viele ganz schnell auf Vista stürzen ganz besonders wenn sie nur dann nur da richtige Unterstützung für ihre Hardware bekommen. Natürlich braucht man erst ne SM4 Karte um das dann nutzen zu können, aber das ist bei SM3 nicht anders. Spiele werden natürlich alle noch einen alten DX9 Pfad anbieten und bei der hohen verbreitung von SM2 only Karten könnte es durchaus sein das man für den DX9 Pfad SM2 als kleinstes gemeinsame Mögliche nimmt (ähnlich dem DX7 Modus bei Cod2 oder HL2 etc.) und sich nicht weiter grossartig um Optimierungen kümmert da das eh alte HArdware ist die nicht so schnell ist, da wird dann eben so optimiert das Details weggelassen werden und gut ist.

Tigerchen
2006-03-02, 10:30:46
Du wirst es vielleicht nicht glauben, aber das tat meine 6800Ultra auch....und das obwohl Sie eine pöse SM3.0-Karte war.....

Und selbst wenn diese nun SM3.0 nur zum "angucken" bereitstellen würde, wäre dies nicht weiter schlimm, da Sie auch unter SM2.0 schnell genug ist (ich aber mir SM3.0 Effekte wenigstens mal angucken könnte bzw. von anderen Features profitiert habe).

Wenn deine persönlichen Bedürfnisse erfüllt wurden hast du alles richtig gemacht.

Gast
2006-03-02, 11:39:56
weniger = mehr!? dann schlage ich dir die letzte ehrliche Nvidia Karte vor... die GF4MX... viel spass.

glaubs oder lass es, die gf52 raucht sie immer noch in der pfeife

Gast
2006-03-02, 11:52:20
Korrekt. So ist es. Möchte noch "MMX" hinzufügen. Auch sowas was man einst unbedingt und sofort brauchte........


mit mmx wurde pod/16bit beworben, allerdings hab ich noch nicht DAS t&l spiel oder das 3dnow (pro)-spiel gesehen. Hat SC3 nicht SSE-Zwang?
ich mit meinem 3dnow pro werd stinksauer, wenn sowas vorkommt, wg. sowas cpu tauschen

Coda
2006-03-02, 11:57:07
Die Unreal Engine 2 war eine Hardware-Transform-Killerapp, nur leider war das schon zu DX8-Zeiten weshalb es kaum mehr auffiel.

Das L in T&L wurde in Spielen soweit ich weiß eh nie benützt, das war aber auch vorherzusehen. Das wurde vor allem für die professionellen Karten (Quadro, FireGL) implementiert...

Hydrogen_Snake
2006-03-02, 12:03:04
Wann wurde MMX eingeführt und seit wann wird es wirklich genutzt?
Gilt für alle anderen Techniken auch. Vom i386-Modus bis zu X86-64.
Deshalb hab ich mich ja auch bewußt für einen günstigen SingleCore Prozessor entschieden. DualCore ist die Zukunft. Aber leben tu ich heute


demnach fährst du immer noch nen 2er golf, und zwar von kauf an bis zum eigenen exitus oder?

Wow weg mit farbfernsehen und stereo...

Was hast du erwartet das sich jeder sofort auf mmx schmeißt? soweit ich weis haben '97 bzw '98 bereits grafikbearbeitungsanwendung alá ps oder psp sowie 3dsmax mmx damals schon unterstützt.

aber dir bringt das ganze natürlich nichts, nur bist du unbedeutend und nicht der richtigen branche tätig um das einschätzen zu können.

Hydrogen_Snake
2006-03-02, 12:07:59
glaubs oder lass es, die gf52 raucht sie immer noch in der pfeife

Juckts mich, das du den punkt der aussage nicht verstanden hast?

Hydrogen_Snake
2006-03-02, 12:16:54
Die Unreal Engine 2 war eine Hardware-Transform-Killerapp, nur leider war das schon zu DX8-Zeiten weshalb es kaum mehr auffiel.

Das L in T&L wurde in Spielen soweit ich weiß eh nie benützt, das war aber auch vorherzusehen. Das wurde vor allem für die professionellen Karten (Quadro, FireGL) implementiert...

Ich meine das die Beleuchtung in MDK2 wesentlich besser ausgesehen hat und wesentlich schneller ging mit T& L als ohne dem Lighting, also mit mehr lichtquellen, der ja bis zu 8 lichtquellen undabhängig in hardware berechnete.

außerdem wurden ja "subtractive lights" unterstützt das bei Evolva für einige effekte genutzt wurde.

Coda
2006-03-02, 12:22:10
Ich kenne die beiden Spiele nicht. Anscheinend gibt es doch ein paar wenige Ausnahmen...

Hydrogen_Snake
2006-03-02, 12:23:42
Ich kenne die beiden Spiele nicht. Anscheinend gibt es doch ein paar wenige Ausnahmen...

Da gibt es sogar noch mehr, das waren aber so die Vorzeigeprodukte die damals mit dem GeForce teilweise GeForce 2 "gelauncht" wurden.

Aquaschaf
2006-03-02, 13:42:07
Das hast du ja oft genug propagiert.


Zitiere mal bitte einem Beitrag in dem ich das nachlesen kann. Ich finde irgendwie keinen.

Gast
2006-03-02, 13:50:26
wobei die gf2 gar nicht alles von evolva darstellen (kein embm) konnte, was natürlich gekonnt verheimlicht wurde, weil es die einzige dx7 karte ohne war
.bm war früher ja eher als embm bekannt, dot3 gabs nur in giants.
welches vergleichbare shadermodell haben eigentlich gamecube und ps2, das muß doch einer wissen, auf gc+ps2 gibts jedenfalls heathaze, fur. Ab wann geht Fur?

Spasstiger
2006-03-02, 15:08:40
welches vergleichbare shadermodell haben eigentlich gamecube und ps2, das muß doch einer wissen, auf gc+ps2 gibts jedenfalls heathaze, fur. Ab wann geht Fur?
Auf dem GC in Starfox Adventures gibts ja z.b. Fur. Der Effekt dort erinnert stark an eine Techdemo, die für Radeon 8500 Karten geschrieben wurde. Da der Grafikchip im GC auch von ATI stammt, liegt die Vermutung nahe, dass der GC-Grafikchip technologisch auf einem ähnlichen Level liegt wie die Radeon 8500.
Der Grafikchip der PS2 besitzt keine programmierbaren Pixeleinheiten (und kann afaik generell keine Per-Pixel-Berechnungen durchführen), Felleffekte werden dort vermutlich mit Partikeln umgesetzt.

Coda
2006-03-02, 15:16:01
Ab wann geht Fur?Für Fur braucht man keine Shader.

Da der Grafikchip im GC auch von ATI stammt, liegt die Vermutung nahe, dass der GC-Grafikchip technologisch auf einem ähnlichen Level liegt wie die Radeon 8500.Nope. Das Ding ist ein ArtX-Design und hat mit ATi nichts zu tun. Das Ding hat spezielle TEV-Combiner (sowas gabs auf dem PC gar nie) und ist bei weitem nicht so fortschrittlich wie ein R200. Btw. hat auch R300 nichts mit dem Flipper-Design zu tun...

Der Grafikchip der PS2 besitzt keine programmierbaren Pixeleinheiten (und kann afaik generell keine Per-Pixel-Berechnungen durchführen), Felleffekte werden dort vermutlich mit Partikeln umgesetzt.Och bitte, das tut ja schon weh...

aths
2006-03-02, 15:38:09
Und es wird hier nichts ausgelassen. Die Lebensdauer für SM 3.0 ist noch lang genug dass hier was ordentliches gezeigt werden kann und wird.Genau: Da die SM3-Specs recht großzügig sind, halten sie als Standard auch einigermaßen, wenn die Rohleistung sich vervielfältigt hat. So wie jede verfügbare SM3-Karte eine exzellente SM2-Karte ist, wird jede D3D10-Karte auch eine hervorragende SM3-Karte sein. Man sollte SM3 nicht länger nutzen, als nötig, nur so lange, wie möglich. Einfache Effekte, die nur SM2 brauchen, werden heute noch soweit ich weiß als SM2-Shader realisiert. Aber du hast es schon angesprochen: In HLSL bekommt man beim 2_0-Target ganz schnell Fehlermeldungen, weil das mit dem 2_0-Profil nicht realisierbar ist, während man beim 3_0-Target noch komplexe Sachen übersetzen kann.

Xmas hat für seine Diplomarbeit einige Shader zunächst für seine Radeon 9800 geschrieben, und sich für bestimmte Effekte meine 6600 GT AGP ausgeborgt – weil die mehr kann. (2_A und eben auch 3_0, ich glaube tatsächlich genutzt hat er nur 2_A.)



[COLOR="#000099"]Wir werden nie Freunde werden und in welcher Farbe ich schreibe geht dich nichts an. Merk dir das mal.In welcher Farbe du schreibst, geht jeden was an. Du tanzt als einziger mit deiner Postingfarbe permanent aus der Reihe und ziehst so Aufmerksamkeit auf dich. Das ist schlicht unerzogen. Solange du nicht verstehst, warum sich jeder an den Font-Standard inkl. Schriftart, -Größe und -Farbe halten sollte, ist eine Diskussion mit dir in meinen Augen ohnehin sinnlos. Das hat nichts mit Freunde werden zu tun. Ich habe schon sehr interessante Diskussionen mit Leuten geführt, die ich lange nicht als Freund einstufen würde.

Zum schnellen Auffinden eigener Postings kann man seinen Avatar und/oder die Suchfunktion nutzen.

aths
2006-03-02, 15:43:47
[COLOR="#000099"]
Den nV40 werden also komplexe Effekte dank SM 3.0 nicht überfordern. Wieder so ein Versprechen auf die Zukunft. Diese Art von Verprechen kann ich zum Glück gut einschätzen. Ablage P.In Ablage P kommt bei dir offenbar das Verstehen der Verwendung von Wörtern. Ich habe nirgends gesagt, dass der NV40 dank SM3 durch komplexe Effekte nicht überfordert wurde. Das interpretierst du nur mutwillig rein. Der NV40 ist singlepass auch mit SM2.0, und mit Multipass auch mit DirectX6 schnell überfordert zu bekommen.

Spasstiger
2006-03-02, 15:51:36
Och bitte, das tut ja schon weh...
Warum, stimmt das nicht? Wenn die PS2 per-pixel-Berechnungen im Sinne von Pixelshadern durchführen könnte, müsste man das ja in irgendeinem Spiel sehen können.
Und die Leistung der PS2 beim Berechnen von Partikeln soll ja sehr gut sein in Anbetracht ihres Alters.

Coda
2006-03-02, 15:57:00
Also erstmal: Sie kann. Sie hat zwar leider keinen DOT3-Combiner, aber der lässt sich aus Muls und Adds zusammenbauen, da das Ding recht schnell im Rasterizing ist (immerhin damals schon 16 Pipelines).

Zweitens: Fur hat man traditionell mit mehreren Polygonlagen implementiert und nicht als Per-Pixel-Effekt. Natürlich will ich nicht ausschließen dass man da heutzutage zusätzlich noch rumrechnet, aber im Prinzip ist es selbst in DX10 noch so dass der Geometry-Shader dann aus den Polygonen die zusätzliche Haar-Polygone berechnet.

Tigerchen
2006-03-02, 16:14:11
demnach fährst du immer noch nen 2er golf, und zwar von kauf an bis zum eigenen exitus oder?

Wow weg mit farbfernsehen und stereo...

Was hast du erwartet das sich jeder sofort auf mmx schmeißt? soweit ich weis haben '97 bzw '98 bereits grafikbearbeitungsanwendung alá ps oder psp sowie 3dsmax mmx damals schon unterstützt.

aber dir bringt das ganze natürlich nichts, nur bist du unbedeutend und nicht der richtigen branche tätig um das einschätzen zu können.

Du verstehst mich einfach nicht. Vielleicht willst du das auch gar nicht. Schade.

Tigerchen
2006-03-02, 16:16:54
Zitiere mal bitte einem Beitrag in dem ich das nachlesen kann. Ich finde irgendwie keinen.

Wenn man sich nicht erinnern will....Dein Problem.

Tigerchen
2006-03-02, 16:19:19
In Ablage P kommt bei dir offenbar die Verwendung von Wörtern. Ich habe nirgends gesagt, dass der NV40 dank SM3 durch komplexe Effekte nicht überfordert wurde. Das interpretierst du nur mutwillig rein. Der NV40 ist singlepass auch mit SM2.0, und mit Multipass auch mit DirectX6 schnell überfordert zu bekommen.

Gut das wir das geklärt haben. Dein Posting konnte man nämlich auch gut anders verstehen.

Coda
2006-03-02, 16:21:55
Tigerchen, wärs nicht besser wenn du das in einen Post reineditierst?
Btw. glaube ich nicht dass sich Aths jemals so über die FX 5200 geäußert hat wie du es hier darstellst.

aths
2006-03-02, 16:24:31
ich auch, du spielst damit aber nicht effektiv neue Spiele, und ich tu das auch schon lange nicht mehr, einfach viel zu langsam...selbst eine 6600GT war mittlerweile viel zu langsam um FEAR usw. brauchbar zu spielen.Trotzdem halte ich – vom AF allerdings abgesehen, das möchte ich gleich eingangs gesagt haben – die 6600 GT für eine sehr gute Karte, die hervorragend in ihre Zeit passte. Was vormals Highend war (FX 5950 Ultra, Radeon 9800 XT) wird von der 6600 GT versägt – jedenfalls in modernen Spielen, in älteren Spielen ist die Radeon gelegentlich schneller, die 6600 GT aber noch immer schnell genug. Nebenbei bietet die 6600 auch SM3. Man wird die 6600 GT kaum wegen SM3 kaufen, es sei denn, man ist Entwickler. Spieler sehen bei der 6600 GT das Preisleistungsverhältnis.

Trotzdem finde ich es sinnvoll und richtig, auch Nicht-Highend-Karten so früh wie möglich mit SM3 auszustatten, weil damit effizienteres Rendering möglich ist. Die Rohleistung kann dann bei komplexen Effekten, also gerade dann wenn die Karte ohnehin viel zu tun hat, effizienter in fps umgesetzt werden. Außerdem bietet SM3 gute Möglichkeiten, Effekte innerhalb desselben Shaders zu skalieren. Leistungsschwächere Karten zeigen dann nicht alle Effekte oder nicht den gleichen Detailgrad, aber sind eben auch nicht an die SM2-Limits gebunden.

Tigerchen
2006-03-02, 16:25:33
In welcher Farbe du schreibst, geht jeden was an. Du tanzt als einziger mit deiner Postingfarbe permanent aus der Reihe und ziehst so Aufmerksamkeit auf dich. Das ist schlicht unerzogen. Solange du nicht verstehst, warum sich jeder an den Font-Standard inkl. Schriftart, -Größe und -Farbe halten sollte, ist eine Diskussion mit dir in meinen Augen ohnehin sinnlos. Das hat nichts mit Freunde werden zu tun. Ich habe schon sehr interessante Diskussionen mit Leuten geführt, die ich lange nicht als Freund einstufen würde.


Unerzogen sind allenfalls solche Forderungen. Für was hälst du dich? Den lieben Gott? Es gibt keine Forumsregeln die eine Gleichschaltung bei Schriftart, Größe oder Farbe vorschreiben. Vielleicht kannst du Leo ja für solche rechten Forderungen gewinnen. Ich hab da allerdings meine Zweifel.

Tigerchen
2006-03-02, 16:27:40
Tigerchen, wärs nicht besser wenn du das in einen Post reineditierst?
Btw. glaube ich nicht dass sich Aths jemals so über die FX 5200 geäußert hat wie du es hier darstellst.

aths und auch Lovesuckz Bemerkungen über die 5200 und ihre großen technischen Innovationen sind mir unvergeßlich. Die 5200 als Motor des technischen Fortschritts! So wurde das dargestellt.

aths
2006-03-02, 16:29:56
Nein das glaube ich natürlich nicht das es dann sofort SM4 Spiele geben wird. Was ich aber glaube ist das es dann schneller SM4 Spiele geben wird als es SM3 Spielge gegeben hat/wird. Spieleentwickler haben nunmal erst seit Oktober/November 2005 SM3 Hardware beider IHVs in ihren Rechnern stecken. Deshalb machen sie sich erst dann wirklich Gedanken SM3 sinnvoll einzusetzen.Die SM3-Spec war im wesentlichen schon bekannt, als die Radeon 9700 rauskam. Die FX-Serie bot auf 2.x-Basis bereits vieles Richtung SM3. Richtige SM3-Karten gibts seit dem NV40, entsprechend wird seitdem auch auf SM3-HW entwickelt. Allerdings steigt die Bereitschaft des Publishers, Geld für "SM3-Effekte" zur Verfügung zu stellen erst bei einer entsprechenden installierten Hardware-Basis, der Publisher will erst mal das SM1- und SM2-Techlevel genutzt wissen. Mit und auf SM3 entwickelt wird schon lange – nur sehen wir die Früchte nicht gleich 6 Monate später. SM3 hat auch Bedeutung über die 3D-Spiele-Entwicklung hinaus. Wer hier sagt: "Das interessiert mich als Gamer nicht" kann das gerne so sehen, aber die Spiele-Entwicklung existiert ja nicht abgeschottet für sich allein.

Coda
2006-03-02, 16:32:31
aths und auch Lovesuckz Bemerkungen über die 5200 und ihre großen technischen Innovationen sind mir unvergeßlich. Die 5200 als Motor des technischen Fortschritts! So wurde das dargestellt.Man konnte ja kaum abschätzen wie mies die FX wirklich in Float-Shadern ist ;)

Gast
2006-03-02, 16:41:05
aths und auch Lovesuckz Bemerkungen über die 5200 und ihre großen technischen Innovationen sind mir unvergeßlich. Die 5200 als Motor des technischen Fortschritts! So wurde das dargestellt.


Was? Rofl!

Spasstiger
2006-03-02, 16:44:29
aths und auch Lovesuckz Bemerkungen über die 5200 und ihre großen technischen Innovationen sind mir unvergeßlich. Die 5200 als Motor des technischen Fortschritts! So wurde das dargestellt.

Mit der 5200 konnte ein 3D-Programmierer mehr anfangen als mit einer Radeon 9800 XT. Das ist Fakt.

aths
2006-03-02, 16:45:19
[COLOR="#000099"]
Gut das wir das geklärt haben. Dein Posting konnte man nämlich auch gut anders verstehen.Wenn man es nur flüchtig liest, dann ja.

[COLOR="#000099"]
Wenn man sich nicht erinnern will....Dein Problem.Wenn man seine Behauptungen nicht belegen kann … das ist imo das größere Problem. Da stehen dann ganz schnell Vorwürfe wie "flamen" oder "trollen" im Raum.

aths
2006-03-02, 16:50:20
[COLOR="#000099"]
Unerzogen sind allenfalls solche Forderungen. Für was hälst du dich? Den lieben Gott? Es gibt keine Forumsregeln die eine Gleichschaltung bei Schriftart, Größe oder Farbe vorschreiben. Vielleicht kannst du Leo ja für solche rechten Forderungen gewinnen. Ich hab da allerdings meine Zweifel.Leo geht davon aus, dass sich jeder selbst so geben kann, wie er möchte. Wer seine Postings exklusiv in einer anderen Farbe schreibt, bewirkt dass sich der Leser so seine Gedanken macht.

Zweiter Gesichtspunkt: Wen das jeder machen würde, und sein Postings via Schriftfarbe absetzten wollte, wie sähe das hier aus? Und, ehrlich, wie viel trägst du inhaltlich zum Forum bei dass du meinst, deine Postings besonders hervorheben zu müssen?

[COLOR="#000099"]aths und auch Lovesuckz Bemerkungen über die 5200 und ihre großen technischen Innovationen sind mir unvergeßlich. Die 5200 als Motor des technischen Fortschritts! So wurde das dargestellt. Zitate, bitte. (Das Forum hat eine Suchfunktion.)

Hydrogen_Snake
2006-03-02, 17:00:00
Du verstehst mich einfach nicht. Vielleicht willst du das auch gar nicht. Schade.


sorry erst rumlabern es gab keine anwendungen die von MMX profitiert haben, dann welche vorgesetzt bekommen und jetzt plötzlich geht es ums persönliche verstehen...

Natürlich würde ich dich gerne verstehen nur leider ist deiner sicht der dinge nicht ganz korrekt.

Aquaschaf
2006-03-02, 17:19:02
Wenn man sich nicht erinnern will....Dein Problem.


Wir sind hier in einem Forum. Das tolle daran ist: nichts was geschrieben wird geht verloren. Das hat nichts mit wollen zu tun - wenn es Beiträge gibt die das enthalten was du behauptest, dann kannst du die bitte zitieren. Es ist nicht mein Problem wenn ich keine finde, es ist deine Aussage die einen Gehalt haben könnte wenn du dir die Mühe für ein Zitat machen würdest. So ist es eine Provokation ohne Sinn.

stav0815
2006-03-02, 17:26:37
aths und auch Lovesuckz Bemerkungen über die 5200 und ihre großen technischen Innovationen sind mir unvergeßlich. Die 5200 als Motor des technischen Fortschritts! So wurde das dargestellt.

das war sie übrigens mehr als eine 9200 o.a.
mit ihr kann/konnte ein Programmierer billig an eine SM2 Karte herankommen.

Er hat zwar nicht die Leistung um damit zocken zu können, aber er hat die Features um Software debuggen zu können.

Odal
2006-03-02, 18:16:05
Die SM3-Spec war im wesentlichen schon bekannt, als die Radeon 9700 rauskam.

Das mag ja sein, aber hast du oder sonst jemand (bis auf ATI intern vielleicht) damals gewusst das ATI SM3 bewusst anders interpretiert da die Spec nicht eindeutig waren? Meinst du wirklich das man vor dem NV40 als Spieleentwickler überhaupt einen Gedanken an SM3 und wie man es am besten wo einbaut verschwendet hat? Glaubst du wirklich das ein Entwicklerteam lange vor dem Release des R520 sich dran gemacht hat wirklich ernsthaft auf SM3 hinaus hinzuentwickeln und SM2 mehr oder weniger aussen vor gelassen hat? Ich denke nicht. Die Oreder von oben war sicherlich das es auf einer möglichst breiten Masse an Hardware anständig performant und optisch schön laufen muss. Dies nur für vielleicht 20% des Marktes hinzubekommen kann man sich nicht leisten. SM3 wird dann erstmal nur als eye-candy oder Checklistenfeature eingebaut wirklich ernsthaft darauf optimiert wird noch nicht. Ich denke mal jeder weiss das bei den meisten Games nichtmal anständiges Bug-Fixing betrieben wird da die Zeit fehlt.


Die FX-Serie bot auf 2.x-Basis bereits vieles Richtung SM3. Richtige SM3-Karten gibts seit dem NV40


Das ist ein alter Hut.


, entsprechend wird seitdem auch auf SM3-HW entwickelt.


Ja aber ohne wirklich SM3 genutzt zu haben da die SM3 Marktdurchdringung noch lange nicht da ist. Der Publisher plant soziemlich alles vorraus, auch das wenn zum Release des Spiels noch keine grosse Marktdurchdringung vorhanden ist SM3 eine Randerscheinung für das Spiel bleibt. Das natürlich für Spiele die in 2 Jahren ihr Release haben SM2 nur noch als unnötiger Ballast gesehen wird und da kräftig Richtung SM3 entwickelt wird ist klar.

Gast
2006-03-02, 18:59:04
Tja, wer bei tokugawa einfach nur seine Meinung wiederholt, anstatt ihm argumentativ zu begegnen und im Notfall sich um eine Antwort drückt indem er behauptet, dass tokugawa unfreundlich gewesen sei, muss sich dann auch die entsprechenden Gedanken dazu gefallen lassen.
Wie wäre es, wenn Du das, was ich ihm geantwortet habe, als ehrlich gemeint akzeptierst, und mir nicht einfach unterstellst, mir wären die Argumente ausgegangen und ich würde mich rausreden? Sowas ist unfreundlich, um nicht zu sagen nah an einer Beleidigung. Ich unterstelle Dir doch auch nicht, nur, weil Du dich so für SM 3.0 stark machst, daß Du ein NVIDIA-Fanboy bist. Das ist mir schon früher in diesem Thread aufgefallen, daß Du über Dritte versuchst, jemanden als dumm darstehen zu lassen (Gegen Tigerchen gerichtet.) Da hielt ich das noch für eine persönliche Sache. Aber bei mir kann es das ja schlecht sein. Scheinbar gehören Unterstellungen dieser Art zu Deinen alltäglichen Umgangsformen. Auf Diskussionen in diese Form kann ich gut verzichten, dafür ist mir das Thema nicht wichtig genug. Ich wollte hier diskutieren, nicht streiten.

Tigerchen
2006-03-02, 19:08:19
das war sie übrigens mehr als eine 9200 o.a.
mit ihr kann/konnte ein Programmierer billig an eine SM2 Karte herankommen.

Er hat zwar nicht die Leistung um damit zocken zu können, aber er hat die Features um Software debuggen zu können.

Tolle Wurst. Das ist die Art von Argumentation die ich an so manchem hier "schätze".

Aquaschaf
2006-03-02, 19:11:12
Tolle Wurst. Das ist die Art von Argumentation die ich an so manchem hier "schätze".


Was ist an der Argumentation so merkwürdig?

Tigerchen
2006-03-02, 19:12:06
Wenn man es nur flüchtig liest, dann ja.

Wenn man seine Behauptungen nicht belegen kann … das ist imo das größere Problem. Da stehen dann ganz schnell Vorwürfe wie "flamen" oder "trollen" im Raum.

Spasstiger hat doch sogar in diesem Thread schon eine Vorstellung gegeben wie so argumentiert wurde (und wird). Was soll ich da noch lang rumsuchen.

Tigerchen
2006-03-02, 19:20:01
Was ist an der Argumentation so merkwürdig?

Weil es in Wirklichkeit so lief daß Entwickler die mal eine FX5200 in Aktion erlebten oder deren Leistungsdaten zugesteckt bekamen nichts eiligeres zu tun hatten als die SM 2.0 Effekte für diese tollen Karten zu sperren.
Ich kann mir beim besten Willen nicht vorstellen daß auch nur ein Entwickler was auf einer FX5200 entwickelt hat. Allenfalls ganz arme Schweine irgendwo in Indien. :redface:
Aber was wird hier gemacht? Schöngeredet! Das stört mich.

mapel110
2006-03-02, 19:21:36
aths und auch Lovesuckz Bemerkungen über die 5200 und ihre großen technischen Innovationen sind mir unvergeßlich. Die 5200 als Motor des technischen Fortschritts! So wurde das dargestellt.

Ja, würd ich auch sagen, dass das damals so rübergekommen ist. Aber offenbar machen Spieleschmieden und Publisher doch detailiertere Analysen, welche SM2, welche SM3 und welche SM1-Karten im Hardwarevolk verteilt sind. Da spielt für sie der Verbreitungsgrad der 5200er bei der Betrachtung der SM2-Verteilung gar keine Rolle mehr.
So kann man sich irren. Damals war das aths sicher nicht bewusst, wie auch sonst kaum jemandem.
Einzig für nvidia zum Geld verdienen war die Karte sehr gut.

Pirx
2006-03-02, 19:33:14
...Die FX-Serie bot auf 2.x-Basis bereits vieles Richtung SM3....
Aber die Leistung reichte bei weitem nicht aus, da hätte die Karte SM4 unterstützen können, für den Kunden war der Vorteil durch Unterstützung von SM2.x durch die Karte gleich 0.

Die Leistung und das Techlevel der Chips müssen im Rahmen der technischen Möglichkeiten zum Zeitpunkt an die voraussichtlich in der Lebenszeit erscheinende Software angepasst sein, weitergehende "Goodies" werden gerne angenommen, sollten doch aber am Praxisnutzen für den Spieler gemessen werden.
Für ATi war es mit der X8x0 eben technisch nicht möglich, SM3 zu bringen, für nV mit der FX leistungsfähige SM2-Hardware, solange es den Wettbewerb (wobei 2 Firmen schon seehr wenig sind) gibt, wird aber kein Hersteller ein Interesse an solchen Dingen haben. Da können Reporter die Firmen noch so toll kritisieren, soetwas wird sich nicht vermeiden lassen.
Außerdem bekommen doch wichtige Entwickler immer schon weit vor dem Launch Samples der Next-Gen-Karten.

Wurde eigentlich nicht schon mit dem R350 das PS-Instruktions-Limit des R300 erhöht?

mapel110
2006-03-02, 19:41:48
Wurde eigentlich nicht schon mit dem R350 das PS-Instruktions-Limit des R300 erhöht?
Nö, da gabs den tollen niemals zu gebrauchenden F-Buffer. :)
http://www.beyond3d.com/reviews/ati/r350/index.php?p=3

Spasstiger
2006-03-02, 19:52:02
Für Hobbyprogrammierer, die auch unterwegs nicht auf ein volles Featureset des Grafikchips verzichten wollen, sind lahme Varianten wie aktuell die GeForce Go 7300 meist die bessere Wahl als ein High-End-Grafikchip. Schließlich schluckt so ein Notebook im 3D-Betrieb einiges mehr und mit einem High-End-Chip wären längere Coding-Sessions als zwei Stunden nur schwer realisierbar.
Die GeForce FX 5200 war natürlich mehr oder weniger ein Schuss in den Ofen, Hobbyprogrammierer setzten meist auch schon auf eine GeForce FX 5600 oder höher.
Hier z.B. jemand, der sich sehr an seiner GeForce FX 5800 erfreute und damit Grafikdemos realisieren konnte, die mit dem Featureset einer ATI-Karte damals nicht möglich gewesen wäre: http://frustum.org/.
Bis er von Nvidia eine GeForce 6800 GT gesponsort bekam (worüber er sich ziemlich freute, siehe News). Allerdings scheint er am Arsch der Welt irgendwo in Russland zu wohnen.

deekey777
2006-03-02, 20:00:54
Aber die Leistung reichte bei weitem nicht aus, da hätte die Karte SM4 unterstützen können, für den Kunden war der Vorteil durch Unterstützung von SM2.x durch die Karte gleich 0.

Bisher hat noch niemand sich bereit erklärt, seine 5900 in Far Cry mit dessen SM2.X-Pfad ausgiebig zu testen. Zumindest kmf (?) schwärmte von der Möglichkeit, in Far Cry 1.2 das damalige 2.B-Profil mit seiner FX zu nutzen, was ein Preformanceplus brachte. Ab Far Cry 1.3 war das SM2.X-Profil für alle Grafikkarten freigegeben, die "SM2.extended" beherrschen. Nur ist Far Cry das einzige Spiel, dessen Entwickler ein SM2.X-Profil implementiert haben ("das doppelt verkaufte Pferd").

tokugawa
2006-03-02, 20:29:10
Ich kann mir beim besten Willen nicht vorstellen daß auch nur ein Entwickler was auf einer FX5200 entwickelt hat.


Das zeigt nur wie wenig du eigentlich von Entwicklern weißt.

Für Fast-Prototyping war die FX 5200 nicht allzu schlecht (zumindest die 128-Bit Versionen). Außerdem gibt's auch Silent-Freaks unter den Entwicklern.

Die FX 5200 war aber leider auch zusätzlich kastriert. Aber so ab einer FX 5600 und erst recht die FX 5900 XT ließ sich dann als Entwickler gut arbeiten damit. Vor allem jene die gern von zuhaus arbeiten und sich privat jetzt nicht die Mörder-High-End-Hardware leisten wollen (Features statt Balkenlänge).

Die 7800 GTX 512 oder Radeon X1900 XTX hat man als Entwickler dann eh in der Firma...

Ja, würd ich auch sagen, dass das damals so rübergekommen ist.


Wie gesagt, ich find's immer faszinierend dass manche Leute meinen aths oder ich oder sonstwer hätte irgendeinem Gamer die FX 5200 oder SM 3.0 als "Totschlagfeature" empfohlen.

Können die Leute nicht mehr selbst denken?




Xmas hat für seine Diplomarbeit einige Shader zunächst für seine Radeon 9800 geschrieben, und sich für bestimmte Effekte meine 6600 GT AGP ausgeborgt – weil die mehr kann. (2_A und eben auch 3_0, ich glaube tatsächlich genutzt hat er nur 2_A.)


Ein Studienkollege von mir hat für seine Diplomarbeit auch original auf einer Radeon 9800 gearbeitet an "Raycasting auf der GPU" (hauptsächlich für medizinische Visualisierung -> man sieht, es gibt nicht nur Spiele als Anwendungsbereich für Echtzeitgrafik). Auf der 9800 Pro hat er getrickst, mit Abstrichen, von der GeForce 6 war er dann ziemlich begeistert (vor allem da sie ja einige ATI Extensions (Float Buffer glaub ich?) auch mitimplementiert hat, und seine 9800 Pro-Implementation dadurch auch auf GeForce 6 gelaufen ist).

Man kann sich natürlich auch die Sachen zurecht biegen wie man sie gern hätte.


So wie du, in folgendem Absatz:


Windows Vista und Nachfolger mit TCPA ist doch das was der Spieleentwickler endlich will. Einen halbwegs sicheren bald Hardware unterstützten Kopierschutz.


Geh bitte, verwechsel "Entwickler" nicht mit "Publisher" und "Marketing-Manager". Den Entwicklern selbst ist der Kopierschutz in der Regel ziemlich schnurz.


Du glaubst nicht wie schnell viele von Win98 und WinMe auf WindowsXP umgestiegen sind als das rauskam, genauso werden sich viele ganz schnell auf Vista stürzen ganz besonders wenn sie nur dann nur da richtige Unterstützung für ihre Hardware bekommen. Natürlich braucht man erst ne SM4 Karte um das dann nutzen zu können, aber das ist bei SM3 nicht anders. Spiele werden natürlich alle noch einen alten DX9 Pfad anbieten und bei der hohen verbreitung von SM2 only Karten könnte es durchaus sein das man für den DX9 Pfad SM2 als kleinstes gemeinsame Mögliche nimmt (ähnlich dem DX7 Modus bei Cod2 oder HL2 etc.) und sich nicht weiter grossartig um Optimierungen kümmert da das eh alte HArdware ist die nicht so schnell ist, da wird dann eben so optimiert das Details weggelassen werden und gut ist.

Alles Spekulation, und ich wage es zu bezweifeln. Wenn SM 4.0 kommt wird die Durchdringung des Marktes mit SM 3.0 Hardware so hoch sein wie mit SM 2.0 jetzt. Dann macht's Sinn (wie heute), SM 3.0 _und_ SM 2.0 zu unterstützen.

Denk mal nach:
Heute unterstützen die meisten Spiele sogar noch SM 1.x. Wenn dieser Pfad erstmal gekickt wird, hat man dann SM2.0/SM3.0 (als 1 Codepath, aber verschiedene Shader, und auch weniger Aufwand als SM 1.x und SM 2.0 parallel zu maintainen, da SM 1.x noch beschränkter ist als SM 2.0), und SM 4.0 wird wie heute SM 3.0 sein - vielleicht drin, vielleicht nicht ausgereizt, Checklistenfeature.


MMX ist auch nicht schlecht. Genausowenig wie SM 3.0. Was mich stört sind die Wunderdinge die mit Einführung dieser Dinge versprochen werden. Gerade weil du technisch so bewandert bist wundert es mich daß dir diese Marktschreierei ala "Aal-Jupp vom Hamburger Fischmarkt" keine Kopfschmerzen macht. Dann kauft man sich die neue Technik und wartet auf den Einsatz der tollen neuen Möglichkeiten.


Technisch bewanderte wissen was SM 3.0 bringt. Entwickler sind in der Regel technisch bewandert. Und Entwickler haben das so gehypt (klar, PR-Leute auch, aber 1) wer hört auf die außer DAUs und 2) die hypen sowieso alles). SM 3.0 ist herrlich (wenn auch trotzdem immer nur ein Zwischenschritt und nicht das Ende der Entwicklung). So ist es und punkt. Wer was anderes sagt ist technisch einfach nicht genug bewandert, so leid mir das tut.

[COLOR="#000099"]
Das hast du ja oft genug propagiert.


Das bildest du dir nur ein. Wie gesagt, die ganzen Leute die das behaupten sind unfähig, personelle Begeisterungen anderer für etwas so zu interpretieren, dass das nicht für einen selbst gelten muß. Was mich begeistert muß dich natürlich nicht begeistern. Aber du kannst mir dann auch nicht vorwerfen dass man da was "propagiert".


Den nV40 werden also komplexe Effekte dank SM 3.0 nicht überfordern. Wieder so ein Versprechen auf die Zukunft. Diese Art von Verprechen kann ich zum Glück gut einschätzen. Ablage P.


Den NV40 überfordern komplexe Effekte heute nicht (Beispiel: Raytrace-Effects in dem Screenshot den ich vorher gepostet habe). In der Zukunft wird er's natürlich schwer haben.

Tu bitte nicht so als ob es heute keine SM 3.0 Anwendungen und Effekte gäbe.

ich auch, du spielst damit aber nicht effektiv neue Spiele, und ich tu das auch schon lange nicht mehr, einfach viel zu langsam...selbst eine 6600GT war mittlerweile viel zu langsam um FEAR usw. brauchbar zu spielen.


FEAR hab ich gespielt auf meiner FX 5900XT (und auch auf der 9500 Pro). War sogar wirklich nett.

Also ich weiß nicht was du unter "brauchbar" verstehst. Aber anscheinend scheiden sich hier unsere Geister.

FEAR war auf meiner FX 5900 XT brauchbar, auf meiner 9500 Pro brauchbar, und auf meiner GeForce Go 6600 brauchbar.

Hat sogar ziemlich gut ausgesehen.


Nein das glaube ich natürlich nicht das es dann sofort SM4 Spiele geben wird. Was ich aber glaube ist das es dann schneller SM4 Spiele geben wird als es SM3 Spielge gegeben hat/wird. Spieleentwickler haben nunmal erst seit Oktober/November 2005 SM3 Hardware beider IHVs in ihren Rechnern stecken. Deshalb machen sie sich erst dann wirklich Gedanken SM3 sinnvoll einzusetzen.


Das ist inkorrekt. Spieleentwickler haben sich mit SM 3.0 schon seit der Einführung des NV40 beschäftigt.

Dass ATI jetzt auch SM 3.0 Hardware hat, interessiert die Marketing-Abteilung, weil die kann dann das OK geben, dass man jetzt doch verstärkt auch die SM 3.0 Effekte (die schon in den Schubladen und Source-Versions-Kontrollsystemen der Entwickler darauf warten) einsetzen kann.

Entwickler haben aber schon die NV40 positiv angenommen und mit der (programmiertechnisch) rumgespielt und experimentiert. Gerade Grafik- und Spiele-Engine-Entwickler waren so extrem scharf auf das Baby, es war einfach nur herrlich zu sehen wie begeistert die davon waren, da sie jetzt endlich freier "herumshadern" konnten.

Ich finde es immer witzig dass Leute wie du oder Tigerchen Behauptungen aufstellen, was (Spiele-)Entwickler so "denken und tun und meinen", wenn ihr allen Anschein nicht wirklich einen Zugang dazu habt. Wieso glaubt ihr nicht einfach mal den Leuten, die Entwickler sind und mit anderen Entwicklern Kontakt haben anstatt Spekulationen darüber anzustellen was Entwickler tun und denken?


Für Hobbyprogrammierer, die auch unterwegs nicht auf ein volles Featureset des Grafikchips verzichten wollen, sind lahme Varianten wie aktuell die GeForce Go 7300 meist die bessere Wahl als ein High-End-Grafikchip. Schließlich schluckt so ein Notebook im 3D-Betrieb einiges mehr und mit einem High-End-Chip wären längere Coding-Sessions als zwei Stunden nur schwer realisierbar.


Du hast vollkommen recht! Und nicht nur Hobbyprogrammierer wollen unterwegs programmieren :)

Deswegen hab ich auch ein 15" Notebook mit GeForce Go 6600 (erschien mir als der beste Kompromiss zwischen 17" Boliden und 13" Subnotebooks). Mit dem Zweitakku für den Laufwerksschacht komm ich auf ca. 6 Stunden, und das ist dann schon wirklich nett (auch um Grafikdemos/Spieledemos "on the go" zu präsentieren).

Aber die Leistung reichte bei weitem nicht aus, da hätte die Karte SM4 unterstützen können, für den Kunden war der Vorteil durch Unterstützung von SM2.x durch die Karte gleich 0.


Welche Kunden? Es gibt schon Kundengruppen denen das was gebracht hat.

Gamer sind nicht die einzigen Kunden für Echtzeitgrafik-Hardware! Bitte löst euch von dem Gedanken dass Gamer die einzigen sind auf die es ankommt!


Die Leistung und das Techlevel der Chips müssen im Rahmen der technischen Möglichkeiten zum Zeitpunkt an die voraussichtlich in der Lebenszeit erscheinende Software angepasst sein, weitergehende "Goodies" werden gerne angenommen, sollten doch aber am Praxisnutzen für den Spieler gemessen werden.


Nein. Denn Spieler sind wie gesagt nicht die einzigen, die bedient werden müssen. Denn gerade NVIDIA ist auch in Forschung und Entwicklung sehr tätig, und die Einstellung "Features sind besser als die letzten Millimeter des Balkens" sind für Visualisierer und Echtzeitgrafik-Forscher einfach wichtiger.

Außerdem denken die da einfach weiter: Hardware macht man auch um Grafik zu verbessern. Das wird gemacht von Forschern und Entwicklern. Die verlangen nach Features, und NVIDIA hat die auch tatsächlich gebracht (die waren ja auch die ersten die das Occlusion Query gebracht haben, auch ein von Entwicklern verlangtes Feature).

Und dadurch dass NVIDIA auch Entwickler und Forscher bedient, werden später die Spiele auch diese Effekte annehmen.

Es geht nur so. Hardware muß erst mal vorhanden sein dass man Software dafür schreiben kann. Also fördert der Hersteller der ein Feature bringt das Entwickler fordern aktiv den Fortschritt.


Für ATi war es mit der X8x0 eben technisch nicht möglich, SM3 zu bringen, für nV mit der FX leistungsfähige SM2-Hardware, solange es den Wettbewerb (wobei 2 Firmen schon seehr wenig sind) gibt, wird aber kein Hersteller ein Interesse an solchen Dingen haben.


Welche Hersteller? Wie gesagt, Entwickler sind von SM 3.0 ziemlich angetan gewesen bei der Einführung des NV40.


Außerdem bekommen doch wichtige Entwickler immer schon weit vor dem Launch Samples der Next-Gen-Karten.


Nicht alle. Und außerdem, "wichtige Entwickler" sind nicht immer dieselben die den Fortschritt bringen. NVIDIA gibt zwar manchen Unis auch frühe Samples, aber nicht immer, und auf Unis entsteht doch ein Großteil der Effekte die dann später in Spielen die Spielerherzen und -augen erfreuen.

Pirx
2006-03-02, 21:32:27
Also ich denke schon, daß die genannten Karten alle hauptsächlich (zu fast 100%) auf die Spiele(r) zugeschnitten sind.

...Es geht nur so. Hardware muß erst mal vorhanden sein dass man Software dafür schreiben kann. Also fördert der Hersteller der ein Feature bringt das Entwickler fordern aktiv den Fortschritt....
Natürlich ist das sehr wichtig, aber den Käufern der GPUs wird es erst was bringen, wenn die Hardware es (und vor allem auch die bis dahin Standard-Features) auch performant beherrscht.

Manchmal glaube ich auch, die Entwickler sollten nicht immer neue Features fordern, sondern die vorhandenen erstmal richtig nutzen. Aber die Wahrheit wird wohl mal wieder zwischen den Extremen liegen.

...Welche Hersteller? Wie gesagt, Entwickler sind von SM 3.0 ziemlich angetan gewesen bei der Einführung des NV40.
...
Ich meinte, daß die Hersteller von GPUs kein Interesse daran haben, technologisch oder leistungsmäßig "rückstädige" GPUs am Markt zu haben, sich dies offensichtlich aber nicht immer vermeiden läßt.

...Und dadurch dass NVIDIA auch Entwickler und Forscher bedient, werden später die Spiele auch diese Effekte annehmen...
Ich meine, daß neue Effekte großflächig erst dann in Spielen auftreten, wenn ein Großteil Hardware diese performant ausführen kann. Natürlich ist es wichtig, die neuen Features einzuführen und das machen ja auch beide IHVs.:conf2:
Dieses Gehetze, GPUs abzuverlangen, sofort die allerneuesten Features zu beherrschen, obwohl sie grundsätzlich sehr gute und schnelle 3D-Grafik ausgeben, geht mir sogar ziemlich auf den Keks.
Wichtig ist imho, daß langfristige und klare Standards geschaffen werden, wie auch in der Vergangenheit mit DX/OGL teilweise bereits geschehen.

Odal
2006-03-02, 21:50:42
Ich finde es immer witzig dass Leute wie du oder Tigerchen Behauptungen aufstellen, was (Spiele-)Entwickler so "denken und tun und meinen", wenn ihr allen Anschein nicht wirklich einen Zugang dazu habt. Wieso glaubt ihr nicht einfach mal den Leuten, die Entwickler sind und mit anderen Entwicklern Kontakt haben anstatt Spekulationen darüber anzustellen was Entwickler tun und denken?


Ich gehöre nur selber zu solchen "Subjekten". Ich entwickele zwar keine Spiele aber SOA Lösungen. Ich weiss was es heist eine Deadline zu haben und ich weiss wieviel erstmal hingebastelt wird hauptsache es läuft. Schreib du man erstmal deine Diplomarbeit fertig und arbeite in einem Unternehmen dann redest du vielleicht auch anders. Ich spiele auch gerne mit Sachen wie WSMO Framework&Co oder diversen Integrationslösungen von CapeClear oder Ensemble herum aber solange bestimmte Vorraussetzungen nicht flächendeckend verfügbar sind und gewisse Standards verabschiedet und umgesetzt wurden und nicht ständig bei jedem Scheiss inkompatible Parallelentwicklung betrieben wird (ich weise nur mal auf den Wulst an Choreographie Beschreibungsmöglichkeiten hin, Mankos in der BPEL Spezifikation wo Transaktionscompensationsferfahren nicht 100% festgelegt wurden und jede Engine ihren eigenen Scheiss macht) weil jeder meint sein eigenes Süppchen kochen zu müssen, bleibt es erstmal ein Herumspielen mit diversen Dingen. Mein Cheff würde mir was husten wenn ich meine Arbeitszeit damit vergeuden würde bestimmte Sachen zu implementieren wo ich nicht zu 100% weiss das da nicht wieder was umgeworfen wird. Genauso möchte ich bezweifeln das vor dem Release des R520 im Unternehmen viel mehr gemacht wurde als etwas damit herumgespielt. Ich erinnere nur an den Fakt das sich ATI die SM3 Spezifikation etwas anders ausgelegt haben als sie gemeint war. Und wie gesagt wiochtig für den Entwickler (ja ich weiss wovon ich rede) ist auch welche Performance er mit seiner Arbeit erreichen wird. Und das konnte man vor dem Release des R520 wohl kaum abschätzen wie schnell dieser bestimmte Shader ausführt. Wenn es genau so eine Krücke wie der NV30 geworden wäre und die ganzen SM3 Shader schon fertig wären hätte man den ganzen mist nochmal machen können, da man es sich nicht leisten kann nur auf maximal 20% der Hardware auf dem markt hin zu optimieren oder nur bei 20% der Hardware anständige details zu liefern...die Schelte bekommt dann nämlich der Spielentwickler das er schlecht optimiert hat und nicht ATI oder Nvidia. Ich kann mir gut vorstellen das so einigen die Pumpe ging als der NV30 released wurde und das ne PS2.0 Krücke war aber man schon ein halbes Jahr mit dem R300 PS2 Shader probiert und geschrieben hat


Es geht nur so. Hardware muß erst mal vorhanden sein dass man Software dafür schreiben kann. Also fördert der Hersteller der ein Feature bringt das Entwickler fordern aktiv den Fortschritt.

Ja genau, und kein Unternehmen pulvert Geld in die Entwicklung eines bestimmten Softwarefeatures ohne zu wissen was für Hardware da genau auf einen zukommt auf der das laufen muss.

Armaq
2006-03-02, 22:18:42
Ich gehöre nur selber zu solchen "Subjekten". Ich entwickele zwar keine Spiele aber SOA Lösungen. Ich weiss was es heist eine Deadline zu haben und ich weiss wieviel erstmal hingebastelt wird hauptsache es läuft. Schreib du man erstmal deine Diplomarbeit fertig und arbeite in einem Unternehmen dann redest du vielleicht auch anders. Ich spiele auch gerne mit Sachen wie WSMO Framework&Co oder diversen Integrationslösungen von CapeClear oder Ensemble herum aber solange bestimmte Vorraussetzungen nicht flächendeckend verfügbar sind und gewisse Standards verabschiedet und umgesetzt wurden und nicht ständig bei jedem Scheiss inkompatible Parallelentwicklung betrieben wird (ich weise nur mal auf den Wulst an Choreographie Beschreibungsmöglichkeiten hin, Mankos in der BPEL Spezifikation wo Transaktionscompensationsferfahren nicht 100% festgelegt wurden und jede Engine ihren eigenen Scheiss macht) weil jeder meint sein eigenes Süppchen kochen zu müssen, bleibt es erstmal ein Herumspielen mit diversen Dingen. Mein Cheff würde mir was husten wenn ich meine Arbeitszeit damit vergeuden würde bestimmte Sachen zu implementieren wo ich nicht zu 100% weiss das da nicht wieder was umgeworfen wird. Genauso möchte ich bezweifeln das vor dem Release des R520 im Unternehmen viel mehr gemacht wurde als etwas damit herumgespielt. Ich erinnere nur an den Fakt das sich ATI die SM3 Spezifikation etwas anders ausgelegt haben als sie gemeint war. Und wie gesagt wiochtig für den Entwickler (ja ich weiss wovon ich rede) ist auch welche Performance er mit seiner Arbeit erreichen wird. Und das konnte man vor dem Release des R520 wohl kaum abschätzen wie schnell dieser bestimmte Shader ausführt. Wenn es genau so eine Krücke wie der NV30 geworden wäre und die ganzen SM3 Shader schon fertig wären hätte man den ganzen mist nochmal machen können, da man es sich nicht leisten kann nur auf maximal 20% der Hardware auf dem markt hin zu optimieren oder nur bei 20% der Hardware anständige details zu liefern...die Schelte bekommt dann nämlich der Spielentwickler das er schlecht optimiert hat und nicht ATI oder Nvidia. Ich kann mir gut vorstellen das so einigen die Pumpe ging als der NV30 released wurde und das ne PS2.0 Krücke war aber man schon ein halbes Jahr mit dem R300 PS2 Shader probiert und geschrieben hat.


Nächstes Mal mit Absatz, Punkt, Komma. DAS kann SO kaum einer lesen. Bekommst Augentripper.

aths
2006-03-02, 23:47:01
Das mag ja sein, aber hast du oder sonst jemand (bis auf ATI intern vielleicht) damals gewusst das ATI SM3 bewusst anders interpretiert da die Spec nicht eindeutig waren? Meinst du wirklich das man vor dem NV40 als Spieleentwickler überhaupt einen Gedanken an SM3 und wie man es am besten wo einbaut verschwendet hat?Ja. Und nicht nur einen.

Glaubst du wirklich das ein Entwicklerteam lange vor dem Release des R520 sich dran gemacht hat wirklich ernsthaft auf SM3 hinaus hinzuentwickeln und SM2 mehr oder weniger aussen vor gelassen hat?Wieso "SM2 außen vorgelassen"? Dass SM3 SM2 inkludiert, wurde doch mehrfach gesagt. SM3 ist die Fortenticklung von SM2, keine andere Plattform. Mit SM3 kann man nun mehr machen und natürlich haben sich das Entwickler gleich angesehen. Dass heutige Spiele in der Regel bestenfalls (wenn überhaupt) auf das SM2-Techlevel optimiert sind liegt unter anderem daran, dass ATI recht spät mit SM3-fähiger HW kam, und der Publisher festlegt, dass das Spiel natürlich auf einer möglichst breiten Basis möglichst gut aussehen soll. Trotzdem haben sich Entwickler voller Freude gleich ihre SM3-Karte eingebaut und damit gespielt. Genauso wie mit dem Erscheinen der Radeon 9700 die GeForce 4 Ti bzw. Radeon 8500 aus dem Rechner flog. Die 9700 bietet sowieso noch DX6, 7 und 8. Aber eben zusätzlich DX9-Shader.

Ich denke nicht. Die Oreder von oben war sicherlich das es auf einer möglichst breiten Masse an Hardware anständig performant und optisch schön laufen muss. Dies nur für vielleicht 20% des Marktes hinzubekommen kann man sich nicht leisten. SM3 wird dann erstmal nur als eye-candy oder Checklistenfeature eingebaut wirklich ernsthaft darauf optimiert wird noch nicht. Ich denke mal jeder weiss das bei den meisten Games nichtmal anständiges Bug-Fixing betrieben wird da die Zeit fehlt.Das ändert nichts daran, dass SM3 technisch deutlich besser als SM2 ist und ein SM3-Target die Entwicklung vereinfacht.

Das ist ein alter Hut.Damit nicht weniger wahr.

Ja aber ohne wirklich SM3 genutzt zu haben da die SM3 Marktdurchdringung noch lange nicht da ist. Der Publisher plant soziemlich alles vorraus, auch das wenn zum Release des Spiels noch keine grosse Marktdurchdringung vorhanden ist SM3 eine Randerscheinung für das Spiel bleibt. Das natürlich für Spiele die in 2 Jahren ihr Release haben SM2 nur noch als unnötiger Ballast gesehen wird und da kräftig Richtung SM3 entwickelt wird ist klar.Wieso als unnötiger Ballast gesehen? SM2 wird uns – zumindest als Minimal-Anforderung – noch über Jahre begleiten. Aber für SM2 ist ja keine Extra-Programmierung in der Engine nötig. Lediglich was Shader-Flexibilität angeht, ist man begrenzt.

aths
2006-03-02, 23:48:07
Wie wäre es, wenn Du das, was ich ihm geantwortet habe, als ehrlich gemeint akzeptierst, und mir nicht einfach unterstellst, mir wären die Argumente ausgegangen und ich würde mich rausreden?Das unterstellte ich, weil ich von dir keine Gegenargumente lesen konnte.

Auf Diskussionen in diese Form kann ich gut verzichten, dafür ist mir das Thema nicht wichtig genug. Ich wollte hier diskutieren, nicht streiten.Ja, gut, dann diskutiere doch – indem du auf tokugawas Posting argumentativ eingehst.

aths
2006-03-02, 23:49:51
[COLOR="#000099"]
Spasstiger hat doch sogar in diesem Thread schon eine Vorstellung gegeben wie so argumentiert wurde (und wird). Was soll ich da noch lang rumsuchen. Um deiner Behauptung Gewicht zu verleihen. In diesem Thread hast du zumindest schon eine Vorstellung davon gegeben, wie du Eigeninterpretation über die tatsächliche Aussage eines Postings stellst.

Du liest Dinge, die nicht im Text stehen. Du schreibst in blauer Farbe. Du stellst offenbar ohne jemals mit einem selbstgeschriebenen Programm 3D-Grafik erzeugt zu haben deine Sicht als die richtige hin, diskutierst also mit ohne Sachkenntnis zu haben. Du behauptest über andere Leute Dinge ohne dir die Mühe zu machen, einen Beleg zu liefern.

Wie außer "rumtrollen" soll man das nennen?

aths
2006-03-02, 23:51:37
Aber die Leistung reichte bei weitem nicht aus, da hätte die Karte SM4 unterstützen können, für den Kunden war der Vorteil durch Unterstützung von SM2.x durch die Karte gleich 0.Der MPC zum Beispiel unterstützt Video-Postfiltering mit Shadern. DX9-Shadern. Da reicht eine FX 5200 um das zu nutzen; eine Radeon 9200 oder GeForce4 Ti 4600 reicht nicht.

Die FX 5200 ist von der 3D-Rohleistung ohnehin keine Spieler-Karte. Warunm sollte man dann noch das SM2.x-Featureset der FX 5200 auf Spieletauglichkeit prüfen? Die FX 5200 ist eh keine Spielerkarte. Aber sie war in der 128-Bit-Version gut geeignet für das eine oder andere Spiel, wenn man die Ansprüche eines Gelegenheitsspielers hat. Nicht für DX9-Spiele. Aber die verlangen sowieso eine Rohleistung, die die FX 5200 nicht hat. Die FX 5200 hat ihre SM2.x-Shader nicht für Spiele, sondern für die Checkliste und für 3D-Applikationen wie Longhorn.

Wann man dann doch – warum auch immer – SM2.x-Sachen entwickelt ist selbst die 64-Bit-5200 noch ca. 100x schneller als der Refrast auf den CPUs seinerzeit.

Wurde eigentlich nicht schon mit dem R350 das PS-Instruktions-Limit des R300 erhöht?Nein.

Odal
2006-03-03, 00:13:03
Ja. Und nicht nur einen.

Privater Natur vielleicht aber nicht dies in einem laufenden Projekt implementiert.


Wieso "SM2 außen vorgelassen"? Dass SM3 SM2 inkludiert, wurde doch mehrfach gesagt. SM3 ist die Fortenticklung von SM2, keine andere Plattform.


Nö, aber wenn man vom SM3 wirklich was haben will reicht es nicht mehr Instruktionen für Shader zu verwenden sondern man muss Sachen wie Statische oder Dynamische Sprunganweisungen nutzen. Das heisst man erhält dann einen komplett anderen Shader der mit SM2 inkompatibel ist und müsste für SM2 extra ein aufwendiges Fallback schreiben. Oder umgekehrt da man das SM2 fallback sowieso schreiben musste belässt man es zum Teil vielleicht dabei da die SM3 Marktdurchdringung eben noch nicht gegeben ist. Geh nicht davon aus das sich alle sooft neue Hardware kaufen wie hier im Forum. Sollte beim Normalo das Spiel schlecht laufen und schlecht aussehen wird er es nicht kaufen. Und der Normalo hat noch lange keine SM3 Hardware.


Mit SM3 kann man nun mehr machen und natürlich haben sich das Entwickler gleich angesehen. Dass heutige Spiele in der Regel bestenfalls (wenn überhaupt) auf das SM2-Techlevel optimiert sind liegt unter anderem daran, dass ATI recht spät mit SM3-fähiger HW kam, und der Publisher festlegt, dass das Spiel natürlich auf einer möglichst breiten Basis möglichst gut aussehen soll.

Bestreitet keiner das ATI die SM3 Verbreitung damals blockiert hat, so ist es aber nunmal. Es ist nicht änderbar man sollte sich damit abfinden auch wenn man sich persönlich drüber ärgert.


Trotzdem haben sich Entwickler voller Freude gleich ihre SM3-Karte eingebaut und damit gespielt. Genauso wie mit dem Erscheinen der Radeon 9700 die GeForce 4 Ti bzw. Radeon 8500 aus dem Rechner flog. Die 9700 bietet sowieso noch DX6, 7 und 8. Aber eben zusätzlich DX9-Shader.

Interesse halber rumspielen tu ich mit so einigen Sachen, effektiv nutzen aufgrund einiger Restriktionen und Anweisungen von oben damit aber noch lange nicht.


Das ändert nichts daran, dass SM3 technisch deutlich besser als SM2 ist und ein SM3-Target die Entwicklung vereinfacht.

Bestreitet keiner, das ändert aber nichts an der geringen Marktdurchdringung von SM3 Hardware. Genauso wenig ändert es was an der Entwicklungsdauer solcher SM3 spiele. Genausowenig ändert es was daran das so einigen Karten mit SM3 unterstüzung sowie ohne SM3 Unterstützung dann die Puste ausgeht, und es bei diesen für den Spieler egal sein kann ob er SM3 Hardware im Rechner hat oder nicht. Mehr sollte eigentlich garnicht gesagt werden.


Wieso als unnötiger Ballast gesehen? SM2 wird uns – zumindest als Minimal-Anforderung – noch über Jahre begleiten. Aber für SM2 ist ja keine Extra-Programmierung in der Engine nötig. Lediglich was Shader-Flexibilität angeht, ist man begrenzt.

Joa man muss aufgrund der Restriktionen nur völlig neue Shader schreiben weil man das was mit SM3 an Shadern geschrieben wurde nicht so leicht portieren kann (ausser es würde keine SM3 Funktionalität verwenden aber dann wäre es ja gleich ein SM2 Shader und somit SM3 überflüssig).

aths
2006-03-03, 00:33:22
Privater Natur vielleicht aber nicht dies in einem laufenden Projekt implementiert.Die ersten Spiele die irgendwo SM3 nutzen sind welche, bei denen ebenjene Effekte in ein laufendes Projekt implementiert wurden.

Nö, aber wenn man vom SM3 wirklich was haben will reicht es nicht mehr Instruktionen für Shader zu verwenden sondern man muss Sachen wie Statische oder Dynamische Sprunganweisungen nutzen.Der höhere Instructioncount kann Pass Reduction bringen, und damit die Performance steigern. Er kann auch Effekte singlepass ermöglichen, die als SM2-Effekt wegen Multipass-Rendering deutlich an der Performance nuckeln. In SM3 hat man mehr Interpolatoren, was wiederum Pass Reduction ermöglicht. Das freie Swizzling ermöglicht hier und da, einen Takt zu sparen. Statisches Branching geht auch auf der GeForce sehr schnell und kann genutzt werden, um CPU- und GPU-Last zu senken. Geometry Instancing kann hier ebenfalls helfen.

Das heisst man erhält dann einen komplett anderen Shader der mit SM2 inkompatibel ist und müsste für SM2 extra ein aufwendiges Fallback schreiben.Dass man einen anderen Shader erhält ist doch egal, wenn der eigentliche Shader eh in HLSL geschrieben ist. Für SM2 schreibt man eben einen Shader, der sich auf dem SM2-Target noch kompilieren lässt. Natürlich ist es Zusatzaufwand, neben SM2 auch SM3 so gut es geht zu nutzen. Mit SM3 lassen sich aber viele Sachen, die auf SM2-Hardware auch noch laufen, also noch in Echtzeit, eben effizienter (performanter) umsetzen. Gerade mit dem schnellen dynamic branching bietet der R520/R580 hier ungeahnte Möglichkeiten. Da ist insofern noch als Hemmnis die grausige Performance beim G70, doch es ist ja nicht ATIs Schuld wenn NV noch auf große Quadbatches setzt. Über kurz oder lang wird auch NV effizientes dynamic branching im Pixelshader anbieten, ein Entwickler kann das heute schon nutzen, richtig was bringen tuts nur erst mal auf der Radeon was. Sollte man diese Möglichkeit zur Performancesteigerung heute noch nicht nutzen, solange bis NV nachgezogen hat?

Oder umgekehrt da man das SM2 fallback sowieso schreiben musste belässt man es zum Teil vielleicht dabei da die SM3 Marktdurchdringung eben noch nicht gegeben ist. Geh nicht davon aus das sich alle sooft neue Hardware kaufen wie hier im Forum. Sollte beim Normalo das Spiel schlecht laufen und schlecht aussehen wird er es nicht kaufen. Und der Normalo hat noch lange keine SM3 Hardware.Eben. Aber worüber reden wir? Mehrere Leute haben im Thread gesagt, dass hier nicht blind einem Gamer empfohlen wird bei einem Kartenkauf auf SM3 zu achten. Wer wirklich alle Effekte in allen Spielen sehen will, braucht zwar neben hoher Rohleistung auch SM3-Support. Aber die paar Spiele geben jetzt noch lange nicht den Ausschlag.

Bestreitet keiner das ATI die SM3 Verbreitung damals blockiert hat, so ist es aber nunmal. Es ist nicht änderbar man sollte sich damit abfinden auch wenn man sich persönlich drüber ärgert.

Interesse halber rumspielen tu ich mit so einigen Sachen, effektiv nutzen aufgrund einiger Restriktionen und Anweisungen von oben damit aber noch lange nicht.

Bestreitet keiner, das ändert aber nichts an der geringen Marktdurchdringung von SM3 Hardware. Genauso wenig ändert es was an der Entwicklungsdauer solcher SM3 spiele. Genausowenig ändert es was daran das so einigen Karten mit SM3 unterstüzung sowie ohne SM3 Unterstützung dann die Puste ausgeht, und es bei diesen für den Spieler egal sein kann ob er SM3 Hardware im Rechner hat oder nicht. Mehr sollte eigentlich garnicht gesagt werden.Die Marktdurchdringung von SM3-Hardware wird kommen, schon weil D3D10-compliant HW auch SM3 (und damit auch SM2 und SM1) können muss. Wer als Entwickler auf SM3 setzt, setzt garantiert auf das richtige Pferd – die Frage ist nur, ob mittel- oder langfristig.

Joa man muss aufgrund der Restriktionen nur völlig neue Shader schreiben weil man das was mit SM3 an Shadern geschrieben wurde nicht so leicht portieren kann (ausser es würde keine SM3 Funktionalität verwenden aber dann wäre es ja gleich ein SM2 Shader und somit SM3 überflüssig).Bei SM3 ist das gute, dass es (abgesehen vom Texturfilter beim Vertextexturing) nur SM3 gibt und sonst nix. Bei SM2 gibts 2.0, und 2.x mit 2_A und 2_B. Folge: Bei SM2 wird oft nur 2.0 gesehen, vielleicht noch 2.x Profil 2_A verwendet um der GF etwas Beine zu machen (oder wenn man keine exklusiven SM2-Features braucht) aber 2_B (für R420) ist praktisch fast ohne Bedeutung. Innerhalb von SM2 gibt es viel mehr unterschiedliche Targets, bei SM3 gibts nur SM3, und es muss SM 2.x mit allen Caps auf ihr Maximum gesetzt unterstützt werden. Während "SM2" ein sehr unscharfer Begriff ist, besteht bei SM3 viel größere Planungssicherheit.

Ein paar neue Shader zu schreiben ist nicht das Problem. Das Problem ist der Content (die Texturen, die Geometrie, die Animationen, der Sound, …) Rein mit Shadern kann man nur wenige neue sinnvolle Effekte ermöglichen. Man benötigt auch neuen Content. Das ist der Kostentreiber.

Odal
2006-03-03, 01:50:50
Dass man einen anderen Shader erhält ist doch egal, wenn der eigentliche Shader eh in HLSL geschrieben ist. Für SM2 schreibt man eben einen Shader, der sich auf dem SM2-Target noch kompilieren lässt. Natürlich ist es Zusatzaufwand, neben SM2 auch SM3 so gut es geht zu nutzen. Mit SM3 lassen sich aber viele Sachen, die auf SM2-Hardware auch noch laufen, also noch in Echtzeit, eben effizienter (performanter) umsetzen.

Das wissen wir ja (fast) alle. Ich hinterfrage nur ob sich es lohnt Effekte die mit SM2 dargestellt werden nochmals mittels SM3 aufzuwerten oder man nicht gleich sagt es gibt anständige performante SM2 Effekte auf HighDetails und darüber hinaus einen VerryHigh Modus mit ein paar eye candis die mit SM3 (aus performance gründen / leichterer programmierarbeit) umgesetzt werden, wo man sich aber sagt ok auch SM3 Hardware einer bestimmten Leistungsklasse wird da nur noch wie ein Schluck Wasser laufen, die sollen dann einfach die Details auf High stellen. ICh meine ähnliches wird doch schon derzeit bei AoE3 gemacht, es bietet einen Shader Detail Modus High und einen VerryHigh Modus. Wobei in letzterem der NV40 wie ne Schnecke läuft (eben überfordert von den Effekten). Vielleicht könnte man mal die benutzten Shader mitloggen ob im Modus Shaderdetail=High auch SM3 shader zum einsatz kommen und wieviele im vergleich zu SM2 KArten. Wäre zumindest mal interessant.



Gerade mit dem schnellen dynamic branching bietet der R520/R580 hier ungeahnte Möglichkeiten. Da ist insofern noch als Hemmnis die grausige Performance beim G70, doch es ist ja nicht ATIs Schuld wenn NV noch auf große Quadbatches setzt. Über kurz oder lang wird auch NV effizientes dynamic branching im Pixelshader anbieten, ein Entwickler kann das heute schon nutzen, richtig was bringen tuts nur erst mal auf der Radeon was. Sollte man diese Möglichkeit zur Performancesteigerung heute noch nicht nutzen, solange bis NV nachgezogen hat?

Als Publisher würde ich das nicht extra finanzieren das eben das Spiel dynamic branching einsetzt, da eben NVidia hier eine schlecht performante Hardwarebasis hat und ich damit sowieso nur einen kleinen Kundenkreis erreichen kann und das das Spiel dann auf NV Karten viel schlechter läuft könnte ich mir als Publisher nicht leisten (ausser ATI finanziert mich kräftig). Dann muss ich eher mit den Effekten heruntergehen. Da der 7900 nur ein refresh ist wird sich die dynamic branching performance da auch nicht verbessern...das heist wir haben noch fast nen 3/4tel jahr keine chance auf gute dynamic branching performance beider IHVs. Wie stark die Leistung für dyn. branch. dann vom G80 ist kann heute noch kein Entwickler abschätzen.


Die Marktdurchdringung von SM3-Hardware wird kommen, schon weil D3D10-compliant HW auch SM3 (und damit auch SM2 und SM1) können muss. Wer als Entwickler auf SM3 setzt, setzt garantiert auf das richtige Pferd – die Frage ist nur, ob mittel- oder langfristig.

natürlich wird sie kommen, liegt ja schon allein daran das nur noch SM3 fähige hardware von ATI und NVidia nachproduziert wird. Die Frage ist nur wann es soweit ist das man von einer wirklichen SM3 Hardwarebasis beim Endkunden sprechen kann.



Bei SM3 ist das gute, dass es (abgesehen vom Texturfilter beim Vertextexturing) nur SM3 gibt und sonst nix. Bei SM2 gibts 2.0, und 2.x mit 2_A und 2_B. Folge: Bei SM2 wird oft nur 2.0 gesehen

Sonst wurde einem hier im Forum immer suggeriert das man dem Compiler nur das entsprechende SM2 Profil als Target mit übergeben muss.


, vielleicht noch 2.x Profil 2_A verwendet um der GF etwas Beine zu machen (oder wenn man keine exklusiven SM2-Features braucht) aber 2_B (für R420) ist praktisch fast ohne Bedeutung.

warum? 2_B ist doch eine Untermenge von 2_A bei der man doch trotzdem das ach so wichtige Instruktionenlimit von 64 erhöht hat. Wieso sollte man nicht wenn dann ein SM 2_B profil für den Compiler nutzen als kleinsten gemeinsamen nenner der über SM2 hinausgeht. Bei Farcry hat es doch prima funktioniert...man hat die alten GF FXen beschleunigt und den R420 gleich mit.

aths
2006-03-03, 02:18:01
Das wissen wir ja (fast) alle. Ich hinterfrage nur ob sich es lohnt Effekte die mit SM2 dargestellt werden nochmals mittels SM3 aufzuwerten oder man nicht gleich sagt es gibt anständige performante SM2 Effekte auf HighDetails und darüber hinaus einen VerryHigh Modus mit ein paar eye candis die mit SM3 (aus performance gründen / leichterer programmierarbeit) umgesetzt werden, wo man sich aber sagt ok auch SM3 Hardware einer bestimmten Leistungsklasse wird da nur noch wie ein Schluck Wasser laufen, die sollen dann einfach die Details auf High stellen. ICh meine ähnliches wird doch schon derzeit bei AoE3 gemacht, es bietet einen Shader Detail Modus High und einen VerryHigh Modus. Wobei in letzterem der NV40 wie ne Schnecke läuft (eben überfordert von den Effekten). Vielleicht könnte man mal die benutzten Shader mitloggen ob im Modus Shaderdetail=High auch SM3 shader zum einsatz kommen und wieviele im vergleich zu SM2 KArten. Wäre zumindest mal interessant.Im Einzelfall ist fast alles möglich. Man kann Fälle konstruieren, wo eigentlich bessere AA-Samplingmuster das schlechtere Bild erzeugen. Man kann Fälle konstruieren, wo ein Verstoß gegen elementare Optimierungsregeln dazu führt, dass ein Shader bei gleichwertiger Optik schneller ausgeführt wird. Da der Einzelfall kaum Aussagen erlaubt, betrachte ich ihn – in dem Fall AOE3 – kaum. Soweit ich weiß, gibt es noch keine Spiele, die SM3-Hardware für eine Grafikpracht nutzen, die auf heutiger SM3-HW gut performt und auf SM2-HW nicht geboten wird. Wie bei AOE3 sind zwar einige Zusatzeffekte drin, aber bislang sucht man eine Killer-App vergebens.

Da die SM2-HW eine viel breitere Basis hat, und jede SM3-Karte eine sehr gute SM2-Karte ist (von der 6200 und 7300 mal abgesehen, da ist die Rohleistung zu beschränkt, auch die X1300 ist nicht doll) ist SM2 auf 2.0-Niveau (zur Radeon-9700-Kompatibilität) heute noch Stand der Technik. Daran den Nutzen oder Nichtnutzen von SM3 festmachen zu wollen, ist aus meiner Sicht aber zu kurz gedacht. Genau das ist, glaube ich, der springende Punkt. Die einen sehen nur die heutigen Zusatzeffekte die SM3 erfordern, die anderen gucken sich die SM3-Spec an.

Als Publisher würde ich das nicht extra finanzieren das eben das Spiel dynamic branching einsetzt, da eben NVidia hier eine schlecht performante Hardwarebasis hat und ich damit sowieso nur einen kleinen Kundenkreis erreichen kann und das das Spiel dann auf NV Karten viel schlechter läuft könnte ich mir als Publisher nicht leisten (ausser ATI finanziert mich kräftig). Dann muss ich eher mit den Effekten heruntergehen. Da der 7900 nur ein refresh ist wird sich die dynamic branching performance da auch nicht verbessern...das heist wir haben noch fast nen 3/4tel jahr keine chance auf gute dynamic branching performance beider IHVs. Wie stark die Leistung für dyn. branch. dann vom G80 ist kann heute noch kein Entwickler abschätzen.Dass ein Spiel auf NV-Karten schlechter läuft hatten wir zu den FX-Zeiten mehrfach, auch bei TWIMTBP-Games.

Wenn der G80 ein D3D10-Chip wird, ist gute Performance beim Dynamic Branching zu erwarten. (Sicher ist das natürlich nicht, aber sehr wahrscheinlich.) Ich bin sicher, dass NV schon einigen Entwicklern gesteckt hat, wie performant dieses Feature bei ihrem D3D10-Modell ausfallen wird. NV hat die Leute schon beim NV30 dazu angeregt, doch bitte das Featureset zu nutzen, obwohl es auf dem NV30 und 35 dann wegen der niedrigen effektiven ALU-Leistung miserabel lief. Auf dem NV40 flitzen die entsprechenden Shader. Der NV40 bietet nun Features, die erst bei der richtigen nächsten Generation fullspeed laufen.

natürlich wird sie kommen, liegt ja schon allein daran das nur noch SM3 fähige hardware von ATI und NVidia nachproduziert wird. Die Frage ist nur wann es soweit ist das man von einer wirklichen SM3 Hardwarebasis beim Endkunden sprechen kann.Spiele die SM2 nutzten gab es schon, als viele noch ihre GF4 Ti oder so im PC hatten. Ebenso wird es SM3 nutzende Spiele auch geben, bevor die Durchdringung sehr groß ist. Dass SM3 heute meistens nur für einen etwas höheren Detailgrad als beim SM2-Techlevel genutzt wird ist auf der anderen Seite kein Nachteil. SM3 ist ja genau dafür gedacht, komplexere Effekte noch singelpass, und GPU- und CPU-schonender rendern zu können. Es ist ja nicht so, dass man nur mit SM3 supertolle Effekte hätte und man mit SM2 noch gerade so Multitexturing bekäme. Schon mit SM1 ist gutes Bumpmappig möglich, SM2 bietet noch Dinge wie einfaches Parallaxmapping (singlepass und in Echtzeit-Performance) und mehr, zum Beispiel einigermaßen realistische Wasseroberflächen.

Sonst wurde einem hier im Forum immer suggeriert das man dem Compiler nur das entsprechende SM2 Profil als Target mit übergeben muss.Das kann (muss nicht, aber kann) bereits einen Performance-Vorteil ergeben.

warum? 2_B ist doch eine Untermenge von 2_A bei der man doch trotzdem das ach so wichtige Instruktionenlimit von 64 erhöht hat. Wieso sollte man nicht wenn dann ein SM 2_B profil für den Compiler nutzen als kleinsten gemeinsamen nenner der über SM2 hinausgeht. Bei Farcry hat es doch prima funktioniert...man hat die alten GF FXen beschleunigt und den R420 gleich mit.Mit Profil 2_A kann man eben mehr Sachen machen als mit 2_B. 2_A bietet freies Swizzling, static Branching und mehr. 2_B ist 2_0 mit erhöhtem Instruction Count. 2_A ist 2_B mit neuen Befehlen (darunter bereits ddx und ddy) und weniger Limits. Als kleinsten gemeinsamen Nenner wird man eh noch auf lange Sicht 2_0 nehmen – was in erster Linie wegen des Instruction Counts schade ist. Dass kein static branching geboten wird (iirc auch bei 2_B nicht) ist ebenfalls blöd, denn so muss man sehr viele Shadervariationen erstellen (was CPU-Last nachsich zieht, aber auch die Graka ein wenig belastet.) Der Hauptmangel an SM2 ist die starke Beschränkung bei 2.0. Wäre 2_0 bereits auf 2_B-Niveau gewesen, sähe es schon deutlich anders aus, obwohl 2_A und 3_0 sehr viel mehr als 2_B bieten.


Wenn es neue Features gibt, sollte immer kritisch hinterfragt werden: Brauche ich das? T&L brachte viel weniger, als die meisten zunächst dachten, von TruForm redet heute kein Mensch mehr, … SM3 allerdings ist eine durch und durch nützliche Erweiterung von SM2. Jeder einzelne Befehl, jedes erweiterte Limit hat seinen Sinn. SM3-Support wird so oder so kommen. SM3 lebt weiter im D3D10-Shader-Model, genauso wie SM2 durch SM3 nicht ersetzt, sondern ergänzt wurde.

Ich zitiere jetzt einen, der sich mit 3D-Grafikprogrammierung bisschen auskennt: In der Echtzeitgrafik ist sowieso das höchste Prinzip, möglichst viel zu faken/zu betrügen. D.h. mit möglichst wenig Berechnungen "gute Grafik" zu ermöglichen (je weniger Berechnungen, desto schneller). Mit SM 3.0 müsste man weniger betrügen als bei SM 2.0, sondern könnte mehr "tatsächlich" ausrechnen. Das bedeutet nicht automatisch bessere Grafik vom Ästhetikstandpunkt (da spielen Faktoren wie talentierte Artists usw. auch rein), aber es ist bessere Grafik vom Technikstandpunkt.Wie gesagt, über den Einzelfall (AOE3 oder sonstwas) kann man streiten. Generell ist SM3 eine Erleichterung, die es gibt, weil sich Programmierer genau das gewünscht haben. Nicht umsonst wurde SM3 gleich zusammen mit SM2 in DX9 spezifiziert. Schon als die ersten SM2-Shader auf echter HW getestet wurde, war klar, was mit SM3 möglich ist – nur sieht es da mit der HW-Verbreitung noch mau aus. Auch mit der Ausnutzung allgemein sieht es noch mau aus – die relativ freie Programmierbarkeit in SM3 führt nicht automatisch zu bombastischer Grafik. Zumal, da wiederhole ich mich, der Content das meiste Geld kostet, und nich das Schreiben einiger neuer Shader – doch reine Shader (Berechnungen) bringen wenig, wenn es keinen zusätzlichen Content gibt, der verrechnet wird.

tokugawa
2006-03-03, 03:58:47
Nochmal zur Wiederholung: Es geht hier nicht darum einem Spieler einzureden SM 3 sei notwendig für ihn! Es geht darum das Faktum zu erklären dass SM 3 per se nicht unnütz ist, auch wenn es Spielern auf einer konkreten Karte die sie kaufen zur Zeit noch nicht so viel bringt!

Also ich denke schon, daß die genannten Karten alle hauptsächlich (zu fast 100%) auf die Spiele(r) zugeschnitten sind.

Natürlich ist das sehr wichtig, aber den Käufern der GPUs wird es erst was bringen, wenn die Hardware es (und vor allem auch die bis dahin Standard-Features) auch performant beherrscht.


Entwickler sind auch Käufer der GPUs...

Und andere Anwendungsgebiete (InfoVis, Medizinische Visualisierung, usw. usf.) gibt es auch.

Spieler sind zwar sicher die gehypteste und größte Zielgruppe, aber nicht die einzige.

Und Spieler kriegen auch nur das was Entwickler ihnen servieren. Daher: Entwickler sind garantiert nicht so unwichtig wie einige hier meinen.


Manchmal glaube ich auch, die Entwickler sollten nicht immer neue Features fordern, sondern die vorhandenen erstmal richtig nutzen. Aber die Wahrheit wird wohl mal wieder zwischen den Extremen liegen.


Beides ist der Fall. Die vorhandenen werden eh schon richtig genutzt.

SM 3.0 hat sich schon längst bewährt. Nur halt noch nicht für Spieler.

Daher ist SM 3.0 schon per se keine "Randnotiz".



Dieses Gehetze, GPUs abzuverlangen, sofort die allerneuesten Features zu beherrschen, obwohl sie grundsätzlich sehr gute und schnelle 3D-Grafik ausgeben, geht mir sogar ziemlich auf den Keks.


Verlangt keiner!

Es geht nur darum zu verteidigen dass SM 3.0 sich in der Praxis (abseits von Spielen) schon bewährt hat, und somit nicht unnütz ist.


Wichtig ist imho, daß langfristige und klare Standards geschaffen werden, wie auch in der Vergangenheit mit DX/OGL teilweise bereits geschehen.

Hust. Programmierst du eine der beiden APIs? Ich glaub das mit den "klaren Standards" ist eine prinzipielle Illusion...



ch weiss was es heist eine Deadline zu haben und ich weiss wieviel erstmal hingebastelt wird hauptsache es läuft. Schreib du man erstmal deine Diplomarbeit fertig und arbeite in einem Unternehmen dann redest du vielleicht auch anders.


Arbeiten und Studieren ist kein Widerspruch. Wie kommst du darauf dass ich nur studiere? Unternehmenserfahrung hab ich genug, zumindest genug dass ich weiß dass ich sicher nicht bei Siemens (PSE) oder ähnlich strukturierten Unternehmen arbeiten werde :)

Ich hab zwar arbeitsmäßig zur Zeit eher eine Forschungsaffinität (da ich gleich anschließend mein Doktorstudium anfangen werde), aber dadurch auch genug Kontakt zu Entwicklern in der Spielebranche (sind nämlich teilweise auch Studienkollegen von mir). Ich hab eh erst vor einem Monat ein Angebot eines Spieleentwickler-Studios ablehnen müssen, da ich eben gerade mit Diplomarbeit und Institutsarbeit die Hände voll hab.

Außerdem ähnelt der Arbeitsvorgang meiner Diplomarbeit sowieso dem Prozess der Entwicklung in einem Unternehmen (ich bin eigentlich gerade im Crunch-Modus, da ich nächsten Mittwoch eine Deadline habe, daher mein spätes Posting - ich programmier in letzter Zeit jede Nacht durch).

Und meine Diplomarbeit hat außerdem auch mit Echtzeitgrafik zu tun vor allem auch im Hinblick auf Verwendung in Spielen (im Rahmen des EU-geförderten Gametools-Projekt).



...bleibt es erstmal ein Herumspielen mit diversen Dingen. Mein Cheff würde mir was husten wenn ich meine Arbeitszeit damit vergeuden würde bestimmte Sachen zu implementieren wo ich nicht zu 100% weiss das da nicht wieder was umgeworfen wird.


Herumspielen ist doch was gutes! "Bessere Chefs" haben dafür durchaus Verständnis, wenn Entwickler ihnen neue Effekte zeigen können. Außerdem sind wirkliche Entwickler-Enthusiasten sowieso so sehr mit Herz und Hirn dabei dass sie auch einfach nur so mal Effekte programmieren, weil das einfach Spaß macht.

Ich zitiere aus dem Vorwort der GPU Gems 2:

But while much has changed in graphics development, several truths have remained: that graphics requires a unique combination of engineering, artistry, and innovation unmatched in other fields; that innovation moves at an incredible pace as hardware performance increases exponentially; and that graphics programming is a heck of a lot of fun!.


Speziell das letztere ist Antriebskraft für jene Entwickler, die sich wirklich für Echtzeit-Grafik begeistern können. Dazu gehöre auch ich (was glaubst du wieviele Engines ich schon in meiner Freizeit, also unbezahlt, geschrieben habe).


Genauso möchte ich bezweifeln das vor dem Release des R520 im Unternehmen viel mehr gemacht wurde als etwas damit herumgespielt.


Hast du den Hasen gesehen den ich gepostet habe? Das ist nur die Spitze des Eisbergs, es gab bereits massenweise fertig entwickelte und erforschte Algorithmen, die SM 3.0 ausnutzen, noch vor dem R520.

Vielleicht solltest du mal in diese Ecke der Grafikwelt deine Nase stecken :) da gibt's sehr sehr viel was dir anscheinend gar nicht bewußt ist.


Ich erinnere nur an den Fakt das sich ATI die SM3 Spezifikation etwas anders ausgelegt haben als sie gemeint war.


Das ist immer so, das betrifft nicht nur SM3, sondern auch die APIs generell. Man kann sowieso nie erwarten dass etwas genauso auf ATI läuft wie auf NVIDIA. Was glaubst du wieso ich zwei Rechner maintaine mit jeweils einer ATI und einer NVIDIA Karte? Eben um solche Differenzen austesten zu können.

Das hat mit den Effektalgorithmen an sich nichts zu tun, im Normalfall ist das halt etwas Finetuning.


Und wie gesagt wiochtig für den Entwickler (ja ich weiss wovon ich rede) ist auch welche Performance er mit seiner Arbeit erreichen wird.


Natürlich. Algorithmische Performance. Sprich, Vorteile zu vorher. Oder, wenn der Algorithmus Performance kostet: welche Benefits bringt er?

Solche Überlegungen sind Teil JEDES Papers und Artikels über neue Grafikeffekte.

Aber na und? Das heißt nicht dass jeder Entwickler eine High-End-Karte besitzen muß. Und Features sind erst einmal primär wichtig, sonst läuft's nämlich gar nicht.


Ja genau, und kein Unternehmen pulvert Geld in die Entwicklung eines bestimmten Softwarefeatures ohne zu wissen was für Hardware da genau auf einen zukommt auf der das laufen muss.

Das kommt auf's Unternehmen an.

Auch bei Spieleentwicklern gibt es zwei Gruppen: jene mit starken Forschungsaspekt, und jene die eher "fix und fertige" Sachen einbauen in die Engine, die "safe" sind.

Crytek und Epic gehören zu ersterer, die bringen auch immer öfters Präsentationen und ähnliches mit auf Konferenzen. Klar, die machen auch die High-End-Middleware. Und das sind genau die Entwickler, die den Fortschritt vorantreiben.

Und genau da entwickeln die schon seit Anbeginn von SM 3.0 daran, schon lange vor dem R520. Dasselbe gilt für Entwickler in der Forschung.

Ich empfehle dir echt mal das Buch GPU Gems 1 und 2 zu lesen. SM3 ist lebendig in der Praxis. Daran gibt es absolut keinen Zweifel.


Nö, aber wenn man vom SM3 wirklich was haben will reicht es nicht mehr Instruktionen für Shader zu verwenden sondern man muss Sachen wie Statische oder Dynamische Sprunganweisungen nutzen. Das heisst man erhält dann einen komplett anderen Shader der mit SM2 inkompatibel ist und müsste für SM2 extra ein aufwendiges Fallback schreiben.


Nein, wie oft soll ich das noch wiederholen? (langsam wird's mühsam)

Der Shader ist anders, ja. Aber so aufwändig wie du behauptest ist es nicht. Man kann etwa SM 2.0 Teile in Loops verpacken (für variable Lichtquellen etwa).

Überhaupt kann man mit einem mächtigen Shader System dann etwa Effekte dynamisch zusammen"klicken", die aber dann nicht mehr beschränkt sind auf SM 3.0. Das ist nicht dann nur ein längerer Shader, das kann auch andere SM 3.0 Features nutzen.

Wenn dann ist SM 3.0 Entwicklung einfacher. Den SM 2.0 Shader schreibt ein Entwickler vielleicht noch mit Kopfschmerzen. Den höherwertigen SM 3.0 Shader schreibt er dann mit Genuß.


Joa man muss aufgrund der Restriktionen nur völlig neue Shader schreiben weil man das was mit SM3 an Shadern geschrieben wurde nicht so leicht portieren kann (ausser es würde keine SM3 Funktionalität verwenden aber dann wäre es ja gleich ein SM2 Shader und somit SM3 überflüssig).


Wieviele SM 3.0 Shader hast du schon geschrieben?


warum? 2_B ist doch eine Untermenge von 2_A bei der man doch trotzdem das ach so wichtige Instruktionenlimit von 64 erhöht hat. Wieso sollte man nicht wenn dann ein SM 2_B profil für den Compiler nutzen als kleinsten gemeinsamen nenner der über SM2 hinausgeht. Bei Farcry hat es doch prima funktioniert...man hat die alten GF FXen beschleunigt und den R420 gleich mit.

Und gerade Far Cry ist ein Beispiel für SM 3.0 Nutzung. Und gerade Crytek ist als Firma bekannt die eng mit der Forschung zusammenarbeitet. Und gerade Crytek hat Leute angestellt, die dauernd (wie du es bezeichnest) "rumspielen". Das nennt man nämlich Forschung&Entwicklung.



Dass dieses Rumspielen erst die vielen Grafikeffekte und die Grafikqualität von heute ermöglicht, ist dir aber schon klar, oder?

Wo wären wir wenn's nur Chefs wie deine gäbe, die nur alles gesichert haben wollen und keine Innovationen fördern.



Also nochmal zusammengefaßt:

- Entwickler/Forscher nehmen neue Hardware gern an, schauen was sie damit machen können (= "Rumspielen" nach Odal-Vokabular)
- Manchmal schaffen sie schon was auf dieser Hardware (gut, kann man ein Paper/Publikation darüber schreiben und die wissenschaftliche Diskussion darüber anregen), oder es fehlt dieser Hardware noch irgendwas (Performance in dem Aspekt, oder einfach ein bestimmtes Feature) -> d.h. Entwickler verlangen solche Features
- IHV hört darauf und legt nach

Das ist natürlich kein reiner Zyklus, sondern eher sehr vermischt. Manchmal kommt ein neues Feature das die Entwickler verlangt haben (etwa Hardware Occlusion Queries), aber das ist nicht performant genug in der Form (bei Hardware Occlusion Queries etwa weil man die GPU pollen muß ob das Ergebnis schon da ist).

Im Falle der Occlusion Queries ist was tolles entstanden: Anstatt dass man als Entwickler von den IHVs verlangt dass diese einfach schneller werden, hat man sich hingesetzt und geschaut was man algorithmisch verbessern kann (= "Rumspielen" nach Odal-Vokabular).

Letztendlich ist ein sehr interessanter (und für viele Fälle einsetzbarer) Algorithmus rausgekommen, der in GPU Gems 2 auch veröffentlicht wurde (und der zufällig von meiner Uni und "meinem" Computergraphik-Institut stammt): Coherent Hierarchical Culling.

Und das ist das Idealbild, wie Innovation in der Computergraphik funktioniert. Und das ist genau das, was dann die tollen Welten auf den Bildschirm zaubert.

Und genau das ist der Teil dieser Welt, wo SM 3 in der Praxis sich schon längst bewährt hat.

Coda
2006-03-03, 10:58:44
Mit der 5200 konnte ein 3D-Programmierer mehr anfangen als mit einer Radeon 9800 XT. Das ist Fakt.Auch mehr als mit einer X850XT-PE.

Odal
2006-03-03, 11:10:53
Im Einzelfall ist fast alles möglich. Man kann Fälle konstruieren, wo eigentlich bessere AA-Samplingmuster das schlechtere Bild erzeugen. Man kann Fälle konstruieren, wo ein Verstoß gegen elementare Optimierungsregeln dazu führt, dass ein Shader bei gleichwertiger Optik schneller ausgeführt wird. Da der Einzelfall kaum Aussagen erlaubt, betrachte ich ihn – in dem Fall AOE3 – kaum. Soweit ich weiß, gibt es noch keine Spiele, die SM3-Hardware für eine Grafikpracht nutzen, die auf heutiger SM3-HW gut performt und auf SM2-HW nicht geboten wird. Wie bei AOE3 sind zwar einige Zusatzeffekte drin, aber bislang sucht man eine Killer-App vergebens.


Darauf wollte ich nicht hinaus, wie kann sich der Spieler sonst den aktuellen Nutzen von SM3 vorstellen wenn es nicht erlaubt ist eins der wenigen SM3 unterstützenden Spiele zu begutachten? Das wir die vielen SM3 Spiele 2005 sehen werden hat man 2004 schon behauptet. Nun sah man mal eins und da sei einem wieder nicht erlaubt das zu analysieren sondern es wird auf 2006 verwiesen. Nun seh ich in den ersten viertel Jahr 2006 auch noch nichts.


Da die SM2-HW eine viel breitere Basis hat, und jede SM3-Karte eine sehr gute SM2-Karte ist (von der 6200 und 7300 mal abgesehen, da ist die Rohleistung zu beschränkt, auch die X1300 ist nicht doll) ist SM2 auf 2.0-Niveau (zur Radeon-9700-Kompatibilität) heute noch Stand der Technik. Daran den Nutzen oder Nichtnutzen von SM3 festmachen zu wollen, ist aus meiner Sicht aber zu kurz gedacht.

Das will ja keiner, und es bestreitet ja auch keiner das SM3 für zukünftige Hardware unumgänglich ist.


Genau das ist, glaube ich, der springende Punkt. Die einen sehen nur die heutigen Zusatzeffekte die SM3 erfordern, die anderen gucken sich die SM3-Spec an.


Naja zwei unterschiedliche Interessengruppen. Die einen sind eben Spieler und die anderen, die damit rumprogrammieren gucken sich die Spezifikation an. So sieht jeder das was er sehen möchte. Der Spieler das was auf dem Bildschirm abläuft und daneben meinetwegen noch die FPS Anzeige und der Entwickler das was er zur Verfügung hat um seine Shader zu schreiben.


Dass ein Spiel auf NV-Karten schlechter läuft hatten wir zu den FX-Zeiten mehrfach, auch bei TWIMTBP-Games.


Ja wie ich schon sagte, da ging einigen die nach dem Release des R300 noch schnell ein paar SM2 Shader eingebaut haben ein halbes Jahr später sicherlich die Pumpe.


Wenn der G80 ein D3D10-Chip wird, ist gute Performance beim Dynamic Branching zu erwarten. (Sicher ist das natürlich nicht, aber sehr wahrscheinlich.) Ich bin sicher, dass NV schon einigen Entwicklern gesteckt hat, wie performant dieses Feature bei ihrem D3D10-Modell ausfallen wird.

So wie sie im Herbst 2002 beim R300 Release vor der Öffentlichkeit behauptet haben sie haetten den Wunderchip? Und der milde ausgedrückt zwar viel konnte aber im Endeffekt ne lahme Ente war?


Spiele die SM2 nutzten gab es schon, als viele noch ihre GF4 Ti oder so im PC hatten. Ebenso wird es SM3 nutzende Spiele auch geben, bevor die Durchdringung sehr groß ist.


Es haben auch noch heute sehr viele ne GF 4 Ti 4200. Auf die warten wir aber schon 2 Jahre.


Dass SM3 heute meistens nur für einen etwas höheren Detailgrad als beim SM2-Techlevel genutzt wird ist auf der anderen Seite kein Nachteil. SM3 ist ja genau dafür gedacht, komplexere Effekte noch singelpass, und GPU- und CPU-schonender rendern zu können. Es ist ja nicht so, dass man nur mit SM3 supertolle Effekte hätte und man mit SM2 noch gerade so Multitexturing bekäme.

Was doch wohl eher am instructioncount liegt welcher ja mit den SM2 Erweiterungen angehoben wurde.


Mit Profil 2_A kann man eben mehr Sachen machen als mit 2_B. 2_A bietet freies Swizzling,

Ich kenne Swizzling nur von Datenbanken wozu braucht man das bei der Shaderprogrammierung?


static Branching und mehr.


Ist bei Shadern (so wie ich es verstanden habe) nur dazu da um die Bequemlichkeit der Entwickler zu unterstüzen.


2_B ist 2_0 mit erhöhtem Instruction Count.

Wenn ich das richtig verstanden habe bringt das doch bereits Speedvorteile. Ein Shader ist doch nicht viel mehr als mathematische Funktionen die auf eine Textur angewand werden. Hat man zum Beispiel eine Oberfläche mit Einkerbungen (z.b. Riffelblech) braucht man einen Shader für das Bumpmapping dieser. Soll das Riffelblech auch noch glänzen (wie diese oft Benutzten Fliesen in Spielen) braucht man auch noch eine mathematische Funktion für diesen Glanzeffekt. Jede Funktion lässt sich ja mit einer Instruktionsabfolge beschreiben. Reicht das Instruktionslimit nicht mehr aus (z.b. Instruktionslimit reicht nur für den Bumpmapping Effekt) muss die mathematische Funktion für den anderen Effekt in einen extra Shader verfrachtet werden und das neu texturierte Objekt mit dem neuen Shader nochmal durch die ALUs gejagt werden. Zumindest hab ich das so verstanden. Dann müsste doch die Instruktionserhöhung von 64 auf glaube 512 bei SM2.b (oder 2_b) schon Multipasses verhindern oder nicht? Zumindest hab ich das so verstanden ohne allzutief in die Materie eintauchen zu müssen.

Dass kein static branching geboten wird (iirc auch bei 2_B nicht) ist ebenfalls blöd, denn so muss man sehr viele Shadervariationen erstellen (was CPU-Last nachsich zieht, aber auch die Graka ein wenig belastet.)

aber mehr oder weniger ist das doch blos ein problem des Entwicklungsaufwandes. So das ich nicht einfach einen Parameter für die Shaderhardware übergeben kann und dann zum entsprechenden Codeblock springen kann.



Der Hauptmangel an SM2 ist die starke Beschränkung bei 2.0. Wäre 2_0 bereits auf 2_B-Niveau gewesen, sähe es schon deutlich anders aus, obwohl 2_A und 3_0 sehr viel mehr als 2_B bieten.


Wenn man bei 2.0 2 Shader hat die zusammen über das 64 Instruktionslimit kommen würden und die daher extra kompilieren muss, kann man nicht einfach manchmal die Instruktionen des 2. Shaders an die Instruktionen des 1. hängen und das mit Target 2_b durch den Compiler jagen?


Wenn es neue Features gibt, sollte immer kritisch hinterfragt werden: Brauche ich das? T&L brachte viel weniger, als die meisten zunächst dachten, von TruForm redet heute kein Mensch mehr, … SM3 allerdings ist eine durch und durch nützliche Erweiterung von SM2. Jeder einzelne Befehl, jedes erweiterte Limit hat seinen Sinn. SM3-Support wird so oder so kommen. SM3 lebt weiter im D3D10-Shader-Model, genauso wie SM2 durch SM3 nicht ersetzt, sondern ergänzt wurde.

Es hat hier ja wie gesagt niemand was gegen SM3, es gibt nur 2 Interessengrupen....den Spieler der zum Teil noch SM2 Hardware hat und den Entwickler der gern mit SM3 entwickeln möchte. Der Spieler fragt sich nun natürlich ob es nicht reicht ab der X1800/X1900 7800/7900 SM3 Hardware zu haben oder ob er vorher mit seiner X850XT (laut Eingangsposting) viel verpasst. Deswegen muss man aber dem Spieler nicht unterstellen das er SM3 generell für überlüssig hält sondern er hält eben SM3 jetzt bei seiner jetzigen Hardware für ziemlich irrelevant.


Wie gesagt, über den Einzelfall (AOE3 oder sonstwas) kann man streiten.

Es ist eben nur das was man als Spieler jetzt hat und jetzt sehen und analysieren kann. Wie gesagt mich würde es wirklich mal interessieren wieviele SM3 Shader AoE3 auf Shaderdetail=High (also das was man auch mit SM2 HArdware darstellen kann) benutzt. Leider habe ich aktuell keine SM3 HArdware mehr hier rumliegen so das ich das nicht mit 3DAnalyze (demis DXTweaker kann das doch bestimmt auch oder?) testen kann. Natürlich muss AoE3 nicht repräsentativ sein, aber es gibt nunmal nicht viel mehr Sachen die man derzeit da untersuchen kann.

Odal
2006-03-03, 11:45:28
Nochmal zur Wiederholung: Es geht hier nicht darum einem Spieler einzureden SM 3 sei notwendig für ihn! Es geht darum das Faktum zu erklären dass SM 3 per se nicht unnütz ist, auch wenn es Spielern auf einer konkreten Karte die sie kaufen zur Zeit noch nicht so viel bringt!

Ja ok, versteht der DAU der hier mal flüchtig liesst aber nicht. Mir und anderen geht es auch nicht darum die generelle Notwendigkeit von SM3 infrage zu stellen sondern lediglich (das Eingangsposting beantwortend) das es jetzt kaum SM3 nutzenden Spiele gibt und das es SM3 Hardware für den Spieler gibt die wo er von dem Feature nicht wirklich profitiert da a) die Softwareunterstützung fehlt b) Der Lebenszyklus dieser Hardware beendet ist sobald a) zutrifft oder der erhöhte Detailgrad mit dieser Hardware dann zwar technisch aber nichtmehr effektiv nutzbar darstellbar ist.


Hust. Programmierst du eine der beiden APIs? Ich glaub das mit den "klaren Standards" ist eine prinzipielle Illusion...

Das war zwar nicht an mich, aber mich hat Computergrafik während meines Studiums nur tangiert. Damals spielten zwar Shader noch nicht wirklich eine Rolle, aber mit OpenGL hatte ich dort auch in kleinem Rahmen zutun. DirectX habe ich (ohne die Shaderwelt) in der Tat schonmal sinnvoll genutzt ganz abseits der Spielewelt, um in einer Konstruktionssoftware etwas zu visualisieren.


Herumspielen ist doch was gutes! "Bessere Chefs" haben dafür durchaus Verständnis, wenn Entwickler ihnen neue Effekte zeigen können.

Vielleicht ist das in der Grafikwelt anders, da man da was auf dem Schirm sieht. Ich darf auch herumspielen aber das dann bitte zu Hause ^^.


Hast du den Hasen gesehen den ich gepostet habe? Das ist nur die Spitze des Eisbergs, es gab bereits massenweise fertig entwickelte und erforschte Algorithmen, die SM 3.0 ausnutzen, noch vor dem R520.

Hab ich gesehen, heist aber nicht das es jetzt oder in naher Zukunft für mich oder den Spieler relevant ist. Natürlich kann man sich dann schonmal freuen was vielleicht in 1-2 Jahren für ein Detailierungsgrad kommt, gerade bei so aufwendigen Objekten wie Glaskörpern.


Vielleicht solltest du mal in diese Ecke der Grafikwelt deine Nase stecken :) da gibt's sehr sehr viel was dir anscheinend gar nicht bewußt ist.

Ich hab mir schon damals auf dem Amiga immer Grafikdemos reingezogen. Leider fehlt mir die Zeit für sowas (ich mein jetzt nicht nur zu sehen was gemacht wird sondern einzutauchen wie es genau gemacht wird).


Überhaupt kann man mit einem mächtigen Shader System dann etwa Effekte dynamisch zusammen"klicken", die aber dann nicht mehr beschränkt sind auf SM 3.0. Das ist nicht dann nur ein längerer Shader, das kann auch andere SM 3.0 Features nutzen.


Macht man aber noch bei keinem releasten Produkt und wird es vermutlich in nächster Zeit auch erstmal nicht zu Gesicht/zu spüren bekommen.


Wenn dann ist SM 3.0 Entwicklung einfacher. Den SM 2.0 Shader schreibt ein Entwickler vielleicht noch mit Kopfschmerzen. Den höherwertigen SM 3.0 Shader schreibt er dann mit Genuß.

Leute die wissen was Branching ist verstehen das ja. Nur wird er den SM2 Shader erstmal sowieso noch schreiben müssen da das Spiel sonst keine Abnehmer mehr findet. Es will doch keiner bestreiten das es sich mit SM3 leichter entwickeln lässt da die Shaderprogrammierung durch Sprünge welche ja Schleifen (derzeit ist die dyn. branching Performance ja noch grottenschlecht) zulassen immer mehr einer normalen normalen Programmiersprache ähneln wird.



Wieviele SM 3.0 Shader hast du schon geschrieben?


Keinen. Wieso? Ich weiss aber das wenn ich eine Codesequence mit Sprüngen performant aufwerten möchte was völlig neues bei rauskommen kann.


Und gerade Far Cry ist ein Beispiel für SM 3.0 Nutzung.


Naja eher weniger. Mir war so das der SM3 "Pfad" nicht wirklich was anderes als der SM2.x "Pfad" war Crytek das nur als SM3 verkauft hat. Müsste man hier im Forum nochmal die Suchfunktion benutzen. Vielleicht könnte sich ja dazu nochmal jemand äussern.


Und gerade Crytek ist als Firma bekannt die eng mit der Forschung zusammenarbeitet. Und gerade Crytek hat Leute angestellt, die dauernd (wie du es bezeichnest) "rumspielen". Das nennt man nämlich Forschung&Entwicklung.

Crytek war vor Farcry ein ziemlich zerlumpter Haufen die mussten da irgendwas sensationelles bringen sonst hätten sie keinen Publisher gefunden und man würde keine Silber mehr über Crytek verlieren.


Dass dieses Rumspielen erst die vielen Grafikeffekte und die Grafikqualität von heute ermöglicht, ist dir aber schon klar, oder?

Sicher, ist heute interessant und relevant für mich, war es damals als ich eine GF4 hatte noch nicht.

RLZ
2006-03-03, 11:46:10
Harte Diskussionen hier. :biggrin:
Ich kenne Swizzling nur von Datenbanken wozu braucht man das bei der Shaderprogrammierung?
Zum Swizzeln von Farb-Kanälen(oder allgemeiner Registerkomponenten). ;)

Ist bei Shadern (so wie ich es verstanden habe) nur dazu da um die Bequemlichkeit der Entwickler zu unterstüzen.
Nicht nur.
Static-Branching reduziert den CPU-Overhead.
Es schränkt aber den Shadercompiler u.U. ein, so dass der Shader langsamer werden könnte.

Dann müsste doch die Instruktionserhöhung von 64 auf glaube 512 bei SM2.b (oder 2_b) schon Multipasses verhindern oder nicht? Zumindest hab ich das so verstanden ohne allzutief in die Materie eintauchen zu müssen.
Ja.
Zumindest solange die 512 Instructions ausreichen.
Um dynamic Branching zu simulieren ist aber weiterhin Multipass notwendig.

Odal
2006-03-03, 12:08:32
Harte Diskussionen hier. :biggrin:

Zum Swizzeln von Farb-Kanälen(oder allgemeiner Registerkomponenten). ;)


Dumme Frage, kenne mich da nicht so aus aber für welchen Effekt braucht man sowas z.b.?


Ja.
Zumindest solange die 512 Instructions ausreichen.
Um dynamic Branching zu simulieren ist aber weiterhin Multipass notwendig.

Ja das ist klar da die Schleifen ja nicht auf die GPU verlagert werden können und man für jeden "Ast" 2 kürzere Shader als Zweige braucht welche dann eben an die GPU weitergereicht werden und nicht den Ast mit den Zweigen als ein Shader der GPU verpassen kann. Da frage ich mich nur, ich schnappe mal auf das die Sprungweite zu grobgranular beim NV40/G70/G71 ist. Ist man mit einer "Astberechnung" auf der CPU nicht viel flexibler (und nicht wirklich langsamer) als dynamic branching auf NV40/G70/G71 einzusetzen und das dem als ein grosses Shaderprogramm mit enthaltenem dyn. Branching vorzusetzen?

RLZ
2006-03-03, 12:30:47
Dumme Frage, kenne mich da nicht so aus aber für welchen Effekt braucht man sowas z.b.?
Für bestimmte Effekte braucht man das wieder nicht.
Generell betrachtet hat man ja Vektoren, deren Komponenten man als Farbkanäle betrachten kann.
In der Vektorrechnung stößt man öfters auf Anwendungsfälle.
Ein einfacher Fall, bei dem man die Vorteile sehen kann wäre das Kreuzprodukt.
http://upload.wikimedia.org/math/e/f/a/efafb61298fd6587ae046d18cb986f36.png
Man bekommt auch sonst des öfteren Stellen im Shader, wo mit Daten rechnen will, die aber swizzeln muss.
Im Endeffekt spart man mit arbitrary swizzle "nur" Rechenzeit, da er sich nicht auf den Instruction-Count auswirkt und man sich den Vektor sonst von Hand zusammenbauen müsste.
Aber es sind halt hier ein paar Takte und da ein paar und das Ganze mit der Anzahl der geshadeten Pixel pro Frame multipliziert.

Gast
2006-03-03, 14:21:32
Der MPC zum Beispiel unterstützt Video-Postfiltering mit Shadern. DX9-Shadern. Da reicht eine FX 5200 um das zu nutzen; eine Radeon 9200 oder GeForce4 Ti 4600 reicht nicht.

Die FX 5200 ist nicht für DX9-Spiele. Aber die verlangen sowieso eine Rohleistung, die die FX 5200 nicht hat. Die FX 5200 hat ihre SM2.x-Shader nicht für Spiele, sondern für die Checkliste und für 3D-Applikationen wie Longhorn.


du solltest, wenn du es nicht schon bist, marketing-ceo bei nV werden. selbst die würden nicht auf so hanebüchene anwendungsgebiete kommen.

und wenn vista dann mal da ist und ohne bugs verwendbar ist, gibts x-onboard lösungen, die das gleiche können

Tigerchen
2006-03-03, 15:10:38
sorry erst rumlabern es gab keine anwendungen die von MMX profitiert haben, dann welche vorgesetzt bekommen und jetzt plötzlich geht es ums persönliche verstehen...

Natürlich würde ich dich gerne verstehen nur leider ist deiner sicht der dinge nicht ganz korrekt.


Meine Äußerung zu MMX ist leider völlig falsch verstanden worden. Vielleicht liegts wirklich an mir. Es geht mir bei der ganzen Sache um die zeitliche Diskrepanz mit der neue Features angekündigt und massiv beworben werden die dann irgendwann, meist Jahre später, beim Endverbraucher eingesetzt zu werden.

ShadowXX
2006-03-03, 15:16:11
Meine Äußerung zu MMX ist leider völlig falsch verstanden worden. Vielleicht liegts wirklich an mir. Es geht mir bei der ganzen Sache um die zeitliche Diskrepanz mit der neue Features angekündigt und massiv beworben werden die dann irgendwann, meist Jahre später, beim Endverbraucher eingesetzt zu werden.


Aber das ist doch ganz normal und war schon immer gang und gäbe.

Zuerst kommt die HW, dann das erste bisserl SW, dann die HW die das ganze auch in brauchbarer Geschwindigkeit kann und dann erst massenhaft SW die das ganze auch wirklich benutzt.

Bei manchen Features ist das ganze etwas exponierter als bei anderen (ich möchte nicht wissen, wieviele Features teilweise mit ältere HW eingeführt wurde, die dann erst später vernüntig liefen und es keiner Bemerkt hat).

Bei SM2.0 hat sich am Anfang auch jeder aufgeregt, das nix dafür kam.....es ist prinzipiel jetzt genau das gleiche mit SM3.0 und bei 4.0 wirds wieder so sein.

aths
2006-03-03, 15:27:39
Odal,

wir drehen uns größtenteils im Kreis. Da deine Antwort auf mein Posting schon zum Teil von anderen beantwortet wurde, gönne ich mir erst mal eine Auszeit. Falls du der Meinung bist, dass du dort ein besonders gutes Argument hattest, kannst du aber gerne noch mal eine (nur bitte etwas kürzere) Antwort verfassen, gerne auch indem du dich selbst zitierst. Ich will mich ja nicht drücken :), dann gehe ich noch mal auf deine Gesichtspunkte ein.

du solltest, wenn du es nicht schon bist, marketing-ceo bei nV werden. selbst die würden nicht auf so hanebüchene anwendungsgebiete kommen.Ich finde die Antworten von NV, auch in den 3dc-Interviews, teilweise viel hanebüchener. Ich könnte mir vorstellen, beim NV-Marketing zu arbeiten, aber die suchen da Leute mit Marketing-Erfahrung keine ausgebildeten Ingenieure.

und wenn vista dann mal da ist und ohne bugs verwendbar ist, gibts x-onboard lösungen, die das gleiche könnenSagst du so. Wann der Zeitpunkt "ohne Bugs verwendbar" gekommen ist, legst du dann natürlich so fest, dass sich deine Vorhersage erfüllt.

tokugawa
2006-03-03, 18:11:52
Ja ok, versteht der DAU der hier mal flüchtig liesst aber nicht. Mir und anderen geht es auch nicht darum die generelle Notwendigkeit von SM3 infrage zu stellen sondern lediglich (das Eingangsposting beantwortend) das es jetzt kaum SM3 nutzenden Spiele gibt und das es SM3 Hardware für den Spieler gibt die wo er von dem Feature nicht wirklich profitiert da a) die Softwareunterstützung fehlt b) Der Lebenszyklus dieser Hardware beendet ist sobald a) zutrifft oder der erhöhte Detailgrad mit dieser Hardware dann zwar technisch aber nichtmehr effektiv nutzbar darstellbar ist.


Ja gut, dann haben wir eigentlich eh aneinander vorbei diskutiert. Weil dann sagen wir eh schon seit mehreren Seiten dasselbe aus:

1) Spieler: schaut nicht auf SM 3.0 sondern was die Karten sonst können. Wenn SM 3.0 dabei ist, auch gut, wenn nicht und die Karte ein Schnäppchen ist, auch fein

2) Aber macht trotzdem nicht SM 3.0 nieder, mit dem TnL- und 32-Bit-Farbe-Hype ist es nicht vergleichbar.


Das war zwar nicht an mich, aber mich hat Computergrafik während meines Studiums nur tangiert. Damals spielten zwar Shader noch nicht wirklich eine Rolle, aber mit OpenGL hatte ich dort auch in kleinem Rahmen zutun. DirectX habe ich (ohne die Shaderwelt) in der Tat schonmal sinnvoll genutzt ganz abseits der Spielewelt, um in einer Konstruktionssoftware etwas zu visualisieren.


Ja, mein Punkt war nur dass die API-Implementationen beider Hersteller sich schon teilweise sehr im Verhalten unterscheiden, was als Entwickler sehr lästig ist.



Vielleicht ist das in der Grafikwelt anders, da man da was auf dem Schirm sieht. Ich darf auch herumspielen aber das dann bitte zu Hause ^^.


Ja, das ist sicher deswegen. Gerade in der Grafikwelt kommt man ja auch teilweise eher zufällig an "coole Effekte". Oder einfach dadurch weil man mal eine fixe Idee hat.



Hab ich gesehen, heist aber nicht das es jetzt oder in naher Zukunft für mich oder den Spieler relevant ist. Natürlich kann man sich dann schonmal freuen was vielleicht in 1-2 Jahren für ein Detailierungsgrad kommt, gerade bei so aufwendigen Objekten wie Glaskörpern.


Die Gametools-Effekte sind darauf ausgelegt, jetzt in Spielengines integriert zu werden. In zwei Engines (eine bekannte OpenSource-Engine und eine kommerzielle PC/PS2/Xbox Engine) werden bzw. wurden sie teilweise schon integriert. Das Ziel ist es, den Spieleentwicklern State-of-the-Art Grafiktechnik zu ermöglichen, die nicht zu aufwendig ist, in eine beliebige Engine zu integrieren. Also, es geht allgemein um Grafik, mit Hinblick auf Anwendung in "highly interactive applications", wie etwa Spielen (oder auch VR Applikationen, sind ja ähnlich). Der Name "-tools" ist daher irreführend.



Ich hab mir schon damals auf dem Amiga immer Grafikdemos reingezogen. Leider fehlt mir die Zeit für sowas (ich mein jetzt nicht nur zu sehen was gemacht wird sondern einzutauchen wie es genau gemacht wird).


Die Demoszene ist aber auch eine Parallelwelt... zwar gibt's da auch viel Talentetausch mit der Grafikforschung und -entwicklung, aber die Vorgehensweise ist doch ziemlich anders (bzw. hat sich der Ort wo wirklich die neuen Dinge erfunden werden von der Demoszene zu eher akademischen Kreisen wie eben Unis verlagert).



Leute die wissen was Branching ist verstehen das ja. Nur wird er den SM2 Shader erstmal sowieso noch schreiben müssen da das Spiel sonst keine Abnehmer mehr findet. Es will doch keiner bestreiten das es sich mit SM3 leichter entwickeln lässt da die Shaderprogrammierung durch Sprünge welche ja Schleifen (derzeit ist die dyn. branching Performance ja noch grottenschlecht) zulassen immer mehr einer normalen normalen Programmiersprache ähneln wird.


Ja, die Performance des dyn. Branching beim NV40/G70 ist tatsächlich enttäuschend. Macht zwar doch ein bißchen was möglich, aber nicht das erhoffte.



Keinen. Wieso? Ich weiss aber das wenn ich eine Codesequence mit Sprüngen performant aufwerten möchte was völlig neues bei rauskommen kann.

Naja eher weniger. Mir war so das der SM3 "Pfad" nicht wirklich was anderes als der SM2.x "Pfad" war Crytek das nur als SM3 verkauft hat. Müsste man hier im Forum nochmal die Suchfunktion benutzen. Vielleicht könnte sich ja dazu nochmal jemand äussern.


Naja. Crytek hat sich halt mit SM 3 beschäftigt, und sich hier gegen einige SM 3 features und woanders wieder für einige SM 3 features entschieden. Man darf nicht vergessen dass zu "SM 3 Features" zählt dass auch alle optionalen Capabilities von SM 2.0 unterstützt werden per se, das ist auch "SM 3".


Crytek war vor Farcry ein ziemlich zerlumpter Haufen die mussten da irgendwas sensationelles bringen sonst hätten sie keinen Publisher gefunden und man würde keine Silber mehr über Crytek verlieren.


So zerlumpt auch nicht. Die haben Kontakte zu Forschungseinrichtungen auch, und machen Grafikentwicklung durchaus auf "Standard-Niveau".

Computergrafiker sind halt tw. etwas chaotisch...


Meine Äußerung zu MMX ist leider völlig falsch verstanden worden. Vielleicht liegts wirklich an mir. Es geht mir bei der ganzen Sache um die zeitliche Diskrepanz mit der neue Features angekündigt und massiv beworben werden die dann irgendwann, meist Jahre später, beim Endverbraucher eingesetzt zu werden.


Und was ich dir näherbringen wollte ist, dass Spieler eben nicht die einzigen "Endverbraucher" sind. Sie sind die größte Gruppe, ja. Sie sind die profitabelste Gruppe, ja. Sie sind wahrscheinlich auch die wahnsinnigste Gruppe, ja. Aber alles in allem absolut kein Grund, eine kleine aber wichtige Endverbrauchergruppe (nämlich Entwickler und Forscher) komplett zu ignorieren und ihre Aufwände und Leistungen als "unnütz" zu bezeichnen. Eigentlich ging's mir nur darum, den "nur Gamer sind wichtig" Leuten mal etwas außerhalb ihres Tellerrandes zu zeigen.


du solltest, wenn du es nicht schon bist, marketing-ceo bei nV werden. selbst die würden nicht auf so hanebüchene anwendungsgebiete kommen.

aths postet aus ingenieurswissenschaftlicher Perspektive. Dass du ihm unterstellst dass er damit als Marketing-Fritze (ja eigentlich der natürliche Gegner von Ingenieuren, sh. Dilbert) Karriere machen könnte, ist eigentlich eine Beleidigung.

Narrenkönig
2006-03-04, 15:33:18
Mein Gott haut ihr hier euch was um die Ohren (und ich bin erst bei Seite 9).
Doch ich finde es höchst albern von den SM3 Gegnern mir den "Spass" mit Far Cry + HDR absprechen zu wollen.
Und als begeisteter Stronghold 2 Spieler habe ich auch dort spritzigeres Wasser, welches SM2 Spieler nicht haben.
Basta!

Gast
2006-03-04, 17:26:42
Das unterstellte ich, weil ich von dir keine Gegenargumente lesen konnte.
Den Grund dafür habe ich doch genannt. Also ist Deine Unterstellung böswillig. Außerdem habe ich ihm geantwortet. Warum soll ich auf die unsinnige Behauptung, Theorie und Praxis seien quasi das Selbe, wer das nicht sehe, sei mehr oder weniger dumm, groß eingehen? Und in seiner Zusammenfassung gibt er mir sogar wieder Recht. Ähnlich wie Coda früher im Thread schon, der es übrigens nicht nötig hat, unfeundlich zu werden.

Ja, gut, dann diskutiere doch – indem du auf tokugawas Posting argumentativ eingehst.
Von Dir kamen da schon Argumente mit wesentlich mehr Substanz. Aber nach dem Du meinst, mich (wie Tigerchen schon zuvor) über Dritte als bißchen deppert hinzustellen zu müssen, habe ich wirklich keine Lust mehr, mit Dir in diesem Thread weiter zu diskutieren, das Gesprächsklima ist einfach hin – schade eigentlich.

Gast
2006-03-04, 18:11:28
Doch ich finde es höchst albern von den SM3 Gegnern mir den "Spass" mit Far Cry + HDR absprechen zu wollen.

Und was hat das jetzt mit Shadern zu tun?

aths
2006-03-04, 18:30:37
Den Grund dafür habe ich doch genannt. Also ist Deine Unterstellung böswillig. Außerdem habe ich ihm geantwortet. Warum soll ich auf die unsinnige Behauptung, Theorie und Praxis seien quasi das Selbe, wer das nicht sehe, sei mehr oder weniger dumm, groß eingehen? Und in seiner Zusammenfassung gibt er mir sogar wieder Recht. Ähnlich wie Coda früher im Thread schon, der es übrigens nicht nötig hat, unfeundlich zu werden.

Von Dir kamen da schon Argumente mit wesentlich mehr Substanz. Aber nach dem Du meinst, mich (wie Tigerchen schon zuvor) über Dritte als bißchen deppert hinzustellen zu müssen, habe ich wirklich keine Lust mehr, mit Dir in diesem Thread weiter zu diskutieren, das Gesprächsklima ist einfach hin – schade eigentlich.Genau. Erneut schiebst du es einfach auf den Ton. Welche Postings genau von dir kommen, also nachzuvollziehen wo du wann auf wen wie geantwortet hast wäre leichter, wenn du angemeldet (also unter eindeutigem Usernamen) schreiben würdest.

Dass tokugawa hier irgendwo unfreundlich gewesen sei, sehe ich nicht so. Dass einige meiner Postings als mindestens unfreundlich, wenn nicht hochnäsig-arrogant empfunden werden, ist mir bekannt ohne dass ich dafür ein Gespür entwickeln konnte.

Dass Theorie und Praxis "quasi dasselbe" seien wurde meines Wissens so nicht gesagt. Dass Theorie und Praxis übereinstimmen müssten, andernfalls sei die Theorie falsch, halte ich für keine "unsinnige Behauptung". Theorien werden nicht aufgestellt, um eine Neben-Praxis oder alternative Praxis zu haben, sondern um sie in der Praxis anzuwenden.


Dass prognostische Aussagen immer mit einer Unsicherheit verbunden sind, ist klar. Hier sehe ich ein Problem was auch in diesem Thread (bei einigen Usern, speziell dich meine ich jetzt nicht) zum Tragen kommt: Sie behaupten erst mal das eine, und trifft es zufällig ungefähr so ein, fühlen sie sich bestätigt. Dabei kümmert sich kaum einer um ein echtes Verständnis, warum dies und das nun so und so ist. Das ist aber das, worauf es imo ankommt.

Als z. B. die GF FX kam, haben auch ATI-Fans nicht im Ernst mit der so extrem schwachen PS2-Leistung gerechnet, aber wie immer erst mal über die GF abgelästert. (NV-Fans sind nicht besser, die reden genauso abfällig über die "falschen" Produkte, gerade im 3dcf gibt es GeForce-Fans, die nun überhaupt gar keine Ahnung haben, aber erst mal groß mitreden wollen.) Zwar wurde per neuem Treiber nachgeschobener verbesserter Shader-Optimierung noch bisschen was bei der FX gedreht, aber ATI blieb da uneinholbar vorne – auch die 5950 Ultra wird da von der Radeon 9700 (ohne "Pro") gnadenlos versägt. Wer das früh prognostizierte, der hatte allerdings auch kein Architekturverständnis. Viele bemühen sich gar nicht um Architekturverständnis (und liegen trotzdem gelegentlich richtig, während ich trotz Bemühen, die Hintergründe zu verstehen, auch mal falsch liege.) Da kann es schon mal vorkommen, dass ich diese Leute nicht ganz ernst nehme. Vor allem, wenn erst das Ergebnis festliegt (hier: ATI rult) und dann gefiltert wird worauf es ankommt: (hier: PS2-Geschwindigkeit, 6x MSAA und angebliches "16x" AF, aber nicht FP32, 2.x 2_A-Features, 8x weitgehend winkelunabhängiges AF.)

Als Gegengewicht betone ich dann die Sachen, die gerne übersehen werden. Sicher spielt da auch etwas Provokationslust mit. Aktuell zum Beispiel erwähne ich penetrant die sehr brauchbare 8x AF-Quali der R520 und werte damit mögliche angebliche "Leistungsvorteile" der GF ab, weil die fps-Zahlen vernünftige anisotrope Filterung nicht ersetzen können. Da interessieren mich auch nicht die Feature-Vorteile der GF, wenn für texturierte Spiele winkelabhängig manchmal nur 2x AF geboten wird obwohl 16x eingestellt wurde. Auch die SSAA-Features der GF interessieren mich wenig, da es inzwischen AAA gibt und die Radeon ohnehin eine viel geringere Texturflimmer-Problematik hat. Beste Grafik dank vernünftiger BQ-Feautures wird von der Radeon (R520- oder R580-basierend) geboten, während man auf der GF 7800 GTX 512 MB laufend Kompromisse schließen muss. Auch ATIs aktuelle Karten bringen lange nicht das, was eigentlich Stand der Technik sein sollte, sind aber in Bezug auf vernünftige BQ-Feautes der GF meilenweit voraus. Solche Fragen halte ich für viel wichtiger als eine Diskussion, ob eine Karte die man jetzt kauft schon SM3 haben muss oder nicht. (Bei ATI fallen nun vernünftiges AF und SM3 zufällig zusammen, bei NV ist es genau umgekehrt, die haben sich mit der SM3-Einführung vom guten AF verabschiedet. NVs SM2-Karten bieten zwar noch sehr gutes AF, aber führen SM2-Pixelshader erschreckend langsam aus. Man kann es drehen und wenden wie mal will: Bei ATI sehe ich im Moment das ganz klar bessere Angebot. Wer schlau ist, wartet nicht bis sich NV irgendwann mal bequemt, nachzubessern, sondern genießt sofort die bessere Grafik mit einer Radeon der X1000-Serie.)

Mir ist es gleichgültig wer bei prognostischischen Behauptungen nun Recht hat – wichtig ist, dass am Ende die Fakten, die Wahrheit, die Tatsachen Oberhand gewinnen, und das Aussagen basierend auf Wissen und Verständnis der zugrunde liegenden Technik getroffen werden. Demirug hat nach dem FX-Release in Bezug auf die 5200 zunächst hanebüchenen Quatsch geschrieben; doch der Irrtum eines Weisen ist belehrender als der Gesang eines Toren.

(Ohne Demirugs späteren Artikel zum NV30 hätte ich den NV40 nicht verstehen können.)


Tigerchen z. B. sieht nicht ein, dass möglichst winkelunabhängiges AF die gebotene Füllrate besser in Qualität umsetzt, als der (seit NV40 von NV übernommene) ATI-R300-Style, weshalb das qualitativ höherwertigere AF gerade auch bei füllratenschwachen Karten lohnt. Meine Erklärung wurde aber von vielen anderen Usern verstanden. Da kann ich nicht ewig bei mir suchen, einen Sachverhalt vielleicht zu unverständlich dargelegt zu haben; einige Leute haben ihre Grenzen im Auffassungsvermögen schon frühzeitiger. Das ist kein Problem, das Problem ist nur, dass sie trotzdem mit Verve ihre auf Unverständnis basierende Meinung vertreten. (Das Hauptproblem bei Tigerchen ist aber, dass er in blauer Farbe schreibt, das finde ich einfach ungezogen. Wer permanent so aus der Reihe tanzt kann nicht damit rechnen, inhaltlich ernstgenommen zu werden.)

Auch mein Auffassungsvermögen ist begrenzt. Auf B3D laufen viele Diskussionen, die mir zu hoch sind. Reden im 3dcf die Gurus (nicht Titel-Gurus sondern wahren Gurus) kann ich froh sein, wenn ich 1/3 verstehe. Tokugawa hat die die Bücher GPU Gems 1 und 2 angesprochen. GPU Gems 1 habe ich, und nur bei einzelnen Kapiteln einzelne Aspekte verstanden, der Großteil ist klar zu hoch für mich. Das sehe ich dann auch ein und mische mich nicht mit Behauptungen in Diskussionen ein wenn ich weiß, dass ich davon noch nichts verstehe.

Tokugawa hat den T&L-Hype erwähnt. Wie viele Leute hier im Thread wissen denn nun wirklich, was die T&L-Unit tatsächlich macht? Ich kann von mir nur sagen, dass ich zwar weiß wie Matrizenmultiplikationen gehen und dass beim T auch Z normalisiert wird, aber eben auch dass ich Rechnungen im homogenen Koordinatensysten noch nicht verstanden habe. Transformation findet aber im homogenen Koordinatensystem statt.

Ich weiß, dass ich praktisch nichts weiß. Aber ich weiß, dass ich den SM3-Nutzen nicht daran festmachen kann, indem ich mir ansehe welche Spiele SM3 heute auf welche Art nutzen. Um SM3 zu verstehen, muss man zunächst SM2 verstanden haben. Wie viele Leute hier im Thread wissen denn nun wirklich, was SM2 konkret bietet, und mit welchen mathematischen Formeln man die Grafikeffekte in den Spielen erzeugt? Ich für mein Teil habe vielleicht einige (nicht alle) Aspekte von Dot3-Bumpmapping auf SM1-Niveau verstanden.

tokugawa
2006-03-04, 23:12:54
Den Grund dafür habe ich doch genannt. Also ist Deine Unterstellung böswillig. Außerdem habe ich ihm geantwortet. Warum soll ich auf die unsinnige Behauptung, Theorie und Praxis seien quasi das Selbe, wer das nicht sehe, sei mehr oder weniger dumm, groß eingehen? Und in seiner Zusammenfassung gibt er mir sogar wieder Recht. Ähnlich wie Coda früher im Thread schon, der es übrigens nicht nötig hat, unfeundlich zu werden.


Da ich irgendwie die Gäste nicht unterscheiden kann, würd ich dich bitten, mich zu quoten, damit ich weiß auf was genau du dich beziehst.

"Unfreundlich" zu sein war sicher keine Absicht, aber ich glaube auch dass du das so sehen willst und dir es teilweise einbildest. Ich formuliere hart und scharf, das ist mir bewußt. Aber ich bleibe trotzdem höflich. Ich muß dir ja jetzt nicht Honig um's Maul schmieren, oder?

Also: wo war ich bitte "unfreundlich" wie du es sagst?

Und Theorie und Praxis beziehen sich auf dieselbe Realität, und sind einfach verschiedene Perspektiven auf dasselbe. Die Realität sollte hierbei ident sein - ist sie es nicht, stimmt eins der beiden Dinge nicht.

Theorie ohne Praxis gibt es nicht (auf irgendwas muß sich nämlich die Theorie beziehen). Und Praxis ohne Theorie wird nicht verstanden, denn die Theorie zu einer Praxis ist der Versuch die Praxis zu verstehen. Somit muß eine 1:1 Abbildung existieren dazwischen. Alles andere ist ein Denkfehler.




Ja, gut, dann diskutiere doch – indem du auf tokugawas Posting argumentativ eingehst.


Von Dir kamen da schon Argumente mit wesentlich mehr Substanz.

Inwiefern waren meine Argumente ohne Substanz, zumal meine Argumente aus der (Entwickler-)Praxis kommen?

Warst du der, der meinte Forschung und Entwicklung sei "Theorie"? Dann liegst du nämlich falsch, das ist zwar eine zu Spielen parallele Welt, aber eine die ihre eigene Praxis hat.


Vielleicht kommst du auch mal auf das drauf was ich schon die ganze Zeit versuche zu propagieren: Spieler sind wichtig, aber sie sind nicht die einzigen. Und kein Spieler sollte jemals behaupten dass Entwickler unwichtig seien (oder dass diese nur schwachsinnige und unnütze "Theorie" wären).

Narrenkönig
2006-03-05, 15:13:44
Und was hat das jetzt mit Shadern zu tun?
Da ich usenet geschädigt bin antworte ich anonymen Gästen eigentlich nicht. :cool:

HDR wurde doch auch hier zum Teil mit in dem SM3 Topf geworfen.
Zumindest die AoE3 Bilder sehen stark HDR verstrahlt aus und darüber wird auf das SM3 eingeschlagen.

Odal
2006-03-05, 16:46:27
HDR wurde doch auch hier zum Teil mit in dem SM3 Topf geworfen.
Zumindest die AoE3 Bilder sehen stark HDR verstrahlt aus und darüber wird auf das SM3 eingeschlagen.

Is ging um die Schatten im wasser auf den Bildern

KraetziChriZ
2006-03-05, 16:52:43
FAKT ist doch, das einige Spiele deutlich besser aussehen mit einer SM3 Karte.

Dazu zählen:


Far Cry
Splinter Cell: Chaos Theory
Age of Empires 3
Serious Sam 2


ect.

Also ist eine SM2-Graka einfach nur 2te Wahl. PUNKT!

gruß
chris

Coda
2006-03-05, 16:56:20
Far Cry? SS2? :|

Tigerchen
2006-03-05, 16:59:21
Ich weiß, dass ich praktisch nichts weiß. Aber ich weiß, dass ich den SM3-Nutzen nicht daran festmachen kann, indem ich mir ansehe welche Spiele SM3 heute auf welche Art nutzen. Um SM3 zu verstehen, muss man zunächst SM2 verstanden haben. Wie viele Leute hier im Thread wissen denn nun wirklich, was SM2 konkret bietet, und mit welchen mathematischen Formeln man die Grafikeffekte in den Spielen erzeugt? Ich für mein Teil habe vielleicht einige (nicht alle) Aspekte von Dot3-Bumpmapping auf SM1-Niveau verstanden.


Du siehst die Sache zu einseitig aus Sicht der Entwickler und mit Blick auf die technischen Hintergründe. Warum ist es für dich nicht legitim wenn andere auch andere Prioritäten haben. Für mich ist es eben bedeutsamer zu sehen was ich als Käufer aktuell von den technischen Möglichkeiten habe. Muß man da wirklich den theoretischen Background haben um mitreden zu dürfen? Immerhin ist dieses Forum ja keine geschlossene Veranstaltung für Entwickler.

Coda
2006-03-05, 17:01:11
Manchmal kommts mir aber so vor ;D

Tigerchen
2006-03-05, 17:06:39
FAKT ist doch, das einige Spiele deutlich besser aussehen mit einer SM3 Karte.

Dazu zählen:


Far Cry
Splinter Cell: Chaos Theory
Age of Empires 3
Serious Sam 2


ect.

Also ist eine SM2-Graka einfach nur 2te Wahl. PUNKT!

gruß
chris


AOE3 besser? Mit verstrahltem oder man könnte auch sagen "blurry" HDR und den seltsamen Schatten?
Die anderen Spiele HDR oder SM 3.0 Effekte?
Das HDR bei SS2 kostet auf jeden Fall viel Leistung und ist nur selten visuell wahrnehmbar. (Aussage: Hartware.net)

KraetziChriZ
2006-03-05, 17:18:07
AOE3 besser? Mit verstrahltem oder man könnte auch sagen "blurry" HDR und den seltsamen Schatten?

... die mir gefallen... lass mich raten - du bist ATI User und schaust in die Röhre?

Die anderen Spiele HDR oder SM 3.0 Effekte?

Ja, sonst hätte ich sie nicht aufgezählt du Eimer

Das HDR bei SS2 kostet auf jeden Fall viel Leistung und ist nur selten visuell wahrnehmbar. (Aussage: Hartware.net)


ähh
und?

Schau mal die Vergleichscreens bei Tomshardwareguide...

gruß
chris

Odal
2006-03-05, 17:22:29
also ehrlich gibt es derzeit kein spiel wo HDR wirklich gut ausschaut da alle gamedevs die hdr implementiert haben meinen viel hilft viel.

Gast
2006-03-05, 17:23:48
Ja, sonst hätte ich sie nicht aufgezählt du Eimer

Ähm, Tigerchen hat gefragt, ob du HDR oder SM3 meinst.
Und meinst einfach: ja. :confused:
;D

KraetziChriZ
2006-03-05, 17:28:09
also ehrlich gibt es derzeit kein spiel wo HDR wirklich gut ausschaut da alle gamedevs die hdr implementiert haben meinen viel hilft viel.

Far Cry mit HDR finde ich richtig schön :) Paradiesisch :D

Ähm, Tigerchen hat gefragt, ob du HDR oder SM3 meinst.
Und meinst einfach: ja. :confused:
;D

-> Zitat -> FAKT ist doch, das einige Spiele deutlich besser aussehen mit einer SM3 Karte. <-

"mit einer SM3 Karte" heist, das du eine Karte mit SM3 brauchst, damit du die alle Effekte sehen kannst. Und das ist bei all den Games der Fall. Ob diese Effekte nun HDR Effekte oder SM3-Effekte sind, spielt keine Rolle. FAKT ist, das du eine SM3 Karte brauchst, um sie zu aktivieren (Nvidia 6XXX*/7XXX* od. ATI X1X00*).

gruß
chris

Gast
2006-03-05, 17:29:53
Also ist eine SM2-Graka einfach nur 2te Wahl. PUNKT!

Natürlich. Wenn die SM3-Karte auch alle Features der SM2-Karte beherrscht.
Bei der Wahl zwischen einer X800 und der 6800 würde ich persönlich die X800 favorisieren, da mir Transparenz-AA mehr in der Praxis bringt als SM3. :)

@Odal
bei SC:CT finde ich das HDR ganz ok, bei den anderen Spielen muss ich dir jedoch recht geben.

Gast
2006-03-05, 17:33:03
Far Cry mit HDR finde ich richtig schön :) Paradiesisch :D
Ne, viel zu künstlich und übertrieben.



"mit einer SM3 Karte" heist, das du eine Karte mit SM3 brauchst, damit du die alle Effekte sehen kannst. Und das ist bei all den Games der Fall. Ob diese Effekte nun HDR Effekte oder SM3-Effekte sind, spielt keine Rolle. FAKT ist, das du eine SM3 Karte brauchst, um sie zu aktivieren (Nvidia 6XXX*/7XXX* od. ATI X1X00*).

gruß
chris
Autsch.
Da ist aber viel Halbwissen unterwegs.
Für HDR braucht man FP16-ROPs und kein SM3...

Gast
2006-03-05, 17:35:35
Bei der Wahl zwischen einer X800 und der 6800 würde ich persönlich die X800 favorisieren, da mir Transparenz-AA mehr in der Praxis bringt als SM3. :).Da muss ich dir zustimmen. Die x800er brechen in hohen Auflösungen auch nicht so schnell ein wie die 6800er. Hieße die Entscheidung aber "x850xt-pe" oder "7800GT", würde ich das Geld draufzahlen und die 7800GT nehmen.

IVN
2006-03-05, 17:36:07
AOE3 besser? Mit verstrahltem oder man könnte auch sagen "blurry" HDR und den seltsamen Schatten?
Die anderen Spiele HDR oder SM 3.0 Effekte?
Das HDR bei SS2 kostet auf jeden Fall viel Leistung und ist nur selten visuell wahrnehmbar. (Aussage: Hartware.net)

Very high bei den Shader Details sollte HDRR sein,der Ueberstrahleffekt (welcher separat an/ausgeschaltet werden kann) ist aber crapy,das ist richtig.Sollte immer ausgeschaltet bleiben.

Gast
2006-03-05, 17:37:00
Very high bei den Shader Details sollte HDRR sein,der Ueberstrahleffekt (welcher separat an/ausgeschaltet werden kann) ist aber crapy,das ist richtig.Sollte immer ausgeschaltet bleiben.Naja, das ist wohl eher Geschmackssache...

KraetziChriZ
2006-03-05, 17:44:05
Autsch.
Da ist aber viel Halbwissen unterwegs.
Für HDR braucht man FP16-ROPs und kein SM3...

In diesen Spielen(!!) braucht man eine Karte mit SM3 (wie oben geschrieben) damit die effekte darstellbar sind.
Ob irgendwelche HDR-Effekte theoretisch irgendwie auch mit irgendeiner SM2 Karte darstellbar wären spielt doch keine Rolle. Diese Games zeigen die Effekte nur mit einer SM3 karte (wie oben geschrieben).

gruß
chris

Gast
2006-03-05, 17:49:37
In diesen Spielen(!!) braucht man eine Karte mit SM3 (wie oben geschrieben) damit die effekte darstellbar sind.
Ob irgendwelche HDR-Effekte theoretisch irgendwie auch mit irgendeiner SM2 Karte darstellbar wären spielt doch keine Rolle. Diese Games zeigen die Effekte nur mit einer SM3 karte (wie oben geschrieben).

gruß
chris
Wegen Leuten wie dir wird HDR mit SM3 in Verbindung gebracht...
Das ist aber falsch.
Dieser Thread geht über SM2 und SM3 und nicht über HDR, also bitte Beispiele mit HDR rauslassen, weil das am Thema vorbei ist.
Danke.

IVN
2006-03-05, 17:49:51
Naja, das ist wohl eher Geschmackssache...
Das ist korrekt.Nicht nur das es (m.M.n.) optisch nicht ansprechend ist,mir tun die Augen nach 3/4 Stunde weh,zu viel Licht,besonders die winter-Maps.

Gast
2006-03-05, 17:57:50
Ja, es ist eher Zufall, dass die Chips, die vernünftiges HDR-Rendering können, auch das Shader Model 3.0 beherrschen. Es gibt aber auch SM3-Chips, deren ROPs kein FP16-Blending können, wie zum Beispiel der NV44(A) aka 6200.

Odal
2006-03-05, 18:19:52
Far Cry mit HDR finde ich richtig schön :) Paradiesisch :D



-> Zitat -> FAKT ist doch, das einige Spiele deutlich besser aussehen mit einer SM3 Karte. <-


also Farcry ist mit das schlechteste Beispiel für HDR. Da gibts sogar durch das nachträglich reingepfuschte HDR Bildfehler.

KraetziChriZ
2006-03-05, 18:23:27
Also bei mir siehts klasse aus, nix Bidlfehler :P

Xmas
2006-03-05, 18:28:44
[COLOR="#000099"]
AOE3 besser? Mit verstrahltem oder man könnte auch sagen "blurry" HDR und den seltsamen Schatten?
Wo sind denn die SM3-Schaltten "seltsam"? Da sind doch die SM2-Schatten weitaus seltsamer, oder hast du schon mal in der Realität auf einer gewellten Oberfläche gerade Schatten gesehen?

Odal
2006-03-05, 18:29:06
du erkennst sie wahrscheinloich nur nicht ^^ es treten oft totale fehlfarbdarstellungen auf.

Xmas
2006-03-05, 18:39:02
Ich ging von den Screenshots auf der ersten Seite dieses Threads aus, ich habe das Spiel nicht.

Gast
2006-03-05, 18:56:04
du erkennst sie wahrscheinloich nur nicht ^^ es treten oft totale fehlfarbdarstellungen auf.
Muss man dafür irgendwas bestimmtes einstellen oder einen no-CD Patch verwenden? Ich habe das bisher noch nicht gesehen, spiele AoE3 allerdings meistens im SM2-Modus mit Blob-Schatten, da mir der Überstrahl-Effekt mit SM3 nicht gefällt.


Q

Tigerchen
2006-03-05, 19:18:54
Wo sind denn die SM3-Schaltten "seltsam"? Da sind doch die SM2-Schatten weitaus seltsamer, oder hast du schon mal in der Realität auf einer gewellten Oberfläche gerade Schatten gesehen?

Dein Geschmack sei dir unbenommen. Die technisch korrekte Darstellung ist nicht immer und automatisch die Ansprechendste. In der Kunst gibt es dafür viele Beispiele. Viele großartige Künstler haben durch gezieltes Weglassen großartige Werke geschaffen.

Xmas
2006-03-05, 19:33:18
[COLOR="#000099"]
Dein Geschmack sei dir unbenommen. Die technisch korrekte Darstellung ist nicht immer und automatisch die Ansprechendste. In der Kunst gibt es dafür viele Beispiele. Viele großartige Künstler haben durch gezieltes Weglassen großartige Werke geschaffen.
Das mag ja sein, aber nur weil die korrekte Darstellung für dich vielleicht weniger ansprechend ist, ist sie doch noch lange nicht "seltsam"?

aths
2006-03-05, 19:35:04
Tigerchen, abgesehen von der blauen Farbe: Was soll dieser Argumentationsstil?

Bietet hier SM3-Grafik das bessere, da realistischere Bild, erhebst du plötzlich das Weglassen zur Kunst. Mein Eindruck: Du siehst erst das Ziel (SM3 heute unnötig) und definierst dann die Vorausetzungen.

Die korrektere Darstellung ist automatisch die, die realisiert werden sollte. Ansonsten bräuchten wir auch kein SM2, und spielen Super Mario auf dem NES. Macht auch Spaß.

Ich spiele derzeit Luigi's Mansion auf dem Cube, mit Lowres-Texturen und ohne Kantenglättung. Macht Spaß, und der Comic-Stil sieht trotz Color Banding gut aus obwohl er ja unrealistisch ist. Die Licht- und Schatten-Effekte sind bei Luigi's Mansion allerdings hervorragend gelungen, dazu gehört Echtzeit-Schattenwurf mittels Taschenlampe.

AOE3 allerdings bemüht sich offensichtlich um möglichst realistische Grafik. Das heißt dann auch: Je realistischer der Schattenwurf, umso besser. SM3 ermöglicht hier (Kontext: Realismus) offenbar die bessere Grafik im Vergleich zu SM2. Das ist ein wichtiger Gedanke bei der Verabschiedung der SM3-Spec (die von ATI genauso abgesegnet wurde wie von NV) gewesen. (Da D3D10 nur mit Vista geboten wird, und nicht jeder Spieler sofort auf Vista umsteigt, wird ohnehin noch einige Zeit D3D9 genutzt, selbst wenn D3D10-Karten eingebaut sind, die ja mittels D3D9-Treiber auch unter XP funktionieren.)


Ich würde doch darum bitten, bei so klaren Verhältnissen (in einem Spiel das sich um Grafik-Realismus bemüht, gibt es bessere Schatten mit SM3) nicht einfach das Weglassen zur höheren Kunstform zu erheben, sondern das offensichtliche zuzugeben, dass SM3 hier Vorteile bringt. (Wäre ja auch schlimm, wenn dem nicht so wäre und man alles mit SM2 genauso gut und in gleicher Performance realisieren könnte.)


Davon abgesehen warte ich noch immer auf Belege bestimmter Behauptungen, die von dir kamen. Und darauf, dass du deine Postings schreibst wie jeder andere auch: In schwarzer Schrift. Wirkt einfach respektvoller, sich den Gepflogenheiten anzupassen und nicht ständig auffallen zu wollen.

Gast
2006-03-05, 19:35:30
also ehrlich gibt es derzeit kein spiel wo HDR wirklich gut ausschaut da alle gamedevs die hdr implementiert haben meinen viel hilft viel.

bei farcry kannst du mit der konsole sehr genau konfigurieren wie "dein HDRR" aussehen soll. mit den cvars kannst du das ganze sehr realistisch einstellen und es sieht imo verdammt gut aus.

in SC:CT sieht HDRR auch verdammt gut aus, die ganze szene wirkt viel natürlicher, abgesehen davon dass man ohne HDRR color-banding hat.

Dein Geschmack sei dir unbenommen. Die technisch korrekte Darstellung ist nicht immer und automatisch die Ansprechendste. In der Kunst gibt es dafür viele Beispiele. Viele großartige Künstler haben durch gezieltes Weglassen großartige Werke geschaffen.

beim überstrahleffekt mag es ja noch geschmacksache sein, ob einem das unscharfe bild gefällt oder nicht, aber die schatten sehen im SM2-modus ja komplett hässlich und vor allem extrem künstlich aus, wenn man 1x die SM3-schatten gesehen hat.

MikBach
2006-03-05, 20:50:40
Bietet hier SM3-Grafik das bessere, da realistischere Bild, erhebst du plötzlich das Weglassen zur Kunst. Mein Eindruck: Du siehst erst das Ziel (SM3 heute unnötig) und definierst dann die Vorausetzungen.

Die korrektere Darstellung ist automatisch die, die realisiert werden sollte. Ansonsten bräuchten wir auch kein SM2, und spielen Super Mario auf dem NES. Macht auch Spaß.


AOE3 allerdings bemüht sich offensichtlich um möglichst realistische Grafik. Das heißt dann auch: Je realistischer der Schattenwurf, umso besser. SM3 ermöglicht hier (Kontext: Realismus) offenbar die bessere Grafik im Vergleich zu SM2. Das ist ein wichtiger Gedanke bei der Verabschiedung der SM3-Spec (die von ATI genauso abgesegnet wurde wie von NV) gewesen.
Full Ack.

Weiß jemand, warum bei ATI (R5x0) die Schatten auf dem Wasser fehlen?
Quelle PCGH.


Ich würde doch darum bitten, bei so klaren Verhältnissen (in einem Spiel das sich um Grafik-Realismus bemüht, gibt es bessere Schatten mit SM3) nicht einfach das Weglassen zur höheren Kunstform zu erheben, sondern das offensichtliche zuzugeben, dass SM3 hier Vorteile bringt. (Wäre ja auch schlimm, wenn dem nicht so wäre und man alles mit SM2 genauso gut und in gleicher Performance realisieren könnte.)
Auch hier full ack.

Und darauf, dass du deine Postings schreibst wie jeder andere auch: In schwarzer Schrift. Wirkt einfach respektvoller, sich den Gepflogenheiten anzupassen und nicht ständig auffallen zu wollen.
Würde ich auch sehr begrüssen, da das Zitieren leichter fällt...

MikBach
2006-03-05, 20:55:47
Ich ging von den Screenshots auf der ersten Seite dieses Threads aus, ich habe das Spiel nicht.

Muss man dafür irgendwas bestimmtes einstellen oder einen no-CD Patch verwenden? Ich habe das bisher noch nicht gesehen, spiele AoE3 allerdings meistens im SM2-Modus mit Blob-Schatten, da mir der Überstrahl-Effekt mit SM3 nicht gefällt.


Q
Ich denke Odal meinte FarCry.
Bei AOE3 gibt es keine Bildfehler, soweit ich das mitbekommen habe.

Odal
2006-03-05, 22:22:16
Muss man dafür irgendwas bestimmtes einstellen oder einen no-CD Patch verwenden? Ich habe das bisher noch nicht gesehen, spiele AoE3 allerdings meistens im SM2-Modus mit Blob-Schatten, da mir der Überstrahl-Effekt mit SM3 nicht gefällt.


Q

ich sprach vom HDR in Farcry

Odal
2006-03-05, 22:34:48
bei farcry kannst du mit der konsole sehr genau konfigurieren wie "dein HDRR" aussehen soll. mit den cvars kannst du das ganze sehr realistisch einstellen und es sieht imo verdammt gut aus.

ich weiss das man den HDR Grad einstellen kann, ich hab Farcry damals zum teil mit hdr gespielt finde es dort dennoch absolut unrealistisch und unschön.


in SC:CT sieht HDRR auch verdammt gut aus, die ganze szene wirkt viel natürlicher, abgesehen davon dass man ohne HDRR color-banding hat.


Das Spiel habe ich leider nie gehabt und kann daher keine Aussage treffen.
Das HL2 HDR in DoD finde bzw. fand ich an einigen Stellen recht schön aber an anderen stellen ziemlich hässlich und unrealistisch..bei Serious Sam2 find ich das HDR extrem schlecht....
und den ganzen bloom bei N4S MW finfd ich sowieso schlecht. Die einzigen blendeffekte die ich halbwegs realistisch finde sind die von GTL (ist aber kein HDR)
Man muss auch zwischen blendeffekten und HDR unterscheiden..spiele die wirklich HDR anbieten gibt es noch nicht wirklich.



beim überstrahleffekt mag es ja noch geschmacksache sein, ob einem das unscharfe bild gefällt oder nicht, aber die schatten sehen im SM2-modus ja komplett hässlich und vor allem extrem künstlich aus, wenn man 1x die SM3-schatten gesehen hat.

also besonders auffällig sind die schatten imho nicht...zumindest die geringeren FPS sind durch deren detailiertere berechnung den preis imho nicht wert.

Gast
2006-03-05, 23:05:25
ich weiss das man den HDR Grad einstellen kann, ich hab Farcry damals zum teil mit hdr gespielt finde es dort dennoch absolut unrealistisch und unschön.



ok deine meinung, aber imo kann man es verdammt schön einstellen. HDRR war (natürlich mit der guten KI) für mich ein grund farcry nochmal durchzuspielen.



Das Spiel habe ich leider nie gehabt und kann daher keine Aussage treffen.
Das HL2 HDR in DoD finde bzw. fand ich an einigen Stellen recht schön aber an anderen stellen ziemlich hässlich und unrealistisch..bei Serious Sam2 find ich das HDR extrem schlecht....


DoD habe ich nicht, in lost-coast hat es mir recht gut gefallen, zwar nicht so gut wie ordentlich eingestelltes farcry-hdr, allerdings ein guter kompromiss, da immerhin MSAA funktioniert.


und den ganzen bloom bei N4S MW finfd ich sowieso schlecht. Die einzigen blendeffekte die ich halbwegs realistisch finde sind die von GTL (ist aber kein HDR)


NFSMW gefällt mir eigentlich gut, vor allem dass sich die überstrahlung bei tunnelausfahrten schön anpasst. leider funktioniert das ganze z.b. bei fahrten durch die kanäle nicht so toll funktioniert, mit HDRR würde das natürlich auch ordentlich funktionieren.

wobei mir das nicht unbedingt wegen dem realismus, sondern weil es imo zum grafikstil gut passt.



Man muss auch zwischen blendeffekten und HDR unterscheiden..spiele die wirklich HDR anbieten gibt es noch nicht wirklich.


stimmt blendeffekte gibt es mit und ohne HDRR, nur KANN man sie mit HDRR besser machen (was nicht heißt dass es die artists auch machen ;) )

SC:CT ist imo ein sehr schönes beispiel was HDRR alles bringen kann, ohne irgendwelche übertriebene blendeffekte.




also besonders auffällig sind die schatten imho nicht...zumindest die geringeren FPS sind durch deren detailiertere berechnung den preis imho nicht wert.

als ich das SM2-bild gesehen habe hat es mir gefallen, aber 1x SM3-schatten und mir viel auf wie hässlich jene im SM2-bild sind. ich denke bei einem strategiespiel sind die FPS nicht so wichtig.

IVN
2006-03-05, 23:17:37
Tigerchen, abgesehen von der blauen Farbe: Was soll dieser Argumentationsstil?

Bietet hier SM3-Grafik das bessere, da realistischere Bild, erhebst du plötzlich das Weglassen zur Kunst. Mein Eindruck: Du siehst erst das Ziel (SM3 heute unnötig) und definierst dann die Vorausetzungen.

Die korrektere Darstellung ist automatisch die, die realisiert werden sollte. Ansonsten bräuchten wir auch kein SM2, und spielen Super Mario auf dem NES. Macht auch Spaß.

Ich spiele derzeit Luigi's Mansion auf dem Cube, mit Lowres-Texturen und ohne Kantenglättung. Macht Spaß, und der Comic-Stil sieht trotz Color Banding gut aus obwohl er ja unrealistisch ist. Die Licht- und Schatten-Effekte sind bei Luigi's Mansion allerdings hervorragend gelungen, dazu gehört Echtzeit-Schattenwurf mittels Taschenlampe.

AOE3 allerdings bemüht sich offensichtlich um möglichst realistische Grafik. Das heißt dann auch: Je realistischer der Schattenwurf, umso besser. SM3 ermöglicht hier (Kontext: Realismus) offenbar die bessere Grafik im Vergleich zu SM2. Das ist ein wichtiger Gedanke bei der Verabschiedung der SM3-Spec (die von ATI genauso abgesegnet wurde wie von NV) gewesen. (Da D3D10 nur mit Vista geboten wird, und nicht jeder Spieler sofort auf Vista umsteigt, wird ohnehin noch einige Zeit D3D9 genutzt, selbst wenn D3D10-Karten eingebaut sind, die ja mittels D3D9-Treiber auch unter XP funktionieren.)


Ich würde doch darum bitten, bei so klaren Verhältnissen (in einem Spiel das sich um Grafik-Realismus bemüht, gibt es bessere Schatten mit SM3) nicht einfach das Weglassen zur höheren Kunstform zu erheben, sondern das offensichtliche zuzugeben, dass SM3 hier Vorteile bringt. (Wäre ja auch schlimm, wenn dem nicht so wäre und man alles mit SM2 genauso gut und in gleicher Performance realisieren könnte.)


Davon abgesehen warte ich noch immer auf Belege bestimmter Behauptungen, die von dir kamen. Und darauf, dass du deine Postings schreibst wie jeder andere auch: In schwarzer Schrift. Wirkt einfach respektvoller, sich den Gepflogenheiten anzupassen und nicht ständig auffallen zu wollen.
OffT

Unlogisches Wort.Bitte kein Komparativ/Superlativ von einem Absolutum bilden.Wahr,korrekt,blind etc,koennen nicht gesteigert werden.

Tigerchen
2006-03-06, 09:35:49
Tigerchen, abgesehen von der blauen Farbe: Was soll dieser Argumentationsstil?

Bietet hier SM3-Grafik das bessere, da realistischere Bild, erhebst du plötzlich das Weglassen zur Kunst. Mein Eindruck: Du siehst erst das Ziel (SM3 heute unnötig) und definierst dann die Vorausetzungen.

Die korrektere Darstellung ist automatisch die, die realisiert werden sollte. Ansonsten bräuchten wir auch kein SM2, und spielen Super Mario auf dem NES. Macht auch Spaß.

Ich spiele derzeit Luigi's Mansion auf dem Cube, mit Lowres-Texturen und ohne Kantenglättung. Macht Spaß, und der Comic-Stil sieht trotz Color Banding gut aus obwohl er ja unrealistisch ist. Die Licht- und Schatten-Effekte sind bei Luigi's Mansion allerdings hervorragend gelungen, dazu gehört Echtzeit-Schattenwurf mittels Taschenlampe.

AOE3 allerdings bemüht sich offensichtlich um möglichst realistische Grafik. Das heißt dann auch: Je realistischer der Schattenwurf, umso besser. SM3 ermöglicht hier (Kontext: Realismus) offenbar die bessere Grafik im Vergleich zu SM2. Das ist ein wichtiger Gedanke bei der Verabschiedung der SM3-Spec (die von ATI genauso abgesegnet wurde wie von NV) gewesen. (Da D3D10 nur mit Vista geboten wird, und nicht jeder Spieler sofort auf Vista umsteigt, wird ohnehin noch einige Zeit D3D9 genutzt, selbst wenn D3D10-Karten eingebaut sind, die ja mittels D3D9-Treiber auch unter XP funktionieren.)


Ich würde doch darum bitten, bei so klaren Verhältnissen (in einem Spiel das sich um Grafik-Realismus bemüht, gibt es bessere Schatten mit SM3) nicht einfach das Weglassen zur höheren Kunstform zu erheben, sondern das offensichtliche zuzugeben, dass SM3 hier Vorteile bringt. (Wäre ja auch schlimm, wenn dem nicht so wäre und man alles mit SM2 genauso gut und in gleicher Performance realisieren könnte.)


Davon abgesehen warte ich noch immer auf Belege bestimmter Behauptungen, die von dir kamen. Und darauf, dass du deine Postings schreibst wie jeder andere auch: In schwarzer Schrift. Wirkt einfach respektvoller, sich den Gepflogenheiten anzupassen und nicht ständig auffallen zu wollen.

Es gibts nichts Auffälligeres als dein sehr sebstgerechter Schreibstil. Um das zu toppen müßte ich schon jeden Buchstaben in einer extra Farbe schreiben.

Was du hier offenbarst ist ein grundsätzlich anderes Verständnis von künstlerischer Leistung. Wenn du das wirklich glaubst ist das deine Sache. Lass anderen ihre Meinung zu gewissen optischen Eindrücken. Gerade bei AOE zeigt sich für mich daß unbedingter Realismus auf Grund korrekter mathematischer Algorythmen nicht automatisch zu einem besseren Gesamteindruck führt. Das Auge ist nur analog und reagiert eben nicht mathematisch korrekt. Im Gegenteil. Die Täuschungsmöglichkeiten sind enorm. Die Designer müßen sich wirklich fragen ob weniger nicht manchmal mehr ist. Bei AOE ist das ganz sicher so. Es kann natürlich auch ganz anders laufen. Vielleicht fehlt es den Designern auch einfach an Erfahrung mit den neuen Möglichkeiten.

Es bleibt dabei. SM 3.0 ist die Zukunft. Ihr Entwickler habt eure Freude dran.Immerhin wartet man jetzt schon fast 2 Jahre auf SM 3.0 Spiele.

Gast
2006-03-06, 09:44:30
ich sprach vom HDR in Farcry
Ok, sorry. Ich dachte, weil dein Posting direkt unter dem von Xmas war und keinen Adressaten enthielt, dass du dich darauf bezogen hast.


Q

Gast
2006-03-06, 12:13:59
Es gibts nichts Auffälligeres als dein sehr sebstgerechter Schreibstil. Um das zu toppen müßte ich schon jeden Buchstaben in einer extra Farbe schreiben.

Was du hier offenbarst ist ein grundsätzlich anderes Verständnis von künstlerischer Leistung. Wenn du das wirklich glaubst ist das deine Sache. Lass anderen ihre Meinung zu gewissen optischen Eindrücken. Gerade bei AOE zeigt sich für mich daß unbedingter Realismus auf Grund korrekter mathematischer Algorythmen nicht automatisch zu einem besseren Gesamteindruck führt. Das Auge ist nur analog und reagiert eben nicht mathematisch korrekt. Im Gegenteil. Die Täuschungsmöglichkeiten sind enorm. Die Designer müßen sich wirklich fragen ob weniger nicht manchmal mehr ist. Bei AOE ist das ganz sicher so. Es kann natürlich auch ganz anders laufen. Vielleicht fehlt es den Designern auch einfach an Erfahrung mit den neuen Möglichkeiten.

Es bleibt dabei. SM 3.0 ist die Zukunft. Ihr Entwickler habt eure Freude dran.Immerhin wartet man jetzt schon fast 2 Jahre auf SM 3.0 Spiele.

Was du im Gegenzug falsch machst, ist eine Technik zu verdammen (oder ihr den Nutzen abzusprechen) weil dir eine einzelne, künstlerische Umsetzung nicht zusagt. Das wäre so, als würde ich Science-Fiction grundsätzlich Scheisse finden, nur weil ich die "Kampfstern Galactica"-Serie von 1978 nicht mag. :)


Q

Narrenkönig
2006-03-06, 15:24:39
Is ging um die Schatten im wasser auf den Bildern
Nicht nur. Das SM3 Bild wurde allgemein als schlechter empfunden. Auch ich finde HDR in der Form bei RTS Spielen für unnütz, aber die SM3 Schatten sind dafür besser. HDR ist eher für Ich-Perspektiven.

Und nochmal, Stronghold 2 sieht mit SM3 besser aus. Nix mit ... kein Spiel. Schau es dir doch an.

Spasstiger
2006-03-06, 15:28:57
Nicht nur. Das SM3 Bild wurde allgemein als schlechter empfunden. Auch ich finde HDR in der Form bei RTS Spielen für unnütz, aber die SM3 Schatten sind dafür besser. HDR ist eher für Ich-Perspektiven.
HDR ist ein alternativer Rendermodus bzw. ein besseres Lighting-System für 3D-Engines und kein Effekt, der hier Sinn macht und da nicht. HDR wird über kurz oder lang zum Standard werden.

Gast
2006-03-06, 16:24:34
HDR ist ein alternativer Rendermodus bzw. ein besseres Lighting-System für 3D-Engines und kein Effekt, der hier Sinn macht und da nicht. HDR wird über kurz oder lang zum Standard werden.

stimmt natürlich, allerdings macht HDRR dann besonders viel sinn wenn in einem spiel große helligkeitsunterschiede in derselben szene auftreten können.

bei strategiespielen ist die helligkeit allerdings über die ganze karte verteilt relativ gleich, wodurch HDRR nicht so viel bringt.

bis HDRR standard ist, wird allerdings noch einige zeit vergehen, vor garnicht so langer zeit konnten wir sogar noch 16bit in den spielen auswählen ;)

aths
2006-03-06, 16:27:59
Nicht nur. Das SM3 Bild wurde allgemein als schlechter empfunden. Auch ich finde HDR in der Form bei RTS Spielen für unnütz, aber die SM3 Schatten sind dafür besser. HDR ist eher für Ich-Perspektiven.HDR-Rendering ist was für alle Perspektiven, sobald dynamische Beleuchtung in der Szene eine wichtige Rolle spielt.


bis HDRR standard ist, wird allerdings noch einige zeit vergehen, vor garnicht so langer zeit konnten wir sogar noch 16bit in den spielen auswählen ;)Das kann ich sogar in AOE3 noch.

aths
2006-03-06, 16:39:04
[COLOR="#000099"]
Es gibts nichts Auffälligeres als dein sehr sebstgerechter Schreibstil. Um das zu toppen müßte ich schon jeden Buchstaben in einer extra Farbe schreiben.Immerhin: Hinter meiner großen Klappe steckt auch bisschen was. Gegenüber Leuten wie tokugawa blutiger Anfänger, darf ich behaupten im Vergleich zum durchschnittlichen Spieler mir über die Jahre ein breites wie detailreiches Wissen um die Erzeugung von 3D-Grafik angeeignet zu haben – und die Liebe (zur Grafik) höret nimmer auf.

Dass du mit blauer Farbe schreibst, nervt beim Lesen und erschwert das quoten. Der Subtext der blauen Farbe ist offensichtlich "Ich bin so wichtig dass ich gelesen werden muss, und damit ihr es leichter habt, meine wertvollen Posting zu finden, färbe ich sie ein." Ich will mich jetzt nicht darüber auslassen, ob du dem inhaltlichen Anspruch gerecht wirst – alleine die Auffassung, man könne permanent mit blauer auf seine Postings aufmerksam machen, zeugt von einer seltsamen Einstellung der Forengemeinschaft gegenüber. Das ist auch auffälliger als mein sebstgerechter (sic) Schreibstil.

Was du hier offenbarst ist ein grundsätzlich anderes Verständnis von künstlerischer Leistung. Das Topic ist "Shader 2.0 zu 3.0", nicht "persönlicher Ästhetik-Geschmack". Ich sehe hier nur den Versuch von dir, eine Sache kleinreden zu wollen wo SM3 was bringt.

Wenn du das wirklich glaubst ist das deine Sache. Lass anderen ihre Meinung zu gewissen optischen Eindrücken. Gerade bei AOE zeigt sich für mich daß unbedingter Realismus auf Grund korrekter mathematischer Algorythmen nicht automatisch zu einem besseren Gesamteindruck führt.Realistisch geriffelte Schattenränder sind trotzdem realistischer und damit bei einer Grafik, die versucht, realistisch herüberzukommen, besser.

Das Auge ist nur analog und reagiert eben nicht mathematisch korrekt. Im Gegenteil. Die Täuschungsmöglichkeiten sind enorm. Die Designer müßen sich wirklich fragen ob weniger nicht manchmal mehr ist. Bei AOE ist das ganz sicher so. Es kann natürlich auch ganz anders laufen. Vielleicht fehlt es den Designern auch einfach an Erfahrung mit den neuen Möglichkeiten.Hier bestand die Möglichkeit, den Schattenrand mit SM3 zu verbessern, und das wurde getan. Bei Computergrafik wird auch mit SM3 massiv gefakt. Doch je realistischer umso besser – sofern Grafikrealismus im Vordergrund steht, was bei AOE3 offensichtlich der Fall ist.

Dass das Auge "nur analog" sei ist doch kein Argument, auf unebener Oberfläche glatte statt geriffelte Schattenränder haben zu wollen.

SM3 erlaubt ggü. SM2.0 erhebliches Pass Reduction sowie (in gewissen Grenzen) Shader-Antialiasing (mit den Instruktionen ddx und ddy.) Geht es um Effekte, die iterativ oder mit Raytracing umgesetzt werden, bist du bei 2.0 ganz schnell am Feature-Limit, während bei 3.0 vorrangig die Rohleistung der GPU limitiert. Das nenne ich Transistor-Effizienz. SM3 ist insofern nicht nur Zukunft, sondern bereits Gegenwart.

Es bleibt dabei. SM 3.0 ist die Zukunft. Ihr Entwickler habt eure Freude dran.Immerhin wartet man jetzt schon fast 2 Jahre auf SM 3.0 Spiele. Es bleibt dabei: Es gibt längst Spiele, die auch SM3 nutzen.

Und: Du bist noch Belege schuldig, was Behauptungen über mich angeht.

aths
2006-03-06, 16:42:01
OffT

Unlogisches Wort.Bitte kein Komparativ/Superlativ von einem Absolutum bilden.Wahr,korrekt,blind etc,koennen nicht gesteigert werden."Korrekt" ist steigerbar. (Auch "wahr" und "blind" können gesteigert werden. "Einzig" kann nicht gesteigert werden.) Sogar "optimal" und "extrem" sind (lt. canoo.net) steigerbar – was ich allerdings als suboptimal empfinde.

IVN
2006-03-06, 21:38:16
"Korrekt" ist steigerbar. (Auch "wahr" und "blind" können gesteigert werden. "Einzig" kann nicht gesteigert werden.) Sogar "optimal" und "extrem" sind (lt. canoo.net) steigerbar – was ich allerdings als suboptimal empfinde.
Was fuer eine abartige Sprache ist Deutsch eigentlich???

aths
2006-03-06, 22:47:15
Ich würde Wörter wie "optimal" oder "extrem" keinesfalls steigern. Ob man "korrekt" steigern sollte, ist eine interessante Frage: Gibt es nur die Zustände "korrekt" und "nicht korrekt", oder auch korrektere Ergebnisse? Generell begrüße ich allerdings Anmerkungen zu meinem Stil, es schadet nie, sich Gedanken darum zu machen ob man die Wörter korrekt anwendet.

Coda
2006-03-06, 23:06:21
Wieso darf man "extrem" nicht steigern? Bei "optimal" stimm ich dir ja zu. Aber etwas kann doch durchaus "extremer" sein als etwas anderes :|

"korrekter" gibt es imho auch, wenn es eine bestimmte Fehlertolleranz gibt z.B.

ShadowXX
2006-03-06, 23:21:43
Wieso darf man "extrem" nicht steigern? Bei "optimal" stimm ich dir ja zu. Aber etwas kann doch durchaus "extremer" sein als etwas anderes :|

Genau das gleiche Beispiel könntest du auch für optimal nehmen.

(Wobei bestimmte "ungewöhnliche" Steigerungen (wie eben extremer, optimaler, korrekter, etc.) wohl auch einfach aus dem Umgangssprachlichen kommen und nach einiger Zeit ins "Lehrdeutsch" übernommen wurden.)

Coda
2006-03-06, 23:23:51
Wenn etwas "optimal" ist dann ist es eben schon perfekt und nicht mehr zu verbessern. Aber etwas kann doch durchaus extrem sein (Bungeejumping) und etwas anderes extremer (ohne Seil :ugly:)

ShadowXX
2006-03-06, 23:37:37
Wenn etwas "optimal" ist dann ist es eben schon perfekt und nicht mehr zu verbessern. Aber etwas kann doch durchaus extrem sein (Bungeejumping) und etwas anderes extremer (ohne Seil :ugly:)

Prinzipiel ist beides einfach nur extrem....

Das Problem besteht doch darin:
Du sagt: Ich mache Bungiejumping.
Ich sage: Das ist ja extrem.
x sagt: ich machs sogar ohne Seil
......

Ich bin nun quasi gezwungen extrem zu steigern, obwohl es eigentlich nonsense ist.
Also sage ich: Das ist ja noch extremer.

Und keiner stört sich, da wir inzwischen in einer Gesellschaft leben, wo es immer eine Steigerung (und somit eine Steigerungsform) benötigt.
Rate mal warum die bei Waschmitteln inzwischen bei Supra, Hypra und was was ich da angelangt ist.
Ihnen sind die Steigerungen ausgegangen...nach "extremsten" gibts nun mal nix mehr.
Und "Vollkrass" funktioniert bei Waschmitteln wohl nicht.....

Genauso wird das ganze deshalb auh bei optimal benutzt.
Meine Lösung ist optimal....meine ist sogar noch optimaler...auch was, meine ist am optimalsten.

oder auch

Welche von den 5 Lösungen ist am optimalsten?

ébenfalls gern benutzt

Die optimalere der beiden Strategien ist die von Herrn X.

(Alles schon im Spiegel, Stern, der Welt, Frankfurter, Abendblatt, etc. etc. gesehen.)

Coda
2006-03-06, 23:38:24
Prinzipiel ist beides einfach nur extrem....Ich weiß nicht aber mein Sprachempfinden sagt mir da was anderes. Wahrscheinlich ist es schon so weit gekommen...

tokugawa
2006-03-06, 23:51:55
Extrem heißt ja nur ">= einer Schwelle". D.h. zwei Elemente die extrem sind, sind zueinander komparativ vergleichbar.

"Optimal" heißt schon "= maximum". Da kann es nichts mehr geben, was das komparativ steigert.


EDIT: und argh. keine lust die letzten paar Postings zu lesen. Hört das denn nie auf?

Coda
2006-03-06, 23:53:01
Ja genau so seh ich das auch.

LordDeath
2006-03-07, 00:27:59
wer was über steigerungen was lernen will, sollte sich sich dragonball antun:

super saijayin, ultra saijayin, mega saijayin und giga saijayin. und wenn einer aus versehen daneben haut, sind planeten kaputt *g*

ontopic: wie kann es eigentlich sein, dass 2.0 shader ohne veränderung auf 3.0 kompiliert schneller laufen können?

Armaq
2006-03-07, 00:40:36
wer was über steigerungen was lernen will, sollte sich sich dragonball antun:

super saijayin, ultra saijayin, mega saijayin und giga saijayin. und wenn einer aus versehen daneben haut, sind planeten kaputt *g*

ontopic: wie kann es eigentlich sein, dass 2.0 shader ohne veränderung auf 3.0 kompiliert schneller laufen können?

Weil 3.0 Möglichkeiten hat bestimmte Funktionen zu vereinfachen. Falls das Bullshit war, werden es dir unsere Gurus sagen.

Xmas
2006-03-07, 01:11:53
ontopic: wie kann es eigentlich sein, dass 2.0 shader ohne veränderung auf 3.0 kompiliert schneller laufen können?
Die Shader werden ja meist nicht direkt als SM2.0-Shader geschrieben, sondern in einer Shaderhochsprache. Dort gibt es mehr sematische Informationen. SM2.0 bietet manchmal nur sehr unpraktische Wege, einen Shader auszuführen, beispielsweise müssen Schleifen komplett ausgerollt werden, oder if-Anweisungen durch Multiplikation mit 0 oder 1 ersetzt werden. Derselbe Shader nach SM3.0 kompiliert kann dynamische Verzweigungen oder Predication nutzen.
Dummerweise kann der Treiber einer SM3.0-Karte anhand des SM2.0-Codes nicht sehen ob da vorher eine Schleife oder ein if war, kann also nachträglich nicht mehr viel tun. Kompiliert man den Shader gleich für SM3.0, kann er deswegen deutlich schneller laufen.

Manchmal kann eine SM3.0-Karte diese Fähigkeiten aber auch nutzen, um für SM2.0 kompilierte Shader nochmal deutlich zu beschleunigen.


Zur Grammatik: Die erste Steigerungsform des Adjektivs heißt nicht umsonst Komparativ – Vergleichsform. Der Begriff "Steigerungsform" weist manchmal in die Irre, weil Dinge die besser sind als andere deswegen noch lange nicht gut sind.
Adjektive wie "korrekt" oder "optimal" sind logisch bereits der Superlativ, trotzdem kann Antwort A korrekter als Antwort B sein, weil ein Vergleich möglich ist.

Armaq
2006-03-07, 09:03:52
Deutsch gibt dir auch die Moeglichkeit 2 Mal zu verkleinern/vergroessern (z.B.kleines Haeuschen).Mich stoert das,weil ich merke dass nur Personen mit einem kleinen Vokabular diese auch benutzen.


p.s. @Xmas /Ich bin kein Deutscher,ich kann aber logisch denken,und die Logik sagt mir dass anstatt "korrekteres","ein Ergebniss naeher am korrekten" die bessere Formulierung ist.Haeutigen Jugend haben es wir zu verdanken dass solche Formulierung ueberhaupt moeglich geworden ist.(ur mega g0il,ultra fett :eek: )

"kleines Häuschen" ist ein Deminutivum, eine Verniedlichungsform und zeugt keinesfalls von fehlendem Vokabular.

[Deminutivum (Deminutivnomen, Verkleinerungsform) Wort, das durch ð Suffixe wie -chen, -lein, -eln, -ulus etc. gebildet wird. Die durch Deminutiva bezeichneten Gegenstände oder Handlungen sind in der Regel von geringer Quantität als die durch das Ursprungswort bezeichneten; der Sprecher kann aber durch Deminutiva auch lediglich seine emotionale Einstellung zu dem Bezeichneten zum Ausdruck bringen (sog. Hypokoristikum, Koseform) (vgl. § 4).]

Danke für den Hinweis @ aths.

Allgemein bleibt anzumerken, dass eine überkorrekte Aussprache und Formlierung von Sätzen in allen Bevölkerungsschichten auf Ablehnung trifft. Wobei ich es persönlich als äußerst beeindruckend empfinde, wenn ein Nicht-Muttersprachler sich um korrekte Ausdrucksweise bemüht und darin auch zu einer gewissen Perfektion gelangt.

Edit: Nvidias neues kleines Grafikkärtchen - pure Ironie. Wenn Leonidas sowas in seinem Review schreibt müsste jedem klar sein, was er damit bezweckt.

mapel110
2006-03-07, 23:14:48
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=282975
Alles weiter und den Rest der Rechtschreibdiskussion gibts dort. Back to Topic.