PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3D Fetures, die von Spielen nie groß unterstützt wurden!


Premium
2002-05-15, 18:07:53
Hallo,
es steht ja wieder eine große Welle neuer Grafikkarten an mit auch so tollen neuen Möglichkeiten. Aus diesem Anlass will ich einmal zurückblicken auf bisher von 3D Katen angebotenen Möglichkeiten, welche nie in der breiten Masse von Spielen genutzt wurden. Bitte helft mir diese Liste zu vervollständigen.

Fetures nie genutzt bei meiner Radeon 7200 sind:
3D Texturen
Charisma Engine
Pixel Shader 1.0
Hardware- Clipping (ja der Radeon kann nicht nur T&L)
Dot Product 3
Envirement Mapping ( speheric, parabol, cubed)
Embosessed Mapping
Priority Buffer für Schatten
Vertex Skinning
4 Stufen Keyframe Interpolation

...
usw..

Angeblich sollte die Radeon auch mal Bewegungsunschärfe und Tiefenunschärfe unterstützen. Ist das jetzt verwirklicht worden oder nicht?

MfG
Premium

PS: Oder gibt es schon eine Übersicht mit allen Fetures aller bisher erschienen Chips? Lustig wäre es sich einen Chip vorzustellen der all diese sinnlosen Fetures untertützt, schweineteuer ist und trotzdem saulam. welcher Hersteller vierdient euerer Meinung nach den Preis für den meisten Fetureoverkill ohne Marktorientierung?

Unregistered
2002-05-15, 18:23:34
Oh oh, das riecht nach einen Flamewar... ;)

Nordmann
2002-05-15, 19:25:33
*spam*

Desti
2002-05-15, 19:39:23
Originally posted by Premium
[...]
Charisma Engine
[...]

= T&L !?

mapel110
2002-05-16, 01:00:30
*mitspam*

zeckensack
2002-05-16, 01:23:51
Originally posted by Unregistered
Oh oh, das riecht nach einen Flamewar... ;) :zzz:

Ich hab' keinen Bock, mich auf Grakas vom Schlage einer Riva 128 zurückstufen zu lassen.
Da wären wir nämlich, wenn wir alles aus deiner Liste streichen würden.
Die Features, die es heute gibt, sind kein Overkill!

Xmas
2002-05-16, 01:23:58
Charisma Engine
Charisma Engine = Marketingbezeichnung für TCL, Vertex Skinning und Keyframe Interpolation

Pixel Shader 1.0
Unterstützt der Radeon nicht.

Hardware- Clipping (ja der Radeon kann nicht nur T&L)
Das wird automatisch genutzt, auch bei anderen T&L-Karten.

Dot Product 3
Wird in manchen Spielen verwendet, leider erst in wenigen. Es wird sich aber immer mehr durchsetzen.

Envirement Mapping ( speheric, parabol, cubed)
Wie Dot3. Spherical und Dual-Paraboloid EM sind nur für statische Reflexionen geeignet, CEM für dynamische. Das braucht allerdings sehr viel Performance, weswegen das erst mit neueren Karten interessant wird.

Embosessed Mapping
Ich nehme mal an du meinst Emboss Bump Mapping. Ein Glück sind wir davon verschont geblieben! Wenn schon dann Dot3...
Das ist übrigens kein "Feature", sondern eine Technik die sich auf praktisch allen Multitexturing-Karten nutzen lässt.

PS: Oder gibt es schon eine Übersicht mit allen Fetures aller bisher erschienen Chips? Lustig wäre es sich einen Chip vorzustellen der all diese sinnlosen Fetures untertützt, schweineteuer ist und trotzdem saulam. welcher Hersteller vierdient euerer Meinung nach den Preis für den meisten Fetureoverkill ohne Marktorientierung?
TriTech Pyramid3D? ;)

ow
2002-05-16, 19:00:10
Originally posted by Xmas


Pixel Shader 1.0
Unterstützt der Radeon nicht.




Da widerspreche ich mal.;) Sowohl die PS Demo aus dem DX8SDK als auch die des NV Effectsbrowser mit PS1.0 laufen fehlerfrei auf meiner Radeon nach Setzen des entsprechenden Reg-Eintrags ("PixelShaderVersion" "10").

Xmas
2002-05-16, 19:58:48
Originally posted by ow
Da widerspreche ich mal.;) Sowohl die PS Demo aus dem DX8SDK als auch die des NV Effectsbrowser mit PS1.0 laufen fehlerfrei auf meiner Radeon nach Setzen des entsprechenden Reg-Eintrags ("PixelShaderVersion" "10").
Nutzt zufällig eine dieser Demos vier Texturen? ;)

Iceman346
2002-05-16, 21:48:56
Um mal zum Thema zurückzukommen:

Pixelshader Version 1.4 werden wohl leider wenig bis fast garnicht(ausser in Doom3) benutzt werden, da ausser ATi Niemand sie hat :(

Ceiser Söze
2002-05-16, 22:12:42
Doom3 wird PS 1.4 sicher nicht unterstützen, denn eine Engine auf DirectX auszulegen, ist so ziemlich das Letzte, was John Carmack je machen würde ;)

aths
2002-05-16, 22:36:04
ow,

versuch doch mal im DX8.1 SDK 4 Texturen zu definieren: ps.1.0
tex t0
tex t1
tex t2
tex t3
mov r0,t0
add r0,r0,t1
add r0,r0,t2
add_d2 r0,r0,t3

Unregistered
2002-05-16, 22:46:42
Hi!

Nicht die Radeon 7200 unterstützt den Pixelshader, sondern deine CPU. Es ist nur eine Abbildung in Software.

MfG

Exxtreme
2002-05-16, 22:50:02
Originally posted by Unregistered
Hi!

Nicht die Radeon 7200 unterstützt den Pixelshader, sondern deine CPU. Es ist nur eine Abbildung in Software.

MfG
Nicht wirklich. ;)
PixelShader lassen sich zwar tatsächlich per CPU emulieren doch selbst die schnellsten CPUs entlocken den PS-Demos kaum mehr als 0,1 fps. Die R100 hat tatsächlich einige PixelShader-Fähigkeiten.

Gruß
Alex

Demirug
2002-05-16, 22:52:36
Originally posted by Unregistered
Hi!

Nicht die Radeon 7200 unterstützt den Pixelshader, sondern deine CPU. Es ist nur eine Abbildung in Software.

MfG

Pixelshader in Software? Niemals. Es gibt nur einen Treiber der das kann und der ist nur für entwickler und so langsam das man damit nicht spielen kann.

Ich bin sicher du hast das mit Vertexshader verwechselt.

PhoenixFG
2002-05-16, 22:52:57
Aber ein vollwertiger Pixelshader scheint es mir nicht zu sein, denn soweit ich weiß, wird er in Aquanox nicht unterstützt, oder?

Abgesehen davon, ist ein Pixelshader auf einer 7200 doch etwas auf verlorenem Posten.

MfG

Demirug
2002-05-16, 23:07:58
Originally posted by Exxtreme

Nicht wirklich. ;)
PixelShader lassen sich zwar tatsächlich per CPU emulieren doch selbst die schnellsten CPUs entlocken den PS-Demos kaum mehr als 0,1 fps. Die R100 hat tatsächlich einige PixelShader-Fähigkeiten.

Gruß
Alex

Gabs da mal auch Treiber die das freigeschaltet haben?

Erinnert mich irgendwie an die 0.5 Pixelshader bei der Geforce2. Tja MS hats wohl nicht gefallen den es hat glaube ich nur eine Treiberversion überlebt.

Exxtreme
2002-05-16, 23:11:39
Man kann den PS tatsächlich durch das Ändern eines Wertes in der Registry freischalten. AquaNox soll dann mit PS-Support ohne Probleme laufen. Der PS-Test vom 3DMark2001 läuft definitiv nicht.

Gruß
Alex

StefanV
2002-05-16, 23:25:35
Anscheinend hat die R100 einen Pixelshader oder ansätze davon.

Mag auch sein, daß er etwas buggy ist, daß er deswegen deaktiviert wurde oder ein paar Funktionen fehlen, DAS weiß wohl nur ATI...

Xmas
2002-05-17, 01:48:36
Originally posted by Stefan Payne
Anscheinend hat die R100 einen Pixelshader oder ansätze davon.

Mag auch sein, daß er etwas buggy ist, daß er deswegen deaktiviert wurde oder ein paar Funktionen fehlen, DAS weiß wohl nur ATI...
Nein, das weiß ich (und jeder der sich die PS1.0 Specs anschaut) auch. PS1.0 erfordert vier Texturen, der Radeon kann aber nur drei pro Pass. So einfach ist das.

Die einzige Software-Emulation die es für PS gibt ist der D3D Reference Rasterizer. Der unterstützt auch PS 1.4, ist aber für mehr als Standbilder nicht zu gebrauchen.

zeckensack
2002-05-17, 11:25:06
Originally posted by Exxtreme
Man kann den PS tatsächlich durch das Ändern eines Wertes in der Registry freischalten. AquaNox soll dann mit PS-Support ohne Probleme laufen. Der PS-Test vom 3DMark2001 läuft definitiv nicht.

Gruß
Alex Welchen Key muß ich setzen? Das würd' ich mir gerne mal anschauen :jump2:

Exxtreme
2002-05-17, 11:40:06
Du musst den Wert "PixelShaderVersion" suchen/anlegen und ihn auf "10" setzen.

Gruß
Alex

Premium
2002-05-17, 11:56:20
zu
Pixel Shader 1.0
Unterstützt der Radeon nicht.
@ extreme: mit welcher Tweaksoftware kann man den PS 1.0 aktivieren?
will das auch mal in Aquanox testen. Endlich mal ein Spiel das PS 1.0 nutzt, gibt es da noch mehrere?

zu
Hardware- Clipping (ja der Radeon kann nicht nur T&L)
Das wird automatisch genutzt, auch bei anderen T&L-Karten.
Q Xmas: ja, das bei jeder Karte geclippt wird glaube ich ja, aber ich HW doch wohl nur bei R100 und R200, oder?
Und wieviel Leitungsplus bringt dann ddas HW Clipping der Radeonkarten?

MfG
Premium

Premium
2002-05-17, 12:05:54
@ zeckensack:
Ich hab' keinen Bock, mich auf Grakas vom Schlage einer Riva 128 zurückstufen zu lassen.
Da wären wir nämlich, wenn wir alles aus deiner Liste streichen würden.
Die Features, die es heute gibt, sind kein Overkill!

Tatsache ist doch wohl, dass die besten Features nichts bringen, sonder Chips nur langsam und teuer machen, wenn Sie nicht genutzt werden.
Sieht man die jetzigen erhältlichen Grafikkarten und die tatsächlich unterstützten Features, so sind wir Grafikmässig tatsächlich nicht so sehr viel weit entfernt von der Riva128.
Soviel hat sich seit dem auch nicht wirklich durchgesetzt. Nur die Power ist wesentlich größer.
Ich wette sogar, dass die von dir so verachtete Riva128 Features hat, welche selbst in den heute erhältlichen Spielen nicht genutzt werden.
Und wenn interessiert jetzt schon Doom3, oder welche Featres in 2 Jahren unterstützt werden. Bis dahin hat jeder von uns eine Grafikkarte, die die dann geforderten Features unterstützt.
MfG
Premium

zeckensack
2002-05-17, 12:16:39
Originally posted by Premium
zu
Hardware- Clipping (ja der Radeon kann nicht nur T&L)
Das wird automatisch genutzt, auch bei anderen T&L-Karten.
Q Xmas: ja, das bei jeder Karte geclippt wird glaube ich ja, aber ich HW doch wohl nur bei R100 und R200, oder?
Und wieviel Leitungsplus bringt dann ddas HW Clipping der Radeonkarten?

MfG
Premium Alle Karten mit HW-T&L haben auch Hardware-Clipping. Anders ginge es auch garnicht, da man vor der Transformation schließlich noch garnicht weiß, wo ein Dreieck den Bildschirmrand überschreiten würde. Beweisen kann ich das leider nicht, aber Geometriedaten auf der Karte zu transformieren, um sie dann wieder ins System-RAM zu schreiben, da zu clippen und dann wieder zurück, das wäre so dermaßen langsam, daß man das schon merken würde ;)
ATI hat sich IMO für die andere Bezeichnung entschieden, um 'moderner' zu wirken.

Premium
2002-05-17, 12:23:00
da HW C sowieso jede T&L Karte kann, war das damals von AT reines Maketingblabla. Radeon hat hier also keinerlei Vorteile vor GForce?
Gibts nocht weitere Features, die es eigentlich gar nicht in HW gab, gibt?

Exxtreme
2002-05-17, 12:25:25
Originally posted by Premium
zu
Pixel Shader 1.0
Unterstützt der Radeon nicht.
@ extreme: mit welcher Tweaksoftware kann man den PS 1.0 aktivieren?
will das auch mal in Aquanox testen. Endlich mal ein Spiel das PS 1.0 nutzt, gibt es da noch mehrere?

PS1.0 wird vom R100 nicht unterstützt. Wenn der Registry-Key "PixelShaderVersion" auf "10" gesetzt ist, glaubt die Anwendung AFAIK tatsächlich eine PS1.0-taugliche HW vorzufinden, obwohl das in Wirklichkeit gar nicht so ist. AquaNox soll dann tatsächlich die PS-Effekte unterstützten, wahrscheinlich weil sie nicht so anspruchsvoll sind und die R100 damit klarkommt, 3DMark2001 bricht mit einer Fehlermeldung ab.

Gruß
Alex

zeckensack
2002-05-17, 12:37:32
Originally posted by Premium
@ zeckensack:
Ich hab' keinen Bock, mich auf Grakas vom Schlage einer Riva 128 zurückstufen zu lassen.
Da wären wir nämlich, wenn wir alles aus deiner Liste streichen würden.
Die Features, die es heute gibt, sind kein Overkill!

Tatsache ist doch wohl, dass die besten Features nichts bringen, sonder Chips nur langsam und teuer machen, wenn Sie nicht genutzt werden.
Sieht man die jetzigen erhältlichen Grafikkarten und die tatsächlich unterstützten Features, so sind wir Grafikmässig tatsächlich nicht so sehr viel weit entfernt von der Riva128.
Soviel hat sich seit dem auch nicht wirklich durchgesetzt. Nur die Power ist wesentlich größer. Aus deiner Liste:

3D Texturen <- wohl kaum genutzt, hier wurde lediglich eine alte Beschränkung aufgehoben

Charisma Engine <- T&L-Einheit. IMO sehr vorteilhaft, das sollte nicht mehr lange dauern, bis das jeder einsieht.
Pixel Shader 1.0 <- Totgeburt. Danke, MS!

Hardware- Clipping (ja der Radeon kann nicht nur T&L) <- siehe oben

Dot Product 3 <- Untermenge von Pixel Shadern *

Envirement Mapping ( speheric, parabol, cubed) <- cube env mapping wird erst für Pixel Shader richtig notwendig, kann aber auch ohne bereits tolle Effekte erzeugen. Die anderen Varianten sind de facto tot.

EMBM <- Untermenge von Pixel Shadern *

Emboss Bump Mapping <- Abfallprodukt von Multitexturing, auf das ich wirklich nicht verzichten möchte. Alle Spiele der letzten zwei, drei Jahre wären ohne MT salopp gesagt höchstens noch halb so schnell wie mit, maßgeblich bedingt durch den weitverbreiteten Einsatz von Lightmaps

Priority Buffer für Schatten <- kA, wahrscheinlich ungenutzt. Stencil-Schatten sind die Zukunft.

Vertex Skinning <- Erlaubt sinnvolle CPU-Entlastungen bei Animationen. Untermenge Vertex Shader **

4 Stufen Keyframe Interpolation <- dito **

* Diese Features wurden eingeführt, weil man sich richtige Pixel Shader nicht leisten konnte (Entwicklungsaufwand, Chipgröße). Hier wurden lediglich die gefragtesten Spezialeffekte direkt in Silizium gegossen.

** dito für Vertex Shader

Viele dieser Features sind also schlicht Wegbereiter für cooleres.

So, vielleicht interessieren dich Vertex/Pixel Shader nicht großartig, aber die Industrie bewegt sich eben in diese Richtung: Alles so programmierbar wie möglich(TM)

Ich kenne auch viele Leute, die einerseits rummaulen, daß die Spiele seit zwei Jahren nicht schöner geworden sind, andererseits immer wieder rausposaunen, daß auf ihrer Geforce 1 ja noch alles läuft. Das klassische Henne/Ei-Problem.
Wenn dann mal wirklich ein Entwicklerhaus den Mut zusammenkratzt, für größere Hardware zu proggen, dann heißt es wieder "Frechheit, scheiße programmiert, viel zu langsam!".
Ich weiß echt nicht, was das soll. Keins der von dir genannten Features fällt durch die Kosten/Nutzenanalyse durch. Wenn ich die Wahl hätte zwischen einer 400MHz Riva TNT und einer 250MHz Radeon8500, rate doch mal, was ich nehmen würde. Und rate auch mal, welche von den beiden teurer wäre.

Premium
2002-05-17, 17:22:08
Ich weiß echt nicht, was das soll. Keins der von dir genannten Features fällt durch die Kosten/Nutzenanalyse durch. Wenn ich die Wahl hätte zwischen einer 400MHz Riva TNT und einer 250MHz Radeon8500, rate doch mal, was ich nehmen würde.
Die Radeon8500, richtig?
Und rate auch mal, welche von den beiden teurer wäre.
Die Radeon8500, weil sie nur deshalb viel langsamer getacktet werden müsste, da die Transitorrenzahl viel größer ist.
trotzdem wäre die TNT bei 80% (also bei allen nicht für Radeonfeatures optimierten Spielen) schneller.

zeckensack
2002-05-17, 17:31:30
Nicht unbedingt:
Beispielsweise hier nicht (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=19981)

Premium
2002-05-17, 17:46:43
aber billiger wäre Sie auf jedenfall und laufen würde jedes Spiel auch

zeckensack
2002-05-17, 18:02:12
Originally posted by Premium
aber billiger wäre Sie auf jedenfall und laufen würde jedes Spiel auch Darauf lasse ich mich ein.
Ich frage mich nur, wie schnell und wie schön würden die Spiele laufen?
Abgesehen davon (ich hab's oben schon angedeutet) kann die Spieleindustrie optischen Fortschritt nur erreichen, wenn die entsprechende Hardware auch in den Rechnern der User steckt.
Bitte nicht bös verstehen, aber wenn eine beharrliche Minderheit den allgemeinen Fortschritt aufhält, dann nennt man das normalerweise "Spaßbremse" ;)
Ich will 'richtiges' Bumpmapping, un-klotzige Modelle und realistische Beleuchtung irgendwann zu Gesicht bekommen.
Die Spieleindustrie will mir das aber im Moment nicht liefern, aufgrund der extrem geringen Verbreitung von dazu fähigen Grafikkarten.
Jetzt zu argumentieren, es liefe alles auf einer hochgezüchteten TNT genauso gut, erscheint mir einfach nur technologiefeindlich.
Schräger Vergleich:
Ich kann auch Gras essen, koch' mir aber lieber was feines. Wenn alle anderen Gras essen würden, dann gäbe es keine Supermärkte und ich könnte mir zum Kochen keine Zutaten kaufen.

Demirug
2002-05-17, 18:40:22
@zeckensack:

Das ist die genau die Situation in der sich die Entwickler befinden. Zudem haben sie noch das Problem das sie mindesten 18 Monate im Voraus planen müssen. Und da das im Grafikkartenmarkt nicht einfach ist neigt man im Moment eher dazu sich zurückzuhalten.

Es gibt natürlich auch Entwickler die ohne Rücksicht auf Verluste sich auf alles Features stürzen. Carmark mit ID-Soft ist so ein Beispiel.

Exxtreme
2002-05-17, 18:51:32
@ Demirug

Die Entwickler könnten aber auch genug Detailstufen-Regler einbauen. So könnte man Leute mit neuester HW und genauso Leute mit relativ schwacher HW mitberücksichtigen. Man müsste halt genug Fallbacks einbauen.

Gruß
Alex

Demirug
2002-05-17, 19:04:56
Originally posted by Exxtreme
@ Demirug

Die Entwickler könnten aber auch genug Detailstufen-Regler einbauen. So könnte man Leute mit neuester HW und genauso Leute mit relativ schwacher HW mitberücksichtigen. Man müsste halt genug Fallbacks einbauen.

Gruß
Alex

Die Situation ist wesentlich komplizierte.

Über das Thema "Auswahl der zu unterstützenden Grafikfeature in Computerspielen" könnte man wahrscheinlich eine Diplomarbeit schreiben. Da redet die Technick, die Finanzplanung, die Grafiker, der Gamedesigner, der Produzent, usw. mit.

War wahrscheinlich ein Fehler hier einfach nur ein paar Sätze hinzuwerfen. Um denn Prozeß auch nur anähernd zu beschreiben braucht man mindestens eine Din A 4 Seite.

ow
2002-05-17, 20:58:31
Originally posted by Xmas

Nein, das weiß ich (und jeder der sich die PS1.0 Specs anschaut) auch. PS1.0 erfordert vier Texturen, der Radeon kann aber nur drei pro Pass. So einfach ist das.

Die einzige Software-Emulation die es für PS gibt ist der D3D Reference Rasterizer. Der unterstützt auch PS 1.4, ist aber für mehr als Standbilder nicht zu gebrauchen.


Das glaube ich dir und deshalb darf der Radeon auch keine PS Unterstützung melden. Aber mit nur 3 Texturen (und weniger) funzt der Radeon-PS wohl.

Demirug
2002-05-17, 21:24:19
Originally posted by ow

Das glaube ich dir und deshalb darf der Radeon auch keine PS Unterstützung melden. Aber mit nur 3 Texturen (und weniger) funzt der Radeon-PS wohl.

Ja ATI wollte das als ps 0.5 in DX sehen. NVidia hatte aber mit der GeForce 2 eine andere Vorstellung von ps 0.5. Und deshalb hat man es von MS seite eben einfach gelassen einen ps 0.x einzuführen.

jedi
2002-05-18, 01:00:02
Originally posted by Demirug
Die Situation ist wesentlich komplizierte.

Über das Thema "Auswahl der zu unterstützenden Grafikfeature in Computerspielen" könnte man wahrscheinlich eine Diplomarbeit schreiben. Da redet die Technick, die Finanzplanung, die Grafiker, der Gamedesigner, der Produzent, usw. mit.

War wahrscheinlich ein Fehler hier einfach nur ein paar Sätze hinzuwerfen. Um denn Prozeß auch nur anähernd zu beschreiben braucht man mindestens eine Din A 4 Seite.

Gerne, wenn Du die Muße dazu hast. ;)
Deine Beiträge aus Entwicklersicht sind hier im Forum echt eine Bereicherung.

zeckensack
2002-05-18, 12:13:47
Ich habe jetzt den "Pixelshader"-Key gesetzt und Aquamark ausprobiert. Mit Pixelshader ist's ein klein wenig schneller als ohne, es sieht aber absolut identisch aus!
Ist das normal? Oder liegt das an meiner Schummelei?

Premium
2002-05-18, 12:17:56
das alte Henne Ei Problem ist halt auch bei Grakarts vorhanden.
Aber wenn nur Minderheiten die Hardware haben, werden Features nicht unterstützt. Werden Features nicht unterstützt nützt es mir als Kunde nicht für Leistungen zu zahlen, die nicht geliefert werden. Zum Glück gibt es Standards wie DirectX und OpenGL. Als Programmierer hält man sich an diese und hofft darauf, dass Hersteller diese in HW gießen.
Damit dieser Kreislauf durchbrochen wird, setzte ich jetzt all meine Hoffnungen auf den P10 von 3DLabs. Dieser ermöglicht durch CPU ähnliche freie Programmierung den Programmierern alle Freiheit und die Hersteller können sich sicher sein, dass die HW auch genutzt wird. Features sind kein Thema mehr. Letztendlich wird es dann egal werden von welchen Herstellen man die VPU kauft, alle müssen ja die gleiche Flexibilität bieten, Unterschiede gibt es nur in der Rohpower, ähnlich den CPU-Markt. => Es profiertieren in diesen Fall alle: Hersteller, Programmierer und Kunden. Nur auf diese Weise sind Qualitätssprünge noch möglich. Die augenblicklichen Featurekämpfe unter den Herstellern nützten einen Kunden doch nichts. Siehe PS 1.3 gegen PS 1.4. Hoffentlich bietet 3dLabs ähnlich Nvidia auch die 3D Chips für andere Hersteller an und nicht nur eigene Karten. Nur so könnte ein neuer Standard entstehen und man müsste nicht bis zu 2 Jahre nach einen neuen DirectX warten bis Hw und Spiele dieses nutzten.

Aber ich träume, als Monopolist ist es NVidias Aufgabe seinen Markt mit allen Mitteln zu verteitigen, auch wenn dies auf technologie- und kundenfeindlichen Mitteln hinausläuft.
MfG
Premium

Demirug
2002-05-18, 12:41:31
das alte Henne Ei Problem ist halt auch bei Grakarts vorhanden.
Aber wenn nur Minderheiten die Hardware haben, werden Features nicht unterstützt. Werden Features nicht unterstützt nützt es mir als Kunde nicht für Leistungen zu zahlen, die nicht geliefert werden.

Aus diesem Grund versuchen die Chiphersteller in neuen Karten die bereits benutzen Features schneller zu machen. Sonst würden sie bald nichts mehr verkaufen.

Zum Glück gibt es Standards wie DirectX und OpenGL. Als Programmierer hält man sich an diese und hofft darauf, dass Hersteller diese in HW gießen.


Mit OpenGL ist das etwas problematisch. Der Standard ist sehr alt und für die meisten neuen Features nicht ausgelegt. Darum hat jeder hersteller seine eignen Extensions und wir sind wieder bei Henne Ei Problem.


Damit dieser Kreislauf durchbrochen wird, setzte ich jetzt all meine Hoffnungen auf den P10 von 3DLabs. Dieser ermöglicht durch CPU ähnliche freie Programmierung den Programmierern alle Freiheit und die Hersteller können sich sicher sein, dass die HW auch genutzt wird. Features sind kein Thema mehr. Letztendlich wird es dann egal werden von welchen Herstellen man die VPU kauft, alle müssen ja die gleiche Flexibilität bieten, Unterschiede gibt es nur in der Rohpower, ähnlich den CPU-Markt. => Es profiertieren in diesen Fall alle: Hersteller, Programmierer und Kunden. Nur auf diese Weise sind Qualitätssprünge noch möglich. Die augenblicklichen Featurekämpfe unter den Herstellern nützten einen Kunden doch nichts. Siehe PS 1.3 gegen PS 1.4. Hoffentlich bietet 3dLabs ähnlich Nvidia auch die 3D Chips für andere Hersteller an und nicht nur eigene Karten. Nur so könnte ein neuer Standard entstehen und man müsste nicht bis zu 2 Jahre nach einen neuen DirectX warten bis Hw und Spiele dieses nutzten.

Die freie programmierbarkeit der P10 ist aber auch ein feature das wir Programmiere erst dann nutzen können wenn es genügend Karten mit diesem Feature gibt. Die P10 kann sich aber nur dann im Markt erfolgreich behaupten wenn sie bei aktuellen Spielen die Leistung bringt. Dies dürfte aber nicht ganz einfach werden.

Zum anderen ist die freie Programmierbarkeit kein integral feature mehr. Die 3d-engines müssen dafür ganz anders ausgelegt werden. Bei dem bisherigen Model war es für den Programmiere recht einfach ein Feature zu nutzen oder eben nicht. Bei dem anstehende schritt geht das nicht mehr.

Wann ein Feature benutzt wird hängt weniger von den DX Versionen ab. Diese kommen meistens sehr zeitnah zu den Karten. Aber kein Entwickler schreibt Spiele für nicht vorhandehnen Hardware. Und da die Entwicklung von Spielen im Moment ca. 24 Monate dauert muss man mindestens solange auf spiele mit diesen features warten. Es gibt natürlich vereinzelt ausnahmen.


Aber ich träume, als Monopolist ist es NVidias Aufgabe seinen Markt mit allen Mitteln zu verteitigen, auch wenn dies auf technologie- und kundenfeindlichen Mitteln hinausläuft.

Warum? NVidia hat doch mehr oder minder durchblicken lassen das sie ebenfalls an einem freiprogrammieren Chip arbeiten der anscheinend noch weiter gehen soll als der P10. Un die DX10 gerüchte weisen auch in diese Richtung.

Premium
2002-05-18, 15:18:34
Sicher, freie Programmierung ist ein Feature und daher von anfang an nicht in der breiten Masse in HW vertreten.

Aber bis dahin ist diese HW zumindest in der Lage reine HW Features zu emulieren. Falls sich dann in 24 Monaten frei programmierbare HW durchsetzt, wird DirectX und OpenGL an Bedeutung verlieren.
Vielleicht werden dann DirectX 10.0 und OpenGl 2.0 die jeweils letzten Versionen...

Dann wären, dass glaube zumindest ich, die Programmierer an einen Punkt angelangt, ab dem man sich nur noch auf die Spielqualität konzentrien kann und nicht mehr auf die HW.

Sicher NVidia muss reagieren, außerdem hat der der P10 nur einen sowieso schon vorhandenen Trend aufgegriffen, und hat damit automatisch die Vorreiterrolle übernommen. NVidia wird versuchern den Trend der freien Programmierung solange hinauszuzögern, bis man selbst Hw hat, die dann angeblich noch weiter geht. Aber wie bitte schön soll das gehen? Es gibt ja auch keine CPU die noch freier programmierbar ist als jede andere CPU auch. NVidia verunsichert also absichtlich Käufer und wird letztendlich auch eine VPU rausbringen, welche garantiert inkompatibel zur VPU des P10 ist. Und dass ist halt fortschrittsfeindlich, natürlich aufgrund verständlicher Absichten. Zum Glück setzt der P10 auf das Plattformunabhängige OpenGL 2.0, welches auch von anderen Betriebssystemen als Windows untertützt wird. Notfalls kann also 3DLabs auch allein auf den Profisektor überleben, dies wäre aber nicht im Sinne einer raschen Umsetzung des neuen Ansatzes im Gamesmarkt.

Leicht wird es der P10 daher nicht haben, da ich mir nicht vorstellen kann, dass er in der Power bei DX9.0 Features gegen reine HW Beschleuniger bestehen kann.

Als Programmierer muss man da glaube ich auch ein bischen Egoist sein und durch überragende optische Mehrqualität der VPU Version gegenüber der reinen HW Version den Kunden zeigen wo die Zukunft hingehen muss.

Nur wenn der Gamekunde ein deutliches mehr an optischer Gamequalität gegenüber klassischer HW aufgrund freier Programmierung wahrnimmt, wird er bereit sein auf das ein oder andere Frame zu verzichten.

Letztendlich sind dann die Programmierer in Zukunft daran selbst schuld, wenn Sie soundsoviele Fallbacks einprogrammieren müssen, sie haben es ja dann auch vorgezogen weiterhin HW nah zu programmieren statt durch entsprechende Untertützung die Vorteile der freien Programmierung zu zeigen.

MfG
Premium

nocturne
2002-05-18, 15:19:24
Premium,

nVidia hat offensichtlich selber einen frei programmierbaren Grafikchip in der Pipeline, der wohl weit über die Flexibilität des P10 hinausgeht. Lies mal den Thread
"Raytracing auf künftigen programmierbaren nVidia-Chips" im Spekulations-Forum unter
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=20015

Demirug
2002-05-18, 15:43:42
Sicher, freie Programmierung ist ein Feature und daher von anfang an nicht in der breiten Masse in HW vertreten.

Aber bis dahin ist diese HW zumindest in der Lage reine HW Features zu emulieren. Falls sich dann in 24 Monaten frei programmierbare HW durchsetzt, wird DirectX und OpenGL an Bedeutung verlieren.
Vielleicht werden dann DirectX 10.0 und OpenGl 2.0 die jeweils letzten Versionen...


Das wäre schön aber ich kann es nicht glauben. Auch bei den CPUs hatten wir ja noch weiterentwicklungen (MMX, 3dNow, usw.)



Dann wären, dass glaube zumindest ich, die Programmierer an einen Punkt angelangt, ab dem man sich nur noch auf die Spielqualität konzentrien kann und nicht mehr auf die HW.


Die HW müssen wir aber immer noch berücksichtigen. ES ist niemandem geholfen wenn wir Spiel schreiben die mit 1 fps hinkriechen.


Sicher NVidia muss reagieren, außerdem hat der der P10 nur einen sowieso schon vorhandenen Trend aufgegriffen, und hat damit automatisch die Vorreiterrolle übernommen. NVidia wird versuchern den Trend der freien Programmierung solange hinauszuzögern, bis man selbst Hw hat, die dann angeblich noch weiter geht. Aber wie bitte schön soll das gehen? Es gibt ja auch keine CPU die noch freier programmierbar ist als jede andere CPU auch. NVidia verunsichert also absichtlich Käufer und wird letztendlich auch eine VPU rausbringen, welche garantiert inkompatibel zur VPU des P10 ist. Und dass ist halt fortschrittsfeindlich, natürlich aufgrund verständlicher Absichten. Zum Glück setzt der P10 auf das Plattformunabhängige OpenGL 2.0, welches auch von anderen Betriebssystemen als Windows untertützt wird. Notfalls kann also 3DLabs auch allein auf den Profisektor überleben, dies wäre aber nicht im Sinne einer raschen Umsetzung des neuen Ansatzes im Gamesmarkt.

OK hier empfehle ich dir den Thread im Spekulationsforum sonst müsste ich hier zuviel wiederholen.


Leicht wird es der P10 daher nicht haben, da ich mir nicht vorstellen kann, dass er in der Power bei DX9.0 Features gegen reine HW Beschleuniger bestehen kann.


Sehe ich genausso.



Als Programmierer muss man da glaube ich auch ein bischen Egoist sein und durch überragende optische Mehrqualität der VPU Version gegenüber der reinen HW Version den Kunden zeigen wo die Zukunft hingehen muss.


Du überschätzt unsere möglichkeiten. Wir müssen ein Spiel so programmieren das es auf einem Großteil der vorhandehnen rechner annembar läuft. Ansosnten läst es sich nicht verkaufen und man ist seinen Job los.



Nur wenn der Gamekunde ein deutliches mehr an optischer Gamequalität gegenüber klassischer HW aufgrund freier Programmierung wahrnimmt, wird er bereit sein auf das ein oder andere Frame zu verzichten.

Letztendlich sind dann die Programmierer in Zukunft daran selbst schuld, wenn Sie soundsoviele Fallbacks einprogrammieren müssen, sie haben es ja dann auch vorgezogen weiterhin HW nah zu programmieren statt durch entsprechende Untertützung die Vorteile der freien Programmierung zu zeigen.


Das mit den Fallbacks wird auch in Zukunft so bleiben. Zuerst müssen alle klassichen 3d Karten aus dem Primärmarkt. Nachdem das geschaft ist haben wir aber die Situation das die neuen programmierbaren 3d Karten ein unterschiedliches Leistungsvolumen haben. Es wird aber wahrscheinlich leichter die Fallbacks zu schreiben.

Premium
2002-05-18, 15:47:15
@ nocturne: Das ist Marketing Blabla zum verunsichern der Programmierer, damit keiner auf die Idee kommt andere VPUs zu unterstützen bis nicht NVidia HW da ist. Ansonsten, siehe Text oben.

Und wenn das Ende der Pipline DX 7.0 ist, dann ist das weit unter P10 Felxibilität, der ist nämlich bei jeden Schritt in der Pipline flexibel. Wie kann man derartiges noch toppen? => Endgültige Abkehr von der bisherigen bewährten Grafikpipline.

Aber dann hat man eine auf FPU Leistung getrimmte CPU und keine VPU mehr. Letztendlich wäre eine derartige VPU dann nichts anderes mehr als der gute alte Coprozessor nur auf viel höheren Level.

MfG
Premium

Premium
2002-05-18, 16:19:12
Das wäre schön aber ich kann es nicht glauben. Auch bei den CPUs hatten wir ja noch weiterentwicklungen (MMX, 3dNow, usw.)
Das sind doch alles nur Krüken, die eine an sich veraltete Architektur ins nächste Jahrtausend retten sollten. Quasi nicht unterstützte Extension, oder Features eben. Und wie war das nochmal mit den Henne-Ei...
Sinnvoll wären aber vielmehr CPUs die auf höhersprachige Programmierung optimiert wären. Wie das in HW geschiet, interessiert doch keinen. Folglich braucht man endlich mal eine neue weniger abstrakte Programmiersprache mit modernen Befehlen, als unabhängige Schnittstellennorm. Die CPU ist dann für die Umsetung zuständig.
Als Programmierer will ich eine CPU die einfach genug Power hat, nicht solche Krüken, die erst durch HW nahe Sprachen vereinzelt schnell werden. Naja, vielleicht dann wieder mit 64Bit CPUs. Leider sind die CPU-Hersteller so blöd und nehmen diese bereits heute wieder veralteten Krüken in die nächste Runde mit...

Aber Schuld sind hier leider auch die Programmierer, die so blöd waren wieder damit anzufangen solche Krüken einzeln zu unterstützen. Letztendlich ist X86 veraltet und zu HW nah.


Dein Statment zur HW-Unterstützung ist eine Unter- bzw Übertreibung, je nachdem.
Als Programmierer ist man heutztage nicht mehr nur der Erfüllungsgehilfe, sondern auch Trendsetter. Schließlich ist man ja derjenige, der am besten über den Markt bescheid weiß. Man muss halt auch die neuen Vorzüge gegenüber Auftraggebern betonen und so für Investitionbereitschafft sorgen. Ohne Fortschritt wäre man schließlich immer noch bei der Lochkartenprogrammierung. Außerdem haben die Programmierer generell in letzter Zeit immer mehr an Bekanntheit und damit am Gurustatus dazugewonnen.
Naja, Deutschland ist halt auf diesen Sektor noch Entwicklungsland...
MfG
Premium
PS:@ Demirug: Das mit den quoten von dir ist gut, wie geht das?

Demirug
2002-05-18, 16:25:18
Das ist Marketing Blabla zum verunsichern der Programmierer, damit keiner auf die Idee kommt andere VPUs zu unterstützen bis nicht NVidia HW da ist. Ansonsten, siehe Text oben.

Verunsichert bin ich aber nicht. Was das unterstützen angeht. Wir haben ja keine API dafür. DX 9 kanns nicht. OpenGL 2.0 ist nur als entwurf vorhanden und keiner weiss wann es verabschiedet wird.


Und wenn das Ende der Pipline DX 7.0 ist, dann ist das weit unter P10 Felxibilität, der ist nämlich bei jeden Schritt in der Pipline flexibel.

Das Ende der DX 7.0 Pipeline definiert doch nur noch das Speichern der Daten in den Framebuffer und die Ausgabe der Daten über RAMDAC, DVI, TV-OUT, usw. Das ist Beim P10 auch nicht anders.


Wie kann man derartiges noch toppen? => Endgültige Abkehr von der bisherigen bewährten Grafikpipline.


Stimme dir zu. Aber der P10 geht diesen Schritt auch nicht.


Aber dann hat man eine auf FPU Leistung getrimmte CPU und keine VPU mehr. Letztendlich wäre eine derartige VPU dann nichts anderes mehr als der gute alte Coprozessor nur auf viel höheren Level.


Ja genau eine CPU mit TMUs. Ich hätte aber auch noch gerne eine brauchbare Integer Leistung. Ein Grafik-Coprozessor hört sich für mich echt gut an. Dann könnte ich darauf einen Raytracer, oder eine TBR programmieren wenn das für mein Projekt hilfreich ist.

Ein schnelles FPGA Feld würde mir auch gefallen aber das ist technisch noch zu teuer.

jedi
2002-05-18, 18:58:01
Originally posted by Demirug

Verunsichert bin ich aber nicht. Was das unterstützen angeht. Wir haben ja keine API dafür. DX 9 kanns nicht. OpenGL 2.0 ist nur als entwurf vorhanden und keiner weiss wann es verabschiedet wird.


Eben. Da der P10 genau so unfertige Zukunftsmusik ist, braucht er ja auch (noch) nicht unterstützt zu werden. ;)

Demirug
2002-05-18, 19:37:50
Das wäre schön aber ich kann es nicht glauben. Auch bei den CPUs hatten wir ja noch weiterentwicklungen (MMX, 3dNow, usw.)
Das sind doch alles nur Krüken, die eine an sich veraltete Architektur ins nächste Jahrtausend retten sollten. Quasi nicht unterstützte Extension, oder Features eben. Und wie war das nochmal mit den Henne-Ei...


Das ganze wird schon unterstützt. z.b. DX. Es sind eben sehr spezifische Erweiterungen die nur in spezialbereichen hielfreich sind.

Gegen das Problem mit der veralteten Architektur ist kaum was zu machen. es gibt einfach zu viel Software dafür.


Sinnvoll wären aber vielmehr CPUs die auf höhersprachige Programmierung optimiert wären. Wie das in HW geschiet, interessiert doch keinen. Folglich braucht man endlich mal eine neue weniger abstrakte Programmiersprache mit modernen Befehlen, als unabhängige Schnittstellennorm.Die CPU ist dann für die Umsetung zuständig.


Tut mir leid aber ich kann dir nicht ganz folgen. Wie die CPU aufgebaut ist doch am ende egal. Dafür haben wir ja Compieler.

Könntest du mir ein Beispiel für die von dir gewüschte Sprache geben.


Als Programmierer will ich eine CPU die einfach genug Power hat, nicht solche Krüken, die erst durch HW nahe Sprachen vereinzelt schnell werden. Naja, vielleicht dann wieder mit 64Bit CPUs. Leider sind die CPU-Hersteller so blöd und nehmen diese bereits heute wieder veralteten Krüken in die nächste Runde mit...


Was die Power angeht. Das wird doch beständig besser.

Die einzige Hardwarenahe sprache ist meiner Meinung nach doch Assembler. Und das wird kaum noch eingesetzt.

OK AMD betreibt eine evolutions Politik. In der derzeitigen Situation kann man auch kaum was anderes tuhen. Die IA-64 Architecktur ist leider auch kein Heilbringer. Welche Krüke stört dich dehn am meisten?


Aber Schuld sind hier leider auch die Programmierer, die so blöd waren wieder damit anzufangen solche Krüken einzeln zu unterstützen. Letztendlich ist X86 veraltet und zu HW nah.


Jede CPU ist hardware nah. ob das jetzt X86, PowerPC oder was auch immer ist. Darum verstehe ich deinen einwand nicht ganz.


Dein Statment zur HW-Unterstützung ist eine Unter- bzw Übertreibung, je nachdem.
Als Programmierer ist man heutztage nicht mehr nur der Erfüllungsgehilfe, sondern auch Trendsetter. Schließlich ist man ja derjenige, der am besten über den Markt bescheid weiß. Man muss halt auch die neuen Vorzüge gegenüber Auftraggebern betonen und so für Investitionbereitschafft sorgen. Ohne Fortschritt wäre man schließlich immer noch bei der Lochkartenprogrammierung.

Du verwechselt hier glaube ich etwas. Wenn ich für einen einzelnen Kunden oder eine kleine Gruppe eine Entwicklung betreibe habe ich natürlich viele Freiheiten und kann auf neue Technologie setzten. Bei der Entwicklung für den Massenmarkt muß ich aber auf die Technolige über die der Massenmarkt verfügt rücksicht nehmen.


Außerdem haben die Programmierer generell in letzter Zeit immer mehr an Bekanntheit und damit am Gurustatus dazugewonnen.


Meinst du wirklich? Die Gamedesigner sind doch wesentlich bekannter. Als Programmier fallen mir da eigentlich nur Carmark und Sweeney ein und die sind eigentlich auch mehr durch ihre Tätigkeit als CEO bekannt geworden.


Naja, Deutschland ist halt auf diesen Sektor noch Entwicklungsland...


Der Ami Markt ist noch schlimmer. Da must du noch älter Hardware unterstützen. Die sind da drüben nicht so blöd und kaufen sich sofort jeden neue Karte von Nvidia, ATI und wie sie alle heisen.


PS:@ Demirug: Das mit den quoten von dir ist gut, wie geht das?

Das Board unterstützt vbCode
Beschreibung: http://www.forum-3dcenter.org/vbulletin/misc.php?s=&action=bbcode

nggalai
2002-05-18, 19:38:56
Hi Premium,Dein Statment zur HW-Unterstützung ist eine Unter- bzw Übertreibung, je nachdem.
Als Programmierer ist man heutztage nicht mehr nur der Erfüllungsgehilfe, sondern auch Trendsetter. Schließlich ist man ja derjenige, der am besten über den Markt bescheid weiß. Man muss halt auch die neuen Vorzüge gegenüber Auftraggebern betonen und so für Investitionbereitschafft sorgen. Ohne Fortschritt wäre man schließlich immer noch bei der Lochkartenprogrammierung. Außerdem haben die Programmierer generell in letzter Zeit immer mehr an Bekanntheit und damit am Gurustatus dazugewonnen.Als Programmierer ist man heute vielerorts nichts weiter als ein Code Monkey. In den meisten Entwicklungsabteilung hast Du eine handvoll Software-Architekten, welche gemein gesagt vor Marketing, Sales und Investoren (i.e. der Verleger/Publisher) kuschen dürfen und kaum ihr eigenes Ding durchziehen können. Jeder redet da rein; wie Demiurg schon sagte, zu den Abläufen könnte man problemlos eine Diplomarbeit schreiben.

Die Programmierer--auch im Spielesektor--welche als "Gurus" fungieren, kannst Du an einer Hand aufzählen. Und ich denke ehrlich gesagt nicht, dass ausgerechnet der Programmierer "am besten über den Markt bescheid weiss" (ist nicht böse gemeint, Demiurg. Ausnahmen bestätigen die Regel. ;) ). Oder meinst Du mit "Markt" was in Sachen Features auf dem Markt ist, i.e. was gegenwärtige Hardware so alles kann?

ta,
-Sascha.rb

nggalai
2002-05-18, 19:44:40
Oh, cross-posting.

*Demiurg-anschliess*

ta,
.rb

P.S.Meinst du wirklich? Die Gamedesigner sind doch wesentlich bekannter. Als Programmier fallen mir da eigentlich nur Carmark und Sweeney ein und die sind eigentlich auch mehr durch ihre Tätigkeit als CEO bekannt geworden.David Braben? ;)

Demirug
2002-05-18, 19:57:35
@nggalai:

dass ausgerechnet der Programmierer "am besten über den Markt bescheid weiss" (ist nicht böse gemeint, Demiurg. Ausnahmen bestätigen die Regel. ).

Kein Problem. Ich sehe mich sowieso nicht als reiner Programmierer. Entwickler wäre vielleicht eine bessere Bezeichnung. Ich bin neben den reinen Code halt auch mit der Architecktur und solchen Dingen beschäftigt. Und da ich mich irgendwann in diesem Markt selbstständig machen will muss ich ihn ja zwangläufig beobachten und analysieren.

David Braben?
War mir jetzt ehrlich gesagt kein Begrif. Hängt wohl damit zusammen das er jetzt mehr im Konsolenmarkt aktiv ist. Den betrachte ich nur am Rande da man dort als neues Studio sowieso kaum Chancen hat.

Ceiser Söze
2002-05-18, 20:02:22
Meine Meinung zu diesem Thema: Langfristig wird sich im Spielebereich das Middleware-Konzept durchsetzen. Die Spielentwickler coden nicht mehr eine eigene Engine, sondern lizenzieren diese oder einzelne Teile davon (KI, Physik etc.). Und dies wird in einer viel fortschrittlicheren Weise ablaufen, als es heute der Fall ist - nämlich sehr modular: Man kauft sich die Physik-Engine bei Entwickler A, die KI bei Entwickler B usw. und kann sich dann mit möglichst wenig Aufwand eine für das Spiel möglichst passende Engine selber zusammenbauen und sich fast nur auf den Design-Aspekt konzentrieren. Der "Handwerk"-Teil bei der Spielenwticklung wird also abnehmen und Eigenentwicklungen werden langfristig aussterben.

Da sich der Markt dann auf ein Paar Dutzend lizenzierbarer Engines reduzieren wird, können sich neue Features auch schneller durchsetzen: Die Entwickler dieser Engines beschäftigen sich nur mit der Weiterentwicklung der Engine und nehmen neue Features daher auch rasch in diese auf. Die eigentlichen Spielentwickler können diese dann mit wenig Aufwand einsetzen, da die Coding-Aufgaben ja vom Spezialisten abgenommen werden und man sich nur noch um die artistische Implementierung kümmern muss.
Oder in anderen Worten: Spielentwickler brauchen gar keine Coder mehr, da die Middleware-Entwickler bereits fixfertige Engines inkl. benutzerfreundlich gestalteten "GDKs" (Game Development Kits) liefern.

Zukunftsmusik natürlich, aber imho nicht unrealistisch. Vor einigen Jahren codete jeder Entwickler noch seine eigene Engine, heute sind wir bereits soweit, dass ein Entwickler wie Ion Storm Austin nur noch auf wenige C/C++ Coder angewiesen ist, um ein Spiel wie Deus Ex zu ermöglichen. Dies ist natürlich noch weit von meiner "Zukunftsvision" entfernt, aber die Entwicklung geht ganz klar in diese Richtung. Sobald ein Studio ein Spiel entwickeln kann, ohne dabei einen einzigen Coder beschäftigen zu müssen, ist das Ziel erreicht :)

Und jetzt lacht mich aus, zerreist mich in der Luft und nennt meine Ideen unrealistisch und nicht durchführbar :D

Demirug
2002-05-18, 20:17:35
@Ceiser Söze:

Warum sollten wir dich zerreisen?

Diese Entwicklung ist ja schon abzusehen. Ich sehe allerdings eine Gefahr dabei: "Technischer Einheitsbrei"

Was die Coder angeht. Ohne Coder kannst du kein Spiel machen. Das sagt ich jetzt nich weil ich um meine Zukunft angst habe. Der Punkt dabei ist das ja heute immer mehr mit scripts gemacht wird. Und die Scriptsprachen sind meistens genaus mächtig wie eine normale Programmiersprache.

Ceiser Söze
2002-05-18, 20:26:21
Jo, Skriptsprachen sind stark im kommen (bei der Unreal-Engine kann ja schon verdammt viel über UnrealScript realisiert werden) und aussterben werden sie wohl nie. Aber ich denke, dass auch die Relevanz von Skriptsprachen abnehmen wird bzw. die Handhabung so vereinfacht wird, dass man kein absoluter Coding-Crack mehr sein muss, um damit etwas anfangen zu können. Ich glaube, dass sie am Ende bestehen bleiben werden, um die Flexibilität zu wahren, aber in einer Form, wie es z.B. in 3DStudio MAX mit MAXScript der Fall ist.
Die verhältnismässig auf einer tieferen Stufe angesiedelten Sprachen (also primär C und C++) werden aber zu diesem Zeitpunkt wohl nicht mehr benötigt werden. Diese Ebene wird (fast) komplett von den Middleware-Entwicklern abgedeckt (so wie das Plugin-System von 3dStudio, um dieses Beispiel nochmals aufzugreifen).

Was den Einheitsbrei angeht: Ich denke, der von mir beschriebene Fall wird genau dann eintreten, wenn die Frage nach Einheitsbrei oder nicht keine Rolle mehr spielt. Also zu dem Zeitpunkt, wo die Technik genug weit fortgeschritten ist. Zu dem Zeitpunkt, wo wir "Attack of the Clones" in Echtzeit auf dem PC berechnen können ;)

Demirug
2002-05-18, 20:36:41
Originally posted by Ceiser Söze
Was den Einheitsbrei angeht: Ich denke, der von mir beschriebene Fall wird genau dann eintreten, wenn die Frage nach Einheitsbrei oder nicht keine Rolle mehr spielt. Also zu dem Zeitpunkt, wo die Technik genug weit fortgeschritten ist. Zu dem Zeitpunkt, wo wir "Attack of the Clones" in Echtzeit auf dem PC berechnen können ;)

Das ist ja noch soooo lange hin. Aber selbst wenn wir diese Power haben wird es immer noch leute geben die in der Lage sind noch mehr aus den Machine rauszuholen als mit der Mittelware möglich wäre und damit ein neues Spielgefühl vermitteln. Dies wird dann auch wieder andere veranlassen an der Mittelwäre vorbei zu arbeiten.

Zum anderen scheint der einsatz von Mittelware bei den PC Projekten nicht wirklich Geld zu sparen.

Unregistered
2002-05-19, 13:47:18
Originally posted by ow



Da widerspreche ich mal.;) Sowohl die PS Demo aus dem DX8SDK als auch die des NV Effectsbrowser mit PS1.0 laufen fehlerfrei auf meiner Radeon nach Setzen des entsprechenden Reg-Eintrags ("PixelShaderVersion" "10").

Aquanox nicht vergessen. :-)

Gruss Labberlippe

Unregistered
2002-05-19, 13:50:42
Originally posted by Premium
zu
Pixel Shader 1.0
Unterstützt der Radeon nicht.
@ extreme: mit welcher Tweaksoftware kann man den PS 1.0 aktivieren?
will das auch mal in Aquanox testen. Endlich mal ein Spiel das PS 1.0 nutzt, gibt es da noch mehrere?

zu
Hardware- Clipping (ja der Radeon kann nicht nur T&L)
Das wird automatisch genutzt, auch bei anderen T&L-Karten.
Q Xmas: ja, das bei jeder Karte geclippt wird glaube ich ja, aber ich HW doch wohl nur bei R100 und R200, oder?
Und wieviel Leitungsplus bringt dann ddas HW Clipping der Radeonkarten?

MfG
Premium

Du brauchst keine Software.
Rein in die Registry und PixelShaderVersion eingeben, dann den Wert 10 oder 11.

Wobei der PixelShader bei der Radeon nicht ganz 1.0 ist.
Deshalb funzt auch ein 3DMark nicht.


Gruss Labberlippe