PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unreal Engine 3 mit Shader-"Abwärtskompatibilität"?


Sentionline
2007-07-12, 19:01:44
Da mir bekannt ist das hier erfahrene Spieleprogramierer und auch leute unterwegs sind die sich mit der Technik auskennen, werf ich mal die Frage in den Raum: "Haben Spiele die auf der Unreal Engine 3 basieren eine abwärtskompatibilität zu Shader Modi 1.x, 2.x?"

Der hintergrund ist das ich schon lange auf das Spiel "BioShock" warte, und dieser eben auf die Engine von Epic setzt. In der aktuellen PCGH verrät "Mark Reign" von Epic, das diese Engine auch herunterskaliert werden kann und auch kompatibel zu "älteren" Shader-Modi ist...:|

"Rainbow Six Vegas" basiert auf der Unreal Engine 3, aber es startet bsp. nicht auf Shader 2 Karten.

Kommt es dann auf die Spieleprogramierer an ob sie diesen auch in ihre Spiele implementieren?

BioShock erscheint nächsten Monat, aber noch immer ist nichts über die Systemvoraussetzungen bekannt.

Mein Sys: C2D E6300, 1024MB DDR-400, X850XT-PE

Bitte nicht schreiben: "Rüste auf".:rolleyes: Bin schon dabei, aber mich würde das denoch interessieren:redface:

w0mbat
2007-07-12, 19:03:45
[...]
BioShock erscheint nächsten Monat, aber noch immer ist nichts über die Systemvoraussetzungen bekannt.

Mein Sys: C2D E6300, 1024MB DDR-400, X850XT-PE

Bitte nicht schreiben: "Rüste auf".:rolleyes: Bin schon dabei, aber mich würde das denoch interessieren:redface:

Minimalanforderung:

* CPU: Pentium 4 2,4 GHz (Single-Core)
* RAM: 1 GB
* Grafikkarte: DirectX-9c-fähig, 128 MB VRAM (GeForce 6600 bzw. ATi X1300 oder besser)
* Festplatte: 8 GB
* Soundkarte: 100 Prozent DirectX-9c-Kompatibel

Empfohlene Systemanforderungen:

* CPU: Intel Core 2 Duo
* RAM: 2 GB
* Grafikkarte:
- DirectX 9: DirectX-9.0c-fähig, 512 MB VRAM (GeForce 7900 GT oder besser)
- DirectX 10: GeForce 8600 oder besser
* Soundkarte: Sound-Blaster-X-Fi-Serie (optimiert für EAX Advanced HD 4.0 oder EAX Advanced HD 5.0)

Wixi
2007-07-12, 21:56:27
mir is grad nur aufgefallen ,dass das spiel verdammt groß ist 8GB!!!!!!!
naja,vllt ist das jetzt standard bei pc-spielen,hab lange keins mehr gezockt ^^

AnarchX
2007-07-12, 21:59:06
Der niedrigste Fallback der UE3 ist SM2.0.
Nur hängt es vom Entwickler ab, ob er diesen verwenden will, wie man auch an Bioshock sieht.

Neomi
2007-07-13, 00:16:05
Letztendlich gehören Shader zum Content. Was für Shader genutzt werden und bis wo optional runtergeschaltet werden kann, hängt deshalb immer vom Entwickler ab.

BAGZZlash
2007-07-13, 10:37:10
Der niedrigste Fallback der UE3 ist SM2.0.
Nur hängt es vom Entwickler ab, ob er diesen verwenden will, wie man auch an Bioshock sieht.


Sicher?
Die in den Mindestanforderungen genannten Karten (GeForce 6600 bzw. ATi X1300) sind beides SM-3.0-Karten.

AnarchX
2007-07-13, 11:25:15
Sicher?
Die in den Mindestanforderungen genannten Karten (GeForce 6600 bzw. ATi X1300) sind beides SM-3.0-Karten.

Wie schon gesagt hängt das vom Entwickler ab, jedenfalls war das letzte was ich gehört habe, dass man min. SM2.0 untersützt mit der UE3.

Savay
2007-07-13, 11:49:42
jo optionaler fallback auf SM2.0...designed ist die engine aber ursprünglich für SM3.0 und später kam dann die SM4.0 unterstützung dazu

ist nur die frage wieviele hersteller vom fallback wirklich gebrauch machen weil es ja wirklich mehrarbeit bedeutet und das man den content quasi von vornherein darauf ausrichten muss auch auf SM2.0 hardware anständig zu laufen oder ihn dann extra für den renderpfad anpassen muss

Neomi
2007-07-13, 12:14:49
Bitte nicht Shaderversionen mit dem Shadermodel verwechseln. Eine Engine kann selbst dann zwingend Shadermodel 3 (übrigens ohne .0) benötigen, wenn nur Vertexshader 2.0 und Pixelshader 2.0 zum Einsatz kommen. Geometry Instancing z.B. gehört zum Shadermodel 3 und hat einen Einfluß darauf, wie Objekte zusammengesammelt und gezeichnet werden. Wie und in welcher Shaderversion jetzt Vertices und Pixel berechnet werden, ist dagegen relativ uninteressant für die Engine. Fast genauso uninteressant wie die dominierende Farbe in den verwendeten Texturen.

BAGZZlash
2007-07-13, 12:40:06
Eine Engine kann selbst dann zwingend Shadermodel 3 (übrigens ohne .0) benötigen, [...]

Ich dachte, das ".0" fällt erst ab SM 4 weg...

Coda
2007-07-13, 12:41:38
Haarspalterei. Die Shader-Profile heißen auf jeden Fall vs_3_0 und ps_3_0

Sentionline
2007-07-15, 22:57:41
Geometry Instancing z.B. gehört zum Shadermodel 3 und hat einen Einfluß darauf, wie Objekte zusammengesammelt und gezeichnet werden.
Dieses Future haben aber schon viele SM2 Karten unterstützt...

Naja, SM 2,3,4 hin oder her. Da fast alle Spiele aktuell sowieso für die Konsolen entwickelt werden, kommt es nicht mehr darauf an ob man "gute" und "schnelle" Karten hat, sondern ob sich die Entwickler mühe bei der Portierung sich mühe geben.

Da dies fast immer nicht der Fall ist, sehe ich`s düster ob ich meine Rechner weiter aufrüste. Immer ist irgendwas was fehlt (bsp: Ram Kapazität, SSE x unterstützing, SM x Kompatibilität...).

Ich warte mal ab, wohin uns die Technik führt.:rolleyes:

Coda
2007-07-15, 23:04:08
Dieses Future haben aber schon viele SM2 Karten unterstützt...
Feature. Und nein, das hat nur der Treiber, weil allein der Aufruf unter D3D9 viel gekostet hat, hat das auch schon was gebracht.

Offiziell im D3D9-Standard geht Instancing aber erst mit SM3.

Kladderadatsch
2007-07-15, 23:40:28
sry für ot, aber man liest einmal, dass rainbar six vegas auf der ue3 basiert, dann wieder, dass dies blödsinn sei. ja was stimmt denn nun?

Coda
2007-07-15, 23:42:31
Tut es soweit ich weiß.

Fetza
2007-07-15, 23:57:41
sry für ot, aber man liest einmal, dass rainbar six vegas auf der ue3 basiert, dann wieder, dass dies blödsinn sei. ja was stimmt denn nun?

Ist ue3 engine, auch wenn das game bescheiden aussieht.

WEGA
2007-07-16, 00:05:23
roboblitz verwendet auch die UE3 *g*

Aquaschaf
2007-07-16, 01:01:07
Feature. Und nein, das hat nur der Treiber, weil allein der Aufruf unter D3D9 viel gekostet hat, hat das auch schon was gebracht.

Alles bei ATI von R300 an hat geometry instancing in Hardware. Quelle: http://www.circlesoft.org/pages.php?pg=kbasepage&id=32

Neomi
2007-07-16, 01:45:34
Alles bei ATI von R300 an hat geometry instancing in Hardware.

Stimmt zwar, aber unter D3D9 gibt es dafür kein Caps-Bit. GI ist eine Vorraussetzung für SM3, darunter aber ist die Verfügbarkeit mangels Caps-Bit nicht prüfbar. Abgesehen von Treiberhacks mit Texturformaten, die keine Texturformate sind, ist SM3 also auch eine Vorraussetzung für GI.

Aquaschaf
2007-07-16, 03:01:03
Das besagt die verlinkte Quelle ja auch. Es ging mir nur darum dass Geometry Instancing auf den Karten nicht durch den Treiber auf der CPU emuliert wird sondern in Hardware vorhanden ist. :)

Supreme Commander benutzt den Hack zum Beispiel und setzt geometry instancing vorraus. Was die interessante Situation ergibt dass damit ein Spiel existiert welches auf R300-Ablegern läuft, nicht aber mit der GeforceFX-Serie. Obwohl man anhand derer insgesamt höheren Technologiestufe eher erwarten würde dass es umgekehrte Fälle gibt.

Coda
2007-07-16, 15:34:43
Alles bei ATI von R300 an hat geometry instancing in Hardware. Quelle: http://www.circlesoft.org/pages.php?pg=kbasepage&id=32
Nein, nicht in Hardware. In Software. Das siehst du doch an der API nicht.

Aquaschaf
2007-07-16, 19:19:07
Das siehst du doch an der API nicht.

Und du siehst es und kannst feststellen dass es nicht in Hardware ist ;)? Ich kenne nur Quellen die eben das sagen was auch Neomi geschrieben hat: die Hardware kann es, aber es gibt kein Caps-Bit dafür und man kann es deswegen nur über diesen Treiberhack benutzen.

Coda
2007-07-17, 12:56:17
Nein kann ich nicht, aber es ist sehr stark zu vermuten, weil ATI zuerst kein Instancing vorgeschlagen hat für SM2 bei den DirectX-Konferenzen.

Das größte Problem bei Direct3D war doch ohnehin der Overhead von einzelnen Drawcalls schon in der Runtime, also kann man auch wenn man das Instancing in Software macht einiges sparen.

Ich meine mich dunkel zu erinnern da auch mal was konkreteres gehört zu haben.

Aquaschaf
2007-07-18, 11:50:22
weil ATI zuerst kein Instancing vorgeschlagen hat für SM2 bei den DirectX-Konferenzen.

Ok, das spricht natürlich für eine Software-Implementierung. Dass quasi direkt als ein Spiel mit geometry instancing aufgetaucht ist ein Treiber mit dem Hack verfügbar war heißt dass es dann aber recht unkompliziert ist das Feature zu emulieren(?).

Sentionline
2007-07-21, 03:47:00
Naja, die Diskusion geht hier etwas auseinander. Meine Frage war ja, das die "Unreal Engine 3" einen Fallback unterstützt. Aber wer macht denn jetzt wirklich gebrauch davon?, Ich glaube nicht das grade wenige hier eine GeForceFx oder eine X8xx besitzen. Von daher ist die Frage von mir glaube ich für einige hier berechtigt.

ColinMcRae Rally reihe bespielsweise hab ich immer gespielt. Aber der neue Teil Dirt hat "zwingend" Shader 3 Karte gefordert, weshalb ich mir eben das Spiel nicht gekauft habe. Wie viele werden noch dazu kommen?

Wenn eine Engine schon so flexibel ausgelegt ist, womit wir bei der ewig leidigen "futurediskusion" sind, warum um himmels willen macht kein Entwickler gebrauch davon? Meistens wird von den Spieleherstellern flexibilität gefordert. Da hat eine Engine mal die möglichkeit, dann heißt es: "Naja, rümpf die Nase..."

Vor nicht allzu langer zeit wurde die X8xx reihe gehypt bis zum geht nicht mehr...und jetzt?

PS. Ich kenne noch 2 andere die auf "Dirt" verzichtet haben, wegen Shader 3 zwang. Spielen die eben "TD Unlimited";)

Coda
2007-07-21, 05:21:38
Es ist wohl zusätzliche Arbeit. ATI war bei der X8xx im Nachhinein doch etwas arg hinten dran mit der Technik, und das rächt sich jetzt halt.

Sentionline
2007-07-21, 05:36:15
Es ist wohl zusätzliche Arbeit.
Ist ist das was man als "Content" beschreibt?

Soll ich in zukunft nur noch Intel und Nvidia kaufen, damit ich keine böse überraschung erlebe? Bei meinem AthlonXP 3200+ mit einer 6800U startet die Dirt Demo nähmlich auch nicht. Mangels SSE2:rolleyes:

Also ich bin echt verwirrt...:|

Gast
2007-07-21, 08:52:39
Ist ist das was man als "Content" beschreibt?

Nein, Content ist der Spielinhalt. Shader sind Technik. Und wenn durch zusätzliche Technik auch Änderungen am Content notwendig werden wird's meist richtig teuer und dann lässt es der Entwickler eben sein.

Mit DX10 ist das Problem jedenfalls aus der Welt - kannst also beruhigt weiterhin AMD und AMD kaufen.

dargo
2007-07-21, 14:57:39
ColinMcRae Rally reihe bespielsweise hab ich immer gespielt. Aber der neue Teil Dirt hat "zwingend" Shader 3 Karte gefordert, weshalb ich mir eben das Spiel nicht gekauft habe. Wie viele werden noch dazu kommen?

PS. Ich kenne noch 2 andere die auf "Dirt" verzichtet haben, wegen Shader 3 zwang. Spielen die eben "TD Unlimited";)
DIRT hat so hohe Hardwareanforderungen, dass da SM2x eh keinen Sinn gemacht hätte. Mit einem R4x0 oder NV40 kannst du nichts mehr reißen. Es sei denn du bist mit Low-Details und 640x480 zufrieden. Bei nicht selten unter 30fps. Außerdem ist es eine Portierung.

Coda
2007-07-21, 14:59:44
Shader sind Technik.
Shader können auch Content sein und sind es in der UE3 auch.

Hvoralek
2007-07-21, 15:50:14
Naja, die Diskusion geht hier etwas auseinander. Meine Frage war ja, das die "Unreal Engine 3" einen Fallback unterstützt. Aber wer macht denn jetzt wirklich gebrauch davon?, Ich glaube nicht das grade wenige hier eine GeForceFx oder eine X8xx besitzen. Von daher ist die Frage von mir glaube ich für einige hier berechtigt.Auf einr FX wäre ein SM2- Fallbackpfad meist auch nicht mehr spielbar. Da müsste schon DX8 her (wie etwa bei Oldblivion).

ColinMcRae Rally reihe bespielsweise hab ich immer gespielt. Aber der neue Teil Dirt hat "zwingend" Shader 3 Karte gefordert, weshalb ich mir eben das Spiel nicht gekauft habe. Wie viele werden noch dazu kommen?Ich mache mir da v.a. bei schlechten Konsolenportierungen Sorgen. Die sind natürlich alle auf SM3.0 zugeschnitten. Ich bin selbst überrascht, wie schnell die ersten Spiele ohne SM2- Pfad aufgetacht sind.

Vorbildlich scheint hier Valve zu sein, die mit TF2 & Anhang auch noch einen DX8- Pfad anbieten (oder sogar noch DX7? Das war zumindest mal in der Diskussion).

Vor nicht allzu langer zeit wurde die X8xx reihe gehypt bis zum geht nicht mehr...und jetzt?Wann wurde die groß gehypt? Naja, ich kenne selbst jemanden,der Ende 2005 noch eine X800XL gekauft hat. Ich habe ihm damals eine 6800GT empfohlen (etwa gleich schnell und gleich teuer, aber einen potenziellen Vorteil durch SM3). Ich habe nie ganz verstanden, warum er die XL genommen hat.

Soll ich in zukunft nur noch Intel und Nvidia kaufen, damit ich keine böse überraschung erlebe? Bei meinem AthlonXP 3200+ mit einer 6800U startet die Dirt Demo nähmlich auch nicht. Mangels SSE2:rolleyes:Es ist ja nicht so, dass immer die beiden Firmen technologisch weiter sind (vgl. K8 oder beinahe R400, auch bei R520 war ATI eine Nuance vorne). Sicher sollte man aber nicht nur auf technologische Unterschiede gucken, siehe etwa NV30.

Coda
2007-07-21, 15:54:50
R4xx war schon deutlich schneller als NV4x, wenn man bei NV4x die Optimierungen ausschält, wodurch man aber immer noch keine äquivalente Optik hatte.

Es ist also gar nicht so blöd gewesen eine R4xx zu kaufen. Wer das getan hat wird die bis heute eh ersetzt haben.

dargo
2007-07-21, 16:19:42
Wann wurde die groß gehypt? Naja, ich kenne selbst jemanden,der Ende 2005 noch eine X800XL gekauft hat. Ich habe ihm damals eine 6800GT empfohlen (etwa gleich schnell und gleich teuer, aber einen potenziellen Vorteil durch SM3). Ich habe nie ganz verstanden, warum er die XL genommen hat.

Hätte er die G6800GT genommen würde er sich wieder beschweren, dass nichts mehr vernünftig läuft. Also, wo ist der Unterschied? :)

Ich befürchte, dass dieses Verhalten uns genau so wieder mit den nächsten Konsolen erwartet. Dann wird man bei (fast) jeder Portierung SM4 oder sogar schon SM5 (je nachdem wann sie erscheinen) als Mindestvorraussetzung nehmen.

Hvoralek
2007-07-21, 16:28:55
R4xx war schon deutlich schneller als NV4x, wenn man bei NV4x die Optimierungen ausschält, wodurch man aber immer noch keine äquivalente Optik hatte.Gibt es auch in HQ noch sichtbare Unterschiede (Wobei es wohl keine klare Grenze für "Sichtbarkeit" von "Optimierungen" gibt. Ich z.B. bin anscheinend ziemlich resistent gegen Geflimmer)?

Geschwndigkeitsmäßig gaben die sich aber nicht viel. Ohne AA war die GT etwas schneller, mit die XL.

Es ist also gar nicht so blöd gewesen eine R4xx zu kaufen. Wer das getan hat wird die bis heute eh ersetzt haben.Doch, die Karte ist noch in Benutzung und wird das wohl noch eine Weile bleiben.

Hätte er die G6800GT genommen würde er sich wieder beschweren, dass nichts mehr vernünftig läuft. Also, wo ist der Unterschied? :)*aufhardwareanforderungenvonbioshockundsplintercell34schiel*

Ich befürchte, dass dieses Verhalten uns genau so wieder mit den nächsten Konsolen erwartet. Dann wird man bei (fast) jeder Portierung SM4 oder sogar schon SM5 (je nachdem wann sie erscheinen) als Mindestvorraussetzung nehmen.Das Problem diesmal ist wohl, dass die erste Konsole gleichzeitig mit den ersten SM3- Modellen des zweiten großen Herstellers erschienen ist (Und das auch noch mit ziemlich bescheidenen Mittelklassemodellen). Hätte ATI im Frühsommer 2004 SM3- Hardware gebracht, wäre die Hardwarebasis jetzt viel breiter. Zumal dann ohnehin kaum SM2- Hardware diese Spiele überhaupt noch selbst in Mindesteinstellungnen spielbar zum Laufen hätte bringen können.

Coda
2007-07-21, 16:30:57
Gibt es auch in HQ noch sichtbare Unterschiede (Wobei es wohl keine klare Grenze für "Sichtbarkeit" von "Optimierungen" gibt. Ich z.B. bin anscheinend ziemlich resistent gegen Geflimmer)?
Also ich hab es gesehen. Wobei HQ schon ganz okay ist.

dargo
2007-07-21, 16:36:48
*aufhardwareanforderungenvonbioshockundsplintercell3schiel*

Nochmal - was bringt dir SM3 Support wenn die Power völlig unzureichend ist um das Game zu spielen?
Ich kann mir nicht vorstellen, dass man Bioshock mit einem G6800GT vernünftig spielen kann. 640x480 mit Low-Details ist für mich nicht vernünftig. Vom erfolgreichen Starten des Games werde ich nicht glücklich. :D

Zur SC3 - das läuft afaik mit einem Patch (1.2?) auch auf dem R4x0.


Zumal dann ohnehin kaum SM2- Hardware diese Spiele überhaupt noch selbst in Mindesteinstellungnen spielbar zum Laufen hätte bringen können.
Genauso wenig wie ein NV40 mit SM3. :wink:

Hvoralek
2007-07-21, 17:06:59
Nochmal - was bringt dir SM3 Support wenn die Power völlig unzureichend ist um das Game zu spielen?
Ich kann mir nicht vorstellen, dass man Bioshock mit einem G6800GT vernünftig spielen kann. 640x480 mit Low-Details ist für mich nicht vernünftig. Vom erfolgreichen Starten des Games werde ich nicht glücklich. :DMindestanforderungen sollten bedeuten, dass das ganze in Mindesteinstellungen und verträglichen Auflösungen (XGA, notfalls vlt. SVGA) spielbar ist. Und Mindestanforderung für Bioschock ist eine 6600, dann sollte das auf einer 6800GT in Mindesteinstellungen @SXGA problemlos spielbar sein. V.a., wenn eine 7900GT als Optimum angegeben wird. Es sei denn, die offiziellen Anforderungen sind nicht nur otptimistisch, sondern glatt erlogen.

Aber ich bin immer noch zuversichtlich, dass UE3- Spiele im Großen und Ganzen genügsamer sind als die meisten anzunehmen scheinen, auch und gerade bei weniger Details. Ich darf zu GoW nochmal Mark Rein (http://www.gamesindustry.biz/content_page.php?aid=18292)
zitieren: "For example, a game like Gears of War[...]. We can dumb it down to run on a lower-end 7-series or 6-series NVIDIA GPU; we can dumb it down to run on an ATI X1300, something of that nature [...]." Von einer X800/850 ist zumindest dabei nicht die Rede, also möglicherweise nichtmal ein SM2- Pfad. Jedenfalls wird das Ding auf einem NV40 wohl gut laufen.

Zur SC3 - das läuft afaik mit einem Patch (1.2?) auch auf dem R4x0.Meinst Du SC3 oder 4? 3 hatte ja schon immer einen DX8-Pfad, 4 setzt mW jedenfalls eine 6600 oder X1300 voraus.

dargo
2007-07-21, 17:10:36
Meinst Du SC3 oder 4? 3 hatte ja schon immer einen DX8-Pfad, 4 setzt mW jedenfalls eine 6600 oder X1300 voraus.
Ich meine das was du gesagt hast - Splinter Cell 3.

Hvoralek
2007-07-21, 17:23:29
Ich meine das was du gesagt hast - Splinter Cell 3.Verflucht, ausgerechnet da ein Tippfehler :ugly:

Ich meinte natürlich SC4, entschuldige.

Gast
2007-07-21, 19:23:18
Geometry Instancing z.B. gehört zum Shadermodel 3 und hat einen Einfluß darauf, wie Objekte zusammengesammelt und gezeichnet werden.
Quatsch. GI hat schon die R300

ShadowXX
2007-07-21, 19:32:13
Quatsch. GI hat schon die R300
Aber nur über ein Hack.
Offiziell gehört GI zum SM3.0 (deshalb bei der r300 eben auch nur per DX-Hack).

Plissken
2007-07-21, 19:32:18
@ Sentient

Die Geschichte hat gezeigt, das die aktuelle Konsolengen immer der kleinste gemeinsame Nenner für Spiele war. Somit kannst du davon ausgehen, das alles in Zukunft von Konsolen kommende (und viel mehr gibts auf PC eh nicht) Shader 3 +/-0 verwendet. Shader 4 wird also vor der nexten Konso-Gen völlig überflüssig und alles sub3 leider auch dank der faulen Devs.

Hvoralek
2007-07-21, 20:53:18
@ Sentient

Die Geschichte hat gezeigt, das die aktuelle Konsolengen immer der kleinste gemeinsame Nenner für Spiele war. Somit kannst du davon ausgehen, das alles in Zukunft von Konsolen kommende (und viel mehr gibts auf PC eh nicht) Shader 3 +/-0 verwendet. Shader 4 wird also vor der nexten Konso-Gen völlig überflüssig und alles sub3 leider auch dank der faulen Devs.Klar. Es gab ja auch zu PS2/ Xbox1- Zeiten keine Spiele, die SM2 sinnvoll nutzten.[/Ironie]

Eines stimmt allerdings: Die aktuelle Konsolengeneration scheint leider der kleinte gemeinsamer Nenner zu sein, alles darunter scheinen manche Entwickler zu ignorieren.

Plissken
2007-07-22, 16:00:40
Und wo hat mans gesehen? Du kannst sicher nicht beurteilen, ob bei FarCry gerade Shader2 oder Shader XBox läuft. Allerdings schon Wasser PS2 vs. Wasser XBox. Oder HL2, sonst gabs eh nix bedeutendes.

Es gibt einfach auch nicht mehr den großen Unterschied wie damals bei 'unbeschleunigt vs. Voodoo1-biFi-AlphaBlending' war es als nächstes 'nicht Shader vs. Shader'. Der Sprung von Normalmapping zu Parallax ist unauffälliger wie von garnix zu NM

Gast
2007-07-22, 16:27:05
Klar. Es gab ja auch zu PS2/ Xbox1- Zeiten keine Spiele, die SM2 sinnvoll nutzten.[/Ironie]

Eines stimmt allerdings: Die aktuelle Konsolengeneration scheint leider der kleinte gemeinsamer Nenner zu sein, alles darunter scheinen manche Entwickler zu ignorieren.

Von den Hardwareanforderungen an den PC scheint das aber nicht der Fall zu sein. Da gehört ja mittlerweile eine recht leistungsfähige Dual Core CPU zum guten Ton und eine Graka mit der Leistung einer 8800 GTS ist auch nicht verkehrt. Und selbst dann muss man gelegentlich noch Kompromisse eingehen. Da wird schon fast alles genutzt, was der PC-Hardwaremarkt hergibt. Ob das daran liegt, dass die Konsolen so viel Gaming Power haben, oder die Portierungen einfach nur grottig umgesetzt werden, kann und will ich nicht beurteilen.
Was mich vielmehr stört, ist dass die Konsolengeneration der kleinste gemeinsame Nenner bezogen auf den spielerischen Aspekt und Steuerung ist, und zu wenig bis gar nicht das für den PC richtig angepasst wird.

Ailuros
2007-07-25, 06:44:44
Eines stimmt allerdings: Die aktuelle Konsolengeneration scheint leider der kleinte gemeinsamer Nenner zu sein, alles darunter scheinen manche Entwickler zu ignorieren.

Wobei es aber auch wiederrum logisch ist dass sich die Mehrzahl der Entwickler auf die Maerkte konzentrieren wo die meiste Kohle reinfliesst.

In der absehbaren Zukunft schaetze ich dass manche Trends noch radikaler werden koennten. Je mehr handhelds (ala PSP z.B.) bzw. UMPCs in der Zukunft verkauft werden, desto kritischer wird es fuer Entwickler werden mehrere Platformen unterstuetzen zu koennen.

Es kommen zwar schon Shader fuer den letzteren Markt, aber man sollte sich mal vorstellen an was ein jeglicher ISV genau denken muss falls sie ein Spiel entwickeln wollen dass auf Konsolen spielbar sein soll, eine reduzierte Version fuer jeglicher Art Handhelds und dann noch am Ende vielleicht fuer den PC.

IMHLO wird es in der weniger absehbaren Zukunft zu radikaleren Aenderungen kommen. Eine Moeglichkeit waere dass sich quasi der handheld mit dem Konsolen Markt "verschmelzt". CP/GPU hybride Dingsbumse als Beispiel in diversen skalierten Varianten, die die Palette zwischen einem Handheld und Home PC Entertainment/Multimedia Dingsbums dann ganz ueberdecken koennen.

Gast
2007-07-25, 09:09:16
...Soll ich in zukunft nur noch Intel und Nvidia kaufen, damit ich keine böse überraschung erlebe? Bei meinem AthlonXP 3200+ mit einer 6800U startet die Dirt Demo nähmlich auch nicht. Mangels SSE2:rolleyes:...
Ja, muss man!

Ich weiß gar nicht was hier alle haben, hätte man sich vor 3 Jahren eine 100€ Grafikkarte, und vor 5 Jahren eine 100€ CPU gekauft, würden alle SM3 und SSE2 Spiele 100%tig laufen.
So lange es damals eine NVidia6200 und ein Intel Celeron waren!
Ein Celeron aus dem Jahre 2002 hatte schon SSE2!
Ihr regt euch auf, wenn man mit Hardware, die teilweise 5 Jahre alt ist, neue Spiele aus dem Jahre 2007 nicht zocken kann!

AMD und ATI, da haben sich zwei richtigen getroffen.
Endlich rächt sich die AMD Politik.

Ohne AMD und ATI, hättest Du das Problem nicht, das dein Spiel nicht läuft.

Die Spiele würden auch nicht ruckeln, weil die Entwickler dann davon ausgehen, dass die Geschwindigkeit von Hardware nur ganz langsam (ca. 10% pro Jahr) zunimmt.

Nicht wie Heute 100% bei Grafikkarten, dadurch kommen auch die hohen Anforderungen.

Wenn ein Spiel teilweise über 3 Jahre in der Entwicklung ist, gehen oft viele Entwickler von zu hohen Anforderungen aus.

Also wenn, ATi und AMD vor 5 Jahren Pleite gegangen wären, hätten wir heute glückliche Spieler!

Wixi
2007-07-25, 10:42:55
Also wenn, ATi und AMD vor 5 Jahren Pleite gegangen wären, hätten wir heute glückliche Spieler!

und hätten heute Wucher CPU/GPU Preise,nicht zu vergessen ;)

Gast
2007-07-25, 11:04:55
und hätten heute Wucher CPU/GPU Preise,nicht zu vergessen ;)

das nicht gerade, aber wir hätten wohl deutlich weniger leistung, möglicherweise auch deinen Core2Duo, und auf GPU-seite deutlich weniger stromverbrauch, bei weniger leistung und ähnlichen preisen.

Gast
2007-07-25, 14:58:17
das nicht gerade, aber wir hätten wohl deutlich weniger leistung, möglicherweise auch deinen Core2Duo, und auf GPU-seite deutlich weniger stromverbrauch, bei weniger leistung und ähnlichen preisen.
Na ja was wir hätten, wäre ja egal, eine CPU mit Leistung eines P4 mit 2-3 GHz bestimmt.
Und die Leistung einer NVidia 6600-6800 bestimmt auch.

Nur die Spiele würden wahrscheinlicher viel besser Laufen, viele Probleme wären nicht da.
Dieser Thread zu 100% auch nicht, wir bräuchten hier nicht über die abwärtskompatibilität zum SM1 oder SM2 diskutieren.
SM3 hat Nvidia seit 4 Jahren meine ich schon, also jeder Aldi PC würde ohne Probleme gehen.

Die Hardwareanforderungen wären auch viel niedriger und alles besser optimiert, da wäre der PC schon so was wie ne aufrüstbare Konsole.
Das wäre eigentlich schön.

500€ fürn Rechner und alle Spiele laufen flüssig.
Wer aber 60 anstatt 30 FPS haben will, oder und 1600x1200 mit 8AA fahren will, bekommt auch deutlich schnellere Grafikkarten und CPUs oder SLI oder was auch immer.

Ich denke schon das ne Einsteiger CPU oder Grafikkarte nicht teurer als heute wäre.
Nur insgesammt sind sie sehr viel langsamer als heute, aber dafür haben die Spiele viel weniger Ansprüche.

Das hat einen Vorteil, alle PC Spiele hätten PS2 oder Xbox-Grafik, wäre doch toll, dann würden sich alle viel mehr über XBOX360 und PS3 freuen.

Simon Moon
2007-07-25, 22:05:18
Die Spiele würden auch nicht ruckeln, weil die Entwickler dann davon ausgehen, dass die Geschwindigkeit von Hardware nur ganz langsam (ca. 10% pro Jahr) zunimmt.


Das ist meine liebste Binsenweisheit. Dann hätten wir eben ein Stalker, das maximal nach Medium Details aussieht und nur statische Beleuchtung hat. Super, aber ich kann das übrigens auch in den Optionen einstellen - und wenn ich mehr will, auf kosten weniger Frames, auch gut.
Auf eitle Säcke, die immer alles auf max. stellen und sich dann beschweren, weil ihre Hardware zu langsam ist, kann ich verzichten.

Zudem ist es ein Fehlschluss, davon auszugehen, Spiele würden dann besser optimiert. Solange es einen modularen PC gibt, lässt es sich eben nicht so optimieren, wie auf einer Konsole, auf der man Notfalls noch sehr hardwarenah programieren kann. Für, bspw., die dynamische Beleuchtung in Stalker wird eine Gewisse Leistung eben vorausgesetzt. An diesem Beispiel sieht man auch sehr gut, wieviel Performance ein einzelnes Feature fressen kann.

Auf einem 500€ Rechner (ok, mein Baby hat ~700€ gekostet) lässt sich übrigens auch so alles flüssig spielen. Man muss nur auf Dinge verzichten, die es in deiner Utopie garnicht erst gäbe.

Hvoralek
2007-07-25, 22:49:26
Zudem ist es ein Fehlschluss, davon auszugehen, Spiele würden dann besser optimiert.Wenn es nur einen Hersteller für jede Komponente gäbe, könnte man natürlich komplett mit dessen Architekturen im Hinterkopf arbeiten. Wenn es z.B. nur Nvidia- GPUs gäbe, könnte man ein Spiel hpts. auf NV4x auslegen, bei höheren Einstellungen v.a. an G8x denken und vlt. noch einen DX8- Pfad für NV3x einbauen. Das ganze würde darauf dann sicher besser laufen, als wenn man bei der Entwicklung v.a. auf die entsprechenden ATI- Modelle geachtet und dann nur nachrangig Optimierungen für Nvidia vorgenommen hätte.

Simon Moon
2007-07-25, 23:01:07
Wenn es nur einen Hersteller für jede Komponente gäbe, könnte man natürlich komplett mit dessen Architekturen im Hinterkopf arbeiten. Wenn es z.B. nur Nvidia- GPUs gäbe, könnte man ein Spiel hpts. auf NV4x auslegen, bei höheren Einstellungen v.a. an G8x denken und vlt. noch einen DX8- Pfad für NV3x einbauen. Das ganze würde darauf dann sicher besser laufen, als wenn man bei der Entwicklung v.a. auf die entsprechenden ATI- Modelle geachtet und dann nur nachrangig Optimierungen für Nvidia vorgenommen hätte.

:|
Was willst du mir damit sagen? Also statt für SM2.x, SM3.x und SM4 müsste man dann nur noch fpr SM2.x, SM3.x und SM4 Renderpfade einbauen?

Edit: Der einzige der sich freut, ist der Entwickler, der nun weniger Hardware testen muss - mehr optimiert wird da sicher nicht.

Hvoralek
2007-07-25, 23:16:16
:|
Was willst du mir damit sagen? Also statt für SM2.x, SM3.x und SM4 müsste man dann nur noch fpr SM2.x, SM3.x und SM4 Renderpfade einbauen?

Edit: Der einzige der sich freut, ist der Entwickler, der nun weniger Hardware testen muss - mehr optimiert wird da sicher nicht.Du müsstest bei jedem Renderpfad nur noch eine einzige Architektur im Hinterkopf behalten. Ein "guter" Shader für R4xx sieht völlig anders aus als für NV4x (auch von SM2/3 mal abgesehen). Davon, wie miserabel NV3x mit auf R3xx zugeschnittener Software läuft, ganz zu schweigen.

Optimierungen für die vorhandene Hardware wären einfacher und würden deshalb gründlicher vorgenommen werden, wenn es weniger verschiedene Hardware zum darauf Optimieren geben würde. Zumal bei der Entwicklung selbst fast zwangsläufig eben die auch in freier Wildbahn genutzte Hardware verwendet werden müsste.

Simon Moon
2007-07-25, 23:24:35
Du müsstest bei jedem Renderpfad nur noch eine einzige Architektur im Hinterkopf behalten. Ein "guter" Shader für R4xx sieht völlig anders aus als für NV4x (auch von SM2/3 mal abgesehen). Davon, wie miserabel NV3x mit auf R3xx zugeschnittener Software läuft, ganz zu schweigen.

Wie wärs mit aktuellen Beispielen (HD 2x00 Karten und G80 mal ausgenommen), die sowas belegen?

Mir fiel zumindest noch nie auf, dass ein Spiel mit dem twimtbp Logo auf nVidia Hardware drastisch schneller läuft.

Hvoralek
2007-07-25, 23:48:23
Wie wärs mit aktuellen Beispielen (HD 2x00 Karten und G80 mal ausgenommen), die sowas belegen?

Mir fiel zumindest noch nie auf, dass ein Spiel mit dem twimtbp Logo auf nVidia Hardware drastisch schneller läuft.Twintbp ist v.a. Werbung.

Schau Dir etwa Oblivion an: Die Entwickler haben die fast ausschließlich mit R3xx- Systemen gearbeitet. Wie läuft es auf denen, wie auf NV4x? Für NV3x brauchst Du wohl keine Beispiele, sonst nimm da ruhig auch Oblivion im Grundzustand.

Coda
2007-07-26, 00:22:03
Man kann Shader nur so schreiben, dass sie auf R3xx beschissener laufen, aber nicht, dass sie auf NV4x viel optimaler werden.

Simon Moon
2007-07-26, 00:31:52
Twintbp ist v.a. Werbung.

Schau Dir etwa Oblivion an: Die Entwickler haben die fast ausschließlich mit R3xx- Systemen gearbeitet. Wie läuft es auf denen, wie auf NV4x? Für NV3x brauchst Du wohl keine Beispiele, sonst nimm da ruhig auch Oblivion im Grundzustand.

http://www.tomshardware.com/de/nvidia-geforce-8600-gts-8500-gt,testberichte-239646-16.html

Dann haben sie wohl auch noch die G80 Serie in peto gehabt, beim entwickeln?

Ich bezweifel, dass da gezielt auf Rxxx optimiert wurde, sondern es eher massiv Shader braucht. Wobei wir wieder beim Content angelangt sind...

ich mag heute nimmer, bis morgen

Hvoralek
2007-07-26, 00:57:26
http://www.tomshardware.com/de/nvidia-geforce-8600-gts-8500-gt,testberichte-239646-16.html

Dann haben sie wohl auch noch die G80 Serie in peto gehabt, beim entwickeln?

Ich bezweifel, dass da gezielt auf Rxxx optimiert wurde, sondern es eher massiv Shader braucht. Wobei wir wieder beim Content angelangt sind...

ich mag heute nimmer, bis morgenOblivion belastet in Außengebieten die Shader nur marginal (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/15/#abschnitt_oblivion), wenn man nicht gerade direkt vor einem Obliviontor steht.

Ich würde eher auf ein ohne Hierarchical Z wenig effektives HSR tippen. Dazu würde passen, dass G80 mit seiner sehr hohen Z/St- Leistung gut abschneidet.

Plissken
2007-08-01, 11:08:19
In erster Linie halten Konsolen den Fortschritt auf.
Gen Xbox vs. Gen 360 -> Shader 1.1 vs. Shader 3.0

So, und es gab genau wieviel Shader 2-only Spiele, richtig -> 0, garnix.

Somit ist bewiesen, das die only-Spiele immer auf dem aktuellen Konsolenstand rauskommen. Wer also denkt, eine Shader4 Karte würde auch nur irgendwie vor XBOX720 genutzt abseits von SzeneDemos/gekauften TechDemos zur Penetration von HW/SW (wie Crysis), ist super-naiv.

Hvoralek
2007-08-01, 12:56:46
Klar, es gab ja auch keine Spiele, die von SM2.0 profitierten und eben einen DX8- Fallback- Pfad für NV2x/3x anboten :rolleyes:

Plissken
2007-08-03, 10:41:55
Profitieren ist nicht only. Profitieren ist gar nix, sowas wie 2% Mehrleistung. Ja FarCry profitiert. FarCry mit DX7 Wasser ist ne grottige Zumutung, welche DX7 Konsolen weit besser lösen. Hitzeflimmern in Doom3 erst mit DX9, komisch, der Gamecube kann das mit DX7. Somit ist Techlevel sowieso nicht vergleichbar bei Konsolen und PC.

Nenn doch mal Beispiele, deine vagen Reposts zeugen nicht von fundierten Aussagen.

Hvoralek
2007-08-03, 11:08:55
Profitieren ist nicht only.Und wem nützt "only"? Den Besitzern entsprechender Karten, die sich dann daran aufgeilen, dass Leute mit älteren Systemen etwas nicht spielen können?

Fallbackpfade sind doch etwas Gutes. Die würde es übrigens auch ganz ohne Konsolen oft geben, allein für PCler mit älterer Hardware. Was spricht denn auch dagegen? Problematisch wird es, wenn dauerhaft auf niedrigem technischen Niveau entwickelt wird und moderne Systeme nur kleinere Verbesserungen bekommen. Das war bei DX9 sicher bei manchen Spielen so, aber gewiss nicht bei allen. Wenn auf hohem technischen Niveau entwickelt und hinterher runterskaliert wird, ist auch klar, dass ältere Techniken nicht ganz ausgenutzt werden und dabei hässliches DX7- Wasser herauskommt (Wobei das in Far Cry zumindest in DX8 noch ziemlich gut aussah). Was willst Du eigentlich? Nutzung moderner Technicken oder Konzentration auf alte?

Für eine Beurteilung, welches Spiel der letzten Jahre in DX8 genau wie viel schlechter hätte aussehen müssen als in DX9 fehlt mir das Hintergrundwissen. Dass z.B. Far Cry so oder so ähnlich in DX8 machbar gewesen wäre, möchte ich aber nicht annehmen.

Ich verstehe immer noch nicht, wieso Du aus dem Fehlen von "only- Spielen" darauf schließen können möchtest, dass entsprechende Hardware garantiert nicht "auch nur irgendwie [..] genutzt" würde abseits von vereinzelten Vorzeigetiteln (als würde Crysis D3D10 wirklich nutzen...).

Christi
2007-08-04, 18:36:35
@Threadstarter

Die Anschaffung einer SM3 Graka macht doch Sinn, es werden immer mehr Spiele die das Fordern. Auffällig sind die vielen XBOX Portierungen z.B. Spiderman3, Colin Dirt, RS Vegas,Bioshock etc. pp

Da die U3 Engine jetzt immer mehr in Spielen vorkommt, macht den Kauf einer neuen SM3 Graka zur Pflicht (Gears of War kommt ja auch bald).

Eine X800, sei sie auch eine gute Karte, ist für einen Pc Spieler nicht mehr zeitgemäß. Habe übrigens eine 9700pro im Rechner. Habe mir aber keine Graka gekauft sondern eine Xbox360:smile:. Da mache ich mir keine Gedanken mehr,
da kommt die Bioshock DVD Ende des Monats ins Laufwerk und ab geht der Spaß.

MfG

Neon3D
2007-08-15, 01:24:46
Eine X800, sei sie auch eine gute Karte, ist für einen Pc Spieler nicht mehr zeitgemäß. Habe übrigens eine 9700pro im Rechner. Habe mir aber keine Graka gekauft sondern eine Xbox360:smile:. Da mache ich mir keine Gedanken mehr,
da kommt die Bioshock DVD Ende des Monats ins Laufwerk und ab geht der Spaß.

MfG
schlau, so muß man nicht diesen pc-aufrüstwahn mitmachen.

Christi
2007-08-15, 12:03:07
schlau, so muß man nicht diesen pc-aufrüstwahn mitmachen.

Zumal man jetzt schon die Demo von Bioshock seit Montag zocken kann.
Warum ist man als Pcler immer mehr der Dumme. Demo gibts erst zu Release.
Jetzt sind wir schon so weit, dass mein Kumpel (mit High End Rechner) am Freitag mit einigen Bier zu mir kommt um die Demo zu zocken:)
Ich muss natürlich sagen, dass er ein absoluter Bioshock-Fan ist.

MfG

Coda
2007-08-15, 12:59:17
komisch, der Gamecube kann das mit DX7.
Der Gamecube hat überhaupt keine mit DirectX vergleichbaren Shader.

Blinx123
2007-08-15, 13:55:09
Der Gamecube hat überhaupt keine mit DirectX vergleichbaren Shader.

Naja,gibt schon welche. Aber der GameCube ist sicherlich nicht mit DirectX7 vergleichbar. Das ist ja eine Beleidigung für den GameCube. Die Effekte sind ziemlich gut mit DirectX8 vergleichbar (was man besonders bei Zelda Twilight Princess, Final Fantasy Crystal Chronicles und StarFox Adventures bemerkt), die Wii liefert sogar einige DX9 ähnliche Effekte.

Coda
2007-08-15, 13:58:03
Naja,gibt schon welche.
Hab ich was anderes gesagt? Und nein, man kann es wirklich nicht mit DirectX-Chips vergleichen. Das Prinzip ist ein völlig anderes.

Und "Effekte" sind immer so eine Sache wenn man Architekturen vergleicht. Es kommt auch immer auf den Aufwand an.

Josie Moron
2007-08-15, 14:33:16
Wenn interessiert der Aufwand? Irgendeinen Coder vielleicht. Was den Endkunden interessiert, ist der Effekt, und den gibts auch auf dem Gamecube, mit DX7 like/Gen Hardware

Coda
2007-08-15, 14:42:41
Gamecube ist nicht DX7-like. Das ist ein ganz anderes Konzept als jeder PC-Chip.

Die Effekte kann man mit genügend Aufwand und Multipass auf so ziemlich jedem Chip machen, darum geht's. Von der Optik auf die Architektur zu schließen ist schon immer verfehlt.

Gast
2007-08-15, 16:18:07
So ist es. Deshalb sieht es auch so schlecht aus bei den Gamecube-Emulatoren.

Sentionline
2007-08-16, 13:58:55
Meine Frage wurde hier ja irgendwie mit einem "Jain" beantwortet. Für BioShock alias UE3 werd ich jetzt also "gezwungen" eine neue Karte zu kaufen. Werd ich aber nicht, denn der finanzielle Aufwand für meine anderen beiden Rechner wären zu hart. Für die X850XT-PE hab ich eine menge Kohle hingelegt letztes Jahr. Und so unfähig kann der Shader Part 2 ja auch nicht sein. Selbst aktuelle Spiele mit einer "OK Grafik" kommen mit Shader 2 Karten aus.

Ich glaube, wir sollten uns hier auch durchgehend vor Augen halten, das wir über Spiele reden. Nicht über Professionele Software zur Datenanalyse oder berechnungen hochkomplexer Daten. Um ein Spiel spielen zu können, muss man sich das Spiel an sich kaufen, und eine minderstens nochmal doppelt so teure Grafikkarte. Ich finde das minimum von 150€ an dieser stelle etwas überzogen.

Ich werd die Demo abwarten und anspielen. Kaufen werd ich das Spiel mit sicherheit nicht.:P Ich will und werde an dieser Stelle das E***schaukeln der Programmierer nicht unterstützen (von Colin Dirt hab ich auch die Finger gelassen - mangels SSE2 auf meinem AthlonXP 3500+@6800U). Also, die Entwickler sind doch sicherlich sooo klevere Kerlchen, das die "skalierung" auf Shader 2.x Karten eigendlich möglich sein sollte. Zumal die Jungs von Irrational mit sicherheit "Monsterserver mit x-Prozessoren und x-GB an RAM" da stehen haben. Wozu sind die Dinger eigendlich gut? Bestimmt nicht um das Espressoautomat im Pausenraum zu steuern. Wie oben bereits erwähnt sind hochkomplexe Rechenzentren eigendlich dazu da, viele hochkomplexe Daten in einer möglichst kurzer Zeit zu bearbeiten. Wieso werden diese nicht dazu benutzt, die Texturen der Engines, deren eingebetteten Informationen und shader Instruktionen für eine breite Palette der potenziellen Kundschaft zu bearbeiten?

Sicherlich ist ATi mit seinen x8xx Karten mit schuld an der misere, umso wichtiger sollte es dem Hersteller doch sein seine Kundschaft nicht zu vergraulen.

Ich selber kenne mich mit Shader instruktionen nicht aus, aber ich kann mir beim besten willen nicht vorstellen, das eine X800 Karte nicht die Rechnenleistung haben soll wie eine 6600 mit dessen SM 3.x Part. Und man sollte sich jetzt auch die Frage stellen, was den Shader 3.x Part wirklich so "unverzichtbar" macht. Behauptet wird ja gerne, das dem Programmierer eines Spiels Zeit spart und die generierung neuer Effekte erleichtert. Nur, diese Frage muss ich in die Runde werfen, wie kann es sein das immer mehr unfertige Spiele erscheinen die "ewig lang" gepatcht werden müssen?..Seid der einführung der Shader 3 Spielele hat sich da auch nicht viel getan.

Man hat ja auch behauptet das man DX10 nicht auf WinXP portieren kann. Und siehe da, die ersten Tests der neuen Software laufen bereits. Also unmöglich scheint das ganze ja nicht zu sein. Zumal "unmögliches" hier keiner verlangt. Die UE3 soll ja darauf ausgelegt sein (von Haus aus), Shaderinstruktionen abzuschwächen um diese auch auf älterer Hardware lauffähig zu machen...Genutzt wird diese Option nicht. Von keinem bisher, und genau das verstehe ich nicht.

Und von Konsolen möchte ich hier ja nicht gar nicht erst anfangen. Die kommen ja mit ihrer Hardware Jahrelang aus, und die Grafik wird trotzdem mit der Zeit schöner und Effektvoller. An der PC-Hardware kanns nicht liegen. Unfair ist nur jedes Jahr eine neue Karte-/Prozessor-/Speicher für ~300€ kaufen zu müssen.

Naja...alles eben dem Fortschrittswillen:rolleyes:

Coda
2007-08-16, 14:14:31
Und so unfähig kann der Shader Part 2 ja auch nicht sein.
Ist er leider. Vor allem auf ATi, weil nicht mal statisches branching unterstützt wird.

Ich glaube, wir sollten uns hier auch durchgehend vor Augen halten, das wir über Spiele reden. Nicht über Professionele Software zur Datenanalyse oder berechnungen hochkomplexer Daten. Um ein Spiel spielen zu können, muss man sich das Spiel an sich kaufen, und eine minderstens nochmal doppelt so teure Grafikkarte. Ich finde das minimum von 150€ an dieser stelle etwas überzogen.
Für das was du da an Technologie bekommst ist das reichlich günstig. Außerdem zwingt dich niemand dazu etwas zu kaufen.

Wieso werden diese nicht dazu benutzt, die Texturen der Engines, deren eingebetteten Informationen und shader Instruktionen für eine breite Palette der potenziellen Kundschaft zu bearbeiten?
Weil's nicht automatisch geht. Und falls es ginge wäre dafür keine große Rechenleistung nötig. Du hast da offensichtlich eine ziemlich falsche Vorstellung.

Ich will und werde an dieser Stelle das E***schaukeln der Programmierer nicht unterstützen (von Colin Dirt hab ich auch die Finger gelassen - mangels SSE2 auf meinem AthlonXP 3500+@6800U). Also, die Entwickler sind doch sicherlich sooo klevere Kerlchen, das die "skalierung" auf Shader 2.x Karten eigendlich möglich sein sollte.
Es lohnt sich marktwirtschaftlich wohl einfach nicht mehr. Der Aufwand ist wirklich immens. Im Prinzip kannst du den ganzen Renderer nochmal schreiben und jeden Shader im Notfall in Multipass umwandeln.

Behauptet wird ja gerne, das dem Programmierer eines Spiels Zeit spart und die generierung neuer Effekte erleichtert.
Das ist keine Behauptung, das sind Fakten.

Nur, diese Frage muss ich in die Runde werfen, wie kann es sein das immer mehr unfertige Spiele erscheinen die "ewig lang" gepatcht werden müssen?..Seid der einführung der Shader 3 Spielele hat sich da auch nicht viel getan.
Das hat doch mit dem Shadermodell nichts zu tun. Da geht es eher um Spielemechanik die nicht funktioniert oder Bugs hat.

Man hat ja auch behauptet das man DX10 nicht auf WinXP portieren kann.
Kann man auch nicht vollständig. http://www.beyond3d.com/content/articles/55/

Und siehe da, die ersten Tests der neuen Software laufen bereits.
Es "läuft". Ich denke du meinst "Alky". Vergiss es, das wird nie richtig funktionieren, außerdem fehlt jeglicher Support.

Zumal "unmögliches" hier keiner verlangt.
D3D10 auf XP ist tatsächlich praktisch unmöglich wenn 100% Kompatibilität da sein soll.

Simon Moon
2007-08-16, 14:23:08
Und von Konsolen möchte ich hier ja nicht gar nicht erst anfangen. Die kommen ja mit ihrer Hardware Jahrelang aus, und die Grafik wird trotzdem mit der Zeit schöner und Effektvoller. An der PC-Hardware kanns nicht liegen. Unfair ist nur jedes Jahr eine neue Karte-/Prozessor-/Speicher für ~300€ kaufen zu müssen.


Es zwingt dich keiner soviel Geld auszugeben. Warte ein Jahr mit dem Spiel und du kannst es mit einer 100€ Karte zocken und das Spiel kriegst du für 10€. Wer keine Geduld hat, der muss eben blechen.

Zudem, welche DX10 Software läuft auf XP? :|

Christi
2007-08-16, 14:56:10
@Sentionline

Gibt doch nur drei Varianten
1. Wenn Du aktuelle Spiele zocken willst (z.B.U3 Engine) neue Graka kaufen.
2. Du kaufts dir eine Konsole auf der die PC Spiele auch rauskommen (z.B Box)
3. Du lässt alles wie es ist und zockst die Spiele die noch gehen und basta

MfG

Gauß
2007-08-18, 11:11:10
Das Problem sind nicht die Shader-Programme selbst, sondern die Datenstrukturen, die nötig sind um diese zu füttern.
Die Programmkomplexität nimmt enorm zu, je mehr Einstellungsmöglichkeiten man dem Spieler für grundlegende Dinge gibt.

Sentionline
2007-08-20, 23:05:24
Bioshock läuft mit SM2.0b also z.B. auch auf einer X850er. ATi hat gerade den Bioshock-Treiber raus gebracht.

The information in this article applies to the following configuration(s):

* BioShock
* Catalyst Display Driver
* Radeon™ HD2900 series
* Radeon™ HD2600 series
* Radeon™ HD2400 series
* Radeon™ X1950 series
* Radeon™ X1900 series
* Radeon™ X1800 series
* Radeon™ X1650 series
* Radeon™ X1600 series
* Radeon™ X1550 series
* Radeon™ X1300 series
* Radeon™ X1050 series
* Radeon™ X850 series
* Radeon™ X800 series
* Radeon™ X700 series
* Radeon™ X600 series
* Radeon™ X550 series
* Radeon™ X300 series
* Radeon™ 9800 series
* Radeon™ 9700 series
* Radeon™ 9650 series
* Radeon™ 9600 series
* Radeon™ 9550 series
* Radeon™ 9500 series
* Windows Vista 32-bit Edition
* Windows Vista 64-bit Edition
* Windows XP Professional
* Windows XP Home Edition
* Windows XP Media Center Edition
* Windows XP Professional x64 Edition

Symptoms:
Users may experience stuttering with Preload, Missing/black surfaces and/or display corruption.

Solution:
Please download and install the following hotfix file to address this issue.

Gibts für Vista und XP: Link (http://support.ati.com/ics/support/default.asp?deptID=894)

THX an w0mbat (http://www.forum-3dcenter.org/vbulletin/member.php?u=18561) für diesen Hinweis!

Also kauf ich mir das Spiel doch :biggrin:

*edit* Der Hotfix ist aber klein:eek:

http://img407.imageshack.us/img407/8716/zwischenablage02bx9.jpg