PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Benachteiligt Ubisoft SM 2.0 Karten?


Seiten : [1] 2 3 4

Tigerchen
2005-02-22, 07:16:02
Vor kurzem ging ein Aufschrei der Empörung durch die versammelte Gemeinde der GeForceFX User als sie hören mußten daß VALVE ihren Grafikkarten den SM 2.0 Genuß vorenthält. Nun trifft GeForceFX User der nächste Schlag. Ihnen wird SM 2.0 im dritten Teil von Splinter Cell vorenthalten! Statt dessen wird ein SM 3.0 Support eingebaut den nur ein Bruchteil der User nutzen kann. Die enorme Basis der SM 2.0 Karten (man bedenke nur die Zahl der verkauften nV FX5200 Karten) bleibt außen vor. Statt dessen hat man HDR welches laut Aussage einiger nV40 User zu brutalen Performanceeinbrüchen führt und Anti-Aliasing verunmöglicht. Da darf man sich also aussuchen auf welches qualitätssteigernde Feature man verzichten "darf". Wer also hat was von diesem Support? Ubisoft hat jedenfalls nichts davon da man sich die Gemeinde der SM 2.x User verprellt. Lediglich nV darf sich die Hände reiben. Schließlich gieren die richtig harten SM 3.0 Verfechter ja schon danach ein Spiel in die Hände zu kriegen welches beweist daß...tjaaa...was eigentlich???
Daß heute eine 6800GT trotz aller Filteroptimierungen nicht ausreicht um ein popeliges Spiel wie Splinter Cell mit allen Details darzustellen?
Daß Ubisoft nicht in der Lage ist gewisse Effekte auch mit hardwareschonenden Verfahren darzustellen (HL² kann es!)?

Nur eins ist sicher, mein Geld kriegt Ubisoft nicht!

John5
2005-02-22, 07:27:58
Mein Geld bekommt Ubisoft; bei mir ist HDR mit 4xAA + 16xAF @ 1280x1024 ohne Probleme möglich. Achja ich hab ne 6800GT, nur mal so nebenbei.
Wieviel FPS ich habe in dem Modi kannsch dir erst heute Abend sagen, bin @ Work!
Nun gut ob nun SM2.0 unterstützt wird oder nicht kann mir relativ egal sein, siehe oben. Unteranderem sah das Spiel unter SM1.1 aber auch ned gerade so arg übel aus.

Nur mal so nebenbei, nen Game nur nach der Grafik zu Beurteilen ist Heutzutage ansich wohl schon Standard geworden.

Gruß

Grestorn
2005-02-22, 07:58:09
Nur eins ist sicher, mein Geld kriegt Ubisoft nicht!
Lustig ist nur, dass ich bei den meisten Themen recht oft meine Ansichten in Deinen Posts wiederfinde, nur wenns um Grafikkarten geht, schaltest Du auf einmal auf stur und wirst auf einem Auge blind.

Es gibt einen sehr deutlichen Unterschied zwischen dem HL2-Thema und dem SC3 Thema. Das sollte auch Dir klar sein.

Bei HL2 sind bereits alle Shader vorhanden. Es gibt keinen für den Kunden ersichtlichen Grund, bestimmte Shader einer Hardware, die sie ausführen kann, vorzuenthalten. Wenn die HW zu langsam ist, kann man immer noch die Default-Einstellung entsprechend anpassen, etwas was ja nun wirklich gang und gäbe ist.

Bei SC3 gibt es die 2.0 Shader derzeit nicht. Ob sie nun für die Demo einfach noch nicht fertiggestellt sind (bis zum Release ist es ja noch eine Weile), oder man sich die Entwicklungskosten sparen wollte aber einfach mal mit der neuen Technologie experimentieren wollte, kann keiner sagen. Jedenfalls wird hier nicht ein Hersteller ohne jeden Grund bevorzugt. Entwicklungszeit und -kosten sind Gründe, auch wenn Du nicht mit ihnen einverstanden sein magst. Valve hatte schlicht null-komma-gar keine Gründe, außer der "Spende" von ATI.

Mach doch einfach mal Deine Augen auf!

Dr Hake
2005-02-22, 08:06:35
Mein Geld bekommt Ubisoft; bei mir ist HDR mit 4xAA + 16xAF @ 1280x1024 ohne Probleme möglich. Achja ich hab ne 6800GT, nur mal so nebenbei.
.....

Gruß
Spezialanfertigung? HDR mit AA geht nicht auf GF6x00

Mr.Magic
2005-02-22, 08:09:00
Bei der Diskussion werde ich mich mal nicht einmischen. HL2 ist mir wurscht und SM3.0 kann meine 6800GT auch.
Was ich nicht verstehe ist die Aussage von John5 dass er mit AA UND HDR spielen kann. Ich dachte es würde bei der Erzeugung von AA ODER HDR der gleiche Hardwareteil verwendet oder ist das wieder mal Pseudo-HDR!? Help?

HOT
2005-02-22, 08:10:32
Lustig ist nur, dass ich bei den meisten Themen recht oft meine Ansichten in Deinen Posts wiederfinde, nur wenns um Grafikkarten geht, schaltest Du auf einmal auf stur und wirst auf einem Auge blind.

Es gibt einen sehr deutlichen Unterschied zwischen dem HL2-Thema und dem SC3 Thema. Das sollte auch Dir klar sein.

Bei HL2 sind bereits alle Shader vorhanden. Es gibt keinen für den Kunden ersichtlichen Grund, bestimmte Shader einer Hardware, die sie ausführen kann, vorzuenthalten. Wenn die HW zu langsam ist, kann man immer noch die Default-Einstellung entsprechend anpassen, etwas was ja nun wirklich gang und gäbe ist.

Bei SC3 gibt es die 2.0 Shader derzeit nicht. Ob sie nun für die Demo einfach noch nicht fertiggestellt sind (bis zum Release ist es ja noch eine Weile), oder man sich die Entwicklungskosten sparen wollte aber einfach mal mit der neuen Technologie experimentieren wollte, kann keiner sagen. Jedenfalls wird hier nicht ein Hersteller ohne jeden Grund bevorzugt. Entwicklungszeit und -kosten sind Gründe, auch wenn Du nicht mit ihnen einverstanden sein magst. Valve hatte schlicht null-komma-gar keine Gründe, außer der "Spende" von ATI.

Mach doch einfach mal Deine Augen auf!


Bei der Markpräsenz von SM2.0 Karten (sind ja alle Radeons ab 9500) und GeforceFX Karten ist wohl doch eher eine politische Entscheidung zu vermuten. Ausserdem bin ich davon überzeugt, dass sie SM2.0 Support haben, aber dieser deaktiviert ist.

hsdrehh
2005-02-22, 08:22:04
Spezialanfertigung? HDR mit AA geht nicht auf GF6x00

woran man mal wieder sieht das die meisten keinen schimmer von dem haben was sie da eigentlich anschalten. hauptsache überall is´n haken ;)

Grestorn
2005-02-22, 08:22:08
Bei der Markpräsenz von SM2.0 Karten (sind ja alle Radeons ab 9500) und GeforceFX Karten ist wohl doch eher eine politische Entscheidung zu vermuten. Ausserdem bin ich davon überzeugt, dass sie SM2.0 Support haben, aber dieser deaktiviert ist.
Letzteres ist eine ziemlich gewagte Behauptung, die sich durch nichts belegen lässt.

Das ist eine Demo. Jetzt wartet halt mal auf das fertige Release, bevor ihr Euch auf irgendwelche Schmipftriaden einlasst.

Und noch was:

SC3 war ursprünglich durchgehend mit SM 1.1 programmiert (für die X-Box). Für den PC-Port hat man experimentiert was überhaupt möglich ist. Dabei ist diese Demo rausgekommen. Egal ob man die Effekte, eingeschränkt oder so wie sie sind, auch auf 2.0x umsetzt, das Spiel ist so wie es ursprünglich designt wurde mit 1.1 spielbar. Alles andere sind Zuckerl.

Bist Du auch auf die Riddick-Entwickler böse, weil ich es ohne Texturflimmern (mit Supersampling) spielen kann, und Du nicht?

Demirug
2005-02-22, 08:23:13
Bei der Markpräsenz von SM2.0 Karten (sind ja alle Radeons ab 9500) und GeforceFX Karten ist wohl doch eher eine politische Entscheidung zu vermuten. Ausserdem bin ich davon überzeugt, dass sie SM2.0 Support haben, aber dieser deaktiviert ist.

Es gibt noch eine Welt ausserhalb des PCs. Besonders wenn wir von Splinter Cell reden. Die Entscheidung war sicherlich politisch motiviert. Finanzpolitisch. Ich meine jetzt aber keine großzügige Spende welche über die üblichen paar kostengünstige oder gar freien Grafikkarten hinausgeht. Die Einsparung von Entwicklungskosten dürfte da stark motiviert haben. Entsprechend glaube ich auch nicht das es einen SM2 Pfad gibt.

Es gibt bei PC-Spielen nun mal nur zwei Grundforderungen:

1. Es sollte auf möglichst vielen Systemen lauffähig sein.
2. Es muss eine hohe Wertung bei den einschlägigen Magazinen erreicht werden.

Das ganze dann noch bitte möglichst günstig in der Produktion.

Demirug
2005-02-22, 08:24:29
Das ist eine Demo. Jetzt wartet halt mal auf das fertige Release, bevor ihr Euch auf irgendwelche Schmipftriaden einlasst.

Warum warten? In dem Punkt ändert sich nichts mehr.

seahawk
2005-02-22, 08:36:34
Wer sich so verhätl, der kriegt nicht mein Geld. :D

Ganz einfach.

Grestorn
2005-02-22, 08:54:01
Wer sich so verhätl, der kriegt nicht mein Geld. :D

Ganz einfach.
So lange Du es dann auch nicht spielst, ist das auch voll in Ordnung.

Fritzwalter
2005-02-22, 08:57:36
Es gibt noch eine Welt ausserhalb des PCs. Besonders wenn wir von Splinter Cell reden. Die Entscheidung war sicherlich politisch motiviert. Finanzpolitisch. Ich meine jetzt aber keine großzügige Spende welche über die üblichen paar kostengünstige oder gar freien Grafikkarten hinausgeht. Die Einsparung von Entwicklungskosten dürfte da stark motiviert haben. Entsprechend glaube ich auch nicht das es einen SM2 Pfad gibt.

Es gibt bei PC-Spielen nun mal nur zwei Grundforderungen:

1. Es sollte auf möglichst vielen Systemen lauffähig sein.
2. Es muss eine hohe Wertung bei den einschlägigen Magazinen erreicht werden.

Das ganze dann noch bitte möglichst günstig in der Produktion.


Deinen beiden Punkte treffen aber bei Splintercell dann nicht zu!

1. Hat SM3.0 einen Marktanteil von weniger als 10%
2. Bekommt ein Spiel welches nur 10% der Gamer ansprechen kann bestimmt nicht die positive Meinung der einschlägigen Magzine.

Ich für meinen Teil halte das für einen Marketinggag von Ubisoft und nvidia, SM2.0 ist deaktiviert und der Kunde soll sich jetzt schnell SM3.0 sprich 6800-Krücken kaufen, welch Hohn wenn das Spiel dann durch einen Patch SM2.0 später unterstützt.

Es ist bekannt das nvidia und Ubisoft einen engen Kontakt hegen, und wer kann schon bei Mill... "Grünen" $$$$$ NEIN sagen.

Im übrigen paßt das auch zum Doom3 - Desaster, wie jeder von uns in der Hitliste der Mediakontrol nachlesen kann ist Doom3 noch nicht einmal unter den Top20*gggg*.

Tigerchen
2005-02-22, 08:57:54
Es gibt noch eine Welt ausserhalb des PCs. Besonders wenn wir von Splinter Cell reden. Die Entscheidung war sicherlich politisch motiviert. Finanzpolitisch. Ich meine jetzt aber keine großzügige Spende welche über die üblichen paar kostengünstige oder gar freien Grafikkarten hinausgeht. Die Einsparung von Entwicklungskosten dürfte da stark motiviert haben. Entsprechend glaube ich auch nicht das es einen SM2 Pfad gibt.

Es gibt bei PC-Spielen nun mal nur zwei Grundforderungen:

1. Es sollte auf möglichst vielen Systemen lauffähig sein.
2. Es muss eine hohe Wertung bei den einschlägigen Magazinen erreicht werden.

Das ganze dann noch bitte möglichst günstig in der Produktion.


Das mit der hohen Wertung kann auch ganz schön nach hinten losgehen. Geld für eine Entwicklung auszugeben nur um die Magazine zu beeindrucken könnte ja auch von den Magazinen bemerkt werden. Fakt ist daß die meisten User nix von SM 3.0 Features ala HDR haben. Wer sich grad eine 6600GT zugelegt dürfte gar nicht amüsiert sein. Für mich als User zählt auch mehr was für mich und weniger was für Ubisoft interessant ist. Und das sind eben gute Effekte bei akzeptablen Hardwareanforderungen.

Spasstiger
2005-02-22, 08:58:49
Wolltest du hiermit einen "Wer-am-schönsten-flamen-kann"-Thread heraufbeschwören?
Natürlich ist es schade, dass das Game keinen SM2.0-Pfad besitzt, aber der SM1.1-Pfad sieht nun wirklich nicht schlecht aus.
Den technischen Fortschritt begrüße ich auch, Splinter Cell ist meines Wissens nach das erste Game, das Parallax-Bumpmapping, Softshadows und High-Dynamic-Range-Rendering gleichzeitig verwendet. Damit hätte ich ehrlichgesagt erst in einem Unreal-Engine-3-Game gerechnet. Und bei solche hardwarefressenden Features sollte man sich nicht über die Performance beschweren, sondern sich freuen, dass man endlich mal ein Spiel hat, was aktuelle Hardware voll fordert. Natürlich werden zukünftige Engines mit diesen Features sicherlich besser performen bei vergleichbarer grafischer Qualität (z.b. Unreal Engine 3).
Ich sehe jedenfalls keinen Grund, Ubisoft Vorwürfe zu machen oder gar das Spiel zu boykottieren.

P.S.: Das Parallax-Mapping in Splinter Cell 3 ist doch schick, oder? Siehe http://img220.exs.cx/img220/4039/splintercell3parallax0vn.jpg :D.

P.S.2.: Sich darüber zu beschweren, dass das Game entweder nur HDR oder AntiAliasing unterstützt, halte ich für lächerlich. Ubisoft kann auch nur das einbauen, was aktuelle Hardware unterstützt (und HDR + AA geht auf aktueller Hardware eben einfach nicht).

Tigerchen
2005-02-22, 08:59:35
Letzteres ist eine ziemlich gewagte Behauptung, die sich durch nichts belegen lässt.

Das ist eine Demo. Jetzt wartet halt mal auf das fertige Release, bevor ihr Euch auf irgendwelche Schmipftriaden einlasst.

Und noch was:

SC3 war ursprünglich durchgehend mit SM 1.1 programmiert (für die X-Box). Für den PC-Port hat man experimentiert was überhaupt möglich ist. Dabei ist diese Demo rausgekommen. Egal ob man die Effekte, eingeschränkt oder so wie sie sind, auch auf 2.0x umsetzt, das Spiel ist so wie es ursprünglich designt wurde mit 1.1 spielbar. Alles andere sind Zuckerl.

Bist Du auch auf die Riddick-Entwickler böse, weil ich es ohne Texturflimmern (mit Supersampling) spielen kann, und Du nicht?


Was du so alles mit SLI kannst interessiert keinen. SLI ist was für Freaks mit extrem großem Geldbeutel.

Demirug
2005-02-22, 09:04:31
Deinen beiden Punkte treffen aber bei Splintercell dann nicht zu!

1. Hat SM3.0 einen Marktanteil von weniger als 10%
2. Bekommt ein Spiel welches nur 10% der Gamer ansprechen kann bestimmt nicht die positive Meinung der einschlägigen Magzine.

Ich für meinen Teil halte das für einen Marketinggag von Ubisoft und nvidia, SM2.0 ist deaktiviert und der Kunde soll sich jetzt schnell SM3.0 sprich 6800-Krücken kaufen, welch Hohn wenn das Spiel dann durch einen Patch SM2.0 später unterstützt.

Es ist bekannt das nvidia und Ubisoft einen engen Kontakt hegen, und wer kann schon bei Mill... "Grünen" $$$$$ NEIN sagen.

Im übrigen paßt das auch zum Doom3 - Desaster, wie jeder von uns in der Hitliste der Mediakontrol nachlesen kann ist Doom3 noch nicht einmal unter den Top20*gggg*.

1. Für die Massentauglichkeit ist SM1.1 da.
2. Die Grafikpunkte gibt es bei den meisten Spielen dafür was das Spiel maximal kann und nicht für das was die meisten sehen. Ist traurig aber wahr.

Mr.Magic
2005-02-22, 09:04:41
Immer diese provozierenden Behauptungen.

Wer leidenschaftlicher Spieler ist und immer noch mit einer FX rummacht ist entweder Schüler, ein armer Arbeitsloser oder jemand der immer nur maulen will. Spielen am PC war, ist und wird Luxus bleiben. Wer nicht aufrüsten will soll eine Konsole kaufen.

Tigerchen
2005-02-22, 09:05:14
Lustig ist nur, dass ich bei den meisten Themen recht oft meine Ansichten in Deinen Posts wiederfinde, nur wenns um Grafikkarten geht, schaltest Du auf einmal auf stur und wirst auf einem Auge blind.

Es gibt einen sehr deutlichen Unterschied zwischen dem HL2-Thema und dem SC3 Thema. Das sollte auch Dir klar sein.

Bei SC3 gibt es die 2.0 Shader derzeit nicht. Ob sie nun für die Demo einfach noch nicht fertiggestellt sind (bis zum Release ist es ja noch eine Weile), oder man sich die Entwicklungskosten sparen wollte aber einfach mal mit der neuen Technologie experimentieren wollte, kann keiner sagen. Jedenfalls wird hier nicht ein Hersteller ohne jeden Grund bevorzugt. Entwicklungszeit und -kosten sind Gründe, auch wenn Du nicht mit ihnen einverstanden sein magst. Valve hatte schlicht null-komma-gar keine Gründe, außer der "Spende" von ATI.



Bei SC3 gibt es die 2.0 Shader nicht. Genau das ist mein Kritikpunkt. Ubisoft hat auch keine Gründe die gigantische Basis von 2.0 und schwächere 3.0 Grafikkarten außen vor zu lassen oder?
Wenn sich Ubisoft die Kosten sparen will darf Ubisoft sich eben auch nicht darüber beschweren daß ich und andere dann eben auch Kosten sparen. Bei 40 €uro für ein Spiel überleg ich schon sehr genau wem ich die Kohle in den Rachen werfe.

Grestorn
2005-02-22, 09:06:13
Was du so alles mit SLI kannst interessiert keinen. SLI ist was für Freaks mit extrem großem Geldbeutel.
Freak ist kein sonderlich nettes Wort.

Und ich habe nichts von SLI geschrieben. Dass ich Supersampling einsetzen kann, liegt nicht grundsätzlich daran, dass ich ein SLI System besitze.

Was ist denn Dein Problem? Du kannst SC3 spielen, genauso wie die FX User auch HL2 spielen können.

Da SM3 und HDR ja völliger Schmarrn sind, die keiner braucht, gibt es auch für Dich überhaupt keinen Grund sich aufzuregen. Sturm im Wasserglas, kann ich da nur sagen.

Tigerchen
2005-02-22, 09:07:27
1. Für die Massentauglichkeit ist SM1.1 da.
2. Die Grafikpunkte gibt es bei den meisten Spielen dafür was das Spiel maximal kann und nicht für das was die meisten sehen. Ist traurig aber wahr.


Zu Punkt 1:
Das wurde aber beim Sturm gegen VALVE aber noch ganz anders gesehen! Kann mich auch nicht daran erinnern daß du da Ähnliches abgelassen hast. :|

Grestorn
2005-02-22, 09:10:09
Zu Punkt 1:
Das wurde aber beim Sturm gegen VALVE aber noch ganz anders gesehen! Kann mich auch nicht daran erinnern daß du da Ähnliches abgelassen hast. :|

Bei HL2 musste sich Valve extra anstrengen, damit SM2 für FX Karten nicht geht (Abfrage auf FX-Karten einbauen, Option disablen).

Bei SC3 ist Aufwand nötig, damit SM2 verfügbar ist.

Fällt Dir da ein kleiner feiner Unterschied auf?

Tigerchen
2005-02-22, 09:10:30
Freak ist kein sonderlich nettes Wort.

Und ich habe nichts von SLI geschrieben. Dass ich Supersampling einsetzen kann, liegt nicht grundsätzlich daran, dass ich ein SLI System besitze.



Ach bitte...
Wir wissen doch alle was Supersampling bedeutet und warum andere ohne SLI da mitunter gewisse Probleme mit der Framerate bekommen. :redface:

Demirug
2005-02-22, 09:10:48
Das mit der hohen Wertung kann auch ganz schön nach hinten losgehen. Geld für eine Entwicklung auszugeben nur um die Magazine zu beeindrucken könnte ja auch von den Magazinen bemerkt werden. Fakt ist daß die meisten User nix von SM 3.0 Features ala HDR haben. Wer sich grad eine 6600GT zugelegt dürfte gar nicht amüsiert sein. Für mich als User zählt auch mehr was für mich und weniger was für Ubisoft interessant ist. Und das sind eben gute Effekte bei akzeptablen Hardwareanforderungen.



Das mit dem optischen Blendwerk ist doch schon immer so.

Die unterschätzt hier die Leidensfähigkeit des Durchschnittsspieler erheblich. Die sind noch mit Auflösungen und FPS zufrieden wo so macher hier schon kurz vor dem Selbstmord stehen würde.

Wenn SC3 dir nicht das gibt was du erwartets dann kauf und spiel es doch einfach nicht.

Ein SM2 Pfad würde übrigens an der Performance gegenüber dem SM3 Pfad auch nichts ändern den berechnet werden muss das ganze so oder so.

Tigerchen
2005-02-22, 09:11:49
Bei HL2 musste sich Valve extra anstrengen, dass SM2 für FX Karten nicht geht (Abfrage auf FX-Karten einbauen, Option disablen).

Bei SC3 ist Aufwand nötig, damit SM2 verfügbar ist.

Fällt Dir da ein kleiner feiner Unterschied auf?


Spiel bitte nicht toter Mann.

Grestorn
2005-02-22, 09:13:23
Ach bitte...
Wir wissen doch alle was Supersampling bedeutet und warum andere ohne SLI da mitunter gewisse Probleme mit der Framerate bekommen. :redface: Ja und? Ich kann auch ohne SLI Riddick in 2x2 SS spielen (in 800x600 und 4xAF), was m.E. in diesem Spiel immer noch viel besser aussieht als 1280x1024 mit 6xMSAA und 16xAF.

Aber wir sind massiv OT.

Grestorn
2005-02-22, 09:15:21
Bei HL2 musste sich Valve extra anstrengen, dass SM2 für FX Karten nicht geht (Abfrage auf FX-Karten einbauen, Option disablen).

Bei SC3 ist Aufwand nötig, damit SM2 verfügbar ist.

Fällt Dir da ein kleiner feiner Unterschied auf?
Spiel bitte nicht toter Mann.
Was willst Du mir damit sagen? Irgendeinen sinnvollen Einwand gegen meine Aussage, oder einfach nicht wahrhaben wollen, was nicht in Dein Weltbild passt?

Demirug
2005-02-22, 09:15:45
Zu Punkt 1:
Das wurde aber beim Sturm gegen VALVE aber noch ganz anders gesehen! Kann mich auch nicht daran erinnern daß du da Ähnliches abgelassen hast. :|


Scheinbar sind wir und hier nicht über den Begriff Massentauglichkeit einig. Ich meine damit erst mal nur die generelle Lauffäigkeit. Da gab es bei HL2 ja nie Grund zur Beschwerde da man dort ja sogar noch DX7 Hardware unterstützt.

mnbv
2005-02-22, 09:16:17
[COLOR="#000088"]
Vor kurzem ging ein Aufschrei der Empörung durch die versammelte Gemeinde der GeForceFX User als sie hören mußten daß VALVE ihren Grafikkarten den SM 2.0 Genuß vorenthält. Nun trifft GeForceFX User der nächste Schlag. Ihnen wird SM 2.0 im dritten Teil von Splinter Cell vorenthalten!

Dies ist falsch, denn nicht FX User werden benachteiligt, sondern Leute, die keine SM3.0|FP-Blending faehige Hardware haben.

Statt dessen wird ein SM 3.0 Support eingebaut den nur ein Bruchteil der User nutzen kann. Die enorme Basis der SM 2.0 Karten (man bedenke nur die Zahl der verkauften nV FX5200 Karten) bleibt außen vor.

Siehe HL². Die Leute, und du bist auch einer davon, haben dieses Vorgehen gegenüber dem Kunden gewilligt, da doch nur der Speed als alleiniges Merkmal zaehlt.

Statt dessen hat man HDR welches laut Aussage einiger nV40 User zu brutalen Performanceeinbrüchen führt und Anti-Aliasing verunmöglicht.

Als NV40 User kann ich auch ohne Spielen und mitAA oder mit und ohne.

Daß heute eine 6800GT trotz aller Filteroptimierungen nicht ausreicht um ein popeliges Spiel wie Splinter Cell mit allen Details darzustellen?

Aussagen von User, die alle Effekte anschalten können, widerlegen deine Aussage.

Daß Ubisoft nicht in der Lage ist gewisse Effekte auch mit hardwareschonenden Verfahren darzustellen (HL² kann es!)?
[/QUOTE]

Wie willst du HDR Lighting besser realisieren, welches nicht total einbricht oder nur begrenzt einzusetzen ist?
Wie willst du lange Shader besser realisieren als mit Branching?

Und Tigerchen, wieso beschwerst du dich? Als Verfechter der: "Langsame Hardware darf nicht alles anzeigen" - Fraktion, ist doch Splinter Cell ganz nach dir programmiert.

LovesuckZ

Mr.Magic
2005-02-22, 09:22:16
Valve hat einen SM2.0 Pfad und hat sich beschwert dass es so lange dauert den 1.1/2.0 Mixed Mode für die FXen herzustellen. Im fertigen Spiel fehlt dieser dann?!
Wann hat Ubi Soft gemeckert das man extra einen SM2.x Pfad programmieren muss? Gibt es überhaupt einen?
Haben diejenigen die hier rumtönen dass sie SC3 deshalb nicht kaufen bereits auf HL2 verzichtet um Valve zu zeigen das es so nicht geht oder ist das wieder der übliche ATI-NVIDIA-Kindergarten?

Ich denke mal Ubi Soft hat an die HL2 Situation gesehen und sich daran ein Beispiel genommen.
Ich gebe zu das es bei SC3 drastischer ist als bei HL2. In dem einen Fall hat man ein Spiel wo man den Unterschied zwischen 1.1 und 2.0 mit der Lupe suchen muss und in dem Anderen sieht man den Unterschied zwischen 1.1 und 3.0 sofort. SC3 scheint mir das erste Spiel zu sein das an die aktuellen technischen Grenzen geht. Sicherlich wären diese Effekte mit SM2.0 auf einer X800Pro+ schnell genug, aber nur bei erheblichem Mehraufwand.
Ausserdem haben die ATI-Jünger dann gleich einen Grund sich eine R5xx zu besorgen ;D .

seahawk
2005-02-22, 09:41:52
So lange Du es dann auch nicht spielst, ist das auch voll in Ordnung.

Ich gedenke das Spiel nicht auf meinen PC zu lassen. Raubkopien lehne ich sowieso ab.

seahawk
2005-02-22, 09:43:21
Zu Punkt 1:
Das wurde aber beim Sturm gegen VALVE aber noch ganz anders gesehen! Kann mich auch nicht daran erinnern daß du da Ähnliches abgelassen hast. :|


Da waren halt täter und Opfer vertauscht.

Gsast
2005-02-22, 10:01:20
Bist Du auch auf die Riddick-Entwickler böse, weil ich es ohne Texturflimmern (mit Supersampling) spielen kann, und Du nicht?


Nö is er sicher nicht. Weil Riddick auf der 9700 etwas weniger geflimmert hat, als auf der 6800GT.

Grestorn
2005-02-22, 10:15:54
Nö is er sicher nicht. Weil Riddick auf der 9700 etwas weniger geflimmert hat, als auf der 6800GT.Das stimmt nicht. Ich habe beide Karten nebeneinander laufen lassen, die Texturen flimmern auf beiden gleichermaßen.

Alles andere wäre auch mehr als überraschend, da das Flimmern alleine durch den Content verursacht wird, und nicht durch irgendwelche AF Optimierungen.

robbitop@work
2005-02-22, 10:31:04
...Statt dessen hat man HDR welches laut Aussage einiger nV40 User zu brutalen Performanceeinbrüchen führt und Anti-Aliasing verunmöglicht. ...

..Daß Ubisoft nicht in der Lage ist gewisse Effekte auch mit hardwareschonenden Verfahren darzustellen (HL² kann es!)?..


1. HDR kann man ausschalten und HDR hat direkt nichts mit SM3 zu tun. Für HDR braucht es FP16 Textur/Blendfähigkeiten und einen RGBA FP16 FB. Das ist unabhängig vom Shadermodell. Aber durch Nutzung von (meist schlecht implementierten) HDR und von Vertextexturing wird natürlich vielen surgeriert SM3=langsam. Das ist so nicht richtig. Diese Effekte kosten Performance. SM3 nicht. Mit SM3 geht derselbe Kontent wie SM2 sogar noch schneller.
Das begreifen viele nicht (wurde ja auch so ohne kostspielige Effekte noch kaum umgesetzt).
Ist für mich dasselbe wie Dot3 oder Env Bump Mapping. Das kostet Performance. Ohhhh DX7 ist also langsam. :|
(ist jetzt nicht direkt an dich gerichtet, aber an ale, die sich angesprochen fühlen)

2. statische Beleuchtung findest du schon gut?

Wir sind nun an einem Punkt angekommen, wo jedes bisschen mehr an schönen und dynamischen Effekten viel mehr Leistung kostet. Da werden auch zukünftige Chips nichts dran ändern können (höhere Rohleistung macht dies evtl erträglich). Bump Mapping kostet auch heute noch ordentlich Leistung aber inzwischen können wir uns das leisten. Ist es deswegen schlimm, dass NV10/R100 es damals schon konnten? Erst die HW dann die Spiele. (ist jetzt nicht direkt an dich gerichtet, aber an ale, die sich angesprochen fühlen)
Das ist nunmal so.

3. Die Möglichkeit für neue Effekte und neue Pfade sind IMO wirklich zu begrüßen. Der Abbruch der Brücken zur aktueller HW ist allerdings deshalb nicht zu begrüßen. IMO sollte SM3 (mit oder ohne Effekte) nur als Option zur Verfügung stehen.

deekey777
2005-02-22, 10:37:11
Tigerchen, wie wär's, wenn du mal andere Threads durchliest, bevor du mit dem Quatsch anfängst!?
Es wurde schon mehrmals erklärt, warum die SM2.0 Unterstützung fehlt, warum SM3.0 besser zu implementieren sei,...

Und HDR ist kein "SM3.0 Feature", sondern "NV40 Feature".

Und der Aufschrei der FX-Gemeinde galt nicht der Vorenthaltung der DX9 Spielereien durch HL2, sondern dem fehlenden "Mixed Mode".

Spasstiger
2005-02-22, 10:41:26
IMO sollte SM3 (mit oder ohne Effekte) nur als Option zur Verfügung stehen.

Das tut es doch. Oder hab ich was falsch verstanden?
Jedenfalls hat man die Wahl zwischen SM1.1 und SM3.0 und kann dann auch nochmal extra für SM3.0 die einzelnen Effekte an- bzw. abwählen. Somit kann jeder die Effekte entsprechend der Grafikkartenleistung anpassen. Wobei ich festgestellt habe, dass die Performance zu 45% allein von der Auflösung abhängt und 45% kommen vom HDR. Der Rest bringt fast gar keine Performanceveränderung (auf einer GeForce 6800 Non Ultra @ 16 Pipes).

Grast
2005-02-22, 10:42:57
Alles andere wäre auch mehr als überraschend, da das Flimmern alleine durch den Content verursacht wird, und nicht durch irgendwelche AF Optimierungen.


Wer hat dir diesen Schmarrn erzählt?

Gdast
2005-02-22, 10:44:33
Und HDR ist kein "SM3.0 Feature", sondern "NV40 Feature".


Falsch.. R300/420 können auch HDR...

mapel110
2005-02-22, 10:50:07
Wer hat dir diesen Schmarrn erzählt?
aths war zb einer derjenigen, die das gesagt haben.

Falsch.. R300/420 können auch HDR...
nicht das "HDR", was NV40 bietet.

Demirug
2005-02-22, 10:54:34
Falsch.. R300/420 können auch HDR...

... und die ganzen FXen auch.

Um es diplomatisch auszudrücken:

Der NV40 verfügt über Features welche eine HDR Implementierung signifikant vereinfachen.

Gacst
2005-02-22, 10:55:30
aths war zb einer derjenigen, die das gesagt haben.



Dann hat aths unrecht. Sonst bräuchte man keinen HQ Schlater mehr...

deekey777
2005-02-22, 10:55:59
Falsch.. R300/420 können auch HDR...


Ganz wie du meinst... ;(
Hab's noch nicht gesehen mit meiner 9800Pro.

(Es geht hier wieder nur um das Verteufeln von so bösem HDR in SC3 und Far Cry, da dieses nur mit der HW der NV40 dargestellt werden können.)

mapel110
2005-02-22, 10:56:21
Um es diplomatisch auszudrücken:

Der NV40 verfügt über Features welche eine HDR Implementierung signifikant vereinfachen.

:up: So ists am Besten ausgedrückt.

Dann hat aths unrecht. Sonst bräuchte man keinen HQ Schlater mehr...
Warum flimmerts dann auch ohne AF?

Tigerchen
2005-02-22, 10:57:03
Scheinbar sind wir und hier nicht über den Begriff Massentauglichkeit einig. Ich meine damit erst mal nur die generelle Lauffäigkeit. Da gab es bei HL2 ja nie Grund zur Beschwerde da man dort ja sogar noch DX7 Hardware unterstützt.

Gabs bei HL² nun einen Aufschrei der Entrüstung ja oder doch?

mapel110
2005-02-22, 10:58:01
Gabs bei HL² nun einen Aufschrei der Entrüstung ja oder doch?

nur bei ein paar Forenfreaks. :)

robbitop@work
2005-02-22, 10:58:29
Das tut es doch. Oder hab ich was falsch verstanden?
Jedenfalls hat man die Wahl zwischen SM1.1 und SM3.0 und kann dann auch nochmal extra für SM3.0 die einzelnen Effekte an- bzw. abwählen. Somit kann jeder die Effekte entsprechend der Grafikkartenleistung anpassen. Wobei ich festgestellt habe, dass die Performance zu 45% allein von der Auflösung abhängt und 45% kommen vom HDR. Der Rest bringt fast gar keine Performanceveränderung (auf einer GeForce 6800 Non Ultra @ 16 Pipes).
du verstehst mich falsch. Ich meine als Option zu einem SM1.1 UND SM2 Pfad.

Demirug
2005-02-22, 10:58:33
nicht das "HDR", was NV40 bietet.

im optischen Endergebniss schon. So wie sich jeder andere Effekt den Splintercell zeigt ebenso auf jeder SM2 fähigen Karte erreichen lässt. Wobei die Implementierung mit geringer werdenem Featureset immer aufwendiger wird. Am einfachsten ginge es noch auf den 2.A Karten gefolgt von den 2.B Chips und mit der reinen 2.0 Hardware bricht man sich fast die Finger.

Gasst
2005-02-22, 10:58:34
Ganz wie du meinst... ;(
Hab's noch nicht gesehen mit meiner 9800Pro.


rthdribl, The Project (ok da muss mans händisch aktivieren)?

Gadst
2005-02-22, 10:59:43
Warum flimmerts dann auch ohne AF?


Flimmerts immer ohne AF, oder hat der Content vll. nicht doch ein bisschen was damit zu tun?

Demirug
2005-02-22, 11:02:52
Gabs bei HL² nun einen Aufschrei der Entrüstung ja oder doch?


Wegen der allgemeinen Lauffähigkeit habe ich keinen vernommen.

Von mir aus darf sich jeder so viel über SC3 aufregen wie er möchte. Ich halte lediglich ein Vergleich der jetzigen Situation mit der Situation bei HL2 nicht für angemessen.

Tigerchen
2005-02-22, 11:04:45
[b]3. Die Möglichkeit für neue Effekte und neue Pfade sind IMO wirklich zu begrüßen. Der Abbruch der Brücken zur aktueller HW ist allerdings deshalb nicht zu begrüßen. IMO sollte SM3 (mit oder ohne Effekte) nur als Option zur Verfügung stehen.

Das ist der eigentliche Punkt. Mein Eingangspost enthält natürlich Rhetorik die z.B. Lovesuckz gar nicht erst verstanden hat. :redface:

deekey777
2005-02-22, 11:04:53
rthdribl, The Project (ok da muss mans händisch aktivieren)?

Das, was in The Project aktiviert werden kann, sprengt meinen Monitor (9800Pro).

Zu "HDR"&The Project:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=187629&page=1&pp=20
Da steht auch was zu rthdribl.

nur bei ein paar Forenfreaks. :)

Da fällt mir eigentlich nur ein Name ein...

Demirug
2005-02-22, 11:05:05
rthdribl, The Project (ok da muss mans händisch aktivieren)?

rthdribl: Ja.

The Project: Nein. Da kommt nur eine Overbright Technik zum Einsatz.

Spasstiger
2005-02-22, 11:05:52
du verstehst mich falsch. Ich meine als Option zu einem SM1.1 UND SM2 Pfad.
Also du meinst, dass man statt dem SM3-Pfad einen SM2-Pfad hätte einbauen sollen und den SM3-Pfad nur als nettes Gimmick oben drauf hätte setzen sollen?
Es wurde ja schon gesagt, dass die Engine aufgrund der Abstammung von der X-Box eine SM1.1-Engine ist und für die zusätzlichen Effekte der SM3-Pfad leichter zu implementieren war. Und da der SM1.1-Pfad nicht schlecht aussieht, beklage ich mich auch nicht. Nur das Parallax-Mapping wär ganz nett auch auf SM2-Karten.

robbitop@work
2005-02-22, 11:06:38
rthdribl, The Project (ok da muss mans händisch aktivieren)?
das ist kein echtes HDR :)

Tigerchen
2005-02-22, 11:06:57
... und die ganzen FXen auch.

Um es diplomatisch auszudrücken:

Der NV40 verfügt über Features welche eine HDR Implementierung signifikant vereinfachen.

und andere aktuelle Hardware außen vor lassen und Probleme mit dem AA nach sich ziehen.

Tigerchen
2005-02-22, 11:09:38
nur bei ein paar Forenfreaks. :)

Na vielleicht sollte ich das auch so locker sehen können.
Andererseits....ich stürme vor wo Engel furchtsam weichen! =)

Spasstiger
2005-02-22, 11:11:34
und andere aktuelle Hardware außen vor lassen und Probleme mit dem AA nach sich ziehen.


Spätestens mit dem R520 wird es den Entwicklern egal sein, ob die meisten Spieler noch mit einer SM2-Karte rumdöhnsen, wenn man Effekte einfacher und schneller auf der neuesten Hardware umsetzen kann. HDR ist einfach noch kein Massenmarkfeature, sondern vielmehr ein "Alibi-Feature" für "High-End-/SLI-Zocker" ;) .

mapel110
2005-02-22, 11:15:06
und andere aktuelle Hardware außen vor lassen und Probleme mit dem AA nach sich ziehen.


@Demirug, würde AA funktionieren, wenn man das HDR von Splinter Cell oder Farcry mit SM2.?-Karten realisiert(also ohne die "HDR-Funktionen des NV40)?

Demirug
2005-02-22, 11:16:04
und andere aktuelle Hardware außen vor lassen und Probleme mit dem AA nach sich ziehen.


Hätte nVidia kein FP16 Blending einbauen sollen nur weil es ATI nicht hat? Die Entwickler wollten es haben und selbst ATI hat ja schon zugegeben das man es eigentlich braucht und sie es deswegen auch einbauen werden.

FP16 Buffer und AA kann derzeit keiner. Mich würde es allerdings nicht wundern wenn SC3 schon so programmiert wurde das funktioniert sobald entsprechende Hardware verfügbar ist. Sowas einzubauen stellt kein Hexenwerk da vorallem da sie den Code dafür zu einem großen Teil für AA und Postfiltereffekte sowieso schon eingebaut haben.

Ich finde die Entscheidung von Ubi ja wie schon mehrfach gesagt auch nicht glücklich aber ich kann sie eben verstehen und daher auch respektieren. Was mich aber auch nicht davon abgehalten hat sie als Faul zu bezeichnen.

Demirug
2005-02-22, 11:19:32
@Demirug, würde AA funktionieren, wenn man das HDR von Splinter Cell oder Farcry mit SM2.?-Karten realisiert(also ohne die "HDR-Funktionen des NV40)?

Wie schon geschrieben:

Das hat nicht mit der HDR-Funktion des NV40 zu tun sondern das es keine Karte gibt die MSAA fähige FP16 ROPs hat. nVidia (und 3dlabs) sind ja derzeit die Einzigen die überhaupt FP16 ROPs haben.

SSAA könnte man machen. Aber wer will das dabei noch haben?

seahawk
2005-02-22, 11:23:52
Ist DHR den Verzicht auf AA wert ?? Oder ist so nicht ein völlig überflüssiges Feature ??

Gilt das nicht so auch für die meisten SM3.0 Features, so wie sie auf NV Hardware implementiert sind ??

Ich denke ja.

Grestorn
2005-02-22, 11:39:26
Wer hat dir diesen Schmarrn erzählt?Das muss man nicht erzählen, das kann man sehen.

VooDoo7mx
2005-02-22, 11:39:51
Was du so alles mit SLI kannst interessiert keinen. SLI ist was für Freaks mit extrem großem Geldbeutel.



Meine GF2 MX kann auch OGSSAA und die läuft nicht im SLI Mode. :ugly:

Für mich ist die Sache nicht weiter schlimm, denn das Spiel, hole ich mir wenn überhaupt sowieso nur als Budget, bis es dahin so weit ist, hab ich schon Nv47 oder R520 im Rechner.

Desweiteren müsste ich erst einmal sehen, wie gut das Spiel mit dem 1.1 Pfad ausschaut und das soll bei weitem nicht schlecht sein.

BlackArchon
2005-02-22, 11:41:42
Ist DHR den Verzicht auf AA wert ?? Oder ist so nicht ein völlig überflüssiges Feature ??

Gilt das nicht so auch für die meisten SM3.0 Features, so wie sie auf NV Hardware implementiert sind ??

Ich denke ja.
Genau jetzt sind wir wieder an dem Punkt wo gesagt wird, dass SM 3.0 sowieso scheiße ist. Warum habe ich nur die Befürchtung, dass diese Rufe verklingen werden, wenn Ati endlich auch SM 3.0-Hardware anbietet?

Spasstiger
2005-02-22, 11:47:03
Desweiteren müsste ich erst einmal sehen, wie gut das Spiel mit dem 1.1 Pfad ausschaut und das soll bei weitem nicht schlecht sein.

Das stimmt. Aber ein paar nette Schmankerl hat der SM3-Pfad dennoch, vor allem das Parallax-Mapping vermisse ich etwas auf Nicht-SM3-Karten: http://img220.exs.cx/img220/4039/splintercell3parallax0vn.jpg (hab den Shot schon auf Seite 1 gepostet, aber hier gehts ja drunter und drüber ;) )

seahawk
2005-02-22, 12:00:39
Genau jetzt sind wir wieder an dem Punkt wo gesagt wird, dass SM 3.0 sowieso scheiße ist. Warum habe ich nur die Befürchtung, dass diese Rufe verklingen werden, wenn Ati endlich auch SM 3.0-Hardware anbietet?

Nur wenn ATI SM3.0 + AA bietet. Ansonsten halte ich auch dann SM3.0 für einen fraglichen Fortschritt.

Spasstiger
2005-02-22, 12:01:38
Nur wenn ATI SM3.0 + AA bietet. Ansonsten halte ich auch dann SM3.0 für einen fraglichen Fortschritt.

SM3.0 + AA ist kein Problem, echtes HDR + AA geht nicht.

mapel110
2005-02-22, 12:04:16
echtes HDR + AA geht nicht.
klar geht das, nur die Hardware muss es noch können. Aber HDR+AA=Performance endgültig im A....

deekey777
2005-02-22, 12:08:12
Nur wenn ATI SM3.0 + AA bietet. Ansonsten halte ich auch dann SM3.0 für einen fraglichen Fortschritt.

Das kann die NV40 doch schon, seit sie auf dem Markt ist bzw. seit FC1.2 die SM3.0 Unterstützung mit sich brachte.

Du meintest aber bestimmt (nVidias) HDR+AA. ;)


... und die ganzen FXen auch.

Um es diplomatisch auszudrücken:

Der NV40 verfügt über Features welche eine HDR Implementierung signifikant vereinfachen.

Aus "Kiss Of The Dragon": There is a time for diplomacy and a time for action. Diplomacy is dead.

seahawk
2005-02-22, 12:12:38
Ja sorry stimmt.

Piffan
2005-02-22, 13:57:01
Toller Thread....so toll, dass ich ihn nicht lese.....

Ich werde mir die Demo anschauen. Gefällts mir, wirds gekauft. Wenn nicht, dann nicht. Welche Shader da nun laufen oder nicht, ist mir völlig schnurz.......

Auf Valve hatte ich auch wegen Steam ne Wut. Habs aber doch gekauft. Weil ich gute Spiele halt nicht auslassen kann.....

Damals, als die FX- User veräppelt wurden, kratzte mich das nicht, ich war aber auch nicht schadenfroh. Tjo, jetzt könnte es meine Hardware treffen. Muss man mit leben, wenn man den PC als Spieleplattform gewählt hat.

Für mich zählt das Gameplay und der Funfaktor mehr als Geschwafel über irgendwelche Shader. Ist eh nur heiße Luft und wird dem Vergnügen wahrscheinlich nicht abträglich sein. Wenn doch, dann wird es nicht gekauft. Und?

Gadst
2005-02-22, 15:12:52
The Project: Nein. Da kommt nur eine Overbright Technik zum Einsatz.

Standardmässig. Man kann aber HDR über die Console (oder über die ini) aktivieren. Gut dann ists zwar viel zu hell, aber das kann man auch über ein paar variablen regeln.

und rthdribl nutzt ECHTES hdr, nur dass da kein Alphablending zum Einsatz kommt. Das HDR ist trotzdem echt...

ddfhfghj
2005-02-22, 15:20:12
Standardmässig. Man kann aber HDR über die Console (oder über die ini) aktivieren. Gut dann ists zwar viel zu hell, aber das kann man auch über ein paar variablen regeln.

und rthdribl nutzt ECHTES hdr, nur dass da kein Alphablending zum Einsatz kommt. Das HDR ist trotzdem echt...

sorry, aber wenn ich sowas lese, muss ich vermuten, dass du nicht wirklich weißt, was hinter dem Begriff HDR steht.

deekey777
2005-02-22, 15:21:48
Standardmässig. Man kann aber HDR über die Console (oder über die ini) aktivieren. Gut dann ists zwar viel zu hell, aber das kann man auch über ein paar variablen regeln.

Nur ist es immer noch kein HDR. ;(

und rthdribl nutzt ECHTES hdr, nur dass da kein Alphablending zum Einsatz kommt. Das HDR ist trotzdem echt...

Das bezweifelt doch niemand.
(Auch ich nicht, habe es aber noch nie installiert, darum habe ich bisher kein HDR mit meiner 9800Pro gesehen.)

Demirug
2005-02-22, 15:24:40
Standardmässig. Man kann aber HDR über die Console (oder über die ini) aktivieren. Gut dann ists zwar viel zu hell, aber das kann man auch über ein paar variablen regeln.

und rthdribl nutzt ECHTES hdr, nur dass da kein Alphablending zum Einsatz kommt. Das HDR ist trotzdem echt...

bei rthdribl habe ich doch sofort zugestimmt das es HDR ist.

Bei The Project ist es aber egal wie viel man an der Konsole oder der Ini verändert. Es wird nicht zum echten HDR. Mir ist bekannt das Crytek es als HDR bezeichnet aber da sind keine entsprechenden Floating Point Buffer im Einsatz.

Spasstiger
2005-02-22, 15:42:46
Mir ist bekannt das Crytek es als HDR bezeichnet aber da sind keine entsprechenden Floating Point Buffer im Einsatz.

Ist das jetzt nur auf die ATI-Variante bezogen oder auch auf die Nvidia-Variante?
Ich hab schon in "The Project" mit meiner Radeon 9700 über die verschiedensten Einstellungen versucht, das HDR so hinzubekommen wie es auf der GeForce 6800 aussieht, aber ich habs nicht geschafft. Mit der Radeon sieht es immer viel zu grell aus bzw. das Bild ist total verfälscht. Mit der GeForce 6800 siehts eigentlich ganz ordentlich aus (Video (http://www.doom3maps.org/download.php?view.273) ).

robbitop
2005-02-22, 15:48:40
bei rthdribl habe ich doch sofort zugestimmt das es HDR ist.

Bei The Project ist es aber egal wie viel man an der Konsole oder der Ini verändert. Es wird nicht zum echten HDR. Mir ist bekannt das Crytek es als HDR bezeichnet aber da sind keine entsprechenden Floating Point Buffer im Einsatz.
Ist es aufgrund der mangelhaften Auflösung nicht eher MDR?
Bei diesem Verfahren sollte NV40 (außer im für den R3xx geschriebenen rthdribl) durch dediziete HW nicht schlecht darstehen.

Garst
2005-02-22, 15:59:04
Ich hab schon in "The Project" mit meiner Radeon 9700 über die verschiedensten Einstellungen versucht, das HDR so hinzubekommen wie es auf der GeForce 6800 aussieht, aber ich habs nicht geschafft.


ich such dir die passenden Settings nachher raus, wenn ich zushause bin

lolman


Und auch wenns kein echtes HDR ist. Es schaut mit den passenden Einstellungen genauso aus, ist dynamisch und funktioniert sogar mit AA. Warums dann schlechter sein soll, ist mir auch ein Rätsel. Imo ist dieses Pseudo HDR sogar besser, da die Performance nicht ganz so stark einbricht und AA auch möglich ist..

Banding ist mir auch noch keins aufgefallen, dementsprechend versteh ich nicht, warum man dieses "HDR" nicht für SM2.0 Karten implementieren sollte...

robbitop
2005-02-22, 16:02:34
vermutlich sieht man die Unschiede zw. "echtem" und "unechtem" HDR erst bei einem Spiel, welches darauf ausgelegt sein wird (Unreal 3 b.s.w.)

Demirug
2005-02-22, 16:50:27
Ist das jetzt nur auf die ATI-Variante bezogen oder auch auf die Nvidia-Variante?
Ich hab schon in "The Project" mit meiner Radeon 9700 über die verschiedensten Einstellungen versucht, das HDR so hinzubekommen wie es auf der GeForce 6800 aussieht, aber ich habs nicht geschafft. Mit der Radeon sieht es immer viel zu grell aus bzw. das Bild ist total verfälscht. Mit der GeForce 6800 siehts eigentlich ganz ordentlich aus (Video (http://www.doom3maps.org/download.php?view.273) ).

Beim NV40 nimmt die Engine einen FP16 Buffer für das HDR.

trz
2005-02-22, 17:35:00
Banding ist mir auch noch keins aufgefallen, dementsprechend versteh ich nicht, warum man dieses "HDR" nicht für SM2.0 Karten implementieren sollte...

wenn man das in einem techdemo zeigt wird man wohl sehr genau darauf achten dass der content so gewählt wird dass man kein banding oder ähnliche artefakte sieht, in einem mehr oder weniger "zufälligen" level kann das schon wieder ganz anders aussehen.

Gdast
2005-02-22, 17:40:35
wenn man das in einem techdemo zeigt wird man wohl sehr genau darauf achten dass der content so gewählt wird dass man kein banding oder ähnliche artefakte sieht, in einem mehr oder weniger "zufälligen" level kann das schon wieder ganz anders aussehen.


Nur ist in der Techdemo das "HDR" standardmässig ohnehin nicht aktiv, warum auch immer...

lolman

Mr. Lolman
2005-02-22, 18:07:02
Ich hab mit aktivem AA und folgende Einstellungen recht ansprechendes HDR bei "The Project" auf meiner R300 zu Gesicht bekommen. Spielt euch ruhig mit den letzten 3 Einstellungen herum, aber achtet drauf, dass ihr in der Demo weder die Auflösung noch den AA Modus ändert, sobald ihr HDR aktiviert habt. Sonst sieht man wirklich nix mehr und braucht nen "r_HDRBrightThreshold" von "10000000.000000" damit man wieder was erkennen kann.

r_HDRRendering = "1"
r_HDRBrightThreshold = "1.000000"
r_HDRLevel = "1.000000"
r_HDRBrightOffset = "6.000000"


Hier ein paar Screenshots meiner, momentan im Koma liegenden, R300:
(natürlich kann man den Glow- sowie den Overbrighteffekt noch weiter abschwächen)


http://img31.exs.cx/img31/2829/d9-Demo0.th.jpg (http://img31.exs.cx/my.php?loc=img31&image=d9-Demo0.jpg)


http://img31.exs.cx/img31/1876/7e-Demo1.th.jpg (http://img31.exs.cx/my.php?loc=img31&image=7e-Demo1.jpg)


http://img31.exs.cx/img31/2603/38-Demo2.th.jpg (http://img31.exs.cx/my.php?loc=img31&image=38-Demo2.jpg)


http://img31.exs.cx/img31/5995/30-Demo3.th.jpg (http://img31.exs.cx/my.php?loc=img31&image=30-Demo3.jpg)


http://img31.exs.cx/img31/5678/32-Demo4.th.jpg (http://img31.exs.cx/my.php?loc=img31&image=32-Demo4.jpg)

BTW: Danke deekey777 fürs Threadausbuddeln :up:

G!!!ast
2005-02-22, 18:13:50
Immer dieses Theater um HDR. Und alles, was nach HDR ausschaut, aber kein echtes ist, wird irgendwie zur Schnecke gemacht. Nehmt Euch doch bitte am Riemen. Wichtig ist doch, dass es gut ausschaut. Und das tut "The Project", auch mit fake HDR (afaik auch der 3dMark 05).
Das nenne ich sinnvolles ausnutzen der breit verfügbaren Hardware. Super Grafik bei angemessener Performance und der Möglichkeit, AA zuschalten zu können.
So gesehen müsste sich doch auch jeder NV40 Besitzer eigentlich über Fake HDR freuen, statt es zu verteufeln.

Gas!t
2005-02-22, 18:25:33
Nur eins ist sicher, mein Geld kriegt Ubisoft nicht!



Zwei Dinge sind sicher, weder Valve noch ATI bekommen mein Geld. Damit fährt man wesentlich besser.

Tigerchen
2005-02-22, 18:30:34
Immer dieses Theater um HDR. Und alles, was nach HDR ausschaut, aber kein echtes ist, wird irgendwie zur Schnecke gemacht. Nehmt Euch doch bitte am Riemen. Wichtig ist doch, dass es gut ausschaut. Und das tut "The Project", auch mit fake HDR (afaik auch der 3dMark 05).
Das nenne ich sinnvolles ausnutzen der breit verfügbaren Hardware. Super Grafik bei angemessener Performance und der Möglichkeit, AA zuschalten zu können.
So gesehen müsste sich doch auch jeder NV40 Besitzer eigentlich über Fake HDR freuen, statt es zu verteufeln.


So ist es. "FAKE-HDR" wird nur verteufelt weil auch ältere Hardware es kann und damit superteure Anschaffungen im Grafikkartenbereich nicht rechtfertigen kann.

dfgnn
2005-02-22, 18:34:23
Nur ist in der Techdemo das "HDR" standardmässig ohnehin nicht aktiv, warum auch immer...

lolman

das kommt darauf an wie man es sieht. das demo ist schon standardmäßig darauf aus "hdr-effekte" vorzutäuschen. (durch starke überblendeffekte)
und der strahlend weiße bis graue content neigt sicher nicht gerade zu banding-artefakten.
allerdings scheint in der demo sowohl dass zusätzliche fake-hdr bzw. auch das echte hdr extrem schlecht gelöst. (da ist es in farcry wesentlich besser).
ich hab auf jeden fall weder auf dem nv40 noch auf der radeon 9800pro einstellungen gefunden in denen es brauchbar aussieht
auch deine screenshots schauen bis auf den letzten ziemlich doof aus, aber ich werd mal mit deinen einstellungen probieren vielleicht kommt da doch irgendwie was ordentliches heraus.

Mr. Lolman
2005-02-22, 18:56:26
das kommt darauf an wie man es sieht. das demo ist schon standardmäßig darauf aus "hdr-effekte" vorzutäuschen. (durch starke überblendeffekte)
und der strahlend weiße bis graue content neigt sicher nicht gerade zu banding-artefakten.
allerdings scheint in der demo sowohl dass zusätzliche fake-hdr bzw. auch das echte hdr extrem schlecht gelöst. (da ist es in farcry wesentlich besser).
ich hab auf jeden fall weder auf dem nv40 noch auf der radeon 9800pro einstellungen gefunden in denen es brauchbar aussieht
auch deine screenshots schauen bis auf den letzten ziemlich doof aus, aber ich werd mal mit deinen einstellungen probieren vielleicht kommt da doch irgendwie was ordentliches heraus.

Lies dir doch durch was ich schreib. Spiel dich mit den Werten etwas herum und plötzlich ist da nix mehr strahlend weiss oder grau. Das Problem war damals (die Screenshots dsind schoh ein bisschen älter) dass the Project standardmässig Gloweffekte bietet. Mit meinen übertrieben gewählten HDR Settings versuchte ich einen, per Screenshot illustrierbaren, Mittelweg zu finden, nämlich zw. standardmässig deaktiviertem HDR und der weissen Suppe, die man bekommt wenn man HDR einschaltet, ohne die Settings anzupassen...


Wenn dir die Screenshots nicht gefallen, dann mach schönere. Die Variablen kennst du ja jetzt :P

Coda
2005-02-22, 19:02:11
So ist es. "FAKE-HDR" wird nur verteufelt weil auch ältere Hardware es kann und damit superteure Anschaffungen im Grafikkartenbereich nicht rechtfertigen kann.Mir geht es eigentlich nur darum, dass ihr versucht HDR auf einen simplen Overbrighteffekt zu reduzieren, was es einfach nicht ist.

deekey777
2005-02-22, 19:05:00
Zurück zum Thema:



Vor kurzem ging ein Aufschrei der Empörung durch die versammelte Gemeinde der GeForceFX User als sie hören mußten daß VALVE ihren Grafikkarten den SM 2.0 Genuß vorenthält. Nun trifft GeForceFX User der nächste Schlag. Ihnen wird SM 2.0 im dritten Teil von Splinter Cell vorenthalten! Statt dessen wird ein SM 3.0 Support eingebaut den nur ein Bruchteil der User nutzen kann. Die enorme Basis der SM 2.0 Karten (man bedenke nur die Zahl der verkauften nV FX5200 Karten) bleibt außen vor. Statt dessen hat man HDR welches laut Aussage einiger nV40 User zu brutalen Performanceeinbrüchen führt und Anti-Aliasing verunmöglicht. Da darf man sich also aussuchen auf welches qualitätssteigernde Feature man verzichten "darf". Wer also hat was von diesem Support? Ubisoft hat jedenfalls nichts davon da man sich die Gemeinde der SM 2.x User verprellt. Lediglich nV darf sich die Hände reiben. Schließlich gieren die richtig harten SM 3.0 Verfechter ja schon danach ein Spiel in die Hände zu kriegen welches beweist daß...tjaaa...was eigentlich???
Daß heute eine 6800GT trotz aller Filteroptimierungen nicht ausreicht um ein popeliges Spiel wie Splinter Cell mit allen Details darzustellen?
Daß Ubisoft nicht in der Lage ist gewisse Effekte auch mit hardwareschonenden Verfahren darzustellen (HL² kann es!)?

Nur eins ist sicher, mein Geld kriegt Ubisoft nicht!



Könntest du, wenn's möglich wäre, aufzählen, um was die Besitzer von SM2.0 fähiger HW genau beschissen werden?
HDR gibt's nicht, wurde schon mehrmals erklärt, warum. Aber weißt du uU auch, was zusätzlich fehlt - und warum?


Gaydit: Zu "HDR" in The Project und 3D 2005. Im Unterschied zu Crytek hat Futuremark nie behauptet, daß 3D 2005 HDR einsetzt.

Polak
2005-02-22, 19:06:45
Mir geht es eigentlich nur darum, dass ihr versucht HDR auf einen simplen Overbrighteffekt zu reduzieren, was es einfach nicht ist.
Du schaust also auf die Technik (wie es gemacht wird), während dem Gast das Endergebnis (was man sieht) wichtig ist. Oder sehe ich das jetzt falsch?

Coda
2005-02-22, 19:09:09
Nein. HDR hat in Farcry und SC3 z.B. Tonemapping. Simples Overbright bietet nicht mal das und ist schon falsch an sich, weil Lichtquellen überblendet werden, die eigentlich gar nicht grell genug dafür sind.

Quasar
2005-02-22, 19:09:36
Eines fehlt jedwedem Fake-HDR: Der angepasste und erweiterte Dynamikumfang des Bildes.

deekey777
2005-02-22, 19:14:55
Du schaust also auf die Technik (wie es gemacht wird), während dem Gast das Endergebnis (was man sieht) wichtig ist. Oder sehe ich das jetzt falsch?


Ich bin nicht Coda, aber du siehst richtig. Nur geht es auch vielen darum, nicht jedes leuchtendes "Irgendwas" gleich als HDR zu bezeichnen, wie es zB von Crytek in The Project gemacht wird - nur Far Cry 1.3 iVm einer 6800er oder 6600er bieten HDR, werden aber brutal eingebremst, da Crytek wieder zwei linke Hände bei der Implementierung zu haben bewies.
In SC:CT sieht es Berichten der User zufolge besser aus: Dessen HDR schluckt nicht so viel Leistung. AA gibt es aber auch dort nicht. Aber man sollte sich fragen: Gab es überhaupt schon mal MSAA in einem der SC Teile?

Spasstiger
2005-02-22, 19:16:54
Eines fehlt jedwedem Fake-HDR: Der angepasste und erweiterte Dynamikumfang des Bildes.

Richtig, und darin liegt ja eigentlich der Sinn von HDR.
Das größte Problem ist ja eigentlich, dass es keine HDR-fähigen Monitore zu kaufen gibt und ohne die erkennt der Laie keinen großen Unterschied zu den Overbright-Techniken. Naja, mal abwarten, wie's in der Unreal-Engine-3 implementiert wird.

Coda
2005-02-22, 19:17:53
Auf jeden Fall ist dieser Overbrigth Effekt ja nur eine Sache die sich mit HDR Rendertargets erreichen lassen. Auch Cubemaps sehen um längen besser aus wenn sie in Floating Point gerendert wurden.

ATi sieht das ja auch ein und ich bin froh das R520 endlich wieder auf einen akzeptablen technischen Stand kommt.

Aber was hat das Thema eigentlich in diesem Thread zu suchen?

Das größte Problem ist ja eigentlich, dass es keine HDR-fähigen Monitore zu kaufen gibt und ohne die erkennt der Laie keinen großen Unterschied zu den Overbright-Techniken.HDR wird eigentlich immer sichtbar sobald mit dem Ausgangsmaterial weitergerechnet wird. Sei das bei Cubemaps (wenn man damit multipliziert kommt man mit non-HDR Cubemaps nie über den Wert der Textur) oder eben bei dem Überblenden von extrem grellen Lichtquellen. Man kann einen Unterschied sehen, wenn die grellen Lichtquellen denn auch vorhanden sind. Bei FarCry ist das nicht der Fall, weil der Content nie für HDR gedacht war.

Demirug
2005-02-22, 19:20:06
Ihr seid euch aber bewusst das die Fake HDR Variante von Crytek auf MRT (Multiple Render Targets) aufbaut?

Das können zum Beispiel die FXen nicht weil nVidia dort mit "Multiple-element Textures" die zweite Variante implementiert hat.

Bei beiden Varianten steht aber in der Spec:

No antialiasing is supported.

Nazar
2005-02-22, 19:20:30
Es gibt noch eine Welt ausserhalb des PCs. Besonders wenn wir von Splinter Cell reden. Die Entscheidung war sicherlich politisch motiviert. Finanzpolitisch. Ich meine jetzt aber keine großzügige Spende welche über die üblichen paar kostengünstige oder gar freien Grafikkarten hinausgeht. Die Einsparung von Entwicklungskosten dürfte da stark motiviert haben. Entsprechend glaube ich auch nicht das es einen SM2 Pfad gibt.

Es gibt bei PC-Spielen nun mal nur zwei Grundforderungen:

1. Es sollte auf möglichst vielen Systemen lauffähig sein.
2. Es muss eine hohe Wertung bei den einschlägigen Magazinen erreicht werden.

Das ganze dann noch bitte möglichst günstig in der Produktion.

Was ich an deiner aussage nicht verstehe ist der kostenfaktor!

1. auch experimente kosten geld oder siehst du das anders!

2. SM2.0 ist bekannt und leichter zu handhaben als 3.0!

3. ist es finanzpolitisch schlecht 90% der NICHT 3.0 besitzer vor den kopf zu stossen!

Ich glaube du solltest dir deine aussagen nochmals überlegen.. du widersprichst dir in deiner aussage!

Exxtreme
2005-02-22, 19:21:49
Immer dieses Theater um HDR. Und alles, was nach HDR ausschaut, aber kein echtes ist, wird irgendwie zur Schnecke gemacht. Nehmt Euch doch bitte am Riemen. Wichtig ist doch, dass es gut ausschaut. Und das tut "The Project", auch mit fake HDR (afaik auch der 3dMark 05).
Das nenne ich sinnvolles ausnutzen der breit verfügbaren Hardware. Super Grafik bei angemessener Performance und der Möglichkeit, AA zuschalten zu können.
So gesehen müsste sich doch auch jeder NV40 Besitzer eigentlich über Fake HDR freuen, statt es zu verteufeln.
Meine Rede! Texturen sind auch Fakes. Aber da heult komischerweise niemand rum, daß man fehlende Polygone mit Texturen nachbildet.

Coda
2005-02-22, 19:22:12
2. SM2.0 ist bekannt und leichter zu handhaben als 3.0!SM 3.0 kann alles was SM 2.0 kann und erheblich mehr, was die Arbeit einfacher macht, aber auf keinen Fall schwerer.

3. ist es finanzpolitisch schlecht 90% der NICHT 3.0 besitzer vor den kopf zu stossen!90% der nicht SM 3.0 Besitzer werden es nichtmal bemerken.

Meine Rede! Texturen sind auch Fakes. Aber da heult komischerweise niemand rum, daß man fehlende Polygone mit Texturen nachbildet.Overbright bildet HDR aber in keinster Weise nach. Der Effekt wurde doch schon viel früher gebracht, jetzt erlebt er sein Revival als "Fake-HDR".

Ohne einen Dynamikumfang außerhalb von 0.0-1.0 ist es schon aus Prinzip falsch von HDR zu reden.

Polak
2005-02-22, 19:24:48
Zurück zum Thema:
Könntest du, wenn's möglich wäre, aufzählen, um was die Besitzer von SM2.0 fähiger HW genau beschissen werden?
HDR gibt's nicht, wurde schon mehrmals erklärt, warum. Aber weißt du uU auch, was zusätzlich fehlt - und warum?

Demirug hat geschrieben, dass alle SM3-Effekte auch in SM2 realisierbar sind (ausser HDR ;) ). Das heisst die Meisten dürfen sich mit einer Graphikqualität zufriden geben, die eine GF3 auch schafft. Nicht wirklich zufridenstellend, für alle die keine 6600 oder 6800 haben, wenn mehr durchaus möglich gewesen wäre. :(

Coda
2005-02-22, 19:26:25
Demirug hat geschrieben, dass alle SM3-Effekte auch in SM2 realisierbar sind (ausser HDR )Auch HDR ist mit SM 2.0 möglich. Nur nicht auf bisheriger ATi Hardware.

Mr. Lolman
2005-02-22, 19:27:12
Eines fehlt jedwedem Fake-HDR: Der angepasste und erweiterte Dynamikumfang des Bildes.

Nein, beim "Project" nicht. Bitte probiert es selbst aus...

Mit anderen Worten beherrst das selbst auf meiner R300 darstellbare "Fake-HDR" nicht nur Glows und Overbright- sondern auch Tonemapping. Also gibts (mit richtig gewählten Einstellungen) KEINEN UNTERSCHIED zum echten HDR!!

Auch HDR ist mit SM 2.0 möglich. Nur nicht auf bisheriger ATi Hardware.

Ich dachte rthdribl bietet echtes HDR...

deekey777
2005-02-22, 19:28:02
Demirug hat geschrieben, dass alle SM3-Effekte auch in SM2 realisierbar sind (ausser HDR ;) ). Das heisst die Meisten dürfen sich mit einer Graphikqualität zufrieden geben, die eine GF3 auch schafft. Nicht wirklich zufridenstellend, für alle die keine 6600 oder 6800 haben, wenn mehr durchaus möglich gewesen wäre. :(

Demirug hat auch ge-/beschrieben, warum die SC:CT Macher auf SM2.0 Unterstützung verzichtet haben. ;)

Coda
2005-02-22, 19:29:32
Mit anderen Worten beherrst das selbst auf meiner R300 darstellbare "Fake-HDR" nicht nur Glows und Overbright- sondern auch Tonemapping. Also gibts (mit richtig gewählten Einstellungen) KEINEN UNTERSCHIED zum echten HDR!!Das was du bisher an Screenshots gezeigt hast sieht auf jeden Fall nicht danach aus.

Ich sehe da genug falsch überstrahltes Zeug.

Polak
2005-02-22, 19:32:10
Auch HDR ist mit SM 2.0 möglich. Nur nicht auf bisheriger ATi Hardware.
Ist klar. Ich meinte aber das 'echte' HDR, was nur Nvidia auf Grund der FP16-ROPs bieten kann.
Eines fehlt jedwedem Fake-HDR: Der angepasste und erweiterte Dynamikumfang des Bildes.
:up:
Das ist es, was keine ATI zur Zeit bietet, auch wenn wahrscheinlich nur Wenige da beim Spielen Unterschiede sehen würden.

Gasst
2005-02-22, 19:32:32
Auch HDR ist mit SM 2.0 möglich. Nur nicht auf bisheriger ATi Hardware.

Doch ist es schon, aber nur mit erheblichem Mehraufwand durch fehlendes fp16 blending.

deekey777
2005-02-22, 19:32:46
Nein, beim "Project" nicht. Bitte probiert es selbst aus...

Mit anderen Worten beherrst das selbst auf meiner R300 darstellbare "Fake-HDR" nicht nur Glows und Overbright- sondern auch Tonemapping. Also gibts (mit richtig gewählten Einstellungen) KEINEN UNTERSCHIED zum echten HDR!!



Ich dachte rthdribl bietet echtes HDR...

rthdribl bietet echtes HDR.


Dennoch wäre es sehr lieb, wenn jemand mit einer X800er Screenshots an der etwa gleichen Stelle (siehe Mr. Lolmans Screenshots) machen könnte.

Coda
2005-02-22, 19:34:03
Je mehr Power zur Verfügung steht um mit HDR rumzurechnen desto eher wird man es auf jeden Fall sehen.

Zur Zeit ist es auf jeden Fall kein Feature, das der Endkunde wirklich benötigt.

Aber ich kann es mir wenigstens ansehen ;)

Doch ist es schon, aber nur mit erheblichem Mehraufwand durch fehlendes fp16 blending.Oh ja. Die Option mit dem Shadern als Blender hab ich vergessen.

dildo4u
2005-02-22, 19:34:07
Sorry @ Mr.Lolman das hat nichtmal auf den screenshots miteinander zu tun in Bewegung wirds noch eher auffallen.

http://img83.exs.cx/img83/9317/sc3pic13td.jpg


http://img31.exs.cx/img31/5995/30-Demo3.jpg

Mr. Lolman
2005-02-22, 19:36:25
Das was du bisher an Screenshots gezeigt hast sieht auf jeden Fall nicht danach aus.

Ich sehe da genug falsch überstrahltes Zeug.

Ich hab euch die Variablen hingeschireben, da könnt ihr selbst bestimmten wie stark das Zeug überstrahlt werden soll. Es ging mir bei den Screenshots nur darum dass vom normalen/standardmässig aktiven Glowing ein bisschen abzuheben, aber das hab ich eh schon grad vorher geschrieben :|

Sorry @ Mr.Lolman das hat nichtmal auf den screenshots miteinander zu tun in Bewegung wirds noch eher auffallen.



Ich glaub ich red gegen eine Wand. Die Screenshots sind alt und momentan hab ich keine Ati im Rechner, und dynamisch ist auf jeden Fall, und bei weitem besser als bei dem SC3 Pfusch.
Ich zeig euch meinetwegen eine Stelle in der Höhle wo man merkt, dass das tonemapping bei Sc3 tw. völlig widersprüchlich arbeitet (müsst ihr aber auch selbst auprobieren, wegen Scrteenshots und Dynamic und so...), im Ggs zu dem Pseudo HDR bei "the Project"...

Polak
2005-02-22, 19:37:04
Je mehr Power zur Verfügung steht um mit HDR rumzurechnen desto eher wird man es auf jeden Fall sehen.

Ack.
Jedoch finde ich es zur Zeit besser Pseudo-HDR zu verwenden,weil es weniger Performance kostet und man einfach mehr Kunden bedient. Vom fehlendem AA mal abgesehen. ;)

Nazar
2005-02-22, 19:38:13
Ein SM2 Pfad würde übrigens an der Performance gegenüber dem SM3 Pfad auch nichts ändern den berechnet werden muss das ganze so oder so.

What he says?
Bezogen auf das thema, willst du uns was damit sagen?

Also, da es egal wäre ob SM2 oder 3 nimmt man lieber SM3 weil der markanteil der karten bei gerademal 10% liegt und spart (deiner meinung nach ;)) auch noch entwicklungskosten! :|

Aber mal spass beiseite.

Das nun so zu erklären, dass eine logik darin zu erkennen wäre, ist unmöglich... jegliche hier veranstalteten versuche sind schlicht lächerlich.

Entwicklungskosten oder "Valve hat ja auch künstlich versucht..."
Ihr müsstest euch mal selbst zuhören.
Mit vernunft oder finanzpolitik ist diese sache nicht zu erklären.

Einfach den release abwarten und sollte es sich bewahrheiten einfach nicht kaufen.

Coda
2005-02-22, 19:39:15
Jedoch finde ich es zur Zeit besser Pseudo-HDR zu verwenden,weil es weniger Performance kostet und man einfach mehr Kunden bedient.Finde ich nicht. Der Pseudo-HDR Overbright Filter ist einfach nur hässlich. Den kann man nichtmal dezent einsetzen.
Sowas wie in SC3 ist damit nicht möglich. Den Klotz-HDR Filter von FC kann man damit vielleicht halbwegs ersetzen.

Mr. Lolman
2005-02-22, 19:40:29
Finde ich nicht. Der Pseudo-HDR Overbright Filter ist einfach nur hässlich. Den kann man nichtmal dezent einsetzen.
Sowas wie in SC3 ist damit nicht möglich. Den Klotz-HDR Filter von FC kann man damit vielleicht halbwegs ersetzen.


Probiers erstmal aus!!!!

Coda
2005-02-22, 19:41:53
Ich hab schon zur Genüge mit "Project" rumgespielt.

dildo4u
2005-02-22, 19:42:22
Probiers erstmal aus!!!!
Wenns auf den screenshots schon shice aussieht wirds sich das in Bewegung sicher nicht bessern.

Mr. Lolman
2005-02-22, 19:42:42
Ich hab schon zur Genüge mit "Project" rumgespielt.

Ok wenn ich das Zeug auf meiner 64MB 9500 zum laufen krieg, post ich ein paar bessere Screenshots...

Mr. Lolman
2005-02-22, 19:44:21
Wenns auf den screenshots schon shice aussieht wirds sich das in Bewegung sicher nicht bessern.

Variablen heissen deswegen Variablen, weil sie variabel sind. d.h. man kann sie ändern...


:ucrazy4:

Nazar
2005-02-22, 19:45:42
SM 3.0 kann alles was SM 2.0 kann und erheblich mehr, was die Arbeit einfacher macht, aber auf keinen Fall schwerer.



Es gab diverse berichte von programmierern, in denen diese sagten, dass das progrmammieren vom SM3.0 features viel aufwändiger sei als das der 2.0 features.

Und wo habe ich gesagt das SM2.0 mehr kann als SM3.0.
Du solltest mir keine worte in den mund legen!
Bleib beim thema und lass deine unterstellungen! :mad:

dildo4u
2005-02-22, 19:45:59
Variablen heissen deswegen Variablen, weil sie variabel sind. d.h. man kann sie ändern...


:ucrazy4:
Schön und warum wurde das dann von Crytek nicht direkt eingebaut wenn das richtig eingestellt alles bisher dagewesene in den schatten stellt?

Demirug
2005-02-22, 19:46:05
Was ich an deiner aussage nicht verstehe ist der kostenfaktor!

1. auch experimente kosten geld oder siehst du das anders!

2. SM2.0 ist bekannt und leichter zu handhaben als 3.0!

3. ist es finanzpolitisch schlecht 90% der NICHT 3.0 besitzer vor den kopf zu stossen!

Ich glaube du solltest dir deine aussagen nochmals überlegen.. du widersprichst dir in deiner aussage!

1. Nein, aber die Kosten fallen auf jeden Fall an wenn ich Eyecandy brauche.

2. Falsch. SM3 ist einfacher und dazu lernen muss man auch nichts weil es ja bei HLSL bleibt.

3. 90%? Wie kommst du auf diese Zahl. Der größte Teil der SM2 Karten Besitzer wissen gar nicht so genau was sie da im Rechner haben. Diesen wird auch gar nicht auffallen das sie was vorenthalten bekommen. Ein weitere Teil glaubt blind dem Hersteller das man die Effekte eben nur auf einem NV40 bekommen kann.

Mr. Lolman
2005-02-22, 19:49:18
Schön und warum wurde das dann von Crytek nicht direkt eingebaut wenn das richtig eingestellt alles bisher dagewesene in den schatten stellt?

Hm, beim Wasser schein irgendso ne komische Fliesentextur durch (sieht man auch am letzten Screenshot) und dieses durchsichtige Monster wird imo auch nicht ganz astrein dargestellt wird (sondern zu hell). Also wahrscheinlich einfach weils irgendwie buggy is (zumindest auf meiner r300) ...

Quasar
2005-02-22, 19:49:26
Ich zeig euch meinetwegen eine Stelle in der Höhle wo man merkt, dass das tonemapping bei Sc3 tw. völlig widersprüchlich arbeitet (müsst ihr aber auch selbst auprobieren, wegen Scrteenshots und Dynamic und so...), im Ggs zu dem Pseudo HDR bei "the Project"...

Sicherlich - es gibt Fehler im HDR in SC:CT. So strahlt bsw. der Himmel draussen manchmal, als würde er angeleuchtet.

Wer's nicht mag, braucht's ja nicht benutzen. Kann ja jeder selbst entscheiden, ob er lieber Eye-Candy oder viel AA/AF in hohen Auflösungen fährt.

mapel110
2005-02-22, 19:50:02
What he says?
Bezogen auf das thema, willst du uns was damit sagen?

Es ging um den sm3-pfad ohne HDR, den SC3 bietet (glaube ich zumindest).

Demirug
2005-02-22, 19:51:57
What he says?
Bezogen auf das thema, willst du uns was damit sagen?

Also, da es egal wäre ob SM2 oder 3 nimmt man lieber SM3 weil der markanteil der karten bei gerademal 10% liegt und spart (deiner meinung nach ;)) auch noch entwicklungskosten! :|

Aber mal spass beiseite.

Das nun so zu erklären, dass eine logik darin zu erkennen wäre, ist unmöglich... jegliche hier veranstalteten versuche sind schlicht lächerlich.

Entwicklungskosten oder "Valve hat ja auch künstlich versucht..."
Ihr müsstest euch mal selbst zuhören.
Mit vernunft oder finanzpolitik ist diese sache nicht zu erklären.

Einfach den release abwarten und sollte es sich bewahrheiten einfach nicht kaufen.

Was ich damit sagen wollte ist das eine SM2 Lösung auch nicht performanter wäre als die SM3 Lösung welche bei SC3 zum Einsatz kommt. Eher im Gegenteil weil man bei SM2 (vorallem bei 2.0) bei manchen Shader wieder hätte tricksen müssen.

Mr. Lolman
2005-02-22, 19:52:46
Sicherlich - es gibt Fehler im HDR in SC:CT. So strahlt bsw. der Himmel draussen manchmal, als würde er angeleuchtet.

Wer's nicht mag, braucht's ja nicht benutzen. Kann ja jeder selbst entscheiden, ob er lieber Eye-Candy oder viel AA/AF in hohen Auflösungen fährt.


Seh ich auch so.

Mr. Lolman
2005-02-22, 19:53:34
Ok wenn ich das Zeug auf meiner 64MB 9500 zum laufen krieg, post ich ein paar bessere Screenshots...


LOOOL, das rennt ja tatsächlich :eek: :ekk: :eek:

Und garnichtmal so langsam... :biggrin:

Polak
2005-02-22, 19:57:59
Was ich damit sagen wollte ist das eine SM2 Lösung auch nicht performanter wäre als die SM3 Lösung welche bei SC3 zum Einsatz kommt. Eher im Gegenteil weil man bei SM2 (vorallem bei 2.0) bei manchen Shader wieder hätte tricksen müssen.
Wer hätte das gedacht? ;D
Ist doch klar, dass SM3 vieles beschleunigen kann. Siehe FC.
Es geht ja nicht um Speed, sondern um die Effekte, die User, welche keine SM3-Karte haben, um Jahre in der BQ zurückwerfen.. :(

Demirug
2005-02-22, 20:00:56
Wer hätte das gedacht? ;D
Ist doch klar, dass SM3 vieles beschleunigen kann. Siehe FC.
Es geht ja nicht um Speed, sondern um die Effekte, die User, welche keine SM3-Karte haben, um Jahre in der BQ zurückwerfen.. :(

Dazu habe ich ja schon gesagt das alles was in SC3 zu sehen ist auch mit SM2 realisierbar wäre. Entsprechenden Mehraufwand vorrausgesetzt.

Polak
2005-02-22, 20:05:34
Dazu habe ich ja schon gesagt das alles was in SC3 zu sehen ist auch mit SM2 realisierbar wäre. Entsprechenden Mehraufwand vorrausgesetzt.
Ja, das hast Du. Kannst Du in etwa abschätzen wie viel Aufwand es wäre einen SM2-Pfad einzubauen.
Mein Posting war auch ein Seitenhieb in Richtung aller, die meinen, dass SM3 schwerer zu programmieren ist. Das ist Unfug.

Demirug
2005-02-22, 20:27:53
Ja, das hast Du. Kannst Du in etwa abschätzen wie viel Aufwand es wäre einen SM2-Pfad einzubauen.
Mein Posting war auch ein Seitenhieb in Richtung aller, die meinen, dass SM3 schwerer zu programmieren ist. Das ist Unfug.

Gib mir 4-6 Wochen und es würde auf 2.X Karten laufen. 2.0 wird aufwendiger. Da man da unter Umständen mehrer FP-Scratchpads braucht würde die Performance stark leiden. Ein Scratchpad ist vielleicht auch für 2.B notwendig. Ich habe die Dependent Levels nicht bei allen Shadern genau überprüft.

dildo4u
2005-02-22, 20:30:38
Dazu habe ich ja schon gesagt das alles was in SC3 zu sehen ist auch mit SM2 realisierbar wäre. Entsprechenden Mehraufwand vorrausgesetzt.
Inklusive HDR mit spielbaren fps?

Demirug
2005-02-22, 20:36:58
Inklusive HDR mit spielbaren fps?

HDR ja. Wie schnell es dann noch ist steht auf einem anderen Blatt. Das kann man schlecht vorhersagen weil es sehr Contentabhängig ist wie teuer die Blending Emulation wird.

Mr. Lolman
2005-02-22, 20:52:29
Inklusive HDR mit spielbaren fps?

Sicha. The Project läuft stellenweise selbst auf meiner 64MB 9500@pro mit spielbaren fps (stw aber auch nur 1fps (@XP2000+,133FSB);))

Hier gibts neue "HDR" Screenshots:

r_HDRBrightThreshold war 1-2 und r_HDRBrightOffset war zw 80 und 120. r_HDRLevel war auf 1. Wenn mans höher stellt (bspw auf 7) muss an Threshold und BightOffset auch etwas höher stellen. Glares wurden deaktiviert

http://img26.exs.cx/img26/6389/demo85fi.th.jpg (http://img26.exs.cx/my.php?loc=img26&image=demo85fi.jpg)

http://img26.exs.cx/img26/7422/demo131mo.th.jpg (http://img26.exs.cx/my.php?loc=img26&image=demo131mo.jpg)

http://img26.exs.cx/img26/341/demo146fz.th.jpg (http://img26.exs.cx/my.php?loc=img26&image=demo146fz.jpg)

(Den hier sichtbaren Effekten kommt man zwar auch mit Glares ziemlich nahe, aber ihr wolltet es ja nicht anders. Die Dynamik müsst ihr euch halt dazudenken :D)

Jesus
2005-02-22, 21:21:28
sehr schön so hab ichs noch nie hinbekommen :)

Und falls mit dynamik gemeint ist dass die Helligkeit angepasst wird wenn man bspw. längere Zeit in einen helles Licht blickt dann trifft das aufs "Projekt" auf jeden Fall zu!

Übrigens wird bei the Project auch FP Rendering benutzt. Zumindest wird eine 512x512er FP Textur benutzt in die das Bild gerendert wird iirc.

reunion
2005-02-22, 22:02:49
Also, da es egal wäre ob SM2 oder 3 nimmt man lieber SM3 weil der markanteil der karten bei gerademal 10% liegt und spart (deiner meinung nach ;)) auch noch entwicklungskosten! :|


Der Marktanteil an SM3.0 fähiger Hardware erreicht aktuell niemals 10%.
Alles über 2-3% würde mich stark wundern.

dildo4u
2005-02-22, 22:48:28
Der Marktanteil an SM3.0 fähiger Hardware erreicht aktuell niemals 10%.
Alles über 2-3% würde mich stark wundern.
6600 6600GT werden schon in vielen neuen Intel PCI-E systemen beim Mediamarkt verkauft und nich nur da.

Tigerchen
2005-02-23, 06:20:36
6600 6600GT werden schon in vielen neuen Intel PCI-E systemen beim Mediamarkt verkauft und nich nur da.

Die haben auch nicht viel vom HDR denke ich mal. Vielleicht mit 640x480 und bilinearem Filter...

LovesuckZ
2005-02-23, 06:44:51
Die haben auch nicht viel vom HDR denke ich mal. Vielleicht mit 640x480 und bilinearem Filter...


Richtig, und nun erkläre mal, warum man für ein paar Freakz mit High - END SM2.x Karten (X800) einen extra SM2.0 Pfad einbauen sollte, da der Rest sowieso zu langsam waere.

Spasstiger
2005-02-23, 08:01:50
Richtig, und nun erkläre mal, warum man für ein paar Freakz mit High - END SM2.x Karten (X800) einen extra SM2.0 Pfad einbauen sollte, da der Rest sowieso zu langsam waere.

Du bezeichnest Radeon X800 Besitzer als Freaks? Du bist ja nett.
Ich würd mir da allein schon wegen dem Parallax-Mapping einen PS2.0-Pfad wünschen. Aber ich denke, diese Diskussion sollte zu einem Ende kommen, ich würde es auch nur mit SM1.1 sehr gerne spielen ;) .

mnbv
2005-02-23, 08:25:52
Du bezeichnest Radeon X800 Besitzer als Freaks? Du bist ja nett.


Das bezieht sich auf die Kaeuferschicht und ist nicht negativ gemeint.
Es soll nur verdeutlichen, wie absurd die Forderung von Tigerchen im Zusammenhang mit dem was er dauernd sagt:
Er meint, man solle einen SM2.0 pfad einbauen, der die selben Effekte erreicht, aber gleichzeitig will er, dass leistungsschwache Hardware bezueglich des Auswahlsmenues eingeschraenkt werden sollen.
Parallelwelt.

LovesuckZ

Quasar
2005-02-23, 08:29:53
Die haben auch nicht viel vom HDR denke ich mal. Vielleicht mit 640x480 und bilinearem Filter...

Die 6600 vermutlich nicht, die 6600GT dagegen liegt oftmals auf dem Level einer 6800nu/nLE/nGT.

Oder hast du dich mit eigenen Augen davon überzeugt? Soweit ich mich erinnere glänzten auch die älteren Splinter Cell Titel selten durch Hi-FPS Gameplay à la Q3-RA.

ShadowXX
2005-02-23, 08:42:23
Es wird hier meiner Meinung nach zuviel auf dem i-Tüpfelchen HDR rumgeritten.

Das HDR sollte mehr als zusätzliches Sahnehäubchen auf den SM3.0-Support rauf gesehen werden.....

Mit nur den SM3.0-Features an, sollte auch eine 6600GT wahrscheinlich sogar die "normale" 6600 keine Probleme haben.

Wie schon erwähnt....bei SM3.0 ohne HDR sind auf einer 6800Ultra locker 1280x1024 mit 4xAA / 8xAF drin.

sm20
2005-02-23, 09:07:56
Richtig, und nun erkläre mal, warum man für ein paar Freakz mit High - END SM2.x Karten (X800) einen extra SM2.0 Pfad einbauen sollte, da der Rest sowieso zu langsam waere.

Also Parallax-Mapping läuft bestimmt mit annehmbaren fps auf FX5900, 9700 usw....

Spasstiger
2005-02-23, 09:08:35
Es wird hier meiner Meinung nach zuviel auf dem i-Tüpfelchen HDR rumgeritten.

Das HDR sollte mehr als zusätzliches Sahnehäubchen auf den SM3.0-Support rauf gesehen werden.....

Mit nur den SM3.0-Features an, sollte auch eine 6600GT wahrscheinlich sogar die "normale" 6600 keine Probleme haben.

Wie schon erwähnt....bei SM3.0 ohne HDR sind auf einer 6800Ultra locker 1280x1024 mit 4xAA / 8xAF drin.

Allerdings gehen die fps auf einer GeForce 6800 Non-Ultra @ 16 Pipes im SM3.0-Pfad in 1280x1024 mit 4xAA und 8:1 bei Deaktivierung aller SM3.0-Extra-Features kaum über den Bereich zwischen 20 und 25 fps hinaus. Gelegentlich sackt die Performance sogar unter 15 fps ab und dann wird das Zielen extrem schwierig. Der Witz ist ja, dass sich an der Performance kaum was ändert, wenn man noch Parallax-Mapping und High-Quality-Softshadows dazu aktiviert.
Richtig flüssig läufts mit der 6800 NU @ 16 Pipes erst in 800x600 ohne AntiAliasing bei Deaktivierung der SM3.0-Features (aber im SM3.0-Pfad). Mit einer GeForce 6600 GT ist man da noch viel mehr angekackt, von daher würde ich nicht aus der Performance der 6800 Ultra auf die Performance der GeForce 6600 GT schließen.

Kann auch sein, dass die Engine einfach schlecht programmiert wurde, jedenfalls kann man erst mit 40-50 fps vernünftig zielen, HL2 dagegen kann man imo auch mit 20 fps noch gut spielen.

P.S.: Ein einfacher Trick ist es, einfach immer mit der Infrarot-Sicht rumzulaufen, konstant 100 fps (scheint wohl auf 100 fps begrenzt zu sein) ;) .

Akira20
2005-02-23, 09:34:07
LOL!!!

Jetzt heulen die ganzen Leute rum, die im Kaufberatungsforum immer
geschrieben haben:
"Kauf dir eine x800 pro und keine 6800 gt, weil SM3-Spiele wird es doch eh erst in "hundert" Jahren geben !"

Na Leute, da habt ihr euch aber verkalkuliert :-P !
Aber schon ein bisschen komisch, dass bei Spielen wie HL2 (die aber für eure Karte optimiert ist) Ihr nicht so einen ausgeprägten Gerechtigkeitssinn habt und an all die benachteiligten GF FX-User denkt. Süss!
Was soll man sagen Valve/Ati haben es eingeleutet (dass Features einfach nicht, aufgrund von Marketing, benutzt werden(=>Fxen=>DX9=>HL2=nicht funzen, warum :ucrazy2: )) und jetzt macht halt UbiSoft/Nvidia das gleiche bei SC3.
Aber heult euch ruhig aus liebe Ati-Ungerechtigkeits-Lakeien ;-) .

MfG
Akira20

sm20
2005-02-23, 09:36:07
Für diesen billigen Flameversuch soll dir die Graka abrauchen :ulol:

Spasstiger
2005-02-23, 09:43:54
Für diesen billigen Flameversuch soll dir die Graka abrauchen :ulol:

:up:
Manche Leute geben halt einfach ihren Senf dazu, ohne sich vorher mit dem Thread beschäftigt zu haben. Aber das Ausgangsposting des Threadstarters ist auch etwas provokant.
Man müsste mal ein Bewertungssystem einführen, so dass in bestimmten Threads nur User schreiben dürfen, die sich durch sinnvolle Postings hervorgetan haben. Aber dann wird hier wohl schnell eine Zweiklassengesellschaft entstehen, fände ich auch nicht schön.

Akira20
2005-02-23, 09:44:53
Für diesen billigen Flameversuch soll dir die Graka abrauchen :ulol:
Dir wünsche ich das gleiche :cool: ...

Aber jetzt mal im ernst.
Bei HL2 geht es den Ati-Usern am Ar*** vorbei, dass z.B. bei der GF 5900 nicht die DX9-Pfade gehen.
Aber bei SC3 springen Sie auf die Barrikaden, dass bei den FXen kein SM2 beutzt wird.
Ich kann so eine "Schein-Sorge" einfach nicht ab haben.
Die ganze Stöhnerei kommt diesmal nur auf weil die Ati-User betroffen sind.
That`s it!

MfG
Akira20

Spasstiger
2005-02-23, 09:46:39
Dir wünsche ich das gleiche :cool: ...

Aber jetzt mal im ernst.
Bei HL2 geht es den Ati-Usern am Ar*** vorbei, dass z.B. bei der GF 5900 nicht die DX9-Pfade gehen.
Aber bei SC3 springen Sie auf die Barrikaden, dass bei den FXen kein SM2 beutzt wird.
Ich kann so eine "Schein-Sorge" einfach nicht ab haben.
Die ganze Stöhnerei kommt diesmal nur auf weil die Ati-User betroffen sind.
That`s it!

MfG
Akira20

Du hast es tatsächlich nicht begriffen. Nun gut, meine Meinung kannst du ein Posting über deinem lesen ;) . Soll aber kein persönlicher Angriff sein. Und nein, ich bin kein ATI-Fanboy, sondern beschäftige mich ausführlich sowohl mit Nvidia als auch mit ATI.

Akira20
2005-02-23, 09:55:00
Du hast es tatsächlich nicht begriffen. Nun gut, meine Meinung kannst du ein Posting über deinem lesen ;) . Soll aber kein persönlicher Angriff sein. Und nein, ich bin kein ATI-Fanboy, sondern beschäftige mich ausführlich sowohl mit Nvidia als auch mit ATI.
Sorry, wenn du aber die Fakten sehen würdest, würdest du sehen, dass die Splinter Cell Reihe immer von X-Box zu Pc portiert wird.
Da die X-Box einen Nvidia-Grafikchip drinnen hat, der zwischen Geforce 3 und Geforce 4 liegt, ist es ganz klar, dass auch nur SM 1.1 unterstützt wird.
Bisher waren auch alle damit zufrieden, aber da jetzt für Nvidia ein SM 3.0-Pfad eingebaut wurde ist die Unzufriedenheit da.
Und ich behaupte jetzt mal ganz einfach: UbiSoft hat nie einen SM2-Pfad drinnen gehabt.
Wozu auch? Das Spiel sieht auch mit SM1.1 sehr gut aus und wozu einen SM2-Pfad einbauen, wenn der Kosten bringt und der "Sponsor" für SM3 zahlt (siehe Problematik bei Valve/HL2).

So ist es halt in der Pc-Spiele-Industrie geworden.
Ich erinnere nur zu gerne an den Shaders Day von Valve, der nur dazu diente
Nvidia in den Dreck zu ziehen.
Sorry, aber Ati und Nvidia nehmen sich in der Hinsicht keinen Deut...


MfG
Akira20

Quasar
2005-02-23, 10:02:17
Bei HL2 geht es den Ati-Usern am Ar*** vorbei, dass z.B. bei der GF 5900 nicht die DX9-Pfade gehen.
Aber bei SC3 springen Sie auf die Barrikaden, dass bei den FXen kein SM2 beutzt wird.
Ich kann so eine "Schein-Sorge" einfach nicht ab haben.
Die ganze Stöhnerei kommt diesmal nur auf weil die Ati-User betroffen sind.

Was ich mich schon seit ich von dieser Splinter-Cell Geschichte weiß, frage, ist, ob die Unzufriedenheitsbekundungen genauso ausgefallen wären und von denselben Personen vorgetragen würden, wenn der SM3-fähige (nehmen wir mal an, er ist's) R520 bereits kaufbar wäre.

Spasstiger
2005-02-23, 10:07:49
Sorry, wenn du aber die Fakten sehen würdest, würdest du sehen, dass die Splinter Cell Reihe immer von X-Box zu Pc portiert wird.
Da die X-Box einen Nvidia-Grafikchip drinnen hat, der zwischen Geforce 3 und Geforce 4 liegt, ist es ganz klar, dass auch nur SM 1.1 unterstützt wird.
Bisher waren auch alle damit zufrieden, aber da jetzt für Nvidia ein SM 3.0-Pfad eingebaut wurde ist die Unzufriedenheit da.

Weiß ich ;) . Wenn du meine Meinung zu dieser Geschichte wissen willst, lies den Thread. Ist mir auch egal. Ich hab nix mehr zu diesem Thema zu sagen.
Auf jeden Fall sehe ich hier keine ATI-User, die sich angepisst fühlen außer vielleicht der Threadstarter (gut, ich hab auch nicht jedes einzelne Posting gelesen).

P.S.: Niemand hält GeForce FX Besitzer davon ab, in HL2 den DX9-Pfad zu benutzen ("mat_dxlevel 90"). Wenn man die Präzision auf fp16 begrenzt (3DAnalyzer), solls auf FX 5900ern sogar ganz ordentlich laufen. Da wurde einfach viel zu viel Wind drum gemacht.

sm20
2005-02-23, 10:14:23
Dir wünsche ich das gleiche :cool: ...

Aber jetzt mal im ernst.
Bei HL2 geht es den Ati-Usern am Ar*** vorbei, dass z.B. bei der GF 5900 nicht die DX9-Pfade gehen.
Aber bei SC3 springen Sie auf die Barrikaden, dass bei den FXen kein SM2 beutzt wird.
Ich kann so eine "Schein-Sorge" einfach nicht ab haben.
Die ganze Stöhnerei kommt diesmal nur auf weil die Ati-User betroffen sind.
That`s it!

MfG
Akira20

Bei HL2 wurde der DX8 Pfad für die FXen (zwangs) eingebaut, weil sie mehr als dürftig ihre Leistung erbrachten. Bist du so blöd oder tust nur so?

In diesem Thema geht es um generelle Ausschließung der meist verfügbaren Karten, also 9500 bis 9800 bei Ati und 5600 bis 5900 bei nv. Kapische?

sm20
2005-02-23, 10:17:22
Was ich mich schon seit ich von dieser Splinter-Cell Geschichte weiß, frage, ist, ob die Unzufriedenheitsbekundungen genauso ausgefallen wären und von denselben Personen vorgetragen würden, wenn der SM3-fähige (nehmen wir mal an, er ist's) R520 bereits kaufbar wäre.

Aber hundertprozentig =) Bei uns zu Hause werkelt eine 9600 und eine 5900XT, weswegen ich ziemlich enttäuscht bin, wo es ohne größeren Aufwand machbar wäre, insbesondere das Parallax-Mapping.

Und nein ich hätte mir kein 520 gekauft, so wie ich noch kein 40 habe :P

Spasstiger
2005-02-23, 10:19:21
Bei HL2 wurde der DX8 Pfad für die FXen (zwangs) eingebaut, weil sie mehr als dürftig ihre Leistung erbrachten. Bist du so blöd oder tust nur so?

Lass dich nicht provozieren, es lohnt sich nicht.
Ich glaube auch nicht an diese tollen Verschwörungstheorien, dass Valve HL2 absichtlich so programmiert hat, dass es auf GeForce FX Karten schlecht läuft. Aus Performancesicht ist es auf jeden Fall eine elegante Lösung, zumindest alle GF FX Karten unter der 5900-Reihe mit dem SM1.1-Pfad laufen zu lassen. Für die FX 5900 Karten wäre aber ein ins Optionsmenü integrierter SM2.0 mixed-mode wünschenswert gewesen. Wegen dieser Benchmarkkacke hat man sich dann aber wohl dagegen entschieden. Dennoch kann jeder User diesen SM2.0 mixed-mode selbst einstellen (siehe mein Posting oben).

mnbv
2005-02-23, 10:41:27
Bei HL2 wurde der DX8 Pfad für die FXen (zwangs) eingebaut, weil sie mehr als dürftig ihre Leistung erbrachten. Bist du so blöd oder tust nur so?


Ja und nun gibt es keinen SM2.x Pfad in SC, weil die Verfuegbaren einfach zu langsam dafuer waeren.
Merkst du, es gibt zwischen HL2 und SC:CT keinen Unterschied bezueglich der Behandlung einer gewissen Kaeuferschicht.
Warum aber gerade jetzt, vorallen ATi- user ihren Unmut kundtun, grenzt an eine Parallelwelt, war es doch diese Gruppe*, die Valve bei HL² verstanden haetten...

*Mit Tigerchen als Anfuehrer der Speedgeneration, dessen Intention mit diesem Thread doch darauf hinauslaeuft, seine leistungsorientiere Argumentationskette zu zerstoeren.

LovesuckZ

Grestorn
2005-02-23, 10:47:31
Für die FX 5900 Karten wäre aber ein ins Optionsmenü integrierter SM2.0 mixed-mode wünschenswert gewesen. Wegen dieser Benchmarkkacke hat man sich dann aber wohl dagegen entschieden. Dennoch kann jeder User diesen SM2.0 mixed-mode selbst einstellen (siehe mein Posting oben).Na, das ist aber nicht sonderlich schlüssig.

Valve kann es ziemlich egal sein, wie schnell eine bestimmte Option mit einer GraKa ist (so lange die Default-Einstellung spielbar ist). Schließlich wird eine 9200 oder eine GF 4 MX auch rumzuckeln, wenn ich 1600x1200 mit 4xAA und 8xAF einstelle, trotzdem kann ich das machen, wenn ich will.

Den einzigen, den schlechte Benchmarkwerte interessieren, ist nVidia. Und Deine Vermutung würde dann ja bedeuten, dass Valve auf die Bitte von nVidia hin den 9.0 Modus für FX Karten gesperrt hat. Und das ist einfach nur absurd.

sm20
2005-02-23, 10:49:49
Ja und nun gibt es keinen SM2.x Pfad in SC, weil die Verfuegbaren einfach zu langsam dafuer waeren.
Merkst du, es gibt zwischen HL2 und SC:CT keinen Unterschied bezueglich der Behandlung einer gewissen Kaeuferschicht.
Warum aber gerade jetzt, vorallen ATi- user ihren Unmut kundtun, grenzt an eine Parallelwelt, war es doch diese Gruppe*, die Valve bei HL² verstanden haetten...

*Mit Tigerchen als Anfuehrer der Speedgeneration, dessen Intention mit diesem Thread doch darauf hinauslaeuft, seine leistungsorientiere Argumentationskette zu zerstoeren.

LovesuckZ

LOL, Lovesuckz, du solltest wirklich lesen und verstehen, was Demi schreibt (oder die anderen Gurus diesbezüglich schreiben). Viel Glück, vielleicht klappt´s nächstes mal :uup:

mnbv
2005-02-23, 10:58:38
LOL, Lovesuckz, du solltest wirklich lesen und verstehen, was Demi schreibt (oder die anderen Gurus diesbezüglich schreiben). Viel Glück, vielleicht klappt´s nächstes mal :uup:

Nur zwei seiner Zitate aus dem Spielethread:

"Kompilieren könnten Ubi sie schon. Nur sind da Shader dabei die sich aufgrund iheres Resourcensbedarfs in der jetzigen Form nur für SM3 erfolgreich kompilieren lassen. Zudem würden die Besitzer von SM2 Karten damit auch nicht glücklich werden. Die Dinger wären verdammt langsam."

"In diesem Fall wird wenn man die Shader sieht schnell klar warum Ubi die nur ungern auf 2.0/2.X portieren wollte. Für die SM3 Variante müssen die Änderungen an der Engine minimal gewesen sein. Eine SM2/SM2.X Version hätte größere Veränderungen an der Engine und dem Toolchain nach sich gezogen. Eine mögliche Quick and Dirty Lösung hätte sich auch nicht gelohnt weil diese saumässg performt hätte."

Valve hat sich nicht die Mühe gemacht einen optimierten FX Pfad (immerhin besitzt wahrscheinlich jeder zweite DX9 Kartenbesitzer eine FX Karte) einzubauen, warum sollte sich also Ubisoft die Mühe machen, einen optimierten SM2.x Pfad zu zufügen, wenn nur ein paar "Freakz" davon profitieren, da andere Karten zu langsam dafür waeren?

LovesuckZ

Spasstiger
2005-02-23, 11:01:09
Den einzigen, den schlechte Benchmarkwerte interessieren, ist nVidia. Und Deine Vermutung würde dann ja bedeuten, dass Valve auf die Bitte von nVidia hin den 9.0 Modus für FX Karten gesperrt hat. Und das ist einfach nur absurd.

Nein, Valve hat sich dagegen entschieden, damit es nachher nicht heißt, sie würden die GeForce FX Karten künstlich ausbremsen (was es dann trotz alledem geheißen hat, allerdings auf die Features bezogen).
Viele Magazine würden eben HL2 mit dem SM2.0-Pfad auf den FX-Karten testen, wenn er offiziell in den Optionen zur Verfügung stehen würde. Und auch im mixed-mode liegen hier die FX5900-Karten noch leicht hinter einer Radeon 9600 Pro (wobei es immer noch doppelt so schnell ist wie im fp32-Modus). Und so würde man schon eine sehr große Käuferschicht (nämlich die GF FX Besitzer) komplett vergraulen.
Valve profitiert doch nur davon, wenn alle gängigen Grafikkarten das Spiel flüssig darstellen und auch die ganzen Hardware- und Spielemagazine diese Feststellung machen. Denn 90% der Käufer von HL2 sind Laien, die den Magazinen blind vertrauen.

Und wer sich intensiver mit der Materie beschäftigt und an den DX9-Features interessiert ist, kann wie gesagt dennoch den DX9-Pfad aktivieren.

Imo war es eine sinnvolle Entscheidung von Valve (sowohl performancetechnisch als auch marketingtechnisch), wenn auch mit Kompromissen verbunden.

sm20
2005-02-23, 11:08:35
Und wer sich intensiver mit der Materie beschäftigt und an den DX9-Features interessiert ist, kann wie gesagt dennoch den DX9-Pfad aktivieren.

Imo war es eine sinnvolle Entscheidung von Valve (sowohl performancetechnisch als auch marketingtechnisch), wenn auch mit Kompromissen verbunden.

Genau, sinvoller Kompromiss. Wer will kann in SC3 Parallax Mapping zu schalten.

Lovesucksz, das bezieht sich auf HDR ;(

Grestorn
2005-02-23, 11:09:55
Nein, Valve hat sich dagegen entschieden, damit es nachher nicht heißt, sie würden die GeForce FX Karten künstlich ausbremsen (was es dann trotz alledem geheißen hat, allerdings auf die Features bezogen).
Entschuldige, das ist aber absurd.

Wenn ich mich entscheiden müsste, mir vorwerfen zu lassen, dass eine FX unter meinem Spiel mit 9.0 zu langsam ist (was inzwischen akzeptierte Tatsache ist) oder mir vorwerfen zu lassen, dass eine FX mit meinem Spiel kein 9.0 kann (was einfach nicht stimmt), so werde ich doch immer das erste "Übel" wählen, es sei denn, ich habe noch andere Gründe.

Nein nein, ihr könnt reden so viel ihr wollt, ich sehe keinen argumentativ begründbaren Grund, DX 9 für FX Karten zu sperren, außer diese Karten schlechter dastehen zu lassen.

Das hat nichts mit Fanboyismus zu tun, wäre es anders rum, würde ich genau so argumentieren (wenn z.B. SC3 einen SM2.0 Modus für R420 und FX Karten eingebaut hätte, dieser aber nicht bei R3xx Karten auswählbar wäre).

Grestorn
2005-02-23, 11:12:01
Genau, sinvoller Kompromiss. Wer will kann in SC3 Parallax Mapping zu schalten.Das ist doch nicht euer Ernst? Was ist bitte daran ein sinnvoller Kompromiss, eine Option zu SPERREN, so dass nur noch Experten sie freischalten können?

Kompromiss zu welcher schlechteren Alternative denn?

sm20
2005-02-23, 11:21:50
Das ist doch nicht euer Ernst? Was ist bitte daran ein sinnvoller Kompromiss, eine Option zu SPERREN, so dass nur noch Experten sie freischalten können?

Kompromiss zu welcher schlechteren Alternative denn?

Stehst du auf den Schlauch???

Wenn das P-M langsam sein soll, weswegen man es nicht den 90 Prozent der eingebauten Karten zumuten will, was ich übrigens nicht glaube, dann soll es über eine *.ini console whatever machbar sein. Bei HL2 kann ich das auch und nein, ich bin kein "Eksperte" :P

Spasstiger
2005-02-23, 11:26:00
Nein nein, ihr könnt reden so viel ihr wollt, ich sehe keinen argumentativ begründbaren Grund, DX 9 für FX Karten zu sperren, außer diese Karten schlechter dastehen zu lassen.

Entschuldigung, aber du machst einen leicht paranoiden Eindruck auf mich. Du glaubst doch nicht ernsthaft, dass alle Programmierer bei Valve in eine groß angelegte Verschwörung gegen Nvidia verwickelt sind? Das sind ganz normale Menschen wie du und ich, die ihr Bestes geben. Nun wurde eben festgestellt, dass ihre Engine schlecht auf GeForce FX Karten läuft (was damit zu tun haben könnte, dass sie schon Monate vor Release der GF FX Karten mit einer DX9-Karte von ATI entwickeln konnten). Und wenn die Engine mal im Großen und Ganzen steht und man stolz ist auf die geleistete Arbeit, wird man wohl kaum wieder komplett von vorne anfangen, nur damit die Engine auch auf GraKas gut läuft, die ohne eine Performanceschwäche unter DirectX 9 haben.
Woher sollten denn die Programmierer von Valve wissen, dass die GF FX karten so schlecht performen würden?
Das einzige was man Valve vorwerfen kann ist, dass sie zu lange gebraucht haben, bis das Game dann tatsächlich fertig war. Die Engine war meiner Einschätzung nach schon Ende 2002 fertig.

Quasar
2005-02-23, 11:34:18
Was hat dann Valve davon abgehalten, dasselbe wie die SC:CT-Macher zu tun?

Grestorn
2005-02-23, 11:40:04
Stehst du auf den Schlauch???

Wenn das P-M langsam sein soll, weswegen man es nicht den 90 Prozent der eingebauten Karten zumuten will, was ich übrigens nicht glaube, dann soll es über eine *.ini console whatever machbar sein. Bei HL2 kann ich das auch und nein, ich bin kein "Eksperte" :P

Wieso meinst Du ich steh auf dem Schlauch?

Wie war noch mal die Begründung, warum die DX 9 Option für FX Karten nicht auswählbar ist?

Weil es zu langsam ist? Ah ja. Und warum darf ich dann 1600x1200 in 8xAF und 4xAA auswählen?

Dass der Experte die Option direkt in die .ini Datei eintragen kann, ist schön, aber in welcher Weise ändert das was an der bewussten Entscheidung, eine Option dem Normalanwender ohne vernünftigen Grund vorzuenthalten? Bei anderen GraKas muss ich ja auch nicht in die .ini, um diese Option einzustellen.

sm20
2005-02-23, 11:48:45
Was hat dann Valve davon abgehalten, dasselbe wie die SC:CT-Macher zu tun?

Sie haben den "Eye Candy Modus" (tm) für alle Grafikkarten integriert. In der Praxis stellte sich eine verminderte Leistungsfähigkeit dieser, woraufhin man temporär ein Fallback einbaute, die beabsichtigte Funktion aber drin ließ.

Bei Ubi geht man anderen weg: könnte langsamer sein, wir müssten noch einen zusätzliche Compilerlauf machen, scheiss drauf. Warum? Faul? Unfähig?

Grestorn
2005-02-23, 11:49:43
Entschuldigung, aber du machst einen leicht paranoiden Eindruck auf mich. Du glaubst doch nicht ernsthaft, dass alle Programmierer bei Valve in eine groß angelegte Verschwörung gegen Nvidia verwickelt sind? Nein, ganz sicher nicht. Ich würde auch jeden Betrag verwetten, dass diese Entscheidung nicht auf dem Mist eines Entwicklers gewachsen ist, sondern eine bewusste Vorgabe aus dem Management war.

Ich bin bestimmt kein Verschwörungstheoretiker, ganz im Gegenteil. Aber in diesem Fall sind die Fakten absolut eindeutig. Ich bin selbst Entwickler, und mir fällt kein Grund ein, der mich dazu bringen könnte, eine solche Entscheidung zu treffen, es sei denn Druck von oben.

Nun wurde eben festgestellt, dass ihre Engine schlecht auf GeForce FX Karten läuft (was damit zu tun haben könnte, dass sie schon Monate vor Release der GF FX Karten mit einer DX9-Karte von ATI entwickeln konnten). Und wenn die Engine mal im Großen und Ganzen steht und man stolz ist auf die geleistete Arbeit, wird man wohl kaum wieder komplett von vorne anfangen, nur damit die Engine auch auf GraKas gut läuft, die ohne eine Performanceschwäche unter DirectX 9 haben.
Was soll denn diese Argumentation? Sollen sie doch per Default auf DX8.1 stehen lassen, damit sind schonmal 90% der Anwender, die eh nie in die Advanced Optionen schauen, zufriedengestellt.

Das Thema Wassershader möchte ich hier gar nicht aufmachen, da gabs schon andere Threads. Komisch nur, dass FX User mit ein paar Tricks fast die selbe Qualität wie DX9.0 bekommen, ohne dass die Performance deutlich darunter leidet. Ich geh mal davon aus, was ein paar Typen in der Community können, können die Valve Entwickler schon lange. Wenn man sie nur ließe.

Woher sollten denn die Programmierer von Valve wissen, dass die GF FX karten so schlecht performen würden? Wiebitte? Erstens wussten sie ganz sicher, dass FX Karten mit komplexen Shadern nicht gut klar kommen, und zweitens hat dies doch nichts damit zu tun. R9600SE kommen auch nicht besonders gut mit voll aufgedrehten Optionen klar, kann man sie deswegen nicht trotzdem aktivieren?

Spasstiger
2005-02-23, 12:01:56
Wiebitte? Erstens wussten sie ganz sicher, dass FX Karten mit komplexen Shadern nicht gut klar kommen, und zweitens hat dies doch nichts damit zu tun. R9600SE kommen auch nicht besonders gut mit voll aufgedrehten Optionen klar, kann man sie deswegen nicht trotzdem aktivieren?

Wie sollten sie zu einem Zeitpunkt wissen, als der GeForce FX noch gar nicht fertig war (sagen wir Mitte 2002, als sie nur ATI-DX9-Hardware zu Verfügung stehen hatten), dass der GF-FX derart schlecht mit DX9 performen würde? ATI hat halt die Gunst der Stunde genutzt und Valve damals mit der neuesten Technologie bestückt. Ich glaube nicht, dass hier großartig vom Management aus Druck gemacht wurde. Sonst würde sich sicherlich schon einer der Programmierer dazu geäußert haben quasi ein "Aussteiger" (es ist ja nicht so, dass bei Valve nur zwei, drei absolut loyale Freaks hocken, sondern es sind dutzende Programmierer an der Entwicklung beteiligt gewesen).

Übrigens läuft HL2 auch auf einer Radeon 9600 SE in 1024x768 noch annehmbar, im vollwertigen DX9-Pfad immer noch schneller als mit einer GeForce FX 5950 Ultra (siehe hier (http://www.digit-life.com/articles2/digest3d/1204/itogi-video-hl1-wxp-1024.html) ). Mit 34 fps im Schnitt kann man imo jedenfalls noch ganz gut zocken.

Demirug
2005-02-23, 12:05:02
Bei Ubi geht man anderen weg: könnte langsamer sein, wir müssten noch einen zusätzliche Compilerlauf machen, scheiss drauf. Warum? Faul? Unfähig?

Wenn ein zusätzlicher Compilerlauf gereicht hätte dann wäre es sicherlich drin. Da sind aber Shader dabei die lassen sich nicht für ein 2.0/2.X Target compilieren.

Grestorn
2005-02-23, 12:05:27
Übrigens läuft HL2 auch auf einer Radeon 9600 SE in 1024x768 noch annehmbar, im vollwertigen DX9-Pfad immer noch schneller als mit einer GeForce FX 5950 Ultra (siehe hier (http://www.digit-life.com/articles2/digest3d/1204/itogi-video-hl1-wxp-1024.html) ). Mit 34 fps im Schnitt kann man imo jedenfalls noch ganz gut zocken.
Mit 6xAA und 16xAF in 1600x1200? Ich glaube nicht.

Quasar
2005-02-23, 12:08:22
Sie haben den "Eye Candy Modus" (tm) für alle Grafikkarten integriert. In der Praxis stellte sich eine verminderte Leistungsfähigkeit dieser, woraufhin man temporär ein Fallback einbaute, die beabsichtigte Funktion aber drin ließ.
Ich nehme an, damit beziehst du dich auf Valve?

Bei Ubi geht man anderen weg: könnte langsamer sein, wir müssten noch einen zusätzliche Compilerlauf machen, scheiss drauf.
Bei Ubisoft ging man den Weg, per default für alle Karten den schnellen (selbst das stimmt nur bedingt ;)) SM1.1-Pfad festzulegen. Erst über die Auswahl per Menü kommt man zum SM3-Pfad.

Warum? Faul? Unfähig?
Bugdet? Vielleicht können wir uns für den Anfang darauf einigen, daß zumindest der SM1.1-Pfad ursprünglich und vorhanden war, da SC:CT für die XBox entwickelt wurde.

Und wo wir grad dabei sind: Warum entfernte Valve den im September 2003 durchaus noch vorhandenen mixed-mode für die GeForceFX, der sie laut eigenen, gern zitierten Angaben bereits fünfmal soviel Zeit gekostet hatte, wie der Standard-Modus?

Mr. Lolman
2005-02-23, 12:11:14
Keiner hätte sich aufgeregt, wenn Valve nix von irgendeinem Mixedmode gelabert hätte. Keiner hätte sich aufgeregt. wenn im Options Menü bei den FX Karten der (eh nicht auswählbare) DX Modus garnicht angezeigt geworden wäre?

Warum?

Weil DX8 bei Hl² sau schnell rennt (ja die FXen sind damit fast so schnell wie R3x0 Karten mit DX9) und sehr gut aussieht.


Bei SC3 wurde erst damit argumentiert, dass die R3x0 eh kein HDR können, und nachdem dass von mir mit schönen Screenshot widerlegt wurde, interessierts aufeinmal keinen, und man macht sich wieder über die ATI User lustig, da die kein Problem damit haben, dass FXen bei HL² nur DX8 bekommen (ich als 6800GT User reg mich da eher auf, dass ein 6800U SLI System bei HL² gerade mal die Leistung einer x850XTpe erreicht, und eine einzelne 6800U gerademal halbsoschnell ist)

Schautmal liebe FX Heinis, ihr habt die möglichkeit den HL² Pfad selbst zu wählen und weil das dann aber eh zum abkotzen langsam ist, gibts sogar noch das DX9 Wasser als inoffiziellen Patch zum DX8 Modus...

Meinetwegen soll der Demi da wirklich nen saumässig performenden Quick&Dirty Hack machen, denn immerhin wär das dann der Ansatzpunkt für andere den Pfad weiter zu optimieren.. Und die HL² Geschichte ist eigentlich lächerlich und hat hier nixj zu suchen, denn 6800GT bekommen eh DX9 ab. Die Parallelität zur aktuellen Situation mit SC3 wär eigentlich nur dann gegeben wenn NV40 KArten auch keni DX9 abbekämen, oder rendern könnten weil die Shader z.B. nach "the Project" Art zusammengeschustert wurden, so dass sich NV Karten daran verschlucken...

Es ist imo ne Sauerei, denn so ein Verhalten lasst dann wieder die Leute lautstark darüber diskutieren, warum die lahmen ATi Teile keine scheisse zu programmierendes SM2 abbekommen. Das Crytek HDR, Tonemapping, Glares und bei passendem Content auch Parralaxmapping auch auf meinen 64MB Teil (größtenteils halbwegs flüssig darstellen kann) interessiert hier eh keinen, weils ja irgendwie Toll ist eine Karte zu haben die mit 1280 und 4xAA/8xAF rendern kann wenn man spezielle Spielefeateres deaktiviert, die extra für die GraKa geschireben wurden...

Wie kann man nur zufrieden sein, mit dem was da als SC3 abgeliefert wird. Das Tonemapping ist unter aller Sau. Die HW Schatten funktionieren nur tw. mit 70er Treiberm (rennt mal länger damit herum irgnedwann sind die Schatten alle kaputt) und bei 1280 und allen aktivierten Features krebst man mit ner selbst mit ner 6800UE mit 15-25fps herum. SChön wie alle immer posaunt haben, dass in SM3 die zukunft liegt, und FC nur so langsam ist, weil Crytek nicht proggen kann, und wie die Leute ausgelacht wurden, die behauptete haben, dass es wahrscheinlich nicht an der App sondern an den GraKas liegt, dass SM3 so saumässig performed

(ja ich weiss was sm3 ist, und weiss auch dass es nicht langsamer als sm2 ist, und deswegen auch die performance nicht schlecht ist, aber die performance müsste noch viel höher sien, dass die karten diese pseudo sm3 onlyeffeke auch schnell an den bildschirm bringen)

Ich versteh halt nur nicht, warum ich 400€ für ne GraKa ausgegebn hab und dann ruckelt der Scheiss auch noch, sobald ich die modernen grakaspezifischen sm3 Renderpfade aktivier.

Analogie zu HL²: Hätt ich damals ne FX im Rechner gehabt wär mir eher die üble Performance aufgestossen als vll. ein leicht schlechter dargestelleter effekt (DX8<>DX9 ist bei HL² bei weitem nicht so groß wie SM1.1 vs. SM3 bei SC3)-> Bei SC3 hats keinen Sinn über die mögliche Performance eines SM2 Hacks zu diskutieren, weil wohl keiner weiss wie der wirklich performed so langs ihn nicht tatsächlich gibt. Und dass NV40 Karten auch leicht in die Bredouille gebracht werden können erkennt wohl jeder, der mal Doublecross aufm NV40 laufen lassen hat. Meine 6800GT @ 400/550 stellenweise um nix schneller als ne 9700p@400/350!!!!! :eek:

Spasstiger
2005-02-23, 12:14:11
Mit 6xAA und 16xAF in 1600x1200? Ich glaube nicht.

Nein, das nicht, aber wenigstens mit allen Effekten, die Valve eingebaut hat. Solange eine Grafikkarte ein Spiel in 1024x768 ohne AntiAliasing, aber mit 4:1 anisotropem Filtern mit durchschnittlich über 30 fps darstellt, ist sie in diesem Spiel schnell genug für den Durchschnittszocker. Eine hohe Auflösung und AntiAliasing sind Qualitätsoptionen, die den Kauf einer High-End-Karte rechtfertigen sollen und eben nicht von jedem gewünscht werden.
Grafische Features zählen für den Durchschnittszocker aber mehr.
Außerdem kostet ein Monitor, der eine Auflösung von 1600x1200 ohne Unschärfe hinbekommt, eine ganze Stange Geld und wird somit nur von den Leuten gekauft, die sich auch eine High-End-Grafikkarte leisten.

sm20
2005-02-23, 12:17:07
Wenn ein zusätzlicher Compilerlauf gereicht hätte dann wäre es sicherlich drin. Da sind aber Shader dabei die lassen sich nicht für ein 2.0/2.X Target compilieren.

Du sagtest was von 6 Wochen für HDR auf Ati mit wahrscheinlich schlechter Performance.

Was ist aber mit Parallex Mapping? Das dürfte mit Sicherheit nicht so aufwändig sein?

Quasar
2005-02-23, 12:20:48
Keiner hätte sich aufgeregt, wenn Valve nix von irgendeinem Mixedmode gelabert hätte. Keiner hätte sich aufgeregt. wenn im Options Menü bei den FX Karten der (eh nicht auswählbare) DX Modus garnicht angezeigt geworden wäre?
Hätte, wäre, wenn...
Wer weiß, vielleicht wäre die Rezeption von 1/4-Life auch positiver gewesen, wenn nicht im Vorfeld dieser Siebenmillionendeal zwischen ATi und Valve durchgesickert wäre... wer weiß?


Warum?
Weil DX8 bei Hl² sau schnell rennt (ja die FXen sind damit fast so schnell wie R3x0 Karten mit DX9) und sehr gut aussieht.
Ich sehe eine Analogie.... *Glaskugel_betatscht*
Der SM1.1-Modus in SC:CT rennt auch schnell und sieht g00t aus.


Bei SC3 wurde erst damit argumentiert, dass die R3x0 eh kein HDR können, und nachdem dass von mir mit schönen Screenshot widerlegt wurde,[...]
Du weißt genau, daß niemand den Radeons grundsätzlich das HDR abspricht. Nur die Art des HDR, also mit Blending, FP16-Buffer usw., wie es Far Cry und SC:CT nutzen, ist da eben nicht drin.

Und deine diesbezüglichen Screenshots (FP16-Buffer, erhöhter Dynamikumfang) habe ich wohl verpasst...

Mr. Lolman
2005-02-23, 12:21:42
Ich nehme an, damit beziehst du dich auf Valve?
Und wo wir grad dabei sind: Warum entfernte Valve den im September 2003 durchaus noch vorhandenen mixed-mode für die GeForceFX, der sie laut eigenen, gern zitierten Angaben bereits fünfmal soviel Zeit gekostet hatte, wie der Standard-Modus?


Hie gehts zwar nicht um, HL² und es wurde imo auch schon oftgenug durchgekaut, aber der Mixedmode ist insofern unnütz, wenn dX8 fast das gleiche bei deutlich besserer Performance darstellt.


Demi hats eh gemeint, dass Opik/fps verhältnis wird immer schlechter, weil die einzlenen Effekte immer aufwändiger zu berechnen werden ohne dass der optische zugewinn besonders groß ist. HL² ist eigentlich ein DX6 Spiel mit DX7/8/9 Effekten. Die Leute die gemeint haben, dass ein eigener Renderpfad (bei Doom³) der Kongruenz der Engine entgegenwirkt, könnten das auch bei HL² meinen. Der aktuelle Dx9 Pfad ist ja auch nix anderes als ein Mixedmode. genauso wie der Dx8 und DX7 Pfad. Warum nochmehr mixedmodes, wenn nur die Performance schlechter wird, bei äusserst geringem optischen zugewinn.

Ich glaub ein paar Leute haben sich immernoch nicht damit abgefunden, dass FX Karten für DX9 Shader eine suboptimale Basis bilden...


Valve hätte nur ihre Frexxe halten müssen, und normalerweise macht man das ja auch als Entwickler. Vll. gabs aber einen Vertrag zw Ati und Valve nachdem Valve in min. 2 Statements NV aus der Sicht eines SW Entwicklers schlecht darstehen lassen musste. (oder sie waren einfach blöd)

sm20
2005-02-23, 12:22:44
Ich sehe eine Analogie.... *Glaskugel_betatscht*
Der SM1.1-Modus in SC:CT rennt auch schnell und sieht g00t aus.


Da genau das zweite nicht zutrifft, gibt es diesen Thread.

Quasar
2005-02-23, 12:24:20
Was sieht denn daran nicht gut aus? Die meisten Leute sind mit der Optik mehr als zufrieden, wenn du mal in die Gamerforen schaust.

Gaestle
2005-02-23, 12:24:32
Wenn ein zusätzlicher Compilerlauf gereicht hätte dann wäre es sicherlich drin. Da sind aber Shader dabei die lassen sich nicht für ein 2.0/2.X Target compilieren.

Was ich noch gerne dazu wissen würde, weil ich's noch nicht abschließend gerafft habe:
- bezieht sich diese Aussage auch auf die SM1.1 Sachen (was mir unlogisch erscheinen würde - evtl. ggf. kurze Erklärung??), oder nur auf das Zeug, was jetzt via SM3 realisiert wurde :confused:


Ach und noch was an die MOD's:
Könnte man nicht einen Technik-Thread machen? So einen Merge aus dem Thread im Spiele-Forum und diesem hier, allerdings könnte man vorher vielleicht die HL2 Diskussion und den Flame-Schnullie rausnehmen? DAs würde die Sache IMHO übersichtlicher machen...

Grüße

mnbv
2005-02-23, 12:26:42
Ich glaub ein paar Leute haben sich immernoch nicht damit abgefunden, dass FX Karten für DX9 Shader eine suboptimale Basis bilden...


Und andere damit, dass sie eine technologisch unterentwickelte Karte gekauft haben, die nicht dauernd bevorzugt wird ;)

LovesuckZ

Grestorn
2005-02-23, 12:26:43
Hie gehts zwar nicht um, HL² und es wurde imo auch schon oftgenug durchgekaut, aber der Mixedmode ist insofern unnütz, wenn dX8 fast das gleiche bei deutlich besserer Performance darstellt. Tut es nicht, auf FX kann man ohne Tricksen keine vernünftigen Wasserreflexionen aktivieren. Das nenne ich nicht "fast das gleiche".

Ein paar Fans kriegen das mal eben so nebenher hin. Und die hatten nicht den Engine-Source zur Verfügung und kannten alle Abhängigkeiten und Verfahren.

Quasar
2005-02-23, 12:27:17
Valve hätte nur ihre Frexxe halten müssen, und normalerweise macht man das ja auch als Entwickler.
Und wieder einmal: Hätte, wäre, wenn...
Ich glaub ein paar Leute haben sich immernoch nicht damit abgefunden, dass FX Karten für DX9 Shader eine suboptimale Basis bilden...
Meinst du, derlei Sticheleien bringen irgendjemanden hier weiter?

Grestorn
2005-02-23, 12:28:25
Da genau das zweite nicht zutrifft, gibt es diesen Thread.
Im Gegensatz zu HL2, wo man auf FX Karten nur Schlammwasser bekommt, sieht der SM 1.1 Modus von SC sehr gut aus. Wenn man nicht wüsste, dass es einen 3.0 Modus gibt, würde einem nichts abgehen.

(Und jetzt bitte kein, "wenn man nicht wüsste, dass das Wasser auch reflektieren kann...").

Mr. Lolman
2005-02-23, 12:29:58
Ein paar Fans kriegen das mal eben so nebenher hin. Und die hatten nicht den Engine-Source zur Verfügung und kannten alle Abhängigkeiten und Verfahren.

Ja irgendein Unterschied muss es doch geben zw. DX8 und DX9. Ich könnt auch in Q3a eine (wasserlose) HL² Szene nachbasteln, so dass es meine Voodoo5 mit guter Performance rendern kann. Ok die Bumps wären dann nicht mehr dynamisch, aber das sieht ja eh keiner auf screenshots ;)

Grestorn
2005-02-23, 12:30:06
Ich glaub ein paar Leute haben sich immernoch nicht damit abgefunden, dass FX Karten für DX9 Shader eine suboptimale Basis bilden...An wen genau denkst Du denn mit diesem Satz, hm?

Tigerchen
2005-02-23, 12:30:33
Was ich mich schon seit ich von dieser Splinter-Cell Geschichte weiß, frage, ist, ob die Unzufriedenheitsbekundungen genauso ausgefallen wären und von denselben Personen vorgetragen würden, wenn der SM3-fähige (nehmen wir mal an, er ist's) R520 bereits kaufbar wäre.

Keiner ist generell gegen SM 3.0. Warum wird einem das immer wieder unterstellt?
Die Frage ist ob ich es gut finden muß wenn Goodiies eingebaut werden die 98% der PC-Nutzer gar nicht erreichen?
Bei HL² wurden ja erheblich mehr Kunden erreicht und Zufriedengestellt mit SM 2.0 und sehr schönem und schnellem "Fake-HDR".(Ähnliches gilt für KOTOR)
Wenn irgendwann mal die Basis an SM 3.0 Karten so breit ist wie heute bei SM 2.0fähigen Karten ist das natürlich kein Thema mehr. Nur mit dem Erscheinen des R520 ist das noch lange nicht erreicht. Das dauert seine Zeit. Ich schätze auch der R520 kann nur in der sündhaft teuren Edelversion alle Effekte gleichzeitig und schnell genug darstellen. Das nutzt mir wenig....

Grestorn
2005-02-23, 12:33:10
Ja irgendein Unterschied muss es doch geben zw. DX8 und DX9. Ich könnt auch in Q3a eine (wasserlose) HL² Szene nachbasteln, so dass es meine Voodoo5 mit guter Performance rendern kann. Ok die Bumps wären dann nicht mehr dynamisch, aber das sieht ja eh keiner auf screenshots ;)
Du meintest eben, der Mixed-Mode hätte eh nichts gebracht, deswegen wäre er verworfen worden. Es hätte also nichts gebracht, die Modifikation, die die Community entwickelt hat, bereits direkt so oder ähnlich in HL2 einzubauen, ist das Deine Meinung?

sm20
2005-02-23, 12:34:03
Im Gegensatz zu HL2, wo man auf FX Karten nur Schlammwasser bekommt, sieht der SM 1.1 Modus von SC sehr gut aus. Wenn man nicht wüsste, dass es einen 3.0 Modus gibt, würde einem nichts abgehen.

(Und jetzt bitte kein, "wenn man nicht wüsste, dass das Wasser auch reflektieren kann...").

Danke, herzlich gelacht. Schön wenn du im gleichen Beitrag deine Argumente entkräftest.

Mr. Lolman
2005-02-23, 12:34:16
Und deine diesbezüglichen Screenshots (FP16-Buffer, erhöhter Dynamikumfang) habe ich wohl verpasst...

Vom FP16 Buffer hab ich nie was geschrieben, aber anscheinend ist der auch nicht notwendig:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2761277#post2761277

Und wieder einmal: Hätte, wäre, wenn...

Wenns wahr ist...

Meinst du, derlei Sticheleien bringen irgendjemanden hier weiter?
Ist doch so, oder bist du der Meinung dass FX Karten doch ne optimale Basis für DX9 darstellen?

Dr Hake
2005-02-23, 12:35:07
IMO kann man die Situation von HL2 nicht mit der von SCIII vergleichen aus folgendem Grund:
-HL2 ist ein DX9 Spiel mit einem Fallback Modus fuer langsame/nicht DX9 faehige Karten, wobei hier DX9 fuer die DX9 Mindestanforderung steht
-SCIII ist ein technologisch rueckstaendiges DX8 Spiel mit ein paar Zutaten fuer das mometane Flaggschiff des Sponsors.
Bei beiden sehe ich kein Problem

sm20
2005-02-23, 12:35:44
Was sieht denn daran nicht gut aus? Die meisten Leute sind mit der Optik mehr als zufrieden, wenn du mal in die Gamerforen schaust.

Du findest sicherlich die erste Seite des Themas, da sind die Unterschiede verlinkt, ich denke, die sieht man sogar mit einer aufgesetzten Rosabrille.

sm20
2005-02-23, 12:39:34
Keiner ist generell gegen SM 3.0. Warum wird einem das immer wieder unterstellt?
Die Frage ist ob ich es gut finden muß wenn Goodiies eingebaut werden die 98% der PC-Nutzer gar nicht erreichen?
....


Tigerchen, versuche es nicht, du bist doch der böse Ati-Fanboy der uns den ersten Flamethread im neuen Jahr beschert hat. Nochmal danke dafür :uwave:

Grestorn
2005-02-23, 12:40:13
Danke, herzlich gelacht. Schön wenn du im gleichen Beitrag deine Argumente entkräftest.
Ich habe das geschrieben, weil es einfach absurd ist, den Verlust von Wasserreflektionen auf die selbe Stufe wie den Verlust der Soft-Shadows in SC3 gleichzustellen.

Danke herzlich gelacht. Das sich tatsächlich jemand nicht zu schade war, diese Absurdität als Argument zu eigen zu machen.

Demirug
2005-02-23, 12:45:14
Du sagtest was von 6 Wochen für HDR auf Ati mit wahrscheinlich schlechter Performance.

Was ist aber mit Parallex Mapping? Das dürfte mit Sicherheit nicht so aufwändig sein?

Das ist ein Gesamtkomplex da kann man nicht so ohne weiteres was rausstückeln.

Quasar
2005-02-23, 12:45:59
Keiner ist generell gegen SM 3.0. Warum wird einem das immer wieder unterstellt?
Wer tut denn sowas?

Die Frage ist ob ich es gut finden muß wenn Goodiies eingebaut werden die 98% der PC-Nutzer gar nicht erreichen?
Sind 90% nicht erreichte PC-Nutzer denn soviel besser?
Und ja, ich finde es gut, wenn Goodies genutzt werden - egal wer die dann nutzen kann. Technologie braucht Fortschritt. Und was passiert, wenn Features nicht oder kaum genutzt werden, sieht man ja - IHVs haben keine Motivation mehr, statt auf Balkenlänge auf schöne Pixel hinzuarbeiten.


Bei HL² wurden ja erheblich mehr Kunden erreicht und Zufriedengestellt mit SM 2.0 und sehr schönem und schnellem "Fake-HDR".(Ähnliches gilt für KOTOR)

Stimmt - HL2 hatte ja auch noch einen DX7-Modus, über denn eine Riesenmenge Kunden erreicht wurde. Ansonsten erreicht man mit SM1.1 mind. den Kundenkreis, den man mit SM2.0 auch erreichen würde.

Fake HDR gab es bereits 2001 im 3DMurks2001.... nennt sich auch "overbright lighting" und ist mit jeder DX8-Karte zu haben - evtl. sogar mit DX7.

Ich schätze auch der R520 kann nur in der sündhaft teuren Edelversion alle Effekte gleichzeitig und schnell genug darstellen. Das nutzt mir wenig....[/COLOR]
Süss.

sm20
2005-02-23, 12:46:05
Ich habe das geschrieben, weil es einfach absurd ist, den Verlust von Wasserreflektionen auf die selbe Stufe wie den Verlust der Soft-Shadows in SC3 gleichzustellen.

Danke herzlich gelacht. Das sich tatsächlich jemand nicht zu schade war, diese Absurdität als Argument zu eigen zu machen.

Warst dir anscheinend nicht zu schade, dieses ins Feld zu führen. Komm, laß gut sein, da kommst nicht mehr raus.
:ulol4:

sm20
2005-02-23, 12:48:59
Das ist ein Gesamtkomplex da kann man nicht so ohne weiteres was rausstückeln.
Beides sind Beleuchtungsoperation(?), sind sie aber notwendigerweise koexistent?

Grestorn
2005-02-23, 12:50:56
Warst dir anscheinend nicht zu schade, dieses ins Feld zu führen. Komm, laß gut sein, da kommst nicht mehr raus.
:ulol4:Wem gehen hier die Argumente aus und muss mit LOL-Smilies um sich werfen, hm?

MarcWessels
2005-02-23, 12:53:04
Mit 34 fps im Schnitt kann man imo jedenfalls noch ganz gut zocken.

*brech* :eek: 34fps IM SCHNITT?!?? Hallo? Da wird Deine Framerate des Öfteren auf 20 oder niedriger fallen!! :| :confused:

On Topic-> Was soll die Aufregung? Jeder, der ein Fan von SC ist, wird schon dafür Sorge tragen, dass er die Fortsetzung seines Lieblings zocken kann - ob nun mithilfe aktueller Hardware oder verringerter Details. Die NV40-User freuen sich über die Möglichkeit, noch ein bißchen mehr EyeCandy dazuschalten zu können - who cares?

Demirug
2005-02-23, 12:56:14
Was ich noch gerne dazu wissen würde, weil ich's noch nicht abschließend gerafft habe:
- bezieht sich diese Aussage auch auf die SM1.1 Sachen (was mir unlogisch erscheinen würde - evtl. ggf. kurze Erklärung??), oder nur auf das Zeug, was jetzt via SM3 realisiert wurde :confused:

Das SM1.1 würfelt die Effekte aus vielen Shadern zusammen (leicht mal 6 für ein Objekt). Da funktionieren die üblichen Passreduktionsmodele nicht mehr weil sie für eine derartige Menge nicht ausgelegt sind. Da müsste man wieder was eigenes entwickeln. In Summe ist es aber dann einfacher von SM3 auf SM2 herunter zu portieren.

btw: Die von mir aufgeführte Quick und Dirty Lösung funktioniert sicher nur mit SM2.A. Bei SM2 geht sie nicht weil dort die Shaderlänge nicht ausreicht und SM2.B könnte Probleme wegen den Dependent Reads bekommen. Da bin ich mir bei ein paar der Shader nicht ganz sicher ob die 4 Level reichen.

Mr. Lolman
2005-02-23, 12:57:48
. Die NV40-User freuen sich über die Möglichkeit, noch ein bißchen mehr EyeCandy dazuschalten zu können - who cares?

Der jenige der merkt, dass seine 400€ Karte nicht alle Effekte flüssig darstellen kann, und dann noch derjenige, der merkt, dass seine genausoteuere Karte diese Effekte garnicht darstellen kann, weil sich die Progger keinen Bock hatten einen SM2 Pfad einzubauen...

Demirug
2005-02-23, 12:58:04
Beides sind Beleuchtungsoperation(?), sind sie aber notwendigerweise koexistent?

Ubi hat das aber bei SM3 alles in Universalshader zusammengefasst. Deswegen ist ja auch die Portierung auf SM2 dermassen komplex.

Grestorn
2005-02-23, 13:00:45
btw: Die von mir aufgeführte Quick und Dirty Lösung funktioniert sicher nur mit SM2.A. Bei SM2 geht sie nicht weil dort die Shaderlänge nicht ausreicht und SM2.B könnte Probleme wegen den Dependent Reads bekommen. Da bin ich mir bei ein paar der Shader nicht ganz sicher ob die 4 Level reichen.
Wenn sich diese Probleme als nicht lösbar herausstellen sollten, wäre eine Umsetzung eh ziemlich akademisch. Die einzigen Karten, die etwas davon hätten, sind dann die NV3x. Und die sind wohl eh zu langsam.

Wie groß meinst Du denn, wäre der Aufwand für die Entwickler selbst, wenn diese das richtig und nicht "Quick and Dirty" machen würden? So, dass es auch unter 2.0b läuft, damit die R3xx und R4xx etwas davon haben?

Mr. Lolman
2005-02-23, 13:00:49
btw: Die von mir aufgeführte Quick und Dirty Lösung funktioniert sicher nur mit SM2.A. Bei SM2 geht sie nicht weil dort die Shaderlänge nicht ausreicht und SM2.B könnte Probleme wegen den Dependent Reads bekommen. Da bin ich mir bei ein paar der Shader nicht ganz sicher ob die 4 Level reichen.


Dann kann man sich die eigentlich sparen, denn auf ner FX hat man wohl am wenigsten vom neuen SM2.0 Pfad. (Soll heissen, dass ich bei denen schon stark am Zweifeln bin, ob das überhaupt auch nur irgendwie annhähernd flüssig darstellbar wäre) Bei ner x850xtpe bestünde wohl noch ein bisschen mehr Hoffnung...


/edit: Grestorn war schneller :)

Grestorn
2005-02-23, 13:02:52
Der jenige der merkt, dass seine 400€ Karte nicht alle Effekte flüssig darstellen kann, und dann noch derjenige, der merkt, dass seine genausoteuere Karte diese Effekte garnicht darstellen kann, weil sich die Progger keinen Bock hatten einen SM2 Pfad einzubauen...
Das ist Rhetorik und Agitation auf niedrigem Niveau.

Du weißt sehr wohl, dass man die Auflösung und AF so weit reduzieren kann, dass es spielbar ist. Diese Argumentation war schon so oft, dennoch wird sie immer wiederholt. Ich frage mich, warum.

"Wenn ich was nicht haben kann, dann muss es beim anderen wenigstens ruckeln, sonst ist mein Weltbild nicht in Ordnung!".

Spasstiger
2005-02-23, 13:03:59
*brech* :eek: 34fps IM SCHNITT?!?? Hallo? Da wird Deine Framerate des Öfteren auf 20 oder niedriger fallen!! :| :confused:


Das war auf den Durchschnittszocker bezogen. Wenn du etwas von mit zitierst, dann bitte so, dass der Sinn erhalten bleibt.

Mr. Lolman
2005-02-23, 13:06:21
Wenn ich was nicht haben kann, dann muss es beim anderen wenigstens ruckeln, sonst ist mein Weltbild nicht in Ordnung!".


Sry, da hast du mich missverstanden. Ich würde mich freuen, wenn ich SC3 in meiner nativen TFT Auflösung (1280) mit allen Details flüssig spielen könnte. Und für die x800 User find ichs schade, dass sie nichtmal die Möglichkeit haben über die Auflösung zu bestimmen, wie schnell die neusten Eyecandys vorbeiflutschen, da die eh auf den alten SM1.1 X-Box Pfad zurückgreifen müssen.

Demirug
2005-02-23, 13:08:52
Wenn sich diese Probleme als nicht lösbar herausstellen sollten, wäre eine Umsetzung eh ziemlich akademisch. Die einzigen Karten, die etwas davon hätten, sind dann die NV3x. Und die sind wohl eh zu langsam.

Wie groß meinst Du denn, wäre der Aufwand für die Entwickler selbst, wenn diese das richtig und nicht "Quick and Dirty" machen würden? So, dass es auch unter 2.0b läuft, damit die R3xx und R4xx etwas davon haben?

Lösbar ist alles. Notfalls müssen halt ein paar Scratchpads benutzt werden.

Wie gesagt gehe ich von 4 bis 6 Wochen reine Entwicklungszeit aus. Allerdings fehlt dabei noch die Qualitätssicherung.

sm20
2005-02-23, 13:09:43
Ubi hat das aber bei SM3 alles in Universalshader zusammengefasst. Deswegen ist ja auch die Portierung auf SM2 dermassen komplex.

Also doch der Weg des geringsten Widerstandes bzw die Unlust der Coders, der eine nv40 Anpassung vornahm. Denn, wenn ich dich richtig verstanden habe, wären die Anweisungen auch in zwei verschiedenen Shaderprogrammen möglich.

Grestorn
2005-02-23, 13:16:24
Sry, da hast du mich missverstanden. Ich würde mich freuen, wenn ich SC3 in meiner nativen TFT Auflösung (1280) mit allen Details flüssig spielen könnte. Und für die x800 User find ichs schade, dass sie nichtmal die Möglichkeit haben über die Auflösung zu bestimmen, wie schnell die neusten Eyecandys vorbeiflutschen, da die eh auf den alten SM1.1 X-Box Pfad zurückgreifen müssen.
Ich habe natürlich nichts dagegen, wenn ein SM 2.0(b) Modus eingebaut wird, der möglichst viele (oder alle) Effekte darstellen kann.

Es wurde ja immer und immer wieder behauptet, dass alles, was man mit SM 3.0 machen kann, auch mit 2.0 geht.

Das mag ja in der Theorie stimmen. Die Theorie sagt auch, dass mit jeder Turing-vollständigen Maschine jeder Algorithmus realisiert werden kann.

Auch wenn es theoretisch möglich ist, muss das noch nicht heißen, dass es auch sinnvoll ist und sich wirtschaftlich rechnet.

Wenn Ubisoft Know How für zukünftige Spiele aufbauen will, ist eine Beschäftigung mit SM 3.0 für sie sehr sinnvoll, wenn es auch momentan vielleicht nicht viele Kunden dafür gibt (wobei: Ich hätte mir SC3 wohl nicht gekauft, die ersten beiden Teile fand ich nur "ok", aber jetzt sieht es anders aus. Mag vielleicht anderen auch so gehen).

Demirug
2005-02-23, 13:16:26
Also doch der Weg des geringsten Widerstandes bzw die Unlust der Coders, der eine nv40 Anpassung vornahm. Denn, wenn ich dich richtig verstanden habe, wären die Anweisungen auch in zwei verschiedenen Shaderprogrammen möglich.

Zwei reichen nicht. Da sind Shader dabei bei der ein SM3 Shader funktional 65536 SM2.A Shader entspricht. Bei 2.0/2.B könnten (bei 2.0 auf jeden Fall)es aufgrund notwendingen Multipass Splits noch mehr werden.

Es sind wenn ich mich nicht verzählt habe 3 solcher Pixelshader enthalten.

Ubi setzt hier massiv auf Übershader was bei SM3 auch das richtige Konzept ist. Nur ist es eben für Shadermodele < 3 absolut nicht zu gebrauchen.

Spasstiger
2005-02-23, 13:19:20
Mal ne Frage abseits vom Shadergedöhns:
Wie kann ich die Performance auf meiner Radeon 9700@Pro verbessern hat einer schon ein paar tolle Tricks raus? Ich habs in 800x600 mit 4-fach AntiAliasing und 4:1 ansisotropem Filtern im SM1.1-Pfad angezockt und eigentlich läufts ok beim Rumlaufen (20-30 fps). Nur das Aimen geht sowas von furchtbar langsam und verzögert, dass es keinen Spass macht. Mit der Infrarotsicht dagegen läuft alles super und das Aiming klappt bestens (ist natürlich auf keinen Fall eine Lösung).
800x600 ganz ohne AntiAliasing will ich mir auch nicht antun. Und 1024x768 ohne AA läuft auch nicht besser als 800x600 mit 4xAA.
Auf der GeForce 6800 NU (16 Pipes) läufts auch nicht viel besser. Wenn man da 40-50 fps und damit ein halbwegs ordentliches Aiming will, muss man auch auf 800x600 runtergehen und die SM3.0-Effekte und AntiAliasing abschalten. Jedoch sieht 800x600 ziemlich sch... aus auf dem 17" TFT, der an der GF 6800 hängt. In 1280x1024 läuft keine Einstellung so gut, dass man da halbwegs flüssig aimen könnte (auch nicht, wenn die fps im Bereich von 30 liegen).

Mr. Lolman
2005-02-23, 13:21:07
Ubi setzt hier massiv auf Übershader was bei SM3 auch das richtige Konzept ist. Nur ist es eben für Shadermodele < 3 absolut nicht zu gebrauchen.

Die hätten imo weniger massiv auf uberschader setzen sollen, dann wär die SM2 Portierung einfacher gewesen, und die Grafik flüssiger...

Demirug
2005-02-23, 13:23:25
Die hätten imo weniger massiv auf uberschader setzen sollen, dann wär die SM2 Portierung einfacher gewesen, und die Grafik flüssiger...

Übershader sind halt so schön günstig in der Entwicklung...

Wieso flüssiger?

deekey777
2005-02-23, 13:24:45
Zurück zum Thema:



Vor kurzem ging ein Aufschrei der Empörung durch die versammelte Gemeinde der GeForceFX User als sie hören mußten daß VALVE ihren Grafikkarten den SM 2.0 Genuß vorenthält. Nun trifft GeForceFX User der nächste Schlag. Ihnen wird SM 2.0 im dritten Teil von Splinter Cell vorenthalten! Statt dessen wird ein SM 3.0 Support eingebaut den nur ein Bruchteil der User nutzen kann. Die enorme Basis der SM 2.0 Karten (man bedenke nur die Zahl der verkauften nV FX5200 Karten) bleibt außen vor. Statt dessen hat man HDR welches laut Aussage einiger nV40 User zu brutalen Performanceeinbrüchen führt und Anti-Aliasing verunmöglicht. Da darf man sich also aussuchen auf welches qualitätssteigernde Feature man verzichten "darf". Wer also hat was von diesem Support? Ubisoft hat jedenfalls nichts davon da man sich die Gemeinde der SM 2.x User verprellt. Lediglich nV darf sich die Hände reiben. Schließlich gieren die richtig harten SM 3.0 Verfechter ja schon danach ein Spiel in die Hände zu kriegen welches beweist daß...tjaaa...was eigentlich???
Daß heute eine 6800GT trotz aller Filteroptimierungen nicht ausreicht um ein popeliges Spiel wie Splinter Cell mit allen Details darzustellen?
Daß Ubisoft nicht in der Lage ist gewisse Effekte auch mit hardwareschonenden Verfahren darzustellen (HL² kann es!)?

Nur eins ist sicher, mein Geld kriegt Ubisoft nicht!



Könntest du, wenn's möglich wäre, aufzählen, um was die Besitzer von SM2.0 fähiger HW genau beschissen werden?
HDR gibt's nicht, wurde schon mehrmals erklärt, warum. Aber weißt du uU auch, was zusätzlich fehlt - und warum?



Würdest du endlich darauf eingehen? Oder bin ich auf deiner Ignoreliste?

sm20
2005-02-23, 13:25:38
Die hätten imo weniger massiv auf uberschader setzen sollen, dann wär die SM2 Portierung einfacher gewesen, und die Grafik flüssiger...

Nein, das ist schon sinnvoll, das ist doch das Ziel von sm3. Nur sollte ein fähiger Programmier in angemessener Zeit, im Vergleich mit Erstellung des Übershader, in der Lage sein, mit c&p diesen in 5 bis 7 einzelne für sm2.x zu zerlegen.

Mr. Lolman
2005-02-23, 13:26:35
Wieso flüssiger?

Flüssiger insofern, dass man sich für die kürzeren Schader halt irgendwo ne reflexion hätte sparen können, was sich dann wohl in etwas Mehrperformance geäussert hätte.


/edit: Ich frag mich nämlich schon die ganze Zeit ob man NV40 Karten nicht bessere Performance hätte beschehren können, ohne dass die Grafik gleich viel schlechter wirkt. Oder ist das tatsächlich schon das A&O was man als NV40 User bei künftigen SM30 Spielen in Sachen Grafik/Performance erwarten darf...

Demirug
2005-02-23, 13:29:51
Nein, das ist schon sinnvoll, das ist doch das Ziel von sm3. Nur sollte ein fähiger Programmier in angemessener Zeit, im Vergleich mit Erstellung des Übershader, in der Lage sein, mit c&p diesen in 5 bis 7 einzelne für sm2.x zu zerlegen.

65536! Viel Spass das macht keiner mehr händisch. Zudem muss man dafür auch noch die Engine selbst erweitern so das sie dann auch den richtigen Shader nimmt.

Grestorn
2005-02-23, 13:30:45
Nein, das ist schon sinnvoll, das ist doch das Ziel von sm3. Nur sollte ein fähiger Programmier in angemessener Zeit, im Vergleich mit Erstellung des Übershader, in der Lage sein, mit c&p diesen in 5 bis 7 einzelne für sm2.x zu zerlegen.Hat Demirug nicht was von 65000 geschrieben, die jeweils aus 3 Shadern erzeugt werden müssten?

Natürlich werden die nicht von Hand geschrieben, sondern generiert, aber mehr als 5-7 sind's allemal :)

/edit: zuuuuu langsam!

Demirug
2005-02-23, 13:32:47
Flüssiger insofern, dass man sich für die kürzeren Schader halt irgendwo ne reflexion hätte sparen können, was sich dann wohl in etwas Mehrperformance geäussert hätte.

Bei Übershadern werden doch die nicht benötigten Berechnungen schon via statischem Branching übersprungen. Statisches Branching ist im Vergleich zum dynamischen problemloss benutztbar. Auf diese Weise lässt sich also nicht wirklich was holen.

sm20
2005-02-23, 13:45:24
65536! Viel Spass das macht keiner mehr händisch. Zudem muss man dafür auch noch die Engine selbst erweitern so das sie dann auch den richtigen Shader nimmt.

65536?

Hier http://www.infiscape.com/rd.html (PDF) ist ein Beispiel für Bump mit Parallax Mapping. Aufwändig, aber das das keiner per Hand macht?

Demirug
2005-02-23, 13:49:24
65536?

Hier http://www.infiscape.com/rd.html (PDF) ist ein Beispiel für Bump mit Parallax Mapping. Aufwändig, aber das das keiner per Hand macht?

Die Shader müssen ja nicht nur das Parallax Mapping machen sonder auch noch den ganzen Rest. Ubi hat dafür wie gesagt entsprechenden Übershader mit Optionen programmiert (es sind 16). Bei 2.X braucht man nun für jede Kombination aus Optionen einen eigenen Shader. Ergo 65536 Stück.

sm20
2005-02-23, 13:55:56
Edit: Dann gibt eine Parallax Mod für Doom3 - http://www.download.com/Doom-3-Parallax-Mapping-mod/3000-7453_4-10310444.html
Dafür hat der Author nicht nur die engine modifiziert, sondern noch content erstellt.

Demirug
2005-02-23, 14:03:13
Edit: Dann gibt eine Parallax Mod für Doom3 - http://www.download.com/Doom-3-Parallax-Mapping-mod/3000-7453_4-10310444.html
Dafür hat der Author nicht nur die engine modifiziert, sondern noch content erstellt.

Das funktioniert so nur bei D3 weil die Shaderimplementierung dort sehr einfach ist. Ein Shader für alles. Das hat dann allerdings zur Folge das für alle Fläche immer das Parallax Mapping berechnet wird. Wenn die Texture dafür keine Höheninformationen enthalten sieht man halt nichts davon aber berrechnet wird es trotzdem.

Bei SC3 würde man mit dieser Methode wohl bei Shadern mit 300-400 Anweisungen enden die für jeden Pixel durchlaufen werden müssten.

Funktioniert also nicht wirklich.

mnbv
2005-02-23, 14:09:05
Die hätten imo weniger massiv auf uberschader setzen sollen, dann wär die SM2 Portierung einfacher gewesen, und die Grafik flüssiger...

Warum waere die "SM2 Portierung" einfacher gewesen?
So wie ich Demirug verstehe, hätte man deutlich mehr Ressourcen aufbringen müssen (Arbeitszeit), um das selbe Ergebnis auch auf einer SM2.x zu erreichen.
Du forderst also, dass der Entwickler nicht auf Tools zurueckgreift, die seine Arbeit erleichtern und willst ihn in seiner "Kreativitaet" einschraenken?

LovesuckZ

Coda
2005-02-23, 14:16:39
Gibt's kein static branching in PS 2.0? Bzw implementiert es denn keine HW (weil in den PS 2.x Specs steht es drin)

Seraf
2005-02-23, 14:17:35
Das funktioniert so nur bei D3 weil die Shaderimplementierung dort sehr einfach ist. Ein Shader für alles. Das hat dann allerdings zur Folge das für alle Fläche immer das Parallax Mapping berechnet wird. Wenn die Texture dafür keine Höheninformationen enthalten sieht man halt nichts davon aber berrechnet wird es trotzdem.

Bei SC3 würde man mit dieser Methode wohl bei Shadern mit 300-400 Anweisungen enden die für jeden Pixel durchlaufen werden müssten.

Funktioniert also nicht wirklich.


Und Parallax Mapping in Doom3 war auch langsam.
Mit dem von dir aufgezeigten Mehraufwand für eine ebenbürdige SM2.X Teil sollte doch klar sein das dies sich für UBI Soft nicht rechnen kann. Anders als Valve, Crytec oder ID verkaufen sie die erweiterte UEngine wahrscheinlich auch nicht weiter. (Dürfen sie wahrscheinlich auch garnicht). Somit würde der erhebliche Mehraufwand an Entwicklungszeit nie mehr hereinkommen.

Demirug
2005-02-23, 14:19:27
Gibt's kein static branching in PS 2.0?

Nur in 2.X als Option. Es gibt aber keinen 2.X Chip der das ganze auch wirklich unterstützt. Ergo erzeugt der Compiler auch keinen 2.X Code welcher statische Branches enthält.

Coda
2005-02-23, 14:19:56
Ok, dann ist SM 3.0 wirklich noch viel sinnvoller als ich bisher annahm.

sm20
2005-02-23, 14:20:41
Das funktioniert so nur bei D3 weil die Shaderimplementierung dort sehr einfach ist. Ein Shader für alles. Das hat dann allerdings zur Folge das für alle Fläche immer das Parallax Mapping berechnet wird. Wenn die Texture dafür keine Höheninformationen enthalten sieht man halt nichts davon aber berrechnet wird es trotzdem.

Bei SC3 würde man mit dieser Methode wohl bei Shadern mit 300-400 Anweisungen enden die für jeden Pixel durchlaufen werden müssten.

Funktioniert also nicht wirklich.

Ok, also sieht deswegen die xbox Version so schwach aus, weil hier so gut wie nichts gegenüber SC1 geändert wurde? Man hat nur shader für night, infrarot und normal vision? Der Aufwand wurde nicht getrieben, weil man noch mit der Engine weiter arbeiten will, also more SC?

Falls offtopic bitte ins Spieleforum verschieben.

sm20
2005-02-23, 14:22:44
Und Parallax Mapping in Doom3 war auch langsam.

Nach den Statemments der nv40 Benutzer rennt SC3 auch nicht gerade wie ein Porsche 959. Also das kann nicht das Argument sein.

Coda
2005-02-23, 14:23:56
Ohne HDR ist SM 3.0 sehr schnell in Splinter Cell 3.

sm20
2005-02-23, 14:27:41
Ohne HDR ist SM 3.0 sehr schnell in Splinter Cell 3.
Auf der GeForce 6800 NU (16 Pipes) läufts auch nicht viel besser. Wenn man da 40-50 fps und damit ein halbwegs ordentliches Aiming will, muss man auch auf 800x600 runtergehen und die SM3.0-Effekte und AntiAliasing abschalten.
Sieht anders aus, oder?

Demirug
2005-02-23, 14:28:35
Ok, also sieht deswegen die xbox Version so schwach aus, weil hier so gut wie nichts gegenüber SC1 geändert wurde? Man hat nur shader für night, infrarot und normal vision? Der Aufwand wurde nicht getrieben, weil man noch mit der Engine weiter arbeiten will, also more SC?

Falls offtopic bitte ins Spieleforum verschieben.

SM1.1 bei SC3 ist was ganz anderes. Da werden keine Überschader benutzt sondern die Effekte aus einzelnen 1.1 Shaderpasses zusammengestückelt. Das ganze dann natürlich mit entsprechendem Alphablending verbunden.

Quasar
2005-02-23, 14:47:21
Ohne HDR ist SM 3.0 sehr schnell in Splinter Cell 3.
Bei mir sogar schneller als mit SM1.1 - und bietet dabei noch Parallax-Mapping und weiche Schatten.

sm20
2005-02-23, 14:47:56
SM1.1 bei SC3 ist was ganz anderes. Da werden keine Überschader benutzt sondern die Effekte aus einzelnen 1.1 Shaderpasses zusammengestückelt. Das ganze dann natürlich mit entsprechendem Alphablending verbunden.

Sorry, falls ich zu aufdringlich bin. Wie shader model 1 funktioniert begreife ich in etwa. Aber das war nicht die Frage, oder war das die Antwort durch die Blume? ;)

sm20
2005-02-23, 14:52:21
Bei mir sogar schneller als mit SM1.1 - und bietet dabei noch Parallax-Mapping und weiche Schatten.

Da sm1 so gut wie nichts für SC bietet, mit sm3 aber tolle zusätzliche Effekte eingebaut worden sind, müsste es trotz des selbstverständlichen Leistungszuwachses seitens selbigen nicht zu zumindest leichteren Einbüssen kommen? Oder darf ich daraus schließen, daß der nv40 Defizite bei der Rechenleistung mit sm1 hat?

robbitop
2005-02-23, 14:56:29
es wurde schon oft genug dargelegt, dass SM3 auch dazu da sein kann, Shader zu beschleunigen ;)

Demirug
2005-02-23, 15:00:29
Sorry, falls ich zu aufdringlich bin. Wie shader model 1 funktioniert begreife ich in etwa. Aber das war nicht die Frage, oder war das die Antwort durch die Blume? ;)

Was war dann die Frage? Das der SM1.1 Pfad bei SC3 massiv gegenüber den Vorgängern erweitert wurde hatten wir ja schon. 6 Passes für einen einfachen Stein sind schon heftig.

Demirug
2005-02-23, 15:05:15
Da sm1 so gut wie nichts für SC bietet, mit sm3 aber tolle zusätzliche Effekte eingebaut worden sind, müsste es trotz des selbstverständlichen Leistungszuwachses seitens selbigen nicht zu zumindest leichteren Einbüssen kommen? Oder darf ich daraus schließen, daß der nv40 Defizite bei der Rechenleistung mit sm1 hat?

Bei SM3 fällt halt der Multipassoverhead von SM1.1 weg.

Quasar hat zudem noch eine relativ langsame CPU die durch SM3 ebenfalls entlastet wird.

sm20
2005-02-23, 15:19:19
Bei SM3 fällt halt der Multipassoverhead von SM1.1 weg.

Quasar hat zudem noch eine relativ langsame CPU die durch SM3 ebenfalls entlastet wird.

Ich mag kein crossposting, also, das ist deine Aussage auf Gnomis Frage http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2746986&postcount=78

Das ist eine gute Frage. Im Vorfeld müsste man zuerst zwei Dinge prüfen.

- Ist SM3 mit allem Optionen deaktiviert optisch mit 1.1 identisch?
- Benutzt die Engine immer noch die SM3 Shader?

Wenn beides gegeben ist dann kommt eine Passreduktion zum Tragen die dazu führen könnte das es schneller ist.

Jetzt doch mit sm3 Effekten noch schneller? Das wundert mich.

Demirug
2005-02-23, 15:26:50
Ich mag kein crossposting, also, das ist deine Aussage auf Gnomis Frage http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2746986&postcount=78


Jetzt doch mit sm3 Effekten noch schneller? Das wundert mich.

Der Post war bevor es jemand nachgemessen hat.

Wie gesagt ist Quasar mit seiner relativ langsamen CPU hier durchaus als Spezialfall zu sehen. Da limitiert beim SM1.1 scheinbar die CPU dermassen das da dann beim SM3 Pfad genügend Luft für die zusätzlichen Effekte entsteht.

robbitop
2005-02-23, 15:36:18
Dann braucht Quasar wohl eine neue CPU :D

OnTopic: kostet SM3 (ohne HDR) also doch Leistung? Und wie viel im Schnitt?

Tigerchen
2005-02-23, 15:44:19
Was war dann die Frage? Das der SM1.1 Pfad bei SC3 massiv gegenüber den Vorgängern erweitert wurde hatten wir ja schon. 6 Passes für einen einfachen Stein sind schon heftig.

Allerdings stellt sich hier die Frage ob das alles so nötig ist?
Hab mich schon bei den anderen Teilen gefragt ob man nicht mit deutlich weniger Aufwand dasselbe erreichen kann. Das ruckelte und zuckelte und man fragte sich immer warum eigentlich? So besonders war die Grafik eigentlich nie und der 2.te Teil war eh nur ein schwarzer Bildschirm. :confused: