PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Shader Modell 3.0 / HDR Spiele 2006


starfighter
2006-03-24, 13:23:22
Hallo,
ich wollte mal wissen welche ZUKÜNFTIGEN Spiele 2006
deutlich von dem Shader Modell 3.0 bzw HDR profitieren, dass aktuelle ATI / Nvidia Karten bieten.

Den bisher bei Spielen sah es ja da eher mau aus.

Vertigo
2006-03-24, 14:06:02
Hallo,
ich wollte mal wissen welche ZUKÜNFTIGEN Spiele 2006
deutlich von dem Shader Modell 3.0 bzw HDR profitieren, dass aktuelle ATI / Nvidia Karten bieten.

Den bisher bei Spielen sah es ja da eher mau aus.
Sorry, aber das hier ist nicht das Hellseherforum. Woher soll hier jemand wissen, was Du unter "deutlich profitieren" verstehst? Ich finde zum Beispiel, dass Far Cry 1.3 deutlich vom SM3 profitiert, genau wie Splinter Cell CT oder Age of Empires 3.

starfighter
2006-03-24, 15:49:59
Genau, du hast es auf den Punkt gebracht, bei diesen Spielen ist es sinnvoll, aber die sind ja alt. Ich meine ja neue
Schlecht bzw. wenig sinnvoll war es bei Riddick, weil es da wenig brachte und sehr viel Performance gekostet hat (ebenso bei FEAR).

Und welche Spiele sind nun angekündigt?

Gast
2006-03-24, 15:56:57
Angekünigt sind:

- teh war of hdr-city
- SadoMazoCity 3.0
- HDR Racer

Nein, im ernst: Welche Spiele welche Techniken unterstützen sieht man doch nicht vorher. Die Hersteller geben meist nur verwendete EngineXYZ bekannt. Und wie dann z.B. HDR implementiert wurde, sieht man auch erst wenn das Spiel released worden ist. Vorher währen das alles Spekulationen (und unpassend hier im Sub-Forum).

Gast
2006-03-24, 16:02:42
ist shader modell 3.0 wirklich besser oder nur ein hardewaregag der industrie um einen neuen verkaufszyklus einzuleiten?

auf allen vergleichsfotos, die ich inzwischen in diversen computerzeitschriften gesehen habe, kam es mir so vor, als ob die bilder mit shader 3.0 qualitativ schlechter waren, als die bilder mit 2.0.
das kann natürlich auch an meinem subjektiven empfinden liegen. aber ich finde nicht, dass die blendeffekte, die mit shader modell 3.0 und hdr möglich werden, zu einer verbesserung der grafik führen. das sieht für mich eher nach einem rückschritt aus: detailreiche texturen werden plötzlich durch völlig überzogene lichtquellen 'überstrahlt'. - resultat: von dem detailreichtum der texturen bleibt so gut wie nichts übrig.

ich kann mir nicht vorstellen, dass das bei 1st-person shootern besonders hilfreich ist. - es mag zwar realistischer sein - aber warum soll man am computer unbedingt die realität nachbauen, wenn man die möglichkeit hat, es besser zu machen?

für perfekte kantenglättung schliesst man ohnehin besser seinen fernseher an den pc an - und schon gibt es keine scharfes bild ...ähhh kanten! mehr. :devil:

Mr.Magic
2006-03-24, 16:12:13
Welches Shadermodel verwendet wird hat nichts mit irgendwelchen Blendeffekten zu tun. Man kann mit SM2 und SM3 genau das gleiche Bild erzeugen, nur bedeutet das unter SM2 mehr (Programmier)Aufwand, mehr Passes und ist damit auch langsamer (zumindest bei einigermaßen aufwändigen Effekten). *AchichhabkeinBockdaswurdeallesschontausendmaldurchgekaut.*

Super-S
2006-03-24, 17:41:43
:cool: Naja, in einigen Previews wird schonmal erwähnt welche Features die Spiele besitzen werden :) ...das hat eigentlich nix mit Hellsehen zu tun.

Bei Splinter Cell CT ... wusste mann schon vorher das es HDRR untersützen wird.

:D Wer mir wiederspricht ...*Kopf-Ab-Modus-An* ....ist erledigt :biggrin: *Modus-Aus*

Gast
2006-03-24, 21:01:10
Welches Shadermodel verwendet wird hat nichts mit irgendwelchen Blendeffekten zu tun.

wie kommt es dann, dass eine namhafte deutsche spiele-zeitschrift zwei screenshots aus dem spiel need for speed veröffentlicht (auf beiden ist ein porsche im wald zu sehen) und auf dem einen bild (sm2) sind alle details sauber zu erkennen, während auf dem zweiten bild (sm3) die sonne derartig krachend durch den wald strahlt, dass einzelne blätter nicht mehr zu erkennen sind?

ok - zugegeben - an deiner theorie ist was dran: eigentlich braucht man überhaupt keine shader, denn jede grafik kann auch ganz alleine von der cpu (dazu ist noch nicht mal eine gpu nötig) gerendert werden. nur hätte man dann eben kein flüssiges spiel.

was ich mit meinem obigen kommentar eigentlich zum ausdruck bringen wollte ist:
ich habe noch kein einziges foto von einem spiel gesehen, auf dem mir dank sm3 eine (auch nur annähernde) verbesserung der grafischen darstellung aufgefallen wäre.
und ich möchte fast wetten, dass mehr als die hälfte von denjenigen, denen man das obige foto mit der frage, welches denn besser aussähe, unter die nase gehalten hätte, auf das weniger bonbon-farbene und wesentlich detailreichere sm2-bild gezeigt hätten.

....krasser satz (fehlt noch'n komma?)

Mr.Magic
2006-03-24, 21:13:29
Da haben die Spacken einfach vergessen bei Most Wanted Bloom zu deaktivieren. Findet man in den Optionen - Bloom -> Off - Big Deal!

Gast
2006-03-24, 21:21:31
wie kommt es dann, dass eine namhafte deutsche spiele-zeitschrift zwei screenshots aus dem spiel need for speed veröffentlicht (auf beiden ist ein porsche im wald zu sehen) und auf dem einen bild (sm2) sind alle details sauber zu erkennen, während auf dem zweiten bild (sm3) die sonne derartig krachend durch den wald strahlt, dass einzelne blätter nicht mehr zu erkennen sind?Kein einziger Teil der Need for Speed Serie bietet einen SM3-Pfad. Da hast du wohl was falsch verstanden. Der Unterschied der gezeigt wurde, war wahrscheinlich Bloom on/off. Das hat aber nichts mit SM3 zu tun und HDR-Rendering ist es auch nicht.

Gast
2006-03-24, 21:25:17
Da haben die Spacken einfach vergessen bei Most Wanted Bloom zu deaktivieren.

das könnte natürlich sein....

ich war ehrlich gesagt ziemlich entsetzt, dass das jetzt shader 3.0 sein sollte
(fingerabdruck auf meiner brille hat nämlich den selben effekt - und kostet nicht so viel, wie eine neue graka)

mal 'ne andere frage:
gibt es irgendwo eine seite, auf der man den unterschied 2.0 / 3.0 mal deutlich sehen kann (screenshots vielleicht) ?

Neomi
2006-03-24, 21:29:41
wie kommt es dann, dass eine namhafte deutsche spiele-zeitschrift zwei screenshots aus dem spiel need for speed veröffentlicht (auf beiden ist ein porsche im wald zu sehen) und auf dem einen bild (sm2) sind alle details sauber zu erkennen, während auf dem zweiten bild (sm3) die sonne derartig krachend durch den wald strahlt, dass einzelne blätter nicht mehr zu erkennen sind?

Das ist so, also ob man 1024er Texturen mit 2048er Texturen vergleicht, indem man eine richtig gute 1024er gegen eine häßliche 2048er Textur vergleicht. Sind jetzt 1024er Texturen grundsätzlich besser als 2048er, bloß weil das Beispiel es so aussehen läßt? Nein.

Bei SM2 vs. SM3 ist es auch so. SM3 kann in JEDER Hinsicht mehr, es gibt keine Nachteile gegenüber SM2. Mit den Bildern, die du angesprochen Hast, wurden nicht zwei Shadermodelle verglichen, sondern zwei Renderpfade. Mit SM2 bist du auf einen (vielleicht subjektiv schöneren) Pfad festgelegt. Mit SM3 hast du die Wahl zwischen beiden.

Mr.Magic
2006-03-24, 21:31:51
Es gibt keinen direkten optischen Unterschied zwischen einem Effekt unter SM2 und SM3. SM3 ist hauptsächlich einfacher zu programmieren und auch schneller (wodurch mehr Effekte gleichzeitig möglich werden). HDR*/Bloom hat allerdings nichts mit dem Shadermodel selbst zu tun. Das haben allerdings die 3D-Gurus schonmal irgenwo in einem Thread erklärt, einfach mal die Suche benutzen.

*manchmal auch als HDRR bezeichnet, verstehe ich zwar nicht ganz, schließlich wird auch nicht mit SDRR bzw. DDRR abgekürzt ...aber jedem das seine

Gast
2006-03-24, 21:36:01
*manchmal auch als HDRR bezeichnet, verstehe ich zwar nicht ganz, schließlich wird auch nicht mit SDRR bzw. DDRR abgekürzt ...aber jedem das seineDu wirst es verstehen, wenn du dir mal die Bedeutung dieser Buchstaben klarmachst. HDR? High dynamic range? High dynamic range was? High dynamic range rendering!

"HDR" für sich ergibt keinen Sinn. Woher soll jemand wissen, was du mit "High dynamic range" meinst? Das kann vieles bedeuten. Also sagst du besser "High-dynamic-range-Rendering", abgekürzt HDR-R. So ist jedenfalls verständlich was du meinst.

Neomi
2006-03-24, 21:36:01
mal 'ne andere frage:
gibt es irgendwo eine seite, auf der man den unterschied 2.0 / 3.0 mal deutlich sehen kann (screenshots vielleicht) ?

Neeeiiiiin!!! *argh*
Man kann nur Renderpfade mit Bildern vergleichen, nicht Shadermodelle. Suche nicht nach solchen Vergleichen und glaube auch nicht denen, die solche scheinbaren Vergleiche posten. Die einzigen Vergleiche, die wirklich die Shadermodelle gegeneinander antreten lassen, sind Tabellen mit Zahlen.

Mr.Magic
2006-03-24, 21:38:54
DDR - Double Data Rate
Double Data Rate was? Richtig! Double Data Rate RAM
Trotzdem nicht mit DDRR abgekürzt. Passt auch nicht in die US-Formel.

FDD
HDD
RAM
ROM
SDR
DDR
HDR
CPU
GPU
VPU
PPU

Fällt was auf?

Neomi
2006-03-24, 21:41:50
*manchmal auch als HDRR bezeichnet, verstehe ich zwar nicht ganz, schließlich wird auch nicht mit SDRR bzw. DDRR abgekürzt ...aber jedem das seine

Wie der Gast schon sagt, HDR selbst ist nur ein nichtssagender Begriff, erst HDR Rendering sagt etwas über die Art der Verwendung aus. Darunter ist übrigens weder Single noch Double Dynamic Range Rendering, sondern LDRR bzw. MDRR (Low bzw. Medium...).

Mr.Magic
2006-03-24, 21:43:47
Äh Neomi,
wo steht was von Single oder Double Dynamic Range Rendering?

Gast
2006-03-24, 21:46:59
Neeeiiiiin!!! *argh*
Man kann nur Renderpfade mit Bildern vergleichen, nicht Shadermodelle.

hmm... ich hab grad verzweifelt den artikel mit dem bild von dem porsche gesucht (wollte mal sehen, ob ich mich da vielleicht verlesen habe)

habe aber statt dessen einen anderen artikel gefunden (auch mit 2 fotos)
das interessante daran:
es ist genau wie bei den porsche fotos - bei dem sm 3.0 bild (mit hdr) sind die grafiken zwar heller aber total verschmiert (als wär meine brille schmutzig)

zu sehen ist das ganze in pcgames hardware ausgabe 09/05 seite 146 oben
(dort ist ein gebäude aus age of empires 3 zu sehen)

ps: ich weiss nicht ob ich die seite fotografieren und posten darf (wahrscheinlich wär das eine copyright verletzung - deshalb lass ich es besser bleiben)

Neomi
2006-03-24, 21:47:09
DDR - Double Data Rate
Double Data Rate was? Richtig! Double Data Rate RAM
Trotzdem nicht mit DDRR abgekürzt. Passt auch nicht in die US-Formel.

Deshalb ist auch DDR SDRAM die richtige Bezeichnung. Wird die falsche Bezeichnung von HDRR als HDR etwa dadurch richtiger, daß viele Leute Fehler machen? Und wo steht geschrieben, daß Abkürzungen nur drei Buchstaben haben dürfen? In deiner Liste sind SDR, DDR und HDR unvollständig, die anderen Abkürzungen passen.

Neomi
2006-03-24, 21:51:37
es ist genau wie bei den porsche fotos - bei dem sm 3.0 bild (mit hdr) sind die grafiken zwar heller aber total verschmiert (als wär meine brille schmutzig)

zu sehen ist das ganze in pcgames hardware ausgabe 09/05 seite 146 oben
(dort ist ein gebäude aus age of empires 3 zu sehen)

Wie gesagt, das hat nur mit der Nutzung der Shader zu tun, sagt aber nichts über die Shadermodelle selbst aus.

Wahrscheinlich meinst du die Bilder, die hier schon auf Seite 1 sind (da ist das ganze Thema übrigens schon auf etlichen Seiten abgehandelt worden):
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=281247&highlight=shadermodel+hdr

Hier nochmal die echten Unterschiede zwischen den Shadermodellen, unverfälscht durch nichtssagende Bilder:
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/dx9_graphics_reference_asm_ps_differences.asp
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/dx9_graphics_reference_asm_vs_differences.asp

ShadowXX
2006-03-24, 22:01:05
hmm... ich hab grad verzweifelt den artikel mit dem bild von dem porsche gesucht (wollte mal sehen, ob ich mich da vielleicht verlesen habe)

habe aber statt dessen einen anderen artikel gefunden (auch mit 2 fotos)
das interessante daran:
es ist genau wie bei den porsche fotos - bei dem sm 3.0 bild (mit hdr) sind die grafiken zwar heller aber total verschmiert (als wär meine brille schmutzig)

zu sehen ist das ganze in pcgames hardware ausgabe 09/05 seite 146 oben
(dort ist ein gebäude aus age of empires 3 zu sehen)

ps: ich weiss nicht ob ich die seite fotografieren und posten darf (wahrscheinlich wär das eine copyright verletzung - deshalb lass ich es besser bleiben)

HDRR hat nicht, aber auch gar nichts, mit SM3.0 zu tun.

Wie haben aber momentan die konstellation auf dem GraKa-Markt, das zufälligerweise nur die Karten, die auch SM3.0 unterstützen, ebenfalls HDR-Rendering unterstützen.

Dadurch wird das von den Mags geren in einen Topf geworfen und dem 08/15-User kommt es dadurch ebenfalls so vor, als wenn SM3.0 = HDR ist...

Dem ist aber wie gesagt überhaupt nicht so...HDRR kann man auch mit SM2.0 machen. Man hätte auch schon eine GF4 HDRR-Fähig machen können, wenn man gewollt hätte.

Gast
2006-03-24, 22:13:15
Wahrscheinlich meinst du die Bilder, die hier schon auf Seite 1 sind

cool - danke für den link! - den thread habe ich noch nicht gelesen (ich lese meistens nur die spiele threads)

das bild in der pcgh sieht tatsächlich noch drastischer aus als die fotos im thread - hier ist das obige bild zwar auch detailärmer aber wenigstens noch farbenfroher

in der pcgh ist das ein unterschied wie tag und nacht (dort sind nämlich nichtmal die farben schöner) - also diskussion hin oder her:
für shader model 3.0 und hdr(r)? konnte mich bislang noch kein foto begeistern.
wenn die spiele im normalen rendermodus auf shader 3.0 karten wenigstens schneller wären, würde ich sagen: ok .... aber das scheint ja irgendwie auch nicht der fall zu sein.

wahrscheinlich wird crysis das einzige spiel mit shader 3.0 und hdr unterstützung werden... danach (nach weihnachten) kommt sicher schon shader 4.0 und hdr2... und dann redet von 3.0 eh kein mensch mehr

Neomi
2006-03-24, 22:33:48
danach (nach weihnachten) kommt sicher schon shader 4.0 und hdr2... und dann redet von 3.0 eh kein mensch mehr

Das Shadermodel 4 sollte dieses Jahr noch durch G80 und R600 zur Verfügung stehen, D3D10 kommt mit Vista aber wohl erst im Januar 2007. Das Shadermodel 3 ist in 4 vollständig enthalten, es wird nicht verschwinden.

HDR 2? AAAAARGH!!!
HDR ist kein Effekt, keine Technologie, nichts in der Richtung. HDR ist einfach nur eine Eigenschaft. FP32 hat diese Eigenschaft, FP16 hat sie gerade so (mit Denorm-Support). Deshalb kann es kein HDR 2 geben, niemals.

Gast
2006-03-24, 22:35:47
...in einen Topf geworfen und dem 08/15-User kommt es dadurch ebenfalls so vor...

danke *verbeug*

/me ist also ab heute ein 08/15-user....

ich liebe dieses forum (und bitte demütig um erleuchtung oh meister)

wenn shader 3.0 und hdr nichts miteinander zu tun haben.... warum soll ich dann teures geld für eine neue graka bezahlen?
1. hdr ist hässlich wie die nacht (siehe fotos)
2. shader 3.0 lässt sich angeblich ja anhand von fotos nicht mit shader 2.0 vergleichen.... ist also quasi unsichtbar?.... eigentlich könnte ich also behaupten, dass meine graka schon shader 5.0 unterstützt (müsste dazu bloss einen eintrag im bios patchen.... und bis das erste spiel erscheint, das meine graka lügen straft, hab ich schon meine ps3... und dann ist mir eh alles egal)

Neomi
2006-03-24, 22:45:27
1. hdr ist hässlich wie die nacht (siehe fotos)

HDR kann nicht häßlich sein, weil HDR kein Effekt ist. Was du da siehst, ist ein Postprocessing-Effekt, der die durch HDR Rendering gelieferten Daten auf fragwürdige Weise weiterverarbeitet.

2. shader 3.0 lässt sich angeblich ja anhand von fotos nicht mit shader 2.0 vergleichen.... ist also quasi unsichtbar?.... eigentlich könnte ich also behaupten, dass meine graka schon shader 5.0 unterstützt (müsste dazu bloss einen eintrag im bios patchen.... und bis das erste spiel erscheint, das meine graka lügen straft, hab ich schon meine ps3... und dann ist mir eh alles egal)

Auf dem Niveau ist eine Diskussion sinnlos. Wenn du gegen SM3 bashen willst, dann mach das ruhig, dadurch wirst du aber nichts dazulernen.

mapel110
2006-03-24, 22:49:42
wenn shader 3.0 und hdr nichts miteinander zu tun haben.... warum soll ich dann teures geld für eine neue graka bezahlen?

Wer sagt, dass du musst?!


1. hdr ist hässlich wie die nacht (siehe fotos)

Die Meinung über die bisherigen Implementierungen steht dir auch zu.

2. shader 3.0 lässt sich angeblich ja anhand von fotos nicht mit shader 2.0 vergleichen.... ist also quasi unsichtbar?

Zulässige Zahlen 1-1000
2+2=4
Zulässige Zahlen 1-1000000
1+1=2

Wenn du nur 1+1=2 bzw 2+2=4 siehst, kannst du daraus nicht schließen, welche Zahlen zulässig waren für die Rechnung. Und folglich kannst du auch nicht sagen, dass der Zahlenraum bei der 1+1-Rechnung nichts bringt bei künftigen Berechnungen, weil bei der ersten Rechnung ein höheres Ergebnis rauskam(höher -> besser aussehend)




.... eigentlich könnte ich also behaupten, dass meine graka schon shader 5.0 unterstützt (müsste dazu bloss einen eintrag im bios patchen.... und bis das erste spiel erscheint, das meine graka lügen straft, hab ich schon meine ps3... und dann ist mir eh alles egal)
Du kannst auch die Nacht mit Scheinwerfern ausleuchten und behaupten, es wäre Tag, ja.

ShadowXX
2006-03-24, 22:54:19
danke *verbeug*

/me ist also ab heute ein 08/15-user....

ich liebe dieses forum (und bitte demütig um erleuchtung oh meister)


Das 08/15-User sollte nicht beleidigend gemeint sein....und es war auch nur rein auf den Graka-Markt bezogen.
Für den normalen User und wohl auch selbst für den einen oder anderen Spezialisten kommt es auf den ersten Blick nunmal so vor, als wenn ein zusammenhang zwischen SM3.0 und HDR besteht.

Der aber nunmal nicht vorhanden ist...und auch ich weiß das nur, weil ich viel zu lange und viel zu oft im Forum "abhänge".

Wie gesagt...es war nicht negativ gemeint, sondern sollte eigentlich "neutral" wirken.


wenn shader 3.0 und hdr nichts miteinander zu tun haben.... warum soll ich dann teures geld für eine neue graka bezahlen?

Es gibt momentan keinen Grund (wenn du schon eine flotte SM2.0-Karte hast).

Wenn du allerdings jetzt was neues kaufen wollen würdest, würde ich eher zu einem SM3.0-Fähigen Grafikkarte greifen.
Es schadet ja nix...und wenn das eine oder andere Spiel dann dach einen (leichten) Vorteil daraus zieht ist einfach nur um so besser

Aber ich würde trotzdem niemanden seine x850xt ausreden wollen......

Bis SM3.0 ein "Must-Have" sein wird, wird noch mindestens 1 Jahr vergehen.


1. hdr ist hässlich wie die nacht (siehe fotos)

Geschmakssache, so wie vieles.

Das HDR bei Splinter Cell 3 finde ich persönlich ziemlich gut und auch das Oblivion ist gut eingesetzt.


2. shader 3.0 lässt sich angeblich ja anhand von fotos nicht mit shader 2.0 vergleichen.... ist also quasi unsichtbar?.... eigentlich könnte ich also behaupten, dass meine graka schon shader 5.0 unterstützt (müsste dazu bloss einen eintrag im bios patchen.... und bis das erste spiel erscheint, das meine graka lügen straft, hab ich schon meine ps3... und dann ist mir eh alles egal)
Man muss schon etwas hinter die Kullissen gucken um die Vorteil von SM3.0 gegenüber dem von SM2.0 zu erkennen.

Aber glaube mir, das die Devs wirklich vorteile daraus ziehen können und diese früher oder später dann auch für Gamer direkt auf dem Bildschirm ersichtlich werden.

Und ich verstehe auch, das viele nicht den Sinn in dem ganzen verstehen....aber glaub mir, das wird bei folgenen Shadergenerationen nicht großartig anders werden.
Den großen "aha"-Effekt bei SM4.0 (wenns dann so heissen wird) gibts wohl auch nur, weil dann die GS dazugekommen sind.

DanMan
2006-03-25, 01:52:31
Wie man hier ganz gut sieht, bedeutet SM3 hauptsächlich einen Fortschritt für die Programmierer: http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx

Es sind im Prinzip nur die Grenzen des Machbaren weiter nach außen gesetzt worden. Also ist das SM3 eine Weiterentwicklung (Evolution) des SM2.
Es hat in direkter Linie weder etwas mit rendern bei höherer Dynamik (HDRR), noch mit irgendwelchen Effekten zu tun.

HDR ist einfach ausgedrückt nur die Berechnung bzw. Speicherung der Helligkeit (Farben) in einem viel, viel größerem Zahlenraum. Dadurch ist eine weitaus lebensnahere Darstellung von künstlich erstellten 3D-Welten möglich.

starfighter
2006-03-25, 11:49:41
Interessant Diskussion hat sich entfacht. Nun aber
:btt:

Also soweit ich weiß, haben die letzten großen Neuerscheinungen, Commandos, Empire at War immernoch nicht wirklich nutzen von SM3 und event. aufbauendem HDR gezogen.
Auch FEAR und Cal of Duty 2 brauchten es nicht explizit.

NFS verzichtet auf HDR und setzt kompatibleres Bloom ein, und bei HL2 haben sie ein SM2.0 kompatibles HDR auf die Beine gestellt.

Wiklichen Nutzen von SM3 in Verbindung mit HDR haben ich bei Far Cry gesehen, ferner soll es bei SC 3, AOE 3, Serious Sam 2 ganz gut sein, aber das sind ja alle nicht (mehr) meine Spiele.

ALso wie siehts aus bis Herbst /Ende 2006:
Welches TOP-Spiel sieht dann optisch eine Klasse schlechter aus, wenn man nur eine SM 2.0 Karte besitzt?

ShadowXX
2006-03-25, 13:41:08
ALso wie siehts aus bis Herbst /Ende 2006:
Welches TOP-Spiel sieht dann optisch eine Klasse schlechter aus, wenn man nur eine SM 2.0 Karte besitzt?
Das kann dir wirklich keiner Sagen.....

Es kann sein, das es dann 10 Games gibt, die mit SM3.0-Fähigen Grakas wesentlich besser aus sehen, genausogut kann es sein, das es gerade mal 1 Game ist, wo du wirklich große vorteile mit SM3.0 siehst.

Das einzige was man sagen kann, ist das je später ein Game im Jahr erscheint, desto höher ist die Wahrscheinlichkeit, dass das Game sichtbar von SM3.0 profitiert.

deekey777
2006-03-25, 14:44:53
Interessant Diskussion hat sich entfacht. Nun aber
:btt:

Also soweit ich weiß, haben die letzten großen Neuerscheinungen, Commandos, Empire at War immernoch nicht wirklich nutzen von SM3 und event. aufbauendem HDR gezogen.
Auch FEAR und Cal of Duty 2 brauchten es nicht explizit.

NFS verzichtet auf HDR und setzt kompatibleres Bloom ein, und bei HL2 haben sie ein SM2.0 kompatibles HDR auf die Beine gestellt.

Wiklichen Nutzen von SM3 in Verbindung mit HDR haben ich bei Far Cry gesehen, ferner soll es bei SC 3, AOE 3, Serious Sam 2 ganz gut sein, aber das sind ja alle nicht (mehr) meine Spiele.

ALso wie siehts aus bis Herbst /Ende 2006:
Welches TOP-Spiel sieht dann optisch eine Klasse schlechter aus, wenn man nur eine SM 2.0 Karte besitzt?
Hast du diesen Thread durchgelesen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=281247&highlight=shadermodel+hdr
[...]
Es gibt kein SM 3.0 in Verbindung mit HDRR (Der lange Weg zum HDR-Rendering (http://www.3dcenter.de/artikel/2006/01-01_a.php), unbedingt lesen). Es gibt Grafikkarten, die SM 3.0 beherrschen, aber mit dem HDRR à la Far Cry nichts anfangene können. Doch der Großteil der SM-3.0-Grafikkarten haben auch erweiterte HW-Features für das HDRR, die von Far Cry oder SC3 benutzt werden, was zur falschen Annahme führte, dass SM 3.0 und HDRR zusammengehören.

Nemmen wir an, es ist Ende 2006, und selbst die Top-Spiele bleiben weiterhin bei SM 2.0, reizen es voll aus. Dann stellt sich die Frage: Ab wann verschlucken sich die "alten" SM-2.0-Grafikkarten an diesen Spielen? Die Rechenleistung der X800/X850 reicht nicht mehr aus, man muss mit Details runtergehen, dagegen können die SM-3.0-Grafikkarten des letzten Jahres ihre Muckis voll ausspielen.

Zu HDRR: Es hängt von der Art ab, wie es implementiert wurde. In HL2: Lost Coast, DoD Source und CSS hat man richtig getrickst, damit alle User mit einer DX9-Grafikkarte in den Genuß kommen. Hätte man das nicht getan, wäre LC früher erschienen, aber nur die NV40er und G70/X1000 könnten diese HDRR-Implementierung nutzen.

Gast
2006-03-25, 17:15:28
Es gibt momentan keinen Grund (wenn du schon eine flotte SM2.0-Karte hast).

hab ich (eine, wie ich finde, äußerst günstige x800xt pcie - wenn man mal preis und leistung vergleicht)

Wenn du allerdings jetzt was neues kaufen wollen würdest, würde ich eher zu einem SM3.0-Fähigen Grafikkarte greifen.

habe ich beim kauf der x800xt auch schon drüber nachgedacht, aber: die grakas mit 3.0 unterstützung sind immernoch mehr als doppelt so teuer und bringen unter dem strich (wenigstens im moment noch) nix.
jedenfalls fand ich die grafikeffekte (die in ausnahmslos allen spielezeitschriften über den grünen klee gelobt wurden) 'bescheiden'.
ich finde die ganze berichterstattung über sm 3.0 total manipulativ:
da ist immer nur von 'shader modell 3 und aufwendigem hdr' im gegensatz zur 'vergleichsweise langweiligen standardbeleuchtung' die rede. was soll das? wer schreibt so einen mist? steht das so aussen auf der verpackung von den neuen grakas drauf? - oder wie kommt man auf sowas?

ich gehe sogar noch weiter und behaupte, dass die bilder die derzeit in verbindung mit sm 3.0 und hdr(r) kursieren schlechter sind, als die dazugehörigen sm 2.0 vorlagen. (ich kann das als brillenträger wohl noch am besten beurteilen: wenn bei meiner brille hdr(r)-effekte auftreten, dann wird es zeit für spüli)

:smile: :smile: :smile:

DanMan
2006-03-25, 18:26:21
ich gehe sogar noch weiter und behaupte, dass die bilder die derzeit in verbindung mit sm 3.0 und hdr(r) kursieren schlechter sind, als die dazugehörigen sm 2.0 vorlagen. (ich kann das als brillenträger wohl noch am besten beurteilen: wenn bei meiner brille hdr(r)-effekte auftreten, dann wird es zeit für spüli)
Dann musst du eben in Zukunft aufs Spielen verzichten oder hoffen, dass es wenigstens auf dem PC Optionen zum Abschalten von HDR-Beleuchtung geben wird.

Hvoralek
2006-03-26, 14:09:27
ALso wie siehts aus bis Herbst /Ende 2006:
Welches TOP-Spiel sieht dann optisch eine Klasse schlechter aus, wenn man nur eine SM 2.0 Karte besitzt?SM3 arbeitet effizienter. Wenn ein Spiel es wirklich nutzt, hast du Reserven frei und kannst die Detailregler eben höher drehen als bei einer gleich schnellen SM2- Karte (die dieselben Effekte zwar aus tehnischer Sicht auch darstellen könnte, das aber nicht mehr flüssig schafft).

Man kann vlt. abschätzen, was möglich ist, wenn man sich ansieht, dass schon Far Cry von einer nachträglichen Implementierung erheblich profitieren konnte (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_far_cry_version_12/2/#abschnitt_testsystem). In kommenden Spielen - mit komplexeren oder/und von Anfang an auf SM3 ausgelegten Shadern - dürften wir noch deutlich größere Zuwächse sehen.

starfighter
2006-03-26, 19:23:22
Hast du diesen Thread durchgelesen?

JO

Es gibt kein SM 3.0 in Verbindung mit HDRR (Der lange Weg zum HDR-Rendering, unbedingt lesen). Es gibt Grafikkarten, die SM 3.0 beherrschen, aber mit dem HDRR à la Far Cry nichts anfangene können. Doch der Großteil der SM-3.0-Grafikkarten haben auch erweiterte HW-Features für das HDRR, die von Far Cry oder SC3 benutzt werden, was zur falschen Annahme führte, dass SM 3.0 und HDRR zusammengehören.
OK; du hast recht, ich habe es nicht so genau genommen, es geht mir um eigentlich beides, weil es wie du sagst mit den neuen Grakas gemeinsam kommt.

Mir ist klar, dass Spiele kommen, die SM3 und/oder HDRR "gut" unterstützen werden.

Doch welche grafisch anspruchsvollen Spiele(die wahrscheinlich SM 3.0 HDRR unerstützen werden) kommen bis zum Herbst?
(mir sind keine Meilensteine bekannt), daher frage ich euch, nennt mal welche!

Hvoralek
2006-03-26, 19:42:58
Doch welche grafisch anspruchsvollen Spiele(die wahrscheinlich SM 3.0 HDRR unerstützen werden) kommen bis zum Herbst?
(mir sind keine Meilensteine bekannt), daher frage ich euch, nennt mal welche!UE3- Spiele, Crysis werden SM3 und auch HDRR unterstützen. Bei Gothic3 halte ich beides für wahrscheinlich.

OK; du hast recht, ich habe es nicht so genau genommen, es geht mir um eigentlich beides, weil es wie du sagst mit den neuen Grakas gemeinsam kommt.Trotzdem solltest du klar zwischen SM3 und HDRR trennen. Z.B. ist das, was du in Far Cry siehst, nur HDRR und hat mit SM3 nichts zu tun. Das hingegen siehst du an den Balken in Benchmarks (und somit an den mit einer Karte spielbar einstellbaren Details) und in den Gesichtern von Programmieren ;)