Archiv verlassen und diese Seite im Standarddesign anzeigen : Crytrek Entwickler stellt neue Cry Engine generation bei giga vor
ShadowXX
2004-12-02, 20:16:37
Spekulation. Warte mal ab was Demirug dazu sagt, wenn er die Demo unter die Lupe genommen hat.
Was ist daran Spekulation???
Keine Radeon kann etwas was nicht zumindest auch jede nv4x-Karte kann....wenn wir mal von 3Dc absehen (welchen man ja ausschalten kann bei der Demo).
Und OI können die Radeons nur durch einen kleinen Hack...und wenn ich mi die Fehlermeldung des Compiler so anschaue, hat zumindest eine davon was mit OI zu tun.
Da dies auf den ATI per Hack angesprochen werden muss, kann diese von der nv4x natürlich nicht richtig interpretiert werden.
Der andere Fehler hat was mit dem ominösen "ATI-Water" zu tun....wahrscheinlich noch irgendso ein Ding, was über irgendetwas ausserhalb der DX-Spec angesprochen werden muss.
Sie könnten es sich einfacher machen, wenn Sie diese Extrafeatures in OGL implementieren würden....
Crazy_Bon
2004-12-02, 20:25:14
Der andere Fehler hat was mit dem ominösen "ATI-Water" zu tun....wahrscheinlich noch irgendso ein Ding, was über irgendetwas ausserhalb der DX-Spec angesprochen werden muss..
In´nem anderen Thread hat das ATI-Water auch auf einer Xabre geklappt, auch wenn die Demo nur sehr stockend lief.
gruntzmaker
2004-12-02, 21:33:34
...*FarCry2 von der Kaufliste streich*...
Sonst noch ein Entwickler der sich kaufen lässt? Die bracuhen mien geld nicht, ganz einfach, wenn ich mir ne graka kaufe will ich natürlich dass die auch optimal unterstützt wird, aber vielleicht sollten gewisse Hersteller ja einfach ab ins Knsoloenlager rüberwenadern deren Fehlen würde sicher einen wohltuenden Effekt haben, Ati macht doch den Xbox2 chip oder nicht?
Wenn jetzt sagen wir Mitte 2006 die ersten PC-Xbox2 Umsetzungen haben und die alle mit ATi xyz laufen mit Nv yyx nicht, kauf ich mir ne Konsole und hol mir dann den billigsten 3dBeschleuniger der gerade so in der Lage ist alles flüssig darzustellen. Und alles weil ich schon länger den Eindruck habe dass a) die Preise fern von GUt und böse sind, b) die Entwickler sich sowieso was schämen sollten, wenn sie so nen Schei+++ veranstalten und c) weil PS3, Xbox 2 und Co
noch über Monate hinaus überlegen sein werden und bis jetzt kein echter PC Titel seit langer Zeit erschienen ist (Verdammt, wer kam auf diese hirnlose Idee DX2 auf ne Konsole umzusetzen und dann erst auf den pC?!), wozu einen PC mit teurer HArdware ausstatten, wenn man als Konsolero die gleiche Titel ohne lästige Fehler in ner halbwegs gescheiten Quali (in den ersten 2 Jahren)
rüberbringt. Wenn ich nen Titel sehe, welcher dem Adventure Genre angehört und Point&Click ist (weil alles andere nur suckt), werde ich meine Meinung ändern, übrigens zähle ich Runaway2 fieserweise nicht dazu :D
...
Der Satz strotzt nur so vor Fehlern und Dollarscheinen......tut mir echt Leid, CryTek ist für mich damit als ernsthafter Entwickler endgültig gestorben, sind jetzt die zweiten, die sich nach Valve haben kaufen lassen und mit Absicht Karten eines anderen IHVs (bzw. sogar mehrerer anderer IHVs) benachteiligen....(und dabei gehts es mir wirklich nicht darum welche Karte 5 FPS schneller ist).
...
Ich kann Deine Kritik nicht so ganz nachvollziehen ...
Das ist ne ATI-Demo - von ATI in Auftrag gegeben und bezahlt. Das Mindeste, was ATI verlangen kann (und auch sicherlich Teil des Vertrages war) ist jawohl daß die Demo auf Nicht-Radeons garnicht oder nur eingeschränkt läuft (vollkommen egal aus welchem Grund). Da kann man Crytek nun wirklich keinen Vorwurf machen.
Und der Abschnitt hier:
“Without these advanced ATI cards and technology we would not be able to do this,” says Crytek’s Andres. “This demo demonstrates specific technical achievements of RADEON® cards, and we are big supporters of ATI's efforts in this area. We love ATI!”
nunja wenn ich das mal wortwörtlich übersetze, dann steht da eigentlich nur:
"Danke für die fette Kohle, die ihr hiergelassen habt"
Ist doch ok, wenn man sich bei einem Auftraggeber bedankt, der gut gezahlt hat.
Der Abschnitt klingt so lächerlich, daß man schon ein ziemlicher Träumer sein muss um das ernst zu nehmen.
Ich denke mal Crytek sieht das genauso locker. Das solltest Du auch ;)
Das ist halt ne IHV Demo ... da ist alles erlaubt - da gibt es keine moralischen bedenken.
Noch was anderes ... nach dem ich das hier gelesen hatte:
"Es scheint so als ob HDR auch auf den ATI's laufen würde. Wenn man in der system.cfg den Wert r_HDRRendering von 0 auf 1 setzt und dann den Wert von r_HDRLevel auf 1 sieht das nicht mal schlecht aus."
hab ich's mal getestet (x800pro) und war wirklich überrascht. Es scheint tatsächlich HDR zu sein, zumindest nach dem, was ich bisher über HDR gelesen hab. Das wundert mich jetzt etwas, denn angeblich soll HDR ja bestenfalls als Dia-Show auf Radeons möglich sein. Ich hab jedoch keinen nenenswerten FPS-Verlust bemerkt ...
Zwar fand ich die Effekte nicht wirklich überzeugend (vieles war einfach zu grell) aber die Simulation der Helligkeitsadaption des Auges sah schon recht ok aus (nagut, bis auf ein paar Ausnahmen :D )
Daher meine abschließende Frage:
Ist das wirklich echtes HDR, was man da auf den Radeons zu sehen bekommt? Oder ist es nur ein Fake (wenn auch recht gut gemacht).
Was ist daran Spekulation???
Keine Radeon kann etwas was nicht zumindest auch jede nv4x-Karte kann....wenn wir mal von 3Dc absehen (welchen man ja ausschalten kann bei der Demo).
Und OI können die Radeons nur durch einen kleinen Hack...und wenn ich mi die Fehlermeldung des Compiler so anschaue, hat zumindest eine davon was mit OI zu tun.
Da dies auf den ATI per Hack angesprochen werden muss, kann diese von der nv4x natürlich nicht richtig interpretiert werden.
Der andere Fehler hat was mit dem ominösen "ATI-Water" zu tun....wahrscheinlich noch irgendso ein Ding, was über irgendetwas ausserhalb der DX-Spec angesprochen werden muss.
Sie könnten es sich einfacher machen, wenn Sie diese Extrafeatures in OGL implementieren würden....
endlich mal ein realist unter den ganzen fanboy kids :up:
...*FarCry2 von der Kaufliste streich*...
Sonst noch ein Entwickler der sich kaufen lässt? Die bracuhen mien geld nicht, ganz einfach, wenn ich mir ne graka kaufe will ich natürlich dass die auch optimal unterstützt wird, aber vielleicht sollten gewisse Hersteller ja einfach ab ins Knsoloenlager rüberwenadern deren Fehlen würde sicher einen wohltuenden Effekt haben, Ati macht doch den Xbox2 chip oder nicht?
Wenn jetzt sagen wir Mitte 2006 die ersten PC-Xbox2 Umsetzungen haben und die alle mit ATi xyz laufen mit Nv yyx nicht, kauf ich mir ne Konsole und hol mir dann den billigsten 3dBeschleuniger der gerade so in der Lage ist alles flüssig darzustellen. Und alles weil ich schon länger den Eindruck habe dass a) die Preise fern von GUt und böse sind, b) die Entwickler sich sowieso was schämen sollten, wenn sie so nen Schei+++ veranstalten und c) weil PS3, Xbox 2 und Co
noch über Monate hinaus überlegen sein werden und bis jetzt kein echter PC Titel seit langer Zeit erschienen ist (Verdammt, wer kam auf diese hirnlose Idee DX2 auf ne Konsole umzusetzen und dann erst auf den pC?!), wozu einen PC mit teurer HArdware ausstatten, wenn man als Konsolero die gleiche Titel ohne lästige Fehler in ner halbwegs gescheiten Quali (in den ersten 2 Jahren)
rüberbringt. Wenn ich nen Titel sehe, welcher dem Adventure Genre angehört und Point&Click ist (weil alles andere nur suckt), werde ich meine Meinung ändern, übrigens zähle ich Runaway2 fieserweise nicht dazu :D
Sorry aber ... geht's noch ? Das ist ne ATI-Demo ! Die SOLL nicht auf deiner nv laufen.
Beschwer dich bei ATI und nicht bei Crytek.
Die haben sich nicht kaufen lassen, sondern für Geld einen Auftrag erledigt - das ist ein kleiner unterschied.
Sorry aber ... geht's noch ? Das ist ne ATI-Demo ! Die SOLL nicht auf deiner nv laufen.
Beschwer dich bei ATI und nicht bei Crytek.
Die haben sich nicht kaufen lassen, sondern für Geld einen Auftrag erledigt - das ist ein kleiner unterschied.
full ack!!!
TheCounter
2004-12-03, 00:00:15
Sorry aber ... geht's noch ? Das ist ne ATI-Demo ! Die SOLL nicht auf deiner nv laufen.
Beschwer dich bei ATI und nicht bei Crytek.
Die haben sich nicht kaufen lassen, sondern für Geld einen Auftrag erledigt - das ist ein kleiner unterschied.
Ich versteh das ganze auch ned. Es ist wirklich nur ne ATI Demo für den X850...
Für mich klingt das eher so als das einige gefrustet sind weil es auf ihren Nvidia Karten nicht fehlerfrei läuft ;)
Ronin2k
2004-12-03, 10:10:45
ich weiß ja net was das problem ist aber die DEMO läuft bei mir komischerweise :confused:, das wasser sieht zwar komisch aus zum schluss, will ich meinen, aber ansonsten hmm supi. wenn ich 3DC aktiviere stürzt auch nix ab oder so.
hab ne 6800gt@ultra zur info :)
Melbourne, FL
2004-12-03, 11:20:06
Dazu sollte man auch mal kurz anmerken, dass die Nvidia Demos prinzipiell überhaupt nicht auf anderen Karten laufen. Jetzt verstehe ich echt nicht wieso sich einige aufregen, dass eine ATI-Demo zwar auf ihrer Nvidia Karte läuft aber ein einzelner Shadereffekt nicht funktioniert.
Ich mag dieses ganze TWIMTBP und GITG Zeug auch nicht aber hier gehts um Grafikdemos.
Alexander
schoppi
2004-12-03, 11:37:39
Dazu sollte man auch mal kurz anmerken, dass die Nvidia Demos prinzipiell überhaupt nicht auf anderen Karten laufen. Jetzt verstehe ich echt nicht wieso sich einige aufregen, dass eine ATI-Demo zwar auf ihrer Nvidia Karte läuft aber ein einzelner Shadereffekt nicht funktioniert.
Ich mag dieses ganze TWIMTBP und GITG Zeug auch nicht aber hier gehts um Grafikdemos.
Alexander
ack
ATI wird für die Techdemo sicherlich ein paar Kröten hat Springen lassen. Soll ATI auch noch die Entwicklung eines nVidia-Shaders unterstützen oder was?! Ist schon echt lustig. Solange es nur um eine Techdemo geht, kann Crytek sich von wem auch immer Geld einstecken lassen.
Sauer werde ich, wenn Promotion ala Half life2 Benchmarks im September 2003 und bewußte Fehlinformation eines Entwicklers dazu dienen, um den Verkauf der Grafikkarten zu steigern. Das nehm ich valve und ATI immer noch übel. :|
Mr. Lolman
2004-12-03, 11:45:35
Zwar fand ich die Effekte nicht wirklich überzeugend (vieles war einfach zu grell) aber die Simulation der Helligkeitsadaption des Auges sah schon recht ok aus (nagut, bis auf ein paar Ausnahmen :D )
Je höher du den HDRBrightnesstreshold stellst, desto schwächer wird der Effekt. Zw. 15 und 20 wirkt er m.E. ganz überzeugend.
Ice =A=
2004-12-03, 15:51:43
Zum einen ist es natürlich richtig, daß ATI "sein" Demo bezahlt hat, dagegen wird auch kaum jemand was haben!
Ich find's sogar sehr gut, so kommen wir endlich mal zu Demos, die aktuelle Hardwarefähigkeiten ausnutzen.
Zum andern allerdings kann man sich sehr wohl an den Äußerungen von Crytek stören! Da heißt es nämlich NICHT "wir haben das nur für ATI gemacht, auf nVidia läuft es nicht nur langsamer sondern mit Absicht qualitätsredzuziert", SONDERN "wir unterstützen Effekte, die nur ATI, nicht aber nVidia kann"!
Und das ist eben schlicht und ergreifend gelogen! Da wird man sich doch dran stören dürfen, oder?
Zum einen ist es natürlich richtig, daß ATI "sein" Demo bezahlt hat, dagegen wird auch kaum jemand was haben!
Ich find's sogar sehr gut, so kommen wir endlich mal zu Demos, die aktuelle Hardwarefähigkeiten ausnutzen.
Zum andern allerdings kann man sich sehr wohl an den Äußerungen von Crytek stören! Da heißt es nämlich NICHT "wir haben das nur für ATI gemacht, auf nVidia läuft es nicht nur langsamer sondern mit Absicht qualitätsredzuziert", SONDERN "wir unterstützen Effekte, die nur ATI, nicht aber nVidia kann"!
Und das ist eben schlicht und ergreifend gelogen! Da wird man sich doch dran stören dürfen, oder?
Da bringst du einiges Durcheinander, die Demo wurde im Auftrag von ATI gefertigt um zu zeigen was man mit der Cryengine und ATI Hardware so alles machen kann, des weiteren hat Crytek absolut recht weil 3DC wird nicht von NV Hardware unterstützt.
Ice =A=
2004-12-03, 17:24:03
Da bringst du einiges Durcheinander, die Demo wurde im Auftrag von ATI gefertigt um zu zeigen was man mit der Cryengine und ATI Hardware so alles machen kann, des weiteren hat Crytek absolut recht weil 3DC wird nicht von NV Hardware unterstützt.
Oh Mann, das is doch nicht so schwer:
Erstens habe ich doch grade gesagt, daß das Demo für ATI geschrieben wurde und ich das gut finde.
Zweitens geht es um's Wasser, um die fehlenden Wasser-Shader-Effekte auf nVidia-Karten (die eigentlich für die 6800er kein Problem darstellen), das sollte aus der vorangegangenen Diskussion auch klar geworden sein...
Wohlgemerkt geht es um die Begründung (!) warum auf nVidia-Karten keine WasserShaderEffekte angewendet werden.
ironMonkey
2004-12-03, 17:56:52
Oh Mann, das is doch nicht so schwer:
Erstens habe ich doch grade gesagt, daß das Demo für ATI geschrieben wurde und ich das gut finde.
Zweitens geht es um's Wasser, um die fehlenden Wasser-Shader-Effekte auf nVidia-Karten (die eigentlich für die 6800er kein Problem darstellen), das sollte aus der vorangegangenen Diskussion auch klar geworden sein...
Wohlgemerkt geht es um die Begründung (!) warum auf nVidia-Karten keine WasserShaderEffekte angewendet werden.
Hmm....also du schreibst die eigene Antwort und stellst darauf nochmal die Frage!!!!!!
So wie es scheint haben halt die NV Karten Probleme mit Shader die für ATI Karten gedacht sind, die Demo wurde nur auf ATI Karten getestet und optimiert weil sie ja auch für diese sind, der Rest interesiert nicht, ob das jetzt auf NV Karten richtig läuft oder fehler auftreten ist hier völlig egal.
Gruß
Iruwen
2004-12-03, 22:45:54
Ist das so schwer zu verstehen was er schreibt? Es geht nicht darum dass der Effekt nicht funktioniert, sondern um die Begründung warum - dass NVidia Karten angeblich nicht dazu in der Lage wären, was gelogen ist (ob das tatsächlich so ist kann ich nicht beurteilen, aber ich nehm das mal als Fakt hin).
Ice =A=
2004-12-03, 23:40:49
Heureka, genau so isses! :biggrin: Danke und Kompliment an Iruwen!
ironMonkey
2004-12-03, 23:54:08
Ist das so schwer zu verstehen was er schreibt? Es geht nicht darum dass der Effekt nicht funktioniert, sondern um die Begründung warum - dass NVidia Karten angeblich nicht dazu in der Lage wären, was gelogen ist (ob das tatsächlich so ist kann ich nicht beurteilen, aber ich nehm das mal als Fakt hin).
DAS IST DOCH DIE BEGRÜNDUNG!!!!!!!!
Wenn die Karte ohne Probleme mit dem ATI Pfad zurecht kommen würde dann könnten sich die Entwickler den extra NV Pfad sparen in Spielen, nur weil beides DX9 Karten sind, sind diese noch lange nicht komplett gleich.
Das ist wie wenn ich mit einem F1 Fahrzeug an einer Ralley teilnehme und mich dann darüber aufrege das der Wagen mit dem Unterboden beim nächsten Hügel stecken bleibt..........das liegt nunmal daran das die Straße nicht dem Fahrzeug angepasst wurde.
Gruß
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.