Archiv verlassen und diese Seite im Standarddesign anzeigen : Wird Crysis auf einer 8800GTX mit maximalen Details flüssig (~30fps) spielbar sein?
TobiWahnKenobi
2007-06-30, 20:49:21
jepp - muss leider zugeben, dass ich das gefühl habe, dass du die x1950xt besser darstellst, als sie ist. ganz besonders bezogen auf gothic3.
ist mein aufrichtiger und ehrlicher eindruck. zugeben muss ich aber auch, dass ich mit 1280x1024 nix am hut habe, da ich auch
schon zu X1900XTX-zeiten in WS gezockt habe (1680x1050).
mein leistungsplus beim umstieg vom R580 auf G80GTX war mehr als eklatant und absolut spür-, mess- und sichtbar. letzteres bezogen auf das plus an bildqualität.
btw.
ich habe aus neugier mal fraps mitloggen lassen und bin eben ein bissl in gothic rumgerannt (1680x1050, alle regler rechts). wenn man von den nachlade-slowdowns absieht, ist von 60 - 95 alles dabei - davon war meine XTX meilenweit entfernt.
2007-06-30 21:06:00 - gothic3
Frames: 18801 - Time: 273281ms - Avg: 68.797 - Min: 12 - Max: 95
(..)
mfg
tobi
Deathcrush
2007-06-30, 21:17:40
Ich weiss gar nicht warum ich mir den Mund fusselig rede/schreibe wenn du es erst jetzt kapiert hast, das ich in 1280x1024 spiele. Und das man in 1680x1050 einen unterschied spürt, ist ja wohl klar und habe ich auch schon längst geschrieben.
Ich z.B habe Gothic 3 erst auf einem AMD X2 @3GHZ / 8800GTS @1680x1050 gespielt (20 ZOLL WS)
Jetzt spiel ich es mit einem Core 2 Duo @3GHZ / 1950XT @1280x1024 und es spielt sich genauso, nur mit dem unterschied das ich in CPU lim. stellen weitaus besser darstehe als mit dem X2.
TobiWahnKenobi
2007-06-30, 21:20:05
dass ich das "kapiert" habe, hättest du schon daran sehen können, dass ich extra auf computerbase für den vergleich ausgewichen bin - mit meinen settings hättest du wahrscheinlich nichtmal 20-30fps ;)
(..)
mfg
tobi
Deathcrush
2007-06-30, 21:23:40
Deine Settings wären mit meinem Sys technisch gar nicht möglich ;) Aber ich denke wir wissen beide mittlerweile wo wir drauf hinaus wollten. Für 1280x1024 bedarf es nicht gleich einer Monsterkarte. Für 1680x1050 sieht es wieder klar anders aus, stand bei mir aber auch nie zur debatte. Die allermeissten Spiele, kann ich gemütlich zwischen 50 FPS und 200 FPS spielen. Und ich brauch dabei gar nicht oder geringfügig (schatten auf Medium) auf Details verzichten. Das kann mit Bioshock klar anders aussehen, aber noch ist es ja nicht erhältlich ^^
no_surrender
2007-06-30, 22:26:01
Crysis läuft mit ner GTS/X auf 1280x1024 auf jedenfall MAXED, ich habs gezockt auf der GC06 mit ner x1900XTX und lief wirklich top.
Wie es in DX10 ist kA, aber in DX9 auf jedenfall.
jay.gee
2007-06-30, 23:22:31
Crysis läuft mit ner GTS/X auf 1280x1024 auf jedenfall MAXED, ich habs gezockt auf der GC06 mit ner x1900XTX und lief wirklich top.
Zum einen hast Du die Graka im Tower nicht gesehen - bist auf Angaben der Hersteller angewiesen gewesen. Zum anderen stellt sich halt die Frage, in welchen Settings Du es gespielt hast - da gab es auf der GC06 ja keine ofiziellen Aussagen seitens der Dev`s?! Gibt es performanclastigere Passagen im Spiel, als die bekannten Demo-Outdoors? Ich denke da primär zb. an Indoorpassagen. Diese dürften richtig Power kosten, wenn ich mir diverse Techmovies vor Augen halte.
Genodeath
2007-06-30, 23:51:15
Ich war letztes Jahr auch auf der GC.
Ja es lief wirklich auf besagter Grafikkarte auf Max ABER zu dem Zeitpunkt war DirectX noch nicht integriert und in folge dessen nichts davon im Spiel zu sehen.
Es lief wunderbar flüssig, sah super aus aber nun mal noch nicht so wie es uns die Videos oder Bilder zurzeit zeigen.
Die Map die man Spielen konnte war ein Witz! Es wurde einfach die Map aus dem Tech Video genommen und Spawnpunkte gesetzt. Das Team welches im Uboot starten musste hat absolut die Arschkarte und war absolutes Kanonenfutter.
Wenn die MP Maps später alle so werden dann gute Nacht. (ich glaube aber das war nur zusammengezimmert um überhaupt was zu haben)
Bin mal mit dem Lesen schnell drübergeflogen um ein etwas zu bestätigen: Eine X1950er hat keine Chance bei Test Drive Unlimited mit 1680x1050 bei maximalen Details. Da kommt man shcon unter die 20-30 FPS Grenze.
Das heißt, aufrüsten ist immer schön und gut wenn man das Geld hat. ;)
Deathcrush
2007-07-01, 08:29:39
Nur war nie die Rede von 1680x1050 sondern 1280x1024.
Undertaker
2007-07-01, 12:01:54
Crysis läuft mit ner GTS/X auf 1280x1024 auf jedenfall MAXED, ich habs gezockt auf der GC06 mit ner x1900XTX und lief wirklich top.
Wie es in DX10 ist kA, aber in DX9 auf jedenfall.
crysis auf der gc06 sah sogar absolut mies aus, schlechter als far cry auf maximalen details und lief auch nur in 1280x720... also rein optisch hätte ich das auch noch einer 9700pro zugetraut ;)
Angiesan
2007-07-01, 12:38:14
Wenn ich meinen Quellen vertrauen darf, läuft Crysis auf einer GTX gut, auf einem SLI Gespann sehr gut.
Man soll aber am überlegen sein ob man einige technische Smankerl per Patch nachschiebt um der Diskusion über die HW-Anforderungen zu umgehen.
Was dies aber genau sein soll war leider nicht in Erfahrung zu bringen.
Denkbar ist jedoch, dass Crytec um das Spiel auch länger am Leben zu halten,
die ein oder andere Verbesserung erst dann nachschiebt, wenn die entsprechenden HW-Basis dafür in einem größeren Umfang bei den Spielern installiert ist.
Ob diese Infos auch richtig sind kann ich jedoch nicht mit Sicherheit sagen.
Grüße
skivi
2007-07-01, 12:53:38
Auf was für eine Quelle stützt du dich da?
Und ich denke es ist auch nicht nur die Grafikkarte entscheidend.
Wenn sie wirklich eine gute Multicore-Unterstützung mitliefern, findet der Quadcore auch seine Berechtigung.
Master3
2007-07-01, 13:06:10
Ich denke Crysis wird gut bei 1680 Max Details, 1AA und 16AF laufen.
Antialiasing ist zwar langsam zum Standard geworden, aber bei dem Spiel kann es bestimmt vorkommen das man es ausschalten muss um es ordentlich zu zocken.
Durch aber diverse Unschärfeeffekte, Bloom oder HDR fällt niedriges AA eigentlich auch nicht negativ auf.
Habe es jetzt bei CMR Dirt und Lost Planet gesehen, das 2AA durchaus nicht schlecht aussieht.
Aber man wird sehen wie es bei Crysis zum Release wird.
Auf dem Stand bei Games for Windows bei der GC 06 jedenfalls war Crysis eher Augenkrebs gleichzusetzen, naja hauptsache ich hatte es mal gezockt:biggrin:. Aber es soll ja Stände gegeben haben wo es ordentlich ging, die ich aber nicht gesehen habe.
dargo
2007-07-01, 13:53:39
Durch aber diverse Unschärfeeffekte, Bloom oder HDR fällt niedriges AA eigentlich auch nicht negativ auf.
Habe es jetzt bei CMR Dirt und Lost Planet gesehen, das 2AA durchaus nicht schlecht aussieht.
Um Gottes Willen. :eek:
Bloß kein Bloom @CMR Dirt!!!
Diesen Sche.. muss ich und Cubitus wieder entfernen damit das Game für die Augen überhaupt erträglich ist. Wenn Crysis ebenfalls diesen Mist verwendet dann ist das Game für mich gestorben. Zum Glück habe ich aber noch keine Wischiwaschi Screenshots von Crysis gesehen.
Angiesan
2007-07-01, 14:14:02
Auf was für eine Quelle stützt du dich da?
Und ich denke es ist auch nicht nur die Grafikkarte entscheidend.
Wenn sie wirklich eine gute Multicore-Unterstützung mitliefern, findet der Quadcore auch seine Berechtigung.
Darauf erwartest du nicht wirklich eine Antwort ;)
Grüße
Master3
2007-07-01, 17:44:54
Um Gottes Willen. :eek:
Bloß kein Bloom @CMR Dirt!!!
Diesen Sche.. muss ich und Cubitus wieder entfernen damit das Game für die Augen überhaupt erträglich ist. Wenn Crysis ebenfalls diesen Mist verwendet dann ist das Game für mich gestorben. Zum Glück habe ich aber noch keine Wischiwaschi Screenshots von Crysis gesehen.
Das war ja nur so aufgezählt. Sicherlich kommt richtig gutes HDR zum Einsatz bei Crysis.
tombman
2007-07-06, 00:01:45
Btw, Yerli selbst hat vor kurzem gesagt, daß MAXIMALE DETAILS mit einer 8800GTS
absolut spielbar sein werden ;)
(cpu empfiehlt er ~C2D E6600)
Wenn man bedenkt, daß die Hälfte hier sich schon angeschissen hat daß eine GTX es ned packen wird --> ;D;D;D
Hier die Quelle:
http://www.crysissector.com/info/systemrequirements.php
I would also like to point out the following list of requirements. It was recently stated in a GamesRadar preview that Cevat Yerli, Crytek CEO, said that Crysis will be able to run on Ultra High settings with the following specs.
Ultra High Requirements
CPU: E6600 Core 2 Duo
Graphics: Nvidia 8800GTS
RAM: 2GB
HDD: 6GB
Internet: 512k+ (128k+ upstream)
Optical Drive: DVD
Software: DX9 with Windows XP / Vista
Solche Angsthasen ;)
Moralelastix
2007-07-06, 00:17:27
Die zukünfitigen Features(so wie damals HDR) die wieder per Patch nachgeschoben werden sollen bringen bestimmt auch GTX@SLI nochmal ordentlich zum Schwitzen.
dildo4u
2007-07-06, 00:23:04
@tombman da gehts um Ultra Details im DX9 Modus keine Rede vom DX10 Modus. ;)
Spasstiger
2007-07-06, 00:23:25
Solche Angsthasen ;)
Das wird aber wohl in 1024x768 noAA noAF sein. In 1280x1024 oder gar 1680x1050 mit 4xMSAA + TRSAA oder adaptivem AA bzw. EATM wirds wohl etwas mehr Grafikpower brauchen als eine 8800 GTS.
wenn das stimmt, dann kann ich es in 1280 * 1024 mit AA + AF spielen können, das langt doch fürs erste ;)
das spiel aan sich sollte auch Spaß machen und nicht nur Grafikpracht sein...
Half Life 2 war technisch gut, nicht sehr gut und hat dafür durch den "Inhalt" (nicht story gemeint) alles gut gemacht.
tombman
2007-07-06, 00:35:44
also AA und AF wird ingame sicher einstellbar sein, war in fc ja auch so...
Und von mehr als 1024x768 habe ich ja nie was gesagt, oder?
Außerdem fragte ich ja nach GTX, nicht nach GTS ;)
Hauptsächlich ging es darum, daß Leute meinten sie müßten über die Idioten lachen, die sich für Crysis völlig sinnlos einen G80 kaufen, weil dieser eh zu langsam sein wird.
Laut Yerli wird für maximale Details sogar ne GTS reichen-> Strrrrrrrrrr-ike!
:cool:
Bodo-Ffo
2007-07-06, 00:40:42
also AA und AF wird ingame sicher einstellbar sein, war in fc ja auch so...
Und von mehr als 1024x768 habe ich ja nie was gesagt, oder?
Außerdem fragte ich ja nach GTX, nicht nach GTS ;)
Hauptsächlich ging es darum, daß Leute meinten sie müßten über die Idioten lachen, die sich für Crysis völlig sinnlos einen G80 kaufen, weil dieser eh zu langsam sein wird.
Laut Yerli wird für maximale Details sogar ne GTS reichen-> Strrrrrrrrrr-ike!
:cool:Ich denk mal die GTX reicht locker für Crysis.
Und falls nicht muß halt was neues her :biggrin:
jay.gee
2007-07-06, 00:41:02
Wenn man bedenkt, daß die Hälfte hier sich schon angeschissen hat daß eine GTX es ned packen wird --> ;D;D;D
Was wird sie denn packen? ~1280x1024 - Full Details - AAx4 und AFx16? Bist doch jetzt lange genug dabei - hörst aber trotzdem noch auf Marketinggeblubber. ;) Was soll er zum gegenwärtigen Zeitpunkt auch anderes, bezogen auf den Mainstreammarkt, sagen?
EDIT/
Und von mehr als 1024x768 habe ich ja nie was gesagt, oder?
Enjoy Next Gen@G80 X-D :whistle:
(del)
2007-07-06, 00:45:38
Ich kann mich erinnern, daß es hier schon ähnlichen thread zum TestDriveU gab. Und zu vielen andern Spielen. Und was kommt immer dabei raus? ;)
Es gibt auch Unterschiede in Spielen wie bei Doom3 zwischen max und ultra, welche ein geübtes Auge auf Screenshots sofort erkennt...
edit: Dem Poll fehlt klar die Auflösung ;)
Spasstiger
2007-07-06, 00:45:39
Mit 4xTRSAA und in 1680x1050 (eine Auflösung, welche wegen der niedrigen Preise für 22" LCDs immer mehr Verbreitung findet) bekommt man mit der 8800 GTS schon jetzt Probleme in so manchem Spiel, selbst beim alten Farcry kann ich mir vorstellen, dass es damit nicht 100% flüssig läuft.
In Crysis wird man für diese Einstellung sicherlich ein 8800-SLI-Gespann brauchen.
Man schaue sich z.B. mal an, wo eine Radeon X1900 XT bei einem 1 Jahr alten Spiel liegt, Anno 1701:
http://www.3dcenter.org/images/2006/12-20_pic7.png
Nach den Benchmarks bei Computerbase ist die 8800 GTS in Anno 1701 sogar einen Tick langsamer als die Radeon X1900 XT, sobald man AntiAliasing aktiviert: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/14/#abschnitt_anno_1701.
Anno 1701:
http://www.directupload.net/images/070705/OXrlGs6b.png
Und ich kann mir nicht vorstellen, dass Crysis besser performen wird als Anno 1701, obwohl die Rechenlast doch viel höher liegen sollte.
Ok, die Genres unterscheiden sich etwas, aber in Sachen Vegetationsdarstellung wird sich Crysis sicherlich nicht sparsamer zeigen als Anno 1701, eher im Gegenteil.
Ich gehe davon aus, dass man mit einer 8800 GTS bei max. Spieldetails in Crysis und einer üblichen Auflösung von 1280x1024 komplett auf AA verzichten wird müssen, wenn man nicht unter die 25 fps fallen möchte.
(del)
2007-07-06, 00:48:12
Eine Auflösung findet Verbreitung, wenn die Grakas es gut packen. Wie billig (preiswert?) welche Monitore sind spielt nicht so die Geige. Es sei denn der User guckt hinterher dumm aus der Wäsche.
tombman
2007-07-06, 01:34:45
Was wird sie denn packen? ~1280x1024 - Full Details - AAx4 und AFx16? Bist doch jetzt lange genug dabei - hörst aber trotzdem noch auf Marketinggeblubber. ;) Was soll er zum gegenwärtigen Zeitpunkt auch anderes, bezogen auf den Mainstreammarkt, sagen?
EDIT/
Enjoy Next Gen@G80 X-D :whistle:
8800GTS ist nicht mainstream :rolleyes:
Und ob ich reingefallen bin werden wir sehen wenn das Spiel da ist. Nochmal: ich habe nach GTX gefragt, nicht GTS ;)
Ich schätze, daß die normale HD Auflösung, also 1280x720, mit 4xAA/16xAF mit maximalen Details bei 30fps (oder mehr) rennen wird, also spielbar. Um mehr gings nicht.
1600x1200 und darüber war immer schon SLI Land...
Eventuell spielt die CPU da noch eine Rolle :wink:
Eine 8800GTX mit maximalen Details flüssig (~30fps) spielbar?
Nein, leider nicht... ~30fps wär auch nicht flüssig, oder meinst du minimal?
Vermutlich sieht alles super aus, bis die Bots erscheinen... erstrecht wenn es viele sind :|
Eventuell spielt die CPU da noch eine Rolle :wink:
Eine 8800GTX mit maximalen Details flüssig (~30fps) spielbar?
Nein, leider nicht... ~30fps wär auch nicht flüssig, oder meinst du minimal?
Vermutlich sieht alles super aus, bis die Bots erscheinen... erstrecht wenn es viele sind :|
Da die CPU auch bei FC eine große Rolle spielt wirst du vermutlich recht haben.
Aber abseits dessen ... der Thread ist echt sinnfrei. "Wird Spiel XYZ flüssig laufen, was meint ihr?" super haltlose Spekulationen die zu nichts führen ... fantastische Diskussionsgrundlage.
tombman
2007-07-06, 03:29:53
der Thread ist echt sinnfrei.
Dann bleib ihm fern und poste nicht mehr..wenn du kannst ;)
Ich finde er kanalisiert schön die "omg, ich brauche G100 SLI für Crysis"-Schreie ;)
Danbaradur
2007-07-06, 12:34:20
Was konnte sich eigentlich der "Nicht-Freak" (also ein Typ, der nicht selber schraubt bzw. OC), bei der Veröffentlichung von Far Cry, hardwaremäßig, kaufen?
Geld spielt hierbei keine Rolle.
Mit der damaligen High-End-Hardware konnte dieser Typ dann Far Cry wie Spielen?
deekey777
2007-07-06, 12:41:17
Eine 5900XT war genug, um das Spiel mit hoher Beleuchtungsqualität zu spielen, eine 9600Pro hat für sehr hohe Beleuchtungsqualität ausgereicht.
Bis auf wenige Ausnahmen war nicht die Grafikkarte maßgebend, sondern die CPU, und Far Cry ist sehr CPU-hungrig.
Als Nicht-Freak konnte ich Far Cry mit einem XP 2500+ und einer 9800Pro locker spielen, auch wenn die Framerate an bestimmten Stellen zusammenbrach.
pordox
2007-07-06, 12:46:06
Bin auch mal gespannt ob Crysis irgendwie flüssig auf meinem neuen Notebook mit 8600M GT läuft. Auf AA und bisschen AF kann ich gut verzichten.
Danbaradur
2007-07-06, 12:52:17
Bei der Veröffentlichung von Far Cry war also die 9800pro die stärkste, käuflich zu erwerbende, Graka?
Welche CPU war damals das Non plus Ultra?
Mich interessiert in welcher Auflösung, AA/AF usw. man am Tag der Veröffentlichung spielen konnte (Als "Nicht-Freak").
deekey777
2007-07-06, 12:59:22
Ein "Nicht-Freak" hat sich im März 2004 eine 9800Pro gekauft, die stärksten Grafikkarten waren zu diesem Zeitpunkt die 9800XT und die 5950Ultra.
Bei den CPUs bin ich mir nicht ganz sicher, ein FX-51 wäre damals das Beste, was es gibt.
Ich konnte mit 1024x768+AF8°&2xAA spielen (Schatten auf Mittel, der Rest auf Hoch, Belechtung auf Sehr Hoch).
jay.gee
2007-07-06, 14:19:28
8800GTS ist nicht mainstream :rolleyes:
Genau lesen tomb - von der Graka habe ich gar nicht gesprochen - sondern vom Zielpublikum! ;)
Ich schätze, daß die normale HD Auflösung, also 1280x720, mit 4xAA/16xAF mit maximalen Details bei 30fps (oder mehr) rennen wird, also spielbar. Um mehr gings nicht.
Wie ich bereits sagte - ich freue mich für Jeden, der es in nobelen Settings flüssig spielen kann. Aber dennoch hat Grey schon recht - und der Thread ist recht sinnfrei geworden, weil Du es versäumt hast, Quality-Settings; bzw. Max-Details näher zu definieren. ;) Hier werden Auflösungen in den Raum geworfen, die für die meissten TFT-User schon lange ein Fremdwort sind. 1024x768 zb. ist eine Auflösung, die ich schon sehr lange nicht mehr fahre. 1280x1024 ist für mich einfach ein normale Auflösung geworden - werde hier auch auf keinen Fall Abstriche machen.
Mit Blick auf die Zukunft würde ich sogar eher behaupten, dass noch mehr Spieler zukünftig noch höhere Auflösungen anpeilen.
Stichwort AA und AF:
Komm "Sülzbacke" - als wenn Du darauf verzichten möchtest. ;) *ich kenne dich doch* :anonym: Wie gesagt - ich persönlich peile eine Auflösung von 1280x1024 - Full Details - AAx4 und AFx16 an. Also die gängigen Settings, die ich in der Regel in den letzten ~2Jahren immer genutzt habe. Und da bin ich mit der derzeitig verfügbaren Hardware einfach sehr skeptisch - ob da mein individueller Anspruch gedeckt wird.
Auch zu der Thematik "Flüssiges Gameplay" könnten wir uns ja noch austauschen. Ist natürlich von Spiel zu Spiel und Spieler zu Spieler anderes. Aber bezogen auf die "Nanosuit-Jumps" würde ich aber schon fast behaupten, dass schnellere Mausbewegungen in einigen Passagen nötig sind - 30 Fps vielleicht gar nicht mal das Problem sind - sondern die stark schwankenden Framedrops, die dadurch resultieren. Allgemein sind mir 30 FPS in Games die etwas schneller sind defintiv zu wenig. Noch nerviger ist es in der Praxis allerdings, wenn die FPS halt stark schwanken.
k0nan
2007-07-06, 14:32:49
agree @ jay
ich werd @ 1680x1050 so oder so die graka aufrüsten. kann ich mit leben, dafür wirds ja schließlich göttlich aussehen ;)
Danbaradur
2007-07-06, 14:57:49
Only SP-Modus:
Ein "Nicht-Freak" wird flüssig spielen können. Wobei ich dem "Nicht-Freak" jetzt mal unterstelle, daß er gar nicht weiß was "Nanosuit-Jumps" sind.
Bei "Gourmet-Spieler" bin ich sehr skeptisch. Da entscheidet der innere Kampf zwischen Verstand und Geilheit, ob man bei Release von Crysis die Finger von M+T lassen kann.
BAGZZlash
2007-07-06, 15:22:12
M+T?
Danbaradur
2007-07-06, 15:38:05
Anfangsbuchstaben von Eingabegeräten.
Christi
2007-07-06, 16:05:18
Ein "Nicht-Freak" hat sich im März 2004 eine 9800Pro gekauft, die stärksten Grafikkarten waren zu diesem Zeitpunkt die 9800XT und die 5950Ultra.
Wobei die 5900er Serie mangels Shader 2.0 Leistung so mit das letzte waren.
Zumindestens in FarCry und Dx9. Da war meine 9700pro um Welten schneller.
Ich erinnere mich noch, als Nvidia schnell einen Treiber rausbrachte, wo FarCry komischerweise flüssig lief. Warum?
Ja man erzwang, mit Hilfe des Treiber, den DX8 Modus. Der sah deutlich schlechter aus (Wasser, glänzende Metallrohre,Hitzeflimmern ).
FarCry war übrigens das erste Spiel, was die misserable Shaderleistung der FX
zu Tage brachte. Danach lief kaum noch ein Spiel, welches massiv von DX9 gebrauch machte, auf der Karte flüssig.
Seit dieser Aktion habe ich keine Nvidia im Rechner:wink:
MfG
Danbaradur
2007-07-06, 16:32:16
FarCry war übrigens das erste Spiel, was die misserable Shaderleistung der FX
zu Tage brachte. Danach lief kaum noch ein Spiel, welches massiv von DX9 gebrauch machte, auf der Karte flüssig.
Seit dieser Aktion habe ich keine Nvidia im Rechner:wink:
MfG
Hättest du dir damals Nvidia Aktien gekauft, hättest du jetzt ein Daddel-Pc vom Feinsten.;)
deekey777
2007-07-06, 17:56:35
Wobei die 5900er Serie mangels Shader 2.0 Leistung so mit das letzte waren.
Zumindestens in FarCry und Dx9. Da war meine 9700pro um Welten schneller.
Ich erinnere mich noch, als Nvidia schnell einen Treiber rausbrachte, wo FarCry komischerweiße flüssig lief. Warum?
Ja man erzwang, mit Hilfe des Treiber, den DX8 Modus. Der sah deutlich schlechter aus (Wasser, glänzende Metallrohre,Hitzeflimmern ).
FarCry war übrigens das erste Spiel, was die misserable Shaderleistung der FX
zu Tage brachte. Danach lief kaum noch ein Spiel, welches massiv von DX9 gebrauch machte, auf der Karte flüssig.
Seit dieser Aktion habe ich keine Nvidia im Rechner:wink:
MfG
Man musste gar nichts in Far Cry erzwingen, sondern die Qualität der Beleuchtung von Sehr Hoch auf Hoch herunterstellen, womit PS 1.1 verwendet wurden.
Was du meinst, war der Patch 1.1 von Crytek und kein Treiber von NV:
http://www.tommti-systems.de/start.html (Archiv, News von April 2004).
tombman
2007-07-06, 23:48:49
1280x1024 ist für mich einfach ein normale Auflösung geworden - werde hier auch auf keinen Fall Abstriche machen.
Das ist ja der Fehler! Das ist nämlich eine sehr hohe Auflösung, nur checkt keiner, daß es da oft mit mainstream hardware nicht mehr zu flüssigen fps reicht.
Früher waren 17 und 19 Zoll CRTs in Gebrauch, mit 1024x768er Auflösung, die Leute hatten mainstream Hw. Dann kamen die TFTs mit 1280x1024, also 66% mehr Pixel (!!!), und alle denken sie können einfach weiterhin mainstream kaufen und gute fps erzielen. 66% mehr Pixel sind mindestens eine HW Generation drüber! Und jetzt gehts ja weiter, 22" WS TFTs mit 1680x1050 Pixel! Das ist schon fast 1600x1200 (!!). Also schon fast SLI-Bereich! Und wenn dann Crysis mit midrange Hw in dieser Auflösung nimmer gescheit rennen will ist das Geschrei wieder groß "Crytek hat Scheiße gebaut, Crysis rennt auf meiner 8600GT auf maximalen Details nimmer flüssig"... :rolleyes:
Also ICH würde lieber die Auflösung runterdrehen anstatt auf Details zu verzichten...aber da kommt ja wieder das Interpolationsproblem der TFTs zu Tage- ein Grund warum ich keinen TFT habe :cool: ;)
Auch zu der Thematik "Flüssiges Gameplay" könnten wir uns ja noch austauschen. Ist natürlich von Spiel zu Spiel und Spieler zu Spieler anderes. Aber bezogen auf die "Nanosuit-Jumps" würde ich aber schon fast behaupten, dass schnellere Mausbewegungen in einigen Passagen nötig sind - 30 Fps vielleicht gar nicht mal das Problem sind - sondern die stark schwankenden Framedrops, die dadurch resultieren. Allgemein sind mir 30 FPS in Games die etwas schneller sind defintiv zu wenig. Noch nerviger ist es in der Praxis allerdings, wenn die FPS halt stark schwanken.
Mehr Angst sollte man bei Crysis eher bei der CPU haben. Physik, Sichtweite ohne Ende und viele Gegner (KI), Objekte etc...
So ein netter quadcore um unter 300€ wäre da wahrscheinlich ned schlecht ;)
(del)
2007-07-07, 00:03:55
Also ICH würde lieber die Auflösung runterdrehen anstatt auf Details zu verzichten...aber da kommt ja wieder das Interpolationsproblem der TFTs zu Tage- ein Grund warum ich keinen TFT habe :cool: ;)Genau das ist es. Außer daß mir manches recht komisch auf den TFTs vorkommt ist das mit DER Hauptgrund. Daher werde ich Crysis auf jeden Fall mit vollen Details spielen können :) 1280x960, zur Not 1024x768. Es ist eben nur ein Spiel. Und auf den Nextgen konsoleros gehen den Leute bei ähnlichen HD-Auflösungen schon die Leleks ab. Da ein Moni meist ;) wesentlich kleiner ist, sollte das noch weniger auffallen.
Es sei denn man sucht wirklich, um dann statt Crysis, in ähnlichen Threads den Hightech-Prolet zu spielen :)
jay.gee
2007-07-07, 00:20:07
Das ist ja der Fehler! Das ist nämlich eine sehr hohe Auflösung, nur checkt keiner, daß es da oft mit mainstream hardware nicht mehr zu flüssigen fps reicht.
Früher waren 17 und 19 Zoll CRTs in Gebrauch, mit 1024x768er Auflösung, die Leute hatten mainstream Hw. Dann kamen die TFTs mit 1280x1024, also 66% mehr Pixel (!!!), und alle denken sie können einfach weiterhin mainstream kaufen und gute fps erzielen. 66% mehr Pixel sind mindestens eine HW Generation drüber! Und jetzt gehts ja weiter, 22" WS TFTs mit 1680x1050 Pixel! Das ist schon fast 1600x1200 (!!). Also schon fast SLI-Bereich!
Ich kann nur für mich selbst sprechen, Tomb. :) Der Wechsel seinerzeit vom CRT auf TFT bedeute für mich gleichzeitig einen Wechsel von 1024x768 auf 1280x1024. Für mich persönlich ist 1280x1024 sowas wie eine Standardauflösung geworden. Das dafür mehr Rohpower notwendig ist, steht ja ausser Frage.
Und wenn dann Crysis mit midrange Hw in dieser Auflösung nimmer gescheit rennen will ist das Geschrei wieder groß "Crytek hat Scheiße gebaut, Crysis rennt auf meiner 8600GT auf maximalen Details nimmer flüssig"... :rolleyes:
Wenn unsachlich gebasht wird - bin ich sowieso nie dabei. Ich bin jemand, der grossen Respekt vor Dev-Teams hat und auch dessen Sicht versucht zu verstehen. Zudem bin ich jemand, der sich nie das Recht rausnehmen würde, Softwareschmieden ala Crytek das Handwerk abzusprechen - dafür haben die Jungs einfach zuviel auf dem Kasten! Dass die Erwartungshaltung vieler Gamer oft nicht stimmt - das unterstreiche ich ohne Frage, Tomb.
Mehr Angst sollte man bei Crysis eher bei der CPU haben. Physik, Sichtweite ohne Ende und viele Gegner (KI), Objekte etc...
So ein netter quadcore um unter 300€ wäre da wahrscheinlich ned schlecht ;)
Ich lasse das Game erst einmal auf mich zukommen und sondiere dann. ;) Grundsätzlich dürften mit aktueller Hardware - damit meine ich natürlich auch den G80 - sehr gute Kompromisse zu erzielen sein. *das habe ich hier im übrigen nie angezweifelt* :) Sei es über die InGamedeatails - über AA und Af oder halt über die Auflösung. Da hat ja jeder seine persönlichen Vorlieben. :)
Undertaker
2007-07-07, 00:47:39
Also ICH würde lieber die Auflösung runterdrehen anstatt auf Details zu verzichten...aber da kommt ja wieder das Interpolationsproblem der TFTs zu Tage- ein Grund warum ich keinen TFT habe :cool: ;)
ähm, welches game macht denn bei nativer auflösung eines 24-27" tft (du hattest doch mal nen 23" benq richtig?) probleme mit nem 8800gtx sli? :D
tombman
2007-07-07, 00:55:23
ähm, welches game macht denn bei nativer auflösung eines 24-27" tft (du hattest doch mal nen 23" benq richtig?) probleme mit nem 8800gtx sli? :D
Gar keines, ich kann alles mit vollen Details spielen, aber deswegen steht dort auch "würde"- Konjunktiv :D
Snoopy69
2007-08-26, 14:30:39
Sorry, wenn ich nicht alles gelesen hab.
Wie wird Crysis auf 24" (1920x1200) + 8800GTX laufen? Ist SLI nötig?
Angeblich soll es auch auf Quads wesentlich schneller laufen als auf DC´s. Stimmt das?
dargo
2007-08-26, 14:36:36
Angeblich soll es auch auf Quads wesentlich schneller laufen als auf DC´s. Stimmt das?
Keine Angst, dein DC in der Sig. wird noch reichen. ;)
Sorry, wenn ich nicht alles gelesen hab.
Wie wird Crysis auf 24" (1920x1200) + 8800GTX laufen? Ist SLI nötig?
Angeblich soll es auch auf Quads wesentlich schneller laufen als auf DC´s. Stimmt das?
bei der auflösung wird es wohl vermutlich ziehmlich eng werden
Christi
2007-08-26, 15:16:11
Ohne großes AA wird es in Full HD laufen. Mit hohen AA kann ich mir vorstellen, dass es nicht smooth genug läuft.
Wenns hart auf hart kommt, verzichte ich auf meinen Widescreen und nutze einfach meinen 19" LG.
dargo
2007-08-26, 15:21:09
Wenns hart auf hart kommt, verzichte ich auf meinen Widescreen und nutze einfach meinen 19" LG.
Warum denn das :confused:
Du kannst genau so gut jede beliebige Auflösung auf deinem WS TFT nativ nutzen.
Christi
2007-08-26, 15:22:05
Oder man interpoliert auf eine kleinere Auflösung 1650x1050 oder sowas.
Ein guter TFT muss das gut machen und fertisch.
MfG
dargo
2007-08-26, 15:24:17
Oder man interpoliert auf eine kleinere Auflösung 1650x1050 oder sowas.
Naja, das muss dann jeder für sich selbst wissen. Ich finde ein interpoliertes Bild immer schlecht, egal welcher TFT. Es ist auch technisch gar nicht möglich ein nahezu perfektes, interpoliertes Bild auf dem TFT zu liefern.
Naja mit AA schon machbar, stimmt schon. Mal schauen was wird.
Undertaker
2007-08-26, 16:23:34
Naja, das muss dann jeder für sich selbst wissen. Ich finde ein interpoliertes Bild immer schlecht, egal welcher TFT. Es ist auch technisch gar nicht möglich ein nahezu perfektes, interpoliertes Bild auf dem TFT zu liefern.
dazu muss nur die pixeldichte des tfts hoch genug sein ;) 1680x1050 auf einem 23/24" tft kann man sich durchaus ansehen...
Schrotti
2007-08-26, 16:32:13
Ich mache mir keine Sorgen (17" TFT mit 1280x1024 sollte meine GTS 8800 bewältigen).
dargo
2007-08-26, 16:47:27
dazu muss nur die pixeldichte des tfts hoch genug sein ;) 1680x1050 auf einem 23/24" tft kann man sich durchaus ansehen...
Erkläre mir das bitte genauer. Warum sollte bei einem 24" TFT ein 1680x1050 interpoliertes Bild besser/gleich gut aussehen als ein natives Bild beim 22" TFT? Durch das interpolieren verschwimmt das Bild immer! Egal wie gut oder groß der TFT ist.
maistaeda
2007-08-26, 16:50:19
ich gehe mal davon aus das für 1680x1050 full details meine hardware reichen wird für flüssiges spielen jenseits der 40 fps
Karümel
2007-08-26, 16:52:35
Von der PCGH Webseite:
http://www.pcgameshardware.de/?article_id=611090
Specs der GC-Rechner für Crysis:
- Dell XPS-PCs
- CPU: Intel Core 2 Quad Q6600 (vier Kerne, 2,4 GHz, 8 MByte L2-Cache)
- VGA: einzelne Geforce 8800 GTX
- RAM: 2 GByte
- Auflösung: 1.280x960
- FSAA/AF: aus
- Direct X: Direct-X-9-Modus
- OS: Windows XP 64 Bit
Performanceeinschätzung:
Was die Performance angeht, so berichtete unter anderem PCGH-Mann Christian Gögelein, dass Crysis nicht immer flüssig lief. An einigen Stellen und Szenen hätte Crysis noch geruckelt. Das lässt den Schluss zu, dass die Programmierer noch an der Performance optimieren müssen. Zeit haben Sie dazu ja noch, denn das Spiel erscheint bekanntermaßen am 16.11.2007.
Interessant ist auch, dass Crysis nur im DX9-Modus und unter Windows XP 64 Bit präsentiert wurde. Die Hintergründe für diese Wahl (gerade XP 64 Bit als OS ist etwas ungewöhnlich) sind uns nicht bekannt. Vor Ort konnten wir leider keinen Ansprechpartner finden, der uns die Entscheidung erklären konnte.
Superheld
2007-08-26, 16:54:18
aua
Deathcrush
2007-08-26, 16:56:53
War was anderes zu erwarten ;) Mal schaun wie gut sie es optimiert bekommen.
ZapSchlitzer
2007-08-26, 16:57:54
Wurde doch bereits gesagt, dass die Version von Crysis welche man auf der GC spielen konnte, noch nicht optimiert war.
Ich mache mir da ehrlichgesagt keine Sorgen, und nVidia wird sicherlich auch schon an einem Treiber arbeiten - man schaue sich nur Bioshock & Co. an.
Deathcrush
2007-08-26, 17:04:10
Nvidia arbeitet an einer neuen Hardware, also wofür Treiber optimieren wenn die neue Hardware verkauft werden will ;) Die 8800GTX hat dann schon ein Jahr aufn Buckel wenn Crysis erscheint. Ich würd keine Wunder erwarten und mich freuen wenn es auf einer 8800GTX ohne AA auf High @1280x1024 (nicht Max) durchgehend mit über 40FPS läuft.
dargo
2007-08-26, 17:12:25
Nvidia arbeitet an einer neuen Hardware, also wofür Treiber optimieren wenn die neue Hardware verkauft werden will ;)
Es ist noch nicht mal sicher, ob die neue Hardware (einzelne GPU) schneller als die alte ist. ;)
Stichwort - G92GX2. Außerdem weiß noch niemand ob der November überhaupt als Termin gesichert ist. Solche Meldungen @"Specs der GC-Rechner für Crysis" lassen mich erstmal kalt. ;)
Edit:
Aber interessant, dass du sofort auf solche Meldung aufspringst. :D
Deathcrush
2007-08-26, 17:15:09
Den Titel hast du begriffen, also wieso sollte man nicht sein Komentar dazu abgeben? Und das "ältere" Hardware oft nicht mehr optimiert wird, oder einfach nicht mehr optimiert werden kann, sollte jeder aus der Vergangenheit kennen. Und warum sollte NV nicht eine schnellere Karte auf dem Markt bringen? Gerade für DAS Spiel doch DAS Kaufargument schlechthin.
dargo
2007-08-26, 17:18:39
Den Titel hast du begriffen, also wieso sollte man nicht sein Komentar dazu abgeben?
Der unsinnige Thread ist seit ~7 Wochen versunken. Und nur weil jemand wieder eine Meldung rauslässt, dass eine "Beta" Version noch nicht so läuft wie es gedacht war bist du sofort wieder da. Naja, wenns glücklich macht... :cool:
Deathcrush
2007-08-26, 17:20:52
Ich erinnere nur ans Konsolenforum ;) wo Mr. Dargo sofort aufgetaucht ist, als es hiess das CoJ auf der Box besser aussehen wird. Also bleib mal ganz locker. Der Titel heisst nun mal "Wird Crysis auf einer 8800GTX mit maximalen Details flüssig (~30fps) spielbar sei" Wenn es dir nicht passt, bitte. Aber dann Troll woanders.
P.S Wo wir schon dabei sind. Wo bleibt denn nu dein gross angekündigter DX10 Patch der CoJ auf XBox Niveau anhebt? ;)
dargo
2007-08-26, 17:24:11
Und warum sollte NV nicht eine schnellere Karte auf dem Markt bringen? Gerade für DAS Spiel doch DAS Kaufargument schlechthin.
Natürlich wird NV eine schnellere Grafikkarte bringen. Die Frage ist nur ob eine einzelne GPU schneller als ein G80 sein wird. Das ist noch nicht sicher. Und seit wann ist ein GPU-Launch an ein Game gekoppelt? Manche haben echt Wahnvorstellungen. :rolleyes:
Wenn ein neuer NV Chip die Welt erblickt und gleichzeitig Crysis erscheint ist es reiner Zufall. Und wenn du auf das Datum guckst wirst du feststellen, dass beide sich auf das Weihnachtsgeschäft einstellen, was durchaus Sinn macht.
Der Titel heisst nun mal "Wird Crysis auf einer 8800GTX mit maximalen Details flüssig (~30fps) spielbar sei" Wenn es dir nicht passt, bitte. Aber dann Troll woanders.
Der einzige der hier in dieser Hinsicht trollt bist leider du.
Deathcrush
2007-08-26, 17:31:11
noch nicht sicher. Und seit wann ist ein GPU-Launch an ein Game gekoppelt? Manche haben echt Wahnvorstellungen. :rolleyes:
Es ist nicht das erste mal das ein Spiel zusammen mit einer Graka erscheinen soll. Denk mal an HL2 zurück ;) Und an zufälle glaub ich schon lange nimmer.
Snoopy69
2007-08-26, 17:31:32
bei der auflösung wird es wohl vermutlich ziehmlich eng werden
Ich hab ja vorgesorgt :ulol:
http://www.forumdeluxx.de/forum/showpost.php?p=6859418&postcount=4739
dargo
2007-08-26, 17:35:33
Es ist nicht das erste mal das ein Spiel zusammen mit einer Graka erscheinen soll. Denk mal an HL2 zurück ;) Und an zufälle glaub ich schon lange nimmer.
Dass NV irgendwelche Verträge mit Crytek/EA abgeschlossen hat wäre mir neu. Aber nur zu wenn du mehr weißt.
Deathcrush
2007-08-26, 17:39:24
Nur das Mitarbeiter von NV (unentgeltlich) vor Ort sind, für die Shader-Programme, und das Crysis speziell auf NV Hardware ausgelegt sein soll. Ich weiss nur eins, ich leg mit jeden Monat ein bisl Geld zurück *g
dargo
2007-08-26, 17:47:04
Nur das Mitarbeiter von NV (unentgeltlich) vor Ort sind, für die Shader-Programme, und das Crysis speziell auf NV Hardware ausgelegt sein soll.
Aha, und auf welche Hardware wird optimiert wenn es noch keinen Nachfolger gibt? ;)
Ich weiß nicht wie gut die NV Mitarbeiter sind. Ich glaube aber kaum, dass diese Optimierungen schon in dem Treiber der auf irgendwelchen Präsentationen verwendet wurde enthalten sind. ;)
Diese werden wir mit Sicherheit erst im November/Dezember bekommen.
jay.gee
2007-08-26, 17:49:45
Und seit wann ist ein GPU-Launch an ein Game gekoppelt? Manche haben echt Wahnvorstellungen. :rolleyes:
Wenn ein neuer NV Chip die Welt erblickt und gleichzeitig Crysis erscheint ist es reiner Zufall.
Carsten Spille von PCGH:
"November soll es sein - soso. Wußten Sie, dass Crysis (natürlich) in Nvidias TWIMTBP-Programm ist? Und wußten Sie auch, dass die Gerüchteküche aktuell von einem neuen Nvidia-Chip ebenfalls im November spricht? Wenn das mal kein Zufall ist..."
Also dargo, jetzt mal ehrlich. Wer nicht erkennt, dass hier kooperativ wirtschaftliche Interessen verfolgt werden, dem ist nicht zu helfen. ;) Eigentlich traue ich dir auch zu, dass Du ein wenig von dem verstehst, was hinter den Kulissen in diesem Industriezweig abgeht. Da sind sehr qualifizierte Topmanager aus Topfirmen am Werk - fehlt die Vorstellungskraft, wie zb. Geschäftsgespräche in einer zb. Konfernz abläuft wirklich?
Wir reden hier auch nicht von einem Einzelfall. Dass diese Symbiosen zur täglichen Praxis gehören, konnte man genau wie jetzt bei Crysis, doch schon vor Jahren bei Doom³ feat. GF3 sehr gut beobachten. Wenn man denn halt hinguckt und dazu in der Lage ist, mal ein wenig die Gegenseite der Branche zu verstehen. =) Du wirst die riesen PR-Aktionen in einigen Wochen erleben - das ist ein Versprechen. Kann man Bundels schon vorbestellen? ;)
dargo
2007-08-26, 17:55:28
Carsten Spille von PCGH:
"November soll es sein - soso. Wußten Sie, dass Crysis (natürlich) in Nvidias TWIMTBP-Programm ist? Und wußten Sie auch, dass die Gerüchteküche aktuell von einem neuen Nvidia-Chip ebenfalls im November spricht? Wenn das mal kein Zufall ist..."
Was willst du mir jetzt damit sagen? Dass die PCGH wieder Gesprächsstoff braucht um einige Klicks zu kassieren? Angenommen Crysis wäre erst im März 2008 fertig, würde NV den Launch der nächsten GPU nach hinten verschieben und sich das Weihnachtsgeschäft kaputt machen? Ich denke nicht. ;)
Deathcrush
2007-08-26, 17:59:26
Aha, und auf welche Hardware wird optimiert wenn es noch keinen Nachfolger gibt? ;)
Ähm, es wird immer irgendwelche Testmuster geben. Oder glaubst du etwa, das es noch keine funktionierende G92 gibt? Wie konnte damals Crytek deiner Meinung nach auf DX10 setzen, wenn die Karte erst vor einem 3/4 Jahr erschien?
mapel110
2007-08-26, 18:02:33
Carsten Spille von PCGH:
"November soll es sein - soso. Wußten Sie, dass Crysis (natürlich) in Nvidias TWIMTBP-Programm ist? Und wußten Sie auch, dass die Gerüchteküche aktuell von einem neuen Nvidia-Chip ebenfalls im November spricht? Wenn das mal kein Zufall ist..."
Und?! Der ratet auch nur. Wissen tut er diesbezüglich nichts.
Im TWIMTBP sind auch noch ein paar hundert andere Spiele vertreten und die laufen merkwürdigerweise teils sogar besser auf ATI-Karten.
Beweist also auch gar nichts.
Und das mit dem Mitarbeiter vor Ort ist auch so eine Sache. Das macht ATI ja gar nicht...
Die nehmen sich sogar die Zeit, um bei Splinter Cell ganz allein eine Sache hinzubiegen. Sowas hat nvidia bislang noch nicht gemacht.
Und ich gehe mal schwer davon aus, dass auch ATI Crytek unterstützt mit Testhardware und Optimierungstipps. Gerade wenn es um neue APIs geht, müssen sie sich um die ISVs kümmern.
Ähm, es wird immer irgendwelche Testmuster geben. Oder glaubst du etwa, das es noch keine funktionierende G92 gibt? Wie konnte damals Crytek deiner Meinung nach auf DX10 setzen, wenn die Karte erst vor einem 3/4 Jahr erschien?
Bis vor einigen Monaten kam von den Entwicklern immer wieder "D3D10 wird nur zur Geschwindigkeitssteigerung genutzt."
Irgendwann in den letzten Wochen ist das dann umgeschwänkt und es ist die Rede vom ersten "D3D10-Kracher, der aber auch auf DX9 neue Massstäbe setzt".
Bei dem Blabla würd ich erstmal das Endprodukt abwarten und selbst urteilen.
dargo
2007-08-26, 18:03:48
Ähm, es wird immer irgendwelche Testmuster geben. Oder glaubst du etwa, das es noch keine funktionierende G92 gibt?
Dann erzähle mir jetzt mal inwieweit sich ein G92 von einem G80 unterscheidet außer, dass er eventuell ein bisschen "breiter" und schneller getaktet sein wird. Andere Informationen zum G92 sind mir unbekannt. Was ich damit sagen will - sollte man einen G92 für Crysis "optimieren" bekommt ein G80 genau die selben "Optimierungen" ab.
jay.gee
2007-08-26, 18:05:06
Was willst du mir jetzt damit sagen? Dass die PCGH wieder Gesprächsstoff braucht um einige Klicks zu kassieren?
Das Zitat stammt nicht von der Onlinepräsenz der PCGH. Und was wollte ich dir damit sagen? Eigentlich wollte ich nur auf Dinge hinweisen, die ich nicht glaube - sondern die ich weiss.
Angenommen Crysis wäre erst im März 2008 fertig, würde NV den Launch der nächsten GPU nach hinten verschieben? ;)
Man muss dafür kein hypothetisches Beispiel heranziehen und kann sich an der gängigen Praxis orientieren. Denn Crysis ist fertig und wird bis zur Launchzeit der nächsten NV GPU`s zurückgehalten. Das ist doch auch nur unschwer zu übersehen.
Deathcrush
2007-08-26, 18:08:22
Lass doch nur mal bei der G92 die Geometryshader optimiert wurden sein, dann wird die G80 von den optimierungen rein gar nichts haben.
dargo
2007-08-26, 18:09:04
Und was wollte ich dir damit sagen? Eigentlich wollte ich nur auf Dinge hinweisen, die ich nicht glaube - sondern die ich weiss.
Achso, dann weiß ich beim nächsten Mal an wen ich mich wenden muss. Du musst ja richtig qualifizierte Quellen haben. :rolleyes:
Man muss dafür kein hypothetisches Beispiel heranziehen und kann sich an der gängigen Praxis orientieren. Denn Crysis ist fertig und wird bis zur Launchzeit der nächsten NV GPU`s zurückgehalten. Das ist doch auch nur unschwer zu übersehen.
Aha, dann nenne mir mal eine Quelle die besagt, dass Crysis extra für den G92 zurückgehalten wird. Das was ich bis jetzt gesehen/gelesen habe ist nichts als wilde Spekulationen/Vermutungen.
Lass doch nur mal bei der G92 die Geometryshader optimiert wurden sein, dann wird die G80 von den optimierungen rein gar nichts haben.
Hä? Ich wüsste nicht, dass dem G80 ein GS fehlt. ;)
Deathcrush
2007-08-26, 18:12:42
Hä? Ich wüsste nicht, dass dem G80 ein GS fehlt. ;)
Hast du was geraucht *g Wo hab ich geschrieben das die G80 keine GS hat? Seit wann heisst optimieren das es woanders fehlt? Shadereinheiten werden kontinurlich weiterentwickelt, warum sollte NV da einen Schritt zurück machen. Und wenn die GS der G92 besser als die der G80 sind, wird die G80 kaum was von den Optimierungen der G92 haben.
jay.gee
2007-08-26, 18:17:20
:rolleyes:
Eigentlich hättest Du dir den sparen können. So unvorstellbar für dich, dass es Menschen gibt, die aus welchen Gründen auch immer, völlig andere Einblicke haben als Du?
Das was ich bis jetzt gesehen/gelesen habe ist nichts als wilde Spekulationen/Vermutungen.
stay tuned..
mapel110
2007-08-26, 18:17:31
Eins wird hier wohl auch gerne vergessen. Spiele kommen sehr gerne zu Weihnachten raus. Man möchte schließlich das Weihnachtsgeschäft mitnehmen. Und anders sieht das bei Grafikkarten auch nicht aus, nur passts da eher selten, weils da sehr viel schwerer ist, die Entwicklung vorherzusehen.
Selbst wenn beides zur gleichen Zeit rauskommt, heißt das noch gar nichts.
/edit
Es macht wohl für gar keinen Beteiligten Sinn, auf einen GS-Effekt zu setzen. Der läuft dann noch nicht mal auf dem R600 toll, weil bei dem die restlichen D3D10-Features zu lahm sind, geschweigedenn vom AA-Problem.
dargo
2007-08-26, 18:19:05
Hast du was geraucht *g Wo hab ich geschrieben das die G80 keine GS hat? Seit wann heisst optimieren das es woanders fehlt?
Ich habe dich hier wohl falsch verstanden, sorry.
Lass doch nur mal bei der G92 die Geometryshader optimiert wurden sein, dann wird die G80 von den optimierungen rein gar nichts haben.
Ich dachte du meinst Optimierungen seitens Crytek. Denn schließlich haben wir davon gesprochen.
PS: es ist noch nicht mal bekannt ob Crysis überhaupt in DX10 vom GS Gebrauch macht. Und wenn, in welchem Umfang.
Deathcrush
2007-08-26, 18:26:01
War dem nicht so das z.B die Physik davon profitieren soll?
Christi
2007-08-26, 18:26:06
Erkläre mir das bitte genauer. Warum sollte bei einem 24" TFT ein 1680x1050 interpoliertes Bild besser/gleich gut aussehen als ein natives Bild beim 22" TFT? Durch das interpolieren verschwimmt das Bild immer! Egal wie gut oder groß der TFT ist.
Das das Interpolieren die Quali mindert ist ja wohl klar, nur immer noch besser auf einem 24zoll Crysis in 1650x1050 zu zocken, als (wie es Kai sagte) auf eine 19zoll 4:3 Fichte auszuweichen. Sorry für den Ausdruck Fichte, aber wenn ich einen 24zoll besitze, dann weiche ich net auf 19zoll um.
Da spielt glaube ich jeder lieber auf dem 24zoll. Das Interpolieren wird wohl net so schlimm ausfallen. Manchmal kann man es mit den eigenen Quali-Anschprüchen auch übertreiben.
MfG
dargo
2007-08-26, 18:29:21
Das Interpolieren wird wohl net so schlimm ausfallen. Manchmal kann man es mit den eigenen Quali-Anschprüchen auch übertreiben.
Ok, das ist wiederum Geschmacksache. Ich komme mit einem interpolierten Bild überhaupt nicht klar. Das sieht deutlich schlimmer aus als noch auf meinem alten CRT. Nee, danke... :)
Wie konnte damals Crytek deiner Meinung nach auf DX10 setzen, wenn die Karte erst vor einem 3/4 Jahr erschien?
Die DX10 Spezifikationen waren schon längst bekannt. Und man braucht nicht unbedingt DX10 Hardware um DX10 Effekte zu realisieren. ;)
War dem nicht so das z.B die Physik davon profitieren soll?
Inwiefern?
Christi
2007-08-26, 19:03:52
Bin sowieso der Meinung, dass ab 24zoll und nativer Auflösung ein SLI System die besserer Wahl ist.
Mein Kumpel hat ein Dual Core Intel + 4GB Ram, 24zoll Samsung und eine 8800GTX und der muss das eine oder das andere mal Kompromisse machen.
Wer beste Quali in der hohen HD Auflösung haben will, braucht wahrscheinlich doch SLI. Irgendwie auch logisch, wozu gibts denn den "Schmarn" wenn man es net bräuchte:)
MfG
Deathcrush
2007-08-26, 19:11:54
Ich hab mich selber mit Geometryshader noch nicht zu 100% beschäftigt, aber ich versuch es einmal ^^
Vertexshader können "Knoten" verschieben, können diese aber nicht löschen oder aber neue erzeugen
Geometryshader kann z.B ein Gegenstand mit zusätzlichen Knoten ausstatten und somit dieses Objekt teilen. Sowas kann man z.B für Physik einsetzen. Oder Partikeleffekte die ja auch in Crysis vorkommen. Oder Gesichtsanimationen usw usw.
Hier mal was man mit GS machen kann
Algorithms that can be implemented in the geometry shader include:
Point Sprite Expansion
Dynamic Particle Systems
Fur/Fin Generation
Shadow Volume Generation
Single Pass Render-to-Cubemap
Per-Primitive Material Swapping
Per-Primitive Material Setup - Including generation of barycentric coordinates as primitive data so that a pixel shader can perform custom attribute interpolation.
Und hier die Featureliste von Crysis
http://www.incrysis.com/wiki/index.php/Crysis_Graphics
Undertaker
2007-08-26, 22:15:03
Erkläre mir das bitte genauer. Warum sollte bei einem 24" TFT ein 1680x1050 interpoliertes Bild besser/gleich gut aussehen als ein natives Bild beim 22" TFT? Durch das interpolieren verschwimmt das Bild immer! Egal wie gut oder groß der TFT ist.
das habe ich nirgends behauptet... während dir 1024x768 auf 19" aber sehr mies vorkommt, sieht 1680x1050 auf 24" schon gewaltig besser aus, nicht nur weil die pixel kleiner sind sondern auch weil der prozentuale unterschied der beiden auflösungen geringer ist; das man natürlich nicht an ein natives bild herankommt ist klar ;) aber zb bei css mit ordentlich aa sieht man im normalen spiel schon kaum noch unterschiede... denk zb mal an 720p trailer auf einem 22" oder 24" monitor, auch das sieht in bewegung eigentlich sehr scharf aus :)
Meryl Silverburgh
2007-08-26, 22:17:54
Erkläre mir das bitte genauer. Warum sollte bei einem 24" TFT ein 1680x1050 interpoliertes Bild besser/gleich gut aussehen als ein natives Bild beim 22" TFT? Durch das interpolieren verschwimmt das Bild immer! Egal wie gut oder groß der TFT ist.
So ein Blödsinn, selbst billige TFTs interpolieren die nächstgelegene Auflösung nach unten perfekt.
Hier verschimmt nichts mehr. Der Schärfeverlust ist gar nicht sichbar.
Meryl Silverburgh
2007-08-26, 22:20:27
Ok, das ist wiederum Geschmacksache. Ich komme mit einem interpolierten Bild überhaupt nicht klar. Das sieht deutlich schlimmer aus als noch auf meinem alten CRT. Nee, danke... :)
Klar, an die Schärfe eines TFT kommt dein alter CRT sowieso nie ran, selbst nicht mit interpolierten Bild, weil die Interpolation heutzutage kein so großes Problem mehr ist. Natürlich sollte man bei einem 24" kein 800x600 einstellen, aber 1680x1050 sollte überhaupt kein Problem darstellen, gabs hier nicht Jemanden, der seinen Dell getestet hat und keine Unterschiede zwischen 1920x1200 und 1680x1050 gesehen hat?
Undertaker
2007-08-26, 22:28:14
Klar, an die Schärfe eines TFT kommt dein alter CRT sowieso nie ran, selbst nicht mit interpolierten Bild, weil die Interpolation heutzutage kein so großes Problem mehr ist. Natürlich sollte man bei einem 24" kein 800x600 einstellen, aber 1680x1050 sollte überhaupt kein Problem darstellen, gabs hier nicht Jemanden, der seinen Dell getestet hat und keine Unterschiede zwischen 1920x1200 und 1680x1050 gesehen hat?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5007924&postcount=13
edit: und das war sogar ohne aa
derguru
2007-08-26, 22:29:45
kein bock alles zu lesen aber seit wann sind 30fps beim shooter spielbar,ich dachte das wüssten die pc hansis hier
naja umfrage sagt alles:)
Meryl Silverburgh
2007-08-26, 22:35:44
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5007924&postcount=13
edit: und das war sogar ohne aa
Danke, ja das meinte ich :)
Aber die Interpolation stellt ja noch so ein großes Problem dar, ja für die Leute die ständig mit Vorurteilen argumentieren und sowieso voreingenommen sind, über das was sie da schreiben.
Ergo, sollte man sie einfach ignorieren und sie in ihrem Irrglauben lassen, gibt ja noch jede Menge ewig Gestrige...
dargo
2007-08-26, 22:37:35
das habe ich nirgends behauptet... während dir 1024x768 auf 19" aber sehr mies vorkommt, sieht 1680x1050 auf 24" schon gewaltig besser aus, nicht nur weil die pixel kleiner sind sondern auch weil der prozentuale unterschied der beiden auflösungen geringer ist; das man natürlich nicht an ein natives bild herankommt ist klar ;)
Naja, ich habe auch mit 1152x864 meine Probleme. Das ist einfach keine Bildschärfe die einem TFT würdig ist. Ja, selbst 1280x960 auf 19" TFT kann ich mir auf Dauer nicht antun. Ich fühle mich wie besoffen dabei. :D
aber zb bei css mit ordentlich aa sieht man im normalen spiel schon kaum noch unterschiede... denk zb mal an 720p trailer auf einem 22" oder 24" monitor, auch das sieht in bewegung eigentlich sehr scharf aus :)
Ein Trailer kann nie scharf genug sein. ;)
So ein Blödsinn, selbst billige TFTs interpolieren die nächstgelegene Auflösung nach unten perfekt.
Hier verschimmt nichts mehr. Der Schärfeverlust ist gar nicht sichbar.
Ich würde mal den Augenarzt empfehlen.
Undertaker
2007-08-26, 22:39:23
Ja, selbst 1280x960 auf 19" TFT kann ich mir auf Dauer nicht antun. Ich fühle mich wie besoffen dabei. :D
also wenn du die auf vollbild streckst sieht es wirklich komisch aus :D
Meryl Silverburgh
2007-08-26, 22:43:06
Ich würde mal den Augenarzt empfehlen.
Oder eher du ;)
Prad Test NEC mit S-IPS (http://www.prad.de/new/monitore/test/2007/test-nec-lcd2690wuxi-teil13.html#Interpolation)
Prad Test HP W2207 mit TN Panel (http://www.prad.de/new/monitore/test/2007/test-hp-w2207-teil11.html#Interpolation)
So und jetzt bist du an der Reihe. Aber ich ignorier dich in Zukunft einfach, ist wohl das Beste :)
derguru
2007-08-26, 22:49:16
also ich hab den hp und die qualy ist ok bei niedrigen auflösungen,aber immmer noch mit sichtbaren verlust.da gibt es nix schön zu reden.obwohl ich schon tfts hatte die schlechter waren.
dargo
2007-08-26, 22:51:03
Oder eher du ;)
Prad Test NEC mit S-IPS (http://www.prad.de/new/monitore/test/2007/test-nec-lcd2690wuxi-teil13.html#Interpolation)
Prad Test HP W2207 mit TN Panel (http://www.prad.de/new/monitore/test/2007/test-hp-w2207-teil11.html#Interpolation)
So und jetzt bist du an der Reihe. Aber ich ignorier dich in Zukunft einfach, ist wohl das Beste :)
Und was willst du mir mit den sinnlosen, abfotografierten Bildinhalten beweisen? Nur weil Prad meint - das interpolierte Bild hat kaum nenneswerte Verluste heißt es noch lange nicht, dass ich damit zufrieden bin.
Snoopy69
2007-08-26, 23:24:02
Bin sowieso der Meinung, dass ab 24zoll und nativer Auflösung ein SLI System die besserer Wahl ist.
Mein Kumpel hat ein Dual Core Intel + 4GB Ram, 24zoll Samsung und eine 8800GTX und der muss das eine oder das andere mal Kompromisse machen.
Wer beste Quali in der hohen HD Auflösung haben will, braucht wahrscheinlich doch SLI. Irgendwie auch logisch, wozu gibts denn den "Schmarn" wenn man es net bräuchte:)
MfG
Sehe ich auch so, denn 1920x1200 + alles high reisst ganz schön an meiner GTX (warte noch auf das SLI-MB).
Bei GRAW2 zb hab ich teilweise eine Min-FPS von 40 (laut Anzeige Rivatuner). Bei Crysis wird das nicht besser werden.
Bin mal gespannt, was SLI bei GRAW2 noch rausholt.
Zum Thema interpoliertes Bild. Es sieht besch... aus!
Wer nativ keine 1920x1200 spielen kann, hätte sich keinen 24" holen dürfen. Das weiss man doch vorher (kann man in etwa ausrechnen) :rolleyes:
Umsonst hab ich nicht gleich 2 GTXen gekauft...
Meryl Silverburgh
2007-08-26, 23:51:16
Zum Thema interpoliertes Bild. Es sieht besch... aus!
Na klar, troll wo anders rum und behalte deinen BS für dich!
Snoopy69
2007-08-27, 00:15:16
Was willst du denn überhaupt, hm?
Ich hab ja nen 24-Zöller und kann das bestens selbst beurteilen. Wer das nicht sieht, kennt enweder nichts anderes oder ist wirklich blind.
Der betroffene Hund bellt... :wink:
*************************************************
Minimum System Requirements
Windows 2000 or later.*
512 MB RAM.
1.7 GHz Intel P4, AMD Athlon XP 1700+.
NVIDIA GeForce FX series or higher, ATI Radeon R300 Series, (96xx or higher.).**
Latest NVIDIA driver - Get it here. Latest ATI driver - Get it here.
Direct X compatible sound device.
3 GB of free Hard Drive space.
Direct X version 9.0C.
Broadband internet connection (ADSL or better).
*Windows Vista not supported yet.
**(Card that supports Shader 1.1 or higher)
*************************************************
Recommended System Requirements
Windows XP*.
1024 MB RAM.
2.8 GHz Intel P4, AMD Athlon XP 2800+.
NVIDIA 6600 series or higher, ATI Radeon R 420 Series, (X800 or higher).**
Latest NVIDIA driver - Get it here. Latest ATI driver - Get it here.
Direct X compatible sound device.
3 GB of free Hard drive space.
Direct X version 9.0C.
Broadband internet connection (ADSL or better).
* Window Vista not supported yet
**(Card that supports Shader 2.0. or higher)
*************************************************
Optimal System Requirements DX9
Windows XP*.
2048 MB RAM.
Intel Pentium D/Core duo, AMD Athlon 64 X2 Series or better.
GeForce 7800 Series or higher, ATI Radeon R 520 Series (XT 1800 or higher).**
Latest NVIDIA driver - Get it here. Latest ATI driver - Get it here.
Direct X compatible sound device.
3 GB of free Hard drive space.
Direct X version 9.0C.
Broad band internet connection(ADSL or better).
**(Card that supports Shader 3.0. or higher)
*************************************************
Optimal System Requirements DX10
Windows Vista*.
2048 MB RAM.
Intel Pentium D/Core duo, AMD Athlon 64 X2 Series or better.
GeForce 8800 Series or higher, ATI Radeon R 600 Series (XT 2900 or higher).**
Latest NVIDIA driver - Get it here. Latest ATI driver - Get it here.
Direct X compatible sound device.
3 GB of free Hard drive space.
Direct X version 10.0.
Broad band internet connection(ADSL or better).
**(Card that supports Shader 4.0. or higher)
*************************************************
...:wink:
MartinRiggs
2007-08-27, 09:02:54
Sind die Offiziell die Anforderungen?
Wo hast du die her?
dargo
2007-08-27, 10:23:44
*************************************************
Optimal System Requirements DX10
Windows Vista*.
2048 MB RAM.
Intel Pentium D/Core duo, AMD Athlon 64 X2 Series or better.
GeForce 8800 Series or higher, ATI Radeon R 600 Series (XT 2900 or higher).**
Latest NVIDIA driver - Get it here. Latest ATI driver - Get it here.
Direct X compatible sound device.
3 GB of free Hard drive space.
Direct X version 10.0.
Broad band internet connection(ADSL or better).
**(Card that supports Shader 4.0. or higher)
*************************************************
Wieder nur Angaben die leider nichts aussagen. Für welche Auflösung soll das reichen? Für welche AA Stufe (AF spiel kaum mehr eine Rolle)?, Für welche minimale Framerate soll das reichen?
Du siehst also, dass das alles und nichts bedeutet. Der größte Witz ist aber:
Intel Pentium D/Core duo :lol:
Dazwischen liegen Welten. Schon alleine zwischen einem E6850 und einem X2 3800+ liegen Welten und dann kommen die mit einem Pentium D? :|
Das einzige sinnvolle was ich hier herauslesen kann ist, dass die Entwickler das Game nicht auf ein 64Bit System "optimiert" haben, sprich kein Gebrauch von mehr als 2GB Ram.
PS: ein Core Duo ist eine Mobile-CPU. ;)
Christi
2007-08-27, 10:30:58
Schöne Shader Bandbreite, da kann wirklich jeder versuchen das Game zu zocken.
Wobei die "Recommended System Requirements" wohl eher ein Witz sind. Mit dem System läuft das Game nie und nimmer. Ok, low Details etc.
Sehe das gerade bei Bioshock. Lauf Systemvorraussetzungen müsste das Game bei meinem Bruder laufen.
A64 3200,1,5GB Ram, 7600GT
Demo installiert und sofort gemerkt, dass das Game in 1024x768 und High Details keineswegs flüssig läuft. Sobald ein Gegner kommt wird es zur DiaShow.
Also Details auf mittel und siehe da es läuft.
Ernüchterung zieht schnell ein, denn auf "mittel" sieht Bioshock aber eine ganze ganze Ecke schlechter aus. So viel schlechter, das man es so garnet zocken will. Die Atmo ist da kaum noch vorhanden:(
Das wird bei Crysis IMHO genau so ein. High Details werden Pflicht sein, sonst kann man auch Facry spielen. Mit einer "empfohlenen" NVIDIA 6600 series or higher, ATI Radeon R 420 Series, (X800 or higher) wohl eher ein Scherz.
Selbst mit der bei "optimal" empfohlenen 7800 wirds wohl eher zäh wie ein alter Gummi:)
dargo
2007-08-27, 10:45:44
Eins muss man aber loben, wenigstens werden die SM1.1/SM2 Grafikkartenuser nicht ausgeschlossen. Das ist heute leider nicht mehr die Regel. Naja, ok - ist ja ein only PC Game. Da wäre alles andere traurig. Trotzdem, schön zu sehen, dass der Entwickler noch richtig Arbeit in sein Werk steckt, kein Vergleich zu den "biligen" Konsolenportierungen.
Edit:
Ich sehe nichts von einem Quadcore.
Edit2:
Nur 3GB Festplattenspeicher?
Christi
2007-08-27, 10:53:28
Am Ende läuft das Game noch auf meiner 9700pro flüssig;D
MfG
Snoopy69
2007-08-27, 10:58:09
Abwarten...
Die Systemempfehlungen waren bisher IMMER zu zu positiv geschrieben worden.
Welche durchschnittliche FPS hatte dein Bruder bei Bioshock? Und welche Min-FPS? Da kann man mit Rivatuner ganz toll und genau messen.
Meinem GTX-SLI sollte nun nichts mehr im Weg stehen. Bis übermorgen sollten die letzten Sachen kommen :D
edit:
Viel Spass beim Kauf von neuen Komponenten *g*
http://www.pcgameshardware.de/?article_id=611090
dargo
2007-08-27, 11:06:42
Viel Spass beim Kauf von neuen Komponenten *g*
http://www.pcgameshardware.de/?article_id=611090
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5787935&postcount=313 ;)
Christi
2007-08-27, 11:09:31
@Snoopy69
Kein Ahnung wieviel Frames. Wenn nix los ist, hat er bestimmt 40fps. Wenn Gegner kommen wirds unspielbar. Evtl. sind die 256MB Ram auf der Graka für High Details zu wenig.
MfG
Snoopy69
2007-08-27, 11:12:03
Wollts nur nochmal ins Gedächtnis rufen :ulol:
Ich denke, dass einige (evtl. nochmehr als bei Oblivion) entäuscht sein werden über die Hardwareanforderung.
@Snoopy69
Kein Ahnung wieviel Frames. Wenn nix los ist, hat er bestimmt 40fps. Wenn Gegner kommen wirds unspielbar. Evtl. sind die 256MB Ram auf der Graka für High Details zu wenig.
MfG
Köntte sein. Ich hatte bei meiner X800 Pro damals auch nur 256MB, die oft ganz ausgelastet waren. Der rest wurde auf den normalen Ram ausgelagert. Wer da auch nicht genug hatte... Pech!
Christi
2007-08-27, 11:15:46
Viel Spass beim Kauf von neuen Komponenten *g*
http://www.pcgameshardware.de/?article_id=611090
Das ist ja mal übel:( Die Auflösung ist ja ein Witz und dann net immer flüssig mit der Hammer Hardware. Meine Fresse, da müssen die aber noch optimieren, sonst wird SLI schon bei kleineren Auflösungen zu Pflicht.
MfG
dargo
2007-08-27, 11:16:32
@Snoopy69
Kein Ahnung wieviel Frames. Wenn nix los ist, hat er bestimmt 40fps. Wenn Gegner kommen wirds unspielbar. Evtl. sind die 256MB Ram auf der Graka für High Details zu wenig.
MfG
Ich würde eher sagen der Singelcore schwächelt einfach.
Wollts nur nochmal ins Gedächtnis rufen :ulol:
Ich denke, dass einige (evtl. nochmehr als bei Oblivion) entäuscht sein werden über die Hardwareanforderung.
"Beta" Version und zu 99% keine "Crysis" Treiber. Ich würde erstmal locker bleiben. ;)
Snoopy69
2007-08-27, 11:19:16
Wieso Singlecore???
Du hast doch eben selber den Link gepostet mit Quad!?!?!?
dargo
2007-08-27, 11:21:07
Wieso Singlecore???
Das bezog sich auf Post #362. :)
Christi
2007-08-27, 11:29:08
Ich würde eher sagen der Singelcore schwächelt einfach.
Jo kann sein, wollte mir noch mal eine AGP Karte für mein betagtes Sockel 754 System gönnen. Werde es aber net machen, bringt einfach nix mehr.
Eine komplett Umrüstung macht am meisten Sinn. Denn wie ich bei meinem Bruder sehe macht eine Singel CPU + 7600GT net mehr viel her in Spielen:(
Da reist auch eine 1950pro nix mehr raus:(
MfG
Snoopy69
2007-08-27, 11:29:35
Naja, ok...
Jedenfalls ist die Auflösung auf der GC eher mittelmäßig. Bei Full-HD (1920x1200) muss eine Karte rechnerisch min. 75% mehr leisten, um auf die gleiche FPS-Rate zu kommen. Unter dieser Auflösung will ich persönlich garnicht mehr spielen. Man gewöhnt sich viel zu schnell an Widescreen...
dargo
2007-08-27, 11:35:08
Naja, ok...
Jedenfalls ist die Auflösung auf der GC eher mittelmäßig. Bei Full-HD (1920x1200) muss eine Karte rechnerisch min. 75% mehr leisten, um auf die gleiche FPS-Rate zu kommen. Unter dieser Auflösung will ich persönlich garnicht mehr spielen. Man gewöhnt sich viel zu schnell an Widescreen...
1280x800 und 1680x1050 ist auch WS. :wink:
Da hätten wir aber wieder das Problem mit dem interpolieren. :usweet: Es sei denn, du kannst mit einem kleineren Bild leben.
Snoopy69
2007-08-27, 11:41:03
1280x800 und 1680x1050 ist auch WS. :wink:
Da hätten wir aber wieder das Problem mit dem interpolieren. :usweet: Es sei denn, du kannst mit einem kleineren Bild leben.
Kann ich nicht - wozu hab ich sonst den Dell 2407WFP und die 2x 8800GTX?
Zumal interpoliert sehr besch... aussieht. Wenn dann, 1:1. Aber dann brauche ich keinen 24"
dargo
2007-08-27, 11:44:10
Kann ich nicht - wozu hab ich sonst den Dell 2407WFP und die 2x 8800GTX
Ob das noch reicht? :devil:
Spaß... :D
Ganxsta
2007-08-27, 11:44:48
Hmmm ... wenn PCGH meint GTX reicht teilweise nicht aus.
http://www.pcgameshardware.de/?article_id=611090
MartinRiggs
2007-08-27, 11:55:28
@ganxsta guck mal im post#365, da wurde der Link schon gepostet.
Bleibt doch mal locker, Crysis kommt erst im November, die Treiber sind noch nicht optimiert und das Game scheinbar auch nicht.
Wenn die Final immer noch so schlecht läuft dann kann man noch genug jaulen.
Allerdings freut es mich schon das ich mein Upgrade der Graka verschoben hab, wenn Crysis dann doch auf ner 8800gtx rockt(oder eventuell dem Nachfolger:confused:) kann ich schnell umrüsten:biggrin:
Master3
2007-08-27, 12:03:37
Das Spiel läuft keinesfalls schlecht auf der 8800GTX, es gab nur kleine Zwischenruckler im Spiel. Selbst das Zwischenspeichern ging genauso schnell wie bei Far Cry.
Das sollte durch Optimierungen des Spiels und von Graka Treibern locker lösbar sein.
Aber AA wird wohl verdammt viel Leistung fressen, es werden ja sehr sehr...viele Objekte dargestellt.
MartinRiggs
2007-08-27, 12:15:18
Das Spiel läuft keinesfalls schlecht auf der 8800GTX, es gab nur kleine Zwischenruckler im Spiel. Selbst das Zwischenspeichern ging genauso schnell wie bei Far Cry.
Das sollte durch Optimierungen des Spiels und von Graka Treibern locker lösbar sein.
Aber AA wird wohl verdammt viel Leistung fressen, es werden ja sehr sehr...viele Objekte dargestellt.
Hast du das Game auf der GC gezockt?
Es bleibt dann aber immer noch die Frage wie weit optimiert werden kann
1280x720 oder was die gezockt haben reisst ja keinen Hering vom Teller.
Ich will in 1680x1050 zocken, ohne AA würd ich mir grade noch so gefallen lassen aber die Grundperformance muss stimmen.
dargo
2007-08-27, 12:18:04
Das Spiel läuft keinesfalls schlecht auf der 8800GTX, es gab nur kleine Zwischenruckler im Spiel.
Falls es nur ab und zu Ruckler gab kann es auch was mit dem Speichermanagment zu tun haben. Naja, genug Zeit um das zu verbessern gibts ja noch.
Master3
2007-08-27, 12:19:52
Hast du das Game auf der GC gezockt?
Es bleibt dann aber immer noch die Frage wie weit optimiert werden kann
1280x720 oder was die gezockt haben reisst ja keinen Hering vom Teller.
Ich will in 1680x1050 zocken, ohne AA würd ich mir grade noch so gefallen lassen aber die Grundperformance muss stimmen.
Ja ich habe es gezockt. Die Grafik war schon sehr gut, nur ohne AA stört das Aliasing gerade an der Vegetation, ansonsten könnte man es noch verschmerzen. Aber mal sehen wann es die ersten Tests dann gibt.
Also es lief aufjedenfall spielbar und es wurde ja eine sehr anspruchsvolle Szene gezeigt.
Henroldus
2007-08-27, 12:20:41
[x]nein
weil hier keine auflösung genannt wird und welcher prozessor als Basis genutzt wird!
ich glaube, dass in Auflösungen >1280*1024 die CPU nicht limitieren wird, solange es sich um einen Dualcore im oberen mainstreambereich(E6600) handelt.
wenn Crysis genauso skaliert wie Farcry damals, wird man die wahre Pracht erst mit der kommenden Generation von Nvidia/AMD sehen
Gortha
2007-08-27, 12:49:24
Naja, ich habe auch mit 1152x864 meine Probleme. Das ist einfach keine Bildschärfe die einem TFT würdig ist. Ja, selbst 1280x960 auf 19" TFT kann ich mir auf Dauer nicht antun. Ich fühle mich wie besoffen dabei. :D
Ja, das Problem hat man mit nem CRT nicht. Da ist das Bild immer scharf.
Jaaaaaaa,... natürlich nicht so überscharf wie auf gaaaanz tollen TFTs aber
dafür immer angenehm. Zum zocken sind CRTs immer noch das einzig
wahre, wenn man sich nicht immer die neusten Grakas und CPUs kaufen
will oder kann.
Aber mit deiner Killermaschine solltest du keine Probleme haben, auf der
nativen Auflösung ein passables und flüssiges Bild zu bekommen.
LG
Gortha
Gortha
2007-08-27, 12:52:15
Oder eher du ;)
Prad Test NEC mit S-IPS (http://www.prad.de/new/monitore/test/2007/test-nec-lcd2690wuxi-teil13.html#Interpolation)
Prad Test HP W2207 mit TN Panel (http://www.prad.de/new/monitore/test/2007/test-hp-w2207-teil11.html#Interpolation)
So und jetzt bist du an der Reihe. Aber ich ignorier dich in Zukunft einfach, ist wohl das Beste :)
Sorry, aber wer behauptet, dass ein TFT der nicht mit nativer Auflösung
betrieben wird, sondern unter dieser, dass selbiger ein scharfes Bild hat,
sollte einfach wirklich zum Augenarzt und sich auf Kurzsichtigkeit prüfen
lassen.
IMO.
Christi
2007-08-27, 13:02:31
Also es lief aufjedenfall spielbar und es wurde ja eine sehr anspruchsvolle Szene gezeigt.
Wenn man aber bedenkt was da für ein Rechner am werkeln war, wird mir schon ganz anders:eek:
Ich sage mal, dass die allermeisten User net annähernd solch einen PC besitzen und wenn es da schon ohne AA in der geringen Auflösung net 100% läuft ist das schon ein Signal allererster Güte. Selbst wenn noch optimiert wird ahne ich schlimmes.
MfG
dreamweaver
2007-08-27, 13:26:44
Wenn man aber bedenkt was da für ein Rechner am werkeln war, wird mir schon ganz anders:eek:
Ich sage mal, dass die allermeisten User net annähernd solch einen PC besitzen und wenn es da schon ohne AA in der geringen Auflösung net 100% läuft ist das schon ein Signal allererster Güte. Selbst wenn noch optimiert wird ahne ich schlimmes.
MfG
Mal ehrlich, hat denn jemand was anderes erwartet?
Auch Crytek kocht nur mit Wasser. Die können die Nullen und Einsen auch nicht neu erfinden. Wenn man sich mal die Feature Liste anschaut http://www.incrysis.com/wiki/index.php/Crysis_Graphics , ist doch klar, daß das Beste gerade gut genug sein wird. Dazu diese Sichtweite, die Texturen, die Physik usw...
Ich gehe davon aus, daß ein System wie meines (siehe Sig), realistisch gesehen gerade mal minimum ist, um Crysis halbwegs ansprechend spielen zu können. Und unter halbwegs ansprechend verstehe ich mindestens 1280x1024, 1/2 bis 3/4 Details ingame, ein wenig AF, wahrscheinlich eher kein AA, average FPS ~ 40, in heftigen Situationen auch deutlich weniger. Das alles unter XP / DX9.
Master3
2007-08-27, 13:29:38
Wenn man aber bedenkt was da für ein Rechner am werkeln war, wird mir schon ganz anders:eek:
Ich sage mal, dass die allermeisten User net annähernd solch einen PC besitzen und wenn es da schon ohne AA in der geringen Auflösung net 100% läuft ist das schon ein Signal allererster Güte. Selbst wenn noch optimiert wird ahne ich schlimmes.
MfG
Das stimmt schon. Aber ich denke das am Anfang wenn das Spiel erscheint zu 90% die Grafikkarte limitieren wird bei den Usern. Also ein Quad Core muss es bestimmt nicht sein. Die 2 zusätzlichen Kerne werden bestimmt erst bei der Physik gebraucht. Also wenn ein C2D DC ab 2,6 oder 2,8ghz nicht reicht um normale Kämpfe darzustellen läuft aufjedenfall was schief.
Snoopy69
2007-08-27, 14:27:35
Sorry, aber wer behauptet, dass ein TFT der nicht mit nativer Auflösung
betrieben wird, sondern unter dieser, dass selbiger ein scharfes Bild hat,
sollte einfach wirklich zum Augenarzt und sich auf Kurzsichtigkeit prüfen
lassen.
IMO.
Kommt drauf an, wie er es gemeint hat. Bei 1:1 ist das Bild genauso scharf wie nativ, nur dass das Bild eben kleiner ist - also passende -Bildgrösse (TFT-typisch) zur Auflösung.
Wenn ich allerdings eine Auflösung unter nativ, aber maximal auf den TFT bringen will wird es unscharf, ja. Sowas kann man einfach nicht übersehen.
Zur CPU-Wahl...
Also wenn ich mir die CPU-Auslastung meines E6600 (im Moment mit 3,5GHz) bei GRAW2 ansehe, will ich nicht wissen wie das bei Crysis ausssieht. Bei GRAW2 hab ich jedenfalls beide Kerne zu 90% ausgelastet.
Und Crysis ist grafisch und effekttechnisch wesentlich weiter vor GRAW2. Ich mein, irgendwoher MUSS das ja rausgeholt werden - entweder aus der CPU und Graka. Das Verhältnis ist ja bei jedem Game anders.
Master3
2007-08-27, 14:50:20
Zur CPU-Wahl...
Also wenn ich mir die CPU-Auslastung meines E6600 (im Moment mit 3,5GHz) bei GRAW2 ansehe, will ich nicht wissen wie das bei Crysis ausssieht. Bei GRAW2 hab ich jedenfalls beide Kerne zu 90% ausgelastet.
Und Crysis ist grafisch und effekttechnisch wesentlich weiter vor GRAW2. Ich mein, irgendwoher MUSS das ja rausgeholt werden - entweder aus der CPU und Graka. Das Verhältnis ist ja bei jedem Game anders.
Was ist jetzt so schlimm das GRAW deine CPU zu 90% auslastet? Das ist eher positiv zu werten, sonst bräuchte man keine Dual Core CPUs wenn der zweite Kern immer nur Däumchen dreht. Es wäre doch optimal wenn Crysis eine über 90%ige Auslastung der DC CPUs erreicht. Dann weiß man wenigstens das man ca. 80% mehr Leistung mit einem DC hat als mit einem SC.
Snoopy69
2007-08-27, 14:57:36
Bei dir hört sich das so an...
Es wäre doch optimal wenn mein Auto 20 Liter Sprit frisst. Dann weiß ich wenigstens das ich ca. 80% mehr Leistung mit einem V8 hab als mit einem 4 Zylinder. :ulol3:
Al-CAlifAX
2007-08-27, 15:11:16
Mal ehrlich, hat denn jemand was anderes erwartet?
Auch Crytek kocht nur mit Wasser. Die können die Nullen und Einsen auch nicht neu erfinden. Wenn man sich mal die Feature Liste anschaut http://www.incrysis.com/wiki/index.php/Crysis_Graphics , ist doch klar, daß das Beste gerade gut genug sein wird. Dazu diese Sichtweite, die Texturen, die Physik usw...
Ich gehe davon aus, daß ein System wie meines (siehe Sig), realistisch gesehen gerade mal minimum ist, um Crysis halbwegs ansprechend spielen zu können. Und unter halbwegs ansprechend verstehe ich mindestens 1280x1024, 1/2 bis 3/4 Details ingame, ein wenig AF, wahrscheinlich eher kein AA, average FPS ~ 40, in heftigen Situationen auch deutlich weniger. Das alles unter XP / DX9.
wenn dein rechner das minimum darstellt und ich bezieh mich da vor allem auf ie grafikkarte. dann können se das spiel behalten. wenn ne 8800 GTS mit 640 mb, dein 2gbyte Ram und nen noch vernünftiger C2D das minimum darstellen, dann hat Crytek eindeutig was falsch gemacht. wir reden ja hier vom minimum. oder meinst du des minimum um an die gezeigten screenshots zu kommen? also mit AA und AF und sehr hoher auflösung denke ich da genauso wie du. aber das spiel definitig auch auf älteren rechner laufen und da noch gut aussehen im verhältnis zur hardware, sonst ham se einfach nix drauf.
aber vorstellen kann ich mir net das des negativ ausfällt. denn ein Far Cry lief damals auf meiner FX5900TD128 smooth und das spiel sah schön aus. hab einfach partikel effekte auf low und schatten auf mittel gestelt und konnste so damals in 1024x768 zocken und hatte noch 2xAA und 4xAF an. und ich fands im vergleich zur hardware war des ergebnis auf dem bildschirm schon atemberaubend. einens prung weiter wars dann nochmal 2 jahre später mit meiner 7950GT und Patch 1.3 mit HdR und allen Details an. Aber des meiste an Details waren nur kleine leckerbissen, der gesamteindruck und aha effekt war schon damals groß genug.
und ich denke die hardcore freaks werden wieder alles auf volle pulle einstellen und AA und AF. die, die net so die überhardware haben, wobei es bei mir nur die grafikkarte wäre, ne 7950GT wird wohl reichen, aber keine bäume ausreissen. was ich halt erwarte ist ganz einfach, das man gewissen hardwarefressende details abschalten kann und das ganze trotzdem noch einen aha bei mir auslöst. auf AA und AF kann ich verzichten, insofern es net so arg flimmert wie beim neuen MoH Teil. FarCry hatte es vorgemacht das man sehr weit konfigurieren konnte um das bestmöglichste aus seiner hardware rausholen kann. und bei mir werden des wohl schattendarstellungen und partikeleffekte werden. solange aber das gesamtmaß passen wird wie damals, dann bich ich voll und ganz zufrieden. und mit der 8900GTS/GTX wirds mir dann anfang nächsten jahres ein zweites mal spaß machen. :P
vor allem bin ich auf die unterschiede zwischen D3D9 und D3D10 gespannt. ich kanns einfach net leden was entwickler derzeit machen. da werden effekte aufgesetzt, die mit gleicher hardware auch unter D3D9 flüssig realisierbar waren und dann als D3D10 only verkauft werden. wenn die hardare mit krasseren Effekten und aktueller noch net klarkommt, dann sollen se D3D10 einfach zum optimieren nutzen. es sind genug frames mit der neuen API rausholbar, man muss net dauernd effekte aufsetzen die halbgar programmiert sind, die D3D10 version eher schlechter spielbar machen und am ende ein unmut übrig lassen,w eil manches eh schon unter D3D9 gesehen wurde.
Crytek hat jetzt 1 jahr mit Nvidia zusammen an D3D10 gearbeitet. mal gucken was da rauskam. ich tippe ja mal auf schönere partikeleffekte, bessere schatten und zerstörbarkeit von gebäuden und bäumen ergeben weniger ruckler. und das wäre schon ne gute arbeit. aber man wird sehen. ;)
mapel110
2007-08-27, 15:16:14
Hmmm ... wenn PCGH meint GTX reicht teilweise nicht aus.
http://www.pcgameshardware.de/?article_id=611090
Eine mögliche Erklärung dafür ist, dass FSAA und AF zu viel Leistung kosten, um sie automatisch zu aktivieren.
(Thilo Bayer)
Eine mögliche Erklärung dafür könnte sein, dass das schon beim Vorgänger der Fall war. :|
Ruckler können auch aufgrund von Festplattenaktivität herühren und müssen nicht zwangsläufig was mit der Grafik zu tun haben.
XP64 wurde wohl wegen dem Speichermanagement gewählt. Da hat man mit der Adressierung weniger Probs, wenn man denn wirklich die 2 GB Ram nutzen möchte.
Und warum man übehaupt DX9 wählte?... Vielleicht ist doch was dran, an dem Satz, den man erst vor wenigen Monaten verlauten ließ, dass D3D10 nur zur Performance-Steigerung eingesetzt wird und keine neuen Effekte bereitstellt.
Master3
2007-08-27, 15:22:32
Bei dir hört sich das so an...
Es wäre doch optimal wenn mein Auto 20 Liter Sprit frisst. Dann weiß ich wenigstens das ich ca. 80% mehr Leistung mit einem V8 hab als mit einem 4 Zylinder. :ulol3:
Aha, also findest du das gut das der 2.te Kern sich langweilt, etwas Energie spart und man für irgendwas Leistungsreseven hat die man eh nicht nutzen will oder wie?
tombman
2007-08-27, 15:43:47
Hier ist tombi :) (bin noch im Cafe in Leipzig, Don Vito ist schon heute morgen abgereist).
Also ich kann euch versichern: Crysis rennt flüssig in 1280x720 auf einem quadcore + EINER 8800GTX ;)
ALso genauso wie ich es schon gesagt habe, ohne es vorher zu wissen: Gott, bin ich gut ;)
Auf der Messe konnte ich es in 1280x720, allerdings DX9 Modus, spielen...
Komischerweise waren DX10 Versionen von Crysis nirgends zu sehen (vielleicht im Business Center?)
Ich wollte in die Optionen rein, um die Details anzusehen und die Auflösung zu erhöhen, aber 90% aller Menus waren gelockt...
Kladderadatsch
2007-08-27, 15:46:11
das waren aber max. details?
Al-CAlifAX
2007-08-27, 15:52:37
schon wieder so ne niedrige auflösung für die man trotzdem ne 8800GTX braucht? löl. na so langsam sagt mir crysis doch net mehr zu. also zumindest net bis die 8900GTX bei mir im rechner ist und da des eh noch bis 2008 dauert, da ich geizig bin, erlebe ich wohl crysis eh net mehr 2007. sorry aber ich zocke net in so ner scheiss auflösung mit ner High end karte. ne lass mal. und das mit dem quadcore, na mal gucken. ich kauf mir auhc net extra nen quadcore. derzeit ist dualcore standard und net quadcore. ich will net schon wieder in die stromkosten von nem P4 rein. bin froh das ich endlich hardware habe die kaum strom frisst. irgendwie habe ich eher das gefühl das die GC version noch net optimal war. denn bei der hardware ist die auflösung und kein AA einfach mal suboptimal. :P
@tomb: ich hoffe dir gefällt meine heimatstadt. :P
trollkopf
2007-08-27, 15:56:08
Crysis Development - Trouble with DirectX 10 (http://www.twitchguru.com/fringedrinking/2007/08/crysis_development_-_trouble_with_directx_10.html)
[...]There has been a lot of hype about the fact that Crysis works with DirectX 10 and Vista, but you're demoing the game with DirectX 9. Why is that?
For different reasons. We're still receiving drivers which are crashing, that's the main reason. We don't have a stable driver yet. We have drivers out there on the market but we are pushing the drivers so hard that we are getting all the time multi-core drivers, dual core drivers, or multi-threaded drivers essentially, with multi-threaded architecture.
Until we get it on Vista running on multi-threaded drivers we don't want to show any more, because we are getting performance impact on Vista. We don't want to make Vista look bad either, because it's not Vista's fault - it's the driver right now. So we're working very closely with Nvidia to resolve these last issues we have with systemic performance... There are a lot of driver issues on the market.
DirectX 9 just runs smoothly for us. We've been working with it for five or six years now. I would even say some DirectX 10 games out there won't look as good as ours running DirectX 9. Or as a competitor friend said, Crysis will be the zenith of graphics for probably the next two or three years. It's not me saying it, it's another guy saying it. I won't mention who...[...]
irgendwie ist die ganze speku müßig, denn keiner weiss, ob die settings der ganzen demos wirklich max war. die werden es so eingestellt haben, das es läuft.
MartinRiggs
2007-08-27, 16:15:30
schon wieder so ne niedrige auflösung für die man trotzdem ne 8800GTX braucht? löl. na so langsam sagt mir crysis doch net mehr zu. also zumindest net bis die 8900GTX bei mir im rechner ist und da des eh noch bis 2008 dauert, da ich geizig bin, erlebe ich wohl crysis eh net mehr 2007. sorry aber ich zocke net in so ner scheiss auflösung mit ner High end karte. ne lass mal. und das mit dem quadcore, na mal gucken. ich kauf mir auhc net extra nen quadcore. derzeit ist dualcore standard und net quadcore. ich will net schon wieder in die stromkosten von nem P4 rein. bin froh das ich endlich hardware habe die kaum strom frisst. irgendwie habe ich eher das gefühl das die GC version noch net optimal war. denn bei der hardware ist die auflösung und kein AA einfach mal suboptimal. :P
@tomb: ich hoffe dir gefällt meine heimatstadt. :P
suboptimal, das hast du aber nett ausgedrückt.
Wenn Crysis in der final so laufen würde wäre das eine Katastrophe.
Für ne Popelauflösung ne 8800GTX, jau ist klar:rolleyes:
mapel110
2007-08-27, 16:45:54
suboptimal, das hast du aber nett ausgedrückt.
Wenn Crysis in der final so laufen würde wäre das eine Katastrophe.
Für ne Popelauflösung ne 8800GTX, jau ist klar:rolleyes:
Dafür gibts dann endlich eine Anwendung für Quad-SLI. ^^
Deathcrush
2007-08-27, 18:35:35
Hier ist tombi :) (bin noch im Cafe in Leipzig, Don Vito ist schon heute morgen abgereist).
Also ich kann euch versichern: Crysis rennt flüssig in 1280x720 auf einem quadcore + EINER 8800GTX ;)
ALso genauso wie ich es schon gesagt habe, ohne es vorher zu wissen: Gott, bin ich gut ;)
Auf der Messe konnte ich es in 1280x720, allerdings DX9 Modus, spielen...
Komischerweise waren DX10 Versionen von Crysis nirgends zu sehen (vielleicht im Business Center?)
Ich wollte in die Optionen rein, um die Details anzusehen und die Auflösung zu erhöhen, aber 90% aller Menus waren gelockt...
Und weil es in DX9 flüssig lief, muss es in DX10 zwangsläufig auch der Fall sein :D Klar, hat die Wirtschaftsmaschinerie gelabert das DX10 Spiele schneller rennen als DX9 Spiele. Aber bisher sehe ich davon nichts. Selbst der angekündigte Lost Planet Patch, der LP unter DX10 18% schneller machen als sein DX9 Bruder + mehr Effekte, ist ein Witz und unter Vista leider sehr viel langsamer als unter XP. Bioshock das selbe Spielchen, ebenfalls 16%-20% langsamer. Und was ich bis jetzt mitbekommen habe, lief Crysis ohne AA und ohne AF auf der GC und ruckelte trotzdem an manchen Stellen.
P.S Bis jetzt ist mir noch kein Spiel untergekommen was unter Vista mit DX10 + mehr Effekte genauso schnell rennt wie unter XP, noch nciht einmal gleich schnell. Getestet LP, World in Conflict Demo, Bioshock und CoJ DX10 Bench.
Nightspider
2007-08-27, 18:37:36
Hier ist tombi :) (bin noch im Cafe in Leipzig, Don Vito ist schon heute morgen abgereist).
Also ich kann euch versichern: Crysis rennt flüssig in 1280x720 auf einem quadcore + EINER 8800GTX ;)
ALso genauso wie ich es schon gesagt habe, ohne es vorher zu wissen: Gott, bin ich gut ;)
Auf der Messe konnte ich es in 1280x720, allerdings DX9 Modus, spielen...
Komischerweise waren DX10 Versionen von Crysis nirgends zu sehen (vielleicht im Business Center?)
Ich wollte in die Optionen rein, um die Details anzusehen und die Auflösung zu erhöhen, aber 90% aller Menus waren gelockt...
Dasselbe habe ich auch probiert Tombman, war aber klar das die gelockt oder unzugänglich sind.
Laut Aussage des Entwicklers lief Crysis auf höchsten Einstellungen bzw. High. Ob es nun wirklich die höchsten Einstellungen waren weiß wohl nur Gott, schließlich sollte man doch noch einiges ins Extrem steigern können was so ziemlich jeden aktuellen HighEnd-Rechner in die Knie zwingen sollte, laut alter Aussagen Chevat Yerlis.
Naja, we will see, ich hoffe sie halten sich dran das man noch bessere Grafik freicheaten kann.
Was mir im Video gefällt ist dass er das Wort "fix" für den 16.11 erwähnt. Dann kann man sich wohl wirklich drauf einstellen. :)
Ganxsta
2007-08-27, 19:56:57
...
Also ich kann euch versichern: Crysis rennt flüssig in 1280x720 auf einem quadcore + EINER 8800GTX ;)
ALso genauso wie ich es schon gesagt habe, ohne es vorher zu wissen: Gott, bin ich gut ;)
...
Das ist doch ein witz oder? Du hast garnix gesagt! Wir sprachen damals von 1280*1024 und 4AA+16AF.
1280*720 ist eine Auflösung zwischen 1152*864 und 1024*768 und auch noch ohne AA und AF. Bei der Auflösung ist es ja kein Wunder und ziemlich weit davon entfernt was du gesagt hattest.
jay.gee
2007-08-27, 20:07:49
ALso genauso wie ich es schon gesagt habe, ohne es vorher zu wissen: Gott, bin ich gut ;)
Du kannst keine Angaben über die Settings machen und sabbelst von Auflösungen, die kaum ein Mensch interessiert? Bist Du gut, tombman :| Das was Du uns berichten kannst ist also der Umstand, dass Crysis auf einer 8800GTX läuft und die Engine Möglichkeiten zum Skalieren bietet? Dafür hättest Du nicht extra nach Leipzig fahren müssen, dass hätten wir alle dir auch hier im Forum verklickern können.
Deathcrush
2007-08-27, 20:10:20
Tombman legt sich das immer so aus, wie es ihm gerade am besten passt.
Snoopy69
2007-08-27, 22:04:47
Ich finde diese Vorführauflösug auch ein Witz. Das sind rechnerisch 42%, die die Graka weniger leisten muss im Gegensatz zu 1280x1024. Oder sind die 1280x720 standard für Widescreen?
Zudem beurteilt "flüssig" jeder anders. Manche merken es mehr, manche weniger - manche sogar garnichts mehr. Für mich bebeutet flüssig eine Mindest-FPS von 30. Ich kann mir nicht vorstellen, dass das auf der GC gegeben war.
Christi
2007-08-27, 22:05:27
Die Auflösung ist doch die XBOX HD Auflösung, bissl niedrig für solch ein TopSystem. Also wenn das Game noch net mal flüssig in der nativen Auflösung eines weitverbreiteten 22zoll Widescreen TFT´s (1650x1050) läuft- dann Gute Nacht.
MfG
Snoopy69
2007-08-27, 22:13:47
Und Full-HD 1920x1200 ist erst am kommen :wink:
Morgen kommt endlich mein SLI-MB:D
dargo
2007-08-27, 22:47:32
Zur CPU-Wahl...
Also wenn ich mir die CPU-Auslastung meines E6600 (im Moment mit 3,5GHz) bei GRAW2 ansehe, will ich nicht wissen wie das bei Crysis ausssieht. Bei GRAW2 hab ich jedenfalls beide Kerne zu 90% ausgelastet.
Und Crysis ist grafisch und effekttechnisch wesentlich weiter vor GRAW2. Ich mein, irgendwoher MUSS das ja rausgeholt werden - entweder aus der CPU und Graka. Das Verhältnis ist ja bei jedem Game anders.
Was ist das denn für eine Logik? :tongue:
Wenn du bei GRAW 2 bei beiden Kernen 90% Auslastung hast und in 640x480 ohne AA/AF >100fps hast wüsste ich nicht was daran so schlimm ist. Wenn du das jetzt auf Crysis überträgst hätte Crysis noch jede Menge Spielraum bei der CPU-Leistung. Schließlich würde keiner 100fps brauchen.
Wie schon Master3 sagte - sei doch froh, dass endlich Multicores vernünftig genutzt werden.
Dafür gibts dann endlich eine Anwendung für Quad-SLI. ^^
Genau, dann aber bitte gleich mit 4x G90. :ugly:
Da fehlt aber noch was, der Unterbau. Wie wärs mit einem Quadcore von AMD und das ganze gleich zweimal? ;D
Oh man, der Thread wird immer besser. :|
P.S Bis jetzt ist mir noch kein Spiel untergekommen was unter Vista mit DX10 + mehr Effekte genauso schnell rennt wie unter XP, noch nciht einmal gleich schnell. Getestet LP, World in Conflict Demo, Bioshock und CoJ DX10 Bench.
Jetzt bin ich aber gespannt wie du den CoJ Benchmark unter WinXP zum laufen gebracht hast. :devil:
Snoopy69
2007-08-27, 23:18:35
Was ist das denn für eine Logik? :tongue:
Wenn du bei GRAW 2 bei beiden Kernen 90% Auslastung hast und in 640x480 ohne AA/AF >100fps hast wüsste ich nicht was daran so schlimm ist. Wenn du das jetzt auf Crysis überträgst hätte Crysis noch jede Menge Spielraum bei der CPU-Leistung. Schließlich würde keiner 100fps brauchen.
Wir reden aneinander vorbei...
Warum braucht man einen DC und warum braucht man demnächst einen QC?
Ganz einfach - weil die Software danach fordert.
Ideal wäre eine CPU, die kaum Leistung verbrät bze. kaum ausgelastet ist. Also ummengen an Reserven hat.
Soll heissen, wir bekommen Hardware immer nur scheibchenweise. Die Wahrheit ist aber, dass man eine CPU herstellen könnte, mit der wir die nächsten 5-10Jahre leben könnten. Widerstrebt aber den Hardwareherstellern. Die wollen ja an den Scheibchen was verdienen.
dargo
2007-08-27, 23:32:40
Wir reden aneinander vorbei...
Warum braucht man einen DC und warum braucht man demnächst einen QC?
Ganz einfach - weil die Software danach fordert.
Falsch. Die Software wird nur an die Hardware angepasst. Dass wir keine schnelleren Singlecores sehen liegt nur an der limitierenden Fertigungstechnologie. Der nächste logische Schritt ist einfach in die "Breite" zu gehen.
Und wo ist jetzt für dich der Unterschied, wenn ich mir folgende CPUs (sollte es diese geben) hole...
2006 = 2Ghz SC
2007 = 2Ghz DC
2008 = 2Ghz QC
oder
2006 = 2Ghz SC
2007 = 4Ghz SC
2008 = 8Ghz SC
solange die Anwendung 1:1 selbst mit 4 Cores skaliert?
Ideal wäre eine CPU, die kaum Leistung verbrät bze. kaum ausgelastet ist. Also ummengen an Reserven hat.
Soll heissen, wir bekommen Hardware immer nur scheibchenweise. Die Wahrheit ist aber, dass man eine CPU herstellen könnte, mit der wir die nächsten 5-10Jahre leben könnten. Widerstrebt aber den Hardwareherstellern. Die wollen ja an den Scheibchen was verdienen.
Richtig, die Scheibchen sind aber mit DC und QC größer geworden als noch bei den SCs (leistungsmässig). ;)
Snoopy69
2007-08-27, 23:45:42
Wir reden wieder aneinander vorbei... :ulol:
Mir geht es nicht um SC, DC, QC oder (?)C! Mir geht es um die Aussage, dass es doch gut wäre, wenn die CPU fast ganz ausgelastet ist :wink:
Mir wäre 50% oder weniger lieber bei gleicher Leistung. Somit haben auch noch andere Anwendungen Anspruch an die CPU. Bei ihm soll anscheinend nur das Spiel laufen, aber andere Anwendungen quasi abkotzen...
tombman
2007-08-28, 00:19:08
Du kannst keine Angaben über die Settings machen und sabbelst von Auflösungen, die kaum ein Mensch interessiert?
Sabbeln tust höchstens du...
Ich verkünde.
Bist Du gut, tombman :| Das was Du uns berichten kannst ist also der Umstand, dass Crysis auf einer 8800GTX läuft und die Engine Möglichkeiten zum Skalieren bietet? Dafür hättest Du nicht extra nach Leipzig fahren müssen, dass hätten wir alle dir auch hier im Forum verklickern können.
Ich fuhr nach Leipzig, und meine Göttlichkeit wurde von der Realität bestätigt...
Im Poll habe ich nie eine spezielle Auflösung genannt. Wenn sich Leute einbilden ich hätte damit irgendeine 16xx oder gar 19xx Auflösung gemeint -> nicht mein Problem.
Intern für mich ging ich von der "kleinen-HD-Auflösung" aus, ja, richtig, 1280x720(800) (je nachdem ob 16:9 oder 16:10) ist KEINE "Popelauflösung", sondern HAA-DEE. MS und co. waren die Auflösung ja auch nicht zu klein, um Crysis darauf zu zeigen ;)
Btw, so gut wie alle auf der Messe zeigten die games in 1280x720(800), was ja wegen der Konsolen auch logisch ist.
Undertaker
2007-08-28, 00:19:09
Wir reden wieder aneinander vorbei... :ulol:
Mir geht es nicht um SC, DC, QC oder (?)C! Mir geht es um die Aussage, dass es doch gut wäre, wenn die CPU fast ganz ausgelastet ist :wink:
Mir wäre 50% oder weniger lieber bei gleicher Leistung. Somit haben auch noch andere Anwendungen Anspruch an die CPU. Bei ihm soll anscheinend nur das Spiel laufen, aber andere Anwendungen quasi abkotzen...
außer games gibt es doch kaum noch echtzeitanwendungen, die eine heutige cpu auch nur halbwegs fordern - mit gutem decoder haben selbst 1080p h264 videos mit 20-30mbit kaum noch 20% cpu last bei mir...
Snoopy69
2007-08-28, 00:46:18
Ihr fahrt doch eure Autos auch nicht am Limit der Drehzahl, oder?
Mal nebenbei...
Ich hab grad das Bioshock-Demo drauf. Bei 1920x1200 + alles high hab ich 40-60FPS. Kurzzeitig geht es auch mal bis 25FPS runter.
Ansonsten ziemlich krankes Spiel :ulol:
derguru
2007-08-28, 01:18:28
30fps flüssig sag ich nur:)
jay.gee
2007-08-28, 01:27:21
Sabbeln tust höchstens du...
Ich verkünde.
Dann verkünde - und sabble nicht. ;) Im Grunde genommen kannst Du bis auf über die Auflösung gar nichts berichten. Ich will das Game in 1280x1024 mit 4xAA und 16xAF bei flüssigen ~60Fps spielen. Kann eure Göttlichkeit mir verkünden, ob eine 8800GTX dafür ausreichen wird, oder kannst Du doch nur sabbeln? :confused:
Deathcrush
2007-08-28, 01:33:09
Jetzt bin ich aber gespannt wie du den CoJ Benchmark unter WinXP zum laufen gebracht hast. :devil:
Hast du unter XP beim Spielen 14FPS gehabt ;) Denk doch wenigstens mal ein bisl nach! Das der Benchmark unter Vista absolut schlecht performt für das Gebotene, dürfte ja wohl unschwer zu übersehen sein. So schlecht lief CoJ unter XP NICHT. Ich kann mich jedenfalls an der keiner Stelle erinnern wo ich 14FPS hatte und das mit AA.
tombman
2007-08-28, 01:33:13
Dann verkünde - und sabble nicht. ;) Im Grunde genommen kannst Du bis auf über die Auflösung gar nichts berichten. Ich will das Game in 1280x1024 mit 4xAA und 16xAF bei flüssigen ~60Fps spielen. Kann eure Göttlichkeit mir verkünden, ob eine 8800GTX dafür ausreichen wird, oder kannst Du doch nur sabbeln? :confused:
Wenn du denkst ich sabble nur, dann such dir deine Antwort eben bei wem anderen ;)
Ich muß meine Gunst ja nicht jedem zuteil werden lassen ;)
Superheld
2007-08-28, 01:35:24
schön das du wieder da bist:smile:
...musste sein:redface:
tombman
2007-08-28, 01:37:19
schön das du wieder da bist:smile:
...musste sein:redface:
thx, manche versuchen ja bereits wieder das zu ändern, auch wenn sie dabei selbst gebanned werden würden.
Da ich aber momentan keine Lust auf einen ban habe, werden sie scheitern ;)
jay.gee
2007-08-28, 01:38:54
Wenn du denkst ich sabble nur, dann such dir deine Antwort eben bei wem anderen ;)
Ich habe die Antwort in diesem Thread eigentlich immer schon bei mir selbst gesucht und muss daher nicht suchen. ;)
tombman
2007-08-28, 01:41:12
Ich habe die Antwort in diesem Thread eigentlich immer schon bei mir selbst gesucht und muss daher nicht suchen. ;)
Naja, dann solltest deine Fragen vielleicht nicht anderen sondern dir selbst stellen ;)
Nightspider
2007-08-28, 01:44:45
Leute, geht schlafen, das führt doch zu nix. :)
Peace :uhippie:
jay.gee
2007-08-28, 01:46:13
Leute, geht schlafen, das führt doch zu nix. :)
Peace :uhippie:
Copy, N8 Ladies. =)
dargo
2007-08-28, 09:19:14
Hast du unter XP beim Spielen 14FPS gehabt ;) Denk doch wenigstens mal ein bisl nach!
Ich hatte dir schon mehrmals gesagt, dass der DX10 Benchmark ca. 1/3 mehr Details bei der Vegetation etc. beinhaltet. Der Vergleich hinkt einfach.
Außerdem wurde der Benchmark für AMD/ATI optimiert.
LovesuckZ
2007-08-28, 09:26:59
Im Poll habe ich nie eine spezielle Auflösung genannt. Wenn sich Leute einbilden ich hätte damit irgendeine 16xx oder gar 19xx Auflösung gemeint -> nicht mein Problem.
Dein Poll war von anfang scheiße.
Intern für mich ging ich von der "kleinen-HD-Auflösung" aus, ja, richtig, 1280x720(800) (je nachdem ob 16:9 oder 16:10) ist KEINE "Popelauflösung", sondern HAA-DEE. MS und co. waren die Auflösung ja auch nicht zu klein, um Crysis darauf zu zeigen ;)
Sry, aber in dieser Witzauflösung sollte Crysis nun wirklich mit diesem System flüssig laufen. Alles andere wäre ein Armutszeugnis für Crytek.
dargo
2007-08-28, 09:44:56
Sry, aber in dieser Witzauflösung sollte Crysis nun wirklich mit diesem System flüssig laufen. Alles andere wäre ein Armutszeugnis für Crytek.
Ob man jetzt 1280x800 oder 1280x1024 nimmt spielt schon fast keine Rolle mehr, WS lässt grüßen. Man könnte sich höchstens "beschweren" dass kein AA/AF lief. Jetzt bleibt mal aber locker, wurde in Leipzig die Final gespielt? Mit finalen Treibern? Also, im November kann immer noch geheult werden.
Und nochmal, kleine Ruckler bedeuten nicht automatisch, dass die Grafikkarte und/oder die CPU in dieser Situation zu schwach sind.
Deathcrush
2007-08-28, 09:50:32
Ich hatte dir schon mehrmals gesagt, dass der DX10 Benchmark ca. 1/3 mehr Details bei der Vegetation etc. beinhaltet. Der Vergleich hinkt einfach.
Außerdem wurde der Benchmark für AMD/ATI optimiert.
Und? Dann sind wir mal gütig und geben 50% Optimierungsbonus, dann sind wir immer noch bei schlechten 21FPS, die ich unter XP nie hatte. Und laut Techland ist der Benchmark alles andere als ATI Optimiert. Und nenne mir doch nur mal ein Spiel, was unter DX10 (mit DX10 Unterstützung) besser rennt als unter XP mit DX9. Und komm jetzt nicht mit optimierten Treibern etc pp. Laut NV/Capcom sollte Lost Planet mit neuestem Patch und Treiber unter DX10 mit DX10 Effekten 17% schneller sein als unter DX9. Auch nur heisse Luft und Marketing gelaber. Genauso wird es mit Crysis sein. Erst mit der neuen Generation von Grakas wird Crysis ein genuss werden. Nicht umsonnst wird überall überwiegend DX9 Material öffentlich vorgeführt.
Zitat"Da Nvidias Karten hier eine sehr hohe Leistung bieten, ist man sogar verwundert über die Beschwerden, da die Änderungen eigentlich Nvidia zu Gute kommen"
http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1471032/nvidia.html
Und hier der Müll von Lost Planet
Zitat"Laut Benchmarks von Nvidia soll die DX10-Engine nun bis zu 17 Prozent schneller arbeiten als die DX9-Engine, die zudem weniger Effekte bietet."
http://www.pcgameshardware.de/?article_id=610089
EDIT: Ich denke schon das 1280x800 einen unterschied zu 1280x0124 macht. Sind immerhin knappe 30% mehr die die Graka zu berechnen hat (an den Bildpunkten gemessen)
EDIT2: Bioshock
1280x800 = 70FPS
1280x1024 = 56FPS
Macht ja keinen unterschied :D :D :D Sind ja nur 26% ;)
dargo
2007-08-28, 10:07:10
Und? Dann sind wir mal gütig und geben 50% Optimierungsbonus, dann sind wir immer noch bei schlechten 21FPS, die ich unter XP nie hatte.
Aha, dann liefere mir mal deine Frames von dieser Stelle in WinXP in 1280x1024 4xAA/16xAF mit maximalen Settings (nicht beste Qualität):
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4815599&postcount=218
EDIT: Ich denke schon das 1280x800 einen unterschied zu 1280x0124 macht. Sind immerhin knappe 30% mehr die die Graka zu berechnen hat (an den Bildpunkten gemessen)
Erstens sind es 28%, wir wollen aber nicht kleinig werden. Zweitens, da hast du einen Denkfehler. WS belastet die Grafikkarte und CPU immer stärker solange das Game WS auch richtig unterstützt und nicht einfach das Bild nur streckt. Es sei denn du schaust ständig in den Himmel. ;)
Von den 28% Vorteil bleiben max. 10% (wenn überhaupt) über würde ich jetzt mal grob schätzen. Um es ganz genau zu wissen müsste man es einfach nachmessen.
Deathcrush
2007-08-28, 10:11:52
So viel mehr belastet WS ein Spiel nicht, nicht einmal 5% waren das, hatte das damals mit meinen WS TFT testen können ;) (Armed Assault eignet sich bestens dazu) Und siehe Messungen unter EDIT 2.
dargo
2007-08-28, 10:14:35
EDIT2: Bioshock
1280x800 = 70FPS
1280x1024 = 56FPS
Macht ja keinen unterschied :D :D :D Sind ja nur 26% ;)
Da hast du dir aber ein schlechtes Beispiel ausgesucht. ;)
TDU:
1280x1024 4xAA/16xAF = 55fps
1280x800 4xAA/16xAF = 53fps
Und nun? ;)
Das ist übrigens auch der Grund warum ich mit meinem 22" WS TFT so lange warte. ;)
Deathcrush
2007-08-28, 10:19:36
Arma
32 FPS 1280x1024 5:4
38 FPS 1280x800 16:9
Und nun? Wollen wir das Spielchen unendlich weiterführen? Hier die Screens dazu
http://img213.imageshack.us/img213/3537/arma2007082810164135nd5.th.jpg (http://img213.imageshack.us/my.php?image=arma2007082810164135nd5.jpg)
http://img213.imageshack.us/img213/6585/arma2007082810212067wa1.th.jpg (http://img213.imageshack.us/my.php?image=arma2007082810212067wa1.jpg)
dargo
2007-08-28, 10:35:48
@Deathcrush
Warum werde ich das Gefühl nicht los, dass du bei beiden Screens nicht den gleichen Zeitpunkt erwischt hast (Sonneneinstrahlung in Bild 1)?
Muss nichts heißen, ich werde das aber bei Gelegenheit in ARMA selbst näher untersuchen.
PS: 1280x800 = 16:10 :)
Deathcrush
2007-08-28, 10:44:30
Ich wusste das diese Frage kommt :D Ich kenne dich zu gut. Keine Sorge, hat keine Auswirkung auf die FPS :P Die Wolken bewegen sich nun mal! Aber ich verstehe schon das man sich an jedem Strohhalm klammern muss ;). Nein Spass bei Seite, ich denke das wird auch von Spiel zu Spiel unterschliedlich sein. Die Szene bei Arma ist extrem Grakalimitiert
P.S Ob 16:9 oder 16:10 spielt bei den FPS ebenfalls keine Rolle
hier
http://img444.imageshack.us/img444/3576/arma2007082810312550ou6.th.jpg (http://img444.imageshack.us/my.php?image=arma2007082810312550ou6.jpg)
Christi
2007-08-28, 10:46:29
Verstehe schon was Snoopy69 meint. Da hat man so eine Monster CPU mit zwei Kernen (3700mhz) und da lastet irgendein popliges Computerspiel beide Kerne fast aus.
Ihm fehlt bestimmt die Power CPU, die so ein Spiel im Schlaf auf den Schirm zaubert. Immerhin hat er seinen Core Duo soweit übertaktet, dass er ca. 1Ghz schneller arbeitet als das schnellste was es derzeit gibt (von Intel).
Finde das auch übel, dass superschnelle Cpu´s schon wieder am Limit laufen.
So wars aber immer, scheibschenweise releasen, damit der User immer schön neues Zeug kauft.
Werde von meinem Single Core Cpu direkt auf Quad umsteigen, damit überspringe ich den Core Duo einfach.
Werde mir sowieso alles neu kaufen, bei der Graka bin ich noch net sicher. Halte immer noch ein Stück auf die 2900hd von Ati. Der Preis ist gut, bloß weiß man net wie ein Crysis auf der ATI performt. Von den Rohdaten macht die Karte einen guten Eindruck.
Was meint Ihr?
Deathcrush
2007-08-28, 10:49:17
Warte doch einfach die Demo und die ersten Eindrücke ab! Da kannst du dann wenig verkehrt machen.
dargo
2007-08-28, 10:55:59
Ich wusste das diese Frage kommt :D Ich kenne dich zu gut. Keine Sorge, hat keine Auswirkung auf die FPS :P Die Wolken bewegen sich nun mal! Aber ich verstehe schon das man sich an jedem Strohhalm klammern muss ;). Nein Spass bei Seite, ich denke das wird auch von Spiel zu Spiel unterschliedlich sein. Die Szene bei Arma ist extrem Grakalimitiert
Wenn es um solche Messungen geht wo man sich teilweise im einstelligen Prozentbereich zwischen zwei Auflösungen, was die Performance angeht bewegt dann muss man pingelig auf jede noch mögliche Abweichung achten. :)
Übrigens, selbst deine Stelle ist ~18% schneller obwohl die Auflösung (1280x800) ~26% weniger Pixel beinhaltet.
wenn ichs nett flüssig spielen kann in 1680x1050 mit AA und AF fliegt der ganze Müll aus dem Fenster ;D
Christi
2007-08-28, 11:00:21
@4711
Sagst Du mir wo Du wohnst, dann warte ich am Fenster und fange es auf;D
Da schleicht schon dargo rum ;D
Deathcrush
2007-08-28, 11:07:49
Wenn es um solche Messungen geht wo man sich teilweise im einstelligen Prozentbereich zwischen zwei Auflösungen, was die Performance angeht bewegt dann muss man pingelig auf jede noch mögliche Abweichung achten. :)
Übrigens, selbst deine Stelle ist ~18% schneller obwohl die Auflösung (1280x800) ~26% weniger Pixel beinhaltet.
18% haben oder nicht haben, kann bei den Min. FPS schon was reissen, z.B von 25 fps auf ~30FPS. Kann man sich das übertakten der Graka sparen ;) Denn das bringt in der Regel ja auch 18-20%
nicht immer ist mehr max FPS=mehr min.FPS...
dargo
2007-08-28, 11:22:45
Da schleicht schon dargo rum ;D
:confused:
Wobei, den Quad G0 könnte ich weich auffangen. :D
dargo
2007-08-28, 11:26:33
18% haben oder nicht haben, kann bei den Min. FPS schon was reissen, z.B von 25 fps auf ~30FPS. Kann man sich das übertakten der Graka sparen ;) Denn das bringt in der Regel ja auch 18-20%
Natürlich, da ich aber Crysis links und rechts für deutlich detailierter halte als ARMA würde es mich nicht wundern wenn es ähnlich wie in TDU aussieht. Wir können aber diesen Vergleich gerne nochmal anstellen wenn die Demo draußen ist. Ich hoffe nur, in dieser kann man endlich auch wieder speichern.
Christi
2007-08-28, 14:43:43
Was meint ihr dazu?
http://www.dignews.com/preview.php?story_id=24171
8700 mobile und Crysis:confused: Das wird doch nix-oder?
MfG
Edit: Stimmt das, dass die Demo von Crysis Ende Sep. kommt?
tombman
2007-08-28, 17:00:14
Dein Poll war von anfang scheiße.
Die Masse hat anders entschieden, und auch du schaffst es nicht fernzubleiben- gevotet hast sogar auch ;)
Immer schön weiterposten... :cool:
Sry, aber in dieser Witzauflösung sollte Crysis nun wirklich mit diesem System flüssig laufen. Alles andere wäre ein Armutszeugnis für Crytek.
HAA-DEE ;)
[x] Ja
und
[x] bescheuerte und sinnlose Umfrage?!
abhängig von der Restkonfiguration, den Treibereinstellungen und natürlich der Auflösung wird es sicherlich MÖGLICH sein, auf der höchsten Detailstufe zu spielen :usad:
tombman
2007-08-28, 22:49:12
Ich finds herzig: die Umfrage bescheuert finden, aber trotzdem abstimmen ;D
Mal sehen ob die 400 Stimmen Marke noch fällt :D
LovesuckZ
2007-08-28, 22:51:13
HAA-DEE ;)
Habt ihr im Österland einen Duden, wo ich das Wortfragment nachschlagen kann?
Snoopy69
2007-08-28, 23:24:05
Vielleicht hätte die Umfrage so heissen sollen "Wird Crysis auf einer 8800GTX mit maximalen Details flüssig (~60fps) spielbar sein?"
Seit heute würde ich es mir "ja" beantworten :ulol:
tombman
2007-08-29, 00:09:13
30fps SIND flüssig wenn die frames regelmäßig reinkommen.... nur tuts das eben selten.
Klar sind 60fps besser, aber mir sind 30fps mit konstanten frametimes lieber als 40fps mit nicht konstanten...
JaniC
2007-08-29, 03:52:20
Krass, 194 zu 196. Wer hätte das vorher gedacht.
Naja, ist ja auch ne schwachsinnige Frage (hab hier nicht mitgelesen, mir zu selbstdarstellerisch, der Personenkult hier)..
Deathcrush
2007-08-29, 13:01:19
Das Problem ist nicht die Umfrage, sondern die Fragestellung. Es wurde nur gefragt ob auf einer GTX Crysis flüssig rennen wird. Klar wird es das, bei 800x600. Aber bei 1280x1024 mit 2AA/8AF sieht es schon wieder ganz anders aus.
Zauberer
2007-08-29, 13:16:09
So jetzt stimmt der Zauberer ab!
Tombman bekommt Rückendeckung, die 400 Stimmen Marke wird fallen.
Coole Umfrage, wirklich.
197 zu 197! :eek:
Wird Crysis auf einer 8800GTX mit maximalen Details flüssig (~30fps) spielbar sein?
ja!
Unter 800x600 und einem Core2quad@3GHZ, 100%tig!
Deathcrush
2007-08-29, 13:54:43
Und genau darin liegt der Witz der Umfrage. Tombman hat das schon recht geschickt eingefedelt. So kann er sich immer auf sein Titel verlassen wenn es in 1280x800(1024) auf max nicht flüssig läuft. Dann wird es heissen, stand ja nie zur debatte. Man hätte von Anfang an eine Auflösung +AA/AF Stufe festlegen müssen. Ich denke mal die meissten NEIN Antworter gehen von 1280x1024 2AA/8AF aus.
Christi
2007-08-29, 14:12:15
Das schlimmste an der Umfrage ist doch die Aussage der Hälfte von den Votern.
Die behaupten ja, dass das Game net flüssig mit einer 8800GTX läuft.
Was sollen nun die sagen, wie ich, die keine 8800GTX im Rechner haben- noch net mal was vergleichbares.
Bin echt deprimiert, denn selbst wenn ich wöllte, so eine Graka kann ich mir einfach net leisten:mad:
Deathcrush
2007-08-29, 14:16:33
Auf MAX nicht flüssig. Soll ja nicht heissen das High nicht neue Maßstäbe setzen würde oder Medium total hässlich wäre. Aber man muss sich halt bewusst sein, das man unterhalb einer X1950XT nicht mehr alles auf High stellen kann, bzw für AA/AF schon eine 8800GTS benötigt. Und Crysis wird da garantiert noch eins draufsetzen, so das die GTS vielleicht nur für einen mix aus Mittel und Hoch unter DX10 ausreichend sein wird. So ist das nun mal mit dem PC. Wer immer neueste Grafik will, ohne Abstriche, muss einmal im Jahr aufrüsten. Ich denke das die GTX auf Hoch alles flüssig darstellen kann, Max habe ich so meine bedenken, gerade wenn AA ins Spiel kommt. (1280x1024)
Lightning
2007-08-29, 14:16:55
Das schlimmste an der Umfrage ist doch die Aussage der Hälfte von den Votern.
Die behaupten ja, dass das Game net flüssig mit einer 8800GTX läuft.
Was sollen nun die sagen, wie ich, die keine 8800GTX im Rechner haben- noch net mal was vergleichbares.
Bin echt deprimiert, denn selbst wenn ich wöllte, so eine Graka kann ich mir einfach net leisten:mad:
Hier geht es ausschließlich um maximale Details. Wenn man die runtersetzt wird man bestimmt auch mit schwächeren Systemen gut spielen können.
Christi
2007-08-29, 14:56:30
Logo aber mit was für einer Quali?
Bioshock ist doch ein aktuelles Beispiel. High Details bombige Grafik- dagegen auf Medium siehts absolut mau aus:( Atmosphäre ist wie weggeblasen.
Wenn man in aktuellen Games auf "mittel" stellt wird die Grafik erheblich schlechter. Da kann man dann auch FarCry weiter spielen:wink:
Habe das erst bei Gohtic3, Stalker, Dark Messiah of Might and Magic etc. pp festgestellt. Wenn schon ein Crysis dann aber bitte mit High Details.
MfG
Snoopy69
2007-08-29, 16:59:37
Das Problem ist nicht die Umfrage, sondern die Fragestellung. Es wurde nur gefragt ob auf einer GTX Crysis flüssig rennen wird. Klar wird es das, bei 800x600. Aber bei 1280x1024 mit 2AA/8AF sieht es schon wieder ganz anders aus.
Naja, ganz so schlimm wird es nicht werden. Wenn Crytech meint, es müsste ein Spiel programmieren, das sebst mit derzeit verfügbarer Hardware nicht läuft, dann schneiden die sich ins eigene Fleisch. Also die Masse muss es spielen können, sonst spricht sich das schnell herum und keine Sau kauft das Spiel.
Wenn, dann min. 6 Mon. später und das wollen die ganz sicher nicht.
Ich hatte eine lange Benchnacht hinter mir. Kann die "Brücke" zw. 1280x1024 und 1920x1200 (also die 75% mehr Pixel) mit dem SLI gerade mal so decken.
Deathcrush
2007-08-29, 17:14:30
Es gibt doch jetzt schon Spiele die man mit einer GTX überfordern kann, bestes Beispiel ist doch ARMA. Far Cry wa auf damaliger Hardware, als er rauskam, auch nicht auf MAX spielbar, und? Tat es dem Spiel weh? Nein, ganz im Gegenteil. Eine gute Engine muss gut Skalierbar sein, nach unten wie auch nach oben hin. Auch mit kommender Hardware.
jay.gee
2007-08-29, 17:30:31
Naja, ganz so schlimm wird es nicht werden. Wenn Crytech meint, es müsste ein Spiel programmieren, das sebst mit derzeit verfügbarer Hardware nicht läuft, dann schneiden die sich ins eigene Fleisch. Also die Masse muss es spielen können, sonst spricht sich das schnell herum und keine Sau kauft das Spiel.
Wenn, dann min. 6 Mon. später und das wollen die ganz sicher nicht.
Wieviele Games konnte man in den letzten Jahren nicht in Qualitätssettings am Releasedate spielen, weil die passende Hardware zu schlapp war? FarCry hat niemand in flüssigen Fps auf max Details feat. AAx4 und AFx16 gespielt. FEAR, ArmA, BF2, Doom³, Graw, UT2k3, Dod:S usw. usw. usw. Haben sich die Devteams ins eigene Fleisch geschnitten? Ich betrachte es als völlig normalen Umstand, dass Engines auch für zukünftige Hardware geproggt wird. Aus meiner Sicht schneidet sich Crytek eher ins Fleisch, wenn sie eine Engine auf aktuellen Niveau proggen würden. Dann wäre das Game nämlich in wenigen Monaten schon wieder technisch veraltet.
Ich gehe allerdings davon aus - dass man auf diversen Ebenen die technische Messlatte neu auflegen wird, so, dass man sie eigentlich gar nicht mit aktuell verfügbaren Games vergleichen kann. Wie sich das auf die Hardware auswirkt, sollte jeder in etwa einschätzen können, der diverse Epochen miterlebt hat. Es kann natürlich sein, dass Crytek zaubern kann, oder sie kastrieren viele ihrer angekündigten Technikfeatures. Aber selbst dann dürfte die Luft für eine GTX in meinen angepeilten Settings @1280x1024 - Full Details - AAx4 und AFx16@ ~60Fps noch sehr sehr dünn werden.
Snoopy69
2007-08-29, 17:36:12
ARMA ist doch soweit ich weiss stark CPU-abhängig!?
Vor paar Tagen hatte jmd mir gegenüber behauptet, dass man bei 3DMark06 zwischen einer Single-GTX und SLI-GTX so gut wie keinen Vorteil hat.
Er hatte nur teilweise recht - bei 1280x1024 + lauen Details.
Heute Nacht hab ich ihm dann den Beweis gebracht... :wink:
http://www.forumdeluxx.de/forum/showpost.php?p=6917250&postcount=4861
@ jay|gee
Wenn man eine Software sp programmieren könnte, das die Grafik und die Effekte Generationen anderen Spielen voraus wäre, aber nur eine GTX @ 1920x1200 + alles high verlangt, dann wäre mir sowas schon lieber.
Wir bekommen aber alle nur scheibchenweise. Oder wie war das nochmal bei Oblivion? Die FPS war bei den meisten unter aller Sau (heute sogar noch bei einigen). Man wird quasi sanft gezwungen neue, stärkere Hardware zu kaufen. Genau das ist deren Strategie :wink:
Oder meinst du nicht auch, dass irgendwo auf der Welt nicht schon eine Super-CPU für den Homebereich wartet? Ein Auto in Einzelteile verkauft bringt das 2-3fache - ein ganzes Auto allerding nicht...
jay.gee
2007-08-29, 17:38:47
ARMA ist doch soweit ich weiss stark CPU-abhängig!?
Ja - das stimmt, aber selbst die nächste Grakageneration dürfte bei ArmA@ full Details noch sehr ins Schwitzen kommen. ArmA vernascht eine GTX zum Frühstück, das steht völlig ausser Frage.
Cubitus
2007-08-29, 17:43:45
ARMA ist doch soweit ich weiss stark CPU-abhängig!?
Vor paar Tagen hatte jmd mir gegenüber behauptet, dass man bei 3DMark06 zwischen einer Single-GTX und SLI-GTX so gut wie keinen Vorteil hat.
Er hatte nur teilweise recht - bei 1280x1024 + lauen Details.
Heute Nacht hab ich ihm dann den Beweis gebracht... :wink:
http://www.forumdeluxx.de/forum/showpost.php?p=6917250&postcount=4861
hehe, ja ja die 3DMark06 Punkte werden einem von SLI Kritikern gerne Mal um die Ohren gehauen.
Wenn es sie beruhigt das ihre Singel Karte nur gering schlechter ist, dann sollen die das halt glauben :)
Was zählt sind eh die Games und ich denke Crysis wird dementsprechend gut auf SLI getrimmt sein, so dass wir uns auch bei 1920*1200 keine allzu großen Sorgen machen müssen !
Snoopy69
2007-08-29, 17:54:40
Hast du das auch ganz unten gelesen?
Bei GRAW2 (man soll es nicht glauben, aber es ist ein Spiel) ist der Vorteil bei SLI ca. 80%.
Naürlich würde es weniger bringen wenn man eine Allerwelts-Auflösung von nur 1280x1024 einstellt. Da werden die beiden Grakas wenig gefordert und das Ergebnis im Gegensatz zu einer Single-Card fällt wesentlich niedriger aus.
Deathcrush
2007-08-29, 17:55:02
Ja - das stimmt, aber selbst die nächste Grakageneration dürfte bei ArmA@ full Details noch sehr ins Schwitzen kommen. Eine GTX vernascht ArmA zum Frühstück, das steht völlig ausser Frage.
Eine GTX vernascht ArmA zum Frühstück, das steht völlig ausser Frage.
Meinst du wohl anders herum, oder ;)
Arma vernascht eine GTX.
@Cubitus Arma ist GPU & CPU limitiert. Es braucht von beidem ne Menge und mit keinem der heutigen Hardware, sei es GPU oder CPU, ist es auf FULL flüssig zu bekommen. Und wenn ja, schaltet man man kurzerhand Supersampling ein und willkommen in der Welt unter 10FPS :D
Snoopy69
2007-08-29, 18:00:13
Ich suche gerade nach einer ARMA-Demo für Singleplayer. Gibt es die überhaupt? Ich würde gerne man testen wie sich SLI im Gegensatz zu einer GTX verhält.
@Cubitus Arma ist GPU & CPU limitiert. Es braucht von beidem ne Menge und mit keinem der heutigen Hardware, sei es GPU oder CPU, ist es auf FULL flüssig zu bekommen. Und wenn ja, schaltet man man kurzerhand Supersampling ein und willkommen in der Welt unter 10FPS
Woran das wohl liegen mag? An schlampiger, unkomprimierter Programmierung? :wink:
Ich hatte mal ARMA bei einem Freund gesehen - es sagte mir garnicht zu. Die Engine ist ja die die gleiche wie das alte Spiel (mit ist grad der Name entfallen).
Nochmal zu Spielen, die der HW zuviel abverlangen. Sicher werden die Spiele gekauft wie bekloppt. Informieren oder Demo ziehen tun die allerwenigsten. ARMA scheint ja so ein hungriges Spiel zu sein. Aber niemand hier wird doch ernsthaft glauben wollen, dass in 1-2 Jahren, wenn HW das Spiel voll ausreizen kann es noch soviele Leute spielen wie jetzt. Wenn ich ein Spiel einmal durch hab ist der Reiz weg es nochmal zu spielen. D.h. ist werde sicher nicht auf bessere HW warten, um es nochmal zu spielen. In der Zeit kommen x anderen Spiele heraus.
Sowas landet dann eher bei "Pearl", wo Spiele für 20€ bis hin zu 5€ rausgehauen werden, wenn sie 1-2 Jahre und älter sind.
Deathcrush
2007-08-29, 18:01:05
Jo, ist aber mehr eine MP Demo, basierend auf der Version 1.5.
jay.gee
2007-08-29, 18:03:19
Wenn man eine Software sp programmieren könnte, das die Grafik und die Effekte Generationen anderen Spielen voraus wäre, aber nur eine GTX @ 1920x1200 + alles high verlangt, dann wäre mir sowas schon lieber.
Ich denke man darf das nicht proportional sehen. Entscheidend ist doch, dass Highend Hardware gute Kompromisse erlaubt. Anders war es doch bei den von mir genannten Titel auch nicht - ich könnte diese Liste im übrigen um ~20-30 Games erweitern und auch ältere Epochen und Games ala Kingpin und Co heranziehen. Und mal ehrlich - über eine GTX werden viele von uns in einigen Monaten schon wieder schmunzeln. Das ist ein schnelllebiges Geschäft. ;)
Wir bekommen aber alle nur scheibchenweise. Oder wie war das nochmal bei Oblivion? Die FPS war bei den meisten unter aller Sau (heute sogar noch bei einigen). Man wird quasi sanft gezwungen neue, stärkere Hardware zu kaufen. Genau das ist deren Strategie :wink:
Bei Oblivion fehlen wir die Erfahrungswerte - allerdings empfinde ich skalierbare Engines als grossen Fortschritt. Leute die weniger investieren bekommen halt weniger Eyecandy - ist doch normal. Aber jeder kennt doch das Gefühl, wenn man sich neue Hardware geholt hat und ein Game dann bis zum Anschlag dreht. Würden viele Leute ihre Settings schon beim Release richtig wählen, gäbe es auch nicht so viel dummes Gesülze ala Game XYZ ist schlecht geproggt. Warte mal Crysis ab - wenn alle ihre Regeler nach oben schieben und ihre Hardware wie immer überschätzen. ;)
Oder meinst du nicht auch, dass irgendwo auf der Welt nicht schon eine Super-CPU für den Homebereich wartet? Ein Auto in Einzelteile verkauft bringt das 2-3fache - ein ganzes Auto allerding nicht...
Naja, wenn die Relation passt und das Einzelteil seinen Zweck erfüllt, sehe ich da nichts verwerfliches. Bei Crysis kann man doch sehr gut erkennen, dass Hardware- und Softwareindustrie Hand in Hand arbeiten. Dass diese dann auch Geschäftspartner sind, sehen einige dagegen dann widerum nicht. ;)
EDIT/
Eine GTX vernascht ArmA zum Frühstück, das steht völlig ausser Frage.
Meinst du wohl anders herum, oder ;)
Arma vernascht eine GTX.
Ja natürlich - habs editiert, thx Death =) Mit anderen Worten - eine GTX ist zu schlapp für ArmA @ "Qualitysettings" - sogar deutlich zu schwach. ;)
Blaire
2007-08-29, 18:09:45
hehe, ja ja die 3DMark06 Punkte werden einem von SLI Kritikern gerne Mal um die Ohren gehauen.
Wenn es sie beruhigt das ihre Singel Karte nur gering schlechter ist, dann sollen die das halt glauben :)
Was zählt sind eh die Games und ich denke Crysis wird dementsprechend gut auf SLI getrimmt sein, so dass wir uns auch bei 1920*1200 keine allzu großen Sorgen machen müssen !
1920x1200 sollten kein Problem sein , aber 2560x1600 da bin ich mir nicht so sicher. :wink: Dies wird wohl erst Ende 2008 möglich sein mit entsprechenden Karten.
Ich gehe davon aus nach den ganzen Videos zu urteilen das für DX9 bereits eine GTX locker reichen wird, während man für die DX10 Version SLI 8800GTX haben sollte.
Deathcrush
2007-08-29, 18:13:21
EDIT/
Ja natürlich - habs editiert, thx Death =) Mit anderen Worten - eine GTX ist zu schlapp für ArmA @ "Qualitysettings" - sogar deutlich zu schwach. ;)
Hab gerade mal getestet. Arma kann ich auf 12FPS in die Kniehe zwingen. Alles was das Menu hergibt (1280x1024), aber "nur" AA auf Hoch, also nicht 8fach wie man im Menu einstellen kann. Um auf meine 40FPS zu kommen, bräucht man ~200% mehr Leistung :D Graka ist auf 575/900 übertaktet.
P.S Es war kein Gefecht, also quasi ein Standbild wo nichts passiert. Stellt euch dann noch mal ein Gefecht mit 15-20 Gegnern. Da sind die Framedrops auf 12FPS bestimmt ein Witz :D :D :D
Snoopy69
2007-08-29, 18:17:00
Also gibt es keine Singleplayer-Demo von ARMA?
@ Deathcrush
Wozu soll ein Spiel eig. gut sein, wenn KEINE HW der Welt es schafft ausser einem "Standbild" (12fps) eine Bewegung anzuzeigen. Sorry, aber das wäre KEIn Spiel für mich. Sowas ist dann einfach nur eine Katastrophe und nur dazu da um HW zu quälen. Sind damit überhaupt min. 30fps realisierbar? Und wie sieht das Spiel dann aus? Viele Treppchen und langweilige Texturen?
dildo4u
2007-08-29, 18:22:04
Also gibt es keine Singleplayer-Demo von ARMA?
Doch. http://www.armedassault.com/dwnl_demo.html
Deathcrush
2007-08-29, 18:27:32
Also gibt es keine Singleplayer-Demo von ARMA?
@ Deathcrush
Wozu soll ein Spiel eig. gut sein, wenn KEINE HW der Welt es schafft ausser einem "Standbild" (12fps) eine Bewegung anzuzeigen. Sorry, aber das wäre KEIn Spiel für mich. Sowas ist dann einfach nur eine Katastrophe und nur dazu da um HW zu quälen. Sind damit überhaupt min. 30fps realisierbar? Und wie sieht das Spiel dann aus? Viele Treppchen und langweilige Texturen?
Wenn ich alles auf High stelle, bis auf eine Option, dann habe ich im Schnitt 40FPS. AA auf High und AF auf Highest. Sichtweite statt 8000m auf 1200m. Und warum sollte das schlecht sein wenn ein Spiel erst auf MAX in 1-2 Jahren flüssig läuft? Das ist doch optimal. So hat man in 2 Jahren immer noch eine Top Grafik.
Zusammenfassend sieht Arma auf High immer noch sehr sehr beeindruckend aus, mit das beste zur Zeit. Max ist wirklich nur für Highendrechner der nächsten Generation gedacht.
Snoopy69
2007-08-29, 18:27:34
:wave2: *säug*
@ Deathcrush
Das isses ja gerade. In 1-2 Jahren in für mich das Spiel dann längst vergessen. Schnellebige Welt eben :wink:
Mir persönlich wäre der Trend lieber, wenn Spiele rauskämen, die nahezu jeder voll auslasten könnte. Stattdessen will man uns sehr voreilig die Nase lang machen mit Eyecandys, die man eh erst in 1-2 jahren voll nutzen kann. Hinter diese Strategie steckt auch ne Menge Psychologie (sich in den Käufer hineinversetzen, was ihm gefallen könnte). Völlig normal.
Cubitus
2007-08-29, 18:32:35
Hast du das auch ganz unten gelesen?
Bei GRAW2 (man soll es nicht glauben, aber es ist ein Spiel) ist der Vorteil bei SLI ca. 80%.
Naürlich würde es weniger bringen wenn man eine Allerwelts-Auflösung von nur 1280x1024 einstellt. Da werden die beiden Grakas wenig gefordert und das Ergebnis im Gegensatz zu einer Single-Card fällt wesentlich niedriger aus.
80% Skalierung ist ok, im Idealfall sind sogar 100% möglich
auch auf einer "niedrigen" Auflösung kann SLI eine 8800GTX um das doppelte ausstechen. wie z.b bei der U3 Engine (Bioshock)
hab kurz nach der Landung im Wasser ca 150FPS und im Netz sah ich einen Benchmark mit einem vergleichbaren System und einer GTX das es auf knappe 73 FPS brachte.
@Cubitus Arma ist GPU & CPU limitiert. Es braucht von beidem ne Menge und mit keinem der heutigen Hardware, sei es GPU oder CPU, ist es auf FULL flüssig zu bekommen. Und wenn ja, schaltet man man kurzerhand Supersampling ein und willkommen in der Welt unter 10FPS
würde wie Snoopy das gern mal selber testen, aber nu ne MP Demo :|
aber solange dort alles auf High gestellt werden kann, dürfte das schon gehen
1920x1200 sollten kein Problem sein , aber 2560x1600 da bin ich mir nicht so sicher. :wink: Dies wird wohl erst Ende 2008 möglich sein mit entsprechenden Karten.
Ich gehe davon aus nach den ganzen Videos zu urteilen das für DX9 bereits eine GTX locker reichen wird, während man für die DX10 Version SLI 8800GTX haben sollte.
es wäre auch mein Traum Crysis auf einem 30er Dell zu zocken :D
vielleicht ist trotzdem kein SLI nötig, wenn Crytek DX10 so implementiert wie vorgesehen, dürften dank DX10 ja Ressourcen frei werden, die wiederum für weitere Effekte benutzt werden könnten, sodass eventuell die DX10 Version gegenüber der DX9 einen Tick langsamer ist, dafür aber mehr optische Delikatessen bietet.
Doch. http://www.armedassault.com/dwnl_demo.html
Super Sache :)
Deathcrush
2007-08-29, 18:35:06
@snoopy
Für dich, aber nicht für die Arma Comunity ;) Und Arma sieht auf High wirklich sehr beeindruckend aus. Es gibt sogar Atombömbchen :D womit man eine ganze Stadt grillen kann :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5760555&postcount=368
Stell dir mal jetzt die Sichtweite auf 8000m vor ;) Das bietet kein Spiel, da dürfen die FPS auch mal in die Kniehe gehen.
P.S Auf diesen Bildern das ist ein mix aus High/middle (mehr High als middle ;)) und von 35 - 80 FPS ist alles dabei.
jay.gee
2007-08-29, 18:52:08
Wozu soll ein Spiel eig. gut sein, wenn KEINE HW der Welt es schafft ausser einem "Standbild" (12fps) eine Bewegung anzuzeigen. Sorry, aber das wäre KEIn Spiel für mich. Sowas ist dann einfach nur eine Katastrophe
Klick die Katastrophe in meiner Signatur doch mal an =)
Das isses ja gerade. In 1-2 Jahren in für mich das Spiel dann längst vergessen. Schnellebige Welt eben :wink:
ArmA wird eh nur von einer sehr kleinen Gruppe Gamer gespielt - diese bleiben dem Produkt oft Jahre treu.
>>>Greetings@GTX<<< (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5765328&postcount=247)
>>>Greetings@GTX<<< (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5720982&postcount=7)
ZapSchlitzer
2007-08-29, 20:37:19
Hat sich schon jemand das "Crysis - GC 2007 Gameplay Footage" von fileplanet angeschaut?
Schaut alles andere als flüssig aus, wobei das ganze auch nicht abgefilmt zu sein scheint.
Blaire
2007-08-29, 20:39:52
Tombman war auf der GC2007 und er meinte es lief flüssig daher glaube ich das auch. Crysis lief auf einigen Rechner ruckelig was aber wohl eher nix mit dem Game zu tun hatte.
Snoopy69
2007-08-29, 20:49:49
@ Blaire
Wie spielt sichs denn auf einem TFT mit 76cm Bilddiagonale? Bekommt man da nicht starke Nackenschmerzen durch heftiges Kopfdrehen? :ulol:
Mag viell. für manche komisch klingen, aber an die 24" gewöhnt man sich recht schnell.
Blaire
2007-08-29, 20:53:56
@ Blaire
Wie spielt sichs denn auf einem TFT mit 76cm Bilddiagonale? Bekommt man da nicht starke Nackenschmerzen durch heftiges Kopfdrehen? :ulol:
Es ist anfangs gewöhnungsbedürftig das stimmt , aber man gewöhnt sich dran. Es ist auf jeden Fall ein anderes Erlebnis zu zocken man kommt sich vor wie im Kino weil alles so gut erkennbar und die Spielewelten riesiger wirken. ;)
Nackenschmerzen hab ich keine. :biggrin:
Deathcrush
2007-08-29, 21:12:36
Tombman war auf der GC2007 und er meinte es lief flüssig daher glaube ich das auch. Crysis lief auf einigen Rechner ruckelig was aber wohl eher nix mit dem Game zu tun hatte.
Das mag ja durchaus sein das es flüssig lief. Aber das Spiel wurde in DX9 gezeigt, ohne AA und AF und ohne Angabe des Detailgrades ;)
Snoopy69
2007-08-29, 21:22:02
Kino ist richtig...
Am 24" bereite mit das fröhliche Icon-Suchen etwas Probleme, weil die auf einmal stark Links aussen waren :D
So, hab jetzt mal die ARMA-Demo angetestet. Ich hab wirklich alles so hoch eingestellt was möglich war - auch Sichtweite bis 10.000m. Aber @ 1920x1200 (16:10) kam ich NICHT unter 40fps. Bei 1280x1024 waren die FPS bei 60 wie angenagelt. Aufgezeichnet hab ich die FPS per Rivatuner - geht damit super. Einzig die Mausbewegung ist wie am Gummiband.
Cubitus
2007-08-29, 21:27:47
Kino ist richtig...
Am 24" bereite mit das fröhliche Icon-Suchen etwas Probleme, weil die auf einmal stark Links aussen waren :D
So, hab jetzt mal die ARMA-Demo angetestet. Ich hab wirklich alles so hoch eingestellt was möglich war - auch Sichtweite bis 10.000m. Aber @ 1920x1200 (16:10) kam ich NICHT unter 40fps. Bei 1280x1024 waren die FPS bei 60 wie angenagelt. Aufgezeichnet hab ich die FPS per Rivatuner - geht damit super. Einzig die Mausbewegung ist wie am Gummiband.
jo bei mir läuft´s ähnlich "flott" 1920*1200 very high sogar mit TSSAA min ~36 FPS.
Deathcrush
2007-08-29, 21:32:45
So, hab jetzt mal die ARMA-Demo angetestet. Ich hab wirklich alles so hoch eingestellt was möglich war - auch Sichtweite bis 10.000m. Aber @ 1920x1200 (16:10) kam ich NICHT unter 40fps. Bei 1280x1024 waren die FPS bei 60 wie angenagelt. Aufgezeichnet hab ich die FPS per Rivatuner - geht damit super. Einzig die Mausbewegung ist wie am Gummiband.
Und wieviel zeigt die Demo? Richtig, nicht viel ;). Wurde in 1.08 nicht auch das P. Processing überarbeitet?
Hier mal gute stellen, und da ist nichts los :D Klar hab ich nicht durchgehen 11 oder 13 FPS. Schwanken halt zwischen 11 und 30fps
http://img208.imageshack.us/my.php?image=arma2007082918071860qt6.jpg
http://img208.imageshack.us/my.php?image=arma2007082918090242yq4.jpg
http://img67.imageshack.us/my.php?image=arma2007082918103551yl3.jpg
Rechner siehe Sig, Graka übertaktet.
Snoopy69
2007-08-29, 21:38:54
Ich weiss nicht worauf du hinaus willst, aber ich hab auch so eineSonnenblendung - gerade eben sogar ein Gewitter (Blitz). Die Grafik sieht jetzt doch besser aus als ich dachte, aber unter 40fps komme ich absolut nicht. Zumal du oben geschrieben hast, dass du auch beim Nixtun nur 12fps hattest.
Zieh dir doch mal bitte die gleiche Demo, damit wir anständig vergleichen können.
Deathcrush
2007-08-29, 21:41:15
Kauf dir die Vollversion und teste :D Aber wie gesagt, wenn du wirklich glaubst das du in der Full durchgehend 60FPS (1280x1024) hast, ist das ziemlich naiv. Dann müsste dein System 450% schneller sein als meins :D
P.S Wie gross ist die Demo, oder sage mir mal welche Maps sie binhaltet ^^ Hab nur 2er DSL
EDIT: Sehe gerade die demo ist ~900MB gross. Zu viel für heute Abend. Muss morgen um 5 raus :D Ich saug die morgen.
P.S Hast du die Coopmissionen Online getestet? Oder hast du die SP Missionen getestet?
Cubitus
2007-08-29, 21:50:49
Also eins muss ich leider zu geben, Im Heli bei der zweiten Demomission versagt SLI irgendwie, da hab ich auch so um die 18 FPS mit TSSAA. und der Balken zeigt überhaupt keine Auslastung an.
Aber ansonsten ohne TSSAA und alles auf very High@1920*1200, komme ich nicht unter 50 FPS
Deathcrush
2007-08-29, 21:58:43
Klar, habe ich auch stellen wo ich nicht unter 30FPS oder 40FPS komme. Aber das kann sich auch ganz schnell ändern und zack, hat man nur noch 10FPS, wohlgemerkt bei Max Details. Und ich weiss nicht was bei 1,08 alles geändert wurde in sachen Grafik.
P.S Und dann muss man auch schaun wo man steht. In der wüste hab ich auch 60-70FPS mit Max ;) Aber wenn man in der Stadt ist oder mitten im oder am Wald, bye bye frames :D
Snoopy69
2007-08-29, 21:59:58
@ Deathcrush
Bedenke, das du eine GTS hast - ich aber 2x GTX. Die Beiden reissen ganz schön was rum. CPU läuft derzeit @ 3500MHz.
Ist halt komisch, dass du selbst bei "nur" 1280x1024 und Stillstand nur 12fps hast. Und ich kann mir beim besten Willen nicht vorstellen, warum das Spiel in der Vollversion auf einmal sehr viel stärker HW-lastig sein soll.
Bei Crysis redeten wir gerade umgekehrt. Beta = langsam, Final = flüssig.
Kannst ja auch mal zum Vergleich (für morgen) noch die Bioshock-Demo ziehen.
Unterschätze die GTX nicht. Je höher die Auflösung und stärker die Details, desto weiter setzt sie sich von der GTS ab. Somit kann es schon sein, dass ein GTX-SLI 3-4mal stärker ist als eine einzige GTS... :wink:
Deathcrush
2007-08-29, 22:06:39
Nochmal, du hast NUR die Demo. Was zeigt die denn schon gross von der Welt? Und selbst cubitus hat gerade gesagt, das er im Heli nur 18FPS hatte (non SLI), also kommt das mit meiner Messung hin ;). Und ich glaube nicht das dein Sys mal ebn 450% schneller ist :P Dann müsstest du ja in 3dmark06 mind 30000. punkte haben ^^, wenn das mit den 3-4 mal schneller hinkommen soll.
Also wie gesagt, demo mit der Full vergleichen kannst du knicken. Dafür zeigt diese viel zu wenig von dem Spiel. Ich würde trotzdem gerne mal wissen welche Mission du getestet hast, vielleicht isse ja auch in der Full.
Cubitus
2007-08-29, 22:07:38
Klar, habe ich auch stellen wo ich nicht unter 30FPS oder 40FPS komme. Aber das kann sich auch ganz schnell ändern und zack, hat man nur noch 10FPS, wohlgemerkt bei Max Details. Und ich weiss nicht was bei 1,08 alles geändert wurde in sachen Grafik.
P.S Und dann muss man auch schaun wo man steht. In der wüste hab ich auch 60-70FPS mit Max ;) Aber wenn man in der Stadt ist oder mitten im oder am Wald, bye bye frames :D
So eine ähnliche Stelle, mit diesem stark auftretenden Blendeffekt hab in der Demo leider nicht gefunden, aber egal jetzt.
Der Arma Vergleich taugt leider auch nix um sagen ob jetzt Crysis gut oder schlecht läuft ;D
Snoopy69
2007-08-29, 22:13:07
Ich hab auch eine Stelle gefunden, an der ich nur noch 30fps mit SLI hab. Wo ich vor dem Heli stehe und der Sand rumfliegt. Aber bei 1920x1200 + alles hoch wohlbemerkt.
Deathcrush
2007-08-29, 22:20:48
Wieviel Optionen habt ihr bei Post Processing. Niedrig, Hoch, Sehr Hoch? Ich weiss nur das das Post Processing früher als niedrig und hoch gab. Bei 1,08 gib es das auch als sehr hoch. Mit "nur" hoch komme ich von 11FPS auf 19FPS.
k0nan
2007-08-29, 22:21:27
@snoopy & cubitus
bei ebay gibts arma für nen 20'er - lohnt sich :smile:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.