PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Lost Planet Demo Benchmark


Seiten : 1 [2]

w0mbat
2007-05-17, 23:32:31
Und der R580 liegt wo über oder unter dem Xenos?

X1900 XT 512MB@default
http://www.imagebanana.com/img/sta66fm1/xvox.JPG

AnarchX
2007-05-17, 23:35:30
X1900 XT 512MB@default
http://www.imagebanana.com/img/sta66fm1/xvox.JPG

Erhöh mal mit "F4" die Polygonanzahl bis du etwa nur noch 30FPS hast, das war nämlich das Testsetting. (Mit F3 senkt man sie wieder)

dildo4u
2007-05-17, 23:37:19
So habs jetzt mal selber getestet meine 1950pro schafft 183Mio also hat ein voller R580 deutlich weniger als die 320 des Xenos danke für die Mühe @Wombat.

Spasstiger
2007-05-17, 23:37:37
X1900 XT 512MB@default
http://www.imagebanana.com/img/sta66fm1/xvox.JPG
Du musst den Polycount höher stellen bis 30 fps rauskommen.

Ich hab grad eben mal alle möglichen Optionen einzeln durchgetestet, um zu schauen, was am Meisten Performance saugt.
Alles in 640x480x32 (int8), noAA,noAF:
Detailstufe - fps in Snow/fps in Cave
---
min.Details - 105/54 fps
nur Texturauflösung high - 106/54 fps
nur model quality high - 104/54 fps
nur lighting quality high - 103/53 fps
nur Effektauflösung high - 97/53 fps
nur motion blur high - 86/52 fps
nur Schatten medium bw. high - 71/51 fps
max.Details - 49/46 fps
640x360 statt 640x480 - 110/53 fps

w0mbat
2007-05-17, 23:42:24
Erhöh mal mit "F4" die Polygonanzahl bis du etwa nur noch 30FPS hast, das war nämlich das Testsetting. (Mit F3 senkt man sie wieder)

http://www.imagebanana.com/img/diou7f20/xvox.JPG

dildo4u
2007-05-17, 23:49:09
Hmm ok danke und ich dachte ATI hatte schon bei der R580 Generation eine wesentlich bessere Vertexleistung gegenüber Nvidia.

perforierer
2007-05-18, 00:09:45
Hm, beim Start findet er die datei "XINPUT1_3.dll" nicht.

Im Anfangsposting ist was von nem "d3dx9_33.zip" download geschrieben, der nen Startproblem beheben soll. Ist damit das Problem gelößt?

Sry für die Frage, aber bin neugierig. Kanns gerade nicht testen, da ich net zuhause bin. ;)

Hatte die gleiche Meldung. Einfach directx april 2007 (aktuell) drüber gebügelt, dann hats gefunzt.

AYAlf
2007-05-18, 00:30:25
AMD X2 4400+
2GB DDRam (400)
1950XT (512)

1280x960
alles Max was geht!

snow 24 cave 23

diedl
2007-05-18, 00:41:07
http://www.imagebanana.com/img/diou7f20/xvox.JPG
Hmm ok danke und ich dachte ATI hatte schon bei der R580 Generation eine wesentlich bessere Vertexleistung gegenüber Nvidia.


Hm, meine unübertaktete 1950pro schafft da irgendwie mehr. :confused:

mfg diedl

Wegen Größe nur Teilbild

up¦²
2007-05-18, 03:14:19
Schade - Niemand mit 8600?
Das wäre doch mal interessant beim ersten DX10-Benchmark!

tombman
2007-05-18, 04:03:19
Habs gerade durchgespielt...GOILES game.

Und DX10 SIEHT viel besser aus, da könnts sagen was ihr wollt.
Achtet mal auf Explosionen, Motion Blur etc...

tombman
2007-05-18, 06:11:03
Lost Planet: Directx9

1600x1000 4AA/16HQ-AF, allex max: (HDR, Motion-Blur etc)

snow: 30 FPS
cave: 40 FPS

QX6700 @ 4.1 GHz
HD2900XT @ 890/1000
Selbe Einstellungen, aber mit

QX6700 @ 3.2 GHz (am WE schmeiß ich die Vapo an ;))
8800GTX SLI @ 621/1000

snow: 57 FPS
cave: 82 FPS

Doppelt so schnell, und das mit 20% weniger CPU speed ;)



Hier noch die Werte mit single 8800GTX @ 621/1000

snow: 39 FPS
cave: 59 FPS

Warum hast du dein super System mit 'ner HD2900XT "verschandelt"?
Die R600 braucht fast ein Verhältnis von 10:1 (Arithmetik zu Textur) um gut dazustehen, und das
spielts in games kaum.
http://img521.imageshack.us/img521/7685/r600101lx9.th.jpg (http://img521.imageshack.us/my.php?image=r600101lx9.jpg)
Siehe dazu auch:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1021&Itemid=1

=Floi=
2007-05-18, 08:46:06
warum nicht dauerhaft die vapo?

sagt mal wo ist denn die "durch DX10 drastisch gesenkte cpu last" :ugly: wenn ausgerechnet ein quad core hier aufblüht und ein singlecore verloren ist?

Al-CAlifAX
2007-05-18, 09:36:59
Habs gerade durchgespielt...GOILES game.

Und DX10 SIEHT viel besser aus, da könnts sagen was ihr wollt.
Achtet mal auf Explosionen, Motion Blur etc...

Naja wer auf plumpe Action steht ;) (spaß)

Aber nochmal zum D3D10 Pfad. Hab des nunmal bei nem Kumpel mir in hoher Auflösung angeschaut. Ja es gibt hier und da ein paar Details. Aber des Motion Blur würde ich nun net dazu zäählen. Und vieles ist auch nur am Rande bemerkbar, wie so kleine partikel die rumfliegen in explosionen oder die schneewehen. es sind halt nur kleine Details die man nur als geübter User erkennt. Leute die da net so geübt sind merken die Unterschiede nur marginal und des ist eindeutig zu wenig als rechtfertigung für den Kauf eines Windows-Vista - D3D10 Karte mit entsprechend Power. Des einzige was mich wirklich reizt ist des Anti-Aliasing. Ohne sieht alle so komisch aus. Mit wirkts schön. Aber des kann meine Karte nunmal net im Zusammenhang mit HDR ;).

Wie gesagt net falsch verstehen, wenn es Leute gibt die in der D3D10 Version mit der Lupe suchen. Denn es sind auch meist die Leute die siche rst noch nen Windows Vista und ne anständige D3D10 Karte kaufen müssten. Und die gucken da schon etwas kritischer auf solche Details und wenn die im Endeffekt net aussreichen um ca. 300€ für Vista und nochmal 300€ für ne NV8800GTS oder 400€ für ne X2600HD auszugeben, dann ist des eher schade. Mein kauf einer D3D10 karte steht ja fest. nur wirds kein G80 werden, ich war schon immer ein fan von Nvidias refreshs, siehe auch 7950GT, so warte ich auf den G90, net wegen mehr speed, sondern weniger stromverbrauch. bei nem 24/7 system ist sowas heutzutage wichtig. und vista ist für mich nur ein klaufgrund für D3D10 games, ansonsten ist es für mich derzeit absolut nicht gebrauchsfähig gegenüber einem WindowsXP oder Debian-Linux. Da es noch zu sehr buggy ist, die treiber eher schlecht und das System noch einiges an patcharbeit benötigt. und auch deswegen der kauf eines windows-vista nur für ein ünerragendes D3D10 erlebnis daherkommt und sry aber Lost Planet bietet da zuwenig. Denn es sieht schon in D3D9 sehr gut (sehr gut im sinne des erfinders, denn teils matschige texturen und kaum sichtweite, sowie zuviel ballerei um einen drumrum muss man mögen, ich tue es net, ich liebe eher stalker). D3D10 bietet für eine neuanschaffung von ca. 600€ minimum einfach zuwenig. Für leute die natürlich schon Vista und eine starke D3D10 Karte ihr eigen nennen, ist natürlich der D3D10 modus klar vorzuziehen. aber eben auch nur, wenn zu der guten Grafikkarte auch anständig rohpower per CPU und RAM vorhanden sind.

Für mich, und des ist nur meine persönliche meinung, ist der anreiz zu D3D10 mit diesem Spiel nicht da. Ich fühle mich nicht eingeschränkt, wenn ich nur D3D9 in diesem Spiel genieße. Ich verpasse nix, nur Mini-Details. Für den einen sind die schon Grund zum Kauf, für den anderen halt net. Bin weiterhin auf Crysis gesannt und da ja nun auch Hellgate: London (schon eher mein geschmack) nen D3D10 modus bekommt, könnte es für mich schon interessanter werden. Aber es kann genaus auch passieren, das nur die Grafikkarte erstmal ins Haus kommt und kein Vista. Denn alleine nur die neue Grafikkarte bringt schon viel. Wie ich am fehlenden AA mit HDR feststellen musste. ;) Das zum beispiel ist ein Kaufgrund. Kannst ja mal aus Spaß AA abschalten, dann weisste was ich meine. Das sieht nen blinde sofort mit grückstock das des mieser aussieht ;)

so meine meinung, spiegelt net des gesamtbild nieder und soll schon garnet den D3D10 modus platt machen. im gegenteil, es ist schön das jetzt erste versuche in der hinsicht kommen. und wenns mehr werden, dann wiegt die masse auch wieder auf. hier lagert sich alles doch etwas anders als damals bei D3D8 zu D3D9. Hier ist der kauf eines neuen betriebssystems Pflicht und das muss wohl überlegt sein. Denn im gegensatz zu manch anderen ist mein system net nur zum zocken da. ich arbeite auf dem system. und wenn dieses system eher derzeit dahingehend noch probleme bereitet bleibt nunmal nur der blick auf spiele. und wenn die zu wenig bieten, bleibt der kauf für so ein system auch aus. zumal ich nicht auch noch MS unterstützen will ein unfertiges produkt auf den markt gebracht zu haben. da muss es schon viele gute gründe geben und die sind, nochmal ;), mit Lost Planet net gegeben. Und nochmal, für schon Vista und D3D10-Karten besitzer sehe ich keinen grund in D3D9 zu zocken, es sei denn die rohpower reicht net aus ;).

so my just 2 cents.

Falk
2007-05-18, 10:55:51
Hier ist der kauf eines neuen betriebssystems Pflicht und das muss wohl überlegt sein. Denn im gegensatz zu manch anderen ist mein system net nur zum zocken da. ich arbeite auf dem system.

Das sehe ich auch so, zum arbeiten will ich vorerst auch nicht auf Win XP verzichten. Habe mir aber trotzdem letzte Woche Vista gekauft (Ultimate 64bit als OEM für 150 €, da musste ich zugreifen :wink: ) und parallel installiert. Da kann ich in Ruhe testen und kommende Spiele die D3D10 gescheit unterstützen installieren. Treiberprobleme habe ich keine, da ich ausser Tastatur, Maus, Xbox-Controller und Boxen nichts anderes anschliesse und da gibt es überall 64bit-Treiber. Das einzigste ist das Debakel mit meiner Audigy2-Karte, hoffe das Creative da noch eine Lösung findet, schon ziemlich peinlich diese Sache :mad: Und bei den Mainboard-Treibern funzt die nForce4Ultra-Firewall nicht mehr, aber das ist nicht schlimm, mit der habe ich eh nur Ärger :biggrin:

Die Demo läuft auf meinem X2 4200+ und 8800 GTS 640 recht ordentlich, Schatten halt nicht auf hohe Details und nur 4x AA. Bin gerade im Büro, sonst hätte ich mal die FPS dazugeschrieben. Cave ist aber nicht ganz so flüssig spielbar :rolleyes: Laut der Anzeige meiner G15-Tastatur ist die CPU nicht ganz ausgelastet, weiss aber nicht ob die Anzeige so zuverlässig ist.

4711
2007-05-18, 11:20:31
Das einzigste ist das Debakel mit meiner Audigy2-Karte, hoffe das Creative da noch eine Lösung findet, schon ziemlich peinlich diese Sache

da mußt Du dich bei MS beklagen..Creative kann da sowas von garnix dafür.

Falk
2007-05-18, 11:33:31
da mußt Du dich bei MS beklagen..Creative kann da sowas von garnix dafür.

Ok, da hast Du natürlich Recht. Grund dieses Übels ist natürlich Microsoft (sollte meinen Ärger wohl eher der Seite zuschreiben:rolleyes: ), aber ich finde trotzdem das Creative eine Lösung finden muss (so wie bei den X-Fi-Karten), allerdings nur für die Audigy2-Karten, bei älteren Karten denke ich muss das nicht mehr sein. Die Audigy2-Karten wurde sehr oft verkauft und Creative hat da sicher nicht schlecht dran verdient, da die Karten jetzt noch nicht so alt sind könnte man da schon dem Kunden entgegenkommen.

Ich wäre auch bereit, für die Alchemy-Umsetzung etwas zu zahlen, wie es anscheinend geplant ist, denn wie Du geschrieben hast kann Creative nichts dafür.

Mr. Lolman
2007-05-18, 11:50:21
Warum kann ich eigentlich kein 1280x1024 auswählen?

Falk
2007-05-18, 12:19:38
Warum kann ich eigentlich kein 1280x1024 auswählen?

Lässt sich bei mir auch nicht auswählen, wird anscheinend in der Demo nicht unterstützt.

Hoffen wir das es im fertigen Spiel auch andere Auflösungen gibt :biggrin:

AnarchX
2007-05-18, 12:40:44
Warum kann ich eigentlich kein 1280x1024 auswählen?

Muss man in der ini eintragen, such einfach mal auf deinem Windows-Laufwerk nach capcom.

Mr. Lolman
2007-05-18, 13:07:05
Muss man in der ini eintragen, such einfach mal auf deinem Windows-Laufwerk nach capcom.

k. thx. Hat eigentlich schon jemand nen optischen Unterschied zw. HDR "hoch" (FP16) und "mittel" (A2R10G10B10) feststellen können? Denn mit "mittel" sind die min fps @ snow sicher 80% höher und die avg fast 50%.


DX9, 1280x960 4xAA(EATM)/16xHQAF, alles max, HDR hoch:

Snow: 20fps
Cave: 24fps

DX9, 1280x960 4xAA(EATM)/16xHQAF, alles max, HDR mittel:

Snow: 29fps
Cave: 25fps

Opteron 146@2,8GHz, X1900 XT 512MB@default, 1GB DDR-400, WinXP@DX9

640x480, alles auf Minimum oder sogar aus wenn´s geht

Snow - 71fps
Cave - 24fps

Snow: 84fps
Cave: 28fps



AMD64@3GHz, 2GB@215MHz(2.5-3-3-7-1T), X1900XTX@default (Cat 7.4, AIlow), WinXP32

Sterem
2007-05-18, 13:07:34
[/b]
Selbe Einstellungen, aber mit

QX6700 @ 3.2 GHz (am WE schmeiß ich die Vapo an ;))
8800GTX SLI @ 621/1000

snow: 57 FPS
cave: 82 FPS

Doppelt so schnell, und das mit 20% weniger CPU speed ;)



Hier noch die Werte mit single 8800GTX @ 621/1000

snow: 39 FPS
cave: 59 FPS

Warum hast du dein super System mit 'ner HD2900XT "verschandelt"?
Die R600 braucht fast ein Verhältnis von 10:1 (Arithmetik zu Textur) um gut dazustehen, und das
spielts in games kaum.
http://img521.imageshack.us/img521/7685/r600101lx9.th.jpg (http://img521.imageshack.us/my.php?image=r600101lx9.jpg)
Siehe dazu auch:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1021&Itemid=1

Ist doch eigentlich eher ein schlechter wert wenn man bedenkt das Ati noch nicht die Treiber für die Demo abgestimmt hat.;)

So wie es aussieht wird die X2900 XT dann noch an deiner vorbeiziehen.:) :D

devilsfun
2007-05-18, 13:37:51
@tombman: was für ein sli-profil hast du eingestellt, beim treiber ist leider keiner dabei.

AnarchX
2007-05-18, 14:38:41
@tombman: was für ein sli-profil hast du eingestellt, beim treiber ist leider keiner dabei.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362580

devilsfun
2007-05-18, 15:04:06
suche ja einen für dx9

hab jetzt die einstellungen von cellfactor übernommen, geht ganz gut

Awrack
2007-05-18, 20:55:25
DX10 Settings 1920x1080x32bit 4xAA 16xAF alles auf Hoch bis auf HDR,Schattenqualli Medium Schattenauflösung Standard @8800GTX-C2D6600 non OC

Snow 33FPS
Cave 41FPS

Schimi1983
2007-05-18, 21:01:47
wie schaffe ich es das sich die demo unter winxp x64 installieren lässt? ich finde das schwachsinnig das er die Installation abricht ohne einem die Möglichkeit zu geben es trotzdem zu installieren..

..hat es jemand schon geschafft? habs auf die schnelle nur mit den kompatibilitäts Modus in win2k und xp versucht... bin jetzt auch nicht mehr zuhause seid de gewesen deswegen frag ich euch :-)

erwingage
2007-05-18, 21:15:47
im game alles maximal
im treiber AA auf anwendergesteuert
AF 16xHQ
AI STANDART
AAA enable
GRAKA@729/828mhz
CPU@Core duo 6800(2930mhz)
http://img518.imageshack.us/img518/720/lostplanetya8.th.jpg (http://img518.imageshack.us/my.php?image=lostplanetya8.jpg)

dargo
2007-05-18, 21:57:41
wie schaffe ich es das sich die demo unter winxp x64 installieren lässt? ich finde das schwachsinnig das er die Installation abricht ohne einem die Möglichkeit zu geben es trotzdem zu installieren..

..hat es jemand schon geschafft? habs auf die schnelle nur mit den kompatibilitäts Modus in win2k und xp versucht... bin jetzt auch nicht mehr zuhause seid de gewesen deswegen frag ich euch :-)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5500176&postcount=137

IceLord
2007-05-18, 21:58:37
4xAA im Treiber
16xHQAF im Treiber
GPU: 600MHz
RAM: 950MHz
http://www.directupload.net/images/070518/64v2tGnW.png

STANDARTD

tombman
2007-05-18, 23:04:09
warum nicht dauerhaft die vapo?

War geplant, aber dann war sie in Reparatur und seit dem sie zurück ist zu faul/zuwenig Ziet gewesen/gehabt das Ding neu anzuschließen- dann kam noch der Digicamtest dazwischen, naja ;)

tombman
2007-05-18, 23:05:41
Ist doch eigentlich eher ein schlechter wert wenn man bedenkt das Ati noch nicht die Treiber für die Demo abgestimmt hat.;)

So wie es aussieht wird die X2900 XT dann noch an deiner vorbeiziehen.:) :D
Wesker hat seine 2900XT EXTREM übertaktet mit Wakü, ich nur ganz normal meine GTX mit default cooler, und trotzdem ist meine GTX bei snow 30% und bei cave 50% schneller. Kein Treiber der Welt kann das aufholen ;)
@tombman: was für ein sli-profil hast du eingestellt, beim treiber ist leider keiner dabei.
Ganz normal AFR1 ohne alles. Oder eben das Profil, falls eines im Treiber dabei ist. (nvapps.xml untersuchen oder nhancer)

Moralelastix
2007-05-18, 23:10:50
Wesker hat seine 2900XT EXTREM übertaktet mit Wakü, ich nur ganz normal meine mit default cooler, und trotzdem ist meine GTX bei snow 30% und bei cave 50% schneller. Kein Treiber der Welt kann das aufholen ;)

Ganz normal AFR1 ohne alles. Oder eben das Profil, falls eines im Treiber dabei ist. (nvapps.xml untersuchen oder nhancer)



Und selbst wenn dann is der G90 da.:biggrin:

Außerdem scheint für AMD/ATI der HPC/Server Markt jetzt wichtiger zu sein als der olle Desktop Markt.
http://arstechnica.com/articles/paedia/cpu/will-barcelona-cure-what-ails-amd.ars

erwingage
2007-05-19, 00:18:45
4xAA im Treiber
16xHQAF im Treiber
GPU: 600MHz
RAM: 950MHz
http://www.directupload.net/images/070518/64v2tGnW.png


jo STANDARD
da sieht man mal wie ne gts einer übertakteten xtx davon zieht;)
wie hoch war dein cpu power?

sulak
2007-05-19, 02:06:03
4xAA im Treiber
16xHQAF im Treiber
GPU: 600MHz
RAM: 950MHz
http://www.directupload.net/images/070518/64v2tGnW.png
Seltsam, das die leicht niedrigere Auflösung soviel Performance bringt, und die ist auch noch 16:9 im Gegensatz zur 4:3 Auflösung.

E6400@3GHz + 8800GTS@604/900 + FW158.43 [16xHQAF immer an] @ Vista32

1280x720, 4xAA, / alles High, Shadow Quality Medium
Snow: 46
Cave: 47

1280x960, 4xAA, / alles High, Shadow Quality Medium

Snow: 36
Cave: 49

Kann leider nur Vista mit der DX10 Demo testen, die DX9 Demo schmiert neuerdings oft ab.

Razor
2007-05-19, 08:28:52
Alter, ich sag dir.... so ein DX10 Video zu erzeugen OHNE abzufilmen ist eine Meisterleistung.

<snip>

Nachteil: die FPS sind ziemlich unterirdisch, ca 10fps sind im Video zu sehen, dafür mit Ton, und dafür bleiben alle Effekte erhalten. Man kann sich also einen Eindruck von Lost Planet DX10 mit maximalen Details machen :cool:

Hier das Video, H.264 codec, 640x480, 30fps (sichtbar nur ca 10fps)
http://www.megaupload.com/?d=500YIZPI

Nicht vergessen, die niedrige framerate entstand durch die aufwändige Prozedur der Aufnahme, wie gesagt, DX10 aufnehmen ist ned trivial...
Hat sich aber IMHO nicht gelohnt, die Mühe.
Zeigt aber immerhin sehr schön, auf welchem Stand Vista noch immer ist - unzumutbar!

Und mal von der 'schwierigen' Aufnahme abgesehen, sehe ich auf dem Video wirklich nichts, was einen neuen Computer samt neuen Betriebssystem und super-duper-DX10-Grafikkarte rechtfertigt... schon gar nicht, wenn man hier die teils unterirdischen Frameraten des hier geboteten in Betracht zieht. LP 'lastet' bei Dir 4 Cores und 2 GTX'en aus? Na toll!

Hast Du Dir überhaupt mal das Ganze unter DX9 angeschaut?
Mach das mal!

Da halte ich es mit Califax:

Hab mir mal Dein Video angeschaut, was daran ist jetzt genau D3D10? Sry aber ich sah da nix aufm Bildschirm was ich net schon auf meinem gesehen habe? ist des wieder so nen Ding wie X-Box360 versiion vs. PC-Version, wo man alles mit ner Lupe suchen musste? Mal davon abgesehen das ich kein Anti-Aliasing zuschalten kann und Schatten auf Low stehen, habe ich genauso die Shader-Effecte auf den Gegnern, die Explosionen sehen bei mir genauso aus. Die Bewegeungseffecte sind diesselben. Also ich konnte net wirklich einen Unterschied ausmachen zu dem was ich bei mir mit ner 7950Gt schon gesehen habe.

Na ich bleib dabei, ich wart mal auf Crysis das überzeugt mich dann vllt mehr zu D3D10 zu wechseln. ;)
Mit 'wechseln' meinst Du 'ne neue Grafikkarte?
:confused:

Um auf das DRM-verseuchte Vista vollständig zu wechseln, brauchts bei mir eine Menge mehr an "Überredungskunst" seitens Microsoft. Sicher hat Vista schon jetzt ein kleines 25GB-Plätzchen auf meinen Festplatten, aber dabei wird es wohl auch bleiben, wenn Microsoft nicht schwer an der Usability und den produktiven Merkmalen dieses Betriebssystems arbeitet, um hier einen Wechsel zu rechtfertigen. Eine 'fetzige' Oberfläche reicht bei weitem nicht... und wenn M$ der Meinung ist, dass super-duper-Spiele nur noch unter Vista 'gut' aussehen (LP ist ein definitives Gegenbeispiel für diese These!), dann wird eben Vista eine art Konsolen-Oberfläche für mich, mit der ich zur Not auch ein bissel TV schaun' kann (wenn DScaler endlich wieder vollumfäglich will ;-) und eben auch Internet'eln kann... schließlich brauchts ja permanente M$/Game-Patches, gell?

Ich probiere parallel gerade Ubuntu als Alternative... aufgeräumt, schnell und durchaus komfortabel... und... es kostet NICHTS. Ist in seiner Darbietung vollständig und macht so ein Zeugs, wie kostenpflichtiges Betriebssystem, integrierten - im OS 'verrammelten' Internet-Browser und dieses vollkommen hirnlose 'UAC' total überflüssig. Auch OpenOffice (teste gerade 2.2 - auch unter Windows!) hat sich wesentlich verbessert und steht selbst in der Funktionalität einem Office von M$ in nichts mehr nach... und das bei einer wesentlich 'aufgeräumteren' Oberfläche.

Wenn Microsoft nicht aufpasst, dann haben sie bald nur noch ein Konsolen-Geschäft. Mit den 'Dosen' sind sie groß geworden und ob der Verbreitung dieser "intelligenten Terminals" hats dann auch den Server-Markt hinterher gezogen. Wenn sich dieser 'Trend' nun umkehrt, man also sowohl privat, als auch zum Arbeiten eher Alternativen 'sucht' (von den 'Konsolen' jetzt mal abgesehen ;-), dann zieht auch hier die Server-Schiene nach und M$ 'darf' sich dann nur noch im Consumer/MultiMedia-Bereich 'tummeln'... aber vielleicht ist auch genau das ihr Ziel... who knows?

-

Bei Vista halte ich es, wie seinerzeit mit Windows 98ME - ich laß es aus.
Klar nutze ich es ab und an, um den 'Stand' zu beobachten, warte aber im Prinzip auf die 'richtige' Neuerung.
(obwohl 'warten' vielleicht der falsche Ausdruck ist ;-)

Interessant im übrigen, dass sich im iNet mittlerweile die Verballhornung "ME-II" (dier auch ME2) durchzusetzen scheint.
Mal sehen, ob ich dies übernehme, wie das mit dem "Murks"... ;)

OK, ich drifte ab.

Aber wenn das ein 'Vorgeschmack' auf DX10 und die "schöne neue Vista Welt" ist, dann gute Nacht.

Kaum optische Vorteile, massig Vernichtung von Performance und exklusive Plattform?
Das kennen wir doch irgendwo her?
Hmmm...

Richtig!
Deswegen hab' ich keine Konsole im Haus!
:biggrin:

Davon gehe ich aus. Crysis wird ja hoffentlich nicht noch mieser auf vollen Details laufen als Lost Planet und dennoch optisch mehr hermachen.
Ich finde, mehr als die cineastischen Effekte (die aber das beste sind, was ich bisher gesehen hab) hat Lost Planet nicht zu bieten. Diesen Wow-Effekt, bei dem einen der Mund offen stehen bleibt, blieb bei mir in der Demo aus, weil die grundsätzliche Aufmachung vor allem bezogen auf Texturen und Leveldetails einfach nix Herausragendes ist.
Nicht nur das... das Spiel ist einfach Scheiße!
(sorry@mods für diesen 'harten'... ähm... weichen Ausdruck ;-)

Die ganze Aufmachung, die Menüsteuerung und vor allem auch dieses - "Ich will mit Kraft HL2 trotzen, habs aber vollkommen verbockt!"-Spielprinzip ist dermaßen schlecht, dass ich kot... (nein, ich halt' mich zurück ;-) ...könnte. Schlimmere Konsolen-Umsetzungen gibt es kaum und kann wohl lediglich dazu dienen, Konsolen-Benutzer zu 'Überreden', doch mal einen PC zu nutzen...

Und die "cineastischen Effekte" sind vollkommen übertrieben... total überzogenes "Blurring" sämtlicher Bewegungsabläufe machen die ganze Scenerie eher unübersichtlich, was aber bei der Masse an poi's nicht ganz so tragisch ist... einfach drauf halten, gell? Aber was daran jetzt das "Beste" sein soll, musst Du mir vielleicht doch noch mal erklären...

Wie gesagt, das "Spiel" ist einfach schlecht.
Also weg mit dem Schei...
(OK, OK... ;-)

Razor

P.S.: besser kann man ein "Fazit" wohl nicht formulieren:

Na toll. Weiche Schatten sind auch mit DX9 realisierbar. Nochmal - wo ist die DX10 Grafik? :D

Edit:
Fassen wir mal zusammen.

DX10 Version von Lost Planet:
- "Beta" Vista nötig
- DX10 Hardware nötig
- gleiche Grafik wie DX9 (außer Softshadows)
- Framedrops nur wegen Softshadows

Ich glaub es hackt. :crazy2:

A.Wesker
2007-05-19, 09:24:03
Wesker hat seine 2900XT EXTREM übertaktet mit Wakü, ich nur ganz normal meine GTX mit default cooler, und trotzdem ist meine GTX bei snow 30% und bei cave 50% schneller. Kein Treiber der Welt kann das aufholen ;)


Ich denke auch, daß es in Lost Planet schwierig für die 2900XT sein wird, in die Nähe der GTX zu kommen. Mal schauen wie die Karte mit der steigenen Füllrate skaliert, wenn ich nen Voltmod gemacht habe oder wenn das ATI Tool 0.27 erschienen ist. Diese scheint nämlich in vielen Szenarios zu limitieren.

Könntest du die Demo mal auf 1600x1000, HDR, Motion Blur 4AA/0AF und einmal mit 0AA/16AF durchlaufen lassen? Bei der 2900XT wechselt sich der Performancekiller in Form von AA oder AF immer ab :D. In Cod 2 verliert sie zb. durch AA so gut wie keine Leistung, mit AF bricht sie jedoch bis zu 50 % ein. Bei FEAR ist es genau umgekehrt.

Razor
2007-05-19, 09:37:11
So...
Und nachdem ich meich jetzt mal so richtig schön auskot... konnte, hier mal was produktiveres.

Gibts n' Unterschied mit dem Treiber im Vergleich zum 158.42?

Laut Razor soll der nur kleine Verbesserungen für die 8600 und 8500 Karten haben.
Die meinen damit im Prinzip den 158.42... der enthält schon alles (inklusive dem LP-Profil), was 'nötig' ist.
Mit dem 158.43 wurden exakt 3 Grafikkarten in der INF hinzu gefügt und der 'Rest' (das 'Wichtige' ;-) ist gleich...
(wenigstens haben sie die 'alte' Version im aktuellen DL noch mal durch kompiliert ;-)

Ist halt nur darauf bezogen, dass wenn man noch die 'alten' 158.18 oder 158.24 einsetzt, man doch bitte auf einen 158.4x setzen soll, um LP 'genießen' zu können.

Sollte sich die Entwicklung mit dem Quad-Core-Support in Crysis und anderen Games so fortsetzen, dann muss ich vielleicht Anfang 2008 schon auf einen Q6600 oder Q6700 aufrüsten. ;)
Ein Q6600 (4x2,4GHz) wird ab 22.7. nur noch 200€ kosten, der Q6700 (2x2,66GHz) dann das doppelte...

Hmm ok danke und ich dachte ATI hatte schon bei der R580 Generation eine wesentlich bessere Vertexleistung gegenüber Nvidia.
Die Vertex-Leistung scheint bei nVidia neuerdings massiv von der CPU abzuhängen!
Habe ich erstaunt feststellen dürfen, als ich jetzt auf ein C2D-System umgestiegen bin:
GraKa 100MHz niedriger getaktet und trotzdem bei allen Vertex-Tests massiv schneller?
Hmmm...

Dazu werd' ich mal eine gesonderte Untersuchung anstellen...

Schade - Niemand mit 8600?
Das wäre doch mal interessant beim ersten DX10-Benchmark!
Da hier selbst die High-Ender 'abkacken', ist davon auszugehen, dass die 'Kleinen' hier keinen Blumentopf gewinnen.
Was umso mehr für die DX9-Variante gelten dürfte...
(weil hier der Vergleich zu ungleich leistungsfähigeren Karten der 'alten' Garde möglich wird ;-)

-

Alles Default... Auflösung, wie auch sonstige Einstellungen
(im Treiber "Q" mit TriOpt on, und AnisoOpts off, Clamp)

Core2Duo E6420 @ 3,2GHz
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
Gigabyte GA-965P-DS3P Rev. 3.3 (Intel i965) Bios F5
4x1024MB (4GB DC) MDT DDR2 PC800 CL5 @ 5-5-5-18-2T
nVidia GeForce 7900GT @ 585/885 with Zalman VF900-Cu @ min = silent&cool
WindowsXP Prof. SP2-fp DX9c, ForceWare Driver 160.03

Vorher sah das Ganze übrigens so aus:
http://mitglied.lycos.de/razor3dc/pics/16003_LostPlanet_Default-1280x720-4xAF_winzig.png
;)

Hier der (leicht verkleinerte) dokumentierende Screen:
http://mitglied.lycos.de/razor3dc/pics/16003_LostPlanet_Default-1280x720-4xAF_Screen_klein.png

Und hier der sehr viel interessantere Status-Bildschirm (diese G15-Mini-Anzeigen sind nix für mich ;-)
http://mitglied.lycos.de/razor3dc/pics/16003_LostPlanet_Default-1280x720-4xAF_Monitor.png
('CPU' mit RPM ist in Wirklichkeit die Northbridge, welche noch notbehelfsmäßig gekühlt ist ;-)

Sehr schön auf dem Leistungsmonitor zu sehen, die unterschiedliche Auslastung der beiden Cores in den unterschiedlichen Scenarien: Rechts vom vertikalen (roten) Teiler die 'Snow' Scene, welche die Kerne nur mäßig 'auslastet' und hier offenbar mehr die GPU belastet. Links vom Teiler dann die 'Cave' Scenarie, welche mächtig Druck auf die Kerne macht (siehe hierzu auch die Details vom Everest OSD mit blauem Hintergrund). Man erkennt übrigens noch ganz gut den 'Rückfall' in die 'Snow' Scene links vom Teiler...

Die 7900GT ist recht unterfordert... weder der Speicher wird großartig genutzt (max 200MB), noch wird die GPU wirklich warm (55° ist unteres Mittelmaß, 63° ist max bei RTHDRLBL z.Bsp.). Und selbst der genutzte Arbeitsspeicher steigt nur um ca. 500MB an. Der Anfang des Timedemos liegt übrigens in etwa der Mitte des RT-Monitors ('0' = windows / lowest value = Menü ;-).

Scheint also nicht besonders 'gehaltvoll', das Game.
Ist ja aber auch nur ein billiger Consolen-Port...

Razor

A.Wesker
2007-05-19, 09:37:34
1600x1000 4AA/0HQ-AF, allex max: (HDR, Motion-Blur etc)

snow: 32 FPS
cave: 40 FPS


1600x1000 0AA/16HQ-AF, allex max: (HDR, Motion-Blur etc)

snow: 45 FPS
cave: 63 FPS


QX6700 @ 4.1 GHz
HD2900XT @ 890/1000

teste nacher noml mit 3.2 GHz.

TobiWahnKenobi
2007-05-19, 09:41:16
http://www.tobiwahnkenobi.de/PICTURES/88gtx/LPXPHQ.jpg
http://www.tobiwahnkenobi.de/PICTURES/88gtx/LPVHQ9c.jpg
http://www.tobiwahnkenobi.de/PICTURES/88gtx/LPVX4AA.jpg
http://www.tobiwahnkenobi.de/PICTURES/88gtx/LPVHQX.jpg

mit der forceware auf default u. ingame(indemo) einmal auf zurücksetzen geklickt, sind es
69 snow / 39 cave unter vista.


(..)

mfg
tobi

4711
2007-05-19, 09:42:09
Hat sich aber IMHO nicht gelohnt, die Mühe.
Zeigt aber immerhin sehr schön, auf welchem Stand Vista noch immer ist - unzumutbar!

Und mal von der 'schwierigen' Aufnahme abgesehen, sehe ich auf dem Video wirklich nichts, was einen neuen Computer samt neuen Betriebssystem und super-duper-DX10-Grafikkarte rechtfertigt... schon gar nicht, wenn man hier die teils unterirdischen Frameraten des hier geboteten in Betracht zieht. LP 'lastet' bei Dir 4 Cores und 2 GTX'en aus? Na toll!

Hast Du Dir überhaupt mal das Ganze unter DX9 angeschaut?
Mach das mal!

Da halte ich es mit Califax:


Mit 'wechseln' meinst Du 'ne neue Grafikkarte?
:confused:

Um auf das DRM-verseuchte Vista vollständig zu wechseln, brauchts bei mir eine Menge mehr an "Überredungskunst" seitens Microsoft. Sicher hat Vista schon jetzt ein kleines 25GB-Plätzchen auf meinen Festplatten, aber dabei wird es wohl auch bleiben, wenn Microsoft nicht schwer an der Usability und den produktiven Merkmalen dieses Betriebssystems arbeitet, um hier einen Wechsel zu rechtfertigen. Eine 'fetzige' Oberfläche reicht bei weitem nicht... und wenn M$ der Meinung ist, dass super-duper-Spiele nur noch unter Vista 'gut' aussehen (LP ist ein definitives Gegenbeispiel für diese These!), dann wird eben Vista eine art Konsolen-Oberfläche für mich, mit der ich zur Not auch ein bissel TV schaun' kann (wenn DScaler endlich wieder vollumfäglich will ;-) und eben auch Internet'eln kann... schließlich brauchts ja permanente M$/Game-Patches, gell?

Ich probiere parallel gerade Ubuntu als Alternative... aufgeräumt, schnell und durchaus komfortabel... und... es kostet NICHTS. Ist in seiner Darbietung vollständig und macht so ein Zeugs, wie kostenpflichtiges Betriebssystem, integrierten - im OS 'verrammelten' Internet-Browser und dieses vollkommen hirnlose 'UAC' total überflüssig. Auch OpenOffice (teste gerade 2.2 - auch unter Windows!) hat sich wesentlich verbessert und steht selbst in der Funktionalität einem Office von M$ in nichts mehr nach... und das bei einer wesentlich 'aufgeräumteren' Oberfläche.

Wenn Microsoft nicht aufpasst, dann haben sie bald nur noch ein Konsolen-Geschäft. Mit den 'Dosen' sind sie groß geworden und ob der Verbreitung dieser "intelligenten Terminals" hats dann auch den Server-Markt hinterher gezogen. Wenn sich dieser 'Trend' nun umkehrt, man also sowohl privat, als auch zum Arbeiten eher Alternativen 'sucht' (von den 'Konsolen' jetzt mal abgesehen ;-), dann zieht auch hier die Server-Schiene nach und M$ 'darf' sich dann nur noch im Consumer/MultiMedia-Bereich 'tummeln'... aber vielleicht ist auch genau das ihr Ziel... who knows?

-

Bei Vista halte ich es, wie seinerzeit mit Windows 98ME - ich laß es aus.
Klar nutze ich es ab und an, um den 'Stand' zu beobachten, warte aber im Prinzip auf die 'richtige' Neuerung.
(obwohl 'warten' vielleicht der falsche Ausdruck ist ;-)

Interessant im übrigen, dass sich im iNet mittlerweile die Verballhornung "ME-II" (dier auch ME2) durchzusetzen scheint.
Mal sehen, ob ich dies übernehme, wie das mit dem "Murks"... ;)

OK, ich drifte ab.

Aber wenn das ein 'Vorgeschmack' auf DX10 und die "schöne neue Vista Welt" ist, dann gute Nacht.

Kaum optische Vorteile, massig Vernichtung von Performance und exklusive Plattform?
Das kennen wir doch irgendwo her?
Hmmm...

Richtig!
Deswegen hab' ich keine Konsole im Haus!
:biggrin:


Nicht nur das... das Spiel ist einfach Scheiße!
(sorry@mods für diesen 'harten'... ähm... weichen Ausdruck ;-)

Die ganze Aufmachung, die Menüsteuerung und vor allem auch dieses - "Ich will mit Kraft HL2 trotzen, habs aber vollkommen verbockt!"-Spielprinzip ist dermaßen schlecht, dass ich kot... (nein, ich halt' mich zurück ;-) ...könnte. Schlimmere Konsolen-Umsetzungen gibt es kaum und kann wohl lediglich dazu dienen, Konsolen-Benutzer zu 'Überreden', doch mal einen PC zu nutzen...

Und die "cineastischen Effekte" sind vollkommen übertrieben... total überzogenes "Blurring" sämtlicher Bewegungsabläufe machen die ganze Scenerie eher unübersichtlich, was aber bei der Masse an poi's nicht ganz so tragisch ist... einfach drauf halten, gell? Aber was daran jetzt das "Beste" sein soll, musst Du mir vielleicht doch noch mal erklären...

Wie gesagt, das "Spiel" ist einfach schlecht.
Also weg mit dem Schei...
(OK, OK... ;-)

Razor

P.S.: besser kann man ein "Fazit" wohl nicht formulieren:

ja mein "Schatz" ist ja gut...wir wissen ja nun mit Bestimmtheit alle was Du von dem G80 und Vista hältst...aber glaube mir es juckt wie vom ersten Tage an keinen Mensch!
Laß doch einfach diese ellenlange Zitatorgien...und stecke deine Energie in schönere Dinge :D

Razor
2007-05-19, 09:48:42
ja mein "Schatz" ist ja gut...wir wissen ja nun mit Bestimmtheit alle was Du von dem G80 und Vista hältst...aber glaube mir es juckt wie vom ersten Tage an keinen Mensch!
Laß doch einfach diese ellenlange Zitatorgien...und stecke deine Energie in schönere Dinge :D
Es 'juckt' eine ganze Menge Leutz, wie man an den dürftigen Vista-Verkäufen erkennen kann...
Aber ist schön zu sehen, dass "mein Kleiner" sich noch immer nicht davon beeindrucken läßt!
:up:

Razor

P.S.: und wo ich meine "Energien" hinstecke, geht Dich gar nichts an :biggrin:
(das Zentimermaß auf einem Screenshot von Tombman fand' ich richtig geil ;-)

4711
2007-05-19, 09:51:09
hihi ;D ich liebe mein Viasko und den G80 :P :biggrin:
Tombi mißt :D damit den SLI Balken...mensch und führt Buch...

4711
2007-05-19, 10:13:40
So...
Und nachdem ich meich jetzt mal so richtig schön auskot... konnte, hier mal was produktiveres.


Die meinen damit im Prinzip den 158.42... der enthält schon alles (inklusive dem LP-Profil), was 'nötig' ist.
Mit dem 158.43 wurden exakt 3 Grafikkarten in der INF hinzu gefügt und der 'Rest' (das 'Wichtige' ;-) ist gleich...
(wenigstens haben sie die 'alte' Version im aktuellen DL noch mal durch kompiliert ;-)

Ist halt nur darauf bezogen, dass wenn man noch die 'alten' 158.18 oder 158.24 einsetzt, man doch bitte auf einen 158.4x setzen soll, um LP 'genießen' zu können.


Ein Q6600 (4x2,4GHz) wird ab 22.7. nur noch 200€ kosten, der Q6700 (2x2,66GHz) dann das doppelte...


Die Vertex-Leistung scheint bei nVidia neuerdings massiv von der CPU abzuhängen!
Habe ich erstaunt feststellen dürfen, als ich jetzt auf ein C2D-System umgestiegen bin:
GraKa 100MHz niedriger getaktet und trotzdem bei allen Vertex-Tests massiv schneller?
Hmmm...

Dazu werd' ich mal eine gesonderte Untersuchung anstellen...


Da hier selbst die High-Ender 'abkacken', ist davon auszugehen, dass die 'Kleinen' hier keinen Blumentopf gewinnen.
Was umso mehr für die DX9-Variante gelten dürfte...
(weil hier der Vergleich zu ungleich leistungsfähigeren Karten der 'alten' Garde möglich wird ;-)

-

Alles Default... Auflösung, wie auch sonstige Einstellungen
(im Treiber "Q" mit TriOpt on, und AnisoOpts off, Clamp)

Core2Duo E6420 @ 3,2GHz
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
Gigabyte GA-965P-DS3P Rev. 3.3 (Intel i965) Bios F5
4x1024MB (4GB DC) MDT DDR2 PC800 CL5 @ 5-5-5-18-2T
nVidia GeForce 7900GT @ 585/885 with Zalman VF900-Cu @ min = silent&cool
WindowsXP Prof. SP2-fp DX9c, ForceWare Driver 160.03

Vorher sah das Ganze übrigens so aus:
http://mitglied.lycos.de/razor3dc/pics/16003_LostPlanet_Default-1280x720-4xAF_winzig.png
;)

Hier der (leicht verkleinerte) dokumentierende Screen:
http://mitglied.lycos.de/razor3dc/pics/16003_LostPlanet_Default-1280x720-4xAF_Screen_klein.png

Und hier der sehr viel interessantere Status-Bildschirm (diese G15-Mini-Anzeigen sind nix für mich ;-)
http://mitglied.lycos.de/razor3dc/pics/16003_LostPlanet_Default-1280x720-4xAF_Monitor.png
('CPU' mit RPM ist in Wirklichkeit die Northbridge, welche noch notbehelfsmäßig gekühlt ist ;-)

Sehr schön auf dem Leistungsmonitor zu sehen, die unterschiedliche Auslastung der beiden Cores in den unterschiedlichen Scenarien: Rechts vom vertikalen (roten) Teiler die 'Snow' Scene, welche die Kerne nur mäßig 'auslastet' und hier offenbar mehr die GPU belastet. Links vom Teiler dann die 'Cave' Scenarie, welche mächtig Druck auf die Kerne macht (siehe hierzu auch die Details vom Everest OSD mit blauem Hintergrund). Man erkennt übrigens noch ganz gut den 'Rückfall' in die 'Snow' Scene links vom Teiler...

Die 7900GT ist recht unterfordert... weder der Speicher wird großartig genutzt (max 200MB), noch wird die GPU wirklich warm (55° ist unteres Mittelmaß, 63° ist max bei RTHDRLBL z.Bsp.). Und selbst der genutzte Arbeitsspeicher steigt nur um ca. 500MB an. Der Anfang des Timedemos liegt übrigens in etwa der Mitte des RT-Monitors ('0' = windows / lowest value = Menü ;-).

Scheint also nicht besonders 'gehaltvoll', das Game.
Ist ja aber auch nur ein billiger Consolen-Port...

Razor

1280x720x32>auch nur 32bit :confused:

dildo4u
2007-05-19, 12:09:39
1280x720x32>auch nur 32bit :confused:
Er hat whol nicht mit maximalen HDR gebencht oder das geht mit dem G71 in der Demo nicht.

Raff
2007-05-19, 12:14:01
Er hat whol nicht mit maximalen HDR gebencht oder das geht mit dem G71 in der Demo nicht.

AFAIK geht es, aber nicht kombiniert mit Multisampling.

MfG,
Raff

Razor
2007-05-19, 12:26:55
1280x720x32>auch nur 32bit :confused:
Also dann nochmal ganz speziell für Dich:
(aber selbstredend zur öffentlichen Verwendung ;-)

Core2Duo E6420 @ 3,2GHz
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
Gigabyte GA-965P-DS3P Rev. 3.3 (Intel i965) Bios F5
4x1024MB (4GB DC) MDT DDR2 PC800 CL5 @ 5-5-5-18-2T
nVidia GeForce 7900GT @ 585/885 with Zalman VF900-Cu @ min = silent&cool
WindowsXP Prof. SP2-fp DX9c, ForceWare Driver 160.03
(im Treiber "Q" mit TriOpt on, und AnisoOpts off, Clamp)

Lost Planet Demo 1280x720 1280x960
Snow/Cave ---------- ----------

Default 36 / 56 28 / 46

+ HDR 'hoch' 33 / 52 26 / 41
(medium) -8% / -7% -7% /-11%

+ Beleuchtung 'hoch' 32 / 49 26 / 41
(medium) -11% /-12% -7% /-11%

+ Motion Blur 'hoch' 31 / 48 25 / 38
(niedrig) -14% /-14% -11% /-17%

---------- ----------

Default 32 / 50 26 / 41
+ 4xMSAA/8XAF -11% /-11% -7% /-11%

+ Beleuchtung 'hoch' 32 / 49 25 / 40
(medium) -11% /-12% -11% /-13%
Nimmt sich alles nicht viel, oder?

Grundperformance ist einfach mies (wie bei Consolen-Umsetzungen leider üblich) und maximal 17% Gesamtverlust an Performance von Default zu max zeigt dies ebenso deutlich.

64Bit HDR ist ganz hübsch, nur leider an diversen Stellen reichlich übertrieben.
Würde ich das Spiel tatsächlich spielen, dann täte ich es wohl aktivieren.

Hohe Beleuchtung ist mir schon fast zuviel, denn ich war schon in der Standard-Einstellung 'medium' versucht, dies auf 'niedrig' herunter zu schrauben... wie man aber sieht, kostet es bei 1280x720 nur wenig, bei 1280x960 gar keine Leistung. Wer es also mag, darf sich gerne daran erfreuen, ohne wirklich Leistung zu verlieren...

Motion Blur ist wirklich vollkommen überflüssig, kostet kaum Performance und dürfte auch für die heftigen Mouselags verantwortlich sein. Schade, dass man das nicht komplett abschalten kann, denn selbst 'niedrig' geht mir schon auf den Geist und mit 'hoch' ist es einfach nicht mehr zu ertragen (der Optik wegen, nicht der Lags ;-).

Feilt man nun also noch an der Grundperformance, dann wäre alles in Butter und auf DX10 kann ich gerne verzichten (wie ja schon dargelegt). Allerdings glaube ich da eher nicht dran, denn Consolen-Portierungen werden meist nie für PC's optimiert, da die Arbeitsweise der Plattformen einfach zu unterschiedlich ist und man hier auf Standard-Werkzeuge der Hersteller zurück greift. Lobenswerte Ausnahmen bestätigen natürlich die Regel, gell?

Alles in allem also: "Nett, aber nix besonderes..."

Razor

Razor
2007-05-19, 13:07:08
Er hat whol nicht mit maximalen HDR gebencht oder das geht mit dem G71 in der Demo nicht.AFAIK geht es, aber nicht kombiniert mit Multisampling.
Habe jetzt noch mal mit 4xMSAA und 8xAF (beides InGame) nachgebencht.
HDR auf niedrig, selbstverständlich, da bei 'hoch' kein (MS)AA möglich ist.
Werte habe ich nachgetragen...

Man kann also gut sagen: "64Bit HDR oder 4xAA/8xAF? Ist egal!"

'Nett' wäre natürlich beides... aber man kann ja nicht alles haben!
(ohne dafür intolerable 'Nachteile' hinnehmen zu müssen :D)

Razor

Moralelastix
2007-05-19, 13:59:28
Omg Leuts, bleibt bitte auf'm Teppich!

Die Demo is ein Consolen Port von Capcom was soll man da schon erwarten?

Für mich is es gradezu die Ironie überhaupt das wir ausgerechnet als erstes DX10 Game so einen ollen Konsolenport angedreht bekommen.

Warten wir auf die ersten wirklichen DX9/DX10 Blockbuster.

PS: Gibts jetzt nicht auch den Flightsimulator DX10 Patch? Wie is die Performance da?
Dauert wohl noch ein wenig(Ende des Jahres, lol?)

Razor
2007-05-19, 14:38:09
PS: Gibts jetzt nicht auch den Flightsimulator DX10 Patch? Wie is die Performance da?
Dauert wohl noch ein wenig(Ende des Jahres, lol?)
Was sich mit Crysis ja auch immer mehr und mehr abzuzeichnen scheint.
Vermutlich muss man den Patch für FSX dann auch bezahlen...
...ein Scherz - obwohl...
:D

Razor

deekey777
2007-05-19, 16:49:15
1280x960 A2RGB10, 4xMSAA, 4xAF, alles hoch, was geht: 19/17
640x480, alles runter: 57/20.
Fällt was auf?;(

dargo
2007-05-19, 16:58:03
Fällt was auf?;(
Ja, deine CPU ist für Cave zu schwach. :D

HisAirness@23
2007-05-19, 17:00:53
1280 x 720 x 64bit, HQ, 16xAF, alles High außer Shadow Quality auf Medium,
Sys. C2D 6300 @ 2600 Mhz, 7900 GX2 @ 550/750

mit SLi (AFR1)
Snow 47 Cave 46


ohne SLi
Snow 26 Cave 39

Moralelastix
2007-05-19, 17:09:56
1280x960 A2RGB10, 4xMSAA, 4xAF, alles hoch, was geht: 19/17
640x480, alles runter: 57/20.
Fällt was auf?;(

Ja, hättste besser noch die 9800 behalten.:biggrin:

4711
2007-05-19, 17:31:33
Also dann nochmal ganz speziell für Dich:
(aber selbstredend zur öffentlichen Verwendung ;-)

Core2Duo E6420 @ 3,2GHz
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
Gigabyte GA-965P-DS3P Rev. 3.3 (Intel i965) Bios F5
4x1024MB (4GB DC) MDT DDR2 PC800 CL5 @ 5-5-5-18-2T
nVidia GeForce 7900GT @ 585/885 with Zalman VF900-Cu @ min = silent&cool
WindowsXP Prof. SP2-fp DX9c, ForceWare Driver 160.03
(im Treiber "Q" mit TriOpt on, und AnisoOpts off, Clamp)

Lost Planet Demo 1280x720 1280x960
Snow/Cave ---------- ----------

Default 36 / 56 28 / 46

+ HDR 'hoch' 33 / 52 26 / 41
(medium) -8% / -7% -7% /-11%

+ Beleuchtung 'hoch' 32 / 49 26 / 41
(medium) -11% /-12% -7% /-11%

+ Motion Blur 'hoch' 31 / 48 25 / 38
(niedrig) -14% /-14% -11% /-17%

---------- ----------

Default 32 / 50 26 / 41
+ 4xMSAA/8XAF -11% /-11% -7% /-11%

+ Beleuchtung 'hoch' 32 / 49 25 / 40
(medium) -11% /-12% -11% /-13%
Nimmt sich alles nicht viel, oder?

Grundperformance ist einfach mies (wie bei Consolen-Umsetzungen leider üblich) und maximal 17% Gesamtverlust an Performance von Default zu max zeigt dies ebenso deutlich.

64Bit HDR ist ganz hübsch, nur leider an diversen Stellen reichlich übertrieben.
Würde ich das Spiel tatsächlich spielen, dann täte ich es wohl aktivieren.

Hohe Beleuchtung ist mir schon fast zuviel, denn ich war schon in der Standard-Einstellung 'medium' versucht, dies auf 'niedrig' herunter zu schrauben... wie man aber sieht, kostet es bei 1280x720 nur wenig, bei 1280x960 gar keine Leistung. Wer es also mag, darf sich gerne daran erfreuen, ohne wirklich Leistung zu verlieren...

Motion Blur ist wirklich vollkommen überflüssig, kostet kaum Performance und dürfte auch für die heftigen Mouselags verantwortlich sein. Schade, dass man das nicht komplett abschalten kann, denn selbst 'niedrig' geht mir schon auf den Geist und mit 'hoch' ist es einfach nicht mehr zu ertragen (der Optik wegen, nicht der Lags ;-).

Feilt man nun also noch an der Grundperformance, dann wäre alles in Butter und auf DX10 kann ich gerne verzichten (wie ja schon dargelegt). Allerdings glaube ich da eher nicht dran, denn Consolen-Portierungen werden meist nie für PC's optimiert, da die Arbeitsweise der Plattformen einfach zu unterschiedlich ist und man hier auf Standard-Werkzeuge der Hersteller zurück greift. Lobenswerte Ausnahmen bestätigen natürlich die Regel, gell?

Alles in allem also: "Nett, aber nix besonderes..."

Razor

Darum ging es mir doch garnicht :wink: sondern darum das ich einige bzw.fast alle Ergebnisse von der 2900XT mit ebenfalls "32" gesehen habe.....

deekey777
2007-05-19, 17:36:25
Darum ging es mir doch garnicht :wink: sondern darum das ich einige bzw.fast alle Ergebnisse von der 2900XT mit ebenfalls "32" gesehen habe.....

A2RGB10: 2+10+10+10=32. Das ist das 1010102-Format, das die X1x00 und alle D3D10-Grafikkarten beherrschen.

WEGA
2007-05-19, 20:44:08
ich kann den misst auf meinem win xp 64-bit nicht installieren ;(

san.salvador
2007-05-19, 20:47:15
ich kann den misst auf meinem win xp 64-bit nicht installieren ;(
Wieso willst du überhaupt "misst" auf deinem System installieren? :rolleyes:

deekey777
2007-05-19, 20:49:43
Wieso willst du überhaupt "misst" auf deinem System installieren? :rolleyes:
Und warum musst du unbedingt spammen?

Wega, einfach den Thread durchsuchen, hier findest du die Abhilfe. =)

Ja, deine CPU ist für Cave zu schwach. :D
Wie sieht's eigentlich unter Vista aus?

dildo4u
2007-05-19, 20:49:59
ich kann den misst auf meinem win xp 64-bit nicht installieren ;(
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5499427&postcount=107

dargo
2007-05-19, 21:18:01
Wie sieht's eigentlich unter Vista aus?
Kein Stück besser.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5502472&postcount=141

Wenn du auf die CPU Entlastung unter DX10 anspielst, erwarte keine Wunder. Mehr als ~10% mehr CPU Power erwarte ich dadurch eh nicht.

WEGA
2007-05-19, 21:19:30
thx @ dildo

Razor
2007-05-19, 21:24:54
Darum ging es mir doch garnicht :wink: sondern darum das ich einige bzw.fast alle Ergebnisse von der 2900XT mit ebenfalls "32" gesehen habe.....
Ach thooo... :hammer:

Und warum issn der Code in Deinem Quote verrutscht?
Müschteriöööös!
;D

Razor

deekey777
2007-05-19, 21:34:27
Kein Stück besser.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5502472&postcount=141

Wenn du auf die CPU Entlastung unter DX10 anspielst, erwarte keine Wunder. Mehr als ~10% mehr CPU Power erwarte ich dadurch eh nicht.
Genau darauf spiele ich an, aber bei einer geringeren Auflösung.

sulak
2007-05-19, 22:28:45
Genau darauf spiele ich an, aber bei einer geringeren Auflösung.

Hatte ich getestet:

LowDetail verglichen (E6400@3GHz + 8800GTS@604/900 + FW158.43 @ Vista32)

640x480, noAA, noAF (bilinear), min.Details, concurrent Rendering an (=Multiprozessor-Support)

DX9:
Snow: 149
Cave: 52

DX10:
Snow: 168
Cave: 53

Quelle: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5502582&postcount=144

Ich werde nochmal 1280*720 vergleichen, da sind die FPS unter DX10 um einiges höher und stabiler als in 1280*960. Warum auch immer an der Speicherbandbreite hängts nicht, da hatte ich den Speicher meiner GTS auf 1GHz kurzzeitig, und es hat sich nichts getan.

4711
2007-05-19, 22:45:19
Ach thooo... :hammer:

Und warum issn der Code in Deinem Quote verrutscht?
Müschteriöööös!
;D

Razor

ich versteh jetzt ehrlich gesagt nur Bahnhof...

deekey777
2007-05-20, 15:24:25
Hatte ich getestet:

LowDetail verglichen (E6400@3GHz + 8800GTS@604/900 + FW158.43 @ Vista32)

640x480, noAA, noAF (bilinear), min.Details, concurrent Rendering an (=Multiprozessor-Support)

DX9:
Snow: 149
Cave: 52

DX10:
Snow: 168
Cave: 53

Quelle: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5502582&postcount=144

Ich werde nochmal 1280*720 vergleichen, da sind die FPS unter DX10 um einiges höher und stabiler als in 1280*960. Warum auch immer an der Speicherbandbreite hängts nicht, da hatte ich den Speicher meiner GTS auf 1GHz kurzzeitig, und es hat sich nichts getan.
Zunächst Danke. :up:
Noch interessanter wäre XP vs. Vista. Man darf aber nicht vergessen, dass diese Version noch alles andere als fertig zu sein scheint.
Die Sache mit 720p: Das Spiel ist für 720p gemacht. Ich hoffe nur, dass Capcom nicht vergessen haben, dass auf dem PC solche Bildverhältnisse wie 4:3 gibt (die Engine rechnet so, ob das Spiel auf einem 16:9-Gerät ausgegeben wird, und somit unnötiges Zeug).

Spasstiger
2007-05-20, 16:10:13
Ja, deine CPU ist für Cave zu schwach. :D
Für Snow genauso.

sun-man
2007-05-20, 21:19:11
Mal ne Off/Ontopic Frage:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5511214&postcount=24

Was wäre wenn die GTS so oder so zu lahm ist um DX10 zukünftig dazustellen?
Lahm ist natürlich relativ....und sorry wenn das schon durchgekaut wurde, ich habs nicht gefunden.

centurio81
2007-05-21, 10:43:31
@Sunman

Würde ich so nie behaupten.
Es gibt dioch schon krasse Unterschiede bei DX9 Spielen was performance angeht und da sind zum Teil echt mies programierte Titel dabei..

Ich glaube nicht, dass in die Demo LOST PLANET viel investiert wurde als PC Umsetzung..

Ich warte lieber ab wie Crysis sich schlägt und entscheide dann ob ich meine GTS verkaufe und mich nach ner stärkeren Karte dann umsehe..

dargo
2007-05-21, 11:17:40
Vergesst bitte nicht, dass meistens mit max. Details gebencht wird. Also auch Softshadows. Diese fressen verdammt viel Leistung und das hat nichts mit DX10 zu tun.

Demirug
2007-05-21, 20:30:31
Vergesst bitte nicht, dass meistens mit max. Details gebencht wird. Also auch Softshadows. Diese fressen verdammt viel Leistung und das hat nichts mit DX10 zu tun.

Zudem scheint der DX10 rendere noch nicht besonders gut optimiert zu sein. Viel zu viele unnötige Calls. Dafür benutzen sie aber wohl wirklich ein paar DX10 Features wie Texture Arrays und Geometry shader, Integer ops in den Shadern, Stream Out. Ich will damit aber nicht sagen das man das nicht auch mit DX9 erreichen könnte.

dildo4u
2007-05-21, 20:37:47
Die PCGH hat doch schon erbencht das,das Game mit den selben Einstellungen unter DX10 schneller läuft.


"Erfreulich ist jedoch, dass der D3D10-Modus mit den Detail-Einstellungen des D3D9-Pfads etwa zehn Prozent schneller läuft."

http://www.pcgameshardware.de/?article_id=601203

http://www.pcgameshardware.de/screenshots/medium/LPDX9.jpg

http://www.pcgameshardware.de/screenshots/medium/LPDX10.jpg

sulak
2007-05-21, 21:34:14
Entweder hab ich was an den Augen oder die GTS ist unter DX10 langsamer als unter DX9 (Schatten auf Medium).

Da passt was nicht vom Resumee her, der Abstand GTX - GTS is derbe... Werde mal feuer im Gehäuse machen und DX10 vs. DX9 in den höheren Auflösungen mal vergleichen.

dildo4u
2007-05-21, 21:37:36
Entweder hab ich was an den Augen oder die GTS ist unter DX10 langsamer als unter DX9 (Schatten auf Medium).

Da passt was nicht vom Resumee her, der Abstand GTX - GTS is derbe... Werde mal feuer im Gehäuse machen und DX10 vs. DX9 in den höheren Auflösungen mal vergleichen.
Die Ultra ist unter DX10 schneller kein Plan was bei der GTS klemmt.

sulak
2007-05-21, 22:03:24
Naja bei mir klemmts dann wohl auch *g
Vieleicht der Ominöse Speicherverbrauch Bug... die höhere Auflösung in Snow und der Einbruch dort würde sogar dafür sprechen.

E6400@3GHz + 8800GTS@604/900 + FW158.43 @ Vista32

4xAA/16AF + alle Details max, Shadow Quality Medium

DX10:

1280*720: 46 / 47
1280*1024: 37 / 46

DX9:

1280*720: 52 / 51
1280*1024: 42 / 51


€: Aehm, welche Average FPS zeigen die PCGH Bilder? Ich hoffe mal Snow (und warum nur 8xAF *g)

Und hier mal ohne 4xAA

DX10:

1280*720: 64 / 51
1280*1024: 50 / 51

DX9:

1280*720: 62 / 52
1280*1024: 50 / 52

Cubitus
2007-05-21, 23:00:36
Ob DX 10 wirklich schneller ist :confused:

1920*1200 DX10
Alles Full außer Schatten (minimum) 4XAA, 16AF HQ

Cave 55
Snow 45

DX 9, Schattendetails sind sogar auf Medium
DX10 funktioniert mit SLI noch nicht einwandfrei.
Mit Vista64 war erst gar kein SLI möglich!

die Karten waren sowohl in Vista als auch in XP übertaktet.

http://www.imagebanana.com/img/twoxs2f9/LostPlanetDX92007052122561320.jpg (http://www.imagebanana.com/)

Blaire
2007-05-21, 23:02:24
Funktioniert eigentlich das SLI Profil unter XP gut?

Cubitus
2007-05-21, 23:16:31
Das weiß ich nicht.

ich habe einfach ein neues Profil erstellt und Alternate Frame Rendering ausgewählt.

und im Spiel selbst dann nur Multi GPU Rendering aktiviert, fertig :D

Dimon
2007-05-21, 23:26:43
Irgendwie startet mein System neu, wenn ich denn Benchmark starte, woran kanns liegen??

Hab Forceware 81.85.....


mfg Dimon

Cubitus
2007-05-21, 23:31:10
Schau mal in den Treiber Threads vorbei.
Lad dir den aktuellen Treiber mit der dazugehörigen geänderten Inf.
sonst laufen die alten Karten nicht.

Razor
2007-05-22, 14:53:50
Die PCGH hat doch schon erbencht das,das Game mit den selben Einstellungen unter DX10 schneller läuft.


"Erfreulich ist jedoch, dass der D3D10-Modus mit den Detail-Einstellungen des D3D9-Pfads etwa zehn Prozent schneller läuft."

http://www.pcgameshardware.de/?article_id=601203
http://www.pcgameshardware.de/screenshots/medium/LPDX9.jpg
http://www.pcgameshardware.de/screenshots/medium/LPDX10.jpg
Sorry, aber diese "Benchmarks" sind für den Anus!
Die Werte passen hinten und vorne nicht...

Z.Bsp.:

Unter DX10 ist die 88GTX mal eben doppelt so schnell, wie eine 88GTS... warum?
Im Vergleich DX10 vs. DX9 ist die 88GTX schneller (beschriebene 10%), die GTX aber langsamer (minus 14%!)... warum?

Sorry, aber was auch immer da für ein "Bug" zutage tritt, 'so' sind die Werte vollkommen unbrauchbar!

Razor

Dimon
2007-05-23, 04:03:15
Hab ziemlich schwere Grafik Fehler im Bench ... oO

Weiss einer Abhilfe?


mfg Dimon

=Floi=
2007-05-23, 06:54:17
mensch razor
die ultra hat wesentlich mehr shaderpower (68% mehr)
uu limitierte auch noch was anderes aber im großen und ganzen sieht man hier mal die echte leistung einer ultra!


durch das erhöhen der min fps sind solche werte durchaus zu erklären

CokeMan
2007-05-23, 22:51:31
DX10 Ist euch mal aufgefallen das das Spiel unspielbar ist, da man ständig diese Energieupgrades einsammeln DX10 muss weil dem Typ sonst die Wärmflasche am Arsch ausgeht, und er abkrazt.

Ich DX10 komme ums verecken nicht weiter in Level 2.
Level 1 hab ich DX10 übersprungen.

Cheats ? GOD-MOD?
Es ist fast DX10 unmöglich die Energie ständig einzusammeln. :(


Oder Bencht ihr euch DX10 alle zu Tode :|

schoppi
2007-05-23, 22:57:42
Gespielt wird DX10 an der Box...der PC ist NUR zum Benchen DX10 da.:rolleyes:

CokeMan
2007-05-23, 23:23:49
Gespielt wird DX10 an der Box...der PC ist NUR zum Benchen DX10 da.:rolleyes:

:crazy: :ubash3:

sun-man
2007-05-24, 07:15:04
Hi,

könntet Ihr nichtmal nen VRam Vergleich unter DX9 machen ? Bzw mal schauen was da so benötigt wird?

hintergrund ist:
http://www.firingsquad.com/hardware/lost_planet_demo_directx_10_performance/page7.asp

die GTS ist mit 640 eigentlich genauso langsam/schnell wie dei 320'er.

Sollte das hier DX9 sein:
http://www.firingsquad.com/hardware/lost_planet_demo_directx_10_performance/page6.asp

sieht man kleine Unterschiede.
Das man unter Vista scheinbar keinen VRam messen kann hab ich schon mitbekommen. allerdings sollte sich doch prinzipiell nichts daran ändern wenn ich unter DX9 z.B. 550MB in 1600x1200 benötige werden es unter DX10 nicht plötzlich nur 300 sein.

Stören tut mich ganz genau die gleiche Leistung bei diesen Tests dort. Zum einen kann sicher falsch/ungenau gemessen sein ODER - und hier meine hergeholte Theorie - die GTs ist in diesem Beispielbench schlicht und ergreifend ausgelastet und der vielgepsriesene VRam ist total schnuppe.

MFG

dargo
2007-05-25, 00:41:13
In 1280x960 mit max. Details (bin mir nicht mehr sicher) und 4xAA/16xAF begnügen sich die beiden Timedemos mit 300MB Vram und 75MB Arbeitsspeicher. Das ganze unter DX9.

san.salvador
2007-05-25, 01:30:11
DX10 Ist euch mal aufgefallen das das Spiel unspielbar ist, da man ständig diese Energieupgrades einsammeln DX10 muss weil dem Typ sonst die Wärmflasche am Arsch ausgeht, und er abkrazt.

Ich DX10 komme ums verecken nicht weiter in Level 2.
Level 1 hab ich DX10 übersprungen.

Cheats ? GOD-MOD?
Es ist fast DX10 unmöglich die Energie ständig einzusammeln. :(


Oder Bencht ihr euch DX10 alle zu Tode :|

Jetzt wollen doch mal sehen in welchem Forum wir hier sind.. ah ja, da stehts: "Diskussions-Foren" > "Benchmarking"

Wenn du dich nicht für Benchmarks interessiert, geh woanders hin, aber bitte nicht ins Benchmarkforum, danke.


:crazy: :ubash3:
Smiliespam, gemeldet. ;)










Und fürs Topic: Gibts nun einen Masterplan, wie ich mit meinem G80 1680x1050 in der DX10-Demo einstellen kann? Bei mir hört die Geschichte schon bei 1280x800 auf.

centurio81
2007-05-25, 01:39:26
Ja kanst du in der Config dateim umschreiben..
Aber dann wird die performance schon spürbar einbrechen.. ;)

san.salvador
2007-05-25, 01:40:55
Ja kanst du in der Config dateim umschreiben..
Aber dann wird die performance schon spürbar einbrechen.. ;)
Ich hab auf die schnelle nix entsprechendes gefunden, wo liegen die Dateien rum?

VoodooJack
2007-05-25, 02:18:32
X6800 @3.6 - Crossfire HD2900XT @default - WinXP64 - 8.37.4.3

Lost Planet DX9:

1600x1200/alles max/HDR/16xHQAF/4xAA: Snow 65 fps - Cave 64 fps


X6800 @3.6 - Crossfire X1950 @default - Vista 64-bit - Cat 7.4

Lost Planet DX9:

1600x1200/alles max/HDR/16xHQAF/4xAA: Snow 42 fps - Cave 52 fps

centurio81
2007-05-25, 10:14:49
Ja is bei Vista alles etwas verschachtelt..

Schau mal unter Benutzer und Dokumente, da liegen schon mal Spiele ordner, oder unter Program files oder Programm Files x86..
Teilweise verteilt, muste auch suchen..
In irgendner Datei kann man jedenfalls die Auflösung auf 1680 ändern.
Läuft dann noch so auf 30-40 Frames maximal auf max Details.. Mit AA bricht es dann völlig ein.. Selbst mit ner GTX.

gnomi
2007-05-25, 11:16:30
System:
C2D 6420@6750 (2,67 Ghz)
2GB Ram DDR 2 (418 Mhz, 5-6-6-20)
8800 GTS

Lost Planet Direct X 9 Benchmark:
1280*720/4*AA/8*AF, HDRR Medium, Schattenauflösung Standard, Rest max.
Snow 57 Cave 51
1280*720/4*AA/8*AF, max. Details
Snow 45 Cave 52

1280*960/4*AA/8*AF, HDRR Medium, Schattenauflösung Standard, Rest max.
Snow 45 Cave 52
1280*960/4*AA/8*AF, max. Details
Snow 36 Cave 49

Beobachtungen:
Nur die unterste Einstellung (Beleuchtung und Schatten XBox 360 like) ist optimal spielbar, bei den restlichen fallen die Minimalwerte dann zunehmend auf unter 30 fps ab.
Cave ist extrem CPU limitiert.
HDRR 64 Bit sieht definitiv besser aus, (feinere Beleuchtung) ist aber den Performanceverlust bei diesem schnellen Actionspiel nicht wert.

Vega2002
2007-05-25, 12:49:25
e6600@3.6GHz 450*8 // 2x 1 GB DDR2 @ 900 MHz bei 5.5.5.12 // Geforce 8800GTX 768 MB @ 648|1125 MHz , Forceware 158.22@Q //WinXP Sp2

HDR +16fach AF alles an Shodow max (medium)
1280*1024 = Snow: 69fps | Cave: 71FPS

http://666kb.com/i/aon4s6azvtyyh8e9j.jpg


Auch alles an zusätzlich 4fach TSAA
1280*1024 = Snow: 52fps | Cave: 67FPS

http://666kb.com/i/aon4s8vx3c1gzlruf.jpg


anscheinend limitiert bei Cave die CPU noch ein wenig ;)

TobiWahnKenobi
2007-05-29, 08:11:39
http://www.tobiwahnkenobi.de/PICTURES/88gtx/LP-DX9-1080-HDRr-4xAA-16xAF.jpg
LostPlanet, XP-MCE, 1920x1080 pixel, HDRr + 4xAA +16xAF


(..)

mfg
tobi

sneipa
2007-05-29, 13:25:18
mein system:
C2D6600 @ default 2,4GHz
2*1Gb corsair pc6400 @ 4-4-4-12 @ default
gf88gtx @ default
forceware 158.42 @ vista ultimate x64 dx10

settings: 1280*960, 4x AA, 16 AF, alles auf high bis auf shadows (medium)


[GRAPHICS]
FPS=ON
SLI=OFF
HDR=MEDIUM
MSAA=4X
EffectDetail=HIGH
TextureFilter=ANISOTROPIC16X
TextureDetail=HIGH
ShadowQuality=MEDIUM
ShadowResolution=MEDIUM
ObjectDetail=HIGH
MotionBlurQuality=HIGH
Lighting=HIGH
EffectQuality=HIGH
EffectVolume=HIGH
[DISPLAY]
Resolution=1280x960
RefreshRate=70Hz
FullScreen=ON
VSYNC=OFF
AdjustAspect=OFF
[SOUNDS]
SeVoiceNum=64
ReverbQuality=HIGH
CategoryEQ=ON
[CPU]
JobThread=2
RenderingThread=ON

http://k-seite.k-seite.com/lp.jpg

centurio81
2007-05-29, 14:27:49
@sneipa

Mit welcher Einstellung hast du die 1280x960 @32 Bit
ich hab auch Vista 64 Bit aber da steht dann auch immer 64 Bit..

sneipa
2007-05-29, 23:41:10
öh ? also die 64bit haben damit nix zutun. mit @ 32bit ist die farbtiefe bei dieser auflösung gemeint. ich weiß nicht, wie du auf 64 kommst ?!

und mein system und die config ist so wie oben und das bild gehört auf zu dieser config.

mfg
sneipa


edit: hm, komisch hast recht. da sollte 64bit stehen. allerdings hab ich die 64bit ultimate ?! ich möchte jetzt kein screen davon posten ;)

edit edit: fehler gefunden, ich hab die config auf schreibgeschützt gesetzt, allerdings vergessen HDR auf high zu setzten und im spiel stand zwar high, hats aber anscheinend nicht übernommen, sry. habs oben geändert. medium = 32bit, high = 64

centurio81
2007-05-29, 23:54:24
hab mich schon über die hohen Frames gewundert..^^ :eek:
Bei snow waren es durchschnittlich grade mal 40 und cave dann 53..

Hab auch die Ultimate 64 Bit.

Raff
2007-06-03, 14:16:33
Und schon wieder! Die Minimalanforderung ist ein Pentium 4, von einem Athlon XP steht da nichts. Und das Ding rennt auf meinen Barton nicht ... wieder SSE2-Zwang, o. ä.? Der Pentium 4 wird nachträglich deutlich besser gemacht als AMDs Konkurrent. :|

MfG,
Raff

Megamember
2007-06-03, 15:37:06
Average 17 Snow 18 Cave 20

1280x960,4AA,8AF, sonst allex max, ohne V-Sync

desert
2007-09-30, 03:10:47
http://s2.directupload.net/images/070930/temp/42jvzlhu.jpg (http://s2.directupload.net/file/d/1201/42jvzlhu_jpg.htm)

Cpl. Dwayne Hicks
2007-09-30, 04:28:21
1152x864 alles aufs maximum, 4xAA, 16x AF, DX9 (hab nur Win XP)

Cave: 48FPS

Snow: 38FPS

HD2900XT 512MB @ standard Takt

Mr.Magic
2007-09-30, 06:38:28
16xCSAA|16xHQAF|maxed

http://www.abload.de/img/lostplanetdx92007-09-2103-04-35-530yr.jpg
http://www.abload.de/img/lostplanetdx92007-09-2103-15-50-26zu3.jpg
http://www.abload.de/img/lostplanetdx102007-09-2103-26-19-41f3c.jpg

Maxxen
2008-01-01, 16:31:20
AMD64 X2 2.8 Ghz (Windsor, 2x 1 MB L2-Cache)
2x 1024 MB DDR2 @ 350 Mhz
ASROCK 939Dual-SATA2 + Upgrade Board
8800GT @ 660/1650/950
Vista mit Forcewar 169.25 WHQL


1280x720x64 0xAA 16xAF
Im Spiel alles auf High.

..............................Snow......Cave.......
DX10 (Shadows High)....23.........25.........
DX10 (Shadows Med)....60.........42.........
DX9 (Shadows Med)......63.........42.........

crux2005
2008-02-11, 14:59:17
hallo erstmal

habe leider ein problem mit dem Lost Planet Demo Benchmark - D3D10
bekomme eine Fehlermeldung wenn ich das Demo starten will

Fatal error:
Invalid display mode. 1280x720

:mad:

kann mir jemand helfen ? was soll ich machen ?

OS ist ein Windows Vista ultimate 32-Bit
FW 169.06 WHQL, 2x 8800GTS

danke :smile:

Razor
2008-02-11, 21:28:25
kann mir jemand helfen ? was soll ich machen ?
Steht doch da... die Auflösung 1280x720 (ist default) kann nicht gesetzt werden.
Patch drüber und es sollte laufen...
http://www.gamershell.com/download_19165.shtml

Was für ein Display nutzt Du (TFT/CRT, Zoll, native Auflösung)?

Razor

crux2005
2008-02-12, 14:53:07
jo thx

mein moni ist ein 24" LCD Samsung 245T @ 1920x1200

Slipknot79
2008-03-23, 20:55:38
1360x760, 4xAA, 16xAF, Alles max, HQ im Treiber, Vista 64
FW 174.70

DX9: Snow: 112fps
Cave: 74fps

DX10: Snow: 44fps
Cave: 51fps


CPU: Intel Core 2 Duo E8400, 4000MHz@1.36V, Zern PQ+ (Wakü)
RAM: 4GB DDR2 1066MHz Corsair
Grakas: 2 x Leadtek WinFast 8800 GTX SLI
Mobo: EVGA 780i SLI

Frank1974
2008-06-28, 20:58:52
8800GTS-640MB vs. GTX280, überall wo es Grafiklimitiert ist, hat es sich mehr als gelohnt, natürlich wären mir 350€ lieber gewesen, aber was solls :smile:
http://www.abload.de/img/lostplanet_tabelleo49.png

mfg
Frank

Ronny G.
2008-07-17, 19:48:37
q6600@3,6Ghz@P45, 8800GTS 512mb 864/2106/1152Mhz@FW177.41, DDR2 800 4-4-4-10, Vista64

1280x960 all Highest in DX9 --------- Snow / Cave

no AA/AF 73/95fps
4xMSAA/16xAF 59/86fps
8xS AA/16xAF 38/58fps
16xS AA/ 16xAF 20/30fps

u.640x480 all lowest
no AA/AF 242/102fps

der Sprung zwischen G80 und G92 ist genauso gewaltig wie der zur GTX280, einfach beeindruckend!
Der Cave Test ist aber doch sehr seltsam, gerade bei der GTX280 vom Frank immer 59fps, mein Test mit 640x480 war da auch .....

Frank1974
2008-07-17, 20:49:08
Der Cave Test ist aber doch sehr seltsam, gerade bei der GTX280 vom Frank immer 59fps, mein Test mit 640x480 war da auch .....

Ich hab da ein CPU-Limit, wenn ich auf 3000MHz runter gehe, habe ich dann nur noch 55-56fps bei Cave, ich hatte mit meiner 8800GTS damals mit einem anderen Treiber mal 63fps da, keine Ahnung warum das jetzt eher limitiert.

mfg
Frank

Cubitus
2008-08-04, 20:09:48
Mittlerweile ist schon ein Jahr vergangen,
die Vollversion von LP hat sich weiterentwickelt dazugekommen sind neue DX10 Effekte.

Als neustes Ergebnis mit GTX280AMP!@SLI, 1920*1200, 4xAA, 16xAF,
alles auf High, alle DX10 Verbesserungen aktiviert, FW 177.79, CPU Q6600@3,45 Ghz

http://www.bilderdepot.eu/images/1217182696.jpg (http://www.bilderdepot.eu/)
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Die alten Werte von damals mit zwei 8800GTXen@670 mhz und einem E6600@3,2 Ghz mit DX9 und ohne DX10 verbesserungen.. entspricht der Demoversion..
klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5514676#post5514676)

Der neue Bench mit den selben Einstellungen wie damals, 4xAA, 16xAF

http://www.bilderdepot.eu/images/1217278160.jpg (http://www.bilderdepot.eu/)

wie man sieht haben sich die Werte fast verdoppelt.
Zudem wurde damals auf WinXP getestet, da jetzt Vista64 benutzt wurde könnte man noch ca +5 FPS dazurechen.

Die Leistung eines 280er SLI Gespanns ist in diesem Bench so hoch wie erwartet.

Slipknot79
2008-08-04, 20:24:09
Mittlerweile ist schon ein Jahr vergangen,
die Vollversion von LP hat sich weiterentwickelt dazugekommen sind neue DX10 Effekte.

Als neustes Ergebnis mit GTX280AMP!@SLI, 1920*1200, 4xAA, 16xAF,
alles auf High, alle DX10 Verbesserungen aktiviert, FW 177.79, CPU Q6600@3,45 Ghz

http://www.bilderdepot.eu/images/1217182696.jpg (http://www.bilderdepot.eu/)

Die alten Werte von damals mit zwei 8800GTXen@670 mhz und einem E6600@3,2 Ghz

klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5514676#post5514676)

Der neue Bench mit den selben Einstellungen wie damals, 4xAA, 16xAF

http://www.bilderdepot.eu/images/1217278160.jpg (http://www.bilderdepot.eu/)

wie man sieht haben sich die Werte fast verdoppelt.
Zudem wurde damals auf WinXP getestet, da jetzt Vista64 benutzt wurde könnte man noch ca +5 FPS dazurechen.

Die Leistung eines 280er SLI Gespanns ist in diesem Bench so hoch wie erwartet.


Gibt es eine neue Benchmarkversion?!?!?

Cubitus
2008-08-04, 20:29:15
Gibt es eine neue Benchmarkversion?!?!?

Ne, die Demo hat nicht die neuen DX10 verbesserungen drinn.
Nur die Vollversion oder LP Colonies

im Prinzip ist für den Thread der zweite Bench interessanter

Ronny G.
2008-08-04, 20:55:40
q6600@3,6Ghz@P45, 8800GTS 512mb 864/2106/1152Mhz@FW177.41, DDR2 800 4-4-4-10, Vista64

1280x960 all Highest in DX9 --------- Snow / Cave

no AA/AF 73/95fps
4xMSAA/16xAF 59/86fps
8xS AA/16xAF 38/58fps
16xS AA/ 16xAF 20/30fps



q6600@3,6Ghz@P45, 4870 850/1050 Cat 8.7, DDR2 800 4-4-4-10, Vista64

1280x960 all Highest in DX9 --------- Snow / Cave

no AA/AF 97/98fps
4xMSAA/16xAF 80/97fps
8xAA/16xAF 76/95fps


wiedermal ein gewaltiger sprung, endlich sehe ich mal ne steigerung, der Wechsel von der 8800er auf die 4870 hatten mich bis jetzt noch nicht so vom Hocker gerissen, aber diese Tendenz hier ist top

deekey777
2008-08-21, 00:06:58
Demo-Benchmark, 1280x1024, System siehe Profil:
16 bit:
39/25,9 (1x/1x) + 32,1/25,3 (4x/8x)
10 bit:
39/25,6 + 32,1/25,4.

Ich hasse meine CPU. :biggrin:

derguru
2008-08-21, 01:16:14
Ne, die Demo hat nicht die neuen DX10 verbesserungen drinn.
Nur die Vollversion oder LP Colonies

im Prinzip ist für den Thread der zweite Bench interessanter

das sieht man dann auch in den fps werten bei colonies,da performt es noch lange nicht so wie bei der älteren version.
4aa/16af
http://www.abload.de/thumb/lostplanetcoloniesdxu92.jpg (http://www.abload.de/image.php?img=lostplanetcoloniesdxu92.jpg)

tombman
2008-08-21, 02:51:22
das sieht man dann auch in den fps werten bei colonies,da performt es noch lange nicht so wie bei der älteren version.
4aa/16af
http://www.abload.de/thumb/lostplanetcoloniesdxu92.jpg (http://www.abload.de/image.php?img=lostplanetcoloniesdxu92.jpg)
Wieso, paßt doch. Du hast ja "nur" eine 260er, während er 2x280er hat ....

deekey777
2008-10-06, 19:06:12
Demo-Benchmark, 1280x1024, System siehe Profil:
16 bit:
39/25,9 (1x/1x) + 32,1/25,3 (4x/8x)
10 bit:
39/25,6 + 32,1/25,4.

Ich hasse meine CPU. :biggrin:

Ist schon ein Unterschied: Diesmal steckt ein X2 4200+ (AM2) drin, in Caves sind die FPS deutlich gestiegen (und das bei höherer Auflösung, ok die Auflösung ist kleiner):
http://www.abload.de/thumb/lpnjy.png (http://www.abload.de/image.php?img=lpnjy.png)

deekey777
2009-01-14, 17:58:54
Hier etwas mit W7 und aktuellen 8.12 Hotfix:
Da die Druck-Methode nicht klappen wollte, gibt's nur Zahlen. Hardware wie oben, Auflösung und Einstellungen wohl auch (alles auf High außer HDR auf Mittel und Fehl ganz aus):
DX9: 44/32,2
DX10: 46/31

derguru
2009-01-15, 00:43:48
I7 920@4ghz 295GTX@655/1455/1188

1920*1200 4AA/16AF DX9 und DX10 MAX
http://www.abload.de/thumb/lostplanetdx92009-01-1wrpm.png (http://www.abload.de/image.php?img=lostplanetdx92009-01-1wrpm.png) http://www.abload.de/thumb/lostplanetdx102009-01-7s5k.png (http://www.abload.de/image.php?img=lostplanetdx102009-01-7s5k.png)

und einmal das komplette spiel mit mehr DX10 Feature+ anderen Umgebungen

1920*1200 4AA/16AF DX9 und DX10 MAX
http://www.abload.de/thumb/lostplanetcoloniesdx10hsph.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx10hsph.png) http://www.abload.de/thumb/lostplanetcoloniesdx105kih.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx105kih.png) http://www.abload.de/thumb/lostplanetcoloniesdx92byeb.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx92byeb.png) http://www.abload.de/thumb/lostplanetcoloniesdx10tjmk.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx10tjmk.png)

deekey777
2009-01-15, 01:20:31
Diese DX10 Filterung (hab ja erst durch deine Screenshots entdeckt) haut ja extrem rein: In Caves kam ich nur auf 22 FPS (Snow 40). Was genau tut sie?

derguru
2009-01-15, 02:26:02
gute frage darüber findet man nichts im netz.nicht mal pcgh weiß genau was damit anzufangen.
http://www.pcgameshardware.de/aid,643243/Hardware-Test/Lost_Planet-_Colonies-_Vergleichsbilder_DX9_gegen_DX10_und_erste_Benchmarks/

hast du ein optischen unterschied gemerkt wo du es eingeschaltet hast?

Frank1974
2009-03-21, 20:59:01
Core 2 Duo E8600@4100MHz[10x410], 2x2048MB@DDR2-820, 5-5-5-12-2T,
NVIDIA GTX295@default, Vista64 Sp1, FW182.08@HQ

Alles Hoch + DX10 Details

Snow - 87,4fps
Cave - 79,9fps
http://www.abload.de/thumb/lostplanetdx10_fw182-0j6k8.jpg (http://www.abload.de/image.php?img=lostplanetdx10_fw182-0j6k8.jpg)

Core 2 Quad Q9650@3807MHz[9x423], 2x2048MB@DDR2-846, 5-5-5-12-2T,
NVIDIA GTX295@default, Vista64 Sp1, FW182.08@HQ

Snow - 86,2fps
Cave - 108,9fps
http://www.abload.de/thumb/lostplanetdx10_vista64m5hw.jpg (http://www.abload.de/image.php?img=lostplanetdx10_vista64m5hw.jpg)

mfg
Frank

-=Popeye=-
2009-03-22, 09:12:58
Q6600@3600MHz(400x9) °° 2x2GB DDR2 1000@500 CL5-5-5-15 °° GTX285@702/1512/1296 GF182.06 WHQL (HQ) °° Vista64 SP1

1680x1050, 4xMSAA/16xAF, DX10 alles was geht

Snow - 59,8fps
Cave - 83,3fps

http://img1.abload.de/img/lostplanetdx102009-03-s227.png

Ronny G.
2009-03-22, 12:19:28
wie kann ich die Auflösung von 1680x1050 anwählen? bei mir endet es bereits bei 1280xXXX, da die Gamesentwickler immer solche Stolpersteine in den Weg legen müssen:mad:

-=Popeye=-
2009-03-22, 12:37:15
Ich hab die Demo von gamershell (http://www.gamershell.com/download_19165.shtml) geladen da ist noch ein Update.zip enthalten, vielleicht hilfts dir ja weiter.

Ronny G.
2009-03-22, 13:01:14
Ich hab die Demo von gamershell (http://www.gamershell.com/download_19165.shtml) geladen da ist noch ein Update.zip enthalten, vielleicht hilfts dir ja weiter.

danke dir, die Version die ich gezogen hatte war auch ~380mb groß, ich ziehe mal die von gamershell, ma schauen, die Leitungen dort sind ja nicht gerade schnell.

HarryHirsch
2009-03-22, 15:19:50
E8400 @ default, 4870CF @ default, Vista64 SP1, Cat. 9.3

1680x1050, 8xAA, 16xAF

http://www.abload.de/thumb/lostplanetdx102009-03-0s5g.jpg (http://www.abload.de/image.php?img=lostplanetdx102009-03-0s5g.jpg)

nagus
2009-03-23, 21:37:34
Lost Planet DX10 Demo: 1920x1200 alle details max dx10

8xfsaa + 16xaf
snow: 25
cave: 35

4xfsaa + 16xaf
snow: 28
cave: 37

Radeon 4870 1GB 790/1050Mhz, Cat 9.3 AI advanced, Phenom 2 X3 BE @ 3630Mhz, 220Fsb, 2200Mhz HTLink & Northbridge Takt, 4GB DDR3 @1466Mhz CL6-6-6-20, Vista 64, PCIe X-Fi

ROXY
2009-03-24, 07:26:29
für die verbrauchte hardwareleistung sieht es meiner meinung nach SEHR bescheiden aus.

nagus
2009-03-24, 07:40:04
für die verbrauchte hardwareleistung sieht es meiner meinung nach SEHR bescheiden aus.

... wundert mich nicht bei lost planet. typisches "nvidia spiel"

ROXY
2009-03-24, 08:14:27
naja
so manch ut2004 map hat mehr drauf meiner meinung nach.

lost planet = sinnloser einsatz von effekten - die noch dazu in räumen ziemlich bescheuert und billig wirken.
aber für den schneesturm muss ich jetzt natürlich SOFORT auf 6x8000 MHz aufrüsten :rolleyes:
die effekte von lost planet sind einfach nur _lame_ und unsauber hineingefinkelt.

das feuer in der demo sieht aus wie bei killer instinct am N64...

ROXY
2009-03-24, 08:30:19
also in 1680x1050 und med/high settings in lost planet läuft die mission "ansturm auf die schnee????" superflüssig.
nur der sturm und sonnstige pseudo-effekte ziehen die frames sinnlos runter.

die beleuchtung ist zeitweise ziemlich daneben - zu viel gamma bzw. überbeleuchtet.

Ronny G.
2009-03-24, 12:24:30
nun endlich mal mein Ergebniss

System:
Q9550 E0@3,825Ghz@1,288V, Asus P5Q Pro,
4GB DDR2 900Mhz 4-4-4-15,
GTX280@756/1627/1332Mhz FW182.08,
Audigy2zs, Vista64 SP1

Die Werte sind Korregiert, es wurden einige Details von High auf DX10 hoch gestellt, bzw. wurde das Setting DX10 statt High vor der änderung von mir übersehen

1680x1050 DX10 Highest Details, no AA/AF - Snow 76,2fps Cave 97,6fps
http://www.abload.de/thumb/lostplanetdx1016x10noaqi4z.jpg (http://www.abload.de/image.php?img=lostplanetdx1016x10noaqi4z.jpg)

1680x1050 DX10 Highest Details, 8xAA 16xAF Ingame - Snow 54,0fps Cave 72,9fps
http://www.abload.de/thumb/lostplanetdx1016x108xaqhh6.jpg (http://www.abload.de/image.php?img=lostplanetdx1016x108xaqhh6.jpg)

-=Popeye=-
2009-03-24, 12:42:32
Dein Ergebnis kommt mir ein bisschen hoch vor, fahr mal diese Settings.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7041103#post7041103

Ronny G.
2009-03-24, 12:56:43
Dein Ergebnis kommt mir ein bisschen hoch vor, fahr mal diese Settings.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7041103#post7041103

hmm wenn ich mit deinen Ergebnissen vergleiche ja! hast du 8xAA im Menü gewählt?
Die von dir gezeigten Auflösung kann ich leider nicht fahren. Aber nen deftigern AA Modi:biggrin:

deekey777
2009-03-24, 13:01:20
Hast du auch Filterung, Fur und Schaten auf DX10 gestellt?

-=Popeye=-
2009-03-24, 13:06:56
Ich meine ja auch nicht die Auflösung, 1920x1200 kann ich mit meinem TFT auch nicht fahren dafür müsste ich mein Röhre anschließen, sondern die anderen Einstellungen.

Ronny G.
2009-03-24, 13:11:46
Hast du auch Filterung, Fur und Schaten auf DX10 gestellt?

ja das habe ich gemacht, habe jetzt noch mal Nhancer auf 8xQ gestellt, das selbe ergebniss.

Ich meine ja auch nicht die Auflösung, 1920x1200 kann ich mit meinem TFT auch nicht fahren dafür müsste ich mein Röhre anschließen, sondern die anderen Einstellungen.
daran lag es, nach Hoch kommt bei einigen Details ja noch das DX10, ich werde testen und die Werte korrigieren.

edit: ich habe es geändert, hat ganz schön gesuckt, so passt es jetzt aber, Popeye kannst ja auch mal 8xAA testen.

derguru
2009-05-29, 18:42:48
I7 920@4ghz 4770 512mb 900/1000 Cat 9.5

1920*1200 4AA/16AF DX10

Area 1 24,2 fps
Area 2 33,2 fps

http://www.abload.de/thumb/lostplanetcoloniesdx10ivdn.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx10ivdn.png)

derguru
2010-02-12, 12:23:42
I7 920@4ghz // 6gb 2000 cl8 //5870@900/1300 // Win7 64bit

1920*1200 4AA/16AF DX10

Area 1 44,9 fps
Area 2 73,8 fps

http://www.abload.de/thumb/lostplanetcoloniesdx10zoj7.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx10zoj7.png)


1920*1200 8AA/16AF DX10

Area 1 43,8 fps
Area 2 70,7 fps

http://www.abload.de/thumb/lostplanetcoloniesdx10hqsv.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx10hqsv.png)


----------------------------------------------------------------------------


1920*1200 4xSGSSAA/16AF DX9

Area 1 29,5 fps
Area 2 35,0 fps

http://www.abload.de/thumb/lostplanetcoloniesdx92jyqf.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx92jyqf.png)

1920*1200 8xSGSSAA/16AF DX9

Area 1 17,3 fps
Area 2 21,9 fps

http://www.abload.de/thumb/lostplanetcoloniesdx92ixep.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx92ixep.png)

AYAlf_2
2010-02-13, 09:40:37
alles max 1xaa 16xaf 1920x1080 €: dx10

Snow AVG 57

Cave AVG 70

c2q@3,4ghz
5870
8gb ddr2

deekey777
2010-03-27, 23:49:04
Wie sieht eigentlich die Performance mit den aktuellsten Catalysts aus?

Ich bekomme 42/57 mit meiner HD4850 (675/993) und zwar in 1440x900, 4xMSAA, 8xAF, HDR auf Mittel und alles auf Max (sprich High oder DX10).

derguru
2010-03-28, 00:54:31
+1~fps aufwärts unter 1920*1200 4AA/16AF DX10,also nicht der rede wert.

Jake Dunn
2017-04-24, 07:50:37
4K

3840x2160 DX10 Highest Details, 4xAA 16xAF Ingame - Snow 47fps Cave 65fps

https://abload.de/img/gfqrkf2.jpg (http://abload.de/image.php?img=gfqrkf2.jpg)

CPU 4,0 ghz, RX480 Default

Wiseman
2017-04-24, 15:42:12
@ Jake Dunn

Gute Idee, diesen ollen Demo-Benchmark aus dem Jahr 2007 mal in 4k laufen zu lassen.

Meine Werte in 4k:

i7-6700 (Default), Fury OC (Default), Win10, 17.4.3

3840x2160/DX10/High/4xAA/16xAF: Snow 79 fps, Cave 110 fps

Radeonfreak
2017-04-25, 11:50:06
Ryzen R7 1700x @ 3580 MHZ, GTX 1080 @ 2GHZ

3840x2160/DX10/High/8xAA/16xAF


https://abload.de/img/unbenanntq6xul.png

Achill
2017-04-25, 19:44:32
6850k@4.4Ghz / UC@3.6Ghz / 2x 390X@1150/1500Mhz

2160p / Max.Details / 8xAA / 16xAF
- snow: ~105 fps
- cave: ~149 fps

seaFs
2017-07-06, 22:42:35
Lost Planet Demo DX9
1920x1080 alles max
16xQ AA / 16x AF

Snow 40,6
Cave 39,0


Athlon64 X2 4400+ @ 3GHz
A8N32-SLI Deluxe
2x Quadro FX5600 SLI (= 8800GTX SLI @ 2x 1536MB)
8GB DDR500R 3-3-3-5 1T

hacky
2019-03-06, 13:46:39
Lost Planet Demo DX9
2560x1440 alles max

Snow 186
Cave 284
(siehe Anhang)


Lost Planet Demo DX10
1920x1080 alles max

Snow 325
Cave 327
(ohne Bild)

Benchmark @ Notebook: DTR 15, Core i9 9900K, 64 GB RAM, RTX2080
Ohne OC und ohne undervolting.

BeetleatWar1977
2019-05-22, 20:54:03
4K ausgemaxt, 2x Vega56
Snow 140 Cave 227
https://abload.de/thumb/lostplanetdx9_2019_05z6khv.jpg (http://abload.de/image.php?img=lostplanetdx9_2019_05z6khv.jpg)

Achill
2019-05-22, 23:04:59
6850k@4.4Ghz / UC@3.6Ghz / 2x 390X@1150/1500Mhz

2160p / Max.Details / 8xAA / 16xAF
- snow: ~105 fps
- cave: ~149 fps


6850k@4.3Ghz / UC@3.6Ghz / Radeon7@1900/1200Mhz+20PT

2160p / Max.Details / 8xAA / 16xAF
- snow: ~149 fps
- cave: ~234 fps

CPU war ab und zu bei ~50% ... könnte ein CPU-Bench sein mit DX9c