PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Performancereport Stalker: Shadow of Chernobyl


Leonidas
2007-07-17, 22:54:58
Link zum Artikel:
http://www.3dcenter.org/artikel/2007/07-17_a.php

Zur Beruhigung aller Kritiker: Definitiv der letzte der Performancereports mit "alter" Mainstream-Hardware (wenngleich die weder alt noch langsam ist). Die kommenden Reports werden dann mit Radeon HD 2900 XT und GeForce 8800 GTS 640MB getätigt werden. Danke schon mal an dieser Stelle an Sapphire und Club3D, die uns hier vorbildlich unterstützt haben.

Kladderadatsch
2007-07-17, 23:17:13
mmn der interessanteste aller bisherigen performance-tests:up:

was mir beim "bilder-gucken" gerade aufgefallen ist:
seite 3, erste grafik: leichtes gefecht: 41 fps; schweres gefecht: 54 fps..:confused:
die sind doch vertauscht?

Gast
2007-07-17, 23:17:35
Gibts denn auch mal ne neue CPU? Ich denke für Grafikbenchmarks wäre ein E6850 @ 3,6 GHz oder mehr ziemlich sinnvoll.

Gast
2007-07-17, 23:37:33
Also ich hab zwar nicht gebencht , kann aber sagen das Stalker auf meinem System mit statischer Beleuchtung gut spielbar ist.
Mein System:
AMD AthlonXP 3000+(Barton mit 333er DDR Ram)
ATI X800XT(500MhzGPU und 1000Mhz Speicher(DDR))
1Gig Arbeitsspeicher
2Gig Speicher sollen laut nem Kollegen nochmals etwas helfen bzw. nachladeruckler mindern.

Gruß
met@bo

Melbourne, FL
2007-07-17, 23:38:50
die sind doch vertauscht?

Denke ich nicht. Zumindest steht im Text was dazu drin (dass es seltsam ist).

Was ich eher als kritisch sehe, ist der allerletzte Abschnitt:

Beim Speicherverbrauch zeigt sich Stalker: Shadow of Chernobyl zudem ungefähr im heutigen Mittelmaß: Unter hohen Details nimmt sich das Spiel - unabhängig des Beleuchtungsmodells - runde 1100 MB Speicher, unter den niedrigen Details sind es noch runde 700 MB. In beiden Fällen sollte man somit mit 1 GB physikalischen Speicherausbau vernünftig zurechtkommen können.

Die Erfahrung zeigt eindeutig, dass 1GB zu heftigen Nachladerucklern fuehrt und dass es aufgrund des Deferred Renderings empfehlenswert ist, bei Full Dynamic Lighting 512MB VRAM zu haben (zumindest mit AGP Karten). Diskussion dazu siehe dort:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361105&highlight=stalker

Alexander

deekey777
2007-07-17, 23:49:40
Das Spiel selber wurde in der Spielversion 1.001 und zusätzlich in einem extra Test in der Spielversion 1.04 ausgemessen. Zudem sei vorab absolut klargestellt, daß wir im Spiel selber immer die bestmögliche Grafikqualität und 5.1 Surround-Sound ausgewählt haben und sich dieser Artikel auch hauptsächlich nur auf diese bestmöglichen Settings bezieht. Senkt man die Spiel-eigenen Grafiksettings hingegen ab, kann man natürlich auch mit kleinerer Hardware als hier angegeben auskommen. Für diesen Zweck haben wir zusätzlich auch extra Tests mit mittleren und niedrigen Details durchgeführt.

Wo? Zumal: Wo kriegt man den Patch 1.04?

Mit einem GB macht das Spiel eindeutig keinen Spaß, das merkt man besonders im Level Armeestützpunkt (Stützpunkt der Freiheit).

Hochinteressante Aussagen liefert dieser Vergleich: Ganz offensichtlich ist die CPU an den Berechnungen zu den verschiedenen Beleuchtungsmodellen ebenfalls stark mit beteiligt, womit sich für jedes der Beleuchtungsmodelle auch ein unterschiedliches CPU-Limit ergibt. Da wir aber schon festgestellt haben, daß die CPU selbst im besten Beleuchtungsmodell kein bremsender Faktor ist, sofern es sich um einen modernen Prozessor handelt, sollte diese bei den beiden schlechteren Beleuchtungsmodellen auch nie ein Problem darstellen.
Sehr schön. :up:
Wenn du Zeit hast, Madkiller, teste mal, wie es aussieht, wenn man die Schatten deaktiviert, die restlichen Settings aber nicht ändert.

Voodoo³ von voodooalert
2007-07-18, 00:23:02
Habe Stalker bei mir auf - jetzt kommts ;) - folgendem System gespielt:

Dual P3 933
VIA-Chipsatz <-- zum kotzen lahm und instabil (nur ~ 400MB Speicherdurchsatz... lol)
512MB PC133
Radeon9800pro
SB-Live-5.1Digital
------------------------
Was soll ich sagen: Generell war es fast spielbar... bis zum Dings-Institut (da wo der Bus quer vor dem Tor steht). Ab da konnte ich mich nur noch trainergestützt durchruckeln.
------------------------
Nachdem ich dann irgendwo bei Prypiat war kam endlich mein heißersehnter zweiter 512MB-SD-RAM-Riegel an... welch Segen!!! Damit sank zwar die effektive Speicherbandbreite auf <400MB, aber wenigstens nahm das Ruckeln ab...
------------------------
Wer sich über Stalker mit 1GB aufregt daß es nicht spielbar wäre dem sei gesagt: Du hast keine Ahnung was Dich mit 512MB erwartet ;) Das ist ähnlich CS 1.6 auf einem Thinkpad 570 mit 2,5MB VGA im Software-Modus...
------------------------
Mit 1GB läuft's butterweich. Ich muß allerdings sagen, daß das Spiel so gut wie garnicht von Multiprozessor profitiert. Bei meinem PC war die CPU-Auslastung immer bei ~ 53-56% wobei die 3-6% wahrscheinlich restlicher System-Schrott sind der nichts mit dem Spiel zu tun hat.

ciao und MfG

Melbourne, FL
2007-07-18, 04:36:40
Ich muß allerdings sagen, daß das Spiel so gut wie garnicht von Multiprozessor profitiert. Bei meinem PC war die CPU-Auslastung immer bei ~ 53-56% wobei die 3-6% wahrscheinlich restlicher System-Schrott sind der nichts mit dem Spiel zu tun hat.

Oder Du hast im Grafikkartenlimit gehangen...der Test zeigt ja sehr schoen, dass die CPU eine eher untergeordnete Rolle spielt.

Alexander

Lightning
2007-07-18, 08:55:13
Was mir eben beim Überfliegen eben auffiel, ist, dass sich in den Grafiken ein beliebter Schreibfehler eingeschlichen hat: Lightning statt Lighting (der Lightning bin ich ;)).

Madkiller
2007-07-18, 09:11:02
Das Spiel selber wurde in der Spielversion 1.001 und zusätzlich in einem extra Test in der Spielversion 1.04 ausgemessen.

Ist wohl C/P-Fehler aus CnC3. Es wurde nur der 1.001er getestet - zumindest bis zum Savegame-Converter (oder gibts den schon?).
Beim Speicherverbrauch zeigt sich Stalker: Shadow of Chernobyl zudem ungefähr im heutigen Mittelmaß: Unter hohen Details nimmt sich das Spiel - unabhängig des Beleuchtungsmodells - runde 1100 MB Speicher, unter den niedrigen Details sind es noch runde 700 MB. In beiden Fällen sollte man somit mit 1 GB physikalischen Speicherausbau vernünftig zurechtkommen können.
Da kann ich mich der Kritik hier im Thread nur anschließen...
Wenn das Spiel allein schon 1100MB zieht, kann es ja mit 1GiB RAM (wo eh nur max 800MB für das Spiel zur Verfügung stehen) fast garnicht einwandfrei laufen.
Zumindest spricht auch ohne 1GiB getestet zu haben deutlich mehr dafür, daß es Abstriche gibt.
seite 3, erste grafik: leichtes gefecht: 41 fps; schweres gefecht: 54 fps..:confused:
die sind doch vertauscht?
Nene, passt schon. Es ist zwar ein kleineres Gefecht, dafür ist der Hintergrund deutlich aufwändiger.

Die Erfahrung zeigt eindeutig, dass 1GB zu heftigen Nachladerucklern fuehrt und dass es aufgrund des Deferred Renderings empfehlenswert ist, bei Full Dynamic Lighting 512MB VRAM zu haben (zumindest mit AGP Karten). Diskussion dazu siehe dort:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361105&highlight=stalker

Alexander
In absehbarer Zeit (Benches sind fertig) sollte ein 640MiB vs 320MiB-Artikel rauskommen. :)

pock
2007-07-18, 10:11:34
Hallo,

ich zocke Stalker seit Monaten excessiv - in 1600*1200/full lighting/alles max - mit Core Duo 6600@3,6Ghz und 8800GTS 640@650/950Mhz. Performance/Quali/Atmo sind berauschend - wie man zu der Aussage kommt für diese QualiSettings ein GTX-SLI Gespann zu benötigen ist mir ein Rätsel. Besser mal mit entsprechnder Hardware testen!! und dann Empfehlungen geben.

*edit* min. 2GB RAM sind Pflicht und der Vramverbrauch ist auch bemerkenswert.....

my two cent

ilPatrino@work
2007-07-18, 11:10:02
ich bilde mir ein, daß ich mit dem (ich glaube) 158.27er treiber einen ordentlichen performance-sprung zu den 93er treibern erlebt habe, wenn ich es auch nicht direkt vergleichen konnte, weil ich zu dem zeitpunkt mein system neu installieren mußte. kann das jemand nachvollziehen?

system xp32

Henroldus
2007-07-18, 11:52:29
Gibts denn auch mal ne neue CPU? Ich denke für Grafikbenchmarks wäre ein E6850 @ 3,6 GHz oder mehr ziemlich sinnvoll.
Grad in diesem Spiel limitiert die CPU ja nun wohl überhaupt nicht!
wurde auch im Artikel beschrieben und mit der langen Entwicklungszeit begründet.

Gast
2007-07-18, 12:44:58
Grad in diesem Spiel limitiert die CPU ja nun wohl überhaupt nicht!
wurde auch im Artikel beschrieben und mit der langen Entwicklungszeit begründet.

Es ging mir nicht ums Spiel... sondern um die Hardware.

Wenn neue Grafikkarten eingesetzt, warum dann keine neue CPU? Ansonsten wird das Bild ziemlich verfälscht...

Je langsamer die CPU, desto schlechter ist sie für Grafikvergleiche geeignet!

Lightning
2007-07-18, 13:04:33
Es ging mir nicht ums Spiel... sondern um die Hardware.

Wenn neue Grafikkarten eingesetzt, warum dann keine neue CPU? Ansonsten wird das Bild ziemlich verfälscht...

Je langsamer die CPU, desto schlechter ist sie für Grafikvergleiche geeignet!

Ein C2D @ 3.2 GHz ist im Vergleich zu den verwendeten (mittlerweile schon wieder etwas betagten) Grafikkarten imo "High End" genug.

Gast
2007-07-18, 13:11:19
Denke ich nicht.

Hier im 3DC dreht es sich primär darum, welche Grafikkarte die bessere ist für das Spiel XY.

Das findet man aber nur heraus, wenn keine Limitierungen in form von CPU + RAM vorliegen.

Der eingesetzte E6400 @ 3,2 GHz ist auch nicht mehr so frisch, denn leistungsmäßig liegt er gerade mal auf Niveau eines E6850 oder teilweise darunter!

Lightning
2007-07-18, 13:16:36
Wie schon gesagt: In diesem Spiel limitierte die CPU ja nicht. Wenn es mal ein Spiel geben sollte, bei dem das doch zutrifft, hast du natürlich recht. Dann wäre ein schnellerer Prozessor gut.

Ansonsten entspricht ein E6400 @ 3.2 GHz wie du sagst immerhin etwa dem schnellsten überhaupt erhältlichen Dual Core Prozessor - während man mit den verwendeten Grafikkarten schon sehr weit hinter einem 8800-GTX-SLI-Gespann liegt.

Gast
2007-07-18, 13:21:37
Ansonsten entspricht ein E6400 @ 3.2 GHz wie du sagst immerhin etwa dem schnellsten überhaupt erhältlichen Dual Core Prozessor - während man mit den verwendeten Grafikkarten schon sehr weit hinter einem 8800-GTX-SLI-Gespann liegt.

Leo sagte ja, das dies der letzte Artikel mit dieser Hardware ist.
Es wäre mir daher wichtig, wenn in zukünftigen Reviews nicht nur die Grafikkarte, sondern auch die CPU getauscht wird.

Denn nicht jedes getestete Game ist ausschließlich von der Grafikkarte abhängig.

Besonders wichtig, finde ich das vorallem deshalb, weil man eine Grafikkarte dieser Preisklasse in der Regel länger behält!
In dieser Zeit gibt es aber meist schon bessere/günstigere CPUs zu kaufen. Was nützt es mir denn zu wissen, das eine Grafikkarte mit einer alten CPU schnell ist, aber ich keine Ahnung habe, wie sie mit zukünftigen CPUs skaliert...

Undertaker
2007-07-18, 13:26:50
mal eine frage: wie ermittelt ihr die spielbarkeits-übersicht auf seite 4 mit etwa einem dutzend grafikkarten, wo doch nur die x1900xt und die 7950gt wirklich getestet wurden? oder ist das einfach ins blaue hinein getippt?

Lightning
2007-07-18, 13:33:36
Leo sagte ja, das dies der letzte Artikel mit dieser Hardware ist.
Es wäre mir daher wichtig, wenn in zukünftigen Reviews nicht nur die Grafikkarte, sondern auch die CPU getauscht wird.

Sorry, das hate ich gerade irgendwie verdrängt.

Denn nicht jedes getestete Game ist ausschließlich von der Grafikkarte abhängig.

Besonders wichtig, finde ich das vorallem deshalb, weil man eine Grafikkarte dieser Preisklasse in der Regel länger behält!
In dieser Zeit gibt es aber meist schon bessere/günstigere CPUs zu kaufen. Was nützt es mir denn zu wissen, das eine Grafikkarte mit einer alten CPU schnell ist, aber ich keine Ahnung habe, wie sie mit zukünftigen CPUs skaliert...

Meiner Meinung nach ist der Lebenszyklus einer CPU höher als der einer Grafikkarte - sprich, die Zeit, in der sich die Grafikleistung veroppelt, ist in der Vergangenheit immer eindeutig kürzer gewesen als bei der Prozessorleistung.

Wie auch immer: Sobald man mal mit der CPU ans Limit kommt, gebe ich dir recht. Ansonsten wäre es doch eher rausgeschmissenes Geld, eine bessere CPU zu kaufen.

Hvoralek
2007-07-18, 16:07:09
Wenn du Zeit hast, Madkiller, teste mal, wie es aussieht, wenn man die Schatten deaktiviert, die restlichen Settings aber nicht ändert.Es könnte auch interessant sein, wie sich float32 auswirkt. Ich habe bei der Installation mal die Performance an einer Stelle verglichen (nicht repräsentativ, klar), aber die ist rauf von 27fps auf 35 fps.

Ihr habt bestimmt noch nicht genug zu tun :biggrin:

Hier im 3DC dreht es sich primär darum, welche Grafikkarte die bessere ist für das Spiel XY.

Das findet man aber nur heraus, wenn keine Limitierungen in form von CPU + RAM vorliegen.Notfalls kann man eine GraKalimitierung auch durch höhere Auflösungen erreichen.

Gast
2007-07-18, 16:15:45
woher wisst ihr eigentlich dass man eine 8800GTS für setting X braucht, ohne die karte zu testen.

das abschätzen der leistung innerhalb einer grafikgeneration ist ja noch ganz gut möglich, zwischen 2 komplett unterschiedlichen architekturen aber nicht im geringsten.
hier sieht man leider wie schade es ist dass dieser gut gemeinte testparcours nur mit ziemlich alten grafikkarten gemacht wird, zumindest 1 karte aus der alten und 1 aus der neuen generation für beide hersteller wäre wirklich gut.

zustätzlich wäre ein test des VRAM-verbrauch empfehlenswert, wo ja gerade stalker durch den defferred renderer nicht gerade sparsam damit umgeht.


das zusammenfassende diagramm könntet ihr euch allerdings sparen, die übersicht ist zum vergessen, man muss ständig scrollen um zu erkennen was welcher balken bedeutet, die restlichen diagramme sind aber gut gelungen.

Madkiller
2007-07-18, 16:25:22
woher wisst ihr eigentlich dass man eine 8800GTS für setting X braucht, ohne die karte zu testen.

Die wurden anscheinend von hier abgeleitet
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index17.php

BlackArchon
2007-07-19, 08:53:45
Ich möchte nochmal auf die Diagrammbezeichnung Lightning <=> Lighting hinweisen. ;(

Odal
2007-07-19, 09:37:33
ähm den unterschied zwischen dual core und single core finde ich irgendwie komisch....

schau ich mir die cpu auslastung bei mir an so wird nur ein kern benutzt (der aber mit 100% ausgelastet)

Mr.Soapdown
2007-07-19, 09:51:59
Ein CD2@3,2 ghz reicht doch völlig. Was nutz mir ein quad@4ghz?

Es soll schon noch bezug zur "normal kaufbaren" Ware vorhanden sein (geschmackssache). Denn die 3,2 ghz werden schon nicht so arg limitieren, dass da noch was neues her muss.

Ich wünsche mir bei solchen teste noch immer, dass die letzte highend karte der vorherigen generation mitgebencht wird. Leider nimmt das dann wieder eine enorme dimension an.

mfg

Gast
2007-07-19, 13:59:07
Es soll schon noch bezug zur "normal kaufbaren" Ware vorhanden sein (geschmackssache).

Genau deshalb würde ich eine Aufwertung der CPU befürworten.

Die jetzigen Grafikkarten werden auch noch in Rechnern der nächsten Monate genutzt. Und da bei den CPUs zur Zeit ein enormer Fortschritt herrscht, wäre es nicht weiter verwunderlich, wenn sie schon sehr bald Zusammen mit Penryn oder dem K10 eingesetzt werden.

Zudem würde es ein realistischeres Bild der Leistung ergeben.
Denn wenn deine CPU vor der Grafikkarte bremst, so kann deine Grafikkarte nicht zeigen, was in ihr steckt -> wahrer Vorsprung nicht sichtbar.

Aber sobald du in ein Grafiklimitiertes Szenario kommst, wird sich die schnellere Karte deutlich absetzen können, auch wenn die Testwerte dir was ganz anderes weiß machen wollen.

Die in diesen Reviews getesteten Games waren bis auf wenige Ausnahme nicht Grafiklimitiert, sondern teilweise ziemlich stark CPU lastig.

Du machst also mehr falsch, wenn du mit einer langsamen CPU testest, als wenn du eine "zu" schnelle nimmst!

reunion
2007-07-19, 18:23:42
Darf man Fragen warum die Treiber nicht aktualisiert wurden? Gerade bei neueren Spielen kann es dadurch immer wieder zu beachtlichen Leistungssteigerungen kommen, und der Aufwand sollte auch überschaubar sein.

Madkiller
2007-07-19, 19:06:04
Genau, wegen dem Aufwand.

Homy
2007-07-20, 03:50:07
Ist wohl C/P-Fehler aus CnC3. Es wurde nur der 1.001er getestet - zumindest bis zum Savegame-Converter (oder gibts den schon?).

Der Converter wurde in den 1.0003er Patch integriert, er kann allerdings nur Savegames von Version 1.0001 konvertieren :mad:
Patch 1.0004 soll bald als Patch 1.1 herauskommen, nur mal so am Rande...

HisN
2007-07-20, 04:52:11
In absehbarer Zeit (Benches sind fertig) sollte ein 640MiB vs 320MiB-Artikel rauskommen. :)


Ob da FPS-Benches sinnvoll sind? Texturen-Swaps wirken sich doch kaum auf die FPS aus sondern geben eher kurze Ruckler die nervig sind im Spieleablauf.

Madkiller
2007-07-20, 08:06:29
Also wenn es bei mir mal Einbrüche gab, waren das auch konstante Einbrüche.
Ich dachte, das wäre bei VRAM-Knappheit normal?

Mr. Lolman
2007-07-20, 09:37:42
Also wenn es bei mir mal Einbrüche gab, waren das auch konstante Einbrüche.
Ich dachte, das wäre bei VRAM-Knappheit normal?

Das ist nur bei verbuggten Treibern normal, oder in Szenen wo mehr Speicher benötigt wird, als tatsächlich vorhanden (=momentan eher selten). Normalerweise werden die Texturen nach und nach geladen und auch die Texturen die momentan nicht mehr benötigt werden, bleiben noch ne Zeit im Speicher. Ist der VRAM irgendwann voll mit gecachten Texturen und müssen dann dennoch neue nachgeladen werden, gibts (im Idealfall) allenfalls nen kleinen Miniruckler...

Roi Danton
2007-07-20, 10:15:39
Genau, wegen dem Aufwand.Der Dativ ist des Genitivs Tod. *wegduck*

HisN
2007-07-20, 19:51:08
Also wenn es bei mir mal Einbrüche gab, waren das auch konstante Einbrüche.
Ich dachte, das wäre bei VRAM-Knappheit normal?


Mein Lieblingsbeispiel: Doom3

Einfach mit einer 256MB-Karte den Ultra-Modus anschmeissen. Ins Spiel gehen und einen 360°-Turn machen.

Das ist V-Ram knappheit. Ich denke nicht das es die everage-FPS groß beeinflusst. Trotzdem wird es unspielbar :-)

Ich würde es begrüßen wenn Du in Deinem Test-Parkours immer ein Auge auf den Vram-Verbrauch im Rivatuner hast und nicht so einen bekloppten zusammenstellst wie http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/8/#abschnitt_spielebenchmarks bei denen 3/4 aller Spiele nicht mal 256MB selbst in den höchsten Auflösungen schaffen. Diese Kacke führen dann nämlich alle an und sagen: Schau mal GTX320/640 .. kaum ein Unterschied. Nur bei COD2 und COH .. DAS sind nämlich die beiden Games die die 320MB der kleinen GTX schon ab 1280x1024 mit etwas AA/AF zuspachteln (COD2) bzw sofort beim Levelstart schon 600MB auf die Graka laden (COH)

deekey777
2007-07-20, 20:30:56
Der Converter wurde in den 1.0003er Patch integriert, er kann allerdings nur Savegames von Version 1.0001 konvertieren :mad:
Patch 1.0004 soll bald als Patch 1.1 herauskommen, nur mal so am Rande...
Der Patch 1.0004 und der Patch 1.1 sind zwei verschiedene Patches.

Homy
2007-07-21, 00:56:57
Der Patch 1.0004 und der Patch 1.1 sind zwei verschiedene Patches.

hmm, sicher?

"Wir wollen 1.0004 mit den Änderungen herausbringen, die wir bereits haben, daher wird der Patch mit Freeplay und dem neuen Schwierigkeitsgrad als Version 1.1 rauskommen."

http://www.oblivion-lost.de/index.php?zone=design2&lang=de&page=static&static_page=weekly

deekey777
2007-07-21, 01:52:41
hmm, sicher?

"Wir wollen 1.0004 mit den Änderungen herausbringen, die wir bereits haben, daher wird der Patch mit Freeplay und dem neuen Schwierigkeitsgrad als Version 1.1 rauskommen."

http://www.oblivion-lost.de/index.php?zone=design2&lang=de&page=static&static_page=weekly


Ich halte dagegen:
Die Sache ist folgende: Während der Übersendung von 1.0004 an THQ haben wir angefangen, an der chinesischen Lokalisierung von STALKER zu arbeiten. Asiatische Lokalisierungen sind nicht einfach. Obwohl es nicht das erste Mal für uns ist, gab es Probleme. Um sicher zu gehen, dass die chinesische Version kompatibel mit anderen ist, muss sie die selbe Version wie der Patch haben. Folglich wird der Release des Patches aufgeschoben, bis THQ und die chinesischen Tester-Teams die chinesische Master-Disc für gut befinden. Wann das passieren wird? Ich hoffe bald

Die Original-News: http://www.stalker-world.ucoz.ru/news/2007-07-15-55
Da hat Oblivion-Lost.de etwas falsch übersetzt bzw. der Inhalt stimmt nicht überein. Der Patch 1.0004 ist der eigentliche Patch 1.0003 (wobei das Freeplay für den echten dritten Patch angekündigt wurde), aus dem vierten Patch wurde dann 1.1. Ich blicke da nicht mehr durch. ;(

Homy
2007-07-21, 03:34:33
Ich halte dagegen:


Die Original-News: http://www.stalker-world.ucoz.ru/news/2007-07-15-55
Da hat Oblivion-Lost.de etwas falsch übersetzt bzw. der Inhalt stimmt nicht überein. Der Patch 1.0004 ist der eigentliche Patch 1.0003 (wobei das Freeplay für den echten dritten Patch angekündigt wurde), aus dem vierten Patch wurde dann 1.1. Ich blicke da nicht mehr durch. ;(

Ich auch nicht! :D

Da Du Stalker anscheinend auch gern zockst, hoffen wir mal beide, dass bald irgendein neuer Patch kommt, um es noch besser zu machen :smile:

Popeljoe
2007-07-21, 16:28:00
Einer der besten Tests seit längerer Zeit! :up:
Insbesondere der Test mit Single Core Prozessoren und @800*600er Auflösung hat mir sehr gefallen, weil auf die Masse der User eingeht!
Hut ab für Voodoo³: mit nem P3 das zu zocken ist schon recht schmerzresistent! ;) Zeigt aber, daß man nicht immer absolutes High End Zeug braucht.
P1

Leonidas
2007-07-26, 11:18:43
Was mir eben beim Überfliegen eben auffiel, ist, dass sich in den Grafiken ein beliebter Schreibfehler eingeschlichen hat: Lightning statt Lighting (der Lightning bin ich ;)).


Oh. Im Text hab ich drauf geachtet, aber bei den Diagrammen dann nicht mehr.




Ist wohl C/P-Fehler aus CnC3. Es wurde nur der 1.001er getestet - zumindest bis zum Savegame-Converter (oder gibts den schon?).


Gefixt.






Da kann ich mich der Kritik hier im Thread nur anschließen...
Wenn das Spiel allein schon 1100MB zieht, kann es ja mit 1GiB RAM (wo eh nur max 800MB für das Spiel zur Verfügung stehen) fast garnicht einwandfrei laufen.
Zumindest spricht auch ohne 1GiB getestet zu haben deutlich mehr dafür, daß es Abstriche gibt.


Fehleinschätzung meinerseits. Korrigiert.





ich zocke Stalker seit Monaten excessiv - in 1600*1200/full lighting/alles max - mit Core Duo 6600@3,6Ghz und 8800GTS 640@650/950Mhz. Performance/Quali/Atmo sind berauschend - wie man zu der Aussage kommt für diese QualiSettings ein GTX-SLI Gespann zu benötigen ist mir ein Rätsel. Besser mal mit entsprechnder Hardware testen!! und dann Empfehlungen geben.


Mmh. Ich kann mit diesen Prognosen nicht immer perfekt liegen. Hier könnte ich mich auch geirrt haben.





Der eingesetzte E6400 @ 3,2 GHz ist auch nicht mehr so frisch, denn leistungsmäßig liegt er gerade mal auf Niveau eines E6850 oder teilweise darunter!


Energischer Widerspruch. Der E6850 hat 3.0 GHz bei FSB1333, unsere CPU hat 3.2 GHz bei FSB1600. Klar hat unsere CPU etwas weniger Cache, aber das war es dann auch schon wieder. Prinzipiell sollte unsere CPU immer noch etwas schneller sein als der reguläre E6850.



mal eine frage: wie ermittelt ihr die spielbarkeits-übersicht auf seite 4 mit etwa einem dutzend grafikkarten, wo doch nur die x1900xt und die 7950gt wirklich getestet wurden? oder ist das einfach ins blaue hinein getippt?


Nein. Aber hochgerechnet anhand der vorliegenden Werte. Je weiter hier das Ziel der Hochrechnung von den vorliegenden Ergebnissen entfernt liegt, um so größer kann natürlich die Fehlerquote sein.

Nichts desto trotz gibt das ganze die Richtung ungefähr an, wo es hingeht. Man sollte auch nicht immer nur in eine Zelle dieser Tabelle schauen, sondern auf das Gesamtbild. Man nehme sich eine beliebige Grafikkarte und schaue, in welchen Zellen der Tabelle die gelistet ist. Damit bekommt man ein gutes Bild ob der Leistungsfähigkeit dieser Karte.



Gibts denn auch mal ne neue CPU? Ich denke für Grafikbenchmarks wäre ein E6850 @ 3,6 GHz oder mehr ziemlich sinnvoll.


Nein, gibt es vorerst nicht. Derzeit ergibt sich noch keine wirkliche Notwendigkeit - dies wäre erst der Fall, wenn öfters mal Spiele auftauchen, die bei unserem C2D @ 3.2 GHz CPU-limitiert wären (nicht nicht gerade Strategiespiele sind, denn da würde man das erwarten). Zudem wären mir von 3.2 auf 3.6 ein zu kleiner Sprung, wenn dann sollte da schon deutlich mehr dastehen.

Gast
2007-08-28, 14:22:36
Hallo!

Gibt es eine Möglichkeit, AA in diesem Spiel zu erzwingen? Ich meine, mit abstellen irgendeines Effeckts, oder, vieleicht hat ja schon einer ein Mod/Patch diesbezüglich geschrieben. Wisst Ihr da was?

Hvoralek
2007-08-28, 15:16:12
Im DX8- Pfad ("statische Beleuchtung") müsste MSAA gehen. Wenn GSC noch einen D3D10- Pfad nachliefert, sollte es dort auch möglich sein.

Gast
2007-08-29, 16:15:56
Fehleinschätzung meinerseits. Korrigiert.



Mmh. Ich kann mit diesen Prognosen nicht immer perfekt liegen. Hier könnte ich mich auch geirrt haben.

Wozu macht ihr dann überhaupt einen Test, wenn der dann nur zu Schätzungen führt?

Madkiller
2007-08-29, 18:07:32
Weil Spielbarkeitsempfehlungen für andere Systeme zwangsläufig immer ne Schätzung ist. Man kann die zwar relativ genau machen, aber nie absolut genau, dafür gibt es zu viele Variablen.

Gast
2007-08-29, 18:16:43
Weil Spielbarkeitsempfehlungen für andere Systeme zwangsläufig immer ne Schätzung ist. Man kann die zwar relativ genau machen, aber nie absolut genau, dafür gibt es zu viele Variablen.
Dann sollte man sich darauf beschränken, was man weiß. Nicht, was man glaubt zu wissen - das geht daneben.

Madkiller
2007-08-29, 18:22:49
Du hast 2 Dinge von Leo aufgegriffen...
Beim ersten ist das IMO ganz klar keine Fehleinschätzung von seiner Seite sondern schlicht ein Denkfehler.

Bei der anderen Sache ist die klar als Schätzung gekennzeichnet.

Gast
2007-08-29, 18:26:37
Du hast 2 Dinge von Leo aufgegriffen...
Beim ersten ist das IMO ganz klar keine Fehleinschätzung von seiner Seite sondern schlicht ein Denkfehler.

Bei der anderen Sache ist die klar als Schätzung gekennzeichnet.
Darum geht's doch gar nicht. Wenn ihr einen (sehr guten!) Test macht, bleibt bei dem, was ihr aufgrund des Testes sicher wißt. Spekulationen, besonders wenn sie nicht zutreffen, verwässen das Ergebnis und werfen ein schlechtes Licht auf den Test.

TragischerHeld
2007-08-30, 14:08:54
Stalker performt besser, als ich erwartet hätte mit meiner nicht mehr ganz neuen Hardware. Ich spiele alles auf Maximum, ausser AA aus und AF einen "schritt" nach links. 1280 er Auflösung.

Mit x2-4200, x1950xt 512 MB, 2GB Ram. Auch wenn 8-9 Gegner gleichzeitig am rumballern sind kommt es nicht zu Spielspaßtötenden Slowdowns.

So wie ich das beobachte, sind sämtliche merkbare Ruckler nur Nachladeruckler. Die aber schonmal locker 2 Sekunden dauern können.

Hvoralek
2007-08-30, 14:16:08
Dieses "AA" im D3D9- Pfad ist nur ein Blurfilter, kostet praktisch keine Leistung. Wenn Du findest, dass es damit besser aussieht, kannst Du den bedenkenlos einschalten. Auch wenn man Unterschiede mMn eh mit der Lupe suchen muss

Gast
2007-09-01, 09:01:24
interessanter wärs gewesen
wenns in etwa in der zeit erschienen wäre wo das spiel aktuell war :)

jetzt hats jeder durch und ihr macht nen report ;)

sowas finde ich interessant bevor ich es mir kaufe danach eher weniger

Hvoralek
2007-09-01, 09:31:08
Es kauft nicht jeder alles gleich beim Erscheinen.

Und Madkiller braucht auch erst einmal das jeweilige Spiel und Zeit zum Testen.