PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : schlechteste Game-Engine 2007


=Floi=
2007-04-09, 03:56:34
Hallo
das muß ich jetzt mal loswerden
also für mich besitzt stalker klar die schlechteste game engine 2007
kein AA bei ambient lightning
keine dual core unterstützung dafür ein nettes cpu limit selbst beim 3,8ghz c2d

so kann man keinen C2D/C2Q nützen und eine schnelle graka wird auch nicht wirklich ausgelastet bzw SLI

dafür gibt es dann matsch grafik (wer einen tft besitzt) weil kanten und zäune schön pixelig sind und miserable performance weil alles am cpu limit hängt
SO sieht ein worst case aus


sowas habe ich schon lange nicht mehr gesehen und da frage ich mich schon was sich entwickler dabei denken!?
einerseits will man ganz vorne mitspielen aber andererseits schlampt man dann bei der engine

ich will nicht über den spielinhalt diskutieren denn der ist wohl erstklassig sondern nur über die engines
bzw andere falls ihr noch schlimmere sachen habt!


mfg
Floi

Gast
2007-04-09, 04:28:28
und imo ist farcry immernoch die beste... mit ini tweaks hab ich nie wieder so gutes hdr-rendering gesehen auf meiner x1900xt... dazu funktioniert noch aa
und läuft dabei mehr als 1a! dadran kann sich stalker wirklich nicht messen.

Banshee18
2007-04-09, 04:32:56
Hallo
das muß ich jetzt mal loswerden
also für mich besitzt stalker klar die schlechteste game engine 2007
kein AA bei ambient lightning
keine dual core unterstützung dafür ein nettes cpu limit selbst beim 3,8ghz c2d

so kann man keinen C2D/C2Q nützen und eine schnelle graka wird auch nicht wirklich ausgelastet bzw SLI

dafür gibt es dann matsch grafik (wer einen tft besitzt) weil kanten und zäune schön pixelig sind und miserable performance weil alles am cpu limit hängt
SO sieht ein worst case aus


sowas habe ich schon lange nicht mehr gesehen und da frage ich mich schon was sich entwickler dabei denken!?
einerseits will man ganz vorne mitspielen aber andererseits schlampt man dann bei der engine

ich will nicht über den spielinhalt diskutieren denn der ist wohl erstklassig sondern nur über die engines
bzw andere falls ihr noch schlimmere sachen habt!


mfg
Floi
Bei Stalker wirft alles -jeder noch so kleine Grashalm- dynamische weiche Schatten. In welchem Spiel gibt es das noch? Schau dir die Performance in anderen Spielen an, die Softshadows verwenden, z.B. Fear oder Chronicles of Riddick. Die Performance ist schlechter, obwohl nichteinmal alles Schatten wirft. Sowohl Beleuchtung als auch Performance sind großartig in Stalker.
Möglich ist das in dieser Geschwindigkeit nur durch deferred shading. Dadurch muss man zwar auf AA verzichten, aber einen Tod muss man sterben und außerdem wird durch D3D10 auch bei Spielen, die deferred shading benutzen, AA theoretisch möglich sein. Ich denke, dass dieser Technik die Zukunft gehört.

Auf meiner X1900XT läuft Stalker in 1280x960 mit maximalen Details außer Grasschatten zufriedenstellend. Was will man mehr?

Wo siehst du bei Stalker ein CPU-Limit? Zeig mir mal eine Szene. Wenn du einen G80 hast, fällt das flach, da es noch Treiberprobleme gibt und in einigen Szenen sogar eine X1900XT schneller ist als 8800GTX-SLI.

Ich glaube nicht, dass das Niveau dieses Threads hoch genug wird, dass man ihn im Technikforum lassen kann, aber ich gebe ihm eine Chance.

Spasstiger
2007-04-09, 04:33:36
Das Spiel profitiert sehr wohl von Dual-Core, nach der PCGH bringts etwa 30% mehr Performance unter WinXP. SLI unterstützt es auch, wenn man ein entsprechendes Profil mit dem nHancer anlegt oder den richtigen Beta-Treiber verwendet.

Und dass DirectX 9 kein MSAA auf multiple Rendertargets - der Grundlager eines Deferred-Renderers - unterstützt, ist eine Sache, über die du dich bei Microsoft ausheulen kannst.
Mit dem alternativen Renderer von Stalker ohne dynamische Beleuchtung geht AA sehr wohl. Nur siehts dann halt leider nur noch in etwa so aus wie Half-Life 2 (allerdings ohne Normalmapping).

Und Stalker ist mit dem Deferred-Renderer sicherlich nicht sehr stark CPU-limitiert, wenn man in TFT-typischen Auflösungen spielt, siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=357137).
In 1280x960 bei vollen Details erreicht eine X1900 XTX weit weniger fps als in 800x600, egal ob mit dem A64 X2 3800+ oder dem C2D @ 3,2 GHz, und das auch in den Gefechtsszenen, wo die CPU stark belastet wird.
Von der CPU her sind in den Benchmarks immer mindestens 30 fps drin, der Core 2 Duo gerät sogar nie unter 40 fps. Im Singleplayer ist das in meinen Augen völlig ausreichend.

Ich spiele hier Stalker auf einem 4,5 Jahre alten Rechenr und bin sehr zufrieden mit der Optik und Performance im Verhältnis zur Größe der Levels. Farcry lief bei mir nicht besser und hatte in meinen Augen eine sterilere Spielwelt. Die Grafik von Stalker ist bei mir in etwa auf HL2-Niveau, wobei mir in Stalker immer wieder die Liebe zum Detail auffällt. Da wird in einem unbedeutenden Eck eine verbogene Blende mit mehreren Schlitzen vor einem Luftschacht nicht einfach nur als Textur dargestellt wie in anderen Spielen, sondern als aufwändiges 3D-Objekt mit angedeutetem Hohlraum dahinter. Oder an manchen Stellen, wo der Putz abbröckelt, wurde der Rand des abgebröckelten Putzes auch richtig in 3D modelliert. Die meisten Spiele setzen hier einfach nur auf Normalmapping.
Der Polycount liegt in Stalker sicherlich sehr hoch und das auch mit statischer Beleuchtung. Dennoch reicht eine Grafikkarte von 2002 aus, um in 1024x768 flüssig spielen zu können.

Das einzige, was ich zu bemängeln habe: Warum gibt es keinen DX9-Renderpfad mit statischer Beleuchtung und Parallax-Mapping-Unterstützung? Das würde bei vielen Mittelklassegrafikkarten wie einer GeForce 6800 GT oder einer Radeon X800 Pro sicherlich den besten Kompromiss aus Optik und Performance bieten. Wobei die Heightmaps ja teilweise auch nicht gerade gelungen sind.

Gast
2007-04-09, 05:00:21
Absolut Schwachsinniger Thread. Close!

Gast
2007-04-09, 05:05:09
Die X-Ray Engine ist bislang die einzige Engine, die es schaft gigantische Innenlevel ala Doom3 mit Außenlevel ala FarCry zu verbinden. Dazu kommt der Tag-Nacht-Wechsel, das Wetter. Ich sehe Stalker als führend in Sachen Beleuchtung, Texturen, Innenlevel. Die Außenlevel sind auch sehr sehr stimmig. Die Engine schafft es, eine Optik auf den Schirm zu zaubern, die man selten vorher gesehen hat. HL2 meets Doom3. Sowas gab es vorher noch nicht.

Aber wie ich sehe, bewegst du dich noch immer auf einem sehr niedrigem Niveau, wach mal auf, du bringst andauernd solche schwachsinnigen Threads!

Saw
2007-04-09, 07:11:23
dafür gibt es dann matsch grafik (wer einen tft besitzt) weil kanten und zäune schön pixelig sind und miserable performance weil alles am cpu limit hängt
SO sieht ein worst case aus


sowas habe ich schon lange nicht mehr gesehen und da frage ich mich schon was sich entwickler dabei denken!?
einerseits will man ganz vorne mitspielen aber andererseits schlampt man dann bei der engine

Boah, was ist los?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5393171&postcount=1093

So und jetzt sollte man diesen Thread ignorieren. Denn ich glaube nicht, dass =Floi= im geringsten mitbekommen hat, was im Spiel alles so passiert.
Absolut Schwachsinniger Thread. Close!
Ack (y)

Gast
2007-04-09, 07:19:51
war bis jetzt EQ2,nun Vanguard,Genre übergreifend.

sage engine is auch mies,akt. c&c3,sum1,sum2

Gast
2007-04-09, 07:21:05
stalker is optisch mit der beste,vom ruckelfaktor und frames durchschnitt aber niemals schlecht

Gast
2007-04-09, 07:22:19
und imo ist farcry immernoch die beste... mit ini tweaks hab ich nie wieder so gutes hdr-rendering gesehen auf meiner x1900xt... dazu funktioniert noch aa
und läuft dabei mehr als 1a! dadran kann sich stalker wirklich nicht messen.

farcry is eine miese engine,mies programmiert,aufpoppen,grauenhaftes LoD,optisch nie überzeugend

Kai
2007-04-09, 08:03:40
Gerade der letzte Gastcomment zeigt, dass es hier einfach nur Käse gespammt wird.

=Floi=
2007-04-09, 09:01:37
hier der thread

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5387658#post5387658

edit
was nützt mir der blitz?
schau mal die treppe an ;D
nix mit eyecandy

Saw
2007-04-09, 09:29:32
Was nützt dieser Thread, wenn es eigentlich nur ums Bashen geht? :|

Bist du in der Software-Programmierung tätig? Wohl eher nicht...Happy Bashing in teh Fred!

BlackBirdSR
2007-04-09, 09:56:07
Das Spiel profitiert sehr wohl von Dual-Core, nach der PCGH bringts etwa 30% mehr Performance unter WinXP.


Momentan nur durch den Grafiktreiber und den Rest des Systems verursacht. Bei Multicore fallen diese dem ausführenden Kern nicht zur Last.
Momentan nutzt der Stalkerprozess selbst kein Multithreading wie es scheint.

Gilt übrigens für alle Spiele die diese magischen 20-30% gewinnen.
Armed Assault, NFS-Carbon, TD-Unlimited...

Kladderadatsch
2007-04-09, 09:58:48
Momentan nur durch den Grafiktreiber und den Rest des Systems verursacht. Bei Multicore fallen diese dem ausführenden Kern nicht zur Last.
Momentan nutzt der Stalkerprozess selbst kein Multithreading wie es scheint.

Gilt übrigens für alle Spiele die diese magischen 20-30% gewinnen.
Armed Assault, NFS-Carbon, TD-Unlimited...
das ist gut zu hören. eigentlich schaue ich mich gerade ausschließlich wegen stalker und arma nach einem billigen dc um..aber das scheint sich dann erst richtig mit sli zu lohnen?

BlackBirdSR
2007-04-09, 10:22:44
Gerade eben getestet:

Bei Neverwinter Nights2 (kein Multithreading) z.B genehmigt sich der ATI Treiber satte 25-30% auf dem anderen Kern.
Bei dem weniger anspruchsvollen Guildwars nur 6-15%.

Jemand daran interessiert, wie der Mix aus x87, Skalar und SIMD SSE/2 bei Stalker aussieht?

Monger
2007-04-09, 10:30:34
Ist es nicht noch ein bißchen früh, diesen Preis zu vergeben? Das Jahr 2007 ist noch lang! ;)

Aber Stalker wäre jetzt nun wirklich nicht mein Favorit. Vorallem gemessen an der langen Entwicklungszeit, sieht das Spiel derzeit absolut konkurrenzlos aus. Ich kenne ansonsten nur noch ein Spiel was mit einem so freien und detaillierten Levelaufbau umgehen kann, und das ist Far Cry. Und imho sieht Stalker ganz klar besser aus als Far Cry, was aber natürlich auch schlicht am Alter liegt.

Trotzdem: meinen absoluten Respekt für die Ukrainer, sowas hätte ich wirklich nicht erwartet.

Kane02
2007-04-09, 10:45:46
Och Leute ihr spinnt doch, C&C3 und Stalker haben miese Grafik... gehts noch? Gerade das Gegenteil is doch der Fall. Zudem bin ich erstaunt wie gut die Games auf älteren PCs laufen

Und mir wäre selbst die Grafik egal, wenn das Spiel stimmt.

Trixter
2007-04-09, 11:04:38
Ist es nicht noch ein bißchen früh, diesen Preis zu vergeben? Das Jahr 2007 ist noch lang! ;)

Aber Stalker wäre jetzt nun wirklich nicht mein Favorit. Vorallem gemessen an der langen Entwicklungszeit, sieht das Spiel derzeit absolut konkurrenzlos aus. Ich kenne ansonsten nur noch ein Spiel was mit einem so freien und detaillierten Levelaufbau umgehen kann, und das ist Far Cry. Und imho sieht Stalker ganz klar besser aus als Far Cry, was aber natürlich auch schlicht am Alter liegt.

Trotzdem: meinen absoluten Respekt für die Ukrainer, sowas hätte ich wirklich nicht erwartet.

ja ich finde das ist sinnlos, wenn erst nicht ganze 4 monate vorbei sind.

Christi
2007-04-09, 11:25:38
Ich find die Engine klasse-basta

Sie skaliert wunderbar, auch Leute mit Leistungsschwachen Rechnern werden bedient. Klar sieht es net mehr so aus, aber was solls.

Ich spiele übrigens in 1360x768, mittlere Details bei statischer Beleuchtung.

Eine Engine die auf schwachen Rechnern läuft und dabei noch passabel aussieht ist bei mir Top:up:

Nicht jeder kann und will sein ganzes Geld in den Rechner stecken, aber auch das eine oder andere Spiel mal zocken.

Für mich ganz klar eine Topengine!

Zu FarCry: Der Gast hat vielleicht FarCry jetzt erst gespielt und nicht 2004.
Den damals flog definitiv die Kinnlade auf den Schreibtisch:love2:

Mein Rechner
A64 3000
9700Pro
1GB Ram

dargo
2007-04-09, 11:58:46
Momentan nur durch den Grafiktreiber und den Rest des Systems verursacht. Bei Multicore fallen diese dem ausführenden Kern nicht zur Last.
Momentan nutzt der Stalkerprozess selbst kein Multithreading wie es scheint.

Gilt übrigens für alle Spiele die diese magischen 20-30% gewinnen.
Armed Assault, NFS-Carbon, TD-Unlimited...
Also in TDU hatte ich bis zu 50% Vorteil gemessen. Das kann nicht nur an Grafiktreibern/System liegen. NfS: Carbon profitiert auch bis zu ~50% vom DC.

Gast
2007-04-09, 12:04:49
Also in TDU hatte ich bis zu 50% Vorteil gemessen. Das kann nicht nur an Grafiktreibern/System liegen. NfS: Carbon profitiert auch bis zu ~50% vom DC.

Dann teste doch einfach ohne Unterstützung des Treibers.

BlackBirdSR
2007-04-09, 12:07:40
Also in TDU hatte ich bis zu 50% Vorteil gemessen. Das kann nicht nur an Grafiktreibern/System liegen. NfS: Carbon profitiert auch bis zu ~50% vom DC.

Du wirst sehen, dass weder TDU noch Carbon mehr als 50% Systemauslastung produzieren. Beide Spiele nutzen nur einen Kern.
Was übrig bleibt, sind Treiber und Systemaufgaben. Und die müssen dann ja wohl für die 30-50% verantwortlich sein.
Multithreaded sind die Dinger noch nicht. Du kannst den TDU Prozess sogar auf einen Kern binden, und an der Performance ändert sich gar nichts.

Nicht die Spiele selbst profitieren von Multicore, das System und dessen Umfeld scheint die Ressourcen des eben benutzen Kerns nicht mehr für sich zu beanspruchen.

dargo
2007-04-09, 12:11:36
Dann teste doch einfach ohne Unterstützung des Treibers.
Das wird jetzt ziemlich schwer sein weil die ATI Graka verkauft ist (außerdem konnte man den Treiber DC Support afaik gar nicht bei ATI abschalten). Mit dem G80 warte ich noch auf bessere Treiber was die DC Optimierung angeht. Ich hatte komischerweise mit dem FW 97.92 in Call of Duty 2 deutlich weniger Vorteil für den DC gemessen als noch mit einem R580. Ich vermute mal, die XP Treiber sind noch nicht optimal.

Aber denken wir doch mal logisch nach. Ein Grafiktreiber soll bis zu 50% einen Core belasten? Ich kann mir kaum vorstellen, dass ein Treiber so ineffizient ist.

Moralelastix
2007-04-09, 12:13:46
Vorweg, ich hab nur die Demos gesehen.

Und das ist schon sehr gut gemacht, ganz klar.

Aber das womit sich die Entwickler meiner Meinung klar das gößte Bein gestellt haben ist die Spielwelt selbst.

Industriebrachen und Pampa/Ödland, so stell ich mir die Urkaine vor.:biggrin:

Kommen da auch mal landschalftlich ne Abwechlsung also z.B. richtige Wälder kleine Berge oder Wasserflächen/Flüsse vor?

BlackBirdSR
2007-04-09, 12:17:23
Das wird jetzt ziemlich schwer sein weil die ATI Graka verkauft ist (außerdem konnte man den Treiber DC Support afaik gar nicht bei ATI abschalten). Mit dem G80 warte ich noch auf bessere Treiber was die DC Optimierung angeht. Ich hatte komischerweise mit dem FW 97.92 in Call of Duty 2 deutlich weniger Vorteil für den DC gemessen als noch mit einem R580. Ich vermute mal, die XP Treiber nicht noch nicht optimal.

Aber denken wir doch mal logisch nach. Ein Grafiktreiber soll bis zu 50% einen Core belasten? Ich kann mir kaum vorstellen, dass ein Treiber so ineffizient ist.

Ich habe es vorhin bei NWN2 nachgemessen. 30% gehen an den Grafiktreiber.
Dabei muss der noch lange nicht ineffizient sein. Ohne Multicore, wird der Treiber wahrscheinlich weniger Last brauchen, da nun mal kein 2. Kern zur Verfügung steht. Ich würde bei einem Single-Core System die Treiberlast auf einem Minimum halten, und erst ab 2 Kernen versuchen Optimierungen und Ähnliches zu versuchen. (werde das einmal nachprüfen)

Sprich: 2. Kern vorhanden, dann ist auch mehr Leistung für Tricks und einige Kniffe vorhanden. Der Treiber kann meinetwegen versch. Situationen analysieren, oder Shader optimieren. Das würde ich mit nur einem Kern einfach unterlassen, da die Performance wohl geringer ausfällt also ohne diese Tricks.

Guildwars z.B nutzt eine sehr simple Engine. Und mehr als 15% konnte ich dem ATI Treiber hier nicht entlocken. Neverwinter Nights2 springt dagegen sofort auf 30%. Hier gibt es im Gegensatz zu GW viele Shader etc.

Und am Ende bleibt die Anzeige des Taskmanagers: 75-80% Systemauslastung, bei 50% für das Spiel... ergo?
Ausserdem: 50% mehr Performance in CPU-kritischen Szenen heisst lange nicht, dass der Treiber 50% des anderen Kerns auslasten muss.

PS: Multithreading auf ATI-Treiber habe ich per ATT einmal deaktiviert. Habe nur Comanche4 getestet, um Multithreading auszuschließen ;) Es hat erstaunlich stark an performance verloren. Danach konnte ich es aber nicht mehr aktivieren. Musste den Treiber neu installieren.

dargo
2007-04-09, 12:20:11
Nicht die Spiele selbst profitieren von Multicore, das System und dessen Umfeld scheint die Ressourcen des eben benutzen Kerns nicht mehr für sich zu beanspruchen.
Jetzt habe ich dich verstanden. :)
Aber ist es nicht egal wie die Mehrperformance im Endeffekt zu stande kommt?

BlackBirdSR
2007-04-09, 12:21:31
Jetzt habe ich dich verstanden. :)
Aber ist es nicht egal wie die Mehrperformance im Endeffekt zu stande kommt?

Für den Spieler natürlich. Aber wird sind ja nicht nur Spieler, sondern auch HW-Geeks oder? ;D

dargo
2007-04-09, 12:28:21
Für den Spieler natürlich. Aber wird sind ja nicht nur Spieler, sondern auch HW-Geeks oder? ;D
Ja, das stimmt. :D

Guildwars z.B nutzt eine sehr simple Engine. Und mehr als 15% konnte ich dem ATI Treiber hier nicht entlocken. Neverwinter Nights2 springt dagegen sofort auf 30%. Hier gibt es im Gegensatz zu GW viele Shader etc.

Und am Ende bleibt die Anzeige des Taskmanagers: 75-80% Systemauslastung, bei 50% für das Spiel... ergo?
Achtest du immer nur auf die Systemauslastung oder misst du auch die fps? Denn, eine Systemauslastung von 80% muss nicht automatisch 30% mehr fps bedeuten.

BlackBirdSR
2007-04-09, 12:34:14
Achtest du immer nur auf die Systemauslastung oder misst du auch die fps? Denn, eine Systemauslastung von 80% muss nicht automatisch 30% mehr fps bedeuten.

Um die fps ging es mir gar nicht. Dass die höhere Systemauslastung, nicht mehr Performance bedeuten muss ist klar. Neverwinter Nights 2 gewinnt in meiner Testszene, obwohl nur 17fps überhaupt nichts. Da kann sich der Treiber noch so in Arbeit stürzen ;)

Mir ging es nur darum: Mehr Performance bei einem Multicore-System? Wenn ja, dann wieviel Last produziert der Prozess?
Wieviel Last produziert der Treiber und das System?
Ob jetzt 10% mehr fps oder 30% mehr Performance war dabei gar nicht wichtig.

SupremeCommander nutzt nachweislich mehr als einen Kern. Und da sieht die Sache schon anders aus. Hier frage ich mich: Wieviel Leistung bleibt dem Treiber übrig? Und wieviel potentieller Leistungsgewinn durch den Treiber wird aufgefressen, weil das Spiel den 2. Kern nutzt?

Ich habe leider keinen 2. Monitor, sonst könnte ich auch Spiele genauer überprüfen, die nur Fullscreen laufen.

Wuge
2007-04-09, 13:04:19
Jemand daran interessiert, wie der Mix aus x87, Skalar und SIMD SSE/2 bei Stalker aussieht?

Klar doch! Sag an :)

Piffan
2007-04-09, 13:33:04
Als ich den Titel las, dachte ich blos wieder: Was für ein Checker heult denn diesmal und welches Spiel ist denn dieses mal schuld?

Wie ich das empfinde: das Verhältnis von Optik zur Performance ist erste Sahne! Die Mär vom Prozessorlimit ist absolut falsch, wird aber mal wieder kräftig von den Mags geschürt....was die PcGames da im Technik- Check spinnt ist nur noch blöd....

Was ich festgestellt habe: Es gibt auf einem halbwegs aktuellen System kein Proz- Limit, sondern ein Graka- Limit. Meine Möhre mit einem San Diego Sc und einer X800XT tut sich schwer mit der dynamischen Beleuchtung, wenn es in die Innelevels geht mit vielen Lichtern und Objekten ist da Schicht im Schacht, es sei denn, ich gehe auf die niedrigste Auflösung, dann performt es zufriedenstellend und hat ne mächtig gute psychedelische Wirkung.....Wähle ich static lighting, dann rennt es für das Gebotene atemberaubend gut MIT FSAA und AF und sonst vollen Details. Ruckler gibt es nicht....

So soll es sein: Eine Engine, die die Klaviatur zwischen excellenter Optik und guter Performance auf betagten Maschinen aus dem FF beherrscht. Riesen Danke an die Entwickler!:umassa:

Der Content steht nicht zur Debatte, aber auch dazu noch was: Einerseits WOW, aber leider auch manche bittere Pille. Das Questlog und die Map im PDA braucht ne Reform. Was WOW ist: Das Aiming, die Waffenbalance, die Physik. Die Waffen fühlen sich in keinem Shooter realistischer an. Richtig pervers die Ladehemmer.....:cool:

BlackBirdSR
2007-04-09, 13:36:55
Mitschnitt aus Stalker:

Repräsentativ aus vielen Werten, um niemanden zu erschalgen.
Stalker auf einen Kern gebunden, Startcamp auf der Straße. Maximale Details.

Werte in Millionen Befehlen pro Sekunde.

Ausgeführte µops 1245.4
IPC (gerne Pro/MHz Leistung genannt) 0.6
MMX/3dnow 0.3
x87 FPU 12.1
SSE/2 Skalar 184.4
SSE/2 SIMD 109.9


Wie man sieht, kommen auf ca 1300M µOps pro Sekunde ca 300M Gleitkommaberechnungen. Der Rest ist Integer, Branches,Speicherzugriffe.

Die CPU Auslastung beträgt nur ca 33-40% in dieser Szene, obwohl die Radeon 40fps zeigt. Das Ganze ist also nicht wirklich CPU-limitiert an dieser Stelle. Daraus folgt auch die recht niedrige IPC von 0.6
Normalerweise erwartet man bei modernen CPUs einen Wert von 0.9-1.3 wenn sie gut ausgelastet werden.

MMX und 3DNow-Code sind nahezu nicht vertreten. Dagegen scheinen moderne Spiele immer mehr Wert auf Skalare SSE-Berechnungen zu legen. Wohl ein Verdienst der Windows 64 Bit Initiative kein x87 mehr direkt anzubieten. Die Compiler scheinen hier große Fortschritte gemacht zu haben.
Das Gleiche gilft für MMX, welches zugunsten von SIMD SSE2 wohl aussterben wird.

Der ATI-Treiber genehmigt sich ca 20-30% Ausführungszeit auf dem 2. Kern.

Werte unter Vorbehalt, falls einige Tools Mist ausspucken. Aber sieht in Ordnung aus.

=Floi=
2007-04-09, 13:53:39
mit welchen programm wurde gemessen?
uu kann mal jemand eine cpu limitierte stelle nennen

die starke sse neigung würde aber darauf hindeuten dass deswegen der A XP noch stärker ins hintertreffen gerät weil dieser nur SSE1 unterstützt!
sehr interesannt das ganze und zeigt dass man doch auf solche sachen achten sollte beim prozessorkauf

Wuge
2007-04-09, 14:03:14
Es geht also in die richtige Richtung :)

Woran erkennst Du, dass die SIMD Extensions für FP benutzt wurden? SSE(2) steht ja auch für INT zur Verfügung, d.h. der FP Anteil wäre insgesamt niedriger. Oder sehe ich das falsch...?

d2kx
2007-04-09, 14:14:37
Heute (wahrscheinlich kommt) S.T.A.L.K.E.R. Update #2 und in 2-3 Wochen kommt das Update #3. Das Update #3 wird 15% bessere Performance bieten, einen besseren Netzcode sowie bessere DualCore-Optimierung. Ich denke damit werden die Ergebnisse ganz anders aussehen. Außerdem finde ich die S.T.A.L.K.E.R. Engine X-Ray sehr gut.

deekey777
2007-04-09, 14:26:48
Hallo
das muß ich jetzt mal loswerden
also für mich besitzt stalker klar die schlechteste game engine 2007
kein AA bei ambient lightning
keine dual core unterstützung dafür ein nettes cpu limit selbst beim 3,8ghz c2d

so kann man keinen C2D/C2Q nützen und eine schnelle graka wird auch nicht wirklich ausgelastet bzw SLI

dafür gibt es dann matsch grafik (wer einen tft besitzt) weil kanten und zäune schön pixelig sind und miserable performance weil alles am cpu limit hängt
SO sieht ein worst case aus


sowas habe ich schon lange nicht mehr gesehen und da frage ich mich schon was sich entwickler dabei denken!?
einerseits will man ganz vorne mitspielen aber andererseits schlampt man dann bei der engine

ich will nicht über den spielinhalt diskutieren denn der ist wohl erstklassig sondern nur über die engines
bzw andere falls ihr noch schlimmere sachen habt!


mfg
Floi
Ich hab was für dich: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=222837
Spiel != Engine.
farcry is eine miese engine,mies programmiert,aufpoppen,grauenhaftes LoD,optisch nie überzeugend
Far Cry ist keine Engine, sondern ein sehr gutes Spiel.

BlackBirdSR
2007-04-09, 14:35:11
Es geht also in die richtige Richtung :)

Woran erkennst Du, dass die SIMD Extensions für FP benutzt wurden? SSE(2) steht ja auch für INT zur Verfügung, d.h. der FP Anteil wäre insgesamt niedriger. Oder sehe ich das falsch...?

Da hast du natürlich recht.
Erdfahreungen zeigen, dass oftmals weit weniger als 30% auch wirklich FP-Code sind.
Daher ist es sehr wahrscheinlich, dass der SIMD SSE/2 Bereich in weiten Teilen mit Integer-Berechnungen verseucht ist.
Hatte ich nicht beachtet, danke :)

Noebbie
2007-04-09, 14:44:06
Die schlechteste Engine hat für mich Gothic 3. Ruckelt und Zuppelt sogar nocha uf ettlichen HighEnd Rechnern.

Dicht gefolgt von Armed Assault. Sinnlose Framedrops durch ettliche Bugs.

Wuge
2007-04-09, 14:50:41
Wo liegt eigentlich der Unterschied zw. Skalar SIMD und der Vector Variante? Wird bei Scalar nur mit einem einzelnen SP / DP Wert gerechnet? Wo liegt dann der Vorteil - insbesondere ggü. der Berechnung per X86-ALU?

Coda
2007-04-09, 15:21:14
Und dass DirectX 9 kein MSAA auf multiple Rendertargets - der Grundlager eines Deferred-Renderers - unterstützt, ist eine Sache, über die du dich bei Microsoft ausheulen kannst.d.
Beep. Falsch.

Das würde auch nichts bringen, weil man noch zusätzliche Kontrolle über die Samples braucht damit die Vektoren die man gespeichert hat an den Kanten noch Sinn ergeben. Das geht einfach erst mit D3D10.

Die schlechteste Engine hat für mich Gothic 3. Ruckelt und Zuppelt sogar nocha uf ettlichen HighEnd Rechnern.
Die ist wirklich grauenhaft... Aber wohl hauptsächlich weil das Spiel einfach im Alphazustand ausgeliefert wurde.

Demogod
2007-04-09, 16:18:37
Wenn ich Stalker auf einen Kern binde (mit easytoolz), idelt der andere Kern trotzdem bei unter 10% rum. Ist der nVidia Treiber etwa so unauffällig?

MrMostar
2007-04-09, 16:20:58
Leute, Leute

Ihr basht da auf Spitzenengines ein, wenn ihr eine RICHTIG schlechte Engine sehen wollt, schaut euch mal die 'another world' screenshots an.
Es ist zwar ein Remake einer 15 Jahre alten Vektorengine, erschienen 1/2007, aber etwas aktuellere Effekte sollten doch machbar gewesen sein.
Der Kultfaktor bringt hier keinen Bonus mehr, aber was soll's, in weiteren 15 Jahren sieht Crysis genauso altbacken aus...

http://www.gamecaptain.de/PC/Artikel/3054/Another_World_Test.html

BlackBirdSR
2007-04-09, 16:21:45
Wo liegt eigentlich der Unterschied zw. Skalar SIMD und der Vector Variante? Wird bei Scalar nur mit einem einzelnen SP / DP Wert gerechnet? Wo liegt dann der Vorteil - insbesondere ggü. der Berechnung per X86-ALU?

Skalar SSE2 rechnet wie x87 an einem SP/DP-Wert. Vorteile ergeben sich gegebenfalls durch die niedrigeren Latenzen ggü x87 (Extended Precision vs Double Precision), und die frei verfügbare Anordnung der 8/16 SSE2 Register.
x87 muss noch immer mit dem Stack arbeiten.

Bis auf den Pentium4, scheint der praktische Unterschied in Applikationen wie Spielen aber fast vernachlässigbar zu sein.

BlackBirdSR
2007-04-09, 16:22:41
Wenn ich Stalker auf einen Kern binde (mit easytoolz), idelt der andere Kern trotzdem bei unter 10% rum. Ist der nVidia Treiber etwa so unauffällig?

Wie beobachtest du den 2. Kern während der Ausführung von Stalker?

Demogod
2007-04-09, 16:32:19
@BlackBirdSR: naja ich hab soweit alle meine "nicht-dc-games" auf core 1 laufen. (core0,core1 dh auf kern2) wenn ich ausm spiel in windows tabbe ind mir den taskmanager anschaue, sehe ich doch, dass nur core1 (kern2) auf 100% geused wurde. da ich easytoolz auch noch angewiesen habe, alle anderen prozesse auf core0 zu schieben, sollte doch auch der grafiktreiber dort residieren.

Gast
2007-04-09, 16:36:53
Was mir allgemein nicht so gefällt, das sind diese übertrieben glänzenden Texturen, die neuerdings öfter zu sehen sind. Als wären sie mit Tonnen an Wachs eingeschmiert worden. Gefällt mir überhaupt nicht.

Sowas z. B.:

http://games.tiscali.cz//images/haze/img5.jpg

Soll man da als Spieler ausrutschen oder wie?

Das hingegen finde ich SUPER:

http://crysis.4thdimension.info/modules/gallery/albums/ingame/normal_crysis_tc9.jpg

BlackBirdSR
2007-04-09, 16:38:17
@BlackBirdSR: naja ich hab soweit alle meine "nicht-dc-games" auf core 1 laufen. (core0,core1 dh auf kern2) wenn ich ausm spiel in windows tabbe ind mir den taskmanager anschaue, sehe ich doch, dass nur core1 (kern2) auf 100% geused wurde. da ich easytoolz auch noch angewiesen habe, alle anderen prozesse auf core0 zu schieben, sollte doch auch der grafiktreiber dort residieren.

Ich weiss nicht genau, wie der Grafiktreiber dort arbeitet. Aber der läuft als Systemprozess, und den kannst du nicht selbst beeinflussen.

Habe auch keine Nvidia-Karte zur Hand um das nachzurpüfen. Vielleicht ist der Treiber auch sehr genügsam in dieser Richtung ;)
Mit dem Process-Explorer lässt sich der ATI Treiber sehr genau verfolgen, und bei NWN2 und Stalker habe ich die 20-30% auch gesehen.

Lass dir im Taskmanager in rot die "Kernel-Times" einblenden. In diesen Bereich sollte auch der Grafiktreiber fallen.

Gast
2007-04-09, 17:55:04
Gefällt mir überhaupt nicht.

Sowas z. B.:

http://games.tiscali.cz//images/haze/img5.jpg


Sieht absolut realistisch/glaubwürdig aus. Dir ist aber auch klar, dass das Metall ist und nicht irgend eine Beton-Wand?

DarkSoldier
2007-04-09, 18:27:12
wenn man vorher mit einem Hochdruckreiniger drüber gegangen ist könnte es tatsächlich so glänzen :P

Demogod
2007-04-09, 18:27:20
@BlackBirdSR
Hier haste mal nen Screenshot von meinem Taskmanager:
http://666kb.com/i/ancqh950ebpiezr72.jpg

san.salvador
2007-04-09, 18:31:36
Die schlechteste Engine hat für mich Gothic 3. Ruckelt und Zuppelt sogar nocha uf ettlichen HighEnd Rechnern.

Dicht gefolgt von Armed Assault. Sinnlose Framedrops durch ettliche Bugs.
Sind die von 2007? :)

BlackBirdSR
2007-04-09, 18:44:03
@BlackBirdSR
Hier haste mal nen Screenshot von meinem Taskmanager:
http://666kb.com/i/ancqh950ebpiezr72.jpg

Keine Ahnung, warum es bei mir nicht halb so homogen aussieht.
Hab auf dem ersten Kern lauter spitzen, und der 2. Kern ist zu ca 30% ausgelastet. Die 100% Marke erreicht der 1. Kern nie.
Stalker ist auch an 1 Kern gebunden.

http://home.arcor.de/blackbirdsr/taskmanager.JPG

Demogod
2007-04-09, 19:11:59
Hmmmmmm.
So siehts bei mir aus http://666kb.com/i/ancrjot6w2aeclpwu.jpg wenn easytools gesagt wurde, dass es beide cores benutzen darf. (ohne automatische cpu verteilung, sonst rennt ja fast nix. [skype,xfire,trillian,fraps,antivir,easytoolz,taskmanager]
Mal so ganz nebenbei, gib mal deine HW specs. Ich spiele zb auch mit der Battlefield OpenAL dll auf ner Audigy 4.

BlackBirdSR
2007-04-09, 19:15:46
2.4 Ghz, K8.
Audigy2; XP64, Affinity auf Kern 0; Priorität auf hoch.

Demogod
2007-04-09, 19:23:34
Wieso machst du Kern 0?
Wenn irgend jemand mit ner 32 und 64 Bit installation unterwegs ist, kanner ja mal bei vergleichen.

edit: nach Affinity Kern 0 sieht dein screen aber auch nicht wirklich aus..
edit2: mehr fps bekomm ich durch die ganze rumspielerei auch in keinem der fälle

BlackBirdSR
2007-04-09, 19:36:56
Wieso machst du Kern 0?
Wenn irgend jemand mit ner 32 und 64 Bit installation unterwegs ist, kanner ja mal bei vergleichen.

edit: nach Affinity Kern 0 sieht dein screen aber auch nicht wirklich aus..
edit2: mehr fps bekomm ich durch die ganze rumspielerei auch in keinem der fälle

Warzm nicht`? Auf einen Kern muss ich ja die Affinity legen, um den Einfluss des Treibers zu zeigen. Sonst sieht der Taskmanager so aus, dass beide Kerne zu ca 65% ausgelastet werden. Ich laufenden Wechsel eben.
Prozess hin und her schieben. Kein Kern will Stalker haben ;)

Eventuell sieht das bei NT5.2 wirklich anders aus, als bei WindowsXP.
Aber es ist definitiv Affinity = Core0

PS: Mehr performance gibts so auch nicht. Ist eigentlich sinnlos einem Prozess gezielt einen Kern zuzuweisen, wenn man nur spielt und keine Probleme hat.

stav0815
2007-04-09, 19:48:06
Eventuell sieht das bei NT5.2 wirklich anders aus, als bei WindowsXP.
Aber es ist definitiv Affinity = Core0

Also ich bin mit x86-64 untewegs und kann deine Aussagen nur bestätigen. Auch mit einem K8. Nur, um es mal gesagt zu haben.

Gast
2007-04-09, 23:18:58
Aber denken wir doch mal logisch nach. Ein Grafiktreiber soll bis zu 50% einen Core belasten? Ich kann mir kaum vorstellen, dass ein Treiber so ineffizient ist.

das ineffiziente ist da nicht der treiber sondern das spiel bzw. die umsetzung der DX-API.

viele rendercalls erzeugen da eben eine ziemlich hohe cpu-last im treiber.

MrMostar
2007-04-09, 23:36:15
Man sieht auf den Taskmangerscreenshots, das die Kerneltimes (rote Linie) auf den Maschinen mit nur 1 GB mehr als die Hälfte der CPU Zeit ausmachen.
Diese Zeit wird hauptsächlich für das Speichermanagment aufgewendet. (Heap Verwaltung, Swapping)
Das Swapping lässt sich durch mehr Speicher reduzieren, die CPUzeit für den Heap ließe sich z.B. durch Einbindung einer Smartheap Bibliothek beschleunigen (leider muss das Spiel dafür neu compiliert werden)

Gruss

Neo69
2007-04-10, 00:01:03
hab zwar stalker noch nicht probiert aber die engine von supreme commander fand ich zum kotzen....das sah so kacke aus auf niedrigen details und lief schlechter als c&c3 oder company of heroes auf medium

Gast
2007-04-10, 00:40:51
Was mir allgemein nicht so gefällt, das sind diese übertrieben glänzenden Texturen, die neuerdings öfter zu sehen sind. Als wären sie mit Tonnen an Wachs eingeschmiert worden. Gefällt mir überhaupt nicht Naja. Dafür kann man wohl nicht alleine GSC die Schuld geben :up:
http://www.computerbase.de/news/wirtschaft/recht_gesetz/2007/april/haben_stalker-entwickler_texturen/

gnomi
2007-04-10, 08:54:58
Schlechteste Game Engine mag ich nicht beurteilen, aber am unzufriedensten war ich zuletzt mit Neverwinter Nights 2 und Gothic 3.
NN 2 zieht tierisch Hardware (ohne besonders gut auszusehen) und läuft erst im gepatchten Zustand einigermaßen erträglich.
Und Gothic 3 ist derart unvollständig rausgebracht worden, daß es einem teilweise die Sprache verschlug.
Mit Jade Empire, C&C 3 und dem Titan Quest Addon war ich zuletzt aber wieder zufrieden.
Alle Spiele lassen sich mit guter Grafik und annehmbaren Bildraten spielen. (habe einen A64@3400+, 2GB Ram und eine 6800GT)

Christi
2007-04-10, 11:59:34
[QUOTE=Gast;5394299]Was mir allgemein nicht so gefällt, das sind diese übertrieben glänzenden Texturen, die neuerdings öfter zu sehen sind. Als wären sie mit Tonnen an Wachs eingeschmiert worden. Gefällt mir überhaupt nicht.

Da hast Du noch nicht Gears of War auf der XBox 360 gesehen:)

Da denkt man, sind wie hier im Diamantenwald:biggrin:

Was solls, mir gefallt es trotzdem-auch wenn es nicht realistisch ist.
Wenn ich es realistisch will, gehe ich vor die Haustür:wink:


MfG

Noch ein Gast
2007-04-11, 03:17:34
hab zwar stalker noch nicht probiert aber die engine von supreme commander fand ich zum kotzen....das sah so kacke aus auf niedrigen details und lief schlechter als c&c3 oder company of heroes auf medium
Ich wage stark zu bezweifeln, dass in einem anderen "Strategie"spiel (für mich gibt es nur zwei echte Echtzeitstrategiespiele - TA und SC) auch nur annähernd so viel fürs Gameplay relevantes berechnet wird. Denn es sind ja nicht nur die herrlich bekloppten Unmengen von Einheiten, auch wird !jeder! einzelne Schuss korrekt berechnet. Deshalb kann man auch schon mit einem getweakten TA moderne CPUs in die Knie zwingen. Bleibt außerdem noch die Frage, inwiefern SC auch von mehr als zwei Kernen profitieren kann. Die Verteilung der Last auf möglichst viele Threads geht nicht ohne zusätzlichen Overhead, was Rechner mit nur einem oder zwei CPU-Kernen natürlich zusätzlich belastet, aber nötig ist, um die Rechenleistung der hauptsächlich ihre Leistung in der Kernzahl skalierenden kommenden CPUs auch in Spielspaß umzuwandeln. Dann wäre da noch der kommende Patch für D3D10-Unterstützung, der neben besserer Optik auch eine deutliche CPU-Entlastung bringen sollte.

Schlecht ist die Engine von SC sicher nicht - nur ihrer Zeit vorraus.

Aquaschaf
2007-04-11, 04:02:37
"Korrektere" Berechnungen gegen Spielbarkeit einzutauschen seiner Zeit vorraus zu nennen ist ein wenig euphemistisch. Das Hauptproblem sind aber einfach die Großen Einheitenmengen. Mir ist kein Spiel bekannt welches dieses Feature mit guter Performance unter einen Hut bringt.

Noch ein Gast
2007-04-11, 04:22:38
Mit seiner Zeit vorraus meinte ich eher die Nutzung mehrerer Threads statt nur einem oder zwei, außerdem dürfte SC wohl eher auf D3D10 und damit geringeren DX-Overhead hin entwickelt sein (da gab es ja einige signifikante Terminverschiebungen). Wirklich die technische Güte dieser Engine beurteilen kann man wohl erst, wenn es mit D3D10 und mehr als zwei Prozessorkernen läuft.

SgtTynis
2007-04-11, 16:25:38
...wenn ihr eine RICHTIG schlechte Engine sehen wollt, schaut euch mal die 'another world' screenshots an.

Naja, die "Engine" (falls man in diesem Fall schon davon sprechen will) ist einfach ein Portierungswunder. Das Ding gabs in der Urversion praktisch auf jedem Ding das Bits schupsen kann und mich würde echt mal interessieren wie viel alter Code für die Neuauflage wiederverwendet werden konnte.