PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was aufrüsten – CPU oder Grafikkarte? (incl. Hardwareempfehlung für Spiele)


Madkiller
2006-12-07, 17:53:38
Hallo.

Dieser Thread soll dies bezüglich auf grundlegende Fragen bzgl der Performance bei Spielen eingehen, und natürlich versuchen diese zu beantworten. Hier wird im speziellen auf stressige Szenen eingegangen. Daß die fps in „leeren Räumen“ deutlich höher ist, sollte klar sein – aber dadurch werden diese Szenen relativ uninteressant – denn hier wird es nur in den seltensten Fällen Probleme geben.

Die beliebteste Methode herauszufinden ob sich ein Upgrade lohnt ist natürlich andere nach deren Meinung bzw Erfahrung zu fragen.
Diese Methode hat aber entscheidende Nachteile. Derjenige hat meist nicht das 100%ig selbe System, spielt nicht die selben Spiele in dem selben Modus (z.B. Single- oder Multiplayer, viele Gegner, wenig Gegner), nutzt andere Auflösungen mit mehr/weniger FSAA/AF und braucht mehr/weniger fps, damit es für ihn flüssig ist. Nur eines dieser vielen Faktoren kann schon zwischen CPU- oder GraKa-Limitierung unterscheiden, und damit ggf. das empfohlene GraKa-/CPU-Upgrade für dich mehr oder weniger sinnlos machen.

Die andere Möglichkeit ist natürlich, selber zu ermitteln, was einem am meisten bringt.
Aber das ist natürlich um ein vielfaches Aufwändiger (ich will da keinen Hehl draus machen), aber auch nur dadurch kann für deine speziellen Vorlieben die nahezu optimale Lösung herausgefunden werden

Hierzu müßte man systematisch vorgehen (vSync muß natürlich „off“ sein):


Ne schnelle CPU kann keine langsame GraKa beschleunigen – genauso umgekehrt.
Die CPU bestimmt, wie schnell das Spiel überhaupt dargestellt werden kann, die GraKa aber bestimmt nur, mit welchen Settings (Resolution, AF, FSAA, etc.) gespielt werden kann, ohne daß die GraKa das Spiel bremst bzw. natürlich mit welchen Settings das Spiel spielbar bleibt.
Das heißt also, daß wenn die CPU bei 15fps limitiert, wird dir keine schnellere GraKa zu mehr fps verhelfen. Das Selbe natürlich auch umgekehrt. Höhere Auflösungen bei gleichen Seitenverhältnissen, FSAA und AF sind Dinge, die ausschließlich auf die GraKa gehen.
Details-Optionen im Spiel können dagegen sowohl die CPU wie auch die GraKa belasten.

Wie kann ich herausfinden, was zu langsam ist?
Behalte dazu deine momentanen Spiele-Details bei (Wenn du wissen willst ob die CPU für ne neue GraKa schnell genug ist, stell die Details so ein, wie du sie nach dem Upgrade nutzen willst). Deaktivier aber sämtliches AF und FSAA und spiel das Spiel auf der geringsten Auflösung in für dich praxisnahen aber dennoch möglichst stressigen Szenen.
Ist dir das Spiel jetzt schnell genug? Wenn ja, ist deine CPU schnell genug. Eine schnellere GraKa wird dir also was bringen.
Ist das Spiel schneller geworden, aber es ist noch nicht schnell genug?
Das bedeutet leider, daß GraKa wie auch CPU für deine Ansprüche zu langsam sind.
Ist das Spiel noch genauso schnell, wie vorher mit den höheren Settings?
Dann limitiert deine CPU. Eine schellere GraKa wird dir also garnichts bringen.

Wenn du zuwenig RAM für ein flüssiges Spielen haben solltest, wird sich das durch plötzliche, starke und meist auch sehr kurze Ruckler äußern (aber Vorsicht, manchmal ist das auch ein Bug des Spiels). Verringerung der Details oder natürlich mehr RAM, wird da helfen.

Ok, da du jetzt wissen solltest, was bei dir zu langsam ist, kannst du mithilfe von CPU- oder GraKa-Artikeln die Performanceunterschiede nachschauen. :)

Ich möchte erst einmal grundsätzlich von allen Ergebnissen aus Timedemos gerade wenn sie noch aus den avg fps (die leider auch ihre deutlichen Nachteile bei Benchmarks haben, die im Spiel selber über einen längeren Zeitraum mit verschiedenen Szenen) ermittelt wurden, warnen. Während Timedemos mit avg bei unterschiedlichen GraKas noch halbwegs tauglich sind (aber nur bei 100%igen GraKa-Limitierung), büßen die bei CPU-Vergleiche was die Performance-Unterschiede angeht nahezu völlig ihre Aussagekraft ein.




Timedemos(TD): sind vorbestimmte Spielabläufe die einfach nur abgespult werden. D.h. die CPU wird deutlich weniger belastet - nicht selten sogar nur zu 70% als wenn die Szene wirklich gespielt wird. Der Grund dafür liegt darin, daß in den TDs meist keine KI, Pysik, Eingabegeräte, etc. berechnet werden müssen. Dazu kommt auch noch, daß TDs selbst bei 100%iger CPU-Limitierung bei unterschiedlichen CPUs weniger stark mit mehr/weniger fps reagieren als dann, wenn man das Spiel auch wirklich spielt.
Außerdem sind dort auch relativ viele Szenen mit viel fps enthalten, die das Ergebniss verfälschen – schon allein, weil stressigere Szenen tendenziell eher die CPU als die GraKa belasten.

avg fps: Sagen wir, du hast ein TD in dem nur zu 20% der Zeit die CPU limitiert... Also wird dir das Ergbniss am Schluß nur ein Fünftel dessen ausspucken, um was die CPU in der bestimmten Szene schneller war. Du weißt aber auch nicht, wann die CPU limitiert hat. Sprich, du hast nen Wert, wo du nicht rückschließen kannst, bis zu wieviel die CPU eigentlich schneller ist, und du hast keine Ahnung davon, ob in deinen für dich relevanten Spielszenen jetzt die CPU oder die GraKa limitieren würde. Um ein Beispiel zu nennen: es kann also gut sein, daß laut den avg fps die CPU nur 1% bringt, aber selbst in diesem TD die CPU bei stressigen Szenen 15% schneller ist.
Der offentsichtlichste Nachteil der avg fps ist natürlich, daß man nicht weiß, wie weit die fps eingebrochen sind. Bei einem TD das die Hälfte der Zeit mit 30 und 40fps lief, kommt man schließlich genauso auf 35fps, wie mit 15 und 55fps…

avg fps aus Timedemos: Jetzt werden beide Nachteile (s.o.) auch noch kombiniert. D.h. einmal kann die CPU-Last in der fraglichen Auflösung/Szene/Bedingung wenn du selbst spielst mal schnell um die Hälfte höher sein, zum anderen verfälschen die grakalimitierten Szenen das Ergebniss noch mehr.

Deswegen sind Timedemos gerade für CPU-Vergleiche eigentlich unbrauchbar. Und haben selbst bei GraKa-Vergleich noch viele Nachteile.

avg fps bei InGame-Benchmarks über mehrere Szenen:
Siehe prinzipiell die Nachteile unter „avg fps“.
Natürlich hat diese Methode den Vorteil, daß man mehrere Szenen auf einmal erfassen kann. Da aber jede Szene völlig anders reagieren kann und sich aus den avg fps nicht jede Szene einzeln erausziehen läßt hat man nur ein „Mischmasch“ von allem Möglichen. Das gilt auch bei 100%igen GraKa-Limitierung. Beispiel:
Man will wissen, wieviel Performance Adaptive AA in etwa kosten kann. Aber nur zu ca. 20% der Zeit des InGame-Benchmarks ist auch eine stressige Szene mit dabei, indem AAA auch gefordert wird. Die avg fps des Durchlaufs würden dir also nur einen Einbruch anzeigen, der etwa bei einem Fünftel von dem liegt, was AAA kostet, wenn es drauf ankommt.


Es gibt allerdings auch Bereiche, wo die Ergebnisse mit avg fps und Timedemos ziemlich treffend sind.
Wenn z.B. mehrere CPUs gegeneinander verglichen werden kann man anhand der relativen Unterschiede der CPUs untereinander sehen, wie schnell eine CPU ggü einer anderen ist.
Wenn CPU „A“ 40fps , CPU „B“ 45fps und CPU „C“ 50fps erreicht, kann man ziemlich genau sagen, daß CPU „B“ von der Performance her ziemlich genau zwischen CPU „A“ und „C“ liegt.
Aber eben nicht, daß CPU „B“ im realen Spiel bei CPU-Limitierung auch wirklich ~12% schneller als CPU „A“ ist.
Bei GraKas sind zwar Einzelaspekte wie „was kostet mich genau FSAA/AF/AAA“ ziemlich ungenau, aber wenn man die „Allgemein-Performance“ zwischen 2 GraKas untersuchen will ok. Dazu sollte man aber enweder 100%ig GraKa-limitierte Werte hernehmen, oder wenn das nicht klar ist, die Performance-Unterschiede bei den höchsten getesteten Auflösungen/FSAA/AF hernehmen.

Bei CPU-Vergleichen, die aussagen wollen, wieviel Rohpower die eine CPU ggü der anderen hat, ist es nur sinnvoll in möglichst niedriger Auflösung ohne FSAA/AF/etc. zu testen. Bei avg fps über einen längeren Zeitraum, minimiert das den Einfluß der GraKa, und bei kurzen Szenen muß der Author sich nicht an das höchst mögliche CPU-limitierte Setting herantesten. Die Aussage bleibt aber die Selbe. Limitiert die CPU bei 15fps unter 800x600 und die GraKa ist selbst unter 1600x1200 mit 4xFSAA noch in der Lage, mehr als die 15fps zu produzieren, wird auch unter dieser hohen Auflösung noch die CPU mit 15fps limitieren.
weil sie damit argumentieren, daß in dieser Auflösung schließlich keiner Zocken würde. Denn Benchmarks mit avg fps über einen längeren Zeitraum mit mehreren Szenen zeigen meist „weiche“ Übergänge bzgl der CPU-Limitierung an.
Beispiel: Während sich die beiden CPUs unter 640x480 noch um 30% unterscheiden, sind es bei 1280x1024 nur noch 10% und bei 1600x1200 mit 4xFSAA und 16xAF gar nur noch 3%.
Auf den Grund dafür, warum das bei avg fps so ist, wurde schon eingegangen. Durch die höhere GraKa-Last wird in erster Linie die Zeit der CPU-Limitierung während des Benchmarks verkürzt. Aber solange zwischen verschiedenen CPU-Leistungen am Schluß auch nur 1% raus kommt, so zeigt das, daß selbst hier noch für ne kurze Zeit die CPU limitiert hat.
Aber wenn man selbst spielt gibt es solche weichen Übergänge fast nicht. Da ist es meist ganz einfach: limitiert die CPU, kann ne schnellere CPU genau soviel mehr fps bringen, wie die Leistung auch größer ist. Limitiert die GraKa bringt ne schnellere CPU genau nichts.

Deswegen ist es so wichtig herauszufinden, ob die CPU überhaupt limitiert, denn nur dann läßt sich sagen, ob ne schneller CPU überhaupt etwas bringen kann.

Madkiller
2006-12-07, 17:53:46
Der 2. Post in diesem Thread soll bei Spielen aufzeigen, welche CPU-Leistung in etwa für gewisse Spielen bei den angegebenen Details im SinglePlayer-Modus für einen flüssigen Betrieb notwendig sind. Im Multiplayer-Modus ist die CPU-Last nicht selten (deutlich) höher.


Auf die GraKa-Leistung will ich hier nur am Rand eingehen, weil das einfach zu sehr mit den eigenen Ansprüchen verknüpft ist.
Wer einen groben Anhaltspunkt haben will, kann hier reinschauen:
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/ bzw den ganzen Performancereports
Oder hier, wo die 8800GTX gegen die X1950XTX und 7900GTX verglichen wurde.
http://www.3dcenter.org/artikel/geforce_8800_gtx/
Interessant sollte auch die Tabelle am Schluß sein, wo angegeben wird, bei welchen Settings das jeweilige Spiel mit den GraKas noch spielbar ist: http://www.3dcenter.org/artikel/geforce_8800_gtx/index15.php

Zu X2 vs C2D:
Abgesehen von wenigen Ausnahmen/Abweichungen läßt sich sagen, daß der X2 etwa um ein Drittel höher getaktet sein muß, als ein E6300/6400 um auf die selbe Leistung zu kommen.
Nachzulesen hier: http://www.3dcenter.org/artikel/c2d_vs_am2/ bzw den ganzen Performancereports.

XP 32bit vs Vista 64bit *update* mit 158.24 und Cat 7.5
Bei den meisten Spielen kommen bei beiden Betreibssystemen (mehr oder weniger) die selben fps raus.
Bei GTR2 und TDU ist Vista 64bit CPU-Limitiert aber nur etwa halb so schnell.
Nachzulesen hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363818


Wie mittlerweile bei uns üblich, haben wir zur Performance-Ermittlung wieder auf Savegames anstatt auf Timedemos zurückgegriffen. Dies ermöglichte uns, auch aufgrund der Kürze der Savegames, speziell nur jene Szenen herauszusuchen, welche wir auch wirklich vermessen wollten - während bei einem Timedemo meistens mehrere Szenen (und viel Leerlauf) auf einmal vermessen werden, welche aber jeweils unterschiedliche Performance-Charakteristiken aufweisen können. Ein Timedemo-Durchlauf verwischt diese unterschiedlichen Szenen und deren unterschiedliche Performance-Charakteristik aber immer zu einer einzelnen Performance-Aussage, was die Aussagekraft einer solchen Messung dann doch erheblich einschränkt.

Anstatt Messungen des eher durchschnittlichen Gameflusses mittels Timedemos stellen unsere Messungen ausgewählter kurzer Szenen über den Weg der Savegames somit eher Worstcase-Benchmarks dar: Wir messen dann, wenn die Hardware wirklich unter Stress gerät - und eben auch nur die jeweilige Szene und nicht noch jede Menge Leerlauf oder gleich eine andere Szene mit hinzu. Konkret können wir sogar behaupten, daß die für die jeweiligen Test-Spiele von uns verwendeten Szenen mit zu den stressigsten des gesamten jeweiligen Spiels gehören und demzufolge sicherlich sehr realitätsnah sind.

Dies bezieht sich jedoch rein nur auf den Singleplayer-Part der jeweiligen Spiele. Denn der Multiplayer-Modus der meisten Spiele unterscheidet sich oft gravierend in Sachen Anzahl der im Einsatz befindlichen Einheiten und darzustellender Effekte, wodurch sich die CPU- und GPU-Last deutlich vom "üblichen" Singleplayer-Gameplay unterscheiden kann. Natürlich ist bekannt, daß im Multiplayer-Modus üblicherweise zuerst die CPU deutlich mehr belastet wird, dennoch wollen wir unsere Benchmark-Ergebnisse sicherheitshalber nur auf den Singleplayer-Modus der jeweiligen Spiele bezogen wissen.

Von den benutzten Savegames wurden jeweils immer die ersten fünf Sekunden zur Messung benutzt, welche dabei immer mittels Fraps durchgeführt wurden. Dabei wurde jedes Savegame generell fünfmal ausgeführt wie gemessen und dann der Durchschnitt dieser fünf Messungen als Ergebnis genommen. Die einzelnen Savegames wurden im übrigen nicht bewußt nach einer Grafikkarten- oder CPU-Limitierung ausgesucht, sondern es wurde nach ausgiebigem Spielen des jeweiligen Titels diese vier Szenen ausgewählt, welche uns am allgemeingültigsten und Hardware-fordernsten erschienen. Screenshots der verwendeten Savegames zur besseren Verdeutlichung der jeweils ausgemessenen Szene befinden sich dann in den einzelnen Benchmark-Kapiteln.



Age of Empires III
Details: maximal
http://www.3dcenter.org/artikel/c2d_vs_am2/index2.php
Eines der Spiele, die fast nicht genügend CPU-Leistung haben können.
Selbst wenn man bei solchen Spielen IMO schon mit >20fps relativ glücklich werden kann, hat hier selbst der C2D E6400 damit Probleme wenn mal auf größeren (Multiplayer-Maps) viel los ist.
Ansonsten ist AoE3 nicht ganz so gierig, so sollten bei nicht so großen Maps auch bei Schlachten im Großen und Ganzen ein X2 3800+ ausreichen. Da dieses Spiel mit grob 20% auf DualCore reagiert, sollte das Selbe auch für einen A64 3800+ gelten.

Details: minimal
AoE3 reagiert CPU-limitiert mit etwa 40% mehr fps bei stressigen Szenen. Also sollte bei diesen Settings alles in allem etwa ein XP 3200+ bzw ein P4 3,0GHz für überwiegend flüssiges Spielen ausreichen. Das gilt aber nicht für große Maps und massenweise Einheiten.



Titan Quest
Details: maximal
http://www.3dcenter.org/artikel/c2d_vs_am2/index6.php
Das Spiel ist recht genügsam.
Ein Athlon 64 3000+ oder ein Pentium 4 mit 3.2 GHz sollte ausreichen, um praktisch immer über 25fps zu bleiben.



GTR2
Details: maximal aber Schatten nur auf hoch und Frontscheinwerferdetails nur auf mittel
http://www.3dcenter.org/artikel/c2d_vs_am2/index3.php
Während am Tag die fps noch relativ hoch sind brechen die in der Nacht oder auch bei Regen aber recht stark ein.
Obwohl die Schatten-Details schon reduziert wurden (bringt schon etwa 20%) wird es mit einem E6400 mit der Spielbarkeit recht knapp, da der unter 25fps einbricht.
Auch bei diesem Spiel brechen bei Multiplayer-Rennen am Tag ohne Regen mit ~25 Gegnern bei einem E6400 (oder vergleichbarem) die fps auf etwa 30 ein. Das reicht zwar noch für eine gute Spielbarkeit - was sich bei Nacht und/oder Regen aber schnell ändern kann.

Details: minimal, aber Sichtweite auf normal, und sichtbare Fahrzeuge auf 12 limitiert
GTR2 reagiert CPU-limitiert mit etwa doppelt soviel fps bei stressigen Szenen am Tag. In der Nacht und/oder Regen verdreifachen die sich sogar fast. Also sollte grob geschätzt bei diesen Settings alles in allem etwa ein XP 2000+ bzw ein P4 2GHz für überwiegend flüssiges Spielen ausreichen. Nur bei Regen und in der Nacht wird es dann eng.
Wer allerdings auf Nacht- und/oder Regen-Fahrten ganz verzichtet, sollte praktisch nie unter 30fps fallen.

8800GTX vs 1950XTX vs 7900GTX (Basis: 7900GTX; Durchschnitt aus allen Ergebnisse vom G80-Artikel)
----155%-------121%------100%

Vorsicht mit Windows Vista64 (anscheinend auch Vista32). Das Spiel ist hier bei CPU-Limitierung nur etwa halb so schnell. Für Konkretes, siehe Link oben.


Half Life 2: Episode I
Details: maximal
http://www.3dcenter.org/artikel/c2d_vs_am2/index4.php
Das Spiel braucht nicht viel CPU-Leistung um noch gut spielbar zu sein.
Alles was über einem Athlon 64 3000+ oder einem Pentium 4 mit 3.2 GHz liegt, sollte für den Singleplayer ausreichen.
DualCore bringt etwa 20% mehr fps.



Prey
Details: maximal
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/index7.php
Wer braucht ne schnelle CPU?

8800GTX vs 1950XTX vs 7900GTX (Basis: 7900GTX; Durchschnitt aus allen Ergebnisse vom G80-Artikel)
----218%-------118%------100%



Oblivion
Details: maximal (kein HDR nur Bloom)
http://www.3dcenter.org/artikel/c2d_vs_am2/index5.php
Hier gibt es stark unterschiedliche Szenen. Manchen ist die CPU fast völlig egal, andere hängen ziemlich daran.
Um das etwas extreme Savegame "Kaiserstadt" auf nur etwa 20fps zu beschleunigen bräuchte man schon grob nen C2D @3200MHz. Aber selbst bei dem deutlich ruhigeren "West Weald" braucht man nen E6400 um auch nur in die Nähe von 25fps zu kommen.

Details: minimal, aber Sichtweite leicht erhöht, sowie die Gegenstände- und Personen-Details
Oblivion reagiert CPU-limitiert mit etwa doppelt soviel fps bei stressigen Szenen. Also sollte bei diesen Settings alles in allem etwa ein A64 3000+ bzw ein P4 3,2GHz für überwiegend flüssiges Spielen ausreichen.

8800GTX vs 1950XTX vs 7900GTX (Basis: 7900GTX; Durchschnitt aus allen Ergebnisse vom G80-Artikel)
----203%-------138%------100%



Gothic 3
Details: maximal
http://www.3dcenter.org/artikel/2006/12-09_b.php
Hier gibt es ähnlich wie bei Oblivion stark unterschiedliche Szenen. Damit die für die CPU stressigen Szenen >=25fps haben, ist etwa ein E6400 oder ein X2 @2800MHz nötig. Aber es gibt auch GraKa-limitierte Szenen bei denen die CPU ziemlich egal ist. Gothic3 ist in erster Linie sehr GraKa-fordernd. Mit der 7950GT bekommt man selbst unter 1280x960 öfters Probleme mit flüssigen Bildwiederholungsraten.
Dazu reagiert Gothic3 mit ~33% mehr Leistung ziemlich gut auf DualCore. Mit SingleCore-CPUs bekommt man also bei stressigen Szenen leicht Probleme.

Details: minimal, aber Sichtweite auf @lowres auf max.
Gothic 3 reagiert CPU-limitiert mit etwa 70-100% mehr fps bei stressigen Szenen. Also sollte bei diesen Settings alles in allem etwa ein A64 3200+ bzw ein P4 3,4GHz für überwiegend flüssiges Spielen ausreichen.

8800GTX vs 1950XTX vs 7900GTX (Basis: 7900GTX; Durchschnitt aus allen Ergebnisse vom G80-Artikel)
----251%-------125%------100%



Anno 1701
Details: maximal
http://www.3dcenter.org/artikel/2006/12-20_a.php
Anno1701 braucht sehr viel CPU-Leistung. Ein E6300 oder 4600+ sollte es schon sein, um nicht deutlich unter 20fps bei stressigen Szenen einzubrechen. Das Spiel reagiert auch im Durchschnitt mit fast 50% mehr fps auf DualCore. Was auch wieder bedeutet, daß das Spiel bei max. Details und stressigen Szenen praktisch nicht flüssig zu bekommen ist, mit ner SingleCore-CPU.

Details: minimal
Anno 1701 reagiert CPU-limitiert mit etwa 40-80% mehr fps bei stressigen Szenen. Also sollte bei diesen Settings alles in allem etwa ein A64 3500+ bzw ein P4 3,8GHz für überwiegend flüssiges Spielen ausreichen.

8800GTX vs 1950XTX vs 7900GTX (Basis: 7900GTX; Durchschnitt aus allen Ergebnisse vom G80-Artikel)
----167%-------142%------100%



NFS: Carbon
Details: maximal
http://www.3dcenter.org/artikel/2006/12-31_a.php
Carbon braucht nicht viel CPU-Leistung. Bei CPUs ab 3200+ bzw P4 3,4GHz sollte man CPU-limitiert praktisch nie unter 25fps fallen.
Aber auch dieses Spiel reagiert mit etwa 40% sehr gut auf DualCore - auch wenn es hier freilich nicht so wichtig ist. Hier ist auch wieder auffällig, daß die X1000er Karten deutlich besser performen, als die GF7.

8800GTX vs 1950XTX vs 7900GTX (Basis: 7900GTX; Durchschnitt aus allen Ergebnisse vom G80-Artikel)
----252%-------164%------100%



Supreme Commander
Details: maximal
http://www.3dcenter.org/artikel/2007/06-25_a.php
Gute Dinge zuerst: Das Spiel reagiert sehr gut mit DualCore. Geschätzt 80%. Da der Mauszeiger immer flüssig bleibt, ist das Spiel IMO auch ganz passabel mit >10fps spielbar. >15fps gehts eigentlich wirklich gut.
Jetzt zum schlechten Teil. Das Spiel braucht dermaßen viel CPU-Power, daß auf großen Karten mit 7 Gegnern man selbst mit nem C2D @3,2GHz seine liebe Not haben wird, auch bei Massenschlachten >10fps zu bleiben.
Meine Mindestempfehlung was CPU angeht: Mindestens die Power eines X2 3800. Und leider ziemlich sicher keine SingleCore CPUs. Mit nem X2 sollten wenigstens kleinere 4-Spielerkarten - bis auf größere Schlachtszenen - über 10fps bleiben.
Bei 7950gt vs X1900XT nehmen sich beide Karten nicht viel. Die X1900XT ist im Schnitt 10% schneller. Da die fps-Werte hier sehr niedrig sind, bezieh ich mich nur auf 15fps. Wenn man die noch erreichen will, sollte eigentlich alles bis 1600x1200 mit 4/16 (mit TSAA/AAA wird's langsam eng) ok sein.

Details: minimal
Da hat man grob 30% mehr fps als bei max Details. Mittlere Details bringen zu den max Details gerade mal 10%. Also leider nichts Deutliches.

Update mit neuem Patch:
Siehe den Link oben. Ich schätze mal, daß es 20-30% schneller läuft bei CPU-Limitierung. An der Hardwareempfehlung ändert das leider nicht viel.



Armed Assault
Details: maximal aber Objektdetails nur auf "normal", Schatten und Postprocessing Effect auf "niedrig" Sichtweite: 1000m
http://www.3dcenter.org/artikel/2007/04-25_a.php
Getestet wurde mit dem 1.05er Patch. Der ggü der 1.00er Version stellenweise doppelt so viel fps bringt.
Das Spiel reagiert nur mit 20-30% mehr fps auf DualCore. Bei den verwendeten Settings sollte ein 3800+ (egal ob SC oder DC) ausreichen um fast immer über 25fps zu bleiben.
Bei 7950gt vs X1900XT nehmen sich beide Karten nicht viel. Die X1900XT ist im Schnitt 10% schneller. Die Szenen sind von den fps-Werten sehr unterschiedlich. Wenn man bei den Verwendeten Settings aber immer über 25fps bleiben will, würde ich nicht über 1280x960 mit AF gehen.

Details: minimal
Können CPU-limitiert bis zu 40% mehr fps ggü den verwendeten hohen Settings bringen. Aber eigentlich nur da, wo viel Vegetation dargestellt wird. In der Wüste bringt es beispielsweise fast garnichts.



Test Drive Unlimited
Details: maximal aber ohne HDR
http://www.3dcenter.org/artikel/2007/03-22_a.php
Das Spiel reagiert mit etwa 50% auf DualCore. Mit einem X2 3800+ sollte man (fast) immer 25-30fps erreichen können. Wer immer über 30fps bleiben möchte, sollte ab einem 4600+/E6300 glücklich werden. Mit einer SinlgeCore-CPU wird das natürlich sehr schwierig.
Interessanterweise verursacht hier die X1900XT ca. 20-30% mehr CPU-Last, als die 7950GT. Mit ner GraKa der G70 Generation sinkt also auch um so viel der Anspruch an die CPU.
Bei 7950gt vs X1900XT nehmen sich beide Karten nicht viel. Die X1900XT ist im Schnitt 10% schneller. Meist >25fps sollte man bis 1280x960 4/16 (kein TSAA/AAA) bzw bis 1600x1200 16xAF erreichen können. Ohne HDR versteht sich.

Details: minimal
Es sieht nicht deutlich schlechter aus, wird dafür mit etwa 10% zu max Settings aber auch nicht deutlich schneller.

Vorsicht mit Windows Vista64 (anscheinend auch Vista32). Das Spiel ist hier bei CPU-Limitierung nur etwa halb so schnell. Für Konkretes, siehe Link oben. Wer Vista64 mit ner ATI-Karte (zumindest mal R580) und 4GiB RAM nutzen will, wird das Problem bekommen, daß es nicht starten will. Mit 2GiB gehts wieder. Bei der 7950GT gibts das Problem mal nicht.


S.T.A.L.K.E.R
Details: maximal
http://www.3dcenter.org/artikel/2007/07-17_a.php
Das Spiel reagiert mit etwa 30% auf DualCore. Mit einem X2 3800+ sollte man (fast) immer über 30fps erreichen können.
Ein 4000+ SingleCore sollte für das Selbe reichen. Mit Full Dynamic Lightning haben allerdings die GraKas zu knabbern. Alles über 1280x960 artet mit der X1900XT und gerade mit der 7950GT stellenweise schon in Ruckeln aus.

Details: maximal mit static Lightning
Wenn die GraKa limitiert, werden die fps ca. 3-5x so hoch, wie mit Full Dynamic Lightning. Auch CPU-Last wird deutlich weg genommen. Etwa ein XP 3000+ sollte reichen um über 30fps bleiben zu können.

Details: minimal mit static Lightning
Hier wird nochmal von CPU wie GraKa deutlich Last weg genommen. Etwa ein XP 2200+ sollte schon ausreichen.



Command & Conquer 3
Details: maximal
http://www.3dcenter.org/artikel/2007/06-30_a.php
Im Gegensatz zu Supreme Commander ein sehr genügsames Spiel, was die Hardwareanforderungen angeht.
Das Spiel reagiert mit etwa 25% auf DualCore. Mit einem X2 4600+/E6300 sollte man (fast) immer über 15fps bleiben können. Das gilt aber für Skirmish-Schlachten mit 7 Gegnern - und dann muß wirklich viel los sein. Bei "normaleren" Spielmodis sollte alles in allem ein 3800+ (egal ob SC oder DC) ausreichend sein - die Frameraten sind dann deutlich höher.
Wirklich genügsam ist das Spiel was GraKas angeht. Mit einer 7950GT kann ich die Auflösung 1600x1200 mit 4xTSAA empfehlen, bei der X1900XT sogar 1920x1440 mit 4xAAA.

Details: minimal
Bringt etwa 30% mehr fps. Also beim normalen spielen sollte etwa ein A64 3000+ ausreichen. Bei Massenschlachten etwa ein 3800+.


Ich werde die Liste hier immer aktualisieren, sobald neue Ergebnisse dazu kommen.

Armaq
2006-12-07, 23:08:12
Madkiller HL2 Ep. 1 sieht vielleicht so aus, aber die beliebten Varianten CSS und DODS brauchen definitiv einiges an CPU-Power.

Madkiller
2006-12-08, 05:27:01
Deswegen berief ich mich ja ausdrücklich auf Ep1, und habe sogar nochmal am Anfang des 2. Posts geschrieben, daß das nur für den SinglePlayer gilt und dem Multiplayer mehr aberlangt wird.

Madkiller
2006-12-09, 19:14:51
*update* :)
(Gothic 3)

Banshee18
2006-12-09, 19:24:54
Soviel Arbeit für einen Sticky-Thread, die bekanntlich eh kaum Beachtung finden? Mach´ doch einen Artikel für die Hauptseite draraus.=)

Madkiller
2006-12-09, 19:26:34
Gibts doch schon. :D
Das ist nur ne Zusammenfassung der "Avg fps/Timedemo/Timedemo2 - das Maß aller Dinge?"-Artikel.
Da die offensichtlich zu umfassend sind, um von vielen gelesen zu werden. :)

So habe ich wenigstens was zum verlinken, wo es relativ kurz und bündig auf den Punkt gebracht wird.

Raff
2006-12-09, 19:42:20
Sorry, wenn ich etwas intelligenten Kot absetze, aber ich kann anhand von Praxiserfahrungen sagen, dass eine schnellere Grafikkarte sehr wohl das CPU-Limit verlegen kann. So kann beispielsweise Overhead beim Grafiktreiber durch den Wechsel von einem auf den anderen Grafikkartenhersteller bremsen. Weiterhin haben auch Vertex-Durchsatz & Co. ein Wörtchen mitzureden. In einigen Fällen kann ein neues Grafikbiest durch solche Polygonpower "CPU-limitierte" Szenen etwas beschleunigen. Ok, ich rede hier allgemein von Fällen im 10%-Bereich, aber sie existieren. ;)

MfG,
Raff

puntarenas
2006-12-09, 19:49:16
Sehr schöne Zusammenfassung, danke dafür. Leider scheint mein Wechsel von einem A64 3700+ auf C2D 6600 im Laufe dieser Woche (danke für die falschen Angaben zur Lieferzeit Alternate!) gerade was ältere bis aktuelle Spiele angeht nicht allzu viel zu bringen und ich wünsche mir für 1600x1200 mit Area-AF und ein wenig AA+AAA schon fast eine schicke 8800er statt meiner x1900xt, vor allem da ich gerade Titan Quest spiele.

Trotzdem, Spiele sind erstens nicht alles und zweitens bin ich auf dualcorefreundlichere Spiele gespannt. Vielleicht zieht ja bald Anno 1701 in die Liste ein, das soll ja in der Richtung schon etwas mehr profitieren und wenn ich garnicht weiß wohin mit der CPU-Leistung, dann lohnt sich immer mal wieder ein Hafenspaziergang in Gothic2.

Botcruscher
2006-12-09, 21:19:52
So habe ich wenigstens was zum verlinken, wo es relativ kurz und bündig auf den Punkt gebracht wird.

Hier fällt aber dein Fazit weit "besser" aus als auf der Hauptseite.

Laxer
2006-12-09, 21:33:02
Interessante Zusammenfassung :up:
Kleine Anregung / Bitte: Eine Ergänzung bei den Spielen um Battlefield 2 wäre spitze...

Madkiller
2006-12-09, 23:40:06
Sorry, wenn ich etwas intelligenten Kot absetze, aber ich kann anhand von Praxiserfahrungen sagen, dass eine schnellere Grafikkarte sehr wohl das CPU-Limit verlegen kann. So kann beispielsweise Overhead beim Grafiktreiber durch den Wechsel von einem auf den anderen Grafikkartenhersteller bremsen. Weiterhin haben auch Vertex-Durchsatz & Co. ein Wörtchen mitzureden. In einigen Fällen kann ein neues Grafikbiest durch solche Polygonpower "CPU-limitierte" Szenen etwas beschleunigen. Ok, ich rede hier allgemein von Fällen im 10%-Bereich, aber sie existieren. ;)

MfG,
Raff

Beispiele?
Wie genau gemessen?
Evtl mit avg fps und TDs? Absolut sicher dann, daß immer die CPU limitiert hat?
Und... sicher, daß das was du beobachtet hast, nicht an den unterschiedlichen CPU-Lasten der verschiedenen Treiber hängen könnte?
Kleine Unterschiede hatte ich auch mal festgestellt. Die waren aber <5%.

Vielleicht zieht ja bald Anno 1701 in die Liste ein, das soll ja in der Richtung schon etwas mehr profitieren

5-7 Tage. :)
Hier fällt aber dein Fazit weit "besser" aus als auf der Hauptseite.
Wie ich schon mehrmals anmerkte:
Text=Leo
Benches=Ich
Natürlich habe ich beim Fazit auch ein Wörtchen mitzureden. Aber viel ist einfach relativ, und ich muß Leo auch seinen Stil lassen. ;)

Madkiller
2006-12-21, 16:24:45
*update* :)
(Anno 1701)

Madkiller
2007-01-01, 13:26:06
*update* :)
(NFS:Carbon)

Madkiller
2007-01-18, 17:14:54
*update* :)
(Da es hier offensichtlich ein Interesse gibt, habe bei den CPU-lastigen Spielen noch zusätzlich nen Durchlauf mit (fast) minimalen Details durchlaufen lassen, umzu sehen, welche CPU man mindestens für das Spiel braucht, um es einfach nur gut spielen zu können - egal wie es aussieht.)

Ernie@work
2007-01-19, 12:00:55
Wobei hinsichtlich GTR2 anzumerken ist, dass bei einem schwachen Prozessor gepaart mit einer guten Graka (fast) alle Optionen auf maximal gestellt werden können, bis auf die im Thread genannten Optionen, die die CPU entlasten.

Wer die CPU noch mehr entlasten möchte, kann die Spiegel auch auf virtuell stellen, bringt nochmal 10 %, sieht aber nicht mehr so schön, vor allem aber nicht mehr so realistisch aus. Boxenanimation auf niedrig oder auf aus stellen. Bringt vor allem beim Start etwas. Hohe Raddetails fressen ebenfalls fps zum Frühstück, fallen aber während eines Rennens nicht auf. Also auf "Aus" stellen.

In der ini.datei ist eine weitere Option ganz interessant:

Enable particle in rearview: Bitte auf "0" stellen, wer auf die vollen Details in den Spiegeln verzichten kann. Entlastet die CPU.

Des Weiteren gibt es einen Eintrag, wo man die Anzahl der Fahrzeuge einstellen kann, die von den Scheinwerfern beleuchtet werden. Runterstellen! Bringt auch bei schnellen CPU`s bei Nachtfahrten eine ganze Menge!

Madkiller
2007-03-08, 17:24:51
*update* :)
("Preview" zu Supreme Commander; Preview wohl deswegen, weil es auf Leos Seite noch dauern kann)

Madkiller
2007-03-11, 10:15:27
*update* :)
("Preview" zu Armed Assault; Preview wohl deswegen, weil es auf Leos Seite noch dauern kann)

majorpayne
2007-03-12, 20:48:11
Hübsche zusammenfassung aber mir fehlt ein wenig der strategiespiele. Gut Surpreme Commander ist dabei aber ein paar Worte zu Medieval II oder Mark of Chaos wären auch nicht schlecht gewesen ;O)

Madkiller
2007-03-15, 16:42:02
Hübsche zusammenfassung aber mir fehlt ein wenig der strategiespiele. Gut Surpreme Commander ist dabei aber ein paar Worte zu Medieval II oder Mark of Chaos wären auch nicht schlecht gewesen ;O)
Sry, ich teste nur möglichst aktuelle Spiele. Bald kommt aber C&C3. :)

btw

*update*
("Preview" zu Test Drive Unlimited; Preview wohl deswegen, weil es auf Leos Seite noch dauern kann)
*update*
(Habe bei den letzten 3 Spielen noch hinzugefügt, wie die 7950GT zur X1900XT steht)

Madkiller
2007-03-23, 16:31:19
So, da der Report zu TDU jetzt online gegangen ist, habe ich ihn auch hier noch verlinkt. :)

Madkiller
2007-04-07, 14:14:40
*update*
(S.T.A.L.K.E.R)

Madkiller
2007-04-08, 14:31:05
*update* :)
(Command & Conquer 3)

JBAB
2007-04-16, 08:56:08
Zu C&C3

Hast du auch kontrolliert ob die Bauzeit auch wirklich der im ToolTip angegebenen Zeit entspricht? Das Spiel ruckelt nie, wird aber automatisch langsamer wenns eng wird.

Ich schaff mit meinem PC (siehe Sig) bei grossen Schlachten keine normale Geschwindigkeit bei 1280*1024 alles auch hoch ausser AA auf Level 1

Madkiller
2007-04-16, 15:03:01
Jap, das Spiel wird langsamer.
Die Bewegungsabläufe "ruckeln" deswegen nicht, das stimmt.
Der ganze Rest ruckelt aber dennoch weiter.

Madkiller
2007-04-19, 16:28:55
*update* :)
("Preview" zu Armed Assault; Preview wohl deswegen, weil es auf Leos Seite noch dauern kann)
Artikel-Link hinzugefügt. :)

Madkiller
2007-04-26, 16:22:00
*update* :)
(Artikel-Link für ArmA und Thread-Link mit den Ergebnissen für SupCom hinzugefügt)

Madkiller
2007-05-02, 15:50:33
*update* :)
(Verlinkung und Einarbeitung der Ergebnisse des G80-Artikels)

RainingBlood
2007-05-02, 16:07:28
Zu X2 vs C2D:
Abgesehen von wenigen Ausnahmen/Abweichungen läßt sich sagen, daß der X2 etwa um ein Drittel höher getaktet sein muß, als ein E6300/6400 um auf die selbe Leistung zu kommen.
Nachzulesen hier: http://www.3dcenter.org/artikel/c2d_vs_am2/ bzw den ganzen Performancereports.
.[/I]


die Aussage irritiert mich etwas: 3 von 5 Spielen des Tests zeigen ziemlich genau 20-23% Leistungsunterschied bei selbem Takt. Nur Titan Quest und AoE3 bringen es auf knapp 30%.

Madkiller
2007-05-02, 16:16:13
Die Aussagen bezieht sich auch auf die Pro-MHz-Leistung. Nicht darauf, wieviel Leistung davon in Spielen ankommt. Das wird ja maßgeblich von der Unterschiedlichen Pro-MHz-Leistung der unterschiedlich getakteten CPUs beeinflußt. Siehe auch:
http://www.3dcenter.org/artikel/2006/11-01_a.php
http://www.3dcenter.org/artikel/2006/11-07_a.php

Kurz: Bei dem Artikel wurde nicht verglichen, wieviel mehr Leistung der C2D ggü dem X2 hat, sondern, umwieviel er niedriger getaktet sein kann, um immer noch auf die selbe Leisung zu kommen. :)

RainingBlood
2007-05-02, 16:46:12
Kannst du dazu kurz eine Beispielrechnung (HL2, Oblivion oder GTR2) geben, ich kann dir nicht ganz folgen wie du auf 1/3 kommen willst?!

Madkiller
2007-05-02, 16:50:50
Ganz einfach.
Die fps des X2 4600+ und des C2D 6300 sind meistens grob(der C2D ist meist minimal schneller) gleich. Der C2D hat 1866MHz, der X2 hat 2400MHz, was 29% mehr sind. :)

RainingBlood
2007-05-02, 17:06:06
Ganz einfach.
Die fps des X2 4600+ und des C2D 6300 sind meistens grob(der C2D ist meist minimal schneller) gleich. Der C2D hat 1833MHz, der X2 hat 2400MHz, was 31% mehr sind. :)


jetzt hab ich das Problem gefunden:
lt. dem Test skaliert der c2d leistungsmäßig überproportional zu seinem Takt, während es beim x2 genau umgekehrt ist. Wenn ich mit dem c2d 1866Mhz und dem x2 2000Mhz rechne, komme ich auf die von mir oben genannten Ergebnisse.
Jetzt bin ich leicht verwirrt, welchem Lösungsansatz ich zur Bestimmung der Pro-mhz Leistung verfolgen soll.

Madkiller
2007-05-02, 17:13:55
Du gehts nach der Leistung in Spielen. Das ist aber viel zu ungenau. Die wenigsten Spiele skalieren exakt 1:1 mit steigender CPU-Leistung.
So wie ich es mache, komme ich immer auf sehr exakte Ergebnisse (natürlich spielt die Messungenauigkeit mit) die immer vergleichbar sind, solange die CPU auch nur ein bisschen skaliert.
Wenn man sich aber an der gleichen Leistung orientiert, hat man damit ne klaren und fixen Anhaltspunkt.

Madkiller
2007-05-25, 19:32:48
*update* :)
(SupCom mit aktuellem Patch; WinXP vs WinVista)

Madkiller
2007-06-10, 16:57:00
*update*
(XP32 vs Vista64 mit aktuellen Treibern; und TDU macht bei Vista64 mit ATI und 4GiB RAM Probleme.)

RainingBlood
2007-07-07, 10:46:04
ich schlage Overlord für den Report vor:
http://www.overlord-game.de/

Ill_Bastardo
2007-07-07, 12:01:56
Sry, ich teste nur möglichst aktuelle Spiele. Bald kommt aber C&C3. :)


Medieval 2 ist doch aktuell. Immerhin das aktuellste Spiel in der Total War Serie...
Wäre echt toll, wenn du das mit aufnehmen könntest.

Ansonsten: Top-Artikel. Weiter so!

Madkiller
2007-07-18, 13:52:06
Sry, die nächsten 3 Spiele werden wohl Bioshock, World in Conflict und UT3 werden.

*update* :)
(SupCom, CnC3 und STALKER fertige Reports verlinkt)

Gast
2008-01-22, 09:18:38
Medieval 2 ist doch aktuell. Immerhin das aktuellste Spiel in der Total War Serie...
Wäre echt toll, wenn du das mit aufnehmen könntest.

Ansonsten: Top-Artikel. Weiter so!
Ja Medieval 2 wäre gut. Also wenn du mal Zeit dafür hast.

Gast
2008-03-05, 15:54:13
interresant wäre doch auch quad cores aufzunehmen oder nicht?

Madkiller
2008-03-05, 16:27:01
Natürlich.
Aber ich benche nicht mehr für 3DCenter, und auch wenn ich vorhabe, mir demnächst nen QuadCore zu leisten, wird es wohl daran scheitern, daß ich mir nicht viele Spiele zu lege.

adx
2010-04-10, 10:09:54
Natürlich.
Aber ich benche nicht mehr für 3DCenter, und auch wenn ich vorhabe, mir demnächst nen QuadCore zu leisten, wird es wohl daran scheitern, daß ich mir nicht viele Spiele zu lege.

Quadcore kauft man sich doch für 1 Spiel ;)
z.B. www.Brinkthegame.com

Gast
2010-05-04, 14:32:14
So, einige Zeit ist ins Land gezogen und nun stellt sich mir die Frage, ob die Liste dieses hochinteressanten Threads mal aktualisiert wird … speziell auf den Vergleich von Dual- und Quadcore bei aktuellen Spielen wäre ich SEHR neugierig ;)

futzi
2010-06-05, 16:15:30
wer ne gute cpu hat, egal ob dual oder quad, sollte sich ne ordentliche graka zulegen, da limitiert dann weniger die cpu

ich hab n quad, der is untefordert mit meiner HD 5770er ;)

Sir Richard
2010-09-29, 13:57:45
Quadcore kauft man sich doch für 1 Spiel ;)
z.B. www.Brinkthegame.com

lol 2 Jahre nach dem Vorpost... das grenzt an Leichenschändung :)

uweskw
2011-06-16, 01:41:02
Hat sich doch so einiges geändert in den Jahren.
2011 sieht es so aus das eine Mittelklasse Graka schon durch einen Mittelklasse Prozi ausgebremst wird.
Z.B. für "Witcher 2" braucht man im Verhältnis deutlich mehr CPU als GPU Power. Mit einer 460 GTX ist man gut dabei, der Prozi sollte aber schon mal nen 5i 2500 sein. AMD ist hier eigentlich komplett raus.
Jo, so ändern sich die Zeiten....

Greetz
U.S.

Unrealswebmaster
2012-10-24, 11:04:14
Hat sich doch so einiges geändert in den Jahren.
2011 sieht es so aus das eine Mittelklasse Graka schon durch einen Mittelklasse Prozi ausgebremst wird.
Z.B. für "Witcher 2" braucht man im Verhältnis deutlich mehr CPU als GPU Power. Mit einer 460 GTX ist man gut dabei, der Prozi sollte aber schon mal nen 5i 2500 sein. AMD ist hier eigentlich komplett raus.
Jo, so ändern sich die Zeiten....

Greetz
U.S.

Das dachte ich auch immer nur leider stimmt es so nicht ganz.

Siehe http://www.forum-3dcenter.org/vbulletin/showthread.php?t=534147

Neon3D
2012-11-14, 11:56:55
der thread ist doch wirklich interessant. besonders jetzt, wo die 8800gt und 9800gtx grafikkarten gegen die neuesten stromsparkarten gewechselt werden.
ich hätte gerne einen benchmark gesehen, der aufzeigt, was besser skaliert, ein cpu upgrade oder ein gpu upgrade.
mein ursprüngliches system:
intel quad core q8200 @ 2850mhz (umstieg von dual core e2180@2800mhz auf q8300 hat extrem viel in battlefield bc an fps gebracht !!! von einstmals ruckeligem lag-spielen im multiplayer zu einwandfreiem flüssigem spielen mit +60fps)
6gb ram
nvidia gt8800 512mb

ein cpu upgrade mit z77 mainboard, 8gb ram, i5 kostet 300€. das gpu upgrade auf die 660gtx 200€ und deutlich weniger aufwand bei einbau und keine neuinstallation von win7. daher habe ich mich für das gpu-upgrade entschieden. win7 grafiktreiber deinstalliert, ccc gesäubert und neuesten whql-nvidiatreiber installiert.

nun habe ich mich an den 3dc gpu benches orientiert, welche nach 3dc index ein upgrade auf eine nvidia gtx 660 280% bringen, also eine 2.8fache verbesserung zur 8800gt/9800gtx. das kann ich 100% bestätigen. bei furmark 1.9.1 hatte ich im 1080p test mit der 8800gt 10fps avg. und nun mit der 660gtx 29fps avg., also 290%.

die frage ist, wie es im multiplayer bei z.b. bf3 verhält. mit der 8800gt lief alles auf 1280x960 @ "low", kein aa, 8xaf. ingame lief es mit 30-50fps (ich habe max fps auf 50 gesetzt). wenn viel geballert wurde, besonders auf 32+ spieler-servern lief es stets bei 30-35 fps.

mit der 660gtx spiele ich nun 1280x960 @ low, wobei mesh&texturqual. @ medium, fxaa auf low und 16xaf. die fps sind überwiegend bei 50fps, jedoch in gefechten besonders bei 32 und 64 spielerservern geht es auf 30-40fps runter, also recht ähnlich zu dem was ich bisher hatte, aber mit besserer optik.

mein eindruck ist, das das gpu upgrade bis max 24spieler deutliche verbesserungen gebracht hat, sowohl optische als auch spielerische. die fps einbrüche sind kaum vorhanden. ab 32 spielern hängt es noch von der größe der map ab und wieviel gerade passiert. hier kommen die ersten einbrüche. bei 64 dann doch recht häufig. wer haupsächlich auf 64er servern spielt, wäre wohl mit einem cpu-upgrade besser bedient, darunter eher das gpu-upgrade.

john carmack
2014-10-08, 09:12:38
Hi Leute,

kann mir jemand sagen was für eine Grafik-Karte ich für XCOM, Diablo3 und Divinity Original Sin bei einer 4K Auflösung brauche?

Möglichst günstig bitte ;)

seb74
2016-06-22, 17:35:38
Ein Asbach-Thread den ich wiederbelebe, doch angesichts vom Polaris Launch stelle ich mir gerade diese Frage. Habe eine Msi GTX750ti und einen i3-4150 Haswell, mit kleiner Macke. dh er erkennt nach Köpfen des HS nur noch Singlechannel RAM, ansonsten ist alles OK, GPU läuft und alles primestabil mit allen 4 Cores(HT).. daher nur 4GB Ram, zweiter 4GB wird nicht erkannt. Nun sollte ich lieber auf kleinen i5 upgraden (zb i5 4440/60), 8GB Dualchannel nutzen und als ein Gelegenheits-Zocker meist älterer Games die 750ti behalten oder lieber solange es noch geht die TI verkaufen und eine kleine Polaris kaufen? Mein 3Dmark11 Graphic Score ist ca 5500, RX460 soll da mind 7500 liefern.. RX470 oder gar die kleine RX460 kaufen, wenn sie spürbar schneller als 750ti ist und ähnlich stromsparend ist?

Fliwatut
2016-06-22, 18:10:13
Wenn dir die Performance der 750ti reicht, dann gibt es keinen Grudn zu wechseln. ist sie dir zu langsam, dann kauf eine Neue. Welche RX es dann wird, musst du entscheiden, sobald es richtige Tests und Benchmarks gibt.

calimero177
2016-09-29, 09:05:07
Hallo zusammen,

ich hätte gerne eine Aufrüstungsempfehlung für meinen aktuellen PC da mein 24 Zoll Monitor in kürze durch einen 34 Zoll UWQHD Monitor (Samsung S34E790C ) abgelöst wird . Nach kurzem überfliegen meiner aktuellen Konfiguration denke/hoffe ich "sollte" eigentlich nur die Grafikkarte aufgerüstet werden müssen - oder liege ich da etwa falsch?

Hier die Kernkomponenten des aktuellen PCs:

- Gigabyte Radeon HD 7950, 3GB GDDR5, PCI-Express
- Intel Core i5-3570K Box, LGA1155
- ASRock H77 Pro4/MVP, Sockel 1155, ATX
- 8GB-Kit G.Skill Sniper PC3-14900U CL9-10-9-28

- Samsung SSD 840 120GB SATA 6Gb/s
- BitFenix Shinobi Midi-Tower USB 3.0 black
- be quiet! STRAIGHT POWER BQT E9-450W 80+Gold
- Toshiba DT01ACA Series 1TB, SATA 6Gb/s

Momentan spiele ich ausschließlich WoW am PC - mit dem großen Monitor möchte ich für die Zukunft aber natürlich auch für weiteres gerüstet sein ohne jetzt blind den Aufschlag für absolute High-End Produkte zu zahlen. Macht es Sinn auf SLI-Fähigkeit für ein evtl. späteres Upgrade zu achten bzw. zu planen?

Vielen Dank für jede Empfehlung, gerne auch konkrete Produkte.

Screemer
2016-09-29, 09:14:03
erst mal ne ernst gemeinte frage: warum willst du >700€ ein gerät ohne g/a-sync kaufen?

zweite frage. was würdest du für die kombination von monitor und gpu max ausgeben wollen?

calimero177
2016-09-29, 09:50:45
Der Monitor ist ein Kompromiss - sagen wir mal so, ich zahle nichts für den Monitor, dafür darf er jedoch nicht als "Gaming-Monitor" zu erkennen sein. Und leider habe ich nichts gefunden mit G-Sync was nicht gleichzeitig großartig mit dem Gaming-Tag bepflastert ist. Falls da auch jemand eine Empfehlung hätte wäre das super. Ansonsten bleibt es halt beim Samsung, der bis auf Sync ansonsten ja ein sehr guter Monitor sein soll.

Der Monitor bleibt also aus der Kombination meiner ausgaben definitiv draußen.
Bei der GPU bin ich nicht festgelegt, nur wie gesagt - ich möchte nicht unbedingt HighEnd zahlen ohne es wirklich auch in nährer Zukunft zu brauchen.
Aktuell scheint mein bei 450€ für eine 1070er und 670€ für eine 1080er zu liegen. Ich frage mich ob ich den Aufpreis wirklich investieren soll um auf absehbare Zeit Ruhe zu haben - oder ob dann in Zukunft evtl. ein Mainboard-Upgrade in Kombination mit einer 1070er SLI sinnvoller zu sein scheint.

Hier ein UWQHD Benchmark zu WoW auf der pcgameshardware.
Demnach würde zumindest für dieses Spiel eine 1070er vollkommen ausreichen:

http://www.pcgameshardware.de/World-of-Warcraft-Legion-Spiel-55966/Specials/Legion-Test-Benchmarks-1204205/
(Über den Klick auf "Benchmarks" in der Tabelle kann man die Auflösung einstellen)

Fliwatut
2016-09-29, 10:30:00
Der Monitor ist ein Kompromiss - sagen wir mal so, ich zahle nichts für den Monitor, dafür darf er jedoch nicht als "Gaming-Monitor" zu erkennen sein.
Woran erkennt man denn einen Gaming Monitor, zB. einen Acer Predator?

calimero177
2016-09-29, 11:17:11
Abgesehen davon das es bei den meisten Anbietern in der Produktbezeichnung auftaucht ist z.b das Produktdesign beim Acer Predator doch stark auf "cool" und "edgy" ausgelegt - siehe z.b Predator-Schriftzug und -Logo an der Monitorfront. Alles Geschmackssache, ich persönlich müsste es nicht haben weil es auf mich eher kindisch wirkt, würde mich aber nicht unbedingt vom Kauf abhalten - in diesem speziellen "Beschaffungsfall" ist es aber definitiv Ausschlusskriterium.

Mortalvision
2016-10-12, 12:19:24
Wenn es um den Begriff Gaming geht, hat das Finanzamt kein Problem damit. Produktnamen interessieren die nicht, nur Produkte. Genauso das Jobcenter, falls es daran hängt. Also kauf Dir besser keine 100 Tonnen Blumenerde, 200 kg Hanf-Saatgut und 50 Gewächsbänke mit Infrarotlampen, wenn Du einen Blumenladen betreibst :D

Zu Deiner Frage: ja, auf jeden Fall eine 1070, weil WoW wohl nicht ohne Updates/technische Verbesserungen bleiben wird. Und WoW hat auf nVidia hin optimiert. Ende, aus :)

Jens44
2018-01-05, 07:29:00
Wow das ist wirklich sehr umfangreich geschrieben....

MorPheuZ
2018-11-08, 13:29:06
Hast du deinen PC schon? Für WoW würde ich dir min. eine 1080Ti für 1440p UWQHD empfehlen. Sobald AA oder SSAA ins Spiel kommt, wir deine Kiste mühe haben 60 fps zu halten bei viel Vegetation (Wald). Die enorme Dichte und Sichtweite der Objekte wird deine HW ins schwitzen bringen ;) Schnelle CPU ist auch nicht verkehrt.

Unrealswebmaster
2018-11-08, 20:10:45
Naja habe WQHD mit Intel 8700K und ne 1080, alles auf Anschlag gestellt bei WOW und immer min. 75 fps, sollte mal Vsync auschalten wieviel ich wirklich schaffe :biggrin:

WOW würde ich nicht als Hardware hungrig beschreiben nur als schlecht programmiert.

Bei Battlefield 1 habe ich unter WQHD 125 fps natürlich ohne Vsync, Monitor kann nur 75 HZ und das Game fordert deine Hardware.