PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 131 64-Bit CPUs in aktuellen Anwendungen @ Hardware.fr


AnarchX
2009-11-20, 11:16:59
Hardware.fr wieder mal mit einem Monster-Test von 131 CPUs aus den vergangenen Jahren:
http://www.hardware.fr/articles/778-1/comparatif-geant-131-processeurs-intel-amd.html

Für den einen oder anderen Upgradewilligen sicherlich interessant und auch so bietet der Test interessante Einblicke in die Entwicklung der CPU-Leistung.

Gast
2009-11-21, 18:46:01
Die Franzosen liefern sich einen netten Wettkampf. :eek:

Gast
2009-11-21, 18:58:22
Bei den Anwendungen allerdings nur wenig hilfreich.

Gast
2009-11-21, 19:18:05
Wir wissen jetzt, das es ein i7 in diesen Anwendungen weitaus schneller als ein Pentium D ist.

Auch interessant:
Ein 2Ghz Allendale mit gerade mal 512KiB L2 (E1400) ist unterm Strich so schnell wie ein 3,4Ghz Presler 2x2MiB L2 (950). :eek:
Wahnsinn, wie die Core-Architektur, die doch in dem Fall ganz erheblich beschnitten wurde noch so performt.

=Floi=
2009-11-21, 19:38:27
es gibt (vor allem büro) anwendungen, da spielt der beschnittene cache keine rolle und er ist bei taktgleichheit so schnell wie ein modell mit mehr cache! das möchte ich hier noch anmerken.

Botcruscher
2009-11-21, 19:55:01
Was nutzen dir die Büroanwendungen wenn der Haupteinsatzzweck 3D Anwendungen und damit Spiele sind? Da ist man um jedes bisschen Cache dankbar.

Gast
2009-11-21, 20:29:16
In dem Beispiel hat der Pentium D mal eben 8fach so viel L2 und braucht dennoch noch 70% mehr Takt.
Auf wieviel Cache muss man Core 2 noch beschneiden, damit der Pentium D bei gleichem Takt gleichzieht?

=Floi=
2009-11-21, 20:44:58
wo ist denn da die logik dahinter? einen celeron 1400 schießmichtot verbaue ich in einem bürorechner und hier hat man mit solch einem günstigen prozessor sehr wenig geschwindigkeitsverlust im vergleich mit den teureren modellen. ein celeron ist sicherlich keine spieleprozessor oder für teure und leistungshungrige anwendungen gedacht. in diesem speziellen fall kann man sich eine menge geld sparen und trotzdem eine sehr gute cpu kaufen. ich erinnere hier mal an die alten celeron, welche dann überall lahm waren und nichts taugten! im direktern vergleich dazu
haben sich die zeiten mächtig geändert.

ich bevorzuge ja auch eher die besseren modelle mit mehr cache und deren preis ist auch gerechtfertigt. noch dazu gibt es eine reihe weiterer vorteile wie stromsparmechanismen oder VT-features etc.

Sonyfreak
2009-11-21, 22:23:28
Ich finde es aber sehr interessant, dass sich die P4EE mit ihren 4 Threads doch ein ganzes Stück von den Kollegen absetzen können.

mfg.

Sonyfreak

Gast
2009-11-22, 20:05:06
In Crysis is die Graka wegen den "sehr hohen einstellungen" die stark limitierende Komponente! Is ja einfach nur lächerlich das ein core i7 975 mit 3,33 ghz so schnell sein soll wie ein core i5 2,66ghz!

Mfg Lu

Coda
2009-11-22, 20:06:59
Ich finde es aber sehr interessant, dass sich die P4EE mit ihren 4 Threads doch ein ganzes Stück von den Kollegen absetzen können.
Der EE hat auch zusätzliche 2MiB L3 ;)

sklave_gottes
2009-11-22, 21:03:21
Der EE hat auch zusätzliche 2MiB L3 ;)

nein der EE dualcore hat keinen L3


Der einzigen EE mit L3 waren singel cores

mfg martin

Gast
2009-11-22, 23:49:04
In Crysis is die Graka wegen den "sehr hohen einstellungen" die stark limitierende Komponente! Is ja einfach nur lächerlich das ein core i7 975 mit 3,33 ghz so schnell sein soll wie ein core i5 2,66ghz!

Umso beieindruckender, das das restliche Feld dennoch so weit zurück liegt.

Cherubim
2009-11-23, 14:04:52
nein der EE dualcore hat keinen L3


Der einzigen EE mit L3 waren singel cores

mfg martin

Korrekt. Das waren Xeon MPs "Gallatin".

ROXY
2009-11-24, 15:55:40
anhand der benches limitiert fast nur die grafikkarte - sehe da kaum unterschiede zwischen den letzen 2 CPU generationen.
der unterschied zw. i5 und i7 ist mehr oder weniger in der praxis = 0

170 secs zu 210 secs ... wayne interessierts? XD

Ronny145
2009-11-24, 18:33:50
anhand der benches limitiert fast nur die grafikkarte - sehe da kaum unterschiede zwischen den letzen 2 CPU generationen.
der unterschied zw. i5 und i7 ist mehr oder weniger in der praxis = 0

170 secs zu 210 secs ... wayne interessierts? XD


Zählst du i5 und i7 etwa als unterschiedliche Generation? i5 ist ein beschnittener i7, trotzdem kann man die Vorteile des SMT in einigen Anwendungen mehr als deutlich sehen. Und ob 210 oder 300 Sekunden? Wayne interessierts. ;D

Das könnte man immer so weiter fortsetzen. Wenns nach dir ginge, wären wir noch beim Pentium 4 oder wie?

vinacis_vivids
2009-11-24, 19:58:56
Ich verstehe nicht, warum die bei den Spielen unter 800x600 testen. Da ist doch überhaupt kein Realitätsbezug da. Ich kauf mir doch keinen i7, um Anno 1404 mit ner Auflösung von 800x600 zu spielen.

Ronny145
2009-11-24, 20:08:34
Ich verstehe nicht, warum die bei den Spielen unter 800x600 testen. Da ist doch überhaupt kein Realitätsbezug da. Ich kauf mir doch keinen i7, um Anno 1404 mit ner Auflösung von 800x600 zu spielen.


Das ist kein Spielepraxis Test, sondern ein CPU Test mit möglichst wenig limitierenden Faktoren, um so bestmöglich die Unterschiede der möglichen Leistungsfähigkeit aufzuzeigen. Es wäre doch absurd 131 CPUs in 2560x1920 zu testen, um dann fast überall die gleichen Ergebnisse zu erhalten. So wurden zwar maximale Einstellungen gewählt, dafür eine geringe Auflösung. Aber zumindest in GTA4 hätte man auch eine höhere Leistung nehmen können, ist halt sehr CPU abhängig das Spiel.

LeChuck
2009-11-24, 23:00:18
Das ist kein Spielepraxis Test, sondern ein CPU Test mit möglichst wenig limitierenden Faktoren, um so bestmöglich die Unterschiede der möglichen Leistungsfähigkeit aufzuzeigen. Es wäre doch absurd 131 CPUs in 2560x1920 zu testen, um dann fast überall die gleichen Ergebnisse zu erhalten. So wurden zwar maximale Einstellungen gewählt, dafür eine geringe Auflösung. Aber zumindest in GTA4 hätte man auch eine höhere Leistung nehmen können, ist halt sehr CPU abhängig das Spiel.

Genau! Um die CPU zu testen nutzt man games mit geringer Auflösung damit die GRaka nicht limitiert.

Gast
2009-11-25, 23:14:26
Unverständlich, das selbst ihm 3DCenter so viele nicht wissen wie man CPUs testet.

vinacis_vivids
2009-11-25, 23:50:36
Genau! Um die CPU zu testen nutzt man games mit geringer Auflösung damit die GRaka nicht limitiert.

Das ist kein Spielepraxis Test, sondern ein CPU Test mit möglichst wenig limitierenden Faktoren, um so bestmöglich die Unterschiede der möglichen Leistungsfähigkeit aufzuzeigen. Es wäre doch absurd 131 CPUs in 2560x1920 zu testen, um dann fast überall die gleichen Ergebnisse zu erhalten. So wurden zwar maximale Einstellungen gewählt, dafür eine geringe Auflösung. Aber zumindest in GTA4 hätte man auch eine höhere Leistung nehmen können, ist halt sehr CPU abhängig das Spiel.


Und welche Erkenntnisse kann ich als Spieler davon gewinnen? Aja ich muss jetzt Anno 1404, GTA4 und Crysis auf 800x600 einstellen um mich am i7 aufzugeilen. Ganz toll. :freak:
So auf Mainstream Auflösung wie 1680x1050 oder 1920x1200 spielt wohl niemand. Gibt wohl nur Leute die 800x600 oder 2560x1600 spielen. Ja ne ist klar.

Gast
2009-11-26, 00:01:07
Guck dir doch ruhig weiter die CB Benches an.
Da kannst du dir die Timedemos nicht fordernder Spiele reinziehen.
Super praxisrelevant.

Ich nehme an du hast den hardware.fr Artikel nicht gelesen? Schade, den sonst könntest du uns erklären was z.b. mit den 30FPS des i7/i5 aus Crysis in höherer Auflösung passiert.
Steigen sicherlich? :rolleyes:

Coda
2009-11-26, 00:33:32
Ich verstehe nicht, warum die bei den Spielen unter 800x600 testen.
Weil man den Bottleneck auf die CPU reduzieren will. Höhere Auflösungen keinen Einfluss darauf wieviel CPU-Leistung nötig ist. Idealerweise sollte man sogar die Grafikkarte völlig ausblenden.

Man will ja schließlich wissen wie gut eine CPU auch Aufgaben gewachsen ist, wenn sie doch mal limitiert in Zukunft oder an fordernden Stellen in heutigen Spielen.

vinacis_vivids
2009-11-26, 00:45:43
Guck dir doch ruhig weiter die CB Benches an.
Da kannst du dir die Timedemos nicht fordernder Spiele reinziehen.
Super praxisrelevant.

Ich nehme an du hast den hardware.fr Artikel nicht gelesen? Schade, den sonst könntest du uns erklären was z.b. mit den 30FPS des i7/i5 aus Crysis in höherer Auflösung passiert.
Steigen sicherlich? :rolleyes:

Jo mei. Du bist ja ein ganz schlauer Bursche. Wahrscheinlich bist du so clever und spielst Crysis very high unter 800x600.

Coda
2009-11-26, 00:55:04
Du raffst es wirklich nicht, oder?

Es soll die Geschwindigkeit der CPU gemessen werden, nicht des Gesamtsystems. Wenn ich etwas messe, dann muss ich doch andere Faktoren so gute es geht ausblenden.

CPUs kauft man schließlich nicht nur für hier und jetzt, sondern auch für Morgen und die Anforderungen steigen mit Sicherheit.

Die Benchmarks in hohen Auflösungen sind meiner Meinung nach nur dazu gut abzuschätzen was man heute braucht um irgendwas noch flüssig spielen zu können. Die relative Leistung zueinander kann man durch das GPU-Limit aber kaum noch abschätzen.

Der HeinZ
2009-11-26, 08:20:08
Unverständlich, das selbst ihm 3DCenter so viele nicht wissen wie man CPUs testet.

Eigentlich wissen es alle, : Möglichst gute Unterschiede bekommt man halt mit kleineren Auflösung, da so die GPU nicht ins Limit rennt, ABER das hat in der Tat keinen Realitätsbezug... es gibt hier einfach kaum jemanden der diese Auflösung nutzt, was nicht heißt das es niemanden gibt. Aber wer kauft sich schon eine 1000 € CPU zum zocken, wenn er nur eine 50 - 0 € Grafikkarte (sämtliche PCI Grafikarten) hat, die selbst einen Pentium 1 ausbremst. Es gibt Menschen die das machen, aber die nutzen dieses System dann garnicht zum spielen. Beispielsweise ist sowas toll wenn man Videobearbeitung macht und den PC samt kleiner Grafikarte mit Videobeschleunigung gleichzeitig an seinem HD Fernseher hängen hat und beim arbeiten DVD-oder Blueray guckt, während sich die Arbeit auf extremes bearbeiten und oder einfaches codieren von Videomaterial bezieht. Da reicht schon ne onboard HD3200 und man kann beides gleichzeitig machen ohne ruckelnde Videos und (beinahe) voller Geschwinigkeit beim codieren.
Das ist eben eine PC Plattform, und hier wird es immer einen Balance-Akt zwischen GPU und CPU im Spielebereich geben, außer man vereint die beiden irgendwann, so das nurnoch eine Komponente gibt , welche die leistung bestimmt.
Aber dann wirds langweilig...... Zumindest für mich!
Reine CPU-Tests bringen da natürlich ein bißchen mehr aufschluss über die Leistung der CPU, dann aber eben nicht für Spiele.

Gast
2009-11-26, 11:16:06
Eigentlich wissen es alle, : Möglichst gute Unterschiede bekommt man halt mit kleineren Auflösung, da so die GPU nicht ins Limit rennt, ABER das hat in der Tat keinen Realitätsbezug... es gibt hier einfach kaum jemanden der diese Auflösung nutzt, was nicht heißt das es niemanden gibt.
Problem an der Sache ist, das die Timedemos/sonstwas wie nicht forderne Szenen oder Spiele viel weniger realitätsbezug haben.
Was interessieren mich die 200Fps in der Timedemo, wenns im Spiel nur 30Fps sind? Was interessiert mich Spiel X, wenn Spiel Y nach CPU Leistung giert?

Die gewonnen Daten sind da unabhängig von der Auflösung schlicht und ergreifend wertlos.
Man kann sie direkt nach dem Erfassen in die Tonne treten.
Schade um die Arbeit.

Nehmen wir als Gegenbeispiel den Anno1404 Test bei hardware.fr.
Der schnellste i7 schafft 46Fps, der schnellste QX gerade noch 31Fps, noch langsamere CPUs gibt es außerdem.
Mit höherer GPU Last wird es kein bisschen besser. Diese reale Situation macht mit der schnelleren CPU mehr Spass. Kaum jemand wird mittels GPU Last die FPS auf unter 10 FPS drücken. Man wird versuchen die 30-40FPS zu halten. Schwierig bzw unmöglich mit all den CPUs die gar nicht erst auf 30Fps kommen.


Reine CPU-Tests bringen da natürlich ein bißchen mehr aufschluss über die Leistung der CPU, dann aber eben nicht für Spiele. Man könnte komplette Systeme gegeneinandertesten.
CPU X1 + GPU Y1 vs CPU X2 + GPU Y2 vs ....
Aber auch hier bitte reale Spiele nehmen.

Für den Leser wird das auf jeden Fall höllisch kompliziert. Einfach einen CPU Test und dann einen GPU Test zu lesen ist weitaus einfacher.
Er sieht dann: Aha, CPUX reicht für 30Fps in High-details in SpielsituationZ. Aha, GPUY reicht für Auflösung bla in Spielsituation blub.

Der HeinZ
2009-11-26, 13:05:02
Das mag richtig sein... Aber du wirst immer das Problem haben das du nicht alle user und alle System konfigurationen testen kannst. Der beste Indikator bleibt einfach das separate testen der GPU und CPU, solange es nich eine einheitliche Plattform gibt, welche beides in einem vereint, soetwas wie larrabee. Klar ist das blöd, aber dies ist numal ein Pc, welcher einer spezieleren Ausbalancierung bedarf, als eine Konsole! dadurch kann einfach kein test soviel informationen bieten wie sich manch ein User wünscht und wie du schon sagtest, eventuell überfordert das andere. Diese Tests sind Indikatoren, als anhaltspunkt um zu schauen, was man erwarten kann oder könnte.

Die geschichte mit den Timedemos sehe ich jetzt erstmal genauso, allerdings wer sagt mir das das spiel nach einem realem Test trotzdem nicht noch Szenen beinhaltet die nicht Spielbar sind! Schau die Gothic 2 an! Sollte auf einem aktuellen Rechner ganz passabel laufen in jeder Szene... Nein tut es aber nicht... Mega CPU ist hier trotz Monstergrafikarte Bottleck.


So kommt man nicht weiter... so blöd das auch klingt, aber Pc ist im Gegensatz zu Konsole halt immer ein kleines glücksspielchen. Aber es treibt dadurch die Hardware und entwicklung sehr stark voran, da man ja irgendwann jeden befriedigen möchte. Tests sollte man immer als Indikator nehmen, sie sind nicht unfehlbar, aber als Hilfe sehr wohl nützlich!
Gruss Matthias

Ronny145
2011-05-31, 12:49:59
Hardware.fr wieder mal mit einem Monster-Test von 131 CPUs aus den vergangenen Jahren:
http://www.hardware.fr/articles/778-1/comparatif-geant-131-processeurs-intel-amd.html

Für den einen oder anderen Upgradewilligen sicherlich interessant und auch so bietet der Test interessante Einblicke in die Entwicklung der CPU-Leistung.


Der Test wurde aktualisiert, es sind jetzt 184 CPUs.

http://www.hardware.fr/articles/778-1/comparatif-geant-184-processeurs-intel-amd.html

Spasstiger
2011-05-31, 12:58:07
Der Test wurde aktualisiert, es sind jetzt 184 CPUs.

http://www.hardware.fr/articles/778-1/comparatif-geant-184-processeurs-intel-amd.html
Die GTA-IV-Benchmarks sind interessant. Ein Sandy Bridge Dual-Core ist bei gleichem Takt schneller als ein Yorkfield Quad-Core. Man braucht keine Quad-Cores mehr für GTA IV (wobei es natürlich nicht schadet).

dargo
2011-05-31, 13:13:39
Die GTA-IV-Benchmarks sind interessant. Ein Sandy Bridge Dual-Core ist bei gleichem Takt schneller als ein Yorkfield Quad-Core.

Ich finds sie eher langweilig (wie übrigens den größten Benchmarkmüll im Netz). Erstens überwiegend gpu-limitiert und zweitens ist am schlechten Abschneiden vom Kentsfield und Yorkfield dank der vermurksten Architektur nichts Ungewöhnliches zu sehen. Schon lange bekannt.


Man braucht keine Quad-Cores mehr für GTA IV (wobei es natürlich nicht schadet).

Und das leitest du von diesem nichtssagenden Test ab? Für GTA IV braucht man weiterhin einen sehr starken Quad für max. Details, genauso wie eine sehr starke Grafikkarte.

Spasstiger
2011-05-31, 13:16:19
Als GTA IV erschien, galten die Core 2 Quad als Referenz für das Spiel. Und was ist an einem Setting, das bei ~40 fps GPU-limitiert ist, so verkehrt? Ich würde auch nicht mit einer höheren Framerate zocken und die Grafikeinstellungen entsprechend aufbohren.

dargo
2011-05-31, 13:27:39
Als GTA IV erschien, galten die Core 2 Quad als Referenz für das Spiel.

Ich sag doch nicht, dass ein C2Q bei gleicher Taktrate nicht schneller ist als ein C2D. Natürlich kann der Quad noch was drauflegen. Er wird aber niemals sein volles Potenzial bei entsprechender Software ausspielen können wie ein nativer Quadcore. Zumindest nicht in Games wo alle Cores untereinander schnell kommunizieren müssen.


Und was ist an einem Setting, das bei ~40 fps GPU-limitiert ist, so verkehrt? Ich würde auch nicht mit einer höheren Framerate zocken und die Grafikeinstellungen entsprechend aufbohren.
Du spielst also mit 800x600 GTA IV? Und wer sagt, dass die Szene (haben die überhaupt ein Savegame genommen oder wieder den beklopten intergrierten Benchmark?) vom Tester überhaupt stark cpu-fordernd war? Wenn der Tester in Szene X 40fps misst ist es kein Ding der Unmöglichkeit, dass Szene Y 20fps liefert.

Nightspider
2011-05-31, 13:33:00
GTA4 ruckelt mit avg 40fps immernoch viel zu stark. 40fps im minimum wären ja okay aber nicht als avg, weil es teils heftige drops in GTA4 gibt.

Ronny145
2011-05-31, 13:37:34
Du spielst also mit 800x600 GTA IV? Und wer sagt, dass die Szene (haben die überhaupt ein Savegame genommen oder wieder den beklopten intergrierten Benchmark?) vom Tester überhaupt stark cpu-fordernd war? Wenn der Tester in Szene X 40fps misst ist es kein Ding der Unmöglichkeit, dass Szene Y 20fps liefert.

GTA IV is included in the protocol for its weight and multi-threading optimisations. Once again all the settings were pushed to a maximum, with the exception of the textures so as not to exceed available video memory, all at a res of 800x600. We use the built-in benchmark but on a scene chosen by us for more weight than the default.

GeForce GTX 280

Die Ergebnisse sind oben raus GPU limitiert. Problem ist halt, dass hardware.fr mit einer neuen Grafikkarte alle CPUs nochmal neu testen müsste. Deswegen scheuen die sich davor. Na immerhin haben die in geringer Auflösung getestet.

dargo
2011-05-31, 13:49:33
Die Ergebnisse sind oben raus GPU limitiert. Problem ist halt, dass hardware.fr mit einer neuen Grafikkarte alle CPUs nochmal neu testen müsste. Deswegen scheuen die sich davor. Na immerhin haben die in geringer Auflösung getestet.
Wie testen die überhaupt GTA IV? Mit Savegame oder Timedemo? Letzteres kann man sich gleich sparen. Ersteres ohne genaue Angaben zum CPU-Limit ist genauso für den Anus. Ich frage mich was der ganze Aufwand soll wenn die Ergebnisse eh zu nichts führen. :facepalm:

AnarchX
2011-05-31, 15:29:48
We use the built-in benchmark but on a scene chosen by us for more weight than the default.
http://www.behardware.com/articles/778-12/giant-roundup-168-intel-and-amd-processors.html

dargo
2011-05-31, 15:41:07
Meine Englischkenntnisse lassen zu wünschen übrig. Wenn ich den Googleübersetzer richtig verstanden habe verwenden die die intergrierte Timedemo, nur halt eine Szene die sie für wichtiger erachten? Na bravo. :uclap:

Spasstiger
2011-05-31, 15:46:07
Ich halte den Benchmark von hardware.fr auch für repräsentativ, wenn es um fordernde Szenen geht, die Frameraten decken sich mit eigenen Erfahrungen aus dem Spielablauf mit verschiedenen CPUs.
Der integrierte Benchmark verhält sich analog zur Performance der gleichen Szene im eigentlichen Spiel, da konnte ich keine Unregelmäßigkeiten ausmachen. Die Takt- und Kernskalierung ist absolut identisch. Auch hier im Benchmark-Forum wird der integrierte Benchmark mit angepasster Szene verwendet, genau wie bei hardware.fr.
Diese Gehässigkeit gegenüber hardware.fr überrascht mich ohnehin, hab ich was verpasst? Oder hat dargo nur einen schlechten Tag?

dargo
2011-05-31, 16:02:48
Ich halte den Benchmark von hardware.fr auch für repräsentativ...

Ich nicht.

Der integrierte Benchmark verhält sich analog zur Performance der gleichen Szene im eigentlichen Spiel, da konnte ich keine Unregelmäßigkeiten ausmachen. Die Takt- und Kernskalierung ist absolut identisch.

Ich kenne in GTA IV deutlich lastigere Szenen.


Auch hier im Benchmark-Forum wird der integrierte Benchmark mit angepasster Szene verwendet, genau wie bei hardware.fr.

Dadurch sind die Ergebnisse auch nicht aussagekräftig.


Diese Gehässigkeit gegenüber hardware.fr überrascht mich ohnehin, hab ich was verpasst? Oder hat dargo nur einen schlechten Tag?
Das hat nichts mit hardware.fr allein zu tun. Es nervt einfach nur wenn 99% der Benchmarker immer noch nicht begriffen haben wie man CPUs in Games testet. Und dann wird dieser Müll ständig noch verlinkt und dargestellt als ob diese Tests irgendwas mit dem Zeigen der Leistungsfähigkeit diverser CPUs zu tun hätte.

Ronny145
2011-05-31, 16:10:26
Ich halte den Benchmark von hardware.fr auch für repräsentativ, wenn es um fordernde Szenen geht, die Frameraten decken sich mit eigenen Erfahrungen aus dem Spielablauf mit verschiedenen CPUs.
Der integrierte Benchmark verhält sich analog zur Performance der gleichen Szene im eigentlichen Spiel, da konnte ich keine Unregelmäßigkeiten ausmachen. Die Takt- und Kernskalierung ist absolut identisch. Auch hier im Benchmark-Forum wird der integrierte Benchmark mit angepasster Szene verwendet, genau wie bei hardware.fr.
Diese Gehässigkeit gegenüber hardware.fr überrascht mich ohnehin, hab ich was verpasst? Oder hat dargo nur einen schlechten Tag?


Die Gehässigkeit kann ich auch nicht unterstützen. Die Timedemo stört mich noch am wenigsten. Mich stört nur das GPU Limit wegen der eher schwachen Grafikkarten. Trotzdem ist der Mammuttest interessant, gibt ja noch andere Benchmarks im Test.

Spasstiger
2011-05-31, 16:25:14
Mich stört nur das GPU Limit wegen der eher schwachen Grafikkarten.
Das Limit ist für diesen Vergleich zumeist älterer CPUs hoch genug angesetzt, der kleinste Core 2 Duo bringt es nur auf 1/4 der Framerate, die man im GPU-Limit erreichen könnte.

Matrix316
2011-05-31, 16:40:15
Interessant finde ich den Anno Benchmark. Jedes Fitzelchen CPU Power wird genutzt und bringt 1-2 FPS aber nur der i7 2600 K zieht mal so locker vorne weg wie nix.

dargo
2011-05-31, 16:57:57
Das Limit ist für diesen Vergleich zumeist älterer CPUs hoch genug angesetzt...
Ist er das wirklich? Ich habe mir paar Kandidaten rausgepickt.

E8600 - 3333Mhz
E8400 - 3000Mhz
E8200 - 2666Mhz

Gleiche Architektur die sich nur durch die Taktrate unterscheidet.

E8600 = 25,9 fps
E8400 = 24,3 fps
E8200 = 21,9 fps

Der E8600 taktet 25% höher als der E8200. Kann aber bei den Frames nur 18% zulegen. Der E8600 taktet 11% höher als der E8400, legt aber nur 6,5% zu.

Jetzt muss man natürlich aufpassen. Die beiden CPUs E8600 und E8400 takten zwar höher als der E8200, haben aber dabei den gleichen FSB-Takt und die gleiche Speicherbandbreite im Test. Somit können die schnelleren CPUs aufgrund etwas höherer Flaschenhälse gar nicht exakt 1:1 mit dem Takt skalieren. Die Flaschenhälse können aber imho in diesem Beispiel nicht alleine dafür verantwortlich sein, dass die Frames so schlecht mitskalieren. Eine gewisse Messschwankung wird es bei den kleinen fps Unterschieden sicherlich auch geben. Dann kommt noch ein weiterer wichtiger Punkt. Bei so tiefen Frames liegt man garantiert nah an der Grundlast. Wer meinen Thread zur Kernskalierung verfolgt wird sicherlich mitbekommen haben, dass im Bereich der Grundlast eine schnellere CPU überproportional, sprich mehr als 1:1 zulegen kann.

Um es kurz zu machen - ich gehe davon aus, dass die GPU selbst schon beim Wolfdale langsam anfängt zu limitieren. Bei den schnelleren CPUs steigt dementsprechend das GPU-Limit weiter an.

Spasstiger
2011-05-31, 17:02:40
Der E8600 taktet 25% höher als der E8200. Kann aber bei den Frames nur 18% zulegen. Der E8600 taktet 11% höher als der E8400, legt aber nur 6,5% zu.
Deckt sich mit meinen eigenen Erfahrungen, GTA IV skaliert nicht zu 100% mit dem CPU-Takt auf einem Core 2 Duo (bei jeweils gleichem Speichertakt). Der Unterschied zwischen Singlecore und Dualcore ist bei meinem Core 2 Duo E4300 in GTA IV deutlich größer als der Unterschied zwischen 1,8 und 3,0 GHz. Mit Dualcore @ 1,8 GHz ist GTA IV klar besser spielbar als mit Singlecore @ 3,0 GHz.
Für mich sind die GTA-IV-Benchmarks bei hardware.fr nach wie vor diejenigen, die die Ingame-Realität bei fordernden Szenen am Besten abbilden. 26 fps mit einem Core 2 Duo E8600 sind bei einem Amoklauf in Algonquin durchaus realistisch. Auch die Phenom-II-Ergebnisse von hardware.fr passen sehr gut und decken sich mit eigenen Beobachtungen. Ebenso die Core-2-Quad-Ergebnisse (hab zwei Kumpels mit Core 2 Quads).

dargo
2011-05-31, 17:09:03
Interessant finde ich den Anno Benchmark. Jedes Fitzelchen CPU Power wird genutzt und bringt 1-2 FPS aber nur der i7 2600 K zieht mal so locker vorne weg wie nix.
Ist doch ganz einfach. Die höhere Pro/Mhz Leistung von Sandy Bridge macht sich natürlich bemerkbar. Außerdem profitiert Anno noch ganz gut von SMT. Siehe i5-750 vs. i7-920. Hier hat der Tester wohl Glück gehabt und bewegt sich zwar nicht durchgehend im vollwertigen aber sehr hohen CPU-Limit. Spätestens beim i7-2600 limitiert die Graka schon etwas. Kann man wunderbar von anderen Werten ableiten.

Deckt sich mit meinen eigenen Erfahrungen, GTA IV skaliert nicht zu 100% mit dem CPU-Takt auf einem Core 2 Duo (bei jeweils gleichem Speichertakt). Der Unterschied zwischen Singlecore und Dualcore ist bei meinem Core 2 Duo E4300 in GTA IV deutlich größer als der Unterschied zwischen 1,8 und 3,0 GHz. Mit Dualcore @ 1,8 GHz ist GTA IV klar besser spielbar als mit Singlecore @ 3,0 GHz.

Sag mir doch wenigstens die FSB- und Speichertaktraten bei den jeweiligen CPU-Taktraten. Ansonsten kann man damit nicht viel anfangen bzw. irgendwas ableiten.

Spasstiger
2011-05-31, 17:18:30
Sag mir doch wenigstens die FSB- und Speichertaktraten bei den jeweiligen CPU-Taktraten. Ansonsten kann man damit nicht viel anfangen bzw. irgendwas ableiten.
Core 2 Duo E4300 (2 MiB L2-Cache)
Singlecore simuliert per /numproc=1 in der boot.ini.
1,8 GHz = 9*200 MHz (200 MHz FSB)
3,0 GHz = 9*333 MHz (333 MHz FSB)
Speichertakt jeweils 333 MHz (DDR2-667).
Wenn sich das Bios aus irgendwelchen Gründen zurücksetzt und die CPU mit 1,8 GHz läuft, dann merkt man das das Spiel sehr unrund läuft (fast durchweg < 20 fps), aber man kann zumindest noch seine Fahrzeuge halbwegs kontrolliert steuern. Geht man auf Singlecore, dann ist es nur noch eine Diashow mit fps im einstelligen Bereich. Spielbar ist da absolut nix mehr. Deine Grundlasttheorie kann man in GTA IV wohl eher auf die Anzahl an Cores beziehen als auf den Takt.
Auf jeden Fall denke ich, dass ich ruhigen Gewissens aus den Benchmarks von hardware.fr die Aussage ziehen kann, dass ein Core i3-2xxx für GTA IV besser geeignet ist als ein Core 2 Quad Q9xxx. Und genau das war ja meine ursprüngliche Feststellung. Ähnliches hab ich ja auch schon vor Langem für AMD-Prozessoren festgestellt, ein Phenom II X3 (mit vollem Cache) schlägt sich in GTA IV besser als ein Athlon II X4 bei gleichem Takt.
Wer heute einen sparsamen Budget-Prozessor für GTA IV sucht, dem würde ich einen Core i3-2100 empfehlen. Ein etwa gleichteurer Phenom II X4 955 bringt es in GTA IV nicht auf bessere Frameraten, schluckt aber locker dopppelt soviel Saft und ist in den meisten Spielen langsamer als der Core i3.

dargo
2011-05-31, 17:40:34
Core 2 Duo E4300 (2 MiB L2-Cache)
Singlecore simuliert per /numproc=1 in der boot.ini.
1,8 GHz = 9*200 MHz (200 MHz FSB)
3,0 GHz = 9*333 MHz (333 MHz FSB)
Speichertakt jeweils 333 MHz (DDR2-667).

Oje, dieser Vergleich wird schwierig. Für einen fairen Vergleich müsste dein Singlecore mit 3,6Ghz takten, einen FSB von 400Mhz aufweisen, und der Speicher mit DDR2-1333 laufen. Erst dann könnte man eine Aussage treffen ob der 1,8Ghz DC besser läuft als der 3,6Ghz SC. Und ich wette beide würden sich nichts nehmen.


Auf jeden Fall denke ich, dass ich ruhigen Gewissens aus den Benchmarks von hardware.fr die Aussage ziehen kann, dass ein Core i3-2xxx für GTA IV besser geeignet ist als ein Core 2 Quad Q9xxx.
Dem ist so. Dagegen habe ich auch nicht widersprochen. Deine ursprüngliche Aussage lautete:
Man braucht keine Quad-Cores mehr für GTA IV
Das kann man nicht verallgemeinern. Wer mit tiefen fps klarkommt oder bereit ist niedrigere Settings zu wählen, für den trifft das durchaus zu.