PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CB Test: Prozessoren 2010


dildo4u
2010-12-24, 14:49:26
http://www.computerbase.de/artikel/prozessoren/2010/test-prozessoren-2010/#abschnitt_einleitung

Neues Testsystem mit GTX 580.

http://www.abload.de/img/cpubenchxzc1.jpg

x-dragon
2010-12-24, 15:23:58
Schade das der Intel C2Q rausgeworfen wurde, ein Vergleich zu den "alten Prozessoren" dürfte für potentielle Wechsler interessanter sein ...

Lowkey
2010-12-24, 15:37:13
Ja sehr schade

san.salvador
2010-12-24, 15:44:55
Seh ich ebenso. Für mich hat der Test deshalb eigentlich keinen Wert.

dildo4u
2010-12-24, 15:51:19
Man kann als Basis den Phenom 2 x4 nehmen der so ziehmlich die gleiche Pro Mhz Leistung wie ein C2Q.

Schlammsau
2010-12-24, 15:58:05
Das "Performancerating Anwendungen" ist ja mal sehr geil.....der X6 1100T ist an 4 Stelle. Sehr schön!
Beim x264 encoding ist er sogar an zweiter Stelle! :eek: :massa:

Spiele mögen die X6 überhaupt nicht, was mir aber persönlich nichts ausmacht, der X6 hat Power zum Saufuttern.....

:)

SuperHoschi
2010-12-24, 16:28:04
Ich hab einen C2D 3GHz glaub 8400er?
Wo lieg ich da? Weil ich will ca. zu Ostern aufrüsten.

dildo4u
2010-12-24, 16:35:15
Ich hab einen C2D 3GHz glaub 8400er?
Wo lieg ich da? Weil ich will ca. zu Ostern aufrüsten.
Ca auf dem Level mit dem X2 565.

boxleitnerb
2010-12-24, 17:53:40
Endlich hier auch der Beweis, dass sich Werte in "realitätsfernen" Auflösungen mit stärkerer GPU zumindest tendenziell in höhere Auflösungen übertragen lassen. Hoffentlich bringt das die "640x480 ist mimimi" Schimpfer zum Schweigen :rolleyes:

Bei der Leistungsaufnahme und beim Preis wurde leider nicht der Einfluss des Board(-preises) berücksichtigt. Gehört ja auch dazu.

Ronny145
2010-12-24, 20:46:51
Mit der GTX580 sind die Ergebnisse jetzt weiter auseinander gezogen und die Core CPUs hängen deutlich weniger im GPU Limit als vorher mit der HD5870 in 1680x1050. F1 2010 ist trotzdem GPU limitiert. Ist aber schon um einiges aufschlussreicher. Mir fehlt hier auch eine Penryn CPU. Einen Q9550 oder ähnlich haben sicher noch viele im Rechner.

dargo
2010-12-24, 21:02:55
Endlich hier auch der Beweis, dass sich Werte in "realitätsfernen" Auflösungen mit stärkerer GPU zumindest tendenziell in höhere Auflösungen übertragen lassen. Hoffentlich bringt das die "640x480 ist mimimi" Schimpfer zum Schweigen :rolleyes:

Das glaubst du wohl selbst nicht. :D :usad:

Zum Test selber - nur weil jetzt die schnellste Single-GPU-Grafikkarte verbaut ist ist die Vorgehensweise an die Tests mit Games nicht unbedingt besser. Das Beispiel mit Arcania zeigt es wunderbar. Man testet zwar mit einem Savegame, und zwar mit einer 80 sekündigen Testszene. Dass diese Testszene im Durchschnitt mal wieder völlig verzerrte Werte wiederspiegelt sieht man sehr schön hier. Der Phenom II X2 265 gibt sich bei den avgs. noch mit >30fps als eine durchaus gute Spiele-CPU aus. Bei den min.fps versagt diese CPU völlig.
Hier also wieder meine Kritik an viel zu langen Savegames. Das gewählte Savegame scheint überwiegend gpu-limitiert zu sein. Das sieht man selbst schon daran, dass bei den avgs. spätestens ab dem i5-760 aufwärts alles gpu-limitiert ist. Interessant wäre hier allerdings zu erfahren wie oft die langsame CPU in den 80 Sekunden unter 30fps liegt, wenn man denn 30fps noch als flüssig spielbar definieren möchte. Ich weiß, dass ich zuviel verlange. Den Aufwand bei solchen Tests kenne ich zu genüge. ;)

Jaja, CPU-Tests mit Games ist schon eine Wissenschaft für sich. :D

Armaq
2010-12-24, 22:03:40
Damit gehst du aber am Erlebten vorbei. So tief im Detail muss vll. ein Ingenieur von AMD/Intel die CPU testen, um weiter zu optimieren, aber für den User ist die Tabelle doch super.

boxleitnerb
2010-12-24, 22:41:41
Das glaubst du wohl selbst nicht. :D :usad:


Ich hoffe es zumindest :D

Ich plädiere weiterhin dafür, irgendwas anderes als die min-fps einzuführen. Kommen sie von der CPU oder GPU, sind sie reproduzierbar, wie oft kommt man in die Nähe des Minimums...zu viele Fragen, um sich auf einen Wert zu verlassen. Marc schaut sich das wenigstens genauer an, bei Volker glaube ich das nicht. Das soll kein Vorwurf sein, ist halt wieder zusätzliche Arbeit. Wir hatten ja schon öfters über Möglichkeiten diskutiert - hauptsächlich sollten mehrere Werte einfließen, um Anomalien und Fehler auszuschließen. Die langsamsten 10-20% oder sowas und wie lang man sie in einer bspw. 20-sekündigen Teststzene auftreten (prozentual oder so). Um Welten sinnvoller als ein popliger Wert, an dem sich Fanboys aufhängen können ;)

Dann wie du sagtest, kürzere Szenen, um auch wirklich hauptsächlich CPU-Limit zu haben. Und wenn wir schon dabei sind - SLI :tongue:

Undertaker
2010-12-24, 23:30:50
Mit SLI/CF muss man vorsichtig sein, um nicht Gefahr zu laufen, sich einen zusätzlichen Einflussfaktor (Anzahl PCIe-Lanes) auf die Ergebnisse zu schaffen... Imho muss das aber auch gar nicht sein. Mögliche Alternativen wären (wie auch in GPU-Tests die CPU) die GTX580 noch weitestmöglich zu übertakten sowie generell forderndere Szenen zu nutzen. In den meisten Spielen sollten sich damit problemlos auch vollständige CPU-Limits finden lassen.

Fetza
2010-12-25, 03:00:57
Erstaunlich, wie gut der phenom II noch mithalten kann. Liegt das an der zunehmenden quad-core optimierung?

dildo4u
2010-12-25, 03:10:31
Erstaunlich, wie gut der phenom II noch mithalten kann. Liegt das an der zunehmenden quad-core optimierung?
Nö am hohem Takt des X4 970 wie man am Dual Core i5 661 sieht der dürfte mit 3.5Ghz fast gleichauf liegen.

boxleitnerb
2010-12-25, 07:34:33
Mit SLI/CF muss man vorsichtig sein, um nicht Gefahr zu laufen, sich einen zusätzlichen Einflussfaktor (Anzahl PCIe-Lanes) auf die Ergebnisse zu schaffen... Imho muss das aber auch gar nicht sein. Mögliche Alternativen wären (wie auch in GPU-Tests die CPU) die GTX580 noch weitestmöglich zu übertakten sowie generell forderndere Szenen zu nutzen. In den meisten Spielen sollten sich damit problemlos auch vollständige CPU-Limits finden lassen.

Ja, das ist richtig. Mögliche Skalierungsprobleme bei einzelnen Spielen nicht zu vergessen, was das Testfeld wieder zusammenrücken lässt. VRAM-Überlauf, wenn man die Auflösung dann gleich hochfährt, um zu zeigen, dass sich bei den GPUs auch dort noch die Spreu vom Weizen trennt.

Botcruscher
2010-12-25, 10:06:38
Endlich hier auch der Beweis, dass sich Werte in "realitätsfernen" Auflösungen mit stärkerer GPU zumindest tendenziell in höhere Auflösungen übertragen lassen. Hoffentlich bringt das die "640x480 ist mimimi" Schimpfer zum Schweigen :rolleyes:

Tendenziell ist eine super Sache und kann im Einzelfall voll gegen den Baum gehen. Was beschwerst du dich überhaupt? CB macht es doch genau wie die bösen Nörgeler es ständig fordern: synthetische Auflösung und eine Spieleauflösung zum Vergleich. Insgesamt fehlt mir auch der C2Q. Es ist einfach die meist-verbreitetet CPU. Im groben und ganzen aber eine nette Übersicht.

Pirx
2010-12-25, 10:15:57
Der AthlonII X4 kann doch ziemlich gut mit dem PhenomII X4 mithalten (ist sogar mal vor dem P2:upara:), wenn man den Taktfrequenzunterschied berücksichtigt. Ich hatte ja immer gedacht, daß der L3 doch noch etwas mehr bringt, vor allem in Spielen, aber das scheint ja sogar praktisch vernachlässigbar zu sein.:|

Undertaker
2010-12-25, 10:32:02
Er bringt doch schon ganz gut messbar etwas: 6% Mehrleistung bei 6,7% Taktnachteil für den X3 740 zum X3 450 bedeuten ~13% Leistungsgewinn durch den L3 Cache.
Die oftgelesene Empfehlung, in Spielen den Phenom II X3 dem Athlon II X4 vorzuziehen, kann man mittlerweile allerdings wohl nicht mehr unterschreiben - so langsam aber sicher bringt der 4. Core seine Profite. Interessanterweise scheint das die Clarkdales aber nicht wirklich zu behindern. ;)

Mr.Fency Pants
2010-12-25, 10:35:29
Damit gehst du aber am Erlebten vorbei. So tief im Detail muss vll. ein Ingenieur von AMD/Intel die CPU testen, um weiter zu optimieren, aber für den User ist die Tabelle doch super.

Zustimm, die meisen interessiert doch nur, wieviel CPU x in etwa schneller/langesamer als CPU y ist und dafür ist die Tabelle doch super. Nicht jeder will da ne Wissenschaft draus machen.

dargo
2010-12-25, 10:48:46
Zustimm, die meisen interessiert doch nur, wieviel CPU x in etwa schneller/langesamer als CPU y ist und dafür ist die Tabelle doch super. Nicht jeder will da ne Wissenschaft draus machen.
Da denkt ihr aber imho viel zu einfach.

Nehmen wir wieder mal Arcania als Beispiel. Ich picke mir jetzt mal den Core i3-540 raus. Gehen wir mal bei diesem Spiel davon aus 30fps wären noch sehr gut spielbar (ja, ich weiß... empfindet jeder anders). Diese CPU fällt bei den min.fps auf 24fps runter. Jetzt stellen sich mir als Spieler folgende Fragen auf:

1. Wieviele Sekunden von den 80 liefert diese CPU unter 30fps (zur Erinnerung, wir haben 30fps als flüssig hier definiert)?
2. Ist die Testszene von CB "Worst Case" oder gibts von diesen noch viel mehr? Bzw. noch stärker fordende Szenen wo die CPU unter 24fps liefert?

Mal angenommen CB hätte hier schon das Worst Case erwischt und im optimalen Fall sind unter 30fps nur 2-3 Sekunden von den 80 betroffen. Damit könnten viele leben und man könnte den i3-540 in diesem Spiel noch durchaus als eine ausreichende CPU nennen.

Was ich damit sagen will - einzelne Testszenen spiegeln ohne weitere Details keinesfalls die Spielbarkeit vom gesamten Spiel wieder.

PS: die Richtung die CB bei den CPU-Tests in Games geht ist schon mal richtig (nur Savegames und nichts anderes!), der Feinschliff fehlt mir nur noch.

Edit:
Punkt 1 wäre ziemlich einfach zu lösen. Da CB die Frapswerte eh schon hat hätte man bei so langen Savegames gleich Frameverläufe liefern können.

Pirx
2010-12-25, 10:52:31
Er bringt doch schon ganz gut messbar etwas: 6% Mehrleistung bei 6,7% Taktnachteil für den X3 740 zum X3 450 bedeuten ~13% Leistungsgewinn durch den L3 Cache....
Ja, meßbar in 640x480 schon, aber praktisch... Andererseits ist der Preisunterschied bei gleichem Takt auch nicht mehr riesengroß zwischen A2 X4 und P2 X4.

dargo
2010-12-25, 11:02:29
Bei Black Ops ist bei CB aber auch einiges schief gelaufen sehe ich gerade.

minfps:
i7-930 = 103fps
i7-960 = 98fps

:ugly:

Und wenn ich die Bilder von Black Ops richtig deute ist ein Großteil der 120 sekündigen Testszene eine Timedemo. :usad:

y33H@
2010-12-25, 11:52:24
MoH und CoD BO sind ingame-Cutscenes (keine Timedemo ist klassischen Sinne, aber ohne AI o. ä.).
F1 2010 ist trotzdem GPU limitiert. Ist aber schon um einiges aufschlussreicher. Mir fehlt hier auch eine Penryn CPU. Einen Q9550 oder ähnlich haben sicher noch viele im Rechner.Ich verweise hierauf (http://www.pcgameshardware.de/aid,802681/Phenom-II-X6-1100T-mit-3-3-GHz-AMDs-schnellste-Sechskern-CPU-im-Test/CPU/Test/)*SCNR*

http://www.abload.de/thumb/phenom-ii-x6-1100t-f1ol80.png (http://www.abload.de/image.php?img=phenom-ii-x6-1100t-f1ol80.png)

Die PCGH'sche F1-Szene hat gut 15% weniger Fps, da nur 20 sec des Starterfelds mit 24 Fahrzeugen, Start vom letzten Platz aus. Und bei CB schlägt sich der i3 etwas besser. Ohnehin recht erstaunlich, was der aus seinen zwei Kernen rausholt - und wartet erst mal die SB-DCs ab *g*

dargo
2010-12-25, 12:05:45
MoH und CoD BO sind ingame-Cutscenes (keine Timedemo ist klassischen Sinne, aber ohne AI o. ä.).

Cutscenes sind nichts weiter als Timedemos, ich sagte auch nicht "intergrierter Benchmark". :)

y33H@
2010-12-25, 12:13:03
Das ist in meinem Augen dann eine "Real time demo". Eine klassische Timedemo wie zB die aus Doom III läuft bei 60 Fps mit normaler Geschwindigkeit, mit weniger Fps langsamer und mit mehr Fps schneller. Daher ja auch "time", da die Zeit gemessen wird, wie lange die GraKa für x Frames benötigt. Eine Cutscene oder "Real time demo" (Source-Engine etwa) läuft immer gleich lang bzw. schnell. Nun klar, was ich meine?

Ein integrierter Benchmark kann "Real time demo" (HL2), "Timedemo" (HL2 oder Doom III) oder "ingame" ohne manuellen Eingriff sein (F1 samt AI-Fahrern). Am besten sind imo aber Saves samt Bewegung, AI und Interaktion, aber reproduzierbar und (sehr) fordernd.

Fetter Fettsack
2010-12-25, 20:02:24
Weiß man eigentlich schon genaueres über die Ursache gelegentlichen Vorteile des PII gegen den i5/i7 bei 1680x1050, die bei LowRes nicht auftauchen?

dildo4u
2010-12-25, 20:06:42
Weiß man eigentlich schon genaueres über die Ursache gelegentlichen Vorteile des PII gegen den i5/i7 bei 1680x1050, die bei LowRes nicht auftauchen?
Unfähigkeit der Reviewer und Fanboy Fantasie.Das Problem war das NV nich aus dem Arsch gekommen ist genug GPU Power für ein Core i7 zu liefern was man jetzt mit der 580 halbwegs gelöst hat.
Irgendwie meinten einige was aus in der Messungenauigkeit liegenden GPU Limitierten Benches zu lesen,wo's mal 1fps hin oder her ging zwischen AMD und Intel.


Hier das Ranking mit ATI 5870 aus dem 2009 Test.

http://www.abload.de/img/amderpt3z.jpg

http://www.computerbase.de/artikel/prozessoren/2009/test-prozessoren-2009/24/#abschnitt_performancerating

Hier mir GTX 580 selbst der kleinste Intel Quad vor jeder AMD CPU.

http://www.abload.de/img/cpubenchxzc1.jpg

y33H@
2010-12-25, 20:17:25
Diese GPU-Limit-Sache ist und bleibt ein Hirngespinst, denn mit steigender Auflösung und AA/AF hat die CPU nicht mehr zu tun - eher weniger.

=Floi=
2010-12-25, 20:27:25
es sollte mal jemand bei AMD und intel nachfragen. vielleicht können die das phenomen erklären.

dildo4u
2010-12-25, 20:30:54
es sollte mal jemand bei AMD und intel nachfragen. vielleicht können die das phenomen erklären.
Siehe y33H@ Antwort welches Phenomen?

Mr.Fency Pants
2010-12-25, 20:38:02
Da denkt ihr aber imho viel zu einfach.

Nehmen wir wieder mal Arcania als Beispiel. Ich picke mir jetzt mal den Core i3-540 raus. Gehen wir mal bei diesem Spiel davon aus 30fps wären noch sehr gut spielbar (ja, ich weiß... empfindet jeder anders). Diese CPU fällt bei den min.fps auf 24fps runter. Jetzt stellen sich mir als Spieler folgende Fragen auf:

1. Wieviele Sekunden von den 80 liefert diese CPU unter 30fps (zur Erinnerung, wir haben 30fps als flüssig hier definiert)?
2. Ist die Testszene von CB "Worst Case" oder gibts von diesen noch viel mehr? Bzw. noch stärker fordende Szenen wo die CPU unter 24fps liefert?

Mal angenommen CB hätte hier schon das Worst Case erwischt und im optimalen Fall sind unter 30fps nur 2-3 Sekunden von den 80 betroffen. Damit könnten viele leben und man könnte den i3-540 in diesem Spiel noch durchaus als eine ausreichende CPU nennen.

Was ich damit sagen will - einzelne Testszenen spiegeln ohne weitere Details keinesfalls die Spielbarkeit vom gesamten Spiel wieder.

PS: die Richtung die CB bei den CPU-Tests in Games geht ist schon mal richtig (nur Savegames und nichts anderes!), der Feinschliff fehlt mir nur noch.

Edit:
Punkt 1 wäre ziemlich einfach zu lösen. Da CB die Frapswerte eh schon hat hätte man bei so langen Savegames gleich Frameverläufe liefern können.

Und da unterscheiden wir uns: ich kaufe einen Prozzi nicht nach einzelnen Spielen und ob da irgendwann mal die Minimum fps in Richtung unspielbar gehen könnten. Ich kauf mir nen Prozzi, der meiner Meinung nach ein gutes P/L Verhältnis bietet und zocke damit, anstatt zu überlegen in welchen Spielen warum es evtl. Probleme geben könnte. Wenn es zwischendurch mal Einbrüche gibt, dann kann ich damit leben. Und CB bietet da eine Übersicht, die mir ausreicht, was eine grobe Orientierung angeht.

Du willst immer alles haarklein analysieren, das ist schön für dich, wenn du da Spaß dran hast, für die meisten Zocker aber total irrelevant.

Nightspider
2010-12-25, 20:40:48
Der Test ist imho keinen eigenen Thread wert...ein Core2Duo und Core2Quad wäre wohl nicht zuviel verlangt. Solche Tests gabs doch schon zu genüge sogar teils mit SLI.
Insbesondere da sich die meisten in 2 Wochen Ey nurnoch für Sandy Bridge interessieren werden. Also für wen ist der Test? Für Käufer? 2 Wochen zu früh:Fail.
Man hätte lieber einen umfassenden Sandy Bridge Test vorbereiten sollen.

mapel110
2010-12-25, 20:45:42
Man hätte lieber einen umfassenden Sandy Bridge Test vorbereiten sollen.
Was glaubst du, wird CB mit den Zahlen anstellen?! :ugly:

Und was Black Ops angeht, ich kanns kaum glauben, dass das Game bei all den Konfigurationen einwandfrei gelaufen ist. Da halte ichs für wahrscheinlicher, dass sie die Zahlen gewürfelt haben.

dargo
2010-12-25, 20:49:37
Und CB bietet da eine Übersicht, die mir ausreicht, was eine grobe Orientierung angeht.

Das stellst du dir ein bißchen zu einfach vor. CB testet die CPUs mit einer GTX580, du hast aber eine GTX275 (ich nehme jetzt an die Sig. ist noch aktuell). Ergo sind die Frames die CB ermittelt hat auf dein System mit irgendeiner getesteten CPU überhaupt nicht übertragbar. Der Unterschied zwischen einer GTX275 und GTX580 ist dermaßen groß, dass in Szene X aus einem CPU-Limit ganz schnell ein GPU-Limit werden kann. Und wenn CB in einzelnen Games immer noch mit Timedemos hantiert kannst du gleich Lotto spielen.

Mr.Fency Pants
2010-12-25, 20:52:45
Das stellst du dir ein bißchen zu einfach vor. CB testet die CPUs mit einer GTX580, du hast aber eine GTX275 (ich nehme jetzt an die Sig. ist noch aktuell). Ergo sind die Frames die CB ermittelt hat auf dein System mit irgendeiner getesteten CPU überhaupt nicht übertragbar. Der Unterschied zwischen einer GTX275 und GTX580 ist dermaßen groß, dass in Szene X aus einem CPU-Limit ganz schnell ein GPU-Limit werden kann. Und wenn CB in einzelnen Games immer noch mit Timedemos hantiert kannst du gleich Lotto spielen.

Das ist mir natürlich klar, dass sich bei meiner Graka die Werte unterscheiden werde, da diese eher limitiert als eine GTX580, darum gehts mir aber auch überhaupt nicht, dass ich exakt erfahre, wie schnell ein Spiel auf genau meinem System laufen wird. Mir gehts um die Abstände der einzelnen CPUs und dass dieser Wert schrumpft, wenn irgendwo ein Limit einer Graka vorhanden ist, weiß ich ebenfalls. Trotzdem liefert CB für mich einen guten Überblick, wo einzelne CPUs einzuordnen sind. Es geht mir drum, eine vernünftige Kombo aus CPU und GPU zu haben.

Fetter Fettsack
2010-12-25, 21:24:26
Der Unterschied zwischen einer GTX275 und GTX580 ist dermaßen groß, dass in Szene X aus einem CPU-Limit ganz schnell ein GPU-Limit werden kann. Und wenn CB in einzelnen Games immer noch mit Timedemos hantiert kannst du gleich Lotto spielen.

Was aber nichts machen sollte, die Leistungsfähigkeit bleibt ja gleich, sie wird nur wegen des GPU-Limits nicht abgeschöpft. Hat man eben eine Reserve für plötzliche, CPU-lastige Ereignisse. :)

Armaq
2010-12-26, 18:31:45
Das stellst du dir ein bißchen zu einfach vor. CB testet die CPUs mit einer GTX580, du hast aber eine GTX275 (ich nehme jetzt an die Sig. ist noch aktuell). Ergo sind die Frames die CB ermittelt hat auf dein System mit irgendeiner getesteten CPU überhaupt nicht übertragbar. Der Unterschied zwischen einer GTX275 und GTX580 ist dermaßen groß, dass in Szene X aus einem CPU-Limit ganz schnell ein GPU-Limit werden kann. Und wenn CB in einzelnen Games immer noch mit Timedemos hantiert kannst du gleich Lotto spielen.
Die konkrete Auswirkung in einem spezifischen System soll so ein Test nicht abzeichnen, sondern eine Sortierung vornehmen. Wenn CB endlich Preis/Leistungsratings anbietet, kann man auch eine vollständige Empfehlung aussprechen.

fulgore1101
2011-01-01, 14:32:53
Wo kann ich denn einen Q9650 @ 4 Ghz in Bezug auf Spieleleistung in etwa einordnen?

y33H@
2011-01-01, 14:46:11
Leicht oberhalb des i7-960, bei gleichem Takt ist der i7 rund 30-40% schneller.

fulgore1101
2011-01-01, 14:56:33
Leicht oberhalb des i7-960, bei gleichem Takt ist der i7 rund 30-40% schneller.

Und Sandy Bridge wird dann vermutlich nochmal etwa 20% zulegen?

Deathcrush
2011-01-01, 16:38:02
Leicht oberhalb des i7-960, bei gleichem Takt ist der i7 rund 30-40% schneller.


Kann man hier ganz gut vergleichen.

http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/24/

dargo
2011-01-01, 19:48:09
Leicht oberhalb des i7-960, bei gleichem Takt ist der i7 rund 30-40% schneller.
Das ist zu pauschalisiert ausgedrückt y33H, und das weißt du auch. :) Es können durchaus bis zu ~100% sein. Alles eine Frage der Anwendung. Wenn ein Spiel sehr gut von 4 Cores profitiert und Informationen zwischen einzelnen Cores schnell stattfinden müssen versagt die Kentsfield/Yorkfield-Architektur völlig.

@all
Das soll jetzt nicht heißen der Kentsfield/Yorkfield würde keine spielbaren fps mehr liefern können. Jedes Spiel hat da andere Ansprüche was die CPU-Last angeht. Und zuguterletzt entscheidet der Spieler noch selbst welche Framerate er als flüssig empfindet.

Und Sandy Bridge wird dann vermutlich nochmal etwa 20% zulegen?
Ich gehe eher von etwa +30% aus.

Deathcrush
2011-01-01, 20:26:17
Es können durchaus bis zu ~100% sein. Alles eine Frage der Anwendung. Wenn ein Spiel sehr gut von 4 Cores profitiert und Informationen zwischen einzelnen Cores schnell stattfinden müssen versagt die Kentsfield/Yorkfield-Architektur völlig.

Hmm, das Spiel würde mich mal interessieren. Irgendwie schwer vorstellbar.

dargo
2011-01-01, 21:13:33
Resident Evil 5.

Q9550 @1768Mhz = 53,55fps
i5-750 @1739Mhz = 104,25fps

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973305&postcount=2

Der Witz ist nur hierbei, dass selbst der Yorkfield bei der üblichen Frequenz mehr als genug Frames liefert.

Edit:
Hier muss nur eins beachtet werden. Der Q9550 wurde 1:1 über den FSB runterskaliert. Der i5-750 nicht da er einen CPU-Multi von 20 hat und für 1768Mhz dann ein BCLK von ca. 88 nötig wäre. Damit bootet mein Board gar nicht mehr. Dh. der i5-750 ist hier etwas im Vorteil. Ich hatte das mal gegengerechnet und kam zu dem Schluß, dass er in RE5 bei gleichem Takt und 1:1 Runterskalierung ca. 80% schneller ist. Ein i7 sollte dann dank SMT wieder die +~100% erreichen.

Deathcrush
2011-01-01, 21:23:52
Kurze Frage dazu

Du hast doch RE5 einmal mit einem Q9550 und GTX260 getestet und einmal mit einem Corei5 und einer GTX470, mit maixmalen Details. Sicher, das die Graka da nicht auch eine Rolle gepsielt hat?

dargo
2011-01-01, 21:26:01
Bei meinen CPU-Tests gibts immer ein 100%-iges CPU-Limit. Nur so lässt sich eine Kernskalierung in Games überhaupt untersuchen.

Deathcrush
2011-01-01, 21:35:04
Ist halt schwer vorstellbar, da selbst synth Benchmarks keine 100% ausspucken, jedenfalls habe ich noch keine gesehen. Bisher immer so 40-60%, aber dann auch nur der Corei7.

dargo
2011-01-01, 21:40:05
Ist halt schwer vorstellbar, da selbst synth Benchmarks keine 100% ausspucken, jedenfalls habe ich noch keine gesehen. Bisher immer so 40-60%, aber dann auch nur der Corei7.
Welche meinst du bsw.?

Deathcrush
2011-01-01, 21:43:14
hier z.B.

http://www.computerbase.de/artikel/prozessoren/2009/test-intel-core-i5-750-core-i7-860-und-core-i7-870/10/

also alle Benchmarks bis seite ~42

san.salvador
2011-01-01, 21:45:16
Wovon sollen die CPU-Benchmarks denn sonst abhängen, wenn nicht von der CPU? :confused:


€dit: 100% Abhängigkeit != 100% Skalierung

dargo
2011-01-01, 21:54:35
@Deathcrush

Achso... ja, das ist der große Unterschied zu Spielen. Die Kentsfield/Yorkfield-Architektur schwächelt nur extrem da wo schnelle Kommunikation zwischen einzelnen Cores stattfindet (es sind ja nur zwei zusammengelegte Dualcores). Da muss die Kommunikation durch den starken Flaschenhals FSB. Das wird dir kein synthetischer Benchmark zeigen.

Deathcrush
2011-01-01, 21:59:21
Ach so, jetzt ich verstehen ;) Wenn man so will, kommt es also extrem selten vor, das der Corei5 rund 100% schneller ist als der C2Q bei gleicher Taktfreq. Sprich man kann eigentlich davon ausgehen, das 30-40% realistisch sind, wenn es um Alltagstauglichkeit geht. Die von mir getesteten Spiele spuckten jedenfalls bisher diese Ergebnis aus.

dargo
2011-01-01, 22:08:48
Wie gesagt, alles eine Frage der Anwendung. Profitiert ein Spiel hervorragend von 4 Cores (und das demonstriert die Engine von RE5 einwandfrei) setzt sich die Lynnfield/Nehalem-Architektur viel stärker von der Kentsfield/Yorkfield-Architektur ab.

y33H@
2011-01-01, 22:41:13
dargo hat recht, ich habe ein wenig pauschalisiert - wollte keine Romane schreiben.

Ich habe bei GTA IV, Anno 1404 und SC2 teils (Szenen-bedingt) weit über 50% Differenz zwischen Yorkfield und non-SMT Lynnfield gemessen. Ebenfalls extreme Unterschiede gibt's bei F1 2010 und Dragon Age. SB legt hier noch mal zwischen 5 und über 20 (!) % zu, vor allem dank dem mit Corespeed laufenden LLC und dem fetten Ringbus.

Fetter Fettsack
2011-01-01, 23:49:45
wollte keine Romane schreiben.

DAS wolltest du noch nie. :D

Und NDA nicht vergessen.^^

airbag
2011-01-02, 00:21:27
DAS wolltest du noch nie. :D

Und NDA nicht vergessen.^^
An einen ausführlicheren Beitrag zu Crisis 2 kann ich mich noch erinnern. Irgendwas mit Hühnchen war auch dabei :D

Und das NDA wird er woh nicht verletzen, wenn er sich geleakte/gefakte Benches bezieht.

mapel110
2011-01-02, 00:24:30
Anscheinend gibts die Tests recht früh, jedenfalls meinte Jemand von CB, dass Intel das NDA vorgezogen hat. Verkaufsstart 9. Januar.

airbag
2011-01-02, 00:27:54
Hat Volker wieder was verraten ?

Fetter Fettsack
2011-01-02, 11:15:53
Und das NDA wird er woh nicht verletzen, wenn er sich geleakte/gefakte Benches bezieht.

Was aber aufgrund der Kürze seines Beitrages nicht eindeutig eruierbar ist.
Aber er wird sicher sicher auf jene bezogen haben. :D

C.D.B.
2011-01-02, 16:28:02
Schade das der Intel C2Q rausgeworfen wurde, ein Vergleich zu den "alten Prozessoren" dürfte für potentielle Wechsler interessanter sein ...

Seh ich ebenso. Für mich hat der Test deshalb eigentlich keinen Wert.

Jo, ist ein reichlich sinnfreier Test. Wirklich schade ...

Ronny145
2011-01-02, 16:29:54
Q9550 wird nachgetestet laut Volker.

Fetter Fettsack
2011-01-02, 16:47:19
Mitsamt dem Q6600.
Außerdem:

Jo, ist ein reichlich sinnfreier Test. Wirklich schade ...

ist die Idee, dass die Werte beim SB-Test einfach weiter verwendet werden, wirklich so fern? Die wurden halt früher veröffentlicht. Es muss nicht alles gleich sinnfrei sein, nur weil der Sinn sich nicht oberflächlich manifestiert.

y33H@
2011-01-02, 20:11:36
So macht(e) es PCGH doch auch: Neuen Parcours ein paar Wochen vor dem SB-Launch und dann die SBs hinzufügen. So erspart man sich eine Menge Ärger und erhält zudem genügend Feedback.