Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Test: Prozessoren 2009


Schlammsau
2009-12-24, 10:06:36
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/

http://www.abload.de/img/unbenannt73k1.jpg

Interessant, dass in zwischen dem schnellsten Intel und dem schnellsten AMD nur 10%, in realitätsnahen Settings liegen.

Testsystem:
Komplette Aufschlüsselung des Testsystems und den verwendeten Komponenten.

* Prozessor
o Quad-Core
+ AMD
# AMD Phenom II X4 965 Black Edition – 3,40 GHz, 2 MB L2-Cache, 6 MB L3-Cache, HT 2,0 GHz (Deneb C3)
# AMD Phenom II X4 925 – 2,80 GHz, 2 MB L2-Cache, 6 MB L3-Cache, HT 2,0 GHz (Deneb C2)
# AMD Athlon II X4 620 – 2,60 GHz, 2 MB L2-Cache, HT 2,0 GHz (Propus C2)
+ Intel
# Intel Core i7-960 – 3,20 GHz, 1 MB L2-Cache, 8 MB L3-Cache, QPI 4,8 GHz (Bloomfield D0)
# Intel Core i7-870 – 2,93 GHz, 1 MB L2-Cache, 8 MB L3-Cache (Lynnfield B1)
# Intel Core i5-750 – 2,66 GHz, 1 MB L2-Cache, 8 MB L3-Cache (Lynnfield B1)
# Intel Core 2 Quad Q9550 – 2,83 GHz, 12 MB L2-Cache, FSB1333 (Yorkfield C1)
# Intel Core 2 Quad Q8200 – 2,33 GHz, 4 MB L2-Cache, FSB1333 (Yorkfield R0)
# Intel Core 2 Quad Q6600 – 2,40 GHz, 8 MB L2-Cache, FSB1066 (Kentsfield G0)
o Triple-Core
+ AMD
# AMD Phenom II X3 720 Black Edition – 2,80 GHz, 1,5 MB L2-Cache, 6 MB L3-Cache, HT 2,0 GHz (Heka C2)
# AMD Athlon II X3 435 – 2,90 GHz, 1,5 MB L2-Cache, HT 2,0 GHz (Rana C2)
o Dual-Core
+ AMD
# AMD Phenom II X2 550 Black Edition – 3,10 GHz, 1 MB L2-Cache, 6 MB L3-Cache, HT 2,0 GHz (Callisto C2)
# AMD Athlon II X2 250 – 3,00 GHz, 2 MB L2-Cache, HT 2,0 GHz (Regor C2)

Alle Athlon-II- und Phenom-II-Prozessoren wurden, sofern nicht anders angegeben, mit C&Q und C1E disabled (aus) vermessen. Eine umfassende Untersuchung zu dieser Thematik hatten wir zu Beginn des Jahres 2009 im Programm. Der Speichercontroller wurde bei allen AMD-Systemen im Modus „UnGanged“ betrieben.
+ Intel
# Intel Core 2 Duo E8600 – 3,33 GHz, 6 MB L2-Cache, FSB1333 (Wolfdale E0)
# Intel Core 2 Duo E8400 – 3,00 GHz, 6 MB L2-Cache, FSB1333 (Wolfdale E0)
# Intel Core 2 Duo E7400 – 2,80 GHz, 3 MB L2-Cache, FSB1066 (Wolfdale R0)
* Motherboard
o AMD
+ Asus M4A79T Deluxe (AMD 790FX + SB750) – Sockel AM3 – Revision 1.01G – BIOS 2205 (28. Oktober 2009),
o Intel
+ Asus P6T Deluxe (Intel X58-Chipsatz) – Sockel LGA1366 – Revision 1.02G – BIOS: 1804 (23. November 2008)
+ Asus P7P55D (Intel P55-Chipsatz) – Sockel LGA1156 – Revision 1.02G – BIOS: 1207 (7. Dezember 2009)
+ Asus P5E3 Premium (Intel X48-Chipsatz) – Sockel LGA775 – Revision 2.00G – BIOS 0803 (21. Mai 2009)
* Arbeitsspeicher
o 2x 2.048 MB DDR3-1333 OCZ Platinum (CL7-7-7-20-1T, 1,50 Volt, Dual-Channel)
o 3x 2.048 MB DDR3-1066 OCZ Platinum (CL7-7-7-20-1T, 1,50 Volt, Dual-Channel)
o 2x 2.048 MB DDR3-1066 OCZ Platinum (CL7-7-7-20-1T, 1,50 Volt, Dual-Channel)
* Grafikkarte
o MSI Radeon HD 5870, 40 nm, 1.024 MB GDDR5, Referenztakt
* Peripherie
o Samsung HD501LJ, 500 GB (SATA-II-Festplatte)
o MSI DR8-A (DVD-Brenner)
* Netzteil
o Cooler Master UCP 700 Watt (80Plus Silber)
* Prozessorkühler
o Noctua NH-U12P mit Lüfter NF-P12
* Treiberversionen
o ATi Catalyst 9.11
o Intel Chipsatz-Treiber 9.1.1.1020
* Software
o Microsoft Windows 7 64-Bit
o Microsoft DirectX 11

Gast
2009-12-24, 10:13:39
Interessant, dass in zwischen dem schnellsten Intel und dem schnellsten AMD nur 10%, in realitätsnahen Settings liegen.
AMD wäre sehr froh, wenn es so wäre. Leider mal wieder nur Computerbase. Immerhin haben sie bemerkt, dass sie ziemlichen Quatsch abliefern, der Spin heißt jetzt "realitätsnah". CPUs im teilweisen GPU-Limit zu vergleichen ist irgendwie Balkenporno, dem Volk gefällts aber. :ulol:

desert
2009-12-24, 10:15:47
Du lernst es echt nicht mehr, oder? Nimm das das GPU-Limit raus und i7 u. i5 führen wieder mit deutlichen abstand.

Der Abstand ist nur so klein weil viele spiele im GPU-Limit sind. nimm eine Stärkere Grafikkarte und schon sieht die welt wieder ganz anders aus.

Schlammsau
2009-12-24, 10:16:30
Hmm, es lässt sich darüber streiten ob dieses System bei der Auflösung GPU-limitiert ist. Kommt sicherlich vor, aber ich denke, nicht allzu oft.
Sie haben immerhin eine 5870 verwendet.

Matrix316
2009-12-24, 10:18:42
Da man die i7 mit Hyperthreading glaube ich testet, ist es doch klar, dass der Vorsprung nicht zu groß ist. Ohne würds sicher anders aussehen.

Interessant wäre ein Test mit allen CPUs ohne Turbo, ohne HT aber mit gleichem Takt, sagen wir 3 GHz. Das wäre zwar nicht realitätsnah, aber DANN würde man sehen, welche CPU wirklich besser ist.

Schlammsau
2009-12-24, 10:20:22
Da man die i7 mit Hyperthreading glaube ich testet, ist es doch klar, dass der Vorsprung nicht zu groß ist. Ohne würds sicher anders aussehen.

Interessant wäre ein Test mit allen CPUs ohne Turbo, ohne HT aber mit gleichem Takt, sagen wir 3 GHz.

Sie haben mit und ohne HT getestet!

Hier noch das Ergebniss mit Spielen in niedriger Auflösung:
http://www.abload.de/img/unbenanntx5ld.jpg
Sind im Schnitt auch "nur" knapp 20% zwischen den beiden Spitzenmodellen.

Gast
2009-12-24, 10:21:53
Hmm, es lässt sich darüber streiten ob dieses System bei der Auflösung GPU-limitiert ist.

Man könnte auch sagen, Core i7 ist zu schnell für diese Tests. :up:

Sie haben immerhin eine 5870! verwendet.
Jaja, die schnellste erhältliche Grafikkarte. Ich würde trotzdem einen Core i5/i7 vorziehen (Wer spielt denn schon in 800x600? Hast du eine schnellere Grafikkarte? In meinen Spielen limitiert eh immer die Grafikkarte? Ich mag 8xAA!), denn eine schnellere kommt bestimmt und dann will man ja nicht auch gleich wieder eine neue CPU kaufen, weil der Phenom II "damals" schon auf Kante genäht war.

Gast
2009-12-24, 10:24:26
Der Abstand ist nur so klein weil viele spiele im GPU-Limit sind. nimm eine Stärkere Grafikkarte und schon sieht die welt wieder ganz anders aus.

Ja? Was wäre denn stärker als eine HD 5870? Da ist nichts mit GPU-Limit. Entweder CB misst Mist oder die Nehalemarchitektur kommt mit hohen 3D-Auflösungen nicht klar.

Matrix316
2009-12-24, 10:29:33
Sie haben mit und ohne HT getestet!

Wo sind die Ergebnisse der i7 ohne HT?

Gast
2009-12-24, 10:33:07
Wo sind die Ergebnisse der i7 ohne HT?

SMT ist nicht das Problem. Siehe Core i5.

desert
2009-12-24, 10:34:33
Ja? Was wäre denn stärker als eine HD 5870? Da ist nichts mit GPU-Limit. Entweder CB misst Mist oder die Nehalemarchitektur kommt mit hohen 3D-Auflösungen nicht klar.

Nimm 2 x 5870 oder eine 5970 und Nehalem führt wieder mehr als deutlich.
Xbit hat da einen guten test gemacht. Da ist meistens ein stock i7-920 schneller als ein auf 4,1 ghz übertakteter amd. Das sagt schon alles. Und die haben mit 2 x 5870 getestet.

Cpus misst man nunmal nicht im gpu-limit.

Übrigens ich hatte bisher mehr amd als intel cpu´s. Nur falls wieder einer kommt und sagt ich mag amd nicht.

Schlammsau
2009-12-24, 10:34:53
Ja? Was wäre denn stärker als eine HD 5870? Da ist nichts mit GPU-Limit. Entweder CB misst Mist oder die Nehalemarchitektur kommt mit hohen 3D-Auflösungen nicht klar.

Das eine oder andere mal wird sie mit Sicherheit mal kurz ins GPU-Limit gerauscht sein. Was aber mMn zu vernachlässigen ist, weil realitätsnah.

Hat der iX wirklich eine Schwäche bei hohen Auflösungen?
So wie das aussieht.....ja!
http://www.abload.de/img/unbenanntn2wh.jpg

Matrix316
2009-12-24, 10:35:34
? Der i5 750 hat doch viel weniger MHz als die anderen. Und dazu nur Dual Channel. Und ist trotzdem mit dem "AMD Topmodell" gleich auf. :ulol:

StefanV
2009-12-24, 10:39:47
Darfs ja auch sein, kostet schließlich ja auch weniger.

Matrix316
2009-12-24, 10:41:42
Das eine oder andere mal wird sie mit Sicherheit mal kurz ins GPU-Limit gerauscht sein. Was aber mMn zu vernachlässigen ist, weil realitätsnah.

Hat der iX wirklich eine Schwäche bei hohen Auflösungen?
So wie das aussieht.....ja!
http://www.abload.de/img/unbenanntn2wh.jpg
Quatsch, wenn der i5 750 schneller als der i7 960 ist, dann liegt das nur am Hyperthreading, was da reinspielt. Und ohne SMT/HT würde der i7 960 auf auf und davoneilen.

Gast
2009-12-24, 10:42:15
Nimm 2 x 5870 oder eine 5970 und Nehalem führt wieder mehr als deutlich.
Xbit hat da einen guten test gemacht. Da ist meistens ein stock i7-920 schneller als ein auf 4,1 ghz übertakteter amd. Das sagt schon alles. Und die haben mit 2 x 5870 getestet.

Cpus misst man nunmal nicht im gpu-limit.

Übrigens ich hatte bisher mehr amd als intel cpu´s. Nur falls wieder einer kommt und sagt ich mag amd nicht.

Sorry, aber ein i5-750 rennt mit einer HD 5870 sicherlich nicht ins GPU-Limit. SO leistungsfähig ist der Nehalem nicht. CB hat den i7 schonmal auf einem GTX 280-3-Way-SLI-System getestet und lediglich 10 % Mehrleistung als mit einem C2Q bei gleichem Takt gemessen.

Matrix316
2009-12-24, 10:48:20
Fehlposting

desert
2009-12-24, 10:49:43
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_4.html#sect1

Hier produziert ein auf 4,1 ghz übertakteter AMD 965 bei Crysis 35 fps, ein i7-920 auf 2,7 ghz 39 fps. Und das beste ist der i7-920 steckt sogar noch im gpu-limit.

Wie gesagt cpu-Tests sind nur aussagekräftig ohne gpu-limit. Was interessiert es mich ob der eine prozessor in einem gpu-limit 3 fps mehr oder weniger liefert? Mich interessiert was die CPU leistet wenn sie nicht gebremst wird.

Gast
2009-12-24, 10:54:39
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_4.html#sect1

Hier produziert ein auf 4,1 ghz übertakteter AMD 965 bei Crysis 35 fps, ein i7-920 auf 2,7 ghz 39 fps. Und das beste ist der i7-920 steckt sogar noch im gpu-limit.

Es ist natürlich viel plausibler als dass, was CB misst, wenn ein Phenom II X4 mit 52 % mehr Takt in einem GPU-lastigen Spiel 10 % langsamer läuft als ein Core i7. ;D

Matrix316
2009-12-24, 10:54:58
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_4.html#sect1

Hier produziert ein auf 4,1 ghz übertakteter AMD 965 bei Crysis 35 fps, ein i7-920 auf 2,7 ghz 39 fps. Und das beste ist der i7-920 steckt sogar noch im gpu-limit.[...]

Hä? Wo? Was man sieht, dass bei Crossfire die Wutz abgeht. :)

IVN
2009-12-24, 10:57:44
Die schnellste CPU der Welt zu erschaffen reicht, wie es scheint, bei weitem nicht aus. Man muss wohl ins Karton, auch nen Gutschein für ne neue Brille (eine die nicht Grün ist) reinpacken.

desert
2009-12-24, 11:14:05
Hä? Wo? Was man sieht, dass bei Crossfire die Wutz abgeht. :)

Na man sieht, das bei zwei grafikkarten, also das gpu-limit weit nach hinten geschoben, der i7-920 bei 2,7 ghz schneller ist als ein auf 4,1 ghz getakter AMD x 4 965.

Odal
2009-12-24, 11:18:34
Sorry, aber ein i5-750 rennt mit einer HD 5870 sicherlich nicht ins GPU-Limit. SO leistungsfähig ist der Nehalem nicht. CB hat den i7 schonmal auf einem GTX 280-3-Way-SLI-System getestet und lediglich 10 % Mehrleistung als mit einem C2Q bei gleichem Takt gemessen.
Es ist natürlich viel plausibler als dass, was CB misst, wenn ein Phenom II X4 mit 52 % mehr Takt in einem GPU-lastigen Spiel 10 % langsamer läuft als ein Core i7. ;D

täusch dich da mal nicht, ich war auch erst sehr skeptisch wie ein Nehalem mit so wenig takt soviel leisten soll
aber der zeigt schon wo der Frosch die Locken hat
Da zieht man auch mit 3.4 Ghz den Karren nicht mehr aus dem Dreck.

Hä? Wo? Was man sieht, dass bei Crossfire die Wutz abgeht. :)

bei höherer Auflösung läuft der trotz Crossfire immer wieder ins GPU Limit aber bei 1280x1024 ist die totale Vernichtung des PhenomII eindeutig

Matrix316
2009-12-24, 11:31:25
Hach ich hab AMD mit intel verwechselt, weil der i7 auch auf 4,1 Ghz da läuft. ;)

deekey777
2009-12-24, 13:06:05
Das 3DC zeigt malwieder sein wahres Gesicht. Es geht nur um Spiele und um AMD vs. Intel.

Riesenlob an CB, dass sie den x264-Benchmark 3.0 benutzt haben. Das macht kaum eine Seite. Man sieht recht deutlich, wie schnell die CPUs mit richtigem Encoder sein können.

Schlammsau
2009-12-24, 13:15:22
Das 3DC zeigt malwieder sein wahres Gesicht. Es geht nur um Spiele und um AMD vs. Intel.

Riesenlob an CB, dass sie den x264-Benchmark 3.0 benutzt haben. Das macht kaum eine Seite. Man sieht recht deutlich, wie schnell die CPUs mit richtigem Encoder sein können.

Jo find ich auch gut! Zumal ich eigentlich alle Videos mit x264 encode.......

Auch hier "klebt" AMD ziemlich nah an der Spitze!

derguru
2009-12-24, 13:21:32
naja im test 2 sind es immerhin 37%,nah dran ist was anderes aber ok ht rockt hier.

Schlammsau
2009-12-24, 13:23:26
naja im test 2 sind es immerhin 37%,nah dran ist was anderes aber ok ht rockt hier.
Aber immernoch schneller als jeder C2Q und i5!
Für einen Preis von 140€, kann man da nicht meckern!

Wenn ich die Wahl zwischen einem i7 ab 440€, der schneller ist, und einem PII X4 ab 140€ hätte, wüsste ich schon für was ich mich entscheide. :)

derguru
2009-12-24, 13:26:20
ich mecker ja nicht,ich gucke.:cool:

wenn ich die wahl hätte dann kauf ich mir ein Intel Xeon UP X3440 für 190 euro wenn du schon damit anfängst.:wink:

Coda
2009-12-24, 13:34:19
naja im test 2 sind es immerhin 37%,nah dran ist was anderes aber ok ht rockt hier.
Mainconcept H.264 ist auch 26% langsamer bei gleichem Takt. Nah dran ist tatsächlich etwas anderes.

Was Spiele angeht ist es wohl wirklich lohnender sich öfters neue Mainstream-Prozessoren zu kaufen als für längere Zeiträume High-End-CPUs fürs gleiche Geld, da sowieso die GPU der Bottleneck ist

Allerdings sind "realitätsnahe" Benchmarks meiner Meinung nach trotzdem Blödsinn. Man sollte Störfaktoren immer möglichst gut eliminieren wenn man misst.

sklave_gottes
2009-12-24, 13:47:16
Also der Test von xbitlabs ist ja mal auch selten schlecht. Die AMD platform ist Total beschnitten, nur 8x pci-e slots bei crossfire + ref ram ddr2, bei einem AM3 Prozi. Und intel hat 1600mhz@7 DDR3 ram was auf dem intel standart normal auf 1066 läuft. Dann wurde beim Intel auch noch der NB Takt voll übertaktet selbst bei 2,6 ghz cpu takt. Man das ist aber fair.....

Zusammenfassung:
AMD System langsamer als jedes Standart AM3 790 system.
Intel System Schneller als das beste was man ohne OC kaufen kann.
macht unterm strich------> einen sehr schlechten test.

Das ist so als ob man eine ATI graka mit einer Nvidea graka vergleicht und bei der einen den Speicher takt erhöht und bei der anderen den Speichertakt senkt.

Wieso haben die beim AMD system nicht gleich 2x 5770 karten genommen statt die 2 5870 :-)

Also selten soviel gelacht....

Frohe Weihnachten allen

Schlammsau
2009-12-24, 13:55:28
Also der Test von xbitlabs ist ja mal auch selten schlecht. Die AMD platform ist Total beschnitten, nur 8x pci-e slots bei crossfire + ref ram ddr2, bei einem AM3 Prozi. Und intel hat 1600mhz@7 DDR3 ram was auf dem intel standart normal auf 1066 läuft. Dann wurde beim Intel auch noch der NB Takt voll übertaktet selbst bei 2,6 ghz cpu takt. Man das ist aber fair.....

Zusammenfassung:
AMD System langsamer als jedes Standart AM3 790 system.
Intel System Schneller als das beste was man ohne OC kaufen kann.
macht unterm strich------> einen sehr schlechten test.

Das ist so als ob man eine ATI graka mit einer Nvidea graka vergleicht und bei der einen den Speicher takt erhöht und bei der anderen den Speichertakt senkt.

Wieso haben die beim AMD system nicht gleich 2x 5770 karten genommen statt die 2 5870 :-)

Also selten soviel gelacht....

Frohe Weihnachten allen

Stimmt.... :eek: :facepalm:

Gast
2009-12-24, 14:10:25
GPU Limit hin oder her, es kann doch nicht mit rechten Dingen zugehen wenn der vermeintliche langsamere Phenom II schneller ist. Logischer wäre doch das beide CPUs aufgrund des GPU Limits auf dem gleichen Niveau liegen was ja nicht immer der Fall ist. Erklärung? Ich raff es nicht.

dargo
2009-12-24, 14:12:17
Erklärung?
Ganz einfach - Messfehler die nur der Tester zu verantworten hat.

Schlammsau
2009-12-24, 14:19:59
Ganz einfach - Messfehler die nur der Tester zu verantworten hat.
Beweise?
Ich denke schon, dass CB weiss was sie tun.

dargo
2009-12-24, 14:43:39
Ich denke schon, dass CB weiss was sie tun.
Schön für dich. Ich wünschte, ich könnte das selbe behaupten.

Gast
2009-12-24, 14:51:35
Was würdest du denn anders machen und warum?

dargo
2009-12-24, 15:48:20
Was würdest du denn anders machen und warum?
Puh... das wird ne längere Geschichte, zumindest in Spielen.

Ersteinmal muss man sich überlegen was der Test überhaupt bezwecken soll:

1. Will ich zeigen was CPU X gegenüber CPU Y leistet?
2. Will ich zeigen was Grafikkarte X gegenüber Grafikkarte Y leistet?
3. Will ich nur zeigen was die Kombination aus CPU XYZ und Grafikkarte XYZ in XYZ-Settings und XYZ-Szene(n) leistet?

Punkt 1.
Hierbei sollte man Szenen in Games wählen die möglichst nah an ein vollständiges CPU-Limit reichen. Dazu muss jede getestete Szene (Savegame) auf die entsprechenden Limits untersucht werden. Je nach CPU/Grafikkarten-Kombination und Testszene muss hierbei eventuell die Auflösung stark reduziert werden. Natürlich sollte man die Details immer @max. belassen. Denn viele Details belasten auch die CPU.

Größter Zeitaufwand.

Punkt 2.
Hierbei sollte man Szenen in Games wählen die möglichst nah an ein vollständiges GPU-Limit reichen. Selbstverständlich sollte man dabei achten, dass der Vram nicht limitiert. Für GPU-Limits eignen sich Timedemos hervorragend. Aber auch hier ist eine Prüfung der Limitierung empfehlenswert.

Punkt 3.
Hierbei sollte man ebenfalls mit Savegames arbeiten. Timedemos haben den Nachteil, dass sie in der Regel deutlich geringere CPU-Last erzeugen. Sprich, die hohen Frameraten der Timedemos bekommt man Ingame tatsächlich in der Regel nie zu sehen.
Dieser Punkt hat allerdings für die meisten Anwender (trotz dem Versuch die Auflösung, AA-Stufe etc. möglichst an die Praxis anzupassen) sehr wenig Aussagekraft. Der User müsste exakt die gleiche Kombination aus CPU/Grafikkarte, die gleichen Settings verwenden und genauso Ingame vorgehen wie der Tester in seiner Testszene damit dieser Benchmark für ihn eine eindeutige Aussagekraft hat.

Jetzt kommen wir zum Testsystem.

Für solche Benchmarks empfiehlt sich immer ein sauberes, sprich frisch installiertes OS zu nehmen. Außerdem sollte man sämtliche Stromsparmodis ausschalten um mögliche Fehlerquellen von vorne rein auszuschließen. Zusätzlich sollte man Virenprogramme etc. erst gar nicht installieren. Empfehlen würde ich auch während der Benches sich vom Netz zu trennen.

Um es auf den Punkt zu bringen - die CPU soll nur mit den Benches beschäftigt sein.

Letztens habe ich sogar durch Zufall herausgefunden, dass man selbst bei Bildschirmskalierungssettings bei NV aufpassen muss. Ich weiß nicht ob das ein generelles Problem bei allen NV-Treibern ist oder ich gerade einen eher "merkwürdigen" Treiber erwischt habe... wie dem auch sei - beim Zuschalten der Option "keine Skalierung" setzt der Treiber ein 60fps Limit ein. Oder es wird irrtümlicherweise Vsync. aktiviert. Es gibt eine Menge was man halt beachten muss. Überall können sich durch die kleinste Unachtsamkeit Fehler einschleichen die dann zu solchen lustigen Werten wie zb. bei CB & Co führen können.

Kommen wir nun zu den Benchmarks selbst.

Sollte man mit Savegames arbeiten müssen auch einige Sachen beachtet werden.

1. Die Testszenen mehrfach benchen. Ich empfehle 4 Durchgänge und davon dann den Durchschnitt ermitteln. Die einzelnen Werte dürfen auf keinem Fall stark voneinander abweichen. Sollte dies dennoch der Fall sein verweise ich auf Punkt 4.
2. Min.fps sind völlig uninteressant.
3. Die Testszene möglichst kurz halten. Bei Testszenen von 60 Sekunden (wie manche Reviewer nutzen) erschließt sich für mich der Sinn dieses Benchmarks. Bei einer so langen Testszene wird zuviel geglättet. Man sieht mögliche (kurzweilige) Einbrüche durch die Glättung gar nicht. Außerdem kann die KI in einer so langen Szene schon wieder ganz anders reagieren.
4. Manchmal braucht das Spiel (je nach Game) eine gewisse Eingewöhungsphase bis sich die Frames "beruhigen". Sollten also einzelne Werte stark voneinander abweichen empfiehlt sich die zu testende Szene eine gewisse Zeit durchzuspielen. Bisher brauchte ich dafür allerdings nicht mehr als ca. eine Minute.

Und zu guter letzt - optimal bei jeglichen Benches sind zusätzlich Frameverläufe.

35007
2009-12-24, 16:00:58
2. Min.fps sind völlig uninteressant.


Könntest du dies nochmals kurz erläutern?

StefanV
2009-12-24, 16:09:47
Sollten wir nicht vielleicht ergründen, wie es bei diesem Test zu diesem Ergebnis gekommen ist??
Ich denke nicht, dass es beabsichtigt ist, die AMD Prozessoren so gut dastehen zu lassen.

Was aber 'interessant' ist, ist der Umstand, das Computerbase ein C3 Step 965BE einsetzt, eventuell bringt das ja doch etwas performance.

Ansonsten sollte vielleicht mal jemand mit Phenom 2 und Core iirgendwas mal die Benches nachprüfen?

S940
2009-12-24, 16:10:53
Punkt 1.
Hierbei sollte man Szenen in Games wählen die möglichst nah an ein vollständiges CPU-Limit reichen. Dazu muss jede getestete Szene (Savegame) auf die entsprechenden Limits untersucht werden. Je nach CPU/Grafikkarten-Kombination und Testszene muss hierbei eventuell die Auflösung stark reduziert werden. Natürlich sollte man die Details immer @max. belassen. Denn viele Details belasten auch die CPU.

Größter Zeitaufwand.
(....)
Und zu guter letzt - optimal bei jeglichen Benches sind zusätzlich Frameverläufe.

Bevor ich mich um alle obigen Punkte kümmern würde, würde ich erst einmal den Einfluss der Cachegröße und der I/O Anbindung bei den diversen Spielen untersuchen. CPU & GPU Limit ist etwas eindimensional. Ausserdem würde ich mich von dem eher unbescheidenen Vorurteil befreien, dass cb grundsätzlich Müll baut ... könnte gut sein, dass sie nur etwas entdeckt haben, was nur Deine Vorstellungskraft übersteigt ;)

Hat ansonsten etwas von "die Erde ist flach, die kann nicht rund sein, wie cb behauptet, die sind dort doch alle doof."

Machs erst mal besser, und benche z.B. mehr als nur die 1 Szene im anderen Thread.

Frohes Fest

Alex

dargo
2009-12-24, 16:14:15
Könntest du dies nochmals kurz erläutern?
Stärkere Abweichungen zwischen den einzelnen Ergebnissen bei Savegames möglich. Außerdem beziehen sich die min.fps auf einen einzigen Wert. Stelle dir eine lange Szene von sagen wir mal 120 Sekunden vor. Innerhalb dieser 120 Sekunden bricht die Framerate für eine Sekunde stärker ein, die anderen 119 Sekunden liefern eine für dich ausreichende Framerate. Ich glaube kaum, dass dieser Einbruch für eine Sekunde jemanden wirklich im Spielverlauf stören würde.

y33H@
2009-12-24, 16:21:47
Der Phenom II ist im Rating nur wegen Anno 1404 vorne. Nimm eine andere Szene mit einer andere CPU-Last, und der i5 tritt den 965 BE sowas von in die Tonne - siehe Erläuterung bei CB.

dargo
2009-12-24, 16:23:30
Sollten wir nicht vielleicht ergründen, wie es bei diesem Test zu diesem Ergebnis gekommen ist??

Was willst du hier ergründen? Bis zum Erbrechen philosophieren bringt nichts. Ich kann dir gerne entsprechende Benchmarks liefern wenn du mir ein Phenom 2 und i5/i7-System zu Testzwecken finanzierst.


Ich denke nicht, dass es beabsichtigt ist, die AMD Prozessoren so gut dastehen zu lassen.

Es geht nicht nur um die angeblich schnelleren Phenoms II sondern auch die Yorkfields. Beim letzteren ist in meinem Test mit Odal nichts von zu sehen.

S940
2009-12-24, 16:24:34
Ansonsten sollte vielleicht mal jemand mit Phenom 2 und Core iirgendwas mal die Benches nachprüfen?Jo, wobei das Gebenche ansich auch immer so ne Sache ist. Woher weiss ich, dass eine bestimmte Szene nun wirklich in einem "CPU Limit" ist ? Und was ist mit dem ominösen CPU Limit überhaupt gemeint ? Ist das inkl. oder exkl. Cacheproblemchen ?

Um Letzteres auszuschließen würde ich diverse Logger-Progrämmchen mitlaufen lassen und die Cache Misses vergleichen, danach kann man weiterschauen.

Frohes Fest, Baum brennt :)

Alex

S940
2009-12-24, 16:29:38
Der Phenom II ist im Rating nur wegen Anno 1404 vorne. Nimm eine andere Szene mit einer andere CPU-Last, und der i5 tritt den 965 BE sowas von in die Tonne - siehe Erläuterung bei CB.
Lol darum gehts ja, in der CB Szene "tritt der AMD den i5 samt i7 9xx in die Tonne" um bei Deiner "schönen" Wortwahl zu bleiben.

Im Endeffekt hängt das Tonnenspielchen also von der Benchszene ab.

Auf gut Deutsch: Die diversen benchen haben Ihre Gültigkeit nur innerhalb der gewählten Szene, ansonsten sagen sie 0, Nada, Nichts über dass allgemeine Verhalten von CPU X bei Spiel Y aus.

Moral: Das Einzige was für die Tonne ist, ist das Gebenche mit einer einzigen Exklusivszene.

Frohes Fest

Alex

y33H@
2009-12-24, 16:31:06
Volker rückt das Save sicher raus und er wird sicher auch mehrere Runs machen und mitteln. Es ist halt die Szene, die nach reinen MHz giert und daher den 3,4-GHz-Deneb vorne sieht. In einer anderen ist Effizienz gefragt und da herrschen dann die Nehalmens.
Auf gut Deutsch: Die diversen benchen haben Ihre Gültigkeit nur innerhalb der gewählten Szene, ansonsten sagen sie 0, Nada, Nichts über dass allgemeine Verhalten von CPU X bei Spiel Y aus.
Das war nie anders und das sollte eigentlich auch jedem klar sein. Ein Bench ist immer nur eine Momentaufnahme von Treiber, GPU, CPU, Spiel, Spielversion, Szene usw. Eine absolute, 100%tige Aussage über die Leistung einer CPU in einem Spiel zu treffen ist unmöglich - immer nur Tendenzen, die in der Summe mit anderen Spielen/Szenen zu einem Resultat führen.

dr_mordio
2009-12-24, 16:37:43
Ich habe mal eine ganz andere Frage.

Oft ließt man hier, das der i7 ohne aktiviertes HT noch mehr davon ziehen würde und x-fach schneller wäre...

Warum ist das so? Sollte nicht mit HT alles Besser sein? Oder wozu macht Intel sich die Mühe und packt HT mit dazu, wenn es doch nur bremsen tut?

Also bei meinem alten Pentium IV 3,8GHz war mit HT eigentlich nichts langsamer als ohne.

Soll man dann generell HT aus lassen? Falls ja dann frage ich mich aber ernsthaft wozu HT überhaupt mit an Bord ist.

MfG und frohe Weihnachten
Alex

StefanV
2009-12-24, 16:38:49
Auf gut Deutsch:
Beide haben Vor- und Nachteile.

Und keiner von beiden rockt vollkrass das House, alda, ey.
Oft ließt man hier, das der i7 ohne aktiviertes HT noch mehr davon ziehen würde und x-fach schneller wäre...
Warum ist das so?
Du hast nur eine Ausführungspipeline, die mehrere Dinge erledigen kann/darf.

Hier kanns dann passieren, dass 2 Befehle sich gegenseitig blockieren, was dann wiederum Performance kostet.

dargo
2009-12-24, 16:40:00
Soll man dann generell HT aus lassen? Falls ja dann frage ich mich aber ernsthaft wozu HT überhaupt mit an Bord ist.

Eine CPU hat weitaus mehr Anwendungsbereiche als nur Spiele.

y33H@
2009-12-24, 16:44:03
SMT ist unter Win7 nur da lahmer, wo sich das Spiel selbst auf bestimme Cores "festsetzt" (AffinityMask), dies u.a. in Wow und ArmA2 der Fall - da bringt SMT-Parking halt nichts.

Und keiner von beiden rockt vollkrass das House, alda, ey.Och, teils über 20% vorne trotz 733 MHz weniger finde ich beachtlich.

Odal
2009-12-24, 16:48:58
Auf gut Deutsch:
Beide haben Vor- und Nachteile.

Und keiner von beiden rockt vollkrass das House, alda, ey.


Das ist aber reines Wunschdenken ;) ausser das er bei den tiefen Temperaturen ganz gut die Bude heizt seh ich beim Phenom keine :confused:

y33H@
2009-12-24, 16:51:38
Er hat mehr MHz ;D

dargo
2009-12-24, 17:06:09
Machs erst mal besser, und benche z.B. mehr als nur die 1 Szene im anderen Thread.

Das sagt der richtige, der außer philosophieren nichts beigetragen hat. Naja, lassen wir das bevor es wieder ausartet.

Zum Thema...

Ich habe mir jetzt mal die Ergebnisse von CB in Anno genauer angeschaut.
1024x768 (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/12/) vs 1680x1050 (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/18/)

Folgende Unstimmigkeiten sind mir dabei aufgefallen:

1. In 1024x768 ist der Athlon 2 X2 250 16% schneller als ein E7400. Bei 1680x1050 (also eventuell größerer GPU-Last, eventuell deshalb weil keine Angaben dazu vorhanden sind, bei höherer Auflösung hat man aber zumindest die Chance eher ins GPU-Limit zu rutschen) ist plötzlich der E7400 2% schneller. Nanu, Intel dominiert plötzlich in GPU-Limits. ;D ;)

2. Der Athlon X2 250 verliert beim Wechsel von 1024x768 auf 1680x1050 ~24% an Leistung. Beim i7-870/960 und Q9550 tut sich absolut gar nichts bei den Frames. Jetzt könnte man meinen - diese CPUs sind in einem höheren Framebereich und dementsprechend könnte bei diesen CPUs in der getesteten Szene ein vollständiger GPU-Limit herrschen. Dann dürfte der Phenom II X4 965 BE aber nicht soweit vor den 3 genannten CPUs liegen.

Für mich gibts hier nur ein Fazit - eine sehr fragwürdige Vorgehensweise von CB in Anno was deren Benchszenario angeht.

Edit:
Auch lustig - der Phenom II X4 925 ist in 1680x1050 schneller als in 1024x768. :D
Ok, hier könnte CB einzelne Werte durcheinander gebracht haben. Da der Unterschied aber recht gering ist könnte es auch unter Messtoleranz fallen.

S940
2009-12-24, 17:45:38
Volker rückt das Save sicher raus und er wird sicher auch mehrere Runs machen und mitteln. Es ist halt die Szene, die nach reinen MHz giert und daher den 3,4-GHz-Deneb vorne sieht. In einer anderen ist Effizienz gefragt und da herrschen dann die Nehalmens.
Stimmt auch nicht, denn selbst der 870 @Turbo reißt nichts raus, trotz MHz. Abgesehen sind Mhz kein Argument, da ja die Nehalems ja eigentlich mehr Instruktionen pro Takt verarbeiten. Besonders konfus ist es jetzt, wenn das sich von einer Szene auf die andere Szene ändert, das hat mit allem Möglichen zu tun, aber nicht mit Mhz ..
Das war nie anders und das sollte eigentlich auch jedem klar sein. Ein Bench ist immer nur eine Momentaufnahme von Treiber, GPU, CPU, Spiel, Spielversion, Szene usw. Eine absolute, 100%tige Aussage über die Leistung einer CPU in einem Spiel zu treffen ist unmöglich - immer nur Tendenzen, die in der Summe mit anderen Spielen/Szenen zu einem Resultat führen.Schön dass Du das jetzt sagst, aber das hab ich bisher bei keinem PCGH test gelesen, da steht eher was in Richtung "herrschen" und "in die Tonne treten", bestenfalls in abgemilderter Form. Besonders abstrus wirds unter dem Gesichtspunkt, dass meistens die Abstände nur im einstelligen Prozentbereich sind, trotzdem wird ein "Sieger" gekürt oder zumindest Plazierungen nach schneller / langsamer vergeben.

Ausserdem .. welche Tendenzen willst Du feststellen, wenn sowas komisches wie bei Anno passiert, wo auf der einen Seiter der 965 fast schon meilenweit vor dem besten Nehalems inkl. Turbo & SMT liegt, und auf der anderen Seite ein i5 750 Runden um den P2 965 dreht. Einzig logisches Fazit wäre: Unentschieden ...

Größere Abstände gibts höchstens bei den berüchtigten 800er Tests. Wieviel Wert die haben ist - ich sag mal jetzt vorsichtig - sehr zweifelhaft.

Dass die ganze Tendenz Sache nicht jedem klar ist, sieht man ja sogar hier im Forum ... dargo & Odal benchen eine Szene und berichten stolz, dass sie jetzt alle Gerüchte widerlegt haben ...

Edit:
Das sagt der richtige, der außer philosophieren nichts beigetragen hat. Naja, lassen wir das bevor es wieder ausartet.
Ich behaupte aber auch nicht etwas 100%ig widerlegt zu haben, wie Du sagst, ich philosophiere nur :)
Wenn man sich in die Bench Hölle begibt, braucht man ein dickes Fell, frag mal Marc :D

1. In 1024x768 ist der Athlon 2 X2 250 16% schneller als ein E7400. Bei 1680x1050 (also eventuell größerer GPU-Last, eventuell deshalb weil keine Angaben dazu vorhanden sind, bei höherer Auflösung hat man aber zumindest die Chance eher ins GPU-Limit zu rutschen) ist plötzlich der E7400 2% schneller. Nanu, Intel dominiert plötzlich in GPU-Limits.

2. Der Athlon X2 250 verliert beim Wechsel von 1024x768 auf 1680x1050 ~24% an Leistung. Beim i7-870/960 und Q9550 tut sich absolut gar nichts bei den Frames. Jetzt könnte man meinen - diese CPUs sind in einem höheren Framebereich und dementsprechend könnte bei diesen CPUs in der getesteten Szene ein vollständiger GPU-Limit herrschen. Dann dürfte der Phenom II X4 965 BE aber nicht soweit vor den 3 genannten CPUs liegen.
Gut aufgepasst, das unterstreicht eher meine Idee, dass die Cachegröße im cb Szenario sehr wichtig ist und die Cacheauslastung je nach Auflösung unterschiedlich ist.
Der X2 250 hat ja nur 2x1 MB... der 7400er hat 3 MB und die Denebs dann noch nen dicken 6MB L3.


Frohes Fest

Alex

y33H@
2009-12-24, 20:19:07
Schön dass Du das jetzt sagst, aber das hab ich bisher bei keinem PCGH test gelesen, da steht eher was in Richtung "herrschen" und "in die Tonne treten", bestenfalls in abgemilderter Form.Nun, Aussagen wie "herrschen" und "in die Tonne treten" sind natürlich nur für die gezeigte Momentaufnahme gültig. Das sollte wie gesagt jedem klar sein. Kein Bench eines Spiels hat Absolutheitsanspruch, den "einzig wahren" Bench zu finden, ist praktisch unmöglich. Man kann sich ihm nur annähern - ich etwa logge beim Zocken alle Fps mit und kann so sehr schön Worst-Case-Szenen auf ein Performance-Mittel heraus filtern.

Und ja, n dickes Fell braucht man. Mein Vorteil: Ich bin masochistischer als die meisten anderen ;D

Leonidas
2009-12-27, 15:34:08
Stärkere Abweichungen zwischen den einzelnen Ergebnissen bei Savegames möglich. Außerdem beziehen sich die min.fps auf einen einzigen Wert. Stelle dir eine lange Szene von sagen wir mal 120 Sekunden vor. Innerhalb dieser 120 Sekunden bricht die Framerate für eine Sekunde stärker ein, die anderen 119 Sekunden liefern eine für dich ausreichende Framerate. Ich glaube kaum, dass dieser Einbruch für eine Sekunde jemanden wirklich im Spielverlauf stören würde.


Ist ja noch schlimmer. Die Min-fps ist der Wert eines einzigen Bildes. Also nicht der von einer Sekunde, sondern der von einer Zwangzigstel Sekunde (bei 20 fps).

Gast
2009-12-28, 04:58:55
Wie sinnbefreit ist es denn, in das abschließende "Performancerating" gerade die Spiele-Benchmarks einfließen zu lassen, die potenziell GPU-limitiert sind, während man die möglicherweise brauchbaren völlig außen vor lässt?

Ansonsten halte ich es auch nicht für sonderlich interessant, eine große Menge an bis auf den Takt/Cache praktisch identischen x86-Prozessoren zweier Hersteller gegeneinander antreten zu lassen. Was da rauskommt, kann man doch fast schon ausrechen, aber zumindest abschätzen. Hätten vielleicht mal ein paar andere CPUs nehmen sollen als den 23. Phenom oder den 87. Core2/i7.

Coda
2009-12-28, 05:36:36
Phenom II und Core i7 sind nicht "praktisch identisch". Vor allem gerade der Kern unterscheidet sich an einigen Stellen erheblich.

mapel110
2009-12-28, 05:45:32
Phenom II und Core i7 sind nicht "praktisch identisch". Vor allem gerade der Kern unterscheidet sich an einigen Stellen erheblich.
Ich denke, der Gast meint eher Phenom x gegen Phenom x+100 gegen Phenom x+200 und Core2 x gegen Core2 x+100 gegen Core2 x+200 etc pp
Find sowas auch immer sehr überflüssig.
Einen Vergleich mit einem Athlon 64 Single Core beispielsweise findet man im Web nur sehr selten. Das wäre auch mal nett anzusehen in so einem Vergleich.

Simon Moon
2009-12-28, 08:12:33
Einen Vergleich mit einem Athlon 64 Single Core beispielsweise findet man im Web nur sehr selten. Das wäre auch mal nett anzusehen in so einem Vergleich.

Nein, solange die min fps nicht aufgeschlüsselt sind. Ich denke dort würde ein Single Core mittlerweile so brutal einbrechen, dass man an einen praktischen Spieleeinsatz nicht mehr denken kann.



btw. wenn ich mir die Ergebnisse so anschau, ist der CPU Markt einfach dröge geworden. Ein 3 1/2 jähriger E6700 erreicht immer noch hochgerechnet ~40% von heutigem High-End. Zum Vergleich: Im Februar 99 wurde der P3 vorgestellt, mit 450 Mhz - 3 1/2 Jahre später, also August 02 gabs bereits den P4 mit 2,8Ghz!

Gast
2009-12-28, 09:01:57
btw. wenn ich mir die Ergebnisse so anschau, ist der CPU Markt einfach dröge geworden. Ein 3 1/2 jähriger E6700 erreicht immer noch hochgerechnet ~40% von heutigem High-End. Zum Vergleich: Im Februar 99 wurde der P3 vorgestellt, mit 450 Mhz - 3 1/2 Jahre später, also August 02 gabs bereits den P4 mit 2,8Ghz!

Ich verstehe den Vergleich nicht. P4 war ein so derber Flopp, dass Enthusiasten sich Pentium Ms auf P3-Basis als Desktop-Rechner zusammenbastelten. Ein Tualatin 1,4 GHz leistete keineswegs < 40 % von dem, was ein P4 2,8 GHz leistete.

Zudem finde ich es doch schon sehr erstaunlich, dass ein aktueller Mainstream-Quadcore i5 2,66 GHz teilweise fast doppelt so schnell wie ein nicht mal 3 Jahre alter Quad-Core Q6600 2,4 GHz ist und dann auch noch bei 1680 x 1050. Die Pro-MHz-Leistung ist enorm gestiegen.

Gast
2009-12-28, 09:46:54
mit der aussage wäre ich vorsichtig! einfach mal aktuellen core i5 mit 1 kern starten und dann im benchmark von truecrypt mit nem A64 2,4 ghz vergleichen. SOO viel hats sich DA nicht wirklich getan. (~100mb/s)

(was mich enttäuscht)

Gast
2009-12-28, 09:52:33
(anzumerken sei hierbei der vollständigkeit halber noch das diese einzallanwendung DAFÜR supergeil mit der anzahl der kerne skaliert.)

Schrotti
2009-12-28, 11:28:48
P4 war ein so derber Flopp, dass Enthusiasten sich Pentium Ms auf P3-Basis als Desktop-Rechner zusammenbastelten.


Deine Meinung, ich sehe das etwas anders. Die Leistung des Pentium 4 war ok.

Undertaker
2009-12-28, 11:38:37
Nun, man könnte sagen, die Leistung des P4 war äußerst anwendungsabhängig. ;) In Spielen war der Abstand zu den Athlon 64/X2 erheblich, wir befanden uns in einer ähnlichen Situation wie aktuell zwischen i5/i7 und Phenom II: Das größte Modell erreicht gerade so die Leistung des kleinsten Konkurrenzproduktes. Für Spieler war der P4 seit Erscheinen des K8 also kaum eine gute Wahl.

Anders bei Anwendungen: Wälzt man mal ein paar alte Ratings stellt man fest, dass abseits von Spielen praktisch immer ein P4 mit um die absolute Leistungsspitze kämpfte, auch das Gesamtrating war hart umkämpft. Ganz anders als heute... So schlecht wie alle reden, war der P4 also gar nicht. Außer in Spielen und bei der Energieeffizienz. ;)

Odal
2009-12-28, 11:53:59
btw. wenn ich mir die Ergebnisse so anschau, ist der CPU Markt einfach dröge geworden. Ein 3 1/2 jähriger E6700 erreicht immer noch hochgerechnet ~40% von heutigem High-End. Zum Vergleich: Im Februar 99 wurde der P3 vorgestellt, mit 450 Mhz - 3 1/2 Jahre später, also August 02 gabs bereits den P4 mit 2,8Ghz!

Das liegt aber daran das man eben nicht mehr rein über den Takt gehen kann sondern gezwungen ist geschwindigkeit durch multicores und effizienz rauszuholen
Das es beim Takt grenzen gibt muss AMD derzeit leidlich erfahren
das C3 stepping gibts ja prinzipiell nur um wieder ein bisschen TDP frei zu machen damit man beim 965BE nicht aufhören muss sondern noch einen 975BE nachschieben kann

mit der aussage wäre ich vorsichtig! einfach mal aktuellen core i5 mit 1 kern starten und dann im benchmark von truecrypt mit nem A64 2,4 ghz vergleichen. SOO viel hats sich DA nicht wirklich getan. (~100mb/s)

(was mich enttäuscht)
(anzumerken sei hierbei der vollständigkeit halber noch das diese einzallanwendung DAFÜR supergeil mit der anzahl der kerne skaliert.)

eben, wo man vielleicht die effizienz eines Cores für sich genommen nicht mehr enorm steigern kann versucht man eben die effizienz der kernskalierung zu steigern
sieht man ja bei intel mit den core i7 welche über mehrere Kerne deutlich besser skalieren als die c2q da nicht mehr über den FSB kommuniziert werden muss.

ICC Geisel
2009-12-28, 13:36:09
Anders bei Anwendungen: Wälzt man mal ein paar alte Ratings stellt man fest, dass abseits von Spielen praktisch immer ein P4 mit um die absolute Leistungsspitze kämpfte, auch das Gesamtrating war hart umkämpft. Ganz anders als heute... So schlecht wie alle reden, war der P4 also gar nicht. Außer in Spielen und bei der Energieeffizienz. ;)


Da blendest du aber aus, dass viele dieser Anwedungen und Benchmarks den ICC verwendeten. Zum damaligen Zeitpunkt hieß das keine SSE(2) Erweiterungen für AMD-CPUs. Beispiel PCMark05, kein einziger CPU-Bench nutzt dort SSE(2) bei den AMD CPUs. Das kann man ganz leicht selber mit Boards prüfen, die ein Deaktivieren der SSE-Befehle ermöglichen -> identische Ergebnisse egal ob mit oder ohne SSE(2). Das ist nur die Spitze des Eisbergs, die man ohne Aufwand überprüfen kann.

StefanV
2009-12-28, 13:51:02
Deine Meinung, ich sehe das etwas anders. Die Leistung des Pentium 4 war ok.
Nein, der war übler Müll, teilweise konnten deutlich langsamer getaktete klassische Prozessoren an 2GHz Versionen vorbei kommen...

Dazu noch die enorme Abwärme, die in keinem Verhältnis zur Leistung stand.

Limit-Harlekin
2009-12-28, 13:55:04
http://www.computerbase.de/artikel/hardware/prozessoren/2006/test_athlon_64_fx-60_pentium_xe_955/16/#abschnitt_farcry

Von 4 Spielen sind dort 3 aber sowas von im GPU-Limit, was Intel absolut zugute kam im Hinblick auf das Gesamtrating. Ich kann mich nicht erinner, dass damals über die viel offensichtlicheren GPU-Limits lamentiert wurde.

Der Pentium D war absolut untragbar im Vergleich zum X2: http://www.computerbase.de/artikel/hardware/prozessoren/2006/test_athlon_64_fx-60_pentium_xe_955/4/#abschnitt_stromverbrauch

Spasstiger
2009-12-28, 13:55:05
Ich hab kürzlich Jemanden davor bewahrt, einen Netburst-Celeron zu kaufen und ihm stattdessen zum Celeron E1500 geraten. Er war erst skeptisch wegen dem niedrigeren Takt und dem günstigeren Preis, aber hat sich letztlich überzeugen lassen. Das Board, das er sich neu kaufen wollte, hab ich ihm auch ausgeredet. War ein Board mit uraltem Via-Chipsatz von 2006. Stattdessen wurde es dann ein günstigeres Board mit G31-Chipsatz.
/EDIT: Die Sortierung bei Geizhals nach Preis pro GHz führt zu solchen Irrsinns-Ideen, heute noch Netburst-CPUs zu kaufen.

Odal
2009-12-28, 14:09:45
http://www.computerbase.de/artikel/hardware/prozessoren/2006/test_athlon_64_fx-60_pentium_xe_955/16/#abschnitt_farcry

Von 4 Spielen sind dort 3 aber sowas von im GPU-Limit, was Intel absolut zugute kam im Hinblick auf das Gesamtrating. Ich kann mich nicht erinner, dass damals über die viel offensichtlicheren GPU-Limits lamentiert wurde.

Der Pentium D war absolut untragbar im Vergleich zum X2: http://www.computerbase.de/artikel/hardware/prozessoren/2006/test_athlon_64_fx-60_pentium_xe_955/4/#abschnitt_stromverbrauch

Das is ja nix neues, seit dem A64 war der P4 keine Konkurenz mehr...mit dem AthlonXP bzw. selbst mit dem Barton konnte man noch einigermaßen konkurieren.
Die selbe Situation haben wir ja seit dem Core2 dagegen hatte der A64 nix zu melden, und selbst der Phenom tut sich schwer

ab Nehalem ist der Anschluss komplett flöten gegangen

Spasstiger
2009-12-28, 14:14:40
Der Phenom II bzw. Athlon II ist ziemlich erfolgreich. Ich jobbe in einem PC-Laden und das Verhältnis von verkauften AMD-Plattformen im Vergleich zu Intel-Plattformen dürfte bei 3:1 liegen. Gerade der Athlon II X3/X4 weckt Interesse, in dem Bereich hat Intel nix direkt entgegenzusetzen.

Undertaker
2009-12-28, 14:45:15
Da blendest du aber aus, dass viele dieser Anwedungen und Benchmarks den ICC verwendeten.

Dem Anwender ist völlig egal, warum CPU A oder B langsam oder schnell ist. ;)

Nein, der war übler Müll, teilweise konnten deutlich langsamer getaktete klassische Prozessoren an 2GHz Versionen vorbei kommen...

Dazu noch die enorme Abwärme, die in keinem Verhältnis zur Leistung stand.

Öhm, ist das beim PII im Vergleich zum Lynnfield anders? Ebenfalls höher getaktet, langsamer und trotzdem ein höherer Verbrauch. Warum es die Leute dennoch kaufen? Weil der Preis unverschämt gut ist. ;)

Gast
2009-12-28, 14:54:51
Nein, der war übler Müll, teilweise konnten deutlich langsamer getaktete klassische Prozessoren an 2GHz Versionen vorbei kommen...

Dazu noch die enorme Abwärme, die in keinem Verhältnis zur Leistung stand.
HaHa, dann war aber der X2 verglichen mit einem Core2 auch übler Müll, denn deine Kritikpunkte treffen auf diesen ebenfalls zu. Und sogar heute noch, wenn man sich die Notebooks anschaut!

Coda
2009-12-28, 14:59:43
mit der aussage wäre ich vorsichtig! einfach mal aktuellen core i5 mit 1 kern starten und dann im benchmark von truecrypt mit nem A64 2,4 ghz vergleichen.
TrueCrypt ist kein guter Benchmark. Verschlüsselungsalgorithmen sind sehr vorhersehbar und weitgehend branchless, d.h. man bekommt immer fast den maximalen theoretisch möglichen Durchsatz.

Wichtig ist bei normalen Programmen das Verhalten bei komplexeren Sprungmustern und Datenzugriffen.

HaHa, dann war aber der X2 verglichen mit einem Core2 auch übler Müll
War er so gesehen auch. Mit dem Unterschied, dass die Architektur bereits am Ende ihres Lebenszyklus war.

Intel hätte wohl zu jeder Zeit mit einer vernünftigen Architektur höhere Leistung erzielen können als mit dem P4 (wie die Pentium-M-Linie zeigt), insofern war Netburst wirklich ein Reinfall.

ICC Geisel
2009-12-28, 15:15:39
Dem Anwender ist völlig egal, warum CPU A oder B langsam oder schnell ist. ;)

Dann kann man aber nicht der K8 Architektur eine lediglich moderat bessere Leistung unterstellen, wenn lizensierte Erweiterungen hinterücks ausgeschlossen werden, obwohl sie vorhanden sind. Die K8 Architektur wurde in vielen dieser Anwednung künstlich mit angezogene Handbremse gefahren.



Öhm, ist das beim PII im Vergleich zum Lynnfield anders? Ebenfalls höher getaktet, langsamer und trotzdem ein höherer Verbrauch. Warum es die Leute dennoch kaufen? Weil der Preis unverschämt gut ist. ;)

Der K10,5 ist nicht im Ansatz so ineffizient, dekadent und P/L-technisch katastrophal wie der P4/D zur damaligen Zeit.

Undertaker
2009-12-28, 16:03:59
Der K10,5 ist nicht im Ansatz so ineffizient, dekadent und P/L-technisch katastrophal wie der P4/D zur damaligen Zeit.

Man muss sich jetzt nicht darüber streiten, welche Architektur gemessen an der Konkurrenz ihrer Zeit die schlechtere war oder ist. ;) Jedenfalls, bzgl. der Leistung kämpfte der P4 abseits von Spielen - aus welchen Gründen auch immer - durchgängig mit um die Spitze, das lässt sich beim Nachlesen damaliger Reviews nicht leugnen. Ich hatte jedenfalls einen P4 und jetzt einen Phenom II, ganz einfach weil das P/L stimmte. :)

(+44)
2009-12-28, 16:18:34
Ich meine NetBurst war gerade bei Spielen schlechter, aber in "Professionellen" Anwendungen König.

S940
2009-12-28, 16:32:06
Ich meine NetBurst war gerade bei Spielen schlechter, aber in "Professionellen" Anwendungen König.
Jo, dank Intel Compiler, die Geschichte fing 2003 an ...
Netburst war trotzdem in der Übergangszeit vor dem K8 gut. Die Northwoods mit Hyperthreading waren damals ne feine Sache, im Vergleich zu den K7 nicht übel.

Aber dann Prescott gegen K8 ... neee :freak:

ciao

Alex

rotanat
2009-12-28, 16:33:36
Der Phenom II bzw. Athlon II ist ziemlich erfolgreich. Ich jobbe in einem PC-Laden und das Verhältnis von verkauften AMD-Plattformen im Vergleich zu Intel-Plattformen dürfte bei 3:1 liegen. Gerade der Athlon II X3/X4 weckt Interesse, in dem Bereich hat Intel nix direkt entgegenzusetzen.

Zum preisgünstigem Aufrüsten von nem älteren X2 oder Core2Duo System sind die aktuellen Phenoms ja auch ideal, spart man doch pi mal Daumen 100 Euro wenn man auf AM2+ geht und den alten DDR2 Speicher weiterverwendet (also Board + CPU sind ja für 150-200 Euro machbar, ein i5 System kostet ja Minimum um die 250 Euro).

Ronny145
2009-12-28, 16:34:59
In den Anwendungen zählen pure Mhz mehr. Ist ja selbst jetzt noch so, siehe Phenom 2 3,4 Ghz gegen i5 750 in Spielen und Anwendungen. Aber früher noch mehr wegen fehlendem multithreading. Der P4 in Anwendungen damals war deutlich konkurrenzfähiger als in Spielen.

ICC Geisel
2009-12-28, 16:38:52
Ich hatte jedenfalls einen P4 und jetzt einen Phenom II, ganz einfach weil das P/L stimmte. :)

Auf den P4 bezogen ist das natürlich Unsinn, den man immer wieder mal liest. Der P4 hatte im Vergleich zum A64 nahzu immer das schlechter P/L-Verhältnis. Hier mal ein Auszug damals gebräuchlicher CPUs:

http://www.heise.de/preisvergleich/?phist=143402&age=2000
http://www.heise.de/preisvergleich/?phist=171960&age=2000

Lediglich die Dual-Core Netburst CPUs (Pentium D) hatten im Frühjahr 2006, vor der Core2 Markteinführung, für einige Wochen ab Mai das besser P/L-Verhältnisse (P-D 920 & 930, später auch 940). Ich kann mich noch gut daran erinnern, es war geradezu eine Sensation in Foren Intel mal als "günstiger" empfehlen zu können. Kurz darauf folgte AMD aber schon Intel mit einer radikalen Preissenkung der X2 CPUs und AMD war wie bereits lange zuvor wieder führend im P/L-Verhältnis.

san.salvador
2009-12-28, 16:44:10
Ich habe damals meinen P4 3.0c gegen ein CT-479 mit Celeron M360 getauscht. Der lief glaub ich auf ~2.4Ghz und hat den P4 arg verprügelt. Bei gefühlt 3% des Stromverbrauchs. :D

Gummikuh
2009-12-28, 16:48:52
Auf den P4 bezogen ist das natürlich Unsinn, den man immer wieder mal liest. Der P4 hatte im Vergleich zum A64 nahzu immer das schlechter P/L-Verhältnis.

Kommt eben auf den Zeitraum an.

Manche haben sich auch einen P4 System gekauft bevor der Athlon 64 heraus kam, ja zu Athlon XP Zeiten eben.

Ich habe damals meinen P4 3.0c gegen ein CT-479 mit Celeron M360 getauscht. Der lief glaub ich auf ~2.4Ghz und hat den P4 arg verprügelt.

Oh ja der CT479, da werden Erinnerungen wach!:biggrin:

Hatte ein Pentium M Dothan ebenfalls mit 2,4 GHz am laufen, mein voriger P4 3,06 HT mit 3,4 GHz konnte da nicht gegenhalten.Zumindest in Spielen.

Undertaker
2009-12-28, 16:50:13
Leistung:

http://www.computerbase.de/artikel/hardware/prozessoren/2005/test_intels_pentium_4_600-serie/28/

Preise:

http://www.computerbase.de/artikel/hardware/prozessoren/2005/test_intels_pentium_4_600-serie/30/#abschnitt_fazit

Abseits von Spielen:

P4 660 > A64 4000+ und billiger
P4 530 > A64 3200+ und billiger
P4 650 > A64 3800+ und billiger

Im Office & Internet Segment hat sogar ein P4 550 für 265€ einen 590€ A64 4000+ geschlagen! Es bleibt dabei: Abseits von Spielen und Stromverbrauch war der P4 mehr als nur konkurrenzfähig, teils auch P/L König.

Sesam öffne dich
2009-12-28, 17:03:12
Ja wenn man alles neagtive ausblendet kann man sich alles schönreden. Ich denke spätestens ab der 90nm Venice Ära wurde es sehr eng noch Argumente für Intel zu finden.

Gast
2009-12-28, 17:06:54
Im Office & Internet Segment hat sogar ein P4 550 für 265€ einen 590€ A64 4000+ geschlagen! Es bleibt dabei: Abseits von Spielen und Stromverbrauch war der P4 mehr als nur konkurrenzfähig, teils auch P/L König.

Die Architektur war großer Bullshit. Im Rating - Office und Internet ist ein P4 570J 3,8 GHz keine 5 % schneller als ein A64 2,6 GHz, trotz Hyper Threading. Beim Rating - CAD und 3D ist ein 2,6 GHz-A64 sogar schneller als alle Intels und bei Spielen MIT ABSTAND schneller (im Durchschnitt ist ein 2,6 GHz-A64 14 % schneller als ein P4 EE 3,73 GHz).

Undertaker
2009-12-28, 17:07:35
Die Aussage des P/L Vorteils abseits von Spielen hat nichts mit schönreden zu tun, die ist vollkommen objektiv mit Benchmarks und Preisen belegt. Als Spieler oder für Stromsparrechner war der P4 nichts, keine Frage. Genauso muss man aber auch seine Stärken anerkennen, die er durchaus hatte.

Generell wird das heutige Bild sehr durch den nachfolgenden und übermächtigen Core 2 verfälscht. An diesem darf man den P4 aber nuneinmal nicht messen, die Konkurrenz war der Athlon XP und später der Athlon 64/X2. ;)

Die Architektur war großer Bullshit. Im Rating - Office und Internet ist ein P4 570J 3,8 GHz keine 5 % schneller als ein A64 2,6 GHz, trotz Hyper Threading. Beim Rating - CAD und 3D ist ein 2,6 GHz-A64 sogar schneller als alle Intels und bei Spielen MIT ABSTAND schneller (im Durchschnitt ist ein 2,6 GHz-A64 14 % schneller als ein P4 EE 3,73 GHz).

Was interessiert der Takt oder Features wie Hyperthreading? Es zählt, was hinten herauskommt. Und wenn der P4 10GHz benötigt hätte, um gegen den Athlon 64 zu bestehen - hätte er diesen Takt ohne Probleme erreicht, wär's völlig egal. Ist doch das gleiche Bild wie aktuell mit dem Phenom II: In Spielen braucht dieser teils auch 4GHz, um gegen einen i5/i7 mit nicht einmal 3GHz zu bestehen, ähnlich war es bei Core 2 zu Athlon 64. Nicht der Takt interessiert, sondern Preis, Leistung und in gewissem Maß auch der Verbrauch. Als Office-CPU konnte sich der P4 in den ersten beiden Punkten sehr gut schlagen.

StefanV
2009-12-28, 18:00:50
Im Office & Internet Segment hat sogar ein P4 550 für 265€ einen 590€ A64 4000+ geschlagen! Es bleibt dabei: Abseits von Spielen und Stromverbrauch war der P4 mehr als nur konkurrenzfähig, teils auch P/L König.
Ja, vorallen bei der Leistungsaufnahme :freak:
Die war bei dem Teil wirklich übel.

Und AMD 64 gabs beim P4/550 auch nicht.

Gast
2009-12-28, 18:02:59
In Spielen braucht dieser teils auch 4GHz, um gegen einen i5/i7 mit nicht einmal 3GHz zu bestehen, ähnlich war es bei Core 2 zu Athlon 64.
Mit dem Unterschied dass es heute eher theoretische Gedankenspiele sind. Ein Phenom2 ruckelt nicht, ein i5 ruckelt auch nicht, das war in P4 / K7 Zeiten noch anders.

Undertaker
2009-12-28, 18:09:06
Mit dem Unterschied dass es heute eher theoretische Gedankenspiele sind. Ein Phenom2 ruckelt nicht, ein i5 ruckelt auch nicht, das war in P4 / K7 Zeiten noch anders.

Na sicher:

2005: http://www.computerbase.de/artikel/hardware/prozessoren/2005/test_intels_pentium_4_600-serie/20/#abschnitt_call_of_duty
Kein einziges Spiel mit unter 50fps auf dem kleinsten P4 520.

2009: http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/19/#abschnitt_arma_2
Im Extremfall nicht einmal 30fps auf der schnellsten überhaupt erhältlichen CPU. Und das ist noch lange nicht worst case, einen solchen hatten wir aber korrekterweise im 2005er Test ebenfalls nicht dabei.

Ja, vorallen bei der Leistungsaufnahme

Nun, auch einen Mangel an Energieeffizienz kann man über den Preis relativieren, siehe Phenom 1/2. ;) Wobei heutzutage zumindest die idle-Werte generell erträglicher sind. :)

StefanV
2009-12-28, 18:10:03
Ich hab kürzlich Jemanden davor bewahrt, einen Netburst-Celeron zu kaufen und ihm stattdessen zum Celeron E1500 geraten.
Warum kein AMD?
Besonders:
Stattdessen wurde es dann ein günstigeres Board mit G31-Chipsatz.
Deswegen.

Der G31 hat einige blöde Limitierungen, z.B. kein Memory Remapping und daher die Beschränkung auf 4GiB Arbeitsspeicher, genaueres kannst hier nachlesen (http://www.intel.com/cd/products/services/emea/deu/chipsets/364605.htm).

Odal
2009-12-28, 18:38:54
weil AMD in dem Preissegment Bälle saugt

allerdings frag ich mich warum keinen E3200?

Gast
2009-12-28, 18:42:41
Phenom II und Core i7 sind nicht "praktisch identisch". Vor allem gerade der Kern unterscheidet sich an einigen Stellen erheblich.Das wollte ich auch nicht sagen. Mapel merkte es ja bereits an. In dem ganzen Test existieren eigentlich nur 3 unterschiedliche Designs. Core 2, i7 und K10,5. Die bis zu 131 verschiedenen SKUs (hardware.fr) unterscheiden sich dann nur noch auf dem Papier und dem Cacheausbau.Inwiefern rechtfertigen die durch das Benchen gewonnen Erkenntnisse den enormen Aufwand so viele verschiedene, aber eigentlich doch praktisch identische, Produkte zu testen? Wenn ich zwei CPUs habe, die sich lediglich um 200 Mhz Takt unterscheiden, brauch ich wohl kaum riesige Benchmarksuites auffahren, um den Geschwindigkeitsunterschied vorrauszusagen. Dann halt eben nicht auf zwei Stellen hinter dem Komma genau.

Zu Netburst: Spätestens als die nebeneinander aus dem Wafer geschnittenen Doppelkerne kamen, sah es sehr schlecht aus. Man kam ja nicht über 3,2 GHz, während die Athlon FXen bis 2,6/2,8 gingen. Mit dem 65-nm-Presler sah es dann schon etwas besser aus.

Spasstiger
2009-12-28, 20:19:47
Der G31 hat einige blöde Limitierungen, z.B. kein Memory Remapping und daher die Beschränkung auf 4GiB Arbeitsspeicher, genaueres kannst hier nachlesen (http://www.intel.com/cd/products/services/emea/deu/chipsets/364605.htm).
Es war ein Office-PC für WinXP mit 1 GB RAM. Vorgabe war nur: Möglichst billig. Und zwei IDE-Kanäle. Deshalb wollte der Kunde auch das uralte Board mit Via-Chipsatz, das wir noch als Restposten hatten. Das G31-Board war aber nochmal ein ganzes Stück günstiger und hat den Celeron E1500 definitiv unterstützt. Das Problem des fehlenden, zweiten IDE-Kanals haben wir mit einer modernen SATA-HDD umschifft. Im Endeffekt war es dann auch nur 10€ teurer als die ursprüngliche Planung, aber CPU-seitig bis zu dreimal so schnell. AMD wollte der Kunde nicht.

Simon Moon
2009-12-29, 06:14:50
Ich verstehe den Vergleich nicht. P4 war ein so derber Flopp, dass Enthusiasten sich Pentium Ms auf P3-Basis als Desktop-Rechner zusammenbastelten. Ein Tualatin 1,4 GHz leistete keineswegs < 40 % von dem, was ein P4 2,8 GHz leistete.


Ich vergleich aber keinen Tualatin 1,4Ghz mit dem P4 2,8Ghz, sondern den PII 450Mhz, der 3 1/2 Jahre vor dem P4 2,8Ghz auf den Markt kam. Da ist eine Leistungssteigerung um Faktor 5 sehr realistisch. Die Steigerung vom E6700 zum heutigen i9 Topmodel sind hingegen nur rund Faktor 2,5.
Oder kurz, wenn ich '02 noch auf ner Krücke von 450Mhz rumhockte, konnt ich Spiele vergessen. Mit einem E6700 lassen sich aber auch heute noch die meisten Spiele starten und sind spielbar.

Das liegt aber daran das man eben nicht mehr rein über den Takt gehen kann sondern gezwungen ist geschwindigkeit durch multicores und effizienz rauszuholen
Das es beim Takt grenzen gibt muss AMD derzeit leidlich erfahren
das C3 stepping gibts ja prinzipiell nur um wieder ein bisschen TDP frei zu machen damit man beim 965BE nicht aufhören muss sondern noch einen 975BE nachschieben kann

Nur flacht die Entwicklung eben ab, Multicore und Effizienz-Steigerung sind eben nicht so effektiv wie eine Takterhöhung (wohl aber effizienter mittlerweile).

Bisher hab ich eigentlich immer aufgerüstet, wenn ein doppelt so schneller PC im Mainstream Preissegment war. Also von K6-2 333 auf Athlon 700 auf XP2000+ auf (mit zwangsumweg über P4 2.0Ghz) auf E6300@2,5Ghz auf einen Q9550 - die Abstände der Neuanschaffung verlängert sich, dafür werden die Sprünge kleiner.
Das ist eine schlichte Feststellung, ohne dabei auf die konkreten technischen Probleme, die mich als Konsument aus praktischer Sicht nicht interessieren, einzugehen.
Approximiere ich diese Entwicklung, wird es wohl 2012 der nächste Prozessor - ausser Multi/Many-Core schlägt in dieser Zeit noch richtig ein bezügl. Software die es nutzt.

Daredevil
2009-12-29, 06:35:27
Multicore ist auch ganz schön beschissen für die Entwicklung.
Mit ner HD4850 habe ich 35FPS, mit ner HD4870 habe ich 42FPS und mit ner HD4890 habe ich 46 FPS.
Mit nem C2D 2.4Ghz habe ich 35 FPS, mit einem C2D 2.8 Ghz 40FPS und mit einem C2D 3.2 Ghz dann 47 FPS.
Läuft und skaliert alles total smooth und angenehm bei Spielen die nicht 4 Kerne wollen.

So... und jetzt spiel mal nen Multicore Spiel :ugly:
2 Kerne > 20Fps
4 Kerne > 40Fps
8 Kerne > 80Fps
Hier sind die Grenzen knallhart, unspielbar bis spielbar und sehr gut spielbar.
Da kann man mal eben nicht die Physikengine ausschalten oder die Passenten die halt im Spiel sind deaktivieren, wenn du da ans Limit stößt bist du Tot. Du kannst nichts machen, das Spiel kannst du nicht spielen.

Gta IV ist das bekannteste Beispiel ( Wobei man da wenigstens noch regulieren kann ), das neue Star Wars Spiel ruckelt bei mir übelst rum dank toller Physik Engine und dieses eine Spiel ( Mit dem Typen der von Haus zu Haus gesprungen es..... wie hieß es denn?.... dieser Zombie Typ da... ) ging garnicht mit hohen Schatteneinstellungen, 15 fps hallo. Das mit einem C2D 3.2 Ghz!

Es mag zwar sein das momentan der Wechsel noch nicht so schlimm ist, aber wenn sich irgendwann die FPS halbieren weil davon ausgegangen wird das 4 Kerne mind. genutzt werden sind Dual Cores ganz schnell lahme Enten.

Gast
2009-12-29, 09:21:25
Mit dem Typen der von Haus zu Haus gesprungen es..... wie hieß es denn?.... dieser Zombie Typ da... ) ging garnicht mit hohen Schatteneinstellungen, 15 fps hallo. Das mit einem C2D 3.2 Ghz!Prototype? Mit einem i7 mit 2,67 GHz läuft das einwandfrei mit Details am Anschlag.

Odal
2009-12-29, 10:07:14
Bisher hab ich eigentlich immer aufgerüstet, wenn ein doppelt so schneller PC im Mainstream Preissegment war. Also von K6-2 333 auf Athlon 700 auf XP2000+ auf (mit zwangsumweg über P4 2.0Ghz) auf E6300@2,5Ghz auf einen Q9550 - die Abstände der Neuanschaffung verlängert sich, dafür werden die Sprünge kleiner.
Das ist eine schlichte Feststellung, ohne dabei auf die konkreten technischen Probleme, die mich als Konsument aus praktischer Sicht nicht interessieren, einzugehen.
Approximiere ich diese Entwicklung, wird es wohl 2012 der nächste Prozessor - ausser Multi/Many-Core schlägt in dieser Zeit noch richtig ein bezügl. Software die es nutzt.

Das kannst du doch immer noch so machen, hat doch immerhin den Vorteil das du alle paar Jahre mal ein bisschen in CPU und Unterbau investieren musst. Mein letztes Upgrade war A64 X2 3800+ @2x2.6Ghz 2GB DDR1 Ram auf den i5@4x4Ghz 4GB DDR3 Ram
Also faktisch selbst für Dinge die nicht über mehrere Cores skalieren mind. eine Verdopplung

Bis auf Ausnahmen wie z.B. das schon erwähnte GTA4, welches ich jetzt erst durchspiele, war eigentlich alles noch irgendwie machbar.

Schnitzl
2009-12-29, 11:09:41
kurze Frage:
von den Spielen in dem Test hab ich nur Dirt2 (weils bei der 5850 dabei war)
Als CPU einen C2D E8600.

Mein Fazit wäre, dass Aufrüsten in meinem Fall Sinnfrei ist. (siehe hier (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/21/#abschnitt_colin_mcrae_dirt_2) )
Wenn ich jetzt Anno dazukaufen würde, würde es Sinn machen, auf nen PhenomII umzusteigen?
Bei allen anderen (und zukünftigen) Spielen --> i5/i7?
Oder ist es doch egal, da man bei höheren Auflösungen + AA sowieso am GPU-Limit hängt?
Irgendwie bin ich mir überhaupt nicht mehr sicher...

MfG

Gast Hitcher
2009-12-29, 12:35:29
man muss sich mal klar sein, dass man für Spiele eigentlich nur in den seltensten Fällen wirklich mehr als 35FPS benötigt, und das schafft aktuell auch ein günstiger AthlonII X4 630. Notfalls schraubt man halt ein paar Physik-Details und extra hohe Partikelzahl runter, die die CPU enorm belasten. Genau deshalb gab es ja auch die PhysX-Initiative von Nvidia, um eben so die CPU zu entlasten und gleichzeitig für mehr Physik-Details zu sorgen. Also kann man sich auch fragen, ob man nicht lieber eine günstige zus. Physikkarte kaufen soll, statt einer über-drüber CPU besonders auch für zukunftige Spiele.

Gast
2009-12-29, 12:49:31
Multicore ist auch ganz schön beschissen für die Entwicklung.
Mit ner HD4850 habe ich 35FPS, mit ner HD4870 habe ich 42FPS und mit ner HD4890 habe ich 46 FPS.
Mit nem C2D 2.4Ghz habe ich 35 FPS, mit einem C2D 2.8 Ghz 40FPS und mit einem C2D 3.2 Ghz dann 47 FPS.
Läuft und skaliert alles total smooth und angenehm bei Spielen die nicht 4 Kerne wollen.

So... und jetzt spiel mal nen Multicore Spiel :ugly:
2 Kerne > 20Fps
4 Kerne > 40Fps
8 Kerne > 80Fps
Hier sind die Grenzen knallhart, unspielbar bis spielbar und sehr gut spielbar.
Da kann man mal eben nicht die Physikengine ausschalten oder die Passenten die halt im Spiel sind deaktivieren, wenn du da ans Limit stößt bist du Tot. Du kannst nichts machen, das Spiel kannst du nicht spielen.

Gta IV ist das bekannteste Beispiel ( Wobei man da wenigstens noch regulieren kann ), das neue Star Wars Spiel ruckelt bei mir übelst rum dank toller Physik Engine und dieses eine Spiel ( Mit dem Typen der von Haus zu Haus gesprungen es..... wie hieß es denn?.... dieser Zombie Typ da... ) ging garnicht mit hohen Schatteneinstellungen, 15 fps hallo. Das mit einem C2D 3.2 Ghz!

Es mag zwar sein das momentan der Wechsel noch nicht so schlimm ist, aber wenn sich irgendwann die FPS halbieren weil davon ausgegangen wird das 4 Kerne mind. genutzt werden sind Dual Cores ganz schnell lahme Enten.

Ist auch ein komplett unsinniger Vergleich, den du anstellst. Der Unterschied zwischen 4850 -> 4870 -> 4890 liegt allein in der Taktung (unterschiedliche Speichermenge ausgenommen). Wenn du also 2 -> 4 -> 8 gerne vergleichen willst, musst du wohl eher von der 4550 -> 4670 -> 4870 ausgehen, wo sich die Funktionseinheiten im Schnitt verdoppelt haben.

Daredevil
2009-12-29, 15:14:33
Aber selbst bei der HD4550 kannst du heutige Spiele recht annehmbar Spielen indem du einfach die Details und die Auflösung reduzierst.
Bei GTA IV und anderen Spielen die auf einen 4-Kern Prozessor setzen allerdings nicht, weil dort dann die KI oder Physik so dermaßen Prozessorlutschend ist das du mit maximal 20-30 FPS in der Gegen rumnudelst und die kann man ( in den meisten Fällen ) eben nicht umstellen.

Prototype wars, ja! :)
Das habe ich dank CPU limit auf 30-35 FPS gespielt, selbst wenn ich Details reduziert habe, es war immer ein CPU Limit vorhanden. Mein OSD zeigte mit immer CPU Auslastung 99% und GPU ~50-60%. Da das ganze ein Konsolentitel ist denke ich mal das dort 3 und 4 Kerne deutlich besser laufen.

Wer sich ne 100€ statt 200€ Karte kauft kann Details reduzieren, wer sich nen 100€ DC statt nen 200€ QC holt hat in manchen Spielen einfach nur verschissen.

S940
2009-12-29, 16:40:21
kurze Frage:
von den Spielen in dem Test hab ich nur Dirt2 (weils bei der 5850 dabei war)
Als CPU einen C2D E8600.

Mein Fazit wäre, dass Aufrüsten in meinem Fall Sinnfrei ist. (siehe hier (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/21/#abschnitt_colin_mcrae_dirt_2) )
Wenn ich jetzt Anno dazukaufen würde, würde es Sinn machen, auf nen PhenomII umzusteigen?
Bei allen anderen (und zukünftigen) Spielen --> i5/i7?
Oder ist es doch egal, da man bei höheren Auflösungen + AA sowieso am GPU-Limit hängt?
Irgendwie bin ich mir überhaupt nicht mehr sicher...

Probiers einfach aus ;)

Ich würde mir da keine grauen Haare wachsen lassen, im Notfall einen günstigen Phenom2, der ist wie der i5 für alles schnell genug. Im Notfall etwas OC, fertig.
Wenn Du Dir die meisten Benches zw. AMD & Intel anschaust, und das von den bunten Balken auf "ruckelt /ruckelt nicht" herunterrechnest, wirst Du eh keinen Unteschied bemerken.

Bei letzten CPU Vergleichstest war das Fazit, dass selbst der alte Q6600 mit 2,4 GHz alles ruckelfrei schaffte ... also keine Panik ;)

Hauptsache bei modernen Spielen sind erst einmal 4 Kerne.

ciao

Alex

Ronny145
2009-12-29, 16:42:48
Bei letzten CPU Vergleichstest war das Fazit, dass selbst der alte Q6600 mit 2,4 GHz alles ruckelfrei schaffte ... also keine Panik ;)



Trifft auf so einige ältere Spiele nicht zu. GTR2 am Start von hinten bei Nacht und Regen macht kein Spaß mit 20-30 fps. Mit nem Phenom 2 sicherlich noch weniger.

Raff
2009-12-29, 16:51:22
Trifft auf so einige ältere Spiele nicht zu. GTR2 am Start von hinten bei Nacht und Regen macht kein Spaß mit 20-30 fps. Mit nem Phenom 2 sicherlich noch weniger.

Wenn ein Spiel nur den ersten Kern nutzt, ist man mit 2,4 GHz eben ein wenig gearscht. Neue Spiele, die mehrheitlich 2, 3 oder schon 4 Kerne nutzen, laufen auf einem Q6600 ruckelfrei. Ich selbst habe so eine Kiste @ 450x6 (2,7 GHz), also geringfügig übertaktet, und verspürte das ganze Jahr 2009 nicht das Bedürfnis, ihn auf 3,6+ GHz zu knüppeln. Frühe Käufer dieses Prozessors haben die wohl zukunftssicherste CPU ever bekommen.

MfG,
Raff

S940
2009-12-29, 17:16:08
Trifft auf so einige ältere Spiele nicht zu. GTR2 am Start von hinten bei Nacht und Regen macht kein Spaß mit 20-30 fps. Mit nem Phenom 2 sicherlich noch weniger.Hmm also das Teil ist von 2006 ... sowas das ist wahrscheinlich nicht mal dual-core optimiert :freak:
Aktuelle benches hab ich auf die Schnelle ebenfalls nicht gefunden, nur hier im 3DC einen C2D vs. X2 4800 Vergleich =)

Falls Du was Neueres hast, gib Bescheid.
Allgemein würde ich so alte Kamellen aber nicht als Vergleich hernehmen wollen, der nächste kommt dann mit Master of Orion II und beschwert sich, dass es nicht gut in der DOS Emulation läuft.

ciao

Alex

Ronny145
2009-12-29, 17:26:08
Hmm also das Teil ist von 2006 ... sowas das ist wahrscheinlich nicht mal dual-core optimiert :freak:
Aktuelle benches hab ich auf die Schnelle ebenfalls nicht gefunden, nur hier im 3DC einen C2D vs. X2 4800 Vergleich =)


Müsste ich suchen. Kann man aber leicht selber testen, falls Spiel vorhanden. Und ja, mehr als 1 Kern bringt da echt nicht viel. Oblivion oder das ein oder andere Rollenspiel macht es auch nicht so viel besser.


Falls Du was Neueres hast, gib Bescheid.
Allgemein würde ich so alte Kamellen aber nicht als Vergleich hernehmen wollen, der nächste kommt dann mit Master of Orion II und beschwert sich, dass es nicht gut in der DOS Emulation läuft.


Ein gemoddetes GP4 (Release 2002) läuft mindestens genauso übel. Ist halt bei alten Engines mit viel KI das große Problem. Aber mein i5 läuft da erheblich besser als meine vorherige CPU K8 2x2,4 Ghz.

Raff
2009-12-29, 17:29:18
Aber mein i5 läuft da erheblich besser als meine vorherige CPU K8 2x2,4 Ghz.

Die IPC-Rate ist ja auch viel, viel höher. Ein Dualcore auf Nehalem-Basis (Clarkdale beispielsweise) würde deine CPU in den alten Singlecore-Kamellen trotzdem verhauen, wenn er höher taktet. :)

MfG,
Raff

Ronny145
2009-12-29, 17:36:06
Die IPC-Rate ist ja auch viel, viel höher. Ein Dualcore auf Nehalem-Basis (Clarkdale beispielsweise) würde deine CPU in den alten Singlecore-Kamellen trotzdem verhauen, wenn er höher taktet. :)

MfG,
Raff


Und dank Turbo Modus effektiv mehr Takt. Brachte mir in GTR2 5 fps mehr. Von 28 auf 33 bzw. 22 zu 26 bei den Min FPS.

S940
2009-12-29, 18:34:05
Ein gemoddetes GP4 (Release 2002) läuft mindestens genauso übel. Ist halt bei alten Engines mit viel KI das große Problem. Aber mein i5 läuft da erheblich besser als meine vorherige CPU K8 2x2,4 Ghz.Glaub ich Dir gerne, wenn das Spiel noch älter ist.
Wenn mans auf solche Methusalem Spiele abgesehen hat, mag der i5 eine Überlegung wert sein.
Aber langsamer als ein dual K8 mit 2,4 GHz wäre ein K10 mit 3,2/3,4 GHz sicherlich auch nicht :)

Von daher wäre mir das egal, selbst wenn ich ab und zu alte Spiele spielen würde.
Ein GTR2 oder GP4 Freak kann das gerne anders sehen :)

ciao

Alex

Odal
2009-12-29, 18:58:22
mich würde mal interessieren was der K10 so in Theatre of War 2 bringt
mein alter A64 X2 @2.6Ghz lief da <10FPS

aber vermutlich hat keiner das Spiel, und die Demo wird nur begrenzt tauglich sein

Schnitzl
2009-12-30, 11:58:16
Probiers einfach aus ;)

Ich würde mir da keine grauen Haare wachsen lassen, im Notfall einen günstigen Phenom2, der ist wie der i5 für alles schnell genug. Im Notfall etwas OC, fertig.
Wenn Du Dir die meisten Benches zw. AMD & Intel anschaust, und das von den bunten Balken auf "ruckelt /ruckelt nicht" herunterrechnest, wirst Du eh keinen Unteschied bemerken.

Bei letzten CPU Vergleichstest war das Fazit, dass selbst der alte Q6600 mit 2,4 GHz alles ruckelfrei schaffte ... also keine Panik ;)

Hauptsache bei modernen Spielen sind erst einmal 4 Kerne.

ciao

Alex
ja, das ist genau das was ich auch dachte...ist eben meiner Meinung nach Murks.
Beim Übergang zur Dual-CPU sind wenigstens trotzdem die Taktfrequenzen angestiegen, also wars in jedem Fall ein Gewinn.
Jetzt kommen mehr Kerne dazu aber die Taktfrequenz sinkt. der C2D E8600 ist immer noch das Schnellste was die Taktfrequenz angeht (irgendwelche 1000€-CPUs mal außen vor)

P.S.: ja, den Phenom2 gibts mit 3,4Ghz, aber für CPUs mit 3stelliger Leistungsaufnahme hab ich kein Bock ;)

Coda
2009-12-31, 00:13:12
So... und jetzt spiel mal nen Multicore Spiel :ugly:
2 Kerne > 20Fps
4 Kerne > 40Fps
8 Kerne > 80Fps
Ich gebe dir zwar teilweise recht, aber 100% Skalierung ist leider so leicht (oder zum Glück) nicht zu machen :)

Gast
2009-12-31, 08:02:14
Kommt auf den konkreten Fall an. Ein Core2Quad konnte zum Teil schneller sein als ein Dual-Core, bei Anwendungen die max. 2 Kerne beanspruchen konnten.
Der Grund war einfach, das 4/6 MB "shared" Cache einem 2x4 / 2x6 MB großen Cache gegenüberstanden und folglich 2 Kerne im Optimalfall 2x4-6 MB hatten anstatt einen großen, den sie sich teilen mussten. Das kann sich mit zukünftigen Designs vielleicht auch wieder ergeben...

StefanV
2009-12-31, 10:43:48
Nein, das kanns nicht, solange man nur ein Die aufm Träger hat.

Der Grund warum ein Core 2 Duo schneller sein konnte als ein Dual Duo ist einfach, dass es 2 Prozessoren sind, wenn die Threads jetzt etwas doof verteilt sind, kanns vorkommen, das der FSB limitiert und sich die CPUs so etwas in die Quere kommen können.

Undertaker
2009-12-31, 10:49:43
Real war weder das eine noch das andere zu beobachten. Ich kenne keinen Bench (der natürlich nicht mehr als 2 Kerne nutzen darf), in dem ein E6600 deutlich schneller oder deutlich langsamer als ein Q6600 gewesen wäre, gleiches mit E8300 vs. Q9550:

Cinebench 1-Core: http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_intel_core_2_duo_e8600_e0/8/#abschnitt_cinema4d
7-Zip: http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_intel_core_2_duo_e8600_e0/7/#abschnitt_7zip
Lightwave: http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_intel_core_2_duo_e8600_e0/9/#abschnitt_lightwave
CoH: http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_intel_core_2_duo_e8600_e0/19/#abschnitt_company_of_heroes

Usw...

AnarchX
2009-12-31, 10:50:48
Kommt auf den konkreten Fall an. Ein Core2Quad konnte zum Teil schneller sein als ein Dual-Core, bei Anwendungen die max. 2 Kerne beanspruchen konnten.
Der Grund war einfach, das 4/6 MB "shared" Cache einem 2x4 / 2x6 MB großen Cache gegenüberstanden und folglich 2 Kerne im Optimalfall 2x4-6 MB hatten anstatt einen großen, den sie sich teilen mussten. Das kann sich mit zukünftigen Designs vielleicht auch wieder ergeben...
Aus diesem Grund gab es auch von Intel Tigerton MP Xeons mit 2 Dies mit je einem aktiven Kern: http://ark.intel.com/Product.aspx?id=30780&processor=E7220&spec-codes=SLA6C

Undertaker
2009-12-31, 11:00:49
Das könnte aber auch Resteverwertung gewesen sein - Dies mit einem defekten Kern möchte man ja auch noch möglichst gewinnbringend an den Mann bringen. ;)

Gast
2010-01-03, 01:08:13
täusch dich da mal nicht, ich war auch erst sehr skeptisch wie ein Nehalem mit so wenig takt soviel leisten soll
aber der zeigt schon wo der Frosch die Locken hat
Da zieht man auch mit 3.4 Ghz den Karren nicht mehr aus dem Dreck.



bei höherer Auflösung läuft der trotz Crossfire immer wieder ins GPU Limit aber bei 1280x1024 ist die totale Vernichtung des PhenomII eindeutig

oh 7% totale vernichtung zum 5fachen preis tooooll

Gast
2010-01-03, 01:09:45
ich mecker ja nicht,ich gucke.:cool:

wenn ich die wahl hätte dann kauf ich mir ein Intel Xeon UP X3440 für 190 euro wenn du schon damit anfängst.:wink:

und das board kost auch nochmal so viel :D

Gast
2010-01-03, 01:14:08
Das ist aber reines Wunschdenken ;) ausser das er bei den tiefen Temperaturen ganz gut die Bude heizt seh ich beim Phenom keine :confused:

brille: fielmann ;)

Gast
2010-01-03, 01:20:16
HaHa, dann war aber der X2 verglichen mit einem Core2 auch übler Müll, denn deine Kritikpunkte treffen auf diesen ebenfalls zu. Und sogar heute noch, wenn man sich die Notebooks anschaut!

ohne x2 würdest du vermutlich heute noch auf netburst bruzzeln :P

Gast
2010-01-03, 01:26:40
weil AMD in dem Preissegment Bälle saugt

allerdings frag ich mich warum keinen E3200?

lol, schonmal was von athlon ii gehört