PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : i5/i7 - Phenom II X6 Fakten statt Flames


Seiten : [1] 2 3 4 5 6

Amun-Re
2010-07-20, 00:45:18
Hallo zusammen,

ich hab mir in den letzten Tagen vorgenommen, auch in diesem Forum eine Frage, zu einem ebenso spannenden, wie leider auch wohl mit einigen Emotionen behafteten Thema loszuwerden.

Wie die meisten von euch gut informierten Leser von 3DCenter und anderen Publikationen im Netz wissen, hat AMD mit dem Phenom II X6 aka Thuban, HexaCores quasi zur Volksware erklärt.
Nun bin ich desöfteren in einigen Foren, in den Unweiten des WorldWideWeb unterwegs und immer wieder erlebe ich hitzige Diskussionen bei der Frage, welcher CPU man denn im Augenblick den Vorzug gewähren sollte, AMD oder Intel?

Der Einfachheit halber möchte ich hier, aufgrund der preislichen Gleichheit nur mal den Vergleich zwischen Core i5 760 und Phenom II X6 1055t bemühen.
Nach meinen persönlichen Recherchen im Netz, bin ich zu der Auffassung gekommen, das man zunächst mal, um eine objektive Empfehlung auszusprechen möglichst präzise abstecken muss welche Anwendungen auf dem geplanten PC zum Einsatz kommen.
Handelt es sich dabei mehrheitlich um "multithreading" lastige Software die von 6 Kernen profitiert, geht der Thuban als Sieger aus diesem Vergleich hervor. Problematisch wird es dann, wenn die Anwendungscharakteristik eher auf die Bezeichnung "mixed workload" zutrifft. Dann seh ich in vielen Benchmarks den i5 750 vorne mal mehr, mal weniger drastisch aber nie mit so einer Diskrepanz, als das man es bei der Argumentation - für welche Technik man auch sein Votum abgibt - leicht hätte.

Insbesondere ein Aspekt ist immer wieder Gegenstand wilder Spekulationen und polemischer Streitigkeiten. GAMES
Wo könnte ich also besser um eine sachliche Diskussion bitten als hier, wenns um genau diese Frage geht.
Die Gretchenfrage ist demnach:
Inwieweit ist es absehbar, das Spiele in naher Zukunft von den 6 Kernen des Thuban in einem Ausmaß profitieren, das man bereits bei einer gegenwärtigen Anschaffung auf eben diesen setzen sollte?
Oder aber - das wäre die andere Seite der Medallie - macht es mehr Sinn von der im Schnitt höheren IPC Leistung oder Leistung pro Core des i5 zu profitieren, der ja bekanntlich in Spielen, bei denen durch sagen wir leicht praxisferne Methoden die CPU zum Flaschenhals degradiert wird, (Auflösung von 800x600 bspw) Vorteile für sich verbuchen kann.

Nach meiner Beobachtungsgabe, stellt sich der i5 750 bzw sein legitimer Nachfolger der i5 760 in dieser Disziplin de facto ein besseres Zeugnis aus als der X6, der seinen Leistungsmalus versucht über die Anzahl der Kerne zu kompensieren wo nach aktuellem Stand in Spielen wenig davon ankommt.

Was mich interessiert ist also eine Einschätzung eurerseits die für den üblichen Leistungszenith eines Zocker-PCs bei heutiger Anschaffung repräsentativ ist.

HexaCore, mit der Aussicht, das dieser seinen Rückstand innerhalb seiner Lebenszeit hinter sich lassen kann, aufgrund fortschreitender Entwicklung in der Spielebranche in Richtung MultiCore Support oder eben auf die gegenwärtige Situation schauen und den i5 760 präferieren, mit der hoffentlichen Gewissheit, das dieser für die Existenz der Neuanschaffung die bessere Investition vorwiegend auf Games bezogen darstellt.

w0mbat
2010-07-20, 00:52:04
ich denke dass sich die 6 kerne in naher zukunft bei spielen nicht wirklich bemerkbar werden. ok, es gibt auch aktuell schon bsp die vor allem die min-fps deutlich anheben, aber das wird, mmn, eher die ausnahme bleiben.

rein objektiv ist der i5 760 die bessere spiele cpu und wird es auch wohl noch das nächste jahr sein. intel hat eine höhere pro-mhz leistung und ist dazu noch effizienter.

ABER, der x6 bringt bei zeitaufwändigen tasks (zb eine avi datei in dvd format umwandeln) mehr leistung als ein i7 mit ht und ist für alles spiele (außer vielleicht cryostasis) mehr als ausreichend.

als ich vor der wahl stand, i5 750 oder x6 1055t, hab ich mich für den letzteren entschieden und bereue es keine sekunde.

zumal sich die x6 super takten, sogar besser als die i5er.

Gast
2010-07-20, 00:59:21
Thuban hat dummerweise 6 realtiv langsame Kerne (die gute alte K10.5 Architektur) und die Parallelisierung ist in Spielen schon heute selten gleichmäßig, einige Threads sind kritisch und die übrigen werden quasi nebenher abgefrühstückt.

Selbst wenn zu Lebzeiten des Thuban noch eine breite Anzahl von Spielen von den zwei zusätzlichen Kernen prinzipiell profitieren sollte, ich vermute die höhere IPC eines Lynnfield-Kerns werden ihn im Durchschnitt der Spiele immer noch als Sieger vom Platz gehen lassen.

Der i5 760 ist IMHO die etwas bessere Gamer-CPU und das ganz ohne das Übertaktungspotential oder die Energieeffizienz heranzuzuiehen einfach nur auf die CPU-Leistung bezogen.

Gast
2010-07-20, 01:05:14
zocken = intel, alles andere = amd. ganz einfach ;)

S940
2010-07-20, 01:28:49
Ist die Frage mit oder ohne OC ?

Mit OC sehe ich den 1055T vorne
- single thread performance reicht mit ~3,5 GHz, notfalls halt noch an nem 4GHz Turbo Mode versuchen
- 6 statt 4 Kerne
- AM3 Plattform aufrüstbar dabei meist günstiger

Dem i5 bleibt mit OC die maximalste Performancekrone bei 4 Threads und ein etwas geringerer Stromverbrauch. Wem das wichtiger ist, als die oben genannten Punkte, der soll den i5 nehmen ;-)

Ohne OC empfinde ich die 2,8 GHz Standard des K10 bei Spielen als etwas zu mickrig.

ciao

Alex

Gast
2010-07-20, 05:21:39
AMDs aktuelle Prozessoren sind, verglichen mit i5 oder i7, schlicht und ergreifend zu langsam, was die Pro-MHz-Leistung angeht. Das Einzige, was über das wahre Ausmaß hinwegtäuscht, sind CPU-Tests, die keine CPU-Tests sind. Computerbase hat den Dilettantismus diesbezüglich schon mal perfektioniert (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/22/#abschnitt_crysis): Performancerating Spiele: E8600 > i7-870 (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/32/#abschnitt_performancerating). Viele deutschsprachige Seiten gibt es nicht, die ordentlich testen können. Wen aber interessiert, wie veraltet die Phenom II-Architektur ist, der schaut mal bei xbitlabs oder legionhardware vorbei. Die haben sich den Spaß eines Skalierungstests mit CF erlaubt, was ein GPU-Limit eliminiert. Da sieht man erst wirklich, welche CPU was kann:

http://www.legionhardware.com/articles_pages/radeon_hd_5870_crossfire_cpu_scaling_performance_part_2,1.html
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling.html

Um zur Ausgangsfrage zurückzukommen. Ein X6 ist verglichen mit einem i5 erst dann im Vorteil, wenn eine Anwendung mehr als 4 Kerne voll ausnutzen kann. Das sind im Moment geschätzt 3 % aller Anwendungen. In 2 Jahren vielleicht 10 % (bei Spielen wird die Parallelisierung noch lange nicht so schnell voranschreiten). Was würde ich also tun? i5-760 oder X6 1055T? Ganz einfach: i7 in Form des Xeon X3440 für 20 € mehr. Vereint hohe Pro-MHz-Leistung und skaliert dank SMT auch noch über einen i5 hinaus. Mit einem i7 wird man in keiner Anwendung das Nachsehen gegenüber einem X6 haben.

Lowkey
2010-07-20, 07:25:08
Es werden doch seit Jahren dieselben 5-6 Spiele genommen, die Quadcore supporten. Ich spiele keins der Spiele. Auf Dualcore läuft immer noch alles. Es kommen dank den Konsolen keine technisch anspruchvollen Spiele auf den Markt, aber dafür auch wesentlich weniger Spiele pro Jahr. Dennoch sind Hardwarepreise relativ günstig und es gibt also Hardware, wie 6 Kernprozessoren, die erst in 5 Jahren voll supportet werden und dann braucht man sie.
Der 6 Kern Prozessor ist für mich nunmehr eine Sache wie ein 3 Kern Prozessor -> ein Übergang. Die Frage ist nunmehr, wann sämtliche Engines auf Multicore Support ausgelegt werden und wieviele Kerne dann irgendwann wirklich sinnvoll sind. Das kann man heute noch garnicht sagen. Aber wie man schon bei der Soundkarten Diskussion sieht: es gibt hier und da Situationen wo 6 Kerne > 2-4 Kerne. Diese Situationen treten zunehmend häufiger auf, aber sind nicht kriegsentscheidend.

Was mir fehlt wäre eine Grundüberlegung samt Tests, wo man die Stärke von 6 Kernen feststellt und mit speziellen Tests belegt oder widerlegt. Die erste Aussage wäre aber schon jetzt klar: die Leistung pro Mhz ist zu schwach.

Matrix316
2010-07-20, 08:26:17
In der aktuellen HW Luxx hat man den Test mal gemacht, und wenn ich mich richtig erinnere (hab das Heft nicht vorliegen), haben 6 Kerne nur sehr sehr selten einen echten Vorteil. Meistens sind 4 ausreichend. Hyperthreading kann helfen, muss aber nicht.

Gast
2010-07-20, 08:59:58
AMDs aktuelle Prozessoren sind, verglichen mit i5 oder i7, schlicht und ergreifend zu langsam, was die Pro-MHz-Leistung angeht. Das Einzige, was über das wahre Ausmaß hinwegtäuscht, sind CPU-Tests, die keine CPU-Tests sind. Computerbase hat den Dilettantismus diesbezüglich schon mal perfektioniert (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/22/#abschnitt_crysis): Performancerating Spiele: E8600 > i7-870 (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/32/#abschnitt_performancerating). Viele deutschsprachige Seiten gibt es nicht, die ordentlich testen können. Wen aber interessiert, wie veraltet die Phenom II-Architektur ist, der schaut mal bei xbitlabs oder legionhardware vorbei. Die haben sich den Spaß eines Skalierungstests mit CF erlaubt, was ein GPU-Limit eliminiert. Da sieht man erst wirklich, welche CPU was kann:

http://www.legionhardware.com/articles_pages/radeon_hd_5870_crossfire_cpu_scaling_performance_part_2,1.html
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling.html

Um zur Ausgangsfrage zurückzukommen. Ein X6 ist verglichen mit einem i5 erst dann im Vorteil, wenn eine Anwendung mehr als 4 Kerne voll ausnutzen kann. Das sind im Moment geschätzt 3 % aller Anwendungen. In 2 Jahren vielleicht 10 % (bei Spielen wird die Parallelisierung noch lange nicht so schnell voranschreiten). Was würde ich also tun? i5-760 oder X6 1055T? Ganz einfach: i7 in Form des Xeon X3440 für 20 € mehr. Vereint hohe Pro-MHz-Leistung und skaliert dank SMT auch noch über einen i5 hinaus. Mit einem i7 wird man in keiner Anwendung das Nachsehen gegenüber einem X6 haben.

Und was nützt mir das alles, wenn ICH kein Crossfire oder SLI habe? Schonmal daran gedacht?
Was ist, wenn ich nur eine Grafikkarte habe, was ja nun nicht gerade selten vorkommt? Soll ich mir dann _unbedingt_ einen Intel Core iX holen, weil dieser die Bude rocken WÜRDE, WENN ich zwei Grafikkarten hätte?

Iceman346
2010-07-20, 09:07:39
Und was nützt mir das alles, wenn ICH kein Crossfire oder SLI habe? Schonmal daran gedacht?
Was ist, wenn ich nur eine Grafikkarte habe, was ja nun nicht gerade selten vorkommt? Soll ich mir dann _unbedingt_ einen Intel Core iX holen, weil dieser die Bude rocken WÜRDE, WENN ich zwei Grafikkarten hätte?

Nein, dann solltest du dir einen Core iX holen weil der die Bude rockt wenn du in einem Jahr eine neue Grafikkarte kaufst.

Tests mit Crossfire/SLI Systemen zeigen das Leistungspotential der Prozessorarchitektur auf und genau darum geht es in CPU-Tests. Nicht darum die Prozessoren hinter einen Grafikflaschenhals zu setzen. Die Mehrleistung mag dir heute nichts nützen, aber CPUs halten mittlerweile nunmal deutlich länger als Grafikkarten, also profitiert man auf lange Sicht hin gesehen wenn man gleich beim Kauf sich darüber informiert welche Lösung die zukunftssichere ist.

Ronny145
2010-07-20, 09:19:33
Ohne OC empfinde ich die 2,8 GHz Standard bei Spielen als etwas zu mickrig.

ciao

Alex


Selbst die 2,8 Ghz reichen doch um einen Phenom 3,4 Ghz in Schach zu halten. Mit Turbo läuft der Standard mit mindestens 2,93 Ghz. Da müsstest du auch einen 3,4 Ghz Phenom übertakten um die Leistung zu erreichen.

S940
2010-07-20, 09:30:26
Selbst die 2,8 Ghz reichen doch um einen Phenom 3,4 Ghz in Schach zu halten. Mit Turbo läuft der Standard mit mindestens 2,93 Ghz. Da müsstest du auch einen 3,4 Ghz Phenom übertakten um die Leistung zu erreichen.
Öh ja.. es waren auch die 2,8 GHz des K10 gemeint. Habs editiert.

Undertaker
2010-07-20, 09:34:59
Schnelle Grafikkarten machen es nur einfacher, CPU-seitige Unterschiede auch zu messen. ;) Fakt ist doch, dass sich wirkliche worst-case Szenarien im Regelfall kaum benchen lassen - die Reproduzierbarkeit ist das Problem. Die Ergebnisse niedrigerer Auflösung und/oder mit SLI/CF lassen sich für solche Fälle aber sehr gut übertragen.

Aber was sollte man nun kaufen:

i5 760 vs. 1055T:
Es kommt stark auf das Anwendungsfeld an: Bei Spielen ist der i5 haushoch überlegen, und das selbst in den am besten parallelisierten Szenarien (z.B. GTA4, AA2). In Anwendungen wiederum führt der X6, zumindest wenn alle Threads gut genutzt werden können. Der Verbrauch des i5 ist geringer, OC nehmen sich beide prozentual nichts.

1090T vs. i7 870:
Hier ist die Sache imho weitaus klarer: Der i7 ist in Spielen und den meisten Anwendungen schneller. Verbrauch und OC liegen hier auf ähnlichem Level.

Odal
2010-07-20, 11:49:59
i5 760 vs. 1055T:
Es kommt stark auf das Anwendungsfeld an: Bei Spielen ist der i5 haushoch überlegen, und das selbst in den am besten parallelisierten Szenarien (z.B. GTA4, AA2). In Anwendungen wiederum führt der X6, zumindest wenn alle Threads gut genutzt werden können. Der Verbrauch des i5 ist geringer, OC nehmen sich beide prozentual nichts.



wäre mir neu das der 1055T im schnitt 45-50% mehrtakt schafft

Air Force One
2010-07-20, 12:03:03
Mein Leistungsranking in Maya:

1. Intel i7-860
2. Phenom II X6 1090T BE
3. Intel i5-750


In der Anwendungs werden alle Kerne 100% ausgelastet, zumindest beim rendern.
Bei der Simulation schaut es dort leider etwas anders aus.
Diese ist nicht Multithreadet.

Den Phenom X6 würde ICH immer einem Intel i5 vorziehen.
Schwer wird es beim i7 und Phenom X6, zumindest wenn die Plattform eine Rolle spielt.
Braucht man die ganzen Features die ein Phenom hat, so muss man zum teuren Sockel 1366 greifen.
Also würde ICH hier eher zum X6 greifen wenn ich knapp bei Kasse bin.
Brauche ich aber all diese Features nicht, da ich die Kiste sowieso nur selten upgrade bzw. direkt gleich neu kaufe dann ist der P55 doch die bessere wahl.

So sehe ich das zumindest....

Und nein, ich bin weder Intel noch AMD, IBM oder VIA Fanboy.

Undertaker
2010-07-20, 12:11:32
wäre mir neu das der 1055T im schnitt 45-50% mehrtakt schafft

Ich hab jetzt nicht so den genauen Überblick, aber dachte eigentlich, dass sowohl X6 als auch i5 so um die 4GHz gehen - der i5 im Schnitt evntl. minimal besser im Vergleich, dafür hat er inkl. erster Turbostufe auch 2,93GHz statt 2,8GHz beim X6.

Gast
2010-07-20, 12:19:58
i5 760 vs. 1055T:
Es kommt stark auf das Anwendungsfeld an: Bei Spielen ist der i5 haushoch überlegen, und das selbst in den am besten parallelisierten Szenarien (z.B. GTA4, AA2). In Anwendungen wiederum führt der X6, zumindest wenn alle Threads gut genutzt werden können. Der Verbrauch des i5 ist geringer, OC nehmen sich beide prozentual nichts.


"Haushoch" -> Bullshit-Alarm.

Undertaker
2010-07-20, 12:27:50
Wenn ich mir anschaue, dass der i5 760 im CPU-Limit gut 40% vor dem X6 1055T (http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/32/#abschnitt_performancerating) liegen dürfte, ist das für mich durchaus "haushoch".

MiamiNice
2010-07-20, 12:29:45
Ich sehe das sehr ähnlich. Die 6 Kerne des AMD sind "nice to have" allerdings taktmässig zu langsam. OC ist auch kaum drin, zumindest nicht so viel wie bei Intel und mehr Saft verbrauchen sie auch. Deswegen kann man die AMD´s imho auch nicht so gut takten. Ein x6 at 3,4Ghz liegt schon bei über 60° at LuKü (habe ich aus einen Thread im AMD Unterforum hier im 3DC). Da ist sogar mein i7 @ 4,1Ghz noch ein gutes Stück kühler auch at LuKü.
Intel CPU´s sind ca. 30% schneller bei gleichen Takt pro Kern wen man da noch das OC einrechnet ist AMD hoffnungslos uninterssant.
Wen man nicht gerade Software einsetzt die 6 Kerne nutzt ist m.M.n. bei Intel wesentlich besser aufgehoben. Die Plattform mag paar $ mehr kosten und die Boards nicht die Ausstattung haben wie die AMD Boards, trotzdem sehe ich Intel weit vor AMD und das in allen Anwendungen die nicht von 6 echten Kernen profitieren und das sind echt wenig und es sieht nicht so aus als ob es schnell mehr werden würden.
Ausserdem darf man nicht vergessen das man einiges der Berechnungen für die man heute 6 und mehr Kerner einsetzt vielleicht in Zukunft von der Graka berechnet werden. Deswegen halte ich den verzicht auf Power für mehr Kerne eher sinnlos.

Odal
2010-07-20, 12:30:26
Ich hab jetzt nicht so den genauen Überblick, aber dachte eigentlich, dass sowohl X6 als auch i5 so um die 4GHz gehen - der i5 im Schnitt evntl. minimal besser im Vergleich, dafür hat er inkl. erster Turbostufe auch 2,93GHz statt 2,8GHz beim X6.

die erste Turbostufe sind 2.8 nicht 2.93 (+133Mhz default ist 2,66Ghz)

*edith* ah ich hab i5 750 gelesen gehabt
und wie es der name schon sagt is das auch schon der turbo nicht der default takt bei 100% coreauslastung

desweiteren machen meines wissens die wenigsten K10.5 auch die 4ghz unter normalbedingungen

boxleitnerb
2010-07-20, 12:32:27
Fairerweise muss man aber die Pauschalisierung ankreiden. Das "haushoch" wird (bei aktuellen Konfigurationen - Hardware und Software) natürlich nicht durchgehend erreicht. Die meisten Spiele sind zum Großteil GPU-limitiert.

Undertaker
2010-07-20, 12:38:13
Ein GPU-Limit schließe ich in jedem Fall kategorisch aus für eine Leistungsbetrachtung. Ansonsten kann man je nach Spiel auch solche witzlosen Aussagen treffen, dass ein i3 530 so schnell ist wie ein 1090T oder ein X3 435 so schnell wie ein i7 980X. Oder wir benchen aktuelle CPUs in einem Real-World WinRAR Szenario mit einer 40GB 5400rpm 2,5" HDD. Uiii, auch alle gleich schnell. Wie sinnvoll :freak:

Wir wollen doch über die Leistungsfähigkeit einer Komponente reden und nicht, bei wievielen fps andere Hardware limitiert. Das mag ein ebenso relevantes Thema sein, gehört aber in eine seperate Diskussion.

boxleitnerb
2010-07-20, 12:43:58
Ja, du hast natürlich Recht. Ich reg mich ja genauso über die CB-Benchmarks und Co. auf. Wollte es halt nur relativieren, nicht dass hier wieder ein Flamewar startet :D
Btw gibts inzwischen was Neues bzgl. der Schwäche der Intels bei hohen Auflösungen? Da war doch mal was...

Air Force One
2010-07-20, 13:02:34
Ausserdem darf man nicht vergessen das man einiges der Berechnungen für die man heute 6 und mehr Kerner einsetzt vielleicht in Zukunft von der Graka berechnet werden. Deswegen halte ich den verzicht auf Power für mehr Kerne eher sinnlos.

Nur müsste man dann auch den VRAM erhöhen.
Am besten auf mind. 4-8GB RAM.
Wobei wenn man die GPU für Rauch oder Wasser-Simulation nutzen will, es eher mind. 20GB sein sollten.

Nur ist so etwas denke ich kaum bezahlbar.

MiamiNice
2010-07-20, 13:07:23
Nur müsste man dann auch den VRAM erhöhen.
Am besten auf mind. 4-8GB RAM.
Wobei wenn man die GPU für Rauch oder Wasser-Simulation nutzen will, es eher mind. 20GB sein sollten.

Nur ist so etwas denke ich kaum bezahlbar.


Werden dann für solche Berechnungen ernsthaft Consumer Systeme verwendet? Ich dachte wir sprechen über das was der gemeine Endkunde normalerweise so tut. Also max. bissel Video, F@H oder Daten packen.

Air Force One
2010-07-20, 13:20:40
Werden dann für solche Berechnungen ernsthaft Consumer Systeme verwendet? Ich dachte wir sprechen über das was der gemeine Endkunde normalerweise so tut. Also max. bissel Video, F@H oder Daten packen.

Hmmm also Hobby Anwender sicherlich.
Blender hat ja z.B ebenfalls eine Fluid und Smoke Simulation.
Allerdings ist nur Smoke Multithreaded, zumindest mit OpenMP.
Die Fluid Simulation macht da noch Probleme.

Hier würde ich mir schon sehr eine GPU berechnung wünschen.
Allerdings keine reine GPU berechnung sondern eher eine Hybrid Lösung zwischen CPU und GPU.
Das dürfte denke ich mal optimal sein.

Naja, hast natürlich trotzdem recht.

Und ja, solche Systeme werden auch als Renderfarm genutzt, also i7-920er.
Muss ja nicht immer eine Xeon sein.

Privat nutze ich allerdings eher den i7-860er.
Ist billiger, genau so schnell und hat nur das was ich brauche.

Das nächste "Upgrade" wird bei mir wohl noch etwas billiger.
Am besten ein Billig Board (AsRock) mit onboard Grafik und dafür leistungsstarker CPU.

Ob Intel oder AMD, entscheidet das P/L verhälltnis.

Sollte sich aber die GPU berechnung durchsetzen dann wird die Wahl noch ein Stück schwerer.
Je nach dem was sich mehr lohn.

Zeit ist Geld....

w0mbat
2010-07-20, 13:21:12
Ich sehe das sehr ähnlich. Die 6 Kerne des AMD sind "nice to have" allerdings taktmässig zu langsam. OC ist auch kaum drin, zumindest nicht so viel wie bei Intel und mehr Saft verbrauchen sie auch. Deswegen kann man die AMD´s imho auch nicht so gut takten. Ein x6 at 3,4Ghz liegt schon bei über 60° at LuKü (habe ich aus einen Thread im AMD Unterforum hier im 3DC). Da ist sogar mein i7 @ 4,1Ghz noch ein gutes Stück kühler auch at LuKü.
Intel CPU´s sind ca. 30% schneller bei gleichen Takt pro Kern wen man da noch das OC einrechnet ist AMD hoffnungslos uninterssant.
Wen man nicht gerade Software einsetzt die 6 Kerne nutzt ist m.M.n. bei Intel wesentlich besser aufgehoben. Die Plattform mag paar $ mehr kosten und die Boards nicht die Ausstattung haben wie die AMD Boards, trotzdem sehe ich Intel weit vor AMD und das in allen Anwendungen die nicht von 6 echten Kernen profitieren und das sind echt wenig und es sieht nicht so aus als ob es schnell mehr werden würden.
Ausserdem darf man nicht vergessen das man einiges der Berechnungen für die man heute 6 und mehr Kerner einsetzt vielleicht in Zukunft von der Graka berechnet werden. Deswegen halte ich den verzicht auf Power für mehr Kerne eher sinnlos.

ich hoffe du meinst nicht meinen thread, weil die meisten x6er machen 4ghz und das mit lukü. mit einem mugen 2 zb. aber ein htpc kühler wie ich ihn habe ist nicht wirklich zum oc geeignet. trotzdem schaffe ich damit 3,4ghz (jetzt läuft er aber mit 3,2@1,092v).

Air Force One
2010-07-20, 13:25:47
Naja, OC bei CPUs ist halt immer mit Glück verbunden.
Ich habe hier einen i7-860er OC Krüppel.
Der schaft die 3.80Ghz nicht mal mit einer Vcore von 1.42V.

Mein anderer i7-860er schafft die 4GHz hingegen mit 1.32V.

Ist auch 14Tage Linx stable.

Allerdings nutze ich keine OC Systeme in Projekten, sollte doch mal ein System abstürzen, wäre es fatal.

Gast
2010-07-20, 13:30:35
Was mich interessiert ist also eine Einschätzung eurerseits die für den üblichen Leistungszenith eines Zocker-PCs bei heutiger Anschaffung repräsentativ ist.

HexaCore, mit der Aussicht, das dieser seinen Rückstand innerhalb seiner Lebenszeit hinter sich lassen kann, aufgrund fortschreitender Entwicklung in der Spielebranche in Richtung MultiCore Support oder eben auf die gegenwärtige Situation schauen und den i5 760 präferieren, mit der hoffentlichen Gewissheit, das dieser für die Existenz der Neuanschaffung die bessere Investition vorwiegend auf Games bezogen darstellt.
Zurück zum Thema bitte, Posing und Renderingsmalltalk gibt es bereits in anderen Threads. :)

Air Force One
2010-07-20, 13:58:17
Zurück zum Thema bitte, Posing und Renderingsmalltalk gibt es bereits in anderen Threads. :)

Aha und warum?
Ich kenne kaum bessere Anwendungen die von MultiCore profitieren als Rendering Software oder halt Decoder.

Oder willst du jetzt ernsthaft das Thema nur auf Spiele beschränken.
Falls ja: fail.

Amun-Re
2010-07-20, 14:22:56
Gut das die Diskussion zu dem Thema so vorangetrieben wird. :)

Wenn man die Prozessoren miteinander vergleichen will, muss man sich wohl auch um eine ausgewogene Vielzahl von Benchmarks bemühen, die bei allgemeiner Betrachtung zumindest nahezu jedes Anwendungsfeld abdecken sollten.
Es gab auf 3DCenter bereits einen Artikel zu dem Thema der deutlich machte, das die Leistungsbegutachtung maßgeblich von dem Faktor Benchmarksparcour abhängt bzw. wie dieser sich zusammensetzt.

Ich wollte ganz explizit auf die Spieleleistung eingehen weil ich denke, das die meisten die im 3DCenter Forum zugegen sind ihren heimischen PC vorwiegend exakt dafür nutzen.
Natürlich ist es trotzdem nicht uninteressant inwieweit die Leistung von i5/i7 und einem
X6 1055t in intensiven "multithreading" Szenarien auseinanderliegen, die eher Domäne des X6 sein sollten.

Bei der Frage nach dem derzeitig optimalen Angebot unter Preis/Leistungsgesichtspunkten fällt nach meiner Erfahrung überwiegend der Name AMD beispielsweise zugunsten des X6 1055t da viele sich von den 2 zusätzlichen Kernen ein noch abschöpfbares Leistungspotential versprechen und der X6 1055t auch ohne eben dieses bereits konkurrenzfähig genug sei.
In vielen Benchmarks die es im Netz gibt könnte man durchaus zu dieser Erkenntnis gelangen und das macht die Diskussion wohl auch so schwierig.

dargo
2010-07-20, 14:49:38
Es werden doch seit Jahren dieselben 5-6 Spiele genommen, die Quadcore supporten.
Woran das wohl liegen mag? Liegts daran, dass die anderen Spiele kaum bis gar nicht vom Quadcore profitieren oder eher an den Testmethoden? Zusätzlich kommt die Tatsache ins Spiel, dass freies Speichern aus der Mode ist. Wie will man den Großteil der Spiele dann überhaupt testen?

In der aktuellen HW Luxx hat man den Test mal gemacht, und wenn ich mich richtig erinnere (hab das Heft nicht vorliegen), haben 6 Kerne nur sehr sehr selten einen echten Vorteil. Meistens sind 4 ausreichend. Hyperthreading kann helfen, muss aber nicht.
Auch hier stelle ich die Frage - wie sah die Testmethode aus?

Fairerweise muss man aber die Pauschalisierung ankreiden. Das "haushoch" wird (bei aktuellen Konfigurationen - Hardware und Software) natürlich nicht durchgehend erreicht. Die meisten Spiele sind zum Großteil GPU-limitiert.
Nee, das ist mir auch zu pauschalisiert. ;)

HOT
2010-07-20, 15:04:09
AMDs aktuelle Prozessoren sind, verglichen mit i5 oder i7, schlicht und ergreifend zu langsam, was die Pro-MHz-Leistung angeht. Das Einzige, was über das wahre Ausmaß hinwegtäuscht, sind CPU-Tests, die keine CPU-Tests sind. Computerbase hat den Dilettantismus diesbezüglich schon mal perfektioniert (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/22/#abschnitt_crysis): Performancerating Spiele: E8600 > i7-870 (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/32/#abschnitt_performancerating). Viele deutschsprachige Seiten gibt es nicht, die ordentlich testen können. Wen aber interessiert, wie veraltet die Phenom II-Architektur ist, der schaut mal bei xbitlabs oder legionhardware vorbei. Die haben sich den Spaß eines Skalierungstests mit CF erlaubt, was ein GPU-Limit eliminiert. Da sieht man erst wirklich, welche CPU was kann:

[...]

Das ist grundsätzlich aber falsch, denn grundsätzlich kann ist alles, was an Software auf dem Rechner läuft erstmal CPU-Lastig. Es gibt ganz selten Scenarios, in denen die GPU-Last die CPU-Last überdecken kann, aber das kommt in Spielen nicht vor, denn die GPU ist nunmal keine CPU. I/O-Last halte ich i.Ü. für den Prozessor sogar für wichtiger als IPC.
Zudem muss man klar zwischen optimierter und nicht-optimierter Software differenzieren. Adobe z.B. bemüht stets den ICC und so landet man mit AMD-Hardware dort keinen Stich.
Es bezweifelt niemand, dass AMD z.Z. aufgrund verschiedener Faktoren im Nachteil ist mit dem K10. Es gibt kein SSE4, keinen Loopdetektor und die Decoderstage vom K10 ist auch nicht unbedingt für ihre Performance berühmt. Man sollte die Kirche dennoch im Dorf lassen, denn so schlecht ist der K10 ggü. den Nehalem dann doch nicht. Für Sandy wirds aber nicht mehr reichen, da steht AMD 1/4-1/2 Jahr Durststrecke bevor.

Undertaker
2010-07-20, 15:13:53
Das ist grundsätzlich aber falsch, denn grundsätzlich kann ist alles, was an Software auf dem Rechner läuft erstmal CPU-Lastig. Es gibt ganz selten Scenarios, in denen die GPU-Last die CPU-Last überdecken kann, aber das kommt in Spielen nicht vor, denn die GPU ist nunmal keine CPU.

:confused:

Was sehen wir denn dann bitte in Situationen wie hier?

http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/31/#abschnitt_resident_evil_5

Natürlich ist das ein klares und absolut zweifelloses GPU-Limit. Ein Mehr an CPU-Leistung kann die Bildraten nicht weiter steigern, ein Mehr an GPU-Leistung hingegen schon.

Gast
2010-07-20, 15:21:57
Adobe z.B. bemüht stets den ICC und so landet man mit AMD-Hardware dort keinen Stich.

Adobe nutzt sowohl für Photoshop als auch Premiere und Lightroom Microsofts VC++. Bei welchen Programmen soll das anders sein?

boxleitnerb
2010-07-20, 15:46:27
Nee, das ist mir auch zu pauschalisiert. ;)

Wie würdest du es dann formulieren? Irgendwo muss man doch eine Aussage treffen können. Grad in einer Kaufberatung kannst du jemandem ja schlecht sagen: "Kommt auf deine Spiele, Settings, restliche Hardware und Ansprüche an!"
Das mag zwar stimmen, aber es bringt den zu Beratenden auch nicht weiter, weil sich mindestens zwei dieser vier Punkte ziemlich schnell ändern können.

MiamiNice
2010-07-20, 16:26:53
Das mag zwar stimmen, aber es bringt den zu Beratenden auch nicht weiter, weil sich mindestens zwei dieser vier Punkte ziemlich schnell ändern können.

Sollte man nicht deswegen direkt zu Intel raten? Bis auf die "Performancekrone" bei Anwendungen mit 6 Threads ist die Intel CPU der AMD CPU in allen Bereichen überlegen und der Aufpreis hält sich arg in Grenzen.

Gast
2010-07-20, 16:43:54
Sollte man nicht deswegen direkt zu Intel raten? Bis auf die "Performancekrone" bei Anwendungen mit 6 Threads ist die Intel CPU der AMD CPU in allen Bereichen überlegen und der Aufpreis hält sich arg in Grenzen.

Nein

Amun-Re
2010-07-20, 16:56:41
Nein


Sondern? Wie sähe denn deine Herangehensweise aus?

Gast
2010-07-20, 16:59:06
Hexacore ist heute[7b] - wenn man von ein paar wenigen realistischen Verwendungsszenarien mal absieht - meinen Augen mindestens [b]so überflüssig wie "Triple"-Core (den allerdings sowieso nur AMD bereithält).

Hinzu kommt, dass heutzutage die meisten Spiele und Programme erstmal auf Dualcores bzw. wenn möglich auch auf generelles Multithreading optimiert werden müssen. Zur Erinnerung: Wir sind noch lange nicht an dem Punkt angelangt, wo sich ein inzwischen "normaler" Quad in einer Viel- oder gar Mehrzahl der Fälle und Anwendungsszenarien lohnt.

Und ihr wollt hier wirklich ersthaft über die grundsätzliche Daseinsberechtigung oder zumindest über einer potentielle, generelle Sinnhaftigkeit von Hexacores diskutieren? Ich bitte euch...

Bevor sich der Hexacore wirklich lohnt, muss erst der Quad zum überwiegenden Standard werden. Und da sind wir heute noch lange nicht.
Und wenn es dann soweit ist, dann sind mit absoluter Sicherheit schon längst modernere, leistungsfähige, effizientere Octacores (oder noch mehr) auf dem Markt, gegen die diese 6-Cores nichtmal ansatweise anstinken können. Was Hexacore anbelangt spreche ich übrigens ausdrücklich für bzw. "gegen" beide Hersteller. Nur kann man Intel (noch) nicht den Vorwurf machen, den Versuch zu wagen, 6-Kerner dem Mainstream unterjubeln zu wollen.

Was mir sonst bei dieser irrwitzigen Kerndiskussion immer wieder auffällt;
Alle sprechen immer von Energieeffizienz, green IT etc. und kritisieren regelmäßig Grafikkarten und CPUs für ihren hohen Verbrauch.
Genau die selben Leute haben dann aber dennoch den persönlichen Anspruch, unbedingt ein Quad- (bald ja dann auch Hexacore-) System besitzen zu müssen. Und ich frage mich da ernsthaft: Liegt das nur am Schwanzmark oder an anderweitiger neuronaler Insuffizienz? :uconf2:

Nicht dass man mich falsch versteht - ich will hier wiklich niemandem ans Bein pinkeln... Aber diejenigen, die wissen warum sie so eine Mehrkern-CPU tatsächlich produktiv benötigen, die wissen auch, dass Sie sich im Moment überhaupt nicht angesprochen fühlen brauchen. Die betroffenen "Hunde" werden warscheinlich aber gleich aufheulen und wild gegen mich Anschreiben...

Mir ist klar, dass wir uns hier in einem Enthusiastenforum bewegen und hier noch ein paar andere Dinge eine Rolle spielen, A B E R auch bzw. gerade das entbindet nicht von dem Anspruch (den ihr hoffentlich teilt), mal tatsächlich die Fakten auf den Tisch zu legen und nicht permanent alles schönzureden. Wenn ich auf sowas stehe, dann sehe ich mir lieber Bundestagsdebatten an... bis zum Erbrechen...

In so einem Forum sind wirklich die "Hard Facts" gefragt, kein Geschwafel.
Nicht zuletzt weil sich hier viele "externe" deutschsprachige Internetnutzer informieren wollen.

Tschüssi! :weg:

w0mbat
2010-07-20, 17:11:22
tripel-core ist nicht überflüssig sonder der beste kompromiss aus preis und leistung.

Gast
2010-07-20, 17:13:02
Mein X6 hat sich für mich schon rentiert, weil ich nun z.B. Gta IV auf vier Kernen laufen lasse und gleichzeitig auf den anderen beiden Kernen einen Film recodiere, ohne irgendwelche signifikanten Performanceverluste

boxleitnerb
2010-07-20, 17:28:00
Das ist aber schon ein sehr an den Haaren herbeigezogener Fall. Das machst du ja auch nicht permanent. Und selbst wenn, wärst du wahrscheinlich in einer absoluten Minderheit ;)

Pauschal zu Intel raten würde ich nicht. Die Plattform bei AMD ist schon ziemlich rund, das ist ein kleiner Ausgleich. WENN Bulldozer auf jetzigen AM3 Boards laufen sollte (weiß man ja leider noch nicht), wäre das ein ziemlicher Pluspunkt.

Ich sags mal so: Wenn man auf den letzten Cent achten muss, AMD. Intel ist schneller, aber ich denke mal, dem Durchschnittsspieler reicht momentan ein Phenom II X4/X6. Ich persönlich hab auch höhere Ansprüche, weil ich Spiele spiele, die CPU-Leistung zum Frühstück essen, aber das tut halt nicht jeder. Wir leben heute in einer Billiggesellschaft. Wenn man 50 Euro sparen kann und die Vorteile der Intels nicht auf den ersten Blick sieht (es wurde ja schon gesagt, dass es schwer ist Extremsituationen reproduzierbar zu benchen), greift man eben zum günstigeren Produkt.

Und apropos Extremsituationen: Wie der Name ja schon impliziert, sind diese nicht Gang und Gäbe. Der Vorteil ist sicher da, ist nur die Frage, wann und wie oft der Spieler davon was merkt.

puntarenas
2010-07-20, 17:37:46
Sollte man nicht deswegen direkt zu Intel raten?
Wenn ganz allgemein nach einer Gamer-CPU gefragt wird, kann man beruhigt Core i5 750 760 sagen. Wie man dagegen guten Gewissens uneingeschränkt einen Phenom II X6 in diesem Zusammenhang empfehlen kann, bleibt mir ein Rätsel.

In Spielen (und Spielsituationen - Benchmarks zeigen immer nur eine Momentaufnahme und oft gibt es "schlimmere" Stellen), wo die Grafikkarte schwitzt und die CPU Däumchen dreht, reicht natürlich auch meist ein Phenom oder gar Athlon, oft sogar prinzipiell ein Dualcore-Prozessor von einem der beiden Hersteller. Sodald es für die CPU zur Sache geht, machen die 20-30% höhere IPC der einzelnen Kerne allerdings schnell einen gewichtigen Unterschied. Übrigens gibt es auch noch eine Reihe (teils älterer) Single-Thread-Performancegräber (Gothic3 ftw!).

Nebenher verbraucht der Core i5 über den Daumen 20W weniger im Idle (komplettlösungen.de, Mail an Publisher "Hilfe, der Kopierschutz spinnt!") und unter Last sind Intel-Rechner ebenfalls genügsamer. Schade ist allerdings, dass die Energieeffizienz regelmäßig nur anhand der Maximalauslastung mit Prime95&Co ermittelt wird. Bei Teillast, insbesondere wenn nur 2 oder 3 Kerne schuften, dürfte der Core i5 sich noch weiter absetzen, den AMD-Prozessoren fehlen hier nebenbei auch moderne Energiesparmechanismen (C6-State (http://www.hardwaresecrets.com/article/611/6)).

Die Frage des Threads lautet, was heute und auf Sicht die bessere Gamer-CPU ist und das kann man IMHO klar beantworten. Das heißt nicht, dass die besagte K10.5-Architektur "kompletter Müll" ist, aber mit Intels Lynnfield-Architektur kann sie selbst auf 6 Kerne aufgeblasen nur in ganz speziellen Situationen wirklich mithalten und Spiele zählen im Allgemeinen nicht dazu. Bis eine weitgehende Parallelisierung kommender Spiele dem Phenom II X6 in Spielen zu neuen Höhenflügen verhelfen können mag, wird er meiner Meinung nach bereits allgemein zu schwach sein. Überhaupt glaube ich nicht, dass eine nahezu gleichmäßige und damit fast linear skalierende Parallelisierung wie in Cinebench im Spielebereich überhaupt zu machen ist. Ich denke, die Threads sind sehr unterschiedlich und das Limit wird dann auch bei vermeintlich massiv parallelisiertem Spielecode der Zukunft noch zwischen der IPC-Leistung eines einzelnen CPU-Kerns und dem bösen Killer-Thread des Spiels entschieden.

Wem durchschnittlich 20-30% Leistungsunterschied (Unterschied im Leistungspotential bezogen auf einen nicht GPU-limitierten Spiele-Mix, notfalls unter praxisfernen Bedingungen ausgemessen, aber unter angemessener Berücksichtigung der Spekulativität auch im Hinblick auf kommende Spiele mit gewissen Einschränkungen auf das allgemeine Potential der jeweiligen Architektur übertragbar und auf eine Verallgemeinerung heruntergebrochen... :ufinger:) egal sind oder wer diese in Kauf nimmt, um beim Mainboard weniger Kompromisse eingehen zu müssen oder aus anderen Gründen, der kann natürlich bei AMD zugreifen und erhält auch keineswegs ein inakzeptabel unterlegenes System. Das war aber nicht die Frage des Threadstarters. Abschließend ergibt sich nicht einmal beim Preis ein nennenswerter Unterschied zwischen einem Phenom II X6 System und einem Core i5 760 System.

Gamer-System:
[x] Core i5 760
[x] Core i7 870

Mein X6 hat sich für mich schon rentiert, weil ich nun z.B. Gta IV auf vier Kernen laufen lasse und gleichzeitig auf den anderen beiden Kernen einen Film recodiere, ohne irgendwelche signifikanten Performanceverluste
Interessanter Einwand und wie ich finde durchaus berechtigt. Allerdings beschreibst du wieder ein eher spezielles Szenario, was nicht so richtig zur allgemeinen Frage des Threadstarters passt. Wenn man verallgemeinert, nimmt man das grobe Raster. :)

Gast
2010-07-20, 17:40:15
Wieso an den Haaren herbeigezogen? Aus dem Grund hab´ ich mir damals schon einen AthlonX2 zugelegt und ist für mich DER einzig wahre Grund für Multicores jenseits der x3 im Desktop Bereich, da Anwendungen und Spiele in der Regel keine 6 Kerne auslasten können. Leider.

Wuge
2010-07-20, 17:40:24
Momentan machen die X6 für mich nur in sehr speziellen Anwendungsfällen Sinn. Für general purpose ist der i7 nahezu immer performanter, da die 4 Kerne mit HT in etwa die Leistung bringen wie 6 Phenom Kerne. Werden nur 4 oder weniger Kerne genutzt, siehts für den X6 dann richtig düster aus...

Gast
2010-07-20, 17:53:04
"Interessanter Einwand und wie ich finde durchaus berechtigt. Allerdings beschreibst du wieder ein eher spezielles Szenario, was nicht so richtig zur allgemeinen Frage des Threadstarters passt. Wenn man verallgemeinert, nimmt man das grobe Raster."

War ja auch nur ein Beispiel, anhand meiner Gewohnheiten!

Es soll aber auch User geben, die beispielsweise 6 WOW Accounts gleichzeitig laufen lassen aber das ist nun auch wieder sehr speziell.

Grundsätzlich denke ich aber egal ob man nun eher zu Intel oder AMD neigt, speziell in Spielen wird man allenfalls in Benchmarks einen signifikanten unterschied bemerken.

boxleitnerb
2010-07-20, 18:00:00
Was ich gerne mal sehen würde, wären Benchmarks in Real Life Situationen (keine 800x600), in denen man nicht nur ca. 10% sieht wie z.B. in den explizit CPU-limitierten 3DC Benchmarks im Lynnfield Artikel, sondern die vorhin genannten 40%.
Natürlich nicht durchgehend, klar, aber wie kann man andere überzeugen, ohne auf bewiesene Fakten zurückgreifen zu können?
Ich bin oft bei CB und im Luxx unterwegs und dort werden in JEDEM Beratungsthread AMDs als Spiele-CPU empfohlen, weil es zu Intel gerade dort keinen Unterschied geben soll :freak:
Wenn man dann mit "Aber bei 800x600...bla...interpolieren auf Extremsituationen..." kommt, wird man natürlich ausgelacht und das so tolle P/L-Verhältnis der AMD-CPUs gelobt. Wäre schön, wenn man was Handfestes hätte, was man entgegnen könnte. Ich hab bisher außer so Spielereien wie Benches in praxisfernen Auflösungen oder solchen mit SLI/CF nichts gefunden, was die durchgehende Überlegenheit der Intels beweist.

Ich persönlich glaube auch an diese Überlegenheit anhand der vorhandenen Daten (z.B. dargos 640x480 Benches), aber das sind nur indirekte Rückschlüsse im Spielbereich.

Selbst PCGH bencht oft ohne MSAA/AF und bekommt nur in wenigen Spielen mehr als ca. 15% Vorteil heraus für die Intels - wenn überhaupt. Auf diese Benchmarks kann man sich dann auch nicht beziehen, um die 40% in praxistauglichen Settings zu zeigen. Und was bleibt sonst noch? PCGH sehe ich bei Benchmarks eigentlich an der Spitzenposition an, weil alles so gut dokumentiert wird und die Leute dort wirklich Ahnung haben. Aber wenn selbst die es nicht hinkriegen, bei z.B. 1680x1050 4xMSAA/16xAF die krasse Überlegenheit der Intels aufzuzeigen...
Und wenn man sich dann Szenarien aussucht, in denen man doch irgendwiedraufkommt (Anno 1404), heißt es wieder "Rosinenpickerei"!

Lawmachine79
2010-07-20, 18:20:20
Interessanter Einwand und wie ich finde durchaus berechtigt. Allerdings beschreibst du wieder ein eher spezielles Szenario, was nicht so richtig zur allgemeinen Frage des Threadstarters passt. Wenn man verallgemeinert, nimmt man das grobe Raster. :)
800x600 sind natürlich kein sehr spezielle Szenario ;).

puntarenas
2010-07-20, 18:32:58
800x600 sind natürlich kein sehr spezielle Szenario ;).
"800x600" sind überhaupt kein Anwendungsszenario, denn niemand spielt in dieser Auflösung.

Diese speziellen Benchmarkergebnisse sind trotzdem von großem Interesse, es sei denn dich interessieren nur und ausschließlich die im Review gebenchten Spiele in exakt dieser Konfiguration und Spielszene. Der Gast dagegen hat ein denkbares, aber sehr spezielles Fallbeispiel gebracht, wo ihn sein Hexacore glücklich macht. Das war nur eben wenig hilfreich bei der allgemeinen Frage nach der besseren Gamer-CPU.

Gast
2010-07-20, 18:33:17
Was ich gerne mal sehen würde, wären Benchmarks in Real Life Situationen (keine 800x600), in denen man nicht nur ca. 10% sieht wie z.B. in den explizit CPU-limitierten 3DC Benchmarks im Lynnfield Artikel, sondern die vorhin genannten 40%.
Natürlich nicht durchgehend, klar, aber wie kann man andere überzeugen, ohne auf bewiesene Fakten zurückgreifen zu können?
Ich bin oft bei CB und im Luxx unterwegs und dort werden in JEDEM Beratungsthread AMDs als Spiele-CPU empfohlen, weil es zu Intel gerade dort keinen Unterschied geben soll :freak:
Wenn man dann mit "Aber bei 800x600...bla...interpolieren auf Extremsituationen..." kommt, wird man natürlich ausgelacht und das so tolle P/L-Verhältnis der AMD-CPUs gelobt. Wäre schön, wenn man was Handfestes hätte, was man entgegnen könnte. Ich hab bisher außer so Spielereien wie Benches in praxisfernen Auflösungen oder solchen mit SLI/CF nichts gefunden, was die durchgehende Überlegenheit der Intels beweist.

Ich persönlich glaube auch an diese Überlegenheit anhand der vorhandenen Daten (z.B. dargos 640x480 Benches), aber das sind nur indirekte Rückschlüsse im Spielbereich.

Selbst PCGH bencht oft ohne MSAA/AF und bekommt nur in wenigen Spielen mehr als ca. 15% Vorteil heraus für die Intels - wenn überhaupt. Auf diese Benchmarks kann man sich dann auch nicht beziehen, um die 40% in praxistauglichen Settings zu zeigen. Und was bleibt sonst noch? PCGH sehe ich bei Benchmarks eigentlich an der Spitzenposition an, weil alles so gut dokumentiert wird und die Leute dort wirklich Ahnung haben. Aber wenn selbst die es nicht hinkriegen, bei z.B. 1680x1050 4xMSAA/16xAF die krasse Überlegenheit der Intels aufzuzeigen...
Und wenn man sich dann Szenarien aussucht, in denen man doch irgendwiedraufkommt (Anno 1404), heißt es wieder "Rosinenpickerei"!
Hier ein Bsp: http://www.pcgameshardware.de/aid,705367/Starcraft-2-Beta-13-CPUs-im-Test-AMD-gegen-Intel/Strategiespiel/Test/

Es ist ein "modernes", auf 2 Kerne optimiertes RTS. Da ist ein auf 2.66GHz getakteter i5 15% schneller (min FPS) als ein auf 3.4GHz getakteter Phenom 2.

Berücksichtigt man also die Taktraten, ist ein i5 in diesem Spiel >30% schneller. Und das kann man auch ohne SLI oder sonstwas haben, denn SC2 ist kein GraKa-Killer. Mit einer 460 (vll sogar 5770) kann man 16xx*1xxx mit AA unf AF fahren, und solche Unterschiede zw. den CPUs haben.

Gast
2010-07-20, 18:35:11
Ups, da sollte 40% stehen. :(

Undertaker
2010-07-20, 18:51:30
Was ich gerne mal sehen würde, wären Benchmarks in Real Life Situationen (keine 800x600), in denen man nicht nur ca. 10% sieht wie z.B. in den explizit CPU-limitierten 3DC Benchmarks im Lynnfield Artikel, sondern die vorhin genannten 40%.
Natürlich nicht durchgehend, klar, aber wie kann man andere überzeugen, ohne auf bewiesene Fakten zurückgreifen zu können?
Ich bin oft bei CB und im Luxx unterwegs und dort werden in JEDEM Beratungsthread AMDs als Spiele-CPU empfohlen, weil es zu Intel gerade dort keinen Unterschied geben soll :freak:
Wenn man dann mit "Aber bei 800x600...bla...interpolieren auf Extremsituationen..." kommt, wird man natürlich ausgelacht und das so tolle P/L-Verhältnis der AMD-CPUs gelobt. Wäre schön, wenn man was Handfestes hätte, was man entgegnen könnte. Ich hab bisher außer so Spielereien wie Benches in praxisfernen Auflösungen oder solchen mit SLI/CF nichts gefunden, was die durchgehende Überlegenheit der Intels beweist.

Ich persönlich glaube auch an diese Überlegenheit anhand der vorhandenen Daten (z.B. dargos 640x480 Benches), aber das sind nur indirekte Rückschlüsse im Spielbereich.

Selbst PCGH bencht oft ohne MSAA/AF und bekommt nur in wenigen Spielen mehr als ca. 15% Vorteil heraus für die Intels - wenn überhaupt. Auf diese Benchmarks kann man sich dann auch nicht beziehen, um die 40% in praxistauglichen Settings zu zeigen. Und was bleibt sonst noch? PCGH sehe ich bei Benchmarks eigentlich an der Spitzenposition an, weil alles so gut dokumentiert wird und die Leute dort wirklich Ahnung haben. Aber wenn selbst die es nicht hinkriegen, bei z.B. 1680x1050 4xMSAA/16xAF die krasse Überlegenheit der Intels aufzuzeigen...
Und wenn man sich dann Szenarien aussucht, in denen man doch irgendwiedraufkommt (Anno 1404), heißt es wieder "Rosinenpickerei"!

Nun, eigentlich könnte auch jeder selbst testen und sehen, dass eine Auflösungsverringerung zum Benchen von CPUs eine völlig legitime Methode ist. Warum? Weil die Auflösung auf die Belastung der CPU keinen, aber auch wirklich keinen Einfluss hat (Randbedingung: Gleiches fov!). Um das zu belegen, reicht ein einfacher Versuch: Man nehme ein extrem CPU-limitiertes Szenario, z.B. ein TF2 Replay mit einer auf beispielsweise 1GHz Takt beschnittenen CPU. Jetzt kann ich 640x480, 1024x768 bis 1600x1200 benchen und werde keinerlei Veränderung der fps bemerken. Bei einer entsprechend starken GPU kann ich auch noch zusätzlich AA/AF einschalten, ebenfalls konstante fps.

Insofern stellt sich für jeden, der sich von diesem Grundsatz überzeugt hat, die Frage der Auflösung gar nicht mehr: Man nimmt schlicht die niedrigste verfügbare und fertig. Natürlich ganz im Gegenteil zu den Details, diese müssen natürlich maximiert sein - hier können durchaus viele der zur Verfügung stehenden Optionen die CPU-Belastung erhöhen.

Was aber nun, wenn wir uns dennoch im GPU-Limit befinden?

1. Stärkere GPU
Dazu gibts nicht viel zu sagen, wäre eine Lösung

2. SLI/CF
Ist ebenso wie die Auflösungsverringerung ein absolut korrekter Ansatz. Man sollte zusätzlich noch mit einem Benchmark im absoluten GPU-Limit prüfen, ob beide Probanden hier identisch schnell sind - wenn ja, gibt es wirklich keinerlei Ansatz, eine solche Vorgehensweise zu kritisieren.

3. Taktraten der CPUs reduzieren
Prinzipiell auch eine denkbare Lösung, z.B. beide Modelle um 50% im Takt herunterzuschrauben, um so ein vollständiges CPU-Limit zu erzwingen. Praktisch allerdings eine schwere Aufgabe, denn bei verschiedenen Architekturen ist es nicht leicht zu sagen, über welchen Parameter man die Taktrate am besten variiert und ob dies keine Auswirkungen auf andere Flaschenhälse hat.

4. "Härtere" Savegames suchen
Sofern es reproduzierbar zu benchen bleibt - nicht immer möglich, speziell ohne freies Speichern - sollte generell immer mit einem realistischen worst-case Fall gearbeitet werden.

Gast
2010-07-20, 19:10:51
Ich bin oft bei CB und im Luxx unterwegs und dort werden in JEDEM Beratungsthread AMDs als Spiele-CPU empfohlen, weil es zu Intel gerade dort keinen Unterschied geben soll :freak:

Die CB-Leserschaft ist extrem Pro-AMD. Gut zu beobachten an den Bewertungen von Artikeln über Intel, nVidia und AMD. AMD-Artikel werden grundsätzlich mit durchschnittlich > 4 Sternen bewertet. Beispiel: Tape-Out von AMDs „Bulldozer“ erfolgt (http://www.computerbase.de/news/hardware/prozessoren/amd/2010/juli/tape-out_amds_bulldozer/). Intel-Artikel hingegen erfahren eher mittelmäßige Bewertungen: Intel vermeldet bestes Quartal aller Zeiten (http://www.computerbase.de/news/wirtschaft/unternehmen/intel/2010/juli/intel_quartal_zeiten/). Der Erfolg AMDs gefällt der Leserschaft also mehr als der Erfolg Intels.
Auf CB wollen sie auch die AF-Cheaterei der AMD-GPUs nicht wahrhaben, selbst mit HD-Videos, die man ihnen zeigt, wo die Unterschiede in völlig alltäglichen Szenen eindeutig sichtbar sind. Ich würde mir daher die Mühe sparen, die CB-Leserschaft groß bekehren zu wollen, ist CB doch eine Mainstream-Seite, die größtenteils aus Jugendlichen besteht, die nur ihr Modern Warfare mit Papas PC flüssig zocken wollen. Ich habe es mal versucht. Als Antwort kam von einem 14-Jährigen, dass GTA IV einfach nur schlecht programmiert sei. :rolleyes:

Gast
2010-07-20, 19:17:15
GTA IV: http://www.pcgameshardware.de/aid,698809/Intels-Gulftown-CPU-im-Test-Core-i7-980X-auf-Westmere-Basis/CPU/Test/?page=2

i5-750 in völlig alltäglichen Settings, 1680 x 1050, 16x AF (AA geht bei GTA IV nicht) bereits mit 2,66 GHz (Turbo off) 27 % schneller als ein X4 3,4 GHz. Gleichgetaktet erhälst du deine 40 % Leistungsvorsprung locker. 27 % mehr Leistung bei 22 % weniger Takt sagt schon viel über die AMD-Architektur aus.

LuXon
2010-07-20, 19:31:52
Die CB-Leserschaft ist extrem Pro-AMD. Gut zu beobachten an den Bewertungen von Artikeln über Intel, nVidia und AMD. AMD-Artikel werden grundsätzlich mit durchschnittlich > 4 Sternen bewertet. Beispiel: Tape-Out von AMDs „Bulldozer“ erfolgt. Intel-Artikel hingegen erfahren eher mittelmäßige Bewertungen: Intel vermeldet bestes Quartal aller Zeiten. Der Erfolg AMDs gefällt der Leserschaft also mehr als der Erfolg Intels.
Auf CB wollen sie auch die AF-Cheaterei der AMD-GPUs nicht wahrhaben, selbst mit HD-Videos, die man ihnen zeigt, wo die Unterschiede in völlig alltäglichen Szenen eindeutig sichtbar sind. Ich würde mir daher die Mühe sparen, die CB-Leserschaft groß bekehren zu wollen, ist CB doch eine Mainstream-Seite, die größtenteils aus Jugendlichen besteht, die nur ihr Modern Warfare mit Papas PC flüssig zocken wollen. Ich habe es mal versucht. Als Antwort kam von einem 14-Jährigen, dass GTA IV einfach nur schlecht programmiert sei.

*schäm* war auch mal so einer, der nen AMD Phenom II genommen hat. Das blöde daran, ständiges CPU-Limit.
BFBC2? CPU-Limit
Assassins creed II? CPU-Limit.

Dem Phenom fehlt einfach die Leistung pro Mhz. Werde wohl nächstes Jahr auf Intel wechseln. So ein billiger i7-860 wenn Sandy Bridge draussen ist, wäre schon was feines

Graka ist übrigens eine GTX260 "216" auf 700/irgendwas um 1500/1100

Gast
2010-07-20, 19:51:45
Wenn ich mir anschaue, dass der i5 760 im CPU-Limit gut 40% vor dem X6 1055T (http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/32/#abschnitt_performancerating) liegen dürfte, ist das für mich durchaus "haushoch".

Ich hoffe dir ist klar das dieses Ergebnis nur wegen Dirt2 zustanden kommt, das bekannt mit 6 Kernen überhaupt nicht klar kommt.

http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/23/#abschnitt_colin_mcrae_dirt_2

boxleitnerb
2010-07-20, 19:55:52
Nun, eigentlich könnte auch jeder selbst testen und sehen, dass eine Auflösungsverringerung zum Benchen von CPUs eine völlig legitime Methode ist. Warum? Weil die Auflösung auf die Belastung der CPU keinen, aber auch wirklich keinen Einfluss hat (Randbedingung: Gleiches fov!). Um das zu belegen, reicht ein einfacher Versuch: Man nehme ein extrem CPU-limitiertes Szenario, z.B. ein TF2 Replay mit einer auf beispielsweise 1GHz Takt beschnittenen CPU. Jetzt kann ich 640x480, 1024x768 bis 1600x1200 benchen und werde keinerlei Veränderung der fps bemerken. Bei einer entsprechend starken GPU kann ich auch noch zusätzlich AA/AF einschalten, ebenfalls konstante fps.

Insofern stellt sich für jeden, der sich von diesem Grundsatz überzeugt hat, die Frage der Auflösung gar nicht mehr: Man nimmt schlicht die niedrigste verfügbare und fertig. Natürlich ganz im Gegenteil zu den Details, diese müssen natürlich maximiert sein - hier können durchaus viele der zur Verfügung stehenden Optionen die CPU-Belastung erhöhen.

Was aber nun, wenn wir uns dennoch im GPU-Limit befinden?

1. Stärkere GPU
Dazu gibts nicht viel zu sagen, wäre eine Lösung

2. SLI/CF
Ist ebenso wie die Auflösungsverringerung ein absolut korrekter Ansatz. Man sollte zusätzlich noch mit einem Benchmark im absoluten GPU-Limit prüfen, ob beide Probanden hier identisch schnell sind - wenn ja, gibt es wirklich keinerlei Ansatz, eine solche Vorgehensweise zu kritisieren.

3. Taktraten der CPUs reduzieren
Prinzipiell auch eine denkbare Lösung, z.B. beide Modelle um 50% im Takt herunterzuschrauben, um so ein vollständiges CPU-Limit zu erzwingen. Praktisch allerdings eine schwere Aufgabe, denn bei verschiedenen Architekturen ist es nicht leicht zu sagen, über welchen Parameter man die Taktrate am besten variiert und ob dies keine Auswirkungen auf andere Flaschenhälse hat.

4. "Härtere" Savegames suchen
Sofern es reproduzierbar zu benchen bleibt - nicht immer möglich, speziell ohne freies Speichern - sollte generell immer mit einem realistischen worst-case Fall gearbeitet werden.

Gute Erklärung, danke. D.h. der Vorsprung in 640x480 wird in entsprechenden Szenen auch in HD-Auflösung mit AA/AF durchschlagen, sofern die GPU nicht limitiert? Dann kann man ja praktisch alle CPU-Tests komplett in die Tonne kloppen, weil sie - den Bemühungen zum Trotz - irgendwie mit angezogener Handbremse fahren...

BlackBirdSR
2010-07-20, 19:56:59
Nun, eigentlich könnte auch jeder selbst testen und sehen, dass eine Auflösungsverringerung zum Benchen von CPUs eine völlig legitime Methode ist. .

Ob das jemals die breite Masse akzeptieren wird?
Vielleicht muss man zumindest Ansatzweise gewohnt sein, wissenschaftlich zu arbeiten. Dann wird einem sofort klar, dass man zu aller erst so viele unbekannte störende Faktoren wie möglich entfernen muss, ohne den gesuchten Faktor zu eliminieren.

Dann muss man seine Fragestellung konkretisieren:
* Will man die reine CPU-Leistung, dann muss man die GPU möglichst eliminieren, was am einfachsten durch eine niedrige Auflösung (800x600) funktioniert.

*Will man die Systemleistung bei hoch belastenden Stellen, muss man spezielle Punkt aussuchen (CPU-Limit, GPU-Limit, VRAM-Belastung z. hohe Auflösung, Details, Texturmods) und dann hier Vergleiche ziehen.

Dieses "praxisfremd" ist eine IMO absolut unhaltbare Argumentation, da die "praxisnahen" Vergleiche nur für eines gut sind: Die Ergebniskurven dermaßen zu glätten, dass man gar nichts mehr ausssagen kann. Kommen dann noch average-fps dazu, kann man gleich Lotto spielen.
Bestes Beispiel? Die extreme Leistungsschwäche bei hohen Auflösungen der Intel Corei7-CPUs. Da zieht AMD ja so richtig böse vorbei (3-4fps avrg). Wenn man dann betrachtet, wie stark ein Corei7 bei SLI oder 800x600 vorne liegt (übrigens identisch, daher muss SLI-praxisfremd sein), muss einem doch klar werden, dass hier das I/O und nicht die CPU ein Problem hat. Wenn man dann noch versteht, dass diese 3-4fps absolut nie spürbar sind, die 30% höhere Leistung in CPU-limitierten Stellen dann aber schon, dann hat man sich viel erkämpft.

"praxisfremd" ist nur eines: Die aktuellen testmethoden mit average fps bei hohen Auflösungen (und AA), wenn man CPUs vergleichen will und dann eine generelle Leistungsaussage treffen will. Jeder Wissenschaftler würde arm sterben, wenn man seine Versuche dermaßen mit Stolperfallen spickt und dann auch noch seine Meßergebnisse glättet...

@boxleitnerb:
Richtig, das haben auch diverse 3DC-Benchmarks über die Jahre gezeigt. Wann immer man Frameverläufe bekommt, sieht man das auch prima.

boxleitnerb
2010-07-20, 20:05:35
Hättest du dazu bitte vielleicht ein Beispiel?
In dem 3DC Artikel zu Lynnfield wurde nicht so getestet, wie es hier als richtig dargestellt wird - dann sind diese Ergebnisse ja auch nicht optimal.

y33H@
2010-07-20, 20:08:46
Ich hoffe dir ist klar das dieses Ergebnis nur wegen Dirt2 zustanden kommt, das bekannt mit 6 Kernen überhaupt nicht klar kommt.Man sollte halt die "8core.xml" nutzen ;)

Gast
2010-07-20, 20:16:11
Man sollte halt die "8core.xml" nutzen ;)

Ja, das ist klar. Aber Undertakter tut ja so als wären diese 40% ("haushoch") der normale Abstand. Rechnet man das Dirt2 Ergebnis raus bleiben vielleicht 20% übrig in absolut CPU-limitierten Spiele Szenarien. Bei den Anwendungen ist der Phenom dafür um 20% vorne.

BlackBirdSR
2010-07-20, 20:18:13
Hättest du dazu bitte vielleicht ein Beispiel?
In dem 3DC Artikel zu Lynnfield wurde nicht so getestet, wie es hier als richtig dargestellt wird - dann sind diese Ergebnisse ja auch nicht optimal.

die besten Beispiele wurden nie veröffentlicht ;) Madkiller hat mit seinen Performancereports bezüglich average fps, timedemos, savegames und auflösung, da ganz viel Arbeit geleistet.

Es sagt auch niemand, dass die aktuellen Benchmarks optimal sind. Das Problem ist immer! dass der Testaufwand exponentiell ansteigt. Wenn ich mir überlege, was die Testerei für die XP vs Vista Serie an Zeit gekostet hat, und dabei sind die wirklich stressigen Benchmarks mit Crysis und UT3 gar nicht veröffentlicht worden.....

Keiner macht sowas, weil es unglaublich kostet und am Ende keine Sau interessiert. Es gibt keinen Gewinn für einen Tester, wenn er es korrekt macht und dabei andere Ergebnisse bekommt als x-Seiten. Er verdient nicht mehr, es kommen nicht spürbar mehr Besucher und man verändert auch nichts in der Welt. Denn am Ende versucht wieder jeder den Arbeitsaufwand zu drücken. Das gilt insbesondere wenn man mehr als 1 Review / Halbjahr abliefern muss. Darum hat Madkiller unter anderem auch aufgehört.... entweder man macht es richtig und dann nichts mehr anderes, oder wie immer halt.

Amun-Re
2010-07-20, 20:24:32
Dieses "praxisfremd" ist eine IMO absolut unhaltbare Argumentation


Aus einer wissenschatlichen Betrachtungsweise heraus geb ich dir ja auch völlig Recht das Problem ist allerdings das man argumentativ nur schwer an Boden gewinnt wenn man anderen vielleicht etwas voreingenommenen Leuten versucht begreiflich zu machen das niedrige Auflösungen durchaus ein probates Mittel sein können um den Faktor CPU in Games isoliert betrachten zu können.
Du kannst mit an Sicherheit grenzender Wahrscheinlichkeit davon ausgehen das man unmittelbar moniert das solche niedrigen Auflösungen den Praxisfall ohnehin nicht wiederspiegeln insofern kommt von anderer Stelle dann schnell der Einwand "praxisfremd" und nur für technisch versierte von Relevanz.


Madkiller hat mit seinen Performancereports bezüglich average fps, timedemos, savegames und auflösung, da ganz viel Arbeit geleistet.


Wurde das publiziert? Wenn ja kannste eventuell nen Link zur Verfügung stellen das man solche Dinge einfach aus reinem Interesse nochmal nachschlagen kann?

BlackBirdSR
2010-07-20, 20:29:36
http://www.3dcenter.org/artikel/Performancereport

Vielleicht bringe ich irgendwann noch die Zeit auf, die UT3 Ergebnisse darzustellen. Man erkennt dort ganz gut, wie extrem man durch "normale" Auflösungen und average-Messungen Ergebnisse glätten kann, so dass wirklich relevante Unterschiede eliminiert werden.

Pauschal kann man sagen:
Wenn CPU XY bei niedrigen Auflösungen 20% schneller ist als CPU UV, dann hat man diese 20% immer dann, wenn es wirklich darauf ankommt - in allen anderen Fällen sind beide CPUs so schnell, dass man den Unterschied aufgrund der GPU gar nicht spüren kann. Genau das sollen die 800x600er Benchmarks aufzeigen, auf viel anderes kommt es IMO bei CPU-Benchmarks auch nicht an, vielleicht noch ab wann die CPU generell zum Flaschenhals wird für Grafikkarte AB oder CD

hq-hq
2010-07-20, 20:45:43
hm, muss ehrlich sagen das die benchis von legionhardware (http://www.legionhardware.com/articles_pages/radeon_hd_5870_crossfire_cpu_scaling_performance_part_2,6.html) etwas crasser ausfallen als ich mir das gedacht hätte besonders farcry2...

ist ja so schon heftig genug wie z.b. in starcraft2 (http://www.pcgameshardware.com/aid,705392/Starcraft-2-Beta-CPU-benchmarks-x-Core-i5/i7-leading/Practice/)

würde mir heute wohl wieder einen i5 kaufen, allerdings, wenn es sicher klappen würde mit einem x6 auf 6x4,2 ghz oder mehr zu takten...
hmm... würde ich dem auch gerne eine chance geben.
vor allem aus prinzip, weil intel bei den preisen a bisserl die hintere schrankwand zu weit auf hat

Undertaker
2010-07-20, 20:48:53
Ich hoffe dir ist klar das dieses Ergebnis nur wegen Dirt2 zustanden kommt, das bekannt mit 6 Kernen überhaupt nicht klar kommt.

http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/23/#abschnitt_colin_mcrae_dirt_2

Das hab ich übersehen, sry. :) Allerdings muss man ebenso bemerken, dass selbst in 800x600 noch einige Messungen teilweise ins GPU-Limit gelaufen sind - z.B. AA2 - und somit die Abstände auch wieder ein wenig komprimiert wurden. Aber die zuerst abgelesenen 40% bei CB sind dennoch so natürlich absolut verfälscht und somit inkorrekt, mein Fehler.

Gute Erklärung, danke. D.h. der Vorsprung in 640x480 wird in entsprechenden Szenen auch in HD-Auflösung mit AA/AF durchschlagen, sofern die GPU nicht limitiert? Dann kann man ja praktisch alle CPU-Tests komplett in die Tonne kloppen, weil sie - den Bemühungen zum Trotz - irgendwie mit angezogener Handbremse fahren...

Exakt.

Lawmachine79
2010-07-20, 21:39:23
"800x600" sind überhaupt kein Anwendungsszenario, denn niemand spielt in dieser Auflösung.

Diese speziellen Benchmarkergebnisse sind trotzdem von großem Interesse, es sei denn dich interessieren nur und ausschließlich die im Review gebenchten Spiele in exakt dieser Konfiguration und Spielszene. Der Gast dagegen hat ein denkbares, aber sehr spezielles Fallbeispiel gebracht, wo ihn sein Hexacore glücklich macht. Das war nur eben wenig hilfreich bei der allgemeinen Frage nach der besseren Gamer-CPU.
Das Beispiel des Gastes ist weniger speziell als das Spielen in 800x600. Ich bin ja einverstanden, daß 800x600 als Index taugt - aber daraus auf "Spiele-CPU" und "Nicht-Spiele-CPU" zu schließen, ist schlichtweg falsch, da die Unterschiede sich mit der Auflösung, in der man spielt, marginalisieren.
Und, wenn man hier schon ständig auf die Coreskalierung abstellt, dann bitte auch Beispiele wie BFBC2 und andere nennen. Quadcore wird ZWANGSLÄUFIG an Bedeutung verlieren, so wie es bei DC-->QC auch war, was auch niemand wahrhaben wollte.

Gute Erklärung, danke. D.h. der Vorsprung in 640x480 wird in entsprechenden Szenen auch in HD-Auflösung mit AA/AF durchschlagen, sofern die GPU nicht limitiert? Dann kann man ja praktisch alle CPU-Tests komplett in die Tonne kloppen, weil sie - den Bemühungen zum Trotz - irgendwie mit angezogener Handbremse fahren...
Eingeschränkt richtig. Ein entscheidender Punkt wird immer ausgeblendet. Ich bin der Meinung, man sollte nur dann CPU-Limitierungen berücksichtigen, wenn sie über Spielbarkeit und Nichtspielbarkeit entscheiden. Denn erst dann werden sie relevant. Wenn es hingegen darum geht, ob ich 60 oder 85 Frames habe, schaffe ich durch die Erhöhung der BQ bis 35-50 Frames (je nach Engine durchaus auch 25 Frames, bei Strategiespielen) einfach eine "künstliche" Grakalimitierung herbei. Dann läuft das Spiel auf beiden CPUs gleichschnell. Erst wenn eine CPU auf 640x480 unter diese Framegrenzen fällt, ist CPU-Limitierung (außer zur Indexbildung) interessant und praxisrelevant.

Gast
2010-07-20, 21:48:54
Das Beispiel des Gastes ist weniger speziell als das Spielen in 800x600. Ich bin ja einverstanden, daß 800x600 als Index taugt - aber daraus auf "Spiele-CPU" und "Nicht-Spiele-CPU" zu schließen, ist schlichtweg falsch, da die Unterschiede sich mit der Auflösung, in der man spielt, marginalisieren.
Und, wenn man hier schon ständig auf die Coreskalierung abstellt, dann bitte auch Beispiele wie BFBC2 und andere nennen. Quadcore wird ZWANGSLÄUFIG an Bedeutung verlieren, so wie es bei DC-->QC auch war, was auch niemand wahrhaben wollte.
Das ist aber falsch. Die Unterschiede verschwinden nicht. Ein PII mag in 16xx*1xxx nur 5% im AVG langsamer sein. Aber genau an den Stelle, wo trotz des angeblichen GPU-Limits, die CPU gefordert wird, und die Frames auf unter 40 (nur als Bsp) fallen, wird ein i5 35, und ein Phenom <30 haben. D.h. wo Leistung benötigt wird, liefert ein i5 sie auch. Und das besser als ein PII. Egal ob man das durch AA, AF, Details oder sonstwas maskiert.
Und ausserdem gibt es auch Strategiespiele, und dort braucht man jedes Quentchen CPU-Leistung.

dargo
2010-07-20, 21:50:59
Das Beispiel des Gastes ist weniger speziell als das Spielen in 800x600. Ich bin ja einverstanden, daß 800x600 als Index taugt - aber daraus auf "Spiele-CPU" und "Nicht-Spiele-CPU" zu schließen, ist schlichtweg falsch, da die Unterschiede sich mit der Auflösung, in der man spielt, marginalisieren.
Und, wenn man hier schon ständig auf die Coreskalierung abstellt, dann bitte auch Beispiele wie BFBC2 und andere nennen. Quadcore wird ZWANGSLÄUFIG an Bedeutung verlieren, so wie es bei DC-->QC auch war, was auch niemand wahrhaben wollte.


Eingeschränkt richtig. Ein entscheidender Punkt wird immer ausgeblendet. Ich bin der Meinung, man sollte nur dann CPU-Limitierungen berücksichtigen, wenn sie über Spielbarkeit und Nichtspielbarkeit entscheiden. Denn erst dann werden sie relevant. Wenn es hingegen darum geht, ob ich 60 oder 85 Frames habe, schaffe ich durch die Erhöhung der BQ bis 35-50 Frames (je nach Engine durchaus auch 25 Frames, bei Strategiespielen) einfach eine "künstliche" Grakalimitierung herbei. Dann läuft das Spiel auf beiden CPUs gleichschnell. Erst wenn eine CPU auf 640x480 unter diese Framegrenzen fällt, ist CPU-Limitierung (außer zur Indexbildung) interessant und praxisrelevant.
Du widersprichst dir hier irgendwie. Natürlich kann man mit einer niedrigeren Auflösung bereits sehen ob CPU X oder Y spielbare Frames liefert bzw. ob es dann eine Spiele-CPU ist oder nicht. Die Frames werden durch höhere Auflösung ja nicht höher. Höchstens tiefer als in der niedrigen Auflösung wenn mans mit den Settings dermaßen übertreibt, dass es wieder ins GPU-Limit geht.

boxleitnerb
2010-07-20, 21:57:22
Eingeschränkt richtig. Ein entscheidender Punkt wird immer ausgeblendet. Ich bin der Meinung, man sollte nur dann CPU-Limitierungen berücksichtigen, wenn sie über Spielbarkeit und Nichtspielbarkeit entscheiden. Denn erst dann werden sie relevant. Wenn es hingegen darum geht, ob ich 60 oder 85 Frames habe, schaffe ich durch die Erhöhung der BQ bis 35-50 Frames (je nach Engine durchaus auch 25 Frames, bei Strategiespielen) einfach eine "künstliche" Grakalimitierung herbei. Dann läuft das Spiel auf beiden CPUs gleichschnell. Erst wenn eine CPU auf 640x480 unter diese Framegrenzen fällt, ist CPU-Limitierung (außer zur Indexbildung) interessant und praxisrelevant.

Man sollte nicht vergessen, dass sich die Performance bzgl. der Spielbarkeitsgrenze bei einem immer aktuellen Spieleparcour bei gleicher CPU langsam verschieben wird im Laufe der Zeit. Sprich: Ein i5/i7 wird länger nutzbar sein als ein Phenom II (wenn man davon ausgeht, dass Spiele nicht allzu bald unbedingt einen Octacore brauchen, um flüssig zu laufen - dann wäre es ja eh egal, da mit beiden unspielbar).

Gast
2010-07-20, 21:59:09
Ich bin ja einverstanden, daß 800x600 als Index taugt - aber daraus auf "Spiele-CPU" und "Nicht-Spiele-CPU" zu schließen, ist schlichtweg falsch, da die Unterschiede sich mit der Auflösung, in der man spielt, marginalisieren.
Niemand unterscheidet hier zwischen "Spiele-CPU" und "Nicht-Spiele-CPU", die Frage lautete, welches die [u]bessere Spiele-CPU[/b] ist.

puntarenas
2010-07-20, 22:00:40
Niemand unterscheidet hier zwischen "Spiele-CPU" und "Nicht-Spiele-CPU", die Frage lautete, welches die bessere Spiele-CPU ist.

Als bessere Spiele-CPU gilt gemeinhin der Prozessor, von dem du in kritischen Situationen die höhere Leistung erwarten darfst und um das zu beantworten brauchst du natürlich geeignete Spielszenen und Settings im CPU-Limit, sonst können die Prozessoren ihr Potential nicht entfalten.

PCGH sucht bei Prozessorreviews übrigens IIRC auch nicht nach Worst-Case-Szenen. Sie haben das aber dokumentiert und begründet und auch wenn ich das schade finden mag, finde ich das in der Form einen legitimen Ansatz. Ich finde auch in Ordnung, wenn du Wert auf die Feststellung legst, dass es unzählige Spiele und Spielszenen gibt, die kaum eine CPU richtig fordern und bei denen ein Unterschied zwischen "70€ Athlon" und "270€ Corei7" kaum auszumachen ist. Aber das ist erstens keine Neuigkeit, das kann man bei CB regelmäßig bestaunen und es tut zweitens nichts zur Sache, ein Core i7 hat ganz offensichtlich mehr Potential in Spielen als ein Athlon X4 und ist daher die bessere Spiele-CPU im Sinne dieses Threads, wobei der Threadersteller besonderes Augenmerk auf den Vergleich Core i5 760 <-> Phenom II X6 gelegt hat.

Nun zu sagen, du findest die Fragestellung doof und willst lieber über etwas anderes reden (nämlich tolle Games und Szenen, die kaum eine CPU richtig fordern) ist irgendwie nicht besonders zielführend. Wenn du gestattest, dass hier doch auf die Fragestellung eingegangen wird, dann führt an einem der Ansätze, die Undertaker dargelegt hat (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157632#post8157632), leider kein Weg vorbei.

Sorry für Doublepost... Firefox hat meine Cookies gefressen

Odal
2010-07-20, 22:16:46
h
ist ja so schon heftig genug wie z.b. in starcraft2 (http://www.pcgameshardware.com/aid,705392/Starcraft-2-Beta-CPU-benchmarks-x-Core-i5/i7-leading/Practice/)

da finde ich es eher erstaunlich wie gut der PII 965BE noch mit einem i5 bzw. i7 mithalten kann, da starcraft ja für massen an einheiten und hoher CPM rate (spam von movement orders und somit wegfindungsproblemen) berühmt geworden ist

Ok der Turbo war aus aber dennoch nehmen die sich nicht so sehr viel. Wäre interessant ob Starcraft II von 6 Cores profitiert.

hq-hq
2010-07-20, 22:29:13
da finde ich es eher erstaunlich wie gut der PII 965BE noch mit einem i5 bzw. i7 mithalten kann, da starcraft ja für massen an einheiten und hoher CPM rate (spam von movement orders und somit wegfindungsproblemen) berühmt geworden ist

Ok der Turbo war aus aber dennoch nehmen die sich nicht so sehr viel. Wäre interessant ob Starcraft II von 6 Cores profitiert.

ähm... 4x3400mhz gegen 4x2660mhz bei 32fps zu 37fps ...

das is jetzt auch nicht soo gut wenn man 27% mehr takt hat aber -14% fps erzeugt....

aber das ob nen hexa was bringen würd, ja das wär interessant !

vermutlich aber kaum wenn der olle e8400 mit nem q9650 schon fast mithalten kann

Gast
2010-07-20, 22:36:57
SC2 benutzt nur 2 Kerne. Das ist sicher. Man braucht nicht darüber spekulieren.

y33H@
2010-07-20, 22:37:39
SC2 hat bei vier Kernen doch schon Mühe.

Headjunkie
2010-07-21, 01:41:37
Meine 5 pence:

1. Preislich nehmen sich beide CPUs (fast) nix.
2. Es gibt (fast) kein Scenario ausser CF/SLI wo die CPU irgendein spiel bremsen koennte, und Leute mit 480 SLI/ 5870CF kaufen sowieso ne andere CPU.
3. 6 Kerne koennen Vorteile in Anwendungen bringen, die SingleCoreLeistung des I5 bringt in keiner realen! Situation einen Vorteil, siehe 2.

Ich habe einen 1055T und benutze 6 Kerne und habe noch kein Spiel gefunden wo die Frameraten nicht wegen meiner 5850 limitieren sondern wegen der CPU, selbst auf den Standard 2.8GHz. Shooter brauchen sowieso keine (fuer CPUs dieser Leistungsklasse releveante ) CPU Leistung, Rennspiele (wahrscheinlich) auch nicht, genauso wie RPGs, und fast alle anderen Genres. Das einzige wo CPUs wirklich in Spielen gefordert werden sind Simulationen/Strategiespiele, und da macht mein X6 keine Probleme (bisher Anno1404, Siedler7 und DoW1+2 und Napoleon Total War probiert, bei allen kein Frameunterschied zwischen 2.8 GHz und 3.2GHz, Graka limitiert halt).

Also als Fazit:
Grakas in der selben Preisklasse limitieren immer weit bevor eine der beiden CPUs limitiert, also ist es fuer Spiele egal welche von beiden man nutzt. ABER der X6 kann in Anwendungen Vorteile haben, der i5 nicht. Daher und auch weil AMDs Platform vielleicht! aufruestbar ist, nen 1055T.

Fuer 1090T siehts aufgrund der Preisklasse nochmal anders aus, aber das war ja nicht die Threatfrage.

Gruss Headjunkie

PS: Starcraft 2 als Bsp?? Laut Blizzard wird das sogar auf ner 9800 pro von vor 8 Jahren laufen.....also super wenn nen Dualcore dort 15% mehr hat, oder sogar 40%, trotzdem in der Praxis absolut egal, den PC auf dem SC2 net fluessig laeuft gibts wahrscheinlich garnicht mehr wegen Alterserscheinungen (:

PPS: Denke ne 5850, 460, 470 und vielleicht ne 5870 sind ca in der Preisklasse der CPUs, dort wird immer die Graka vor diesen CPUs limitieren.

Gast
2010-07-21, 02:10:09
2. und 3. ist Unsinn und wurde sogar in diesem Thread schon mehrfach widerlegt.

Gast
2010-07-21, 02:37:13
Meine 5 pence:

1. Preislich nehmen sich beide CPUs (fast) nix.
2. Es gibt (fast) kein Scenario ausser CF/SLI wo die CPU irgendein spiel bremsen koennte, und Leute mit 480 SLI/ 5870CF kaufen sowieso ne andere CPU.
3. 6 Kerne koennen Vorteile in Anwendungen bringen, die SingleCoreLeistung des I5 bringt in keiner realen! Situation einen Vorteil, siehe 2.

Ich habe einen 1055T und benutze 6 Kerne und habe noch kein Spiel gefunden wo die Frameraten nicht wegen meiner 5850 limitieren sondern wegen der CPU, selbst auf den Standard 2.8GHz. Shooter brauchen sowieso keine (fuer CPUs dieser Leistungsklasse releveante ) CPU Leistung, Rennspiele (wahrscheinlich) auch nicht, genauso wie RPGs, und fast alle anderen Genres. Das einzige wo CPUs wirklich in Spielen gefordert werden sind Simulationen/Strategiespiele, und da macht mein X6 keine Probleme (bisher Anno1404, Siedler7 und DoW1+2 und Napoleon Total War probiert, bei allen kein Frameunterschied zwischen 2.8 GHz und 3.2GHz, Graka limitiert halt).

Also als Fazit:
Grakas in der selben Preisklasse limitieren immer weit bevor eine der beiden CPUs limitiert, also ist es fuer Spiele egal welche von beiden man nutzt. ABER der X6 kann in Anwendungen Vorteile haben, der i5 nicht. Daher und auch weil AMDs Platform vielleicht! aufruestbar ist, nen 1055T.

Fuer 1090T siehts aufgrund der Preisklasse nochmal anders aus, aber das war ja nicht die Threatfrage.

Gruss Headjunkie

PS: Starcraft 2 als Bsp?? Laut Blizzard wird das sogar auf ner 9800 pro von vor 8 Jahren laufen.....also super wenn nen Dualcore dort 15% mehr hat, oder sogar 40%, trotzdem in der Praxis absolut egal, den PC auf dem SC2 net fluessig laeuft gibts wahrscheinlich garnicht mehr wegen Alterserscheinungen (:

PPS: Denke ne 5850, 460, 470 und vielleicht ne 5870 sind ca in der Preisklasse der CPUs, dort wird immer die Graka vor diesen CPUs limitieren.
Soooo ein Unsinn. Informiere dich mal!

SC2, und zwar besonders in den 3vs3 und 4vs4 Modi, kann jede (absolut jede!) heutige CPU in die Knie zwingen.

TimeOut
2010-07-21, 02:44:07
Also ich habe mir vor ner Woche ein neuen PC gekauft, und habe mich für den X6 1090T als CPU entschieden.
In meinem Studium hab ich häufig mit Bildbearbeitung, Rendering, Videoschnitt, VFX etc. zu tun da war diese CPU genau die richtige. Hätte ich mir allerdings einen Gamer Rechner geholt hätte ich mir für Intel entschieden.

Trotzdem ist es schwach da der X6 selbst beim Rendering genau so schnell ist wie der i7-870 mit 2,93 GHz.
Beide kosten ja etwa genauso viel ich hätte also auch den i7 nehmen können.

Meiner Meinung nach brauchen 90& aller PC User kein X6, allerdings wird er überall empfohlen und jeder will ihn haben. er sicher eine ganz nette Alternative wenn man auch mit speziellen Anwendungen zu tun hat, sonst aber nicht.

Headjunkie
2010-07-21, 02:54:51
Ich weiss nicht wie ein Benchmark in 800x600 ein Beweis sein soll das eine CPU in realen! Situationen nicht schnell genug ist? Und das scheint bisher im Thread der Beweis gewesen zu sein. Ich habe mein letztes Spiel in 800x600 ca 2000 gespielt....
Wenn ich mir anschaue, dass der i5 760 im CPU-Limit gut 40% vor dem X6 1055T (http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/32/#abschnitt_performancerating) liegen dürfte, ist das für mich durchaus "haushoch".
Also in den non 800x600 Werten reden wir von maximal 7Prozentpunkten Unterschied (89,8% vs 96,9%) und mit Applikationen sogar nur noch von 0,1 allerdings fuer den X6.....
http://www.legionhardware.com/articles_pages/radeon_hd_5870_crossfire_cpu_scaling_performance_part_2,1.html War nen CF Test....siehe meinen Punkt ueber passende Preisklasse...

Und ansonsten habe ich nur im Thread was ueber Dirt2 gefunden, das ich persoenlich nicht kenne, aber jemand schreibt das es einen moeglichen Fix gibt?
Und halt SC2, was allerdings laut Test immer +30fps hat (selbst mit der Scheiss Single Core Performance eines X6....) und wohl das letzte AAA Spiel ist was so absolut garkeinen Bonus von mehr Kernen hat.

Bzgl 3v3 und 4v4 SC2, da SC2 nur 2 Kerne nutzt und man ja keine 2 Kerne CPUs mehr kauft und der Vergleich I5 vs X6 ist, ist der Unterschied wieder nicht wirklich relevant? Weil ob du 15 FPS mitm X6 oder 16.3 mitm I5 hast, ist dann auch wieder egal? Mal davon abgesehen, ist 3v3 und 4v4 auch im Netzwerk gegen Menschen so fressend oder nur bei KI Gegnern? Weil 4v4 KI Gegner ist ein SEHR spezieller Fall und nicht wirklich ein reales Beispiel oder ein Grund sich fuer oder gegen die CPUs zu entscheiden.
Und irgendwie weiss ich auch nicht wie ein Spiel wie SC2 im 4v4 von der CPU anstatt from Lag gebremst wird, aber mein letztes 4v4 ist auch schon bissel her und war in WC3 (und die ham immer gelaggt wie Hölle!, weil irgendwer anders halt ne KruekenKiste hatte, da haette auch der eigene 16Core Rechner nix gebracht)

Also nochmal, in der passenden Grakapreisklasse wird immer die Graka in praktischen Situationen (und vorallem Aufloesungen ueber 1600) limitieren, und nicht die CPU. In extrem ausgefallenen Situationen wie SC2 4v4 mag das anders sein, aber wieviele Leute spieln das denn um eine gemeingueltige Aussage ueber eine CPU zu treffen? Vorallem da die PCs der Mitspieler wahrscheinlich eher ein Bottleneck sind als die eigene CPU.
Da allerdings der X6 in Anwendungen Vorteile bringen KANN, nicht muss! und in Spielen niemals limitiert, kann man ihn ruhigen Gewissens empfehlen. Bzgl OC und Power Consumption muss dann halt jeder persoenlich wissen.

Gast
2010-07-21, 03:03:26
Ich weiss nicht wie ein Benchmark in 800x600 ein Beweis sein soll das eine CPU in realen! Situationen nicht schnell genug ist? Und das scheint bisher im Thread der Beweis gewesen zu sein. Ich habe mein letztes Spiel in 800x600 ca 2000 gespielt....

Lies den Thread gründlicher: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157677#post8157677

Gast
2010-07-21, 03:05:24
Ich weiss nicht wie ein Benchmark in 800x600 ein Beweis sein soll das eine CPU in realen! Situationen nicht schnell genug ist? Und das scheint bisher im Thread der Beweis gewesen zu sein. Ich habe mein letztes Spiel in 800x600 ca 2000 gespielt....


Bzgl 3v3 und 4v4 SC2, da SC2 nur 2 Kerne nutzt und man ja keine 2 Kerne CPUs mehr kauft und der Vergleich I5 vs X6 ist, ist der Unterschied wieder nicht wirklich relevant? Weil ob du 15 FPS mitm X6 oder 16.3 mitm I5 hast, ist dann auch wieder egal? Mal davon abgesehen, ist 3v3 und 4v4 auch im Netzwerk gegen Menschen so fressend oder nur bei KI Gegnern? Weil 4v4 KI Gegner ist ein SEHR spezieller Fall und nicht wirklich ein reales Beispiel oder ein Grund sich fuer oder gegen die CPUs zu entscheiden.
Und irgendwie weiss ich auch nicht wie ein Spiel wie SC2 im 4v4 von der CPU anstatt from Lag gebremst wird, aber mein letztes 4v4 ist auch schon bissel her und war in WC3 (und die ham immer gelaggt wie Hölle!, weil irgendwer anders halt ne KruekenKiste hatte, da haette auch der eigene 16Core Rechner nix gebracht)
In den meisten Fällen wird es eher ein Unterschied zw. 20 (x6) und 30 fps (i5) sein. Und nein, SC2 frisst so viel Leistung unter ganz normalen Spielsituationen, gegen Menschen.

Und klar, keinen hier interessiert es, das du 4v4 nicht spielst, oder 800x600 nicht verwendest, das ist nicht das Thema. i5 und 7 sinde schnellere bzw bessere Spiele-CPUs, und auch dein Relativierungen werden nichts daran ändern.

Gast
2010-07-21, 03:07:02
Lies den Thread gründlicher: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157677#post8157677

Das widerlegt nämlich schonmal deine Punkte 2 ("CPU bremst nicht, außer in CF / SLI") und 3 ("Nehalems höhere Pro-MHz-Leistung bringt in keiner realen Situation Vorteile").

Headjunkie
2010-07-21, 03:18:11
Ich kann aus irgendeinem Grund schon den ganzen Tag PCGames net aufrufen (von hier aus UK) und kann daher den Link net lesen. Kurze Zusammenfassung oder sowas bitte? Wird darin gezeigt das ein Spiel unter 30fps sinkt aufgrund des X6 statt des i5?
Und btw, das ich nicht 800x600 ist ein klarer Punkt des Threads, denn es ist einfach mal absolut unrealistisch. Ich bestreite nicht das der i5 schneller ist, aber es bringt halt praktisch nichts wenn du statt 60 ploetzlich 70 fps hast. Mal abgesehen von Leuten die halt auf Fps ab*******....
Und wenn beide CPUs immer genug Leistung fuer Spiele bringen, aber in den Anwendungen der X6 mehr kann, dann hat er vonner praktischen Seite einen Vorteil.

Und SC2 von 20fps auf 30fps?? Selbst in der krassesten CPU Limitierung reden wir ueber +40%, welche allerdings in der Realitaet sehr wahrscheinlich nicht erreichbar ist also eher 30% oder weniger....also gut, fuer die (paar) Leute die vorhaben SC2 4v4 mit 7 anderen gut ausgeruesteten Maschinen via Inet zu zocken koennte es Vorteile von 20 fps auf 26fps geben (ruckeln->semifluessig) und fuer den wahrscheinlichen Fall das eine der 7 Maschinen ne Kruecke ist, laggst doch bei allen....aber fuer den Fall das ihr mit 8 Leuten mit i5-750+ spielt, DANN kauft euch nen i5! (-:

Gast
2010-07-21, 03:30:01
Ich kann aus irgendeinem Grund schon den ganzen Tag PCGames net aufrufen (von hier aus UK) und kann daher den Link net lesen. Kurze Zusammenfassung oder sowas bitte? Wird darin gezeigt das ein Spiel unter 30fps sinkt aufgrund des X6 statt des i5?
Und btw, das ich nicht 800x600 ist ein klarer Punkt des Threads, denn es ist einfach mal absolut unrealistisch. Ich bestreite nicht das der i5 schneller ist, aber es bringt halt praktisch nichts wenn du statt 60 ploetzlich 70 fps hast. Mal abgesehen von Leuten die halt auf Fps ab*******....
Und wenn beide CPUs immer genug Leistung fuer Spiele bringen, aber in den Anwendungen der X6 mehr kann, dann hat er vonner praktischen Seite einen Vorteil.

Und SC2 von 20fps auf 30fps?? Selbst in der krassesten CPU Limitierung reden wir ueber +40%, welche allerdings in der Realitaet sehr wahrscheinlich nicht erreichbar ist also eher 30% oder weniger....also gut, fuer die (paar) Leute die vorhaben SC2 4v4 mit 7 anderen gut ausgeruesteten Maschinen via Inet zu zocken koennte es Vorteile von 20 fps auf 26fps geben (ruckeln->semifluessig) und fuer den wahrscheinlichen Fall das eine der 7 Maschinen ne Kruecke ist, laggst doch bei allen....aber fuer den Fall das ihr mit 8 Leuten mit i5-750+ spielt, DANN kauft euch nen i5! (-:
In SC2 hat ein i5 (und somit auch i3 und i7) eine 40+% höhere pro Takt Leistung, als ein Phenom2 (und somit auch ein x6). Um genau zu sein, waren es in der von PCGH getesteten Szene ~47%.

Du kannst behaupten was du willst. Du kannst auch unsinnige Äusserungen tätigen, das Lag und was weiss ich diese Leistung relativieren würden, Fakt ist aber, ein i5 ist in CPU-Limitierten Spielen einem x6 enorm überlegen. i5>x6, und deine Relativierungen ändern daran rein gar nichts.

Gast
2010-07-21, 03:40:18
Kurze Zusammenfassung oder sowas bitte?

Ist doch im Posting, wo der Link enthalten ist, zusammengefasst. Lesen!

Headjunkie
2010-07-21, 03:41:47
Ok und welche CPU limitierenden Spiele in Aufloesungen von 1600+ gibt es ausser SC2?

Das ist naemlich genau mein Punkt, i5 ist schneller, aber es gibt halt nix wo es auffallen tut? CB Summary sagt das i5 zu empfehlen ist fuer Spiele weil der x6 Performanceeinbrueche hat "die sich insbesondere bei Tests in niedriger Auflösung zeigen". Und wer verdammt nochmal spielt heute in Aufloesungen unter wenigstens 1440*900? Kann man ueberhaupt noch gaming flatscreens mit kleinerer Aufloesung kaufen? Selbst auf Arbeit aufm absoluten 19zoll billig screen hab ich schon 1600.

PS: SC2 wurde angefangen zu entwickeln als es noch keine DualCores gab? Und das fluessig laeuft solange man sich net in 3v3 oder 4v4 Matches einklinkt?

Edit: Der Post sagt aber genau garnix ueber die absoluten Werte aus? Und zum 3.mal, einfach nur mehr frames zu haben ist inner Realitaet meist egal (und kommt mir jetzt bitte nicht damit das ihr den Unterschied zwischen 90 und 120fps sehen koenntet...). Ich versuch PCG morgen nomma, nu heissts ab in die Heia, Gn8

Mr.Magic
2010-07-21, 06:00:20
Ok und welche CPU limitierenden Spiele in Aufloesungen von 1600+ gibt es ausser SC2?

The Elder Scrolls 3 mit Mods
The Elder Scrolls 4 mit Mods
Fallout 3 mit Mods
PS2 Emulation
DOSbox Emulation

'nuff said.

Iceman346
2010-07-21, 06:42:29
Das ist naemlich genau mein Punkt, i5 ist schneller, aber es gibt halt nix wo es auffallen tut? CB Summary sagt das i5 zu empfehlen ist fuer Spiele weil der x6 Performanceeinbrueche hat "die sich insbesondere bei Tests in niedriger Auflösung zeigen". Und wer verdammt nochmal spielt heute in Aufloesungen unter wenigstens 1440*900? Kann man ueberhaupt noch gaming flatscreens mit kleinerer Aufloesung kaufen? Selbst auf Arbeit aufm absoluten 19zoll billig screen hab ich schon 1600.

Das ist völlig wurscht, in praktisch jedem Spiel wird es Szenen geben wo die Grafikkarte nicht limitiert sondern die CPU und dann liegt der X6 wieder hinten. Außerdem lässt sich dadurch auf die Zukunftssicherheit der CPU schließen wenn man die aktuellen Grafikkarten durch stärkere ersetzt.

Es gibt einfach keinen vernünftigen Grund aktuell für einen Spiele-PC eine AMD CPU zu kaufen.

dargo@work
2010-07-21, 07:48:56
Es gibt einfach keinen vernünftigen Grund aktuell für einen Spiele-PC eine AMD CPU zu kaufen.
Halt, mindestens einen gibt es wenn der PCGH hierbei kein Fehler unterlaufen ist:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8153706&postcount=5377

Ich werde versuchen die Szene mit einem i5-750 nachzustellen. Natürlich wird ein i5-750@3,7Ghz genug Frames liefern. Trotzdem finde ich den Unterschied bemerkenswert wenns denn stimmt.

Gast
2010-07-21, 08:18:32
Der Wert kann schon rein theoretisch nicht stimmen. 110 % Erhöhung der Leistung bei 50 % mehr Kernen? I don't think so.

mapel110
2010-07-21, 08:26:30
Der Wert kann schon rein theoretisch nicht stimmen. 110 % Erhöhung der Leistung bei 50 % mehr Kernen? I don't think so.
Bei einer verhunzten Engine geht alles.

Gast
2010-07-21, 08:27:46
Das Verlaufsdiagramm macht auch überhaupt keinen Sinn. Link: http://www.pcgameshardware.de/screenshots/medium/2010/04/X6-Gaming-Verlauf-BC2.png In dem Bereich, wo der 4-Kerner immer mehr FPS produziert (ca. Sekunde 18 bis 23), wird der 6-Kerner immer schwächer.

Ronny145
2010-07-21, 08:28:57
The Elder Scrolls 3 mit Mods
The Elder Scrolls 4 mit Mods
Fallout 3 mit Mods
PS2 Emulation
DOSbox Emulation

'nuff said.


Ich ergänze ein paar:

- GTR2 (bei Nacht und Regen mit 20+ Wagen kratzt ein i5 teilweise gerade mal die 20 bis 25 fps Marke)
- The Witcher EE
- X3: Terran Conflict


Gibt mit Sicherheit noch mehr. Eigentlich alle Spiele wo viel simuliert wird und die nicht viel mit den Kernen skalieren. Ein gemoddetes GP4 hängt auch extrem an der CPU. Mein i5 bekomme ich damit locker klein.

dargo@work
2010-07-21, 08:35:21
Der Wert kann schon rein theoretisch nicht stimmen. 110 % Erhöhung der Leistung bei 50 % mehr Kernen? I don't think so.
Theoretisch vielleicht nicht, praktisch schon.

Odal
2010-07-21, 09:25:15
ähm... 4x3400mhz gegen 4x2660mhz bei 32fps zu 37fps ...

das is jetzt auch nicht soo gut wenn man 27% mehr takt hat aber -14% fps erzeugt....

aber das ob nen hexa was bringen würd, ja das wär interessant !

vermutlich aber kaum wenn der olle e8400 mit nem q9650 schon fast mithalten kann

So darf man das nicht betrachten, das die K10.5 Architektur bei gleicher Taktung keinen Stich gegen Nehalem sieht ist ja bekannt.

Im Produktvergleich (PII 965BE vs i5 750) liegt der PII jedenfalls nicht so weit ab in Starcraft 2 wie wir es in anderen Benchmarks schon sahen, darauf wollte ich hinaus.

SC2 hat bei vier Kernen doch schon Mühe.

Ja sorry ich hab gestern schon halb geschlafen hätte man auch aus eurem Text entnehmen können bzw. anhand des Core2Duo im Vergleich zum Core2Quad

Dann haben wir mit Starcraft 2 leider wieder ein Beispiel mehr in einer langen Kette die einfach nicht richtig auf Multicore >2 ansprechen.

HOT
2010-07-21, 13:27:46
Wobei das schon seltsam ist, da ja bekanntlich WoW ab Version 3 sehr gut auf bis 4 Kerne skaliert. Der Unterschied zwischen Dual- und QuadCore fällt vor allem in sehr lastigen Scenarien wie Dalaran oder einigen Bosskämpfen und auch in 1000Winter auf. Da ist SC2 technisch klar ein Rückschritt - vor allem weil sich Strategiespiele doch eigentlich ziemlich gut auf Multithreading optimieren lassen sollten.
Zur GPU-Last ist nochmal folgendes gesagt: Die GPU-Last verringert nicht die CPU-Last. Will heißen, ob eine CPU schneller ist oder nicht merkt man immer, auch wenn die GPU-Last überwiegt. Andersherum spielt es aber auch eine Rolle, wie die CPU mit der zusätzlichen I/O-Last umgeht, die der Treiber erzeugt. Das hat alles 2 Seiten.

Undertaker
2010-07-21, 13:31:59
PCGH hatte da mal was gebencht:

http://www.pcgameshardware.de/aid,693688/WoW-Wrath-of-the-Lich-King-CPU-Benchmarks-mit-Phenom-II-und-Core-i5/Rollenspiel-Adventure/Test/

V3.2

Takt skaliert recht brauchbar, ergo speziell bei den kleineren CPUs stark CPU-limitiert - dennoch praktisch keinerlei Gewinn von Dual auf Quad.

Will heißen, ob eine CPU schneller ist oder nicht merkt man immer, auch wenn die GPU-Last überwiegt.

Das ist schlicht falsch. Wenn das GPU-Limit durchgängig niedriger liegt als das CPU-Limit, merkt man selbstverständlich keinen Unterschied. Auch das lässt sich, am besten mit Frameverläufen, sehr leicht benchen.

dargo
2010-07-21, 17:35:24
Halt, mindestens einen gibt es wenn der PCGH hierbei kein Fehler unterlaufen ist:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8153706&postcount=5377

Ich werde versuchen die Szene mit einem i5-750 nachzustellen. Natürlich wird ein i5-750@3,7Ghz genug Frames liefern. Trotzdem finde ich den Unterschied bemerkenswert wenns denn stimmt.
So... ich habe jetzt mal die Benchszene von PCGH mal nachgestellt. Und ich kann mir beim besten Willen nicht erklären wie die PCGH bei dem Sechskerner auf min. 105fps kommt und gleichzeitig der Vierkerner auf 50fps fällt.
http://www4.pic-upload.de/thumb/21.07.10/of6ckw9e6wo7.png (http://www.pic-upload.de/view-6428839/PCGH1.png.html)

Warum?

Man beachte die Kernauslastung in dieser 30 sekündigen Benchszene:
http://www4.pic-upload.de/thumb/21.07.10/sn7f2rpu2xqp.png (http://www.pic-upload.de/view-6428629/CPU-Auslastung.png.html)

Und hier der Frameverluaf dazu:
http://www4.pic-upload.de/thumb/21.07.10/e1tfpxhv89.png (http://www.pic-upload.de/view-6428784/i5-3-2Ghz.png.html)

Der Frameverlauf ist bis zu den ersten 6 Sekunden ziemlich identisch zu dem von der PCGH (naja, zumindest was den Einbruch in der fünften Sekunde angeht):
http://www4.pic-upload.de/thumb/21.07.10/9apx31ztjuga.png (http://www.pic-upload.de/view-6428818/PCGH.png.html)

Danach gibts paar größere Abweichungen. Ich weiß nicht ob ich die Szene exakt nachgestellt habe. Als Außenstehender ist das gar nicht so einfach. Außerdem hat die PCGH in 800x600 und ich mit 1024x768 getestet. Ersteres ist wie ich erfahren habe bei der aktuellen Spielversion nicht mehr möglich. Ist aber auch egal. Mich interessiert vorallem wie der Sechskerner so zulegen kann wenn die CPU-Auslastung bei gerademal 47% liegt? Damit wird praktisch ein Dualcore sehr gut ausgelastet. Eventuell mit minimalen Vorteilen für einen Triplecore. Aber wie kann die Engine mit sechs Kernen dermaßen stark skalieren?

Weiterhin ist mir eine große Ungereimtheit aufgefallen. Die avg.fps des 3,2Ghz Vierkerners werden bei der PCGH mit 104fps angegeben. Wenn man sich den Frameverlauf dazu anschaut ist das gar nicht möglich. Kann es sein, dass hier irrtümlicherweise die max.fps genommen wurden? Das würde schon eher passen.

y33H@
2010-07-21, 17:56:43
Wobei das schon seltsam ist, da ja bekanntlich WoW ab Version 3 sehr gut auf bis 4 Kerne skaliert.Das wäre mir neu.

@ dargo

Aktuelle Engine-Version unter DX11?
Mich interessiert vorallem wie der Sechskerner so zulegen kann wenn die CPU-Auslastung bei gerademal 47% liegt?Das was der Taskmanager zeigt, ist nicht der reale CPU-load.

Ich checke kommende Woche die Werte noch mal. Evtl. reagiert ein Thubans/Deneb anders als ein Lynnfield.

dargo
2010-07-21, 18:08:19
Aktuelle Engine-Version unter DX11?

DX-Version auf Auto unter Win7. Ich gehe davon aus, dass hierbei DX11 genommen wird oder liege ich damit falsch?


Das was der Taskmanager zeigt, ist nicht der reale CPU-load.

Schau dir das Bild nochmal an, das ist kein Taskmanager. ;)
http://www.withopf.com/tools/perfwatch/


Ich checke kommende Woche die Werte noch mal. Evtl. reagiert ein Thubans/Deneb anders als ein Lynnfield.
Das wäre nett, aber bitte diesmal mit der aktuellen Spielversion.

y33H@
2010-07-21, 18:36:31
@ dargo

Auto ist DX11, ja. Und oh PerfWatch :usad:
Das wäre nett, aber bitte diesmal mit der aktuellen Spielversion. Geht ja nicht anders, wenn man MP zocken will - und Tests mit alter Software sind blöd.

BK-Morpheus
2010-07-21, 18:47:21
Wobei das schon seltsam ist, da ja bekanntlich WoW ab Version 3 sehr gut auf bis 4 Kerne skaliert. Der Unterschied zwischen Dual- und QuadCore fällt vor allem in sehr lastigen Scenarien wie Dalaran oder einigen Bosskämpfen und auch in 1000Winter auf. Da ist SC2 technisch klar ein Rückschritt - vor allem weil sich Strategiespiele doch eigentlich ziemlich gut auf Multithreading optimieren lassen sollten.
Zur GPU-Last ist nochmal folgendes gesagt: Die GPU-Last verringert nicht die CPU-Last. Will heißen, ob eine CPU schneller ist oder nicht merkt man immer, auch wenn die GPU-Last überwiegt. Andersherum spielt es aber auch eine Rolle, wie die CPU mit der zusätzlichen I/O-Last umgeht, die der Treiber erzeugt. Das hat alles 2 Seiten.
Dem kann ich eigentlich nur widersprechen, WoW nutzt mehr als 2 Kerne kaum aus.
Ich spielte WoW nun mit nem Core2Duo, Core2Quad und X6 und immer werden nur ein Kern voll und ein Kern ca. zu 40% ausgelastet (auch in Dalaran oder 25er Bossfights). Es nutzt vielleicht mehr als 2 Kerne, aber skaliert sehr mies.

Ist so ähnlich wie bei Xvid und x.264. Xvid nutzt meine 6 Kerne alle zu ca. 40% aus, x.264 nimmt problemlos alle 6 Kerne mit 99-100% ran.

Headjunkie
2010-07-21, 19:08:17
Erst mal sry,
mir war nicht bewusst das es doch schon einiges an Spielen (auch wenn mit Mods) mit CPU Limit gibt, bin halt bissel davon ausgegangen dass wenn so Sachen wie Anno1404 mit 50k Leuten net ins CPU Limit rennt, nen RPG wie Elder Scrolls es auch net sollte /:

Aber wegen Zukunftsfaehigkeit, fuers naechste Jahr ist da wahrscheinlich der i5 besser, aber danach sollte der X6 mehr Potential ham, einfach weil jetzt schon neue Spiele meist 4 Cores zumindest benutzen, und in 2 Jahren sie die wahrscheinlich auch auslasten koennen, dann sind die 2 extra Kerne dann doch nett. Ob man allerdings jetzt ne CPU kaufen sollte die erst in 2 Jahren ihr volles Potential entscheidet, ist dann natuerlich fragwuerdig. Bei mir lohnt es sich einfach weils in Spielen fuer mich! keinen Unterschied macht und in Applikationen Vorteile bringt, aber das wird wahrscheinlich nicht fuer den average Gamer gelten.
Btw, assuming 40% weniger Leistung pro MHz, das wird locker durch 2 zusaetzliche Kerne ausgeglichen (+50%), also zumindest theoretisch sollte der X6 irgendwann mal vorne liegen (:

S940
2010-07-21, 19:40:57
So... ich habe jetzt mal die Benchszene von PCGH mal nachgestellt. Und ich kann mir beim besten Willen nicht erklären wie die PCGH bei dem Sechskerner auf min. 105fps kommt und gleichzeitig der Vierkerner auf 50fps fällt.
[/URL][URL]http://www4.pic-upload.de/thumb/21.07.10/of6ckw9e6wo7.png (http://www.pic-upload.de/view-6428839/PCGH1.png.html)

Eventuell liegts auch am Grafiktreiber, PCGH hatte ne ATi, Du ne Nvidia, eventuell ist ATis DX11 Treiber schon weiter (DX11 unterstützt ja multithreaded Rendering) und/oder der ATi Treiber lastet die Kerne einfach besser aus.

ciao

Alex

Gast
2010-07-21, 19:43:21
Hallo zusammen,
Hallo oh du unser 'König der Götter' :umassa:

Was mich interessiert ist also eine Einschätzung eurerseits die für den üblichen Leistungszenith eines Zocker-PCs bei heutiger Anschaffung repräsentativ ist.
Hierzu von mir ein paar Gedanken:

Du fragst nach einem Zocker-PC -> Hauptanwendungsfall sind demnach Spiele. Es gibt meines Erachtens immernoch kaum Spiele, die wirklich von Mehrkern-CPUs profitieren können. Dies sieht man daran, daß der Leistungszugewinn mit steigender Anzahl der Kerne nicht konstant mitwächst, sondern im Gegenteil rasant abnimmt. Während der größte Zuwachs nach wie vor bei einem DualCore eintritt, ist der Schritt von Dual nach Quad gering. Der Schritt von Quad nach Hexa dürfte momentan sogar noch enttäuschender ausfallen. Grund hierfür ist meiner Meinung nach der Umstand, daß gerade der Anwendungsfall 'Spiel' sich gar nicht oder nur sehr schlecht in mehrere wirklich unabhängige Threads aufteilen läßt.

Warum also überhaupt einen Quad oder Hexa kaufen? Der Grund wäre für mich, daß es zunehmend mehr Prozesse gibt, die im Hintergrund die CPU beschäftigen, obwohl dies vom windowseigenen Taskmanager ganz bewußt verschwiegen wird. Die größten Bremsen im Spielebetrieb sind imho:
Speicherverwaltung (Windows)
AudioCodecs (Onboardsound, Headset, etc.)
VoiceSoftware (Ventrilo, Teamspeak, etc.)
VPN-Adapter (hamachi, etc.)
Steuerungssoftware für USB-Adapter (Maus, Keyboard, Gamepad, CommandUnit, etc.)

Diese Geschichten können alle mühelos von einem einzigen Kern abgearbeitet werden, so daß ein zweiter Kern sich komplett auf das Spiel konzentrieren kann. Warum dann dennoch Quad und nicht Dual? - Weil es inzwischen Spiele gibt, die ebenfalls anfangen kleine Zusatzaufgaben auf eigene Threads zu verteilen. Ein Beispiel hierfür wäre die laufende Netzcodeoptimierung während dem Spielebetrieb. Das Problem was ich nun sehe ist, daß bei einem DualCore zwar 2 Kerne zur Verfügung stehen, der zusätzliche Kern aber stark unterschiedlich beansprucht wird. Dies führt meiner Meinung nach dazu, daß es passieren kann, daß die windowsinterne Prozeßverwaltung einen Thread fälschlicherweise auf den Core legt, auf dem bereits die Hauptanwendung (das Spiel) läuft. Die Gefahr das soetwas passiert, ist auf einem Quad nach meiner Einschätzung geringer. Dennoch habe ich mich seinerzeit für einen DualCore entschieden, weil die damaligen Quads deutlich schlechter getaktet waren und daher im Spielebetrieb schon ab einer 8er-geForce nicht mehr mithalten konnten.

Heute ist das anders: Sowohl Quad als auch Hexa verfügen über mehr als ausreichend Rohleistung pro Core (3 GHz und mehr). Das intel ein bischen mehr Leistung pro MHz verbuchen kann, fällt da kaum noch ins Gewicht. Das ist in meinen Augen das Sahnehäubchen, auf das man auch verzichten kann.

Für heutige Spiele kann man also bedenkenlos zu jedem Quad/Hexa greifen, solange er mindestens 3 GHz und vollen Cache hat. Mit Blick auf die Zukunft würde ich jedoch den HexaCore von AMD bevorzugen. Dies liegt daran, daß ich davon ausgehe, daß die Nutzung der CPU durch zusätzliche Nebenaufgaben weiter zunimmt. Intel-Quads bieten HT - dies ist in meinen Augen jedoch nur dazu geeignet, viele Threads besser auf 4 nicht ausgelastete Kerne zu verteilen. Sobald jedoch der Zeitpunkt erreicht ist, wo 4 Kerne tatsächlich beschäftigt werden, wird sich imho der Verwaltungsoverhead von HT schmerzhaft bemerkbar machen. Eine CPU mit echten 6 Kernen wäre dann möglicherweise deutlich überlegen, da sich bei Vollauslastung aller Kerne (also dann, wenn es wirklich mal drauf ankommt) zu allem Übel auch noch der Turbo einer intel-CPU ausschaltet.

Ich denke mir, daß irgendwann der Tag kommt, an dem die ersten Anwendungen auf Quad optimiert sein werden. Für diesen Tag wäre ein HexaCore die erste Wahl. Denn dann hätte man gerade bei Vollauslastung von 4 Kernen noch 2 Kerne, die sich mit den obengenannten 'anwendungsfremden' Aufgaben rumschlagen können.

Ich gehe zur Zeit deswegen sehr stark davon aus, daß meine nächste CPU ein HexaCore mit mindestens 3 GHz @ default werden wird. Der Schritt von Dual auf Quad ist einfach zu gering, da es kaum Spiele gibt, die wirklich von einem Quad profitieren können (wenn man wie ich sowieso keine overpriced Highend-Grafikkarte im Rechner hat). Hinzu kommt, daß AM3-Systeme momentan deutlich günstiger und deutlich besser ausgestattet sind (USB 3.0, SATA 3). Auf SLI/Crossfire lege ich als Gamer keinen Wert. Auch gestehe ich freimütig, daß die aktuellen HexaCores von intel mit mindestens 3.0 GHz @ default für mich preislich völlig indiskutabel sind.

Das große Zeitalter der Quads geht damit bereits zuende, bevor auch nur ein richtig gutes Spiel exklusiv für diese Plattform entwickelt wurde. ;)

y33H@
2010-07-21, 19:43:33
@ S940

Die Geforces haben zudem weit höhere Min-Fps, das sollte man bedenken.

Ich stehe hinter meinen Werten =)

dargo
2010-07-21, 19:48:55
@ S940

Die Geforces haben zudem weit höhere Min-Fps, das sollte man bedenken.

Aha, wie weit höher? Dann liegts also am vermurksten ATI-Treiber?


Ich stehe hinter meinen Werten =)

Hast du die Werte selbst ermittelt? Dann korrigiere bitte die avgs. vom 4 Kerner in 800x600. Die sind nämlich laut eurem Frameverlauf definitiv falsch.

y33H@
2010-07-21, 19:51:10
Wie gesagt ich checke es.

Die Radeons kacken bei der Explosion der beiden Tanks voll ab.

Amun-Re
2010-07-21, 20:12:14
Ich denke mir, daß irgendwann der Tag kommt, an dem die ersten Anwendungen auf Quad optimiert sein werden. Für diesen Tag wäre ein HexaCore die erste Wahl. Denn dann hätte man gerade bei Vollauslastung von 4 Kernen noch 2 Kerne, die sich mit den obengenannten 'anwendungsfremden' Aufgaben rumschlagen können.


Ich greif mir mal die Quintessenz aus deinem Posting raus ohne das du hoffentlich das Gefühl bekommst ich würde das Gesamtkunstwerk zerstören wollen ;D

Ich verstehe die Argumentation würde dir darauf allerdings erwiedern das bezogen auf den Vergleich 1055t vs i5 760 die Situation nach meiner Einschätzung eben die wäre das wenn der 1055t die zwei zusätzlichen Kerne als Reserve bemühen muss weil die anderen vier grade ausgelastet sind der identische Workload den i5 760 nicht zwangsläufig an diese Grenze treiben würde da einfach die Kerne pro Takt mehr Arbeit erledigen können als das beim Thuban der Fall ist.
Das ist um übrigen in meinen Augen auch das zentrale Problem bei der weitläufigen Argumentation dem X6 würde quasi die Zeit in die Hände spielen.
Das wäre im Vergleich zum Nehalem nur dann der Fall wenn die Kerne beider CPUs in der Leistungsfähigkeit äquivalent wären.
Aber bevor die Zeit es dem X6 ermöglicht den i5 zu überholen müsste dieser ihn erstmal einholen man möge mir wiedersprechen wenn dies nicht den Tatsachen entspricht.

Gast
2010-07-21, 20:45:35
Eventuell liegts auch am Grafiktreiber, PCGH hatte ne ATi, Du ne Nvidia, eventuell ist ATis DX11 Treiber schon weiter (DX11 unterstützt ja multithreaded Rendering) und/oder der ATi Treiber lastet die Kerne einfach besser aus.

ciao

Alex
Autsch! Ein GrakaTreiber der die CPU belastet. Na prostmahlzeit.
(Erinnert irgendwie an Intels IGP, da greift die CPU der GPU auch etwas unter die Arme ;D)

Odal
2010-07-21, 20:45:42
Ich gehe zur Zeit deswegen sehr stark davon aus, daß meine nächste CPU ein HexaCore mit mindestens 3 GHz @ default werden wird. Der Schritt von Dual auf Quad ist einfach zu gering, da es kaum Spiele gibt, die wirklich von einem Quad profitieren können

das liest sich sehr nach Kontradiktion
wo ist da die Logik?

Gast
2010-07-21, 21:38:29
Okay, wenn der Phenom II X6 aus dem Vergleich hier für Gamer keine gute Wahl ist, weil ihm die sechs Kerne noch nichts bringen. Wie sieht es denn dann mit einem Phenom II X4 aus?

Bei Computerbase steht im Forums-FAQ zum 900€ PC:
Der Intel Core i5-750 ist aufgrund des schlechteren Preis/Leistungsverhältnisses zum AMD X4 955 (nur minimaler Performancevorsprung bei unverhältnismäßig höherem Preis) nur etwas für "Liebhaber".
http://www.computerbase.de/forum/showthread.php?t=215394

Der Core i5 760 dürfte dann ein wenig aufholen, aber der X4 955 ist doch immer noch die bessere Gamer-CPU. Nur die Hexacores sind doch zu teuer, oder? :confused:

y33H@
2010-07-21, 21:42:31
Wieso sollte der 955 besser sein? Der ist klar lahmer als der 750er, vor allem bei Single- und Dual-Threaded Apps/Spielen.

Gast
2010-07-21, 21:50:26
Hat doch mehr Takt als der X6 und der Intel (15% bzw. sogar 20%) und ist eine Black Edition!

Air Force One
2010-07-21, 21:50:49
1055t vs i5

Warum vergleichst du eig. dauernt immer nur einen 6 Kern Prozessor (AMD x6) mit einem 4 Kern Prozessor (Intel i5)?

Sei wenigstens so fair und vergleich den Phenom mit einem i7 mit 4 Kernen + HTT.

y33H@
2010-07-21, 22:10:31
@ Gast

Nur 3,2 GHz - der 750er ist aber oft schneller als der 965 mit 3,4 GHz. Und ob BE oder nicht ist vollkommen egal.

Gast
2010-07-21, 22:18:06
Warum vergleichst du eig. dauernt immer nur einen 6 Kern Prozessor (AMD x6) mit einem 4 Kern Prozessor (Intel i5)?

Sei wenigstens so fair und vergleich den Phenom mit einem i7 mit 4 Kernen + HTT.

vielleicht weil der preis fast gleich ist?

Air Force One
2010-07-21, 22:40:15
vielleicht weil der preis fast gleich ist?

Ist doch beim X6 Black Edition und dem i7-860 genau so.

Der i7-860er hat mich 235€ gekostet.
Der X6 hingegen 280€-300€.

Und ja, die Preise haben sich geändert, ändert aber nichts an der Tatsache.
6Kerner VS 4 Kerner= Fail, und ein größerer Fail das der 4 Kerner sogar fast genau so gut oder gar besser abschneidet (auf den i7 bezogen).

Ausserdem geht es hier doch nicht um Kosten oder?
Ich dachte hier geht es um die Leistung...

Aber mir wurde ja schon Verboten auf Software einzugehen wo die Kerne alle 100% ausgelastet werden.

Stattdessen darf man sich nur auf Spiele begrenzen wo die Auslastung im Idealfall bei 50-60% liegt.

Amun-Re
2010-07-21, 22:40:25
Warum vergleichst du eig. dauernt immer nur einen 6 Kern Prozessor (AMD x6) mit einem 4 Kern Prozessor (Intel i5)?

Sei wenigstens so fair und vergleich den Phenom mit einem i7 mit 4 Kernen + HTT.


Was ist unfair daran zwei Prozessoren miteinander zu vergleichen die aufgrund der Preisgleichheit miteinander im Wettbewerb stehen?
Grundvoraussetzung dafür welche Vergleiche untereinander überhaupt zulässig sind wird doch erstmal über den Preis festgelegt bist du nicht der gleichen Ansicht?

Der i7 steht da alleine aufgrund der Plattformkosten schon nicht zur Debatte.


6Kerner VS 4 Kerner= Fail


Der Vergleich verbietet sich also aufgrund der Anzahl der Kerne? Dann hast du mit Verlaub nicht viel Sachverstand oder in den letzten Jahren bei der Entwicklung von CPU Architekturen schlichtweg gepennt. Wenn der 4 Kerner ähnliches zu leisten imstande ist wie der 6 Kerner oder partiell sogar daüber hinaus inwieweit ist der Vergleich dann nicht gerechtfertigt?
Viele stehen sicher bei der anschaffung vor der Frage i5 760 oder X6 1055t.
Hättest du dann früher auch moniert wenn man nen Prescott mit 3,6GHz mit nem Athlon64 3600+ vergleichen hätte?


Ausserdem geht es hier doch nicht um Kosten oder?
Ich dachte hier geht es um die Leistung...


Falsch, es geht um die Bewertung der Leistung zweier Prozessoren die dasselbe kosten.
Wenn es schlichtweg um Leistung losgelöst vom Preis gehen würde wäre vermutlich dieser Thread ad absurdum geführt denn die Antwort wäre jedem klar.

Air Force One
2010-07-21, 22:47:29
Der i7 steht da alleine aufgrund der Plattformkosten schon nicht zur Debatte.

Ah, und der billigere 1156 etwa auch nicht?

Amun-Re
2010-07-21, 22:50:26
Ah, und der billigere 1156 etwa auch nicht?


Klar kannst du nen i7 Vergleich auf Basis eines Lynnfield aufmachen nur hab ich die Beobachtung gemacht das der Vergleich i5 760 vs 1055t für viele der wesentlich interessantere ist aus eben genannten Gründen.

Air Force One
2010-07-21, 23:03:25
Mhmh ok gut.
Ich finde halt nur den vergleich nicht so gut.

Wollte eig. nur wissen warum nicht auf die "kleineren" i7er eingegangen wird.

Zum Thema kann ich selbst leider eher wennig sagen.
Zocke nicht so viel, vll. mal eine runde C&C Generals...
Aber das wars auch schon x)

Gast
2010-07-22, 00:02:52
http://www.xbitlabs.com/articles/cpu/display/amd-phenom-ii-x6-1055t-overclocking_8.html

Bulldozer, i need you.

Gast
2010-07-22, 00:24:28
Mhmh ok gut.
Ich finde halt nur den vergleich nicht so gut.

Wollte eig. nur wissen warum nicht auf die "kleineren" i7er eingegangen wird.

Zum Thema kann ich selbst leider eher wennig sagen.
Zocke nicht so viel, vll. mal eine runde C&C Generals...
Aber das wars auch schon x)


Ich auch nicht! Den 930er finde ich persönlich derzeit am besten. Preis für die CPU ~280.- Euro und für nen DFI-MoBo unter 100 Euro. Zudem läßt sich das Teil gnadenlos gut übertakten...

Gast
2010-07-22, 02:14:02
Ich verstehe die Argumentation würde dir darauf allerdings erwiedern das bezogen auf den Vergleich 1055t vs i5 760 die Situation nach meiner Einschätzung eben die wäre das wenn der 1055t die zwei zusätzlichen Kerne als Reserve bemühen muss weil die anderen vier grade ausgelastet sind der identische Workload den i5 760 nicht zwangsläufig an diese Grenze treiben würde da einfach die Kerne pro Takt mehr Arbeit erledigen können als das beim Thuban der Fall ist.
Das, was du dir da vorstellst ist ein theoretischer Optimalfall der außerhalb von synthetischen Benchmarks nicht eintreten wird. Die Realität ist so, daß man in den seltensten Fällen 4 (oder mehr) Threads haben wird, die sich optimal auf die 4 Kerne aufteilen lassen. Das ganze ist ein Verteilungsproblem - nehmen wir mal an, wir hätten 8 Threads zu verteilen.
1 - 80% load
2 - 80% load
3 - 80% load
4 - 60% load
5 - 50% load
6 - 20% load
7 - 20% load
8 - 10% load
Das macht zusammen 400% - also optimal für einen Quadcore - sollte man meinen. Jetzt verteile diese 8 Threads doch mal auf 4 Cores, von denen jeder Core maximal 100% handeln kann. Wie du es drehst und wendest - du wirst zu dem Ergebnis kommen, daß diese Konstellation auf einem QuadCore in der Praxis nicht darstellbar ist. Und jetzt verteil das ganze auf 6 Cores mit sagen wir mal nur maximal 80%, weil der intel-core ja angeblich ein bischen besser sein soll. Du wirst feststellen, daß dies plötzlich wunderbar möglich ist.

Langer Rede kurzer Sinn: Worauf ich eigentlich hinaus möchte ist, daß ich damit rechne, daß es in Zukunft Spiele/Anwendungen geben wird, die für Quad optimiert sind und sagen wir mal 80% pro intel-Core tatsächlich nutzen. Das Problem was ich jetzt sehe ist, daß in diesem Fall kein weiterer Thread mehr ausgeführt werden kann, der für sich mehr als 20% load beansprucht, weil sonst das ganze aus dem Tritt kommt. Ich hoffe, du siehst das Problem. Der Vorteil, den man aus meiner Sicht durch die bessere Verteilung bei echten 6 Kernen hat, ist selbst durch bessere Leistung der intel-Cores nicht auszugleichen. Das ganze ist ein Verteilungsproblem. Darum sehe ich einen HexaCore hier im Vorteil. Interessant wird die Sache zusätzlich, wenn diese 8 Threads alle zu einer Anwendung gehören und nicht wirklich unabhängig voneinander sind. Dies wäre aus Sicht des Quads der SuperGAU - denn egal wie man es dreht und wendet - es reicht im Extremfall der eine Thread, der nicht genug Rechenzeit bekommt, um das Gesamtergebnis in den Keller zu drücken, weil alle anderen abhängigen Threads ausgebremst werden.

Jetzt könnte man den Spieß natürlich umdrehen und sagen: Was passiert denn mit dem schönen HexaCore, wenn plötzlich ein Spiel kommt, daß auf einem intel-Quad 100% Load pro Kern verursacht. Für einen AMD-HexaCore wären dies dann (die Werte sind frei aus der Luft gegriffen) 4 x 120% - wie soll man das denn auf 6 x 100% verteilen? Dazu sage ich: Dieser Fall wird nicht eintreten. Es wird auch auf sehr lange Sicht keinen Spieleentwickler geben, der Code veröffentlicht, der auf einer 3.0 GHz CPU von AMD nicht darstellbar ist. Der Grund ist einfach: Es gibt auch bei den intel Quads nicht nur Highend-Modelle und ich halte es abseits von synthetischen Benchmarks für unmöglich, daß man es willentlich schafft, genau in diesen Bereich hineinzukommen. ;)

Headjunkie
2010-07-22, 04:05:11
Auch wenn ich dem letzten Gast-Beitrag voellig zustimme,koennt ihr euch bitte wenigstens Namen zulegen wenn ihr euch schon nicht anmeldet?
Es wird ein wenig unuebersichtlich wenn immer wieder 3mal Gastpostings ohne Namen hintereinander sind oder im schlimmsten Fall sogar 2 Gaeste mit einander diskutieren....thx.

Spike2
2010-07-22, 06:26:34
Takt skaliert recht brauchbar, ergo speziell bei den kleineren CPUs stark CPU-limitiert - dennoch praktisch keinerlei Gewinn von Dual auf Quad.

Genau meine Erfahrung, bei WoW ist der Sprung von SingleCore auf DualCore eine echte Offenbarung, danach regiert der Takt...ob Dual oder Quad nimmt sich dann aber nicht mehr viel.


Die größten Bremsen im Spielebetrieb sind imho:
Speicherverwaltung (Windows)
AudioCodecs (Onboardsound, Headset, etc.)
VoiceSoftware (Ventrilo, Teamspeak, etc.)
VPN-Adapter (hamachi, etc.)
Steuerungssoftware für USB-Adapter (Maus, Keyboard, Gamepad, CommandUnit, etc.)
Den Gedankengang hatte ich gestern beim Lesen hier auch - und man kann ja noch die ganzen anderen Dinge ergänzen...die ganzen Programme die nebenher laufen (und die Otto-Normal-DAU eben nicht ausschaltet, diverse AutoStarter, PreLoader usw.), die Indizierung von Win, der VirenScanner, etc. pp.

Diese Geschichten können alle mühelos von einem einzigen Kern abgearbeitet werden,
Noch...

Das ganze ist ein Verteilungsproblem - nehmen wir mal an, wir hätten 8 Threads zu verteilen. (...)
du wirst zu dem Ergebnis kommen, daß diese Konstellation auf einem QuadCore in der Praxis nicht darstellbar ist. Und jetzt verteil das ganze auf 6 Cores mit sagen wir mal nur maximal 80%, weil der intel-core ja angeblich ein bischen besser sein soll. Du wirst feststellen, daß dies plötzlich wunderbar möglich ist.

Interessanter Gedankengang, diese "Verteilungsproblematik"..die Frage ist nur, ob zum geschickten Zuordnen der Threads zu den Cores der Win-Task-Scheduler (ja, auch in Win7) überhaupt clever genug ist. Irgendwie bezweifle ich das ;D

Tigerchen
2010-07-22, 07:21:38
Valve hat seine Source-Engine auf 6 Kern Support aufgewertet. Das heißt das selbst ein Uraltgame wie Countersrike Source jetzt 6 Kerne nutzen kann.

Ob das viel nutzt ist eine andere Frage. Insgesamt steigen die Ansprüche der Spiele sowieso nicht mehr besonders stark. Das finde ich gut da die Frage welcher Prozessor jetzt 3,5621 fps mehr im xxx-Benchmark bringt immer uninteressanter wird. Man kann mehr auf den Preis achten. Und das ist gut so. Denn dadurch wird die PC-Plattform wieder interessanter.

Odal
2010-07-22, 07:56:49
Das, was du dir da vorstellst ist ein theoretischer Optimalfall der außerhalb von synthetischen Benchmarks nicht eintreten wird. Die Realität ist so, daß man in den seltensten Fällen 4 (oder mehr) Threads haben wird, die sich optimal auf die 4 Kerne aufteilen lassen. Das ganze ist ein Verteilungsproblem - nehmen wir mal an, wir hätten 8 Threads zu verteilen.
1 - 80% load
2 - 80% load
3 - 80% load
4 - 60% load
5 - 50% load
6 - 20% load
7 - 20% load
8 - 10% load
Das macht zusammen 400% - also optimal für einen Quadcore - sollte man meinen. Jetzt verteile diese 8 Threads doch mal auf 4 Cores, von denen jeder Core maximal 100% handeln kann. Wie du es drehst und wendest - du wirst zu dem Ergebnis kommen, daß diese Konstellation auf einem QuadCore in der Praxis nicht darstellbar ist. Und jetzt verteil das ganze auf 6 Cores mit sagen wir mal nur maximal 80%, weil der intel-core ja angeblich ein bischen besser sein soll. Du wirst feststellen, daß dies plötzlich wunderbar möglich ist.


[] ich habe die aufgabe und funktionsweise eines präemtive arbeitenden shedulers eines betriebssystems verstanden

Time Slices
2010-07-22, 09:23:05
Jedem Thread läuft für eine gewisse Zeit exklusiv auf einem Kern, insofern ist die Annahme des Gastes oben Quatsch.

HOT
2010-07-22, 09:44:28
Das wäre mir neu.
[...]
Das ist aber nicht neu. Seit der Version3 (Nordend) gibt es expliziten 4-Kern-Support, und man merkt ihn drasdisch.

Dem kann ich eigentlich nur widersprechen, WoW nutzt mehr als 2 Kerne kaum aus.
Ich spielte WoW nun mit nem Core2Duo, Core2Quad und X6 und immer werden nur ein Kern voll und ein Kern ca. zu 40% ausgelastet (auch in Dalaran oder 25er Bossfights). Es nutzt vielleicht mehr als 2 Kerne, aber skaliert sehr mies.
[...]

Man darf sich hier nicht von irgendwelchen Benches irritieren lassen. Das sind pure Erfahrungswerte. WoW skaliert bis zu 3 Kerne exzellent. Mit einem 3GHz 2Kerner (Egal ob Core2 oder AthlonII) hast du noch üble FPS-Einbrüche. Es geht hier nur um echte Lastsituationen, nicht das normale Spiel. Das mag bei 2 Kernen ganz ok sein, aber sobald (bei hochgestellter Grafik wohlgemerkt) man in besonders CPU-Lastige Situationen kommt, kommt man um mindestens 3 Kerne (bzw. Clarkdale) nicht herum - das spielt i.Ü. auch für den Netzwerkcode eine wichtige Rolle, denn wird die CPU zu stark belastet, steigt bei WoW auch der Ping. Das gilt natürlich nur für Nordend. Der Rest von WoW belastet heutige CPU zu gering, als das man es merken würde. Man darf das heutige WoW nicht mehr mit dem genügsamen Spiel in seinen Anfangszeiten vergleichen, Nordend haut ganz übel rein.
Ab Cataclysm (Version 4?) kommt auchnoch DX11-Support hinzu und sicherlich auch weitere Optimierungen für MT (6-8-Kern-Support?).

BK-Morpheus
2010-07-22, 09:56:37
Das ist aber nicht neu. Seit der Version3 (Nordend) gibt es expliziten 4-Kern-Support, und man merkt ihn drasdisch.



Man darf sich hier nicht von irgendwelchen Benches irritieren lassen. Das sind pure Erfahrungswerte. WoW skaliert bis zu 3 Kerne exzellent. Mit einem 3GHz 2Kerner (Egal ob Core2 oder AthlonII) hast du noch üble FPS-Einbrüche. Es geht hier nur um echte Lastsituationen, nicht das normale Spiel. Das mag bei 2 Kernen ganz ok sein, aber sobald (bei hochgestellter Grafik wohlgemerkt) man in besonders CPU-Lastige Situationen kommt, kommt man um mindestens 3 Kerne (bzw. Clarkdale) nicht herum - das spielt i.Ü. auch für den Netzwerkcode eine wichtige Rolle, denn wird die CPU zu stark belastet, steigt bei WoW auch der Ping. Das gilt natürlich nur für Nordend. Der Rest von WoW belastet heutige CPU zu gering, als das man es merken würde. Man darf das heutige WoW nicht mehr mit dem genügsamen Spiel in seinen Anfangszeiten vergleichen, Nordend haut ganz übel rein.
Ab Cataclysm (Version 4?) kommt auchnoch DX11-Support hinzu und sicherlich auch weitere Optimierungen für MT (6-8-Kern-Support?).
Wie gesagt, meine Erfahrungen sind da anders.
2 Kerne werden nicht mal zu 100% ausgelastet (in Extremsituationen).
Einbrüche unter 20 FPS kommen im 25er in manchen Situationen mit dem 6 Kerner genauso vor, wie mit dem Core2Duo.

Undertaker
2010-07-22, 09:58:26
Genau meine Erfahrung, bei WoW ist der Sprung von SingleCore auf DualCore eine echte Offenbarung, danach regiert der Takt...ob Dual oder Quad nimmt sich dann aber nicht mehr viel.


Exakt. Manche werden evntl. dadurch in die Irre geführt, dass der neue Quadcore auch auf einen einzelnen Kern bezogen schneller ist als der vorherige Dualcore, und somit denken, die Profite kämen durch die zusätzlichen Kerne. Praktisch nützt einem in WoW aber selbst in Extremsituationen nur Takt und IPC etwas.

Air Force One
2010-07-22, 09:59:53
Das ist aber nicht neu. Seit der Version3 (Nordend) gibt es expliziten 4-Kern-Support, und man merkt ihn drasdisch.

Kann ich nicht bestätigen, allerdings lässt sich die Kernanzahl in der Config noch erhöchen, so das man z.B Intels HTT nutzen "kann".
Naja, oder halt was über 4 Kerne hinaus geht.
Allerdings merke ich da keine verbesserung.

Wobei mein kleiner i7-860er +HT mit 3.6GHz@ 1.2V rechnet...
Dürfte noch lange für das ein oder andere Spiel ausreichen.

Das selbe gilt aber auch für den X6.

HOT
2010-07-22, 10:07:20
Das ist kein Wunder, WoW nutzt nicht immer die volle Rechenlast des Prozessors, sondern erst dann, wenn es die wirklich benötigt - es hat eine Art Sparmechanismus. Es kann sein, dass WoW den 6-Kerner nicht erkennt und WoW auf 2 Kerne beschränkt. Kann aber auch sein, dass WoW mit dem Turbomode nicht unbedingt klarkommt. Das hier gibt Abhilfe:
http://forums.wow-europe.com/thread.html?topicId=11155641155&sid=3&pageNo=2
Aber das funktioniert meiner Erfahrung nach sehr gut. Ich hab letztens einen AthlonII X2 mit 3GHz durch einen X4 3GHz erstzt, weil er im Raid zu langsam war und das hats voll gebracht, seitdem gibt so gut wie keine Einbrüche mehr und der Ping ist auch erheblich besser.

Übrigens bringt das alles bei aktivierten Schatten ziemlich wenig, dort mehr als die 2. Einstellung zu nutzen ist wahnsinn.

Undertaker
2010-07-22, 10:10:59
Was natürlich auch verfälschen kann, ist eine Masse von zusätzlichen, die CPU belastenden Hintergrundprogrammen. Wer nebenbei Videos encodiert o.ä. wird natürlich praktisch beliebig skalierende Kernzahlen erleben. Das WoW davon selbst nicht mehr als zwei nutzt, ändert sich dabei aber nicht.

Mr.Magic
2010-07-22, 10:20:37
vielleicht weil der preis fast gleich ist?

Wie wäre es mit AMD Phenom II X6 1090T Black Edition, 6x 3.20GHz vs Intel Core i7-930, 4x 2.80GHz? Die kosten beide €255.-

Air Force One
2010-07-22, 10:22:09
Wie wäre es mit AMD Phenom II X6 1090T Black Edition, 6x 3.20GHz vs Intel Core i7-930, 4x 2.80GHz? Die kosten beide €255.-

Nein, das ist vom TS hier nicht gerne gesehen. (wurde ja schon oft geschrieben)
Damit würde dann Intel wohl besser abschneiden :freak:

Mr.Magic
2010-07-22, 10:25:14
Nein, das ist vom TS hier nicht gerne gesehen. (wurde ja schon oft geschrieben)
Damit würde dann Intel wohl besser abschneiden :freak:

Naja, der i7 mit 2,8Ghz sollte so schon schneller sein als der X6 mit 3,2Ghz. In Spielen versteht sich... ;)

MiamiNice
2010-07-22, 10:28:09
Wo wir gerade bei WOW sind. Mal einen 25er Raid auf einen i7 mit max. Settings gespielt? Vielleicht findet da irgendwer paar Benches zu aber vom Gefühl her würde ich behaupten wollen das da gar nix mehr dropt. Zumidnest nicht so das man es spüren könnte.

Naja, der i7 mit 2,8Ghz sollte so schon schneller sein als der X6 mit 3,2Ghz. In Spielen versteht sich... ;)

Und geht zu 93,33% mit standard V-Core auf über 4Ghz. Wird dabei mit einem 50€ Kühler keine 60° heiss und hängt den mit Glück auf 4Ghz getakteten X6 mal eben um durchschnittlich 30% ab der auch noch mehr Strom schluckt und das Gehäuse wesentlich mehr aufheizt ^^
Und das alles zum selben Preis. Und ich dachte AMD hätte P/L mässig was drauf, zumindest ist ja die Masse der Meinung. Anscheind ist es wohl doch nicht so :)

*duckundwech*

Amun-Re
2010-07-22, 11:28:47
Nein, das ist vom TS hier nicht gerne gesehen.


So ein Quatsch. Nochmal ganz explizit für dich.
Ich habe mir das Beispiel i760 vs. 1055t aus dem einfachen Grund rausgepickt weil ich denke das diese Konstellation für den überwiegenden Großteil der Leute die vor einer Neuanschaffung stehen eher in Frage kommt als die Variante 1090t vs. i7-930.

Der Vergleich 1090t gegen i7 930 ist natürlich gleichermaßen legitim und wenn jemand Vergleichswerte zwischen beiden anbieten kann sind diese - zumindest was mich betrifft - natürlich genauso von Interesse.

Gast
2010-07-22, 11:41:05
So ein Quatsch. Nochmal ganz explizit für dich.
Ich habe mir das Beispiel i760 vs. 1055t aus dem einfachen Grund rausgepickt weil ich denke das diese Konstellation für den überwiegenden Großteil der Leute die vor einer Neuanschaffung stehen eher in Frage kommt als die Variante 1090t vs. i7-930.

Der Vergleich 1090t gegen i7 930 ist natürlich gleichermaßen legitim und wenn jemand Vergleichswerte zwischen beiden anbieten kann sind diese - zumindest was mich betrifft - natürlich genauso von Interesse.


1090t vs. i7-930. => pro AMD, da Intels Plattform teurer ist
aber
1090t vs. i7-870. => pro Intel, da Intel schnell und sparsamer ist, bei gleichem Plattformpreis

Mr.Magic
2010-07-22, 11:43:52
Der Vergleich 1090t gegen i7 930 ist natürlich gleichermaßen legitim und wenn jemand Vergleichswerte zwischen beiden anbieten kann sind diese - zumindest was mich betrifft - natürlich genauso von Interesse.

AMD Phenom II Six Core 1090T vs Core i7 920 (+ 4.2Ghz vs 4.2Ghz)
http://www.techreaction.net/2010/05/06/amd-phenom-ii-six-core-1090t1095t-thuban-review/

Phenom II X6 1090T VS Core i7 930
http://cipuci.blogspot.com/2010/05/phenom-ii-x6-1090t-vs-core-i7-930.html

@Gast
Einstiegs X58-Boards sind auch nicht wesentlich teuerer als welche mit 890FX. Beim Gigabyte UD7 kostet das Intel ~60€ mehr. Das Krüppel Sockel 1156 liegt preislich dazwischen.

Spike2
2010-07-22, 11:52:30
Wo wir gerade bei WOW sind. Mal einen 25er Raid auf einen i7 mit max. Settings gespielt? Vielleicht findet da irgendwer paar Benches zu aber vom Gefühl her würde ich behaupten wollen das da gar nix mehr dropt. Zumidnest nicht so das man es spüren könnte.

Doch doch, da dropt immer noch der gleiche Krempel, als wenn Du den Boss mit einer AMD-CPU legst... SCNR :freak:

Amun-Re
2010-07-22, 12:33:03
@Magic

Danke für die Links. Sieht in den Tests ja durchaus recht eng aus in der Gesamtbetrachtung aber wieder scheint sich der Eindruck zu bestätigen das Games auch hier das Steckenpferd von Nehalem sind.

Bei Bad Company stellt sich mir die Frage ist es HT das den i7 hier vergleichsweise schlecht aussehen lässt oder ist dies der Eigenleistung des X6 geschuldet?

Gast
2010-07-22, 13:06:43
[] ich habe die aufgabe und funktionsweise eines präemtive arbeitenden shedulers eines betriebssystems verstanden
Was soll dieser Zwischenwurf? Du weißt doch, daß preemptives Sheduling nur für Mini-Aufgaben mit viel Leerlauf in Frage kommt/sinnvoll ist? Im hier diskutierten Fall 'Gaming', gibt es solche Zwischenräume nicht. Die würden dann über den Sheduler anhand seiner Taskprioritätenliste mit Gewalt erst geschaffen. Das ist genau die Flickschusterei, die losgeht, wenn die Cores nicht mehr optimal genutzt werden können: Es werden Tasks in die Warteschleife geschickt bzw. die CPU kommt nicht mehr hinterher.

Jedem Thread läuft für eine gewisse Zeit exklusiv auf einem Kern, insofern ist die Annahme des Gastes oben Quatsch.
Nein ist es nicht. Wenn ich oben schreibe, daß ein Thread X% Load verursacht, dann ist das relativ über einen Zeitraum Z gemeint. Ich habe keine Lust das ganze zu kompliziert zu machen. Das interessiert sonst nach 2 Sätzen niemanden mehr.

Ich bin zuversichtlich, daß man den Vorteil von HexaCores in naher Zukunft deutlicher bemerken wird, als vielleicht heute. Praxisnahe Verteilungsprobleme werden in aktuellen synthetischen Benchmarks nicht dargestellt. Dort wird einfach nur pro Core ein Thread gestartet, der diesen Core dann maximal in Beschlag nimmt. Sozusagen der Optimalfall, den es niemals geben wird. Dieses Ergebnis wird dann relativ zur Zeit gemessen (zB. Core X schafft Y Iterationen im Zeitraum Z) und dann dazu herangezogen, die Leistungsfähigkeit von verschiedenen MultiCore-CPUs in ein Verhältnis zu setzen. Dieses Verfahren spiegelt imho nicht das tatsächliche Leistungspotential einer MultiCore-CPU im wirklichen Einsatz wieder. Dinge wie intels HT, die durchaus nützlich sein können, spielen bei solchen synthetischen Benchmarks daher auch gar keine Rolle.

Wenn ich HT richtig verstanden habe, geht es intel damit ja auch gerade darum, daß man mehrere Aufgaben besser auf die vorhandenen Cores verteilt, damit die CPU insgesamt effizienter arbeiten kann. Besser als virtuelle Cores (HT), sind imho jedoch echte Cores, da man mit HT nicht über die Leistung der tatsächlich nur vorhandenen 4 Cores hinaus kommt. Und das von mir oben angesprochene Verteilunsgproblem läßt sich mit HT auch nicht lösen.

Aber - ich akzeptiere auch andere Meinungen. Nur sollten diese dann gut begründet sein. Eine Diskussion auf dem Level:
[] Odal hat den Sinn meines Posts verstanden.
,ist mit mir nicht zu machen. :ugly:

Ich rechne sowieso damit, daß sich die ct' irgendwann in einer fernen Zukunft vielleicht die tatsächliche Leistungsfähigkeit aktueller Quads und HexaCores mal vornimmt. Solange Quads nicht an ihre Grenzen stoßen, wird man den Vorteil der HexaCores nicht entdecken. Aber ich bin zuversichtlich, daß dieser Zeitpunkt kommen wird. Mit den ersten Spielen, die wirklich für Quad optimiert sind, dürften die meisten Quads unter Vista / Windows 7 bereits an ihre Grenzen stoßen. ;)

MiamiNice
2010-07-22, 13:26:49
Doch doch, da dropt immer noch der gleiche Krempel, als wenn Du den Boss mit einer AMD-CPU legst... SCNR :freak:

Definitiv nicht! Bei gleichen Takt dropt das Game auf einer Intel CPU um ca. 30 - 40% weniger, wen den die CPU für den drop verantwortlich ist wie bei WOW. Auf meinen i7 spürst Du gar keinen Drop mehr, vorhanden ist er allerdings sicher.

Air Force One
2010-07-22, 13:36:12
Definitiv nicht! Bei gleichen Takt dropt das Game auf einer Intel CPU um ca. 30 - 40% weniger, wen den die CPU für den drop verantwortlich ist wie bei WOW. Auf meinen i7 spürst Du gar keinen Drop mehr, vorhanden ist er allerdings sicher.

.... ich glaube er meinte die Items :redface:

MiamiNice
2010-07-22, 13:37:45
Jetzt wo Du es sagst, dämmert es mir auch ^^
Da hat er natürlich recht!

Spike2
2010-07-22, 14:21:02
Riiichtig, die Items meinte ich - dieses Wortspiel konnte ich mir gerade im Zusammenhang mit WoW einfach nicht verkneifen :)

Gast
2010-07-22, 14:34:40
Doch doch, da dropt immer noch der gleiche Krempel, als wenn Du den Boss mit einer AMD-CPU legst... SCNR :freak:

Hahaaahhahhaaaaa...roll übern Boden. hahahahhhaaaa... krieg mich gar nimmer ein...hahahehehihihi
Lange nicht mehr so gelacht :-))

[CC]
2010-07-22, 16:19:16
Was ich an dieser ganzen Diskussion bisher vermisse sind 2 Punkte:

1. Der Hinweis, das in manchen Fällen Multi-Core Processing zu Performance-*Einbrüchen* anstelle von -Gewinn führt; durfte ich zum ersten Mal persönlich bei Alien Swarm beobachten (und war natürlich erstaunt das so etwas möglich ist). Dies ist ein wenig beachteter Kritikpunkt (quasi die Kehrseite der Multicore-Medallie), und niemand hat bisher wirklich durchleuchtet wie viele Spiele betroffen sind, woran es eigentlich hakt, wie stark die Frameraten einbrechen etc (vielleicht wäre eine solche Untersuchung ja mal für 3dcenter interessant, so als Anregung). Tippt man z.B. in google "multicore problem / issue / workaround" ein, so finden sich auch prominente Spiele darunter wie L4D und Mass Effect 2. Wenn man dann gezwungen ist, Multicore-Support in den Optionen auszustellen oder an der Prozessor-Affinität des Prozesses rumzufummeln, dann nützen einem noch so viele Kerne nix, und man beginnt sich zu wünschen, man hätte eine möglichst schnelle Single-Core CPU. (Auch die neuerdings aufkeimende SMT-Problematik scheint in diese Bresche zu schlagen.)

2. Die Begründung, wieso man allen Ernstes und ohne vor Scham rot zu werden gerade Spiele aus dem MMO-Genre für Multicore-CPU-Benchmarks heranzieht. Solche Spiele sind nicht ohne Grund um den Netzwerk- und nicht etwa um den Rendering-Code herumgestrickt. Um am PCGHW-Beispiel zu bleiben: Angenommen, ich teste den Überlandflug mit AMD's X6. Auf dem Flug Flug 'treffe' ich auf 3 Spieler die gerade ebenfalls durch die Gegend fliegen. Danach teste ich den i5. Diesmal treffe ich über die gesamte Sequenz verteilt auf 30 Spieler. Fazit: Die beden FPS-Kurven sind überhaupt nicht miteinander vergleichbar und sagen selbst für sich genommen nichts aus (Stichwort: Varianz; beim nächsten mal könnten ja beim X6-Test 60 Spieler auftauchen). Selbst wenn es bei beiden Durchläufen 30 Spieler gewesen wären, so würde dies noch immer die Vergleichbarkeit nicht sicherstellen - bei einem CPU-Bench könnten ja an einer Stelle gleich 15 von den 30 Leuten auftauchen, während das bei dem anderen CPU-Bench wesentlich gleichverteilter sein könnte... Solange die PCGHW-Leute also nicht den Netzwerk-Verkehr mitsniffen und damit auch belegen können, dass zu *jedem Zeitpunkt* immer gleiche Ausgangsvoraussetzungen vorgeherrscht haben (Faktoren, die wohlgemerkt jenseits der redaktionelle Einflusssphäre liegen, wie ich an der Spielerzahl deutlich zu machen versuchte), so ist der Benchmark in meinen Augen reiner Hohn.

Mr.Magic
2010-07-22, 17:12:26
;8161535']Was ich an dieser ganzen Diskussion bisher vermisse sind 2 Punkte:

1. Der Hinweis, das in manchen Fällen Multi-Core Processing zu Performance-*Einbrüchen* anstelle von -Gewinn führt; durfte ich zum ersten Mal persönlich bei Alien Swarm beobachten (und war natürlich erstaunt das so etwas möglich ist).

Mir sind seit dem Wechsel von X2 auf Core2 keine Spiele unterkommen, für die man an Prozessoreinstellungen rumfummeln musste, damit sie laufen.
Einzig Neverwinter Nights (1) hat mal rumgezickt (unspielbare Performance), was aber nur eine Inkompatibilität mit dem Grafiktreiber war. Einfach im nHancer-Profil den Multicore-Support des Treibers deaktiviert. Fertig.

Amun-Re
2010-07-22, 20:25:38
Nein ist es nicht. Wenn ich oben schreibe, daß ein Thread X% Load verursacht, dann ist das relativ über einen Zeitraum Z gemeint. Ich habe keine Lust das ganze zu kompliziert zu machen. Das interessiert sonst nach 2 Sätzen niemanden mehr.

Ich bin zuversichtlich, daß man den Vorteil von HexaCores in naher Zukunft deutlicher bemerken wird, als vielleicht heute. Praxisnahe Verteilungsprobleme werden in aktuellen synthetischen Benchmarks nicht dargestellt. Dort wird einfach nur pro Core ein Thread gestartet, der diesen Core dann maximal in Beschlag nimmt. Sozusagen der Optimalfall, den es niemals geben wird. Dieses Ergebnis wird dann relativ zur Zeit gemessen (zB. Core X schafft Y Iterationen im Zeitraum Z) und dann dazu herangezogen, die Leistungsfähigkeit von verschiedenen MultiCore-CPUs in ein Verhältnis zu setzen. Dieses Verfahren spiegelt imho nicht das tatsächliche Leistungspotential einer MultiCore-CPU im wirklichen Einsatz wieder. Dinge wie intels HT, die durchaus nützlich sein können, spielen bei solchen synthetischen Benchmarks daher auch gar keine Rolle.

Wenn ich HT richtig verstanden habe, geht es intel damit ja auch gerade darum, daß man mehrere Aufgaben besser auf die vorhandenen Cores verteilt, damit die CPU insgesamt effizienter arbeiten kann. Besser als virtuelle Cores (HT), sind imho jedoch echte Cores, da man mit HT nicht über die Leistung der tatsächlich nur vorhandenen 4 Cores hinaus kommt. Und das von mir oben angesprochene Verteilunsgproblem läßt sich mit HT auch nicht lösen.

Aber - ich akzeptiere auch andere Meinungen. Nur sollten diese dann gut begründet sein. Eine Diskussion auf dem Level:
[] Odal hat den Sinn meines Posts verstanden.
,ist mit mir nicht zu machen.

Ich rechne sowieso damit, daß sich die ct' irgendwann in einer fernen Zukunft vielleicht die tatsächliche Leistungsfähigkeit aktueller Quads und HexaCores mal vornimmt. Solange Quads nicht an ihre Grenzen stoßen, wird man den Vorteil der HexaCores nicht entdecken. Aber ich bin zuversichtlich, daß dieser Zeitpunkt kommen wird. Mit den ersten Spielen, die wirklich für Quad optimiert sind, dürften die meisten Quads unter Vista / Windows 7 bereits an ihre Grenzen stoßen.


Kann jemand nochmal auf das Statement vom Gast genauer eingehen? Der Ansatz ist klar nur eventuell sieht sich jemand in der Lage zu bewerten wieviel davon den Tatsachen entspricht.

Und eventuell kursiert im Netz der ein oder andere Fachartikel der sich etwas eingehender mit der Effektivität der einzelnen Kerne von Nehalem und Thuban beschäftigt weil ich das "ich hab ja dann 6 Kerne anstatt 4 Argument" sehr oft zu hören bekomme und bisher der Ansicht war das die potenteren Kerne von Nehalem eigentlich in der Lage sind diesen Vorteil auf dem Papier weitestgehend zu egalisieren. (bis auf natürlich entsprechende Anwendungen die sehr gute Multicore Skalierung aufweisen kann auch über 4 Kerne hinaus)

dildo4u
2010-07-22, 20:32:52
Wurde das schon gepostet?Recht umfangreich kann man dort CPU's vergleichen link's oben kann man unter Browse CPU Benchmarks noch mher Gamebenches bekommen.

http://www.anandtech.com/bench/CPU/2

boxleitnerb
2010-07-22, 20:35:52
Da ist die Frage doch: Wie bencht Anandtech?

[CC]
2010-07-22, 21:16:00
Kann jemand nochmal auf das Statement vom Gast genauer eingehen? Der Ansatz ist klar nur eventuell sieht sich jemand in der Lage zu bewerten wieviel davon den Tatsachen entspricht.

Naja, ich habe mir das fiktive Beispiel von Ihm angeschaut und denke, dass die Argumentation totaler Kappes ist (bin wohl nicht allein damit). Die Argumentation beruht nämlich auf der Annahme, dass der Load unteilbar / atomar und somit nicht 'splitbar' wäre, d.h. das ich z.B. nicht hingehen und den Load von 50% auf Core 5 in beispielsweise 20% und 30% aufteilen könnte. Hält man sich vor Augen, dass ein bestimmter CPU Load allerdings stets einer bestimmten Zahl von CPU-Zyklen entspricht, so sollte man eigentlich recht schnell zu der Einsicht gelangen, dass dies sehr wohl möglich ist. Beispielsweise entspräche bei einer CPU, die 100 Zyklen/s schafft, ein Load von 80% genau 80 Zyklen/s. Womit der CPU 20 Zyklen/s für andere Sachen blieben (OS-Overhead einmal nicht betrachtet), beispielsweise für das 'Abarbeiten des Loads' von Core 6, um im Beispiel vom 'Gast' zu bleiben.

Jeder, der schon mal ein Semester Logik gehört hat weiss, dass man aus einer falschen Prämisse (Voraussetzung) beliebige Dinge schlussfolgern kann (d.h. "Aus 'falsch' folgt X" ist eine Tautologie) - wie auch hier geschehen. Deshalb fürchte ich, das ganze Beispiel von Gast wird ein reines mathematisches Gedankenkonstrukt bleiben. Ich glaube die Sticheleien von Odal und "Time Slices" zielten auf diesen Umstand hin ;-)

puntarenas
2010-07-22, 21:27:14
Kann jemand nochmal auf das Statement vom Gast genauer eingehen? Der Ansatz ist klar nur eventuell sieht sich jemand in der Lage zu bewerten wieviel davon den Tatsachen entspricht.

Das würde mich auch aus berufenem Munde interessieren. Soweit mein laienhaftes Verständnis reicht, weist der Sheduler einzelnen Prozessen einfach nur Rechenzeit auf den CPU-Kernen zu und daher gibt es auch kein nennenswertes Optimierungsproblem.

Im Grunde sollten eine CPU mit n-Kernen und eine Single-Core-CPU mit n-facher IPC anstehende Aufgaben nahezu gleichschnell bewältigen, egal wie viele Threads anstehen (geringfügigen Overhead und unterschiedliche Sheduler-Strategien mal außen vor).

Die konkurrierenden Speicherzugriffe bei mehreren Kernen stelle ich mir eher noch als Nachteil der Multicore-Lösung vor, weniger Kerne mit entsprechend höherer IPC (architekturbedingt oder durch höhere Taktrate) sollten im Zweifel also sogar schneller sein, aber auch das vermutlich im Alltagsbetrieb nur in bestimmten Situationen.

Es dürfte kein Optimierungsproblem, wie vom Gast konstruiert, existieren. Solange Threads auf ihre Abarbeitung warten konkurrieren sie um CPU-Ressourcen und ihnen wird vom Betriebssystem eben reihum Zeit auf einem der vorhandenen Kerne zugewiesen. Während einer identischen Zeitspanne bewältigt ein aktueller Lynnfield-Kern mehr Berechnungen, AMD hat versucht dies durch anflanschen zweier zusätzlicher K10.5-Kerne beim Phenom II X6 zu kompensieren (im Idealfall - Musterbeispiel Cinebench - wird die höhere IPC der Intel-Architektur von den zwei Extrakernen sogar überkompensiert und der X6 liegt vorn).

Ein Problem gibt es, man kann einzelne Threads nicht auf mehrere Kerne aufteilen. Das ist der Grund, warum zusätzliche Kerne je nach Aufgabe nicht immer zu einem Performancegewinn führen, höhere IPC dagegen immer. Ob es sich um "leichtgewichtige" oder "schwere" Threads handelt ist auch egal, das merkt man höchstens an der Leistungsaufnahme und Temperatur.

P.S. too slow, [CC] war schneller...

Gast
2010-07-22, 21:41:34
der Ansicht war das die potenteren Kerne von Nehalem eigentlich in der Lage sind diesen Vorteil auf dem Papier weitestgehend zu egalisieren.
i5 750 - 4.208 Passmarks
i7 870 - 5.842 Passmarks
X6 1090T - 6.510 Passmarks
http://www.cpubenchmark.net/high_end_cpus.html
...'auf dem Papier'. ;)

puntarenas
2010-07-22, 21:52:22
Ist ja fast wie gemalt. Der X6 1090T hat 20% mehr Takt als der Core i5 750, das kompensiert die geringere IPC und mit 50% mehr Kernen springt bildhübsch ein ~50% höheres Ergebnis heraus. :smile:

Ist natürlich nur ein synthetischer Benchmark, aber nett. In Spielen sieht es ja leider nicht so rosig für sechs K10.5-Kerne aus und schon gar nicht, wenn man den "günstigen" Phenom II X6 1055T heranzieht und ihn gegen den jüngst im Preis gefallenen Core i7 760 setzt, wie von Amun-Re als Diskussionsgrundlage für diesen Thread herausgegriffen.

Undertaker
2010-07-22, 21:55:51
@Gast:
Glaube nicht, dass für so eine Beurteilung ein einziger Benchmark reicht. ;) Zumal dort ein Q9550 schneller sein soll als ein X4 965, ein QX9775 langsamer als ein X4 955... Da passt einiges nicht zusammen.
Im Schnitt ordneten die meisten Reviews den 1090T eigentlich irgendwo zwischen i7 860 und 870 ein.

Gast
2010-07-22, 22:08:51
Im Grunde sollten eine CPU mit n-Kernen und eine Single-Core-CPU mit n-facher IPC anstehende Aufgaben nahezu gleichschnell bewältigen, egal wie viele Threads anstehen (geringfügigen Overhead und unterschiedliche Sheduler-Strategien mal außen vor).
Bewirb dich mit dieser These am besten mal bei Cray. Vielleicht werden sie deine Single-Core-CPU mit n-facher IPC patentieren und den Cray XT 5 mit seinen 224.162 Opterons einfach abschalten. :biggrin:

Gast
2010-07-22, 22:29:27
@Gast:
Glaube nicht, dass für so eine Beurteilung ein einziger Benchmark reicht. ;)
Ach auf einmal..... Solange die Benchmarks das Ergebnis abliefern, was du sehen willst, hälst du sie für glaubwürdig - und kaum kommt jemand mit einem anderen Benchmark, stellst du diesen Benchmark in Frage. :biggrin:

Ich bereue es schon, daß ich mich von Amun-Re's 'auf dem Papier'-Statement überhaupt habe dazu provozieren lassen, hier mal zu posten, wie es auf dem Papier 'wirklich' aussieht. :ulol:

hq-hq
2010-07-22, 22:57:42
So darf man das nicht betrachten, das die K10.5 Architektur bei gleicher Taktung keinen Stich gegen Nehalem sieht ist ja bekannt.

Im Produktvergleich (PII 965BE vs i5 750) liegt der PII jedenfalls nicht so weit ab in Starcraft 2 wie wir es in anderen Benchmarks schon sahen, darauf wollte ich hinaus.



Ja sorry ich hab gestern schon halb geschlafen hätte man auch aus eurem Text entnehmen können bzw. anhand des Core2Duo im Vergleich zum Core2Quad

Dann haben wir mit Starcraft 2 leider wieder ein Beispiel mehr in einer langen Kette die einfach nicht richtig auf Multicore >2 ansprechen.


ja, das meinte ich ja auch, in sc2 sieht es geordneter aus, auch wenn es natürlich schon schlecht ist und die problematik offenlegt.
quadcore (fast) nutzlos, hexa core...
was bleibt ist eine eintscheidung aufgrund von prinzipien,
amd soll leben
amd bietet günstige echte sechskerner an
mit amd kann man leben
amd ist benutzerfreundlicher
amd amd amd...

nur als "gamer" macht man keinen stich, erstrecht wenn auch noch OC ins "spiel" kommt... :biggrin:

-> an die kirchgänger, für bulldozer beten !!!

puntarenas
2010-07-23, 00:25:10
Bewirb dich mit dieser These am besten mal bei Cray. Vielleicht werden sie deine Single-Core-CPU mit n-facher IPC patentieren und den Cray XT 5 mit seinen 224.162 Opterons einfach abschalten. :biggrin:
Hast du auch etwas zu sagen oder findest du dich einfach nur besonders witzig? Was bitte ist an meiner Aussage denn sachlich falsch? Dass es keine CPU-Architektur mit zigtausendfacher Opteron-IPC gibt ist klar, deshalb verbauen sie ja notgedrungen so viele Prozessoren und plagen sich mit der Parallelisierung ihrer Algorithmen rum.

Mr.Magic
2010-07-23, 05:53:16
Ach auf einmal..... Solange die Benchmarks das Ergebnis abliefern, was du sehen willst, hälst du sie für glaubwürdig - und kaum kommt jemand mit einem anderen Benchmark, stellst du diesen Benchmark in Frage. :biggrin:

Ich bereue es schon, daß ich mich von Amun-Re's 'auf dem Papier'-Statement überhaupt habe dazu provozieren lassen, hier mal zu posten, wie es auf dem Papier 'wirklich' aussieht. :ulol:

Wie glaubwürdig ist ein Benchmark, bei dem der Xeon W3530 weit hinter dem i7-930 liegt? Der W3530 ist ein 930.

ps:
Das bedeutet nicht, dass die X6 1090T Werte zwangsweise falsch sind. Bei diesem Synth-Test werden wahrscheinlich einfach alle Cores mit jeweils einer Instanz der gleichen Aufgabe ausgelastet.

Gast
2010-07-23, 10:29:37
Hast du auch etwas zu sagen oder findest du dich einfach nur besonders witzig? Was bitte ist an meiner Aussage denn sachlich falsch? Dass es keine CPU-Architektur mit zigtausendfacher Opteron-IPC gibt ist klar, deshalb verbauen sie ja notgedrungen so viele Prozessoren und plagen sich mit der Parallelisierung ihrer Algorithmen rum.

Und wenn es den gibt wird man trotzdem tausende parallel verbauen...

puntarenas
2010-07-23, 11:13:35
Und wenn es den gibt wird man trotzdem tausende parallel verbauen...
Du hast ganz offensichtlich nicht verstanden, worum es hier geht oder willst einfach ein wenig vom Thema ablenken. :)

Weil ich sehr gern die letzten Zweifel ausräumen möchte, ob ich ein grundsätzliches Verständnisproblem habe und für lange Jahre einem Mißverständnis aufgesessen bin, oder ob der Gast mit seinem "Verteilungsproblem" hier schlicht Ammenmärchen erzählt hat, breite ich das Thema noch einmal aus.

Die Realität ist so, daß man in den seltensten Fällen 4 (oder mehr) Threads haben wird, die sich optimal auf die 4 Kerne aufteilen lassen. Das ganze ist ein Verteilungsproblem - nehmen wir mal an, wir hätten 8 Threads zu verteilen.

1 - 80% load
2 - 80% load

[...]

Das Problem was ich jetzt sehe ist, daß in diesem Fall kein weiterer Thread mehr ausgeführt werden kann, der für sich mehr als 20% load beansprucht, weil sonst das ganze aus dem Tritt kommt. Ich hoffe, du siehst das Problem. Der Vorteil, den man aus meiner Sicht durch die bessere Verteilung bei echten 6 Kernen hat, ist selbst durch bessere Leistung der intel-Cores nicht auszugleichen. Das ganze ist ein Verteilungsproblem.

Die Vorstellung des Gastes scheint sich auf "non preemptive sheduler" zu beziehen, Wikipedia sagt:

Ein Prozess-Scheduler (Scheduler = Steuerprogramm) ist eine Arbitrationslogik, die die zeitliche Ausführung mehrerer Prozesse in Betriebssystemen regelt. Prozess-Scheduler kann man grob in unterbrechende (preemptive) und nicht unterbrechende (non preemptive, auch kooperativ genannt) aufteilen. Nicht unterbrechende Scheduler lassen einen Prozess, nachdem ihm die CPU einmal zugeteilt wurde, solange laufen, bis dieser diese von sich aus wieder freigibt oder bis er blockiert. Unterbrechende Scheduler teilen die CPU von vornherein nur für eine bestimmte Zeitspanne zu und entziehen dem Prozess diese daraufhin wieder.Wikipedia - Prozess-Scheduler (http://de.wikipedia.org/wiki/Prozess-Scheduler)

Mir ist nicht bekannt, welche Sheduler-Strategie Microsoft nun konkret für Windows 7 verwendet, aber strikt kooperatives Sheduling (non preemptive) wurde aus offensichtlichen Gründen spätestens mit Windows 95 aufgegeben:

Windows NT-based operating systems use a multilevel feedback queue. 32 priority levels are defined, 0 through to 31, with priorities 0 through 15 being "normal" priorities and priorities 16 through 31 being soft real-time priorities, requiring privileges to assign. 0 is reserved for the Operating System. Users can select 5 of these priorities to assign to a running application from the Task Manager application, or through thread management APIs. The kernel may change the priority level of a thread depending on its I/O and CPU usage and whether it is interactive (i.e. accepts and responds to input from humans), raising the priority of interactive and I/O bounded processes and lowering that of CPU bound processes, to increase the responsiveness of interactive applications.[2] The scheduler was modified in Windows Vista to use the cycle counter register of modern processors to keep track of exactly how many CPU cycles a thread has executed, rather than just using an interval-timer interrupt routine.[3] Vista also uses a priority scheduler for the I/O queue so that disk defragmenters and other such programs don't interfere with foreground operationsWikipedia -Scheduling (computing) (http://en.wikipedia.org/wiki/Scheduling_%28computing%29#Windows)

[CC] hat der starren Vorstellung des Gastes bezüglich der Verteilung von Rechenressourcen in modernen Betreibssystemen ebenfalls sehr schlüssig widersprochen:

;8162051']Naja, ich habe mir das fiktive Beispiel von Ihm angeschaut und denke, dass die Argumentation totaler Kappes ist (bin wohl nicht allein damit). Die Argumentation beruht nämlich auf der Annahme, dass der Load unteilbar / atomar und somit nicht 'splitbar' wäre, d.h. das ich z.B. nicht hingehen und den Load von 50% auf Core 5 in beispielsweise 20% und 30% aufteilen könnte. Hält man sich vor Augen, dass ein bestimmter CPU Load allerdings stets einer bestimmten Zahl von CPU-Zyklen entspricht, so sollte man eigentlich recht schnell zu der Einsicht gelangen, dass dies sehr wohl möglich ist. Beispielsweise entspräche bei einer CPU, die 100 Zyklen/s schafft, ein Load von 80% genau 80 Zyklen/s. Womit der CPU 20 Zyklen/s für andere Sachen blieben (OS-Overhead einmal nicht betrachtet), beispielsweise für das 'Abarbeiten des Loads' von Core 6, um im Beispiel vom 'Gast' zu bleiben.

Reimt man sich all das zusammen, bleibt eingentlich nur die Erkenntnis, dass die Anzahl die Kerne für die parallele Abarbeitung mehrerer Threads (http://de.wikipedia.org/wiki/Thread_%28Informatik%29) prinzipiell egal ist, entscheident ist die verfügbare Rechenleistung. Umgekehrt ist es problematischer, zusätzliche Kerne können ihre Rechenleistung erst dann einbringen, wenn genügend Threads vorhanden sind um die Kerne zu beschäftigen.

Das bringt uns zurück zum Ausgangspunkt:

Ich verstehe die Argumentation würde dir darauf allerdings erwiedern das bezogen auf den Vergleich 1055t vs i5 760 die Situation nach meiner Einschätzung eben die wäre das wenn der 1055t die zwei zusätzlichen Kerne als Reserve bemühen muss weil die anderen vier grade ausgelastet sind der identische Workload den i5 760 nicht zwangsläufig an diese Grenze treiben würde da einfach die Kerne pro Takt mehr Arbeit erledigen können als das beim Thuban der Fall ist.

Das ist um übrigen in meinen Augen auch das zentrale Problem bei der weitläufigen Argumentation dem X6 würde quasi die Zeit in die Hände spielen.
Das wäre im Vergleich zum Nehalem nur dann der Fall wenn die Kerne beider CPUs in der Leistungsfähigkeit äquivalent wären.
Aber bevor die Zeit es dem X6 ermöglicht den i5 zu überholen müsste dieser ihn erstmal einholen man möge mir wiedersprechen wenn dies nicht den Tatsachen entspricht.

Sehe ich genauso und bitte gegebenenfalls ebenfalls um begründeten Widerspruch. Ich finde die Frage exzellent, denn eine eher esoterische und mystisch verklärte Vorstellung von den Vorgängen in einem PC ist ja weit verbreitet, der Thread hier räumt hoffentlich mit einigen Mythen auf.

Ich lese auch ständig in irgendwelchen Foren von der kommenden "Optimierung auf Quadcores" und dass es noch einmal länger dauern wird, bis "Spiele dann auf Sechskerner optimiert werden". Ich denke, es handelt sich dabei nicht nur um eine saloppe Formulierung, sondern diese Leute meinen wirklich, dass die Spieleentwickler ihren Code auf eine bestimmte Kernanzahl maßschneidern. Ich halte das für Unsinn, man parallelisiert die Aufgaben so gut es geht oder man lässt es eben bleiben. Nimmt man es nicht wörtlich, trifft es vermutlich zu, bis Sechs- und Achtkerner ihre zusätzlichen Kerne in Spielen gewinnbringend aufs Parkett bringen können, wird es wohl noch eine Weile dauern und die mit steigender Kernanzahl abnehmende Skalierung ist aus Gamersicht eine schwere Bürde.

Noch eine Grundannahme, die ich vertrete aber gern einmal bestätigt oder zerpflückt sehen würde. Parallelisierung in Spielen schreitet voran und zunehmend können Multicore-Prozessoren die Leistung ihrer zusätzlichen Kerne entfalten. Allerdings sind die Threads eines Spiels unterscheidlich "schwergewichtig", während einige Aufgaben schnell abgearbeitet sind, heizen andere der CPU richtig ein. Am Ende muss das Spiel immer auf die langwierigste Berechnung warten, bis dann alles wieder zusammengeführt werden kann und es in die nächste Runde geht. Daher gibt es in Spielen immer "den einen, limitierenden Thread" und hier trennt aus Gamer-Sicht vorrangig eine möglichst hohe IPC die Prozessorenspreu vom Weizen.

Gast
2010-07-23, 11:32:14
Da nicht festgelegt ist, was sich in einem Thread "befindet" ist das kein besonders gutes Argument.

Headjunkie
2010-07-23, 12:35:53
Bzgl Spieleoptmierungen auf 4/6 Cores:
Als die Dualcores aufkamen, haben die Programmier einfach nen Haupttask kreiert und alles andere (wie Sound, KI etc) was halt ging in nen 2. gepackt, fertig war die Dualcore Optimierung.
Optmierung fuer mehr Kerne ist schwieriger aber langsam im kommen, da jetzt angefangen wird den Haupttask selber in mehrere Schnipsel zu zerteilen, und sogar die dahinter liegenden Aufgaben und Algorithmen extra so zu designen das sie sich aufsplitten lassen. Daher kann man schon sagen, das kuenftige Spiele fuer mehr Kerne besser designt werden, der Sprung von 4 auf 6-8 Cores sollte auch viel schneller und "einfacher" gehn als von Dual auf Quad durch obige Ausfuehrung. Wenn der Haupttask designt ist sich in zig Teile zerlegen zu lassen (er wird nicht mehr speziell fuer 2 oder 4 Zerteilungen designt, sondern halt so gut parallelisiert wie irgend moeglich) und dadurch profiitieren dann 4/6 und 8 Cores alle.
Natuerlich gibt es ein "Upper-Limit", bestimmte Dinge lassen sich per Definition nicht parallelisieren, aber solche werden auch dann extra auf Performance designt, oder es wird versucht solche unparalleliserbaren Prozesse ganz zu ersetzen.

Daher wird in naher Zukunft die Effektivitaet von MultiCores in Spielen stark ansteigen (vorausgesetzt faehige Programmierer (-: ).
Und man brauch sich ja nur die Grakas angucken, das sind ja heutzutage mass parallelisierte Processoren (net ueber den Wortlaut streiten!), durch gekonnte Anpassung der Treiber und Spiele werden dort zig Sachen gleichzeitig berechnet, aehnliches kommt nun auch auf der CPU (vorallem in Hinblick auf kuenftige 256+ Core CPUs). Programmierer lernen halt gerade die Basics in Parallelisierung und sind kurz davor aufs Intermediate Level aufzusteigen.

Gruss Headjunkie

Odal
2010-07-23, 12:58:11
Ich lese auch ständig in irgendwelchen Foren von der kommenden "Optimierung auf Quadcores" und dass es noch einmal länger dauern wird, bis "Spiele dann auf Sechskerner optimiert werden". Ich denke, es handelt sich dabei nicht nur um eine saloppe Formulierung, sondern diese Leute meinen wirklich, dass die Spieleentwickler ihren Code auf eine bestimmte Kernanzahl maßschneidern. Ich halte das für Unsinn, man parallelisiert die Aufgaben so gut es geht oder man lässt es eben bleiben. Nimmt man es nicht wörtlich, trifft es vermutlich zu, bis Sechs- und Achtkerner ihre zusätzlichen Kerne in Spielen gewinnbringend aufs Parkett bringen können, wird es wohl noch eine Weile dauern und die mit steigender Kernanzahl abnehmende Skalierung ist aus Gamersicht eine schwere Bürde.

So extrem formuliert ist die Optimierung auf eine bestimmte Core Anzahl natürlich falsch, dennoch mal ausgehend von dem Gedankenexperiment eine Aufgabe würde sich beliebig zerlegen lassen (natürlich Käse etc.) schaffen "unnötig" viele Threads einen Overhead.

Bzgl Spieleoptmierungen auf 4/6 Cores:
Als die Dualcores aufkamen, haben die Programmier einfach nen Haupttask kreiert und alles andere (wie Sound, KI etc) was halt ging in nen 2. gepackt, fertig war die Dualcore Optimierung.
Optmierung fuer mehr Kerne ist schwieriger aber langsam im kommen, da jetzt angefangen wird den Haupttask selber in mehrere Schnipsel zu zerteilen, und sogar die dahinter liegenden Aufgaben und Algorithmen extra so zu designen das sie sich aufsplitten lassen. Daher kann man schon sagen, das kuenftige Spiele fuer mehr Kerne besser designt werden, der Sprung von 4 auf 6-8 Cores sollte auch viel schneller und "einfacher" gehn als von Dual auf Quad durch obige Ausfuehrung. Wenn der Haupttask designt ist sich in zig Teile zerlegen zu lassen (er wird nicht mehr speziell fuer 2 oder 4 Zerteilungen designt, sondern halt so gut parallelisiert wie irgend moeglich) und dadurch profiitieren dann 4/6 und 8 Cores alle.
Natuerlich gibt es ein "Upper-Limit", bestimmte Dinge lassen sich per Definition nicht parallelisieren, aber solche werden auch dann extra auf Performance designt, oder es wird versucht solche unparalleliserbaren Prozesse ganz zu ersetzen.

Daher wird in naher Zukunft die Effektivitaet von MultiCores in Spielen stark ansteigen (vorausgesetzt faehige Programmierer (-: ).
Und man brauch sich ja nur die Grakas angucken, das sind ja heutzutage mass parallelisierte Processoren (net ueber den Wortlaut streiten!), durch gekonnte Anpassung der Treiber und Spiele werden dort zig Sachen gleichzeitig berechnet, aehnliches kommt nun auch auf der CPU (vorallem in Hinblick auf kuenftige 256+ Core CPUs). Programmierer lernen halt gerade die Basics in Parallelisierung und sind kurz davor aufs Intermediate Level aufzusteigen.

Gruss Headjunkie


Die Vorstellung mancher bzgl. Zerlegung Multicoreoptimierung ist höchst amüsant. Da denken einige doch das geht wie geschnitten Brot und jeder bekommt eine gleichgroße Scheibe :D

Man muss erstmal überhaupt eine zerlegbare "Aufgabe" haben dann einen Algorithmus dazu entwerfen (selbst bei ziemlich Optimal parallelisierbaren Aufgaben steigt der Overhead für Inter Threadkommunikation mit wachsender Threadanzahl ins Extreme)
Das ganze dann mit GPUs bzw. deren Aufgabenbereiche zu vergleichen grenzt ja schon an Fahrlässigkeit :D

Undertaker
2010-07-23, 13:46:10
Ach auf einmal..... Solange die Benchmarks das Ergebnis abliefern, was du sehen willst, hälst du sie für glaubwürdig - und kaum kommt jemand mit einem anderen Benchmark, stellst du diesen Benchmark in Frage.

Einen einzelnen Benchmark halte ich für genau das glaubwürdig, was dieser Benchmark bencht. Ergo ein relativer kleiner Bereich. ;) Ferner gibt es noch Benchmarks, die unabhängig von ihrem Inhalt relativ allgemeingültige Ergebnisse liefern, soll heißen: Prozessoren ordnen sich hier so ein, wie sie es auch im Schnitt über ein sehr breites Anwendungsfeld tun.

Wenn ich sehe, dass der oben verlinkte Bench einen Q9550 vor einem X4 965 sieht, ist der letzte Punkt für mich definitiv nicht erfüllt - das Ergebnis liegt deutlich entfernt von ansonsten üblichen Resultaten, kann also nur für eine Einordnung in genau diesem spezifischem Benchmark dienen - nicht aber den allgemeinen bzw. durchschnittlichen Fall.
Wenn man dann noch sieht, dass z.B. ein Q9550 vor einem QX9775 liegt - in meinen Augen ein Ding der Unmöglichkeit - haben sich Benchmark und oder Tester disqualifiziert. :)

Headjunkie
2010-07-23, 16:21:30
Die Vorstellung mancher bzgl. Zerlegung Multicoreoptimierung ist höchst amüsant. Da denken einige doch das geht wie geschnitten Brot und jeder bekommt eine gleichgroße Scheibe :D

Man muss erstmal überhaupt eine zerlegbare "Aufgabe" haben dann einen Algorithmus dazu entwerfen (selbst bei ziemlich Optimal parallelisierbaren Aufgaben steigt der Overhead für Inter Threadkommunikation mit wachsender Threadanzahl ins Extreme)
Das ganze dann mit GPUs bzw. deren Aufgabenbereiche zu vergleichen grenzt ja schon an Fahrlässigkeit :D

Ich glaube ich habe ne ungefaehre Vorstellung von dem Aufwand der Parallelisierung da ich genau soetwas mache.....und zwar noch ne ganze Etage unter Programmieren, wir versuchen komplexe Algorithmen auf FPGAs laufen zu lassen, und 80% der Arbeit ist, Algorithm zu zerlegen und neuzudesignen damit sie parallel abgearbeitet werden koennen. Noch dazu habe ich vor nem Monat nen Parallelsierungs-fixiertes Elektromagnetisches Feldsimulationsprojekt abgeschlossen.

Und durch diese Arbeit ist mir bewusst, wieviel Potential Parallelsierung hat und wie selbst extrem serielle Vorgaenge durch intelligente Herangehensweisen parallelsierbar gemacht werden koennen.

Also das naechste mal bitte keine Unterstellungen....

Und der GPU Vergleich war dafuer da um zu zeigen wie angepasste Hardware im Zusammenspiel mit angepassten Treibern und dem Training der Programmierer extreme Leistungen und Leistungsspruenge moeglich macht.

Und als Fazit, ein Spiel das fuer Quadcores optimiert wird, wird nicht mehr auf 4 Kerne angepasst sondern auf Parallelsierung, durch welche dann auch mehr Kerne sehr leicht mitspielen und wirklich gute Leistungssteigerungen erziehlen koennen.

Gruss Headjunkie

dargo
2010-07-23, 17:13:15
Ob das jemals die breite Masse akzeptieren wird?

Nein, leider nicht. Der Mummpitz im Netz hat sich bei der Masse dermaßen im Kopf festgefressen, dass eine Umdenken praktisch unmöglich ist... leider.

Ich habe hier mal ein spontanes Beispiel, bin mir aber ziemlich sicher, dass das eh nichts bringt. Und nein, ich werde jetzt nicht xx Spiele zeigen wo es ähnliche Situationen gibt.

TDU mit maximalen Details.

i5-750@2,33Ghz, GTX470@720Mhz
640x480 1xAA/1xAF
http://www4.pic-upload.de/thumb/23.07.10/ceqazpilgn7a.jpg (http://www.pic-upload.de/view-6452200/TestDriveUnlimited-2010-07-23-16-42-04-48.jpg.html)

1680x944 4xMSAA/16xHQAF
http://www4.pic-upload.de/thumb/23.07.10/lie2ehy6fr5a.jpg (http://www.pic-upload.de/view-6452197/TestDriveUnlimited-2010-07-23-16-40-38-69.jpg.html)

1920x1200 4xMSAA/16xHQAF
http://www4.pic-upload.de/thumb/23.07.10/zl8nqss99vzs.jpg (http://www.pic-upload.de/view-6452205/TestDriveUnlimited-2010-07-23-16-46-22-70.jpg.html)

i5-750@3,7Ghz, GTX470@720Mhz
1920x1200 4xMSAA/16xHQAF
http://www4.pic-upload.de/thumb/23.07.10/osl54qtc7c55.jpg (http://www.pic-upload.de/view-6452209/TestDriveUnlimited-2010-07-23-16-54-01-28.jpg.html)

58% mehr CPU-Takt resultieren immer noch bei 1920x1200 4xMSAA/16xAF mit der genannten GTX470 in 38% mehr Frames! Ich wiederhole es gerne nochmal - CPU-Limits sind auflösungsunabhängig.

PS: wäre hier eine übertaktete GTX480 im Einsatz würden garantiert > 40% übrig bleiben.

PPS: der minimale Vorteil in 640x480 könnte am veränderten FoV liegen.

Headjunkie
2010-07-23, 17:39:35
Ohne jetzt total daemlich klingen zu wollen, aber wenn der i5 selbst auf 2,33GHz noch ca 60fps ausspuckt, dann ist es zumindest fuer das eine Game jawohl voellig egal wieviele extra Kerne oder extra MHz die CPU hat?
Oder wie stabil sind die Frameraten in dem Spiel? (Kenne es persoenlich garnicht da ich keine Rennspiele mehr spiele seit mein Lenkrad in NSF Underground2 kaputt gegangen ist (: )

Und wegen Aufloesungen und CPU Limits, es bringt dir halt nix wenn (im Normalfall) bei 640x480 die CPU sagen wir mal auf 100fps limitiert aber auf 1920*1200 deine Graka nur noch 30fps bringt.... deswegen sind meiner Meinung! nach Tests auf 640x480 so grenzwertig. Auch wenn ich sagen muss das aufgrund deiner Screenies die Konstanz der CPU Limitierung sehr gut dargestellt ist und anscheined deine Graka mehr koennte als die CPU erlaubt., das ist aber eher selten der Fall (das Spiel scheint ja CPU Leistung mit der Kelle zu essen.)

y33H@
2010-07-23, 17:43:39
Und wegen Aufloesungen und CPU Limits, es bringt dir halt nix wenn (im Normalfall) bei 640x480 die CPU sagen wir mal auf 100fps limitiert aber auf 1920*1200 deine Graka nur noch 30fps bringt.... deswegen sind meiner Meinung! nach Tests auf 640x480 so grenzwertig.Falsche Sichtweise. 640x480 zeigt die CPU-Leistung. Wenn du wissen willst, wann die Grafikkarte bremst, schau dir Grafikkarten-Benchmarks an.

Gast
2010-07-23, 17:44:16
das Ergebnis liegt deutlich entfernt von ansonsten üblichen Resultaten, kann also nur für eine Einordnung in genau diesem spezifischem Benchmark dienen - nicht aber den allgemeinen bzw. durchschnittlichen Fall
(..)
Wenn man dann noch sieht, dass z.B. ein Q9550 vor einem QX9775 liegt - in meinen Augen ein Ding der Unmöglichkeit - haben sich Benchmark und oder Tester disqualifiziert.

:rolleyes: Ja - ich bin mir sicher, daß die Leute die den Passmark programmiert haben allesamt Deppen sind. Die wollen mit Sicherheit von morgens bis abends nur Blödsinn in die Welt posaunen und rumstänkern. Schau dir mal diesen Benchmark an:
http://www.pcgameshardware.de/aid,657797/Intel-Core-2-Quad-Q9550-im-PCGH-Test/CPU/Test/?page=4
Und jetzt sag uns bitte nochmal genauer, warum du es für so unglaublich unwahrscheinlich hälst, daß ein Q9550 im Vergleich zum QX9775 (der bis auf den Sockel 1:1 identisch ist mit dem QX9770), in einem anderen synthetischen Benchmark als Sieger vom Platz geht. - Vielleicht brauchst du eine bessere Brille für 'deine Augen'. Dann erscheinen unmögliche Dinge plötzlich gestochen scharf. ;)

Sorry - aber deine Einstellung ist naiv. Du bist das Paradebeispiel für einen 100% marketinggesteuerten Hobby-PC'ler. Das meine ich jetzt nicht persönlich. Irgendwann solltest du mal meditieren und in aller Ruhe darüber nachdenken, aus welchen Quellen du dein Wissen beziehst. Und im nächsten Schritt dann darüber nachdenken, mit welchen Werkzeugen deine Quellen ihre höchst streitbaren Ansichten untermauern. Möglicherweise wirst du erkennen, daß es im großen und ganzen immer auf den selben Unfug hinausläuft:
Crysis
3Dmark
UT3 bei 800x600
Anno1404
Hinzu kommt, daß man sich immer nur ganz bestimmte Spielabschnitte herausgreift, um die Performance einer Grafikkarte oder CPU zu untersuchen. Weil dies 'alle' so machen, kriegt man auch überall die gleiche Meinung serviert. Und du denkst nun, weil alle deine Quellen immerzu und fortwährend, gebetsmühlenartig das gleiche publizieren, daß es dann ja stimmen muß. - Dies ist ein großer Trugschluß. So entstehen Religionen aber keine gesicherten Fakten. Wer sich heute Gedanken über die Performance von Quads und HexaCores macht, sollte sich nicht mit Spiele-Benchmarks von vorgestern abgeben. Ansonsten bekommt er so wie du plötzlich große Schwierigkeiten, wenn er mit der Realität konfrontiert wird. Ich bin mir bewußt, daß auch synthetische Benchmarks, wie der Passmark, nicht geeignet sind vorherzusehen, wie die aktuellen CPUs mit zukünftigen Spielen zurechtkommen werden. Aber ich halte es für einen Fehler, wenn man CPUs, die mit ihrer derzeitigen Leistung unter wirklich veralteten Spieleengines bei völlig lebensfernen 800x600 posieren, über den grünen Klee lobt.

Die Frage sollte immer sein: Was kann eine CPU wirklich. Und hierzu sind imho synthetische Mittel nicht das Beste, aber das einzige mir bekannte Mittel, um den neuen (und deswegen weitgehend noch ungenutzten) Technologien auf den Zahn zu fühlen und einen Ausblick in die Zukunft zu wagen. Ob die neuen Technologien später auch tatsächlich sinnvoll genutzt werden können, kann niemand wissen.

So - und das war es jetzt von mir zu dem unseeligen Thema Spiele-Benchmarks. Im Threadtitel heißt es ja auch Fakten statt Flames.

Headjunkie
2010-07-23, 17:47:44
Falsche Sichtweise. 640x480 zeigt die CPU-Leistung. Wenn du wissen willst, wann die Grafikkarte bremst, schau dir Grafikkarten-Benchmarks an.
Nochmal von Vorne, in der Diskussion ob i750 oder 1055T:
In der Preisklasse ist eine 5770/5850/460 und vielleicht noch ne 470 wahrscheinlich. Und wenn in normalen(also 1600+) Aufloesungen diese Grakas beide CPUs limitieren, dann ist es egal welche man nimmt, allerdings kann der X6 halt in Anwendungen wegziehen. Also Gleichstand(da egal) fuer Spiele und X6 Anwendungsvorteil.
Allerdings haben ja nun einige hier Spiele und Mods vorgeschlagen in welchen die CPU limitiert, und dann ist halt der i5 vorne. Muss man sich halt fragen was wichtiger ist, in ein paar Spielen fps zu retten oder in ein paar Anwendungen schneller zu sein.

Gasti
2010-07-23, 17:51:46
:rolleyes: Ja - ich bin mir sicher, daß die Leute die den Passmark programmiert haben allesamt Deppen sind. Die wollen mit Sicherheit von morgens bis abends nur Blödsinn in die Welt posaunen und rumstänkern. Schau dir mal diesen Benchmark an:
http://www.pcgameshardware.de/aid,657797/Intel-Core-2-Quad-Q9550-im-PCGH-Test/CPU/Test/?page=4
Und jetzt sag uns bitte nochmal genauer, warum du es für so unglaublich unwahrscheinlich hälst, daß ein Q9550 im Vergleich zum QX9775 (der bis auf den Sockel 1:1 identisch ist mit dem QX9770), in einem anderen synthetischen Benchmark als Sieger vom Platz geht. - Vielleicht brauchst du eine bessere Brille für 'deine Augen'. Dann erscheinen unmögliche Dinge plötzlich gestochen scharf. ;)

WTF?
Der Sockel des QX9775 und QX9770 ist der gleiche nämlich 775.
Und ja es ist Schwachsinn dass der 9550 schneller sein soll, da es der gleiche Prozessor mit weniger Takt und ohne freien Multiplikator ist.

y33H@
2010-07-23, 17:53:20
Es gibt genügend Spiele, die (gnadenlos) CPU-limitiert sind und den i5-750 deutlich (spürbarer Unterschied!) vor dem 1055T sehen: Far Cry 2, GTA 4, SupCom, Gothic 3 oder NfS Shift.

dargo
2010-07-23, 17:56:03
Ohne jetzt total daemlich klingen zu wollen, aber wenn der i5 selbst auf 2,33GHz noch ca 60fps ausspuckt, dann ist es zumindest fuer das eine Game jawohl voellig egal wieviele extra Kerne oder extra MHz die CPU hat?

Hast du den Zusammenhang verstanden auf was ich mich bezogen habe? Ok, mein Fehler, ich habe nur den ersten Satz von BlackBirdSR zitiert. Hier nochmal sein ganzer Beitrag:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8157746&postcount=59

Lese dir das mal in Ruhe durch, überdenke es. Schaue dir meinen Beitrag nochmal an und du wirst auch dahinterkommen. :)

Übrigens - mein Beispiel bezieht sich auf ein Spiel aus dem Jahre 2007. Glaubt du wirklich die CPU-Last wird auf diesem Niveau bleiben? Außerdem habe ich hier einen Lynnfield bis 3,7Ghz vorgeführt. Es sind noch verdammt viele Kentsfields/Yorkfields oder Quadcores von AMD bei den Usern verbaut mit deutlich geringerer Pro/Mhz-Leistung und Taktraten wodurch du noch schneller in CPU-Limit rutschst.


Und wegen Aufloesungen und CPU Limits, es bringt dir halt nix wenn (im Normalfall) bei 640x480 die CPU sagen wir mal auf 100fps limitiert aber auf 1920*1200 deine Graka nur noch 30fps bringt.... deswegen sind meiner Meinung! nach Tests auf 640x480 so grenzwertig.

Bis hierhin dachte ich schon wieder du hast nichts verstanden. Aber:


Auch wenn ich sagen muss das aufgrund deiner Screenies die Konstanz der CPU Limitierung sehr gut dargestellt ist und anscheined deine Graka mehr koennte als die CPU erlaubt., das ist aber eher selten der Fall (das Spiel scheint ja CPU Leistung mit der Kelle zu essen.)
Ich habe mich geirrt, anscheinend doch. Nur mal kurz - es ist je nach Kombination aus CPU/Grafikkarte, den verwendeten Settings, den Spielen selbst und den Szenen ein hin und her was die Limits angeht. Eine pauschale Aussage - eine hohe Auflösung ist immer gpu-limitiert ist schlicht und ergreifend falsch. In den von mir gezeigten Bildern ist es mehr als deutlich.

puntarenas
2010-07-23, 17:56:20
So extrem formuliert ist die Optimierung auf eine bestimmte Core Anzahl natürlich falsch, dennoch mal ausgehend von dem Gedankenexperiment eine Aufgabe würde sich beliebig zerlegen lassen (natürlich Käse etc.) schaffen "unnötig" viele Threads einen Overhead.

Gut, ich wollte nur klarstellen, dass die wörtlich gemeinte Annahme, Entwickler würden explizit auf eine bestimmte Kernanzahl hin optimieren, Unfug ist. Sie parallelisieren bestenfalls wo es sinnvoll möglich ist (Ausnahmen bestätigen die Regel, war da nicht neulich etwas mit einem Packprogramm, das bei einer Kernanzahl, die nicht 2^n entsprach, aus dem Tritt kam?!).

Ich denke mal, dieses Diagramm zu Amdahl's law (http://de.wikipedia.org/wiki/Amdahlsches_Gesetz) ist hier eine schöne Ergänzung:

http://www.abload.de/img/648px-amdahlslaw_germap2e3.png (http://www.abload.de/image.php?img=648px-amdahlslaw_germap2e3.png)
Das Amdahlsche Gesetz (benannt 1967 nach Gene Amdahl) ist ein Modell in der Informatik über die Beschleunigung von Programmen durch parallele Ausführung. Nach Amdahl wird der Geschwindigkeitszuwachs vor allem durch den sequentiellen Anteil des Problems beschränkt, da sich dessen Ausführungszeit durch Parallelisierung nicht verringern lässt.
(vgl. auch Das Ende des Gigaherzwahns? #66ff (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8134775#post8134775))

Von den Gedankenexperimenten massiver Parallelisierung zurück zu unserem Vergleich hier. Es bleibt wohl dabei und Amun-Re geht recht in der Annahme, dass ein Phenom II X6 1055T bei ausreichender Parallelisierung nicht schlagartig an einem Core i5 760 vorbeiziehen wird, zunächst einmal muss er dessen höhere IPC einholen. Schließlich gibt es kein Verteilungsproblem bei mehreren Threads, wenn der Phenom seine sechs Kerne endlich ausspielen kann, wirft der Core i5 die volle Leistungsfähigkeit seiner vier Kerne in die Waagschale (Core i7 8xx ich hör dir trapsen)

Undertaker
2010-07-23, 18:02:14
:rolleyes: Ja - ich bin mir sicher, daß die Leute die den Passmark programmiert haben allesamt Deppen sind. Die wollen mit Sicherheit von morgens bis abends nur Blödsinn in die Welt posaunen und rumstänkern. Schau dir mal diesen Benchmark an:
http://www.pcgameshardware.de/aid,657797/Intel-Core-2-Quad-Q9550-im-PCGH-Test/CPU/Test/?page=4
Und jetzt sag uns bitte nochmal genauer, warum du es für so unglaublich unwahrscheinlich hälst, daß ein Q9550 im Vergleich zum QX9775 (der bis auf den Sockel 1:1 identisch ist mit dem QX9770), in einem anderen synthetischen Benchmark als Sieger vom Platz geht. - Vielleicht brauchst du eine bessere Brille für 'deine Augen'. Dann erscheinen unmögliche Dinge plötzlich gestochen scharf.

1. Bitte leg mir nichts in den Mund, was ich nicht gesagt habe. Danke.
2. Es ist eine Sache, wenn in einem Benchmark eine externe Limitierung - bei WinRAR höchstwahrscheinlich die Speicherbandbreite - dafür sorgt, dass bis auf den Takt identische CPUs auch identisch performen. Das ist erklärbar, logisch und kommt je nach Szenario öfters mal vor. Du, kein anderer und keine Logik der Welt begründen mir aber, wie ein 3,0GHz Q9650 knapp 20% vor einem QX9775 liegen soll und kann. Das ist schlicht und einfach unmöglich, wenn sauber gemessen wurde.

Von solcherlei Beispielen finde ich in deiner Passmark-Liste unzählige. Ein i7 875K liegt 11% vor einem i7 870? Sry, aber hier hört für mich jegliche Verwertbarkeit dieser Zahlen auf.
3. Zum Benchmark selbst: Es gibt nicht "die" Performance. Ergo kann niemals ein einziger Benchmark, ob synthetisch oder real, "die" Leistung messen. Er kann die Leistung in einem ganz bestimmten Szenario bestimmen - die kann auf AMD-Modellen 10x so gut ausfallen wie auf Intel-CPUs und umgekehrt. Womöglich produziert er auch einen Wert, der mehr oder weniger im Schnitt vieler anderer Benches liegt. Aber er wird niemals allgemeingültig für alle Fälle sein. Punkt um und aus.

Bitte nochmal ganz genau über diese Zeilen nachdenken und überlegen, ob du dem nicht auch zustimmen würdest - oder weiterhin auf einem unmöglichen* Ergebnis eines(!) anderen Tests beharrst.

*Siehe obige Beispiele

Gast
2010-07-23, 18:37:26
Reimt man sich all das zusammen, bleibt eingentlich nur die Erkenntnis, dass die Anzahl die Kerne für die parallele Abarbeitung mehrerer prinzipiell egal ist, entscheident ist die verfügbare Rechenleistung. Umgekehrt ist es problematischer, zusätzliche Kerne können ihre Rechenleistung erst dann einbringen, wenn genügend Threads vorhanden sind um die Kerne zu beschäftigen.
Unfug. - Nach deinem Verständnis, wären Tools wie zB. der CoreMaximizer für SupremeCommander/Forged Alliance komplett wirkungslos - was sie aber definitiv nicht sind.

-> Was macht das Programm?

tauscht simspeed gegen FPS.

-> Wie macht das Programm das?

Ändert die threadingaffinity (wer ein gutes deutsches Wort findet darfs behalten) der SC/FA Applikation und der von ihr erzeugten win32-threads.

http://www.insidesupcom.de/showthread.php?5685-Core-Maximizer

Die von dir oben zitierte "verfügbare Rechenleistung" der CPU hat sich durch den Einsatz des CoreMaximizer in keinster Weise geändert.

[x] Das ist alles nur eine Frage der 'richtigen' Verteilung von Threads auf die vorhandenen Cores.

Die Möglichkeiten des Windows-Shedulers aus eigener Kraft eine sinnvolle Verteilung der Threads vorzunehmen sind offenbar begrenzt. Das sie verteilt werden, ist klar. Die entscheidende Frage ist also: Wie sie verteilt werden. -> Je mehr Cores, umso geringer ist die Wahrscheinlichkeit das der Sheduler Mist macht. -> Je mehr Cores, desto besser.

Auf einem DualCore spürt man die Auswirkungen des CoreMaximizers am stärksten. Aber auch auf einem Quad sieht man noch eine deutliche Performancesteigerung. Auf einem HexaCore wäre ein Tool wie der CoreMaximizer wahrscheinlich überflüssig. Man würde Windows und den ganzen Klimbim manuell auf einen Core festnageln und die restlichen 5 Cores für SupremeCommander freigeben. Da wär dann endlich mal genug Platz da.

diese Leute meinen wirklich, dass die Spieleentwickler ihren Code auf eine bestimmte Kernanzahl maßschneidern. Ich halte das für Unsinn
:eek:

http://www.hardwareluxx.de/community/f146/liste-der-mehrkern-spiele-516740.html

y33H@
2010-07-23, 18:42:59
Bioshock (Unreal Engine 3) - Quad core support.Zweiter Eintrag und bereits falsch. Keine UE3.

Das Auge
2010-07-23, 19:48:24
Der Einfachheit halber möchte ich hier, aufgrund der preislichen Gleichheit nur mal den Vergleich zwischen Core i5 760 und Phenom II X6 1055t bemühen

Nunja. Da es dir ja hauptsächlich um Games geht, machen 6 Kerne einfach keinen Sinn. Das wird sich in absehbarer Zeit bis zum nächsten Aufrüstzyklus auch nicht ändern. Ergo: 4 Kerne reichen.

Ob es bei den Quads dann ein i5/i7 sein muß, oder ob nicht doch ein schnuckeliger PhenomII BE mit offenem Multi für weniger Geld in realistischen Auflösungen nicht letztlich die selber Leistung auf den Monitor zaubert, diese Frage sollte man hier besser nicht diskutieren. Ich sag nur mal soviel: Der Phenom tuts bei geringeren Kosten für Board und CPU mMn auch.

Schrotti
2010-07-23, 20:40:39
Wenn man dann noch sieht, dass z.B. ein Q9550 vor einem QX9775 liegt - in meinen Augen ein Ding der Unmöglichkeit - haben sich Benchmark und oder Tester disqualifiziert. :)

Das sticht mir auch immer ins Auge wenn es um den i5 750 geht. Wie kann, vom logischen her, ein 133MHz niedriger getakteter Prozessor schneller sein als ein i7 860.

http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/27/#abschnitt_arma_2

dargo
2010-07-23, 20:45:14
Das sticht mir auch immer ins Auge wenn es um den i5 750 geht. Wie kann, vom logischen her, ein 133MHz niedriger getakteter Prozessor schneller sein als ein i7 860.

http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/27/#abschnitt_arma_2
Beim i7 bremst höchstwahrscheinlich SMT in diesem Spiel. Außerdem wurde bei beiden CPUs der Turbo-Modus aktiviert. Haben die beiden überhaupt prozentual den gleichen Turbo-Modus?

Gast
2010-07-23, 20:47:04
Das sticht mir auch immer ins Auge wenn es um den i5 750 geht. Wie kann, vom logischen her, ein 133MHz niedriger getakteter Prozessor schneller sein als ein i7 860.

http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/27/#abschnitt_arma_2

SMT kann manchmal Leistung kosten.
Muss zwar in diesem Fall nicht sein, währe aber eine mögliche Erklärung.

Ronny145
2010-07-23, 21:00:55
Steht doch auch im Text.

SMT kostet den Core i7 15 Prozent ihrer Leistungsfähigkeit und damit in dieser Kategorie den Sieg.

boxleitnerb
2010-07-23, 21:10:05
Sollte das mit Win7 nicht eigentlich Geschichte sein?

dargo
2010-07-23, 21:15:49
Sollte das mit Win7 nicht eigentlich Geschichte sein?
Ich glaube es liegt eher am Spiel. Afaik wurde ArmA2 nicht für Win7 konzipiert.

Ronny145
2010-07-23, 21:16:54
Sollte das mit Win7 nicht eigentlich Geschichte sein?


Es wurde besser, gibt aber immer noch Spiele die Leistung verlieren.

Schrotti
2010-07-23, 21:24:15
Mag ja sein das SMT Leistung kostet (wieviel ist ja auch egal) aber warum liegt dann hier der i7 870 noch vor einem i7 960 und der i5 750 noch immer vor dem i7 860.

Das stinkt doch.

Es handelt sich um Dirt2.

http://www.abload.de/img/smts6tq.jpg (http://www.abload.de/image.php?img=smts6tq.jpg)

Oder hier ein sehr deutliches fail seitens CB.

i5 750 ohne Turbo und i7 860 ohne SMT und ohne Turbo. Der i7 860 hat 133MHz mehr Takt, trotzdem soll der i5 750 vorne sein ;)

http://www.abload.de/img/i7860v5ha.png (http://www.abload.de/image.php?img=i7860v5ha.png)

Ronny145
2010-07-23, 21:32:01
Der i7 960 läuft dort mit DDR3 1066, macht sicher was aus. Zudem taktet der i7 870 mit Turbo maximal mit 3,6 Ghz. Auf 2 Kernen 3,46 Ghz. Mit 4 Kernen 3.2 Ghz.

Raff
2010-07-23, 21:35:36
Es wurde besser, gibt aber immer noch Spiele die Leistung verlieren.

Ist mir neu. Welche? Arma 2 (?) und ... ? Hat das mal jemand mit aktuellen Treibern und Windows-Patches getestet? =)

MfG,
Raff

Ronny145
2010-07-23, 21:42:56
Ist mir neu. Welche? Arma 2 (?) und ... ? Hat das mal jemand mit aktuellen Treibern und Windows-Patches getestet? =)

MfG,
Raff


In einer etwas älteren PCGH gabs mal einen kurzen Test, aber welches Spiel das war müsste ich nachschauen.

Raff
2010-07-23, 21:47:14
Mein aktueller Stand, basierend auf PCGH-Tests ;), ist eben, dass SMT unter Windows 7 (und zwar nur dort) nicht mehr bremst.

MfG,
Raff

S940
2010-07-23, 21:52:53
Mein aktueller Stand, basierend auf PCGH-Tests ;), ist eben, dass SMT unter Windows 7 (und zwar nur dort) nicht mehr bremst.
Jo aber ARMA2 ist die Ausnahme der Regel, da das intern selbst die CPU Kerne verwaltet ... blöd gelaufen.
Hat y33H auch schon mehrmals geschrieben. Erstbester Google Treffer:
http://www.computerbase.de/forum/showpost.php?p=7401036&postcount=12

ciao

Alex

Ronny145
2010-07-23, 21:57:44
Mein aktueller Stand, basierend auf PCGH-Tests ;), ist eben, dass SMT unter Windows 7 (und zwar nur dort) nicht mehr bremst.

MfG,
Raff


PCGH 1/2010 Seite 53. World of Warcraft mit SMT deutlich langsamer.

S940
2010-07-23, 22:03:17
PCGH 1/2010 Seite 53. World of Warcraft mit SMT deutlich langsamer.
Jo, das war das 2te Ausnahme Programm, siehe obigen Link ^^

Ronny145
2010-07-23, 22:05:55
Jo, das war das 2te Ausnahme Programm, siehe obigen Link ^^


So ein Zufall aber auch. Aber ich habe noch nirgends ein Test gesehen, wo eine größere Anzahl an Spielen dahingehend mal getestet wurden wäre. Würde mich nicht wundern, wenn noch das ein oder andere Spiel betroffen wäre. Aber natürlich ist das mit Win 7 deutlich besser geworden.

puntarenas
2010-07-23, 22:10:10
Unfug. - Nach deinem Verständnis, wären Tools wie zB. der CoreMaximizer für SupremeCommander/Forged Alliance komplett wirkungslos - was sie aber definitiv nicht sind.

Ich rede im Allgemeinen, dass Supreme Commander sich merkwürdig verhalten mag, ändert doch Nichts am Grundprinzip.

[x] Das ist alles nur eine Frage der 'richtigen' Verteilung von Threads auf die vorhandenen Cores.

Für die Verteilung der Threads ist der Sheduler zuständig und man kann sich IMHO dabei ruhig allgemein auf "Microsofts Besten" beziehen, denn mit Windows 7 wurde ja Einiges verbessert.

Wenn man für ein Multithreaded-Game wie Supreme Commander manuell in die Kern-Affinität eingreifen muss, weil das Spiel hier offenbar einen eigenen Ansatz verfolgt oder sonstwie querliegt und sich damit ins Knie schießt, dann ist das sicher bemerkenswert, aber auf die Masse der Spiele nicht übertragbar. Im übrigen scheint sich dein verlinkter Thread auf Vista (oder XP?) zu beziehen.

Je mehr Cores, umso geringer ist die Wahrscheinlichkeit das der Sheduler Mist macht. -> Je mehr Cores, desto besser.
Allgemein gesprochen halte ich das für Unfug, aber wenn du plausibel begründen kannst, wieso das so sein sollte, wäre ich ganz Ohr. Bist du zufällig der Gast mit der Theorie zum Verteilungsproblem?


Man würde Windows und den ganzen Klimbim manuell auf einen Core festnageln und die restlichen 5 Cores für SupremeCommander freigeben. Da wär dann endlich mal genug Platz da.

Offensichtilich bist du der Gast mit dem Verteilungsproblem. :)


http://www.hardwareluxx.de/community/f146/liste-der-mehrkern-spiele-516740.html
Mein Punkt ist, die Spiele sind nicht explizit für Quadcores (nicht 3, nicht 5, ganz genau 4 Kerne!) optimiert. Natürlich kann man eine Liste aufstellen, die zeigt welche Spiele bis zu welcher Kernanzahl in ihrer Performance ordentlich profitieren. Das Problem ist nur, redet man von "Quadcore-Optimierung", dann nehmen das einige Leute wörtlich.

Das sticht mir auch immer ins Auge wenn es um den i5 750 geht. Wie kann, vom logischen her, ein 133MHz niedriger getakteter Prozessor schneller sein als ein i7 860.

Ich finde auch hier gilt, offensichtlich wenig aussagekräftige Benchmarks (Beispiel oben der Gast vs. Undertaker (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8163252#post8163252)), "mein Gast" mit seinem Spezialfall Supreme Commander oder Ausreißer durch bekannte Probleme vereinzelter Games mit Hyperthreading (über das weder der Phenom II X6 noch der Core i5 760 verfügt btw.) führen bei einer allgemeinen Diskussion zu nichts.

Ich fand den Thread bis hierhin eigentlich ganz spannend, weil er einige Grundfragen hinsichtlich der Prozessorauswahl aus Gamersicht an zwei vielfach nachgefragten Prozessoren aufgegriffen hat. Es wurden auch bereits viele Standardfloskeln diskutiert und teilweise widerlegt, die regelmäßig in Kaufberatungsthreads zu diesem Thema aufkommen und wir haben es über viele Seiten geschafft, einigermaßen beim Thema zu bleiben.

hq-hq
2010-07-23, 22:15:05
So ein Zufall aber auch. Aber ich habe noch nirgends ein Test gesehen, wo eine größere Anzahl an Spielen dahingehend mal getestet wurden wäre. Würde mich nicht wundern, wenn noch das ein oder andere Spiel betroffen wäre. Aber natürlich ist das mit Win 7 deutlich besser geworden.

wurden wäre würde wurm wäre, hast wohl auch schon einiges getrunken was;D

schätze du hast recht :freak:

falls jemand noch die skalierung in starcraft2 mit mehrkernern interessiert, leider fehlt noch der x6 ;(
http://www.tomshardware.com/reviews/blizzard-entertainment-starcraft-ii-benchmark,2611-9.html

dargo
2010-07-23, 22:29:53
falls jemand noch die skalierung in starcraft2 mit mehrkernern interessiert, leider fehlt noch der x6 ;(
http://www.tomshardware.com/reviews/blizzard-entertainment-starcraft-ii-benchmark,2611-9.html
Hier sieht man wieder sehr schön die gute Pro/Mhz Leistung des i7 gegenüber dem Phenom 2. Und dabei scheint das Spiel noch nicht mal gut über einen DC zu skalieren.

boxleitnerb
2010-07-23, 22:48:29
Alter Latz...knapp 50% mehr Speed. Ihr armen Luxxer und CBler, die treu ihre AMD-Krücken kaufen :freak:
Sorry, aber bei soviel Beratungsresistenz dort musste der Frust mal raus.

hq-hq
2010-07-23, 23:31:14
Ich sag nur mal soviel: Der Phenom tuts bei geringeren Kosten für Board und CPU mMn auch.

das auge, DAS AUGE !!! NEIIIIN !!! sobald man ein richtig gutes board möchte ist fast kein unterschied mehr im kaufpreis... ausser man will unbedingt smt

und bei den zweikernern... der i3 haut alle platt. einzig der x6 als echter sechskerner ist eine alternative, nur der. praktischer nutzen gleich null,
aber psychologisch wertvoll! ich find hexacores geil :freak: (und x6 oc auf 4,2ghz:biggrin:)

NaseWeiss
2010-07-23, 23:34:12
Naja... wollns mal nicht übertreiben ;) Nur weil es bei einem Spiel so extrem ist?!

Ja, die ProMegaherz Leistung des i7 ist im Schnitt ca 20-30% höher als die des PhenomII. Ändert aber nix daran, daß AMD dies mit ihrer Preispolitik wieder ausgleicht ;)

Und an alle Intel Fanboys: der P4 und seine Nachfolger war in der ProMhz Leistung auch um einiges schlechter als AMD`s XP und erst Recht gegenüber dem A64 und trotzdem haben viele auf diesen gesetzt.

Hätte es den x6 schon gegeben, als ich mir mein System zusammengestellt hab, hätt ich wohl auf AMD gesetzt: Lässt sich auch sehr gut übertakten, bringt 6 Kerne mit und besitzt ein unschlagbares Preis-Leistungsverhältnis. Nur ein Vorteil wird AMD jetzt wohl verlieren, man muß wohl diesmal zum aufrüsten auch das Mainboard + (eventuell) Ram mit tauschen, da der Bulldozer wohl nicht mehr abwärts Kompatibel ist. Was natürlich ein gewichtiger Grund war, auf AMD zu setzen.

hq-hq
2010-07-23, 23:41:49
Ja, die ProMegaherz Leistung des i7 ist im Schnitt ca 20-30% höher als die des PhenomII. Ändert aber nix daran, daß AMD dies mit ihrer Preispolitik wieder ausgleicht ;)

Und an alle Intel Fanboys: der P4 und seine Nachfolger war in der ProMhz Leistung auch um einiges schlechter als AMD`s XP und erst Recht gegenüber dem A64 und trotzdem haben viele auf diesen gesetzt.

Hätte es den x6 schon gegeben, als ich mir mein System zusammengestellt hab, hätt ich wohl auf AMD gesetzt: Lässt sich auch sehr gut übertakten, bringt 6 Kerne mit und besitzt ein unschlagbares Preis-Leistungsverhältnis. Nur ein Vorteil wird AMD jetzt wohl verlieren, man muß wohl diesmal zum aufrüsten auch das Mainboard + (eventuell) Ram mit tauschen, da der Bulldozer wohl nicht mehr abwärts Kompatibel ist. Was natürlich ein gewichtiger Grund war, auf AMD zu setzen.

mein lieber NaseWeiss, da kann ich dir nur zu 100% zustimmen,

eine einschränkung, der p4 mit HT war in SETI fast doppelt so schnell wie mein athlon damals... konnte ich bis heute seelisch nicht aufarbeiten.:(

Amun-Re
2010-07-23, 23:45:01
bringt 6 Kerne mit und besitzt ein unschlagbares Preis-Leistungsverhältnis.


Ok das musst du mal etwas genauer ausführen.
Lass uns mal den Fall annehmen das du Spieler bist und eben mehrheitlich die Rechenleistung deiner CPU bei Spielen gefordert wird. Inwieweit kommst du auf das Anwendungsfeld bezogen auf ein unschlagbares Preis/Leistungsverhältnis wenn 1055t und i5 760 gleichermaßen ins Geld gehen?


da der Bulldozer wohl nicht mehr abwärts Kompatibel ist


Was lässt dich das glauben?

NaseWeiss
2010-07-23, 23:48:31
Jetzt wo du es ansprichst, würde mich natürlich interessieren, wie sich der X6 zum i7 mit und ohne HT in SETI@HOME verhält :D

IVN
2010-07-23, 23:49:05
Gegen den AthlonXP war ein Northwood mehr als gut. Zu der Zeit hatte ich einen Northwood C @ 2.8GHz (also FSB800 + DC Mem @ 400 und HT). Dank HT hat er sich auch im Windows sehr viel besser angefühlt. Das war einige Zeit vor dem Markteintritt des Athlon 64. Im A64-Zeitalter war ein Netburst natürlich keine Alternative. ABer er war klar besser (und teurer) als ein Athlon XP.

NaseWeiss
2010-07-23, 23:58:43
Ok das musst du mal etwas genauer ausführen.
Lass uns mal den Fall annehmen das du Spieler bist und eben mehrheitlich die Rechenleistung deiner CPU bei Spielen gefordert wird. Inwieweit kommst du auf das Anwendungsfeld bezogen auf ein unschlagbares Preis/Leistungsverhältnis wenn 1055t und i5 760 gleichermaßen ins Geld gehen?



Was lässt dich das glauben?


Das günstigere Grundgerüsst solltest du mit bedenken, genau wie die Aussicht, auch einen "besseren" Prozessor nachrüßten zu können. Damit kommen wir zum zweiten: ich weiß nicht ob Bulldozer abwärts kompatibel ist, aber ich nehme an, daß er es nicht sein wird. Was natürlich bei der Entscheidung pro Intel oder pro AMD mit einfließt.

Amun-Re
2010-07-24, 00:20:51
Das günstigere Grundgerüsst solltest du mit bedenken, genau wie die Aussicht, auch einen "besseren" Prozessor nachrüßten zu können.


Der Preisunterschied der meiner Einschätzung nach dann durchaus mal in den Bereich von ~50€ gehen kann ist glaube ich für die meisten die nach der besten Spieleleistung suchen vielleicht noch ein vertretbarer Kompromiss ohne das Budget unverhältnismäßig überstrapazieren zu müssen. Aber wenn man darauf aus ist beide Plattformen auf demselben Preislevel zu erstellen halte ich das für ebenso möglich.

Aber klar Bulldozer insofern er denn tatsächlich abwärtskompatibel daherkommt ist sicher n gewisser Vorteil auf der Habenseite von AMD.
Zwar wirst du in so einem Falle nicht zu dem Upgrade des Motherboards gezwungen aber es kann ja durchaus die Situation eintreten das es auch aus anderen Gründen reizvoll ist mit der möglichen Bulldozer Anschaffung gleich auch das Board auszutauschen je nachdem wie interessant das Feature Set der neuen Chipsätze daherkommt.

NaseWeiss
2010-07-24, 00:30:13
Da wir gerade beim Thema HT sind, auch wenn es nicht explizit in diesen Thread passt: wieso bietet AMD kein HT? Es gab doch mal ein mehr oder weniger inoffizielles Abkommen, daß einer der beiden die Technik des anderen nach einem Jahr übernehmen darf? Siehe 64 Bit Implementierung = AMD Technologie oder SSE = Inteltechnologie? Weiß da einer was drüber?

RainingBlood
2010-07-24, 00:35:19
wurden wäre würde wurm wäre, hast wohl auch schon einiges getrunken was;D

schätze du hast recht :freak:

falls jemand noch die skalierung in starcraft2 mit mehrkernern interessiert, leider fehlt noch der x6 ;(
http://www.tomshardware.com/reviews/blizzard-entertainment-starcraft-ii-benchmark,2611-9.html


Ich finde in dem Test keinerlei Informationen zum dem PhII System, ja nichtmal, ab die selben Treiber verwendet wurden.

NaseWeiss
2010-07-24, 00:36:09
Der Preisunterschied der meiner Einschätzung nach dann durchaus mal in den Bereich von ~50€ gehen kann ist glaube ich für die meisten die nach der besten Spieleleistung suchen vielleicht noch ein vertretbarer Kompromiss ohne das Budget unverhältnismäßig überstrapazieren zu müssen. Aber wenn man darauf aus ist beide Plattformen auf demselben Preislevel zu erstellen halte ich das für ebenso möglich.

Aber klar Bulldozer insofern er denn tatsächlich abwärtskompatibel daherkommt ist sicher n gewisser Vorteil auf der Habenseite von AMD.
Zwar wirst du in so einem Falle nicht zu dem Upgrade des Motherboards gezwungen aber es kann ja durchaus die Situation eintreten das es auch aus anderen Gründen reizvoll ist mit der möglichen Bulldozer Anschaffung gleich auch das Board auszutauschen je nachdem wie interessant das Feature Set der neuen Chipsätze daherkommt.

Wer bei wissentlich 20-30% höherer ProMegaherzLeistung sich für ein AMD System entscheidet, trifft diese Wahl nunmal aus finanziellen und die wenigsten aus idiellen Gründen. Und da kannst du sagen was du willst, ist momentan AMD unangefochten.

Edit:

oder waren sie schon immer ;)

dildo4u
2010-07-24, 00:45:04
Ich finde in dem Test keinerlei Informationen zum dem PhII System, ja nichtmal, ab die selben Treiber verwendet wurden.
CPU Traiber oder was?:rolleyes:Natürlich wurde mit der selben Grafikkarte und Traiber gebencht.

Hier wirds bestätigt Phenom 2 mit 3.4Ghz,deutlich langsammer als i 750 mit 2.6Ghz passen 100% die Werte,die Intel CPU's werden beide sogar noch vorn der Grafikkarte limitiert.
http://www.pcgameshardware.de/aid,705367/Starcraft-2-Beta-13-CPUs-im-Test-AMD-gegen-Intel/Strategiespiel/Test/

RainingBlood
2010-07-24, 00:53:35
es gibt noch etliche andere Faktoren, die die Geschwindigkeit beinflussen:
Wurde der nb-Takt mit angehoben? Was für ein Board wurde verwendet? AM2+ oder Am3? Dementsprechend DDR2 oder 3? Mit welchen Taktraten und Timings?
Ich stelle in erster Linie die Transparenz in Frage, die Testergebnisse an sich spielen keine Rolle für mich.

NaseWeiss
2010-07-24, 01:06:44
Keine Angst, dass wird schon passen;) ich nehm mal an, daß bei dem Spiel auch ein "Intel Inside" oder Ähnliches dich anspringen wird :D Wären doch blöd, wenn sie die Möglichkeit der Unterstützung durch Intelingenieure nicht nutzen würden und das Game trotzdem auf AMD Prozessoren ruckelfrei läuft.

Ist zwar erstmal ne Unterstellung, aber ich nehme trotzdem an, dass es auf Intel-Systeme optimiert ist. Inwieweit dass was ausmacht? Keine Ahnung um das gleich mal vorweg zu nehemen. Zeigen tut es eigentlich nur die Zeit, wo nach ein paar Patches, sich die Leißtung der AMD CPU`s denen der Intel`s nähert. Wäre nicht das erste Spiel ;)

beos
2010-07-24, 07:49:50
CPU Traiber oder was?:rolleyes:Natürlich wurde mit der selben Grafikkarte und Traiber gebencht.

Hier wirds bestätigt Phenom 2 mit 3.4Ghz,deutlich langsammer als i 750 mit 2.6Ghz passen 100% die Werte,die Intel CPU's werden beide sogar noch vorn der Grafikkarte limitiert.
http://www.pcgameshardware.de/aid,705367/Starcraft-2-Beta-13-CPUs-im-Test-AMD-gegen-Intel/Strategiespiel/Test/

Und da wird auch bewiesen, dass ein C2D E6600 genauso schnell ist wie ein C2Q Q6600 ;)

Dann wird hier (Quelle ht4y.net) ja bewiesen, dass ein PII-X6-1090T fast genau so schnell ist, als ein i7-980X. Ist zwar nur mit Povray und der verwendeten Szenerie der Fall - aber egal ... es dient ja meiner Pro-AMD Meinung :freak:

http://img84.imageshack.us/img84/2338/clipboard01ds.jpg

dargo@work
2010-07-24, 07:54:52
Und da wird auch bewiesen, dass ein C2D E6600 genauso schnell ist wie ein C2Q Q6600 ;)

Und wo ist jetzt das Problem? Anscheinend skaliert SC2 nicht über einen DC. Sieht man auch sehr gut am E8400 vs. Q9650.

beos
2010-07-24, 08:08:30
Und wo ist jetzt das Problem? Anscheinend skaliert SC2 nicht über einen DC. Sieht man auch sehr gut am E8400 vs. Q9650.

Das wollte ich mit meinem Post ja auch zeigen. :wink:

Wir sind hier im Fred "Phenom II X6 Fakten statt Flames" und da einen Spiele-Test als Ultimativ-Bsp zu nennen passt einfach nicht.

Wenn ich den verlinkten SC2 Test als vernünftige Überlegung für eine mögliche Aufrüstung meines E8500 zu einem i5-750 nehme - rentieren sich die Plattform-Wechsel-Kosten für eine 20% Steigerung der Average Frames kein bißchen.

dargo@work
2010-07-24, 08:27:11
Das wollte ich mit meinem Post ja auch zeigen. :wink:

Wir sind hier im Fred "Phenom II X6 Fakten statt Flames" und da einen Spiele-Test als Ultimativ-Bsp zu nennen passt einfach nicht.

dildo wollte nur damit die höhere Pro/Mhz-Leistung vom Nehalem/Lynnfield zeigen, mehr nicht. Ihr müsst schon aus dem Zusammenhang lesen.


Wenn ich den verlinkten SC2 Test als vernünftige Überlegung für eine mögliche Aufrüstung meines E8500 zu einem i5-750 nehme - rentieren sich die Plattform-Wechsel-Kosten für eine 20% Steigerung der Average Frames kein bißchen.
In diesem Spiel höchstwahrscheinlich nicht. Aber kaufst du dir für jedes Spiel eine andere CPU? ^^
Ich kann dir genug Beispiele nennen wo ein gleichgetakteter Lynnfield einen Wolfdale/Yorkfield um Längen überholt.

dargo@work
2010-07-24, 09:15:19
Bestes Beispiel? Die extreme Leistungsschwäche bei hohen Auflösungen der Intel Corei7-CPUs. Da zieht AMD ja so richtig böse vorbei (3-4fps avrg). Wenn man dann betrachtet, wie stark ein Corei7 bei SLI oder 800x600 vorne liegt (übrigens identisch, daher muss SLI-praxisfremd sein), muss einem doch klar werden, dass hier das I/O und nicht die CPU ein Problem hat. Wenn man dann noch versteht, dass diese 3-4fps absolut nie spürbar sind, die 30% höhere Leistung in CPU-limitierten Stellen dann aber schon, dann hat man sich viel erkämpft.

Darauf möchte ich noch eingehen, habs leider vergessen.

Der Witz an der Sache ist, dass sich noch keiner die Mühe gemacht hat in den paar Spielen wo das angeblich auftritt zu untersuchen wann genau der AMD nun vorne liegt. Schließlich beziehen sich die Ergebnisse auf die avgs. wo schon alles geglättet ist. Man stelle sich folgendes Szenario vor:

AMD = 54 avg.fps
Intel = 51 avg.fps

Wenn der AMD nur in den Bereichen > 50fps sich von dem Intel etwas absätzen kann ist das nicht so wichtig. Viel wichtiger sind die Verhältnisse in den kritischen Framebereichen, sprich unter diesen ~50fps. Vereinfacht ausgedrückt die max.fps sind weniger wichtig. Das kann man aber nur mit einem Frameverlauf prüfen.

Armaq
2010-07-24, 09:35:06
In dem verlinkten SC-2 Test ist der i7 echt eine üble Granate, aber leider reicht das nicht aus. Geht man vom i7 aus, braucht es mindestens die doppelte Performance für große Schlachten in SC2. Das ist allerdings nur möglich, wenn stärker auf MultiCore optimiert wird. i7 mit 6 Kernen, die auch ausgenutzt werden, sollte reichen.

Gast
2010-07-24, 10:03:22
Alter Latz...knapp 50% mehr Speed. Ihr armen Luxxer und CBler, die treu ihre AMD-Krücken kaufen :freak:
Sorry, aber bei soviel Beratungsresistenz dort musste der Frust mal raus.

Oh, wieder mal ein Fanboyouting. Das AMD das durch den Preis mehr als ausgleicht scheinst du ja schon verdrängt zu haben. Aber immer nur schon die Megaherz vergleichen, wir sind hier ja im Kindergarten. Während man einen Phenom 2 mit 3Ghz schon um 130EUR bekommt zahlt man für den dort getesteten i7 mit 3,06Ghz mal eben über 500EUR.

puntarenas
2010-07-24, 10:35:44
Aber immer nur schon die Megaherz vergleichen, wir sind hier ja im Kindergarten. Während man einen Phenom 2 mit 3Ghz schon um 130EUR bekommt zahlt man für den dort getesteten i7 mit 3,06Ghz mal eben über 500EUR.
Das stimmt natürlich, aber für einen Core i5 760 (~190€) braucht AMD je nach Spiel ungefähr 3600Mhz (30% schlechtere IPC im Mittel, Extrembeispiele außen vor). Das Problem ist halt, dass es solche Prozessoren von AMD überhaupt nicht gibt. Am nächsten kommt dem noch ein X4 965BE, aber da schmilzt der Preisvorteil auch noch zusammen.

Wie wir hier außerdem gesehen haben, ist der vielgepriesene Phenom II X6 1055T aus Spielersicht keine besonders gute Wahl, denn er hat zu wenig Takt und seine zusätzlichen Kerne verpuffen. Die CPU wird in Gamer-Kaufberatungen gern als sehr zukunftssicher beworben, das darf man bezweifeln. Oft wird meiner Meinung nach gezielt manipuliert, indem man die eigene AMD-Affinität in die Beratung eines Dritten einfließen lässt, obwohl dieser nach einer Gamer-CPU und nicht nach einer marktpolitisch korrekten CPU und einem Board mit SATA3 für ein SSD-RAID gefragt hat.

AMDs Leistungsfähigkeit in Spielen ist eben begrenzt. Dass sie im unteren Preisbereich gut aufgestellt sind, bezweifelt ja keiner, aber viele Gamer kaufen halt lieber satte Leistung und behalten ihre Plattform dann für ein paar Jahre, während sie zwischendurch (mehrfach) die Grafikkarte aufrüsten.

190€ sind kein Schnäppchen, aber dennoch fair für einen Prozessor, der für ein paar Jahre viel Freude bereiten wird. Du kannst natürlich auch einen X4 945 nehmen und einmalig 70€ an der CPU sparen, dafür wirst du dann aber entsprechend früher aufrüsten müssen und wirst bis dahin niemals in die Leistungsregionen der Intel-Alternative vorgestossen sein.

Alles eine Frage des Schwerpunkts. Wenn du dem Geld nachtrauerst, kauf das Budget-Angebot. Wenn dir dein Spiele-Rechner (-> Vergnügen, Hobby) 100€ mehr auf ein paar Jahre wert ist, knappse nicht rum. Natürlich gibt es auch noch andere Gründe als die reine Spieleperformance, wegen derer sich Viele für einen AMD-Rechner entscheiden. :smile:

P.S. Der nächste, der erzählt dass ein X6 1055T in vielen Spielsituationen schnell genug ist, kriegt einen Keks und wird für den Ehrentitel Captain Obvious nominiert.

dargo@work
2010-07-24, 10:36:06
In dem verlinkten SC-2 Test ist der i7 echt eine üble Granate, aber leider reicht das nicht aus. Geht man vom i7 aus, braucht es mindestens die doppelte Performance für große Schlachten in SC2.
Das ist ja die Frage. Eventuell skalieren 4 Cores besser bei großen Schlachten? Ob das dann für flüssiges Spielvergnügen reicht sei mal dahingestellt.

boxleitnerb
2010-07-24, 10:46:18
Oh, wieder mal ein Fanboyouting. Das AMD das durch den Preis mehr als ausgleicht scheinst du ja schon verdrängt zu haben. Aber immer nur schon die Megaherz vergleichen, wir sind hier ja im Kindergarten. Während man einen Phenom 2 mit 3Ghz schon um 130EUR bekommt zahlt man für den dort getesteten i7 mit 3,06Ghz mal eben über 500EUR.

Ja, mein Post war extrem. Aber die Ignoranz der meisten, die AMD empfehlen leider auch. Wie oft muss man lesen, dass es keinen Unterschied in Spielen zwischen einem Phenom und einem i5 oder i7 gibt! Was einfach eine glatte Lüge ist von Leuten, die nicht nachdenken können und sich auf wertlose CPU-Benchmarks beziehen. Da werden zwei Zahlen von CB verglichen, die praktisch Null Aussage haben und darauf wird dann herumgeritten.

Wie puntarenas schon gesagt hat, kann man das ja auch eine Stufe drunter vergleichen. Ich würde mir auch keinen 500 Euro Prozessor kaufen - egal ob von AMD oder von Intel.

Ich bin kein Fanboy, ich würde auch AMD kaufen, wenn sie endlich mal aufholen könnten. Ich bin nur deshalb so ausfallend geworden, weil mir Leute, die keinen Grips in der Birne haben und pauschal den Underdog empfehlen, gehörig auf die Eier gehen.

Gast
2010-07-24, 10:49:14
Das stimmt natürlich, aber für einen Core i5 760 (~190€) braucht AMD je nach Spiel ungefähr 3600Mhz (30% schlechtere IPC im Mittel, Extrembeispiele außen vor). Das Problem ist halt, dass es solche Prozessoren von AMD überhaupt nicht gibt. Am nächsten kommt dem noch ein X4 965BE, aber da schmilzt der Preisvorteil auch noch zusammen.

Wie wir hier außerdem gesehen haben, ist der vielgepriesene Phenom II X6 1055T aus Spielersicht keine besonders gute Wahl, denn er hat zu wenig Takt und seine zusätzlichen Kerne verpuffen. Die CPU wird in Gamer-Kaufberatungen gern als sehr zukunftssicher beworben, das darf man bezweifeln. Oft wird meiner Meinung nach gezielt manipuliert, indem man die eigene AMD-Affinität in die Beratung eines Dritten einfließen lässt, obwohl dieser nach einer Gamer-CPU und nicht nach einer marktpolitisch korrekten CPU und einem Board mit SATA3 für ein SSD-RAID gefragt hat.

AMDs Leistungsfähigkeit in Spielen ist eben begrenzt. Dass sie im unteren Preisbereich gut aufgestellt sind, bezweifelt ja keiner, aber viele Gamer kaufen halt lieber satte Leistung und behalten ihre Plattform dann für ein paar Jahre, während sie zwischendurch (mehrfach) die Grafikkarte aufrüsten.

190€ sind kein Schnäppchen, aber dennoch fair für einen Prozessor, der für ein paar Jahre viel Freude bereiten wird. Du kannst natürlich auch einen X4 945 nehmen und einmalig 70€ an der CPU sparen, dafür wirst du dann aber entsprechend früher aufrüsten müssen und wirst bis dahin niemals in die Leistungsregionen der Intel-Alternative vorgestossen sein.

Alles eine Frage des Schwerpunkts. Wenn du dem Geld nachtrauerst, kauf das Budget-Angebot. Wenn dir dein Spiele-Rechner (-> Vergnügen, Hobby) 100€ mehr auf ein paar Jahre wert ist, knappse nicht rum. Natürlich gibt es auch noch andere Gründe als die reine Spieleperformance, wegen derer sich Viele für einen AMD-Rechner entscheiden. :smile:

P.S. Der nächste, der erzählt dass ein X6 1055T in vielen Spielsituationen schnell genug ist, kriegt einen Keks und wird für den Ehrentitel Captain Obvious nominiert.


Naja, man muss schon auch sehen das zukünftige Software mehr und mehr parallelisiert wird. Auch ein Dual-Core war zu Beginn für Spiele überflüssig. Man sieht heute schon das bei gut parallelisierter Software der X6 vor einem i5 760 liegt. Ich behaupte jetzt einfach mal das für heutige Spiele auch ein 1055T mehr als ausreicht und man in Zukunft durch die zusätzlichen Kerne nicht unbedingt schlechter fahren muss als mit einem i5.

dildo4u
2010-07-24, 10:55:32
Den 1055T kann man mit dem Q6600 vergleichen,ist ein Spiel heute ordentlich auf 4 Cores optemiert produziert der immer noch spielbare FPS Werte und liegt weit vor dem E6600 Dual Core.(Nach 3 Jahren mi niedrigem Takt)Genau so wird's imo den 1055 in 2 Jahren gehen.

Liegt Mitte 2010 auf dem Level mit einem Phenom 2 3 Core mit 2.8Ghz oder X4 620.
http://www.pcgameshardware.de/aid,675663/Intel-und-AMD-CPUs-Test-Uebersicht-und-aktuelle-Kauf-Tipps-mit-Spiele-plus-Anwendungs-Index-Juli-2010/CPU/Test/

dargo@work
2010-07-24, 10:56:18
Naja, man muss schon auch sehen das zukünftige Software mehr und mehr parallelisiert wird.
Gehts in diesem Thread um Software, Games oder Beides? Im letzten Fall wird man nie auf einen Nenner kommen.

Ronny145
2010-07-24, 10:56:19
Naja, man muss schon auch sehen das zukünftige Software mehr und mehr parallelisiert wird. Auch ein Dual-Core war zu Beginn für Spiele überflüssig. Man sieht heute schon das bei gut parallelisierter Software der X6 vor einem i5 760 liegt. Ich behaupte jetzt einfach mal das für heutige Spiele auch ein 1055T mehr als ausreicht und man in Zukunft durch die zusätzlichen Kerne nicht unbedingt schlechter fahren muss als mit einem i5.


Glaube ich nicht. Gut parallelisierte Software wird auch auf einem i5 zukünftig ausreichend schnell sein. Probleme machen doch nur Spiele die 1 oder 2 Kerne nutzen.

puntarenas
2010-07-24, 10:57:46
Ich behaupte jetzt einfach mal das für heutige Spiele auch ein 1055T mehr als ausreicht und man in Zukunft durch die zusätzlichen Kerne nicht unbedingt schlechter fahren muss als mit einem i5.
Ich mache mal das Milchmädchen. Wir haben etwa 30% höhere IPC beim Core i5, die zahlt sich immer aus und im Moment gewinnt Intel die Performancevergleiche, weil AMD die zusätzlichen Kerne nicht in Spieleleistung umsetzen kann.

Der X6 1055T hat 50% mehr Kerne, sobald die Spiele also optimal parallelisiert sind hat er ein um ~20% höheres Leistungspotential (er muss erst die höhere IPC des Core i5 einholen). Realistisch betrachtet wird die optimale Auslastung aller sechs Kerne kaum einmal in Spielen erreicht werden, bleibt also bei sehr gut parallelisierten Spielen meinetwegen ein Gleichstand, in allen anderen gewinnt voraussichtlich weiterhin der Core i5. Die Wette auf sehr starke Parallelisierung quer durch die zukünftige Spielelandschaft ist außerdem ungewiss und im Gewinnfall kriegst du bestenfalls deinen Einsatz wieder heraus.

-> No Deal! :frown:

Undertaker
2010-07-24, 11:04:54
falls jemand noch die skalierung in starcraft2 mit mehrkernern interessiert, leider fehlt noch der x6 ;(
http://www.tomshardware.com/reviews/blizzard-entertainment-starcraft-ii-benchmark,2611-9.html

Der Gewinn weiterer zwei Kerne dürfte gegen Null gehen wenn man sieht, wie wenig ein Triple- und Quadcore bringt. Die optimale P/L CPU für SC2 dürfte ein i3 530/540 @ > 4GHz sein. ;)

Gast
2010-07-24, 11:06:38
Ich mache mal das Milchmädchen. Wir haben etwa 30% höhere IPC beim Core i5, die zahlt sich immer aus und im Moment gewinnt Intel die Performancevergleiche, weil AMD die zusätzlichen Kerne nicht in Spieleleistung umsetzen kann.

Der X6 1055T hat 50% mehr Kerne, sobald die Spiele also optimal parallelisiert sind hat er ein um ~20% höheres Leistungspotential (er muss erst die höhere IPC des Core i5 einholen). Realistisch betrachtet wird die optimale Auslastung aller sechs Kerne kaum einmal in Spielen erreicht werden, bleibt also bei sehr gut parallelisierten Spielen meinetwegen ein Gleichstand, in allen anderen gewinnt voraussichtlich weiterhin der Core i5. Die Wette auf sehr starke Parallelisierung quer durch die zukünftige Spielelandschaft ist außerdem ungewiss und im Gewinnfall kriegst du bestenfalls deinen Einsatz wieder heraus.

-> No Deal! :frown:


Wenn die Rahmenbedingungen sonst gleich wäre würde ich dir Recht geben. Aber da bleibt ja noch die günstigere Plattform von AMD, da bleibt ja noch die Tatsache das ich bei AMD meinen DDR2 RAM behalten kann, da bleibt ja noch die Tatsache das Software außerhalb von Spielen heute schon in hohen Ausmaß von den zusätzlichen Kernen profitiert.

Und zu guter Letzt bleibt eben auch noch zu sagen das deine Rechnung wie du schon sagst eben nur eine Milchmädchenrechnung ist. Man sieht heute gerade bei Spielen die stark parallelisiert sind das bsw. ein Dual-Core überproportional stark in die Knie geht. Zu wenig Kerne können da ein unlösbares Problem werden.

puntarenas
2010-07-24, 11:24:52
Man sieht heute gerade bei Spielen die stark parallelisiert sind das bsw. ein Dual-Core überproportional stark in die Knie geht. Zu wenig Kerne können da ein unlösbares Problem werden.
Das bezweifle ich, ich denke Prozessoren mit mehr Kernen skalieren mit entsprechend parallelisierten Games eben sehr schön. Der Dual-Core bricht nicht ein, er hat dann einfach nicht das zusätzliche Leistungspotential der zusätzlichen Kerne, aber das ist ja nun wenig spektakulär. Der Core i5 760 hat aber auch im Falle weitestgehender Parallelisierung nahezu das Leistungsvermögen des Phenom II X6, denn durch seine höhere IPC kann er die beiden zusätzlichen K10.5-Kerne des X6 nahezu egalisieren.

Ich denke, ein gewichtiger Punkt der häufig für die Hexacores ins Feld geführt wird, sind die höheren Minimum FPS. Ich war so frei einen eigenen Thread dafür zu erstellen, um diesen hier nicht durch einen ausufernden OffTopic-Ausflug zu shreddern:

Phenom II X6 minimum FPS - Fraps und ein Fehler im System? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=487968)

dargo@work
2010-07-24, 11:36:42
Ich mache mal das Milchmädchen. Wir haben etwa 30% höhere IPC beim Core i5, die zahlt sich immer aus und im Moment gewinnt Intel die Performancevergleiche, weil AMD die zusätzlichen Kerne nicht in Spieleleistung umsetzen kann.

Der X6 1055T hat 50% mehr Kerne, sobald die Spiele also optimal parallelisiert sind hat er ein um ~20% höheres Leistungspotential (er muss erst die höhere IPC des Core i5 einholen).
Kleine Korrektur - rein rechnerisch sind es keine 20% sondern 15,4%. :-)

dargo@work
2010-07-24, 11:40:08
Man sieht heute gerade bei Spielen die stark parallelisiert sind das bsw. ein Dual-Core überproportional stark in die Knie geht. Zu wenig Kerne können da ein unlösbares Problem werden.
Wo ist das heute der Fall? Denn, das wäre eventuell die Antwort hierfür:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=487968

NaseWeiss
2010-07-24, 11:47:26
Jetzt mach ich mal ne Milchmädchenrechnung auf ;):

Mittlerweile weiß jeder, dass die i7 oder i5 (in Games) 20-30% im Schnitt bei gleichem Takt schneller sind. Jeder weiß auch, daß eine GTX470/5870 im Schnitt 20-30% schneller sind als eine GTX460/5850. Deshalb kauft aber trotzdem nicht Jeder die schnellere Karte weil eben der Preis für die gebotene Leißtung (und andere Faktoren wie weiter oben beschrieben) für viele Ausschlaggebend ist.
Somit ist jemand, der einem anderen empfiehlt, auf ein AMD zu setzen kein Depp/unwissend oder sonstwas sondern der jenige der sowas behauptet!

boxleitnerb
2010-07-24, 11:54:41
Völlig richtig. Nur der ist unwissend, der die falsche Begründung, warum er AMD empfiehlt, ständig wiederholt. Nämlich dass es in Spielen keinen Unterschied gibt. Und diese Begründung kommt von eigentlich mindestens 80% der Hardwareberater in Foren.

puntarenas
2010-07-24, 11:57:16
Kleine Korrektur - rein rechnerisch sind es keine 20% sondern 15,4%. :-)
Thx, da hat mir das "ungefähr" nochmal den Hintern gerettet. ;D

NaseWeiss
2010-07-24, 12:04:02
Völlig richtig. Nur der ist unwissend, der die falsche Begründung, warum er AMD empfiehlt, ständig wiederholt. Nämlich dass es in Spielen keinen Unterschied gibt. Und diese Begründung kommt von eigentlich mindestens 80% der Hardwareberater in Foren.

Da mußt du aber mit bedenken, daß in einer Auflösung von 1680x1050 und aufwärts die Grafikkarte in weit über 90% aller Games der limitierende Faktor ist. Somit kann man auch die Aussage, "daß ein AMD System nicht langsamer ist" auch bedingt gelten lassen, denn wer spielt schon noch in 800x600?

Amun-Re
2010-07-24, 12:09:41
Hier geht es zunächst mal um zwei Prozessoren die sich preislich auf ein und demselben Niveau befinden. Das bildet logischerweise die Basis um überhaupt einen Vergleich heranzuziehen weil sonst würde sich natürlich zwangsläufig die Frage stellen, steht der Aufpreis von CPU_A gegenüber CPU_B in einem Verhältnis zur Mehrleistung die ich mir damit erkaufe.

Wenn du die Gleichung um die Plattformkosten erweiterst ist das zweifellos n probates Mittel um deine Argumentation zu stützen allerdings ist es ein Irrglaube das die LGA1156 Plattform bedingungslos mehr kosten muss.

Nur weil gängige Konfigurationsvorschläge für AMD Systeme beispielsweise ein http://geizhals.at/deutschland/a532267.html vorschlagen und für Intel Systeme hingegen http://geizhals.at/deutschland/a477655.html spricht das nicht für generell höhere Anschaffungskosten.

Auch auf LGA1156 basierend liegt es im Bereich des Machbaren die Plattformkosten des AMD Systems nicht zu übersteigen.

http://geizhals.at/deutschland/a532267.html
http://geizhals.at/deutschland/a457437.html

Bei Grafikkarten hast du faktisch einen gewissen Mehrpreis über alle Hersteller hinweg (bezogen auf deinen Vergleich) der je nach Ausstattung unterschiedlich ausfällt. Bei Motherboards hingegen ist es wie du siehst ohne weiteres möglich sich anzunähern auch wenn man über die Ausstattungsdefizite des verlinkten Asrock P55 gegenüber seinem AMD Pendant diskutieren kann ändert das nichts an der Tatsache das um die Leistung eines i5 760 abrufen zu können NICHT mehr Geld investiert werden muss als für ein AMD System auch außerhalb der Kostenbetrachtung für die CPU.


nicht langsamer ist" auch bedingt gelten lassen, denn wer spielt schon noch in 800x600?


Niemand und das soll auch so bleiben. In niedrigen Auflösungen zu benchen dient lediglich dazu die CPU als relevanten und lmitierenden Faktor in SpielePCs aufzuzeigen.
Das heißt nicht du sollst dir n i5 760 kaufen und zukünftig nur noch in 800x600 Spielen aber es belegt das wenn immer die CPU besonders gefordert wird (was auch in nativen Auflösungen gängiger TFTs der Fall sein kann) dieser Vorteil in seiner Verhältnismäßigkeit ähnlich zum tragen kommen kann und dir im Endeffekt das bessere Resultat liefert. Benchmarkergebnise sind wenn mans wissenschaftlich betreibt wohl nur dann verwertbar wenn man die dahinter stehenden Messmethoden hinterfragt.

NaseWeiss
2010-07-24, 12:15:01
Hier geht es zunächst mal um zwei Prozessoren die sich preislich auf ein und demselben Niveau befinden. Das bildet logischerweise die Basis um überhaupt einen Vergleich heranzuziehen weil sonst würde sich natürlich zwangsläufig die Frage stellen, steht der Aufpreis von CPU_A gegenüber CPU_B in einem Verhältnis zur Mehrleistung die ich mir damit erkaufe.

Wenn du die Gleichung um die Plattformkosten erweiterst ist das zweifellos n probates Mittel um deine Argumentation zu stützen allerdings ist es ein Irrglaube das die LGA1156 Plattform zwangsläufig mehr kosten muss.

Nur weil gängige Konfigurationsvorschläge für AMD Systeme beispielsweise ein http://geizhals.at/deutschland/a532267.html vorschlagen und für Intel Systeme hingegen http://geizhals.at/deutschland/a477655.html spricht das nicht für generell höhere Anschaffungskosten.

Auch auf LGA1156 basierend liegt es im Bereich des Machbaren die Plattformkosten des AMD Systems nicht zu übersteigen.

http://geizhals.at/deutschland/a532267.html
http://geizhals.at/deutschland/a457437.html

Bei Grafikkarten hast du faktisch einen gewissen Mehrpreis über alle Hersteller hinweg der je nach Ausstattung unterschiedlich ausfällt. Bei Motherboards hingegen ist es wie du siehst ohne weiteres möglich sich anzunähern auch wenn man über die Ausstattungsdefizite des verlinkten Asrock P55 gegenüber seinem AMD Pendant diskutieren kann ändert das nichts an der Tatsache das um die Leistugn eines i5 760 abrufen zu können NICHT mehr Geld investiert werden muss als für ein AMD System auch außerhalb der Kostenbetrachtung für die CPU.

Ich weiß nicht warum ich alles nochmal beschreiben soll? steht doch alles schon weiter oben...

dargo@work
2010-07-24, 12:16:24
Da mußt du aber mit bedenken, daß in einer Auflösung von 1680x1050 und aufwärts die Grafikkarte in weit über 90% aller Games der limitierende Faktor ist. Somit kann man auch die Aussage, "daß ein AMD System nicht langsamer ist" auch bedingt gelten lassen, denn wer spielt schon noch in 800x600?
Jetzt geht das wieder los. *andenkopffass*