Archiv verlassen und diese Seite im Standarddesign anzeigen : Nehalem-Architektur unter 3D-Last: Wo ist der Flaschenhals?
Ich möchte mir zu Weihnachten einen neuen Rechner zulegen und lese mich daher durch diverse Reviews durch. Geplant war bzw. ist im Prinzip immer noch ein i5-750. Nun bin ich aber auf etwas gestoßen, was mich reichlich verunsichert.
Computerbase, Far Cry 2, 640 x 480, low details: http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/30/#abschnitt_far_cry_2
Core i5-750, 2,66 GHz, DDR3-1333, Turbo aus: 168 FPS
Phenom II X4 965 BE, 3,40 GHz, DDR3-1333, AMD 790FX: 121 FPS
Der kleine i5-750 ist unter diesen Bedingungen sage und schreibe 39 % schneller als der schnellste AMD. Nun kommt's aber: http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/23/#abschnitt_far_cry_2
Far Cry 2, 1280 x 1024, max details, min. FPS:
Core i5-750, 2,66 GHz, DDR3-1333, Turbo aus: 55 FPS
Phenom II X4 965 BE, 3,40 GHz, DDR3-1333, AMD 790FX: 64 FPS
Stellt man die Auflösung und die Detailstufe höher, ist urplötzlich der Phenom II nicht mehr langsamer, sondern 16 % schneller!
2. Beispiel: World in Conflict: http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/31/#abschnitt_world_in_conflict
World in Conflict, 800 x 600, low details:
Core i5-750, 2,66 GHz, DDR3-1333, Turbo aus: 502 FPS
Phenom II X4 965 BE, 3,40 GHz, DDR3-1333, AMD 790FX: 417 FPS
Der kleine i5-750 ist 20 % schneller.
World in Conflict, 1280 x 1024, max details, 4x AA / AF, min. FPS: http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/27/#abschnitt_world_in_conflict
Core i5-750, 2,66 GHz, DDR3-1333, Turbo aus: 28 FPS
Phenom II X4 965 BE, 3,40 GHz, DDR3-1333, AMD 790FX: 31 FPS
Plötzlich ist der Phenom 11 % schneller.
Nun könnte man ja evtl. vermuten, dass bei Computerbase irgendwo der Wurm drin ist, aber dann schaut euch mal andere Reviews an, die exakt das gleiche Bild abliefern: http://www.hardware-infos.com/tests.php?test=74&seite=7
Far Cry 2 Avg-FPS (800x600, 1xAA / 1xAF)
Intel Core i5 750: 102,70 FPS
AMD Phenom II X4 965: 104,45 FPS
Unter geringer Auflösung sind der kleinste Lynnfield und der größte Phenom gleichauf. Erhöht man die Auflösung und schaltet AA + AF ein, passiert Folgendes:
Far Cry 2 Avg-FPS (1680x1050, 4xAA / 16xAF)
Intel Core i5 750: 46,24 FPS
AMD Phenom II X4 965: 54,02 FPS
Der Phenom ist auf einmal 17 % schneller!
Dieser Einbruch findet sowohl beim i5, als auch beim i7, sowohl auf S.1156, als auch auf S.1366 statt. Allesamt brechen die Nehalem-CPUs bei höheren Auflösungen ein, wo sie bei niedrigeren Auflösungen noch haushoch dominierten. So kommen Computerbase und Hardware-Infos auf recht ähnliche Performaceratings für Spiele: die AMDs sind schneller.
Um zu zeigen, dass es vermutlich kein SMT-Problem ist, habe ich hier exemplarisch den i5-750 aufgeführt.
Gibt es eine Erklärung für dieses Phänomen?
StefanV
2009-12-12, 20:33:52
Gibt es eine Erklärung für dieses Phänomen?
Nein, da sich niemand diesem "Problem" annehmen wird und dem auf den Grund gehen werden wird.
Im P3D gibts einen Thread, wo der Core i7 beim Transfer übern PCIe nicht ganz so flott ist wie 'alles andere', das kann schon die Ursache sein.
dargo
2009-12-12, 20:39:56
Gibt es eine Erklärung für dieses Phänomen?
Ich vermute immer noch die Stromsparmechanismen beim i5/i7. Da unter einem GPU-Limit die CPU nicht so gefordert wird ist es gar nicht mal so unlogisch. Gibt es verläßliche Benchmarks vom i5/i7 vs. Phenom II wo alle Stromsparmechanismen deaktiviert sind?
Exxtreme
2009-12-12, 21:01:52
Nein, da sich niemand diesem "Problem" annehmen wird und dem auf den Grund gehen werden wird.
Im P3D gibts einen Thread, wo der Core i7 beim Transfer übern PCIe nicht ganz so flott ist wie 'alles andere', das kann schon die Ursache sein.
Aber auch nur wenn man sehr viele Daten zur Grafikkarte schaufeln muss. Glaube nicht, daß das die Ursache ist. Dieser Effekt müsste nämlich mit mehr Grafikspeicher geringer werden.
Ich persönlich habe leider auch keine plausible Erklärung für dieses Phänomen. Glaube auch nicht, daß das am Stromsparmodus liegt. Ausser dieser läuft Amok.
mapel110
2009-12-12, 21:15:23
Ist das mal mit einer ATI-Grafikkarte nachgeprüft worden?
Könnte mir jedenfalls vorstellen, dass es was mit nvidia-Treiber-Optimierungen zu tun hat.
Aber auch nur wenn man sehr viele Daten zur Grafikkarte schaufeln muss. Glaube nicht, daß das die Ursache ist. Dieser Effekt müsste nämlich mit mehr Grafikspeicher geringer werden.
Ich persönlich habe leider auch keine plausible Erklärung für dieses Phänomen. Glaube auch nicht, daß das am Stromsparmodus liegt. Ausser dieser läuft Amok.
nein mit PCIE-Limit hat das nix zutun, sonst müßte der i7 ja bei schnelleren Grakas limitieren.
i7+HD5970 zeigen doch deutlich was Leistungsmäßig die Spitze darstellt.
http://www.legionhardware.com/document.php?id=869
Ist das mal mit einer ATI-Grafikkarte nachgeprüft worden?
Könnte mir jedenfalls vorstellen, dass es was mit nvidia-Treiber-Optimierungen zu tun hat.
Laut dem Link von Gast #6 tritt ein ähnlich komischer Effekt auch bei ATi-Grafikkarten auf. Siehe Far Cry 2.
i7: http://www.legionhardware.com/document.php?id=869&p=8
Phenom II: http://www.legionhardware.com/document.php?id=869&p=20
Während beim i7 die FPS von 47 auf bis zu 49 (4 %) steigen zwischen 2,0 GHz und 4,0 GHz, steigen sie beim Phenom von 46 auf bis zu 52 (13 %). Während der AMD also selbst bei derart extremen Settings (2560 x 1600, 8x AA) immer noch um 13 % reagiert, tut sich bei Intel quasi nichts.
dargo
2009-12-12, 21:32:32
Glaube auch nicht, daß das am Stromsparmodus liegt. Ausser dieser läuft Amok.
Wurde schon das Gegenteil bewiesen? Ich meine es wird sich doch jemand erbarmen und den i5/i7 vs. Phenom II ohne Stromsparmodis testen. Sowohl bei Intel als auch AMD.
Beim S775 bremst selbst schon EIST geringfügig. Für Benchmarks deaktiviere ich selbst C1E. Bei den ganzen zusätzlichen Stromsparmodis die es beim i5/i7 gibt würde mich das gar nicht wundern.
san.salvador
2009-12-12, 21:34:28
Ich such und such, aber ich finde hier keine 1280er Benchmarks. :|
Oder mal Crysis betrachten:
i7: http://www.legionhardware.com/document.php?id=869&p=7
Phenom II: http://www.legionhardware.com/document.php?id=869&p=19
Eine Taktverdopplung führt gerade mal zu + 3 FPS (+ 7,5 %) beim i7. Beim Phenom II führt eine Taktverdopplung zu + 11 FPS (+ 34 %).
san.salvador
2009-12-12, 21:38:15
Oder mal Crysis betrachten:
i7: http://www.legionhardware.com/document.php?id=869&p=7
Phenom II: http://www.legionhardware.com/document.php?id=869&p=19
Eine Taktverdopplung führt gerade mal zu + 3 FPS (+ 7,5 %) beim i7. Beim Phenom II führt eine Taktverdopplung zu + 11 FPS (+ 34 %).
GraKa-Limit.
Spitzenvergleich. :ugly:
StefanV
2009-12-12, 21:46:53
Ja, das ist ja auch der Sinn: welche CPU ist schneller, am GraKa limit ;)
GraKa-Limit.
Spitzenvergleich. :ugly:
Warum tut sich beim i7 ab 2,6 GHz bis 4,0 GHz absolut nichts mehr, während beim Phenom noch ein 8-%-Unterschied zwischen 2,8 GHz und 3,6 GHz besteht? Beim Phenom bringt eine Takterhöhung von 31 % immerhin selbst bei diesen Settings eine Mehrleistung von 8 %, bei Intel bringt eine 54 %-Takterhöhung genau 0 %.
san.salvador
2009-12-12, 22:07:26
Warum tut sich beim i7 ab 2,6 GHz bis 4,0 GHz absolut nichts mehr, während beim Phenom noch ein 8-%-Unterschied zwischen 2,8 GHz und 3,6 GHz besteht? Beim Phenom bringt eine Takterhöhung von 31 % immerhin selbst bei diesen Settings eine Mehrleistung von 8 %, bei Intel bringt eine 54 %-Takterhöhung genau 0 %.
:facepalm:
Matrix316
2009-12-12, 22:12:07
Ähm, der letzte Bench zeigt doch nur, dass die Graka nicht mehr bringt. Zwischen 3,6 Phenom 2 und 4 GHz Phenom 2 gibts ja auch keinen Unterschied mehr. Da würde selbst ein 6 GHz Phenom 2 keine zusätzlichen FPS hervorbringen.
=Floi=
2009-12-12, 22:15:37
das thema wurde hier schon diskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=457622
es gab imho noch 2-3 threads wo das thema angesprichen wurde. diese finde ich aber leider nicht mehr.
=Floi=
2009-12-12, 22:18:49
Warum tut sich beim i7 ab 2,6 GHz bis 4,0 GHz absolut nichts mehr, während beim Phenom noch ein 8-%-Unterschied zwischen 2,8 GHz und 3,6 GHz besteht? Beim Phenom bringt eine Takterhöhung von 31 % immerhin selbst bei diesen Settings eine Mehrleistung von 8 %, bei Intel bringt eine 54 %-Takterhöhung genau 0 %.
weil die grafikkarte schon so extrem limitiert, dadurch ist durch die cpu keine weitere steigerung mehr möglich. die gpu bremst die fps so stark ein, dass quasi IMMER die cpu warten muß!
man kann eine gpu oder cpu immer nur dann richtig testen, wenn die andere komponente nicht limitiert.
dargo
2009-12-12, 22:20:23
Oder mal Crysis betrachten:
i7: http://www.legionhardware.com/document.php?id=869&p=7
Phenom II: http://www.legionhardware.com/document.php?id=869&p=19
Eine Taktverdopplung führt gerade mal zu + 3 FPS (+ 7,5 %) beim i7. Beim Phenom II führt eine Taktverdopplung zu + 11 FPS (+ 34 %).
Ich glaube du bewertet das Thema falsch. Dass der Phenom II bei einer Taktverdoppellung prozentual erheblich mehr zulegt liegt einfach daran, dass die Pro/Mhz-Leistung vom i7 erheblich größer ist womit selbst beim i7@2Ghz die Grafikkarte in dem Testsetting von legionhardware nahe an 100% limitiert. Beim Phenom II@2Ghz verschieben sich die Limits stärker Richtung CPU, was man auch wunderbar an den Frames von Phenom II@2Ghz sehen kann.
Erst wenn der Phenom II mehr Frames als der i7 liefert stimmt was nicht.
Edit:
Übrigens - am Test von legionhardware sieht man wunderbar, dass beim 100%-igen GPU-Limit beide CPUs nicht über 43fps kommen. Also wo ist der i7 nun in GPU-Limits langsamer als ein Phenom II?
Ah, ok. Habe mir die anderen Benchmarks nicht angeschaut. Bei FC2 sinds 49 vs. 52fps. Hmm... interessant, dass es wohl spielabhängig ist. :uponder:
Ronny145
2009-12-12, 22:40:42
Bei Far Cry 2 ist das "Problem" schon lange bekannt, man sollte das nicht als Beispiel hernehmen.
dargo
2009-12-12, 22:44:40
Bei Far Cry 2 ist das "Problem" schon lange bekannt, man sollte das nicht als Beispiel hernehmen.
Wie? Tanzt wirklich nur FC2 leicht aus der Reihe? Und deswegen das ganze Theater in zig Threads? :upicard:
Ronny145
2009-12-12, 22:46:29
Wie? Tanzt wirklich nur FC2 leicht aus der Reihe? Und deswegen das ganze Theater in zig Threads? :upicard:
Ich will nicht für alle Spiele sprechen, aber bei Far Cry 2 ganz besonders. Wurde schon oft thematisiert, dass Farc Cry 2 und Nehalem nicht so gut funktionieren.
Warum tut sich beim i7 ab 2,6 GHz bis 4,0 GHz absolut nichts mehr, während beim Phenom noch ein 8-%-Unterschied zwischen 2,8 GHz und 3,6 GHz besteht? Beim Phenom bringt eine Takterhöhung von 31 % immerhin selbst bei diesen Settings eine Mehrleistung von 8 %, bei Intel bringt eine 54 %-Takterhöhung genau 0 %.
Wenn du dir diese Frage irgendwann mal selbst beantorten kannst wirst du sicher sehr erstaunt sein ;D
Dieser Effekt müsste nämlich mit mehr Grafikspeicher geringer werden.
Dynamische Daten müssen jeden Frame über den PCIe-Bus. Ich habe auch schon länger das I/O-Subsystem bei diesem Problem im Verdacht.
Botcruscher
2009-12-12, 23:43:41
Wenn du dir diese Frage irgendwann mal selbst beantorten kannst wirst du sicher sehr erstaunt sein ;D
Ich bin erstaunt darüber warum das GPU-Limit beim P2 höher liegt als beim I7. Also?
Dynamische Daten müssen jeden Frame über den PCIe-Bus. Ich habe auch schon länger das I/O-Subsystem bei diesem Problem im Verdacht.
Das wäre immerhin mal eine Antwort jenseits von "da ist angeblich ein 100% Limit".
Ich bin erstaunt darüber warum das GPU-Limit beim P2 höher liegt als beim I7. Also?
Der Ph2 ist aber deutlich häufiger langsamer im GPU-Limit als der i7, doch das stört niemanden, stattdessen wird gerätselt warum das in 1-2 Spoelen nicht der Fall ist. Und ausgerechnet in diesen Games profitiert der i7 so gut wie garnicht von Takterhöhungen. Komisch oder?
Und was fällt noch auf? Der Ph2 legt nicht linear zu bei Takterhöhungen, nein ab einer gewissen Taktrate springt der rel. Abstand zur vorherigen Taktrate, dann bleibt sie wieder rel. konstant.... Sieht auch nach einem anderen Limit aus.
Das wäre immerhin mal eine Antwort jenseits von "da ist angeblich ein 100% Limit".
Es fehlen Benches im GPU-Limit mit veränderter QPI-Bandbreite, RAM-Bestückung etc... Takt und HT alleine kanns nicht sein.
Undertaker
2009-12-13, 00:08:14
Öhm, also gerade wenn ich Legionhardware betrachte, sehe ich dort auch einige Fälle, wo der i7 im GPU-Limit führt - das scheint wohl ein gegenseitiges "Problem" zu sein, falls man das Thema nicht komplett unter Messschwankung bzw. Fehler abhaken muss. ;) Ausnahme evntl. FC2, dort scheint dem i5/i7 wirklich etwas nicht ganz so zu schmecken.
Mal wieder ein anderer interessanter Test:
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_4.html#sect0
Hier gibts im GPU-Limit keine wirklichen Unterschiede. Interessant ist aber das CPU-Limit, gerade wenn man mal den 2,7GHz i7 mit dem 4,1GHz X4 vergleicht. :o
Exxtreme
2009-12-13, 00:13:26
Dynamische Daten müssen jeden Frame über den PCIe-Bus. Ich habe auch schon länger das I/O-Subsystem bei diesem Problem im Verdacht.
Dazu müsste der PCIe-Bus aber schon ordentlich ausgelastet sein damit das eine Auswirkung hat. Oder aber der PCIe-Bus hat extrem schlechte Latenzen. Nur würde sich das auch in anderen Szenarien auswirken.
Hier gibts im GPU-Limit keine wirklichen Unterschiede. Interessant ist aber das CPU-Limit, gerade wenn man mal den 2,7GHz i7 mit dem 4,1GHz X4 vergleicht. :o
Interessant sind eher die min FPS im "GPU Limit" (sind die min FPS hier überhaupt noch GPU limit?)
http://666kb.com/i/bewjjn91hryvpb3i4.gif
da scheint aber was ganz derb zu klemmen beim PhenomII X4
Dazu müsste der PCIe-Bus aber schon ordentlich ausgelastet sein
Nö. Es müssen nur die Latenzen signifikant höher sein. Der Durchsatz sollte tatsächlich das kleinere Problem sein.
Undertaker
2009-12-13, 00:33:58
Interessant sind eher die min FPS im "GPU Limit" (sind die min FPS hier überhaupt noch GPU limit?)
http://666kb.com/i/bewjjn91hryvpb3i4.gif
da scheint aber was ganz derb zu klemmen beim PhenomII X4
Gerade bei den min-fps können sich Leistungssteigerungen geradezu exponentiell auswirken - gerade hier sieht man immer wieder, dass eben nicht jede aktuelle QC-CPU ausreichend schnell für jede Lebenslage ist.
Etwas vorsichtig musst du aber sein, einige Spiele wie z.B. Dawn of War haben bei XBit zu stark schwankende Minimalwerte produziert, um diese sauber auswerten zu können. Die Tendenz ist aber klar: Die schnellste CPU im Schnitt hat auch die höchsten min-fps, Differenzen werden zudem noch stärker herausgearbeitet.
Interessant sind eher die min FPS im "GPU Limit" (sind die min FPS hier überhaupt noch GPU limit?)
http://666kb.com/i/bewjjn91hryvpb3i4.gif
da scheint aber was ganz derb zu klemmen beim PhenomII X4
Du nix speak Engrisch ?
The use of different system memory, DDR3 for the Intel Core i7 platform and DDR2 for the AMD Phenom II X4 platform, makes it impossible to compare these two platforms directly.And such a comparison was not in the scope of the test session.
(...)
One more pitfall for the AMD platform in this test session was PCI Express. The Gigabyte GA-MA790GP-DS4H mainboard is based on the AMD 790GX chipset which supports two ATI Radeon cards in CrossFireX only as PCIe x16 + PCIe x8, as opposed to both platforms from Intel which support two PCIe x16. I can’t say definitely if this provokes a performance hit on the AMD platform because I could not carry out a comparative test on a mainboard with the AMD 790FX chipset (supports two PCIe x16). I’m going to keep this fact in mind when analyzing the results.
Du nix speak Engrisch ?
Ich speake anglistisch very well
du glaubst doch nicht ernsthaft das der Unterschied zw.
DDR2 und DDR3 Ram einen Unterschied von 100% bis zu 200% bei den min FPS ausmacht?
Wo doch jeder aus Praxiserfahrungen weiß das der Memory Overclock sich kaum bemerkbar macht.
Ich speake anglistisch very well
du glaubst doch nicht ernsthaft das der Unterschied zw.
DDR2 und DDR3 Ram einen Unterschied von 100% bis zu 200% bei den min FPS ausmacht?
Wo doch jeder aus Praxiserfahrungen weiß das der Memory Overclock sich kaum bemerkbar macht.
Schau Dir mal die Werte an, ein Core2 DUO ist angeblich schneller als ein Phenom2 QuadCore. Und das obwohl WiC überall als Multicore optimiert angepriesen wird. Zumindest steht das auf Intels Sponsor Seite:
World in Conflict is one of the hottest new titles to be released this year, and Intel have worked closely with Massive Entertainment to ensure that their latest game development was fully optimized for Core 2 technology. Sure enough, World in Conflict uses the latest advances in multi-threading to take full advantage of Intel® Core™2 Quad processors.
http://game-on.intel.com/eng/games/wic/playerguide1/default.aspx
Ein Schelm der böses dabei denkt ...
Bevor wir da weiterreden will ich erst mal a) Den Windows Thread Auslastungsgraphen bei AMD & Intel und b) eine Übersicht der benützten Instruktionen von AMD CodeAnalyzer bzw. Intel VTune sehen.
ciao
Alex
Matthias2x
2009-12-13, 11:28:36
Tests hin oder her, ich würde keine 9800 GTX+ in ein i5/i7 basiertes System stecken. Das passt nicht ganz zueinander. Ich denke mit ATI ab 4890 oder GF ab GTX 260 wird man da glücklicher und setzt sich in dem Fall auch deutlich vom C2D/Q und auch Phenom ab. Scheinbar braucht der i5/i7 eine potente GPU um richtig in die Hufe zu kommen ... siehe auch hier, die News ist zwar schon älter, dürfte aber sicher nicht ganz unrelevant sein -> http://www.hardware-infos.com/news.php?news=2503
Tests hin oder her, ich würde keine 9800 GTX+ in ein i5/i7 basiertes System stecken. Das passt nicht ganz zueinander. Ich denke mit ATI ab 4890 oder GF ab GTX 260 wird man da glücklicher und setzt sich in dem Fall auch deutlich vom C2D/Q und auch Phenom ab. Scheinbar braucht der i5/i7 eine potente GPU um richtig in die Hufe zu kommen ... siehe auch hier, die News ist zwar schon älter, dürfte aber sicher nicht ganz unrelevant sein -> http://www.hardware-infos.com/news.php?news=2503
uha, gerade die NV knicken beim i5/i7 mehr im GPU-Limit ein als beim Ph2/Core2.
Nein wenn dann ATI5000, alles drunter ist auf einem i5/i7 verschenkte Leistung [im GPU-Limit].
Ich Tippe auf die C-States. Das wurde doch schon gemessen. Am GPU-Limit schaltet Nehalem einzelne Kerne ab und bekommt dann Probleme wenn die Leistung gebraucht wird, da das Wakeup zu C0 zu lange dauert.
Maximale Leistung --> EIST/C1E kann an bleiben aber C3/C6 aus.
Matthias2x
2009-12-13, 12:16:09
hd 5000´er serie wäre wohl derzeit optimal, wenn da nicht das derzeitige lieferproblem wäre. aber nichts anderes wollte ich zum ausdruck bringen. nehalem braucht eben eine potente gpu damit die post abgeht.
Ronny145
2009-12-13, 12:28:35
Schau Dir mal die Werte an, ein Core2 DUO ist angeblich schneller als ein Phenom2 QuadCore. Und das obwohl WiC überall als Multicore optimiert angepriesen wird. Zumindest steht das auf Intels Sponsor Seite:
WiC profitiert kaum von Quadcores, was ja kein Geheimnis ist. Du solltest dich weniger vom Marketing leiten lassen.
dargo
2009-12-13, 12:51:31
Ich Tippe auf die C-States. Das wurde doch schon gemessen. Am GPU-Limit schaltet Nehalem einzelne Kerne ab und bekommt dann Probleme wenn die Leistung gebraucht wird, da das Wakeup zu C0 zu lange dauert.
Maximale Leistung --> EIST/C1E kann an bleiben aber C3/C6 aus.
Sag ich doch. Wobei auch EIST schon bremst.
Nochmal meine Frage an alle - gibt es Benchmarks in GPU-Limits wo sämliche Stromsparmodis deaktiviert sind? Ansonsten macht es keinen Sinn weiter darüber zu spekulieren.
PS: es gibt soviele User hier im Forum mit einem i5/i7 und Phenom II. Es dürfte wohl nicht so schwer sein dem nachzugehen. :cool: Hätte ich ein entsprechendes System würden wir schon lange Ergebnisse vom i5/i7 haben.
Frank1974
2009-12-13, 13:20:30
PS: es gibt soviele User hier im Forum mit einem i5/i7 und Phenom II. Es dürfte wohl nicht so schwer sein dem nachzugehen. :cool: Hätte ich ein entsprechendes System würden wir schon lange Ergebnisse vom i5/i7 haben.
Was für Tests möchtest du denn?
Ich würde das schon machen, wenn ich die Games habe, und beschreib mir wie ich jedes Game testen soll.
mfg
Frank
dargo
2009-12-13, 13:25:39
Was für Tests möchtest du denn?
Ich würde das schon machen, wenn ich die Games habe, und beschreib mir wie ich jedes Game testen soll.
mfg
Frank
Da es hier um GPU-Limits geht ist es praktisch völlig egal. X-beliebige Timedemos reichen völlig aus. Wichtig ist nur, dass jeder User die gleiche Grafikkarte hat. Kannst du eigentlich bei dir eine GPU komplett deaktivieren? Dann könnten wir schon mal Yorkfield vs. i5 vergleichen, schließlich habe ich auch eine GTX260.
Frank1974
2009-12-13, 13:33:17
Da es hier um GPU-Limits geht ist es praktisch völlig egal. X-beliebige Timedemos reichen völlig aus. Wichtig ist nur, dass jeder User die gleiche Grafikkarte hat. Kannst du eigentlich bei dir eine GPU komplett deaktivieren? Dann könnten wir schon mal Yorkfield vs. i5 vergleichen, schließlich habe ich auch eine GTX260.
Ja kann ich deaktivieren, aber die GTX295 hat 240 Shader, müsste man das auch noch regeln.
mfg
Frank
dargo
2009-12-13, 13:37:36
Ja kann ich deaktivieren, aber die GTX295 hat 240 Shader, müsste man das auch noch regeln.
Ätsch... nee dann muss sich ein anderer User für die Tests bereit stellen. Es sollte schon exakt die gleiche Karte sein. Zumindest mit gleichen SPs etc. Taktraten kann man in der Regel noch gut anpassen.
Frank1974
2009-12-13, 13:46:05
Ätsch... nee dann muss sich ein anderer User für die Tests bereit stellen. Es sollte schon exakt die gleiche Karte sein. Zumindest mit gleichen SPs etc. Taktraten kann man in der Regel noch gut anpassen.
Dachte ich mir schon, das es wegen den Shader nicht geht, aber bei so vielen Usern hier, müsste schon jemand dabei sein mit einer GTX260 und i5/i7:smile:
mfg
Frank
dargo
2009-12-13, 13:51:26
Dachte ich mir schon, das es wegen den Shader nicht geht, aber bei so vielen Usern hier, müsste schon jemand dabei sein mit einer GTX260 und i5/i7:smile:
Wobei ich nur mit der alten 192 SPs GTX260 dienen kann. Eine mit 216 SPs scheidet also auch schon aus.
Wir könnten mal ne Umfrage im Benchmark-Forum starten. Vielleicht finden sich so paar Freiwillige?
wollte gerade schreiben das ich was testen könnte...aber ich hab die 216SP GTX260
Ph0b0ss
2009-12-13, 14:50:26
Hab eine GTX 285, geht also auch schlecht.
Aber ich habe mal Resident Evil 5 Benchmark und Savegame mit und ohne Stromsparmodi des i7 im GPU-Limit getestet (Windows 7). Praktisch kein Unterschied, Schwankungen +-2%, mal das Eine mal das Andere schneller.
Könnte aber an Vista in Verbindung mit aktivierten HT liegen, das der i7 hin und wieder zu langsam im GPU-Limit ist. Viele Tests im Netz wurden ja unter Vista gemacht. Gerade bei Spielen die nur 2 Kerne nutzen kann das krasse Auswirkungen haben, wenn dann nur 2 virtuelle Kerne desselben Kerns genutzt werden.
WiC profitiert kaum von Quadcores, was ja kein Geheimnis ist. Du solltest dich weniger vom Marketing leiten lassen.
Also hier ist ein Q9450 (2,66GHz) genausoschnell wie ein E8500 mit 3,16GHz:
http://www.tomshardware.com/de/charts/desktop-cpu-charts-q3-2008/World-in-Conflict-1680x1050,820.html
Zwar THG, aber zeig mir nen besseren Test ...
ciao
Alex
dargo
2009-12-13, 14:58:38
Aber ich habe mal Resident Evil 5 Benchmark und Savegame mit und ohne Stromsparmodi des i7 im GPU-Limit getestet (Windows 7). Praktisch kein Unterschied, Schwankungen +-2%, mal das Eine mal das Andere schneller.
Hast du auch FarCry 2? Vielleicht gabs auch ne Demo von FC 2 mit einem intergrierten Benchmark, weiß es leider nicht mehr.
Also hier ist ein Q9450 (2,66GHz) genausoschnell wie ein E8500 mit 3,16GHz:
http://www.tomshardware.com/de/charts/desktop-cpu-charts-q3-2008/World-in-Conflict-1680x1050,820.html
Zwar THG, aber zeig mir nen besseren Test ...
So ein kleiner Unterschied ist praktisch gar nichts. Den Großteil davon könnte man alleine durch das Auslagern der Treiber erreichen.
wollte gerade schreiben das ich was testen könnte...aber ich hab die 216SP GTX260
Das könnte doch gehen. Taktet deine GTX mit 576/1242/999Mhz @Default? Wenn ja geht es. Du hast 12,5% mehr SPs. Ich kann aber meine Graka mit 576/1404/999Mhz takten. Somit sind beide gleich schnell. :)
PS: die 0,5% Unterschied machen nichts mehr aus. Schließlich gehts hier auch nur um einen Teilbereich der Graka, nämlich die arithmetische Leistung.
Ph0b0ss
2009-12-13, 15:20:05
Hast du auch FarCry 2? Vielleicht gabs auch ne Demo von FC 2 mit einem intergrierten Benchmark, weiß es leider nicht mehr.
Lade gerade den Farcry 2 Benchmark von pcgameshardware.
http://www.pcgameshardware.de/aid,690484/Download-Far-Cry-2-Benchmark/Benchmark/Download/
So ein kleiner Unterschied ist praktisch gar nichts. Den Großteil davon könnte man alleine durch das Auslagern der Treiber erreichen.
Äh ja eben darum geht es ja. Es wurde ja behauptet, dass das Spiel nicht von Quad Cores profitieren würde. Dann dürfte der Quad 9450 mit 2,6 GHz nicht auf demselben Niveau sein, wie der Dual mit 3,16.
dargo
2009-12-13, 15:47:37
Äh ja eben darum geht es ja. Es wurde ja behauptet, dass das Spiel nicht von Quad Cores profitieren würde. Dann dürfte der Quad 9450 mit 2,6 GHz nicht auf demselben Niveau sein, wie der Dual mit 3,16.
Zwischen den beiden CPUs liegen knapp 19%. Diese 19% könnten genauso durchs Auslagern von Treibergeschichten etc. resultieren. Das hat dann nichts mit Multithreading (> Dualcore) zu tun.
Zwischen den beiden CPUs liegen knapp 19%. Diese 19% könnten genauso durchs Auslagern von Treibergeschichten etc. resultieren. Das hat dann nichts mit Multithreading (> Dualcore) zu tun.Die "Treibergeschichten" sollte sich dann aber auch bei AMD Quads auswirken :freak:
-> Da liegt was im Busch, und das liegt nicht an der Hardware ...
Hast du auch FarCry 2? Vielleicht gabs auch ne Demo von FC 2 mit einem intergrierten Benchmark, weiß es leider nicht mehr.
Ich hab FarCry2, zwar nicht installiert steht aber im Regal könnte ich also machen müsstest nur sagen auf was ich patchen soll
Das könnte doch gehen. Taktet deine GTX mit 576/1242/999Mhz @Default? Wenn ja geht es. Du hast 12,5% mehr SPs. Ich kann aber meine Graka mit 576/1404/999Mhz takten. Somit sind beide gleich schnell. :)
Nee default ist 625/1348/1100 aber kann man ja runter takten, musst nur sagen auf was ich GPU sowie CPU als auch Ram laufen lassen soll
dargo
2009-12-13, 16:26:36
Nee default ist 625/1348/1100 aber kann man ja runter takten, musst nur sagen auf was ich GPU sowie CPU als auch Ram laufen lassen soll
Oh man, dann wirds wieder nur unnötig kompliziert. Bekommst du deine Graka auf exakt 576/1242/999Mhz (unbedingt mit dem RT überprüfen was anliegt!) hin? Ansonsten können wir uns die Mühe sparen.
Die "Treibergeschichten" sollte sich dann aber auch bei AMD Quads auswirken :freak:
Wie meinst du das genau? Ich blicke da bei THG bei den CPUs kaum mehr durch.
PS: dass ein QX9770 um einen fps langsamer ist als ein QX9650 ergibt auch keinen Sinn. Gut, das könnte jetzt unter Messtoleranz fallen. Dann würde es aber wieder bedeuten, dass man sich bei diesen CPUs im absoluten GPU-Limit bewegt. Wie können dann aber die i7 schneller sein? :freak:
DDR2 und DDR3 Ram einen Unterschied von 100% bis zu 200% bei den min FPS ausmacht?
Vielleicht lernt man mit diesen Werten endlich mal, dass Min-FPS-Messungen komplett wertlos sind.
Oh man, dann wirds wieder nur unnötig kompliziert. Bekommst du deine Graka auf exakt 576/1242/999Mhz (unbedingt mit dem RT überprüfen was anliegt!) hin? Ansonsten können wir uns die Mühe sparen.
geht
http://666kb.com/i/bex8uw2ye3ifctrfi.gif
Undertaker
2009-12-13, 17:58:19
Also hier ist ein Q9450 (2,66GHz) genausoschnell wie ein E8500 mit 3,16GHz:
http://www.tomshardware.com/de/charts/desktop-cpu-charts-q3-2008/World-in-Conflict-1680x1050,820.html
Zwar THG, aber zeig mir nen besseren Test ...
Wie du am Phenom I bei THG siehst, wird das Spiel wohl auch dem Phenom II nur mäßig gut schmecken. Da kann es dann durchaus passieren, dass ein Core 2 Duo (trotz zumindest teilweisem Multicoresupport über Dualcores hinaus) etwas schneller ist, als ein Phenom 2 ähnlicher Taktrate.
Zumal das Ganze stark Szenenabhängig ist, lassen sich z.B. nur die Physikeffekte gut parallelisieren, würde man nur in entsprechenden Szenen die Vorteile eine Quads messen können.
Ronny145
2009-12-13, 18:00:24
Äh ja eben darum geht es ja. Es wurde ja behauptet, dass das Spiel nicht von Quad Cores profitieren würde. Dann dürfte der Quad 9450 mit 2,6 GHz nicht auf demselben Niveau sein, wie der Dual mit 3,16.
Lies richtig. Es profitiert kaum von Quad.
http://www.neoseeker.com/Articles/Hardware/Reviews/lynnfield/9.html
Wenn dem so wäre, müsste sich der Q9650 deutlich absetzen zum Zweikerner E8400.
dargo
2009-12-13, 18:06:50
geht
http://666kb.com/i/bex8uw2ye3ifctrfi.gif
Hervorragend. Dann können wir testen. Ich brauche noch paar Minuten, muss was anderes erledigen. Wir sprechen uns am besten über PN ab. :)
Ph0b0ss
2009-12-13, 18:50:47
FarCry 2 "Ranch Small" mit dem Benchmarktool zeigt auch keine Einbrüche mit aktivierten Stromsparmechanismen im GPU-Limit.
Settings: 1920x1200 8xAA 16AF alles max. auf GTX 285. CPU auf 3060Mhz (153x20). Jeweils 4 Durchläufe.
Average FPS sind es dann bei festen 3060Mhz 43,75fps, mit Stromsparmechanismen 43,52fps. Die Stromsparmechanismen können aber auch kaum bremsen, da mit festen 1836Mhz (153x12) das Ergebnis auch noch keine Einbrüche hat (43,41fps). Die 1836Mhz erreichen unter 640x480 1xAA/AF sogar noch 73,12fps Average.
dargo
2009-12-13, 18:56:09
@Ph0b0ss
Danke, dann wäre das schon mal geklärt. =)
War das eigentlich 100% GPU-Limit?
Ph0b0ss
2009-12-13, 19:11:25
Ja ist quasi 100% GPU-Limit. Mit 4200Mhz sinds 44,30fps.
dargo
2009-12-13, 19:15:23
Ja ist quasi 100% GPU-Limit. Mit 4200Mhz sinds 44,30fps.
Gut, dann können wir die Stromsparmodis definitiv ausschließen. Ich teste gleich mit Odal FC2.
Edit:
Einen freiwilligen mit nem Phenom II X4 und einer GTX260 (192 oder 216 SPs) bräuchten wir dann aber dennoch. :)
dargo
2009-12-13, 20:55:06
Ok, hier nun die Benchmarks mit FarCry 2. Danke an Odal an dieser Stelle für die Zusammenarbeit. :up:
Wichtiger Hinweis - in beiden Fällen herrscht zu 100% ein GPU-Limit.
Gebencht wurde die Timedemo "Runch Medium" mit maximalen Details unter DX9. Bewertet wird nur der zweite Durchlauf.
Odals System:
i5-750@2,66Ghz
GTX 260+ mit 216SPs @576/1242/999Mhz
2560x2048 4xMSAA/16xHQAF - 24,89 avg.fps
2560x2048 1xMSAA/16xHQAF - 34,55 avg.fps
Mein System:
Q9550@3,7Ghz
GTX 260 mit 192 SPs @576/1404/999Mhz (der SP-Nachteil wurde bei mir durch den höheren Shadertakt ausgeglichen)
2560x2048 4xMSAA/16xHQAF - 24,39 avg.fps
2560x2048 1xMSAA/16xHQAF - 34,15 avg.fps
Edit:
Jetzt dürft ihr euch fragen welchen Stuss diverse Seiten sich zusammenbenchen. :biggrin:
PS: Phenom II X4 Benches wären dennoch interessant zum Vergleich.
Edit 2:
Hier nochmal ein Bench mit dem Q9550@2,67Ghz
2560x2048 1xMSAA/16xHQAF - 32,56 avg.fps
Wie man sehr gut erkennen kann verschieben sich die Limits bei diesem Setting mit 2,67Ghz schon leicht in Richtung CPU.
Wenn AMD nicht gerade ein paar Transistoren im Phenom II X4 für den kleinen Bruder der 5870 versteckt hat, um im GPU Limit ein Secret X-Fire laufen zu lassen, kann ich mir schwerlich vorstellen das da andere Werte bei rauskommen. ;D
Zwischen den Core2Quads und den Nehalems gibts jedenfalls keine Abweichung oder Auffälligkeiten.
Ronny145
2009-12-13, 22:07:43
Na wenn seine CPU mit 4 Ghz lief, wäre das nur bedingt aussagekräftig. Sollte man eh immer unter default Takt benchen, wie die meisten Seiten auch.
Ok lief mit 2,66 Ghz. Dann ist richtig so.
Ph0b0ss
2009-12-13, 22:24:07
Mein System:
GTX 260 mit 192 SPs @576/1404/999Mhz (der SP-Nachteil wurde bei mir durch den höheren Shadertakt ausgeglichen)
Eigentlich müssteste den Core-Takt auch noch etwas erhöhen, weil die GTX 260+ 72 statt der 64 TMUs der GTX 260 hat. Problem dabei ist nur, das beide 28 ROPs haben. Könntest mal mit der Hälfte der TMU-Differenz testen, also 612Mhz Core. Wird aber wohl am Ergebnis nicht viel ändern.
Lies richtig. Es profitiert kaum von Quad.
http://www.neoseeker.com/Articles/Hardware/Reviews/lynnfield/9.html
Wenn dem so wäre, müsste sich der Q9650 deutlich absetzen zum Zweikerner E8400.
Äh tut er auch ... zumindest bei THG ... da ist der Q9650 27 fps schneller als der E8400 :confused:
Und wer hat jetzt recht :freak:
dargo
2009-12-13, 22:36:14
Eigentlich müssteste den Core-Takt auch noch etwas erhöhen, weil die GTX 260+ 72 statt der 64 TMUs der GTX 260 hat. Problem dabei ist nur, das beide 28 ROPs haben. Könntest mal mit der Hälfte der TMU-Differenz testen, also 612Mhz Core. Wird aber wohl am Ergebnis nicht viel ändern.
Argh... ich wußte irgendwas habe ich vergessen. Wäre auch zu einfach gewesen. :usad:
Edit:
Du hast recht. Mit 612/1404/999Mhz an der Graka ändert sich gar nichts kaum was.
2560x2048 4xMSAA/16xHQAF - 24,14 25,20 avg.fps (hatte vergessen meine CPU wieder auf 3,7Ghz zu takten :freak:)
2560x2048 1xMSAA/16xHQAF - 35,25 avg.fps
=Floi=
2009-12-13, 22:45:26
man konnte mit dem RT die shadereinheiten deaktivieren! zumindest beim G80 ging das!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=340911&highlight=shadereinheiten
ggf. könnte man so auch die TMUs abschalten.
Man kann damit nur komplette Cluster inkl. Textureinheiten deaktivieren.
Wie man sehr gut erkennen kann verschieben sich die Limits bei diesem Setting mit 2,67Ghz schon leicht in Richtung CPU.Oder in Richtung I/O ... wie siehts jeweils mit dem FSB Takt aus ?
Es gibt keinen FSB.
Schau mal was vor dem Zitat steht:
Edit 2:
Hier nochmal ein Bench mit dem Q9550@2,67Ghz
2560x2048 1xMSAA/16xHQAF - 32,56 avg.fps
Wie man sehr gut erkennen kann verschieben sich die Limits bei diesem Setting mit 2,67Ghz schon leicht in Richtung CPU.
:wink:
Ronny145
2009-12-13, 23:55:26
Äh tut er auch ... zumindest bei THG ... da ist der Q9650 27 fps schneller als der E8400 :confused:
Und wer hat jetzt recht :freak:
Der Unterschied im integrierten Benchmark von WiC zwischen 2 und 4 Kernen im Durchschnitt ist relativ gering. Ich messe 90 statt 96 fps. Gerundet bei 3 Durchläufen in 800x600, Details hoch. Bei den Min FPS kann das anders aussehen, wenn die fps für einen kurzen Moment absacken. Schau dir folgende Benchmarks an. Der PCGH Link zeigt, dass die Engine nicht sonderlich gut skaliert und auch wie schon der Phenom 1 nicht sonderlich gut aussieht. Link 2 zeigt zwar einen "realitäsfernen" Test, aber so kommt die GPU nicht in die Quere. Wie du siehst das gleiche Bild. Ein Phenom 2 3 Ghz so schnell wie ein Wolfdale 3 Ghz. Die AVG FPS bei xbitlabs zeigen ja fast das gleiche Bild, die ~5% Unterschied könnten dann wirklich vom Speicher kommen, siehe auch CB. Nur die Min FPS tanzen aus der Reihe.
http://www.pcgameshardware.de/aid,656379/PCGH-Test-35-Prozessoren-im-Vergleich/CPU/Test/
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_945_955_black_edition/27/#abschnitt_world_in_conflict
Undertaker
2009-12-14, 09:42:56
Wenn AMD nicht gerade ein paar Transistoren im Phenom II X4 für den kleinen Bruder der 5870 versteckt hat, um im GPU Limit ein Secret X-Fire laufen zu lassen, kann ich mir schwerlich vorstellen das da andere Werte bei rauskommen. ;D
Zwischen den Core2Quads und den Nehalems gibts jedenfalls keine Abweichung oder Auffälligkeiten.
Gleiches hatte ich übrigens auch schon mit Jake Dunn und einer ATI-Karte (HD4870) festgestellt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455727
Phenom II X4 und Core i7 waren im GPU-Limit absolut identisch schnell. Es braucht eben einfach nur saubere Tests, wo mögliche Auffälligkeiten auch nocheinmal nachgebencht werden, um Messfehler auszuschließen. ;)
Nur die Min FPS tanzen aus der Reihe.
http://www.pcgameshardware.de/aid,656379/PCGH-Test-35-Prozessoren-im-Vergleich/CPU/Test/
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_945_955_black_edition/27/#abschnitt_world_in_conflict
Danke für die Links.
Naja scheint dann irgendein Software Problem bei xbit zu sein, bei cb schaut das ganze normaler aus
http://www.abload.de/img/wicrwe4.jpg
Schon was anderes als xbit:
http://666kb.com/i/bewjjn91hryvpb3i4.gif
ciao
Alex
warum? Das sind doch ganz andere Einstellungen
xbitlabs zeigt da in 1920x... 16xAF 4xAA den Flaschenhals der Deneb-(Phenom II X4)-Architektur unter 3D Last
Undertaker
2009-12-14, 11:33:58
CB nutzt nicht den integrierten Benchmark, der produziert sehr viel niedrigere min-fps.
Den Flaschenhals der Deneb-(Phenom II X4)-Architektur unter 3D Last
Aja ... gut das Du das erwähnst, hier hat sich inzwischen nicht viel daran geändert:
Bevor wir da weiterreden will ich erst mal a) Den Windows Thread Auslastungsgraphen bei AMD & Intel und b) eine Übersicht der benützten Instruktionen von AMD CodeAnalyzer bzw. Intel VTune sehen.
Die Unterschiede sind zu abartig, als das man die mit irgendwelchen Fantasie Hardware Flaschenhälsen erklären könnte, die müßte es sonst viel öfters geben ...
Nach dem selben Argumentationsmuster könntest Du die i7 Schwäche mit nV Karten bei FC2 & Anno (im GPU, nicht CPU Limit) als Präzedenzfall der miserablen Nehalem Architektur hernehmen :freak:
san.salvador
2009-12-14, 11:40:38
Der E8400 ist ~25% vor dem Q9550 - das kanns doch auch nciht sein, oder?
Undertaker
2009-12-14, 11:41:45
i7 Schwäche mit nV Karten bei FC2 & Anno (im GPU, nicht CPU Limit)
Welche Schwäche? Redest du von den 1,3fps Differenz, die zwischen X4 und i7 bei der PCGH im GPU-Limit lagen?
http://www.pcgameshardware.de/aid,687117/Anno-1404-im-Test-Grafikkarten-CPU-und-DirectX-9-/DirectX-10-Benchmarks/Strategiespiel/Test/
Interessanterweise führt dort zudem ein Q9650 mit fast 2fps Vorsprung. :freak: Sowas nennt man Messschwankung. ;)
Der E8400 ist ~25% vor dem Q9550 - das kanns doch auch nciht sein, oder?
Min-fps sind selten gut reproduzierbar... Schlauer wäre es, wenn die Tester einen Schnitt der 10% niedrigsten fps o.ä. angeben würden.
Aja ... gut das Du das erwähnst, hier hat sich inzwischen nicht viel daran geändert:
Die Unterschiede sind zu abartig, als das man die mit irgendwelchen Fantasie Hardware Flaschenhälsen erklären könnte, die müßte es sonst viel öfters geben ...
Achso :rolleyes:
fällt ja auch bei den avg FPS nicht auf
Nach dem selben Argumentationsmuster könntest Du die i7 Schwäche mit nV Karten bei FC2 & Anno (im GPU, nicht CPU Limit) als Präzedenzfall der miserablen Nehalem Architektur hernehmen :freak:
du kannst aber schon lesen oder?
Odals System:
i5-750@2,66Ghz
GTX 260+ mit 216SPs @576/1242/999Mhz
2560x2048 4xMSAA/16xHQAF - 24,89 avg.fps
2560x2048 1xMSAA/16xHQAF - 34,55 avg.fps
Mein System:
Q9550@3,7Ghz
GTX 260 mit 192 SPs @576/1404/999Mhz (der SP-Nachteil wurde bei mir durch den höheren Shadertakt ausgeglichen)
2560x2048 4xMSAA/16xHQAF - 24,39 avg.fps
2560x2048 1xMSAA/16xHQAF - 34,15 avg.fps
ps: Anno1404 hab ich auch da, brauch ich nichtmal installieren weil ich das gern mal spiel
du kannst aber schon lesen oder? Kann ich, und ich lese da nirgends einen AMD Vergleichswert :freak:
Undertaker
2009-12-14, 12:25:37
Ich denke es geht dir darum, dass der i7 dort angeblich langsamer wäre? :confused: Dann reicht der S775 Wert zum Vergleich doch ebenso. :)
dargo
2009-12-14, 12:44:05
Gleiches hatte ich übrigens auch schon mit Jake Dunn und einer ATI-Karte (HD4870) festgestellt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455727
Phenom II X4 und Core i7 waren im GPU-Limit absolut identisch schnell. Es braucht eben einfach nur saubere Tests, wo mögliche Auffälligkeiten auch nocheinmal nachgebencht werden, um Messfehler auszuschließen. ;)
Full Ack! Das sollte man antackern!
Ronny145
2009-12-14, 13:07:27
Danke für die Links.
Naja scheint dann irgendein Software Problem bei xbit zu sein, bei cb schaut das ganze normaler aus
Wie geagt, die AVG FPS passen. Was bei den Min FPS anders läuft ist schwierig zu sagen. Das können nur ganz kurze Einbrüche gewesen sein.
y33H@
2009-12-14, 13:29:46
Phenom II X4 und Core i7 waren im GPU-Limit absolut identisch schnell. Abgesehen von Anno 1404 und FC2 ist dies mit einer Geforce auch so - mit Radeons ist dies auch bei Anno 1404 und FC2 so, letzteres zeigt jedoch minimale Tendenz zugunsten des Phenom II X4. Ein Flaschenhals ist beim Nehalem nicht zu sehen, zumal den 3% in den zwei Spielen teils fette 30-50% Plus gegenüber einem gleich getakteten Deneb gegenüber stehen.
Und das Thema wurde btw schon oft genug durchgekaut. In 99% der Fälle gilt: GPU-Limit = alle CPUs im Rahmen der Messungenauigkeit gleich flott.
Undertaker
2009-12-14, 13:43:11
Selbst bei Anno würde ich schon bestreiten, dass die 52,4fps des X4 955 außerhalb der Messtoleranz zu dem Wert des i7 965 von 51,1fps liegen - die Rede ist dabei von eurem Test im Netz in 1680x1050 mit 4xAA:
http://www.pcgameshardware.de/aid,687117/Anno-1404-im-Test-Grafikkarten-CPU-und-DirectX-9-/DirectX-10-Benchmarks/Strategiespiel/Test/
Oder hab ich da einen von dir womöglich gemeinten Fall mit größeren Differenzen übersehen? :confused:
Ph0b0ss
2009-12-14, 13:58:58
@Undertaker
Der Test ist sowieso wertlos, da Vista verwendet wurde!
Vista + SMT = FAIL
y33H@
2009-12-14, 14:15:30
Vista + SMT + Anno 1404 = NOT FAIL
aber
Win7 + SMT + WoW = FAIL
Oder hab ich da einen von dir womöglich gemeinten Fall mit größeren Differenzen übersehen?Man sollte immer die neuesten Tests nehmen ;) *hier (http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/)* ist eine minimale Tendenz zugunsten des Ph. II X4 in FC2, Anno 1404 ist CPU-limitiert.
Undertaker
2009-12-14, 14:27:42
In Far Cry 2 scheint wirklich etwas nicht ganz so zu klappen, aber ich wollte ja den zweiten von dir genannten Fall, Anno 1404, wissen. :) Gibts da noch andere Messungen von euch, oder haben wir nur obige 52,4fps vs. 51,1fps?
Selbst bei einem äußerst reproduzierbaren Benchmark würde ich Differenzen <3-5%/<3fps für nicht auswertbar halten.
Ph0b0ss
2009-12-14, 14:34:36
Vista + SMT + Anno 1404 = NOT FAIL
Warum sollte es bei Anno anders sein? Tackert Anno die Threads fest an die virtuellen Cores?
y33H@
2009-12-14, 14:54:58
@ Undertaker
Nein, weitere GPU-Limit-Messungen von FC2 im GPU-Limit habe ich nicht.
@ Ph0b0ss
WoW nutzt eine Affinity Mask, deswegen kackt das auch unter Win7 mit SMT ab. Anno 1404 profitiert unter Vista wie Win7 von SMT.
Ph0b0ss
2009-12-14, 15:19:42
Anno 1404 profitiert unter Vista wie Win7 von SMT.
Die Frage ist, ob es unter Win7 trotzdem noch schneller läuft. Falls ja gilt auch hier Vista + SMT = Fail, da es nicht optimal genutzt wird. Kann mir gut vorstellen, dass es unter Vista, durch die vielen Threads die Anno nutzt, quasi zufälligerweise zu nem kleinen Vorteil durch SMT kommt. Werden die Threads, wie bei Win7, jedoch erstmal zu je einem virtuellen Kern jedes Kerns verteilt, bevor weitere virtuelle Kerne genutzt werden, ergibt das warscheinlich nochmal mehr Performance. Müsste mal jemand, der Vista + Win7 drauf hat, per Savegame testen.
Bei allen anderen von mir gespielten Spielen unter Vista64, die 2-X Kerne genutzt haben, konnte ich immer schön sehen, wie 1-2 Kerne bis zum erbrechen auf beiden SMT-Kernen ausgelastet wurden und die anderen praktisch nichts taten. Hab dann mit Process Lasso den Spielen immer nur den 1. SMT-Kern aller Kerne nutzen lassen. Bis zum nutzen von 4 Kernen ging das ganz gut.
y33H@
2009-12-14, 15:42:27
Anno 1404 läuft unter Win7 bereits ohne SMT fast so flott wie unter Vista mit SMT. Mit SMT zieht Win7 davon (über 10%).
Leonidas
2009-12-17, 16:46:52
Ich will nicht für alle Spiele sprechen, aber bei Far Cry 2 ganz besonders. Wurde schon oft thematisiert, dass Farc Cry 2 und Nehalem nicht so gut funktionieren.
Und wo liegt die Besonderheit von FC2?
FC2 zeigt kein gewöhnliches Timedemo, auch wenn es auf den ersten Blick so aussieht. Aber bei FC2 läuft im Gegensatz zu gewöhnlichen Timedemos die gesagte K.I. und alle anderen CPU-Berechnungen mit, weil es sich nicht um eine aufgenommene Sequenz handeln, sondern der Spieler bzw. die Kamera direkt ins eigentliche Spiel geworfen werden.
Man könnte hieraus also ableiten, daß die AMDs besser im realen Spiel laufen und die Intels nur dort schnell sind, wo aufgenommene Sequenzen mit nur einem Bruchteil der regulären CPU-Last des realen Spiels abgespielt werden. Allerdings ist die Datenmenge zu klein, um so eine Aussage nur aufgrund dieser etwas sonderlichen FC2-Werte treffen zu können.
FarCry 2 "Ranch Small" mit dem Benchmarktool zeigt auch keine Einbrüche mit aktivierten Stromsparmechanismen im GPU-Limit.
Die "Ranch Small" ist mit einer großen CPU eher GPU-limitiert. Für einen CPU-Test wäre die "Action Scene" vorzuziehen.
Undertaker
2009-12-17, 16:53:00
Man könnte hieraus also ableiten, daß die AMDs besser im realen Spiel laufen und die Intels nur dort schnell sind, wo aufgenommene Sequenzen mit nur einem Bruchteil der regulären CPU-Last des realen Spiels abgespielt werden. Allerdings ist die Datenmenge zu klein, um so eine Aussage nur aufgrund dieser etwas sonderlichen FC2-Werte treffen zu können.
Ich glaube du hast jetzt durcheinander geworfen, dass die "Probleme", also der geringe fps-Rückstand, nur im GPU-Limit auftritt. Im CPU-Limit sind Nehalem/Lynnfield so überlegen wie in fast jedem anderen Spiel, an der Leistungsfähigkeit bei hoher CPU-Last kann es also nicht liegen - dass zeigt auch der 3DC-eigene Test:
http://www.3dcenter.org/artikel/intel-core-i5-750-lynnfield-review/benchmarks-far-cry-2
Edit: Verwunderlich ist auch, dass immermal wieder ein Test völlig gegensätzliche Ergebnisse zeigt, hier z.B. HT4U:
http://ht4u.net/reviews/2009/intel_lynnfield_core_i5_core_i7/index31.php
Dort sind Nehalem und Lynnfield im GPU-Limit sogar in Führung, trotz einer Nvidia-Karte... :confused:
Ronny145
2009-12-17, 16:55:13
Man könnte hieraus also ableiten, daß die AMDs besser im realen Spiel laufen und die Intels nur dort schnell sind, wo aufgenommene Sequenzen mit nur einem Bruchteil der regulären CPU-Last des realen Spiels abgespielt werden. Allerdings ist die Datenmenge zu klein, um so eine Aussage nur aufgrund dieser etwas sonderlichen FC2-Werte treffen zu können.
Dann müsste ja in der PCGH ein Phenom 2 ständig schneller sein, was ja nicht der Fall ist. Und ich bezweifle, dass nur dort vorrangig mit savegames im realen Spiel getestet wird. Meist ist es doch eher umgedreht, save games erzeugen normalerweiset mehr CPU Last als timedemos, deswegen ist in save games der Nehalem im Vorteil. In Far Cry 2 ist nicht klar woran es liegt, oder ob da nicht meist einfach Müll gemessen wird. Es kann schlicht sein, dass das Spiel bzw. die Engine einfach beim Phenom besser passt. Soll es auch geben. Manche Spiel laufen halt überdurchschnittlich gut oder schlecht auf einer Architektur.
Avalox
2009-12-17, 17:12:53
Ich glaube du hast jetzt durcheinander geworfen, dass die "Probleme", also der geringe fps-Rückstand, nur im GPU-Limit auftritt. Im CPU-Limit sind Nehalem/Lynnfield so überlegen wie in fast jedem anderen Spiel, an der Leistungsfähigkeit bei hoher CPU-Last kann es also nicht liegen - dass zeigt auch der 3DC-eigene Test:
CPU Last ist aber nicht gleich CPU Last.
Bei hohen Frameraten z.B. wird natürlich der 3D Treiber einen ganz anderen Anteil an der gesamte CPU Nutzung haben, als an Stellen wo die GPU die Luft ausgeht. Das selbe gilt für den Spielecode.
Auch Timedemos werden eine ganz andere CPU Last erzeugen, als die reale Spielsituationen. usw. usw.
Undertaker
2009-12-17, 17:32:25
An der CPU-Last liegt es hier aber nicht, egal welcher Art diese ist. Andernfalls würde eine CPU-Taktsteigerung auch die Leistung erhöhen, was sie im absoluten GPU-Limit aber nicht tut.
Avalox
2009-12-17, 17:39:24
Andernfalls würde eine CPU-Taktsteigerung auch die Leistung erhöhen, was sie im absoluten GPU-Limit aber nicht tut.
Nein, nicht unbedingt. Z.B. dann nicht, wenn das CPU Limit durch die I/O Anbindung der CPU bedingt ist.
Undertaker
2009-12-17, 17:49:53
Dann würde der höhere QPI-Takt der EE etwas bringen. Tut er ebenfalls nicht.
Avalox
2009-12-17, 17:53:23
Dann würde der höhere QPI-Takt der EE etwas bringen. Tut er ebenfalls nicht.
Nein auch dieses nicht, da der QPI Takt ja nicht allein für das I/O verantwortlich ist.
Undertaker
2009-12-17, 17:57:00
Wo soll denn dann ein Flaschenhals liegen? Und warum sollte sich ein solcher nur in FC2, bevorzugt mit Nvidia-Karten, zeigen?
Avalox
2009-12-17, 18:05:36
Wo soll denn dann ein Flaschenhals liegen? Und warum sollte sich ein solcher nur in FC2, bevorzugt mit Nvidia-Karten, zeigen?
Warum Nvidia? Weil der Kartentreiber andere Schritte der Grafikpipeline auf der CPU berechnet, als ein ATI Treiber z.B.?
Weil diese Schritte der Pipeline andere Algorithmen und damit ein anderes CPU Auslastungsschema zeigen, als bei einem ATI Treiber?
Der Punkt ist doch, dass man aus der einfachen Schlussfolgerung: Takt Erhöhung / kein Leistungszuwachs keinesfalls auf eine generelles Schema schliessen kann. Erst recht kann man dieses nicht tun, wenn tatsächlich klare praktische Beispiele gegen diese vereinfachte Annahme sprechen.
Nur sehr wenige Menschen wissen doch überhaupt auf der Welt, welche Effekte mit welchen Taktsteigerungen überhaupt in der jeweiligen CPU erreicht werden.
Die Idee mehr Takt -> mehr Durchsatz ist ja schon eine Annahme welche so nicht mal stimmen muss. Dazu sind diese CPUs viel zu komplex.
Anstatt Ausnahmebeispiele vom Tisch zu wischen weil diese nicht in ein Schema passen, ist es viel wichtiger diese Beispiele und ihr Verhalten zu ergründen.
Undertaker
2009-12-17, 18:09:14
Bitte mal ganz konkret: An welcher Stelle sollte die Leistung denn stagnieren, wenn sowohl höherer QPI-Takt, schnellerer Speicher (und damit auch höherer Uncore-Takt) als auch ein höherer Kerntakt keine Auswirkungen haben? Und warum sollte das Ganze auf FC2 beschränkt sein?
Solange das keiner schlüssig begründen kann, gehe ich hier nicht von einem Flaschenhals aus. Und wenn HT4U sogar das genaue Gegenteil misst...
Avalox
2009-12-17, 18:12:01
Bitte mal ganz konkret: An welcher Stelle sollte die Leistung denn stagnieren, wenn sowohl höherer QPI-Takt, schnellerer Speicher (und damit auch höherer Uncore-Takt) als auch ein höherer Kerntakt keine Auswirkungen haben? Und warum sollte das Ganze auf FC2 beschränkt sein?
Na ganz konkret kann es z.B. ein zusätzlicher Overhead auf einem Schnittstellentreiber sein. Vielleicht einen Treiber, welcher mit einem eigenen Taktgenerator, ausgestattet ist, bzw. extern synchronisiert wird.
Oder es kann eine interne Prozessor Koherenzfunktionalität sein, welche bei höheren Takten und Taktfehlern korrigierend eingreift.
Es weiß der Pinsel was es sein kann. Es ist doch nur zu erkennen, dass dort etwas wirkt und dieses ist das interessante. Theoretische Modelle, welche diese Beispiele nicht hinreichend beschreiben taugen eben dann nichts und müssen überdacht werden und dazu taugen natürlich Tests, welche diesen Beispielen nicht entsprechen natürlich wenigst.
Undertaker
2009-12-17, 18:17:04
Und warum sollte sich das nun gerade im GPU-Limit auswirken, nur in manchen Tests und nur in Far Cry 2? Um diese Punkte reden wir seid mehreren Postings und ohne das auch nur annähernd begründen zu können, halte ich diese Theorien für sehr weit hergeholt.
Avalox
2009-12-17, 18:27:25
Und warum sollte sich das nun gerade im GPU-Limit auswirken, nur in manchen Tests und nur in Far Cry 2? Um diese Punkte reden wir seid mehreren Postings und ohne das auch nur annähernd begründen zu können, halte ich diese Theorien für sehr weit hergeholt.
Der erste Punkt ist doch der, gibt es ein allgemeines GPU Limit?
Nein natürlich gibt es dieses nicht. Die GPU ist Bestandteil eines Systems.
Auch in einer GPU limitierten Szene ist die GPU nach wie vor auf CPU Daten angewiesen. CPU Daten, auf welche auch im GPU Limit die GPU wartet. Es verschiebt sich nur die Wertigkeit im Bezug auf die gesamte Pipeline.
Ferner gibt es auch nicht die Ursache für das GPU Limit, sondern derer sehr viele und natürlich stehen ein guter Teil dieser Ursachen in einem Verhältnis zur CPU, nämlich immer dann, wenn es eine Schnittstellenthematik betrifft.
Der Ansatz von Leonidas ist doch haargenau der richtige, erstmal zu ergründen, was denn FC2 in der Testsituation anders macht.
Aber FC2 ist ja nicht das einzige Beispiel. Nun muss man dort nach Gemeinsamkeiten suchen.
Leonidas
2009-12-17, 18:29:53
In Far Cry 2 ist nicht klar woran es liegt, oder ob da nicht meist einfach Müll gemessen wird. Es kann schlicht sein, dass das Spiel bzw. die Engine einfach beim Phenom besser passt. Soll es auch geben. Manche Spiel laufen halt überdurchschnittlich gut oder schlecht auf einer Architektur.
Jau, ist die wahrscheinlichere Auflösung - gerade wenn man neben FC2 keine weiteren Beispiele findet. Aber wenn es weitere Beispiele gibt, dann dürfte hier doch was im Busch liegen.
Undertaker
2009-12-17, 18:33:31
Der erste Punkt ist doch der, gibt es ein allgemeines GPU Limit?
Nein natürlich gibt es dieses nicht. Die GPU ist Bestandteil eines Systems.
Auch in einer GPU limitierten Szene ist die GPU nach wie vor auf CPU Daten angewiesen. CPU Daten, auf welche auch im GPU Limit die GPU wartet. Es verschiebt sich nur die Wertigkeit im Bezug auf die gesamte Pipeline.
Ferner gibt es auch nicht die Ursache für das GPU Limit, sondern derer sehr viele und natürlich stehen ein guter Teil dieser Ursachen in einem Verhältnis zur CPU, nämlich immer dann, wenn es eine Schnittstellenthematik betrifft.
Der Ansatz von Leonidas ist doch haargenau der richtige, erstmal zu ergründen, was denn FC2 in der Testsituation anders macht.
Aber FC2 ist ja nicht das einzige Beispiel. Nun muss man dort nach Gemeinsamkeiten suchen.
Laut y33h@ von der PCGH ist FC2 neben Anno 1404 - was ich bei 51,1fps vs. 52,4fps allerdings als Messtoleranz werten würde - das einzige Beispiel. Und das ist definitiv zu wenig für eine derartige Theorie.
Noch zum GPU-Limit: Vergleicht man mehrere Reviews (und klammert die Gegenbeispiele dabei aus, sonst müssten wir uns das gleich schenken), ist auch die Begründung mit der höheren Datenmenge bei stärkerer GPU-Last nicht nachvollziehbar: Die Differenz zu anderen CPUs liegt in Reviews mit dieser Auffälligkeit bei um die 10%, egal ob 1280x1024 ohne Qualitätssettings oder FullHD mit selbigen gemessen wurde. Wäre hier eine Limitierung, würde der Rückstand mit steigenden Settings ansteigen. Tut er aber nicht.
Der erste Punkt ist doch der, gibt es ein allgemeines GPU Limit?
Nein natürlich gibt es dieses nicht. Die GPU ist Bestandteil eines Systems.
Auch in einer GPU limitierten Szene ist die GPU nach wie vor auf CPU Daten angewiesen. CPU Daten, auf welche auch im GPU Limit die GPU wartet. Es verschiebt sich nur die Wertigkeit im Bezug auf die gesamte Pipeline.
nun das mag vielleicht das theoretische "Modell" sein das praktische sieht doch eher so aus das es sehr viele "Zufälle" gibt bei denen verschiedene CPU architekturen mit verschiedenen Taktungen exakt die gleichen FPS Werte mit der gleichen Grafikkarte erzielen, welche sich erst durch eine performantere Grafikkarte ändern lassen
insofern gibt es schon ein GPU (eher Graka als Ganzes) Limit
Avalox
2009-12-18, 10:29:37
Die Differenz zu anderen CPUs liegt in Reviews mit dieser Auffälligkeit bei um die 10%, egal ob 1280x1024 ohne Qualitätssettings oder FullHD mit selbigen gemessen wurde. Wäre hier eine Limitierung, würde der Rückstand mit steigenden Settings ansteigen. Tut er aber nicht.
Na nicht unbedingt, was man ja an den Ergebnissen sehen kann.
Ein fixer Overhead z.B. oder ein festes Timingverhalten.
Fakt es doch, dass es einen Grund für diese Auffälligkeiten geben muss.
Vermessen kann man sich dabei nicht, man kann höchsten das Ergebnis in eine falsche Richtung interpretieren.
nun das mag vielleicht das theoretische "Modell" sein das praktische sieht doch eher so aus das es sehr viele "Zufälle" gibt bei denen verschiedene CPU architekturen mit verschiedenen Taktungen exakt die gleichen FPS Werte mit der gleichen Grafikkarte erzielen, welche sich erst durch eine performantere Grafikkarte ändern lassen
insofern gibt es schon ein GPU (eher Graka als Ganzes) Limit
Zufälle kann es dort nicht geben. Natürlich ist solch ein Ergebnis eines Benchmarks immer ein kumuliertes Ergebnis einer langen Prozesskette mit vielen beteiligten Instanzen.
Schon die performantere Grafikkarte ist ja nur in einem einfachen Ergebnis performanter, aber eben nicht direkt vergleichbar und somit ist obere Schlussfolgerung ja schon eine stark vereinfachte Sichtweise.
Mit einen GPU Limit ist tatsächlich "ein" Zustand gemeint, in welchen die GPU, mal stellvertretend für die Grafikkarte limitiert. Aber dieses gibt es ja auch nicht. Das komplexe System Grafikkarte limitiert, bzw. bestimmt maßgeblich die Verarbeitungsgeschwindigkeit in einer Vielzahl von Möglichkeiten, welche unter ganz unterschiedlichen Bedingungen auftreten können.
Die heutigen Benchmarks und Testaufbauten sind einfach sehr schlecht, sehr markschreiend und unsystematisch.
Je mehr dort vereinfacht wird, je schlechter sind die Tests und dort führen Blätter wie PCGH ganz oben die Liste an.
Wenn schon ein ganze Generationen von Hardwaretestern keine ordentliche Tests auf den Weg bringen können und so sieht es heute aus. So könnte doch mal wenigstens jemand auf die Idee kommen eine statistische Betrachtung durchzuführen.
Sehr interessant wäre doch, bei aller Unterschiedlichkeit der der Einstellungen, mit welchen detailierten Frameraten z.B. echte Spieler das aktuelle Spiel durchspielen. Vor Spielbeginn werden die Grafik- und Systemsettings aufgenommen und während des Spiels werden diese Frameraten aufgezeichnet und können nach dem Ende des Singleuser Spiels ausgewertet werden. Natürlich macht es einen Unterschied, ob im FPS der User sich im Spiel die ganze Zeit den Himmel ansieht, oder an der Hausmauer entlang läuft. Aber eine große Maße von Messwerten könnte dort im statistischen Mittel tatsächlich in heutigen typischen gescrippterten Schlauchlevelspielen interessante Ergebnisse liefern.
Es tut sich nichts bei den Tests. Die Technik wird immer komplizierter und die Zielgruppe will immer einfacher, am besten mit einer einzigen Wertungszahl, bedient werden, dass passt eben nicht.
Undertaker
2009-12-18, 10:36:35
Na nicht unbedingt, was man ja an den Ergebnissen sehen kann.
Ein fixer Overhead z.B. oder ein festes Timingverhalten.
Irgendwie kann ich mir hier nicht ganz vorstellen, was du da technisch meinst. Bitte mal konkrete Beispiele.
Fakt es doch, dass es einen Grund für diese Auffälligkeiten geben muss.
Vermessen kann man sich dabei nicht, man kann höchsten das Ergebnis in eine falsche Richtung interpretieren.
Natürlich kann man sich dabei vermessen, die möglichen Fehlerquellen sind unzählig. Dazu der Punkt, dass manche Reviews (ich hab oben HT4U verlinkt) dieses Problem gar nicht hattem, ganz im Gegenteil die i5/i7 dort sogar in Führung lagen - und das gar in höheren Settings, als z.B. bei CB. Ferner, dass wir hier einzig und allein von FC2 reden (Anno siehe oben).
Das ist ein absolut erdrückender Widerspruch zu jeder Architektur-basierten Limitierungstheorie.
Avalox
2009-12-18, 10:48:19
Irgendwie kann ich mir hier nicht ganz vorstellen, was du da technisch meinst. Bitte mal konkrete Beispiele.
Na. Wenn gewisse Buszugriffe mit einen Timerevent gekoppelt sind. Z.B. einer Initialierungszeit. Dann spielt es keine Rolle, ob man den Takt erhöht oder eine schnellere Grafikkarte anbindet. Die Zeit und damit die Verzögerung wird gleich sein und sich nicht so beeinflussen lassen.
Natürlich kann man sich dabei vermessen.
Nö. Ist doch digital. Entweder er misst FPS, oder er misst nicht FPS.
Er kann sich aber nicht bei den FPS vermessen.
Er kann die Ergebnisse falsch interpretieren bzw. falsch dokumentieren.
Undertaker
2009-12-18, 10:54:57
Na. Wenn gewisse Buszugriffe mit einen Timerevent gekoppelt sind. Z.B. einer Initialierungszeit. Dann spielt es keine Rolle, ob man den Takt erhöht oder eine schnellere Grafikkarte anbindet. Die Zeit und damit die Verzögerung wird gleich sein und sich nicht so beeinflussen lassen.
Das würde aber nicht nur in einem Spiel auftreten.
Nö. Ist doch digital. Entweder er misst FPS, oder er misst nicht FPS.
Er kann sich aber nicht bei den FPS vermessen.
Er kann höchstens die Ergebnisse falsch interpretieren bzw. falsch dokumentieren.
Aktuelle Spiele können trotz gleicher Szene auf Grund dynamischer Elemente (Wetter/Himmel z.B.) unterschiedlich ablaufen - merkt ein Tester hier große Differenzen, muss er viele möglichst ähnliche Durchläufe mitteln. Es kann zu Nachladerucklern kommen, womöglich ist erst der 2. oder 3. Durchlauf aussagekräftig. Es kann einen integrierten Framelimitier geben, in den nur einige der schnellsten Test-CPUs kurzzeitig stoßen. Und das sind jetzt alles nur Fehlerursachen, an denen der Tester gar nicht aktiv Schuld trägt.
Avalox
2009-12-18, 10:58:53
Das würde aber nicht nur in einem Spiel auftreten.
Klar. Das Spiel beeinflusst durch die Programmierung den Treiber und der Treiber ist natürlich maßgeblich für die Kommunikation zwischen CPU und GPU verantwortlich. Natürlich könnten solche Phänomene Spielebezogen auftreten.
Und das sind jetzt alles nur Fehlerursachen, an denen der Tester gar nicht aktiv Schuld trägt.
Es sind keine Messfehler, es sind überhaupt keine Fehler. Es sind falsch interpretierte Ergebnisse. Eben weil diese als vergleichbare Systemvoraussetzung vom Tester interpretiert wurden, es aber nicht sind.
Ganz im Gegenteil, gerade solch ein wie von dir bewusstes Filtern des Testern führt doch automatisch wieder zu falschen Interpretationen.
Es ist doch immer wieder das selbe Problem. Es fühlt sich jemand als Tester auserkohren, welcher selber für solch einen Test weder die richtigen Werkzeuge noch überhaupt die nötigen Systemkenntnisse besitzt.
Dabei ist nicht das Testergebnis das Problem sondern, dass was der Tester dort hinein interpretiert.
Undertaker
2009-12-18, 11:02:22
Dann brauchen wir aber nicht von einem Phänomen bzgl. der CPU, sondern nur bzgl des Spiels zu reden. Und auch das nur, wenn jeder Test zu diesem Schluss kommt. Deine Theorie kippt schon dadurch, dass bei HT4U der Nehalem im GPU-Limit führt.
dargo
2009-12-18, 11:24:01
Vermessen kann man sich dabei nicht, man kann höchsten das Ergebnis in eine falsche Richtung interpretieren.
Man kann beim Benchmarken soviel falsch machen, dass es den Rahmen hier sprengen würde wenn ich alles aufzählen müsste. Nur mal so am Rande - ich trenne mich beim Benchmarken sogar vom Internet. Niemand kann mir gerantieren, dass beim Benchmarken nicht gerade beispielsweise ein Windows-Update geladen bzw. installiert wird wodurch abweichende Frameraten verbuchbar sein können aufgrund von Festplattenzugriffen. Sämtliche Virenscanner etc. sollte man beim Benchmarken ebenfalls deaktivieren. Um mal nur zwei Beispiele zu nennen.
Außerdem würde ich gern wissen worüber ihr die ganze Zeit diskutiert? :)
Hier haben wir doch schon bewiesen, dass der i7 beim FC2-Benchmark im absoluten GPU-Limit nicht langsamer ist als ein Yorkfield:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7715040&postcount=65
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7715238&postcount=70
Cubitus
2009-12-18, 12:08:31
Mich würde Interessenten was passieren würde, falls man die GPU-Multicore Unterstützung im Treiber bzw. via Nhancer ausmachen würde :confused:
dargo
2009-12-18, 12:11:02
Mich würde Interessenten was passieren würde, falls man die GPU-Multicore Unterstützung im Treiber bzw. via Nhancer ausmachen würde :confused:
Was soll da großartig passieren außer weniger fps? :confused:
Cubitus
2009-12-18, 12:15:19
Vielleicht wurde das ja auch bewusst ausgemacht, bzw. wenn es aus wäre und sich der Wert bei FC nicht ändert und bei den anderen schon, weiß man wo der Hund begraben liegt.
dargo
2009-12-18, 12:24:05
Vielleicht wurde das ja auch bewusst ausgemacht, bzw. wenn es aus wäre und sich der Wert bei FC nicht ändert und bei den anderen schon, weiß man wo der Hund begraben liegt.
Ich kann dir nicht folgen. Wenn man die "Threaded-Optimierung" im Treiber abschaltet dann tut man das doch bei allen Testsystemen. Es wird doch wohl keiner so dämlich sein und bei den jeweiligen Testsystemen unterschiedliche Treibersettings verwenden. :|
Avalox
2009-12-18, 12:39:28
Deine Theorie kippt schon dadurch, dass bei HT4U der Nehalem im GPU-Limit führt.
Nein, ich habe keine Theorie. Es kann dort auch nicht mit einem anderen Test argumentiert werden, denn dieser ist garantiert mit abweichender Hard- und Softwareausstattung getestet worden und ist damit eben mal wieder nicht vergleichbar.
Solche CPU, bzw. GPU Tests sind schliesslich nie echte CPU/GPU Tests sondern immer Tests von komplexen kompletten Systemen.
Ich möchte nur ordentliche Tests. Aber diese gibt es weder bei HT4U noch bei PCGH.
Undertaker
2009-12-18, 12:41:46
Die Konstante in allen Tests ist die CPU auf Nehalem/Lynnfield-Basis. Wenn das Problem damit nichteinmal in ein und demselben Spiel (FC2) reproduzierbar auftritt bzw. sogar das Gegenteil eintritt, kann hier nicht die Ursache liegen.
Btw: Deine Kritik, warum PCGH/HT4U in diesen Fällen konkret unsauber waren?
Avalox
2009-12-18, 12:45:47
Die Konstante in allen Tests ist die CPU auf Nehalem/Lynnfield-Basis. Wenn das Problem damit nichteinmal in ein und demselben Spiel (FC2) reproduzierbar auftritt bzw. sogar das Gegenteil eintritt, kann hier nicht die Ursache liegen.
Aber natürlich kann die Ursache bei der CPU liegen. Schon allein das Spiel, der Grafiktreiber, das System sind nicht mal zwangsläufig identisch. Aller Wahrscheinlichkeit sind diese sogar abweichend.
Sie müssen ja abweichend sein, denn die Ergebnisse sind ja unterschiedlich.
Btw: Deine Kritik, warum PCGH/HT4U in diesen Fällen konkret unsauber waren?
Weil sie nicht mit dem nötigen Hintergrundwissen zum System und der Hardware ausgeführt werden, allerdings trotzdem eine allgemeine Ableitung herleiten wollen. Ganz allgemein, trifft natürlich auch auf die anderen Tests der üblichen Verdächtigen zu.
dargo
2009-12-18, 12:52:16
Solche CPU, bzw. GPU Tests sind schliesslich nie echte CPU/GPU Tests sondern immer Tests von komplexen kompletten Systemen.
Hat jemals wer was anderes behauptet?
CPU-Limit = ergibt sich aus CPU, Mainboard, Arbeitspeicherbandbreite/Latenzen
GPU-Limit = ergibt sich aus GPU, Vram-Bandbreite/Latenzen
Es dürfte wohl klar sein, dass man beim GPU-Limit von der gesamten Grafikkarte spricht und nicht speziell von der GPU oder Speicherbandbreite. Beim CPU-Limit genau das selbe.
Avalox
2009-12-18, 12:58:50
Hat jemals wer was anderes behauptet?
CPU-Limit = ergibt sich aus CPU, Mainboard, Arbeitspeicherbandbreite/Latenzen
GPU-Limit = ergibt sich aus GPU, Vram-Bandbreite/Latenzen
Ah ha und wenn die CPU Daten aus dem RAM der Grafikkarte, statt aus dem Arbeitsspeicher anfordert, dann ist es eine GPU Limitierung nach der Logik?
Oder wenn die GPU Daten aus dem Arbeitsspeicher anfordert, dann ist es potentiell CPU limitierendes Szenario?
Ne, nach dem Muster oben kann man es nicht aufteilen.
Undertaker
2009-12-18, 14:21:18
Aber natürlich kann die Ursache bei der CPU liegen. Schon allein das Spiel, der Grafiktreiber, das System sind nicht mal zwangsläufig identisch. Aller Wahrscheinlichkeit sind diese sogar abweichend.
Sie müssen ja abweichend sein, denn die Ergebnisse sind ja unterschiedlich.
Aller Wahrscheinlichkeit nach, so meine Schlussfolgerung, sind stark abweichende Ergebnisse in erster Linie auf entweder unsaubere Testdurchführungen oder generelle Toleranzen des jeweiligen Benchmarks zurückzuführen.
Weil sie nicht mit dem nötigen Hintergrundwissen zum System und der Hardware ausgeführt werden, allerdings trotzdem eine allgemeine Ableitung herleiten wollen. Ganz allgemein, trifft natürlich auch auf die anderen Tests der üblichen Verdächtigen zu.
Mangelndes Hintergrundwissen bei PCGH und HT4U ist schon eine harrsche Unterstellung, die konkreter begründet werden sollte...
Ah ha und wenn die CPU Daten aus dem RAM der Grafikkarte, statt aus dem Arbeitsspeicher anfordert, dann ist es eine GPU Limitierung nach der Logik?
Die engste Stelle ist auf dieser Strecke der PCIe-Bus. Wie viele Tests zeigen, besteht aber hier keine wirkliche Limitierung.
Nein, ich habe keine Theorie. Es kann dort auch nicht mit einem anderen Test argumentiert werden, denn dieser ist garantiert mit abweichender Hard- und Softwareausstattung getestet worden und ist damit eben mal wieder nicht vergleichbar.
Solche CPU, bzw. GPU Tests sind schliesslich nie echte CPU/GPU Tests sondern immer Tests von komplexen kompletten Systemen.
Ich möchte nur ordentliche Tests. Aber diese gibt es weder bei HT4U noch bei PCGH.
Das die Harware von der wir hier sprechen kein rein serielles System ist, sondern ein "nebenläufiges" interagierendes wissen sicher die meisten hier.
Eine z.b. verzehnfachung der CPU Leistung wird natürlich immer irgendwas bringen, nur sinkt der Einfluss Richtung nichtigkeit.
Um überhaupt eine (eigentlich offensichtliche) Aussage treffen zu können muss man eben die z.B. 0.000001% MehrFPS, die bei weiterer Verdopplung der CPU Leistung eintreten, vernachlässigen
Bei DMC 4 klappt wohl auch etwas nicht:
In our new test procedure we've updated the list of games and increased quality settings, so these tests are hard both for CPUs and the graphics card (GeForce GTX 275). The CPU load is diversified. That is unlike audio codecs that use only integer units, these tests utilize floating-point computations as well. So the spread of results is not wide, and it's hard to pinpoint a single leader. On one hand, the Core i7 scores the most. On the other hand, 'it can be easily fixed' by enabling Smart Profiles in Phenom II. Besides, games are not just resource hogs, they often reveal some platform peculiarities, in particular, implementations of graphics ports in a chipset. For example, Devil May Cry 4 may be limited by such restrictions, as it comes up with illustrative results. It's no secret that Core i7 suffers from performance drops with some graphics cards. It suggests an idea that Intel was not just greedy, when the company did not allow NVIDIA to design its own chipset for the i7. The X58 probably needs such administrative protective measures, being not that perfect in technical respect.
http://ixbtlabs.com/articles3/cpu/amd-phenom-2-x4-925-955-p3.html
Ansonsten unterstreicht das noch das Argument, dass so ein PC aus mehr Teilen als nur CPU & GPU besteht ...
Ansonsten hier noch ein älterer Artikel, was alles beim Benchen schief gehen kann:
http://ixbtlabs.com/articles2/video/fraps.html
Avalox
2009-12-18, 17:01:04
Mangelndes Hintergrundwissen bei PCGH und HT4U ist schon eine harrsche Unterstellung, die konkreter begründet werden sollte...
Warum ist dieses ein harsche Unterstellung?
Jemand, welcher eine allgemeingültige Aussage treffen will, sollte über die Interna von dessen war er dort beurteilt hinreichend Bescheid wissen.
Nun erzähle mir mal, dass überhaupt jemand ausserhalb von MS so hinreichend über Windows Bescheid weiß, dass er Seiteneffekt dort ausschliessen kann.
Das gilt ja noch viel mehr, dass dieser jemand, dass selbe Wissen über alle Interna der Systemtreiber, aller Anwendungen inkl. der verwendeten Testspiele und den Hardwarekomponenten mitbringt.
Es ist total illusorisch, dass jemand überhaupt eine generelle Aussage treffen will. Es ist hochgradig unseriös überhaupt erst den Eindruck versuchen zu erwecken, dieses zu können. Dieses entlarvt doch gerade dadurch schon die Unprofessionalität.
Wenn jemand testet, dann testet er das System mit seiner Software so wie es ist. Fertig. Nicht mehr und nicht weniger. Eben ein Anwendungstest. Nur muss dieses dann auch so heraus gestellt werden.
Daraus allgemeine Aussagen, oder gar Noten abzuleiten, bzw. Diagramme zu vereinfachen ist völlig unprofessionell und schlicht so nicht möglich.
Ganz im Gegenteil und jetzt unterstelle ich mal wirklich was, kann doch 99% der dort aufgefahrenen Tester nicht mal hinreichend beschreiben wie die PCIe Kommunikation auf Protokollebene stattfindet. Noch es überhaupt verstehen, wie dieses in der Hardware realisiert wird. Auch können diese keinen Compiler bedienen, oder im Ansatz die Mathematik hinter den verwendeten Algorithmen verstehen.
Sich aber anmaßen dort allgemeine Testurteile zu erlauben.
dildo4u
2009-12-18, 17:27:41
gabs schon sry.
Undertaker
2009-12-18, 18:26:21
Um überhaupt eine (eigentlich offensichtliche) Aussage treffen zu können muss man eben die z.B. 0.000001% MehrFPS, die bei weiterer Verdopplung der CPU Leistung eintreten, vernachlässigen
Exakt. Und unter dieser Voraussetzung sind die fps in einem GPU-Limit nach obiger Definition von Dargo in 99,99% aller Fälle bei sauberem Test auf allen ausreichend schnellen CPUs identisch. :)
dargo
2009-12-18, 22:41:10
Ah ha und wenn die CPU Daten aus dem RAM der Grafikkarte, statt aus dem Arbeitsspeicher anfordert, dann ist es eine GPU Limitierung nach der Logik?
Wen interessiert das? Das einzige was zählt sind die fps. Ob jetzt speziell irgendwelche Buse limitieren ist doch völlig uninteressant. In erster Linie will der User wissen ob im Setting XY die Grafikkarte oder CPU limitiert. Wenn ich eine XY-Szene mit einer 2Ghz-CPU teste, diese auf 3Ghz takte und sich an den Frames absolut nichts ändert (0,xx% Abweichungen sind völlig irrelevant) dann ist diese Szene für mich zu 100% gpu gzw. grafiklimitiert. Da kannst du die CPU auch gerne auf 4Ghz takten, es bringt absolut keine Mehrleistung.
Genauso verhält es sich beim vollständigen CPU-Limit. Ob da jetzt der FSB etc. limitiert ist zwar interessant zu erfahren. Es ändert aber nichts an der Tatsache, dass ich mit einer beispielsweise doppelt so schnellen Grafikkarte keine Mehrleistung bekomme. Mal davon abgesehen, dass wenn von vorne rein schon irgendwelche Buse extrem limitieren der IHV das gesamte System verbockt hat. Bestes Beispiel - der Intel-Quadcore S775. Allerdings würde ich es noch nicht als extrem bezeichnen.
Avalox
2009-12-19, 08:22:12
Wen interessiert das? Das einzige was zählt sind die fps. Ob jetzt speziell irgendwelche Buse limitieren ist doch völlig uninteressant. In erster Linie will der User wissen ob im Setting XY die Grafikkarte oder CPU limitiert.
Nein ist es nicht.
Denn solange der Tester dieses nicht berücksichtigt, oder noch nicht mal im Ansatz überhaupt die benötigten Kenntnisse hat, kann der Tester immer nur von seinem Testsystem ausgehen und nicht verallgemeinern.
Da aber der Tester mit einer sehr hohen Wahrscheinlichkeit an einem System testet, welches sich vom System des Users unterscheidet, kann der Tester überhaupt keine allgemeine Aussage treffen. Der User hat von solchen Tests keine allgemeine Aussage.
Solche Tester, oder Testmedien welche allerdings solche Behauptungen aufstellen oder den Eindruck erwecken sind hochgradig unseriös.
Undertaker
2009-12-19, 09:51:45
Da eine Verallgemeinerung für identische CPU und GPU in 99,99% aller Fälle uneingeschränkt gültig ist und trotz völlig anderem Restsystem die gleiche Performance in Spielen liefert, ist eine solche die einzig praktikable Lösung. Ein Computer ist ein viel zu komplexes System, als das du unter einer Bedingung der 100%igen Gleichheit noch zu verwertbaren Ergebnissen kommst (da keiner die exakt identische Konfiguration besitzen wird).
Ein Nutzer mit CPU A und GPU B wird immer auf +-5% das identische Ergebnis eines Benches kommen wie ein Review, das ebenfalls CPU A und GPU B verwendet und nicht gerade einer der beiden grobe Schnitzer in seinem Setup besitzt (wie extremen Rammangel, Konfigurationsfehler, völlig veraltete Grafiktreiber o.ä.).
Deine gewünschte Vorgehensweise schießt völlig an der Praxis vorbei, da brauchen wir über Seriösität erst gar nicht reden.
Avalox
2009-12-19, 10:04:45
anderem Restsystem die gleiche Performance in Spielen liefert, ist eine solche die einzig praktikable Lösung. Ein Computer ist ein viel zu komplexes System,
Nein, PCs heute sind nur zu ähnlich, um sofort mit solch einer Dilettantenpraxis für den Letzten offensichtlich gegen den Baum zu fahren.
Uneingeschränkt kann sowas nie sein.
Ein Nutzer mit CPU A und GPU B wird immer auf +-5% das identische Ergebnis eines Benches kommen wie ein Review,
Selbst wenn diese völlig willkürlichen +-5% dort angenommen werden, hast du immer noch eine Streuung von 10%.
Undertaker
2009-12-19, 10:08:02
Nein, PCs heute sind nur zu ähnlich, um sofort mit solch einer Dilettantenpraxis für den Letzten offensichtlich gegen den Baum zu fahren.
Jeder Ingenieur wird dir sagen können, dass du bestimmte Vereinfachungen einfach treffen musst, um überhaupt zum Ziel zu kommen. Klar gibt es Pedanten, die das nicht einsehen wollen (jetzt nicht persönlich nehmen), aber die werden auch nie ans Ziel kommen.
Selbst wenn diese völlig willkürlichen +-5% dort angenommen werden, hast du immer noch eine Streuung von 10%.
Was für eine derartige Betrachtung ein durchaus annehmbarer Bereich sein dürfte. Zumal die zu erwartende Standardabweichung noch deutlich darunter liegen wird. Schau mal, wie genau der Test von Dargo und einem anderen Nutzer hier im Forum in FC2 war. Obwohl sich praktisch jede Komponente unterschied, sogar die identische GPU-Leistung nur über die Taktraten simuliert wurde, wichen die Ergebnisse im GPU-Limit um weniger als 2% ab.
Avalox
2009-12-19, 10:13:50
Jeder Ingenieur wird dir sagen können, dass du bestimmte Vereinfachungen einfach treffen musst, um überhaupt zum Ziel zu kommen. Klar gibt es Pedanten, die das nicht einsehen wollen (jetzt nicht persönlich nehmen), aber die werden auch nie ans Ziel kommen.
Nee. Da hast du mich gründlich missverstanden.
Der Ingenieur wird dir aber auch sagen, dass er den Hintergrund der Vereinfachung versteht und deshalb weiss, wann die Vereinfachung zu falschen Ergebnissen führt.
Der Tester in der o.g. Zeitung versteht aber den Hintergrund seiner Vereinfachung nicht und deshalb weiss er auch nicht, wann seine Vereinfachung nicht funktioniert. Er hält dann die Ergebnisse für falsch, obwohl seine Vereinfachung falsch ist.
Das ist der Unterschied.
Das ist ja auch der Grund warum Dilettanten zwar in PC Zeitschriften schreiben, aber keine Flugzeuge bauen dürfen.
Undertaker
2009-12-19, 10:23:34
Es wäre zu belegen, dass eine solche Vereinfachung zu Abweichungen führt, die über das gewünschte Genauigkeitsmaß hinausgeht. Die Praxis spricht sehr stark dagegen:
Schau mal, wie genau der Test von Dargo und einem anderen Nutzer hier im Forum in FC2 war. Obwohl sich praktisch jede Komponente unterschied, sogar die identische GPU-Leistung nur über die Taktraten simuliert wurde, wichen die Ergebnisse im GPU-Limit um weniger als 2% ab.
Avalox
2009-12-19, 10:29:11
Es wäre zu belegen, dass eine solche Vereinfachung zu Abweichungen führt, die über das gewünschte Genauigkeitsmaß hinausgeht. Die Praxis spricht sehr stark dagegen:
Aller Anfang solch eines Beleges ist es ja den Grund für die Abweichung zu ermitteln und nicht die Abweichung als "Messfehler" zu deklarieren.
Undertaker
2009-12-19, 10:39:59
Es ist nicht wirklich schwer den Grund für Abweichungen zu ermitteln, wenn z.B. einmal Speicher mit CL5 und einmal mit CL6 verwendet wird. Fakt ist aber, dass dies in einem Bench im GPU-Limit kaum verwertbare Abweichungen erzeugt, da schon die Schwankungen des Benchmarks zwischen einzelnen Durchläufen selbst auf dem gleichen System deutlich darüber liegen. Für diese Schwankungen wirst du auch keine tiefgreifendere Untersuchung mehr vornehmen (können), sondern nur noch eine Sammlung von dafür verantwortlichen Fehlerquellen (Betriebssystem, Unterschiede im Ablauf des Benchmarks) zusammenstellen können und den Fehler beziffern. Deswegen gilt das Messergebnis genauso wie vorher, beschränkt auf einen gewissen Toleranzbereich auf Grund unvermeidbarer Messfehler.
dargo
2009-12-19, 11:10:36
Aller Anfang solch eines Beleges ist es ja den Grund für die Abweichung zu ermitteln und nicht die Abweichung als "Messfehler" zu deklarieren.
Wenn ich mit meinem System Y im absoluten GPU-Limit die gleichen Frames wie ein anderer User mit System X erreiche und irgendein Review stark davon abweicht dann gehe ich davon aus, dass der Reviewer Messfehler begangen hat. Keine Messfehler die von der Software resultieren sondern die er selbst zu verantworten hat. Ansonsten kannst du mir gerne erklären warum die Systeme X und Y gleichauf liegen, aber ein System Z nicht. Ich habe schon einmal gesagt - man kann unheimlich viel beim Benchmarken falsch machen.
Ohne dir jetzt irgendwas zu unterstellen - wieviele Benchmarks hast du schon angestellt und diese unter gleichen Vorraussetzungen (zb. bei gleicher Grafikkarte) mit anderen Usern verglichen?
Aller Anfang solch eines Beleges ist es ja den Grund für die Abweichung zu ermitteln und nicht die Abweichung als "Messfehler" zu deklarieren.
Man kann aber nicht einen mathematischen Beweis führen (bzw. diesen fordern) um seine Schlussfolgerung aus einem Test bzw. dessen Messergebnissen (z.b. GPU Limit) zu belegen. Denn dann könnte man sich den Test gleich sparen und das "Ergebnis" errechen.
CB hat einen CPU Rundumtest mit neuem Bench Setup, u.a. eine 5870:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/#abschnitt_einleitung
Bei Anno 1404 ist ein AMD 965 plötzlich (deutlich) schneller als die Intels:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/12/#abschnitt_anno_1404
Könnte man anhand der AMD/Intel Frameverläufe bei Anno folgern, dass den Intels sehr schnell der Cache ausgeht ? Ich nehme ja mal an, dass Anfangs alles mögliche geladen wird; CB bencht auch mit einem sehr großen Szenario.
Ansonsten .. FC2, das übliche Bild, C2Q vorne, gefolgt von AMD, danach die Nehalems - diesmal sogar mit einer ATi Karte.
ciao
Alex
dildo4u
2009-12-23, 19:06:30
CB hat einen CPU Rundumtest mit neuem Bench Setup, u.a. eine 5870:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/#abschnitt_einleitung
Bei Anno 1404 ist ein AMD 965 plötzlich (deutlich) schneller als die Intels:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/12/#abschnitt_anno_1404
Könnte man anhand der AMD/Intel Frameverläufe bei Anno folgern, dass den Intels sehr schnell der Cache ausgeht ? Ich nehme ja mal an, dass Anfangs alles mögliche geladen wird; CB bencht auch mit einem sehr großen Szenario.
Ansonsten .. FC2, das übliche Bild, C2Q vorne, gefolgt von AMD, danach die Nehalems - diesmal sogar mit einer ATi Karte.
ciao
Alex
Die merken leider nich mal wenn sie Mist benchen,das Problem sowas geht in die Gesammtwertung.(Arma 2 Core i7 960)
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/19/#abschnitt_arma_2
wollte auch gerade schreiben, dass bei CB der nächste müll-cpu-test raus ist.
bei xbit labs gibts auch einen neuen und anständigen.
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling.html
Ansonsten .. FC2, das übliche Bild, C2Q vorne, gefolgt von AMD, danach die Nehalems - diesmal sogar mit einer ATi Karte.
Vorsicht, CB hat in FC2 nur die nichtssagende Timedemo genommen.
Die merken leider nich mal wenn sie Mist benchen,das Problem sowas geht in die Gesammtwertung.(Arma 2 Core i7 960)
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/19/#abschnitt_arma_2
Tja da pfuscht SMT mit rein.
wollte auch gerade schreiben, dass bei CB der nächste müll-cpu-test raus ist.
bei xbit labs gibts auch einen neuen und anständigen.
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling.html
Computerbild äh base hatte früher mal brauchbare (zumindest einigermaßen und bzgl. Grafikkarten) Tests. Sind die wirklich so schlecht geworden?
dildo4u
2009-12-23, 20:35:47
Tja da pfuscht SMT mit rein.
Der 870 hat auch SMT. :rolleyes:
Ronny145
2009-12-23, 20:38:35
Der 870 hat auch SMT. :rolleyes:
Der i5 aber nicht. Aber interessant, dass auch Win 7 performance Einbrüche mit SMT hat, wenn auch wohl deutlich weniger als noch in Vista. Obwohl ich ich mich gerade frage warum der i7-960 nur auf 13 fps min kommt.
desert
2009-12-23, 20:41:04
wollte auch gerade schreiben, dass bei CB der nächste müll-cpu-test raus ist.
bei xbit labs gibts auch einen neuen und anständigen.
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling.html
Genau und dort zeigt auch die nehalem architektur wo der hammer hängt. Ich meine wenn dort ein auf 4,1 ghz übertakteter AMD nicht mal ansatzweise mit einen i7 mit 2,7 ghz mithält bei bestimmten spielen sagt das schon einiges aus, und bei den anderen erreicht der übertakte gerade mal gleichstand mit einen stock 2,7 ghz i7.
Die haben konsequenter weise das gpu-limit ausgeschaltet mit 2 x 5870 und siehe da nehalem ist überall deutlich schneller.
Das hat man schon damals bei cb gesehen, als sie nicht mit einer grafikkarte getestet hatten, sondern mit sli u. tripple sli.
boxleitnerb
2009-12-23, 21:37:50
Krasser Test! Wobei da auch Anomalien dabei sind. Teilweise ist CF-X bei den min fps langsamer als eine Karte, besonders auf der AMD-Plattform. Manchmal sind auch Sprünge der min-fps von z.B. 9 auf 21 dabei obwohl der Takt nur um ca. 30% angehoben wurde.
Auch ist der C2D manchmal taktnormiert schneller als der i7 ?
Die haben konsequenter weise das gpu-limit ausgeschaltet mit 2 x 5870 und siehe da nehalem ist überall deutlich schneller.
Darum gehts hier nicht, hier gehts darum wieso Nehalems unter 3D Last schlechter sind. Im CB Fall ist 3D Last = GPU Limit. Was hilft mir der Umstand der tollen CF Werte, wenn ich nur eine 5870 habe ?
Wäre mal interessant, ob beim Nehalem zwei 5770er mit ähnlichem Takt schneller als eine 5870er wären.
Den xbit Test hatten wir hier übrigens schon auf Seite 2 durchgekaut ... nur DDR2, nur 2x PCIe x8 ... da reden wir mal weiter, wenn er einen Test mit vergleichbarer Hardware macht.
Aber sehr gut möglich, dass die Nehalems bei CF profitieren, da laufen für die beiden GPUs ja auch 2 Threads, oder nicht ? Soll heißen der einzelne Thread wird entlastet -> Die Nehalem Flaschenhals wird umgangen (was / wo auch immer der ist).
ciao
Alex
wen interessiert denn eine CPU im GPU limit?
Nur im CPU limit kann die zeigen wo der Frosch die Locken hat. Das sieht man dann auch mit entsprechender Grafikhardware auch sehr schön (siehe xbit).
Die Farcry2 Sache haben wir hier ja schon nachgebencht.
boxleitnerb
2009-12-23, 22:30:56
Selbst mit einer 5870 ist das hier anders:
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_5.html#sect2
Nehalem immer schneller bzw. gleich im Limit. Fragt sich, wieso ist es hier anders als bei anderen Tests, die diese angebliche Anomalie aufgezeigt haben?
CB hat einen CPU Rundumtest mit neuem Bench Setup, u.a. eine 5870:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/#abschnitt_einleitung
Bei Anno 1404 ist ein AMD 965 plötzlich (deutlich) schneller als die Intels:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/12/#abschnitt_anno_1404
Könnte man anhand der AMD/Intel Frameverläufe bei Anno folgern, dass den Intels sehr schnell der Cache ausgeht ? Ich nehme ja mal an, dass Anfangs alles mögliche geladen wird; CB bencht auch mit einem sehr großen Szenario.
Ansonsten .. FC2, das übliche Bild, C2Q vorne, gefolgt von AMD, danach die Nehalems - diesmal sogar mit einer ATi Karte.
ciao
Alex
Und damit sind wir wieder beim Thema. Wie kann es bitteschön sein, dass ein Phenom II X4 965 BE 27 % schneller als ein i5-750 @ Turbo on ist. Bei den i7 könnte man ja von einem SMT-Problem reden, aber das hat ein i5 nicht. Und eine HD 5870 wird sicherlich auch nicht bremsen, zumal der Vorsprung sowohl bei 1024 x 768 als auch 1680 x 1050 gleichbleibend groß ist. PCGH wiederum misst: http://www.pcgameshardware.de/aid,694356/Intel-Core-i5-750-und-Core-i7-860/-870-Lynnfield-CPUs-im-Test/CPU/Test/?page=2 Bei denen ergibt sich das absolut gegenteilige Bild. Ein i5-750 @ Turbo off ist 26 % schneller als ein Phenom II X4 965 BE. :ugly:
wen interessiert denn eine CPU im GPU limit?
Lol Du Spassvogel, na alle die, die nicht @VGA Auflösung spielen :freak:
(Gab in der Zwischenzeit noch ein Edit im letzten Post, falls das noch jemanden interessieren sollte)
Nehalem immer schneller bzw. gleich im Limit. Fragt sich, wieso ist es hier anders als bei anderen Tests, die diese angebliche Anomalie aufgezeigt haben?Das ist das gleiche wie mit den widersprüchlichen Anno Werten bei cb vs. PCGH, anderes Szenario plus im xbit Fall noch das alte Mainboard plus heftiges NB OC bei xbitlabs, DDR3-1600 -> 3,2 GHz Uncoretakt. Könnte v.a. im GPU Limit mehr bringen als die sonst üblichen paar Prozent. Ein paar Promille sollten auch noch der Speicher ausmachen, der gebenchte 1600er RAM hat CL7, ist schon ein bisschen besser als CL5 @ DDR2-1066.
Wäre mal bei solchen Tests ganz nett, auf nem 2ten Monitor die CPU Auslastung im Taskmanager mitzufilmen ;)
(Wenn es das Testergebnis nicht verfälscht)
ciao
Alex
Undertaker
2009-12-23, 22:47:46
NB und Speicher bringen dir im GPU-Limit gar nix ;)
Den xbit Test hatten wir hier übrigens schon auf Seite 2 durchgekaut ... nur DDR2, nur 2x PCIe x8 ...
...Im Single-GPU-Betrieb irrelevant, der wurde bei XBit auch gemessen - ohne Differenzsn zu zeigen.
S940 du klammert dich wieder an jeden Strohalm. Alle benchen falsch, ausser Computerbildase, weil da die Werte zu gefallen wissen.
S940 du klammert dich wieder an jeden Strohalm. Alle benchen falsch, ausser Computerbildase, weil da die Werte zu gefallen wissen.Solange Du mir keinen Link zu nem xbitlabs artigem Bench mit AMD @AM3 und FX790 plus i7 @DDR3-1066 liefern kannst, machst Du nichts anderes :freak:
Frohes Fest
Der neue Computerbase-Artikel spiegelt das Problem ausgezeichnet wider. Performancerating Spiele: Bei 800 x 600 liefert ein X4 965 BE nur 86 % der Performance eines i7-870. Bei 1680 x 1050 ist er aber schneller. Also entweder stimmt etwas mit dem DMI- / QPI-System von Intel nicht (da das Problem ja auftritt, wenn die Grafikkarte zusätzlich belastet wird) oder der L2-Cache ist zu klein oder weißichnichtwas, aber eine HD 5870 limitiert garantiert nicht und zum Framezahlen bestimmen auf Nehalem-Systemen wird Computerbase ja nicht zu blöd sein. SMT kann man als Fehlerquelle ausschließen, da der i5 ebenfalls betroffen ist. Was heißt das jetzt?
Der neue Computerbase-Artikel spiegelt das Problem ausgezeichnet wider. Performancerating Spiele: Bei 800 x 600 liefert ein X4 965 BE nur 86 % der Performance eines i7-870. Bei 1680 x 1050 ist er aber schneller. Also entweder stimmt etwas mit dem DMI- / QPI-System von Intel nicht (da das Problem ja auftritt, wenn die Grafikkarte zusätzlich belastet wird) oder der L2-Cache ist zu klein oder weißichnichtwas, aber eine HD 5870 limitiert garantiert nicht und zum Framezahlen bestimmen auf Nehalem-Systemen wird Computerbase ja nicht zu blöd sein. SMT kann man als Fehlerquelle ausschließen, da der i5 ebenfalls betroffen ist. Was heißt das jetzt?
Der Test von CB stimmt vorne bis hinten nicht. Z.B. wie kann ein um 21% höher getakteter Phenom 29% mehr leisten als sein jüngerer Bruder(Anno 1024x768)? Bzw. 32% mehr bei den MinFPS?
Avalox
2009-12-24, 09:49:10
Der Test von CB stimmt vorne bis hinten nicht. Z.B. wie kann ein um 21% höher getakteter Phenom 29% mehr leisten als sein jüngerer Bruder(Anno 1024x768)? Bzw. 32% mehr bei den MinFPS?
Auch dafür ließen sich zur Not Erklärungen finden.
Z.B. dann, wenn ein definierter Rechenaufwand durch das System oder einer Systemkomponente bedingt ist. Für das Spiel bleiben die freien Kapazitäten. So können durchaus die Leistungen einer isoliert betrachteten Anwendung überproportional steigen.
Der Test sagt dazu nichts, ist kein guter Test. Aber der Test von IXBT ist ebensowenig ein guter Test.
Alles Dilettantentests..
Z.B. dann, wenn ein definierter Rechenaufwand durch das System oder einer Systemkomponente bedingt ist. Für das Spiel bleiben die freien Kapazitäten. So können durchaus die Leistungen einer isoliert betrachteten Anwendung überproportional steigen.
Nein, so lässt sich das bestimmt nicht erklären.
Auch dafür ließen sich zur Not Erklärungen finden.
Z.B. das einige Werte frei erfunden sind.
Avalox
2009-12-24, 10:56:54
Nein, so lässt sich das bestimmt nicht erklären.
Aber klar. Du glaubst nur, dass es so nicht ist. Wissen tust du es nicht.
Ich auch nicht. Weil der Test sagt ja darüber nichts.
Der Test ist schlecht. Im IXBT Test muss man aber auch glauben.
Komplett schlechte Tests.
Aber klar. Du glaubst nur, dass es so nicht ist. Wissen tust du es nicht.
Ich auch nicht. Weil der Test sagt ja darüber nichts.
Der Test ist schlecht. Im IXBT Test muss man aber auch glauben.
Komplett schlechte Tests.
Ich glaube an die Logik. Und die sagt mir, "überproportionalen Anstieg der Performance gibt es nicht. In der Realität, in 99,999999999999% der Fälle, findet ein 'unter-linearar' Anstig der Perf statt. Wenn man 'Glück' hat, dann eben ein linearer. Sowas wie 'überproportionalen Anstieg der Performance' gibt es nicht, weil es auch Perpetuum Mobile nicht gibt."
Sowas wie 'überproportionalen Anstieg der Performance' gibt es nicht, weil es auch Perpetuum Mobile nicht gibt."
stell dir einen single-core vor auf dem 2 threads laufen,
und jetzt einen dual-core wo die 2 threads laufen
durch den kostenanteil des switchings kann man einen performance-anstieg >100% messen
stell dir einen single-core vor auf dem 2 threads laufen,
und jetzt einen dual-core wo die 2 threads laufen
durch den kostenanteil des switchings kann man einen performance-anstieg >100% messen
Eine DC-CPU hat üblicherweise mehr als +100% mehr Transistoren, als eine SC. Insofern ist das nicht >100% Leistung, sondern das Potential wird einfach ausgenutzt. Aber, das hat nichts mit den CompBase-Werten zu tun. Hier unterscheiden sich die CPUs nur durch ihren Takt. Und wenn dieser um 21% steigt, dann kann es nie und nimmer zu einem Perfanstieg von 29 bzw 32% kommen.
Du hast eine steile These aufgestellt:
Ich glaube an die Logik. Und die sagt mir, "überproportionalen Anstieg der Performance gibt es nicht.
Soweit in Ordnung, pest hat dich mit einem plausiblen Gedankenmodell widerlegt. Die Logik erlaubt Zuwächse >100%. Face it!
ein DC ist aber eine andere Architektur als ein SC, nämlich eine Multi-CPU Architektur. Das ist ein Apfel-Birne Vergleich und keine (theoretische) lineare Architektur Leistungssteigerung durch Takterhöhung.
durch den kostenanteil des switchings kann man einen performance-anstieg >100% messen
Das ist ein Irrglaube. Windows und praktisch alle anderen Desktopbetriebssysteme arbeiten preemtive. Geswitcht wird also immer, unabhängig davon wieviele Threads auf wievielen Kernen laufen.
Matrix316
2009-12-24, 11:40:05
Eine DC-CPU hat üblicherweise mehr als +100% mehr Transistoren, als eine SC. Insofern ist das nicht >100% Leistung, sondern das Potential wird einfach ausgenutzt. Aber, das hat nichts mit den CompBase-Werten zu tun. Hier unterscheiden sich die CPUs nur durch ihren Takt. Und wenn dieser um 21% steigt, dann kann es nie und nimmer zu einem Perfanstieg von 29 bzw 32% kommen.
Doch, wenn im Hintergrund noch was anderes läuft.
AnarchX
2009-12-24, 11:41:45
Der Test von CB stimmt vorne bis hinten nicht. Z.B. wie kann ein um 21% höher getakteter Phenom 29% mehr leisten als sein jüngerer Bruder(Anno 1024x768)? Bzw. 32% mehr bei den MinFPS?
Bestimmte Berechnungen sind nicht per Frame, sondern per Zeiteinheit.
Dadurch ergibt sich teilweise einer Skalierung der FPS, die über den Taktunterschied hinausgeht.
Beispiel:
CPU 1: 2000MHz - CPU 2: 3000MHz - zeitabhängige Rechenlast: 1000MHz
Abzüglich der zeitabhängigen Rechenlast, hat hier CPU2 doppelt soviel Rechenleistung für die Bildrate.
aber nicht nur im positiven Sinne ;) daher ist im Mittel eine überproportionale Leistungssteigerung gemessen am Taktanstieg äusserst unwahrscheinlich.
daher ist im Mittel eine überproportionale Leistungssteigerung gemessen am Taktanstieg äusserst unwahrscheinlich.
Natürlich und in der Realität bekommt man eine überproportionale Leistungssteigerung ja auch nur selten zu Gesicht. Man tut auch gut daran, bei derartigen Ergebnissen erst einmal alarmiert zu sein, aber ausgeschlossen und per se falsch sind sie eben nicht.
Das ist ein Irrglaube. Windows und praktisch alle anderen Desktopbetriebssysteme arbeiten preemtivepräemptiv. Geswitcht wird also immer, unabhängig davon wieviele Threads auf wievielen Kernen laufen.
habe ich zwei worker-threads, dann ist der anteil des switchings bei 2 cpus pro cpu geringer
Eine DC-CPU hat üblicherweise mehr als +100% mehr Transistoren, als eine SC. Insofern ist das nicht >100% Leistung, sondern das Potential wird einfach ausgenutzt.
es geht darum was man misst, und da kann es eben zu dem von mir angesprochenen verhalten kommen, wie eine cpu aufgebaut ist, ist der uhr egal
Der Test von CB stimmt vorne bis hinten nicht. Z.B. wie kann ein um 21% höher getakteter Phenom 29% mehr leisten als sein jüngerer Bruder(Anno 1024x768)? Bzw. 32% mehr bei den MinFPS?
Was erwartest Du, fraps mißt schon ungenau, und die nehmen dann davon nochmals einen (unscharfen) Mittelwert.
Genauso kannst Du versuchen die einzelnen Schneeflocken zu zählen die auf dem Garagendach liegen ... und wehe Du verzählst Dich um ~5% ... das wäre entweder Betrug, oder mindestens ein Zeichen für Dilettantisms :freak:
Im Endeffekt ist es aber eh egal, in der 1680er Auflösung passt es sogar mit den ~21%.
Schlussendlich werte ich den 800er Wert nur wieder als Beweis dafür, dass man sich das Testen in der Auflösung sparen kann, da es augenscheinlich NULL Aussagekraft über die fps bei höheren Auflösungen hat.
Abgesehen davon sollte man ausserdem auch nicht vergessen, dass es immer eine generelle Messungenauigkeit gibt, auch dann, wenn es nicht ins Auge sticht.
Frohes Fest
Alex
P.S: Hat der 925er eigentlich 2 GHz L3 Takt ? Ich seh überall 2 GHz HT Takt, aber seit kurzem taktet AMD HT & Uncore ab und an auch unterschiedlich.
dargo
2009-12-24, 12:51:26
Darum gehts hier nicht, hier gehts darum wieso Nehalems unter 3D Last schlechter sind. Im CB Fall ist 3D Last = GPU Limit. Was hilft mir der Umstand der tollen CF Werte, wenn ich nur eine 5870 habe ?
Dann empfehle ich dir diese Lektüre.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7715040&postcount=65
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7715238&postcount=70
Ich begreife es nicht wie man sich an dem Unsinn von CB & Co immer wieder aufhängen kann. :freak:
Lol Du Spassvogel, na alle die, die nicht @VGA Auflösung spielen :freak:
Mal davon ab, dass ich genau weiß worum es in diesem Thread geht - wie kommst du auf die Idee, dass es bei hohen Auflösungen nur GPU-Limits gibt?
Ich begreife es nicht wie man sich an den Unsinn von CB & Co immer wieder aufhängen kann. :freak:
Liegt daran, dass Computerbase reihenweise solchen Unsinn produziert und sehr gefällig präsentiert. Die Meute schlußfolgert messerscharf, unter Spielen bricht Intel ein und der Phenom II kann sich erst so richtig entfalten. :ulol:
dargo
2009-12-24, 13:02:10
Ich glaube an die Logik. Und die sagt mir, "überproportionalen Anstieg der Performance gibt es nicht. In der Realität, in 99,999999999999% der Fälle, findet ein 'unter-linearar' Anstig der Perf statt. Wenn man 'Glück' hat, dann eben ein linearer. Sowas wie 'überproportionalen Anstieg der Performance' gibt es nicht, weil es auch Perpetuum Mobile nicht gibt."
Doch, den gibts. Und zwar bei allen Anwendungen die eine Grundlast erzeugen wie zb. Spiele. Allerdings hält sich der überproportionale Anstieg der Frames bei gleicher Architektur und nur höherem Takt in Grenzen solange man weit von der Grundlast mit der langsamer getakteten CPU entfernt ist.
habe ich zwei worker-threads, dann ist der anteil des switchings bei 2 cpus pro cpu geringer
Nein, ein thread rechnet immer nur eine maximal vorgegebene Zeit, danach wird die Arbeit grundsätzlich unterbrochen.
du willst mir auf die nerven gehen oder?
meine aussage steht überhaupt nicht im gegensatz zu deiner
zwei switches auf einer cpu sind langsamer als ein switch auf einer cpu, d.h. die cpu hat weniger zeit irgendwas zu machen.
kommt es da noch zu cache-inkonsistenzen, weil die threads auf 2xcpu ausgelegt sind, wird es richtig hässlich
Das ist ein Irrglaube. Windows und praktisch alle anderen Desktopbetriebssysteme arbeiten preemtive. Geswitcht wird also immer, unabhängig davon wieviele Threads auf wievielen Kernen laufen.
Man kann API seitig Threads auf bestimmte Kerne festlegen.
Das Problem ist das Cache-Trashing. Das ist bei zwei Threads auf zwei Cores nicht so ausgeprägt wie bei einem Core.
Aber du hast insofern recht, dass das recht konstruiert ist.
Dann empfehle ich dir diese Lektüre.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7715040&postcount=65
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7715238&postcount=70
Lach, dass musst Du mir nicht erzählen, lesen solltest eher Du, ich warte da schon seit längerem auf eine FSB Info:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7715324#post7715324
Aber lass Dir ruhig Zeit, ersten wart ich eh schon eine Weile, zweitens frohes Fest :wink:
Ich begreife es nicht wie man sich an dem Unsinn von CB & Co immer wieder aufhängen kann. :freak:
Naja, äh also ... der Weisheit letzter Schluss sind Eure Amateur Tests ja auch nicht. Das hat eher den Anschein vom "Glaube keinem Bench den Du nicht selbst gefälscht hast" :smile:
Alleine schon, dass Ihr ein anderes Szenario genommen habt und dann auch nur ein einziges, reicht für den Unterschied. Das einzige was Ihr bewiesen habt ist, dass es bei Euren Settings, den kruden Pi*Daumen Abgleich zw. 192 / 216 SPUs und dem gewählten Szenario zw. i5 & C2Q anscheinden kein Problem gibt.
Allgemeingültig ist das deswegen aber noch lange nicht. Da müßt Ihr schon (viel) mehr testen.
Wie schauts z.B. mit Hintergrundprogrammen u.ä. aus oder Sound on/off ? Wie alt waren die jeweiligen Windows Installationen ?
Mal davon ab, dass ich genau weiß worum es in diesem Thread geht - wie kommst du auf die Idee, dass es bei hohen Auflösungen nur GPU-Limits gibt?
Zitat von einem gewissen user Dargo:
Wichtiger Hinweis - in beiden Fällen herrscht zu 100% ein GPU-Limit.
Allerdings frag ich mich, wieso Du draufkommst, dass ich sowas ebenfalls behaupten würde ? Davon hab ich nie was geschrieben, da möchte ich gerne ein Zitat haben, wovon Du das rauslesen willst.
Darum gehts doch gerade dass anscheinend irgendwas anderes bremst - jenseits von GPU & CPU. Bei Deinem Selbsttest mit weniger Taktfrequenz z.B. der FSB Deines C2Q, da bräuchte man eine Extrem Edition, um das genau zu eruieren.
Ansonsten hast Du nur die Aussage, dass es langsamer ist und weisst nicht, ob es an CPU oder FSB Takt lag ... leider nutzlos...
Frohes Fest (spann Dich aus, wehe Du benchst heute noch was ^^)
Alex, der nebenbei gerade den Baum schmückt :idea: (<- gab keinen besseren "Kerzenschein Smiley" ^^)
du willst mir auf die nerven gehen oder?
Nein
meine aussage steht überhaupt nicht im gegensatz zu deiner
Doch
zwei switches auf einer cpu sind langsamer als ein switch auf einer cpu, d.h. die cpu hat weniger zeit irgendwas zu machen.
Es sind immer 2 Switches, einmal auf einer und einmal auf 2 CPUs
kommt es da noch zu cache-inkonsistenzen, weil die threads auf 2xcpu ausgelegt sind, wird es richtig hässlich
Zu inkonsitenzen sollte es nicht kommen, dann hätte die hardware einen Fehler.
Natürlich haben 2 Kerne mehr Cache als einer, und damit wird die Wahrscheinlichkeit geringer, dass ein Thread die Cachelines des anderen hinausboxt.
y33H@
2009-12-24, 16:41:43
Performancerating Spiele: Bei 800 x 600 liefert ein X4 965 BE nur 86 % der Performance eines i7-870. Bei 1680 x 1050 ist er aber schneller.Hach, die Ratings. Bei 4/5 Spielen ist der i5 schneller oder GPU-Limit im gleich schnell, bei einem einzigen zieht der 965 vorbei und schwupps liegt der vorne :usad: Es gibt keinen Grund zur Annahme, ein 965 BE sei im Mittel in Spielen schneller - er ist es nur in Ausnahmen. Je nach Parcours kann ein Rating freilich was anderes vermitteln. Man sollte immer hinter die Balken schauen und die Werte isoliert betrachten.
Mr. Lolman
2009-12-24, 16:47:12
Hach, die Ratings. Bei 4/5 Spielen ist der i5 schneller oder GPU-Limit im gleich schnell, bei einem einzigen zieht der 965 vorbei und schwupps liegt der vorne :usad: Es gibt keinen Grund zur Annahme, ein 965 BE sei im Mittel in Spielen schneller - er ist es nur in Ausnahmen. Je nach Parcours kann ein Rating freilich was anderes vermitteln. Man sollte immer hinter die Balken schauen und die Werte isoliert betrachten.
Genau. Denn, wie aussagelrüftig sind schon 5 Spiele? Hätte man zB. GTAIV statt RE5 getestet, würds noch besser fürn 140€ Phenom vgl zum 460€ Core-i7 aussehen. Und andersrum genauso. Nichtsdestotrotz spricht spieletechnisch auch im Topperformancesegment eigentlich nix gegen einen Phenom II.
y33H@
2009-12-24, 16:50:28
In GTA4 ist ein i5/i7 in den mir bekannten Benches (leicht bis klar) in Front, ergo schlechter für den 965 ;)
EDITNichtsdestotrotz spricht spieletechnisch auch im Topperformancesegment eigentlich nix gegen einen Phenom II. Leistungsaufnahme, OC-Potenzial?
Leistungsaufnahme, OC-Potenzial?
Zukunftssicherheit, Preis, Mainboards ? :)
OC interessiert ab einer bestimmten Grenze bei Games doch nun wirklich keinen. Bin mir sicher, dass Du bei nem 4,5 GHz Nehalem und 4 GHz Deneb bestimmt irgendwelche nominellen Unterschiede benchen kannst, aber das wird beidemal im spielbaren Bereichen liegen, es sein denn Du hast eine 4350 und benchst bei HD Auflösung :)
Frohes Fest
Alex
Banshee18
2009-12-24, 19:10:04
Zukunftssicherheit, Preis, Mainboards ? :)
OC interessiert ab einer bestimmten Grenze bei Games doch nun wirklich keinen. Bin mir sicher, dass Du bei nem 4,5 GHz Nehalem und 4 GHz Deneb bestimmt irgendwelche nominellen Unterschiede benchen kannst, aber das wird beidemal im spielbaren Bereichen liegen, es sein denn Du hast eine 4350 und benchst bei HD Auflösung :)
Frohes Fest
Alex
Wer garantiert dir, dass kommende AMD-CPUs auf aktuellen AM3-Boards laufen werden?
Deneb und Nehalem haben ein ähnliches Taktpotenzial mit eher leichten Vorteilen für Nehalem, der Nehalem ist pro Takt deutlich schneller. Irgendwann wird ein Deneb zu langsam für Spiele sein, während ein Nehalem wahrscheinlich noch spielbare Framerates auf den Bildschirm zaubern kann. Insofern ist die Zukunftssicherheit bei der AMD-Plattform natürlich nützlich.
StefanV
2009-12-24, 19:37:26
AMD, die sprechen in den Folien von 'AM3r2', auf Deutsch AM3+ bzw 2. Generation, in Verbindung mit dem Bulldozer Kern.
Banshee18
2009-12-24, 19:51:02
AMD, die sprechen in den Folien von 'AM3r2', auf Deutsch AM3+ bzw 2. Generation, in Verbindung mit dem Bulldozer Kern.
AM3+? Aktuelle Sockel sind AM3, oder?
Neuere Core 2-CPUs laufen auch nicht auf alten 775er-Boards, vielleicht wirds bei AMD genauso. Verlassen würde ich mich nicht auf die Kompatibilität.
StefanV
2009-12-24, 19:55:24
Genau, heißt hier gibts wohl wieder einige Änderungen an der Spannungsversorgung, wie schon von AM2 zu AM2+.
Wer garantiert dir, dass kommende AMD-CPUs auf aktuellen AM3-Boards laufen werden?
AMD macht das immer so, die sind nicht intel ;-)
Deneb und Nehalem haben ein ähnliches Taktpotenzial mit eher leichten Vorteilen für Nehalem, der Nehalem ist pro Takt deutlich schneller. Irgendwann wird ein Deneb zu langsam für Spiele sein, während ein Nehalem wahrscheinlich noch spielbare Framerates auf den Bildschirm zaubern kann. Insofern ist die Zukunftssicherheit bei der AMD-Plattform natürlich nützlich.Sehr starke Übertreibung bzw. unbegründete Panikmache. Das Argument gabs auch schon letztes Jahr ... was wurde da geweissagt, wie der Phenom mit den DX11 Karten dahinsiechen würde ...
Salopp gesagt: Blödsinn. Was soll denn großes kommen was Rechenleistung verschlingen sollte ? Wenn was in Zukunft kommt, dann Physik, und dafür ist selbst ein 6Kern Westmere zu lahm, das wird dann per DX11 oder OpenCL auf die Grafikkarte verfrachtet.
In jedem Fall reichen aktuelle CPUs (inkl. OC) *immer* 2 Jahre, so schnell kommt da keine Revolution. Leute mit nem Q6600 über 3 Ghz sind z.Zt. immer noch gut dabei.
In <2 Jahren gibts wie besagt dann Zambezi als Upgrade ... bei Sockel 1156 gibts bis dahin vielleicht sogar 2 Generationen ... Einzig 1366 wäre zu gebrauchen, da bin ich ein Fan von, gibt sogar günstige Boards unter 150 Euro, aber CPUs sind leider teuer :(
Neuere Core 2-CPUs laufen auch nicht auf alten 775er-Boards, vielleicht wirds bei AMD genauso. Verlassen würde ich mich nicht auf die Kompatibilität.Das einzige Problem ist der BIOS Support, problematisch sehe ich da die Gerüchte über Asus und DFi, wenn die wirklich den Laden dicht machen, oder auslagern, bleibt wohl nur noch Gigabyte.
@StefanV:
Eventuell ist das "r2" sogar nur aufgrund des DDR3-1866 Supports, AMD vergibt da schnell eine neue "rX" Nummer. Der Socket-F für die 4x4 boards war z.B. schon Socket-Fr3, das Modell mit Splitvoltage (wie bei AM2+) war Fr5 ;-)
Frohes Fest
Alex
Lawmachine79
2009-12-24, 23:03:50
AM3+? Aktuelle Sockel sind AM3, oder?
Ach, da macht man sich als AMD-User keine Gedanken drüber, da ist man erfolgsverwöhnt. Man braucht nicht für jedes Stepping ein neues Board. Schließlich laufen AM3 CPUs ja auch in AM2+ Boards bzw. oft auch in AM2 Boards.
In <2 Jahren gibts wie besagt dann Zambezi als Upgrade ... bei Sockel 1156 gibts bis dahin vielleicht sogar 2 Generationen ... Einzig 1366 wäre zu gebrauchen, da bin ich ein Fan von, gibt sogar günstige Boards unter 150 Euro, aber CPUs sind leider teuer :(
Sockel 1366 ist im Moment DIE Plattform. Wenn ich nicht eine eiserne Schmerzgrenze hätte, was Komponenten angeht, hätte ich da schon längst zugeschlagen.
Zunächst ist einmal fraglich, wann überhaupt eine kommende AMD-CPU die Leistung aktueller LGA1156 CPUs erreichen wird. Gerade im für Spiele auch weiterhin wichtigen Bereich der pro-Kern Performance. Gut möglich, dass Bulldozer nichteinmal an einen aktuellen Lynnfield (gerade auch mit dem OC-Potential) herankommt, bei einem IPC Unterschied von etwa 50% in Spielen. Insofern wäre ein Upgrade, selbst falls es möglich wäre - was noch in den Sternen steht - kaum ein Vorteil zu einem bereits heute kaufbaren LGA1156-System. Dazu krebst man dann mit einer vollkommen veralteten Plattform ohne die dann aktuellen Schnittstellen und Features herum.
Gibt es in irgendeinem Forum einen nennenswerte Anzahl von Nutzern, die eine AM3 CPU auf einem AM2 Board nutzen? Nein. Es macht schlicht viel zu wenig Sinn bzw. ist zu kompromissbehaftet, als einfach ein neues Board zu erwerben.
Lawmachine79
2009-12-25, 03:32:00
Zunächst ist einmal fraglich, wann überhaupt eine kommende AMD-CPU die Leistung aktueller LGA1156 CPUs erreichen wird. Gerade im für Spiele auch weiterhin wichtigen Bereich der pro-Kern Performance. Gut möglich, dass Bulldozer nichteinmal an einen aktuellen Lynnfield (gerade auch mit dem OC-Potential) herankommt, bei einem IPC Unterschied von etwa 50% in Spielen. Insofern wäre ein Upgrade, selbst falls es möglich wäre - was noch in den Sternen steht - kaum ein Vorteil zu einem bereits heute kaufbaren LGA1156-System. Dazu krebst man dann mit einer vollkommen veralteten Plattform ohne die dann aktuellen Schnittstellen und Features herum.
Gibt es in irgendeinem Forum einen nennenswerte Anzahl von Nutzern, die eine AM3 CPU auf einem AM2 Board nutzen? Nein. Es macht schlicht viel zu wenig Sinn bzw. ist zu kompromissbehaftet, als einfach ein neues Board zu erwerben.
1) Es sind keine 50% - wenn man ein selektiertes Einzelbeispiel nimmt, mag das in diesem Einzelfall zutreffen. Aber wenn ich das selektierte Einzelbeispiel 1680x1050 nehme, hat AMD im Moment die Performancekrone. Wir wissen aber alle, daß das schwachsinnig ist, warum sollte ich also im umgekehrten Fall selektierte Einzelbeispiele nennen?
2) Bei Defaulttaktraten ist ein 965BE regelmäßig schneller als ein Core-i5-750. Da könnt Ihr Euch drehen und wenden wie Ihr wollt. Und das Argument "OC" ist ein "aber".
3) Eine Sache verstehe ich nicht ganz. Vielleicht erklärt sie mir jemand. Wieso gewinnen die AMD-CPUs (oder die CPU) in der hohen Auflösung? Da es sich wie ein roter Faden durch alle Testberichte zieht kann mir hier keine mehr mit "Messtoleranz" kommen. Irgendwo ist das was richtig krumm.
4) Was für Kompromisse muss ich denn machen, um eine AM3 CPU in einem AM2/+ Board zu betreiben? Sobald es läuft (bei AM2 auf der Herstellerseite gucken, beim AM2+ läuft es immer) muss ich keine Kompromisse machen.
1) In einigen Fällen sind es sogar mehr als 50%. Einfach mal durch die letzten Tests der PCGames Hardware lesen.
2) Bei manchen Anwendungen ja, bei Spielen praktisch nie. Im Schnitt liegt der X4 965BE klar hinter einem i5 750 ohne Turbo. Für den Defaultbetrieb ist das angesichts des etwas günstigeren Preises aber auch OK.
3) Sie gewinnen natürlich relativ an Boden, da die GPU jeden Vorsprung immer weiter zunichte macht. Absolut gesehen ist die Performance im GPU-Limit hingegen exakt identisch, wie entsprechend saubere Tests zeigen. Gab es nicht kürzlich einen Test von Legionhardware, wo der i7 mehrfach unter hohen Settings und GPU-Limitierung vorne lag? Auch das -> Messfehler.
4) Selbstverständlich sind da Kompromisse. Diese wären u.a.:
- reduzierter HT-Link
- reduzierter Northbridgetakt
- Nur DDR2 anstatt DDR3
- auf älteren AM2 Boards nur PCIe 1.0
- ineffizientere Chipsätze und damit Boards
Für den AM3-Nachfolger steht z.Zt. ein Stromsparmodus für die Northbridge bzw. weiter erhöhte Northbridgetaktraten sowie die Unterstützung von schnellerem Speicher im Raum. Die Boards werden über USB 3.0 und S-ATA III verfügen, womöglich zudem auch schon über PCIe 3.0. Es ist fraglich, ob es BIOS-Updates geben wird. Es ist fraglich, ob geänderte Spannungsversorgungsvorschriften einen Einsatz womöglich von vornherein unterbinden.
dargo
2009-12-25, 11:10:54
3) Eine Sache verstehe ich nicht ganz. Vielleicht erklärt sie mir jemand. Wieso gewinnen die AMD-CPUs (oder die CPU) in der hohen Auflösung? Da es sich wie ein roter Faden durch alle Testberichte zieht kann mir hier keine mehr mit "Messtoleranz" kommen. Irgendwo ist das was richtig krumm.
Es ist eher das Gegenteil - einzelne Reviews wie das von CB & Co tanzen aus der Reihe. Warum das so ist habe ich schon mehrfach erwähnt. Das mag sich jetzt von meiner Seite aus arrogant anhören, aber wenn man unfähig ist mit Savegames und vor allem CPU-Tests in Games zu arbeiten sollte man es gleich bleiben lassen.
=Floi=
2009-12-25, 12:14:37
es muß eh nicht perfekt sein, aber wenn ich dafür kein neues board brauche und die cpu an sich auch noch besser (und günstig) ist, dann verbaue ich doch gerne so eine am3 cpu in ein am2 board.
wenn die "alten" 45nm c2q ebenso günstig wären, dann müsste ich mir weniger gedanken um das aufrüsten machen, weil ich schon einen 9550 oder 9650 im pc hätte.
die nehalem architektur hat durchaus potential und zeigt sie immer öfter.
1) Für den AM3-Nachfolger steht z.Zt. ein Stromsparmodus für die Northbridge bzw. weiter erhöhte Northbridgetaktraten sowie die Unterstützung von schnellerem Speicher im Raum. Die Boards werden über USB 3.0 und S-ATA III verfügen, womöglich zudem auch schon über PCIe 3.0. Es ist fraglich, ob es BIOS-Updates geben wird. Es ist fraglich, ob geänderte Spannungsversorgungsvorschriften einen Einsatz womöglich von vornherein unterbinden.
Bulldozer wird in AM3 laufen, auch Fusion wird kompatibel sein, allerdings ohne integrierte Grafik. Einige Hersteller wie Asrock werden entsprechende Updates wohl bringen.
Zum Rest, bei höheren Auflösungen und Details muss die Grafikkarte in der Regel mehr vom Arbeitsspeicher laden, da ihr lokaler Speicher einfach voller ist. Wenn nun die Verbindung Grafikkarte <-> Arbeitsspeicher entsprechend schnellere Zugriffszeiten bietet, dann kann das von Vorteil sein.
Noch was, Nehalem kann keine 50% höher IPC haben als der Phenom II, außer beim letzterem läuft die Pipeline leer und dann frage ich mich eher was die Tester oder Spieleprogrammiere für einen Schawachsinn gebaut haben, das ist nämlich garnicht so einfach :P
Bulldozer wird in AM3 laufen, auch Fusion wird kompatibel sein, allerdings ohne integrierte Grafik. Einige Hersteller wie Asrock werden entsprechende Updates wohl bringen.
Zum Rest, bei höheren Auflösungen und Details muss die Grafikkarte in der Regel mehr vom Arbeitsspeicher laden, da ihr lokaler Speicher einfach voller ist. Wenn nun die Verbindung Grafikkarte <-> Arbeitsspeicher entsprechend schnellere Zugriffszeiten bietet, dann kann das von Vorteil sein.
Noch was, Nehalem kann keine 50% höher IPC haben als der Phenom II, außer beim letzterem läuft die Pipeline leer und dann frage ich mich eher was die Tester oder Spieleprogrammiere für einen Schawachsinn gebaut haben, das ist nämlich garnicht so einfach :P
Wieso nicht? Damals war der Core, in dieser Hinsicht, dem Athlon auch deutlich überlegen.
dargo
2009-12-25, 13:08:15
Zum Rest, bei höheren Auflösungen und Details muss die Grafikkarte in der Regel mehr vom Arbeitsspeicher laden, da ihr lokaler Speicher einfach voller ist.
Wenn der Vram ausgeht ist eh alles zu spät.
Wenn nun die Verbindung Grafikkarte <-> Arbeitsspeicher entsprechend schnellere Zugriffszeiten bietet, dann kann das von Vorteil sein.
Welche schnellere Zugriffszeiten? Alle drei Plattformen werden mit PCIe 2.0 getestet. Außedem nützt dir der schnellste Arbeitsspeicher der Welt nichts. Schon alleine dieser ist meilenweit von der Bandbreite aktueller Grafikkarten entfernt.
StefanV
2009-12-25, 13:19:18
Es ist eher das Gegenteil - einzelne Reviews wie das von CB & Co tanzen aus der Reihe. Warum das so ist habe ich schon mehrfach erwähnt. Das mag sich jetzt von meiner Seite aus arrogant anhören, aber wenn man unfähig ist mit Savegames und vor allem CPU-Tests in Games zu arbeiten sollte man es gleich bleiben lassen.
Und wie erklärst du dir, dass sie aus der Reihe tanzen??
Ich meine, wenn die Plattform so toll und fehlerfrei wäre, wie du es sagst, dürften solche Ergebnisse doch gar nicht möglich sein.
Wie erklärst du denn, dass sie trotzdem möglich sind??
dargo
2009-12-25, 13:29:04
Und wie erklärst du dir, dass sie aus der Reihe tanzen??
Ich weiß welchen Mist man vorallem mit Savegames anstellen kann wenn man nicht auf jede Kleinigkeit penibel achtet. Savegames sind schon ein anderes Kaliber als eine simple Timedemo zu starten.
Edit:
Und falls du dich hier auf die Benches von CB beziehst lese dir das hier in Ruhe durch und denke mal nach. :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7734855&postcount=54
Wieso nicht? Damals war der Core, in dieser Hinsicht, dem Athlon auch deutlich überlegen.
Weil sich an der Pipeline fast ihcts geändert hat? Man lastet die vorhandenen Resourcen einfach besser aus, mehr nicht. Ähnlich K7 zu K8. Der Unterschied zwischen Core2 und K8 war immer <= 30% pro Takt in Spielen, abseits teilweise deutlich weniger.
Wenn der Vram ausgeht ist eh alles zu spät.
Vorsicht, geladen wird immer vom Arbeitsspeicher. Was du meinst ist, dass der lokale Speicher der Grafikkarte zu klein ist, um die zum Rendern benötigten Daten zu halten. Das ist aber ganz was anderes.
Welche schnellere Zugriffszeiten? Alle drei Plattformen werden mit PCIe 2.0 getestet. Außedem nützt dir der schnellste Arbeitsspeicher der Welt nichts. Schon alleine dieser ist meilenweit von der Bandbreite aktueller Grafikkarten entfernt.
Nur die erste Etappe ist PCIe 2.0, dann sind wir in der Northbridge, von da gehts entweder per QPI oder HT weiter, letzteres hat dabei aber geringere Latenzzeiten und drum gehts.
StefanV
2009-12-25, 13:46:04
Sorry, dargo, aber meinst du nicht auch, dass es möglich ist, diese Ergebnisse unter bestimmten Umständen zu reproduzieren, da der Nehalem eben nicht immer überall schneller ist denn 'alles andere'??
Bulldozer wird in AM3 laufen, auch Fusion wird kompatibel sein, allerdings ohne integrierte Grafik.
Sagt deine Glaskugel? Meine sagt nein. Spaß beseite: Wir wissen es nicht. Punkt.
Wenn nun die Verbindung Grafikkarte <-> Arbeitsspeicher entsprechend schnellere Zugriffszeiten bietet, dann kann das von Vorteil sein.
Hier hat übrigens Lynnfield mit dem integrierten PCIe-Controller die kürzesten Latenzen aller aktuellen CPUs. ;) Ist aber recht egal, bei der PCIe-Verbindung interessiert in erster Linie die Bandbreite, die aber momentan kaum limitiert.
Nehalem kann keine 50% höher IPC haben als der Phenom II
Es kann nicht sein, was nicht sein darf? Ein Core 2 ist in Spielen teils 3x so schnell wie ein gleichgetakteter P4...
dargo
2009-12-25, 13:51:57
Vorsicht, geladen wird immer vom Arbeitsspeicher.
Dieser kleine Anteil (in der Regel xxMB) hat keinen Einfluss auf die Bildrate. Benötigt außerdem nicht so eine riesen Bandbreite wie die Grafikkarten sie liefern.
Nur die erste Etappe ist PCIe 2.0, dann sind wir in der Northbridge, von da gehts entweder per QPI oder HT weiter, letzteres hat dabei aber geringere Latenzzeiten und drum gehts.
Erstens ist PCIe 2.0 hier der größte Flaschenhals und zweitens siehe meinen ersten Satz.
Sorry, dargo, aber meinst du nicht auch, dass es möglich ist, diese Ergebnisse unter bestimmten Umständen zu reproduzieren, da der Nehalem eben nicht immer überall schneller ist denn 'alles andere'??
Fehler vom Reviewer zu reproduzieren macht wenig Sinn.
Dieser kleine Anteil (in der Regel xxMB) hat keinen Einfluss auf die Bildrate. Benötigt außerdem nicht so eine riesen Bandbreite wie die Grafikkarten sie liefern.Erstens ist PCIe 2.0 hier der größte Flaschenhals und zweitens siehe meinen ersten Satz.
Das ist falsch, es geht um Latenzen... da gibts keinen Falschenhals, die addieren sich...
dargo
2009-12-25, 14:14:54
Das ist falsch, es geht um Latenzen... da gibts keinen Falschenhals, die addieren sich...
Gibts dafür auch Zahlen mit denen ich was anfangen kann?
StefanV
2009-12-25, 14:19:17
Ja und was ist jetzt Fehlerhaft?
dargo
2009-12-25, 14:22:10
Ja und was ist jetzt Fehlerhaft?
Hatte ich schon mal verlinkt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7735645&postcount=211
Außerdem:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7734689&postcount=38
D0 Bloomfield im GPU Limit etwas schneller?
http://www.techarp.com/showarticle.aspx?artno=655&pgno=6
1) In einigen Fällen sind es sogar mehr als 50%. Einfach mal durch die letzten Tests der PCGames Hardware lesen.
Falls Du es nicht wissen solltest, y33H, der hier auf der letzten Seite gepostet hat, arbeitet bei PCGH. So jetzt les mal, *was* er dort geschrieben hat, und versuche es zu verstehen. Wenn Du es verstehst, siehst Du wie falsch Du liegst.
2) Bei manchen Anwendungen ja, bei Spielen praktisch nie. Im Schnitt liegt der X4 965BE klar hinter einem i5 750 ohne Turbo. Für den Defaultbetrieb ist das angesichts des etwas günstigeren Preises aber auch OK.Siehe oben ... versuche y33Hs Worte richtig zu deuten.
3) Sie gewinnen natürlich relativ an Boden, da die GPU jeden Vorsprung immer weiter zunichte macht. Absolut gesehen ist die Performance im GPU-Limit hingegen exakt identisch, wie entsprechend saubere Tests zeigen. Gab es nicht kürzlich einen Test von Legionhardware, wo der i7 mehrfach unter hohen Settings und GPU-Limitierung vorne lag? Auch das -> Messfehler.
Klar Messfehler, was sonst.
4) Selbstverständlich sind da Kompromisse. Diese wären u.a.:
- reduzierter HT-Link
- reduzierter Northbridgetakt
- Nur DDR2 anstatt DDR3
- auf älteren AM2 Boards nur PCIe 1.0
- ineffizientere Chipsätze und damit Boards
Bei AM3/AM3+ ist alles noch harmloser. Der Unterschied zwischen PCIe2 und PCIe 3 wird noch mickriger ausfallen, bis 2011 werden 2 GB VRAM Standard sein. PCIe Bandbreite ist damit wirklich absolut nebensächlich.
HT Link wird ebenfalls noch unwichtiger, aktuell bei AM3 gibt es HT 3.0 mit max. 2600 MHz, wenn AM3+ dann HT 3.1 mit 3200 MHz einführen sollte, dann rechne Dir bitte die Bremswirkung selbst aus.
DDR3, ebenfalls unwichtig, die heutigen Bretter unterstützen bereits DDR3-1866.
Für den AM3-Nachfolger steht z.Zt. ein Stromsparmodus für die Northbridge bzw. weiter erhöhte Northbridgetaktraten Das ist ein einzig brauchbarer Punkt. Wobei der Northbridge Takt bei den AM2 boards aufgrund der überbelasteten Spannungswandler beschnitten wird. Anstatt mit ~1,1V NB Spannung, läuft die NB im AM2 Sockel mit vcore. Deshalb muss man - je nach board- den Taktsenken, um keine Überlastung zu bekommen. Das Problem gibt es bei AM3 nicht mehr.
Die Boards werden über USB 3.0 und S-ATA III verfügen, womöglich zudem auch schon über PCIe 3.0.
Zu PCIe3, siehe oben, zu Sata / USB3: Da gibt es *jetzt* bereits aktuelle boards für unter 80 Euro im Laden zu kaufen. Im Gegensatz zu den Intel boards gibt es damit auch keine Probleme.
Es ist fraglich, ob es BIOS-Updates geben wird.
Nur wenn Du bei einer schlechten Firma kaufst.
Bulldozer wird in AM3 laufen, auch Fusion wird kompatibel seinNe Fusion nicht, da gibts nen extra Sockel, das ist auch schon bekannt. Eine AM3 Kompatibilität ist deswegen nicht 100% auszuschließen, aber im Moment hochspekulativ - ausser Du hast nen überzeugenden Link zur Hand :)
Edit:
Und falls du dich hier auf die Benches von CB beziehst lese dir das hier in Ruhe durch und denke mal nach.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7734855&postcount=54
Ist ein prima Nachweis für die Cache Anfälligkeit, steht im Post darunter. Du solltest eventuell mehr lesen und weniger posten :)
Damit man es besser entdecken kann, hier Dein Link in der Thread Ansicht:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7734855#post7734855
Aber Du bist mal entschuldigt, ist ja Weihnachten :)
Frohes Fest
Hier hat übrigens Lynnfield mit dem integrierten PCIe-Controller die kürzesten Latenzen aller aktuellen CPUs. ;)
Hat das mittlerweile schon einer gemessen ?
Nachdem der Lynnfield PCIe nachwievor per internem QPI anbindet, und das QPI nicht schneller taktet, hätte ich da gerne einen Nachweis für die angeblichen Latenzspitzenwerte.
Frohes Fest
takt != latenz
aber ich hab das QPI mal vermessen
einmal mit multi 32 und einmal multi 36
entspricht QPI=6.4Ghz u. QPI=7.2Ghz (Realtakt ist natürlich 3200 bzw. 3600)
CPU@4Ghz
GPU@ 757/1568/1300
Bench war wieder Farcry2 Ranch Medium DX9 Ultra High 16xHQAF
Settings: Demo(Ranch Medium), 2560x2048 (60Hz), D3D9, Fixed Time Step(No),
Disable Artificial Intelligence(No), Full Screen, Anti-Aliasing(None), VSync(No),
Overall Quality(Ultra High), Vegetation(Very High), Shading(Ultra High), Terrain(Ultra High),
Geometry(Ultra High), Post FX(High), Texture(Ultra High), Shadow(Ultra High), Ambient(High),
Hdr(Yes), Bloom(Yes), Fire(Very High), Physics(Very High), RealTrees(Very High)
http://666kb.com/i/bf9rafxsvtbq1bjb8.png
http://666kb.com/i/bf9rel6k910nnl1tw.png
Falls Du es nicht wissen solltest, y33H, der hier auf der letzten Seite gepostet hat, arbeitet bei PCGH. So jetzt les mal, *was* er dort geschrieben hat, und versuche es zu verstehen.
Ich kann von ihm dort keine Aussage zum IPC-Unterschied finden. An anderer Stelle allerdings schon, und da steht, was ich gerade gesagt habe. Verlinke doch, was du ansonsten meinst.
Klar Messfehler, was sonst.
Sehr schön, dann besteht also Einigkeit bzgl. identischer Performance im GPU-Limit.
Bei AM3/AM3+ ist alles noch harmloser. Der Unterschied zwischen PCIe2 und PCIe 3 wird noch mickriger ausfallen, bis 2011 werden 2 GB VRAM Standard sein. PCIe Bandbreite ist damit wirklich absolut nebensächlich.
Falsch. PCIe 3.0 verdoppelt wieder die Nutzdatenrate. http://www.heise.de/newsticker/meldung/PCI-Express-3-0-verdoppelt-Transferrate-161426.html
Und das ein über die Zeit steigender VRAM höhere PCIe-Bandbreiten unnötig macht - lol. Das Transfervolumen wird auch weiterhin steigen. Da reicht es nicht, nur den VRAM zu skalieren.
DDR3, ebenfalls unwichtig, die heutigen Bretter unterstützen bereits DDR3-1866.
Ach, OC ist auch zulässig für unsere Betrachtung? Na, jetzt wird es echt professionell. :D
Zu PCIe3, siehe oben, zu Sata / USB3: Da gibt es *jetzt* bereits aktuelle boards für unter 80 Euro im Laden zu kaufen.
Es gibt genau ein Board von 43 insgesamt für unter 100€. 3 insgesamt. Eine Hammer Auswahl, in der Tat.
Nur wenn Du bei einer schlechten Firma kaufst.
Wenn AMD keinen offiziellen Support ankündigt, wirst du von kaum einem Hersteller entsprechende BIOSe bekommen. Siehe 45nm Core 2 auf 965P Chipsätzen. Prinzipiell lauffähig, offiziell nicht supportet -> kaum ein Hersteller liefert entsprechende Updates.
Nachdem der Lynnfield PCIe nachwievor per internem QPI anbindet, und das QPI nicht schneller taktet, hätte ich da gerne einen Nachweis für die angeblichen Latenzspitzenwerte.
Falsche Argumentation. Der zusätzliche Weg über den Chipsatz entfällt, prinzipieller Vorteil.
Undertaker
2009-12-26, 10:10:48
takt != latenz
aber ich hab das QPI mal vermessen
einmal mit multi 32 und einmal multi 36
entspricht QPI=6.4Ghz u. QPI=7.2Ghz (Realtakt ist natürlich 3200 bzw. 3600)
CPU@4Ghz
GPU@ 757/1568/1300
Bench war wieder Farcry2 Ranch Medium DX9 Ultra High 16xHQAF
Settings: Demo(Ranch Medium), 2560x2048 (60Hz), D3D9, Fixed Time Step(No),
Disable Artificial Intelligence(No), Full Screen, Anti-Aliasing(None), VSync(No),
Overall Quality(Ultra High), Vegetation(Very High), Shading(Ultra High), Terrain(Ultra High),
Geometry(Ultra High), Post FX(High), Texture(Ultra High), Shadow(Ultra High), Ambient(High),
Hdr(Yes), Bloom(Yes), Fire(Very High), Physics(Very High), RealTrees(Very High)
http://666kb.com/i/bf9rafxsvtbq1bjb8.png
http://666kb.com/i/bf9rel6k910nnl1tw.png
Nun, das war zu erwarten. Diverse Tests haben ja bereits zur Genüge gezeigt,
das Nehalem und Lynnfield im GPU-Lmit exakt so schnell sind wie Phenom II (siehe meinen Usertest) oder Core 2 (siehe Dargo).
dargo
2009-12-26, 10:42:20
Nun, das war zu erwarten. Diverse Tests haben ja bereits zur Genüge gezeigt,
das Nehalem und Lynnfield im GPU-Lmit exakt so schnell sind wie Phenom II (siehe meinen Usertest) oder Core 2 (siehe Dargo).
Das kann doch gar nicht sein. Wir Amateure haben davon doch keine Ahnung im Vergleich zu den wertvollen, diversen Netzreviewern. :rolleyes: ;)
so und den ganzen Spass nochmal mit dem i5@default also 133Mhz baseclock
wieder QPIU Multi 32 => QPI=4256Mhz und QPI Multi 36 => QPI=4788Mhz
http://666kb.com/i/bfa5zo72m3gvco5nk.png
http://666kb.com/i/bfa62wzygzzk28www.png
Ich kann von ihm dort keine Aussage zum IPC-Unterschied finden. An anderer Stelle allerdings schon, und da steht, was ich gerade gesagt habe. Verlinke doch, was du ansonsten meinst.
Präzise, er schreibt nie etwas von IPC, auch PCGH schreibt nie was von IPC, von IPC redest nur Du, da Du die PCGH Ergebnisse dahingehend fehlinterpretierst.
y33H schreibt auf der letzten Seite aber, dass ein einzelner Bench nur eine Momentaufnahme ist. Wenn Intel schneller ist als AMD, dann ist intel schneller - in dem einen Bench. Du kannst davon aber nicht auf pauschale Gesetzmäßigkeiten schließen, dass intel *immer* schneller wäre - und schon gar nicht um 50%.
Das schnellste Rechenwerk nützt nichts, wenn der Cache zu klein ist und keine Daten zur Berechnung eintreffen.
Sehr schön, dann besteht also Einigkeit bzgl. identischer Performance im GPU-Limit.Schon einmal was von Ironie gehört ? Falls nicht, wikipedia sollte helfen. Deine Annahme ist unsinnig, siehe oben.
Falsch. PCIe 3.0 verdoppelt wieder die Nutzdatenrate. http://www.heise.de/newsticker/meldung/PCI-Express-3-0-verdoppelt-Transferrate-161426.html
Und das ein über die Zeit steigender VRAM höhere PCIe-Bandbreiten unnötig macht - lol. Das Transfervolumen wird auch weiterhin steigen. Da reicht es nicht, nur den VRAM zu skalieren.Ich redete nicht über die theoretische Nutzdatenrate, ich redete über die Leistungssteigerung - in der Praxis. Schau Dir doch mal die Unterschiede zw. PCIe 1.0 x16 und PCIe 2.0 x16 an, da wurde die Datenrate ebenfalls schon verdoppelt. Das ist mickrig, 5% wenn Du einen vorteilhaften Bench findest und da muss man noch mit der Messtoleranz rechnen.
PCIe 3.0 verdoppelt wieder, ja weiss ich - aber die Bandbreite braucht keiner. Einziger Vorteil wird sein, dass x8 Slots ausreichen werden.
Ich wüßte auch nicht, wieso das Transfervolumen steigen sollte. Das stieg schon in der Vergangenheit nicht großartig an, selbst zw. dem alten AGP x8 und PCIe 1.0 gab es keinen Riesenunterschied. Einziger Vorteil war der Rückkanal, der bei VRAM Überlauf praktisch ist, um ins RAM auszulagern.
Falls Du also weiterhin auf Deiner Idee verharrst, dass PCIe3 eine revolutionäre Neuerung wäre, dann nenne mal Ross und Reiter, also *was* das Transfervolumen in Zukunft anschwellen lassen bzw. wer es wie ausnutzen soll ?
Ach, OC ist auch zulässig für unsere Betrachtung? Na, jetzt wird es echt professionell. :D Nö, mit einem Zambezi Chip mit angenommener offizieller DDR3-1866 Unterstützung ist das *kein* OC.
OC ist das nur mit den aktuellen K10.5 CPUs, von denen redet aber keiner. Das Board ist in jeden Fall bereits auf 1866 ausgelegt. Zambezi Chip rein, 1866 einstellen, fertig, kein OC, so einfach und professionell ist das.
Es gibt genau ein Board von 43 insgesamt für unter 100€. 3 insgesamt. Eine Hammer Auswahl, in der Tat. Und ? Das eine board reicht um Deine irrige Annahme zu widerlegen, dass man in Zukunft aufgrund SATA3/USB3 das komplette Mainboard umrüsten müsste. Ich hab nicht gesagt dass es tausende Boards gibt. Die Sachen sind der Tat nagelneu. Aber eben jetzt schon vereinzelt erhältlich - nicht erst in 2 Jahren.
Von dem angesehen könntest Du auch mit diversen Steckarten aufrüsten. Im Moment noch recht teuer, aber das wird sich auch geben.
Wenn AMD keinen offiziellen Support ankündigt, wirst du von kaum einem Hersteller entsprechende BIOSe bekommen. Siehe 45nm Core 2 auf 965P Chipsätzen. Prinzipiell lauffähig, offiziell nicht supportet -> kaum ein Hersteller liefert entsprechende Updates.
Solche Argumente finde ich immer lustig, Quervergleiche über Firmengrenzen hinweg. Macht man es mal anders herum und würde von AMDs guter Sockel Kompatibilität schlussfolgern, dass auch noch ein Intel Hexacore für 1156 kommen wird, weil AMD das ja bei AM3 auch so macht, würde man ausgelacht werden.
Kurz zum mitmeißeln: AMD ist nicht Intel und Intel ist nicht AMD.
dargo
2009-12-26, 16:39:46
y33H schreibt auf der letzten Seite aber, dass ein einzelner Bench nur eine Momentaufnahme ist. Wenn Intel schneller ist als AMD, dann ist intel schneller - in dem einen Bench. Du kannst davon aber nicht auf pauschale Gesetzmäßigkeiten schließen, dass intel *immer* schneller wäre - und schon gar nicht um 50%.
Doch, diese +~50% kommen in etwa hin. Natürlich nur in stark cpu-lastigen Szenen. Hier hast du mal ein weiteres Beispiel mit 3,5Ghz an allen CPUs:
35921
Quelle (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455727)
PS: beim i7 limitierte in dieser Szene schon leicht die Grafikkarte.
Avalox
2009-12-26, 18:23:38
Doch
Was sollen denn die Balken darstellen, aussagen oder beweisen?
takt != latenz
Kommt darauf an, ob es noch globale Waitstaits gibt oder nicht. Wenn Du z.B. DDR3-800 /1333 / 1600 mit jeweils CL9 vergleichst, gilt Latenz = indirekt proportional zum Takt.
Weist Du sicher, ob es eine Art interne "CL" gibt ?
Wenn ja geb ich Dir recht, wenn nein, möchte ich Messungen sehen ... ohne die sind beides nur Spekulationen.
aber ich hab das QPI mal vermessen
Blöde Frage, wozu ? Die Seite vorher vergleicht 4,8 & 6,4 GT/s, Du jetzt 6,4 zu 7,2. Falls Du Dich also darauf beziehen solltest, ist das etwas misslungen.
Ansonsten, falls Du das nur so zum Spass gemacht haben solltest, dann sieht man, dass der QPI über 6,4 in der speziellen Szene bei dem Spiel nicht bremnst. Hübsch, aber nichts weltbewegendes.
so und den ganzen Spass nochmal mit dem i5@default also 133Mhz baseclock
wieder QPIU Multi 32 => QPI=4256Mhz und QPI Multi 36 => QPI=4788Mhz
Bringt auch nicht wirklich was. Die Jungs im velinkten Test haben zw. 4,8 & 6,4 max. 5% gemessen, da kann es zw. 4,2 und 4,8 gar nicht viel zu messen geben.
Doch, diese +~50% kommen in etwa hin. Natürlich nur in stark cpu-lastigen Szenen. Hier hast du mal ein weiteres Beispiel mit 3,5Ghz an allen CPUs:
PS: beim i7 limitierte in dieser Szene schon leicht die Grafikkarte.
Also ich weiss nicht wies DIr geht, aber ich seh da keine IPC Angabe ... ich sehe 3 bunte Balken, die vermutlich die fps sein sollen, aber IPC ist was anderes.
The number of instructions executed per clock is not a constant for a given processor; it depends on how the particular software (http://en.wikipedia.org/wiki/Software) being run interacts with the processor, and indeed the entire machine, particularly the memory hierarchy (http://en.wikipedia.org/wiki/Memory_hierarchy).http://en.wikipedia.org/wiki/Instructions_per_cycle
Cache gehört da also auch dazu ...
Ich würde bei den Testszene mal untersuchen, ob es die gleichen Spielausschnitte sind, die nur größer / feiner dargestellt werden, oder ob auch mehr Objekte / Palmen / Häuser etc. pp zu sehen sind.
Vor allem bei Anno könnte ich mir vorstellen, dass bei einer größeren Kartenauflösung auch mehr Objekte dargestellt werden müssen -> mehr Betrieb im Speichersubsystem.
Bei der cb Monsterkarte scheint es allerdings selbst schon @1024 zuviel Objekte für die Nehalems zu sein.
Die PCGH Szene mit den 1000 Bettlern ist dagegen leicht zu cachen, da es eben nur 1000x das gleiche Objekt ist. Eventuell greift da sogar der Trace Cache.
Edit:
Falsche Argumentation. Der zusätzliche Weg über den Chipsatz entfällt, prinzipieller Vorteil.Nö, die Architektur ist die gleiche wie beim x58. Die integration alleine brächte nur einen Vorteil, wenn es globale Waitstates gäbe, von denen ich noch nichts gehört habe.
Falls es die wirklich nicht gibt, hast Du mit der Integration nichts gewonnen, der Takt ist der gleiche, d.h. es wird genauso oft nach Daten gefragt, wie beim x58 Chipsatz, der extern verbaut ist.
Natürlich könnte man jetzt den Takt erhöhen, da die Leiterbahnen durch die Integration viel kürzer sind, und somit mehr Spielraum besteht. Aber das wird ja nicht gemacht ...
Abseits von aller, grauer Theorie:
Zeig mir mal nen Praxis Bench - gerne auch mit nur einer Grafikkarte in einem x16 Slot - das ist ja fair - bei dem das 1156 System seinen ungeheueren Latenz/Leistungsvorsprung gegenüber eine 1366 System mit nur 2 RAM Kanälen ausspielt ...
Frohes Fest
Alex
Undertaker
2009-12-26, 20:08:38
Also ich weiss nicht wies DIr geht, aber ich seh da keine IPC Angabe ... ich sehe 3 bunte Balken, die vermutlich die fps sein sollen, aber IPC ist was anderes.
Also ich sehe da >50% Mehrleistung bei gleichem Takt. Da Grid in diesem fps-Bereich recht linear mit dem Takt skaliert, bedeutet das auch >50% mehr IPC. :wink:
dargo
2009-12-26, 20:10:29
Was sollen denn die Balken darstellen, aussagen oder beweisen?
Wenn du das nicht verstehst erübrigt sich jegliche weitere Diskussion. Ich habe die Quelle nicht aus Spaß angegeben.
Also ich weiss nicht wies DIr geht, aber ich seh da keine IPC Angabe ... ich sehe 3 bunte Balken, die vermutlich die fps sein sollen, aber IPC ist was anderes.
Auch für dich nochmal, Quelle lesen.
Avalox
2009-12-26, 20:14:10
Auch für dich nochmal, Quelle lesen.
Der Zusammenhang zwischen deiner Antwort und deinen Bild/Link ist nicht ersichtlich.
Deshalb meine Frage, was willst du mit dem Bild aussagen?
Undertaker
2009-12-26, 20:17:06
Vor allem bei Anno könnte ich mir vorstellen, dass bei einer größeren Kartenauflösung auch mehr Objekte dargestellt werden müssen -> mehr Betrieb im Speichersubsystem.
Bei der cb Monsterkarte scheint es allerdings selbst schon @1024 zuviel Objekte für die Nehalems zu sein.
Die PCGH Szene mit den 1000 Bettlern ist dagegen leicht zu cachen, da es eben nur 1000x das gleiche Objekt ist. Eventuell greift da sogar der Trace Cache.
Das ist Unfug. Gerade im Cachebereich ist der Nehalem dem PII am stärksten überlegen, was auch ein Grund für die starke Spieleperformance ist. Und würde es nur um den L2 (Größe) gehen, wäre der Core 2 uneinholbar. Generell, von der Anzahl an Spielobjekten auf eine Auslastung der Caches zu schließen, ist mehr als nur eine Milchmädchenrechnung. Sry. :freak:
puntarenas
2009-12-26, 20:23:59
Wenn du das nicht verstehst erübrigt sich jegliche weitere Diskussion. Ich habe die Quelle nicht aus Spaß angegeben.
Wortklauberei:
IPC = instructions per cycle
Jeder Affe weiß aber, dass hier im Forum damit je nach Kontext die taktbereinigte Leistung eines einzelnen Kerns oder einer CPU einer bestimmten Architektur gemeint ist, für gewöhnlich dann in FPS und natürlich im möglichst reinen CPU-Limits ermittelt.
Ich finde wirklich zum Kotzen, dass hier dargo derart mürbe gemacht werden soll. Der eine ergibt sich in Wortklaubereien, der andere sitzt im Elfenbeinturm des Theoretikers und spricht Benchmarks gleich jedwede Aussagekraft ab, weil irgendwelche kommunizierenden Röhren in Blackboxes und unter Berücksichtigung der Big-Bang-Stringtanga-Theory niemals orthodoxe Aussagen zulassen können.
Tut mir Leid, aber dass (nahezu vollständig) CPU-limitierte Szenen existieren und sich in diesem salopp CPU-Limit genannten Bereich das Leistungspotential einer CPU-Architektur bezüglich Games ablesen lässt, hat die Praxis und dabei unter anderem dargo mit exzellenten Benchmarks längst hinreichend belegt. Ebenso gibt es das (sogenannte) GPU-Limit und im Rahmen der Messgenauigkeit liefern dort alle ausreichend schnellen Prozessoren identische Ergebnisse.
Das musste ich jetzt mal ganz unweihnachtlich loswerden und in obigem Sinne geben die Benchmarkbalken natürlich einen Hinweis auf die Größenordnung des IPC-Vorteils eines Nehalem gegenüber einem Phenom II. Mittelt man über eine Spieleauswahl wird man vermutlich etwas unterhalb von 50% landen, aber es sieht schon sehr nach 40%-50% aus, nach allem was ich bisher gesehen habe.
Avalox
2009-12-26, 20:38:17
spricht Benchmarks gleich jedwede Aussagekraft ab,
überhaupt nicht.
mit exzellenten Benchmarks längst hinreichend
Du meinst, von Messwerten, welche zum einen überhaupt nichts zum IPC aussagen:
1) Welche auf Systemen entstanden sind, welche so gar nicht als Produkt zu kaufen sind; Die Systeme sind massiv übertaktet und dieses nicht nur der Kerntakt der CPU.
2) Auf diesen völlig unrepräsentativen Systemen ist nun ein Code getestet worden, welchen man gar nicht kennt. Kann alles mögliche drin stehen, kein Mensch, jedenfalls kein "testender" Mensch kennt diesen.
3) Die Ergebnisse dieses Testes, welcher auf unrepräsentativen Systemen und unbekannten Code ermittelt wurden, werden dann zu einem Grafikktreiber geführt, welcher genausowenig bekannt ist, dieser wird dann genutzt um eine völlig unrepräsentative Szene zu rendern.
4) Diese Szene wird im völlig übertakteten unrepräsentativen System über einen Link gesendet, in welchen wir hier schon vor vielen Postings festgestellt haben, dass diesen schon keiner versteht. Na jedenfalls wird dieses dann in eine spezielle Grafikkarte geladen und gerechnet, welche aber auch niemand versteht.
Und dabei soll dann der repräsentative IPC heraus kommen, dass ist Schwachsinn.
Nicht missverstehen, der Test ist nicht Schwachsinn. Die Interpretation des Ergebnis ist Schwachsinn.
Das einzige, wass man an diesen Ergebnis ablesen kann ist. Dass eine bestimmte Version des Spieles, auf einen bestimmten OS, mit einer bestimmten Grafikkarte und einer bestimmten Spielsituation bei 800x600 Pixel undarstellbare hohe Frameraten generiert. Mehr nicht.
Ich möchte ungern der Spielverderber sein, aber Nehalem HAT ein Problem unter höheren Auflösungen bei Spielen. Nicht immer, aber in einigen Situationen schon. Dafür gibt's einfach zu viele Benchmarks, die darauf hinweisen. Mir fällt zum ersten Mal auf, dass das sogar bei PCGH einmal so gemessen wurde:
Unter 1280 x 1024
http://www.pcgameshardware.de/screenshots/original/2009/06/Anno1404-CPUs-1280.png
Core i7-965 EE 1,7 FPS bei avg. FPS und 8 FPS bei den min. FPS schneller als ein Q9650.
Jetzt nochmal unter 1680 x 1050 mit 4x MSAA + 8x AF:
http://www.pcgameshardware.de/screenshots/original/2009/06/Anno1404-CPUs-1680.png
Core i7-965 EE 3,2 FPS langsamer in avg. FPS und 3 FPS langsamer in min. FPS.
Und da, wo i7-920 und X4 965 BE unter 1280 x 1024 noch gleichauf waren, ist der Phenom schon wieder um fast 3 FPS schneller.
Das ist alles keine Messungenauigkeit mehr, wenn unter geringen Auflösungen ständig gute Werte für Nehalem und unter hohen Auflösungen schwächere als bei Phenoms gemessen werden.
Das ist Unfug. Gerade im Cachebereich ist der Nehalem dem PII am stärksten überlegen, Du kennst Dich mit den L2 Cachegrößen anscheinend nicht so gut aus *lol*
Ich meine, wir reden nicht von 2 % Abweichung, was man als Messungenauigkeit bewerten könnte. Unter 1280 x 1024 ist der Q9650 trotz 400 MHz mehr Takt nur 2 % schneller als ein i7-920. Unter 1680 x 1024 + 4x MSAA & 8x AF ist er 9 % schneller. 7 % Unterschied durch höhere Auflösung zu Gunsten des C2Q.
puntarenas
2009-12-26, 21:09:40
Und dabei soll dann der repräsentative IPC heraus kommen, dass ist Schwachsinn.
Nicht mit "wissenschaftlicher" Genauigkeit, aber gemittelt über viele Spiele (Spielszenen) ergibt sich eine sehr brauchbare Näherung zur tendenziellen Leistungsfähigkeit der Architekturen in Games und dieses Verhältnis wird in Foren oftmals salopp als "IPC" bezeichnet.
Wenn sich auf diese Weise nun herauskristallisiert hat, dass ein Nehalem in Spielen bei gleichem Takt etwa 50% mehr FPS liefern kann als ein Phenom II, dann kann man natürlich keine konkreten Aussagen auf ein beliebiges Spiel daraus ableiten. Man kann aber realtiv treffsicher einschätzen, was man als Kaufinteressent von einer solchen CPU (im Mittel über die eigenen Spiele) erwarten kann und man kann bei Preis-/Leistungsvergleichen zwischen CPUs bequem Übertaktungsziele in die Bewertung einbeziehen. Somit ist dieser "IPC"-Wert in der Praxis sehr nützlich, um CPUs zu vergleichen.
Im Grunde ist es der gleiche Murks wie beispielsweise das CB-Performancerating. Streng genommen ergibt es überhaupt keinen Sinn, Momentaufnahmen wie diese Benchmarkergebnisse von konkreten Spielszenen in speziellen Soft-/Hardwarekombinationen zusammenzurechnen und daraus sogar noch Verhältnisse abzuleiten. Ist man aber bei der Durchführung der Benchmarks sehr gewissenhaft (was auf CB leider nicht zutrifft), dann ergibt sich aus diesem Mittel eben jener paradoxe Wert, der für die praktische Diskussion so ungemein nützlich ist.
y33H@
2009-12-26, 21:13:57
Abgesehen von Anno 1404 und FC2 kenne ich kein Spiel, auf welchem der 965 BE im Grafik-Limit deutlich ( = außerhalb der Messtoleranz) vor dem i5 liegt. Siehe auch hier (http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/) - 1280 ohne AA/AF bis hin zu 1920 mit 4x MSAA + 16:1 AF.
dargo
2009-12-26, 21:18:10
Das musste ich jetzt mal ganz unweihnachtlich loswerden und in obigem Sinne geben die Benchmarkbalken natürlich einen Hinweis auf die Größenordnung des IPC-Vorteils eines Nehalem gegenüber einem Phenom II. Mittelt man über eine Spieleauswahl wird man vermutlich etwas unterhalb von 50% landen, aber es sieht schon sehr nach 40%-50% aus, nach allem was ich bisher gesehen habe.
Auf diese +40-50% möchte ich noch einmal eingehen.
Wie ich durch meine Benchmarks (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973305&postcount=2) festgestellt habe hängt die höhere Pro/Mhz-Leistung (oder halt IPC, soll es jeder sehen wie er möchte :wink:) beim i5/i7 stark von der Spielengine ab. In Resident Evil 5 zb. (die Engine skaliert hervorragend mit nativen Quadcores) ist die Pro/Mhz-Leistung erheblich größer beim i5/i7 im Vergleich zum Phenom II und vorallem C2Q. Die ~93fps bei RE5 die mein Yorkfield mit 2,833Ghz schafft erreicht der i7 schon mit 1,6Ghz!
Danke an dieser Stelle nochmal an Ph0b0ss für seine Benchmarks.
Beim C2Q limitiert leider extrem der FSB und die Speicherbandbreite bei sehr guten Multithreading-Engines (das ist auch der Grund warum ich mich vom C2Q trennen möchte). Man sieht es besonders gut an diesem Test hier.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7713240&postcount=253
Zu meinem Erstauen scheint aber auch bei den Phenoms II etwas stark zu limitieren. Natürlich nicht so stark wie beim C2Q, aber der Phenom II skaliert nicht so gut in RE5 wie der i5/i7. Das kann man ganz gut vom Benchmark der PCGH ableiten:
http://www.pcgameshardware.de/aid,690425/CPU-Benchmarks-von-Resident-Evil-5-Core-i7-fuehrt-Phenoms-trotzdem-stark-Update-mit-Core-i5-750-und-Core-i7-860/Action-Spiel/Test/
Ich fasse nochmal zusammen:
1. Der C2Q legt nur um ~37% gegenüber dem C2D zu --> klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973305&postcount=2)
2. In der gleichen Szene legt ein i7 um stolze 73% (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7713210&postcount=252) zu.
3. Bei der PCGH (http://www.pcgameshardware.de/aid,690425/CPU-Benchmarks-von-Resident-Evil-5-Core-i7-fuehrt-Phenoms-trotzdem-stark-Update-mit-Core-i5-750-und-Core-i7-860/Action-Spiel/Test/) ist der Phenom II x4 taktbereinigt ~56% schneller als der Phenom II x2. Wie ich zu diesem Ergebnis komme überlasse ich euch. ;)
Allerdings muss man die 56% mit Vorsicht genießen:
1. Der Phenom II x2 ist auf der einen Seite im leichten Vorteil da 2 Kerne die vollen 6MB L3 Cache zur Verfügung haben. Der Phenom II x4 hat zwar auch 6MB L3 Cache, dafür aber zwei Cores mehr.
2. Auf der anderen Seite wird der Phenom II x2 mit DDR2-1066 betrieben. Dem Phenom II x4 steht DDR3-1333 zur Verfügung.
3. Andere Testszene, dementsprechend auch nicht wirklich vergleichbar.
Mich würde sehr interessieren wie der Phenom II x4 wirklich gegenüber einem Phenom II x2 in RE5 skaliert. Ob er an die Skalierung vom i7 rankommt oder sich doch trotz nativen Quadcore zwischen den i7 und C2Q plaziert. Dazu bräuchte ich aber einen freiwilligen mit entsprechender CPU und halt dem Game RE5. Passendes Savegame kann ich liefern.
Abgesehen von Anno 1404 und FC2 kenne ich kein Spiel, auf welchem der 965 BE im Grafik-Limit deutlich ( = außerhalb der Messtoleranz) vor dem i5 liegt. Siehe auch hier (http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/) - 1280 ohne AA/AF bis hin zu 1920 mit 4x MSAA + 16:1 AF.
Ich sehe selbst in deinem Link kein einziges Spiel welches bei 1920x1200 4xMSAA/16xAF schneller auf dem Phenom II x4 läuft als beim i5/i7. :confused:
Ich sehe selbst in deinem Link kein einziges Spiel welches bei 1920x1200 4xMSAA/16xAF schneller auf dem Phenom II x4 läuft als beim i5/i7. :confused:
Doch, bei FC 2 gibt's einen Knick. Bei der Ordinatenskaleneinteilung schätze ich, dass es 4 FPS sind, die der i5 unter 1920 x 1200 zurückliegt, wo er unter 1280 x 1024 noch etwa 20 FPS vorne lag.
Bei Anno wurde wieder eine andere Szene gebencht.
Avalox
2009-12-26, 21:41:00
Wenn sich auf diese Weise nun herauskristallisiert hat, dass ein Nehalem in Spielen bei gleichem Takt etwa 50% mehr FPS liefern kann als ein Phenom II, dann kann man natürlich keine konkreten Aussagen auf ein beliebiges Spiel daraus ableiten.
Nein kann man auch nicht. Solch eine Testmethode kann nicht repräsentativ sein, weil die Testsituation natürlich schon jeglicher praktischen Relevanz entbehrt.
- Zum einen werden die System dort übertakten. Diese nicht nur am Kerntakt, ich schreibe es gerne nocheinmal.
- Dann entspricht die Testsituation in keinster Weise der des praktischen Einsatzes.
- Letztendlich werden ein Großteil der Systembedingung überhaupt nicht geändert. Es ist ein Test einer Monokultur. Anderes OS, andere Treiber, andere Grafiklösung, andere Festplatte usw. usw. absolut nötig, aber nicht vorhanden.
Solch ein Test, welcher so erhoben wurde kann nie repräsentativ sein.
Er sagt nur was über die konkreten Systeme und den konkreten Anwendungen in der speziellen Testsituation aus.
Es ist ja schon haarsträubend, dass aus solchen hochgradig speziellen Testumgebungen allgemeine Ableitungen gezogen werden, der größte Knaller ist aber nun, dass mit diesen Schlüssen auf jeden Abweichler eingedroschen wird und dieses ist was man so nicht akzeptieren kann.
Wer dort was dagegen sagen will, der muss es fachlich begründen, dort ist dann spätestens der von der Antenne hängende Fuchsschwanz nicht mehr akzeptabel.
y33H@
2009-12-26, 21:41:26
Bei FC2 ist eine Tendenz zum Phenom II, habe das Excel aber nicht hier. FC2 bzw. der "Small Ranch" ist DER Kandidat schlechthin, wo der Phenom II im GPU-Limit vorne ist. Auf Geforces ist es noch übler - nur ist hier aber bei CB wie bei PCGH der Yorkfield in Front :ugly:
Dass der Nehalem nicht immer und überall und zu jedem Zeitpunkt einbricht, ist klar. Hin und wieder bricht er allerdings ein. Bei FC 2 besonders gut zu beobachten:
http://www.hardware-infos.com/tests.php?test=74&seite=7
http://www.legionhardware.com/document.php?id=869&p=8
http://www.legionhardware.com/document.php?id=869&p=20
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/16/#abschnitt_far_cry_2
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_prozessoren_2009/22/#abschnitt_far_cry_2
Da interessiert mich persönlich, was genau das überhaupt theoretisch verursachen kann. Ich habe ja den integrierten Chipsatz in Verdacht. Das macht Intel ja nun zum ersten Mal, während AMD sich schon vor Jahren mit dem A64 vom FSB gelöst hat. Das ist aber natürlich auch nur ein laienhaftes Gefühl. :)
y33H@
2009-12-26, 21:54:13
Vll liegts auch einfach nur an der Engine bzw. dem Bench? Es nutzen ja idR alle nur den "Small Ranch", Leo hat die "Action Scene" genutzt und da (http://www.3dcenter.org/artikel/intel-core-i5-750-lynnfield-review/benchmarks-far-cry-2) ist der i5 schneller als ein rechnerischer 965 BE. Taktnormiert +25% flotter. Allerdings liegt hier kein GPU-Limit vor.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.