Archiv verlassen und diese Seite im Standarddesign anzeigen : Auswirkungen von Grafiktreibern auf CPU-Skalierung in Games
dargo
2011-09-14, 15:32:38
Durch einen Zufall haben wir ein interessantes Verhalten bei CPU-Skalierungen aufgedeckt. Ich wollte wissen wie gut ein Sixcore im Spiel Battlefield: Bad Company 2 im absoluten CPU-Limit gegenüber einem Quadcore skaliert. Ich habe hier schon festgestellt, dass ein Quadcore extrem gegenüber einem Dualcore zulegt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973307&postcount=3
Da ich den X6 selber nicht habe hat sich der Member Savay bereit erklärt mein Savegame nachzutesten. Savay verwendet die Kombination Phenom II X6 1055T samt HD5870. Meine Wenigkeit Lynnfield i5-750 mit GTX480 AMP! Edition. Nachdem mir die unterschiedliche Skalierung aufgefallen ist brauchten wir noch einen Gegentest mit der Kombination AMD-CPU mit Nvidia Grafikkarte. Für diesen Gegentest hat sich Member Raff mit seiner Kombination aus Phenom II X6 1100T und GTX580 bereitgestellt.
Nun zum Testverfahren selbst - es wurde ein Savegame 5 Sekunden lang im vollständigen CPU-Limit gebencht. Settings waren 1024x768 1xAA/1xAF, max. Details in DX11. In allen drei Fällen wurde Windows 7 x64 SP1 als OS verwendet. Der Sixcore wurde @2, 3, 4 und 6 Cores getestet, der Lynnfield @2, 3 und 4 Cores. Es wurden je Test 3 Durchläufe genommen, wegen der Übersichtlichkeit habe ich aus diesen 3 Durchläufen jeweils den Durchschnitt ermittelt. Die einzelnen Messungen lagen sehr dicht bei einander.
http://s1.directupload.net/images/110914/lioz2mpr.png
Nochmal zum besseren Verständnis:
Phenom II + NV GPU = X6 @ 2 Ghz mit 250x8, NB und HT @ 2.250 MHz, RAM @ 1.333/8-8-8-20-1T, GTX 580 @ 900/1.800/2.400 MHz
Phenom II + ATI GPU = X6 @ 2 Ghz, NB @ 2.250 Mhz, RAM @ 1.333/8-8-8-27-2T, HD5870 @ 900 Mhz
Lynnfield + NV GPU = i5-750 @ 2,06 Ghz mit 114,3x18, RAM @ 914/9-9-9-24-2T, GTX480 @ 830/1.660/2.000 Mhz
Man achte nicht primär auf die absoluten Zahlen sondern auf das Skalierungsverhalten. Nvidia scheint hier mit ihrem Grafiktreiber die Dualcores und Triplecores zu benachteiligen. Dadurch kommt beim Quadcore auch die überproportionale CPU-Skalierung gegenüber dem Dualcore und Triplecore erst zustande.
PS: danke nochmal an Raff und Savay für den Test. :)
Savay
2011-09-14, 15:40:23
strange...wäre jetzt noch interessant zu wissen ob es auch dualcores mit aktivem SMT betrifft, ergo es an der zahl der threads liegt.
ansonsten in eigener sache: ich glaube ich muss mal mein system optimieren. ich war definitv nicht im CPU limit...wieso Raffs rechner da deutlich schneller ist würde mich rein persönlich mal interessieren. das kann natürlich auch ein effekt des treibers sein....irritiert mich aber schon etwas. :)
dargo
2011-09-14, 15:45:21
ansonsten...muss ich glaube ich mal mein system optimieren. ich war definitv nicht im CPU limit...
Wie kommst du darauf? Wir haben es doch gegengetestet, du warst im vollständiegn CPU-Limit.
wieso Raffs rechner da deutlich schneller ist würde mich rein persönlich mal interessieren. :)
Die absoluten Zahlen sind nicht so wichtig. Raff hatte 8-er Timings beim Speicher, du wahrscheinlich 9-er oder? Zudem ist es möglich, dass der NV-Treiber aus einem Sixcore und Quadcore etwas mehr Leistung herauskitzeln kann.
Edit:
Ich habs nochmal nachgerechnet. Raff liegt beim 6C und 4C 7-8% vorne. Mit schärferen Speichertimings und dem NV-Grafiktreiber ist das völlig im Rahmen. Ich hatte schon beim NV-Treiber ~5% einmal bei einem Spiel gemessen. Die Thread-Optimierung lässt sich nämlich im CP auch ausschalten.
Spielt zwar (wie gesagt) für die absoluten Zahlen keine Rolle, aber ich habe auch ein paar Subtimings geschärft und das Windows ist bestmöglich aufgeräumt/entschlackt. :) Ansonsten dürfte die GTX 580 den Rest erledigen (hohe Setup-Leistung & Co.).
MfG,
Raff
Savay
2011-09-14, 15:48:55
klar das die zahlen für die skalierung nicht so wichtig sind... ;) deswegen ja auch "in eigener sache"
meine timings waren bei 8-8-8-27-2T beim test. :)
aber angesichts der tatsache das ich eh von 3,5Ghz auf 2GHz untertakten mussten um wirklich ins CPU limit zu kommen und ich eh mit VSync spiele, ist das angesichts der grundperformance vielleicht doch eher ein theoretischer vorteil als ein praktischer. :lol:
Ich habe 8-8-8-20-1T am Laufen (siehe dargos Posting) – das kann's schon sein.
MfG,
Raff
dargo
2011-09-14, 15:56:24
Spielt zwar (wie gesagt) für die absoluten Zahlen keine Rolle, aber ich habe auch ein paar Subtimings geschärft und das Windows ist bestmöglich aufgeräumt/entschlackt. :) Ansonsten dürfte die GTX 580 den Rest erledigen (hohe Setup-Leistung & Co.).
Die GTX580 hat im absoluten CPU-Limit keine Auswirkung auf die Frames. Da kannst du eine spätere GTX680 reinhauen. An den Frames wird sich mit gleichem Treiber nichts ändern. Ok... praktisch natürlich nicht testbar da eine GTX680 niemals mit deinem jetzigen Graka-Treiber laufen wird. Es geht mir um die Kernaussage, dass eine schnelle GPU nichts an den Frames ändern wird.
Und wie du am DC und TC siehst hilft dir das alles nicht. Denn Savay ist dennoch mit der ATI schneller unterwegs. Beim TC sogar durchaus beachtliche 42% schneller nur durch den Grafiktreiber.
Ich habs nochmal nachgerechnet. Raff liegt beim 6C und 4C 7-8% vorne. Mit schärferen Speichertimings und dem NV-Grafiktreiber ist das völlig im Rahmen. Ich hatte schon beim NV-Treiber ~5% einmal bei einem Spiel gemessen. Die Thread-Optimierung lässt sich nämlich im CP auch ausschalten.
Was mir gerade einfiel: Hast du mal einen Blick auf die Min-Fps geworfen? Da sollte ein X6 IMO im Vorteil sein, gerade mit einem Fermi im Rücken. Geben das die Werte her?
Letztendlich sind das aber nur Randbetrachtungen, da es ja um die kuriose GeForce-Skalierung mit 2 und 3 Kernen geht. :)
MfG,
Raff
Nightspider
2011-09-14, 16:03:24
Kann es sein, das der Nvidia Treiber die CPU trotz fehlender CPU Reserven belastet und bei 2-3 Kernen zu wenig Leistung für das Spiel übrig bleibt und damit ein paar Spiele-Threads zu kurz kommen, während bei 4-6 Kernen die Threads maximale Auslastung haben und der Treiber durch weitere Kerne zusätzliche Prozente beschert?
Damit könnte man das überproportionale Skalierungsverhalten bei NV erklären.
Kann man es Ausstellen, das der Nvidia Treiber Multicores zusätzlich belastet?
Ich erinnere mich, das die Funktion bei damals beim Aufkommen der DualCores integriert wurde um die Leistung des 2. Kerns nutzen zu können, weil die Spiele sowieso noch nicht damit umgehen konnten.
Glaube damit konnte man ein paar Prozente herausholen in Benchmarks obwohl ich nicht weiß, mit was für einer Art Berechnung die CPU belastet wurde.
PS: Wer emfpiehlt eigentlich nen AMD Sixcore für BF3. Da liegt ja der Lynnefield klar vorne. Sandy FTW ;)
Savay
2011-09-14, 16:04:04
da sie sich ja abstellen lässt: habt ihr mal die skalierung ohne die threadoptimierung getestet?
da sie sich ja abstellen lässt: habt ihr mal die skalierung ohne die threadoptimierung getestet?
Nein, aber das ist ein guter Punkt. Mal sehen, ob ich heute Abend dazu komme.
PS: Wer emfpiehlt eigentlich nen AMD Sixcore für BF3. Da liegt ja der Lynnefield klar vorne. Sandy FTW ;)
Das ist noch sehr nah beisammen. Da gibt's ganz andere Fälle, wo der X6 kein Land sieht (Spiele, die wenige Threads nutzen). ;)
MfG,
Raff
dargo
2011-09-14, 16:07:18
Was mir gerade einfiel: Hast du mal einen Blick auf die Min-Fps geworfen? Da sollte ein X6 IMO im Vorteil sein, gerade mit einem Fermi im Rücken. Geben das die Werte her?
Ich verstehe nicht ganz worauf du hinaus willst.
Letztendlich sind das aber nur Randbetrachtungen, da es ja um die kuriose GeForce-Skalierung mit 2 und 3 Kernen geht. :)
Ist nicht schlimm. Dafür habe ich ja diesen Thread eröffnet um darüber diskutieren zu können. :) Ich würde aber wie gesagt die absoluten Zahlen nicht überbewerten solange ihr beim System (Graka außen vor) nicht exakt die gleichen Daten verwendet. CPU-Multi, Speichertimings und alles was dazu gehört. Habe ich dir übrigens über PN auch mitgeteilt. Wenn ihr die absoluten Zahlen vergleichen möchtest müsst ihr euch für einen weiteren Test absprechen.
Mir war dieser Vergleich besonders wichtig da wir auch schon hier (ab Post 443):
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739&page=23
am grübeln waren warum ich die Taktrate beim DC so stark überproportional anheben muss um mit dem QC gleichzuziehen. Jetzt kenne ich den Grund. :)
Savay
2011-09-14, 16:09:16
PS: Wer emfpiehlt eigentlich nen AMD Sixcore für BF3. Da liegt ja der Lynnefield klar vorne. Sandy FTW ;)
wahnsinns neue erkenntniss das bei entsprechendem workload der X6 ca. die gleiche leistung bringt wie nen gleichgetakteter lynnfield. :wink:
das spiel skaliert nebenher auch nur bis 4 kerne perfekt (2 auf 4 sind bei mir 204%)...darüber lässt es etwas nach (2 auf 6 kerne sind nur noch 244% von theoretischen 300%)
die absolute auslastung mit 6 kernen ist auch geringer als mit 4 kernen. der 6 kerner wird also nicht wirklich voll ausgefahren wie es bspw. mit CB11 oder 7Zip möglich ist und wo er idR bei gleichem takt etwas schneller ist! :cool:
man kann es auch so sehen...der X6 hat noch etwas mehr reserven für anwendungen im hintergrund. :lol:
dargo
2011-09-14, 16:12:03
da sie sich ja abstellen lässt: habt ihr mal die skalierung ohne die threadoptimierung getestet?
Ich habe das in dieser Szene schon getestet. Die Auswirkung ist vernachlässigbar. 1-2 % Unterschied. Sowas fällt bei mir unter Messtoleranz.
Edit:
Leute... ich will euch euren Spaß nicht verderben. Aber lasst bitte die absoluten Zahlen weg. Diese Zahlen lassen sich zwischen dem Lynnfield und Phenom II eh nicht richtig in dieser Konstellation vergleichen. Ich habe beim Lynnfield aus technischen Gründen schon einen 18-er CPU-Multi für die 2057Mhz CPU-Takt nehmen müssen wodurch dieser gegenüber einem i5-750 Lynnfield mit einem standard CPU-Multi von 20 minimal im Vorteil ist. Gleichzeitig läuft bei mir der Speicher mit DDR3-914 9-9-9-24 2T. Schaut euch die Daten beim Speicher der Phenom II Systeme an. Das ist überhaupt nicht vergleichbar. Mit DDR3-1333 8-8-8-20 2T (1T geht bei mir nicht) und noch kleinerem CPU-Multi kratze ich sicherlich an ~100fps @QC. Vergesst diesen Vergleich bitte einfach.
Ich verstehe nicht ganz worauf du hinaus willst.
Ich möchte wissen, ob der X6 höhere Min-Werte erreicht als der Lynnfield. :)
wahnsinns neue erkenntniss das bei entsprechendem workload der X6 ca. die gleiche leistung bringt wie nen gleichgetakteter lynnfield. :wink:
das spiel skaliert nebenher auch nur bis 4 kerne perfekt...darüber lässt es etwas nach.
die absolute auslastung mit 6 kernen ist geringer als mit 4 kernen. der 6 kerner wird also nicht wirklich voll ausgefahren wie es bspw. mit CB11 oder 7Zip möglich ist! :cool:
man kann es auch so sehen...der X6 hat noch etwas mehr reserven für anwendungen im hintergrund. :lol:
Bei mir ergab sich ein Plus von exakt 21 Prozent von 4 auf 6 Kerne. Sowohl mit 6x 2 GHz als auch mit 6x 1,25 GHz. 50 Prozent mehr Kerne = 21 Prozent mehr Fps. Das ist nicht optimal, aber dennoch sehr fortschrittlich. Hier die Werte, mit denen dargo seine Analyse gebaut hat:
6 Kerne (+21 % ggü. 4 Kernen):
Frames: 403 - Time: 5000ms - Avg: 80.600 - Min: 74 - Max: 86
Frames: 391 - Time: 5000ms - Avg: 78.200 - Min: 73 - Max: 83
Frames: 399 - Time: 5000ms - Avg: 79.800 - Min: 73 - Max: 84
Frames: 400 - Time: 5000ms - Avg: 80.000 - Min: 74 - Max: 85
4 Kerne (+97 % Fps ggü. 3 Kernen!):
Frames: 328 - Time: 5000ms - Avg: 65.600 - Min: 62 - Max: 71
Frames: 330 - Time: 5000ms - Avg: 66.000 - Min: 60 - Max: 71
Frames: 327 - Time: 5000ms - Avg: 65.400 - Min: 58 - Max: 72
3 Kerne (+30 % Fps ggü. 2 Kernen):
Frames: 165 - Time: 5000ms - Avg: 33.000 - Min: 31 - Max: 35
Frames: 166 - Time: 5000ms - Avg: 33.200 - Min: 30 - Max: 36
Frames: 168 - Time: 5000ms - Avg: 33.600 - Min: 31 - Max: 36
2 Kerne (Basis):
Frames: 128 - Time: 5000ms - Avg: 25.600 - Min: 23 - Max: 28
Frames: 130 - Time: 5000ms - Avg: 26.000 - Min: 22 - Max: 29
Frames: 127 - Time: 5000ms - Avg: 25.400 - Min: 23 - Max: 28
6-Kern-Bonus (+33 % ggü. 2 GHz bei 40 % mehr CPU-Takt ...)
(Mein Setting, 255x11 = 2,8 GHz, 2,8 GHz NB, RAM @ 850/9-9-9-24-1T):
Frames: 530 - Time: 5000ms - Avg: 106.000 - Min: 100 - Max: 112
Frames: 528 - Time: 5000ms - Avg: 105.600 - Min: 99 - Max: 111
Frames: 532 - Time: 5000ms - Avg: 106.400 - Min: 100 - Max: 112
MfG,
Raff
Nightspider
2011-09-14, 16:17:22
War bei Dargo jetzt SMT aktiv oder nicht?
Wenn nein: bitte nochmal in der grafischen Übersicht hinzufügen. Wäre sehr interessant. :)
Wenn nicht wäre das ja noch fataler für den AMD 6-Kerner, da der ja dann nichtmal mit einem 4Core Nehalem OHNE SMT mithalten konnte.
Wäre ja doppelt schlimm. Dann wäre das einzige Pro einer Kaufempfehlung für Bad Company 2 ja schon falsch gewesen, in einem Parade-6Thread Game. (Parade ist übertrieben aber zumindest einem der wenigen Games, wo man mal ersichtlich von 6 Kernen profitiert)
@ Savey: das ein HexaCore von AMD bei einem Game mit 4 Threads kein Land sieht ist ja nix Neues.
Edit:
Tatsache. Ich habe total vergessen, das es Lynnefields ohne SMT gab. Thx @ Dargo&Raff
Aber mich überascht jetzt schon, wie sehr selbst ein AMD HexaCore hinter einem Nehalem QuadCore liegt, insbesondere bei der IPC.
Dargo nutzt einen i5-750 – der hat kein SMT.
MfG,
Raff
dargo
2011-09-14, 16:19:40
War bei Dargo jetzt SMT aktiv oder nicht?
Wenn nein: bitte nochmal in der grafischen Übersicht hinzufügen. Wäre sehr interessant. :)
Ein i5-750 hat kein SMT.
Lol... haarscharf zu langsam. :D
@Nightspider
Weißt du was ich viel schlimmer finde? Die Kombination aus Phenom II X3 und ATI Grafikkarte macht wesentlich mehr Sinn als die Kombination aus Phenom II X3 und Nvidia Grafikkarte. Zumindest was das Spiel BF: BC2 angeht und höchstwahrscheinlich demnächst auch BF3. Zudem skaliert ein Triplecore schon bei DIRT 3 mit einer NV Graka sehr schlecht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973307&postcount=3
Also sind mehrere Spiele von diesem Phänomen betroffen.
Ich möchte wissen, ob der X6 höhere Min-Werte erreicht als der Lynnfield. :)
Du meinst also min.fps X6 @6C vs. min.fps Lynnfield @4C? Das müsste ich nachtesten. Die min.fps habe ich mir nicht notiert.
Savay
2011-09-14, 16:33:42
@ Dargo&Raff
Aber mich überascht jetzt schon, wie sehr selbst ein AMD HexaCore hinter einem Nehalem QuadCore liegt, insbesondere bei der IPC.
der 6 kerner braucht halt eine ordentliche skalierung um den IPC nachteil auszugleichen...
in spielen sind die lynnfields aus IPC sicht eh deutlicher im vorteil als in normalen anwendungen.
in diesem fall sind es grob 27% IPC vorteil.
liegt doch voll im rahmen...ist sogar etwas weniger als tatsächlich vorhanden sein sollten. zusammen mit der nicht ganz optimalen skalierung von 4 auf 6 kerne reicht es halt für nen effektiven gleichstand.
im übrigen skalieren die min-FPS mit den kernen etwas steiler als die avg-FPS.
vorallem gilt: die werte sind wie dargo schon gesagt hat nicht direkt vergleichbar!!!
im übrigen ist das ein recht theoretischer vorteil...das spiel ist ab 3GHz eh komplett GPU limitiert, erst recht mit normalen auflösungen, AF und AA und VSync. :wink:
Nightspider
2011-09-14, 16:40:37
Es ist aber generell komisch, wie wenig Leistung ein Triple Core mit NV Karten zur Verfügung stellt.
Man würde denken, das dieser optimal skalieren kann und 50% mehr Leistung als ein DualCore erbringt aber bei AMD 3C+NV bringt er gerade mal 29,6% mehr Leistung.
Hat einer einen guten Draht zu den NV Leuten? Raff? Ihr könnt ja mal anfragen, woran das liegt. Vielleicht bekommt ihr eine Antwort. ;)
Falls Interesse an einem Sandy Skalierungstest besteht kann ich auch mal eurer Safegame durchlaufen lassen. Aber ich kann auch nur NV GPUs bieten. Wäre aber wahrscheinlich wenn dann nur interessant für dargos anderen Thread. Hier gehts ja um die Treiber.
dargo
2011-09-14, 16:42:51
im übrigen ist das ein recht theoretischer vorteil...das spiel ist ab 3GHz eh komplett GPU limitiert, erst recht mit normalen auflösungen, AF und AA und VSync. :wink:
Das würde ich nicht unbedingt sagen. Du weißt doch gar nicht wie repräsentativ meine Szene aus dem Savegame was die CPU-Last angeht überhaupt ist, im Vergleich zu den hunderten anderen Szenen aus diesem Spiel. Zudem dürfte die CPU-Last auf vollen Servern im MP noch wesentlich größer sein. Und zu guter letzt ist das etwas kurzsichtig gedacht von dir. :) Stell die vor du knallst 2012 in dein System eine GTX680 rein die um den Faktor 2 (rein spekulativ) schneller ist als eine GTX580. Da ändern sich die Limits Richtung CPU schlagartig.
Edit:
Vsync natürlich außen vor.
Nightspider
2011-09-14, 16:44:09
im übrigen ist das ein recht theoretischer vorteil...das spiel ist ab 3GHz eh komplett GPU limitiert, erst recht mit normalen auflösungen, AF und AA und VSync. :wink:
Das würde ich SO nicht stehen lassen. Ich gehöre zu den intensiven BC2 Spielern und habe es sehr lange mit einem 4Ghz Nehalem, 4,5 Ghz Sandy ohne SMD und mit 4,8 Ghz mit SMT gespielt.
Ich habe die Unterschiede gemerkt, bei 1920*1200@4AA ohne HBAO.
Du kannst den Multiplayer aber auch nicht mit dem SP vergleichen.
Im Multiplayer gibts manchmal so heftige Szenen, wo die Minimum-FPS deutlich unter jeden im Benchmark gemessenen Wert fallen.
@ dargo: diesmal warst du schneller :D
dargo
2011-09-14, 16:46:44
Es ist aber generell komisch, wie wenig Leistung ein Triple Core mit NV Karten zur Verfügung stellt.
Das hängt mit den Spiele-Engines zusammen. Ein Triplecore + NV-GPU skaliert nicht generell schlecht. Ganz im Gegenteil, schau dir mal den Test von Mass Effect 2 oder Crysis 2 an.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973305&postcount=2
Savay
2011-09-14, 16:50:24
@dargo...ich spreche aber vom momentanen zustand...was in nem jahr ist kann eh mit sicherheit kein mensch sagen.
nebenher lebt ne CPU bei mir auch nicht länger als 2-3 jahre. :)
@nightspider
wie gesagt...die min-FPS skalieren mit den kernen deutlich steiler als die avg. FPS!
in der PCGH benchszene, wo stellenweise deutlich mehr explodiert als in dargos szene (bspw. die 3 LKWs) und auch mehr KI gegner rumlaufen ist die skalierung der min-FPS von 2 auf 6 kerne gemittelt über mehrere durchläufe bei über 280%...das ist schon sehr nahe am optimum. dafür ist der gesamte durchlauf was die avg.-FPS angeht selbst bei 1.875GHz ab 4 kernen schon leicht im GPU limit.
was nebenher wirklich bremst ist die physik...wenn viel aufeinmal einbricht geht das gut auf die CPU...das ist online natürlich je nach partie gerne mal der fall wenn viel los ist...aber grade in dem fall zahlen sich die 2 zusätzlichen kerne oder SMT aus...
vorallem: nicht vergessen das wir hier bei lediglich 2GHz gebencht haben...selbst wenn ich online zocke falle ich mit der testauflösung bei 3,5GHz nicht wirklich unter 60FPS.
dargo
2011-09-14, 17:09:02
@Raff
Hier die versprochenen Werte nochmal mit i5-750 @ 2,06 Ghz mit 114,3x18, RAM @ 914/9-9-9-24-2T, GTX480 @ 830/1.660/2.000 Mhz.
Frames: 422 - Time: 5000ms - Avg: 84.400 - Min: 79 - Max: 90
Frames: 418 - Time: 5000ms - Avg: 83.600 - Min: 75 - Max: 91
Frames: 421 - Time: 5000ms - Avg: 84.200 - Min: 78 - Max: 90
Edit:
Und hier zum Vergleich mal was passiert wenn ich die Speichertimings etwas verschärfe und die Taktrate anhebe (leider komme ich mit dieser Konstellation bei weitem nicht bis DDR3-1333, ist schon der höchte Speicherteiler).
i5-750 @ 2,06 Ghz mit 114,3x18, RAM @ 1143/8-8-8-20-2T, GTX480 @ 830/1.660/2.000 Mhz
Frames: 436 - Time: 5000ms - Avg: 87.200 - Min: 82 - Max: 91
Frames: 428 - Time: 5000ms - Avg: 85.600 - Min: 79 - Max: 92
Frames: 435 - Time: 5000ms - Avg: 87.000 - Min: 81 - Max: 92
Edit 2:
Und jetzt treibe ich das mal auf die Spitze indem ich den CPU-Multi und nochmal die Taktrate beim Speicher ändere.
i5-750 @ 2,06 Ghz mit 171,5x12, RAM @ 1372/8-8-8-20-2T, GTX480 @ 830/1.660/2.000 Mhz
Frames: 460 - Time: 5000ms - Avg: 92.000 - Min: 85 - Max: 98
Frames: 463 - Time: 5000ms - Avg: 92.600 - Min: 86 - Max: 99
Frames: 463 - Time: 5000ms - Avg: 92.600 - Min: 84 - Max: 99
Savay
2011-09-14, 17:13:28
ich bin mir nicht ganz sicher ob deine szene wirklich aussagekräftig ist was die min-FPS angeht :)
leider lassen sich online partien ja nicht wirklich gut benchen...aber in der PCGH szene ist die skalierung der min-FPS auf meinem system etwas näher am optimum als bei deiner szene.
ich weiß sie passt dir nicht wegen des GPU limits aber wir sind uns ja einig das eine szene allein nicht der weisheit letzter schluss ist. ;)
dargo
2011-09-14, 17:28:52
aber in der PCGH szene ist die skalierung der min-FPS auf meinem system etwas näher am optimum als bei deiner szene.
ich weiß sie passt dir nicht wegen des GPU limits aber wir sind uns ja einig das eine szene allein nicht der weisheit letzter schluss ist. ;)
Ich habe mit der PCGH-Testszene in drei Punkten so meine Probleme.
1. Die exakte Reproduzierbarkeit bei so einer langen Szene.
2. Die Szene ist nicht durchgehend im absoluten CPU-Limit.
3. Die min.fps mit dem Sixcore können durchaus vom Limit der Grafikkarte kommen wohingegen die min.fps mit dem Quadcore von der CPU kommen können. Durch weniger CPU-Leistung @QC verschieben sich die Limits mehr Richtung CPU. Zudem kannst du gar nicht sagen ob dieser eine Wert der min.fps beim Sixcore und Quadcore in exakt der gleichen Sekunde der Testszene auftritt. Das ließe sich nur mit einem Frameverlauf sagen.
Savay
2011-09-14, 17:39:08
1. deine szene ist auch nicht exakt reproduzierbar...man muss sich nur einen gewissen ablauf angewöhnen.
ausserdem kann man die benchszene auch auf einen kleineren teilabschnitt begrenzen...bspw. ab dem punkt wo der buggy auf position gefahren ist und die 3 LKW heranrollen.
gemittelt über genug samples ergibt sich dann ein durchaus recht exakter mittelwert.
dann muss man sich halt z.B. die arbeit machen und 10 durchläufe mitteln, anstatt "nur" 3... ;)
2. abseits der cinematics schon....man muss mit dem takt nur weit genug runter.
3....das gilt für deine szene aber genauso! dann sind die min./avg.-FPS in deiner szene auch nicht eindeutig auf ein limit zuordbar. zumal die übergänge fließend sind und etwaige limits nicht schlagartig einsetzen.
ausserdem: nen frameverlauf lässt sich ja aufzeichnen...das ist ja wohl das geringste problem. ;)
vorallem dürfte bei einem solchen verhalten die min-FPS nicht linear ansteigen...tun sie in der PCGH szene bei mir aber nahezu.
wenn das alles so schwierig ist kann man sich die ganze mühe auch sparen und kapituliert generell vor solchen vergleichen...dann bleibt die aussage "die intels sind definitv immer schneller" aber genauso eine esoterische phrase wie die behauptung "nen AMD kann ganz passabel mithalten".
dargo
2011-09-14, 18:02:46
1. deine szene ist auch nicht exakt reproduzierbar...man muss sich nur einen gewissen ablauf angewöhnen.
Nehme mal bei meiner Testszene 3x einen Frameverlauf auf. Und dann 3x einen Frameverlauf der PCGH-Szene. Danach vergleiche mal die Abweichungen bei jeder Sekunde.
ausserdem kann man die benchszene auch auf einen kleineren teilabschnitt begrenzen...bspw. ab dem punkt wo der buggy auf position gefahren ist und die 3 LKW heranrollen.
Ich habe mit der Szene der PCGH in dem Sinne schon so meine Probleme, dass ich bei dieser Szene zwei oder sogar drei verschiedene Bildschirmausschnitte gesehen habe ohne sich selbst zu bewegen. Mal war die Waffe etwas höher ausgerichtet, mal etwas tiefer. Wie soll man bei sowas von guter Reproduzierbarkeit sprechen?
gemittelt über genug samples ergibt sich dann ein durchaus recht exakter mittelwert.
Mittelwert bei langen Szenen ist genau das Problem. ;) Es sagt nicht besonders viel aus da alles über die Zeit schön geglättet wird.
2. abseits der cinematics schon....man muss mit dem takt nur weit genug runter.
Ok... das könnte natürlich hinkommen. Ich bezog mich auf den Test der PCGH mit 3,2Ghz CPU-Takt.
3....das gilt für deine szene aber genauso! dann sind die min./avg.-FPS in deiner szene auch nicht eindeutig auf ein limit zuordbar.
Natürlich sind sie das. Schau mal hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973307&postcount=3
Mit 2,67Ghz CPU-Takt bin ich bei den avgs. noch im absoluten CPU-Limit (natürlich gegengetestet, mache ich immer). Jetzt schaue dir die max.fps mit 2,06Ghz an:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8933193&postcount=25
Es sind 90,33 max.fps. Wenn ich bei 107fps im absoluten CPU-Limit bin dann erst recht bei 90fps.
Edit:
Um dir das besser du demonstrieren.
i5-750 @ 2,06 Ghz mit 114,3x18, RAM @ 914/9-9-9-24-2T, GTX480 @ 830/1.660/2.000 Mhz.
Frames: 422 - Time: 5000ms - Avg: 84.400 - Min: 79 - Max: 90
Frames: 418 - Time: 5000ms - Avg: 83.600 - Min: 75 - Max: 91
Frames: 421 - Time: 5000ms - Avg: 84.200 - Min: 78 - Max: 90
i5-750 @ 2,06 Ghz mit 114,3x18, RAM @ 914/9-9-9-24-2T, GTX480 @ 700/1.400/1.900 Mhz
Frames: 423 - Time: 5000ms - Avg: 84.600 - Min: 79 - Max: 90
Frames: 427 - Time: 5000ms - Avg: 85.400 - Min: 80 - Max: 91
Frames: 433 - Time: 5000ms - Avg: 86.600 - Min: 78 - Max: 91
Im ersten Fall taktet die GPU mit 18,5% und der Vram mit 5% mehr. Würde ich mich in irgendeinem Abschnitt meiner Testszene im GPU-Limit befinden würde sich das auf mindestens eines der Werte niederschlagen. Dass einzelne Werte in einem Durchlauf mal etwas stärker aus der Reihe tanzen liegt an dem Einschlag der Granaten der etwas abweichen kann. Das weißt du aber.
PS: mit 664Mhz GPU-Takt fängt langsam an meine Graka in dieser Szene bei den besagten 2,06Ghz zu limitieren.
Savay
2011-09-14, 18:36:10
ich kann dir versichern das ich mit 2GHz in der PCGH szene (exkl. der cinematic) mit 900MHz GPU takt auch im CPU limit bin. erst recht wenn ich es auf den abschnitt verkürze an denen man den buggy und die 3 LKWs zerstört.
aber wenn es so ist, dann ist es halt so das sie absolut untauglich ist...bei deiner szene hatte ich auch schon durchläufe bei denen die granate das haus vorne nicht zerstört hat...das scheint in der natur der ganzen engine zu liegen. :)
das die PCGH szene eine bessere skalierung bei den min-FPS aufweist ist aber eine tatsache! ist auch logisch aufgrund der ki gegner und deutlich mehr physiklast. einbildung ist das jedenfalls nicht. und bei der betrachtung ist es auch irrelevant ob ich einen mittelwert der min-FPS aus mehreren durchläufen bilde vorallem da die min-FPS singuläre werte sind...im grunde WILL ich doch einen durchschnittswert als bezug haben.
das jedesmal exakt das gleiche limit auftritt ist ja extrem unwahrscheinlich aufgrund der üblichen schwankungen. ;)
nochmal: es geht mir nicht um die avg.-FPS sondern um die skalierung bei den min-FPS
dargo
2011-09-14, 19:07:58
@Savay
Wir schweifen mit der PCGH-Testszene völlig vom Thema ab. Mach das bitte über PN mit mir. :)
Edit:
Hat hier jemand einen i7 mit einer relativ schnellen NV-Graka (eine GTX470 sollte es schon mindestens sein) und BF: BC2? Mich würde selber das hier interesieren:
strange...wäre jetzt noch interessant zu wissen ob es auch dualcores mit aktivem SMT betrifft, ergo es an der zahl der threads liegt.
Ist in Arbeit...
dargo
2011-09-20, 22:47:37
Hier die nächsten Ergebnisse von kruemelmonster (vielen Dank nochmal für den Vergleich) mit folgendem System.
i7 2600k @ 2,0 GHz, DDR3 1333 9-9-9-24-2T, GTX470 @ 800/1600/1701, Win7 x64 SP1
kruemelmonster hat je 4 Durchläufe getätigt von denen ich den Durchschnitt zwecks besseren Übersicht ermittelt habe.
http://s7.directupload.net/images/110920/r39hvaqv.png
Die einzelnen Ergebnisse:
2c2t
181, 5000, 33, 39, 36.200
183, 5000, 33, 39, 36.600
183, 5000, 34, 39, 36.600
182, 5000, 33, 39, 36.400
2c4t
324, 5000, 60, 69, 64.800
322, 5000, 60, 67, 64.400
323, 5000, 60, 68, 64.600
326, 5000, 60, 70, 65.200
3c3t
218, 5000, 41, 46, 43.600
218, 5000, 41, 46, 43.600
220, 5000, 42, 46, 44.000
219, 5000, 42, 46, 43.800
3c6t
412, 5000, 78, 87, 82.400
411, 5000, 77, 85, 82.200
412, 5000, 79, 86, 82.400
410, 5000, 78, 86, 82.000
Wie man sehr gut erkennen kann ist das Spiel zumindest mit einer Nvidia-Grafikkarte extrem thread-limitiert. Die Frames können sich erst mit mindestens 4 Threads richtig entfalten. Da soll noch einer sagen HT bzw. SMT bringt kaum was. X-D Bei 2 Cores bringt die doppelte Threadzahl bei entsprechenden Games einen gewaltigen Leistungsschub.
Nightspider
2011-09-20, 22:51:35
Wow, die SMT Skalierung ist echt heftig. Kann mich nicht erinnern, das schonmal jemand SMT Leistungssprünge von 30-50%, erst recht nicht von 90% vorrausgesagt hat. :eek:
dargo
2011-09-20, 22:52:40
Wow, die SMT Skalierung ist echt heftig. Kann mich nicht erinnern, das schonmal jemand SMT Leistungssprünge von 30-50%, erst recht nicht von 90% vorrausgesagt hat. :eek:
Es wurden die falschen Spiele getestet. ;)
Savay
2011-09-20, 23:00:20
erscheint mir etwas zuviel zu sein als das es sich über die erhöhte auslastbarkeit der piplines erklären lässt.
schade das er keine AMD GPU hat...da scheint das verhalten nicht so ausgeprägt zu sein. :)
vlt. gibt es mit NV treibern (aus welchen gründen auch immer) synchronisierungsprobleme aufgrund von abhängigkeiten zwischen den threads, so das bei unter 4 parallelen kernen/threads die framerate überproportional einbricht...weil bei sequenzieller abarbeitung wartezeiten entstehen.
das würde auch ein wenig erklären warum bei mir bei 2 kernen immer ein ruckeln da ist egal wie der kerntakt ist...evtl ist der AMD treiber derart optimiert das er dieses verhalten kaschieren kann...aber eben nicht soweit das es im absoluten ressourcen limit bei nur 2 parallelen threads starke schwankungen in der framerate unterbindet.
lässt sich vielleicht verifizieren wenn wir noch einen finden der eine CPU mit SMT und ner aktuellen AMD GPU im rechner hat :lol:
mapel110
2011-09-20, 23:03:28
Im nvidia-Treiber kann man doch Multi-Thread-Unterstützung des Treibers abstellen. Wäre interessant, was dabei rauskommt.
dargo
2011-09-20, 23:07:36
evtl gibt es mit NV treibern synchronisierungsprobleme aufgrund von abhängigkeiten zwischen den threads, so das bei unter 4 parallelen kernen/threads die framerate überproportional einbricht...
Darauf würde ich sogar meinen Ars... verwetten. Man sieht ja an deinem System, dass bereits 3C/3T auf noch sehr gute 47fps kommt, wenn man die geringere Pro/Mhz-Leistung vom Phenom II gegenüber Sandy Bridge berücksichtigt. Das Problem daran ist halt nur, dass dies dem Spieler mit einem Dualcore @2T und einer Nvidia-Grafikkarte in entsprechenden Games nichts helfen wird. Hier muss Nvidia handeln! Die Frage ist halt ob NV diese Baustelle überhaupt noch bereit ist in Angriff zu nehmen? Dualcores mit nur 2 Threads verlieren denke ich bei Spielern immer mehr an Bedeutung. Trotzdem finde ich NV sollte hier dringend an ihren Treibern feilen.
Im nvidia-Treiber kann man doch Multi-Thread-Unterstützung des Treibers abstellen. Wäre interessant, was dabei rauskommt.
Du meinst also dieses Setting bezieht sich nur auf CPUs mit SMT? Hmm... möglich wärs ja. Ich kann das leider nicht testen weil meine CPU kein SMT hat. Das müsste dann kruemelmonster übernehmen.
@kruemelmonster
Teste bitte noch einmal die Szene mit 2C/2T und dieser Treibereinstellung.
40703
kruemelmonster
2011-09-20, 23:44:22
lässt sich vielleicht verifizieren wenn wir noch einen finden der eine CPU mit SMT und ner aktuellen AMD GPU im rechner hat :lol:
Im Zweitrechner steckt eine 5770; für den Umbau hab ich aber erst am Wochenende die nötige Muße. ;)
Du meinst also dieses Setting bezieht sich nur auf CPUs mit SMT? Hmm... möglich wärs ja. Ich kann das leider nicht testen weil meine CPU kein SMT hat. Das müsste dann kruemelmonster übernehmen.
@kruemelmonster
Teste bitte noch einmal die Szene mit 2C/2T und dieser Treibereinstellung.
Kommt vorraussichtlich morgen, für heute ist Schicht im Schacht. :weg::biggrin:
dargo
2011-09-20, 23:50:50
Im Zweitrechner steckt eine 5770; für den Umbau hab ich aber erst am Wochenende die nötige Muße. ;)
Die HD5770 wird sicherlich bei 2C/2T und eventuell 3C/3T noch reichen. Bei 2C/4T wird sie aber denke ich schon stark limitieren. Wenn du es aber unbedingt willst probiere es mit 1,6Ghz an der CPU und ohne HBAO. Dadurch sollte die CPU-Last wieder einiges ansteigen bzw. die GPU-Last sinken wodurch sich eine gewisse Tendenz trotz eventueller, leichter GPU-Limitierung erkennen lässt.
mapel110
2011-09-20, 23:56:41
Du meinst also dieses Setting bezieht sich nur auf CPUs mit SMT? Hmm... möglich wärs ja. Ich kann das leider nicht testen weil meine CPU kein SMT hat. Das müsste dann kruemelmonster übernehmen.
Nein, es wird sich wohl generell auf MCs auswirken. Damit ist der Treiber dann aber bei dem Problem aus dem Spiel und man kann überprüfen, obs wirklich an ihm liegt.
dargo
2011-09-20, 23:59:29
Nein, es wird sich wohl generell auf MCs auswirken.
Das hatte ich bereits getestet, kein nenennswerter Unterschied.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8933086&postcount=14
Savay
2011-09-21, 00:27:33
Die HD5770 wird sicherlich bei 2C/2T und eventuell 3C/3T noch reichen. Bei 2C/4T wird sie aber denke ich schon stark limitieren. (...)
obacht...die praktische rechenleistung bei 3C/3T sollte ähnlich sein wie bei 2C/4T...der gewinn durch SMT ist je kern im groben mittel bei ca. 25%...
der brutto gewinn des 3. kerns ist bei 50%.
macht beides mal theoretische 150% eines 2C/2T wenn es ideal skaliert...im zweifel ist SMT bestimmt etwas schwächer als der zusätzliche kern und wenn es nur an der effizienz der skalierung liegt die selten wirklich 1:1 beträgt. :wink:
Twodee
2011-09-21, 08:24:39
obacht...die praktische rechenleistung bei 3C/3T sollte ähnlich sein wie bei 2C/4T...der gewinn durch SMT ist je kern im groben mittel bei ca. 25%...
der brutto gewinn des 3. kerns ist bei 50%.
Wenn jeder Kern um 25% durch SMT dazugewinnt, dann ist die CPU nicht um 2x25% stärker, sondern auch nur um insg. 25%.
DualCore ohne HT ~ 2 x 100% je Core = 200%
DualCore mit HT ~ 2 x 125% je Core = 250%
TriCore ohne HT ~ 3 x 100% je Core = 300%
Also rein theoretisch sollte ein 2C/4T genau zwichen einem 2C/2T und 3C/3T liegen.
kruemelmonster
2011-09-21, 21:25:48
Houston, wir haben ein Problem: ausgerechnet heute muss EA den R11-Patch für BFBC2 rausbringen. :mad:
Steam hats schon aktualisiert, und nun funktioniert das Savegame nicht mehr. Geladen wird anfangs noch, dann gehts kommentarlos zurück auf den Desktop.
@dargo: Erstelle bitte mal ein neuen Spielstand mit der aktuellen Version.
dargo
2011-09-23, 21:23:02
@kruemelmonster
Wie siehts nun aus? :)
kruemelmonster
2011-09-24, 00:30:57
Du bekommst nachher hast Post. ;)
PCGH_Raffael
2011-10-05, 15:25:42
Hallo zusammen,
ich habe vor ein paar Tagen Nvidia auf das Phänomen angesprochen. Das Interesse an dieser Entdeckung ist groß und man kann derzeit zumindest in Teilen nachvollziehen, was hier getestet wurde. Wir haben intern haufenweise weitere Benchmarks mit BC2, Dirt 3 und Crysis 2 angestellt, die das Verhalten ebenfalls illustrieren. Es wird im kommenden Heft einen Artikel dazu geben, mit Verweis auf die Entdeckung hier. :)
MfG,
Raff
klutob
2011-10-05, 17:06:29
Sehr schön, freut mich als Triple-Core und NV Nutzer. :)
dargo
2011-10-05, 17:37:07
@Raff
Sehr gut. :up:
Das Interesse an dieser Entdeckung ist groß und man kann derzeit zumindest in Teilen nachvollziehen, was hier getestet wurde.
Was meinst du genau mit "zumindest in Teilen"?
klutob
2011-11-11, 18:06:47
Mit dem 285.79 BETA Treiber scheint das Problem behoben zu sein. :)
Vorher (Crack the sky PCGH-Bench)
Min, Max, Avg
57, 82, 70.900
Mit dem 285.79
Min, Max, Avg
75, 102, 90.681
dargo
2011-11-11, 18:18:22
Oh... hab das gar nicht mehr verfolgt. Ist das Ergebnis mit einem Dualcore oder womit?
klutob
2011-11-11, 18:22:00
Triplecore Phenom II 720BE
dargo
2011-11-11, 18:25:06
Ok... danke. Die Triplecores sind ja mit einer NV auch überdurchschnittlich eingebrochen. Interessant wie schnell NV das gefixt hat. Ich werde mal meine Testszene in BF: BC2 auch mal testen. Nicht, dass NV "nur" allgemein die Performance verbessert hat.
Edit:
Nee klutob, da hat NV nichts gemacht. Ein Triplecore und Dualcore performen weiterhin unterirdisch. Den DC-Test habe ich mir gespart.
2Ghz QC = 90,67 avg.fps
2Ghz TC = 41,13 avg.fps
Skysnake
2011-11-12, 07:57:52
Hallo zusammen,
ich habe vor ein paar Tagen Nvidia auf das Phänomen angesprochen. Das Interesse an dieser Entdeckung ist groß und man kann derzeit zumindest in Teilen nachvollziehen, was hier getestet wurde. Wir haben intern haufenweise weitere Benchmarks mit BC2, Dirt 3 und Crysis 2 angestellt, die das Verhalten ebenfalls illustrieren. Es wird im kommenden Heft einen Artikel dazu geben, mit Verweis auf die Entdeckung hier. :)
MfG,
Raff
Ja der Artikel war wirklich nett in der Print. ;)
Durch den bin ich gerade erst auf den Topic hier aufmerksam geworden.
Ist schon relativ kurios, was da passiert. Wenn Sie das gefixed bekommen, dann können wir ja aber vielleicht allgemein einen schönen Performance-Schub sehen. Ich hoffe es mal.
Bleibt auf jeden Fall dran!!!
PS: Raff, habt ihr/nV ne Ahnung, welchen Teil das betrifft, und ob GPU-Computing davon auch betroffen sein könnte???
PPS: Die ganze Sache wirft ja auch SEHR große Fragezeichen auf, was die CPU Tests anbelangt, wenn ich die Sache richtig verstanden habe oder? Wäre auf jeden Fall mal gut zu schauen, ob bei den AMD Karten sich ein anderes Verhalten zeigt. Bzgl den Dual und Triple Cores.
klutob
2011-11-12, 10:42:07
@Dargo ich bleibe dabei, der Treiber löst zumindest bei mir die 3-Core Problematik. Neben den reinen Benchmarks, sehe ich es auch an den avg. FPS im Multiplayer in BFBC2.
Hier nocheinmal der PCGH-Bench mit allen (3) Cores im Vergleich zu einem, mit dem Taskmanager simulierten Dualcore
Triplecore:
Frames, Time (ms), Min, Max, Avg
2682, 29999, 78, 109, 89.403
Fake-Dualcore:
Frames, Time (ms), Min, Max, Avg
2019, 30779, 57, 76, 65.597
edit:
Wilde Spekulation meinerseits: Vielleicht aktiviert der Treiber nur dann den Bugfix, wenn bei der Installation auch eine entsprechende CPU-Config vorgefunden wird.
dargo
2011-11-12, 11:14:36
Wäre auf jeden Fall mal gut zu schauen, ob bei den AMD Karten sich ein anderes Verhalten zeigt. Bzgl den Dual und Triple Cores.
Die AMD-Karten skalieren ganz anders und plausibler, siehe erster Post.
@klutob
Die Testszene Crack the Sky der PCGH ist für so einen Vergleich gar nicht maßgebend weil sie nicht durchgehend im vollständigen CPU-Limit liegt. Die Mehrperformance könnte also durchaus daraus resultieren, dass Nvidia die allgemeine GPU-Performance in BF: BC2 verbessert hat. Zudem hat DICE die allgemeine Performance eh schon durch die letzte Spielversion etwas verbessern können. Darum gehts in diesem Thread aber nicht.
Du kannst das nur herausfinden indem du eine vollständig cpu-limitierte Testszene nimmst und am besten einen QC, TC und DC gegenüberstellst.
klutob
2011-11-12, 11:44:19
Die Testszene Crack the Sky der PCGH ist für so einen Vergleich gar nicht maßgebend weil sie nicht durchgehend im vollständigen CPU-Limit liegt. Die Mehrperformance könnte also durchaus daraus resultieren, dass Nvidia die allgemeine GPU-Performance in BF: BC2 verbessert hat. Zudem hat DICE die allgemeine Performance eh schon durch die letzte Spielversion etwas verbessern können. Darum gehts in diesem Thread aber nicht.
Du kannst das nur herausfinden indem du eine vollständig cpu-limitierte Testszene nimmst und am besten einen QC, TC und DC gegenüberstellst.
Naja in 1024x768 bin ich selbst mit einer GTX260 sehr nahe dem CPU-Limit und eine GPU-Steigerung von ~30% in einem ausgereizten Spiel ohne Erwähnung im Changelog des Treibers ist auch unwahrscheinlich.
Wie gesagt, der Bugfix ist mir zuerst im Multiplayer aufgefallen, da die Frames auf einmal auf ~80 Avg. angestiegen und die sonst üblichen und spürbaren Slowdowns auf ~40 Fps bei Destruction 2.0/Explosionen nicht mehr da waren.
dargo
2011-11-12, 11:54:06
Naja in 1024x768 bin ich selbst mit einer GTX260 sehr nahe dem CPU-Limit...
Sprichst du jetzt von der PCGH-Testszene? Diese ist nämlich selbst mit einer GTX480 in nur 1024x768 zum Teil gpu-limitiert. Natürlich hängt es davon ab welche CPU verbaut wird. Mit einem langsamen Dualcore könnte es anders sein.
klutob
2011-11-12, 12:16:47
Sprichst du jetzt von der PCGH-Testszene? Diese ist nämlich selbst mit einer GTX480 in nur 1024x768 zum Teil gpu-limitiert. Natürlich hängt es davon ab welche CPU verbaut wird. Mit einem langsamen Dualcore könnte es anders sein.
Das ist doch jetzt Haarspalterei, wenn ich in 1920x1200 vs. 1024x768, nur einen Einbruch der Fps um etwa ~30% habe, limitiert mich natürlich meine lahme CPU.
Der letzte Prozentpunkt ist für mich sowieso nicht signifikant, ohne eine Fehlerrechnung in einem komplexen Messversuch/System wie dem PC.
dargo
2011-11-12, 13:15:58
Das ist doch jetzt Haarspalterei, wenn ich in 1920x1200 vs. 1024x768, nur einen Einbruch der Fps um etwa ~30% habe, limitiert mich natürlich meine lahme CPU.
Das ist keine Haarspalterei. Und die Auflösung ist für deine Schlussfolgerung eh nicht geeignet. 1920x1200 bedeutet zwar fast 3x so viele Pixel berechnen, sprich 3 fach höhere GPU-Last. Solange du aber nicht weißt wie hoch die tatsächliche CPU-Last in der Testszene in jeder Sekunde ist sagt das erstmal gar nichts aus. Es können zb. mehrere Sekunden in der Testszene vorhanden sein die selbt bei 1680x1050 noch hochgradig cpu-limitiert sind. Somit löst sich dein theoretischer Vorteil der 3x so hohen Auflösung (also GPU-Last) in Luft auf.
klutob
2011-11-12, 16:27:19
Und wo ist hier ein Widerspruch, zu meiner Behauptung, dass in 1024x768 bei meinem Rechner hauptsächlich ein CPU-Limit vorliegt???
dargo
2011-11-12, 16:52:57
Und wo ist hier ein Widerspruch, zu meiner Behauptung, dass in 1024x768 bei meinem Rechner hauptsächlich ein CPU-Limit vorliegt???
Oh man... wo soll ich nur anfangen? :)
Fangen wir von vorne an. Du behauptest mit diesem Post...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9030773&postcount=55
... dass die Skalierungsproblematik bei NV beim Triplecore beseitigt sei. Das schlussfolgerst du daraus, dass der TC 36% schneller ist als der simulierte DC. Jetzt schau dir die Benchmarks im ersten Post an. Dort ist bei mir und Raff der TC 29% schneller als der DC. Jetzt nehmen wir mal an deine Testszene mit Clear the Sky ist tatsächlich vollständig cpu-limitiert. Bei dir skaliert der TC etwas besser. Das kann einfach nur daran liegen, dass die Clear the Sky Szene sich besser multithreaden lässt und somit der TC etwas besser zulegt. Das hat aber nichts mit der Skalierungsproblematik von NV in diesem Thread zu tun. Du siehst doch im ersten Post, dass eine AMD-CPU mit einer AMD-Grafikkarte vom DC auf TC mit knapp 58% skaliert. In unserer Testszene wohlgemerkt, nicht in Clear the Sky. Du könntest natürlich meine Testszene nehmen und bei sich testen. Dann muss aber gewährleistet sein, dass du vollständig im CPU-Limit in meiner Testszene mit der Kombination aus deiner CPU und Grafikkarte bist sonst kannst du dir den ganzen Aufwand sparen. Und wie ich schon sagte... ich habe es mit dem neuen FW selbst getestet und da hat sich gar nichts getan.
Crack the sky. :D Ich fragte mich gerade, was du mit Stalker willst ... ;)
Es hat sich mit hoher Wahrscheinlichkeit nichts getan. So schnell halten neue Dinge nicht Einzug in Treiber.
MfG,
Raff
dargo
2011-11-12, 17:49:12
Crack the sky. :D Ich fragte mich gerade, was du mit Stalker willst ... ;)
Ach verdammt... ;D
klutob
2011-11-12, 18:18:55
... dass die Skalierungsproblematik bei NV beim Triplecore beseitigt sei. Das schlussfolgerst du daraus, dass der TC 36% schneller ist als der simulierte DC. Jetzt schau dir die Benchmarks im ersten Post an.
Nö, ich habe mit einem früheren Bench den ich mit Aufkommen dieses Threads erstellt hatte, verglichen.
Siehe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9030027&postcount=50
ca. 30% mehr Performance bei identischen Einstellungen! (1024x768) im gleichen System nur durch den 285.79er Treiber.
dargo
2011-11-12, 19:10:39
Nö, ich habe mit einem früheren Bench den ich mit Aufkommen dieses Threads erstellt hatte, verglichen.
Siehe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9030027&postcount=50
ca. 30% mehr Performance bei identischen Einstellungen! (1024x768) im gleichen System nur durch den 285.79er Treiber.
Ach jetzt beziehst du dich auf diesen Test. Ok... es sind knapp 28% bei den avgs. Ich wiederhole mich aber gerne nochmal... diese Mehrleistung resultiert nicht alleine aus dem Grafiktreiber. Im Laufe dieses Threads hat DICE die Spielversion aktualisiert wodurch ich alleine +7% im vollständigen CPU-Limit (in meiner Testszene) mit dem Quad messen konnte (90,67 vs. 84,45 avg.fps).
dargo
2012-04-23, 11:00:50
Hat jemand von den beteiligten hier zufällig noch mein Savegame der aktuellen Spiel-Version? Ich bekomme die Tage eine HD7950, damit könnte ich einen direkten Vergleich anstellen. Ich hab aber dummerweise das Savegame gelöscht. :(
kruemelmonster
2012-04-27, 10:26:30
Habs noch zu Hause rumliegen, kann ich dir heute abend rüberschicken.
dargo
2012-04-28, 10:10:20
Hat sich schon erledigt. Ich hab die Stelle wieder, trotzdem danke.
Edit:
Hier mal die neuen Ergebnisse mit einer HD7950.
Lynnfield + ATI GPU = i5-750 @ 2,06 Ghz mit 114,3x18, RAM @ 914/9-9-9-24-2T, HD7950 @ 960/1300Mhz
http://s7.directupload.net/images/120428/5s6k44ex.png
Unglaublich wie stark Nvidia die Dualcore und Triplecore Nutzer benachteiligt. :motz: Die Triplecore Nutzer sogar wesentlich stärker. Auf der anderen Seite holt Nvidia aus 4 Cores/Threads wieder etwas mehr raus. Die 84,45fps vom Quad im ersten Post stimmen mit der aktuellen Spielversion und neueren Forcewares nicht mehr. Es sind 90,67fps.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9030050&postcount=53
Skysnake
2012-04-28, 12:08:54
Dazu gabs vor ner Weile auch einen Test von PCGH dazu. Da hat man gesehen, das gerade Dual und Triple-Core User mit einer AMD, DEUTLICH besser fahren als mit ner nVidia.
dargo
2012-04-28, 12:46:25
Raff hat schon früher durch diesen Thread bei NV nachgehackt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8967331&postcount=47
Leider hat in dem Zusammenhang bis heute Nvidia das Problem in ihren Treibern nicht beseitigt.
Edit:
Bei DIRT 3 haben wir ein ganz anderes Bild. Nvidia schwächelt zwar beim Dualcore etwas gegenüber ATI, aber nicht in dem Ausmaß wie bei Bad Company 2. Wobei 19% sind nicht gerade wenig. Der Triplecore versagt aber wieder stark in Verbindung mit einer Nvidia Grafikkarte.
http://s14.directupload.net/images/120428/h6fl3cxi.png
Zum Vergleich mit einer GTX480.
http://s1.directupload.net/images/110531/lai2v4si.png
Aber auch hier holt Nvidia aus dem Quadcore wieder mehr raus als AMD. Bei Bad Company 2 waren es kaum auffällige 6%. Hier sind es immerhin schon 12%.
PS: beides mit 2332Mhz (14x 166,6), DDR3-1333 getestet.
Knuddelbearli
2012-04-28, 21:21:47
wire sieht das bei nv eigentlich mit smt aus ? sind echte kerne wichtig ( oder was wahrscheinlicher ist ) nur die threads ?
dargo
2012-04-28, 22:40:18
wire sieht das bei nv eigentlich mit smt aus ? sind echte kerne wichtig ( oder was wahrscheinlicher ist ) nur die threads ?
Beides.
boxleitnerb
2012-04-28, 22:54:11
Wie sieht das im CPU-Limit in üblichen Einstellungen (1080p, AA/AF) aus? Übertragbar?
Knuddelbearli
2012-04-28, 23:07:06
hmm also quasi ne benachteiligung von AMD
ist inzwischen aber recht egal da auch bei amd inzwischen dual udn triple cores extrem selten sind, und wenn dann sie imemr mit einer amd igp laufen ohne extra graka
dargo
2012-05-07, 15:00:33
Wie sieht das im CPU-Limit in üblichen Einstellungen (1080p, AA/AF) aus? Übertragbar?
Wie soll es schon aussehen? Hast du in 1080p ein vollständiges CPU-Limit ändert sich an den Verhältnissen gar nichts.
hmm also quasi ne benachteiligung von AMD
Hä? Ich sehe hier immer noch je nach Game eine extreme Benachteligung der DCs/TCs nur von Nvidia.
Knuddelbearli
2012-05-07, 15:08:43
amd cpus waren damit gemeint ^^
bei intel hat ja fast jeder dualcore HT
y33H@
2012-05-07, 15:31:36
Bei AMD gibt's Quads für weit unter 100 Euro, einen Athlon/Phenom II X2 dürfte kaum einer nutzen.
dargo
2012-05-07, 15:33:46
bei intel hat ja fast jeder dualcore HT
Die neuen ja... es dürften aber viele noch mit einen Wolfdale unterwegs sein. Und diese User sind mit einer AMD-Karte definitiv besser dran. Diese Benachteiligung der NV-Treiber kann schnell zwischen spielbar und unspielbar entscheiden.
Betrifft das eigentlich alle NV Karten oder nur neuere Modelle?
Was ist mit Wolfdale Usern, die noch einen G92 nutzen?
dargo
2012-05-11, 07:46:20
Das wird alle NVs betreffen. Die Limitierung kommt vom Treiber und nicht von der Hardware. Die User mit älteren Karten könnten eventuell nur besser dran sein wenn sie noch einen ganz alten Treiber nutzen. Wo der Fokus also noch bei Dualcores lag. Nur... wer nutzt uralte Treiber noch?
dargo
2012-05-27, 20:49:31
Einmal ein kompletter Run mit NfS: The Run.
Lynnfield + NV GPU = i7-860 @ 2013 Mhz mit 118,4x17, RAM @ DDR3-1184 mit 9-9-9-24-2T, GTX480 @ 830/1.660/2.000 Mhz, Win7 x64 mit FW 301.42
http://s14.directupload.net/images/120527/63bxw87h.png
Schon lustig was 2C/4T mit 2C/2T anstellt. :freak: Wobei 3C/6T vs. 3C/3T aussagekräftiger sein sollte. Im ersten Fall wird die Grundlast bei 2C/2T sicherlich noch einen draufgesetzt haben.
PS: natürlich immer vollständiges CPU-Limit.
Zergra
2012-05-27, 21:03:43
Hat es einen Grund wieso du die Details auf Max einstellst ? Und womit misst du die FPS ?
dargo
2012-05-27, 21:13:00
Hat es einen Grund wieso du die Details auf Max einstellst ?
Weil damit immer gewährleistet ist, dass auch die maximale CPU-Last anliegt.
Und womit misst du die FPS ?
Fraps.
dargo
2012-05-28, 14:19:48
So... jetzt habe ich alle brauchbaren Möglichkeiten ausgeschöpft. :freak:
Lynnfield + NV GPU = i7-860 @ 2013 Mhz mit 118,4x17, RAM @ DDR3-1184 mit 9-9-9-24-2T, GTX480 @ 830/1.660/2.000 Mhz, Win7 x64 mit FW 301.42
http://s7.directupload.net/images/120528/kzjpxw7n.png
Ich würde am liebsten noch 4C/5T und 4C/6T probieren. Das lässt sich aber leider nicht einstellen. Mit Zugehörigkeit festlegen gehts zwar, dann gibts aber ein starkes Geruckel mit verringerten Frames. Und wenn ich das Game neustarte ist die "Zugehörigkeit festlegen" wieder aufgehoben, sprich Game greift wieder auf alle Cores zu.
Edit:
Ach übrigens... da fällt mir noch was ein. Mit msconfig und HT kann man Windows ganz schön durcheinander bringen. ;D Als ich die Cores über msconfig abgeschaltet und dann wieder alle aktiviert habe war plötzlich Core 6 anstatt Core 7 geparkt. :ulol: Ich musste erst im Bios HT deaktivieren und wieder aktivieren damit das Durcheinander wieder passte. :D Dieses SMT-Parking scheint aber eh keine Auswirkung auf die Frames zu haben. Bei 3C/5T und 4C/7T sind bsw. gar keine Cores geparkt und die Frames sind praktisch identisch zu 3C/6T und 4C/8T mit SMT-Parking. Der minimale Unterschied könnte Messtoleranz sein oder halt dadurch begründet, dass weniger Threadverwaltung anfiel.
boxleitnerb
2012-05-28, 15:51:03
Dargo, da du so ein CPU-Spezi bist frag ich mal hier:
Die Total War Reihe sagt dir ja was, vielleicht kennst du auch Rome (2004). Ich werd nicht schlau daraus, warum ich so schlechte fps habe (in Gefechten bei maximalem Rausgezoome um die 30). Was hab ich schon alles probiert:
4C/8T
4C/4T
1C/1T
SLI an, aus
Bei nur einem verfügbaren Kern erreiche ich nichtmal 20fps, CPU-Auslastung um die 80%. Bei 4 Kernen/4 Threads sind es eben um die 30fps, aber kein einziger Thread geht über 40%. Und dennoch skalieren die fps fast 1:1 mit dem Takt. Sprich 4 GHz 31fps, 2 GHz 16-17fps. Wie kann das sein?
Ach ja, CPU ist ein 2600K.
Skysnake
2012-05-28, 15:56:58
abhängigkeiten zwischen den threads.
dargo
2012-05-28, 15:58:42
Als ich kenne das Spiel jetzt nicht, ist auch wieder nicht mein Genre.
Aber wenn du folgendes sagst:
1C/1T = ~20fps
4C/4T = ~30fps
und das Spiel skaliert mit dem Takt sehr gut heißt das für mich das Spiel skaliert miserabel mit 4 Cores. Was liefert 2C/2T in der obigen Konstellation wo du einmal 20 und einmal 30fps bekamst?
boxleitnerb
2012-05-28, 16:01:41
Die Engine ist uralt, damals gabs ja nichtmal Dualcores in der Masse. Ich kann das erst heute Abend nochmal ausführlicher testen mit 2/2. Was mich eben wundert ist, dass sich ein Thread nicht gleich 100% nimmt, Leistung ist doch genügend da. Oder ist die prozentuale Auslastungsanzeige nicht zuverlässig?
dargo
2012-05-28, 16:12:57
Was mich eben wundert ist, dass sich ein Thread nicht gleich 100% nimmt, Leistung ist doch genügend da. Oder ist die prozentuale Auslastungsanzeige nicht zuverlässig?
Achso... das meinst du. Auf die Anzeige im Taskmanager würde ich mich nicht 100%-ig verlassen.
HTB|Bladerunner
2012-05-30, 17:37:02
Wurden solche Tests auch schon mit BF3 durchgeführt?
Ich bin nämlich vor kurzem von einem AMD PhenomII x6@4GHz auf ein Intel Ivy i7-System umgestiegen. In Kombination mit einer ASUS HD7970 @1100/1575 läuft das Spiel bei 2xSSAA im absoluten GPU-Limit.
Dennoch habe ich mir im Multiplayer-Part etwas mehr von dem Intel-System versprochen. So sind z.B. die Max-FPS stark angestiegen, wohingegen die Min-FPS erstaunlicherweise ein tick (1-3FPS) gesunken sind. Generell sind die FPS-Ausschläge mit dem Ivy sehr stark um nicht zu sagen instabil.
Betrachtet man dabei die CPU-Auslastung im Spiel, fällt auf, dass die 6 Kerne beim PII sehr gleichmäßig ausgelastet sind im Bereich zwischen 50%-70%. Die Intel CPU dagegen langweilt sich bei etwa 20%-40% Auslastung. Vor allem aber die Thread-Aufteilung beim Ivy wirkt sehr abenteuerlich. Mal ist ein Thread bei 80% während die anderen bei 20% rum dümpeln oder teilweise mit 0% sogar "abschalten".
Dabei ist es übrigens egal wie hoch der Takt beim Ivy ist. Bis 4,7GHz habe ich das Verhalten getestet.
Ist das Ganze eine Eigenheit des Hyper-Threadings oder gibt dazu eine andere plausible Erklärung?
dargo
2012-05-30, 17:42:03
Wurden solche Tests auch schon mit BF3 durchgeführt?
Da "The Run" auch die Frostbite 2.0 verwendet kannst du davon ausgehen, dass sich BF3 genauso oder zumindest in sehr ähnlicher Form verhält. Ich konnte es leider nicht mehr testen. Der i7 ist schon weg. Das Problem bei BF3 ist ein brauchbares Savegame für gute Reproduzierbarkeit zu finden. Mit der Möglichkeit zum freien Speichern wäre das selbstverständlich ein Klacks.
Undertaker
2012-05-30, 22:44:10
Wurden solche Tests auch schon mit BF3 durchgeführt?
Ich bin nämlich vor kurzem von einem AMD PhenomII x6@4GHz auf ein Intel Ivy i7-System umgestiegen. In Kombination mit einer ASUS HD7970 @1100/1575 läuft das Spiel bei 2xSSAA im absoluten GPU-Limit.
Dennoch habe ich mir im Multiplayer-Part etwas mehr von dem Intel-System versprochen. So sind z.B. die Max-FPS stark angestiegen, wohingegen die Min-FPS erstaunlicherweise ein tick (1-3FPS) gesunken sind. Generell sind die FPS-Ausschläge mit dem Ivy sehr stark um nicht zu sagen instabil.
Betrachtet man dabei die CPU-Auslastung im Spiel, fällt auf, dass die 6 Kerne beim PII sehr gleichmäßig ausgelastet sind im Bereich zwischen 50%-70%. Die Intel CPU dagegen langweilt sich bei etwa 20%-40% Auslastung. Vor allem aber die Thread-Aufteilung beim Ivy wirkt sehr abenteuerlich. Mal ist ein Thread bei 80% während die anderen bei 20% rum dümpeln oder teilweise mit 0% sogar "abschalten".
Dabei ist es übrigens egal wie hoch der Takt beim Ivy ist. Bis 4,7GHz habe ich das Verhalten getestet.
Ist das Ganze eine Eigenheit des Hyper-Threadings oder gibt dazu eine andere plausible Erklärung?
Grundsätzlich: Auf die Auslastung einzelner Threads im Taskmanager kannst du nichts geben. Die Threads springen teils so schnell zwischen den Kernen, dass da totaler Mist angezeigt wird - selbst bei reinen ST-Workloads wie SuperPi. Bei SMT kannst du zusätzlich auch noch die Angabe der Gesamtauslastung vergessen, da der Taskmanager keinen Unterschied zwischen "schnellen" (= praktisch exklusiv auf einem Kern laufenden) und "langsamen" (= zusammen mit einem zweiten SMT-Thread laufenden) Threads kennt. Im Extremfall kann bei einer SMT-CPU schon eine Taskmanager-Auslastung von 50% annähernd Volllast bedeuten.
In deinem Fall dürfte der Wechsel vom X6 auf Ivy die min-fps schlicht deshalb nicht verbessern, weil diese wohl einfach GPU-limitiert sind. Da du den BF3-Multiplayer wohl kaum reproduzierbar benchen kannst (wenn ja, wie?), würden hier so oder so nur größere Unterschiede ab vielleicht 15% wirklich auffalen.
dargo
2012-05-30, 23:18:01
Grundsätzlich: Auf die Auslastung einzelner Threads im Taskmanager kannst du nichts geben. Die Threads springen teils so schnell zwischen den Kernen, dass da totaler Mist angezeigt wird - selbst bei reinen ST-Workloads wie SuperPi. Bei SMT kannst du zusätzlich auch noch die Angabe der Gesamtauslastung vergessen, da der Taskmanager keinen Unterschied zwischen "schnellen" (= praktisch exklusiv auf einem Kern laufenden) und "langsamen" (= zusammen mit einem zweiten SMT-Thread laufenden) Threads kennt. Im Extremfall kann bei einer SMT-CPU schon eine Taskmanager-Auslastung von 50% annähernd Volllast bedeuten.
Da muss ich wieder schmunzeln auch wenn das hierhin nicht ganz hingehört weil wir uns über native Quadcores unterhalten.
Ich werde nie den Fall mit dem Yorkfield vergessen. Ich hatte früher eine Szene in Timeshift auf Quadcoreskalierung untersucht. Dabei habe ich mir auch den Taskmanager zur Hilfe genommen um zu sehen inwieweit diese Szene stark vom Quadcore profitiert. So nach dem Motto... wenn alle 4 Cores am Anschlag im TM sind wird das schon hinhauen. Die gleiche Szene habe ich dann mit nur 2 Cores gebencht. Und was kam dabei raus? Kein einziger Frame Unterschied obwohl mit 4 Cores die Auslastung nahezu bei 100% lag. Ich vermute hier mal, dass die Wartezeiten durch den stark limitierenden FSB einfach nicht berücksichtigt wurden und der TM weiterhin fröhlich bei nahezu 100% Auslastung blieb.
Skysnake
2012-05-31, 00:30:37
Der TM sagt nur aus, wieviel % der vergebenen Timeslices/windows genutzt werden. Nicht mehr und nicht weniger. Was der Prozess dann wirklich macht ist was total anderes. Der kann auch 99% der Zeit schlicht auf I/O warten, aber sein Window eben nicht frei geben. Bussy-Waiting praktisch.
boxleitnerb
2012-07-09, 19:20:38
Shogun 2 CPU Benchmark (GTX580, SLI aus):
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9379069#post9379069
http://www.abload.de/img/shoguncpu1kuyb.png (http://www.abload.de/image.php?img=shoguncpu1kuyb.png)
Mehr Threads bringen nix, mehr echte Kerne schon.
seaFs
2014-04-12, 17:32:06
Da sich mittlerweile etwas getan hat was treiber und CPU-Last angeht, könnt ihr die Tests mit den jetzigen treibern nochmal wiederholen?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.