PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD vs nVidia: CPU-Takt oder Core-Count im CPU-Bottleneck?


Hermelinmaster
2016-05-10, 16:42:42
Hi Leute,

Es dürfte allgemein akzeptiert sein, dass nVidia auf Systemen mit älteren und langsamen CPUs AMD vorzuziehen ist fürs Gaming. Die AMDs erreichen hier deutlich schlechtere fps als ihre sonstigen Rivalen von nVidia.
Nun wollte ich mal wissen ob AMD hier von der geringen Single-Core-Performance oder vom geringen Core-Count betroffen ist.
Testen ließe sich das indem man im ersten Benchmark-Durchlauf einen beispielsweise G3258 verwendet. Im ersten Test mit meinetwegen 2GHz im zweiten mit 4GHz. Jeweils getestet mit Karten von AMD und nVidia.
Im zweiten Benchmark-Durchlauf könnte man eine 5960X auf 2GHz verwenden, bei dem in Test 1 1 bis 2-Cores verwendet werden und in Test 2 alle 8.
Daraus sollte sich ableiten lassen ob AMD und nVidia Single-Core-Performance oder Multi-Core-Performance (im Falle der CPU als Bottleneck) benötigen.

Oder hat man hier gar schon Mess- und Erfahrungswerte und ich hab das verschlafen? :biggrin:

Es wäre interessant zu wissen woher diese Differenz zwischen AMD und nVidia kommt um vielleicht auch abzuschätzen wie es sich in Zukunft entwickelt. Hat AMD ein Problem mit wenigen Cores, ist Besserung (in diesem kleinen Teilaspekt) insbesondere auch durch Zen am Horizont zu sehen. Ein kleiner, langsamer Quad- oder gar Octo-Core von AMD mit sehr geringen TDP könnte dann eine echte Alternative zum i3 sein.

Mein persönliches Interesse rührt daher, dass ich mir jetzt einen PC bauen muss für CAD, CFD und Matlab, der mit 2650v3 oder 2658v3 ausgestattet wird. Da ich auch das gelegentliche Zocken nicht verschmähe, wäre für mich interessant ob hier eine AMD trotz niedriger Single-Core-Performance des Xeons noch vernünftig werkelt oder ob eine Nvidia trotz fehlender DP (nicht soo wichtig für mich) die bessere Wahl wäre. :freak:

LG und Danke schonmal für alle Antworten
Hermelinmaster

iuno
2016-05-10, 17:01:01
ComputerBase testet inzwischen oft CPU skalierung mit, z.B. hier (ganz oben):
http://www.computerbase.de/2016-03/the-division-benchmark/3/
oder hier: http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/5/

Einfach mal Tests durchschauen. PCGH hatte zuletzt auch oefters auch sowas in der Art

Hermelinmaster
2016-05-10, 20:35:00
Hi @iuno

Danke für die Links. Die Tests der CB hab ich gesucht, aber nicht gefunden :biggrin:
Der Test der PCGH zu Division (der Einzige in diese Richtung den ich jetzt gefunden hab) unterscheidet leider nicht zwischen AMD und nVidia.
Die Tests der CB sind mir nicht "extrem" genug. 2.5GHz als Minimum und max 4 Kerne+HT sind nicht das Ende der Fahnenstange. Insbesondere wäre es doch mal interessant zu sehen wie es sich beim Octa-Core verhält (dürfte für Zen ja der neue "Standard" werden, mit Option auf 16-Core Opteron).

Die Tendenz bei CB (2 Spiele, 2 GraKas) scheint ja zu sein, dass Core-Count wichtiger ist. Nur was bei über 4 Kernen passiert, bzw. wie weit man mit dem Takt runter kann bei 4 und 8 Kernen ohne in einen CPU-Bottleneck zu kommen, ist unklar (war ja auch nicht wirklich Testziel von CB).

BlacKi
2016-05-10, 21:22:30
wenn 8kerne genutzt werden können bei einem 8kerner sind halt bei amd karten mehr reserven da. wenn nur 2 kerne ausgelastet werden bringt dir ein niedrig getakteter 20 kerner auch nichts.
bei amd gab es letztes(oder vorletztes?) jahr eine stellen ausschreibung mit dem aufgabengebiet dx11 driver overhead zu reduzieren. es hat sich fast nichts getan.

amd sitzt das aus und geht mit dx12 in die vollen, dort gibts kein driver overhead mehr. das hat also nichts mit der hardware zu tun sondern ist ein reines treiberproblem.

ich schätze je nach spiel den overhead auf 20-30% ggü. nvidia sieh CB tests, unabhängig der cores unabhängig der cpu leistung wenn man die gpu als limit ausschließen kann.
http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_prozessorbenchmarks

Hermelinmaster
2016-05-11, 01:23:14
Wenn ich dich richtig verstehe sagst Du, dass die Rohleistung entscheidend ist (bezogen auf die Anzahl der nutzbaren Threads).
Ich befürchte, dass die Sache komplexer ist. Häufig habe ich nun schon gesehen, dass meist ein Core wesentlich höher ausgelastet ist als der Rest. Das lässt mich vermuten, dass auch bei einem Spiel das viele Threads nutzt durchaus eine "Mindestfrequenz" für den einen Core, der am stärksten ausgelastet ist, nötig ist, sodass kein Bottleneck auftritt.
Bspw. Assassins Creed habe ich schon auf 32 Threads gesehen. Sollte hier nun ein Kern besonders stark beansprucht werden (sagen wir bei 16 Kernen Faktor 4 der restlichen durchschnittlichen Last), so könnte es sein, dass ein Stottern auftritt, obwohl theoretisch genug Rechenleistung zur Verfügung steht.

Das die Probleme mit DX12 abnehmen ist anzunehmen, doch bis dahin wird es noch etwas dauern und obwohl es kein hardwarespezifisches Problem ist, so ist es doch ein Herstellerspezifisches.

captain_drink
2016-05-11, 14:19:24
Die Schwierigkeit bei einer solchen Messung besteht auch darin, dass verschiedene Spiele unterschiedlich mit mehr Takt/Cores skalieren.
Um eine eindeutige Korrelation zu einem IHV herstellen zu können, müsste man also auch mehrere Spiele wie beschrieben testen.

BlacKi
2016-05-11, 16:51:27
Wenn ich dich richtig verstehe sagst Du, dass die Rohleistung entscheidend ist (bezogen auf die Anzahl der nutzbaren Threads).
es im prinzip ist es die reine rechenleistung die zählt, bei einem spiel mit 2 kern unterstützung bringt aber ein 4 kerner im spiel ziemlich genau dieselbe rechenleistung wie ein 6 kerner, auch wenn man die last aufteilt, die erbrachte rechenleistung ist dieselbe.
ab 4kernen kann man amd vs nv vergleichen, bei allem unter 4kernen kommt sehr komischer nicht vergleichbarer mist raus (unsaubere fps und haken).

eigentlich könnte man ziemlich einfach vergleichstests aufsetzen, aber man muss bedenken das amd bereits am boden liegt, und solch ein test noch weiter anteile zu nvidia schubsen würde.

ich meine dieses problem wird ja immernoch schlimmer umso schneller die karten werden bald "braucht" man schon einen i5 für nv und i7 bei amd für 60fps. dx12 löst dx11 diese jahr noch nicht ab und mal sehen wie es nächstes jahr läuft.

ich hab mir schonmal überlegt mir eine gebrauchte 290 zuzulegen und cpu last vergleiche der 970 vs 290 zu machen. die ergebnisse würden mich auch mal stark interessieren.

Die Schwierigkeit bei einer solchen Messung besteht auch darin, dass verschiedene Spiele unterschiedlich mit mehr Takt/Cores skalieren.
Um eine eindeutige Korrelation zu einem IHV herstellen zu können, müsste man also auch mehrere Spiele wie beschrieben testen.
das problem ist einfach zu lösen, denn es reichen ja bereits 2 cpu configs aus, ein 4 kerner mit 2ghz und 4ghz und niedriger auflösung.

Geldmann3
2016-05-21, 17:20:28
Es kommt immer ganz auf die Anwendung an. In Spielen ist es momentan in 90% der Fälle das Wichtigste mindestens 4 Kerne zur Verfügung zu haben die eine möglichst hohe IPC samt Takt aufweisen. Das sieht man, wenn man einen i7 6700K @4Ghz gegen einen 5960X @4Ghz antreten lässt. Obwohl der 5960X doppelt so viele Kerne mit der selben Frequenz hat, erzeugt der 6700K meist etwas höhere Frameraten am CPU Limit. Das liegt an der verbesserten CPU Architektur und somit höheren IPC der neueren CPU. Hier sieht man allerdings auch sehr gut, dass alles über 4 Kernen in Spielen fast nichts mehr bringt. Eine im Schnitt 7% höhere IPC schlägt die doppelte Kernanzahl. Wobei Spiele noch deutlich mehr von der verbesserten Architektur zu profitieren (https://youtu.be/ocwwaVGUFtk) scheinen als beispielsweise Videorendering. Bei letzterem geht natürlich nichts über viele Kerne.

G3cko
2016-05-22, 00:22:35
Das ist falsch. Je aktueller die Spieleengine desto mehr werden Kerne wichtiger. Spiele müssen auch auf Notebooks laufen und hier kann der Takt nicht beliebig hoch sein. CoD ist zum Beispiel ein gutes Beispiel. Obwohl bereits älter und noch dx11 bringen 1ghz mehr Takt + aktuellere Architektur fast nichts. Dagegen 2 zusätzliche Kerne sehr wohl deutlich mehr Leistung. Die Konsolen haben 8 Cores.

http://www.hardwareluxx.de/community/f11/overclocking-6600k-oder-6700k-1116688.html#post24514253

BlacKi
2016-05-22, 00:51:01
wenn man skylake 4k gegen 6k haswell vergleicht, kann der skylake die fehlenden 2 kerne etwas ausgleichen durch höheren takt und 5-10% ipc, aber sobald 6k ausgelastet werden können ist der haswell bei gleichem takt definitv schneller, wenn auch nur 10-15%. dehalb hab ich mich auch für den 6 kerner entschieden, der aufpreis lag bei 150€ für mb und cpu. zukünftig hat man mehr vorteile durch 6kerne, speziell wenn 6 kerne verlangt werden.