PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erste unabh. Benchmarks von AMDs Threadripper 1950X gegen Intels 7900X


Leonidas
2017-08-06, 12:52:15
Link zur News:
https://www.3dcenter.org/news/erste-unabhaengige-benchmarks-von-amds-threadripper-1950x-gegen-intels-core-i9-7900x



Das Bild zum 3dMark und Tabelle passen nicht zusammen. Laut Screenshot ist da der Intel schneller als TR.


Da hat der Gast vollkommen Recht, mein Fehler.

Wurde korrigiert. Der Schnitt der Anwendungs-Performance wird in der korrigierten Meldung nun nur noch zwischen CB & Blender gezogen, TimeSpy fällt raus. Der Performanceschnitt steigt somit minimal von +27% auf +28%. Dafür aber liegt Intel im TimeSpy/CPU um gleich +26% vorn.

Ich bitte vielmals um Entschuldigung für diesen Fehler.

(del)
2017-08-06, 13:00:08
Die CPUs in den Alienware Rechnern die an Reviewer geschickt wurden sind offenbar Vorserienmodelle.Einer von den hat extra von AMD eine Serien CPU geschickt bekommen die dann auch eine höherer Performance hatte. Der Cinebench Wert lag dann über 3000. Ich suche mal den Link zum Video.
Klick (https://www.youtube.com/watch?v=JjVP76zz8ZU&feature=youtu.be)

Gastarbeiter
2017-08-06, 13:11:29
Das Bild zum 3dMark und Tabelle passen nicht zusammen. Laut Screenshot ist da der Intel schneller als TR.

M4xw0lf
2017-08-06, 13:23:00
Die Datenbasis ist zwar sehr schmal, aber es sieht erwartungsgemäß so aus, dass der 1950X auch beim Spielen der schnellste Ryzen sein wird - der höheren TDP und höchsten XFR geschuldet. Anders als bei Intel, wo man auf HEDT beim Spielen relativ deutliche Einbußen hinnehmen muss gegenüber der besten Spiele-CPU.

Gast
2017-08-06, 13:38:45
Nur mal so zur Info, Linus Tech Tips ist alles andere als neutral.
Die haben schon damals Ryzen mit den AMD vorgegebenen settings gebencht (4k), um die Spieleschwäche zu retuschieren.

Linmoum
2017-08-06, 15:03:23
Linus ist natürlich neutral, die Diskussion gab's vor kurzem hier schon einmal.
Oder sind CB, PCGH, Golem und Co. jetzt auch nicht neutral, wenn sie nur das "benchen", was der Hersteller auf (s)einer Veranstaltung zur Verfügung stellt? :facepalm:

Und den Spieleschwäche-Murks muss man nicht nochmal durchkauen, Troll-Foren sind woanders.

fr3ze
2017-08-06, 15:21:22
@Leonidas: Bitte überprüfe nochmal die von den Diagrammen übertragenen Werte in die Tabelle.
Diese scheinen zb. beim Timespy Cpu-Test durcheinander zu sein.
Der i9-7900X soll den Score von 11.081 erreicht haben.

Gast
2017-08-06, 15:25:42
@Linmoum

Was denkst du warum AMD damals für die Ryzen Spiele Benchmarks 4k vorgegeben hat?
Weil die CPU in 1080p so gut performt? Sicher nicht, die werden sich schon was dabei gedacht haben.

Das selbe Spiel bei Vega, warum gibt es wohl keine Max. FPS Benachmarks?

Schnoesel
2017-08-06, 17:45:18
Das is ne Workstation CPU können sich die Gam0r Kiddies denn nicht einmal verpissen? Wenn ihr Spielen wollt geht zum nächsten Sandkasten oder kauft euch ne CPU die dafür besser geeignet ist, kann so schwer ja nicht sein.

Gast
2017-08-06, 17:58:16
Ich kauf mir ne 1000€ CPU und daddel in 768p auf meinem 19" TN Flatscreen. Voll logisch. ^^

Soll heißen: ist doch jedem Reviewer selbst überlassen welche Settings er bencht. Wenn alle 4K benchen würden, dann wäre ich genau so angenervt wie wenn alle 720p benchen. Letztere interessieren mich schon mal gar nicht. Fern ab jeder Realität. Mich interessiert 4K und 1080p.

Aber ja, alle sind gekauft, die ganze Welt ist eine Verschwörung gegen [enterwhateveryouarefanofhere].

Gast
2017-08-06, 18:39:27
Benchmarks zeigen vor allem eines.
Wie sinnlos die vielen Kerne am Desktop sind.
+27% Performance gegenüber dem 7900X bei 60% mehr Kernen und + 65% Performance gegenüber dem 1800X bei 100% mehr Kernen.
Dagegen war ja die Skalierung von SLI/Crossfire ja noch gut.

Die vielen Kerne haben natürlich ihre Berechtigung in Servern die 1000de Anfragen pro Sekunde beantworten müssen, am Desktop sind sie aber eine Siliziumverschwendung sondergleichen.

Lehdro
2017-08-06, 19:23:39
@Linmoum

Was denkst du warum AMD damals für die Ryzen Spiele Benchmarks 4k vorgegeben hat?

LTT testet eigentlich immer in Alltagssettings, was meist WQHD/UHD heißt. Da wirst du wohl eher keinen 720p Benchmark finden...
Was völlig ok ist, denn jeder andere Techchannel/Hardwaremagazin testet schon 720p und 1080p.

Das is ne Workstation CPU können sich die Gam0r Kiddies denn nicht einmal verpissen? Wenn ihr Spielen wollt geht zum nächsten Sandkasten oder kauft euch ne CPU die dafür besser geeignet ist, kann so schwer ja nicht sein.
ES IST VERBOTEN MIT THREADRIPPER ZU ZOCKEN!!!111elf /s

Übrigens: Threadripper könnte durchaus die schnellste Gaming CPU von AMD sein, von daher ist dein "Argument" dass das nur eine Workstation ist völliger Unsinn. Da hilft auch ein Preisschild von 1000€ nicht. Wenn du das nicht akzeptieren kannst hilft Selbstkasteiung mit einer Titan X deiner Wahl. Ernsthaft.

Gast
2017-08-06, 19:41:56
Das is ne Workstation CPU können sich die Gam0r Kiddies denn nicht einmal verpissen? Wenn ihr Spielen wollt geht zum nächsten Sandkasten oder kauft euch ne CPU die dafür besser geeignet ist, kann so schwer ja nicht sein.
Genau, weil Ryzen die Super-duper PRO Workstation CPU ist, bekommst du auch den Compiler-Bug Gratis oben drauf.
Es würde dir gut tun das Thema etwas neutraler anzugehen.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=582404

Platos
2017-08-06, 19:55:49
@Schnoesel: Gast hat ja auch den Ryzen 1800X gemeint. Und der ist nicht nur für Anwendungen gedacht. AMD selbst hat von einem "really big day for all PC gamers.." gesprochen.

Und die Spiele schwäche ist vorhanden. Dafür gibt es genug Tests. Das wird sich aber schon noch ändern, wenn sich Ryzen ein wenig durchsetzt, wird da auch mehr optimiert.

Edit: Und das es keine max. FPS gibt ist ja auch gut so. Was will man denn mit max. FPS ? min. FPS sind ja genau das, was ein Gamer eigentlich interessieren sollte. Auch avg. ist nicht wirklich wichtig. Wichtig ist, wie viel FPS min. erreicht werden.

Edit2: Linus hyped oftmals Produkte, das ist das Problem und neutral ist dann für mich doch was anderes. Neutral wäre es, wenn man bei so einem Test direkt darauf hinweist, dass es sowieso nicht die Leistung der CPU (im Gaming) zeigt, da es ins GPU-Limmit rennt. Ich habe dieses Video von ihm nicht gesehen, aber ich glaube mal, das hat er nicht getan.

Rancor
2017-08-06, 21:08:20
Und die Spiele schwäche ist vorhanden. Dafür gibt es genug Tests. Das wird sich aber schon noch ändern, wenn sich Ryzen ein wenig durchsetzt, wird da auch mehr optimiert.


Völliger Mumpitz. Ryzen hat keine Spieleschwäche. Es gibt Spiele die laufen besser und es gibt welche die laufen schlechter. Das ist übrigens bei jeder CPU so, selbst bei den hochheiligen Kaby Lake CPUs.

IchoTolot
2017-08-06, 22:02:59
Im Grunde kann man schon sagen, dass die IF bei AMD und das Mesh von Intel auf Zeiten ausgelegt sind, wenn die meisten bis alle Anwendungen stark parallelisieren. Bis dahin fährt man eben mit weniger Kernen und dem alten Intel Ringbus weit besser. Wenn es dann mal soweit ist, dass mehr Kerne bei Spielen was bringen, wird es schon genügend günstigere und neuere CPUs geben, aus denen man wählen kann und die eine derartige "Spieleschwäche" nicht mehr haben weil alles darauf angepasst ist.

Bis dahin aber, haben CPUs mit IF und Mesh eine "Spieleschwäche".

gmb
2017-08-06, 22:18:58
Mehr als 4 Kerne bringen schon was in vielen Spielen, sonst würde Ryzen noch schlechter aussehen.

CD-LABS
2017-08-06, 22:37:29
Und Dell hat es mal wieder heftig verhauen. Echt peinlich, dass die von außen bei der Alienware-Reihe so viel Wert auf Design legen, dann aber im inneren so gar nichts auf die Reihe bekommen.

So ein System sollte aussehen wie ein Blütentraum, statt dessen bekommt man einen Albtraum...
...zumindest ist das NT modular und der (schlechte) Wasserkühler hat einen Alienware-Logo. Der Rest hingegen könnte von 2007 stammen...
...und so schlimm es klingt, das ist nicht einmal übertrieben:
https://www.youtube.com/watch?v=-S_3klbPQo4

Gast
2017-08-06, 23:12:44
@Rancor: Eigentlich wollte ich dir gerade eine Hand voll Spielebenchmarks verlinken, aber 1. ist es ein bisschen OT hier und 2. hat das IchoTolot eigentlich schon für mich übernommen.

Aber vor allem die Ryzen 7 sind für Gaming oftmals 15-20 % hinter einem i7 7700K. Und sind Preislich ja sogar noch teurer oder max. etwa gleichteuer (Ryzen 1700).

Der Ryzen 5 1600X ist dann aber schon besser (von der Preis-Leistung her gesehen ).

Wenns aber darum geht, welche CPU (im bezahlbaren Bereich) am besten ist, dann ist Intel im Moment doch noch ein wenig Voraus im Gamingbereich.

Aber wie ich ja schon erwähnt habe und IchoTolot auch, wird sich das im Verlaufe der Zeit ziemlich sicher noch ändern.

Aber zum Thema: Wie viel kosten eigentlich die Platformen für Threadripper ?

Gast
2017-08-06, 23:15:54
Wenn es dann mal soweit ist, dass mehr Kerne bei Spielen was bringen, wird es schon genügend günstigere und neuere CPUs geben, aus denen man wählen kann und die eine derartige "Spieleschwäche" nicht mehr haben weil alles darauf angepasst ist.

Bis dahin aber, haben CPUs mit IF und Mesh eine "Spieleschwäche".

Ganz genauso ist es, Ryzen und auch Skylake X fallen wegen den höheren Laenzen merkbar gegenüber Kabylake ab.

Pirx
2017-08-07, 08:16:12
Die CPUs in den Alienware Rechnern die an Reviewer geschickt wurden sind offenbar Vorserienmodelle.Einer von den hat extra von AMD eine Serien CPU geschickt bekommen die dann auch eine höherer Performance hatte. Der Cinebench Wert lag dann über 3000. Ich suche mal den Link zum Video.
Klick (https://www.youtube.com/watch?v=JjVP76zz8ZU&feature=youtu.be)
wtf

bbott
2017-08-07, 09:12:17
Benchmarks zeigen vor allem eines.
Wie sinnlos die vielen Kerne am Desktop sind.
+27% Performance gegenüber dem 7900X bei 60% mehr Kernen und + 65% Performance gegenüber dem 1800X bei 100% mehr Kernen.
Dagegen war ja die Skalierung von SLI/Crossfire ja noch gut.

Die vielen Kerne haben natürlich ihre Berechtigung in Servern die 1000de Anfragen pro Sekunde beantworten müssen, am Desktop sind sie aber eine Siliziumverschwendung sondergleichen.


Das ist völlig falsch ein CPU vs. GPU Vergleich!
- SLI/Crossfire ist in einem Umfeld in dem sich (fast) alles beliebig Parallelisieren lässt!
- Die (x86) CPUs sind ein einem Umfeld in dem sich nichts bis alles Parallelisieren lässt!

Damit ist die Skalierung entgegen deiner Aussage sehr gut, denn von 0 bis 100% möglicher Skalierung, ist 50% die Mitte und mit 65% liegt man damit sehr gut.

Aktuell sieht es doch wie folgt aus:
- Der Takt wird zwischen 4 - 5 Ghz weiterhin stagnieren. Physik ist es die hier begrenzt. Strom benötigt eben Zeit, bis er eine Messbare Spannung auf- bzw. abbaut (P4 und das 10Ghz Ziel).
- Die IPC wird ebenfalls kaum noch steigen (Skylake-X ist sogar ein downgrade).
- Nur die Kernzahl kann noch deutlich steigen

Daraus folgt das Anwendungen gezwungen werden, dass der Code möglichst optimal parallelisiert. Das heißt aber nicht das wir in Zukunft eine 100% Skalierung sehen werden, es ist immer nur eine Annäherung.

In dieser Situation kann es keine Anwendung geben, welche auf einem viel Kernern (8+) nicht laufen wird auf Grund der zu geringen Singel-Threadleistung. Aber wenig Kerner werden eine deutlich kürzere Lebensdauer besitzen.
Threadripper ist derzeit vielleicht bei fps/Euro uninteressant, aber unter dem Aspekt Haltbarkeit/Euro nicht all zuweit weg von einem 1800X.

Leonidas
2017-08-07, 09:17:34
Das Bild zum 3dMark und Tabelle passen nicht zusammen. Laut Screenshot ist da der Intel schneller als TR.


Da hat der Gast vollkommen Recht, mein Fehler.

Wurde korrigiert. Der Schnitt der Anwendungs-Performance wird in der korrigierten Meldung nun nur noch zwischen CB & Blender gezogen, TimeSpy fällt raus. Der Performanceschnitt steigt somit minimal von +27% auf +28%. Dafür aber liegt Intel im TimeSpy/CPU um gleich +26% vorn.

Ich bitte vielmals um Entschuldigung für diesen Fehler.

bbott
2017-08-07, 09:20:01
@Rancor: Eigentlich wollte ich dir gerade eine Hand voll Spielebenchmarks verlinken, aber 1. ist es ein bisschen OT hier und 2. hat das IchoTolot eigentlich schon für mich übernommen.

Aber vor allem die Ryzen 7 sind für Gaming oftmals 15-20 % hinter einem i7 7700K. Und sind Preislich ja sogar noch teurer oder max. etwa gleichteuer (Ryzen 1700).

Der Ryzen 5 1600X ist dann aber schon besser (von der Preis-Leistung her gesehen ).

Wenns aber darum geht, welche CPU (im bezahlbaren Bereich) am besten ist, dann ist Intel im Moment doch noch ein wenig Voraus im Gamingbereich.

Aber wie ich ja schon erwähnt habe und IchoTolot auch, wird sich das im Verlaufe der Zeit ziemlich sicher noch ändern.

Aber zum Thema: Wie viel kosten eigentlich die Platformen für Threadripper ?

Du hast immer doch nicht versanden wohin die Reise geht. Man sollte jetzt auf 10-20% verzichten, weil man mittelfristig 30-50% mehr bekommt, langfristig 30-100% mehr. Nämlich dann wenn ich 16 Threads auf die CPU los lasse und dein Popeliger 4 Kernern mit 8 Threads sich verschluckt und nicht mehr weiß was er zu erst abarbeiten soll und nur noch Framedrops unter 25fps schaft während ein 8 Kerner über 100fps liefert.

So ist des den DualCores ergangen, so wird es den QuadCores ergehen und irgendwann auch den 8 Kernern.

DAS ist der neue Lebenszyklus der CPUs und wenn du Pech hast ist es morgen mit deinem QuadCore so weit, aber dann ist ja die Anwendung daran Schuld :freak:

Leonidas
2017-08-07, 10:05:39
@ bbott:

Die grundsätzliche These ist richtig. Viele realisieren leider nicht, das unterhalb eines gewissen Mindestmaß die CPU nicht einfach nur langsam wird, sondern regelrecht grausam langsam wird. Beispiel 4C gegen 2C, wo man mit einigen Spielen *weit* mehr als doppelte fps unter 4C bei gleicher CPU-Architektur und gleicher Taktrate erzielt. Der Zweikerner verschluckt sich teilweise und ist nur noch sinnvoll mit stark abgesenkten Optionen zu betreiben.

Aber: Die Frage ist, wie *schnell* passiert dieses Schicksal dem Vierkerner ohne HT und dem Vierkerner mit HT. Da wäre ich vorsichtig mit definitiven Voraussagen.

IchoTolot
2017-08-07, 11:51:18
Meine These: Das wird noch einige Jahre (5+) dauern, also nichts worüber man sich heute Gedanken machen muss. Als ich meinen 7700K gekauft hab im März, meinten einige in einem Jahr würde der 7700K unerträglich werden. Soviel zu den Vorstellungen mancher Leute. Völlig unrealistisch. :freak: Bis 4C8T nicht mehr reichen zum Spielen wird es noch eine ganze Weile dauern. Man muss ja mal bedenken, was größtenteils für CPUs verbreitet sind. Wer da als Spieleentwickler ein Spiel entwirft, was mit 8 Threads nicht mehr klarkommt, kann seine Bude gleich dicht machen. :freak: Maßgeblich ist eben immer noch was 90% aller Kunden im Rechner haben. Und Ryzen ändert daran auch nichts. Als ob nun alle losrennen und im Delirium einen Ryzen 5/7 kaufen. Manche sollten eben mal wieder in der Realität ankommen. :rolleyes:

bbott
2017-08-07, 12:11:34
Das bei Coffe Lake der i3 ein 4 Kerner mit HT werden soll, spricht Bände und dürfte alles bis vier Kerner ohne HT rech schnell immer häufiger alt aussehen.

Was bring es mir in ein paar Anwendungen 10-20% schneller zu sein wenn ich 10-20% der Anwendungen nicht nutzen kann, weil zu langsam bzw. nicht genügen Kerne vorhanden.

Ein 1700@3,9 wird deutlich länger nutzbar sein als ein 7700@4,5, heutige und zukünftige spürbare Nachteile bzw. Einschränkungen gleich null.
ABER der Tag an dem der 7700@4,5Ghz nicht mehr nutzbar ist liegt deutlich näher am heute als beim 1700@3,9GHz. Jeder Rational denkende Mensch greift zum Ryzen.

Wer sich schon mal mit parallel Programierung und der Aufgaben Verteilung befasst hat, weiß das es einige Aufgaben gibt die wenn ich parallel Verteile und nicht genügend Kerne vorhanden sind, es viel langsamer Ausgeführt wird als Sequenziell. Ein 7700k wird dann langsamer als ein Single Core. Manches lässt sich duch die art und weise wie parallel Programmiert wird lösen, aber einige Aufgaben werden, den 7700@4,5Ghz zu Fall bringen.

IchoTolot
2017-08-07, 12:46:16
Welche Anwendungen sind das denn wo ein 7700K deutlich langsamer ist? Höchstens beim Rendern kann ich mir vorstellen. Beim Videoencoding ist er dank AVX2 bei HEVC sogar geringfügig schneller trotz 50% Kerne.

Du hast sicher Recht mit deiner Aussage zu parallel Programierung und Threadscheduling, aber das wird noch dauern. Wir werden in den nächsten 3-5 Jahren glaube ich nicht sehen, dass ein 4 Kerner mit HT so einbricht wie das heute ein 2 Kerner ohne HT tut. Ich hab das auch mal zum Spaß getestet mit BF1. 2 Kerne und das Spiel startet sogar noch. Aber ist eine einzige Ruckelorgie und damit meine ich unter 20 FPS. :freak:

Mit 4x 1.5 Ghz ohne HT kann ich aber sogar noch dicke mit über 60 FPS spielen auch wenn BF1 da die Server mit mehr als 24 SPielern schon selber aussortiert im Server Browser.


https://lh3.googleusercontent.com/ZHnXz83b31XQWUbKN_NA98Cw6n5gnIOqehtUVTJvyITGOYjZVZ2xfxk61PfA5UZCWOciqzypg8VcdUhW u55Ozj2tf3oFpZ-LW-0jwejRxuIDseNzS5xPvfLyDptj_xMwzOKQRmSp-7AAJlhkcInLna5Fm76ChznWhxaqnhhc_Rd5biFg6F4gq555ueXCphw4z9ejEpqzqOyWOMM2pD6X9EBVM AD4X9m0cNglJrjFXG5K6tDQYTtI-ZJih9mvU07EiU89CjDaOZ-NKB22uY_I8BkCgL93wCpez4NS8AFFIHoXV3AdXdSVinkwJY5DBchFMjhM8OW9QUDoeYhYRAlfNzHS6DC uy-R7FGoyZR9YqyD-hcHTrS_T1JYP1OVunBii9Yu2TliVZEokPzN5ZycOLx39srGMqk5GhXP7LuCdluDdS1VfIGZdqD-PCX5eS70RbQXmqlLpk_zpqXIO7kXQ4KBoRJB8OVvngWDvuz3mVAVcHki-TFHrKdUdToBCQRR9zHYXJfXB3-4J2JBWnnrLZIOohY9LKwuPs5u2pDJTGi1SRH_AKVCc32N5EbKIYMoAhBqq-yrwrgUeaQXTQE3KCfSHC4jlRjCVr1VNWW_Mi7lTeHsTTQKsdIk6ww=w1639-h989-no

Gast
2017-08-07, 13:12:17
Du hast immer doch nicht versanden wohin die Reise geht. Man sollte jetzt auf 10-20% verzichten, weil man mittelfristig 30-50% mehr bekommt, langfristig 30-100% mehr. Nämlich dann wenn ich 16 Threads auf die CPU los lasse und dein Popeliger 4 Kernern mit 8 Threads sich verschluckt und nicht mehr weiß was er zu erst abarbeiten soll und nur noch Framedrops unter 25fps schaft während ein 8 Kerner über 100fps liefert.

So ist des den DualCores ergangen, so wird es den QuadCores ergehen und irgendwann auch den 8 Kernern.

DAS ist der neue Lebenszyklus der CPUs und wenn du Pech hast ist es morgen mit deinem QuadCore so weit, aber dann ist ja die Anwendung daran Schuld :freak:

Wie Leonidas schon anmerkte, ist die einzige Frage hier "Wann?". Das was du hier machst, ist reine Spekulation, es ist deine persönliche Einschätzung (Meinung), die auf deiner Erfahrung basiert, mehr nicht. Also schreib bitte nicht so, als wäre das fakt und alle anderen, mit anderer Meinung seien unterbelichtet. Dann kann man hier auch vernünftig diskutieren.

Und wenn ich mich richtig erinnere, ging es damals um 2 vs. 4-Kerner ohne Hyperthreading. Jetzt geht es aber um 4 vs. 4/8 vs. 6,8 usw.
Ich bin absolut deiner Meinung, dass 4 Kerne (ohne Hyperthreading) nicht mehr lange aussreicht bzw. Ja jetzt schon und auch vor einem Jahr schon vereinzelt.

Oder anders gesagt, ich bin der Meinung (und nichts anderes ist es, was du sagst, eine Meinung), dass 4 Threads nicht mehr ausreichen werden, 8 Threads aber schon noch 4-5 Jahre. Im nächsten Jahr, würde ich niemandem mehr empfehlen, einen 4-Kerner (mit Hyperthreading) zu kaufen, da er dann mit 3-4 Jahren Nutzzeit rechnen kann. 4-5 Jahre ist aber noch drinn. Wenn man aber jetzt einen Ryzen kauft, dann hat man die nächsten 2 Jahre schlechtere Karten, erst dann wird es besser. Und das ist dann nicht wirklich ein guter Kauf, wenn man erst dann mal in 2-3 Jahren gleichgut/besser ist.
Im übrigen spiele zumindest ich gerne auch wieder mal alte Spiele mit einer schlechteren Multithread-Unterstüzung. Die müssen dann bei mir auch laufen. Das ist jetzt aber nur mein persönliches Nutzverhalten.

(und um das nochmals anzumerken, die 8-Kerner sind auch bei AMD deutlich teurer als ein i7 7700K und der günstigste lässt sich nicht so hoch takten).
Aber die besten Karten hat der, der noch 1-3 Jahre warten kann. Der kann sich dann gemütlich einen "ausgereiften" 6-8 Kerner kaufen, der dann auch ein wenig höher takten kann.

Und ich spreche hier wirklich nur vom Gaming. Und um auch das nochmals anzumerken. Das was wir und alle anderen hier tun, ist spekulieren. Wann es passiert ist - und das ist wie schon gesagt reine Spekulation - kein Fakt.

Platos
2017-08-07, 13:14:05
Du hast immer doch nicht versanden wohin die Reise geht. Man sollte jetzt auf 10-20% verzichten, weil man mittelfristig 30-50% mehr bekommt, langfristig 30-100% mehr. Nämlich dann wenn ich 16 Threads auf die CPU los lasse und dein Popeliger 4 Kernern mit 8 Threads sich verschluckt und nicht mehr weiß was er zu erst abarbeiten soll und nur noch Framedrops unter 25fps schaft während ein 8 Kerner über 100fps liefert.

So ist des den DualCores ergangen, so wird es den QuadCores ergehen und irgendwann auch den 8 Kernern.

DAS ist der neue Lebenszyklus der CPUs und wenn du Pech hast ist es morgen mit deinem QuadCore so weit, aber dann ist ja die Anwendung daran Schuld :freak:

Wie Leonidas schon anmerkte, ist die einzige Frage hier "Wann?". Das was du hier machst, ist reine Spekulation, es ist deine persönliche Einschätzung (Meinung), die auf deiner Erfahrung basiert, mehr nicht. Also schreib bitte nicht so, als wäre das fakt und alle anderen, mit anderer Meinung seien unterbelichtet. Dann kann man hier auch vernünftig diskutieren.

Und wenn ich mich richtig erinnere, ging es damals um 2 vs. 4-Kerner ohne Hyperthreading. Jetzt geht es aber um 4 vs. 4/8 vs. 6,8 usw.
Ich bin absolut deiner Meinung, dass 4 Kerne (ohne Hyperthreading) nicht mehr lange aussreicht bzw. ja jetzt schon und auch vor einem Jahr schon vereinzelt.

Oder anders gesagt, ich bin der Meinung (und nichts anderes ist es, was du sagst, eine Meinung), dass 4 Threads nicht mehr ausreichen werden, 8 Threads aber schon noch 4-5 Jahre. Im nächsten Jahr, würde ich niemandem mehr empfehlen, einen 4-Kerner (mit Hyperthreading) zu kaufen, da er dann mit 3-4 Jahren Nutzzeit rechnen kann. 4-5 Jahre ist aber noch drinn. Wenn man aber jetzt einen Ryzen kauft, dann hat man die nächsten 2 Jahre schlechtere Karten, erst dann wird es (wirklich) besser. Und das ist dann nicht wirklich ein guter Kauf, wenn man erst dann mal in 2-3 Jahren gleich gut/besser ist.
Im übrigen spiele zumindest ich gerne auch wieder mal alte Spiele mit einer schlechteren Multithread-Unterstüzung. Die müssen dann bei mir auch laufen. Das ist jetzt aber nur mein persönliches Nutzverhalten. Ich finde aber, dass Prozessoren mit mehr Kernen mindestens so gut sein müssen, wie 4-Kerner in 4-Thread-Anwendungen. D.h er müsste mit 4 Kernen (bei gleicher IPC) gleich hoch takten können.

(und um das nochmals anzumerken, die 8-Kerner sind auch bei AMD deutlich teurer als ein i7 7700K und der günstigste lässt sich nicht so hoch takten).
Aber die besten Karten hat der, der noch 1-3 Jahre warten kann. Der kann sich dann gemütlich einen "ausgereiften" 6-8 Kerner kaufen, der dann auch ein wenig höher takten kann.

Und ich spreche hier wirklich nur vom Gaming. Und um auch das nochmals anzumerken. Das was wir und alle anderen hier tun, ist spekulieren. Wann es passiert ist - und das ist wie schon gesagt reine Spekulation - kein Fakt.

bbott
2017-08-07, 13:27:09
Es ist schon traurig, dass wenn AMD keine Konkurrenz ist, gemeckert wird AMD ist nicht kaufbar.
Jetzt kommt AMD mit einem eindeutig besseren Produkt, welches minimal bei 1080p-Spielen und unter 4k überhaupt nicht zurückliegt und sichtbar und messbar in immer mehr Anwendungen gewinnt und gewinnen wird.
Dann wird wieder mal Cherry-Picking betreiben, welches Übrigens zurecht auch den Herstellern (AMD, Intel und Nvidia) angelastet wird und Intel Produkte weiter gekauft.

Den 720p-Benches Hype kann ich nicht verstehen, entweder ist die Sichtweite geringer, der Blickwinkel kleiner oder beides was wiederum die Anzahl der Objekte deutlich reduziert. Damit gibt es auch für die CPU weniger Last, auch wenn Primär die GPU entlastet wird und die fps deutlich steigen. Denn noch werden weniger KI, Physik usw. Element dargestellt und berechnet.
Es gab zu C2Q vs. Phenom II Zeit einige Benches die Zeiten das der C2Q mit steigender Auflösung immer mehr gegen den Phenom II verlor, da der FSB immer mehr zum Flashenhals wurde. Die 720p Stärke des C2Q wahr wohl auch eher ein Trugschluss, denn der Phenom II war letzt endlich länger nutzbar.

Auch bei Ryzen wird es ähnlich laufen, mehr Kerne, bessere Connection, mehr L2 usw. die aktuelle i7-720p-"Stärke" wird nicht reichen um langfristig irgend eine Bedeutung zu erlangen.

Der aktuelle 10-20% Vorteil ist ein Pyrrhussieg. Sorry.

bbott
2017-08-07, 13:38:56
x264:
http://images.anandtech.com/graphs/graph11170/85886.png

Ryzen AVX2 (2x128) vs. i7 AVX (2x256)

Ryzen 1700 vs 7700k plus 23% für Ryzen bei gleichem Preis.
Ryzen 1800X vs 7700k plus 31% für Ryzen.

Die richtigen x264 Optimierungen für Ryzen kommen noch, war bisher immer so.

Der_Korken
2017-08-07, 13:46:37
Den 720p-Benches Hype kann ich nicht verstehen, entweder ist die Sichtweite geringer, der Blickwinkel kleiner oder beides was wiederum die Anzahl der Objekte deutlich reduziert. Damit gibt es auch für die CPU weniger Last, auch wenn Primär die GPU entlastet wird und die fps deutlich steigen. Denn noch werden weniger KI, Physik usw. Element dargestellt und berechnet.

Das musst du mir erklären. Warum sollte bei einer kleineren Auflösung die Sichtweite oder der Blickwinkel kleiner werden? Das Argument, dass durch das LOD ein paar kleine, weit entfernte Objekte wegfallen, ist ja noch halbwegs nachvollziehbar, wobei wahrscheinlich eher die allgemeine Sichtweite limitiert, bevor ein Objekt so weit weg ist, dass es kleiner als ein Pixel ist. Ansonsten sind die 720p kein Hype, sondern der Versuch ein GPU-Limit so gut wie möglich zu vermeiden.

bbott
2017-08-07, 14:52:24
Das musst du mir erklären. Warum sollte bei einer kleineren Auflösung die Sichtweite oder der Blickwinkel kleiner werden? Das Argument, dass durch das LOD ein paar kleine, weit entfernte Objekte wegfallen, ist ja noch halbwegs nachvollziehbar, wobei wahrscheinlich eher die allgemeine Sichtweite limitiert, bevor ein Objekt so weit weg ist, dass es kleiner als ein Pixel ist. Ansonsten sind die 720p kein Hype, sondern der Versuch ein GPU-Limit so gut wie möglich zu vermeiden.

Blizzard beschränkt künstlich das Sichtfeld, egal wie hoch ich bei z. B. Diablo III, SC 2 die Auflösung erhöhe, der Blickwinkel wird nicht erweitert oder herausgezoomt. Damit will Bilzzard keine Spieler mit höherer Auflösung bevorzugen.

Spiele die nachträglich für hohe Auflösungen gepatch werden, i. d. R. ein großeren Blickwinkel haben, z.B. alte Games die auf 16:9 optimiert werden.

Weiteres Beispiel: AMD eyefinity hier wird gerade die höhere Auflösung für einen erweiterten Blickwinkel dargestellt, genauso was die 21:9 Bildschirme tun. Rechts und links das Blickfeld erweitern.

Wenn ich nun von 4k auf 720p gehe kann ich entweder die Sichtweite stark reduzieren, den Blickwinkel auf einen kleinen Teil beschränken oder eine Kombination aus beidem.

Praktische Beispiel:
Wenn ich ein 4k Bild mit 720p darstellen will/muss habe ich die Wahl:
1. Einfach auf 720p rendern, viele Details gehen verloren.
2. Ein 1280x720 Ausschnitt wählen, Bild Inhalte gehen verloren.
3. Mischung wähle 1920x1080 Pixel und rendere sie auf 720p, damit gehen etwas Details und 3/4 Bildinhalte verloren.


Die einzige Chance das 720p-Benches mMn Sinn machen würden, wäre wenn die CPU-Berechnungen Identisch mit denen von 1080p und 4k wären. Eine Grundvoraussetzung wäre, dass Blickwinkel und Sichtweite identisch sind und nicht eingeschränkt werden. Im Umkehrschluss würde dies bedeuten, das unter 4k Details und Sichtweite eingeschränkt sind.
Ob es weitere Gründe gibt welche zu Entlastung der CPU bei 720p gibt kann ich nicht ausschließen.

Um diese Frage(n) zu beantworten bräuchte man jemanden der die CPU Berechnungen der Engines kennt. Ich sehe bei 720p die Gefahr das es ein Klassischer Fall von "wer viel misst misst mist" ist. Einfach auf 720p zu reduzieren reicht mMn nicht, um daraus etwas sinn volles bezüglich CPU-Leistung abzulesen zu wollen, dazu muss/müsste man wissen welche CPU Aufgaben wirklich (noch) anliegen.

Der_Korken
2017-08-07, 15:25:53
@bbott: Bevor es zu OT wird, hab ich deinen Beitrag per PN beantwortet.

Edit: Für die Diskussion zu CPU-Last und Auflösung gibt es noch diesen Thread hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=579111 (hatte ich vorhin schon gesucht, aber nicht gefunden).

Lehdro
2017-08-07, 19:08:46
und um das nochmals anzumerken, die 8-Kerner sind auch bei AMD deutlich teurer als ein i7 7700K
Was ein Quatsch hier wieder erzählt wird:

Ryzen 1700 = 285 €
Core i7 7700K = 313 €

Soviel zu "deutlich teurer", einfach nur blanker Unsinn und absichtliche Faktenverdreherei. Er ist sogar 10% günstiger, die Möglichkeit ein wesentlich günstigeres Mainboard zu nehmen noch gar nicht inkludiert.

Platos
2017-08-07, 19:56:41
Ich habe gesagt: "und um das nochmals anzumerken, die 8-Kerner sind auch bei AMD deutlich teurer als ein i7 7700K und der günstigste lässt sich nicht so hoch takten"

Den Ryzen 1700 habe ich ausgelassen. "...und der günstigste lässt sich nicht so hoch takten" sollte bedeuten, dass ich den da raus halte, da er nicht in der Leistung mit den höheren mitspielt.

Wenn du mich zitierst, dann bitte den ganzen (relevanten) Teil. Ich habe es aber vlt. nicht ganz so klar ausgedrückt, wie man es hätte machen können.

Lehdro
2017-08-07, 20:26:28
Ich habe es aber vlt. nicht ganz so klar ausgedrückt, wie man es hätte machen können.
"Und" war dein Fehler. Schließ es halt eindeutig aus, deine Aussage war so halt einfach faktisch Falsch.

Der 1700X kostet btw nur 338€. Gerade mal 20 € mehr. Der 1700 30 € weniger. Von daher sehe ich da 0 Anlass zu Kritik. Gerade wenn du dir den Plattformpreis anschaust.

(del)
2017-08-07, 21:05:07
wtf
:confused::confused::confused::confused::confused:

Platos
2017-08-07, 21:09:21
Ja, war falsch formuliert, sorry.

Und ja, der kostet nicht extrem viel mehr. Aber das Thema ist hier jetzt ein bisschen zu OT, um noch weiter darüber zu diskutieren.

Gast
2017-08-07, 22:09:27
Der Test zeigt im Gegenteil zum gezogenen Fazit wie sinnfrei so viele Kerne aktuell in Desktop-Systemen sind. Es gibt natürlich Ausnahmen.
Wenn man zwischen System mit Core i9-7900X oder Ryzen TR 1950X wählen müsste, wäre das keine Wahl, sondern vorentschieden - oder Ignoranz/Fangirlism.

Gast
2017-08-07, 22:29:34
Was mir auffällt ist, dass sich die Leistungs und Benchmarks und die gefühlte Leistung in der Realität immer mehr voneinander entfernen.

Immer wenn ich wieder einmal auf meinen PC/Notebook/Server warten muss und in den Taskmanager schaue, auf was ich da gerade warte, sehe ich oft folgende Dinge:
a) Die Festplatte ist voll ausgelastet typischerweise mit 1-20MB/s Traffic, wobei sich mit SSD das Problem komplett auflöst.
b) Es ist genau 1 Kern voll ausgelastet (Windows Updates, diverse Installer, Ladezeiten, es kompiliert gerade ein Programm etc.)

Dass irgendeine reale Anwendung mehr als einen Kern aktiv auslastet, sieht man so gut wie gar nicht, selbst im Serverbereich wo doch angeblich alles schon längst optimiert ist, wird man feststellen, dass der nagelneue SQL Server 2016 die üblichen Statements doch nicht auf mehrere Kerne verteilt, weil die Laufzeit nicht lange genug ist und von den 12 virtuellen Kernen des neuen Hexa Core Servers gerade einmal ein Kern läuft.

Selbst WinRAR scheint ab 4 Threads schon größteilteils RAM limitiert zu sein.

Im Privatumfeld sind Spiel wohl das Wichtigste, wozu man viele Kerne gebrauchen könnte, nur dort ist die Grafikkarte meistens der limitierende Faktor. Ja klar wer gerne professionelle Videobearbeitung macht oder stundenlang Videos durch die Gegend konvertiert, der hat einen Vorteil.

Die Frage ist warum sind alle diese Single Core Anwendungen nicht im Benchmarkparkour? Vielleicht weil das alles Praxisfälle sind, wo man die Performance einfach schlecht messen kann, weil wenn man das könnte, hätten sich schon ein paar Programmierer Gedanken gemacht, wie man das Ganze etwas performanter gestalten kann. Das beste Beispiel ist hier der Windows Update Dienst.

Da man die echten Praxisfälle nicht messen kann und die utopischen 16 Thread Benchmarks nicht wirklich viel aussagen wäre ich dafür einfach wieder ein paar alte Klassiker wie SuperPI aufzunehmen, die eben auf Grund ihres Alters nur 1 Kern nutzen.

Gast
2017-08-08, 00:08:26
- Die (x86) CPUs sind ein einem Umfeld in dem sich nichts bis alles Parallelisieren lässt!

Eben, das genau ist der Grund das viele Kerne in Desktop-Umgebungen nicht sinnvoll sind.
Ich spreche jetzt nicht von 4 oder mehr, sondern von den Threadripper und Skylake-X-Monstern.
Anwendungen lassen sich eben nicht beliebig parallelisieren, und die die sich praktisch beliebig parallelisieren lassen werden langfristig auf GPGPU laufen und damit nochmal massiv schneller als jede CPU egal wie viele Kerne die hat.

Mittelfristig sind 6 Kerne sicherlich sinnvoll, eventuell auch noch 8. Aber viel darüber wird auch in ferner Zukunft am Desktop nicht sinnvoll sein.

Alles was sich gut parallelisieren lässt wird dann auf GPUs laufen und alles was sich schlecht parallelisieren lässt kann mit den vielen Kernen nichts anfangen.
Das einzige sinnvolle Einsatzgebiet für CPUs mit vielen Kernen werden Umgebungen sein wo gleichzeitig viele schlecht parallelisierbare Prozesse laufen. Das gibt es aber nur in Serverumgebungen, nicht am Desktop.

Vielkerner sind also alles andere als die CPUs der Zukunft (am Desktop), sie werden viel mehr in der Gegenwart und sehr naher Zukunft noch recht gut aussehen, bevor sie von GPGPU überrollt werden.

x-force
2017-08-08, 02:00:11
- Die IPC wird ebenfalls kaum noch steigen (Skylake-X ist sogar ein downgrade).


da ist noch einiges drin!
ich erinnere nur mal an den broadwell mit l4.
intel weiß ganz genau, wieso sie den wieder gestrichen haben ;)

Gast
2017-08-08, 07:48:36
Du hast immer doch nicht versanden wohin die Reise geht. Man sollte jetzt auf 10-20% verzichten, weil man mittelfristig 30-50% mehr bekommt, langfristig 30-100% mehr. Nämlich dann wenn ich 16 Threads auf die CPU los lasse und dein Popeliger 4 Kernern mit 8 Threads sich verschluckt und nicht mehr weiß was er zu erst abarbeiten soll und nur noch Framedrops unter 25fps schaft während ein 8 Kerner über 100fps liefert.

So ist des den DualCores ergangen, so wird es den QuadCores ergehen und irgendwann auch den 8 Kernern.

DAS ist der neue Lebenszyklus der CPUs und wenn du Pech hast ist es morgen mit deinem QuadCore so weit, aber dann ist ja die Anwendung daran Schuld :freak:
time spy zeigt doch klar auf wohin die reise geht, die cpu wird in spielen immer unwichtiger. unter dx 12 sowieso. tr mag zen üblich eine gute bis sehr gute anwendungsperformance besitzen und liegt da über der konkurrenz, unter spielen braucht man das aber nicht immer, da scheint auch if etwas zu limitieren. der grossteil wird weiter auf 4c/8t oder 6c/12t setzen. das werden auch die entwickler berücksichtigen. hier mit einer weltuntergangsstimmung auf alle brauchen mehr cores zu setzen ist unsinn. zudem scheint amds chipsatz unter spielen zu limitieren. time spy setzt grundsätzlich auf mehrkern cpus, da gibt es nichts daran zu deuteln. amd hängt in zukunft beim gaming hinterher, wie schon vor zen1. die braudhennalsbald ein update mit mehr takt. intel scheint wohl auf die tdp pfeiffen um mehr aus den cpus zu quetschen.

heisst also für gamer macht ein gpu upgrade nei 4c/8t viel mehr sinn, bringt audh für die nächsten 2-3 jahre viel mehr.. da kann amd knapp 1080 performance unter dx12 liefern zu nicht mal attraktivierem preis (siehe bundle fug). vega ist der grösste amd reinfall deren geschichte, wenn man überlegt wie man vega im vorfeld aufgeblasen hat. einfach canceln geht wohl auch nicht, weil die entwicklung viel zu teuer war und der hbm rotz nur kostet.

tr liegt da wo erwartet und wo auch ryzen liegt, wie sollte das auch anders sein, wenn man überall die gleiche hardeware/dies verwendet?

einzig beim preis kann amd punkten. wenn man die anwedungsperformance aber nicht braucht oder will, hilft einem das auch nicht. das amd mal was bringt das zu 100% sinn macht und dem entspricht was sie auch ankündigen, werde ich wohl nicht mehr erleben.

Rabiata
2017-08-08, 09:32:10
Zum Thema viele Kerne:
Hier erwarte ich daß sich die Spieleszene in Sachen Parallelisierung auf die 8 Kerne der aktuellen Konsolengeneration einschießt, da aber auch einige Zeit hängenbleibt. Analog zu den Zeiten in denen die meisten Spielehersteller es für unnötig befanden, bei der Grafik mehr zu programmieren als XBOX 360 oder PS3 leisten konnten.

Von daher dürfte derzeit irgend etwas zwischen 4C/8T und 8C (letzteres auch ohne SMT) die beste Wahl für eine Neuanschaffung unter Gamern sein.
4C ohne SMT, wie zuletzt beim i5 oder dem Phenom II X4, könnte sich bald als Fehlinvestition erweisen.
In Richtung High End halte ich mehr als 8C/16T dagegen für Geldverschwendung. Bis Spielesoftware ernsthaft Gebrauch davon macht, sind wir vermutlich schon 2-3 Hardwaregenerationen weiter.

Gast
2017-08-08, 09:52:12
Zum Thema viele Kerne:
Hier erwarte ich daß sich die Spieleszene in Sachen Parallelisierung auf die 8 Kerne der aktuellen Konsolengeneration einschießt, da aber auch einige Zeit hängenbleibt. Analog zu den Zeiten in denen die meisten Spielehersteller es für unnötig befanden, bei der Grafik mehr zu programmieren als XBOX 360 oder PS3 leisten konnten.

Von daher dürfte derzeit irgend etwas zwischen 4C/8T und 8C (letzteres auch ohne SMT) die beste Wahl für eine Neuanschaffung unter Gamern sein.
4C ohne SMT, wie zuletzt beim i5 oder dem Phenom II X4, könnte sich bald als Fehlinvestition erweisen.
In Richtung High End halte ich mehr als 8C/16T dagegen für Geldverschwendung. Bis Spielesoftware ernsthaft Gebrauch davon macht, sind wir vermutlich schon 2-3 Hardwaregenerationen weiter.
das geht nicht weil bei einer konsole nicht alle kerne fürs gamen bereitgestellt werden können. mit irgendwas muss man den rest ja auch am laufen halten. mehr als 8c bzw. schnelle 8t macht daher für einen reinen spielecomputer kaum sinn. die consolen laufen nicht mal auf allen kernen sondern nur 7, wovon 5 wohl mittlerweile entwickler für gaming bereit gestellt werden. streaming zählt da schon rein. bei der konsole ist es nur das anwendungen in den hintergrund fallen und damit weniger ram brauchen und zuletzt wieder mehr ram zu verfügung gestellt wurde. am pc leider noch nicht so, weil da ram keine rolle spielt man kann ja was zu stecken.

der trend bei der entwicklung geht klar zu mehr konsolenports über, weil das einfach entwicklungskosten spart. mit ähnlicher api sowieso. daher damit zu rechnen das hedt gaming wegen mehr cores beschleunigt ist reiner schwachfug. schlechtes marketing ist das, mehr nicht.

zen ist zu erst mal klar auf serve rund damit parallelisierung optimiert, amd bedient sich nur aus dem selben regal und schreibt auf den ausschuss gaming drauf. mehrere entwicklungspipelines server vs consumer kann man sich wohl nicht leisten. auf vega scheint das gleiche zuzutreffen.

damit ist klar das man nirgends schneller als die konkurrenz sein wird, alles für alles ist irgendwo nur mittelmaß wobei man bei optimierung darauf, hier und da zeichen setzen kann. genau das spiegelt sich auch in amds preisgestaltung wieder.

das das alle entwickler aufgreifen glaube ich eher nicht.

bbott
2017-08-08, 12:32:27
Ich habe gesagt: "und um das nochmals anzumerken, die 8-Kerner sind auch bei AMD deutlich teurer als ein i7 7700K und der günstigste lässt sich nicht so hoch takten"

Den Ryzen 1700 habe ich ausgelassen. "...und der günstigste lässt sich nicht so hoch takten" sollte bedeuten, dass ich den da raus halte, da er nicht in der Leistung mit den höheren mitspielt.

Wenn du mich zitierst, dann bitte den ganzen (relevanten) Teil. Ich habe es aber vlt. nicht ganz so klar ausgedrückt, wie man es hätte machen können.

Oh ja, im Schnitt sind es wohl 100-200Mhz weniger :freak:

bbott
2017-08-08, 12:47:10
Eben, das genau ist der Grund das viele Kerne in Desktop-Umgebungen nicht sinnvoll sind.
Ich spreche jetzt nicht von 4 oder mehr, sondern von den Threadripper und Skylake-X-Monstern.
Anwendungen lassen sich eben nicht beliebig parallelisieren, und die die sich praktisch beliebig parallelisieren lassen werden langfristig auf GPGPU laufen und damit nochmal massiv schneller als jede CPU egal wie viele Kerne die hat.

Mittelfristig sind 6 Kerne sicherlich sinnvoll, eventuell auch noch 8. Aber viel darüber wird auch in ferner Zukunft am Desktop nicht sinnvoll sein.

Alles was sich gut parallelisieren lässt wird dann auf GPUs laufen und alles was sich schlecht parallelisieren lässt kann mit den vielen Kernen nichts anfangen.
Das einzige sinnvolle Einsatzgebiet für CPUs mit vielen Kernen werden Umgebungen sein wo gleichzeitig viele schlecht parallelisierbare Prozesse laufen. Das gibt es aber nur in Serverumgebungen, nicht am Desktop.

Vielkerner sind also alles andere als die CPUs der Zukunft (am Desktop), sie werden viel mehr in der Gegenwart und sehr naher Zukunft noch recht gut aussehen, bevor sie von GPGPU überrollt werden.

1. Leistung lässt sich nur noch durch mehr Kerne realisieren, da weder Takt noch IPC groß gesteigert werden können.
2. Eine GPU kann viele Aufgaben nicht berechen, sonst würde man (fast) alles die GPU rechnen lassen, x86-64 ist nicht umsonst die Dominante Architektur.
Z. B. KI ist nichts was eine GPU könnte.
Jeder Herausforderer wurde geschlagen (Itanic, Cell, usw.) und unterschätzt x86-64 gewaltig und alleine die vorhandene Softwarebasis.

Ein 10 bis 18Kerner wird auch in Zukunft kaum an Singel Thread Performance hinterher hängen, ergo lange halbar sein. Nur der Stromverbrauch und Anschaffungskosten sprechen gegen diese CPUs.

x-force
2017-08-08, 13:01:03
1. Leistung lässt sich nur noch durch mehr Kerne realisieren, da weder Takt noch IPC groß gesteigert werden können.


nur weil du es mehrfach behauptest wird es nicht richtiger :rolleyes:

JVC
2017-08-08, 13:08:08
bin ich der einzige der glaubt das nach der 4 kern Schranke ( oder von mir aus 6 oder 8 kern Schranke ) sich denk ich "schrankenlose" Software im Spiele Bereich doch bald mal ankündigen müsste ???

es macht doch keinen sinn von einem Hindernis zum nächsten zu stolpern !?

oder ist das unmöglich spiele zu entwickeln die nutzen was da ist und sich selbst so viele kerne krallen wie sie benötigt ???

das keine 100% Skalierung möglich ist ist schon klar aber von einer "Schranke" zur nächsten zu stolpern ist auf keinen fall sinnvoll
und das wissen die Softwareentwickler denk ich auch .

vielleicht ist es noch etwas zu früh aber ich setze lieber auf TR 16kerne als mit einem 8kerner einen zwischenschritt zu machen ( atm. 3570K @ 4,6Ghz und die virtuellen kerne interessieren MICH überhaupt nicht )

m.f.g. JVC

IchoTolot
2017-08-08, 13:18:56
Eben. Einige sind immer schnell dabei wenn es darum geht das zu behaupten. Man muss sich doch nur mal ansehen was sich bei den Befehlssätzen tut und was da Skylake-X beispielsweise auffährt. Hell, selbst mein i7 hat die gleiche AVX2 Leistung wie ein Ryzen 8 Kerner. Das mit der IPC ist noch längst nicht in Stein gemeiselt. Mehr Kerne scheint auf den ersten Blick das Mittel der Wahl zu sein, aber dazu muss man auch viel Arbeit investieren wo auch die Frage ist, ob es sich überhaupt immer lohnt diese zu investieren.

Der_Korken
2017-08-08, 13:54:10
Eben. Einige sind immer schnell dabei wenn es darum geht das zu behaupten. Man muss sich doch nur mal ansehen was sich bei den Befehlssätzen tut und was da Skylake-X beispielsweise auffährt. Hell, selbst mein i7 hat die gleiche AVX2 Leistung wie ein Ryzen 8 Kerner.

AVX würde ich aber nicht direkt als IPC-Steigerung bezeichnen, da sich damit nur sehr spezielle Rechenaufgaben beschleunigen lassen. Sobald du einfach nur sequentiellen Code hast mit vielen Branches und Speicherzugriffen, bringt eine Vektorisierung durch AVX quasi null. Das einzige, was noch was bringen könnte, wäre ein L4 in Form von eDRAM oder vielleicht auch HBM2, aber damit beschleunigt man auch nur Code, der durch Cache-Misses limitiert ist. Substantielle Single-Core-IPC-Steigerungen sind vermutlich nur noch dadurch möglich, dass man die Zeit zum Abarbeiten eines Befehls verringert, sprich durch mehr Takt. Mehr ALUs innerhalb eines Kerns dürften auch nicht mehr viel bringen: Im Gegenteil, die Steigerungen, die durch SMT erreichbar sind zeigen, dass hier bereits heute vieles gar nicht simultan genutzt werden kann. Von daher würde ich das durchaus so sehen, dass CPUs hauptsächlich nur durch mehr Kerne wachsen können.

bbott
2017-08-08, 16:44:38
nur weil du es mehrfach behauptest wird es nicht richtiger :rolleyes:

Das ist keine Behauptung, wenn man sich mit der Materie beschäftigt weiß man, dass man den Takt nicht beliebig er höhen kann. Hast du schon Mal ausgerechnet wie viel Elektronen Fließen bei einem Takt von 3-4Ghz, bis die Elektronen sich bewegen bzw. nicht mehr bewegen, bei >5Ghz sind das nicht mehr allzu viele Elektron, viel Spaß beim Messen ob eine 0 oder 1 anliegt. Elektionen fließen nun man nur annähernd mit Lichtgeschwindigkeit, wenn du es schaft diese auf Überlichtgeschwindigkeit und/oder deren Trägheit zu überwinden, schaffst du auch (etwas) mehr :freak:

Oder meinst du warum wir keinen PV mit über 5GHz gesehen haben. Die 10Ghz OC per Stickstoff durch die Supraleitfähigkeit, die die Trägheit der Elektronen hilft zu über winden?! Das nennt sich Physik.


Ein Thread kann man nicht auf beliebig viele Piplins los lassen, um die IPC zu steigern, eine Zerlegung der Aufgabe geht nur beschränkt. Inverst Hyper Threading ist noch einer alternative, als mehrere mögliche Lösungen berechen und dann wen diese Falsch war einfach die Andere nutzen statt noch mal von vorne zu Rechen, was ich aber nicht unbedingt als direkte IPC Steigerung sehe sondern eher als eine Art von mogeln. Zumal etwa doppelte Einheiten und Stromverbrauch im worstcase nötig sind.

Die beiden Möglichkeiten sind nun mal (fast) ausgeschöpft.

Gast
2017-08-08, 18:15:45
Zum Thema viele Kerne:
Hier erwarte ich daß sich die Spieleszene in Sachen Parallelisierung auf die 8 Kerne der aktuellen Konsolengeneration einschießt, da aber auch einige Zeit hängenbleibt.

Die aktuellen Konsolen sind kein Grund, dass bis zu 8 Kerne am PC ausgenutzt werden.

Erstmal stehen von den 8 Kernen den Spielen nur 6 zur Verfügung.
Die Kerne haben auch weniger als den halben Takt und weniger als den halben IPC als schnelle PC Prozessoren.
Ein hochgetakteter 4-Kerner am PC hat wesentlich mehr Leistung als die 8 Kerne in den Konsolen.

Es würde mich auch nicht wundern wenn wir bei der nächsten Konsolengeneration Zen-Kerne, aber dafür mit geringerer Anzahl sehen, da es einfach sinnvoller ist den freiwerdenden Platz für eine größere GPU zu verwenden.

Gast
2017-08-08, 18:32:11
1. Leistung lässt sich nur noch durch mehr Kerne realisieren, da weder Takt noch IPC groß gesteigert werden können.
2. Eine GPU kann viele Aufgaben nicht berechen, sonst würde man (fast) alles die GPU rechnen lassen, x86-64 ist nicht umsonst die Dominante Architektur.
Z. B. KI ist nichts was eine GPU könnte.
Jeder Herausforderer wurde geschlagen (Itanic, Cell, usw.) und unterschätzt x86-64 gewaltig und alleine die vorhandene Softwarebasis.

Eine GPU kann alles berechnen, nur nicht alles effizient.
Damit es auf der GPU effizient wird braucht es jede Menge Thread-Level-Parallelism, die Problemstellung muss sich also auf quasi beliebig viele Threads aufteilen lassen.
GPUs sind sehr schlecht Instruction-Level-Parallelism auszunutzen, das ist die Stärke von CPU-Kernen.

Alles was sich auf quasi beliebig viele Threads aufteilen lässt läuft aus GPUs wesentlich schneller. Alles was sich nicht auf beliebig viele Threads aufteilen lässt hat im Umkehrschluss einen signifikanten Anteil an nicht parallelisierbarem Code. Damit schlägt Amdahls Gesetz eiskalt zu und limitiert die möglichen Performancegewinne schon sehr stark.
Bei lediglich 10% seriellem Code ist beispielsweise der maximale Performancegewinn von 4 auf 16 Kernen gerade mal etwas mehr als eine Verdoppelung.
Wenn man noch mit einrechnet, dass die erreichbare Taktfrequenz bei vielen gleichzeitig ausgelasteten Kernen auch noch spürbar zurückgeht, verringert sich der mögliche Gewinn nochmals weiter.



Ein 10 bis 18Kerner wird auch in Zukunft kaum an Singel Thread Performance hinterher hängen, ergo lange halbar sein.


Dank hohen Turbotakten bei Auslastung weniger Kerne hat ein Vielkerner wenigstens kaum Nachteile bei Single-Thread-Auslastung das ist richtig, eine Siliziumverschwendung ist es trotzdem.

Gast
2017-08-08, 18:45:32
bin ich der einzige der glaubt das nach der 4 kern Schranke ( oder von mir aus 6 oder 8 kern Schranke ) sich denk ich "schrankenlose" Software im Spiele Bereich doch bald mal ankündigen müsste ???

es macht doch keinen sinn von einem Hindernis zum nächsten zu stolpern !?

oder ist das unmöglich spiele zu entwickeln die nutzen was da ist und sich selbst so viele kerne krallen wie sie benötigt ???

Das hat nichts mit Spielen zu tun.
Sehr viele Problemstellungen lassen sich nicht beliebig parallelisieren. Wenn ein signifikanter serieller Anteil vorhanden ist ist es egal wie weit du den Rest aufteilst, irgendwann wird der serielle Anteil limitieren.

Wenn du beispielsweise eine Laufzeit von 10ms für den seriellen Anteil hast und eine von 90ms für den (beliebig) parallelisierbaren Anteil, wirst du niemals unter 10ms Gesamtlaufzeit kommen.
Ob du die 90ms auf 9 Kerne je 10ms Laufzeit oder 15 Kerne je 6ms Laufzeit aufteilst ist egal.
In zweitem Fall haben die übrigen 15 Kerne eben 4ms nichts zu tun.

Nicht mitgerechnet ist hier natürlich ein etwaiger Synchronisationsaufwand. Wenn beispielsweise für jeden Thread mehr 1ms zusätzlichen Synchronisationsaufwand hast kann es natürlich sinnvoller sein nicht alle Kerne zu verwenden, bzw. je mehr Threads du verwendest desto größer wird der Synchronisationsanteil am Gesamtaufwand.

Es werden auch in heutigen Spielen nicht eine strikte Anzahl von Threads verwendet, es gibt allerdings einen Thread der die Hauptlast trägt und damit die Performance limitiert.

Gast
2017-08-08, 20:08:54
Das ist keine Behauptung, wenn man sich mit der Materie beschäftigt weiß man, dass man den Takt nicht beliebig er höhen kann. Hast du schon Mal ausgerechnet wie viel Elektronen Fließen bei einem Takt von 3-4Ghz, bis die Elektronen sich bewegen bzw. nicht mehr bewegen, bei >5Ghz sind das nicht mehr allzu viele Elektron, viel Spaß beim Messen ob eine 0 oder 1 anliegt. Elektionen fließen nun man nur annähernd mit Lichtgeschwindigkeit, wenn du es schaft diese auf Überlichtgeschwindigkeit und/oder deren Trägheit zu überwinden, schaffst du auch (etwas) mehr :freak:

Oder meinst du warum wir keinen PV mit über 5GHz gesehen haben. Die 10Ghz OC per Stickstoff durch die Supraleitfähigkeit, die die Trägheit der Elektronen hilft zu über winden?! Das nennt sich Physik.


Ein Thread kann man nicht auf beliebig viele Piplins los lassen, um die IPC zu steigern, eine Zerlegung der Aufgabe geht nur beschränkt. Inverst Hyper Threading ist noch einer alternative, als mehrere mögliche Lösungen berechen und dann wen diese Falsch war einfach die Andere nutzen statt noch mal von vorne zu Rechen, was ich aber nicht unbedingt als direkte IPC Steigerung sehe sondern eher als eine Art von mogeln. Zumal etwa doppelte Einheiten und Stromverbrauch im worstcase nötig sind.

Die beiden Möglichkeiten sind nun mal (fast) ausgeschöpft.
Wen es nicht schon genug Beispiele dafür gäbe, das Kernskalierung eben kein riesen Vortei unter PC Spielen wäre, würde ich dir gerne alles glauben. Aber selbst Kracher wie W3, RotTR oder andere Titel profitieren von mehr als 4 Kernen nicht. Zugeschaltetes SMT oder HT kehrt sich sogar noch um und wird langsamer. Das ist keine Weisheit von heute, sondern dazu gabs genug Test in der Vergangenheit.

Kernanzahl und IPC - Konsole versus PC - ist überhaupt nicht vergleichbar. Wozu die Konsole 4 Kerne braucht, das reitet eine PC CPU wahrscheinlich auf 1+1HT ab.

Auf jeden Fall bringt eine dicke Grafikkarte mehr, als "Trölf" CPU Kerne die zu 10% ausgelastet werden, was man bei AMD ja sieht. Das spart bei denen einfach nur Strom, weil man weit unter dem Sweetspaot der Hardware bleibt. Wenn die Kerne ausgelastet werden müssten, würde bei denen der Energieverbrauch expotentiell expoldieren, GPU versus CPU völlig egal. Die brauchen von allem immer mehr, anstatt mal auf den Punkt was Brauchbares abzuliefern.

Und wie hier schon geschrieben stand, lässt sich ein einzelner Thread nicht zig "Threadies" unterteilen.

bbott
2017-08-12, 01:00:55
da ist noch einiges drin!
ich erinnere nur mal an den broadwell mit l4.
intel weiß ganz genau, wieso sie den wieder gestrichen haben ;)

War er durch den L4 etwa doppelt so schnell? Soweit ich mir erinnere war das Nutzen im Verhältnis zum Aufwand wenig sinnvoll. Da Intel den L4 fallen hat lassen, ist es wohl nicht sinnvoll ;)

Dann könnte man auch L1, L2, L3 vergrößern, aber wirklich viel wird es nun mal nicht bringen.