PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sinn und Unsinn von HEDT-CPUs im Allgemeinen und als Spieleplattform im Speziellen


Seiten : [1] 2

Niall
2017-07-14, 07:17:25
Ich verstehe nicht, wieso hier bei HEDT – sowohl den großen Skylake X, als auch Threadripper – immer wieder das Thema Spieletauglichkeit aufpoppt. :freak:

Hätte ich einen Rechner mit dem ich nichts anderes machte als zocken, würde mir nicht im Traum einfallen 600€ und mehr für eine CPU aus dem Fenster zu werfen – ganz zu schweigen vom Unterbau und massig RAM.

Das hat schon seinen Sinn weshalb die Präsentationen von Intel und AMD im HEDT Bereich keine Spielebenches beinhalten, sondern zumeist Szenarien für die jene CPUs entwickelt wurden. :D … und ehrlicherweise wird es langsam auch etwas ermüdend dies immer wieder und gebetsmühlenartig zu propagieren. :freak:

Loeschzwerg
2017-07-14, 07:20:49
Nennt sich Hobby

Niall
2017-07-14, 07:36:45
Nennt sich Hobby

Ja und? :freak:

Das ist in etwas so als würde ich mir einen alten Range Rover kaufen um damit einen Porsche auf dem Nürburgring abhängen zu wollen, anstatt ihn im Gelände zu schlagen. :D

Dr.Doom
2017-07-14, 07:40:36
Ja und? :freak:

Das ist in etwas so als würde ich mir einen alten Range Rover kaufen um damit einen Porsche auf dem Nürburgring abhängen zu wollen, anstatt ihn im Gelände zu schlagen. :DJa und? :ugly:
"Spiele-CPUs" werden schließlich auch auf Videoschnitt&Co. losgelassen -- niemand der professionell Videoschnittbetreibt, würde sich für seine Tätigkeit einen Rechner mit 200€-Prozessor kaufen.

Loeschzwerg
2017-07-14, 07:46:53
Dafür gibt es ja OC ^^

Letztendlich ist es die gleiche Frage warum sich Leute eine dicke Limousine oder SUV kaufen müssen und es evtl. nicht ein 08/15 Polo auch täte?

Wenn ich das Geld so locker übrig hätte, ich würde mir zum Spaß eine Quadro P100 kaufen, schlichtweg weil mir das Testen und Basteln Spaß macht (wie vielen anderen Hardware Geeks eben auch). Ich habe das Geld aber nicht in diesen Mengen, also schaue ich wie es halt passt.

Nebenbei, ich zocke an einem Sys mit Xeon 18 Kerner, abseits von VM Spielereien. Da muss ich mir nicht noch extra eine langweilige Consumer Kiste hinstellen ^^

Niall
2017-07-14, 07:46:56
niemand der professionell Videoschnittbetreibt, würde sich für seine Tätigkeit einen Rechner mit 200€-Prozessor kaufen.

Hä? Das unstreicht doch meine Aussage nur noch. :D

Mir geht es lediglich darum dass Threadripper und Co. von manchen ständig auf Spieletauglichkeit gebenched werden.

Niall
2017-07-14, 07:48:22
Dafür gibt es ja OC ^^

Letztendlich ist es die gleiche Frage warum sich Leute eine dicke Limousine oder SUV kaufen müssen und es evtl. nicht ein 08/15 Polo auch täte?

Wenn ich das Geld so locker übrig hätte, ich würde mir zum Spaß eine Quadro P100 kaufen, schlichtweg weil mir das Testen und Basteln Spaß macht (wie vielen anderen Hardware Geeks eben auch). Ich habe das Geld aber nicht in diesen Mengen, also schaue ich wie es halt passt.

Nebenbei, ich zocke an einem Sys mit Xeon 18 Kerner, abseits von VM Spielereien.

Klar, ist ja auch völlig legitim. :)

Korvaun
2017-07-14, 07:56:34
Also "tauglich" zum spielen sind Threadripper sicherlich. Man sollte halt nur keine höhere Leistung als bei schnellen 6/8-Kernern erwarten, und schon gar nicht höhere Spieleleistung erwarten weil die Teile ja "viel mehr Kerne" haben ;)

In gängigen Spieleauflösungen (1440p und drüber) mit einem entsprechenden Rechner (Treadripper/16GB+RAM/1080+ Graka) wird man wohl keinen Unterschied zum 1800X festellen können während man spielt...

Interessant könnten gewollte Kernabschaltungen werden, also z.b. was passiert wenn man 1 Die komplett ausschaltet? Was passiert wenn man pro Die nur 4 Kerne laufen hat? Sind Treadripper mit den besten selektierten Dies ausgestattet zwecks TDP-Einhaltung? Geht dann bessere Übertaktung?

r3ptil3
2017-07-14, 08:44:56
Also "tauglich" zum spielen sind Threadripper sicherlich. Man sollte halt nur keine höhere Leistung als bei schnellen 6/8-Kernern erwarten, und schon gar nicht höhere Spieleleistung erwarten weil die Teile ja "viel mehr Kerne" haben ;)

In gängigen Spieleauflösungen (1440p und drüber) mit einem entsprechenden Rechner (Treadripper/16GB+RAM/1080+ Graka) wird man wohl keinen Unterschied zum 1800X festellen können während man spielt...


Das ist reine Spekulation.

Du weisst auch nicht wie sich Quad-Channel, vlt. auch eine bessere Übertaktbarkeit (Stichwort Sockel), sich bei Threadripper auswirken werden.

Wird man dann sehen, wie sich die Frametimes etc. verhalten.

Für mich ist übrigens ebenfalls zu 95% nur die Gaming-Performance wichtig und ein 1800x fällt schon mal kategorisch aus.

HOT
2017-07-14, 08:49:33
Gibt jetzt schon genügend Beispiele, bei denen der 1700X/1800X den hochgetakteten Intels in Spielen nahekommen. Das wird ja nicht so bleiben. Von daher ist das ne Aussage, die man im Moment stehen lassen kann, aber die keinen Bestand hat.

bun
2017-07-15, 01:22:22
Ein 7700K ist sicher keine falsche Investition

Doch. Wer 2017 noch 4 Kerne kauft, handelt extrem kurzfristig und verbrennt sein Geld für 10% Mehrleistung JETZT, in einigen Spielen. statt sich eine langlebige 8 Kern CPU zu kaufen. Kann man machen wenn man das als Hobby sieht, sollte dann aber mit dem Gestocke und Geruckel in den Spielen leben können, bei denen 4 Kerne heute schon zu wenig sind, und man muss auch damit leben das die CPU in 1-3 Jahren zum Alteisen gehört.

dildo4u
2017-07-15, 01:25:58
Murk's die Konsolen haben immer noch Jaguar CPU's,(Selbst die 500€ XBox One X)die CPU Last wird die nästen Jahre eher sinken mit besseren DX12 und Vulkan Support.

vinacis_vivids
2017-07-15, 02:01:12
Mit Threadripper werden Software und Games schneller Richtung skalierbarer Threads programmiert werden. Wer dann auf 8 Threads sitzt, wird dann mit weniger Details spielen müssen, was ja heute schon der Fall ist. Dafür ist ja DX12 und Vulkan auch da.

Daredevil
2017-07-15, 04:47:24
12 Threads gab es schon 2010, wieso sollte denn ausgerechnet 2017 das große Jahr des Multithreadings werden?

Nenn mir doch mal 5 Spiele, die man heute nicht mit einem 8 Thread Prozessor in hohen Details spielen kann. Weil Threadripper ist einfach komplett nicht ans Gaming angelehnt sondern zieht Intel in ganz anderen Disziplinen die Hosen aus.
Sieht man ja heute auch schon an AMDs 6Kerner, die einfach höher takten als die 8Kerner und oft deswegen mehr Leistung auf die Straße bringen.

StefanV
2017-07-15, 05:04:27
12 Threads gab es schon 2010, wieso sollte denn ausgerechnet 2017 das große Jahr des Multithreadings werden?
Weils erst jetzt für die breite Masse erschwinglich ist, was den sonnst...

(native) 8 Kerner gibts seit 2008 oder so, für LGA1567...

N0rG
2017-07-15, 05:37:33
Wer dann auf 8 Threads sitzt, wird dann mit weniger Details spielen müssen, was ja heute schon der Fall ist. Dafür ist ja DX12 und Vulkan auch da.

Jetzt hör aber mal auf, ich zocke momentan alles auf maximum mit meinem 7700K und ich denke nicht, dass sich das in den nächsten 18 Monaten grundlegend ändern wird. Ich habe auch noch nie irgendwelche Ruckler oder FPS drops erlebt. Und ich bin da sehr empfindlich...
Sich jetzt einen Ryzen 1700 zu kaufen kann ich noch verstehen, wenn man das ding lange behalten will, aber alles darüber hinaus ist zum zocken einfach Geldverschwendung. Ich denke es ist sinnvoller sich jetzt was um 350€ zu holen und dann in 1 - 2 jahren, wenn die Spiele hoffentlich mehr cores auslasten, auf was größeres zu upgraden. Threadripper ist nur der counterpart zu Skylake X und beide sind keine reinen Spiele-CPUs. Der kommende Coffelake 6c ist da schon sehr viel interessanter...

Daredevil
2017-07-15, 05:42:37
Und seit 9 Jahren warten wir kläglich auf Spiele, die 8 Threads überhaupt mal gescheit ausnutzen und alles was wir bekommen ist die Frostbite Engine und 2-3 "Non Masse" Games.

Pubg bricht momentan alle Rekorde und geht komplett durch die Decke und dieses 2017 Spiel nutzt wie viele Threads? 2-3.
Overwatch? Dota? Rocket League? Witcher? VR Games? Unity Games?

Bei den hast du dann massive Probleme, wenn dein Craplake-X oder Threadripper keinen hohen Takt raushaut bei solchen kleinen Belastungen.

Was möchte man denn bei so einer Leistungseinschätzung als Gamer kaufen?
http://abload.de/img/unbenanntwhs6s.png
Warum auf 6 oder 8 Kerne gehen, wenn der 1500X auf der gleichen Welle schwimmt.
Habe Intel jetzt mal bewusst rausgelassen, die haben da nichts zu suchen bei dem Vergleich.

Ey da biste mit deinem Bulldozer ja noch gut dran. ;D

Menace
2017-07-15, 07:57:03
Was mich immer verwundert ist, dass der hier beschworene "Gamer" ja sein PC wirklich nur zum "Gamen" benutzt?!

keine E-Book-Verwaltung mit Inhaltssuche?
keine Desktop-Suche/Index wie Copernic, X-Search?
keine mp3-Bibliothek?
keine Fotobearbeitung in RAW und Bibliothek?
keine Filme?
kein Crunchen im Hintergrund?
keine "Contenterstellung"?
keine 1000+ Dokumente für Arbeit/Studium?

Klar kann man das alles auch mit einem 4C/8T-CPU machen; aber da vieles im Hintergrund läuft ist eine 1700er doch sehr brauchbar.

Ich persönlich habe (bis auf Boinc) mit der 1700 CPUs ordentliche Reserven; wobei bei einer RAW-Konvertierung und Verschlagwortung in DAM-Software schon hin und wieder bei 100% CPU-Auslastung bin. Da sieht dann der Threadripper richtig nett aus. :freak:

StefanV
2017-07-15, 08:22:00
Warum auf 6 oder 8 Kerne gehen, wenn der 1500X auf der gleichen Welle schwimmt.
Warum auf DUal Cores setzen, wenn Single Cores doch mehr als ausreichen?
Warum auf einen Phenom II setzen, wenn ein E8400 doch mehr als ausreicht?

Siehst? Die gleiche bescheuerte Argumentation wie vor 10-15 Jahren, als die ersten Dual und Quad Cores kamen. Das war damals schon Blödsinn, aber warum soll es heute auf einmal richtig(er) sein als damals?!

Dazu vergisst du, dass der PC nicht (mehr) die Primäre Entwicklungsplattform ist und die 8 Core CPUs in den Konsolen auch noch nicht so lange her sind.

Auch musst du dir mal auf der Zunge zergehen lassen, dass 4 Core CPUs in Sub 100$ Mobil-Telefonen Standard ist, die High End idR 8 Core CPUs haben.

Nur in der Lead Plattform der 80er und 90er Jahre gammelst immer noch maximal mit 4 Kern CPUs rum?! SRYSLY?!

Und by the way:
~10 Jahre 4 Kerner im PC!
Im Mainstream, keinerlei Fortschritt in diesen 10 Jahren,...

Der Punkt ist doch, dass 4 Kern CPUs schon lange ins untere Preissegment gehören!
Sub 150$, eher sogar noch Sub 100$ Bereich und die 2 Kerner gehören da hin, wo die 1 Kern K10 Semprons waren -> Sub 50$ Segment.
Die sind einfach viel zu teuer, die Teile, der Preis zu stark angezogen...

Und 8 Kerne sind einfach mal nötig, weil die Prozessor Leistung nur noch durch breitere Prozessoren zu steigern ist, NICHT mehr durch Takt und/oder ARchitektur Verbesserungen...

Vor 10 Jahren war der Takt der CPUs auch nicht soo anders als es heute der Fall war.
gegen 2007 waren die 45nm CPUs mit ~3,5GHz aufm Markt.
Aber 10 Jahre davor bist mit um die 200MHz rumgegammelt - der Takt hat sich also locker verzehnfacht.
Und 10 Jahre davor hast dir 'nen Ast gefreut, wenn du unglaubliche 20MHz im Rechner hast...

DAS ist etwas, was auch gern bei der Betrachtung vergessen wird. Wenn wir heute 8GHz CPUs hätten, wären auch 4 Kern CPUs OK. Aber 8GHz CPUs bekommst nicht 'mal eben' hin. Schon für 5GHz musst du die Peitsche rausholen...

Dr.Doom
2017-07-15, 09:04:15
Jetzt hör aber mal auf, ich zocke momentan alles auf maximum mit meinem 7700K und ich denke nicht, dass sich das in den nächsten 18 Monaten grundlegend ändern wird. Ich habe auch noch nie irgendwelche Ruckler oder FPS drops erlebt. Das zielte darauf ab, dass bei "Ashes of Dingenskirch" bei CPUs mit nur 4 echten Kernen diverse Effekte abgeschaltet werden, selbst dann, wenn du alles auf "hoch" stellst. Bei CPUs mit mehr Kernen sieht man "plötzlich" mehr Effekte (wenn man genau hinguckt).

Pirx
2017-07-15, 09:35:19
Und seit 9 Jahren ...
Die Weichen sind nun gestellt (hauptsächlich von AMD: Konsolen, APIs, Mainstream-CPUs mit vielen Kernen) - wie kann man das nicht sehen?

HOT
2017-07-15, 09:38:53
Stefan, reg nicht nicht so darüber auf, das ist doch immer die gleiche Leier. Dass er falsch liegt, sieht man doch schon daran, wie gut 6800k/6900k skalieren ggü. 7700k. Natürlich steht der 7700k aufgrund des Taktes bei den Gesamtratings immer noch ganz oben, weil eben viel älterer Mist mitgetestet wird, bei dem die CPU-Leistung ja gar keine Rolle mehr spielt, weil dafür selbst ein oller K10 reichen würde.
Natürlich ist im Moment für Spiele 7700k und 5775c optimal. Darauf läuft einfach alles schnell - das bezweifelt keiner. Die Vergangenheit zeigt aber, dass sowas nicht von Dauer ist. Schon bei den nicht-SMT-4-Kernern sind etliche Spiele echt am Limit, nicht unbedingt von den Durchschnitt-FPS, sehr wohl aber von den Frametimes (Crysis3, Dishonered2 und einige mehr) und das nicht erst seit gestern. Doch schon jetzt profitieren etliche Titel recht gut von mehr Kernen. Das war auch vor gar nicht so langer Zeit so, als die gleiche Diskussion lief, dass doch ein 2 Kerner + SMT für Spiele optimal sei.
Was Zen angeht, so hat er ja das gleiche Problem wie der CoreX, die Spiele sind nicht auf Meshing optimiert. Das kommt aber definitiv, da das ja beide Hersteller machen.

Was ich an dieser Geschichte immer nicht verstehe: Leute, das ist doch für viele ein Primärhobby. Warum zum Henker gönnt ihr euch nicht was optimales, wenn ich schon was kauft und betreibt einen Gaming-PC mit Win7 (natürlich militant verteidigt), 2+SMT und Geforce 1060 da drin und sitzt vor einem 100€-Monitor? Für manche lass ich die ja gern gelten, dass es wirtschaftlich schwierig ist. Aber doch nicht in der Menge? Wer sich jetzt noch nen 7700k kauft für den Preis hat IMHO einfach einen an der Klatsche, zumal ja in nem halben Jahr dasselbe als 6-Kerner verfügbar ist wenns denn unbedingt Intel sein muss. Man behält sowas doch mindestens 2 Jahre im Normalfall, wenns gut ist länger. Meinen Deneb hab ich 3 1/2 Jahre behalten. Den 1700X kann ich sicher auch mindestens 3 Jahre halten, ohne an Limits zu stoßen Mit dem 6600k, den ich vorher hatte, war ich schon Anfang diesen Jahres total unzufrieden - bei Games.

robbitop
2017-07-15, 10:03:34
Langfristig ist der 7700K das Äquivalent zum C2D E8400. (2C, hoher Takt für 2008) Wer regelmäßig aufrüstet: ok. Langfristig war selbst der Q6600 (4C) mit niedrigerem Takt wesentlich besser. Das gleiche wird wahrscheinlich für 6C+ gelten.

Takt und IPC stoßen immer mehr gegen eine Art Wall. Die Skalierung wird gezwungenermaßen über Multithreading laufen müssen.
Es würde mich daher nicht wundern, wenn ein 7900X oder ein Threadripper locker 5-7 Jahre noch schnell genug für viele User sein werden, während wahrscheinlich heutige 4C und 6C es nicht mehr sein werden.

Aber es gibt mehr als genug Leute, die regelmäßig und häufig upgraden und immer für genau diese kurze Zeitspanne die beste Performance haben wollen. Dann sind 4 schnelle Kerne heute keine schlechte Wahl.

Sardaukar.nsn
2017-07-15, 11:00:07
...Wer sich jetzt noch nen 7700k kauft für den Preis hat IMHO einfach einen an der Klatsche, zumal ja in nem halben Jahr dasselbe als 6-Kerner verfügbar ist wenns denn unbedingt Intel sein muss...

Aber wenn jetzt jemand einen High-End Gaming PC kaufen will, dann gibt es aktuell keine große Diskussion. 7700k und 1080Ti.

basix
2017-07-15, 11:03:33
OK, und was ist mit den ganzen HEDT Plattformen? Ist z.B. ein 4.5GHz 5960X oder 6900K nicht genug "High-End" zum Spielen :freak: Zudem ziehen die 8C dem 7700K bei den neuen Spielen davon und sind im Schnitt definitiv schneller. Sogar auf Stock-Taktraten (siehe Computerbase). Klar, ist eine andere Preisliga. Aber ein 6800K oder 5820K sind nicht wirklich viel teurer als ein 7700K (auf die Plattform gesehen 100-200 Euro), mit allerdings wesentlich grösserem Langlebigkeitsfaktor.

Edit: Link zum CB Test. In 720p sieht man doch schon deutliche Unterschiede und das bei massiv geringeren Taktraten.
https://www.computerbase.de/2017-02/cpu-skalierung-kerne-spiele-test/#abschnitt_performancerating_in_full_hd

dildo4u
2017-07-15, 11:06:32
Das ist das Problem dieses Ständige nur das ist gut das andere ist kacke,ein i7 oder Ryzen mit 6 Core sind vergleichbar.PCGH hat dazu immer schöne Frametime Grafiken im Heft.Und die Wenigsten die eine 1080 Ti kaufen zocken in 1080p,daher ist das runter beten von 7700k oder nix einfach nur Murks.

G3cko
2017-07-15, 11:08:04
Langfristig ist der 7700K das Äquivalent zum C2D E8400. (2C, hoher Takt für 2008) Wer regelmäßig aufrüstet: ok. Langfristig war selbst der Q6600 (4C) mit niedrigerem Takt wesentlich besser. Das gleiche wird wahrscheinlich für 6C+ gelten.

Takt und IPC stoßen immer mehr gegen eine Art Wall. Die Skalierung wird gezwungenermaßen über Multithreading laufen müssen.
Es würde mich daher nicht wundern, wenn ein 7900X oder ein Threadripper locker 5-7 Jahre noch schnell genug für viele User sein werden, während wahrscheinlich heutige 4C und 6C es nicht mehr sein werden.

Aber es gibt mehr als genug Leute, die regelmäßig und häufig upgraden und immer für genau diese kurze Zeitspanne die beste Performance haben wollen. Dann sind 4 schnelle Kerne heute keine schlechte Wahl.

Genau so sieht es aus! :up:

Und genau deswegen hat mir der 5960x vor 3 Jahren so gut gefallen. OC-Singlethreadleistung fast auf 4Core OC Niveau und Multithreading ausreichend Leistung für die nächsten 7-10 Jahre.

Erinnerte mich ein wenig an meinen Q6600, wobei dieser doch deutlich preiswerter war. Ein QuadCore ist kein HighEnd mehr. Spätestens jetzt wo AMD 16 Kerne für 1000€ raushaut sollte einem das dämmern.

Die nächste Konsole wird minimum 8 Kerne und SMT haben. Da geht die Reise hin.

Ich schrieb es schonmal. 5Ghz All-Core werden wir nicht sehen. bei CPUs mit 16-30 Kernen. Daher das gejammere um low-level APIs. 3GHz bei aktueller IPC sind die Richtline, viel mehr geht nicht. Bald gibt es 6 Kerne im Notebook, das ist dann dort HighEnd, aber sich nicht mit 5 Ghz.

Lehdro
2017-07-15, 11:10:54
Aber wenn jetzt jemand einen High-End Gaming PC kaufen will, dann gibt es aktuell keine große Diskussion. 7700k und 1080Ti.
Kommt ganz darauf an. Nimm mal an du spielst Black Desert Online UND noch ein anderes Game gleichzeitig. (Als Info bei BDO kannst btw sollst du gewisse Dinge AFK tun, Game im Hintergrund minimiert reicht also aus, no Input required)

Das kannst du mit 4k/8T einfach mal knicken, da dann direkt die Frametimes deines zweiten Spiels deiner Wahl total im Arsch sind. Zählt sowas nicht eher als High End Gaming? Oder ist Highend jetzt limitiert auf 1 Game, alle anderen Applikationen ausgeschaltet und 1080p/144Hz? Tut mir leid, aber für mich beinhaltet High End eben die Möglichkeit ALLES abzudecken beim Gaming, dazu zählen Streams, Streaming, mehrere Games gleichzeitig und der ganze andere Rest drumherum. Für einen competitive Gamer hingegen würde ich dir zustimmen, der stellt aber eh alles nicht absolut nötige aus um High Hz Gaming zu ermöglichen.

LadyWhirlwind
2017-07-15, 11:46:20
Kommt ganz darauf an. Nimm mal an du spielst Black Desert Online UND noch ein anderes Game gleichzeitig. (Als Info bei BDO kannst btw sollst du gewisse Dinge AFK tun, Game im Hintergrund minimiert reicht also aus, no Input required)

Das kannst du mit 4k/8T einfach mal knicken, da dann direkt die Frametimes deines zweiten Spiels deiner Wahl total im Arsch sind. Zählt sowas nicht eher als High End Gaming? Oder ist Highend jetzt limitiert auf 1 Game, alle anderen Applikationen ausgeschaltet und 1080p/144Hz? Tut mir leid, aber für mich beinhaltet High End eben die Möglichkeit ALLES abzudecken beim Gaming, dazu zählen Streams, Streaming, mehrere Games gleichzeitig und der ganze andere Rest drumherum. Für einen competitive Gamer hingegen würde ich dir zustimmen, der stellt aber eh alles nicht absolut nötige aus um High Hz Gaming zu ermöglichen.

Ich habe kürzlich von einem 4C auf ein 1700k aufgerüstet, und ich muss sagen vieles ist viel flüssiger, wenn ich bzw. die CPU mehrere Dinge gleichzeitig tun muss. Wer nur gamt, wird vielleicht mit einem 4C / 8T Prozessor in der Gegenwart glücklich. Sobald aber noch etwas dazu kommt, sei es BDO, Eve Online mining, oder halt Plex Transcodieren, Streamen etc. sieht es mit 4C /8T schnell mal nicht so gut aus.

Kriton
2017-07-15, 11:53:47
Da kommt man in den Thread, glaubt man liest was zur HEDT Plattform von AMD mit mindestens 12 Kernen, und dann liest man ständig was von 4 Kernen bei Intel oder von mir aus auch was zum "normalen" Ryzen...

Fragman
2017-07-15, 12:12:44
mich nervt diese low core diskussion mittlerweile auch und dieses kleinreden von "mehr cores".

macht doch mal benchmarks mit chrome und 30 tabs, skype, anti viren, steam und dazu das spiel. nebenher laeuft noch ein download, das waere zumindest mal realistisch.

zumindest sieht so meine desktop realitaet mit nem hexcore aus. auf dem laptop i7 quad hab ich zum gamen immer schon chrome ausgemacht.

diese benchmarks mit einem neu aufgesetzten system sind halt fairer fuer die vergleiche, aber letztlich nicht realistisch.

vinacis_vivids
2017-07-15, 12:40:10
Viele Besitzer versuchen halt noch ihren überteuert erkauften Intel 4C als "high-end" zu klassifizieren, obwohl sie genau wissen, dass sie eher ne Einsteiger CPU ist. Die drops, hic und lags werden sich nur noch weiter häufen. Aber Intel legt bestimmt noch den 7750k +100Mhz nach, um die Schafe weiter zu melken.

Wer auch nur etwas rationalen Verstand hat, macht einen weiten Bogen um überteuerte Intel-CPUs und greift zu AMD.

y33H@
2017-07-15, 13:27:37
macht doch mal benchmarks mit chrome und 30 tabs, skype, anti viren, steam und dazu das spiel. nebenher laeuft noch ein download, das waere zumindest mal realistisch.Macht recht wenig aus, siehe hier: https://www.golem.de/news/creators-update-game-mode-macht-spiele-runder-und-windows-10-ruckeliger-1704-127400-2.html

Screemer
2017-07-15, 13:31:50
Macht recht wenig aus, siehe hier: https://www.golem.de/news/creators-update-game-mode-macht-spiele-runder-und-windows-10-ruckeliger-1704-127400-2.html
aha. bei grakas sind 5-15% eine ganze leistungsklasse. hier macht es also fast nichts aus. komische sichtweise.

der wichtigste satz ist eigentlich:

Beim Desktop-System beeinflusst die gleiche Hintergrundlast inklusive Foto-Export das von uns genutzte Gears of War 4 durchnittlich wenig, es ruckelt aber immer wieder

vinacis_vivids
2017-07-15, 13:49:39
Die drops sind ja egal ^^

y33H@
2017-07-15, 14:11:21
aha. bei grakas sind 5-15% eine ganze leistungsklasse. hier macht es also fast nichts aus. komische sichtweise.Deine Aussage, nicht meine. Ich halte +10 % in der Praxis für wenig relevant - die Drops können aber freilich stören. Davon ab sollte das gezeigte Verhalten jedem klar sein.

Screemer
2017-07-15, 14:18:21
Deine Aussage, nicht meine. Ich halte +10 % in der Praxis für wenig relevant - die Drops können aber freilich stören. Davon ab sollte das gezeigte Verhalten jedem klar sein.
du bist doch nicht erst seit gestern hier und in anderen foren aktiv. ich halte 10-15% für völlig irrelevant aber schau dir mal die ganzen fanboykriege an. aktuell z.b. im 1000€ budget pc im kaufberatungsthread. da wird eine 1060 für 30% mehrpreis bei 5-10% weniger leistung krampfhaft empfohlen und andere wünsche/vorteile schlicht ausgeblendet. da bekomm ich das kotzen.

das die ruckler das spielvergnügen trüben können ist den meisten auch nicht bewusst, denn sie haben schlicht noch nie ohne gespielt. an dieser dissonanz solltet ihr als redakteure imho vor allem arbeiten.

Daredevil
2017-07-15, 15:26:00
@Stefan

Ich rede nur aus Spieler Sicht, mehr nicht.

Ey ich bin doch dafür, dass wir meinetwegen auch mit 128 Threads unser Rocket League spielen können, aber als Gamer bringt mir das einfach nichts. Dann sollen die doch eine Skylake Crap CPU machen mit 18 Kernen, aber sollen bei einer Auslastung von 4 Kernen 4.5Ghz+ da anliegen haben, die Kühlmöglichkeiten durch diesen Riesen Sockel sind doch da.

Das geht mir nur ehrlich auf den Sack.
Ein Threadripper soll doch bitte nicht nur massiv parallel arbeiten können sondern für 1000€ auch einen 4Kerner für 100€ wegputzen können.

Schön, das du die Mobilen Prozessor erwähnst, gerade da zeichnet sich eben das Bild ab, was ich gerne hätte.
Ein Helio X27 hat 10 verdammte Kerne und stattdessen man 10 mal den gleichen Kram reinhaut gibt es halt Abstufungen.
CPU Cluster 1:
ARM-A72 @ 2.6GHz
CPU Cluster 2:
ARM-A53 @ 2.0GHz
CPU Cluster 3:
ARM-A53 @ 1.6GHz
Die A53 sind Stromsparend und hauen hauen bei parallelen Operationen Strom effizient die Leistung auf die Straße, bei allen anderen kleinen Operationen, die aber schnell ausgeführt werden, lässt der A72 die Muskeln spielen.

10x A53 wäre schnarchlangsam
10x A72 wäre ineffizient

Und das ist eben das Taktverhalten der "neuen" CPUs, egal ob bei Intel oder AMD.
Entweder ich habe wenige schnelle Kerne und bringe Leistung in Spielen ( 4/6, vielleicht auch 8 ) oder ich kann nur mit Brechstange und Dampfhammer ineffizient Leistung auf die Straße bringen, weil der Prozessor "zu" groß ist ( 10c, 12c, 16c, 18c ).

Demnach bringt dir ein 1000€ Prozessor heute nicht die Leistung, die man erwartet, wenn man das auf den Tisch legt und dir ein 6 Kerner vorbei flitzt.
Das finde ich einfach schade und ist nochmals, nur der Blick als Gamer.

Mein 6 Kerner ist im Multi Thread ca 10% schneller als ein 7700k Stock.
Im Single Thread ist der 7700k dafür 37% schneller.
Die Frage ist jetzt, was mich bei meinen alltäglichen Operationen heute und in 2-3 Jahren am schnellsten vor ran treibt. ¯\_(ツ)_/¯

Complicated
2017-07-15, 15:51:33
Ich denke dass genau dieses BigLittle-Konzept im Desktop kommen wird. AMDs Entwicklung geht ja auch genau in diese Richtung. Derzeit sind es noch bis zu 4 identische CPU-Dies die AMD in dieser ersten Stufe nutzt. Als nächstes ist die GPU dran und die Infinity Fabric wird weiter entwickelt. HSA wurde nicht umsonst entwickelt, so dass dann eben der Interposer irgendwann nur noch ein Setzkasten ist wo "Chiplets" mit entsprechenden Eigenschaften für den anvisierten Markt verbaut werden. Bomby hat dazu ein Patent von AMD gesichtet:
http://www.freshpatents.com/-dt20170713ptan20170200672.php
Hier sind aktive Interposer-Anteile verbaut um die Kommunikation der Chiplets noch zu beschleunigen.

Die Chiplets selber sind dann von der Diegröße auf optimale Wirtschaftlichkeit bei der Fertigung ausgerichtet, so wie es derzeit bei Epyc und Threadripper umgesetzt wird. Ich denke der Schritt wird bei 7nm erfolgen, vermutlich mit Navi zuerst im GPU-Bereich

Effe
2017-07-15, 16:12:00
Bei 5-15% Rückstand wird gerne mal von (Spiele-) Schwäche gesprochen.

HOT
2017-07-15, 17:05:16
Aber wenn jetzt jemand einen High-End Gaming PC kaufen will, dann gibt es aktuell keine große Diskussion. 7700k und 1080Ti.
Nein. Einfach nein.

bun
2017-07-15, 17:20:44
Ey ich bin doch dafür, dass wir meinetwegen auch mit 128 Threads unser Rocket League spielen können, aber als Gamer bringt mir das einfach nichts. Dann sollen die doch eine Skylake Crap CPU machen mit 18 Kernen, aber sollen bei einer Auslastung von 4 Kernen 4.5Ghz+ da anliegen haben, die Kühlmöglichkeiten durch diesen Riesen Sockel sind doch da.

Das geht mir nur ehrlich auf den Sack.
Ein Threadripper soll doch bitte nicht nur massiv parallel arbeiten können sondern für 1000€ auch einen 4Kerner für 100€ wegputzen können.

[...]

Und das ist eben das Taktverhalten der "neuen" CPUs, egal ob bei Intel oder AMD.
Entweder ich habe wenige schnelle Kerne und bringe Leistung in Spielen ( 4/6, vielleicht auch 8 ) oder ich kann nur mit Brechstange und Dampfhammer ineffizient Leistung auf die Straße bringen, weil der Prozessor "zu" groß ist ( 10c, 12c, 16c, 18c ).

Demnach bringt dir ein 1000€ Prozessor heute nicht die Leistung, die man erwartet, wenn man das auf den Tisch legt und dir ein 6 Kerner vorbei flitzt.
Das finde ich einfach schade und ist nochmals, nur der Blick als Gamer.

Mein 6 Kerner ist im Multi Thread ca 10% schneller als ein 7700k Stock.
Im Single Thread ist der 7700k dafür 37% schneller.


Erstens sind diese Prozessoren nicht primär an Spieler addressiert, eben weil nach wie vor Spiele nicht so gut parallelisiert sind, um diese Prozessoren auszuschöpfen. Das bei mehr Kernen die Taktraten sinken, ist eine technische Notwendigkeit. (Yield, TDP, ..) Bei Threadripper und i9 sind die Boosttakte doch nahezu identisch mit den kleineren Modellen ?! Bei Threadripper fehlen 100Mhz XFR zum 1800X, und bei Intel fehlen 200Mhz zum 7700k.
Du bist hier im Thread eher deplatziert.

MikePayne
2017-07-15, 17:31:05
In den letzten Wochen nutze ich immer mehr Anwendungen im Hintergrund/nebenbei (Grund: Twitch-Streaming, siehe Signatur).
Der FX-8320 hat mittlerweile seinen zweiten oder dritten Frühling, 8 Threads regeln
(CPU-Encoding, gleichzeitig OBS/Discord und das Game selbst plus Browser usw)!
Ich sehe gleichzeitig auch genug Leute, die mit (alten) i5/i7-CPUs hart am Limit fahren oder gar einen separaten Streaming-Rechner brauchen.

tldr: Mehr Kerne gehen immer, Investition für die Zukunft.
Der 1920X wäre schon ganz nett und würde bestimmt auch 5 Jahre+ halten :)

Tesseract
2017-07-15, 17:51:07
Was mich immer verwundert ist, dass der hier beschworene "Gamer" ja sein PC wirklich nur zum "Gamen" benutzt?!

keine E-Book-Verwaltung mit Inhaltssuche?
keine Desktop-Suche/Index wie Copernic, X-Search?
keine mp3-Bibliothek?
keine Fotobearbeitung in RAW und Bibliothek?
keine Filme?
kein Crunchen im Hintergrund?
keine "Contenterstellung"?
keine 1000+ Dokumente für Arbeit/Studium?

daran ist überhaupt nix verwunderlich: gaming ist zeitkritisch, das meiste andere zeug nicht. wenn dir in einem spiel 20% fps fehlen stört das die ganze zeit, wenn irgendein task der ab und zu mal für ein paar sekunden oder sogar nur millisekunden 20% länger braucht spielt das keine nennenswerte rolle. das einzige was eventuell neben dem aktiven spiel noch herlaufen könnte sind dinge wie streaming, VoIP und vielleicht noch ein audioplayer und das wars dann eigentlich schon.

//differentRob
2017-07-15, 17:52:21
z.b. EA hat ja letztes Jahr entschieden nur noch Frostbite als Gameengine bei künftigen Spielen zu verwenden. Glaube somit ist schon mal eine kleine Tendenz erkenntlich wohin die Reise geht.

Deswegen aber gleich einen 1920x in der Absicht für 5-7 Jahre zu ordner halte ich trotzdem für falsch. Je nach dem ist die Plattform dann als ganzen "überaltert" - es fehlen einem neue Schnittstellen und Standards (z.b. pcie 4.0). Aber mit einem Ryzen 1800X macht man jetzt sicher nichts falsch!

Menace
2017-07-15, 18:33:27
@Tesseract: Ich vermute, Du arbeitest nicht häufig mit dem PC. Ich finde nichts nerviger, als wenn eine Indizierung mal kurz ein Werkzeug lahmlegt; wenn ein Pinsel einfach etwas träge ist oder ich anstatt gleich meine konvertierten jpgs mit Metadaten versehen, verschieben und verschicken kann.

Aber ich weiß, es geht eigentlich nur um auf Spielen optimierte PCs, die möglichst wenig andere Programme im Hintergrund laufen haben (weil ja eh nie benutzt). Ja, dann geht auch bestimmt ein 4Kerner.

Tesseract
2017-07-15, 18:58:08
da vermutest du falsch. mach halt das ganze unnötige zeug aus was im hintergrund läuft, dann hängt das system auch nicht.

eratte
2017-07-15, 19:16:08
Dann bleibt doch einfach den Threads fern in den es um Hardware geht die offensichtlich nichts für euch ist. Ne dann lieber über "Gammeltaktraten " ablästern.

Es interessiert in dem Thread auch kaum einen was ihr alles beim "spielen" auf euren Rechner ausmacht.

maximus_hertus
2017-07-15, 19:37:14
da vermutest du falsch. mach halt das ganze unnötige zeug aus was im hintergrund läuft, dann hängt das system auch nicht.

Warum sollte ich/jemand das wollen? Wenn es Hardware gibt, die das hinbekommt, dann nehme ich den Komfortgewinn doch mit?

StefanV
2017-07-15, 19:41:29
Aber wenn jetzt jemand einen High-End Gaming PC kaufen will, dann gibt es aktuell keine große Diskussion. 7700k und 1080Ti.
Aber wenn jetzt jemand einen High-End Gaming PC kaufen will, dann gibt es aktuell keine große Diskussion. E8600 und GTX280.

Merkst du selbst, oder?!
Das ist der gleiche Unsinn, der von den Intel Fans vor fast 10 Jahren kam, als die Phenom II draußen waren. Die Phenom II wurden auch von allen madig geredet. Und was war die langfristig sinnvollere Anschaffung?! RICHTIG, der Phenom II. Und nicht der Core 2 Duo, egal ob Single Die oder Dual Die...

Langfristig ist der 7700K das Äquivalent zum C2D E8400. (2C, hoher Takt für 2008) Wer regelmäßig aufrüstet: ok. Langfristig war selbst der Q6600 (4C) mit niedrigerem Takt wesentlich besser. Das gleiche wird wahrscheinlich für 6C+ gelten.
Dem ist nichts mehr hinzuzufügen.
Außer, dass es traurig ist, dass viele Leute die Parallelen nicht sehen wollen.

Takt und IPC stoßen immer mehr gegen eine Art Wall. Die Skalierung wird gezwungenermaßen über Multithreading laufen müssen.
Genau das ist doch das Problem!
Das hab ich doch in meinem letzten Posting mehr als verdeutlicht!

Schaut doch mal auf 'die letzten 10 Jahre'. Da sieht man dann Core 2 CPUs mit 3GHz und mehr.
Heute sind wir nicht viel weiter. Und auch 4 Kerne gab es damals schon...

10 Jahre vorher waren 0,35µ CPUs 'normal'. Sprich 300MHz Klamaths das höchste der Gefühle. Die meisten dürften irgenwas mit 166-233MHz gehabt haben - wenn überhaupt...
MMX gab es zwar schon, SSE war aber noch in weite Ferne. Und Mehrprozessor Systeme unüblich...
Und somit reden wir hier von von AMDs K6, Intels Pentium I und II...

Und weitere 10 Jahre vorher, 1987, reden wir von i386 Prozessoren. Der i486 kam erst 1989...
Und als Prozess war hier die Rede von 1,5µ, 1µ, später 0,8µ.
Maximaler Takt dieser frühen i80386 waren 20MHz, 25MHz kam erst 1988...

http://www.x86-guide.com/en/cpu/Intel-386DX-20-PGA-cpu-no862.html
http://www.x86-guide.com/en/cpu/Intel-386DX-25-PGA-cpu-no13.html

Und der 20MHz 386DX wurde auch gerade erst am 16. Februar 1987 vorgestellt...

Da kommt man in den Thread, glaubt man liest was zur HEDT Plattform von AMD mit mindestens 12 Kernen, und dann liest man ständig was von 4 Kernen bei Intel oder von mir aus auch was zum "normalen" Ryzen...
Ja, verstehe auch nicht, was der Unsinn mit den 'Low Core CPUs' hier soll...
Wenn man wenigstens über Massiv Parallele CPUs mit 8 Cores und mehr reden würde, aber hier schmeißt man dauernd 4 Core CPUs rein, die eher für maximal 100$ den Besitzer wechseln sollten...

@Stefan
Ich rede nur aus Spieler Sicht, mehr nicht.
Ich auch
Was an dem Vergleich zum E8600 vs. Phenom II X4 hast du nicht verstanden??



aber als Gamer bringt mir das einfach nichts.
Das ist doch der gleiche Unsinn wie damals als die Dual Cores und später die Quad Cores kamen.

"Nimm mehr Takt, die zusätzlichen Kerne bringen dir nix. Davon wird ein Spieler nie profitieren"
Das waren die Aussagen damals. Dass die nachweislich völlig falsch waren, brauch ich ja wohl nicht zu erwähnen, oder??


Das geht mir nur ehrlich auf den Sack.
Mir auch, weil die Vergangenheit gezeigt hat, dass die Behauptung 'nimm mehr Takt, nicht mehr Cores' schlicht falsch war.
WARUM soll es gerade jetzt wieder anders sein?!
Welche Möglichkeiten der Performance Steigerungen hat man denn noch?!

Schön, das du die Mobilen Prozessor erwähnst, gerade da zeichnet sich eben das Bild ab, was ich gerne hätte.
Ein Helio X27 hat 10 verdammte Kerne und stattdessen man 10 mal den gleichen Kram reinhaut gibt es halt Abstufungen.
Ja, Performance und Efficiency...
Das macht man im Desktop Bereich momentan nicht, weil es keine Unterstüzung von seitens des Betriebssystems (und den Anwendungen) gibt. Das gibt es aber sehr wohl im mobilen Bereich, was diese Möglichkeit gerade erst ermöglicht...


Demnach bringt dir ein 1000€ Prozessor heute nicht die Leistung, die man erwartet, wenn man das auf den Tisch legt und dir ein 6 Kerner vorbei flitzt.
Das finde ich einfach schade und ist nochmals, nur der Blick als Gamer.
Merkst du nicht, dass du die gleiche Propaganda wie zu Zeiten von Single Core/Dual Core und nur rund 2 Jahre später Quad Cores versuchst zu verbreiten?
Das war damals kompletter Unsinn, warum soll es sich gerade jetzt geändert haben?! Warum soll gerade jetzt der 4 Kerner besser sein als damals der 1 Kern?!

Und noch einmal:
Es hat NUR etwa 2 Jahre gedauert, von Dual Cores auf Quad Cores. Und 10 Jahre von Quad Cores auf Octa Cores im normalen Desktop...

Ich denke dass genau dieses BigLittle-Konzept im Desktop kommen wird.
Früher oder später, ja.
Wenn es von M$ endlich den Support dafür in Windows 10 geben wird. Vorher wird das schwierig...

aufkrawall
2017-07-15, 19:43:22
Warum sollte ich/jemand das wollen? Wenn es Hardware gibt, die das hinbekommt, dann nehme ich den Komfortgewinn doch mit?
Ist die Frage, was Komfort ist, und was eine schlechte Angewohnheit.
Für manche sind ja auch 30 Desktopicons "Komfort".

Tesseract
2017-07-15, 19:46:26
Wenn es Hardware gibt, die das hinbekommt

die was genau hinbekommt? wenn der stall ein schedulingproblem, ein festplattenbottleneck etc. ist besteht das problem möglicherweise auch mit 1000 cores noch. "Crunchen im Hintergrund" ist da z.B. schon mal eine red flag.

aufkrawall
2017-07-15, 19:50:46
Zumal dir der Browser auch GPU-Ressourcen klaut. Es kann da zwischendurch immer Stalls geben und auch Treiber-Probleme.

Sardaukar.nsn
2017-07-15, 20:37:41
@StefanV: Ich bezog mich auf den den aktuellen Stand der Dinge. Also was ist jetzt, heute Fakt. Das ist i7-7700k und 1080Ti. Am besten unter Wasser.

Was langfristig besser sein könnte bewegt sich im Reich der Spekulationen. Bei einem Blick in die Spiele-Glaskugel würde ich mir aber die Konsolen anschauen. Da sehen wir auch bei den aktuellsten wie PS4 pro oder XBox Scorpio starke GPUs aber eben auch (leider) nur lahme 8-Thread Jaguar Cores. Ob Spielekonsolen in Zukunft (PS5 in 2019/2019?) auf mehr als 8 Threads setzen steht in den Sternen.
Moderne Grafik-Engines wie DX12 oder Vulkan zeigen dagegen ganz deutlich das eher die Last von der CPU auf die GPU verschoben wird. Der Trend zu immer höheren auf Auflösungen pusht ebenfalls das GPU- und nicht das CPU-Bottleneck.

Daher mein Standpunkt als PC-Spieler, mit 8 schnellen, logischen CPU-Kernen, das übrige Budget für dieses Hobby eher in Grafikkarten, Bildschirme oder sonstige Hardware zu investieren.

Lehdro
2017-07-15, 20:41:01
Ich denke dass genau dieses BigLittle-Konzept im Desktop kommen wird.
Hallo, aufwachen! Das "BigLittle" Konzept ist schon längst da, nennt sich: Turbo/Boost oder XFR. Damit gleichst du meist schon den 7700k Rückstand aus, zumindest wenn du nicht gerade 720p spielst....
Bei 5-15% Rückstand wird gerne mal von (Spiele-) Schwäche gesprochen.
Das ist es was mich richtig anstinkt bei unserer Technikpresse und vielen Forenusern. 10% beim Windowsgamingmode sind "insignifikant" und die Microruckler werden als unwichtig abgetan. Bei CPU Benches hingegen werden bei 5-15% Rückstand einfach mal sämtliche Register gezogen und das Produkt diskreditiert. Sucht euch mal eins aus...

Menace
2017-07-15, 20:54:32
die was genau hinbekommt? wenn der stall ein schedulingproblem, ein festplattenbottleneck etc. ist besteht das problem möglicherweise auch mit 1000 cores noch. "Crunchen im Hintergrund" ist da z.B. schon mal eine red flag.

Vor einem dreiviertel (?) Jahr suchte ich genau eine Software, mit der man mit einem Klick alle für das Spielen unnötige Hintergrundanwendungen schließt (X1-Search, IMatch, Nextcloud, Boinc, Outlook, Wallpaperpro, dropbox, skype, Vivaldi,...). Eine CPU-Generation später (FX8350 -> 1700) kann ich zocken (natürlich mit Hilfe von mehreren SSDs) und fahre nur die Anzahl von Aufgaben in Boinc runter (wobei bei großer Belastung Boinc sowieso in Pausemodus geht); der Rest darf im Hintergrund weiter arbeiten.

Aber jeder wie er es möchte.

Mein 1700 wird bestimmt einige Jahre machen und dann in der Familie weiter gegeben; aber ich muss wohl auch bewusst manches Angebot eines Threadrippers ignorieren.

aufkrawall
2017-07-15, 20:57:01
Outlook, Wallpaperpro, dropbox, skype, Vivaldi
Wow, das frisst ja alles ohne Ende CPU. Nicht. Was ein konstruierter Blödsinn.

Lehdro
2017-07-15, 21:04:06
Wow, das frisst ja alles ohne Ende CPU. Nicht. Was ein konstruierter Blödsinn.
Ist das dein ganzes Argument? Ja? Dann machs mal gut.
Es geht nicht darum WAS du nebenbei anhast, sondern das es Leistung zieht. Wenn man aber Leistung übrig hat, da man eh keine 4C/8T Krüppel CPU haben will, um die Microruckelei von vorneherei zu unterbinden, kann man das doch nutzen um zeiteffizient mehrere Sachen am PC zu machen, oder? Das kann doch nicht so schwer zu kapieren sein und dabei ist es eben völlig egal WAS das für Anwendungen sind.

aufkrawall
2017-07-15, 21:09:48
Dann poste mal Frametimes, die das zeigen. :cool:

Lehdro
2017-07-15, 21:14:30
Mir reicht die Frametimeanalyse vom Skylake-X aus der PCGH im Vergleich mit älteren um zu sehen das 4C/8T eben nicht reichen. Vorallem nicht wenn eine wie auch immer geartete Hintergrundlast hinzukommt - wenn der 7700K bei BF1 zum Beispiel schon zu 100% ausgelastet wird, was denkst du was passiert wenn da mehr Last durch andere Anwendungen dazwischenfunkt. Dazu brauche ich dir keine Frametimes zeigen, das erledigt der gesunde Menschenverstand. Oder denkst du es wird auf einmal besser?

Screemer
2017-07-15, 21:17:08
das ist doch überhaupt nicht reproduzierbar. bei 30 minuten gameplay hakt es manchmal und solche sachen können bei nem wechsel durchaus verschwinden. ist natürlich unvorstellbar.

aufkrawall
2017-07-15, 21:18:14
Die von mir zitierten Programme haben i.d.R. kaum bis gar keine Last.
Und viel Spaß mit den ganzen Videos von Spielen, die mit 8T zu 99% komplett sauber laufen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581728

Lehdro
2017-07-15, 21:28:22
Die von mir zitierten Programme haben i.d.R. kaum bis gar keine Last.
Und viel Spaß mit den ganzen Videos von Spielen, die mit 8T zu 99% komplett sauber laufen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581728
Und was ist mit den Spielen die eben NICHT rund laufen? Genau um die geht es, die sind jetzt schon am Limit, was denkst du was passiert wenn da noch mehr Last hinzukommt? Schau mal auf die Frametimediagramme von CB:
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-battlefield-1-dx11-multiplayer-frametimes-ryzen-7-1800x-gegen-core-i7-7700k

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-f1-2016-frametimes-ryzen-7-1800x-gegen-core-i7-7700k

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-watch-dogs-2-frametimes-ryzen-7-1800x-gegen-core-i7-7700k

aufkrawall
2017-07-15, 21:30:05
Konnten wir im Video-Thread nicht nachstellen. Btw. sind Tests ohne Prerenderlimit 1 im Treiber für die Tonne, aber das ist dir wahrscheinlich unbekannt.

Lehdro
2017-07-15, 21:48:14
Konnten wir im Video-Thread nicht nachstellen
Messungen mit FCAT > eure Videoanalyse

Btw. sind Tests ohne Prerenderlimit 1 im Treiber für die Tonne, aber das ist dir wahrscheinlich unbekannt.
Welche Werte hat CB da eingetragen? Quelle?
Welche Werte tragen 99% aller Nutzer da ein? Wie reagiert der 7700k damit, was sind die belegbaren Unterschiede? Wie reagiert Ryzen damit? Wird er etwa NOCH besser?!

aufkrawall
2017-07-15, 22:13:29
Stell dir vor: Mirror's Edge Catalyst lief auf dem Ryzen R7 hier mit schlechteren Frametimes als auf dem i7, Wolcen Early Access genau so.
Ich hab das Heft nicht. Welche Spiele wurden getestet mit welcher Szene? Es gibt btw. keinen Grund anzunehmen, dass der RTSS-Graph Unsinn anzeigt.

Btw: Typische CPU-Auslastung hier mit einigem Hintergrund-Zeugs:
https://abload.de/thumb/mem92shk.png (http://abload.de/image.php?img=mem92shk.png)
:eek: :eek:
Ich hatte schon mit dem 2500k null Probleme mit Hintergrund-Last. Irgendeine merkbare Besserung dahingehend beim Upgrade auf einen R7 1700: gar keine.
Und wenn ich mal vergessen hab, den Browser zu schließen, impliziert ja schon "vergessen", dass man es nicht oder kaum bemerkt, sofern nicht drölfzig Tabs oder irgendein komischer Content laufen. Spätestens, wenn ein Spiel viele Kerne nutzt, merkt man das auch mit Ryzen.

Screemer
2017-07-15, 22:15:35
Na wie immer: du hast recht und wir unsere ruhe.

aufkrawall
2017-07-15, 22:17:19
Thx, aber wenn Tesseract etwas ähnlich sieht, reicht mir das als Bestätigung schon voll und ganz. :cool:

Screemer
2017-07-15, 22:30:04
die was genau hinbekommt? wenn der stall ein schedulingproblem, ein festplattenbottleneck etc. ist besteht das problem möglicherweise auch mit 1000 cores noch. "Crunchen im Hintergrund" ist da z.B. schon mal eine red flag.
Und wenn die stalls wie bei mance durch neun Wechsel auf den 1700er verschwunden sind, dann spricht man ihm das einfach mal ab? Kann ja nicht sein, dass andere nicht die gleichen Angewohnheiten haben wie man selbst. Ich mach z.b. gar nix zu was im Hintergrund läuft wenn ich ne runde zocken will. Da läuft häufig indesign, photoshop, lightroom mit vielen jobs und der Browser mit zich tabs, von denen viele per ajax zeug nachladen/aktualisieren. Dann tabe ich noch regelmäßig rein und raus aus games. Sicherlich nach eurer Vorstellung schlechte Angewohnheiten. Für mich Alltag und Komfort steigernd.

Menace
2017-07-15, 22:35:59
Da offtopic:

Aus...
(X1-Search, IMatch, Nextcloud, Boinc, Outlook, Wallpaperpro, dropbox, skype, Vivaldi,...).
wurde
Outlook, Wallpaperpro, dropbox, skype, Vivaldi
Und Du kommst zum Ergebnis:
Wow, das frisst ja alles ohne Ende CPU. Nicht. Was ein konstruierter Blödsinn.

Offenkundiger absichtlich verfälschend zitierend geht eigentlich auch nicht mehr. :freak: Keines dieser von Dir genannten Programme würden groß Ärger machen, sofern mal nicht wieder 20+ pdf in die Dropbox verschoben wurden, diese nach dem Download von X1-Search gelesen mittels Syncback-Pro auf die NAS und Nextcloud verteilt und von IMatch (inkl mittels exiftool getagt) getagt wurden. Alles im Hintergrund natürlich, ohne dass ich dabei das Spielen beendete bzw. davon überhaupt etwas merkte.

Willst Du mich mich veräppeln oder warum lässt Du die andere Programme weg? Und Du hast die punkte hinter der Aufzählung gesehen? Ich habe Antivirus nicht erwähnt, Logitech-Gaming-Software, Everything, ...

Es kann durchaus sein, dass man mit einem 4C/8T das auch noch alles im Griff hat; mein FX-CPU hatte häufig damit Probleme.

aufkrawall
2017-07-15, 22:37:54
Und wenn die stalls wie bei mance durch neun Wechsel auf den 1700er verschwunden sind, dann spricht man ihm das einfach mal ab? Kann ja nicht sein, dass andere nicht die gleichen Angewohnheiten haben wie man selbst. Ich mach z.b. gar nix zu was im Hintergrund läuft wenn ich ne runde zocken will. Da läuft häufig indesign, photoshop, lightroom mit vielen jobs und der Browser mit zich tabs, von denen viele per ajax zeug nachladen/aktualisieren. Dann tabe ich noch regelmäßig rein und raus aus games. Sicherlich nach eurer Vorstellung schlechte Angewohnheiten. Für mich Alltag und Komfort steigernd.
Diese positive Erfahrung hat er von einem Bulldozer mit Mülltonnen-IPC kommend. Stell dir vor: Ich hab die gleiche Erfahrung bei einem Wechsel von einem Phenom II X4 (hat ja die gleiche IPC) auf einen 2500k gemacht: Leistungsexplosion überall, auch unter Volllast viel snappier. Man macht es sich zu einfach, das nur auf die Anzahl der Threads zu schieben. Man müsste natürlich mit Skylake/Kabylake i7 vergleichen.

Tesseract
2017-07-15, 22:54:39
Und wenn die stalls wie bei mance durch neun Wechsel auf den 1700er verschwunden sind, dann spricht man ihm das einfach mal ab?

ich spreche überhaupt nix ab, ich sage nur, dass solche probleme meist eine ganz bestimmte ursache haben die man lösen kann ohne das problem mit rechenleistung zu bewerfen. ich mache auch nix zu beim zocken, ich komme aber auch nicht auf die idee einen numbercruncher laufen zu lassen oder irgendeinen indexing-service so zu schedulen, dass der wärend dem spielen angeht.

Menace
2017-07-15, 22:56:26
Da eigentlich offtopic (und deshalb auch mein letzter Beitrag dazu):

ich spreche überhaupt nix ab, ich sage nur, dass solche probleme meist eine ganz bestimmte ursache haben die man lösen kann ohne das problem mit rechenleistung zu bewerfen. ich mache auch nix zu beim zocken, ich komme aber auch nicht auf die idee einen numbercruncher laufen zu lassen oder irgendeinen indexing-service so zu schedulen, dass der wärend dem spielen angeht.

Wofür nutzt Du denn Dein PC so alles?

Lehdro
2017-07-15, 23:00:57
...

Kannst du jetzt mal aufhören den Thread zu derailen und den Usern Ihre Erfahrungen abzusprechen?

Wir wissen nun das niemand mehr als nen 7700K braucht.

Screemer
2017-07-15, 23:04:36
ich spreche überhaupt nix ab, ich sage nur, dass solche probleme meist eine ganz bestimmte ursache haben die man lösen kann ohne das problem mit rechenleistung zu bewerfen. ich mache auch nix zu beim zocken, ich komme aber auch nicht auf die idee einen numbercruncher laufen zu lassen oder irgendeinen indexing-service so zu schedulen, dass der wärend dem spielen angeht.
Allein wenn der windows search jnexer anspringt steigt die cpu-last schlagartig um 30% für wenige Sekunden. Das war auf meinem 2500k ein riesen Problem und ist es in abgeschwächter Form mit meinem 2600k immer noch. Das Problem würde ich gerne mit mehr Rechenleistung erschlagen.

Ex3cut3r
2017-07-15, 23:05:34
Diese Ryzen User, auf einmal wird neben dem spielen zig Sachen offen gelassen. Das Chrome und Co. aber auch GPU Ressourcen für sich beanspruchen wird einfach im Kauf genommen? Oh mann, oder muss man irgendwie seine 16T rechtfertigen? ;D

Da lach ich mir doch den Arsch ab!

DR.DEATH
2017-07-15, 23:07:10
Windows98 hat angerufen und möchte sein (Singlethread) Anwenderverhalten zurück...

Bootet hier wirklich jemand seinen PC neu (oder schließt alle Anwendungen) vorm Zocken?

Falls bei mir im Hintergrund oder Firefox mal wieder bissl Last (auf max. EINEM Kern) anliegt sind selbst in so genial fordernden Hardwarefresser Spielen wie CSGO ;D immer wieder Drops bis auf 30 FPS drin und die Runde/Match ist gelaufen.

Gerade diese Ruckler/Drops sind in jedem Shooter die Hölle.

@aufkrawall
Kann sein dass die 4c/8t noch einigermaßen das durch die SMT ausgleichen können (zumindest aktuell). Bei 4c ist das Ende der Fahnenstange aber längst erreicht.

Screemer
2017-07-15, 23:08:24
Diese Ryzen User, auf einmal wird neben dem spielen zig Sachen offen gelassen. Das Chrome und Co. aber auch GPU Ressourcen für sich beanspruchen wird einfach im Kauf genommen? Oh mann, oder muss man irgendwie seine 16T rechtfertigen? ;D

Da lach ich mir doch den Arsch ab!
Ich bin kein ryzen user :ugly:

@dr.death: das kann ich bestätigen. Hab vor nem Jahr von nem 2500k auf nem 2600k gewechselt und das waren damals schon Welten.

aufkrawall
2017-07-15, 23:11:59
Kannst du jetzt mal aufhören den Thread zu derailen und den Usern Ihre Erfahrungen abzusprechen?

Habe ich doch gar nicht. Im bezweifle es auch nicht, wenn mir jemand erzählt, er käme mit einem Rucksack voller Ziegelsteine langsamer ins Ziel als ohne.
Ändert aber nichts daran, dass einige der Programme entweder nur zur Effekthascherei aufgezählt wurden oder deren CPU-Anforderungen überschätzt werden.
Übrigens war das schon vor meinen Posts Thema, Schwarzer Peter brauchen wir auch nicht spielen.


Wir wissen nun das niemand mehr als nen 7700K braucht.
Musst du jetzt schon anderen Leuten ungetätigte Aussagen in den Mund legen?

Bei 4c ist das Ende der Fahnenstange aber längst erreicht.
Full ack, auch zunehmend bei Spielen allein.

Ex3cut3r
2017-07-15, 23:13:00
Ich bin kein ryzen user :ugly:

@dr.death: das kann ich bestätigen. Hab vor nem Jahr von nem 2500k auf nem 2600k gewechselt und das waren damals schon Welten.

Dich meinte ich auch gar nicht. Aber schon witzig wie manche ihren Privat PC angeblich benutzen, dachte immer Männer können eh nicht Multi Tasking, oder ich bin wohl zu blöd dafür. Bei mir läuft grade mal Chrome mit einem Tab und der Jdownloader im Hintergrund. Das wars.

Tesseract
2017-07-15, 23:14:32
Wofür nutzt Du denn Dein PC so alles?

gamen, surfen, multimediazeug, programmieren, content creation, fotobearbeitung - vieles was du aufgelistet hast und genau deswegen wundern mich deine aussagen auch etwas. mal als beispiel: auf 5 stunden bilder schießen und 1-2 stunden sortieren und developen (wenn überhaupt) kommt dann wieviel RAW-konvertierung? 30 sekunden? und zu keinem zeitpunkt hat man da ein spiel offen. du schreibst als würdest du den ganzen tag nix anderes machen als im hintergrund files zu jonglieren.

Screemer
2017-07-15, 23:15:52
Dich meinte ich auch gar nicht. Aber schon witzig wie manche ihren Privat PC angeblich benutzen, dachte immer Männer können eh nicht Multi Tasking, oder ich bin wohl zu blöd dafür. Bei mir läuft grade mal Chrome mit einem Tab und der Jdownloader im Hintergrund. Das wars.
Soll Leute geben die ihren PC für gaming und Arbeit nutzen...

Ex3cut3r
2017-07-15, 23:18:59
Soll Leute geben die ihren PC für gaming und Arbeit nutzen...
Ja, kann ich nur nicht, bzw. lenkt mich nur ab, und das Ergebnis ist am ende des Tages katastrophal.

Außerdem muss ich eh meistens im Team arbeiten. :redface:

Lehdro
2017-07-15, 23:34:16
Habe ich doch gar nicht.
Doch hast du, auf meine Argumente bist du quasi 0 eingegangen, sondern sofort zum nächsten Übergegangen. Informier dich mal spaßeshalber wie FCAT arbeitet und was das für deine RTSS Messungen bedeutet.

Musst du jetzt schon anderen Leuten ungetätigte Aussagen in den Mund legen?

Inwiefern kommst du darauf dass das deine Aussage sein soll? Das steht da mit keinem Wort. Aber getroffene Hunde bellen, nech?


Auch lustig wie hier alle von sich selber ausgehen und auf andere Schließen und wenns dann nicht passt wird halt mit kognitiver Dissonanz alles niedergeredet. Akzeptiert doch einfach das euer Usercase mit 0 Hintergrundlast nicht die Regel ist und ihr daher eure Gewohnheiten nicht auf alle Anwenden sollt. Wenn also User hier behaupten das bei Ihnen durchaus mal mehr im Hintergrund läuft einfach mal den Beißreflex ablegen und sich eingestehen das die wenigsten alles zum Zocken ausmachen, was sonst so an Software mitläuft. Das trifft vorallem auf den 08/15 User zu, wie der Windows 10 Gaming Mode beweist - wenn dieses Szenario doch so unbedeutend ist, wieso macht Microsoft dann so ein Gewese darum?

Ex3cut3r
2017-07-15, 23:42:44
Glaub kaum, dass du Krawall FCAT erklären musst, aber bist ja noch neu, daher kann das schon mal vorkommen. :freak:

Fragman
2017-07-15, 23:53:43
Diese Ryzen User, auf einmal wird neben dem spielen zig Sachen offen gelassen. Das Chrome und Co. aber auch GPU Ressourcen für sich beanspruchen wird einfach im Kauf genommen? Oh mann, oder muss man irgendwie seine 16T rechtfertigen? ;D

Da lach ich mir doch den Arsch ab!

wieso wird das jetzt auf amd reduziert, trifft fuer die intel nutzer mit mehr als 4 cores genauso zu.

Lehdro
2017-07-15, 23:55:55
Glaub kaum, dass du Krawall FCAT erklären musst, aber bist ja noch neu, daher kann das schon mal vorkommen. :freak:
Wow, welch Niveau. Jetzt hast du mir es aber gegeben. Ich hoffe du bist Stolz auf dich und erkennst wie weit du am Thema vorbei bist.

aufkrawall
2017-07-16, 00:13:31
Wenn du einen Vergleich RTSS vs. FCAT für sGPU kennst, der nennenswerte Abweichungen aufzeigt: Immer her damit!

Isen
2017-07-16, 00:15:34
Bei mir läuft grade mal Chrome mit einem Tab und der Jdownloader im Hintergrund. Das wars.

So verschieden können Menschen sein, ich hab: 52 Tabs offen, 165 Prozesse, Betriebszeit 22 Tage (Naja, jetzt 3 Stunden, war zwischenzeitlich im Bios) Durchgehende Last von ~18%
Mach ich auch nicht zu die Tabs, kein bock die zu schließen, um sie dann wieder öffnen zu müssen, weil ich was nachlesen will, testen will etc will da weitermachen wo ich aufgehört habe und will das sofort so haben wie ich das verlassen hab.

Ehrenamtlich mach ich noch Support bei nem Spiele Studio, da hab ich die ganzen Admin-Tools offen und bin mit den jeweiligen Game Servern verbunden, damit ich da sofort einschreiten kann, wenn da wieder nen User rum cheatet oder einfach gekickt werden muss.

Zwischendrin noch Skype mit Arbeitskollegen und da ich derzeit viel Home Office mache, teils mehrere Stunden Videoanrufe... wenn ich Pause mache, zock ich dann gern noch nen Ründchen LoL oder auch BF1 (naja jetzt nicht, derzeit nur ne 6600 GT drin :D )...

Kurzum, die Diskussion ist doch voll für die Füße.
Jeder handhabt sein Zeug doch völlig anders, dem einen reicht nen Quad, dem einen nicht, punkt.

Klar, den quatsch hab ich mit nem Quad auch gemacht, hab dann aber allerhand quatsch geschlossen, sonst blieben die kurzen Hänger nicht aus. Mit Tearing komme ich wunderbar klar, aber so Hänger krieg ich das kalte kotzen.


Edit:

Mal was anderes:

uThuZtttjpY

Ex3cut3r
2017-07-16, 01:58:36
52 Tabs? Bist du bei der Börse? Oder ist das alles JAV Porn? ;)

Ne, hast ja recht, ist ja ok. Was aber nicht Ok ist, ist das einige Ryzen User plötzlich ihre CPU in den Himmel loben, und jede Hardware ohne native 6/8C für unspielbar erklären.

Lächerlich und ich teile auch die Meinung das hohe getakte 4C only CPUs selbst heute und für 1+ Jahr reichen, vor allem wenn man ab WQHD zockt!

Naja, wer Ryzen braucht, soll sich den holen, aber Stocker hast du damit von Zeit zu Zeit auch. So toll ist die IPC leider nicht und Games können mit 16T nicht groß was anfangen. Ganz zu schweigen von der Plattform und den richtigen RAM Timings bzw. Boards.

Isen
2017-07-16, 02:24:02
Na klar, querbeet von Akte Wixx bis Zum Löten freigegeben, ist alles stets bereit :redface: :tongue:

Börse nein, aber im Finanzsektor.


Stocker hab ich bisher keine. Ehrlich nicht.
Durch meine Optimierungen liege ich eh on Par mit dem 6900K - wenn meine jetzigen Optimierungen Stable sind, sogar darüber und bin quasi gleich mit dem 7700k
Der Nachteil ist nur eben, dass das eben nicht mal eben "so" für jeden Gängige Praxis ist und nicht allgemein auf Ryzen umgemünzt werden kann, sondern Einzelfälle bleibt.

Sobald ich mir ne neue Graka geholt habe, da ich aufgrund der Mining Geschichte meine 290X noch gut verhökern konnte, mach ich gern Benchmarks, um das zu zeigen.
Bei Intel steckste das Ding halt in dat Loch, Deckel druff, Hebel runter, fertig.

Da braucht man nix großartig optimieren und Energien reinstecken - die ich aber gerne mache, weils mir Spaß macht.

Was Brett und Speicher betrifft läuft das bei mir optimal, nahezu perfekt. Benötigt nur Händisch ein wenig Aufwand (Zeitlich) - den man bei Intel halt nicht braucht (nicht wirklich jedenfalls) - was eben daran liegt, dass Intel alle Zeit der Welt hatte, und ohne wirkliche Konkurrenz ihre Core-i perfektionieren konnte, was auch bei der Software zutrifft, die auf Intel fast schon tot optimiert ist. Was jetzt in den nächsten Jahren geschieht, ist definitiv ein neumischen - soviel kriege ich im Finanzsektor mit.

Ex3cut3r
2017-07-16, 03:42:03
Ok, dann noch viel Spaß damit :up: ernst gemeint. :smile:

Menace
2017-07-16, 09:12:02
@Tesseract

gamen, surfen, multimediazeug, programmieren, content creation, fotobearbeitung - vieles was du aufgelistet hast und genau deswegen wundern mich deine aussagen auch etwas. mal als beispiel: auf 5 stunden bilder schießen und 1-2 stunden sortieren und developen (wenn überhaupt) kommt dann wieviel RAW-konvertierung? 30 sekunden? und zu keinem zeitpunkt hat man da ein spiel offen. du schreibst als würdest du den ganzen tag nix anderes machen als im hintergrund files zu jonglieren.

Konvertierung geht dank OpenCl, Nano und C1 fix. Bei 300+ Fotos wenige Minuten (noch nicht wirklich gemessen). Erfahrungsgemäß geht das aber wesentlich smoother mit dem 1700 als mit dem FX (größe eines Fotos 40 MB).

Aber darum geht es nicht, sondern das Verschlagwortung braucht mehr Zeit. Um 300+ Fotos entsprechend mit Metadaten zu schreiben, verschlagworten oder importieren, braucht es schon mal 1h. (Bsp.: Datenbankinhalt 900 GB, Größe 3 GB, 17 000 Verzeichnisse, 200 000 Dateien).

Solche Sachen darf der 1700 ruhig im Hintergrund machen und ich kann trotzdem spielen.


Bei mir hat früher schon allein das windowseigene Suchsystem mein System verlangsamt. Ich möchte trotzdem auf keine Desktop-Suche wie Copernic oder X1-Search verzichten. Wenn die ihre Indexierung anschmeißen frisst das definitiv Leistung.

Müsst Ihr übrigens "Executer" zitieren? Ihr führt das Ignoriersystem ad absurdum.

robbitop
2017-07-16, 11:45:47
z.b. EA hat ja letztes Jahr entschieden nur noch Frostbite als Gameengine bei künftigen Spielen zu verwenden. Glaube somit ist schon mal eine kleine Tendenz erkenntlich wohin die Reise geht.

Deswegen aber gleich einen 1920x in der Absicht für 5-7 Jahre zu ordner halte ich trotzdem für falsch. Je nach dem ist die Plattform dann als ganzen "überaltert" - es fehlen einem neue Schnittstellen und Standards (z.b. pcie 4.0). Aber mit einem Ryzen 1800X macht man jetzt sicher nichts falsch!
Wobei das Argument der vermeintlich veralteten Plattform IMO übertrieben ist. Zumiest ist das eher eine moralische Veraltung. Ich sehe in der Praxis selbst bei der Nehalem Plttform von 2008 kaum Nachteile. Ob SATA oder M2 ist für 99% der Anwendungsfälle in der Praxis relativ irrelevant. PCIe 2.0 16x macht wahrscheinlich selbst heute ggü dem Nachfolger oder dessen Nachfolger kaum einen fühlbaren Unterschied. Für viele andere Schnittstellen gibt es Erweiterungskarten.
IMO wird hier gern übertrieben.

//differentRob
2017-07-16, 12:35:37
Das stimmt schon robbitop.

Aber nehme ich z.b. mein i7 2600k @4.4ghz. Der würde eigentlich noch immer ganz gut reichen. Hat aber gegenüber neueren Quadcores den Nachteil mit dem schmalen Speicher. Könnte ich Sandy die gleichen Riegel spendieren wie z.B. KabyLake, so wäre die Differenz wohl im einstelligen % Bereich wo KabyLake bei gleichem Takt vorne liegen würde.

Was die PCIe Spezifikationen angeht hast du völlig recht. Zumal SLI/CF ganz klar immer weniger wird.

Schaffe89
2017-07-16, 12:42:10
Doch. Wer 2017 noch 4 Kerne kauft, handelt extrem kurzfristig und verbrennt sein Geld für 10% Mehrleistung

Ich finds interessant das immer wieder zu lesen, sind es doch bei PCGH, 3DCenter und anderen regelmäßig bis zu 40% Differenz zwischen den CPu´s in Spielen und vor allem in early Access Spielen stinkt Ryzen ab.

Ihr glaubt doch nicht dass ein Ryzen 1800x die 20% was er hinter dem 7700k in Spielen liegt innerhalb von wenigen Jahren Nutzungszeit aufholt.
Wer sich einen Gaming PC kauft der kauft sich in der Regel das beste was er für sein Geld bekommen kann und das ist entweder ein 7700K + OC oder ein gebrauchter 6800k + OC.

Ryzen ist eine gute Investition im Bereich von 200 Euro für Gaming.
Ein Ryzen 1700 ist im vergleich zum 7700K aber nicht vorzuziehen, alles andere sind im Endeffekt Fake News oder das Gesabbel von irgendwelchen Anhängern einer Marke.

statt sich eine langlebige 8 Kern CPU zu kaufen. Kann man machen wenn man das als Hobby sieht, sollte dann aber mit dem Gestocke und Geruckel in den Spielen leben können, bei denen 4 Kerne heute schon zu wenig sind,

Das einzige Spiel in dem 4 Kerne nicht mehr reichen ist eine Grafikdemo Namens Ashes of the Singularity und nicht mal da ruckelt oder stockt es mit 4Kernern + SMT.

Prinzipiell ist es ratsam im PC Geschäft nie auf irgendwelche Wahrsager zu hören, sondern einfach nach Leistung zu kaufen.
Bis die Ryzen 8 Cores mal einen 7700k überholen, gibts schon lange bessere Multithreader am Markt.:redface:

und man muss auch damit leben das die CPU in 1-3 Jahren zum Alteisen

Genau das wird mit einem Ryzen 8 Core genauso passieren.
Er wird in Punkto Gaming Alteisen sein, genauso wie ein vergleichbar schneller Haswell 8 Core.

Manche wollen ja auch Threadripper für Gaming kaufen und kapieren nicht, dass NUMA Code nicht für Spiele kommen wird.

Bei 5-15% Rückstand wird gerne mal von (Spiele-) Schwäche gesprochen.

Das kommt daher dass du den Rückstand geringer darstellst als er ist.
Es sind immer noch je nach Spiel bis zu 40% Rückstand.
Und egal an was es liegen mag, so einfach kann man das nicht wegdiskutieren.:rolleyes:

Diese Ryzen User, auf einmal wird neben dem spielen zig Sachen offen gelassen. Das Chrome und Co. aber auch GPU Ressourcen für sich beanspruchen wird einfach im Kauf genommen? Oh mann, oder muss man irgendwie seine 16T rechtfertigen? ;D

Da lach ich mir doch den Arsch ab!

Ach die Propaganda hat noch lange nicht den Höchststand erreicht.
Spätestens wenn sich die Leute Threadripper kaufen, dann können sie endlich richtig multitasken und glatten Frametimes zocken.
Ich frage mich wie ich überhaupt auf meinem i3 Drittsystem regelmäßig zocken kann, laut einigen wird das ja wegen der Frametimes gar nicht mehr funktionieren und nur noch ruckeln.
Hätte AMD ihren Ryzen noch nich released, dann wäre die Diskussion nie aufgekommen und jeder hätte sich dann wieder den 7700k geholt und gesagt wie sinnfrei es doch ist Broadwell E für ein Spielesystem zu kaufen.
Ich denke ich hätte mit statt dem Ryzen 1600 doch lieber einen 7700k ins Spielesystem geschnallt, da hätte ich wenigstens ne Mehrleistung zum 6600k gehabt.
Einige Spiele laufen nämlich trotz Ryzen OC merklich langsamer.

Menace
2017-07-16, 12:50:18
Prinzipiell ist es ratsam im PC Geschäft nie auf irgendwelche Wahrsager zu hören, sondern einfach nach Leistung zu kaufen.
Bis die Ryzen 8 Cores mal einen 7700k überholen, gibts schon lange bessere Multithreader am Markt.:redface:


:eek: Schaffe, Du hast es wieder mal geschafft und mich zum Lachen gebracht ;D So viel Selbsterkenntnis und Selbstkritik hätte ich Dir gar nicht zugetraut.
Ein 8C (Ryzen oder intel egal; aber gibt es effiziente 8kerner von intel für 300 €?) lohnt jetzt schon, wenn man auch bestimmte Anwendungen neben seinen Spielen nutzt.

Schaffe89
2017-07-16, 13:09:41
So verschieden können Menschen sein, ich hab: 52 Tabs offen, 165 Prozesse, Betriebszeit 22 Tage (Naja, jetzt 3 Stunden, war zwischenzeitlich im Bios) Durchgehende Last von ~18%

Du bist doch als einer bekannt der recht aggressiv immer pro AMD Meinungen vertritt, da wundert mich dein lächerlicher Anwendungsfokus eigentlich überhaupt nicht. Deine offenen Tabs belegen vor allem jede Menge Arbeitsspeicher und es gibt eigentlich im Browser recht schöne Funktionen die es ermöglichen nicht gleichzeitig 52 TABS offen zu haben.
52 Tabs? Seriously?

Wie soll denn das in irgendeiner Form noch übersichtlich sein.
Und anstatt Firefox dann zu schließen und später wieder zu öffen, lässt du während dem Gaming natürlich die ganze Schose offen, weil... ja weil halt.

Mach ich auch nicht zu die Tabs, kein bock die zu schließen, um sie dann wieder öffnen zu müssen, weil ich was nachlesen will, testen will etc will da weitermachen wo ich aufgehört habe und will das sofort so haben wie ich das verlassen hab.

Mhm.:biggrin: Dann mach doch Firefox zu und wieder auf, dann öffnen sich deine Tabs von ganz alleine wieder.

Ehrenamtlich mach ich noch Support bei nem Spiele Studio, da hab ich die ganzen Admin-Tools offen und bin mit den jeweiligen Game Servern verbunden, damit ich da sofort einschreiten kann, wenn da wieder nen User rum cheatet oder einfach gekickt werden muss.

Ja das ist dann ein offener Tab.Wow.

Zwischendrin noch Skype mit Arbeitskollegen und da ich derzeit viel Home Office mache, teils mehrere Stunden Videoanrufe... wenn ich Pause mache, zock ich dann gern noch nen Ründchen LoL oder auch BF1 (naja jetzt nicht, derzeit nur ne 6600 GT drin :D )...


Das riecht ja nach jeder menge Anforderungen wenn du nicht mal eine vernünftige Grafikkarte in deinem Rechner hast.:rolleyes:

Kurzum, die Diskussion ist doch voll für die Füße.
Jeder handhabt sein Zeug doch völlig anders, dem einen reicht nen Quad, dem einen nicht, punkt.

Nein, die Diskussion ist schon lange an einem Punkt wo nur noch versucht wird irgendein abstruses Szenario zu konstruieren um Käufe eines Produktes zu rechtfertigen. Du hast einfach keine relevante Hintergrundlast bei einem 4Kerner mit SMT.
Und diejeniegen die ihre Multimedia Software durchlaufen lassen, haben nur eine sehr geringe zeit in der die CPU richtig arbeiten muss.
Bringen tut das nur was in einem produktiven Umfeld, ansonsten sind die Vorteile eines 8 Kerners gegenüber 4 schnellen Kernen sehr begrenzt.

:eek: Schaffe, Du hast es wieder mal geschafft und mich zum Lachen gebracht ;D So viel Selbsterkenntnis und Selbstkritik hätte ich Dir gar nicht zugetraut.

Spekulationen zu einer CPU und harte Werte um die es letztendlich geht sind immernoch was anderes.
Ich beteilige mich nicht an der Spekulation wie Spiele sich in ein paar Jahren verhalten werden, das können ja andere viel besser.
Wann kommen eigentlich Konsolen mit soliden CPU´s und mehr als 8 Threads? 2020? Na dann habe ich ja noch einige Jahre Zeit um mit meinem i3 zu gamen. :D
Erstaulicherweise gabs die Diskussion bevor Ryzen gelaunched wurde überhaupt nicht.

Ein 8C (Ryzen oder intel egal; aber gibt es effiziente 8kerner von intel für 300 €?) lohnt jetzt schon, wenn man auch bestimmte Anwendungen neben seinen Spielen nutzt.

Im privaten Umfeld lohnt sich das sogut wie überhaupt nicht.
Diese Power rufst du einfach zu selten ab, damit sich das lohnt.
CPU/GPU Leistung ist schon lange nicht mehr ein Problem, egal bei welcher Software, zumindest im Homebereich.
Hier tut ja vor allem eine Gruppe an Leuten so als würden sie den ganzen lieben Tag nix anderes tun als ihre Multitasking CPU´s leistungsmäßig ausreizen und sowas nervt einfach.

Man merkt einfach dass das nur billige Ausreden sind um sich seine Anschaffung schön zu reden und das Gerede von besseren Frametimes ist auch nichts anderes.
Ryzen hat bei viel mehr Spielen viel schlechtere Frametimes als altebwährte Intel CPu´s, vor allem bei Early Access Games und nein, ich frickel nicht an meinen Systemen rum.
Ich wechsel dann einfach zum 4790k System und da kann man halt schön die Leistung vergleichen. Und Abseits der AAA Titel ist Ryzen einfach ein lahmer Gaul.
Das ist halt einfach so.

DarknessFalls
2017-07-16, 13:21:47
@Schaffe, butthurt much? :freak:

Bezüglich "ein Ryzen 8C/16T wird den Rückstand (sic) auf 7700K niemals aufholen" frag mal die Leute mit C2D E8600 vs. C2Q 6600. Oder schau gar mal rüber auf FX-8350 vs. i5 2500k und i7 2600k, damit hätte ich selber nicht gerechnet. :D Man braucht kein Wahrsager sein um festzustellen, dass mehr Cores richtig Fahrt aufgenommen haben dank AMD, denn jetzt zieht auch endlich Intel im HEDT-Bereich diesbezüglich vernünftig mit - und mit CFL ziehen dann gar 6C im Mainstream bei Intel ein.

Ich habe keine Ahnung, wieso man auf Biegen und Brechen 4C/8T verteidigen muss. Verkauf Deinen 6C Ryzen und investier in nen 7700k. Der läuft sowieso besser. Aber hör auf, hier ewig die gleiche Leier zu bringen.

//differentRob
2017-07-16, 13:24:24
Bei CFL weiss man ja noch nicht, ob Intel nicht plötzlich doch noch einen Octa hervorzaubert - ob's den braucht oder nicht - einfach nur um zu zeigen, wir können das auch im Mainstream.

Und sollte Intels TSX dann endlich mal funktionieren und in Software implementiert sein...

DarknessFalls
2017-07-16, 13:27:01
Bei CFL weiss man ja noch nicht, ob Intel nicht plötzlich doch noch einen Octa hervorzaubert - ob's den braucht oder nicht - einfach nur um zu zeigen, wir können das auch im Mainstream.


...das wäre absolut zu begrüßen und in Anbetracht der Ryzen Octacores ein weiser Schritt. Wobei, wenn ich mir Intels "Schritte" in den letzten Wochen so anschaue. :D

Korvaun
2017-07-16, 13:27:41
Ich finds lustig wie Leute hier 8&HT+ Kerner als das einzig Sinnvolle & Glücklichmachende verkaufen.
Wenn ich immer lese von 10 Programmen gleichzeitig und rund um die Uhr am laufen (spielen+programmieren+transkodieren+rendern+4kvideo+etc.. weil wat mu dat mu) und zusätzlich noch 50+ Tabs im Browser offen die alle ganz doll wichtig sind kann ich nur den Kopf schütteln. Das sind dann so Leute die den ganzen Tag über fürchterlich beschäftigt sind und am Abend dann trotzdem nix geschafft haben...obwohl für solche Supermultitasker bezahlbare 16+HT Kerne ja ein Geschenk des Himmels sind ;)

Lehdro
2017-07-16, 13:40:13
Ach die Propaganda hat noch lange nicht den Höchststand erreicht.
Wieso, hast du vor noch mehr zu posten?

Dalai-lamer
2017-07-16, 13:40:39
Wer Spaß mit vielen Kernen hat und Freude, dass alles parallel läuft und schnell ist, dann ist es doch toll.

Ich habe meinen arbeits Notebook und spiele pc getrennt voneinander. Was jetzt sinnvoller ist und wer was braucht kann doch jeder für sich entscheiden.

Also ich finde es toll, dass es die CPUs jetzt gibt, und. Chase, dass ich sie noch nicht nutzen kann :)

Grüße

Fragman
2017-07-16, 14:57:39
Ich finds lustig wie Leute hier 8&HT+ Kerner als das einzig Sinnvolle & Glücklichmachende verkaufen.
Wenn ich immer lese von 10 Programmen gleichzeitig und rund um die Uhr am laufen (spielen+programmieren+transkodieren+rendern+4kvideo+etc.. weil wat mu dat mu) und zusätzlich noch 50+ Tabs im Browser offen die alle ganz doll wichtig sind kann ich nur den Kopf schütteln. Das sind dann so Leute die den ganzen Tag über fürchterlich beschäftigt sind und am Abend dann trotzdem nix geschafft haben...obwohl für solche Supermultitasker bezahlbare 16+HT Kerne ja ein Geschenk des Himmels sind ;)

dein kommentar zeigt nur, das du dir nicht vorstellen kannst, was du mit vielen core anfangen sollst. was auch ok ist, du brauchst es halt nicht. am ende ists aber halt nur ein fall von "nicht faehig ueber den tellerrand zu schauen"...

denn es kann DIR egal sein, ob du viele (bezahlbare) cores abseits der pro plattformen bekommst. andere wiederum freuen sich drueber.
der nette nebeneffekt fuer dich, du wirst in zukunft weniger geld bezahlen fuer deine low core cpus.

Ex3cut3r
2017-07-16, 17:40:53
Nö Korvaun hat recht, dass trifft es ziemlich gut. Ryzen User = Viel beschäftigte seriöse User die alle einen richtigen MultiTask Job haben....Aber früher war Haswell-E und Co sinnlos.

DR.DEATH
2017-07-16, 17:47:02
Nö Korvaun hat recht, dass trifft es ziemlich gut. Ryzen User = Viel beschäftigte seriöse User die alle einen richtigen MultiTask Job haben....Aber früher war Haswell-E und Co sinnlos.

Wenn man das gemaule für alles >4c8t dieses Threads und Ryzen Threads ansieht -> dann waren alle E Prozessoren sinnlos und die Käufer total bescheuert, weil nutzlos und keine Software vorhanden. Schönes Ei gelegt.

@Schaffe89
Beschäftige dich bitte mal mit Firefox, dann schreibst du auch nicht mehr so einen Quark über dessen angebliche Bedienung.

MikePayne
2017-07-16, 17:48:23
Nö Korvaun hat recht, dass trifft es ziemlich gut. Ryzen User = Viel beschäftigte seriöse User die alle einen richtigen MultiTask Job haben....Aber früher war Haswell-E und Co sinnlos.

Missgunst?

52 Tabs? Bist du bei der Börse? Oder ist das alles JAV Porn? ;)

Ne, hast ja recht, ist ja ok. Was aber nicht Ok ist, ist das einige Ryzen User plötzlich ihre CPU in den Himmel loben, und jede Hardware ohne native 6/8C für unspielbar erklären.

Lächerlich und ich teile auch die Meinung das hohe getakte 4C only CPUs selbst heute und für 1+ Jahr reichen, vor allem wenn man ab WQHD zockt!

Naja, wer Ryzen braucht, soll sich den holen, aber Stocker hast du damit von Zeit zu Zeit auch. So toll ist die IPC leider nicht und Games können mit 16T nicht groß was anfangen. Ganz zu schweigen von der Plattform und den richtigen RAM Timings bzw. Boards.

Missgunst (kursiv)!

Merkst Du die Einschläge noch?
Niemand hat einen 4C für völlig obsolet erklärt.
Und sich einen neuen Rechner mit gut 1 Jahr Haltbarkeit zu kaufen (Deine Worte) ist auch nicht vorausschauend.
Das fett markierte schießt dann den Vogel ab:
Ryzen hat wohl nur eine Taschenrechner-IPC und es stockt ständig.
Wow.

EDIT: Mein FX wird dann wohl von einem Abakus vernichtet :freak:

Rancor
2017-07-16, 17:54:48
Wenn jemand Bock auf nen 8C/16T CPU hat, dann lasst ihn doch. Ein 7700k wird in Games trotzdem schneller sein. Deshalb würde ich jedem der nur zockt und 350€ für ne CPU ausgeben will, den I7 empfehlen.
Es gibt aber auch abseits von Spielen noch andere Anwendungen und da macht ein R7 durchaus Sinn.

Die IPC der Ryzen CPUs ist doch gar nicht so schlecht. Nehme ich mal CB 15 als Beispiel erreiche ich mit einem R5 @ 3,9Ghz 159 PKT im Single Core. Hochgerechnet auf 5GHZ ergibt das Kaby Lake Niveau.
Ryzen fehlt es einfach an Takt.

Chillt doch einfach mal alle.

MikePayne
2017-07-16, 18:00:12
Wenn jemand Bock auf nen 8C/16T CPU hat, dann lasst ihn doch. Ein 7700k wird in Games trotzdem schneller sein. Deshalb würde ich jedem der nur zockt und 350€ für ne CPU ausgeben will den, I7 empfehlen.
Es gibt aber auch abseits von Spielen noch andere Anwendungen und da macht ein R7 durchaus Sinn.

Die IPC der Ryzen CPUs ist doch gar nicht so schlecht. Nehme ich mal CB 15 als Beispiel erreiche ich mit einem R5 @ 3,9Ghz 159 PKT im Single Core. Hochgerechnet auf 5GHZ ergibt das Kaby Lake Niveau.
Ryzen fehlt es einfach an Takt.

Chillt doch einfach mal alle.

Die Story hatten wir doch schon vor Jahren.

SandyBridge vs Bulldozer/Vishera.
Damals Intel Winner, heute ist der Sandy hinter dem Vishera.
Und selbst der hat für heute noch genug Performance (ja auch mit -40% gegenüber Ryzen) dank 8 Threads (Modul-Aufbau) und dicken L3-Cache.
Wurde im Thread auch schon alles ausgeführt. Wer mittelfristig oder langfristig plant sollte mehr als 4C einplanen.

EDIT:

Gutes Fazit

Was ich an dieser Geschichte immer nicht verstehe: Leute, das ist doch für viele ein Primärhobby. Warum zum Henker gönnt ihr euch nicht was optimales, wenn ich schon was kauft und betreibt einen Gaming-PC mit Win7 (natürlich militant verteidigt), 2+SMT und Geforce 1060 da drin und sitzt vor einem 100€-Monitor? Für manche lass ich die ja gern gelten, dass es wirtschaftlich schwierig ist. Aber doch nicht in der Menge? Wer sich jetzt noch nen 7700k kauft für den Preis hat IMHO einfach einen an der Klatsche, zumal ja in nem halben Jahr dasselbe als 6-Kerner verfügbar ist wenns denn unbedingt Intel sein muss. Man behält sowas doch mindestens 2 Jahre im Normalfall, wenns gut ist länger. Meinen Deneb hab ich 3 1/2 Jahre behalten. Den 1700X kann ich sicher auch mindestens 3 Jahre halten, ohne an Limits zu stoßen Mit dem 6600k, den ich vorher hatte, war ich schon Anfang diesen Jahres total unzufrieden - bei Games.

Ex3cut3r
2017-07-16, 19:37:10
Missgunst?



Missgunst (kursiv)!

Merkst Du die Einschläge noch?
Niemand hat einen 4C für völlig obsolet erklärt.
Und sich einen neuen Rechner mit gut 1 Jahr Haltbarkeit zu kaufen (Deine Worte) ist auch nicht vorausschauend.
Das fett markierte schießt dann den Vogel ab:
Ryzen hat wohl nur eine Taschenrechner-IPC und es stockt ständig.
Wow.

EDIT: Mein FX wird dann wohl von einem Abakus vernichtet :freak:

Weiß nicht, was du jetzt willst aber ok.

Ja, Ryzen hat imo keine tolle IPC, entschuldige mal, aber willst du mir hier weismachen dass eine IPC unter dem Niveau von Skylake so toll wäre? Skylake kam wann nochmal raus? Ach ja...2015....also soll ich 2 oder sogar fast 3 Jahre später eine IPC kaufen, die noch schlechter ist?

Nöööö nicht mit mir als Gamer only @ Privat. Wenn Games irgendwann mal richtig etwas mit 12 oder 16T anfangen können, gibt es schon wieder bessere alternativen als Ryzen.

Und was soll ich da mit Missgunst? Ich bin nur Gamer am Privatrechner, (ohne zig Tabs und sonstigem Kram) da brauche ich ne starke GPU und keinen Super Ryzen. :freak:

Lehdro
2017-07-16, 20:13:52
Ja, Ryzen hat imo keine tolle IPC, entschuldige mal, aber willst du mir hier weismachen dass eine IPC unter dem Niveau von Skylake so toll wäre? Skylake kam wann nochmal raus? Ach ja...2015....also soll ich 2 oder sogar fast 3 Jahre später eine IPC kaufen, die noch schlechter ist?
Kaby Lake hat btw genau dieselbe IPC. Skylake X liegt bei Games sogar meistens drunter. Du regst dich also auf weil AMD direkt auf Anhieb nur an die derzeit beste IPC rankommt, aber nicht direkt besser ist? Immerhin bieten sie dafür doppelt soviele Kerne für einen geringeren Preis, das ist der Tradeoff. Genau derselbe Tradeoff den du übrigens bei Intel auch bekommst wenn du >4C willst, du tauscht IPC gegen Kerne.

Wenns dir wirklich um IPC geht kauf nen 5775C, der nudelt alles weg, rein IPC-technisch.

Kriton
2017-07-16, 20:17:38
Weiß nicht, was du jetzt willst aber ok.

Ja, Ryzen hat imo keine tolle IPC, entschuldige mal, aber willst du mir hier weismachen dass eine IPC unter dem Niveau von Skylake so toll wäre? Skylake kam wann nochmal raus? Ach ja...2015....also soll ich 2 oder sogar fast 3 Jahre später eine IPC kaufen, die noch schlechter ist?

Nöööö nicht mit mir als Gamer only @ Privat. Wenn Games irgendwann mal richtig etwas mit 12 oder 16T anfangen können, gibt es schon wieder bessere alternativen als Ryzen.

Und was soll ich da mit Missgunst? Ich bin nur Gamer am Privatrechner, (ohne zig Tabs und sonstigem Kram) da brauche ich ne starke GPU und keinen Super Ryzen. :freak:

Wenn Du (privat) reiner Gamer bist, und zudem meinst (zumindest nicht unberechtigt), dass eine HEDT-Plattform zum reinen Spielen jedenfalls nicht notwendig/bis suboptimal ist: Warum bist Du noch einmal in diesem Thread, mal unabhängig vom Hersteller, und argumentierst zu Spielen, was nach Deiner eigenen Aussage nicht Gegenstand der Plattform ist?

Ex3cut3r
2017-07-16, 20:20:26
Kaby Lake hat btw genau dieselbe IPC. Skylake X liegt bei Games sogar meistens drunter. Du regst dich also auf weil AMD direkt auf Anhieb nur an die derzeit beste IPC rankommt, aber nicht direkt besser ist? Immerhin bieten sie dafür doppelt soviele Kerne für einen geringeren Preis, das ist der Tradeoff. Genau derselbe Tradeoff den du übrigens bei Intel auch bekommst wenn du >4C willst, du tauscht IPC gegen Kerne.

Wenns dir wirklich um IPC geht kauf nen 5775C, der nudelt alles weg, rein IPC-technisch.

Naja, nur mal aber langsam, der Kaby Lake ist ein Takt Monster und erreicht locker die 4,6 - 4,8 dann fühlt sich die gleiche IPC auch schon wieder wie eine neue an. Aber ja klar, ein richtiger IPC Sprung wäre mal wieder richtig nett, seit 2015 ist da irgendwie Stillstand.

Wenn Du (privat) reiner Gamer bist, und zudem meinst (zumindest nicht unberechtigt), dass eine HEDT-Plattform zum reinen Spielen jedenfalls nicht notwendig/bis suboptimal ist: Warum bist Du noch einmal in diesem Thread, mal unabhängig vom Hersteller, und argumentierst zu Spielen, was nach Deiner eigenen Aussage nicht Gegenstand der Plattform ist?

Soll ich bei dieser AMD Propaganda die übrigens die Mehrzahl im 3Dcenter stellen, einfach nur stillschweigend zusehen? Was ist das für eine Logik? Oder leben wir schon in der Türkei?

Aber gut dann kauft euch euren Thread Ripper, schaukelt euch gleichzeitig die Keule und genießt eure angebliche Super Spiele Performance! Bye....

robbitop
2017-07-16, 20:32:06
Es kommt wahrscheinlich auf das fps Target an. Ein 7700K liefert heute (!) in den meisten Spielen die höchsten fps. Für Leute, die ggf. Online spielen und möglichst viele fps brauchen - sagen wir 1080p@144 hz - ist es genau die richtige Wahl.
Ein 7700K hat rund 20% höhere Leistung in Spielen, die nur 4 threads nutzen.
Ein Ryzen würde also bis zu 20% weniger fps liefern.
Für Leute, die WQHD oder 4K nutzen und eher im GPU Limit agieren ist es relativ irrelevant. 6C oder 8C bringen für diese Leute (wohl den meisten) genug Leistung und sind vermutlich zukunftssicherer. Auch liefern diese schon heute die Garantie auf gute Frametimeverläufe. Ein i7 hat heute zu wohl 99% der Fälle auch völlig ausreichend gute bis sehr gute Frametimeverläufe. Aber mit zunehmender Threadanzahl wird sich das Thema drehen. Siehe Q6600 und E8400. Ergo: für jeden Bedarf gibt es das richtige Produkt. Je nach Priorität. Da gibt es IMO kein richtig und kein falsch.

Linmoum
2017-07-16, 20:59:56
Ja, Ryzen hat imo keine tolle IPC, entschuldige mal, aber willst du mir hier weismachen dass eine IPC unter dem Niveau von Skylake so toll wäre? Skylake kam wann nochmal raus? Ach ja...2015....also soll ich 2 oder sogar fast 3 Jahre später eine IPC kaufen, die noch schlechter ist?
Den IPC-Unterschied zwischen Haswell (2013) und Skylake (2015) Kaby Lake (2017) kennst du schon, oder? Scheint dir nicht ganz klar zu sein, wenn ich mir diesen Beitrag so anschaue. :freak:

Es kommt wahrscheinlich auf das fps Target an. Ein 7700K liefert heute (!) in den meisten Spielen die höchsten fps. Für Leute, die ggf. Online spielen und möglichst viele fps brauchen - sagen wir 1080p@144 hz - ist es genau die richtige Wahl.
Ein 7700K hat rund 20% höhere Leistung in Spielen, die nur 4 threads nutzen.
Ein Ryzen würde also bis zu 20% weniger fps liefern.
Für Leute, die WQHD oder 4K nutzen und eher im GPU Limit agieren ist es relativ irrelevant. 6C oder 8C bringen für diese Leute (wohl den meisten) genug Leistung und sind vermutlich zukunftssicherer. Auch liefern diese schon heute die Garantie auf gute Frametimeverläufe. Ein i7 hat heute zu wohl 99% der Fälle auch völlig ausreichend gute bis sehr gute Frametimeverläufe. Aber mit zunehmender Threadanzahl wird sich das Thema drehen. Siehe Q6600 und E8400. Ergo: für jeden Bedarf gibt es das richtige Produkt. Je nach Priorität. Da gibt es IMO kein richtig und kein falsch.
Der 7700K ist grundsätzlich natürlich eine sehr gute CPU, aber eigentlich nicht (mehr) zu dem Preis. Der muss spürbar nach unten rutschen, damit er überhaupt attraktiv ist. Gerade im Hinblick auf den 1600(X), aber auch CFL-S im kommenden Monat. Da kommen dann auch bei Intel 6C in den Mainstream. Wer zum jetzigen Zeitpunkt noch für über 300€ zu 'nem Quad greift, der hat sich mit dem aktuellen Markt und dessen naher Zukunft einfach nicht beschäftigt. Denn mit CFL-S sollte auch der 7700K im Preis sinken, denn irgendwo muss man 6C ja auch platzieren.

Mal davon abgesehen, dass das hier ja eigentlich der falsche Thread für so eine Diskussion ist. Aber irgendwie schafft man es ja immer, selbst bei CPUs mit bis zu 16C aufs Thema Gaming zu kommen. Mal schauen, ob die Diskussion auch beim 18C SKL-X geführt wird. ;D Auch, wenn ich schon vorwegnehmen kann, dass man damit beim zocken nicht wirklich gut beraten sein wird. ;)

DR.DEATH
2017-07-16, 21:02:01
Naja, nur mal aber langsam, der Kaby Lake ist ein Takt Monster und erreicht locker die 4,6 - 4,8 dann fühlt sich die gleiche IPC auch schon wieder wie eine neue an. Aber ja klar, ein richtiger IPC Sprung wäre mal wieder richtig nett, seit 2015 ist da irgendwie Stillstand.



Soll ich bei dieser AMD Propaganda die übrigens die Mehrzahl im 3Dcenter stellen, einfach nur stillschweigend zusehen? Was ist das für eine Logik? Oder leben wir schon in der Türkei?

Aber gut dann kauft euch euren Thread Ripper, schaukelt euch gleichzeitig die Keule und genießt eure angebliche Super Spiele Performance! Bye....

Ach so, nur wegen der hohen Quote an AMD Propagandapandas hier im Forum müssen alle AMD Threads immer von kritischen erleuchteten propagandaresistenten Instanzen beglückt werden, damit arme Abtrünnige wieder auf den rechten Pfad der Tugend zurückgeführt werden können? Und bringe sie nicht in Versuchung der vielen Kerne, geheiligt werde unsere IPC/AVX, blau in alle Ewigkeit, Amen!

Geh' dir mal einen Aluhut basteln.

@robbitop
Kann man genau so stehen lassen. Nur für Gaming wird sich wohl kaum jemand eine HEDT Plattform von egal welchem Hersteller kaufen. Wobei, es sowas bestimmt auch gibt aber die beschweren sich nicht über die "schlechte" Performance der Selbigen.

@Linmoum
Nein, da gibt es diese Diskussion nicht. Wenn Intel mehr Kerne bringt dann ist es richtig und wichtig. Der 6C bekommt hoffentlich auch nie eine Empfehlung, weil der für Spiele ja total sinnlos ist.

Rancor
2017-07-16, 21:15:54
Soll ich bei dieser AMD Propaganda die übrigens die Mehrzahl im 3Dcenter stellen, einfach nur stillschweigend zusehen? Was ist das für eine Logik? Oder leben wir schon in der Türkei?

Aber gut dann kauft euch euren Thread Ripper, schaukelt euch gleichzeitig die Keule und genießt eure angebliche Super Spiele Performance! Bye....

Von welcher Propaganda redest du? Und was willst du immer mit Gaming im Threadripper Thread? Dafür ist die CPU überhaupt nicht gedacht.
Ja ein I7-7700k ist die bessere Gaming CPU, bzw die beste die es momentan gibt. Das bezweifelt glaube ich niemand.

Es ist aber nunmal eine Tatsache, das die Ryzen CPUs ein hervorragendes P/L Niveau besitzen und zwar unabhängig welche.
Betrachtet man nur die Gaming, dann gilt das erst Recht für die R5 CPUs. Denn die haben die I5 CPUs absolut überflüssig gemacht.

Das das für dich als Intel Fanboy jetzt unschön ist verstehe ich. Dein Beißreflex gegenüber AMD ist schon leicht lächerlich.

aufkrawall
2017-07-16, 21:16:39
SKL-X ist durch Ryzen auch ziemlich überflüssig. Und bis vor kurzem hatten die Intel 6C/8C in Spielen auch wenig bis gar nichts gebracht, außer vll. etwas höhere min-fps im BF4-MP zum viel höheren Anschaffungspreis. In den meisten "Enthusiasten-PCs" gammeln die Cores wahrscheinlich auch heute noch nur rum.

Lowkey
2017-07-16, 22:35:46
Die Diskussion hängt nur am Geldbeutel. Kostet ein i9 mit 10/20 morgen 20 Euro, dann wäre der Thread hier zu.

Mein 7700k rennt besser als mein Ryzen 1700x. Nächstes Jahr mit anderen Preisen sieht die Situation wieder anders aus.

Ein Ryzen 1600 mit B350 ist der P/L Sieger, aber nicht der Sieger. Das vergessen einfach immer zuviele User.

Fragman
2017-07-16, 22:43:29
Und erfindet weiterhin solche Stories wie "Habe 60 Tabs und co während des Zockens an."


ich kann bis heute die leute nicht verstehen, die bei aktuellen chrome oder firefox versionen nur 2-3 tabs offen haben. frueher hat man lesezeichen erstellt, heute laesst man einfach die tabs offen. die leistung ist da, also warum rumspielen? im schnitt sind es bei mir so 40-45, der rekord lag mal bei ueber 80 (referenzbildersuche).

chrome nimmt dann auch 3-4gb an speicher, ich hab 32 und aerger mich auf meinem laptop, denn dort hab ich nur 16. ein grund weshalb ich fuers zocken dort chrome schliessen muss.

am ende bekommt man fuers gleiche geld mehr leistung, und die leute meckern rum, weil sie sie nicht brauchen? wtf ist denn hier los. ;D

Lowkey
2017-07-16, 22:45:14
Der Mensch kann nicht wirklich Multitasking und ich kenne zuviele User, die haben halt nur 2-3 Seiten offen. Andere haben 1000 Tabs offen. Und das natürlich auf einem HDD Rechner von 2007

Fragman
2017-07-16, 22:48:00
Der Mensch kann nicht wirklich Multitasking und ich kenne zuviele User, die haben halt nur 2-3 Seiten offen. Andere haben 1000 Tabs offen. Und das natürlich auf einem HDD Rechner von 2007

ot, aber bei 2-3 seiten muss ich immer an meine mutter denken.

"mach doch einfach noch ein tab mehr auf, lade die andere seite und schau da nach, die aktuelle verlierst du dann nicht"

"nein, das ist mir zu kompliziert" :D

Lowkey
2017-07-16, 23:02:27
Ich kenne auch Spieler mit Highendpc, die spielen dann Freetoplay oder Minigames auf dem PC.

Ich kenne auch Menschen, die kaufen einen Highendnotebook zum Arbeiten, auch wenn Gaming drauf steht.

Screemer
2017-07-16, 23:03:41
Ein weiterer thread in dem lowkey seinen i7 feuern kann :up:

Fragman
2017-07-16, 23:14:05
von reinen daddelkisten reden wir doch bei diesen plattformen nicht, ausser vielleicht bei leuten, bei denen das geld locker sitzt.

ich seh den einsatz mehr im semiprofessionellen bereich und auch im professionellen. die zeiten von teuren workstations sind ja seit ein paar jahren vorbei, bzw braucht man die nicht mehr unbedingt. das spart ne menge kohle und jetzt eben noch mehr da man noch mehr leistung zum selben preis bekommt.

diese daddelkistenargumente interessieren mich nicht, da wird sicher ein gut getakteter 6 core reichen (ich wuerd heut nichts mehr unter 6 core fuer games kaufen). aber ich finds gut, das ich dann auch 12 oder 16 cores kaufen kann und natuerlich, das die cpus mit weniger cores guenstiger werden. allein darueber sollte man sich freuen.

DR.DEATH
2017-07-16, 23:36:39
von reinen daddelkisten reden wir doch bei diesen plattformen nicht, ausser vielleicht bei leuten, bei denen das geld locker sitzt.

ich seh den einsatz mehr im semiprofessionellen bereich und auch im professionellen. die zeiten von teuren workstations sind ja seit ein paar jahren vorbei, bzw braucht man die nicht mehr unbedingt. das spart ne menge kohle und jetzt eben noch mehr da man noch mehr leistung zum selben preis bekommt.

diese daddelkistenargumente interessieren mich nicht, da wird sicher ein gut getakteter 6 core reichen (ich wuerd heut nichts mehr unter 6 core fuer games kaufen). aber ich finds gut, das ich dann auch 12 oder 16 cores kaufen kann und natuerlich, das die cpus mit weniger cores guenstiger werden. allein darueber sollte man sich freuen.

SMT hilft vielleicht noch bei ein paar Prozessen mit leichter Last aber 6 oder 8 Kerne werden da mehr herausholen und die Kosten auch nicht wirklich viel mehr. Der selbe Fehler wie damals beim 2500k oder 2600k noch 100 Euro zu sparen, wird mir nicht noch einmal passieren. 12 oder 16 Kerne dürften nur bei speziellen Anwendungen oder Datenbanken/VMs im Hintergrund was bringen. Wie du schon sagst der autonome Workstationfaktor mit spezieller Software oder alles was man braucht wird auf einer Kiste abgebildet. Da wäre Spielen so ein kleiner Nebenaspekt der aufgrund der Kerne eben "nebenbei" abgefackelt wird.

Interessant wird ja noch bei AMD wie Spiele überhaupt skalieren wenn die Prozesse auf beide DIEs aufgeteilt sind und die Kommunikation über die IF läuft.

Edit: Die HEDT Plattformen sind vielleicht auch im Spieleplattformgespräch weil die Leistung im Vergleich zu früher nicht mehr so viel niedriger ist. Früher haben die Dual Sockel Systeme einfach nicht für Spiele skaliert oder die "Workstation" System hatten einen viel niedrigeren Takt. Der andere Punkt ist natürlich das Verhalten wenns um "Highend" geht -> teurer ist besser oder um sich von anderen "Billigplattformen" abzuheben... Bei der AMD Plattform ist durch die PCIe Lanes auch Multi-GPU und NVMe Raids leichter realisierbar. Vielleicht rückts dadurch eher in den (Nobel)Zocker Fokus, falls keine Anwendungs/Workstationperformance gebraucht wird.

HisN
2017-07-16, 23:46:31
Hätte ich einen Rechner mit dem ich nichts anderes machte als zocken, würde mir nicht im Traum einfallen 600€ und mehr für eine CPU aus dem Fenster zu werfen – ganz zu schweigen vom Unterbau und massig RAM.


Kann mir gar nicht vorstellen das es Leute gibt die NIX ANDERES mit ihren PCs machen als zocken.

Lowkey
2017-07-16, 23:59:14
Ein weiterer thread in dem lowkey seinen i7 feuern kann :up:

Das Thema wiederholt sich. Nächsten Monat steht aber der 7820x mit 5 Ghz hier.

Der kleine 1700x wandert wohl in den ITX Zweitpc.

Complicated
2017-07-17, 00:11:35
Kann mir gar nicht vorstellen das es Leute gibt die NIX ANDERES mit ihren PCs machen als zocken.
Das ist das Problem wenn "Gamer" meinen das Wort führen zu müssen in einem Thread der das Szenario Gaming nur als Nebensache hat. Niemand der nur Spiele spielt, kauft sich eine HEDT Plattform. Daher ist auch die ganze Argumentation die auf FPS beruht völlig deplatziert.

Nimmt man die Anwendungsperformance als Massstab erübrigt sich das ganze und hohe Gaming Leistung kommt als Bonus dazu für den Anwender sobald er den entspannenden Teil seiner PC-Nutzung beginnt.

Schaffe89
2017-07-17, 00:12:35
@Schaffe, butthurt much? :freak:

Bezüglich "ein Ryzen 8C/16T wird den Rückstand (sic) auf 7700K niemals aufholen" frag mal die Leute mit C2D E8600 vs. C2Q 6600..

Prozessinitialisierung, Speicherverwaltung etc.. viele Dinge lassen sich nicht unendlich parallelisieren, Abläufe sind immer von bestimmten Ergebnissen abhängig Stichwort Amdahlsches Gesetz.
Was glaubst du denn wieso die letzten Jahre einfach null vorangeht?
Crysis 3 und Battlefield 3 kam vor mehr als 4 Jahren heraus die damals schon recht gut mit bis zu 16 Threads skalierten aber halt auch nur beschränkt, das heißt ein etwas höher getakteter 4 Kerner gleicht das wieder aus.

Bis heute hat sich an dem Status kaum etwas geändert. Mit Direct12 wird die CPU Last sogar wieder verringert und mehr hin zur GPU verschoben.
Die Entwicklung ist doch viel langsamer als von 2 auf 4 Threads.

Oder schau gar mal rüber auf FX-8350 vs. i5 2500k und i7 2600k, damit hätte ich selber nicht gerechnet. :D

Ja im Verlauf über 5 Jahre hat es der FX8350 geschafft der früher 10% hinten war, jetzt n paar Prozent vor einem 2500k zu sein.
Das ist aber ne absehbare Entwicklung, der 2500k hat ja schließlich kein SMT, was mit der Zeit immer mehr brachte.

Man braucht kein Wahrsager sein um festzustellen, dass mehr Cores richtig Fahrt aufgenommen haben dank AMD, denn jetzt zieht auch endlich Intel im HEDT-Bereich diesbezüglich vernünftig mit

Um dann festzustellen dass bei jedem Test den ich keine die Skalierung der Spiele von einem Ryzen 6 Core zum 8 Core 1% beträgt?
Also wer sich wirklich überlegt ein HEDT System für seinen Spielerechner zu kaufen, der hat definitiv was anderes im Sinn als damit zu spielen.

Der 6c Coffeelake wird da eher die Zielgruppe sein, ohne Mesh, noch mit altem Ringbus mit besseren Latenzen.

QUOTE]Ich habe keine Ahnung, wieso man auf Biegen und Brechen 4C/8T verteidigen muss[/QUOTE]

Will ich absolut nicht, aber dieses Gerede von besseren Frametimes, "hickups" und lauter so einen Blödsinn kann man mittlerweile einfach nicht mehr hören.
Und das lustigste sind die Nutzer die angeblich soviel neben dem Gaming machen, wie Videos convertieren, bearbeiten, crunchen etc..

Verkauf Deinen 6C Ryzen und investier in nen 7700k. Der läuft sowieso besser. Aber hör auf, hier ewig die gleiche Leier zu bringen.

Ja das wird ich vielleicht machen, aber das wird ja gleich als Anti AMD hingestellt. Und das ist keine ewige Leier, das sind nunmal die klaren Fakten.
Und ob Ryzen später schneller ist und wie lange es dauert, das ist schlicht einfach nur Spekulatius. Ich will jetzt mit der besten Performance spielen und nicht erst in 5 Jahren.

Ich verdiene genug um mir dementsprechende Hardware zu leisten, wenn es sich aber nicht lohnt (HEDT System) wieso dann bitte kaufen?
Und sry die Anwendungsszenarien einiger sind mehr als lächerlich 52 offene Tabs, inwiefern soll das noch übersichtlich sein. Da kann jemand Firefox nicht bedienen.:D

PHuV
2017-07-17, 00:13:55
Kann mir gar nicht vorstellen das es Leute gibt die NIX ANDERES mit ihren PCs machen als zocken.
Wenn das so Leute wie ich und Du sind, die ihre Rechner nach Anwendungen trennen, dann schon. :biggrin:

Schaffe89
2017-07-17, 00:22:04
Immerhin bieten sie dafür doppelt soviele Kerne für einen geringeren Preis, das ist der Tradeoff. Genau derselbe Tradeoff den du übrigens bei Intel auch bekommst wenn du >4C willst, du tauscht IPC gegen Kerne..

Genau der Grund wieso niemand damals einen Broadwell E gekauft hat und jeder einen i5 oder i7 in seinen Gamingrechner geschraubt hatte. Und jetzt weil urplötzlich eine AMD CPU herauskommt, die in Spielen langsamer arbeitet, dafür in Anwendungen schneller, ist auf einmal jeder Multitasker und bearbeitet neben dem Spiel scheinbar noch seine Filme, Fotos oder was auch immer. (Das lächerlichste was ich je gehört hab, sowas betreibt niemand)

Solche Argumentationen hab ich damals wie es noch hieß 6700k vs 5820 oder 6800k, nirgends gelesen, aber wirklich nirgends, vor allem nicht unter Spieletests, die kamen alle erst jetzt mit AMD auf.
Und der 5820K war nichtmal besonders teuer.
Aber das ist halt das Multitasking-Marketing von AMD, es zieht offenbar. Damals als Bulldozer rausgekommen ist, hat man das auch verbreitet und wo steht ein FX8150 heute? Immernoch unter einem 2500k.

Wenns dir wirklich um IPC geht kauf nen 5775C, der nudelt alles weg, rein IPC-technisch.

Die CPU ist in der Tat die beste Spiele CPU, denn es soll ja auch Leute geben die außer den paar AAA Titeln die jedes Jahr herauskommen, auch welche geben, die gescheite Spiele zocken.


Für Leute, die WQHD oder 4K nutzen und eher im GPU Limit agieren ist es relativ irrelevant. 6C oder 8C bringen für diese Leute (wohl den meisten) genug Leistung und sind vermutlich zukunftssicherer.

Das Argument finde ich am trolligsten.
Zuerst einmal die langsamere CPU kaufen, weil man angeblich sowieso immer im GPU Limit läge (was natürlich je nach Spiel völliger Schwachsinn ist) und dann später wenn 6c oder 8c schneller ist, liegt man natürlich nicht mehr im GPU Limit und dann lohne sich die Investition gegenüber dem 4C.;D

Dass es dann lange schon schnellere 4C, 6C oder 8C Modelle gibt, ist egal.
So also eine teure Investition um erstmal langsamer zu sein, später aber dann zuzulegen.
Das kann sich dann ja Jahre ziehen und das nur weil man hier im 3D Center sich verpflichtet fühlt ständig für AMD zu argumentieren, das nimmt langsam schon groteske Züge an.

HisN
2017-07-17, 00:22:05
@PHuV
^^

Rincewind
2017-07-17, 00:46:26
Genau der Grund wieso niemand damals einen Broadwell E gekauft hat und jeder einen i5 oder i7 in seinen Gamingrechner geschraubt hatte. Und jetzt weil urplötzlich eine AMD CPU herauskommt, die in Spielen langsamer arbeitet, dafür in Anwendungen schneller, ist auf einmal jeder Multitasker und bearbeitet neben dem Spiel scheinbar noch seine Filme, Fotos oder was auch immer. (Das lächerlichste was ich je gehört hab, sowas betreibt niemand)
...


Dein Tellerrand ist echt klein.

Menace
2017-07-17, 06:33:26
Und jetzt weil urplötzlich eine AMD CPU herauskommt, die in Spielen langsamer arbeitet, dafür in Anwendungen schneller, ist auf einmal jeder Multitasker und bearbeitet neben dem Spiel scheinbar noch seine Filme, Fotos oder was auch immer. (Das lächerlichste was ich je gehört hab, sowas betreibt niemand)


Muss ich Multitasker sein, um meinen PC Multithreaded arbeiten zu lassen? :freak: Die Qualität Deiner Aussagen sind analog zu Deinen Vorhersagen bzgl. Ryzen und anderen Produkten. :rolleyes:

Übrigens: Wenn Dich Anwendungen überfordern, die Multithreaded arbeiten, dann bleibe doch bei Deinen 4-6 Kernern. Du hast doch hoffentlich das Selbstbewusstsein, Deine CPU für Deinen finanziellen Rahmen und Deine Anwendungen rauszusuchen, ohne dass eine Missionierung bzw. religiös anmutende Glaubensrichtung dafür nötig ist.

Nightspider
2017-07-17, 06:53:41
Ich finde die Diskussion reichlich schwachsinnig.

Wer das Geld hat kann sich nen 7900X holen und wer die letzten 5-10% ProKern-Leistung braucht holt sich halt einen 7700K.

Sobald Coffee Lake da ist wird sich die Diskussion eh erübrigen.

Sven77
2017-07-17, 07:32:11
Kann mir gar nicht vorstellen das es Leute gibt die NIX ANDERES mit ihren PCs machen als zocken.

Zocken ist meistens aber das einzige das überhaupt noch aktuelle Hardware benötigt.. selbst Bildbearbeitung und co hat keinerlei Vorteile durch irgendwelche Multicore-Monster. Würde ich nicht zocken hätte ich wohl nur mein MacBook

grauenvoll
2017-07-17, 08:34:40
Bis heute hat sich an dem Status kaum etwas geändert. Mit Direct12 wird die CPU Last sogar wieder verringert und mehr hin zur GPU verschoben.
Die Entwicklung ist doch viel langsamer als von 2 auf 4 Threads.


Was wohl Langezeit an Intels "großer Innovationsfreude" lag...

Die PS4 hat 8, relativ langsame Kerne!! Wenn das alles sinnlos wäre, hätte man die PS4 so nicht gebaut und man hätte auf IPC gesetzt.

Ja, es lässt sich nicht alles beliebig parallelisieren. Aber man sollte nicht immer den Fehler machen und den Status Quo auf mehr Kerne verteilen. Wenn mehr Rechenleistung in Form von mehr Kernen vorhanden ist, dies ausreichend Verbreitung hat, werden die Entwickler neue Features implementieren, die sich bisher nicht umsetzen lassen.

Ich gehe davon aus, dass 8 Kerne im Gaming bald der neue Standard sind.

Fragman
2017-07-17, 08:38:06
Würde ich nicht zocken hätte ich wohl nur mein MacBook

au, das tut weh.
ich seh immer mehr leute, die ich kenne, damit rumlaufen, woher kommt das nur? :D

Sven77
2017-07-17, 08:48:12
Bei mir läuft Win10 drauf :D Die Hardware (insbesondere das Display) ist aber astrein..

HOT
2017-07-17, 10:09:03
Ich finde die Diskussion reichlich schwachsinnig.

Wer das Geld hat kann sich nen 7900X holen und wer die letzten 5-10% ProKern-Leistung braucht holt sich halt einen 7700K.

Sobald Coffee Lake da ist wird sich die Diskussion eh erübrigen.

7700k bei den Preisen ist vollkommen idiotisch. Coffeelake schließt dann die Lücke, die jetzt besteht und muss ja gegen PinnacleRidge antreten. Jetzt noch nen 4-Kerner zu den Preisen zu kaufen ist in meinen Augen einfach nur dämlich. Wenn es jetzt sein muss, dann Ryzen - wenns unbedingt Intel sein muss (warum auch immer) kann man ja auf CL warten, so lange dauert das auch nicht mehr. Wenn der 7700k für 250€ über den Ladentisch gehen würde, würde ich nichts dazu sagen. Aber solange man einen 1600X für 100€ weniger bekommt macht der 7700k einfach keinen Sinn.

Und beim 7900k wird sich Intel ebenfalls massiv bewegen müssen, wenn AMD das wahr macht und 12 Kerne für 800€ bringt...

Gorkon
2017-07-17, 10:27:59
Die PS4 hat 8, relativ langsame Kerne!! Wenn das alles sinnlos wäre, hätte man die PS4 so nicht gebaut und man hätte auf IPC gesetzt.
<OT>: Die PS4 sieht so aus wie sie aussieht, weil AMD sich als einziger Hersteller dazu bereit erklärt hat fürn "Ei undn Butterbrot (http://www.regelt.org/knightrider/downloads/knightrider/eiundbutterbrot.mp3)" (Hach...Knight Rider :freak:) nen SoC dafür zusammenzubasteln. Kapitalismus pur (bei Sony): So wenig wie möglich bezahlen um maximalen Profit rauszuschlagen ;)
https://www.golem.de/news/konsolenchips-nvidia-hatte-keine-lust-auf-die-playstation-4-1303-98209.html
</OT>

Ich weiss auch gar nicht, warum auch auch hier schon wieder harter Grabenkampf wie im 1. WK herrscht :rolleyes:

Wie kann man sich denn nicht dusselig freuen, wenn es jetzt 16 Kerner für nen Tausender gibt, anstelle von 8-10 Kernern für teilweise weit über 1000 Flocken? Oder eben weiter runter 8 Kerner für gerade mal 300 Euro?
Was ergo auch bedeutet, dass alles < 8C günstiger werden muss: Win-Win für alle...egal ob "Spieler", die nur 4C/8T wollen (günstiger) oder "Multitasker" / "Besser haben als brauchen"-User mit 8C+ (mehr fürs gleiche Geld).

mfg

barnygumble
2017-07-17, 10:48:21
Ich habe den Eindruck, dass es sich hier um einen klassischen Fall kognitiver Dissonanz handelt
Vor Erscheinen der Ryzen / SK-X nen schnellen Quad gekauft, das kann/darf ja aber doch keine schlechte Entscheidung gewesen sein.

Hier und in anderen Foren wird teilweise mit einem unglaublichen Eifer die eigene Entscheidung verteidigt, dass es langsam echt keinen Spass mehr macht mitzulesen.

Freut euch doch, dass es endlich mal vorran geht nach Jahren des Stillstands.

robbitop
2017-07-17, 11:11:06
Jaguar mit niedrigem Takt und mittelmäßiger ipc @PS4 funktioniert, weil es 8 Kerne zu einer Zeit waren, wo 4C auf dem Desktop Standard waren und weil für die meisten Spiele 30fps das target waren. Auch ist die Konsole von 2013. Wir haben es 2017. Auch sind idr auch die 30fps nicht immer super stabil und es werden auch idr reduzierte Details gefahren.

Wenn man schaut, wieviele fps bei einem modernen PC im CPU Limit in den meisten Spielen drin sind, kommt es sehr gut hin. Ein 7700K schafft im CPU Limit in den meisten Spielen dreistellige fps.
Braucht eine Konsole offenbar nicht. Dennoch merkt man, dass Jaguar trotz 8C (bzw 7C) und trotz niedrigem Frametarget immer mehr die Luft ausgeht. Mit nur 4C Jaguar hätte man ein Problem. Bzw die Spiele sähen anders aus. Die nächste Konsole bekommt sicherlich mind 8 Zen(2?) Kerne mit SMT. Also 16 Threads. Da werden die Spielentwickler sicherlich nach und nach Vorteile daraus ziehen.

Sven77
2017-07-17, 11:24:21
Freut euch doch, dass es endlich mal vorran geht nach Jahren des Stillstands.

Momentan geht es seitwärts.. Mehr Kerne, aber die Taktraten sinken erstmal wieder, das wird auch bei Coffee Lake so sein. Gib mir einen 6/8Core mit der Single-Core-leistung von Skylake/Kaby-Lake ohne das mir die Kiste halb durchbrennt und ich bin sofort dabei.. den No-Brainer gibt es momentan aber nicht.

Lowkey
2017-07-17, 11:49:33
den No-Brainer gibt es momentan aber nicht.


THIS

Man sollte nicht aufgrund von Kernen auf die Leistung schließen, sondern in der Summe der Benchmarks von Spielen, die man auch spielt. Wenn ein i7-7740k auf einmal 100 Euro weniger kosten würde, dann würde ihn eine Mehrheit nicht kaufen oder der Markt reagiert stark zeitverzögert. Die Leute würde die CPU dann immer noch nicht kaufen, weil sie im Hinterkopf die CPU als Nogo gespeichert haben oder einfach nicht auf dem Radar haben.

Die beste Gaming CPU für mich ist ein Skylake-X auf 5 Ghz mit deaktiviertem SMT und natürlich geköpft.



Einen 2nd PC zum Gamen zu haben hat die Vorteile, dass man einfach alle Sachen wie Energiesparplan auf Höchstleistung stellt und sämtliche Stromsparfeatures deaktivieren darf. Das System ist clean und lädt selbst nach einem Jahr noch wie am ersten Tag. Der Nachteil ist höchstens, dass man mehr als ein System aktuell halten darf.

cat
2017-07-17, 14:25:20
(Betrachten wir einmal nur die Games und Game-Engines. Und gehen hier davon aus das niemals ein GPU- oder OS- oder Treiber-Bottleneck besteht.)

In Games und deren Engines ist irgendwann ein CPU-Thread das schwarze Schaf und wird mehr FPS verhindern.

Ein einzelner Thread wird latenzkritisch und alle anderen müssen warten.
Diese Latenz kann nicht durch Parallelität versteckt werden.

Teilweise gibt es heute schon modernere Engines und Games wo mit erheblichem Aufwand das Aufkommen dieser latenzkritischen Threads durch Fähigkeit zu nochmehr Parallelität minimiert wurde.

Die meisten der großen Game-Engine-Entwickler befinden sich in der Mission diesen Aufwand für Game-Entwickler zu minimieren indem sie ihre Engines smarter und gleichzeitig einfacher nutzbar machen.

Dieser Weg wird der richtige sein da sich die Hardware-Effizienz-Vorteile der neuen Engines und APIs etc. sonst niemals zeigen werden.

Um das zu unterstreichen: Wieviele Games gibt es aktuell die mit über 7-Threads (aktuelle Konsolen) weiterskalieren statt früh einen Schwarzes-Schaf-Thread zu zeigen ?

Es sind sehr wenige Spiele, zu wenige!

Der i7-7700K ist unter Anderem in Games so schnell weil alle Latenzen (Speicher, Instruktionen etc.) in dem Ding so gering sind.

Sardaukar.nsn
2017-07-17, 14:59:33
Ein interessanter Spiele Titel der ausdrücklich "viele Kerne" unterstützt ist Destiny 2 von Bungie. Nächsten Monat erscheint ja die Beta für den PC, morgen geht es für die PS4 los.

Um die Aussage das Destiny 2 "alle" Kerne (im Sinne von nach oben offen) nutzen wird, gab es jedoch schon Missverständnisse: http://mein-mmo.de/destiny-2-ups-alle-cpu-kerne-nicht/

Geächteter
2017-07-17, 16:07:33
Ein einzelner Thread wird latenzkritisch und alle anderen müssen warten.
Diese Latenz kann nicht durch Parallelität versteckt werden.
Teilweise gibt es heute schon modernere Engines und Games wo mit erheblichem Aufwand das Aufkommen dieser latenzkritischen Threads durch Fähigkeit zu nochmehr Parallelität minimiert wurde.

Ich würde mal sagen, wenn sich in der IPC und/oder dem Takt nix mehr tut, werden die Spiele in Sachen "Fortschritt" auch keine Sprünge mehr machen. Manche Sachen lassen sich halt nicht parallisieren, sondern müssen halt in einem Thread abgearbeitet werden. Bestes Beispiel die Flusis, brauchen Power ohne Ende, die CPUs sind heute eigentlich alle zu lahm für gute Ergebnisse, und gewisse Aufgaben nur ein Thread möglich.
Man kann natürlich mit "Larifariphysik" wie Animation von verschieden Crowds in Rollenspielen, die nicht miteinander agieren wohl viel parallelisieren, aber wenn "glaubhaftere" Welt mal irgendwann aus Games rauskommen soll, kommt man um stärkere Einzelkerne nicht drumherum.

robbitop
2017-07-17, 16:10:57
Man braucht sich doch nur die Vergangenheit anzuschauen. Erst brachten 2C ggü 1C wenig. Dann brachten 4C ggü 2C wenig. Dann 8C gegrn 4C. Uswusf.
Außerdem ist das "bringt etwas" / "bringt nix" sehr schwarz/weiß. In einigen Spielen bringt es mehr, in anderen weniger. Das entwickelt sich halt allmählig.
Die Intel 6C/8C HSW-E und BDW-E waren trotz ihrem niedrige Takt eigentlich bei Spielen auch schon eine weile sehr gut dabei. Weil es schon immer mal wieder ein wenig - oder auch etwas mehr bringt.
Auch BUlldozer profitiert jetzt langsam von seinen 8x Integerkernen. 2011/12 wurde er ja von SB verhauen. Heute herrscht mindestens Gleichstand.

Da IPC und Takt eh langsam ausgeschöpft sind, wird die Entwicklung so oder so immer mehr in Richtung MT erfolgen.
In 5 Jahren führen wir wieder die gleiche Diskussion (und dann haben wieder viele die Vergangenheit vergessen), ob nun 16c/32t etwas ggü 8c//16t bringt. Über 4C/8t redet dann niemand mehr.

Heute ist ein 4C/8T mit hoher IPC und hohem Takt die beste Wahl für hohe FPS. Noch besser wäre das gleiche bei mehr Kernen...

Dafür muss aber mit 4C mittelfristig schneller aufgerüstet werden.

Ich tippe darauf, dass CFL ein netter Nachfolger von KBL wird. Hoher Takt, hohe IPC und +2C.

Aus P/L Sicht iist Zen aktuell der klare Sieger. Die meisten spielen eh im GPU Limit und für die sind gute minFPS und P/L und Langlebigkeit wichtiger. Guter Kauf. Wer aber immer das schnellste haben will und im CPU Limit spielt (1080 bei 144 fps - oder im mgpu bei 1440 bei 144 fps) kauft heute 7700K/7740K/78xx und köpft und übertaktet die. In wenigen Monaten eher CFL.

Es ist doch für jeden Zweck und jeden Geldbeutel alles dabei. Da braucht man sich nicht zu zanken. Im Gegenteil. Jetzt gibt es mehr Leistung für die Leute, die ein gutes P/L wollen. Super!

HOT
2017-07-17, 16:47:08
Da ist natürlich was dran, viel mehr IPC pro Takt und Takte jenseits der 4,5GHz sind kaum absehbar. Eine neue µArchitektur von Intel ist ja nicht vor 2022 zu erwarten, vorher gibts halt weitere Core-Auskopplungen mit eher marginal zu erwartenden IPC-Erhöhungen, zumal die niedrig und mittelhoch hängenden Früchte alle abgepflückt sein dürften. Von daher sind die Softwarehersteller sowieso gezwungen in die Breite zu gehen.

//differentRob
2017-07-17, 16:54:22
+1

Je nach dem mit welchen Stock Taktraten der CFL-Hexa erscheint, dürfte das der Sweetspot Gaming-Prozessor für die nächsten 2-3 Jahre sein :cool:

robbitop
2017-07-17, 17:00:52
Naja selbst mit einer neuen mArch ist die ILP die aus einem Thread extrahieren kann irgendwann mal ausgesaugt. Man hat Jahre lang slles dafür gemacht: sämliche buffer vergrößert, Sprungvorhersage verbesser, execution breiter gemacht, caches schneller und größer gemacht. Mehr und schnellere Decoder. IMO ist da seitens mArch nicht mehr zu holen. Ein schneller L4 würde ja ganz offensichtlich noch was bringen (vgl 5775c). Sicherlich ist noch ein wenig mehr Takt und IPC drin. Aber gemessen am Fortschritt über die letzten Jahrzehnte wohl nicht vergleichbar. Der größte Hebel ist MT.

Rampage 2
2017-09-02, 22:16:49
Gibt es hier im Forum denn schon einen Thread, in der Spiele, die von mehr als 4 Kernen profitieren, aufgelistet sind bzw. darüber diskutiert wird?

PS4 und XBOne kamen 2013 raus und haben beide 8 Kerne - da die IPC sehr niedrig ist und die CPUs auch sonst schwach sind, werden die GameDevs alleine deswegen schon ihre Spiele auf Multithreading auslegen, um das maximal Mögliche aus der CPU rauszuholen bzw. eine halbwegs ausreichende CPU-Leistung zu erreichen. Und wenn diese Spiele auf den PC portiert werden, können 6-8 Kern CPUs dann auch ihre volle Kraft entfalten...

Und schon 2013 gab es CryEngine 3 (Crysis 3), Frostbite 2/3 und UE 3/4 - allesamt auf Multithreading ausgelegte Engines. Das war vor 4 Jahren; die Zeit für eine breitere Anzahl von Spielen mit 6+ Kern-Support ist schon längst reif!

Dass immer noch nicht viele Spiele mit 6+ Kern-Support verfügbar sind, liegt IMHO die Schuld bei Intel mit ihren völlig überzogenen Preisen - nur die Wenigsten können/wollen sich die E-Plattform (400< Euro für Hexa-Cores, 1000 Euro für Octa-Core, deutlich teurere MBs und RAM) leisten, nur um besser zocken zu können. Und für Game-Publisher und Developer sind QCs dann der kleinste gemeinsame Nenner...

R2

Ein schneller L4 würde ja ganz offensichtlich noch was bringen (vgl 5775c).

Warum weigert sich Intel seit Jahren so vehement, den eDRAM auf Desktop-CPUs zu verbauen? Freie Die-Fläche ist dank 14nm+ doch mehr als genug da! Vielleicht nicht bei den E-CPUs aber zumindest für Mainstream-CPUs (S1151)...

R2

Leonidas
2017-09-03, 05:59:07
Warum weigert sich Intel seit Jahren so vehement, den eDRAM auf Desktop-CPUs zu verbauen? Freie Die-Fläche ist dank 14nm+ doch mehr als genug da! Vielleicht nicht bei den E-CPUs aber zumindest für Mainstream-CPUs (S1151)...



Ist denen IMO nicht klar, das es Leute gibt, die den eDRAM unter diesem Gesichtspunkt sehen. Und selbst wenn, dann schätzen sie die informierten Käufer als klare Minderheit ein.

Tesseract
2017-09-03, 10:25:00
aus ökonomischer sicht macht der L4 außerhalb stark verbrauchslimitierter laptops wohl wenig sinn da ein 4C+L4 wahrscheinlich teurer in der herstellung ist als ein schlanker 6C oder gar 8C á la ryzen.

IchoTolot
2017-09-03, 14:05:19
Gibt es hier im Forum denn schon einen Thread, in der Spiele, die von mehr als 4 Kernen profitieren, aufgelistet sind bzw. darüber diskutiert wird?


Ja gibt es. :)

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=550273&highlight=Threadskalierung

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581728

Fragman
2017-09-03, 14:20:11
man koennte auch fragen, fuer welche spiele braucht man 5ghz und die ipc eines 7700k auf 4 kernen?

vom technischen aufwand. den der user betreiben muss, um so eine config ueberhaupt erst stabil zu betreiben, red ich noch garnicht.

IchoTolot
2017-09-03, 14:29:06
5 Ghz schaffen auch nur sehr wenige - 4.8 bis 4.9 Ghz schon mehr. Es gibt genügend Spiele die das brauchen. Destiny 2 profitiert davon. ArmA, PUBG und jede Menge Early Access Spiele. Es gibt ja nicht nur AAA und die Handvoll Blockbusterspiele wo mehr Kerne genutzt werden. Aber selbst da ist ja ein hochgetakteter Vierkerner schneller in fast allen Fällen, ergo nutzen die meisten Spiele weiterhin 4 Kerne.

Lehdro
2017-09-03, 15:00:01
Es gibt genügend Spiele die das brauchen.
Ernsthaft? Brauchen? So ein Quatsch.

"Brauchen" braucht das wohl eher genau KEIN einziges Spiel. 60 FPS erreichst du mit nahezu allen aktuellen CPUs und bei den Spielen bei denen du 200 FPS wirklich "brauchst", reicht auch alles andere. (OW, CS:GO etc)

Grafikkarten limitieren immer noch mehr als CPUs.

IchoTolot
2017-09-03, 15:09:45
Da hast du so gesehen natürlich Recht. Aber es gibt eben Spiele wo du hohe FPS haben willst und eben auch populäre wie PUBG und da wirst du immer Singlecoreleistung haben wollen. So Spiele wird es doch immer geben.

Tesseract
2017-09-03, 15:15:53
"Brauchen" braucht das wohl eher genau KEIN einziges Spiel. 60 FPS erreichst du mit nahezu allen aktuellen CPUs und bei den Spielen bei denen du 200 FPS wirklich "brauchst", reicht auch alles andere. (OW, CS:GO etc)

man "braucht" auch keine 60fps, spielbar sind spiele auch mit 10fps. das heißt aber noch lange nicht, dass man die spiele mit 10fps bzw. 60fps spielen will.

Aber es gibt eben Spiele wo du hohe FPS haben willst
ja, alle :D

Lehdro
2017-09-03, 16:42:12
Aber es gibt eben Spiele wo du hohe FPS haben willst und eben auch populäre wie PUBG und da wirst du immer Singlecoreleistung haben wollen. So Spiele wird es doch immer geben.
Gibt es denn schon belastbare CPU Benchmarks nach dem letzten CPU Update für PUBG?

Warten wir doch erstmal ab wie es aussieht wenn PUBG ordentlich optimiert wird. Technisch ist das Spiel immernoch eine Katastrophe (http://www.pcgameshardware.de/Playerunknowns-Battlegrounds-Spiel-60812/Specials/Playerunknowns-Battlegrounds-neue-Benchmarks-Vega-1236260/).
Und nur weil Spiele manchmal scheiße laufen auf manchen CPUs (Stichwort: Multithreading), so heißt das doch nicht dass das so bleibt, Beispiele: RotTR, TW:WH und AotS.
man "braucht" auch keine 60fps, spielbar sind spiele auch mit 10fps. das heißt aber noch lange nicht, dass man die spiele mit 10fps bzw. 60fps spielen will.

Klar, tolle Aussage, geht es vielleicht noch eingeschränkter? Mit 10 FPS kannst du wohl eher kaum "spielen", das geht schon eher in das Leiden rein. Was kommt als nächstes? Auflösung runter auf 640x480, denn es ist ja "spielbar"? Vielleicht noch Monochrom, denn es ist ja "spielbar"? Merkste selber ne?
Mit 25-30 FPS gehe ich ja noch mit, denn das ist valide und auch durchaus weit vertreten (Stichwort: Konsolen), aber 10 FPS ist schon ein ziemlicher Strohmann, vorallem in Multiplayer Titeln.

Mit mindestens 60 FPS ist zumindest alles realistisch gesehen problemlos spielbar. Was ja der Punkt ist, in welchen Spielen erreicht denn der 7700k @ 5 GHz die 60 FPS, wo zb der BDW-E/Ryzen strauchelt? Mir fällt keins ein.
Mit 144 fps siehts da sicher anders aus, allerdings kommt man da auf den Titel des Threads zurück, bei der Auswahl der Systemkomponenten sollte man da auf die Sinnhaftigkeit und die genutzte Softwarebasis schauen und sich dann entscheiden.

Ich bleibe dabei: Man "braucht" keinen 7700K @ 5GHz für Spiele, für kein einziges.

Lowkey
2017-09-03, 17:01:53
Ich hatte meinen Screen mit 3440x1440 auf 60hz ausversehen eingestellt und fragte mich, warum PUBG so ruckelig ist. Und dann triffst du nichts im Nahkampf, weil die 60fps statt von 144fps auf 85fps einbrechen, aber auch die 60fps dann runter auf 36fps. 60fps auf 24" sind harmlos und spielbarer, aber bei 21:9 siehst du den Versatz im Spiel.

Nur ist halt die CPU von 4,5 Ghz auf 5 Ghz fast nichts, aber es wird im CPU Limit bei PUBG in FPS umgesetzt und dank Beta Status hast du oft ein CPU Limit.

Tesseract
2017-09-03, 17:02:01
Klar, tolle Aussage, geht es vielleicht noch eingeschränkter? Mit 10 FPS kannst du wohl eher kaum "spielen", das geht schon eher in das Leiden rein. Was kommt als nächstes? Auflösung runter auf 640x480, denn es ist ja "spielbar"? Vielleicht noch Monochrom, denn es ist ja "spielbar"? Merkste selber ne?
Mit 25-30 FPS gehe ich ja noch mit, denn das ist valide und auch durchaus weit vertreten (Stichwort: Konsolen), aber 10 FPS ist schon ein ziemlicher Strohmann, vorallem in Multiplayer Titeln.

dir ist aber schon klar, dass ich dir den spiegel vorgehalten habe und du gerade deine eigene argumentation auseinander nimmst, oder?
60fps ist ein vollkommen arbiträrer wert den du wahrscheinlich genommen hast weil dein monitor 60Hz hat, aber abgesehen von der großen verbreitung ist an 60Hz absolut nix besonders. 30 ist besser als 10, 60 ist besser als 30, 120 ist besser als 60, 144 ist besser als 120 und ja, selbst 165 ist noch sichtbar und fühlbar besser als 144.

Schnoesel
2017-09-03, 17:06:51
Weiß etz ehrlich gesagt gar nicht warum so ein Game im Alpha Status hier maßgeblicher Diskussionsgegenstand wird? Bei PUBG limitiert die Software und wer die beste GPU für PUBG im CPU Limit sucht muss eh eine Vega nehmen...

Imo ist für mich eine HEDT Plattform keine Gamingplattform (auch wenn dies die Mainboardhersteller offenbar anders sehen). Für mich sind das Arbeitstiere mit denen man nach Feierabend auch mal gut zocken kann ohne große Einschränkungen.

Platos
2017-09-03, 17:07:56
Gibt es hier im Forum denn schon einen Thread, in der Spiele, die von mehr als 4 Kernen profitieren, aufgelistet sind bzw. darüber diskutiert wird?

PS4 und XBOne kamen 2013 raus und haben beide 8 Kerne - da die IPC sehr niedrig ist und die CPUs auch sonst schwach sind, werden die GameDevs alleine deswegen schon ihre Spiele auf Multithreading auslegen, um das maximal Mögliche aus der CPU rauszuholen bzw. eine halbwegs ausreichende CPU-Leistung zu erreichen. Und wenn diese Spiele auf den PC portiert werden, können 6-8 Kern CPUs dann auch ihre volle Kraft entfalten...

Und schon 2013 gab es CryEngine 3 (Crysis 3), Frostbite 2/3 und UE 3/4 - allesamt auf Multithreading ausgelegte Engines. Das war vor 4 Jahren; die Zeit für eine breitere Anzahl von Spielen mit 6+ Kern-Support ist schon längst reif!

Dass immer noch nicht viele Spiele mit 6+ Kern-Support verfügbar sind, liegt IMHO die Schuld bei Intel mit ihren völlig überzogenen Preisen - nur die Wenigsten können/wollen sich die E-Plattform (400< Euro für Hexa-Cores, 1000 Euro für Octa-Core, deutlich teurere MBs und RAM) leisten, nur um besser zocken zu können. Und für Game-Publisher und Developer sind QCs dann der kleinste gemeinsame Nenner...

R2

Ob die Konsolen 8 Threads haben, ist doch eigentlich völlig egal. Die PC-Games müssen trotzdem so portiert werden, dass sie eben auf PC funktionieren, also mit 2-4 Kernen. Also muss es so portiert werden, dass es bei der Masse läuft. Und wenn die Masse eben keine 6-8 Kerner haben, dann kann man es auch nicht einfach auf 8 Kerne optimieren. Ein übertriebenes Beispiel: Wenn die Konsole 16 Threads hätte, der durchschnitts PC-Gamer aber nur 1 Kern, dann kann man das Spiel auf PC nicht einfach auf 16 Threads optimiert portieren. Dann würde es einfach beschissen laufen (Wobei man könnte es auch einfach beschissen portieren).

Schlussendlich kommts doch nur drauf an, wie viele Kerne die Masse von denn Gamern (die solche Spiele spielen) hat und nicht auf die Paar Konsolen-Ports. Und da ist eben (2-)4 Kerne (noch). Es kommt aber auch nicht darauf an, wie viele Kerne verfügbar sind (6-8 Kerne gibt es ja schon länger), es ist eben nur wichtig, wie viele Kerne sind im Bereich für (Schätzung) 120-180 Euro zu haben. Also i3-i5. Wenn man jetzt aber für den selben Preis 2 Kerne mehr bekommt, wird das was ändern. Natürlich geht es eine Weile bis dann auch wirklich alle heutigen i3-i5 Besitzer einen neuen Kaufen (bzw. wenigsens die Mehrheit). Und es ist nun mal auch wichtig, dass auch Intel mit der Kern-Zahl nach oben geht. Ist also gut, dass beide Lager 6 Kerne für um die 160-220 Euro anbieten. (bzw. mit Coffe lake dann beide).

Ach ja, zum Thema Kerne: Schaut mal wie viele von 2 Kerner auf 4 Kerner (oder höheres) umgestiegen sind. 12.3 % weniger bei 2 Kern Besitzer und + 10.5% bei 4-kern Besitzer. Auch die Zunahme von 6-8 kerner (bei Linux) merkt man.

http://store.steampowered.com/hwsurvey/cpus/

Edit: Die Zahlen kann man garnicht so zusammenrechnen, sorry. Sind ja 2.7% nur von Linux, das sind aber nicht 2.7% aller Nutzer. Die Zahlen sind aber so oder so beachtbar.

Lehdro
2017-09-03, 18:52:49
dir ist aber schon klar, dass ich dir den spiegel vorgehalten habe und du gerade deine eigene argumentation auseinander nimmst, oder?
Wow. Tut das not? Ich fühle mich schon hart argumentativ benachteiligt. Nicht.


60fps ist ein vollkommen arbiträrer wert den du wahrscheinlich genommen hast weil dein monitor 60Hz hat, aber abgesehen von der großen verbreitung ist an 60Hz absolut nix besonders. 30 ist besser als 10, 60 ist besser als 30, 120 ist besser als 60, 144 ist besser als 120 und ja, selbst 165 ist noch sichtbar und fühlbar besser als 144.
60 und mit Einschränkungen 30 Hz sind so arbiträr das es DIE STANDARDS seit Jahrzehnten sind. Jetzt du.

Mir ist schon klar das 240 > 144 > 60 > 30, aus eigener Erfahrung. Vorallem beim Spiegefühl. Allerdings empfinde ich das nicht als zwingend notwendig im Sinne von "brauchen".

Und:

den du wahrscheinlich genommen hast weil dein monitor 60Hz hat.
Einer von drei, ja. Und?

Tesseract
2017-09-03, 19:08:02
Allerdings empfinde ich das nicht als zwingend notwendig im Sinne von "brauchen".
genau das ist der punkt: du definierst für dich persönlich was "brauchen" in diesem zusammenhang bedeutet und bezeichnest andere definitionen als "quatsch". wenn man mit 60 nicht zufrieden ist dann "braucht" man sehr wohl mehr.

Lehdro
2017-09-03, 21:40:20
genau das ist der punkt: du definierst für dich persönlich was "brauchen" in diesem zusammenhang bedeutet und bezeichnest andere definitionen als "quatsch". wenn man mit 60 nicht zufrieden ist dann "braucht" man sehr wohl mehr.
Er hat einen 60 Hz Monitor. Wirklich. Einen 60 Hz Monitor. Schau in seine Signatur.

"Brauchen" würde bedeuten das es ohne nicht geht, also das Spiel. Halte ich für Quatsch, denn es geht auch ohne 5GHz i7 7700k.

Bevor es hier komplett ins OT mit der Wortklauberei geht, schauen wir uns nochmal den Quote an:

5 Ghz schaffen auch nur sehr wenige - 4.8 bis 4.9 Ghz schon mehr. Es gibt genügend Spiele die das brauchen.
ER _meint_ er "braucht" das für seine 144Hz/165Hz/240Hz (auf einem 60 Hz Monitor). Nur dass das Zitat halt sehr allgemeingültig gehalten ist und impliziert das es ohne i7 7700K nicht starten würde.

Nur als Beispiel um mal den Rest seiner "Fakten" einzunorden:
Destiny 2
Destiny 2, eins seiner Beispiele, läuft auch ohne 5 GHz i7 7700k mit >> 165 Hz (200 ist derzeit Engine Limit) und selbst ein "lahmer" R7 1700 auf 3GHz festgetackert(!) schafft schon 120 FPS (http://www.pcgameshardware.de/Destiny-2-Spiel-59880/Specials/Benchmark-Test-Review-1237269/). Ganz zu schweigen von dem OC BDW-E der mal locker flocking 166 FPS auf den Schirm zaubert.

Letzter Post dazu.

IchoTolot
2017-09-03, 21:54:35
Du scheinst nicht verstehen, dass auch mit 60 Hz Monitor höhere FPS-Werte einen Nutzen haben.

hjWSRTYV8e0

Lehdro
2017-09-04, 08:59:07
Du scheinst nicht verstehen, dass auch mit 60 Hz Monitor höhere FPS-Werte einen Nutzen haben.

Ich verstehe das durchaus. Allerdings du nicht wenn man so deine PC Zusammenstellung sieht:

Pretested 7700k
mini GTX 1070
+
7 Jahre altes 60 Hz Panel

Du hast mit deinem Monitor schon nativ soviel Inputlag + Reaktionszeit dass das bei dir eher schon ins Esoterische geht.
Deine Fixierung auf > 60 FPS sind einfach nur ein hoher Wert im Framecounter, sonst nichts.

Sorry, aber hohe FPS mithilfe eines i7 7700k beschwören, das dann aber auf einem 60 Hz + high Inputlag + hohe Reaktionszeit Monitor "erleben" ist bei mir das Paradebeispiel von Unsinn bei der PC Zusammenstellung.
Kauf dir ein 144 Hz Panel und wir können reden. Oder noch günstiger, ein vernünftiges 60 Hz Panel mit weniger Inputlag sollte selbst bei gecappten 60 FPS subjektiv besser sein als dein 60 Hz Monitor + high FPS :freak: Selbst mein 3 Jahre altes 28" 4K Display hat weniger Inputlag...

HOT
2017-09-04, 09:27:42
Hinzu kommt, dass hohe FPS gar nichts nützen, wenn man bei den Frametimes Nachteile in Kauf nehmen muss, wie das derzeit bei den 4-Thread Prozessoren wie 6600k oder 7600k der Fall ist. Ich finde es absehbar, dass Spiele beim Multithreading noch lange nicht am Ende sind. Momentan sind 4 Kerne + SMT optimal, das kann sich aber ändern.

aufkrawall
2017-09-04, 09:40:12
Bei dem ganzen Geschwafel hier bitte nicht vergessen, dass CPU-Benchmarks im Netz selten die wirklich schlimmsten Drops abbilden, die man in den getesteten Spielen real erfahren kann.

F1 2017 ist jedenfalls ein weiteres, neues Spiel, bei dem ein Ringbus 4C i7 glänzt, und von Ryzen- und wahrscheinlich auch Intel-Mesh-Optimierung nichts zu sehen ist.

Schnoesel
2017-09-04, 10:46:27
F1 2017 ist jedenfalls ein weiteres, neues Spiel, bei dem ein Ringbus 4C i7 glänzt, und von Ryzen- und wahrscheinlich auch Intel-Mesh-Optimierung nichts zu sehen ist.

Das mag sein, dass die CPUs in 1080p dann nicht die höchsten Frames auswerfen, aber ich sehe nicht, dass sie so langsam wären, dass es von Relevanz wäre:

https://www.computerbase.de/2017-08/f1-2017-pc-benchmark/3/#abschnitt_benchmarks_mit_intel_core_amd_ryzen_und_fx_update

MiamiNice
2017-09-04, 13:41:07
Fakt ist doch das bis Skylake X jede HEDT CPU von Intel voll Gaming tauglich war/ist. Die Teile lassen sich außerdem gut overclocken und durch die besseren Features der HEDT Plattform (z.b. mehr Lanes) sprechen diese natürlich auch Gamer bzw. Leute an die Ihren PC als Ihr Hobby empfinden an. Was daran "Unsinn" sein soll - verstehen wohl die wenigsten.
AMD hatte lange nichts in diesem Segment also ist das Bild von Intel geprägt (und mit den HEDT CPUs von Intel kann man, wie schon geschrieben, sehr gut spielen).
Ergo ist doch logisch das man bei Threadripper auch danach fragt zumal das Teil gerade mit so vielen PCI Lanes daher kommt.

Ich sehe hier keinen Unsinn.
Volles SLI bekommt man auch nur mit HEDT, btw.

Was ziemlicher Unsinn ist sind die Kiddy Bretter mit den Kirmis LEDs an jeder Ecke im HEPT Bereich.

Schnoesel
2017-09-04, 13:53:39
Auch Skylake-X oder TR sind voll Gamingtauglich. ich gehe auch davon aus dass man bei einer High End Plattform ebenso eine High End Graka sowie Monitor hat und daher wohl so gut wie immer im GPU Limit ist. Volles SLI (also 2x16) bekommt man übrigens auch nur mit TR wenn ich mich nicht irre.

Das macht aber eine solche Plattform nicht zur primären Gamingplattform. Wenn es mir nur und ausschließlich um Gaming ginge würde ich keinem eine HEDT Plattform empfehlen und SLI/CF sowieso abraten.

aufkrawall
2017-09-04, 16:17:11
Das mag sein, dass die CPUs in 1080p dann nicht die höchsten Frames auswerfen, aber ich sehe nicht, dass sie so langsam wären, dass es von Relevanz wäre:

https://www.computerbase.de/2017-08/f1-2017-pc-benchmark/3/#abschnitt_benchmarks_mit_intel_core_amd_ryzen_und_fx_update
Was habe ich denn einen Post zuvor zu den Worst Case fps in der Praxis vs. Tests geschrieben?
Die Benchmarks von Project Cars, die nicht bei Regen sind, vermitteln z.B. ein völlig falsches Bild über die Performance-Anforderungen. So schnell kanns gehen.

Mir fällt gerade ein, dass man dieses Unsinns-Argument von wegen "fps eh hoch genug" schon beim Bulldozer lesen musste...

IchoTolot
2017-09-04, 16:23:19
F1 2017 ist jedenfalls ein weiteres, neues Spiel, bei dem ein Ringbus 4C i7 glänzt, und von Ryzen- und wahrscheinlich auch Intel-Mesh-Optimierung nichts zu sehen ist.

Nutzt auch nur wirklich 4 Kerne im Großteil.

http://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/f1-2017-test-gpu-cpu

Bei Project Cars sehe ich bei meinem i7 da teilweise im Regen Auslastungen bis 80% auf einem Kern im Regen mit Gegnern im Rennen. Nicht schwer sich vorzustellen, dass da ein Ryzen schlechter abschneidet.

Schnoesel
2017-09-04, 17:42:58
Mir fällt gerade ein, dass man dieses Unsinns-Argument von wegen "fps eh hoch genug" schon beim Bulldozer lesen musste...


Weil es kein Unsinn ist. Auch mit Bulldozer war ich in 1440p so gut wie immer im GPU Limit. Auch mit dieser CPU konnte man spielen und wenn man nicht permanent nen Framecounter anhat merkt man noch nicht mal dass ein paar FPS fehlen. Evtl. solltet ihr von eurem Mäusekino mal umsteigen.

Abgesehen davon gehts hier um HEDT und damit hatte Bulldozer mal wirklich nix am Hut.

G3cko
2017-09-04, 21:53:09
Takt wird total überbewertet. Die Taktraten stagnieren seit Jahren und legen vielleicht um 100MHz jährlich dazu. Genauso die IPC, welche ja sogar bei Skylake-X rückläufig ist. Und selbst wenn sich Intels 6 Kerner auf 5 Ghz übertakten lässt auch egal.

Die Singlethread-Performance stagniert nahezu im Gegensatz zur Multithreading-Performance. Software muss aber überall laufen, auch auf Notebooks oder Media-Markt-Möhren. Ganz egal wie hoch man die Takt-Fahne schwingt.

Und das wissen auch die Spielentwickler. Klar gibt es auch mal Software, welche ehr Singlethread-Limitiert ist, aber dennoch muss sie auf gängiger Hardware laufen.

Das Ursache des Dilemas ist ja auch das Ungleichgewicht beim Performancezuwachse zwischen Singlethread-Performance bei den CPUs gegenüber Multithreading-Leistung bei CPUs, und auch der weiterhin stark zunehmenden Grafikkartenleistung durch mehr Chipfläche.

Man läuft also über kurz oder lang in einer Overheadproblem und da helfen auch 20% popelige Singel-Threadleistung mehr oder weniger nicht weiter. Deshalb auch der LowLevel Ansatz.

Wenn man all diese Punkte ernsthaft berücksichtigt, versteht man auch weshalb ein 5960x@4,5Ghz eben sein Geld wert war. Unter OC kaum langsamer (200MHZ) als die schnellste damalige Singelthread-CPU 4790k. Und im Multithreading Faktor >2 schneller als dieser @Stock.

Dazu eben genug PCIe Lanes für all die aktuellen Spielerein wie NVMe-SSDs oder eben das hoffentlich kommende Multi-GPU unter LL.

Was will man den einem solchen Kunden aktuell verkaufen? Das Ding läuf in ein paar Wochen aus der 3 jährigen Garantie und es gibt praktisch kaum bessere Gaming-CPUs/Plattformen. Und wann wird eine solche OC-CPU ernsthaft mal nicht mehr ausreichen? In 5-7 Jahren. Also mit einem Alter von +8 Jahren?!

Klar kann man über Sinn und Unsinn streiten, aber dann sollte man eher bei High-End Grafikkarten anfangen. Ein Intel Core i7-980X aus 2010 kann mit OC heute alles noch befeuern. In BF1 fühlt der sich dank 6 Kernen und HT richtig wohl während einem 7600k die Puste ausgeht... Was kann denn eine GTX480 aus 2010 mit OC so in BF1?

Also ein 980x kommt @ Stock mit Ultra-Setting so auf 90fps. Wobei hier wohl wieder die GPU limitiert.
https://www.youtube.com/watch?v=yR9ZgOc-aH0

robbitop
2017-09-04, 21:58:17
Ein 2600K @4,5 ghz und 2133er ddr3 ist auch heute fast immer schnell genug.

Gulftown ist sicher nicht uninteressant- kann aber noch kein AVX. Das könnte schon mittlerweile auch in Games etwas kosten. So wie Phenom 2. Wie hoch ist Gulftown übertaktbar?
Ein übertakteter Vishera ist in modernen Spielen wahrscheinlich ggü Gulftown und Ph2 x6 im Vorteil.

Daredevil
2017-09-04, 22:29:18
Takt wird total überbewertet. Die Taktraten stagnieren seit Jahren und legen vielleicht um 100MHz jährlich dazu. Genauso die IPC, welche ja sogar bei Skylake-X rückläufig ist.
Also ich würde tauschen. :D
Mein Prozzi ebenfalls @ 4.2Ghz
http://abload.de/img/unbenanntb1sd1.png

IchoTolot
2017-09-04, 22:30:51
Takt wird total überbewertet.

Takt ist das wichtigste überhaupt. Sieht man doch.

myMind
2017-09-04, 22:39:46
Was ziemlicher Unsinn ist sind die Kiddy Bretter mit den Kirmis LEDs an jeder Ecke im HEPT Bereich.
Ein wahres Wort gelassen ausgesprochen: Aktuelle TR4-Mainboards (https://www.heise.de/preisvergleich/?cat=mbtr4).

ASUS Prime X399-A (90MB0V80-M0AAY0)
MSI X399 Gaming Pro Carbon AC (7B09-010R)
ASRock X399 Taichi (90-MXB5R0-A0UAYZ)
Gigabyte X399 Aorus Gaming 7
ASRock Fatal1ty X399 Professional Gaming (90-MXB5Q0-A0UAYZ)
ASUS ROG Zenith Extreme (90MB0UV0-M0EAY0)
Nur teure Spiele-Boards mit Bling-Bling.

Und jetzt machen wir einen kleinen Sprung in die nächste Klasse: Aktuelle SP3-Mainboards (https://www.heise.de/preisvergleich/?cat=mb940&xf=644_Sockel+SP3).
Supermicro H11DSi retail (MBD-H11DSi-O)
Supermicro H11DSi-NT retail (MBD-H11DSi-NT-O)

Zweiprozessor-Boards >540€.

Das bleibt hoffentlich nicht lange so, aber es fehlen beim AMD sowohl echte Workstation-Boards als auch vergleichsweise günstige Server-Boards mit IPMI/KVM. Da ist eine riesen Lücke.

Andererseits...

...zielt AMD damit genau auf den Unsinn, den Intel gerade bei Kabylake-X verzapft. Dort - bei Intel - versucht man die Lücke zwischen Büro/Gaming-PC und Workstation komplett schrotting zu schließen. Sehr schön erklärt hier:
F999SBWgXUk?t=802
^ Echt jetzt, Video mit Zeitstempel funktioniert in der Vorschau, aber nicht nach dem Posten?
F999SBWgXUk < ab 13:55

G3cko
2017-09-04, 23:04:58
Ich sage ja nicht, dass der Takt und IPC egal ist. Zwischen einem x5650 und einem 7700k liegen 7 Jahre! In Summe kommt da schon was zusammen. Seit Sandy liegt der Takt @OC aber grob bei 4,5 - 5GHz. Den Rest macht die IPC.

Eine gute CPU zeichnet nunmal alle 3 Werte aus: IPC, Takt, Kerne

Genauso wie Bulldozer an der IPC verhungert ist, so verhungert der 7600k an den Kernen bzw Threads. Und nur weil sich der 7700k dank HT rettet ist es eben dadurch keine Hammer CPU.

Spannend und viel wichtiger wird sein was in den nächsten Konsolen landet.

Und durch LL und Wettbewerb Dank AMD wird Takt und IPC ersteinmal unwichtig. Spätestens wenn die Entwickler Mal anfangen die Kerne zu nutzen, zB für Physik welche seit Jahren viel viel weiter sein könnte, sieht auch ein 6 Kerner kein Land.

IchoTolot
2017-09-04, 23:31:02
Takt wird nie unwichtig. Was ist denn bisher bei LL groß passiert? Nicht viel. Wer macht sich schon die Mühe sich mit LL zu beschäftigen, wenn man das die Grafikkartenhersteller machen lassen kann? Offenbar kaum einer und wenn, dann kommt nichts gescheites bei rum. Damit sich damit ein Entwickler bemüht, muss es sich schon richtig lohnen und bisher tut es das bei keinem Spiel. Einziges hervorstechendes Spiel ist DOOM mit Vulkan, das war es dann doch auch. Ich würde also nicht zuviel erwarten von LL in der Zukunft..

Eine gute CPU zeichnet vor allem eines aus: Leistung. Wie die erbracht wird ist nebensächlich. So sehe ich das.

Daredevil
2017-09-04, 23:42:26
Ich weiß zwar nicht, ob das vergleichbar ist.
Aber Apple führt ja quasi im Markt ja auch allesamt mit ihren Prozessoren vor.
Da kommt auch kein Helio x27 ran, obwohl er 11 Kerne beherbergt.

PacmanX100
2017-09-05, 12:13:31
Bulldozer oder P4 haben es ja deshalb nicht geschafft weil die Taktziele eindeutig verfehlt wurden. Bei 7-10 GHz wären die einigermaßen brauchbar gewesen von der Leistung. ;)

Für mich ist die kommende Coffee Lake Generation genau das was die Spielewelt braucht. Mehr Kerne und gleichzeitig schneller in old Apps. Klarer Umstiegskauf.

Es nützt auch nichts mit Kerne zugepflastert zu werden wenn die Leistung dann sinkt, schließlich war x86 schon immer sehr flexibel was Anwendungen angeht.
Sandy Bridge-E wurde ja schon erwähnt, auch heute noch sehr konkurrenzfähig. Bei 4,3-4,9 GHz kann der 6Kerner noch ganz vorne mitspielen. Einzige was ihm fehlt sind neue Befehlssätze, das ist bei so einer langen Zeit aber abzusehen.

Generell wird sich der Markt wohl in zwei Bereiche trennen. Workstation PCs und Gaming Equipment. Die Workstations werden sicherlich ähnlich wie Xeons immer breiter, die Gaming CPUs eher schneller.
Sicher kann man eher einen 2,5GHz Prozessor bauen der 10 Kerne hat als 5GHz bei 6 Stück aber alles lässt sich auch nicht parallelisieren. Der Trend geht vermutlich zu einem Zwitter, was dank Turbomode ja schon begonnen hat.

Schade auch das Intel wie AMD sehr wenig mit Cache experementieren. Frühere Generationen haben ja massiv zugelegt durch Cachesize.

IchoTolot
2017-09-05, 12:28:11
Sicher kann man eher einen 2,5GHz Prozessor bauen der 10 Kerne hat als 5GHz bei 6 Stück aber alles lässt sich auch nicht parallelisieren. Der Trend geht vermutlich zu einem Zwitter, was dank Turbomode ja schon begonnen hat.


Exakt das denke ich auch. Derartige CPUs gibt es auch schon. Cell oder Kilocore Prozessoren.

Tesseract
2017-09-05, 12:30:31
Schade auch das Intel wie AMD sehr wenig mit Cache experementieren. Frühere Generationen haben ja massiv zugelegt durch Cachesize.

es wird sehr viel mit cache experimentiert, die caches sind aber schon so gut, dass da kaum noch was zu machen ist. >=1MB pro thread reicht für locality of reference einfach vollkommen aus und darüber hinaus ist jeder gewinn teuer erkauft - siehe crystalwell wo man flächenmäßig quasi eine "zweite CPU" auf den carrier löten muss damit man deutliche gewinne sieht. wär software besser parallelisiert würde es wahrscheinlich sogar sinn machen die caches tendenziell etwas kleiner zu machen und dafür mehr cores auf dem chip unterzubringen. moderne cores sind schon absolut gigantisch um das letzte prozent IPC rauszuquetschen.

MiamiNice
2017-09-05, 13:01:04
Ich weiß zwar nicht, ob das vergleichbar ist.
Aber Apple führt ja quasi im Markt ja auch allesamt mit ihren Prozessoren vor.
Da kommt auch kein Helio x27 ran, obwohl er 11 Kerne beherbergt.

Für mein Verständnis von unserer aktuellen Technik und von Software triffst Du hier genau ins schwarze. Das iPhone hat eine beeindruckende Single Core Leistung. Jetzt kann man argumentieren das Apple iOS selbst schreibt und wahrscheinlich auf die eigene CPU anpasst. Imho aber nur die Hälfte der Wahrheit. Top Android Geräte liegen trotz xx Kernen mit xxxx Mhz regelmäßig in diversen Benches zurück. In direkten Vergleich fühlt sich ein Android Handy auch nicht so agil wie ein iPhone an (keine Diskussion wert at Android Fanbase!).

Es ist so oder soll so sein, ich bin selbst ein Laie, das sich nicht alles parallelisieren lässt. Ich habe Aussagen von Menschen gelesen, von denen ich zumindest glaube das sie kompetent in ihrem Fach sind, das es aktuell gar nicht möglich ist alles zu parallelisieren und man an die mathematischen Grenzen stößt bzw. an die Grenzen dessen was unser aktueller Programmieransatz zulässt. Es muss entweder eine neue Sprache bzw. Ansatz her oder die Hardware muss sich wandeln.

De Fakto haben wir seit etlichen Jahren Multiciore CPUs und wir alle wissen das sich so etwas wie Bilder rendern oder Daten entpacken gut parallelisieren lässt. Ich selber bin weder Mathe Freak noch Progger aber wenn es so einfach wäre Multi Core zu programmieren dann würden heute viel mehr Dinge aka Software gut mit der Anzahl der Kerne skalieren. Tut es aber nicht!

Die Entwickler sind seit Jahren bestrebt dieses Problem zu lösen aber dato heute, zig Jahre nach den ersten Multi Core CPU, skaliert 95% aller Software am Markt, und selbst auf den Handys, mit der Single Thread Power und dem Takt.

Nur weil AMD jetzt den Core War eröffnet haben und es nun bezahlbare many Core CPUs für "Jedermann" gibt, wird sich an der Situation nichts ändern.

Die paar Titel und spezial Software die aktuell gut skalieren sind Ausnahmen und werden es auch bleiben kurz, mittel und langfristig. Selbst ein BF1 welches über 8 Kerne noch gut skaliert, wird einfach nur Dinge auslagern in andere Threads. Es ist mit Sicherheit nicht nativ Multi Core.

Und dies ist genau der Punkt. Es sieht dato heute so aus als würde die Entwickler hergehen und alles in einzelne Threads verpacken also z.b. Ai, Sound, etc. je ein Thread. Das hat aber nichts mit echter Parallelisierung zu tun. So wie es dato heute ist spawnt so ziemlich jede home user Software 1-3 Threads die Last erzeugen und ein paar Threads die rum dümpeln.

Dafür braucht man keine 8 oder mehr Kern CPUs. Das auch der Grund warum 4 Kernen noch immer das Maß der Dinge sind.

Das wo wir hinwollen ist das ein Thread auf alle verfügbaren Kerne gleichmäßig aufgeteilt wird und auf allen Kernen gleichmäßig Last erzeugt. Weder mit unserem heutigen Wissen über Programmierung noch mit der heutigen HW werden wir an dieses Ziel kommen.

Und so lange dies nicht der Fall ist gilt für alle die keine Benchmarks, Packer oder Renderer spielen:

IPC > Takt > Kerne. Single Thread Power war King, ist King, und ist durch nichts zu ersetzen außer noch mehr davon!

Da können Lisa Su und diverse roten Fahnenträger noch 1 mio. mal gebetsmühlenartig das Many Core Zeitalter propagieren. Die Software und die Entwickler sehen das anders.

Pirx
2017-09-05, 13:06:39
Warum lässt du nicht als Laie einfach solche Aussagen sein? Das nützt niemandem was.

aufkrawall
2017-09-05, 13:09:45
Dass in leider viel zu vielen Spielen einige Kerne komplett überfrachtet sind, stimmt aber leider.
Hat bei DX11 sicher auch was mit den Drawcalls zu tun. Aber auch mit LL ist man nicht gegen die Doofheit des Entwicklers gefeit, siehe Forza.

MiamiNice
2017-09-05, 13:10:55
Weil ich 1 & 1 zusammen zählen kann und jeder zu dem Schluss kommt der ein wenig recherchiert @Pirx!
Und selbst für nicht Mathe Genies ist es verständlich das sich vieles einfach nicht teilen lässt oder Dinge einfach abhängig sind von vorherigen Berechnungen. Ist vielleicht eine Raketenwissenschaft aber in den Grundzügen basiert alles auf reiner Logik.

Damit wir mit unserem heutigen Programmieransatz Erfolg haben müssten die Mehrkern CPUs nach außen hin wie ein CPU funktionieren und die Verteilung oder Zerlegung der/des Thread/s müsste in der CPU erfolgen. Das geht aber nicht.
Die Software selbst lässt sich nicht so zerlegen das man X Threads spawnen kann die alle "ein Teil des ganzen" berechnen sondern "wir lagern nur aus, was sich auslagern lässt".

Wie man es auch dreht und wendet, die Zeit ist nicht reif für viele Cores im Homesektor.

Pirx
2017-09-05, 13:27:11
Und jetzt denke nochmal in die andere Richtung sehe dort auch die Erfolge und dann wäge das und die derzeitig absehbaren Entwicklungsmöglichkeiten von Hard- und Software gegeneinander ab. Dann kommt man langsam zu einer fundierten Aussage. Bis jetzt ist das doch, mit Verlaub, nur Geschwafel.

MiamiNice
2017-09-05, 13:34:29
Wenn das für Dich nur Geschwafel ist dann sei doch so nett und erhelle uns bzw. mich mit Deinen Gedanken aus der anderen Richtung. Denn schreiben das alles Geschwafel ist kann, auch mit Verlaub, jeder.

Tesseract
2017-09-05, 13:38:54
Das iPhone hat eine beeindruckende Single Core Leistung. Jetzt kann man argumentieren das Apple iOS selbst schreibt und wahrscheinlich auf die eigene CPU anpasst. Imho aber nur die Hälfte der Wahrheit. Top Android Geräte liegen trotz xx Kernen mit xxxx Mhz regelmäßig in diversen Benches zurück. In direkten Vergleich fühlt sich ein Android Handy auch nicht so agil wie ein iPhone an (keine Diskussion wert at Android Fanbase!).

der vergleich hinkt gewaltig. iphones sind geschlossene systeme wo viele funktionen überhaupt nicht auf den cores laufen sondern als fixed function ausgeführt sind. die cores sind zwar sehr schnell, aber nicht so schnell wie es viele walled-garden-benchmarks suggerieren. außerdem ist der chip bereits größer als so mancher desktop-prozessor. sowas lässt sich nur auf geräten verbauen wie für wesentlich mehr geld weggehen als der durchschnitt für smartphones ausgibt.

Ich habe Aussagen von Menschen gelesen, von denen ich zumindest glaube das sie kompetent in ihrem Fach sind, das es aktuell gar nicht möglich ist alles zu parallelisieren und man an die mathematischen Grenzen stößt bzw. an die Grenzen dessen was unser aktueller Programmieransatz zulässt.

diese aussage wird oft fehlinterpretiert. das stimmt zwar für viele low-level-algorithmen durchaus, der hauptgrund warum end-user-software so schlecht skaliert ist aber in vielen fällen schlechtes design, abstraktionsebenen auf abstraktionsebenen auf abstraktionsebenen, veralteter legacy-code, library-bloat usw.
diverses abobe-zeug ist z.B. auf mobilen geräten teilweise schneller als auf high-end PCs, aber nicht weil die geräte schneller sind sondern weil wesentliche teile vom code designmäßig einfach jahre neuer sind.

in den meisten fällen ist das problem nicht, dass man nicht weiß wie es geht sondern dass einfach die arbeitsstunden nicht da sind um das alles umzubauen bzw. neu zu schreiben. über die zeit findet aber durchaus besserung statt. ein single-core-kabylake wär heute selbst auf 5GHz eine gurke.

Rancor
2017-09-05, 13:43:39
AMD weiss auch selber, das Sie mehr Takt und IPC brauchen und sie arbeiten daran:

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/News/AMD-Zen-2-IPC-Takt-1237881/

Wichtig ist nur das die Zen Architektur grundsätzlich konkurrenzfähig ist und nicht so ein Niete ist wie Bulldozer und CO. Das waren nämlich richtig miese CPUs was Gaming betrifft.
Wir brauchen einfach Wettbewerb indem Bereich und das sollten sich die Intel-Fans einfach mal merken.

Exxtreme
2017-09-05, 13:45:42
De Fakto haben wir seit etlichen Jahren Multiciore CPUs und wir alle wissen das sich so etwas wie Bilder rendern oder Daten entpacken gut parallelisieren lässt. Ich selber bin weder Mathe Freak noch Progger aber wenn es so einfach wäre Multi Core zu programmieren dann würden heute viel mehr Dinge aka Software gut mit der Anzahl der Kerne skalieren. Tut es aber nicht!

Jein. Das Problem ist, Multithreading ist von der Architektur und Programmierung her extrem(!!!!!) anspruchsvoll grad bei sowas wie Spiele wo sehr viele Dinge zusammen arbeiten. Man kann sich hier schnell race conditions und dead locks einfangen. Aber selbst wenn es möglich wäre viel mehr Dinge zu parallelisieren, es ist mit hoher Wahrscheinlichkeit kein Personal da was das Knowhow hat um das umzusetzen. Und man hat u. U. auch keine Kohle um welches abzuwerben.

Die aktuellen Programmiersprachen gehen grad in Richtung funktionale Programmierung (http://funktionale-programmierung.de/2013/08/23/was-ist-funktionale-programmierung.html). Das kann die Parallelisierung von einfachen Aufgaben erleichtern. Nur ist das aber auch nicht kostenlos zu haben und man braucht mehr RAM und hat einen erhöhten Kopieraufwand innerhalb des Programms.

Warum lässt du nicht als Laie einfach solche Aussagen sein? Das nützt niemandem was.

Ne, er hat schon recht. Wenn bestimmte Dinge nicht eingesetzt werden obwohl die Technik grundsätzlich da ist dann sind sie trotzdem nicht oder nur mit extremen und teurem Aufwand möglich. Und dann ist es fraglich ob die Kundschaft den Mehrpreis zahlen will.

MiamiNice
2017-09-05, 13:49:56
@Rancor:

Mir geht es hier gar nicht darum AMD in irgendeiner Weise zu bashen oder Intel zu propagieren. Mir geht es darum das beide Firmen jetzt den "many Core" Dampfer propagieren wir aber extrem weit davon entfernt sind das Software gut mit der Anzahl an Kernen skaliert. Wohlgemerkt home Software und Spiele.
Das es auch Software gibt die extrem gut mit der Anzahl an Kernen skaliert weiß ich als LAMP Admin und Power User selbst, sehe ich seit Jahren täglich.

Daredevil
2017-09-05, 13:51:29
Für mein Verständnis von unserer aktuellen Technik und von Software triffst Du hier genau ins schwarze. Das iPhone hat eine beeindruckende Single Core Leistung.
Viel beeindruckender ist aber auch der Akku.
iPhone 7 > 1960mAh
LG G6 > 3300mAh
Und trotz doppelter SingleCore Leistung und "nur 20% Multicoreleistung seitens LG ist die Akkulaufzeit in etwa gleich auf.
Aber genug Handy Vergleiche hier. :D

Ich finde die Coffee Lake Generation trifft momentan einen Sweetspot fürs Gaming.
Schulnoten System nach aktuellem Hardware stand jeweils mit HTT:

4 Kern Intel
Single Thread Leistung: 2
Multi Thread Leistung: 5

6 Kern Ryzen
Single Thread Leistung: 4
Multi Thread Leistung: 3

6 Kern Intel
Single Thread Leistung: 2
Multi Thread Leistung: 3

8 Kern AMD
Single Thread Leistung: 4
Multi Thread Leistung: 2

8 Kern Intel ( Teuer )
Single Thread Leistung: 2
Multi Thread Leistung: 2

16 Kern AMD ( Teuer )
Single Thread Leistung: 3
Multi Thread Leistung: 1++

AMD ist allerdings nicht "Meilenweit" von Intel entfernt, gerade wenn man nicht übertaktet. Trotzdem empfiehlt man Gamern heute lieber einen 1600er, weil sich die 1700er oder 1800er nicht groß abheben.
Nichtsdestotrotz ist die Mischung aus einem 6/12 er Ryzen mit KabyLake Kernen eine extrem gute Mischung.

Rancor
2017-09-05, 13:52:48
AMD selber propagiert das ja nicht mal, sondern die AMD Fans, weil Zen eben doch nicht ganz mit Intel mithalten kann, was die Single Thread Performance angeht.

Gute CPUs haben eben alles. Viele Cores, Hohe IPC und ST Leistung. Trotzdem würde ich heute keinen reinen 4 Kerner mehr kaufen und einen I7-7700 K, nur wenn er unter 300€ liegt.

@Topic
HEDT Platformen sind fürs reine Gaming jedenfalls ziemlicher Unsinn und wenn CL released wird sogar langsamer, als die Mainstream Plattform ;D Und das ist krank ^^

Pirx
2017-09-05, 13:58:05
Wenn das für Dich nur Geschwafel ist dann sei doch so nett und erhelle uns bzw. mich mit Deinen Gedanken aus der anderen Richtung. Denn schreiben das alles Geschwafel ist kann, auch mit Verlaub, jeder.
Du pickst dir laienhaft einige der vorhandenen Probleme der Parallelisierung raus und baust darauf eine allgemeingültige Aussage auf. Das ist aber nun mal kein Fundament und hat keinen Wert. Mit deinem mangelhaften Wissen bist du gar nicht in der Lage "1 & 1" zusammenzuzählen.
Warum sollte sich jemand die Mühe machen, deine langen, aber doch wenig sagenden, Texte zu widerlegen, wenn du selbst nicht zu erkennen gibst, dich fair mit den Vor- und Nachteilen / Chancen und Risiken zu beschäftigen? Das bist du uns, wenn du dich zu solchen Absolutaussagen versteigst, mindestens schuldig!
Parallelisierung nutzt auch du heute schon ausgiebig und sie ist eher noch am Anfang.

Schnoesel
2017-09-05, 14:20:31
Mir wird hier zu allgemein und pauschal diskutiert und wieder nur Schwarz/Weiß. Was dann auch noch ein wilkürliches Schulnotensystem hier zu suchen hat oder der Vergleich zu einer komplett anderen Prozesssorarchitektur die in einem in sich geschlossenen System läuft müsste man mir auch mal erklären. Geht imo total an der Sache vorbei.

Mehrkernprozessoren sind die Zukunft, da führt kein Weg dran vorbei. Sie bringen vielleicht nicht die höchsten FPS wie ein hochgetakteter 4Kerner aber haben neben dem reinen produzieren von FPS noch andere Vorteile, wie z.B. tendenziell bessere Frametimes, genug Reserven um andere Programme nebenher laufen zu lassen oder genug Reserven um mehr auf der CPU berechnen zu lassen (was heute kaum genutzt wird, ich denke da z.B. an Physik/Partikelberechnungen des Spiels).

Im Endeffekt ist es doch aber so, dass für reines Spielen immer noch die GPU die Musik spielt. Wenn ich mich entscheiden müsste würde ich immer eine schnellere GPU der schnelleren CPU vorziehen. Abgesehn davon ist eine Auslastung der CPU gar nicht gewünscht. Eine GPU soll 100% ausgelastet sein, wenn die CPU das ist läuft gewaltig was falsch.

Lehdro
2017-09-05, 14:33:00
Vorallem das wichtigste Argument FÜR Manycores wird einfach mal weggelassen:

Software greift in der heutigen Zeit wo jede Software auf jeder Hardware laufen soll nun mal auf das technisch verbreiteste zurück. Und das sind eben immer noch 2-4 Kerne, mit oder ohne HT. Klar macht es da nicht viel Sinn die "Home"-Software, wie sie so schön genannt wurde, auf Kernzahlen zu optimieren, die bis vor kurzem gerade mal Promilleweise vertreten waren - vorallem wenn das mit Negativeffekten für die breite Masse der Anwender verbunden wäre: Es hapert da immer an der Zeit um beides (Manycore und "normal") vernünftig zu programmieren und am Geld natürlich, den Arbeitszeit kostet gerade in der Programmierung richtig Geld.
Kurz gesagt, das Ökosystem gab es bis vor kurzem gar nicht her, den Fokus von Quadcore-Optimierung auf Manycore-Optimierung zu wechseln. Dank AMD ist das nun wesentlich schneller der Fall, Intel steht bei sowas ja nur zu gerne auf der Bremse. Anstatt sich Jahrelang den Sack zu kraulen mit Ihren lächerlich aufwendigen Krüppel iGPU Verbesserungen (braucht das jemand?! Für 99% reichts wenn da ein Bild rauskommt aka SandyBridge Niveau) und die Mobileeffizienz zu frisieren, hätte man auch mal wirklich den nächsten Schritt machen können, auf eben mehr Kerne. Aber nein, sowas wird unbezahlbar teuer für die Mehrheit als HEDT weggesperrt.
Das letzte was Intel vor Coffeelake aktiv zur wirklich messbaren Leistungssteigerung (IPC, nicht Takt) am Desktop PC gebracht hat war der Broadwell mit eDRAM, den sie aber leider sofort wieder haben fallen lassen wie eine heiße Kartoffel. Alle anderen Kernsteigerungen hat man dem Desktopmarkt für knapp 7 Jahre(!) vorenthalten. Klar dass die Software dann nur vernünftig bis 4 Kerne/ 8 Threads skaliert - daran ist ganz klar Intel mit Schuld. Nebenbei würde besser optimierte Software für Vielkerner auch das Verkaufsargument für eben diese sein - klares Eigentor von Intel. Anstatt 350 € CPUs hätte man durchaus über die Jahre die Lücke fließend zu den HEDT schliessen können, ohne den Plattformsprung vorrauszusetzen, der nochmal richtig ins Geld geht (aka teueres MB + RAM).

Stellt euch doch mal einen 8 Kern Skylake mit EDRAM vor, das wäre mal eine Maßnahme um zu zeigen wo der Hase CPU-Technisch im Pfeffer liegt.

IchoTolot
2017-09-05, 14:41:52
Klar, Intel ist an allem Schuld. Ich kanns nicht mehr lesen. Du gestehst Intel viel zu viel Macht zu. Die verkaufen einfach was gefragt ist. Wenn keiner Mehrkerner im Desktop für nötig erachtet wird es auch nicht gebracht. Ist ja nicht so, dass man nicht schon vor Jahren preiswert an 6 Kerner oder mehr kommen konnte. Wer die brauchte hat die auch gekauft. Offenbar nicht genug, sonst hätte Intel da sicher reagiert und auch im Desktop angeboten, verdient man schließlich Geld.

2 Kerne oder 4 Kerne und 8 Threads reichen eben für fast alles beim Normalo. Wer mehr braucht, kann das schon seit Jahren haben.

Schnoesel
2017-09-05, 14:51:05
Es ist schon noch ein Unterschied ob diese Kerne für den Massenmarkt (Cosumerplattform) zur Verfügung stehen oder du eine HEDT Unterbau dazu benötigst die wesentlich teurer ist. 6Kerne+ sind erst seit diesem Jahr im Massenmarkt angekommen. (Bulldozer mit seiner speziellen Architektur mal außen vor gelassen). Insofern denke ich auch, dass die Entwickler diese auch berücksichtigen werden, falls möglich.

Einen R7 8 Kerner kannst du theoretisch auch auf einem A320 Board laufen lassen.

Imo ist "Intel ist schuld an zu wenig Kernen im Desktop-Bereich" genauso geistreich wie "Die Konsolen sind Schuld, dass die Spiele auf dem PC so scheiße aussehen".
Für mich ist weder das eine noch das andere eine geeignete Diskussionsgrundlage.

Exxtreme
2017-09-05, 14:53:03
Klar, Intel ist an allem Schuld. Ich kanns nicht mehr lesen. Du gestehst Intel viel zu viel Macht zu. Die verkaufen einfach was gefragt ist. Wenn keiner Mehrkerner im Desktop für nötig erachtet wird es auch nicht gebracht. Ist ja nicht so, dass man nicht schon vor Jahren preiswert an 6 Kerner oder mehr kommen konnte. Wer die brauchte hat die auch gekauft. Offenbar nicht genug, sonst hätte Intel da sicher reagiert und auch im Desktop angeboten, verdient man schließlich Geld.

Nein, so einfach ist das auch nicht. Selbst wenn man merkt, dass eine Nachfrage nach mehr Kernen da ist, eine CPU mit mehr Kernen stampft man nicht einfach so aus dem Boden. Es dauert eher Jahre bis man diese Nachfrage richtig bedienen kann. Deshalb ist es auch meist so, dass die Hardware die Trends vorgibt und sich der Rest anpasst. Die CPU-Hersteller bringen neue Hardware raus und versuchen dann die Nachfrage nach den neuen Features anzukurbeln. Klappt manchmal, manchmal aber auch nicht. Sowohl Intel (Pentium 4) wie auch AMD (Bulldozer) haben sich hier mächtig verkalkuliert bzw. das Erzeugen der Nachfrage nach bereits entwickelter Hardware hat nicht funktioniert.

MiamiNice
2017-09-05, 14:55:40
Du pickst dir laienhaft einige der vorhandenen Probleme der Parallelisierung raus und baust darauf eine allgemeingültige Aussage auf. Das ist aber nun mal kein Fundament und hat keinen Wert. Mit deinem mangelhaften Wissen bist du gar nicht in der Lage "1 & 1" zusammenzuzählen.
Warum sollte sich jemand die Mühe machen, deine langen, aber doch wenig sagenden, Texte zu widerlegen, wenn du selbst nicht zu erkennen gibst, dich fair mit den Vor- und Nachteilen / Chancen und Risiken zu beschäftigen? Das bist du uns, wenn du dich zu solchen Absolutaussagen versteigst, mindestens schuldig!
Parallelisierung nutzt auch du heute schon ausgiebig und sie ist eher noch am Anfang.

Natürlich picke ich mir die Sahnestücke raus und gebe die hier zum besten. Die andere Seite spielt doch auch derzeit einfach keine Rolle. Die Aussage ist, dass sich many Core CPUs im Heimbereich nicht lohnen und es sich daran mittelfristig nichts ändern wird. Ich weiß auch nicht was ich da groß an Interesse heucheln sollte. Mein Interesse für dieses Thema geht genau so weit das ich entscheiden kann, für mich privat als auch im Beruf, welche Hardware die Beste für das jeweilige Einsatzgebiet ist.
Und genau an dieser Front nehme ich mir auch raus eine Absolutaussage zu treffen ohne eine Quelle anzuführen. Jeder im 3DC ist weit genug im Thema um selber zu diesem Schluss zu kommen. Jeder hier kann nach Benches googlen und sich selbst ein Bild machen. Und ich unterstelle einfach mal das sich auch jeder hier diesem Umstand bewusst ist.
Das Multicore sich lohnt wenn man dutzende Progs parallel geöffnet hat - stelle ich gar nicht in Abrede. Aber das Ziel von Multicore ist es ein Programm, einen Thread, mit mehreren Rechen Einheiten zu beschleunigen und nicht viele unterschiedliche Programme. Und vom diesem Ziel sind wir derzeit noch weit weg, bei "gebräuchlicher" Software.


Im Endeffekt ist es doch aber so, dass für reines Spielen immer noch die GPU die Musik spielt. Wenn ich mich entscheiden müsste würde ich immer eine schnellere GPU der schnelleren CPU vorziehen. Abgesehn davon ist eine Auslastung der CPU gar nicht gewünscht. Eine GPU soll 100% ausgelastet sein, wenn die CPU das ist läuft gewaltig was falsch.

Wieso? Wäre es nicht besser statt einem max. ausgelasteten Thread der u.U. die Software bremst alle Kerne gleichmäßig ausgelastet zu haben? Imho wird auch erst dann das Potenzial von aktuellen CPUs ausgelastet.

N0Thing
2017-09-05, 14:57:01
Klar, Intel ist an allem Schuld. Ich kanns nicht mehr lesen. Du gestehst Intel viel zu viel Macht zu. Die verkaufen einfach was gefragt ist. Wenn keiner Mehrkerner im Desktop für nötig erachtet wird es auch nicht gebracht. Ist ja nicht so, dass man nicht schon vor Jahren preiswert an 6 Kerner oder mehr kommen konnte. Wer die brauchte hat die auch gekauft. Offenbar nicht genug, sonst hätte Intel da sicher reagiert und auch im Desktop angeboten, verdient man schließlich Geld.

2 Kerne oder 4 Kerne und 8 Threads reichen eben für fast alles beim Normalo. Wer mehr braucht, kann das schon seit Jahren haben.

Intel ist sicher nicht an allem Schuld. Aber man sieht doch ziemlich gut, daß Intel nicht das gebracht hat, was einige Kunden wollen, erst recht nicht preiswert. 6 Kerne im Consumer Segment wurden von AMD gebracht und Intel hat kurzfristig nachgezogen. Geld hat Intel auch mit kleinen Fortschritten gemacht. Warum auch anders, wenn es keine Konkurrenz gibt?

Im Endeffekt ist es doch simpel. Will man das schnellste, wird man in den meisten Bereichen bei Intel fündig. Will man viel Leistung fürs Geld, kann man seit Ryzen auch wieder bei AMD gute Angebote finden.


E:\Es hängt natürlich auch davon ab, wie lange man eine CPU einsetzen möchte. Wenn man eh alle 1-2 Jahre aufrüstet, achtet man sicherlich auf andere Merkmale als bei einem Anwender, der auch mal 5-6 Jahre mit der gleichen CPU zufrieden sein will.

Lehdro
2017-09-05, 14:58:28
Klar, Intel ist an allem Schuld.
Habe ich so nicht geschrieben. Lern lesen.

Ich kanns nicht mehr lesen.
Versuch es wenigstens.

Du gestehst Intel viel zu viel Macht zu. Die verkaufen einfach was gefragt ist. Wenn keiner Mehrkerner im Desktop für nötig erachtet wird es auch nicht gebracht.
Klar hat Intel die Macht, schau dir einfach mal Ihre marktbeherrschende Stellung an. Gerade im OEM Bereich.
Klar entscheiden Sie wann Sie wieviele Kerne zu welchem Preis in welches Segment bringen. Wer sollte das sonst tun?
Und sie haben sich eben dazu entscheiden die 4 Kerner so lange zu farmen wie es geht. Aber dann rummeckern das die Absätze zurück gehen (@div Analystenkonferenzen). Ja kein Wunder wenn es nicht vorwärts geht technisch, fällt der Kaufgrund direkt einfach mal weg.
Eine Manycorefixierung kann logischerweise gar nicht von Softwareseite aus forciert werden, da sonst einfach niemand die Software kauft. Die Hardwareverbreitung muss erst dem ganzen dem Weg ebnen und genau da sind die Hersteller in der Pflicht. Vor allem Intel.


Ist ja nicht so, dass man nicht schon vor Jahren preiswert an 6 Kerner oder mehr kommen konnte. Wer die brauchte hat die auch gekauft. Offenbar nicht genug, sonst hätte Intel da sicher reagiert und auch im Desktop angeboten, verdient man schließlich Geld.
Preiswert? Die CPU ist zwar nur ~100€ teurer, dafür das Mainboard und der nötige RAM halt auch. Somit sinds gleich > 200-300 € mehr insgesamt für nichtmal die doppelte Leistung. Niemals den Plattformpreis vergessen wenn man CPUs vergleicht.

2 Kerne oder 4 Kerne und 8 Threads reichen eben für fast alles beim Normalo. Wer mehr braucht, kann das schon seit Jahren haben.
Du verstehst das Henne Ei Prinzip nicht.

Warum sollte Software auf 8 Kerne optimiert werden wenn diese fast keiner hat?
Warum sollte man 8 Kerner kaufen wenn die Software nicht mitskaliert?
Warum sollte Intel dann 8 Kerne im Mainstream anbieten?

Wenn Intel >4 Kerne im Mainstream vor 2017 angeboten hätte, würden viel mehr Softwareentwickler gezwungen sein >4 Kerne zu optimieren, was wiederum den Verkauf von >4 Kerne ankurbeln würde, da sie ordentlich genutzt würden. Das würde uns allen helfen.

IchoTolot
2017-09-05, 15:03:03
Du verstehst das Henne Ei Prinzip nicht.


Ich sehe das genau andersherum. Hardware richtet sich nach der Software.

Lehdro
2017-09-05, 15:15:03
Ich sehe das genau andersherum. Hardware richtet sich nach der Software.
Wow. Mit dir hätte sie nicht mal das Rad erfunden.

Es hat schon nen Grund warum das Software heisst, denn es ist genau andersherum:
Software
die eingespeicherten Programme einer EDV–Anlage ♦ aus engl. soft „weich, geschmeidig, nachgiebig“ und engl. ware „Waren, Artikel“, also die beweglichen, veränderlichen Teile der Anlage

Software folgt der Hardware.

Menace
2017-09-05, 15:16:51
Und vom diesem Ziel sind wir derzeit noch weit weg, bei "gebräuchlicher" Software.


Und wieder der typische Experte: "An meinem Wesen, soll die Welt genesen."

4 tägliche Anwendungsbeispiele, die bei meinem (!) Home-PC mit vielen Kernen arbeiten.

1. Wissenschaftliche Berechnungen für die Allgemeinheit (https://www.worldcommunitygrid.org/index.jsp) im Bereich Medizin und Gesundheit (über Boinc)
Man kann nämlich auch etwas sinnvolles mit seinem Multikern-PC anfangen. Für die Allgemeinheit nützlich und zu Hause. Jetzt schon seit 10 Jahre (davor war es glaube ich Seti. :biggrin: ). Übrigens kann das jeder, auch Du Miami. :wink:

2. Videoschnitt (als Privatperson) und Konvertierung

3. RAW-Konvertierung mit C1 (privat und beruflich)

4. DAM-Software gekoppelt mit Homeoffice + "Contentersteller" (neudeutsch) + Suchindex

Ich ärgerte mich zunächst, warum ich schon beim R7 1700 zugegriffen habe und nicht auf die Threadripper-CPUs gewartet habe. Allerdings bin ich nach den Tests der TR ganz froh, da die Effizienz für alltäglichen Aufgaben bei den aktuellen TR imho zu schlecht ist.

MiamiNice
2017-09-05, 15:21:45
Und wieder der typische Experte: "An meinem Wesen, soll die Welt genesen."

4 tägliche Anwendungsbeispiele, die bei meinem (!) Home-PC mit vielen Kernen arbeiten.

1. Wissenschaftliche Berechnungen für die Allgemeinheit (https://www.worldcommunitygrid.org/index.jsp) im Bereich Medizin und Gesundheit (über Boinc)
Man kann nämlich auch etwas sinnvolles mit seinem Multikern-PC anfangen. Für die Allgemeinheit nützlich und zu Hause. Jetzt schon seit 10 Jahre (davor war es glaube ich Seti. :biggrin: ). Übrigens kann das jeder, auch Du Miami. :wink:

2. Videoschnitt (als Privatperson) und Konvertierung

3. RAW-Konvertierung mit C1 (privat und beruflich)

4. DAM-Software gekoppelt mit Homeoffice + "Contentersteller" (neudeutsch) + Suchindex

Ich ärgerte mich zunächst, warum ich schon beim R7 1700 zugegriffen habe und nicht auf die Threadripper-CPUs gewartet habe. Allerdings bin ich nach den Tests der TR ganz froh, da die Effizienz für alltäglichen Aufgaben bei den aktuellen TR imho zu schlecht ist.

Dann starten wir doch einfach mal eine Umfrage wie viele Leute von 100 oder gar 1000 genau so einen Anwendungsfall wie Du haben. Es geht hier nicht um Einzelschicksale. Wie Du schon schriebst: "An meinem Wesen, soll die Welt genesen."

Nochmal:

Es geht in die Breite weil der IPC gain schwer weiterzuführen ist, da sehr ausgereizt. Das Ziel eine Anwendung mit mehr Kerne zu beschleunigen ist aber heute, für das Groß an Software, nicht gegeben. Es geht beim Multi Core darum die gesamt Leistung einer CPU zu erhöhen, was aber nur auf dem Papier gelingt aber pro Software gesehen eben nicht der Fall ist. Daher machen viele Kerne eben Sinn wenn man vieles parallel machen möchte aus absoluter Leistungssicht macht es mehr Sinn auf IPC und Takt zu achten.

IchoTolot
2017-09-05, 15:27:25
Es hat schon nen Grund warum das Software heisst, denn es ist genau andersherum:

Software folgt der Hardware.

Fantasie hast du, aber dennoch abenteuerlich das daraus abzuleiten. Die Begriffe Soft- und Hardware haben damit gar nichts zu tun.

Lehdro
2017-09-05, 15:34:24
Die Begriffe Soft- und Hardware haben damit gar nichts zu tun.
Doch haben sie.
Google doch einfach mal ein paar Definitionen und erkläre mir warum das schwer veränderbare (=Hardware) dem leicht veränderbaren(=Software) folgen soll. Das ergibt einfach keinen Sinn.

Menace
2017-09-05, 15:38:38
Dann starten wir doch einfach mal eine Umfrage wie viele Leute von 100 oder gar 1000 genau so einen Anwendungsfall wie Du haben. Es geht hier nicht um Einzelschicksale. Wie Du schon schriebst: "An meinem Wesen, soll die Welt genesen."


Deine Rumgewinde ist jämmerlich. Du sprachst von "Home" und "Alltäglich". Beides trifft zu. Nur weil die Allgemeinheit keinen Plan davon hat (und Du wohl auch nicht), heißt es nicht, dass diese CPUs nicht doch auch im Alltag eingesetzt werden können.

Ich möchte als Privatkunde eben genau solche CPUs kaufen können und nicht von der Mehrheit oder Leute von Dir vorschreiben lassen müssen; was ich benötige oder nicht. Wir sind ja nicht im Sozialismus. :biggrin:

Edit: Für die meiste Software (jenseits von Spielen, dort aber teilweise auch) reicht natürlich auch eine APU, R3, i3. Über solche Software willst Du jetzt doch nicht in diesem Thread reden, oder?

Exxtreme
2017-09-05, 15:42:18
Ich sehe das genau andersherum. Hardware richtet sich nach der Software.
Selbst wenn man wollte, das geht gar nicht. Hardwareentwicklung dauert viel zu lange als dass man sich nach Software richten könnte.

MiamiNice
2017-09-05, 15:46:06
Ne Menace,
Dein Problem ist, dass Du das ganze unter dem Kontext AMD vs. Intel siehst und so argumentierst das es in Dein Weltbild passt.
Ich dagegen will einfach nur darauf hinaus das es keine "echte" Multi Thread Software gibt. Weder für AMD noch für Intel.
Dein Beiß Reflex wenn es gegen irgendetwas geht in dem eine Firma gerade gut ist - ist langweilig.
Ob Du 100 Programme parallel laufen lässt und damit Deinen 100 Kern what ever CPU auslastest, ist doch gar nicht von Belang.
Von Belang wäre wenn Du Deinen 100 Kern CPU mit einer Software voll auslasten kannst die dann auch 100x schneller läuft als auf einem Kern.

Das viele Kerne bei der heutigen Anzahl von Threads in Windows einen gewissen Vorteil haben, stellt hier niemand, gerade ich nicht, in Abrede. Aber eine CPU wird in der aktuellen Software Landschaft eben nicht durch viele Kerne schneller. Das ist aber der ursprüngliche Gedanke hinter Multi Core.

Menace
2017-09-05, 15:49:47
Dein Problem ist, dass Du das ganze unter dem Kontext AMD vs. Intel siehst und so argumentierst das es in Dein Weltbild passt.


Würde Dir ja Recht geben, hätte ich keine intel-CPUs hier im Haus. ;D Dank WCG wäre es auch mal fast ein teurer Xeon geworden.

Ich dagegen will einfach nur darauf hinaus das es kein "echte" Multi Thread Software gibt. Weder für AMD noch für Intel.

Ok; wenn Du das sagst, dann simuliert mein PC halt die Auslastung über alle Kerne hinweg, damit ich beruhigt bin. :rolleyes:

Edit: Zu "Echte Multithread-Software" gibt es nicht:
http://www.hardware.fr/getgraphimg.php?id=572&n=4

BTW: Die Franzosen schaffen es, während sich unsere deutsche Tester nicht über ihren Adobe-Horizont trauen.

IchoTolot
2017-09-05, 15:55:32
Selbst wenn man wollte, das geht gar nicht. Hardwareentwicklung dauert viel zu lange als dass man sich nach Software richten könnte.

Es muss ja auch gar nicht schnell gehen. Grade weil sich Software so schnell wandeln kann, wird es Phasen geben, wo bei der Hardware mehr Leistung gefordert wird.

Multithreading war doch schon lange vor dem ersten Dualcore ein Thema, beispielsweise in einem Betriebssystem. Wieviel Threads arbeiten da denn wohl? Sicher nicht nur 4 oder 8. Trotzdem gibt es heute keine CPUs mit hunderten Kernen.

Die Hardware wird in Schritten immer den Anforderungen der Software angepasst so weit das geht. Und da spielen Kerne gar keine Rolle, sondern die reine Leistung der CPU die von Kernen erstmal prinzipiell unabhängig ist. Wenn Software immer komplexer wird und mehr Möglichkeiten bietet oder bieten soll, dann passt sich dem die Hardware an.

dildo4u
2017-09-05, 15:57:42
Game's skalieren schon mit 12 Thread's,gute Nachricht für AMD da Intel bei 200€ kein SMT verkauft.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11482070&postcount=258

MiamiNice
2017-09-05, 16:01:52
...

Du magst mich mit Spitzfindigkeiten erschlagen. Ich bin mir ziemlich sicher das Du verstanden hast was ich sagen möchte auch wenn ich nicht den eloquentesten Schreibstil habe.

aufkrawall
2017-09-05, 16:03:34
Game's skalieren schon mit 12 Thread's,gute Nachricht für AMD da Intel bei 200€ kein SMT verkauft.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11482070&postcount=258
Viel wichtiger ist, dass die Frametimes mit 4T immer öfter merkbar schlechter sind. Mit Coffee Lake wirds HTT aber günstiger als bisher bei Intel geben und den 1600(X) in Spielen wohl recht deutlich schlagen (aber wohl auch weiterhin etwas teurer sein).

Menace
2017-09-05, 16:04:39
Du magst mich mit Spitzfindigkeiten erschlagen. Ich bin mir ziemlich sicher das Du verstanden hast was ich sagen möchte auch wenn ich nicht den eloquentesten Schreibstil habe.

Das Du es so lange zurecht biegst, bis AMD keine Konkurrenz mehr für intel ist, auch wenn Du dafür Falschaussagen tätigst? :confused:

Mir ist ein Schreibstil komplett egal, mir geht es um den Inhalt. Den Test des RAW-Bildbearbeiters gesehen?

Pirx
2017-09-05, 16:08:28
Du magst mich mit Spitzfindigkeiten erschlagen. Ich bin mir ziemlich sicher das Du verstanden hast was ich sagen möchte auch wenn ich nicht den eloquentesten Schreibstil habe.
Also ist Software, die mit mehreren Theads arbeitet und somit das Potential vieler Rechenkerne ausnutzen kann, keine ""echte" Multi Thread Software", weil es deiner Definition aus Laiensicht nicht entspricht? Ich glaube kaum, bzw. es wird langsam abenteuerlich.

Exxtreme
2017-09-05, 16:12:53
Es muss ja auch gar nicht schnell gehen. Grade weil sich Software so schnell wandeln kann, wird es Phasen geben, wo bei der Hardware mehr Leistung gefordert wird.

Multithreading war doch schon lange vor dem ersten Dualcore ein Thema, beispielsweise in einem Betriebssystem. Wieviel Threads arbeiten da denn wohl? Sicher nicht nur 4 oder 8. Trotzdem gibt es heute keine CPUs mit hunderten Kernen.

Die Hardware wird in Schritten immer den Anforderungen der Software angepasst so weit das geht. Und da spielen Kerne gar keine Rolle, sondern die reine Leistung der CPU die von Kernen erstmal prinzipiell unabhängig ist. Wenn Software immer komplexer wird und mehr Möglichkeiten bietet oder bieten soll, dann passt sich dem die Hardware an.
Multithreading ist ein alter Hut und man konnte es schon lange vor den ersten Dualcore-CPUs haben. Man verbaute einfach mehrere CPUs in den Rechner und hatte auch mit Einzelkern-CPUs echtes Multithreading. Auch wenn das ganze sauteuer war. Unixoide Betriebssysteme konnten damit schon lange umgehen. Von daher ist dieser Punkt auch nicht so wirklich valide. Zudem ist Multithreading streng genommen auch nur ein Ausweichskonstrukt dafür, dass man zu wenig Rechenleistung auf einem Kern hat. Auch hier folgt die Software der Hardware bzw. einer Hardwarelimitierung. Hätte man extrem schnelle Kerne dann bräuchte man Multithreading gar nicht erst.

Und wenn man sich andere Dinge anschaut dann folgt die Software immer der Hardware: 64-Bit-Hardware war lange vor der Software da, genauso verhält es sich mit Dingen wie spezielle CPU-Instruktionen oder Features auf Grafikkarten.

Wie gesagt, Hardware an Software anzupassen geht halt nicht oder nur in absoluten Nischenmärkten, die kaum Innovationszyklen haben wie irgendwelches Maschinensteuerung-Embedded-Zeug.

Wobei man fairerweise sagen muss, es ist sehr oft absehbar wo die Software-Entwicklung als nächstes gegen die Wand läuft und man kann schon vorausschauend Hardware entwickeln und damit die Wand umfahren. Dass z.B. der 32-Bit-Adressraum zu wenig sein wird konnte man schon Jahre zuvor absehen und die CPUs dafür entwickeln.

MiamiNice
2017-09-05, 16:17:12
Das Du es so lange zurecht biegst, bis AMD keine Konkurrenz mehr für intel ist, auch wenn Du dafür Falschaussagen tätigst? :confused:

Mir ist ein Schreibstil komplett egal, mir geht es um den Inhalt. Den Test des RAW-Bildbearbeiters gesehen?

Amd und Intel bringst Du ins Spiel, nicht ich.


Also ist Software, die mit mehreren Theads arbeitet und somit das Potential vieler Rechenkerne ausnutzen kann, keine ""echte" Multi Thread Software", weil es deiner Definition aus Laiensicht nicht entspricht? Ich glaube kaum, bzw. es wird langsam abenteuerlich.

Abenteuerlich finde ich persönlich eher wie Du einzelne Stellen aus meinen Posts pickst, die dazu nutzt um mich zu diffamieren, aber zu dem grundsätzlichen Thema, und auch bei Dir bin ich sicher das Du verstehst worauf ich hinaus will, nichts beizutragen hast.

IchoTolot
2017-09-05, 16:17:42
Ich glaube er will eher sagen, dass das bei Spielen nicht zutrifft. Da nutzen die meisten Spiele noch immer hauptsächlich 4 Kerne sonst wären schnelle Vierkerner nicht an der Spitze der Benchmarks und hätten keine Chance gegen einen 8 Kerner. Dem ist ja überhaupt nicht so. Der potentielle Nutzen aus mehr als 4 Kernen bei den FPS ist marginal.

Bei Anwendungen die man mühelos parallelisieren kann, gibt es selbstverständlich Multithreading. Bestes Beispiel ist ja Cinebench.

Da kann ich auch mit bis zu 256 Threads rendern lassen, also weit mehr als es derzeit die Hardware bietet. Ist doch auch direkt wieder ein Beweis, dass die Software sich mitnichten nach der Hardware richtet.

Und man erkennt auch schon dort, dass die Leistung gewaltig abfällt mit so vielen Threads. Bekomme da nur noch 930 statt 1078 Punkte. Kerne und Threads sind nicht der heilige Gral.

https://lh3.googleusercontent.com/JYhT5fiV0WtV2GchdTh1hq80miYeRJNOPNajTJvno6GoW8VsatGIkVT71zn8UheI_zysRJn0S_ZbdglL wMlBe2gsNyU9Rg-opeRA9XgtzuMffvgp_ViBfVS7I9VG1m6nuwgue_IpPFkh2sArU_0tUD9w3Is4wseAfiAD3v8GJ_arB0_ TVnCZ4t0nyByZyIRNHAhKVx_egWXWyuSy5xNY2L1XVGuPB8BHFNHkIdaDlUWLAwkz_AW8uSTzcRp2PXk lgITHju60A2-YRiXD5PHDybSWb7FcFRN3kd-vKdBW7ewpMwBZUBXnJer_iu1YWZsqGqQoifODx5ES3AeVtZEZ3_6PhiJGxaTMernfYyYgvfv2Ax4DTVp PJz9IwX6QXUbvlWUZjZDHkIwRJKr1BTqvfc3YCipLT69D0gBGrx1PKd6k-SxdY49ApUXvIJPFfw_U_8T2QPN9a5-UktwLWmHgSFN9EebB8hII2KkjsVm3PEaCTqH8jPrxVKbH4m1HVrX50eHNYWj4fZqdSy4BOE-mm5J_Bl_iuafq8lEZFtHXJbnBhGrD_vwzGRDN5Xo4oilOe5NZv7Sjws08F275mg9RCPGgTRG3JpdxaYD r1gsiN-H2-5QWK2mnOA=w1597-h989-no

gravitationsfeld
2017-09-05, 16:21:27
Und dies ist genau der Punkt. Es sieht dato heute so aus als würde die Entwickler hergehen und alles in einzelne Threads verpacken also z.b. Ai, Sound, etc. je ein Thread. Das hat aber nichts mit echter Parallelisierung zu tun. So wie es dato heute ist spawnt so ziemlich jede home user Software 1-3 Threads die Last erzeugen und ein paar Threads die rum dümpeln.
Jede moderne Engine benutzt Thread-Pools mit Jobs. Das ist komplett falsch.

Die Auslastung im Task-Manager hat nichts mit der Anzahl an Threads zu tun. Sie hat nichtmal was mit dem tatsaechlichen Performance-Gewinn zu tun. Hoert auf da drauf zu starren, es ist sinnlos.

Daredevil
2017-09-05, 16:46:03
Es gibt auch einen Unterschied zwischen Anwendungen und Spiele.
Manche reden hier auch Meterweit aneinander vorbei.

Wer in seiner Linus VM, die nebenbei Proteine faltet, Bitcoins schürft und Katzenvideos komprimiert, eine Runde Tomb Raider zockt, dem ist natürlich ein Threadripper zu raten.
Anwendungsbeispiele wären da ratsam und kein "Also ich laste ja beim Spielen meinen Dual Socket Xeon 24c aus ;)"

Lehdro
2017-09-05, 16:58:03
Bei Anwendungen die man mühelos parallelisieren kann, gibt es selbstverständlich Multithreading. Bestes Beispiel ist ja Cinebench.

Da kann ich auch mit bis zu 256 Threads rendern lassen, also weit mehr als es derzeit die Hardware bietet. Ist doch auch direkt wieder ein Beweis, dass die Software sich mitnichten nach der Hardware richtet.

Und man erkennt auch schon dort, dass die Leistung gewaltig abfällt mit so vielen Threads. Bekomme da nur noch 930 statt 1078 Punkte. Kerne und Threads sind nicht der heilige Gral.

Bring mal nicht alles durcheinander: Windows/Anwendungsthreads haben nix mit den 8 Threads auf deiner CPU zu tun.

Und:

https://www.servethehome.com/crushing-cinebench-r15-v4-quad-intel-xeon-8180/

Die Software hinkt der Hardware hinterher, auch CB 15 ist nicht auf Manycores im Extremen ausgerichtet, sondern setzt hier Grenzen.

Menace
2017-09-05, 17:01:09
Und man erkennt auch schon dort, dass die Leistung gewaltig abfällt mit so vielen Threads. Bekomme da nur noch 930 statt 1078 Punkte. Kerne und Threads sind nicht der heilige Gral.


Ist das wirklich entscheidend? Ich halte für mich z.B. für entscheidender wie effizient eine Arbeit pro Zeit getätigt wird. Schafft man es via Takt, dann passt das; ist die Kombination mehr Kerne notwendig, bleibt im Verbrauch trotzdem noch darunter, dann wäre mir es egal.

Aber man sieht, dass mehr Kerne trotzdem noch mehr Leistung bringen.

@Miami: Mir ist egal, ob intel oder AMD. Mir gehen Deine Aussagen auf den Keks, wie

"es gibt keine echte Multithread-Software" [nochmals, hast Du die Testergebnisse von DXO gesehen?]
dass sich many Core CPUs im Heimbereich nicht lohnen und es sich daran mittelfristig nichts ändern wird "

Das mag für Deinen "Heimbereich" wohl gelten; für meinen eben nicht. Also höre auf solche falsche Aussagen zu tätigen. Es gibt nicht "den Heimbereich".

@Daredevil: Deswegen empfehle ich keine CPUs für die "Allgemeinheit", da ich deren Anwendungsprofil nicht kenne. Solche Aussagen, wie "man braucht das nicht" oder das Gegenteil "man braucht das" sind einfach unseriös.

MusicIsMyLife
2017-09-05, 17:39:12
Da kann ich auch mit bis zu 256 Threads rendern lassen, also weit mehr als es derzeit die Hardware bietet. Ist doch auch direkt wieder ein Beweis, dass die Software sich mitnichten nach der Hardware richtet.

Meine bescheidene Meinung dazu: Du verwechelst hier etwas.

Nur, weil du in Cinebench 256 Threads einstellen kannst und es noch keine CPU mit 256 Threads gibt, heißt das noch lange nicht, dass die Hardware der Software folgt.

Du musst viel früher ansetzen. Warum gibt es in Cinebench überhaupt die Möglichkeit, mehr als einen Thread einzustellen? Sehr wahrscheinlich, weil es irgendwann vorher die Hardware dazu gab (im Zweifelsfall irgendwelche 1-Kern-Multi-CPU-Systeme). Die waren nämlich eher da als Cinebench. Und wenn Maxon mit Cinebench den Weg geht, mehr als einen Thread zu unterstützen, warum sollten sie sich dann in ihrer Software auf die Thread-Anzahl beschränken, die gerade "In" ist? Da wird dann einfach eine Zahl genutzt, die auch ein paar Monate lang zukunftsfähig ist und nicht mit jeder neuen CPU-Generation angepasst werden muss.... Vorausschauende Programmierung also, die aber deshalb gemacht wurde, weil es vorher einen "Dosenöffner" gab. Sprich, einen Grund, überhaupt mehr als einen Thread anzubieten.

Und außerdem: Seit Mitte 2015 sind Intels Xeon E7-8xxx V3 gelistet. Bis zu 18 Kerne mit HT können in 8-Sockel-Systeme verbaut werden. Macht rechnerisch 288 Threads, die seit 2015 in einem einzigen Server möglich sind. Wenn jetzt 28-Kerner kommen, die auch in 8P-Systemen verbaut werden können, erhöht sich die Thread-Anzahl auf 448 Threads in einem Server.

Nach deiner Logik müsste Intel die CPUs ja überhaupt nicht mehr bauen, weil aktuell ja maximal 256 Threads möglich sind. Und erst, wenn Maxon mit Cinebench entscheidet, 512 Threads zu unterstützen, bringt Intel dann die 28-Kerner raus...

Ein anderer Punkt, der deiner Argumentation entgegensteht: Wie erklärst du, dass jetzt bereits mehrfach die Performance von CPUs mit mehreren Kernen über die Jahre "besser" geworden ist? Single-Core war lange Zeit besser als Dual-Core, im Laufe der Zeit nicht mehr. Dann kamen die Quad-Cores, welche anfangs nicht schneller waren, mit der Zeit aber immer besser in Fahrt kamen? Gleiches sehen wir jetzt von vier auf 6/8 Kerne. Das dürfte ja eigentlich nicht passieren, wenn deine Argumentation stimmt. Denn dann hätten ausschließlich neue CPU-Generationen besser als die alten Generationen abschneiden dürfen, nicht aber die älteren im Markt befindlichen CPUs...

In Bezug auf CPUs hast du meiner Meinung nach also unrecht. Dort folgt die Software der Hardware. Oder warum haben wir noch immer wenige Anwendungsszenarien für AVX, wo doch die Hardware eigentlich erst kommen sollte, wenn die Software soweit ist? Oder warum haben wir bisher sowenige DX12-Titel?

Andererseits gebe ich dir bei Spielen auch wieder irgendwie recht. Denn speziell bei den DX-Featuresets ist die Software der Hardware theoretisch voraus. Aber nur in dem Sinne, dass die Features auf dem Papier vorhanden sind, in der Praxis seitens der Spiele aber nicht bzw. nur selten genutzt werden (ich meine dabei bei neuen DX-Versionen). Da ist dann die Hardware wieder schneller, sodass die Features unterstützt werden könnten, es in der Praxis aber anders aussieht. Und erst, wenn die Hardware in einer "kritischen Masse" vorhanden ist, werden die Software-Features adaptiert.

Oder aber einzelne Beispiele wie Crysis. Das konnte man selbst Jahre danach mit jeder neuen CPU-Generation besser/schöner genießen. Das ist aber auch wieder irgendwie der Lauf der Dinge. Wenn jemand 2006 selbst das grafisch anspruchsloseste Game versucht hätte in 4k/8k zu spielen, wäre ihm die GPU-Leistung ausgegangen. Das ist dann aber nicht zwingend ein Beleg dafür, dass die Hardware der Software folgt. In speziellen Beispielen schon, generell aber nicht.

Andernfalls würden wir alle noch mit Lochkarten arbeiten... ;)



Ich jedenfalls habe mir einen 1950X gekauft. Weil ich seine Leistung dringend für Word, Excel, Winamp, Firefox mit ~5 Tabs und Solitaire benötige . 3D-Spiele spiele ich auch, habe dafür meine beiden 1080Ti, welche seit dem Einbau im März (?) vielleicht auf 30 Stunden Spielzeit kommen. Kurzum: Ich bin ein derartiger Poweruser, als dass ich ohne 32 Threads nicht mehr auskomme... ;D

Falls jetzt jemand meint, das wäre nicht ernst gemeint: Es ist in der Tat mein Anwendungsprofil und auch der Kauf eines 1950X stimmt. Nur bin ich eher nach dem Motto "Lieber haben und nicht brauchen als brauchen und nicht haben" unterwegs. Im Gegensatz zu manch anderem kann ich aber sehr wohl differenzieren, was gemäß meinem Anforderungsprofil sinnvoll wäre und was ich real "verzapfe". Ich rede mir nichts schön sondern will die Hardware einfach haben. So sollten das imho auch einige andere hier sehen - egal, ob sie eher der "ich brauch mehr Takt"- oder der "mehr Kerne FTW"-Frakation angehören.

fondness
2017-09-05, 18:00:25
Für mein Verständnis von unserer aktuellen Technik und von Software triffst Du hier genau ins schwarze. Das iPhone hat eine beeindruckende Single Core Leistung. Jetzt kann man argumentieren das Apple iOS selbst schreibt und wahrscheinlich auf die eigene CPU anpasst. Imho aber nur die Hälfte der Wahrheit. Top Android Geräte liegen trotz xx Kernen mit xxxx Mhz regelmäßig in diversen Benches zurück. In direkten Vergleich fühlt sich ein Android Handy auch nicht so agil wie ein iPhone an (keine Diskussion wert at Android Fanbase!).

Es ist so oder soll so sein, ich bin selbst ein Laie, das sich nicht alles parallelisieren lässt. Ich habe Aussagen von Menschen gelesen, von denen ich zumindest glaube das sie kompetent in ihrem Fach sind, das es aktuell gar nicht möglich ist alles zu parallelisieren und man an die mathematischen Grenzen stößt bzw. an die Grenzen dessen was unser aktueller Programmieransatz zulässt. Es muss entweder eine neue Sprache bzw. Ansatz her oder die Hardware muss sich wandeln.

De Fakto haben wir seit etlichen Jahren Multiciore CPUs und wir alle wissen das sich so etwas wie Bilder rendern oder Daten entpacken gut parallelisieren lässt. Ich selber bin weder Mathe Freak noch Progger aber wenn es so einfach wäre Multi Core zu programmieren dann würden heute viel mehr Dinge aka Software gut mit der Anzahl der Kerne skalieren. Tut es aber nicht!

Die Entwickler sind seit Jahren bestrebt dieses Problem zu lösen aber dato heute, zig Jahre nach den ersten Multi Core CPU, skaliert 95% aller Software am Markt, und selbst auf den Handys, mit der Single Thread Power und dem Takt.

Nur weil AMD jetzt den Core War eröffnet haben und es nun bezahlbare many Core CPUs für "Jedermann" gibt, wird sich an der Situation nichts ändern.

Die paar Titel und spezial Software die aktuell gut skalieren sind Ausnahmen und werden es auch bleiben kurz, mittel und langfristig. Selbst ein BF1 welches über 8 Kerne noch gut skaliert, wird einfach nur Dinge auslagern in andere Threads. Es ist mit Sicherheit nicht nativ Multi Core.

Und dies ist genau der Punkt. Es sieht dato heute so aus als würde die Entwickler hergehen und alles in einzelne Threads verpacken also z.b. Ai, Sound, etc. je ein Thread. Das hat aber nichts mit echter Parallelisierung zu tun. So wie es dato heute ist spawnt so ziemlich jede home user Software 1-3 Threads die Last erzeugen und ein paar Threads die rum dümpeln.

Dafür braucht man keine 8 oder mehr Kern CPUs. Das auch der Grund warum 4 Kernen noch immer das Maß der Dinge sind.

Das wo wir hinwollen ist das ein Thread auf alle verfügbaren Kerne gleichmäßig aufgeteilt wird und auf allen Kernen gleichmäßig Last erzeugt. Weder mit unserem heutigen Wissen über Programmierung noch mit der heutigen HW werden wir an dieses Ziel kommen.

Und so lange dies nicht der Fall ist gilt für alle die keine Benchmarks, Packer oder Renderer spielen:

IPC > Takt > Kerne. Single Thread Power war King, ist King, und ist durch nichts zu ersetzen außer noch mehr davon!

Da können Lisa Su und diverse roten Fahnenträger noch 1 mio. mal gebetsmühlenartig das Many Core Zeitalter propagieren. Die Software und die Entwickler sehen das anders.

Ich könnte das jetzt mit eigenen Worten wiedergeben, aber robbitob hat es in diesem Thread erst vor wenigen Beiträgen IMHO auf den Punkt gebracht:

Man braucht sich doch nur die Vergangenheit anzuschauen. Erst brachten 2C ggü 1C wenig. Dann brachten 4C ggü 2C wenig. Dann 8C gegrn 4C. Uswusf.
Außerdem ist das "bringt etwas" / "bringt nix" sehr schwarz/weiß. In einigen Spielen bringt es mehr, in anderen weniger. Das entwickelt sich halt allmählig.
Die Intel 6C/8C HSW-E und BDW-E waren trotz ihrem niedrige Takt eigentlich bei Spielen auch schon eine weile sehr gut dabei. Weil es schon immer mal wieder ein wenig - oder auch etwas mehr bringt.
Auch BUlldozer profitiert jetzt langsam von seinen 8x Integerkernen. 2011/12 wurde er ja von SB verhauen. Heute herrscht mindestens Gleichstand.

Da IPC und Takt eh langsam ausgeschöpft sind, wird die Entwicklung so oder so immer mehr in Richtung MT erfolgen.
In 5 Jahren führen wir wieder die gleiche Diskussion (und dann haben wieder viele die Vergangenheit vergessen), ob nun 16c/32t etwas ggü 8c//16t bringt. Über 4C/8t redet dann niemand mehr.
!

Das jetzt plötzlich Intel-Anhänger das Ende der Parallelisierung ausrufen ist derart durchschaubar und entbehrt jeglicher Grundlage.

Zudem gibt es natürlich keine Software ohne Hardware, Intel hat hier in den vergangenen Jahren durch das festhalten am Quadcore im Mainstreamsegment natürlich klar den Fortschritt gebremst. Jetzt wo es entsprechende 8C/16T CPUs preiswert zu kaufen gibt, wird auch die Software wieder nachziehen.

gravitationsfeld
2017-09-05, 19:12:17
Ich glaube er will eher sagen, dass das bei Spielen nicht zutrifft. Da nutzen die meisten Spiele noch immer hauptsächlich 4 Kerne sonst wären schnelle Vierkerner nicht an der Spitze der Benchmarks und hätten keine Chance gegen einen 8 Kerner. Dem ist ja überhaupt nicht so. Der potentielle Nutzen aus mehr als 4 Kernen bei den FPS ist marginal.

Bei Anwendungen die man mühelos parallelisieren kann, gibt es selbstverständlich Multithreading. Bestes Beispiel ist ja Cinebench.

Da kann ich auch mit bis zu 256 Threads rendern lassen, also weit mehr als es derzeit die Hardware bietet. Ist doch auch direkt wieder ein Beweis, dass die Software sich mitnichten nach der Hardware richtet.

Und man erkennt auch schon dort, dass die Leistung gewaltig abfällt mit so vielen Threads. Bekomme da nur noch 930 statt 1078 Punkte. Kerne und Threads sind nicht der heilige Gral.
Was ist denn das fuer ein bescheuertes Argument? Natuerlich verlierst du an Leistung mit so vielen Threads auf wenigen Cores. Context-Switches sind teuer. Auf einer CPU mit 256 Threads haettest du die aber nicht.

Raytracing ist mit ein Musterbeispiel von etwas was sich muehelos auf tausende Cores skalieren lassen wuerde.

tm0975
2017-09-05, 19:56:00
Viel wichtiger ist, dass die Frametimes mit 4T immer öfter merkbar schlechter sind. Mit Coffee Lake wirds HTT aber günstiger als bisher bei Intel geben und den 1600(X) in Spielen wohl recht deutlich schlagen (aber wohl auch weiterhin etwas teurer sein).

in der realität wird es wohl anders herum sein. er wird etwas schneller in spiele sein und deutlich teurer werden. cpu-limits sind ja meist künstlich erzeugt...

G3cko
2017-09-05, 20:13:28
Es gibt sehr viele Spiele die mit mehr als 4 Kernen skalieren. Warum glaubt nur jeder der PC wäre die Leadplattform?! Das ist sie nicht.viel Takt hilft vor allem bei alter Software oder schlechten Engines. Das heißt aber nicht, dass diese mit vielkernern schlecht läuft. Lächerliche Diskussion. C2D reloaded.

Pirx
2017-09-06, 07:36:03
...
Abenteuerlich finde ich persönlich eher wie Du einzelne Stellen aus meinen Posts pickst, die dazu nutzt um mich zu diffamieren, aber zu dem grundsätzlichen Thema, und auch bei Dir bin ich sicher das Du verstehst worauf ich hinaus will, nichts beizutragen hast.
Nein, das war schon dein gesamter Post mit dem du das valide Beispiel von Menace einfach mal negiert/ignoriert hast.

Menace
2017-09-06, 13:02:19
@MiamiNice
Zurück zu meiner Frage: Was sagst Du zu DXO? Ich glaube, C1 parallelisiert ähnlich? Cool, oder?

Dr.Doom
2017-09-06, 14:01:09
Die paar Titel und spezial Software die aktuell gut skalieren sind Ausnahmen und werden es auch bleiben kurz, mittel und langfristig. Selbst ein BF1 welches über 8 Kerne noch gut skaliert, wird einfach nur Dinge auslagern in andere Threads. Es ist mit Sicherheit nicht nativ Multi Core.Was ist denn "nativ Multi Core"?

Und dies ist genau der Punkt. Es sieht dato heute so aus als würde die Entwickler hergehen und alles in einzelne Threads verpacken also z.b. Ai, Sound, etc. je ein Thread. Das hat aber nichts mit echter Parallelisierung zu tun. So wie es dato heute ist spawnt so ziemlich jede home user Software 1-3 Threads die Last erzeugen und ein paar Threads die rum dümpeln.Was ist denn "echte Parallelisierung"?
Man hat bspw. ein großen Problem, das man in mehrere Unteraufgaben aufteilt, um es mit mehreren Recheneinheiten nebenläufig abzuarbeiten, anstatt jedes Teilproblem sequentiell.
Oder man hat vielleicht einen "dicken Brocken" an Arbeit und ein paar Hilfsarbeiter, die "im Hintergrund" schonmal Dinge vorbereiten, die der dicke Brocken bei bestimmten Aktionen quasi wie von Zauberhand einfach präsentieren kann, anstatt dann erst loszurechnen.

Ist das eine nun echter als das andere?

MiamiNice
2017-09-06, 14:13:18
Was soll ich dazu sagen?
Der Gegenstand der Diskussion ist doch das ich der Meinung das diese many Core CPUs im Desktop Markt fehl am Platz sind.
Ich argumentierte das zum einen damit, dass die Entwickler nicht weit genug sind und zum anderen damit, dass heutige Software Unterprozesse wie z.b. die AI oder den Sound in Threads auslagert es aber trotzdem nur 1-3 Threads gibt die wirklich Last erzeugen.

Vielleicht zäumen wir es noch mal von der anderen Seite auf:

Multi Core wurde ins Leben gerufen weil man das Ende des Tunnels bei der Steigerung der IPC und den Taktraten gesehen hat. Also steigert man die Leistung, des gesamten Prozessors, nun in dem man die Core Anzahl erhöht. Da muss die Software natürlich mitziehen, sonst läuft das nicht. Im optimalen Fall verteilt sich also die Software auf 2 oder mehr Kerne, lastet alle Kerne gleichermaßen aus, und skaliert mit der Anzahl der Kerne.

Jetzt kommen aber die aktuellen Probleme ins Spiel das sich a. nicht jede Berechnung parallelisieren lässt b. Berechnungen von vorherigen Berechnungen abhängen können und c. wie hier jemand schrieb das wir kaum Progger auf der Welt haben die so eine Software überhaupt schreiben können.

Das heißt:
Aktuell werden die Möglichkeiten von Multi Core gar nicht genutzt. Ein Programm läuft i.d.R. nicht schneller* durch Mutli Core sondern Du kannst mehrere Programme gleichzeitig ausführen lassen ohne das die Leistung für andere Prozesse geschmälert wird.

* Natürlich laufen Programme schneller durch Multi Core, bedingt dadurch das Prozesse entkoppelt und in eigene Threads separiert werden und dadurch mehr Leistung für den Main Worker Thread überbleibt.

Was heute passiert ist ein simple Auskopplung von Unterprozessen in eigene Threads um das was man nicht auskoppeln kann schneller laufen zu lassen.

Das ist für mich aber nicht der Grund hinter Multi Core - das mal am Rande.

Wohin ich will ist folgendes:

Wir haben seit ca. 10 oder 15 Jahren Multi Core CPUs. Mittlerweile sogar in unseren Handys und Konsolen und und und. Die Menschheit beschäftigt sich also seit über 10 Jahren mit dem Thema und bis dato heute ist es weiterhin so das "Dinge" ausgelagert werden statt das es richtiges Multi Core threading gibt. Multi Core Programmierung gibt.

Ich bin der Meinung das Spiele Entwickler gar nicht so viel auslagern können, das es Sinn macht. Das sieht man schon heute, da gab es einen Link im CFL Thread, das so ziemlich jedes Spiel auf dem Markt, auch wenn es mit 12 oder mehr Threads umgehen kann, nur auf 3 Threads wirklich Last erzeugt.

Klar wird hier geforscht und das Thema MT wird ganz sicher nicht sterben eher das Gegenteil, aber es ist einfach ein Problem was da ist und sich nicht so einfach lösen lässt (laut Experten, gerade keinen Link zur Hand).

Es mag Software geben die diesen Ansatz verfolgt, von mir aus DXO, kenn ich nicht. Aber der Punkt ist, dass locker 95% aller Software am Markt und sicherlich 99% aller Software am Markt die bei "normalen" Verbrauchern genutzt wird eben nicht mit der Anzahl an Kernen linear skaliert aufgrund der Probleme welche ich oben skizziert habe.

Man kann die Sinnhaftigkeit von z.b. Threadripper im einem Gaming PC daher schon in Frage stellen um auf das Threadthema zurück zu kommen. Da Software heute, wie immer diese 99% genutzte Software at home (nicht das wieder einer spitzfindig wird), steht auf IPC und Takt. TR hat z.b. einen nicht so hohen Takt und Nachteile wenn die Software TR nicht kennt (mit Pech landen alle Threads des Games auf vers. CCX -> Latenzen).

Dieses Verhalten also das IPC und Takt das Maß der Dinge sind mit einer ausreichenden Anzahl an Kernen (sicher keine 16) wird sich erst ändern wenn die Menschheit es geschafft hat, dass sich Software aufsplitten und über die Cores verteilen kann. Und dies gleichmäßig.

Davon sind wir imho aber noch ganz weit weg.

Grüße

Ich propagiere also nicht das Ende der Parallelisierung sondern hoffe auf einen baldigen Anfang derer.

Wer Rechtschreib oder Kommata Fehler findet -> die sind beabsichtigt und dienen der allgemeinen Belustigung!

Pirx
2017-09-06, 14:28:24
@MiamiNice Ich verlange von dir, der du dir Absolutaussagen, wie "Die Aussage ist, dass sich many Core CPUs im Heimbereich nicht lohnen und es sich daran mittelfristig nichts ändern wird." zutraust, seit mehreren Posts weiterhin eine Argumentation, die nicht nur auf Einzelbeispielen und fragwürdigen Eigendefinitionen von "nativ Multi Core" beruht!
Gegenbeispiele gibt es viele und diese wurden dir hier schon vorgeführt. Diese ignorierst du.
Das hat übrigens nichts mit hetzen zu tun.

Aber ich denke, der Grund für dein Ausweichen auf die persönliche Ebene ist der, daß du deine Argumentation nicht aufrechterhalten kannst, denn "selbst" der "Homebereich" ist sehr heterogen, bzw. die Interessen und damit auch die Software sind vielfältig und sie wird in allen Bereichen wie beispielhaft gezeigt weiterentwickelt (Videoschnitt und Fotobearbeitung sind bspw. recht weit verbreitet). Im Spielebereich zeigen einige neuere Spiele, wie groß das Potential von Mehrkern-CPUs insbesondere in Verbindung mit den neuen APIs ist. Es ist also so, daß selbst ein Threadripper im Home- und Spielebereich schon heute sinnvoll sein _kann_. Jedes einzelne Beispiel allein widerlegt deine vorschnelle Absolutaussage.

gravitationsfeld
2017-09-06, 15:31:51
Niemand benutzt einzelne Threads für Sound und AI. Alle großen Engines benutzen Task basierende Systeme mit Thread Pools.

http://www.dice.se/wp-content/uploads/2014/12/Sthlm10_ParallelFutures_Final.ppt
http://advances.realtimerendering.com/destiny/gdc_2015/Tatarchuk_GDC_2015__Destiny_Renderer_web.pdf
http://www.gdcvault.com/play/1022186/Parallelizing-the-Naughty-Dog-Engine
http://www.redgamingtech.com/infamous-second-son-engine-postmortem-analysis-breakdown/
https://wiki.unrealengine.com/Using_AsyncTasks
http://www.gdcvault.com/play/1017770/Job-Graph-Task-Graphing-in

Das ist nur eine Ausschnitt, ich kann noch laenger Google benutzen. Praktisch jede Engine heute benutzt alle Cores wenn genuegend Jobs parallel ausgefuehrt werden koennen. Und das nicht erst seit gestern. Das wurde schon in Xbox-360-PS3-Tagen geloest.

Davon sind wir imho aber noch ganz weit weg.
Sind wir nicht.

Dr.Doom
2017-09-06, 15:38:29
Was soll ich dazu sagen?Naja, wenn du Begriffe nutzt, dann solltest du doch anderen erläutern können, was du damit meinst.

Der Gegenstand der Diskussion ist doch das ich der Meinung das diese many Core CPUs im Desktop Markt fehl am Platz sind.
Ich argumentierte das zum einen damit, dass die Entwickler nicht weit genug sind und zum anderen damit, dass heutige Software Unterprozesse wie z.b. die AI oder den Sound in Threads auslagert es aber trotzdem nur 1-3 Threads gibt die wirklich Last erzeugen.
[...]
Multi Core wurde ins Leben gerufen weil man das Ende des Tunnels bei der Steigerung der IPC und den Taktraten gesehen hat. Also steigert man die Leistung, des gesamten Prozessors, nun in dem man die Core Anzahl erhöht. Da muss die Software natürlich mitziehen, sonst läuft das nicht. Im optimalen Fall verteilt sich also die Software auf 2 oder mehr Kerne, lastet alle Kerne gleichermaßen aus, und skaliert mit der Anzahl der Kerne.

Jetzt kommen aber die aktuellen Probleme ins Spiel das sich a. nicht jede Berechnung parallelisieren lässt b. Berechnungen von vorherigen Berechnungen abhängen können und c. wie hier jemand schrieb das wir kaum Progger auf der Welt haben die so eine Software überhaupt schreiben können.

Das heißt:
Aktuell werden die Möglichkeiten von Multi Core gar nicht genutzt. Ein Programm läuft i.d.R. nicht schneller* durch Mutli Core sondern Du kannst mehrere Programme gleichzeitig ausführen lassen ohne das die Leistung für andere Prozesse geschmälert wird.

* Natürlich laufen Programme schneller durch Multi Core, bedingt dadurch das Prozesse entkoppelt und in eigene Threads separiert werden und dadurch mehr Leistung für den Main Worker Thread überbleibt.

Ich verstehe die Aussage der Absätze nicht: Diese werden damit eingeleitet, dass Prozessoren mit mehreren Kernen heuer fehl am Platze sind, aber die Sternchen-Fussnote sagt, dass Programme schneller laufen, wenn mehrere Kerne zur Verfügung stehen.

Was heute passiert ist ein simple Auskopplung von Unterprozessen in eigene Threads um das was man nicht auskoppeln kann schneller laufen zu lassen.Das heisst, obwohl die zu erledigende Arbeit nun offenkundig durch weniger Störung besser erledigt werden kann, reicht es nicht?

Das ist für mich aber nicht der Grund hinter Multi Core - das mal am Rande.Du solltest schon nennen, was in dir vorgeht, damit man deine Argumentationskette besser nachvollziehen kann -- was ist denn der Grund?


Wohin ich will ist folgendes:

Wir haben seit ca. 10 oder 15 Jahren Multi Core CPUs. Mittlerweile sogar in unseren Handys und Konsolen und und und. Die Menschheit beschäftigt sich also seit über 10 Jahren mit dem Thema und bis dato heute ist es weiterhin so das "Dinge" ausgelagert werden statt das es richtiges Multi Core threading gibt. Multi Core Programmierung gibt.Ja, aber was ist denn "richtiges" Multi-irgendwasauchimmer?

Ich bin der Meinung das Spiele Entwickler gar nicht so viel auslagern können, das es Sinn macht. Das sieht man schon heute, da gab es einen Link im CFL Thread, das so ziemlich jedes Spiel auf dem Markt, auch wenn es mit 12 oder mehr Threads umgehen kann, nur auf 3 Threads wirklich Last erzeugt.Nun, man arbeit mit dem, was die größte Basis hat -- ausser man heisst C. Roberts und arbeitet {mit der|für die} Hardware von (über)morgen.

Klar wird hier geforscht und das Thema MT wird ganz sicher nicht sterben eher das Gegenteil, aber es ist einfach ein Problem was da ist und sich nicht so einfach lösen lässt (laut Experten, gerade keinen Link zur Hand).

Es mag Software geben die diesen Ansatz verfolgt, von mir aus DXO, kenn ich nicht. Aber der Punkt ist, dass locker 95% aller Software am Markt und sicherlich 99% aller Software am Markt die bei "normalen" Verbrauchern genutzt wird eben nicht mit der Anzahl an Kernen linear skaliert aufgrund der Probleme welche ich oben skizziert habe.

Man kann die Sinnhaftigkeit von z.b. Threadripper im einem Gaming PC daher schon in Frage stellen um auf das Threadthema zurück zu kommen. Da Software heute, wie immer diese 99% genutzte Software at home (nicht das wieder einer spitzfindig wird), steht auf IPC und Takt. TR hat z.b. einen nicht so hohen Takt und Nachteile wenn die Software TR nicht kennt (mit Pech landen alle Threads des Games auf vers. CCX -> Latenzen).

Dieses Verhalten also das IPC und Takt das Maß der Dinge sind mit einer ausreichenden Anzahl an Kernen (sicher keine 16) wird sich erst ändern wenn die Menschheit es geschafft hat, dass sich Software aufsplitten und über die Cores verteilen kann. Und dies gleichmäßig.

Davon sind wir imho aber noch ganz weit weg.Wer weiss, wie weit "weit" ist. So ähnliche Diskussionen gab's halt auch bei 1C->2C und 2C->4C, und dass es Anwendungen gibt, die mit 4C/8T besser läufen können ist ja auch kein Geheimnis.

Ich propagiere also nicht das Ende der Parallelisierung sondern hoffe auf einen baldigen Anfang derer.Also eigentlich haben wir die schon, nur halt nicht überall mit derselben Skalierung. Es kommt halt auf die Anwendungung an, wo was mehr "speed-up" bringt. Mit der Einschränkung, dass man nciht beliebig an der Taktschraube drehen kann und dass es einfach Anwendungen gibt, bei denen "noch 'n Thread mehr" nichts bringt.

Letztendlich ist aber auch leicht gesagt, dass man jetzt nicht mehr braucht, wenn man sich in einer Situation befindet, in der der Status quo bestens bedient wird. Nur führt das dann zu Stagnation, die hier im Forum ja auch nicht gerne gesehen ist.
Ja, heute reicht vielleicht der 4C-Prozessor, morgen vielleicht nicht mehr, wer weiss, aber es sollte irgendwas da sein, das das System in Bewegung hält, sonst tut sich weder bei Software noch bei Hardware was - oder zumindest nur in kleineren Schritten als einem lieb ist.

Und wenn MultiCore "nur" bedeutet, dass man diejenigen, die Arbeiten müssen, nicht stören braucht, weil "Ausweichkerne" vorhanden sind... let 'em swing. ;)

Menace
2017-09-06, 16:41:58
Es mag Software geben die diesen Ansatz verfolgt, von mir aus DXO, kenn ich nicht. Aber der Punkt ist, dass locker 95% aller Software am Markt und sicherlich 99% aller Software am Markt die bei "normalen" Verbrauchern genutzt wird eben nicht mit der Anzahl an Kernen linear skaliert aufgrund der Probleme welche ich oben skizziert habe.

Man kann die Sinnhaftigkeit von z.b. Threadripper im einem Gaming PC daher schon in Frage stellen um auf das Threadthema zurück zu kommen. Da Software heute, wie immer diese 99% genutzte Software at home (nicht das wieder einer spitzfindig wird), steht auf IPC und Takt.

Hach, diese Statistik, die Du hier anführst... herrlich.

Nochmals: Ein HEDT-CPU ist doch nicht für die Mehrheit. Diese CPUs sind für Leute, die ausgesuchte, alltägliche Programme (dass Du DXO, C1 und anderes nicht kennst, zeigt, dass Du Dich nicht mit RAW-Konvertierung im speziellen beschäftigst) zu nutzen wissen. Wir sind heute hier so wohlhabend, dass wir durchaus solche Software und die dazugehörigen CPUs leisten können und wollen. Für manche ist es nur Spielerei, für andere eine bisschen Luxus. Dabei steht außer Frage, dass man auch mit einem 6/12 oder 8/16 genug Spaß haben kann. 16 Thread sind für mich sinnvoll, im Alltag.

Das schöne ist doch, dass man trotz Missionierungseifer mancher selber wählen kann.

tm0975
2017-09-08, 11:04:09
neue Datenbank-Workstation:

Mainboards Sockel TR4 evtl. mit 10 GB LAN
AMD Ryzen Threadripper 1950X, 16x 3.40GHz
128 GB RAM mind. DDR4 - 2666 ECC
2 x 500 GB SSD (sata) als System Raid 1
Samsung SSD 960 PRO 2 TB (M.2 PCIe) als Daten Raid 1

zusammen mit Win10 prof. und SQL 2016 eine geballte Power, dazu extrem günstig! ich bin gespannt. hab ich etwas übersehen oder gibt es sinnvolle Verbesserungen?