PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD kündigt "Threadripper" HEDT-Plattform mit bis zu 16 CPU-Kernen an


Leonidas
2017-05-17, 06:25:35
Link zur News:
https://www.3dcenter.org/news/amd-kuendigt-threadripper-hedt-plattform-mit-bis-zu-16-cpu-kernen

Gast
2017-05-17, 08:35:08
cpus hin und her, wer braucht denn 32 threads wenn 16 schon kaum genutzt werden. gestern abend war für gamer einfach enttäuschend. da wartet man monate auf vega consumer und amd verliert kein wort darüber. ich denke bis sie fertig sind hat sich jeder mit was anderem eingedeckt. absichten sind ja schön und gut, aber da muss auch mal was kommen. wie lange soll ich noch mit fiji unter 4k umhereiern?

da hat man wohl arge probleme uberhaupt was lauffähiges zu liefern als nur gerede und tolle teaser. der gestrige abend war für ati/amd fans ein schlag in die magenkuhle. nichts zu sehen von vega oder amd enthusiast. bin masslos enttäucht. hoffen wir amd weiss was es gerade macht. über sommer kommt da jedenfalls nichts als bigcpus die niemand so wirklich braucht. das trauerspiel geht weiter. werde dann bei grün gucken müssen, für fiji kommt ja auch kaum noch was. amd dreht sich imo im kreis.

wenn amd vorteile gegenüber nv mit vega haben vertrödeln sie die mal wieder. die nächste big karte von nv kommt auf jeden fall mit 16 bis 24 gb ram. ich muss jetzt ehrlich gesagt überlegen was ich mache, denn so geht das nicht weiter. wir werden hier massiv vertröstet. jeden tag den amd mit vega verliert gewinnt nv. mit fiji gewinnt man jedenfalls keinen blumentopf mehr. das ist nur noch eine ruckelshow. für enthusiasten hat amd im bereich gpus nichts zu bieten. ich frage mich was die die letzen monate so gemacht haben.

Gast
2017-05-17, 08:39:56
war doch irgendwie klar dass in 2017 ein 8-Kerner das Mittelmass darstellt, die echten HEDT gehen in wenigen Monaten ab 12-Kerner los.

Damit kann sich keine Softwareschmiede mehr schlecht skalierende Anwenungen bei Multithreading leisten. Das ist endlich die Zäsur, ab der 4-Kerner nur noch in Verbindung mit alter Software als akzeptabel diskutiert werden können...

Gast
2017-05-17, 09:20:09
die frage ist doch eher wo man im consumerbereich bisher soviel leistung braucht. nirgends...würde ich behaupten. amd denkt schon wieder viel zu weit voraus, erinnernt mich an cmt. vor allem kauft denen das keiner ab, schon der 1800x verkauft sich nicht sonderlich gut gegenüber seinen mitbewerbern. bei 399 dollar ist für amd schluss.

auch intel setzt in dem bereich kaum was ab. für 2017-2019 reichen locker 6c/12t. die bekommt man für um 250 dollar. amd muss umsätze generieren nicht träumen! soviel finanzielle ressourcen für nischenprodukte zu verschwenden ist heavy fail.

Gast
2017-05-17, 09:28:03
Genau so sehe ich das IMHO auch, 8 Kerner egal welcher Firma gehören in die (gehobene) Mittelklasse (wo sie bei Konsoloen für umme 300 EUR auch schon sind), wer den PC im Desktop Segment wieder als "Leading" Plattform begreifen möchte, kann das nur mit einem ordentlichen 16 Kerner tun. Ob da nun Intel der Bremser war/ist, interessiert doch morgen keine Sau mehr, die Entwicklung geht weiter und überfährt jeden, der da schläft, so war es schon immer.

btw. no offence an alle Besitzer kleinerer CPU's, jeder soll nach eigenem Bedarf / Geldbeutel kaufen. :-)



war doch irgendwie klar dass in 2017 ein 8-Kerner das Mittelmass darstellt, die echten HEDT gehen in wenigen Monaten ab 12-Kerner los.

Damit kann sich keine Softwareschmiede mehr schlecht skalierende Anwenungen bei Multithreading leisten. Das ist endlich die Zäsur, ab der 4-Kerner nur noch in Verbindung mit alter Software als akzeptabel diskutiert werden können...

Eldoran
2017-05-17, 11:03:48
Nachdem Epyc ohnehin schon ein mcm mit 4 dies ist, ist ja die ganze Technik für Threadripper vorhanden - "einfach" ein halber Epyc mit den damit überzähligen Teilen weggelassen. Ein interessantes Detail wird noch ob Ryzen und Theadripper auch für das Low(er) end Segment bei den Servern kommen wird. Gerade im Value Segment mit den 1HE Pizzaschachteln würden die sehr gut passen.

Gast
2017-05-17, 13:05:29
Was sich das AMD Marketing ausdenkt, muss man nicht verstehen, oder? Allein die Namensgebung ist schon peinlich bis irreführend.

HeinLo
2017-05-17, 14:13:04
cpus hin und her, wer braucht denn 32 threads wenn 16 schon kaum genutzt werden. gestern abend war für gamer einfach enttäuschend. ... wie lange soll ich noch mit fiji unter 4k umhereiern?
...
wenn amd vorteile gegenüber nv mit vega haben vertrödeln sie die mal wieder. die nächste big karte von nv kommt auf jeden fall mit 16 bis 24 gb ram. ich muss jetzt ehrlich gesagt überlegen was ich mache, denn so geht das nicht weiter.
Seltsame Wahrnehmung. (?)
Die Vega kommt doch Ende Juni mit 16GB, wurde doch bestätigt. Die wird zwar teuer, aber echte Enthusiasten die auch Titanen kaufen stört das doch nicht. Eine RX Gamer Variante ist sicher noch vor dem Herbst auf dem Markt. Auch da wird man wohl von nVidia sich etwas abeschaut haben.
Mit 16 Cores lassen sich in modernen Games mit DX12 und Vulkan die GPUs mit Drawcalls beschicken und man hat dennoch Leistung übrig für KI oder andere Dinge. Was der Gamer aber gemäss AMD nicht mehr braucht sind 16GB oder mehr VRAM. Mit deren HBM-Cache Konzept haben die doch gezeigt, dass theoretisch 2GB schon genügen. Man hat 4k Gaming mit Sniper Elite und das Caching mit Tomb Raider demonstriert. Funktioniert in den Demos zumindest sehr gut.
Das Caching finde ich persönlich genial wenn es wirklich funktioniert wie beworben. Mich interessiert beim Gaming nur die min-FPS und Frame-Latency, alles andere ist Zugabe. Und da soll das HBM Caching wahre Wunder wirken.

Immer ruhig mit die Pferde, der Financial Analyst Event ist keine Zocker-Veranstaltung. Die kommt doch Ende des Monats.
AMD hat gelernt, dass sie jede paar Wochen Infos und Events raushauen müssen, damit man im Gespräch bleibt. Im Marketing hat man sich gegenüber früher massiv verbessert. Aber das bedeutet auch, dass man alle Produkte gestaffelt bringt und nicht nur eine einzige Mega-Party abfeiert.

davidzo
2017-05-17, 14:21:10
Link zur News:
https://www.3dcenter.org/news/amd-kuendigt-threadripper-hedt-plattform-mit-bis-zu-16-cpu-kernen


X390 nicht X399!

Die 99er Chipsätze sind von Intel... - wobei AMD anscheinend seine 32c Naples chipsätze auch so nennt, während die HEDT Chipsets auf 0 enden (390).
Die Verwirrung war vorprogramiert, nimmt die Namensgebung von AMD doch absichtlich Intels nächste Generation vorweg ;D

FlashBFE
2017-05-17, 14:51:02
Nanu, kein einziges Wort zu EPYC oder kommt da noch eine eigene Meldung?

davidzo
2017-05-17, 14:51:49
sry falscher thread

Gast
2017-05-17, 15:21:40
Das kauft AMD doch kein Mensch ab. Wenn die gestern mit Verbindlichkeiten und Terminen zu Vega gekommen wären, dann wäre heute alles gut. Jetzt kommen die mit so einem 32 Thread Tünüff und die Leute kaufen z.Z. massiv Intel 4C/8T. Noch nicht mal die kleinen 4C Zen hat man zu Ende gelauncht.

AMD ist wirr und genau das bestätigt die Börse bereits. Jeder hat gestern Vega erwartet und hochgehalten wird ein Highend Profi Board (8+6Pin 225w TPD), abgebildet wird dann ein Enthusiast Vega-Profiboard (8+8Pin 375w TPD), wo jeder weis das Nvidia massives Deep Learning mit Volta in der Pipeline hat. Waren das Attrapen oder was, renderter Bilder die von Original abweichen? Das kauft AMD keiner ab, da stimmt was nicht, die eiern nur noch umher. Gestern sind die gepoltert wie ein Elefant im Porzellanladen. Ja AMD ist back, o.k., nur der Zeitplan ist völlig Scheiße wenn man ein Produkt launcht und die Konkurrenz im gleichen Zeitraum zwei und mehr neue Gens.

Man man...irgendwie haben die vorher alle einen geraucht. Ethusiasmus ist ja gut, aber so übertrieben? Kommt jetzt endlich zu euren alten Werten zurück. Ryzen 8C/16T war bisher so erfolgreich, wenn man massiv Infos zu Vega gebraucht hätte, wäre das heute förmlich explodiert, herausgestellt hätte wie gut Ryzen unter Games performen kann und Lösungsansätze geliefert hätte. Da stellt man sich hin und eiert umher. Keiner ist jetzt irgendwie schlauer, was machen die da bloß und die Aktie bekommt merkliche Dämpfer. Jeder weiss doch, dass niemand wie irre AMD Zeugs für tausende Euro kauft. Das geht völlig an der Kundschaft vorbei die man hat. Wer hängt sich da eine Handtellergroße CPU in den Rechner, was für ein Schwachfug³.

Ich weiss nicht wer - wem dieses Hirngespinst in den Kopf gesetzt hat. Intel und nVidia lachen sich gerade kaputt. So ein naives Gequatsche.

Gast
2017-05-17, 18:28:17
Genau so sehe ich das IMHO auch, 8 Kerner egal welcher Firma gehören in die (gehobene) Mittelklasse (wo sie bei Konsoloen für umme 300 EUR auch schon sind),

Immer dieses Konsolen-Argument.
Die Konsolen-CPUs haben die halbe Taktfrequenz, bei weniger als halber Leistung pro Takt und die Software die ach so dringend 8 Kerne braucht darf von diesen selbst nur 6 verwenden, weil der Rest für DRM verbraten wird.
Ein 8-Kerner aus der aktuellen Konsolen-Generation entspricht wohlwollend einem 2-Kerner aus der aktuellen Desktop-Generation.

Was kommt als nächstes? Wir brauchen unbedingt 10/12-Kerner, weil in Smartphones haben sie das ja auch schon längst?
Immer diese Äpfel-Birnen-Vergleiche.
Im Grunde ist die Leistung/Kern immer noch deutlich wichtiger als die Kernanzahl.
Viele Kerne lassen sich eben oft nicht sinnvoll nutzen, Herr Amdahl lässt grüßen: https://de.wikipedia.org/wiki/Amdahlsches_Gesetz

Das Problem an den vielen Kernen im Desktopbereich ist, dass es eben gar nicht so viel Software gibt die sich wirklich gut auf sehr viele Kerne parallelisieren lässt.
Und für jene Software bei die wirklich gut mit extrem vielen Threads skalieren kann sind GPUs der wesentlich bessere Unterbau als die vielen CPU-Kerne.

Was hier den CPUs noch hilft ist die alte Software, die eben noch nicht für GPUs angepasst wurde bzw. für GPUs noch gar nicht existiert.

Im Grunde wird es für die Vielkerncpus in Zukunft eher eine Win-Lose-Situation. Mit Weiterentwicklung der Software wird es sicher welche geben die gut mit mehr als 4-Kernen skaliert. Umgekehrt werden sie aber jede Menge Software in der sie heute glänzen an GPUs verlieren. AMDs Lieblingsbenchmark für Ryzen, der Cinebench wäre beispielsweise auf GPUs um Größenordnungen besser aufgehoben.
Klar den gibts noch nicht für GPUs also hat man natürlich heute mit den vielen Kernen in den CPUs einen Vorteil.

Man kann es heute natürlich noch nicht abschätzen wo der Sweet-Spot für Desktop-CPUs in Zukunft liegen wird, aber viel mehr als 8 Kerne werden es wohl kaum sein, darüber wird der Ertrag pro zusätzlichem Kern einfach viel zu gering, besonders da die CPUs das bisschen an höherem Thread-Level-Parallelism auch gut durch SMT abfangen können.


PS: Ich habe einen Ryzen 8-Kerner zu Hause, und ja ich gebe es ja zu, 16 Diagramme im Taskmanager sehen schon toll aus, aber Sinnvoll ist das trotzdem nicht. Der Sweet-Spot sind heute klar 4-Kerner, und mehr als 6 Kerne sind absoluter Overkill.

DerBlicker
2017-05-17, 23:18:39
..
Ein 8-Kerner aus der aktuellen Konsolen-Generation entspricht wohlwollend einem 2-Kerner aus der aktuellen Desktop-Generation.
..
Im Grunde ist die Leistung/Kern immer noch deutlich wichtiger als die Kernanzahl.
Viele Kerne lassen sich eben oft nicht sinnvoll nutzen, Herr Amdahl lässt grüßen: https://de.wikipedia.org/wiki/Amdahlsches_Gesetz

...
Man kann es heute natürlich noch nicht abschätzen wo der Sweet-Spot für Desktop-CPUs in Zukunft liegen wird, aber viel mehr als 8 Kerne werden es wohl kaum sein, ...

Das kommt davon wenn man die SW-Entwicklung und CPU-Architekturen nicht versteht. Denn es ist gerade anders herum:

Der schnellste 2-Kerner hat in jedem mässig umgesetzten Konsolenport grosse Schwierigkeiten, egal wie hoch der IPC oder Taktvorteil ist. Durch die Kontextwechsel werden so viele Takte verbraucht und Cache-Misses generiert dass das regelmässig zu extremen Einbrüchen führt. Wer will schon permanent Framedrops unter 30 hinnehmen? Schon mal die Reviews mit FPS-Stabilität über den Zeitverlauf zu den grottigen Pentiums angesehen? Unter 8 Threads sollte man keine CPU fürs Gaming mehr kaufen, dann hat man keine grossen Bottlenecks beim Kontextwechsel zu fürchten.

Das Amdahlsche Gesetz zeigt auch nicht auf, dass man mit mehreren Cores nicht ordentlich Skalieren kann. Ganz im Gegenteil, dort wird die Grenze eigentlich erst ab 256 Cores langsam erreicht.
Vielmehr sagt es aus, dass man ab 4 Cores tunlichst über 90% des Codes parallel ausführen können sollte um die vorhandene Hardware auszureizen, und bei mehr als 4 Cores sollte es schon deutlich weiter in Richtung 100% gehen. Da war doch was? Ach ja richtig: AAA auf Konsolen mit 6-7 Cores zum beschäftigen.
Das Skaliert dann aber wie in der verlinkten Grafik zu sehen ist bis 256Cores. Und damit sind nicht Hyperthreads gemeint, sondern volle Cores mit eigenem Cache und vollen Ausführunseinheiten. Da haben Intel und AMD also noch viel Luft.
Der Zwang auf massiv Parallelität zu gehen gibt es schon seit vielen Jahren, bislang haben sich nur zu viele Entwickler rausgeredet dass das OS oder Virenscanner und Co für die anderen Cores da sind und nur low hanging fruits abgeholt und die alten Libraries recycelt. Was DX11 mit maximal 2 Threads verhindert hat haben GPU-Treiber auf 4-Cores noch kompensiert/ausgeglichen. Aber mit den Konsolen und neuen APIs und endlich mehr Cores statt nur homöopathischen Taktgewinnen gibt es keine Ausflüchte mehr für schlechtes Coding. Der Druck ist in der Softwarebranche da und die Beancounters können nicht mehr Nein sagen.
Unternehmen ohne solche Beancounters mit Programmierern als Chefs machen heute schon 8Threads und mehr voll, und wir sind gerade erst am Anfang der DX12/Vulkan Adaption.

Wach auf oder bleib liegen ;D

Gast
2017-05-18, 20:16:55
Das kommt davon wenn man die SW-Entwicklung und CPU-Architekturen nicht versteht. Denn es ist gerade anders herum:

Musst du das unbedingt im Internet posten? Wenn mein Arbeitgeber das sieht feuert er mich vielleicht, schließlich würde er dann endlich erkennen dass ich von meinem Job nichts verstehe.


Der schnellste 2-Kerner hat in jedem mässig umgesetzten Konsolenport grosse Schwierigkeiten, egal wie hoch der IPC oder Taktvorteil ist. Durch die Kontextwechsel werden so viele Takte verbraucht und Cache-Misses generiert dass das regelmässig zu extremen Einbrüchen führt.


Nächster Punkt der GEGEN viele Kerne/Threads spricht. Diese vielen Kontextwechsel kosten nämlich Zeit, unabhängig davon wie viele Kerne eine CPU hat und tragen nicht zur Leistungssteigerung bei.
Cache-Misses hast du übrigens mit mehr Kernen umso mehr. Eben durch die Kontextwechsel werden die Core-Exclusiven Caches oft wirkungslos und erst der relativ langsame Last-Level-Cache kann die Zugriffe abfangen.
Hier sieht man auch schön das Problem von Ryzen, durch die CCX-Architektur existiert eben kein Last-Level-Cache, was gerade bei gut parallelisierter, aber mit vielen Abhängigkeiten versehener, Software zu Problemen führt. Im Extremfall sogar so viel dass die Ausführung auf nur 1 CCX gegenüber allen Kernen schneller ist.


Das Amdahlsche Gesetz zeigt auch nicht auf, dass man mit mehreren Cores nicht ordentlich Skalieren kann. Ganz im Gegenteil, dort wird die Grenze eigentlich erst ab 256 Cores langsam erreicht.
Vielmehr sagt es aus, dass man ab 4 Cores tunlichst über 90% des Codes parallel ausführen können sollte um die vorhandene Hardware auszureizen, und bei mehr als 4 Cores sollte es schon deutlich weiter in Richtung 100% gehen.

Dummerweise lässt sich Software aber nicht auf magische Weise beliebig parallel ausführen, und bei "nur" 90% paralleler Ausführung, was schon ein sehr guter Wert ist, gewinnt man von 8 auf 16 Threads schon ziemlich wenig.
Anders ausgedrückt, bei Software die "nur" zu 90% parallel läuft hat ein Ryzen 1700 gegenüber einem Intel 7700K keine Berechtigung. Die maximalen 50% die der Ryzen aus so einer Software durch die doppelte Kernanzahl noch holen könnte egalisiert der Intel durch höheren Takt + IPC.

Und Software die sich einfach auf noch wesentlich höheren parallelen Anteil trimmen lässt ist auf GPUs noch sehr viel besser aufgehoben.

Am Desktop gibt es wie gesagt nicht viele Anwendungsfälle für die Massen an Kerne, bestenfalls gut parallelisierte Software, die noch nicht auf GPUs läuft.

Wofür viele Kerne gebraucht werden und auch in Zukunft noch immer mehr gebraucht werden, sind Anwendungen die massiv parallele Verarbeitung mit möglichst kurzer Antwortzeit benötigen, in letzterem sind GPUs nämlich ziemlich schlecht. Die erreichen zwar einen hohen Durchsatz, bis ein bestimmter Thread fertig wird kann es aber dauern.
Beispiele dafür wären Datenbankanwendungen, Webservices etc. Wie du siehst also alles Serveranwendungen.
Für Desktops braucht es diese Coremassen nur in sehr wenigen Anwendungsfällen und garantiert nicht für die Massen.

OBrian
2017-05-19, 11:31:46
Damit kann sich keine Softwareschmiede mehr schlecht skalierende Anwenungen bei Multithreading leisten. Das ist endlich die Zäsur, ab der 4-Kerner nur noch in Verbindung mit alter Software als akzeptabel diskutiert werden können... nee, leider ganz anders. HEDT ist überhaupt nicht bestimmend für Spieleentwickler. Die wollen eine möglichst breite Käuferschicht ansprechen, also werden die Hardwareanforderungen des Spiels möglichst niedrig angesetzt. Und was steckt in der großen Masse der neu verkauften PCs? Richtig, Zweikerner, bestenfalls mit SMT: Celerons, Pentiums, Core i3.

Wenn nun durch AMDs neue Angebote Intel endlich dazu gezwungen wird, auch im unteren Marktsegment echte Vierkerner anzubieten und die reinen 2-Kerner komplett verschwinden, dann bildet das eine stabile Basis für Spieleentwickler, die dann bei ihren Planungen von vier vorhandenen Kernen ausgehen können, womit wir dann endlich schönere Spiele sehen könnten.

Ob die halbe Handvoll Poweruser künftig 32, 64 oder sonstwieviele Kerne im Rechner hat, ist vollkommen irrelevant, auch wenn das sicherlich jeder Spieleentwickler so gerne vorfände (mehr Power bietet eben mehr Möglichkeiten, die Ideen gut aussehen zu lassen). Es mag irgendwelche eizelnen Showcases geben, bei denen ganz viele Kerne ausgelastet werden mit irgendwas Unwichtigem (zusätzliche Splitter bei Explosionen o.ä.), aber ein Spiel muß auf einem unterdurchschnittlichen Rechner eben spielbar laufen, sonst macht sich jeder Spieleentwickler mutwillig seinen eigenen Markt kaputt.

Ätznatron
2017-05-19, 11:59:15
Wenn ich mir so die Mindestsystemanforderungen anschaue, läuft unterhalb eines 4-Kerners doch so gut wie gar nichts mehr, selbst bei nicht mehr ganz so aktuellen Spielen.

Gast
2017-05-19, 12:05:50
Ob die halbe Handvoll Poweruser künftig 32, 64 oder sonstwieviele Kerne im Rechner hat, ist vollkommen irrelevant, auch wenn das sicherlich jeder Spieleentwickler so gerne vorfände (mehr Power bietet eben mehr Möglichkeiten, die Ideen gut aussehen zu lassen). Es mag irgendwelche eizelnen Showcases geben, bei denen ganz viele Kerne ausgelastet werden mit irgendwas Unwichtigem (zusätzliche Splitter bei Explosionen o.ä.), aber ein Spiel muß auf einem unterdurchschnittlichen Rechner eben spielbar laufen, sonst macht sich jeder Spieleentwickler mutwillig seinen eigenen Markt kaputt.
Es gibt schon Spieleentwickler die darauf eingehen. Ganz klar ist aber, die Anzahl der Highperformanceuser ist viel zu klein als das sie in breiter Fläche etwas an Fortschritt bewirken könnten. 32 Threads sind unter Spielen völlig nutzlos. Ich weiß nicht warum AMD und Intel jetzt auf diesen Zug aufspringen. Mit stupide mehr Kernen verhindert mal auch kein Bottleneck, wenn SW nicht auf Multicore-Multithread optimiert wird. Das jemand jetzt massiv auf mehr als 6 Kerne optimiert ist auszuschließen.

Die Hersteller stecken was Takt und IPC angeht in einer Sackgasse und um jetzt Fortschritt vorzugaukeln wird einfach von allem mehr verbaut. Das hilft aber nicht wirklich, sondern nur bis zu einer gewissen Größenordnung. Ich bilde mir ein das ist alles eine Art von Kundenbindung, man braucht längerfristig mehr finanzkräftige Kundschaft um sich Entwicklungsprojekte zu refinanzieren, die Kosten steigen und Gewinne schmelzen, daher packt man die radikale Multithreadkeule aus, Threadripper oder Skylake +6C braucht rein zum Spielen kein Mensch. 6C+HT oder SMT reichen vollkommen und die nächsten fünf Jahre locker. Wenn man sicher gehen will kauft man einen 8C und gut.

maguumo
2017-05-19, 15:28:05
Spiele laufen in der Regel ach unterhalb der Minimalanforderungen, damit sichern sich die Hersteller nur ab.

MartinB
2017-05-19, 16:43:11
Wenn der Preis halbwegs vernünftig ist und sich eines der Modelle auf 4GHz takten lässt, dann upgrade ich vielleicht meinen 8c Ryzen X-D

Gast
2017-05-19, 16:48:52
Wenn man sicher gehen will kauft man einen 8C und gut.
Das sind doch alles nur Platzhalter.

4 Core und mehr werden billiger, was die Mehrzahl an 2 Core Besitzer oder älterer Hardware animiert, annimieren soll jetzt zuzuschlagen. Und schon hat man wieder mehr Verkäufe generiert, man braucht ja auch gleich noch das Mainboard dazu und den neuen RAM. Feinstes Marketing. Ob das jemand braucht oder nicht, ist den Marketingsfutzies doch völlig egal. Man erzeugt in allen Belangen und Bereichen das es mehr sein MUSS...

Wenn man Abstriche hinnehmen kann, reicht auch weniger. Ich eier noch mit einem i7 2600k auf einem z68 durch die Gegend, gab bisher nichts was der aus meiner Sicht nicht wuppte und in Zukunft wuppen wird. Dieses breiter-schneller-höher geht mir am Allerwertesten vorbei.;)

Gast
2017-05-19, 16:52:20
Ähm da gehen welche in Referenz schon bis 4,5...und du glaubst doch nicht das der TR im Vollausbau 4.0 Ghz auf allen Cores schafft, ja Boost auf 2 Kernen! Ansonsten verballert er wohl 250W. Das muss du erst mal wegkühlen. Ansonsten kann dir mal schnell der Sockel abbrennen..

Gast
2017-05-19, 18:03:17
Spiele laufen in der Regel ach unterhalb der Minimalanforderungen, damit sichern sich die Hersteller nur ab.

Das war früher mal ganz anders. ;)
Da war ein Spiel mit minimaler Hardware defakto nicht spielbar.
Wobei wenn wir ehrlich sind es heute auch nur auf CPU-Seite der Fall ist, auf GPU-Seite sieht es ganz anders aus.

Ich habe letztens mal Overwatch auf einer Intel HD-Graphics 4400 probiert, was die offiziellen Minimalanforderungen sind.
Rein FPS-Mäßig ist es sogar gut Spielbar mit großteils um die 60fps und Slowdowns die nie unter 30 gehen.
Allerdings mit minimaler Auflösung + zusätzlich reduzierter Renderauflösung. Und dann ist das Bild eben dermaßen grob dass man nichts mehr erkennt, was es defakto wieder unspielbar macht.

Gast
2017-05-20, 18:38:11
Wenn der Preis halbwegs vernünftig ist und sich eines der Modelle auf 4GHz takten lässt, dann upgrade ich vielleicht meinen 8c Ryzen X-D

Zen ist bis ca. 3,3GHz extrem effizient und über 3,5GHz extrem ineffizient.

4GHz auf 16 Kernen sind da ein reines Wunschdenken, Turbo/XFR wird das auf einigen wenigen Kernen hinbekommen, aber bei 16 Kernen auf 4GHz bist du unter last wahrscheinlich auf ca. 300W.