PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Zen 3 "Milan" kommt laut AMD-Folien mit +15% IPC-Gewinn und +20% ...


Leonidas
2020-08-28, 14:28:27
Link zur News:
https://www.3dcenter.org/news/zen-3-milan-kommt-laut-amd-folien-mit-15-ipc-gewinn-und-20-insgesamter-mehrperformance

Lehdro
2020-08-28, 14:42:54
Klingt doch schon einmal gut. Bin gespannt ob sich taktratentechnisch überhaupt etwas merkbar bewegt.

Schnoesel
2020-08-28, 14:52:13
Naja die 200Mhz werden den Kohl nicht fett machen. Aber die CCX Umstrukturierungen zusammen vielleicht mit dem IF von Renoir, der auch gerne mal über 2000Mhz gehen soll, da liegt noch eine Menge Potential.

Wenn Vermeer wirklich overall bei +20% rauskommt OOTB, dann fällt auch noch Intels letzte Bastion.

Aroas
2020-08-28, 15:01:49
Nochmal + 20% Leistung auf Zen 2 drauf, wäre wirklich beeindruckend.
Dann hätte AMD es geschafft, innerhalb von 4 CPU Generationen die Leistung um ca. 50% bei gleicher Kernzahlt zu steigern.

Mega-Zord
2020-08-28, 15:06:52
Och, ein schöner 12/16-Kerner zum Jahreswechsel mit einer 3090 zusammen wäre was Feines. :D

Dorn
2020-08-28, 15:07:54
Jup und dann werde ich wirklich mein 6700K in Rente schicken. Ich freue mich. :smile:

Wird auf jeden Fall ein 8 Core CPU, wollen ja nicht übertreiben.

MartinRiggs
2020-08-28, 15:15:25
Na es wird doch, nachdem ich Zen und Zen+ eher mäh fand, Zen2 zwar gut aber über weite Strecken das Problem der Plattform hatte, scheint es jetzt gegen Ende des Jahres endlich was zu werden.

Mega-Zord
2020-08-28, 15:19:41
Jup und dann werde ich wirklich mein 6700K in Rente schicken. Ich freue mich. :smile:

Wird auf jeden Fall ein 8 Core CPU, wollen ja nicht übertreiben.

Wenn der 8-Kerner die beste Single-Thread-Performance hat, dann würde ich ihn auch nehmen. Aber AMD macht das ja genauso, wie Intel und gibt bei den größten Modellen auch den höchsten Turbo-Takt frei. Wie sinnvoll das technisch ist, sei mal dahin gestellt.

Der aktuelle i9 macht ja so eine permanente Überwachung der Temperaturen, so dass er den Super-Duper-Boost immer auf den beiden kühlsten Kernen fährt. Wird der Zen3 sowas auch können?

Lehdro
2020-08-28, 15:23:40
Wenn der 8-Kerner die beste Single-Thread-Performance hat, dann würde ich ihn auch nehmen. Aber AMD macht das ja genauso, wie Intel und gibt bei den größten Modellen auch den höchsten Turbo-Takt frei. Wie sinnvoll das technisch ist, sei mal dahin gestellt.
Stimmt so nicht mehr. Genau für Leute wie dich gibt es von AMD die XT Modelle (https://www.amd.com/de/products/cpu/amd-ryzen-7-3800xt). Damit du auch ja deinen recht sinnfreien max. Turbotakt hast.


Der aktuelle i9 macht ja so eine permanente Überwachung der Temperaturen, so dass er den Super-Duper-Boost immer auf den beiden kühlsten Kernen fährt. Wird der Zen3 sowas auch können?
AMD ist schon mit Zen 2 Intel bei dem Boostalgorithmus meilenweit voraus. (https://www.anandtech.com/show/14873/reaching-for-turbo-aligning-perception-with-amds-frequency-metrics-/3)

Dorn
2020-08-28, 15:40:21
Zen2 zwar gut aber über weite Strecken das Problem der Plattform hatte, scheint es jetzt gegen Ende des Jahres endlich was zu werden.Ging mir auch so und ein Mainboard mit Lüfter werde ich mir nie kaufen, egal ob dieser läuft oder nicht. Aber mit dem B550 gibts nur auch die passende Platftorm (für mich).
https://geizhals.de/gigabyte-b550-aorus-elite-a2295032.html Schon abgespeichert fehlt nur noch der CPU.

Mega-Zord
2020-08-28, 15:41:49
Stimmt so nicht mehr. Genau für Leute wie dich gibt es von AMD die XT Modelle (https://www.amd.com/de/products/cpu/amd-ryzen-7-3800xt). Damit du auch ja deinen recht sinnfreien max. Turbotakt hast.


AMD ist schon mit Zen 2 Intel bei dem Boostalgorithmus meilenweit voraus. (https://www.anandtech.com/show/14873/reaching-for-turbo-aligning-perception-with-amds-frequency-metrics-/3)

Nicht falsch verstehen. Ich suche die schnellste CPU, nicht die mit der größten Zahl auf dem Papier. Der 3900X(T) ist afaik schneller als der 3800X(T). Mir ist es auch recht egal, wenn AMD die Taktraten nicht erreicht, wenn die CPU einfach messbar schneller ist.

Die Zahlen auf dem Papier haben halt kaum noch Aussagekraft und das wird sich in Zukunft wohl auch nicht ändern. Wer den Tanz auf der Rasierklinge (Auslastung vs. Temperatur) am besten meistern kann, hat am Ende die schnellere CPU in der Realität.
Aktuell quetscht Intel aus dem 14nm+(++++...) immerhin so viel raus, dass AMD trotz besserer Fertigung bisher eben nicht einfach so davon zieht. Von daher bezweifle ich stark, dass AMD mit dem Boostalgorithmus meilenweit voraus ist. Ob das aus P/L-Sicht Sinn macht, muss jeder für sich entscheiden. Der 2700X wäre damals sicher auch vernüftiger gewesen als mein 9900k.

Daredevil
2020-08-28, 15:42:51
Stark! AMD knüpft da an, was Apple seit Jahren schon fabriziert, kontinuierlich stetiger Wachstum im CPU Segment.
Klingt jetzt leicht ironisch, meine ich aber durchaus ernst.

@Mega-Zord
Das ist aber nun mal auch Architektur bedingt.
Bei nem Zen2 lohnt es sich nicht, weiter Strom reinzupumpen, weil der Takt einfach ab einem bestimmten Punkt nicht mehr skaliert, da ist Intel gnädiger und belohnt dich dafür mit mehr Takt. Ne WaKü auf nem 8c Zen2 z.B. ist halt einfach rausgeworfenes Geld, bei dem Intel kannst du die 10-15% für 100w noch mitnehmen, um halt an die Grenze zu kommen.

Lehdro
2020-08-28, 15:53:00
Nicht falsch verstehen. Ich suche die schnellste CPU, nicht die mit der größten Zahl auf dem Papier. Der 3900X(T) ist afaik schneller als der 3800X(T). Mir ist es auch recht egal, wenn AMD die Taktraten nicht erreicht, wenn die CPU einfach messbar schneller ist.
Plottwist: Der 3900X ist nicht schneller als der 3800XT weil er mehr Takt hat, sondern primär weil er mehr Kerne & Cache hat.

Die Zahlen auf dem Papier haben halt kaum noch Aussagekraft und das wird sich in Zukunft wohl auch nicht ändern. Wer den Tanz auf der Rasierklinge (Auslastung vs. Temperatur) am besten meistern kann, hat am Ende die schnellere CPU in der Realität.
Das hat gar nicht mal so viel mit der Temperatur zu tun, von mobile mal abgesehen, sondern eher mit Sachen wie Granularität der Regelung der Frequenzen, keinerlei/feste Booststufen, Siliconfitness/Reporting und fein herausgearbeitete Spannungskurven. Bei AMD CPUs boostet derzeit keine CPU wie die andere, sie sind sich nur ähnlich im abgesteckten, vorgegebenen Rahmen. Takt, Verbrauch, Spannung und Temperatur können sich pro CPU deutlich unterscheiden. Bei Intel sind die Boosts/Stufen zwangsweise identisch, allerdings gibt es auch Unterschiede bei Temperatur, Spannung und Verbrauch (was im Extremfall auch die Taktraten beeinflussen kann).

Aktuell quetscht Intel aus dem 14nm+(++++...) immerhin so viel raus, dass AMD trotz besserer Fertigung bisher eben nicht einfach so davon zieht. Von daher bezweifle ich stark, dass AMD mit dem Boostalgorithmus meilenweit voraus ist.
Was diese Aussage mit dem Algorithmus zu tun hat musst du mir jetzt mal erklären. :confused:
Vielleicht erklärt es sich so leichter:
Eine Intel CPU mit dem aktuellen AMD Boostalgorithmus wäre schneller als eine Intel CPU mit dem aktuellen Intel Boostalgorithmus.
Eine AMD CPU mit dem aktuellen AMD Boostalgorithmus wäre schneller als eine AMD CPU mit dem aktuellen Intel Boostalgorithmus.

TL;DR: AMD reizt derzeit das Silizium deutlich feiner aus als das Intel tut.

WedgeAntilles
2020-08-28, 15:56:19
Na das klingt doch super :)

Da kann dann im Januar mein dann fast 6 Jahre alte I7 4770 in Rente. Da ist mir das bisherige Plus bei nem Ryzen 3600 zu niedrig als dass sich das lohnen würde.
Aber mit noch mal fast 20% drauf? Klasse.
Wie lange braucht Intel aktuell für +20% Performance? 3 Jahre? 4?

Und 3060TI/3070er müsste es da dann ja auch geben.

Dürfte ein guter Zeitpunkt für einen komplett neuen PC sein.

Mr.Smith
2020-08-28, 17:08:38
Die haben bestimmt mehr OC Potential als wie Zen2 und Ramtakt hoffenlich auch mit IF synchron mind. 4266 möglich, das dürfte Gaming PC auf Zen3 Basis nen ordentlichen Schub geben.

ShinyMcShine
2020-08-28, 17:47:52
Ich freu mich auf einen Ryzen 7 [4|5]800 X.
Sollten die Zen 3 nicht zur 5000er Serie werden?

Leonidas
2020-08-28, 18:26:16
@ ShinyMcShine:
Denkbar, aber noch nicht sicher.

Gast
2020-08-28, 19:11:18
Hm 20% sind jetzt eher am unteren Ende der Erwartungen aber nicht unrealistisch.

Gut aber nicht großartig, es dürfte endlich mal reichen Skylake in allen Situationen in die Schranken zu verweisen.

Dürfte ein spannender Schlagabtausch werden, AMD hat natürlich einen deutlichen Zeitvorteil, dürfte aber wohl von Intel mit den Cove-Kernen wieder überholt werden.

Dass Intel nur 8 schnelle Kerne bringen wird, ist am Desktop im Realbetrieb überhaupt kein Nachteil, mehr Kerne dienen eigentlich nur virtuellen Schwanzlängenvergleichen.

Genau genommen, hat ja auch AMD nur 8 Kerne pro DIE

MR2
2020-08-28, 20:36:48
@ gast

Wenn ich mir bei CB die CPU Tests anschaue und da die Mehrleistung einrechne, sehen die Intel CPUs aus wie von Vorgestern...Vom Verbrauch reden wir gar nicht!

Ich werde wohl den 5900X nehmen.

JVC
2020-08-28, 20:50:52
Dann hat es sich gelohnt auf Zen3 zu warten :)
Irgendwann mal muss der Rechner ja fertig werden ^^

M.f.G. JVC

Gast
2020-08-28, 22:36:46
Wenn ich mir bei CB die CPU Tests anschaue und da die Mehrleistung einrechne, sehen die Intel CPUs aus wie von Vorgestern...

Wenn ich mir die Tests so anschaue kann AMD nur dort wirkliche Vorteile ausspielen wo sie mehr Kerne haben und diese auch benutzt werden, also bei typischen Desktopanwendungen so gut wie gar nicht. Nicht mal im Stromverbrauch ist AMD großartig besser wenn man mal von künstlichen Allcore-AVX-Lasten ausgeht. Im Realbetrieb ist oft sogar Intel besser, und dort wo AMD besser ist hält sich der Vorsprung in argen Grenzen.
https://www.igorslab.de/intel-core-i9-10900k-im-vielseitigkeits-test-wo-liegen-staerken-und-schwaechen-des-letzten-14-nm-boliden-seiner-art/8/


Pro thread ist AMD mit Augen zudrücken gerade mal gleich auf.
AMD hat die klar besseren Workstation und Server-CPUs, da sieht Intel nicht mal die Rücklichter.

Als Desktop-CPU ist man maximal gleich auf und kann eigentlich nur über den besseren Preis punkten, nicht durch Leistung.

AMD würde ja gegen eine CPU von vorgestern richtig gut aussehen. Dummerweise hat Intel aber eine CPU von vor 4 Jahren, und dafür ist der Vorsprung schon mehr als bescheiden. Und ja ich habe eine AMD CPU, aber nur weil sie ein gutes Preis/Leistungsverhältnis bietet, nicht weil die Leistung so gut ist.

Aroas
2020-08-28, 22:57:54
Dass Intel nur 8 schnelle Kerne bringen wird, ist am Desktop im Realbetrieb überhaupt kein Nachteil, mehr Kerne dienen eigentlich nur virtuellen Schwanzlängenvergleichen.


Was für ein Blödsinn...

Mag vielleicht noch auf Spiele zutreffen, aber in sämtlichen Anwendungen, die von vielen Kernen/Threads profitieren, wird dieser Umstand Intel noch weiter hins Hintertreffen bringen.

MiamiNice
2020-08-28, 23:19:53
Was für ein Blödsinn...

Mag vielleicht noch auf Spiele zutreffen, aber in sämtlichen Anwendungen, die von vielen Kernen/Threads profitieren, wird dieser Umstand Intel noch weiter hins Hintertreffen bringen.

Das wären genau wie viele Anwendungen die der normale User auf seinem Desktop ausführt? Sehe es ähnlich wie der Gast.

Nightspider
2020-08-29, 00:27:21
Ist halt die Frage ob man die CPU jetzt nur für alte Spiele kauft oder auch für die Zukunft. Jetzt würde ich tendenziell auch eher zum 12 Core Modell greifen.

Gibt ja schon die ersten Games die von deutlich mehr als 8 Kernen profitieren und das wird bestimmt nicht abebben wenn die neuen Konsolen den Spielen 14 Threads bereitstellen, weil es immer deutlich mehr Threads prommseitig gibt als es auszulasten gilt, zumindest bei Spielen.

Dazu kommen dann noch Projekte wie Star Citizen die auch von >16 Kernen profitieren sollen.


Ganz zu schwigen even davon ob man noch Programme im Hintergrund laufen lässt, etwas streamt oder so.

BlacKi
2020-08-29, 01:18:17
das mag für jeden zutreffen der lange ruhe haben will, aber jene leute die in 2-3 jahren was neues vertragen könnten für die reichen 8c locker aus, alles andere ist geldverschwendung.

Gast
2020-08-29, 01:20:38
Ist halt die Frage ob man die CPU jetzt nur für alte Spiele kauft oder auch für die Zukunft. Jetzt würde ich tendenziell auch eher zum 12 Core Modell greifen.

Gibt ja schon die ersten Games die von deutlich mehr als 8 Kernen profitieren und das wird bestimmt nicht abebben wenn die neuen Konsolen den Spielen 14 Threads bereitstellen, weil es immer deutlich mehr Threads prommseitig gibt als es auszulasten gilt, zumindest bei Spielen.

Dazu kommen dann noch Projekte wie Star Citizen die auch von >16 Kernen profitieren sollen.


Ganz zu schwigen even davon ob man noch Programme im Hintergrund laufen lässt, etwas streamt oder so.
Star Ziterlein hängt richtig übel im singelcore bottleneck in den seltenen Fällen wo der Server mal nicht Spielverderber ist , das spawnt zwar viele Threads , hängt aber am syncro Thread der nur auf einem Kern laufen kann .
Sieht man gut daran das Dann ein 8700k oder 9900k @ 5ghz besser rennen als ein 3950x.

Ich denke mit 8c16t ist man noch sehr lange gut bedient auch wenn es Ausnahmen geben mag .

Gast
2020-08-29, 01:28:18
das mag für jeden zutreffen der lange ruhe haben will, aber jene leute die in 2-3 jahren was neues vertragen könnten für die reichen 8c locker aus, alles andere ist geldverschwendung.

Das Problem an der Sache was bringen 8 langsame Kerne von vor x Jahren heute ?
Was würde man sich eher in den Rechner schnallen , nen e5 2687w oder einen 10400er /Ryzen 3600 zum zocken ?
Hardware kauft man nicht massiv auf Halde da sie zuschnallend altert , wenn es endlich soweit ist das die breiten CPUs ihre Vorteile ausspielen könnten ist die Archer schon so überholt das sie von kleineren Einstiegs CPUs gebügelt werden.

Daredevil
2020-08-29, 01:47:54
Ist halt die Frage ob man die CPU jetzt nur für alte Spiele kauft oder auch für die Zukunft. Jetzt würde ich tendenziell auch eher zum 12 Core Modell greifen.

Gibt ja schon die ersten Games die von deutlich mehr als 8 Kernen profitieren und das wird bestimmt nicht abebben wenn die neuen Konsolen den Spielen 14 Threads bereitstellen, weil es immer deutlich mehr Threads prommseitig gibt als es auszulasten gilt, zumindest bei Spielen.

Dazu kommen dann noch Projekte wie Star Citizen die auch von >16 Kernen profitieren sollen.


Ganz zu schwigen even davon ob man noch Programme im Hintergrund laufen lässt, etwas streamt oder so.
Hätte ich jedes mal 200€ ausgegeben für einen 1600, 2600, 3600, wäre ich bei ca. 600€.
Hätte ich mir statt dem 1600 einen 600€ 12c Threadripper geholt, würde ich in Games aktuell total abloosen.

4 Kerne sind die Basis
6 Kerne decken ~95% aller Spiele ab
8 Kerne lohnen sich für die anderen ~5% der Spiele
Alles drüber ist Luxus für Games und eher für Produktivität geeignet.

Wichtig aber immer noch und schon seit einiger Zeit > Schnelle Cores und eine maximal schnelle Grafikkarte.
Ein Ryzen 3600 mit einer RTX2080TI ist die bessere Gaming Kombination wie ein 3950X und eine RTX2070s.
200€ + 1000€ oder 700€+500€

Aroas
2020-08-29, 07:39:26
Das wären genau wie viele Anwendungen die der normale User auf seinem Desktop ausführt? Sehe es ähnlich wie der Gast.

Erstmal wärst DU hier in der Pflicht die Begrifflichkeit "normaler User" zu definieren.

Sicher, für den 0815 Nutzer, der nur Office macht, Youtube Filmchen guckt und sein Privatleben bei Facebook, Instagram und Co. breittreten will, braucht es solche CPUs nicht.
Es gibt aber auch genügend Anwender, die wirklich Leistung benötigen. Bpsw. Streamer, die sich nicht noch extra nen Zweitrechner hinstellen wollen um ihre Games flüssig ins Netz zu bekommen.

Kumpel von mir kompiliert seine Arbeitsprojekte auf einem R9 3900X.

Es gibt etliche Anwendungsfälle in denen solche CPUs durchaus einen großen Mehrwert bieten. Die Riege der PC Nutzer besteht nicht nur aus Gamern und Office Nutzern!
Vielleicht erweitert ihr mal etwas euren Horizont bevor ihr Käufern solcher Produkte unterstellt, sie hätten es nur auf eine "Schwanzverlängerung" abgesehen.

registrierter Gast
2020-08-29, 07:56:14
Erstmal wärst DU hier in der Pflicht die Begrifflichkeit "normaler User" zu definieren.

Sicher, für den 0815 Nutzer, der nur Office macht, Youtube Filmchen guckt und sein Privatleben bei Facebook, Instagram und Co. breittreten will, braucht es solche CPUs nicht.
Statt zurückzurudern und Beispiele für nicht "normale User" zu nennen, kannst du auch einfach zugeben, dass du dich geirrt hast. :uponder:

#44
2020-08-29, 08:46:08
Das wären genau wie viele Anwendungen die der normale User auf seinem Desktop ausführt? Sehe es ähnlich wie der Gast.
Die verbreitetste dürfte der Browser sein.

Ansonsten wüsste ich auch nicht, wo der normale User großen Bedarf an brachialer SC Performance hat - von daher sehe ich da kein Argument.

JVC
2020-08-29, 09:26:22
Pro thread ist AMD mit Augen zudrücken gerade mal gleich auf.

Da nochmal +20% SC und MC drauf...

Ich bin gespannt was Intel die nächsten Jahre so zaubert.
Aber ich denke das ein 16/32 4950X ein paaaar Jahre halten wird :smile:

M.f.G. JVC

MasterElwood
2020-08-29, 11:09:01
Das wären genau wie viele Anwendungen die der normale User auf seinem Desktop ausführt? Sehe es ähnlich wie der Gast.

FS2020 - spätestens wenn der DX12 Patch da ist *Mic drop*
FS 2020 in VR *doppel Mic drop*

Gast2
2020-08-29, 13:35:58
FS2020 - spätestens wenn der DX12 Patch da ist *Mic drop*
FS 2020 in VR *doppel Mic drop*

Ich bin ein anderer Gast als obiger.

Wieso braucht ein Spiel in VR mehr CPU Kerne als ein normales Spiel?

WedgeAntilles
2020-08-29, 13:47:47
Das wären genau wie viele Anwendungen die der normale User auf seinem Desktop ausführt? Sehe es ähnlich wie der Gast.

Genau so ist es.
Die meisten Rechner brauchen überhaupt keine neue CPUs, für die tut es eine 5 Jahre alte CPU super.

Und jene REchner die viel Rechenpower brauchen ist die Mehrheit zum Zocken.

Klar gibt es ein paar Leute, die tatsächlich viele Kerne für bestimmte Anwendungen brauchen.
Das hat ja auch nie einer bestritten.

Nur: Die paar Prozent die solche Anwendungen regelmäßig nutzen sind halt die klare Minderheit im Vergleich zu Leuten, die Rechenleistung zum zocken benutzen.

Aber dann gibt es natürlich immer Spezialisten, die eine Person kennen, die viele Kerne im Anwednungsbereich nutzt.
Und diese eine Person ist dann der Beweis, dass die Mehrheit im Anwendungsbereich mehr als 8 Kerne braucht ;D

Gast
2020-08-29, 14:35:41
Mag vielleicht noch auf Spiele zutreffen, aber in sämtlichen Anwendungen, die von vielen Kernen/Threads profitieren, wird dieser Umstand Intel noch weiter hins Hintertreffen bringen.

Welche Anwendungen profitieren nennenswert von mehr als 8 Kernen/16 Threads? Und der viel wichtigere Punkt, welchen Anteil der Gesamtarbeitszeit die man mit einer Anwendung verbringt sind überhaupt Situationen die von mehr als 8Kernen/16Threads profitieren?

Bei den meisten Anwendungen ist das beste Gefühl der Bedienung wenn diese möglichst interaktiv verläuft, und das hängt nun mal weitestgehend an der maximal möglichen Leistung für einen Thread.

Mehr Kerne/Threads immer gerne, aber nur wenn sie quasi "for free" kommen, sowohl finanziell als auch ohne Einbußen in der Singlecoreleistung.

Knuddelbearli
2020-08-29, 14:35:47
Ich bin ein anderer Gast als obiger.

Wieso braucht ein Spiel in VR mehr CPU Kerne als ein normales Spiel?

Man will in VR mehr und stabilere FPS.

Gast
2020-08-29, 14:44:41
Da nochmal +20% SC und MC drauf...


20% sind jetzt aber nicht gerade viel an Vorsprung wenn man bedenkt dass man gegen Skylake, einer Architektur aus 2016 kämpft.

Klar es ist ein Erfolg für AMD, gerade wenn man bedenkt aus welch tiefem Loch sie ausgehend von Bulldozer gekommen sind. Aber einen Grund zur überschwänglichen Feier sehe ich da nicht. Ja AMD ist Konkurrenzfähig, nicht mehr aber auch nicht weniger. Das ist natürlich gut so, Konkurrenz belebt immer den Markt, aber jetzt nichts wo man AMD abfeiern und Intel niedermachen müsste.

Intel wird mit Tigerlake wohl gut 25-30% auf Skylake drauflegen und wäre damit wieder vorne. Klar ist dass Intel sich damit aber am Desktop verspäten wird und AMD doch eine deutlichen zeitlichen Vorsprung haben wird, und man wird sehen was sie aus TSMCs 5nm rausholen können (bitte nicht noch mehr Kerne).

Es sieht auf jeden Fall langfristig nach einem offenen Schlagabtausch aus, einmal wird der eine vorne liegen dann wieder der andere, aber auch mit keinen großen Vorteilen für das jeweilige andere Lager.

Aroas
2020-08-29, 14:51:35
Statt zurückzurudern und Beispiele für nicht "normale User" zu nennen, kannst du auch einfach zugeben, dass du dich geirrt hast. :uponder:

Ich wüsste nicht, wo ich mich geirrt haben sollte.

Die Aussage war, dass sämtliche CPUs mit mehr als 8 Kernen "virtuelle Schwanzverlängerungen" ohne Nutzen wären.

Und das ist nun einmal schlicht nicht wahr. Es gibt genügend Nutzer, die mit dem Mehr an Kernen und Leistung durchaus etwas anzufangen wissen und sich solche CPUs nicht nur kaufen um damit angeben zu können.

Gast
2020-08-29, 14:51:39
FS2020 - spätestens wenn der DX12 Patch da ist *Mic drop*
FS 2020 in VR *doppel Mic drop*


Gerade FS2020 ist es, der es mich bereuen lässt auf AMD und nicht auf Intel gesetzt zu haben.

Vor allem der 2700X der bei mir im HTPC sitzt kackt da richtig ab, der 3800X im Standrechner ist da schon bedeutend besser, aber FS2020 macht am großen Fernseher einfach viel mehr Spaß, und für VR hab ich auch nur im Wohnzimmer genügend Platz, und da wird man nicht mehr mit 20FPS auskommen können, was ja beim FS eigentlich gerade noch so durchgeht.

Der FS2020 hängt eben wie so vieles ab einer gewissen Threadanzahl hauptsächlich an der Performance vom Mainthread ab. Und es ist nicht zu erwarten, dass sich das großartig ändern wird, je mehr Kerne man hat desto schwieriger wird es eben diese auch in Mehrperformance umsetzen.
Der Kollege Gene Amdahl lässt grüßen https://de.wikipedia.org/wiki/Amdahlsches_Gesetz

MasterElwood
2020-08-29, 16:25:39
Ich bin ein anderer Gast als obiger.

Wieso braucht ein Spiel in VR mehr CPU Kerne als ein normales Spiel?

Weil du ZUSÄTZLICH zum Game noch die VR Software im Hintergrund laufen haben musst. Plus in VR hat man oft noch ein extra Tool wie OTT laufen. Und da ist es natürlich perfekt da mehr Kerne zu haben, damit das Game "ihre" Kerne ganz für sich alleine haben kann.

Freestaler
2020-08-29, 16:34:33
Und wenn man 20fps hat wegen fehlende CPU Power braucht für VR viel mehr als 20-30%. Ausgehen von 90 (je Auge 45 fps) sind dann 450%. Wer hier nicht sieht,das nur die Breite die Lösung sein kann unter den physekalischen Gegebenheiten ist doch stur und blind.

etp_inxession
2020-08-29, 19:12:41
Die üblichen Verdächtigen, die weiterhin den Trend nicht erkannt haben.

Klingt dennoch so als würde mein Bastelwahn wieder Einzug halten (müssen).

Wenn AMD mal eine absolut "auf Kante genähte" 6-Kern CPU bringt, .. und als schnellste Gaming CPU vermarktet, werde ich schwach.

Leider haben immer die CPUs mit den meisten Kernen, auch den höchsten Takt.

Vermeer + "Little" Big Navi ... das wird meine Kombo.

bbott
2020-08-29, 20:29:24
Ich denke mit 8c16t ist man noch sehr lange gut bedient auch wenn es Ausnahmen geben mag .

Aber nur wenn man am PC dann beim Zocken keine Borwser etc. im Hintergrund offen lässt.

Wenn die Konsolen die 14 Theads vorrantreibne wird man am PC eher 20 Threads und mehr haben wollen.

Man sollte Windows (Virenscanner,...) mit berücksichtigen!

Gast
2020-08-30, 00:21:47
Aber nur wenn man am PC dann beim Zocken keine Borwser etc. im Hintergrund offen lässt.


Dafür ist die CPU völlig egal, ordentlich RAM wäre angebracht, aber die CPU tut da gar nix.


Wenn die Konsolen die 14 Theads vorrantreibne wird man am PC eher 20 Threads und mehr haben wollen.


Nach dieser Logik müssten wir schon längst Software haben die mit derart vielen Kernen gut skaliert. Die Kernanzahl ist es gerade was eben zwischen den Konsolen nicht zunimmt, und aufgrund der schwachen Leistung pro Kern waren die Entwickler bei den alten Konsolen noch viel mehr gezwungen die Kerne auszunützen als das bei den neuen Konsolen der Fall sein wird.

Und nein, man entwickelt nicht irgendeine toll skalierende Engine die über 100 Threads skalieren kann und deaktiviert das dann für den PC, weil dieser ja eh so viel mehr Power pro Kern hat.


Man sollte Windows (Virenscanner,...) mit berücksichtigen!

Man sollte auf Schlangenöl verzichten. Security ist die reine Aufgabe des Betriebssystems und nicht irgenwelcher Drittsoftware.
Dann hat man wegen besagter Drittsoftware auch keine Performanceprobleme.

WedgeAntilles
2020-08-30, 10:03:39
Wenn die Konsolen die 14 Theads vorrantreibne wird man am PC eher 20 Threads und mehr haben wollen.

Wann, 2077?

Schau dir mal an, wieviele Threads man aktuell braucht.
Und dann schau nach wie die Prognosen vor 5 Jahren waren. Wenn du heute nen 4 Kerne 8 Threads Prozessor hast, ideln Stand jetzt mehrere davon rum.
Klar, es gibt 1,2 Spiele wie Battlefield die profitieren. Aber wie man da jetzt auf "20 Threads" kommt die man brauchen könnte entzieht sich mir.

Mit 8/16 wirst fast jeder die nächsten 5 Jahre mit sehr hoher Wahrscheinlichkeit locker durchkommen.
Mit 6/12 vermutlich auch.

Klar, wenn du weißt, dass du spezielle Software benutzt, die sehr stark mit Kernen skaliert ist das was anderes. Da ist dann ein 12 oder gar 16Kernern vielleicht die richtige Entscheidung.

Aber wenn du diese Software nicht nutzt sondern nur zockst ist es aller Voraussicht nach völlig unsinnig mehr als 8 Kerne zu kaufen.
Jedenfalls wenn diese Mehr-Kerne zusätzliches Geld kosten oder die Leistung pro Kern schlechter ist.

x-dragon
2020-08-30, 11:33:39
Die CPUs mit mehr als 8-Kernen verbreiten sich ja jetzt erst langsam und Intel hat ja gerade erst mit 10 Kernen nachgezogen, natürlich brauch es da seine Zeit bis diese auch richtig ausgenutzt werden, aber neben Battlefield gibt es auch andere Spiele die von mehr als 8 Kernen profitieren, wie aktuell bspw.:
https://www.computerbase.de/2020-08/troy-a-total-war-saga-benchmark-test/2/#abschnitt_prozessorbenchmarks_zeigen_skalierung_auch_mit_16_kernen

Wenn sie den Flight Simulator mal auf DirectX12 hieven könnte das bestimmt auch ein verdammt guter Kandidat werden, aber aktuell leider nicht ...

JVC
2020-08-30, 12:16:05
Schau dir mal an, wieviele Threads man aktuell braucht.

Ohne "simulierte Kerne"(HT SMT) plädiere ich mit einer vernünftigen Reserve und etwas Zukunftstauglichkeit für 10Kerne+

8Kerne sind mir mit Betrachtung der Entwicklung zu knapp
und von "simulierten Kernen" halte ich als Spieler nichts.

M.f.G. JVC

WedgeAntilles
2020-08-30, 12:26:42
Die CPUs mit mehr als 8-Kernen verbreiten sich ja jetzt erst langsam und Intel hat ja gerade erst mit 10 Kernen nachgezogen, natürlich brauch es da seine Zeit bis diese auch richtig ausgenutzt werden, aber neben Battlefield gibt es auch andere Spiele die von mehr als 8 Kernen profitieren, wie aktuell bspw.:
https://www.computerbase.de/2020-08/troy-a-total-war-saga-benchmark-test/2/#abschnitt_prozessorbenchmarks_zeigen_skalierung_auch_mit_16_kernen

Wenn sie den Flight Simulator mal auf DirectX12 hieven könnte das bestimmt auch ein verdammt guter Kandidat werden, aber aktuell leider nicht ...

Interessanter Link, danke.
Aber man darf eines nicht vergessen:
Eine Grafik-Option beendet den ganzen CPU-Hunger

Wer einfach keine so schnelle CPU hat oder eine höhere Framerate haben möchte, muss aber nicht gleich verzweifeln. Eine einzige Grafik-Option ist für den massiven CPU-Hunger in Troy: A Total War Saga verantwortlich: die Grasdetails. Wer sie von „Extrem“ auf „Ultra“ reduziert, erhöht nicht nur die Framerate um etwa 50 Prozent, zugleich fällt die CPU-Belastung massiv geringer aus. Dann reichen bereits 4 Kerne mitsamt SMT für eine deutlich höhere Framerate aus, ab 6 Kernen mit SMT gibt es die volle Performance.

Und ob ich das Grad jetzt auf Extrem oder Ultra habe - naja.
Ob einem das jetzt 200 Euro für nen 12 Kerner wert ist?
Wenn Grad Ultra schon ein 6Kerner völlig ausreicht?

Die Frage ist ja nicht, ob man kostenlos mehr Kerne mitnimmt. Das macht natürlich jeder.
Spielt Geld keine Rolle kann man natürlich ebenfalls immer die maximalen Kerne mitnehmen.
Nur: Falls es auf Preis-Leistung ankommt ist es halt schon die Frage, ob es 10 oder 12 Kerne wirklich sein müssen.

Da bin ich - gerade mit Blick auf die letzten 5 Jahre und die doch sehr überschaubare Entwicklung im Mehrkernbereich - noch nicht überzeugt, dass das sinnvoll investiertes Geld ist.

Aber klar, wenn der Aufpreis nur 30, 40 Euro ist, macht man mit mehr Kernen bestimmt alles richtig.

Ich bin sehr gespannt, wie das Zen 3 Portfolio aussehen wird :)

JVC
2020-08-30, 12:35:20
Nur: Falls es auf Preis-Leistung ankommt ist es halt schon die Frage, ob es 10 oder 12 Kerne wirklich sein müssen.

Ich glaube die 10Kerne könnten schnell "Standard" für Zocker werden...
8Kerne "für die Konsole" eben und min 2 für den "PC" drum herum.

Ich halte es für keine gute Idee mit den Konsolen nur gleich zu ziehen,
wo man doch weiß das die perfekt optimiert sind fürs Gaming.

M.f.G. JVC

Nightspider
2020-08-30, 14:15:50
Hätte ich jedes mal 200€ ausgegeben für einen 1600, 2600, 3600, wäre ich bei ca. 600€.
Hätte ich mir statt dem 1600 einen 600€ 12c Threadripper geholt, würde ich in Games aktuell total abloosen.

4 Kerne sind die Basis
6 Kerne decken ~95% aller Spiele ab
8 Kerne lohnen sich für die anderen ~5% der Spiele
Alles drüber ist Luxus für Games und eher für Produktivität geeignet.

Wichtig aber immer noch und schon seit einiger Zeit > Schnelle Cores und eine maximal schnelle Grafikkarte.
Ein Ryzen 3600 mit einer RTX2080TI ist die bessere Gaming Kombination wie ein 3950X und eine RTX2070s.
200€ + 1000€ oder 700€+500€

Ja schon klar. Die letzten 7 Jahre waren aber auch totlangweilig was den Bedarf an mehr CPU Leistung angeht. Die Konsolen haben seit 2013 die gleiche Anzahl an CPU Kernen.

Die neuen Konsolen haben 5-6 mal so viel CPU Power wie die aktuellen Konsolen mit Jaguar und statt 7 gleich 14 CPU Threads fürs Spiel.

Selbst mein aktueller Ryzen 5 3600 hat schon mit den aktuellen Battlefield Teilen zu kämpfen und läuft auf 100% Auslastung auf den meisten Kernen. Battlefield 3 Remastered und vor allem Battlefield 6 werden bestimmt nochmal ordentlich einen draufsetzen.

Gast
2020-08-30, 17:38:40
Ja schon klar. Die letzten 7 Jahre waren aber auch totlangweilig was den Bedarf an mehr CPU Leistung angeht. Die Konsolen haben seit 2013 die gleiche Anzahl an CPU Kernen.


Die Konsolen hatten vor allem extrem schwache Kerne. Dementsprechend war es bei den alten Konsolen viel mehr notwendig Parallelisierung auszunutzen um überhaupt eine Vernünftige Performance zu bekommen.


Die neuen Konsolen haben 5-6 mal so viel CPU Power wie die aktuellen Konsolen mit Jaguar und statt 7 gleich 14 CPU Threads fürs Spiel.


Was gerade den Anreiz senkt mehr in aufwändige Parallelisierung der Software zu stecken, warum sollte man das tun wenn die Konsolen endlich CPUs haben die auch in der Performance pro Thread schnell genug sind und eine zusätzliche Parallelisierung für die Zielframerate gar nicht notwendig ist.

Nightspider
2020-08-30, 18:04:37
Deine Argumentation trifft vielleicht auf B-Titel zu aber nicht auf AAA Produktionen.

Entwickler wie DICE werden sich auf die CPU Leistung stürzen, incl. der zusätzlichen Threads.

Selbst ein 4 Jahre altes Battlefield 1 lastet teilweise 15-20 Threads aus bei einem modernen 3950X 16 Kerner.

Die Engines sind bei vielen Entwicklern schon vorbereitet, teilweise weit über 10-15 Threads rauszuhauen.

Bei Ubisoft siehts bei vielen Spielen genauso aus, wenn nicht gar noch besser.

Vor allem da die PC CPUs nicht mehr so viel Luft haben werden wie in den letzten 5+ Jahren ist es imo sinnvoll sich wieder etwas mehr CPU Horsepower zu holen.
Windows, Treiber, Denuvo Kopierschutz und Co. werden genug CPU Leistung unnötig verschwenden, selbst wenn keine Tools und Browser nebenbei laufen.

Gast
2020-08-31, 14:58:43
Und wenn man 20fps hat wegen fehlende CPU Power braucht für VR viel mehr als 20-30%. Ausgehen von 90 (je Auge 45 fps) sind dann 450%. Wer hier nicht sieht,das nur die Breite die Lösung sein kann unter den physekalischen Gegebenheiten ist doch stur und blind.

Wer denk es ist so einfach ist "stur und Blind" auch die Parallelisierbarkeit hat früh ein Ende welches wir schon jetzt mit den Kernezahlen im Desktop überschritten haben.

Es ist nicht alles beliebig parallelisierbar, und wird es auch nie sein können.
Gerade Gamecode beinhaltet viel Abhängigkeiten welche den seriellen Anteil erhöhen.

Hier mal zur Veranschaulichung

https://upload.wikimedia.org/wikipedia/commons/1/1e/Amdahl.png

selbst bei 75% rein paralleisierbaren Anteil im Code ( das ist immernoch weit entfernt von der heutigen Game Realität selbst bei Vorzeigetiteln) ergibt beim Sprung von 4 auf 16 gleichartige Kerne nicht mal eine Perfromance Verdoppelung, von 8 auf 16 sind es sogar unter 10%.

IPC , Latenz und Takt Verbesserungen haben dieses Problem einfach nicht und schlagen demensprechend direkter durch , siehe z.B 1800x vs 3600er .

Wer denk er kauft lieber massiv Kerne für die Spiele in Zukunft auf Vorrat wird sich wundern. auch in 10 Jahren werden wir keinen Gamecode haben der so hoch parallelisierbar ist das 16 oder mehr Kerne Signifkante Geschwindigkeitsvorteile bieten.

Gast
2020-08-31, 20:55:55
Windows, Treiber, Denuvo Kopierschutz und Co. werden genug CPU Leistung unnötig verschwenden, selbst wenn keine Tools und Browser nebenbei laufen.

Das ist auf Konsolen nicht anders, da werden sogar ganze Kerne nur für Betriebssystem DRM und dergleichen abgestellt.

Gast
2020-08-31, 21:06:40
selbst bei 75% rein paralleisierbaren Anteil im Code ( das ist immernoch weit entfernt von der heutigen Game Realität selbst bei Vorzeigetiteln) ergibt beim Sprung von 4 auf 16 gleichartige Kerne nicht mal eine Perfromance Verdoppelung, von 8 auf 16 sind es sogar unter 10%.


Und genau das sehen wir schon bei sehr viel Software.

Selbst gut parallelisierte Software kann häufig über 8 Kernen maximal mit der Hälfte der Kernanzahl skalieren.

Von 8 auf 16 Kerne bekommt man dann bei gleichem Takt nur mehr 50% Mehrperformance, und nachdem in der Regel zumindest wenn die Powerlimits eingehalten werden auch die Frequenzen sinken wenn mehr Kerne ausgelastet sind kommt da in der Realität vielleicht noch 30-35% an.

Viele Kerne eignen sich in den meisten Fällen nicht um bestehende Probleme deutlich schneller zu berechnen. Sie eignen sich viel eher dafür größere Probleme ohne Geschwindigkeitsverlust zu berechnen.

Um das mal am Beispiel von GPUs anschaulich zu zeigen. Eine doppelt so breite GPU kann nicht unbedingt in bestehenden Spielen doppelt so viel FPS anzeigen. Sie kann aber doppelt so viele Pixel mit gleichen FPS berechnen.

Und genau deshalb funktioniert das Ganze bei Grafik auch so gut, man kann hier sehr einfach die Problemgröße erhöhen und durch Parallelisierung dabei die Performance konstant halten.

Das funktioniert auch bei Servern. Eine Menge Kerne auf dem Server können nicht einzelne Anfragen dermaßen viel schneller bedienen. Sie können aber viel mehr anfragen gleichzeitig bedienen.

Nur lassen sich eben nur ein Bruchteil aller Probleme dermaßen skalieren und alles andere hängt sehr schnell am Anteil nicht parallelisierbaren Code.