PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Spezifik.-Leak zeigt 16-Kerner "Ryzen 9 3950X" mit Taktraten von ...


Leonidas
2019-06-09, 22:37:28
Link zur News:
https://www.3dcenter.org/news/spezifikations-leak-zeigt-16-kerner-ryzen-9-3950x-mit-taktraten-von-3547-ghz

Lowkey
2019-06-09, 22:44:51
Was ist an der Geschichte dran, dass AMD die Preise auf Augenhöhe mit Intel anheben will und nicht mehr Low Cost Anbieter sein will?

Lehdro
2019-06-09, 22:48:33
Was ist an der Geschichte dran, dass AMD die Preise auf Augenhöhe mit Intel anheben will und nicht mehr Low Cost Anbieter sein will?
Schau dir doch die Preise an. Bei AMD kriegst du immernoch 50% mehr Kerne für das selbe Geld: 9900k vs 3900X.

Also ja, AMD hebt die Preise an. Und ja auch Intel hat Produkte mit Preisen in diesen Regionen. Die Rohdaten sprechen aus P/L Sicht aber immer noch deutlich für AMD. ;)

Mortalvision
2019-06-10, 00:00:56
16C/32T im Desktop. Da können die Intel Xeons einpacken, wenn die Firma keinen ECC Ram benötigt...

Lehdro
2019-06-10, 01:51:03
16C/32T im Desktop. Da können die Intel Xeons einpacken, wenn die Firma keinen ECC Ram benötigt...
ECC wurde bei Zen & Zen+ zumindest offiziell unterstützt, würde mich wundern wenn das bei Zen 2 anders sein sollte.

drmaniac
2019-06-10, 01:57:50
irgendwie schade, dass die die TDP so festgezurrt haben.

Was hätte denn bei dem 16er z.B. gegen 155 Watt etc. gesprochen?

Ich will damit sagen, diese gleiche TDP für ne Menge an verschiedener CPUs verbaselt doch total den Basetakt, Turbotakt und auch das OC-Potential oder?

Ein Threadripper mit 16 Kernen wird es wohl nicht geben oder...das wäre nice, wenn dann dort wenigstens mehr Power drinn wäre (im Vgl. zum Mainstream 16er) :D

Lehdro
2019-06-10, 02:19:26
irgendwie schade, dass die die TDP so festgezurrt haben.

Was hätte denn bei dem 16er z.B. gegen 155 Watt etc. gesprochen?

Ich will damit sagen, diese gleiche TDP für ne Menge an verschiedener CPUs verbaselt doch total den Basetakt, Turbotakt und auch das OC-Potential oder?

Das schränkt dich doch beim OC null ein, da du selber die Werte vorgibst. Das einzige was halt einschränkend sein könnte sind zu restriktive PBO Werte - aber spätestens beim richtigen manuellen OC musst du nur drauf achten das ganze kühlbar zu halten und evtl. bei den kleineren Boards nicht die OCP/VRMs zu sehr zu triggern.

Nightspider
2019-06-10, 02:20:34
TDP hat absolut nichts mit OC Potential zu tun.

Gebrechlichkeit
2019-06-10, 02:23:54
Schau dir doch die Preise an. Bei AMD kriegst du immernoch 50% mehr Kerne für das selbe Geld: 9900k vs 3900X.

Also ja, AMD hebt die Preise an. Und ja auch Intel hat Produkte mit Preisen in diesen Regionen. Die Rohdaten sprechen aus P/L Sicht aber immer noch deutlich für AMD. ;)

Bei Intel bekommt man aber eine gute Grafikkarte gratis mit beim Kauf ;=) ... jene hat in Adobe und Co. durchaus ihre Vorteile. Also beim naechsten CPU Battle diesen Faktor mit einbeziehen ^^

On a serious note :

Die 24 bis 62 Thread Monster langweilen sich in den meisten prosumer app. Weder handbrake, adobe premiere, lightroom usw ... nutzen mehr als 8? ergo lieber 8 threads at 5Ghz als ein paar weak sauce at 3.5Ghz mit maessiger IPC.

Das quicksync in adobe beim export macht halt viel aus, wenn man die bechmark so sieht. Bei mir dauert der export in sehr guter quali. FHD auch bloss 30min (2h LP, movavi).

Bin ja eher AMD Fan aber, ich kann einfach nicht auf quicksync verzichten. Evtl. ist der Speed/Quali. von nvidias gleichauf mit QS, das muesste man halt benchen.

adobe premiere : intel + quicksync vs amd + nvidia GT1050?

Nightspider
2019-06-10, 02:26:43
ergo lieber 8 threads at 5Ghz als ein paar weak sauce at 3.5Ghz mit maessiger IPC.

Die IPC ist bei 5Ghz genauso hoch wie bei 3,5Ghz. Das sagt schon der Name.

Complicated
2019-06-10, 08:18:22
Videocards hat in einem Update die Echtheit der Folie explizit verifiziert.

Mortalvision
2019-06-10, 08:34:30
Oh, ECC? Das ist ja total super!

Gast
2019-06-10, 11:42:54
Videocards hat in einem Update die Echtheit der Folie explizit verifiziert.

Igor auch: https://youtu.be/rOOoMqdfZaQ?t=49

Summerbreeze
2019-06-10, 12:15:37
Bei Intel bekommt man aber eine gute Grafikkarte gratis mit beim Kauf ;=) ... jene hat in Adobe und Co. durchaus ihre Vorteile. Also beim naechsten CPU Battle diesen Faktor mit einbeziehen ^^


Das ist nicht wirklich dein Ernst mit der guten Grafik??



On a serious note :

Die 24 bis 62 Thread Monster langweilen sich in den meisten prosumer app. Weder handbrake, adobe premiere, lightroom usw ... nutzen mehr als 8? ergo lieber 8 threads at 5Ghz als ein paar weak sauce at 3.5Ghz mit maessiger IPC.

Das quicksync in adobe beim export macht halt viel aus, wenn man die bechmark so sieht. Bei mir dauert der export in sehr guter quali. FHD auch bloss 30min (2h LP, movavi).

Bin ja eher AMD Fan aber, ich kann einfach nicht auf quicksync verzichten. Evtl. ist der Speed/Quali. von nvidias gleichauf mit QS, das muesste man halt benchen.

adobe premiere : intel + quicksync vs amd + nvidia GT1050?


Das sich das Märchen der schlechten Multi-Core Performance bei Adobe immer noch hält...
Naja, irgendwie muss der Chipzilla Mondpreis ja schön geredet werden.
Ich vermute aber mal, sobald Chipzilla auch genügend Kerne am Start hat, dürfte das Thema nicht mehr relevant sein. :tongue:

Ich bin neulich im Adobe Forum zufällig über einen entsprechenden Thread gestolpert. Ich hänge da mal ein Bild und Zitate des Adobe Mitarbeiters dran.



Camera Raw conversions? More cores is generally better.
Filters? More cores is often better.
Interative Painting? Faster single core speed and a good GPU is good.
Panorama Stitching? Running multi-step actions? Fast I/O devices make a big difference, and lots of RAM and having more cores help.
Sharpening? A good GPU is key.

[....]

How the cores are utilized can depend on not just the operation, but also the size of the image, and the nature of the layers in the image. Sometimes just resizing can pin all the cores for a while, or filters like GBlur, UnsharpMask, etc. Some things like Radial Blur, and 3D rendering a extremely calculation intensive and show continued usage of all cores. But we're trying to move other computations to the GPU (which for some operations can be faster than all your CPU cores) - like the Blur Gallery filters.




Man bedenke, dieser Thread ist aus Dezember 2013. Es würde mich stark wundern, wenn Adobe da nicht weiter gemacht sondern stehen geblieben oder gar wieder auf Single Thread gesetzt hätte.

Genauso wie bei Adobe, wird in Zukunft alles was sich parallelisieren lässt auf die vorhandenen Kerne verteilt. Multi Core ist eindeutig die Zukunft, wenn eine Steigerung der reinen IPC von 15% schon Jubelarien auslöst.
Wie lange soll das denn sonst dauern, bis mal irgendwann eine CPU ihre Leistung verdoppelt.

Beispiel: Solid Edge. Es wurde Jahrelang von Siemens bzw. Solid Edge Koryphäen gepredigt: Das lässt sich nicht / nur äußerst schlecht parallelisieren. Vollkommen unmöglich. Das muss alles Schritt um Schritt abgearbeitet werden.
Und heute? Skaliert wunderbar über alle Kerne.



Anderes Thema: ECC
Hat vielleicht jemand gesicherte Informationen inwieweit Ryzen auf AM4 zuverlässig mit ECC funktioniert?
Alles was ich bisher in erfahrung bringen konnte war da doch eher unbefriedigend.
Insbesondere das auslesen der Fehler bzw. das Verhalten bei nicht korrigierbaren Fehlern war unter Windows 10 ein echtes Problem.
Mein letzter Stand ist das hier:

ECC Memory & AMD's Ryzen - A Deep Dive (https://www.hardwarecanucks.com/forum/hardware-canucks-reviews/75030-ecc-memory-amds-ryzen-deep-dive.html)

Gast
2019-06-10, 12:48:52
Bei Intel bekommt man aber eine gute Grafikkarte gratis mit beim Kauf ;=) ... jene hat in Adobe und Co. durchaus ihre Vorteile. Also beim naechsten CPU Battle diesen Faktor mit einbeziehen ^^
An Lächerlichkeit kaum zu überbieten. Erstens sind die nicht gratis, und zweitens nicht schneller als eine billige, und zur Anwendung passende dedizierte Grafikkarte. GPU Benchmarks haben bei CPU-Leistungsvergleichen null Aussagekraft.


On a serious note :

Die 24 bis 62 Thread Monster langweilen sich in den meisten prosumer app. Weder handbrake, adobe premiere, lightroom usw ... nutzen mehr als 8? ergo lieber 8 threads at 5Ghz als ein paar weak sauce at 3.5Ghz mit maessiger IPC.

Was hast du an IPC nicht begriffen?


Das quicksync in adobe beim export macht halt viel aus, wenn man die bechmark so sieht. Bei mir dauert der export in sehr guter quali. FHD auch bloss 30min (2h LP, movavi).

Bin ja eher AMD Fan aber, ich kann einfach nicht auf quicksync verzichten. Evtl. ist der Speed/Quali. von nvidias gleichauf mit QS, das muesste man halt benchen.

adobe premiere : intel + quicksync vs amd + nvidia GT1050?

Wenn du auf QuickSync nicht verzichten kannst, dann ist das deine Entscheidung. Aber rede nicht einfach alles schlecht mit derart hanebüchenen Argumenten.

Und wie wäre es, wenn bei nächstem "CPU-Battle" die Intel-Sicherheitslücken (Meltdown,Spectre,Zombieland) mal mit einzubeziehen? Oder die undichte SME? Oder einfach nur die Preise von Intel?

Gast
2019-06-10, 17:05:45
Die 24 bis 62 Thread Monster langweilen sich in den meisten prosumer app. Weder handbrake, adobe premiere, lightroom usw-

[....] Bei mir dauert der export in sehr guter quali. FHD auch bloss 30min (2h LP, movavi).

Bench das ganze doch mal durch wenn Du nicht einfach nur 30min vor der Kiste Wartest, sonder gleichzeitig noch nen anderen Job startest. Oder eben mit DaVinci etc was machst während die Kiste am Rödeln ist.

Mein Workflow ist jedenfalls nicht successive sondern parallel.

Gast
2019-06-10, 20:18:42
Man bedenke, dieser Thread ist aus Dezember 2013. Es würde mich stark wundern, wenn Adobe da nicht weiter gemacht sondern stehen geblieben oder gar wieder auf Single Thread gesetzt hätte.



Der entscheidende Punkt ist der letzte Satz.

Jeder Spiele-PC hat bereits einen Multicore-Prozessor mit 1000en Cores verbaut. So gut wie alles was sich gut parallelisieren lässt ist auf GPUs um vielfaches schneller und effizienter als auf CPUs mit ihren lächerlichen 2-Stelligen Kernzahlen.

Bei allem was sich nur mäßig parallelisieren lässt läuft man aber sehr schnell in Amdahls Law, womit der theoretisch erreichbare Gewinn mehrerer Kerne sehr schnell abnimmt.

Auf Desktops ist das Einsatzgebiet für solche Manycore-Prozessoren sehr begrenzt.

Wichtig ist die Singlecoreleistung die nach Möglichkeit bis zu ungefähr 4 Kernen gehalten werden soll.

Es ist zwar schön, dass man mit Cinebench zeigen kann wie viel so viele theoretisch bringen können, nur praktisch irrelevant, weil heute niemand mehr einen reinen CPU-Renderer verwenden wird.

Platos
2019-06-10, 20:38:23
Wie sich wieder einmal alle fast schon persönlich angegriffen fühlen...

Eine legitime Frage. Der "Heilsbringer" AMD ist auch nur ein Unternehmen, dass niemals freiwillig einfach so mal viel günstigere Produkte anbietet, wenn es eben nicht muss.

Wenn/Falls AMD nun wirklich gleich auf ist mit der Leistung, dann hat AMD auch keine Bedürfnisse grosse Preisrabatte zu geben.

Aber trotzdem: Intels 8 Kerner kostet 500 wärend dem bei AMD der 12 Kerner voraussichtlich auch 500 Kostet. Wenn (!) die Perfomance wirklich so aussehen würde, wie beim Geekbench (also AMD 6 Kerner gleichstark wie Intel 6 Kerner), dann wäre AMD trotzdem deutlich besser mit dem Preis. Dann gäbe es bei gleich starken Kernen 50% mehr davon für den selben Preis.

Und wenn man beim Preis gleich bleibt, aber die Leistung deutlich (!) zunimmt, dann gleicht das (auch nochmals) einer Preissenkung. Bis jetzt musste AMDs 8 Kerner noch mit Intels 6 Kerner rumkämpfen. Wenn sich das nun klar (!) ändert, ist das eine Quasi-Preissenkung.

Allerdings: Ob die Perfomance wirklich so toll ist, wie im Geekbench suggeriert, sehen wir dann...

Gebrechlichkeit
2019-06-10, 21:47:47
Geekbench Werte haben den gleichen Stellenwert wie 3DMark2001 im Jahre 2019.

Leonidas
2019-06-11, 07:58:10
Eigentlich einen niedrigeren, weil die 3DMark-Ergebnisse waren wenigstens noch gut reproduzierbar, das benutzte System (neben CPU+GPU) spielte keine so große Rolle. Bei Geekbench sind die Schwankungsbreiten je nach System viel zu hoch, um das gut über Systemgrenzen hinweg vergleichen zu können.

KrisNeme
2019-06-11, 09:54:37
ECC wurde bei Zen & Zen+ zumindest offiziell unterstützt, würde mich wundern wenn das bei Zen 2 anders sein sollte.

Offiziell wurde es nicht durch AMD unterstützt. Das Feature ist freigeschaltet. Wurde aber nicht explizit getestet, soweit ich mich an einen Reddit-Eintrag von AMD erinnern kann.

Hab das nochmal rausgesucht:
"ECC is not disabled. It works, but not validated for our consumer client platform."
https://www.reddit.com/r/Amd/comments/5x4hxu/we_are_amd_creators_of_athlon_radeon_and_other/def6vs2/

Gast
2019-06-11, 13:08:13
Schau dir doch die Preise an. Bei AMD kriegst du immernoch 50% mehr Kerne für das selbe Geld: 9900k vs 3900X.

Also ja, AMD hebt die Preise an. Und ja auch Intel hat Produkte mit Preisen in diesen Regionen. Die Rohdaten sprechen aus P/L Sicht aber immer noch deutlich für AMD. ;)
Die heben doch die Preise fast nicht an, 12C kosten imo pro Core genauso als noch bei Zen1.1. Die Preise sind pro Core stabil geblieben, obwohl 7nm mehr kostet. Den 16C sollte man rausrechnen, weil der für Full-Gamer nicht unbedingt geeignet ist. Man bekommt auch etwas mehr Taktpotential, oder bessere Effizienz förmlich umsonst oder zum gleichen Preis (3700x). Mehr Cores kosten halt auch mehr.

Bsp.:
2700x=8C=41,1 $*/Core
3900x=12C=41,5 $*/Core


Der 3950x kostet pro Core 5$ mehr (46,8$*/Core), was sehr fair ist, wie ich finde. Dort muss man der Chiplets wegen viel mehr Aufwand betreiben (Infinity Fabric/Data Fabric usw.).

Einzig der 3800x tanzt dort etwas aus der Reihe, vermutlich wegen feinerem Binning, was ja zusätzlich kostet. Scheinen dann vollwertige Epyc Chiplets zu sein, die ja besonders effizient sind.

(* vor Steuern)

Gast
2019-06-12, 22:15:19
Die heben doch die Preise fast nicht an, 12C kosten imo pro Core genauso als noch bei Zen1.1. Die Preise sind pro Core stabil geblieben, obwohl 7nm mehr kostet.

Die Preise pro Core sollten aber sinken und nicht gleich bleiben. Die IT-Branche lebt einzig alleine davon, dass es immer mehr Leistung für den selben monetären Einsatz gibt.

Und wegen dem teuren 7nm, gibt doch eh so wenig 7nm, ein Chiplet ist gerade mal 74mm² groß, das ist kleiner als so mancher Smartphone-SOC.


Den 16C sollte man rausrechnen, weil der für Full-Gamer nicht unbedingt geeignet ist. Man bekommt auch etwas mehr Taktpotential, oder bessere Effizienz förmlich umsonst oder zum gleichen Preis (3700x). Mehr Cores kosten halt auch mehr.

Nachdem der 16C den höchsten SC-Takt hat ist er vermutlich auch die beste Gamer-CPU von AMD, mit jeder Menge Verschwendung fürs Gaming.

Die Frag ist, ob dieser nicht im September noch deutlich schlechter aussieht, wenn evtl. die anderen Ryzen-CPUs schon etwas im Preis gefallen sind.


Der 3950x kostet pro Core 5$ mehr (46,8$*/Core), was sehr fair ist, wie ich finde. Dort muss man der Chiplets wegen viel mehr Aufwand betreiben (Infinity Fabric/Data Fabric usw.).


Was absolut nicht fair ist, schließlich braucht der 16C auch nur 1 I-O-Die und 2 Chiplets. Nachdem das I-O-Die nicht kostenlos ist, sollte er also merklich weniger als doppelt so viel wie eine CPU mit nur einem Chiplet kosten.

Und keiner hat AMD dazu angehalten die Chiplets zu designen. Ich habe angesichts des Aufwands beim Packeging so meine Zweifel, dass das in der Herstellung überhaupt großartig günstiger ist.
Der Vorteil dürfte Hauptsächlich in der Entwicklung sein, da man so mit einem DIE alle Bereiche abdecken kann, wobei man genau genommen immer noch 3 DIEs designen muss, 1x Chiplet und je 1x IO-Die für AM4 und EPYC


Einzig der 3800x tanzt dort etwas aus der Reihe, vermutlich wegen feinerem Binning, was ja zusätzlich kostet. Scheinen dann vollwertige Epyc Chiplets zu sein, die ja besonders effizient sind.
(* vor Steuern)

Binning kostet immer gleich viel, das funktioniert ja mit jedem DIE gleich, und wird auch gemacht bevor überhaupt feststeht auf welches Produkt der DIE kommt.

Leonidas
2019-06-13, 04:22:03
Nachdem der 16C den höchsten SC-Takt hat ist er vermutlich auch die beste Gamer-CPU von AMD, mit jeder Menge Verschwendung fürs Gaming.


Hängt eher vom Takt auf 2C, 3C und 4C ab. Da würde ich streng abwarten, ob da der 3900X nicht besser ist - oder gar der 3800X.

Gast
2019-06-13, 22:55:39
Hängt eher vom Takt auf 2C, 3C und 4C ab. Da würde ich streng abwarten, ob da der 3900X nicht besser ist - oder gar der 3800X.

Wieso sollte er nicht besser sein, vom starren System, Anzahl der aktiven Kerne --> max. Taktrate ist AMD ja schon seit Zen+ weg.

Die CPU hat mit dem 12-Kerner die höchste TDP und den höchsten max. Takt, und sollte damit bei geringer Kernauslastung auf jeden Fall einen der höchsten Takte erreichen.

Das einzige was noch sein kann ist dass Gaming die 2 Chiplets nicht schmecken, dann wäre der 12-Kerner aber noch schlechter dran.

Leonidas
2019-06-14, 04:20:23
Stimmt auch wieder. Also warten wir es ab, wie genau es herauskommt. Die Performance-Charakteristik des 3900X gegenüber dem 3800X sollte uns eine Idee geben, wie der 3950X herauskommt.

Mortalvision
2019-06-15, 02:16:48
Offiziell wurde es nicht durch AMD unterstützt. Das Feature ist freigeschaltet. Wurde aber nicht explizit getestet, soweit ich mich an einen Reddit-Eintrag von AMD erinnern kann.

Hab das nochmal rausgesucht:
"ECC is not disabled. It works, but not validated for our consumer client platform."
https://www.reddit.com/r/Amd/comments/5x4hxu/we_are_amd_creators_of_athlon_radeon_and_other/def6vs2/

Mir gerade aufgefallen: AMD garantiert ECC nur mit Ryzen PRO Prozessoren. Normale Ryzen habrn es aktiv, aber unter Vorbehalt ;)