PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

SKYNET
2019-06-11, 20:35:29
https://www.overclock3d.net/news/software/windows_10_s_may_2019_update_includes_amd_zen_optumisations/1

netter boost der Windows Scheduler.

ok, also im bestfall is der 3800X bis zu 15% fixer als nen 9900k dann... wie geil issn das? ;D

SKYNET
2019-06-11, 20:36:29
Dann seid ihr jetzt die Versuchskaninchen. Auf auf. ;)

habs auf allen rechnern(2x ryzen, 3x i7, 1x pentium) läuft rund :)

dildo4u
2019-06-11, 20:52:17
Firestrike reagiert gut auf den scheduler Fix.


https://out.reddit.com/t3_bzg2tb?url=https%3A%2F%2Fwww.3dmark.com%2Fcompare%2Ffs%2F19465848%2Ffs%2F1955 0648&token=AQAACAYAXZXfoqSnpjlYoP7u8VLc6r6yLlfgHk0JzazbGQmwUWHV&app_name=mweb2x

Isen
2019-06-11, 20:54:26
Physics Test + 34.7 % :O

Radeonfreak
2019-06-11, 20:55:06
Da war schon immer was im Argen.

dargo
2019-06-11, 20:56:02
Physik Score +35%? :eek: X-D

dildo4u
2019-06-11, 20:57:27
Bei mir hat es nur bei Combined was gebracht echt komisch.

https://www.3dmark.com/compare/fs/19551094/fs/18290160

Birdman
2019-06-11, 20:59:03
Freu dich nicht zu früh dargo, durch den Scheduler Patch verliert dein RAM OC an Effektivität :D

BoMbY
2019-06-11, 20:59:16
Okay, das wäre ja tatsächlich mal ein Grund für ein Update ... kaum zu glauben dass die es nach zwei Jahren endlich geschafft haben den Scheduler etwas schlauer zu machen ...

Linmoum
2019-06-11, 20:59:34
>30% wären schon heftig. Vielleicht hat 4+4 statt 3+3 ja auch mehr Auswirkungen darauf. Bräuchte man noch ein paar mehr Vergleichswerte.

dargo
2019-06-11, 21:00:31
Freu dich nicht zu früh dargo, durch den Scheduler Patch verliert dein RAM OC an Effektivität :D
Welches Ram-OC? Der läuft mit seiner Standard Frequenz. ;)

Linmoum
2019-06-11, 21:02:08
Wenn AMDs Werte halbwegs passen, ist "RAM-OC" ja quasi eh in der aktuellen Form überflüssig. Da ist 3200 CL14 ja quasi schon Optimum.

BoMbY
2019-06-11, 21:04:29
Firestrike reagiert gut auf den scheduler Fix.


https://out.reddit.com/t3_bzg2tb?url=https%3A%2F%2Fwww.3dmark.com%2Fcompare%2Ffs%2F19465848%2Ffs%2F1955 0648&token=AQAACAYAXZXfoqSnpjlYoP7u8VLc6r6yLlfgHk0JzazbGQmwUWHV&app_name=mweb2x

Bei dem alten Result mit 16 503 war was nicht in Ordnung - mein 2700X kommt auf 21070 mit einer alten Windows-Version (Edit: Windows 10 1709).

dargo
2019-06-11, 21:05:49
Wenn AMDs Werte halbwegs passen, ist "RAM-OC" ja quasi eh in der aktuellen Form überflüssig. Da ist 3200 CL14 ja quasi schon Optimum.
Für diese Schlussfolgerung ist mir noch zu früh. :wink: Wenn du reine Frequenz meinst sicherlich. Bei den Subtimings wie gehabt Userberichte abwarten. :)

Gebrechlichkeit
2019-06-11, 21:12:23
Bin glaube ich der einzige der 12/24 fuer staerker, more badass haelt als 16/32. Mir klar, 32 > 24 aber irgendwie hat 24 mehr "wumps", hoert sich maechtiger an wenn man es ausspricht! ...

Linmoum
2019-06-11, 21:13:38
Die kannst du bei 3200 CL14 aber genauso tunen. ;)

Aber ja, ich weiß was du meinst. Trotzdem wird man jetzt nicht mehr rein nach dem Takt gehen und die Dinger auf >4000 (oder ähnliches) prügeln wollen. Das wird in der Form vor allem DR stark entgegenkommen. Was mich freut. :D

Ravenhearth
2019-06-11, 21:16:15
Bin glaube ich der einzige der 12/24 fuer staerker, more badass haelt als 16/32. Mir klar, 32 > 24 aber irgendwie hat 24 mehr "wumps", hoert sich maechtiger an wenn man es ausspricht! ...
Hast du schon wieder deine Pillen vergessen?

dargo
2019-06-11, 21:33:56
Die kannst du bei 3200 CL14 aber genauso tunen. ;)

Eigentlich beziehe ich mich bei meiner Aussage auf DDR4-3200 CL14.

Nochmal zur Klarstellung. DDR4-3200 CL14 stellt laut AMD schon fast das Optimum bei Ryzen 2 dar was Speicherlatenz angeht. Es fehlen halt 2ns (3%) zum besten Ergebnis mit DDR4-3733 CL17. Ich gehe aber davon aus, dass AMD einfach nur beim testen das XMP-Profil lädt und fertig. Ich kann mir nicht vorstellen, dass AMD an den Subtimings optimiert. Das Standard XMP-Profil legt zumindest beim Samsung B-Die sehr lasche Subtimings an. Da ist noch jede Menge Luft für Optimierung vorhanden. Und hier ist halt noch die große Unbekannte ob diese Optimierungen genauso gut bei Zen 2 skalieren wie bei Zen 1. Falls ja hat man dort noch genug Potential mehr Leistung rauszukitzeln. Ein paar Beispiele meiner Messungen damals.

https://abload.de/img/f12015_speicher_4rhky0.png

https://abload.de/img/wolfenstein2_1uskv0.png

https://abload.de/img/rottr_780k69.png

https://abload.de/img/witcher3_2j6jpy.png

https://abload.de/img/pcars_2_27uk0j.png

Eine weitere Unbekannte ist für mich ob AMD bei DDR4-3200 CL14 SR oder DR genommen hat. Gibt es überhaupt DR bei DDR4-3200 CL14? Ich meine das gibt es nur bei 32GB. Und afaik hatte AMD mit 16GB gebencht.

Langlay
2019-06-11, 21:35:28
Eine weitere Unbekannte ist für mich ob AMD bei DDR4-3200 CL14 SR oder DR genommen hat. Gibt es überhaupt DR bei DDR4-3200 CL14? Ich meine das gibt es nur bei 32GB. Und afaik hatte AMD mit 16GB gebencht.


B-Die ist immer 8 Gbit Chips also SR = 8 GB Riegel, DR = 16GB Riegel.

BoMbY
2019-06-11, 21:57:22
Auch wenn jetzt alles läuft werde ich bei Zen2 erstmal eine Weile abwarten und schauen was sich so als Optimum beim Speicher herausstellt, bevor ich etwas neues kaufe. Da dürften vermutlich alle Karten neu gemischt werden.

Kann gut sein dass man hinterher besser ein 4000er Kit kauft und das dann bei 3733 CL16 laufen lassen kann, oder sowas, während man 3733er Kits derzeit mit max. CL17 bekommt. Und genauso kann sich mit dem neuen PHY auch Hynix besser als Samsung herausstellen, oder was auch immer.

Isen
2019-06-11, 21:59:33
Eben firestrike durchlaufen lassen, mach jetzt das 1903 drauf. Bin mal gespannt :o
Hab keine Games drauf, außer 1 aber das ist eher ungeeignet zum benchen. Olle Geekbench vlt noch.

Edit: Naja, so simpel wie sie sind, wenn da nix großartig was zu sehen ist, wird es vereinzelnd nen Impact geben, aber nicht Grundlegend, denke da reicht firestrike + Geekbench.

Rancor
2019-06-11, 22:03:05
hab 1903 schon drauf, kann also nix testen außer cpu-z und da ist alles gleich geblieben ^

Isen
2019-06-11, 22:12:35
Hat sich erledigt. Ich bin wohl für das Update gesperrt, weil ich zu dem Kreis gehöre, wo es nen Bug gibt, wird mir jedenfalls verweigert...dreck -.-
Und dafür orgelt man da 15min rum :D

Edit... ok... Bios Stick noch eingesteckt, der muss raus, interessant :D

Linmoum
2019-06-11, 22:27:56
Also Time Spy und FS Ultra ist dasselbe wie vorher auch mit 1809. Und wenn ich darüber nachdenke (und man es auch logisch betrachtet) gibt's da auch keinen Grund, warum die Performance durch den Scheduler fix im FS groß steigen sollte bei CPU Usage >80% die man dann hat.

Das betrifft ja eher die Situationen, wo nur wenige Kerne genutzt werden und das dann wild hin und her geht.

Isen
2019-06-11, 22:32:14
Will eigentlich nur den komischen Reddit-Typen bestätigt/widerlegt wissen. Bot sich ja gerade an, da ich den Build noch nicht drauf hatte. Weil das wird gerade wie Sause durch die Dörfer getrieben :D

nairune
2019-06-11, 22:43:20
Ein anderer reddit Heini redet von 6% mehr fps in Rainbow Six.

https://www.reddit.com/r/Amd/comments/bzg8gx/holy_crap_the_1903_windows_update_is_amazing/

Wenn das Bestand hat, definitiv das beste "one more thing" :D

[MK2]Mythos
2019-06-11, 22:46:06
Wo ist Miami eigentlich? :)

MiamiNice
2019-06-11, 22:53:07
Wo soll ich sein? Hab nichts sinnvolles beizutragen. Warte wie alle auf den Release und auf das anstehende Duell der CPU Desktop Giganten mit Skynet. Bis dahin gibt es nicht mehr viel zu sagen außer es sind irgendwo unabhängige Benches aufgetaucht.

Birdman
2019-06-11, 22:53:31
Abwarten was seriöse Tester dazu meinen
Schon oft hat einer die heilige Maria bluten sehen und am ende war es nix

Isen
2019-06-11, 22:53:42
Fire strike Build 1809: https://abload.de/img/18097ajf6.png
Fire strike Build 1903: https://abload.de/img/1903j3k29.png

Geekbench Build 1809: https://browser.geekbench.com/v4/cpu/13492943
Geekbench Build 1903: https://browser.geekbench.com/v4/cpu/13493190 - wiederholt, da frühzeitig nach Update ausgeführt: https://browser.geekbench.com/v4/cpu/13493467

Langlay
2019-06-11, 22:56:13
Auch wenn jetzt alles läuft werde ich bei Zen2 erstmal eine Weile abwarten und schauen was sich so als Optimum beim Speicher herausstellt, bevor ich etwas neues kaufe. Da dürften vermutlich alle Karten neu gemischt werden.


Ich lehne mich mal aus dem Fenster und sage mit einem DDR3600 CL15 Kit wird man sicherlich wenig falsch machen, wenn P/L eine untergeordenete Rolle spielt.

Ex3cut3r
2019-06-11, 23:03:19
Gibt überhaupt 32 GB Kits mit CL15 oder besser ab 3600mhz? Ich kenne nur das Trident Z Kit 3200er mit CL14. Ich baue doch keinen 32 Threader mit 16gb zusammen.

nairune
2019-06-11, 23:03:57
P/L wird der Micron E-Die Speicher schwer zu schlagen werden, bei 150€ für ein 32GB Kit. Ein paar Wochen zu warten schadet aber sicher nicht, bis sich alles sondiert hat, werde ich auch machen.


Geekbench Build 1809: https://browser.geekbench.com/v4/cpu/13492943
Geekbench Build 1903: https://browser.geekbench.com/v4/cpu/13493190

Sind die Ergebnisse konsistent in dem Benchmark?
In manchen Tests ist er signifikant schlechter geworden... hat jedenfalls fast alles irgendwie angeschlagen, größtenteils positiv.

Isen
2019-06-11, 23:08:34
bis auf die kleinen 20-50 Punkte Schwankung ja. System ist frisch aufgesetzt, Softwaremüll keins drauf.
Kann ja nochmals drüber botzen mit 1903, relativ früh nach dem Update angeschmissen, wobei eh nix zu laden gibt, kaum was drauf.

MiamiNice
2019-06-11, 23:09:47
Gibt überhaupt 32 GB Kits mit CL15 oder besser ab 3600mhz? Ich kenne nur das Trident Z Kit 3200er mit CL14. Ich baue doch keinen 32 Threader mit 16gb zusammen.


Wenn man nicht mehr Ram benötigt weil man nur spielt und man eher von schnelleren Kits profitiert die es aber nur als 16er gibt, warum nicht?

Man könnte beim 16er ja auch überlegen ob man nicht die hälfte der Cores deaktiviert um vielleicht auf mehr Takt zu kommen. Brauchen wird man die vollen 16 Cores als Spieler zu Lebzeiten der CPU wohl kaum. Wenn man gezielt jeden 2. Core stilllegen kann, geht da vielleicht was.

w0mbat
2019-06-11, 23:12:16
@Isen: in deinem Profil steht "Asus Crosshair IV Hero", dabei ist es das "Asus Crosshair VI Hero". Nur so als ADHS Hinweis :D

Isen
2019-06-11, 23:15:12
omg... seit Release da nicht mehr reingeguckt, danke! :D
Eh nicht mehr Aktuell, Hab mein System schon umgezogen, dient jetzt bald dem Frauchen :D

Hier nochmal ein weiterer Run, weil ich den ersten @1903 etwas früh nach dem Update gestartet habe: https://browser.geekbench.com/v4/cpu/13493467

Linmoum
2019-06-11, 23:19:47
Da man ja bisher eher nur Intel vs. Ryzen verglichen hat hier mal die Werte von AMD intern innerhalb der 3rd Gen Family.

| 3900X | 3800X | 3600X | Δ 3900X/3800X in % | Δ 3800X/3600X in % | Δ 3900X/3600X in %
CoD: BO III | 206 | 206 | 206 | 0,0 | 0,0 | 0,0
DMC 5 | 241 | 241 | 236 | 0,0 | 2,1 | 2,1
GTA V | 176 | 163 | 163 | 8,0 | 0,0 | 8,0
Civ VI | 114 | 114 | 114 | 0,0 | 0,0 | 0,0
Overwatch | 282 | 266 | 259 | 6,0 | 2,7 | 8,9
CS:GO | 429 | 391 | 360 | 9,7 | 8,6 | 19,2
PUBG | 205 | 205 | 188 | 0,0 | 9,0 | 9,0
Rocket League | 248 | 248 | 248 | 0,0 | 0,0 | 0,0

Insgesamt doch erstaunlich wenig Unterschiede. Wenn wir die Benchmarks mal als legit annehmen, dann kommt die "who needs moar coares"-Fraktion auf ihre Kosten. :D

Mit CoD, Civ und RL drei Spiele, in denen es gar keine Unterschiede gibt.
In CS:GO kackt der 3600X ziemlich ab, in PUBG lässt er auch etwas federn. In OW ist der 3800X näher am 3600X als am 3900X und in GTA V ist der 3800X nur auf 3600X-Niveau, der 3900X aber dafür rund 8% flotter.

PS: Sowas wie 7,98 habe ich auf 8 aufgerundet, bevor hier jetzt pingelig der Finger gehoben wird. :P

Isen
2019-06-11, 23:30:38
https://www.computerbase.de/forum/threads/zen-2-architektur-ryzen-3000-sind-amds-staerkste-desktop-prozessoren.1876379/page-19#post-22749335

Schneidet genauso gut ab wie bei mir zwischen beiden Builds @Combined.
Hab noch paar andere gesehen, also bei Combined schlägt es durch die Bank weg durch. Zwischen 45-50%

Menace
2019-06-11, 23:31:25
Soll das in deiner Tabelle nicht 3600X statt 2600X heißen? :confused: Ansonsten muss man ja nicht wechseln.

MiamiNice
2019-06-11, 23:35:12
Da man ja bisher eher nur Intel vs. Ryzen verglichen hat hier mal die Werte von AMD intern innerhalb der 3rd Gen Family.

| 3900X | 3800X | 2600X | Δ 3900X/3800X in % | Δ 3800X/3600X in % | Δ 3900X/3600X in %
CoD: BO III | 206 | 206 | 206 | 0,0 | 0,0 | 0,0
DMC 5 | 241 | 241 | 236 | 0,0 | 2,1 | 2,1
GTA V | 176 | 163 | 163 | 8,0 | 0,0 | 8,0
Civ VI | 114 | 114 | 114 | 0,0 | 0,0 | 0,0
Overwatch | 282 | 266 | 259 | 6,0 | 2,7 | 8,9
CS:GO | 429 | 391 | 360 | 9,7 | 8,6 | 19,2
PUBG | 205 | 205 | 188 | 0,0 | 9,0 | 9,0
Rocket League | 248 | 248 | 248 | 0,0 | 0,0 | 0,0

Insgesamt doch erstaunlich wenig Unterschiede. Wenn wir die Benchmarks mal als legit annehmen, dann kommt die "who needs moar coares"-Fraktion auf ihre Kosten. :D

Mit CoD, Civ und RL drei Spiele, in denen es gar keine Unterschiede gibt.
In CS:GO kackt der 3600X ziemlich ab, in PUBG lässt er auch etwas federn. In OW ist der 3800X näher am 3600X als am 3900X und in GTA V ist der 3800X nur auf 3600X-Niveau, der 3900X aber dafür rund 8% flotter.

PS: Sowas wie 7,98 habe ich auf 8 aufgerundet, bevor hier jetzt pingelig der Finger gehoben wird. :P

Ich sag ja, falls man 8 Cores gezielt deaktivieren kann, ist das vielleicht eine Option. Weniger Strom, weniger Hitze = vielleicht mehr Takt. Da der 16er auf 2 Chiplets kommt ist vielleicht sogar mehr Takt möglich als mit dem nativen 8er.

Linmoum
2019-06-11, 23:40:59
Soll das in deiner Tabelle nicht 3600X statt 2600X heißen? :confused: Ansonsten muss man ja nicht wechseln.
Ups, ist mir einmal die 2 reingerutscht. Klar.

Ex3cut3r
2019-06-12, 00:00:48
Wenn man nicht mehr Ram benötigt weil man nur spielt und man eher von schnelleren Kits profitiert die es aber nur als 16er gibt, warum nicht?

Man könnte beim 16er ja auch überlegen ob man nicht die hälfte der Cores deaktiviert um vielleicht auf mehr Takt zu kommen. Brauchen wird man die vollen 16 Cores als Spieler zu Lebzeiten der CPU wohl kaum. Wenn man gezielt jeden 2. Core stilllegen kann, geht da vielleicht was.

Du vergisst das neue Konsolen rauskommen, kein Mensch weiß wie die Sache in 2 Jahren aussieht mit nativen 8/16 Threader in den Konsolen. VRAM Verbrauch wird auch nochmal höher gehen sowie RAM Verbrauch. 16GB sind so 2014. Ganz sicher nicht, baue ich neues 2500€ System (ohne GPU) aber mit 16GB RAM. Mit 32GB 3200 CL14 macht man IMO bei Ryzen nix verkehrt, der durfte sich sowieo auf 3600 CL14 oder 3733 CL15/16 hochprügeln lassen, mehr macht bei AMD laut Folien eh keinen Sinn.

-32 Thread CPU
-32GB RAM
-16 oder 24GB 7nm Geforce GPU
-1TB oder 2TB Nvme SSD

Das nenne ich mal ordentlich Speicher/Zahlen.

dildo4u
2019-06-12, 00:06:26
Die Ubisoft Open World Games brauchen schon Heute ordentlich Dampf und Cyberpunk natürlich auch.
Ich vermute das in der PC Version zum Launch deutlich mehr NPCs unterwegs sind,damit muss man das Game dann nicht nochmal für die neuen Konsolen anpassen.

Linmoum
2019-06-12, 00:11:12
Zumal es gute und günstige Micron E-Die mit 3000 CL15 schon für 150€ gibt. Aktuell würde ich erstmal warten, ob man überhaupt in >3600-RAM investieren sollte mit Zen2, wenn sich bereits 3200 CL14 tatsächlich schon als nahezu optimal herausstellen sollten in Bezug auf Latenzen.

Aber das ist auch wieder leidiges 16GB vs. 32GB. Bei den aktuellen Preisen würde ich auch nicht zweimal überlegen und definitiv lieber direkt zu 32GB greifen.

davidzo
2019-06-12, 00:47:32
In der Tat handelt es sich beim X570 um einen in 14-nm-Technik hergestellten I/O-Die des Ryzen 3000.


Der auf den Prozessoren verlötete I/O-Die wird in 12 nm hergestellt, was laut AMD ein bis zwei Taktstufen schnelleren Speicher erlaubt.

https://www.heise.de/newsticker/meldung/AMD-Prozessor-Ryzen-3000-Ab-7-Juli-auf-Intel-Jagd-ab-September-auch-mit-16-Kernen-4443362.html
:rolleyes:


The IO die for the EPYC Rome processors is built on Global Foundries' 14nm process, however the consumer processor IO dies (which are smaller and contain fewer features) are built on the Global Foundries 12nm process.
https://www.anandtech.com/show/14525/amd-zen-2-microarchitecture-analysis-ryzen-3000-and-epyc-rome

:uponder:

w0mbat
2019-06-12, 00:55:08
I/O Die EPYC = 14nm
I/O Die Ryzen = 12nm
X570 = I/O Die Ryzen in 14nm

reaperrr
2019-06-12, 01:29:56
I/O Die EPYC = 14nm
I/O Die Ryzen = 12nm
X570 = I/O Die Ryzen in 14nm
Nächstes Jahr, wenn einerseits die Produktion von Zen+ und Polaris30 runtergefahren wurde, und andererseits die meisten 14nm-Produkte kaum noch produziert werden und GloFo mehr Linien auf 12nm umstellen kann und damit mehr 12nm-Kapazität verfügbar wird, gibt's dann garantiert den 12nm I/O-Die als X670.
Löst dann mit etwas Glück evtl. auch die Hitzeprobleme, falls die nicht gerade allein von den PHYs kommen (dann bringt's wahrscheinlich nicht so viel).

iuno
2019-06-12, 01:34:42
AMD investiert trotz (oder wegen) Chiplets relativ viel Silizium. Und das in relativ moderner Fertigung. Aber wenn es sich lohnt...

CompuJoe
2019-06-12, 02:27:17
Btw.
Der Chef in der Computermanufaktur wo ich nebenbei mitarbeite hat mir heute gesteckt Lieferung Ryzen 3000 Serie KW 26.
Bin gespannt, will basteln ^^

BlacKi
2019-06-12, 03:35:31
na watt denn nu xfr ja oder nein?^^
https://youtu.be/eg3GfaJ5WHI?t=348

mczak
2019-06-12, 03:54:25
In CS:GO kackt der 3600X ziemlich ab.
Klar, 360 fps sind dann auch komplett unspielbar :tongue:.
(Finde den Unterschied bei dem Titel im Uebrigen sehr sehr erstaunlich, den Zahlen traue ich nicht.)

dargo
2019-06-12, 07:32:45
Fire strike Build 1809: https://abload.de/img/18097ajf6.png
Fire strike Build 1903: https://abload.de/img/1903j3k29.png

WTF?

Bei Physik immerhin +7,5%, was im erwarteten Rahmen liegt. Bei Combined +59%? :eek: :|

Gibt überhaupt 32 GB Kits mit CL15 oder besser ab 3600mhz? Ich kenne nur das Trident Z Kit 3200er mit CL14. Ich baue doch keinen 32 Threader mit 16gb zusammen.
Willst du max. Leistung kommst du an Samsung B-Die nicht vorbei. Vom P/L dürfte das die beste Kombination sein.
https://geizhals.de/g-skill-trident-z-silber-rot-dimm-kit-32gb-f4-3200c14d-32gtz-a1383535.html?hloc=at&hloc=de

Der Aufpreis für DDR4-3733 CL17 lohnt imho nicht. Da legst du fast 200€ drauf für läppische 2ns weniger. Der Samsung B-Die lohnt nur wenn du bereit bist an den Subtimings zu optimieren. Ansonsten natürlich nicht.


In CS:GO kackt der 3600X ziemlich ab, in PUBG lässt er auch etwas federn.
Abkacken? Der 3800X ist gerade mal 8,6% schneller. :freak: Man sollte bei den ganzen Vergleichen unter DX11 und einer Nvidia Grafikkarte nicht vergessen, dass das bissel an Mehrleistung nur vom Grafiktreiber kommt. Soll heißen... mit einer AMD Graka wirst du da praktisch gar keinen Unterschied haben. Zudem muss man auch den Boosttakt im Auge behalten. Der Sixcore boostet ohne PBO afaik niedriger.

Die Ubisoft Open World Games brauchen schon Heute ordentlich Dampf und Cyberpunk natürlich auch.

So ein Quark... bisher hast du bei Open World von Ubisoft nur Steinzeit API gesehen. Warte erstmal das neue Watch Dogs ab. Bei Division 2 habe ich dank DX12 selbst mit meinem R5 1600 FPS satt.

Ex3cut3r
2019-06-12, 07:59:55
Willst du max. Leistung kommst du an Samsung B-Die nicht vorbei. Vom P/L dürfte das die beste Kombination sein.
https://geizhals.de/g-skill-trident-z-silber-rot-dimm-kit-32gb-f4-3200c14d-32gtz-a1383535.html?hloc=at&hloc=de

Der Aufpreis für DDR4-3733 CL17 lohnt imho nicht. Da legst du fast 200€ drauf für läppische 2ns weniger.
Danke, das Kit habe ich ja momentan in meiner GH Liste. Ich denke auch das sich das noch auf 3600 CL14 oder ebend 3733 CL15/CL16 bringen lässt, mehr macht bei Ryzen IMO kein Sinn laut Folien.

dargo
2019-06-12, 08:03:18
Schraube deine Erwartungen etwas runter. Wenn du ein DDR4-3200 CL14 Kit kaufst wirst du eventuell DDR4-3600 CL14 erreichen, aber nur mit einer fetten Spannungskeule beim Speicher. Sprich 1,5V oder mehr. Effizienter ist es die Subtimings zu optimieren und dann auf max. DDR4-3333 CL14 zu gehen.

btw.
Das verlinkte Kit ist DR, dadurch bekommst du eh schon etwas mehr Leistung im Vergleich zu SR.

Ex3cut3r
2019-06-12, 08:05:04
Alles klar. Merke ich mir bis zum September. :up:
Was machst du eigentlich? Steigt du um auf den 12 Kerner?
https://geizhals.de/amd-ryzen-9-3900x-100-100000023box-a2064391.html

Armaq
2019-06-12, 08:08:40
Das kann ich so nicht bestätigen. Der Speicher CL 16 3600 Mhz kann mehr als das, ich bekomme immer den Boot, aber die Kiste ist dann halt instabil. Das ist definitiv eine Prozessorgeschichte.

Rancor
2019-06-12, 08:13:27
Mich interessiert eigentlich viel mehr wie Zen 2 auf B350 Boards läuft ^^

Schnoesel
2019-06-12, 08:16:32
https://www.computerbase.de/forum/threads/zen-2-architektur-ryzen-3000-sind-amds-staerkste-desktop-prozessoren.1876379/page-19#post-22749335

Schneidet genauso gut ab wie bei mir zwischen beiden Builds @Combined.
Hab noch paar andere gesehen, also bei Combined schlägt es durch die Bank weg durch. Zwischen 45-50%

Ja der oben verlinkte ist mein Bench. Als hätte jemand im combined Bench die Handbremse gelöst. Hatte noch kurz 2 Szenen in CIV VI und Spellforce III gegengecheckt aber dort keinerlei Veränderungen festgestellt. Sind wohl einige wenige Spiele/Anwendungen die sehr gut darauf reagieren.

y33H@
2019-06-12, 08:34:30
Bench bitte ein Strategiespiel wie Anno oder Total War. Bitte, bitte, XOXO :)Anno 1800 und TWTK sind dabei.

JVC
2019-06-12, 08:43:16
Antwort auf Fragen zu dem Bild:
https://pbs.twimg.com/media/D8yK0fxXoAYJFEp.jpg:large

https://twitter.com/Thracks/status/1138454973606502405

Edit: Das heißt mit +200 MHz Auto-OC:

Ryzen 9 3950X 16/32 3,5 / 4,9 GHz
Ryzen 9 3900X 12/24 3,8 / 4,8 GHz
Ryzen 7 3800X 8/16 3,9 / 4,7 GHz
Ryzen 7 3700X 8/16 3,6 / 4,6 GHz
Ryzen 5 3600X 6/12 3,8 / 4,6 GHz
Ryzen 5 3600 6/12 3,6 / 4,4 GHz

Dann haben wir ja fast die gewünschten 5Ghz :smile:
Schade das mein Board keine FSB Erhöhung zulässt/umsetzt,
+2-5Mhz würden schon genügen...

M.f.G. JVC

Armaq
2019-06-12, 08:45:27
3600 mit CL16 sind laut AMD ja schon nah am Optimum. 3733 ist die Spitze. Die Frage ist wie warm werden die Dinger dann. Meine 4x8 sind mit 3000 CL15 schon bei 48°C im Sommer.

@JVC - die X CPUs haben eigentlich einen offenen Multi. Wenn dein Board mehr kann (moar Powar), dann sollte das auch bei dir gehen.

tm0975
2019-06-12, 09:00:27
AMD investiert trotz (oder wegen) Chiplets relativ viel Silizium. Und das in relativ moderner Fertigung. Aber wenn es sich lohnt...

intel würde das auch sehr gerne tun ;)

dargo
2019-06-12, 09:02:36
Das kann ich so nicht bestätigen. Der Speicher CL 16 3600 Mhz kann mehr als das, ich bekomme immer den Boot, aber die Kiste ist dann halt instabil. Das ist definitiv eine Prozessorgeschichte.
Ich sprach von CL14 nicht CL16. Außerdem kenne ich deine Subtimings nicht. Wenn die bei dir einiges lascher als bei mir sind wirst du auch keine 1,5V beim Speicher @CL16 brauchen. Nur was bringt das alles wenn DDR4-3200 CL14 genauso schnell ist? Bei DDR4-3200 CL14 fahre ich mit meinen optimierten Subtimings aktuell nur 1,36V. Ich meine selbst 1,355V reichen.

Alles klar. Merke ich mir bis zum September. :up:
Was machst du eigentlich? Steigt du um auf den 12 Kerner?
https://geizhals.de/amd-ryzen-9-3900x-100-100000023box-a2064391.html
Bei mir wirds höchstwahrscheinlich der 3700X oder 3800X, je nachdem wie die Straßenpreise aussehen. Ich steige aber eh erst frühenstens im Herbst um. Es sei denn bis dahin sehe ich ein absolutes Schnäppchen wo ich dann nicht widerstehen kann. Eher unwahrscheinlich direkt am Anfang.


@JVC - die X CPUs haben eigentlich einen offenen Multi. Wenn dein Board mehr kann (moar Powar), dann sollte das auch bei dir gehen.
:confused:

Offenen Multi haben doch alle Ryzen. Oder ändert sich das bei Ryzen 2?

JVC
2019-06-12, 09:03:11
@JVC - die X CPUs haben eigentlich einen offenen Multi. Wenn dein Board mehr kann (moar Powar), dann sollte das auch bei dir gehen.
Die 5Ghz sind ja nur was "fürs Auge" ^^
Ich wäre auch mit 4,6Ghz und ~+15% IPC zufrieden gewesen ;)
Natürlich sind mir 4,8Ghz und ~+15% IPC lieber :smile:

Mehr als 5Ghz und +15% IPC wären schon traumhaft :freak:
und natürlich werde ich versuchen das zu erreichen :biggrin:

Dachte nur, übern Fsb wäre es einfacher,
aber Fsb OC klappt scheinbar immer schlechter.
(der 3570K verkraftet auch nicht mal 1Mhz mehr)

M.f.G. JVC

unl34shed
2019-06-12, 09:31:36
:confused:

Offenen Multi haben doch alle Ryzen. Oder ändert sich das bei Ryzen 2?

Mir wäre hier nichts anderes bekannt. Alle Ryzen haben einen offenen Multi.

maximus_hertus
2019-06-12, 09:32:44
Offenen Multi haben doch alle Ryzen. Oder ändert sich das bei Ryzen 2?

Alle sind offen. X ist halt potentiell OC freudiger.

BoMbY
2019-06-12, 09:39:01
Alles klar. Merke ich mir bis zum September. :up:


Die Produktion von Samsung B-Die wurde eingestellt (https://www.golem.de/news/ddr4-speicher-samsung-stellt-b-dies-fuer-ryzen-overclocking-ein-1905-141053.html). Das gibt es vermutlich bald nicht mehr ...

nairune
2019-06-12, 09:43:30
Das ist doch falsch und betrifft die G.Skill etc. gar nicht, wenn ich mich recht erinnere?

Th3o
2019-06-12, 09:51:42
Anno 1800 und TWTK sind dabei.
Muss echt hart sein für einen Tester, mehr zu wissen und es nicht verraten zu dürfen.

JVC
2019-06-12, 09:57:45
https://www.computerbase.de/2019-06/amd-zen-2-ryzen-3000-architektur/
"Ab DDR4-3733 wechselt der Teiler intern von 1:1 auf 2:1, mit leichtem Nachteil für die Latenz."
Hm, dann wird wohl 3600-3700 mit scharfen (Sub-)Timings am besten laufen :uponder:
"Hinsichtlich des Taktes greift zudem die Boni von Precision Boost 2 und Precision Boost Overdrive. Mit guter Kühlung sind durch eine automatische Übertaktung bis zu 200 MHz zusätzlich drin. XFR, wie es früher vorhanden war, gibt es nicht mehr. Das läuft jetzt alles im Rahmen des normalen Turbos."
Unter Wasser wird man wohl automatisch mindestens die 200Mhz + bekommen :smile:
(damit hätte der 3900X min 4Ghz All-Core Bost und 4,8Ghz 2Kern-Bost,
wobei ich vermute, das mit gelockerten Zügeln schon von alleine
~4,4Ghz AC heraus kommen werden... kanns kaum erwarten ^^)

M.f.G. JVC

SKYNET
2019-06-12, 10:02:46
Die Produktion von Samsung B-Die wurde eingestellt (https://www.golem.de/news/ddr4-speicher-samsung-stellt-b-dies-fuer-ryzen-overclocking-ein-1905-141053.html). Das gibt es vermutlich bald nicht mehr ...


nur samsung eigene riegel mit b-die wurden eingestellt, die chips selber werden weiter produziert und ausgeliefert.

Leonidas
2019-06-12, 10:23:21
Glaubt hier eigentlich jemand an einen 3900 non X mit 65w?


Zu wenig preislicher Platz im Portfolio. Daher eher unwahrscheinlich.




Eine Bitte an die zukünftigen Tester: Bitte, testet nicht nur Adobe-Produkte, die nicht sauber über die Kerne skalieren, sondern nehmt Alternativ-Produkte (DXO, Capture One, ...). Fragt doch auch mal bei den Software-Herstellern an, ob ihr nicht automatisch und kostenlos die Software bekommt (ist ja auch eine Werbung für die ). Oder habt ihr Exklusiv-Verträge von dem Quasi-Monopolisten Adobe? Die Franzosen-Seite bekommt das auch hin.
@Raff: Nein, Du bist nicht gemeint. Eure Seite (pcgh) macht das ja schon.


Deutliche Zustimmung.




Die Benches mit Win10 v1903 samt allen Patches auf Intel-Seite und mit dem angepassten Scheduler auf AMD-Seite sehen definitiv spannend aus.


Kleiner böser Teaser, du! Wir müssen noch einen ganzen Monat ohne das aushalten!




:uban: Wer gaggert, muss auch legen. :biggrin:


Schlimm ist es für diejenigen, die mit bildlicher Vorstellungskraft gesegnet sind ... ;)




Oh weh, da hat aber jemand so richtig falsch gelegen. @ Miami, besser keine Prognosen mehr ;) Da hast du ja richtig daneben gelegen.


Aber: Im Jahr 2016 war AMD wirklich nahe von gravierenden Problemen. Wie tief die in der Malaise waren, wird aus heutiger Sicht gern unterschätzt. Die Schwere der Lage ist nur nie gänzlich nach draußen gedrungen, die konnte man nur erahnen. Wenn Zen nicht das Ruder rumgerissen hätte, wäre AMD ab 2018 ein Übernahmekandidat zum Ramschpreis gewesen.




die hölle friert grad zu.


... in letzter Zeit ziemlich häufig. Linux bei MS, AMD Zen 2, AMD-iGPU bei Intel, andere Dinge, die ich jetzt vergesse.





https://www.overclock3d.net/news/software/windows_10_s_may_2019_update_includes_amd_zen_optumisations/1
netter boost der Windows Scheduler.


Unabhängiger Gegentest tut hier Not.

Isen
2019-06-12, 10:40:37
https://www.computerbase.de/2019-06/amd-zen-2-ryzen-3000-architektur/
"Ab DDR4-3733 wechselt der Teiler intern von 1:1 auf 2:1, mit leichtem Nachteil für die Latenz."

Ne. CB schreibt mist. Nicht ab 3733 sondern ÜBER. Bis 3733 Mhz ist 1:1

Unabhängiger Gegentest tut hier Not.
Alle Benches die bisher alle gemacht haben und nun hier und dort rumgeistern mit dem 1903 Build, verzeichnen einen Impact im Combined von 35-50% Wie auch bei mir.

aufkrawall
2019-06-12, 10:42:19
Linux bei MS
Auch nur deshalb, damit mehr Leute weiterhin Windows benutzen. Für Desktop-Linux tut Microsoft gar nichts bzw. es ist die einzige Plattform, für die sie keine Endanwender-Sofware bringen.

davidzo
2019-06-12, 11:05:16
I/O Die EPYC = 14nm
I/O Die Ryzen = 12nm
X570 = I/O Die Ryzen in 14nm

Das ist mir schon klar, nichts anderes stand in meinem post. :rolleyes:

Mein Post ziehlte eher darauf hin wieso AMD wohl so viele 14nm Ryzen 3000 i/o DIEs über hat, wenn diese doch niemals in Ryzen3000 verbaut werden/wurden. Wenn man schon ein extraset Masken in 14nm auflegt, dann hätte man auch gut den Speichercontroller und den weiteren CPUkram weglassen können.
Mögliche Antworten:

1. x570 ist die Resteverwertung einer Fehlproduktion. AMD hat einen Respin des io DIEs in 12nm gebraucht um die Taktzielrate fürs SI zu erreichen. Dafür ist man überraschend pünktlich, der 14nm DIE muss also sehr früh fertig gewesen sein, möglicherweise weit vor dem 7nm chiplet tape out.
2. AMD verwendet trotz anderem Verfahren dieselben Masken wie bei 12nm, dadurch kann allerdings nur abwechselnd x570 und ryzen 3000 produziert werden. Inwieweit das trotz höherer Rüstkosten noch Kosteineinsparungen ergibt ist fragwürdig.
3. Die X570 chips sind eigentlich epyc i/o dies. Der riesige epyc i/o-die hat schließlich eine Menge Ausschuss den man in Servern nicht mehr gebrauchen kann. AMD zieht seine Epyc Strategie von top to bottom dieselbe I/O funktionalität anzubieten wieder durch. Das Gerücht eines AMD-eigenen Chipsatzes kam ja auch relativ spät auf, das würde dazu passen.
4. Heise hat das unglücklich formuliert und der x570 ist ein eigenes DIE mit eigener Maske für 14nm, ohne Speichercontroller, wenn auch ansonsten die Ähnlichkeit mit dem CPU-io-die in Bezug auf IF und PCI4 verblüffend ist. Wahrscheinlich hat dann das Team des CPu-io-dies auch den x570 zu verantworten, bzw. ist aus demselben Projekt entsprungen.
5. Global Foundries hat einfach nicht genügend 12nm Kapazitäten, daher musste man mit zwei Projekten, x570 und epyc io-die auf 14nm ausweichen. Wieso der x570 dann ein SI haben soll ist unklar.

robbitop
2019-06-12, 11:12:29
Ggf. hat GF nicht alle 14 nm Fertigungslinien auf 12 nm umgestellt. Dank potenziell gleicher Masken mehr Auslastung.

Leonidas
2019-06-12, 11:16:51
Ggf. hat GF nicht alle 14 nm Fertigungslinien auf 12 nm umgestellt.


Können sie auch nicht, weil für Pro-Zwecke muß man Ryzen 1000 noch jahrelang fertigen.

robbitop
2019-06-12, 11:22:28
Wobei ich mich frage, ob das groß auffallen würde (wenn man die Zen 1 14 nm Produkte still und heimlich auf 12 nm umstellen würde). Es sind die gleichen Masken, die gleichen Pinouts und ein gleich großer Kern. Die Unterschiede für die AGESA und die Software ist eher in der Firmware / uCode. Man kann ja auch durchaus die "alte" Firmware nehmen.

davidzo
2019-06-12, 11:26:50
Können sie auch nicht, weil für Pro-Zwecke muß man Ryzen 1000 noch jahrelang fertigen.

In der Regel löst man das mit Lagerhaltung. Ordentlich auf Halde produzieren und dann kommen die Masken ins Lager und können zur not nochmal wieder montiert werden...

amdfanuwe
2019-06-12, 11:27:10
1. x570 ist die Resteverwertung einer Fehlproduktion.
Wann hat AMD die ersten I/O Dies entwickelt? Die brauchten schließlich auch was zum testen der CPU Chiplets.
Ich könnte mir vorstellen, die 14nm I/Os stammen aus der ersten Produktionsserie, eventuell mit noch nicht so gutem Memmory Controller oder kleinen Fehlern in diesem. Also überarbeitete Version auf nunmehr verfügbaren 12nm erstellt.

Irgendwer kam auf die Idee, dass die 14nm I/O als Chipsatz nutzbar wären mit abgeschaltetem MC. Also nutzt man den teuren Maskensatz und produziert x570 Chipsätze damit.

Rampage 2
2019-06-12, 11:29:52
Mit 32GB 3200 CL14 macht man IMO bei Ryzen nix verkehrt, der durfte sich sowieo auf 3600 CL14 oder 3733 CL15/16 hochprügeln lassen, mehr macht bei AMD laut Folien eh keinen Sinn.


Ich würde an deiner Stelle darauf warten, bis neue Speicherkits speziell maßgeschneidert für Zen2 rauskommen - dürfte nicht mehr allzu lange dauern. Die werden bestimmt DDR4-4000 oder mehr schaffen - der IMC von Z2 soll ja bis zu DDR4-4400 vertragen können. AMD scheint hier zu Intel aufgeschlossen zu haben.

Und wenn es ein Kit mit 4 Modulen werden soll (was bei 32GB wahrscheinlich ist), dann achte bei der Auswahl des Motherboards darauf, dass es ein Board mit T-Topologie ist - diese sind speziell für den Einsatz mit 4 Riegeln konzipiert, so dass trotzdem hohe Speicherfrequenzen (DDR4-4000+) möglich bleiben. Das Speicherkit selbst sollte ebenfalls auf 4-Modul-Betrieb optimiert sein. Und natürlich B-Die - dem kannst du ordentlich Saft geben (1.5 - 1.6V), um die angepeilten Frequenzen und/oder Latenzen erreichen zu können:)

Höherer Speichertakt scheint wichtiger als niedrige Latenz zu sein - zumindest ist das bei Intel so. Für mich ist Beides wichtig. An deiner Stelle würde ich einen relativ hohen Speichertakt (DDR4-4000+) mit möglichst scharfen Timings (CL17 bis CL15) anvisieren und dann noch zusätzlich die Subtimings tunen.


Der Samsung B-Die lohnt nur wenn du bereit bist an den Subtimings zu optimieren. Ansonsten natürlich nicht.


Kann ich ebenfalls nicht bestätigen. Mein "neues" Speicherkit von GSkill mit B-Die (DDR4-3200 CL14, 2x8GB) schafft DDR4-3600 CL15-15-15-30, aber nur CR2 - CR1 kriege ich selbst mit hoher Spannung nicht stabil. DDR4-4000 kriege ich ebenfalls nicht stabil bei CL16-16-16-32; trotz nur CR2 :frown:

Ich habe auch DDR4-3200 CL12 versucht, aber das schmeckt meinem Speicher anscheinend gar nicht - ich konnte es nicht mal zum Booten bekommen.

Bin aber noch am Tweaken - ist ja auch das erste Mal in meinem Leben, wo ich ernsthaft Overclocking versuche:wink:

R2

robbitop
2019-06-12, 11:34:32
Für Spiele ist Bandbreite unter aktuellen Bedingungen relativ uninteressant AFAIK. Interessant ist die Gesamtlatenz für den Zugriff auf die Daten. Wenn diese im RAM liegen addieren sich die Latenzen der Fabric, des IMCs und des RAMs selbst.

Ein hoher Takt jeder Glieder der Kette führt zu niedrigeren Latenzen. Niedrigere Timings/Subtimings führen zusätzlich nochmal zu niedrigeren Zugriffszeit im RAM.

Bei Intel bringt hohe RAM Frequenz viel, weil der IMC dann besonders hoch taktet und die Fabric eh schon super schnell ist. Relativ gesehen ist der Zugewinn der Latenz des IMCs also größer.

Bei AMDs IF ist offenbar für die Gesamtlatenz sinnvoll, diese möglichst hoch zu takten. Wenn diese dann nur noch 50% des Taktes hat (beim 1:2 Multi) wird der höhere IMC Takt den Nachteil in Bezug auf Latenz nicht mehr wettmachen können.

SKYNET
2019-06-12, 11:37:52
Für Spiele ist Bandbreite unter aktuellen Bedingungen relativ uninteressant AFAIK. Interessant ist die Gesamtlatenz für den Zugriff auf die Daten. Wenn diese im RAM liegen addieren sich die Latenzen der Fabric, des IMCs und des RAMs selbst.

Ein hoher Takt jeder Glieder der Kette führt zu niedrigeren Latenzen. Niedrigere Timings/Subtimings führen zusätzlich nochmal zu niedrigeren Zugriffszeit im RAM.

Bei Intel bringt hohe RAM Frequenz viel, weil der IMC dann besonders hoch taktet und die Fabric eh schon super schnell ist. Relativ gesehen ist der Zugewinn der Latenz des IMCs also größer.

Bei AMDs IF ist offenbar für die Gesamtlatenz sinnvoll, diese möglichst hoch zu takten. Wenn diese dann nur noch 50% des Taktes hat (beim 1:2 Multi) wird der höhere IMC Takt den Nachteil in Bezug auf Latenz nicht mehr wettmachen können.

mal sehen... 4400 C14 sollte latenzmässig mit 3733 C14 gleichziehen können, plus die massiv höhere bandbreite... die frage ist halt, wieviel saft der speicher dafür letzendlich will... 1.5 gebe ich jetzt ja schon dauerhaft, 1.6V wäre für mich auch noch 24/7 tragbar, da der speicher mit dem 120er über dem board aktiv gekühlt wird... ich muss da mal schauen, was letzendlich den höchsten score im durchschnitt ausspuckt :biggrin:

robbitop
2019-06-12, 11:39:29
Ich würde eher versuchen im 1:1 Mode Timings und Frequenz so durchzuiterieren, dass die minimale Latenz erreicht wird. Ich vermute, dass man die im 2:1 Mode nicht erreichen können wird. Linear dazu dann die Performance in Spielen.

Für Anwendungen wäre das ggf. was anderes.

Der_Korken
2019-06-12, 11:41:27
Der IMC von Zen2 läuft bei Taktraten um die 4Ghz im 2:1-Modus, d.h. er taktet dann nur mit 2,x Ghz, weil 4,x Ghz gar nicht geht. Deswegen munkelt man, dass ~3,7Ghz mit entsprechend schärferen Timings das Optimum sein wird. Ob spezielle Zen2-Speicherkits da was helfen, glaube ich eher nicht. Viel wahrscheinlicher ist da eher, dass wir mehr 16Gbit-RAM-Chips sehen werden, also single-rank 16GB pro Riegel. Ich würde mir den PC nicht so zusammenstellen, dass bereits vom Start weg alle Slots mit kleinen RAM-Riegeln voll sind. Ich weiß zwar nicht, ob wir 64GB so in mittlerer Zukunft was bringen werden, aber haben ist besser als brauchen :D.

robbitop
2019-06-12, 11:43:13
Nicht an DDR Marketing Taktraten glauben. ;) DDR4-4xxx läuft tatsächlich nur mit 2xxx MHz mit 2 Datensignalen pro Flanke. Entsprechend läuft die IF nur mit dem tatsächlichen Takt. Ergo bei 1:1 mit bis zu 2xxx MHz und bei 2:1 mit bis zu 1xxx MHz. :)

Die Speziellen Kits könnten (ob man das macht ist die Frage) mit besser zu Ryzen passenden Subtimings im SPD ausgestattet sein. Dann würde es was bringen (bzw das Tuning ersparen).

SKYNET
2019-06-12, 11:47:07
Ich würde eher versuchen im 1:1 Mode Timings und Frequenz so durchzuiterieren, dass die minimale Latenz erreicht wird. Ich vermute, dass man die im 2:1 Mode nicht erreichen können wird. Linear dazu dann die Performance in Spielen.

Für Anwendungen wäre das ggf. was anderes.

ja, mal sehen... für die benchmarkcharts kann man ja ggf. 2 profile anlegen im bios... eines wos die meisten frames gibt, und eines wos den höchsten score bzw. kürzeste zeit hat :D

was mich ja am meisten reizen würde, ist 5GHz+ beim speicher... 5000MHz C15 könnte richtig der gewinner sein... mal sehen ob mein speicher das packt, fürs benchen würde ich da sogar auch 1.8V auf den speicher drücken :ulol:

y33H@
2019-06-12, 12:10:27
Kleiner böser Teaser, du! Wir müssen noch einen ganzen Monat ohne das aushalten!9900K und 2700X gibt's ja schon und Win10 v1903 auch - oder hab ich gesagt, ich hab nen Matisse hier? :wink:

robbitop
2019-06-12, 12:12:27
Kommt dazu noch auf golem was? :) Wenn ja wann? (gern natürlich auch hier...)

dargo
2019-06-12, 12:19:43
Die Speziellen Kits könnten (ob man das macht ist die Frage) mit besser zu Ryzen passenden Subtimings im SPD ausgestattet sein. Dann würde es was bringen (bzw das Tuning ersparen).
Ich vermute auch, dass die speziellen Samsung Kits die dieses Jahr kommen eher von Haus aus schärfere Subtimings haben. Man erspart sich so manuelles Tuning. Wobei dann immer noch etwas Spielraum da sein könnte. Aber die Subtimings werden eventuell nicht mehr so lasch sein wie beim XMP-Profil.

Tarkin
2019-06-12, 12:20:48
9900K und 2700X gibt's ja schon und Win10 v1903 auch - oder hab ich gesagt, ich hab nen Matisse hier? :wink:

Gibts eventuell als Vorgeschmack demnächst mal ein 9900K vs 2700X Review mit besagten Updates/Patches? Würde sicher Zeit sparen sobald Matisse Testmuster eintreffen =)

Wäre cool!

basix
2019-06-12, 12:25:09
Zur 7nm Prozesskalierung: AMD gibt 60mm2 für Zen an (2nd Gen Ryzen). Ist das nicht komplett falsch? Müssten das nicht 44mm2 sein? Weil das hat AMD damals bei der Zen Vorstellung so präsentiert: https://images.anandtech.com/doci/11170/ISSCC%208.jpg

Oder hat man da die 44m2 des gesamten CCX + die 16mm2 des L3 only addiert, damit beide 14nm und 7nm CCX je mit 16MByte da stehen?

Weil sonst wäre die Skalierung deutlich >2x, wenn man den verdoppelten L3 miteinbezieht.

aufkrawall
2019-06-12, 12:30:22
Wie war das jetzt mit Win 10 1903, soll es noch zusätzlich einen neuen Chipsatz-Treiber für bessere Performance geben?
Ich seh schon wieder lauter Schrott-Reviews mit veralteter Software entstehen...

JVC
2019-06-12, 12:31:03
was mich ja am meisten reizen würde, ist 5GHz+ beim speicher... 5000MHz C15 könnte richtig der gewinner sein... mal sehen ob mein speicher das packt, fürs benchen würde ich da sogar auch 1.8V auf den speicher drücken :ulol:
Da kann dann der Samsung B-Die zeigen was wirklich in ihm steckt ;D
(ich glaube gelesen zu haben das bei den 5000+ Tests die neuen M und N-Die , oder wie die heißen, verwendet wurden...)
Soll ja noch neuer Ram rauf bis 5600 kommen ...

https://www.computerbase.de/2019-06/amd-zen-2-ryzen-3000-architektur/
"als beste Lösung in Sachen Preis/Leistung empfiehlt AMD DDR4-3600."
Ich werde versuchen 3600 CL12-12-12... zu erreichen... notfalls auch mit 1,8v :freak:
(und Sub-Timings so straff wie geht)
Und vielleicht schaff ich ja auch die 3733 :biggrin:
Das war immer mein Plan mit dem Ram ^^

M.f.G. JVC

tm0975
2019-06-12, 13:02:14
Wie war das jetzt mit Win 10 1903, soll es noch zusätzlich einen neuen Chipsatz-Treiber für bessere Performance geben?
Ich seh schon wieder lauter Schrott-Reviews mit veralteter Software entstehen...

da könnte ja (und wird vermutlich auch) AMD mit ein paar konkreten Hinweisen für die Tester untertützend zur seite stehen. und das bei intel sämtliche sicherheitsupdates berüksichtigt sein müssen ist glaube ich selbstverständlich.

Thunderburne
2019-06-12, 13:03:59
Sollen die A - Dies nicht die neue Speerspitze werden?
Sprich die die G - Skill jetzt für die Ryzen 3000 bringen will.
Sprich irgendwo war mal die Rede von extrem hochtaktenden 2*16GB.

kunibätt
2019-06-12, 13:04:48
Was wurde bislang eigentlich zu den neuen Threadrippern gesagt bzw geleakt?

dildo4u
2019-06-12, 13:06:39
Nur das welche in 7nm kommen aber nicht wann.

https://youtu.be/ml7rHtCHoFE?t=539

JVC
2019-06-12, 13:09:24
Sollen die A - Dies nicht die neue Speerspitze werden?
Sprich die die G - Skill jetzt für die Ryzen 3000 bringen will.
Sprich irgendwo war mal die Rede von extrem hochtaktenden 2*16GB.
Jup das meine ich ... find aber grad keine Quelle ...

M.f.G. JVC

MSABK
2019-06-12, 13:27:00
Wie war das bei den früheren Ryzen Präsentationen, gab es da große Abweichungen zu den präsentierten Bechnmark Ergebnissen?

JVC
2019-06-12, 13:30:09
https://translate.google.at/translate?hl=de&sl=en&u=https://www.tomshardware.com/news/amd-ryzen-3000-zen-2-microarchitecture-7nm,39609.html&prev=search
"Der Ryzen 9 3900X verbraucht 15 W weniger Strom an der Wand und liefert 58% mehr Leistung pro Watt als der Core i9-9900K."
Autsch ...

"Die Domänen bleiben bis zu DDR4-3733 im Verhältnis 1: 1 miteinander verbunden, werden jedoch mit einem Verhältnis von 2: 1 über diese Übertragungsrate hinaus betrieben. Diese Einstellung, die vom Benutzer im BIOS angepasst werden kann, verbessert die Speicherbandbreite"

Doch noch ne chanze auf 3800+ mit 1:1 ?

(wenn ich die Seite ohne Übersetzer aufmache friert der Explorer ein ^^)

Isen
2019-06-12, 13:30:11
@MSABK
Besser als selbst gezeigt. Wird hier wieder der Fall sein, wegen 1903 und Patches @Intel.

MSABK
2019-06-12, 13:36:15
https://translate.google.at/translate?hl=de&sl=en&u=https://www.tomshardware.com/news/amd-ryzen-3000-zen-2-microarchitecture-7nm,39609.html&prev=search
"Der Ryzen 9 3900X verbraucht 15 W weniger Strom an der Wand und liefert 58% mehr Leistung pro Watt als der Core i9-9900K."
Autsch ...

(wenn ich die Seite ohne Übersetzer aufmache friert der Explorer ein ^^)

Das ist aber auch das mindeste. Ich hoffe mit 7+nm kann AMD noch eine Schippe nachlegen.:)

Auch wenn ich persönlich finde, dass es immer ein unfairer Vergleich ist zwischen 7nm und 14nm, muss ich sagen, es ist der aktuelle Stand und in Anbetracht des Budgets von AMD geht das in Ordnung.

@MSABK
Besser als selbst gezeigt. Wird hier wieder der Fall sein, wegen 1903 und Patches @Intel.

Ok, der 7.7 wird echt ein interessanter Tag.:)

MiamiNice
2019-06-12, 13:42:30
Ich würde eher versuchen im 1:1 Mode Timings und Frequenz so durchzuiterieren, dass die minimale Latenz erreicht wird. Ich vermute, dass man die im 2:1 Mode nicht erreichen können wird. Linear dazu dann die Performance in Spielen.

Für Anwendungen wäre das ggf. was anderes.

+1

Den Teiler habe ich beim überfliegen des CB Artikels gar nicht gesehen. Würde es aber genau so handhaben, 2:1 Mode will man nicht als Gamer.
Ich würde auch nur 16GB Ram verbauen den ich genau JETZT kaufen würde, denn die guten Riegel werden nicht mehr produziert und was die Zukunft bringt ist ungewiss.

w0mbat
2019-06-12, 13:43:37
Hä? Welche "guten Riegel" werden denn nicht mehr produziert?

Isen
2019-06-12, 13:45:37
Die B-DIE - zugunsten der A-DIE -
https://www.pcgameshardware.de/RAM-Hardware-154108/News/DDR4-Samsung-B-Dies-Product-Guide-Einstellung-1281432/

Thunder99
2019-06-12, 13:47:42
B-Die und es ist noch nicht bewiesen, dass der Nachfolger besser oder gleich gut ist.

MiamiNice
2019-06-12, 13:48:34
Die B-DIE - zugunsten der A-DIE -
https://www.pcgameshardware.de/RAM-Hardware-154108/News/DDR4-Samsung-B-Dies-Product-Guide-Einstellung-1281432/

Davon irgendwas 4500 Mhz + kaufen runtertakten so das man gerade noch 1:1 Mode hat, Timings per Hand anpassen. Dazu jeden 2 Core stilllegen beim 16 Core und versuchen All Core Richtung oder über 5 Ghz zu kommen.

Ich denke dann kann man als Intel Nutzer so langsam ins staunen kommen.

JVC
2019-06-12, 13:58:19
Die B-DIE - zugunsten der A-DIE -
https://www.pcgameshardware.de/RAM-Hardware-154108/News/DDR4-Samsung-B-Dies-Product-Guide-Einstellung-1281432/
"Eine komplette Einstellung scheint jedoch nicht stattzufinden."

Laut deinem Artikel werden sie nicht zur Gänze eingestellt.

M.f.G. JVC

SKYNET
2019-06-12, 14:00:21
Wie war das bei den früheren Ryzen Präsentationen, gab es da große Abweichungen zu den präsentierten Bechnmark Ergebnissen?

nope, eigentlich wurde der ball sogar immer flacher gehalten, als er in wirklichkeit dann in den tests hoch gesprungen ist.

edit: zu langsam


zu den B-Dies: samsung hat nur die produktion eigener speicherriegel mit B-Die eingestellt, die chips selber, werden weiterhin produziert und ausgeliefert an 3. hersteller(g.skill, corsair, adata etc. tralala)

Isen
2019-06-12, 14:00:48
3733Mhz kriegt auch ein oller B-DIE hin. Frage ist halt nur, welche Spannung und Timings.
Auf Zen1 gehts, nur für 24/7 absolut nicht möglich und die Timings sind grottig, aber das liegt am IMC, mal sehen was Zen2 draus macht. Die 3733Mhz @CL17 kann ich fast drum wetten das die laufen, CL16/15/14 ist wieder ne andere Geschichte :D

Isen
2019-06-12, 14:02:39
"Eine komplette Einstellung scheint jedoch nicht stattzufinden."

Laut deinem Artikel werden sie nicht zur Gänze eingestellt.

M.f.G. JVC


Schreibt jeder anders: https://www.golem.de/news/ddr4-speicher-samsung-stellt-b-dies-fuer-ryzen-overclocking-ein-1905-141053.html
https://www.hardwareluxx.de/index.php/news/hardware/arbeitsspeicher/49446-b-die-produktion-ausgelaufen-neue-m-und-a-dies-sollen-schneller-sein.html
https://www.tweakpc.de/news/44359/samsung-stellt-b-die-produktion-der-ddr4-chips-ein/
https://www.pcbuildersclub.com/2019/05/ddr4-samsung-produziert-keine-arbeitsspeicher-b-dies-mehr/


Deswegen sagte ich ja: Zugunsten der A-DIEs.

Mangel76
2019-06-12, 14:03:10
Dazu jeden 2 Core stilllegen beim 16 Core und versuchen All Core Richtung oder über 5 Ghz zu kommen.

Ich bin noch nicht sicher, ob dies wirklich zielführend ist. Mit dem neuen Sheduler wird versucht, die zusammengehörigen Threads in einem CCX zu belassen. Wenn du jetzt die Cores stilllegst, müssen eventuell Threads in ein anderes CCX oder gar auf das andere Chiplet verlagert werden. Dies könnte dann durchaus zu einem Leistungsverlust führen, auch wenn du so ein paar MHz mehr herausholst.

Schnoesel
2019-06-12, 14:09:40
Kommt dann evtl auf das Game drauf an schließlich hast du ja trotzdem noch 8 Threads pro CCX. Könnte bei manchen Games also was bringen. Interessant wäre es allemal.

basix
2019-06-12, 14:16:00
Aber die B-Die Chips werden noch hergestellt. Es sind nur die B-Die Riegel von Samsung, welche nun EOL sind.

Edit: Skynet war schneller.

Ex3cut3r
2019-06-12, 14:17:46
Das hier ist übrigens der Nachfolger vom beliebten Trident Z. Nämlich Trident Neo. :freak:
https://www.pcgameshardware.de/RAM-Hardware-154108/News/GSkill-Trident-Z-Neo-DDR4-AMD-Ryzen-3000-1283610/

Nur keine Ahnung wann der erhältlich ist.

robbitop
2019-06-12, 14:18:00
Ich bin noch nicht sicher, ob dies wirklich zielführend ist. Mit dem neuen Sheduler wird versucht, die zusammengehörigen Threads in einem CCX zu belassen. Wenn du jetzt die Cores stilllegst, müssen eventuell Threads in ein anderes CCX oder gar auf das andere Chiplet verlagert werden. Dies könnte dann durchaus zu einem Leistungsverlust führen, auch wenn du so ein paar MHz mehr herausholst.
Jepp. Thema Datenlokalität und Inter-core-Latenz.
So wie der neue Scheduler es machen soll ist es IMO schon am Besten.

Was ich mich allerdings frage, ist ob man beim 5. Thread lieber das 2. CCX anknippst oder erstmal die nächsten 4 Threads mit SMT füllt. Das kann je nach Anwendung und Intensität der Threads zu sehr unterschiedlichen Ergebnissen führen. SMT bedeutet weniger Ausführungsressourcen pro Thread und mehr Threads pro Cache Segment - jedoch falls die Threads ähnliche Daten brauchen ist die Datenlokalität innerhalb des CCX ggf. besser.

maximus_hertus
2019-06-12, 14:28:25
Wurde das hier schon gepostet?

A5bXKwJQxBU


Ergo Entwarnung für den Lüfter auf den X570 Boards. Man hat wohl Schwierigkeiten den Lüfter überhaupt zum starten zu bekommen (im Silent Modus erst ab 75 Grad Temp). Ergo ist der nur eine "Notfall" Kühlung für extrem Situationen, die in 99% der Gaming PCs eh nie vorliegen wird.

BoMbY
2019-06-12, 14:31:46
nur samsung eigene riegel mit b-die wurden eingestellt, die chips selber werden weiter produziert und ausgeliefert.

Das steht da aber explizit nicht so. Hast Du dafür eine Quelle?

Langlay
2019-06-12, 14:40:10
Das steht da aber explizit nicht so. Hast Du dafür eine Quelle?

https://www.pcgameshardware.de/RAM-Hardware-154108/News/DDR4-Samsung-B-Dies-Product-Guide-Einstellung-1281432/

Hier z.b.

Und die OEM B-Die Samsung Riegel waren eh eher durchschnittlich.

SKYNET
2019-06-12, 14:46:41
https://www.pcgameshardware.de/RAM-Hardware-154108/News/DDR4-Samsung-B-Dies-Product-Guide-Einstellung-1281432/

Hier z.b.

Und die OEM B-Die Samsung Riegel waren eh eher durchschnittlich.

waren auch echte perlen drunter, silizium lotterie halt... kollege seinen rennen mit 3200 C14 und straffen subtimings bei 1.28V... aber weil die halt hässlich sind, hat er nachrüst heatspreader drauf getan :ulol:

und hole mir wohl doch "nur" den 3900X... mal durchgerechnet, der dürfte mit max. OC soviel fressen wie der 2700X mit max OC, somit bräuchte ich in keinem fall nen neues brett, da ich nicht weiss ob der 3950X unter 300W bleibt bei max. OC :-/ aber zum 9900k verprügeln langt auch der(und nen 3800X eigentlich auch). :D

Schnoesel
2019-06-12, 15:05:52
Jetzt darf der Große auch mal an den Geekbench noch mit 470er Board:

https://browser.geekbench.com/v4/cpu/13495867

Frequenzen scheinen aber noch ES zu sein, denn die gehen nur bis 4.29 Ghz

Langlay
2019-06-12, 15:06:08
Naja die Samsung OEM Riegel sind nicht gebinnt. Und die OEM Riegel die ich bis jetzt hatte liefen auch alle unterdruchschnittlich im Vergleich zu gebinnten G.Skill/Corsair Riegeln. Und von den Timings her waren sie auch nicht mit den gebinnten Kits vergleichen, trfc z.b. bei den OEM Regeln >400 und meine gebinnten B-Die rennen mit 250-280.

Jetzt darf der Große auch mal an den Geekbench noch mit 470er Board:

https://browser.geekbench.com/v4/cpu/13495867

Hmm läuft mit DDR4133 aufm einem X470 Board das macht doch Hoffnung.

Ex3cut3r
2019-06-12, 15:14:04
Jetzt darf der Große auch mal an den Geekbench noch mit 470er Board:

https://browser.geekbench.com/v4/cpu/13495867

Frequenzen scheinen aber noch ES zu sein, denn die gehen nur bis 4.29 Ghz

Alter mit 4,2 Ghz schon so ein fetter SC Score? :eek:

Langlay
2019-06-12, 15:16:19
Alter mit 4,2 Ghz schon so ein fetter SC Score? :eek:

So heftig ist der doch garnet. ca 10% über dem was mein 2700X auf 4.2 Ghz mit DDR3466Cl14 schafft.

https://browser.geekbench.com/v4/cpu/compare/13495867?baseline=13501641

JVC
2019-06-12, 15:21:35
aber zum 9900k verprügeln langt auch der(und nen 3800X eigentlich auch). :D
Bei einem Kerne Gleichstand + Max-OC könnte AMD auch immer vorne sein :biggrin:
(bei AMD sind ja ALLE CPUs mit frei wählbarem Multi ^^)

Aber ich glaube auch nicht an all zu viel OC Spielraum ...
Dann würde AMD nämlich vermutlich bald wieder den freien Multi für Alle sperren
und "K" CPU´s einführen ...

Trotzdem denke ich das die Schlechteren ~4,4Ghz und die Besseren ~4,8Ghz AC schaffen
und vielleicht sind unter sehr guten umständen auch über 5Ghz drinnen...
(hardcore Wakü oder Chiller)

An 5Ghz AC unter ner normalen Wakü für 24/7 glaube ich nicht...

M.f.G. JVC

Ex3cut3r
2019-06-12, 15:24:11
So heftig ist der doch garnet. ca 10% über dem was mein 2700X auf 4.2 Ghz mit DDR3466Cl14 schafft.

https://browser.geekbench.com/v4/cpu/compare/13495867?baseline=13501641

Mit 4,7 oder höher wurde er langsam Intels verprügeln. :biggrin:

Locuza
2019-06-12, 15:40:32
Zur 7nm Prozesskalierung: AMD gibt 60mm2 für Zen an (2nd Gen Ryzen). Ist das nicht komplett falsch? Müssten das nicht 44mm2 sein? Weil das hat AMD damals bei der Zen Vorstellung so präsentiert: https://images.anandtech.com/doci/11170/ISSCC%208.jpg

Oder hat man da die 44m2 des gesamten CCX + die 16mm2 des L3 only addiert, damit beide 14nm und 7nm CCX je mit 16MByte da stehen?

Weil sonst wäre die Skalierung deutlich >2x, wenn man den verdoppelten L3 miteinbezieht.
Korrekt, AMD hat den gesamten CCX mit L3$ betrachtet, was eben 44mm² + 16mm² (8MB L3$) ergibt, also 60mm².
Zen2 schafft die Fläche fast um die Hälfte zu reduzieren, auf ~31,3mm², dabei ist aber der L3$ doppelt so groß (16MB vs 8MB) und Zen2 hat ja auch doppelt so breite FPUs, hier und da größere Buffer etc.
Der 7nm Prozess skaliert bei Logik und dem Cache also wirklich gut.
https://images.anandtech.com/doci/14525/Mike_Clark-Next_Horizon_Gaming-CPU_Architecture_06092019-page-015_575px.jpg

BoMbY
2019-06-12, 17:15:28
Das fast komplette Gigabyte X570 Lineup: https://imgur.com/a/1btmwYL

SKYNET
2019-06-12, 17:16:45
Bei einem Kerne Gleichstand + Max-OC könnte AMD auch immer vorne sein :biggrin:
(bei AMD sind ja ALLE CPUs mit frei wählbarem Multi ^^)

Aber ich glaube auch nicht an all zu viel OC Spielraum ...
Dann würde AMD nämlich vermutlich bald wieder den freien Multi für Alle sperren
und "K" CPU´s einführen ...

Trotzdem denke ich das die Schlechteren ~4,4Ghz und die Besseren ~4,8Ghz AC schaffen
und vielleicht sind unter sehr guten umständen auch über 5Ghz drinnen...
(hardcore Wakü oder Chiller)

An 5Ghz AC unter ner normalen Wakü für 24/7 glaube ich nicht...

M.f.G. JVC


gehst du auf den 3950 oder 3900er? ich werde mit den 3900er zu gemüte führen, damit bin ich mit dem alten board auf der sicheren seite, kein bock die halbe kiste wieder zerpflücken zu müssen, ausserdem will ich nicht warten X-D

Ex3cut3r
2019-06-12, 17:19:53
gehst du auf den 3950 oder 3900er? ich werde mit den 3900er zu gemüte führen, damit bin ich mit dem alten board auf der sicheren seite, kein bock die halbe kiste wieder zerpflücken zu müssen, ausserdem will ich nicht warten X-D
Wenn ich nicht komplett neukaufen musste, wurde ich wohl auch den 12 Kerner holen, hey 12 Kerne sind besser als 8 für den gleichen Preis. :biggrin:
Aber in meinen Fall, warte ich dann bis zum September.

Brillus
2019-06-12, 17:25:28
Das ist mir schon klar, nichts anderes stand in meinem post. :rolleyes:

Mein Post ziehlte eher darauf hin wieso AMD wohl so viele 14nm Ryzen 3000 i/o DIEs über hat, wenn diese doch niemals in Ryzen3000 verbaut werden/wurden. Wenn man schon ein extraset Masken in 14nm auflegt, dann hätte man auch gut den Speichercontroller und den weiteren CPUkram weglassen können.
Mögliche Antworten:

1. x570 ist die Resteverwertung einer Fehlproduktion. AMD hat einen Respin des io DIEs in 12nm gebraucht um die Taktzielrate fürs SI zu erreichen. Dafür ist man überraschend pünktlich, der 14nm DIE muss also sehr früh fertig gewesen sein, möglicherweise weit vor dem 7nm chiplet tape out.
2. AMD verwendet trotz anderem Verfahren dieselben Masken wie bei 12nm, dadurch kann allerdings nur abwechselnd x570 und ryzen 3000 produziert werden. Inwieweit das trotz höherer Rüstkosten noch Kosteineinsparungen ergibt ist fragwürdig.
3. Die X570 chips sind eigentlich epyc i/o dies. Der riesige epyc i/o-die hat schließlich eine Menge Ausschuss den man in Servern nicht mehr gebrauchen kann. AMD zieht seine Epyc Strategie von top to bottom dieselbe I/O funktionalität anzubieten wieder durch. Das Gerücht eines AMD-eigenen Chipsatzes kam ja auch relativ spät auf, das würde dazu passen.
4. Heise hat das unglücklich formuliert und der x570 ist ein eigenes DIE mit eigener Maske für 14nm, ohne Speichercontroller, wenn auch ansonsten die Ähnlichkeit mit dem CPU-io-die in Bezug auf IF und PCI4 verblüffend ist. Wahrscheinlich hat dann das Team des CPu-io-dies auch den x570 zu verantworten, bzw. ist aus demselben Projekt entsprungen.
5. Global Foundries hat einfach nicht genügend 12nm Kapazitäten, daher musste man mit zwei Projekten, x570 und epyc io-die auf 14nm ausweichen. Wieso der x570 dann ein SI haben soll ist unklar.

12nm und 14nm brauchen nicht zwingend unterschiefliche Masken siehe PR und SR.

bananenmann
2019-06-12, 17:56:11
Ich möchte mir auch den 16-Kerner holen. Wenn schon, denn schon. Soll auch ewig halten. Es steht ja immer geschrieben, dass der 4,7 Ghz erreicht, aber ich denke nicht All-Core, oder? Es geistern ja auch Benches rum, wo er wohl 4,2 Ghz All-Core hat (mit allerdings abenteuerlichen 1,5V oder so... glaube es waren sogar noch mehr).

Meint Ihr, den kann ich noch mit meiner Corsair Hydro Series 115i vernünftig gekühlt kriegen? Will auch gar nicht großartig übertakten. 4,2 Ghz (oder vielleicht doch etwas mehr :) ) auf allen Kernen wäre schon gut. Bin Gelegneheitsspieler und encode eher öfters mal ein Video - so im Verhältnis Gaming - Encoden 30 :70. Deswegen will ich auch das Maximum an Kernen.

Blöd finde ich allerdings, dass es die schnellen USB Chips von AsMedia erst zum Ende des Jahres geben wird. Warte schon seit Jahren mit der Aufrüstung und wollte eigentlich immer eine Intel CPU holen. Doch die geringen IPC Zugewinne von Generation zu Generation und die Tatsache, dass der 8 Kerner so spät kam, hat mich warten lassen. Dann gab es endlich den Coffeelake - und dann ist er so teuer, wird so heiß und verbraucht so viel Strom, dass mir das Gesamtpaket wieder nicht akzeptabel vorkam. Köpfen will ich eine 500 Euro CPU auch nicht müssen.

Nun kommt Ryzen 3000 und es klingt alles als Gesamtpaket ganz gut. Möchte wieder 5 Jahre oder mehr Ruhe haben und würde auch einiges ausgeben - doch wenn ich schon so viel Geld für das Mainboard löhne, dann soll es - wenn überhaupt - einen Semi-Passiven Lüfter haben. Und den gibt es nur von MSI, soweit ich weiß. Besser wäre natürlich passiv gekühlt, aber 500 Euro für ein Mainboard ist mir dann doch zuviel. Eigentlich wollte ich ja mal auf Asus umschwenken, weil man damit, glaube ich (zumindest bei Intel) am Besten mit Offsets arbeiten kann und damit gut undervoltet, oder? Tja - aber dann sollte das Board auch USB 3.2 mit 20 GBit/s aufweisen, damit ich mich später nicht wieder ärgern muss, doch etwas zu früh zugeschlagen zu haben.

Was meint ihr? Wann kommen Boards mit dem AsMedia Zusatzcontroller? Und reicht meine Kühlung?

Vielen Dank im Voraus!!!

dildo4u
2019-06-12, 18:11:04
Einfach warten wie sich der 12 Core verhält bis zum 16 Core ist ja noch Zeit,aber klar rennt das Ding nicht mit allen Kernen auf 4.7Ghz.Nicht vergessen TDP ist auf AM4 extrem beschränkt im Gegensatz zu den High-End Plattformen.

//differentRob
2019-06-12, 18:27:49
Das fast komplette Gigabyte X570 Lineup: https://imgur.com/a/1btmwYL

mit Gigabyte Boards bin ich nun wieder für ne lange Zeit durch...
Hab gerade ein 8 Monate altes Gigabyte x470 Aorus Ultra Gaming retourniert. Hatte noch nie solchen Trouble mit einem Board wie mit dem.

Bios reset ohne menschlichen Eingriff :freak: die Software ist auch nicht förderlich eher kontraproduktiv und am WE hats mir auch den zweiten Bios Chips zerschossen ;D Da hatte ich selbst mit AsRock Boards zu Anfangszeiten weniger Stress :eek:

Ernsthaft, da ist es mir egal, ob das Teil "wertiger" von den Komponenten sein soll oder nicht. Zum Glück spendiert Asus dem ROG STrix x570-f Gaming eine MOS Heatpipe und die Bios Flash-Taste :cool:

Armaq
2019-06-12, 18:30:34
@dargo und Co. - Ja, alle Ryzen sind offen mit dem Multi. Ich meinte eher die Möglichkeit zu takten. Habe ja einen 2700 und 4200 Mhz sind da ein feuchter Traum. 3950 Mhz ist das Maximum und da kotzt der Prozi ordentlich.

Wenn das beim 3er so bleibt, dann ist eine X CPU Pflicht für Gamer.

dargo
2019-06-12, 18:40:28
Also ich sehe ab Octacore nur "X". ;)
https://heise.cloudimg.io/width/2000/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/ct/imgs/04/2/6/8/9/7/3/5/Computex_1-1657f442cd860313.png

Armaq
2019-06-12, 18:42:36
Also ich sehe ab Octacore nur "X". ;)
https://heise.cloudimg.io/width/2000/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/ct/imgs/04/2/6/8/9/7/3/5/Computex_1-1657f442cd860313.png
Ja, bisher ist das so bekannt. Bei AMD ist der Unterschied aber tatsächlich vorhanden. Die Selektion scheint da nicht nur Placebo zu sein. Mir reichen meine 3700 Mhz völlig aus, habe kein Spiel und keine Anwendung wo ich gefühlt limitiert werde. Nur fehlen da halt 500 Mhz zum 2700X der ja nicht soviel teurer war.

dargo
2019-06-12, 18:45:33
Mir ist max. Takt sowas von Latte. Ich werde eh wieder den für mich besten Betriebspunkt suchen. In der Regel bissel mehr Takt als Default bei weniger Vcore.

btw.
Ich mache mich schon mal auf die Suche 2-3 weitere Savegames in meiner Spielesammlung zu finden und vergleiche dann Win10 1809 vs. 1903. Das interessiert mich jetzt doch sehr. Ergebnisse voraussichtlich bis WE vorhanden. :)

JVC
2019-06-12, 18:48:06
gehst du auf den 3950 oder 3900er? ich werde mit den 3900er zu gemüte führen, damit bin ich mit dem alten board auf der sicheren seite, kein bock die halbe kiste wieder zerpflücken zu müssen, ausserdem will ich nicht warten X-D
Ich setze auch vorerst auf den 3900X.
Auch so ziemlich aus den selben Gründen :freak:

Wenn das dann zufriedenstellend Läuft (wovon ich ausgehe), wird's wohl so bleiben.
Wie lange es dann so bleibt, wird eher der "willhaben"-Faktor der zukünftigen Hardware entscheiden.

M.f.G. JVC

=Floi=
2019-06-12, 19:16:10
wie ist das mit der tdb grenze?

Isen
2019-06-12, 19:21:35
Mit PBO ist die aufgehoben ^^ falls du das meinst
Achso... auf älteren Brettern? Nix. X370/X470 liefern und vertragen mehr als die verbrauchen/benötigen (tdp)

Langlay
2019-06-12, 19:55:47
Ich setze auch vorerst auf den 3900X.
Auch so ziemlich aus den selben Gründen :freak:


Ich werd auch auf den 3900X setzen, allerdings aus dem Grund ich hab kein Bock mich 2 Monate zurückzuhalten nur um mehr Geld auszugeben. Wenns den 16 Kerner gleich ab 7.7. geben würde ich ja noch sagen scheiss drauf. Aber 2+ Monate warten um für 50% mehr Geld 33% mehr Kerne zu bekommen begeistert halt auch nicht unbedingt.

Die VRM vom C6H sollte auch mit dem 16 Kerner klarkommen.

JVC
2019-06-12, 20:32:22
Wenns den 16 Kerner gleich ab 7.7. geben würde ich ja noch sagen scheiss drauf. Aber 2+ Monate warten um für 50% mehr Geld 33% mehr Kerne zu bekommen begeistert halt auch nicht unbedingt.

Dito.
Und erwarten, kann ich es schon lange nicht mehr :freak:
(will seit monaten kaum noch auf der alten Möre spielen ^^)
(ich erwarte mir auch eine leichtere Kühlbarkeit beim übertakten der 2x6Kerne, gegenüber dem 1x8Kerner)

M.f.G. JVC

SKYNET
2019-06-12, 20:37:29
gut, dann spielen wir alle mit den gleichen karten... mein 2700X ist aus dem rechner raus und in den Kleinanzeigen... werd ihn vermissen, das kleine biest :frown: jetzt muss der 1500X mal 3 Wochen ackern X-D

Langlay
2019-06-12, 20:40:37
Meinen 2700X behalte ich, der ersetzt den 1700X von meiner Frau.

BoMbY
2019-06-12, 21:19:10
mit Gigabyte Boards bin ich nun wieder für ne lange Zeit durch...

Tja, und MSI würde ich niemals kaufen, und die Asus-Boards sehen alle scheiße aus, und Asrock will ich eigentlich auch lieber nicht.

Das einzige Board das gut aussieht ist das GB X570 AORUS XTREME, aber das passt nicht in mein Gehäuse und der Preis ist ... :rolleyes:

BlackArchon
2019-06-12, 21:20:43
Tja, und MSI würde ich niemals kaufen, und die Asus-Boards sehen alle scheiße aus, und Asrock will ich eigentlich auch lieber nicht.

Das einzige Board das gut aussieht ist das GB X570 AORUS XTREME, aber das passt nicht in mein Gehäuse und der Preis ist ... :rolleyes:
Wenn du Gigabyte, MSI, Asus und Asrock nicht willst, bleibt dir ja noch Biostar. :)

Screemer
2019-06-12, 21:29:51
super plan. da würde ich als besitzer eines x370 gt7 gaaanz stark davon abraten.

Thunderburne
2019-06-12, 21:48:58
Ich setze auch vorerst auf den 3900X.
Auch so ziemlich aus den selben Gründen :freak:

Wenn das dann zufriedenstellend Läuft (wovon ich ausgehe), wird's wohl so bleiben.
Wie lange es dann so bleibt, wird eher der "willhaben"-Faktor der zukünftigen Hardware entscheiden.

M.f.G. JVC
Scheint ein sehr guter Deal zu werden ist vorläufig auch mein Favorit.

Bin gespannt wie sich die CPU verhält wäre Hammer wenn man mit guter Kühlung bei Board und CPU sowie dem anheben der Tdp unter Einhaltung der Temperatur der Mainboardspannungswandler den Max Boost Allcore halten könnte.

MFG

BoMbY
2019-06-12, 21:53:28
Also die einzigen die manche ihre X570 Boards auch mal mit einer Grafikkarte getestet haben sind scheinbar Gigabyte, MSI und Biostar. Bei Asus und Asrock wird bei allen Boards der Quirl von einer Grafikkarte blockiert. Das Biostar-Board sieht schon billig aus, und MSI war klassisch eigentlich
immer Schrott, und die Boards sehen auch alle irgendwie merkwürdig aus.

Bei GB gibt es immerhin ein passives Board, die Lüfter sind fast alle nicht unter der Grafikkarte, und manche haben VRM-Kühler mit echten Kühlfinnen.

Dieser riesige Plastikklotz überall bei den IO-Ports lässt sich hoffentlich optional entfernen.

Thunderburne
2019-06-12, 22:14:49
https://www.computerbase.de/2019-06/x570-chipsatz-semi-passiv-kuehlung/
Der Balanced Mode dürfte der Standardeinstellung gleichkommen und besagt, dass der Lüfter erst bei Erreichen von 72 °C Chipsatz-Temperatur anläuft und dann mit 3.000 U/min oder 40 Prozent der maximalen Drehzahl arbeitet. Ab 80 °C wird auf 3.600 U/min und ab 95 °C auf 5.000 U/min beschleunigt. Welche Geräuschkulisse jeweils zu erwarten ist, bleibt aber unklar. Wird die Marke von 50°C wieder unterschritten, schaltet sich der Lüfter ab.

Mr.Magic
2019-06-12, 23:04:07
Wieso ist die Geräuschkulisse unklar? Einfach das Geräusch vom Video* in einer höheren Tonlage.

a739q4Y3Tes
*Ab ca. 1:20.

maximus_hertus
2019-06-12, 23:11:44
Wieso ist die Geräuschkulisse unklar? Einfach das Geräusch vom Video* in einer höheren Tonlage.

https://youtu.be/a739q4Y3Tes
*Ab ca. 1:20.

:facepalm:

Wenn alles so einfach wäre....

DarknessFalls
2019-06-12, 23:12:23
Mal gut, dass es keine anderen Lüfterhersteller gibt. :rolleyes: Und keine Lüftersteuerung.

Herr, schmeiß Hirn vom Himmel. Oder Steine.

Screemer
2019-06-12, 23:12:58
super plan. da würde ich als besitzer eines x370 gt7 gaaanz stark davon abraten.

Weil die Frage per PN kam

- sehr eingeschränktes BIOS:
keine custom p-states
kein einstellbaren Widerstände
=> quasi AMDs komplettes CBS fehlt
schlechte Lüftersteuerung (nur Prozentwerte, keine kurve, etc.)
-kein Tempsensoranschluss auf dem Board.
- mein Dualranked läuft nur mit 2133 in Bank A
- Extrem mieses Windowstool
- letztes Jahr extrem lange Zyklen beim Biosrelease

+ Schnelle Reaktion des Supports <24Std

Freestaler
2019-06-12, 23:13:36
Wieso ist die Geräuschkulisse unklar? Einfach das Geräusch vom Video* in einer höheren Tonlage.

*Ab ca. 1:20... Oww neues Features SFCA - SingleFanCoolAll. Einer Lüfter quält, ich meine, kühlt alles perfekt. Im Sommer auch gerne die Dachwohnung dazu. Ps. Bei X670 gibts den dann auch neu mit RGB LED. ;-) gibts schon #AMDLüfteristneSchIdee?

Mr.Magic
2019-06-12, 23:24:04
Mal gut, dass es keine anderen Lüfterhersteller gibt. :rolleyes: Und keine Lüftersteuerung.

Herr, schmeiß Hirn vom Himmel. Oder Steine.

Natürlich sind die angegebenen 3000rpm der Untergrenze nicht so laut, trotzdem ist alles ab ~2000rpm recht deutlich hörbar*, sofern es nicht in einem anderen Raum steht.
Jetzt zeig mir einen einzigen Lüfter, der bei 5000rpm "leise" ist.

*Bei den nach den Fotos geschätzen 40mm Quirlen. 140mm höre ich intern ab ~1000rpm. Gute 140er Lüfter an der Gehäusewand finde ich bis ~600rpm unhörbar.

Achim_Anders
2019-06-12, 23:50:47
Wieso ist die Geräuschkulisse unklar? Einfach das Geräusch vom Video* in einer höheren Tonlage.


Wenn du den Artikel gelesen und verstanden hättest, wüsstest du das die Geräuschkulisse im praktischen Betrieb lautlos sein würde. Aber weil du ja lieber Videos schaust, hier ein link für dich:

https://youtu.be/g4mHPeMGTJM

Bitte bis zum Ende schauen und hier vorher nicht mehr schreiben!

Menace
2019-06-12, 23:53:22
Mr. Magic: Jedesmal wenn ich Deine Beiträge lese kommt mir die Aussage von Herbert Wehner in den Sinn.

nHYzl56gmz8

Jetzt warte doch einmal die Tests ab, dann kann man noch immer hysterisch werden.

Edit: @Achim: Ok, das ist auch eine Möglichkeit.

MiamiNice
2019-06-13, 02:03:10
Lüfter kann man immer durch passive Varianten ersetzen oder eine WaKü drauf schnallen. Imo gibt es an der Front gar kein wirkliches Problem?!? Vielleicht muss man was nach kaufen aber wir sind doch hier im 3DC :wink: Was zu heiß ist gefrieren wir, wenn es zu viel Saft frisst zahlen wir die Rechnung und wenn ein Lüfter nervt ersetzen wir ihn. Lang lebe der Balken, Amen und so.

Gipsel
2019-06-13, 02:50:14
Natürlich sind die angegebenen 3000rpm der Untergrenze nicht so laut, trotzdem ist alles ab ~2000rpm recht deutlich hörbar*, sofern es nicht in einem anderen Raum steht.
Jetzt zeig mir einen einzigen Lüfter, der bei 5000rpm "leise" ist.

*Bei den nach den Fotos geschätzen 40mm Quirlen. 140mm höre ich intern ab ~1000rpm. Gute 140er Lüfter an der Gehäusewand finde ich bis ~600rpm unhörbar.
Und welche Geschwindigkeit haben die Enden der Lüfterschaufeln dann?
Die bei 1000rpm eines 140mm messenden Lüfters anliegende Schaufelgeschwindigkeit (sind übrigens ~25km/h am Ende) erreichst Du bei einem 40mm Quirl erst bei grob 140/40*1000 = 3500rpm. Heißt das jetzt, der wäre für Dich unhörbar? :rolleyes:
Daß 3000rpm bei einem 120mm Lüfter (wie von Dir verlinkt) laut sind, bestreitet doch keiner. ;)

x-force
2019-06-13, 04:13:37
Wieso ist die Geräuschkulisse unklar? Einfach das Geräusch vom Video* in einer höheren Tonlage.

https://youtu.be/a739q4Y3Tes
*Ab ca. 1:20.

wer hält bei vollgas den finger rein?:freak:

was meint ihr, wie viel grad bringt das auf einem noctua oder morpheus im gegensatz zu stock@full speed?

dargo
2019-06-13, 06:01:33
Natürlich sind die angegebenen 3000rpm der Untergrenze nicht so laut, trotzdem ist alles ab ~2000rpm recht deutlich hörbar*, sofern es nicht in einem anderen Raum steht.

Das ist schon perse Unsinn. Entscheidend für die Lautstärke ist nicht nur die Drehzahl sondern auch der Durchmesser, die Tiefe, das Lüfterdesign ansich etc.

x-dragon
2019-06-13, 06:54:30
Hier gibt's bspw. schon ein paar Infos von Igor zu den Lüftern:
https://youtu.be/A5bXKwJQxBU

Loeschzwerg
2019-06-13, 07:12:46
Den Ärger über die kleinen Lüfter kann ich durchaus nachvollziehen. Sind hörbar (stört mich jetzt weniger) und gehen schnell kaputt. Generell würde ich bei dem Preisgefüge auch andere Lösungen erwarten.

Vermutlich wäre der Aufschrei geringer wenn es zum Launch von ZEN2 gleich B550 Bretter geben würde.

Pirx
2019-06-13, 07:40:18
Kommt auf Qualität und Drehzahl an, ich hatte auch schon unhörbare(TM) kleine Lüfter. Generell nervt das Hochgekoche dieses "Themas".

rentex
2019-06-13, 07:53:49
Jupp, sollte eigentlich langsam durch sein.

w0mbat
2019-06-13, 08:22:04
Den Ärger über die kleinen Lüfter kann ich durchaus nachvollziehen. Sind hörbar (stört mich jetzt weniger) und gehen schnell kaputt. Generell würde ich bei dem Preisgefüge auch andere Lösungen erwarten.

Vermutlich wäre der Aufschrei geringer wenn es zum Launch von ZEN2 gleich B550 Bretter geben würde.
Hast du das Video gesehen? Weil sie wohl weder werder hörbar sein werden noch schnell kaputt gehen, da sie meistens einfach nicht laufen.

Schau doch bitte das Video bevor du kommentierst...

Loeschzwerg
2019-06-13, 08:25:26
Wenn die Lüfter eh nicht laufen kann ich auch darauf verzichten bzw. ein alternatives Kühlsystem von den Herstellern erwarten. Ganz einfach. Ging früher und sollte auch heute möglich sein.

Kommt auf Qualität

Erfahrungsgemäß überwiegend billiger Müll :( Ein alternativer Kühler und/oder Tausch des Lüfter kann zudem problematisch werden (Abdeckungen im Weg oder Kollision mit PCIe Karten usw.).
Aber das muss letztendlich jeder mit sich selbst ausmachen.

Mir persönlich sind die Boards so oder so zu teuer, zu überladen mit unnötigem Zeug und ich benötige die zusätzlichen Features des x570 nicht, da ist der Lüfter nur ein weiterer Punkt auf der Liste. Ich kann aber auch auf die B550 Bretter warten.

Linmoum
2019-06-13, 08:27:00
Laut hwunboxed braucht 1903 übrigens erst den neuen Chipsatztreiber von AMD um (in Spielen) auch tatsächlich Performancegewinne zu verzeichnen. AMD hatte in dem Zusammenhang ja auch auf den verwiesen iirc.

dildo4u
2019-06-13, 08:30:45
Ich hab nicht Mal in 3D Mark Vorteile,aber das Video zeigt ein paar aktuelle Werte 6 vs 8 Core auch interessant.

Linmoum
2019-06-13, 08:33:03
Ja ist merkwürdig, dass einige im FS so massive Zuwächse haben und sich bei anderen nichts tut. Aber an irgendwas muss es ja liegen.

nordic_pegasus
2019-06-13, 08:33:20
Kommt auf Qualität und Drehzahl an, ich hatte auch schon unhörbare(TM) kleine Lüfter. Generell nervt das Hochgekoche dieses "Themas".

In Zeiten von All-in-One Wasserkühler, leisen Triple-Fan GraKa, Custom-Loops, semi-passiven NTs mit 120/140mm Lüftern, lautlosen SSDs und sehr guten CPU Tower-Kühlern sind so kleine Quirle auf dem Mainboard ein echter Anachronismus. Mein letztes Board mit aktiver Kühlung war ein A7V-133C aus ca. 2001.

Auch finde ich die Platzierung der Lüfter bei den meisten Boards recht plump gewählt. Große GraKa Kühler werden diese meist blockieren. Da ist das Asus Crosshair VIII Impact bislang am schlausten gelöst, da hier der X570 zusammen mit der VRM unter der I/O-Shroud platziert wurde. Das ist eine Steilvorlage für Monoblock-Hersteller (CPU, VRM und PCH).

Wenn man ein wirklich leises System hat und auf Zen2 aufrüsten will, stellt die aktive Kühlung der PCH ein echtes Problem dar.

P.S.: es gibt keine unhörbaren Lüfter ;-)

Pirx
2019-06-13, 08:38:50
selbst, wenn der X570 seine wahnwitzigen 11 W mal ausnahmsweise voll ausfährt, reicht doch ein kleiner Lufthauch (also wenig Drehzahl) - wenn der sowieso schon vom Gehäuselüfter da ist... stelle ich mir nicht schlimm vor

Daredevil
2019-06-13, 08:44:35
11w kühlt man in einem Notebook mit deutlich optimierterer Kühlung auch nicht mit einem „Lufthauch“ .
Schon gar nicht, wenn nebenan ne Grafikkarte 200w+ verbraucht. :>

Ich denke aber auch, dass das im Rahmen bleibt, wenn der Hersteller nicht komplett versagt.

Linmoum
2019-06-13, 08:44:44
Wenn man ein wirklich leises System hat und auf Zen2 aufrüsten will, stellt die aktive Kühlung der PCH ein echtes Problem dar.
Wenn man auf Zen2 aufrüsten will kann man auch problemlos Boards ohne Lüfter nehmen. ;)

Mr.Magic
2019-06-13, 08:52:03
Würden die Hersteller eine X570-Board-Variante bieten, bei der die idiotische Plastikverkleidung durch eine aus Metall ersetzt ist, hätte sich der Lüfter erledigt, und sie könnten für 15-20 Euro Materialkosten €50 Aufpreis verlangen...

Mein letztes Wort zum Thema. Ich warte einfach mal was sich bis Oktober tut.

robbitop
2019-06-13, 08:54:37
Es gibt noch nicht einen fundierten Test zum Thema Schallemission des Lüfters.
Ggf. wäre es sinnvoll, abzuwarten was die Testergebnisse bringen, um dann diese zu diskutieren?
Alles andere ist substanzlos - entsprechend sind Wertungen zum jetzigen Zeitpunkt nicht sinnvoll.

dargo
2019-06-13, 09:05:39
Laut hwunboxed braucht 1903 übrigens erst den neuen Chipsatztreiber von AMD um (in Spielen) auch tatsächlich Performancegewinne zu verzeichnen. AMD hatte in dem Zusammenhang ja auch auf den verwiesen iirc.
Alter... jetzt habe ich gestern Abend alles umsonst gebenchmarkt? :usad: Ich hatte mich schon gewundert warum ich zum Teil gleiche Performance, minimal weniger und minimal mehr habe, je nach Game. :freak:

btw.
Ist der 19.10.0429 der aktuellste?
https://www.amd.com/de/support/chipsets/amd-socket-am4/x470


P.S.: es gibt keine unhörbaren Lüfter ;-)
Natürlich gibt es die. Wenn man sich allerdings ein Schweizer Käse dahinstellt braucht man sich auch nicht wundern wenn bestimmte Geräusche zu vernehmen sind. Es gibt genug Gehäuse die zu einem bestimmten Grad einiges an Geräuschen gut schlucken.

Morpog
2019-06-13, 09:09:52
Wenn man aber nur alle 5-10 Jahre kauft (abseits der Grafikkarte und evtl. RAM verdoppeln), will man zukunftsweisendes kaufen, also muss PCIe 4 sein.

Wenn alles gut läuft, werde ich den 3900x ähnlich lange nutzen können wie meinen 2500k.

Daredevil
2019-06-13, 09:15:07
Wenn man aber nur alle 5-10 Jahre kauft (abseits der Grafikkarte und evtl. RAM verdoppeln), will man zukunftsweisendes kaufen, also muss PCIe 4 sein.

Wenn alles gut läuft, werde ich den 3900x ähnlich lange nutzen können wie meinen 2500k.
Der Wechsel von Sata SSD auf Pcie3.0 NVME ist ja auch schon Faktor 6 und viel IOPS, Gen4 muss es da auch nicht unbedingt sein, wobei das halt echt geil ist. Dann sind’s halt Faktor 10 von einer herkömmlichen SSD kommend und die empfindet man ja schon als schnell an. :D

robbitop
2019-06-13, 09:15:21
Wenn man aber nur alle 5-10 Jahre kauft (abseits der Grafikkarte und evtl. RAM verdoppeln), will man zukunftsweisendes kaufen, also muss PCIe 4 sein.

Wenn alles gut läuft, werde ich den 3900x ähnlich lange nutzen können wie meinen 2500k.

Dann leg nochmal 10 € für einen großen Aftermarket Passivkühler drauf. ;)
Für eine 5-10 Jahre Nutzungszeit ist das unproblematisch.

Wenn der Lüfter wirklich so selten laufen sollten, wie Igor beschreibt, sollte die Haltbarkeit und die Schallemission aber wohl auch kaum ein Problem sein.

basix
2019-06-13, 09:20:39
Der Wechsel von Sata SSD auf Pcie3.0 NVME ist ja auch schon Faktor 6 und viel IOPS, Gen4 muss es da auch nicht unbedingt sein, wobei das halt echt geil ist. Dann sind’s halt Faktor 10 von einer herkömmlichen SSD kommend und die empfindet man ja schon als schnell an. :D

Und man merkt praktisch nichts bei PCIe NVME vs. SATA :D Ich rede da aus Erfahrung. Hie und da ein bisschen weniger Nachladeruckler in Spielen oder marginal schnellere Programmstartzeiten, that's it. Ausnahme ist das herumschieben von grossen Datenmengen, aber das macht man jetzt auch nicht die ganze Zeit (zumindest ich nicht) oder man lässt es im Hintergrund Daten schaufeln.

Wirklich sexy and PCIe NVME SSDs ist der Formfaktor. Sehr platzsparend und klein, einfach modern. Kein Kabelsalat.

dargo
2019-06-13, 09:22:02
Dann leg nochmal 10 € für einen großen Aftermarket Passivkühler drauf. ;)
Für eine 5-10 Jahre Nutzungszeit ist das unproblematisch.

Das ist gar nicht so einfach. Bei vielen Brettern ist die Höhe das Problem. Wenn du eine längere Grafikkarte einbaust (und das ist die Regel heute wegen großen Kühlern) kannst du nur einen flachen Kühler auf die PCH platzieren. Ganz ehrlich... wen der Lüfter stört einfach diesen abschrauben und einen leisen 80mm Lüfter von der Seite draufpusten lassen. Das sollte ohne Probleme auch bei hoher Last reichen. Im Prinzip muss da nur etwas Luftbewegung vorhanden sein.

Thunderburne
2019-06-13, 09:25:31
Kommt auf Qualität und Drehzahl an, ich hatte auch schon unhörbare(TM) kleine Lüfter. Generell nervt das Hochgekoche dieses "Themas".
Warum?
Wenn man weg schaut und die Hersteller kein Feedback bekommen dann wird es auch nicht besser!
Hallo da verlangt man 300 Euro + für die Platinen... Gigabyte zeigt ja mit dem Extreme das es auch anders geht!
Meiner Meinung nach ist das bedenken vieler hier berechtigt.
Unabhängig davon ob es eventuell in der Praxis eine Rolle spielt.

maximus_hertus
2019-06-13, 09:27:11
Wer eine Wakü etc hat, der hat und sollte einen richtig guten Luftstrom haben - ergo gibt es gute Chancen, dass der X570 Lüfter *nie* auch nur anläuft.

Also Füße stillhalten und den 7.7. abwarten ;)

Achim_Anders
2019-06-13, 09:27:18
Wenn die Lüfter eh nicht laufen kann ich auch darauf verzichten bzw. ein alternatives Kühlsystem von den Herstellern erwarten. Ganz einfach.

Das es nicht so einfach ist, wäre dir klar, wenn du deine Diskussion am heutigen Diskussionsstand führen würdest, indem du das Video schaust oder deinen Artikel liest.

So ist dein Post einfach nur "mimimimimi" und dadurch sehr substanzlos 🙄

Schnoesel
2019-06-13, 09:28:09
Wenn ich das richtig verstanden habe dann hängen der erste M2 SSD Anschkuss und der erste Graka Slot eh an den CPU Lanes?!

Mehr habe ich eh nicht vor zu nutzen.

Meine externe Wakü schaufelt die Wärme von Graka/CPU aus dem Gehäuse, hab nen Big Tower mit 3 Gehäuselüftern. Ergo würde es mich wundern wenn die Lüfter bei mir überhaupt jemals außer zum Start anlaufen.

Wobei das ja nur MSI ist. Bei den anderen Hersteller war nicht die Rede von einem Lüfterstop. Da kann ich mir gut vorstellen, dass das zu nem Problem werden könnte.

w0mbat
2019-06-13, 09:44:02
Alter... jetzt habe ich gestern Abend alles umsonst gebenchmarkt? :usad: Ich hatte mich schon gewundert warum ich zum Teil gleiche Performance, minimal weniger und minimal mehr habe, je nach Game. :freak:

btw.
Ist der 19.10.0429 der aktuellste?
https://www.amd.com/de/support/chipsets/amd-socket-am4/x470
Also ich hab gestern Abend 3DMark laufen lassen und eindeutig mehr Leistung als mit 1809.

Und den Chipsatztreiber von dem HWUB spricht gibt es noch nicht, der soll zum Zen2 release kommen.

dargo
2019-06-13, 09:46:48
Naja... ich spiele keinen 3DMark, von daher schaue ich mir lieber Games an. :wink:

w0mbat
2019-06-13, 09:49:39
Ich zock vor allem R6 Siege und das fühlt sich auch fluffiger an, aber da gab es erst vor kurzem einen großen Patch, das kann ich also nicht wirklich Testen.

dildo4u
2019-06-13, 09:50:56
3DMark war einfach kaputt auf Ryzen,Games haben allgemein bessere Performance gezeigt.Daher werden die Sprünge vermutlich minimal sein bis auf vieleicht Far Cry 5/New Dawn die laufen wirklich grottig.
Was natürlich auch nur eine Engine Sache sein kann.

Tru
2019-06-13, 09:51:49
Schreibt jeder anders: https://www.golem.de/news/ddr4-speicher-samsung-stellt-b-dies-fuer-ryzen-overclocking-ein-1905-141053.html
https://www.hardwareluxx.de/index.php/news/hardware/arbeitsspeicher/49446-b-die-produktion-ausgelaufen-neue-m-und-a-dies-sollen-schneller-sein.html
https://www.tweakpc.de/news/44359/samsung-stellt-b-die-produktion-der-ddr4-chips-ein/
https://www.pcbuildersclub.com/2019/05/ddr4-samsung-produziert-keine-arbeitsspeicher-b-dies-mehr/


Deswegen sagte ich ja: Zugunsten der A-DIEs.
Autor des PCGH-Artikels hier: Ich habe mir auf der Computex noch mal bestätigen lassen, dass Samsung die "OC-B-Dies" bis auf Weiteres weiterproduzieren und ausliefern wird.

Screemer
2019-06-13, 09:53:51
Autor des PCGH-Artikels hier: Ich habe mir auf der Computex noch mal bestätigen lassen, dass Samsung die "OC-B-Dies" bis auf Weiteres weiterproduzieren und ausliefern wird.
Danke für die Rückmeldung!

SKYNET
2019-06-13, 09:55:56
3DMark war einfach kaputt auf Ryzen,Games haben allgemein bessere Performance gezeigt.Daher werden die Sprünge vermutlich minimal sein bis auf vieleicht Far Cry 5/New Dawn die laufen wirklich grottig.
Was natürlich auch nur eine Engine Sache sein kann.

also FC5 und auch ND liefen selbst auf dem 1500X mit durchweg 60fps... von daher würde ich nicht sagen das es grottig ist... :freak:

und der macher von ryzen ram calculator sagte, den speicherteiler kann man selber setzen, per default isser aber bei 3733... 4266 1:1 ich komme ;D

KodeX
2019-06-13, 10:22:04
In Anbetracht der Tatsache, dass die kleinen Chipsatzlüfter erst ab einer gewissen Temperatur anlaufen, wäre für Silentfreaks ein großer Top-Blow-CPU-Kühler wohl die beste Wahl. Dabei denke ich z.B. an dieses Monstrum:

https://geizhals.de/noctua-nh-c14s-a1271077.html?hloc=at&hloc=de

Ich bin mir sicher, dass auf diese Weise genug Hitze vom Chipsatzkühlkörper abtransportiert wird. Man muss sein System schließlich nicht bis an das absolute Limit übertakten...

BlacKi
2019-06-13, 10:31:04
11w kühlt man in einem Notebook mit deutlich optimierterer Kühlung auch nicht mit einem „Lufthauch“ .
Schon gar nicht, wenn nebenan ne Grafikkarte 200w+ verbraucht. :>
der grund sind garnicht die 11w. die sind scheinbar nicht das problem, da soll der lüfter noch nichtmal anspringen müssen, aber igor meinte der lüfter deckt die extremfälle ab, in dem der chipsatz 16w verbrät.

robbitop
2019-06-13, 10:45:02
In Anbetracht der Tatsache, dass die kleinen Chipsatzlüfter erst ab einer gewissen Temperatur anlaufen, wäre für Silentfreaks ein großer Top-Blow-CPU-Kühler wohl die beste Wahl. Dabei denke ich z.B. an dieses Monstrum:

https://geizhals.de/noctua-nh-c14s-a1271077.html?hloc=at&hloc=de

Ich bin mir sicher, dass auf diese Weise genug Hitze vom Chipsatzkühlkörper abtransportiert wird. Man muss sein System schließlich nicht bis an das absolute Limit übertakten...
Oder einfach eine gute Gehäusebelüftung.

kunibätt
2019-06-13, 10:52:52
Oder einfach eine gute Gehäusebelüftung.

Kann mir nicht vorstellen, dass der Luftzug von einem Topblower bis zum Chipsatz gelangt. Die VRMs hingegen sollten so gut gekühlt werden.

nordic_pegasus
2019-06-13, 11:01:45
In Anbetracht der Tatsache, dass die kleinen Chipsatzlüfter erst ab einer gewissen Temperatur anlaufen, wäre für Silentfreaks ein großer Top-Blow-CPU-Kühler wohl die beste Wahl.


bringt aber nicht viel, wenn der PCH auf Höhe des ersten PCIe 16x Slots platziert ist und eine verbaute GraKa komplett den Luftstrom blockiert. (*)

Wenn man Platz haben sollte, würde ich sowas montieren: https://geizhals.de/enzotech-cnb-s1-chipsatz-kuehler-a307517.html?hloc=at&hloc=de

Sofern man einen Custom-Loop fährt, werden die alten Northbridge Kühler von Watercool eine Renaissance erfahren http://shop.watercool.de/epages/WatercooleK.sf/de_DE/?ObjectPath=/Shops/WatercooleK/Categories/Wasserk%C3%BChler/MB_Kuehler/Chipsatz

Aber wie hier schon im Thread geschrieben wurde, anstatt Plastikabdeckung mit RGB-BlingBling würde auch einfach ein fetter Metall-Block ausreichen. Aber sowas ist ja aus der Mode.

(*) Auch wenn der PCH weiter unten angebracht ist, wird eine GraKa den Luftstrom eines Tower-Kühlers abschneiden.

SKYNET
2019-06-13, 11:08:11
Man muss sein System schließlich nicht bis an das absolute Limit übertakten...

:uban:

basix
2019-06-13, 11:12:34
:lol:

KodeX
2019-06-13, 11:15:18
:uban:

Ja, ich sehe selber ein, dass man mich für diese Aussage besser bannen sollte. Ich betreibe meine Systeme bereits seit Jahren unübertaktet. Ich spiele sowieso am liebsten die guten alten Spiele. ;-)

Vielleicht kommen demnächst AM4-Chipsatzkühler auf den markt, deren Kühlkörper nicht direkt über dem Chipsatz sitzt. Das sähe dann so ähnlich aus wie das hier:

http://www.pc-experience.de/Bilder-Reviews/Thermalright2/ifx.15.jpg

SKYNET
2019-06-13, 11:25:00
btw. sollte der 3900X nicht in gewissen situationen schneller sein als der 3950X bei gleichem takt? da der 3900X ja pro kern gerechnet, mehr L3 hat als der 3950X?

dildo4u
2019-06-13, 11:26:32
Das wird man mit Takt ausgleichen bei 700€ kannste besser selektieren daher der höhere Boost.

SKYNET
2019-06-13, 11:28:38
Das wird man mit Takt ausgleichen bei 700€ kannste besser selektieren daher der höhere Boost.

naja, das ding hat nur 100MHz mehr, ob das die fehlenden 25% L3 in allen situationen wett macht, wage ich aber zu bezweifeln? man möge mich aber bitte korrigieren wenn ich falsch liege :)

dildo4u
2019-06-13, 11:30:17
Das ist nur Peak schwer zu sagen wie der Takt unter Vollast aussieht,könnten dann auch 200mhz sein.

Gipsel
2019-06-13, 11:32:47
btw. sollte der 3900X nicht in gewissen situationen schneller sein als der 3950X bei gleichem takt? da der 3900X ja pro kern gerechnet, mehr L3 hat als der 3950X?
naja, das ding hat nur 100MHz mehr, ob das die fehlenden 25% L3 in allen situationen wett macht, wage ich aber zu bezweifeln? man möge mich aber bitte korrigieren wenn ich falsch liege :)
Alle Kerne eines CCX können immer den kompletten L3 des CCX nutzen. Wenn es also nur 3 aktive Threads in einem voll funktionsfähigem CCX gibt, steht pro Kern genau so viel L3 zur Verfügung wie bei einem CCX, wo nur 3 Kerne freigeschaltet sind. Und wenn man mehr als 3 aktive Threads im CCX hat, sollte die Mehranzahl der Kerne da normalerweise deutlich mehr bringen. Da muß man schon ziemliche Edge Cases rauskramen (oder die Threads extra schlecht verteilen), damit der 12Kerner irgendwann mal bei gleichem Takt schneller wird.

SKYNET
2019-06-13, 11:34:27
Alle Kerne eines CCX können den kompletten L3 des CCX nutzen. Wenn es also nur 3 aktive Threads in einem voll funktionsfähigem CCX gibt, steht pro Kern genau so viel L3 zur Verfügung wie bei einem CCX, wo nur 3 Kerne freigeschaltet sind. Und wenn man mehr als 3 aktive Threads im CCX hat, sollte die Mehranzahl der Kerne da normalerweise deutlich mehr bringen.

mal als bleistift: anwendung XYZ brauch genau 24 threads, dann sollte der 3900X bei gleichem takt dem 3950X doch "davon rennen"?

Mangel76
2019-06-13, 11:43:39
mal als bleistift: anwendung XYZ brauch genau 24 threads, dann sollte der 3900X bei gleichem takt dem 3950X doch "davon rennen"?

Warum?

auf dem 3950X könnte diese Anwendung auf 3 CCX laufen, dann gäbe es weniger Inter-CCX-Kommunikation. Oder sie könnte auch nur auf 3C/6T pro CCX laufen, genau wie beim 3900X. Ich sehe da jetzt keinen generellen Vorteil, solange die Threads gut verteilt werden.

Gipsel
2019-06-13, 11:44:36
mal als bleistift: anwendung XYZ brauch genau 24 threads, dann sollte der 3900X bei gleichem takt dem 3950X doch "davon rennen"?
Nein, wieso?
Und insbesondere nicht, wenn die Threads beim 16Kerner genau so auf die CCX verteilt werden, wie beim 12Kerner.
Beim 12Kerner ist dann ausnahmslos jeder Kern mit 2 Threads belegt. Beim 16 Kerner nur 8 Kerne mit 2 Threads, die anderen Threads haben nur jeweils einen aktiven Thread und arbeiten die somit schneller ab. Bei einem modernen multithreaded Programm (bei dem jeweils neue kleine Aufgabenpakete an die Worker-Threads verteilt werden, wenn die alten fertig sind), ist der 16 Kerner vermutlich sogar merklich schneller. Selbst wenn die Anwendung extrem empfindlich auf Cache reagiert (25% Änderung der Cachegröße ergibt im Schnitt meist einen sehr kleinen Effekt), dann ist das Standardverfahren des Win-Schedulers ja wohl (zumindest nach dem Mai-Update), daß er jeweils 6 Threads auf jeden CCX schmeißt (2 Kerne mit je 2T, 2 Kerne mit nur einem Thread beschäftigt), die Anzahl der Threads pro CCX bei beiden Fällen (12C vs. 16C) also identisch ist.

Edit:
Im von Mangel angesprochenen Fall (limitiert durch Kommunikation/Latenz zwischen den Threads und Verteilung auf nur 3 CCX [einer bleibt komplett leer]) wäre das wie er schreibt auf einem 16C auch schneller wegen der im Schnitt geringeren Latenzen. Dazu müßte das Programm aber entsprechende Hints an den Scheduler geben (bzw. seine worker threads selber per affinity masks an die jeweiligen CCX bzw. Kerne pinnen). Wird das nicht gemacht, ist es im Worst Case wohl nicht schneller als auf dem 12C, langsamer sollte es praktisch nie sein.

Wie gesagt muß man da einen ziemlich konstruierten Fall hernehmen, daß der 12C mal schneller wäre. Sollte praktisch kaum vorkommen (solange nicht irgendeiner der Beteiligten [Scheduler des OS und das Programm selber] völligen Blödsinn macht).

KodeX
2019-06-13, 11:57:31
mal als bleistift: anwendung XYZ brauch genau 24 threads, dann sollte der 3900X bei gleichem takt dem 3950X doch "davon rennen"?

Das ergibt für mich zwar auf den ersten Blick Sinn, aber wenn eine solche extrem Cache-lastige Anwendung genau 12 Kerne belastet, dann werden beim 16-Kerner doch auch nur 12 Kerne belastet, während die restlichen 4 Kerne brachliegen. Dann ergeben sich keine relativen Cache-Vorteile (5,3 MiB vs 4,0 MiB pro Kern) mehr. Werden alle 16 Kerne belastet, gibt es diesen Cache-Vorteil zwar wieder, aber an dieser Stelle wirkt sich die Mehrzahl an Kernen gewiss wesentlich vorteilhafter aus.

JVC
2019-06-13, 12:03:07
Autor des PCGH-Artikels hier: Ich habe mir auf der Computex noch mal bestätigen lassen, dass Samsung die "OC-B-Dies" bis auf Weiteres weiterproduzieren und ausliefern wird.
Danke für die Klarstellung :up:

btw. sollte der 3900X nicht in gewissen Situationen schneller sein als der 3950X bei gleichem tackt? da der 3900X ja pro kern gerechnet, mehr L3 hat als der 3950X?
Theoretisch ... ^^
Da hilft nur Testen, Testen und nochmal Testen :freak:
(wird auch interessant wie sich der 12Kerner bei nur 8aktiven Kernen verhält ^^)
(da könnten dann schon eventuell ~5Ghz+? AC mit ner guten Wakü drin sein ...)

M.f.G. JVC

Isen
2019-06-13, 12:19:38
Autor des PCGH-Artikels hier: Ich habe mir auf der Computex noch mal bestätigen lassen, dass Samsung die "OC-B-Dies" bis auf Weiteres weiterproduzieren und ausliefern wird.


Top. Dankeschön :)

basix
2019-06-13, 12:38:12
Bei der 12 vs. 16 Core Debatte: Der 12C lässt sich allenfalls höher takten als der 16C, da die Verlustleistung geringer sein dürfte. Das wäre meiner Meinung nach der einzige wirkliche Vorteil. Ansonsten kann man aber auch beim 16C Derivat wohl 4C deaktivieren ;)

nordic_pegasus
2019-06-13, 13:18:45
Bei der 12 vs. 16 Core Debatte: Der 12C lässt sich allenfalls höher takten als der 16C, da die Verlustleistung geringer sein dürfte. Das wäre meiner Meinung nach der einzige wirkliche Vorteil. Ansonsten kann man aber auch beim 16C Derivat wohl 4C deaktivieren ;)

Der 3800X, 3900X und 3950X haben alle eine 105 Watt TDP und dennoch hat der 3950X den höchsten (Single-Core?)Boost. Darum wird AMD für die 3950Xer die Crème de la Crème der Matisse Chiplets nehmen. Darum würde ich nicht darauf wetten, dass der 12 Kerner im Mittel besser übertaktet werden kann im Vergleich zum 16 Kerner.

Deinorius
2019-06-13, 13:27:46
Mich wundert zum X570 vielmehr etwas anderes als die TDP. Das ist ein HEDT Chipsatz, kein Gaming Chipsatz. Einfach für HEDT. Wofür sollte man sich für einen Gaming PC so ein Board holen, außer für "Ich will halt!" und heftiges Übertakten?

Zusätzlich 16 PCIe 4.0 Lanes und 8 USB 10 Gb/s Ports, SATA und USB 2.0 kommen noch extra hinzu. Oder insgesamt 5 M.2 (x4) SSDs und 12 USB 10 GB/s Geräte gleichzeitig. Fuck yeah. :ugly:
Ein hypothetischer B550 mit vielleicht 6 PCIe 3.0 Lanes und 2 weiteren USB 10 Gb/s Ports würde also insgesamt 3 M.2 SSDs (2x4, 1x2) und 6 USB 10 Gb/s Ports erlauben und zuzüglich kommen noch SATA und USB 2.0 hinzu.

Wie gesagt, den "Ich will halt!"-Faktor komplett ignoriert, wozu sollte man einen HEDT Chipsatz in einen Gaming PC stecken?

basix
2019-06-13, 13:30:54
Der 3800X, 3900X und 3950X haben alle eine 105 Watt TDP und dennoch hat der 3950X den höchsten (Single-Core?)Boost. Darum wird AMD für die 3950Xer die Crème de la Crème der Matisse Chiplets nehmen. Darum würde ich nicht darauf wetten, dass der 12 Kerner im Mittel besser übertaktet werden kann im Vergleich zum 16 Kerner.

Jein. Ich bezog mich hier implizit auf den All-Core Boost. Dass wohl die besseren Die zum Einsatz kommen ist relativ wahrscheinlich. Aber wenn der Chip zu warm wird, hast du die 100-200 MHz wieder eingebüsst. Ausserdem muss das Board etc. den erhöhte Strombedarf liefern können etc. Ausserdem hat man +33% mehr Kerne, wo einer eine Lusche sein könnte. Wenn man bei AMD ebenfalls per Clock-Offset OCen kann, dann ist das eine andere Geschichte, kenn mich aber mit AM4 nicht aus.

Ich lehne mich mal aus dem Fenster und behaupte, dass der All-Core Boost @ OC mit dem 16-Kerner im Schnitt tiefer ist als mit dem 12-Kerner. Bei Offset-OC könnte man über den Auslastungsbreich 1-12C etwas höher kommen als der "native" 12C.

Thunder99
2019-06-13, 14:07:24
Mich wundert zum X570 vielmehr etwas anderes als die TDP. Das ist ein HEDT Chipsatz, kein Gaming Chipsatz. Einfach für HEDT. Wofür sollte man sich für einen Gaming PC so ein Board holen, außer für "Ich will halt!" und heftiges Übertakten?

Zusätzlich 16 PCIe 4.0 Lanes und 8 USB 10 Gb/s Ports, SATA und USB 2.0 kommen noch extra hinzu. Oder insgesamt 5 M.2 (x4) SSDs und 12 USB 10 GB/s Geräte gleichzeitig. Fuck yeah. :ugly:
Ein hypothetischer B550 mit vielleicht 6 PCIe 3.0 Lanes und 2 weiteren USB 10 Gb/s Ports würde also insgesamt 3 M.2 SSDs (2x4, 1x2) und 6 USB 10 Gb/s Ports erlauben und zuzüglich kommen noch SATA und USB 2.0 hinzu.

Wie gesagt, den "Ich will halt!"-Faktor komplett ignoriert, wozu sollte man einen HEDT Chipsatz in einen Gaming PC stecken?

Deshalb warte ich auf die Infos zum B550 :). Sehe es auch so.

Rancor
2019-06-13, 14:13:57
Man kann auch mit den B Boards heftig übertakten. Man muss halt nur darauf achten eins mit gutem VRM Design zu erwischen. Da liegt nämliche meistens die Crux.

amdfanuwe
2019-06-13, 14:34:26
. Ausserdem hat man +33% mehr Kerne, wo einer eine Lusche sein könnte.
Eigentlich nicht. Beim 16 Kerner mit 4,7GHz Turbo garantiert AMD ja dafür, dass jeder Kern die 4,7GHz schaffen kann.
Beim 12 Kerner werden nur 4,6GHz garantiert. Darf man sich dann nicht beschweren, wenn einer der Kerne unter normalbedingungen nur 4,6GHz schafft während bei Last auf einem anderem Kern auch mal die 4,7GHz geschafft werden.
Also am besten den 16 Kerner nehmen und die 4 schlechtesten Kerne abschalten :-)

Was meint ihr, wird AMD auch mal wie Intel mit Turbo Boost Max 3.0 kommen, bei dem dem OS gesagt wird, welches der beste Kern ist und bitte bei Single Core Last dieser zu verwenden ist?

dargo
2019-06-13, 14:50:11
Hier nun mein Vergleich zwischen Win10 1809 und 1903. Habe dafür drei Spiele mit Savegames genommen und eins (SotTR) mit dem intergrierten Benchmark. Beim letzteren fehlt mir ein passendes Savegame. Der Benchmark ist aber zumindest exakt reproduzierbar. Jeweils drei Durchläufe, davon dann den Schnitt.

Rise of the Tomb Raider (DX11)
62,00 avg.fps --> 62,67 avg.fps

F1 2015
73,33 avg.fps --> 73,20 avg.fps

Assetto Corsa
119,20 ag.fps --> 118,33 avg.fps

Shadow of the Tomb Raider (DX11)
75,33 avg.fps --> 72,33 avg.fps

Shadow of the Tomb Raider (DX12, CPU @2,8Ghz)
167,00 avg.fps --> 172,33 avg.fps

Als ich die Werte in SotTR mit DX12 vs. DX11 gesehen habe bin ich fast vom Stuhl gefallen. X-D Trotz 1Ghz weniger CPU-Takt mehr als doppelt so schnell wie mit DX11. ;D Die dritte Szene vom Benchmark läuft an der Worst Case Stelle sogar fast mit Faktor 3 trotz 1Ghz weniger. :freak: Aber das nur so nebenbei. :wink:

Durch Win10 1903 hat sich bei mit in RotTR, F1 2015 und Assetto Corsa nichts geändert. SotTR ist unter DX11 sogar 4% langsamer geworden während DX12 3% schneller ist. Ich habe aber wie gesagt den Chipsatztreiber nicht neu installiert.

PS: das ganze mit 720p, max. Details 1xAA/1xAF.

basix
2019-06-13, 14:50:21
Eigentlich ziemlich geschickt von AMD, für das I/O Die und den Chipsatz den selben Chip zu verwenden (mit Ausnahme 12 vs. 14nm). Hätte ich so nie erwartet. Einziger Nachteil ist, dass der Chipsatz so ziemlich fett geworden ist. Aber die Kosten für den leeren Chip sind wohl genug tief, sodass es sich gegenüber einem eigenständigen Design für den Chipsatz lohnt. Ausserdem wird die R&D Pipeline entlastet als auch pozentiell die Time to Market verkürzt. Bin gespannt, ob wir das auch bei zukünftigen Designs sehen werden.

w0mbat
2019-06-13, 14:53:16
@dargo: Wie sehen die frame times aus?

dargo
2019-06-13, 14:54:15
Mir ist nichts außergewöhnliches aufgefallen. Wie vorher auch schon sehr gut. Bei SotTR sind die Frametimes mit DX12 vs. DX11 besser, das war aber vorher auch schon so.

Edit:
Falls sich jemand wundert warum 2,8Ghz CPU bei DX12 in SotTR... die Frames explodieren dermaßen nach oben, dass ich schon leichtes GPU-Limit vermeiden wollte. Eigentlich wollte ich die CPU mit 2Ghz takten. Musste aber feststellen, dass sich im Bios min. 2,8Ghz einstellen lassen. Die GPU lief mit >1,6Ghz.

Edit 2:
Den aktuellen Chipsatztreiber von Mai 2019 installiert, es ändert sich nichts.

F1 2015
73,33 avg.fps --> 73,20 avg.fps --> 73,73 avg.fps

Mal sehen ob der noch kommende Chipsatztreiber da was bringt.

Hammer des Thor
2019-06-13, 15:11:23
Mich wundert zum X570 vielmehr etwas anderes als die TDP. Das ist ein HEDT Chipsatz, kein Gaming Chipsatz. Einfach für HEDT. Wofür sollte man sich für einen Gaming PC so ein Board holen, außer für "Ich will halt!" und heftiges Übertakten?

Zusätzlich 16 PCIe 4.0 Lanes und 8 USB 10 Gb/s Ports, SATA und USB 2.0 kommen noch extra hinzu. Oder insgesamt 5 M.2 (x4) SSDs und 12 USB 10 GB/s Geräte gleichzeitig. Fuck yeah. :ugly:
Ein hypothetischer B550 mit vielleicht 6 PCIe 3.0 Lanes und 2 weiteren USB 10 Gb/s Ports würde also insgesamt 3 M.2 SSDs (2x4, 1x2) und 6 USB 10 Gb/s Ports erlauben und zuzüglich kommen noch SATA und USB 2.0 hinzu.

Wie gesagt, den "Ich will halt!"-Faktor komplett ignoriert, wozu sollte man einen HEDT Chipsatz in einen Gaming PC stecken?


Viel USB gerade bei Gaming wichtig, viele Hotas haben 2 mal USB 2. die man wegen dem Polling besser nicht an einen HUb anschliessen soll, dann Webam, Oculus Rift braucht 3 mal USB 3.0 Gaming PCs haben oft kein optisches Laufwerk dafür nochmal und auch ein Gaming PC ist eine Allround-Machine womit ich auch anderes machen will also Drucker Scanner TV Adapter und externe Platte und Chipkartenleser ran.
Mir ist das wegen dem Polling eh ein Dorn im Auge dass ausser extrernen HDs fast alle Geräte nur USB.20 haben, bei einen Drucker oder Scanner geht das ja noch aber Webcam könnte Probleme bekommen wenn die Bandbreite durch ein USB.2.0 Hub auf 1/5 oder weniger reduziert wird. USB.30 kann Routing da wären wenige Ports kein Pprob!

amdfanuwe
2019-06-13, 15:27:50
Wenn ich mir die Daten so ansehe, scheint der sweet Spot bei ~3,6/4,4;4,5 zu liegen.
Über 3,6GHz fangen die Kerne zu saufen an.
Turbo schaffen die Kerne zwischen 4,2 und 4,9GHz.
Nur schafft es wohl nur ein Chiplet von 1 Mio. auf allen Kernen die 4,9GHz im Normalbetrieb. Daher die 16 Kerner mit 4,7GHz, die auch nur im 1 stelligem Prozentbereich vom Band fallen dürften. Die große Masse der Chips liefern nur 4,4 und 4,5GHz auf mindestens einem der 8 Kerne.
Für die 12 Kerner kann man jeweils den schlechtesten Kern eines CCX abschalten und dadurch genügend 6 Kerner mit 4,6GHz Turbo gewinnen.
Die schlechten Chiplets, deren Kerne viel verbrauchen bzw. im Turbo nicht hoch kommen, werden zu 6 Kernern verarbeitet.
Der 3800X dürfte etwas weniger als die 105W benötigen. Entweder hat es für die 4GHz Base wirklich nicht gereicht oder AMD wollte den nicht zu sehr glänzen lassen durch hohen Base Takt.
Ebenso beim 3600X.
Zur Berechnung der W/Core sind 20W für den I/O abgezogen.

C B T W (W - 20W I/O)/C
3600 6 3,6 4,2 65 7,500
3600X 6 3,8 4,4 95 12,500

3700X 8 3,6 4,4 65 5,625
3800X 8 3,9 4,5 105 10,625

3900X 12 3,8 4,6 105 7,083
3950X 16 3,5 4,7 105 5,313

Rancor
2019-06-13, 15:35:54
Bei mir wird es wohl der 3800x werden. 8 oder mehr Kerne + HT wird man die nächsten 5 Jahre.

rentex
2019-06-13, 15:41:08
Der x570 ist alles andere als ein HEDT Chipsatz. Er schließt einfach an den Z390 an....endlich!

VfBFan
2019-06-13, 16:19:57
Ich wüsste nicht wieso der Z390 überhaupt auf Augenhöhe sein sollte mit seinem DMI-Flaschenhals und das seit ewigen Zeiten.

JVC
2019-06-13, 16:36:50
Nicht vergessen, der neue PBO legt überall nochmal 200Mhz drauf.(auch bei den Maximaltaktraten!)
Der 3900X sollte so min 4Ghz AC und 4,8Ghz 2C erreichen.
(zu mindestens unter ner brauchbaren Wakü sollte der "Max-Boost" mit +200 fix sein)

Da drängt sich mir die Frage auf...
Hat AMD seine Vergleiche mit oder ohne aktivem PBO angestellt?
(von haus aus sollte er ja deaktiviert sein, weil mit PBO ja der Verbrauch "ignoriert" wird)

M.f.G. JVC

rentex
2019-06-13, 16:37:22
DMI 3.0 liegt bei PCIE 3.0 x4 und das seit Skylake...Flaschenhals?

Gipsel
2019-06-13, 16:41:38
DMI 3.0 liegt bei PCIE 3.0 x4 und das seit Skylake...Flaschenhals?Na da hängt dann aber auch Alles dran. Bei AMD gehen ja ein M.2 (oder auch PCIe x4 oder SATA) und ein paar schnelle USB-Ports direkt von der CPU, die müssen da also nicht drüber, was die maximal 4GB/s des Interfaces zum Chipsatz schon mal entlasten.

Screemer
2019-06-13, 16:44:55
Hier nun mein Vergleich zwischen Win10 1809 und 1903. Habe dafür drei Spiele mit Savegames genommen und eins (SotTR) mit dem intergrierten Benchmark. Beim letzteren fehlt mir ein passendes Savegame. Der Benchmark ist aber zumindest exakt reproduzierbar. Jeweils drei Durchläufe, davon dann den Schnitt.

Rise of the Tomb Raider (DX11)
62,00 avg.fps --> 62,67 avg.fps

F1 2015
73,33 avg.fps --> 73,20 avg.fps

Assetto Corsa
119,20 ag.fps --> 118,33 avg.fps

Shadow of the Tomb Raider (DX11)
75,33 avg.fps --> 72,33 avg.fps

Shadow of the Tomb Raider (DX12, CPU @2,8Ghz)
167,00 avg.fps --> 172,33 avg.fps

Als ich die Werte in SotTR mit DX12 vs. DX11 gesehen habe bin ich fast vom Stuhl gefallen. X-D Trotz 1Ghz weniger CPU-Takt mehr als doppelt so schnell wie mit DX11. ;D Die dritte Szene vom Benchmark läuft an der Worst Case Stelle sogar fast mit Faktor 3 trotz 1Ghz weniger. :freak: Aber das nur so nebenbei. :wink:

Durch Win10 1903 hat sich bei mit in RotTR, F1 2015 und Assetto Corsa nichts geändert. SotTR ist unter DX11 sogar 4% langsamer geworden während DX12 3% schneller ist. Ich habe aber wie gesagt den Chipsatztreiber nicht neu installiert.

PS: das ganze mit 720p, max. Details 1xAA/1xAF.
Hast du zufällig deus ex: mankind decided? Blacki hat da ein Savegame bei dem bisher alle ryzen völlig am abkotzen waren.

dargo
2019-06-13, 16:51:36
Habe ich, jetzt ist es aber eh zu spät.

Locuza
2019-06-13, 17:05:44
Laut Wikichip steigt die L3$-Latenz, um ~14% bei Zen2 gegenüber Zen1.
Increased L3 latency (~40 cycles, up from ~35 cycles)
https://en.wikichip.org/wiki/amd/microarchitectures/zen_2

SKYNET
2019-06-13, 17:06:54
Laut Wikichip steigt die L3$-Latenz, um ~14% bei Zen2 gegenüber Zen1.

https://en.wikichip.org/wiki/amd/microarchitectures/zen_2

was ja mehr als kompensiert wird, durch die grösse selbigens :)

Ravenhearth
2019-06-13, 17:07:33
Steht auch im Artikel von anandtech.

Locuza
2019-06-13, 17:32:40
Da kommt die Information dann auch her.
Ich habe den Artikel nicht zu Ende gelesen. :redface:

Aber es ist allgemein interessant zu wissen, wie viel man bei den Timings opfern muss, wenn man shrinked, die Kapazität aber verdoppelt.

MR2
2019-06-13, 17:39:05
EXCLUSIVE: AMD Is Working On A Monster 64-Core Threadripper, Landing As Early As Q4 2019
https://wccftech.com/exclusive-amd-is-working-on-a-monster-64-core-threadripper-landing-as-early-as-q4-2019/
Unter Windows? Um Himmels Willen;-)

Ich schwanke noch zwischen 3700X und 3800X. Mal schauen wie die Tests ausfallen!

Lehdro
2019-06-13, 17:44:00
Der 3900X sollte so min 4Ghz AC und 4,8Ghz 2C erreichen.

Ich glaube du musst da umdenken:

https://abload.de/img/singlecoreturbololwtk6q.jpg

Quelle (https://twitter.com/Thracks/status/1138789078986502145)

Ich vermute mal, bestärkt durch den Wegfall von XFR, das es nun keine einzelnen max Takte mehr pro Kern gibt, sondern global für die ganze CPU der spezifizierte max Turbo theoretisch auch als allcore Turbo herhält, wenn die Temperaturen, Leistungsaufnahme und die VRM das hergeben. Sowas wie einen "2C Turbo" gibt es dann nur wenn du wirklich nur 2 Kerne belastest - aber nicht als extra Booststufe, sondern als resultierendes Ergebnis des von AMD vorhergesehenen Boostalgorithmus.

MusicIsMyLife
2019-06-13, 17:52:52
Ich glaube du musst da umdenken:

https://abload.de/img/singlecoreturbololwtk6q.jpg

Quelle (https://twitter.com/Thracks/status/1138789078986502145)

Ich vermute mal, bestärkt durch den Wegfall von XFR, das es nun keine einzelnen max Takte mehr pro Kern gibt, sondern global für die ganze CPU der spezifizierte max Turbo theoretisch auch als allcore Turbo herhält, wenn die Temperaturen, Leistungsaufnahme und die VRM das hergeben. Sowas wie einen "2C Turbo" gibt es dann nur wenn du wirklich nur 2 Kerne belastest - aber nicht als extra Booststufe, sondern als resultierendes Ergebnis des von AMD vorhergesehenen Boostalgorithmus.

Das "ich vermute mal" kannst du streichen.

Seit Ryzen 2000 mit XFR2 ist es so, dass alle Kerne der CPU quasi immer versuchen, den höchsten Takt zu erzielen. Sie laufen quasi alle drauf los, takten hoch und werden nur durch die Limite bei Temperatur, Leistungsaufnahme und Fähigkeiten der Spannungsversorgung eingebremst.

Wenn es einen Workload gibt, der zwar alle Kerne der CPU belastet, trotz vollem Boost-Takt aber nicht die Limite sprengt, dann würden alle Kerne mit maximalen Boost-Takt laufen dürfen.

(del)
2019-06-13, 17:56:09
EXCLUSIVE: AMD Is Working On A Monster 64-Core Threadripper, Landing As Early As Q4 2019
https://wccftech.com/exclusive-amd-is-working-on-a-monster-64-core-threadripper-landing-as-early-as-q4-2019/
Unter Windows? Um Himmels Willen;-)

Hmm wenn ich überlege was ich für den 2990WX bezahlt habe und 1 Jahr später ist der schon wieder hinfällig.
Im Artikel steht das diese CPU eventuell 14nm sein soll?
Das wäre ja total dämlich.
Hoffentlich kommt auch eine Neuauflage vom 2990WX oder eine Zwischenstufe mit 48 Cores.

Lehdro
2019-06-13, 18:02:38
Wenn es einen Workload gibt, der zwar alle Kerne der CPU belastet, trotz vollem Boost-Takt aber nicht die Limite sprengt, dann würden alle Kerne mit maximalen Boost-Takt laufen dürfen.
Zumindest bei meinem 2950X war es so, dass nur bestimmte Kerne den 4,4 GHz Boost gesehen haben - der Rest sortierte sich darunter ein. Das waren eben genau die Kerne die im Ryzen Master die Sternchen verpasst bekommen haben.

Das ist dann das was ich meine: XFR2 geht ja über PB2 hinaus und setzt dort oben drauf extra Takt - der natürlich je nach Kern anders sein kann. Meine Theorie ist nun das durch den Wegfall von XFR alle Kerne denselben maximalen Takt haben, so zum Beispiel 4,7 GHz + die 200? MHz von PBO. PBO ersetzt in der neuen Iteration XFR2 komplett über alle Kerne hinweg und nicht spezifisch pro Kern wie bei XFR2.

Zossel
2019-06-13, 18:13:44
Bitte die Chipsatzlüfter in "Prozessoren, Chipsätze und Mainboards" diskutieren, danke.

Opprobrium
2019-06-13, 18:19:03
Hmm wenn ich überlege was ich für den 2990WX bezahlt habe und 1 Jahr später ist der schon wieder hinfällig.
Im Artikel steht das diese CPU eventuell 14nm sein soll?
Das wäre ja total dämlich.
Hoffentlich kommt auch eine Neuauflage vom 2990WX oder eine Zwischenstufe mit 48 Cores.

14nm ist mehr oder weniger unmöglich. 64 Kerne passen ohne Chiplets nicht auf den Sockel, und daß AMD 14nm Chiplets baut wäre mir neu. Aber irgendwie stehen die 14nm ja auch in dem Artikel im Zusammenhang mit dem Chipsatz.

Ansonsten ist aber doch eigentlich nichts neues im Artikel. Das AMD den Threadripper nicht einfach so sterben läßt sollte klar sein. Ob der jetzt wirklich schon mit 64 Kernen kommt oder nicht ist fraglich, aber der einzige Grund der dagegen spräche wäre der, daß AMD sich das für später aufheben möchte wie sie es zwischen TR 19X0 und 29X0 gemacht haben :biggrin:

Bin ebenfalls gespannt wie weit da die Kernspanne wird. Theoretisch könnten sie ja von 16 - 64 so ziemlich alles abdecken, evtl. sehen wir ja sogar jeweils einen mit 16, 24, 32, 40, 48, 56, 64. Dann wird es aber was die Namensgebung betrifft eng über dem Ryzen 3950X :cool:

Das ein neuer MB Chipsatz kommt während die alten Mobos weiter genutzt werden können ist eigentlich auch klar. Und für den IO Chip werden sie entweder denselben nutzen wie für Epyc, oder aber wie beim Ryzen einen 12nm Chip der etwas aggressivere Speichersettings erlaubt.

kunibätt
2019-06-13, 18:21:11
Hmm wenn ich überlege was ich für den 2990WX bezahlt habe und 1 Jahr später ist der schon wieder hinfällig.
Im Artikel steht das diese CPU eventuell 14nm sein soll?
Das wäre ja total dämlich.
Hoffentlich kommt auch eine Neuauflage vom 2990WX oder eine Zwischenstufe mit 48 Cores.

Die 14nm beziehen sich auf den Chipsatz der neuen Threadripper....

Benutzername
2019-06-13, 18:23:23
Hmm wenn ich überlege was ich für den 2990WX bezahlt habe und 1 Jahr später ist der schon wieder hinfällig.

daß die letzten jahre sich CPUs eher seitwärts bewegt haben ist doch eher die Ausnahme, denn die Regel gewesen, in der Geschichte des Computers.



Im Artikel steht das diese CPU eventuell 14nm sein soll?
Das wäre ja total dämlich.
Hoffentlich kommt auch eine Neuauflage vom 2990WX oder eine Zwischenstufe mit 48 Cores.

Die kleineren Threadripper sollen sich eher schlecht verkauft haben. Die meisten haben wohl gleich Vollausbau genommen. Von daher fraglich ob es sich für AMd lohnt so viele verschiedene Modelle anzubieten, wenn die kaum jemand kauft?

--------------------
Bitte die Chipsatzlüfter in "Prozessoren, Chipsätze und Mainboards" diskutieren, danke.

Warum, ist doch immerncoh alles Spekulation, weil hier noch niemand im Forum ein X570 Platinchen hat. ;)