PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Summit Ridge: 8 Cores/16 Threads Zen/Ryzen-CPU - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29]

bbott
2017-03-26, 00:19:20
Ich hätte auf:
1850X - 12 Kerner - 125W
1900X - 16 Kerner - 125W (max 140W) - 2x 1700 (65W)
1950X - 16 Kerner - <=180W - 2x 1800X (95W)

gehofft.

Wie so ein zweifacher 1700er nun auf einmal 180W benötigen sollte, ist mir schleierhaft.

CompuJoe
2017-03-26, 00:55:53
Wie so ein zweifacher 1700er nun auf einmal 180W benötigen sollte, ist mir schleierhaft.

Quad Channel, mehr PCIe Lanes usw. das ding hat viel mehr als nur mehr Kerne.

Relic
2017-03-26, 01:26:03
Quad Channel, mehr PCIe Lanes usw. das ding hat viel mehr als nur mehr Kerne.
Das ist nicht dein ernst oder? Es sind genau 2X Summit Ridge Dies auf einem Package... woher kommt nur der quadchannel etc? 2x2=?

CompuJoe
2017-03-26, 06:15:22
Das ist nicht dein ernst oder? Es sind genau 2X Summit Ridge Dies auf einem Package... woher kommt nur der quadchannel etc? 2x2=?

Ja und denkst du die kommunizieren über Luft mit einander, oder die anderen Sachen wie 10GbE oder Audio usw.

Einfach SR x 2 ist da nicht.

Nightspider
2017-03-26, 06:38:42
Bezahlbare 12 und 16 Kerner wären für einige Workstations und Privatserver sicherlich sehr schön.
Vor allem da es etwas Druck auf Intel ausüben würde.

Wobei kein Gamer in absehbarer Zeit 16 Kerne gebrauchen können wird.

Dann lieber 6-8 Kerne mit hoher IPC und 4,5 bis 4,8 Ghz. Mal schauen wie schnell Skylake X wird.

Würde mich aber nicht wundern wenn die nächste Konsolengeneration mit 16-20 Zen+ CPU Kernen in 7nm kommt. Dazu dann fixen HBM3 Speicher und Spiele werden wieder einen großen Sprung in der (technischen) Qualität machen.

Schaffe89
2017-03-26, 07:33:17
Ja und denkst du die kommunizieren über Luft mit einander, oder die anderen Sachen wie 10GbE oder Audio usw.

Einfach SR x 2 ist da nicht.

Also normalerweile ist das nicht mit in die Prozessor TDP mit eingerechnet.
180 Watt für 2x Ryzen 1700 finde ich aber gar nicht so unrealistisch, denn der 1700 liegt ja ohnehin weit über seiner TDP, ganz ähnlich wie die Desktop APU´s mit 65 Watt TDP, daher könnten 180 Watt für das absolute Maximum schon realistisch sein.

vinacis_vivids
2017-03-26, 09:21:08
Ein völlig sinnbefreiter Beitrag vom obigen Hernn schon wieder, der suggerriert dass der Verbrauch von 2x1700 urplötzlich explodieren würde und man pleite geht durch die Stromkosten.
Man betreibt eine CPU, egal ob 8C/16T oder 16C/32T nicht permanent am Maximum (welches Maximum?). Ein bischen logisches Denken und 1+1 zählen kann der Herr auch nicht, dazu zu reibt der Herr irgendwelche Fantasiezahlen wild durcheinander.

Der Mehrwert eines solchen Beitrages ist dann so interessant wie ein umfallender Sack Reis in China.

HOT
2017-03-26, 09:23:18
Leute, das ist nur ne TDP, die haben einfach alle 180W und fertig.

vinacis_vivids
2017-03-26, 09:28:18
Die 180W sind ein Gerücht um den 32C/64T und nicht den 16C/32T

bun
2017-03-26, 10:01:15
Ein völlig sinnbefreiter Beitrag vom obigen Hernn schon wieder, der suggerriert dass der Verbrauch von 2x1700 urplötzlich explodieren würde und man pleite geht durch die Stromkosten.
Man betreibt eine CPU, egal ob 8C/16T oder 16C/32T nicht permanent am Maximum (welches Maximum?). Ein bischen logisches Denken und 1+1 zählen kann der Herr auch nicht, dazu zu reibt der Herr irgendwelche Fantasiezahlen wild durcheinander.

Der Mehrwert eines solchen Beitrages ist dann so interessant wie ein umfallender Sack Reis in China.

Wenn ihr die handvoll Spinner alle mal schön auch auf eure Ignorieren Liste setzen würdet, dann würde meine Ignorieren Liste auch Sinn machen. Die Funktion ist allerdings völlig wertlos wenn ihr die Trolle alle immer Zitiert und Kommentiert.

In dem Sinne - Don't feed the Trolls.

Gipsel
2017-03-26, 13:23:25
Mal zur Einordnung die TDPs und tatsächlichen Verbräuche.
R7-1700: 65W TDP
R7-1700X/1800X: 95W TDP

i7-7700K: 91W TDP
i7-6900K: 140W TDP

https://img.purch.com/w/711/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8zLzgvNjU4NDg0L29yaWdpbmFsLzAzLUdhbWluZy1N ZXRyby1MTC1GSEQtSGVhdnktV29ya2xvYWQtLnBuZw== https://img.purch.com/w/711/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8zLzMvNjU4NDc5L29yaWdpbmFsLzA0LVRvcnR1cmUt TG9vcC5wbmc=

Das Tool, was Igor für extreme Streßtests benutzt, lassen wir mal außen vor (da zieht der 7700K mit seiner 91W TDP bis zu 137W).

Am Ende muß man einfach konstatieren, daß die TDP eine Richtlinie für die Auslegung der Kühler darstellt und nicht für die Auslegung der VRMs auf dem Board und einfach nicht die maximal mögliche Leistungsaufnahme darstellt. Falls man wirklich einen sehr knapp bemessenen Kühler z.B. auf den R7-1700 schnellen würde, ginge vermutlich der Boost nicht ganz so hoch (weil der auch temperaturabhängig ist). Igor hat ja vermutlich mit guter Kühlung gemessen, so daß der 1700er dauerhaft mit allcore-Boost auf 3,2GHz lief und nicht mit seiner Basisfrequenz von 3,0GHz. Bei den 1700X/1800X mit dann Boost auf 3,5 statt 3,4 und 3,7 statt 3,6GHz das Gleiche. Da ist es dann ja zu erwarten, daß man gegebenfalls auch etwas mehr zieht, soll doch gerade der Boost thermischen Spielraum für mehr Performance ausnutzen. Und das machen ganz offenbar alle CPU-Hersteller.

Und um mal wieder auf das Thema zu kommen, es spricht nicht viel dagegen, z.b. einen 1900 als Zwölfkerner mit 3,0/3,7 und 125W TDP und einen 1950X als 16Kerner mit 3,2/4,0 und 150W TDP rauszubringen. Für letzteren muß man dann vielleicht ein wenig sieben, um die 3,2 GHz auf allen Kernen bei 75W pro Die zu halten (Igors 1700er zog ja noch 81W). Aber mit einem Tick weniger Spannung käme man da vermutlich schon hin. Und 3,1GHz Base sollte unkritisch sein.

Edit:
Vielleicht geht man mit dem single/dual-core Boost nicht ganz so hoch wie bei den Achtkernern, auch wenn das kein Problem aus Verbrauchssicht wäre. Aber eventuell haben alle MCM-Modelle (12- bis 32-Kerner) die on-Die-dLDOs aktiviert und die mögen unter Umständen nicht zu große Unterschiede bei den Spannungen zwischen den Kernen. Aber keine Ahnung. Und für den Basistakt ist es ja auch egal.

aceCrasher
2017-03-26, 13:37:54
Die 180W sind ein Gerücht um den 32C/64T und nicht den 16C/32T

https://www.overclock3d.net/news/cpu_mainboard/amd_s_rumoured_180w_16-core_ryzen_part_will_reportedly_run_at_3_1_3_6ghz/1

Hier steht 180W für den 16C/32T.

Gipsel
2017-03-26, 13:44:40
https://www.overclock3d.net/news/cpu_mainboard/amd_s_rumoured_180w_16-core_ryzen_part_will_reportedly_run_at_3_1_3_6ghz/1

Hier steht 180W für den 16C/32T.Vermutlich so zuverlässig wie die früheren Gerüchte für 3,3/3,7GHz für den 1600X. :rolleyes:
Die schreiben eindeutig von Engineering Samples. Das ist nicht final.

vinacis_vivids
2017-03-26, 15:02:26
Neben der Effizienz wird die Infinity Fabric am interessantesten sein, da nun mind. zwei Zeppelin-Dies angeschlossen werden. Und es ist nicht SMT wie hier im Vorfeld spekuliert worden, sondern die bessere Skalierbarkeit durch die Flexibilisierung der Plattform, die Intel meiner Ansicht nach nicht hat und auch nicht mehr aus dem Ärmel zaubern kann.

Unicous
2017-03-26, 16:16:28
Der GDC Vortrag von Kenneth Mitchell und Elliot Kim Optimizing for AMD Ryzen CPU (http://32ipi028l5q82yhj72224m8j.wpengine.netdna-cdn.com/wp-content/uploads/2017/03/GDC2017-Optimizing-For-AMD-Ryzen.pdf)" ist jetzt frei verfügbar.

Schaffe89
2017-03-26, 18:32:44
Ein völlig sinnbefreiter Beitrag vom obigen Hernn schon wieder, der suggerriert dass der Verbrauch von 2x1700 urplötzlich explodieren würde und man pleite geht durch die Stromkosten.

Da explodiert nix, Intel gibt auch 140 Watt fpr den 6900k an , obwohl deren Prozessoren ähnlich viel verbrauchen wie Ryzen (und nur bei AVX auf 140 Watt gehen) und da der Ryzen 1700 je nach Test fast soviel zieht wie die 95 Watt Prozessoren (1700x), wäre 180 Watt TDP nicht allzu unwahrscheinlich bei 3,1 bis 3,6ghz. Sehe vielleicht nicht alles immer als Affront gegen AMD.

TDP heißt nicht Verbrauch, real zieht der dann sicherlich eher was um die 140 Watt.

Der Mehrwert eines solchen Beitrages ist dann so interessant wie ein umfallender Sack Reis in China.

Das ist ein Spekulationsthread mit spekulativen Links und die sprechen von 180 Watt TDP für den 16/32 Thread Prozessor, bisher noch ein Engineering Sample.

Leute, das ist nur ne TDP, die haben einfach alle 180W und fertig.

Eben.

Skysnake
2017-03-26, 18:43:50
Und vor allem hat Intel auch CPUs mit mehr als 200 Watt TDP:rolleyes:

BoMbY
2017-03-27, 01:13:07
Jo, 245W TDP (http://ark.intel.com/de/products/95830/Intel-Xeon-Phi-Processor-7290-16GB-1_50-GHz-72-core) hab ich so auf die schnelle gefunden - gut der hat dafür auch 72 x86 Kerne ...

TGKlaus
2017-03-27, 01:21:26
Intel gibt auch 140 Watt fpr den 6900k an (und nur bei AVX auf 140 Watt gehen)

Die 140W bei AVX wurden aber beim i7-7700k gemessen.
Der 6900K legt da noch ein paar Schippen mehr drauf.

Gipsel
2017-03-27, 08:47:42
Jo, 245W TDP (http://ark.intel.com/de/products/95830/Intel-Xeon-Phi-Processor-7290-16GB-1_50-GHz-72-core) hab ich so auf die schnelle gefunden - gut der hat dafür auch 72 x86 Kerne ...
Komm schon! Der mit 260W (http://ark.intel.com/de/products/95831/Intel-Xeon-Phi-Processor-7290F-16GB-1_50-GHz-72-core) stand doch direkt darunter.
Auf dem gleichen Sockel (LGA 3647) kommen übrigens demnächst die Skylake EP/EX (oder heißt es jetzt SP?) mit bis zu 32Kernen. Gerüchteweise auch mit bis zu 200+W TDP. Der SP3-Sockel für Naples ist übrigens physisch gesehen wohl noch einen Tick größer (mehr PCIe Lanes, 2 Speicherkanäle mehr => LGA 4094). Von dem lassen sich also im Prinzip auch >200W locker wegkühlen.

==============================

Die 140W bei AVX wurden aber beim i7-7700k gemessen.
Der 6900K legt da noch ein paar Schippen mehr drauf.So viel legt der nicht drauf, wenn man ihn nicht zwingt, mit gleicher Frequenz weiterzulaufen. Die takten sich bei AVX-Code nicht umsonst normalerweise runter. Wenn das per BIOS-Setting verhindert wird, okay, dann ziehen sie schon ganz ordentlich.

Skysnake
2017-03-27, 09:17:28
Ja ich bin gespannt, was passiert, wenn die Leute die TDP von den großen Skylakes sehen und vor allem die Preise ;)

Die Diskussion bezüglich der TDP ist in meinen Augen etwas scheinheilig. Wenn man die doppelte Performance rausbekommt, darf das Ding auch das doppelte ziehen.

Die Leute sollten sich an sich nochmals klar machen, das es selbst bei 200+ Watt 1U Lösungen gibt. Gut, das ist dann schon wirklich langsam ziemlich problematisch, aber es geht.

Jetzt überlegt mal, wie groß Desktop-Kühler dagegen sein können.... Klar, absolut silent wird das dann nicht mehr, aber eine passende GPU ist auch nicht silent...

Die Leute vergessen glaube ich, dass die DIE-Size extrem ansteigt bei den hohen TDPs. Sprich die Verlustleistung pro Fläche ist gar nicht höher als bei nem i7-7700K. Eher wahrscheinlich sogar niedriger, was die Sache an sich leichter kühlbar macht, so lange man genug Kühlfläche hat.

Hübie
2017-03-27, 09:44:18
Ich sehe da ebenfalls absolut kein Problem, solang es in Leistung umgesetzt wird. Und nein: Leistung muss nicht laut sein. Siehe 1080 Ti von MSI oder TXP mit einem Acc Hybrid für 100 €. ;)

dildo4u
2017-03-27, 09:52:34
Ryzen CCX Performance: 2+2 vs. 4+0

https://youtu.be/Rhj6CvBnwNk

dargo
2017-03-27, 10:01:58
Lol... also praktisch völlig belanglos. Ich frage mich was die PCGH da wieder bei BF1 (in anderen Games war der Unterschied praktisch auch unwichtig) mit ~10% gemessen hat? Selbst in dem Video kommt man isoliert in BF1 auf Null Unterschied bei den min.fps und 1% Time.

https://abload.de/img/bf1fdufp.jpg

Aber Hauptsache es schon als Fakt abstempeln die CCX-Verbindung würde stark limitieren. :rolleyes:

Der einzige Unterschied den ich hier sehe ist, dass im Video DDR4-2667 verwendet wurde, die PCGH aber nur DDR4-2133 genommen hat.

PS: Far Cry: Primal braucht definitiv einen Ryzen Patch. :D

https://abload.de/img/fc43ug4.jpg

vinacis_vivids
2017-03-27, 10:30:17
Der PCGH Kram ist uralt, den kann man nicht mehr ernst nehmen, verstehe nicht wieso der hier gebetsartig wiederholt wird.
Auch die These 4+0 sei in Games prinzipiell schneller als 2+2 wegen der CCX-Connection hat keinerlei Basis und ist lediglich ein alter Stand des Irrtums.

Dass der 7700k, DIE top top top Gamer CPU sein soll, halte ich eher für ein Gerücht.

dildo4u
2017-03-27, 10:38:02
Bei BF1 kann er es ja nachweisen.Logischerweise spielt es bei der Konfig weniger eine Rolle,als wenn 4 vs 4 Core's um die Bandbreite streiten.
Aber gut für AMD würde ich sagen,da die Masse eh keine 8 Cores kauft und Intel sich weigert SMT in i5's zu verbauen.

dargo
2017-03-27, 10:43:01
Bei BF1 kann er es ja nachweisen.Logischerweise spielt es bei der Konfig weniger eine Rolle,als wenn 4 vs 4 Core's um die Bandbreite streiten.

Was für Bandbreite? Speicher lässt sich nach oben skalieren, der Speed der CCX-Verbindung steigt damit auch 1:1 mit. Und beim L3 hat afaik der Quadcore eh nur die Hälfte.

Tru
2017-03-27, 10:44:41
Der Skalierungstest wird in der nächsten Ausgabe 05/2017 wiederholt. Mit DDR4-2400 (AFAIK Dual-Ranked [Summit Ridge profitiert extrem von Dual-Ranked]) liegt der Unterschied zwischen 2+2 und 4+0 in BF1 (Multiplayer, 64 Spieler) immer noch bei 10 %. In Wildlands läuft die 2+2-Konfiguration übrigens minimal schneller.

dargo
2017-03-27, 10:49:32
Der Skalierungstest wird in der nächsten Ausgabe 05/2017 wiederholt. Mit DDR4-2400 (AFAIK Dual-Ranked [Summit Ridge profitiert extrem von Dual-Ranked]) liegt der Unterschied zwischen 2+2 und 4+0 in BF1 (Multiplayer, 64 Spieler) immer noch bei 10 %. In Wildlands läuft die 2+2-Konfiguration übrigens minimal schneller.
What? :|

y33H@
2017-03-27, 11:30:57
Ja, wie schon bei Kaveri scheint Rank-Interleaving ein paar Prozent zu bringen. DDR4-2667 CL16 DR ist so schnell wie oder flotter als DDR4-3200 CL16 SR.

Schaffe89
2017-03-27, 11:52:13
Der PCGH Kram ist uralt, den kann man nicht mehr ernst nehmen, verstehe nicht wieso der hier gebetsartig wiederholt wird.

Festzuhalten ist, dass es ja nach Spiel schon etwas kosten kann. Um das ordentlich zu testen braucht es aber mehr Spiele als bei Hardwareunboxed die sich dafür eignen (CPU Limit).
So wie das aussieht kostet es bei Hardwareunboxed 1 bis 4%, zumindest in den Benchmarks die was taugen.

Auch die These 4+0 sei in Games prinzipiell schneller als 2+2 wegen der CCX-Connection hat keinerlei Basis

Klar hat das eine Basis.Wird doch auch bei Hardwareunboxed und PCGH bestätigt, auch wenn die Unterschiede nur minimal sind.

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Tests/Test-Review-1222033/

Hier ist 2+2 immer langsamer als 4+0, im Mittel so 7%.

Aber Hauptsache es schon als Fakt abstempeln die CCX-Verbindung würde stark limitieren. :rolleyes:

Von stark limitieren ist ja auch nicht die Rede sondern nur von "etwas".

Setsul
2017-03-27, 12:03:14
Dass SMT auch Performance kosten kann, ist nicht neu und selbst bei aktuellen Intel-CPUs etwa in Far Cry 4 zu beobachten. Doch Ryzen scheint, wahrscheinlich aufgrund erhöhter Inter-CCX-Kommunikation, hiervon stärker betroffen zu sein.
Was ist denn das für eine schwachsinnige Begründung?


Mal nebenbei ist den Leuten klar, dass egal ob 2+2 oder 4+0 alle Daten aus dem RAM den gleichen Weg gehen müssen, solange man Dual Channel will?

BoMbY
2017-03-27, 14:39:37
Ja, wie schon bei Kaveri scheint Rank-Interleaving ein paar Prozent zu bringen. DDR4-2667 CL16 DR ist so schnell wie oder flotter als DDR4-3200 CL16 SR.

Das ist auf jeden Fall eine interessante Geschichte. Hier ist ein Kaveri-RAM-Rank-Test von CB aus dem Jahre 2014. (https://www.computerbase.de/2014-01/amd-kaveri-arbeitsspeicher/2/)

Wäre trotzdem wünschenswert wenn die Dual-Rank-Module auch mal mit mehr als 2.666 MHz bei Ryzen laufen würden.

y33H@
2017-03-27, 14:46:53
Das ist halt das Problem, ich sehe daher momentan hier DDR4-3200 SR CL14 in Front.

dargo
2017-03-27, 14:47:51
Ja, wie schon bei Kaveri scheint Rank-Interleaving ein paar Prozent zu bringen. DDR4-2667 CL16 DR ist so schnell wie oder flotter als DDR4-3200 CL16 SR.
Oh man... noch mehr Chaos. :D Bisher schaute ich mich bloß Richtung SS um. Nun also doch eher Richtung DS? :crazy:

Niall
2017-03-27, 14:57:07
Oh man... noch mehr Chaos. :D Bisher schaute ich mich bloß Richtung SS um. Nun also doch eher Richtung DS? :crazy:

Thehehe, same here. :D
Schaue derzeit nach einem Kit welches sowohl auf dem aktuellen X99 Board sauber läuft (Quad), weiterhin unter X370 (Dual) und bestenfalls auch auf kommendem Chipsatz mit dem mutmaßlichen 12/16-Core (Vermutlich Quad).
Am besten einfach die Füße still halten, oder einfach 4 2666er DR und gut is'. :freak:

Schnoesel
2017-03-27, 15:17:38
Hmm mein Speicher läuft sogar DR@2666. Das soll jetzt so gut sein wie SR@3000+? Wie das, mich würden da glatt mal die Hintergründe interessieren. Ich bilde mir auch eine Mehrperformance von 2133 auf 2666 ein.

user0815
2017-03-27, 15:19:38
Infinity Fabric profitiert allerdings vom hoeheren Ramtakt (zumindest theoretisch).

vinacis_vivids
2017-03-27, 17:08:28
Nicht theoretisch, sondern recht praktisch profitiert die Infinity Fabric vom höheren Eigentakt. Der Effekt vom höheren Ramtakt ist sekundär.

Armaq
2017-03-27, 18:40:32
Mal zur Einordnung die TDPs und tatsächlichen Verbräuche.
R7-1700: 65W TDP
R7-1700X/1800X: 95W TDP

i7-7700K: 91W TDP
i7-6900K: 140W TDP

https://img.purch.com/w/711/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8zLzgvNjU4NDg0L29yaWdpbmFsLzAzLUdhbWluZy1N ZXRyby1MTC1GSEQtSGVhdnktV29ya2xvYWQtLnBuZw== https://img.purch.com/w/711/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8zLzMvNjU4NDc5L29yaWdpbmFsLzA0LVRvcnR1cmUt TG9vcC5wbmc=

Das ist mal richtig interessant. Je mehr ich über Ryzen lese, desto mehr will ich ihn. Das ist einfach ne Knaller-CPU. Je intensiver die Tests werden, desto mehr gefallen finde ich an der Architektur. Jetzt muss ich mich so langsam um Mobo und RAM kümmern ...

Knuddelbearli
2017-03-27, 18:47:15
Nicht theoretisch, sondern recht praktisch profitiert die Infinity Fabric vom höheren Eigentakt. Der Effekt vom höheren Ramtakt ist sekundär.


Was macht dich da so sicher? AMD profitiert nicht stärker als Intel wo eine solche ( angebliche ) Limitation nicht vorliegt.

vinacis_vivids
2017-03-27, 18:54:39
Was macht dich da so sicher? AMD profitiert nicht stärker als Intel wo eine solche ( angebliche ) Limitation nicht vorliegt.

AMDs Gesamtplattform mit dem Zen-Core skaliert deutlich besser als Intel. Das habe ich schon vor dem Release gesagt. Einer der wesentlichen Gründe ist die Infinity Fabric und nicht der RAM.

Schaffe89
2017-03-27, 19:14:42
AMDs Gesamtplattform mit dem Zen-Core skaliert deutlich besser als Intel. Das habe ich schon vor dem Release gesagt. Einer der wesentlichen Gründe ist die Infinity Fabric und nicht der RAM.

Schneller Ram bringt aber auch hier einiges (20% mehr Minimum FPS in dem eher GPU limitierten Szenario) und schließt die Lücke in jedem getesteten Spiel zum 7700k, vor allem in BF1 bringt das viel. Das passt genau zu den 2+2 vs 4+0 Benchmarks von PCGH.
RZS2XHcQdqA

Was du mit Skalierung in obigen Fall meinst, bleibt mir ein Rätsel. Für sehr gute Gamingperformance braucht es bei Zen jedenfalls teuren und schnellen Ram oder eben mehr Bios Updates für Ram OC.
Wenn man jetzt übertreiben will, dann zeigt obiges Review dass man auf jeden Fall 3600mhz Ram einplanen sollte, ansonsten ist man klar hinter dem 7700k.
Naja was heißt übertreiben die Unterschiede sind schon immens.

Heißt auch, wenn AMD noch gewartet hätte und sichergestellt hätte, dass jedes Review mit 3200mhz oder mehr Clockspeed bei relativ guten Timings läuft, gäbe es es kaum Reviews die die geringere Spieleperformance angemahnt hätten. AMD hat sich also auch hier wieder selbst ein Bein gestellt. Unfassbar bei so einem wichtigen Release, dass die nicht einen Launch mal sauber koordiniert bekommen. Mal eben so 15/20% verschenkt, geiles Ding.:facepalm:

vinacis_vivids
2017-03-27, 19:20:30
Ist das jetzt dein ernst Schaffe? Wo bleiben deine 30% "gap" der uber Gaming CPU 7700k? :D

Schaffe89
2017-03-27, 19:36:39
Ist das jetzt dein ernst Schaffe? Wo bleiben deine 30% "gap" der uber Gaming CPU 7700k? :D

Die 28% Gap die das 3D Center zwischen Ryzen 7 1700 und dem 7700k fürs gleiche Geld ermittelt hat, dürfte 3600 Ram bestimmt auch bei Stock Taktraten auf 15% reduzieren, aber ist halt AMD, die können komplexe CPU´s bauen, aber nicht launchen. Und wenn hierfür nicht der eingekaufte Infinity Fabric mindestens die Hälfte der Hauptschuld trägt, was soll sonst in Frage kommen, aber laut dir ist der ja so toll. Frag mich eigentlich warum, hält er doch die Ryzen CPU´s von einer hervorragenden Leistung ab, die man durch sehr schnellen Ram korrigieren muss.

Knuddelbearli
2017-03-27, 19:37:15
AMDs Gesamtplattform mit dem Zen-Core skaliert deutlich besser als Intel. Das habe ich schon vor dem Release gesagt. Einer der wesentlichen Gründe ist die Infinity Fabric und nicht der RAM.


Sorry versteh deine Aussage nicht.

Wie gesagt woher schließt du das der Boost durch die Beschleunigung der CCX kommt und nicht einfach allgemein wie bei Intel durch die Mehrperformance des Speichers.

Wie gesagt AMD profitiert nicht deutlich besser von schnelleren Speicher als Intel ( nämlich von ca 0 bis 10% von 2400 auf 3200 )

vinacis_vivids
2017-03-27, 19:47:20
Wir werden sehen ob in Zukunft der MEMCLK vom DFICLK abgekoppelt wird. Nur dann kann man auch den Einfluß der Infinity Fabric klar vom Ram trennen.

Bei Mass Effekt Andromeda sind es bei Ryzen von 2133 auf 3600 ~ +40% min fps.
Bei Watch Dogs +43%
https://abload.de/img/tvtkbtbbxybg.jpg

Schaffe89
2017-03-27, 19:58:53
Intel ( nämlich von ca 0 bis 10% von 2400 auf 3200 )

Kommt drauf an was du vergleichst. Wenn du die X GPU limitierten Szenarien von den Redaktionen die nicht messen können anschaust, dann wirds sicherlich nix helfen, aber so wie ich das sehe, sind das keine 10%, sondern eher 20, teils 25%, siehe obiges Video.
Das ist zwar kein ordentliches CPU Limit überall, dafür sind 0,1% und 1% Lows angegeben die skalieren nunmal enorm nach oben.

HT4u hat auch teilweise mit GPU Limit gemessen, dort sinds aber auch satte 12% bei den AVG FPS. Mit 3200 Ram
Im absoluten CPU limit sind es garantiert 20% oder mehr. Das ist imho schon viel.

Knuddelbearli
2017-03-27, 20:00:25
Vergleichsmessungen mit Intel?
Wobei 2133 auf 3600 ja schon ordentlich ist, aber an eine beinahe Lineare Skalierung kann ich doch kaum glauben. 2133 CL13 vs 3200 mit Cl14 kommt mir auch Arschlahm vor. Vor allem da man auch sieht das 3600 mit CL16 dann kaum noch was bringt. Sieht mir eher nach guter Skalierung mit der Zugriffsgeschwindkeit aus, was aber dem CCX nichts bringen dürfte.

vinacis_vivids
2017-03-27, 20:11:15
Guck doch mal bei Crysis 3 und GTA V bei Intel. Beim 7700k würde 5000Mhz RAM auch nichts mehr bringen, was soll man da groß Vergleichen? Die min fps. drops liegen ganz sicher nicht am Ramspeed, weil 3200Mhz@CL14 nicht langsam ist.

Ryzen dagegen zünden richtig mit hohem Ramtakt, nicht wegen der Ram-Latenz oder Durchsatz an sich, weil 3200Mhz@CL14 prinzipiell sogar schneller sein sollten als 3600Mhz@CL16, sondern wegen dem gekoppelten DFICLK, der ja dann mit 1600Mhz dann respektive 1800Mhz taktet.

Mich interessieren noch weitere Zahlen >3600Mhz vllt. sogar mit 4000Mhz++, weil Ryzen bisher kein Limit nach oben kennt.

Knuddelbearli
2017-03-27, 20:24:28
Guck doch mal bei Crysis 3 und GTA V bei Intel. Beim 7700k würde 5000Mhz RAM auch nichts mehr bringen, was soll man da groß Vergleichen? Die min fps. drops liegen ganz sicher nicht am Ramspeed, weil 3200Mhz@CL14 nicht langsam ist.

Ryzen dagegen zünden richtig mit hohem Ramtakt, nicht wegen der Ram-Latenz oder Durchsatz an sich, weil 3200Mhz@CL14 prinzipiell sogar schneller sein sollten als 3600Mhz@CL16, sondern wegen dem gekoppelten DFICLK, der ja dann mit 1600Mhz dann respektive 1800Mhz taktet.

Mich interessieren noch weitere Zahlen >3600Mhz vllt. sogar mit 4000Mhz++, weil Ryzen bisher kein Limit nach oben kennt.

Verstehe die Argumentation nicht. Woher soll man wissen wie Intel beim Ram reagiert wenn dort kein Vergleich ist? Eventuell wird er zB in crysis 3 mit langsamen Ram noch lahmer?

kunibätt
2017-03-27, 21:23:07
Was ist wichtiger:Latenz oder Durchsatz?

vinacis_vivids
2017-03-27, 21:26:37
Verstehe die Argumentation nicht. Woher soll man wissen wie Intel beim Ram reagiert wenn dort kein Vergleich ist? Eventuell wird er zB in crysis 3 mit langsamen Ram noch lahmer?

Ja, das Video handelt auch von Ryzen@Ram und der Intel wurde auch mit gutem Ram ausgestattet. Bei Crysis 3 liegt der Intel mit 3200Mhz Ram bei min fps. 59 und Ryzen mit 2133 Mhz bei 86,6fps. Das sind knapp 50% schneller beim Ryzen mit langsameren! Ram. Daher hab ich gesagt, dass Intel auch mit 5000Mhz Ram nicht mehr aufholen kann, da braucht man auch nicht testen.

dargo
2017-03-27, 21:35:29
Wir werden sehen ob in Zukunft der MEMCLK vom DFICLK abgekoppelt wird. Nur dann kann man auch den Einfluß der Infinity Fabric klar vom Ram trennen.

Bei Mass Effekt Andromeda sind es bei Ryzen von 2133 auf 3600 ~ +40% min fps.
Bei Watch Dogs +43%
https://abload.de/img/tvtkbtbbxybg.jpg
Vorsicht bei diesen Benchmarks und offenbar nicht reproduzierbaren min.fps!

Am Beispiel von WD2... DDR4-2666 mit sogar minimal höreren Timings legt gegenüber DDR4-2133 um 31% zu. Das ist bei 25% mehr Bandbreite unmöglich. 1% wird da schon eher aussagekräftiger sein.

BlacKi
2017-03-27, 21:39:09
Was ist wichtiger:Latenz oder Durchsatz?
durchsatz! aber die latenzen haben auch auswirkung. 3200cl16 sind 3000cl15 etwas vorzuziehen.

basix
2017-03-27, 21:45:01
Es gibt schon ein paar Spiele, die gut auf schnellen RAM bei Kaby Lake reagieren. Tomb Raider und Witcher 3 mit ca. +20% bei 3000MHz vs. 2133MHz. Andere Spiele ca. +10% (Far Cry Primal, ARMA 3). Andere wiederum gar nicht. Es ist leider schwer was mit minimum FPS oder Percentiles zu finden.
http://www.eurogamer.net/articles/digitalfoundry-2017-intel-kaby-lake-core-i7-7700k-review
http://techreport.com/review/31179/intel-core-i7-7700k-kaby-lake-cpu-reviewed/11
http://www.gamersnexus.net/game-bench/2677-bf1-ram-benchmark-frequency-8gb-enough/page-2

Für mich sieht es aber danach aus, als ob bei KabyLake >3200MHz nicht mehr viel passieren wird. Der Unterscheid 2400MHz vs. 2133MHz bringt meistens ähnlich viel oder gar mehr als 3000MHz vs. 2400MHz. Bei Ryzen sieht es ja ähnlich aus, ausser dass das Scaling etwas stärker ist und ein wenig höher geht was RAM Frequenzen betrifft.

Haswell-E skaliert nochmals wesentlich schlechter mit dem RAM. Dort hat man einfach vor allem mehr Cache. Meiner Meinung nach liegt es eben im Allgemeinen nicht nur an der Bandbreite sondern zur Hälfte auch an der reduzierten Latenz (und dass das bei Games Wunder wirkt sollte man spätestens seit dem i7 5775C wissen). Bei Ryzen eben nochmals stärker als normal wegen der CCX Kommunikation via InfinityFabric. So riesig sehe ich den Unterschied zwischen Kaby Lake und Ryzen allerdings nicht, wenn man RAM Speed #1 vs RAM Speed #2 vergleicht. Obs jetzt nur am RAM oder hauptsächlich am InfinityFabric hängt ist allerdings schwer zu sagen, da ja beide miteinander gekoppelt sind. Die Indizien sprechen aber schon eher für InfinityFabric.

vinacis_vivids
2017-03-27, 21:56:30
Vorsicht bei diesen Benchmarks und offenbar nicht reproduzierbaren min.fps!

Am Beispiel von WD2... DDR4-2666 mit sogar minimal höreren Timings legt gegenüber DDR4-2133 um 31% zu. Das ist bei 25% mehr Bandbreite unmöglich. 1% wird da schon eher aussagekräftiger sein.

Die *hics* beim 7700k werden häufiger kommen und das ist sicher wie das Amen in der Kirche.
Da erinnere ich mich wieder an den Releasetest, wo ein Reviewer schon bei GTA V und Bf1 das droppen des 7700k bemerkt hatte während Ryzen absolut smooth läuft.
GTA V wurde ja von Intel-Hardliner verschrien als nicht "reproduzierbar", vollkommener Quatsch.
Das ist Reproduktion in reinster Form und eine bessere Bestätigung gibs es nicht, Zahlen untermauern diese gemachte Erfahrung nur noch.

Schaffe89
2017-03-27, 21:58:15
Vorsicht bei diesen Benchmarks und offenbar nicht reproduzierbaren min.fps!.

Sind weitgehend verifiziert durch keinen einzigen anliegenden Wert sondern der 1% low Angabe und der glasklaren durchgehenden Skalierung nach oben mit mehr Ramtakt in sogut wie jedem Spiel. Die 0,10% sind wurscht, ich nehme mal an die Benchszene wird nicht ewiglang sein, von daher sind die 0,1% wohl die klassischen Minimum FPS.


Aber hier haben wir es wieder. Gäbe es gescheite Tester die ordentlich messen würden, dann würde man die 1% Minimum FPS nicht benötigen um die Skalieurung zu sehen. Jetzt gibt es immer mehr Reviewer aber die Qualität des Contents geht einfach mal sowas von nach unten und auch die deutschen Seiten HT4U, Toms Hardware, HWL messen was CPU Spieleperformance angeht einfach nur Grütze, wovon man dann auch nix ableiten kann.
Und wenn ich CB bei deren Skalierungsbenchmark mit schnelleren Ram sehe (Full HD ohne 1% Lows oder Minimum FPS), dann fällt mir dazu auch nicht mehr viel ein.
Ryzen ist ne sehr gute Spiele CPU mit ordentlich Ramtakt, dann wird mein 6700k doch ersetzt werden. :)

dargo
2017-03-27, 22:06:44
Sind weitgehend verifiziert durch keinen einzigen anliegenden Wert sondern der 1% low Angabe und der glasklaren durchgehenden Skalierung nach oben mit mehr Ramtakt in sogut wie jedem Spiel.

Was ist denn daran verifiziert? Nochmal... bei den min.fps sind es in WD2 +31% bei +25% mehr Bandbreite. Einfach mal Kopf einschalten. Bei 1% sind es bei +25% mehr Bandbreite dann noch +9% Leistung, was schon deutlich glaubhafter ist.

Edit:
Es gibt eigentlich hier nur zwei Möglichkeiten.

1. Nicht gut reproduzierbare min.fps.
2. Die Grundlast schlägt bei den min.fps durch. Wäre bei recht tiefen 34.1fps nicht ganz unmöglich. Somit könnte schnellerer Speicher überproportional (sprich mehr als 1:1) skalieren.

Schaffe89
2017-03-27, 22:10:10
Einfach mal Kopf einschalten. Bei 1% sind es bei +25% mehr Bandbreite dann noch +9% Leistung, was schon deutlich glaubhafter ist.

Ich rede doch von den 1% Lows, in jedem meiner Beiträge, logisch dass ein einziger Wert (minimum FPS) nicht der Weisheit letzter Schluss ist, die 1% Lows sind aber definitiv ein sehr guter Gradmesser.
Wieso dein Einwand zur Vorsicht? Selbst die 0,10% Lows zeigen ein ziemlich konsistentes Bild und zwar nach oben. (Einmal ist die Skalierung zu wild, ja).

dargo
2017-03-27, 22:12:14
Ok, dann haben wir aneinander vorbei geredet.


Wieso dein Einwand zur Vorsicht?
Wegen der ~40% besseren Frames.

basix
2017-03-27, 22:17:50
Was ist denn daran verifiziert? Nochmal... bei den min.fps sind es in WD2 +31% bei +25% mehr Bandbreite. Einfach mal Kopf einschalten. Bei 1% sind es bei +25% mehr Bandbreite dann noch +9% Leistung, was schon deutlich glaubhafter ist.

Würde ich nicht zu 100% unterschreiben. Bleibt irgendwo ein Task hängen oder etwas anderes wird vom OS eingeschoben, kann das schon überproportional skalieren, ganz speziell bei den 0.1% Low. Es geht ja hier um Frametimes, bei kurzen Benchsequenzen sind das vielleicht 1-2 Frames. In den meisten Fällen hast du aber definitv recht ;)

TGKlaus
2017-03-28, 01:16:40
Der Skalierungstest wird in der nächsten Ausgabe 05/2017 wiederholt. Mit DDR4-2400

Machst mit 2667 oder lassts bleiben.
Nach der 2133 Idiotennummer muss nicht noch ein zweites "fischen im Gruenen" verkauft werden.

Armaq
2017-03-28, 10:08:55
Aber hier haben wir es wieder. Gäbe es gescheite Tester die ordentlich messen würden, dann würde man die 1% Minimum FPS nicht benötigen um die Skalieurung zu sehen. Jetzt gibt es immer mehr Reviewer aber die Qualität des Contents geht einfach mal sowas von nach unten und auch die deutschen Seiten HT4U, Toms Hardware, HWL messen was CPU Spieleperformance angeht einfach nur Grütze, wovon man dann auch nix ableiten kann.
Und wenn ich CB bei deren Skalierungsbenchmark mit schnelleren Ram sehe (Full HD ohne 1% Lows oder Minimum FPS), dann fällt mir dazu auch nicht mehr viel ein.
Ryzen ist ne sehr gute Spiele CPU mit ordentlich Ramtakt, dann wird mein 6700k doch ersetzt werden. :)
Das ist aber nicht ganz fair. Auch die neueren Tests basieren ja auf Erkenntnissen von den vorher gemachten Tests. Auch die Youtuber lesen die einschlägigen Foren und durch die Diskussion entstehen ja auch Erkenntnisse.
Das 1-2 Mann in 3 Tagen nicht soviel produzieren können wie das WWW in mehreren Wochen ist doch auch klar.

Ich würde mir von unseren bekannten Gesichtern einen Refresh oder ein Artikel mit tiefergehender Analyse wünschen, wo diese Erkenntnisse auch ins breite Publikum getragen werden. Zen ist eine mehr als würdige Architektur und man hat nicht nur Anschluss gewonnen, sondern ein klaren P/L Sieger, eine CPU die schnellen RAM liebt und mit ihm skaliert, eine sehr energieeffiziente Lösung im Vergleich zur Konkurrenz und das alles wie ein Phönix aus der Asche geholt. Chapeau AMD.

vinacis_vivids
2017-03-28, 10:46:54
Ich würde mir von unseren bekannten Gesichtern einen Refresh oder ein Artikel mit tiefergehender Analyse wünschen, wo diese Erkenntnisse auch ins breite Publikum getragen werden.

+1
Ich denke du erhoffst dir da zuviel. Vielleicht schaffen das ein paar Tester, aber beim breiten Publikum habe ich da meine Zweifel. War nie anders gewesen und würde mich wundern, wenn es ausgerechtet diesmal so sein sollte.

*Red Bull verleiht Flügel* sag ich da nur :P

robbitop
2017-03-28, 12:24:37
Das mit den 1% Low Werten finde ich richtig gut. Das sind minFPS done right. (sofern beim Benchen auch pro Wert wenigstens 3..4 Durchläufe + sanity check gemacht werden!)

Somit könnte man sogar anständige Testresultate für CPU Tests bei höheren Auflösungen bekommen.

Die 1 % low Werte sind wesentlich wertvoller als AVG, weil sie dann auch etwas über die worst case Spielbarkeit -> "smoothness" sagen.

Die 0,1 % Werte sind dann die klassischen minFPS (selten reproduzierbar und häufig sehr eingeschränkte Aussagekraft).

Pirx
2017-03-28, 12:33:05
+1
Ich denke du erhoffst dir da zuviel. Vielleicht schaffen das ein paar Tester, aber beim breiten Publikum habe ich da meine Zweifel. War nie anders gewesen und würde mich wundern, wenn es ausgerechtet diesmal so sein sollte.

*Red Bull verleiht Flügel* sag ich da nur :P
Dazu wäre es aber wirklich gut, wenn ausgereifte Agesa/Bios-Versionen vorlägen. Erst dann ist _eine_ Grundlage für gute Tests vorhanden (Softwareanpassungen werden ja dauern). AMD sollte hier alles dransetzen was geht. So, wie es aber aussieht, werden auch die R5-Tests mit einem suboptimalen Bios auskommen müssen.

y33H@
2017-03-28, 12:35:33
Machst mit 2667 oder lassts bleiben.
Nach der 2133 Idiotennummer muss nicht noch ein zweites "fischen im Gruenen" verkauft werden.DDR4-2400 DR ist schneller als DDR4-2667 SR (zumindest bei gleichen Latenzen).

Th3o
2017-03-28, 12:44:28
@y33H@
Ich wollte eigentlich 32 GB verbauen, bin aber wegen der derzeitigen BIOS Probleme und der hohen Preise am überlegen erstmal nur 2x4 GB zu verbauen. Welchen Ram würdest Du dann empfehlen?

mboeller
2017-03-28, 12:46:43
DDR4-2400 DR ist schneller als DDR4-2667 SR (zumindest bei gleichen Latenzen).

es ging aber darum das Tru für den neuen Test DDR4-2667 DR verwenden sollte und nicht DDR4-3200 SR oder eben DDR4-2400 DR.

Hübie
2017-03-28, 13:46:22
Das mit den 1% Low Werten finde ich richtig gut. Das sind minFPS done right. (sofern beim Benchen auch pro Wert wenigstens 3..4 Durchläufe + sanity check gemacht werden!)

Somit könnte man sogar anständige Testresultate für CPU Tests bei höheren Auflösungen bekommen.

Die 1 % low Werte sind wesentlich wertvoller als AVG, weil sie dann auch etwas über die worst case Spielbarkeit -> "smoothness" sagen.

Die 0,1 % Werte sind dann die klassischen minFPS (selten reproduzierbar und häufig sehr eingeschränkte Aussagekraft).

This!
Genau das dachte ich beim Video. Es wurde nur nicht gesagt ob drei Durchläufe gemacht werden (oder ich hab's überhört). Auch gut: Nur savegames, keine ingame Benchmarks.

Nakai
2017-03-28, 14:26:27
This!
Genau das dachte ich beim Video. Es wurde nur nicht gesagt ob drei Durchläufe gemacht werden (oder ich hab's überhört). Auch gut: Nur savegames, keine ingame Benchmarks.

Dass man so gute Min-FPS-Werte hat, ist sehr zu begrüßen.

Ich vermute, Zen wird in Zukunft bei Spielen ordentlich zulegen. Sobald die Spieleentwickler sich etwas auf die Architektur einstellen und deutlich mehr auf Multi-Threading gehen, wird Zen deutlich besser dastehen.

Nur zur Info, Zen mag zwar in Spielen derzeit schwächer dastehen, aber Zen wird für Intel ein größeres Problem sein in Zukunft, als viele derzeit denken. ;)

TGKlaus
2017-03-28, 16:55:30
DDR4-2400 DR ist schneller als DDR4-2667 SR (zumindest bei gleichen Latenzen).

Auf Grund der Auswirkungen z.B. Infinity Fabric hätte ich gerne einen Beweis!

G3cko
2017-03-28, 17:25:50
Die Diskussion um Min-fps habe ich noch nie verstanden. Da werden in einer benchmarksequenz z.B 30000 Bilder berechnet (5min, 100fps) und irgendwo gibt's einen kurzen stotterer verursacht durch eine langsamme Festplatte, einen sack in China, what ever... Und dieser einmalige, daher nie reproduzierbare absolute Wert wird als Vergleich herangezogen.

Absolut lächerlich.

Genauso sinnlos sind +100fps Ergebnisse in älteren Benchmarks. Man nehme mal als Beispiel ein uraltes Q3 wo jede CPU heute 999fps und mehr schafft. Das intressiert keine Sau, da der Entwickler bei 60-100fps auf damals aktueller Hardware aufgehört hat da Zeit und Geld für Optimierungen reinzustecken.

Im umkehrschluss bedeutet das nicht, dass 720p Benchmarks sinnlos sind, sondern dass man sich aktuelle Software angucken muss. Ein GTA5 wurde für 3 Kerne + SMT entwickelt. Schaut man sich ein BF1 an oder andere aktuelle Titel gib es sehr wohl eine immer bessere skalierung und dann schneidet Ryzen auch deutlich besser ab.

Benchmarks sind halt das eine, sie zu beurteilen das andere.

Schaffe89
2017-03-28, 19:36:12
Das ist aber nicht ganz fair. Auch die neueren Tests basieren ja auf Erkenntnissen von den vorher gemachten Tests. Auch die Youtuber lesen die einschlägigen Foren und durch die Diskussion entstehen ja auch Erkenntnisse.
Das 1-2 Mann in 3 Tagen nicht soviel produzieren können wie das WWW in mehreren Wochen ist doch auch klar.

Das meine ich doch gar nicht. Den Aufwand innerhalb ein paar Tagen was auf die Beine zu stellen ist enorm, grade deswegen böte es sich an, sinnvolle Tests zu bringen, die im Grunde auch weniger Zeit kosten.
CB benchmarkt ihre Prozessoren beispielsweise in FUll HD und 720p, Full HD kannst du weglassen, da verschwendete Zeit und ne Info ziehst du dir daraus nicht, genausowenig wenn du nur in Full HD eine Titan X Pascal testest und diese dann durch die CPU ausgebremst wird. (Full HD hätte ich ebenso bei den High End Karten weggelassen und in einen späteren Artikel bei Bedarf gepackt).

Da werden in einer benchmarksequenz z.B 30000 Bilder berechnet (5min, 100fps) und irgendwo gibt's einen kurzen stotterer verursacht...

Genau deswegen gibt es jetzt die 1% Lows die das ganze vernünftig abbilden.

Ein GTA5 wurde für 3 Kerne + SMT entwickelt. Schaut man sich ein BF1 an oder andere aktuelle Titel gib es sehr wohl eine immer bessere skalierung und dann schneidet Ryzen auch deutlich besser ab

Du läufst aber immer Gefahr nur die Benchmarks zu bewerten die Mehrkernfähig sind und die anderen unter den Tisch zu kehren.
Es kommen in der sboluten Mehrzahl auch neue Spiele heraus die von mehr als 4 Kernen nichts wissen wollen, die Spiele die gut skalieren sind eine Hand voll.

Crysis 3, BF1, Watchdogs2 , For Honor, Dishonered2 Formel 1 2016
Das war eigentlich schon die ganze Palette.
Wildlands skaliert da schon deutlich schlechter und auch Andromeda skaliert nicht mit mehr als 4 Kernen.

Tamagothi
2017-03-28, 19:54:51
Nur zur Info, Zen mag zwar in Spielen derzeit schwächer dastehen, aber Zen wird für Intel ein größeres Problem sein in Zukunft, als viele derzeit denken. ;)

Ist ja auch klar entweder durch Marktanteile oder durch Preis im Desktop/Server Markt.

Die großen Gewinne wird Intel nicht mehr haben.

Spätestens Ende 2017 wird Intels Umsatz/Gewinn stark Richtung minus gehen.

dildo4u
2017-03-31, 21:44:50
Ryzen 5 1400 Test:

https://youtu.be/DbDpMWo7XTk

DrFreaK666
2017-04-01, 00:19:48
Gibt es einen Test mit StarCraft 2 als Benchmark? Ich weiss es ist alt, aber da war AMD immer sehr schwach im Vergleich

dildo4u
2017-04-01, 00:48:33
Gibt es einen Test mit StarCraft 2 als Benchmark? Ich weiss es ist alt, aber da war AMD immer sehr schwach im Vergleich

http://abload.de/img/sc2j0ssk.png

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Tests/Test-Review-1222033/

fondness
2017-04-01, 09:16:22
http://abload.de/img/sc2j0ssk.png

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Tests/Test-Review-1222033/

Der Unterschied zwischen 7600K und 7700K ist völlig unrealistisch.

dildo4u
2017-04-01, 09:29:57
Schon wieder Nvidia?
Dann auch kein SMT on/off Vergleich`? 4+0?
Alles belanglos und keinen Blick mehr wert.
Nvidia ist immer besser wenn man keine DX12 Game's bencht.
Ich find die Performance normal wenn man sieht wo der FX steht,Zen hängt immer zwischen Haswell(5820) und Boardwell IPC.(6900k)

dargo
2017-04-01, 09:30:10
Der Unterschied zwischen 7600K und 7700K ist völlig unrealistisch.
Warum? Die beiden trennen immerhin ca. 10% Takt. Der Rest könnte durch den NV-Treiber kommen bei so einer schwachen Software was Multithreading angeht.

fondness
2017-04-01, 09:33:16
SC2 ist ein 7 Jahre altes DX9 Spiel, ich glaube kaum, dass da mehr als vielleicht 1-2 Kerne beansprucht werden. Und der NV-Treiber macht AFAIK nur unter DX11 komische Dinge. Ein 5960X schafft gerade mal die halbe Leistung eines 7700K, die Ergebnisse sind zumindest mehr als fragwürdig. Auch der 6900K ist viel zu weit weg IMHO.

dargo
2017-04-01, 09:35:10
Ach du sche..., das ist noch DX9? :eek: Dann habe ich nichts gesagt. :redface:

Tarkin
2017-04-01, 09:40:02
Schon wieder Nvidia?
Dann auch kein SMT on/off Vergleich`? 4+0?
Alles belanglos und keinen Blick mehr wert.

Nicht nur das.. wie zur Hölle kann ein kabylake i7 zwischen 40 und 50% schneller sein als Haswell i7 - völlig Banane und unrealistisch bis zum Gehtnichtmehr! Es sei denn starcraft mag da eine gewisse kabylake "Besonderheit" gern. Sowas gehört einfach nicht in ein review - nicht wenn nicht gleichzeitig auch ein Game gebencht wird, welches AMD besonders gut liegt. So ist es schlicht und ergreifend kein fairer Vergleich

Botcruscher
2017-04-01, 09:53:31
Indem die Verbesserungen der Architektur exakt auf das Limit der Uraltsoftware treffen. Geht alles und zeigt eben, dass es etwas wie ein allgemeingültiges CPU Limit nicht gibt.

Complicated
2017-04-01, 11:08:07
Oder mal wieder eindeutig, dass CPU-Limits in Spielen nicht darstellbar sind. Irgendwann rafft es auch der letzte. Das ist ja nun nicht der erste und einzige CPU-Bench der völligen Schwachsinn aufzeigt in 720p Settings.

aufkrawall
2017-04-01, 14:14:27
Oder mal wieder eindeutig, dass CPU-Limits in Spielen nicht darstellbar sind.
So einen Unsinn muss man inhaltlich erstmal zusammenbekommen, congrats.

Timbaloo
2017-04-01, 14:30:36
Er wiederholt den Käse einfach immer wieder. Irgendwann müssen es die ganzen Geisterfahrer ja mal einsehen!

Schaffe89
2017-04-01, 15:09:08
Oder mal wieder eindeutig, dass CPU-Limits in Spielen nicht darstellbar sind. Irgendwann rafft es auch der letzte. Das ist ja nun nicht der erste und einzige CPU-Bench der völligen Schwachsinn aufzeigt in 720p Settings.

Bei euch beiden (Complicated und mr.dude) ging es damals bei Comuterbase vor ca 10 Jahren vor allem darum die geringere Spieleleistung der AMD Prozessoren zu verschleiern und sogar mr.dude kommt langsam (siehe seine Postings bei HWL) davon ab, weil die AMD Prozssoren nun wieder konkurrenzfähig in Spielen sind.:wink:
Kommt Ryzen 2 mit ~20% mehr Spieleperformance um die Ecke oder bringen die Softwareupdates wirklich soviel mehr, wirst auch du selbstverständlich umschwenken.:)

Das ist ja nun nicht der erste und einzige CPU-Bench der völligen Schwachsinn aufzeigt in 720p Settings.

Wieso das gleiche ists doch auch in Full HD, PCGH hat das sogar extra auch gezeigt. Und dasselbe wirds auch in 4K sein, weil in diesem Spiel halt der Prozessor limitiert und nicht die Grafikkarte.
Die reine Auflösung interessiert den Prozessor ja gar nicht, aber es ist halt schwer von felsenfesten Behauptungen die man überall getroffen und verbreitet hat, wieder abzukommen.

Tesseract
2017-04-01, 15:20:42
Indem die Verbesserungen der Architektur exakt auf das Limit der Uraltsoftware treffen.

nein, da ist irgendwas faul. schalt einfach mal skylake dazu: der 7600k ist bei ~8% mehr takt und fast identischer architektur 24% bzw. 33%(min.) schneller als der 6600k? wahrscheinlich wurde da mit unterschiedlichen patches getestet. SC2 ist zwar schon sehr alt, wird aber nach wie vor gepflegt.

gmb
2017-04-01, 15:51:53
Nicht nur das.. wie zur Hölle kann ein kabylake i7 zwischen 40 und 50% schneller sein als Haswell i7 - völlig Banane und unrealistisch bis zum Gehtnichtmehr!


Skylake lag schon von Anfang an in Starcraft 2 überproportional gut verglichen zu Haswell, das ist doch nichts neues. Da lag damals ein i7-6700k 25% vor einem i7-4790k in Starcraft 2, obwohl die CPUs ansonsten oft eng beisammen waren. Wenn man sich vom damaligen i7-6700k Wert jetzt 10% für den i7-7700k draufrechnet, wären wir auch schon bei +37% zum i7-4790k, also nur leicht unter den 40% im aktuellen Test. Das ist also gar nicht so abwegig, zumindest was die i7 betrifft.

Complicated
2017-04-01, 16:02:05
Und dasselbe wirds auch in 4K sein, weil in diesem Spiel halt der Prozessor limitiert und nicht die Grafikkarte.
Und das wirst du niemals kapieren. Wenn etwas limitiert ist es nicht an seinem eigenen Limit angelangt. Nimm ein Spiel wo die CPU in DX11 limitiert und nimm den DX12 Renderpfad, der dann mehr FPS bringt. Damit ist ein CPU-Limit ausgeschlossen unter DX11 - das Limit liegt in der API auch wenn du durch eine schnellere CPU mehr FPS erreichen kannst.

Es liegt kein CPU-Limit vor wenn eine Software-Upgrade bei der selben (limitierenden CPU) mehr Leistung bringt. Nur weil einige Spiele-Fetischisten sich nicht technisch korrekt ausdrücken können wird das nicht wahr. In Spielen gibt es keine CPU-Limits auch wenn es limitierende CPUs gibt und limitierende GPUs. Zumindest dann nicht wenn man die deutsche Sprache korrekt anwendet, was einigen Spieltestern anscheinend nicht möglich ist aus lauter Gewohnheit heraus.
Und da spielt es auch keine Rolle aus welchem Lager die CPU kommt oder wer derzeit den "Längeren" hat.

Timbaloo
2017-04-01, 16:21:20
Es liegt kein CPU-Limit vor wenn eine Software-Upgrade bei der selben (limitierenden CPU) mehr Leistung bringt.
Nehmen wir mal an, dass deine wirre Definition Sinn ergeben würde, dann wäre ein "CPU-Limit" prakitsch nie erreichbar, es sei denn man kann beweisen, dass die Implementierung der zugrunde liegenden Algorithmen für die jeweilige CPU optimal ist, was man praktisch nicht kann.

gmb
2017-04-01, 16:23:46
Und das wirst du niemals kapieren. Wenn etwas limitiert ist es nicht an seinem eigenen Limit angelangt. Nimm ein Spiel wo die CPU in DX11 limitiert und nimm den DX12 Renderpfad, der dann mehr FPS bringt. Damit ist ein CPU-Limit ausgeschlossen unter DX11 - das Limit liegt in der API auch wenn du durch eine schnellere CPU mehr FPS erreichen kannst.

Es liegt kein CPU-Limit vor wenn eine Software-Upgrade bei der selben (limitierenden CPU) mehr Leistung bringt. Nur weil einige Spiele-Fetischisten sich nicht technisch korrekt ausdrücken können wird das nicht wahr. In Spielen gibt es keine CPU-Limits auch wenn es limitierende CPUs gibt und limitierende GPUs. Zumindest dann nicht wenn man die deutsche Sprache korrekt anwendet, was einigen Spieltestern anscheinend nicht möglich ist aus lauter Gewohnheit heraus.
Und da spielt es auch keine Rolle aus welchem Lager die CPU kommt oder wer derzeit den "Längeren" hat.


Es ist trotzdem ein CPU Limit, weil mit schnelleren CPUs eine bessere Leistung erzielt werden kann, auch das wirst Du nie kapieren.

Den gleichen Müll könnte man ansonsten auf Anwendungen übertragen. Oder meinst du die sind immer auf dem aktuellen Stand und perfekt optimiert. Cinebench mit SSE2 wäre folglich kein CPU Limit, da ein Software Upgrade theoretisch mehr Leistung freisetzen könnte, wie praktisch jede Anwendung. Zumindest laut dir. Vergiss den Müll ganz schnell.

Kriton
2017-04-01, 16:26:41
Nehmen wir mal an, dass deine wirre Definition Sinn ergeben würde, dann wäre ein "CPU-Limit" prakitsch nie erreichbar, es sei denn man kann beweisen, dass die Implementierung der zugrunde liegenden Algorithmen für die jeweilige CPU optimal ist, was man praktisch nicht kann.

Auch wenn ich seine Meinung nicht teile, hat er die Beweisbarkeit nicht ins Spiel gebracht, insoweit ist Dein Argument mit Blick auf seine Aussage nicht schlüssig.

Tesseract
2017-04-01, 16:27:57
Wenn etwas limitiert ist es nicht an seinem eigenen Limit angelangt.

bitte nicht schon wieder dieser unsinn... ich habe es dir schon mal erklärt: "limit" bezieht sich auf die ausführungszeit. wenn ein programm auf der CPU z.B. 10ms läuft, dann ist das programm durch die CPU auf minimale 10ms limitiert. wenn das programm erst 10ms auf der CPU, dann 20ms auf der GPU und zum schluss wieder 5ms auf der CPU läuft, dann ist die ausführungszeit sowohl durch CPU als auch GPU auf 35ms limitiert. nicht durch die GPU limitiert ist das programm dann, wenn z.B. ein task auf der CPU und einer auf der GPU parallel läuft, das programm erst fertig ist wenn beides fertig ist, der CPU-teil aber länger läuft. z.B: CPU braucht 30ms, GPU braucht 10ms, CPU arbeitet die letzten 20ms alleine -> ausführungszeit ist durch die CPU auf 30ms limitiert.

das was du als "limit" bezeichnest heißt nicht "limit" sondern maximaler durchsatz.

Timbaloo
2017-04-01, 16:34:33
Auch wenn ich seine Meinung nicht teile, hat er die Beweisbarkeit nicht ins Spiel gebracht, insoweit ist Dein Argument mit Blick auf seine Aussage nicht schlüssig.
Doch hat er, indirekt.

Es liegt kein CPU-Limit vor wenn eine Software-Upgrade bei der selben (limitierenden CPU) mehr Leistung bringt.
Damit sagt er eindeutig, dass ein CPU-Limit erst vorliegt wenn es kein Performance-verbesserndes Software-Upgrade mehr geben kann. Und der Fall ist nur dann erreichbar wenn man es entsprechend beweist. Sonst wäre die Konsequenz für seine Definition von "CPU-Limit", dass ein "CPU-Limit" seine Eigenschaft als "CPU-Limit" zu genau dem Zeitpunkt verliert wenn es ein Performance-verbesserndes Software-Upgrade gibt.

Complicated
2017-04-01, 17:09:36
Ich sage es liegt ein CPU-Limit vor wenn die CPU auch voll ausgelastet ist. Werden 8 Kerne nicht ausgelastet, dann kann man mit dieser Software(Spiele) auch kein CPU-Limit messen. Wie auch? Die CPU hat ja auch noch reichlich nicht genutzte Reserven, auch dann wenn sie in diesem Spiel der limitierende Faktor ist (Nur wird hier eben durch die Fetslegung des Spiels als Mess-Konstante eine Limitierung herbeigeführt - was aber dann kein CPU-Limit bedeutet). Ein Indiz dafür, dass die CPU nicht alle ihre Ressourcen nutzt ist eben ein Software-Update, welches mehr Leistung ergibt= kein CPU-Limit gewesen bei der vorherigen Messung.

@Tesseract
Nur weil du es mir schon mal am Thema vorbei "erklärt" hast wird es nicht wahr. Du erklärst wunderbar was limitieren bedeutet, doch Ein "Limit" ist per Definition etwas anderes als etwas "limitierendes".

Wenn etwas limitiert, dann beschränkt es etwas anderes. (Spieletests)
Wenn etwas am Limit ist, dann kann es selber nicht mehr leisten.

Auch wenn manch einer das für reine Semantik hält, so ist es dennoch technisch falsch in Spielen von CPU-Limits zu sprechen, weil diese eine CPU nicht bis an ihr technisches Maximum Auslasten.

Timbaloo
2017-04-01, 17:29:57
Ich sage es liegt ein CPU-Limit vor wenn die CPU auch voll ausgelastet ist.
Dann mußt du auch definieren was "voll ausgelastet" denn ist. Nur dass alle Kerne verwendet werden ist da sicherlich kein hinreichendes Kriterium und vollkommen willkürlich. Es ist trivial ein Programm zu entwerfen das zwar alle Kerne nutzt aber trotzdem absolut schlecht optimiert ist.

Irgendwie eine willkürliche und "der eigenen Argumentation" hilfreiche "Definition" und absolut nicht "technisch"...

Auch wenn manch einer das für reine Semantik hält, so ist es dennoch technisch falsch in Spielen von CPU-Limits zu sprechen, weil diese eine CPU nicht bis an ihr technisches Maximum Auslasten.
Es gibt Algorithmen die schlicht nicht parallelisierbar sind. Ergo kann eine Implementierung dieser Algorithmen nicht mehr als einen Kern nutzen. Trotzdem ist das technische Maximum ausgereizt.

Es ist nicht die "Semantik" die hier stört, sondern der technisch trivial widerlegbare Schwachsinn den du hier ständig verzapfst...

Complicated
2017-04-01, 19:01:17
Dann mußt du auch definieren was "voll ausgelastet" denn ist. Nur dass alle Kerne verwendet werden ist da sicherlich kein hinreichendes Kriterium und vollkommen willkürlich.
Weder ist es das eine noch das andere. Verständnisprobleme?

Es ist was es ist: Ein eindeutiges Beispiel das häufig anzutreffen ist in CPU-Tests. Und dieses Beispiel untermauert eindeutig mein Argument. Es ist genau dieses rumgerudere nach einem eindeutigen Kriterium der zu deiner absurden Argumentation führt. Ihr sucht nach einer Definition wie ihr es nennen sollt wenn eine CPU limitiert in einem willkürlich festgelegtem Software-Umfeld. Info von mir: Es nennt sich nicht CPU-Limit, weil die CPU nicht am Limit ihrer Leistung ist. Ihr könnt ja gerne weiter nach einem "leicht verdaubarem" Begriff suchen, doch CPU-Limit hat schon eine klare Definition. Nehmt "Bananen-Shake" oder nehmt "lilablassblau", es ist technisch ebenso korrekt wie CPU-Limit und hat schon eine andere Bedeutung.

Schau mal:
wenn das programm erst 10ms auf der CPU, dann 20ms auf der GPU und zum schluss wieder 5ms auf der CPU läuft, dann ist die ausführungszeit sowohl durch CPU als auch GPU auf 35ms limitiert. nicht durch die GPU limitiert ist das programm dann, wenn z.B. ein task auf der CPU und einer auf der GPU parallel läuft, das programm erst fertig ist wenn beides fertig ist, der CPU-teil aber länger läuft. z.B: CPU braucht 30ms, GPU braucht 10ms, CPU arbeitet die letzten 20ms alleine -> ausführungszeit ist durch die CPU auf 30ms limitiert.Völlig korrekt erklärt ohne das Wort CPU-Limit falsch zu benutzen. Und die Ursachen für diese hier beschriebenen unterschiedlichen Zustände reichen von API-Limits bis Taskmanagement des OS. Aber es ist eben kein CPU-Limit und in jeder der getesteten Software-Umgebungen sind es andere Ursachen die auch noch variieren je nach GPU die verbaut ist, wie man am SMT-Management der Nvidia Treiber erkennen kann.

Mach halt weiterhin deine "lilablassblau" Vereinfachung, so dass eben auch die Testredaktionen sich damit zufrieden geben können einfach Balken raus zuhauen und "CPU-Limit" zu schreiben ohne der wirklichen Ursache auf den Grund zu gehen. Auch wenn dieses angeblich "CPU-Limit" unter Linux dann plötzlich nicht mehr existiert oder unter DX12 oder unter Vulkan oder wenn es dann verschoben wird. Das führt dann zu besonders technischen Sätzen wie "DX12 hat das CPU-Limit verschoben". Da verbiegt sich doch jedem technisch orientierten Verstand jede Gehirnzelle, bei dem Blödsinn.

Begreife diese einfachen Sätze:
Wenn etwas limitiert, dann beschränkt es etwas anderes. (Spieletests)
Wenn etwas am Limit ist, dann kann es selber nicht mehr leisten.

Timbaloo
2017-04-01, 19:12:00
Sag doch einfach dass du keine sinnvolle Definition hast. Ist ja kein Beinbruch.

Complicated
2017-04-01, 19:30:32
Wofür soll ich eine sinnvolle Definition haben? Ich kenne die Definition eines CPU-Limits. Wenn die CPU nicht mehr leisten kann - Punkt. Für die falsche Verwendung in Spieletests muss ich mir kein anderes Wort ausdenken. Es ist jedenfalls kein CPU-Limit wenn durch Änderungen der Software mehr FPS raus kommen oder wenn die Software nur einen Teil der verbauten Ressourcen einer Hardware nutzt. Denn dort kann die CPU eindeutig und nachweislich mehr leisten als die Software abrufen kann.

Kriton
2017-04-01, 19:36:33
Doch hat er, indirekt.


Damit sagt er eindeutig, dass ein CPU-Limit erst vorliegt wenn es kein Performance-verbesserndes Software-Upgrade mehr geben kann. Und der Fall ist nur dann erreichbar wenn man es entsprechend beweist. Sonst wäre die Konsequenz für seine Definition von "CPU-Limit", dass ein "CPU-Limit" seine Eigenschaft als "CPU-Limit" zu genau dem Zeitpunkt verliert wenn es ein Performance-verbesserndes Software-Upgrade gibt.

Nein, der Fall ist auch ohne Beweisbarkeit denkbar - da liegt IMHO Dein Denkfehler (ein fallender Baum macht auch dann ein Geräusch, wenn es niemand hört). Es kann (hypothetisch) durchaus möglich sein, dass ein "Performance-verbesserndes Software-Upgrade" (faktisch) nicht geschrieben werden kann, auch wenn man dies nicht weiß/erkennt.

Übrigens meinerseits weiterhin ohne inhaltliche Stellungnahme bzgl. der eigentlichen Frage.:freak:

Timbaloo
2017-04-01, 19:48:29
Es ist jedenfalls kein CPU-Limit wenn durch Änderungen der Software mehr FPS raus kommen oder wenn die Software nur einen Teil der verbauten Ressourcen einer Hardware nutzt.
Das ist bei jeder Software der Fall. Raffst du das echt nicht?

Complicated
2017-04-01, 19:59:31
Und was hat das damit zu tun dass es in Spielen keine CPU-Limits gibt? Raff du es mal, dass dein Argument keines ist. Wenn es keine Software gibt, dann gibt es eben keine Software die CPU-Limits zeigen können. Warum wird es dann immer falsch verwendet so wie du es tust?

Wann die CPU am Limit ist kann dir z.B. SPEC zeigen mit ihren SPECint und SPECfp- Werten. Denn dort wird die maximale CPU-Leistung mit definierten Workloads und Optimierungen seitens der CPU-Hersteller gemessen. Das würde ich z.B. als deutlich besser geeignet sehen ein CPU-Limit darzustellen. Kriton hat schon versucht dir das klar zu machen. Alleine die Existenz von SPEC reicht aus um zu beweisen dass Spiele kein CPU-Limit darstellen können. Dazu muss nicht erwiesen sein, dass SPEC schon das maximale rausholt was möglich ist. Es holt allerdings das maximale raus, was die CPU-Hersteller selber möglich machen.

Timbaloo
2017-04-01, 20:07:15
Dumm nur dass auch SPECint und SPECfp deine Definition nicht erfüllen. Ergo ist deine Definition vollkommen sinnfrei und willkürlich.

Mangel76
2017-04-01, 20:07:43
Das ist bei jeder Software der Fall. Raffst du das echt nicht?

Deswegen ist es eben kein CPU-Limit! Wie kann ein Softwarepatch das Hardwarelimit ändern? Es ist schlicht unmöglich, das Programm erhöht sein eigenes Limit auf der betrachteten Hardware!. Es wäre viel eher von einem Ryzenproblem vieler Spiele statt von einem Spieleproblem von Ryzen zu sprechen. Dann wäre nämlich klar, wo das Verbesserungspotential liegt!

G3cko
2017-04-01, 20:19:27
Per Definition gibt es immer ein GPU- oder CPU-Limt, da nun mal in den seltensten Fällen (bis unmöglich) beide Komponenten GLEICHZEITIG bis zu 100% ausgelastet sein können. Dabei spielt es keine Rolle ob man 30, 300 oder 3000 fps hat. ;)

Dies setzt natürlich vorraus, dass es keinen fps-lock gibt. Und nun back to topic?

maximus_hertus
2017-04-01, 20:24:18
Es ändert aber effektiv auch nichts daran, dass Ryzen in Spielen einfach scheisse ist...

Wie alle aktuellen CPUs halt. Es gibt schlicht keine sehr gute "Gaming-CPUs". Alle haben ihre Probleme. Der 7700K, der nicht überall hohe Details darstellen kann. Ryzen, der speziell mit nV Karten unter DX12 teils mies performt. Oder halt Broadwell-E, die nicht konstant liefern können und ähnlich wie Ryzen nicht durchgängig die Spitze erklimmen können.

Das lustige ist ja, dass das alles ziemlich egal ist. Ein Ryzen 7 sowie Broadwell-E werden in den nchsten Jahren alles flüssig darstellen. Dafür muss man kein Prophet sein.

Broadwell-E bringt in Games etwas mehr auf die Strasse, dafür hat man null Aufrüstoptionen. Ryzen wird weiter reifen und die AM4 Boards wird man 3+ Jahre mit neuen CPUs füttern können.

Complicated
2017-04-01, 20:25:02
Dumm nur dass auch SPECint und SPECfp deine Definition nicht erfüllen. Ergo ist deine Definition vollkommen sinnfrei und willkürlich.Logikprobleme? Aber egal, du willst ja nicht sinnvoll diskutieren sondern lediglich...
Es ändert aber effektiv auch nichts daran, dass Ryzen in Spielen einfach scheisse ist...
@G3cko
Spiele werden programmiert um GPUs auszulasten bis zum Anschlag. Die CPU ist da lediglich der Co-Prozessor. Und wenn du eine CPU verbaut hast die deine GPU nicht voll befeuern kann, dann ist die CPU der limitierende Faktor. Wenn diese CPU aber nur 4 von 8 vorhandenen Kernen nutzt dabei, dann ist die CPU auch wenn sie der limitierende Faktor ist noch lange nicht am CPU-Limit. Denn mit einem Update von DX11 auf DX12 kann die CPU plötzlich mehr FPS aus der GPU raus holen.

Und genau weil eben Spiele nicht GPU und CPU zeitgleich auf 100% Last bringen können sind sie nicht geeignet ein CPU-Limit abzubilden.

Rincewind
2017-04-01, 20:51:43
Es gibt Algorithmen die schlicht nicht parallelisierbar sind. Ergo kann eine Implementierung dieser Algorithmen nicht mehr als einen Kern nutzen. Trotzdem ist das technische Maximum ausgereizt.


Mal ne blöde DAU-Frage: Sollte man dann nicht diese Algorithmen in die Tonne treten und Alternativen entwickeln, die mehr parallelisierbar sind?

Digidi
2017-04-01, 21:06:26
Einen neuen Algorithmus entwickelt man nicht einfach mal so. Es liegt auch manchmal in der Natur der Sache, das manche Prozesse nicht parallelisierbar sind. Es gibt dann einfach keinen prallen Algorithmus für dieses Problem.

https://de.wikipedia.org/wiki/Paralleler_Algorithmus

Gipsel
2017-04-01, 22:12:15
Bitte zurück zum Thema!

Irgendwelche Kleinkriege um Semantik können woanders geführt werden.

Timbaloo
2017-04-02, 02:01:05
Mal ne blöde DAU-Frage: Sollte man dann nicht diese Algorithmen in die Tonne treten und Alternativen entwickeln, die mehr parallelisierbar sind?

Das sollte das Ziel sein, sicher. Aber es gibt gewisse Algorithmen die man halt nicht durch andere ersetzen kann (ohne Vereinfachungen/Abweichungen zu akzeptieren). Es gibt auch manchmal Alternativen die zwar parallelisierbar sind, aber effektiv halt trotzdem weniger effizient sind als die "nicht-parallelisierten" Varianten. Und wie gesagt, "parallelisierbar" ist nicht der einzige Aspekt in Sachen Effizienz/Performance, auch wenn "parallelisierbar" das neue "ZOMG GHz" für Minderbemittelte ist...

Foobar2001
2017-04-02, 03:28:00
Mal ne blöde DAU-Frage: Sollte man dann nicht diese Algorithmen in die Tonne treten und Alternativen entwickeln, die mehr parallelisierbar sind?
Nicht immer moeglich.

Im uebrigen: Jeder in der Industrie redet von CPU- oder GPU-Limit wenn eines der beiden Dauemchen dreht weil gewartet werden muss. Das hat nichts mit vollstaendiger Auslastung zu tun.

Wenn der serielle Game-Code auf einem Thread 30ms braucht und die GPU nichts zu tun hat ist das ein CPU-Limit. Fertig aus.

prinz_valium
2017-04-02, 13:56:59
wann kommen denn jetzt endlich mal die kleinen Ryzen Prozessoren?

dildo4u
2017-04-02, 14:02:33
wann kommen denn jetzt endlich mal die kleinen Ryzen Prozessoren?
https://www.golem.de/news/amd-prozessoren-ryzen-5-hexacores-und-quadcores-ab-11-april-erhaeltlich-1703-126747.html

Rincewind
2017-04-02, 20:21:58
Einen neuen Algorithmus entwickelt man nicht einfach mal so. Es liegt auch manchmal in der Natur der Sache, das manche Prozesse nicht parallelisierbar sind. Es gibt dann einfach keinen prallen Algorithmus für dieses Problem.

https://de.wikipedia.org/wiki/Paralleler_Algorithmus

Sorry, aber da musste ich gerade lachen. :biggrin:
Nicht bös gemeint.

Und danke für die Antworten.

Isen
2017-04-03, 22:21:17
AMD Ryzen 7/5/3 PRO: Vier Ryzen PRO und Hinweise auf Taktraten entdeckt (https://www.computerbase.de/2017-04/amd-ryzen-7-5-3-pro-takt/)

Und aus den Kommentaren geklaut:

Ryzen 3 YD1200BBM4KAE(Ryzen3 1200) Summit Ridge 3.1GHz 2MB B1 65W
http://www.asrock.com/support/cpu.asp?s=AM4&u=539

Achill
2017-04-03, 23:35:43
[..]
Es gibt Algorithmen die schlicht nicht parallelisierbar sind. Ergo kann eine Implementierung dieser Algorithmen nicht mehr als einen Kern nutzen. Trotzdem ist das technische Maximum ausgereizt.

Es ist nicht die "Semantik" die hier stört, sondern der technisch trivial widerlegbare Schwachsinn den du hier ständig verzapfst...

Welche Algorithmen sind in Spielen den nicht parallelisierbar bzw. wie hoch ist deren Anteil? Ohne Herleitung ist deine Aussage leider nicht belegt oder umgangssprachlich " trivial widerlegbare Schwachsinn".

Nur weil die Aussage stimmte, dass nicht alle Allg. parallelisierbar sind, kann man daraus nicht schließen, dass dies auch so bei Spielen sein muss, da man dafür erst zeigen muss, dass die Menge der eingesetzten Allg. in Spielen nicht parallelisierbar ist / entsprechend groß ist.

Mal ne blöde DAU-Frage: Sollte man dann nicht diese Algorithmen in die Tonne treten und Alternativen entwickeln, die mehr parallelisierbar sind?

Einen neuen Algorithmus entwickelt man nicht einfach mal so. Es liegt auch manchmal in der Natur der Sache, das manche Prozesse nicht parallelisierbar sind. Es gibt dann einfach keinen prallen Algorithmus für dieses Problem.

https://de.wikipedia.org/wiki/Paralleler_Algorithmus

Genau, die Frage ist aber, wie groß ist der Anteil dieser Allg. in Spielen...

Timbaloo
2017-04-04, 00:19:37
Welche Algorithmen sind in Spielen den nicht parallelisierbar bzw. wie hoch ist deren Anteil? Ohne Herleitung ist deine Aussage leider nicht belegt oder umgangssprachlich " trivial widerlegbare Schwachsinn".
Na zum Glück habe ich diese Aussage dann auch nicht im Bezug auf Spiele getätigt, sondern allgemeingültig (so habe ich auch die Frage verstanden) beantwortet.
Vielleicht nächstes mal nicht gleich posten, sondern erst Schaum abwischen und dann posten? Maybe?

Rincewind
2017-04-04, 00:49:02
war auch allgemein gefragt, aber die Frage auf Spiele zu konzentrieren ist ja nicht verkehrt. :)

Achill
2017-04-04, 00:53:53
Na zum Glück habe ich diese Aussage dann auch nicht im Bezug auf Spiele getätigt, sondern allgemeingültig (so habe ich auch die Frage verstanden) beantwortet.
Vielleicht nächstes mal nicht gleich posten, sondern erst Schaum abwischen und dann posten? Maybe?

Dein Post bezog sich direkt auf den Post von Complicated davor:


[..]


Auch wenn manch einer das für reine Semantik hält, so ist es dennoch technisch falsch in Spielen von CPU-Limits zu sprechen, weil diese eine CPU nicht bis an ihr technisches Maximum Auslasten.

Es gibt Algorithmen die schlicht nicht parallelisierbar sind. Ergo kann eine Implementierung dieser Algorithmen nicht mehr als einen Kern nutzen. Trotzdem ist das technische Maximum ausgereizt.

Es ist nicht die "Semantik" die hier stört, sondern der technisch trivial widerlegbare Schwachsinn den du hier ständig verzapfst...


Und das ist das Problem, der Context war Algorithmen in Spielen und ob / in wie weit die CPUs wirklich schon maximal ausgelastet werden.

Wie schon geschrieben, die allgemeine Aussage zu Algorithmen ist richtig - aber halt im allgemeinen - ob es für Spiele gelten muss, ist eine ganz andere Fragestellung und kann ein ganz anderes Ergebnis liefern.

BoMbY
2017-04-04, 00:57:59
Als wäre das eine triviale Aufgabe irgendwelche Dinge zu parallelisieren ... Leider gibt es da (noch) keinen Wunderschalter für Compiler mit welchem man das einfach erzwingen könnte. Oft muss man entsprechenden Code komplett anpassen, und bei umfangreicher Software wie einer Spiele-Engine ist das eine Sisyphusarbeit. Mal ganz abgesehen von den neuen Problemen die man sich damit einhandelt - wenn man parallelisiert muss man trotzdem noch immer irgendwo wieder synchronisieren (für z.B. Datenzugriffe), womit im schlimmsten Fall alle Vorteile wieder dahin sind.

Timbaloo
2017-04-04, 01:10:09
Dein Post bezog sich direkt auf den Post von Complicated davor:
Ja, da hab ich falsch gelesen. Ich dachte du beziehst dich auf die Frage von Ricewind, nicht auf die "Diskussion" mit Complicated welche durch Mods unterbunden wurde. Und da ich keinen Bock habe wegen so einer Kinderkacke wieder eine lächerliche Sperre zu bekommen:

Wie schon geschrieben, die allgemeine Aussage zu Algorithmen ist richtig
Done.

Achill
2017-04-04, 01:13:48
Als wäre das eine triviale Aufgabe irgendwelche Dinge zu parallelisieren ... Leider gibt es da (noch) keinen Wunderschalter für Compiler mit welchem man das einfach erzwingen könnte. Oft muss man entsprechenden Code komplett anpassen, und bei umfangreicher Software wie einer Spiele-Engine ist das eine Sisyphusarbeit. Mal ganz abgesehen von den neuen Problemen die man sich damit einhandelt - wenn man parallelisiert muss man trotzdem noch immer irgendwo wieder synchronisieren (für z.B. Datenzugriffe), womit im schlimmsten Fall alle Vorteile wieder dahin sind.

Das ist natürlich völlig richtig und es wird auch absehbar keinen Compiler geben der so etwas vermag (rede nicht von OpenMP oder Auto-Vektorisierung), sondern es bedarf natürlich Wissen von passenden Konzepten und den Willen auch Arbeit von anderen zu nutzen.

Auch kann eine verkorkste SW-Architektur i.d.R. nicht mehr "reparieren" werden, wenn diese eine gewisse Größe erreicht hat - da hilft nur ein Cut und neu schreiben, gute Teile kann man übernehmen genauso wie Assets.

OgrEGT
2017-04-04, 06:19:12
Ryzen Pro...Hatten wir das schon?
https://www.computerbase.de/2017-04/amd-ryzen-7-5-3-pro-takt/

Isen
2017-04-04, 15:48:21
Ja. siehe Seite 356.

dildo4u
2017-04-04, 15:57:24
Ryzen 5 1600 Review:

https://videocardz.com/67852/first-full-review-of-amd-ryzen-5-1600-is-here

Hier scheint Tomb Reider DX12 mit dem 1700 zu funzen dort ist er schneller als der 1600X unter DX11 langsamer.
Das selbe mit Doom langsamer mit Open GL und mit Vulkan schneller.

][immy
2017-04-04, 16:54:27
Ryzen 5 1600 Review:

https://videocardz.com/67852/first-full-review-of-amd-ryzen-5-1600-is-here

Hier scheint Tomb Reider DX12 mit dem 1700 zu funzen dort ist er schneller als der 1600X unter DX11 langsamer.
Das selbe mit Doom langsamer mit Open GL und mit Vulkan schneller.
mich wundert es ein wenig das nach wie vor 16MB L3 Cache anwesend ist. Da haben 4 Cores (8threads) natürlich theoretisch einen Bandbreiten-Vorteil gegenüber einem 6-/8-Core Prozessor. Eventuell hat es damit zu tun. Eventuell ist auch die single-thread Leistung etwas höher durch mehr Spielraum bei der Leistungsaufnahme.

Gipsel
2017-04-04, 17:12:45
Ryzen 5 1600 Review:

https://videocardz.com/67852/first-full-review-of-amd-ryzen-5-1600-is-here

Hier scheint Tomb Reider DX12 mit dem 1700 zu funzen dort ist er schneller als der 1600X unter DX11 langsamer.
Das selbe mit Doom langsamer mit Open GL und mit Vulkan schneller.Die hatten einen 1600 ohne X. Der ist langsamer getaktet als der 1700X (nur 3,2/3,6GHz). Bei den Unterschieden zum 1700X unter DX11 hat entweder RoTR einen Bug bei 8 Ryzen Kernen oder die Systeme waren nicht hunderprozentig deckungsgleich (andere BIOS-Version, irgendein Patch oder Systemeinstellung, whatever). Ansonsten ist wohl kaum zu erklären, warum 6 Kerne mit niedrigerem Takt schneller sein sollen als 8 Kerne mit höherem Takt.

dargo
2017-04-04, 18:31:48
Ryzen 5 1600 Review:

https://videocardz.com/67852/first-full-review-of-amd-ryzen-5-1600-is-here

Hier scheint Tomb Reider DX12 mit dem 1700 zu funzen dort ist er schneller als der 1600X unter DX11 langsamer.
Das selbe mit Doom langsamer mit Open GL und mit Vulkan schneller.
Oh weiha... da scheint es noch einige Threadingprobleme zu geben. Ansonsten ist es nicht zu erklären warum ein R5 1600 (Allcore 3,4 oder 3,3Ghz?) in RotTR @DX11 28% und in Doom @OpenGL 14% schneller als ein R7 1700X (3,5Ghz Allcore) ist.

vinacis_vivids
2017-04-05, 11:10:14
Naja, der *Test*.... Alles wieder unter dem Schirm einer Nvidia.
Schaut euch mal ne Fury an was die an fps raushaut mit Ryzen@bf1:
https://www.youtube.com/watch?v=YfhL08s4IMw

dildo4u
2017-04-05, 11:14:51
Naja, der *Test*.... Alles wieder unter dem Schirm einer Nvidia.
Schaut euch mal ne Fury an was die an fps raushaut mit Ryzen@bf1:
https://www.youtube.com/watch?v=YfhL08s4IMw
Liest du überhaupt was du verlinkst?Low Settings im Singleplayer,also kaum CPU Last.

dargo
2017-04-05, 11:18:59
Naja, der *Test*.... Alles wieder unter dem Schirm einer Nvidia.
Schaut euch mal ne Fury an was die an fps raushaut mit Ryzen@bf1:
https://www.youtube.com/watch?v=YfhL08s4IMw

Low Details unter 1080p ist selten dämlich. ;) Sag lieber dem Typen er soll 720p mit max. Details nehmen.

vinacis_vivids
2017-04-05, 11:31:05
Deswegen bin ich auch hier im SpekuThread statt review Thread ;)

RotTR Analyse mit RX480 Crossfire
https://www.youtube.com/watch?v=0tfTZjugDeg
Zusammenfassung: RotTR@Nvidia@DX12@Ryzen läuft nicht rund und es liegt an Nvidia.
Stichwort: async compute Krankheit von Pascal@DX12.

y33H@
2017-04-05, 11:46:18
Das ist doch aber alles nicht neu, mit ner Geforce sollte man D3D12 und Vulkan bisher meiden.

Es wäre interessanter sich mal D3D12-only Titel anzugucken, denn da kann man als Nvidia Nutzer nicht einfach auf D3D11 wechseln ...

dargo
2017-04-05, 12:22:52
RotTR Analyse mit RX480 Crossfire
https://www.youtube.com/watch?v=0tfTZjugDeg
Zusammenfassung: RotTR@Nvidia@DX12@Ryzen läuft nicht rund und es liegt an Nvidia.
Stichwort: async compute Krankheit von Pascal@DX12.
Das hat doch nichts mit AC zu tun. :facepalm: Wenns denn so wäre wie erklärst du dir, dass Intel und Bulldozer normal performen?

dildo4u
2017-04-05, 12:44:10
Das ist doch aber alles nicht neu, mit ner Geforce sollte man D3D12 und Vulkan bisher meiden.

Es wäre interessanter sich mal D3D12-only Titel anzugucken, denn da kann man als Nvidia Nutzer nicht einfach auf D3D11 wechseln ...
Vulkan scheint jetzt halbwegs zu laufen,bei DX12 kommt es aufs Game an.
Leider gibt es nur wenige Vulkan Games mit High-End Optik.

FX8320e@4.3Ghz GTX 1070 1080p Ultra Preset.

Doom Open GL 99fps

http://abload.de/img/doomx64_2017_04_05_12mcsem.png

Vulkan 147fps

http://abload.de/img/doomx64vk_2017_04_05_gtsci.png

Vieleicht sollten mehr AAA Entwickler eher Vulkan statt DX12 nutzen.

Troyan
2017-04-05, 12:49:49
Das ist doch aber alles nicht neu, mit ner Geforce sollte man D3D12 und Vulkan bisher meiden.

Es wäre interessanter sich mal D3D12-only Titel anzugucken, denn da kann man als Nvidia Nutzer nicht einfach auf D3D11 wechseln ...

Willkommen in der Low-Level API-Welt. ;D

In Deux Ex: Mankind ist DX11 auf meiner GTX1080 30% schneller im CPU-Limit (720p@Ultra). Da hat sich Nixxes wirklich viel mühe gegeben, dass Gaming Evolved Spiel auf nVidia-Hardware zu optimieren.

Die Leute haben bis heute nicht verstanden, welche Auswirkungen Low-Level APIs haben werden und welche Verantwortung nun in den Händen der Entwickler liegt.

Pirx
2017-04-05, 13:09:11
Die gleiche Verantwortung, die sie immer hatten und haben sollten.

dargo
2017-04-05, 13:16:16
@vinacis_vivids

Wie dem auch sei... Fakt ist, dass die Kombi aus Ryzen + NV Graka aktuell unter DX12 erhebliche Probleme bereitet. Mit einer Intel/Bulldozer CPU ist es nicht der Fall. Bei AMD sieht es nicht so aus (Test mit CF), hier würde ich aber wirklich noch gerne einen Test mit Sigle-GPU bei AMD sehen. Selbst wenn es aber bei AMD kein Problem gibt ist es auch nicht verwunderlich. AMD als Hersteller sowohl von Ryzen als auch den eigenen GPUs konnte sich viel früher auf die neue CPU einstellen und entsprechend den Treiber daraufhin optimieren. Man hatte also einen nicht unerheblichen, zeitlichen Vorteil zu reagieren.

Edit:
Letzteres könnte man auch recht einfach überprüfen indem man einen viel älteren Radeon Treiber testet.

Willkommen in der Low-Level API-Welt. ;D

In Deux Ex: Mankind ist DX11 auf meiner GTX1080 30% schneller im CPU-Limit (720p@Ultra). Da hat sich Nixxes wirklich viel mühe gegeben, dass Gaming Evolved Spiel auf nVidia-Hardware zu optimieren.

Die Leute haben bis heute nicht verstanden, welche Auswirkungen Low-Level APIs haben werden und welche Verantwortung nun in den Händen der Entwickler liegt.
Du biegst dir aber gerne alles so zurecht wie es dir gerade in den Kramm passt, nicht wahr? Was hast du nicht davon geschwärmt wie toll dein i7-3770K @DX12 in RotTR profitiert. Nun ist low level wieder was ganz Böses weil vereinzelte Entwickler (Deus EX ist hier ein gutes Beispiel) die neue API nicht im Griff haben. :rolleyes:

dargo
2017-04-05, 14:09:19
Ich verstehe sowieso nicht was daran so schwer ist mit einer einzelnen Fury(X) mal gegen zu testen. Wenn der R7 1700 zu schnell für die Karte ist dann kann man immer noch 6C/12T oder gar 4C/8T simulieren. Eventuell bringt uns das schon weiter. Der Grafiktreiber von Nvidia scheint übrigens nicht nur unter DX12 Probleme zu machen.
https://videocardz.com/67852/first-full-review-of-amd-ryzen-5-1600-is-here

Hier ist der R5 1600 schneller als der R7 1700X in DX11 bei RotTR trotz weniger Threads und Takt! In Doom @OpenGL das selbe Phänomen. Es könnten also mehr Games betroffen sein.

Achill
2017-04-05, 17:22:26
Das ist zwar soweit richtig. Auf der anderen Seite... wer will sich freiwillig diese Diashow mit den zusätzlichen Effekten @Octacore geben? Also ich nicht. :) Wobei bei dem Thema bei der PCGH wieder ein Frameverlauf fehlt. Wenn die min.fps von unter 20 nur für eine Sekunde zu sehen sind und der Rest deutlich schneller läuft halb so wild.

Sehe ich auch so ...

6850k@4.4Ghz / UC@3.6Ghz / DDR4-2800@14-16-16-36

2x 390X@1150/1500:

2017-04-01 12:38:01 - AshesEscalation_DX12
Frames: 908 - Time: 20000ms - Avg: 45.400 - Min: 19 - Max: 92

2017-04-01 12:39:33 - AshesEscalation_DX12
Frames: 1077 - Time: 20000ms - Avg: 53.850 - Min: 23 - Max: 99

2017-04-01 12:40:17 - AshesEscalation_DX12
Frames: 961 - Time: 20000ms - Avg: 48.050 - Min: 19 - Max: 94

Das schwankt ganz schön ... kommt glaube darauf an, wie gut man den Laser abpasst.


---
Edit:

Jetzt noch mit nur 1x 390X ... es scheint so, dass die Settings auch eine GPU-Limitierung erzeugen bzw. das Spiel bei Multi-GPU etwas anders macht. Sah bei mir aber alles gleich aus:

2017-04-01 12:57:01 - AshesEscalation_DX12
Frames: 713 - Time: 20000ms - Avg: 35.650 - Min: 13 - Max: 56

2017-04-01 12:57:43 - AshesEscalation_DX12
Frames: 733 - Time: 20000ms - Avg: 36.650 - Min: 22 - Max: 54

2017-04-01 12:58:23 - AshesEscalation_DX12
Frames: 812 - Time: 20000ms - Avg: 40.600 - Min: 19 - Max: 55

--
Edit: Typos bei der HW korrigiert.

Finde es sollte eine Option in den Settings geben, wo man dies entsprechend einstellen kann. Oder aber man kann AotS mittels Save-Game nicht zwischen 2-4 und 6-X Kernern vergleichen.

Gipsel
2017-04-05, 18:03:38
Ich glaube, hier werden in Zukunft etwas härtere Maßstäbe bezüglich Trolling bzw. Offtopic angelegt.

dildo4u
2017-04-07, 12:44:11
AMD Ryzen 5 1600 and 1400 Overclocking Results

https://youtu.be/H3zg-LfxkN4

Doomtrain
2017-04-08, 18:33:35
Wie laufen eigentlich die Ryzen-Verkäufe so? Im Netz ist nicht viel zu finden, nur das beim Launch 1mio zu Verfügung standen.
Die Counter bei Mindfactory stehen aktuell bei 3500 Stück.... aber was sagt das aus?

Viele Grüße...

devastor
2017-04-08, 19:30:28
Die Counter bei Mindfactory stehen aktuell bei 3500 Stück.... aber was sagt das aus?
viele Grüße...

Das 3500 bei MF verkauft wurden. ;)

5CH4CHT3L
2017-04-08, 21:59:37
Ich denke mal das läuft ziemlich gut, außerdem haben ja viele noch nicht gekauft weil die Preise noch fallen, Vega vor der Tür steht und das BIOS z.T noch etwas braucht um besser zu laufen.
Wie es wirklich aussieht werden wir erst bei AMDs Quartalszahlen sehen

Doomtrain
2017-04-08, 22:12:58
Richtig interessant wird eh erst das dritte Quartal wenn das volle Ryzen Lineup verkauft wird und Vega gelauncht ist...

reaperrr
2017-04-09, 01:21:11
Richtig interessant wird eh erst das dritte Quartal wenn das volle Ryzen Lineup verkauft wird und Vega gelauncht ist...
In Hinblick auf Ryzen wird auch das zweite Quartal schon richtig interessant.

- volles Quartal für die drei 8-Kerner zu eingependelten Preisen
- Launch von 1600(X), 1500X und 1400 relativ zu Quartalsbeginn
- mehr und ausgereiftere Boards
- Spiele-/Treiber-/AGESA-Patches

Die i3 1300/1200 Ryzen werden für Umsatz/Gewinn nicht so entscheidend meiner Meinung nach, und ob Vega so ein großer Wurf wird wissen wir noch nicht mit Sicherheit.

kunibätt
2017-04-15, 01:46:22
Ist der 16 Kerner jetzt sicher? Wann soll der kommen?

Unicous
2017-04-18, 13:45:11
It turns out the memory controller on AMD Zen is NOT outsourced IP; built in-house. Looks like some confusion reigned on the Internet (gasp)

https://twitter.com/ryanshrout/status/854152215526813698

Nun.:redface:

reaperrr
2017-04-18, 21:41:29
Um die Zahlen mal ins Verhältnis zu setzen:

Die drei Ryzen 7 haben sich jetzt bei MF ca. 3900 Mal verkauft.
Die beiden FX9xxx sind in ihrer "Laufbahn" seit Launch im Juli 2013(!) bei MF auf 2650 gekommen, der FX 8370 seit Sept. 2014 auf 1390.
Also noch ~150 Ryzen 7, und die drei neuen Topmodelle haben die alten bereits überholt.

Die vier Ryzen 5 sind nach einer Woche auch schon bei knapp 1000, fast 100 mehr als der FX8370 mit altem Kühler oder tray (880+20).

Nakai
2017-04-25, 18:35:22
Wenn man sich die benches so ansieht, dann muss man sich fragen wer noch auf Intel setzt für solche workloads. Die datenbank benches vom tm96 würd ich auch gern mal sehen.

Edit: UPS falscher thread.

Tja...;D

Ich mag zwar die CB-Reviews gar nicht mehr, weil viel zu wenig Substanz, aber den Linux-Parcour kann man als Direktive schon empfehlen. Jeder der ein bisschen Ahnung hat von professioneller Software, der sieht relativ schnell, dass Zen in Punkto Peformance nicht zu verstecken braucht. Natürlich wer es als Leistung sieht ein Spiel zu kaufen, zu installieren und den Button für den integrierten Benchmark findet (oder sogar einen eigene Bench-Routine erstellt), dem ist eh nicht zu helfen. Ahja...99% der Reviews bestehen daraus...achso...;(

€:
Nicht alles dabei, aber ein paar Sachen: http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=4

Sollte ein besseren Indikator für deine Anforderungen abgeben als PC-Spiele.

Der 1800X schlägt sich dann auch sehr gut wie ich finde ...

--
Edit: Wurde schon geschrieben und falscher Thread ... :D

Hab ich auch schon gesehen gehabt. Man findet aber sonst sehr wenig im Netz. Es ist einfach eine Schande, wie wenig Substanz man in den meisten Reviews findet.

€2: Sobald mal die Anwendungen für eine Architektur kompiliert werden oder die CPU mal richtig schuften darf (eben beim kompilieren) shclägt sich die Performance von Zen durch. Die Architektur ist eher auf Intel-Level als etwas anderes. Ich mache mir da keine Sorgen. Jeder der denkt, dass Ryzen deutlich schlechter als ein Intel Kontrahent ist, hat einfach gar keine Ahnung. Höchstens das CCX-Bauweise nervt eventuell etwas, aber ansonsten ist die gesamte Architektur extrem gut aufgestellt. Es kann nur besser werden.

y33H@
2017-04-25, 18:59:03
Es gibt soviele interessante Möglichkeiten die Reviews zu gestalten. Da aber die meisten Reviews sehr ähnlich sind, sollte man sich schon fragen, ob es eher an Bequemlichkeit oder den harten Auflagen mancher Produktlieferanten liegt.idR schlicht wenig Zeit.

Was schwebt dir denn bei Machine Learning vor? Wir haben ein internes Projekt, die CPU macht dabei aber kaum was, läuft alles auf GPUs. Sowas wie Builds kompilieren hatte ich drin (Kernel Build Defconfig Linux 4.9, Ryzen 1800X = 69 sec, Core i7-6900K = 68 sec), aber bei Verilog o.ä. fehlen mir Software und Wissen. Daher der Fokus bei Client-CPUs auf "Prosumer"-Software wie Foto/Rendering/Transcoding und halt paar Spiele.

Nakai
2017-04-25, 19:18:10
idR schlicht wenig Zeit.


Das glaube ich ja sofort.

Mir geht es einfach darum, dass viele Reviews sich eben nicht mit produktiver Entwicklungsarbeit auseinandersetzen.

Was schwebt dir denn bei Machine Learning vor? Wir haben ein internes Projekt, die CPU macht dabei aber kaum was, läuft alles auf GPUs.

Sicherlich ist es sinnvoller auf der GPU zu trainieren, aber es wäre auch interessant die Performance auf der CPU zu erleben.

Deep Learning
SVM (HOG-Algorithmus)

Hier könnte man sich einen Aufbau für Gesichtserkennung gut vorstellen, welche diese beiden Algorithmen kombiniert. Ein solches Setup zu trainieren, mit einer großen Menge an Daten, ist eine sehr anspruchsvolle Anwendung.

Sowas wie Builds kompilieren hatte ich drin (Kernel Build Defconfig Linux 4.9, Ryzen 1800X = 69 sec, Core i7-6900K = 68 sec)

Das ist schon gut, aber was ist mit virtualisierter Ausführung? Virtualisierung wird in Zukunft extrem wichtig werden und es wäre interessant zu sehen, wie sich die unterschiedlichen CPUs bei der Virtualisierung schlagen.
Und da sollte sich eine 8 Kern CPU mal als 16 Kern CPU ausgeben und dann einen Linux-Kernel kompilieren oder zwei gleichzeitig.

aber bei Verilog o.ä. fehlen mir Software und Wissen.

Das gehört einfach zu den zeitaufwendigsten Szenarien. Wenn ein Unternehmen ihre Ausführungs-Hardware ändert, kann man deutlich effektiver arbeiten.

Daher der Fokus bei Client-CPUs auf "Prosumer"-Software wie Foto/Rendering/Transcoding und halt paar Spiele.

Das ist eine Sache die mich ins Grübeln bringt. Vor allem wenn man sieht, wie sich manche Leute über ein paar FPS bei Zen auslassen, obwohl die CPU nur in einem Aspekt etwas mieser dasteht.

Emperator
2017-04-25, 20:49:18
Das glaube ich ja sofort.

Mir geht es einfach darum, dass viele Reviews sich eben nicht mit produktiver Entwicklungsarbeit auseinandersetzen.

...

Das ist schon gut, aber was ist mit virtualisierter Ausführung? Virtualisierung wird in Zukunft extrem wichtig werden und es wäre interessant zu sehen, wie sich die unterschiedlichen CPUs bei der Virtualisierung schlagen.
Und da sollte sich eine 8 Kern CPU mal als 16 Kern CPU ausgeben und dann einen Linux-Kernel kompilieren oder zwei gleichzeitig.


Sei doch froh, das nur 0815 getestet wird, sonst würde Ryzen noch mehr Kritik einstecken müssen, das ist nun mal eine neue Architektur und Abseits von Windows und den Standardprogammen noch sehr Beta-Status. Und wir würden dann nicht nur von einer angeblichen Spieleschwäche, sondern zb. auch noch von einer Virtualisierungsschwäche usw. lesen müssen, nur weil bestimmte Software noch nicht mit Ryzen klar kommt.

https://tinkertry.com/amd-ryzen-works-with-vmware-esxi-65-at-a-cost-of-30-percent-performance-not-a-compelling-xeon-d-alternative
https://www.servethehome.com/amd-ryzen-iommu-and-the-b350-chipset-challenges/

Screemer
2017-04-25, 21:04:05
https://tinkertry.com/amd-ryzen-works-with-vmware-esxi-65-at-a-cost-of-30-percent-performance-not-a-compelling-xeon-d-alternative
https://www.servethehome.com/amd-ryzen-iommu-and-the-b350-chipset-challenges/

Das sind doch wohl BIOS bugs. Hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11359164#post11359164) hast du genug test verlinkt wo ryzen Intel den Arsch versolt. wenn die Software nicht passt ist das halt ein Problem. Allerdings nicht zwingend das der Hardware.

Skysnake
2017-04-25, 21:19:35
idR schlicht wenig Zeit.

Was schwebt dir denn bei Machine Learning vor? Wir haben ein internes Projekt, die CPU macht dabei aber kaum was, läuft alles auf GPUs. Sowas wie Builds kompilieren hatte ich drin (Kernel Build Defconfig Linux 4.9, Ryzen 1800X = 69 sec, Core i7-6900K = 68 sec), aber bei Verilog o.ä. fehlen mir Software und Wissen. Daher der Fokus bei Client-CPUs auf "Prosumer"-Software wie Foto/Rendering/Transcoding und halt paar Spiele.
Verilog Software etc. kannste im Allgemeinen auch direkt mal wieder vergessen. Im Allgemeinen ist die Hardware da NIE ein Problem, sondern immer nur die Software. Also wieviele Lizenzen du dir leisten kannst.... So lange du nicht Intel, IBM, nVidia, AMD usw usf. heist, die unlimited Lizenzen hast, kostet Hardware zum simulieren quasi nichts im Vergleich zur Software.....

Wenn du dir so etwas anschauen willst, dann schau dich mal nach open Place&Route um. Da gibt es einen Wettbewerb, bei dem es darum geht möglichst optimale/schnelle Ergebnisse zu bekommen. Ich bin da während meiner Dipl-Arbeit mal drüber gestolpert. Gibt einen jährlichen Wettbewerb. Eventuell kommt man da an etwas mit OpenSource ran.

Link musste aber selber suchen.

Im Engineering kann man sich mal OpenFOAM antun, aber effizient ist etwas anderes.....

Überhaupt ein Problem von viel Software (AUCH IM HPC!!!), die viel Funktionalität hat und insbesondere C++ Codes. Das Zeug ist einfach unglaublich schnell unglaublich ineffizient. Am Ende löst man oft gar nicht mehr das ursprüngliche Problem das man simulieren wollte, sondern das Problem der Programmexecution, welche das Problem was man simulieren will beschreibt.....

Deswegen ist das rumgezanke mit IPC und was weiß ich alles auch ziemlich Hirnverbrannt. Kaum eine Software wird Ryzen oder eine Intel CPU auch nur zu 1% nutzen....

Ich bin schon ganz glücklich, wenn meine HPC Anwendungen 3-12% von Peak erreichen.... Nur mal so am Rande erwähnt...

PS: Lasst doch mal die CLK und Instruction Counter auf nem Windows system während einer Game execution rennen. Mich würde es wundern, wenn man auch nur eine IPC von 1 erreichen würde über alle Cores. Ich vermute mal eher etwas im Bereich von 0,1 bis 0.5. Und Peak liegt bei 16 Flops/Cycle. Also kann man das skaliert auch als IPC von 16 interpretieren. Wenn man FMA3 und AVX jeweils nur als eine Instruction zählt, was eigentlich nie gemacht wird, ist man irgendwo bei einer IPC von 2-4. Aber dann wird die IPC in Games noch fataler aussehen. Ok im Vergleich zum "Peak" wird es dann weniger schlimm, weil ein ein nicht nutzen von FMA und AVX nicht so reinhaut, aber es wird dennoch ziemlich schlecht sein...

Nakai
2017-04-25, 22:21:00
Sei doch froh, das nur 0815 getestet wird, sonst würde Ryzen noch mehr Kritik einstecken müssen, das ist nun mal eine neue Architektur und Abseits von Windows und den Standardprogammen noch sehr Beta-Status. Und wir würden dann nicht nur von einer angeblichen Spieleschwäche, sondern zb. auch noch von einer Virtualisierungsschwäche usw. lesen müssen, nur weil bestimmte Software noch nicht mit Ryzen klar kommt.


Ich glaube, das Gegenteil ist der Fall. Die 0815-Software ist auf Intel optimiert, wenn es darum geht fertige Binaries zu testen. Oder warum ist Ryzen unter Linux im Verhältnis besser?

@Skysnake:
Mir ist es ehrlich gesagt egal, ob oder wie gut manche Software optimiert ist. Es geht mir nur um eine Performance-Aussage für realitätsnahe Usecases. Einen Linux-Kernel zu kompilieren sollte für Linux-User eine normale Tätigkeit sein, und ist ein Paradebeispiel für einen realitätsnahen Usecase.

Tarkin
2017-04-26, 08:37:45
https://www.reddit.com/r/Amd/comments/67lydr/amd_and_msi_press_release_in_austin_texas/

Heute findet offenbar ein Press Event von MSI/AMD in Austin Texas statt .... Ryzen related.

https://youtu.be/SrD6NukTzRE?t=49

https://mobile.twitter.com/RyanSmithAT/status/856846250691506185

Pirx
2017-04-26, 16:26:14
heute ist auch AMD-Hauptversammlung http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-calendar

mksn7
2017-04-26, 16:38:36
Ich bin schon ganz glücklich, wenn meine HPC Anwendungen 3-12% von Peak erreichen.... Nur mal so am Rande erwähnt...


Da nimmst du aber nur FLOPs als Maß für die Hardwareauslastung heran, oder? Da sehr viele Codes im HPC ja doch eher kleine arithmetische Intensität haben finde ich roofline utilization die besssere Metrik für die Frage nach dem Optimierungsgrad, oder wieviel von der maximal möglichen Leistung des Prozessors ein Code erreicht.

Einem optimal programmierten Speichertransferraten begrenztem Benchmark muss man nach FLOPs sonst immer eine sehr niedrige Qualität bescheinigen, nach roofline sieht das dann schon besser aus.

Nakai
2017-04-26, 20:06:59
heute ist auch AMD-Hauptversammlung http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-calendar

War ziemlich langweilig.

Skysnake
2017-04-26, 20:07:48
Ja natürlich hat er eine schlechte compute Effizienz. Das ist ja auch wirklich so. Gut bei integer Codes wie aus der Funktionen Theorie muss man dann aufpassen aber meist passt es ganz gut.

Es ist ja auch nicht so,als hätte man nie eine Alternative beim Algorithmus. Man kann da die arithmetische Intensität schon steigern.


Aber ja du sprichst da schon ein generelles Problem an. Es wird immer fraglicher ob wir die richtigen CPUS bauen. Aber flops sind halt billig und Bandbreite teuer... Aber das ist ein anderes Thema.

Insgesamt kann man aber schon sagen das kaum Software wirklich gut durch optimiert ist

Complicated
2017-06-21, 12:47:27
AMD Ryzen empfohlen durch Nvidia Geforce Garage https://www.youtube.com/watch?v=LiBRqsDlet4
😁

w0mbat
2017-06-22, 09:40:00
Ist Epyic schon B2? Das würde bedeuten, dass demnächst auch Ryzen als B2 kommt, wenn der B1 stock verkauft ist.

http://i.imgur.com/PnPLcpY.png

Complicated
2017-06-22, 10:04:58
Nice find. Das würde auch für Threadripper vielleicht mehr Takt bedeuten da es dann sicherlich auch B2 Silicium wäre.

robbitop
2017-06-22, 18:20:26
Na wobei Threadripper sicherlich ziemlich Powerlimitiert ist. Mit 4x SR Kernen steigt auch die Chance, dass ein wenig gut taktbarer Kern dabei ist (trotz B2).

Am interessantesten wird es IMO, wenn B2 bei Summitridge ankommt.

Pirx
2017-06-22, 18:29:23
Na wobei Threadripper sicherlich ziemlich Powerlimitiert ist. Mit 4x SR Kernen steigt auch die Chance, dass ein wenig gut taktbarer Kern dabei ist (trotz B2).

Am interessantesten wird es IMO, wenn B2 bei Summitridge ankommt.
aber beim wenige-Cores-Turbo hat er ordentlich Spielraum

Emperator
2017-06-22, 19:23:24
Nicht wirklich, um die 4,1 Ghz bei zu erreichen legt AMD schon ~1,45 Volt an. Da ist für einen noch höheren Turbo, schon wieder ungesunde Spannungen von >1,5V notwendig.

Über 4Ghz ist da einfach kein Spielraum mehr vorhanden. (https://docs.google.com/spreadsheets/d/1Dbt_7FiD8hTo2uuOIKBE3ATCDRqVRpAHFsKnieEncv0/edit#gid=87938175)

Complicated
2017-06-22, 19:24:05
Na wobei Threadripper sicherlich ziemlich Powerlimitiert ist. Mit 4x SR Kernen steigt auch die Chance, dass ein wenig gut taktbarer Kern dabei ist (trotz B2).

Am interessantesten wird es IMO, wenn B2 bei Summitridge ankommt.
Einzelne Kerne werden unterschiedlich getaktet und mit unterschiedlicher Spannung versorgt. Stichwort AVFS.
http://www.pcgameshardware.de/screenshots/970x546/2017/02/AMD-Ryzen-ISSCC-1-pcgh.png

Gorkon
2017-06-22, 21:16:45
B2 soll hauptsächlich Dinge im SoC / UnCore / PCIe-Bereich fixen. War da nicht mal was von wegen nur PCIe 3.0 für PEG+Sata/NVMe- und der Rest nur 2.0?

http://www.pcgameshardware.de/Mainboard-Hardware-154107/News/AMD-Ryzen-AM4-Chipsaetze-PCI-Express-30-1223308/

Betrifft zwar den MoBo-Chipsatz, aber evtl. hängts ja auch damit zusammen. Kommt bei ner Serverplattform bestimmt nicht soooo toll an. Deswegen wohl für Epyc (und TR)...

mfg

cat
2017-06-29, 14:51:04
http://technology.mb.com.ph/2017/06/29/amd-announces-ryzen-pro/

PRO 1700X 16T 3.8 3.4 95W

PRO 1700 16T 3.7 3.0 65W

PRO 1600 12T 3.6 3.2 65W

PRO 1500 8T 3.7 3.5 65W

PRO 1300 4T 3.7 3.5 65W

PRO 1200 4T 3.4 3.1 65W

kunibätt
2017-06-29, 19:45:38
http://technology.mb.com.ph/2017/06/29/amd-announces-ryzen-pro/

PRO 1700X 16T 3.8 3.4 95W

PRO 1700 16T 3.7 3.0 65W

PRO 1600 12T 3.6 3.2 65W

PRO 1500 8T 3.7 3.5 65W

PRO 1300 4T 3.7 3.5 65W

PRO 1200 4T 3.4 3.1 65W

Wo der Unterschied zwischen nem 1700 und 1700 Pro

Unicous
2017-06-29, 19:52:09
3 Jahre Garantie, Sicherheits Features, zwei Jahre garantiert erhältlich...

Was eben "Business-Produkten" von "Consumer-Produkten" unterscheidet.

Schnoesel
2017-06-30, 13:28:02
Wo der Unterschied zwischen nem 1700 und 1700 Pro

Basistakt nebst TDP:

https://s18.postimg.org/4i2mpfjy1/image.jpg
https://www.computerbase.de/2017-06/amd-ryzen-pro/

ah du meintest zwischen pro und non Pro?! Hat Unicous schon beantwortet.

reaperrr
2017-06-30, 19:18:19
Ich bin gespannt, ob es den 1300 auch als non-Pro geben wird. Im Pro-Bereich wird wohl kaum übertaktet (wenn die nicht eh gelocked sind), daher macht es dort noch Sinn.
Aber bei den normalen Desktop-CPUs wäre der einzige technische Unterschied zum 1200, der Takt, durch den offenen Multi ausgleichbar. Von daher weiß ich nicht, ob der 1300 für Selbstbastler überhaupt Sinn macht. Bisher wurde in Mainboard-Supportlisten auch nur der 1200 genannt, wobei die Info schon ein paar Wochen alt ist.
Naja, wird wohl auch etwas von der Preisgestaltung abhängen.

Edit: Außerdem gibt es für Konsumenten ja auch den 1400, der zwar SMT hat, aber kaum höher als der 1200 taktet. Ein 1300 mit Pro-Taktraten würde den in manchen Benchmarks schlagen, was AMD vermutlich auch nicht unbedingt möchte. Kann also gut sein, dass der 1200 anfangs die einzige R3 SKU sein und ne Weile auch bleiben wird.

Edit2: Was mich etwas wundert/enttäuscht ist, dass AMD scheinbar keinen 45W-Ryzen anbieten wird (jedenfalls nicht auf SR-Basis), dafür hätte sich der 1200 eigentlich angeboten. Wobei er wahrscheinlich auch gar nicht viel mehr als 45W verbraucht.

Tobalt
2017-06-30, 19:32:50
einen 45w ryzen kannst du dir selbst machen wenn es dir zb um semipassive Kühlung geht. selbst ein 1600@stock kratzt laut diverser tests ja nur an den 60w und man kann den nochn Stück undervolten.

reaperrr
2017-06-30, 20:04:10
einen 45w ryzen kannst du dir selbst machen wenn es dir zb um semipassive Kühlung geht. selbst ein 1600@stock kratzt laut diverser tests ja nur an den 60w und man kann den nochn Stück undervolten.
Sicher, ich meinte das auch eher in Hinblick auf OEMs und Leute, die nicht selbst Einstellungen ändern.

davidzo
2017-06-30, 21:24:21
Sicher, ich meinte das auch eher in Hinblick auf OEMs und Leute, die nicht selbst Einstellungen ändern.

OEMs regeln das mittlerweile meistens über die sogenannte TDPdown. Das sind settings im BIOS die Intel den OEMs zur Verfügung stellt (nennt sich DPTF Intel Dynamic Platform & Thermal Framework Driver), die die TDP konfigurieren. Defacto ist ein i5 7500 und ein 7500T von der Die qualität nämlich identisch, die TDP geht mit Takt, Turbo Begrenzung und Spannung einfach runter.
T und P-CPUs sind nur für den retail wo diese Umsetzung für den Endkunden zu kompliziert wäre.

AMD macht das auch seit einer Weile so, spätestens seit Kaveri, wo OEMs eine 45W CPU auch in einem 15W Chassis verbauen können, das erledigt dann das SystemBIOS. Es sollte mich wundern wenn AMD das bei Ryzen nicht mehr anbietet.

Diese Vorgehensweise hat Vorteile für die Lagerhaltung und Flexibilität der OEMs was das chassis- und Kühldesign angeht.

aufkrawall
2017-06-30, 21:28:50
Ich hatte bei meinem ASRock-Board keinerlei Begrenzungseinstellungen gefunden. Es ist wohl so, dass in Standardeinstellungen das von AMD für die CPU gesetzte Limit gilt, und sobald du etwas händisch an Takt oder Spannung einstellst, es gar kein Limit mehr gibt. Bei Intel gibts halt schon ewig einstellbare Werte für Long und Short Duration Maximum.

StefanV
2017-06-30, 21:28:55
3 Jahre Garantie
3 Jahre Endkunden Garantie haben auch die 'normalen', sofern in a Box ;D
http://support.amd.com/en-us/warranty/rma/terms/pib

Raff
2017-08-03, 16:42:43
Der Fadenreißer ist bei den Tester aufgeschlagen. :naughty:

Ryzen Threadripper Unboxing: 1950X und 1920X bei PCGH (http://www.pcgameshardware.de/Ryzen-Threadripper-1900X-CPU-266616/Videos/Threadripper-Carepaket-von-AMD-1234747/)

Ryzen Threadripper Benchmark-Setup - PCGH Raw & Uncut (http://www.pcgameshardware.de/Ryzen-Threadripper-1900X-CPU-266616/Videos/Threadripper-eingebaut-1234896/)

€dit: Shiat, falscher Fred.

MfG,
Raff

deekey777
2017-08-03, 16:44:57
Der Fadenreißer ist bei den Tester aufgeschlagen. :naughty:

Ryzen Threadripper Unboxing: 1950X und 1920X bei PCGH (http://www.pcgameshardware.de/Ryzen-Threadripper-1900X-CPU-266616/Videos/Threadripper-Carepaket-von-AMD-1234747/)

Ryzen Threadripper Benchmark-Setup - PCGH Raw & Uncut (http://www.pcgameshardware.de/Ryzen-Threadripper-1900X-CPU-266616/Videos/Threadripper-eingebaut-1234896/)

€dit: Shiat, falscher Fred.

MfG,
Raff

War der Kuchen wenigstens lecker?

cat
2017-08-04, 22:21:47
X399 aktuell ohne NVMe-RAID-BOOT, soll gefixt werden!
SATA-RAID-BOOT funzt
http://www.tomshardware.com/news/x399-raid-threadripper-amd,35149.html

reaperrr
2017-08-19, 16:51:17
Mal eine Frage, hat irgendwer mitbekommen, ob AMD etwas - und wenn ja, was - zum Thema L3-Cache-Takt gesagt hat?

Ich finde es nämlich extrem verdächtig, dass mein R5-1600 selbst im CineBenchR15 ST-Test mit DDR4-2400 ggü. 2133 von 134 auf 146 zulegt, während KBL dort null mit dem Speichertakt skaliert.
Wenn der Speichertakt nur für das IF und damit die CCX-zu-CCX-Kommunikation gelten würde, sollte er auf die CB ST-Leistung eigentlich wenig bis keinen Einfluss haben, denn Zen's Caches sind ja nicht kleiner als die von Intel, und bei Intel scheint CB keine nennenswerten Hauptspeicher-Zugriffe zu tätigen (also alles in den L3 zu passen), sonst müsste der Speichertakt auch dort Auswirkungen zeigen.

Kann es sein, dass bei Zen auch der L3-Takt am Speicher-/IF-Takt hängt?
Das würde IMO einiges erklären (auch, warum Zen trotz so großem L3 so wenig Saft braucht, und warum der Verbrauch mit höherem Speichertakt relativ stark steigt, laut einigen TR-Reviews).

ndrs
2017-08-19, 20:48:12
War der Prozess auf dem Kern festgepinnt? Wenn der Thread vom Scheduler zwischendrin auf nen Kern des anderen CCX geschoben wurde, kann es ja dennoch durch den IF-Takt kommen.

reaperrr
2017-09-28, 14:29:11
Was denkt ihr, ob und wie AMD auf Coffee Lake reagieren wird?

Ich sehe das Problem nicht so sehr im oberen Preisbereich, auch wenn sie dort ebenfalls Anpassungen brauchen werden.

Die Probleme für AMD sehe ich aber eher darunter. Der i5-8400 taktet höher, hat mehr IPC und einen niedrigeren Listenpreis als AMDs Top-Seller, der 1600. Sogar der 1500X hat noch einen 7$ höheren Listenpreis als der 8400 (jedenfalls nach letztem offiziellen Stand).

Auch die Duelle R5-1400 gegen i3-8350K und 1200/1300X gegen 8100 sehen vom P/L-Verhältnis sehr mau für AMD aus.
Wenn sie nicht auf einen Schlag wieder abstürzen wollen bei den Verkaufszahlen, kommt AMD m.E. trotz der offenen Multiplikatoren der langsameren Modelle nicht um Preissenkungen herum.

Meine Prognose für die neuen AMD-Listenpreise, im Vergleich zu Intel (http://www.pcgameshardware.de/Coffee-Lake-Codename-266775/Specials/Core-i7-8700K-i5-8600K-Release-Preise-1239576/):
R3 1200 - 99$
R3 1300X - 109$
R5 1400 - 139$
R5 1500X - 159$
R5 1600 - 179$
R5 1600X - 209$
R7 1700 - 269$
R7 1700X - 309$
R7 1800X - 349$

w0mbat
2017-09-28, 14:56:44
Ja, Coffee Lake wird schon ein sehr gutes Angebot. Wenn der i5-8400 wirklich einen all-core-boost von 3,8GHz hat wird er wohl selbst einen 4GHz R5 1600 schlagen, ich denke nicht, dass SMT so viel Vorteile bringt.

Ich warte auf jeden Fall auf PR!

Schnoesel
2017-09-28, 15:16:39
Sehe da absolut keine Handlungsbedarf.

1. Muss man für den billigsten I5 die teuerste Plattform kaufen. Preisvorteil geht somit total flöten.
2. Kein SMT
3. Kein OC
4. Muss der I5 mit 6C/6T erstmal zeigen dass er genausogute Frametimes produziert wie ein Ryzen 6C/12T.

IchoTolot
2017-09-28, 15:39:45
4. Muss der I5 mit 6C/6T erstmal zeigen dass er genausogute Frametimes produziert wie ein Ryzen 6C/12T.

Sehe ich eher andersherum. Bislang habe ich bei Intel die besseren Frametimes gesehen. Ryzen muss erst mal beweisen, dass er bessere liefert.

reaperrr
2017-09-28, 15:49:11
Sehe da absolut keine Handlungsbedarf.

1. Muss man für den billigsten I5 die teuerste Plattform kaufen. Preisvorteil geht somit total flöten.
2. Kein SMT
3. Kein OC
4. Muss der I5 mit 6C/6T erstmal zeigen dass er genausogute Frametimes produziert wie ein Ryzen 6C/12T.
SMT bringt nicht immer was, und die CFL-6C haben mehr IPC und Takt.
Außerdem achten die wenigsten Käufer auf Dinge wie Frametimes, die breite Masse geht nach den Balken in den Reviews und Taktraten. Zumal Ryzen auch oft die schlechteren MinFPS/99th percentile hat.

Aber stimmt, hatte nicht dran gedacht, dass man für CFL zwingend ein Z370-Board braucht, das relativiert das ganze schon ein gutes Stück.

][immy
2017-09-28, 16:50:23
Was denkt ihr, ob und wie AMD auf Coffee Lake reagieren wird?

Ich sehe das Problem nicht so sehr im oberen Preisbereich, auch wenn sie dort ebenfalls Anpassungen brauchen werden.

Die Probleme für AMD sehe ich aber eher darunter. Der i5-8400 taktet höher, hat mehr IPC und einen niedrigeren Listenpreis als AMDs Top-Seller, der 1600. Sogar der 1500X hat noch einen 7$ höheren Listenpreis als der 8400 (jedenfalls nach letztem offiziellen Stand).

Auch die Duelle R5-1400 gegen i3-8350K und 1200/1300X gegen 8100 sehen vom P/L-Verhältnis sehr mau für AMD aus.
Wenn sie nicht auf einen Schlag wieder abstürzen wollen bei den Verkaufszahlen, kommt AMD m.E. trotz der offenen Multiplikatoren der langsameren Modelle nicht um Preissenkungen herum.

Meine Prognose für die neuen AMD-Listenpreise, im Vergleich zu Intel (http://www.pcgameshardware.de/Coffee-Lake-Codename-266775/Specials/Core-i7-8700K-i5-8600K-Release-Preise-1239576/):
R3 1200 - 99$
R3 1300X - 109$
R5 1400 - 139$
R5 1500X - 159$
R5 1600 - 179$
R5 1600X - 209$
R7 1700 - 269$
R7 1700X - 309$
R7 1800X - 349$
naja, all zu viel kann sich zumindest unten nichts bewegen. Denn AMD scheint ja den Sockel AM4 jetzt auch mit den älteren CPUs (A8 & A10/12...) ausstatten zu wollen. womit sie natürlich nicht all zu sehr in Konkurrenz gehen wollen dürften.
Allerdings frage ich mich warum sie die alten A8/10/12 Cores noch herstellen für den neuen Sockel. Sie sollten lieber noch versuchen den Ryzen weiter runter zu skalieren als den Ryzen 3 1200 z.B. durch 2-core Ryzens. Da sollte man noch einige "defekte" CPUs vom Band nutzen können, aber vielleicht hat AMD derzeit keine Ausfallraten die so ein Vorgehen (noch weiter "abzuspeccen") unterstützen würden.

Schnoesel
2017-09-28, 16:52:22
Sehe ich eher andersherum. Bislang habe ich bei Intel die besseren Frametimes gesehen.

Wie überraschend, dass du das anders siehst ... Ich jedenfalls kenne noch keine Frametimemessungen des I5 8400 lass einfach stecken oder willst wieder über deine CPU reden, obwohl das nicht Thema ist?

dildo4u
2017-09-28, 16:52:53
Sehe ich eher andersherum. Bislang habe ich bei Intel die besseren Frametimes gesehen. Ryzen muss erst mal beweisen, dass er bessere liefert.
i5 hatten bis jetzt kein HT die Frametimes sind deutlich schlechter,lern mal langsam das nicht jeder 300€+ CPU's kauft.

Ryzen 5 1600/ 1600X vs Core i5 7600K Review: It's an AMD Win!

https://youtu.be/4RMbYe4X2LI

IchoTolot
2017-09-28, 16:59:01
Nja, aber er wird 6 Kerne haben ist also in der Gesamtleistung ja schneller als ein 7700K. Das wird sich schon bemerkbar machen.

YfOrU
2017-09-28, 18:06:46
[immy;11504220']
Allerdings frage ich mich warum sie die alten A8/10/12 Cores noch herstellen für den neuen Sockel.

AM4 kam 2016 mit Bristol Ridge (-> IGP) für OEMs auf den Markt. Retail (für Endverbraucher) aber erst deutlich nach Summit Ridge.


Sie sollten lieber noch versuchen den Ryzen weiter runter zu skalieren als den Ryzen 3 1200 z.B. durch 2-core Ryzens.

Der Markt dafür ist verschindend gering da keine IGP. Aus dem Grund hatte AMD auch keine Alternative zu Bristol Ridge auf AM4. Eine IGP ist für Entry/Office Desktop praktisch Pflicht und etwas anderes hat man bis Raven Ridge (Zen APU, 2018) nicht.

fondness
2017-09-28, 18:08:06
Man hat sich zumindest sehr lange Zeit gelassen das Ding im Retail-Markt zu bringen, warum auch immer. OEM gibt es Bristol Ridge für AM4 ja schon ewig.

YfOrU
2017-09-28, 18:13:43
Vor Summit Ridge wäre bezogen auf das Marketing im Kontext der Plattform eher nicht förderlich gewesen und zum anderen wird man versucht haben das Maximum aus den Lagerbeständen heraus zu holen (FM2+). Die Verfügbarkeit von Produkten auf einer neueren Plattform wirkt sich ja eher negativ auf das Vorgängerprodukt aus und zu verschenken hat man nichts (Cash & Inventory Management). Wobei es hier nicht unbedingt um große verkaufte Stückzahlen gehen muss sondern auch um den effektiven Buchwert (Abschreibungen zu einem ungünstigen Zeitpunkt vermeiden).

w0mbat
2017-09-28, 18:20:49
Aber man muss auch sehe, dass Ryzen jetzt seit über 6 Monaten am Markt ist und, wenn die Gerüchte stimmen, 4 Monate nach Coffee Lake schon wieder Pinnacle Ridge kommt.

BoMbY
2018-01-01, 17:36:54
Falls noch irgendwelche Zweifel bestanden:

Synopsys and AMD (https://www.synopsys.com/dw/doc.php/ss/amd_ss.pdf)

AMD Delivers Industry-Leading Ryzen and EPYC Processors with DesignWare DDR4, USB 3.0, PCIe 3.1, Ethernet and Foundation IP on 14nm Process

fondness
2018-01-01, 17:47:49
Wobei man dazu sagen muss, dass das Zeug größtenteils von AMD noch in-house entwickelt wurde und dann mit den Ingenieure in Richtung Synopsis verkauft wurde. Interessant wird, wie gut die Zusammenarbeit in Zukunft funktioniert.

Unicous
2018-03-24, 17:34:19
Artikel zum ISSCC 2018 Vortrag:

https://fuse.wikichip.org/news/1064/isscc-2018-amds-zeppelin-multi-chip-routing-and-packaging/