PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Summit Ridge: 8 Cores/16 Threads Zen/Ryzen-CPU - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29

reaperrr
2017-02-07, 21:50:16
1. ich habe nichts gegen tests bei cpu-limitierten spielen. allerdings sollte dies nur dann gegenstand sein, wenn es unter normalen, d.h. praxistauglichen, szenarien erfolgt. künstliches erzeugen eines in der praxis nicht vorhanden cpu-limis hilft keinen beim cpu-kauf alles unter full hd bringt keinen mehrwert. tests von dingen, die eh die gpu macht, bringt ebenso keinen oder nur minimalen mehrwert.

Ja, das wäre auch mein Wunsch. Ich habe nämlich auch den Verdacht, dass die Redakteure oft unterschätzen (oder zum Teil nicht mal wissen) dass eine reduzierte Auflösung zum Teil auch die CPU-Anforderungen verändert, weil z.B. der GPU-Treiber-Overhead durch weniger on-screen-Polys usw. deutlich reduziert wird, auch GPU-Compute oder CPU-berechnete Physik werden oft mit runtergeregelt.

Sprich, es kann gut sein, dass z.B. der größere L2 und L1I von Zen unter FullHD mit mittleren Details mehr Vorteile bringen als in 640x480.

aufkrawall
2017-02-07, 21:50:43
1. ich habe nichts gegen tests bei cpu-limitierten spielen. allerdings sollte dies nur dann gegenstand sein, wenn es unter normalen, d.h. praxistauglichen, szenarien erfolgt. künstliches erzeugen eines in der praxis nicht vorhanden cpu-limis hilft keinen beim cpu-kauf alles unter full hd bringt keinen mehrwert. tests von dingen, die eh die gpu macht, bringt ebenso keinen oder nur minimalen mehrwert.

Das ist nicht schlüssig. Um es kurz zu machen: Die "praxisfernen" hohen fps von heute sind das spürbare CPU-Limit von morgen (oder übermorgen), von daher bieten die Relationen der einzelnen Produkte dort eine valide Bewertungsgrundlage.

vinacis_vivids
2017-02-07, 22:03:13
Das ist nicht schlüssig. Um es kurz zu machen: Die "praxisfernen" hohen fps von heute sind das spürbare CPU-Limit von morgen (oder übermorgen), von daher bieten die Relationen der einzelnen Produkte dort eine valide Bewertungsgrundlage.

..."übermorgen" spielt man aber mehr 4k bzw. 8k Auflösung...

aufkrawall
2017-02-07, 22:05:29
Man wird nicht mit weniger fps als jetzt spielen, was soll denn das für ein Argument sein...

y33H@
2017-02-07, 22:12:28
Ja, das wäre auch mein Wunsch. Ich habe nämlich auch den Verdacht, dass die Redakteure oft unterschätzen (oder zum Teil nicht mal wissen) dass eine reduzierte Auflösung zum Teil auch die CPU-Anforderungen verändert, weil z.B. der GPU-Treiber-Overhead durch weniger on-screen-Polys usw. deutlich reduziert wird, auch GPU-Compute oder CPU-berechnete Physik werden oft mit runtergeregelt.

Sprich, es kann gut sein, dass z.B. der größere L2 und L1I von Zen unter FullHD mit mittleren Details mehr Vorteile bringen als in 640x480.Kannst du das ausführen und hast du Beispiele? Gerade die Sache mit weniger Polys sowie Compute/Physik.

Foobar2001
2017-02-07, 22:13:42
Braucht er nicht, weil es kompletter Quatsch ist. CPU-Arbeit ist null aufloesungsabhaengig.

Timbaloo
2017-02-07, 22:14:14
1. ich habe nichts gegen tests bei cpu-limitierten spielen. allerdings sollte dies nur dann gegenstand sein, wenn es unter normalen, d.h. praxistauglichen, szenarien erfolgt. künstliches erzeugen eines in der praxis nicht vorhanden cpu-limis hilft keinen beim cpu-kauf alles unter full hd bringt keinen mehrwert. tests von dingen, die eh die gpu macht, bringt ebenso keinen oder nur minimalen mehrwert.
Von mir aus würde es tatsächlich reichen wenn man die Grafikeinstellungen so hinbiegt, dass man in jedem Spiel die 144 fps erreicht. Das ganze dann mit frametime-Verläufen und diese bewerten. Das ist dann sehr praxisnah.

Braucht er nicht, weil es kompletter Quatsch ist. CPU-Arbeit ist null aufloesungsabhaengig.
Da habe ich eine Idee. Planetside 2 hängt bei größeren Fights übelst im CPU-Limit, aber gleichzeitig gibt es ein paar wenige Grafikeinstellungen mit welchen sich das bessert (Schatten sind da so ein Kandidat). Da könnte ich mal testen ob niedriger als 1080p (lol) das ganze beschleunigt. So gesehen wäre das Spiel für CPU-Benchmarks perfekt... könnte man das sinnvoll benchen... Aber die einzige Möglichkeit das zu benchen wäre zwei Vergleichssysteme auf dem selben Server am selben Ort im Spiel mit vielen Spielern gleichzeitig zu benchen... Das ist dann halt null reproduzierbar...

vinacis_vivids
2017-02-07, 22:25:31
Man wird nicht mit weniger fps als jetzt spielen, was soll denn das für ein Argument sein...

Gehts in Zukunft zurück auf 720p?

Timbaloo
2017-02-07, 22:27:41
Gehts in Zukunft zurück auf 720p?
Ist es Nachts kälter als draussen?

BlacKi
2017-02-07, 22:29:47
wenn man wissen will wieviel schneller eine cpu in spielen ist, spielt es erstmal keine rolle wie realitätsnah die werte sind.

ich verstehe leider nicht warum hier gegen einen zusatz test gewettert wird, es macht doch die 1080p werte doch nicht schlechter?

wenn sie euch nicht genügend realitätsnah sind, dann blättert einfach weiter...

tests mit 1080p und framtimeverläufe stehen doch nicht in konkurenz zu 720p tests, sie ergänzen das bild aber.

robbitop
2017-02-07, 22:41:25
Es gibt leider immer noch zu viele Leute, die nicht verstehen, wie man eine CPU in Spielen bencht. Im CPU Limit. Praxisrelevanz ist irrelevant. Es geht um die isolierte CPU Leistung und das Messen dieser in Relation zu anderen CPUs. An diesen kann die Performance der jeweiligen CPU dann referenziert werden.

Ob ein Spiel mit Komponente X in Setting Y flüssig läuft ist doch sowieso extrem von der jeweiligen Szene abhängig. Zum Kauf einer Komponente muss man doch eigentlich nur wissen, wie gut sie ggü anderen Komponenten (idealerweise ggü der eigenen vorhandenen Komponente) steht.

Diese Sinnlosdiskussion wurde aber auch schon vor 1 Jahrzehnt geführt und wird wohl auch noch lange geführt werden.

Das Argument mit hoher Auflösung in der Praxis ist zwar im ersten Moment legitim - jedoch gibt es auch bei hoher Auflösung hin und wieder kurze Spikes in der CPU Auslastung was zu kurzen Hickups, Stottern, komischen Frametimes führt, wenn die CPU nicht schnell genug ist. Eine schnellere CPU hilft hier. Um solche Stellen nicht aufwändig herauszufinden, ist obige Methode (geringe Auflösung - CPU Limit!) eben doch legitim. Und weiterhin wächst die Anforderung an die Hardware mit den Jahren. Das war wohl auch die Intension von aufkrawall. Kauft man sich bspw für Spiele in 5 Jahren ständig neue GPUs aber keine neue CPU, ist die CPU in der hohen Auflösung von morgen dann der Bottleneck. Genau wie sie es heute auf geringen Auflösungen ist.

F4USt
2017-02-07, 23:26:20
Link bitte.

https://www.youtube.com/watch?v=TtpSiYFFjbI&t=217s
https://www.youtube.com/watch?v=tbGT-u4i3EY&t=698s
https://www.youtube.com/watch?v=XylVCItVhS4
https://www.youtube.com/watch?v=j7bcjFnLib8&t=207s

Wobei die RAM Geschwindigkeit und HT schon viel ausmachen.

Hübie
2017-02-08, 00:18:50
Problem beim Testen ist, dass die eine CPU in 720p kaum aus dem idle Takt raus kommt, während andere schon in mittleren Bereichen takten (wenn nicht sogar schon hohe Bereiche). Das wird in keinem Test gezeigt oder deutlich genug erwähnt. Auch stumpfsinnig alle Details hochdrehen und Auflösungen runterschrauben ist Quatsch.
Man sollte stets ein kritisches Auge haben. Mich persönlich interessiert es nur ob ich in meiner Praxis einen Gewinn verzeichnen kann. Ich kenne ja mein System. ;)

Die Videos von DF zeigen auch schon gut wie avg fps die frametimes verdecken und die Unterschiede weniger gravierend ausfallen, als das gefühlte Erlebnis nachher vorm Schirm ist.

vinacis_vivids
2017-02-08, 00:36:05
Und weiterhin wächst die Anforderung an die Hardware mit den Jahren. Das war wohl auch die Intension von aufkrawall. Kauft man sich bspw für Spiele in 5 Jahren ständig neue GPUs aber keine neue CPU, ist die CPU in der hohen Auflösung von morgen dann der Bottleneck. Genau wie sie es heute auf geringen Auflösungen ist.

Wenn ich aber in 4k spielen will, soll ich in 720p testen?
Also nicht in 5 Jahren, sondern beim Erscheinen der CPU.

Dass nach 5 Jahren einiges bis alles an Hardware veraltet ist, ist wohl klar. Man spielt eben die alten Spiele oder schraubt die Rechendetails runter.
Ne CPU, die heute in 4k bessere Leistung liefert, wird auch in 5 Jahren stärker sein. Wenn die zu langsam ist, nütz auch eine schnelle Performance in 720p nichts.


Mich interessiert auf jeden Fall die CPU-Leistung in 4k Spielen. Gerade auch was diese "Lags" angeht.

Aber ok, "Praxis ist ja irrelevant.."

Hübie
2017-02-08, 00:44:38
So richtige Belege gibt's dafür auch nicht. Am besten selber testen, denn es gibt unzähligen Einstellungen, welche Ergebnisse verändern und daher auch Vergleiche sehr schwer machen. Als Anhaltspunkte kann man die ganzen Tests nehmen, aber mehr nicht.
Empirisch nachgewiesen ist jedenfalls nix. Denn dann müsste DF z.B. auch mal den Core i3 oder Pentium durch 4k jagen. Bei denen weiß man nicht mal welches Energieprofil die verwenden, ob im UEFI noch mehr verstellt wird als nur der Multi und wie die realen Taktraten sind (dazu Auslastung und HT on/off). Der hexus-Artikel vergleicht nur den KabyLake mit HT on/off wo man doch weiß dass mit Skylake erst große Änderungen kamen, die es verbesserten und vor allem SandyBridge damit oft negativ skaliert.

TGKlaus
2017-02-08, 01:14:54
Praxisrelevanz ist irrelevant.

Mit so einer Meinung sollte man in die Politik gehen und nicht in die Technik ...

Entscheident ist, was real hinten rauskommt.
Sowohl beim Gaming PC zuhause, als auch bei den Systemen für/im geschäftlichen Bereich.

Ein, also theoretisch ist das System 40% schneller, bloss nicht bei Ihrer Realanwendung, will weder mein Chef hören noch der Kunde der einfach mal 6-stellige Beträge ausgibt.

Sachen wie die 720p Gamingtests mögen für paar Technik-Freaks als theoretischer Test interessant sein, mehr aber auch nicht.

Der_Korken
2017-02-08, 01:46:23
Wenn ich aber in 4k spielen will, soll ich in 720p testen?


Was erhoffst du dir bei einem 4K-Test über die CPU erfahren, was ein Test in 720p nicht aufdecken könnte?
Mit so einer Meinung sollte man in die Politik gehen und nicht in die Technik ...

[...]

Sachen wie die 720p Gamingtests mögen für paar Technik-Freaks als theoretischer Test interessant sein, mehr aber auch nicht.

Gut, dass du einen Beitrag zitierst und dabei die wichtigen 95% weglässt. robbitop hat genau erklärt, worauf es beim Test ankommt und warum es Sinn macht mit einer geringen Auflösung zu testen.

StefanV
2017-02-08, 01:52:01
Braucht er nicht, weil es kompletter Quatsch ist. CPU-Arbeit ist null aufloesungsabhaengig.
Hängt das nicht auch vom FoV bzw generell den Bildbreich ab, den man abdeckt??

Foobar2001
2017-02-08, 02:08:12
FoV hat was mit dem Aspect Ratio und nicht der Aufloesung zu tun. Ja, 21:9 koennte langsamer als 16:9, aber nicht 720p vs. 4k 16:9. Das ist einfach Unsinn.

Sachen wie die 720p Gamingtests mögen für paar Technik-Freaks als theoretischer Test interessant sein, mehr aber auch nicht.
Du irrst dich. Gewaltig. Vor allem mit daemlichen Durchschnitts-FPS-Balken.

Menace
2017-02-08, 06:26:41
Mögliche Tests:

Das mit den RAW-Konverter ist schon mal sehr gut, wenn diese heute auch via OpenCl schon extrem beschleunigen (zumindest Capture One Pro).

Wie wäre es mit Boinc-Anwendungen? Etwas, was dann bei mir immer laufen würde und momentan auch eigentlich der einzige Grund wäre die CPU zu wechseln. Beispiel könnte WorldCommunityGrid (https://www.worldcommunitygrid.org/discover.action) sein.

N0rG
2017-02-08, 06:36:55
Und wenn wir dann 200h benchen herausgefunden haben das alle getesteten CPUs + TitanX alle Games flüssig darstellen können in 4k? Was machen wir dann? Nicht aufrüsten?

Die einzig interessanten settings sind die, wo sich die GPU zu tode langweilt (720p). Nur dann sieht man die Unterschiede zwischen den CPUs.
Für mich ist eingentlich nur interessant welche CPU noch reserven hat mit meiner jetzigen GPU. davon kann ich dann ableiten ob sich eine GPU aufrüstung in 2 Jahren lohnt oder ob ich dann gleich alles neu kaufen sollte.

Tobalt
2017-02-08, 06:47:58
so eine sinnlose Diskussion...

dann schaut halt auf eure 4k benches die zeigen dass eine neue cpu 1% schneller ist als euer 2500k. supi. das ist jedem auch vorher klar. dafür braucht man sich nicht die Arbeit machen.

es geht bei benches nicht darum, allen sandy oder haswell Besitzern das Ego zu streicheln und zu vermitteln dass sie nicht upgraden müssen. das merken die auch selbst ob ihre cpu noch ihren Anforderungen genügt.

Nein. es geht bei benches viel mehr darum, für wirklich kaufinterssierte Leute die objektiven leistung der inbetrachtkommenden Cpu aufzuzeigen!


nähme ich dafür einen 4k bench der zeigt dass alle cpu ca gleichschnell sind, kaufe ich mir also einen i3 und freue mich über das "schnäppchen"... bis in ein paar Monaten das stetig steigende GPU Limit den i3 ausspuckt und man zurückfällt.

high res benches oder euphemistisch "Praxisrelevante" settings haben in cpu tests in der heutigen gpu limitierten Zeit nichts verloren. sie sind nur nötig damit die dummen den Reviewseiten nicht den rücken kehren. ich finde es erschütternd, in einem technisch anspruchsvollen umfeld wie dem 3dc derartige opposition zu low res cpu benches vorzufinden.

Botcruscher
2017-02-08, 07:16:03
Die Diskussion bewegt sich mal wieder ins lächerliche. Natürlich erhöht die Auflösung auch die CPU Anforderungen. Von nichts kommt nichts. Dann gibt es noch die Titel die auch in UHD ordentlich CPU ziehen oder gleich durchweg limitiert sind.
Die ganze Argumentationskette mit der Auflösung ist einfach quatsch.

nähme ich dafür einen 4k bench der zeigt dass alle cpu ca gleichschnell sind, kaufe ich mir also einen i3 und freue mich über das "schnäppchen"... bis in ein paar Monaten das stetig steigende GPU Limit den i3 ausspuckt und man zurückfällt.
Die Betrachtungen und der kleine Hype zum Pentium die letzten Wochen widerlegen das doch zur genüge. Spätestens mit den Frametimes und Titeln die wirklich Leistung verlangen.

matty2580
2017-02-08, 07:18:15
Das "Problem" bei den CPU Tests lässt sich ganz einfach lösen, indem man zusätzlich zu den Benchs in geringer Auflösung noch 2-3 Spiele im praxisrelevanter Auflösung mit dazu nimmt.

y33H@ bat ja hier um Vorschläge für seinen Test bei Golem. Bittet ihn doch einfach darum, noch einige Spiele zusätzlich wenigstens in Full HD mit zu testen.

Und schon ist diese komische Diskussion hier beendet.

Grundsätzlich macht es natürlich nicht Sinn CPUs mit hohen Auflösungen zu testen. Da so einfach die Unterschiede nicht mehr so gut sichtbar werden.

Tobalt
2017-02-08, 07:23:19
Die Diskussion bewegt sich mal wieder ins lächerliche. Natürlich erhöht die Auflösung auch die CPU Anforderungen. Von nichts kommt nichts. Dann gibt es noch die Titel die auch in UHD ordentlich CPU ziehen oder gleich durchweg limitiert sind.
Die ganze Argumentationskette mit der Auflösung ist einfach quatsch.

ja es gibt stark cpu limitierte titel. wenn man nun 20 titel bencht von denen eine handvoll cpu limitiert sind und der rest nicht, steht im mittel eine viel kleinere differenz zwischen den gebenchten CPUs als eigentlich stehen müsste.

ein besserer weg ist es demnach das gpu limit aus dem weg zu räumen -> low res.

ist das dann ein perfekter bench ? nein. wie alle guten benches deckt er einige spezifikationen der cou gut ab, andere schlechter. das gilt auch für video oder zip benchmarks etc.

ein 4k benchmark hat aber nunmal gar keine Daseinsberechtigung außer dass er die randnotiz liefert, wo aktuell das GPU limit steht.

y33H@
2017-02-08, 07:24:39
Die Auflösung erhöht die CPU-Anforderungen? Bitte erläutern ...

matty2580
2017-02-08, 07:30:09
Einige wünschen sich zusätzlich im Test zu Ryzen auch höhere Auflösungen, weil sie dass für praxisrelevanter halten, obwohl sie wissen dass so die Unterschiede zwischen den CPUs nicht mehr gut sichtbar werden.

Hast Du Lust/Zeit/Möglichkeit bei eurem Test so etwas mit einzubauen?

und guten Morgen ^^

y33H@
2017-02-08, 07:31:32
Computerbase hat idR 720p und 1080p.

Skysnake
2017-02-08, 07:34:26
Ach Leute, es ist halt wie mans macht an sich beschissen....

Wenn man in 720p bencht, dann hängt man eher an den Latenzen von RAM, Cache und PCI-E. Das muss aber nicht heisen, dass die CPU bei höherer Last aber niedrigeren FPS nicht dann dich gut da steht, einfach weil die Latenzen nicht so wichtig sind und man eher etwas Stream mäßiges beackern muss. Ich sage nur Dual-Channel mit hohem Takt vs Quad-Channel mit etwas niedrigerem Takt. Bei extrem hohen FPS kann einfach der Takt limitieren, wenn auch bei späteren Spielen dann die Bandbreite limitiert...

Das weiß man NIE! Daher ist es ja auch an sich richtig, in den Einstellungen zu testen, die auch real verwendet werden. Allerdings ist da eben, wie schon vorgebracht, das Problem, das dann quasi alle CPUs gleich sind....

Gut, man kann sich vielleicht auch einfach eingestehen, das im großen und ganzen einfach bei den CPUs kaum noch etwas passiert in Bezug auf die Anforderungsprofile von Games, aber gut, was soll man machen? Die Antwort kenn man auch ohne Tests und hilft auch keinem weiter, denn dann kommt es wirklich dazu, das sich jemand eine sehr schwache CPU kauft, die dann doch zu mehr Problemen führt als nötig...

Wie ihr seht, ist das einfach nicht einfach, und ich mache genau solche Sachen jeden Tag mit Anwendungen....

y33H@:
Mal darüber nachgedacht, die Performance-Counter bei eurem Test auszulesen und mit einem FPS-Diagramm zu überlagern?

Zumindest für Intel CPUs gibt es da unter Windows tools für. Bei AMD CPUs bin ich mir nicht sicher.

horn 12
2017-02-08, 07:37:40
@Y33h@

Kommen dann die Test der Plattform sowie die Mainboard, RyZen alle Zeitgleich am Launchtag Donnerstag 02 März in den Handel und auch massenhaft lieferbar ?

Hasenpfote
2017-02-08, 08:16:44
Die Auflösung erhöht die CPU-Anforderungen? Bitte erläutern ...Ich glaube bei den Experten hier geht es um Software-Rendering. Ich schlage daher Doom1, Duke Nukem 3D und Dune 2000 vor. Aber bei den Benches bitte nicht in eine private Netzwerksession mit den Kollegen verfallen. Sonst kommen die Testergebnisse erst zwei Wochen später raus.

;D;D;D

An die Leute die CPUs im GPU-Limit testen wollen: Respekt! :freak:

Dr.Doom
2017-02-08, 08:47:44
Es gibt leider immer noch zu viele Leute, die nicht verstehen, wie man eine CPU in Spielen bencht.Ich tendiere dann zu einem Versagen der Redaktion, die das nicht schafft, es verständlich für die Dummen (wie mich) zu erläutern. :freak:

Mangel76
2017-02-08, 09:17:42
Können wir bitte mit dieser sinnlosen Diskussion und der gegenseitigen Unterstellung, keine Ahnung zu haben, aufhören! Es gibt für beide Seiten gute Argumente:

Für mich als Spieler ist es zunächst interessant, ob es mir jetzt (mit RX 480) und in absehbarer Zukunft (vielleicht VEGA, also grob Titan) einen Grund gibt, von meinem aktuellen System (i7-2600K auf 4 GHz mit 27'' WQHD 144Hz-Monitor mit Freesync) aufzurüsten. Das sind die mittelfristigen Rahmenbedingungen, da hilft mir ein Test mit WQHD-Auflösung mit verschiedenen Grafikkarten am ehesten - 720p ist für diese Frage völlig irrelevant. Bis zur übernächsten Grafikkartengeneration und UHD ist es noch ein bisschen hin (bei mir!) und dann gibts wohl schon ZEN3 oder i7-10000, womit sich die Frage der CPU erneut stellt.

Andererseits ist es natürlich auch schön zu sehen, was in Extremsituationen in so einer CPU stecken. Und für die Technikenthusiasten sind dann auch 720p-Benchmarks interessant. Für den normalen Konsumenten steht und fällt die Relevanz dieser Zahlen aber mit dem Zeithorizont, wie lange die CPU genutzt werden soll, ein, zwei oder gar 3 und mehr Grafikkartengenerationen? Und ehrlich, welche Erkenntnis ziehe ich aus 10% Unterschied (z.B. 200fps vs. 220fps) in 720p heute für die Eignung für Spiele von Übermorgen, zumal es dann vielleicht 50fps vs. 55fps sind? Aber dennoch ist es aus technischer Sicht auch für mich interessant zu sehen, ob sich ZEN auch in 720p (neben anderen Anwendungsbenchmarks) gegenüber Intel behaupten kann.

Können wir es also einfach dabei belassen, dass sowohl 720p-Tests als auch solche in praxisrelevanten Auflösungen ihre Daseinsberechtigung haben?

y33H@
2017-02-08, 09:36:40
Hohe Auflösungen haben null Sinn, da die Grafikkarte limitiert - und nutzt jeder eine andere, ergo witzlos. Die Frage ist IMHO: Wie viel Budget habe ich für die CPU? Und in diesem Preisrahmen wird geschaut was für welche Anwendungen und Spiele (oder welcher Workload auch immer) das beste Produkt ist.

BlacKi
2017-02-08, 09:38:39
Problem beim Testen ist, dass die eine CPU in 720p kaum aus dem idle Takt raus kommt, während andere schon in mittleren Bereichen takten (wenn nicht sogar schon hohe Bereiche). Das wird in keinem Test gezeigt oder deutlich genug erwähnt. Auch stumpfsinnig alle Details hochdrehen und Auflösungen runterschrauben ist Quatsch.
Man sollte stets ein kritisches Auge haben. Mich persönlich interessiert es nur ob ich in meiner Praxis einen Gewinn verzeichnen kann. Ich kenne ja mein System. ;)

Die Videos von DF zeigen auch schon gut wie avg fps die frametimes verdecken und die Unterschiede weniger gravierend ausfallen, als das gefühlte Erlebnis nachher vorm Schirm ist.
umgekehrt, in 4k kann es sein das eine cpu im idle läuft, nicht 720p. umso höher die fps (komplett unabhängig von der auflösung, auch nicht 100p) umso höher ist die auslastung der cpu, also auch des taktes.

keiner hat frametimeverläufe kritisiert, fps in 720p machen framtimes nicht unnötig.

zum anderen mögen die 720p selbst nicht realitätsnah sein, aber 240 fps sind realitätsnah, auch wenn sie bisher nische sind.
nicht jeder gamer zockt 4k.

tm0975
2017-02-08, 09:43:14
Computerbase hat idR 720p und 1080p.

genau das ist ja das trauerspiel. in der realität spielt niemand in 720p am pc. viel öfter wird 4 k verwendet. die einstellungen in den tests sind oft nicht praxisgerecht. meine 4 arbeitskollegen spielen alle in 4k (Fury, Nano, 390x und 480), die settings sind dann entsprechend meist mittel bis hoch, die fps 30 bis 60. wenn jemand in fullhd mit 120 oder 144 fps spielen möchte, ist das praxisrelevant, wenn auch geschmackssache. mir reichen 45 fps, dafür würde ich nie wieder auf 4 k verzichten wollen.

Es gibt leider immer noch zu viele Leute, die nicht verstehen, wie man eine CPU in Spielen bencht. Im CPU Limit. Praxisrelevanz ist irrelevant. Es geht um die isolierte CPU Leistung und das Messen dieser in Relation zu anderen CPUs. An diesen kann die Performance der jeweiligen CPU dann referenziert werden.

deine annahme ist schlicht falsch. es geht um den gebrauchswert und da reicht es zu wissen, dass die cpu das locker packt. mich interessiert nicht, was ich sowieso nicht mache. dein sogenannter mehrwert, den du da ermittelst, kannst du sowieso nicht 1:1 hochrechnen auf andere szenarien, acuh wenn du immer so tust. 99% der käufer kaufen eine cpu um sie praxisrelevant zu nutzen. du kaufst sie fürs benchen, dass ist ja ok. aber das interessiert nur sehr, sehr wenige. das brauchen cb und golem nich testen.

Und wenn wir dann 200h benchen herausgefunden haben das alle getesteten CPUs + TitanX alle Games flüssig darstellen können in 4k? Was machen wir dann? Nicht aufrüsten?

schön, dass du es auf den punkt bringst. zum spielen ist die gpu wichtig. die auswahl der gpu einer anderen preisklasse würde den test sinnvoll erweitern. für jemand der nur spielen möchte, reicht also deine aussage komplett aus. und wenn jemand den ganzen tag 7zip macht, dann kann er gene diesen benchmark in seine kaufentscheidung einfließen lassen. so und nciht anders funktioniert sinnvolle produktbewertung.

Pirx
2017-02-08, 09:46:17
Der Mehrwert wird sich dir dann erschließen, wenn es Grafikkarten gibt, die auch unter deinen Settings schnell genug sind um deine CPU über ihre Leistungsfähigkeit hinaus zu beanspruchen. Dann würdest du dir vielleicht wünschen, auch die heutigen Tests in niedrigeren Auflösungen in deine Betrachtungen einbezogen zu haben.

BlacKi
2017-02-08, 09:47:36
@y33H@

mein vorschlag ist, frametimeverläufe unter 4k und fps in 720p.

MechWOLLIer
2017-02-08, 09:52:04
genau das ist ja das trauerspiel. in der realität spielt niemand in 720p am pc. viel öfter wird 4 k verwendet. die einstellungen in den tests sind oft nicht praxisgerecht. meine 4 arbeitskollegen spielen alle in 4k (Fury, Nano, 390x und 480), die settings sind dann entsprechend meist mittel bis hoch, die fps 30 bis 60. wenn jemand in fullhd mit 120 oder 144 fps spielen möchte, ist das praxisrelevant, wenn auch geschmackssache. mir reichen 45 fps, dafür würde ich nie wieder auf 4 k verzichten wollen.

Da wette ich gegen :)
In UHD spielt keiner. Ein paar Enthusiasten. Das wars dann.

Gipsel
2017-02-08, 10:01:29
Das hier ist übrigens immer noch der Thread zu Summit Ridge und keiner für die Diskussion, wie man am besten Spiele-Benchmarking betreibt. Beschränkt Euch also auf's Thema!

Danke.

dune
2017-02-08, 10:41:05
Also wenn ich einen Wunsch hätte für eine Gegenüberstellung zu den Intel I-7 Prozessoren, so würde mich ein Szenario welches die PCI Lanes des Prozessors an die Schnittstellen belastet. Da die Anbindung des Ryzen 8/16 proz. direkt in die CPU geht und bei Intel über eine Gesammtleitung ausgeführt wird. Ich weiß ich drücke mich vielleicht nicht richtig aus. Ich kenne die Fachbegriffe nicht. Also kein Szenario mit einem Bench egal ob Spiel /in welcher Auflösung oder mit einem dual Setting. Ich wünsche mir ein Test mit viel Last auf die Anbindung. Videorendern und speichern auf zwei verschiedenen SSD, gleichzeitig RAW Konvertierung (gerne Lightroom) von usb auf eine weitere Festplatte und dazu noch einen Spielebench. Denn ich denke damit kann man, auch wenn Ryzen nicht soviele PCI lanes wie Intel bereitstellt gut die Qualität der Anbindung aufzeigen.
Ich hoffe, ich habe mich verständlich genug ausgedrückt.
LG
Dune

joni200
2017-02-08, 10:44:21
An die Hardwaretester:
Ich würde mich sehr über ein Test freuen der die Kompilierungszeit (z.B. Linux-Kernel) vergleicht. Das müssen auch nicht soviele CPUs sein, da reichen auch ein paar Stellvertreter (i7-2500k, FX 8370, i7-6900k, i7-7700k, AMD Ryzen).
Das ist ja ein Benchmark der sehr CPU-lastig ist und speziell für Linux-Nutzer (bzw. Entwickler) ist das ja auch etwas aus dem täglichen Gebrauch.

BlacKi
2017-02-08, 13:08:33
ob man am cache vl erkennen kann das es entweder einen 16mb 6kerner gibt oder garkeinen?

https://i.imgur.com/B8MqUByl.png

tm0975
2017-02-08, 13:27:03
blacki, ist das eine vermutung oder gewissheit? es ist ganz schön viel redundanz in der opn.

Unicous
2017-02-08, 13:37:23
Redundanz?

Der Teil hinter den Unterstrichen gehört afaik nicht zur OPN und zeigt nur die Frequenzen ( Basis-Takt, Single Turbo, früher auch NorthBridge-Takt und bei einer APU z.B. den GPU-String und Basis-Takt).

tm0975
2017-02-08, 13:58:23
ja, der teil hinter dem strich (36). was genau ist die modell revision number, hat da jemand eine vorstellung?

N0Thing
2017-02-08, 14:25:15
was genau ist die modell revision number, hat da jemand eine vorstellung?

Das dürfte die Anzahl der Überarbeitungen angeben. Kennt man unter Umständen von Mainboards, wo nach ein paar Monaten kleinere Fehler ausgemerzt oder Verbesserungen vorgenommen wurden. Genauso können auch Chips mit der Zeit Überarbeitungen erfahren, wobei das dort oft als Stepping angegeben wird.

Unicous
2017-02-08, 14:31:18
@tm0975

Ich bin mir ziemlich sicher, das das eh falsch ist. Bzw. zumindest bei 36 01. 36 ist der Basistakt, 01 ist wahrscheinlich nur ein Identifikationsnummer, das Ding hieß früher auch nur model number, keine Ahnung wo sie sich das "revision" herausgesogen haben.:wink: (bei den TDP-Angaben bin ich auch noch nicht überzeugt, aber die Kodierung ändert sich bei AMD wohl auch ständig)

Das ist im Übrigen nur eine bildliche Darstellung dieses Canard-Artikels

https://www.cpchardware.com/ryzen-les-frequences-a-la-loupe/

der von einem Reddit-User gemacht wurde.

Darüber hinaus erzählt Canard auch öfter mal Quatsch, auch wenn sie gute Quellen haben. Das Schwierige ist ja eigentlich nicht die Information zu erhalten, sondern sie entsprechend zu interpretieren und einzuordnen.

edit:

@N0Thing
Dafür ist ja schon die letzte Kodierung zuständig, die das Stepping/die Revision angibt.

Bei einer retail-OPN ist/war es die Modellbezeichnung. Da steht dann da z.B. 8150 für den FX-8150.

ES-OPN und retail-OPN unterscheiden sich nämlich.

Dino-Fossil
2017-02-08, 14:33:18
Ein Glück, dass wir in 20+/-4 Tagen mehr wissen dürften...

N0Thing
2017-02-08, 14:40:57
@N0Thing
Dafür ist ja schon die letzte Kodierung zuständig, die das Stepping/die Revision angibt.

Bei einer retail-OPN ist/war es die Modellbezeichnung. Da steht dann da z.B. 8150 für den FX-8150.

ES-OPN und retail-OPN unterscheiden sich nämlich.

Gut möglich, andererseits gibt auch Intel Stepping und Revision getrennt an.

Unicous
2017-02-08, 14:54:44
Wir reden hier aber über AMD.:wink: Zumal Stepping (minor revision/metal layer revision) und "Revision" (major revision/base layer revision) eh synonym benutzt werden. Hier bezeichnet Stepping afaik Errata-Fixes, die nicht die Masken betreffen. Das gibt es bei AMD auch, aber bei AMD wird es nicht angegeben, bzw. man muss es sich aus dem AGESA heraussuchen.

S940
2017-02-08, 15:21:14
Ist noch keinem aufgefallen, daß die Artikel davon sprechen, AMD hätte an zwei Achtkern-Designs mit 3,4GHz gebastelt?
Was soll denn das zweite sein?
Ich vermute mal ganz stark der K12 für ARMv8 ;)

Ach ja, die kleinere Fläche trotz weniger dicht packendem Prozeß erreicht man wohl zu einem nicht unwesentlichen Teil durch die schmalere FPU. Vergess mal nicht AMDs High-Dense-Libs. Die packen ganz tüchtig, v.a. die Decoder und die FP-Unit, wie man schon bei den Excavatorkernen sah. Da konnte sich AMD plötzlich den Luxus erlauben den L1 mal schnell zu verdoppeln. Ich würde da also nicht von ner "schmaleren" FPU reden, das klingt zu arg nach "primitivere Bauart", was es nicht trifft. So langsam werden 2x 128 FMACs plus 2x 128bid ADD ganz sicher auch nicht sein ;)

Lange Rede kurzer Sinn: Intel liefert eine Textdatei, AMD ein Zipfile ;)

Unicous
2017-02-08, 15:29:03
@S940

Das passt nicht zum Kommentar vom Autor des EETimes Artikels.

That's what I heard the paper presenter say, and assume he meant the company has taped out two different eight-core Zen chips that are both running at 3.4 GHz.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11286054#post11286054

Agent117
2017-02-08, 15:40:24
Wir reden hier aber über AMD.:wink: Zumal Stepping (minor revision/metal layer revision) und "Revision" (major revision/base layer revision) eh synonym benutzt werden. Hier bezeichnet Stepping afaik Errata-Fixes, die nicht die Masken betreffen. Das gibt es bei AMD auch, aber bei AMD wird es nicht angegeben, bzw. man muss es sich aus dem AGESA heraussuchen.

Das heißt dann der im Screenshot von N0Thing gezeigten 2500K entstand nachdem 4 base layer Revisionen vorgenommen wurden und anschließend nochmal 2 metal layer spins? Deshalb D2? Sry wegen der Nachfrage aber alle möglichen Hardwareseiten warfen die vergangenen Wochen mit irgendwelchen Steppings von Zen wild umsich. A0,A1,B4,F3,F4....war alles dabei ohne dass sich einer der Journalisten mal die Mühe gemacht hatte zu erklären wie AMDs Benennung ist.
Steht bei Zen " F? " dann analog zum 2500K auch für die Errata-Fixes (F für Fix?) und bei A0,A1,B0 usw. der Großbuchstabe für base layer spin und die Zahl für metal layer spin?

S940
2017-02-08, 15:41:06
@S940

Das passt nicht zum Kommentar vom Autor des EETimes Artikels.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11286054#post11286054

Dass passt schon, es bedeutet nur, dass der Autor falsche Schlüsse gezogen hat.

Gehört hat er in der AMD-Präsentation, dass AMD zwei 8 core SMT Designs hat. Das sind die Fakten. Aufgrund dieser vermutet (assume) der eetimes Autor nun, dass der AMD Repräsentant damit zwei unterschiedliche Zens gemeint haben müsste.

Dir steht jetzt frei meiner oder seiner Vermutung zu glauben ;)

Unicous
2017-02-08, 16:03:11
@940

Naja, du warst nicht dabei und den genauen Wortlaut kennst weder du noch ich.:wink:

Ich vertraue daher, es tut mir sehr leid, vorerst auf das Wort des Autors. Ich fände es auch eher komisch, wenn man bei einem Zen-Vortrag über ARM sprechen würde. Leider hat bislang außer EE-Times wohl kein weiteres anwesendes Medium über den Vortrag berichtet, jedenfalls hoffe ich das noch mehr Journalisten vor Ort waren.:freak:

@Agent117

Also von Zen gibt es laut Canard und TheStilt eine A0, A1, B0 und B1 Revision, d.h. Zwei major revisions (A und B) und jeweils 2 minor revisions ( 0 und 1)

E4 steht bei Zen für die revision A1 (E3 analog für A0) und F3 für B0, bzw. F4 für B1. Es ist eine simple Codierung.

Ergo F4 als revision ist kompletter bullshit. Man möge sich an Polaris 10 erinnern, wo CPU-Z den ID-String falsch ausgelesen hat (weiterhin ausliest?) und behauptet die revision wäre C7. Irgendwo schrieb jemand es wäre A1 silicon, ich glaube er hatte es im BIOS ausgelesen.


Bei Intel gibt es bei dem gezeigten SB 4 major revisions (A,B,C,D) und bei revision D mindestens 3 minor revisions (0, 1, 2). Wieviele minor revisions es ingesamt gab kann ich dir nicht sagen.

Timbaloo
2017-02-08, 16:09:09
Ist das hier neu?

https://elchapuzasinformatico.com/2017/02/precio-amd-ryzen-r7-1800x-r7-1700x-r7-1700/

Bin ich zufällig beim Blättern auf TPU gestolpert...

Hübie
2017-02-08, 16:10:18
Woher weißt du das mit den Revisionen? Ich glaube dir zwar, aber Interesse halber frag ich mal nach. ;)

Edit: Diese automatische, kühlungsabhängige Übertaktungsfunktion ist nur dem Highend-Modell vorbehalten, richtig? Bei allen anderen ist der Multi offen, aber diese Funktion deaktiviert. Richtig?

S940
2017-02-08, 16:11:03
@940

Naja, du warst nicht dabei und den genauen Wortlaut kennst weder du noch ich.:wink:

Ich vertraue daher, es tut mir sehr leid, vorerst auf das Wort des Autors. Ich fände es auch eher komisch, wenn man bei einem Zen-Vortrag über ARM sprechen würde. Leider hat bislang außer EE-Times wohl kein weiteres anwesendes Medium über den Vortrag berichtet, jedenfalls hoffe ich das noch mehr Journalisten vor Ort waren.:freak:

Ist schon ok, aber wenn es um die Sinnhaftigkeit der Projekte geht, dann wäre ein 2. Zen - v.a. mit 8 Kernen - ziemlich nutzlos, egal ob ich da jetzt dabei war oder nicht. Solchen Luxus kann sich AMD schlicht nicht leisten. K12 ist außerdem ein bekanntes Projekt und es liegt sehr nahe, dass AMD dafür den gleichen Uncore wie für Zen verwenden wird. Wozu sollte man das Rad schließlich neu erfinden?

Isen
2017-02-08, 16:14:07
Bin ich zufällig beim Blättern auf TPU gestolpert...

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11282205#post11282205

Unicous
2017-02-08, 16:14:07
Es ist der zigste Aufguss eines längst als fake abgestempelten "leaks". Bei coolaler wurde der Thread dazu bereits vor ein paar Tagen gelöscht (wer die Primärquelle für den Unsinn ist weiß man ich aber nicht).

TPU würde ich im Übrigen nicht mehr ansteuern, die posten nur noch bullshit... und Pressemitteilungen. So gute wie keine Eigenleistungen mehr und naja die Reviews haben mich persönlich auch noch nie vom Hocker gehauen.


edit:

@ Hübie

Woher weiß ich was? Wäre nett wenn du die Frage etwas konkretisieren könntest.

Agent117
2017-02-08, 16:30:31
@940
Also von Zen gibt es laut Canard und TheStilt eine A0, A1, B0 und B1 Revision, d.h. Zwei major revisions (A und B) und jeweils 2 minor revisions ( 0 und 1)

E4 steht bei Zen für die revision A1 (E3 analog für A0) und F3 für B0, bzw. F4 für B1. Es ist eine simple Codierung.

Ergo F4 als revision ist kompletter bullshit. Man möge sich an Polaris 10 erinnern, wo CPU-Z den ID-String falsch ausgelesen hat (weiterhin ausliest?) und behauptet die revision wäre C7. Irgendwo schrieb jemand es wäre A1 silicon, ich glaube er hatte es im BIOS ausgelesen.


Bei Intel gibt es bei dem gezeigten SB 4 major revisions (A,B,C,D) und bei revision D mindestens 3 minor revisions (0, 1, 2). Wieviele minor revisions es ingesamt gab kann ich dir nicht sagen.


Danke, so ergibt das alles Sinn mit E und F! Die mit E-bezeichneten Revisionen hatte ich noch nirgends vorher gelesen, deshalb konnte ich daraus nix ableiten.
Interessant aber auch dass Intel dann beim ersten Sandy Bridge DIE 4 Base Layer Spins gebraucht hat, die ja sehr teuer sind, wie hier auf den vorherigen Seiten gesagt wurde. AMD scheint da mit Zen alle Anschein nach nur eine zu benötigen.

Unicous
2017-02-08, 16:36:01
@Agent117

Intel geht/ging z.T. sogar noch höher (E und F ist keine Seltenheit, auch G0 gab es iirc früher schon) und auch AMD hatte z.B. beim Phenom II E0.

Das kann sich AMD momentan nicht leisten, bzw. muss es unter Umständen auch nicht. Piledriver ist ja eigentlich auch "nur" ein Bulldozer mit C0 Stepping.

robbitop
2017-02-08, 16:43:54
@Unicous
Du meinst Vishera (z.B. FX8350) ist ein Orochi (z.B. FX8150) in einer C-Revision?
Ich bin hier sehr skeptisch. Piledriver brachte so einige Änderungen, die IMO nicht durch einen großen Respin machbar sind.

- Bessere Sprungvorhersage
- FMA3, F16C Support
- verbessertes Sheduling
- Größere L1 TLB
- größere Load Queue
- verbessertes store-to-load forwarding
- verbesseres Prefetching
- besseres page translation reload
- schnelleres DIV (division)

Auch war die IPC IIRC mit je nach Szenario 10...15% höher als beim FX8150. Das soll alles über ein Respin kommen? Behauptet wird das gern bei P3D - aber dann wüßte ich gern wo obige mArch Verbessungen herkommen sollen.

Tru
2017-02-08, 16:59:49
Es ist der zigste Aufguss eines längst als fake abgestempelten "leaks". Bei coolaler wurde der Thread dazu bereits vor ein paar Tagen gelöscht (wer die Primärquelle für den Unsinn ist weiß man ich aber nicht).
Also bei den Namen wäre ich mir ja nicht so sicher. :P

Unicous
2017-02-08, 17:00:53
Also bei den Namen wäre ich mir ja nicht so sicher. :P

Dann wäre AMD in der Tat selten dämlich.:uhammer:

Tru
2017-02-08, 17:02:18
Dann wäre AMD in der Tat selten dämlich.:uhammer:
Naja, momentan werden Entscheidungen gefühlt alle fünf Minuten geändert. Vielleicht gibt ja doch noch andere Namen.

robbitop
2017-02-08, 17:03:13
@robbitop

Das ist allgemein bekannt, auch keine Neuigkeit und hat nichts mit Verschwörungstheorien zu tun.


http://www.pcgameshardware.de/FX-8350-CPU-256473/Tests/FX-8350-Test-Vishera-Piledriver-1031473/

Zumal der Piledriver die OR-C0 heißt (während Bulldozer mit OR-B2 ausgeliefert wurde).:wink:

Wie du vllt. weißt basiert auch Bristol Ridge auf dem selben Die, sogar auf der selben Revision afaik, dennoch wurden einige Verbesserungen implementiert, die u.a. durch Microcode-Verbesserungen zustande kommen.

Wenn der gleiche Kern durch eine neue Revision diese mArchs freischaltet, dann müssen sie vorher vorhanden gewesen sein. Was bedeuten würde, dass Bulldozer mArch = Piledriver mArch ist. Mit einer ganzen Menge Kram der deaktiviert wurde - aus welchem Grund auch immer...
Das würde aber immerhin erklären, wie AMD so kurz nach Orochi Trinity mit aktualisierter mArch (Piledriver) bringen konnte - weil es ja keine neue, sondern nur eine debugte, mArch war...

Interessant.

Mit Bristol Ridge meinst du, dass er auf dem gleichen Die wie Carrizo basiert? Kann ich mir vorstellen - beides Excavator mArch. DDR4 Memorycontroller war dann in Carrizo deaktiviert?

Unicous
2017-02-08, 17:10:07
Wenn der gleiche Kern durch eine neue Revision diese mArchs freischaltet, dann müssen sie vorher vorhanden gewesen sein. Was bedeuten würde, dass Bulldozer mArch = Piledriver mArch ist. Mit einer ganzen Menge Kram der deaktiviert wurde - aus welchem Grund auch immer...


Genau so ist es.:wink:

Das zieht sich im Übrigen durch die gesamte Bulldozer-Familie. Es gibt implementierte Hardware-Features die am Ende nicht "aktiviert" werden weil sie entweder nicht ready for primetime sind oder einfach defekt.
Spontan fällt da das Hybrid-PHY bei Kaveri ein, das neben DDR3 auch GDDR5 beherrscht. Bei Carrizo war es die schlummernde DDR4-Unterstützung.

Es könnte auch sein, dass AMD bei Trinity das Resonant Clock Mesh drin hatte (und nicht nur in einem Prototypen beschrieben hat), aber nie genutzt hat. Dieses Konzept wird ja in gewisser Weise im Infinty Fabric fortgeführt.


edit: Bei Steamroller gab es z.B. auch einen ISSCC Vortrag zu "Adaptive Clocking", und bei Carrizo/BR hat man dann schlussendlich Adaptive Voltage and Frequency Scaling (AVDS) implementiert bzw. vermutlich "aktiviert", nachdem man es bei Kaveri schon getestet hat.

robbitop
2017-02-08, 17:14:57
Wurde RCM eigentlich irgendwann genutzt?
Das Gerücht mit dem GDDR5 habe ich auch gelesen - wurde aber in keinem Produkt je unterstützt. Gab es jemals eine klare Bestätigung / einen Nachweis, dass das GDDR5 PHY tatsächlich existiert? :)

Unicous
2017-02-08, 17:24:51
Wurde RCM eigentlich irgendwann genutzt?
Das Gerücht mit dem GDDR5 habe ich auch gelesen - wurde aber in keinem Produkt je unterstützt. Gab es jemals eine klare Bestätigung / einen Nachweis, dass das GDDR5 PHY tatsächlich existiert? :)

Im BKDG für Kaveri bzw. "Family 15h Models 30h-3Fh" ist ein "GDDR5-Modus" beschrieben. Das steht afaik in keinem anderen BKDG.:wink:

G5_Mode: GDDR5 Mode.
Read-write. 1=Combo phy slave chip is in GDDR5 mode. 0=Combo phy
slave chip is in DDR3 mode. See section
2.9 for product support.

Gddr5Mode
The DRAM controller and the phy are configured for GDDR5 mode. Note: this
mode may not be supported by this processor. See section
2.9, or consult processor
data sheet to determine which modes are supported.
https://support.amd.com/TechDocs/49125_15h_Models_30h-3Fh_BKDG.pdf


Es wird aber auch gesagt, dass GDDR5 nicht supported wird.:biggrin:

S940
2017-02-08, 17:32:23
Wenn der gleiche Kern durch eine neue Revision diese mArchs freischaltet, dann müssen sie vorher vorhanden gewesen sein. Was bedeuten würde, dass Bulldozer mArch = Piledriver mArch ist. Mit einer ganzen Menge Kram der deaktiviert wurde - aus welchem Grund auch immer...
Na weils noch verbuggt war, ganz einfach. Stand auch im entsprechenden Errata-Heftchen, wenn es Dich interessiert:
http://www.planet3dnow.de/vbulletin/threads/405982-Aus-dem-Forum-AMD-Piledriver-Kern-zeigt-sich-stark-verbessert

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1334532731

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1346580414

Wenn Dus ganz genau haben willst, dann gabs 2 Piledriver, einen entwanzten in den C0-Visheras und einen "echten" in der Trinity Apu. Den Visheras fehlt noch das neue Front-End, aber zumindest die größeren TLBs sind auch mit an Bord, Genaueres dazu gabs hier:
http://www.planet3dnow.de/vbulletin/threads/408737-AMD-FX-Vishera

reaperrr
2017-02-08, 17:38:56
Wurde RCM eigentlich irgendwann genutzt?
Das Gerücht mit dem GDDR5 habe ich auch gelesen - wurde aber in keinem Produkt je unterstützt. Gab es jemals eine klare Bestätigung / einen Nachweis, dass das GDDR5 PHY tatsächlich existiert? :)
Auf Die-Shots sind eindeutig zwei 128-bit PHYs zu sehen. Ob die ungenutzten 128 bit wirklich GDDR5 sind lässt sich ohne offizielle Bestätigung zwar nicht zu 100% sagen, aber Gerüchten zufolge wurde auf GDDR5 nur deshalb verzichtet, weil die dafür eingeplanten GDDR5-SODIMMs letztlich - wohl mangels Nachfrage - nie in Massenproduktion gingen.

Die-Shot weiter unten:
https://www.golem.de/news/test-amd-kaveri-a8-7600-die-45-watt-wohnzimmer-apu-1401-103846-2.html

mczak
2017-02-08, 18:58:50
Ich würde da also nicht von ner "schmaleren" FPU reden, das klingt zu arg nach "primitivere Bauart", was es nicht trifft. So langsam werden 2x 128 FMACs plus 2x 128bid ADD ganz sicher auch nicht sein ;)

Das nicht, aber die schmalere FPU dürfte sicher auch etwas beim Flächenbedarf ausmachen. Kommt ja nicht von ungefähr dass da die Hälfte der Lanes mit separatem Powergating daher kommt und dann die CPU bei Benutzung von AVX tiefere Turbostufen hat. So eine "halbe" 128bit FPU könnte durchaus ~10% der Gesamtfläche belegen (vermutlich sieht man das in den Die-Shots - habe aber keine kommentierten gefunden, ich kann mich da auch irren...)
Abgesehen davon ist der reine Flächenvergleich sowieso nicht sonderlich sinnvoll. Man kann sicher sagen AMD packt dichter, nur sagt das nicht sonderlich viel aus...

Setsul
2017-02-08, 20:10:40
Dazu braucht man keine kommentierten Die shots, die findet man auch so.
https://www.techpowerup.com/img/15-08-18/77a.jpg

Ja, die sind wirklich so groß. Bei Skylake EP haut Intel dann mit 1MB L2 und 512bit AVX so richtig auf den Putz.

Unicous
2017-02-09, 00:09:32
http://i.imgur.com/hQ13338.png


http://www.shopblt.com/search/order_id=%21ORDERID%21&s_max=25&t_all=1&s_all=AMD+AM4&search=Search

Ich kann es nicht glauben.

http://memeshappen.com/media/created/WHY-JUST-WHY-meme-43291.jpg

$500 für den 1800X, wobei BLT generell eher inflationäre Preise verlangt (könnten natürlich auch Platzhalter-Preise sein)

Nakai
2017-02-09, 00:15:32
Die Dinger sind irgendwas zwischen 150~200mm² und wohl nicht so teuer wie Intels Dinger. Das ist ein Kampfpreis, um Marktanteile radikal an sich zu reissen. Leute macht euch auf was gefasst...das wird ein interessanter Launch.

Unicous
2017-02-09, 00:18:00
Ging mir um die Namen.:wink:

Hasenpfote
2017-02-09, 00:20:22
Nächste Gerüchte:
https://videocardz.com/65706/amd-ryzen-rumors
Quelle: https://elchapuzasinformatico.com/2017/02/precio-amd-ryzen-r7-1800x-r7-1700x-r7-1700/

4Ghz 8C/16T 600Euro + Steuer
3,8Ghz 8C/16T 470Euro + Steuer
3,7 Ghz 8C/16T aber 65W 370Euro + Steuer

----------------
edit: hier stand das Gleiche wie bei Unicous (ich war zu lahm :D )
-----------------

Ein Reddit-User weist darauf hin, dass die SKU-Daten aus dem Shop u.a. hier passen:
http://www.kikatek.com/P893987/YD1700BBAEBOX-AMD-RYZEN-7-1700-3-7GHZ-8-CORE-65W?cPath=438
http://www.kikatek.com/P893986/YD170XBCAEWOF-AMD-RYZEN-7-1700X-3-8GHZ-8-CORE-SKT
http://www.kikatek.com/P893985/YD180XBCAEWOF-AMD-RYZEN-7-1800X-4-0GHZ-8-CORE-SKT
Preise sind dort ebenfalls human.

Denn viel Spaß bei der weiteren Fahrt auf dem Hypetrain! *tschu tschuhhhhhhh*

edit2:
Auch via Reddit gefunden:
http://www.pcworld.com/article/3167279/computers/amd-sorry-there-will-be-no-official-ryzen-drivers-for-windows-7.html
*schnief*

aufkrawall
2017-02-09, 00:27:17
Dass es 8C ohne HTT geben könnte, war nur völlig unbelegte Speku, oder?

Linmoum
2017-02-09, 00:34:52
Das wurde zwischendurch gerüchteweise mal in den Raum geworfen, mehr gab's dazu dann aber auch nicht.

Ging mir um die Namen.:wink:
Inwiefern denn?

R7/5/3 halte ich jetzt nicht für verkehrt und die Nummern danach... spielt das so 'ne Rolle, ob AMD da jetzt 500, over 9000, 42 oder 1800 nimmt? :D

Unicous
2017-02-09, 00:43:23
Bei Reddit sagt jemand es wären automatische Einträge aus der Datenbank von Ingram Micro, allseits bekannter Großhändler für IT und das ist natürlich sehr plausibel.

Leider scheinen es aber keine retail-Preise zu sein und es kommt wohl noch eine Händlermarge drauf.

Aber wie gesagt BLT ist generell sehr teuer, vllt. hebt es sich ja wieder auf.:wink:


@Linmoum

Ganz einfach. Rx gibt es schon als Marketingnamen und das schon seit einigen Jahren. Für GPUs.
Warum sollte man das miteinander vermauscheln. Warum steht jetzt das R für Ryzen und für Radeon. Das ist unsagbar... dumm.

Warum muss man nicht nur die Radeon Nomenklatur klauen sondern auch noch die von Intel?
Was war so verkehrt an (FX-)8/6/4?

Man will sich doch nicht anbiedern sondern eine Alternative bieten.

Nakai
2017-02-09, 00:55:30
Ging mir um die Namen.:wink:

Das war mir egal. Irgendwo muss ein neues Namensschema losgehen.

Ich dachte, ich müsste mehr fürn Octa-Core +SMT hinlegen.

Timbaloo
2017-02-09, 00:57:13
Ich frage mich wie die den 1800X @ 4GHz auf 95W bringen wollen? Das wäre ja in der Tat der Hammer!

Foobar2001
2017-02-09, 01:10:43
Wahrscheinlich kein voller Takt bei voller Auslastung. Andernfalls waere es wirklich beachtlich.

Gipsel
2017-02-09, 01:15:27
Ich frage mich wie die den 1800X @ 4GHz auf 95W bringen wollen? Das wäre ja in der Tat der Hammer!Die 4GHz werden der Singlecore Boosttakt sein (3,6/4,0GHz). Aber ein 8C16T auf 65W zu bringen ist auch irgendwie interessant (falls der nicht doch nur 6 Kerne hat). Vermutlich ist da aber der Basetakt etwas niedriger (3,2/3,7GHz wie der i7-6900K?). Und das fehlende X am Ende signalisiert das fehlende XFR Feature?
Intel kommt mit Kabylake-X im Sommer mit Vierkernern auf 112W daher (okay, bei bis zu 4,3/4,5GHz), AMD dagegen mit Achtkernern bei 65W die anscheinend takten wie intels aktuelle 8Kerner bei über 100W (offiziell bis 140W) :eek:. Da muß Skylake-X wohl eine Schippe drauflegen.

PrivateCeralion
2017-02-09, 01:21:43
AMD mit Achtkernern bei 65W die takten wie intels 8Kerner bei über 100W (offiziell bis 140W). :eek:

Wenn das stimmt, dann wäre das unglaublich! Dann ist Zen der feuchte Traum von jedem Server/Cloud Anbieter. Und mini ITX Systeme werden auf ein ganz neues Niveau gehoben.

Und meine Aktien werden noch mehr durch die Decke gehen.

Und Intel hat 2018 ein neuen CEO

S940
2017-02-09, 01:26:16
Und das fehlende X am Ende signalisiert das fehlende XFR Feature?
Könnte auch nur ein Hinweis auf die TDP sein.

@Stromverbrauch: Das ist ja auch noch ein Witz der HD-Libs, die senken im Optimalpunkt auch noch den Energieverbrauch ;)
Das ist schon alles sehr nett ;)

Timbaloo
2017-02-09, 01:27:57
Die 4GHz werden der Singlecore Boosttakt sein (3,6/4,0GHz).
Ah, das war mein Denkfehler. Trotzdem beachtlich. Ich bin gespannt.

S940
2017-02-09, 01:29:19
Warum muss man nicht nur die Radeon Nomenklatur klauen sondern auch noch die von Intel?
Fehlende Marketinggelder ... AMD hat auch sein Black-Edition gegen "K" eingetauscht, nachdem es Intel hatte.

Blöd ist aber so kann der 08/15 User (also der durchschnittliche Elektromarktverkäufer ;)) besser mit Intel vergleichen, beides hat "7", also ist das sicher gleich :freak:

Unicous
2017-02-09, 01:51:38
@S940

Ach komm. Das liegt doch nicht am fehlenden Geld sondern entweder an einer dilettantischen Agentur oder internen Marketing-Leuten die den Schuss nicht gehört haben.

Ich will einen Thunderbird und keinen BuchstabeNummer 0815Buchstabefür100MHzmehrundkrassesOverclocking. :rolleyes:

Wenn ich letzeres will, kaufe ich weiter bei Intel.

Die FX-Nomenklatur war jetzt auch nicht gerade überragend aber zumindest hat sie konkret etwas über das Produkt ausgesagt. Bei den APUs war es anfangs auch noch ok bis sie dann übergeschnappt sind und aus dem Zauberhut immer mehr absurde Zahlen gezogen haben.

Wollen sie nun eine Alternative zu Intel darstellen oder wollen sie doch wieder nur "me too" Produkte verkaufen.

Ich schaue mir derweil meinen 15 Jahre alten A1000AMT3B an und rufe dabei Thun-, Thun-, Thunderbird. :biggrin:



edit:

Noch mal zu dem Reddit Kommentar (hatte vergessen ihn zu verlinken)

Background: I am formerly a purchaser for a computer retailer.

This site is hooked directly into the database for one of the largest "channel" suppliers in the world - Ingram Micro.

These are 100% legit SKUs, however pricing is not quite realistic. These are flat percentage markups of Ingram Micro's selling price.

Er hat dann noch ein u.a. das hier hinzugefügt:

As a rule, BLT would have things in a certain line all the same lazy markup over the Ingram price. If Ingram listed a bunch of new logitech keyboards in April 2015, they'd all be 5% higher on BLT. If Ingram listed a bunch of new CPUs in Feb 2017, they'd all be, say, 1% higher on BLT. Making up those numbers, but that's the pattern.

Ultimately, the pattern from BLT that I am familiar with means that the 1800X will be $449.99 - 499.99 MSRP, barring any sort of price inflation if we are under supplied.
https://www.reddit.com/r/Amd/comments/5svsva/amd_ryzen_cpus_for_preorder_prices_may_be_legit/ddia2b8/

Ich hatte ihn wie andere auch falsch verstanden. Der markup ist laut ihm schon draufgeschlagen und wie ich bereits sagte ist BLT eher dafür bekannt teuer zu sein, besonders im Hinblick auf retailer wie z.B. newegg.
Könnte also sein (wenn die Preise, die von Ingram Micro kommen stimmen) dass die Chips sogar noch günstiger sind als die Preise bei BLT vermuten lassen.

S940
2017-02-09, 02:11:17
Die FX-Nomenklatur war jetzt auch nicht gerade überragend aber zumindest hat sie konkret etwas über das Produkt ausgesagt.Weil Du (und vermutlich alle hier im Thread) Freaks sind, die AMDs Marketingmaterial lesen ;) ;)
Was Eigenständiges durchzudrücken kostet einfach viel zu viel, und dann wärs auch noch kontraproduktiv, da das Vergleichen mit Intel schwieriger wird.

oder wollen sie doch wieder nur "me too" Produkte verkaufen.
AMD wollen vor allem ein "unser 7-Modell ist besser" Produkt verkaufen ;)

Unicous
2017-02-09, 02:24:37
AMD wollen vor allem ein "unser 7-Modell ist besser" Produkt verkaufen ;)

Müsste es dann nicht R9 8800K heißen.:ueye:

PrivateCeralion
2017-02-09, 02:27:20
Müsste es dann nicht R9 8800K heißen.:ueye:

R9 hatten sie aber schon für Grafikkarten

Unicous
2017-02-09, 03:11:31
R9 hatten sie aber schon für Grafikkarten

Wirklich?:eek:

Als nächstes erzählst du mir, dass sie R7, R5 und R3 auch nutzen/genutzt haben und bei letzterem sogar eine SSD unter dem Branding herausgebracht haben.

Aber das wäre ja totaler Quatsch und eine völlige Katastrophe wenn sie diese Namen für CPUs nutzen würden.:freak:

Leonidas
2017-02-09, 07:23:28
Man spielt eben die alten Spiele oder schraubt die Rechendetails runter.


Nein, das funktioniert nur in gewissen Maßen, aber nicht generell (Rechendetails runterschrauben).

Wenn ich da mal meinen alten C2D-basierten Pentium einsetze: Schon unter mittelalten Spielen und mit einer Grafikqualität, die eigentlich für 40 fps ausreicht, fühlen sich alle Spiele sehr unrund an. Im Prinzip Mikroruckler so weit das Auge reicht, auch bei über 30 fps. An der Gfx liegt es nicht, die wird hierbei nichtmal voll ausgelastet.

Sicherlich ist dies ein Extremfall (sehr alte CPU), aber ich hab da inzwischen meine breiten Erfahrungen: Richtig alte CPU auf modernen Spielen gibt zwar (auf den richtigen Settings) hohe fps, aber fast immer ein unrundes Spielgefühl. Leg ich dagegen ein richtig altes Spiel ein und maximiere die Grafik, damit die gleichen 40-60 fps herauskommen, bleibt es dennoch ein rundes Spielgefühl.


PS: Sorry @ Mods. Geschrieben bevor ich das Mod-Posting zu OT gesehen hatte.

Pirx
2017-02-09, 07:40:47
...Da muß Skylake-X wohl eine Schippe drauflegen.
Es sei denn, die Leistung von Ryzen ist doch nicht soooo toll, was aber eigentlich scon zum Großteil widerlegt ist.

prinz_valium
2017-02-09, 08:49:00
War doch klar, dass das top modell nicht über $499 kosten wird.

für mich dann aber gerne die 65watt version, wenn das oc dadurch nicht beschränkt ist/wird

Gandharva
2017-02-09, 10:22:42
RYZEN 7 1700X 3.8GHZ 8 CORE - SKT AM4 20MB 95W WOF IN
RYZEN 7 1800X 4.0GHZ 8 CORE - SKT AM4 20MB 95W WOF IN
RYZEN 7 1700 3.7GHZ 8 CORE 65W - SKT AM4 20MB WRAITH SPIRE PIB IN

Ich denke die Modelle ohne X haben kein Hyperthreading. Zuerst wird nach Takt selektiert, dann nach HT und letztendlich nach funktionalen Kernen. So kann man den "Abfall" recht gut vermarkten.

M4xw0lf
2017-02-09, 10:26:57
RYZEN 7 1700X 3.8GHZ 8 CORE - SKT AM4 20MB 95W WOF IN
RYZEN 7 1800X 4.0GHZ 8 CORE - SKT AM4 20MB 95W WOF IN
RYZEN 7 1700 3.7GHZ 8 CORE 65W - SKT AM4 20MB WRAITH SPIRE PIB IN

Ich denke die Modelle ohne X haben kein Hyperthreading. Zuerst wird nach Takt selektiert, dann nach HT und letztendlich nach funktionalen Kernen. So kann man den "Abfall" recht gut vermarkten.
Wo kommen diese Bezeichnungen her?

iuno
2017-02-09, 10:29:34
Offenbar von dort: http://www.shopblt.com/search/order_id=%21ORDERID%21&s_max=25&t_all=1&s_all=AMD+AM4&search=Search

Malabolge
2017-02-09, 10:30:10
Ich schaue mir derweil meinen 15 Jahre alten A1000AMT3B an und rufe dabei Thun-, Thun-, Thunderbird. :biggrin:

You've been "Thunderstruck" ! :D:biggrin:;D


Wie es Aussieht scheint AMD wirklich ein "hübsches" Round-up liefern zu wollen.
Solange der Preis und die Leistung stimmen , ist es mir Sch...egal ob sie die Dinger FXzzzz oder Rxx nennen.

Gandharva
2017-02-09, 10:30:22
Wo kommen diese Bezeichnungen her?
https://www.lambda-tek.com/shop/?region=GB&searchString=RYZEN
Britischer Reseller

Sieht man sich deren Intel CPU Preise an dürfte der 1800X hierzulande etwa bei 580€ landen. Die non-X kommen Boxed, die X-Modelle kommen ohne Kühler.

Zergra
2017-02-09, 10:32:56
Oder die x Modelle haben einen freien Multi. Beim ohne x muss man dann wieder über den Blck übertakten. Könnte aber auch für das xfr sein. Daher ohne oder mit kaputten Sensoren.

matty2580
2017-02-09, 10:34:06
Modellbezeichnung in Anlehnung an Core i7 / i5 / i3

Die ersten Ryzen-Prozessoren auf Basis der Zen-Architektur sollen vielmehr unter den Namen Ryzen 7 1800X, Ryzen 7 1700X und Ryzen 7 1700 auf den Markt kommen. Die ersten beiden Modelle unterscheiden sich nur beim Takt, das Modell ohne „X“ soll hingegen mit einer TDP von nur 65 statt 95 Watt auskommen. Die kleineren Prozessoren mit sechs und vier Kernen könnten demzufolge als Ryzen 5 und Ryzen 3 auf den Markt kommen. Die von AMD bereits in der Vergangenheit bekannte Anlehnung an die Nomenklatur von Intel ist nicht zu verkennen.
https://www.computerbase.de/2017-02/amd-ryzen-7-5-3-modellbezeichnung/

Bitte, der Rest steht in der News bei CB.

unl34shed
2017-02-09, 10:35:49
Oder die x Modelle haben einen freien Multi. Beim ohne x muss man dann wieder über den Blck übertakten. Könnte aber auch für das xfr sein. Daher ohne oder mit kaputten Sensoren.

Eher letzteres, denn einen offenen multi sollen alle Ryzen haben.

iuno
2017-02-09, 10:36:55
Bei relativ vielen Retailern kommen jetzt Eintraege. 600€ fuer das Topmodell koennten stimmen.

[MK2]Mythos
2017-02-09, 10:38:04
Der Unterschied zwischen AMD Ryzen 7 1700 und AMD Ryzen 7 1700X wäre wirklich interessant, die deutlich höhere TDP kann doch nicht nur vom AMD HT kommen.

r3ptil3
2017-02-09, 10:44:39
Die Preise lassen vermutlich schon andeuten wo die Leistung etwa sein wird - gefällt mir.

Dass ein Ryzen in den meisten Spielen besser als ein 6700k/7700k sein wird, bezweifle ich, aber das Gesamtpaket machts dann wohl aus. In vielen neuen Spielen (DX12/Mehrkern optimiert ab 6+) dürften hoffentlich speziell die min. FPS bei einem Ryzen (1700X/1800X) sehr gut rausstechen.

Hoffe dass ich bald meinen 6700K verkaufen darf. :)

Zergra
2017-02-09, 10:51:35
Oder AMD verkauft die x Modelle auch mit einem besseren kühler. Daher zusammen mit xfr werden die schneller sein und besser den Takt halt. Aber die 65watt müsste man ja auch im BIOS erweitern können.

Complicated
2017-02-09, 10:53:03
Die höhere TDP kommt vom automatischen Übertakten mittels (Extendend) XFR. Das werden alle X-Modelle wohl gemeinsam haben.

https://i0.wp.com/texstreet.com/wp-content/uploads/2016/12/EFR.jpg

Daher werden diese wohl auch ohne Boxed-Kühler ausgeliefert, da mit besserer Kühlung auch mehr Takt erzielt wird automatisch.

r3ptil3
2017-02-09, 11:00:15
Die höhere TDP kommt vom automatischen Übertakten mittels (Extendend) XFR. Das werden alle X-Modelle wohl gemeinsam haben.

https://i0.wp.com/texstreet.com/wp-content/uploads/2016/12/EFR.jpg

Daher werden diese wohl auch ohne Boxed-Kühler ausgeliefert, da mit besserer Kühlung auch mehr Takt erzielt wird automatisch.

Interessant wäre wo da die Obergrenze liegt.
Unlimitiert rauftakten wird die CPU bestimmt nicht.

gogetta5
2017-02-09, 11:00:53
Update 09.02.2017 10:55 Uhr
AMD hat der von ComputerBase auf Basis von Aussagen im AMD Partner Meeting Anfang Februar getroffenen Behauptung, Windows-7-Treiber für Ryzen bereitstellen zu wollen, über PCWorld.com widersprochen. Der Hersteller habe Ryzen zwar mit Microsofts Betriebssystemen Windows 7, Windows 8 und Windows 10 getestet, werde Treiber aber nur für Windows 10 zur Verfügung stellen. Das Betriebssystem ist auch das einzige, das den neuen Prozessor auf Seiten von Microsoft im vollen Umfang unterstützen wird. Ob Anwendern älterer Betriebssysteme damit überhaupt Funktionen verloren gehen, steht allerdings noch nicht fest. Bei Intel Kaby Lake kommt es auf älteren Betriebssystemen zu Einschränkungen, die die interne Grafikeinheit betreffen – Ryzen kommt allerdings ohne Grafikeinheit aus.

https://www.computerbase.de/2017-02/amd-ryzen-am4-treiber-windows-7/

Relevant? Wird sich zeigen.

Godmode
2017-02-09, 11:02:56
https://www.lambda-tek.com/shop/?region=GB&searchString=RYZEN
Britischer Reseller

Sieht man sich deren Intel CPU Preise an dürfte der 1800X hierzulande etwa bei 580€ landen. Die non-X kommen Boxed, die X-Modelle kommen ohne Kühler.

Das sind ja mal Kampfpreise. :eek:

Ich bin schon gespannt was die Dinger dann hierzulande kosten werden.

Gipsel
2017-02-09, 11:13:10
Hier übrigens ein (japanischer) Artikel mit mehr Details über Zen bzw. Summit Ridge vom ISSCC-Vortrag:
http://pc.watch.impress.co.jp/docs/column/kaigai/1043349.html

drumnbass
2017-02-09, 11:18:35
Hier übrigens ein (japanischer) Artikel mit mehr Details über Zen bzw. Summit Ridge vom ISSCC-Vortrag:
http://pc.watch.impress.co.jp/docs/column/kaigai/1043349.html

an alle, die (noch) nicht japanisch können:
https://translate.google.com/translate?sl=ja&tl=de&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fcolumn%2Fkaigai%2F1043349.html&edit-text=

Zergra
2017-02-09, 11:48:17
Also smt hat der 1700. Finde da nur kein xfr.

http://www.hardwareschotte.de/preisvergleich/Amd-Ryzen-7-1700-Wraith-p22037535

“ AMD Ryzen Prozessoren haben keinen festen Turbo-Takt - der maximale Turbo-Takt ist von der Kühlung abhängig.“

Pirx
2017-02-09, 11:54:56
Hoffentlich haben sie wirklich einen festen Basistakt und nicht so, wie Hawaii & Co.;)

deekey777
2017-02-09, 12:09:27
Hoffentlich haben sie wirklich einen festen Basistakt und nicht so, wie Hawaii & Co.;)

1,1 GHz. ;(
SCNR.

fondness
2017-02-09, 12:28:16
Wenn der Preis von ca 600 Euro stimmen sollte, dann gehe ich von einer sehr hohen konkurrenzfähigkeit aus. Denn AMD wird mit Sicherheit ein sehr gutes Preis Leistung Verhältnis bieten. Für 600 Euro sollte das Ding am besten mit Intels 8 core CPUs mithalten können.

joni200
2017-02-09, 12:33:16
Also an dieses R9/R7/R5/R3 Namensschema will ich irgendwie nicht so recht glauben. Man hat doch erst dieses Jahr das Schema bei den Radeons auf RX geändert. Aber gut AMDs Marketing-Abteilung ist ja so ne Sache für sich :)

Ich tipp mal auf ein Namensschema in dem die Anzahl der Kerne prominent vertreten sind, weil mehr Kerne ist ja immer besser (kann dann der Saturn-Verkäufer erzählen):
AMD Ryzen 800/600/400 oder vielleicht auch AMD Ryzen x8/x6/x4 x00 oder so.

S940
2017-02-09, 13:22:10
Also an dieses R9/R7/R5/R3 Namensschema will ich irgendwie nicht so recht glauben.

Musst Du auch nicht, seit die ersten Händler und nicht irgendwelchen dubiosen chin. Spekuwebseiten die CPUs listen, ist das Namensschema Fakt. Diskussionen sind nicht mehr notwendig.

prinz_valium
2017-02-09, 13:36:32
R wie ryzen passt doch

Vllt hätte man noch Rz nehmen können

Unrockstar
2017-02-09, 14:21:07
R wie ryzen passt doch

Vllt hätte man noch Rz nehmen können

Würde weiterhin auf FX setzen.. Also FX 7 / 5 / 3
Und dadrunter dann die Athlon.. Klassisch eben

Mangel76
2017-02-09, 14:22:11
http://pc.watch.impress.co.jp/img/pcw/docs/1043/349/3.jpg

"Per core voltage and frequency control" - heißt das, dass jeder Kern mit anderer Spannung und Frequenz laufen kann? Oder wird doch nur die Spannung frequenzabhängig geregelt?

M4xw0lf
2017-02-09, 14:30:04
http://pc.watch.impress.co.jp/img/pcw/docs/1043/349/3.jpg
Base frequency 3.4 GHz+ ist ein Wort. Das ist das Puzzleteil das wohl über echte Konkurrenz oder "nur" gangbare Alternative entscheidet.

Unicous
2017-02-09, 14:40:24
@Mangel76

So sieht es aus. Jeder Kern hat eine eigene Spannungs-Domäne und die VID

http://pc.watch.impress.co.jp/img/pcw/docs/1043/349/8_s.png
http://pc.watch.impress.co.jp/img/pcw/docs/1043/349/9_s.png

wird wohl durch den Kern der die höchste Spannung "anfragt" festgelegt. So kann man sich theoretisch die hohe Sicherheitsmarge, die AMD sonst immer bei ihren Chips angelegt hat, sparen.

Hier gibt es auch ein paper zu der Thematik.
http://altai.ece.umn.edu/Publications_files/tvlsi13.pdf


@Malabolage
Ich meinte ja eigentlich das hier:

_7lqOTrtCiU
:wink:

Unrockstar
2017-02-09, 14:48:59
Thunder Thunder ThunderBird Hooooo :D
Achja die schöne Nostalgie :3

Heisst das also AMD könnte einen CCX bringen mit 4Ghz wo jedes Core-Element einzeln Taktbar ist? Das nenne ich dann aber nicht mehr Modulbauweise :D

Isen
2017-02-09, 15:27:46
Ne. Steigert einfach die Effizienz und vlt. beim OC weniger Lotto. ( 1-2 Kerne geben sich mit 1,35v zufrieden der Rest aber will mehr und alle kriegen dann halt mehr 1,40v - dies entfällt hier unter Umständen bzw. ist milder )
+ halt, dass AMD bei Streuung die Spannung nicht so hoch ansetzen muss - siehe FX wie einige mit deutlich weniger Spannung lauffähig bleiben - für Otto Normal aber unzumutbar und geht zu Lasten des Verbrauchs und Temperatur.

Unicous sagte es ja schon:
So kann man sich theoretisch die hohe Sicherheitsmarge, die AMD sonst immer bei ihren Chips angelegt hat, sparen.

Grabhopser
2017-02-09, 15:34:13
Hauptsächlich wird es wohl Strom sparen.

unl34shed
2017-02-09, 16:02:08
Hauptsächlich wird es wohl Strom sparen.

Jain, da es LDOs (Linearregler) sind wird die Energie dennoch in Wärme umgewandelt, nur eben nicht im Core. Ein bisschen effizienter sollte es sein, da der Core Kühler bleibt.

Gipsel
2017-02-09, 16:14:14
Jain, da es LDOs (Linearregler) sind wird die Energie dennoch in Wärme umgewandelt, nur eben nicht im Core. Ein bisschen effizienter sollte es sein, da der Core Kühler bleibt.
Es sollte etwas anders skalieren. Beim Core geht die Spannung quadratisch in den Verbrauch ein, beim Linearregler nur linear. Man spart also schon, nur nicht so viel wie mit einem eigenen VRM.

Hübie
2017-02-09, 16:45:40
umgekehrt, in 4k kann es sein das eine cpu im idle läuft, nicht 720p. umso höher die fps (komplett unabhängig von der auflösung, auch nicht 100p) umso höher ist die auslastung der cpu, also auch des taktes.

keiner hat frametimeverläufe kritisiert, fps in 720p machen framtimes nicht unnötig.

zum anderen mögen die 720p selbst nicht realitätsnah sein, aber 240 fps sind realitätsnah, auch wenn sie bisher nische sind.
nicht jeder gamer zockt 4k.

Sorry ich habe mich da aus Zeitmangel nicht so klar ausgedrückt: Die Regel ist wie du schreibst, aber Titel wie SC2 (fällt mir spontant ein) haben eben umgekehrtes Verhalten. So etwas konnte ich schon öfter beobachten und genau hier ist es interessant wieviel man in den Alltags-Einstellungen gewinnen kann, sollte man ein CPU-Upgrade in Erwägung ziehen. Ich meine mich erinnern zu können, dass Company of Heroes 2 und einer der Städtebauersims ähnliches Verhalten an den Tag legten (Anno? Cities Skyline? Ich erinnere mich nicht mehr). Sogar Skyrim war glaub ich damals ebenfalls in 720p mit niedrigerem Takt unterwegs als mit 4k.
Da wo die CPU in den Hintergrund tritt (Fallout 4, The Witcher 3, Deus Ex, The Division etc.) sind da weniger interessant für eine Betrachtung.

Dies mag an der API bzw. der Engine hängen, aber ist wie gesagt für mich persönlich interessant zur Betrachtung, weil man hier von einer schnelleren CPU profitiert.
Ich denke dass ein Ryzen 1800X für mich in F4, TW3, TD keinen Gewinn bringen und ich keinen Unterschied bemerken würde. In den anderen Spielen jedoch schon.

Kurzum: Tester müssen genau evaluieren was diese, wie ins Portfolio aufnehmen. Da gibt's halt viel Scheiße und wenig Gutes. Perfekt jedoch niemand. Würde mir wünschen, dass man sämtliche csv-Dateien oder was sich eben ansammelt zum optionalen Download bereit stünden. Analysieren muss man dann halt selber. :wink:

@Unicious: Das ist interessant. Damit schließt man jedenfalls deutlich auf, was die Metrik Perf/W angeht. Intel steckt auch eine Menge Aufwand in deren PCU. Mit Sandy Bridge war diese etwa so komplex wie ein 386er. Wird mittlerweile noch angewachsen sein. Es zahlt sich ja bisher, bedingt, aus.

Edit: Das Argument man muss 720p nehmen um besser abzuwägen ob die CPU zukunftstauglich ist, kann man ja auch nur begrenzt anwenden und variiert von Fall zu Fall, wenn man von der aktuellen Entwicklung der APIs ausgeht. Hier rücken CPUs ja noch weiter in den Hintergrund.

prinz_valium
2017-02-09, 16:45:41
ich hoffe bei gott die tester haben sowohl das top modell, als auch die kleine 65w variante zum testen


die unterschiede zwischen den beiden Modellen interessieren wohl die meisten hier.
und zwischen $499 und $299 liegt ja ein kleiner feiner unterschied
wenn man trotzdem 8 cores und 16 threads bekommt mit der selben Übertragbarkeit, dann stellt sich die frage für preisbewusste käufer eigentlich gar nicht

herp_derp
2017-02-09, 17:15:24
CPC deutet an, dass die Highend-Modelle (3.6/4.0) die 95W reißen werden.

https://twitter.com/CPCHardware/status/829680650349400064

Unrockstar
2017-02-09, 17:22:53
CPC deutet an, dass die Highend-Modelle (3.6/4.0) die 95W reißen werden.

https://twitter.com/CPCHardware/status/829680650349400064

War doch abzusehen, wenn ich sehe bei 3,15/3,4Ghz reißt er schon fast an der TDP.. Aber Intel braucht 140W dafür also kann man mit 125W Kühlern ja auch gut leben ;)

M4xw0lf
2017-02-09, 17:23:16
CPC deutet an, dass die Highend-Modelle (3.6/4.0) die 95W reißen werden.

https://twitter.com/CPCHardware/status/829680650349400064
Auch interessant, weiter unten:
AMD is not currently validating any 8C part @ 65W (nor any 8C part without SMT)

MR2
2017-02-09, 17:23:37
95W werden wohl ACP sein. 115W hieß es doch schon mal....

Beim Horizon Event waren der Verbrauch doch fast gleich mit leichtem Vorteil für AMD, irgend ein paar W Unterschied:

CB:

"Im Leerlauf hatte das System mit Ryzen und Prototypen-Mainboard mit etwa 93 Watt zu 106 Watt die Oberhand gegenüber dem X99-System. Unter Vollauslastung der CPU zeigte das Messgerät nach einigen Sekunden dann einen Gleichstand bei rund 188 Watt (AMD) gegen 191 Watt (Intel). "

Wird wohl fast gleich sein.

dildo4u
2017-02-09, 17:29:55
War doch abzusehen, wenn ich sehe bei 3,15/3,4Ghz reißt er schon fast an der TDP.. Aber Intel braucht 140W dafür also kann man mit 125W Kühlern ja auch gut leben ;)
Intel braucht das selbe wie AMD das haben sie bei der Render Demo gezeigt.

https://youtu.be/EsVNQYwlSAo?t=2m26s

Unterschiede wird man nur mit AVX 2 sehen,da der AMD dort langsamer arbeitet um Diespace und Strom zu sparen.

https://youtu.be/7ZxvaPnbWDo?t=29m35s

fondness
2017-02-09, 17:40:11
Intel reißt die TDP doch auch, von daher kein Unterschied.

Linmoum
2017-02-09, 17:43:38
Man sollte sowieso mal von dem "TDP XY also ist der Verbrauch auch nicht höher" wegkommen.

Complicated
2017-02-09, 18:01:57
CB:

"Im Leerlauf hatte das System mit Ryzen und Prototypen-Mainboard mit etwa 93 Watt zu 106 Watt die Oberhand gegenüber dem X99-System. Unter Vollauslastung der CPU zeigte das Messgerät nach einigen Sekunden dann einen Gleichstand bei rund 188 Watt (AMD) gegen 191 Watt (Intel). "

Wird wohl fast gleich sein.
Nur dass AMD keine aktiven Stromsparmodi hatte und auch keinen aktiven Turbo. Da wird man Tests abwarten müssen.

Hübie
2017-02-09, 18:05:01
Vor allem sollten wir unabhängige Tests abwarten. ;)

Timbaloo
2017-02-09, 18:20:34
Vor allem sollten wir unabhängige Tests abwarten. ;)
Und die Redakteure beschimpfen wenn einem die Ergebnisse nicht ins Weltbild passen ;)

*scnr*

Brillus
2017-02-09, 19:01:35
Die höhere TDP kommt vom automatischen Übertakten mittels (Extendend) XFR. Das werden alle X-Modelle wohl gemeinsam haben.

https://i0.wp.com/texstreet.com/wp-content/uploads/2016/12/EFR.jpg

Daher werden diese wohl auch ohne Boxed-Kühler ausgeliefert, da mit besserer Kühlung auch mehr Takt erzielt wird automatisch.
Sehe ich auch als wahrscheinlichste Erklärung.

Skysnake
2017-02-09, 19:02:17
Es sollte etwas anders skalieren. Beim Core geht die Spannung quadratisch in den Verbrauch ein, beim Linearregler nur linear. Man spart also schon, nur nicht so viel wie mit einem eigenen VRM.
hmm.... Bist du dir da wirklich sicher?

P=U²/R=U*I=I²*R

Der LDO hat halt ein R(I), damit U halt konstant bleibt. Sprich bei kleinem I hat er ein großes R und bei großem I ein kleines R, aber keine Ahnung, ob das dann am Ende wirklich ein lineares Verhalten ergibt.

Man muss ja am Ende immer die komplette Leitung von VDD bis GND sich anschauen, und wir wissen ja, das wir die LDO Ausgangsspannung auch einfach als virtuelles VDD verwenden können. Damit ist es dann an sich wieder wurscht.

Was halt passiert ist, dass der Gesamtstrom niedriger ist, weil der Transistor halt nicht so viel durchgehen lässt, wenn er auf macht. Dafür schaltet der PMOS aber halt auch nicht mehr so gut ab, wobei das ja auch weniger schlimm ist.

Am Ende sollte aber eben genau daraus der Gewinn unterm Strich kommen, also das Weniger Strom durch den Transistor fließt wenn er auf macht.

Gipsel
2017-02-09, 19:19:44
hmm.... Bist du dir da wirklich sicher?

P=U²/R=U*I=I²*R

Der LDO hat halt ein R(I), damit U halt konstant bleibt. Sprich bei kleinem I hat er ein großes R und bei großem I ein kleines R, aber keine Ahnung, ob das dann am Ende wirklich ein lineares Verhalten ergibt.

Man muss ja am Ende immer die komplette Leitung von VDD bis GND sich anschauen, und wir wissen ja, das wir die LDO Ausgangsspannung auch einfach als virtuelles VDD verwenden können. Damit ist es dann an sich wieder wurscht.

Was halt passiert ist, dass der Gesamtstrom niedriger ist, weil der Transistor halt nicht so viel durchgehen lässt, wenn er auf macht. Dafür schaltet der PMOS aber halt auch nicht mehr so gut ab, wobei das ja auch weniger schlimm ist.

Am Ende sollte aber eben genau daraus der Gewinn unterm Strich kommen, also das Weniger Strom durch den Transistor fließt wenn er auf macht.Ja, und dadurch das weniger Gesamtstrom fließt, spart man Verbrauch mit einem zusätzlichen LDO im Vergleich zu ohne.

Mal ein ganz einfach erklärt, ein CPU-Core mit Spannung U und Frequenz f und der Switching-Kapazität C (die will AMD übrigens prozeßbereinigt gegenüber Excavator um 15% gesenkt haben [die Vorteile vom Prozeß kommen also noch obendrauf], was für den breiteren Kern mit mehr IPC beachtlich ist) verbraucht als Faustregel für den dynamischen Verbrauch (Leckströme vernachlässigt [die gehen aber auch nichtlinear mit der Spannung]):
P=U²*C*f
Aufgeschlüsselt sind das
P = U * I mit I = U*C*f (über mehrere Takte gemittelt)
Mit einem LDO kann man jetzt den Spannungsabfall zwischen Kern und LDO aufteilen, der Kern bekommt nur noch die Spannung Uc, am LDO fällt die Spannung Ur ab, wobei Ur+Uc=U gilt (Eingangspannung ist ja die gleiche).
Der insgesamt fließende Strom berechnet sich jetzt über Uc*C*f und wird damit kleiner. Die Geamtleistung (inklusive LDO) beträgt dann nur noch:
P=U*Uc*C*f und nicht mehr U²*C*f.

Angenommen Uc benötigt für den aktuellen Powerstate nur 0,9U (die man aber nicht anlegen kann, da ein anderer Core die vollen U benötigt), dann sinkt der Gesamtverbrauch (inklusive LDO) auf 90% der Version ohne LDO. Der Kern selber verbraucht zwar nur noch Uc²*C*f, also 81% der Originalleistung, aber die zusätzlichen 9% werden vom LDO verheizt (über dem ja 10% der Spannung abfallen müssen).
In der Summe spart man als Faustregel etwa die Hälfte, als wenn man direkt das niedrigere Uc für jeden einzelnen Core anbieten könnte. Der Gesamtverbrauch (inklusive LDO) skaliert linear mit der Spannung statt quadratisch wie sonst.

Wie beschrieben, wird die externe Versorgungsspannung immer auf das Maximum aller Kerne festgelegt (wenn also alle Kerne in niedrigeren Powerstates sind, wird auch die Versorgungsspannung runtergeregelt wie bisher auch, das ist einfach am effizientesten). Jetzt kann aber auch für jeden einzelnen Kern über die LDOs (jeder Kern hat ja einen eigenen) die Spannung zusätzlich abgesenkt werden, wenn er sich einem niedrigerem Powerstate befindet. Die Stromersparnis (im Vergleich zu ohne LDOs) verhält sich dabei linear zu dieser zusätzlichen Spannungsabsenkung der einzelnen Kerne. Oder anders: Der Stromverbrauch ist mit LDOs linear zu U und linear zu Uc und linear zur Frequenz, vorher war er quadratisch zu U und linear zur Frequenz (+ Leckströme bla bla). Da man U aber nicht für jeden Kern einzeln wählen kann (immer das Maximum des Bedarfs aller Kerne), spart man mit den LDOs.

5CH4CHT3L
2017-02-09, 19:26:38
Hi,
gerade hat GamerNexus ein Video zum 7350K hochgeladen, wo er am Ende Ryzen erwähnt aber plötzlich abbricht:
"We've got Ryzen coming up ... eventually Soon™" aber sagt direkt danach dass sie ihn nicht getestet haben.
Hier der Link zum Video:
https://youtu.be/AAXCzukKmds?t=13m10s

ndrs
2017-02-09, 19:42:42
Wie beschrieben, wird die externe Versorgungsspannung immer auf das Maximum aller Kerne festgelegt (wenn also alle Kerne in niedrigeren Powerstates sind, wird auch die Versorgungsspannung runtergeregelt wie bisher auch, das ist einfach am effizientesten). Jetzt kann aber auch für jeden einzelnen Kern über die LDOs (jeder Kern hat ja einen eigenen) die Spannung zusätzlich abgesenkt werden, wenn er sich einem niedrigerem Powerstate befindet.
Schöne Erklärung!
Heißt das nicht auch, dass bisher immer gern gemachte Tests diverser Hardware-Medien, welche SingleCore-Last versuchen zu erzeugen eigentlich garnicht in der Lage waren den Verbrauch eines Kerns isoliert zu betrachten, da die anderen nicht mit der Spannung betrieben wurden, die eigentlich für den niedrigen P-State reichen würde? (Jetzt mal abgesehen davon, dass Uncore auch lastabhängig sein kann)
Ok, mit Powergating sollte es nicht ganz so schlimm sein.

Macht Intel etwas ähnliches auch?

Gipsel
2017-02-09, 19:51:16
Schöne Erklärung!
Heißt das nicht auch, dass bisher immer gern gemachte Tests diverser Hardware-Medien, welche SingleCore-Last versuchen zu erzeugen eigentlich garnicht in der Lage waren den Verbrauch eines Kerns isoliert zu betrachten, da die anderen nicht mit der Spannung betrieben wurden, die eigentlich für den niedrigen P-State reichen würde? (Jetzt mal abgesehen davon, dass Uncore auch lastabhängig sein kann)
Ok, mit Powergating sollte es nicht ganz so schlimm sein.

Macht Intel etwas ähnliches auch?Keine Ahnung, was intel macht (edit: die Modelle mit FIVR haben einen Regler pro Kern und da das Schaltregler sind, ist das effizienter als die LDO-Regler; die Modelle ohne FIVR haben auch nur eine Spannung für alle Kerne zusammen). Und ja, wenn ein Kern per Powergating komplett von der Versorgung getrennt wird, hat das eigentlich keinen Einfluß mehr. Aber es gibt viele Teillastsituationen, in denen das nicht so einfach möglich ist (und einen Kern wieder aufzuwecken, nachdem er komplett abgeklemmt wurde, dauert auch eine Weile). Und dann verbraucht auch ein praktisch ungenutzter (clock gated) Kern immer noch ein wenig.
In diesen Teillastsituationen kann die Lösung mit den on-Die Linearreglern durchaus helfen, den Stromverbrauch zu senken oder alternativ mehr Spielraum für den Boost der wenigen Kerne unter Last zu ermöglichen.

dildo4u
2017-02-09, 20:10:46
David Kanter's Artikel zu Ryzen

http://abload.de/img/u126_zen_f2drkp5.png

http://www.linleygroup.com/mpr/article.php?id=11666

Linmoum
2017-02-09, 20:13:16
War hier schon Thema und wie du siehst, ist der Artikel von August 2016.

Unicous
2017-02-09, 20:14:14
:facepalm:

War klar, dass du den Artikel samt Diagramm postest obwohl ich es schon vor einigen Tagen gepostet hatte.

Zur allgemeinen Info: Der Artikel ist vom August letzten Jahres und ist dementsprechend veraltet und mit kleineren Fehlern behaftet.

Gipsel
2017-02-09, 20:21:11
Zur allgemeinen Info: Der Artikel ist vom August letzten Jahres und ist dementsprechend veraltet und mit kleineren Fehlern behaftet.Und das sind außerdem nur Schätzungen der Performance anhand von damaligen Aussagen.

Unicous
2017-02-09, 20:42:47
Ja, das wollte ich damit implizieren.:wink:

Folglich auch:

but did AMD say SPECint_rate or is that what you suspect?

David Kanter
‏that's my guess, as of 6 months ago


https://twitter.com/TheKanter/status/829483675599335426

Skysnake
2017-02-09, 21:10:54
Ja, und dadurch das weniger Gesamtstrom fließt, spart man Verbrauch mit einem zusätzlichen LDO im Vergleich zu ohne.

Mal ein ganz einfach erklärt, ein CPU-Core mit Spannung U und Frequenz f und der Switching-Kapazität C (die will AMD übrigens prozeßbereinigt gegenüber Excavator um 15% gesenkt haben [die Vorteile vom Prozeß kommen also noch obendrauf], was für den breiteren Kern mit mehr IPC beachtlich ist) verbraucht als Faustregel für den dynamischen Verbrauch (Leckströme vernachlässigt [die gehen aber auch nichtlinear mit der Spannung]):
P=U²*C*f
Aufgeschlüsselt sind das
P = U * I mit I = U*C*f (über mehrere Takte gemittelt)
Mit einem LDO kann man jetzt den Spannungsabfall zwischen Kern und LDO aufteilen, der Kern bekommt nur noch die Spannung Uc, am LDO fällt die Spannung Ur ab, wobei Ur+Uc=U gilt (Eingangspannung ist ja die gleiche).
Der insgesamt fließende Strom berechnet sich jetzt über Uc*C*f und wird damit kleiner. Die Geamtleistung (inklusive LDO) beträgt dann nur noch:
P=U*Uc*C*f und nicht mehr U²*C*f.

Angenommen Uc benötigt für den aktuellen Powerstate nur 0,9U (die man aber nicht anlegen kann, da ein anderer Core die vollen U benötigt), dann sinkt der Gesamtverbrauch (inklusive LDO) auf 90% der Version ohne LDO. Der Kern selber verbraucht zwar nur noch Uc²*C*f, also 81% der Originalleistung, aber die zusätzlichen 9% werden vom LDO verheizt (über dem ja 10% der Spannung abfallen müssen).
In der Summe spart man als Faustregel etwa die Hälfte, als wenn man direkt das niedrigere Uc für jeden einzelnen Core anbieten könnte. Der Gesamtverbrauch (inklusive LDO) skaliert linear mit der Spannung statt quadratisch wie sonst.

Wie beschrieben, wird die externe Versorgungsspannung immer auf das Maximum aller Kerne festgelegt (wenn also alle Kerne in niedrigeren Powerstates sind, wird auch die Versorgungsspannung runtergeregelt wie bisher auch, das ist einfach am effizientesten). Jetzt kann aber auch für jeden einzelnen Kern über die LDOs (jeder Kern hat ja einen eigenen) die Spannung zusätzlich abgesenkt werden, wenn er sich einem niedrigerem Powerstate befindet. Die Stromersparnis (im Vergleich zu ohne LDOs) verhält sich dabei linear zu dieser zusätzlichen Spannungsabsenkung der einzelnen Kerne. Oder anders: Der Stromverbrauch ist mit LDOs linear zu U und linear zu Uc und linear zur Frequenz, vorher war er quadratisch zu U und linear zur Frequenz (+ Leckströme bla bla). Da man U aber nicht für jeden Kern einzeln wählen kann (immer das Maximum des Bedarfs aller Kerne), spart man mit den LDOs.
Ah ja, stimmt, jetzt seh ichs auch. Danke für die Aufschlüsselung. Vorher war ich einfach zu Faul da ein Kleinsignal-modell mir aufzumalen :tongue:

Am Ende hatte ich es dann aber doch richtig im Kopf. Der Strom verändert sich, weil man halt aus U² ein U*Uc macht.

Keine Ahnung, was intel macht (edit: die Modelle mit FIVR haben einen Regler pro Kern und da das Schaltregler sind, ist das effizienter als die LDO-Regler; die Modelle ohne FIVR haben auch nur eine Spannung für alle Kerne zusammen). Und ja, wenn ein Kern per Powergating komplett von der Versorgung getrennt wird, hat das eigentlich keinen Einfluß mehr. Aber es gibt viele Teillastsituationen, in denen das nicht so einfach möglich ist (und einen Kern wieder aufzuwecken, nachdem er komplett abgeklemmt wurde, dauert auch eine Weile). Und dann verbraucht auch ein praktisch ungenutzter (clock gated) Kern immer noch ein wenig.
In diesen Teillastsituationen kann die Lösung mit den on-Die Linearreglern durchaus helfen, den Stromverbrauch zu senken oder alternativ mehr Spielraum für den Boost der wenigen Kerne unter Last zu ermöglichen.
Ein Vorteil von einzelnen LDOs ist auch noch, dass die Spannung im Allgemeinen stabiler ist, da die Regelgeschwindigkeit leicht höher sein kann, und man eben auch näher an den Spannungsabfall heran kommt, also weniger Impedanz hat.

Gipsel
2017-02-09, 21:39:02
Ein Vorteil von einzelnen LDOs ist auch noch, dass die Spannung im Allgemeinen stabiler ist, da die Regelgeschwindigkeit leicht höher sein kann, und man eben auch näher an den Spannungsabfall heran kommt, also weniger Impedanz hat.Nun, die Regler sitzen bei Intel ja auch direkt auf dem Die (und arbeiten mit 140MHz Schaltfrequenz), da kommt man also auch ganz gut bei weg.
Aber ich habe mal ein Paper von Intel zu ihren FIVR in Haswell gefunden (man benötigt Login oder Zugriff über seine Uni/Firma oder so (http://ieeexplore.ieee.org/iel7/6784523/6803270/06803344.pdf)), die behaupten 90% typische Effizienz bei anliegenden Lasten (Präsentation zum FIVR mit einigen Infos aus dem Paper (http://www.psma.com/sites/default/files/uploads/tech-forums-packaging/presentations/is87-package-and-platform-view-intel%E2%80%99s-fully-integrated-coltage-regulator.pdf)). Dies bedeutet, daß bei Volllast bzw. halbwegs gleichmäßig über die Kerne anliegender Last die Linearregler bei Ryzen sogar im Vorteil sein könnten (weil die dann mit mehr als 90% Effizienz funktionieren). Die 10% Verlust hat man bei FIVR ja immer. Nur bei stark unterschiedlichen Lasten auf den Kernen kann das also seinen Vorteil ausspielen (als Beispiel wird in der Präsentation die stark variierende Last für die integrierte GPU genannt, was den Boost-Bereich deutlich vergrößert).

Hübie
2017-02-09, 23:45:22
Mit Skylake ist man doch wieder ab von FIVR oder? Platzbedarf oder negativer Kosten-/Nutzenfaktor?
Danke für die Ausführungen, Gipsel.

Tobalt
2017-02-10, 01:54:42
nicht zu ende gedacht aber:

ein einfacher ldo scheint mir trotzdem eher seltsam: so klein und schnell wie der ist, würde ich da mindestens 1 ohm R_on ansetzen, oder?

wenn ein core jetzt mit volllast läuft, Spannung und Strom des cores sind also maximal, der LDO muss nichts droppen, Strom ca 10 A. dann wäre ja alleine der Durchfluss Verlust des LDO schon 10 V und würde 100 W verballern.

Tarkin
2017-02-10, 10:05:35
RYZEN 1700 bei Hardwareschotte gelistet (http://www.hardwareschotte.de/preisvergleich/Amd-Ryzen-7-1700-Wraith-p22037535)

ich spekuliere mal 3.1 bis 3.2 base und 3.7 boost. Das Ding kommt vermutlich nahe an den 6900k heran (ähnlich getaktet).

Aber irgendwie kann ich mir das kaum vorstellen, besonders die 65w wären ein ziemlicher HAMMER (bei ca. einem Drittel des Preises noch dazu!)

Falls sich das bewahrheitet, dann kann sich Intel die nächsten Jahre tatsächlich SEHR warm anziehen

M4xw0lf
2017-02-10, 10:08:38
RYZEN 1700 bei Hardwareschotte gelistet (http://www.hardwareschotte.de/preisvergleich/Amd-Ryzen-7-1700-Wraith-p22037535)
Die 65W sind nicht sehr glaubwürdig. Canard PC schrieb ja, es gibt keine 65W Octacores.

BlacKi
2017-02-10, 10:15:46
Falls sich das bewahrheitet, dann kann sich Intel die nächsten Jahre tatsächlich SEHR warm anziehen
ich glaub ja eher, intel muss in den nächsten jahren ordentlich auspacken^^

Zergra
2017-02-10, 10:18:34
@tarkin den link habe ich gestern schon gepostet. Seite 156.

Unicous
2017-02-10, 10:22:09
Die 65W sind nicht sehr glaubwürdig. Canard PC schrieb ja, es gibt keine 65W Octacores.

Auch Canard ist nicht der Weisheit letzter Schluss. Und Canard hat auch nicht geschrieben es gäbe keine, sondern dass sie sich solcher Chips nicht bewusst seien. 8 Kerne@65W ist natürlich theoretisch möglich, die Frage ist nur was für ein Basistakt anliegt.:wink:

ndrs
2017-02-10, 10:37:32
Danke Gipsel, so hatte ich mir das auch überlegt.
Mit Skylake ist man doch wieder ab von FIVR oder?
Ja, Skylake hat kein FIVR. Ich meine gelesen zu haben, dass es aber mit einem Nachfolger, der vom gleichen Design-Team wie Haswell kommt, zurückkehrt. Die Israelis und Amis wechseln sich ja bei den Tocks ab.

M4xw0lf
2017-02-10, 10:40:54
Auch Canard ist nicht der Weisheit letzter Schluss. Das ist klar. Aber allem Anschein nach haben sie aktuell sehr gute Quellen.
Und Canard hat auch nicht geschrieben es gäbe keine, sondern dass sie sich solcher Chips nicht bewusst seien. 8 Kerne@65W ist natürlich theoretisch möglich, die Frage ist nur was für ein Basistakt anliegt.:wink:
Sie schrieben "AMD validiert aktuell keine 65W-Octacores und keine ohme SMT".

iuno
2017-02-10, 10:42:50
Gehen wir eigentlich davon aus, dass die komplette Liste mit den Namen echt ist?
Es waere doch auch denkbar, dass dort manche Modelle nur fuer OEMs sind oder? Dementsprechend koennte schon auch was mit 8C und 65 W dabei sein, nur vielleicht nicht im Einzelhandel. Selber machen geht ja wenn man es braucht auch immer ;)

Unicous
2017-02-10, 10:55:19
Das ist klar. Aber allem Anschein nach haben sie aktuell sehr gute Quellen.

Sie schrieben "AMD validiert aktuell keine 65W-Octacores und keine ohme SMT".

I only trust real silicon and I'm not aware of anyone with a 65W 8C part now. Still possible as a last minute move

https://twitter.com/CPCHardware/status/829840817502244864

Sie haben in der Tat gute Quellen. Das heißt aber nicht, dass sie die Informationen immer richtig einordnen. Und wenn die Quelle eben nichts von einer 65W SKU weiß, ist es logisch, dass er Obiges sagt.

Siehe auch den Kaby Lake-X Mist den sie verzapft haben.
KL-X ist schon seit letztem Jahr bekannt und sie wärmen das als neues Gerücht auf, weil sie wohl ein paar Dokumente zugespielt bekommen haben und behaupten es wäre eine Reaktion auf Ryzen.:rolleyes:
Da ist auch ein gewisses Maß an Ignoranz gepaart mit einer Prise Arroganz dabei. Z.B. haben sie den Müll von dem Forentroll juanrga als "correct" kommentiert obwohl es dummes Gebrabbel von einem Soziopathen ist.:freak:

Ich würde einen 8-Kern 65W Chip jedenfalls noch nicht ausschließen, auch wenn man dazu wohl ordentlich mit dem Takt runtergehen könnte.

PrivateCeralion
2017-02-10, 11:28:16
65 Watt kann technisch gar kein Problem sein, denn Naples wird ja 4 Dies im MCM verbund beinhalten und ich glaube, dass Naples sehr viel weniger als 4*65=260Watt verbraucht.

Wahrscheinlich wird Naples 180Watt verbrauchen, also sollte man mit ganz krasen Taktlimmits Ryzen wahrscheinlich auch auf 45Watt beschränken können.

Gipsel
2017-02-10, 11:48:45
nicht zu ende gedacht aber:

ein einfacher ldo scheint mir trotzdem eher seltsam: so klein und schnell wie der ist, würde ich da mindestens 1 ohm R_on ansetzen, oder?

wenn ein core jetzt mit volllast läuft, Spannung und Strom des cores sind also maximal, der LDO muss nichts droppen, Strom ca 10 A. dann wäre ja alleine der Durchfluss Verlust des LDO schon 10 V und würde 100 W verballern.Das ist viel viel weniger. Low drop out (LDO) Regler sind gerade dafür bekannt, extrem geringe Spannungsabfälle über dem Regler zu ermöglichen. Bei geeigneter Auslegung sind das nur noch eine Handvoll Millivolt (und milliOhm oder gar sub-milliOhm-Durchgangwiderstände). Alles Andere würde auch gar nicht funktionieren, da sonst bei Laständerungen die Spannungen total instabil wären und nicht vernünftig geregelt werden könnten. Die LDO-Regler bekommen als Eingansspannung ja maximal etwas über 1V (im Bereich der üblichen Spannungen für CPUs). Da können dann schwerlich 10V am Regler hängenbleiben. Die für die Regler benutzten FETs dürften eine ähnliche Charakteristik aufweisen wie die für das Powergating (vielleicht nimmt man sogar die gleichen*). Über die fließt ja im Betrieb auch der komplette von der CPU gezogene Strom ohne einen merklichen Spannungsabfall.


*): In dem von Unicous verlinkten Paper, wird genau davon gesprochen, die Powergating FETs für LDOs zu benutzen. Das scheint also eine gute Möglichkeit zu sein, LDOs zu verwirklichen, ohne groß zusätzlichen Diespace zu belegen.
Hier gibt es auch ein paper zu der Thematik.
http://altai.ece.umn.edu/Publications_files/tvlsi13.pdf
However, our experiments reveal that the maximum voltage difference between cores at each dynamic V/F scaling (DVFS) interval is small for most intervals, when the V/F of each core is optimized to maximize the performance under a power constraint. In other words, the Vo values of multiple LDO VRs can be close to the shared Vi value. In such a case, an LDO VR, which can be implemented at a low cost by sharing its largest component with an existing on-chip per-core power-gating (PCPG) device, can be more power-efficient than a switching VR.
Und es bestätigt auch die Aussage, daß es bei ähnlichem Load auf den Kernen effizienter als die switching VR von intels FIVR sein kann (im Prinzip immer wenn Vo/Vi>0,9 ist).

Tarkin
2017-02-10, 11:48:56
@tarkin den link habe ich gestern schon gepostet. Seite 156.

sorry übersehen :freak:

Setsul
2017-02-10, 14:06:15
Das bringt mich auf eine Idee: Wenn die LDOs recht nah am Dropout arbeiten, was sie ja sollten für maximale Effizienz, muss man mit Uin hoch bei steigender Frequenz.
Uin = Uc + Uldo.
Uldo ~ Uin ~ Uc ist klar, aber Uldo ~ I = Uc*C*f gilt auch.
Sprich bei ungefähr 10% gilt P ~ (Uc + 0,1*f)*Uc*f = Uc²*f + 0,1*Uc*f²

Also eventuell sieht man bei steigender Frequenz etwas mehr als lineare Zunahme.

Ist im Großen und Ganzen sicher nicht weltbewegend bedeutet aber erstens, dass oberhalb und unterhalb von Uc ~ f man näher an P ~ f³ ist als erwartet und zweitens, dass man eventuell bei gleichem Vcore für Stabilität bei höherer Frequenz etwas mit Vin hochgehen muss, selbst wenn Vcore genug Reserven hat (zum Beispiel bei Stock Voltage).

Tobalt
2017-02-10, 14:09:30
gipsel:

Dass da natürlich nicht wirklich 10 V abfallen können ist klar. Deshalb schrub ich ja, dass es mir seltsam scheint dass dort ein LDO sein soll.

Du hast auch recht, dass dort natürlich nur einige mV abfallen. Dafür muss der Transistor also bei 10 A tatsächlich im sub-mOhm Bereich liegen. Und dieser Wert schien mir wiederum auch sehr seltsam, da sub-mOhm Transistoren ja sonst eher im High Power Bereich zu finden sind, und da gern mal mehrere mm² groß sind.

Habe auch mittlerweile meinen Denkfehler entdeckt. Die üblichen sub-mO Transistoren sind ja oft für Sperrspannungen von mehreren 100 V, während der hier verwandte sicher nicht mehr als 2 V Sperrspannung benötigt, wodurch man Sie dann doch wieder realistisch in die CPU packen kann.

Gipsel
2017-02-10, 14:19:50
gipsel:

Dass da natürlich nicht wirklich 10 V abfallen können ist klar. Deshalb schrub ich ja, dass es mir seltsam scheint dass dort ein LDO sein soll.

Du hast auch recht, dass dort natürlich nur einige mV abfallen. Dafür muss der Transistor also bei 10 A tatsächlich im sub-mOhm Bereich liegen. Und dieser Wert schien mir wiederum auch sehr seltsam, da sub-mOhm Transistoren ja sonst eher im High Power Bereich zu finden sind, und da gern mal mehrere mm² groß sind.

Habe auch mittlerweile meinen Denkfehler entdeckt. Die üblichen sub-mO Transistoren sind ja oft für Sperrspannungen von mehreren 100 V, während der hier verwandte sicher nicht mehr als 2 V Sperrspannung benötigt, wodurch man Sie dann doch wieder realistisch in die CPU packen kann.Wie in dem Paper geschrieben und von mir vermutet, wird AMD die FETs für das Powergating der Kerne für die per Core-LDO-Regler benutzen. Die nehmen übrigens angeblich 5-10% der Fläche eines Kerns ein und sind in jedem Fall groß genug, um den vollen Stromfluß des Kerns ohne merklichen Spannungsabfall zu bewältigen.

robbitop
2017-02-10, 14:47:49
Ober der 1700 @65W sonst eventuell der 6C/12T ist?

PrivateCeralion
2017-02-10, 14:52:14
Ober der 1700 @65W sonst eventuell der 6C/12T ist?

Glaube ich nicht. Generell bin ich beeindruckt, wie genau die details beim Hardwareschotten sind.
Z.B. Befehlssätze:
“MMX(+) (Befehlssatz)
SSE (Streaming SIMD Erweiterung)
SSE2
SSE3
SSSE3 (Intel SSE4)
SSE4a (AMD SSE4)
SSSE4.1
SSSE4.2
AES (Ver- und Entschlüsselung)
ABM (Advanced Bit Manipulation)
AVX (Vektor Grafik Erweiterung)
FMA3
FMA4
F16C (Gleitkomma-Konvertierung)
XOP (eXtended Operations)
SMT (Simultaneous Multithreading)
SMP (Symmetrisches Multiprozessorsystem)
AMD-V (Compute Virtualisierung)
VT-d/Vi (I/O MMU Virtualisierung)
x86-64/EM64T (64Bit Prozessor)
NX-Bit/XD-Bit (Virenschutz)
EVP (erweiterter Virenschutz)
TBT 3.0 (Turbo Core 3.0)“

So was postet man nur, wenn man es weiß.

robbitop
2017-02-10, 15:09:26
Warum glaubst du das nicht? Frühere Gerüchte ordneten den 6C doch als 65W ein (oder war es der 4C)? Hinzu kommt dass CPC sagt, dass sie keinen 8C @65W kennen. Bleibt also noch 4C und 6C. Für 4C wäre R7 aber zu hoch gegriffen ggf. Klingt eher nach 6C...

Unicous
2017-02-10, 15:10:31
Das sind mit sehr hoher Wahrscheinlichkeit automatische Datenbankeinträge, die sie sicherlich auch von einem Großhändler haben und außerdem sind die Befehlssätze die Zen beherrscht afaik schon länger bekannt. Ingram Micro ist im Übrigen auch in Deutschland ansässig und hat hier mehrere Standorte.:wink:


edit: Und auch Datenbankeinträge können irren. "Schlimmstenfalls" müssen wir also immer noch 3 Wochen warten.:tongue:


editnr.deux:

Ich habe mir die Liste mal angeschaut. Da steht z.T. Blödsinn drin bzw. wurde copy&pasted. XOP, FMA4, TBM wird nicht unterstützt, Turbo Core 3.0 wird es sicherlich auch nicht heißen.


Die Herren/der Herr von Canard PC Hardware kommt gerade etwas ins Schwimmen.


so according to you there is no R7 1700 8/16 @ 65W?

I said I'm not aware of a 65W 8C, not it doesn't exist.

We're now in marketing territory. They can release slightly modded parts w/o a full tech valid.
https://twitter.com/CPCHardware/status/830059369626738688
https://twitter.com/CPCHardware/status/830059973380026369

Letzteres ist imho bullshit, da ich insbesondere ein ES das 8C/16T@65W schaffen soll validieren möchte und nicht ein anderes dafür lediglich "modifiziere".:rolleyes:

Foobar2001
2017-02-10, 18:18:20
Glaube ich nicht. Generell bin ich beeindruckt, wie genau die details beim Hardwareschotten sind.
Z.B. Befehlssätze:
“MMX(+) (Befehlssatz)
SSE (Streaming SIMD Erweiterung)
SSE2
SSE3
SSSE3 (Intel SSE4)
SSE4a (AMD SSE4)
SSSE4.1
SSSE4.2
AES (Ver- und Entschlüsselung)
ABM (Advanced Bit Manipulation)
AVX (Vektor Grafik Erweiterung)
FMA3
FMA4
F16C (Gleitkomma-Konvertierung)
XOP (eXtended Operations)
SMT (Simultaneous Multithreading)
SMP (Symmetrisches Multiprozessorsystem)
AMD-V (Compute Virtualisierung)
VT-d/Vi (I/O MMU Virtualisierung)
x86-64/EM64T (64Bit Prozessor)
NX-Bit/XD-Bit (Virenschutz)
EVP (erweiterter Virenschutz)
TBT 3.0 (Turbo Core 3.0)“

So was postet man nur, wenn man es weiß.
Nur bloed dass AVX2 auch unterstuetzt wird und "TBT 3.0" nicht in die Liste passt.

Skysnake
2017-02-10, 19:01:45
Wie in dem Paper geschrieben und von mir vermutet, wird AMD die FETs für das Powergating der Kerne für die per Core-LDO-Regler benutzen. Die nehmen übrigens angeblich 5-10% der Fläche eines Kerns ein und sind in jedem Fall groß genug, um den vollen Stromfluß des Kerns ohne merklichen Spannungsabfall zu bewältigen.
Ich wusste, dass die Dinger nicht wirklich klein sind, aber sooo groß? :freak:

Das ist schon ziemlich viel. Da sieht man aber mal wieder, was alles so Platz und auch Power auf einem Chip frisst, an das man gar nicht denkt. CMOS ist einfach ziemlich am limit :frown:

Ich glaub ich muss mir das Paper mal nächste Woche echt durchlesen.

dildo4u
2017-02-10, 19:13:22
Die 65W sind nicht sehr glaubwürdig. Canard PC schrieb ja, es gibt keine 65W Octacores.
AMD hatte ja auch die FX8320e Modelle mit geringem TDP,natürlich ist das TDP nicht realistisch.Vermutlich zieht das Ding 90,und die 95 Watt Modelle 130.

Isen
2017-02-10, 19:14:17
Deine Interpretation von TDP ist unrealistisch ;-)

Bösewicht
2017-02-10, 20:24:33
was dildo sagt befürchte ich aber schon immer und wird auch zusammen mit dem preis über sieg und Niederlage entscheiden.
mit sehr viel mehr kerne und Strom Intel Leistung ist nicht die Kunst sondern ein ausgewogenes Produkt das nicht überall ein hacken hat.

Intel erreicht ja oft in der Praxis sein tdp nicht und wenn amd am ende weit drüber kommt ist vieles wieder nur warme Luft gewesen da muss Intel dann auch nichts kontern na egal bald sind wir alle schlauer.

Brillus
2017-02-10, 21:06:33
AMD hatte ja auch die FX8320e Modelle mit geringem TDP,natürlich ist das TDP nicht realistisch.Vermutlich zieht das Ding 90,und die 95 Watt Modelle 130.
Eher der 95 zieht 75Watt, und der andere schafft es halt unter 65Watt, TDP sind immer Bereiche.

BlacKi
2017-02-10, 22:26:50
klar kann man auch keinen intel 10 kerner mit 65w laufen lassen, aber wer würde sowas kaufen, wenn man das limit nicht entfernen dürfte und der preis nicht besonders niedrig wäre. da würde ich lieber einen offenen 6kernen kaufen.

dargo
2017-02-11, 08:39:33
Mal Butter bei der Fische... wann geht es nun offiziell los mit Ryzen? Ich stelle die Frage weil ein Arbeitskollege einen Rechner dieses Jahr für seine Tochter braucht. Und da ist die Gelegenheit bei mir günstig zu wechseln (Kollege kriegt meine Basis, seine Tochter dessen Rechner), auch wenn ich es noch gar nicht brauche. Wird alles von P/L abhängen. Zudem möchte ich noch ~3-4 Monate Zeit zum Reifen der Biose nach Release abwarten. Kein Bock das Versuchskaninchen zu spielen. Die ganzen Überraschungen bei Intel der letzten Jahre muss ich nicht haben.

Pirx
2017-02-11, 08:56:09
Anscheinend geht es in reichlich 2 Wochen los.
Dieses WE kann man schon mit geringer Wahrscheinlichkeit;) auf Leaks hoffen, da die Samples bei den Redaktionen angekommen sind.

The_Invisible
2017-02-11, 09:06:31
Die Warterei nervt langsam wirklich.

Habe mir sogar überlegt meinen aktuellen 6700k noch "teuer" zu verkaufen und mir zwischenzeitlich einen G4560 einzubauen. Irgendwie aber doch viel Arbeit und bin gerade so faul. Oder was sagt ihr? :D

horn 12
2017-02-11, 09:16:26
Ich für meinen Teile habe schon den 1700X bei mir zuhause
Gekauft im mafiosen Italien!

https://forums.anandtech.com/threads/summit-ridge-zen-benchmarks.2482739/page-200#post-38733237

https://forums.anandtech.com/threads/summit-ridge-zen-benchmarks.2482739/page-201#post-38733349

dargo
2017-02-11, 09:24:11
Habe mir sogar überlegt meinen aktuellen 6700k noch "teuer" zu verkaufen und mir zwischenzeitlich einen G4560 einzubauen. Irgendwie aber doch viel Arbeit und bin gerade so faul. Oder was sagt ihr? :D
Hängt davon ab was du damit vor hast. Ich hantiere auch gerne mal mit Videos, da macht sich ein schneller 6C/12T oder 8C/16T gegenüber einem 4C/8T natürlich nicht schlecht.

Complicated
2017-02-11, 09:45:34
Ich für meinen Teile habe schon den 1700X bei mir zuhause
Gekauft im mafiosen Italien!

https://forums.anandtech.com/threads/summit-ridge-zen-benchmarks.2482739/page-200#post-38733237

https://forums.anandtech.com/threads/summit-ridge-zen-benchmarks.2482739/page-201#post-38733349
Aus dem Thread:
Thanks. So you're using a 4.7GHz 5960x, a 4.2GHz 6900k, a 4.8GHz 5820k, and a 5GHz 7700k as baselines.

So.... 3.4GHz Ryzen is putting up those numbers vs that competition?Hatte der Poster nur nicht sonderlich prominent platziert. ;)
Demnach ist Ryzen ein Monster....:eek:

Relic
2017-02-11, 09:57:03
Aus dem Thread:
Hatte der Poster nur nicht sonderlich prominent platziert. ;)
Demnach ist Ryzen ein Monster....:eek:

Der Singethreaded Test ist auf Augenhöhe mit Sandy Bridge, Haswell und Skylake auf 3,8Ghz und skaliert scheinbar rein über Takt, also kann man davon ausgehen, dass der Zen mit aktiviertem Turbo lief. Dann sind es keine Monster Ergebnisse aber immernoch sehr gut ;)

Complicated
2017-02-11, 10:05:42
Sandy, Haswell und Skylake auf 3,8 GHz? Nein das hat er nur in die Grafiken geschrieben. tatsächlich waren es:
Thanks. So you're using a 4.7GHz 5960x, a 4.2GHz 6900k, a 4.8GHz 5820k, and a 5GHz 7700k as baselines.
Im weiteren Threadverlauf ist er nämlich aufgeflogen mit seinem Troll-Versuch:
https://s24.postimg.org/dnriebkut/MWSnap_2017_02_10_23_03_35.jpg

Since BWE is 3-4% faster and SKL/KBL is another 3-4% faster, we can say that it's 5% slower than SKL/KBL...:D

Zergra
2017-02-11, 10:17:36
Also die haben den 1700 aus dem Pv genommen.
Dafür gibt es jetzt diese Seite. Die bestätigen damit das das x für xfr ist.
http://www.hardwareschotte.de/magazin/das-solltest-du-ueber-amd-zen-wissen-a41996

bun
2017-02-11, 10:39:26
http://www.hardwareschotte.de/magazin/das-solltest-du-ueber-amd-zen-wissen-a41996

Meine Preisvorherrsage scheint ja ziemlich genau einzutreffen. Sogar 8c/16t für ~350€ ? Wow.

Relic
2017-02-11, 10:40:19
Sandy, Haswell und Skylake auf 3,8 GHz? Nein das hat er nur in die Grafiken geschrieben. tatsächlich waren es:

Im weiteren Threadverlauf ist er nämlich aufgeflogen mit seinem Troll-Versuch:
https://s24.postimg.org/dnriebkut/MWSnap_2017_02_10_23_03_35.jpg

nein lese mein post nochmal genauer... ich rede nicht von den Gesamtergebnissen... ein User hat z.b. seinen 2500k auf 3,4Ghz und 3,8Ghz getaktet und gebencht um ein Vergleichsergebnis zu bekommen, die Haswell und Skylake Ergebnisse kommen aus der Datenbank bei 3,8ghz...
Also ist ziemlich sicher das der Turbo von 3,8Ghz aktiv war...

Complicated
2017-02-11, 10:45:07
Lese du bitte meinen Post genauer. Ich schrieb nicht über Ryzens Turbo, was ich nicht angezweifelt habe, sondern über die Taktraten der Intel SKUs.
Wenn du die 3,8 GHz auf Ryzen beziehst mit dem Satz:
Der Singethreaded Test ist auf Augenhöhe mit Sandy Bridge, Haswell und Skylake auf 3,8Ghz und skaliert scheinbar rein über Takt, also kann man davon ausgehen, dass der Zen mit aktiviertem Turbo lief.dann wird auch bei sehr genauem lesen der 3,8 GHz Takt den drei Intel Modellen zugeordnet in deinem Satz. Sorry, doch nun verstehe ich was du sagen wolltest :) Leider muss ich mich auf mein Schuldeutsch verlassen, da es nicht meine Muttersprache ist.

Zergra
2017-02-11, 10:51:12
Meine Preisvorherrsage scheint ja ziemlich genau einzutreffen. Sogar 8c/16t für ~350€ ? Wow.

Ja, AMD muss mit dem Preis in die Regionen vom 7700k vorstoßen. 350€ +-50 wäre ich auch bereit dafür zu bezahlen. Mehr aber nicht. Leider gibt es wohl zum Start noch keine 4C/8T. Würden mir auch erstmal reichen. Da ich eh zwei Systeme bestücken möchte, einmal 8 und einmal 4C, wäre das für den Anfang billiger. Vorallem weil die 8 Kerne bei Release bestimmt einen Zuschlag bekommen...

Radeonfreak
2017-02-11, 10:52:36
*Extended Frequency Range (XFR) = Da es keine klassischen Turbostufen gibt, sondern nur den Turbo-Zieltakt, hängt es von der Kühlung des Chips ab, wie weit sich dieser automatisch hoch taktet. Ergo: Je besser die Kühlung, desto höher der Turbo-Takt.

Bedeutet das, dass man gar nicht wirklich übertakten kann sondern auf Gedeih und Verderb auf den Kühler angewiesen ist, oder versteh ich da was falsch. :confused:

Zergra
2017-02-11, 10:55:42
Nein, das ist einfach nur ein Turbo-Takt der abhängig von der Kühlung, den Takt anpasst. Also für alle die nicht übertakten möchten. Der Multi ist ja für alle unlocked. Daher wird auch ein oc weiterhin möglich sein.

Isen
2017-02-11, 10:55:43
Das betrifft nur die X Varianten die das Feature haben. Klassisches OC wirds weiterhin geben...Turbo hat nix mit dem Feature am Hut.

Relic
2017-02-11, 10:56:12
Lese du bitte meinen Post genauer. Ich schrieb nicht über Ryzens Turbo, was ich nicht angezweifelt habe, sondern über die Taktraten der Intel SKUs.
Wenn du die 3,8 GHz auf Ryzen beziehst mit dem Satz:
dann wird auch bei sehr genauem lesen der 3,8 GHz Takt den drei Intel Modellen zugeordnet in deinem Satz. Sorry, doch nun verstehe ich was du sagen wolltest :) Leider muss ich mich auf mein Schuldeutsch verlassen, da es nicht meine Muttersprache ist.

nö du schreibst in deinem posting von ryzen @3,4ghz und das stimmt nicht

Pirx
2017-02-11, 10:57:44
*Extended Frequency Range (XFR) = Da es keine klassischen Turbostufen gibt, sondern nur den Turbo-Zieltakt, hängt es von der Kühlung des Chips ab, wie weit sich dieser automatisch hoch taktet. Ergo: Je besser die Kühlung, desto höher der Turbo-Takt.

Bedeutet das, dass man gar nicht wirklich übertakten kann sondern auf Gedeih und Verderb auf den Kühler angewiesen ist, oder versteh ich da was falsch. :confused:
Bist du doch sonst auch. Da der Multi offen sein soll, wird klassisches Übertakten auch möglich sein, nur wie das mit den Spannungen sein wird, kA (die "Stromversorgung" scheint ja recht komplex zu sein)


nö du schreibst in deinem posting von ryzen @3,4ghz und das stimmt nicht
Das ist nicht sicher 3,4 oder 3,8 (oder er hat sogar noch heimlich übertaktet;))

Skysnake
2017-02-11, 11:04:25
Nein, das ist einfach nur ein Turbo-Takt der abhängig von der Kühlung, den Takt anpasst. Also für alle die nicht übertakten möchten. Der Multi ist ja für alle unlocked. Daher wird auch ein oc weiterhin möglich sein.
Bleibt nur die Frage, ob man mit klassischem OC den Takt STABIL! überhaupt höher bekommt. das Ding macht das ja auf Grundlage von Messwerten sehr sehr dynamisch. Damit kann es prinzipiell viel näher ans Limit heran kommen als man mit dem statischen OC Verfahren, das man als User machen kann.

Spannend wird sein, wie es halt mit der Spannungsanhebung läuft. Also ob dann XFR überhaupt noch richtig funktioniert. Wenn ja, dann kann es sein das man gar kein OC mehr machen muss/kann, weil es immer schlechter wäre.

BlacKi
2017-02-11, 11:04:51
Bist du doch sonst auch. Da der Multi offen sein soll, wird klassisches Übertakten auch möglich sein, nur wie das mit den Spannungen sein wird, kA (die "Stromversorgung" scheint ja recht komplex zu sein)
die frage ist gar nicht mal so abwegig.

wenn ich das xfr feature nicht nutzen will muss ich den aufpreis nicht zahlen und spare mir das feature.

zb. für leute mit wakü.

nett wiederum ist das feature für leute die keinen bock auf garantie verlust haben.

Isen
2017-02-11, 11:06:21
OEM-Kisten... die dann aber ne Gülle Kühlung bekommen... kann auch nachteilig sein hinsichtlich Aufpreis den man dafür verlangt der Kunde aber nicht kriegt...

DinosaurusRex
2017-02-11, 11:13:05
Mich irritiert ein wenig, dass die Ryzen Quadcores so niedrig takten sollen. Ein 4C/8T Ryzen mit 4Ghz Bssistakt wäre ne feine Sache. Aber den Leaks zufolge, werden die Taktraten trotz geringerem Core Count geringer ausfallen als bei den 8C/16T Modellen. Erklär mir mal bitte jemand die Logik dahinter. Die Intel Core i3 CPUs takten ja auch höher als die i5 CPUs.

Pirx
2017-02-11, 11:18:22
Mich irritiert ein wenig, dass die Ryzen Quadcores so niedrig takten sollen. Ein 4C/8T Ryzen mit 4Ghz Bssistakt wäre ne feine Sache. Aber den Leaks zufolge, werden die Taktraten trotz geringerem Core Count geringer ausfallen als bei den 8C/16T Modellen. Erklär mir mal bitte jemand die Logik dahinter. Die Intel Core i3 CPUs takten ja auch höher als die i5 CPUs.
Der Herstellungsprozess wird die Taktbarkeit bei vertretbarer Abwärme/Versorgungsspannung limitieren. Vorerst sollen die Quadcores ja angeblich "Abfall" sein und sie sollen auch nicht die Verkäufe der Topmodelle kannibalisieren, vllt gibts auch nich soo viel Abfall.
aber abwarten

Sunrise
2017-02-11, 11:35:23
Mich irritiert ein wenig, dass die Ryzen Quadcores so niedrig takten sollen. Ein 4C/8T Ryzen mit 4Ghz Bssistakt wäre ne feine Sache. Aber den Leaks zufolge, werden die Taktraten trotz geringerem Core Count geringer ausfallen als bei den 8C/16T Modellen. Erklär mir mal bitte jemand die Logik dahinter. Die Intel Core i3 CPUs takten ja auch höher als die i5 CPUs.
Das entsteht entweder durch das Binning, weil AMD selektiert, oder weil AMD nicht die 8-Cores kannibalisieren möchte. Rein technisch ist das nicht zu erklären, weil man für einen 4-Core immer mehr Headroom hat. AMD nutzt ja keine nativen 4-Kerner, das sind quasi die Abfälle vom großen Ryzen.

Complicated
2017-02-11, 11:42:43
nö du schreibst in deinem posting von ryzen @3,4ghz und das stimmt nichtIch schrieb das für den Basistakt, sozusagen als Modell Klassifizierung. Klar bei den Singlethread Test kann man davon ausgehen dass der volle 3,8 GHz Turbo genutzt wurde. Da sind wir uns einig :)
Zumal nicht klar ist ob der Turbo aktiv war in dem verlinkten Test.

Lordluti
2017-02-11, 12:00:10
Mein Haswell schafft knappe 2300 Punkte im Singlecore test (@3,9ghz turbo). Ca. 10% mehr als Ryzen. Wollte ich nur mal anmerken :)

Zergra
2017-02-11, 12:01:37
Die 3,8Ghz müssten aber der mindest Turbo-Takt sein. Es wurde doch gesagt das es keinen festen Turbo-Takt gibt, bzw dieser ja immer abhängig von der Kühlung ist.

Isen
2017-02-11, 12:06:37
Ist er doch sowieso generell... hat mit dem XFR Feature aber nix am Hut.

[MK2]Mythos
2017-02-11, 12:09:49
Ist niemandem der Hinweis mit dem viel zu niedrigen Ram Takt aufgefallen, oder habe ich das überlesen?
https://forums.anandtech.com/threads/summit-ridge-zen-benchmarks.2482739/page-201

DinosaurusRex
2017-02-11, 12:12:38
Ich denke nicht, dass AMD die Octacores kannibalisieren würde, wenn die Quadcores mehr Takt hätten. Nach den derzeitigen Leaks scheint es vielmehr keinen Sinn zu machen, einen Ryzen zu kaufen, wenn man weniger als 350€ für die CPU ausgeben möchte.

Grundsätzlich halte ich es für sinnvoll, den Fokus auf die Octacores zu legen, denn das Server-Geschäft wird AMD am meisten nutzen. Für mich persönlich ist es aber natürlich nicht so optimal.

Screemer
2017-02-11, 12:26:18
Mythos;11289173']Ist niemandem der Hinweis mit dem viel zu niedrigen Ram Takt aufgefallen, oder habe ich das überlesen?
https://forums.anandtech.com/threads/summit-ridge-zen-benchmarks.2482739/page-201
beschissene timings und bei den chaches scheint es auch noch probleme zu geben.

Pirx
2017-02-11, 12:34:28
beschissene timings und bei den chaches scheint es auch noch probleme zu geben.
Angeblich ist es ein BA320-Mainboard... (https://forums.anandtech.com/threads/summit-ridge-zen-benchmarks.2482739/page-201#post-38733319) vielleicht eines aus einem Bristol-Ridge-Bundle/System, das noch keinen richtigen Ryzen-Support hat?

w0mbat
2017-02-11, 12:46:22
Egal, er schein auf jeden Fall >SNB IPC zu sein, das reicht mir völlig :D

Hübie
2017-02-11, 12:47:49
Ich erwarte Haswell Performance. Nicht in jeder Lebenlage, aber im Gros der Testszenarios. Vorher wechsel ich nicht. :D

Die Benchmarks bei anandtech sind wertlos. Was diskutiert ihr da?

Screemer
2017-02-11, 12:50:26
Die Benchmarks bei anandtech sind wertlos. Was diskutiert ihr da?
was ist da wertlos? ich zitiere mal aus dem anandboard:

Well, he managed to throw more actual coal into the hype loco than AMD over half a year, if we are honest.

seh ich genau so. mehr ziemlich klare infos gabs schon ewig nicht mehr. wir sind hier im spekuthread und da muss es ja was zum spekulieren geben.

PrivateCeralion
2017-02-11, 13:14:53
Die Benchmarks sagen null aus, bei Anandtech kann man sehen, dass die Intel Prozessor stark übertaktet worden sind nur Ryzen nicht.

Intel Core i7-7700k @5Ghz
Intel Core i7-6960X @4,7Ghz
AMD FX 9590 @5,149Ghz
AMD Ryzen 8Core/16. @3,394

Kein wuder, das Ryzen da so scheiße wirkt.

Eddit: Es gibt sogar ein Reddit dazu :
https://www.reddit.com/r/Amd/comments/5tc4n5/allegedly_ryzen_benchmarked_against_bunch_of_ocd/

DinosaurusRex
2017-02-11, 13:26:41
Das sieht doch sehr gut aus:

https://cdn.videocardz.com/1/2017/02/j7roVie-1000x699.jpg

https://cdn.videocardz.com/1/2017/02/HUqFUFS-1000x643.jpg

Quelle (http://m.neogaf.com/showpost.php?p=230121581)

Single-Threaded ist ein Kaby Lake wohl 16% schneller (kurz im Kopf überschlagen). Dafür kriegt man aber doppelt so viele physikalische Kerne.

Hübie
2017-02-11, 13:32:58
Estimated. Ebenso wertlos. :rolleyes:

DinosaurusRex
2017-02-11, 13:33:54
Estimated. Ebenso wertlos. :rolleyes:

Standardtakt ist nicht estimated.

Hübie
2017-02-11, 13:35:57
Da sind wiederum die anderen nicht Standard. Wertlos. Obendrein wieder synths...

Gandharva
2017-02-11, 13:38:09
Wenn man diese Grafiken mit aktivem Turbo (also 3,8Ghz) macht kommt man der Realität vermutlich eine ganze Ecke näher.

BlacKi
2017-02-11, 13:38:10
Die Benchmarks sagen null aus, bei Anandtech kann man sehen, dass die Intel Prozessor stark übertaktet worden sind nur Ryzen nicht.

Intel Core i7-7700k @5Ghz
Intel Core i7-6960X @4,7Ghz
AMD FX 9590 @5,149Ghz
AMD Ryzen 8Core/16. @3,394

Kein wuder, das Ryzen da so scheiße wirkt.

Eddit: Es gibt sogar ein Reddit dazu :
https://www.reddit.com/r/Amd/comments/5tc4n5/allegedly_ryzen_benchmarked_against_bunch_of_ocd/

stimmen die taktraten und die werte, ist ryzen taktbereinigt 3,8% schneller als broadwell e im singlethreaded bench.

Unicous
2017-02-11, 13:42:00
Nur mal so eine Frage: Wann war Passmark zuletzt ein verlässlicher Benchmark für irgendwas?:confused:


Ich könnte mich jedenfalls nicht erinnern.:wink:

Etwas interessanter ist eher das hier:

http://ranker.sisoftware.net/show_run.php?q=c2ffcee889e8d5e3d4e1d8ead8fe8cb181a7c2a79aaa8cffc2f2&l=en


edit:
Falls noch jemand sexy Bildchen von Ryzen haben will dann habe ich etwas für euch:

https://pbs.twimg.com/media/C4Xf4YgUcAALBE6.jpg
https://pbs.twimg.com/media/C4XQVjiUYAAonI6.jpg
https://twitter.com/GFXChipTweeter/with_replies

PrivateCeralion
2017-02-11, 13:42:28
stimmen die taktraten und die werte, ist ryzen taktbereinigt 3,8% schneller als broadwell e im singlethreaded bench.

Wie viel höher ist die IPC von Skylake im Vergleich zu Broadwell?

Screemer
2017-02-11, 13:43:36
stimmen die taktraten und die werte, ist ryzen taktbereinigt 3,8% schneller als broadwell e im singlethreaded bench.
und genau deswegen frag ich mich, was da wertlos sein soll? für vergleiche von finalen produkten wird so oft passmark herangezogen und hier solls auf einmal wertlos sein. außerdem sind projektionen eben genau das projektionen und für den der damit umzugehen weiß auch nicht wertlos.

prinz_valium
2017-02-11, 13:50:20
also nur noch 2 fragen sind offen
sind die ryzen benschmarks nun mit standard oder boost takt gefahren

ist das ganze echt, oder ein troll (immerhin auch eine möglichkeit)
aber wie dem auch sei. entweder ist man von der ipc etwas unter broadwell oder etwas über broadwell


und für mich ist das extrem gut und alles, was ich erwartet habe

BlacKi
2017-02-11, 13:54:14
Wie viel höher ist die IPC von Skylake im Vergleich zu Broadwell?
schlecht zu vergleichen da ein ddr3 zu 4 wechsel stattfand. skylake mit ddr3 werte habe ich nicht.

ich bin gespannt ob sich die performance wirklich nach dem release so zeigen wird. sicher sind diese werte noch nicht... wir nehmen die 3,39ghz an, aber vl sind die falsch ausgelesen, und der singlethreadbench lief mit 3,8 ghz. who knows.

Unicous
2017-02-11, 13:57:29
@ prinz_valium

Es besteht immer die Möglichkeit, dass da jemand die ID manipuliert hat, aber es scheint echt zu sein da auch Mainboard und andere Dinge erkannt wurden. Darüber hinaus ist der Name "Boostboxx Advanced" interessant.

https://www.boostboxx.com/

Boostboxx ist wohl eine Tochterfirma von CSL-Computer, hier scheint jemand Ryzen für ihre neuen Komplett-PCs zu testen. Aber ein A-320 Mainboard scheint mir dafür eher schlecht geeignet.

Pirx
2017-02-11, 14:01:37
Das sieht doch sehr gut aus:

https://cdn.videocardz.com/1/2017/02/j7roVie-1000x699.jpg

https://cdn.videocardz.com/1/2017/02/HUqFUFS-1000x643.jpg

Quelle (http://m.neogaf.com/showpost.php?p=230121581)

Single-Threaded ist ein Kaby Lake wohl 16% schneller (kurz im Kopf überschlagen). Dafür kriegt man aber doppelt so viele physikalische Kerne.
Jupp, wenn es wirklich bei nur 3,4 GHZ war (und der RAM noch nicht richtig funktionierte) ist es eine absolute Waffe.:eek:
:|

prinz_valium
2017-02-11, 14:01:41
@ prinz_valium

Es besteht immer die Möglichkeit, dass da jemand die ID manipuliert hat, aber es scheint echt zu sein da auch Mainboard und andere Dinge erkannt wurden. Darüber hinaus ist der Name "Boostboxx Advanced" interessant.

https://www.boostboxx.com/

Boostboxx ist wohl eine Tochterfirma von CSL-Computer, hier scheint jemand Ryzen für ihre neuen Komplett-PCs zu testen. Aber ein A-320 Mainboard scheint mir dafür eher schlecht geeignet.

haha nein. davon gehe ich nicht aus
eher von den werten an sich.
oder werden die automatisch übers internet in eine datenbank übertragen bei dem benchschmark?
denn dann wäre auch das ausgeschlossen
aber ansonsten kann man ja einfach behaupten das teil erreichte wert x, obwohl die realität nur wert y ist


darauf wollte ich hinaus.
kann mich ja jemand gerne aufklären
und glauben tue ich an einen hoax sowieso nicht. wollte es nur der vollständikeit halber erwähnt haben

Unicous
2017-02-11, 14:05:20
Ja, es ist in der Datenbank eingetragen. Man muss aber Passmark installieren um es einzusehen afaik, und wer will das schon.:freak:

dargo
2017-02-11, 14:17:55
Das sieht doch sehr gut aus:

https://cdn.videocardz.com/1/2017/02/j7roVie-1000x699.jpg

https://cdn.videocardz.com/1/2017/02/HUqFUFS-1000x643.jpg

Quelle (http://m.neogaf.com/showpost.php?p=230121581)

Single-Threaded ist ein Kaby Lake wohl 16% schneller (kurz im Kopf überschlagen). Dafür kriegt man aber doppelt so viele physikalische Kerne.
Wie kommen jetzt diese 16% zustande? Laut deinen Bildern ist der i7-7700K mit 5Ghz bei Single-Thread 7% schneller als Ryzen mit 4,7Ghz. Taktbereinigt wird es auf gleiche Leistung hinauslaufen. Sollten die Benchmarks stimmen wäre das eine Sensation. :eek:

dildo4u
2017-02-11, 14:20:59
Erst mal ein 8 Core auf den Takt bekommen,die Intel 8 Core kommen nich mal in die Nähe von Kabylake.

dargo
2017-02-11, 14:21:56
5Ghz schafft auch kein i7-7700K ohne ihn zu köpfen. :rolleyes:

w0mbat
2017-02-11, 14:22:19
@dildo4u: Muss er ja auch nicht.

DinosaurusRex
2017-02-11, 14:22:33
Wie kommen jetzt diese 16% zustande? Laut deinen Bildern ist der i7-7700K mit 5Ghz bei Single-Thread 7% schneller als Ryzen mit 4,7Ghz. Taktbereinigt wird es auf gleiche Leistung hinauslaufen. Sollten die Benchmarks stimmen wäre das eine Sensation. :eek:

Die ~16% für Kaby Lake sind bei identischem Takt, im Kopf errechnet anhand der Zahlen für Ryzen mit 3,4Ghz und Kaby Lake mit 5Ghz. Ich glaube sowas nennt man Dreisatz.

dildo4u
2017-02-11, 14:23:25
Das scheint realistisch der 8 Core bewegt sich beim 6 Core Intel.

http://abload.de/img/amd-ryzen-7-1700x-vs-y4o84.jpg

http://abload.de/img/8corebtrtl.png

Zergra
2017-02-11, 14:24:33
Wieso schau doch mal in seiner Grafik. Da ist auch ein 5960x @ 4,7Ghz. Denke die 4,7Ghz sind wohl eher eine ausnahmen und nur mit viel Spannung zu erreichen und einer Menge Glück. Wäre für eine komplett neue Architektur der Hammer. Ich beneide gerade alle Tester, die können gleich Aktien kaufen wenn die wissen was Ryzen wirklich leistet...

Unicous
2017-02-11, 14:25:25
dildo checkt mal wieder nicht, dass das nicht die realen Taktraten sind, ist aber logisch, er hat ja nur Flausen im Kopf.

Pirx
2017-02-11, 14:27:52
Das scheint realistisch der 8 Core bewegt sich beim 6 Core Intel.

http://abload.de/img/amd-ryzen-7-1700x-vs-y4o84.jpg
Was hatte this computer denn da für Taktraten?

Kriegsgeier
2017-02-11, 14:35:05
Was vielen entgeht ist Folgendes:

i7 7700 ist ein 4/8 kostet ca. 320€

R1700X ist ein 8/16 kostet (oder wird wahrscheinlich) ca. 360€ kosten
+ im übertaktetem Zustand wird der 1700X vielleicht an 3,8 GHz kommen

D. h.: jeder vernünftiger Tester (nicht durch INTEL finanziert) würde folgende Empfehlung aussprechen:

kaufen Sie R1700X statt i7 7700

Und genau dort sollte der R1700X auch ansetzen. Single- oder Multitread Leistung hin oder her!

Armaq
2017-02-11, 14:37:00
Ich bin eh gespannt, was die Presse macht. Intel wird jetzt wieder die Geldfässer öffnen, das ist sicher.

Botcruscher
2017-02-11, 14:39:45
OC Quatsch. Da limitiert doch wieder alles mögliche und der Speicher ist auch unbekannt. Für Vergleiche wieder nicht zu gebrauchen.

Isen
2017-02-11, 14:50:01
Ich bin eh gespannt, was die Presse macht. Intel wird jetzt wieder die Geldfässer öffnen, das ist sicher.

Dann kann sich die Presse warm anziehen.
Verhunzt mir ja dann mein Invest und die der anderen Investoren.

dargo
2017-02-11, 14:52:51
Die ~16% für Kaby Lake sind bei identischem Takt, im Kopf errechnet anhand der Zahlen für Ryzen mit 3,4Ghz und Kaby Lake mit 5Ghz. Ich glaube sowas nennt man Dreisatz.
Dann rechne nochmal nach. ;)

Nach meinem Dreisatz würde Ryzen ausgehend von 3,4Ghz und 2046 Punkten mit 5Ghz auf knapp 3009 Punkte kommen. Der i7-7700k kommt mit 5Ghz auf 2916 Punkte.

PS: natürlich ist diese Rechnung mit Vorsicht zu genießen da die Speicherbandbreite nicht 1:1 ansteigt.

PPS: die IPC von Ryzen ist bei Single-Thread gegenüber Bulldozer um knapp 61% gestiegen. Das wäre auch nicht von schlechten Eltern. ;)