PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Zu den hohen Ergebnis-Differenzen bei der Spiele-Perform. von Ryzen II


Leonidas
2018-04-23, 19:58:59
Link zur News:
https://www.3dcenter.org/news/zu-den-hohen-ergebnis-differenzen-bei-der-spiele-performance-von-ryzen-2000

Gast
2018-04-23, 21:08:13
Link zur News:
https://www.3dcenter.org/news/zu-den-hohen-ergebnis-differenzen-bei-der-spiele-performance-von-ryzen-2000

http://www.planet3dnow.de/cms/37839-pinnacle-ridge-haben-einige-webseiten-versehentlich-falsch-getestet/

Locutus2002
2018-04-23, 21:15:12
Als Statistiker kann ich sagen: es ist vollkommen legitim und sogar üblich bei Bewertungen, Noten usw. Ausreißer nach oben oder unten von Mittelwertbildungen auszuschließen (in meinem Umfeld üblicherweise die oberen und unteren 5%). Daher hat es nichts mit Willkür zu tun, wenn ihr die Ergebnisse von AnandTech und PCGH aus der Gesamtwertung herausnehmt, sondern mit Vermeidung eines (zu großen) Ausreißer-Einflusses. Alternativ, wenn es gute Gründe für den Verbleib auffälliger Wertungen gibt, könnte man auch einen gewichteten Mittelwert verwenden.

Iapetos
2018-04-23, 21:47:05
Als Statistiker kann ich sagen: es ist vollkommen legitim und sogar üblich bei Bewertungen, Noten usw. Ausreißer nach oben oder unten von Mittelwertbildungen auszuschließen (in meinem Umfeld üblicherweise die oberen und unteren 5%). Daher hat es nichts mit Willkür zu tun, wenn ihr die Ergebnisse von AnandTech und PCGH aus der Gesamtwertung herausnehmt, sondern mit Vermeidung eines (zu großen) Ausreißer-Einflusses. Alternativ, wenn es gute Gründe für den Verbleib auffälliger Wertungen gibt, könnte man auch einen gewichteten Mittelwert verwenden.
Was für ein Statistiker bist du denn? Pauschal eine 5-Prozentgrenze einzuführen ist Willkür.

Als echter Statistiker würdest du natürlich der Übersicht halber Mittelwert, Median und Standardabweichung ermitteln und anschließend einen Ausreißertest nach Grubbs (es handelt sich ja quasi um eine Einpunktkalibrierung) durchführen. Der sagt dir dann ganz unwillkürlich, ob es sich um einen Ausreißer handelt oder nicht. Nach Elimination des Ausreißers wiederholst du den Test natürlich etc.

Und das muss ich als unstudierte Fachkraft in einem Forum für Computertechnik anbringen. Traurig.

Iscaran
2018-04-23, 22:05:04
Hmmm...es käme hier drauf an WIE genau Leo die Ergebnisse ermittelt.

Hat er jeweils wirklich die ABSOLUTEN Benchwerte genommen ? Vermutlich nicht, da jede Bench-Seite ihren mehr oder wengier eigenen Parcour hat.

Also hat er die erhaltenen Mittelwerte - gemittelt. Mit einem Referenzwert. Hier dem 8700K, da er wohl in jedem Test auftritt.

Was aber wenn nun bei Anand z.b. Alles in Ordnung ist mit den Zahlen des 2700X...aber der 8700K einfach nur "schlecht" gebenched wurde ?
AFAIK - hat man den mit HPET "ON" laufen lassen - was ggf. zu deutlichen Performance Einbußen führen kann:
https://www.overclockers.at/articles/timerbench-ein-benchmark-fuer-windows-timer

Damit wäre der 8700K natürlich dort deutlich "unter"-Performant. Die Werte der Ryzens aber völlig in Ordnung.

Durch das Mitteln der Mittelwerte ergibt sich dann so das verzerrte Bild. (Da alles auf den 8700K "normiert" wurde.

Würde man nun alles auf den Ryzen 2700X "normieren" und den fehlerhaften 8700K Wert so rauslassen und auch am Ende nicht mit einrechnen sollten die Werte alle ingesamt konsistenter sein.

Gast Ritis
2018-04-23, 22:06:00
Manoman.

Es kann doch nicht darum gehen so lange Werte hinzuzunehmen oder zu streichen bis einem das Ergebnis passt.

Allein die Ursache ist wichtig. Sobald man diese herausgefunden hat kann man entweder die Werte so lassen und dann entsprechend kommentieren, oder man wartet dann auf die "neuen" Ergebnisse, die dann wohl korrekt erhoben sein sollten und macht den "Index" neu.

Alles andere sind wertlose Zahlen, wer soll sich an so etwas schon orientieren wenn man nicht weiss was daran richtig oder falsch ist ???

paul.muad.dib
2018-04-23, 22:12:25
http://www.planet3dnow.de/cms/37839-pinnacle-ridge-haben-einige-webseiten-versehentlich-falsch-getestet/

Planet3dnow ist ja pro AMD, aber trotzdem, sollte das so stimmen, sind möglicherweise die anderen Ergebnisse eher zu schlecht, als Anandtech zu gut. Außerdem wäre ja möglich, dass einige Tester bei Intel das "Multi-Core Enhancement" aktiviert hatten.

Locutus2002
2018-04-23, 23:04:43
Was für ein Statistiker bist du denn?

Einer der weiß, was er tut.

Pauschal eine 5-Prozentgrenze einzuführen ist Willkür.


Wo habe ich gesagt, dass diese 5% (die ich als Beispiel aus meiner beruflichen Praxis genannt hatte; ohne Anspruch auf Übertragbarkeit auf den vorliegenden Fall) aus der Luft gegriffen sind und "pauschal" angesetzt werden? Zeig mir das bitte (mit Zitat, wenn vorhanden).

Unsere 5% sind nach Analyse historischer Daten kalibriert worden (Größenordnung 10^15 mit je ca. 100 zu mittelnder Komponenten und das allein im Jahr vor der Analyse; da kannst du dir ausrechnen, was da schon in der Sekunde zusammenkommt), die bei uns anfallen (über Details darf ich aus Geschäftsgeheimnis-Gründen nichts sagen). Wenn Du es ganz genau wissen willst ~4,72% oben und ~4,81% unten. Dabei handelt es sich um Worst-Case-Schranken, also gerade die Punkte, die gerde so nie über-/unterschritten worden.

Als echter Statistiker würdest du natürlich der Übersicht halber Mittelwert, Median und Standardabweichung ermitteln und anschließend einen Ausreißertest nach Grubbs (es handelt sich ja quasi um eine Einpunktkalibrierung) durchführen. Der sagt dir dann ganz unwillkürlich, ob es sich um einen Ausreißer handelt oder nicht. Nach Elimination des Ausreißers wiederholst du den Test natürlich etc.

So könnte ein mögliches saubes, aber in unserem Fall viel zu langsames Vorgehen aussehen. Für große Daten dauert das nämlich relativ gesehen sehr lange, insbesondere in Echtzeit. Daher haben wir besagte Trimmungsgrenzen ermittelt, die sehr viel einfacher umzusetzen sind, weil sie eben keine langwierige Einzel-Eliminationen erfordern und Echtzeitauswertungen so eben sehr viel performanter bzw. überhaupt erst möglich sind. Es hat sich gezeigt, dass es lediglich im hinteren Nachkommabereich zu Unterschieden kommt, wenn wir (zwangsläufig) zu viel weglasseen. Diese Differenzen sind aber (für uns) volkommen vernachlässigbar, da wir uns für Nchkommastellen in der Regel gar nicht interessieren.

Wie man (auch als unstudierter Laie) bemerkt, ist das eine Optimierung, die für uns gut funktioniert, es aber im Einzelfall nicht immer muss. Wenn man will, findet man im Alltag aber immer wieder Beipiele, wo ("pauschal") beste und schlechteste Wertungen bei Mittelwertbildungen eliminiert werden (z.B. Haltungsnoten in vielen Sportdisziplinen), um die Fairness zu wahren und unverzerrte Gesamtwertungen zu erhalten.

Und das muss ich als unstudierte Fachkraft in einem Forum für Computertechnik anbringen. Traurig.

Und solche pauschalen Belehrungen in einem Forum für Computertechnik lesen zu müssen. Traurig. Das mit dem unstudierten merkt man, leider, denn sonst hätte es statt einer pauschalen Belehrung eine interssierte Nachfrage gegeben.

Aber ich schätze so ist das eben heute. Jeder muss die eigene Meinung und das eigene Halbwissen als allgemeingültig und absolut präsentieren und vergisst dabei sowohl den guten Ton als auch, dass man eben niemals alles weiß. Man sollte immer um seine eigene Nicht-Vollkommenheit wissen und sich bewusst sein, dass jeder (auch man selbst) immer Wissenslücken hat und immer noch etwas lernen kann, selbst bei Dingen, wo man sich für einen Experten hält.

Leonidas
2018-04-24, 04:57:57
http://www.planet3dnow.de/cms/37839-pinnacle-ridge-haben-einige-webseiten-versehentlich-falsch-getestet/


Genau hier könnte eine Erklärung liegen.





Als Statistiker kann ich sagen: es ist vollkommen legitim und sogar üblich bei Bewertungen, Noten usw. Ausreißer nach oben oder unten von Mittelwertbildungen auszuschließen (in meinem Umfeld üblicherweise die oberen und unteren 5%). Daher hat es nichts mit Willkür zu tun, wenn ihr die Ergebnisse von AnandTech und PCGH aus der Gesamtwertung herausnehmt, sondern mit Vermeidung eines (zu großen) Ausreißer-Einflusses. Alternativ, wenn es gute Gründe für den Verbleib auffälliger Wertungen gibt, könnte man auch einen gewichteten Mittelwert verwenden.


Das mache ich gern, wenn ich Minimum 10 Wertequellen habe. Aber bei 7 Wertequellen auf 5 zu verzichten? Schau mal an, wieviel mehr "~"-Zeichen beim Index mit nur 5 Wertequellen stehen.


PS: Haut euch nicht um gute/falsche Statistik. Ihr habt beide gute Argumente. Im Einzelfall kommt es immer drauf an, was man darstellen will, wie genau es sein soll - und vor allem, wie reichhaltig die Werte sind. Ich könnte mir beispielsweise gut vorstellen, das kein ernsthafter Statistiker einen Mittelwert aus nur 7 Quellen bilden will, deren Ergebnisse quer durcheinander gehen.




Hmmm...es käme hier drauf an WIE genau Leo die Ergebnisse ermittelt.

Hat er jeweils wirklich die ABSOLUTEN Benchwerte genommen ? Vermutlich nicht, da jede Bench-Seite ihren mehr oder wengier eigenen Parcour hat.


Ich verstehe die Frage nicht. Ich benutzte die veröffentlichten Werte. Bilde daraus einen Index für jede einzelne Webseite. Verrechne alle Indizes miteinander unter Füllung der Lücken durch Interpolation.

Iapetos
2018-04-24, 05:55:20
Einer der weiß, was er tut.



Wo habe ich gesagt, dass diese 5% (die ich als Beispiel aus meiner beruflichen Praxis genannt hatte; ohne Anspruch auf Übertragbarkeit auf den vorliegenden Fall) aus der Luft gegriffen sind und "pauschal" angesetzt werden? Zeig mir das bitte (mit Zitat, wenn vorhanden).

Unsere 5% sind nach Analyse historischer Daten kalibriert worden (Größenordnung 10^15 mit je ca. 100 zu mittelnder Komponenten und das allein im Jahr vor der Analyse; da kannst du dir ausrechnen, was da schon in der Sekunde zusammenkommt), die bei uns anfallen (über Details darf ich aus Geschäftsgeheimnis-Gründen nichts sagen). Wenn Du es ganz genau wissen willst ~4,72% oben und ~4,81% unten. Dabei handelt es sich um Worst-Case-Schranken, also gerade die Punkte, die gerde so nie über-/unterschritten worden.



So könnte ein mögliches saubes, aber in unserem Fall viel zu langsames Vorgehen aussehen. Für große Daten dauert das nämlich relativ gesehen sehr lange, insbesondere in Echtzeit. Daher haben wir besagte Trimmungsgrenzen ermittelt, die sehr viel einfacher umzusetzen sind, weil sie eben keine langwierige Einzel-Eliminationen erfordern und Echtzeitauswertungen so eben sehr viel performanter bzw. überhaupt erst möglich sind. Es hat sich gezeigt, dass es lediglich im hinteren Nachkommabereich zu Unterschieden kommt, wenn wir (zwangsläufig) zu viel weglasseen. Diese Differenzen sind aber (für uns) volkommen vernachlässigbar, da wir uns für Nchkommastellen in der Regel gar nicht interessieren.

Wie man (auch als unstudierter Laie) bemerkt, ist das eine Optimierung, die für uns gut funktioniert, es aber im Einzelfall nicht immer muss. Wenn man will, findet man im Alltag aber immer wieder Beipiele, wo ("pauschal") beste und schlechteste Wertungen bei Mittelwertbildungen eliminiert werden (z.B. Haltungsnoten in vielen Sportdisziplinen), um die Fairness zu wahren und unverzerrte Gesamtwertungen zu erhalten.



Und solche pauschalen Belehrungen in einem Forum für Computertechnik lesen zu müssen. Traurig. Das mit dem unstudierten merkt man, leider, denn sonst hätte es statt einer pauschalen Belehrung eine interssierte Nachfrage gegeben.

Aber ich schätze so ist das eben heute. Jeder muss die eigene Meinung und das eigene Halbwissen als allgemeingültig und absolut präsentieren und vergisst dabei sowohl den guten Ton als auch, dass man eben niemals alles weiß. Man sollte immer um seine eigene Nicht-Vollkommenheit wissen und sich bewusst sein, dass jeder (auch man selbst) immer Wissenslücken hat und immer noch etwas lernen kann, selbst bei Dingen, wo man sich für einen Experten hält.
Ich bitte um Entschuldigung für meine unwirsche Attacke. Ich arbeite in einem Bereich, in dem Dokumentation und Transparenz von höchster Priorität sind und bin dementsprechend sensibilisiert, was Pauschalaussagen bzgl. Daten (und so nehme ich deine ungefähren 5 % immer noch wahr, weil ich deine Datenlage weder vorausahnen konnte noch nachvollziehen kann) betrifft. Für mich entsteht der Eindruck der Selbstherrlichkeit, wenn man einfach eine Zahl in den Raum wirft.

Bitte ignoriere also den unangenehmen Teil meines ersten Posts, es sollte kein persönlicher Angriff sein. Und dass ich nicht alles weiß, ist wohl das einzige, was ich wirklich weiß. :wink:

Pirx
2018-04-24, 07:05:49
Ein weiteres Thema ist die Meltdown/Spectre-Problematik. Wurde immer mit vollem "Schutz" gemessen?

Leonidas
2018-04-24, 07:53:02
Wer will das wirklich bestätigen oder dagegenreden? Die Webseiten werden kaum solcherart "Fehler" zugeben, sofern sie nicht dazu gezwungen sind.

Freestaler
2018-04-24, 08:43:36
Naja, dank den Fragen nach MCE on/off, Cache Takt, TDP Limit, XFR2 Boosts ( CPUTemp relevant), Spectre Patches, verwendeter Kühler (8700k gibts kein Boxed) hat man ja sowie min. 10% Spanne bei den Resultaten. Ergo, bei dieser kleinen Datenbasis würde ich auch nichts mehr rausnehme. Evtl. wirds ja mit der Zeit besser. z.B. gibt CB nun wohl wieder mehr Gas und hat schon 2 zusätzliche Artikel gebracht. Evtl. haben wir irgendwann "neutrale" saubere Datenbasis.

Iscaran
2018-04-24, 09:16:01
Ich verstehe die Frage nicht. Ich benutzte die veröffentlichten Werte. Bilde daraus einen Index für jede einzelne Webseite. Verrechne alle Indizes miteinander unter Füllung der Lücken durch Interpolation.

Ja genau:

Bsp:
Du bildest den Index für Anand: 8700K = 100%, R2700X = 110%
Ebenso für CB: 8700K = 110%, R2700 = 100%

usw.

Der 8700K bei Anand könnte aber wegen der HPET Sache zu niedrig sein.

Der 8700K ist bei Anand nur minimal schneller als ein alter 1800X.

Wie kann das sein ? Bei allen anderen ist der 8700K eher 10% schneller.

Zwar kommt der 2700X bei Anand relativ zum 1800X auch etwas besser weg, aber bei weitem nicht so drastisch wie relativ zum 8700K.

=> Der 8700K ist bei Anand deutlich unter-performant.
Das könnte aber an Spectre V2 liegen. Das bei vielen anderen Seiten ja ggf. nicht aktiv war. Und CB sagt Spectre V2 @Ryzen kostet nur 0-1% Performance, @Intel aber eher so 2-6%.

Danach nimmst du diese Indexwerte und "mittelst" sie wieder über alle Reviewseiten.

Wegen des überproportional schlechten Abschneidens des 8700K bei Anand erscheinen dann die Werte des 2700X (deutlich) zu hoch.

Die Werte für die kleinen Ryzens sind konsistent bei Anand - aber auch hier sind die 7700 und 8700K Werte Relativ zu den kleinen Ryzens zu "schlecht".

=> Vermutlich sind also hier einfach die Intel-Werte etwas nach unten biased. ODER aber HPET oder Spectre/Meltdown zeigen halte nun ihre Auswirkungen (5-10% CPU-Leistung in der Gesamtsumme verliert Intel mehr als AMD).
NACHTRAG: Toms Hardware hat Explizit Spectre V2@Intel deaktiviert (da sie noch keine updates für ihre Ryzen Mainboards mit V2-Patchhatten)
https://www.tomshardware.com/reviews/amd-ryzen-7-2700x-review,5571-4.html
"The lack of Spectre Variant 2 patches in our Intel results likely give the Core CPUs a slight advantage over AMD's patched platforms."

Wenn wir die von CB gemessenen 2-6% hernehmen und damit die THG-Werte für ihre intel CPUs "runterkorriegieren" - kommt der 2700X hier auch deutlich besser weg.

Btw. Anand selbst schreibt ja dass die ALTEN 1800X und CO-Werte nicht neu gemessen wurden. Diese sind noch OHNE Spectre/Meltdown.

Matrix316
2018-04-24, 10:30:07
Schaut euch mal hier den Arma3 Bench an:

https://www.youtube.com/watch?v=o8ZFw3ukFYY&t=201s

Ich habe an der gleichen Stelle (das ist der erste Showcase) den 2700X mit meinem 1700X vergleichen. Zwar mit höheren Settings (2560x1440 und Ultra Settings meistens), aber die waren bei beiden Läufen identische.

In dem Video oben sind der 2700X und 1800X fast identisch von den FPS.

In meinem Test, war der 2700X 10-30 FPS besser! Der 1700X startete auch mit so 80-85 FPS, der 2700X startete mal direkt mit 100 FPS und pendelt sich dann in den 90ern ein.

Was ich sagen will, die Abweichungen von Anandtech können durchaus sein. Wenn jemand nur mit einer 1080 in Full HD und mittleren Details testet, können schon andere Ergebnisse rauskommen als wenn jemand eine 1080TI oder Titan XP oder so verwendet.

Es kommt auch auf die Auswahl der Spiele an. Manche laufen mit intel besser, manche mit AMD, manche mit wenigen Kernen, manche mit mehr Kernen... oder die Anzahl der Details die man verwendet etc. pp..

Vergessts, die CPU war wahrscheinlich höher getaktet, so dass beide ähnliche FPS zeigen. ;)

Wolfram
2018-04-24, 10:44:06
Man könnte ja auch einfach ein paar Tage abwarten, ob sich noch irgendwelche Erklärungen ergeben. Zumindest Anandtech dürfte das ja auch interessieren.


EDIT: https://www.anandtech.com/show/12625/amd-second-generation-ryzen-7-2700x-2700-ryzen-5-2600x-2600/20

Update: A number of comments have noted that some of our gaming numbers are different to other publications. To clarify, we used the latest ASUS 0508 BIOS (on X470), full Windows RS3 + updates, Spectre/Meltdown patches, and updated gaming titles. We are reviewing the data.

Leonidas
2018-04-25, 07:19:02
Genau das habe ich von AnandTech erwartet. Die haben auch notfalls ihren Bericht später herausgebracht, wenn noch dran gearbeitet wurde. Deswegen gehört AnandTech für mich zu den letzten, die ich entfernen würde.

@ Iscaran: Meines Erachtens nach sind einfach die angesetzten 4-6 Spiele-Benchmarks pro Webseite zu wenig. Zwei stark abweichende Ergebnisse reichen, dann hat eine Webseite einen stark abweichenden Index. Sofern ich jede dieser Webseiten verpflichten könnte, unter den exakt gleichen Settings (wie der jeweilige Launch-Artikel entstand) dagegen 10-12 Spiele-Benchmarks anzusetzen, bin ich überzeugt, würde sich das sehr stark einebnen.

Iscaran
2018-04-25, 09:35:10
Meines Erachtens nach sind einfach die angesetzten 4-6 Spiele-Benchmarks pro Webseite zu wenig.


Geb ich dir Recht - vor allem sind die Spiele eh fast nur "singleCore" Leistungsmesser. Warum sonst ist der 8400 teilweise gleichauf bzw. schneller als der 8700K....ganz einfach weil die APIs/Spiele nicht mehr mehr als 4 Kernen umgehen können.

Bei CB ist der 8400 in 1 Spiel schneller als der 8700, in 4 von 6 ca. gleich auf. Nur in einem abgeschlagen.

=> 5/6 spiele im CB-Test sind SingleCore-Limitiert (oder aber im GPU-Limit) bzw. nicht optimiert für mehr als 4 Kerne

=> Es reicht eigentlich auf den Cinebench zu schauen um zu wissen wo man da steht.

Das hilft aber natürlich wenig um die "Langzeit"-Performance so einer CPU-Abzubilden. Da ist der Anwendungsfall wohl eher Ausssagekräftig. Sieht man ja auch bei Games die Entwicklung von 1 Kern auf 4 Kerne (Stand heute).

Aber in z.B. 5 Jahren das ist locker der Zeitraum in welchem man eine CPU behält (ca 3 GPU generationen) wird sich der 2700X (und auch der 8700K) deutlich vom 8400 absetzen.

Das sieht man an den Spielebenches halt leidere nicht.

Matrix316
2018-04-25, 10:12:52
Man müsste halt mehr Spiele benchen WO mehr Kerne was bringen. Crysis 3 zum Beispiel.

MartinRiggs
2018-04-25, 10:16:39
Ja aber da beißt sich die Katze auch in den Schwanz, Crysis 3 spielt doch eh keine Sau mehr.
Es ist schade das man so performante CPUs hat und so wenig draus gemacht wird.
Allein die Physik in vielen Spielen ist unterirdisch:rolleyes:, ich vermisse mehr Games wie Red Faction Guerilla wo man wirklich fast alles in Klump legen kann

Gast
2018-04-25, 10:28:20
Bei mehr Titel würde sich die ganze Geschichte nochmehr zu den Intelmodellen verschieben weil Spiele die von 8 Kernern profitieren einfach Mangelware sind, im Großteil >90% der Games zählt nach wie vor IPC + hohe Taktraten auch wenn jedes Jahr aufs neue in Foren immer die Kehrtwende herbeilamentiert wird.

Genauso wie man sieht das die Topmodelle in manchen Titel in 1080p auch mit ner 1080Ti ins GPU Limit rauschen und damit das Ergebniss ordentlich verzehren .
Bei den meisten Testrahmenbedingungen kommt die 2000er Serie überproportional gut weg im Bereich Spiele .

Mal als Beispiel wo sind die Tests mit 1080Ti im SLi ?

Matrix316
2018-04-25, 12:16:26
Was sind denn aktuelle Titel die mehr Kerne Unterstützen? Watchdogs 2 vielleicht? Eigentlich müssten das doch alle Konsolenkonvertierungen sein.

aufkrawall
2018-04-25, 12:23:15
Das hat halt wie die meisten anderen recht aktuellen Spiele auch hohe GPU-Anforderungen, weshalb die meisten Tester die Ergebnisse eh ins GPU-Limit absaufen lassen würden.

y33H@
2018-04-25, 12:32:31
AC Origins skaliert sehr schön.

aufkrawall
2018-04-25, 12:40:27
Nur mit NV-GPU. ;)

Iscaran
2018-04-25, 14:30:33
Evtl. liegt der Unterschied der Anand Zahlen auch einfach am BIOS ?
https://www.anandtech.com/show/12625/amd-second-generation-ryzen-7-2700x-2700-ryzen-5-2600x-2600
Anand: 0508
CB hat AFAIK 0505. kA was andere Seiten haben.
Aber 0509 bringt @Linux einen recht deutlichen Performance-Schub (gegenüber 0505).

https://www.phoronix.com/scan.php?page=article&item=ryzen-2700x-bios&num=1

Könnte natürlich sein das das @Windows auch was bringt. Und Anand hat nachweislich zumindest relativ zu CB eine andere BIOS Version.

y33H@
2018-04-25, 15:51:21
0509 ist nur Bug-Fixing.

Screemer
2018-04-25, 16:00:01
laut aussage von y33h@ gibt asus an, dass 0509 nur ein paar minor bugfixes enthält und sich ander performace eigentlich gar nichts getan haben kann:

https://www.forum-3dcenter.org/vbulletin/newreply.php?do=newreply&p=11680283

€dit: :lol: should refresh befor post

Iscaran
2018-04-25, 16:09:36
Dann hat Michael Larabel (Phoronix) wohl nur bullshit gemessen in Zig benchmarks ?

Immerhin hat er gemessen und sich nicht nur den changelog angesehen.

Iscaran
2018-04-25, 16:12:59
Den Comments in den Posts zu den Benchmarks könnte man entnehmen dass ASUS hier was an den TempOffsets gedreht hat.
Das würde evtl. was am TDP bzw. Temperature Throttling ändern.

EDIT:
Oder dieser Runtertakte Bug der die IGP betraf, betraf ganz "analog" auch den CPU-Teil ?
https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1020755-amd-ryzen-7-2700x-linux-performance-boosted-by-updated-bios-agesa?p=1020987#post1020987

y33H@
2018-04-25, 16:52:34
Die Offsets betreffen evtl die Lüftersteuerung, zumindest wurde da was gefixt.

aufkrawall
2018-04-25, 16:54:45
Dann hat Michael Larabel (Phoronix) wohl nur bullshit gemessen in Zig benchmarks ?

Die Antwort auf diese Frage ist unabhängig vom Kontext der Diskussion "ja". :redface:
lol, eigentlich signaturwürdig.

Iscaran
2018-04-25, 17:12:48
Die Offsets betreffen evtl die Lüftersteuerung, zumindest wurde da was gefixt.

Ah und das kann dann im Umkehrschluss nicht bedeuten dass sich an den EXPERIMENTELLEN Taktraten hier was ändert ?

Ich denke schon...10°C temperature offset können schnell mal 300-400 MHz Takt sein. - et voila 10% Performance "geschenkt".

Wäre mal nice wenn jemand mit einem Ryzen 2xxx einmal Bios 0505 und einmal 0509 mit 1, 2 Schnelltests durchjagt.

Die IST-Taktraten während der einzelnen Sub-Tests hat ja leider kein einziges Hardware-Journal angegeben (?).

EDIT: @aufkrawall: deine Aussage ist wohl Abhängig vom Kontext dieser Diskussion an Lächerlichkeit nicht zu überbieten....Michael Larabel ist ja kein dahergelaufener niemand so wie du...bestehen die übrigen 8000 deiner Posts auch aus derart sinnvollen Beiträgen ?

universaL
2018-04-25, 20:06:53
gibt nun einen follow-up artikel von anandtech: https://www.anandtech.com/show/12678/a-timely-discovery-examining-amd-2nd-gen-ryzen-results

liegt wohl am hpet timer :-)

Wolfram
2018-04-25, 20:36:32
Danke + Respekt an anandtech! Kurzfassung wäre wohl: Die haben HPET erzwungen gehabt und das verursacht bei Intel einen größeren Performancedämpfer als bei AMD.

Iscaran
2018-04-25, 23:02:00
Ich fasse zusammen was ich oben als Vermutung als erstes geschrieben hatte:

1.) Die Ryzen 2xxx sind nicht "zu schnell" bei Anand sondern die Intels sind zu langsam
2.) Grund ist "forced" HPET...welches auf Intel den bekannten "Performance" Bug auslöst bei AMD aber "egal" ist (nachdem es zu Ryzen 1 Release noch Probleme gab.

Nice. Und jetzt bin ich noch gespannt ob das 0509er BIOS was bringt oder auch nicht.

aufkrawall
2018-04-25, 23:39:56
Das kann auch an den Boards liegen.
Btw. hätte Anand da auch selber drauf kommen können, weil es über Jahre in ihrem Forum diskutiert wurde:
https://forums.anandtech.com/threads/do-you-have-hpet-enabled-or-disabled.2362109/page-3

Man schaltet nicht händisch auf HPET als System-Timer. Ich erwarte von einem Tester, dass er so einen Quatsch unterlässt.

y33H@
2018-04-26, 00:26:20
Bitter - erst zu lahm weil ohne Boost, dann Ryzen stimmig aber Intel zu lahm wegen HPET und erst beim 3ten Durchgang sitzen alle Werte ;(

gnomi
2018-05-03, 11:53:00
AMD ist mit dem 2700X ja dicht dran, aber der Intel 8700K ist - gerade auch wegen seiner Reserven beim OC und RAM > 3433 MHz - eindeutig schneller. (weit mehr als 5%, besonders bei gängigen Game Engines und vielem Älteren ohne perfekte Skalierung auf extrem vielen Threads)
Allerdings bezahlt man auch etwas mehr. Das Gesamtpaket ist bei AMD so mit Kühler und aktuelleren Boards imho besser.
Intel wird denke ich jetzt gezwungen sein, noch einen 8C/16T mit aktualisiertem Chipsatz nachzuschieben.
Wer Leistung für sehr lange will, wird dann diese Plattform kaufen.
Denn ewig wird der Benchmark Parcour auch nicht voll mit den alten Klassikern bleiben, die eh mit 4 Core und 8 Threads noch mit um die 60 fps im CPU Limit laufen und keine Herausforderung darstellen. :wink:
Schade, dass keiner mal Watch Dogs 2 mit erweiterter Sichtweite testet.
Neben Wildlands, Origins oder Kingdom Come Deliverance sicherlich am interessantesten, denn Wolfenstein 2, Doom 3 oder Gears of War 4 mit 100-200 fps interessiert ja jetzt weniger.