PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Ryzen 3000 Launchreviews: Die Spiele-Performance im Überblick


Leonidas
2019-07-09, 16:43:41
Link zur News:
https://www.3dcenter.org/news/ryzen-3000-launchreviews-die-spiele-performance-im-ueberblick


Wichtiges Update vom 13. Juli 2019:
Ich habe den ersten Absatz deutlich umgeschrieben, weil jener eine falsche Erklärung zum "99th percentil" enthalten hat, worauf mich dankenswerterweise FlashBFE (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12046441#post12046441) hingewiesen hat. An den nachfolgenden Werten und deren Bedeutung ändert sich damit natürlich nichts.

Gast
2019-07-09, 17:32:51
Für reine Spieler klar nicht zu empfehlen wenn ein 8700k mit den meisten CPUs spielt, wobei AMDs Unterbau derzeit deutlich teurer ist. Preissenkungen müssen her, aber schnell. Sonst kannibalisiert man für Gamer Intel wunderschön, die wird es freuen.

Leonidas
2019-07-09, 17:38:05
Wo ist AMD derzeit deutlich teurer? Ober meinst Du die Mobos? Da hast Du recht ...

Rabiata
2019-07-09, 17:47:21
Wo ist AMD derzeit deutlich teurer? Ober meinst Du die Mobos? Da hast Du recht ...
Der Ryzen geht ja auch mit älteren und preiswerteren Boards aus der 400er Reihe. Denen fehlt im Vergleich hauptsächlich PCIe4, und das hat Intel auch nicht.

Aber worüber ich hier eigentlich schreiben wollte:
Den Ansatz, die 1%-Minimum-Frameraten in den Vordergrund zu stellen, finde ich begrüßenswert. Weil die länger dauernden Frames die kleinen Ruckler bringen, die meiner Meinung am meisten stören.

Lowkey
2019-07-09, 17:49:03
Top Vergleich! Danke für die Mühe.

Man könnte eine Q&A Liste erstellen.

Tyrann
2019-07-09, 17:59:17
Da hat sich eine GPU als CPU reingemogelt

"...als das der Performance-Rückstand selbst in der Spitze auf maximal 5,5% (zwischen Radeon R9 3900X und Core i9-9900K) geschrumpft ist."

Leonidas
2019-07-09, 18:10:07
Gefixt :)

KodeX
2019-07-09, 18:24:22
Den Ansatz, die 1%-Minimum-Frameraten in den Vordergrund zu stellen, finde ich begrüßenswert. Weil die länger dauernden Frames die kleinen Ruckler bringen, die meiner Meinung am meisten stören.

In der Tat sind die 1-%-Minimum-Frameraten die einzig sinnvolle Methode, um die Gaming-Performance eines Prozessors zu beschreiben. Nur auf diese Weise lässt sich kompakt aufzeigen, wie sehr eine CPU zu spürbaren Framedrops neigt.

Beim Anschauen der Einzelbenchmarks fällt auf, dass der 3900X mindestens genauso oft vor dem 9900K liegt wie umgekehrt. Der Core i9 liegt im Schnitt nur vorne, weil er in einigen wenigen Spielen einen besonders hohen Vorsprung hat (siehe z.B. Computerbase).

JVC
2019-07-09, 20:05:09
Äm ...
https://www.youtube.com/watch?v=W5ZCanSeKFk

Alles Quatsch ^^ Igor erklärts ganz gut ;)

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=595531&page=47
Ist auch noch so ne Sache ...
( https://i.redd.it/jzobvriyj9931.png )

M.f.G. JVC

Linmoum
2019-07-09, 20:37:26
Für reine Spieler klar nicht zu empfehlen wenn ein 8700k mit den meisten CPUs spielt,
Man sollte sich schon eine Brille aufsetzen, bevor man Kommentare zu Artikeln verfasst. Sieht sonst blöd aus, wenn man offensichtliche Falschaussagen tätigt. ;)

wobei AMDs Unterbau derzeit deutlich teurer ist.
Dasselbe hier, wobei da schon ein Blick auf Geizhals und Co. reicht, um das ins Reich der Fabeln zu verweisen.

Preissenkungen müssen her, aber schnell. Sonst kannibalisiert man für Gamer Intel wunderschön, die wird es freuen.
Du hast Intel mit AMD verwechselt. ;) Aber kein Problem, kann passieren. Intel könnte reagieren, werden sie aber nicht tun. Letztendlich deren Entscheidung, bleibt es bei diesem Preisgefüge werden ihnen der 3600 und 3700X die nächsten Wochen und Monate schwer zusetzen. Die haben auf einen Schlag Intels Portfolio ab 200€ aufwärts komplett unattraktiv gemacht.

Aber AMD wird's freuen, Stand jetzt werden die Intel mit Matisse aber mal so richtig ärgern.

Ansonsten bin ich bei Rabiata. Danke @Leo, dass man/Du bei den CPUs jetzt (auch) mal den Fokus weg von den avg. fps hin zu 99th Percentile wagt. Findet bei vielen leider immer wieder zu wenig Beachtung und man versteift sich auf die, im Vergleich dazu, weniger aussagekräftigen avg. fps. Immerhin sind viele (leider noch nicht alle) Reviewer mittlerweile schon so weit, dass sie auch diese Resultate berücksichtigen.

INU.ID
2019-07-09, 20:46:35
Für reine Spieler klar nicht zu empfehlen wenn ein 8700k mit den meisten CPUs spielt, wobei AMDs Unterbau derzeit deutlich teurer ist.
Bitte? Wie klar nicht zu empfehlen? :|

Der 8700K ist minimal (20€) teurer als ein 3700X, die Mobos kosten ohne PCIe4 auf beiden Seiten in etwa gleich viel, aber der 3700X hat noch 33% Reserven bei den Kernen. Selbst der 9900K ist im Schnitt (in Games) nur 7% schneller, kostet dafür aber auch ca. 40% mehr. Nimmt man die Anwendungen noch dazu fällt der 8700K hier um fast 25% zurück, und auch der 9900K ist hier nicht schneller (eher minimal langsamer). Vom Stromverbrauch ganz zu schweigen. Oder der Tatsache dass da später auch noch zumindest 12 Kerne auf viele AM4-Mobos ohne PCIe4 passen.

Ich wüsste ehrlich gesagt selbst für "reine Spieler" aktuell keine CPU die eher zu empfehlen wäre als ein 3700X. :)

JVC
2019-07-09, 21:25:59
Ich wüsste ehrlich gesagt selbst für "reine Spieler" aktuell keine CPU die eher zu empfehlen wäre als ein 3700X. :)

3600 :biggrin:

SRY das is Haarspalterei von mir ^^

Anders herum natürlich der 3950X + 360AIO und Fetter Spannungsversorgung :freak:

Der 3700X ist die "goldene Mitte", das "Vernunftsprodukt"...

M.f.G. JVC

Popeljoe
2019-07-09, 21:36:22
Äm ...
https://www.youtube.com/watch?v=W5ZCanSeKFk

Alles Quatsch ^^ Igor erklärts ganz gut ;)

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=595531&page=47
Ist auch noch so ne Sache ...
( https://i.redd.it/jzobvriyj9931.png )

M.f.G. JVC
Wie gehabt: die Software bei AMD hinkt hinterher und die entgültige Leistung wird man erst 2-3 Monaten benchen können. Igor ist echt geil!

Schnitzl
2019-07-09, 21:48:16
Äm ...
https://www.youtube.com/watch?v=W5ZCanSeKFk

Alles Quatsch ^^ Igor erklärts ganz gut ;)

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=595531&page=47
Ist auch noch so ne Sache ...
( https://i.redd.it/jzobvriyj9931.png )

M.f.G. JVC
Igor for President :D
- "bleifrei"
- "jetzt muss der Kunde schauen, wie er mit dem Zeuch klarkommt"
;D ;D ;D

470 Board nehmen, fertig.

@Leo: mega auf Zack, ich komm kaum mit lesen hinterher ... :up:

Gast
2019-07-09, 23:02:08
War leider bei AMD schon oft so. Gute Hardware, bescheidene Software.

Mit der Hauptgrund, warum ich mir warscheinlich einen Ryzen5 3600x zuleg. Aber mit 100% Sicherheit nie eine AMD GraKa. Die GraKa Treiberoberfläche (also das, wo ich rumwurschtel und einstelle) find ich persönlich sooooo grottig, dass ich es jedes mal bereuen würde, mir sowas gekauft zu haben. Egal wie gut die Hardware dadrunter ist!

Hardware können die, Software net :/.

Fallback
2019-07-09, 23:29:27
Hardware können die, Software net :/.

Da ist was dran, sieht man jetzt wieder an den geilen CPUs, die von den AGESA Releases gebremst werden (und das war bei Zen 1 ja auch schon so).

Aber die Radeon Treiber sind seit der Crimson Serie echt gut, die Oberfläche ist wesentlich hübscher als das Nvidia Windows 2000 Design. Und die Features müssen sich auch nicht verstecken (Chill oder jetzt neu Anti-Lag z.B.).
Ok, hat kein Ansel und kein "Geforce-Experience", vermisse ich persönlich aber auch nicht.

Man könnte jetzt noch fragen wer immer die Voltages bei den CPUs und Radeons einstellt, ob das eher aus der HW oder SW Abteilung kommt, da kann man echt noch optimieren. ;)

Mr.Smith
2019-07-10, 08:23:58
In der Tat sind die 1-%-Minimum-Frameraten die einzig sinnvolle Methode, um die Gaming-Performance eines Prozessors zu beschreiben. Nur auf diese Weise lässt sich kompakt aufzeigen, wie sehr eine CPU zu spürbaren Framedrops neigt.


oder 0,1% oder 0,5% oder 2% oder 3% oder 5% ..
wie kommst du darauf, dass nur 1% das einzig sinnvolle ist???

MadManniMan
2019-07-10, 08:41:55
Solange sich die Community auf eine der Varianten einigt, ist es doch ganz gut, oder? Jedenfalls entspricht das 3 Sigma - und warum auch nicht?

Natürlich bräuchte man mal methodisch saubere Vergleichsstudien, die die jeweilige Aussagekraft untermauern, aber sowas gab es in der Szene eh noch nie.

Schnitzl
2019-07-10, 08:44:10
War leider bei AMD schon oft so. Gute Hardware, bescheidene Software.

Mit der Hauptgrund, warum ich mir warscheinlich einen Ryzen5 3600x zuleg. Aber mit 100% Sicherheit nie eine AMD GraKa. Die GraKa Treiberoberfläche (also das, wo ich rumwurschtel und einstelle) find ich persönlich sooooo grottig, dass ich es jedes mal bereuen würde, mir sowas gekauft zu haben. Egal wie gut die Hardware dadrunter ist!

Hardware können die, Software net :/.
Schwachsinn
Als ob es bei Intel noch nie Probleme gab...

Und was für dich grottig ist, ist für mich übersichtlicher und besser.

Leonidas
2019-07-10, 10:57:55
oder 0,1% oder 0,5% oder 2% oder 3% oder 5% ..
wie kommst du darauf, dass nur 1% das einzig sinnvolle ist???


Ich glaube nicht, das er hat sagen wollen, das es unbedingt 1% sein müssen. Er meinte die Methode im allgemeinen.

Wobei ich 5%-Werte schon als arg grenzwertig ansehe. Die Benchmarks von AnandTech (5%) skalieren mir zu schlecht, da kommen die 5%-Werte wohl an ihre Grenzen.

Und 0,1%-Werte werfen immer die Frage auf, wieviele absolute Werte es dann noch sind, die da verrechnet werden. Niedrige zweistellige Zahl? Das wäre dann Richtung Kaffeesatzleserei. 0,1%-Werte eignen sich sicher nicht für Benchmarks mit schnellen Durchlaufzeiten. Zudem kann man an den Ergebnissen bei Gamers Nexus sehen, das da tendentiell nix anderes rauskommt als bei den 1%-Werten.

KodeX
2019-07-10, 11:58:13
oder 0,1% oder 0,5% oder 2% oder 3% oder 5% ..
wie kommst du darauf, dass nur 1% das einzig sinnvolle ist???

Ich glaube nicht, das er hat sagen wollen, das es unbedingt 1% sein müssen. Er meinte die Methode im allgemeinen.

Ja, genau. Sorry, da habe ich mich wohl etwas zu ungenau ausgedrückt. Das liegt vielleicht auch daran, dass ich einen Großteil meiner Beiträge auf dem Sofa mit Bildschirmtastatur verfasse.

Ich denke, die Aufgabe einer guten Gaming-CPU ist es, Framedrops zu vermeiden. Ob man nun 180 oder 160 FPS im Schnitt hat, ist eigentlich egal. Die AVG-Framerate hängt sowieso maßgeblich von der Grafikkarte ab.

Gast Ritis
2019-07-10, 12:14:27
Für eine Gaming-Bewertung ist es gemessen an den BIOS/AGESA Update-Problemen noch zu früh.

In ein bis zwei Monaten wird sich bei den technisch halbwegs versierten Testern die Erkenntnis eingestellt haben dass es erst die Latenz-Optimierten AGESA BIOS braucht und ein korrektes Setup für den RAM. Das war beim ersten Ryzen ähnlich.

Nur bei Ryzen 300 muss der dann nicht mal extrem übertaktet sein sondern einfach Latenz-Optimiert. Die 3600 oder 3733 MHz DDR4 wird wohl auf jedem Gaming-Board zum laufen zu bringen sein sobald die AGESA Codes entsprechend gefixt sind.

Dann wirds voraussichtlich noch wenige Prozenpunkte besser werden weil die FPS Einbrüche beim RAM-Zugriff noch weniger werden. In WQHD wird man dann schon fast keine Leistungsunterschiede mehr sehen.

Ohnehin wäre mal nett zu sehen ob der grosse L3 Cache typische FPS Einbrüche verhindern kann oder als Victim Cache gerade eben nicht die neuen Daten im Schlauchlevel vorhält. Dann wäre es an den Programmierern das zu optimieren.

Lowkey
2019-07-10, 12:32:39
Bin gespannt, ob man den Speicherteiler bei diversen Board höher stellen kann. Qualitativ sind DDR4-3600 CL15 mit B-DIE sowieso die beste Wahl.

Gast
2019-07-10, 12:51:43
Die PCGH-Werte der Intel-CPUs sind invalid, weil sie ohne Windows 1903 und ohne die letzten Sicherheitspatches entstanden.

PCGH hat einfach alte Werte vom letzten Jahr übernommen, man hat lediglich noch den i9 9900K ohne 95W-Limit hinzugefügt: https://extreme.pcgameshardware.de/news-kommentare-zu-cpus/543336-ryzen-9-3900x-und-ryzen-7-3700x-im-test-gegen-core-i9-9900k-zen-2-im-pcgh-benchmark-parcours-23.html#post9924321

Viele Online-Magazine geben leider zu wenig Infos zum Testsystem an: https://twitter.com/BitsAndChipsEng/status/1147996154224881664

Gast
2019-07-10, 17:57:39
Da ist was dran, sieht man jetzt wieder an den geilen CPUs, die von den AGESA Releases gebremst werden (und das war bei Zen 1 ja auch schon so).


Das neue AGESA ist sogar so geil, dass mein 2700X mit dem neuen UEFI mit 32GB RAM gar nicht mehr booten will, und das obwohl es sich um "Ryzen-freundlichen" RAM handelt.

JVC
2019-07-10, 18:19:57
Bin gespannt, ob man den Speicherteiler bei diversen Board höher stellen kann. Qualitativ sind DDR4-3600 CL15 mit B-DIE sowieso die beste Wahl.
Kann man :smile:
1. Automod = 3600 1:1 , 3733 2:1(Inffab tackert sich in2:1 auf 1800Mhz fest)
2. Manuel = wahlweise 1:1 oder 2:1 (Inffab wählbar ~600-3000Mhz...)

Ich werde versuchen 1:1 Richtung DDR4000Mhz zu kommen.
(=Inffab 2000Mhz)

Guter B-Die ist massiv im Vorteil :cool:
(wenn man sich traut Saft zu geben)
https://www.hardwareluxx.de/community/f13/g-skill-flarex-ddr4-3200-c14-14-14-34-1-35v-1160243.html
(ein B-Die Test, leider machte ihm das Mobo in den oberen Bereichen nen Strich durch die Rechnung, natürlich ginge mit laschen Timings mehr :wink:)
https://www.hardwareluxx.de/community/f13/die-ultimative-hardwareluxx-samsung-8gb-b-die-liste-alle-hersteller-09-07-19-a-1161530.html
(B-Die Übersicht, für die die noch suchen)

M.f.G. JVC

Gast
2019-07-10, 18:24:23
Ob man nun 180 oder 160 FPS im Schnitt hat, ist eigentlich egal.

Im Zeitalter wo 144Hz Monitore im Gaming-Bereich schön langsam zum Standard werden und sogar 240Hz Monitore erhältlich sind ist das nicht mehr so ganz egal.

Gut ob es 160 oder 180 sind vielleicht wirklich, aber nicht ob es 120 oder 150 sind.


Die AVG-Framerate hängt sowieso maßgeblich von der Grafikkarte ab.

Lässt sich aber durch niedrigere Auflösungen und/oder Details stark erhöhen.
Wenn die CPU nicht genügend Frames bereitstellen kann, kann man in der Regel nur wenig tun um diese zu erhöhen.

Gast
2019-07-10, 18:48:55
In WQHD wird man dann schon fast keine Leistungsunterschiede mehr sehen.

Was jetzt nicht gerade ein gutes Ergebnis ist.
Eine neue Flagschiff-CPU mit neuer Architektur aus dem Jahre 2019 sollte eine CPU aus dem Jahre 2018 mit einer Architektur die mittlerweile einige Jahre am Buckel hat doch eindeutig distanzieren und nicht nur gleich auf sein.


Ohnehin wäre mal nett zu sehen ob der grosse L3 Cache typische FPS Einbrüche verhindern kann oder als Victim Cache gerade eben nicht die neuen Daten im Schlauchlevel vorhält.

Erstmal ist der L3-Cache gar nicht so groß wie es den Anschein hat.
Es sind zwar insgesamt bis zu 64MiB, aber in Wirklichkeit nur bis zu 4 x 16MiB.
Ich verstehe nicht warum das so gut wie keine der Review-Seiten korrekt schreibt, mir fällt auf die schnelle einzig Anandtech ein die korrekterweise so angegeben haben.

Damit ist mal die Ausnutzung des L3 logischerweise bei vielen Threads die vorwiegend auf die gleichen Daten zugreifen müssen schlecht, im Extremfall hätten alle L3-Blöcke die selben Daten und er wäre effektiv nur mehr 16MiB groß.

Damit ist auch klar, dass Software mit vielen Threads, die aber alle unterschiedliche Daten benötigen gut skaliert, Software mit vielen Threads, die aber die selben Daten benötigen eher schlecht.




Dann wäre es an den Programmierern das zu optimieren.

Es gibt heute praktisch keine Anwendungen mehr die derart low-level Optimiert werden. So ziemlich das einzige sind noch Betriebssysteme und Compiler die entsprechende Optimierungen erfahren.
Für alles andere ist das viel zu aufwändig, insbesondere deshalb weil Software davon lebt wiederverwendbar zu sein, und damit vielleicht Optimierungen die du jetzt für eine CPU machst nächstes Jahr mit der nächsten Generation schon wieder hinfällig sein könnten.

Abgesehen davon wird es sehr schwer überhaupt für einen Victim-Cache zu optimieren, da in diesen kein Prefetching erfolgt. Idealerweise optimiert man so, dass die Daten schon zumindest im L2-Cache bleiben, und damit bekommt der Victim-Cache gar nichts zu tun.

Owen
2019-07-10, 21:05:33
Find die Fixierung auf die Top-Modelle etwas unschön.
Die neuen Ryzens sind wirklich ein nettes Stück Technik, müsste ich mir jedoch aktuell eine reine Spiele-CPU zulegen, dann wäre es eher der 9400F.
Mehr als Sechs Kerne bringt in Spielen nur in den seltensten Fällen einen Vorteil. Er ist je nach Benchmark auf 3600er Niveau oder besser, kostet dafür aber nur <150€.
Keiner der Ryzens bietet nennenswert mehr Performance für die Mehrkosten.
Zum Vergleich:
3600 +60€ für +1% (FHD), -2% (UHD)
3700x +200€ für +5%, +3%
3900x +380€ +6%, +3%

https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#abschnitt_benchmarks_in_games_fhd__uhd

Gruß
Owen

MasterElwood
2019-07-11, 05:01:09
"oberhalb von acht CPU-Kernen ist die Kern-Skalierung im Spiele-Bereich (derzeit) weitgehend am Ende. Selbst zwischen 6 und 8 CPU-Kernen ist die Skalierung schon arg schwach..."
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Wäre interessant wie sich 6vs8vs12 Kern CPUs schlagen wenn ZUSÄTZLICH zur Gameengine was im Hintergrund läuft.

Also z.B. in VR, beim Videoaufzeichnen, beim Streamen und z.B ELITE wo viele sich Youtube Videos ansehen bei langen Flügen.

Leonidas
2019-07-11, 05:16:48
Viele Online-Magazine geben leider zu wenig Infos zum Testsystem an: https://twitter.com/BitsAndChipsEng/status/1147996154224881664


Kann ich nur zustimmen.




Wäre interessant wie sich 6vs8vs12 Kern CPUs schlagen wenn ZUSÄTZLICH zur Gameengine was im Hintergrund läuft.
Also z.B. in VR, beim Videoaufzeichnen, beim Streamen und z.B ELITE wo viele sich Youtube Videos ansehen bei langen Flügen.


Wäre in der Tat interessant.

Gast
2019-07-11, 09:53:47
Im Zeitalter wo 144Hz Monitore im Gaming-Bereich schön langsam zum Standard werden und sogar 240Hz Monitore erhältlich sind ist das nicht mehr so ganz egal.
Ja, das vielleicht. Aber das Zeitalter haben wir aktuell noch lange nicht erreicht...Gaming mit über 60Hz ist immer noch ein geringer Anteil verteilt auf die Masse der Gamer. Das wird hier schnell mal vergessen. Nicht jeder kauft sich jedes Jahr einen 2500€ Gaming Rechner.

Lässt sich aber durch niedrigere Auflösungen und/oder Details stark erhöhen.
Wenn die CPU nicht genügend Frames bereitstellen kann, kann man in der Regel nur wenig tun um diese zu erhöhen.
Ich persönlich habe kein Interesse, in 720p zu gamen nur um mehr FPS zu haben. Alles unter FullHD ist ein NoGo, idealerweise gleich 4k, dafür habe ich auch kein Problem damit, wenn's mal nur 30Hz werden. Bei 4k sind halt die Anforderungen an die CPU ganz anders als bei 720p. Das vergessen aber sehr viele sehr schnell. Ich hab schon einige CPU Benchmarks gesehen, wo CPU X in 720p mehr FPS geliefert hat als CPU Y, in 4k war's aber deutlich anders herum (evtl. kann der Grafiktreiber bei höherer Auflösung mehr Threads nutzen als bei kleineren Auflösungen).

Gast 2
2019-07-11, 10:58:05
Im Zeitalter wo 144Hz Monitore im Gaming-Bereich schön langsam zum Standard werden und sogar 240Hz Monitore erhältlich sind ist das nicht mehr so ganz egal.

Gut ob es 160 oder 180 sind vielleicht wirklich, aber nicht ob es 120 oder 150 sind.



Lässt sich aber durch niedrigere Auflösungen und/oder Details stark erhöhen.
Wenn die CPU nicht genügend Frames bereitstellen kann, kann man in der Regel nur wenig tun um diese zu erhöhen.

In Zeiten von Free- bzw G-Sync ist es wurst ob man 120 oder 150fps hat. Mit den Grafikreglern kann man fast immer die gewünscht Framerate erreichen. Dann limitiert auch meist die CPU nicht mehr, sondern die GPU.

Birdman
2019-07-11, 11:54:07
"
Wäre interessant wie sich 6vs8vs12 Kern CPUs schlagen wenn ZUSÄTZLICH zur Gameengine was im Hintergrund läuft.

Also z.B. in VR, beim Videoaufzeichnen, beim Streamen und z.B ELITE wo viele sich Youtube Videos ansehen bei langen Flügen.
Schon etwas länger her, aber zu 1800x und 8700k Zeiten gab es einige Tests welche Gaming+Streaming untersucht haben, z.B.

nBUCC2KGtOI

oCSkyNHXIAE

Steffko
2019-07-11, 12:06:51
Find die Fixierung auf die Top-Modelle etwas unschön.
Die neuen Ryzens sind wirklich ein nettes Stück Technik, müsste ich mir jedoch aktuell eine reine Spiele-CPU zulegen, dann wäre es eher der 9400F.
Mehr als Sechs Kerne bringt in Spielen nur in den seltensten Fällen einen Vorteil. Er ist je nach Benchmark auf 3600er Niveau oder besser, kostet dafür aber nur <150€.
Keiner der Ryzens bietet nennenswert mehr Performance für die Mehrkosten.
Zum Vergleich:
3600 +60€ für +1% (FHD), -2% (UHD)
3700x +200€ für +5%, +3%
3900x +380€ +6%, +3%

https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#abschnitt_benchmarks_in_games_fhd__uhd

Gruß
Owen

Der 9400F wäre mir persönlich etwas zu "gefährlich" in Sachen Langlebigkeit. CPUs behalte ich persönlich gerne mindestens 3 Jahre, eher 4-5. Und ich fürchte, dass dem 6 Kerner (ohne HT) genau dann die Puste im Vergleich zu Prozessoren mit mehr Threads ausgehen wird, wenn man die Leistung auch wirklich braucht (in 2, 3, 4 Jahren).

y33H@
2019-07-11, 13:19:49
Für eine Gaming-Bewertung ist es gemessen an den BIOS/AGESA Update-Problemen noch zu früh. In ein bis zwei Monaten wird sich bei den technisch halbwegs versierten Testern die Erkenntnis eingestellt haben dass es erst die Latenz-Optimierten AGESA BIOS braucht und ein korrektes Setup für den RAM. Das war beim ersten Ryzen ähnlich.Diese "Erkenntnis" wurde AMD schon vor Wochen und Monaten mitgeteilt bzw intern ist denen freilich bekannt, dass Agesa 1002 nicht das Maß aller Dinge. Man hat sich aber für den 7.7. entschieden und das Resultat ist so wie es nun ist. Drastische Performance-Steigerung im Spec-Betrieb wird's mit Agesa 1003 und danach nicht geben.
Bei 4k sind halt die Anforderungen an die CPU ganz anders als bei 720p.Das war und ist Unfug.

Schnoesel
2019-07-11, 13:48:17
Der 9400F wäre mir persönlich etwas zu "gefährlich" in Sachen Langlebigkeit. CPUs behalte ich persönlich gerne mindestens 3 Jahre, eher 4-5. Und ich fürchte, dass dem 6 Kerner (ohne HT) genau dann die Puste im Vergleich zu Prozessoren mit mehr Threads ausgehen wird, wenn man die Leistung auch wirklich braucht (in 2, 3, 4 Jahren).

Dem ist die Puste bereits ausgegangen seit BFV.

Rabiata
2019-07-11, 14:22:52
Ich persönlich habe kein Interesse, in 720p zu gamen nur um mehr FPS zu haben. Alles unter FullHD ist ein NoGo, idealerweise gleich 4k, dafür habe ich auch kein Problem damit, wenn's mal nur 30Hz werden. Bei 4k sind halt die Anforderungen an die CPU ganz anders als bei 720p. Das vergessen aber sehr viele sehr schnell. Ich hab schon einige CPU Benchmarks gesehen, wo CPU X in 720p mehr FPS geliefert hat als CPU Y, in 4k war's aber deutlich anders herum (evtl. kann der Grafiktreiber bei höherer Auflösung mehr Threads nutzen als bei kleineren Auflösungen).
Sehe ich auch so. Bei den meisten Spielen bin ich schon mit stabilen 30 FPS zufrieden, aber höhere Auflösungen bringen mehr.
Ich spiele zum Beispiel Crossout meistens auf meinem Hauptsystem mit WQHD-Auflösung, aber manchmal auch auf einem Zweitrechner mit 1280x1024 Monitor. Auf dem großen Bildschirm sind die Details deutlich klarer zu erkennen. Besonders nützlich beim Snipern ohne Scope. Da wäre 4k sicher noch besser.

Gast
2019-07-11, 15:37:48
Dem ist die Puste bereits ausgegangen seit BFV.


Alles klar Propaganda Minister , wohl Zeit für etwas Aufklärung. BF V MP sowohl low als auch avg sind besser und das ist der kleinste I5 alias 8400er mit 3,8Ghz Allcore.

https://www.youtube.com/watch?v=Acdd-ph1NOE

FlashBFE
2019-07-11, 17:26:18
Die Erklärung der Perzentile im Artikel ist leider schon wieder falsch. Bitte lies mal nach, was ein Quantil ist! Ich versuche es mal einfach für das 99. Perzentil: Man nimmt vom Spiel eine Anzahl von hundert Frametimes auf und sortiert diese der Größe nach. Dann zählt man von unten bis zur 99. Stelle durch und pickt diese eine Frametime heraus. Das Reziprok daraus ist das 1. Perzentil der fps, was als Ergebnis ausgegeben wird. Es gibt da keine Mittelwertbildung.

Mit der Standardabweichung Sigma hat das auch nicht viel zu tun, denn die ergibt oftmals nur Sinn, wenn es sich um eine Normalverteilung der Werte handelt. Frametimes sind je nach Spiel und Szene aber teilweise nicht mal annähernd normalverteilt. Genau dann nimmt man aber eben Quantile.

Schnitzl
2019-07-11, 17:31:47
(...)
Bei 4k sind halt die Anforderungen an die CPU ganz anders als bei 720p.
Das war und ist Unfug.
Gibts da auch ne Erklärung warum - ich würds gerne verstehen und nicht nur vermuten :)

Mr.Smith
2019-07-11, 17:55:45
In 1-2 Monaten brauchen wir nen Nachtest/Nachbetrachtung.

Bios, Leistungsaufnahme im Idle, sonstige Treiber und Software brauchen noch mehr Informationen und Reife.
Des Weiteren fehlen noch mehr Infos zu b450 und x470 oder gar b350 und x370.

Und doch, ein 9400f sollte noch länger zum guten Spielen reichen, glaub nicht dass zumindest ein 3600 da langfristig besser werden wird, vorallem bei dem Preis des 9400f, da könnte man höchstens einen in Spielen schlechteren 2600 gegensetzen.

KodeX
2019-07-11, 18:03:00
Die Erklärung der Perzentile im Artikel ist leider schon wieder falsch. Bitte lies mal nach, was ein Quantil ist! Ich versuche es mal einfach für das 99. Perzentil: Man nimmt vom Spiel eine Anzahl von hundert Frametimes auf und sortiert diese der Größe nach. Dann zählt man von unten bis zur 99. Stelle durch und pickt diese eine Frametime heraus. Das Reziprok daraus ist das 1. Perzentil der fps, was als Ergebnis ausgegeben wird. Es gibt da keine Mittelwertbildung.

Mit der Standardabweichung Sigma hat das auch nicht viel zu tun, denn die ergibt oftmals nur Sinn, wenn es sich um eine Normalverteilung der Werte handelt. Frametimes sind je nach Spiel und Szene aber teilweise nicht mal annähernd normalverteilt. Genau dann nimmt man aber eben Quantile.

Ich ging eigentlich immer davon aus, dass "99 Percentile" bedeutet, dass 99 Prozent aller gemessenen Frameraten oberhalb des angegebenen Wertes liegen. Auf diese Weise werden untypische beziehungsweise sporadische Ausreißer effektiv fallengelassen.

Gast
2019-07-11, 18:08:07
Gibts da auch ne Erklärung warum - ich würds gerne verstehen und nicht nur vermuten :)

Weil die CPU nichts mit der Bildausgabe zu tun hat.
Alles was die CPU macht ist der GPU zu sagen zeichne mir bitte dies und jenes, und das unabhängig von der Auflösung.

MadManniMan
2019-07-11, 19:11:00
Die Erklärung der Perzentile im Artikel ist leider schon wieder falsch. Bitte lies mal nach, was ein Quantil ist! Ich versuche es mal einfach für das 99. Perzentil: Man nimmt vom Spiel eine Anzahl von hundert Frametimes auf und sortiert diese der Größe nach. Dann zählt man von unten bis zur 99. Stelle durch und pickt diese eine Frametime heraus. Das Reziprok daraus ist das 1. Perzentil der fps, was als Ergebnis ausgegeben wird. Es gibt da keine Mittelwertbildung.

Was denkst du denn, was gemacht wird, wenn es mehr als 100 Frametimes sind?

Trap
2019-07-11, 19:23:06
Was denkst du denn, was gemacht wird, wenn es mehr als 100 Frametimes sind?
Immer noch sortiert und an einer Stelle nachgeguckt.

Birdman
2019-07-11, 20:10:25
Gibts da auch ne Erklärung warum - ich würds gerne verstehen und nicht nur vermuten :)

Solange wirklich nur die Auflösung geändert wird, ändert sich an der CPU Load nichts. Bei vielen Tests welche in 720p und zusätzlich 1080p oder 4k durchgeführt wurden, sind aber oftmals auch noch die Grafikdetails unterschiedlich gewählt und diese haben dann durchaus einen Einfluss auf die CPU.

Anandtech hat beim aktuellen Zen2 Test einige Bechmarks erstellt die das auch schön aufzeigen:
https://dexter.birdman.ch/screens/misc/cpu_resolution_scale.png

Der a12-9800 liefert zwischen 720p und 4k quasi die genau gleiche Framerate.

Gast
2019-07-11, 20:17:45
Ich persönlich habe kein Interesse, in 720p zu gamen nur um mehr FPS zu haben. Alles unter FullHD ist ein NoGo, idealerweise gleich 4k, dafür habe ich auch kein Problem damit, wenn's mal nur 30Hz werden.


Mit einer 2080Ti hast du aber in FullHD durchaus schon nennenswerte Unterschiede zwischen den CPUs.

Ansonsten hängt es natürlich vom Spiel ab, bei Anno reichen 30FPS locker, in einem schnellen Shooter sollten es schon 100+ sein.

Gast
2019-07-11, 20:21:53
In Zeiten von Free- bzw G-Sync ist es wurst ob man 120 oder 150fps hat. Mit den Grafikreglern kann man fast immer die gewünscht Framerate erreichen. Dann limitiert auch meist die CPU nicht mehr, sondern die GPU.

G-Sync bzw. Freesync nützt dir überhaupt nichts, da beides nicht mit Low-Motion-Blur verwendbar ist, was wesentlich wichtiger ist.

Abgesehen davon bedeuten niedrigere FPS immer eine höhere Ausgabelatenz, G-Sync bzw. Freesync macht das zwar gleichmäßiger ohne zu ruckeln, die Verzögerung hast du aber trotzdem.

F4USt
2019-07-11, 20:34:55
Wir brauchen endlich mal Angaben zur CPU-Auslastung während der Benchmarks. Was nützt ein Vergleich bei der eine CPU zwar etwas höhere fps liefert, aber fast am Anschlag läuft, während die andere noch Luft hat.

Gast
2019-07-11, 21:46:26
Was nützt ein Vergleich bei der eine CPU zwar etwas höhere fps liefert, aber fast am Anschlag läuft, während die andere noch Luft hat.

Was nützt es irgendwelche künstlichen Hintergrundlasten zu erfinden?

Und komm mir nicht mit Encoding/Streaming, das machen die GPUs heute nebenher ohne zusätzliche CPU-Last.

Gebrechlichkeit
2019-07-11, 22:07:57
Gibt doch zu genuege yt channels die sowas benchen zum zen2. 3600 wird gut ausgelastet, der 3700X 25% weniger under 3900x der kam zu frueh auf die Welt, die Spiele machen ihn schlaefrig.

3700X Preis&Leistungs King, 3600 wegen der hohen CPU Last 60% in vielen Games ... bereits am "Limit". Odysee ist einfach ne Bitch. Source : yt channels die darauf sich spezialisiert haben, gibt zuviele

Schnitzl
2019-07-12, 08:36:44
Solange wirklich nur die Auflösung geändert wird, ändert sich an der CPU Load nichts. Bei vielen Tests welche in 720p und zusätzlich 1080p oder 4k durchgeführt wurden, sind aber oftmals auch noch die Grafikdetails unterschiedlich gewählt und diese haben dann durchaus einen Einfluss auf die CPU.

Anandtech hat beim aktuellen Zen2 Test einige Bechmarks erstellt die das auch schön aufzeigen:
https://dexter.birdman.ch/screens/misc/cpu_resolution_scale.png

Der a12-9800 liefert zwischen 720p und 4k quasi die genau gleiche Framerate.
danke, ich habs mal fett markiert was mir entgangen ist.
Früher wars so, dass alles über die CPU ging, heute nicht mehr (bis auf KI, zerstörbare Umgebung evtl.?)

Gast
2019-07-12, 11:36:09
3700X Preis&Leistungs King, 3600 wegen der hohen CPU Last 60% in vielen Games ... bereits am "Limit". Odysee ist einfach ne Bitch. Source : yt channels die darauf sich spezialisiert haben, gibt zuviele

der 3700X bietet 33% Kerne mehr als der bei vergleichbaren Taktraten im realen einsatz kostet aber ~ 60 mehr , ganz klar Preisleistungsking >,<

Spiele die ihre hohe CPU Last vornehmlich durch eine KS VM erzeugen aber trotzdem gut auf dem 3600er laufen sind eher ein Paradebeispiel gegen den 3700X.

Gast
2019-07-12, 15:50:57
3700X Preis&Leistungs King, 3600 wegen der hohen CPU Last 60% in vielen Games ... bereits am "Limit".

Der 3700X wird vom 2700X P&L sogar vom 2700X geschlagen.

Gast
2019-07-12, 16:42:34
So lange keine Lösung für das RDRAND-Problem _ausgeliefert_ ist, kann nur dringend vom 3000 abraten.

Leonidas
2019-07-13, 11:09:21
Die Erklärung der Perzentile im Artikel ist leider schon wieder falsch. Bitte lies mal nach, was ein Quantil ist! Ich versuche es mal einfach für das 99. Perzentil: Man nimmt vom Spiel eine Anzahl von hundert Frametimes auf und sortiert diese der Größe nach. Dann zählt man von unten bis zur 99. Stelle durch und pickt diese eine Frametime heraus. Das Reziprok daraus ist das 1. Perzentil der fps, was als Ergebnis ausgegeben wird. Es gibt da keine Mittelwertbildung..


Danke für die Erklärung. Das habe ich falsch verstanden, weil die Tester durchaus mit allen Begriffen hin- und herjonglieren und damit für mehr Verwirrung als Erklärung sorgen.

Leider muß ich aus statstischer Sicht sagen, das diese Methode ziemliche Grütze ist. Einzelne Werte aus einem Haufen von tausenden Werten zu benutzen ist lachhaft - ähnlich wie früher die Min-fps als einzelnem Wert. Da halte ich eine echte 1%-Min-Framerate für besser: Der Schnitt der niedrigsten 1% aller Werte. Warum wird das nicht getan, wenn sowieso alle Werte vorliegen?

F4USt
2019-07-13, 14:32:03
Was nützt es irgendwelche künstlichen Hintergrundlasten zu erfinden?

Und komm mir nicht mit Encoding/Streaming, das machen die GPUs heute nebenher ohne zusätzliche CPU-Last.

Wer sagt etwas von künstlichen Hintergrundlasten? In Zeiten wo Prozessoren für immer längere Zeiträume angeschafft werden können, rückt die CPU-Auslastung immer mehr in den Vordergrund.

Wenn bspw. beide CPUs +/- 5 % die gleiche Leistung liefern, aber eine CPU eine Auslastung 90 % und die andere von 65 % aufweist, welche würde man wohl kaufen?

Und genau das fehlt mir. Soweit ich gesehen habe, wurden in keinem der Launchreviews Angaben dazu gemacht. Und immer Youtube bemühen, weil die Tests dort teilweise aussagekräftiger sind, kann ja auch nicht die Lösung sein.

Es wird Zeit, dass man ein Bewusstsein dafür schafft. Man kann eine CPU nicht wie eine GPU betrachten. Die GPU läuft meistens bei 99% Auslastung und die fps werden mit der Zeit immer weniger. Bei einer CPU hingegen, ist die Auslastung hingegen zunächst gering, weil meist die GPU limitiert. Mit der Zeit steigt dann aber die CPU-Auslastung.

MadManniMan
2019-07-13, 15:55:42
Immer noch sortiert und an einer Stelle nachgeguckt.

Ja, hm, stimmt. Ich hatte bisher immer gedacht, es würde bis zum ersten Prozent gegangen und darunter gemittelt - aber das ist bei nicht-normalverteilten ... Verteilungen totaler Quark ;)


Leider muß ich aus statstischer Sicht sagen, das diese Methode ziemliche Grütze ist.

Ich nehme an, du meinst aus "gefühlt statistischer" Sicht? Zur Bildung von Mittelwerten außerhalb von Normalverteilungen hast du dich schonmal in der Statistik-Literatur belesen?

Gast
2019-07-13, 16:02:05
Wenn bspw. beide CPUs +/- 5 % die gleiche Leistung liefern, aber eine CPU eine Auslastung 90 % und die andere von 65 % aufweist, welche würde man wohl kaufen?



Die mit 90% Auslastung, weil ich mit der anderen "35% CPU" umsonst gekauft habe?

Mir geht doch keiner ab, weil im Taskmanager mehr oder weniger CPU-Auslastung angezeigt wird. Im Idealfall hätte ich gerne eine CPU die immer, wenn was zu tun ist, zu 100% ausgelastet wäre, weil dann wäre sie am schnellsten.
Funktioniert halt dummerweise mit Multicore und abnehmenden Grenzertrag nicht so gut.

Und btw. Multicore am Desktop gibt es in Form von Hyperthreading seit 2002 und in Form von Pentium D bzw. Athlon 64X2 seit 2005 auch mit echten Kernen.

Wer immer noch glaubt, dass die Softwareentwickler zu blöd sind in über 15 Jahren Multithreaded Software zu schreiben, und es die Software irgendwann schon richten wird und wir dann auch mit den vielen Kernen was anfangen können dem ist nicht mehr zu helfen.

Spoiler: Die Softwareentwickler sind nicht zu blöd, in Desktopanwendungen gibt es einfach zu viele Probleme bei denen einfach zu viel serieller Anteil vorhanden ist und damit eine Skalierung auf viele Kerne nicht möglich ist, egal wie viel du da herumoptimierst.
Und Probleme die sich quasi perfekt parallelisieren lassen, indem beispielsweise einfach die Problemgröße erhöht wird lassen sich auf GPUs um vielfaches schneller und energieeffizienter berechnen, dafür brauchst du dann auch nicht unzählige Kerne.

FlashBFE
2019-07-15, 21:51:25
Ich ging eigentlich immer davon aus, dass "99 Percentile" bedeutet, dass 99 Prozent aller gemessenen Frameraten oberhalb des angegebenen Wertes liegen. Auf diese Weise werden untypische beziehungsweise sporadische Ausreißer effektiv fallengelassen.
Das ist zwar indirekt auch richtig, aber per Definition werden Quantile von unten gezählt. Das erste Quartil ist also das 25. Perzentil. Das dritte Quartil ist das 75. Perzentil.



Was denkst du denn, was gemacht wird, wenn es mehr als 100 Frametimes sind? Das war nur das Beispiel mit glatten Zahlen zum Verständnis. Wenn man 10000 Frametimes hat, dann pickt man sich natürlich die 9900. heraus.


Anandtech hat beim aktuellen Zen2 Test einige Bechmarks erstellt die das auch schön aufzeigen:
https://dexter.birdman.ch/screens/misc/cpu_resolution_scale.png

Der a12-9800 liefert zwischen 720p und 4k quasi die genau gleiche Framerate. Also das ist wirklich interessant. Aber nicht, was der olle A12 macht, sondern dass mit zunehmender Auflösung der Threadripper immer weiter höher wandert und der 3900X dafür immer weiter nach unten. Ich vermute das Speicherinterface limitiert immer mehr, weil immer größere Texturen übertragen werden müssen. Da könnte Leo auch mal nachforschen. Vielleicht sind die HEDT-Prozessoren doch bessere Zocker-CPUs in hohen Auflösungen als gedacht.



Danke für die Erklärung. Das habe ich falsch verstanden, weil die Tester durchaus mit allen Begriffen hin- und herjonglieren und damit für mehr Verwirrung als Erklärung sorgen.

Leider muß ich aus statstischer Sicht sagen, das diese Methode ziemliche Grütze ist. Einzelne Werte aus einem Haufen von tausenden Werten zu benutzen ist lachhaft - ähnlich wie früher die Min-fps als einzelnem Wert. Da halte ich eine echte 1%-Min-Framerate für besser: Der Schnitt der niedrigsten 1% aller Werte. Warum wird das nicht getan, wenn sowieso alle Werte vorliegen?
Ja, das ist mir auch schon aufgefallen, dass viele Tester gar nicht verstehen, was sie da überhaupt für Ergebnisse auswerfen. Sie hängen sich einfach an einen Trend dran. Wer weiß, vielleicht ist auch die Hälfte der Ergebnisse falsch, weil ein Tester mit einer Excel-Tabelle voller Frametimes einfach "irgendwas" gemacht hat. Deswegen muss das mal aufklären.

Aus statistischer Sicht trügt dich dein Bauchgefühl. ;) Die Sortierung der Werte ist der entscheidende Unterschied. Wenn man viele Werte hat, ist eine bestimmte Stelle in der Verteilung sehr präzise. Der Unterschied zu einer Mittelwertbildung ist, dass letztere Ausreißer mit einrechnet und so bei einer Nichtnormalverteilung verzerrte Ergebnisse entstehen. Das klassische Beispiel ist die Einkommensverteilung der Bundesbürger: Im Mittelwert, was gerne angegeben wird, weil es so schön einfach ist und jeder was damit anfangen kann, geht es uns richtig gut; wir sind quasi reich. Im Median (dem 50. Perzentil) sieht die Welt dann realistisch aus. Der mittlere "typische" Bürger kommt plötzlich nur noch "über die Runden". Die wenigen superreichen Milliardäre können nun nicht mehr die Masse der Armen verschleiern. Die Abweichung zwischen Median und Mittelwert ist übrigens selbst ein Maß dafür, in wie weit eine Verteilung schief ist.


Wer immer noch glaubt, dass die Softwareentwickler zu blöd sind in über 15 Jahren Multithreaded Software zu schreiben, und es die Software irgendwann schon richten wird und wir dann auch mit den vielen Kernen was anfangen können dem ist nicht mehr zu helfen.

Spoiler: Die Softwareentwickler sind nicht zu blöd, in Desktopanwendungen gibt es einfach zu viele Probleme bei denen einfach zu viel serieller Anteil vorhanden ist und damit eine Skalierung auf viele Kerne nicht möglich ist, egal wie viel du da herumoptimierst.
Und Probleme die sich quasi perfekt parallelisieren lassen, indem beispielsweise einfach die Problemgröße erhöht wird lassen sich auf GPUs um vielfaches schneller und energieeffizienter berechnen, dafür brauchst du dann auch nicht unzählige Kerne. Weder Blödheit, noch nur die seriellen Anteile: Vor 15 Jahren gab es schlicht noch keine ausgereiften Programmierkonzepte, die Mulithreading so abstrahieren, dass es intuitiv nutzbar wird. Aus eigener Vergangenheit muss ich sagen, dass ich früher nur mit mehereren Threads programmiert habe, wenn ich mir sehr viel Gewinn davon versprochen habe. Das kaum unterstützte Debugging war frustrierend. Das Synchronisieren der Threads kaum richtig testbar. Der parallele Zugriff auf geteilte Daten und die benötigten Sperren funktionierten erstmal toll und dann gab es einen Deadlock. Das Verhalten der Programme auf Singlecore, Singlecore mit HT und Dualcoreprozessoren hat sich teilweise drastisch unterschieden, wenn die CPUs voll ausgelastet waren. Heute ist das kein Problem mehr. Rechenintensive Aufgaben lassen sich oftmals gut paralellisieren und mit einem guten Framework kann man kaum noch Fehler machen. Heute schreibt man Multithreadingprogramme mit beliebig vielen Threads so intuitiv wie Spaghetticode früher. Das Auslagern auf GPUs hat zumindest heute soviele Nachteile, dass es sich für vieles schlicht nicht lohnt. Das sieht man auch an vielen neuen Top500-Großrechnern, die je nach Arbeitslast nur zum Teil oder garnicht mit GPUs bestückt werden.

MadManniMan
2019-07-15, 22:45:39
:ulove3:

Ich möchte diesen Post sehr empfehlen. Er ist sehr gut!

Gast
2019-07-16, 17:45:11
Nachtrag:
Man beachte, dass laut Tabelle der 3600 bei allen Testern über den 100% des 3700X liegt.
Der 2700X passt dann gleich gar nicht mehr. Nicht nur 10% schneller, sondern in der 'großen' Tabelle stattliche 18% langsamer.

Gast
2019-07-16, 20:31:11
Weder Blödheit, noch nur die seriellen Anteile: Vor 15 Jahren gab es schlicht noch keine ausgereiften Programmierkonzepte, die Mulithreading so abstrahieren, dass es intuitiv nutzbar wird. Aus eigener Vergangenheit muss ich sagen, dass ich früher nur mit mehereren Threads programmiert habe, wenn ich mir sehr viel Gewinn davon versprochen habe. Das kaum unterstützte Debugging war frustrierend. Das Synchronisieren der Threads kaum richtig testbar. Der parallele Zugriff auf geteilte Daten und die benötigten Sperren funktionierten erstmal toll und dann gab es einen Deadlock. Das Verhalten der Programme auf Singlecore, Singlecore mit HT und Dualcoreprozessoren hat sich teilweise drastisch unterschieden, wenn die CPUs voll ausgelastet waren. Heute ist das kein Problem mehr. Rechenintensive Aufgaben lassen sich oftmals gut paralellisieren und mit einem guten Framework kann man kaum noch Fehler machen. Heute schreibt man Multithreadingprogramme mit beliebig vielen Threads so intuitiv wie Spaghetticode früher. Das Auslagern auf GPUs hat zumindest heute soviele Nachteile, dass es sich für vieles schlicht nicht lohnt. Das sieht man auch an vielen neuen Top500-Großrechnern, die je nach Arbeitslast nur zum Teil oder garnicht mit GPUs bestückt werden.


Genau das hab ich eigentlich gesagt, vielleicht nicht ganz so vornehm.
Ich habe nicht gesagt, dass man vor 15 Jahren schon wusste wie man effizient Multithreaded programmiert.
Aber vor 15 Jahren hat man damit angefangen und heute genügend know how angesammelt um effizient Multithreaded zu programmieren, was natürlich auch bedeutet, dass keine großen Gewinne über eine breite Spanne verschiedener Software in der Ausnutzung mehrerer Kerne zu erwarten sind.
Klar Einzelfälle wird es immer geben, aber im Durchschnitt über die gesamte Software wird man nicht mehr viel weiter kommen als man schon ist.

Gast
2019-07-16, 21:40:16
Nachtrag:
Man beachte, dass laut Tabelle der 3600 bei allen Testern über den 100% des 3700X liegt.
Der 2700X passt dann gleich gar nicht mehr. Nicht nur 10% schneller, sondern in der 'großen' Tabelle stattliche 18% langsamer.
Kaum abgeschickt, Grund erkannt. Andere Karte als Referenz. Soweit rechts habe ich gar nicht gelesen, weil irrelevant. Mein Fehler, aber "Sorry, geht gar nicht".

F4USt
2019-07-21, 21:28:25
Die mit 90% Auslastung, weil ich mit der anderen "35% CPU" umsonst gekauft habe?



In kurzer Zeit bist du dann bei 100%, weil die CPU zu langsam geworden ist und musst im Zweifel aufrüsten, während die andere mit dann 75 % weiter das liefert, was benötigt wird.

Ist doch bei Grafikkarten nicht anders. Da kauft man doch auch Leistungsreserven. Wenn die Karte X heute 100 fps liefert und bei einem selbst die Grenze bei 60 fps ist, dann rüstet man erst auf, wenn die Karte unter 60 fps fällt.

Leonidas
2019-08-06, 07:04:29
us statistischer Sicht trügt dich dein Bauchgefühl. ;) Die Sortierung der Werte ist der entscheidende Unterschied. Wenn man viele Werte hat, ist eine bestimmte Stelle in der Verteilung sehr präzise. Der Unterschied zu einer Mittelwertbildung ist, dass letztere Ausreißer mit einrechnet und so bei einer Nichtnormalverteilung verzerrte Ergebnisse entstehen. Das klassische Beispiel ist die Einkommensverteilung der Bundesbürger: Im Mittelwert, was gerne angegeben wird, weil es so schön einfach ist und jeder was damit anfangen kann, geht es uns richtig gut; wir sind quasi reich. Im Median (dem 50. Perzentil) sieht die Welt dann realistisch aus. Der mittlere "typische" Bürger kommt plötzlich nur noch "über die Runden". Die wenigen superreichen Milliardäre können nun nicht mehr die Masse der Armen verschleiern. Die Abweichung zwischen Median und Mittelwert ist übrigens selbst ein Maß dafür, in wie weit eine Verteilung schief ist.


Denkbar, aber nicht bewiesen. Dein Beispiel mit der Reichtums-Verteilung funktioniert sehr gut, hat aber den Nachteil, das Reichtum sehr gut in Pyramidenform verteilt ist. Auf Games-Frameraten trifft dies weniger gut zu, weil hier die aktuelle Spiel-Sequenz die Richtung vorgibt. Sprich: In einem 30-Sekunden Durchlauf haben wir 20% Flyby, 50% normale Frameraten und 30% niedrige Frameraten. In diesen 30% niedrigen Frameraten bestimmen auch die einzelnen Szenen, was besonders niedrig ist. Die niedrigsten 1% und 5% kommen typischerweise allesamt aus derselben Szene. Bei den niedrigsten singulären Werten wird es dagegen erratisch, die können faktisch überall auftreten.

Insgesamt hat das Bild nur annähernd was mit Gleichförmigkeit zu tun - auf keinen Fall gut mit der Reichtums-Pyramide zu vergleichen. Dir kann es locker passieren, das das 99th percentil in einem Benchmark-Durchlauf in einem Feld mit vielen ähnlichen Werten liegt - dann ist es egal, welchen Wert man für die Auswertung erwischt. Dir kann es aber auch passieren, das der gewählte Wert für 99th percentil genau an einer Werte-Grenze liegt - sprich, darunter gibt es überall Werte wie 33fps, darüber aber einen Sprung auf 36-38 fps. Das ergibt erhebliche Differenzen, hier wäre eine Mittelwertbildung eher anzuraten.

Natürlich müsste man das noch einmal sauber beweisen. Aber ich denke, mit Mittelwerten kann man sowieso nie etwas falsch machen - daher zweifle ich das Herausgreifen von Einzelwerten immer an.




Ich nehme an, du meinst aus "gefühlt statistischer" Sicht? Zur Bildung von Mittelwerten außerhalb von Normalverteilungen hast du dich schonmal in der Statistik-Literatur belesen?


Exakt: "gefühlt statistische" Sicht. Und nein, ich hab mich da nicht reingelesen. Ich glaube, da würde ich vieles wegen der Fachbegriffe auch nicht verstehen. Ich habe Mathematik immer "nativ" betrieben, sprich ich musste es selber verstehen und mir selbst gegenüber beweisen können. Damit habe ich allerdings wenig Bezug zur Mathematik-Theorie. Ich wusste bis vor kurzem nicht, das das von mir selber jahrelang eingesetzte Mittel offiziell als "geometrischer Durchschnitt" firmiert.

MadManniMan
2019-08-06, 07:44:20
Dein Beispiel mit der Reichtums-Verteilung funktioniert sehr gut, hat aber den Nachteil, das Reichtum sehr gut in Pyramidenform verteilt ist.

Äh, wie meinen?

Leonidas
2019-08-06, 11:31:55
Sieht nach einem stark konträren Gedankenansatz aus. Ich wüsste jetzt auf den ersten Blick nicht, was an der Aussage falsch sein soll.

MadManniMan
2019-08-06, 12:10:53
Was meinst du konkret mit der Pyramidenverteilung?

JVC
2019-08-06, 13:27:11
Äh, wie meinen?
Vermutlich meint er das sich gute sowie schlechte Ergebnisse mit der Menge der Tersts egalisieren.
Darum finde ich https://www.userbenchmark.com/ auch soooo gut da man Tausende Vergleiche heranziehen kann :smile: (ist hald ne heiden Arbeit)
(auf die "Breite" der "Basis" kommt es an -->Pyramide)

M.f.G. JVC

Trap
2019-08-06, 13:38:21
Die Frametime-Verteilung durch eine einzelne Zahl zu charakterisieren ist auch keine einfache Aufgabe.

Eine feste Perzentile nehmen ist einfach, ich bin mir aber nicht so sicher was die Aussagekraft davon angeht.

Wenn man die Ruckeligkeit des Spielerlebnis bewerten möchte braucht man eine Bewertungsfunktion, die das abbildet - so wie es für Lautheit Sone gibt. Dürfte aber eine Herausforderung sein so etwas zu entwickeln, da muss man ja Mikroruckler vs. einzelne drops usw. in allen denkbaren Varianten gegeneinander bewerten können.

Wenn man es zu Bewertung von Hardware nutzen möchte, dann vielleicht eher in die Richtung, wie anfällig die Hardware (mit Treiber) für worst-case bottlenecks ist. Aber wie man das dann gut in einer Zahl messen kann?

JVC
2019-08-06, 13:47:21
...Dürfte aber eine Herausforderung sein so etwas zu entwickeln,..
Da die individuelle Wahrnehmung sich aber stark unterscheidet,
ist es nahezu unmöglich das nur mit einer Zahl aus zu drücken.

Leo versucht eine möglichst gute für alle akzeptable Übersicht zu bieten.
(klar das man nicht alle zufriedenstellen kann :wink:)

M.f.G. JVC

Leonidas
2019-08-07, 05:03:05
Was meinst du konkret mit der Pyramidenverteilung?


Bezogen auf die Reichtumsverteilung: Wenige an der Spitzen, nachfolgend eine Pyramide bezogen auf Reichtum/Person.




Leo versucht eine möglichst gute für alle akzeptable Übersicht zu bieten.


Mein Vorschlag hierzu sind schlicht die niedrigsten 1% als Durchschnittliche fps. Ist gut zu lesen und man kann einen Bezug dazu bilden: "So sieht die Framerate aus, wenn es ganz tief nach unten geht".

Wenn es statistisch auffällig ist, könnte man auch darüber nachdenken, aus den niedrigsten 1% die allerniedrigsten 0,1% rauszunehmen - im Sinne dessen, das dies Aussetzer der Engine sein könnten, also nicht Hardware-bezogen sind. Dazu müsste man viele Frametime-Verteilungen lesen, um zu sehen, ob dies tatsächlich auftrifft (derzeit nur eine These).

MadManniMan
2019-08-07, 08:06:23
Bezogen auf die Reichtumsverteilung: Wenige an der Spitzen, nachfolgend eine Pyramide bezogen auf Reichtum/Person.

Okay, du hast also die Bezugsachse gekippt. Und nein, da liegst du völlig falsch:

https://upload.wikimedia.org/wikipedia/de/thumb/5/53/Verm%C3%B6gensverteilung_Deutschland_2002_und_2007.svg/1920px-Verm%C3%B6gensverteilung_Deutschland_2002_und_2007.svg.png

Das ist eine Verteilung, die Frametimes dahingehend nahe kommt, dass es häufig das "Kippen" an einem Ende gibt:

https://www.tomshw.de/wp-content/uploads/2019/07/Shadow-of-the-Tomb-Raider-FPS99th-1920x1080-DX12-Ultra.png

... letztlich sind Frametimes aber weit homogener als eine Einkommensverteilung.


Ernsthaft, Quantile sind wirklich ein sehr gutes Maß für solche Zusammenhänge!

Trap
2019-08-07, 09:19:03
Mein Vorschlag hierzu sind schlicht die niedrigsten 1% als Durchschnittliche fps. Ist gut zu lesen und man kann einen Bezug dazu bilden: "So sieht die Framerate aus, wenn es ganz tief nach unten geht".
Den Durchschnitt dann aber bitte auf Frametimes, nicht auf Fps ausrechnen.

Leonidas
2019-08-07, 12:06:01
Den Durchschnitt dann aber bitte auf Frametimes, nicht auf Fps ausrechnen.


Wäre Nolte ... ich lese lieber fps, aber natürlich würde man es als ms besser unterscheiden können.




@ MadManniMan

Ich meinte eher, das dies bei der Reichtstumsverteilung wirklich perfekt ist, bei Frametimes hingegen äußere Einflüsse hinzukommen, die perfekte Verteilungen stören können. Deswegen würde ich nicht von einem Schlüsse auf das andere ziehen wollen. Die Reichtumsverteilung basiert zudem auch auf viel mehr Werten, bei Frameraten sind in einem 30-Sekunden-Durchlauf gerade mal ~2000 Werte vorhanden.

Trap
2019-08-07, 13:49:01
Wäre Nolte ... ich lese lieber fps, aber natürlich würde man es als ms besser unterscheiden können.
Das macht einen Unterschied:
Mittelwert([100ms,50ms])=75ms => 13,3 fps
Mittelwert([10fps,20fps])=15fps

Bei Rechnung in ms werden die langsamen Frames höher gewichtet, bei Rechnung in Fps die schnellen Frames.

Leonidas
2019-08-07, 16:08:21
Gewichtiger Einwand ... genauso, wie Du es sagst, stimmt es.