PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erste (wirkliche) Spiele-Benchmarks zu Intels Core X aufgetaucht


Leonidas
2017-07-04, 17:35:54
Link zur News:
https://www.3dcenter.org/news/erste-wirkliche-spiele-benchmarks-zu-intels-core-x-aufgetaucht

Schnoesel
2017-07-04, 17:53:20
Zen, 8C+SMT, 3.6/4.0/4.1 GHz

Was sollen das für Taktraten sein?

So wird ein Schuh draus:

Zen, 8C+SMT, 3.6/3.7/4.0 (bzw.4.1) GHz

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/

Denniss
2017-07-04, 18:00:51
Hat schon jemand die "Spieleschwäche" des Skylake-X erwähnt ? :biggrin::confused::freak:

Gipsel
2017-07-04, 18:09:17
Was sollen das für Taktraten sein?

So wird ein Schuh draus:

Zen, 8C+SMT, 3.6/3.7/4.0 (bzw.4.1) GHz

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/
Die Taktraten des 6950X sind auch etwas dubios. Vermutlich ein Copy&Paste-Fehler, der sich irgendwie durchzieht. hatte das schon bei einer früheren Meldung angemerkt:
Die Tabelle in Leos Meldung scheint übrigens für den 6950X fehlerhaft zu sein. Der hat nur eine Baseclock von 3,0GHz und einen maximalen Boost von 3,5 GHz für zwei Kerne (4,0Ghz single core mit Turbo 3.0). Der maximale allcore-Boost liegt bei 3,4Ghz. Da liegt der 7900X deutlich höher:
3,3Ghz Base, allcore Boost 4,0GHz, bis 4,3GHz bei Belastung weniger Kerne (gerade keine Ahnung wie viele) und bis 4,5GHz bei last auf zwei Kernen.
Die angegebene Taktraten sind irgendwie nicht konsistent. Ich würde ja sowas wie base / allcore boost / single oder few core boost vorziehen.
Beim R7 1800X wären das dann 3,6/3,7/4,1, beim 6950X 3,0/3,4/4,0 und beim 7900X 3,3/4,0/4,5 GHz jeweils.

cat
2017-07-04, 18:28:22
Kommt es denn überhaupt vor das der 1800X unter Last nur 3,6GHz an Kernen anlegt?
Oder ist es immer mindestens 3,7GHz unter Last ?
Falls das so wäre könnte man sich die Angabe der Baseclock sparen.

Mein E3-1230v2 springt bei Teillast zwischen 1.6 und 3,7GHz auf einzelnen Kernen rum keine Werte dazwischen. Bei Volllast nimmt er 3,5GHz.
Die 3,3GHz Baseclock nimmt er NIE

Gast Ritis
2017-07-04, 18:34:19
Es hat sich also immer noch nicht herumgesprochen, dass Spiele-Benchmarks in zu niedriger Auflösung kein brauchbares Ergebnis sind um die Leistungsfähigkeit einer CPU zu bewerten.

Wenn man dann noch sieht, dass PCGH nur auf Titel gesetzt hat, die nicht von Multithreading profitieren können, scheint das Ganze doch eher Meinungsmache als objektive Berichterstattung zu sein. IMHO stehen hier die Page-Impressions im Vordergrund, der Test kann in die elektronische Mülltonne, lesen lohnt nicht.

Schaffe89
2017-07-04, 18:38:42
Hat schon jemand die "Spieleschwäche" des Skylake-X erwähnt ? :biggrin::confused::freak:

Vermutlich wird es bei den AMD´lern von nun an keine weiteren ellenlangen Threads dazu geben, wieso Skylake in Spielen zurückhängt, wenn er doch in Anwendungen soviel besser ist.

Vermutlich wird nun auch die von mir aufgestellte These des etwas langsameren Latenzen durch das Mesh System geteilt, aber bei Ryzen werden die lahmen Latenzen über die Infiny Fabric als Grund für das schwächeln des Ryzen in Spielen nicht in Betracht gezogen.

Bei den AMDlern steht schon jetzt fest dass Skylake X gefailed hat und dass nichts mehr aufgrund der neuen Cache Situation dazu kommen kann.

Die Wahrscheinlichkeit dass Gecko wieder einen von seinen berüchtigten "Warum die CPU für Spiele so grandios ist" Thread aufmacht, liegt trotz ähnlicher Vorzeichen bei Skylake X natürlich bei 0%.

Gast
2017-07-04, 18:48:24
Kommt es denn überhaupt vor das der 1800X unter Last nur 3,6GHz an Kernen anlegt?
Oder ist es immer mindestens 3,7GHz unter Last ?
Falls das so wäre könnte man sich die Angabe der Baseclock sparen.

Mein E3-1230v2 springt bei Teillast zwischen 1.6 und 3,7GHz auf einzelnen Kernen rum keine Werte dazwischen. Bei Volllast nimmt er 3,5GHz.
Die 3,3GHz Baseclock nimmt er NIE

Das wär mal was, die Tester sollten mal eine Percentil-Angabe machen wie lange der maximale Turbo einer CPU im Game überhaupt anliegt. ;D

Da das OS in aller Regel bei Spielen mehr als 4 Cores am laufen hält ist wohl der max boost für alle Cores die einzig interessante Grösse bei solchen Last-Tests.
Wenn ein alter Game-Titel es wirklich schafft dass jenseits der 4 Cores der Rest fast schlafen geht wird das bei den neuen CPUs interessant, die davon profitieren können.
Aber das ist für aktuelle/künftige Games nicht mehr Praxisrelevant, also Benching um des Benching willen, nichts weiter passiert hier...

Complicated
2017-07-04, 18:54:22
Natürlich wird sich dieses Performancebild im Laufe der Zeit und gerade mit Spiele-Neuerscheinungen noch verbessern, aber dafür ist wohl eine langwierige Optimierungsarbeit vonnöten, welche typischerweise erst nach Monaten oder Jahren das eigentliche Hardware-Potential offenlegen kann. Augenscheinlich durchkreuzt die Veränderung der Cache-Struktur bei Skylake-X gerade im Spiele-Bereich (noch mehr als bei Anwendungs-Software) die bisher angesetzten Intel-Optimierungen der Software-Entwickler, jene Problematik hat also doch größere Auswirkungen als man vorab dachte. Skylake-X gibt damit natürlich trotzdem keine schlechten Spiele-CPUs ab, aber gerade wegen der erheblich hochgezogenen Taktraten hatte man sich diesbezüglich eher ernsthafte Performancegewinne als denn nur einen Performance-Gleichstand zu Broadwell-E versprochen.
Anstatt spätestens JETZT mal die 720p Benchmarks klar zu hinterfragen. Es sind einfach keine CPU-Tests wenn man ein künstliches "CPU-Limit" in Spielen auf diese Weise herstellen will. Es ist schon lange Humbug so etwas zu testen - welche Aussage soll damit gemacht werden?
Schaut man sich die einzelnen Tests an ist eindeutig zu sehen, dass diese Settings überhaupt keine Benchmarks mehr sind, da die Software(Spiele) das überhaupt nicht skalieren kann was da an unterschiedlichen Cache/Kern/Takt von den einzelnen SKUs geboten wird.

Vermutlich kapieren einige Intel-Jünger nach wie vor nicht wie sie jahrelang mit solchen Tests vorgeführt wurden und zu viel Geld ausgegeben haben. Selbst jetzt noch halten manche eine Pentium-Plattform mit 2 Kernen für ein taugliches Setup, nur weil manche Spiele damit mehr FPS ausspucken.

Gast
2017-07-04, 19:02:45
Intel hatte an dieser Stelle echtes Glück

Dass sich kein Reviewer traut, die Spieleschwäche von Skylake-X zu kritisieren, hat nichts mit Glück sondern mit dem erfolgreichen Intel-Marketing zu tun - insbesondere die extrem restriktive Versorgung der Reviewer mit CPU-Samples.

gerade mit Spiele-Neuerscheinungen noch verbessern, aber dafür ist wohl eine langwierige Optimierungsarbeit vonnöten

Das ist unwahrscheinlich, da es sich um überteuerte Serverprozessoren handelt, die die wenigsten Spieler einsetzen werden. Intel hat bisher auch keinerlei Unterstützung für die Entwickler angekündigt.
Broodwell-E und älter hingegen haben automatisch von den Intel-Optimierungen für die Mainstreamprozessoren profitiert, weil die CPU-Architektur die gleiche war.

marc-05
2017-07-04, 19:33:00
Was ist z.b mit hardware.fr
http://www.hardware.fr/articles/964-17/jeux-3d-project-cars-f1-2016.html

Lehdro
2017-07-04, 19:59:27
Wenn man dann noch sieht, dass PCGH nur auf Titel gesetzt hat, die nicht von Multithreading profitieren können, scheint das Ganze doch eher Meinungsmache als objektive Berichterstattung zu sein.
Und ich dachte immer gerade Crysis 3 ist das Paradebeispiel für Kernskalierung bei Games...

Schaffe89
2017-07-04, 20:45:01
Anstatt spätestens JETZT mal die 720p Benchmarks klar zu hinterfragen. Es sind einfach keine CPU-Tests wenn man ein künstliches "CPU-Limit" in Spielen auf diese Weise herstellen will.

Wieso sollte man da was hinterfragen. Anwendungen verhalten sich nunmal deutlich anders als Spiele.:rolleyes:

Es ist schon lange Humbug so etwas zu testen - welche Aussage soll damit gemacht werden?

Genauso muss getestet werden, ansonsten würde man die Spieleschwäche des neuen Skylake X ja gar nicht sehen und im teilweisen GPU Limit davon ausgehen Skylake X müsse schneller sein.

[QUOTE]Schaut man sich die einzelnen Tests an ist eindeutig zu sehen, dass diese Settings überhaupt keine Benchmarks mehr sind

Joa lieber in 4K testen.:redface:

Vermutlich kapieren einige Intel-Jünger nach wie vor nicht wie sie jahrelang mit solchen Tests vorgeführt wurden und zu viel Geld ausgegeben haben.

Also lieber GPU´s im CPU Limit ujnd CPU´s im GPU Limit testen weil es ja sein könnte dass man zuviel Geld für die Komponenten ausgibt?

Wann kommt deine Forderung nach Bandbreitenlimit, oder im Hitzschutzlimit zu testen?

Selbst jetzt noch halten manche eine Pentium-Plattform mit 2 Kernen für ein taugliches Setup, nur weil manche Spiele damit mehr FPS ausspucken.

Man merkt einfach dass Intel knapp 30% vor dem Ryzen 1800x ist.
Wäre es andersherum, dann würdest du die Low Res Benchmarks feiern.

Complicated
2017-07-04, 20:49:49
Was denn für eine Spieleschwäche? Gibt es ein Spiel das dadurch unspielbar auf den CPUs ist oder in Zukunft sein wird? Ob da nun 120 oder 90 FPS abgeliefert werden in 720p ist so wichtig wie ein Sack China der in den Reis fällt.
Man merkt einfach dass Intel knapp 30% vor dem Ryzen 1800x ist.
Wobei? Bei der Marge im Handel?
Edit: Und womit? Mit seinen SSDs? Pauschal bei der Anzahl der Hostessen pro Messe?

BlacKi
2017-07-04, 20:50:21
bei allem was recht ist aber das kann man schon fail nennen bei aller liebe...
https://abload.de/img/unbenanntuysbd.png

Was denn für eine Spieleschwäche? Gibt es ein Spiel das dadurch unspielbar auf den CPUs ist oder in Zukunft sein wird? Ob da nun 120 oder 90 FPS abgeliefert werden in 720p ist so wichtig wie ein Sack China der in den Reis fällt.
unspielbar oder nicht interessiert mich nicht, mich interessiert die absolute leistungsfähigkeit.
ich habe einfach keine lust auf werte die nicht die cpu leistung wiedergeben sondern diese sogar verfälschen.

G3cko
2017-07-04, 20:54:24
Die Wahrscheinlichkeit dass Gecko wieder einen von seinen berüchtigten "Warum die CPU für Spiele so grandios ist" Thread aufmacht, liegt trotz ähnlicher Vorzeichen bei Skylake X natürlich bei 0%.

Plural? Bisher gibt es nur einen Thread. :cool:

Es steht außer Frage, dass Skylake-X aktuell die schnellste Gaming-CPU ist. Wo habe ich was anderes behauptet?

Ich habe gesagt, dass Ryzen eine hervorragende Gaming CPU 2017 ist.

Es steht nirgends, dass Ryzen die beste Gaming CPU ist. Die beste Gaming CPU gibt es schlicht nicht.

4) Wie sieht die perfekte Gaming CPU aus?
Die gibt es schlicht nicht. Da die Software zu unterschiedlich ist. Aber im Schnitt über alle Anwendungen ist die Frage ganz einfach zu beantworten, da dies Ausreißer ausschließt.
IPC, Takt, Kerne, Threads - JEDE dieser Eigenschaften sollte man soweit wie möglich mit seinem Budget ausreizen.

Vielleicht solltest du mal den Thread lesen. Der kleine aber feine Unterschied:

AMD 1700 + B350 = ~380€
Intel 7820X + 299x = ~800€

Merkst was?

Daredevil
2017-07-04, 20:55:49
Hat schon jemand die "Spieleschwäche" des Skylake-X erwähnt ? :biggrin::confused::freak:
DAFÜR IST DIE CPU ZUKUNFTSFÄHIGER; WENN BALD ZEHN KERN SPIELE UNTERSTÜTZT WERDEN!!!!!111111 :D

Der 7740K macht n schönen kleinen Sprung, auch wenn er eigentlich fast Sinnlos ist für diese Plattform. Immerhin etwas, womit man argumentieren kann.

Gast Ritis
2017-07-04, 21:05:20
Und ich dachte immer gerade Crysis 3 ist das Paradebeispiel für Kernskalierung bei Games...
AC Syndicate und Crysis 3 sind so lala jenseits 8 Threads, nutzen aber kein Core in voller Last und FPS sind relativ niedrig bei relativ schwacher Auslasung insgesamt. Immerhin die Frame-Latency passt. F1 2015, Witcher3, FarCry4 hingegen sind MT-fails.
Dieser Review im Gaming zeigt die Turbo-Stärke von den dicken SkyX und allgemein die Performance unter alten Spiele-Engines. Das wars.

Mortalvision
2017-07-04, 21:27:39
Spieleschwäche oder Kernvernetzung? Ich bin mir ziemlich sicher, dass die wenigsten Spieleschmieden Bock auf die bessere Nutzung von Sprungvorhersagen und deren Publikation/Suppression in Mehrkernprozessoren haben. Für die zählt: Code abarbeiten, FP oder Int rechnen, und wieder sehr viel Code abarbeiten. Da müsste Intel für uns Gamer schon einen in Hardware gegossenen Instruktionscache/-einheiten basteln, das dann auch die meisten Programmiersprachen/ Spieleengines unterstützt. Früher nannte man das mal Konsole ;D

Gast
2017-07-04, 21:30:19
Hat schon jemand die "Spieleschwäche" des Skylake-X erwähnt ? :biggrin::confused::freak:

Ich sehe keine Spieleschwäche, sondern dass Skylake-X dank hoher Turbotaktraten endlich weitestgehend gleich auf mit den eigenen 4-Kernern ist.

Mal den Preis beiseite ist Skylake-X die erste CPU mit der man bedenkenlos einen der Vielkerner kaufen kann ohne dass man in unoptimierter Software schlechter als ein deutlich günstiger Vierkerner abschneidet.

Gast
2017-07-04, 21:32:08
Kommt es denn überhaupt vor das der 1800X unter Last nur 3,6GHz an Kernen anlegt?
Oder ist es immer mindestens 3,7GHz unter Last ?
Falls das so wäre könnte man sich die Angabe der Baseclock sparen.

Das hängt von der Kühlung ab. Damit die XFR-Taktraten funktionieren muss die echte Kerntemperatur (ohne Offset) unter 60° liegen.

Complicated
2017-07-04, 22:16:58
ich habe einfach keine lust auf werte die nicht die cpu leistung wiedergeben sondern diese sogar verfälschen.
Dann schau dir keine Benchmarks mehr an in denen eine dGPU im System verbaut ist. Dann siehst du CPU-Leistung in den entsprechenden Anwendungen. DX11/DX12/Vukan/Mantle - unter jeder dieser Software-APIs, die allesamt für die GPU relevant sind hat eine CPU eine völlig andere Leistung bei Software die ebenfalls zu 90% für die GPU und deren Treiber gecoded ist.

tm0975
2017-07-04, 22:19:18
sind denn in den 4 zugrundeliegenden tests nur spiele drin, die vernünftig auf ryzen angepaßt sind? alles andere ist ja sinnlos, das bencht ja nicht die cpu sondern zeigt nur die softwareschwäche einiger spiele bei teillast.

maximus_hertus
2017-07-04, 23:32:51
Bis heute konnte mir noch niemand erklären, warum es mehrere Benchmarks gibt (Spiele), die auf dem Ryzen in 1080p MEHR(!) fps liefern als in 720p. Eigentlich kann das ja nie passieren, aber es passiert halt immer wieder (nicht in jedem Bench).

Bis das nicht komplett geklärt ist, würde ich immer 720p UND 1080p Tests bevorzugen. Oder alternativ beim Ryzen den SCHNELLSTEN Wert.

IMO ist Skylake-X sehr unattraktiv. 300+ Euro für Boards und mit den kleinen CPUs kann ich fast nichts nutzen? Dazu die Problematik beim Wechsel von Skylake auf Kaby bzw. umgekehrt (gibt es da eine Lösung?).

Ein ordentliches X299 Board (wobei die beim OC wohl alle versagen) + 7820K 8-Core CPU + AiO Wakü liegt bei rund 1000 Euro.

Für rund 150 Euro weniger(!) bekomme ich, bis auf die Grafikkarte, einen kompletten PC(!), drin ist ein gutes B350 Board, der R7 1700 boxed, 16 GB DDR4 RAM, 250 GB SSD, 2 TB HDD, ordentliches 500W beQuiet und Co. NT, ordentliches Gehäuse (zb Define S).

Beim Skylake-X muss man beim Netzteil noch ordentlich drauf packen, was die Sache noch teurer macht. Mit den aktuellen Grafikkartenpreisen wird Skylake-X noch unattraktiver. Aber warten wir mal ab, wie es sich entwickelt.

Ätznatron
2017-07-04, 23:49:17
Für rund 150 Euro weniger(!) bekomme ich, bis auf die Grafikkarte, einen kompletten PC(!), drin ist ein gutes B350 Board, der R7 1700 boxed, 16 GB DDR4 RAM, 250 GB SSD, 2 TB HDD, ordentliches 500W beQuiet und Co. NT, ordentliches Gehäuse (zb Define S).

Beim Skylake-X muss man beim Netzteil noch ordentlich drauf packen, was die Sache noch teurer macht. Mit den aktuellen Grafikkartenpreisen wird Skylake-X noch unattraktiver. Aber warten wir mal ab, wie es sich entwickelt.

Ja, so ist das wohl, aber ist es nicht schön, dass Intel es zumindest versucht hat?

etp_inxession
2017-07-05, 07:11:36
Leo bitte die Listenpreise in der Tabelle ergänzen.

P/L sieht dann ja ernüchternd aus für Intel.

Mortalvision
2017-07-05, 07:27:20
Nicht unbedingt. Aber ich denke, dass das Mesh für Mehrkerner sehr innovativ ist und fast beliebig nach oben skalierbar ist (also, in einem Die ;D). Spiele laufen ja auch "ok" damit, nur Wunder würde ich keine erwarten... Warten wir mal ab, ob der 18-Kerner adäquat skaliert.

DinosaurusRex
2017-07-05, 08:28:09
Jetzt mal ohne Scheiß, wen interessieren 720p CPU Benches für HEDT Prozessoren? Es gibt wohl nichts, das weiter von der Praxis entfernt sein könnte. Absolute Zeitverschwendung von der PCGH.

Iscaran
2017-07-05, 08:33:25
Bis heute konnte mir noch niemand erklären, warum es mehrere Benchmarks gibt (Spiele), die auf dem Ryzen in 1080p MEHR(!) fps liefern als in 720p. Eigentlich kann das ja nie passieren, aber es passiert halt immer wieder (nicht in jedem Bench).


Kannst du mal ein paar Links liefern ? Das finde ich interessant und wusste das bisher nicht.

Spontan würde ich darauf tippen: "...weil nur mit einer nVidia XXX GPU getestet wude und das betreffenden Game unter DX12 läuft".
Mal sehen ob meine Vermutung durch die Links bestätig wird.

Niall
2017-07-05, 09:13:09
Jetzt mal ohne Scheiß, wen interessieren 720p CPU Benches für HEDT Prozessoren? Es gibt wohl nichts, das weiter von der Praxis entfernt sein könnte. Absolute Zeitverschwendung von der PCGH.

Komplette Zustimmung.
Anwendungsperformance, Preis, Leistungsaufnahme, das alles unter Berücksichtigung der Grundplattform (Mainboard/Chipsatz). Punkt.

Dass jeder aktuelle HEDT Prozessor nahezu jedwedes Spiel in "normaler" Auflösung und jedem Setting packen sollte, d.h. nicht limitiert, setze ich doch voraus, oder? :freak: Diese 720p Vergleiche nur um zu sehen wie gut oder schlecht eine Engine auf die jeweilige Plattform optimiert ist, halte ich für völlig albern. :crazy:

Nightspider
2017-07-05, 09:15:10
Jetzt mal ohne Scheiß, wen interessieren 720p CPU Benches für HEDT Prozessoren? Es gibt wohl nichts, das weiter von der Praxis entfernt sein könnte. Absolute Zeitverschwendung von der PCGH.

Hier gibts schon ein paar Gamer die sich ein 8C oder 10C Modell kaufen wollen.

DinosaurusRex
2017-07-05, 09:17:59
Hier gibts schon ein paar Gamer die sich ein 8C oder 10C Modell kaufen wollen.

Dann sei denen gesagt: Es ist scheißegal, welchen ihr nehmt. In praxisrelevanten Auflösungen limitiert sowieso immer die GPU. Skylake-X ist daher eine komplette Geldverschwendung für Gamer.

Cross-Flow
2017-07-05, 09:18:17
Da ich mich für Zen als Spiele CPU entscheiden werde finde ich die 720p Beches sehr sehr wichtig!

Erinnert ihr euch noch hier dran -> https://www.forum-3dcenter.org/vbulletin/archive/index.php/t-471195.html

Phenom 2 gegen i5 750. Damals habt ihr hier schon gesagt das der i5 die bessere CPU ist, obwohl damals in der "gängigen" Auflösung beide die selben FPS rausgerotzt haben.

Keiner kann bestreiten das man 2017 mit einem 750 @ 4 Ghz durchaus noch ordenlich spielen kann, wie es beim Phenom 2 aussieht wisst ihr selbst ...

Die News hier sagen mir eigentlich nur das der 1800X Taktbereinigt Skylake-Desktop in Form des 7700K absolut ebenbürtig ist. Und da ich jetzt neu kaufe kaufe ich mir keine tote Plattform mehr sondern AM4. Da bekomme ich jetzt IPC > Haswell, eine CPU die z.B. einem 7820X das Wasser reicht.

AM4 ist gut so wie er ist, neue CPUs bis 2020+. Und AMD wird wohl kaum die IPC mit Zen+ und Zen2 senken.

CPU Benches in niedriger Auflösung haben ihren Sinn!

Niall
2017-07-05, 09:29:12
Da ich mich für Zen als Spiele CPU entscheiden werde finde ich die 720p Beches sehr sehr wichtig!

Erinnert ihr euch noch hier dran -> https://www.forum-3dcenter.org/vbulletin/archive/index.php/t-471195.html

Phenom 2 gegen i5 750. Damals habt ihr hier schon gesagt das der i5 die bessere CPU ist, obwohl damals in der "gängigen" Auflösung beide die selben FPS rausgerotzt haben.

Keiner kann bestreiten das man 2017 mit einem 750 @ 4 Ghz durchaus noch ordenlich spielen kann, wie es beim Phenom 2 aussieht wisst ihr selbst ...

Die News hier sagen mir eigentlich nur das der 1800X Taktbereinigt Skylake-Desktop in Form des 7700K absolut ebenbürtig ist. Und da ich jetzt neu kaufe kaufe ich mir keine tote Plattform mehr sondern AM4. Da bekomme ich jetzt IPC > Haswell, eine CPU die z.B. einem 7820X das Wasser reicht.

AM4 ist gut so wie er ist, neue CPUs bis 2020+. Und AMD wird wohl kaum die IPC mit Zen+ und Zen2 senken.

CPU Benches in niedriger Auflösung haben ihren Sinn!

Es geht hier aber 1. um HEDT und nicht um die "Consumer" Prozessoren und 2. ist auch bei aktuellen "Consumer" Prozzis die 720p Gamingleistung völlig für den Poppes. :freak:

DinosaurusRex
2017-07-05, 09:31:59
@ Cross-Flow:

Wenn es um Zukunftstauglichkeit geht, ist die Plattform eh viel entscheidender als die CPU. Nehmen wir mal den von dir genannten i5 750 als Beispiel: Die meisten Boards für 1156 hatten nicht mal SATA III und USB 3.0. Diese Features kamen erst später und teuer hinzu. Von daher war es für Early Adopter keine sinnvolle Investition.

Wer einfach nur zocken möchte und aufgrund der Bewegung im CPU-Markt Konsumdruck verpürt, der kauft sich einen R7 1700, übertaktet den auf mindestens 3,7Ghz, erfreut sich an USB 3.1 und M.2 SSDs und genießt seine 16 Threads für 300€. Wofür kauft sich ein Gamer einen Skylake-X? Damit er weiß, dass seine 1.000€ CPU in 720p ein paar Prozent schneller ist als die 300€ CPU? NIEMAND würde einem Gamer zu Skylake-X raten. Ich denke da wird mir hier kein Schwein widersprechen.

sys64738
2017-07-05, 09:32:11
DAFÜR IST DIE CPU ZUKUNFTSFÄHIGER; WENN BALD ZEHN KERN SPIELE UNTERSTÜTZT WERDEN!!!!!111111 :D


Natürlich ist es wichtiger, dass eine CPU (oder auch GPU) nach irgendwelchen esotherischen Kriterien zukunftsfähiger als gegewartstauglich ist. Weil die Gegenwart ist ja quasi Vergangenheit und die Zukunft dadurch früher (und damit sowieso besser). Oder so.
(Ja, ich weiß, das war ironisch gemeint, aber ich wollte das trotzdem mal schreiben. Kann bitte jemand mal "zukunftsfähig" im Kontext mit Hardware endlich zum Unwort des Jahr(e|zehnt|hundert)s wählen?) Danke!)

Cross-Flow
2017-07-05, 09:32:48
Ob HEDT oder nicht ist in dem Fall doch total egal, wüsste auch nicht wo AM4 eine HEDT Plattform ist?!?

HEDT ist eh ne sache für sich. Meiner bescheidenen Meinung nach müsste! die stärkste Plattform auch rundum die stärksten CPUs bieten, nicht mehr und nicht weniger.

Niall
2017-07-05, 09:38:05
Ob HEDT oder nicht ist in dem Fall doch total egal, wüsste auch nicht wo AM4 eine HEDT Plattform ist?!?

HEDT ist eh ne sache für sich. Meiner bescheidenen Meinung nach müsste! die stärkste Plattform auch rundum die stärksten CPUs bieten, nicht mehr und nicht weniger.


Es ging ja auch eher grundsätzlich darum, dass 720p Benches als Richtwert für die CPU Performance völlig bananarama sind. D.Rex hat das schon pointiert zusammengefasst. ;)

Gast Ritis
2017-07-05, 09:51:18
Da ich mich für Zen als Spiele CPU entscheiden werde finde ich die 720p Beches sehr sehr wichtig!
...
Phenom 2 gegen i5 750. Damals habt ihr hier schon gesagt das der i5 die bessere CPU ist, obwohl damals in der "gängigen" Auflösung beide die selben FPS rausgerotzt haben.

Keiner kann bestreiten das man 2017 mit einem 750 @ 4 Ghz durchaus noch ordenlich spielen kann, wie es beim Phenom 2 aussieht wisst ihr selbst ...
...

CPU Benches in niedriger Auflösung haben ihren Sinn!

Wenn man den Phenom genauso 50% übertaktet hätte wäre das im gleichen Massen ordentlich zum spielen gewesen. Dass ist mal eine extrem schiefe Argumentation.

Dass Low-Res Testing völliger Unfug ist wurde in Jahresvergleichen nachgewiesen.

http://youtu.be/gFBKFz9n2hc?list=PLNxrmUjuEWPMD53htI7UwMFKs0JlOURyN

Ist ja auch logisch, weil die Last auf der CPU eine völlig andere ist wenn sich das Verhältnis von Pixel-abhängigem Code zu sonstigem Code massiv verändert, und die Lasten für GPU-Treiber - unter DX11 mit das wichtigste - versucht werden zu minimieren. Die Optimierungen der Zukunft kann man somit auch nicht simulieren.

Alle Vorhersagen ohne die Coder zu fragen ist Scharlatanerie, besonders weil solche selbsternannten Experten die das in ihren Reviews interpretieren überhaupt keine Ahnung vom Coden haben. Das merkt man immer wieder daran, dass Ausreißer nicht gesondert berücksichtigt werden, oder einseitige und Veraltete Auswahl von Games getestet werden.

Lowkey
2017-07-05, 09:52:19
HEDT HEDT HEDT ... ein leerer Begriff.

Jeder User hat ein eigenes Profil und das muss er erst einmal erkennen. Was nützen dir 120% Anwendungsperformance beim Ryzen wenn du nicht täglich Videos encodierst? Was nützen dir 120% Spieleleistung von Kabylake, wenn du Browsergames bevorzugst? Meistens lieft man Reviews auf Basis von Anwendungen und Spielen, die man sowieso nie spielt oder benutzt. Die Diskussion ist also theoretischer Natur. Keine CPU hat eine dicke Schwäche, wenn man die durchschnittlichen Werte nimmt. Doch zur CPU gehört auch das Mainboard. Und hier zeigen sich auch wieder Unterschiede. Und zuletzt kommen wir zum Preis. Und auch hier gibt es wieder maximale Leistung für den höchsten Preis oder den Preisleistungssieger. Man kann gar nicht sagen, dass AMD besser ist als Intel oder Intel besser ist als AMD. Das hängt vom Geldbeutel und dem oben genannten Anwendungsprofil ab. Genauso das Unwort "Zukunftsfähigkeit". Hier gibt es auch Anwendungsprofile: man nehme einen zukunftsfähigen Prozessor, aber ist dermaßen Entusiast, dass man nächstes Jahr sowieso den Nachfolger kaufen würde. Das ist zum Teil wieder ein irrationales Konsumverhalten, was hier im Forum auch mitschwingt.

Nazar
2017-07-05, 10:21:28
So so.. ."echte" Spielebenchmarks... :freak:
bitte alle Spieler mal die Hand hochheben, die sich

1. so einen Prozessor kaufen, um dann

2. mit einer "Auflösung" von 1280 * 720 zu "spielen"?

Die CPU als solche, ist schon längere Zeit als reiner Kommunikationsdienstleister von MB, RAM, Festplatte und GPU degradiert worden.
Die wahre stärke einer CPU, im Bereich der Spiele, ist schon lange nicht mehr durch das simple Reduzieren der "Auflösung" nachweisbar, zumal die Auflösung zum Zocken nun gegen 4K wandert.

Solche "echten" Spiele Tests haben für mich schon den starken Beigeschmack, dass hier kräftig "eingekauft" wurde. Anders kann ich mir solch ein unseriöses Verhalten nicht mehr erklären.
Käufer, die bei weiten nicht so tief in der Materie drinnen sind, werden hier (wissentlich?) "hinters Licht geführt"!
Wieso?

Nazar
2017-07-05, 10:25:16
Dann sei denen gesagt: Es ist scheißegal, welchen ihr nehmt. In praxisrelevanten Auflösungen limitiert sowieso immer die GPU (edit by Nazar: bei entsprechend modernen CPUs ;)). Skylake-X ist daher eine komplette Geldverschwendung für Gamer.

DANKE!

Niall
2017-07-05, 11:16:27
Die CPU als solche, ist schon längere Zeit als reiner Kommunikationsdienstleister von MB, RAM, Festplatte und GPU degradiert worden.

Naja so ist ja auch nicht, eher dass für die allermeisten anfallenden Aufgaben i.d.R. jede etwas potentere, aktuelle CPU für die abrufbare GPU Leistung ausreichend ist um letztere nicht auszubremsen, also nicht limitiert. Zu tun hat eine CPU in Spielen durchaus noch so einiges. ;)

Leonidas
2017-07-05, 12:11:32
Was sollen das für Taktraten sein?


Basetakt, maximaler Turbo, XFR/TC3.0



Leo bitte die Listenpreise in der Tabelle ergänzen.


Gute Idee. Erledigt.

y33H@
2017-07-05, 12:16:03
720p-Werte mit 99th Percentile von allen Core X (außer 7640X):

https://www.golem.de/news/intel-core-i7-7740x-im-test-der-quadcore-den-niemand-braucht-1707-128655-2.html

Dediziertes Review von 7820X und 7800X kommt am Freitag, dann auch mit 6950X und 6900K, mehr Ryzen-Chips plus erneutem IPC-Vergleich.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60473&d=1499022171

Schnoesel
2017-07-05, 12:51:59
Basetakt, maximaler Turbo, XFR/TC3.0

Völlig verwirrend warum 2. den Turbo bei 2 Kernen nennen.

ich würde daher sagen

3.6 GHz --> Basetakt
3.7 GHz --> allcore Turbo
4.0 GHz --> Turbo max 2 Kerne
4.1 GHz --> XFR

Denkt doch sonst jeder dass der R7 1800 einen 4.0 GHz allcore Turbo hat, was er definitiv nicht hat.

Dann sei denen gesagt: Es ist scheißegal, welchen ihr nehmt. In praxisrelevanten Auflösungen limitiert sowieso immer die GPU.

Nein das ist nicht egal siehe:

https://www.computerbase.de/2017-06/4k-gaming-cpu-gpu-benchmark/

Auch da gibt es Unterschiede sowohl was FPS als auch Fremtimes bzw. 99Percentile angeht. Da braucht man doch keine 720p Glaskugeln die nix anderes sind als wie sich die CPU sich in 720p verhält aber weder Rückschlüsse auf die Zukunft noch auf andere Auflösungen zulässt.

y33H@
2017-07-05, 13:23:49
In praxisrelevanten Auflösungen limitiert sowieso immer die GPU.Hmmm ... hier mit GTX 1080 Ti:

https://scr3.golem.de/screenshots/1707/Core-i7-7740X-Test/thumb620/18-watch-dogs-2,-civic-center-savegame-(1440p,-ultra-details,-100-extra-details,-no-ao),-avg-fps-chart.png

https://scr3.golem.de/screenshots/1707/Core-i7-7740X-Test/thumb620/19-watch-dogs-2,-civic-center-savegame-(1440p,-ultra-details,-100-extra-details,-no-ao)-chart.png

https://www.golem.de/news/intel-core-i7-7740x-im-test-der-quadcore-den-niemand-braucht-1707-128655-2.html

Gipsel
2017-07-05, 13:25:09
Basetakt, maximaler Turbo, XFR/TC3.0Die stimmen für den 6950X aber auch nicht in der Tabelle (siehe hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11421292#post11421292)).
Und was Schnösel sagte. Der allcore-Boost ist auch irgendwie wichtig.

maximus_hertus
2017-07-05, 15:25:55
Kannst du mal ein paar Links liefern ? Das finde ich interessant und wusste das bisher nicht.

Spontan würde ich darauf tippen: "...weil nur mit einer nVidia XXX GPU getestet wude und das betreffenden Game unter DX12 läuft".
Mal sehen ob meine Vermutung durch die Links bestätig wird.

Sorry hat etwas gedauert => habe ich schon mal im MAi gepostet: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11376936#post11376936

PCGH 05/2017, Seite 14, Battlefield 1 MP. Fps vom Ryzen 1800X in:

720p - 143,1 fps avg, 128 fps min
1080p - 144,4 fps avg, 128 fps min
1440p - 145,1 fps avg, 133 fps min

Das ganze lief auf einer Titan X Pascal.

Gleiche Grafikkarte bei Computerbase, Watch Dogs 2, 1800X.

720p - 61,9 fps
1080p - 63,9 fps


Das ist jetzt keine Riesensache, aber testet man in 720p wirklich die "echte" CPU-Leistung? Oder eher die Performance des Grafikkartentreibers etc?

FlashBFE
2017-07-05, 17:19:00
Zum Artikel der PCGH: Es gibt viel zu wenige Tests, speziell bei den Spielen, um einen vernünftigen Mittelwert zu bekommen. Ich bin mir außerdem auch nicht sicher, ob 720p noch eine brauchbare Aussage liefert. In alten Spieleengines wurde damit wirklich nur die Auflösung reduziert, was Last von der GPU nahm, aber moderne Engines optimieren auch die Polygonkomplexität und was weiß ich nicht alles, was sich auf die CPU-Leistung auswirkt. Tests der GTX1080Ti auf 1080p finde ich sinnvoller, auch wenn selbst das kaum praxisrelevant ist. Ein statistischer Ansatz ist sinnvoller und verbreitet sich ja auch so langsam.

720p-Werte mit 99th Percentile von allen Core X (außer 7640X):

https://www.golem.de/news/intel-core-i7-7740x-im-test-der-quadcore-den-niemand-braucht-1707-128655-2.html

Kannst du bitte mal kurz erklären, was mit dem "99th Percentile" genau gerechnet wurde? Wenn ich an die normale Definition von Quantilen denke, müssten danach entsprechend 99% der Frametimes in diese Gruppe fallen, aber das passt mit den Ergebnissen nicht überein. Ist nicht eher das erste Perzentil damit gemeint, also die langsamsten 1% der Frametimes?


Und wo wir gerade bei genauen Begrifflichkeiten sind:
Auflösung von 1280x720 (HalfHD) Wird sich hier schon wieder ein neuer Begriff für etwas ausgedacht, wofür es schon genügend bekannte Begriffe gibt wie 720p oder HD720?

Mortalvision
2017-07-05, 18:07:25
One ninetynineth ist "ein neunundneunzigstel" oder anders gesagt: das Prozent der Zeit mit den wenigsten fps aka Ruckler.

IchoTolot
2017-07-05, 20:26:35
Um das deutlich zu machen, sagen mir die Auswertungen von FLAT (http://www.gpureport.cz/Windows/FLAT/flat.aspx)mehr zu weil aussagekräftiger.

Beispiel:
https://lh3.googleusercontent.com/ELyqtl0OiyEPs94L8oKZ6bU2TnGWcKZGMSWreItwDmHmEK4u3J_ykyp9_ltb6RTZQGE5Q4kvxYmn8Kpk 0zE50ciLm51MSrnLHHknqCv-elcgV7XCVWVBhcwlTvcRTSyZS6DIQJuPrfuWP3DmmaIjAztxQLNjnVFqDc5tOvNFsYg-yk9o_3-IzB2YTc6YDoEFKzkLpBLR75gZrXnBTjYoqTcMbtohqyNH51BSEcXlLuMLzDK6DpBCcAE33xh0-RMJYqbAJOaepYPR7CuSp4N1R3J1FjHe0sn_8THEnb6TIm0pJ07-x9_nK60PG3ofQ89S0movqLRA5ZHdr-T8FC4-5vbjqidI42wdLkWrj_HLVwH2ZSWrTR7YkgqF3ablm-wWw22sKQbwuKXMBGFgaAiqoNg1_ZgM67cEcujlBXrP8yl1u5Qu6BCRD_CtDEhiPHWkhzs90jzDo-GL61pTBAf88sdI9KkIS7Vue2MHGH07HLhCmjjn2T47poI6sQ57jU3bZQLxslJ701OAenAWx2jwtLUyhj obTMZI9VJjhNpMUj4qmHTMfbG-rZ5wfF5dtaXg3CUhUH6DIPw1U28znUkefoBosHe-oHfvCh1A8a_VkB4pu29r3yoZgA=w678-h279-no

Daran kann ich zumindest mehr draus lesen als aus einem schnöden 99th Perzentile Diagramm.

Nightspider
2017-07-05, 21:13:44
Dann sei denen gesagt: Es ist scheißegal, welchen ihr nehmt. In praxisrelevanten Auflösungen limitiert sowieso immer die GPU. Skylake-X ist daher eine komplette Geldverschwendung für Gamer.

Nein.

Es gibt immer mal wieder Programme und Spiele die im CPU Limit hängen weil sie nicht alle Kerne nutzen.

Und mit den aktuellen 8 und 10 Kernern hat man immer die maximale Leistung. Egal ob man dutzende Programme parallel verwendet oder ein Spiel zockt welches im CPU Limit hängt.

Zock mal Arma 3 oder den aktuellen Build von Star Citizen, da hängst du immer im CPU Limit.

Wer das Geld hat soll sich ruhig einen 8C oder 10C holen und ihn auf 4,5 bis 4,8Ghz knüppeln. Würde ich auch machen.

Mortalvision
2017-07-05, 21:27:46
Ich jab ja ein Auge auf die neuen CPUs, weil ich gerne Strategie und Simulationen aller Art zocke...

Gast
2017-07-05, 21:58:50
Jetzt mal ohne Scheiß, wen interessieren 720p CPU Benches für HEDT Prozessoren? Es gibt wohl nichts, das weiter von der Praxis entfernt sein könnte. Absolute Zeitverschwendung von der PCGH.

Dass es soviele Nutzer gibt die das nach all den Jahren immernoch nicht verstanden haben. Zum Mäusemelken.

Schaffe89
2017-07-05, 22:02:26
Dann sei denen gesagt: Es ist scheißegal, welchen ihr nehmt. In praxisrelevanten Auflösungen limitiert sowieso immer die GPU. Skylake-X ist daher eine komplette Geldverschwendung für Gamer.

Furchtbar immer wieder diesen Müll zu lesen, nach Jahren habt ihrs immernoch nicht kapiert dass man Prozessoren in Spielen möglichst unter Ausschluss der Grafikkarte testet, ansonsten brauch ich überhaupt nicht anfangen zu benchmarken wenn die Balken dann immer gleichlang sind.

Wenn ich die Auflösung massiv erhöhe, dann muss ich gleichzeitig auch Stellen suchen die massiv CPU limitiert sind.
Dass in praxisnahen Auflösungen mein Ryzen 1600 @ 3,7ghz öfters meine GTX 1080 limitiert ist halt so, aber wie willst du bitte die Prozessoren untereinander vergleichen, wenn sie nicht belastet werden.

Dann lieber gleich keine Spiele testen, wenn man keine Ahnung hat wie mans tun sollte.

Bis heute konnte mir noch niemand erklären, warum es mehrere Benchmarks gibt (Spiele), die auf dem Ryzen in 1080p MEHR(!) fps liefern als in 720p.

Das ist dann der Fall wenn in 720p und auch in 1080p ein vollständiges CPU Limit vorherrscht, dann können die Werte untersch. sein.
Sind ja keine integrierten Benchmarks auf den Webseiten.
Aber da ich sowieso meistens immer fast alle Reviews lese egal ob englisch, deutsch oder französisch oder spanisch kannst ich dir sagen, dass sowas sogut wie nie vorkommt.

BlacKi
2017-07-05, 22:12:06
Wenn ich die Auflösung massiv erhöhe, dann muss ich gleichzeitig auch Stellen suchen die massiv CPU limitiert sind.

Dann lieber gleich keine Spiele testen, wenn man keine Ahnung hat wie mans tun sollte.
bingo, was helfen einem AVG 12% differenz wenn es in den extremen situationen 30% und mehr sind. man muss die cpu limitierenden szenen benchen. oder einfach nur als text dazu schreiben das die cpu nicht limitiert, komplett ohne diagramm, das sagt dann genauso viel aus, wie benchmarks im gpu limit.

Complicated
2017-07-05, 23:04:28
Furchtbar immer wieder diesen Müll zu lesen, nach Jahren habt ihrs immernoch nicht kapiert dass man Prozessoren in Spielen möglichst unter Ausschluss der Grafikkarte testet, ansonsten brauch ich überhaupt nicht anfangen zu benchmarken wenn die Balken dann immer gleichlang sind.
Und das ist das Problem mit Leuten wie dir. Das reduzieren der Auflösung schließt eben nicht die GPU aus. Es reduziert einfach nur die Auflösung und die GPU macht nach wie vor die Hauptarbeit. Zusammen mit dem GPU-Treiber und der GPU-API.

Wer die CPU unter Ausschluß der GPU testen will muss eben Software nehmen die keine GPU benötigt und vor allem auch nicht für GPU programmiert ist. Das sind keine Spiele. Wer Spiele testet, der kann dann nicht behaupten er habe die CPU getestet. Wer Spiele testen will muss eben auch die Hardware dafür nutzen für welche die Spiele zu 90% programmiert sind: GPU.

Und nur weil man unterschiedliche Balkenlängen in Spielen produzieren kann, ist das noch lange kein vernünftiger Test. Wer wissen will welche CPU am besten für sein Spiele geeignet ist, der liest keinen CPU Test. Der liest einen Spieletest.

Denniss
2017-07-06, 00:36:40
Du hast es auch nicht kapiert - in niedriger Auflösung produziert die Grafikkarte eine wesentlich höhere Bildfolge so das auch die CPU die Daten viel schneller mit aufbereiten muss.
Man muss natürlich dafür sorgen das die Grafikkarte gut ausgelastet ist aber möglichst mit Aufgaben die eine Zuarbeit der CPU benötigt, AA auf höchster Stufe dürfte da eher kontraproduktiv sein genauso wie Texturen mit maximaler qualität die dann die Grafikspeicher zumüllen.

maximus_hertus
2017-07-06, 00:56:03
Die Idee hinter den 720p Tests sind ja gut und sinnvoll, zumindest auf den ersten Blick. Jedoch sagen sie nur bedingt etwas aus. Spiele bzw. Engines verändern sich, gerade mit den schnelleren Konsolengenerationen.

Vielleicht erinnert man sich an den FX-8350 Launch. Gegenüber dem i5 2500 sah man in 720p Tests quasi kein Land. Der FX wurde regelrecht deklassiert (afair mit rund 40+%). 2017 ist der FX nicht mehr die deklassierte CPU, sondern eher im Gegenteil, der i5 wird in Sachen Frametimes dann und wann deutlich geschlagen.

Die "CPU-Limits" in 720p gelten also nur für die getestete Engine / Spiel, nicht für die Spiele / Engineupdates, die in Zukunft kommen. Das wird oftmal leider in einem Topf geworfen.

By the way: 720p ist auch quasi GPU-Limit, jedoch eher von Softwareseite. Selbst in vermeintlichen CPU-Limits.

Complicated
2017-07-06, 01:01:57
Du hast es auch nicht kapiert - in niedriger Auflösung produziert die Grafikkarte eine wesentlich höhere Bildfolge so das auch die CPU die Daten viel schneller mit aufbereiten muss.
Das einzige was hier bei dir nicht ankommt, ist dass die Bildfolge zwar höher wird, doch das ganze eben nicht skaliert damit man damit die CPU Differenzen in vergleichbare Charts packen kann. API und Treiber haben hier einen größeren Einfluß als die CPU. Daher ist es nicht geeignet die CPU zu vermessen auf diese Weise, auch wenn ETWAS gemessen werden kann.

Die Dinge sind komplexer als einem diese 720p Tests und Balken suggerieren. Und daher sind diese Tests für die Tonne und Muster ohne Wert. Schlangenöl.

Schaffe89
2017-07-06, 03:05:05
Und das ist das Problem mit Leuten wie dir. Das reduzieren der Auflösung schließt eben nicht die GPU aus. Es reduziert einfach nur die Auflösung und die GPU macht nach wie vor die Hauptarbeit.

Dann würd ich dir mal empfehlen auf die Auslastung mitels Taskmanager zu schauen, was da dann die Hauptarbeit macht.
Tipp: Sicher nicht die GPU.
Und natürlich wird die GPU nicht ausgeschlossen,dann müsstest du die schon ausbauen.:biggrin:

Auf den Rest des Unsinns muss man nicht weiter eingehen.
Das ist wie tausend mal schon festgestellt nur eine Ausrede weil AMD in Spielen halt langsamer rechnet als Intel.

Die Idee hinter den 720p Tests sind ja gut und sinnvoll, zumindest auf den ersten Blick. Jedoch sagen sie nur bedingt etwas aus.

Nein, die sagen dir wie schnell dein Prozessor rechnet, in höheren Auflösungen siehst du das meistens nicht, weil die Grafikkarte mit reinspielt.

Spiele bzw. Engines verändern sich, gerade mit den schnelleren Konsolengenerationen.

Die Veränderungen willst du im Grafiklimit genau wie erkennen können?:rolleyes:

Vielleicht erinnert man sich an den FX-8350 Launch. Gegenüber dem i5 2500 sah man in 720p Tests quasi kein Land.

Als ob es etwas mit der Auflösung in der man testet zu tun hat, wenn nach 5 Jahren neue Spiele mehr Threads supporten können.:confused:

Der FX wurde regelrecht deklassiert (afair mit rund 40+%).

Du meinst den FX8150 womöglich, der FX 8350 war nicht mehr so weit weg, auch damals nicht.

2017 ist der FX nicht mehr die deklassierte CPU, sondern eher im Gegenteil, der i5 wird in Sachen Frametimes dann und wann deutlich geschlagen.


Wo siehst du da einen Zusammenhang mit der Auflösung in der getestet wird?
Die spielt doch für die CPU bei gleichem Seitenverhältnis gar keine Rolle?!

Die "CPU-Limits" in 720p gelten also nur für die getestete Engine / Spiel, nicht für die Spiele / Engineupdates, die in Zukunft kommen.

Und deswegen soll man in 1080p testen? In 1080p sehe ich ja unter Umständen dann gar keine Differenzen der neune Engine oder Updates die die CPU entlasten.

Das wird oftmal leider in einem Topf geworfen.

Eigentlich nicht. Aber es sollte einem doch einleuchten dass in Zukunft mehr Cores unterstützt werden, da holen alle Prozessoren mit mehr Threads halt auf, das ist nun nix ungewöhnliches.

By the way: 720p ist auch quasi GPU-Limit, jedoch eher von Softwareseite. Selbst in vermeintlichen CPU-Limits.

Die Schlacht der Wortklauberei hat erneut begonnen, da ist es Zeit abzuschalten.
Es sollte doch langsam jeder wissen was damit nun gemeint ist.

Das einzige was hier bei dir nicht ankommt, ist dass die Bildfolge zwar höher wird, doch das ganze eben nicht skaliert damit man damit die CPU Differenzen in vergleichbare Charts packen kann.

Deswegen gibts ja so interessante Skalierungstests in der PCGH die dein Gewäsch widerlegen.

API und Treiber haben hier einen größeren Einfluß als die CPU.

Deswegen nimmt man für CPU Tests eine starke Grafikkarte innerhalb der gleichen API und mit gleichem Treiber.:eek:
Und dann kann man gerne noch eine GPU vom anderen Hersteller nehmen um zu sehen wer den größeren Treiberoverhead produziert und die CPU bremst, was meistens der olle AMD Directx11 Treiber ist.

Ich freu mich wenn der Tag kommt und AMD´s Prozessoren langsam schneller als die Intel Derivate werden, dann wirst du auch noch zu Kreuze kriechen.
Bin gespannt was es dann für eine verschwurbelte Ausrede wieder sein wird.

Du kannst für dich privat sehr gerne diese Tests durchführen, aber ich hätte gerne ordentliche Tests.
Die gibts zum Glück bei der PCGH. Hardwareluxx, Toms Hardware ist reiner Unfug und ich hoffe nicht dass deine Forderungen irgendwo Anklang finden.

Leonidas
2017-07-06, 07:29:16
Die stimmen für den 6950X aber auch nicht in der Tabelle (siehe hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11421292#post11421292)).
Und was Schnösel sagte. Der allcore-Boost ist auch irgendwie wichtig.


Ja, 6950X war falsch, ist korrigiert.

Ich hab es dann generell auf die üblichen 2 Angaben korrigiert. Das mit dem Allcore-Boost etc. ist alles korrekt und sogar besser - aber es wäre verwirrend für diejenigen, welche nicht wissen, wie die Angaben gemeint sind.




Um das deutlich zu machen, sagen mir die Auswertungen von FLAT (http://www.gpureport.cz/Windows/FLAT/flat.aspx)mehr zu weil aussagekräftiger.

Beispiel:
https://lh3.googleusercontent.com/ELyqtl0OiyEPs94L8oKZ6bU2TnGWcKZGMSWreItwDmHmEK4u3J_ykyp9_ltb6RTZQGE5Q4kvxYmn8Kpk 0zE50ciLm51MSrnLHHknqCv-elcgV7XCVWVBhcwlTvcRTSyZS6DIQJuPrfuWP3DmmaIjAztxQLNjnVFqDc5tOvNFsYg-yk9o_3-IzB2YTc6YDoEFKzkLpBLR75gZrXnBTjYoqTcMbtohqyNH51BSEcXlLuMLzDK6DpBCcAE33xh0-RMJYqbAJOaepYPR7CuSp4N1R3J1FjHe0sn_8THEnb6TIm0pJ07-x9_nK60PG3ofQ89S0movqLRA5ZHdr-T8FC4-5vbjqidI42wdLkWrj_HLVwH2ZSWrTR7YkgqF3ablm-wWw22sKQbwuKXMBGFgaAiqoNg1_ZgM67cEcujlBXrP8yl1u5Qu6BCRD_CtDEhiPHWkhzs90jzDo-GL61pTBAf88sdI9KkIS7Vue2MHGH07HLhCmjjn2T47poI6sQ57jU3bZQLxslJ701OAenAWx2jwtLUyhj obTMZI9VJjhNpMUj4qmHTMfbG-rZ5wfF5dtaXg3CUhUH6DIPw1U28znUkefoBosHe-oHfvCh1A8a_VkB4pu29r3yoZgA=w678-h279-no

Daran kann ich zumindest mehr draus lesen als aus einem schnöden 99th Perzentile Diagramm.


Herzerfrischend schön.

FlashBFE
2017-07-06, 09:01:07
One ninetynineth ist "ein neunundneunzigstel" oder anders gesagt: das Prozent der Zeit mit den wenigsten fps aka Ruckler.
Nein, 99th ist "das neunundneunzigste". 1/99 entspricht sowieso nicht 1%, 1/100 entspricht 1% und wäre (in deutsch) das erste Perzentil. Die Bezeichnung "99th percentile" ist auch laut englischer Wikipedia ("The 99th percentile in a normal distribution is 2.3263 standard deviations above the mean") das gleiche wie im Deutschen, also die unteren 99% einer Verteilung bzw. die Grenze zum obersten 1%.

Ich glaube die Bezeichnung ist einfach falsch und wenn schon Statistik zur Auswertung benutzt wird (was gut ist), dann sollte das wenigstens Hand und Fuß haben.

Edit: Die Bezeichnung ist genau dann richtig, wenn man die Frametimes angibt wie Computerbase. Das 99. Perzentil (also das oberste Perzentil) entspricht da den längsten Frametimes. Wenn man das Reziprok angibt, also FPS wie bei Golem, wäre erstes Perzentil richtig.

maximus_hertus
2017-07-06, 10:09:51
Nein, die sagen dir wie schnell dein Prozessor rechnet, in höheren Auflösungen siehst du das meistens nicht, weil die Grafikkarte mit reinspielt.

In der Theorie: ja! In der Praxis: nein ;)



Die Veränderungen willst du im Grafiklimit genau wie erkennen können?:rolleyes:

Habe ich das behauptet? Nope - 4K Benchmarks sind da gewiss nicht zielführend.




Als ob es etwas mit der Auflösung in der man testet zu tun hat, wenn nach 5 Jahren neue Spiele mehr Threads supporten können.:confused:

Bitte den Zusammenhang verstehen. Dann posten. Die 720p Tests werden gerne genommen, um die "wahre" CPU-Leistung zu messen und um die "Zukunftsfähigkeit" darzustellen. Wenn eine CPU in 720p weit vorne ist, wird sie ja länger "halten", right? Das ist eben NICHT der Fall, da neuere Engines / Spiele ganz andere Schwerpunkte setzen und die Hardware unterschiedlich auslasten (können).




Du meinst den FX8150 womöglich, der FX 8350 war nicht mehr so weit weg, auch damals nicht.

Ich meine es waren in einigen Testst rund 40%. Sei es im Schnitt nur 25-30%, whatever, es ist dennoch mehr als bemerkenswert, dass man diese nicht nur aufgeholt, sondern den i5 im Schnitt sogar überholt hat. Gemäß den 720p Testst war das nicht zu erwarten.




Wo siehst du da einen Zusammenhang mit der Auflösung in der getestet wird?
Die spielt doch für die CPU bei gleichem Seitenverhältnis gar keine Rolle?!

Siehe oben - 720p = "wahre" CPU-Leistung = Zukunftsfähigkeit. So der allgemeine Tenor.




Und deswegen soll man in 1080p testen? In 1080p sehe ich ja unter Umständen dann gar keine Differenzen der neune Engine oder Updates die die CPU entlasten.

Beispiel Battlefield 1, 64 Spieler: Der FX ist dort die besere CPU im Vergleich zum "Consumer" i5/i7. Beim vorherigen Battlefield war das aber überhaupt nicht absehbar. Egal ob 4K, 1080p, 720p, 360p, welche Auflösung auch immer. Angenommen es gibt nächstes Jahr ein neues Battlefield, dann kann man mithilfe der BF1 Benches NICHTS über das "Next"BF aussagen. Eine CPU, die in BF1 in 720p dominiert, wird dies beim NextBF nicht zwangsläufig tun. Eine CPU, die jetzt hinten liegt, kann dann (auch in 720p) vorne liegen.



Eigentlich nicht. Aber es sollte einem doch einleuchten dass in Zukunft mehr Cores unterstützt werden, da holen alle Prozessoren mit mehr Threads halt auf, das ist nun nix ungewöhnliches

Ist das so? Bisher war es eher eine gute Vermutung, aber bei Intel ist ja der L3 Cache mit steigender Corezahl mit angestiegen. Spiele lieben einfach einen größeren L3 Cache. Die Spieleschwäche von Skylake X (miese IPC, Stromhunger, Hitze) spricht ja auch dafür. Der kleinere L3 Cache tut mehr weh als das der Mehrtakt hilft.
Da die Konsolen bei 8 Cores (aktuell) stagnieren dürfte das auch die Anzahl sein, für die "optimiert" wird.




Die Schlacht der Wortklauberei hat erneut begonnen, da ist es Zeit abzuschalten.
Es sollte doch langsam jeder wissen was damit nun gemeint ist.

Die einen möchten unregelmäßigkeiten auf den Grund gehen, die anderen (unintressierten schalten lieber ab, da ihr Weltbild damit nicht klar kommen könnte. Ich sage nur 720p DX11 vs DX12. Spätestens da sollte man berücksichtigen, dass der Grafikkartentreiber / die API / etc. eine große Rolle spielen, selbst im sogenannten 100% CPU-Limit.
Aber es ist wohl für alle beser wenn du abschaltest ;)



Deswegen gibts ja so interessante Skalierungstests in der PCGH die dein Gewäsch widerlegen.


Mein Link von gestern bzw. Quote zeigt doch das Gegenteil....

y33H@
2017-07-06, 12:01:31
Siehe oben - 720p = "wahre" CPU-Leistung = ZukunftsfähigkeitSo ist's korrekt.

Complicated
2017-07-06, 12:53:04
So ist's korrekt.
Du meinst so wird es von den Spieletestern behauptet - korrekt wird es dadurch nicht.
Schaut man sich die Rangfolge bei CPU-Hardwaretests an so weicht die von diesen Low-Res Tests oft ab. Es gibt auch keinerlei andere Tests, abseits von Spielen, welche eine ähnliche Rangliste ergeben wie das hier manche Spieletester verkünden. Ein echter Journalist hätte hier schon längst mal die Gegenprobe gemacht und auch Tests der letzten Jahre mal wieder angeschaut - das Ergebnis ist sehr ernüchternd und wird nur allzu gerne mit einem PAL-Feld (https://de.wikipedia.org/wiki/Hintergr%C3%BCnde_zu_Per_Anhalter_durch_die_Galaxis#Problem-anderer-Leute-Feld) belegt. Wer widerlegt schon gerne seine eigene Arbeit von vor 3 Jahren als falsch und irreführend.

IchoTolot
2017-07-06, 12:58:17
Ich verstehe was du meinst. Wie Volker Pispers sinngemäß sagt: Statistiken sagen wie die Welt sein wird, wenn alles so bleibt wie es ist. :D (APIs & Treiber).

y33H@
2017-07-06, 13:24:04
Andere Software, andere Ergebnisse. Die CPU-Performance gilt für die jeweils getesteten Spiele und auch nur für diese. Das sollte jeder begreifen.

maximus_hertus
2017-07-06, 14:06:16
Im Prinzip sind es ja mehrere Punkte, die "problematisch" sind (zufällige Reihenfolge):

1. Ein Leser will eine möglichst klare Zahl / Ergebnis / Balken. Darauf will man dann jetzige und zukünftige Leistung ablesen können. Dummerweise ist das eine ziemlich komplexe Angelegenheit mit vielen Fallstricken. Im Prinzip ist es unmöglich dem "einfachen" Wunsch gerecht zu werden.

2. "Open" Computer. Die CPU ist nur eine Komponente in einem "offenen" System. Betriebssystem, Programme, Spiele, APIs, Game Engines, Treiber, etc. sorgen für einen komplexen Testaufbau. Alleine die (tendenzielle) DX12 Schwäche der GeForce Karten mit Ryzen Systemen zeigt es deutlich.

3. AVG fps sind nicht "echte"/"gefühlte" fps. Im Prinzip sind die Frametimes der wichtigste Faktor bzgl. der Gaming Performance. Leider gibt es nur relativ wenige Tests die das berücksichtigen (Ausnahmen sind z.B. Golem, Computerbase, PCGH). IMO kann man die klassischen avg Balken komplett entfernen und durch Frametime Messungen ersetzen.

4. Leider wird häufig der Plattformpreis vergessen. Der reine CPU-Preisvergleich ist ja schön und gut, aber wenn bei CPU A das Board prinzipiell rund 150-200 Euro teurer ist (bei gleicher / ähnlicher Ausstattung), dann ist das etwas, was beim Preisvergleich immer berücksichtigt werden sollte. Zusätzlich sind z.B. die Ryzen box Kühler richtig gut und man benötigt keinen weiteren Kühler (im Gegensatz zu den großen X Ryzen bzw. Intel K).

Edit:
Z.B. könnte man einen Durchschnittspreis bilden. Nehmen wir den Ryzen 7 1700. Günstigstes Board liegt bei knapp 60 Euro, Mittelklasse B350 Boards bei rund 90 Euro, Oberklasse X370 bei rund 150 Euro, Enthusiasten OC Boards bei rund 260 Euro. Macht rund 140 Euro im Schnitt. Kühler ist vorhanden - macht also einen Durchschnittspreis von rund 450 Euro für CPU, Board, Standard Kühler. Diesen Preis würde imo besser in einem Preisvergleich passen.

Alternativ auch sowas: CPU ca. 310 Euro, mit Mainboard ab ca. 370 Euro.

DinosaurusRex
2017-07-06, 14:10:51
Andere Software, andere Ergebnisse. Die CPU-Performance gilt für die jeweils getesteten Spiele und auch nur für diese. Das sollte jeder begreifen.

Dementsprechend unsinnig sind sie. Wie bereits mehrfach angesprochen, wird dabei vielmehr die Engine getestet als der Prozessor. Es ist dämlicher Scheiß, um es mal deutlich auf Deutsch zu sagen.

Wem willst du denn helfen? Dem Leser oder Intel? Ein 720p CPU Test nützt dem Leser in der Praxis genau Nullkommanull.

y33H@
2017-07-06, 14:23:48
Innerhalb der gegebenen Software zeigen sich große Unterschiede zwischen den einzelnen CPUs. Das ist für Leser bzw Käufer relevant.

DinosaurusRex
2017-07-06, 14:27:51
Solche Unterschiede zeigen sich sogar innerhalb eines geschlossenen Systems, bspw der PS4. Man vergleiche nur mal Witcher 3 mit Horizon. Beides Open World, aber letzteres sieht deutlich besser aus und hat darüber hinaus auch eine wesentlich bessere Performance. Andere Herangehensweisen resultieren in unterschiedlichen Ergebnissen.

Gerade in Zeiten, in denen Devs auf dem PC langsam auf low-level Optimierungen umsteigen, ist ein 720p CPU Bench nicht nur anachronistisch, sondern einfach nur dumm. Mit DX9, wo jede Engine gleich beschissen läuft, da ist das kein Problem.

Complicated
2017-07-06, 14:29:27
Wer nutzt Spiele in 720p?
Irrelevanter gehts ja gar nicht mehr. Aber immer jammern es wäre keine Zeit für Tests.
Es lässt sich einfach nichts daraus ableiten und genutzt wird es von niemanden. Das ist die Definition von irrelevant.

DinosaurusRex
2017-07-06, 14:43:52
Jetzt mal ganz ehrlich, X299 ist die beschissenste Plattform, die Intel seit der Netburst-Architektur auf den Markt gebracht hat. Gleichzeitig ist der Ryzen 1700 der beste Gaming-Prozessor seit dem Core 2 Duo E6300. Das Preis-Leistungs-Verhältnis ist einfach der Hammer. Da fragt man sich doch echt, warum einige Redaktionen so lange nach Szenarien fahnden, bis sie die Skylake-X CPUs besser dastehen lassen können?

Aber jeder, der schonmal in der PR gearbeitet hat, weiß, dass "Journalisten" nur eine Zwischenzielgruppe sind.

y33H@
2017-07-06, 14:45:24
Ihr wollt es nicht verstehen und seid obendrein beide pro AMD bzw contra Intel =)

Ein Test mit 720p, einem GPU-limitierteren Setting wie 1440p und davon Avg- plus Percentile-Werte sowie Frametimes liefern einen sehr guten Überblick. Nur 1440p alleine jedoch verschleiert Unterschiede, was nicht im Sinne des Lesers/Käufers ist.

Complicated
2017-07-06, 14:54:45
Also nur weil du falsch liegst mit deinen Ausführungen, ist es ein Verständnissproblem bei uns. Soso.
Das beste daran ist vor allem, dass es überhaupt keinen Unterschied macht ob Pro AMD oder Intel - wir reden hier doch von Intel vs. Intel vergleichen (Ich zumindest)
Aber das ist ja bequem daraus dann eine Fanboy-Affäre zu machen - am Thema vorbei würde ich sagen. Vor allem weil wir auch nicht "zwei" sind - zählen muss man wohl nicht können beim Benchmarken.

Das mit dem Überblick ist doch völliger Humbug - deshalb sind diese Tests auch kein Abo oder Geld wert. Deshalb habe ich auch keinen Nerv dafür mir das gejammere über schwierige Umstände der Redaktionen anzuhören, weil ihr sowieso nur Unfug produziert der bei der Kaufentscheidung irrelevant ist.

Ich schrieb es kürzlich mal bezogen auf CBs "keine Empfehlung diesen Monate, wartet auf den nächsten" - so macht man sich selber irrelevant. Kein Einsehen, von oben herab und dann auch noch technische Kenntnisse die gerade mal als Oberflächlich einzustufen sind. Wer 15 CPUs ausbauen und wieder einbauen kann nach den 5 Mausklicks zum starten der Software, kann noch lange nicht von sich selbst als Experte reden.

Was aber sehr aufgefallen ist in dieser Diskussion ist deine Schleichwerbung für den irrelevanten Test den du hier verteidigst. Armselig und auch kein gutes Aushängeschild für deinen Arbeitgeber. Reichen die Verlinkungen von Leonidas in den entsprechenden Bereichen nicht mehr aus?

y33H@
2017-07-06, 14:59:26
Unfug ist das was du in einem Teil deiner Posts von dir gibst, weshalb ich es bereits nach kurzer Zeit wieder Leid bin mit dir zu diskutieren. Du weißt nicht wie aufwendig es ist CPUs und GPUs zu testen, du beurteilst Ausführungen anderer als Verständnisproblem statt auch deine eigene Position zu hinterfragen und sprichst erfahrenen Leuten jegliche Kompetenz ab. Nö, so nicht.

Complicated
2017-07-06, 15:00:58
Dann testet es doch mit den richtigen Settings wie hier schon mehrfach gesagt - hör auf zu jammern dass du etwas arbeiten musst auf der Arbeit. Das muss ich auch.

Deine Erfahrungen sind noch lange keine Kompetenz. Du hast nicht mal die Fähigkeit zu verstehen was eine API oder ein Treiber tatsächlich macht. Sobald ihr Redakteure etwas gefunden habt das man in einen Chart pressen kann ist das für euch über Jahre hinweg der heilige Gral den ihr hier, wie du eben demonstrierst, auch noch mit Zähnen und Klauen verteidigt, selbst wenn schon der nächste Nachtest mit anderen Versionen euch selber das Gegenteil beweist. Hier werden faszinierende Methoden angewendet um ja nicht die direkte Vergleichbarkeit zu ermöglichen und den Humbug in einem Chart zu entlarven.

Spätestens mit den ersten Mantle-Tests haben die kompetenten Redakteure aufgehört solche "CPU-Limits" zu erzeugen. Alle die das heute noch machen haben keine Kompetenz. Denn deutlicher kann man den Unfug ja gar nicht zeigen.

y33H@
2017-07-06, 15:05:54
720p ist ein richtiges Setting.

Davon ab jammere ich nirgends, dass ich arbeiten muss - lass die Unterstellungen! Reviews sind aufwendig, ich teste mehrere Auflösungen und werte Fps sowie Frametimes aus. Neben einer Vielzahl anderer Werte versteht sich, Linux wie Windows.

Complicated
2017-07-06, 15:09:08
720p ist ein Setting ohne Aussagekraft. Wer Kompetent ist weis das.
Niemand spielt in den Settings und sie sind auf nichts übertragbar wie du selber eingeräumt hast. Was willst du denn noch für Beweise?
Du weißt nicht wie aufwendig es ist CPUs und GPUs zu testen,
Na wenn das kein jammern ist weis ich auch nicht.
Abgesehen davon, dass ich dies sehr gut weis. Doch ich spar mir auch die unnötigen Tests.

y33H@
2017-07-06, 15:16:52
720p zeigt Unterschiede zwischen den CPUs, aber ich wiederhole mich. Die Aussage zur Aufwendigkeit ist kein Jammern sondern Fakt, deshalb wird ja idR 1440p weggelassen, weil es relativ unnötig ist. Aber einige Leser wünschen es, daher komme ich dem nach, Einordnung unter Erwähnung des GPUs-Limits inklusive.

Complicated
2017-07-06, 15:19:34
Ja es zeigt Unterschiede - nur keine die Relevant sind für irgendeine Kaufentscheidung.
Das solltet ihr bei den Tests schreiben und nicht so tun als habt ihr da etwas sinnvolles vermessen und in Balken gestopft.

y33H@
2017-07-06, 15:23:13
Es zeigt u.a. auf, ob eine CPU den Aufpreis wert ist, wenn die Grafikkarte aufgerüstet wird. Oder ob zwei ähnlich teure Chips im gleichen Titel massiv unterschiedlich abschneiden.

Das weißt du aber, weswegen es müßig ist, es dir wieder und wieder aufzuschreiben. Bis zum nächsten Mal :wave2:

Complicated
2017-07-06, 15:38:08
Nein das zeigt es eben nicht. Das zeigen Tests in Auflösungen in denen auch gespielt wird. Mit 720p entsteht keine zusätzliche Information die nicht schon in 1080p und 4K vorhanden wären zur Kaufberatung. Du selber hast das geschrieben hier im Thread.

y33H@
2017-07-06, 15:51:33
Wo habe ich das? Link bitte.

BlacKi
2017-07-06, 16:18:23
Nein das zeigt es eben nicht. Das zeigen Tests in Auflösungen in denen auch gespielt wird. Mit 720p entsteht keine zusätzliche Information die nicht schon in 1080p und 4K vorhanden wären zur Kaufberatung.
720p lässt eine genauere einordnung zu wieviel fps die cpu imstande ist zu generieren. sagt mir ein 1440p bench ob ich 144fps/240fps erreichen kann? natürlich sind solche benchmarks legitim, erstens für leute die solche displays haben und zweitens schadet es nicht den leuten die höher aufgelöste monitore haben, da sie dementsprechend mehr reserven haben.

das passt den geblendeten fanbois natürlicht nicht, und wettern natürlich dagegen, das erträgt ihr ego einfach nicht.

Mortalvision
2017-07-06, 16:26:43
Und dann sollte man ja noch berücksichtigen dass bei 4k nicht nur die gpu am ende ist, sondern auch die cpu viel mehr daten berechnen muss, um die gpu zu füttern. Nur das Verhältnis ist gefühlt 1CPU zu 4 GPU Last.

Complicated
2017-07-06, 16:32:27
Was hat das mit fanbois zu tun wenn zwei Intel CPUs verglichen werden - schon wieder am Thema vorbei. Und 720p lässt eine solche Einordnung eben nicht zu. Daraus kann man nicht ablesen wie viel fps die CPU kann. Das hat die Einführung von Mantle bewiesen, wo die selben CPUs plötzlich deutlich mehr FPS konnten. Man muss auch mal erkennen wann Mist vermessen wird.

@y33H
Du schreibst hier in diesem Thread, dass die Werte nur für diese Auflösung und für dieses Spiel in diesem speziell getesteten Szenario gelten. Deine Worte, soll ich sie zitieren?
Andere Software, andere Ergebnisse. Die CPU-Performance gilt für die jeweils getesteten Spiele und auch nur für diese. Das sollte jeder begreifen.
Da die Werte, nach deiner eigenen Aussage, nicht auf andere Software übertragbar sind, sind sie als Kaufberatung wertlos. Die getesteten Spiele spielt wiederum niemand in 720p und daher gibt es auch keine Aussage zu der getesteten Software, da sie in diesen Settings überhaupt nicht genutzt wird. Das doppel-Minus ergibt in diesem Fall einfach kein Plus, egal wie man es (du dich) dreht und wendet.

BlacKi
2017-07-06, 16:42:55
Was hat das mit fanbois zu tun wenn zwei Intel CPUs verglichen werden - schon wieder am Thema vorbei. Und 720p lässt eine solche Einordnung eben nicht zu. Daraus kann man nicht ablesen wie viel fps die CPU kann. Das hat die Einführung von Mantle bewiesen, wo die selben CPUs plötzlich deutlich mehr FPS konnten. Man muss auch mal erkennen wann Mist vermessen wird.
du kannst definitiv besser an 720p einordnen wieviel fps die cpu kann, als an höheren auflösungen, ich verstehe gerade nicht warum du das nicht verstehst. erkläre mir mal bitte warum das nicht so sein soll.

Leonidas
2017-07-06, 16:45:43
720p ist ein Setting ohne Aussagekraft. Wer Kompetent ist weis das.


Meines Erachtens nach ein Exemplarposting dafür, wie man nicht diskutiert.

Satz 1 ist eine diskutierende Aussage. Man kann dem zustimmen, man kann nicht - in jedem Fall verneint es nicht die Diskussion an sich.

Satz 2 greift hingegen andere Meinungen an (geht noch halbwegs) - und wertet sie aber in einen nicht mehr feinen Bereich ab. Hier liegt kein sinnvoller Diskussionsbeitrag vor, sondern es wird schon die jeweils andere Person auf persönlicher Ebene angegangen (egal ob es vielleicht gar nicht so gewollt war).

An dem Unterschied zwischen beiden Sätzen darf gern geübt werden, wie guter Diskussionsstil aussieht.

y33H@
2017-07-06, 16:59:28
Du schreibst hier in diesem Thread, dass die Werte nur für diese Auflösung und für dieses Spiel in diesem speziell getesteten Szenario gelten. Deine Worte, soll ich sie zitieren?Ich erwähnte nicht die Auflösung und sagte auch nicht, dass 720p keine zusätzlichen Informationen liefert - im Gegenteil. Ich sagte nur, die Werte gelten bei gegebener Software. Optimierungen bei API, Engine, Treiber können dies freilich ändern, darauf haben Nutzer aber keinen Einfluss.

Complicated
2017-07-06, 17:09:32
@Blacki
Das würde ja heissen es gäbe CPUs die ein Hardware-Limit bei den möglichen FPS haben. Das gibt es aber nicht, denn die Software bestimmt wie viele FPS eine CPU liefert. Hat ein Frame 1 Pixel Inhalt wird die CPU deutlich mehr davon liefern als mit 2 Pixel Inhalt. 720p zeigt NICHT wieviel FPS eine CPU schafft. Das wird dadurch klar dass die selbe CPU unter 720p mit DX11/DX12/Mantle/Vulkan unterschiedliche FPS schafft - würde das stimmen was du sagst, müssten unter allen 4 APIs die selben FPS raus kommen - dem ist nicht so.

@Leonidas
Warum sollte es schlechter Stil sein jemandem fehlende Kompetenz zu bescheinigen?
Weder ist das eine persönliche Ebene noch ist das eine Beleidigung. Kompetenz ist eine sehr sachliche und anhand von Tatsachen beweisbare Eigenschaft. Ebenfalls das fehlen einer solchen.

Die Tester schwingen sich hier in den Threads oft zu kompetenten Fachleuten auf. Das ist sehr oft nicht der Fall, da in vielen Bereichen grundlegendes Wissen fehlt. Es werden Messwerte falsch interpretiert oder Mess-Aufbauten gewählt die überhaupt nichts sinnvolles testen/messen.
Ich erinnere mal an den "Bandbreiten-Tests" der CB im Vorfeld des Fury-Launches wo man zeigen wollte ob 4 GB ausreichen. So einen undurchdachten Unsinn liest man immer wieder mal. Da fehlt es an Kompetenz und zwar eindeutig. Wenn dann die selben Leute hier in deinem Forum nur deswegen in Einzeilern die alleine gültige Wahrheit verkünden wollen wie Marc dies tut, dann darf man ganz sicher mal die Kompetenz der Meinungsmacher hier auf den Prüfstand stellen - das ist nicht persönlich sondern ganz klar sachlich, beruflich geschehen. Das dreifache verlinken seines Werbefinanzierten Tests ohne Not, tut sein übriges.

Wer öffentlich Meinung macht muss sich auch der öffentlichen Meinung stellen. Das ist Teil des Berufes und man kann sich dann nicht beleidigt zurück ziehen wenn man überführt wird dass man Unsinn messen, in Grafiken aufbereitet und dann noch online stellt um damit Geld zu verdienen. Wer dann auch noch völlig resistent gegenüber klaren Argumenten ist, der ist einfach auch nicht Kompetent.

Ich sagte nur, die Werte gelten bei gegebener Software. Optimierungen bei API, Engine, Treiber können dies freilich ändern, darauf haben Nutzer aber keinen Einfluss.Und das bedeutet doch dass es keinen Mehrwert für irgendein anderes Setting hat - Muster ohne Wert wie ich schon schrieb. Du kannst nicht sagen der Hase ist weis aber du hast nie behauptet wir reden über Hasen. Nur über Weis.

Schlußfolgerung und Logik, eines führt zum anderen und ist nicht zu trennen - daher ist es auch ersichtlich, dass du die Dinge nicht kompetent verknüpfen kannst (oder willst) wie es ein Hardwaretester können sollte. Teste weiter Spiele aber mach keine Aussagen über die Hardware, weil du das mit deinen Tests nicht kannst.

Mortalvision
2017-07-06, 17:16:03
Wer 720p testet, testet, wieviel (engine) code eine cpu abarbeiten kann. Das ist imho nicht ganz unwichtig!

Complicated
2017-07-06, 17:24:44
Das zeigt ein 720p Test aber nicht.
Die CPU kann womöglich viel mehr Code verarbeiten.

Bewiesen wurde dieser falsche Ansatz durch die Einführung der Mantle-API.

Und solange die verwendete Software nicht alle CPU-Kerne voll auslastet sagt es überhaupt nichts über die Hardware Leistung aus.

Leonidas
2017-07-06, 18:01:12
@Leonidas
Warum sollte es schlechter Stil sein jemandem fehlende Kompetenz zu bescheinigen?


Wenn ich einem anhand fehlender Praxis sowie des fehlendes Meisterscheins nachsagen, Bäcker nicht zu können, dann okay.

Aber in einer Streitfrage bei einem Teilthema? Das wäre so, als würde ich einem verdienten Mitarbeiter "keine Kompetenz" unterstellen, nur weil wir uns beim Thema 5439 von 10.000 einmal vollkommen uneinig sind. Und ja - wenn man so schnell mit der "Keine-Kompetenz"-Keule kommt, dann wird das fix als persönlicher Angriff gesehen.

BlacKi
2017-07-06, 18:03:03
@Blacki
Das würde ja heissen es gäbe CPUs die ein Hardware-Limit bei den möglichen FPS haben. Das gibt es aber nicht, denn die Software bestimmt wie viele FPS eine CPU liefert. Hat ein Frame 1 Pixel Inhalt wird die CPU deutlich mehr davon liefern als mit 2 Pixel Inhalt. 720p zeigt NICHT wieviel FPS eine CPU schafft. Das wird dadurch klar dass die selbe CPU unter 720p mit DX11/DX12/Mantle/Vulkan unterschiedliche FPS schafft - würde das stimmen was du sagst, müssten unter allen 4 APIs die selben FPS raus kommen - dem ist nicht so.
es ist doch klar, das 720p deus ex benchmark werte nur was über deus ex aussagen nicht alle spiele/api übergreifend. um mehr geht es mir dabei auch garnicht.

IchoTolot
2017-07-06, 18:32:19
Ich sehe bei Deus Ex immer diese Sequenz (https://youtu.be/5IfVF6kld8I?t=33)die in Benchmarkvideos verwendet wird. Wie kann ich die im Spiel eigentlich starten?

Complicated
2017-07-06, 18:39:49
Nur sagt ein Benchmark in 720p überhaupt nichts aus über die CPU-Leistung.
Und auch nicht über Deus Ex da dies niemand in diesem Setting spielt. Es gibt keinen Mehrwert zu 1080p und 4K Benches.

Also geht es im Prinzip um gar nichts bei solchen Benches - nichts relevantes.

@Leonidas
Nur dass es eben nicht so ist wie du es gerade darstellst. Es ist nicht 1 aus 10.000.
Es ist grundlegend und systematisch, dass CPU-Limits zugeordnet werden wo keine sind. Das ist eine enorme Wissenslücke die zu inkompetenten Aussagen hier im Thread führen und auch die Artikel sind auf dieser Inkompetenz aufgebaut. Irreführend ist hierfür noch schmeichelhaft.

Arroganz kommt hinzu, da mittlerweile seit Mantle viele Stimmen genau dies kritisieren doch man lieber daran festhält mit der Begründung es sei ja so schwierig und kompliziert ein CPU-Limit herzustellen mit Spielen. Dass dies einfach nicht geht und grundlegend falsch ist wird inkompetent ignoriert. Das Geschäftsmodell wird hier geschützt zu Lasten der seriösen und wirklich technischen Aufarbeitung solcher Themen. Ich finde dass dies sogar noch deutlicher angeprangert gehört in Enthusiasten Foren wie hier anstatt den falschen und systematischen Klickbait Artikeln hier noch eine Plattform dafür zu bieten. 3Dcenter könnte besser als die derzeit desolate IT-Presse sein IMHO. Hier im Forum sind so einige technisch kompetente User unterwegs. Deutlich kompetentere als bei den Redaktionen derzeit zu finden sind.

Rincewind
2017-07-06, 19:11:57
Wenn man mal Popcorn braucht ist keins da. :biggrin:

@Complicated: du redest Dich gerade um Kopf und Kragen. Komm mal runter!

Complicated
2017-07-06, 19:24:32
Runter kommen? Wie meinst du das?
Ich habe ein klar definierte Meinung die ich auch präzise darlegen kann.
Ich lasse mich gerne auch vom Gegenteil überzeugen, doch dies eben auch nur mit Argumenten. Dazu ist ein Forum nun mal da.

Ich habe niemanden beleidigt und verbreite hier keine illegalen Ansichten.

Emperator
2017-07-06, 19:47:23
Ich habe ein klar definierte Meinung die ich auch präzise darlegen kann.
Ich lasse mich gerne auch vom Gegenteil überzeugen, doch dies eben auch nur mit Argumenten. Dazu ist ein Forum nun mal da.


Leute die Glauben das nie ein Mensch auf Mond war oder die Twin Towers gesprengt wurden haben auch eine klar definierte Meinung die Sie auch präzise darlegen können. Und diese lassen sich auch gerne von Gegenteil überzeugen, doch dies eben auch nur mit Argumenten. Dafür haben die Leute sich selbst schon zu sehr in eine Scheinbeweisführung hinein gesteigert, die jegliche eigene Subjektivität als die absolute Wahrheit darstellen muss.

Und trotzdem wird man egal welches Argument man auch bringt, nie einen dieser Leute vom Gegenteil überzeugen können.

Jetzt finde die Parallelen ...

Complicated
2017-07-06, 19:57:26
Ohne etwas zum Thema beizutragen...schön daneben gehauen mit deinem Vergleich.
Der Zweck deines Beitrages war nun welcher?

sys64738
2017-07-06, 20:30:35
Irgendwie wird die Diskussion jetzt etwas hitzig und unsachlich, ich versuche mal vereinfachend zusammenzufassen:

Ein Spiel durchläuft seinen Gamecode, macht darin Berechnungen zum Spiel und zur Grafik, und malt mit Hilfe der GPU hübsche Grafiken auf den Monitor. Dies geschieht x-mal in der Sekunde.
Da weder CPU noch GPU unendlich schnell sind, wird eines von beiden die fps limitieren, in der Regel ist das zZt. bei Spielen die GPU.
Wenn du jetzt eine langsame CPU hättest, kannst du durch eine Erhöhung der Auflösung bis ins GPU-Limit den Einfluss der CPU auf das Gesamtergebnis rausnehmen.
Und andersherum funktioniert das natürlich genauso, eine sehr schnelle GPU bei einer geringen Auflösung verringert den Einfluss der GPU bis zu dem Punkt, wo die CPU nicht mehr mit dem Gamecode nachkommt, also die CPU limitiert, und der Einfluss der GPU damit irrelevant wird. Und an dieser Stelle kannst du natürlich einzelne CPUs ganz gut bezüglich ihrer Leistungsfähigkeit miteinander vergleichen.
Die Behauptung, Tests unter 720p sind ohne Aussage, ist somit schlicht falsch.

Änderungen im Code, sei es bei der API, dem Treiber der Gameengine oder der Gamelogik, können natürlich nicht vorausgesagt werden, aber auch diese müssen weiterhin von der CPU bearbeitet werden, also sind da keine großen Änderungen zu erwarten.

Und noch eine kleine Anmerkung zu den APIs:
DX11 nimmt dem Entwickler sehr viel Arbeit ab, Entwicklungen für Vulkan oder DX12 sind sehr viel aufwendiger, und damit teurer und fehleranfälliger. Und dazu muss der Entwickler sehr genau wissen, was er tut, will er den tatsächlich einen Leistungsgewinn erzielen.
Kannst in etwa mit Assembler und einer Hochsprache vergleichen, selbst sehr gute Assemblerprogrammierer können selten besseren Code als ein aktueller optimierender Compiler erstellen, und wenn, ist es halt sehr aufwändig. Im Gegenteil, der Compiler hat Möglichkeiten, die ein Mensch letztendlich nicht hat.
Ohne die Marktmacht von MS wäre DX12 schon längst so tot, wie Mantle.

Complicated
2017-07-06, 20:45:18
Und andersherum funktioniert das natürlich genauso, eine sehr schnelle GPU bei einer geringen Auflösung verringert den Einfluss der GPU bis zu dem Punkt, wo die CPU nicht mehr mit dem Gamecode nachkommt, also die CPU limitiert, und der Einfluss der GPU damit irrelevant wird. Und an dieser Stelle kannst du natürlich einzelne CPUs ganz gut bezüglich ihrer Leistungsfähigkeit miteinander vergleichen.
Die Behauptung, Tests unter 720p sind ohne Aussage, ist somit schlicht falsch.
Das ist schlicht und einfach nicht das was passiert. Bevor die CPU limitiert ist es die API/Software die zuvor keine höheren FPS mehr zulässt.

Argumente:
Beweis Nr. 1 sind die Tests die mit der Einführung von Mantle gemacht wurden. Es wurde nachgewiesen, dass DX11 die CPU nur zu einem Bruchteil nutzt und dort ganz speziell einen Hauptthread der die Skalierung auf mehr Kernen verhindert. Wer das heute ignoriert der kommt natürlich zu solchen falschen Schlußfolgerungen.

Beweis Nr.2 ist die Tatsache, dass Entwicklungen für DX12 und Vulkan mehr Arbeit erfordern - eine Arbeit die zuvor niemand investiert hat. Auch DX11 hat niemandem etwas abgenommen. Es wurden schlicht die vorhandenen Kerne und Ressourcen der CPU nicht genutzt.

Mantle ist nur deshalb tot weil DX12 endlich kam. MS wollte DX12 ja gar nicht releasen und es wäre noch lange nicht gekommen ohne AMDs Druck. Und da Mantle die Basis von Vulkan gebildet hat ist es auch nicht tot. Was MS derzeit mit seiner Marktmacht macht ist zu versuchen mit Hilfe von DX12 sein Win10 durchzudrücken - das ist der einzige Grund warum DX12 noch nicht weiter verbreitet ist. Es wurde nicht für Win7 frei gegeben. Hier muss man mal unterscheiden wer der Gaul und wer der Reiter ist.

Aber zurück zum Thema:
Die Behauptung 720p hätte eine Relevanz ist einfach falsch. Ich würde nun doch gerne mal ein echtes Argument lesen WAS denn da in diesem Wert abzulesen sein soll. Die CPU ist in jedem Fall noch nicht an ihrer max. Last angekommen nur weil man 720p als Auflösung nimmt bei einem Spiel. Bewiesen ist diese Aussage.

Also wenn 720p die CPU mit allen Kernen nicht Auslasten kann, was misst man dann damit?

sys64738
2017-07-06, 21:26:26
Das ist schlicht und einfach nicht das was passiert. Bevor die CPU limitiert ist es die API/Software die zuvor keine höheren FPS mehr zulässt.Ok, was glaubst du denn, wer oder was die API-Aufrufe bearbeitet? Es sind nicht die Heinzelmännchen, es ist die CPU! Und wenn, mit deinen Worten, die "API limitiert", ist es die CPU die limitiert, die die API-Aufrufe nicht schnell genug abarbeiten kann.

Zu deiner Behauptung "Beweis Nr. 1": Schlicht falsch, erstens arbeitet der NVidia DX11 Treiber auch parallel, zweitens lässt sich nun einmal nicht alles parallelisieren und drittens wird all das, was sich denn tatsächlich auch gut parallelisieren lässt, von einem darauf spezialisieren Prozessor, nämlich der GPU, verarbeitet.

Zu deiner Behauptung "Beweis Nr. 2": Auch schlicht falsch, Die Treiber sind hochkomplexe Stücke Software, die dem Entwickler sehr viel Arbeit abnehmen, und gerade der DX11-Treiber von Nvidia ist sehr leistungsfähig. Das hat man sehr schön an der angeblichen DX12 Schwäche von Nvidiakarten gesehen, da konnten die Spieleentwickler eben nicht mal so eben mit den Nvidialeuten mithalten, das erfordert sehr, sehr viel Arbeit. Und diese Arbeit, muss ersteinmal geleistet und letztendlich auch bezahlt werden, das kann, abgesehen von einigen wenigen wirklich sehr großen, sich keine Spieleschmiede leisten.

Und selbst wenn, auch dann kannst du durch verringern der Auflösung die GPU bei der Limitierung quasi heraushalten, bist also wieder bei dem CPU-Limit, nur etwas später. Was wiederum zeigt, dass 720p Tests durchaus ihre Aussagekraft haben.

Ich hoffe, das war jetzt verständlich genug.

Complicated
2017-07-06, 21:41:41
Ok, was glaubst du denn, wer oder was die API-Aufrufe bearbeitet? Es sind nicht die Heinzelmännchen, es ist die CPU! Und wenn, mit deinen Worten, die "API limitiert", ist es die CPU die limitiert, die die API-Aufrufe nicht schnell genug abarbeiten kann.
Das ist unlogisch wenn DX11 langsamer als DX12 im selben Spiel ist. Daher ist das wohl kaum ein ernstzunehmendes Argument sondern eine unwahre Behauptung. Darauf basierend auch der Rest von dem was du geschrieben hast. Die CPU ist nicht ausgelastet unter DX11 (wie auch bei keiner anderen API in Spielen). Dass Mehrkern-Skalierung erst jetzt langsam in Spielen mit Vulkan und DX12 einzieht ist eine unbestrittene Tatsache.

Was soll denn das parallel arbeiten des Nvidia DX11 Treibers sein?
Nutzt der dann alle Kerne der CPU? Nein macht er nicht.

Du schreibst oft "schlicht falsch" und untermauerst das dann mit falschen Aussagen. Ich würde mal sagen es ist "schlicht richtig" wie ich es geschrieben habe, denn was du argumentiert hast entspricht nicht den Tatsachen.

Du kannst auch die GPU nicht heraus halten egal wie weit du runter gehst mit der Auflösung, weil sämtlicher Code in erster Linie für die GPU geschrieben ist in einem Spiel un diese immer mit arbeitet.

Bitte mal eine Quelle wo irgendetwas von dem beschrieben wird was du behauptest.

BlacKi
2017-07-06, 21:48:22
Aber zurück zum Thema:
Die Behauptung 720p hätte eine Relevanz ist einfach falsch. Ich würde nun doch gerne mal ein echtes Argument lesen WAS denn da in diesem Wert abzulesen sein soll. Die CPU ist in jedem Fall noch nicht an ihrer max. Last angekommen nur weil man 720p als Auflösung nimmt bei einem Spiel. Bewiesen ist diese Aussage.

Also wenn 720p die CPU mit allen Kernen nicht Auslasten kann, was misst man dann damit?
einfach nur lächerlich, nur weil die cpu nicht 100% ausgelastet ist, bedeutet es nicht das ein cpu limit herscht. von mir aus kannst du es auch api/softwarelimit nennen, aber es ändert nichts ander tatsache, das man dort ein halbwegs genaues limit messen lässt und es sich von cpu zu cpu unterscheidet. aber was ist falsch daran sich zu orientieren? oft sind cpus in unterschiedlichen api´s ebenfalls im selben verhältniss schnell.

dx11 bedeutet auch nicht pauschal schlechte multicore unterstützung und mit dx12 ist alles automatisch besser. siehe dxmd, dort ist das cpu limit fps technisch in dx12 sogar noch niedriger als unter dx11.

du hast überhaupt kein argument geliefert das man mit 720p keine vernünftige leistungsaussage treffen kann. mach das du doch erstmal bevor du anderen inkompetenz untersstellst. und hier gehts nicht was in 3-5 jahren die cpu noch so reisst oder nicht.

Complicated
2017-07-06, 21:49:53
Du misst etwas das durch die verwendete Software limitiert ist und schreibst dies dann der Hardware zu - das nenne ich lächerlich.

Da 720p niemand nutzt beim Spielen nutzen diese Werte auch niemanden beim Kauf oder der Auswahl von Hardware. Das wäre mal ein Argument das nach wie vor keiner zu bemerken scheint und auch niemand entkräften kann.

Da 720p die CPU nicht voll auslasten kann kann es auch keine Unterschiede von verschiedener Hardware aufzeigen. Das sollte dir mal als Argument auch zu denken geben.

Die Behauptung da werde halt irgendwie und irgendwas ja unterschiedlich vermessen ist genau das was ihr immer wieder wiederholt. Nur kann keiner sagen was genau da für unterschiedliche Performance sorgt, wenn die Hardware noch gar nicht am Limit ihrer Leistungsfähigkeit ist, spricht immer noch Kerne ungenutzt rum dümpeln oder nur mit 50% vor sich hin arbeiten.

BlacKi
2017-07-06, 21:54:39
Du misst etwas das durch die verwendete Software limitiert ist und schreibst dies dann der Hardware zu - das nenne ich lächerlich.
weil sie durch die hardware/ takt beeinflussbar ist, also ist es für mich und die meisten anderen hier ein hardwarelimit, das sich ergänzend durch optimierung nach oben korrigieren lässt. das können wir aber nicht selber machen, was in meiner macht steht ist die richtige cpu für das "softwarelimit" zu kaufen, gegebenenfalls den takt zu ändern. ich könnte alternativ natürlich alles auf dx11 schieben und das spiel nicht spielen, aber ich nehme da den ersteren weg.

Complicated
2017-07-06, 21:59:11
Wenn etwas beeinflussbar ist wird es zum Limit definiert?
Genau das ist der springende Punkt in deinem Argument - dass dies Unsinn ist in jedem Testaufbau sollte dir klar sein.

Und genau das findet statt - weil Redaktionen hier eine Stellschraube gefunden haben die irgendetwas macht wenn man dran dreht meint man man könne hier jetzt CPUs miteinander vergleichen.

Das ist das selbe als wenn ich nun hin gehe und die Lüfter runter regele bis die CPU im Temperaturlimit arbeitet und dann Testreihen durchführe bei 300 RPM, 500 RPM und 700 RPM um dann von einem CPU-Limit zu schreiben - tolle Wurst. Ich zeige dir noch 10 andere Stellschrauben in deinem System die du dann für Hardware-Reviews nutzen kannst. Die wirst du aber schnell in den selben Topf werfen wie ich die 720p Tests - denn da gehört beides hin. Zu den Mustern ohne Wert.

BlacKi
2017-07-06, 22:04:52
Wenn etwas beeinflussbar ist wird es zum Limit definiert?
ja, du bist der einzige hier der das wohl anders sieht.

wenn ein spiel zb. nur einen tread kann, ich aber 16 kerne habe, dann kannst du das spiel nicht einfach umschreiben, man muss das spiel so nehmen wie es kommt. es ist für mich, so wie die meisten cpu limitiert, falls die gpu mehr liefern könnte.

unter 720p versucht man herauszufinden wieviel die cpu an fps liefern kann, in diesem spiel, dazu ist 720p absolut eine gängige möglichkeit dies zu tun. diese werte interessieren mich, um die cpu in diesem spiel einzuschätzen.

Complicated
2017-07-06, 22:08:42
Hahaha... na dann, wenn alle sich einig sind dass ein Limit dort besteht wo eine Testradaktion die Möglichkeit hat zu drehen und Balken zu erzeugen ist ja alles gut.

Daher sage ich ja man soll mit dieser Einstellung weiter die Kiddie-Seiten mit den langen Balken lesen aber nicht in einem ernsthaften technischen Forum solchen untechnischen Unsinn verbreiten. Wo sind wir hier?

Also Anstatt Argumente hast du die Scheuklappen zum Status Quo ernannt.

BlacKi
2017-07-06, 22:18:54
wieso nennst du eine möglichst korrekte cpu leistungseinordnung in einem bestimmten spiel technischen unsinn? weil es nicht die cpu deiner wahl/träume gut aussehen lässt? auch heute noch würde ich einen 2500k dem fx8350 vorziehen, die meisten meiner spiele unterstützen kaum mehr als 4 kerne oder sind durch die 4 kerne massiv limitiert, auch wenn es nun wohl einige davon gibt.

Complicated
2017-07-06, 22:26:18
Ich nenne sie technischen Unsinn weil es keine korrekte Leistungseinordnung ist. Das sieht man alleine schon daran wenn zusätzliche Kerne keine Berücksichtigung finden durch die Software - was soll das für eine Leistungseinstufung der Hardware sein wenn sie nicht ausgelastet wird im Tests?
Und das ist nur EIN Argument das du nach wie vor nicht aushebeln kannst - du argumentierst auch nicht mit technischen Fakten. Du redest drumherum. Argumente haben keine Fragezeichen.

Und zudem habe ich hier von keiner einzelnen CPU gesprochen - ich weis es bereitet dir wohl deshalb Schwierigkeiten mir Fanboytum zu unterstellen - aber du versuchst es nach wie vor krampfhaft. Schau dir die aktuellen Tests an von den neuen Intel SKUs verglichen mit den alten Intel SKUs - da wird es besonders deutlich.

Und nur weil deine Spiele irgendetwas unterstützen oder nicht, wird daraus keine korrekte Rangliste von CPUs mit ihrer grundsätzlichen Leistungsfähigkeit. Dein persönliches Szeanrio hat in einer Grundsatzdiskussion ebenso viel zu suchen wie in einem Hardwaretest für CPUs.

BlacKi
2017-07-06, 22:30:36
Ich nenne sie technischen Unsinn weil es keine korrekte Leistungseinordnung ist. Das sieht man alleine schon daran wenn zusätzliche Kerne keine Berücksichtigung finden durch die Software - was soll das für eine Leistungseinstufung der Hardware sein wenn sie nicht ausgelastet wird im Tests?
die fps/frametimes/percentile die geliefert werden reichen mir zur einordnung:wink: das ist alles was mich interessiert. die durch die grafikkarte möglichst unbeeinflussten fps/frametimes. anders kann man einen cpu in einem bestimmten spiel nicht einordnen.

Complicated
2017-07-06, 22:37:18
Was dir reicht ist aber kaum ein Argument zu technisch korrekten Tests.
Sehr vielen reicht auch Computerbild, nur das ist ja wohl kaum das Niveau dieses Forums und auch nicht dieses Threads.

Die angebliche durch die Grafikkarte unbeeinflussten FPS sind ja wohl nur als Illusion zu werten wenn die GPU Bilder in 720p Auflösung rendert basierend auf einer für die GPU geschriebenen API und Treibern. Schlangenöl nennt man so etwas.

Denniss
2017-07-06, 22:49:37
Lasst es einfach, Complicated hat seinen (Aber)Glauben und den wollen wir ihm lassen.
Wenn jemand Argumenten nicht zuträglich ist dann bleibt keine andere Möglichkeit.

Complicated
2017-07-06, 22:54:53
Na dann welches Argument hast du denn hier erkannt welches ich nicht einsehen will.
Es ist ja wohl offensichtlich dass Blacki am Ende kein valides Argument vorgebracht hat.

Dein Kommentar hat ebenso nichts beigetragen zum Thema. Der einzige Aberglauben ist nach wie vor dass in 720p CPU Hardware ausgelastet und daher sinnvoll getestet werden kann.

Leonidas
2017-07-07, 04:41:21
@Leonidas
Nur dass es eben nicht so ist wie du es gerade darstellst. Es ist nicht 1 aus 10.000.
Es ist grundlegend und systematisch, dass CPU-Limits zugeordnet werden wo keine sind. Das ist eine enorme Wissenslücke die zu inkompetenten Aussagen hier im Thread führen und auch die Artikel sind auf dieser Inkompetenz aufgebaut. Irreführend ist hierfür noch schmeichelhaft.

Arroganz kommt hinzu, da mittlerweile seit Mantle viele Stimmen genau dies kritisieren doch man lieber daran festhält mit der Begründung es sei ja so schwierig und kompliziert ein CPU-Limit herzustellen mit Spielen. Dass dies einfach nicht geht und grundlegend falsch ist wird inkompetent ignoriert. Das Geschäftsmodell wird hier geschützt zu Lasten der seriösen und wirklich technischen Aufarbeitung solcher Themen. Ich finde dass dies sogar noch deutlicher angeprangert gehört in Enthusiasten Foren wie hier anstatt den falschen und systematischen Klickbait Artikeln hier noch eine Plattform dafür zu bieten. 3Dcenter könnte besser als die derzeit desolate IT-Presse sein IMHO. Hier im Forum sind so einige technisch kompetente User unterwegs. Deutlich kompetentere als bei den Redaktionen derzeit zu finden sind.


Inkompetenz ist, wenn man sein Handeln nicht begründen kann. Deine Gegenseite hat ihre Gründe und ihre Begründungen. Inkompetenz ist dafür das zu harte Wort, das geht eher in Richtung "Meinung".

Das Du dazu eine feste Meinung hast, die Du gut begründen kannst, ist schön und gut. Aber es gibt auf der Gegenseite einen Diskussionspartner - und der fühlt sich *immer* angegriffen, wenn die Inkompetenz-Keule kommt. Auch dann, wenn jene wahr wäre. Das Wort selber ist einfach zu hart.

PS: Meine Sig lesen und verinnerlichen!

Gast
2017-07-07, 09:32:05
Die Diskussionen hier im 3dc sind immer sehr interessant und aufschlussreich. Das vorhandene Knowhow einzelner Forumsmitglieder geht weit ueber das Uebliche hinaus. Dahingehend kann ich nicht ansatzweise mitreden. Als Person auf der Suche nach Empfehlungen (zum Kauf einer neuen Plattform) bleibt man dabei bis man sich eine eigene Meinung gebildet hat.

Womit ich zur eigentlichen meiner ganz persoenlichen Aussage kommen moechte:
Streng wissenschaftlich und technisch korrekt, kann ich dem Forummitglied "Complicated" Recht geben, dass die "CPU Testreihen" nicht wirklich aussagekraeftig sind. Dazu waeren feste Rahmenbedingen noetig die jeglichen Einfluss anderer Variablen als der gesuchten bzw. getesteten eindeutig ausschliessen koennen.
Sind sie es nicht, ist so eine Testreihe nur ein "Muster" und kann nicht zu einer Aussage die wertend ist herangezogen werden.
Wenn wie im beschriebenen Fall so unterschiedliche Ergebnisse bei den Testern herauskommen ist es sehr wahrscheinlich, das die Randbedingungen nicht die selben sind.

Da ich keinerlei Kenntnisse im Design von CPU´s oder GPU´s bzw Programmierung habe, maasse ich mir dazu auch keine Aussage an.
Jedoch stimme ich "Complicated" zu, das die CPU Tests als solche nicht wirklich eindeutig aussagekraeftig sind.

Dieses Argument konnte auch keiner der anderen Forumsmitglieder stichhaltig entkraeften.

Ich vermute nur ein versierter Programmierer mit profunden CPU Design Kenntnissen vermag auszusagen ob die ausgefuehrten (CPU und/oder Spiele) Tests zu solchen CPU Klassifizierungen geeignet sind.

Complicated
2017-07-07, 10:43:08
Das kann ich akzeptieren und so stehen lassen.

Ich entschuldige mich für die Verwendung des Wortes Inkompetent und werde mich bemühen dies in Zukunft annehmbarer für den Diskussionspartner zu formulieren.

Allerdings würde ich mir das von den anderen Diskussionsteilnehmern ebenfalls wünschen um es einem leichter zu machen nicht mit gleicher Münze zurück zu zahlen wenn kein Moderator die Dinge zurecht rückt.

y33H@
2017-07-07, 12:40:54
Hier übrigens der Test des 7820X und 7800X:

https://www.golem.de/news/core-i7-7280x-und-core-i7-7800x-im-test-intels-8c-und-6c-konter-verpufft-1707-128772.html

sys64738
2017-07-07, 17:07:30
Das ist unlogisch wenn DX11 langsamer als DX12 im selben Spiel ist.
Nein, ist es nicht, nur dein Schluss, den du daraus ziehst, ist unlogisch. DX11 und DX12 sind völlig unterschiedliche APIs, die auch eine völlig unterschiedliche Programmierung erfordern, insbesondere ist der Aufwand bei DX12 ungleich höher, um auch nur in die Nähe von DX11 zu kommen. Das heißt aber nicht, dass es unmöglich ist, es heißt auch nicht, dass der DX11 Zweig vielleicht etwas laxer programmiert wurde, während man sich bei der DX12 Seite mehr Mühe gegeben hat.
Daher ist das wohl kaum ein ernstzunehmendes Argument sondern eine unwahre Behauptung.Wie oben erklärt, ist das keine unwahre Behauptung sondern du hast es nur nicht verstanden und ziehst jetzt voreilig falsche Schlüsse.
Die CPU ist nicht ausgelastet unter DX11 (wie auch bei keiner anderen API in Spielen). Dass Mehrkern-Skalierung erst jetzt langsam in Spielen mit Vulkan und DX12 einzieht ist eine unbestrittene Tatsache.
Auch hier liegst du falsch, du setzt CPU-Auslastung mit einem CPU-Limit gleich, dem ist aber nicht so. Ich werde versuchen, dir das an einem einfach Bsp. anschaulich zu erklären:
Nimm einfach die Fibonacci Zahlen (Zur Erinnerung: f(0)=0; f(1)=1; f(n)=f(n-1)+f(n-2)) Die Berechnung derselben kannst du nicht parallelisieren, da das Ergebnis der von den vorigen Berechnungen abhängig ist. Dies wird also auf einer CPU mit einem Kern genauso lange brauchen wie auf einer mit n-Kernen. Und wenn auch die CPU mit n Kernen nicht ausgelastet ist (n-1 Kerne idlen), so ist es doch die CPU, die limitiert. Und auf einer anderen CPU mit anderem Takt und anderer IPC wird das Ergebnis eben anders aussehen. Wobei wir wieder zurück beim Thema wären und gezeigt haben, dass Tests in 720p eben doch sinnvoll sind.
Was soll denn das parallel arbeiten des Nvidia DX11 Treibers sein?
Nutzt der dann alle Kerne der CPU? Nein macht er nicht.Bitte schön, kannst z.B. du da nachlesen. (https://forums.anandtech.com/threads/6950-vs-gtx-460-768mb-why-does-nvidia-beat-the-radeon-in-civ5.2155665/page-2#post-31520674)
Und nein, Parallelisierung bedeutet nicht, alle Kerne auszulasten, dieses ist oft nicht sinnvoll und manchmal schlicht unmöglich.

Du schreibst oft "schlicht falsch" und untermauerst das dann mit falschen Aussagen. Ich würde mal sagen es ist "schlicht richtig" wie ich es geschrieben habe, denn was du argumentiert hast entspricht nicht den Tatsachen.Wenn etwas an meinen Argumenten falsch ist, dann kannst mich da gerne auf sachliche Weise hinweisen, ich werde mich dann berichtigen. Allerdings hast du das bis jetzt unterlassen, bzw nur mit falschen Annahmen argumentiert.

Du kannst auch die GPU nicht heraus halten egal wie weit du runter gehst mit der Auflösung, weil sämtlicher Code in erster Linie für die GPU geschrieben ist in einem Spiel un diese immer mit arbeitet.Auch das ist wieder schlicht falsch, aber an der Stelle drehen wir uns jetzt im Kreis, lies dazu mein einfach erstes Posting in diesem Thread.

Gast
2017-07-07, 18:20:51
Da hier eh alles an off topic durchgelassen wird:

Inkompetenz ist, wenn man sein Handeln nicht begründen kann.
Das ist falsch.

Schaffe89
2017-07-07, 19:54:11
Dementsprechend unsinnig sind sie.

Daran ist gar nichts unsinnig. Entweder will ich wissen wie schnell eine CPU in Spiel XY die GPU mit Daten versorgen kann oder nicht.
Wenn man in 4K testet und die 1080Ti nur 50 FPS rausdrückt, die CPU aber 100 liefern könnte, habe ich beim nächsten GPU Wechsel in diesem Spiel eben statt 100, nur 50 FPS:rolleyes:.

GPU´s werden ja schießlich auch nicht im CPU Bottleneck getestet, sondern die Prozessoren werden übertaktet und es wird in einer hohen Auflösung gemessen, damit ich für den Leser die meisten Informationen zusammen bekomme.

Dann kann der Leser CPU und GPU für sein FPS Ziel auswählen.
Wenn ich nur in Bottlenecks messe, dann lohnt sich das ganze Vorhaben nur bedingt, denn dann erhalte ich weniger Informationen und nur Informationen für einen spezielle Konfiguration.

Das kann nicht Sinn und Zweck des ganzen sein.

Das Ergnis dieses Unsinns, sind dann Tests wie diese:

https://abload.de/img/handwerk0wqgm.png

Damit kann niemand was anfangen.

Wie bereits mehrfach angesprochen, wird dabei vielmehr die Engine getestet als der Prozessor.

Wenn du dir Skalierungstests mit selber Engine und gleichem Treiber ansiehst, dann wird die CPU getestet und zwar daran wie gut sie die Grafikkarte unter hoher Last versorgen kann.

Im CPU Limit liegt die Last bei einer CPU meistens zwischen 97 und 100% auf dem Mainthread, je nach Skalieerung auch auf allen Cores.

Es ist dämlicher Scheiß, um es mal deutlich auf Deutsch zu sagen.

Ne, das ist besonders dann wichtig wenn du wissen willst welche CPU du für dein System auswählen willst.

Ein 720p CPU Test nützt dem Leser in der Praxis genau Nullkommanull.

Doch am meisten. Denn er bietet die meisten Informationen.
Ein Test im GPU Bottleneck unter 4K wo alle Prozessoren bei 40 FPS kleben, bringt dir null.

In einem Prozessortest willst du wissen wie schnell der Prozessor die GPU´s mit Daten beliefern kann und nicht umgekehrt.

GPU´s testest du doch wohl auch nicht in 720p im Prozessorlimit oder etwa doch?:rolleyes:

das passt den geblendeten fanbois natürlicht nicht, und wettern natürlich dagegen, das erträgt ihr ego einfach nicht.

Genauso sieht es aus.
Es wurde ja auch noch nicht ein Argument dagegen angeführt.
Denn getestet wird wie immer in der gleichen API und mit gleichem Treiber.

Man kann selbsverständlich auch in 1080p testen. Dann ists halt schwerer eine CPU limitierte Stelle zu finden. Geht aber mit einer übertakteten 1080Ti auch noch gut.
Alles was darüber stattfindet ist in der Regel stark GPU limitiert und somit für die Erkenntnis welche CPU am besten abschneidet kontraproduktiv.

Nur sagt ein Benchmark in 720p überhaupt nichts aus über die CPU-Leistung.

Na klar tut er das, schließlich gerät die CPU als Bottleneck in den Vordergrund und die GPU rückt in den Hintergrund. Wenn du dir das mal selbst anhand von Auslastungsanzeigen anschauen würdest, dann würdest du das merken.

Und auch nicht über Deus Ex da dies niemand in diesem Setting spielt. Es gibt keinen Mehrwert zu 1080p und 4K Benches.

Doch einen entscheidenden. Und zwar wieviel FPS das System im CPU Bottleneck an FPS generieren kann. Und wenn jemand gerne Deus Ex mit 100 statt 30 FPS in 4K spielen will, dann hast du schonmal einen Fall der CPU Tests in 4k ad absurdum führt.
In Wahrheit kannst du mit Messungen im CPU Bottleneck x tausend untersch. Fälle abdecken, was du mit Werten in 4K dagegen gar nicht kannst.

Da siehst du quasi nur eine einzige Einstellungen für ein Setup.

Also geht es im Prinzip um gar nichts bei solchen Benches - nichts relevantes.

Ich möchte dich mal sehen wie du deinen Prozessor mittels 4K Benchmarks für deinen Gaming PC auswählst.:biggrin:

Es ist grundlegend und systematisch, dass CPU-Limits zugeordnet werden wo keine sind.

Wissenschaftlich gesehen mag es kein absolutes CPU Limit sein, geht ja auch nicht.
Allerdings ist das ja gar nicht das was man möchte. Sondern nur sehen wie schnell die CPU die GPU mit Daten versorgen kann, wenn die Auflastung des Prozessors nahe 100% liegt, ergo also die CPU die limitierende Systemkomponente bei gleicher Software und gleichem Treiber darstellt.

Arroganz kommt hinzu, da mittlerweile seit Mantle viele Stimmen genau dies kritisieren doch man lieber daran festhält mit der Begründung es sei ja so schwierig und kompliziert ein CPU-Limit herzustellen mit Spielen.

Mantle ist ja ne andere API, natürlich fällt unter anderer Software auch das CPU Bottleneck anders aus. Gegenteiliges hat nie irgendjemand behauptet.

Hier im Forum sind so einige technisch kompetente User unterwegs. Deutlich kompetentere als bei den Redaktionen derzeit zu finden sind.

Was ich nicht kapiere ist: Wieso sollte es etwas mit Kompetenz zu tun haben, wenn man Hardwarevergleiche ad absurdum führt, nur weil in der Theorie kein reines CPU Limit vorhanden ist.

Wenn ich wissen will wie schnell eine CPU in Game XY rechnet, dann bleibt mir nix anderes übrig auch genau das bestmöglich zu testen.
Warum man da einen Riegel vorschieben will, kapier ich nicht, wo ist denn nun der eigentliche Grund bitte?

Ich bin überzeugt dass das nur wieder so Ausflüchte sind um AMD zu verteidigen, denn die gleichen Diskussionen wurden schon beim Phenom II vs i7 920 geführt und dass der Phenom II in einigen Spielen im Grafiklimit minimal vorne war.

Wie sich der Phenom II heute gegen Nehalem in Spielen schlägt, muss man wohl nicht näher erläutern. Er verliert gnadenlos, auch in hohen Auflösungen, die Debatte die mal damals geführt hat war ergo absolut sinnbefreit und diese ist es nun auch wieder.

Gast
2017-07-07, 20:23:03
und schön unter 1080p und dx11 testen schaffe, das bringt es besonders! som nutzt nur die ganzen cpu cores nicht, weils ein gpu lastiges spiel ist! du wirst es nie lernen! die LithTech Jupiter EX Engine skaliert das Spiel wann und wo sie es will, wie auch F.E.A.R., Tron 2.0, Aliens vs. Predator 2, No One Lives Forever und all dieser krempel. das teil läuft ansonsten auch auf 2 oder 4 core mobile cpus ansehnlich.