PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sinnvolles Benchmarking von Spielen zur Bewertung der CPU-Leistung


z3ck3
2016-01-21, 18:33:50
Ich habe bisher zwei Reviews gesehen die sich explizit damit befasst hatten und der Leistungsgewinn war eher esoterischer Natur. Die grösste Differenz ist von 2133 zu 2400 messbar. Aber das war schon immer so, das die Speicherperformance in Spielen quasi unwichtig war. Dabei ist diese Zielgruppe die einzige die sich mit dem schnellsten und teuersten Speicher eindeckt. ^^

http://www.legitreviews.com/ddr4-memory-scaling-intel-z170-finding-the-best-ddr4-memory-kit-speed_170340/5
http://www.anandtech.com/show/8959/ddr4-haswell-e-scaling-review-2133-to-3200-with-gskill-corsair-adata-and-crucial/7


Edit: Und bitte wenigstens ein Spiel im ansatzweise realistischen Setting testen. Dabei muss die GPU nicht maßlos limitieren, aber wenigstens auch nicht unnötig sein. Man will ja wissen ob der Speicher in Spielen etwas nützt und nicht, ob es in synthetischen Benchmarks den Penis verlängert. Denn das Bandbreite etc. Auswirkungen haben müssen ist ja klar. Nur bringt einem das eben auf dem Papier reichlich wenig.

dargo
2016-01-21, 18:40:03
Wie sollen im GPU-Limit auch Unterschiede messbar sein? Sorry, aber da verlasse ich mich lieber auf tdon. Denn der weiß was er da misst.

z3ck3
2016-01-21, 18:47:23
Weil du ein derartig massives CPU Limit nicht in Spielen hast. Da kannst du noch so viel messen. Es nützt dir nichts.

dargo
2016-01-21, 18:51:00
Das ist komplett falsch. Es gibt genug Szenen in Spielen wo ich völlig im CPU-Limit bin, auch @1440p.

Novum
2016-01-21, 18:51:45
Ich halte Durchschnitsswerte fuer absolut unnuetz was das CPU limit angeht. Es kommt in Spielen oefter zu Last-Spitzen und dann bringt es sehr wohl was, wenn die CPU schneller ist.

dargo
2016-01-21, 18:55:10
Eben... viele machen den Fehler und projezieren einen Benchmark (der nichts weiter als eine kurze Szene wiederspiegelt) auf das gesamte Spiel. Noch bunter wird es wenn der Reviewer eine Timedemo verwendet wo die CPU-Last minimal ist und überhaupt nicht der tatsächlichen CPU-Last im Spiel entspricht.

z3ck3
2016-01-21, 19:09:49
Eine GTX 980Ti oder GTX770 SLI @ FullHD mit (teils weit) über 100fps ist schon abseits der Realität. Wer ein derartiges Setup hat wird entweder in 4k oder wenigstens anderweitig die Grafik noch aufbessern durch höheres AA/AF etc. Ein Spiel in 640x480 und alles low zu testen ist soweit ab der Realität das es den gleichen Sinn hat wie ein rein synthetischer Benchmark der nur die Speicher Performance oder die Compute Performance einer CPU testet. Ich bin selbst bei left4dead2 mit meiner GTX570 auf FullHD, alles Low, nur AF/AA high in vielen Szenen im GPU Limit bei etwa 200 bis 250 statt 300 fps. Und selbst der Source2 Murks ist schon ab 100fps fluffig spielbar. Es ist doch absolut sinnfrei in einem Spiel, das im CPU Limit über 150 FPS erzeugt, aber mit der Grafikkarte im realistischen Setting 60fps, in mehr Speicherbandbreite und geringere Latenzen zu investieren.

dargo
2016-01-21, 19:15:51
Wie kommst du jetzt wieder auf die Idee starke CPU-Limits würden nur bei hohen fps vorkommen? Muss ich nicht verstehen.

Kriton
2016-01-21, 19:25:05
Eine GTX 980Ti oder GTX770 SLI @ FullHD mit (teils weit) über 100fps ist schon abseits der Realität. Wer ein derartiges Setup hat wird entweder in 4k oder wenigstens anderweitig die Grafik noch aufbessern durch höheres AA/AF etc. Ein Spiel in 640x480 und alles low zu testen ist soweit ab der Realität das es den gleichen Sinn hat wie ein rein synthetischer Benchmark der nur die Speicher Performance oder die Compute Performance einer CPU testet. Ich bin selbst bei left4dead2 mit meiner GTX570 auf FullHD, alles Low, nur AF/AA high in vielen Szenen im GPU Limit bei etwa 200 bis 250 statt 300 fps. Und selbst der Source2 Murks ist schon ab 100fps fluffig spielbar. Es ist doch absolut sinnfrei in einem Spiel, das im CPU Limit über 150 FPS erzeugt, aber mit der Grafikkarte im realistischen Setting 60fps, in mehr Speicherbandbreite und geringere Latenzen zu investieren.

Es geht dabei ja auch nicht um Realitätsnähe, sondern ausschließlich darum eine kontrollierte Messumgebung zu haben in der du andere Einflüsse ausschaltest. Wie das Ergebnis sich in der Realität dann auswirkt, darüber kann man anschließend reden. Aber du brauchst erst einmal eine ordentliche Datenbasis.

tdon
2016-01-21, 21:27:02
Weil du ein derartig massives CPU Limit nicht in Spielen hast. Da kannst du noch so viel messen. Es nützt dir nichts.


So eine allgemeingültig falsche Aussage ist einfach nur blödsinnig. Es macht schonmal einen Unterschied bei der CPU Leistung, ob ein Spieler eine AMD oder Nvidia GPU im Rechner hat. Auch hat nicht jeder einen i7-6700k im Rechner. Vom Spiel wollen wir erst gar nicht reden. Es gibt sehr wohl Spiele, die sehr CPU lastig sind. In pcars bringt Bandbreite sehr viel. Das habe ich schon mit meinem Haswell vorher bemerkt, da hatte ich DDR3-1600 und DDR3-2133 verglichen. Die meisten Spiele werden nicht in dem Maß profitieren bei der Bandbreite oder CPU Leistung, aber es gibt diese Spiele. Speichertests von den üblichen Webseiten bringen in der Regel nichts, die sind in der Regel mies ausgeführt. Siehe der letzte Computerbase Test.

z3ck3
2016-01-21, 21:40:01
@Dargo: Weil du, um mit einer i7k ins CPU Limit zu kommen, schon Frameraten weit über 100 haben musst. Von ein paar Ausnahmen einmal abgesehen. Vor allem Shooter die von hohen Frameraten am meisten profitieren haben idR keine hohe Anforderungen an die CPU.

basix
2016-01-21, 21:44:52
@Dargo: Weil du, um mit einer i7k ins CPU Limit zu kommen, schon Frameraten weit über 100 haben musst. Von ein paar Ausnahmen einmal abgesehen. Vor allem Shooter die von hohen Frameraten am meisten profitieren haben idR keine hohe Anforderungen an die CPU.

Dann mach mal Crysis 3 an, dort im Dome mit dem vielen Gras ;-)

Und ganz allgemein profitieren vor allem Min fps von einer schnellen CPU / hoher Single Threaded Leistung. Eben da Lastspitzen besser abgefedert werden können. Und diese hat jedes Spiel.

Timbaloo
2016-01-21, 21:52:19
Bei Planetside 2 hänge ich wahrscheinlich fast immer im CPU-Limit. Mit 96+ Spielern um eine Basis rum komm ich dann auch auf dezente 30fps. Mit einem i5 3570K@4.2GHz...

Hübie
2016-01-21, 22:31:06
In unzähligen Messungen wurde doch schon herausgefunden, dass manche Engine viel zu wenig Last erzeugt um ein CPU-Limit auszumachen und ebenso wurde festgestellt dass hier viel zu individuell getestet werden muss wann dies wirklich (tatsächlich) erreicht ist.
So blöd über ein Kamm scheren und behaupten Auflösung stets am niedrigsten, Details runter und min fps abbilden ist eine dümmliche Art um schnell Balken zu präsentieren (Hallo Reviewer). Die wenigstens sind clever genug das zu untersuchen oder darzustellen. Wenn das erste gemacht wurde scheitert es am zweiten und vice versa. Man muss sich einfach mal damit beschäftigen wie eine CPU "tickt". Die Diskussion hatte ich schon mit Nightspider.

aufkrawall
2016-01-21, 22:46:07
Die Diskussion ist absolut weltfremd und nicht zielführend.

Hübie
2016-01-21, 23:32:13
Die Gewichtung der Kaufkriterien spielt hier ja praktisch eine große Rolle. Wenn es also durch eine neuere CPU möglich ist deutlich konstantere und / oder höhere (min) fps zu erreichen, dann muss man sich nur noch fragen ob man bereit ist die Summe zu investieren.
Kommt man jedoch zu dem Schluß dass es sich nicht lohnt, lässt man es halt und kauft eine GPU (oder SSD etc...).
Leider läuft man bei seinem Entscheidungsprozess zu vielen falschen Reviews in die Falle. Und es selbst testen? Dazu haben die wenigsten Zeit / Lust / Geld. Daher ist es wichtig gezielte Reviewer anzusteuern, wo man Stärken und Schwächen genau differenzieren kann.

Ich mag übrigens die herangehensweise von digital foundry, da die individuell vergleichen (z.B. i5 4560k vs FX 8370 mit der 380 @high oder i3 4330 mit GTX 960 vs R9 380 @high etc.). So sehe ich was ich bekomme wenn ich Komponente X durch Y ersetze. Und das ist der Punkt der doch für jeden Käufer relevant sein sollte. Was interessiert es wenn Sandra 10 GB/s mehr Speicherdurchsatz misst, aber ich das nie merke sondern nur bezahle (nur ein Beispiel - keine Tatsache!).
Ein übertriebenes Beispiel:
Wenn ich einen alten C2Q @3,3 GHz mit niedriger Auflösung und niedrigsten Details teste, taktet dieser u.U. trotzdem schon hoch, weil die Last dies entsprechend der Logik signalisiert, während der Skylake (max ebenfalls 3,3 GHz) noch gemütlich herum dümpelt - also sein Potenzial gar nicht ausfährt. Das verzerrt das Ergebnis doch stark (man könnte Schlussfolgern ein Upgrade würde nicht lohnen). Stellt man dagegen aber die Last so ein, dass es die GPU wenig tangiert, aber entsprechend Drawcalls, Physikberechnungen etc. von der CPU fordert bekommt man ein klareres Ergebnis.
Umgekehrt kann es genau so sein. Da die Auflösung mit der Skylake den Takt anhebt oder senkt (PLL-Takt, L2C, Gating...) - also das Ansprechverhalten - deutlich höher ist können hier in einer Sekunde schon 500+ Lastwechsel (Takt) vollzogen werden die man gar nicht misst, während ältere Modelle, bei zu geringen Lastszenarien, noch recht träge reagieren. Daraus könnte man schlussfolgern man müsse aufrüsten. Fährt man dagegen eine konstant höhere Last stellt man fest dass es überhaupt nicht nötig ist zu wechseln.

aufkrawall
2016-01-21, 23:39:48
Ich mag übrigens die herangehensweise von digital foundry, da die individuell vergleichen (z.B. i5 4560k vs FX 8370 mit der 380 @high oder i3 4330 mit GTX 960 vs R9 380 @high etc.).

Die testen aber leider häufig auch nicht im CPU-Limit, bei BF4 etwa hatten sie 1080p 4xMSAA im CPU-Test genutzt.


Ein übertriebenes Beispiel:
Wenn ich einen alten C2Q @3,3 GHz mit niedriger Auflösung und niedrigsten Details teste, taktet dieser u.U. trotzdem schon hoch, weil die Last dies entsprechend der Logik signalisiert, während der Skylake (max ebenfalls 3,3 GHz) noch gemütlich herum dümpelt - also sein Potenzial gar nicht ausfährt.

Ist es nachgewiesen, dass es so etwas gibt? Die CPU sollte so schnell herauftakten, dass es nicht zu Einbußen kommt.
Ansonsten würde ich sagen, ist die Anwendung einfach schlecht programmiert, wenn sie nicht mit den ihr zur Verfügung stehenden Ressourcen skaliert. Aber das stellt ja die Methodik des Messens im CPU-Limit nicht in Frage.

Hübie
2016-01-21, 23:51:13
Na ja deshalb ist es ja wichtig immer mehrere Quellen zu nehmen und zu vergleichen. Zuviel verwässert natürlich irgendwann das Ergebnis, aber ich denke du weißt was ich meine. Digital Foundry sollte imo jedenfalls eine der Quellen sein die man konsultiert.

Um das Taktverhalten nachzuweisen brauchst du einerseits tiefe Einblicke und andererseits exzellentes Equipment. Kannst dir aber mal die whitepaper ansehen, da sollte drin stehen wie die responsiveness ist.
Wie gesagt kommt es auf das Spiel an. Niedrige Auflösung und Details heißen weniger Drawcalls die angefordert werden (geringes Geländedetail, Wasser, Weitsicht...) und / oder auch weniger bzw. unpräzisere physikalische Simulationen, welche berechnet werden. Ergo weniger Last. Hier rede ich ja nicht mal von single- oder multi-threading. Das ist ja ebenfalls ein wichtiger Einflussfaktor. Hier hat Skylake ja ein sharing der Register und Caches, welches es vorher nicht gab. Spiele ich also (fast) ausschließlich ein Spiel welches nur einen Kern nutzt lohnt sich u.U. ein Upgrade mehr als eines welche alles belastet.

dargo
2016-01-22, 09:06:37
Niedrige Auflösung und Details heißen weniger Drawcalls die angefordert werden (geringes Geländedetail, Wasser, Weitsicht...) und / oder auch weniger bzw. unpräzisere physikalische Simulationen, welche berechnet werden. Ergo weniger Last.
Keiner sagt dir du sollst mit niedrigen Details testen.

Hübie
2016-01-22, 10:49:14
Keiner sagt dir du sollst mit niedrigen Details testen.

Das machen leider immer noch einige ;)

OBrian
2016-01-22, 10:59:05
Die CPU-limitierten Szenen sind doch meistens eher die langsamen. Die GPU rackert sich an der Landschaft genauso ab wie sonst und könnte ihre 50-60 fps liefern, aber mehr Einheiten, AI-Scripte usw. ziehen die CPU auf 20 fps runter, wenn gerade viel los ist. Ob nun bei Arma im Krieg, in großen wuseligen Städten bei Anno oder beim Rumgezaubere in dicken WoW-Raids, es ist letztlich dasselbe. DAS sind doch die Stellen, an denen jeder sagt: "ich brauch mehr Power".

Hübie
2016-01-22, 12:04:48
Genau so sieht es aus. CPU-Benchmarking ist bei weitem schwieriger, als GPU-Benchmarking. Ich bezweifle an der Stelle jedoch, dass ein Upgrade von Gen->zu->Gen lohnenswert wäre. 2-3 Generationen sollten es da schon sein um spürbar mehr Leistung zu bekommen.
Oder halt vom kleinen auf den großen Sockel im Falle von Intel.

Nach wie vor bin ich sehr gespannt auf Zen. 40% mehr IPC wäre ja quasi Ivy-Haswell Performance (auch je nach Instruction Set, welches genutzt werden kann). Wenn es also haltbar ist wechsle ich direkt die Plattform. =)

tdon
2016-01-24, 00:42:04
Wenn ich einen alten C2Q @3,3 GHz mit niedriger Auflösung und niedrigsten Details teste, taktet dieser u.U. trotzdem schon hoch, weil die Last dies entsprechend der Logik signalisiert, während der Skylake (max ebenfalls 3,3 GHz) noch gemütlich herum dümpelt - also sein Potenzial gar nicht ausfährt. Das verzerrt das Ergebnis doch stark


In welchen Spielen beobachtest du das rumdümpeln? Ganz ehrlich: Es ist falsch. Aus eigener Erfahrung widerspreche ich dem.


Und wer mit niedrigen Details die Leistung der CPUs testet hat keine Ahnung, über sowas müssen wir nicht diskutieren.

reaperrr
2016-01-24, 02:56:44
Und wer mit niedrigen Details die Leistung der CPUs testet hat keine Ahnung, über sowas müssen wir nicht diskutieren.
Was dann leider auf sehr viele Testseiten und Magazine zutrifft.

Zu dem Thema fällt mir ein:

Als Nehalem damals neu rauskam, rannte er in Spielen in niedrigen Auflösungen & Details regelrecht Kreise um den Phenom II, in hohen Einstellungen lag letzterer dann teilweise sogar knapp vorn (nicht pro MHz, aber die Denebs takteten ja etwas höher als die Nehalems).

Macht auch irgendwo Sinn. Aus Performance-Gründen werden diverse KI, CPU-Physik u.ä. Berechnungen häufig nur für Objekte innerhalb des Sichtfeldes des Spielers durchgeführt. Und was fällt oft unter "Details"? Richtig, Sichtweite.
Die Phenoms hatten doppelt so große L1 und L2 Caches, und haben vermutlich darum in hohen Einstellungen weniger Leistung eingebüßt, weil sie nicht so früh wie Nehalems auf den lahmen L3 zugreifen mussten wenn die Datenmengen größer wurden.

R.I.P.
2016-01-24, 09:27:24
Was dann leider auf sehr viele Testseiten und Magazine zutrifft.

Zu dem Thema fällt mir ein:

Als Nehalem damals neu rauskam, rannte er in Spielen in niedrigen Auflösungen & Details regelrecht Kreise um den Phenom II, in hohen Einstellungen lag letzterer dann teilweise sogar knapp vorn (nicht pro MHz, aber die Denebs takteten ja etwas höher als die Nehalems).

Macht auch irgendwo Sinn. Aus Performance-Gründen werden diverse KI, CPU-Physik u.ä. Berechnungen häufig nur für Objekte innerhalb des Sichtfeldes des Spielers durchgeführt. Und was fällt oft unter "Details"? Richtig, Sichtweite.
Die Phenoms hatten doppelt so große L1 und L2 Caches, und haben vermutlich darum in hohen Einstellungen weniger Leistung eingebüßt, weil sie nicht so früh wie Nehalems auf den lahmen L3 zugreifen mussten wenn die Datenmengen größer wurden.

Ich wurde annodazumal in der Luft zerrissen, als ich in einer Diskussionsrunde im Forumdeluxx das Testen in niedriger Auflösung angepöbelt hatte...

BlackBirdSR
2016-01-24, 10:56:56
Ich wurde annodazumal in der Luft zerrissen, als ich in einer Diskussionsrunde im Forumdeluxx das Testen in niedriger Auflösung angepöbelt hatte...

Das liegt nicht an CPU Chaches, sondern an unterschiedlichen Eigenschaften der ganzen PCI—E Anbindung, Speicherverwaltung etc.
Wir reden hier von wenigen Frames am GPU Limit, das liegt nicht an CPU-Leistung. Das würde man natürlich dann auch bei reinen CPU Tests sehen.

CPU Tests nur auf hohen Auflösungen zu machen, ist wie Sportwagen nur bei 100km/h zu vergleichen

Kriton
2016-01-24, 12:11:06
Der Gedanke in niedriger grafischer Qualität CPUs zu benchen ist richtig. Man will ja sonstige Faktoren (wie z.B. ein GPU-Limit) ausschließen, um sicher zu gehen, dass es wirklich an der CPU liegt.
Wenn aufgrund des Versuchsaufbaus auch CPU-Last verrringert wird (wie von reaperrr angedeutet), dann ist das etwas, dass natürlich berücksichtigt werden muss, aber keineswegs die grundsätzliche Idee in Frage stellt, sondern lediglich in der konkreten Umsetzung berücksichtigt werden muss.

tm0975
2016-01-24, 12:45:43
CPU Tests nur auf hohen Auflösungen zu machen, ist wie Sportwagen nur bei 100km/h zu vergleichen

na das ist ja man ein besonders qualifizierter beitrag. abgesehen davon macht es durchaus sinn, sportwagen bei 100 km/h zu vergleichen, z.b. bei verbrauch, innengeräuschen, bremsweg, beschleunigungsdauer bis ... und beim hütchentest schafft keinre die 100 km/h...

ich persönlich halte die benchs mit minimalauflösungen für unsinn, weil aus ihnen die falschen schlussfolgerungen getrofffen werden, nämlich dass die cpu leistung eintscheidend wäre. dabei ist das in 90% der fälle falsch! fakt ist, dass diese benchs einzig und allein intel nützen und viele gamer einfach zuviel geld in die cpu stecken, jedenfalls deutlcih mehr als nötig! und wenn ich sehe, dass es am ende dazu führt, dass kunden die falschen entscheidungen treffen, dann ist auch die kaufentscheidungsunterstützung schlecht und ungeeignet. und da sind wir wieder beim anfang, der benchmark-auswahl.

y33H@
2016-01-24, 13:33:14
Wieso sollte die Schlussfolgerungen getroffen werden, dass die CPU-Leistung entscheidend wäre? Es wird schlicht getestet ob A schneller als B ist - genauso wie bei Grafikkarten.

OBrian
2016-01-24, 13:44:59
Ich weiß gar nicht, wieso da eine Diskussion entbrennen muß. Wir sind doch lange aus der Zeit raus, wo Grafikeinstellungen nur die Auflösungen betrafen. Daß man CPUs besser testet, wenn man nicht tausend Sachen reinhaut, die nur die GPU belasten (Auflösung, AA, Shadereffekte usw.), dürfte klar sein, aber es gibt genug Einstellungen, die auf "niedrig" die CPU-Last verringern: Sichtweite, Einheitenanzahl, KI-"Schläue", u.U. auch Schatten usw. Daß man also nicht sinnvoll eine Komponente isolieren kann, indem man stumpfsinnig im Spiel die vorgegebenen Settings "low/medium/high/ultimate" durchschaltet, sondern daß man für einen ordentlichen Test die Einzeleinstellungen bemühen muß, sollte klar sein.

Eigentlich will ich immer beides sehen: Hardwaretests, in denen im klaren Limit die CPUs oder die GPUs gegeneinander gemessen werden, und Spieletests, in denen geschaut wird, wie man das Spiel optimal spielen kann, sprich optisch möglichst gut bei möglichst viel Leistung, und dann gezeigt wird, ob das Spiel dabei eher CPU- oder GPU-lastig ist, und AMD-/Nvidia/Intel-lastig. Ersteres ist wichtig für die Entscheidung, was man in seinen neuen PC stopft, und letzteres für den besten Genuß des besagten Spiels.

Der_Korken
2016-01-24, 13:57:47
ich persönlich halte die benchs mit minimalauflösungen für unsinn, weil aus ihnen die falschen schlussfolgerungen getrofffen werden, nämlich dass die cpu leistung eintscheidend wäre. dabei ist das in 90% der fälle falsch! fakt ist, dass diese benchs einzig und allein intel nützen und viele gamer einfach zuviel geld in die cpu stecken, jedenfalls deutlcih mehr als nötig! und wenn ich sehe, dass es am ende dazu führt, dass kunden die falschen entscheidungen treffen, dann ist auch die kaufentscheidungsunterstützung schlecht und ungeeignet. und da sind wir wieder beim anfang, der benchmark-auswahl.

Wenn man so argumentiert, sollten (um bei der genannten Analogie zu bleiben) auch bei Autos weder maximale Beschleunigung, Höchstgeschwindigkeit noch Bremsweg bei Vollbremsung gemessen werden, weil das in der Praxis in 90% der Fälle völlig irrelevant ist. Es würde ja der Eindruck entstehen, dass nur diese theoretischen Maximalwerte für einen Kauf relevant sind, woraus völlig falsche Kaufentscheidungen resultieren.

Es wurde doch schon genannt, was man mit CPU-Benches in Minimalauflösung bezwecken will: Man will eine Datenbasis haben, die das Potenzial einer CPU möglichst gut beschreibt. Wenn dann z.B. rauskommt, dass CPU A 100fps und CPU B 150fps schafft, dann kann man doch immer noch entscheiden, dass einem die 100fps von CPU A reichen. Wer gerne 120Hz haben will, interessiert sich dagegen für CPU B. Wer das System länger nutzen will, interessiert sich vllt dafür, wie sie beide CPUs in zukünftigen Games schlagen. Aus 100 vs 150 fps könnten irgendwann 40 vs 60 fps werden. Das ist natürlich spekulativ, aber warum soll man Leuten Informationen absichtlich vorenthalten, indem man einfach mit voller Auflösung testet und alle CPUs vom i3 bis zum i7 das gleiche Ergebnis liefern? Das wäre dann übertrieben gesagt so, als wenn man einen Golf gegen einen Porsche im Berufsverkehr testet und sagt, beide wären gleichschnell.

maximus_hertus
2016-01-24, 14:38:08
ich persönlich halte die benchs mit minimalauflösungen für unsinn, weil aus ihnen die falschen schlussfolgerungen getrofffen werden, nämlich dass die cpu leistung eintscheidend wäre. dabei ist das in 90% der fälle falsch! fakt ist, dass diese benchs einzig und allein intel nützen und viele gamer einfach zuviel geld in die cpu stecken, jedenfalls deutlcih mehr als nötig! und wenn ich sehe, dass es am ende dazu führt, dass kunden die falschen entscheidungen treffen, dann ist auch die kaufentscheidungsunterstützung schlecht und ungeeignet. und da sind wir wieder beim anfang, der benchmark-auswahl.

Falsch. Die Benchmarks sind nicht "Schuld", sondern die Interpratation dieser.


Gehen wir mal zurück zum Sandy Bridge Launch:
http://ht4u.net/reviews/2011/intel_sandy_bridge_sockel_1155_quadcore/index52.php

In der hohen Auflösung sind AMDs Phenom II und die Intels quasi gleich schnell, in 800x600 sind es aber rund 45% Differenz.

Nach der Argumentation vieler sollte man ja nur die hohe Auflösung betrachten. Machen wir das mal: Jemand möchte gerne Anfang 2011 eine Kaufberatung für einen neuen Spiele-PC, und da wir ja wissen, dass der Phenom II genauso schnell ist wie der neue Intel Sandy, aber deutlich günstiger, könne wir ja problemlos den AMD empfehlen.

2 Jahre später: http://www.computerbase.de/2013-06/intel-haswell-prozessor-fuer-desktop-pcs-test/16/

In 1920x1080 sind es aufeinmal fast 35% Differenz (Phenom II zu Sandy), in niedriger Auflösung wieder rund 45%. Wie man sieht, ist selbst in Full-HD der Unterschied fast auf das Niveau von der niedrigen Auflösung gestiegen.

Zudem gibt es Spiele, die einen Phenom II durchaus in die Knie zwingen, auf einem Sandy jedoch weiterhin quasi perfekt laufen. Das hätte aber doch gar nicht passieren dürfen, schließlich waren die CPUs doch ursprünglich gleich schnell?

Eben nicht, die CPUs bzw. die Sandys durften nicht so schnell arbeiten wie sie könnten, da die Grafikkarte viel, viel zu langsam war. Erst weitere Graka-Gens konnten das volle Potential von Sandy und Co. aufzeigen.

Oder anders: Man hätte zum Sandy-Launch schon eine GTX 980 Ti haben müssen, um die echten Unterschiede der Leistungsfähigkeit unter 1920x1080 sehen zu können.

Die gab es nicht, also stellt sich die Frage, wie man die Grafikkarte als limitierenden Faktor eliminieren kann. Die Lösung ist relativ simpel: Auflösung heruntersetzen. Solange man die Details oben belässt, wird bzgl. CPU Berrechnung nichts verändert, aber die Grafikkarte "blockiert" die schnellen CPUs nicht mehr und man die ECHTEN VERHÄLTNISSE sehen. Sprich im Beispiel oben: Sandys sind rund 40-50% schneller im Vergleich zum Phenom II.


Wenn man nur für das hier und jetzt eine CPU braucht, dann kann man natürlich Full-HD Benches nehmen. Wenn man seine CPU aber über JAHRE nutzen möchte, sollte man eher die niedrigen Auflösung (720p) zur Rate ziehen, da man hier die Potentiale der CPUs sehen kann.

Hübie
2016-01-24, 14:59:15
In welchen Spielen beobachtest du das rumdümpeln? Ganz ehrlich: Es ist falsch. Aus eigener Erfahrung widerspreche ich dem.


Und wer mit niedrigen Details die Leistung der CPUs testet hat keine Ahnung, über sowas müssen wir nicht diskutieren.

WiC, Starcraft oder End War kannst du dir mal ansehen. Vielleicht auch Supreme Commander. Hab ich noch nicht getestet. Ich habe momentan keine Zeit sonst hätte ich noch mehr getestet. Kann mir auch die Ubisoft Spiele gut darunter vorstellen, da die idR viele Optionen haben.

Edit: Ich habe auch einige Beispiele wo man in FHD mehr fps hat weil der CPU Takt hoch geht. Leider gibt es kein Programm was den CPU Takt grafisch aufzeichnet. Das einzige wäre t_monitor, aber das frisst allein schon zuviel Leistung.

aufkrawall
2016-01-24, 15:06:14
Edit: Ich habe auch einige Beispiele wo man in FHD mehr fps hat weil der CPU Takt hoch geht.
Was für Beispiele denn, und gegenüber welcher anderen Auflösung sollen in FHD die fps im CPU-Limit wegen des höheren CPU-Takts höher sein?

dargo
2016-01-24, 15:17:47
Edit: Ich habe auch einige Beispiele wo man in FHD mehr fps hat weil der CPU Takt hoch geht. Leider gibt es kein Programm was den CPU Takt grafisch aufzeichnet. Das einzige wäre t_monitor, aber das frisst allein schon zuviel Leistung.
Das Thema hatten wir schon mal. Damals hatte ich schon gefragt wie du sicherstellen willst ob T Monitor mit neuen CPUs was anfangen kann bzw. ob die ausgelesenen Werte auch stimmen. Das Programm ist von 2012.

aufkrawall
2016-01-24, 15:20:55
Es ist letztlich vollkommen irrelevant, welcher physikalische Takt anliegt bzw. wir können das eh nicht überprüfen. Bei GPUs btw. genau so wenig.
Wir können valide und reliabel benchmarken und das muss reichen. Ich hab noch keinen Beleg für das Gegenteil gesehen.

BlackBirdSR
2016-01-24, 15:44:21
na das ist ja man ein besonders qualifizierter beitrag. abgesehen davon macht es durchaus sinn, sportwagen bei 100 km/h zu vergleichen, z.b. bei verbrauch, innengeräuschen, bremsweg, beschleunigungsdauer bis ... und beim hütchentest schafft keinre die 100 km/h...

.

Du hast den Post nicht verstanden.

NUR bei 100km/h.
Natürlich will ich AUCH bei 100km/h testen.

tm0975
2016-01-24, 16:58:12
Aus 100 vs 150 fps könnten irgendwann 40 vs 60 fps werden. Das ist natürlich spekulativ

nein, das ist nicht spekulativ, sondern schlicht falsch. der unterschied wäre bei 60 hz verschwindend gering. und genau deshalb bin ich gegen solche benchmarks, die nichts mit der realität zu tun haben. es ist schilcht egal, ob in 640 x 480 nun 150 fps erreicht werden oder nicht. alles unterhalb von fullhd ist sowas von 20. jahrhundert. und mittlere details für 100 statt 60 fps mit max details macht mmn auch keinen sinn. wenn in full hd mit maximum details auf 120 bzw 144 hz getestet wird, ist es ligitum. aber auch dann erst, wenn wenigsten 5% der potentiellen käufer wissen, was sync ist.

Du hast den Post nicht verstanden.

NUR bei 100km/h.
Natürlich will ich AUCH bei 100km/h testen.

meine aussage ist: tests sind nur brauchbare test, wenn sie reale anwendungsszenarien abbilden. d.h. 120 hz ja, vga mit 4 farben und min details nein.

maximus_hertus
2016-01-24, 17:01:28
nein, das ist nicht spekulativ, sondern schlicht falsch. der unterschied wäre bei 60 hz verschwindend gering.

Häääää? Wie jetzt?!


Achso, ob 30, 150 oder 100000000 fps ist wirklich erst einmal egal. Es geht darum festzustellen, um wieviel eine CPU schneller / langsamer als die andere ist. Wenn du aber in Full HD, am besten mit einer GTX 960 (ist ja wahrscheinlich wesentlich verbreiteter als eine 980 Ti und Co.) testest, wirst du NICHTS sehen können. Die Grafikkarte limitiert und man glaubt, dass beide Test-CPUs gleich schnell sind. Ich habe aber weiter oben schon beschrieben, dass sich dies ganz schnell ändern kann und aus einem vermutlichen Gleixchstand wird ein großer Rückstand / Vorsprung.

BlacKi
2016-01-24, 17:09:57
wenn in full hd mit maximum details auf 120 bzw 144 hz getestet wird, ist es ligitum. aber auch dann erst, wenn wenigsten 5% der potentiellen käufer wissen, was sync ist.



meine aussage ist: tests sind nur brauchbare test, wenn sie reale anwendungsszenarien abbilden. d.h. 120 hz ja, vga mit 4 farben und min details nein.

ich habe nichts gegen fullhd in cpu benchmarks, aber nur wenn die gpu nicht limitiert, wenn die gpu auch nur kurzzeitig limitiert ist die messung schlichtweg unbrauchbar. wie löst man das problem? 720p!

solange die gpu nicht für niedrigere fps verantwortlich ist, ist die messung auch verwertbar, ob das nun in 720p 1080p oder 1440p ist oder nicht.

Der_Korken
2016-01-24, 17:16:21
nein, das ist nicht spekulativ, sondern schlicht falsch. der unterschied wäre bei 60 hz verschwindend gering. und genau deshalb bin ich gegen solche benchmarks, die nichts mit der realität zu tun haben. es ist schilcht egal, ob in 640 x 480 nun 150 fps erreicht werden oder nicht. alles unterhalb von fullhd ist sowas von 20. jahrhundert. und mittlere details für 100 statt 60 fps mit max details macht mmn auch keinen sinn. wenn in full hd mit maximum details auf 120 bzw 144 hz getestet wird, ist es ligitum. aber auch dann erst, wenn wenigsten 5% der potentiellen käufer wissen, was sync ist.

Nur damit wir uns richtig verstehen (dein Quote war übrigens von mir und nicht von BlackBirdSR): Mit "aus 100 vs 150fps können 40 vs 60fps werden" meinte ich, dass zum Zeitpunkt des Tests die langsamere CPU noch für alle Spiele schnell genug ist (-> 100 fps), aber in ein paar Jahren dann Spiele auf dem Markt sein könnten, die sie in die Knie zwingen (-> 40 fps). Spätestens wenn man die Graka aufrüstet, kann man in so eine Situation kommen.

Darüber hinaus hast du das Problem anscheinend noch immer nicht verstanden. Maximus_hertus hat oben detailliert beschrieben und mit Links hinterlegt, was ich mit meinem Posting versucht habe zu sagen.

Leonidas
2016-01-25, 04:20:36
Diese extra Debatte wäre sicherlich interessant. Wenn man sich dabei nicht nur feststehende Standpunkte an den Kopf wirft, sondern versucht herauszuarbeiten, welche Tests zielführend sind.

Hübie
2016-01-26, 01:22:17
Ich bleibe hier am Ball. Momentan ist Prüfungsvorbereitung, was vorrangig ist. Habe schon ein paar Ergebnisse zusammengetragen. Wenn jemand ein gutes Programm kennt, welches den CPU-Takt loggen kann dann nur zu. Bisher kenne ich nur HWiNFO64, welches ebenfalls nur den generierten PLL-Takt liest.