PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Intel spricht sich gegen den Cinebench aus und fordert mehr ...


Leonidas
2019-05-29, 17:25:17
Link zur News:
https://www.3dcenter.org/news/intel-spricht-sich-gegen-den-cinebench-aus-und-fordert-mehr-realitaetsnahe-cpu-benchmarks

dr.denton
2019-05-29, 17:29:49
Interessant - sowas schlägt einer ja nur vor, wenn einem der Arsch auf Grundeis geht.
Bisschen wie Frau Kalaschnikow mit der Meinungsfreiheit :freak:

Schnoesel
2019-05-29, 18:10:44
Bei den Games muss ich jetzt auch nicht unbedingt wissen wie viel 100 FPS ich bei CSGO, LOL oder Overwatch habe. Dafür brauch ich doch keinen starken Prozessor, das läuft auch auf ner Banane gut. Völlig uninteressant imo.

https://www.computerbase.de/2018-04/ryzen-2600-2700-fortnite-pubg-overwatch/2/#diagramm-overwatch-1920-1080

Da würden mich Spiele wie Anno 1800 (wo so ziemlich jede CPU im Lategame abkackt), AC: O und Konsorten mehr interessieren.

Ach ja und das hier "Intel is offering help for OEMs and press" also daran habe ich keinerlei Zweifel :-) Intel weiß ja wie man Benches richtig macht. Was war da gleich nochmal irgendwas mit Principled Technologies hmm ich komm grad nicht drauf ...

Mega-Zord
2019-05-29, 18:16:21
Interessant - sowas schlägt einer ja nur vor, wenn einem der Arsch auf Grundeis geht.

Wieso sollte denen der Arsch auf Grundeis gehen. AMD hat schlechte Zeiten mit deutlich weniger Winterspeck überlebt ;D

Schnoesel
2019-05-29, 18:19:50
Och Intel wird das locker überstehen. Mehr als 30% Marktanteil hatte AMD zu besten Zeiten nicht und schon das wäre ein Wahnsinnserfolg. Wenn dazu noch 20% Marktanteil im Serversegment, wie Intel bereits befürchtet hat, kommen kann AMD sehr gut davon leben und weiter ein Konkurrent bleiben.

amdfanuwe
2019-05-29, 18:37:57
Na, ich hoffe mal, da laufen auch schwache und ältere Prozessoren im Bench.
Mein alter Laptop mit 1,7GHz dual Core E2-APU reicht mir für Excel und Internet.

Trap
2019-05-29, 19:09:26
Die "SSE macht das Internet schneller"-Firma ist also für Werbung mit plausiblen Ergebnissen? ;D

konkretor
2019-05-29, 19:11:23
mimimimi intel

https://bapco.com/ benchmark "anpassungen" von Intel

https://www.zdnet.de/2121623/amd-spricht-von-benchmark-betrug/

https://winfuture.de/news,84360.html

Complicated
2019-05-29, 19:37:32
Office PCs hängen heutzutage an der Netzwerkperformance und nicht an der SSD oder Festplatte. Die Dateien liegen auf Sharpoints oder Sambas und wen man Word/Excel/Powerpoint -Dokumente öffnet hängt es von der Antwort des Standarddruckers - die meisten haben einen Netzwerkdrucker als diesen definiert - ab, wie schnell das Dokument geladen wird. Weil eben die WYSIWYG Anzeige auf dem Bildschirm zuerst das Papierformat und Ausrichtung zieht vom Drucker.

Gast
2019-05-29, 19:37:48
Och Intel wird das locker überstehen. Mehr als 30% Marktanteil hatte AMD zu besten Zeiten nicht und schon das wäre ein Wahnsinnserfolg. Wenn dazu noch 20% Marktanteil im Serversegment, wie Intel bereits befürchtet hat, kommen kann AMD sehr gut davon leben und weiter ein Konkurrent bleiben.

Das hat Intel aber auch nur durch unlautere Methoden geschafft. Dazu eine großangelegte Propaganda "Intel inside" ins Leben gerufen.

Das schaffen die heute nicht mehr, heute sind die Leute etwas aufgeklärter und kennen den namen AMD.

Und natürlich geht ihnen der Arsch auf Grundeis. Das heißt ja nicht, dass sie pleite gehen ... aber die kotzen um jedes Prozent Marktanteil ab, dass sie verlieren und das werden sie.

Gast
2019-05-29, 20:06:57
Bei den Games muss ich jetzt auch nicht unbedingt wissen wie viel 100 FPS ich bei CSGO, LOL oder Overwatch habe. Dafür brauch ich doch keinen starken Prozessor, das läuft auch auf ner Banane gut. Völlig uninteressant imo.

Kein einziger getesteter Prozessor schafft durchgehend 240Hz, und in einigen der getesteten Spielen sind nicht oder nur knapp mit den allerschnellsten Prozessoren durchgehend die wesentlich verbeiteteren 144Hz drinnen.

Also ich finde das wesentlich interessanter als ein Anno, was man bereits mit 30FPS sehr gut und zur Not auch mit 20FPS spielen kann

Gast
2019-05-29, 20:40:40
Der Normalnutzer zieht keinen praktischen Vorteil daraus, ob Prozessor #1 laut Benchmarks vielleicht sogar 100% schneller in Office ist als Prozessor #2 – einfach weil Office für den Normalnutzer kaum Szenarien bieten, wo mal wirklich CPU-Leistung abgefragt wird (die Schnelligkeit beim Programm-Einladen geht eher auf das Konto der benutzten Festplatte bzw. SSD)

Nicht wirklich, sobald man eine SSD hat limitiert in aller Regel wieder die CPU, nur wenn man wirklich noch eine HDD hat limitiert diese.
Darum können sich auch PCIe-SSDs in den seltensten Fällen nennenswert von ihren S-ATA Kollegen absetzen können obwohl diese bei reinen Bandbreitentests haushoch vorne liegen.

Jeder der mal versucht hat eine X-Box auf eine SSD umzubauen kennt das, die Ladezeiten verbessern sich nämlich überraschend wenig, weil hier die extrem langsamen Jaguar-Kerne so stark limitieren.

Bei Render-Software wie Cinema4D ist das Feld dagegen sehr viel breiter – und es somit absolut logisch, das die einzelnen Anbieter mit geringeren Prozentanteilen daherkommen.

Wirklich, gibt es so viel mehr 3D-Suits als Office-Pakete? Also mir fallen auf Anhieb in beiden Anwendungsgebieten ähnlich viele bzw. eigentlich wenig ein.

Nichtsdestotrotz kann man durchaus sagen, das der Cinebench als Referenz vielleicht eher schlecht gewählt ist – immerhin wird hierbei primär Fließkomma-Code verwendet und liegen somit die Integer-Einheiten der Prozessoren mehr oder weniger brach.

Was ihn eigentlich nicht wirklich tauglich als "Referenzbenchmark" macht, der überwiegende Teil der Software besteht nämlich hauptsächlich aus INT-Code mit nur ganz wenig FP. Und nein die Int-Einheiten liegen in Cinebench alles andere als brach, der Anteil an FP-Code ist nur gegenüber dem Großteil anderer Software verhältnismäßig hoch.

einheitliches Standard-Set aus Windows-, Office-, Browser- und ZIP-Benchmarks samt einzelner Profi-Tests
bei HEDT/Workstation-Prozessoren zusätzlich noch mehr Profi-Tests


Warum einheitliche Tests? Es wäre (oder eigentlich ist) ja viel interessanter wenn man ein möglichst breites Spektrum an unterschiedlichen Tests hat. Idealerweise würde keine Software in 2 verschiedenen Hardwaretests verwendet, so kommt man an das größte Spektrum an verwertbaren Daten.


Vorsicht vor einseitiger Tendenz der Benchmarks wegen zu vieler oder zu weniger Tests aus demselben Anwendungsbereich
Warum? Die meisten User haben einen relativ einseitigen Anwendungsbereich in dem Performance benötigt wird.
Dementsprechend wäre es natürlich sinnvoll wenn sich einzelne Tests auf ein Thema konzentrieren würden, und der jeweilige Anwender sich den Test aussuchen kann der zu seinem Anwendungsprofil passt.
Was wir definitiv nicht brauchen sind zig Tests, die alle die gleiche Software testen.


Vorsicht vor Benchmarks, die viele Einzelergebnisse und kein Gesamtergebnis produzieren – dies verfälscht durch eine unnatürliche Gewichtung den Gesamtschnitt (Adobe Suite)

Warum? Gerade die Einzeltests sind interessant, irgendwelche Zusammenfassungen in Punkte sind zwar schön zu präsentieren und für den Tester wenig arbeit, aber sagen im Grunde nichts aus.


Ausschluß von Benchmarks, deren Ergebnisvarianz viel zu hoch ist, um systemübergreifend vergleichen zu können

Zustimmung


Ausschluß von kaum skalierenden Benchmarks, welche nicht die CPU, sondern das Gesamtsystem bewerten (PCMark)

Warum? Es soll ja durchaus die ganze Plattform bewertet werden, nicht die CPU alleine, da man heute eh mit einer CPU eine bestimmte Plattform mit kaufen muss ist es eigentlich nicht wirklich sinnvoll zwischen den beiden zu unterscheiden.


Ausschluß von Benchmarks, welche keine Kern-Skalierung oberhalb von 2 Kernen bieten (Ausnahme: Software von hohem Verbreitungsgrad)

Warum? Nur weil eine Software nicht mit mehreren Kernen skaliert, ist sie nicht automatisch weniger wichtig. Singlecore-Leistung ist noch immer wichtig und wird es wohl zumindest so lange die x86(64) Plattform existiert immer bleiben.


Tendenz logischerweise zugunsten von Software mit hohem Verbreitungsgrad – wobei diese Prämisse umso weniger wichtiger wird, je mehr es ins Profi-Segment hineingeht


Klingt naheliegend, nur warum der Fokus aufs "Profi-Segment", warum ist dieser wichtiger.


wichtiger als der Verbreitungsgrad ist allerdings die Realitätsnähe: Ist das, was gemessen wird, auch wirklich praxisrelevant?
daher Ausschluß von Benchmarks, deren Performance-Differenzen in der Praxis keine realen Auswirkungen ergeben
Grundsätzlich ja, wobei man sehr aufpassen muss was jetzt Praxisrelevanz hat.
Praxisrelevanz ist nämlich in der Regel nicht der absolute oder relative Zeitunterschied einer Tätigkeit, viel wichtiger ist die Häufigkeit der Tätigkeit.
Beispielsweise ist die Performance vom entpacken eher irrelevant, selbst wenn es große Zeitunterschiede von beispielsweise 7 und 10 Minuten gibt. Nur das entpacken macht man 1x im Leben einer Software, nämlich bei der Installation.

Wenn ich dagegen für das Laden einer Excel-Tabelle eine halbe Sekunde länger warten muss, das aber 100x am Tag machen muss ist das wesentlich relevanter.


insgesamt nicht unter 10 Benchmarks, eher in Richtung 20 Benchmarks (Pflicht bei HEDT/Workstation-Prozessoren)

Klar mehr ist natürlich immer besser, deshalb wie schon oben geschrieben möglichst unterschiedliche Software in verschiedenen Tests verwenden und nicht einen "Standardparkour".


Index-Bildung nicht vergessen – weil sowohl der Schnitt aller Messungen wichtig ist, als auch die Einzel-Benchmarks teilweise falsche Tendenzen gegenüber dem Gesamtbild suggerieren können

Index-Bildung ist sowas von Humbug. Weil der Index suggeriert A ist immer schneller als B, was insbesondere bei CPUs fast nie der Fall ist.
Viel wichtiger sind die Ergebnisse der einzelnen Tests. Deshalb mehr Verantwortung dem Leser, der sich die Benchmarks suchen muss die für ihn relevant sind, anstatt ihm alles vorkauen und in eine nichtssagende Zahl packen.


die Index-Bildung darf nicht die Ergebnisse von reinen Singlecore/Singlethread-Tests sowie von Theorie-Benchmarks, welche nur einzelne Funktionseinheiten ausmessen (Sandra), beinhalten


Wie gesagt, die Index-Bildung ist eigentlich immer, aber insbesondere bei CPUs Schwachsinn, aber was soll der hass gegen Singlethread-Tests? Singlethread-Leistung ist noch immer in sehr vielen Fällen das wichtigste, selbst bei Tests die mit mehreren Kernen skalieren, weil sich die wenigsten Probleme wirklich gleichmäßig aufteilen lassen und damit die Endperformance immer noch maßgeblich von der Single-Core-Leistung abhängt.

Ben Carter
2019-05-29, 21:13:37
Nichtsdestotrotz kann man durchaus sagen, das der Cinebench als Referenz vielleicht eher schlecht gewählt ist – immerhin wird hierbei primär Fließkomma-Code verwendet und liegen somit die Integer-Einheiten der Prozessoren mehr oder weniger brach.
Super wäre mal eine Aufstellung, welche Software/welcher Softwaretyp hauptsächlich INT- oder FPU-lastig ist.

hq-hq
2019-05-29, 21:49:24
Office PCs hängen heutzutage an der Netzwerkperformance und nicht an der SSD oder Festplatte. Die Dateien liegen auf Sharpoints oder Sambas und wen man Word/Excel/Powerpoint -Dokumente öffnet hängt es von der Antwort des Standarddruckers - die meisten haben einen Netzwerkdrucker als diesen definiert - ab, wie schnell das Dokument geladen wird. Weil eben die WYSIWYG Anzeige auf dem Bildschirm zuerst das Papierformat und Ausrichtung zieht vom Drucker.

genau so isses - und das macht mich wahnsinnig wie lahm das oft ist... einmal ist der lokale IT Service ausgeflippt weil wir hunderttausende von Logfiles von mehreren PCs parallel auf unser Netzlaufwerk kopiert haben und der Fileserver endgültig zum C64 wurde

abgesehen davon, den Cinebench gibt es schon ewig - ein Excel Benchmark wäre trotzdem toll... wenn man viele Datensätze verarbeitet kann das schon mal dauern

Gast
2019-05-29, 21:52:55
Nicht wirklich, sobald man eine SSD hat limitiert in aller Regel wieder die CPU, nur wenn man wirklich noch eine HDD hat limitiert diese.
Also selbst bei meinen alten Bulldozer-FX Kröten limitiert die SSD noch oft, dass die bei neueren dann auf einmal nicht mehr limmitieren sollte, kann ich mir nicht vorstellen.
Wirklich, gibt es so viel mehr 3D-Suits als Office-Pakete? Also mir fallen auf Anhieb in beiden Anwendungsgebieten ähnlich viele bzw. eigentlich wenig ein.
Naja, in Unternehmen gibt es quasi nur einen Anbieter. Ob man das gut oder schlecht findet, lasse ich mal dahin gestellt, aber ich kenne jetzt keine Firma, die nicht MS Office verwendet.

@Topic:
Generell ist es ja eigentlich eine gute Sache, die Benchmarks mehr auf die Endanwender zuzuschneiden. Aber wieso z.B. Winrar und nicht 7zip? Und witzig, dass bei Ice Lake dann ganz groß mit den superpraktischen Anwendungen SPEC 2016, SPEC 2017 und SYSMark2014 geworben wird, die natürlich jeder auf seinem Rechner installiert hat und täglich auch produktiv nutzt...
Sorry, einfach nur billige Ablenkung von den Konkurrenzprodukten...

Iscaran
2019-05-29, 22:10:11
Seit wann war Cinebench eigentlich "Pro AMD" biased ?

Es war eigentlich nur schon immer ein Benchmark der viel weniger einseitig "Pro Intel" biased war - weswegen man CB eben genommen hat. Aber kaum hat AMD hier nun Produkte die in der IPC gleich oder besser als die von Intel sind ist klar der Benchmark Schuld an der Misere.

seba86
2019-05-29, 22:17:46
@Ben Carter:

So als Faustformel:

Film-, Musik-, Grafik-bearbeitung und Spiele: FPU
Rest: INT

Rabiata
2019-05-29, 22:34:16
Ist schon merkwürdig, wenn Intel jetzt die Bedeutung von Cinebench klein reden will. Ausgerechnet jetzt, da Ryzen einen Vorprung zu haben scheint :rolleyes:.

Linmoum
2019-05-29, 22:44:10
Viel amüsanter ist doch, dass sie nach diesen Äußerungen dann damit um die Ecke kommen:

https://i.gyazo.com/68f8b8162746a9389e9a1ea3a005c0d0.jpg

Gast
2019-05-29, 23:01:19
Als Intel CPUs schneller im Cinebench waren, war's Intel egal. Da durfte der Cinebench gerne als Benchmark herhalten um zu beweisen wie überlegen Intel ist. Doppelmoral sondergleichen, womöglich optimiert man ja nicht mehr auf Intel, und haben Spectre & Co ihre Spuren hinterlassen. Was dort abgeht ist auch nicht mehr schön. Intel hätte ganz andere Sachen zu tun, als AMD den Erfolg nicht zu gönnen. Schuld sind sie slebt, TIC TIC und so.

Blediator16
2019-05-29, 23:02:54
Nicht umsonst hat Intel einiges in PR Investiert und "wichtige" Leute eingestellt mit nichtssagenden Bullshitjobs versehen.
Diese Reaktion passt sehr gut zu deren Wechsel.

Xergon
2019-05-29, 23:45:17
Man sollte berücksichtigen dass Cinebench den inzwischen absolut veralteten STANDARD-Software-Renderer von Cinema4D nutzt.

Den nutzt mangels Qualität quasi kein Profi mehr.

Eigentlich jeder den ich kenne nutzt entweder V-Ray, Red Shift oder Octane zum rendern, welche ALLE GPU-Beschleunigt sind.

Für die Renderleistung innerhalb von Cinema4D ist der Cinebench Wert daher leider nichtssagend.

Lustigerweise ist es er sogar extrem irreführend:

jeder der eins der genannten Plugins nutzt, wird bestätigen können dass Cinema4D primär SINGLE-THREADED ist, die gesamte Aufbereitung der 3D Szenen für z.b. Octane läuft auf einem Kern. Da die Szenenaufbereitung einen ganz anderen Workload hat als der reine Renderer, ist leider auch die SingleThread-Messung von Cinebench nicht ansatzweise aussagekräftig was die reelle Leistung von CPUs unter Cinema4D mit modernen Plugins betrifft.

Ein momentanes AMD System ist also für Cinema4D für die meisten Nutzer eine schlechte Wahl wegen der - leider - geringen ST Leistung. Mal sehen was Zen 2 bringt.

Aber verstehen kann man Intels Einwände auf jeden Fall. Nur komisch, warum sie erst jetzt damit kommen ;)

Robot
2019-05-29, 23:51:51
Das ist so lustig, ich kann mich noch gut dran erinnern wie Intel den Cinebench quasi zum "Standard-Benchmark" erhoben hat. Redaktionen die das nicht so gesehen haben und den Benchmark als "Special Interesset" und nicht wirklich "praxisrelevant" eingestuft haben, wurden gleich mal wie Aussätzige oder Volltrottel behandelt ^^

Gibt ja noch einen Hersteller, der so was gerne macht...
Wird lustig wenn denen bald auch mal der Arsch auf Grundeis geht...

iamthebear
2019-05-30, 01:13:46
Natürlich hat Intel hier ein starkes Eigeninteresse aber sie haben damit Recht. Man sieht sehr gut wie sich Benchmarks immer mehr von der Realität weg entwickeln.
Derzeit werden vom gesamten Anwendungsfeld genau 2 Dinge getestet:
.) Frameraten in Spielen
.) Diverse Multimediaanwendungen

Andere Anwendungen sind so gut wie nicht mehr vertreten. Der typische Käufer liest dann so ein Review und denkt, dass er unbedingt seinen alten Intel Quad Core durch einen neuen 12 Kerner von AMD tauschen muss (oder eine entsprechende Intel CPU). Ziemlich bald macht sich dann aber Ernüchterung breit denn:
.) Auch die alte CPU hat locker Frameraten über 60 fps geschafft. Für mehr Details ist doe Grafikkarte gefragt
.) Die Ladzeiten sind nicht viel schneller weil diese nur 1 Kern benutzt wird
.) Er merkt, dass er sonst gar keine Anwendungen hat, die mehr als 4 Kerne benutzen
.) Auch von den tollen 15% mehr IPC bei Fließkommaanwendungen spürt man nicht viel, weil in der Praxis nicht so viele Fließkommaberechnungen da sind wie geplant.

Die große Frage ist mit was wir unsere Benchmarks ersetzen können. Klar könnte man jetzt einen Benchmark bauen, indem man jetzt eine furchtbar aufwändige Excel Simulation laufen lässt aber auch das wird nicht repräsentativ sein.

Meine Ideen wären:
.) Einen Installer Benchmark: Wir nehmen ein frisches Image und stoppen die Zeit, die z.B. die Installation des Office Pakets braucht.
.) Outlook Benchmark: Man verschiebt alle Mails aus einem 2GB Postfach in eine PST Datei.
.) Wir stoppen die Ladezeit von einem Spiel (Dateien sollten auf einer schnellen SSD liegen)
.) Wir haben eine Access Datenbank und generieren eine aufwändige SQL Abfrage.
.) Word: Wir generieren einen Serienbrief und speichern den in ein PDF
.) Excel: Wir lassen ein Skript laufen, das eine Excel Datei öffnet, mit Daten befüllt und anschliesend speichert. Das ganze mehrmals hintereinander mit verschiedenen Daten.
.) Wir nehmen ein großes Open Source Projekt und stoppen die Zeit, die das Visual Studio zum kompilieren braucht.
.) Ein Skript, das bestimmte Webseiten lädt (sollte von einem lokalen Webserver sein) mit etwas Multimedia. Eventuell wird ein kleines Video abgespielt. Am Schluss wird geschaut wie hoch die CPU Last war (wieviele Zyklen).
.) Ein WinRAR Benchmark mit Beispieldaten: Einmal komprimieren, einmal entpacken, dann das Ganze nochmal im zip Format.

Klar das macht etwas mehr Aufwand um reproduzierbare Ergebnisse hin zu bekommen aber dafür hat man realistische Anwendungen. Klar kann man dann 1 oder 2 Multimediaanwendungen rein mischen, aber nicht 100%.

Gast
2019-05-30, 01:16:59
Schon geil. Intel will ihre Produkte lieber mit Notepad und Solitair gebencht wissen. Da kann man mal sehen wo die sich selbst mitlerweile sehen.

Grundsaetzlich waehre ein breites Feld an Tests begruessenswert. Dies ist aber nicht die Aufgabe einer Marketing Veranstaltung, sondern die der Reviewer, und die machen das meist schon recht gut.

Problematisch ist bei manchen Produkten jedoch das diese absolut nicht auf etwas anderes als den Martfuehrer optimiert sind. Mir fallen da direkt Adobe und Hitfilm ein. Ich denke bei Produkten von Autodesk sieht das aehnlich aus.

Robot
2019-05-30, 02:12:04
Die Vorschläge sind ja ganz nett, aber das ist eigentlich das was die Tester früher gemacht haben, ich denke da gerade an die schönen Zeiten mit Sysmark und Co die das ja so in der Richtung gemacht hatten.

Aber um nur mal die Fakten klar zu stellen.

1) Man war froh wenn das Teil 1x durchgelaufen ist. mehrere Durchläufe, die man eigentlich bräuchte hätten TAGE gedauert.

2) Die Ergebnisse waren so was von eben gerade nicht reproduzierbar und die Schwankungen viel zu groß.
Oder aber es kam auf der anderen Seite bei allen CPUs das gleiche raus und man hat keine Unterschiede mehr gesehen.

3) es hat alles viel zu lange gedauert

Also ist man dazu übergegangen immer kürze Benchmarks zu machen, die man schnell 10x wiederholen kann. Das gleiche passiert doch auch bei den Grafikkarten. Immer kürzere Sequenzen unter dem Vorwand das "syntetische und eben immer gleich ablaufende Benchmarks" nicht relevant sind. Dafür wird dann eine 10 Sekunden Sequenz genommen und sich einmal im kreis gedreht oder 10 Sekunden geradeausgelaufen. Oder man nimmt gleich ein "Safe Game" was oft einfach nur ein Pseudo für Standbild ist!

Der Cinebench hat sich auch gerade deshalb durchgesetzt weil er so einfach und schnell geht! Die Hersteller hauen das dann in ihre PR und alle machen es mit. Genauso wie SuperPI usw usw.

Von den Redakteuren hat ja zum Launch keiner mehr Zeit, was auch genau so von den Herstellern gewollt ist.

etp_inxession
2019-05-30, 07:27:54
Nicht umsonst hat Intel einiges in PR Investiert und "wichtige" Leute eingestellt mit nichtssagenden Bullshitjobs versehen.
Diese Reaktion passt sehr gut zu deren Wechsel.

Sind die PR Leute auch von AMD gekommen, wie Raja oder Jim?

AMD´s PR war ja bisher eine Katastrophe, seit einiger Zeit aber durchaus verbessert. Was man bei Intel nicht behaupten kann.

Pirx
2019-05-30, 08:35:42
gemäß der Computerbase, soso

Zossel
2019-05-30, 08:45:00
Da würden mich Spiele wie Anno 1800 (wo so ziemlich jede CPU im Lategame abkackt), AC: O und Konsorten mehr interessieren.

Sowas wird doch ständig gepatcht was das zu einem moving Target macht und somit
nicht die geringste Vergleichbarkeit zur Verfügung stellt.

Zossel
2019-05-30, 08:52:04
.) Einen Installer Benchmark: Wir nehmen ein frisches Image und stoppen die Zeit, die z.B. die Installation des Office Pakets braucht.
.) Outlook Benchmark: Man verschiebt alle Mails aus einem 2GB Postfach in eine PST Datei.
.) Wir stoppen die Ladezeit von einem Spiel (Dateien sollten auf einer schnellen SSD liegen)
.) Wir haben eine Access Datenbank und generieren eine aufwändige SQL Abfrage.
.) Word: Wir generieren einen Serienbrief und speichern den in ein PDF
.) Excel: Wir lassen ein Skript laufen, das eine Excel Datei öffnet, mit Daten befüllt und anschliesend speichert. Das ganze mehrmals hintereinander mit verschiedenen Daten.
.) Wir nehmen ein großes Open Source Projekt und stoppen die Zeit, die das Visual Studio zum kompilieren braucht.
.) Ein Skript, das bestimmte Webseiten lädt (sollte von einem lokalen Webserver sein) mit etwas Multimedia. Eventuell wird ein kleines Video abgespielt. Am Schluss wird geschaut wie hoch die CPU Last war (wieviele Zyklen).
.) Ein WinRAR Benchmark mit Beispieldaten: Einmal komprimieren, einmal entpacken, dann das Ganze nochmal im zip Format.

Alles zuviel Moving Target, oder zum Testzeitpunkt hat MS mal wieder einen Windowspatch verkackt und es läuft nur die Hälfte durch.

Nachtrag: Der Officekram in der Liste dürfte auch viel an memcpy() und Contextswitches hängen. (Und Intel hat sich ja ein schönes Ei bzgl. Contextswitches ins Nest gelegt)

Zossel
2019-05-30, 08:58:44
Super wäre mal eine Aufstellung, welche Software/welcher Softwaretyp hauptsächlich INT- oder FPU-lastig ist.

Aufgepasst, z.b. macht IMHO x264 viel INT, das allerdings auf den Vektorunits.

Closed Source taugt eben nicht für Benchmarks die einzelne Komponenten vertesten sollen.

Rabiata
2019-05-30, 11:43:29
iamthebear's VorschlägeAlles zuviel Moving Target, oder zum Testzeitpunkt hat MS mal wieder einen Windowspatch verkackt und es läuft nur die Hälfte durch.

Nachtrag: Der Officekram in der Liste dürfte auch viel an memcpy() und Contextswitches hängen. (Und Intel hat sich ja ein schönes Ei bzgl. Contextswitches ins Nest gelegt)
Spiele und Multimediaanwendungen haben durchaus ihre Berechtigung als viel genutzte Testfälle, weil sie

in der Praxis auch viel genutzt werden.
die Leistung bei den meisten Usern auch wirklich brauchen. Die Szenarien für Office sind eher Ausnahmefälle, die entweder selten auftreten (Installer) oder untypisch hohe Datenmengen haben.


Was das Moving Target angeht, müßten sich die Tester auf jeden Fall eine bestimmte Version herauspicken und auf längere Zeit mit der testen, zwecks Vergleichbarkeit. Irgendwann ist diese Version natürlich zu veraltet um praxisgerecht zu sein, dann gehen die Diskussionen nach einem angemessenen Ersatz wieder los. Aber das ist wohl unvermeidlich :wink:.

Badesalz
2019-05-30, 12:04:54
Wenn wir uns wie schon hier drauf einigen, daß es eine Bullshit-Campaign ist
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=594895
dann brauchen wir hier garnicht eine dritte oder gar vierte Seite generieren.

Ich freu mich jedenfalls schon auf deren GPU. Und sie ihre Kettenhunde dann auf 3dmark loslassen :ulol:

edit:
Liegt WinRAR (ohne dem was zu wollen) daheim wirklich noch vor 7-Zip?

Screemer
2019-05-30, 13:25:27
Wollen wir Mal ne Liste machen wen Intel so die letzten Monate für ihre bullshit-campaign eingekauft hat?

Ich fange Mal an:
Ryan Shraut
Ashraf Eassa
Kyle Bennett

Gast
2019-05-30, 13:30:54
Liegt WinRAR (ohne dem was zu wollen) daheim wirklich noch vor 7-Zip?
Also ich habe seit gefühlt 10 Jahren kein WinRar mehr. Das ist ja auch technologisch mehr als veraltet mit relativ schlechtem Threading und ohne GPU Beschleunigung (gibt's z.B. bei WinZip). Privat nutze ich aber auch nur 7zip da kostenlos und mehr als ausreichend.

Und die scheinheiligkeit von Intel bei der Vorstellung von Ice Lake ist schon mehr als peinlich, da hat man dann doch wieder auf Cinebench und andere realitätsfremde Benchmarks gesetzt, statt wirklich real World Benchmarks durchzuführen. Ich kann mich noch schön dran erinnern, wie unbeschreiblich lahm mein Arbeits-Lappy beim Vergleich von 2 Word Files war (beide um die 50 Seiten klein und grob 2000 Änderungen, da war der Skylake i7 quasi unbenutzbar). Wieso nicht sowas mal benchen...

Blediator16
2019-05-30, 16:40:59
Wollen wir Mal ne Liste machen wen Intel so die letzten Monate für ihre bullshit-campaign eingekauft hat?

Ich fange Mal an:
Ryan Shraut
Ashraf Eassa
Kyle Bennett

Darren McPhee war aber ca 2015 von AMD weg hat den Fixer und Never Settle verbrochen, damit wohl auch "poor volta".
Heather Lennon war auch "Digital Marketing Head" bei AMD.
Tom Petersson von Nvidia war auch gut mit PR bei Ryan Shroud dabei.
Chris Hook war Marketing Chef bei AMD.
Mark Taylor war Marketing Manager bei Nvidia.
Devon Nekechuk war Produkt Manager bei AMD und auch mit dem Marketing verbunden.
Damien Triolet kam von hardware.fr.

Chris Pirillo nicht von einem der Konkurrenten, allerdings ein Bullshitjob, wie er im Buche steht chief community advocate

Es gab noch mehr, die nicht direkt mit der PR zutun hatten.

Die Social Media Aktivität ist in den letzten Monaten extrem in die Höhe geschossen.

Fattyman
2019-05-30, 16:47:48
Nachdem die neueste Zen-2 Generation gerade im Cinebench mit Intels CPUs gleichzieht oder ihnen gar davonrast, versucht Intel nun dieses jahrelang erfolgreiche Verkaufsargument - Rechenleistung, wo es drauf ankommt - kleinzureden. Klarer kann Intel nicht sagen, dass sie gerade - und auch in nächster Zukunft - keine Architektur am Start haben, die AMDs CPUs Paroli bieten kann.

Tja, und dann gibt es noch die neuen "Features" wie Meltdown oder ZombieLoad, die das Hyperthreading von Intels CPUs zu einem sicherheitsrelevanten Un-Feature zu machen drohen.

IchoTolot
2019-05-30, 21:09:01
Ich verstehe gar nicht wo das Problem ist? :confused:
Es gibt doch Benchmarks wie eben PC Mark wo viele verschiedene Disziplinen angewendet werden. Da einfach beide CPUs mit sonst identischer Hardware durchlaufen lassen und man hat einen guten Vergleichswert in vielen verschiedenen Disziplinen..?

PCMark 10 bietet Tests für alle Lebenslagen unter Windows 7, 8.1 und 10. Der Fokus des Benchmarks liegt dabei auf realen Anwendungen vom Surfen im Internet über Bilder und Videos bearbeiten und Texten schreiben bis hin zum Gaming. Er soll dabei gleichmaßen für alle Windows-Systeme vom Tablet bis zum High-End-PC geeignet sein.

Tests umfassen das Starten von Anwendungen wie Browser oder Bildbearbeitungsprogrammen, deren Nutzung, Videokonferenzen und die Wiedergabe von Videos in den Formaten H.264 und VP9. Alle benötigten Anwendungen sind im Benchmark enthalten.



Warum nicht einfach sowas nutzen??

Rooter
2019-05-30, 21:50:41
WinRAR ist auf 37% aller PCs!? :ulol:

MfG
Rooter

Lehdro
2019-05-30, 22:02:07
Warum nicht einfach sowas nutzen??
Weil PCMark zu recht gemieden wird wie die Pest. Fragst du dich nicht auch warum niemand ernsthaftes den 3DMark für Grafikkartenvergleiche nutzt?

Leonidas
2019-05-31, 00:21:48
Es gibt doch Benchmarks wie eben PC Mark


Gräßliche Skalierung, wahrscheinlich weil zu viele Disk-Tests mit drin sind. Da kommen Performance-Differenzen zwischen 2C und 6C mit ca. +20% heraus.

Robot
2019-05-31, 01:13:38
Gräßliche Skalierung, wahrscheinlich weil zu viele Disk-Tests mit drin sind. Da kommen Performance-Differenzen zwischen 2C und 6C mit ca. +20% heraus.

Das liegt an der Verteilung der einzelnen Tests, die eben in vielen Fällen die "tatsächliche Performance" abbilden soll. Eigentlich das was hier ja auch viele wollen.

Ist halt auch egal ob du ne Webseite mit 2C oder 6C anschaust oder nen Word text tippst. Dann hast du 20 tests die mit Multicore nicht skalieren und am Ende bleiben dann bei dreifacher Kernzahl +20% über.

iamthebear
2019-05-31, 02:22:03
Gräßliche Skalierung, wahrscheinlich weil zu viele Disk-Tests mit drin sind. Da kommen Performance-Differenzen zwischen 2C und 6C mit ca. +20% heraus.

Nur weil eine Anwendung gut mit der Kernanzahl skaliert heißt das nixht, das es ein guter Benchmark ist.
Wenn man die typischen Anwendungen eines Bürorechners oder Heim PCs für nicht Spieler vergleicht, dann sind 20% sogar noch sehr optimistisch. Mir fällt da bis auf WinRAR überhaupt nichts ein, was mehr als einen Kern belastet. Da reicht ein Dual Core mit SMT vollkommen aus.

Badesalz
2019-05-31, 07:28:55
@iamthebear/@iamthebear
2019 eine Unterhaltung über zukünftige Benchmethoden. Angeregt durch Intel, weil sie mit den bisher tolerierten Methoden sich nicht mehr absetzen können oder gar Boden verlieren. In dieser Diskussion bringt ihr dann Anwendungsfälle, für welche schon Core2Duo E8400 mehr als ausreichend war.

Selbst wenn man das als sinnige Meinung akzeptiert, welche Schlüsse soll man daraus ziehen? Mir fällt grad nichts ein.

Leonidas
2019-05-31, 08:43:48
Das liegt an der Verteilung der einzelnen Tests, die eben in vielen Fällen die "tatsächliche Performance" abbilden soll. Eigentlich das was hier ja auch viele wollen.

Ist halt auch egal ob du ne Webseite mit 2C oder 6C anschaust oder nen Word text tippst. Dann hast du 20 tests die mit Multicore nicht skalieren und am Ende bleiben dann bei dreifacher Kernzahl +20% über.



Nur weil eine Anwendung gut mit der Kernanzahl skaliert heißt das nixht, das es ein guter Benchmark ist.
Wenn man die typischen Anwendungen eines Bürorechners oder Heim PCs für nicht Spieler vergleicht, dann sind 20% sogar noch sehr optimistisch. Mir fällt da bis auf WinRAR überhaupt nichts ein, was mehr als einen Kern belastet. Da reicht ein Dual Core mit SMT vollkommen aus.



Beides ist korrekt, aber letztlich ist die Skalierung von PCMark so drastisch schwach, das es eine Aussage darstellt, ein Core i3-2100 wäre doch ausreichend. Dies ist in meinen Augen überzogen, gerade wenn man CPU-fremde Tests einfließen läßt. Aber PCMark macht ja auch das, was der Name sagt - den gesamten PC zu bewerten. Hat demzufolge in einem CPU-Test nur am Rande etwas zu suchen. Nicht der Benchmark ist schlecht, die Verwendung als CPU-Test ist falsch.

Iscaran
2019-05-31, 09:43:02
Das schöne am Cinebench ist dass man sehr gut und EINFACH zwischen Single Core Leistungsfähigkeit und Multicore unterscheiden kann. (Dadurch erhält man dann indirekt auch ein Gefühl dafür wie gut HT/SMT z.B. hilft).

Etwas das bei vielen anderen, vor allen Dingen Benchmark Suiten (PCMark etc) nicht so geht.

Ich denke jeder der hier etwas in der Materie drin steckt weiss, dass seit geraumer Zeit für "Office" es eigentlich völlig egal ist was da für ein Rechner drinsteckt.
Für das bisschen Boost in Excel und Co das man mit Multi-Core hinbekommt bei "normalen" Arbeitslasten ist der Aufpreis einfach nicht sinnvoll. Da kommt es viel mehr darauf an ob alles in den Thinclient passt und die ganze Package maximal 15W hat (oder weniger).

Selten mal braucht jemand wirklich mehr CPU Power. Solche Kollegen haben aber dann in der Regel EXTRA Rechner für ihr Aufgabengebiet.

Man bräuchte viel eher "einfache" Benchmarksuiten die die unterschiedlichen Aspekte beleuchten...FPU-Durchsatz, INT-Durchsatz - ContexSwitch Durchsatz, HT/SMT (bei Einzelanwendung) HT/SMT bei Multithread anwendung usw. etc.

Diese sollten danach dann auch nicht in 1 Wert zusammengewürfelt werden sondern eben nach den paar Kategorien getrennt dargestellt werden.

arcanum
2019-05-31, 11:38:21
cinebench wird seit jahren genutzt wodurch man eine riesige datenbank hat um werte zu vergleichen. es skaliert sehr gut mit leistung, cores und multithreading und performt sowohl mit amd als auch mit intel gleichwertig. es gibt gar keinen rationalen grund zu sagen der bench sei obsolete. wenn man sagt, dass niemand cinebench produktiv nutzt kann man das gleiche für alle anderen (synthetischen) benchmarks sagen.

Gast
2019-05-31, 14:45:22
Gräßliche Skalierung, wahrscheinlich weil zu viele Disk-Tests mit drin sind. Da kommen Performance-Differenzen zwischen 2C und 6C mit ca. +20% heraus.

Was vermutlich für viele Büroanwendungen durchaus ein realistisches Szenario ist, also gerade das was Intel will.

Blöd nur, dass Intel dann gar keine neuen CPUs mehr bauen braucht, weil jeder erkennt, dass man längstens mit einem Haswell eh mehr als schnell genug ist :D

IchoTolot
2019-05-31, 18:45:59
Realistische CPU-Benchmarks. Ich bleibe dabei. PC-mark is schon recht vielfältig. Der dauert ja auch ne Weile. Da is rendering dabei, encoden mit AVX wo meine CPU höchstwerte erreicht hat bei den Temp, Tabellenkalkulation.. Was soll realistischer sein?

Alles andere sind immer Tests wo jemand was fehlen wird..

Niall
2019-06-01, 14:20:49
Ich kann Intels Argumentation nicht ganz folgen. Für Chrome, Word und Steam brauche ich doch keine Achso-Potente-Uber--Multihreadmonster-CPU, da müsste man schon eher ein Kompressionstool, Bildbearbeitungssoftware, Encoding o.Ä. nehmen – ach warte, das nutzen ja auch nur 0,05% täglich. :freak:

Cinebench passt schon, die Werte sind über die Jahre einfach sehr gut vergleichbar geworden/geblieben. Für die allermeisten Anwender braucht es schlicht keine dieser Uber-CPUs.

Gast
2019-06-02, 00:48:48
Schon in der Einleitung sind mehrere Böcke geschossen. Schade drum.
Z.B. war 3DC einerseits schlau genug, bei Einführung des sinnvollen 4K-Index den für FHD nicht abzuschaffen. Und bietet damit zwei Werte für zwei Anwendungsbereiche. Andererseits basieren die Werte auf Tests, die zumeist die neuesten Spiele verwenden und damit weit jenseits dessen liegen, was in der Realität von der Masse gespielt wird.
Diese Doppelzüngigkeit zieht sich komplett durch. Neben anderen Logikfehlern.

Leonidas
2019-06-03, 06:29:43
Z.B. war 3DC einerseits schlau genug, bei Einführung des sinnvollen 4K-Index den für FHD nicht abzuschaffen. Und bietet damit zwei Werte für zwei Anwendungsbereiche. Andererseits basieren die Werte auf Tests, die zumeist die neuesten Spiele verwenden und damit weit jenseits dessen liegen, was in der Realität von der Masse gespielt wird.
Diese Doppelzüngigkeit zieht sich komplett durch. Neben anderen Logikfehlern.


Das ich nur Test auswerte, die *vorhanden* sind, ergibt sich einfach aus der Praxis. Das ist kein böser Wille. Da "Doppelzüngigkeit" zu sehen, ist schon ganz schön gewagt.

Die "anderen Logikfehler" hast Du dagegen nicht genauer genannt. Was soll ich darauf erwidern?

seba86
2019-06-03, 08:11:59
@Gast 00:48: Besoffen um die Zeit? Ich bin interpretationstechnisch recht oft anderer Meinung als Leonidas, aber das ist schon dreist! Was kann ER dafür dass die REVIEWER eben die neuesten Games spielen. Das ist aber kein Beinbruch, da man auch für ältere Games genug Benchmark-Werte findet im Netz... die "älteren Games" entsprechen eh die meist-gezockten des Users, und dieser kann von seiner alten Grafikkarte auf seiner dank Index wunderbar das Leistungsplus abschätzen.