PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Intel sieht Core i7-9700K & i9-9900K noch vor Ryzen 9 3900X


Leonidas
2019-08-27, 11:25:06
Link zum Artikel:
https://www.3dcenter.org/artikel/intel-sieht-core-i7-9700k-i9-9900k-noch-vor-ryzen-9-3900x


Ich überlege, ob da am Ende nicht eine knallige Grafik gehört, welches alle Aussagen eben in einem Bild bringt - als Gegenpol zur Intel-Grafik gedacht. Ideen hierzu? Ich bin selber nicht so der Grafiker.

JVC
2019-08-27, 13:01:13
Intel ist einfach "ein schlechter Verlierer" :cool:

Das ganze dient nur dazu, die Preise zu rechtfertigen.
(Aktionäre wollen hohe Dividenden sehen...)

Die "Knallige Grafik" braucht es m.M.n. nicht ^^
(ohne eigene = neutraler)

Anwendungen und Spiele Vergleich, zeigen deutlich was Sache ist :up:
(wer die +5% in Spielen unbedingt braucht muss hald zu Intel Greifen)

M.f.G. JVC

GanjaBob
2019-08-27, 13:49:31
Netter Artikel, Grafik braucht's nicht - die Tabellen sind ausreichend verständlich ;-)

konkretor
2019-08-27, 15:04:18
wtf intel

Gast
2019-08-27, 15:17:50
Der Abstand in Games die nicht so sauber auf MT reagieren ist in freier Wildbahn sicher deutlicher.
Die meisten Reviews haben verständlicherweise mit Herstellervorgaben @ 2666Mhz Ram Speed getestet.
Der IMC ist dem der Ryzen 3000er zumindest ebenbürtig wenn nicht sogar besser so das hier 4000Mhz und teils mehr recht realistisch sind und einen ordentlichen Schub in Games bringen. Spielerein wie Allcoretrubo etc. noch garnicht betrachtet.

Coffelake kommt dardurch zwar immernoch nicht im Bereich heavy MT an Ryzen vobei , wird aber in seinem Steckenpferd der Singelcoreleistung wie sie in vielen Games noch heute wichtig ist noch stärker.

Wer gern KSP usw zockt nimmt das gerne mit.

Aroas
2019-08-27, 15:29:21
Intel versucht (einmal mehr) den Markt zu manipulieren.
Diesmal aber in so plumper Form, dass es einfach nur noch lächerlich ist.

Der Cinebench ist also angeblich nicht praxisrelevant. Klar, AMD ist in diesem Benchmark ja auch deutlich vorn.
Also sucht man sich bei Intel einfach eine Software, die die eigenen Produkte besonders gut aussehen lässt und erklärt diese kurzerhand zur neuen Referenz für Tests.

Lug und Trug, das ist das Markenzeichen von Intel. Naja und Wucherpreise für kleinste Verbesserungen zu nehmen.

Wenn ich nächstes Jahr meinen PC aufrüste, dann wird da ein R7 3700X drin Platz nehmen. Intel kann seinen Dreck behalten.

Lehdro
2019-08-27, 15:59:21
Und wieder wurde das Wichtigste vergessen zu erwähnen:

Wer steht hinter SYSmark? INTEL. BAPCO ist ein reines Feigenblatt für Intel, was seit ca. 20 Jahren bekannt und durchaus relevant ist.
Quellen:
Wiki (https://en.wikipedia.org/wiki/BAPCo_consortium)
BAPco has suffered criticism for bias in its benchmarking products. It was found in 2002 that Intel was the sole contributor to a series of CPU tests, tests which heavily favoured their own CPU's vs competitors, where the tests of the year before performed significantly better on non-Intel parts[3]. Intel was investigated by the FTC, and eventually fined for this action, among other anti-competitive measures[4].
VansHardware (http://www.vanshardware.com/articles/2001/august/010814_Intel_SysMark/010814_Intel_SysMark.htm)
Over a year ago at Tom's Hardware Guide, we first exposed Intel's relationship with BAPCo, the maker of SysMark 2000 and 2001. Initially the BAPCo URL was registered in "Whois" under Intel, but, as word of this questionalble connection spread, the entry was altered to remove the chipmaker's name. However, the new BAPCo listing's address was familiar to those in the industry: 2200 Mission College Blvd., Santa Clara, California -- Intel's domicile.

Soon after we brought this sleight of hand to the public's attention, all connections to the chip giant were obliterated from the Whois entry. Despite this, BAPCo's own contact information continues to cite 2200 Mission College Blvd. as its official address.

At last winter's Platform Conference, Randall Kennedy of CSA Research stated in his presentation that all of the other member companies in the BAPCo consortium had "fallen by the wayside" leaving only Intel. In fact, Mr. Kennedy asserted that BAPCo was essentially just a "front" for the chip giant.
Semiaccurate (https://semiaccurate.com/2011/06/20/nvidia-amd-and-via-quit-bapco-over-sysmark-2012/)
SYSmark in particular has been long seen by everyone but Intel as a joke, it is so skewed that it is laughable, it really doesn’t measure anything but Intel or non-Intel CPUs. With the release of SYSmark 2012, things got even worse.
CNET (https://www.cnet.com/news/amd-chip-test-was-altered-to-favor-intel/)
The most dramatic change was the way scores for Internet content creation were calculated, AMD said. Compared with scores from Sysmark 2001, Intel chips scored slightly higher, while the score of AMD chips plummeted 20 percent.
PCWorld (https://www.pcworld.com/article/3023373/amd-accuses-bapco-and-intel-of-cheating-with-sysmark-benchmarks.html)
AMD’s problems actually go all the way back to 2000, when the company’s Athlon XP CPU was kicking Pentium 4 butt in Sysmark 2001. When Sysmark 2002 was released, however, the Pentium 4 was suddenly the leader. After that AMD decided to join BAPCo in an attempt to have more influence over what it tested.

The company stayed in BAPCo through 2011 when, in a much-publicized blowup, it quit and walked away, accusing the test of being cooked for Intel’s CPUs. Although they didn’t say why, Nvidia and VIA left BAPCo at the same time.

Die Fachpresse hat hier gefälligst diesen Intel Mist nicht still zu schlucken sondern lautstark ihre eigenen Methoden zu verteidigen - keinerlei Duckmäusertum ist hier angesagt, sondern volle Offensive. Und dabei ja in alle Richtungen schlagen, sowohl Rot/Grün als auch Blau versuchen die Presse zu beeinflussen, aber nur Intel erdreistet sich dazu der Fachpresse vorschreiben zu wollen was sie wie zu testen haben. Quasi eine Bankrotterklärung der Presse wenn sie dort nicht gegenrudert - wozu brauchen wir die denn wenn Intel das angeblich soviel besser macht?! SYSmark ist ein schlechter Witz und das gehört auch so kommuniziert. :mad:

BlacKi
2019-08-27, 16:04:14
(wer die +5% in Spielen unbedingt braucht muss hald zu Intel Greifen)

M.f.G. JVC
wer zum 5ghz AC intel noch schnellen ram dazugesellt liegt 20-30% über nem optimierten 3900x.

die tabelle von intel ist tatsächlich lächerlich... wenn jemand nen 9900k kauft und wirklich stock betreibt ist er selbst schuld.

Rabiata
2019-08-27, 16:07:11
Und wieder wurde das Wichtigste vergessen zu erwähnen:

Wer steht hinter SYSmark? INTEL. BAPCO ist ein reines Feigenblatt für Intel, was seit ca. 20 Jahren bekannt und durchaus relevant ist.
Quellen:
Wiki (https://en.wikipedia.org/wiki/BAPCo_consortium)

VansHardware (http://www.vanshardware.com/articles/2001/august/010814_Intel_SysMark/010814_Intel_SysMark.htm)

Semiaccurate (https://semiaccurate.com/2011/06/20/nvidia-amd-and-via-quit-bapco-over-sysmark-2012/)

CNET (https://www.cnet.com/news/amd-chip-test-was-altered-to-favor-intel/)

PCWorld (https://www.pcworld.com/article/3023373/amd-accuses-bapco-and-intel-of-cheating-with-sysmark-benchmarks.html)


Die im Artikel beschriebenen Abweichungen sind wirklich kraß.

Ich würde gern mal einen unabhängigen Test sehen, in dem die Inhalte des SYSmark 2018 nachgestellt werden, aber mit eigenen Dateien/Dokumenten aus dem Fundus der Tester. Und mit separat installierten Programmen, statt sich auf die im Sysmark eingebauten zu verlassen :wink:.
Würde mich nicht wundern, wenn dann ein kleiner "Dieselskandal" zum Vorschein käme :freak:.

Schnoesel
2019-08-27, 16:22:00
Was hierbei konkret schief läuft, ist noch nicht klar, die SYSmark-Ergebnisse widersprechen in jedem Fall dem Benchmark-Durchschnitt sehr erheblich.

Was daran nicht stimmt: Warte mal:

https://winfuture.de/news,84360.html

"Demnach soll Intel um das Jahr 2001 CPU-Benchmarks so manipuliert haben, dass der eigene Prozessor Pentium 4 im Vergleich mit dem Konkurrenz-Produkt Athlon von AMD besser abschneidet. [...] Konkret soll der Chip-Hersteller bei der Software Sysmark nachgeholfen haben, um bessere Ergebnisse für seinen Prozessor zu erzielen."

Hätte man ja mal erwähnen können. Typisch Intel eben.

Lehdro war schneller

Gast-LAZA
2019-08-27, 16:26:16
Auf Folie 4 steht doch die ganze Wahrheit zu diesem "Betrug" von Intel:

https://imgur.com/Wkt76ZE.png

"
[...]may not reflect all publicly available security updates. [...]"

Es wurden einfach die 'richtigen' Updates weg gelassen! ^_^

bloodflash
2019-08-27, 16:30:31
Welche Programme im Sysmark unterstützen überhaupt mehr als 2-4 Kerne oder können diese auslasten?


Wer holt sich für diese Programme denn 8c/16t oder gar 12c/24t Maschinen?


Sind die Codecs in Powerdirector überhaupt State-of-the-art?


Und bei Benchmarks über Unterschiede von ~5% zu diskutieren ist doch sowieso verlorene Zeit, das ist doch fast jenseits der Messgenauigkeit.


Da kann ein falsch gesetztes Häkchen im BIOS oder ein veralteter Treiber schon größeren Einfluss auf die Performance haben. Genauso wie gut abgestimmte Hardware (UEFI-Vers., Speicher, Board, SSD).


Die Krone setzt dem Ganzen aber Leonidas auf, denn da reden wir plötzlich von 30% ;)


Intel ist nach dem EPYC-Disaster echt zu bemitleiden.

hardtech
2019-08-27, 17:03:09
danke für den lesenswerten artikel. wie immer: super zusammengefasst.
für mich ist 3dc mit seiner zusammenfassung der reviews mittlerweile sowas wie die c't unter den computerzeitschriften.

intels versuch, die bench-welt pro intel cpus zu manipulieren kann man nur als kläglichen versuch sehen ihre aktionäre zu befriedigen. so nach dem motto: unser pulver ist verschossen (14nm nicht mehr zeitgemäß) aber wir versuchen es nun mit anderen mitteln: beeinflussung der presse.

ich selbst bei pcgh als freier ehem. mitarbeiter habe gesehen, wie die marketing-abteilungen von msi, logitech und co. versuchen, ihre produkte in besonders gutes licht zu rücken. mit objektivität hat das wenig zu tun. stichwort: wegfall der einnahmen über zb. werbeanzeigen (sollte das eigene produkt schlecht abschneiden, schalten die betreffenden firmen weniger anzeigen).

bin nicht der meinung, dass die presse intels pille so ohne kommentar schlucken sollte!
dies gehört an den pranger gestellt. objektivität und fakten anstatt verzerrung.

kann das 3dc in intel-manier nicht eine gegendarstellung mit eigenen marketingfolien sponsored by amd veröffentlichen?! schließlich steckt die wahrheit irgendwo dazwischen.
dabei würde mich interessieren, welche schwächen von intel-cpus 3dc sich aussucht und wie lange die entsprechenden balken dann wären. dies fänd ich richtig klasse!

Effe
2019-08-27, 17:08:02
Ryan Shrout hat wohl Überstunden machen müssen für die Rosinenpickerei: „Seht her, Intel ist 2% schneller!!!!11elf“ ROLF

JVC
2019-08-27, 17:35:17
Die Fachpresse hat hier gefälligst diesen Intel Mist nicht still zu schlucken sondern lautstark ihre eigenen Methoden zu verteidigen - keinerlei Duckmäusertum ist hier angesagt, sondern volle Offensive. Und dabei ja in alle Richtungen schlagen, sowohl Rot/Grün als auch Blau versuchen die Presse zu beeinflussen, aber nur Intel erdreistet sich dazu der Fachpresse vorschreiben zu wollen was sie wie zu testen haben. Quasi eine Bankrotterklärung der Presse wenn sie dort nicht gegenrudert -
Aber sowas von :up:
(erinnert mich an die neue NV-NDA...)

wer zum 5ghz AC intel noch schnellen ram dazugesellt ...

Und wie wir beide wissen, gilt das Gleiche für Zen2 :wink:

Prima Artikel Leo :up:
(etwas zynisch vielleicht^^)

M.f.G. JVC

Lowkey
2019-08-27, 17:41:15
Ich suche immer noch einen Test wie damals 8700k vs 2700x mit maximalem Takt und Speicher.

Denn wenn ich das richtig sehe, dann läuft jede AMD CPU ab Werk mit dem Boost auf dem maximalem Takt. Bei Intel aktiviert man Allcore und OC separat. Nur darauf geht Intel nicht ein.

Gast
2019-08-27, 18:26:38
Und wieder wurde das Wichtigste vergessen zu erwähnen:

Wer steht hinter SYSmark? INTEL. BAPCO ist ein reines Feigenblatt für Intel, was seit ca. 20 Jahren bekannt und durchaus relevant ist.
Quellen:
Wiki (https://en.wikipedia.org/wiki/BAPCo_consortium)

VansHardware (http://www.vanshardware.com/articles/2001/august/010814_Intel_SysMark/010814_Intel_SysMark.htm)

Semiaccurate (https://semiaccurate.com/2011/06/20/nvidia-amd-and-via-quit-bapco-over-sysmark-2012/)

CNET (https://www.cnet.com/news/amd-chip-test-was-altered-to-favor-intel/)

PCWorld (https://www.pcworld.com/article/3023373/amd-accuses-bapco-and-intel-of-cheating-with-sysmark-benchmarks.html)


Die Fachpresse hat hier gefälligst diesen Intel Mist nicht still zu schlucken sondern lautstark ihre eigenen Methoden zu verteidigen - keinerlei Duckmäusertum ist hier angesagt, sondern volle Offensive. Und dabei ja in alle Richtungen schlagen, sowohl Rot/Grün als auch Blau versuchen die Presse zu beeinflussen, aber nur Intel erdreistet sich dazu der Fachpresse vorschreiben zu wollen was sie wie zu testen haben. Quasi eine Bankrotterklärung der Presse wenn sie dort nicht gegenrudert - wozu brauchen wir die denn wenn Intel das angeblich soviel besser macht?! SYSmark ist ein schlechter Witz und das gehört auch so kommuniziert. :mad:


Nur Intel? Schon vergessen als es plötzlich dutzende von benches mit NVs neuer Grafikkarte gab und in jedem die exakt selben 5 Spiele getestet wurden? Glaube war beid er GTX 590, ziemlich sicher jedenfalls eine duallösung.

Gast
2019-08-27, 18:31:30
Aber sowas von :up:
(erinnert mich an die neue NV-NDA...)


Und wie wir beide wissen, gilt das Gleiche für Zen2 :wink:

Prima Artikel Leo :up:
(etwas zynisch vielleicht^^)

M.f.G. JVC

Die Aussage schloss Ram Tuning bei Zen 2 schon mit ein, kannst dir ja mal einen 3900x @4,4-4,5 mit 3800 cl 14 vs nen 9900k @5-5,2 mit 4400 cl 16 bei Games geben ,also beide quasi maxed Out.

Gast
2019-08-27, 18:47:19
Genauso überrascht wie AMD, dass man mit Zen2 noch gegen Skylake und nicht Icelake antritt, war wohl Intel, dass man mit Skylake immer noch mit Zen2 mithalten kann :D

Ergo wird hiermit Intels Forderung erfüllt, die Anwendungs-Performance ganz ohne Rendering-Benchmarks auszumessen – nur eben nicht auf Basis nur des SYSmark 2018, sondern auf Basis der dafür üblicherweise benutzten Programme aus allen möglichen Anwendungs-Bereichen.

Intels Forderung ist nicht keine Rendering Benchmarks zu verwenden, sondern für typische Desktopanwender relevante Benchmarks zu verwenden.

Man kann jetzt natürlich darüber streiten, was unter "typische Desktopanwendung" zu verstehen ist, aber für mich persönlich fällt da nur mal als Beispiel Anandtech herausgepickt einiges raus, was nicht Rendering ist.

3D Particle-Movement
DigiCortex
y-Cruncher
Encoding-Tests - im Zeitalter der HW-Encoder die das um Größenordnungen schneller machen, ist CPU-Encoding nicht mehr wirklich relevant.
Compression-Benchmarks, sofern sie in RAM stattfinden und damit IO außen vor ist.

Ryzen ist sicher eine sehr gute Workstation-CPU, und eine extrem gute Server-CPU.

Aber leider merkt man doch deutlich, dass Desktop beim Zen-Design mehr ein "Abfallprodukt" darstellt, und als Desktop-CPU ist Ryzen mit viel Augenzudrücken maximal gleich auf.

Freestaler
2019-08-27, 19:16:20
Die Aussage schloss Ram Tuning bei Zen 2 schon mit ein, kannst dir ja mal einen 3900x @4,4-4,5 mit 3800 cl 14 vs nen 9900k @5-5,2 mit 4400 cl 16 bei Games geben ,also beide quasi maxed Out.
Ja zeig mal link, und wieso eigentlich kein 3800x mit 4,7 ghz? 5,2 ist ja auch definitiv einer der besseren 9900k. Und ich nehme an 720p? Wenn Intel ja den mehr den "Realworld" vergleich sucht, wieso dann 720p? Min 1080p eher 1440p wäre dann ja angebracht.

Zudem, hat nicht bereits FTC Intel verdonnert die nähe zu Sysmark jeweils kenntlich zu machen wegen unlauterem Wettbewerb? Edit: https://www.anandtech.com/show/3839/intel-settles-with-the-ftc
Ja, da war was..

Korvaun
2019-08-27, 19:36:26
LOL Intel, sowas heutzutage noch zu versuchen... wirklich armselig.

Das wird hoffentlich nicht funktionieren, andererseits kommt heute so gut wie jeder mit blanker Lüge durch, je dreister und bekannter man ist / je größer das Unternehmen ist, desto besser und einfacher gehts...

bloodflash
2019-08-27, 20:06:24
Genauso überrascht wie AMD, dass man mit Zen2 noch gegen Skylake und nicht Icelake antritt, war wohl Intel, dass man mit Skylake immer noch mit Zen2 mithalten kann :D


Stimmt, 8c/16t gegen 8c/16t ist irgendwie Gleichstand (3700x vs 9900k)
Dumm nur, dass der 3700x deutlich günstiger ist.


Intels Forderung ist nicht keine Rendering Benchmarks zu verwenden, sondern für typische Desktopanwender relevante Benchmarks zu verwenden.


Intel hat hier gar nichts zu fordern!
Aktuelle HighEnd-CPUs mit Preisen jenseits kompletter Rechner mit Office 2016 und Photoshop zu benchen, ist ungefähr auf dem Niveau eines Vergleichs wieviel Anhängelast ein Porsche 911 verträgt.
Obwohl, die CPUs könnten das auch, nur wird das im Sysmark nicht getestet.


Encoding-Tests - im Zeitalter der HW-Encoder die das um Größenordnungen schneller machen, ist CPU-Encoding nicht mehr wirklich relevant.


Naja, CPU macht das sauber im High-Profile und mit der richtigen Kernanzahl auch jenseits von Echtzeit.
Warum nimmt abseits vom Streaming wohl niemand Intels, AMDs oder nvidias Encoder? Obwohl mit AMD lassen sich da auch ein paar Kerne extra abknapsen ;-)


Aber leider merkt man doch deutlich, dass Desktop beim Zen-Design mehr ein "Abfallprodukt" darstellt, und als Desktop-CPU ist Ryzen mit viel Augenzudrücken maximal gleich auf.


Hast Du Leos Post überhaupt gelesen?

Warum sind solche Postings immer von Gästen?

Popeljoe
2019-08-27, 20:18:35
Das Pfeiffen im Walde...

Surrogat
2019-08-27, 20:29:17
was sie sich hier alle aufregen, ich komme mit meiner ollen Sandy Bridge E noch locker bis 2020 hin und dann schaun mer halt mal was AMD noch aus dem Ryzen rausquetschen kann, billiger ist bis dahin sowieso alles ;D

Summerbreeze
2019-08-27, 20:39:44
Soso, der große Bremsschuh, welcher durch seine Weigerung im Desktop ab Haswell, spätestens jedoch ab Skylake mehr Kerne zu verbauen, zu verantworten hat das die Software Leute sich die Arbeit für die Parallelisierung der Prozesse gespart haben (wofür auch?), dieser riesen Bremsklotz spielt sich jetzt zum Rächer der armen, von falschen und / oder irrelevanten Benchmarks betrogenen User auf.
Mein Mitleid hält sich doch sehr in Grenzen.

Wenn Bruder Bremsschuh nicht bis nächstes Jahr mal langsam in die Pötte kommt, dann wird es mit erscheinen von Milan / Ryzen 4000 ein ziemlich bitteres erwachen geben. Dann legt AMD die nächsten 10-12% IPC oben drauf.
Dann hilft auch kein potenziell getürkter Sysmark mehr.

BlacKi
2019-08-27, 20:44:12
Und wie wir beide wissen, gilt das Gleiche für Zen2 :wink:

ich bezog mich auf eine optimierten zen2.

iamthebear
2019-08-27, 23:01:54
Intel hat zwar Recht, dass das, was uns als "Anwendungsbenchmarks" verkauft wird eben komplett an der Praxis vorbei geht zumindest bei 95% der Nutzer. Das ist aber ein rein hausgemachtes Problem. Über Jahre hat man diese Benchmarks gepushed, um die Leistungssteigerungen zur Vorgängergeneration möglichst groß wirken zu lassen.
Weiters stellt sich natürlich die berechtigte Frage, warum man sich überhaupt einen 9900K holen sollte, wenn ein schneller 4 Kerner (bzw. 6 Kerner bei Spielern) vollkommen ausreicht.

Eldoran
2019-08-27, 23:20:48
Intel hat definitiv Recht, dass die meisten gut skalierenden Benchmarks den Alltag der Nutzer schlecht abbilden, aber wenn ich mir so anschaue, was ich so die meiste Zeit nutze - Firefox, Chromium, Thunderbird etc. da merke ich die CPU eigentlich gar nicht. Ich habe derzeit im Hauptrechner ein kleineres Haswell Modell drinnen. Ich merke zu wenig RAM und eine lahme Festplatte - dann kann man teilweise den Tabs beim aufbauen zuschauen und sonst ist das ganze i.d.R. durch meine Internetanbindung begrenzt.

Gast
2019-08-28, 00:28:54
Intel versucht (einmal mehr) den Markt zu manipulieren.
Diesmal aber in so plumper Form, dass es einfach nur noch lächerlich ist.

Der Cinebench ist also angeblich nicht praxisrelevant. Klar, AMD ist in diesem Benchmark ja auch deutlich vorn.
Also sucht man sich bei Intel einfach eine Software, die die eigenen Produkte besonders gut aussehen lässt und erklärt diese kurzerhand zur neuen Referenz für Tests.

Lug und Trug, das ist das Markenzeichen von Intel. Naja und Wucherpreise für kleinste Verbesserungen zu nehmen.

Wenn ich nächstes Jahr meinen PC aufrüste, dann wird da ein R7 3700X drin Platz nehmen. Intel kann seinen Dreck behalten.
Das hat mit Marktmanipulation nichts zu tun. Cinebenchst du etwa den ganzen Tag? Für die meisten Nutzer werden die beiden Intels die schnellere CPU sein. Das muss man akzeptieren, dass perfektes MT eine Seltenheit ist. Auch AMD Fanboys. Die sind als notorische Cinebencher mit AMD sicher besser dran.

Rabiata
2019-08-28, 01:35:33
Intel hat zwar Recht, dass das, was uns als "Anwendungsbenchmarks" verkauft wird eben komplett an der Praxis vorbei geht zumindest bei 95% der Nutzer. Das ist aber ein rein hausgemachtes Problem. Über Jahre hat man diese Benchmarks gepushed, um die Leistungssteigerungen zur Vorgängergeneration möglichst groß wirken zu lassen.
Weiters stellt sich natürlich die berechtigte Frage, warum man sich überhaupt einen 9900K holen sollte, wenn ein schneller 4 Kerner (bzw. 6 Kerner bei Spielern) vollkommen ausreicht.
Ja, Cinebench & Co. waren mal Intels bevorzugte Benchmarks. Heute jammern sie rum weil AMD da gewinnt und wollen diese Tests kleinreden.

Was die mangelnde Praxisrelevanz angeht, haben sie sogar recht.
Andererseits braucht die typische Büroanwendung (Word, Excel und Co., Packer/Entpacker) nicht mal einen besonders schnellen 4-Kerner.

Einen 8-Kerner(oder mehr) braucht es eigentlich nur bei Anwendungen, die tatsächlich mal Minuten für einen Arbeitsgang benötigen. Und da sind wir wieder beim Rendering, Kompilieren von größeren Softwarepaketen, Simulationen im Engineering usw. Also eher im Workstation-Bereich. Wo dann halt der Ryzen 9 3900X mehr fürs Geld bietet.

Leonidas
2019-08-28, 04:40:39
kann das 3dc in intel-manier nicht eine gegendarstellung mit eigenen marketingfolien sponsored by amd veröffentlichen?! schließlich steckt die wahrheit irgendwo dazwischen.


In so einer Frage stellt man sich nicht auf eine Seite, egal welche. Sprich - was von AMD gesponsortes zu veröffentlichen gehört sich nicht. Wenn, dann müssten wir es komplett selber erstellen. Andererseits haben die ersten Kommentare klar ergeben, das hier nicht mehr notwendig erscheint. Ich denke inzwischen, das Intel genügend sein Fett wegbekommt und das es dann langsam unfein wäre, noch weiter in Wunden zu bohren. Die Presse ist zum berichten da, nicht zum Fehden führen.





Man kann jetzt natürlich darüber streiten, was unter "typische Desktopanwendung" zu verstehen ist, aber für mich persönlich fällt da nur mal als Beispiel Anandtech herausgepickt einiges raus, was nicht Rendering ist.

3D Particle-Movement
DigiCortex
y-Cruncher
Encoding-Tests - im Zeitalter der HW-Encoder die das um Größenordnungen schneller machen, ist CPU-Encoding nicht mehr wirklich relevant.
Compression-Benchmarks, sofern sie in RAM stattfinden und damit IO außen vor ist.


Vollkommen korrekte Einwände. Das Beispiel AnandTech ist auch gut repräsentativ, ich hab jetzt selber vorgestern alle diese Launch-Reviews nochmals durchgelesen.

Was sich dabei leider nicht machen lies, war ein Index rein nur für Office & Adobe - weil dafür gab es zu wenige Benchmarks (manchmal viele, oftmals zu wenige). Für einen Index war es nicht anders möglich, dies mit Benchmarks aus den Themen Web, ZIP & Encoding aufzufüllen. Hinzukommend hier und da Spezialtests wie eben Particle-Movement, DigiCortex & y-Cruncher. Wobei ich die als Farbtupfer durchaus goutiere - ansonsten sieht alles so einheitlich aus.

Der relevante Punkt ist, das mindestens 50% aller Benchmarks aus einem Feld stammen, was der normale Anwender nachvollziehen kann: Office, Adobe, Web, ZIP & Encoding. Overall sind es vielleicht 50-70%. Das reicht aus, um im Index dominierend zu sein. Insofern ist der Index durchaus eine Wiederspiegelung dessen, was real den Anwender bewegt - mit Farbtupfern in Richtung Workstation-Einsatz. Aber diese Prozessoren werden natürlich auch hier und da mal wirklich zum rechnen benutzt, nicht bloß zum surfen.

Bei der Konzentration auf Office & Adobe muß man zudem auch arg vorsichtig sein: Die meisten der hierzu vorliegenden Benchmarks entfalten ihre Relevanz ausschließlich in einem Workstation-Umfeld. Der typische Office-Benchmark öffnet 1000 Dokumente gleichzeitig oder aber läßt ein monströs umfangreiches Excel-Scipt durchlaufen. Diese Office-Nutzung tritt bei locker 95% aller Anwender niemals auf. Die allermeisten Anwender profitieren von einem Fortschritt in der Office-Performance gleich Null - weil sie nirgendwo Arbeitsschritte haben, wo Office auf diesen Maschinen mal wirklich nachdenken muß.

etp_inxession
2019-08-28, 07:09:27
Schön zu lesen, das der allgemeine Tenor sich langsam gegen die Intel Machenschaften wendet.

Bis auf einige unbelehrbare, die sich auch die nächsten Jahre hätten melken lassen von Intel (5% Mehr Leistung für 15 % Aufpreis), sieht es ja ganz gut aus.

Leistungstechnisch ist der Markt im Bereich Gaming CPU ausgeglichen.
In Sachen Anwendungen sieht es dann komplett anders aus.

Warum brieft Intel wohl die eigenen Mitarbeiter?
Warum werden Benchmarks als Referenz vorgeschlagen, die die eigenen CPUs bevorteilt sehen?
Warum werden nicht alle Sicherheitspatches aktiviert?

Und warum gibt es keine FREIE PRESSE mehr?

Intel hat leider die Mittel dazu, die Hand darüber zu legen, was denn veröffentlicht werden darf, und was nicht.
Warum nur gibt es keinen brauchbaren Artikel der die Intel CPUs mal ohne, und mal mit aktivierten Sicherheitspachtes bencht?

Der Performance Verlust wird wohl immens sein, ... so immens, das Intel untersagt solche Tests online zu schalten.

Denniss
2019-08-28, 08:20:42
Jeder biegt sich die Daten so zurecht damit sein eigenes Produkt am Besten dasteht.
Intel gehört mit zu denen die die Daten ab Weitesten biegen können .......
Komisch das der Cinebench plötzlich Pöhse ist, vor Ryzen war er Intels liebstes Kind.

Lowkey
2019-08-28, 08:28:33
Die angekündigte Preissenkung seitens Intel fehlt immer noch bzw. müßte längst aktiv sein?


9900k vs 3800x mit max OC (5000 vs 4500 Mhz)

https://www.youtube.com/watch?v=Dy0Y9D8LMtI

Kingdom Come/BF V haben ein paar Einbrüche bei den 1%. Grundsätzlich ist der 9900k immer schneller, wenn auch immer nur minimal.

Surrogat
2019-08-28, 09:25:50
Eigentlich sagt uns Intels Reaktion doch etwas ganz anderes, es gibt effektiv außer Spielen und selbst da nur ganz wenige Arten von Spielen, kaum noch Endanwendernutzungen die überhaupt einen modernen Prozessor, sei er nun von AMD oder von Intel, ins Schwitzen bringen können!

Was will ein Enduser denn bitte sinnvoll nutzen um 24 Threads auszureizen? Videos en- oder decoden ist mittlerweile selbst auf alten CPUs kein Problem mehr, gigantische ZIPs erstellen wird auch kaum jemand regelmäßig und was bleibt da noch groß übrig? Seit dem es Clients für alle möglichen verteilten Berechnungen auch für Grakas gibt, an die sowieso keine CPU rankommt, braucht man selbst dafür keine CPU mehr.

Also machen moderne HighEnd CPUs doch nur noch für (semi)-professionelle Anwendungen Sinn und da schlägt eben AMD die Intel-CPUs deutlich

Seien wir also bitte mal ehrlich, es spielt letztlich für Otto Normal kaum eine Rolle was er kauft und da zählt dann eben der Preis und jedermanns eigener Geschmack. Die Tatsache das die Unterschiede quasi im Promillebereich liegen, sagt ja schon alles aus.

Leute seid einfach glücklich, wir sind endlich im Zeitalter der sauschnellen und dennoch erschwinglichen CPUs angekommen, was will man bitte mehr? Und wie ich schon in einem früheren Thread sagte, selbst die Differenzen der Hersteller in den eigenen Produktreihen sind kritikwürdig, ich möchte da nur mal auf die eigentlich unsinnigen X-Modelle der neuen Ryzen-Serie hinweisen

Gast
2019-08-28, 10:52:14
wer zum 5ghz AC intel noch schnellen ram dazugesellt liegt 20-30% über nem optimierten 3900x.

die tabelle von intel ist tatsächlich lächerlich... wenn jemand nen 9900k kauft und wirklich stock betreibt ist er selbst schuld.

Sicherlich bietet Intel deutlich mehr Taktpotential. Allerdings skalieren die Ryzen deutlich besser mit steigendem Speichertakt als Intel. Die Tests bezüglich Ram-OC und optimierte Timings, die ich bisher gesehen habe waren zwar alle nicht mit Ryzen 3000, aber bei den älteren Ryzens hat man mit schnellem Ram grob 50% mehr Leistung gegen über dem Standard-Ramtakt herausgeholt als bei Intel. Also abstrakt gesprochen: Holt man bei Intel 10% mit optimiertem Ram heraus, war bei AMD grob 15% mehr Leistung zu verzeichnen (in Spielen). Ob das mit Ryzen 3000 auch noch so ist, wird man mit der Zeit schon sehen.

Aroas
2019-08-28, 11:23:56
Leute seid einfach glücklich, wir sind endlich im Zeitalter der sauschnellen und dennoch erschwinglichen CPUs angekommen, was will man bitte mehr?

Wäre AMD nicht mit den Ryzen CPUs um die Ecke gekommen, sähe das aber ganz anders aus.
Dann bekäme man noch immer nur die 4 Kerner von Intel vorgesetzt, die jährlich mal 5% mehr Leistung bekommen.
Und dürfte dafür natürlich Wucherpreise bezahlen.

Gast Ritis
2019-08-28, 11:29:40
Intel hat zwar Unrecht was die Anwendungs-Performance angeht.

Allerdings muss man auch sagen, dass dieses herausgehobene Merkmal für den aller grössten Teil der Nutzer völlig unerheblich ist, gerade bei diesen CPUs im Desktopbetrieb. Im Grunde genommen muss dann der Spezialist für anspruchsvolle Anwendersoftware jeweils selbst überprüfen welche CPU für ihn besser geeignet ist. Z.B. bei Office warte ich heute nur noch bei PDF import/export und Inhaltevergleich sehr grosser Dokumente wenige male im Jahr.

Am ehesten interessiert die Desktop-Performance den Durchschnittsuser noch bei verbrauchten Watt pro Anwendung im Laptop-Segment. Aber sonst?

Das war mit AMD bei Bulldozer vs. Intel Core CPUs allerdings auch nicht anders. Und dort war die Diskussion in umgekehrter Form genauso mühsam und überflüssig.

Was schon wieder von der Presse und Intel hier völlig falsch dargestellt wird ist die Gaming-Performance. Dass aktuelle Leistung in niedrigen Auflösungen keine relevante Zukunftsprognose für künftige Eignung beim Gaming darstellt wurde vor einigen Jahren von AdoredTV anhand vieler Webseitenbenchmarks recherchiert.
Ist auch relativ logisch. Denn die Theorie dass künftige Spiele-Entwicklungen nicht zusätzlich von mehr Kernen profitieren sowie dass höhere Auflösungen und mehr Effekte nicht mit mehr Daten und Anweisungen für die GPU das Gesamtsystem mit mehr Threads und Bandbreiten/Cache-Bedarf belasten war schon immer extrem wackelig. Eintretenswahrscheinlichkeit tendiert gegen 0.

Ergo müsste man schon bei den Preisklassen die Benchmarks der typischen Auflösungen und Detailstufen vergleichen wenn man realitätsnah testen will um Kaufempfehlungen zu sprechen. Full-HD mit Midrange-GPUs, UHD mit High-End GPUs.

Leider klemmt es da noch immer gewaltig. Wahrscheinlich weil in Wahrheit da heute bei 8 Kernen um die 4GHz All-Core Boost schon jede GPU gesättigt wird und es nur noch um Einbrüche in den Frameraten geht bei denen man Unterschiede sieht.... Ist dann halt auch eher langweilige Erkenntnis ohne viel Klicks. Der planlose Leser wird manipuliert und muss sich als Fanboy seine Kaufentscheidungen schönreden.

Die Wette auf die Zukunft der Mehrpreis für eine aktuelle Top-Intel CPU sei für Gamer gerechtfertigt kann kaum gewonnen werden. Aber auch AMD muss man dann am Ende der AM4-Laufzeit kritisch bewerten.
Mit schnellerem Fortschritt bei den CPUs wird die Weiterverwendung der Basis wieder wichtiger beim Kauf, so wie das schon vor vielen Jahren mal der Fall war bevor Intel die Chipset-Konkurrenten ausgemerzt hat.

Wer hier Intel bashed muss auch den ganzen Benchmark Bohai Business kritisch hinterfragen. Was ist Marketing-Instrument und wo wird überhaupt noch Aufklärung der Leser geleistet?

Surrogat
2019-08-28, 11:45:38
Wäre AMD nicht mit den Ryzen CPUs um die Ecke gekommen, sähe das aber ganz anders aus.
Dann bekäme man noch immer nur die 4 Kerner von Intel vorgesetzt, die jährlich mal 5% mehr Leistung bekommen.
Und dürfte dafür natürlich Wucherpreise bezahlen.

mit dem zeitraum den ich meinte, ist ja die Ära von Ryzen 5-9 gemeint, dennoch waren auch die älteren Ryzen z.b. der 2700X nicht sehr weit von Intel entfernt, so gesehen ist das also nur eine kleinere Verbesserung

Gast
2019-08-28, 11:49:39
Sicherlich bietet Intel deutlich mehr Taktpotential. Allerdings skalieren die Ryzen deutlich besser mit steigendem Speichertakt als Intel. Die Tests bezüglich Ram-OC und optimierte Timings, die ich bisher gesehen habe waren zwar alle nicht mit Ryzen 3000, aber bei den älteren Ryzens hat man mit schnellem Ram grob 50% mehr Leistung gegen über dem Standard-Ramtakt herausgeholt als bei Intel. Also abstrakt gesprochen: Holt man bei Intel 10% mit optimiertem Ram heraus, war bei AMD grob 15% mehr Leistung zu verzeichnen (in Spielen). Ob das mit Ryzen 3000 auch noch so ist, wird man mit der Zeit schon sehen.

Man sieht jetzt schon das dies nicht wirklich der Fall ist wenn man entsprechende Threads mitverfolgt da die Community hier sehr aktiv ist, Zen 3000 macht gegenüber den 2000ern fast einen Rückschritt im Bereich Speicherlatenz . Die Performance holt Zen 3000 vorallem über den großen cache.

Ausserdem hilft es sich mal diverse CFL speziefische RAM Threads anzusehen dann sieht man das auch CFL sehr gut auf Ram OC und Timing tuning beim Zocken reagiert ,als Beispiel hier mal der HWL Thread genannt.

Im verlinkten Beispiel steigen die min FPS um knapp 15 % beim Wechsel von 3600XMP zu 4000 Optimized. Mit etwas Fantasie kann man sich auch vorstellen was hier ein Wechsel von 2666 ( mit welchem die Reviews häufig gemacht werden ) auf 4000Mhz für die Ergebnisse bedeuteten kann.

https://www.hardwareluxx.de/community/f13/intel-coffee-lake-ram-oc-thread-guides-und-tipps-1230518.html

Gast
2019-08-28, 12:07:00
Wäre AMD nicht mit den Ryzen CPUs um die Ecke gekommen, sähe das aber ganz anders aus.
Dann bekäme man noch immer nur die 4 Kerner von Intel vorgesetzt, die jährlich mal 5% mehr Leistung bekommen.
Und dürfte dafür natürlich Wucherpreise bezahlen.

Ein 5820K hat Ende 2014 lange vor ryzen ca. 360€ gekostet und war sowohl in MT als auch ST jeder erhältlichen AMD weit überlegen auch ohne sein massives OC Potential.
Er bot gut PCI Lanes, DDR4 support ,QC , M2x4 etc. ,
Nach deiner Argumentation hätte diese CPU min 1000€ kosten müssen und dürfte 2 Kerne weniger haben , da Intel in dieser Zeit 0 Gegenwind von AMD hatte.

Wer mehr Kerne brauchte/wollte konnte diese schon lange haben ohne sein Haus zu verpfänden.

Das die Spirale sich jetzt schneller dreht und Konkurenz angenehm für die Preise ist steht ausser Frage , aber das uns AMD die Kernerlösung gebracht hat auf die wir alle nur Hände ringend gewartet haben weil wir unbedingt mehr brauchten ist Bullshit.
Ich komm z.b. noch ordentlich mit einem UV 4790 @ 3,8Ghz bei 1,05V Allcore non K über die Runden und wenn es so weiter geht mit den Spielereleases sieht der kommendes Jahr nochmal eine neu GPU bevor ich an Ersatz denke.

Schnoesel
2019-08-28, 12:27:19
Schön, dass du über die Runden kommst, aber das muss nicht für alle gelten. Ich für meinen Teil bin heilfroh, dass uns nun so viel CPU Power wie noch nie zur Verfügung steht. Jetzt muss nur noch die Software nachziehen.

Summerbreeze
2019-08-28, 13:08:23
Das Gelaber darüber, ob mehr Kerne sinnvoll sind ist so alt wie die Mehrkern CPUs. Seit dem Athlon X2 höre ich bei jeder Erhöhung der Kernzahl: Blödsinn, für >95% Sinnlos und vollkommen Überflüssig etc.

Ich finde es schon etwas übertrieben, wenn immer Argumentiert wird, "95% der User brauchen das nicht".
Wer sind den diese berühmten 95%?
Gesamt Desktopmarkt 100%
Wie groß ist der PC Gamingmarkt? 10-15% ?

Power User mit mehr als 2-3 offenen (auch Office) Programmen, inkl. Bildbearbeitung, CAD und / oder Rendern, umfangreiche Internetrecherche, mal einen Workflow aufzeichnen oder Streamen? 10-15%?
Dieser Anteil wächst zudem, da die Allerweltsuser mittlerweile auf Smarphone, Tablett, Notebook umsteigen / umgestiegen sind.

Rest Bürorechnerklasse inkl. Allerweltsuser wie Oma Erna und Hänschen Doof 70-75%?

Power User, sollte wohl klar sein. So viel und so Schnell wie es geht.
Für neue Gamingrechner ist doch Stand der Technik: Min. 6, besser 8 Kerne. Wer mag, auch mehr, da in Zukunft eher auf mehr Kerne skaliert wird.
Allerweltsklasse reicht eigentlich ein Ryzen 3400G, ersatzweise R7 3600 oder entsprechendes Intel Equivalent vollkommen aus.

Der Sysmark stellt also nur einen Test für die Allerweltsklasse dar und will uns weismachen, wir brauchen keinen Fortschritt. Haswell oder Sandy Bridge tun es doch auch sicherlich in 10 Jahren noch.
Ganz sicher aber so lange, bis der große Bremsklotz schnellere Chips auf den Markt bringt.
Dafür lege ich meine Hand ins Feuer. Ab dem Zeitpunkt wird man nichts mehr von Realworld Benchmarks hören.

Das Adobe Märchen hält sich auch sehr beständig.
Falls es noch niemand mitbekommen hat, Adobe arbeitet seit zig Jahren an einer besseren / zufriedenstellenden Skalierung.
Acrobat und der Reader skalieren bei mir jedenfalls hervorragend über alle Kerne.
Photoshop mittlerweile auch sehr stark. Hängt natürlich davon ab, was gerade gemacht wird.

Zitat von einem Adobe Entwickler aus 2013:
Nein, fast alle Vorgänge in Photoshop unterstützen Multiprozessor / Multicore. Nur wenige sind so rechenintensiv, dass sie eine enorme Beschleunigung und dauerhafte Auslastung vieler Kerne aufweisen. Die meisten Vorgänge werden so schnell abgeschlossen, wenn sie auf die Kerne aufgeteilt werden, dass die dauerhafte Nutzung nicht erkennbar ist. Viele gängige Vorgänge sind so stark optimiert, dass sie an die DRAM-Bandbreite gebunden sind. Profitieren Sie daher nicht von zusätzlichen Prozessoren / Kernen.
Was nicht mit CPUs gemacht wird, geht über die Grafikkarte.

Adobe ist aber auch nicht die allfällig glücklich machende Wollwilchsau.
Für Otto Normal gibt es jede Menge andere (auch kostenlose) Software, welche von Haus aus auf Mehrkern ausgelegt ist.

Und mal ganz ehrlich: Bei wem Dümpelt der Rechner denn nicht min. 80% der Zeit vor sich hin.
Die Power wird doch nur abgerufen, wenn sie gebraucht wird. Und dann will ich sie aber auch haben.
Und nicht womöglich zig Minuten oder gar Stunden auf das Ergebnis warten müssen.
Oder ist das die Begründung für schwach ausgelegte Rechner? "Dann ist die Kiste 100% Ausgelastet und ich geh erst mal Kaffee trinken" ;)

Nebenbei bemerkt:
Leute, welche heutzutage noch mit einer System HDD unterwegs sind und das auch noch gut finden, kann man eh nicht ganz ernst nehmen.

@Gast
aber das uns AMD die Kernerlösung gebracht hat auf die wir alle nur Hände ringend gewartet haben weil wir unbedingt mehr brauchten ist Bullshit.
Ich habe jedenfalls darauf gewartet.

Rabiata
2019-08-28, 13:52:05
Ein 5820K hat Ende 2014 lange vor ryzen ca. 360€ gekostet und war sowohl in MT als auch ST jeder erhältlichen AMD weit überlegen auch ohne sein massives OC Potential.
Er bot gut PCI Lanes, DDR4 support ,QC , M2x4 etc. ,
Nach deiner Argumentation hätte diese CPU min 1000€ kosten müssen und dürfte 2 Kerne weniger haben , da Intel in dieser Zeit 0 Gegenwind von AMD hatte.
Hab gerade nachgeschaut, der 5820K war seinerzeit die "kleinste" Ausgabe des Core i7 Extreme. Also am unteren Ende des High End Bereichs. Die schnellste Version, der 5960X, hatte tatsächlich einen US-Launchpreis von $999 laut Wikipedia.

Da ist der i9-9900K mit knapp 500€ deutlich billiger. Momentan sogar etwas billiger als der Ryzen 9 3900X.

Gast
2019-08-28, 14:49:04
Schön, dass du über die Runden kommst, aber das muss nicht für alle gelten. Ich für meinen Teil bin heilfroh, dass uns nun so viel CPU Power wie noch nie zur Verfügung steht. Jetzt muss nur noch die Software nachziehen.

Warum "krebst" du dann auf einem 12 Kerner mit limitierter Ramanbindung herum und nicht auf einem 16 Kern TR den es zum gleichen Kurs früher gab ?

MiamiNice
2019-08-28, 15:09:12
Ich sehe das sehr ähnlich. AMD spammt bloß Cores, die die wenigsten brauchen. Im Desktop Markt wohl unter 5% der User. Ja, sie sind billig, das ist ein 99 Cent Laden aber auch und auch da kauft man ungern ein wegen Qualität. Man hat nur Probs mit dem AMD Teilen, siehe entsprechende Threads hier im Forum und überall anders. Da wo es drauf ankommt sind sie ein Stück näher dran aber noch immer weit weit weg. RAM und Latenz technisch muss man gar nichts weiter zu Zen 2 sagen, das ist eine Katastrophe, da kann man auch nix schön reden. Takt ebenso.
Aus professionellen Kreisen hört man nur das die HW Kosten gar nicht so ins Gewicht fallen sondern die Softwarekosten die gerne per Core bezahlt werden. Hmmm.

Lange Rede, kurzer Sinn. Intel ist überall besser wo viele Kerne keinen Vorteil bringen. Also fast überall. Intel ist damit klar vorne.

Rabiata
2019-08-28, 15:41:01
Aus professionellen Kreisen hört man nur das die HW Kosten gar nicht so ins Gewicht fallen sondern die Softwarekosten die gerne per Core bezahlt werden. Hmmm.

Lange Rede, kurzer Sinn. Intel ist überall besser wo viele Kerne keinen Vorteil bringen. Also fast überall. Intel ist damit klar vorne.
Für Datenbankserver ja, da sind Lizenzkosten pro Core gängig (Oracle, MSSQL). Aber da ist auch Profi-Hardware mit Features wie fehlerkorrigierendem RAM (ECC) gefragt. Wir reden da eher über Xeon vs. Threadripper. Was nicht so ganz in diesen Thread paßt.

Im Profibereich läuft aber auch auch durchaus Open Source ohne "klassische" Lizenzkosten. Da geht das Geld eher über Wartungsverträge zum Anbieter. Von Abrechnung nach Core-Zahl habe ich da noch nichts gehört.

erlgrey
2019-08-28, 16:06:20
Lizenzkosten skalieren durchaus auch über Sockel Anzahl ganz böse, 1-2P "günstig", >4p kostet ein kern dann mal locker flockig knapp das doppelte.
Da zieht dann ein aktuelles epyc system auf vielen verschiedenen ebenen davon.


Das hat aber an sich wirklich wenig mit den Desktop CPUs zutun, wenn auch hier zen2 kreise um Intel zieht bzgl. P/L und Anwendungsperformance.

Gastrat
2019-08-28, 17:03:07
AMD spammt bloß Cores, die die wenigsten brauchen.

Diese haarsträubende Aussage lässt lediglich tief in deine Fanboyseele blicken,
ist als Argument wohl eher obsolet.
Kurzer Einwurf an dieser Stelle: Es geht bei Multicores noch immer um die Gesamtrechenleistung, und dass die mit zunehmender Anzahl der Cores zunimmt, ist wohl eher unstrittig.
Nahtlos in diese argumentfreie, aber fanboytechnische Meinungsblase reiht sich dann auch die folgende "Erkenntnis" ein:
Ja, sie sind billig, das ist ein 99 Cent Laden aber auch und auch da kauft man ungern ein wegen Qualität.

Wer auch immer "man" ist, eine sinnvolle Schlussfolgerung lässt sich daruas sicher nicht ziehen.


Man hat nur Probs mit dem AMD Teilen, siehe entsprechende Threads hier im Forum und überall anders.
Wieder der "man", und NUR Probleme, bitte um Aufklärung was alles Probleme im Betrieb macht.
Ich finde da eher nur die Sache mit den unausgereiften BIOS Versionen, die zwar recht uneinheitlich mit den zu erreichenden Taktraten sind, aber von Instabilitäten wir eher kaum berichtet.

Da wo es drauf ankommt sind sie ein Stück näher dran aber noch immer weit weit weg.
Wie bitte?? Frei nach dem Motto: " ich stimme Ihnen voll und ganz zu und behaupte das Gegenteil."
Kleine Bemerkung am Rande: was sollte dann der Einwurf oben mit dem "Corespamming"?

RAM und Latenz technisch muss man gar nichts weiter zu Zen 2 sagen, das ist eine Katastrophe, da kann man auch nix schön reden. Takt ebenso.

Muss man da etwas beschönigen? Das sind zwei unterschiedliche Architekturen, dass liegt in der Natur der Sache, dass diese Werte dannwohl nicht so unbedingt vergleichbar sein müssen.
und ca. 500 MHZ mehr Takt bei Intel ist zwar schön aber jetzt auch nicht zu Niederknien.

Aus professionellen Kreisen hört man nur das die HW Kosten gar nicht so ins Gewicht fallen sondern die Softwarekosten die gerne per Core bezahlt werden. Hmmm.

Und wen kümmert das noch gleich im Endanwenderbereich?

Lange Rede, kurzer Sinn. Intel ist überall besser wo viele Kerne keinen Vorteil bringen. Also fast überall. Intel ist damit klar vorne.
Überall besser wo viele Kerne keinen Vorteil bringen? ALso im Singlecorebereich? Und evtl. in veralteten Anwendungen, die auf 4 Cores beschränkt sind?
Damit ist Intel klar vorne, entgegen aller Tests?
Und abschliessend eine Frage, warum hast du dir dann den Prozessor mit den maximalen Cores aus dem Inrel Portofolio gegönnt, wenn die Summe der Cores eigentlich nur durch AMDs Corespamming welches ja nutzlos ist, gegönnt?

BlacKi
2019-08-28, 17:53:53
Sicherlich bietet Intel deutlich mehr Taktpotential. Allerdings skalieren die Ryzen deutlich besser mit steigendem Speichertakt als Intel. Die Tests bezüglich Ram-OC und optimierte Timings, die ich bisher gesehen habe waren zwar alle nicht mit Ryzen 3000, aber bei den älteren Ryzens hat man mit schnellem Ram grob 50% mehr Leistung gegen über dem Standard-Ramtakt herausgeholt als bei Intel. Also abstrakt gesprochen: Holt man bei Intel 10% mit optimiertem Ram heraus, war bei AMD grob 15% mehr Leistung zu verzeichnen (in Spielen). Ob das mit Ryzen 3000 auch noch so ist, wird man mit der Zeit schon sehen.

das gegenteil ist der fall. wenn man die CB ram oc community zur hilfe nimmt, dann bringt ram OC+timings bei intel knapp 40%, bei amd sinds nur 20%, nach meinung mancher wegen des größeren caches.

wenn ich dirt rally hernehme, bringt mem oc dort bei mir sogar 80%.

Die angekündigte Preissenkung seitens Intel fehlt immer noch bzw. müßte längst aktiv sein?


9900k vs 3800x mit max OC (5000 vs 4500 Mhz)

https://www.youtube.com/watch?v=Dy0Y9D8LMtI

Kingdom Come/BF V haben ein paar Einbrüche bei den 1%. Grundsätzlich ist der 9900k immer schneller, wenn auch immer nur minimal.
ich traue den youtube benchmarks nichtmehr ganz. wer weiß was die eingestellt haben. die angaben sind mehr als dürftig.

Gast
2019-08-28, 18:36:51
Naja, CPU macht das sauber im High-Profile und mit der richtigen Kernanzahl auch jenseits von Echtzeit.
Warum nimmt abseits vom Streaming wohl niemand Intels, AMDs oder nvidias Encoder? Obwohl mit AMD lassen sich da auch ein paar Kerne extra abknapsen ;-)


Deshalb habe ich ja auch geschrieben für mich persönlich, andere mögen ja durchaus ein anderes Anwendungsgebiet haben.

Und ja, CPU-Encoding kann zu einer besseren Qualität/Byte führen, nur ist es das heutzutage einfach nicht mehr wert.

Hardwareencoding ist dermaßen viel schneller und auch kühler, und das Zeitalter in der man ein Video unbedingt auf 1 DVD oder gar 1 CD bringen musste sind lange vorbei.

Da nehme ich lieber eine etwas höhere Bitrate und habe dafür die viel bessere Performance.

Natürlich ist klar, dass der einzige Grund warum Intel das jetzt macht eine reine Marketingentscheidung ist.

Nichtsdestotrotz haben sie Recht. Für typische Desktoparbeit ist Single-Thread-Performance immer noch das A und O, und mehr als 8 Kerne haben nur eine verschwindend geringe Anzahl an realistischen Nutzungsmöglichkeiten.

Wobei sich Intel denke ich damit langfristig ins eigene Fleisch schneidet. Weil im Grunde sagen sie nichts anderes als "der durchschnittliche Desktop-User braucht keine neue CPU weil die vorhandenen CPUs schon ausreichend schnell sind.

Was im Grunde auch stimmt, nur wie will Intel dann zukünftige CPUs verkaufen? Sind dann die theoretischen Benchmarks auf einmal doch wieder relevant, weil nur diese entsprechende Vorteile für neue CPUs zeigen können?

Freestaler
2019-08-28, 19:32:15
Wieso kommt ihr überhaupt auf 8 Kerner? Ideale Office Rechner wäre doch sicher noch ein Dualcore mit max. Singlethreadleistung. (Einer für die aktiven Vordergrund arbeiten und einer für den Rest). Wenn dem jedoch nicht so ist, dann ist doch klar das es in die Breite gehen darf und die Entwicklung nicht im Jahre 2017 stehen bleiben muss. Solange Singlethreadboosten kann passt. Überigens das Jahr 2017, die Grundlage des Sysmark im 2018. Spannenderweise auch das Jahr als Ryzenoptimierung in Adobe noch nicht gab. (Adobe cc2018 gabs im oktober 2017) Mal schauen was passiert wenn der aktualisiert wird. Noch mehr PowerDirector anteile? ;-)

Gast
2019-08-28, 19:41:12
Was nicht mit CPUs gemacht wird, geht über die Grafikkarte.



Genau das ist der springende Punkt warum die vielen Kerne am DESKTOP* Schwachsinn sind.

Alles was sich gut skalieren lässt, lässt sich über GPUs mit tausenden Kernen** wesentlich mehr beschleunigen als über CPUs mit 2-stelligen Kernzahlen von CPUs.

* Ich sage bewusst Desktop, Zen2 ist eine großartige Server-CPU und Intel hat aktuell nicht mal ansatzweise etwas was mithalten kann. Als Desktop-CPU ist Zen2 in 90% der Fälle maximal gleich gut oder schlechter.

** Ich weiß natürlich, dass CPU-Kerne keinesfalls mit den "Kernen" einer GPU vergleichbar sind, dennoch skalieren parallelisierbare Probleme auf GPUs um Größenordnungen besser.

Gast Ritis
2019-08-28, 22:26:03
Wäre AMD nicht mit den Ryzen CPUs um die Ecke gekommen, sähe das aber ganz anders aus.
Dann bekäme man noch immer nur die 4 Kerner von Intel vorgesetzt, die jährlich mal 5% mehr Leistung bekommen.
Und dürfte dafür natürlich Wucherpreise bezahlen.
Kannst du deine Insiderinfos auch beweisen oder bleibt es bei blabla?

Leonidas
2019-08-29, 04:43:13
Alles was sich gut skalieren lässt, lässt sich über GPUs mit tausenden Kernen** wesentlich mehr beschleunigen als über CPUs mit 2-stelligen Kernzahlen von CPUs.


Grundsätzlich richtig. Dennoch gibt es weiterhin zu viele Allgemein-Aufgaben, wo ein (reiner) MADD-Parallelbeschleuniger prinzipbedingt nicht so toll läuft und ein allgemeiner Rechenkern mit der Möglichkeit zu jeglicher Befehlsverarbeitung einfach besser geeignet ist. Und auch dort gibt es dann Bedarf zu Skalierung.

Gast Ritis
2019-08-29, 11:53:47
Kannst du deine Insiderinfos auch beweisen oder bleibt es bei blabla?
Ich finde nicht dass das Bla Bla ist.

Es war doch offensichtlich, dass Intel mehr Kerne zurückgehalten hat und dafür nur geringe Fortschritte versilbert hat so lange AMD noch mit den alten Kernen und der GloFo Performance zu kämpfen hatte.

Die recht schnelle Reaktion mit mehr Kernen auf Ryzen1 zu reagieren ist Beweis genug.

Gast
2019-08-29, 18:55:33
Grundsätzlich richtig. Dennoch gibt es weiterhin zu viele Allgemein-Aufgaben, wo ein (reiner) MADD-Parallelbeschleuniger prinzipbedingt nicht so toll läuft und ein allgemeiner Rechenkern mit der Möglichkeit zu jeglicher Befehlsverarbeitung einfach besser geeignet ist.

Eine GPU ist kein reiner MADD-Beschleuniger, sondern ein allgemeiner Rechenkern der jegliche Befehle bearbeiten kann.

Was eine GPU nicht gut, bzw. in Hardware überhaupt nicht kann ist Instruction-Level-Parallelism auszunützen. CPUs sind darin sehr gut.

Was eine GPU sehr gut kann ist Thread-Level-Parallelism auszunutzen, und wenn du diesen nicht hast kannst du auch nicht für viele CPU-Threads parallelisieren.

Gast
2019-08-30, 13:07:07
Aber leider merkt man doch deutlich, dass Desktop beim Zen-Design mehr ein "Abfallprodukt" darstellt, und als Desktop-CPU ist Ryzen mit viel Augenzudrücken maximal gleich auf.

Deswegen benutzt Sysmark2018 auch so extrem CPU Performance kritische Anwendungen wie Outlook, Word, Powerpoint, Skype, etc..

Ich mein es stimmt schon... ich hab teils schon tagelang auf Emails gewartet. Ich wusste nur nicht das es mit einer Intel CPU schneller gegangen wäre.

Leonidas
2019-08-31, 12:57:10
ich hab teils schon tagelang auf Emails gewartet. Ich wusste nur nicht das es mit einer Intel CPU schneller gegangen wäre.


Wenn Intels Marketing das wüsste - was sich da alles für Möglichkeiten bieten würden ;)

Gast
2019-09-02, 16:01:01
Deswegen benutzt Sysmark2018 auch so extrem CPU Performance kritische Anwendungen wie Outlook, Word, Powerpoint, Skype, etc..


Und Excel, Lightroom...

Nicht relevant? Ja wenn man ein Excel-Sheet hat, deren gesamter Inhalt auf einen Screen passt dann ja.

Aber wenn das dein einziges Anwendungsgebiet, dann bist du nicht unbedingt die Zielgruppe von Highend-Prozessoren.

Es ist z.B. nicht unüblich Excel dazu zu verwenden hunderttausende oder gar Millionen Datensätze zu analysieren.

Leonidas
2019-09-03, 04:05:50
... was dann ja wieder Workstation-Segment wäre. Wo dann auch der Cinebench-Anwender nicht weit ist.

Gast
2019-09-03, 20:21:24
... was dann ja wieder Workstation-Segment wäre. Wo dann auch der Cinebench-Anwender nicht weit ist.

Der Cinebench-Anwender verwendet aber zu 99% nicht den Cinebench-Renderer sondern einen GPU-Beschleunigten Renderer.

Leonidas
2019-09-03, 22:49:29
Was dann eigentlich klar gegen den Cinebench spricht. Andere Stimmen hierzu?