PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Herausragende Cinebench-Werte eines "Alder Lake" Core i9-12900K ...


Leonidas
2021-07-21, 17:24:38
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-herausragende-cinebench-werte-eines-alder-lake-core-i9-12900k-aufgetaucht

Update 21.7. ca. 17:55
AVX512-Passage dahingegend ergänzt, dass ADL nach bisherigem Wissen eigentlich ohne AVX512 antreten soll.

ChaosTM
2021-07-21, 17:37:23
Zeit würde es nach 8 Jahren im Schlafmodus langsam werden.
Könnte spannend werden gegen den nächsten ZEN.

Aroas
2021-07-21, 17:50:43
Es wäre ja auch ziemlich schmachvoll, wenn diese neue Architektur inkl. kleinerer Fertigungsgröße nicht auch einen deutlichen Effekt auf die Leistung hätte.

Die Frage wird am Ende einmal mehr sein, was sowas kosten soll.

Man schaue sich nur das aktuelle Intel Flagschiff 11900K an. Für dieses Ding soll man derzeit satte 550€ bezahlen, obwohl es im Vergleich zum 5800X ziemlich als aussieht.
Wenn Intel also weiterhin der Meinung ist, für die eigenen CPUs Mondpreise aufrufen zu können, dann wird ein 12900K mit Sicherheit irgendwo bei 800-1000€ rauskommen.

Gast
2021-07-21, 18:36:00
Es wäre ja auch ziemlich schmachvoll, wenn diese neue Architektur inkl. kleinerer Fertigungsgröße nicht auch einen deutlichen Effekt auf die Leistung hätte.


Naja, nicht wirklich kleiner, Intel zieht gerade mal wieder gleich.


Die Frage wird am Ende einmal mehr sein, was sowas kosten soll.


Das hängt natürlich auch von der Konkurrenz ab, und die hat die Latte ja ganz schön hoch gelegt.


Man schaue sich nur das aktuelle Intel Flagschiff 11900K an. Für dieses Ding soll man derzeit satte 550€ bezahlen, obwohl es im Vergleich zum 5800X ziemlich als aussieht.
Wenn Intel also weiterhin der Meinung ist, für die eigenen CPUs Mondpreise aufrufen zu können, dann wird ein 12900K mit Sicherheit irgendwo bei 800-1000€ rauskommen.[/QUOTE]

iamthebear
2021-07-21, 19:21:29
Man darf bei der ganzen Intel vs. AMD Diskussion nicht vergessen:
Egal ob Intel CPUs jetzt besser sind oder nicht aber es gibt so gut wie keine OEMs die im Businessbereich AMD CPUs einsetzen. Man braucht nur einmal auf Geizhals schauen wieviele Geräte man mit Windows 10 Pro mit Intel vs. AMD CPUs bekommt. Firmen sind an einen OEM gebunden. Wenn man z.B. seit Jahren nur Dell Latitudes kauft, dann wird man nicht so schnell z.B. zu Acer wechseln alleine schon weil dann die Docking Stations alle nicht mehr passen. Bietet Dell keine Latitudes mit AMD CPUs an. dann werden keine Geräte mit AMD CPU gekauft. Ob AMD jetzt fürs selbe Geld 2 Kerne mehr bietet spielt keine Rolle. Das bekommt der typische Nutzer sowieso nicht mit.

Dass Intel jetzt aber weiter über 5950X Niveau geht denke ich nicht. Die werden ca. gleich ziehen und AMD wird den VCache gratis oben drauf packen. Deckungsbeitrag haben sie ja genug. Das sind 2 80mm² Compute Dies und ein kleiner 12nm IO Die zum Preis einer RTX 3080.

iamthebear
2021-07-21, 20:04:52
Intel nutzt also die 10nm-Fertigung nicht aus, um die wenig beliebte Verbrauchs-Charakteristik seiner Prozessoren mal wieder ein wenig zu zügeln – sondern setzt im Sinne des inzwischen harten Wettbewerbs im CPU-Markt alles auf die Karte "mehr Performance".

Ich denke bezüglich des Verbrauchs sollte man schon fair mit Intel sein. Bei der K Serie handelt es sich extra um eine OCing Serie für maximalen Takt. Die reguläre Serie hat 65 Watt und Intel bietet hier auch Modelle mit deutlich weniger an.
Es sind die Reviewer, die immer nur die K CPUs mit ihren 500 Euro OCing Boards benchen und dabei auch noch das Powerlimit komplett deaktivieren. Das kann man ja kaum Intel vorwerfen.

Edit: Was AVX512 angeht: Selbst wenn Alder Lake bei den Big Cores AVX512 supporten würde: Der 11900K unterstützt es auch. Von daher kann es nicht nur am AVX 512 Support liegen. Es sind bestenfalls die AVX Taktraten etwas höher als beim 11900K.

Abgesehen davon: Ist es überhaupt möglich. dass die Big Cores AVX512 unterstützen wenn es die Little Cores nicht tun? Was passiert wenn ein Prozess auf einem Big Core startet, die Software AVX512 Unterstützung erkennt und einen entsprechenden Codepfad startet, der Prozess dann jedoch auf einen Little Core verschoben wird?
Nach meinem Verständnis kann bei mehreren Befehlssätzen immer nur der kleinste gemeinsame Nenner genutzt werden.

WedgeAntilles
2021-07-21, 20:51:07
Man schaue sich nur das aktuelle Intel Flagschiff 11900K an. Für dieses Ding soll man derzeit satte 550€ bezahlen, obwohl es im Vergleich zum 5800X ziemlich als aussieht.
Wenn Intel also weiterhin der Meinung ist, für die eigenen CPUs Mondpreise aufrufen zu können, dann wird ein 12900K mit Sicherheit irgendwo bei 800-1000€ rauskommen.
Muss es immer das Flagschiff sein?
Wenn man in die "normalen" Kategorien runtergeht bietet Intel aktuell ja sogar mehr Leistung für den Euro als AMD.

Das lamentieren über Intels hohe Preise ist seit den Zen3 Preisen doch heuchlerisch geworden. Seit Zen3 bietet Intel im "Brot und Butter" sprich 6+8Kern Bereich ein besseres Preis-Leistungs-Verhältnis. Jedenfalls wenn es nicht zwingend das Flagschiff sein muss.

Aroas
2021-07-21, 22:14:08
Muss es immer das Flagschiff sein?
Wenn man in die "normalen" Kategorien runtergeht bietet Intel aktuell ja sogar mehr Leistung für den Euro als AMD.


Wir sprechen hier aber nunmal über Benchmarks zum 12900K, also ja, wir sprechen über das Flagschiff.

Dass Intel im unteren Preisbereich derzeit viel attraktiver ist, weil AMD da seit einer Weile einfach nichts mehr bringt und ältere AMD Ryzen nur noch als überteuerte Restposten angeboten werden, ist hier doch gar nicht Thema.

Übrigens bietet AMD bei den 8 Kernern das bessere P/L Verhältnis. Schon allein deshalb, weil die Effizienz deutlich besser ist und man sich so über die Nutzungszeit schon einige Euro an Strom spart.

Rabiata
2021-07-21, 23:22:25
Könnte gut sein, daß Leo mit seinen Vorbehalten recht hat. An anderer Stelle habe ich schon Tests gelesen, bei denen Intel mit AVX 512 die Ryzens deutlich abhängt. Das wäre eine plausible Erklärung, wo die massive Leistungssteigerung her kommt.

Abgesehen davon: Ist es überhaupt möglich. dass die Big Cores AVX512 unterstützen wenn es die Little Cores nicht tun? Was passiert wenn ein Prozess auf einem Big Core startet, die Software AVX512 Unterstützung erkennt und einen entsprechenden Codepfad startet, der Prozess dann jedoch auf einen Little Core verschoben wird?
Nach meinem Verständnis kann bei mehreren Befehlssätzen immer nur der kleinste gemeinsame Nenner genutzt werden.
Das könnte vielleicht im Scheduler berücksichtigt werden, möglichst inklusive Fehlererkennung wenn auf dem kleinen Core versucht wird, AVX512 Code auszuführen. Dann müßte der Prozeß direkt wieder auf den großen Kern geschickt werden.

Klingt nach einem wüsten Hack mit Folgeproblemen, aber ich traue Microsoft durchaus zu, so was zu machen.

Gast
2021-07-22, 00:20:58
Alder Lake hat definitiv kein AVX512.

Und selbst wenn es rein theoretisch so wäre, ist AVX512 bei den Desktop-CPUs dennoch langsamer. Denn Ice Lake, Tiger Lake und Rocket Lake haben pro Kern nur eine AVX512-FMA-Einheit. Bei AVX2-Code arbeitet diese als 256-Bit-Einheit zusammen mit einer weiteren 256-Bit-only-FMA-Einheit. Theoretisch wäre das gleich schnell, weil 1x 512 Bit vs. 2x 256 Bit, in der Praxis ist aber AVX512 ein paar Prozent langsamer, weil die CPU dabei etwas langsamer taktet als mit AVX2-Code.

Erst die dicken Xeons und Core X haben außer der AVX512-FMA-Einheit zwei weitere AVX2-Einheiten, die sich wiederum zu einer zweiten AVX512-FMA-Einheit zusammenschalten lassen und kommen dadurch mit AVX512 auf fast den doppelten Floating-Point-Durchsatz.

iamthebear
2021-07-22, 00:25:21
Solange man die aktuellen Intel Desktop CPUs mit dem Powerlimit betreibt, für das sie vorgesehen sind brauchen diese nicht nennenswert mehr als aktuelle AMD CPUs. Wenn man jedoch meint man muss das Powerlimit deaktivieren, tja dann ziehen die Dinger bis zur 300 Watt für ein paar % mehr Performance.

Hier einmal ein aktueller CPU Test 11700K vs. 5800X:
https://www.computerbase.de/2021-07/intel-core-i7-11700k-amd-ryzen-7-5800x-test/3/#diagramm-test-leistungsaufnahme-volllast-windows-10-komplettes-system

11700K: Bei Volllast 185W
5800X: 198W

Angaben jeweils für das gesamte System inkl. High End GPU, Board etc.

Bei der Performance ist der 5800X ganze 11% vorne in 720p. Unter üblichen Auflösungen wird es vermutlich noch ca. die Hälfte sein.

Die Single Core Performance im Alltagsbetrieb ist auch bei beiden in etwas gleich. Leider gibt es hier nur sehr wenige repräsentative Benchmarks.

Einzig bei Multimediaanwendungen hat der 5800X einen Vorteil von 15%. Wenn man allerdings wirklich so viel rendert, dass dies wirklich ein Thema ist, dann wird man sich vermutlich sowieso zumindest einen 5900X holen.

Also ja AMD ist derzeit mit dem 5800X vorne aber der Unterschied ist jetzt echt nicht so weltbewegend.

Derzeit würde ich sagen:
6 Kerne und darunter: Intel
8 Kerne: Entweder Intel oder AMD je nach persönlicher Präferenz, im Zweifelsfall AMD
Mehr als 8 Kerne: AMD

Zur Frage warum die 11900K so teuer ist:
Ganz einfach weil das eine extrem selektierte Sonderauflage für Leute ist, die um jeden Preis die schnellste Intel CPU haben wollen, die es gibt.

Den 11900 non K gibt es derzeit um 400 Euro zu haben. Wenn einem das 65W Power Limit doch etwas zu niedrig ist, kann man dieses ja etwas erhöhen (z.B. auf 125W).

Falls man die integrierte Grafik nicht benötigt (die X CPUs von AMD haben ja auch keine), dann kann man sich einen 11900F um derzeit 330 Euro holen sogar mit boxed Kühler. Also warum sollen das Mondpreise sein? Das ist billiger als der 5800X von AMD.

Aroas
2021-07-22, 01:28:42
Bei der Performance ist der 5800X ganze 11% vorne in 720p. Unter üblichen Auflösungen wird es vermutlich noch ca. die Hälfte sein.

Die Single Core Performance im Alltagsbetrieb ist auch bei beiden in etwas gleich. Leider gibt es hier nur sehr wenige repräsentative Benchmarks.

Einzig bei Multimediaanwendungen hat der 5800X einen Vorteil von 15%. Wenn man allerdings wirklich so viel rendert, dass dies wirklich ein Thema ist, dann wird man sich vermutlich sowieso zumindest einen 5900X holen.

Also ja AMD ist derzeit mit dem 5800X vorne aber der Unterschied ist jetzt echt nicht so weltbewegend.


Intel hat jahrelang CPUs verkauft, die von Generation zu Generation teils weniger Mehrleistung boten und dennoch haben viele Leute immer wieder hunderte von Euro hingeblättert um neue CPUs zu kaufen.

Aber wenn AMD 10-15% mehr Performance als Intel bietet, dann ist das auf einmal nicht weltbewegend. Interessant.

Und wenn du schon die Spieleperformance in 720p als Leistungsvergleich heranziehst, dann nimm doch bitte auch die Stromverbrauchsmessung aus diesem Szenario und nicht die Messung bei Volllast (welche eh so gut wie nie anliegt).
Dann zeigt sich nämlich, dass der 11700K mit Limits ca. 40W mehr aus der Steckdose nuckelt, als der 5800X.
Das ist schon ein ordentlicher Unterschied.

Nehmen wir mal an, man spielt täglich mit solch einer Konfiguration 4 Stunden.
Das sind 0,16 kWh pro Tag Mehrverbrauch des 11700K im Vergleich zum 5800X. Macht im Jahr 58,4 kWh Mehrverbrauch.
Bei ca. 30 Cent pro kWh sind das im Jahr ca. 17,50€ an Mehrkosten beim Strom.

Derzeit kostet ein 11700K 358€ (Geizhals Listung) vs. 5800X für 374€.

Also bereits nach einem Jahr Nutzung allein im Spieleszenario und limitiert, kostet der 11700K mehr als der 5800X. Bei gleichzeitig weniger Performance (ob das nun 11% oder 100% sind, spielt keine Rolle).

Natürlich ist das eine sehr vereinfachte Milchmädchenrechnung, aber dennoch kostet einen der Intel 8 Kerner letztlich schlicht und ergreifend mehr bei weniger Leistung.
Kann auch länger dauern, je nach Nutzungsverhalten. Aber in der Regel nutzt man eine CPU ja auch wenigstens 2-3 Jahre, bevor man sich was neues holt. Und in dieser Zeit wird mit dem Intel aufgrund der höheren Leistungsaufnahme definitiv teurer.

Im Übrigen sagt auch das Fazit zum von dir hier verlinkten Test, dass man bei der ganzen Sache mit AMD besser fährt.
Ab 8 Kernen ist AMD schlicht und ergreifend derzeit der King im Ring. Darunter ist das P/L Verhältnis hingegen auf Intels Seite und AMD täte gut daran, schleunigst mal etwas aufzulegen, was diese Situation ändert bzw. zumindest halbwegs attraktive Konkurrenzprodukte zu bringen. Im August sollen ja angeblich auch Ryzen 5000 APUs für den Retail Markt kommen. Evtl. gibts ja mit denen auch wieder was für den Bereich unter 200€ bei AMD.

iamthebear
2021-07-22, 01:32:26
Könnte gut sein, daß Leo mit seinen Vorbehalten recht hat. An anderer Stelle habe ich schon Tests gelesen, bei denen Intel mit AVX 512 die Ryzens deutlich abhängt. Das wäre eine plausible Erklärung, wo die massive Leistungssteigerung her kommt.

Das könnte vielleicht im Scheduler berücksichtigt werden, möglichst inklusive Fehlererkennung wenn auf dem kleinen Core versucht wird, AVX512 Code auszuführen. Dann müßte der Prozeß direkt wieder auf den großen Kern geschickt werden.

Klingt nach einem wüsten Hack mit Folgeproblemen, aber ich traue Microsoft durchaus zu, so was zu machen.

1.) Der Performancegewinn von AVX512 ist zumindest bei Cinebench R20 echt überschaubar. Rocket Lake (der ja auch AVX512 unterstützt) hat ca. 15% IPC bei Cinebench zugelegt. Allerdings ist Rocket Lake auch im Schnitt aller anderer Anwendungen um ca. 15% schneller, weshalb ich bezweifle, dass AVX512 hier tatsächlich eine große Rolle gespielt hat.

Abgesehen davon:
.) Rocket Lake ist in Cinebench R20 SC so schnell wie Zen3
.) Rocket Lake ist in allen anderen Anwendungen auch so ca. so schnell wie Zen3 solange das Powerlimit nicht bremst.
.) Rocket Lake ist ca. 15% schneller als Comet Lake sowohl in Cinebench R20 als auch in allen anderen Anwendungen.
.) Alder Lake ist 25% schneller als RocketLake in Cinebench R20 SC. Rocket Lake unterstützt jedoch bereits AVX512

Also ich sehe hier keine Anhaltpunkte, die die Theorie stützten, dass Alder Lake auf Grund von AVX512 schneller sein könnte, selbst wenn er es unterstützen sollte.

Was jedoch nicht ausgeschlossen werden kann ist, dass es andere Verbesserungen gibt, die mit Cinebench besser skalieren als bei anderen Anwendungen.
Umgekehrt könnte es genauso möglich sein, dass noch andere Verbesserungen gemacht wurden, von denen Cinebench weniger stark profitiert (z.B. der DDR5 Support oder die Vergrößerung des L3 Cache) und der Unterschied in der Praxis noch größer ist.

Wir können also derzeit nur spekulieren. Das Einzige, was ich als halbwegs gesichert annehme ist, dass bei Cinebench nicht PL1 sondern PL2 zum Einsatz kam und man unter Dauerlast vermutlich ein bisschen was abziehen kann.

Ich bin einmal mutig und spekuliere aus dem Bauch heraus:
.) Mit dem 3D Cache und unter Dauerlast wird AMD mit dem 5950X wieder um ca. 10% Vorsprung bei Multimediaanwendungen haben dank 16 großer Kerne.
.) Intel wird wieder um ca. 10% die Single Core Krone haben bzw. bei Spielen vorne sein.
.) AMD wird mit Zen4 Intel wieder bei der Single Core Leistung wieder um ca. 10% überholen und bei Multi Core ausbauen.
.) Intel wird Raptor Lake bei SC wieder auf gleich stellen und bei Multi Core dank 8 mehr Little Cores AMD auch wieder einholen.

.) Irgendwann später wird Intel mit Meteor Lake (7nm) noch einmal einen kräftigen Schub drauf setzen, falls es nicht wieder solche Probleme gibt. Vermutlich wieder etwas mehr SC Leistung und viel mehr MultiCore Leistung.
.) AMD hat aber mit Zen 5 (vermutlich dann in TSMC 3nm) auch einiges vor, laut Gerüchten auch ein Big/Little Design.

2.) Was das zurückschicken an den Big Core angeht: Ob es für das OS überhaupt möglich ist die Ausführung von AVX512 Code rechtzeitig zu unterbinden kann ich nicht sagen. Allerdings würde das z.B. im Fall von Cinebench R20 bedeuten, dass die Little Cores überhaupt nicht mehr verwendet werden nur auf Grund eines gelegentlichen AVX512 Befehls ohne nennenswerten Performancevorteil. Hier wäre es deutlich performanter wenn die CPU gleich mitteilt, dass sie kein AVX512 kann und der entsprechende Codepfad gar nicht ausgeführt werden kann. Dann funktioniert es aber gleich überhaupt nicht mehr und Intel kann sich die zusätzlichen Transistoren auch bei den Big Cores schenken.

Wenn die Big Cores tatsächlich AVX512 unterstützen, so sehe ich hier eigentlich nur 2 Möglichkeiten:
.) Die Little Cores emulieren die AVX512 Unterstützung, indem sie die Befehle in 2 Takten hintereinander ausführen (falls das überhaupt so einfach funktioniert)
.) Es gibt irgendeine Möglichkeit beim Wechsel der CPU den Prozess dazu zu bringen den Code Pfad zu bestimmen. Das kann ich mir jedoch nicht vorstellen.

Das ganze Thema gibt es ja bereits jetzt schon bei virtuellen Maschinen wenn diese auf einen anderen Rechner verschoben werden ohne neu gestartet werde zu müssen. Zumindest bei Hyper V ist es nicht möglich ohne Shutdown auf einen Host mit einer anderen CPU zu migrieren, es sei denn der Compatibility Mode ist aktiviert, bei dem alle optionen Features wie AVX und AES NI deaktiviert werden. Ich schätze einmal, dass es bei anderen Virtualisierungslösungen ähnlich sein wird.

iamthebear
2021-07-22, 03:06:06
Intel hat jahrelang CPUs verkauft, die von Generation zu Generation teils weniger Mehrleistung boten und dennoch haben viele Leute immer wieder hunderte von Euro hingeblättert um neue CPUs zu kaufen.

Also ich glaube der Anteil der Leute, die extra wegen 10% mehr Leistung ihr System getauscht haben ist sehr gering ;-)

Also ich kann nur für mich sprechen. Ich hatte einen 2600K und bin dann auf einen 9900K umgestiegen. Der 9900K hatte sowohl die doppelte Kernanzahl, als auch die doppelte SC Leistung. Abgesehen davon hat das System nur 32GB DDR4 statt 8GB RAM DDR3.

Aber wenn AMD 10-15% mehr Performance als Intel bietet, dann ist das auf einmal nicht weltbewegend. Interessant.

Ich habe nicht behauptet, dass z.B. die 10% von Haswell sehr weltbewegend waren. Ich habe die Intel Generationen genauso als "fast gleich" angesehen, wie jetzt Intel vs. AMD.

Und wenn du schon die Spieleperformance in 720p als Leistungsvergleich heranziehst, dann nimm doch bitte auch die Stromverbrauchsmessung aus diesem Szenario und nicht die Messung bei Volllast (welche eh so gut wie nie anliegt).
Dann zeigt sich nämlich, dass der 11700K mit Limits ca. 40W mehr aus der Steckdose nuckelt, als der 5800X.
Das ist schon ein ordentlicher Unterschied.

Nehmen wir mal an, man spielt täglich mit solch einer Konfiguration 4 Stunden.
Das sind 0,16 kWh pro Tag Mehrverbrauch des 11700K im Vergleich zum 5800X. Macht im Jahr 58,4 kWh Mehrverbrauch.
Bei ca. 30 Cent pro kWh sind das im Jahr ca. 17,50€ an Mehrkosten beim Strom.

Warum du ausgerechnet eine K CPU willst, wenn dir der Stromverbrauch so wichtig ist, verstehe ich absolut nicht. Hol dir gleich einen 11700 non K und du hast 40W weniger Verbrauch als der 5800X bei Spielen.

Wobei ich generell davon ausgehen würde, dass das mindestens 20 Watt Unschärfe dabei sind je nachdem welches Board beim Test verwendet wurde, ob man gutes Silizium oder schlechtes erwischt hat (mit entsprecht leicht angepasster Spannungskurve) usw.
Und wenn du eine andere GPU in einer anderen Auflösung (vielleicht nicht unbedingt eine 3080 in 1080p), dann werden die Ergebnisse wieder ganz andere sein. Da kannst du vermutlich überhaupt mit 65W Powerlimit fahren und alles ist bestens.

Derzeit kostet ein 11700K 358€ (Geizhals Listung) vs. 5800X für 374€.

Der Vergleich hinkt etwas, da du eine CPU mit iGPU und boxed Kühler gegen eine CPU ohne iGPU und Kühler vergleichst.

Wie gesagt: Um 330 Euro bekommst du einen 11900F wenn du keine iGPU brauchst. Der ist wenn er am selben Powerlimit läuft schneller als als der 11700K (weil besseres Binning).

Also bereits nach einem Jahr Nutzung allein im Spieleszenario und limitiert, kostet der 11700K mehr als der 5800X. Bei gleichzeitig weniger Performance (ob das nun 11% oder 100% sind, spielt keine Rolle).

Wie gesagt: Hol dir keine K CPU, wenn dir der Stromverbrauch so wichtig ist. Dann hat sich das mit Stromkosten und Preis auch schon erledigt.

Aber mal ehrlich: Wegen 20 Euro auf oder ab: Wen juckts. Das kann morgen schon wieder anders sein.
Da habe ich persönlich andere Prioritäten beim Rechnerkauf z.B. ob ich ein Board finde, das meinen Anforderungen entspricht bzw. wo keine Komponenten verbaut sind, mit denen ich schon Probleme hatte, ob mein bestehender CPU Kühler auf den Sockel passt, ob die Treiber stabil sind usw.

Im Übrigen sagt auch das Fazit zum von dir hier verlinkten Test, dass man bei der ganzen Sache mit AMD schlicht und ergreifend besser fährt.
Ab 8 Kernen ist AMD schlicht und ergreifend derzeit der King im Ring. Darunter ist das P/L Verhältnis hingegen auf Intels Seite und AMD täte gut daran, schleunigst mal etwas aufzulegen, was diese Situation ändert bzw. zumindest halbwegs attraktive Konkurrenzprodukte zu bringen. Im August sollen ja angeblich auch Ryzen 5000 APUs für den Retail Markt kommen. Evtl. gibts ja mit denen auch wieder was für den Bereich unter 200€ bei AMD.

Ich lese mir persönlichen Meinungen der Reviewer gar nicht mehr durch, sondern bilde mir meine eigene basierend auf den objektiven Daten.
Reviewer werden leider etwas betriebsblind und denken, dass sich alles nur um die reinen Performancewerte dreht. Da spielen viel mehr persönliche Anforderungen eine Rolle.

Ich will z.B. falls es sich vermeiden lässt keine CPU ohne iGPU mehr. Das alleine ist mir 50-100 Euro Aufpreis wert.
Umgekehrt will ich kein Board mit Intel LAN Adapter mehr, da ich mit den Intel Netzwerktreibern schon 5 Mal massive Probleme hatte und keine Lust mehr habe auf den Ärger. Das ist mir auch einen Aufpreis von 30-40 Euro wert.

Die Frage ist: Für welche CPU bekomme ich ein Board, das meine Anforderungen erfüllt und was kostet mich das.

Gast
2021-07-22, 08:06:47
Übrigens bietet AMD bei den 8 Kernern das bessere P/L Verhältnis. Schon allein deshalb, weil die Effizienz deutlich besser ist und man sich so über die Nutzungszeit schon einige Euro an Strom spart.

Kommt auf die Nutzung an. Im Homeoffice sind die AMD-CPUs mit ständig vorhandener 20W Leistungsaufnahme des IO-DIEs und schnell mal 40-50W nur um eine Citrix-Session darzustellen alles andere als Sparsam.

Wenn man 24/7 Rendert spart man mit AMD natürlich einiges an Strom.

Gast
2021-07-22, 08:24:23
Intel hat jahrelang CPUs verkauft, die von Generation zu Generation teils weniger Mehrleistung boten und dennoch haben viele Leute immer wieder hunderte von Euro hingeblättert um neue CPUs zu kaufen.


Intel hat allerdings auch die Preise weitestgehend gleichgelassen, bzw. maximal im Bereich der allgemeinen Inflation erhöht.


Aber wenn AMD 10-15% mehr Performance als Intel bietet, dann ist das auf einmal nicht weltbewegend. Interessant.


10-15% sind nie Weltbewegend egal von wem, ich glaube auch kaum dass es viele gibt die von einer Skylake auf die nächste Skylake Generation dann mit einem anderen Lake im Namen umgestiegen sind.


Nehmen wir mal an, man spielt täglich mit solch einer Konfiguration 4 Stunden.
Das sind 0,16 kWh pro Tag Mehrverbrauch des 11700K im Vergleich zum 5800X. Macht im Jahr 58,4 kWh Mehrverbrauch.
Bei ca. 30 Cent pro kWh sind das im Jahr ca. 17,50€ an Mehrkosten beim Strom.


Und nehmen wir an neben den 4 Stunden Spielen am Tag macht man noch weitere 8 Stunden Homeoffice im Tag.
Dann hast du bei Intel AVG <10W am Tag, bei AMD ca. 50W und schon kehrt sich der tolle Stromverbrauchsvorteil von AMD um. Vom Potentiellen Stromfressesr X570 reden wir noch gar nicht.

Und ja ich weiß wovon ich rede ich war das letzte halbe Jahr im Homeoffice auf einem Ryzen, und über den Arbeitstag gesehen braucht bei diesem alleine die CPU mehr als das Gesamtsystem meines Bürorechners der die eigentliche Arbeit macht. Der Ryzen zuhause ist ja eigentlich nur ein Ein-Ausgabegerät das per Remote auf den Bürorechner zugreift.

Gast
2021-07-22, 08:45:56
Solange man die aktuellen Intel Desktop CPUs mit dem Powerlimit betreibt, für das sie vorgesehen sind brauchen diese nicht nennenswert mehr als aktuelle AMD CPUs. Wenn man jedoch meint man muss das Powerlimit deaktivieren, tja dann ziehen die Dinger bis zur 300 Watt für ein paar % mehr Performance.

Hier einmal ein aktueller CPU Test 11700K vs. 5800X:
https://www.computerbase.de/2021-07/intel-core-i7-11700k-amd-ryzen-7-5800x-test/3/#diagramm-test-leistungsaufnahme-volllast-windows-10-komplettes-system

11700K: Bei Volllast 185W
5800X: 198W
Aha, und die Angabe "Peak 269W" ignorieren wir mal. Auch die Tatsache, dass die AMD CPU auf X570 läuft und damit alleine durch den Chipsatz mal bis zu 14W mehr verbraucht als auf einem B550.
Und natürlich auch die Tatsache, dass bei vielen Boards für Intel CPUs das von Intel vorgesehene Limit per Default komplett ignoriert wird und man es dann manuell einschalten muss.
In Multicore, Singlecore und 720p ist der limitierte 11700k übrigens näher an einem 5600X als an einem 5800X, daher müsste man den 11700k eigentlich eher mit dem 5600X vergleichen, denn der ist klar näher am 11700k als der 5800X.

WedgeAntilles
2021-07-22, 09:55:35
Wir sprechen hier aber nunmal über Benchmarks zum 12900K, also ja, wir sprechen über das Flagschiff.

Dass Intel im unteren Preisbereich derzeit viel attraktiver ist, weil AMD da seit einer Weile einfach nichts mehr bringt und ältere AMD Ryzen nur noch als überteuerte Restposten angeboten werden, ist hier doch gar nicht Thema.

Übrigens bietet AMD bei den 8 Kernern das bessere P/L Verhältnis. Schon allein deshalb, weil die Effizienz deutlich besser ist und man sich so über die Nutzungszeit schon einige Euro an Strom spart.

Naja, der 5950X kostet doch auch 800 Euro oder so (und das über 6 Monate nach Erscheinen), im absoluten High-End Bereich ist es irgendwie etwas müßig über "Preis-Leistung" zu sprechen, oder? Selbst wenn der 12900k also bei Release 900-1000 kostet, so what? Das hatte der 5950X auch in etwa gekostet, prozentual reden wir hier von 10% hin oder her.

Und ja, wir vergleichen aktuell den 12900k mit dem 5950 - aber falls dieser Wert des 12900k stimmt wird es ja nicht so sein, dass die preisgünstigen Varianten plötzlich miserabel sind.
Ebensowenig wie der 5600 gegenüber dem 5950 miserabel ist.
Halt alles eine Nummer kleiner und in irgendwie bezahlbaren REgionen.

Intel war im obersten Segment immer teuer - und ist das ja bei RL auch noch.
Die Top-Modelle von Intel waren nie wahnsinnig interessant. (Der 5950 bietet ja wenigstens signifikant mehr als der 5800 z.B. - falls man die zusätzlichen Kerne braucht, erhält man auch was für sein Geld.)
Aber Intel hatte eben immer auch attraktive Modelle, die nicht so wahnsinnig weit weg vom Top Modell waren aber halt nur einen Bruchteil davon gekostet haben.

Seien es die "F" Modelle ohne Grafik, seien es vor 6 Jahren die Xeon-Modelle die man halt nicht übertakten konnte.

Daher ist IMO Angst, dass Alder Lake unbezahlbar teuer wird völlig unbegründet. Jedenfalls wenn man nicht ausschließlich das Flagschiff kauft.

WedgeAntilles
2021-07-22, 10:08:55
Und nehmen wir an neben den 4 Stunden Spielen am Tag macht man noch weitere 8 Stunden Homeoffice im Tag.
Dann hast du bei Intel AVG <10W am Tag, bei AMD ca. 50W und schon kehrt sich der tolle Stromverbrauchsvorteil von AMD um. Vom Potentiellen Stromfressesr X570 reden wir noch gar nicht.


Das Dual-Monitor Problem bei AMD GraKas interessiert irgendwie auch die wenigsten - ist das inzwischen eigentlich gelöst?
Oder brauchen AMD Karten da immer noch 20,30 Watt mehr als Nvidia Karten?

Falls AMD irgendwo 20 Watt weniger braucht sind 20 Watt halt gigantisch und entscheidend.
Falls AMD irgendwo 20 Watt mehr braucht ist es irrelevant.

Ich kann mich auch nicht erinnern großartig Gejammer über den Stromverbrauch der 5700XT gehört zu haben, die wurde hier im Forum (zu Recht) gefeiert, dass sie preislich attraktiv ist. Da wurde auch nie hochgerechnet, ob man im Jahr 20 Euro mehr oder weniger Stromkosten hat.

Jetzt wo die AMD GraKas aber (ohne Dual-Monitor) weniger verbrauchen ist aber jedes Watt das nvidia mehr braucht eine Katastrophe.

Das ist einfach etwas ermüdend...

Gilt natürlich auch für die Gegenseite - Intel z.B. hält einem ewig irgendwelche Benchmarks vor, in denen sie vor AMD waren. Kaum war AMD aber vorne in den Benchmarks waren die plötzlich völlig irrelevant. Seriously?

Da hier im Forum aber die AMD Fraktion stark in der Mehrheit ist, kommt es eben deutlich mehr vor.

Gast
2021-07-22, 11:58:55
Kommt auf die Nutzung an. Im Homeoffice sind die AMD-CPUs mit ständig vorhandener 20W Leistungsaufnahme des IO-DIEs und schnell mal 40-50W nur um eine Citrix-Session darzustellen alles andere als Sparsam.
Immer wieder die selben Behauptungen, die halt nicht stimmen...
Der Verbrauch kommt bei AMD vom x570 Chipsatz, nicht vom Prozessor! Bei Computerbase ist im initialen Test des Ryzen 5000 ein Vergleich zwischen Idle x570, B550 und Intel drin, und da ist ein 5950X auf B550 mit 42W auf dem Niveau eines 9700, der Intels sparsamste CPU in dem Testfeld ist. Ein Default 11700K (also auf seine 125W limitiert) liegt bei 55W, braucht also 13W mehr als AMDs Topmodell.

Gast
2021-07-22, 12:29:49
Das Dual-Monitor Problem bei AMD GraKas interessiert irgendwie auch die wenigsten - ist das inzwischen eigentlich gelöst?
Oder brauchen AMD Karten da immer noch 20,30 Watt mehr als Nvidia Karten?

Falls AMD irgendwo 20 Watt weniger braucht sind 20 Watt halt gigantisch und entscheidend.
Falls AMD irgendwo 20 Watt mehr braucht ist es irrelevant.

Ich kann mich auch nicht erinnern großartig Gejammer über den Stromverbrauch der 5700XT gehört zu haben, die wurde hier im Forum (zu Recht) gefeiert, dass sie preislich attraktiv ist. Da wurde auch nie hochgerechnet, ob man im Jahr 20 Euro mehr oder weniger Stromkosten hat.

Jetzt wo die AMD GraKas aber (ohne Dual-Monitor) weniger verbrauchen ist aber jedes Watt das nvidia mehr braucht eine Katastrophe.

Das ist einfach etwas ermüdend...

Gilt natürlich auch für die Gegenseite - Intel z.B. hält einem ewig irgendwelche Benchmarks vor, in denen sie vor AMD waren. Kaum war AMD aber vorne in den Benchmarks waren die plötzlich völlig irrelevant. Seriously?

Da hier im Forum aber die AMD Fraktion stark in der Mehrheit ist, kommt es eben deutlich mehr vor.
Naja, ist das Problem auf NVidia Seite denn gelöst? Mein letzter Stand ist, dass die NVidia Karten auch nur sparsam sind, wenn man zwei Monitore verwendet, die identische Auflösung und Timings verwenden, sonst fahren die auch den Speichertakt hoch und verbrauchen deutlich mehr.
Und um deine Frage zu beantworten:
https://www.techpowerup.com/review/amd-radeon-rx-6900-xt/31.html
Scheinbar ja, da braucht die 6900XT im Multimonitor 7W, was schon sehr sparsam wäre (deutlich sparsamer als Ampere). Aber wie das dann wieder mit verschiedenen Auflösungen ist, steht da leider auch nicht. Da gibt's auch echt wenige Tests.
Auch ist das kein generelles AMD Problem, denn HBM Karten brauchen auch bei mehr als 2 Monitoren und bei gemischten Auflösungen nicht mehr, weil der HBM immer mit vollem Takt läuft. Bei den Karten ist es also egal, wie viele Monitore dran hängen. Nur bei Karten mit GDDRx wird der Speichertakt im Idle gesenkt (je nach Anzahl der Monitore).

Ja, natürlich nervt das, dass man jetzt auf 20-30W Mehrverbrauch bei NVidia herum reitet (weil es ja auch nicht nötig wäre, auf 300W gedrosselt verlieren die 3080 und 3090 ja auch nicht so viel). Allerdings war es vor Jahren auch anders herum üblich, insofern ist das halt die Retourkutsche und auch in gewisser Weise verdient. Das vergisst halt so manch NV Fan auch immer gerne.

Nüchtern betrachtet hat man im GPU Bereich aktuell als Kunde eigentlich die Wahl. AMD und NVidia liegen grob gleichauf, haben an der ein oder anderen Ecke ihre Vor-/Nachteile. Und wäre da nicht der krasse Lieferengpass, hätte der Kunde eigentlich perfekte Bedingungen.
Im CPU Bereich muss man wohl auf Alder Lake warten oder man ignoriert den Verbrauch von Rocket Lake und bekommt dafür bessere Preise. Eigentlich ist der CPU Markt auch recht ausgewogen, vielleicht mit leichter Tendenz für AMD (noch?).

Gast
2021-07-22, 15:52:27
Naja, ist das Problem auf NVidia Seite denn gelöst? Mein letzter Stand ist, dass die NVidia Karten auch nur sparsam sind, wenn man zwei Monitore verwendet, die identische Auflösung und Timings verwenden, sonst fahren die auch den Speichertakt hoch und verbrauchen deutlich mehr.

Kann ich dir aus eigener Erfahrung sagen, nein das ist nicht der Fall, betreibe schon länger mehrere Monitore mit unterschiedlichen Settings und der Grafikkarte ist das ziemlich egal.

Bei Nvidia steuert schon seit einigen Generationen rein die Auslastung die Taktraten, und wenn die niedrig genug ist werden die Taktraten auch reduziert.
Einzig beim Start einer Anwendung die 3D-Beschleunigung verwendet geht es mal kurz rauf, aber nach ein paar Sekunden auch gleich wieder runter sobald der Treiber merkt dass die Anwendung eigentlich nix tut.

Gast
2021-07-22, 15:55:25
Der Verbrauch kommt bei AMD vom x570 Chipsatz, nicht vom Prozessor!


Und dass der Chipsatz so säuft ist wohl auch Intels schuld oder?

Und nein, zur Package Power gehört der Chipsatz bei AMD nicht, und die ist entsprechend hoch, der X570 macht es fürs Gesamtsystem nur noch schlimmer.

Dass IO-DIE und x570 so viel saufen sollte auch kaum verwundern, schließlich handelt es sich bei beiden um das selbe Silizium.

Legendenkiller
2021-07-22, 20:46:36
Naja aber Cinebench R20. ST: >810 iss schon ne neue Liga.
Aktuell leigen AMD/Intel docher nur bei knapp über 600?

mein I4590k hat ST: 400, MT: 1250 0.o

Gast
2021-07-23, 09:59:07
Naja aber Cinebench R20. ST: >810 iss schon ne neue Liga.

Wenn es stimmt auf jeden Fall, damit wird sowohl Firestorm als auch Zen3 deutlich distanziert.

Wird interessant, ob Intel nun den Cinebench wieder als "relevant" ansieht, nachdem man wieder deutlich vorne ist XD

WedgeAntilles
2021-07-23, 11:02:14
Wird interessant, ob Intel nun den Cinebench wieder als "relevant" ansieht, nachdem man wieder deutlich vorne ist XD
Darauf kannst du Haus und Hof wetten.

Natürlich darf (und muss) ein Unternehmen seine Produkte in einem möglichst guten Licht präsentieren.
Aber was da von Intel kommt ist teilweise schon abenteuerlich und eigentlich Satire.

Gast
2021-07-23, 11:38:01
Und dass der Chipsatz so säuft ist wohl auch Intels schuld oder?

Und nein, zur Package Power gehört der Chipsatz bei AMD nicht, und die ist entsprechend hoch, der X570 macht es fürs Gesamtsystem nur noch schlimmer.

Dass IO-DIE und x570 so viel saufen sollte auch kaum verwundern, schließlich handelt es sich bei beiden um das selbe Silizium.
1. Nein, der X570 ist nicht das IO-Die. Die haben eine andere Fertigung. Wenn man schon so schlau ist, sollte man das wissen.
2. Intel's aktuelles Chipsatz Topmodell ist grob vergleichbar mit dem B550. Intel hat keinen Chipsatz, der 20 PCIe 4.0 Lanes bietet (wie der X570). Entsprechend muss man dann auch B550 gegen Z590 stellen, und da brauchen die Intel Plattformen dann mehr als AMD. Da gibt's dann auch überhaupt nichts zu diskutieren. Die Package Power interessiert auch keinen, es geht im den Verbrauch der gesamten Plattform.

Platos
2021-07-24, 01:23:53
Scheint ja mal rein von der Leistung ganz gut auszusehen. Der Stromverbrauch stimmt dann (anscheinend) aber wieder nicht. Jetzt müssen sie "nur" noch den Stromverbrauch in akzeptable Bereiche senken. Aber Leistungstechnisch scheinen sie wohl (vorerst) wieder an der Spitze zu sein (dieses mal aber überall und nicht nur im Gaming).

Eine Berechtigte Frage wird dann natürlich sein, wie teuer das ganze wird. Aber Flagschiffe zu vergleichen ist hald immer etwas am Ziel (an der Realität) vorbei. Die sind meistens überdurchschnittlich teurer und nur die Minderheit der Minderheit kauft die. Viel interessanter wird dann der 8C+4c. Dieser wird im Singlecore sicherlich nicht viel schlechter sein bzw. im Gaming etwa gleich auf liegen.

Die Zeit ist spannend. Die 5 Jahre bis Kabylake waren lame und es scheint so, als dass mindestens die drauf folgenden 7 Jahre spannend sind und sein werden (Zen5 & Meteorlake). Aber ich gehe davon aus, dass es von Zen1 aus gesehen sicherlich 10 Jahre spannend sein wird.