PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake (7 nm, big.LITTLE, 8C + 8c "Golden Cove"/"Gracemont" CPU-Kerne, Ende 2021)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18

Fusion_Power
2021-10-17, 17:10:28
Statt wie gut ein Game auf Alder Lake läuft könnte die Frage am Ende ehr sein ob ein Game überhaupt läuft:

Gerücht: Neue Intel-Prozessoren funktionieren vielleicht nicht mit älteren Spielen (https://www.gamestar.de/artikel/geruecht-intel-alder-lake-drm-probleme,3374383.html)
Intels revolutionäre Core-i-12000 Alder-Lake-CPUs könnten laut Gerüchten Schwierigkeiten mit dem Kopierschutz älterer Spiele haben.

Hoffen wir mal dass das wirtlich nur Gerüchte sind.

iamthebear
2021-10-17, 17:19:36
Die Diskussion um RTL bzw. MTL ist nur Ausdruck einer Vorahnung vieler in diesem Faden ... ADL wird in der Masse der Spiele nicht an die durch bisherige Leaks suggerierte Leistungsfähigkeit herankommen. Es fehlen nach wie vor die Leaks, die den 12900K bzw. 12700K unter aktuellen Spielen aufleben lassen. Beim Intel Innovation Event in zwei Wochen ...

https://www.intel.com/content/www/us/en/events/on-event-series.html

... sollte ADLs Hybrid-Architektur eingehend vorgestellt werden und bereits im November wird ADL in den Markt entlassen. Ergo, die RTM-CPUs sollten bereits massig zum Testen und Leaken zur Verfügung stehen.

Es gibt ja schon unzählige Leaks. Das Problem daran:
.) Benchmarks die gut vergleichbar sind z.B. AotS, 3DMark etc. haben ein für Spiele untypisches Verhalten, dass sie mehr als 8 Threads nutzen, weshalb diese nicht unbedingt repräsentativ sind d.h. die Vorteile gegenüber einem 11900K sind größer, gebenüber einem 5900X oder ähnlichem kann man es nicht sagen.
.) Benchmarks von realen Spielen (die es ja auch schon gibt) haben das Problem, dass sie ohne ein Vergleichssystemen mit derselben GPU bzw. denselben Einstellungen nicht aussagekräftig sind und man nicht weiß wie sehr hier die GPU limitiert hat (z.B. bei dem einen Forza Horizon 4 Benchmark wo der 12900K unter 1080p mit einer RX6600 ca. 2-3% vor einem 5950X war).

Das kann realistisch gesehen nur ein vollständiges Review klären.

Naja, zum einen bekommt man mit den ADL Hybrid-CPUs Win11 auf den Spielerechner genötigt, das selbst noch mit seiner (Spiele-)Reife zu kämpfen hat und noch weitere unliebsame Zwänge mitbringen möchte.

Win11 ist ist tot und die unliebsamen Zwänge betreffen nur bestehende Win10 Geräte, Home Versionen und Aluhutträger.

Zum anderen deutet der ADL Entwickler-Leitfaden ...

https://www.intel.com/content/www/us/en/developer/articles/guide/alder-lake-developer-guide.html

... auch eine notwendige Unterstützung des Win11 Scheduler durch die Spiele-Entwickler an. Der Thread Director ist nicht hinreichend für die optimale Untersützung der Hybrid-Architektur. Mit anderen Worten, ADL-Hybrid dürfte nicht auf allen Spielen in 2021/2022 rund laufen. Sowas dürfte Enthusiasten frustieren.

Ich denke das hast du falsch verstanden. Der Thread Director und Win11 schaffen es in der Regel ein vernünftiges Scheduling auf die Reihe zu bringen.
Die Optimierungsmöglichkeiten beziehen sich auf einige Sonderfälle, wo man wenn man will noch etwas manuell nachhelfen kann. Das ist aber rein optional.

Beispiel:
Der Audiothread eines Spiels hat in er Regel hohe Prioriät, damit dieser auch garantiert sofort arbeiten kann, wenn er es will. Ansonsten gibt es unschöne Hacker im Ton. Dieser würde also auf Grund der Priorität auf einen Big Core gelegt werden.
In der Praxis braucht dieser jedoch wenig Leistung und kann deshalb auch auf einem Little Core ausgeführt werden solange er dort volle Priorität hat. wird das nicht gemacht, so stürzt die Welt aber auch nicht ein.

Zitat aus "Performance Optimizations": "Analysis of games on hybrid architectures has shown the majority of games perform well, with older, or less demanding, games favoring the Performance cores. Games that were already built to heavily utilize multithreading, and that can scale to double-digit core counts, were found to benefit from hybrid architecture due to better throughput. However, there are inevitable performance inversions, attributed to either poor multithreading game architectures, poor OS scheduling, or increased threading overhead. Such issues were addressed by introducing optimizations using the Intel Thread Director technology, an OS scheduler (in collaboration with Microsoft), and their respective threading libraries. Make sure you keep your development environment current, with the operating system, tools, and libraries all updated regularly, to achieve the best performance on Alder Lake and other hybrid architectures."

Spiele, die besser parallelisiert sind skalieren mit mehr Kernen. Das trifft aber nicht nur auf ADL zu, sondern generell auf alle CPUs, die mehr Kerne haben. Ein 5950X wird durch bessere Parallelisierung genauso profitieren, wenn nicht sogar noch stärker.

Der Spiele-Code muss die optimierten (threading) Libs für Win11 für eine grundsätzliche Unterstützung des OS-Scheduler bzw. Thread Directors verwenden. Darüber hinaus wird in vielen Fällen erneutes Übersetzten mit passenden Flags häufig für eine gute Optimierung nicht ausreichend sein. Für einen heterogenen Multi-Core Prozessor war das auch zu erwarten, selbst wenn sich die P/E Cores nur in ihrer Leistungsfähigkeit und nicht noch zusätzlich im Befehlssatz unterscheiden.

Nicht MUSS sondern KANN. Dies ist einfach eine weitere Tuningmöglichkeit.

Die einzige Änderung, die ich als wirklich verbindlich ansehen würde ist, dass die Anzahl physischer Kerne nicht mehr dadurch bestimmt werden kann, dass man bei gesetztem SMT Flag die Anzahl der logischen Kerne durch 2 dividiert. Wird das falsch gemacht, so wird das Spiel z.B. bei einem 12600K nur 8 statt 10 Threads nutzen. Das ist aber immer noch besser als bei einem 11600K oder 5600X.

Zudem deutet sich bereits an, DDR5 nach JEDEC wird optimiertem DDR4 unterlegen sein und PCIe 5 wird das Blatt auch nicht wenden können. Nach bisherigem Kenntnisstand bietet sich einzig der 12400 mit DDR4 als allg. runde ADL Alternative für den Zocker mit Win10 an, aber der lässt sich leider nicht auf 5+ GHz jagen und ist schon alleine deshalb kein Produkt für Enthusiasten.

Afaik unterstützen alle ADL CPUs sowohl DDR4 als auch DDR5. Man muss sich nur wahrscheinlich beim Board für eines der beiden entscheiden. Falls sich herausstellt, dass DDR5 derzeit noch schlechter (bzw. zu teuer) ist, dann holt man sich eben ein DDR4 Board und setzt falls vorhanden den bestehenden DDR4 weiterhin ein.

Das liegt nicht am DDR5 sondern daran, dass der IMC von Alderlake bei DDR5 mit halbem (respektive viertel) Takt läuft (gear 2/4). Mit DDR4 allerdings mit vollem Takt (gear 1). Sowas gab es bisher noch nicht.
IMC Takt ist ein wesentlicher Teil der Gesamtlatenz zum RAM.

Das mag ein Teil des Problems sein.

Das Hauptproblem ist jedoch, dass die DDR5 Timings derzeit noch sehr bescheiden sind.
Die schnellsten DDR4 Timings liegen derzeit bei 7ns, 10ns (entspricht CL16 bei DDR4-3200) würde ich als Standard einstufen auch wenn es laut JEDEC fast 14ns sind.
Bei DDR5 ist Standard RAM derzeit bei knapp 17ns (DDR5-4800 CL40) und der schnellste RAM, den ich bisher gesehen habe ist um die 12-13ns.

Ob bzw. wie sich das bei Spielen auswirkt wird man sehen. Die Latenz (wenn 1-2 Threads gleichzeitig auf den RAM zugreifen) wird sicher deutlich höher sein. Der Durchsatz (wenn 4+ Threads gleichzeitig auf den RAM zugreifen) wird jedoch selbst bei höherer Latenz deutlich besser aussehen, da DDR5 2 statt 1 Speicherkanel pro Riegel hat (entspricht 4 Kanälen bei Dual Channel).

Linmoum
2021-10-17, 17:40:10
Benchmarks von realen Spielen (die es ja auch schon gibt) haben das Problem, dass sie ohne ein Vergleichssystemen mit derselben GPU bzw. denselben Einstellungen nicht aussagekräftig sind und man nicht weiß wie sehr hier die GPU limitiert hat (z.B. bei dem einen Forza Horizon 4 Benchmark wo der 12900K unter 1080p mit einer RX6600 ca. 2-3% vor einem 5950X war).Die GPU ist in diesen Fällen Latte, dafür gibt es ja extra separate CPU Scores. Time Spy unterteilt genauso in Graphics Score und CPU Score, da hast du bei letzterem auch nicht plötzlich ein paar Tausend Punkte weniger weil eine andere GPU im Rechner steckt. Warum auch? Hat ja keinen Einfluss darauf.

Dass bisher immer wieder Benchmark-Resultate auftauchen, diese aber nahezu immer keine Spiele sind, kann man schon als leichten Fingerzeig deuten. Und das, was man dann in Spielen sieht (oder von Leuten wie Greymon angedeutet wird) ist nicht unbedingt verheißungsvoll.

Erweckt alles bisher den Eindruck, als würde man in der Hinsicht RKL 2.0 bekommen. (Viele, aber nicht alle?) Anwendungen wie man es erwarten würde, dafür wieder mit Problemen in Spielen.

robbitop
2021-10-17, 18:56:21
Im Grunde läuft der Controller bei DDR4 und 5 gleich schnell bei entsprechenden Taktraten. Es war aber vorher schon klar, dass der neue Speichertyp genau 0 Einfluss auf Games haben wird, da dort allein die Latenz zählt. Es mag sehr wenige Anwendungen geben, bei denen DDR5 einen Effekt hat.

Um den gleichen Takt zu erreichen, muss es doppelt so hoch gespecter RAM sein. Um DDR4-4000 in Bezug auf IMC Clock zu matchen bräuchte es DDR5-8000. Das war bis dato noch nie so. Bei DDR4-3200 taktete der IMC tatsächlich doppelt so hoch wie DDR3-1600.

Zossel
2021-10-17, 19:06:42
Der Spiele-Code muss die optimierten (threading) Libs für Win11 für eine grundsätzliche Unterstützung des OS-Scheduler bzw. Thread Directors verwenden. Darüber hinaus wird in vielen Fällen erneutes Übersetzten mit passenden Flags häufig für eine gute Optimierung nicht ausreichend sein. Für einen heterogenen Multi-Core Prozessor war das auch zu erwarten, selbst wenn sich die P/E Cores nur in ihrer Leistungsfähigkeit und nicht noch zusätzlich im Befehlssatz unterscheiden.

Klingt nicht unbedingt nach einem Erfolgsmodell, wenn man sich die Trägheit anschaut mit denen bisher neue Befehlssätze, neue 3D Schnittellen, Multicore-CPUs unterstützt wurden, bei bei gleichzeitig fragwürdigen Aufwand zu Nutzen Verhältnis.

WedgeAntilles
2021-10-17, 19:49:52
Die GPU ist in diesen Fällen Latte, dafür gibt es ja extra separate CPU Scores. Time Spy unterteilt genauso in Graphics Score und CPU Score, da hast du bei letzterem auch nicht plötzlich ein paar Tausend Punkte weniger weil eine andere GPU im Rechner steckt. Warum auch? Hat ja keinen Einfluss darauf.

Dass bisher immer wieder Benchmark-Resultate auftauchen, diese aber nahezu immer keine Spiele sind, kann man schon als leichten Fingerzeig deuten. Und das, was man dann in Spielen sieht (oder von Leuten wie Greymon angedeutet wird) ist nicht unbedingt verheißungsvoll.

Erweckt alles bisher den Eindruck, als würde man in der Hinsicht RKL 2.0 bekommen. (Viele, aber nicht alle?) Anwendungen wie man es erwarten würde, dafür wieder mit Problemen in Spielen.
Nur das es bei RL eben Spielebenchmarks gab.
Nach eurer Logik verhindert Intel mit seinen Sith-Kräften ein Leaken von Gaming-Benches.
Aber halt aus unerfindlichen Gründen nur bei AL. Waren sie bei RL noch Padawan und nicht mächtig genug?
Ja, sehr glaubwürdiges Szenario.

Der von dir genannte TimeSpy IST übrigens ca. 25% schneller als RL.
Was genau hast du denn für einen Performanceschub erwartet? 50%?
Wäre AL 25% schneller in Games als RL wäre das doch gut?

Da es bei RL Spielebenchmarks vorab gab (die schwach waren), sagt das fehlen von Spielebenchmarks für AL exakt 0 aus.
Das bedeutet weder, dass AL gute Spielebenchmarks bringen wird, noch das es schlecht werden.

iamthebear
2021-10-17, 21:13:06
Die GPU ist in diesen Fällen Latte, dafür gibt es ja extra separate CPU Scores. Time Spy unterteilt genauso in Graphics Score und CPU Score, da hast du bei letzterem auch nicht plötzlich ein paar Tausend Punkte weniger weil eine andere GPU im Rechner steckt. Warum auch? Hat ja keinen Einfluss darauf.

Ja deswegen haben wir auch vergleichbare 3DMark Ergebnisse und diese sind deutlich über Rocket Lake (sogar sehr deutlich da die Little Cores auch benutzt werden). Das ist aber eben nicht repräsentativ.

Von den repräsentativen Spielen ist wiederrum nichts vergleichbar, da es eben dort kein CPU Rating gibt.

Dass bisher immer wieder Benchmark-Resultate auftauchen, diese aber nahezu immer keine Spiele sind, kann man schon als leichten Fingerzeig deuten. Und das, was man dann in Spielen sieht (oder von Leuten wie Greymon angedeutet wird) ist nicht unbedingt verheißungsvoll.

Du glaubst doch nicht ehrlich, dass Intel selbst alle diese Benchmarks Leaked? Jeder der will hat bereits ein ADL Qualification Sample. Die gibt es schon seit 2-3 Monaten unter der Hand gebraucht zu kaufen d.h. jeder Boardhersteller kann leaken was er will. Es macht nur keiner weil es ja nichts bringt zu zu sagen "ich habe 123 fps in Cyberpunk" wenn niemand weiß mit welcher GPU, welchen Settings, welches Savegame usw. Einen vergleichbaren Cinebench Score hat man in 5 Minuten. Deshalb sind diese Benchmarks auch so beliebt, nicht weil sie so repräsentativ für die Alltagslast sind.

Klingt nicht unbedingt nach einem Erfolgsmodell, wenn man sich die Trägheit anschaut mit denen bisher neue Befehlssätze, neue 3D Schnittellen, Multicore-CPUs unterstützt wurden, bei bei gleichzeitig fragwürdigen Aufwand zu Nutzen Verhältnis.

Bei Spielen wird wesentlich mehr Arbeit in die Optimierung gesteckt als bei 99.9% aller anderen Applikationen. Es ist nur einfach schwieriger da es ein nur teilweise parallelisierbarer sehr komplexer gemischter Workload ist.

Software Optimization Guides sind auch nichts Neues. Die hat es vor 20 Jahren von AMD schon gegeben wo man den Entwicklern Tipps gibt was besser läuft und was nicht. Irgendwo müssen die optionalen Schnittstellen ja auch dokumentiert sein.
Das heißt jetzt nicht, dass bestehender Code schlechter läuft.

Nur weil es ein paar Tuningmöglichkeiten gibt heißt das nicht, dass es sonst nicht vernünftig läuft. 99% der Desktopapplikationen werden nie für Big/Little optimiert werden. Da ist es Aufgabe des Thread Director und Windows Schedulers das Beste daraus zu machen so wie es schon immer war.

iamthebear
2021-10-17, 21:22:56
Statt wie gut ein Game auf Alder Lake läuft könnte die Frage am Ende ehr sein ob ein Game überhaupt läuft:

Gerücht: Neue Intel-Prozessoren funktionieren vielleicht nicht mit älteren Spielen (https://www.gamestar.de/artikel/geruecht-intel-alder-lake-drm-probleme,3374383.html)


Hoffen wir mal dass das wirtlich nur Gerüchte sind.

Ich denke das bezieht sich ausschließlich auf Denuvo. Dieser generiert zur Laufzeit absichtlich Code ein, der nur auf der jeweiligen CPU Architektur läuft. Die Idee dahintert wundern ist, dass wenn man Teile des entschlüsselten Programmcodes aus dem RAM abgreift, dieser nur auf der eigenen Hardware lauffähig ist und man so schwieriger einen allgemein lauffähigen Code erzeugen kann. Deswegen läuft der Denuvo verunstaltete Code ja auch manchmal so bescheiden.

Dass hier neue Hardware spießen kann würde mich nich wundern allerdings wird Denuvo ja meistens nach einiger Zeit wieder entfernt. Abgesehen davon: Denuvo gibt es seit 2014. Ich denke der Großteil der Spiele wird hier noch Updates bekommen.
Ob gecrackte Denuvo Spiele noch laufen werden? Tja das wird man sehen müssen aber ixh denke ja, da Cracks ja bisher auch immer hardwareneutral gestaltet wurden.

HOT
2021-10-18, 00:59:03
Nur das es bei RL eben Spielebenchmarks gab.
Nach eurer Logik verhindert Intel mit seinen Sith-Kräften ein Leaken von Gaming-Benches.
Aber halt aus unerfindlichen Gründen nur bei AL. Waren sie bei RL noch Padawan und nicht mächtig genug?
Ja, sehr glaubwürdiges Szenario.

Der von dir genannte TimeSpy IST übrigens ca. 25% schneller als RL.
Was genau hast du denn für einen Performanceschub erwartet? 50%?
Wäre AL 25% schneller in Games als RL wäre das doch gut?

Da es bei RL Spielebenchmarks vorab gab (die schwach waren), sagt das fehlen von Spielebenchmarks für AL exakt 0 aus.
Das bedeutet weder, dass AL gute Spielebenchmarks bringen wird, noch das es schlecht werden.

Leaker leaken das was klicks bringt. Maue Spieleleistung bringt keine. Da brauchst keine Sith Kräfte für das passiert ganz von allein. Und vor RKL gab's ebenfalls kaum Spieleleaks. Auch da gab's unbestimmte SotTR Leaks vorab IIRC.

OgrEGT
2021-10-18, 07:12:01
Afaik unterstützen alle ADL CPUs sowohl DDR4 als auch DDR5. Man muss sich nur wahrscheinlich beim Board für eines der beiden entscheiden. Falls sich herausstellt, dass DDR5 derzeit noch schlechter (bzw. zu teuer) ist, dann holt man sich eben ein DDR4 Board und setzt falls vorhanden den bestehenden DDR4 weiterhin ein.


Dann ist man wieder bei der üblichen Intel Manier mit jeder neuen CPU eine neue Plattform kaufen zu müssen... in jedem Fall wenn man jetzt ein ADL-DDR4 Board teuer kauft... Ob RTL noch DDR4 unterstützt ist fraglich... könnte mir gut vorstellen dass der DDR5 Controller von RTL dann wieder irgendeine Neuerung hat die dann selbst mit ADL-DDR5 Boards wieder nicht funktioniert... Reine Speku auf Basis langjähriger Erfahrung mit Intel...

Der_Korken
2021-10-18, 08:19:38
Dann ist man wieder bei der üblichen Intel Manier mit jeder neuen CPU eine neue Plattform kaufen zu müssen... in jedem Fall wenn man jetzt ein ADL-DDR4 Board teuer kauft... Ob RTL noch DDR4 unterstützt ist fraglich... könnte mir gut vorstellen dass der DDR5 Controller von RTL dann wieder irgendeine Neuerung hat die dann selbst mit ADL-DDR5 Boards wieder nicht funktioniert... Reine Speku auf Basis langjähriger Erfahrung mit Intel...

Ich glaube eher, dass Intel hier AMDs Langlebigkeit der Sockel respektiert und so eine Nummer nicht abziehen wird. Allerdings ist der Hinweis auf möglicherweise fehlenden DDR4-Support bei Raptor Lake berechtigt: Wer sich jetzt ein S.1700-Board mit DDR4 kauft, weil DDR5 teurer ist, aber nichts bringt, der verbaut sich die Aufrüstoptionen, wenn DDR4 nur übergangsweise von Alder Lake supportet wird. Klingt ein wenig nach einem suboptimalen Zeitpunkt zum Aufrüsten, wenn man entweder den zu Anfang langsamen DDR5 nehmen muss oder in EOL DDR4 investiert und sich für ein CPU-Upgrade auf jeden Fall auch ein neues Board und neuen RAM einpacken muss.

WedgeAntilles
2021-10-18, 09:22:42
. Und vor RKL gab's ebenfalls kaum Spieleleaks. Auch da gab's ünbestimmte SotTR Leaks vorab IIRC.
Sicher? Das habe ich anders im Kopf - die maue RL Leistung war doch keine Überraschung sondern vorher schon bekannt.
Beschwören will ich das jetzt aber nicht.


Ich glaube eher, dass Intel hier AMDs Langlebigkeit der Sockel respektiert und so eine Nummer nicht abziehen wird. Allerdings ist der Hinweis auf möglicherweise fehlenden DDR4-Support bei Raptor Lake berechtigt: Wer sich jetzt ein S.1700-Board mit DDR4 kauft, weil DDR5 teurer ist, aber nichts bringt, der verbaut sich die Aufrüstoptionen, wenn DDR4 nur übergangsweise von Alder Lake supportet wird. Klingt ein wenig nach einem suboptimalen Zeitpunkt zum Aufrüsten, wenn man entweder den zu Anfang langsamen DDR5 nehmen muss oder in EOL DDR4 investiert und sich für ein CPU-Upgrade auf jeden Fall auch ein neues Board und neuen RAM einpacken muss.
Die Frage ist eben, wie oft man sich eine neue CPU kauft. Eine CPU reicht doch locker 4,5 Jahre für die riesige Mehrheit.
Wer braucht wirklich ein Upgarde von Zen 2 auf Zen 3 auf Zen 4 auf Zen 5?
Oder von RocketLake auf AlderLake auf RaptorLake auf MeteorLake.

Dennoch bin ich bei dir, der ideale Zeitpunkt zum Aufrüsten wird IMO RaptorLake. Da ist Win11 ausgereifter, DDR5 ausgereifter und mit hoher Wahrscheinlichkeit auch noch günstiger.
Und zu diesem Zeitpunkt kommen die neuen GraKa Generationen heraus.

Der_Korken
2021-10-18, 09:32:23
Die Frage ist eben, wie oft man sich eine neue CPU kauft. Eine CPU reicht doch locker 4,5 Jahre für die riesige Mehrheit.
Wer braucht wirklich ein Upgarde von Zen 2 auf Zen 3 auf Zen 4 auf Zen 5?
Oder von RocketLake auf AlderLake auf RaptorLake auf MeteorLake.

Also ich habe von Zen+ auf Zen 3 aufgerüstet, inkl. mehr Kerne. PCIe 4.0 habe ich natürlich nicht, aber dafür habe ich außer der CPU nichts tauschen müssen. Aber gut, so krasse Sprünge innerhalb eines Sockels sind eher unüblich. Um 50% mehr ST auf Alder Lake draufzulegen (so wie Zen 3 auf Zen+), braucht man Minimum eine Gen nach Raptor Lake, vielleicht eher zwei. Bis dahin ist tatsächlich fraglich, ob man den Unterbau überhaupt behalten will.

MiamiNice
2021-10-18, 10:17:43
Wenn man das hier liest, muss ich mit den Augen rollen. Für Intel User ist es ganz normal mit jeder neuen CPU, außer man rüstet innerhalb einer Gen auf, ein neues Board zu kaufen. Stören tun sich daran nur AMD User. Vorgeschobenes Argument, nenne ich so etwas. Ne Intel CPU tauscht man alle 3-5 Jahre - man will die neuen Plattform Features mitnehmen. Was AMD da betreibt ist blödsinnig und zielt darauf die „Geiz ist geil“ Fraltion abzugreifen ungeachtet der anderen Probleme die es mit sich bringt (zu wenig Power aufm Board für neue CPUs, Bios zu klein usw. usf.).
Pfui.
Ich habe da einen Tip für die Fraktion -> Konsole kaufen. Da ist auch der Verbrauch nicht so hoch.

HOT
2021-10-18, 10:20:03
Du laberst nen Kohl, das ist echt drollig ;D

Das ganze Thema ist aber für die Tonne. Es ist wie es ist, Intel hat seinen Regelzyklus von 2 Gen pro Plattform und AMD ist da eben etwas unschärfer, das ist eigentlich alles, was es dazu zu sagen gibt. Das hat eben beides Vor- wie Nachteile. Intel kann in einer Plattformgen halt 2 Speichertypen anbinden, dafür schleppt man das bis RTL mit durch und kann das erst mit MTL wieder ändern (wie man eben viel mehr pro Gen ändern kann). AM4 ist im Wesentlichden AM4 aus 2016, hat eben zwischendurch PCIe4 und USB3.2 noch mitbekommen. Blöd ist halt hier, dass man irgendwo einen Cut ziehen muss, da die Supportzeiträume sonst einfach schlichtweg zu lang und unwirtschaftlich werden.

Sicher? Das habe ich anders im Kopf - die maue RL Leistung war doch keine Überraschung sondern vorher schon bekannt.
Beschwören will ich das jetzt aber nicht.


ADL ist einfach schwerer einzuschätzen als es RKL war.

=Floi=
2021-10-18, 10:21:54
ja, es ist doch dem user zu überlassen, was er macht/will und der schmu mit der besseren spannungsversorgung ist oft auch nur vorgeschoben.

dildo4u
2021-10-18, 10:22:10
Wenn man das hier liest, muss ich mit den Augen rollen. Für Intel User ist es ganz normal mit jeder neuen CPU, außer man rüstet innerhalb einer Gen auf, ein neues Board zu kaufen. Stören tun sich daran nur AMD User. Vorgeschobenes Argument, nenne ich so etwas. Ne Intel CPU tauscht man alle 3-5 Jahre - man will die neuen Plattform Features mitnehmen. Was AMD da betreibt ist blödsinnig und zielt darauf die „Geiz ist geil“ Fraltion abzugreifen ungeachtet der anderen Probleme die es mit sich bringt (zu wenig Power aufm Board für neue CPUs, Bios zu klein usw. usf.).
Pfui.
Ich habe da einen Tip für die Fraktion -> Konsole kaufen. Da ist auch der Verbrauch nicht so hoch.

Das macht Sinn wenn die neueren Modelle Plötzlich 100 Watt mehr ziehen wie es bei Intel der Fall war.
Zen 3 hat nix davon daher braucht es keine neuen Boards.Komplett sinnlos zusätzlichen Elektroschrott zu produzieren für nix.

=Floi=
2021-10-18, 10:25:43
Mobo, Ram und Kühler verursachen dann Kosten in höhe von 450-500€+

MiamiNice
2021-10-18, 10:32:39
Du laberst nen Kohl, das ist echt drollig ;D

Das ganze Thema ist aber für die Tonne.

Ich laber Kohl, aber das Thema ist für die Tonne :)
Schon klar, HOT.
Das Thema ist generell für die Tonne - nix anderes meinte ich damit.

=Floi=
2021-10-18, 10:35:40
Das thema müsste mal auf den tisch kommen und es müsste so viel druck aufgebaut werden, dass der ganze wegwerf mist sich mal ein wenig eindämmt.

matty2580
2021-10-18, 10:49:16
Dennoch bin ich bei dir, der ideale Zeitpunkt zum Aufrüsten wird IMO RaptorLake. Da ist Win11 ausgereifter, DDR5 ausgereifter und mit hoher Wahrscheinlichkeit auch noch günstiger.
Alder Lake und Raptor Lake werde ich definitiv auslassen.
Eher ist für mich selbst Meteor Lake interessant, da hier erstmals Intel 4 zum Einsatz kommt, was eine deutlich bessere Fertigung ist, ähnlich wie TSMCs N5.

Bis dahin ist das Angebot an DDR 5 RAM groß genug, und hoffentlich hat sich der GPU-Markt bis dahin abgekühlt.

Und bis 2023, also bis zum Release von Meteor Lake, ist ja nicht mehr so viel Zeit, gerade einmal 1 1/2 Jahre.

Exxtreme
2021-10-18, 10:50:43
Wenn man das hier liest, muss ich mit den Augen rollen. Für Intel User ist es ganz normal mit jeder neuen CPU, außer man rüstet innerhalb einer Gen auf, ein neues Board zu kaufen. Stören tun sich daran nur AMD User. Vorgeschobenes Argument, nenne ich so etwas. Ne Intel CPU tauscht man alle 3-5 Jahre - man will die neuen Plattform Features mitnehmen. Was AMD da betreibt ist blödsinnig und zielt darauf die „Geiz ist geil“ Fraltion abzugreifen ungeachtet der anderen Probleme die es mit sich bringt (zu wenig Power aufm Board für neue CPUs, Bios zu klein usw. usf.).
Pfui.
Ich habe da einen Tip für die Fraktion -> Konsole kaufen. Da ist auch der Verbrauch nicht so hoch.

Geiz ist geil-Fraktion? Nö. Man gibt halt nur so viel Geld aus wie man muss. Und das ist bei der AMD Fraktion halt viel weniger da man mit nicht alle Nase lang auch noch das MoBo tauschen muss. Zumal es Intel schlicht übertreibt. Ich weiss ja noch wo sie bei einem der ersten Celerons zwei Pins vertauscht haben damit der neue Celeron nicht in alten Celeron-Boards bootet. Es gab sogar käufliche Celeron-Adapter, die den Pin-Tausch wieder rückgängig machten. Waren halt viel billiger als ein neues Board. Das war ein komplett unnötig herbeigeführtes Kompatibilitätsproblem.

HOT
2021-10-18, 10:57:30
Ich laber Kohl, aber das Thema ist für die Tonne :)
Schon klar, HOT.
Das Thema ist generell für die Tonne - nix anderes meinte ich damit.
Es war klar deine "psychologische Analyse" gemeint.

w0mbat
2021-10-18, 11:08:09
Ne Intel CPU tauscht man alle 3-5 Jahre - man will die neuen Plattform Features mitnehmen.
Wäre ja wirklich ein Argument, wenn Intel nicht meistens einfach den alten Chipsatz umbenannt hätte. ADL bringt jetzt zum ersten Mal wirklich neue features, wobei PCIe gen5 für die GPU alleine nicht so geil ist, die CPU-M.2-Anbindung läuft auch bei ADL weiterhin mit gen4.

Lurtz
2021-10-18, 11:38:06
Ich denke das bezieht sich ausschließlich auf Denuvo. Dieser generiert zur Laufzeit absichtlich Code ein, der nur auf der jeweiligen CPU Architektur läuft. Die Idee dahintert wundern ist, dass wenn man Teile des entschlüsselten Programmcodes aus dem RAM abgreift, dieser nur auf der eigenen Hardware lauffähig ist und man so schwieriger einen allgemein lauffähigen Code erzeugen kann. Deswegen läuft der Denuvo verunstaltete Code ja auch manchmal so bescheiden.

Dass hier neue Hardware spießen kann würde mich nich wundern allerdings wird Denuvo ja meistens nach einiger Zeit wieder entfernt. Abgesehen davon: Denuvo gibt es seit 2014. Ich denke der Großteil der Spiele wird hier noch Updates bekommen.
Ob gecrackte Denuvo Spiele noch laufen werden? Tja das wird man sehen müssen aber ixh denke ja, da Cracks ja bisher auch immer hardwareneutral gestaltet wurden.
Das ist die Frage, ob es das wird. Gibt genug patchfaule PC-Publisher und wer Denuvo bis heute nicht entfernt hat, wird es bei einem älteren Titel wohl auch nicht mehr tun.

Zudem sind viele Titel durch weitere DRM-Mechanismen wie VM Protect geschützt.

"Alt" heißt in dem Fall ja schlimmstenfalls, dass das Spiel erst wenige Monate alt ist... Dann schaltet man die E-Kerne im Bios ab und hat totes Silizium oder es läuft schlichtweg nicht.

robbitop
2021-10-18, 12:17:57
Ich finde, dass Intelligenz im Umgang mit Geld nichts Negatives ist. Und das unabhängig davon, wie groß das Einkommen ist. Ich könnte mir jeden Monat vom überschüssigen Einkommen mehre 3090 kaufen (gemeint sind nicht bloß 2 oder 3…). Und dennoch bin ich zu „geizig“ selbst um mir eine einzige 3080 zu kaufen. Denn das Preis/Leistungsverhältnis passt nicht. Und dann wird aus Prinzip verzichtet. Dann wird überschüssiges Einkommen lieber nachhaltig investiert.
AMDs Strategie mit AM4 war absolut super gut und es war der Beweis, dass es unnötig ist, ständig eine neue Plattform zu bringen.

Ich kann bei solchen herablassenden Beiträgen gegen preisbewußtes Handeln nur lachen, denn Geld ohne Mehrwert aus dem Fenster schmeißen ist nicht intelligent. Das gilt für alle Einkommenskonstellationen. Vernünftig investiertes Geld mit Zinseszins baut über Jahrzehnte im Gegenzug das größere Vermögen auf.

Dazu (langhaltende Plattformen ala AM4) kommt, dass man auch unnötigen Elektroschrott vermeiden kann.

mksn7
2021-10-18, 12:56:45
Nur eine Vermutung aber das könnte auch bewusst so gewählt worden sein, damit SMT nicht genutzt wird und so sichergestellt werden kann, dass der frameratenlimitierende Hauptthread sich nicht einen 2. Thread auf demselben Core teilen muss.
Falls aber wirklich alle anderen 5 Threads auch wirklich durchgehend laufen ist fraglich, ob das wirklich so eine schlaue Lösung ist, da die anderen 5 Threads ja anscheinend auch limitieren.


Genau diese Überlegung hab ich bei einem kleinen Spiel das ich als Hobbyprojekt entwickle. Da hab ich eine recht aufwendige Simulation, die asynchron nebenher läuft, und einen Hauptthread, der game logic und rendering macht. Ich will dass der Hauptthread auf jeden Fall auf einem Kern alleine läuft. Die Simulation würde sehr gut auf viele threads skalieren (irgendwann limitiert die Speicherbandbreite), und auch hyper threads gut nutzen können. Auf einer 4c/8t CPU könnte die Simulation also mit 6T laufen. Weil ich aber keinen plattformunabhängigen Weg weiß um threads zu pinnen, lass ich die Simulation nur mit 8T / 2 -1 = 3T laufen, damit der Hauptthread auf jeden Fall alleine auf einem Kern läuft.

matty2580
2021-10-18, 13:56:21
Ich finde, dass Intelligenz im Umgang mit Geld nichts Negatives ist.
Und vor allem ist das für sehr viele Menschen notwendig.
Ich bekomme eine EU- Rente auf Hartz IV Niveau, und muss mir dass Geld sehr gut einteilen.

Mein PC ist schon seit 2 Jahren defekt, und es ist irrsinnig teuer den für mich wieder neu aufzubauen seit längerer Zeit. Selbst gebraucht, mit hohem eigenen Risiko über eBay, sind PC Komponenten sehr teuer geworden.

Deshalb habe ich mich für eine PS5 plus neuen TV entschieden, wo ich in den nächsten 2 Jahren auch jeden Monat 43€ für den TV abzahlen muss.

Und das betrifft ja nicht nur mich allein in Deutschland, wenn z.B jeder 3. Arbeitnehmer in Thüringen unter 10€ pro Stunde verdient. Und weltweit sieht das noch viel extremer aus. Da bin selbst ich "reich" gegenüber Milliarden anderer Menschen.

MiamiNice
2021-10-18, 14:00:24
Ich finde, dass Intelligenz im Umgang mit Geld nichts Negatives ist ...

Ich kann bei solchen herablassenden Beiträgen gegen preisbewußtes Handeln nur lachen, denn Geld ohne Mehrwert aus dem Fenster schmeißen ist nicht intelligent ...

Ich gebe Dir grundsätzlich recht, aber wir sind hier alle aus Hobbygründen. Hobby und finanzielle Intelligenz passen einfach nicht zusammen. Und wie Du so schön ausgeführt hast, PC Hardware, in Geld gemessen, sind Peanuts. Den der größere Teil hier im Forum, ist mehr als finanziell unabhängig.
Und aus diesem Grund sind diese Argumente maximal fadenscheinig, gerade hier im 3DC.

Dazu (langhaltende Plattformen ala AM4) kommt, dass man auch unnötigen Elektroschrott vermeiden kann.

Sagt jemand der z.b. die Produktvielfalt im Kaufhaus genießt? Ältere Hardware kann man an z.b. auch an Kinder, Schulen oder ärmere Mitmenschen verschenken. Gerade wenn man etwas besser konstituiert ist. Oder ist da der Geiz zu groß? Umweltaspekte als Argument in unserer Wegwerfgesellschaft finde ich ebenfalls fadenscheinig. Wenn ich da an Firmen wie z.b. Amazon denke, die Rücksendungen vernichten statt zu spenden oder anderweitig zu verwerten - können paar Mainboards nicht so schlimm sein.

Platos
2021-10-18, 14:08:19
Ich gebe Dir grundsätzlich recht, aber wir sind hier alle aus Hobbygründen. Hobby und finanzielle Intelligenz passen einfach nicht zusammen. Und wie Du so schön ausgeführt hast, PC Hardware, in Geld gemessen, sind Peanuts. Den der größere Teil hier im Forum, ist mehr als finanziell unabhängig.
Und aus diesem Grund sind diese Argumente maximal fadenscheinig, gerade hier im 3DC.

Du hast genau gar nichts aus seiner Antwort verstanden.

deLuxX`
2021-10-18, 14:13:23
Ich könnte mir jeden Monat vom überschüssigen Einkommen mehre 3090 kaufen (gemeint sind nicht bloß 2 oder 3…)
Mal nachrechnen: Nehmen wir an du könntest die monatlich 5 3090 kaufen vom Überschuss. Bei angenommenen 3.000 € p. Stück sind das 15.000 €.
Kann man das auch machen was du beruflich machst? 🙂

MiamiNice
2021-10-18, 14:21:26
Du hast genau gar nichts aus seiner Antwort verstanden.

Nein, ich werde nicht verstanden :) Dies ist ein PC Technik Forum für "Hobby HW Nerds", indem sich über Plattformpreise echauffiert wird. Das passt einfach nicht zusammen. Hobbys waren noch nie eine sinnvolle Investition. Ob es die E-Gitarre, Tuningteile oder sonst irgendwas ist. Auch die 20000€ Küche ist keine kluge Investition, trotzdem steht die hier wahrscheinlich bei jedem zweitem User im Eigenheim :wink:

Platos
2021-10-18, 14:35:36
Nein, ich werde nicht verstanden :)

Genau das ist es ;D Die ganze Welt um einen versteht einen nicht. Dann muss es an den anderen liegen :D

Und natürlich sind können Hobbys eine sinnvolle Investition sein. Aber nicht, wenn man für eine minimale Qualitätssteigerung des Hobbys 3x mehr ausgeben muss.

Exxtreme
2021-10-18, 14:38:10
Nein, ich werde nicht verstanden :) Dies ist ein PC Technik Forum für "Hobby HW Nerds", indem sich über Plattformpreise echauffiert wird. Das passt einfach nicht zusammen. Hobbys waren noch nie eine sinnvolle Investition. Ob es die E-Gitarre, Tuningteile oder sonst irgendwas ist. Auch die 20000€ Küche ist keine kluge Investition, trotzdem steht die hier wahrscheinlich bei jedem zweitem User im Eigenheim :wink:
Das mag ja richtig sein. Aber wie gesagt, IMHO übertreibt Intel hier massiv was die Sockelwechsel angeht. Bei AMD gibt es einen neuen Sockel wenn es technisch wirklich nötig ist. Bei Intel bekommst du oft einen umgelabelten alten Chipsatz mit einem "neuen" Sockel, der aber genauso ist wie der alte mit vertauschen Pins. Das ist so richtig rausgeworfenes Geld und da haben etliche Leute schlicht kein Verständnis dafür. Weil der umgelabelte Chipsatz nur Geld kostet aber keine Vorteile ggü. dem alten bringt. Und MoBo-Wechsel kosten auch noch unnötig Zeit. Und wenn man Pech hat dann hat das neue Mobo irgendeinen alten Slot nicht mehr und man kann ältere Geräte nicht mehr betreiben etc.

dildo4u
2021-10-18, 14:41:52
Laut dem gibt es keine Tests vor dem Verkaufsstart.
Wie erwartet wird nur Z690 mit i9,i7,i5K Modelle gelauncht.


https://wccftech.com/intel-officially-launches-12th-gen-alder-lake-unlocked-cpus-z690-platform-on-4th-november-unveiling-next-week/

WedgeAntilles
2021-10-18, 14:44:38
Ich kann bei solchen herablassenden Beiträgen gegen preisbewußtes Handeln nur lachen, denn Geld ohne Mehrwert aus dem Fenster schmeißen ist nicht intelligent. Das gilt für alle Einkommenskonstellationen. Vernünftig investiertes Geld mit Zinseszins baut über Jahrzehnte im Gegenzug das größere Vermögen auf.


Richtig!
Allerdings gilt auch:
Falls du es dir leisten kannst und aus sparsamkeitsgründen Spiele mit einer alten GraKa spielst und dann halt auf WQHD mit mittleren Details, statt auf 4K mit allem Max, incl. RT - was genau bringt dir das dann?
Dann hast du auf dem Konto 2k mehr - dafür verbringst du dein Hobby nicht so schön wie du könntest.

Falls man es sich leisten kann ist es vollkommen in Ordnung auch "überteuerte" Preise zu bezahlen und dafür das eigene Hobby so schön wie möglich ausüben zu können.
Deine Lebenszeit ist endlich, und ob dein Bankkonto jetzt 500k oder 498k aufweist ist für manche halt irrelevant.

Ein Verachten von Leuten, die kein Problem haben auch 2-3k für ne GraKa zu zahlen ist genauso falsch. Es kann vollkommen richtig und rational sein, genau das zu tun.
Es kommt ausschließlich auf das verfügbare Einkommen und die Präferenzen des Individuums an.


Elektroschrott: Eigentlich nur in der Theorie richtig - denn wer wirft denn eine 2 Jahre alte CPU + Mainboard weg? Das gibt man weiter und dann wird es dort verwendet.
Die meisten kennen doch jemanden, der nciht immer die modernste Hardware hat.
Oder man verkauft es, dann wird es ebenfalls weiter genutzt.
Als ob bei Intel jetzt tonnenweise 2 Jahre alte CPUs + Boards weggeworfen werden.
Wie gesagt, die meisten kaufen eh erst nach 5,6 Jahren was Neues.
Und der Rest verwertet die dann ja noch relativ aktuelle Hardware weiter.

Edit: Damit will ich nicht sagen, dass ich die vielen Mainboardwechsel super finde. Es ist aber unterm Strich nciht das Problem, zu dem es gemacht wird.

robbitop
2021-10-18, 14:51:10
Lies nochmal: ich verachte niemanden. Kann jeder machen wie er will. Ich finde den verächtlichen Ton albern von miamis posting.

Punkto Lebenszeit: Die meisten arbeiten bis mitte 60. Konsumiert man weniger und investiert gut (auch in sich selbst) kann man deutlich früher aufhören zu arbeiten. Hinten raus werden die Jahre gesundheitlich auch immer schlechter. Je jünger man nicht mehr seine Zeit mit arbeiten verbringen muss, desto mehr hat man vom Lleben. Ob ich jetzt 80 oder 100 fps habe… ;)

WedgeAntilles
2021-10-18, 15:02:36
Lies nochmal: ich verachte niemanden. Kann jeder machen wie er will. Ich finde den verächtlichen Ton albern von miamis posting.

Punkto Lebenszeit: Die meisten arbeiten bis mitte 60. Konsumiert man weniger und investiert gut (auch in sich selbst) kann man deutlich früher aufhören zu arbeiten. Hinten raus werden die Jahre gesundheitlich auch immer schlechter. Je jünger man nicht mehr seine Zeit mit arbeiten verbringen muss, desto mehr hat man vom Lleben. Ob ich jetzt 80 oder 100 fps habe… ;)

Ich bezog mich definitiv nicht auf dich, sorry, falls das falsch rüberkam. Aber hier im Forum liest man ja oft genug wie dämlich jemand sei, der 2k für ne GraKa ausgibt.

Und je älter ich werde desto weniger gut kann ich zocken, da darf man also nicht zu lange die Investition rausschieben :D

(Ich selber habe ne 970 - meine Ansprüche sind nicht so hoch.)

BlacKi
2021-10-18, 15:12:47
Das thema müsste mal auf den tisch kommen und es müsste so viel druck aufgebaut werden, dass der ganze wegwerf mist sich mal ein wenig eindämmt.das ist kompletter schwachsinn. ein MB geht vor der cpu kaputt und zum betreiben einer cpu brauchst du ein MB.


theoretisch müsste es also zu jeder cpu mindestens 1 mainboard produziert und gekauft werden. wenn die user aber nur die cpus wechseln entsteht ein ungleichgewicht am markt und die cpus fallen massiv im preis, falls keine mainboards mehr produziert werden, und falls noch welche produziert werden, dann muss eben jemand anders ein 2. mainboard kaufen wenn du es ihm nicht mitverkaufst.


eure logik macht keinen sinn. es wird kein mainboard eingespart.

am schlimmsten ist es allerdings die cpus in den schrank zu stellen, so muss eine neue cpu produziert werden, weil jemand anders deine cpu nicht kaufen kann.

aufkrawall
2021-10-18, 15:34:50
Bezweifle arg, dass für die Wafer-Outputs der winzige Gebrauchtmarkt eine nennenswerte Rolle spielt. Ich weiß auch nicht, in welcher Welt Mainboards ständig kaputt gehen würden...

Ex3cut3r
2021-10-18, 15:57:02
KA, warum Miami mal wieder mit Geiz und AMD mit einem Satz vereint. Der 5600X kostet aktuell fast 300€ beschissene Kröten, das ist teuer als jeder 6/12 von Intel. :ulol:

Ist halt sein typisches AMD Bashing bzw. Trollen, KA...warum immer wieder alle drauf reinfallen.

MiamiNice
2021-10-18, 16:00:27
Lies nochmal: ich verachte niemanden. Kann jeder machen wie er will. Ich finde den verächtlichen Ton albern von miamis posting.

Punkto Lebenszeit: Die meisten arbeiten bis mitte 60. Konsumiert man weniger und investiert gut (auch in sich selbst) kann man deutlich früher aufhören zu arbeiten. Hinten raus werden die Jahre gesundheitlich auch immer schlechter. Je jünger man nicht mehr seine Zeit mit arbeiten verbringen muss, desto mehr hat man vom Lleben. Ob ich jetzt 80 oder 100 fps habe… ;)

Ich bin 41 und müsste, streng genommen, schon heute nicht mehr arbeiten gehen :freak:
Mich interessieren Plattformpreise (AMD vs. Intel, die hier eh nur als Argument einer Seite benutzt werden um einen Hersteller zu denunzieren) und Sockelproblematiken nicht und in diesem Thread dürfte dies sogar Spam sein. Das ich da verächtlich reagiere tut mir auch nicht wirklich leid, es gehört hier, imo, nicht her. Es wird gekauft was Spaß macht, so wie es bei einem Hobby nun mal gang und gäbe ist.

basix
2021-10-18, 16:07:48
Preise und Sockelproblematik = Spam. Weil es Miami nicht interessiert. OK. Dann handhaben wir das so...

Lehdro
2021-10-18, 16:16:20
Mich interessieren (...) Sockelproblematiken nicht und in diesem Thread dürfte dies sogar Spam sein. Das ich da verächtlich reagiere tut mir auch nicht wirklich leid, es gehört hier, imo, nicht her.
Ist es eben nicht, wenn das Gerücht das Raptor kein DDR4 mehr unterstützt wahr sein sollte. Dann fallen die ADL Boards mit DDR4 in die Kategorie: Nicht kaufen wenn man später aufrüsten will. Soll ja Leute geben die heute einen i5 kaufen würden und nach ein paar Jahren gebraucht die größeren Varianten der zweiten Gen die diesen Sockel unterstützen reinstecken und dann das System bis zum Ende reiten. Für die ist die Sockelpolitik durchaus relevant, wie auch für alle anderen die z.B. immer das Neuste haben wollen, aber halt nicht zwangsweise das Board wechseln wollen. Klingt für dich vielleicht absurd, dieses CPU aufrüsten ohne neues Board, aber solls ja geben.

robbitop
2021-10-18, 17:03:28
Mit ist seit 15 Jahren auch kein Board mehr von einer CPU kaputtgegangen. :)

Distroia
2021-10-18, 17:20:02
Bei Miami geht es doch nur oberflächlich um Hardware. Wenn man seine Beitrage - auch zu anderen Themen - sieht, erkennt man fast immer diese "Guckt mal, was ich mir alles keisten kann!"- oder "Eure Armut kotzt mich an"-Mentalität. Alles dreht sich bei ihm irgendwie um Geld (und zwar viel Geld!). Hobbys sind gar keine richtigen Hobbys, wenn sie nicht viel Geld kosten. "Schaut mal her, ich gebe das doppelte für 5% Mehrleistung aus, weil ich es eben hab!" Fast kein Beitrag von ihm, der sich nicht irgendwie um Geld dreht. AMDs galt mal als arme-Leute-Cpus und seitdem ist er eben Intel-Fan. Diese ganzen Preisdiskussionen, die er immer wieder losstritt, dienen ihm vor allem dazu, anderen zu zeigen wie reich er ist.

Wenn man man seinem Reichtum angeben will, kauft man sich normalerweise z.B. einen Sportwagen oder teure Klamotten. Kann auch nicht so richtig nachvollziehen, warum er so etwas ausgerechnet in einem Hardwareforum machen muss, wo man sich nichtmal persönlich kennt.

r3ptil3
2021-10-18, 19:33:27
Wo sind denn die ganzen Bilder?

Von mir aus könnten die Leute hier viel mehr zeigen was sie haben (Rechner, Gamingbereich, Austattung etc.).
Schaue mir sowas gerne an.


Die Thematik RAM verunsichert mich mittlerweile immer mehr bei Alder Laker. Wie die Leaks offenbaren, sind die Top Boards DDR5 exklusive, aber was will man mit einem 600 Euro Superduper Board ohne richtigen RAM?

iamthebear
2021-10-18, 19:38:43
Also ich verstehe das Drama um die regelmäßigen Sockelwechsel nicht wirklich.

Ich würde mal schätzen, dass mindestens 90% der verkauften Desktop CPUs bei Intel in OEM PCs wandern, wo sowieso mit jeder CPU Board/RAM usw. dabei sind egal welcher Sockel.
Von den verbleibenden 10% würde ich einmal grob schätzen, dass vielleicht maximal 5% der Käufer in den nächsten 3 Jahren schon wieder eine neue CPU kaufen.
Wenn man sich jetzt einen 12900K kauft warum braucht man dann bei Raptor Lake schon wieder eine neue CPU? Der 12900K wird für die nächsten 5 Jahre mehr als genug sein zum Gamen.

Wir reden also um maximal 1% der Leute die wirklich ständig ihre CPU wechseln weil sie immer die schnellste und beste haben müssen. Sorry aber dann muss man eben auch das Geld dafür haben.

In der Praxis kommt mit jeder neuen CPU Generation sowieso auch eine neue Chipsatzgeneration. Wen interessiert es also noch, ob die Boards mit den alten Chipsätzen noch theoretisch mit den neuen CPUs laufen würden.
Wenn es technisch ohne Probleme möglich ist beim selben Sockel zu bleiben wieso nicht aber auf Zwang eine neue CPU Generation auf einen veralteten Sockel hinzubiegen macht echt keinen Sinn.

Zossel
2021-10-18, 19:50:38
In der Praxis kommt mit jeder neuen CPU Generation sowieso auch eine neue Chipsatzgeneration.

Nur spielen "Chipsätze" keine so große Rolle wie früher mal.
Von mir aus könnten die vendor spezifischen Chipsätze komplett verschwinden und durch I/Os Chips die an PCIe/LPC andocken ersetzt werden.

maguumo
2021-10-18, 19:54:40
In der Praxis kommt mit jeder neuen CPU Generation sowieso auch eine neue Chipsatzgeneration. Wen interessiert es also noch, ob die Boards mit den alten Chipsätzen noch theoretisch mit den neuen CPUs laufen würden.
Wenn es technisch ohne Probleme möglich ist beim selben Sockel zu bleiben wieso nicht aber auf Zwang eine neue CPU Generation auf einen veralteten Sockel hinzubiegen macht echt keinen Sinn.
Was bringt dir denn ein neuer Chipsatz heute noch, ein bisschen mehr I/O Kram den eh fast keiner braucht? Abgesehen davon kann man auch bei identischem Sockel neue Chipsätze rausbringen. Wenn man ein (High End) Board über mehrere CPU Generationen verwenden kann ist das schon ein ziemlich großer Vorteil.

robbitop
2021-10-18, 20:01:54
AM4 hat es doch bewiesen und AMD hat viel gute Presse dafür bekommen. Wenn es nicht relevant gewesen wäre, hätte man sich die Mühe kaum noch gemacht. Und wie schon gesagt wurde: Chipsätze sind ja lange nicht mehr von der Bedeutung her das was sie mal waren. Es gibt wenig Gründe warum man eine Plattform nicht auch für den doppelten Zeitraum auslegen kann.

HPVD
2021-10-18, 20:25:47
Währenddessen der Mitbewerber:

Der Apple M1 Pro und der M1 Max. Beide Chips bieten eine 70 Prozent schnellere Prozessorleistung als der Apple M1. Dazu setzt Apple auf eine Kombination aus acht Performance-Kernen und zwei Effizienz-Kernen, welche für eine bessere Akkulaufzeit sorgen sollen. Der Apple M1 Pro kommt mit bis zu 32 GB LPDDR5-Arbeitsspeicher bei einer Bandbreite von 200 GB/s, der M1 Max kann sogar mit bis zu 64 GB RAM mit einer beeindruckenden Bandbreite von 400 GB/s kombiniert werden.
https://www.notebookcheck.com/Das-neue-MacBook-Pro-kommt-mit-Apple-M1-Pro-M1-Max-21h-Laufzeit-und-120-Hz-Mini-LED-Display.573810.0.html

Notebook:
8+2 Kerne + LPDDR5 mit bis zu 400 GB/s Speicherbandbreite
70% schneller als M1

aufkrawall
2021-10-18, 20:26:59
Ist doch nur Apple, was wissen die schon. :freak:

Slipknot79
2021-10-18, 20:49:53
Lies nochmal: ich verachte niemanden. Kann jeder machen wie er will. Ich finde den verächtlichen Ton albern von miamis posting.

Punkto Lebenszeit: Die meisten arbeiten bis mitte 60. Konsumiert man weniger und investiert gut (auch in sich selbst) kann man deutlich früher aufhören zu arbeiten. Hinten raus werden die Jahre gesundheitlich auch immer schlechter. Je jünger man nicht mehr seine Zeit mit arbeiten verbringen muss, desto mehr hat man vom Lleben. Ob ich jetzt 80 oder 100 fps habe… ;)


froi, wenigens noch einer hier im Forum der auf das selbe Ziel hin Kohle vermehrt. (y) E high 5 how rain. :redface:
Aber auch ich überlege mir ob es Sinn macht 3k für ne 3090 auszugeben obwohl sich für den Wert meines Handelskontos so einige 3090 ausgingen.
Gleichzeitig denke ich mir aber auch: Jeder rausgeballerte EUR ist gleichzeitig ein EUR auf den ich den Zinseszins nicht mehr anwenden can, Verlust durch Konsum ist Verlust, für immer und ewig und uneinbringlich. Opportunitätskosten eben. :redface:


Gegen Intels Sockelwechsel hilft es sich Grenzen zu setzen, so wie ich das mache: Prozessorwechsel erst up 50% Leistungsplus in den interessanten Anwendungen, und für Gamer heißt das sowieso, dass bis dahin im GPU-Limit alle Mainstream- bis Dickschiff-CPUs so und so gleich sind.
Sowohl Intel als auch AMD können und werden am selben Sockel nicht +50% abliefern. Dann stellt sich die Frage nicht mehr nach Sockelwechsel, der steht dann eben so und so an, egal ob Intel oder AMD, eventuell gibts dann auch gleich ne neue DDR-Version und dann ist sowieso nen neues Mobo fällig.
Niemand muss sich wegen 10-20% Leistungsplus einreden den Prozessor und damit auch das Mobo zu wechseln weil Mobohersteller Kohlen sehen wollen. (y)
Oder eventuell anders kalkuliert: Pro DDR-Version eine neue CPU, das wars und muss langen. (y)

iamthebear
2021-10-18, 21:03:29
AM4 hat es doch bewiesen und AMD hat viel gute Presse dafür bekommen. Wenn es nicht relevant gewesen wäre, hätte man sich die Mühe kaum noch gemacht. Und wie schon gesagt wurde: Chipsätze sind ja lange nicht mehr von der Bedeutung her das was sie mal waren. Es gibt wenig Gründe warum man eine Plattform nicht auch für den doppelten Zeitraum auslegen kann.

Bei AMD ist das ja eine komplett andere Situation:
a) Man verkauft in erster Linie nicht über OEMs, sondern im DIY Markt. Erst dadurch wird die Frage der Kompatibilität überhaupt erst relevant.
b) Mit Zen1 war man ja noch ziemlich deutlich hinten nach (was man durch günstigere Preise kompensiert hat). Da war innerhalb von 2-3 Jahren ein deutlicher Leistungsschub absehbar. Ein 1800X Käufer aus 2018 hat 3 Jahre später mit dem 5800X eine legitime Upgrademöglichkeit, die 70% mehr Performance bietet.
Dies war mit Skylake ja nicht der Fall bzw. wird nun auch mit Alder Lake nicht der Fall sein. Bis man hier die Performance/Kern wiederum 70% erhöhen kann kann wird es weit mehr als 3 Jahre brauchen.

Trotzdem muss AMD hier auch mit den Nachteilen leben z.B. dass sie den 5950X bei 4GHz zwangsdrosseln müssen während Intel seinen Alder Lakes falls notwendig 300W geben kann, da die Spezifikation von ihrem Sockel nicht mehr hergibt. Nicht dass es sehr sinnvoll ist seine CPU mit 300W zu betreiben aber in Reviews wird großteils ohne Limit getestet und 90% der Käufer schauen nur auf diese Tabellen. Dass ihr Mainstreamboard und boxed Kühler das ja gar nicht packt weiß ja keiner.

BlacKi
2021-10-18, 21:09:43
Mit ist seit 15 Jahren auch kein Board mehr von einer CPU kaputtgegangen. :)mag sein dass das nur meine persönliche erfahrung ist, aber das war ja auch nicht der hauptpunkt. jede cpu braucht ein brett, deshalb wird es immer gleichviel bretter benötigt wie es cpus gibt. d.h. man spart keine bretter wenn man jede cpu generation aufs brett hauen kann. das ist schlichtweg falsch.

Zossel
2021-10-18, 21:12:11
Bei AMD ist das ja eine komplett andere Situation:
a) Man verkauft in erster Linie nicht über OEMs, sondern im DIY Markt. Erst dadurch wird die Frage der Kompatibilität überhaupt erst relevant.

Im Servermarkt hat das AMD auch unterstrichen, prinzipiell ist diese Möglichkeit auch im Servermarkt nicht uninteressant.

w0mbat
2021-10-18, 21:39:22
Witzig, dass Apple bei den high-end Modellen langsam vom big.LITTLE abkehrt und quasi nur noch P-Kerne verbaut. Die zwei verbleibenden E-Kerne sind noch drin weil es hier um Laptops geht und die Batterie wichtig ist. Das nutzt man fürs sparsame Surfen.

Aber wenn es um echte Leistung geht, egal ob ST oder MT, haut Apple möglichst viele P-Kerne rein. Wie AMD auch. Weil sowohl Apple als auch AMD ihre Kerne effizient auf größe optieren.

Intel hat viel zu große P-Kerne und setzt deshalb auf E-Kerne für MT-Leistung, was natürlich totaler Quatsch ist.

matty2580
2021-10-18, 21:45:04
Am 4. November sollen die offiziellen Tests zu Alder Lake kommen, also in 16 Tagen.

Dann wird sich ja zeigen ob Intels Konzept aufgeht.

robbitop
2021-10-18, 22:19:07
Apples P Kerne sind größer als Intels. Der Unterschied ist der Takt. Apples Kerne rennen mit knapp über 3 GHz während Intel ihre ~2 GHz höher prügelt. Und wie wir wissen ist f~P^3.
Apples CPUs sind eher für das mobile Umfeld mit wenig Takt entworfen.

iamthebear
2021-10-18, 23:00:03
Witzig, dass Apple bei den high-end Modellen langsam vom big.LITTLE abkehrt und quasi nur noch P-Kerne verbaut. Die zwei verbleibenden E-Kerne sind noch drin weil es hier um Laptops geht und die Batterie wichtig ist. Das nutzt man fürs sparsame Surfen.

Ich verstehe den Sinn von 4 Little Cores im Smartphonebereich sowieso nicht. Entweder hat man leichte Hintergrundlast im connected Standby, dann reicht ein Little Core aus oder man hat ernsthafte Vordergrundlast, dann kommt ein Big Core zum Zug. Mir kommt vor im High End Smartphonebereich wird generell eine Menge Mist verbaut weil man nicht weiß wohin mit dem Transistorbudget da sowieso die TDP limitiert.

Aber wenn es um echte Leistung geht, egal ob ST oder MT, haut Apple möglichst viele P-Kerne rein. Wie AMD auch. Weil sowohl Apple als auch AMD ihre Kerne effizient auf größe optieren.

Intel hat viel zu große P-Kerne und setzt deshalb auf E-Kerne für MT-Leistung, was natürlich totaler Quatsch ist.

Man darf dabei nicht vergessen, dass Apple auch immer die neueste Fertigung nutzt. Da ist alles deutlich kleiner während Intel seit Ewigkeiten bei 14nm feststeckt.

Was den Vergleich mit AMD angeht so hinkt der bei TGL/ADL etwas, da Intel hier auf einen großen privaten L2 setzt, der zur Kerngröße gezählt wird während der große L3 von AMD nicht mitgezählt wird.

Golden Cove wird vermutlich ca. Skylake Größe haben. Das wäre mit L3 dann um die 13mm². 8 Zen3 Cores + L3 + VCache kommen auf ca. 120mm² also 15mm² pro Kern.

Umgekehrt die Variante mit nur 2MB L3/Kern (siehe 5700G) vs. Comet Lake:
Comet Lake hat mit L3 auch um die 13mm²/Kern
Zen3 mit 2MB/Kern hätte vermutlich um die 7-8mm² (60mm² für 8 Kerne).

Wenn man die Fertigung (14nm vs. 7nm) raus rechnet sind wir auch wieder ziemlich gleich.

iamthebear
2021-10-19, 00:27:53
Im Servermarkt hat das AMD auch unterstrichen, prinzipiell ist diese Möglichkeit auch im Servermarkt nicht uninteressant.

Also im "Servermarkt" hast du in der Regel einen Wartungsvertrag beim Hersteller, wo innerhalb von maximal 4 Stunden ein Techniker mit einem neuen Board vor der Tür steht.

Und nach 5 Jahren schmeißt man die Server raus und holt sich neue.

Das ist zumindest die Realität in 90% der Unternehmen.

Gelegentlich wird man vielleicht noch ein paar Platten dazu stecken und das wars auch schon.

davidzo
2021-10-19, 00:44:37
Bei Miami geht es doch nur oberflächlich um Hardware.
Sehr richtig beobachtet. Ich gehe mittlerweile davon aus das Miami uns das hier nur vorspielt, so eine Art Cargo-Kult Anhänger ist und tatsächlich mit seinem Konto im Dispo liegt. Weil wer ständig mit seinem Reichtum angibt und so schlechte Urteilsfähigkeit im technischen Bereich hat, der schafft es nicht ein Vermögen anzuhäufen.
Wir haben hier auch so ein paar Proleten hier im Stadtteil. Sind viele einfache Sozialbau-Wohnungen, trotzdem stehen ständig porsches und getunte SUVs vor der Tür und die Jungs gammeln den ganzen tag damit herum. Die sind dann nur geliehen oder auf Ratenkauf. Die glauben dass es sie irgendwann wirklich reich macht, wenn sie nur lange genug das Bild vom reichen Macker abgeben. Status zeigen ist da alles, Sadge.
Einfach ignoriern den Miami. Und Blacki auch, ich sag nur kauf dir deinen schönen schnellen DDR5 ;D - Zum Zocken ist das bestimmt die Offenbarung :freak:


Also im "Servermarkt" hast du in der Regel einen Wartungsvertrag beim Hersteller, wo innerhalb von maximal 4 Stunden ein Techniker mit einem neuen Board vor der Tür steht.

Und nach 5 Jahren schmeißt man die Server raus und holt sich neue.

Das ist zumindest die Realität in 90% der Unternehmen.

Gelegentlich wird man vielleicht noch ein paar Platten dazu stecken und das wars auch schon.
Ich glaube die Rede war nicht von SMB servern die ihr Dasein in einer umgebauten Besenkammer fristen. Ich glaube in 90% der größeren Unternehmen macht man sich gerade eher Gedanken Cloud computing.
Ich glaube Zossel meinte eher die Hyperscaler oder mittelständische Hoster (a la Hetzner und Co). Von denen ruft niemand einen sündhaft teuren 4-stunden Supportsklaven, die haben eigene Leute für sowas. Und die sind sehr wohl extrem interessiert an upgrades. Was übrigens auch im HPC Markt nicht unüblich ist. Also ganze Racks nach und nach auf CPUs mit höherem Corecount upzugraden oder neue GPU-Beschleuniger zu adden sobald diese verfügbar sind. Das wird teilweise schon bei der Konzeption und Angebotsausschreibung gefordert.

HPVD
2021-10-19, 08:19:55
Währenddessen bei der Konkurenz, Teil 2:
der gestern vorgestellte "größte" Notebook Chip von Apple, der M1 max scheint im
Geekbench 5 Score
1749 im ST
11542 im MT
zu erreichen...

https://www.notebookcheck.com/Benchmark-Leak-Der-Apple-M1-Max-im-neuen-MacBook-Pro-bietet-eine-hervorragende-Multi-Core-Performance.573836.0.html

Linmoum
2021-10-19, 08:31:51
Anhand von Leakbench Vergleiche zwischen MacOS und Windows zu ziehen ergibt keinen Sinn, die Diskussion gibt's gefühlt jedes Mal.

dildo4u
2021-10-19, 08:36:21
Intel muss wohl deutlich mehr auf die Fläche achten als Apple, die Intel Mobile Modelle sollen nur 6 Big Cores haben dafür aber mehr kleine Kerne als M1 Max schon absurd wenn man überlegt wie ARM vs x86 bisher abgelaufen ist.

HOT
2021-10-19, 09:25:54
Apple muss nicht auf den Takt achten. Das sind ja Mobilchips. Ich bezweifle ernsthaft, dass man mit den Packdichten hochtakt-M1 bauen könnte. Das heißt mehr Performance wirds auch nicht wirklich. Dafür schafft man eben unglaubliche Perf/W und den Prozess somit auszureizen, also die mobile Varianten von N5.

basix
2021-10-19, 10:13:46
Intel muss wohl deutlich mehr auf die Fläche achten als Apple, die Intel Mobile Modelle sollen nur 6 Big Cores haben dafür aber mehr kleine Kerne als M1 Max schon absurd wenn man überlegt wie ARM vs x86 bisher abgelaufen ist.

Naja, der M1 Max gibt es aber nur und Geräten ab 3k$ aufwärts. Das ist eine andere Preisklasse. Da kann man auch einen grösseren Chip spendieren. Und zusätzlich spart man sich die mGPU von AMD und dessen teueren GDDR6, was ebenfalls positiv bezüglich Kosten ist.

Also:
- Kein GDDR6
- Kein Margenaufschlag von Seiten Intel & AMD (CPU & GPU)
- Teure Geräte

Mit dem M1 Max wird Apple wohl sogar mehr Marge als Intel haben (rein auf den Chip bezogen).

dildo4u
2021-10-19, 10:19:26
Bin echt gespannt wie sie auf 4X 5600 Pro kommen die hat ja laut AMD 5 TFlops und nutzte sogar HBM2.

VooDoo7mx
2021-10-19, 12:11:43
Bin echt gespannt wie sie auf 4X 5600 Pro kommen die hat ja laut AMD 5 TFlops und nutzte sogar HBM2.

Du darfst nie vergessen, dass Apple solche Angaben niemals auf Gaming Performance bezieht, sondern eher auf Final Cut Video Editing und da spielen noch viele andere Faktoren mit rein.

Wenn ich vom M1 ausgehend den Wildlife Extreme Benchmark hochrechne, dürfte der M1 Max so ungefähr bei einer mobilen 3060 liegen was 3D Performance angeht.
Aber der M1 GPU hat aber keine Raytracing Beschleuniger und kann auch keine AI Upsamplingverfahren wie DLSS nutzen. Daran sieht man auch, dass diese iGPU eher weniger für Gaming gedacht ist.

Um mal wieder zurück auf das Thema zu kommen:

Also rein von der CPU Performance wird es der mobile Alder Lake U mit 2P+8E Kernen locker mit M1 aufnehmen können. Die 6P+8E Kombination wird auch locker M1 Pro/Max schlagen können.
Nur eben bei Leistung/Watt wird Apple vorne liegen. Das wird sich erst ändern können wenn Intel auf die nächste Node wechselt und das wird wohl erst frühestens 2023 mit Meteor Lake sein, da hat Apple dann schon 3 Jahre Vorsprung.

Das Hauptproblem ist die schwache iGPU. Trotz guter Rechenleistung auf dem Papier kommt davon eher wenig auf Straße. DIe Leistung/Flop ist noch hinter Vega, welche wiederrum auch schon nicht wirklich gut ist.
Die Architektur ist noch lange nicht da wo nVidia/AMD ist.

robbitop
2021-10-19, 12:14:02
Glaube ich nicht. Bereits M1 ist mit 4P+4E auf 5950X Niveau. Ob man da mit 2P und 8E hinkommt? Ich bin da skeptisch.

edit: korrektur - der M1 erreicht ähnliche CB R23 ST Werte wie der 5950x. MT ist langsamer.

dildo4u
2021-10-19, 12:18:52
In den meisten Gameing Books wird die Masse des Stroms für 8nm Ampere draufgehen ,daher sollte Intel nicht so viel Luft haben über die jetzt üblichen 60 Watt zu gehen.
Das Absurde ist ja das man aktuell mehr dicke Tiger Lake Cores bekommen kann als es dann mit Alderlake der Fall sein wird.(Innerhalb der H45 Modelle)

w0mbat
2021-10-19, 12:19:01
Bereits M1 ist mit 4P+4E auf 5950X Niveau.
Ich weiß nicht ob das ernst gemeint ist, aber in MT ist der 5950X Faktor 3-5x schneller und im ST ca. 30% schneller.

robbitop
2021-10-19, 12:24:47
Ich hatte das für mich mit MT so nach dem M1 launch abgespeichert. Aber das war wohl inkorrekt.
Aber ST liegen sie in CB R23 beide auf ~1700 pkt.

w0mbat
2021-10-19, 12:37:38
Ja, es gibt einige Apps wo der M1 im ST ähnlich gut performt, im Geekbench ist er glaub ich sogar etwas schneller. Gibt aber auch viele Anwendungen wo er nicht auf Augenhöhe ist. Muss er aber auch nicht sein als 15W design.

davidzo
2021-10-19, 12:37:46
Ich weiß nicht ob das ernst gemeint ist, aber in MT ist der 5950X Faktor 3-5x schneller und im ST ca. 30% schneller.
Unter Rosetta 2 vielleicht, aber nicht unter nativem Code. Da geben sich der 3,2Ghz Firestorm und 4,9Ghz Zen3 nichts in ST.

Ich hatte das für mich mit MT so nach dem M1 launch abgespeichert. Aber das war wohl inkorrekt.
Aber ST liegen sie in CB R23 beide auf ~1700 pkt.
Das hast du wohl mit dem 5980HS verwechselt. Und selbst der ist mit 8C/16T Benches meistens um mindestens 10% biszu 60% schneller, verbraucht aber auch mehr als das doppelte.


Wird spannend, weil zumindest von der Leistungsperspektive hat Intel die Chance etwas vergleichbares abzuliefern mit Alderlake, sowohl im ST als auch MT. ST könnte reichen je nach Taktraten um leicht vor Firestorm zu landen. Im MT hat man zwar nur 6x big Cores und die laufen mit viel weniger Takt bei MT loads, aber die 8x small Cores könnten das wieder ausgleichen. Intel wird das zwar nicht im selben powerbudget schaffen wie Apple, erst recht nicht wenn man die Potente GPU dort abzieht, aber immerhin wird man Workstations mit vergleichbarer Leistung anbieten können, außer vielleicht im Videoschnittbereich (da ist der M1X jetzt erstmal unerreichbar). Auch wenn diese dann erheblich schwerer und lauter sind, immerhin bekommt man etwas in der Art auch auf der PC-Seite.

fondness
2021-10-19, 14:10:32
Glaube ich nicht. Bereits M1 ist mit 4P+4E auf 5950X Niveau. Ob man da mit 2P und 8E hinkommt? Ich bin da skeptisch.

edit: korrektur - der M1 erreicht ähnliche CB R23 ST Werte wie der 5950x. MT ist langsamer.

Ich weiß schon du hast es korrigiert, aber alleine schon die Vorstellung ist völlig absurd. Der M1 P-Core kann single threaded bei den wenigen vergleichbaren Tests halbwegs mithalten, single Core ist er bereits deutlich dahinter da kein SMT. Dann noch 4P+4E/8T vs. 16C/32T. Ja, der Apple Core hat eine sehr gute Perf/Watt, wo allerdings auch Cezanne im sweet-spot nicht weit weg ist trotz 7nm, aber mehr auch nicht.

y33H@
2021-10-19, 14:19:03
Immerhin läuft DDR5-4800 auch mit CL36 ^^

robbitop
2021-10-19, 14:49:10
Naja nicht weit weg ist gut. Zen 3 braucht knappe 5 GHz un mit dem 3 GHz Firestorm mithalten zu können. Und bei so hohere Frequenz zieht der natürlich deutlich megr Watt pro Core.

Thunder99
2021-10-19, 14:51:49
Immerhin läuft DDR5-4800 auch mit CL36 ^^

Da geht noch mehr :D

Linmoum
2021-10-19, 15:05:11
Immerhin läuft DDR5-4800 auch mit CL36 ^^Mit Gear 4? ;D

fondness
2021-10-19, 15:06:29
Naja nicht weit weg ist gut. Zen 3 braucht knappe 5 GHz un mit dem 3 GHz Firestorm mithalten zu können. Und bei so hohere Frequenz zieht der natürlich deutlich megr Watt pro Core.

Single Threaded schafft Cezanne den max. Turbo auch bei 15W und ein M1 läuft auch nicht mit allen Kernen @3Ghz bei MT-Last. Also nein, er ist nicht so weit weg.

y33H@
2021-10-19, 15:47:57
Mit Gear 4? ;DWeil das eine ADL-spezifische Frage ist, sag ich da nix zu :redface:

Lehdro
2021-10-19, 16:39:55
Weil das eine ADL-spezifische Frage ist, sag ich da nix zu :redface:
Wenn du raten müsstest, geht das auch mit Gear 2? ;)

robbitop
2021-10-19, 20:26:33
Single Threaded schafft Cezanne den max. Turbo auch bei 15W und ein M1 läuft auch nicht mit allen Kernen @3Ghz bei MT-Last. Also nein, er ist nicht so weit weg.

Ein Firestorm Kern braucht aber wesentlich weniger als die 15W die der Zen 3 Kern dann allein verbrät. Das ist einfach ein andderer Schnack in Bezug auf perf/W.

iamthebear
2021-10-20, 02:00:06
Glaube ich nicht. Bereits M1 ist mit 4P+4E auf 5950X Niveau. Ob man da mit 2P und 8E hinkommt? Ich bin da skeptisch.

edit: korrektur - der M1 erreicht ähnliche CB R23 ST Werte wie der 5950x. MT ist langsamer.

Also vereinfacht gesagt: 1 P Core des M1 ist so schnell wie 1 Zen 3 Core unter ST Last.

Hat der M1 Pro auch mehr IPC oder nur mehr Kerne?

Naja nicht weit weg ist gut. Zen 3 braucht knappe 5 GHz un mit dem 3 GHz Firestorm mithalten zu können. Und bei so hohere Frequenz zieht der natürlich deutlich megr Watt pro Core.

Also ich halte den GHz Vergleich für nicht wirklich sinnvoll, da man umgekehrt die M1 Architektur auch nicht mit 5GHz betreiben kann. Das ist wie damals der Vergleich Athlon64 3200+ mit 2GHz gegen Pentium 4 mit 3.2GHz. Beide waren gleich schnell, beide waren am Limit. Einer war etwas sparsamer.

Der Watt Vergleich ist natürlich legitim nur muss man hier den Effekt der Fertigung raus rechnen.
Weiß eigentlich jemand, wieviele Watt sich der M1 Pro im Peak maximal genehmigt?

Allerdings ist Zen3 nach Alder Lake nicht unbedingt mehr der Maßstab für hohe ST Performance.

Auch würde ich bei CPUs mit komplett verschiedenen Befehlssätzen vorsichtig sein sich eine Meinung nur basierend auf einer Anwendung zu bilden. Hier erwarte ich je nach verwendetem Algorithmus deutliche größere Abweichungen als bei den typischen Duellen Rocket Lake gegen Zen3 etc.

][immy
2021-10-20, 02:45:28
Glaube ich nicht. Bereits M1 ist mit 4P+4E auf 5950X Niveau. Ob man da mit 2P und 8E hinkommt? Ich bin da skeptisch.

edit: korrektur - der M1 erreicht ähnliche CB R23 ST Werte wie der 5950x. MT ist langsamer.
ARM basierte CPUs haben normalerweise eine oder mehrere Spezialisierung(en) liegen aber bei vielen anderen Feldern hinten. Und wenn sie doch einigermaßen mithalten können (über ein breites Spektrum), ist der Energiebedarf auch gern mal im gleiche Bereich (z.B. die 80 Core ARMs haben eine ähnliche Leistungsaufnahme wie die 64-Core AMDs). Die breiteren Interfaces, PCIe-lanes etc fordern dann auch noch ihren Tribut (bezogen auf die Server-CPUs).
Bei den Apple-CPUs sehe ich das nicht anders. Gibt zwar nur wenige Benches bisher (vor allem die man auch einigermaßen miteinander vergleichen kann) aber besonders Cinebench ist doch eher ein Spezialfall. Apple war schon immer relativ gut darin die Software/OS auf die Hardware zuzuschneiden. Mit ARM macht macht es jetzt halt auch noch zusätzlich die Hardware an den Anwendungszweck zuzuschneiden.

Klar ist der Verbrauch relativ gering (dank Fertigungsvorteil und niedriger Taktraten) wird aber halt teuer mit Transistoren bezahlt. Würde man das höher Takten wollen müsste es wohl auch schon aufgrund der höheren Ströme neu designed werden, denn das Ding ist ja quasi als Low-Power-Prozessor (naja zumindest als Mobile-Prozessor) ausgelegt. Wenn man da mehr über die Leiterbahnen schickt verbrutzelt das Ding einfach nur (oder bekommt Störungen oder sonst was).
AMD und Intel haben hier eher das Problem das man sowohl nach unten als auch oben skalieren muss und auch das fordert seinen Tribut.
Das will Intel ja mit ADL ja zumindest aufweichen und die Vorteile aus beiden Welten vereinen. Fragt sich ob wir dann auch die IPC der kleinen Cores separat testen können.

robbitop
2021-10-20, 09:39:07
Ich bin mir nicht sicher, ob man die Fertigung unbedingt rausrechnen muss. Das sind alles aktuell kaufbare Produkte. Wenn AMD und Intel schlechtere Prozesse für ihre Produkte nutzen ist das für das Endprodukt ja egal.

Wenn man jetzt uArchs vergleichen will - ja dann sollte man es prozessnormiert tun.
Für mich scheint es erstmal schlüssig zu sein, Takt zu opfern und einen sehr sehr IPC kräftigen Kern (sehr breit, sehr viel ILP, sehr schnelle geoße Caches) zu bauen. Denn P~Transistorcount (bei iso clock) aber P^3~f.

In weniger power limitierten Formfaktoren kann man sicherlich auch beides haben. Und dank verschieden großer Kerne sowohl MT als auch ST stark zu sein.
Ich halte von dem Ansatz (sofern die SW/OS mitspielt) sehr viel. The right tool for the right job - ist ein wenig wie ein Getriebe für einen Verbrennungsmotor. In dem Falle 1. und 2. Gang - also ein zweistufiges Getriebe. :)

fondness
2021-10-20, 10:16:59
Ein Firestorm Kern braucht aber wesentlich weniger als die 15W die der Zen 3 Kern dann allein verbrät. Das ist einfach ein andderer Schnack in Bezug auf perf/W.

Behauptest du jetzt einfach mal so, so wie vorhin das mit dem 5950X Performance. Ein M1 @15W ist im Cinebench ~20% schneller als ein Cezanne @15W. Das ist für mich keine andere Welt, schon gar nicht bei 5nm vs. 7nm.

robbitop
2021-10-20, 10:20:42
Der M1 zieht die 15 W doch nicht @ST.

Die Macbooks mit gleichem Chassis von 2020 zeigen eindeutig, dass M1 viel mehr Akkuzeit und Leistung da ist als mit den Intel 15W CPUs. Die diesjährigen sind dünner und haben massiv mehr Leistung als die Intel Pendants mit M1pro und Max.
Der M1 ist in einem super dünnen iPad mit 10“ was irre hohe Akkulaufzeit hat. Sowas gab es bis dato bei keiner AMD und Intel CPU weil die Energieeffizienz einfach eine andere war. Ggf hatten die Atom und Raubkatzenkerne diese Chance. Deren Leistung war aber auch ziemlich mau.

fondness
2021-10-20, 10:25:39
Der M1 zieht die 15 W doch nicht @ST.

Ich rede von MT.

robbitop
2021-10-20, 10:27:18
Es ging aber um Leistung pro Core und Watt. Das kann man bei unterschiedlicher Corezahl nur bei ST vergleichen.

HOT
2021-10-20, 10:59:49
Da wird auch in den blauen Dunst spekuliert. Man müsste das wirklich mal testen, wieviel der Prozessor wann wirklich verbraucht. Dazu gibts schlichtweg keine Daten.

robbitop
2021-10-20, 11:35:03
Bei Anandtech gibts daten wie viel Watt und wie viel Joule bei SPEC INT und FP verbraten wird. Sind knappe 5W für A14 (gleiche firestorm cores wie M1)
https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/3

HOT
2021-10-20, 12:00:40
Bei Anandtech gibts daten wie viel Watt und wie viel Joule bei SPEC INT und FP verbraten wird. Sind knappe 5W für A14 (gleiche firestorm cores wie M1)
https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/3
Ah super, danke.

ChaosTM
2021-10-20, 13:30:47
5.2GHz bei eh nur 330 Watt verbrauch :D (https://www.techpowerup.com/288068/retail-version-of-intel-alder-lake-core-i9-12900k-overclocked-to-5-2-ghz-on-all-cores)

Jesus Christ - "intelligentes" design schaut anders aus

Thunder99
2021-10-20, 13:59:46
5.2GHz bei eh nur 330 Watt verbrauch :D (https://www.techpowerup.com/288068/retail-version-of-intel-alder-lake-core-i9-12900k-overclocked-to-5-2-ghz-on-all-cores)

Jesus Christ - "intelligentes" design schaut anders aus
Was anderes erwartet bei Intel? Ich nicht, aber ein AMD, sofern möglich, würde auch extrem saufen, wenn alle Kerne @ MaxOC wären.

amdfanuwe
2021-10-20, 14:03:00
Vor allem die 16 Kerner

r3ptil3
2021-10-20, 14:14:51
5.2GHz bei eh nur 330 Watt verbrauch :D (https://www.techpowerup.com/288068/retail-version-of-intel-alder-lake-core-i9-12900k-overclocked-to-5-2-ghz-on-all-cores)

Jesus Christ - "intelligentes" design schaut anders aus

Würde ich nicht überbewerten.

Ein 5900X ohne Limits geht über 210W, ohne OC und niemand betreibt einen 12900k mit 5.2Ghz bei 110°+.

Die gleiche CPU auf 4.8-4.9 Ghz und das Ganze sieht wieder anders aus.

Nicht vergessen: Wir reden hier nicht von Gaming, denn dann wäre die Differenz bei 0-30W zu den Top-Ryzens.

Wenn Alder Lake die Leistung auch in Games bringen sollte, dann kann man sich auf etwas freuen. Wenn ich jetzt sehr optimistisch bin und Intel es sogar hingekriegt hat, dass trotz Gear 2+, der IDLE-Verbrauch durch die little Cores auf unter 40W fällt, dann ist das ein sehr dickes Plus.


Auf den 12700k bin ich gespannt, aber noch mehr auf den 12600k, denn mit der Kombi 6 Big Cores + 4 little Cores, hätte man alles was man braucht.

WedgeAntilles
2021-10-20, 14:40:09
5.2GHz bei eh nur 330 Watt verbrauch :D (https://www.techpowerup.com/288068/retail-version-of-intel-alder-lake-core-i9-12900k-overclocked-to-5-2-ghz-on-all-cores)

Jesus Christ - "intelligentes" design schaut anders aus
Warum du ein Design anhand eines absoluten Extremfalls bewertest, der für 99,99% der User nie auch nur im Ansatz relevant sein wird, muss man aber nicht verstehen, oder?

Ich kann jede beliebige CPU mit Stickstoff kühlen und so hochprügeln, dass der Verbrauch exorbitant hoch wird und Verbrauch zu Leistung völlig unattraktiv.
Was soll da jetzt die Erkenntnis sein?

Da frage ich mich schon immer: Ist das einfach nur Trolling?
Oder um dich mal böse zu zitieren: Intelligent schaut anders aus.

ChaosTM
2021-10-20, 14:49:34
Fanboys sind schon was süßes. It's like shooting fish in a barrel.
Das wird wieder eine typische Brute Force CPU.

DeadMeat
2021-10-20, 14:57:13
Wenn Intel mehr als 8P Kerne bringen könnte würden sie es tun, man kann aber recht gut erahnen warum sie das nicht können. Die P-Kerne sind definitiv Brute Force, aber das wurde ja schon vorher oft angedeutet.

Wedge hat aber recht es ist ein extremfall, auch wenn wieder alle großen Boards die 125/225 aushebeln wird man solche Zahlen trotzdem nie sehen wenn man es nicht darauf anlegt.

Weils am Anfang im Artikel nicht klar war, mittlerweile auch per Update: die E Kerne waren dabei auch noch aktiv im normal Takt, also nicht nur ein 8 Kern verbrauch

BlacKi
2021-10-20, 15:02:06
Fanboys sind schon was süßes. It's like shooting fish in a barrel.
Das wird wieder eine typische Brute Force CPU.


solche zahlen waren zu er warten, gerade bei OC.


selbst der 11900k hat schon ähnlich hoch gepeakt mit OC.

davidzo
2021-10-20, 17:23:49
Warum du ein Design anhand eines absoluten Extremfalls bewertest, der für 99,99% der User nie auch nur im Ansatz relevant sein wird, muss man aber nicht verstehen, oder?

Wieso Extremfall? Der 12900K ist doch keine Office und casual browsing CPU, das ist ein Highend Modell!
Sicher wird es reine Gamer geben die nur Teillast fahren, aber genau so wird es Workstation user geben, welche die volle Multithread-Leistung abrufen wollen. Und die bekommen sie out of the box eben besser beim 5950x. Trotzdem werden wahrscheinlich mehr Kisten mit 12900K und 12900 als AMD-kisten bei den Unternehmen landen welche die für Rendering, Compiling etc. nutzen.

Wenn Intel mehr als 8P Kerne bringen könnte würden sie es tun, man kann aber recht gut erahnen warum sie das nicht können. Die P-Kerne sind definitiv Brute Force, aber das wurde ja schon vorher oft angedeutet.

Das Problem ist, sie bringen ja doch mehr als 8P Kerne!
Sapphire Rapids läuft im ES mit baseclock 1,3Ghz und verbraucht trotzdem 350Watt (48C). Alderlakes Golden Cove kerne sind da noch vergleichsweise sparsam weil mit AVX512 praktisch die halbe FPU brach liegt.
Bin sehr gespannt auf die HEDT Plattform auf SR Basis. Könnte sein dass man dort wieder AVX512 deaktivieren muss um Turbotakte über 4ghz überhaupt zu ermöglichen.

C2 Stepping Aua :freak: das klingt painfull für die bring up engineers.
Bringt 200mhz mehr, Baseclock nun 1,5Ghz, Hurra! ;D
Ich meine, AMD bringt gerade das B2 Stepping von Vermeer - und das vorherige Stepping verkauft sich schon über ein Jahr mit taktraten von 4,9Ghz und 3,2Ghz im server.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77059&stc=1&d=1634743449

https://twitter.com/yuuki_ans/status/1428295864351485957/photo/1

Sardaukar.nsn
2021-10-20, 18:27:56
5.2GHz bei eh nur 330 Watt verbrauch :D (https://www.techpowerup.com/288068/retail-version-of-intel-alder-lake-core-i9-12900k-overclocked-to-5-2-ghz-on-all-cores)

Jesus Christ - "intelligentes" design schaut anders aus

+31% Singlecore klingt aber schon gut. Bzw. +25% zu meinem 5800X. Wenn nicht alle Kerne ausgelastet sind, geht der Verbrauch auch deutlich runter. Bin schon gespannt wie gut oder schlecht sich Alder Lake kühlen lässt.

Aktueller Stand mit L3 Cache Patch unter Windows 11:

https://i.imgur.com/HcFwVSV.jpg

robbitop
2021-10-20, 19:35:33
Die Frage, wie repräsentativ der CPU-Z Benchmark für Realworld und Games ist.

Twodee
2021-10-20, 19:39:42
Wie representativ sind denn Geekbench-scores?

VooDoo7mx
2021-10-20, 20:01:11
Da wird auch in den blauen Dunst spekuliert. Man müsste das wirklich mal testen, wieviel der Prozessor wann wirklich verbraucht. Dazu gibts schlichtweg keine Daten.

Doch.
Daten von mir und meinen MacBook Pro M1 (Powermetrics Befehl per Terminal)

Idle:

https://abload.de/img/idle0nj1e.png

Safari Web Browsing, mehrere Tabs + YouTube Video spielt:

https://abload.de/img/safariq0jjr.png

Cinebench R23 ST:

https://abload.de/img/cb23stb1jpm.png

Cinebench R23 MT:

https://abload.de/img/cb23mt2ekpr.png

3DMark Wildlife Extreme:

https://abload.de/img/wildlife2zkyc.png

Real World1: Adobe Lightroom Classic 30MP Eos R Raw Foto Export:

https://abload.de/img/lightroom6fkfq.png

Real World 2: Subnautica Below Zero (x86 Emulation):

https://abload.de/img/subnauticahwj23.png

https://abload.de/img/cb23resultapjti.png

https://abload.de/img/wildliferesultwnk3r.png

Daredevil
2021-10-20, 20:02:21
Es ist zumindest noch nie vorgekommen, dass jemand in CPUz und Geekbench höhere Scores hat, in Games aber wiederum niedrige.... oder?

KarlKastor
2021-10-20, 20:03:51
Wenn Intel mehr als 8P Kerne bringen könnte würden sie es tun, man kann aber recht gut erahnen warum sie das nicht können.
Wo ist da der Zusammenhang? Bringen sie 16 Kerne, dann können die auch niedriger takten. Ein 5950x taktet auch nicht all-core mit 5 GHz.

ceed
2021-10-20, 20:50:06
Es ist zumindest noch nie vorgekommen, dass jemand in CPUz und Geekbench höhere Scores hat, in Games aber wiederum niedrige.... oder?

Rocketlake z.B.
Da sind sie im CPUz auch vorn (SingleCore natürlich), in Games aber langsamer.

https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-29-september-2021

Könnte man jetzt vermuten, dass es nicht so auf die Spiele durchschlägt wie einige hier hoffen. Weiß nicht genau wie wieviel Abstammung der Golden Cove vom Sunny Cove hat

Lehdro
2021-10-20, 21:00:13
Wie representativ sind denn Geekbench-scores?
Gar nicht, genau wie CPU-Z. Selbst CB ist da repräsentativer, da es tatsächlich zumindest einen Workload nachbildet (Cinema4D).

Wir hatten doch sogar schon CPU-Z Patches um explizit Zen zu nerfen. Ebenso gab es tolle Geekbenches die im Grunde 0 Fortschritt hatten, aber eine massiv verbesserte Kryptoscore, was die Gesamtscore deutlich gepushed hat. Alles schon vergessen? Bei GB kann man maximal die Unterscores vergleichen, aber selbst das ist grenzwertig.

iamthebear
2021-10-20, 21:06:26
Ich bin mir nicht sicher, ob man die Fertigung unbedingt rausrechnen muss. Das sind alles aktuell kaufbare Produkte. Wenn AMD und Intel schlechtere Prozesse für ihre Produkte nutzen ist das für das Endprodukt ja egal.

Wenn man nur das Produkt betrachtet hast du natürlich Recht. Dann muss man aber auch betrachten, dass man die CPUs nur in MacBooks bekommt, wo mit Ausnahme der Multimediaanwendungen ein Großteil der Anwendungen nicht läuft. Hier stellt sich in erster Linie der Vergleich mit bisherigen MacBooks.
Die Frage "welches MacBook soll ich kaufen" ist jedoch meiner Meinung nach etwas Off Topic hier.

Wenn man jetzt uArchs vergleichen will - ja dann sollte man es prozessnormiert tun.
Für mich scheint es erstmal schlüssig zu sein, Takt zu opfern und einen sehr sehr IPC kräftigen Kern (sehr breit, sehr viel ILP, sehr schnelle geoße Caches) zu bauen. Denn P~Transistorcount (bei iso clock) aber P^3~f.

Die Frage ist ob mann damit noch auf dieselbe ST Leistung kommt. Ein weiß nicht ob Geekbench hier unbedingt so aussagekräftig als Vergleich ist wenn man es mit 2 komplett unterschiedlichen Befehlssätzen zu tun hat. Ich denke da werden in den nächsten Tagen/Wochen noch einige interessante Vergleichstests kommen.
Interessant werden auch die SPEC Vergleiche, da bei denen jeder CPU Hersteller den Compliler seiner Wahl verwenden kann also für alle gleiche Bedingungen.

In weniger power limitierten Formfaktoren kann man sicherlich auch beides haben. Und dank verschieden großer Kerne sowohl MT als auch ST stark zu sein.
Ich halte von dem Ansatz (sofern die SW/OS mitspielt) sehr viel. The right tool for the right job - ist ein wenig wie ein Getriebe für einen Verbrennungsmotor. In dem Falle 1. und 2. Gang - also ein zweistufiges Getriebe. :)

Das kommt darauf an wie sich die beiden Kerne verhalten. Damit ein Hybrides System Sinn macht müssen die jeweiligen extreme (z.B. Golden Cove vs. Gracemont) beide jeweils eindeutige Vorteile gegenüber der Mischlösung haben.

Der M1 zieht die 15 W doch nicht @ST.

Die Macbooks mit gleichem Chassis von 2020 zeigen eindeutig, dass M1 viel mehr Akkuzeit und Leistung da ist als mit den Intel 15W CPUs. Die diesjährigen sind dünner und haben massiv mehr Leistung als die Intel Pendants mit M1pro und Max.
Der M1 ist in einem super dünnen iPad mit 10“ was irre hohe Akkulaufzeit hat. Sowas gab es bis dato bei keiner AMD und Intel CPU weil die Energieeffizienz einfach eine andere war. Ggf hatten die Atom und Raubkatzenkerne diese Chance. Deren Leistung war aber auch ziemlich mau.

Sind die alten MacBooks nicht sogar noch 14nm basiert? Das überrascht mich dann nicht wirklich, dass da Welten dazwischen liegen.

5.2GHz bei eh nur 330 Watt verbrauch :D (https://www.techpowerup.com/288068/retail-version-of-intel-alder-lake-core-i9-12900k-overclocked-to-5-2-ghz-on-all-cores)

Jesus Christ - "intelligentes" design schaut anders aus

Ich würde einmal sagen es ist nicht besonders intelligent einen 12900K mit 5.2GHz zu betreiben.
Wieviel würde wohl ein 5950X ziehen wenn man ihn mit 5.2GHz All Core betreibt?

Im Vergleich zum 11900K:
Dieser hatte mit 5.2GHz auch schon 330W Spitzenverbrauch. ADL legt eben noch 20% IPC drauf und liefert 8 Little Cores mit dazu, die ja mit 3.7GHz auch schon am maximal MT Takt laufen.

Wenn Intel mehr als 8P Kerne bringen könnte würden sie es tun, man kann aber recht gut erahnen warum sie das nicht können. Die P-Kerne sind definitiv Brute Force, aber das wurde ja schon vorher oft angedeutet.

Wieso sollte Intel nicht mehr als 8 P Cores bringen können? Intel könnte genauso wie AMD 16 P Cores bringen. Nur dann müsste man die halt bei leistungsintensiven Anwendungen etwas niedriger takten. Der 5950X taktet mit Cinebench etc. auch von 5 auf 4 GHz runter.

Der Grund warum Intel das nicht tut ist weil sie einfach keinen riesigen Chip bauen wollen.

Wedge hat aber recht es ist ein extremfall, auch wenn wieder alle großen Boards die 125/225 aushebeln wird man solche Zahlen trotzdem nie sehen wenn man es nicht darauf anlegt.

Wenn man sich ein 500 Euro OCing Board holt, dann word das die Limits möglicherwiese aushebeln. Die normalen Boards mit B/H Chipsätzen um die 100-150 Euro laufen meines Wissens nach alle wie sie sollen alleine schon deswegen, da die Boards dann auch keine 300W auf Dauer aushalten mit normaler leichter Gehäuselüftung auf den VRMs.

Wieso Extremfall? Der 12900K ist doch keine Office und casual browsing CPU, das ist ein Highend Modell!
Sicher wird es reine Gamer geben die nur Teillast fahren, aber genau so wird es Workstation user geben, welche die volle Multithread-Leistung abrufen wollen.

Und für genau diese Workstationanwendungen gibt es die Powerlimits, die dann eben den Takt etwas runter regeln. Das ist bei AMD beim 5950X auch nichts Anderes.

Und die bekommen sie out of the box eben besser beim 5950x. Trotzdem werden wahrscheinlich mehr Kisten mit 12900K und 12900 als AMD-kisten bei den Unternehmen landen welche die für Rendering, Compiling etc. nutzen.

Wenn auch wirklich 32 Threads genutzt werden ja dann ist der 5950X als 32 Thread CPU natürlich schneller. Umgekehrt ist bis zu 8 Threads 20% schneller. Muss man halt entscheiden was einem wichtiger ist.

Das Problem ist, sie bringen ja doch mehr als 8P Kerne!
Sapphire Rapids läuft im ES mit baseclock 1,3Ghz und verbraucht trotzdem 350Watt (48C). Alderlakes Golden Cove kerne sind da noch vergleichsweise sparsam weil mit AVX512 praktisch die halbe FPU brach liegt.
Bin sehr gespannt auf die HEDT Plattform auf SR Basis. Könnte sein dass man dort wieder AVX512 deaktivieren muss um Turbotakte über 4ghz überhaupt zu ermöglichen.

Das muss nicht unbedingt viel heißen. Die 1.3GHz beziehen sich vermutlich auf AMX. Hierbei werden pro Takt und Kern bis zu 2048 INT8 Matrixmultiplikationen durchgeführt.
Dass dabei natürlich einiges an Energie frei wird sollte klar sein.

Ich meine, AMD bringt gerade das B2 Stepping von Vermeer - und das vorherige Stepping verkauft sich schon über ein Jahr mit taktraten von 4,9Ghz und 3,2Ghz im server.

Welche 48 Kern Server CPU kommt denn auch nur annähernd auf 3.2 Basis bzw. 4.9 Turbo?

Der schnellste Epyc ist meines Wissens der 7763 mit 2.45 Basis und 3.5GHz Turbo. Der kann aber kein AVX512 geschweige denn AMX d.h. der Takt bezieht sich auf normales AVX mit 256 Bit. Das ist somit ein Äpfel vs. Birnen Vergleich.

Twodee
2021-10-20, 21:07:02
@Lehdro
Das war eine rhetorische Frage.

Sardaukar.nsn
2021-10-20, 21:23:49
Die Frage, wie repräsentativ der CPU-Z Benchmark für Realworld und Games ist.

Ein hoher CPU-Z SC Score war bisher ein guter Indikator für eine hohe Gaming Leistung. Ich wüsste keinen keinen Fall wo das nicht so war. Naja, noch eine Woche und wir werden hoffentlich richtige Reviews bekommen.

iamthebear
2021-10-20, 23:09:02
Könnte man jetzt vermuten, dass es nicht so auf die Spiele durchschlägt wie einige hier hoffen. Weiß nicht genau wie wieviel Abstammung der Golden Cove vom Sunny Cove hat

So wie ich es verstanden habe ist Golden Cove eine aweiterentwicklung von Willow Cove, der seinerseits wieder eine Weiterentwicklung von SunnyCove ist.

Was die Gaming Performance angeht, so hängt diese zu einem sehr großen Teil vom der Größe des L3 Cache und Speicherlatenzen ab.

10900K vs. 11900K: Hier wurde der Cache von 20MB auf 16MB reduziert, da die Anzahl der Kerne von 10 auf 8 reduziert wurde. Trotzdem was der 11900K leicht schneller

10700K vs. 11700K: Hier war der 11700K nicht wirklich schneller. Das Problem war hier, dass meistens entweder mit Gear2 getestet wurde oder der Speicher runtergetaketet wurde ohne die Timings nachzustellen.

10600K vs. 11600K: Hier sieht es ganz anders aus. Der 11600K war im CB Spielerating 15% vor dem 10600K

Ich würde zusammenfassend also sagen, dass Rocket Lake sehr wohl einiges gebracht hat aber es eben auch einige negative Effekte beim 11700K und 11900K gegeben hat.

Beim 12900K steigt der L3 Cache wieder von 16MB auf 30MB an. Der L2 Cache steigt von 512KB auf 1280KB an. Dies sollte sich auf jeden Fall sehr positiv auswirken. Die Architekturverbesserungen kommen noch dazu.
Derzeit unbekannt ist jedoch noch der Effekt von DDR5. Das kann einen weiteren Schub bringen oder auf Grund der Latenzen auch komplett nach hinten losgehen.

reaperrr
2021-10-21, 00:01:43
So wie ich es verstanden habe ist Golden Cove eine aweiterentwicklung von Willow Cove, der seinerseits wieder eine Weiterentwicklung von SunnyCove ist.
Richtig, nur ist Willow in Sachen IPC manchmal sogar langsamer als Sunny, weil man zugunsten höherer Effizienz und Taktbarkeit trotz großer Caches z.B. die Latenzen letzterer kräftig nach oben geschraubt hat.


Beim 12900K steigt der L3 Cache wieder von 16MB auf 30MB an. Der L2 Cache steigt von 512KB auf 1280KB an. Dies sollte sich auf jeden Fall sehr positiv auswirken.
Kann man nicht vergleichen, Sunny setzt noch auf ein inklusives Cache-Modell, wo der L2 immer automatisch mit in den L3 kopiert wird, damit die anderen Kerne schnell darauf zugreifen können.

Seit Willow setzt Intel auf ein exklusives Cache-Modell wie AMD, zwar mit größeren Caches, aber dafür auch deutlich höheren Cache-Latenzen.

Und genau hier könnte das Problem liegen.
Bei AMD müssen zwar öfter Daten vom L2 in den L3 verschoben werden, weil der L2 kleiner ist, aber für alles, was in den L2 reinpasst, ist er bei AMD dafür deutlich schneller. Und davon scheinen gerade Spiele manchmal stärker zu profitieren als von einem großen, aber langsamen L2, weil dieser dadurch nicht mehr so viel Latenz-Vorteil gegenüber L3 und RAM hat, was bei kleinen Datenmengen dann zum Nachteil wird.

Sah man auch schon bei Skylake-X, der auch schon exklusives Cache-Design hatte und trotz fetter L2 in Spielen viel langsamer als die normalen Skylakes war. Auch wenn man fairerweise sagen muss, dass dort der L3 je Kern deutlich kleiner war.

robbitop
2021-10-21, 09:04:19
Ein hoher CPU-Z SC Score war bisher ein guter Indikator für eine hohe Gaming Leistung. Ich wüsste keinen keinen Fall wo das nicht so war. Naja, noch eine Woche und wir werden hoffentlich richtige Reviews bekommen.
Zen 1 und RKL. Gemeit ist damit nicht, dass es ins Gegenteil verkehrt wird sondern, dass die relativen Verhältnisse in den Synthies einfach besser waren als in Games.

Cubitus
2021-10-21, 09:16:11
Wie representativ sind denn Geekbench-scores?

Oder Cinebench :freak:

Rancor
2021-10-21, 10:11:40
Alder Lake CPUs funktionieren möglicherweise nicht mit älteren Games, welche DRM nutzen.

https://www.tomshardware.com/news/intel-alder-lake-cpus-may-not-work-with-older-games

Das wäre Fail ^^

Cubitus
2021-10-21, 10:18:44
Och, eventuell kommen mal die DEVs dann auf die Idee DRM zu entfernen, bzw. das lässt sich auch rauspatchen.

Aber erstmal abwarten, was da noch kommen wird.
Noch ist gar nix sicher...

Tralalak
2021-10-21, 10:22:05
Intel Core i9-12900K has a maximum Turbo Boost Max 3.0 frequency of 5.0 GHz

• big Core P-cores Golden Cove 3.6GHz up to 5.0GHz
• LITTLE Atom E-cores Gracemont 2.7GHz up to 3.8GHz
source: https://videocardz.com/newz/intel-core-i9-12900k-retail-cpu-pictured-clocks-confirmed

dildo4u
2021-10-21, 10:56:16
Paar Preise von KM machen alle Sinn imo 300 für i5,500 für i7 und 700 für i9.

https://www.computerbase.de/2021-10/intel-alder-lake-marktstart-finale-core-i9-12900k-und-core-i5-12600k-im-umlauf/

Der Vergleich mit dem 11700k mach imo kein Sinn die Nachfrage ist jetzt deutlich höher als Anfang 2021.AMD ist z.b kaum in der Lage den 5600X unter 300€ zu halten.

WedgeAntilles
2021-10-21, 11:41:23
Wieso Extremfall? Der 12900K ist doch keine Office und casual browsing CPU, das ist ein Highend Modell!

Du kannst halt nicht etwas übertakten, so dass es massig mehr Strom verbraucht, und das dann als "Referenz" nehmen um zu Bewerten ob das Ding an sich was taugt.
Du bist durch die Übertaktung Lichtjahre vom Sweetspot entfernt und pumpst massig mehr Strom rein für sehr überschaubaren Gewinn.

Vermutlich kann ich auch ne 6800XT so übertakten, dass die mehr Strom zieht als die 3080.
Ist dann die 6800XT plötzlich die schlechtere Karte, weil ich es mit Gewalt schaffe die mehr Strom ziehen zu lassen?

Sorry, das ist doch Blödsinn.

Wenn einer sein Zeug so übertakten will ist das legitim - es ist aber nicht legitim ein Produkt auf Basis der Übertaktung zu bewerten.

davidzo
2021-10-21, 13:22:15
Sind die alten MacBooks nicht sogar noch 14nm basiert? Das überrascht mich dann nicht wirklich, dass da Welten dazwischen liegen.

Das war bis vor wenigen Monaten Stand der Technik. Tigerlake-H ist erst seit Ende Mai 2021 verfügbar. Und so groß ist der Unterschied zu 10SF nun auch nicht, CB hat lediglich 27% kombinierte IPC- und Fertigungsverbesserung mesen können (MT): https://www.computerbase.de/2021-07/intel-nuc-11-extreme-beast-canyon-test/2/#abschnitt_leistungsanalyse
Alderlake kommt immerhin auch noch in 10nm, der Rest ist Marketing. Mehr als ein Full-node sprung ist das nicht, noch dazu einer der schlechtesten full node Sprünge der Geschichte.


Wieso sollte Intel nicht mehr als 8 P Cores bringen können? Intel könnte genauso wie AMD 16 P Cores bringen. Nur dann müsste man die halt bei leistungsintensiven Anwendungen etwas niedriger takten. Der 5950X taktet mit Cinebench etc. auch von 5 auf 4 GHz runter.

Der Grund warum Intel das nicht tut ist weil sie einfach keinen riesigen Chip bauen wollen.

Hä? Machen sie doch! W790, Eagle Stream etc. - da kannst du dich drauf verlassen dass da mehr als 8 P-Kerne dabei sind.






Und für genau diese Workstationanwendungen gibt es die Powerlimits, die dann eben den Takt etwas runter regeln. Das ist bei AMD beim 5950X auch nichts Anderes.
Wenn auch wirklich 32 Threads genutzt werden ja dann ist der 5950X als 32 Thread CPU natürlich schneller. Umgekehrt ist bis zu 8 Threads 20% schneller. Muss man halt entscheiden was einem wichtiger ist.

Lol, du widersprichst dir selbst innerhalb von drei Sätzen.
8 Threads sind doch die volle Auslastung der P-Cores, da dürften die von dir erwähnten powerlimits und Takteinbußen doch schon längst greifen. Da bleibt nichts übrig von deinen +20%.
Anders als beim 5950X, der bei 8Cores 4,6Ghz schafft (sogar bei 16T) und sogar noch den höheren baseclock hat trotz 16 P-Kernen.
Da der per Core verbrauch der P-Cores mit 40Watt/Core bei 5,2Ghz anscheinend doppelt so hoch wie bei Zen3 zu sein scheint (5,05Ghz 20Watt/Core) wird der break even bei der MT performance eher schon zwischen 4 und 6 Cores liegen imo.


Das muss nicht unbedingt viel heißen. Die 1.3GHz beziehen sich vermutlich auf AMX. Hierbei werden pro Takt und Kern bis zu 2048 INT8 Matrixmultiplikationen durchgeführt.
Dass dabei natürlich einiges an Energie frei wird sollte klar sein.

Für AVX Load hatte Intel schon bei früheren Generationen eine neue Taktstufe eingeführt die Unterhalb des baseclocks liegt. Das hat man nicht gerne fürs marketing verwendet. Wieso sollte man also jetzt die Prozessoren mit einem gedrosselten Takt bezeichnen der in normalen MT Workloads nie anliegt sondern nur in edge-case szenarien?
Das in der Bezeichnung wird ziemlich sicher der Baseclock sein, nicht AVX512 oder AMX clock. Allerdings sind es eben erst ES, da kann also noch viel passieren.
Ich erwarte eigentlich Baseclocks wie bei Icelake-SP, also zwischen 2 und 2,8Ghz für voll aktivierte DIEs (56C, 350-400W), allcore Boost von 3,0Ghz und 1T von 3,2-3,8Ghz.


Welche 48 Kern Server CPU kommt denn auch nur annähernd auf 3.2 Basis bzw. 4.9 Turbo?

Sorry, missverständlich formuliert. Sind beides Turbo taktraten, die 4,9Ghz sind vom 5950x, dann ist mit aber eingefallen dass SR ja mit Epyc verglichen werden sollte und habe den nebensatz ergänzt "3,2 im server". Das im server bezieht sich also nur auf die 3,2Ghz. Das ist im server nichtmal die maximale turbotaktrate, sondern nur die der populärsten modelle.


Der schnellste Epyc ist meines Wissens der 7763 mit 2.45 Basis und 3.5GHz Turbo.
Es gibt auch noch die frequency optimized SKUs. 75F3, 74F3, 73F3 und 72F3 bringen bis zu 3,7Ghz baseclock und 4,1Ghz Turbo.

Der 72F3 ist ein guter Vorgeschmack auf die V-cache Modelle, bringt er doch 32mb L3 Cache pro Core mit.
Die per Thread Performance ist damit ca. Faktor 2x über dem schnellsten Icelake-SP: https://www.anandtech.com/show/16778/amd-epyc-milan-review-part-2/7
Da helfen auch 20% mehr IPC nicht mehr...




Och, eventuell kommen mal die DEVs dann auf die Idee DRM zu entfernen, bzw. das lässt sich auch rauspatchen.

Aber erstmal abwarten, was da noch kommen wird.
Noch ist gar nix sicher...
:up: Wenn man mal guckt welchen Anteil Licensing-related Bugs und Tasks, bzw. welchen Aufwand die dann verursachen, könnte man sicher mit 30% weniger an Ops-leuten auskommen, ohne diese.
Der ganze Deployment-Thema hängt eigentlich nur am Licensing und sichert damit einer ganzen Berufsgruppe den Arbeitsplatz. Wenn man einfach Block-level copying oder imaging machen könnte, dann wäre das managen von großen Client-anzahlen nicht halb soviel Aufwand.

Intel Core i9-12900K has a maximum Turbo Boost Max 3.0 frequency of 5.0 GHz

• big Core P-cores Golden Cove 3.6GHz up to 5.0GHz
• LITTLE Atom E-cores Gracemont 2.7GHz up to 3.8GHz
source: https://videocardz.com/newz/intel-core-i9-12900k-retail-cpu-pictured-clocks-confirmed

:up: Interesting, that is 200mhz more baseclock than the earlier leaks suggested, but also 200mhz less Turbo (3.4/5.2). :cool:

TurricanM3
2021-10-21, 15:16:12
+31% Singlecore klingt aber schon gut. Bzw. +25% zu meinem 5800X. Wenn nicht alle Kerne ausgelastet sind, geht der Verbrauch auch deutlich runter. Bin schon gespannt wie gut oder schlecht sich Alder Lake kühlen lässt.

Aktueller Stand mit L3 Cache Patch unter Windows 11:

https://i.imgur.com/HcFwVSV.jpg

Fast 1/3 mehr Bumms? :eek: Das klingt fast zu schön um wahr zu sein. :love2:

Linmoum
2021-10-21, 15:55:06
CPU-Z spielt halt nur kaum jemand. ;) Der 11900K hat ja SC dort schon die 700 Punkte gerissen und war schneller als ein 5950X, nur sah es in Spielen dann aber wenig rosig aus.

Bei ADL hat man auch schon sehen können bzw. angedeutet bekommen, dass Anwendungen und Spiele nicht dasselbe sein werden, was Performancezuwachs anbelangt. Zum Nachteil von Spielen.

Lehdro
2021-10-21, 16:00:38
CPU-Z spielt halt nur kaum jemand. ;) Der 11900K hat ja SC dort schon die 700 Punkte gerissen und war schneller als ein 5950X, nur sah es in Spielen dann aber wenig rosig aus.

Bei ADL hat man auch schon sehen können bzw. angedeutet bekommen, dass Anwendungen und Spiele nicht dasselbe sein werden, was Performancezuwachs anbelangt. Zum Nachteil von Spielen.
Nicht vergessen, durch die Kernregression gab es teilweise auch eine Stagnation bei den Anwendungen, da war RKL halt auch nur "gut" (https://www.pugetsystems.com/labs/articles/11th-Gen-Intel-Core-CPU-Review-Roundup-2106/), aber keineswegs überragend.

Synthetische Scores bleiben halt immer häufiger rein theoretische Leistung als das früher der Fall war, von daher sind die sehr kritisch zu bewerten.

aufkrawall
2021-10-21, 16:34:14
CPU-Z spielt halt nur kaum jemand. ;) Der 11900K hat ja SC dort schon die 700 Punkte gerissen und war schneller als ein 5950X, nur sah es in Spielen dann aber wenig rosig aus.

Bei dir klingt das manchmal so, als wär RKL ziemlicher Müll für Spiele. :freak:
Bei Golem ist der 11900K dort unterm Strich trotzdem vorm 5950X. Wir reden hier zwar nur über Kleckerbeträge, aber immerhin. Der 11400 hält bei 10% weniger Takt auch ziemlich mühelos mit dem 5600X mit, sofern RAM/IMC identisch.

Anyhow, bei Spielen hängt es arg am RAM/IMC. Falls ADL wieder CML IMC-Werte schafft, sollte die Spiele-Performance eigentlich gut sein.

Ex3cut3r
2021-10-21, 18:04:26
Typische 3D Center AMD Fraktion. Wie Krawall schon richtig sagt, ist der 11900k oft die schnellste Gaming CPU. KA was immer alle mit Zen 3 haben, welcher Gamer holt sich noch nen Zen 3? Der Zug ist längst abgefahren. Und der 10400f ist momentan die beste Gaming CPU für den Preis. Der 5600X kostet ja leider das doppelte, ist aber nur 10% schneller, tolles Preis Leistungsverhältnis. :freak:

Bitte, nur die 1080p Benches ansehen, da CPU Limit.
IljccxCltaw

r3ptil3
2021-10-21, 18:25:35
Was ist denn mit dir heute wieder los Ex3?

Ryzen 5000 ist nach wie vor die CPU, welche man uneingeschränkt empfehlen kann. Lediglich im Preisbereich von -+150 Euro gibt es nichts von AMD und da ist der 10400f auch heute noch ein sehr guter Deal.

Alder Lake wurde anscheinend schon an einige Vorbesteller versendet:
https://i.imgur.com/UJB1iiB.jpeg

https://www.reddit.com/r/intel/comments/qcszo9/so_i_somehow_got_one_of_these/

matty2580
2021-10-21, 18:32:16
Ich warte schon auf die ersten inoffiziellen Tests im Netz.
Die neuen CPUs sind ja schon bei den Händlern, so dass es viele Schlupflöcher gibt. ^^

r3ptil3
2021-10-21, 18:33:49
An den Boards scheints aber dieses mal noch zu mangeln, obwohl ich erste Listungen schon vor Wochen gesehen haben (ASUS, Gigabyte Z690...). Wurden aber alle wieder entfernt.

Sardaukar.nsn
2021-10-21, 18:46:11
https://i.imgur.com/QOqD0U9.jpg

Versus the AMD Ryzen 9 5950X, the overclocked Intel Core i9-12900K at 5.3 GHz scored a 34% lead in single-core and a 4% lead in the multi-core test.

[...]

The Intel Core i9-12900K CPU consumed an insane 400W of power in the AIDA64 AVX stress test at full load while running at 5.3 GHz (1.44V) and close to 300W in the standard SSE CPU-z test. It is also reported that the AIDA64 stress test only lasted for a minute before the system shuts itself off since the temperatures were out of control even when the radiator was submerged in ice to provide more cooling to the CPU.


Quelle: https://wccftech.com/intel-core-i9-12900k-overclocked-to-5-3-ghz-across-all-cores-with-1-44v-voltage-hits-insane-400w-power-consumption-in-aida64-stress-test/

Ich habe aber etwas Sorge das mein 850 Watt Netzteil doch etwas zu schwach sein könnte. :freak:

aufkrawall
2021-10-21, 18:57:44
Du drehst bei der GPU ja auch nicht das Powertarget extrem weit auf, um in Furmark nicht zu drosseln. Synthetische Stresstests sind quasi egal. Wenigstens hierzu taugt CineBench. Ist nicht am schlimmsten, aber zieht schon ganz gut.

Ex3cut3r
2021-10-21, 19:15:30
Uff, nette SC Leistung, der Stromverbrauch allerdings. Ampere + Alderlake = Schwitzen im Zimmer.

Wers meint schon wieder kaufen zu müssen, viel Spaß, lohnt sich auch voll im GPU Limit. Achja, und nicht vergessen DDR5 kostet auch erstmal 60% mehr als DDR4. Viel Spaß. :up: ;D

https://www.computerbase.de/2021-10/ddr5-speicher-msi-erwartet-50-bis-60-prozent-hoehere-preise-als-bei-ddr4/

Daredevil
2021-10-21, 19:30:37
Da sind die DDR5 Preise beim M1Max ja ein Schnäppchen. ^^
Wie schaut's jetzt aus, wann kommen Mainboards und wann kommt ne gut taktbare 6Core CPU?
Wenn ich da nen Hunni draufzahle und 15-20% mehr Bums bekomme, jage ich den Ryzen auf Ebay.

Ex3cut3r
2021-10-21, 19:34:17
Wieso willst du das tun? Du musst hier niemanden etwas beweisen. Was hast du von 10% mehr bums? Die die im GPU Limit eh nie sehen wirst? Musst du immer das neuste haben? Hast du das Gefühl du verpasst etwas? :confused:

matty2580
2021-10-21, 20:00:21
Lasse ihn doch kaufen was er will....?

Thunder99
2021-10-21, 20:52:19
Würde warten bis der Zen3D kommt und dann entspannt auf die bestehende Plattform aufrüsten :wink:.

Wird aber bestimmt eine nette CPU/Generation mit denn typischen Intel Eigenschaften und eine Prise Risiko, ob es Spielen und Anwendungen schmeckt, insbesondere auf Windows 10 ;D

rentex
2021-10-21, 21:05:37
Was wirklich interessant wird, ist die Leistungsaufnahme ST, MT und Gaming. Viel hilft viel, ist eben keine Kunst.

Nightspider
2021-10-21, 21:10:04
400W Verbrauch bei allen 16 Kernen?

Interessiert mich weniger.

Mich interessiert eher wenn 5-6 große Kerne auf 100% laufen und dazu vielleicht noch ein paar kleine Cores idlen oder mit geringer Last von 20-40% laufen.

Daredevil
2021-10-21, 21:19:30
Wieso willst du das tun? Du musst hier niemanden etwas beweisen. Was hast du von 10% mehr bums? Die die im GPU Limit eh nie sehen wirst? Musst du immer das neuste haben? Hast du das Gefühl du verpasst etwas? :confused:
Ich bin mit der 3090 öfter im CPU Limit, als das du im Forum erwähnst, dass du dir bald eine Konsole kaufst und kein Bock mehr auf GPUs hast.

gedi
2021-10-21, 21:28:36
Wie von Intel gewohnt - Hardwareschrott!

Ex3cut3r
2021-10-21, 21:41:42
Ich bin mit der 3090 öfter im CPU Limit, als das du im Forum erwähnst, dass du dir bald eine Konsole kaufst und kein Bock mehr auf GPUs hast.

Ich denke du zockst in 4k? Welche Spiele sollen das sein? GTA 4? :biggrin:

Aber, ist ja gut, ist dein Geld. Wenn du dadurch irgendwie besser fühlst. Mach weiter so.

FastAndy
2021-10-21, 22:27:47
Aber, ist ja gut, ist dein Geld. Wenn du dadurch irgendwie besser fühlst. Mach weiter so.
Ist schon traurig wie es dir wieder nur darum geht anderen die hardware madig zu machen. Es gibt ja kaum einen thread in dem du nicht negativ auffällst, weil andere sich mehr gönnen als du es kannst.

Hakim
2021-10-21, 22:32:46
Lasst doch jedem sein Spaß, kann doch net so schwer sein? Dieses "ich hole dieses oder mache das und alles die was anderes machen sind blöd" ist so stark ausgeprägt hier

Sardaukar.nsn
2021-10-21, 23:07:34
Ich bin mit der 3090 öfter im CPU Limit, als das du im Forum erwähnst, dass du dir bald eine Konsole kaufst und kein Bock mehr auf GPUs hast.

;D

Bei MMOs traditionell sehr stark ausgeprägt. Aktuelles Beispiel "New World" geht man in einer Stadt bzw. Gebiet mit vielen anderen Spielern ist man quasi sofort im Singlecore CPU Limit. Wenn Alder Lake hier wirklich die 25-30% Steigerung von CPU-Z "auf die Straße" bringt, geht der AMD Unterbau zu eBay. Leistung ist gut, aber war zwischendurch auch ein ziemliches Gefrickel. Gefühlt habe ich hier jetzt schon die 20ste BIOS bzw. AGESA Version, weil immer noch irgendwo was klemmt. Das kenne ich von Intel eigentlich anders.

MSABK
2021-10-21, 23:10:02
Lasst doch jedem sein Spaß, kann doch net so schwer sein? Dieses "ich hole dieses oder mache das und alles die was anderes machen sind blöd" ist so stark ausgeprägt hier

Finde ich auch, vor allem sollten wir froh, dass es mal bissi Konkurrenz gibt und somit Entwicklung am Markt.

iamthebear
2021-10-21, 23:40:42
Das war bis vor wenigen Monaten Stand der Technik. Tigerlake-H ist erst seit Ende Mai 2021 verfügbar. Und so groß ist der Unterschied zu 10SF nun auch nicht, CB hat lediglich 27% kombinierte IPC- und Fertigungsverbesserung mesen können (MT): https://www.computerbase.de/2021-07/intel-nuc-11-extreme-beast-canyon-test/2/#abschnitt_leistungsanalyse
Alderlake kommt immerhin auch noch in 10nm, der Rest ist Marketing. Mehr als ein Full-node sprung ist das nicht, noch dazu einer der schlechtesten full node Sprünge der Geschichte.

Genau es WAR Stand der Technik. Nun sind 10nm (bzw. Intel 7) Stand der Technik.

Auf was du mit den 27% IPC hinaus willst ist mir nicht ganz klar. Ich habe mich hier rein auf die Leistungsaufnahme bezogen.
Apple gibt an, dass 70% weniger Energie benötigen also 3.3x so effizient sind.
Ich schätze 1.5x würde schon einmal 10nm statt 14nm bringen.
Weitere 1.5x lassen sich durch die TSMC 5nm Fertigung erklären (wenn man unterstellt dass Intel 10nm gleichwertig mit TSMC 7nm ist)
Die restlichen 1.5x lassen sich dadurch erklären, dass der M1X einfach mehr Performance hat und somit der Vergleichspunkt nicht an der Kotzgrenze liegt.
Durch Wahl des Bezugspunktes kann man viel manipulieren z.B.:
Ein 11900K mit ca. 4.1GHz und 125W schafft 5000 Punkte bei Cinebench R20
Ein 11700K mit 5GHz schafft auch 5000 Punkte, braucht aber dafür 220W.
Somit hat der 11900K 76% mehr Performance/Watt. Wahnsinn wie sparsam Rocket Lake in Wahrheit ist ;D

Hä? Machen sie doch! W790, Eagle Stream etc. - da kannst du dich drauf verlassen dass da mehr als 8 P-Kerne dabei sind.

Es ging um mehr als 8 Kerne im Desktop

Lol, du widersprichst dir selbst innerhalb von drei Sätzen.
8 Threads sind doch die volle Auslastung der P-Cores, da dürften die von dir erwähnten powerlimits und Takteinbußen doch schon längst greifen. Da bleibt nichts übrig von deinen +20%.

.) Die maximale Auslastung der P Cores sind 16 Threads, nicht 8. Ohne SMT sollten dir 20-30% Verlustleistung wegfallen
.) Die Little Core tun auch nichts. Damit fallen noch mal um die 30% weg (2 Little Cores entsprechen einem Big Core)
.) Software die nur 8 Kerne nutzt verwendet in der Regel auch keine AVX Befehle

Hier mal ein kleiner Vergleich wie sehr der 11700 (K) bei Spielen durch das Powerlimit einbricht:
https://www.computerbase.de/2021-07/intel-core-i7-11700k-amd-ryzen-7-5800x-test/2/#abschnitt_tests_in_spielen_in_drei_aufloesungen

Bei 125W gar nicht
Bei 65W 5%

Ich denke also kaum, dass das unter 10nm mit Alder Lake schlimmer sein wird.

Anders als beim 5950X, der bei 8Cores 4,6Ghz schafft (sogar bei 16T) und sogar noch den höheren baseclock hat trotz 16 P-Kernen.
Da der per Core verbrauch der P-Cores mit 40Watt/Core bei 5,2Ghz anscheinend doppelt so hoch wie bei Zen3 zu sein scheint (5,05Ghz 20Watt/Core) wird der break even bei der MT performance eher schon zwischen 4 und 6 Cores liegen imo.

Dann takte Mal einen Zen 3 auf 6GHz damit er dieselbe Performance eines ADL Cores hat und sag mir ob er dann immer noch 20 Watt verbraucht ;D

Für AVX Load hatte Intel schon bei früheren Generationen eine neue Taktstufe eingeführt die Unterhalb des baseclocks liegt. Das hat man nicht gerne fürs marketing verwendet. Wieso sollte man also jetzt die Prozessoren mit einem gedrosselten Takt bezeichnen der in normalen MT Workloads nie anliegt sondern nur in edge-case szenarien?
Das in der Bezeichnung wird ziemlich sicher der Baseclock sein, nicht AVX512 oder AMX clock. Allerdings sind es eben erst ES, da kann also noch viel passieren.

Das war vielleicht einmal zu Haswell Zeiten so. Also ich kann dir sagen meinen 9900K bekomme ich nicht einmal mit AVX (z.B. Prime95) auch nur annähernd in die Nähe des Baseclocks runter wenn ich die 95W erzwinge.

Ich erwarte eigentlich Baseclocks wie bei Icelake-SP, also zwischen 2 und 2,8Ghz für voll aktivierte DIEs (56C, 350-400W), allcore Boost von 3,0Ghz und 1T von 3,2-3,8Ghz.

Für die real anliegenden Taktraten halte ich das schon für realistisch. Der Basistakt ist ja mehr ein theoretischer Wert. Wer weiß ob sich dieser mit x86 Code überhaupt erzeugen lässt.

Der 72F3 ist ein guter Vorgeschmack auf die V-cache Modelle, bringt er doch 32mb L3 Cache pro Core mit.
Die per Thread Performance ist damit ca. Faktor 2x über dem schnellsten Icelake-SP: https://www.anandtech.com/show/16778/amd-epyc-milan-review-part-2/7
Da helfen auch 20% mehr IPC nicht mehr...

So wie ich das sehe bekommt AMD einfach 60% mehr Kerne pro Sockel unter bei selber Performance/Kern. AMD hat hier echte Chancen in bestimmten Bereichen wie dem Supercomputing weiter Marktanteile zu gewinnen, was auch wichtig ist, denn das bringt den fetten Gewinn und sichert langfristig die Existenz auch wenn einmal wieder eine Generation in die Hose geht (siehe Bulldozer).

Es ist jetzt aber nicht so, dass Intel nun deshalb Konkurs anmelden müsste. Für 60-70% der Server ist die CPU Performance sekundär, da hier in erster Linie Stabilität und Zuverlässigkeit zählt bzw. auf der Performanceseite Storage und Netzwerkanbindung. Da kann die AMD 10 Mal so schnell sein wird weiter Intel gekauft weil sich das einfach bewährt hat und jede Stunde Downtime ein Vielfaches mehr kostet als wenn man ein paar Server mehr aufstellt. Hier kann AMD frühestens in 5 Jahren mitreden.

An den Boards scheints aber dieses mal noch zu mangeln, obwohl ich erste Listungen schon vor Wochen gesehen haben (ASUS, Gigabyte Z690...). Wurden aber alle wieder entfernt.

Das wundert mich relativ wenig. Diesmal gibt es ja wirklich mehr als genug neue Technologien, die man testen muss bzw. die eventuell schief gehen können:
.) DDR5 UND DDR4 im Portfolio
.) PCIe 5.0
.) Big/Little
.) Ein paar Änderungen am Boostverhalten (glaube mehr PL4), was das Board elektrisch auch mitmachen muss (wer kann sich noch an die MLCC Sache von Ampere erinnern)
.) Windows 11 inkl. entsprechende Treiber + Tools

Da will glaube ich jeder Boardhersteller und OEM etwas Zeit haben das Ganze in Ruhe zu testen und so schnell improvisieren geht in Zeiten kaputter Lieferketten auch nicht.

Bei Rocket Lake war es hingegen so, dass jeder der eine CPU in die Finger bekommen hat diese einfach in sein bestehendes Board stöpseln konnte und daheim im Wohnzimmer ein paar Benchmarks anwerfen konnte.

w0mbat
2021-10-21, 23:47:39
Genau es WAR Stand der Technik. Nun sind 10nm (bzw. Intel 7) Stand der Technik.
Du weißt ganz genau, dass diese Aussage falsch ist. Wieso tätigst du sie dann? :confused:

Lowkey
2021-10-21, 23:53:31
Angenommen die ersten Benchmarks bescheinigem Alderlake ein Comeback von Intel. Wird Intel in allen Bereichen, also Apps, Games und Stromverbrauch einen gleichteuren oder gleichgestellten Zen 3 schlagen?

Dann muss man auch direkt zuschlagen, denn die Intel CPUs der ersten Woche haben die höchste Chance auf gute Qualität. Nur sind dann Speicher und Mainboard in gewünschter Ausführung überhaupt lieferbar und stimmt dann noch P/L? Vielleicht follt 2 Wochen nach Release auch wieder eine Cashback Aktion diverser Mainboardhersteller und nach 4 Wochen kommen die schnelleren DDR5 Module auf den Markt.

Die Formel lautet: 1000 / Taktrate in MHz * 2 * Timing.

Der hier gilt als schnell. (https://www.computerbase.de/2021-10/schneller-geht-immer-g.skill-schiebt-schnellen-ddr5-6600-cl36-nach/) Das sind aber 10,9ns. Ein aktueller DDR4-3200 CL14 liegt bei 8,75ns, der bessere, neue DDR4-4000 CL14 bei 7ns.

Wird dann vorläufig DDR4 der P/L Tipp und am Ende auch der Performance Tipp gerade für Gamer?

Angenommen man bekommt die drei Teile. Was erwartet einen User dann? Selbst der Wechsel von z87 auf z97 oder z170 auf z270 hatte 3-4 Monate Bios Updates zur Folge. Zen 3 ist nach einem Jahr immer noch nicht ganz rund (Windows 11 Bug, USB Bug, WHEAs). Als Besitzer eines Alderlake Systems darf man mit Sicherheit um die 9 Monate bis zum finalen Bios rechnen.

Und vllt erleben wir wieder eine Rückrufaktion wie bei AMDs neuer Zen1 Plattform oder damals mit dem neuen P67 Chipsatz von Intel.

Dann kommen die günstigen Teile erst Anfang 2022 (vermutete P/L Sieger für Gamer) und schließlich Zen3+, was auf den relativ stabilen AM4 Plattformen für einige Leistungssprünge sorgt (AMD wird mit der Zeit in Sachen Fertigung und Qualität besser).


Ich bin aber natürlich auch gespannt wie gut man mittels DDR5 die iGPU übertakten kann. Dort erwarte ich neue Rekordwerte und vllt eine Alternative zu den APUs, wenn auch extra teuer. DDR5 beseitigt den Flaschenhals.


PS: ob New World mit 60fps oder 70fps im CPU Limit läuft spielt am Ende absolut keine Rolle. Schließlich ist die Stadt nicht relevant für das Spielerlebnis, da dort kein PVP stattfindet.

iamthebear
2021-10-22, 01:34:01
Du weißt ganz genau, dass diese Aussage falsch ist. Wieso tätigst du sie dann? :confused:

Willst du trollen?
Hast du meinen Post falsch verstanden?

.) Intel liefert bereits mehr 10nm CPUs aus als 14nm
.) Die 9. Generation von Intel hat mittlerweile 2 Nachfolgergenerationen. Selbst wenn man Ice Lake mangels 8 Kerner nicht zählt aber Tiger Lake ist defitiv ein vollständiges Lineup

Wieso sollte also eine alte 14nm CPU der 9. Generation als "Stand der Technik" angesehen werden.
Das ist so als würde man Alder Lake gegen Zen+ (12nm GloFo) antreten lassen und sich dann wundern warum der so weit vorne ist.

Angenommen die ersten Benchmarks bescheinigem Alderlake ein Comeback von Intel. Wird Intel in allen Bereichen, also Apps, Games und Stromverbrauch einen gleichteuren oder gleichgestellten Zen 3 schlagen?

.) Spiele wissen wir nicht aber höchstwahrscheinlich ja
.) Apps wird ein 5950X schneller sein. Die Frage ist ob ihn AMD auf 700 Euro belässt oder auf ca. 550 senkt um mit dem 12900K gleich zu ziehen.
.) Stromverbrauch: Wird davon abhängen wie hoch das Powerlimit eingestellt ist bzw. welche CPU man kauft.

Dann muss man auch direkt zuschlagen, denn die Intel CPUs der ersten Woche haben die höchste Chance auf gute Qualität. Nur sind dann Speicher und Mainboard in gewünschter Ausführung überhaupt lieferbar und stimmt dann noch P/L? Vielleicht follt 2 Wochen nach Release auch wieder eine Cashback Aktion diverser Mainboardhersteller und nach 4 Wochen kommen die schnelleren DDR5 Module auf den Markt.

Also ob ein frühes Sample wirklich besser ist als ein späteres bezweifle ich mal. Bei den Einsteiger CPUs wenn es noch kein Binning gibt möglicherweise aber bei einem 12900K denke ich eher nicht.

Aus Erfahrung kann ich jedoch sagen:
Wenn man ein stabiles System haben will, dann sollte man generell nichts 1-2 Wochen nach Release kaufen. Da ist die Chance auf Montagsgeräte deutlich höher und nicht für alles gibt es einen Rückruf.

Die Formel lautet: 1000 / Taktrate in MHz * 2 * Timing.

Der hier gilt als schnell. (https://www.computerbase.de/2021-10/schneller-geht-immer-g.skill-schiebt-schnellen-ddr5-6600-cl36-nach/) Das sind aber 10,9ns. Ein aktueller DDR4-3200 CL14 liegt bei 8,75ns, der bessere, neue DDR4-4000 CL14 bei 7ns.

Wird dann vorläufig DDR4 der P/L Tipp und am Ende auch der Performance Tipp gerade für Gamer?

Ich würde sagen: Warte auf die Reviews. Ob DDDR4 oder DDR5 bei Spielen schneller sein werden kann derzeit niemand sagen.

Angenommen man bekommt die drei Teile. Was erwartet einen User dann? Selbst der Wechsel von z87 auf z97 oder z170 auf z270 hatte 3-4 Monate Bios Updates zur Folge. Zen 3 ist nach einem Jahr immer noch nicht ganz rund (Windows 11 Bug, USB Bug, WHEAs). Als Besitzer eines Alderlake Systems darf man mit Sicherheit um die 9 Monate bis zum finalen Bios rechnen.

Das kommt darauf an welche Ansprüche du hast.
Für meinen eigenen PC sind 1-2 Monate nach Release ausreichend. Kleinere Softwarebugs sind ja noch per BIoS Update fixbar.
Für Home PCs andere Leute (keine Hobbyschrauber): Besser 6 Monate warten auf jeden Fall auf die B/H Chipsätze
Business stabil: Vielleicht nach 1 Jahr?
Industrie stabil: Weiß nicht. Am Besten in 5 Jahren noch einmal ansehen. Dann kann man vielleicht schon was sagen. Bis dahin weiter Sandy Bridge kaufen :freak:

Ich bin aber natürlich auch gespannt wie gut man mittels DDR5 die iGPU übertakten kann. Dort erwarte ich neue Rekordwerte und vllt eine Alternative zu den APUs, wenn auch extra teuer. DDR5 beseitigt den Flaschenhals.

Ich besorg mal das Flüssighelium. Die GTX 1030 könnten wir schlagen ;D

PS: ob New World mit 60fps oder 70fps im CPU Limit läuft spielt am Ende absolut keine Rolle. Schließlich ist die Stadt nicht relevant für das Spielerlebnis, da dort kein PVP stattfindet.

CPUs kauft man generell nicht für die Spiele, die man gerade spielt sondern für diejenigen, die man in 5 Jahren spielt denn das ist der Punkt an dem sich entscheidet, ob man eine neue CPU braucht oder nicht. Solange die CPU spielbare Frameraten erzeugt ist alles OK.

Rolsch
2021-10-22, 07:43:12
Gibts schon was über die Performance bei Spielen? Ein hoher Singlecore Wert ist ja für moderne Spiele genauso wertlos wie Allcore, die Mischung machts.

dildo4u
2021-10-22, 08:03:06
Da kann man selbst mit finaler Hardware keine Aussagen machen da die CPU DDR4 und 5 unterstüzt.
Es ist nicht mal klar was für Kits man im November bekommt, es werden ständig neue vorgstell bis zu 6600 CL36 was dann aber lieferbar ist ist eine andere Sache.

https://www.computerbase.de/2021-10/schneller-geht-immer-g.skill-schiebt-schnellen-ddr5-6600-cl36-nach/

HOT
2021-10-22, 09:26:23
Da kann man selbst mit finaler Hardware keine Aussagen machen da die CPU DDR4 und 5 unterstüzt.
Es ist nicht mal klar was für Kits man im November bekommt, es werden ständig neue vorgstell bis zu 6600 CL36 was dann aber lieferbar ist ist eine andere Sache.

https://www.computerbase.de/2021-10/schneller-geht-immer-g.skill-schiebt-schnellen-ddr5-6600-cl36-nach/
Na klar, liegt am RAM :freak:.

So ein Unsinn.

WedgeAntilles
2021-10-22, 09:37:01
Gibts schon was über die Performance bei Spielen? Ein hoher Singlecore Wert ist ja für moderne Spiele genauso wertlos wie Allcore, die Mischung machts.
Nein, es gibt noch keine Infos für die Performance bei Spielen.
Jedenfalls nichts, das auch nur im entferntesten das Adjektiv "belastbar" trägt.

Nächste Woche Mittwoch oder Donnerstag wird Intel AL vorstellen und bekanntgeben - ich bezweifle inzwischen, dass wir vorher irgendwelche gute Spiele-Leaks bekommen.

Und nein, das lässt weder gutes noch böses für die Performance vermuten.
Bei RL GAB es nämlcih schon vorab Leaks, die die wenig beeindruckende Gamingperformance geleakt hat.
https://www.youtube.com/watch?v=xLyQwCnyAME

Hier wird ja gerne verbreitet, da es keine Leaks gibt wäre die Performance mies.
Stimmt aber eben nicht, siehe RL - nur weil die Performance schwach ist bedeutet das nicht zwingend keine Leaks.

Das Fehlen von Gamingleaks sagt also absolut gar nichts aus, weder positiv noch negativ.

HOT
2021-10-22, 09:51:54
Wäre die Gamingperformance spektakulär, wäre sie längst geleakt. Nur weil es vor RKL vereinzelt Leaks gab, heißt das doch nicht, dass ADL jetzt tolle Gaming-Performance hat. Den Stund muss man im Gehirn er mal hinbekommen :freak:.
Ich gehe schon davon aus, dass ADL vorerst auch bei Games die Führung übernimmt (bei DDR4 und 5 :freak:), weil er mehr IPC hat und mit Cache überholt, jedoch der Rückschlag mit den VCache-Varianten kommen wird, da Cache bei Games schlichtweg mehr Einfluss hat als IPC.

WedgeAntilles
2021-10-22, 10:00:59
Wäre die Gamingperformance spektakulär, wäre sie längst geleakt. Nur weil es vor RKL vereinzelt Leaks gab, heißt das doch nicht, dass ADL jetzt tolle Gaming-Performance hat. Den Stund muss man im Gehirn er mal hinbekommen :freak:.
.
Dude, LIEST du überhaupt was ich schreibe?
Teilweise heißt es: Es gibt keine Leaks = scheiß Performance.
Und das stimmt eben nicht - auch wenn die Performance schwach ist kann es Leaks geben.
Würde Intel mit seiner Macht schlechte Leaks unterbinden hätte es das auch bei RL gemacht.
Das es keine Leaks gibt bedetuet exakt gar nichts - weder positiv noch negativ.

Woher genau aus meinem Posting entnimmst du, das ADL tolle Gaming-Performance hat.
Ich habe MEHRFACH geschrieben, dass es weder positiv noch negativ ist.

Vielleicht sollte ich anfangen Englisch zu schreiben.
Oder Französisch oder sonstwas.
Deutsch scheint ja offensichtlich viele hier zu überfordern.

Linmoum
2021-10-22, 10:04:19
https://videocardz.com/newz/galaxy-publishes-first-benchmark-results-of-its-ddr5-4800-gamer-rgb-memory

That latency. Das dürfte auch mit höherem Takt und schärferen Timings ggü. DDR4 hart abstinken. Sofern es nicht sowieso nach oben hin Stabilitätsprobleme mit gibt.

WedgeAntilles
2021-10-22, 10:08:07
https://videocardz.com/newz/galaxy-publishes-first-benchmark-results-of-its-ddr5-4800-gamer-rgb-memory

That latency. Das dürfte auch mit höherem Takt und schärferen Timings ggü. DDR4 hart abstinken. Sofern es nicht sowieso nach oben hin Stabilitätsprobleme mit gibt.
Und nicht zu vergessen der hohe Preis für DDR5.
DDR4 wird wohl für Gamer erste Wahl bleiben, DDR4 dürfte ein deutlich besseres Preis-Leistungs-Verhältnis haben.

Ok, das ist jetzt nicht überraschend wenn es so kommt - war ja früher auch schon so.

Ist das ein Problem? Nein, neue Technik ist am Anfang oft "zu teuer" und noch nicht Leistungsstark genug gegenüber dem zig Jahre optimierten Vorgänger.
1 Jahr später sieht es dann anders aus.
Und 2-3 Jahre später ist die neue Technik der Alten meilenweit voraus.

Linmoum
2021-10-22, 10:14:12
Die Frage ist IMO eher, ob das jetzt wirklich an DDR5 selbst liegt, oder am von ICL übernommenen IMC, der ja seit RKL auch im Desktop genutzt wird.

Lowkey
2021-10-22, 10:36:23
Ich bin ja auf die Gskill DDR5 OMEGA (fiktiver Name) gespannt.



W
Also ob ein frühes Sample wirklich besser ist als ein späteres bezweifle ich mal. Bei den Einsteiger CPUs wenn es noch kein Binning gibt möglicherweise aber bei einem 12900K denke ich eher nicht.

Aus Erfahrung kann ich jedoch sagen:
Wenn man ein stabiles System haben will, dann sollte man generell nichts 1-2 Wochen nach Release kaufen. Da ist die Chance auf Montagsgeräte deutlich höher und nicht für alles gibt es einen Rückruf.



Ich würde sagen: Warte auf die Reviews. Ob DDDR4 oder DDR5 bei Spielen schneller sein werden kann derzeit niemand sagen.


Der Hybridmode bei DDR3/DDR4 war gut um Geld zu sparen, aber nicht die Performancekrönung.

Seit Sandybridge ist in den OC Foren immer die Suche nach den besten Codes. Eine CPU der ersten Woche(n) hatte meist den besten Code und danach folgten immer mal Fertigungsprobleme oder Lieferprobleme. Intel senkt dann einfach die Specs (mehr Vcore) und liefert. MB Hersteller liefern meist erst nach Monaten neue Boards in Rev 2.0, die nicht unbedingt besser oder fehlerfrei sein müssen. Das gilt bei CPUs nur bei Intel. Bei AMD waren CPUs mit neuerem Datum immer eine Idee besser, was AMD dann in den XT Modellen umgesetzt hat.

Wer kaufen will, der sollte schnell zuschlagen.

r3ptil3
2021-10-22, 10:42:17
Und nicht zu vergessen der hohe Preis für DDR5.
DDR4 wird wohl für Gamer erste Wahl bleiben, DDR4 dürfte ein deutlich besseres Preis-Leistungs-Verhältnis haben.

Ok, das ist jetzt nicht überraschend wenn es so kommt - war ja früher auch schon so.

Ist das ein Problem?

Es ist insofern ein Problem, da die richtig guten Boards alle auf DDR5 setzen.

TurricanM3
2021-10-22, 14:49:08
Jemand was vom Z690 Apex gehört?

Dr. Lloyd
2021-10-22, 14:57:39
Direkt bei Amazon Deutschland ist der Intel Core i9-12900K bereits mit einem Mondpreis gelistet. Ich verlinke hier dennoch auf Geizhals.de:

https://geizhals.de/intel-core-i9-12900k-bx8071512900k-a2613475.html

Vorbestellen kann man das Produkt jedoch noch nicht.

Dr. Lloyd
2021-10-22, 15:28:14
Zudem bereits erste Gaming-Benchmarks gegen den 5950X:

https://youtu.be/PZ2cgSI94dE

Sehe gerade, das Video ist bereits 2 Tage alt. Der Typ hat noch weitere Benchmarks, auch zu i5 und i7 von Alder Lake:

https://m.youtube.com/channel/UCaBj0YOz1hVLKUaBt9evDdQ/videos

aufkrawall
2021-10-22, 15:35:04
Zudem bereits erste Gaming-Benchmarks gegen den 5950X:

https://youtu.be/PZ2cgSI94dE

Sehe gerade, das Video ist bereits 2 Tage alt.
GPU-Auslastung in beiden Spalten ~immer auf ~99%, mal wieder ein echter Genie-Streich. ;D

WedgeAntilles
2021-10-22, 15:40:25
1440p auf Ultra mit ner 3080.
Mh, wo wird da wohl der Flaschenhals sein.
CPU oder GPU? Seeeehr schwere Frage... ;D

Die gelisteten Preise sind Platzhalter, relevant werden die Preise erst in einer Woche.
Generell werden Platzhalterpreise immer auch zu hoch angesetzt.

TurricanM3
2021-10-22, 16:00:23
Glaubt ihr wirklich die Videos sind authentisch? Für mich sind das einfach nur frische clickbait Accounts mit irgendwelchen fake Werten, wie jedes mal.

aufkrawall
2021-10-22, 16:04:09
Vermutlich, die im Overlay enhaltenen Daten sind ja auch ein Witz.

r3ptil3
2021-10-22, 16:45:57
Zudem bereits erste Gaming-Benchmarks gegen den 5950X:

https://youtu.be/PZ2cgSI94dE

Sehe gerade, das Video ist bereits 2 Tage alt. Der Typ hat noch weitere Benchmarks, auch zu i5 und i7 von Alder Lake:

https://m.youtube.com/channel/UCaBj0YOz1hVLKUaBt9evDdQ/videos

Das ist wohl die gleiche CPU, die da getestet wird (5950x). Auslastung, Temp etc. weisen daraufhin.

Das Plus an Performance könnte durch einfache Settings entstehen.

Linmoum
2021-10-22, 16:50:21
Solche Videos gibt's vor jedem solcher Launches, egal ob jetzt GPUs oder CPUs. Wenn es natürlich möglich ist. Überlegt mal, warum es das bei RDNA2 aber z.B. nicht gab. Die hohen Taktraten im 2GHz-Bereich konnte man natürlich schlecht faken, weil es keine erhältlichen GPUs gab, die das annähernd konnten. ;)


Das sind immer irgendwelche Trolle die geil auf Klicks sind und diese dann auch bekommen.

monstar-x
2021-10-22, 17:01:26
Das ist wohl die gleiche CPU, die da getestet wird (5950x). Auslastung, Temp etc. weisen daraufhin.

Das Plus an Performance könnte durch einfache Settings entstehen.

Klar ist es die selbe CPU (wird wohl nicht mal eine 5950X sein).
4Ghz vs 3.2Ghz und schon haste die selben Werte :-)

Ein Witz das Video.

r3ptil3
2021-10-22, 17:11:33
Jemand was vom Z690 Apex gehört?

Apex, Formula, Extreme... alles DDR5 only.

TurricanM3
2021-10-22, 18:08:48
Apex, Formula, Extreme... alles DDR5 only.

Ich gehe einfach mal davon aus, dass das auch schneller ist und daher alles andere kaum Sinn machen würde. Ich will dann sicher kein DDR4 mehr.
Ich finde aber nicht mal Pics. Sieht mau aus aktuell.

BlacKi
2021-10-22, 18:40:36
Ich gehe einfach mal davon aus, dass das auch schneller ist und daher alles andere kaum Sinn machen würde.


how dare you! ;D

iamthebear
2021-10-22, 19:55:54
Einfach mal seine anderen Videos ansehen. Wenn jemand nur solche Vergleichsvideos ohne Content hat ist es eindeutig ein Fake

BlacKi
2021-10-22, 22:07:53
apex
https://cdn.videocardz.com/1/2021/10/ASUS-Z690-ROG-MAXIMUS-APEX-1_videocardz.jpg


https://videocardz.com/newz/asus-rog-maximus-z690-extreme-formula-apex-hero-and-other-alder-lake-s-motherboards-pictured

r3ptil3
2021-10-22, 22:22:34
Ist eigentlich in Zeiten des des synchronen Taktes zwischen Speichercontroller und RAM, ein solches Board überhaupt noch von Vorteil?

y33H@
2021-10-22, 22:50:47
Wie meinen?

Slipknot79
2021-10-22, 23:01:16
Ist eigentlich in Zeiten des des synchronen Taktes zwischen Speichercontroller und RAM, ein solches Board überhaupt noch von Vorteil?


OC ist seit vielen Generationen tot, son Mobo ist überhaupt kein Vorteil außer vllt für LN2-shice. :wink:

gedi
2021-10-22, 23:42:32
1440p auf Ultra mit ner 3080.
Mh, wo wird da wohl der Flaschenhals sein.
CPU oder GPU? Seeeehr schwere Frage... ;D

Die gelisteten Preise sind Platzhalter, relevant werden die Preise erst in einer Woche.
Generell werden Platzhalterpreise immer auch zu hoch angesetzt.

OMG, klar benche ich mit einer 3080 in 720p :freak: Wie schnell da die CPU ist, interessiert doch wirklich keine Sau, außer die blauen Vollpfosten.

BlacKi
2021-10-22, 23:59:48
OMG, klar benche ich mit einer 3080 in 720p :freak: Wie schnell da die CPU ist, interessiert doch wirklich keine Sau, außer die blauen Vollpfosten.not again... schzwar markiert ist falsch

r3ptil3
2021-10-23, 00:41:20
Wie meinen?



3733Mhz (SC/RAM) war bei Rocket Lake, soweit ich mich richtig erinnere, das Maximum an Takt.

Edit: Die Aussage machte jetzt keinen Sinn.
Es wird davon abhängen wie sich der Speichercontroller verhält.


@Slipknot79

Ist so... höchstens RAM Timings und ein bisschen RAM OC könnten da noch einen Unterschied machen.

Bei B550/X570S achte ich auch nur noch auf den maximalen IF Clock (1:1) und dem möglichen RAM Takt/Timings. CPU OC fasse ich nicht mal an, ausser die generelle Optimierung mittels Curve Optimizer.

Nightspider
2021-10-23, 01:27:17
OMG, klar benche ich mit einer 3080 in 720p :freak: Wie schnell da die CPU ist, interessiert doch wirklich keine Sau, außer die blauen Vollpfosten.

Man benchmarked CPUs halt im CPU Limit, also in 720p.

Anders kann man die CPU Leistung gar nicht in Relation setzen.

Das wird bei AMD und Intel gemacht. Wer das anders sieht hat keine Ahnung.

Leonidas
2021-10-23, 04:28:48
Zudem bereits erste Gaming-Benchmarks gegen den 5950X:
https://youtu.be/PZ2cgSI94dE
Sehe gerade, das Video ist bereits 2 Tage alt. Der Typ hat noch weitere Benchmarks, auch zu i5 und i7 von Alder Lake:
https://m.youtube.com/channel/UCaBj0YOz1hVLKUaBt9evDdQ/videos

Vorsichtig. Es springen auf YouTube einige herum, die zeigen Benchmarks von HW, die sie gar nicht real haben. So lange da keiner die CPU in die Kamera hält, kann man das nicht für wahr nehmen.

PS: Sorry, wurde schon erwähnt.

Dr. Lloyd
2021-10-23, 07:23:54
Ja, ich glaube inzwischen auch, dass es sich hier um Fake-Benchmarks handelt. Sorry, dass ich die hier gepostet habe. In meiner Euphorie bzgl. des baldigen Releases von Alder Lake habe ich die Videos und den dazugehörigen Account nicht angemessen kritisch hinterfragt.

Rolsch
2021-10-23, 07:34:43
Ja, ich glaube inzwischen auch, dass es sich hier um Fake-Benchmarks handelt. Sorry, dass ich die hier gepostet habe. In meiner Euphorie bzgl. des baldigen Releases von Alder Lake habe ich die Videos und den dazugehörigen Account nicht angemessen kritisch hinterfragt.

Man wird sehen, die Werte der ganzen anderen Videos scheinen auf den ersten Blick durchaus plausibel.

M4xw0lf
2021-10-23, 09:14:02
669 USD für den 12900k laut videocardz. Wenns stimmt sieht Intel sich wohl weiter hinter dem 5950x.

dildo4u
2021-10-23, 09:38:41
Kommt drauf an für was du ihn kaufst Gameing sollte massiv besser gehen schon alleine da es diesmal zum Launch nicht nur das absolute Minimum an DDR5 gibt.


Availability & Specifications
Trident Z5 and Trident Z5 RGB DDR5 memory kits will be available via G.SKILL worldwide distribution partners by November 2021. See below for a table of memory specifications available at launch for the Trident Z5 family.

https://www.gskill.com/community/1502239313/1634179023/G.SKILL-Announces-Flagship-Trident-Z5-Family-DDR5-Memory

BlacKi
2021-10-23, 09:49:58
669 USD für den 12900k laut videocardz. Wenns stimmt sieht Intel sich wohl weiter hinter dem 5950x.


ist ja auch so. auch die leaks zeigen das der stock 12900k im multithreading langsamer wird als der 5950x.:frown:


nur würde ich das nicht aufs gaming übertragen:biggrin:

Linmoum
2021-10-23, 10:14:31
Sie werden jetzt sowieso gerade bei den High-End-Modellen noch mitnehmen, was geht. Müssen sie zwangsläufig auch, denn in wenigen Monaten kommt schon die Cache-Übermacht der Konkurrenz. Und Spiele lieben mehr Cache bekanntlich extrem.

=Floi=
2021-10-23, 10:17:13
ist ja auch so. auch die leaks zeigen das der stock 12900k im multithreading langsamer wird als der 5950x.:frown:
:

Alderlake ist margenoptimiert vorm herrn. die kleinen cores erhöhen nur die marge und verarschen die kunden. Dank des offenem powerbudgets gehen die so ab, ansonsten sind es keine vollwertigen cores zum vollen preis. Marketing in reinstkultur. Dafür den vollen preis zu verlangen ist schon absurd.

Matrix316
2021-10-23, 11:04:03
10 FPS mehr beim 12900K im Vergleich zum 5900X in 1440p und Ultra Details in Cyberpunk... :uponder:

BlacKi
2021-10-23, 11:18:47
Alderlake ist margenoptimiert vorm herrn. die kleinen cores erhöhen nur die marge und verarschen die kunden. Dank des offenem powerbudgets gehen die so ab, ansonsten sind es keine vollwertigen cores zum vollen preis. Marketing in reinstkultur. Dafür den vollen preis zu verlangen ist schon absurd.


das macht kein sinn. denn die littlecores helfen das p/w verhältnis zu verbessern. dort, wo intel probleme hat mit ihren big cores. zusätzlich eben sind sie günstiger herzustellen als full big cores, aber dafür ist intel eben auch günstiger, als wenn man wirklich full big cores bringt, welche eine schlechtere leistung erbringen würden, wenn eben verbrauchslimitiert.


das big little konzept ist ein win win, für konsumenten in form von mehr leistung(im verbrauchslimit) und für den hersteller, der konkurenzfähigere preis machen kann.

dildo4u
2021-10-23, 11:31:54
Kundenfreudlich wäre es wenn man nicht für die kleinen Cores bezahlen müsste es gibt z.b kein reinen 8 Core für 400€.
Das machen sie nur im Low End, spricht technisch natürlich nix dagegen.

Der_Korken
2021-10-23, 11:39:27
https://videocardz.com/newz/galaxy-publishes-first-benchmark-results-of-its-ddr5-4800-gamer-rgb-memory

That latency. Das dürfte auch mit höherem Takt und schärferen Timings ggü. DDR4 hart abstinken. Sofern es nicht sowieso nach oben hin Stabilitätsprobleme mit gibt.

Kurz überschlagen: 86ns RAM-Latenz. Gehen wir mal von 11ns für den L3 aus, macht das 75ns vom L3 bis zum RAM. CL36 ist etwas, was man eher von 7200MT/s erwarten würden, also 50% höherer Takt als angegeben. Das wäre das gleiche Verhältnis wie DDR4 3200 und CL16 bzw. 3600 und CL18. Angenommen der RAM und der IMC lassen sich ohne weitere Regressionen um diese 50% übertakten. Dann müsste die Latenz um 1/3 sinken, also um 25ns. Zusammen mit der L3-Latenz wäre man dann bei 61ns. Das wäre immerhin Zen 3 Niveau. An die Sub-50er Latenzen der Skylake-Riege wird man wohl nicht mehr rankommen.

r3ptil3
2021-10-23, 11:50:11
Sie werden jetzt sowieso gerade bei den High-End-Modellen noch mitnehmen, was geht. Müssen sie zwangsläufig auch, denn in wenigen Monaten kommt schon die Cache-Übermacht der Konkurrenz. Und Spiele lieben mehr Cache bekanntlich extrem.


Die Frage ist doch, wieso hat AMD es nötig ein solches Cache-Modell für die beiden High-End-Modelle (5900X/5950X) zu bringen, wenn doch im selben Jahr bereits die Nachfolgegeneration kommt?

Dass man bspw. CPU-Z Werte nicht überbewerten sollte, sieht man ja am 11900k, jedoch ist der Performancezuwachs bei Alder Lake so hoch, dass man da von etwas sehr starkem ausgehen kann.

Bei den Vcache-Modellen interessieren mich mehr bessere Eigenschaften der CPU selber (IF Clock und Curve Optimizer Fähigkeit) als der VCache selber, der seine Vorteile ja nachweislich nur in selektierten Titeln ausspielen kann.

BlacKi
2021-10-23, 11:50:20
Kundenfreudlich wäre es wenn man nicht für die kleinen Cores bezahlen müsste es gibt z.b kein reinen 8 Core für 400€.
Das machen sie nur im Low End, spricht technisch natürlich nix dagegen.macht das überhaupt sinn? wieviel prozent belegen denn die 8 littlecores des gesammten dies? 5-10%? ich glaube intel sieht darin einfach nur keinen sinn. denn ich denke die masse würde schlichtweg lieber einen 12c20t für 400 kaufen, der schneller ist als einen 8c16t für 380-390€.


er hätte schlicht keinen markt. der 12900k bietet halt gebinnte Dies und eben die vollen 8+8. deshalb auch der preis.

Zusammen mit der L3-Latenz wäre man dann bei 61ns. Das wäre immerhin Zen 3 Niveau. An die Sub-50er Latenzen der Skylake-Riege wird man wohl nicht mehr rankommen.das ist der punkt, da heult man rum wegen den latenzen, obwohl man wie bei amd sieht, auch mit hohen latenzen gute performance rumkommen kann. wer sagt denn bitteschön, das man mit ddr4 und alderlake 35-40er latenzen hinbekommt?

war da nicht auch was mit verschiedenen ringbus änderungen?

dildo4u
2021-10-23, 11:53:33
Klar macht es Sinn es gibt bestimmt Dies wo die kleinen Cores kaputt sind, Intel macht das ja schon mit der IGP einfach mal -50€ für was man nicht nutzt ist imo nicht schlecht.

davidzo
2021-10-23, 11:56:21
Auf was du mit den 27% IPC hinaus willst ist mir nicht ganz klar. Ich habe mich hier rein auf die Leistungsaufnahme bezogen.


Lesen ist nicht deine Stärke, he?
Das ist ein vergleich 65W gegen 65W, das hat also nichts mit IPC, sondern nur mit Leistungsaufnahme bzw. Leistungszuwachs bei festem Verbrauch zutun, also genau das worum es ging.
Oder willst du mir erklären dass eine neue 65W CPU von Intel unter Last weniger verbraucht als eine Alte?



Es ging um mehr als 8 Kerne im Desktop

Deswegen heißt es ja HEDT = High End DeskTop



Das war vielleicht einmal zu Haswell Zeiten so. Also ich kann dir sagen meinen 9900K bekomme ich nicht einmal mit AVX (z.B. Prime95) auch nur annähernd in die Nähe des Baseclocks runter wenn ich die 95W erzwinge.

Get educated:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77093&stc=1&d=1634981821
"non AVX baseclock" und "avx512-baseclock" respektive Turbo sind a real thing, erst recht mit sapphire rapids und AMX wird das so sein. Ich würde also davon ausgehen dass sich die 1.3Ghz bzw. 1.5Ghz der ES auf den normalen baseclock beziehen, so wie das bisher auch immer der Fall war.
Daber kein Grund zu diskutieren, das sind sowieso ES, wenn auch das "C2 Stepping" nicht gerade gutes für die früheren Steppings bedeutet.


So wie ich das sehe bekommt AMD einfach 60% mehr Kerne pro Sockel unter bei selber Performance/Kern. AMD hat hier echte Chancen in bestimmten Bereichen wie dem Supercomputing weiter Marktanteile zu gewinnen, was auch wichtig ist, denn das bringt den fetten Gewinn und sichert langfristig die Existenz auch wenn einmal wieder eine Generation in die Hose geht (siehe Bulldozer).

Lesen ist echt nicht deine Stärke.
In dem Link findest du Epyc SKUs die fast 200% per Thread performance gegenüber den schnellsten ICL-SP SKUs bieten. Da geht es nicht um einfach "mehr Kerne". Du bist einfach bei Naples und Rome stehen geblieben, da konnte man noch sagen mehr IPC hier, bzw. gleiche IPC, mehr Kerne da. Im Serverumfeld sieht das aber momentan ganz anders aus.
Da steht Intel mit 28 Kernen zwischen AMD CPUs mit 16 und 24 kernen:

The Xeon 6330 costs $1894, while the 7443 and 7343 respectively land in at $2010 and $1563. In terms of socket throughput, the Intel chip roughly matches the 16-core AMD counterpart, while the AMD chip is showcasing 48-75% better performance per thread. The 24-core 7443 showcases 26-32% more socket performance while also at the same time having 47-54% better per-thread performance, while only being priced 6% higher.

Und das sind nichtmal die Cache- und Frequency optimized SKUs.


Für 60-70% der Server ist die CPU Performance sekundär, da hier in erster Linie Stabilität und Zuverlässigkeit zählt bzw. auf der Performanceseite Storage und Netzwerkanbindung.
LoL, hast du mal drüber nachgedacht woher Storage und Networking Performance kommt? Achja, dafür braucht man PCIe, am besten Gen4 und am besten viele Lanes. Und da liegt Intel aktuell am meisten hinten.
Wie katastrophal die Icelake Xeon Sales aktuell aussehen kann man ja daran sehen dass Intel gerade den Chef der Server+HPC-sparte gefeuert hat, obwohl der nichtmal für das Debakel verantwortlich ist sondern seine Vorgänger.

https://www.servethehome.com/on-ice-lake-intel-xeon-volumes-and-market-penetration-q3-2021/
Icelake-SP hat sich gerade in einem Halbjahr 1Mio mal verkauft.
Die Vorgängerserien Skylake-SP, Cascadelake-SP und Cooperlake, haben sich seit 2017 ca. 1Mio mal pro Monat verkauft. Das ist Faktor 6!
Dass Intel bei den ausgelieferten Stückzahlen nicht noch viel mehr zurückfällt liegt daran dass sie aufgrund der Chip-Knappheit noch massenhaft Boxen mit rabbatierten low-end und alt CPUs wie Skylake und Cascadelake shippen können.

BlacKi
2021-10-23, 12:06:00
Klar macht es Sinn es gibt bestimmt Dies wo die kleinen Cores kaputt sind, Intel macht das ja schon mit der IGP einfach mal -50€ für was man nicht nutzt ist imo nicht schlecht.bei der winzigen fläche der littlecores gibts sicher auch hier und da einen defekten core, deshalb deaktiviert man ihn ja auch für die 12700k cpus. die Dies bei denen mehr als 4 cores defekt sind, landen einfach im müll. besser, als für diese winzige schnittmenge eine eigene cpu zu konzipieren. das wird keinen sinn machen für diese winzige menge an chips.

mocad_tom
2021-10-23, 12:42:26
@davidzo

Mittlerweile kann ich einen RocketLake Xeon mit 8 Kerne 128GB Ecc und nvme so ausrüsten, dass er so viele Workloads so gut wuppen kann.

Oder einen Threadripper.

Im KMU Bereich wo stellt ihr da noch Zwei-Sockel-Kisten hin?

Ich gebe da lieber das Geld für unmengen Nvme aus.

Und da brauch ich dann auch nicht mehr die Festplatten nach 5 Jahre wechseln, ich fahr halt eine Backupstrategie auf hdd.

Es wirft gerade so viel gelerntes um.
Bzw schauen manche Angebote so unsymmetrisch aus, aber dennoch sinnvoll.

Nightspider
2021-10-23, 14:01:17
Die Frage ist doch, wieso hat AMD es nötig ein solches Cache-Modell für die beiden High-End-Modelle (5900X/5950X) zu bringen, wenn doch im selben Jahr bereits die Nachfolgegeneration kommt?

Nötig haben?

AMD ist da mit TSMC einfach technologisch weiter als Intel und es wird Gruppen geben, die sich auf diese Cache-Monster stürzen werden.

Und der zweite Punkt ist das V-Cache bei Zen4 einfach weiter verwendet und eventuell in einer 2. Ausbaustufe (zwei Cache Lagen) realisiert werden kann.

Zen4 mit 5 fachem L3 Cache von Zen3 würde alles zersägen, egal wie sehr Intel sich anstrengt.

dildo4u
2021-10-23, 14:04:44
Die Frage ist doch, wieso hat AMD es nötig ein solches Cache-Modell für die beiden High-End-Modelle (5900X/5950X) zu bringen, wenn doch im selben Jahr bereits die Nachfolgegeneration kommt?

Es gibt Gerüchte das die 5nm GPUs erst Ende 2022 kommen wenn das auch auf die CPUs zutrifft gäbe es volle 2 Jahre keine Leistungsteigerung von AMD.

Virtual
2021-10-23, 14:16:39
Die Frage ist doch, wieso hat AMD es nötig ein solches Cache-Modell für die beiden High-End-Modelle (5900X/5950X) zu bringen, wenn doch im selben Jahr bereits die Nachfolgegeneration kommt?

Dass man bspw. CPU-Z Werte nicht überbewerten sollte, sieht man ja am 11900k, jedoch ist der Performancezuwachs bei Alder Lake so hoch, dass man da von etwas sehr starkem ausgehen kann.

Bei den Vcache-Modellen interessieren mich mehr bessere Eigenschaften der CPU selber (IF Clock und Curve Optimizer Fähigkeit) als der VCache selber, der seine Vorteile ja nachweislich nur in selektierten Titeln ausspielen kann.
Weshalb hatte es Intel "nötig" die 11er Serie ins Rennen zu schicken, wenn die 12er Serie im selben Jahr erscheint?

Bei gleichem Takt sollte ein Vergleich 12400 gegen 12900 im CPU-Z ST Benchmark zumindest nahezu gleichwertige Ergebnisse liefern. Der CPU-Z Benchmark passt in den L3 beider CPUs (18 MB gegen 30MB), was zweifelohne nicht für viele aktuelle und zukünftige Spiele gelten wird. Genau deshalb solltest du eher deine dritte Aussage umkehren. Der V-Cache ist für Spiele ab 2020 sehr interessant, über das B2-Stepping freut man sich nur am Rande.

Nightspider
2021-10-23, 14:33:22
Es gibt Gerüchte das die 5nm GPUs erst Ende 2022 kommen wenn das auch auf die CPUs zutrifft gäbe es volle 2 Jahre keine Leistungsteigerung von AMD.

Offenbar hat AMD ja sogar bei Zeiten Zen 3+ alias Warhol gecancelt weil Zen3+V-Cache ausreicht um Intel die Stirn zu bieten.

amdfanuwe
2021-10-23, 18:14:53
Wer sagt denn, dass Warhol nicht die Bezeichnung für Zen3+V-Cache ist?

r3ptil3
2021-10-23, 20:35:45
Neben dem 12700k und 12400f, die interessanteste Alder Lake CPU:

https://cdn.wccftech.com/wp-content/uploads/2021/10/Intel-Core-i5-12600K-CPU-z-Alder-Lake-Benchmark-1030x953.jpg

https://wccftech.com/intel-core-i5-12600k-alder-lake-cpu-benchmark-50-higher-multi-threaded-performance-versus-amd-ryzen-5-5600x/


Dürfte im Multi Score fast auf 5800X Niveau sein oder?

Nightspider
2021-10-23, 20:52:23
Wer sagt denn, dass Warhol nicht die Bezeichnung für Zen3+V-Cache ist?

Eigentlich eine überflüssige Frage.

Warhol war eine Architektur die in der Roadmap stand und Zen3+ enthielt.

V-Cache ist ein Feature, eine Ergänzung zu einer oder mehreren Architekturen. Eventuell sogar Recheneinheiten übergreifend (GPU/APU).

Zen3 mit V-Cache ist immernoch Vermeer.

Neben dem 12700k und 12400f, die interessanteste Alder Lake CPU:

Der 12600K dürfte interessant werden aber der Preis wird auch nicht gering sein. Mit DDR5 wirds erst recht teuer.

Wenn es viele DDR4 Bretter zum Release gibt dürfte das aber vielleicht interessant werden.

y33H@
2021-10-23, 21:14:55
Den 12600K mit DDR4 halte ich für den spannendsten Chip der drei, weil verdammt hohe Performance für einen i5.

reaperrr
2021-10-23, 21:31:59
Warhol war eine Architektur die in der Roadmap stand und Zen3+ enthielt.

Falsch.

Die einzige echte, unverfälschte, nicht auf Grundlage von Wunschdenken/falschen Schlussfolgerungen nacherstellte, geleakte Roadmap (die, die von dem einen Leaker in Puzzleteilen stückchenweise veröffentlicht wurde) mit Warhol drauf sprach explizit nur von Zen3 (und 7nm), nicht Zen3+.

Es ist also sehr wohl möglich, dass Warhol einfach für B2-Stepping+VCache stand und steht. Nicht zwangsläufig, aber eben möglich.
AMD hat auch in der Vergangenheit schon neue Codenamen für bloße neue Steppings vergeben (jüngstes Beispiel Lucienne, das ist maximal ein neues Stepping von Renoir, vielleicht sogar nur ne verbesserte Powermanagement-Firmware + leicht aggressiveres Binning/bessere Yields).

AMD hat, selbst laut einigen Gerüchteküchlern mit offenbar echten AMD-Quellen wie MLID, die Bezeichnung Zen3+ nie in irgendeiner anderen Verbindung als mit Rembrandt erwähnt, selbst intern nicht.
Alles andere waren schon immer nur (Fehl-)Interpretationen von anderen Gerüchteküchen und Wunschdenken von Leuten wie teilweise hier im Forum.

Nightspider
2021-10-23, 22:17:51
Stimmt, damals stand wirklich nur Zen3 unter Warhol beim Original.

Aber warum hätte man Warhol aus der Roadmap entfernen sollen.

Glaub nach wie vor nicht das Warhol für Zen3+V-Cache stand. Wer weiß, vielleicht kommen die Fakten dazu irgendwann später mal ans Tageslicht.

amdfanuwe
2021-10-23, 23:09:34
Aber warum hätte man Warhol aus der Roadmap entfernen sollen.

Aus welcher Roadmap soll der denn entfernt worden sein? Gibt doch keine offizielle. Glaub doch nicht alles was irgendein Heinzelmann als (Pseudo)leak rausposaunt.

TheAntitheist
2021-10-23, 23:43:19
Alderlake ist margenoptimiert vorm herrn. die kleinen cores erhöhen nur die marge und verarschen die kunden. Dank des offenem powerbudgets gehen die so ab, ansonsten sind es keine vollwertigen cores zum vollen preis. Marketing in reinstkultur. Dafür den vollen preis zu verlangen ist schon absurd.
AMD hat keine GPU auf dem DIE, das ist Kundenverarsche blablabla... sag mal du hast sie doch nicht alle xD

iamthebear
2021-10-24, 00:13:06
Lesen ist nicht deine Stärke, he?
Das ist ein vergleich 65W gegen 65W, das hat also nichts mit IPC, sondern nur mit Leistungsaufnahme bzw. Leistungszuwachs bei festem Verbrauch zutun, also genau das worum es ging.
Oder willst du mir erklären dass eine neue 65W CPU von Intel unter Last weniger verbraucht als eine Alte?

Ich weiß sehr wohl was hier getestet wurde aber nicht was du uns damit sagen willst.

Die Aussagen von Apple waren:
a) Ein M1 Pro braucht wenn er auf die Performance eines 9th Gen i9 in 14nm bei maximalem Takt getaktet wird nur 30% Performance.
Darauf hat sich meine Aussage bezogen, dass dies eben nicht daran liegt, dass Apple ein so viel effizienteres Design hat, sondern dass sie eben die neueste TSMC 5nm Technologie nutzen und das mit der (aus heutigem Stand im Notebook veralteten) 14nm verglichen wird.

b) Zusätzlich gab es noch den Vergleich:
Bei 30 Watt erreicht ein M1 Pro 70% mehr Performance als der i9 bei 30 Watt

Das Problem des 8 Core i9 ist, dass dieser einfach nicht mehr sinnvoll auf 30W (4W/Kern) läuft. Deswegen verstehe ich nicht was hier ein 65W Vergleich soll.

Deswegen heißt es ja HEDT = High End DeskTop

Das ist nun wirklich Wortklauberei. Geh lieber schlafen und leg dich ins Flussbett :P

Get educated:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77093&stc=1&d=1634981821
"non AVX baseclock" und "avx512-baseclock" respektive Turbo sind a real thing, erst recht mit sapphire rapids und AMX wird das so sein. Ich würde also davon ausgehen dass sich die 1.3Ghz bzw. 1.5Ghz der ES auf den normalen baseclock beziehen, so wie das bisher auch immer der Fall war.
Daber kein Grund zu diskutieren, das sind sowieso ES, wenn auch das "C2 Stepping" nicht gerade gutes für die früheren Steppings bedeutet.

Zeig mir eine CPU, die in der Praxis, die selbst mit AVX nicht den angegebenen Basistakt schafft.

CB hat Cinebench R20 MIT AVX am 11900K getestet und sie hatten mit ihrem 11900K bei 125W immer noch über 4GHz statt der 3.5GHz Basis.

Bei meinem 9900K habe ich auch noch keine Anwendung gefunden, die bei 95W den Takt unter 4GHz runter zieht egal ob mit AVX oder nicht.

Lesen ist echt nicht deine Stärke.
In dem Link findest du Epyc SKUs die fast 200% per Thread performance gegenüber den schnellsten ICL-SP SKUs bieten. Da geht es nicht um einfach "mehr Kerne". Du bist einfach bei Naples und Rome stehen geblieben, da konnte man noch sagen mehr IPC hier, bzw. gleiche IPC, mehr Kerne da. Im Serverumfeld sieht das aber momentan ganz anders aus.
Da steht Intel mit 28 Kernen zwischen AMD CPUs mit 16 und 24 kernen:

Schau dir mal die Performance/Thread des Xeon 8380 und Epyc 7763 an. Tja wer kann nun nicht lesen?
Dass der 8280 niedriger getaktet ist liegt einfach daran, dass Intel unterhalb des Topmodells bewusste Produktsegmentierung betreibt. Deshalb machen nur Vergleiche bei dem jeweiligen Topmodell Sinn.

Und das sind nichtmal die Cache- und Frequency optimized SKUs.

Tja ist halt im Serverbereich fraglich ob es so sinnvoll ist kleinere Chips extrem mit Cache aufzublasen. Bis zu einem gewissen Bereich ja aber wenn ein 32 Core so groß wie ein 64 Core wird, dann ist bei parallelen Workloads der Sinn fraglich.

LoL, hast du mal drüber nachgedacht woher Storage und Networking Performance kommt? Achja, dafür braucht man PCIe, am besten Gen4 und am besten viele Lanes. Und da liegt Intel aktuell am meisten hinten.

Storage und Networking Performance kommt in erster Linie davon, dass du eine sauteure Glasfaserleitung bis zum Rechenzentrum mietest und z.B. teure PCIe SSDs besorgen musst. Wenn nicht genug PCIe Bandbreite da ist, dann teilt man das eben auf 2 Server auf.

Wie katastrophal die Icelake Xeon Sales aktuell aussehen kann man ja daran sehen dass Intel gerade den Chef der Server+HPC-sparte gefeuert hat, obwohl der nichtmal für das Debakel verantwortlich ist sondern seine Vorgänger.

Oje jetzt hat Intel statt 95% nur mehr 90% Marktanteil. Was für ein Drama. Am Besten sollten sie sich gleich alle erschießen...

https://www.servethehome.com/on-ice-lake-intel-xeon-volumes-and-market-penetration-q3-2021/
Icelake-SP hat sich gerade in einem Halbjahr 1Mio mal verkauft.
Die Vorgängerserien Skylake-SP, Cascadelake-SP und Cooperlake, haben sich seit 2017 ca. 1Mio mal pro Monat verkauft. Das ist Faktor 6!
Dass Intel bei den ausgelieferten Stückzahlen nicht noch viel mehr zurückfällt liegt daran dass sie aufgrund der Chip-Knappheit noch massenhaft Boxen mit rabbatierten low-end und alt CPUs wie Skylake und Cascadelake shippen können.

Die meisten Serverkunden spielen halt ungern Versuchskaninchen für neue Plattformen und gerade mitten in der Pandemie mit genug IT Baustellen hat da keiner große Lust neue Zertifizierungsprozesse. Da greift man zu dem, was man bereits im Haus hat und weiß, dass es läuft.
Ich sehe nicht warum das ein Problem für Intel sein sollte. Ob die Kunden nun die neuen oder alten CPUs kaufen ist doch egal.

Nightspider
2021-10-24, 00:16:38
Aus welcher Roadmap soll der denn entfernt worden sein? Gibt doch keine offizielle. Glaub doch nicht alles was irgendein Heinzelmann als (Pseudo)leak rausposaunt.

Klar und das Van Gogh, Rembrandt und Raphael korrekt waren schon vor über einem Jahr zum Release des Leaks war Zufall oder was?

BlacKi
2021-10-24, 02:19:26
Intel Alder Lake Smokes AMD 5980HX, Faster Than The Apple M1 Max

https://wccftech.com/intel-alder-lake-mobility-cpu-benchmarks-leaked-faster-than-the-apple-m1-max-smokes-amd-5980hx-11980hk/

r3ptil3
2021-10-24, 02:29:16
Ein schlafender Riese wacht allmählich auf...

=Floi=
2021-10-24, 07:06:02
AMD hat keine GPU auf dem DIE, das ist Kundenverarsche blablabla... sag mal du hast sie doch nicht alle xD
Die gpu brauchst du so oft nicht. Ich sehe es schon als vergeudeten platz an.

Du hast auch null kapiert, dass bei intel die kleinen cores voll in den preis mitreinzählen.

w0mbat
2021-10-24, 10:20:27
Ein schlafender Riese wacht allmählich auf...
Weil sie ein Jahr nach der Konkurrenz ein Produkt haben, das schneller ist?

dildo4u
2021-10-24, 10:22:41
Naja der Mobile Wert ist was anderes als Desktop 13k sind uneinholbar bis AMD seine 5nm Modelle mit mher Cores bringt.
Im Desktop hat Intel keine + 50% mher Leistung.

Tarkin
2021-10-24, 10:33:08
https://www.youtube.com/c/MarkPC/videos

sieht gar nicht mal so toll aus... man beachte die 1% und 0,1% lows

Also mehr als ein paar wenige Prozent schneller als ein 10900K wird ADL nicht

dildo4u
2021-10-24, 10:36:59
Könnte ein Fake sein und dort steht auch nicht ob Win11 genutzt wird.

][immy
2021-10-24, 10:41:21
https://www.youtube.com/c/MarkPC/videos

sieht gar nicht mal so toll aus... man beachte die 1% und 0,1% lows

Also mehr als ein paar wenige Prozent schneller als ein 10900K wird ADL nicht
Die meisten Tests laufen im GPU Limit und sagen daher nix aus. Im GPU Limit zu testen ist zwar realistisch aber sagt auf dem Niveau nix über die CPU aus.

Tarkin
2021-10-24, 10:54:50
Ich glaub da wird einige ziemlich was an Copium benötigen am 4. Nov. :freak:

https://www.igorslab.de/community/threads/intel-alder-lake-mobility-cpu-benchmarks-geleakt-schneller-als-der-apple-m1-max-amds-5980hx-und-intels-11980hk-werden-regelrecht-vernascht.5753/#post-148636

dildo4u
2021-10-24, 11:00:39
Bin mal gespannt ob alle auf der schwarzen Liste stehen die bei MF den 11700K gekauft hatten.

Slipknot79
2021-10-24, 11:03:04
Könnte ein Fake sein und dort steht auch nicht ob Win11 genutzt wird.


Es ist definitiv ein Fake solange nichts anderes bewiesen wird. (y)

y33H@
2021-10-24, 11:05:51
https://www.youtube.com/c/MarkPC/videos


War ja klar, dass du solche Fakes postest ^^

Tarkin
2021-10-24, 11:18:36
War ja klar, dass du solche Fakes postest ^^

Igors Kommentar deutet jetzt nicht darauf hin, dass das ein Fake ist.

Aber was weiß denn er schon... :rolleyes:

nagus
2021-10-24, 11:32:17
Wird der gleiche mittelmäßige Launch wie Rocketlake. Freu mich schon auf die "Waste of Sand" Schlagzeile bei Gamers Nexus *LOL*

Matrix316
2021-10-24, 11:35:01
Ich glaube das Ding haut richtig rein. Ich hab nur Angst, dass wegen Kopierschütze einige Games nicht laufen. Aber vom Speed her mach ich mir da keine Sorgen.

iamthebear
2021-10-24, 11:35:46
Könnte ein Fake sein und dort steht auch nicht ob Win11 genutzt wird.

Das könnte nicht nur ein Fake sein. Das ist sogar sicher ein Fake und zwar ganz unabhängig davon ob jetzt ADL gut oder schlecht läuft.

Das läuft immer nach selben Schema ab:
.) Man sucht sich bestimmte oft gegoogelte Hardwarekombinationen
.) Man nimmt immer dasselbe ingame Video und editiert die Frameraten mit dem was man in Reviews liest oder bei neuen Produkten anhand von Leaks schätzt
.) Man wartet auf Views, bei denen man Werbung schalten kann, da man alle Keywords abdeckt.

Platos
2021-10-24, 11:42:44
Bin mal gespannt ob alle auf der schwarzen Liste stehen die bei MF den 11700K gekauft hatten.

Warum? Denkst du, MF erlaubt Rocketlake-Käufern nicht das Kaufen von Alderlake oder wie?

WedgeAntilles
2021-10-24, 12:13:56
Igors Kommentar deutet jetzt nicht darauf hin, dass das ein Fake ist.

Aber was weiß denn er schon... :rolleyes:
Um genau zu sein sagt er:
"Die Videos mit den Benchmarks halte ich für bedenklich, da nicht aussagefähig."

Dann sagt er noch:
"Sagen wir es mal so - man sollte ADL nicht überhypen, aber in Sachen Effizienz... nun ja."

Doch ja, daraus lässt sich ganz klar schließen, dass ALD ein Flop wird.
Nicht.

Windi
2021-10-24, 12:29:59
Mal schauen, wie die ersten Reviews aussehen werden.

-Aber das ist halt eine neue Architektur.
-Neues Big.Little Konzept.
-Neuer DDR5 Speicher.

Normalerweise gibt es bei so etwas immer Kinderkrankheiten, die im Laufe der nächsten Wochen gepatcht werden müssen. Häufig macht ein Day One Patch schon die ersten Tests unbrauchbar, da er alles auf den Kopf stellt.
Und diesmal hat man nicht nur eine große Neuerung.

Es wird noch interessant, wie lange die Plattform benötigt um zu reifen.

Linmoum
2021-10-24, 12:36:57
Mich interessiert in erster Linie die Performance unter Win10 und ob sich die Befürchtungen vs. Win11 bewahrheiten. Änderungen am Scheduler für Win10 darf man von MS nicht mehr erwarten, dafür ist Win11 ja da. Insofern kann man nur hoffen, dass die Performance unter Win10 nicht groß leidet. Wenn doch, kann Intel die Dinger sowieso erstmal behalten.

Thunder99
2021-10-24, 12:42:41
Es soll ein Patch/Update für Windows 10 kommen, irgendwann.

Kann mir daher gut vorstellen, dass es unter 10 aktuell nicht konsistente Ergebnisse gibt, im Vergleich zu Windows 11. Und Windows 11 hat noch Kinderkrankheiten :freak:

Distroia
2021-10-24, 13:11:56
Der Hypetrain ist bei einigen kurz vor dem Entgleisen. Wenn Alder Lake wirklich den Boden mit Zen 3 aufwischen würde, würden sie auch entsprechend viel verlangen, gerade jetzt. Bei dieser Erwartungshaltung wird es große Enttäuschungen geben. Der 12900K dürfte insgesamt auf Augenhöhe mit dem 5950X sein, mehr nicht.

aufkrawall
2021-10-24, 13:59:58
Mich interessiert in erster Linie die Performance unter Win10 und ob sich die Befürchtungen vs. Win11 bewahrheiten. Änderungen am Scheduler für Win10 darf man von MS nicht mehr erwarten, dafür ist Win11 ja da. Insofern kann man nur hoffen, dass die Performance unter Win10 nicht groß leidet. Wenn doch, kann Intel die Dinger sowieso erstmal behalten.
Mit 3rd Party Gedöns für "klassische" Taskleiste ist Win 11 eigentlich nur das Win 10 21H2, was es mal hätte werden sollen. Mit aktuellem Updatestand und Chipsatztreiber für Ryzen gibts imho so ziemlich gar keinen Grund, Win 11 nicht zu verwenden. Ist mir nicht verständlich, weshalb Windows 10 noch interessieren sollte.

Linmoum
2021-10-24, 14:14:25
Die Frage ist eher, was man mit Windows 11 jetzt schon will. Was ein Unternehmen der Größe von Microsoft hier völlig unfertig auf den Markt wirft, ist einfach nur lächerlich.

KarlKastor
2021-10-24, 14:23:08
Der Hypetrain ist bei einigen kurz vor dem Entgleisen. Wenn Alder Lake wirklich den Boden mit Zen 3 aufwischen würde, würden sie auch entsprechend viel verlangen, gerade jetzt. Bei dieser Erwartungshaltung wird es große Enttäuschungen geben. Der 12900K dürfte insgesamt auf Augenhöhe mit dem 5950X sein, mehr nicht.
Es glaubt wohl niemand, dass Alder Lake in gut parallelisierbaren Situationen mit einem 5950x den Boden aufwischt. Die allgemeine Erwartungshaltung ist wohl eher die, dass man bei wenig Threads überlegen ist und ansonsten nur mit massiv Leistung die Performance des 5950x erreicht.

Virtual
2021-10-24, 14:27:14
Mit 3rd Party Gedöns für "klassische" Taskleiste ist Win 11 eigentlich nur das Win 10 21H2, was es mal hätte werden sollen. Mit aktuellem Updatestand und Chipsatztreiber für Ryzen gibts imho so ziemlich gar keinen Grund, Win 11 nicht zu verwenden. Ist mir nicht verständlich, weshalb Windows 10 noch interessieren sollte.
Ja, da mag die Frage an dich gerichtet werden dürfen, warum ist es dann doch nicht Wind 10 21H2 geworden?
Gab es vielleicht für Microsoft eine guten Grund, daraus Win 11 zu machen?
Gibt es vielleicht doch wesentliche Unterschiede, die bisher deiner Aufmerksamkeit entgangen sind?

aufkrawall
2021-10-24, 14:35:50
Ja, da mag die Frage an dich gerichtet werden dürfen, warum ist es dann doch nicht Wind 10 21H2 geworden?
Gab es vielleicht für Microsoft eine guten Grund, daraus Win 11 zu machen?
Gibt es vielleicht doch wesentliche Unterschiede, die bisher deiner Aufmerksamkeit entgangen sind?
Ich weiß genau so wenig über Microsofts Motive wie du. :)
Jedenfalls nutze ich es bis auf Kleinigkeiten genau so wie Windows 7. Bin auf zwei verschiedenen Systemen von 0 Bugs betroffen und schon seit Win 8 würde ich Windows ohne 3rd Party Tools für Startmenü etc. nicht mehr nutzen wollen. Real in Spielen im CPU-Limit gibt es wohl auch keine nennenswerten Regressions mehr zu vermelden, warum also in der Vergangenheit leben.

Virtual
2021-10-24, 15:21:24
Ich weiß genau so wenig über Microsofts Motive wie du. :)
Jedenfalls nutze ich es bis auf Kleinigkeiten genau so wie Windows 7. Bin auf zwei verschiedenen Systemen von 0 Bugs betroffen und schon seit Win 8 würde ich Windows ohne 3rd Party Tools für Startmenü etc. nicht mehr nutzen wollen. Real in Spielen im CPU-Limit gibt es wohl auch keine nennenswerten Regressions mehr zu vermelden, warum also in der Vergangenheit leben.
Du bringst deine persönliche Erfahrung und Einschätzung zum Ausdruck. Für andere gibt es sicherlich Gründe, warum sie nicht (sofort) umsteigen wollen. Aus meiner Sicht befindet sich Win11 in der public beta Phase. Ich habe für mich entschieden, an diese open beta nicht teilzunehmen.

Nur für den Zockers aktueller Spiele, der eine ADL-K CPU als Upgrade ins Auge fasst, gibt es tatsächlich einen zwingenden Grund für Win11. Alle anderen werden auch in 2022 bestens mit Win10 bedient sein und sollten dabei entspannt zurückgelehnt Win11 und seine Entwicklung beobachten.

Thunder99
2021-10-24, 15:40:59
Genau :). Nebenbei gibt es bald das Windows 10 21H2 Update. Sie haben es wohl nur entschlackt, um dann Windows 11 zu machen. Gab wohl zu viele Änderungen optisch, die das gerechtfertigt haben.

Alderlake wird schon schneller als Zen3 sein, alles andere wäre ja ein "fail". Im Multi könnte es nur knapp werden oder darunter, ja nach Workload und Auslastung.

WedgeAntilles
2021-10-24, 15:48:46
Die Frage ist eher, was man mit Windows 11 jetzt schon will. Was ein Unternehmen der Größe von Microsoft hier völlig unfertig auf den Markt wirft, ist einfach nur lächerlich.
Komisch, Redaktion/Leute wie PC-Games, Gamestar, Igor... haben mit Win11 nicht deine Probleme.
Sind die Probleme von Win 11 vielleicht massiv viel kleiner als du tust?
Oder sind die alle von Microsoft bestochen, dass sie das "völlig unfertige Win 11" nicht zerreißen?

Ist Win 11 schon perfekt? Nein, natürlich nicht.
Aber was du hier erzählst passt halt nicht mal im Ansatz mit dem was andere so erzählen. Andere die als Redakteure mit Software zu tun haben.

Mag sein, dass es ein Problem mit Win11 gibt was für dich ein KO Kriterium ist.
Die riesige Mehrheit der Nutzer wird bei einem fertig gekauften PC Win 11 drauf haben und damit keinerlei Probleme bekommen.

Distroia
2021-10-24, 17:51:45
Es glaubt wohl niemand, dass Alder Lake in gut parallelisierbaren Situationen mit einem 5950x den Boden aufwischt. Die allgemeine Erwartungshaltung ist wohl eher die, dass man bei wenig Threads überlegen ist und ansonsten nur mit massiv Leistung die Performance des 5950x erreicht.

Ich rede schon vom Durchschnitt, nicht nur von gut parallelisierbaren Anwendungen. Ich glaube auch, dass er bei wenigen Threads im Schnitt kaum schneller sein wird. Einige Single-Thread Anwendungen scheinen zwar sehr gut aus, aber Latenz scheint ein Problem zu sein.

BlacKi
2021-10-24, 18:28:38
aber Latenz scheint ein Problem zu sein.warum? intels skylake können unglaubliche latenzen erbringen und werden dann trotzdem von zen3 kassiert. man hat viel bei alderlake geändert, die lantenzverschlechterungen sehen zwar schlecht aus, aber du kannst das nicht auf die gamingleistung komplett einfach 1 zu 1 umschlagen.

nichtmal eine woche, dann haben wir eine ungefähre ahnung wie schnell intel wird.