PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse Intel Raptor Lake Refresh


Leonidas
2023-10-22, 18:54:57
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-intel-raptor-lake-refresh

Link zur Ersteindrucks-Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-intels-raptor-lake-refresh

Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-intels-raptor-lake-refresh

Aroas
2023-10-22, 20:05:48
Diese "neuen" CPUs hätte sich Intel schlicht und ergreifend sparen können.

Platos
2023-10-22, 20:16:36
Gute Analyse, aber leider eine der unnötigsten CPU-Launches seit Jahren.

OpenVMSwartoll
2023-10-22, 22:35:35
Respekt, dass Du so viel Arbeit investiert hast.

Das ist mit Abstand der langweiligste Launch, an den ich mich erinnern kann. Und ich habe Hochachtung vor jedem Redakteur, der sich durch den Test gearbeitet hat. So viel Arbeit für ein vorher feststehendes Ergebnis.

Dieses Mal habe ich zwei Tests sehr rudimentär überflogen.

Gast
2023-10-22, 23:15:00
AMD bringt gar nichts neues im Consumer-Segment ("Zen 5" kommt erst im ersten Halbjahr 2024)

Intel auch nicht.

Patrick0809
2023-10-23, 07:33:27
Oje, noch schlechter als ich erwartet hatte.
Verstehe ich richtig, man kann sich selber Zuhause aus einem 13900k einfach einen 14900k Overclocken?

Lachflash hatte ich dann direkt beim Stromverbrauch - noch höher :D

14900k - 153W = 100%
7950X3d - 66W = 101,5%

Sagt eigentlich schon alles aus.

Kleebl00d
2023-10-23, 09:06:57
Vielen Dank für deine unermüdliche Arbeit!

Der Vorteil, auf einmal vorhandenen LGA1700-Systemen hiermit noch einmal aufrüsten zu können (...)
Meiner Ansicht nach könnte man das "aufrüsten" hier in sehr deutliche Anführungszeichen stecken. Wenn die größte prozentuale Steigerung den Verkaufsnamen von (13600 auf 14600 immerhin >7%!) betrifft ist das schon wirklich mager...

crnkoj
2023-10-23, 09:10:21
Vielen Dank für deine unermüdliche Arbeit!


Meiner Ansicht nach könnte man das "aufrüsten" hier in sehr deutliche Anführungszeichen stecken. Wenn die größte prozentuale Steigerung den Verkaufsnamen von (13600 auf 14600 immerhin >7%!) betrifft ist das schon wirklich mager...

Na ja aufrüsten kann man auch von i5 12gen auf i7 oder i9 13/14 gen, es muss nicht immer in dem gleichen Segment bleiben.
Aber ja, die gen ist an sich sinnlos. Einfach die 13 gen um 10-15% billiger machen wäre auch für Intel das Bessere.

Platos
2023-10-23, 09:52:23
Na ja aufrüsten kann man auch von i5 12gen auf i7 oder i9 13/14 gen, es muss nicht immer in dem gleichen Segment bleiben.
Aber ja, die gen ist an sich sinnlos. Einfach die 13 gen um 10-15% billiger machen wäre auch für Intel das Bessere.

Das ist aber kein Pro-Argument für die neue Generation. Man kann immer auf grösseres Upgraden, auch innerhalb der aelben Generation. Ändert aber nichts an der miesen Generation bzw. Refresh.

Exxtreme
2023-10-23, 09:54:14
Ich vermute mal, dieser Refresh ist nur für OEMs gemacht worden damit diese neue Verkaufsargumente haben. Billig war's für Intel wohl auch. Denn ausser neue Schachteln ändert sich wohl nichts.

Platos
2023-10-23, 10:20:54
Ja, wird so sein. Es muss halt was neues daher. Neue Zahl= besser. Bei AMD mit ihrem Kundenfeindlichem Bennennungssystem ist das ja leider noch schlimmer eigentlich. Bei Intel wirds. verm. auch (noch) verwaschener, was jetzt neu und nicht neu ist mit der kommenden neuen Benennungsmethode. Wobei sie ja jetzt schon gewisse Prozessoren in einer Generation mit der Architektur aus einer alten Speisen.

MiamiNice
2023-10-23, 11:05:56
Oje, noch schlechter als ich erwartet hatte.
Verstehe ich richtig, man kann sich selber Zuhause aus einem 13900k einfach einen 14900k Overclocken?

Lachflash hatte ich dann direkt beim Stromverbrauch - noch höher :D

14900k - 153W = 100%
7950X3d - 66W = 101,5%

Sagt eigentlich schon alles aus.

Den "Lachflash" habe ich irgendwie bei Deinem Post. Die Computerbase hat vor 2 - 3 Wochen einen Realworld Test zum Stromverbrauch gemacht. Und totz des erhöhten Strombedarfs auf dem Papier, tun sich die beiden Hersteller nichts im Verbrauch. Ganz im Gegenteil wird bei den Intels ein wenig geringerer Stromverbrauch ermittelt, wenn man eben nicht zu 100% mit dem PC spielt, sondern auch surft und Videos schaut. Im Gaming Betrieb sind es 30-40 Watt mehr bei Intel.
In der Regel arbeitet man nicht mit Benchmarks und spielt diese auch nicht ;)

https://www.computerbase.de/2023-10/aus-der-community-7800x3d-vs-13700k-watt-wahnsinn-wie-gross-ist-der-unterschied-wirklich/

Gast
2023-10-23, 11:19:34
Verstehe ich richtig, man kann sich selber Zuhause aus einem 13900k einfach einen 14900k Overclocken?



Du könntest zuhause auch schon einen 13900KS haben, und damit quasi einen 14900K

Gastronom
2023-10-23, 11:25:50
Zitat“ womit Intel nicht gezwungen war, besonders viel vorzulegen, und dies mit der nunmehr gebotenen Refresh-Generation zu "Raptor Lake" auch nicht getan hat“

Würde es eher wie folgt formulieren: Intel hat in diesem Jahr gar nichts erreicht. Weder bei der Architektur noch beim Prozess. Intel kann froh sein, dass AMD noch nicht Zen 5 released hat.

Leider sehr traurig das ganze😥

Schnitzl
2023-10-23, 11:36:22
Den "Lachflash" habe ich irgendwie bei Deinem Post. Die Computerbase hat vor 2 - 3 Wochen einen Realworld Test zum Stromverbrauch gemacht. Und totz des erhöhten Strombedarfs auf dem Papier, tun sich die beiden Hersteller nichts im Verbrauch. Ganz im Gegenteil wird bei den Intels ein wenig geringerer Stromverbrauch ermittelt, wenn man eben nicht zu 100% mit dem PC spielt, sondern auch surft und Videos schaut. Im Gaming Betrieb sind es 30-40 Watt mehr bei Intel.
In der Regel arbeitet man nicht mit Benchmarks und spielt diese auch nicht ;)

https://www.computerbase.de/2023-10/aus-der-community-7800x3d-vs-13700k-watt-wahnsinn-wie-gross-ist-der-unterschied-wirklich/
das ist ein Usertest... (was nicht heissen soll dass der User das nicht toll gemacht hat!)

den richtigen Test gibts hier:
Leistungsaufnahme in Spielen (https://www.computerbase.de/2023-10/intel-core-i9-14900k-i7-14700k-i5-14600k-test/3/#abschnitt_leistungsaufnahme_in_spielen)

ich seh da 2 Dinge:
1. Cyberpunkt als Extrembeispiel 150W Differenz
2. vom 13900K zum 14900K wird die Leistungsaufnahme höher (2% schneller als Vorgänger, 5% mehr Watt)
vom 5800X3D zum 7800X3D wird die Leistungsaufnahme geringer, trotzdem das der 7800X3D schneller ist. (16% schneller als Vorgänger, weniger Watt)

youtube schau ich wenn überhaupt aufm Handy

Exxtreme
2023-10-23, 11:51:23
Den "Lachflash" habe ich irgendwie bei Deinem Post. Die Computerbase hat vor 2 - 3 Wochen einen Realworld Test zum Stromverbrauch gemacht. Und totz des erhöhten Strombedarfs auf dem Papier, tun sich die beiden Hersteller nichts im Verbrauch. Ganz im Gegenteil wird bei den Intels ein wenig geringerer Stromverbrauch ermittelt, wenn man eben nicht zu 100% mit dem PC spielt, sondern auch surft und Videos schaut. Im Gaming Betrieb sind es 30-40 Watt mehr bei Intel.
In der Regel arbeitet man nicht mit Benchmarks und spielt diese auch nicht ;)

https://www.computerbase.de/2023-10/aus-der-community-7800x3d-vs-13700k-watt-wahnsinn-wie-gross-ist-der-unterschied-wirklich/

Sorry, aber alle Tests, die ich zu dem Thema gesehen habe, sprechen eine andere Sprache. Leonidas hat da viele Tests im Artikel verlinkt. Egal wie man es dreht und wendet, sobald man maximale Leistung will, saufen die Intel-CPUs beträchtlich mehr Strom. Man kann sie sicherlich im BIOS drosseln. Aber dann verliert man Performance. Wäre IMHO interessant wieviel Performance man verliert. :)

Und preislich sind die neuen Raptor Lakes auch nicht so megatoll. Der Straßenpreis liegt knapp 30 EUR unter dem Ryzen 9 7950X3D wenn man den mit dem Core i9-14900K vergleicht.

Ergo, den Refresh eher abschreiben und auf den Nachfolger warten. :) Und akzeptieren, dass auch Intel mal ins Klo greift. :)

MiamiNice
2023-10-23, 12:05:31
Ich wollte nicht pro Raktor Lake Refresh argumentieren. Ich will darauf hinaus, dass CPUs in den meisten Games nicht ausgelastet werden und deswegen weniger Strom ziehen als in synthetischen Benches. AMD scheint mehr im Idle zu saufen, Intel mehr bei Games. Je nachdem wie der eigene Workload am PC ist, ist mal der eine sparsamer, mal der andere.

40 Watt unterschied beim gamen sind btw. bei 8 Stunden Gaming am Tag / 365 Tage im Jahr bei 40 Cent Stromkosten ca. 50€
Aber wer spielt schon JEDEN Tag 8 Stunden lang und das non stop. Die Mehrkosten bei Intel dürften sich im reinem Gaming Betrieb bei ca. 20 - 30€ pro Jahr einpendeln.
Was kosten nochmal AMD CPUs im Vergleich zu Intel?
Zusätzlich erwähnt, sprechen wir hier von CPUs die 500€+ kosten, mit Boards und Speicher sind wir min. fast 4 stellig unterwegs.

Ich finde da einfach so etwas hier, unlogisch:

14900k - 153W = 100%
7950X3d - 66W = 101,5%

Sagt eigentlich schon alles aus.

Das sagt eigentlich gar nichts aus, weil der Rahmen fehlt.

Leonidas
2023-10-23, 13:22:53
Und ich habe Hochachtung vor jedem Redakteur, der sich durch den Test gearbeitet hat. So viel Arbeit für ein vorher feststehendes Ergebnis.

Hab ich auch. Manche Tests glänzten mit dem vollem Programm wie bei einer regulären neuen Generation. Das es anderes Tests langsamer haben angesehen lassen, kann ich aber auch nicht übel nehmen.

Lehdro
2023-10-23, 13:46:42
Was kosten nochmal AMD CPUs im Vergleich zu Intel?
Zusätzlich erwähnt, sprechen wir hier von CPUs die 500€+ kosten, mit Boards und Speicher sind wir min. fast 4 stellig unterwegs.

Der 7800X3D scheint nicht zu existieren für dich :)
Leistung in Games wie die Großen, aber ganz sparsam. Und kostet nicht einmal 400 €, geschweige denn deine 500€+.

Die i7 oder i9 nur zum Zocken ist halt tatsächlich eine Farce, genau wie der 7950X3D. Da muss schon deutlich mehr Leistung abseits des Gamings gefordert sein, damit das überhaupt Sinn ergibt etwas anderes als vielleicht den i5 oder 7800X3D zu kaufen.

Patrick0809
2023-10-23, 14:07:20
Ich will darauf hinaus, dass CPUs in den meisten Games nicht ausgelastet werden und deswegen weniger Strom ziehen als in synthetischen Benches.

Ja wird der Intel ja auch nicht, max 253 Watt?
Der AMD hätte auch maximal 162 Watt.

Das war der Spiele Bench Durchschnitt. Von Anwendungen hab ich auch nichts erwähnt.

Ein Fakt bleibt (bei Spielen(!)): Quasi Messungenauigkeit, aber 2,3x mehr Stromverbrauch im Schnitt. Wer findet das nicht bedenklich? :confused:

Da bin ich auch nicht pro AMD deswegen.

Platos
2023-10-23, 14:12:53
Also bezüglich Stromverbrauch in Spielen stehts doch glasklar in der Launchanalyse. Und da ist Intel deutlich höher.

Aber AMD ist dafür im Alltag (Browsing, Office use.) deutlich schlechter. Sieht man doch wunderbar in dem Usertest, der verlinkt wurde.

Exxtreme
2023-10-23, 14:24:47
Den viel schlechteren Verbrauch im Alltag gibt der CB-Test schonmal nicht her:
https://www.computerbase.de/2023-10/intel-core-i9-14900k-i7-14700k-i5-14600k-test/2/#abschnitt_leistungsaufnahme_in_anwendungen

Nur beim absoluten Leerlauf sind die Intel-CPUs besser.

Gast
2023-10-23, 14:35:44
Nur beim absoluten Leerlauf sind die Intel-CPUs besser.

Genau umgekehrt, nur im absoluten Leerlauf sind die AMD-CPUs einigermaßen vergleichbar.
Gerade mit leichter Last sind die AMD-CPUs eben deutlich schlechter, der 7800X3D mag unter Last schön sparsam sein, dafür reicht aber schon ein wenig herumklicken im Browser um schon mal 40-50W zu verbrauchen.

Nur genau solche Alltagssituationen testet niemand, da wird immer nur praktisch kompletter Idle, oder eben eine definierte Last getestet.

Leonidas
2023-10-23, 14:46:01
Die Last-Tests sind in dieser Frage sehr unzureichend. Ich würde auch gern viel mehr (reproduzierbare) Tests mit geringfügigen Lasten sehen, weil sie den Alltag eines Consumer-PCs am ehesten reflektieren.

Exxtreme
2023-10-23, 14:52:12
Genau umgekehrt, nur im absoluten Leerlauf sind die AMD-CPUs einigermaßen vergleichbar.
Gerade mit leichter Last sind die AMD-CPUs eben deutlich schlechter, der 7800X3D mag unter Last schön sparsam sein, dafür reicht aber schon ein wenig herumklicken im Browser um schon mal 40-50W zu verbrauchen.

Nur genau solche Alltagssituationen testet niemand, da wird immer nur praktisch kompletter Idle, oder eben eine definierte Last getestet.

Ich weiss zwar nicht wo du hinschaust aber für mich ist der Ryzen 9 7950X3D ganze 2 W schlechter als der i9-14900K bei Teillast.

https://i.ibb.co/T06b1Sk/Screenshot-2023-10-23-145024.png (https://ibb.co/LgmJrW8)

Gast
2023-10-23, 15:12:02
Ich weiss zwar nicht wo du hinschaust aber für mich ist der Ryzen 9 7950X3D ganze 2 W schlechter als der i9-14900K bei Teillast.

https://i.ibb.co/T06b1Sk/Screenshot-2023-10-23-145024.png (https://ibb.co/LgmJrW8)

Das ist keine Teillast, dass ist 100% Last auf 1 Thread, und bei Volllast ist AMD bekanntermaßen sehr gut.

Exxtreme
2023-10-23, 15:28:00
Das ist keine Teillast, dass ist 100% Last auf 1 Thread, und bei Volllast ist AMD bekanntermaßen sehr gut.
Mhhh, OK. So kann man das auch sehen, dass das keine Teillast ist. :) Da würden mich andere Benchmarks echt interessieren. :)

bad_sign
2023-10-23, 16:01:00
Leonidas hat endlich einen Spendenbutton eingefügt (oder ich sehe ihn zum ersten mal)
Hippie 🥳

Lehdro
2023-10-23, 16:03:03
Mhhh, OK. So kann man das auch sehen, dass das keine Teillast ist. :) Da würden mich andere Benchmarks echt interessieren. :)
Das ist halt der Nachteil des Chipletdesigns, denn gerade bei solche Szenarien sind CPUs mit mehreren Chiplets auffällig. Theoretisch müsste eine Dual CCD CPU noch ein wenig schlechter abschneiden in diesem Praxistest.
Die monolithischen APUs haben das Problem gar nicht iirc.
Bin gespannt wie dass dann bei Intels Tiledesign aussieht, wenn die 2 neuen Mini E Cores die Last nicht abfangen können. Sollte zumindest auch einen messbaren Unterschied gegen monolithisch machen, wobei das wahrscheinlich vom Fortschritt der Kernarchitektur und Fertigung versteckt werden wird.

MiamiNice
2023-10-23, 16:17:57
Mhhh, OK. So kann man das auch sehen, dass das keine Teillast ist. :) Da würden mich andere Benchmarks echt interessieren. :)

Hehe :D
So gesehen hast ja schon recht, 32 Threads, 1 Thread auf 100%, 31 Threads pennen = Teillast.
Eigentlich valide.
Teillast kann aber auch bedeuten, dass kein Kern z.b. mehr als 10% ausgelastet ist. Man müsste wohl Teillast bei CPUs genauer definieren.
Ich verstehe unter Teillast so Dinge wie Surfen + Video schauen, im Discord oder TS abhängen ohne das eine App irgendwie groß Leistung zieht.

Gast
2023-10-23, 18:50:50
Da würden mich andere Benchmarks echt interessieren. :)

Gibt es leider nicht wirklich, und ist auch gar nicht so einfach möglich, da es kaum möglich ist wirklich reproduzierbare Alltagslasten zu erzeugen, alles was man da tun kann ist einen wirklich großen Messzeitraum zu wählen um eventuelle Ungerechtigkeiten zwischen den Teilnehmern einigermaßen gut auszugleichen, und das ist eben extrem Zeitintensiv.

Nur mal eine sicherlich nicht wissenschaftlich korrekt durchgeführte Anekdote, ich hab mal für einige Tage im Homeoffice den Verbrauch meines PCs daheim mit 7800X3D und den vom Office-Rechner (Intel), auf dem die eigentliche Arbeit läuft verglichen. Daheim läuft nicht mehr als Citrix, Browser und Teams, der Rest am Bürorechner, und an keinem einzigen Arbeitstag war der durchschnittliche Verbrauch vom gesamten Rechner im Büro höher als der isolierte Verbrauch vom 7800X3D daheim.

Freilich läuft im Büro keine Brechstangen K-CPU die sind einfach verdammt ineffizient, aber für einen großen Teil der User ist der Verbrauchsunterschied in der Praxis schlichtweg egal.

Klar wenn du den ganzen Tag renderst säuft der Intel, und selbst wenn du den ganzen Tag spielst hat AMD signifikant bessere Angebote. Bei einer typischen Alltagslast sind die Unterschiede aber großteils vernachlässigbar, bis zu dem Punkt an dem Intel bei viel geringer Teillast sogar vorne liegt.

M4xw0lf
2023-10-23, 21:21:40
Die Umfrage dürfte auch neue Rekorde setzen :ulol:

OpenVMSwartoll
2023-10-24, 01:47:26
Die Option "Ich möchte nicht beleidigend werden" fehlt mir.

Leonidas
2023-10-24, 04:51:52
Das hätte für kommunistische Ergebnisse (99% aufwärts) garantiert.

Gast
2023-10-24, 08:29:44
Die Umfrage dürfte auch neue Rekorde setzen :ulol:

Mir fehlt irgendwie eine passende Antwort.
Positiv und Durchschnittlich fällt sowieso aus, und von den Negativen Antworten passt auch keine so richtig. Ein fehlender beachtbarer Generationsvorteil würde ja implizieren, dass es irgendeinen Vorteil gibt, Stromverbrauch hat sich jetzt nicht großartig geändert bleibt eigentlich nur die Allgemeine 3. Antwort.

Legendenkiller
2023-10-24, 09:24:23
Zum gleichen Preis einfach als Ersatz , damit der Handel "neue" Modelle anbieten kann oder 13x50k nennen, wäre passender gewesen.

Naja Positiv könnte man sagen, Intel hat auch schon ganze CPU Gens rausgebraucht die genausoweniger zuwachs hatten.

PS:
Hab letzens erst wieder ein PC aufgebaut und echt lange gegrübelt statt dem 13700 den 12700 zu nehmen weil der 80€ günstiger angeboten wurde und damit das bessere P/L Verhältniss hat.
Der Auftraggeber hat aber gesat "egal ich nutze meine PCs eh 8-10 Jahre, da sind 80€ egal". Wichtig war nur die 65W Variante um sie schön leise kühlen zu können.

Platos
2023-10-24, 10:22:10
Ein fehlender beachtbarer Generationsvorteil würde ja implizieren, dass es irgendeinen Vorteil gibt, Stromverbrauch hat sich jetzt nicht großartig geändert bleibt eigentlich nur die Allgemeine 3. Antwort.

Ja doch, ist doch 3% schneller xD

Gast
2023-10-24, 11:15:02
Ja doch, ist doch 3% schneller xD

Das fällt unter Messungenauigkeit

Legendenkiller
2023-10-24, 12:16:04
Das ist halt der Nachteil des Chipletdesigns, denn gerade bei solche Szenarien sind CPUs mit mehreren Chiplets auffällig. Theoretisch müsste eine Dual CCD CPU noch ein wenig schlechter abschneiden in diesem Praxistest.
Die monolithischen APUs haben das Problem gar nicht iirc.
Bin gespannt wie dass dann bei Intels Tiledesign aussieht, wenn die 2 neuen Mini E Cores die Last nicht abfangen können. Sollte zumindest auch einen messbaren Unterschied gegen monolithisch machen, wobei das wahrscheinlich vom Fortschritt der Kernarchitektur und Fertigung versteckt werden wird.

Das hat IMO nichts /wenig mit den Chipletdesigns zu tun.

Liegt an 2 Sachen:

1. AMD prügelt die CPU für die letzen 100mhz auf abartige Vcore Spannungen.
Praktisch maximales Werks OC mit der Brechstange. (Intel auch :-) )

2. AMD hat die CPU Kennline (Rechenlast zu Takt) agressiv auf maximale Performance getrimmt und dafür defakto den Teillastbetrieb ansich geopfert, der auch praktisch nie gebenscht wird. Die CPU geht also bei der kleinsten Rechenlast super schnell auf 100% Boosttakt und nutzt praktisch keine der Zwischenstufen solange Powerlimit und Maximaltemeratur nicht limitieren.



Mein 5800X geht schon bei 10-20% CPU Last auf 1 Kern sofort auf den Maximaltakt 4875mhz und hat dann 1,45 bis 1,5V VCore mit 50-70W Verbrauch. 20% zu 100% auf 1 Kern machen nur 10W aus.


Ich habe lange versucht mein 5800X die letze Booststufe zu "verbieten" aber kein Weg gefunden ohne auf dynamische Taktung und Energiesparstufen verzichten zu müssen.

Ich betreibe ihn aktuell mit Curve -15, also undervoltet. Das löst es nicht aber mildert es ab. Statt 50-70W hat er so 30-50W im Teillastbereich z.b. ältere Spiele.

bad_sign
2023-10-24, 16:29:04
Ich betreibe ihn aktuell mit Curve -15, also undervoltet. Das löst es nicht aber mildert es ab. Statt 50-70W hat er so 30-50W im Teillastbereich z.b. ältere Spiele.
In neueren BIOS kannst du im PBO Menü einen negativen Turbo Offset einstellen, bzw. -200 MHz
Ich hatte mit UV (Vcore: Offset -0,15V) effektiv den Turbo begrenzt, ca 4,8 GHz statt 5,05 in Cinebench beim 5950X, Games blieben bei 5,05GHz

Gast
2023-10-25, 13:02:46
Das hat IMO nichts /wenig mit den Chipletdesigns zu tun.



Der generell schlechtere Idle-Verbrauch liegt schon zum Teil am Chiplet-Design. Das kann auch schnell jeder mit einem 2CCD-Design überprüfen indem man 1 CCD im BIOS deaktiviert sinkt der IDLE-Verbrauch deutlich, auch wenn die Kerne selbst kaum was dazu beitragen die aktiven IF-Links alleine erzeugen einen ansehnlichen Grundverbrauch.




1. AMD prügelt die CPU für die letzen 100mhz auf abartige Vcore Spannungen.
Praktisch maximales Werks OC mit der Brechstange. (Intel auch :-) )

2. AMD hat die CPU Kennline (Rechenlast zu Takt) agressiv auf maximale Performance getrimmt und dafür defakto den Teillastbetrieb ansich geopfert, der auch praktisch nie gebenscht wird. Die CPU geht also bei der kleinsten Rechenlast super schnell auf 100% Boosttakt und nutzt praktisch keine der Zwischenstufen solange Powerlimit und Maximaltemeratur nicht limitieren.



Der schlechte Low-Last-Verbrauch, über den wir eigentlich diskutieren liegt aber an dem.
Eine AMD-CPU im Teillast ist eigentlich immer über 3GHz, und bei minimaler Last dann sehr schnell auch am maximalen Turbo.

Deshalb sind die X3Ds für AMD Verhältnisse auch noch einigermaßen, gut da deren max. Turbo und VCore gegenüber den anderen AMD-CPUs deutlich beschnitten wurde.

Gast
2023-12-03, 12:23:23
Trotz aller Negativumfragen landen die CPUs zu 80% in den Rechnern bei der Markt Verteilung. Intel kann es egal was Enthusiasten darüber denken.

Es zeigt auch auf das solche Umfrageergebnisse zuweilen weit von der Realität entfernt sind. Wie vieles in der Industrie zählen Angebot und Nachfrage und wenn Intel 80% Marktanteil hält gibt es die Nachfrage. Sie müssen ja nicht mal den Preis senken. AMD strampelt mit Armen und Beinen, verschleudert die Teile mittlerweile schon, und wird die Dinger trotzdem nicht los.

Intel bietet immer noch den preiswerteren Unterbau, macht was AMD jahrelang mit AM4 vorgelebt hat. Letztlich zählt das P/L was AMD massiv unterschätzt hat.

Und was die Leistungsaufbahme angeht bzw. Dann reale Stromkosten, interessiert der Stromverbrauch anderswo keine Sau, nur in Deutschland sind die Preise für Energie so ausgeufert. Alle anderen EU Länder scheinen preiswerter Energie produzieren zu können, mit den gleich Konzernen wie in Deutschland. Möge die grüne Lobby sich in Grund und Boden schämen. Der blöde Deutsche zahlt mal wieder.

G3cko
2023-12-03, 12:29:32
Wenn sich nichts ändert, ist es genau genommen in der IT eine Preiserhöhung, da die Leistungssteigerungen durch ein Mehr an Transistoren die Grundlage dieser Industrie darstellt.

Es kann also eine bewusste 0 Runde sein, um eine Preiserhöhung zukaschieren.

Leonidas
2023-12-03, 13:10:47
In dem Fall war es eigentlich nur der Punkt, dass man eigentlich MTL auch für Desktop bringen wollte und daraus nichts wurde. Der einzige kurzfristig realisierbare Plan war der Refresh des Refreshs (oder keine neue Gen).

Exxtreme
2023-12-03, 14:40:46
Und was die Leistungsaufbahme angeht bzw. Dann reale Stromkosten, interessiert der Stromverbrauch anderswo keine Sau, nur in Deutschland sind die Preise für Energie so ausgeufert. Alle anderen EU Länder scheinen preiswerter Energie produzieren zu können, mit den gleich Konzernen wie in Deutschland. Möge die grüne Lobby sich in Grund und Boden schämen. Der blöde Deutsche zahlt mal wieder.

Naja, wir sind in einem deutschen Forum. Und da interessiert der Stromverbrauch schon. Und ein zweiter Punkt ist, 150 Watt mehr an Hitze müssen auch abgeführt werden. Das bedeutet, viel heftigere Gehäusebelüftung oder größere WaKü. Und das Netzteil muss auch mehr abkönnen. Das ganze zieht einen Rattenschwanz an Kosten nach sich.

ENKORE
2023-12-03, 16:43:50
Trotz aller Negativumfragen landen die CPUs zu 80% in den Rechnern bei der Markt Verteilung. Intel kann es egal was Enthusiasten darüber denken.

Es zeigt auch auf das solche Umfrageergebnisse zuweilen weit von der Realität entfernt sind.

Tatsächlich wundert mich die sehr schlechte Rezeption von Haswell und Skylake in den damaligen Umfragen.

Leonidas
2023-12-03, 16:55:17
Mich auch. Aber wenn man die geringen Fortschritte der jeweiligen Vorgänger sieht, dann dürfte hier einfach das Prinzip gegriffen haben: "Zu oft nur kleckerweise etwas mehr".

Gast
2023-12-03, 20:13:01
Also bezüglich Stromverbrauch in Spielen stehts doch glasklar in der Launchanalyse. Und da ist Intel deutlich höher.

Aber AMD ist dafür im Alltag (Browsing, Office use.) deutlich schlechter. Sieht man doch wunderbar in dem Usertest, der verlinkt wurde.
Das kann man so pauschal nicht sagen. Die AMD Prozessoren ansich sind auch im Alltag sehr gut. Die monolithischen (mobile Prozessoren oder G-Serie) sind hier sogar klar besser als Intels. Die Chiplet basierten von AMD kommen da zwar nicht ganz an ihre Geschwister ran, nehmen sich aber nicht viel gegenüber Intels Desktop Prozessoren. Nur kann das schnell durch ein recht stromhungriges Board oder unzureichende Energieprofile zunichte gemacht werden. Das sollte man bei der Zusammenstellung eines Systems berücksichtigen. Microsoft schien da zumindest unter Windows 10 den AMD Support eher stiefmütterlich behandelt zu haben. Da konnte man mit einem besseren Energieprofil selbst im Idle mal locker 20W einsparen. Keine Ahnung ob der AMD Support unter Windows 11 besser geworden ist.

Gast
2023-12-03, 20:45:09
Das ist keine Teillast, dass ist 100% Last auf 1 Thread, und bei Volllast ist AMD bekanntermaßen sehr gut.
Doch, ist Teillast. Denn weniger als ein Kern geht nicht.

Mal davon abgesehen, du denkst vielleicht an so Sachen wie Browser Tab öffnen, wo die CPU-Auslastung mal kurz auf 5-10% huscht oder so. Es gibt aber keine solche CPU-Auslastung. Für einen Kern (SMT lass ich mal aussen vor) gibt es quasi nur Last oder Idle. Werte wie 5% oder 10%, die z.B. der Windows Task-Manager anzeigt, entstehen durch die Mittelung beider Zustände innerhalb eines bestimmten Intervalls. Wenn die Auslastung eines Kerns z.B. einmal pro Sekunde angezeigt werden soll, und 10% angezeigt wird, dann bedeutet das einfach nur, dass der Kern 100 Millisekunden unter Last war und 900 Millisekunden im Idle.

Wenn AMD also schon mit einem Kern gut ist, dann sind sie das mit mehr Kernen umso mehr. Anandtech hatte das vor einiger Zeit mal aufgezeigt. Je mehr Kerne bei einem Chiplet basierten AMD Prozessor belastet werden, umso mehr haben die Kerne aufs Gesamtergebnis Einfluss und umso weniger der Uncore Bereich (Fabric). Und AMDs Kerne sind spätestens seit Zen 2 Intel überlegen. Auch beim Thema "Teillast". Das zeigen vor allem auch die monolithischen Designs von AMD, die diesbezüglich nicht die Nachteile der Chiplet basierten Modelle mitbringen.

Wird ein Kern nicht die ganze Zeit belastet, dann sind die Stromsparmechanismen entscheidend. AMD hat hier schon seit Längerem ein sehr gutes und ausgefeiltes Mesh auf Kernebene. Bezüglich Uncore sind sie da noch nicht dort wo sie hin wollen aufgrund der Herausforderungen des Fabrics. Haben da aber trotzdem seit der ersten Generation deutliche Fortschritte gemacht. Gerade Zen 6 soll aber auch hier nochmal ein grossen Sprung nach vorne machen.

Legendenkiller
2023-12-04, 09:19:28
Zur Analyse: naja geliefert wie bestellt ;-)

Aber die Leute speziell Firmen kaufens ja trotzdem.
Aber auch da bröckelt es ein bischen... also nein nein nicht das da AMD gekauft wird aber da werden ebend auch heute noch gerne 12xxx CPUs gekauft, wenn sie günstiger sind. Da die Leistung für eine Office PC so oder so reicht.
In meiner HP Workstation ist ein i7-6700 CPU ... also aktuell limitert nicht die CPU die Anwendugen.



In neueren BIOS kannst du im PBO Menü einen negativen Turbo Offset einstellen, bzw. -200 MHz
Ich hatte mit UV (Vcore: Offset -0,15V) effektiv den Turbo begrenzt, ca 4,8 GHz statt 5,05 in Cinebench beim 5950X, Games blieben bei 5,05GHz
Oh, jetzt erst gesehen, Danke für den Tip.

Ich glaube sogar sowas im Bios gesehn zu haben. Aber auch so ist es ein guter Grund mal eine aktuellen Bios trauf zu machen :-)

MD_Enigma
2023-12-04, 15:50:11
Hab ich auch
"Hieraus kann Intel nur den Anporn mitnehmen" er hatte offensichtlich aus Spass dabei. Ansporn kann auch durch porn-ografische Inhalte erreicht werden ;D

Leonidas
2023-12-04, 16:33:48
:up:
Gefixt.

Gast
2023-12-06, 23:12:58
Mal davon abgesehen, du denkst vielleicht an so Sachen wie Browser Tab öffnen, wo die CPU-Auslastung mal kurz auf 5-10% huscht oder so. Es gibt aber keine solche CPU-Auslastung. Für einen Kern (SMT lass ich mal aussen vor) gibt es quasi nur Last oder Idle. Werte wie 5% oder 10%, die z.B. der Windows Task-Manager anzeigt, entstehen durch die Mittelung beider Zustände innerhalb eines bestimmten Intervalls. Wenn die Auslastung eines Kerns z.B. einmal pro Sekunde angezeigt werden soll, und 10% angezeigt wird, dann bedeutet das einfach nur, dass der Kern 100 Millisekunden unter Last war und 900 Millisekunden im Idle.



Wenn eine Last nur 100ms von 1s braucht, muss aber nicht der max. Turbotakt anliegen. Race to idle ist nur sinnvoll wenn man das Race im Sweetspot der CPU bestreitet, und bei den meisten CPUs ist der max. Turbotakt weit davon entfernt.

Wie dämlich AMD ist zeigt beispielsweise das letzte Update vom ROG Ally, bei dem ins Overlay ein Schalter integriert wurde den Turbo komplett zu deaktivieren. Da spart man im Windows gerne mal 5W ein, weil die CPU ansonsten glaubt sie muss ständig das 15W Powerlimit auskosten und zwischen 4-5GHz taktet, obwohl bei der geringen last 2GHz auch mehr als genug wären ohne dass man was merken würde.


Wenn AMD also schon mit einem Kern gut ist, dann sind sie das mit mehr Kernen umso mehr. Anandtech hatte das vor einiger Zeit mal aufgezeigt.


Auch Anandtech testet nur mit 1000ms von 1000ms Last auf jedem Kern.

Darin ist AMD sehr gut, bei 100ms Last in 1000ms eben sehr bescheiden.