Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 24. Oktober 2024


Leonidas
2024-10-25, 07:50:34
Link zur News:
https://www.3dcenter.org/news/news-des-24-oktober-2024

Perdakles
2024-10-25, 08:24:28
@Leo

"Strong generational boost in games (~+8%) and even better multi-threaded Creator performance (~+15%) compared to 7600X3D"

Da meintest du sicher den 7800X3D

Gast
2024-10-25, 09:33:53
Haha Strong generational boost.

Bei 8-15% wäre das ehrliche Marketing, insignificant generational boost.

Leonidas
2024-10-25, 09:34:32
Hat das OCR verkackt und ich hab es nicht gesehen. Sorry, gefixt.

Mega-Zord
2024-10-25, 09:49:50
Die Zeiten, in denen irgend jemand einen bemerkenswerten Leistungssprung von einer Generation zur nächsten erwartet, sind doch längst passé. Selbst mit einer CPU, die zum Kaufzeitpunkt knapp bemessen ist, kommt man doch locker 2 bis 3 Jahre hin. Wenn man eine Highend-CPU kauft hat man heutzutage doch mehrere Jahre Ruhe. Mein 9900k tauchte in den letzten CPU-Upgrade-Matrzen in der PCGH nicht einmal auf. Ich würde gerne einen neuen PC basteln demnächst, aber große Leistungssprünge bei der CPU darf ich nicht erwarten.

Bei den wenigen schlechter gealterten Gaming-CPUs, fallen mir spontan nur der i5-9600k und der i7-9700k ein.

Leonidas
2024-10-25, 10:42:05
In der Tat, eigentlich ist es eine Selbstverständlichkeit. Ich habe es erwähnt, weil in der Diskussion zu Zen5 oftmals der unrealistische Anspruch geschürt wird, die X3D-Modelle müssten Zen4 X3D in Grund und Boden hauen.

Mega-Zord
2024-10-25, 10:50:58
Der einzige wirkliche Sprung wäre, wenn 3XD keinen Taktnachteil gegenüber den CPUs ohne 3D-Cache hätten. Beim 9900X3D und 9950X3D würde ich mir wünschen, dass beide Chiplets den 3D-Cache haben. Ich habe den Zweck der bisherigen X3D 12- und 16-Kerner nicht verstanden. Sicherlich auch Microsoft geschuldet, dass die die Tasks nicht richtig zuweisen, aber das weiß ich als AMD doch. :D

Gast
2024-10-25, 10:51:59
"Demzufolge sollten Hardwaretester derzeit schauen, generell unter "Beste Leistung" zu testen (was bei Desktop-Prozessoren eigentlich so üblich ist) – und Testleser nach dieser Angabe suchen, um sicher zu sein, dass hier wirklich das volle Leistungspotential von Arrow Lake dargestellt wird."

Nein, das ist absolut nicht üblich. Man testet Hardware idealerweise so, wie Otto Normalerverbraucher sie auch einsetzt. Und das ist ein normal installiertes Windows ohne da beispielsweise an Energieoptionen herumzudrehen. Das hat nämlich auch Konsequenzen für Energiesparmodi, die dann nicht mehr aktiv sind (höherer Energiebedarf).

Gipsel
2024-10-25, 11:29:07
Dazu kommt, daß unter dem Profil "Beste Leistung" typischerweise diverse Mechanismen für das Scheduling auf den jeweils besten Kernen und Coreparking von Windows ausgeknipst werden, was die Leistung negativ beeinflussen kann (insbesondere bei heterogenen Kernen). Das Standardvorgehen zum Benchmarking ist also, das gerade auf "Ausbalanciert" zu lassen. Falls "Beste Leistung" Vorteile bringt, deutet das eher auf Scheduling-Probleme seitens Windows hin (oder wie hier eeventuell auch ein obskurer Firmware-Bug seitens intel) und ist maximal eine Krücke, aber nicht das optimale Setting.

Gast
2024-10-25, 11:33:58
Das ist eine reine Gaming CPU, in Anwendungen bringt dir das Ding gar nichts. Ich verstehe daher weder die Vergleiche mit solchen CPUs noch den Sinn, den man mit solchen Aussagen und Tests verfolgt.

In Anwendungen leistet diese CPU nicht mal 50% von dem was CPUs ohne den 3d Cache leisten. Warum dieser 3d nun als der heilige Gral gelten sollte, ich verstehe es nicht.

Nur weil sich Tester nur noch für Gaming CPUs interessieren weil deren Klientel nur noch Socker sind, sind solche CPUs schlecht.

Ein 9950x oder 285k sind in Anwendungen 100% schneller.

Eher ist es so, dass diese CPU deutlich mehr fürs Geld leisten als diese x3d Dinger, weil sie auch in Spielen nicht so schlecht dastehen wie behauptet. Birnen und Äpfel vergleichen hat noch nie was gebracht. Das ist einfach ein Nischenprodukt seitens AMD das fast zu glorifisiert wird. Sorry was für ein Bullshit.

Damit sind diese x3d auch ihren Preis nicht wert! Das ist reine Abzocke von AMD.

Lehdro
2024-10-25, 11:37:38
"Demzufolge sollten Hardwaretester derzeit schauen, generell unter "Beste Leistung" zu testen (was bei Desktop-Prozessoren eigentlich so üblich ist) – und Testleser nach dieser Angabe suchen, um sicher zu sein, dass hier wirklich das volle Leistungspotential von Arrow Lake dargestellt wird."

Nein, das ist absolut nicht üblich. Man testet Hardware idealerweise so, wie Otto Normalerverbraucher sie auch einsetzt. Und das ist ein normal installiertes Windows ohne da beispielsweise an Energieoptionen herumzudrehen. Das hat nämlich auch Konsequenzen für Energiesparmodi, die dann nicht mehr aktiv sind (höherer Energiebedarf).
Und die Frechheit von z.B. CB war es den Idle Verbrauchswert mit "Ausbalanciert" zu testen und den Games Index mit "Beste Leistung". Man schreibt das zwar jeweils dazu, testet damit aber den, mit manuellen Eingriffen zwangsweise verbundenen, Bestcase. Richtiger wäre es gewesen beides zu testen und auch anzugeben, damit der User weiß, was er sich damit vorerst ins Haus holt. Bei Ryzen hatte man sich noch geweigert diese differenzierte Betrachtungsweise (also jeweils den Bestcase pro Kategorie zu testen) vorzunehmen. Ich erinnere an den "Ryzen Power Plan", der extra deswegen kam, damit das Umschalten/Rumfummeln nicht mehr nötig war - Intel würde übrigens derselbe Weg auch offen stehen, man beschreitet ihn aber nicht. Dabei wäre das ein simpler Workaround, zumindest bis Microsoft soweit ist. Diesen Fakt kann man und muss man durchaus als gerechtfertigte Kritik an Intel weitergeben und nicht einfach nur als das hinnehmen was er ist: Unnötige Aktion von Intel, repariert euren Scheiß selber und zwingt nicht die Tester dazu von der Praxis abweichende Einstellungen vorzunehmen um den Konsumenten etwas vorzugaukeln was nicht existiert: Ein derzeit problemfreies Zusammenarbeiten von Win11 24H2 mit ARL-S.

Leonidas
2024-10-25, 13:05:25
Also alle Benchmark-Guides der Hersteller empfehlen generell "beste Leistung".

Exxtreme
2024-10-25, 13:14:22
AMD empfiehlt wiederum "Ausbalanciert", zumindest bei den 7900X3D/7950X3D-CPUs. Denn ansonsten funktioniert das Umlenken der Threads auf CCD0 nicht wenn ein Spiel gestartet wird.

Gast
2024-10-25, 13:25:18
Also alle Benchmark-Guides der Hersteller empfehlen generell "beste Leistung".

Max Performance ist unrealistisch, wie gut sich eine CPU auf ändernde Lastverhältnisse einstellen kann, um im Idle Sparsam zu sein und trotzdem die Leistung zu bringen ist ein Qualitätsmerkmal der CPU welches mitgetestet werden soll. Einer der Punkte in denen Intel lange auch deutliche Vorteile hatte.

Lehdro
2024-10-25, 13:28:52
Also alle Benchmark-Guides der Hersteller empfehlen generell "beste Leistung".
Deswegen teste ich dann eigenmächtig "Ausbalanciert" wenn es um den Stromverbrauch der CPU im idle geht? Wird ja immer wilder.

Leonidas
2024-10-25, 13:59:00
Ui, da kann es sein, das ich jetzt CPU- und Gfx-Empfehlungen durcheinander gebracht habe.

Gast
2024-10-25, 14:40:04
Die Zeiten, in denen irgend jemand einen bemerkenswerten Leistungssprung von einer Generation zur nächsten erwartet, sind doch längst passé.

Würde ich nicht sagen. Eigentlich ist es, zumindest bei AMD, die erste Generation seit bevor Zen 1 die in der Hinsicht enttäuscht. Der 7800X3D hat ~25% auf den 5800X3D draufgelegt, welcher widerum ~48% auf den, in der Vorgängergeneration schnellsten Prozessor, 3900X draufgelegt hat. Da ist die verhaltene Reaktion auf die ~8% Zugewinn dieses mal doch relativ verständlich.

Gortha
2024-10-25, 15:21:04
Seid wann wird ein pseudo ALL-CORE-BOOST als Takt angegeben zum Werben? Nie.

5,2 GHz ist wenn max Boost-Takt SingleCore.
Dass dieser bei 9800X3D nicht stimmen kann, haben wir in dem Benchmark-Leak gesehen, wo 5,6 GHz mit Busclock-OC sogar fast 5,7 Ghz zu sehen waren. Was bei Untervolten (CO) und Boost-Techniken dann auch bei Spielen/Allcore zu 5,5 bis 5,6 GHz auf allen Kernen führen wird.

Warum sollten AMD dann mit 5,2 GHz werben?
Entweder war der Bench-Leak mit 5,6-5,7 GHz vor wenigen Tagen ein Fake oder diese Folie ist Fake.

Leonidas
2024-10-25, 15:51:58
Der Bench-Leak war wohl mit OC & PBO ausgeführt. Die Folie dürfte zwar korrekt sein, aber eventuell stappelt AMD hier bewußt tief, um weiterhin dem 9700X einen Sinn zu geben. Mal die realen Takt-Messungen abwarten ...

bad_sign
2024-10-25, 20:35:41
Haha Strong generational boost.

Bei 8-15% wäre das ehrliche Marketing, insignificant generational boost.
Bei 8% von insignificant zu sprechen bin ich dabei
bei 10-15% darf es gerne minimal heißen^^
Wir können uns glücklich schätzen, wenn überhaupt 8% rauskommen.

Gast
2024-10-25, 21:09:03
Bei 8% von insignificant zu sprechen bin ich dabei
bei 10-15% darf es gerne minimal heißen^^
Wir können uns glücklich schätzen, wenn überhaupt 8% rauskommen.

Niemand wird ohne Benchmarkbalken 8 oder 15% feststellen können, damit ist es nicht Signifikant.

Gast
2024-10-26, 07:24:17
Ein 9950x oder 285k sind in Anwendungen 100% schneller.

Eher ist es so, dass diese CPU deutlich mehr fürs Geld leisten, weil sie auch in Spielen nicht so schlecht dastehen wie behauptet.
Die breitere Anwenderschaft erreichen die non 3dCache auf jeden Fall. Sie sind universeller einsetzbar.

Bei den neueren Modellen wie dem 9950x oder 265k/285k scheint der Windows Sheduler allen ein Schnäppchen zu schlagen und das Thema ist seit Jahren aktuell unter Windows.

Besondere Treiber braucht es in einem Betriebssystem für CPUs nicht, wenn man sich aber besonders bei Arrow Lake die geänderte Coreanordung P/E Cores des Compute Dice anschaut, besteht dort der Verdacht das neben vier P Cores auch vier E Cores angesprochen werden, statt der restlichen P Cores und das hat dann ganz klar Microsoft verbockt oder Intel hat vergessen das mitzuteilen.

Da hilft wahrscheinlich nur ein Agesaupdates und Anpassungen seitens Microsoft. Wenn man bedenkt wie lange es bei Zen Probleme damit gab, jahrelang - bis Microsoft das dann gefixt hatte, dann sieht das für Arrow Lake unter Spielen nicht gut aus.

Vielleicht sollte man überlegen das bei CPUs tatsächlich über den Treibersupport zu organisieren, dort wird meist nur etwas für's I/O geliefert, aber nicht wie Windows die Kerne anspricht. Die letzten Jahre zumindest haben die Hersteller so bares Geld verloren durch das schlechte Image was ihnen diese Art der Hardwareunterstützung der CPUs Cores beschert hat. Das trifft AMD und Intel gleichermaßen. Komischerweise kann Linux anscheinend mit dem Thema anders umgehen als Windows.

Das zeigt einfach wie altbacken Windows in vielen Fällen noch ist. Schöne neue Skins und Oberflächen, unten drunter sitzt aber der alte Schrott der viele Probleme verursacht und sich über Jahrzehnte angesammelt hat. Ist halt so wenn man jeden und alles damit erreichen will - und keinen Arsch in der Hose hat dem Anwender zu sagen, wir unterstützen das nicht mehr. Kauf dir nach 10 Jahres was Neues! Es gibt noch so viel alten Schrott im Umlauf, weil Geiz eben geil ist.

Hoffen wir mal die 9000x3D erwischt es wegen der geänderten Cachegrössen und der Anordnung schellerer Cores nicht auch. Ich ahne da Böses.

Vermutlich hat AMD entgegen erster Ankündigungen AM5 daher um Jahre verlängert, der sollte eine viel kürzere Laufzeit haben. Innovation wird von Microsoft nicht unterstützt, oder nur schleppend. Der Riese bestimmt was passiert und welche Leistung du erhälst, nicht die Hardwarehersteller. Das wird immer mehr und mehr zu einem Problem, das die Entwicklung hemmt. Ich vermute daher fokussiert sich AMD auch auf spezielle Bereiche wo sie mit der internen Entwicklung mehr erreichen können als Microsoft zulässt. Dazu zählen dann auch die 3dCache CPUs für Gamer.

Gast_samm
2024-10-26, 10:39:50
Bei 8% von insignificant zu sprechen bin ich dabei
bei 10-15% darf es gerne minimal heißen^^
Wir können uns glücklich schätzen, wenn überhaupt 8% rauskommen.
Die Zeit der Sky- und Nachfolge-Lakes schon vergessen?

8% sind langweilig aber okay, und 60% mehr als das Zen 5% Meme haha

Gast
2024-10-26, 23:33:22
Die Zeit der Sky- und Nachfolge-Lakes schon vergessen?


Nein, inwiefern macht das jetzt Zen5 besser?

Platos
2024-10-27, 08:59:56
Momentan ist hald einfach grad Ruhe. Weder AMD noch Intep kriegt es gebacken, dass die CPUs merkbar besser werden (bei gleichem Stromverbrauch). Ok, Intel hat es, verglichen mit sich selbst, hingekriegt. Aber verglichen mit AMD nicht. Und ob Intels Architektur wirklich so viel Effizienter ist, bezweifle ich mal. Der 14900k und co. wurde einfach extrem ineffizient betrieben. Hat man selber hand angelegt, waren die nicht so dermassen ineffizient.

Wie gut die wirklich sind, zeigt sich m.M.n erst dann, wenn mal einer verschiedene Powerlimits ansetzt und dann Stromverbrauch und Perfomance (z.B unter Cinebench) misst. Und dann vergleicht man die jeweiligen Effizientesten Punkte. DANN sieht man, wie gut die Architektur ist.

So sieht man einfach, dass Arrowlake nicht mehr so absurd ineffizient betrieben wird, wie die Vorgänger. Das sagt aber nicht wirklich viel über die Architektur aus, "nur" über den Auslieferungszustand.

Gast
2024-10-27, 10:46:02
Momentan ist hald einfach grad Ruhe. Weder AMD noch Intep kriegt es gebacken, dass die CPUs merkbar besser werden (bei gleichem Stromverbrauch). Ok, Intel hat es, verglichen mit sich selbst, hingekriegt. Aber verglichen mit AMD nicht. Und ob Intels Architektur wirklich so viel Effizienter ist, bezweifle ich mal.
Wenn man die Leer- und Teilllastzeiten inkludiert schon, gerade wenn man noch den gesamten Unterbau mitnimmt. Da war AMD ja schon immmer mies, aber gerade mit Zen 4 wurde da noch mal ein richtiger Boost ins noch mehr Negative hingelegt. Selbst die Zen-4-Monolithen-Designs sind da teilweise schlechter als die Chiplet-Designs von Zen 3. Der neuester (Desktop)Unterbau dürfte da auch einen gewichtigen Anteil dran haben. Fazit: AMD kann es nicht besser oder es ist ihnen piepegal und betreiben dort keinen Aufwand.

Gast
2024-10-27, 13:52:36
Momentan ist hald einfach grad Ruhe. Weder AMD noch Intep kriegt es gebacken, dass die CPUs merkbar besser werden (bei gleichem Stromverbrauch).


Scheint so, als würde einzig Apple es schaffen technisch interessante CPUs zu bringen.

Lehdro
2024-10-27, 14:42:27
Selbst die Zen-4-Monolithen-Designs sind da teilweise schlechter als die Chiplet-Designs von Zen 3.
Wenn man das mit dem Mobile SKUs vergleicht, liegt es wohl auch an der Plattform. AM5 säuft halt schon, vor allem die dicken Boards. Heise hatte da teilweise 30W und mehr Unterschiede zwischen den Boards im Leerlauf(!) ermittelt. Auf einem sparsamen A620 kommt ein 8600G auf ~20W, ein 7600 auf satte ~35W (https://archive.is/iemVP) (jeweils Gesamtsystem). Das sind dann aber durchaus solide Werte.

Und wenn man die Chiplet SKUs im Mobile (Dragon Range) mit denen im Desktop vergleicht (Raphael), so sieht man dass da AMD in der Tat kaum Mühe reinsteckt. Das könnte nur durch Firmwareupdates viel besser sein, wenn auch immer noch nicht wirklich gut. Der Chipletmalus bleibt halt.

Platos
2024-10-27, 21:20:53
Wenn man die Leer- und Teilllastzeiten inkludiert schon, gerade wenn man noch den gesamten Unterbau mitnimmt. Da war AMD ja schon immmer mies, aber gerade mit Zen 4 wurde da noch mal ein richtiger Boost ins noch mehr Negative hingelegt. Selbst die Zen-4-Monolithen-Designs sind da teilweise schlechter als die Chiplet-Designs von Zen 3. Der neuester (Desktop)Unterbau dürfte da auch einen gewichtigen Anteil dran haben. Fazit: AMD kann es nicht besser oder es ist ihnen piepegal und betreiben dort keinen Aufwand.

Das kommt natürlich auf das Nutzungsszenario an, aber es stimmt natürlich schon. Weder beim einen, noch beim anderen kriegt man wirklich was gutes. Beim einen stimmts nicht unter Last, beim anderen nicht unter Niedriglast.

Scheint so, als würde einzig Apple es schaffen technisch interessante CPUs zu bringen.

Bringt nur nichts, wenn Apple dann alles überteuert verkauft und einen in ein Ökosystem zwängen will, weil eigentlich läufts nur gut, wenn man alles von Apple hat... Also ne danke...

Ist aber auch ein Äpfel-Birnen Vergleich, wenn man Desktop x86 CPUs mit dedizierter GPU und RAM mit SoCs vergleicht, wo alles aufgelötet oder gar on Chip ist.

Gast
2024-10-27, 21:49:49
Auf einem sparsamen A620 kommt ein 8600G auf ~20W, ein 7600 auf satte ~35W[/URL] (jeweils Gesamtsystem). Das sind dann aber durchaus solide Werte.

So richtig toll ist das für ein Mainboard ohne Chipsatz und noch nicht mal nen 8700 auch nicht. Glaube Cezanne ist da mindestens 5 Watt drunter gewesen. Da gibt es Builds mit 5700G und B550 und die liegen bei um die 17 Watt. Dieser Phoenix ist ein echter Rohrkrepierer in dieser Hinsicht.

Platos
2024-10-27, 22:49:04
Ja gut, welcher Gamer interessiert das schon? Die kommen sowieso immer extreeeem verspätet und basieren dann schon auf einer (dann) uralten Architektur und sind dann auch noch gleich teuer, wie die die neue Generation und das bei auch noch niedrigerer Taktrate, als bei der Chiplet-Version (der gleichen Generation).

Die sind doch echt für'n Arsch.

Und dann haben sie glaube ich die kleinen Chipsätze mit AM5 nicht mehr offen gelassen (also nicht mehr übertaktungsfähig). Wenn ich das richtig in Erinnerung habe.

Gast
2024-10-27, 23:58:59
Bringt nur nichts, wenn Apple dann alles überteuert verkauft und einen in ein Ökosystem zwängen will, weil eigentlich läufts nur gut, wenn man alles von Apple hat... Also ne danke...



Stimmt halt einfach nicht, Apple Notebooks und vergleichbare Windows-Notebooks geben sich da nicht wahnsinnig viel.
Klar bei Apple gibt es keine billig Plastikbomber zum halben Preis, die man bei Windows findet wenn man will.


Ist aber auch ein Äpfel-Birnen Vergleich, wenn man Desktop x86 CPUs mit dedizierter GPU und RAM mit SoCs vergleicht, wo alles aufgelötet oder gar on Chip ist.

Ändert nichts daran, dass man die Architektur vergleichen kann, wobei hier ja auch Apple sich eine lange Schaffenspause gegönnt hat. M1 war genial, alles danach langweilig, erst M4 ist wieder wirklich interessant.
Aber nachdem wir gerade im Jahr des M4-Release sind, ist das mit Abstand die interessanteste CPU-Architektur des Jahres.

Lehdro
2024-10-28, 16:46:31
So richtig toll ist das für ein Mainboard ohne Chipsatz und noch nicht mal nen 8700 auch nicht.
Ein 8700G wird dasselbe im idle verbrauchen.

Glaube Cezanne ist da mindestens 5 Watt drunter gewesen. Da gibt es Builds mit 5700G und B550 und die liegen bei um die 17 Watt.
Laut Heise bist du realistisch eher bei 20W, wenn du ein vernünftig dimensioniertes Netzteil nutzt. Da hast du aber auch noch nicht das UEFI durchoptimiert und wir wissen aus dem mobile Bereich, dass Phoenix im idle mindestens gleich auf mit Cezanne ist.

Dieser Phoenix ist ein echter Rohrkrepierer in dieser Hinsicht.
Dieser Phoenix bringt halt 20x PCIe 4.0 mit, Cezanne immerhin 24x, aber halt nur 3.0. Zudem schleppt der auch abseits dessen erheblich mehr IO mit, ich verweise da mal auf die USB4 Controller. Mag man jetzt sehen wie man will, aber das will auch gefüttert werden. Einen B550 artigen Chipsatz hast du auf AM5 leider nicht, da heißt es B650 oder A620 - und B650 ist halt vergleichsweise durstig leider.