PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 4 (Raphael, Phoenix & Genoa, 5 nm, AM5, DDR5, PCIe 5.0, Ende 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25

NC
2022-08-30, 15:05:16
Sprich, kein AVX512 sondern eine AVX512-Emulation. Na gut, natives AVX512 hätte wohl Transistoren ohne Ende verbraten.
Das ist keine Emulation, die Register und Logik sind vorhanden, auch alles zur Ausführung, es gibt lediglich keine 512bit ALUs. Intel hat zwar einige 512bit ALUs, aber viele Operationen laufen auch reduziert, z.B.
vdivpd zmm, zmm, zmm {er}
bei Skylake mit einer Operation alle 16 Takte (bei einer Latenz von 23). Das bedeutet dass da eine 64-bit ALU verbaut ist, die alle 2 Takte eine Lane in die Pipeline nimmt, aber es ist keine Emulation, denn die Hardware ist vorhanden und Arbeitet "by design" so.

Emulation ist eher wenn Microcode abgearbeitet wird, z.b. vpgatherdd bei Haswell.

NC
2022-08-30, 15:10:59
War bei AMDs erster AVX2 Implementation auf Zen 1 ja auch genug schnell? Oder trübt da mein Gedächtnis?
AVX code war nur minimal schneller als SSE bei Zen 1.
Mit AVX512 soll es jetzt 1.3x sein, ich vermute mal wenn der Code auch wirklich angepasst ist, z.b. Masking nutzt usw. das ist schon ein starker Vorteil. Sowas gab es beim Umstieg von SSE auf AVX nicht.
Klar kann Masking emuliert werden mit SSE/AVX, aber Masking ist fast "free" und erlaubt es Algorithmen viel einfacher zu implementieren, fast wie SIMT.

Platos
2022-08-30, 15:11:33
N Ich bin damals auch erst bei Zen 2 eingestiegen, und habe mir erst 2022 einen Zen 3 geholt, ich bin da hart.

:D
Da muss ich schon schmunzeln, wenn jemand sagt, er wechselt von Zen2 zu 3 und dann sagt, er ist hart im widerstehen :D


Die PS3 ist wegen der SPEs im CELL Processor eine Besonderheit. Das sind programmierbare Vektor Einheiten. Im Vollausbau waren es 8x - ich glaube aber 1x war deaktiviert.
Die ließen sich kaum für normale CPU Tätigkeiten nutzen aber sehr sehr gut, um die GPU zu entlasten. Die haben IIRC beim Backface Culling und später auch bei der Berechnung der Beleuchtung geholfen.
Die werden "zu Fuß" auf der CPU emuliert. Das geht (ob es an der Breite oder auch an den besser passenden Instruktionen liegt weiß ich nicht) mit AVX512 besonders gut.

Die E Cores bei ADL unterstützen kein AVX512 - das heißt wenn man will, dass AVX läuft, muss man die E Cores deaktivieren. Und es läuft auch nur auf früheren ADL Versionen. Später wurde AVX512 auch bei ADL per efuse gelockt und damit nicht mehr nutzbar.
John Linneman von Digital Foundry war ziemlich begeistert darüber und hat eine Videoserie zu Motorstorm und dessen Emulation gemacht und da auch einiges darüber erzählt.
Und ja es hieft die Emulation auf ein neues Level. Er konnte in den Spielen 4K mit stabilen 60fps spielen und empfand es als optisch sehr gut.

Ok krass und bei Raptorlake bleibt AVX dann vermutlich komplett deaktiviert? Da ich schon interesse an Emulation habe, ist AMD eigentlich dann deutlich besser vielleicht. Hoffentlich testet das jemand!

Damit steigt AMD grad ziemlich hoch bei mir ^^

Radeonfreak
2022-08-30, 15:18:54
er wechselt Zen2 zu 3 und dann sagt, er ist hart im wiederstehen :D

+1

Ich bleib bei meinem der ist schnell genug für meine Zwecke.

Aber feine Sache der Zen4.

Platos
2022-08-30, 15:21:20
Der Vernunftkauf ist der 5800X3D, da gebe ich Dir recht.

Wer Top of the Pops haben will, muss komplett auf AM5 aufrüsten, aber AM4 ist auch schon über 5 Jahre alt, da kommt die Konkurrenz nicht ran mit der Haltbarkeit.

Ich selbst hatte im gleichen B350 (!) Board einen 1700X und meinen aktuellen 3800X und wahrscheinlich sieht das Board in wenigen Monaten noch den 5800X3D, davon träumt man bei Intel. Und das eine weitere CPU-Gen in den gleichen Sockel bei Intel passt, ist kein Normalzustand und wenn dann auch nur eine und nicht vier wie bei AMD.


Naja, 5 Jahre Haltbarkeit ist übertrieben. Die ersten AM4 Mainboards, die sich die Leute mit Zen1 gekauft haben, sind doch auch nicht geeignet, um z.B einen 5800X3D rauf zu schnallen. Also würde ich das nicht 5 Jahre nennen. Eher 3.

Jetzt sollen es ja auch "nur" 3 Jahre werden. Wenn sie sagen wenigstens bis 2026, dann wirds sicher nicht 2027. Das glaube ich kaum. Letztes mal haben sie ja auch das ganze sehr weit gebogen mit AM4.

Crazy_Chris
2022-08-30, 15:23:19
Naja, 5 Jahre Haltbarkeit ist übertrieben. Die ersten AM4 Mainboards, die sich die Leute mit Zen1 gekauft haben, sind doch auch nicht geeignet, um z.B einen 5800X3D rauf zu schnallen. Also würde ich das nicht 5 Jahre nennen.

Stimmt nicht. Betreibe mein MSI x370 Gaming Pro Carbon mit einem 5800X3D welches ich bei Erscheinen von Zen 1 gekauft habe. Läuft wie am Schnürchen.

Exxtreme
2022-08-30, 15:24:18
Naja, 5 Jahre Haltbarkeit ist übertrieben. Die ersten AM4 Mainboards, die sich die Leute mit Zen1 gekauft haben, sind doch auch nicht geeignet, um z.B einen 5800X3D rauf zu schnallen. Also würde ich das nicht 5 Jahre nennen. Eher 3.


Doch, das geht. Gibt sogar offiziell Bios-Support. :)

Platos
2022-08-30, 15:25:58
Stimmt nicht. Betreibe mein MSI x370 Gaming Pro Carbon mit einem 5800X3D welches ich bei Erscheinen von Zen 1 gekauft habe. Läuft wie am Schnürchen.
Doch, das geht. Gibt sogar offiziell Bios-Support. :)


Da bin ich vermutlich nicht mehr up-to-date aber gabs vor paar Jahren nicht einmal das Problem, dass gewisse alte Boards nicht mehr supportet wurden bzw. möglicherweise waren es auch die B-Chipsätze der alten Boards?

Oder kann ich jedes AM4 Board nehmen und einen 5800X3D rauf schnallen ?

Ex3cut3r
2022-08-30, 15:26:04
Doch, das geht. Gibt sogar offiziell Bios-Support. :)

Ganz genau. Zen 3 Support kam zwar mächtig spät, aber er kam.

Gipsel
2022-08-30, 15:27:00
Und halbe Bandbreite ist ebenfalls nicht so sexyImmer noch so viel wie (oder gar mehr [höhere IF-Clock] als) bei Zen3 pro CCD (in der geleakten Gigabyte Doku steht was von 78GB/s für den Link zum CCD im "narrow mode"). Sollte für Cloudanwendungen doch locker reichen.
und bei 128 Cores lässt man 1/3 der IFOP Links brach.Vermutlich billiger, als ein neues IO-Die für Serveranwendungen zu bauen?

Radeonfreak
2022-08-30, 15:29:37
Oder kann ich jedes AM4 Board nehmen und einen 5800X3D rauf schnallen ?

Eigentlich schon, wenn der Hersteller es mit dem jüngsten Bios Update unterstützt.

Langlay
2022-08-30, 15:29:48
Da bin ich vermutlich nicht mehr up-to-date aber gabs vor paar Jahren nicht einmal das Problem, dass gewisse alte Boards nicht mehr supportet wurden bzw. möglicherweise waren es auch die B-Chipsätze der alten Boards?


Ja, zum Zen3 Launch sind X370 und B350 Boards leer ausgegangen was Zen3 Support anging. Allerdings wurde der mit dem Launch von 5700X und 5600 usw. dann doch noch geliefert. Der aktuelle Stand alle Zen CPUs laufen auf allen Chipsätzen für AM4.

Exxtreme
2022-08-30, 15:33:48
Da bin ich vermutlich nicht mehr up-to-date aber gabs vor paar Jahren nicht einmal das Problem, dass gewisse alte Boards nicht mehr supportet wurden bzw. möglicherweise waren es auch die B-Chipsätze der alten Boards?

Oder kann ich jedes AM4 Board nehmen und einen 5800X3D rauf schnallen ?

Die hatten offenbar das Problem, dass manche UEFI-ROMs zu klein waren um Support für alle CPUs aufnehmen zu können. Aber mit den aktuellen AGESA gehen auch alle Zen-CPUs. Und deshalb kann man auch einen Ryzen 7 5800X 3D in einem x370 Board betreiben. Und der X370 Chipsatz war der allererste AM4-Chipsatz. Und deshalb, 5 Jahre kommt hin. Intel hatte seit 2017 3 Sockel für Desktop CPUs.

Gipsel
2022-08-30, 15:36:55
Irgendetwas von ZEN4 kommt auf 4nm - zumindest auf den neuen AMD-Folien ist die ZEN4/4X3D/4c-Generation mit 4/5nm beschriftet.

Was wird das sein? ZEN4c, Phoenix oder gar das Cache-Chiplet?Phoenix kommt in N4 (https://cdn.wccftech.com/wp-content/uploads/2022/06/2022-06-10_4-20-28.png). Für Zen4c in Bergamo gibt es Folien von AMD die explizit von TSMC 5nm sprechen.

Crazy_Chris
2022-08-30, 15:37:57
Ja, zum Zen3 Launch sind X370 und B350 Boards leer ausgegangen was Zen3 Support anging. Allerdings wurde der mit dem Launch von 5700X und 5600 usw. dann doch noch geliefert. Der aktuelle Stand alle Zen CPUs laufen auf allen Chipsätzen für AM4.

AMD hat sich da absolut nicht mit Ruhm bekleckert.
Bei Release wurde mehrere Jahre Support versprochen. Dann kam Zen 2 der aber nur auf B450/X470 läuft. Es gab Benutzerproteste und der Support für B350/X370 wurde nachgeliefert.
Für Zen 3 gab es dann die beknackte Situation, dass nach und nach einige gammelige A320 Boards aber keine B350/X370 Boards unterstützt wurden. :freak:
Vor einigen Monaten hatten sie dann aber endlich Erbarmen und haben Zen 3 für alle freigegeben.

Dieses Hickhack hat dafür gesorgt, dass ich auf keinen Fall ein AM5 Mainboard der ersten Generation kaufen werde. :P Bin gespannt ob sie draus lernen und es bei AM5 besser machen.

Platos
2022-08-30, 15:41:31
Na dann, weil Anfangs gings nicht und es hat so ausgesehen, als wäre das mit dem BIOS-Speicher (jetzt fällts mir wieder ein) nur ein Vorwand gewesen.

Aber wie auch immer, dann ist ja gut, aber umso schader, dass AMD jetzt nur 3 Jahre sagt (als Minimum). Vermutlich war ihnen das bei AM4 eine "Lehre" und jetzt sagen sie deshalb nur mindestens 3 Jahre.

Mit viel Pech heisst das nur Zen5, also nur eine weitere Generation. Mit Glück 2 weitere Generationen. Ersteres wäre dann auch nicht so viel besser wie Intel (die machen ja auch immer 2 Generationen).

Aber das hat mich in der Verganenheit sowieso noch nie interessiert. 5 Jahre Plattformsupport ist/wäre allerdings (jetzt) schon nice. Würden sie jetzt 5 Jahre bieten, wäre das für mich ein grosser Pluspunkt. Bei Zen1 damals nicht, da für mich sowieso erst Zen2, eigentlich aber eher Zen3 in Frage kam (rein von der Rechenleistung). Jetzt mit Zen4 hätte man aber schon in der ersten Generation des Sockels Hardware an der Spitze und könnte in 5 Jahren nochmals upgraden. Also schon schade, dass es dieses mal nur 3 Jahre sind (wenn ein Unternehmen von mindestens 3 Jahre spricht, ist es eher selten mehr als das Minimum, also zumindest sollte man nicht davon ausgehen/damit planen).

AMD hat sich da absolut nicht mit Ruhm bekleckert.
Bei Release wurde mehrere Jahre Support versprochen. Dann kam Zen 2 der aber nur auf B450/X470 läuft. Es gab Benutzerproteste und der Support für B350/X370 wurde nachgeliefert.
Für Zen 3 gab es dann die beknackte Situation, dass nach und nach einige gammelige A320 Boards aber keine B350/X370 Boards unterstützt wurden. :freak:
Vor einigen Monaten hatten sie dann aber endlich Erbarmen und haben Zen 3 für alle freigegeben.

Dieses Hickhack hat dafür gesorgt, dass ich auf keinen Fall ein AM5 Mainboard der ersten Generation kaufen werde. :P Bin gespannt ob sie draus lernen und es bei AM5 besser machen.

ja, dann habe ich das also doch richtig in Erinnerung gehabt, nur eben die neueste Entwicklung nicht gekannt.

Wurde also nicht so wirklich freiweillig gemacht. So richiger Support ist das ja auch nicht, wenn dieser erst Jahre später kommt. Wenn ich Support anfrage und ihn erst 1-2 Jahre später kriege, bin ich auf jeden Fall nicht zufrieden damit :D

Mit AM5 muss man sich da aber im Grunde keine Gedanken machen. Kaufst du erst die zweite Serie/Chipsätze (also quasi mit Zen5), wirds vlt. noch nicht mal mehr Support für Zen6 geben (mit Pech), also who cares ? Und selbst wenn, wegen einer Generation ist das für mich dann kein Pluspunkt mehr.

robbitop
2022-08-30, 15:49:22
Die Frage ist was man vergleicht. Bei Intel gibts eine neue Arch und dann ein Refresh. Das wäre ggf. bei AMD das Äquivalent von Zen X und als Refresh Zen X 3D. Entsprechend wären das mindestens 2x Zen Generationen plus 2x refreshes mit 3D. Also schon mehr.
Nicht unwahrscheinlich, dass auch Zen 6 noch abgedeckt sein wird. Dann wären es ggf. sogar 3x Generationen und 3x refreshes.

Platos
2022-08-30, 15:53:10
Das stimmt zwar, aber 3 vs 2 jahre ist jetzt nichts, was für mich Bäume ausreisst. Wenn da mindestens steht, sollte man auf jeden Fall nicht von mehr ausgehen. Das wäre, gerade im Hinblick darauf, dass AMD sich anfangs eher störrisch zeigte mit dem Support von AM4, eher naiv.

Abseits von den Foren hier halten die meisten ne CPU länger wie 2 oder 3 Jahre. Da muss schon 5 Jahre her, dass sich das lohnt. Mit Zen4 wäre das perfekt, weil da die erste Gen schon gut ist.

y33H@
2022-08-30, 15:56:22
Stimmt nicht. Betreibe mein MSI x370 Gaming Pro Carbon mit einem 5800X3D welches ich bei Erscheinen von Zen 1 gekauft habe. Läuft wie am Schnürchen.
Jupp, gibt mal eben 2x Performance:

https://www.golem.de/news/sockel-am4-im-test-ein-ryzen-upgrade-nach-fuenf-jahren-ist-der-wahnsinn-2206-165937.html

bloodflash
2022-08-30, 15:59:05
Aber wie auch immer, dann ist ja gut, aber umso schader, dass AMD jetzt nur 3 Jahre sagt (als Minimum). Vermutlich war ihnen das bei AM4 eine "Lehre" und jetzt sagen sie deshalb nur mindestens 3 Jahre.

Zumindest heisst das, dass alle bis Ende 2025 erscheinende CPUs unterstützwerden, also Zen4. Zen4 X3D, Zen5 und Zen5 X3D. So wie es aussieht dann auch ein Zen5-Refresh oder Zen6, wenn AMD sich beeilt, ansonsten hätten sie die Option die 2026 erscheinenden CPUs auf einen neuen Sockel zu launchen.

Das Plus am Ende der Jahreszahl lässt auf 3 Generationen hoffen, wie bei den Vorläufern, und ist für Frühkäufer und Budgetsysteme optimal. PCIe5, DDR5 und USB4 sollten noch lange reichen.

BTW: Schön auch, dass B650/B650e direkt im Oktober rauskommen. Da gibt es bestimmt schon im Februar v2-Boards.

Platos
2022-08-30, 16:02:38
Zumindest heisst das, dass alle bis Ende 2025 erscheinende CPUs unterstützwerden, also Zen4. Zen4 X3D, Zen5 und Zen5 X3D. So wie es aussieht dann auch ein Zen5-Refresh oder Zen6, wenn AMD sich beeilt, ansonsten hätten sie die Option die 2026 erscheinenden CPUs auf einen neuen Sockel zu launchen.

Das Plus am Ende der Jahreszahl lässt auf 3 Generationen hoffen, wie bei den Vorläufern, und ist für Frühkäufer und Budgetsysteme optimal. PCIe5, DDR5 und USB4 sollten noch lange reichen.

BTW: Schön auch, dass B650/B650e direkt im Oktober rauskommen. Da gibt es bestimmt schon im Februar v2-Boards.

Ja, aber auf Hoffnung kauft/plant sich kein vernünftiger Mensch eine Plattform. Also wenn ich jetzt (bald) kaufe, dann muss ich von 3 Jahren ausgehen.

robbitop
2022-08-30, 16:04:46
Das stimmt zwar, aber 3 vs 2 jahre ist jetzt nichts, was für mich Bäume ausreisst. Wenn da mindestens steht, sollte man auf jeden Fall nicht von mehr ausgehen. Das wäre, gerade im Hinblick darauf, dass AMD sich anfangs eher störrisch zeigte mit dem Support von AM4, eher naiv.

Abseits von den Foren hier halten die meisten ne CPU länger wie 2 oder 3 Jahre. Da muss schon 5 Jahre her, dass sich das lohnt. Mit Zen4 wäre das perfekt, weil da die erste Gen schon gut ist.
Naja +50% ist auf jeden Fall nennenswert. Plus die Option, dass es eventuell länger haltbar ist.
Bzw müsste man das Performancespektrum der Lebenszeit einer Plattform nehmen. Das wäre bei LGA1700 die Differenz zwischen ADL und RTL.
Bei AM5 die Differenz zwischen Zen 5x3D und Zen 4. Und zwar mindestens. Ich kann mir gut vorstellen, dass das Spektrum bei AM5 deutlich größer wird an Performance.
Was nun "Bäume ausreist" und was nicht ist ggf. subjektiv - aber obiges sind nominal größere Werte (Performancespektrum und Lebensdauer der Plattform). Und die sind zumindest nennenswert.

Lehdro
2022-08-30, 16:06:51
Na dann, weil Anfangs gings nicht und es hat so ausgesehen, als wäre das mit dem BIOS-Speicher (jetzt fällts mir wieder ein) nur ein Vorwand gewesen.
Nur so halb. Denn die ersten AGESA waren entweder Zen/+ oder Zen2/3. Erst mit dem AGESA Combos wurde das zusammengeführt. Seit dem passt eigentlich alles auch auf die kleinen UEFI Speicher. Es war dann nur noch eine Frage des Wollens, die AMD zwar spät, aber immerhin mit Ja beantwortet hat.

Aber wie auch immer, dann ist ja gut, aber umso schader, dass AMD jetzt nur 3 Jahre sagt (als Minimum). Vermutlich war ihnen das bei AM4 eine "Lehre" und jetzt sagen sie deshalb nur mindestens 3 Jahre.
Newsflash: Auch 2016/17 hat AMD nur mit Support until(!) 2020 geworben - auch "nur" 3 Jahre. Es sind 5 Jahre geworden, also Ball flachhalten und schauen was passiert.

Ex3cut3r
2022-08-30, 16:10:37
Also AMD ist ganz klar langlebiger was Sockel und Board angeht. Zwar, war die Sache mit X370 und B350 ab Zen 3 unschön, den der Support wurde eingestellt. Aber komischwerweise kam dann 1,5 Jahre später doch wieder Support für Zen 3 und dem X3D. Muss man nicht verstehen, viele hatten sich deswegen aber schon ein B550 Board geholt für Zen 3.

Aber. Intel kommt oft nur mit 2 "Gens" und manchmal sogar nur eine "Gen" oder lief Coffee Lake aka 8700k bzw. 9900k mit Z170? IHMO nein, oder? Da brauchte man schon wieder einen Z270. Totale Verarsche, obwohl die Sockel Pins sogar die gleiche Anzahl hattte. Soviel dazu Herr Platos.

davidzo
2022-08-30, 16:14:12
Phoenix kommt in N4 (https://cdn.wccftech.com/wp-content/uploads/2022/06/2022-06-10_4-20-28.png). Für Zen4c in Bergamo gibt es Folien von AMD die explizit von TSMC 5nm sprechen.

Das will ich nicht bestreiten dass auf früheren Folien Bergamo IN 5NM stand. Zum gleichen Zeitpunkt, also 2021 sprachen die geleakten Roadmaps aber auch von Phoenix als 5nm APU und die offizielle AMD Folie sprach von Zen4 als reine 5nm Familie. Die 2021er Roadmap mit Phoenix und Bergamo als 5nm produkte und Zen5 als "future node" ist Geschichte. Phoenix ist 4nm, Zen5 ist 4nm+ 3nm. Das wahrscheinlichste ist dass auch Bergamo jetzt 4nm ist, genau wie das Gegenstück Zen 5C dann 3nm sein wird.

Die Einführung des 4nm Nodes für Zen4 fällt genau auf den gleichen termin wie das explizite Weglassen des Nodes bei Bergamo. Das war bei der Financial Analyst Präsentation im Juni 2022. Gleichzeitig, das ist doch kein Zufall? Bei der 99% identischen Folie 1 Slide davor zu Epyc Genoa ist explizit von 5nm die Rede, bei Bergamo nicht mehr. Vor dem Analyst Day war von 4nm bei AMD nichts zu hören, wir sind doch alle davon ausgegangen dass AMD direkt auf 3nm geht mit RDNA4 und Zen5.

Crazy_Chris
2022-08-30, 16:19:04
Also AMD ist ganz klar langlebiger was Sockel und Board angeht. Zwar, war die Sache mit X370 und B350 ab Zen 3 unschön, den der Support wurde eingestellt. Aber komischwerweise kam dann 1,5 Jahre später doch wieder Support für Zen 3 und dem X3D. Muss man nicht verstehen, viele haben deswegen sich ein B550 Board geholt für Zen 3.


Einige Boardhersteller oder OEMs haben ja scheinbar Druck auf AMD ausgeübt damit Zen3 auf dem A320 Chipsatz läuft. Vermutlich gab es da noch einige Lagerhäuser zu leeren... Das ganze sorgte dann natürlich für ein gewisses Glaubwürdigkeitsproblem bzgl. B350/X370 Unterstützung. ;)

Spring
2022-08-30, 16:25:09
Ja, aber auf Hoffnung kauft/plant sich kein vernünftiger Mensch eine Plattform. Also wenn ich jetzt (bald) kaufe, dann muss ich von 3 Jahren ausgehen.

Und wieso machst du seitenweise deswegen ein Fass auf?

Die Konkurrenz hat das gar nicht, weder 5 Jahre wie AM4 (und ja auch auf dem B350 geht der 5800X3D) noch die kolportierten 3 Jahre von AM5.

Eigentlich wäre der Aufreger warum Intel keine Zukunftsgarantie für mindestens 3 Jahre abgibt, nicht andersherum.

Btw die AM3 Plattform hielt auch 5 Jahre und ich bin mir gar nicht sicher, ob 2025 wirklich Ende für AM5 ist.

Thunder99
2022-08-30, 16:29:30
AMD liefert, Respekt! So geht Konkurrenz, endlich!

Mal schauen wie Intel kontert zu welchem Preis, auch TDP/Stromverbrauch ;)

Gipsel
2022-08-30, 16:29:55
Sind die Vias 4µm oder die doppelt so breiten Verbindungsteller?

https://www.pcgameshardware.de/screenshots/970x546/2021/08/AMD-Hotchips-33-3D-V-Cache-3D-packaging-4--pcgh.jpg

Laut den Bildern sind das optisch rund 3% Fläche die für die Verbindungen draufgehen.Ich glaube die contact patches messen nur 3µm oder noch weniger (man vergleiche mit TSMCs Demonstration von Stacking-Kontakten mit nur 0,9µm Abstand [Kontakte messen da vielleicht 550nm] (https://images.anandtech.com/doci/16725/Advanced%20Packaging%20Technology%20Leadership.mkv_snapshot_08.56_%5B2020.08.25_ 14.13.52%5D.jpg)). Der Abstand (pitch) zwischen zweien davon beträgt ja nur 9µm. Das war doch so unauffällig, daß das auf den Zen2-Dieshots gar nicht aufgefallen ist und erst nachträglich entdeckt wurde (ja, bei Zen2 gab es die Kontakte für den V-Cache auch schon). Wenn man mal annimmt, daß jeder 8MB-Slice im V-Cache mit 1024 Kontakten angebunden ist (8192 insgesamt), dann ergibt sich insgesamt eine Fläche von 0,66mm² vom 36mm² V-Cache Die, der mit Kontakten belegt ist (also wenn man 9µm x 9µm pro Kontakt rechnet, wirklich ausgefüllt ist die Fläche dadurch ja nicht).

Gipsel
2022-08-30, 17:02:45
Das will ich nicht bestreiten dass auf früheren Folien Bergamo IN 5NM stand.Das stand wohl auch noch im Mai 2022 auf den Folien.
Nur weil bei irgendeiner Präsentation der Prozess für Bergamo nicht angegeben wurde auf N4 zu spekulieren, ist zwar okay, aber eben auch nicht durch irgendwas belegt. Für Phoenix gibt es Slides, die N4 nennen. Dies gibt es für Bergamo nicht. Außerdem ist N4 eher ein Schritt zur Kostenreduktion (weniger Maskenschritte) als zur Dichteerhöhung. Laut TSMC steigt die Packdichte im Vergleich zu N5 um lediglich 6%. Das ist kaum der Rede wert.

Der_Korken
2022-08-30, 17:04:36
AMD selber schadet ein langlebiger Sockel nicht, sondern erhöht die Chancen, dass AMD-Käufer innerhalb des Sockels aufrüsten und somit bei AMD bleiben. Einzig die Board-Hersteller sehen das natürlich nicht gerne und würden am liebsten für jede Gen wieder neue Boards verkaufen und zwar am besten ein überfrachtetes Elite-Gaming-OC-Board. Bei Boards ist es eben schwierig Kaufanreize zu setzen, da sich außerhalb der CPU und des Chipsatzes nicht viel tut.

Bei AM4 hatte man in der Mitte den Bruch zwischen PCIe 3.0 und 4.0, welcher auch innerhalb des Sockels Neuerungen brachte. Vermutlich wäre es den Board-Herstellern lieber gewesen, wenn Zen 4 noch mit PCIe 4.0 gekommen wäre, damit sie bei Zen 5 dann neue Boards mit PCIe 5.0 verkaufen können. Mal sehen wie sich das bei mit den E-Chipsätzen verhält: Vielleicht werden die teuer bepreist, damit sich die Leute erst ein non-E-Board holen und später beim Aufrüsten auf Zen 5/6 dann doch wieder ein E-Board, weil sie PEG 5.0 haben wollen.

Ansonsten wäre ich bei den Jahresangaben vorsichtig optimistisch, dass wir Zen 6 auch noch auf AM5 sehen. Zen 5 sollte irgendwann mal Ende 2023 kommen, was sich aufgrund des späten Zen 4 richtung 2024 vorschoben hat. Wenn AMD aber wieder in ihren 18-Monatsrhythmus zurückkehrt, müsste Zen 6 noch Ende 2025 erscheinen. Falls nein, was wäre ein Grund 2026 nicht mehr auf AM5 zu setzen? DDR6 wird bis dahin nicht verfügbar sein, PCIe 6.0 mag es geben, aber fraglich ob auch für den normalen Desktop (PCIe 5.0 ist ja schon ziemlich exklusiv und teuer) und den Chiplet-Aufbau wird AMD so schnell auch nicht komplett über den Haufen werfen, dass für die CPU ein komplett neues Pin-Layout benötigt wird. Bei AM4 war die zeit für einen neuen Sockel dagegen reif.

amdfanuwe
2022-08-30, 17:14:02
Btw die AM3 Plattform hielt auch 5 Jahre und ich bin mir gar nicht sicher, ob 2025 wirklich Ende für AM5 ist.

Wann kommt denn DDR 6? Neue RAM Standards waren bisher der Wechselgrund.
Vielleicht hält AM5 solange durch.
Zumindest sind sie gerüstet mit genügend Power und BIOS Update per CPU.
PCIe 6.0 wird nicht unbedingt ein Zwang für einen neuem Sockel sein.

robbitop
2022-08-30, 17:24:19
Ja stimmt. Eigentlich passt das seit inklusive AM2. AM2 löste 939 wegen DDR2 ab. AM3 dann wegen DDR3. AM4 dann wegen DDR4 (und Zen :D) und AM5 dann wegen DDR5.
Kann also gut sein, dass AM6 wirklich erst relevant wird, wenn DDR6 signifikant im Markt angekommen ist.
DDR4 kam IIRC 2015 mit SKL in Massen, DDR5 dann 2021 mit ADL. Also 5-6 Jahre könnte es schon sein für DDR5 bis der Nachfolger kommt.

Platos
2022-08-30, 17:26:22
Kann man noch nicht sagen. Geplant laut Samsung 2024, also die Finalisierung der Specs. Das war bei DDR5 Mitte 2020, geplant aber laut Wikipedia für 2018. Also wenn man von ebenfalls ~1 Jahr ausgeht, bis Speicher kaufbar ist, dürfte es 2025-2027 (2025 wenns wie am Schnürchen läuft).

Gab mal ein CB Artikel dazu. Möglich also, dass AMD vor hat, bis vor DDR6 zu supporten, aber es noch unsicher ist, wann das kommt.

Edit: Hier: https://www.computerbase.de/2021-11/schneller-arbeitsspeicher-samsung-spricht-ueber-ddr6-ddr6-plus-und-gddr7/

Brillus
2022-08-30, 17:33:15
Na dann, weil Anfangs gings nicht und es hat so ausgesehen, als wäre das mit dem BIOS-Speicher (jetzt fällts mir wieder ein) nur ein Vorwand gewesen.

Aber wie auch immer, dann ist ja gut, aber umso schader, dass AMD jetzt nur 3 Jahre sagt (als Minimum). Vermutlich war ihnen das bei AM4 eine "Lehre" und jetzt sagen sie deshalb nur mindestens 3 Jahre.

Mit viel Pech heisst das nur Zen5, also nur eine weitere Generation. Mit Glück 2 weitere Generationen. Ersteres wäre dann auch nicht so viel besser wie Intel (die machen ja auch immer 2 Generationen).

Aber das hat mich in der Verganenheit sowieso noch nie interessiert. 5 Jahre Plattformsupport ist/wäre allerdings (jetzt) schon nice. Würden sie jetzt 5 Jahre bieten, wäre das für mich ein grosser Pluspunkt. Bei Zen1 damals nicht, da für mich sowieso erst Zen2, eigentlich aber eher Zen3 in Frage kam (rein von der Rechenleistung). Jetzt mit Zen4 hätte man aber schon in der ersten Generation des Sockels Hardware an der Spitze und könnte in 5 Jahren nochmals upgraden. Also schon schade, dass es dieses mal nur 3 Jahre sind (wenn ein Unternehmen von mindestens 3 Jahre spricht, ist es eher selten mehr als das Minimum, also zumindest sollte man nicht davon ausgehen/damit planen).



ja, dann habe ich das also doch richtig in Erinnerung gehabt, nur eben die neueste Entwicklung nicht gekannt.

Wurde also nicht so wirklich freiweillig gemacht. So richiger Support ist das ja auch nicht, wenn dieser erst Jahre später kommt. Wenn ich Support anfrage und ihn erst 1-2 Jahre später kriege, bin ich auf jeden Fall nicht zufrieden damit :D

Mit AM5 muss man sich da aber im Grunde keine Gedanken machen. Kaufst du erst die zweite Serie/Chipsätze (also quasi mit Zen5), wirds vlt. noch nicht mal mehr Support für Zen6 geben (mit Pech), also who cares ? Und selbst wenn, wegen einer Generation ist das für mich dann kein Pluspunkt mehr.

AM4 war ursprünglich auch nur für 3 Jahre. ( Bis w020) angekündigt.

Matrix316
2022-08-30, 17:34:51
Also AMD ist ganz klar langlebiger was Sockel und Board angeht. Zwar, war die Sache mit X370 und B350 ab Zen 3 unschön, den der Support wurde eingestellt. Aber komischwerweise kam dann 1,5 Jahre später doch wieder Support für Zen 3 und dem X3D. Muss man nicht verstehen, viele hatten sich deswegen aber schon ein B550 Board geholt für Zen 3.

Aber. Intel kommt oft nur mit 2 "Gens" und manchmal sogar nur eine "Gen" oder lief Coffee Lake aka 8700k bzw. 9900k mit Z170? IHMO nein, oder? Da brauchte man schon wieder einen Z270. Totale Verarsche, obwohl die Sockel Pins sogar die gleiche Anzahl hattte. Soviel dazu Herr Platos.

Das stimmt alles, aber jetzt ist gerade so ein Punkt, wo AMD eben nicht so langlebig ist.

Komischerweise hat Intel mit der Unterstützung von DDR4 für Alder Lake das gemacht, was ich eigentlich von AMD erwartet hätte mit AM5. Jetzt muss jeder, der AM4 hatte und AM5 will zumindest neuen Speicher kaufen. (Und ein neues Mainboard, und vielleicht auch neue Kühler?)

Klar, nach 5 Jahren wirds auch mal wieder Zeit :D Aber ich hätte da mehr Kompatibilität gerade von AMD erwartet.

Ich weiß noch gar nicht was ich mache. Der 12700K ist eigentlich schnell genug. Eine schnellere Grafikkarte würde mir mehr helfen. Aber der Bastelwille ist natülich noch da. Mal sehen wie sich Raptorlake schlägt.

Aber ich hab schon überlegt, wenn die Strompreise stärker steigen, dann kauf ich mir einen M irgendwas Mac und mach den PC nur noch fürs Spielen an. ;) =) Ich will garnet wissen, was meine Kiste im Idle braucht...

Der_Korken
2022-08-30, 17:42:13
Komischerweise hat Intel mit der Unterstützung von DDR4 für Alder Lake das gemacht, was ich eigentlich von AMD erwartet hätte mit AM5. Jetzt muss jeder, der AM4 hatte und AM5 will zumindest neuen Speicher kaufen. (Und ein neues Mainboard, und vielleicht auch neue Kühler?)

Klar, nach 5 Jahren wirds auch mal wieder Zeit :D Aber ich hätte da mehr Kompatibilität gerade von AMD erwartet.

Dann wird es genauso wieder Leute geben, die sich dann ein AM5-System mit DDR4-RAM neu kaufen und sich dann "beschweren", dass ihr neu gekaufter RAM nach einer Gen schon wieder EOL ist. Ich würde es eher so sehen: Gerade weil AM5 noch einige Jahre auf dem Markt sein wird, will AMD keinen Wildwuchs beim RAM haben. Wenn AMD dann mit Zen 6 z.B. den IOD erneuert und keinen Bock hat 2025/2026 nochmal extra Fläche für einen DDR4-Controller zu opfern, dann hätte man die kuriose Situation, dass die CPU zwar in ein altes DDR4-Board passt aber wegen RAM-Inkompatiblität nicht läuft. Intel kann es egal sein, weil die mit Meteor Lake eh wieder einen neuen Sockel bringen, mit dem sie alte Zöpfe abschneiden können.

Matrix316
2022-08-30, 17:50:36
Dann wird es genauso wieder Leute geben, die sich dann ein AM5-System mit DDR4-RAM neu kaufen und sich dann "beschweren", dass ihr neu gekaufter RAM nach einer Gen schon wieder EOL ist. Ich würde es eher so sehen: Gerade weil AM5 noch einige Jahre auf dem Markt sein wird, will AMD keinen Wildwuchs beim RAM haben. Wenn AMD dann mit Zen 6 z.B. den IOD erneuert und keinen Bock hat 2025/2026 nochmal extra Fläche für einen DDR4-Controller zu opfern, dann hätte man die kuriose Situation, dass die CPU zwar in ein altes DDR4-Board passt aber wegen RAM-Inkompatiblität nicht läuft. Intel kann es egal sein, weil die mit Meteor Lake eh wieder einen neuen Sockel bringen, mit dem sie alte Zöpfe abschneiden können.
Ja aber, die meisten die AM5 mit DDR4 kaufen würden, wären ja wahrscheinlich eh die, welche bereits DDR4 haben.

Ok, es gab vielleicht auch welche die Alder Lake neu mit neuem DDR4 RAM gekauft haben, aber die sind glaube ich eher in der Minderheit. Wobei die DDR5 Preise aktuell natürlich auch bezahlbarer sind als damals.

MiamiNice
2022-08-30, 17:50:52
Ist dieses "Plattform behalten" wirklich so wichtig bei einem Stück Hardware welches eh nur ca. alle 4 Jahre getauscht wird? Ich meine, man will ja auch irgendwann die neuen Plattform Features mitnehmen. Schnellere SSDs, USB, usw. usf.

Platos
2022-08-30, 17:53:31
Ist dieses "Plattform behalten" wirklich so wichtig bei einem Stück Hardware welches eh nur ca. alle 4 Jahre getauscht wird? Ich meine, man will ja auch irgendwann die neuen Plattform Features mitnehmen. Schnellere SSDs, USB, usw. usf.

Dann musst du aber dieses Jahr noch umsteigen, wenn du das mit deinen 9900K und 4 Jahren einhalten willst ;)

Matrix316
2022-08-30, 18:04:02
Ist dieses "Plattform behalten" wirklich so wichtig bei einem Stück Hardware welches eh nur ca. alle 4 Jahre getauscht wird? Ich meine, man will ja auch irgendwann die neuen Plattform Features mitnehmen. Schnellere SSDs, USB, usw. usf.

1. Du musst alles - wirklich alles im Rechner auseinander bauen. Das schlimmste sind beim neuen Board die Frontanschlüsse anschließen. :D Ziemlicher Mehraufwand im Vergleich zu einfach nur die CPU tauschen.

2. Was ist mit dem alten Board? Verkaufen ist bei Boards selbst im Bundle mit CPU immer so eine Sache. Der eine will nur die CPU, dann sitzt man auf dem alten Board was keiner will. ;)

3. Neues Board heißt auch Abenteuer Windows aktivierung und hoffen, dass das funktioniert über den M$ Account - zumindest bei neueren Windows Versionen.

Ex3cut3r
2022-08-30, 18:16:14
4 Jahre behalten? Äh was? Als AM4 User haben die meisten hier jedes Jahre neue CPU reigesteckt. Hat mit nem 1700X angefangen, dann kam ein 2700X rein, dann nen 3900X dann war 1,5 Jahre Pause, weil es keine Biose mehr gab, (oder aber gleich umstieg auf X570) dann plötzlich wieder doch, und nen 5800X oder 5900X, dann nen X3D usw. ;D

Bei Intel geht es ja in der Regel nicht. Da steckt man fest. 4 Ever 9900k z.B.

prinz_valium_2
2022-08-30, 18:33:39
4 Jahre behalten? Äh was? Als AM4 User haben die meisten hier jedes Jahre neue CPU reigesteckt. Hat mit nem 1700X angefangen, dann kam ein 2700X rein, dann nen 3900X dann war 1,5 Jahre Pause, weil es keine Biose mehr gab, (oder aber gleich umstieg auf X570) dann plötzlich wieder doch, und nen 5800X oder 5900X, dann nen X3D usw. ;D

Bei Intel geht es ja in der Regel nicht. Da steckt man fest. 4 Ever 9900k z.B.

Ich habe immer noch einen Ryzen 5 1600 drin und werde dieses Jahr, oder nächstes auf Ryzen 5000 umsteigen.

Weiß nur noch nicht ob 6, 8 oder 12 Kerne, oder mit 3D Cache

Ex3cut3r
2022-08-30, 18:44:57
Gamer? Oder was machst du am meisten?

Wenn Gamer 8C/16T reicht, oder gleich den X3D.

Zossel
2022-08-30, 18:55:42
Emulation ist ein etwas hartes Wort für volle HW-Unterstützung ;) Halt 2-Cycle anstatt 1-Cycle AVX-512, that's it.

Zen3 hat 2 ALUs für FP-MAC, wie viel sind es bei Intel?

Wären weitere ALUs für FP-MAC eine Möglichkeit den Durchsatz ohne massive Taktverluste zu erhöhen, der nächste Zen soll ja breiter werden.

prinz_valium_2
2022-08-30, 19:23:53
Gamer? Oder was machst du am meisten?

Wenn Gamer 8C/16T reicht, oder gleich den X3D.

Joa, dachte mit 12 ist man aber auf der sicheren Seite für die nächsten 5 bis 7 Jahre. Falls doch mal mehr als 8 Kerne in Games zu gebrauchen sind.

PatkIllA
2022-08-30, 19:26:47
4 Jahre behalten? Äh was? Als AM4 User haben die meisten hier jedes Jahre neue CPU reigesteckt. Ich würde ja mal sagen, dass selbst hier die Mehrheit die komplette Plattform wechseln.
Das Geeier mit den BIOS Größen war nun auch nicht hilfreich.

Gibt es eigentlich schon Infos zu den Chipsatzen abseits der PCIe 5 Lanes die eigentlich gar nichts mit dem Chipsatz zu tun haben. Also wieviele Lanes wovon. USB, SATA etc?

Ex3cut3r
2022-08-30, 19:47:52
Joa, dachte mit 12 ist man aber auf der sicheren Seite für die nächsten 5 bis 7 Jahre. Falls doch mal mehr als 8 Kerne in Games zu gebrauchen sind.

Das 12C oder mehr was in den nächsten Jahren im AAA Gaming Sektor wirklich was bringt, wage ich bis auf 1-2 Ausnahmen zu bezweifeln, aber das musst natürlich du entscheiden. Wie es aussieht, wird der 7600X im Gaming mal wieder jede CPU auch mit mehr Cores schlagen. Sowie es schon beim 5600X vs 3900X war, und beim 3600 vs 2700X usw. :wink:

sklave_gottes
2022-08-30, 19:56:25
Das 12C oder mehr was in den nächsten Jahren im AAA Gaming Sektor wirklich was bringt, wage ich bis auf 1-2 Ausnahmen zu bezweifeln, aber das musst natürlich du entscheiden. Wie es aussieht, wird der 7600X im Gaming mal wieder jede CPU auch mit mehr Cores schlagen. Sowie es schon beim 5600X vs 3900X war, und beim 3600 vs 2700X usw. :wink:

Was ich wirklich spannend finde ist:
7600X und 7700X vs 5800X 3d

prinz_valium_2
2022-08-30, 19:58:05
Das 12C oder mehr was in den nächsten Jahren im AAA Gaming Sektor wirklich was bringt, wage ich bis auf 1-2 Ausnahmen zu bezweifeln, aber das musst natürlich du entscheiden. Wie es aussieht, wird der 7600X im Gaming mal wieder jede CPU auch mit mehr Cores schlagen. Sowie es schon beim 5600X vs 3900X war, und beim 3600 vs 2700X usw. :wink:

Joa deswegen überlege ich auch, vllt nur auf einen 5600 zu wechseln für eine ganz schmale Mark. Die gibt es ja neu schon für 150€.
Ich weiß aber einfach nicht, warum 8 Kerne nicht besser in Spielen läuft, wenn doch Konsolen schon seit Jahren 8 Kerne habe und das nun wirklich mittlerweile eher der Einstieg als das Ende der Fahnenstange ist.


Hast du zufällig irgendeine Ryzen 5000 CPU, die du mir für ein unschlagbares Angebot abgeben willst? Das würde mir die Entscheidung dann abnehmen^^

r3ptil3
2022-08-30, 20:03:45
Was ich wirklich spannend finde ist:
7600X und 7700X vs 5800X 3d

Kann man jetzt schon durch die AMD Benchmarks vergleichen.
Siehe eine paar Seiten zurück.
Gelegentlich ist der 5800X3D vorne und ab und zu die sehr hoch taktenden Zen4 Modelle.

War bis gestern zuversichtlich auf einen 7900X oder 7950X umzusteigen, vom 5800X3D aus. Nach der Präsi verschwand die Idee wieder.

Jetzt auf die 3D-Cache Zen4 Modelle warten und bis dahin, dürften auch die Boards und das BIOS entsprechend gereift sein.

Linmoum
2022-08-30, 20:06:49
Dass der Umstieg von einem 5800X3D auf Zen4 ohne Cache nicht lohnt, hätte ich dir auch vorher sagen können. ;) Ich bin selbst in dieser Situation und hätte auf einen 7800X3D direkt geupgradet. Aber Zen4 ohne Cache war klar, dass das den 5800X3D nicht in Gefahr bringt. Dafür sind die Vorsprünge teilweise zu gewaltig.

r3ptil3
2022-08-30, 20:09:18
Naja, wäre halt zeitlich gerade passend für mich gewesen.

Zen4 3D wird wohl ähnlich wie der 5800X3D im Frühling 2023 veröffentlicht - lange, sehr lange.

Linmoum
2022-08-30, 20:18:05
Da gibt's widersprüchliche Gerüchte zu. Einige Frühjahr, andere sogar noch später, andere wiederum sagen noch in diesem Jahr, ganz andere sogar Ankündigung am 27.09. zum Launch vom Rest.

Su hatte ja heute erst gesagt, dass es keine Kapazitäts-/Lieferengpässe mehr geben würde. N5-on-N5 ist laut TSMC für Q3 2022 angesetzt. Das könnte also durchaus dieses Jahr noch klappen.

Ex3cut3r
2022-08-30, 20:30:42
Hast du zufällig irgendeine Ryzen 5000 CPU, die du mir für ein unschlagbares Angebot abgeben willst? Das würde mir die Entscheidung dann abnehmen^^

Leider nicht ^^
Ich hatte einen 3600 hier im Forum vor 1 Monat angeboten. Ging aber schnell weg. Für 85€

Jupiter
2022-08-30, 20:32:03
Der 7800X3D interessiert mich am meisten. Ich spiele selten mit mehr als 60 BpS, aber für Raytracing und Star Citizen braucht es viel CPU-Leistung.

https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/Tests/Benchmark-Preis-Release-vs-12900KS-1392948/2/

https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/Specials/5800X3D-12900KS-AMD-Intel-Review-1400048/

Der Ryzen 7 5800X schaffte in Cyberpunk 2077 nur knapp über 60 BpS. Für die Zukunft wird das nicht reichen und bei AMD wird wohl wieder der Sockel lange verwendet werden können.

Bei Intel schreckt mich der Stromverbrauch ab.

dargo
2022-08-30, 20:35:22
https://i.gyazo.com/9947aab80bd06f2dcd4b57bab49947d8.jpg

"Aber die geleakten Mainboardpreise ist ja alles so unverschämt teuer!!!" /s
Das sagt doch rein gar nichts aus. B550 Bretter starten bei 72€ in DE und enden bei >400€. :rolleyes: X570 endet bei fast 800€! Wenn die AM5 Bretter bei 125$ starten bekommst du da den letzten Schrott geliefert zu diesem Preis. Gute X670 Bretter werden sicherlich 200+€ kosten.

horn 12
2022-08-30, 20:35:46
Auch ein 5800X3D wird immer mehr und besser durch die Spiele Entwickler unterstützt werden wenn die Zukunft auch! 3D V-Cache werden soll.
Da sollte sich Zen 4 Ohne 3D die Zähne ausbeißen und Zen4 3D wenns hoch kommt Verfügbarkeit kurz vor Weihnachten 2022 oder doch erst Jänner/ Februar 2023.
----> Meine Prognose allerdings!

dargo
2022-08-30, 20:40:21
Was ein Blödsinn. Warum sollten die DEVs speziell auf einen 5800X3D optimieren wenn diese CPU im globalen Markt nahezu keine Rolle spielt? AMD wäre ganz schön dämlich wenn sie so eine CPU (auf die man speziell optimieren muss) überhaupt releasen würden.

Ex3cut3r
2022-08-30, 20:41:20
Der Ryzen 7 5800X schaffte in Cyberpunk 2077 nur knapp über 60 BpS. Für die Zukunft wird das nicht reichen und bei AMD wird wohl wieder der Sockel lange verwendet werden können.


Wo das denn?

Ohne RT und mit RT.

qIyjT85k86o

horn 12
2022-08-30, 20:44:42
@Dargo

3D-V-Chache wird die Zukunft werden und dies weiss AMD und auch die Namhaften (Spiele= Hersteller.
Was weniger starke Spiele Entwickler dann bringen ist eine Andere Sache...
aber Cache ist King :-)

Langlay
2022-08-30, 20:58:49
Auch ein 5800X3D wird immer mehr und besser durch die Spiele Entwickler unterstützt werden wenn die Zukunft auch! 3D V-Cache werden soll.


Da gibt es nichts was Spielehersteller "unterstützen" müssen. Entweder der Cache ist da und kann genutzt werden, oder halt nicht.

PatkIllA
2022-08-30, 20:59:32
@Dargo

3D-V-Chache wird die Zukunft werden und dies weiss AMD und auch die Namhaften (Spiele= Hersteller.
Was weniger starke Spiele Entwickler dann bringen ist eine Andere Sache...
aber Cache ist King :-)Wenn du wirklich optimierst wären die Transistoren woanders besser aufgehoben.
Niemand wird das absichtlich so machen, dass die Daten in den großen Cache passen um dann bei normal großem Cache richtig abzukacken.
Rein praktisch macht sich über sowas beim Entwickeln nur ein winziger Bruchteil Gedanken und es läuft deshalb halt mit mehr Cache soviel besser.
Die RAM-Geschwindigkeit hat sich einfach soviel langsamer weiter entwickelt.

Nightspider
2022-08-30, 21:03:54
Da sollte sich Zen 4 Ohne 3D die Zähne ausbeißen

die Zen4 Benchmarks zeigen doch das die IPC in den Titeln höher als 13% ist, die auch stark vom V-Cache profitieren.

Metro Exodus +17% IPC

F2022 + 19% IPC

Und da musst du dann nochmal die hohe Taktraten draufrechnen.

In manchen Spielen wird Zen4 ebenso um die 40% schneller sein als Zen3.

Ex3cut3r
2022-08-30, 21:14:13
Bin auch der Meinung das Zen 4 immer schneller sein wird, und eben viel konstanter schneller.

In Borderlands 3 bringt der Cache z.B. auch nix.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=610603

5800x3D ~ 285fps

5700X ~ 285 FPS

r3ptil3
2022-08-30, 21:41:14
Dort wo ein Zen4 schneller ist als ein Zen-3D, hat man wohl eh schon weit über 100 FPS.

Mich interessieren jetzt nur noch die Tests mit maximal optimierten RAM und Curve Optimizer, vielleicht noch für die eine oder andere Überraschung gut.

Zossel
2022-08-30, 21:43:12
Was ein Blödsinn. Warum sollten die DEVs speziell auf einen 5800X3D optimieren wenn diese CPU im globalen Markt nahezu keine Rolle spielt? AMD wäre ganz schön dämlich wenn sie so eine CPU (auf die man speziell optimieren muss) überhaupt releasen würden.

Von Cache-friendly Software profitieren auch andere CPUs.

iamthebear
2022-08-30, 23:06:40
Also ich habe eher den Eindruck, dass es umgekehrt ist:
Gut optimierte Spiepe wurden erfolgreich darauf getrimmt, dass sie mit den 8MB L3 auskommen, denn das ist die Menge, die jahrelang für Intel Quad Cores üblich war und ist somit der kleinste gemeinsame Nenner ähnlich der GTX 1060. Zen/Zen+/Zen2 hatte 16MB. Das sind die 2. Sorgenkinder nach dem Intel Quads.

Es sind eher die schlecht optimierten Spiele, die deutlich mehr als 32MB brauchen.

Ausnahmen sind alte Spiepe wie CSGO, die so klein sind, dass sie von sich aus schon in den L3 passen.

Exxtreme
2022-08-30, 23:16:22
Es sind eher die schlecht optimierten Spiele, die deutlich mehr als 32MB brauchen.


Kann man so pauschal nicht sagen. Je besser die Grafik, desto mehr Daten müssen verarbeitet werden und desto höher die Wahrscheinlichkeit, dass der L3-Cache ausgeht.

robbitop
2022-08-31, 00:01:11
Je größer das instruction set desto mehr Cache braucht es nunmal für die gleiche hitrate.
Da kann man sicherlich auch optimieren - aber das hat sicherlich alles Grenzen.

Leonidas
2022-08-31, 07:22:32
Die General Specifications sind ja diesmal ziemlich ausführlich:
https://www.amd.com/en/product/12166

Die zum 5800X3D angegebene Die-Größe ist wohl ein C&P-Fehler seitens AMD: Denn das Z3-CCD ist größer als 74mm², dieser Wert passt exakt zum Z2-CCD.

Zossel
2022-08-31, 07:49:09
Die General Specifications sind ja diesmal ziemlich ausführlich:
https://www.amd.com/en/product/12166
Und Intel ist weiterhin keine Alternative:
ECC Support Yes (Requires mobo support)

][immy
2022-08-31, 08:18:40
Und Intel ist weiterhin keine Alternative:
Ich dachte bei DDR5 wäre ECC Grundvoraussetzung, da die Frequenzen so hoch sind, das man dies als Fehlerkorrektur braucht. Oder wurde es dann doch noch aus dem Standard gestrichen?

Rancor
2022-08-31, 08:24:21
4 Jahre behalten? Äh was? Als AM4 User haben die meisten hier jedes Jahre neue CPU reigesteckt. Hat mit nem 1700X angefangen, dann kam ein 2700X rein, dann nen 3900X dann war 1,5 Jahre Pause, weil es keine Biose mehr gab, (oder aber gleich umstieg auf X570) dann plötzlich wieder doch, und nen 5800X oder 5900X, dann nen X3D usw. ;D

Bei Intel geht es ja in der Regel nicht. Da steckt man fest. 4 Ever 9900k z.B.

Ja aber das ist ja dein eigenes Problem mangels ausreichender Kaufimpulskontrolle :D Also ich habe 1x die CPU auf AM4 gewechselt.

HOT
2022-08-31, 08:43:26
Bin auch der Meinung das Zen 4 immer schneller sein wird, und eben viel konstanter schneller.

In Borderlands 3 bringt der Cache z.B. auch nix.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=610603

5800x3D ~ 285fps

5700X ~ 285 FPS

Dein dämlicher Kreuzzug gegen den VCache geht mir echt zunehmend auf den Zeiger.
Der VCache bringt im Durchschnitt 20%, da ändern auch Ausnahmen wie Borderlands nichts dran. Und der wird auch bei Zen4 wieder viele % bringen.
Und nein, da ist nichts schlechter optimiert oder sonst irgendein Blödsinn, es gibt Spiele, die reagieren eben gut auf den Cache und andere (deutlich weniger) dann wieder nicht. Das ist eben so. Dennoch ist dieser VCache genauso ein Gamechanger wie er es beim 5775c war. Dort hab ich auch gedacht, ach das egalisiert sich mit der Zeit und dann ist das Teil lahm - nein, das war nicht der Fall, wie der Anand-Test vor einier Zeit zeigte.

][immy
2022-08-31, 08:51:55
Ja aber das ist ja dein eigenes Problem mangels ausreichender Kaufimpulskontrolle :D Also ich habe 1x die CPU auf AM4 gewechselt.
sehe ich ähnlich (nur ein wechsel vom 2600 -> 3700x (ok 3 wenn man mitrechnet das der erste 3700x kaputt war :D ))
Nicht jeder (auch nicht hier im Forum) wechselt immer gleich auf die neuste Generation, nur weil dabei eventuell ein paar FPS mehr raus kommen. Sonst hätten wir wohl auch alle eine RTX3090 im Rechner.
Der CPU-Tausch lohnt halt auch nur noch recht selten. Gut ein 1st Gen Ryzen ist inzwischen etwas angestaubt, kann aber trotzdem noch so einiges machen. Zudem haben wohl auch immer weniger Spieler einen 1080p Bildschirm, da fällt der Unterschied gleich noch seltener auf und Freesync/gsync erledigt dann den Rest, wobei viele früher wohl auch mit Vsync-Off gespielt haben und die Artefakte hingenommen haben. Kommt aber letztlich drauf an was man am Ende möchte. Mir reichen z.B. bei Spielen 60fps vollkommen. Und ansonsten arbeite ich nur daran, was aber keine wirklich CPU-intensiven Tasks enthält.

Ich bin zwar immer wieder am Überlegen mir ein B550-Board zu holen (aktuell B450) aber das liegt vor allem an einem zweiten m.2 Port. Der Ryzen 5800x3D wäre zwar an sich auch nett (aus technischer Sicht) mir wirklich was bringen würde er jedoch wohl kaum (auch wenn es mich bei den CPUs in den Fingern juckt auf kaufen zu klicken).

Zen 4 wäre aber die erste Stufe wo aus meiner Sicht ein Upgrade tatsächlich Sinn ergibt. Denn hier gibt es dann gleich auch DDR5 & co "dazu". Wird nur leider wieder kostenintensiver.

Bin auch der Meinung das Zen 4 immer schneller sein wird, und eben viel konstanter schneller.

In Borderlands 3 bringt der Cache z.B. auch nix.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=610603

5800x3D ~ 285fps

5700X ~ 285 FPS
Bringt halt nicht überall was (in FPS), vor allem wenn man sich in GPU-limitierende Bereiche begibt ist für die CPU wohl wenig zu holen. Was bei solchen vergleichen interessanter ist, ist der Vergleich der CPU-Auslastung und des Energieverbrauchs. Also wenn man schon 1:1 die gleiche Leistung hat, liegt der Vorteil garantiert in einem Bereich den man nicht direkt sieht.

dargo
2022-08-31, 09:08:15
Was ich bei Zen4 ziemlich ätzend finde sind die offiziellen TDPs. WTF AMD? Der kleinste Zen4 der bald released wird säuft 142W (PPT)? :| Da geht AMD von 65W TDP (Zen3) auf 105W TDP (Zen4) hoch trotz kleinerer Fertigung. :crazy2: Was soll denn diese Brechstange wieder? Werde das Gefühl nicht los der Desktop wird langsam aber sicher zum Reinfall. Zuerst fing das mit den Grafikkarten an jetzt wird diese sche... mit CPUs fortgesetzt. :mad: Und der ganz dicke Brummer ist dann der 7900X aufwärts mit 170W TDP, das sind dann wohl um die 230W Verbrauch. :ucrazy:

Exxtreme
2022-08-31, 09:09:46
Was ich bei Zen4 ziemlich ätzend finde sind die offiziellen TDPs. WTF AMD? Der kleinste Zen4 der bald released wird säuft 142W (PPT)? :| Da geht AMD von 65W TDP (Zen3) auf 105W TDP (Zen4) hoch trotz kleinerer Fertigung. :crazy2: Was soll denn diese Brechstange wieder? Werde das Gefühl nicht los der Desktop wird langsam aber sicher zum Reinfall. Zuerst fing das mit den Grafikkarten an jetzt wird diese sche... mit CPUs fortgesetzt. :mad: Und der ganz dicke Brummer ist dann der 7900X aufwärts mit 170W TDP, das sind dann wohl um die 230W Verbrauch. :ucrazy:

Du kannst die CPUs drosseln, sodass sie weniger Strom brauchen. :)

y33H@
2022-08-31, 09:09:50
CPUs mit 65W TDP folgen ...

dargo
2022-08-31, 09:12:38
Du kannst die CPUs drosseln, sodass sie weniger Strom brauchen. :)
Klar... die Hardware wird an die Kotzgrenze getrieben damit der User sie dann drosseln darf. Das nennt man wohl Gewinnmaximierung fürs Unternehmen. :ulol:

CPUs mit 65W TDP folgen ...
Sind auch 24 Threader mit 105W TDP geplant?

Exxtreme
2022-08-31, 09:16:06
Klar... die Hardware wird an die Kotzgrenze getrieben damit der User sie dann drosseln darf. Das nennt man wohl Gewinnmaximierung fürs Unternehmen. :ulol:

Das sehe ich nicht so eng. Gibt es ein Problem, welches ich selbst einfach beheben kann dann ist das kein Problem und somit kein Nachteil für mich. :) Gibt ja Programme, mit denen man die CPUs einfach drosseln kann.

Der_Korken
2022-08-31, 09:17:48
Was ich bei Zen4 ziemlich ätzend finde sind die offiziellen TDPs. WTF AMD? Der kleinste Zen4 der bald released wird säuft 142W (PPT)? :| Da geht AMD von 65W TDP (Zen3) auf 105W TDP (Zen4) hoch trotz kleinerer Fertigung. :crazy2: Was soll denn diese Brechstange wieder? Werde das Gefühl nicht los der Desktop wird langsam aber sicher zum Reinfall. Zuerst fing das mit den Grafikkarten an jetzt wird diese sche... mit CPUs fortgesetzt. :mad: Und der ganz dicke Brummer ist dann der 7900X aufwärts mit 170W TDP, das sind dann wohl um die 230W Verbrauch. :ucrazy:

Da bin ich absolut bei dir. Mich hat immer beruhigt, dass der 7950X gegenüber dem 5950X in allen TDPs (65, 105, 170) deutlich zulegt und sogar mehr, je kleiner die TDP. Offensichtlich ist die CPU also deutlich sparsamer geworden und der Grund für die hohe TDP ist anscheinend nur der Schwanzvergleich in den Reviews, wo sicher keiner für Lautstärke und Temperaturen interessiert, sondern nur darum wer den anderen mit seinen 3% Vorsprung "vernichtet". In einem Leak wurde das als Paradigmenwechsel beschrieben, dass man Desktop-Modelle zukünftig ähnlich wie mobile CPUs ohne Takt- oder Verbrauchslimits betreiben will (naja fast), sondern nur durch die Temp limitieren will. Es ist also gewollt, dass die CPU im Ernstfall auf MT = ST durchboostet, egal was die Effizienz sagt. Naja, solange man selber noch drosseln kann ...

#44
2022-08-31, 09:20:02
Das sehe ich nicht so eng. Gibt es ein Problem, welches ich selbst einfach beheben kann dann ist das kein Problem und somit kein Nachteil für mich. :) Gibt ja Programme, mit denen man die CPUs einfach drosseln kann.
Nicht nur das - am Ende ändert die TDP ja wenig am Idle/Teillastverbrauch sonder ermöglicht schlicht mehr Topend.
Eine CPU die solche Elastizität anbietet ist doch für die Meisten erstmal wünschenswert. Dass Games auf Effizienz scheißen und die CPU auch gerne unter Vollast laufen lassen, nur damit die FPS vierstellig werden ist doch eher ein Problem des Nutzungsszenarios...
Aber dann hat man vielleicht auch einfach "zu viel" CPU gekauft, wenn man die Vollast gar nicht nutzen mag :uponder:

Was mich da eher stört sind die dafür drumrum nötigen elektrischen Komponenten, die dann Boards/NTs teurer machen.

iamthebear
2022-08-31, 09:46:54
142W ist doch nur das Maximum. Ich bin mir sicher es wird auch wieder einen Eco Modus geben. Einmal abgesehen denke ich, dass bei 4.7 bis 5.3GHz der 7600X in realen Workloads gar nicht in der Lage ist die 142W auszureizen.
Und auch beim 7950X werden die 230W nur realistisch sein wenn alle 32 Threads auf Volllast laufen und dann braucht man die Performance sowieso.

][immy
2022-08-31, 09:54:32
Nicht nur das - am Ende ändert die TDP ja wenig am Idle/Teillastverbrauch sonder ermöglicht schlicht mehr Topend.
Eine CPU die solche Elastizität anbietet ist doch für die Meisten erstmal wünschenswert. Dass Games auf Effizienz scheißen und die CPU auch gerne unter Vollast laufen lassen, nur damit die FPS vierstellig werden ist doch eher ein Problem des Nutzungsszenarios...
Aber dann hat man vielleicht auch einfach "zu viel" CPU gekauft, wenn man die Vollast gar nicht nutzen mag :uponder:

Was mich da eher stört sind die dafür drumrum nötigen elektrischen Komponenten, die dann Boards/NTs teurer machen.
Es ist ja nicht nur das. Besonders Intel hat das ganze ja befeuert. Sie konnten schlicht nicht kleinere Strukturen liefern um also trotzdem ein Konkurrierendes Produkt zu liefern mussten sie das zur Verfügung stehende halt maximieren. Ist ja auch irgendwie effizient so viel aus einem Stück Silizium raus zu holen wie man kann. Nur nicht unbedingt energieeffizient.
AMD muss da nun natürlich auch (wenn auch dank besserer Fertigung deutlich weniger extrem) auch nachziehen um nicht von der Konkurrenz abgehängt zu werden.
Designs wie Apple sie nutzt sind in der Massenfertigung (wo man eine extremes Spektrum abdecken muss) einfach nicht möglich. Das hat auch nichts mit ARM oder x86 zu tun (mit x86 haben die CPUs intern sowieso nicht mehr viel zu tun), das ist einfach eine Designentscheidung die man treffen muss welche Märkte man abdecken können will/muss.

Aber ja, das die CPUs & GPUs immer mehr und mehr Verbrauchen, geht mir auch schon auf den Senkel. Ja, man kann sie drosseln (was ich mit meiner RTX 3070 tue damit sie leise bleibt), aber das ist jetzt auch nicht unbedingt Sinn des ganzen. Auf der anderen Seite geht der Verbrauch aber auch bei den CPUs besonders hoch, die einfach deutlich mehr Kerne haben. Da ist halt das Ziel das jeder Kern eine hohe Leistung abliefern kann und das skaliert dann halt relativ linear, wenn nicht einzelne Kerne runter takten sollen obwohl der Workload da wäre weiter bearbeitet zu werden.

#44
2022-08-31, 10:08:03
Solange die Perf/W steigt habe ich keine Beschwerden und verstehe auch Bezeichnungen wie Kotzgrenze nicht. Da wird das Material sinnvollerweise ausgereizt.

Wenn die Perf/W fällt sieht das Ganze aber anders aus.

Platos
2022-08-31, 10:23:20
CPUs mit 65W TDP folgen ...

Ah ja? Mit was für Zeiträumen muss man den rechnen? 3 Monate? 1 Jahr? 1.5 Jahre?

Ich dachte bei DDR5 wäre ECC Grundvoraussetzung, da die Frequenzen so hoch sind, das man dies als Fehlerkorrektur braucht. Oder wurde es dann doch noch aus dem Standard gestrichen?

Das würde ich auch gerne wissen. Ich dachte, das sei bei DDR5 immer mit drin?

Solange die Perf/W steigt habe ich keine Beschwerden und verstehe auch Bezeichnungen wie Kotzgrenze nicht. Da wird das Material sinnvollerweise ausgereizt.

Wenn die Perf/W fällt sieht das Ganze aber anders aus.

Ob etwas an der Kotzgrenze läuft oder nicht, kann man nicht an der Vorgängergeneration festmachen. Das geht einzig und allein beim gleichen Produkt. Verschiedene Powerlimits ansetzen und schauen, wie die CPU skaliert. Ist der Defaultzustand dann in der Kurve ein Punkt mit hoher Steigung, ist es eher ein ineffizienter Bereich. Was der Vorgägner treibt, ist dabei erstmal egal (weniger Effizient wirds wohl kaum sein).

Und dazu gibts noch keine Informationen.

Das sehe ich nicht so eng. Gibt es ein [i]Problem, welches ich selbst einfach beheben kann dann ist das kein Problem und somit kein Nachteil für mich. :) Gibt ja Programme, mit denen man die CPUs einfach drosseln kann.

Das geht vlt. bei Nutzern wie uns, abern icht für die Masse. Die Betreibt dann für 5% mehr Perfomance 50% mehr Stromverbrauch oder solche Spässe. Ebenfalls können solche Nutzer dann viele Hardwarebauteile nicht mehr kaufen, ohne ein neues Netzteil zu kaufen. 300W GPU plus (irgendwann) 200W CPU? Nope, dein 450W Netzteil sagt nein.

Ne, das finde ich nicht gut.

Abgesehen davon, gibt es irgendwann möglicherweise auch Netzteilprobleme, wenn man Beispielsweise ein 450W Netzteil hat (reicht vollkommen aus für 250W GPU und 100W CPU), die GPU aber schon alleine 450W zieht und die CPU 250W irgendwann.

Thunder99
2022-08-31, 10:28:35
So lange der Markt nach schnellerem Silizium schreit wird es so weiter gehen. Intel hat vorgelegt und AMD zieht nun nach um konkurrenzfähig zu sein/bleiben.

Ich kritisiere das auch aber man hat leider immer weniger eine Wahl. Alles braucht mehr Energie und die Energiepreise steigen, ganz toll :freak:

Platos
2022-08-31, 10:33:24
So lange der Markt nach schnellerem Silizium schreit wird es so weiter gehen. Intel hat vorgelegt und AMD zieht nun nach um konkurrenzfähig zu sein/bleiben.

Ich kritisiere das auch aber man hat leider immer weniger eine Wahl. Alles braucht mehr Energie und die Energiepreise steigen, ganz toll :freak:

Du meinst, solange man Hardware im Handel verkaufen darf, die kein bisschen auf Effizienz achten muss?

Es ginge auch mit Effizienzvorgaben, wie es sie z.B bei TVs gibt.

Exxtreme
2022-08-31, 10:38:59
Du meinst, solange man Hardware im Handel verkaufen darf, die kein bisschen auf Effizienz achten muss?

Es ginge auch mit Effizienzvorgaben, wie es sie z.B bei TVs gibt.

Man kann sich die Effizienzvorgabe ja selber machen und drosseln. Da braucht's keinen Staat, der einen zwangsbeglückt. :freak:

BlacKi
2022-08-31, 10:39:57
Solange die Perf/W steigt habe ich keine Beschwerden und verstehe auch Bezeichnungen wie Kotzgrenze nicht. Da wird das Material sinnvollerweise ausgereizt.

Wenn die Perf/W fällt sieht das Ganze aber anders aus.
ich würde aufpassen ob das nicht durch neue features geschönt ist. es wurde cb23 genutzt.


alderlake hat letztes jahr dort die leistung gegenüber dem 10900k fast verdoppelt. und das ging nicht alleine auf 14nm vs 10nm zurück.

Platos
2022-08-31, 10:42:29
Man kann sich die Effizienzvorgabe ja selber machen und drosseln. Da braucht's keinen Staat, der einen zwangsbeglückt. :freak:

Wie gesagt, das kann vlt. ich, du und die anderen hier, aber die Masse eben nicht.

Die Masse tuned nicht die Hardware.

basix
2022-08-31, 10:47:22
Also ich habe eher den Eindruck, dass es umgekehrt ist:
Gut optimierte Spiepe wurden erfolgreich darauf getrimmt, dass sie mit den 8MB L3 auskommen, denn das ist die Menge, die jahrelang für Intel Quad Cores üblich war und ist somit der kleinste gemeinsame Nenner ähnlich der GTX 1060. Zen/Zen+/Zen2 hatte 16MB. Das sind die 2. Sorgenkinder nach dem Intel Quads.


Zen 1 hatte 8 MByte L3$ pro Core zur Verfügung ;) Aber sonst stimme ich dir zu: Optimierte man auf diese Menge, war das sicher keine schlechte Idee.


Es sind eher die schlecht optimierten Spiele, die deutlich mehr als 32MB brauchen.
Ist die Frage, ob das an Cache-Grösse Optimierung oder halt gewissen Eigenschaften der Engine liegt. Wenn viele zufällige Speicherzugriffe vonnöten sind, ist ein grosser Cache per se sehr hilfreich. Deswegen steigt die Gaming-IPC der Intel CPUs mit steigender Core Anzahl: Der L3-Cache wächst mit.


CPUs mit 65W TDP folgen ...

Non-X CPUs?

Der_Korken
2022-08-31, 10:52:39
Was mich da eher stört sind die dafür drumrum nötigen elektrischen Komponenten, die dann Boards/NTs teurer machen.

Korrekt. Ich will keine CPU haben, die in 95% aller Anwendungen ihr Verbrauchslimit nicht ausreizt aber in den 5% dann säuft, was das Zeug hält. Dann muss ich VRMs und NT trotzdem für diese 5% auslegen und teure, überfrachtete Boards haben anscheinend oft selber einen beschissenen Idle-Verbrauch, sodass sich das auf den restlichen Betrieb sogar leicht nachteilig auswirkt. Wenn ich die Verbrauchsspitzen abschneiden kann und dabei vielleicht 5% Leistung in entsprechenden Szenarien finde, dann tu ich das.

Wenn die Perf/W fällt sieht das Ganze aber anders aus.

Lustigerweise könnte genau das passieren, wenn man die Modelle vergleicht, bei denen die TDP gestiegen ist, d.h. 7600X und 7950X. Die dürfen jeweils 60% mehr ziehen als der Vorgänger, werden aber bei gleichem Core-Count nicht auf +60% Leistung kommen. Mir ist natürlich klar, dass ich die 7000er super effizient bekomme, wenn ich sie drossele, weil sie wesentlich besser nach unten skalieren werden als die 5000er, aber ich finde die Standardkonfiguration einfach affig.

dargo
2022-08-31, 11:02:26
Solange die Perf/W steigt habe ich keine Beschwerden und verstehe auch Bezeichnungen wie Kotzgrenze nicht. Da wird das Material sinnvollerweise ausgereizt.

Du meinst also wenn zukünftige Designs noch höhere Frequenzen erlauben (bsw. 6-7Ghz) ist alles in bester Ordung wenn die TDP (nicht mit PPT verwechseln die ja nochmals höher liegt) dann auch auf 250-300W hochgeht weil das Material "sinnvollerweise" ausgereizt wird? Was ist das bitte für ein kruddes Gedankenspiel? :freak:

Schnitzl
2022-08-31, 11:13:33
CPUs mit 65W TDP folgen ...
zeitnah? :)

fondness
2022-08-31, 11:20:28
Man kann die 65W ganz einfach im BIOS einstellen. Eine eigene 65W CPU ist nur was für Dummies.

prinz_valium_2
2022-08-31, 11:20:41
ROG Strix B650E-E Gaming Wifi
ROG Strix B650-A Gaming Wifi
TUF Gaming B650-Plus Wifi
TUF Gaming B650 Plus
TUF Gaming B650M Plus
TUF Gaming B650M Plus Wifi
Prime B650 Plus
https://videocardz.com/newz/list-of-asus-b650-motherboards-for-ryzen-7000-cpus-has-been-leaked


Nur ein einziges B Board als extreme Variante

BlacKi
2022-08-31, 11:24:40
Man kann die 65W ganz einfach im BIOS einstellen. Eine eigene 65W CPU ist nur was für Dummies.naja, 65w cpus sind meist langsamer und günstiger.

Linmoum
2022-08-31, 11:30:20
Günstiger ist halt der Knackpunkt. Bei zwei Launch-SKUs hat AMD den Preis schon nicht angefasst, bei den anderen beiden den Preis sogar gesenkt, obwohl die Kosten alleine durch die N5-Chiplets und jetzt auch noch ein >120mm2 IO-Die in N6 deutlich gestiegen sind. Und da spielen Dinge wie Inflation noch gar keine Rolle.

Dass da noch andere SKUs kommen werden, ist logisch. Aber sicherlich nicht zeitnah. Auch Intel wird erst i7/i9 launchen und den Rest dann vermutlich Anfang des Jahres. Obwohl die kleineren CPUs ja sogar nur ADL sein sollen.

r3ptil3
2022-08-31, 11:34:15
AMD hat übrigens gerade erst das Launchdatum der neuen Zen4 Modelle angepasst. Bis gestern früh stand auf der AMD-Seite noch 15-09 drin. War also tatsächlich zuerst so geplant.

Exxtreme
2022-08-31, 11:36:58
https://videocardz.com/newz/list-of-asus-b650-motherboards-for-ryzen-7000-cpus-has-been-leaked


Nur ein einziges B Board als extreme Variante

Und das wird wahrscheinlich einen saftigen Aufpreis geben. -.- Cool wären Nicht-E-Boards mit Pcie5. :)

davidzo
2022-08-31, 11:39:25
Was sagt ihr eigentlich zur angeblich so tollen Flächeneffizienz?

90MTr/mm2 finde ich etwas underwhelming und wenn ich mir die IPC anschaue sind 3.84mm2 auch keine Glanzleistung. Die IPC und Energieefizienz ist immer noch deutlich hinter dem was Apple vor 2 Jahren im selben Prozess erreicht hat.

Apples neue Avalanche Cores kommen auf 2.76mm2, die originalen Firestormkerne sogar nur auf 2.28mm2. Klar, bei AMD ist der L2 Cache mit drin, allerdings übernimmt der gigantische L1 diese Aufgabe bei Apples Architektur, während der shared L2 dort als LLC eher mit AMDs L3 zu vergleichen ist.

Selbst wenn man Zen4 ohne L2 betrachtet sind die 2.6mm2 nicht so beeindruckend, schließlich kommt Zen4 nur auf 32+32kb und Apple auf 128+192kb.

Angeblich kann Apple ja nur so breite Architekturen bauen weil ihnen das Transistorbudget egal ist und sie einen Fertigungsvorteil haben. - Jetzt sind beide Vorteile weg und es stellt sich heraus dass Apples Cores sogar schlanker sind als AMDs und erst recht als Intels dekadente Cove-Cores. Trotz doppelt so großem OoO Window und beinahe doppelten Ausführungsressourcen und 4x so großem L1 Cache der noch dazu ultra low latency ist.

Bei der absoluten Leistung wird AMD wohl vorne liegen, aber zu welchem preis? +100% Mehrverbrauch für +20% Leistung? Das macht nicht nur im mobile keinen Sinn, sondern langsam auch im Desktop nicht mehr.

BlacKi
2022-08-31, 11:42:31
Und das wird wahrscheinlich einen saftigen Aufpreis geben. -.- Cool wären Nicht-E-Boards mit Pcie5. :)
wenn die 125€ boards so aussehen, ist das, mal vorsichtig ausgedrückt, die falsche entwicklung. das gezeigte, kostet aktuell 71 € und hat auch pcie 4.0 auf dem pcie 16x slot.



https://gzhls.at/i/44/24/2354424-l2.jpg

dargo
2022-08-31, 11:48:26
Man kann die 65W ganz einfach im BIOS einstellen. Eine eigene 65W CPU ist nur was für Dummies.
Was ein Schwachsinn. :rolleyes: Ihr rafft offenbar immer noch nicht, dass der Kunde mehr als nötig für diese hochgeprügelten CPUs bezahlt wenn er anschließend die drosseln muss.

Exxtreme
2022-08-31, 11:50:16
Was ein Schwachsinn. :rolleyes: Ihr rafft offenbar immer noch nicht, dass der Kunde mehr als nötig für diese hochgeprügelten CPUs bezahlt wenn er anschließend die drosseln muss.

Wenn sie zu teuer sind dann kauft man sie halt nicht. Problem solved. :)

Der_Korken
2022-08-31, 11:56:37
Was sagt ihr eigentlich zur angeblich so tollen Flächeneffizienz?

90MTr/mm2 finde ich etwas underwhelming und wenn ich mir die IPC anschaue sind 3.84mm2 auch keine Glanzleistung. Die IPC und Energieefizienz ist immer noch deutlich hinter dem was Apple vor 2 Jahren im selben Prozess erreicht hat.

Apples neue Avalanche Cores kommen auf 2.76mm2, die originalen Firestormkerne sogar nur auf 2.28mm2. Klar, bei AMD ist der L2 Cache mit drin, allerdings übernimmt der gigantische L1 diese Aufgabe bei Apples Architektur, während der shared L2 dort als LLC eher mit AMDs L3 zu vergleichen ist.

Selbst wenn man Zen4 ohne L2 betrachtet sind die 2.6mm2 nicht so beeindruckend, schließlich kommt Zen4 nur auf 32+32kb und Apple auf 128+192kb.

Angeblich kann Apple ja nur so breite Architekturen bauen weil ihnen das Transistorbudget egal ist und sie einen Fertigungsvorteil haben. - Jetzt sind beide Vorteile weg und es stellt sich heraus dass Apples Cores sogar schlanker sind als AMDs und erst recht als Intels dekadente Cove-Cores. Trotz doppelt so großem OoO Window und beinahe doppelten Ausführungsressourcen und 4x so großem L1 Cache der noch dazu ultra low latency ist.

Bei der absoluten Leistung wird AMD wohl vorne liegen, aber zu welchem preis? +100% Mehrverbrauch für +20% Leistung? Das macht nicht nur im mobile keinen Sinn, sondern langsam auch im Desktop nicht mehr.

Naja, bei der IPC unterschlägst du aber, dass Apples Firestorm nicht mal im Ansatz auf die Taktraten von AMD kommen würde. Die 5,7Ghz von Zen 4 mögen weiter über dem Sweetspot sein als die 3,2Ghz von Firestorm, aber nicht so weit wie es der absolute Takt vielleicht impliziert. Man muss schon ST-Leistung als Kombination aus maximal sinnvollem Takt und IPC betrachten. Da sehe ich Zen 4 nicht so schlecht aufgestellt, da Zen 3 da schon nah dran war, Avalance afaik nur 10% schneller ist und Zen 4 von seinen 29% bequem ein paar % opfern kann, um mit Avalanche gleichzuziehen, aber die extremen Spannungen wegzulassen.

Was die Energieffizienz angeht, muss man erstmal schauen, wie sich Zen 4 bei ST-Last verhält. Hier sah der Vergleich zwischen Avalanche, Rembrandt und Alder-Lake katastrophal für die x86-Archs aus, allerdings waren Rembrandt und Avalanche in MT etwa gleichauf bei der Effizienz trotz 5nm vs 6nm. Durch SMT und die nicht mehr so teuer erkauften Boost-Clocks sieht MT also bereits jetzt gut aus. Bei der Fläche magst du Recht haben, aber da würde ich mit dem Urteil abwarten, bis wir die MT-Performance der APUs gesehen haben. Bisher hatten die Kerne von Intel und AMD deutlich mehr Breite als durch einen einzelnen Thread ausgenutzt werden konnte. Das kostet natürlich Fläche. Wenn Phoenix Point in MT bei gleichem Verbrauch jetzt plötzlich 30% mehr Performance hat als Avalanche, dann ist die größere Fläche schon ein Stück weit gerechtfertigt.

Der L1 ist bei Apple übrigens deswegen so low-latency (3 Takte), weil er nur 3,x Ghz schaffen muss und keine 5,x Ghz. Die absolute Latenz wird schlechter sein als die von Zen 4, sofern AMD nicht heimlich auf 5 Takte erhöht hat. Und zu der Größe habe ich in den Speku-Threads schon mehrmals geschrieben, dass wir bei x86 so schnell keine größeren L1-Caches als 32kB sehen werden, wegen VIPT (virtually-indexed-physically-tagged). Das wird sich erst ändern, wenn man entweder
- massive Assoziativitäten in Kauf nimmt (so wie Intel mit 48kB, 12-way, was aber sicher massiv Strom kostet)
- die Page-Size des RAMs von 4kB vergrößert (ARM nutzt 16kB, deswegen bekommt man den L1 auch ohne Verrenkungen 4x so groß)
- den L1-Cache mit virtuallen Adressen anspricht (mit allen Nachteilen, die das bringt)
- einen so massiven Sprung bei der L1-Größe hinlegt, dass der Verlust von VIPT nicht so schwer wiegt.

SavageX
2022-08-31, 11:59:42
[immy;13094481']Ich dachte bei DDR5 wäre ECC Grundvoraussetzung, da die Frequenzen so hoch sind, das man dies als Fehlerkorrektur braucht. Oder wurde es dann doch noch aus dem Standard gestrichen?

Bei DDR5 ist ECC erstmal nur innerhalb des Speicherchips vorgesehen ("on-die ECC"), um die Defekte zu verbergen, die bei kostengünstig produziertem Speicher bei kleinen Fertigungsgrößen vermehrt zu erwarten sind. Das ECC soll also erstmal nur dafür sorgen, dass der Speicher "überhaupt" erstmal nicht unzuverlässiger als bisher ist.

Wenn on-die ECC einen Fehler behebt, dann bekommt das aber der Rest des Systems nicht mit. Auch ist der Weg zwischen CPU und Speicher weiterhin nicht gesichert.

Deshalb wird es auch bei DDR5 noch Speicherriegel mit "echtem" ECC geben, damit der komplette Hin- und Rückweg auch gesichert ist und das System erkennen kann, dass irgendwo im Speichersystem etwas falsch läuft.

Für das Marketing ist es natürlich super, dass jeder RAMsch-Riegel jetzt "on-die ECC" draufstehen hat.

HOT
2022-08-31, 12:03:33
wenn die 125€ boards so aussehen, ist das, mal vorsichtig ausgedrückt, die falsche entwicklung. das gezeigte, kostet aktuell 71 € und hat auch pcie 4.0 auf dem pcie 16x slot.



https://gzhls.at/i/44/24/2354424-l2.jpg
Quatsch, damit wird schon Full-ATX gemeint sein. OEM-Bretter kommen schlichtweg später.

#44
2022-08-31, 12:03:50
Ob etwas an der Kotzgrenze läuft oder nicht, kann man nicht an der Vorgängergeneration festmachen. Das geht einzig und allein beim gleichen Produkt. Verschiedene Powerlimits ansetzen und schauen, wie die CPU skaliert. Ist der Defaultzustand dann in der Kurve ein Punkt mit hoher Steigung, ist es eher ein ineffizienter Bereich. Was der Vorgägner treibt, ist dabei erstmal egal (weniger Effizient wirds wohl kaum sein).

Und dazu gibts noch keine Informationen.
Lustigerweise könnte genau das passieren, wenn man die Modelle vergleicht, bei denen die TDP gestiegen ist, d.h. 7600X und 7950X. Die dürfen jeweils 60% mehr ziehen als der Vorgänger, werden aber bei gleichem Core-Count nicht auf +60% Leistung kommen. Mir ist natürlich klar, dass ich die 7000er super effizient bekomme, wenn ich sie drossele, weil sie wesentlich besser nach unten skalieren werden als die 5000er, aber ich finde die Standardkonfiguration einfach affig.
Stimmt, da habt ihr nicht unrecht.

Aber solange es keine konkreten Infos dazu gibt ist die gegenteilige Beurteilung genau so verfrüht.

Du meinst also wenn zukünftige Designs noch höhere Frequenzen erlauben (bsw. 6-7Ghz) ist alles in bester Ordung wenn die TDP (nicht mit PPT verwechseln die ja nochmals höher liegt) dann auch auf 250-300W hochgeht weil das Material "sinnvollerweise" ausgereizt wird? Was ist das bitte für ein kruddes Gedankenspiel? :freak:
Unter den genannten Bedingungen? Gern.

basix
2022-08-31, 12:19:01
Naja, bei der IPC unterschlägst du aber, dass Apples Firestorm nicht mal im Ansatz auf die Taktraten von AMD kommen würde. Die 5,7Ghz von Zen 4 mögen weiter über dem Sweetspot sein als die 3,2Ghz von Firestorm, aber nicht so weit wie es der absolute Takt vielleicht impliziert. Man muss schon ST-Leistung als Kombination aus maximal sinnvollem Takt und IPC betrachten. Da sehe ich Zen 4 nicht so schlecht aufgestellt, da Zen 3 da schon nah dran war, Avalance afaik nur 10% schneller ist und Zen 4 von seinen 29% bequem ein paar % opfern kann, um mit Avalanche gleichzuziehen, aber die extremen Spannungen wegzulassen.

Was die Energieffizienz angeht, muss man erstmal schauen, wie sich Zen 4 bei ST-Last verhält. Hier sah der Vergleich zwischen Avalanche, Rembrandt und Alder-Lake katastrophal für die x86-Archs aus, allerdings waren Rembrandt und Avalanche in MT etwa gleichauf bei der Effizienz trotz 5nm vs 6nm. Durch SMT und die nicht mehr so teuer erkauften Boost-Clocks sieht MT also bereits jetzt gut aus. Bei der Fläche magst du Recht haben, aber da würde ich mit dem Urteil abwarten, bis wir die MT-Performance der APUs gesehen haben. Bisher hatten die Kerne von Intel und AMD deutlich mehr Breite als durch einen einzelnen Thread ausgenutzt werden konnte. Das kostet natürlich Fläche. Wenn Phoenix Point in MT bei gleichem Verbrauch jetzt plötzlich 30% mehr Performance hat als Avalanche, dann ist die größere Fläche schon ein Stück weit gerechtfertigt.

Der L1 ist bei Apple übrigens deswegen so low-latency (3 Takte), weil er nur 3,x Ghz schaffen muss und keine 5,x Ghz. Die absolute Latenz wird schlechter sein als die von Zen 4, sofern AMD nicht heimlich auf 5 Takte erhöht hat. Und zu der Größe habe ich in den Speku-Threads schon mehrmals geschrieben, dass wir bei x86 so schnell keine größeren L1-Caches als 32kB sehen werden, wegen VIPT (virtually-indexed-physically-tagged). Das wird sich erst ändern, wenn man entweder
- massive Assoziativitäten in Kauf nimmt (so wie Intel mit 48kB, 12-way, was aber sicher massiv Strom kostet)
- die Page-Size des RAMs von 4kB vergrößert (ARM nutzt 16kB, deswegen bekommt man den L1 auch ohne Verrenkungen 4x so groß)
- den L1-Cache mit virtuallen Adressen anspricht (mit allen Nachteilen, die das bringt)
- einen so massiven Sprung bei der L1-Größe hinlegt, dass der Verlust von VIPT nicht so schwer wiegt.

Um noch zu ergänzen: Apple nutzt die Mobil-Variante von N5. Die hat von sich aus schon eine höhere Density. Ich interpretiere die stark gestiegene Transistorzahl von Zen 4 als Werkzeug, um die hohen Taktraten zu schaffen und um verbessertes Power-Management zu realisieren (Teilpfade deaktivieren usw.)

Platos
2022-08-31, 12:20:13
Bei DDR5 ist ECC erstmal nur innerhalb des Speicherchips vorgesehen ("on-die ECC"), um die Defekte zu verbergen, die bei kostengünstig produziertem Speicher bei kleinen Fertigungsgrößen vermehrt zu erwarten sind. Das ECC soll also erstmal nur dafür sorgen, dass der Speicher "überhaupt" erstmal nicht unzuverlässiger als bisher ist.

Wenn on-die ECC einen Fehler behebt, dann bekommt das aber der Rest des Systems nicht mit. Auch ist der Weg zwischen CPU und Speicher weiterhin nicht gesichert.

Deshalb wird es auch bei DDR5 noch Speicherriegel mit "echtem" ECC geben, damit der komplette Hin- und Rückweg auch gesichert ist und das System erkennen kann, dass irgendwo im Speichersystem etwas falsch läuft.

Für das Marketing ist es natürlich super, dass jeder RAMsch-Riegel jetzt "on-die ECC" draufstehen hat.

Ja gut, dann gibts aber auch (weiterhin, so wie immer) kein Bedürfnis für "echtes" ECC für Homeuser.

Stimmt, da habt ihr nicht unrecht.

Aber solange es keine konkreten Infos dazu gibt ist die gegenteilige Beurteilung genau so verfrüht.


Ja, das ist natürlich so.

Hammer des Thor
2022-08-31, 12:49:32
142W ist doch nur das Maximum. Ich bin mir sicher es wird auch wieder einen Eco Modus geben. Einmal abgesehen denke ich, dass bei 4.7 bis 5.3GHz der 7600X in realen Workloads gar nicht in der Lage ist die 142W auszureizen.
Und auch beim 7950X werden die 230W nur realistisch sein wenn alle 32 Threads auf Volllast laufen und dann braucht man die Performance sowieso.

Bei den R9 wird es wie ich verstanden habe sogar 2 Exo-Modi geben: 105 Watt und 65 Watt!

davidzo
2022-08-31, 13:30:12
Und zu der Größe habe ich in den Speku-Threads schon mehrmals geschrieben, dass wir bei x86 so schnell keine größeren L1-Caches als 32kB sehen werden, wegen VIPT (virtually-indexed-physically-tagged). Das wird sich erst ändern, wenn man entweder
- massive Assoziativitäten in Kauf nimmt (so wie Intel mit 48kB, 12-way, was aber sicher massiv Strom kostet)
- die Page-Size des RAMs von 4kB vergrößert (ARM nutzt 16kB, deswegen bekommt man den L1 auch ohne Verrenkungen 4x so groß)
- den L1-Cache mit virtuallen Adressen anspricht (mit allen Nachteilen, die das bringt)
- einen so massiven Sprung bei der L1-Größe hinlegt, dass der Verlust von VIPT nicht so schwer wiegt.

Mir ist klar dass x86 da ein handycap hat, aber wieso sollte man das bei einem Architekturvergleich herausrechnen? Das gehört doch zum Gesamtbild dazu.
Der Umstand dass das eine Instruction Set Limitierung ist mach Zen4 jetzt im Vergleich nicht unbedingt besser.

Zen4 ist halt von den OoO Ressourcen, ROB, der issue width, ALUs, L/S etc. eher ein "Small Core", verbraucht aber trotzdem soviel Transistoren, Fläche und Strom wie ein Großer. Dass man mit der Brechstange und teurem DDR5 auch auf Big-Core Leistung kommt, geschenkt. Aber wenn man sieht was die Konkurrenz seit 2 Jahren schon hat, dann darf man doch ein bisschen enttäuscht sein, oder nicht?

Um noch zu ergänzen: Apple nutzt die Mobil-Variante von N5. Die hat von sich aus schon eine höhere Density. Ich interpretiere die stark gestiegene Transistorzahl von Zen 4 als Werkzeug, um die hohen Taktraten zu schaffen und um verbessertes Power-Management zu realisieren (Teilpfade deaktivieren usw.)

A15 und M1pro+Max nutzen afaik N5P, also mitnichten einen Mobilprozess (HPC?), wenn auch sicherlich andere Libs als AMD und niedrigere drive Currents.
Und wer hindert AMD daran nicht auch effizientere Libs mit höherer Density zu nehmen und stattdessen lieber die IPC zu erhöhen? Wenn sie die IPC kaum verbessern und lieber höhere Drive currents fahren, dann ist das doch eine (schlechte) Design-Entscheidung die man mit bewerten muss oder etwa nicht?

Ich bin gespannt auf die APUs die dann drei Jahre nach M1 endlich mal in N5 ankommen. Da hat AMD die Chance es mit Density und Effizienz auch mal ernst zu machen. Zumal man dank Dragon Range beim Design von Phoenix Point auch keine Rücksicht mehr auf irgendwelche DTRs nehmen muss die mit Intels 120W Strahltriebwerken konkurrieren sollen.

Der_Korken
2022-08-31, 13:33:29
Es kommt ja auch noch Zen 4C mit angeblich halbierter Fläche. Der Takt wird da natürlich deutlich sinken, aber es könnte trotzdem noch entsprechend flächeneffizienter als Apple sein.

fondness
2022-08-31, 14:00:05
Ich bin gespannt auf die APUs die dann drei Jahre nach M1 endlich mal in N5 ankommen. Da hat AMD die Chance es mit Density und Effizienz auch mal ernst zu machen. Zumal man dank Dragon Range beim Design von Phoenix Point auch keine Rücksicht mehr auf irgendwelche DTRs nehmen muss die mit Intels 120W Strahltriebwerken konkurrieren sollen.

Das ist eigentlich der zentrale Punkt. Die aktuellen Zen4 sind ein Serverdesign mit off-chip Kommunikation das man kaum mit einem mobile SoC wie dem M1/M2 Vergleichen kann. Ganz davon abgsehen, dass Zen4 mit Sicherheit jeden Apple-Chip nass macht, gerade beim Multithreading und ganz wichtig bei der FPU-Leistung (die btw auch viel Fläche benötigt, AVX-512 lässt grüßen).

robbitop
2022-08-31, 14:12:41
Was sagt ihr eigentlich zur angeblich so tollen Flächeneffizienz?

90MTr/mm2 finde ich etwas underwhelming und wenn ich mir die IPC anschaue sind 3.84mm2 auch keine Glanzleistung. Die IPC und Energieefizienz ist immer noch deutlich hinter dem was Apple vor 2 Jahren im selben Prozess erreicht hat.

Apples neue Avalanche Cores kommen auf 2.76mm2, die originalen Firestormkerne sogar nur auf 2.28mm2. Klar, bei AMD ist der L2 Cache mit drin, allerdings übernimmt der gigantische L1 diese Aufgabe bei Apples Architektur, während der shared L2 dort als LLC eher mit AMDs L3 zu vergleichen ist.

Selbst wenn man Zen4 ohne L2 betrachtet sind die 2.6mm2 nicht so beeindruckend, schließlich kommt Zen4 nur auf 32+32kb und Apple auf 128+192kb.

Angeblich kann Apple ja nur so breite Architekturen bauen weil ihnen das Transistorbudget egal ist und sie einen Fertigungsvorteil haben. - Jetzt sind beide Vorteile weg und es stellt sich heraus dass Apples Cores sogar schlanker sind als AMDs und erst recht als Intels dekadente Cove-Cores. Trotz doppelt so großem OoO Window und beinahe doppelten Ausführungsressourcen und 4x so großem L1 Cache der noch dazu ultra low latency ist.

Bei der absoluten Leistung wird AMD wohl vorne liegen, aber zu welchem preis? +100% Mehrverbrauch für +20% Leistung? Das macht nicht nur im mobile keinen Sinn, sondern langsam auch im Desktop nicht mehr.

Ist halt der HPC Prozess der Fläche für Taktraten opfert (ggü N5P/N5). Auch kostet besonders hoher Takt viele Transistoren im physischen Design (mehr Pipelinestufen, Massetransistoren usw). Wenn man nur 3 GHz liefern muss für eine CPU geht das deutlich dichter (sowohl vom Packen her als auch vom physischen Design). Ein Zen4c Core wäre wohl vergleichbarer - aber selbst der muss wahrscheinlich deutlich schneller takten als Apples cores.

prinz_valium_2
2022-08-31, 14:15:57
Die 3D Cache Modelle sollen vllt schon zur CES angekündigt werden.
Da es nun 3D Cache für 8, 12 und 16 Kerne geben soll, ergibt auch der reduzierte Preis des 16 Kerners Sinn.

7950X3D $849/$899 (speku)
7950X $699
7900X3D $649/$699 (speku)
7900X $549
7800X3D $499/$549 (speku)
7700X $399
7600X $299

Ich denke der RRP wird dann viel von den aktuellen Markpreisen zu dem Zeitpunkt abhängen.
Wenn sie viel gefallen sind und Intel starke Konkurrenz hat, eher der günstigere Preis. Ansonsten ist auch der Höhere möglich für eine bessere Marge.
Habe überlegt ob der 16 Kerne 3D Cache vllt sogar als absolutes top end Modell für die berühmt berüchtigten $999 kommt, aber das ist dann doch zu weit weg und die krachenden GPU Preise haben den Herstellern gezeigt, dass es nicht nur in eine Richtung gehen kann.
Ich lege meine Hand dafür ins Feuer, dass die Preise nicht weit von dem entfernt liegen. Passt einfach ins Schema. Bei einem Launch so kurz nach den regulären Modellen kann man sein Preisgefüge nicht über den Haufen werfen. Und die Cache die stacks kosten immer, egal was drunter ist.

Wenn es schlecht läuft, liegt das 12 Kern 3D Cache Modell aber sogar über dem normalen 16 Kerner. Bei der 5000er Serie sollte er ja wegen den exorbitanten Kosten nicht gekommen sein.
7950X3D $999 (speku)
7900X3D $749 (speku)
7950X $699
7900X $549
7800X3D $549 (speku)
7700X $399
7600X $299

Ein 6 Kerner mit 3D Cache wäre noch hoch interessant für $399

https://videocardz.com/newz/amd-ryzen-7950x3d-7900x3d-and-7800x3d-tipped-for-ces-2023-launch

Thomas Gräf
2022-08-31, 14:49:08
Der 12 Kerner als x3d, wenn speziell dieses Design diesmal den Takt nicht zu sehr reduzieren muss, hmmm :freak:

Exxtreme
2022-08-31, 14:50:55
Der 12 Kerner als x3d, wenn speziell dieses Design diesmal den Takt nicht zu sehr reduzieren muss, hmmm :freak:
Oja ... da wird man schwach. Aber mal sehen was das bringen würde bzw. ob so ein Modell überhaupt kommt.

robbitop
2022-08-31, 14:59:59
Und wer hindert AMD daran nicht auch effizientere Libs mit höherer Density zu nehmen und stattdessen lieber die IPC zu erhöhen? Wenn sie die IPC kaum verbessern und lieber höhere Drive currents fahren, dann ist das doch eine (schlechte) Design-Entscheidung die man mit bewerten muss oder etwa nicht?


Um ganz vorn zu sein im Desktop/HPC und Server, braucht man beides. Takt und IPC. Apple designt ihre CPU Cores seit Jahren für mobile first. Und mit mobile ist Smartphone gemeint. Natürlich setzt man da ganz andere Design goals an.

Im Desktop/HPC/Server würde man mit den mobile Design Goals eben nicht erster werden.

Die Frage ist am Ende auch, wie relevant 0,5-1mm² pro Core sind, wenn man ganz oben in seinem Zielmarkt mitspielen kann. Und für die many cores gibt es dann ja die deutlich dichteren "C" cores mit 50% Größe.

Ich finde, sowas müsste man, wenn man wirklich die Cores vergleicht besser in Transistoren messen als in mm². Da verschiedene Fertigungsprozesse und layouting libraries.

Aber wenn man sieht was die Konkurrenz seit 2 Jahren schon hat, dann darf man doch ein bisschen enttäuscht sein, oder nicht?



Abschließend darf auch noch folgendes gesagt sein: Apple hat mit Abstand das größte Budget (ohne den Fokus und die Execution so zu verlieren, wie Intel es lange Zeit hatte) und mittlerweile die besten, talentiertesten Leute in dem Bereich. Wenn man da in einer Metrik nicht erster wird gegen Apple ist das keine Schande. Insbesondere wenn man sich anschaut wie winzig AMD in Bezug auf Ressourcen und Budget ist. (und dass sie viel mehr SoCs haben um die sie sich kümmern müssen).

Ex3cut3r
2022-08-31, 15:00:35
Oja ... da wird man schwach. Aber mal sehen was das bringen würde bzw. ob so ein Modell überhaupt kommt.
Bis der kommt, gibt es fast schon wieder Zen 5. AMD weiß wie man die Freaks 2xmal zur Kasse bittet. :biggrin:

davidzo
2022-08-31, 15:18:51
Das ist eigentlich der zentrale Punkt. Die aktuellen Zen4 sind ein Serverdesign mit off-chip Kommunikation das man kaum mit einem mobile SoC wie dem M1/M2 Vergleichen kann.
Ne, M1/M2 muss man mit eher dem 6900U vergleichen.
Der Desktop Chip ist der M1Ultra und der ist in MT absolut vergleichbar mit dem neuen 7950X und 80% in ST. (1,8K ST und 24K MT in GB5 MT Bei reiner MT-CPUload ca. 90Watt total system power draw, mehr erst bei GPUload).


Ist halt der HPC Prozess der Fläche für Taktraten opfert. Auch kostet besonders hoher Takt viele Transistoren im physischen Design (mehr Pipelinestufen, Massetransistoren usw). Wenn man nur 3 GHz liefern muss für eine CPU geht das deutlich dichter (sowohl vom Packen her als auch vom physischen Design).

3,25Ghz. Ja, ist ein tradeoff, imo aber kein guter. Aber Apple verliert ja aktuell Ingenieure an Qcomm, Intel, AMD. Es gibt also Hoffnung dass sich die Verhältnisse in 5 Jahren vielleicht mal abwechseln. Das was du beschreibst mit dem Budget und Manpower wandelt sich gerade schon, der M2 war ja auch kein großer Wurf mehr.




Ich finde, sowas müsste man, wenn man wirklich die Cores vergleicht besser in Transistoren messen als in mm². Da verschiedene Fertigungsprozesse und layouting libraries.


Disagree, es ist derselbe Prozess.
Libraries und Transistordichte sind Designentscheidungen und die können beide treffen.

r3ptil3
2022-08-31, 15:19:40
Der 12 Kerner als x3d, wenn speziell dieses Design diesmal den Takt nicht zu sehr reduzieren muss, hmmm :freak:

5.0 Ghz wären bereits ausreichend, dazu kühler, neueres Stepping, weniger Verbrauch... ideal, halt wie beim 5800X3D.

amdfanuwe
2022-08-31, 15:54:33
neueres Stepping,
Wieso neues Stepping?
AMD sollte mittlerweile genügend Erfahrung mit dem stacking haben damit das nicht nötig ist.

RitterRost
2022-08-31, 16:50:50
Ich freue mich auch auf die Ryzen7000X3D Benchmarks und möchte mal daran erinnern, dass der Extra Cache sehr wohl positive Auswirkungen auf die Anwendungsperformance hat - es kommt halt auf die Anwendung an.

Besonders schön war das in den Linux Benchmarks zu sehen, wo der 5800X3D gegen einen 5800X antrat. Trotz Taktnachteil half der Cache bei Simulationen, compilieren, etc.
Wenn bei den 7000X3D dann noch der Taktnachteil wegfallen sollte...

https://www.phoronix.com/review/amd-5800x3d-linux

bloodflash
2022-08-31, 17:08:31
Langsam habe ich das Gefühl, dass AMD auch bei der TDP hart trollt!
Wenn ich mir folgende 3 Folien anschaue, dann habe ich das Gefühl, dass die 105W für den 7950X der Standardwert sind und man 65W oder 170W zusätzlich per RyzenMaster und/oder BIOS zuschalten kann.
https://www.anandtech.com/Gallery/Album/8183#10
https://images.anandtech.com/galleries/8183/Ryzen%207000%20Tech%20Day%20-%20Keynote%2010_575px.jpeg
https://www.anandtech.com/Gallery/Album/8183#12
https://images.anandtech.com/galleries/8183/Ryzen%207000%20Tech%20Day%20-%20Keynote%2012_575px.jpeg
https://www.anandtech.com/Gallery/Album/8183#29
https://images.anandtech.com/galleries/8183/Ryzen%207000%20Tech%20Day%20-%20Keynote%2029_575px.jpeg

Denn schon mit dem letzten der 3 Slides hätte man alle Performanceversprechen erfüllt, aber 29% ST und 37% MT schon bei 105W!

Wer eine starke Kühlung hat "drückt" den Powerbutton für 170W und holt noch einmal etwas mehr raus, denn ein 5950X skaliert mit mehr TDP ja eher wenig, der 7950X aber doch. Könnte der RyzenMaster sowieso durch die "Schutzschaltungen" in der CPU sicher betreiben bzw. warnen.

Wer eher auf einen kühlen, leisen Rechner steht geht eben auf 65W TDP und erfreut sich trotzdem an guter Performance.

Nur beim Betrachten der 3 Slides und der stark gestiegenen Performance bei niedriger TDP, würde auch die 105W für den 6- und den 8-Kerner erklären, denn im Auslieferungszustand liegen sowieso die 65W an.

Naja, die Hoffnung stirbt zuletzt...

basix
2022-08-31, 17:22:52
Die Default TDP Angaben von AMD sagen was anderes (man gehe runter auf "Specifications"):
https://www.amd.com/en/processors/ryzen

Man kann auch die V-Ray Benches anschauen: +57% schneller bei +47% Energieffizienz. Was bedeutet das? Der 7950X benötigt in dem Bench mehr Saft als ein 12900K (Power Limit vermutlich auf "Default").

Ich sehe das so: Zen 4 ist sehr effizient, vermutlich bis und mit ~4.5 GHz. Die -X SKUs werden aber im Freilauf betrieben. Man muss sich nur schon die 105W/170W Vergleiche mit dem 5950X anschauen. +35% Performance bedeutet +18% Takt verglichen mit 5950X (AMD gibt +15% IPC in V-Ray an). Bei AVX taktet der 5950X noch mit 4.2-4.3 GHz (https://www.techpowerup.com/review/amd-ryzen-9-5950x/21.html). Rechne ich hier die +18% Takt obendrauf, landet man bei sage und schreibe ~5.0 GHz All-Core Boost Takt (105W TDP). Bei 170W wäre es dann im Bereich ~5.3...5.4 GHz All-Core Boost.

Gipsel
2022-08-31, 17:35:39
Langsam habe ich das Gefühl, dass AMD auch bei der TDP hart trollt!
Wenn ich mir folgende 3 Folien anschaue, dann habe ich das Gefühl, dass die 105W für den 7950X der Standardwert sind und man 65W oder 170W zusätzlich per RyzenMaster und/oder BIOS zuschalten kann.
https://www.anandtech.com/Gallery/Album/8183#10
https://images.anandtech.com/galleries/8183/Ryzen%207000%20Tech%20Day%20-%20Keynote%2010_575px.jpeg
https://www.anandtech.com/Gallery/Album/8183#12
https://images.anandtech.com/galleries/8183/Ryzen%207000%20Tech%20Day%20-%20Keynote%2012_575px.jpeg
https://www.anandtech.com/Gallery/Album/8183#29
https://images.anandtech.com/galleries/8183/Ryzen%207000%20Tech%20Day%20-%20Keynote%2029_575px.jpeg

Denn schon mit dem letzten der 3 Slides hätte man alle Performanceversprechen erfüllt, aber 29% ST und 37% MT schon bei 105W!

Wer eine starke Kühlung hat "drückt" den Powerbutton für 170W und holt noch einmal etwas mehr raus, denn ein 5950X skaliert mit mehr TDP ja eher wenig, der 7950X aber doch. Könnte der RyzenMaster sowieso durch die "Schutzschaltungen" in der CPU sicher betreiben bzw. warnen.

Wer eher auf einen kühlen, leisen Rechner steht geht eben auf 65W TDP und erfreut sich trotzdem an guter Performance.

Nur beim Betrachten der 3 Slides und der stark gestiegenen Performance bei niedriger TDP, würde auch die 105W für den 6- und den 8-Kerner erklären, denn im Auslieferungszustand liegen sowieso die 65W an.Nach den Slides skaliert der 7950X sehr ähnlich oder tendentiell etwas weniger mit den 170W TDP als ein 5950X (der Performancevorsprung sinkt von 37% auf 35%). Es ist jetzt nur offiziell freigegeben um die letzten vielleicht 5-10% Performance rauszukitzeln (damit man im Benchmark die Nase vorn hat). Das geht natürlich auf Kosten der Effizienz. Das hat man ja auch schon z.B. beim 5800X vs. 5700X gesehen. Also viel holt der 5800X da nicht mehr raus (oder er verliert bei Beschränkung auf 65W im Eco-Mode auch nicht viel).

===================

Die Default TDP Angaben von AMD sagen was anderes (man gehe runter auf "Specifications"):
https://www.amd.com/en/processors/ryzen

Man kann auch die V-Ray Benches anschauen: +57% schneller bei +47% Energieffizienz. Was bedeutet das? Der 7950X benötigt in dem Bench mehr Saft als ein 12900K.Die Effizienzangaben gegen intel basieren übrigens auf Messungen des Gesamtsystems. Aber ja, da quetscht man Alles aus für offenbar nur noch sehr wenig Gewinn. Auf eine TDP von 105W (142W PPT) oder als Kompromiss 125W (170W PPT) beschränkt dürfte ein 7950X selbst in MT-Benchmarks nur sehr wenig verlieren aber deutlich an Effizienz gewinnen. Die Skalierung mit dem Verbrauch bzw. dessen Sweetspot hat sich (trotz höherer TDPs) im Vergleich zur 5000er Generation offenbar eher nach unten geschoben, nicht nach oben. Der Eco Mode wird bei den 7000ern Ryzen also vermutlich noch sinnvoller als bei den 5000ern werden.

Der_Korken
2022-08-31, 17:39:06
Langsam habe ich das Gefühl, dass AMD auch bei der TDP hart trollt!
Wenn ich mir folgende 3 Folien anschaue, dann habe ich das Gefühl, dass die 105W für den 7950X der Standardwert sind und man 65W oder 170W zusätzlich per RyzenMaster und/oder BIOS zuschalten kann.
https://www.anandtech.com/Gallery/Album/8183#10
https://images.anandtech.com/galleries/8183/Ryzen%207000%20Tech%20Day%20-%20Keynote%2010_575px.jpeg
https://www.anandtech.com/Gallery/Album/8183#12
https://images.anandtech.com/galleries/8183/Ryzen%207000%20Tech%20Day%20-%20Keynote%2012_575px.jpeg
https://www.anandtech.com/Gallery/Album/8183#29
https://images.anandtech.com/galleries/8183/Ryzen%207000%20Tech%20Day%20-%20Keynote%2029_575px.jpeg

Denn schon mit dem letzten der 3 Slides hätte man alle Performanceversprechen erfüllt, aber 29% ST und 37% MT schon bei 105W!

Wer eine starke Kühlung hat "drückt" den Powerbutton für 170W und holt noch einmal etwas mehr raus, denn ein 5950X skaliert mit mehr TDP ja eher wenig, der 7950X aber doch. Könnte der RyzenMaster sowieso durch die "Schutzschaltungen" in der CPU sicher betreiben bzw. warnen.

Ich würde schon sagen, dass standardmäßig das PPT des 7950X bei 230W liegt, aber dass diese in der Praxis nicht ausgereizt werden, weil etwas anderes limitiert. Zum Beispiel einer der anderen beiden Werte (TDC, EDC), die Temperatur oder der Takt (:freak:), weil alle belasteten Cores schon mit Boost-Frequenz laufen. Zen 4 sollte dennoch deutlich besser nach unten skalieren als Zen 3 - was bei einer geringeren Vergrößerung des Cores in Kombination mit einer neuen Fertigung eigentlich logisch sein sollte.

Man nehme mal den Zen-3-Test von CB, weil die dort auch den 5950X im Eco-Mode getestet haben: https://www.computerbase.de/2020-11/amd-ryzen-5000-test/5/#abschnitt_multicoreszenarien

Im Worst Case verliert der 5950X durch die kleinere TDP 20-24% Leistung (CB-MT, POV-Ray, Handbrake). Wenn ich jetzt mal die dritte Slide von dir nehme und sage, dass 5950X@140W = 100% sind, ergibt sich folgendes Bild:

5950X@88W: 78% (laut CB-Test, könnte overall auch höher sein)
5950X@140W: 100% (Baseline)
5950X@230W: 104% (zurückgerechnet über die +35% von AMDs Slides)

7950X@88W: 135% (0,78 * 1,74 gemäß AMDs Slides)
7950X@140W: 137% (gemäß AMDs Slides)
7950X@230W: 140% (wenn ich den Mittelwert über die Zuwächse auf der zweiten Folie bilde)

Jetzt könnten die +74% von AMD etwas optimistisch gewesen sein, weil sie mit höherem RAM-Takt getestet haben als CB und der SoC dem 5950X bei 88W zu viel vom Kuchen wegnimmt (bei meinem 5950X sind es knapp 35W bei RAM-OC!). Lass es mal +60% sein, dann wäre der 7950X@88W bei 125%. Und der 7950X@230W muss vermutlich über 140% liegen, weil der 5950X bei offenem PPT sicherlich mehr als 4% zulegt. Ohne da jetzt aber über 5% mehr oder weniger zu streiten, werden die Werte der drei TDPs alle nicht weiter auseinanderliegen. Ich würde sogar soweit gehen und sagen, dass der 7950X bei 230W -> 140W weniger als 10% Leistung verliert, eher nur so 5%.

AMD hat außerdem angegeben sie wären in Chaos-V-Ray 57% schneller als ein 12900K bei 47% besserer Effizienz. Der 7950X, von dem wir nicht wissen ob er dort mit 140W oder 230W (oder etwas dazwischen) lief, hat also knapp 7% mehr verbraucht als der 12900K, von dem wir auch nicht wissen, ob er mit 125W lief oder 241W. Ich würde eher davon ausgehen, dass das die >200W-Configs waren, denn wenn der 7950X defaultmäßig bei 140W capped wäre, hätte AMD es sich nicht nehmen lassen, den Effizienzvorsprung mit >100% anzugeben, weil man immer noch 40% schneller gewesen wäre, bei aber >50% Mehrverbrauch des offenen 12900K.

basix
2022-08-31, 17:43:58
Die Effizienzangaben gegen intel basieren übrigens auf Messungen des Gesamtsystems.
Danke für die Info. Ändert in diesem Kontext an der Aussage aber nicht viel.

Aber ja, da quetscht man Alles aus für offenbar nur noch sehr wenig Gewinn. Auf eine TDP von 105W (142W PPT) oder als Kompromiss 125W (170W PPT) beschränkt dürfte ein 7950X selbst in MT-Benchmarks nur sehr wenig verlieren aber deutlich an Effizienz gewinnen. Die Skalierung mit dem Verbrauch bzw. dessen Sweetspot hat sich (trotz höherer TDPs) im Vergleich zur 5000er Generation offenbar eher nach unten geschoben, nicht nach oben. Der Eco Mode wird bei den 7000ern Ryzen also vermutlich noch sinnvoller als bei den 5000ern werden.

Sehe ich auch so. Wenn ich einen Zen 4 hole, peile ich definitiv den Eco Mode an. AMD hätte einen Effizienzvorteil und verspielt ihn hier für die Leistungskrone. Ich sehe das wie bei den GPUs kritisch. Von mir aus kann man einen optionalen Turbo Mode anbieten aber Default wäre eine genügsamere TDP Einstellung sinnvoller. Ausserdem kommt man ins Intel-Fahrwasser hinsichtlich Verbrauch vs. Performance, welche von der Presse nicht zu Unrecht bemängelt wurde.

Edit:
Im Worst Case verliert der 5950X durch die kleinere TDP 20-24% Leistung (CB-MT, POV-Ray, Handbrake). Wenn ich jetzt mal die dritte Slide von dir nehme und sage, dass 5950X@140W = 100% sind, ergibt sich folgendes Bild:

5950X@88W: 78% (laut CB-Test, könnte overall auch höher sein)
5950X@140W: 100% (Baseline)
5950X@230W: 104% (zurückgerechnet über die +35% von AMDs Slides)

7950X@88W: 135% (0,78 * 1,74 gemäß AMDs Slides)
7950X@140W: 137% (gemäß AMDs Slides)
7950X@230W: 140% (wenn ich den Mittelwert über die Zuwächse auf der zweiten Folie bilde)

Jetzt könnten die +74% von AMD etwas optimistisch gewesen sein, weil sie mit höherem RAM-Takt getestet haben als CB und der SoC dem 5950X bei 88W zu viel vom Kuchen wegnimmt (bei meinem 5950X sind es knapp 35W bei RAM-OC!). Lass es mal +60% sein, dann wäre der 7950X@88W bei 125%. Und der 7950X@230W muss vermutlich über 140% liegen, weil der 5950X bei offenem PPT sicherlich mehr als 4% zulegt. Ohne da jetzt aber über 5% mehr oder weniger zu streiten, werden die Werte der drei TDPs alle nicht weiter auseinanderliegen. Ich würde sogar soweit gehen und sagen, dass der 7950X bei 230W -> 140W weniger als 10% Leistung verliert, eher nur so 5%.

Evtl. sind deine Werte zu den 7950X low-TDP Werten etwas zu optimistisch. Aber wenn da ~10% MT-Performance für 2.5x Verbrauch erkauft werden ist es vor allem eines: Sinnfrei. Insbesondere, da der 7950X in MT per se extrem stark sein wird.

Platos
2022-08-31, 17:51:20
Von mir aus kann man einen Turbo Mode anbieten aber Default wäre eine genügsamere TDP Einstellung sinnvoller.


Ja, nur testen die Portale Default-Einstellungen und somit fällt man schlechter aus. Bin da voll bei dir, aber nur schon deshalb wird man sowas niemals von alleine machen. Da muss man schon extrem viel besser sein.

Der_Korken
2022-08-31, 17:54:09
Evtl. sind deine Werte zu den 7950X low-TDP Werten etwas zu optimistisch.

Ja, das kommt mir auch zu extrem vor, aber der 5950X verliert bei CB in den Tests wirklich nur so wenig durch die kleine TDP und AMD sagt 74% vs 37% Gain. ¯\_(ツ)_/¯

Edit: Der 5900X verliret in CB20MT angeblich nur 10%. Das kann ich bei meinem Sample nicht nachvollziehen. Der geht um 15% runter (und hat nebenbei selbst mit CO-Optimierung weniger Score als CBs Sample @stock). Also sollte man aus den 135% lieber mal 120-125% machen.

basix
2022-08-31, 18:00:33
Laut TPU gewinnt man beim 5950X mit 4.5 GHz doch ~1.14x an MT Performance in CB R20: https://www.techpowerup.com/review/amd-ryzen-9-5950x/7.html

Was auf ~3.95 GHz All-Core Takt beim 5950X schliessen lässt (bei Default TDP)

Aber anyways, da scheint es bei 65W TDP verglichen mit Zen 3 einen Knick in der Effizienzkurve zu geben. Ein Teil davon kann vom neuen IOD kommen, der Grossteil muss aber von den Zen 4 Cores kommen. Ich hoffe "The Stilt" macht wieder eine seiner Analysen, sobald Zen 4 rauskommt :)

robbitop
2022-08-31, 18:03:44
3,25Ghz. Ja, ist ein tradeoff, imo aber kein guter. Aber Apple verliert ja aktuell Ingenieure an Qcomm, Intel, AMD. Es gibt also Hoffnung dass sich die Verhältnisse in 5 Jahren vielleicht mal abwechseln. Das was du beschreibst mit dem Budget und Manpower wandelt sich gerade schon, der M2 war ja auch kein großer Wurf mehr.
Du sagst es sei kein guter Trade-off. Das sehen Intel und AMD offenbar anders ansonsten würden sie ihre CPUs ja so auslegen, dass man mit dem Takt runter auf 3 GHz geht.
Aber selbst mit der IPC der neusten Apple Cores schaffst du mit den 3 GHz eben nicht, Alderlake oder Zen4 in Server und Desktopapplikationen zu schlagen. Kommt man verdammt nah ran bei einem Bruchteil der Power? Ja auf jeden Fall. Ist das beeindruckend: jap.

Das Abwandern der Ingenieure sind rumors ja. Wie viel da dran ist, weiß aber kein Mensch. Wir wissen, dass es ein paar Leute Nuvia gegründet haben und sich dann von QCOM kaufen lassen haben.
Bis sowas Auswirkungen hat, wenn man sich den Design und Produktzyklus von CPU Archs anschaut, vergehen Jahre. Und noch haben wir A16 noch nicht gesehen, der ja in wenigen Wochen im iPhone 14 Pro verbaut sein wird.

M2 hat etwas schlechte Presse wegen seines unnötig hohen Betriebspunktes bekommen. A15 vs A14 zeigt, dass die Cores im A15 (die selben wie im M2) deutlich effizienter als die im A14 waren. Wenn auch nicht brachial schneller.



Disagree, es ist derselbe Prozess.
Libraries und Transistordichte sind Designentscheidungen und die können beide treffen.
N5HPC =! N5P
Die Designentscheidungen sind natürlich unterschiedlich ob das Target ein Smartphone SoC ist oder ein CPU Core für Server, HPC und Desktop. Und da würde Apple's Core es nicht schaffen, ganz vorn dabei zu sein. Entsprechend vergleicht man hier IMO Äpfel und Birnen.
Zen4C wäre ggf wenn dann ein eher passender Vergleich und dort ist die Größ 50% von Zen4.

robbitop
2022-08-31, 18:08:38
Für mich ist es irgendwie unklar, warum der konkrete Betriebspunkt einer SKU irgendwie relevant sein soll. Wer es effizient will, stellt eine niedrige TDP ein. Wer maximale Leistung hat, stellt eine hohe TDP ein. Sind 2x Klicks im UEFI.
AMD könnte jetzt natürlich (und die sollen laut y33h@ sogar kommen) low TDP SKUs rausbringen. Die sind dann die gleichen CPUs aber mit von Werk aus niedriger hinterlegten TDPs. Big whoop.

Ich verstehe es wirklich nicht. Kann man sich doch selbst konfigurieren.

basix
2022-08-31, 18:30:29
Für uns hier ist es ja kein Thema. Für unbedarfte PC Nutzer aber schon. Die hohe Wärmeentwicklung führt zu mehr Problemen als die +10% Performance es je rechtfertigen könnten.

Gipsel
2022-08-31, 18:36:48
AMD könnte jetzt natürlich (und die sollen laut y33h@ sogar kommen) low TDP SKUs rausbringen. Die sind dann die gleichen CPUs aber mit von Werk aus niedriger hinterlegten TDPs. Big whoop.

Ich verstehe es wirklich nicht. Kann man sich doch selbst konfigurieren.Gewisse Unterschiede im Binning würde ich dann schon noch vermuten. Bei den 65W-SKUs kann man auch die Chiplets verbauen, die die Takte nicht stabil auf allen Kernen hinbekommen (nicht vergessen, die Baseclocks sind schon ziemlich hoch und beim V-Ray-Demo hat man für einen Sekundenbruchteil gesehen, daß der 7950X da mit allcore-Boost von ~5,1GHz lief). Dann definiert man eben den 7600 non-X z.B. mit 4,3 GHz Base und 5,2GHz Boost bei 65W (statt 4,7/5,3GHz bei 105W bei der X-Variante), weil sich einer der Kerne sonst eventuell querstellt und man kann das Chiplet trotzdem verwerten (in realen Anwendungen wird der allcore-Boost dann vielleicht 100-200MHz niedriger liegen [also z.B. bei 4,8 statt 5,0 GHz], was keine 5% kostet).
Und als Kunde spart man dann noch ein wenig Geld gegenüber einem selbst beschränktem X-Modell (für sehr wenig aufgegebene Performance).

davidzo
2022-08-31, 18:41:34
N5HPC =! N5P

N5HPC ist kein Prozess von TSMC, sondern eine Fremdbezeichung für was nvidia und Alibaba mit ihren neuesten Serverchips gebaut haben.

Es gibt N5 HP und N5 HD, das sind aber die Libraries, nicht die Prozessbezeichnung.
Als Prozesse gibt es offiziell von TSMC nur N5 und N5P.

Und ich glaube auch kaum dass sich selbst diese großartig von den Kosten unterscheiden und selbst das Scaling und die Design rules sind gleich. (7% mehr perf oder 15% weniger power). Das sind nur unterschiedliche zeiträume, alles ab 2020 war N5, alles ab 2022 kann schon N5P sein.

Der Punkt ist doch, dass AMD in einem vergleichbare teuren Prozess fertigt wie Apple. Und Apple schafft es in 2.6mm2 und mit 3,2Ghz 80% der ST Leistung mit einem Bruchteil des Energieverbrauchs eines vergleichbar großen AMD Cores zu erreichen. Und in MT workloads sind 16P+4E sogar genau gleichwertig zu 16/32T bei weniger als der Hälfte des Energieverbrauchs und nicht wirklich größerer Diesize wenn man sich mal den GPU und mediablock wegdenkt.

Gipsel
2022-08-31, 18:51:21
Apples neue Avalanche Cores kommen auf 2.76mm2, die originalen Firestormkerne sogar nur auf 2.28mm2. Klar, bei AMD ist der L2 Cache mit drin
Der Punkt ist doch, dass AMD in einem vergleichbare teuren Prozess fertigt wie Apple. Und Apple schafft es in 2.6mm2 und mit 3,2Ghz 80% der ST Leistung mit einem Bruchteil des Energieverbrauchs eines vergleichbar großen AMD Cores zu erreichen.2,76mm² ohne L2 bei Avalanche von Apple vs. 3,84mm² mit L2 bei Zen4. Bei Letzterem nimmt der L2 laut Die-Shot 28% der Core-Area ein.

=> 2,76mm² vs. 2,76mm² ohne L2.
Ersterer liefert nur 80% der ST-Performance (die notorisch schwierig zu steigern ist, ohne Fläche und/oder Powerbudget zu investieren).

Case closed.

PS:
Und 80% der ST-Leistung von Zen4 könnte auch Zen4c erreichen, wenn man den etwas puscht (auf 4,5GHz statt 5,7 bei Zen4). Und der mißt nur noch grob die Hälfte von Zen4. Pfft, bei 4,5GHz (für ~80% der Performance) statt 5,7GHz benötigt Zen4 auch nur noch einen Bruchteil der Power (Energieeffizienz steigt deutlich bei reduziertem Takt, wie man an den Zahlen bei 65W TDP für den 7950X ablesen kann).

fondness
2022-08-31, 19:04:11
Vor allem auch 80% der int Leistung. Fp liegt das Apple Ding irgendwo im nirvana und das dürfte bei zen4 einen beträchtlichen Teil der die size ausmachen. Ist für Server aber natürlich unerlässlich.

Pro core wird der Vorsprung auch nochmal größer, da Apple kein smt hat.

Gipsel
2022-08-31, 19:08:50
Vor allem auch 80% der int Leistung. Fp liegt das Apple Ding irgendwo im nirvanaHaben die keine der Vector-Extensions von ARM (mit guter Performance) eingebaut?
Pro core wird der Vorsprung auch nochmal größer, da Apple kein smt hat.Ich dachte immer, das wird teils dadurch kompensiert, daß bei Apple die ST- und MT-Takt näher beieinander liegen.

The_Invisible
2022-08-31, 19:09:46
Von einem 5950x aus ist der Umstieg echt "schwierig"... die aktuelle Multicoreleistung reicht mir locker und ist noch immer sehr geil bei der Arbeit, allerdings möchte ich fürs Gaming einfach auch mehr ST Leistung, vor allem da ich gerne Spiele wie Anno1800, Skylines usw zocke wo jedes Prozent Leistung willkommen ist... weniger Kerne will ich aber irgendwie auch nicht, fühlt sich nach Downgrade an...
Hm, naja mal die Reviews abwarten, meine 2 m.2 Slots sind mir auch zu wenig, hätte ich wenigstens schon mal einen Grund das Mainboard zu wechseln :D

Der_Korken
2022-08-31, 19:22:02
Vor allem auch 80% der int Leistung. Fp liegt das Apple Ding irgendwo im nirvana und das dürfte bei zen4 einen beträchtlichen Teil der die size ausmachen. Ist für Server aber natürlich unerlässlich.

Wo liegt Apple bei FP im Nirvana? In SPEC_fp ist der M1 deutlich stärker (im Vergleich zu Intel+AMD) als in SPEC_int. ST wohlgemerkt, damit man keine gedrosselten Cores vergleicht.

https://www.anandtech.com/show/17024/apple-m1-max-performance-review/4


Ich dachte immer, das wird teils dadurch kompensiert, daß bei Apple die ST- und MT-Takt näher beieinander liegen.

Das scheint mir auch so zu sein. Bei ST ist der M2 leicht vor Rembrandt, bei MT leicht dahinter. Ich würde sagen, Apple verzichtet auf starke ST-Boosts, sodass die Diskrepanz geringer ausfällt.

https://www.youtube.com/watch?v=FWfJq0Y4Oos#t=4m12s

ST-Verbrauch:
M2 = 8W
R7 6800U = 20W
R7 6900HS = 28W
i7 1260P = 29W

NC
2022-08-31, 19:25:56
Haben die keine der Vector-Extensions von ARM (mit guter Performance) eingebaut?
Ich dachte immer, das wird teils dadurch kompensiert, daß bei Apple die ST- und MT-Takt näher beieinander liegen.
Eigentlich ein interesantes Thema, vielleicht verdiient es einen eigenen Thread, weil nicht alle die mitreden wollen unbedingt beim Zen 4 Thread mitlesen.
Ich meine Apple Cores vs Konkurenz. Es ist ja nicht nur dass Apple gegen AMD/Intel in deren Benchmarks gut abschneidet, sondern auch gegen alles was es bei Android gibt. Zudem sind die Benchmarks vielleicht auch ein wenig Selektiv, Wie schaut es nicht-Mobile Benches aus? Wie mit den Encoder, Neural Engine gegen iGPUs.
Zudem denke ich wäre es auch nicht schlecht nicht nur neuste gegen neuste, sondern 7nm gegen 7nm und/oder bei gleichem Verbrauch zu vergleichen. usw. usw. usw.

fondness
2022-08-31, 19:29:34
Wo liegt Apple bei FP im Nirvana? In SPEC_fp ist der M1 deutlich stärker (im Vergleich zu Intel+AMD) als in SPEC_int. ST wohlgemerkt, damit man keine gedrosselten Cores vergleicht.

https://www.anandtech.com/show/17024/apple-m1-max-performance-review/4


Interessant, dann hatte ich das wohl falsch im Kopf. Danke.

basix
2022-08-31, 19:41:11
ST-Verbrauch:
M2 = 8W
R7 6800U = 20W
R7 6900HS = 28W
i7 1260P = 29W

Mach diesen Vergleich nochmals mit Zen 4 und leicht reduzierten ST-Taktraten. Dann sieht das vermutlich deutlich anders aus ;)

Gipsel
2022-08-31, 19:48:11
Ich würde sagen, Apple verzichtet auf starke ST-Boosts, sodass die Diskrepanz geringer ausfällt.

https://www.youtube.com/watch?v=FWfJq0Y4Oos#t=4m12s

ST-Verbrauch:
M2 = 8W
R7 6800U = 20W
R7 6900HS = 28W
i7 1260P = 29WDas Argument funktioniert natürlich auch andersrum. Würde AMD auf den Boost jenseits jeglicher Effizienz verzichten, sähe es dort effizienztechnisch auch anders aus. Als Beispiel mal eine Grafik aus dem Test des 5950X von Anandtech (damals noch Ian Cuttress):

https://images.anandtech.com/doci/16214/PerCore-1-5950X.png

Für 80% des Maximaltaktes benötigt ein Core dann nicht mehr 20W, sondern nur noch ~8W (~40%). Effizienz der Kerne hat sich also schon mal glatt verdoppelt.

PS:
Wie wir hier vor ein paar Seiten schon mal angemerkt haben, sind AMDs Mobil-CPUs offenbar auf höhere Effizienz bei niedrigeren Takten ausgelegt (mal abgesehen von der deutlich höheren Energieeffizienz des Uncore-Bereichs bzw. IO) wodurch die Performanceskalierung mit höheren Verbräuchen schlechter ausfällt als bei den Desktop-Modellen (die benötigen für 4,8 oder 4,9GHz etwas mehr Saft als die Desktop-Modelle, für <4 GHz oder so dafür dann aber weniger).

r3ptil3
2022-08-31, 19:49:39
https://cdn.wccftech.com/wp-content/uploads/2022/08/AMD-DDR5-6000-FCLK-Ratios-For-Ryzen-7000-_-Robert-Hallock-Discord-_1.png

robbitop
2022-08-31, 20:14:10
N5HPC ist kein Prozess von TSMC, sondern eine Fremdbezeichung für was nvidia und Alibaba mit ihren neuesten Serverchips gebaut haben.

Es gibt N5 HP und N5 HD, das sind aber die Libraries, nicht die Prozessbezeichnung.
Als Prozesse gibt es offiziell von TSMC nur N5 und N5P.

Und ich glaube auch kaum dass sich selbst diese großartig von den Kosten unterscheiden und selbst das Scaling und die Design rules sind gleich. (7% mehr perf oder 15% weniger power). Das sind nur unterschiedliche zeiträume, alles ab 2020 war N5, alles ab 2022 kann schon N5P sein.

Der Punkt ist doch, dass AMD in einem vergleichbare teuren Prozess fertigt wie Apple. Und Apple schafft es in 2.6mm2 und mit 3,2Ghz 80% der ST Leistung mit einem Bruchteil des Energieverbrauchs eines vergleichbar großen AMD Cores zu erreichen. Und in MT workloads sind 16P+4E sogar genau gleichwertig zu 16/32T bei weniger als der Hälfte des Energieverbrauchs und nicht wirklich größerer Diesize wenn man sich mal den GPU und mediablock wegdenkt.
Nö ist eine Variante des Fertigungsprozesses.

N5HPC folgt im kommenden Jahr als verbesserte N5-Variante für das HPC-Segment.


https://www.computerbase.de/2021-06/tsmc-technology-symposium-feuer-aus-allen-rohren-n3-n4-n5hpc-n6-n7hpc-und-mehr/

Und nochmal weil du es ständig zu ignorieren scheinst:

1.)Du vergleichst Äpfel mit Birnen. Smartphone CPU Core vs Server/HPC/Desktop Core

2.) du ignorierst Zen 4c mit 50% size reduction

Ich sehe das wie Gipsel: case closed

Jupiter
2022-08-31, 20:50:49
Wo das denn?

Ohne RT und mit RT.

https://youtu.be/qIyjT85k86o

Siehe die PCGH Benchmarks. Auf der anderen Seite kostet ein 7700er deutlich weniger und dann könnte man sich mit dem gesparten Geld schneller einen Nachfolger holen, solange der gleiche Sockel verwendet wird.

Zum Video:
Die Min-BpS waren nah an den 60 und bei Raytracing wurden nicht die höchsten Einstellungen genutzt.

Warum sollte man Bewegungsunschärfe deaktivieren? Ohne ist es deutlich unrealistischer. Ohne Bewegungsunschärfe wären selbst Hubschrauber-Rotoren bei hohen Umdrehungen sehr scharf sichtbar. Bei Filmen wird ebenfalls viel Bewegungsunschärfe bei computergenerierten Szenen verwendet, weil es ansonsten schlecht aussieht.

Scruffy
2022-08-31, 22:28:32
Bin auch der Meinung das Zen 4 immer schneller sein wird, und eben viel konstanter schneller.

In Borderlands 3 bringt der Cache z.B. auch nix.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=610603

5800x3D ~ 285fps

5700X ~ 285 FPS
Du solltest meinen X3D nicht mit deinem über 2 Systeme, sondern dann am Besten mit dem normalen 5800 im exakt gleichen System 2 Posts darüber vergleichen. (Keine Ahnung wo meine Bremse ist, Speicher?)
Sind dann immerhin 10fps Unterschied, statt nichts. Das sind auch bloß 3,5%, aber das bei knapp 500MHz und 27W weniger.
(Hab dort übrigens auch noch mal ein Ergebnis mit einer 3070 nachgetragen)

Wenn man die richtigen/falschen Spiele spielt (je nach Sichtweise) lohnt der Cache sehr. Bei Arma 3 bin ich fast 10-15% im CPU Limit hoch, und das ist für mich sehr relevant.

Ex3cut3r
2022-08-31, 23:06:31
Zum Video:
Die Min-BpS waren nah an den 60 und bei Raytracing wurden nicht die höchsten Einstellungen genutzt.


Die angeblichen 61 min. FPS waren aber nicht einmal sichtbar, das Spiel nimmt da irgendeinen wert, bevor ein Bild auftaucht.

In 720p "Ultra RT Preset" sieht es so aus.

https://abload.de/thumb/cyberpunk2077_2022_0824fxr.png (https://abload.de/image.php?img=cyberpunk2077_2022_0824fxr.png)

133 FPS avg. Den min Wert einfach wegdenken, der trat nie auf. Ehrenwort. Ich kann auch nen Video machen. Die schlimmste Stelle im Benchmark ist draußen bevor der Drehung und die Palmen ins Bild kommen, da ist der tiefste Wert im gesamten Bench, der war bei 108 FPS an der Stelle.

Nazar
2022-09-01, 03:04:54
Bis der kommt, gibt es fast schon wieder Zen 5. AMD weiß wie man die Freaks 2xmal zur Kasse bittet. :biggrin:

Du meinst, die sollten es so machen wie Intel? Jedes Jahr einen neuen Sockel, selbst wenn dieser gar nicht nötig wäre?
Ja, du hast recht.. scheiß AMD Freaks aber auch, wenn schon, dann sollten die sich so richtig von Intel abzocken lassen. :freak:;D

Platos
2022-09-01, 10:06:54
Hättest du mal lieber das viel relevantere auf dieses Zitat gepostet, nämlich, dass jetzt angeblich die Varianten mit 3D Cache im Februar/März launchen und im Januar vorgestellt werden sollen.

Thunder99
2022-09-01, 10:21:07
Von einem 5950x aus ist der Umstieg echt "schwierig"... die aktuelle Multicoreleistung reicht mir locker und ist noch immer sehr geil bei der Arbeit, allerdings möchte ich fürs Gaming einfach auch mehr ST Leistung, vor allem da ich gerne Spiele wie Anno1800, Skylines usw zocke wo jedes Prozent Leistung willkommen ist... weniger Kerne will ich aber irgendwie auch nicht, fühlt sich nach Downgrade an...
Hm, naja mal die Reviews abwarten, meine 2 m.2 Slots sind mir auch zu wenig, hätte ich wenigstens schon mal einen Grund das Mainboard zu wechseln :D
Just do it :D. Die wenigen m.2 Slots stören mich auch aber macht derzeit bei mir noch kein Sinn zu wechseln. Wäre da mit dem X3D besser beraten.

Auch wenn ich es selbst nicht gut finde ist es aber konsequent von AMD die TDP zu erhöhen. Alle R9 (bisher) können nun wirklich gut takten, auch bei großer Kern Auslastung. Keine Kompromisse mehr.

Und wer das nicht möchte mit der sehr hohen TDP kann den Eco Modus nutzen:). Immerhin bietet das AMD an. Bei Nvidia ja bekanntlich nicht und da wird es ja noch schlimmer was den Energiebedarf angelangt.

basix
2022-09-01, 10:34:31
https://cdn.wccftech.com/wp-content/uploads/2022/08/AMD-DDR5-6000-FCLK-Ratios-For-Ryzen-7000-_-Robert-Hallock-Discord-_1.png

Interessant. Somit läuft der FCLK auf einem anderen Takt wie der Memory Controller.

robbitop
2022-09-01, 10:52:46
Also so wie man es von Intel kennt. Zumindest bei meinem Haswell ist der L3/Ringbustakt separat vom RAM Takt einstellbar. Bei den Rocketlake (?) kam dann noch die Option den IMC Takt mit einem Teiler zu versehen. Mehr Granularität der Einstellbarkeit der gesamten Kette hilft sicherlich dem Gesamtergebnis, da nicht gleich Schluss ist, wenn eines der Glieder seinen Bottleneck erreicht hat.

BlacKi
2022-09-01, 11:53:56
Interessant. Somit läuft der FCLK auf einem anderen Takt wie der Memory Controller.
ob fclk fixed ist? vl wegen pcie und gedöns.

Also so wie man es von Intel kennt. Zumindest bei meinem Haswell ist der L3/Ringbustakt separat vom RAM Takt einstellbar. Bei den Rocketlake (?) kam dann noch die Option den IMC Takt mit einem Teiler zu versehen. Mehr Granularität der Einstellbarkeit der gesamten Kette hilft sicherlich dem Gesamtergebnis, da nicht gleich Schluss ist, wenn eines der Glieder seinen Bottleneck erreicht hat.

umgekehrt, du bis immer im bottleneck, und schaffst es wegen taktmauern nicht mehr aus dem flaschenhals. 1:1:1 wäre von vorteil, wenn es zu erreichen wäre. zb. wie oben genannt, statt 1733:2600:2600 eben 2600:2600:2600. aber wie gesagt, nicht möglich.

€dit: alternativ wäre noch 1733:1733:1733, also 3466 mt/s XD, das ist halt nicht schneller.

PatkIllA
2022-09-01, 12:09:59
Just do it :D. Die wenigen m.2 Slots stören mich auch ....
In wie fern ändert sich da was mit der neuen Plattform?

robbitop
2022-09-01, 12:19:10
umgekehrt, du bis immer im bottleneck, und schaffst es wegen taktmauern nicht mehr aus dem flaschenhals. 1:1:1 wäre von vorteil, wenn es zu erreichen wäre. zb. wie oben genannt, statt 1733:2600:2600 eben 2600:2600:2600. aber wie gesagt, nicht möglich.

€dit: alternativ wäre noch 1733:1733:1733, also 3466 mt/s XD, das ist halt nicht schneller.
Da Bandbreite sicherlich großzügig genug in der Fabric ausgelegt ist, sollte sie auch mit 1733 MHz nicht limitieren. Bezogen auf die Latenz sollte 1733:2600:2600 (wenn vernünftig implementiert) schneller sein als 1733:1733:1733. Dazu muss man die entsprechenden Taktdomänen entkoppeln (was Intel seit ~8 Jahren mit IMC und Fabric erfolgreich tut). Wenn die Fabric nicht schneller kann, würde sie limitieren. Aber immerhin kann man den IMC offenbar höher takten und umgeht nun den Flaschenhals.

BlacKi
2022-09-01, 12:36:08
Aber immerhin kann man den IMC offenbar höher takten und umgeht nun den Flaschenhals.
inwiefern? wenn wo du den cut machst, spielt keine rolle. flaschenhals ist automatisch vorhanden wenn 1:1:1 nicht gegeben ist.


1733:2600:2600 mag besser sein als 1300:2600:2600, trotzdem schädigt es dem zugriff, weil nicht 1:1:1.

Der_Korken
2022-09-01, 12:48:07
Die Verluste durch nicht-synchron Taktdomänen werden imho überschätzt. Ich mein, man muss effektiv einen Takt warten, was weniger als eine Nanosekunden kostet. Das holt man durch den höheren Bus-Takt doch locker wieder raus. Dafür kann man alle Komponenten immer nah am Maximum laufen lassen. Vor allem kann das IF auch ohne RAM OC mit hohem Takt laufen, sodass da weniger Leistung verschenkt wird.

Man muss bedenken, dass zwischen Core+L3 und L3+IF bereits ein Wechsel der Taktdomäne stattfinden muss.

BlacKi
2022-09-01, 12:56:40
Die Verluste durch nicht-synchron Taktdomänen werden imho überschätzt. Ich mein, man muss effektiv einen Takt warten, was weniger als eine Nanosekunden kostet. Das holt man durch den höheren Bus-Takt doch locker wieder raus. Dafür kann man alle Komponenten immer nah am Maximum laufen lassen. Vor allem kann das IF auch ohne RAM OC mit hohem Takt laufen, sodass da weniger Leistung verschenkt wird.

Man muss bedenken, dass zwischen Core+L3 und L3+IF bereits ein Wechsel der Taktdomäne stattfinden muss.


du sagst damit also auch, das 1300:2600:2600 besser ist als 1300:1300:2600?

OgrEGT
2022-09-01, 13:00:21
Wie kommt man eigentlich bei
1733:2600:2600 (bei DDR5 5200)
oder
2000:3000:3000 (bei DDR5 6000)
auf ein Verhältnis von
2:1:1
?

Für mich ist das
1:1.5:1.5
bzw.
2:3:3

robbitop
2022-09-01, 13:05:04
inwiefern? wenn wo du den cut machst, spielt keine rolle. flaschenhals ist automatisch vorhanden wenn 1:1:1 nicht gegeben ist.


1733:2600:2600 mag besser sein als 1300:2600:2600, trotzdem schädigt es dem zugriff, weil nicht 1:1:1.
Ich glaube wir reden aneinander vorbei. Wenn alle Taktdomains entkoppelt sind (und die Verbindungen breit genug sind) verhält es nicht so, dass eine Taktdomain die nachfolgenden beeinflusst.
Es ist eher so, dass alle Bereiche ihren Anteil an der Gesamtmemorylatenz haben.

Gesamtlatenz = Latenz des Cores (Variable: Core clock) + Latenz der Fabric (Variable: Fabric Clock) + Latenz des IMCs (Variable: IMC Clock) + Latenz des RAMs selbst (Variable: Timings und RAM Clock)

Jede Einzelerhöhung des Taktes senkt die jeweilige Teillatenz und damit auch die Gesamtmemorylatenz. Wenn der Fabrictakt nunmal nicht höher geht als 1733 MHz bringt die Erhöhung der restlichen Clocks trotzdem eine weitere Reduktion.

Genauso funktioniert es bei Intel auch (da dort die Clockdomains auch entsprechend entkoppelt sind). Habe ich bei meinem Haswell sogar vor ein paar Jahren nachgemessen, dass es genau so funktioniert.

fondness
2022-09-01, 16:02:30
Ein bisschen was zu den Server-CPUs:
https://www.computerbase.de/2022-09/amd-epyc-8004-9004-neue-bezeichnungen-fuer-cpus-mit-bis-zu-128-kernen/

basix
2022-09-01, 17:32:27
ob fclk fixed ist? vl wegen pcie und gedöns.



umgekehrt, du bis immer im bottleneck, und schaffst es wegen taktmauern nicht mehr aus dem flaschenhals. 1:1:1 wäre von vorteil, wenn es zu erreichen wäre. zb. wie oben genannt, statt 1733:2600:2600 eben 2600:2600:2600. aber wie gesagt, nicht möglich.

Soweit ich verstanden habe, geht Fclk bei AUTO bis auf 2000MHz automatisch mit 1.5:1 Teiler zum Speichertakt. Man kann Fclk manuell auch höher als 2000MHz betreiben, ist aber vermutlich Glücksache (wie bei Zen 3, wo es ab 1900MHz bei den meisten CPUs fertig war).

Beispiele:
4000: 2000:2000:2000
4800: 1600:2400:2400
5200: 1733:2600:2600
6000: 2000:3000:3000
6400: 1600:3200:3200
7200: 1800:3600:3600
8000: 2000:4000:4000

Wie kommt man eigentlich bei
1733:2600:2600 (bei DDR5 5200)
oder
2000:3000:3000 (bei DDR5 6000)
auf ein Verhältnis von
2:1:1
?

Für mich ist das
1:1.5:1.5
bzw.
2:3:3
Jo, ist eher ein 1.5:1 oder 3:2 Teiler. Keine Ahnung wieso man von 2:1 spricht.

Gipsel
2022-09-01, 18:03:37
Hier übrigens mal ein Vergleich von ES des 7950X mit 13900K in GB5 (https://browser.geekbench.com/v5/cpu/compare/16969227?baseline=16375702) inklusive Detailansicht. Zum Abgleich auch mal ein 5950X vs. 7950X Vergleich (https://browser.geekbench.com/v5/cpu/compare/16969227?baseline=15912296). Bei THG wird schon gemault, daß die hohen Crypto-Teilscores von Zen4 das Ganze verzerren.

Lehdro
2022-09-01, 18:21:20
Hier übrigens mal ein Vergleich von ES des 7950X mit 13900K in GB5 (https://browser.geekbench.com/v5/cpu/compare/16969227?baseline=16375702) inklusive Detailansicht. Zum Abgleich auch mal ein 5950X vs. 7950X Vergleich (https://browser.geekbench.com/v5/cpu/compare/16969227?baseline=15912296). Bei THG wird schon gemault, daß die hohen Crypto-Teilscores von Zen4 das Ganze verzerren.
Das war bei RKL (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12576117&postcount=820), ADL (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12825175&highlight=Geekbench#post12825175) und RPL auch schon so, hatte ich damals schon bemängelt (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12677917&highlight=Geekbench#post12677917). Geekbench ist halt Müll um Architekturen zu vergleichen, das taugt maximal für einen Vergleich von CPUs ein und derselben Architektur untereinander, z.B. Zen 3 als APU vs Zen 3 als Chipletderivat.

Gipsel
2022-09-01, 18:25:54
Wobei man aber anmerken sollte, daß der Crypto-Teilwertes lediglich mit 5% Gewichtung ins Endergebnis eingeht (65% Integer, 30% FP, 5% Crypto).
Und es ist jetzt ja nun auch nicht so, daß AES-Verschlüsselung nirgendwo zum Einsatz kommt. Ist halt ein synthetischer Test und als den muß man ihn auch sehen. Beim ebenfalls verlinkten 5950X vs. 7950X Vergleich sieht man ja recht deutlich, welcher Subtest aus der den sonst üblichen +25% oder so raussticht. Der AES-Test profitiert halt zusätzliche 35%-40% (ST, MT ist es etwas weniger), das war es dann auch schon.

Zossel
2022-09-01, 22:21:27
Das war bei RKL (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12576117&postcount=820), ADL (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12825175&highlight=Geekbench#post12825175) und RPL auch schon so, hatte ich damals schon bemängelt (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12677917&highlight=Geekbench#post12677917). Geekbench ist halt Müll um Architekturen zu vergleichen, das taugt maximal für einen Vergleich von CPUs ein und derselben Architektur untereinander, z.B. Zen 3 als APU vs Zen 3 als Chipletderivat.

Knapp 10 Jahre nach Edward Snowden sollte Verschlüsselung von allem und überall doch mittlerweile selbstverständlich sein.
Oder schreibst du noch Sachen unverschlüsselt auf Platten oder schickst Daten unverschlüsselt ins Netz?

Wobei man aber anmerken sollte, daß der Crypto-Teilwertes lediglich mit 5% Gewichtung ins Endergebnis eingeht (65% Integer, 30% FP, 5% Crypto).

5% ist zu wenig.

OgrEGT
2022-09-02, 01:35:24
https://videocardz.com/newz/asrock-x670e-motherboard-may-need-more-than-6-minutes-for-first-boot

Ist das nur bei Asrock so oder ist das ein generelles Prozedere?
Wäre interessant was da genau geprüft wird... und wie sich das mit RAM OC verhält...

M4xw0lf
2022-09-02, 07:55:55
https://videocardz.com/newz/asrock-x670e-motherboard-may-need-more-than-6-minutes-for-first-boot

Ist das nur bei Asrock so oder ist das ein generelles Prozedere?
Wäre interessant was da genau geprüft wird... und wie sich das mit RAM OC verhält...
Die angegebene Zeit ist jedenfalls direkt proportional zur Speichermenge, also wird wohl die gesamte Speichermenge mal auf Fehler geprüft. (Da ist ja auch kein Unterschied zwischen den 16GB und 32GB-Modulen, also hat auch single oder dual-rank offenbar nix damit zu tun.)

iamthebear
2022-09-02, 08:30:16
Knapp 10 Jahre nach Edward Snowden sollte Verschlüsselung von allem und überall doch mittlerweile selbstverständlich sein.
Oder schreibst du noch Sachen unverschlüsselt auf Platten oder schickst Daten unverschlüsselt ins Netz?

5% ist zu wenig.

Aktuelle CPUs haben schon einen Durchsatz um die 30GB/s inkl. AES Verschlüsselung.
Was hast du denn für eine Internetleitung, dass die AES Performance echt ein Bottleneck wird?

Umgekehrt: HTML Rendering etc. gibt sofort bei jedem einen Performanceschub, nicht nur in einer theoretisch rekonstruierten Situation mit 4 M.2 SSDs mit je 7GB/s, die noch dazu mit Truecrypt veschlüsselt sind.

Gipsel
2022-09-02, 09:17:20
Aktuelle CPUs haben schon einen Durchsatz um die 30GB/s inkl. AES Verschlüsselung.
Was hast du denn für eine Internetleitung, dass die AES Performance echt ein Bottleneck wird?Du benötigst kein Truecrypt. Du weißt schon, daß unter Windows bei vielen Geräten die Datenträger-Verschlüsselung (Bitlocker) standardmäßig aktiviert ist (und das sind meisten nicht absolute High-End-Rechner)? Dort wird übrigens exakt der AES-XTS-Algorithmus benutzt (zumindest per Standard, kann man ändern), den Geekbench testet. Und wer will, kann die Schlüssellänge z.B. verdoppeln (wird halt langsamer). Und dann schau mal auf PCIe5-NVMe und überlege noch mal neu! Willst Du, daß Deine CPU auf 100% auf allen Kernen hängt, nur weil Du mal hundert GB hin und her kopierst?
Ist das jetzt absolut lebenswichtig und macht den Rechner ansonsten unbenutzbar? Natürlich nicht. Ist AES-Performance trotzdem wichtig? Irgendwo schon.

robbitop
2022-09-02, 09:22:57
Soweit ich verstanden habe, geht Fclk bei AUTO bis auf 2000MHz automatisch mit 1.5:1 Teiler zum Speichertakt. Man kann Fclk manuell auch höher als 2000MHz betreiben, ist aber vermutlich Glücksache (wie bei Zen 3, wo es ab 1900MHz bei den meisten CPUs fertig war).

Beispiele:
4000: 2000:2000:2000
4800: 1600:2400:2400
5200: 1733:2600:2600
6000: 2000:3000:3000
6400: 1600:3200:3200
7200: 1800:3600:3600
8000: 2000:4000:4000


Jo, ist eher ein 1.5:1 oder 3:2 Teiler. Keine Ahnung wieso man von 2:1 spricht.
Hm also ist die Fabric clock doch nicht ganz frei wählbar wie bei Intel? Da ist die Fabric Clock wirklich ohne Teiler in MHz Schritten einstellbar. IMC und RAM Clock allerdings mit Teilern ab ADL RKL - davor war es immer fest 1:1.

BlacKi
2022-09-02, 09:58:47
Hm also ist die Fabric clock doch nicht ganz frei wählbar wie bei Intel? Da ist die Fabric Clock wirklich ohne Teiler in MHz Schritten einstellbar. IMC und RAM Clock allerdings mit Teilern ab ADL - davor war es immer fest 1:1.rocket hatte schon ebenfalls gear2. die genannten werte sind ebenfalls nicht komplett fest, und wohl auch nur beispielwerte.

basix
2022-09-02, 10:00:24
Ist meine Interpretation ;) Kann auch frei wählbarer Takt sein. Hat aber auch entsprechende Nachteile mit benötigten Buffern etc.

Der_Korken
2022-09-02, 10:07:30
du sagst damit also auch, das 1300:2600:2600 besser ist als 1300:1300:2600?

Nein, wie kommst du darauf? Meine Aussage war, dass man sich nicht so sehr darauf versteifen sollte, dass nur ein 1:1-Verhältnis Leistung bringt und sobald man davon abweicht die Leistung ins Bodenlose fällt. Technisch verliere ich natürlich ein paar Takte, wenn ich ein Datenpaket von der einen in die andere clock domain rüberschiebe, weil die eine Domain das Paket in einen Puffer schreiben muss und die andere Domain das abholt, wenn sie mal gerade wieder taktet. Wenn man sich aber die Latenzen vom L3 bis zum RAM anschaut, liegen wir so bei 40-50ns, d.h. bei 2Ghz IF-Takt wären das 80-100 Takte. Die Pakete sind also dutzende Takte lang auf dem IF unterwegs. Wenn ich das in dem Beispiel oben das IF von 1733Mhz auf 1300Mhz runtertakte, nur um ein geraderes Verhältnis zum IMC mit 2600Mhz zu bekommen, dann verbringt das Paket 40% länger auf dem IF (1733/1300 = 140%). Und 40% auf mehrere Dutzend Takte dürften imho deutlich mehr Verlust sein, als die Verzögerung beim Übergang in die IMC-Domain.

Bei Zen 2/3 hat man deutlich Latenzanstiege gesehen, wenn IF und IMC nicht synchron getaktet haben. Allerdings ist unklar, woran das genau lag und bei Intel scheint es das Problem nicht zu geben. Eventuell war das einfach eine technische Limitierung des ersten IOD und AMD hat es jetzt beim zweiten besser implementiert.

Hm also ist die Fabric clock doch nicht ganz frei wählbar wie bei Intel? Da ist die Fabric Clock wirklich ohne Teiler in MHz Schritten einstellbar. IMC und RAM Clock allerdings mit Teilern ab ADL - davor war es immer fest 1:1.

Das wird man wohl austesten müssen. Eventuell ist der Verlust bei zu krummen Verhältnissen immer noch recht hoch, weswegen AMD die Auto-Einstellung empfiehlt. Etwas besser als bei Zen 2/3 dürfte es dennoch werden, da AMD explizit damit plant, dass sich das Verhältnis ab und zu ändert. Das macht auch Sinn, denn die Spannweite von DDR5 ist jetzt zu Beginn noch sehr hoch mit DDR5-4800 als günstigen RAM und DDR5-7000 und mehr als Aussicht auf die nächsten 1-2 Jahre, wo sich der RAM noch weiter entwickelt. Würde man auf ein starres Verhältnis setzen, müsste es groß genug sein, damit auch RAM mit >7000Mhz noch läuft, z.B. 1:4 (=1800Mhz bei DDR5-7200). Andererseits würde das IF dann bei DDR5-4800 nur mit mageren 1200Mhz takten, also deutlich unter seinen Möglichkeiten. Bei Zen 2/3 war das anders, weil DDR4-3200 schon etabliert war und alles ab DDR4-4000 schon relativ teuer und exotisch. Da waren 1600Mhz IF-Takt kein Bremsklotz.

BlacKi
2022-09-02, 10:28:58
Eventuell war das einfach eine technische Limitierung des ersten IOD und AMD hat es jetzt beim zweiten besser implementiert. es ist nun schlicht notwendig, hätte man aber schon früher tun sollen.
Nein, wie kommst du darauf? Meine Aussage war, dass man sich nicht so sehr darauf versteifen sollte, dass nur ein 1:1-Verhältnis Leistung bringt und sobald man davon abweicht die Leistung ins Bodenlose fällt. Technisch verliere ich natürlich ein paar Takte, wenn ich ein Datenpaket von der einen in die andere clock domain rüberschiebe, weil die eine Domain das Paket in einen Puffer schreiben muss und die andere Domain das abholt, wenn sie mal gerade wieder taktet. Wenn man sich aber die Latenzen vom L3 bis zum RAM anschaut, liegen wir so bei 40-50ns, d.h. bei 2Ghz IF-Takt wären das 80-100 Takte. Die Pakete sind also dutzende Takte lang auf dem IF unterwegs. Wenn ich das in dem Beispiel oben das IF von 1733Mhz auf 1300Mhz runtertakte, nur um ein geraderes Verhältnis zum IMC mit 2600Mhz zu bekommen, dann verbringt das Paket 40% länger auf dem IF (1733/1300 = 140%). Und 40% auf mehrere Dutzend Takte dürften imho deutlich mehr Verlust sein, als die Verzögerung beim Übergang in die IMC-Domain.



mein beispiel war absichtlich so gewählt. damit bestätigst du nur meine annahme, das 1:1 besser wäre, technisch aber nicht machbar, und 1733: 2600 nur ein besserer kompromiss zu 1300:2600 ist, weils einfach besser performt.

robbitop
2022-09-02, 10:33:10
Wie gesagt: Bei vernünftiger Entkopplung (siehe Haswell und neuer) kostet das fast gar nichts asychrone Taktraten zu haben und man kann mehr Latenz herausquetschen in dem man individuell die höchste Taktrate anfährt.
Man muss dann wohl mal testen, wie es sich bei Zen 4 verhält. Aber anscheinend ist die Fabric jetzt mit wenig Latenzverlust vom IMC entkoppelt zumindest, wenn man Robert Hallocs Aussagen liest.

BlacKi
2022-09-02, 11:05:05
Wie gesagt: Bei vernünftiger Entkopplung (siehe Haswell und neuer) kostet das fast gar nichts asychrone Taktraten zu haben


doch tut es. eine IF clock von 2600 zu 2600 imc wäre deutlich schneller, geht nur praktisch nicht, deshalb zu sagen, es wäre nicht mehr wichtig ist halt technisch gesehen falsch.

Mangel76
2022-09-02, 11:16:28
doch tut es. eine IF clock von 2600 zu 2600 imc wäre deutlich schneller, geht nur praktisch nicht, deshalb zu sagen, es wäre nicht mehr wichtig ist halt technisch gesehen falsch.

Was robbitop versucht zu erklären ist, dass die Latenz die Summe aus mehreren Teillatenzen ist. Möchte ich die Gesamtlatenz minimieren und sind die Teillatenzen unabhängig voneinander, minimiere ich jeden einzelnen Summanden. Sie müssen dazu nicht gleich sein. Lediglich bei älteren Zen scheint es ein technische Limitierung gegeben zu haben, sodass die Teillatenzen nicht unabhängig voneinander waren.

robbitop
2022-09-02, 11:24:32
doch tut es. eine IF clock von 2600 zu 2600 imc wäre deutlich schneller, geht nur praktisch nicht, deshalb zu sagen, es wäre nicht mehr wichtig ist halt technisch gesehen falsch.
Ja natürlich ist die höchst mögliche Taktrate von allem am besten. Aber das war nicht der Punkt. Der wesentliche Punkt auf den ich hinaus will ist, je höhere die individuelle Taktrate desto besser. Egal in welchem Verhältnis oder Multiplikator - der spielt dann (fast) keine Rolle mehr. Und eine Entkopplung gibt die Möglichkeit nicht die gesamte Kombination durch einen Flaschenhals zu limitieren.

Noch besser als 2600:2600:2600 wären 3000:2600:2600 oder drölftausend MHz (sofern wie bei Haswell vernünftig entkoppelt sind Multiplikatoren praktisch egal - und genau das ist der Punkt!).
Entsprechend kann man alles aus den Einzelkomponenten der Kette an Latenz herausholen - sofern vernünftig entkoppelt (was zumindest zwischen Fabric und IMC der Fall zu sein scheint).

Was robbitop versucht zu erklären ist, dass die Latenz die Summe aus mehreren Teillatenzen ist. Möchte ich die Gesamtlatenz minimieren und sind die Teillatenzen unabhängig voneinander, minimiere ich jeden einzelnen Summanden. Sie müssen dazu nicht gleich sein. Lediglich bei älteren Zen scheint es ein technische Limitierung gegeben zu haben, sodass die Teillatenzen nicht unabhängig voneinander waren.
Genau. Und dabei ist das ein trivialer Zusammenhang

Der_Korken
2022-09-02, 12:26:50
mein beispiel war absichtlich so gewählt. damit bestätigst du nur meine annahme, das 1:1 besser wäre, technisch aber nicht machbar, und 1733: 2600 nur ein besserer kompromiss zu 1300:2600 ist, weils einfach besser performt.

Mehr ist natürlich immer besser, aber irgendwo gibt es eine Grenze wie schnell AMD das IF bekommt. Der Unterschied zu vorher scheint aber, wie robbitop auch schreibt, dass asynchrone Takt-Domains weniger problematisch sind, sodass man das IF mit Hilfe von krummeren Verhältnissen immer näher am Maximum taktet als man das beim alten IOD konnte. Wie "krumm" die Verhältnisse bei Zen 4 sein dürfen, wird man austesten müssen. Extrembeispiel wäre z.B. sowas wie 2066:3000:3000 vs. 2000:3000:3000. Theoretisch ist das IF im ersten Fall 3,3% schneller, aber der Teiler ist mit 31:45 statt 30:45 = 2:3 einfach so krumm, dass die Synchronisation vielleicht über mehrere Takte laufen muss und die 3,3% IF-Takt effektiv auffrisst. Sofern man überhaupt beliebige Teilen einstellen kann. Eventuell gibt es nur eine handvoll vordefinierter Teiler (z.B. 1:1, 1:2, 2:3, 3:4, 3:5, 4:5, o.ä.), weswegen AMD über eine Auto-Einstellung immer das beste Verhältnis davon ausrechnet.

dildo4u
2022-09-02, 12:29:09
16 Core nimmt bis 240 Watt könnte aber PBO sein.

https://wccftech.com/amd-ryzen-9-7950x-cpu-cinebench-r23-benchmarks-leak-destroys-5950x-in-single-multi-core-tests/

Linmoum
2022-09-02, 12:30:32
Natürlich ist das nicht Default. 170 x1.35 sind nicht 240.

ryan
2022-09-02, 12:37:29
16 Core nimmt bis 240 Watt könnte aber PBO sein.

https://wccftech.com/amd-ryzen-9-7950x-cpu-cinebench-r23-benchmarks-leak-destroys-5950x-in-single-multi-core-tests/


Mit Wasserkühlung. Das hört sich nach einem Hitzkopf an. Geht die Performance runter mit Luftkühlung?

dildo4u
2022-09-02, 12:46:34
Klar steht doch im Text 29k mit Luft 36k mit Wasser.
Denke mal das ist gewollt wenn Intel wirklich vorhat über 300 zu gehen will man sich nicht zu sehr einschränken.

robbitop
2022-09-02, 12:48:30
Das ist das große Problem mit der Energiedichte. Kleine Cores, kleine dice.
Da hilft dann viel Radiatorfläche auch kaum noch was - da geht es primär um den Wärmeübergang. Gute Luftkühler sollten da ähnlich gut/schlecht darstehen.
Wahrscheinlich ist das auch einer der Gründe für den dicken IHS. So dass man doch noch einiges an Wärme in Querrichtung verteilen kann.

Der_Korken
2022-09-02, 13:10:49
29k zu 36k ist nicht der Unterschied zwischen zwei verschiedenen Kühlern. Da man davon ausgehen kann, dass die 36k mit hoher Spannung entstanden sind, wird man für 36k nicht nur 25% mehr Strom brauchen (was linear wäre), sondern eher das doppelte, sofern das mal reicht. Ich hatte hier anhand AMDs Folien ja neulich versucht auszurechnen, wie groß die Unterschiede zwischen 65W vs 105W vs 170W TDP wohl sein mögen. Und sofern der 7950X mit 230W (=170W TDP) auf 36k in CB23 kommt, würde es mich nicht wundern, wenn er mit 88W (=65W TDP) immer noch die 29k knackt oder zumindest nur knapp drunter liegt.

Lehdro
2022-09-02, 13:55:43
Die Zahlen des vom MT Test sehen sehr komisch aus. 29k (Stock 25k bis 26k) konnte man schon mit dem 5950X und moderatem PBO+CO Einsatz erreichen, per Luft kühlbar(!). Davon ausgehend auf 36k, nur mit anderer Kühlung spricht eigentlich eher dafür dass da komplett etwas im Argen ist. Ich wette die Boards overvolten wie verrückt, immerhin ist von fast 1.5V die Rede.

Platos
2022-09-02, 14:05:40
Mit Wasserkühlung. Das hört sich nach einem Hitzkopf an. Geht die Performance runter mit Luftkühlung?

Es steht da auch 96° bei 240W und 360-er AiO Wakü. Also ein Hitzkopf wird das sicher auf solchen Einstellungen.

dildo4u
2022-09-02, 14:07:45
Das passt laut AMD Foile hast du über 40% nur in VRay aber nur 30% in Cinbench E23.26k zu 36k passt dort wenn man ein bissel PBO/OC betreibt.

amdfanuwe
2022-09-02, 14:08:16
Versteh ich das richtig: Die X Varianten sind eher was für die Power User und Overclocker während der Normaluser ohne großartige Leistungseinbußen später auch zu den non-X Varianten mit 65W/105W greifen kann?
Etwa wie beim 3600, wo die X-Variante vernachlässigbar schneller war?

Ich warte erst mal auf den 7600 65W.

r3ptil3
2022-09-02, 14:47:05
https://cdn.wccftech.com/wp-content/uploads/2022/09/AMD-Ryzen-7000-Zen-4-CPU-Undervolting-Thermal-Power-Consumption-740x556.png

Die CPUs laufen ja praktisch am absoluten Maximum.
Nicht so toll.

Ein weiterer Grund um auf die 3D-Cache Modelle zu warten.

https://wccftech.com/amd-ryzen-7000-cpu-undervolting-signficant-thermal-power-performance-headroom/

Exxtreme
2022-09-02, 14:51:23
https://cdn.wccftech.com/wp-content/uploads/2022/09/AMD-Ryzen-7000-Zen-4-CPU-Undervolting-Thermal-Power-Consumption-740x556.png

Die CPUs laufen ja praktisch am absoluten Maximum.
Nicht so toll.

Ein weiterer Grund um auf die 3D-Cache Modelle zu warten.

https://wccftech.com/amd-ryzen-7000-cpu-undervolting-signficant-thermal-power-performance-headroom/

Den Grund dafür kennt man nicht. Ich kann mir aber eher vorstellen, dass diese Ergebnisse mit einem Developer-Bios/Uefi gemacht wurden. Sprich, ich bezweifle, dass man das in der Release-Fassung so zu sehen bekommt.

Lehdro
2022-09-02, 14:55:24
Das sieht zudem nach massiven Clockstretching aus: Wenn ich den Verbrauch bei gegebenem Takt halbiere, dann muss die Vcore Reduktion gewaltig sein (>20%) - was bei Ryzen schon immer zu Clockstretching führte. Bei Ryzen muss man bei UV einfach die Performance gegentesten, Stabilität sagt alleine gar nichts.

r3ptil3
2022-09-02, 15:26:19
Das sieht zudem nach massiven Clockstretching aus: Wenn ich den Verbrauch bei gegebenem Takt halbiere, dann muss die Vcore Reduktion gewaltig sein (>20%) - was bei Ryzen schon immer zu Clockstretching führte. Bei Ryzen muss man bei UV einfach die Performance gegentesten, Stabilität sagt alleine gar nichts.

Betreibt überhaupt jemand noch eine Zen-CPU mit dem üblichen Undervolting?
Ich nutze dafür nur noch die Curve Optimizer Funktion.

Der_Korken
2022-09-02, 15:32:19
Die Ergebnisse sehen alle sehr fishy aus imho. Ohne finales BIOS und finale CPU+Board würde ich da nicht zu viel reininterpretieren. Dass AMD die CPUs @stock so konfigurieren sollte, dass sie doppelt so viel verbrauchen wie nötig ist einfach absurd. So ein Verhalten könnte man vielleicht beobachten, wenn die CPUs komplett am Taktlimit laufen und man für die letzten 100Mhz einfach 0,2-0,3V draufklatschen muss. Davon kann bei 5,05Ghz aber keine Rede sein. Da würde ich eher drauf tippen, dass beim ES die F/V-Curve einfach bei 5,05Ghz aufhörte und wenn die CPU noch PPT übrig hat, dann schraubt sie einfach zur Stabilisierung die Spannung so weit nach oben, wie es VRMs und Temps erlauben.

Lehdro
2022-09-02, 15:40:58
Betreibt überhaupt jemand noch eine Zen-CPU mit dem üblichen Undervolting?
Der Herr aus dem Leak zum Beispiel.

Ich nutze dafür nur noch die Curve Optimizer Funktion.
Macht ja auch Sinn, weil granularer und pro Core.

Langlay
2022-09-02, 16:00:24
Da hilft dann viel Radiatorfläche auch kaum noch was - da geht es primär um den Wärmeübergang. Gute Luftkühler sollten da ähnlich gut/schlecht darstehen.


Der Noctua D15 ist bei 5800X3D ca 5-7°C wärmer als mein Customwakü mit Heatkiller IV.

robbitop
2022-09-02, 16:09:20
Der Noctua D15 ist bei 5800X3D ca 5-7°C wärmer als mein Customwakü mit Heatkiller IV.
Der hat 5800X3D aber auch nicht so eine hohe Energiedichte wie die noch kleineren CCDs von Zen4.

Langlay
2022-09-02, 16:18:12
Der hat 5800X3D aber auch nicht so eine hohe Energiedichte wie die noch kleineren CCDs von Zen4.

Ja, aber das war beim 5800X nicht besser. Nur den 5800X3D vergleich hab ich erst vor ein paar Wochen gemacht.

Ich würde eher vermuten das der Abstand mit steigender Energiedichte zunimmt und nicht abnimmt. Und der 5800X3D ist relativ bescheiden was den internen Wärmeübergang angeht. Die Temperatur nach Lastende fällt massiv langsamer ab als beim z.b. 5800X. Wenn du beim 5800X die Last wegnimmt haste fast instant einen Tempdrop auf <50°C. Der 5800X3D verliert so 2-3-4°C pro Sekunde.

robbitop
2022-09-02, 19:34:57
Was ich damit sagen will: grundsätzlich kann viel Radiatorfläche auch viel Abwärme wegschaffen. Gegen den Wärmewiderstand zwischen Kern und Kühlplatte des Kühlkörpers, der bei hohen Energiedichten immer weiter zum limitierenden Faktor wird, kann sie nichts machen. Beide Effekte überlagern sich. Die große Wakü würde der Lukü bei großer Abwärme aber geringerer Energiedichte weiter davon ziehen.

PJ
2022-09-02, 20:03:17
Hi! I wanna ask, if posting in English is welcome on this forum?

aceCrasher
2022-09-02, 20:12:10
Hi! I wanna ask, if posting in English is welcome on this forum?

Yes, if you dont expect people to necessarily answer in english.

iamthebear
2022-09-02, 20:19:54
Die Temperatur ist vereinfacht gesagt die Summe aus:
a) Die/Heatspreader/WLP etc. Diese kaliert linear mit der Energiedichte
b) Kühler/Gehäusebelüftung usw. Diese skaliert linear mit der gesamten Energiemenge

Das Problem bei Zen4 ist eher die Energiedichte. Klar wird es mit Luftkühlung etwas mehr zwicken als mit einer 360 AIO aber der Unterschied word nicht so dramatisch sein. Dann taktet man eben 100-200MHz runter und das Problem ist gelöst.
Mein Bauchgefühl sagt mir, dass Zen4 gar nicht so viel Verlustleistung braucht um vernünftig zu laufen bzw. sind die Samples, die im Umlauf sind auch noch nicht wirklich optimiert.

Man sollte auch bedenken: Das Temperaturproblem hat man nur dann, wenn auch wirklich alle Kerne auf Anschlag laufen. Für durchschnittliche Spiele wird das kein großes Thema sein.
Falls jemand wirklich hauptsächlich rendert würde ich einfach die CPU um eine Stufe größer kaufen statt unnötig viel in exotische Kühllösungen zu investieren.

ChaosTM
2022-09-03, 00:04:30
ECjpsJ7GJW0

ich mag seine Stimme ;)

w0mbat
2022-09-03, 00:18:42
In livestreams klingt er anders, er bearbeitet seine Stimme nach.

ChaosTM
2022-09-03, 00:20:17
gut möglich, die Analyse passt aber recht gut

PJ
2022-09-03, 01:05:23
Yes, if you dont expect people to necessarily answer in english.
Thanks, and of course I don't, besides google does very well for me.

Platos
2022-09-03, 01:32:38
Thanks, and of course I don't, besides google does very well for me.

Maybe try "deepl.com", it's way better.

PJ
2022-09-03, 06:11:55
Maybe try "deepl.com", it's way better.
Yep, it's good, didn't know about it. Unfortunately extensions are blocked in chrome mobile. But it's ok - built-in google's is enough.

OpenVMSwartoll
2022-09-03, 16:16:36
Yep, it's good, didn't know about it. Unfortunately extensions are blocked in chrome mobile. But it's ok - built-in google's is enough.

I think the host has no problem if you write in English. Most German people speak it to a certain degree.

As long as you do not expect us to write flawlessly, I think it should be fine.

If the mods have a different opinion, they will tell us about it.

=Floi=
2022-09-03, 16:50:04
was limitiert denn gta v so stark?
bei GTA V und RDO hätte ich mehr cpu-power benötigt. Alles andere läuft schon ok.

Gipsel
2022-09-03, 17:21:00
was limitiert denn gta v so stark?
bei GTA V und RDO hätte ich mehr cpu-power benötigt. Alles andere läuft schon ok.Es gibt mehrere Berichte, daß die GTA V Engine oberhalb einer gewissen Framerate rumspinnt und nicht mehr erwartungsgemäß (oder sogar negativ) skaliert.

aufkrawall
2022-09-03, 17:33:53
Es gibt mehrere Berichte, daß die GTA V Engine oberhalb einer gewissen Framerate rumspinnt und nicht mehr erwartungsgemäß (oder sogar negativ) skaliert.
Laut Reddit-Comments erst ab ~185fps.

Gipsel
2022-09-03, 17:46:27
Laut Reddit-Comments erst ab ~185fps.Und welche Frameraten erreicht man in 1080p medium high mit einer 6950XT? :rolleyes:

aufkrawall
2022-09-03, 18:19:42
Und welche Frameraten erreicht man in 1080p medium high mit einer 6950XT? :rolleyes:
Natürlich stimmt es, dass die Benchmarks für den Hintern sind, wenn die Tester diesen Bug nicht durch Vsync/fps-Limiter vermeiden. Aber viele Tester sind für solche Tests im CPU-Limit leider einfach zu doof und merken/hinterfragen nicht mal, wenn mit schneller CPU die Peformance auf einmal völlig kaputtgeht. :freak:
Die CPU-fps mit aufgedrehten Sichtweiten sind in dem Spiel jedenfalls massiv unterhalb von 185fps, mit Zen 3 + Radeon je nach Stelle im Spiel eher locker 1/3 oder noch weniger. Man könnte also schon CPU-Benchmarks mit Relevanz machen.

Gipsel
2022-09-03, 20:08:55
Die CPU-fps mit aufgedrehten Sichtweiten sind in dem Spiel jedenfalls massiv unterhalb von 185fps, mit Zen 3 + Radeon je nach Stelle im Spiel eher locker 1/3 oder noch weniger. Man könnte also schon CPU-Benchmarks mit Relevanz machen.Das waren einfach Messungen mit dem high Preset, keine custom oder max Settings. Und da hängt eine 6950XT solide bei ~185fps (auch schon mit langsameren CPUs als den Ryzen 7000) soweit ich weiß.
Ich denke, das beantwortet die Frage von =Floi=.

00-Schneider
2022-09-03, 20:24:06
Meint ihr, der Ryzen 9 7950X3D kann dem 13900K gefährlich werden? SC und MC?

Gipsel
2022-09-03, 20:29:47
Meint ihr, der Ryzen 9 7950X3D kann dem 13900K gefährlich werden? SC und MC?Der 7950X (ohne V-Cache) kann dem 13900K gefährlich werden.

ChaosTM
2022-09-03, 20:30:47
Kommt auf die Anwendung an.
Bei Spielen sollte er keine Probleme haben aber bei echten, produktiven Anwendungen wird es sicher interessanter.

Wie Cinebench ausgeht - nobody knows.

Nightspider
2022-09-03, 20:33:30
Meint ihr, der Ryzen 9 7950X3D kann dem 13900K gefährlich werden? SC und MC?

Wolltest du 14900K schreiben?

00-Schneider
2022-09-03, 20:37:23
Der 7950X (ohne V-Cache) kann dem 13900K gefährlich werden.

Wolltest du 14900K schreiben?


Sry für die DAU Frage.

Wollte mir demnächst einen neuen Rechner basteln, und hatte mich schon auf den 13900K eingeschossen. Wenn in Q1 aber wahrscheinlich was schnelleres(+ AVX512-Support) von AMD kommt, kann ich auch noch warten...

Bei Spielen sollte er keine Probleme haben


Jep, wäre für Spiele. Darunter auch alte Schinken und Emulation von 360 und PS3.

BlacKi
2022-09-03, 20:38:11
ich bezweifle, das man 6-8 monate nach dem release die cpus ohne extra cache direkt im preis massiv fallen werden. das muss leute mit viel geld nicht stören, aber ich finden schon den normalen 16kerner recht teuer. fast 1000€ für eine cpu und 1200 -1400 für dem mit extra cache?

amd cpus fallen deutlicher im preis als intel cpus. aus meiner perspektive, der seine cpus nicht in die vitrine stellt sondern weiterverkauft, war nicht nur die bessere performance ein pluspunkt, sondern eben auch der wiederverkaufspreis.

wenn aber geld egal ist, dann würde ich auf den 7950x3d warten.

amdfanuwe
2022-09-03, 20:48:35
Wenn in Q1 aber wahrscheinlich was schnelleres(+ AVX512-Support) von AMD kommt, kann ich auch noch warten...
Wenn du so lange noch warten kannst, dann warte erst mal die Tests ab, warte bis nach Weihnachten die Verfügbarkeit gegeben ist und sich die Preise einpendeln.
Mal sehen, was AMD noch an SKUs rausbringt und was an GPUs in Q1 kommt.
Bei AMD fehlen noch die X3D, die in Gaming noch was schneller sein sollten, und 65W/105W Varianten, die auch nicht wesentlich langsamer als die X-Varianten sein sollten.

Wenn AMD X und Intel 1300 auf gleich schnell sind, wirds spannend bei den Preisen.

Gipsel
2022-09-03, 20:50:14
wenn aber geld egal ist, dann würde ich auf den 7950x3d warten.Wenn Geld wirklich egal ist, kauft man Ende September einen 7950X und ein paar Monate später den 7950X3D. :lol:

amdfanuwe
2022-09-03, 20:55:23
aber ich finden schon den normalen 16kerner recht teuer. fast 1000€ für eine cpu und 1200 -1400 für dem mit extra cache?

amd cpus fallen deutlicher im preis als intel cpus.
Wir kommste daenn darauf?
7950X wird bei 840€ landen.
Zum Spielen braucht es auch noch nicht unbedingt einen 16 Kerner.
8 Kerner X3D dürfte da noch was billiger sein.
Sollte man erst mal die Tests abwarten und dann entscheiden, was man wirklich braucht.
Wenn die Spiele mal nach 16 Kernen verlangen, kann man ja in 3 Jahren einen 10950X3D nachrüsten.

BlacKi
2022-09-03, 20:57:18
Wir kommste daenn darauf?
7950X wird bei 840€ landen. vor steuern

Linmoum
2022-09-03, 21:01:38
Mit Steuern bei $699 und dem aktuellen Kurs. ;)

BlacKi
2022-09-03, 21:07:01
sryyyyyyyyyy

danke für die korrektur.

M4xw0lf
2022-09-03, 21:27:37
Meint ihr, der Ryzen 9 7950X3D kann dem 13900K gefährlich werden? SC und MC?
In Spielen dürften alle Zen4-X3D-Variationen ziemlich uneinholbar sein für Raptor Lake.

amdfanuwe
2022-09-03, 21:42:41
Grins, vielleicht wirds bei mir ein 7600 + 7600XT. Sollte für meine FHD Ansprüche reichen.

robbitop
2022-09-03, 21:56:01
Kommt auf die Anwendung an.
Bei Spielen sollte er keine Probleme haben aber bei echten, produktiven Anwendungen wird es sicher interessanter.

Wie Cinebench ausgeht - nobody knows.
Die meisten produktiven echte Anwendungen skalieren ab einer gewissen Coreanzahl auch kaum mehr. Und die wenigen Sachen die noch skalieren kann man idR auch mit der GPU beschleunigen. Videobearbeitung, Rendering etc
In der echten Praxis hat man jetzt nicht so viel davon 32 oder 64 Kerne zu haben.

y33H@
2022-09-04, 10:11:46
Wir sind nutzen die 64er Zen2 TR primär wegen Lanes/RAM für Foto/Video, aber mit AM5 dürfte sich das erledigen ... zumal es längst NVMe mit 4TB gibt.

r3ptil3
2022-09-05, 16:53:38
https://cdn.wccftech.com/wp-content/uploads/2022/09/AMD-Ryzen-5-7600X-6-Core-Zen-4-CPU-Benchmarks-Leak-_-AIDA64-Cache-Memory-_-DDR5-6000.png

Den Takt in AIDA64 verstehe ich nicht.
69ns schauen jetzt nicht sehr prickelnd aus.

https://cdn.wccftech.com/wp-content/uploads/2022/09/AMD-Ryzen-5-7600X-6-Core-Zen-4-CPU-Benchmarks-Leak-_-CPUz-ST-_OC-1480x833.png

robbitop
2022-09-05, 17:08:23
War hier nicht auch schon was von 48 ns zu sehen? Das glaube ich dann mittlerweile nicht mehr.

Gipsel
2022-09-05, 17:08:50
https://cdn.wccftech.com/wp-content/uploads/2022/09/AMD-Ryzen-5-7600X-6-Core-Zen-4-CPU-Benchmarks-Leak-_-AIDA64-Cache-Memory-_-DDR5-6000.png

Den Takt in AIDA64 verstehe ich nicht.
69ns schauen jetzt nicht sehr prickelnd aus.69ns mit DDR5-3734 CL40?!?

=================

War hier nicht auch schon was von 48 ns zu sehen? Das glaube ich dann mittlerweile nicht mehr.
Ich dachte, AMD selber sagte 62ns mit DDR5-6000 CL30 (aber unklar bzw. zweifelhaft, ob mit AIDA gemessen).

robbitop
2022-09-05, 17:12:00
Ja das stand so in der Folie. Die 48 ns wirken allerdings davon sehr fern wenn man sieht was out of the box möglich zu sein scheint.

Linmoum
2022-09-05, 17:18:09
CL40 ist jetzt aber auch nicht so geil.

AMD hatte ja iirc irgendwas von ~62ns gezeigt. Danach dürften womöglich 5xns realistisch sein, wenn man auch noch Subtimings optimiert. Das fällt ja ansonsten irgendwie immer raus, da wird x CLy eingestellt und fertig.

Gipsel
2022-09-05, 17:19:17
Ja das stand so in der Folie. Die 48 ns wirken allerdings davon sehr fern wenn man sieht was out of the box möglich zu sein scheint.
a) AIDA benötigt unter Umständen einen Patch (Algorithmus muß angepaßt werden, Geschwindigkeit falsch erkannt?)
b) langsamer DDR5 verwendet (CL40)
c) Beide Optionen treffen zu.

BlacKi
2022-09-05, 17:24:13
das ist klar, das die timings manuell oder per expo optimiert werden können. aber mit welchen methoden will man unter 50ns kommen, takt scheint schonmal ausgemaxt zu sein, für gear 2 wären die werte wohl zu gut.

Gipsel
2022-09-05, 17:27:58
das ist klar, das die timings manuell oder per expo optimiert werden können. aber mit welchen methoden will man unter 50ns kommen, takt scheint schonmal ausgemaxt zu seinEs ist eher noch etwas unklar, mit welchem Takt der Speicher lief (AIDA behauptet 3733, CPU-Z 6000; Ersteres ist sehr wahrscheinlich falsch; die Speicherteiler werden wohl schlicht noch nicht richtig erkannt). Und zwischen CL40 und CL30 ist vermutlich ein ziemlich großer Unterschied (sogar schon out-of-the-box ohne optimierte Subtimings).
Und am Ende ist die Zahl, die AIDA ausspuckt, auch nicht sooo interessant (maximal zum Vergleich innerhalb einer Generation). Wichtig ist auf'm Platz. ;)

Der_Korken
2022-09-05, 18:08:56
Takt und CL haut bei AIDA am meisten rein. Zwischen 3733CL14 und 6000CL40 liegen nominell 3ns. Was in die Gesamtlatenz noch so reinzählt, weiß ich nicht, da (auch bei DDR4 schon) der Latenzwert nicht durch <CL geteilt durch Takt> erklärt werden kann. Offensichtlich ist das Fabric aber nicht wirklich schneller geworden, da man wohl selbst mit optimierten DDR5-Settings nur an optimierte DDR4-Latenzen auf dem alten IOD rankommt.

Gab es bei Alder Lake nicht auch Regressionen bei der AIDA-Latenz? Bei Intel kenne ich mich null aus.

BlacKi
2022-09-05, 18:32:33
ich würde nicht sagen das sich das viel nimmt. unter 40ns kommst du weder mit ddr4 noch mit ddr5. das ist aber schon mit rocketlake schlechter geworden.

aber es gibt im luxx leute die ihren ddr5 ram mit 6400MT/S auf 42ns senken.

https://www.hardwareluxx.de/community/attachments/screenshot-2022-08-31-135647-png.788886/

Der_Korken
2022-09-05, 19:44:15
Ob das so stimmt? 133GB/s read entsprechen 133GB/16B = 8313Mhz. Laut AIDA kann der RAM also schneller Daten übertragen, als theoretisch mit seinem Takt möglich sind. Eventuell läuft der Test nicht komplett im RAM, sondern teilweise auch im Cache, sodass die durchschnittliche Latenz dann so extrem niedrig ist.

PJ
2022-09-05, 19:58:07
Ob das so stimmt? 133GB/s read entsprechen 133GB/16B = 8313Mhz. Laut AIDA kann der RAM also schneller Daten übertragen, als theoretisch mit seinem Takt möglich sind. Eventuell läuft der Test nicht komplett im RAM, sondern teilweise auch im Cache, sodass die durchschnittliche Latenz dann so extrem niedrig ist.
There's always Sisoft Sandra bandwidth and latency test to kind of verify what AIDA reported.
Anyway, this screen from chiphell seems more in line:

80432