PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD bringt "3D V-Cache" als zusätzlichen on-Die-Cache für einen ...


Leonidas
2021-06-02, 04:23:39
Link zur News:
https://www.3dcenter.org/news/amd-bringt-3d-v-cache-als-zusaetzlichen-die-cache-fuer-einen-zen-3-refresh-zum-jahresende

Gast
2021-06-02, 08:09:48
Wenn man den Cache jetzt auf die Chiplets stapelt, dann sind die doch auf einer Seite etwas höher (da, wo der Cache ist). Wie gleicht man das dann aus? Ist da der Heatspreader dann entsprechend gegenläufig erhaben?

Gast
2021-06-02, 09:49:11
Wenn man den Cache jetzt auf die Chiplets stapelt, dann sind die doch auf einer Seite etwas höher (da, wo der Cache ist). Wie gleicht man das dann aus? Ist da der Heatspreader dann entsprechend gegenläufig erhaben?

Hab jetzt nicht gegooglet aber als erstes käme mir sonst auch das Lot zwischen Die und IHS in den Sinn. Ich denke mal auch das sich die Unterschiede in der Höhe auch in Grenzen halten werden, sodass vermutlich das Lot das echt ausgleichen könnte. Wie gesagt reine Vermutung

Gast Ritis
2021-06-02, 09:57:15
Wenn man den Cache jetzt auf die Chiplets stapelt, dann sind die doch auf einer Seite etwas höher (da, wo der Cache ist). Wie gleicht man das dann aus? Ist da der Heatspreader dann entsprechend gegenläufig erhaben?

Ist doch in der Grafik "Strucutral Silicon" wird da daneben gepackt damit die Höhe wieder gleich wird.

Frag mich in welcher Auflösung die Bench-Balken generiert wurden. Eigentlich braucht es doch für die Games sicher nix schnelleres als ein Ryzen 5900X.

Vielleicht könnte man dann Commander Keen aus dem Cache heraus zocken, Doom1 müsste da auch rein passen.

Der Perisaufschlag wird am Ende aber gigantisch sein. Ob das bei 4k Gaming noch irgend einen Unterschied macht wenn am Ende der Chip nicht mehr so hoch takten kann oder der Cache mehr Latenz hat?

Ist das dann eine CPU speziell für professionelle Gamer damit man nie unter 144Hz droppt?

Bei den heutigen Top-GamerGPUs ist sowas doch noch total uniteressant, am Ende gehts halt ums Ego gegen Intel-Konkurrenz wer nächstes Jahr den theoretisch schnellsten hätte, gemessen in 720p low settings.

Aroas
2021-06-02, 10:00:37
Hm und was bringt mir in der aktuellen Situation eine CPU mit noch mehr Gaming Performance, wo doch in den allermeisten Fällen eher die GPU der limitierende Faktor ist und eben jene GPUs nur zu Wucherpreisen zu haben sind, wenn überhaupt?

Ist ja schön, dass AMD die Leistung der CPUs nochmals steigert, aber davon hab ich im Endeffekt als Spieler einfach mal rein gar nichts, wenn meine GPU massiv limitiert.

Statt also großartig mit mehr Gaming Leistung bei der CPU Marketing zu betreiben, sollte AMD besser mal bei den GPUs aus dem Quark kommen und dort deutlich den Output an Chips steigern.
Ebenfalls stark nachgefragt werden Notebook APUs. Auch hier darf AMD gern zulegen.

Wirklich am wenigsten Interesse besteht aktuell an noch leistungsfähigeren Desktop Chips.

Linmoum
2021-06-02, 10:21:54
Stimmt, lieber keine Innovationen und keinen Fortschritt. Wer braucht das schon. Stillstand ist viel geiler.

Legendenkiller
2021-06-02, 10:24:32
@Aroas

ja war auch so ein Gedanke bei mir.
Irgendwie haben die CPU Hersteller da n Problem.
Im Prinzip ist eine 3600 und erst recht ein 10400 zum Spielen auf Jahre gut genug (für 95% der Gamer).

Aber sie machen CPUs ja nicht nur für Gamer

PS: ich zock auf ein 22nm I5 Hashwell mit 4 cores und "zum glück" einer 1070 ... Die passen ziehmlich gut zusammen , also laufen immer fast gleichzeitig ins Limit.
Die Überlegung schon mal die CPU zu erneuern habe ich deswegen wieder verworfen obwohl sowohl Intel als auch AMD super Auswahl haben und die Preise aktuell echt ok sind.

Und aktuell wäre ich mir nichtmal sicher was ich nehmen würde ... da ist vom 10400 bis zum 5900x alles im Rennen. Dazu muss ich aber erstmal mein aktuelle Wunschgrafikarte PowerColor RX 6800 Red Dragon sinnvoll kaufen können.

Knuddelbearli
2021-06-02, 10:27:46
@Gast der Chip wird angepasst so das man am Ende dieselbe höhe hat:
https://www.computerbase.de/2021-06/3d-v-cache-technology-amd-stapelt-l3-cache-bei-ryzen-auf-192-mbyte/#update-2021-06-01T18:45

Um den zusätzlichen L3-Cache auf dem CCD unterzubringen, ohne die Höhe zu verändern, werden die CCDs der betreffenden Prozessoren in Zukunft dünner, um am Ende mit gestapeltem Zusatz-Cache wieder genau so hoch zu sein wie der I/O-Die und um letztlich unter den Heatspreader zu passen.

@Aroas wie mir solche Leute die 0 über den Tellerand gucken können auf den Geist gehen. Als Strategiespieler nehme ich jdes bisschen CPU mit Handkuss mit. Auch allgemein gilt GPU Last kann man sehr einfach mit Einstellungen reduzieren. CPU Last nur sehr begrenzt, und schlimmstenfalls kann man dann auch eien Preisklasse günstoger kaufen und spart sich damit Geld.

MiamiNice
2021-06-02, 10:41:58
Hm und was bringt mir in der aktuellen Situation eine CPU mit noch mehr Gaming Performance, wo doch in den allermeisten Fällen eher die GPU der limitierende Faktor ist und eben jene GPUs nur zu Wucherpreisen zu haben sind, wenn überhaupt?

Ist ja schön, dass AMD die Leistung der CPUs nochmals steigert, aber davon hab ich im Endeffekt als Spieler einfach mal rein gar nichts, wenn meine GPU massiv limitiert.

Statt also großartig mit mehr Gaming Leistung bei der CPU Marketing zu betreiben, sollte AMD besser mal bei den GPUs aus dem Quark kommen und dort deutlich den Output an Chips steigern.
Ebenfalls stark nachgefragt werden Notebook APUs. Auch hier darf AMD gern zulegen.

Wirklich am wenigsten Interesse besteht aktuell an noch leistungsfähigeren Desktop Chips.

Spielen wir so unterschiedliche Dinge?!?
Ich bin rund um die Uhr im CPU Limit. OK hab nur einen 9900k, ein 5900X würde einen Schub bringen - aber selbst ein 5900X oder 5950X ist doch heute auch zu langsam und bremst die GPU dauernd aus. Diverse Games unter VR, Star Citizen, Elite, EfT, allgemein MMOs usw. usf. haben alle ein reines CPU Limit. Wenn es nach mir ginge könnte wir die ST CPU Power gerne verdoppeln.
Abseits der wannabe "AAA" Titel die durch Grafik statt durch Inhalt beeindrucken - brauchst eher CPU Power.

Leonidas
2021-06-02, 11:06:22
CPU-Performance ist immer wichtig. So eine richtige schöne Hardware-Sim ist fast immer im CPU-Limit (manchmal auch einfach mangels jeglicher 3D-Grafik).

Mr.Smith
2021-06-02, 11:25:51
449$ 8k/16t zen3 5800x
359$ 8k/16t zen3 apu <- "preis ist ziemlich hoch angesetzt" 0.0 o.o 6.ò

Gast Ritis
2021-06-02, 11:37:14
Stimmt, lieber keine Innovationen und keinen Fortschritt. Wer braucht das schon. Stillstand ist viel geiler.

Fortschritt ist super, nur zu welchem Preis?

Dass das nur im Gaming angepriesen wurde und nicht z.B. mit Cinebench lenkt halt est mal die Aufmerksamkeit in einen Bereich wo man für viel mehr Geld nicht noch mehr ungenutzte Leistung bräuchte, ausser halt in ganz ganz speziellen Fällen...

Timbaloo
2021-06-02, 11:46:41
Ziemlich interessant dieser Cache. Da bin ich gespannt was das in der Praxis bringt. Evtl. geht mein 8700K doch schneller in Rente als gedacht :O

@MiamiNice +1, und ich spiele noch mit einer 970 :D

Gast
2021-06-02, 12:33:41
Ist doch in der Grafik "Strucutral Silicon" wird da daneben gepackt damit die Höhe wieder gleich wird.
Danke, hab ich übersehen!

Platos
2021-06-02, 12:39:58
8700k aber GTX 970 :D Hoffentlich tauschst du dann aber auch die Grafikkarte.

Gast
2021-06-02, 12:50:31
Der in 7nm von TSMC gefertigte on-Die-Cache aus SRAM-Zellen belegt dabei exakt jene Die-Fläche auf dem Zen-3-Prozessor, in welchem sich der Prozessor-eigene Level3-Cache befindet.


Eben nicht, der SRAM DIE ist eindeutig deutlich kleiner als der CCD, die übrige Fläche wird mit unbelichteten Siliziumscheiben abgedeckt um auf eine einheitliche Höhe zu kommen.


Dies ergibt ein problemloses Stacking, sprich das Aufschnallen eines weiteren Chips auf den Prozessor – weil der on-Die-Cache außerhalb der üblichen Temperatur-Hotspots liegt und somit die Prozessoren-Kühlung nicht behindert.


Die Kühlung CPU-Kühlung wird mit ziemlicher Sicherheit behindert. Die Wärme muss vom Compute-DIE erstmal in den Cache-DIE bzw. die 2 Dummy-DIEs und kann erst dann in den IHS und von dort in den Kühler.

Das ist auf jeden Fall ein Wärmeübergang mehr, und das ist selten gut für die Kühlung. Das wäre höchstens dann positiv, wenn die Wärmeübertragung zwischen den Silizium-DIEs wesentlich besser wäre als die Wärmeübertragung in den IHS.
Dann würde das zusätzliche Silizium so etwas wie ein Wärmepuffer sein und im Endeffekt die Hotspots sogar vermindern.
Ich kann mir nur nicht vorstellen, dass das der Fall sein kann, die TSVs sind zwar direkte Kupferverbindungen, leiten die Wärme also sehr gut, aber deren Gesamtfläche ist sehr klein und wird daher kaum eine Rolle spielen. Und dass der Wärmeübergang zwischen den verschiedenen Siliziumkomponenten tatsächlich besser ist als in einen verlöteten Heatspreader erscheint sehr unwahrscheinlich, zumal man hier keinen metallischen Wärmeüberträger verwenden kann, da dieser in den TSVs Kurzschlüsse verursachen würde.

Gerade angesichts der eh schon schwierigen Kühlung der 7nm Zen-DIEs stehe ich dem doch sehr skeptisch gegenüber. Selbst wenn man mit Wasser kühlt limitieren die Hotspots schon heute die erreichbaren Turbotaktraten, und das kann eigentlich mit einer derartigen Konstruktion nur schlechter werden.

Man müsste das ganze umgekehrt bauen, auf das Substrat kommt der Cache-DIE und darüber der Compute-DIE, damit würde man die Kühlung zumindest nicht wesentlich beeinträchtigen.

Und vor allem warum? Wenn man schon ein stacked Design macht, warum dann nicht wenigstens den SRAM-DIE gleich groß wie den Compute-DIE machen, gibt noch mehr Cache und man erspart sich die seltsame Konstruktion mit dem Dummy-Silizium, und könnte auch noch mehr Redundanzen in den SRAM verbauen und damit einen quasi 100% nutzbaren Yield erreichen.

Und wenn so viel mehr Cache dann nix mehr bringt, warum dann nicht den Cache gleich ins Compute-Die einbauen? Das Compute-DIE hat 80mm², das SRAM-DIE geschätzt die Hälfte. Ein paar mm² könnte man sich noch sparen indem man das TSV Interface weglässt, und das Ganze wäre ein immer noch winziges 110-120mm² Compute-DIE, eventuell sogar mit besseren L3-Latenzen, da man sich das TSV-Interface spart.

BlacKi
2021-06-02, 13:00:05
@leo

die schreiben jetzt alle, das der 3D V-Cache noch dieses jahr produziert wird, aber erst nächstes jahr erscheint.

wird bei der CES vorgestellt?

man schreibt auch

AMD will definitely have this tech on its Zen 4 Ryzen CPUs and they will go one step ahead to package upcoming Zen 3 powered Ryzen & EPYC Milan-X with stacked 3D V-Cache chiplets as reported in recent rumors.

https://wccftech.com/amd-confirms-zen-3-ryzen-cpus-with-3d-v-cache-stack-chiplet-design-coming-early-next-year-before-zen-4/

arcanum
2021-06-02, 13:01:02
klingt interessant. hoffentlich werden die cpus nicht gleich nochmal 100€ teurer.

user77
2021-06-02, 13:25:00
Hm und was bringt mir in der aktuellen Situation eine CPU mit noch mehr Gaming Performance, wo doch in den allermeisten Fällen eher die GPU der limitierende Faktor ist und eben jene GPUs nur zu Wucherpreisen zu haben sind, wenn überhaupt?

Ist ja schön, dass AMD die Leistung der CPUs nochmals steigert, aber davon hab ich im Endeffekt als Spieler einfach mal rein gar nichts, wenn meine GPU massiv limitiert.

Statt also großartig mit mehr Gaming Leistung bei der CPU Marketing zu betreiben, sollte AMD besser mal bei den GPUs aus dem Quark kommen und dort deutlich den Output an Chips steigern.
Ebenfalls stark nachgefragt werden Notebook APUs. Auch hier darf AMD gern zulegen.

Wirklich am wenigsten Interesse besteht aktuell an noch leistungsfähigeren Desktop Chips.

Gamer sind nur ein kleiner Teil der Weltweiten PC User. Tellerrand und so.

Timbaloo
2021-06-02, 13:25:16
8700k aber GTX 970 :D Hoffentlich tauschst du dann aber auch die Grafikkarte.
Wollte ich ursprünglich zu Turing schon, hat mich dann aber nichts geschockt und so richtig Not gab es auch nicht (Tarkov in 1080p...). Und jetzt mit Ampere/RDNA2... well... bad timing :D

In den letzten 10-12 Jahren hab ich auch CPU und GPU immer im Wechsel getauscht, also jeweils ca. 4 Jahre, aber zwischen CPU und GPU immer so 2 Jahre... Könnte diesmal beides zusammen machen... Aber eigentlich ist der 8700K noch zu gut zum Austauschen.

Mal schauen...

Leonidas
2021-06-02, 14:19:41
die schreiben jetzt alle, das der 3D V-Cache noch dieses jahr produziert wird, aber erst nächstes jahr erscheint.
wird bei der CES vorgestellt?

Darauf dürfte es nun doch hinauslaufen. Das mit dem "Jahresende" ist ein wenig zu vorfreudig.

Aroas
2021-06-02, 14:50:55
Gamer sind nur ein kleiner Teil der Weltweiten PC User. Tellerrand und so.

AMD wirbt aber explizit mit höherer Gaming Performance und genau deshalb hab ich das kommentiert.

Und an all jene, die hier davon reden, dass sie für Spiel X ja so unheimlich gern noch mehr CPU Leistung hätten: Diese Leistung ist bereits längst da. Nur bekommen es die Damen und Herren Spieleentwickler oftmals schlicht nicht gebacken, ihre Machwerke ordentlich auf Mehrkern CPUs zu optimieren.
Deshalb nuckeln die Spiele immer nur an wenigen Kernen herum und wollen möglichst hohe IPC und Takt haben.

Würden die Entwickler endlich mal die vorhandene Hardware auch wirklich gescheit ausnutzen, hätte man viel weniger Probleme mit fehlender CPU Leistung.

Leonidas
2021-06-02, 14:57:07
Stimmt sehr wohl. Ich ärgere mich hier mit einer Sim rum, die jährlich erscheint und deren Programmierer es trotz Engine-Wechsel nicht hinbekommen, mehr als nur einen Thread zu unterstützen ;)

WedgeAntilles
2021-06-02, 15:03:26
Und an all jene, die hier davon reden, dass sie für Spiel X ja so unheimlich gern noch mehr CPU Leistung hätten: Diese Leistung ist bereits längst da. Nur bekommen es die Damen und Herren Spieleentwickler oftmals schlicht nicht gebacken, ihre Machwerke ordentlich auf Mehrkern CPUs zu optimieren.
Deshalb nuckeln die Spiele immer nur an wenigen Kernen herum und wollen möglichst hohe IPC und Takt haben.


Gilt auch für RAM.
Cyberpunk nutzt da 7GB oder so - auch wenn man 64GB drin hat.
Ich bin mir sicher, dass CP etwas flüssiger laufen würde, wenn sich CP von bei 50GB freien Ram wenigstens 20 oder so nehmen würde.

In den letzten 10, 15 Jahren bilde ich mir ein, dass die Effizienz der Spiele immer weiter in den Keller geht.
Wenn man mal vergleicht was für Grafik aus der Hardware der 90er rausgeholt wurde.
Wieviele Spiele haben einen riesigen Hardwarehunger, ohne aber wirklich berauschend zu sein?
Oder nutzen eben einen großen Teil der vorhandenen Hardware schlicht nicht aus.

Ich denke schon, dass man da deutlich mehr rausholen könnte als es viele Entwickler tun - die Jungs von ID Software z.B. zeigen ebendies doch regelmäßig.

Timbaloo
2021-06-02, 15:13:22
Und an all jene, die hier davon reden, dass sie für Spiel X ja so unheimlich gern noch mehr CPU Leistung hätten: Diese Leistung ist bereits längst da. Nur bekommen es die Damen und Herren Spieleentwickler oftmals schlicht nicht gebacken, ihre Machwerke ordentlich auf Mehrkern CPUs zu optimieren.
Deshalb nuckeln die Spiele immer nur an wenigen Kernen herum und wollen möglichst hohe IPC und Takt haben.

Würden die Entwickler endlich mal die vorhandene Hardware auch wirklich gescheit ausnutzen, hätte man viel weniger Probleme mit fehlender CPU Leistung.
Lass mich raten: Du hast nicht wirklich jemals mit Softwareentwicklung zu tun gehabt?

MiamiNice
2021-06-02, 15:31:26
Würden die Entwickler endlich mal die vorhandene Hardware auch wirklich gescheit ausnutzen, hätte man viel weniger Probleme mit fehlender CPU Leistung.

Würden die sicher gerne wenn es technisch möglich wäre. Bis dahin zählt leider weiterhin hauptsächlich die Single Core Performance beim Gaming.

MD_Enigma
2021-06-02, 17:45:11
Der Cache hat den riesen Vorteil, dass er eine Art Optimierung der Architektur bereitstellt, ohne dass die Software darauf angepasst wird. Wer sich schon einmal damit beschäftigt hat, wie Algorithmen auf Cache reagieren kann das nachvollziehen. Stellt euch vor ein Algorithmus berechnet einen optimierte Wegroute durch eine 2D Karte berechnen. Dazu muss er an vielen Stellen an Daten ran. Hat er die Daten nicht im Prozessornahen Cache muss er für die gesamten Zyklen der CAS Latency auf eine Antwort warten. Bei 3000 MHz und CL15 sind das immerhin 10ns - bei 4GHz Takt sind das immerhin 400 Zyklen warten. Ja, er kann in den 400 Zyklen vielleicht etwas anderes machen - aber nicht immer. Ein moderner Prozess versucht das durch Pre-Fetching zu verhindern ... perfekt ist er aber nicht.

Ich hab selbst den 5775C und darum relativ genau mitverfolgt wie gut der Cache skaliert. Man kann das anhand von dem aktuellen Review von Ian gut nachvollziehen (https://www.anandtech.com/show/16195/a-broadwell-retrospective-review-in-2020-is-edram-still-worth-it) und schaue mir gerne FarCry an, da es immer ein guter Mittelwert einer "mordernen" Engine ist.
https://images.anandtech.com/graphs/graph16195/118941.png

Der Cache liefert bei einer 3,6 GHz CPU ungefähr das Ergebnis einer 4,2 GHz CPU ab - rund 17% mehr bums.

Wer möchte, kann sich dann an extrema wie CIV (https://www.anandtech.com/show/16195/a-broadwell-retrospective-review-in-2020-is-edram-still-worth-it/13) orientieren, das halt komplett Abspackt (+60%).

Nightspider
2021-06-02, 18:02:07
Toller Test.

Wahnsinn wie Broadwell teilweise bis zu 25% vor Haswell Devils Canyon liegt dank eDRAM und teilweise auch vor Zen2.

Mr.Smith
2021-06-02, 18:16:35
Gamer sind nur ein kleiner Teil der Weltweiten PC User. Tellerrand und so.

Wer weiß was es außerhalb vom Gaming bringt
Und nein, Gaming ist ein riesiger Markt, vorallem für neue leistungsstarke CPUs.

Nightspider
2021-06-02, 18:21:40
Ich schätze das Milan-X dank V-Cache auch sehr sehr gut in Spieleservern performen wird.

Für die vielen Multiplayer Spiele gibt es ja auch einen entsprechend hohen Bedarf an Servern und dort sollten die Server-Prozessoren mit V-Cache auch besonders gut abschneiden.

Ich denke da gerade an Server zB. für PUBG, Call of Duty, Battlefield und Star Citizen.

Platos
2021-06-03, 00:10:16
Wollte ich ursprünglich zu Turing schon, hat mich dann aber nichts geschockt und so richtig Not gab es auch nicht (Tarkov in 1080p...). Und jetzt mit Ampere/RDNA2... well... bad timing :D

In den letzten 10-12 Jahren hab ich auch CPU und GPU immer im Wechsel getauscht, also jeweils ca. 4 Jahre, aber zwischen CPU und GPU immer so 2 Jahre... Könnte diesmal beides zusammen machen... Aber eigentlich ist der 8700K noch zu gut zum Austauschen.

Mal schauen...

Ja, dumm gelaufen. Von Maxwell auf Pascal ist es vermutlich ein zu kleiner Schritt und Turing war einfach scheisse und Ampere hätte ja eig. in dieser Preisklasse mit der 3060 was brauchbares als Upgrade für die 970, auch vor allem im Speicher. Aber die Strassenpreise...

Leonidas
2021-06-03, 03:48:59
Wer weiß was es außerhalb vom Gaming bringt
Und nein, Gaming ist ein riesiger Markt, vorallem für neue leistungsstarke CPUs.

Gaming ist vor allem auch ziehendes Kaufargument. Wen holt man hinter dem Ofen hervor mit besserer Word-Performance?

Ravenhearth
2021-06-03, 12:03:44
Im Endeffekt vergrößert AMD mit einem einfachen Trick den Level3-Cache seiner Prozessoren um ein Vielfaches. Dabei war dieser "Trick" bereits von Anfang an im Zen-3-Design vorgesehen, denn die dafür notwendigen TSV-Verbindungen konnten nun nachträglich auf den vorhandenen Die-Shots identifiziert (https://twitter.com/aschilling/status/1399664821717569542) werden.
Ich würde dazu die Kommentare zu dem Tweet beachten. Laut Andrei von anandtech handelt es sich dabei um andere Logik, die bereits Zen 2 hatte, die viel zu groß für TSVs ist.

Leonidas
2021-06-03, 12:07:11
Mal schauen, ob AMD dies noch aufklären kann.

Gast Ritis
2021-06-03, 18:46:11
Gaming ist der einzige existierende Massenmarkt, der es vermag Kaufanreize mit Bezug auf Performance anzuregen.
Dass Microsoft Ware das mal verursachte ist Geschichte.

Zur Programmierung von Computerspielen ist zu sagen, dass es keine Problemstellung gibt die man entweder mit 1Ghz auf Single Core abfrühstücken könnte, oder die sich mit wenig Aufwand parallelisieren lässt.
Das Problem sind nur alte Codebestände die man weiterverwenden will und die Faulheit sich für Multithreading ernsthaft eine Basis zu schaffen. Z.B in dem man sich einen Scheduler programmiert der die Verfügbarkeit von Systemressourcen prüft, blockiert und verwaltet und eine Engine entwickelt die Jobs und States verwaltet und nicht nur alles stumpf seriell verlangt.

Ich bin aber zuversichtlich, dass MS DX12 Doku und die Sekundärliteratur sich auf die Notwendigkeiten der Programmierung zur Auslastung der aktuellen Konsolen anpassen werden.
Dass dann immer noch Leute mit OpenGL und sonst altem Zeug einsteigen wird sich leider nicht vermeiden lassen, aber es wird weniger werden…

Bei Mega-Cache bin ich aber skeptisch. Algorithmen sollten auch weiterhin auf max 2MB je Core optimiert werden, wenn aber der extrem teure RAM Kit mit scharfen Subtimings überflüssig wird ist das am Ende besser angelegtes Geld.

Benutzername
2021-06-04, 00:32:26
Stimmt sehr wohl. Ich ärgere mich hier mit einer Sim rum, die jährlich erscheint und deren Programmierer es trotz Engine-Wechsel nicht hinbekommen, mehr als nur einen Thread zu unterstützen ;)


Nicht jede Rechenaufgabe lässt sich beliebig parallelisieren. Leider.

Doofe Mathematik. ;)


Toller Test.

Wahnsinn wie Broadwell teilweise bis zu 25% vor Haswell Devils Canyon liegt dank eDRAM und teilweise auch vor Zen2.



Ja, das hat mich auch überrascht. Ist ja doch noch ganz beachtlich, was die olle CPU von 2014 kann. vielleicht wirkt sich der eDRAM mit zunehmender parallelisierung um so stärker aus? Hmmm

Gast
2021-06-04, 10:38:36
Nicht jede Rechenaufgabe lässt sich beliebig parallelisieren. Leider.

Doofe Mathematik. ;)

Vor allem bringt eine hohe Parallelisierung nur was wenn sich die Aufgaben in weitestgehend gleich aufwändige Einzelteile zerlegen lassen.

Es bringt wenig wenn du die Gesamtaufgabe zwar in 200 Worker-Threads zerlegen kannst, davon aber einer 10x so aufwändig wie die restlichen 199 ist.

Dann wird ab einer bestimmten Kernanzahl dieser eine Thread immer zu 100% die Performance limitieren, egal ob man den Rest vielleicht in noch 200 weitere Threads zerlegen kann.

Gipsel
2021-06-04, 13:20:54
Ich würde dazu die Kommentare zu dem Tweet beachten. Laut Andrei von anandtech handelt es sich dabei um andere Logik, die bereits Zen 2 hatte, die viel zu groß für TSVs ist.Der verwechselt Pitch (dafür hat TSMC mal [minimal] 9µm angegeben) mit Pad-Größe (ist dann notgedrungen kleiner als 9µm). Und bei Zen2 gibt es die auch nicht, wie er geschrieben hat (sondern nur bei Zen3). Und es ist auch gut erklärt, daß die Power-/Ground-Pads relativ gleichmäßig über den kompletten Cache-Bereich verteilt sind (kann aber auf den Die-Shots ebenfalls gefunden werden) und in dieser besser sichtbaren Struktur eben die Treiber für das Dateninterface sitzen (was das dann etwas größer macht und durch die Bündelung dort eine gut sichtbare Struktur ergibt).
Kurz: Der Andrei liegt da klar falsch.

Mr.Smith
2021-06-05, 09:50:12
.. Eigentlich braucht es doch für die Games sicher nix schnelleres als ein Ryzen 5900X.

..

Bei den heutigen Top-GamerGPUs ist sowas doch noch total uniteressant, am Ende gehts halt ums Ego gegen Intel-Konkurrenz wer nächstes Jahr den theoretisch schnellsten hätte, gemessen in 720p low settings.

1. CPU hält länger
2. Sind halt paar mehr min-fps, immer.
3. Gibt es durchaus Strategie-Spiele etc. die mehr können.

Aber klar, wenn du von "reicht doch" redest, dann kannst auch einfach einen AMD 3600 nehmen und 2*8GB Ram und ne mx 500 ssd ..

Mr.Smith
2021-06-05, 09:52:48
..
In den letzten 10, 15 Jahren bilde ich mir ein, dass die Effizienz der Spiele immer weiter in den Keller geht.
Wenn man mal vergleicht was für Grafik aus der Hardware der 90er rausgeholt wurde.
Wieviele Spiele haben einen riesigen Hardwarehunger, ohne aber wirklich berauschend zu sein?
Oder nutzen eben einen großen Teil der vorhandenen Hardware schlicht nicht aus..

Ist eine Frage der Priorisierung, mit Optimierungen verdient man erstmal kein Geld, wenn es auch so genug fps gibt..