PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 9./10. April 2022


Leonidas
2022-04-11, 08:20:36
Link zur News:
https://www.3dcenter.org/news/news-des-910-april-2022

Gast
2022-04-11, 08:58:13
ZEN 2 hatte auch schon 16 Große 2019

Leonidas
2022-04-11, 09:00:22
Natürlich. Blöder C&P-Fehler. Gefixt.

Gast
2022-04-11, 09:48:48
Die sollen mal aufhören mit dem Kernwahnsinn, das erinnert ja schon fast an den Megapixelwahnsinn bei Digitalkameras.

Qualität statt Quantität ist gefragt.

Ahnungsloser Passant
2022-04-11, 10:22:13
Die sollen mal aufhören mit dem Kernwahnsinn, das erinnert ja schon fast an den Megapixelwahnsinn bei Digitalkameras.

Qualität statt Quantität ist gefragt.

Was schlägst du den CPU Herstellern konkret vor?

Platos
2022-04-11, 11:24:46
Die sollen mal aufhören mit dem Kernwahnsinn, das erinnert ja schon fast an den Megapixelwahnsinn bei Digitalkameras.

Qualität statt Quantität ist gefragt.

Grundsätzlich bin ich ja deiner Meinung gegen oben hin, aber nicht gegen unten hin. 32 Kerne sind vlt. komplett unnötig, aber die kleinste Basis könnten noch steigen. Vor allem bei Intel. Als kleinste Basis 6 oder gar 8-Kerner wäre cool :D

Aber du sagst das so, als würde man seit Jahren nur die Kernanzahl erhöhen, dabei gibt es gerade jetzt die grössten IPC Sprünge seit Jahren. Also weiss ich nicht, wo dein Problem ist...

Gastxyz
2022-04-11, 11:41:29
Ist halt HPC, selbst wenn man AM4 schreibt nichts für Consumer und das Zen Desktop eher Abfall aus der HPC TR Fertigung ist, dürfte auch jeder wissen.

Wenn man drei Zen3 TR dann mit einem oder zwei Zen AM4 TR ersetzen kann, und schlägt - spart man immer noch und könnte mehr über die zusätzliches Cores ausführen. Für Spieler kaum relevant. Da wird es bei maximal 16 Cores bleiben.

Es zeigt einfach nur was mit Zen in seinen Evolutionsstufen möglich ist und das Intel lange Zeit falsch lag, was "zusammengebaute CPUs" angeht. Jedenfalls in deren Wortlaut billig zusammengebaut. Das zeigte Zen klar auf bis heute. AMD hat man komplett unterschätzt.

Gast
2022-04-11, 11:59:08
Mooreslaw-was-auch immer und Redgamingtech, veröffentlichten nahezu nie interne Informationen (Leaks, Gerüchte, Informationen) sondern sind 98 % der Zeit nur Schwätzer die bereits veröffentlichte Informationen der "vertraulichen" Leaker etc. wieder aufwärmen (deshalb warten die immer bis bereits Informationen/Leaks etc. nach außen gedrungen sind) + mit ihren eigenen erfundenen Informationen/Angaben (damit es so aussieht als hätten sie was) + immer sehr großen "von - bis Angaben" (damit sie sich später immer herausreden können die "Quellen" wären sich unsicher und nichts sei in den Stein gemeißelt).
Also die höchsten Tratsch und Klatsch-Verbreiter und den bereits Tratsch und Klatsch-News-Verbreiter.

Das man den üblichen Klatsch Und Tratsch zusammenfasst und verbreitet kann ich nachvollziehen, aber nicht was die beiden seit Jahren von sich geben. Das ist Staatsfernsehen/Unterhaltungsniveau. :D


Die Informationen wie schnell Desktop Zen4 wird wurden schon letztes Jahr von einem Mitarbeiter gegeben und die Angaben von "30 - 40 % schneller" verdichten sich nun auch als bewahrheitet.
https://www.reddit.com/r/GamingLeaksAndRumours/comments/jpmejf/amd_zen_cpus/

Habe in Erinnerung das von diesem Mitarbeiter auch ein anderer Beitrag kam, zu Zen 5, und dass hier gegenüber Zen 4 Desktop ein noch viel größerer Leistungszuwachs von 50 % und mehr im Raum steht.
Die Kernanzahl pro Cluster wird von 8 auf 12 erhöht.
Mit 32-Kernen im Konsumerbreich kann es also gar nicht stimmen. Zen4 bleibt bei 16 Kernen und Zen 5 steigt auf 24 Kerne auf.

Wer von einem Zen 2 8-Kern Prozessor auf Zen 5 8-Kern wechselt, bekommt satte + 150/160 % Leistungsaufschlag.

Also man kann sich den Klatsch und Tratsch über Zen 4/5 bis 2023+ eig. sparen, man weiß ja schon wie schnell diese werden :D

Gast
2022-04-11, 12:05:51
Eine andere Quelle (oder erfunden?) teilte von Zen 4 Zen 5 40 % Zuwachs mit.
https://chipsandcheese.com/2021/02/05/amds-past-and-future-cpus/
Nun, langsamer wird es jedenfalls nicht.

Gast
2022-04-11, 12:08:33
Ich hab gar keinen Nerv das Pebble Geschwafel zu zerlegen. Der widerspricht selbst seiner eigenen Grafik.

Ist außer mir immer noch niemand der Kontrast 5800X3D vs. Navi31 bzgl. Cache aufgefallen?

Mehr Kerne braucht kaum wer. Aber beim Takt ist man schon länger quasi am Limit. Mehr Cache ist gut, aber man sieht ja die Probleme damit. Bleibt noch IPC und da bin ich eh beeindruckt, was noch rausgekitzelt wird. Die Zukunft ist - auch wenn mir das nicht passt - parallel. Habe ich schon vor Jahren gesagt. Modulation, Takt usw. Sind irgendwann ausgereizt.

Gast
2022-04-11, 12:30:19
Was schlägst du den CPU Herstellern konkret vor?

Mehr Leistung pro Thread, anstatt Threads endlos zu erhöhen.

Gast
2022-04-11, 12:35:51
Aber du sagst das so, als würde man seit Jahren nur die Kernanzahl erhöhen, dabei gibt es gerade jetzt die grössten IPC Sprünge seit Jahren. Also weiss ich nicht, wo dein Problem ist...

Aber auch nur wenn man in der AMD-Blase lebt.

Ja, AMD hat die letzten Generationen ordentlich an Singlethread-Leistung gegenüber den eigenen Vorgängern zugelegt, dabei aber bis Zen3 gebraucht um sich von Skylake abzusetzen, und bei Intel ist bis Alderlake nix passiert.

Die jeweils letzte Generation bringt ja bei beiden einen ganz netten Boost, aber angesichts des jahrelangen Stillstandes ist das trotzdem nur ein Tropfen auf dem heißen Stein.

OpenVMSwartoll
2022-04-11, 14:06:11
Wieso erinnere ich mich daran, dass "niemand mehr als 2 Kerne braucht" oder "ne 1 GB HDD wirst Du niemals voll bekommen" oder "640 KB reichen für alles aus".

Wenn so viele Kerne vorhanden sind, wird das System sie früher oder später nutzen.

GerryB
2022-04-11, 14:26:09
na hoffentlich ab Herbst erstmal weniger CPU-Cores erf., wenn ds in der GPU entpackt wird
... dann wird der i3 12100 noch zum Geheimtipp

Sollten 1-2 Games dann tatsächlich mehr Physikthreads brauchen, gibts da garantiert auch Regler auf medium/low.

Rabiata
2022-04-11, 14:29:44
Ist halt HPC, selbst wenn man AM4 schreibt nichts für Consumer und das Zen Desktop eher Abfall aus der HPC TR Fertigung ist, dürfte auch jeder wissen.

Wenn man drei Zen3 TR dann mit einem oder zwei Zen AM4 TR ersetzen kann, und schlägt - spart man immer noch und könnte mehr über die zusätzliches Cores ausführen. Für Spieler kaum relevant. Da wird es bei maximal 16 Cores bleiben.

AM4 wird mit nur 2 Speicherkanälen Performance-Probleme bekommen, wenn die Kernzahl immer mehr erhöht wird. Analog zu einem PC, der heute nur mit einem Speichermodul bestückt wird. DDR5 wird ein bißchen helfen, aber ich habe starke Zweifel ob mehr als 16 Kerne auf der Consumer-Plattform Sinn ergeben. Vielleicht braucht es irgendwann einen "Threadripper Light", der auf 4 Speicherkanäle und einen kleineren Sockel zurückgeht.

Ahnungsloser Passant
2022-04-11, 14:33:42
Mehr Leistung pro Thread, anstatt Threads endlos zu erhöhen.

Die IPC geht doch seit Einführung der Zen Architektur hoch wie lange nicht mehr. Inzwischen auch bei Intel. Und bei der Taktrate gibt es halt physikalische Grenzen. Intel hat das beim Pentium 4 auf die harte Tour gelernt. Also nochmal: Was schlägst du den CPU-Herstellern konkret vor?

Leonidas
2022-04-11, 14:56:53
Ist halt HPC, selbst wenn man AM4 schreibt nichts für Consumer und das Zen Desktop eher Abfall aus der HPC TR Fertigung ist, dürfte auch jeder wissen.

Nein. Damit sind Consumer-Produkte gemeint und auch kein Threadripper. Das Original benutzt den Wortlaut "Mainstream" - womit das normale Desktop-Portfolio gemeint ist.

Buddy Casino
2022-04-11, 14:58:10
Also nochmal: Was schlägst du den CPU-Herstellern konkret vor?

Ich bin sicher er ist mit einer technischen Ausarbeitung wie man die OutOfOrder Cores durch verbesserte x64 Befehlsdecoder noch breiter machen kann beschäftigt. Sowas dauert.

Ansonsten bin ich gespannt wo es hingeht, ich vermute es kommt immer mehr Spezial-Hardware wie Tensor Cores und DSP Krams dazu, wenn mehr Transistoren nicht mehr durch mehr Kerne sinnvoll verbraucht werden kann. Oder bessere integrierte GPU. Oder einfach immer größere Caches.

Leonidas
2022-04-11, 14:59:15
Special-Cores dürften der Weg der Zukunft sein. Weil sich das lohnt, anstatt noch ein Dutzend mehr Mini-Cores daraufzulegen.

Gast
2022-04-11, 15:15:02
Ja, AMD hat die letzten Generationen ordentlich an Singlethread-Leistung gegenüber den eigenen Vorgängern zugelegt, dabei aber bis Zen3 gebraucht um sich von Skylake abzusetzen, und bei Intel ist bis Alderlake nix passiert.
Naja, das ist halt auch immer relativ. In der IPC war Zen2 schon vor Skylake, nur deutlich niedriger getaktet und daher insgesamt auf ähnlichem Niveau als Skylake. Zen3 taktet etwas höher als Zen2 und hat mehr IPC, ist daher trotz weniger Takt vor dem Top Skylake (10900K). Intel's Rettung war also in erster Linie ihr uralter aber sehr ausgereifter Fertigungsprozess mit extrem hohen Taktraten und auch relativ hohem Verbrauch.
Grob gesagt war Zen+ bei IPC auf etwa Skylake Niveau, was man auch im Mobile Segment gut gesehen hat. Bei ähnlichen Taktraten hat man da Intel vernünftig was entgegen setzen können und auch durchaus Anteile holen können.
Generell geht Intel und AMD halt auch unterschiedliche Wege: Intel skaliert relativ gut bis über 5GHz, bei AMD ist die Schwelle da eher 4,5GHz. Darüber wird's bei beiden Ineffizient. Dafür ist AMD bis 4,5GHz sehr sparsam, sparsamer als Intel, was man dann im MT sieht.

Gast
2022-04-11, 15:30:05
Die IPC geht doch seit Einführung der Zen Architektur hoch wie lange nicht mehr.


Genau 1x, alles bis Zen3 war bei AMD nur den Rückstand gegenüber dem was Intel mit Skylake schon erreicht hat, und bei Intel gab es danach genau eine Architektur mit moderater Leistungssteigerung.

Was schlägst du den CPU-Herstellern konkret vor?

Viel breitere Kerne, anstatt doppelt so viele Transistoren für doppelt so viele Kerne einzusetzen, mal doppelt so viele Transistoren pro Kern.
Apple machts vor, den Transistoraufwand/Kern sollten mal AMD/Intel investieren, anstatt immer mehr Kerne immer kleiner zu bauen.

Selbst "nur" den 3D-Cache von AMD eben nicht 3D sondern ganz normal in den DIE einzubauen wäre viel besser als die Kernanzahl noch weiter zu steigern.

Legendenkiller
2022-04-11, 16:19:45
Mehr Leistung pro Thread, anstatt Threads endlos zu erhöhen.

Die IPC zu erhöhen ist aber ungleich schwerer als die Kernzahl zu erhöhen.

Mit doppelt so viel Transistoren holst du halt blos +20% IPC raus ... oder halt +90% mit doppelt soviel gleichen Kernen.

Die Lösung ist das Software auf mehr Theads skalieren muss :-)
Oder halt was komplett anders als Silizium. Otisch oder Quanten oder so.

Lehdro
2022-04-11, 16:30:28
AM4 wird mit nur 2 Speicherkanälen Performance-Probleme bekommen, wenn die Kernzahl immer mehr erhöht wird. Analog zu einem PC, der heute nur mit einem Speichermodul bestückt wird. DDR5 wird ein bißchen helfen, aber ich habe starke Zweifel ob mehr als 16 Kerne auf der Consumer-Plattform Sinn ergeben. Vielleicht braucht es irgendwann einen "Threadripper Light", der auf 4 Speicherkanäle und einen kleineren Sockel zurückgeht.
Das habe ich alles schon mal gehört. Erst mit Zen 1 "Was? 8 Kerne und nur Dualchannel, das limitiert doch sicher" und dann erneut mit Zen 3 "Was? 16 Kerne und nur Dualchannel, das limitiert doch sicher".

Jo, es limitiert*.
*Anwendungen (Games schon einmal gar nicht) auf dem Desktop die Bandbreitenbound sind kannst du trotzdem mit der Lupe suchen. Siehe die Tests mit Intels Broadwell (https://www.pcworld.com/article/423521/quad-channel-ram-vs-dual-channel-ram-the-shocking-truth-about-their-performance.html) HEDT Plattformen und nur Dual Channel - nimmt sich meistens nix mit der vollausgebauten Plattform.

Cache kaschiert das gut und auch sonst wird Bandbreite meist unglaublich effizient genutzt. Entscheidend scheint nur zu sein das die Latenz stimmt und genug Bandbreite vorhanden ist - der Sättigungspunkt ist derzeit noch nicht erreicht, mit DDR5 wird sich das ganze zudem noch einmal noch hinten verschieben. Wäre vielleicht mal etwas für einen erneuten Test, wobei mittlerweile die Praxisrelevanz komplett abhanden gekommen ist. HEDT ist bei AMD zu teuer und Intel hat sowas gar nicht mehr.

Gast
2022-04-11, 17:31:45
Mehr Leistung pro Thread, anstatt Threads endlos zu erhöhen.Sehr billige Antwort. Ungefähr so sinnvoll wie 'mehr IPC'.

Platos
2022-04-11, 17:46:06
Bringt hald nix, wenn Boards immer teurer werden und mittlerweile so teuer sind, wie früher mal HPC Boards :D

(ja ich weiss, gibt auch günstige)

Gast
2022-04-11, 18:10:22
Wieso erinnere ich mich daran, dass "niemand mehr als 2 Kerne braucht" oder "ne 1 GB HDD wirst Du niemals voll bekommen" oder "640 KB reichen für alles aus".

Wenn so viele Kerne vorhanden sind, wird das System sie früher oder später nutzen.Die Aussagen muss man schon im jeweiligen Zusammenhang sehen, wer sie gemacht hat, für welchen Zeitraum und für wen. 640KB war schon damals albern. Ebenso 1GB HDD. 'niemand' >2 Kerne ebenfalls.
Schon der Bedarf von OS/2 und anderen modernen Alternativen lag/liegt idR darüber (bitte jetzt keine darauf optimierten Linux-Derivate für Resourcen-Fetischisten - bis vor kurzem liefen die ja noch auf 80286).
Hat niemand was gegen mehr Kerne. Weder jetzt, noch für die Zukunft, geschweige für alle. Schon an der Stelle großer Unterschied zu den Bescheuertheiten die du angeführt hast.
Und es wurde sogar kommuniziert, was man statt dessen wünscht: Leistungsstärkere Kerne.
Wir reden von Gaming. Da können viele ja nicht mal mit >16 Threads was anfangen. Aktuell.
Klar gibt es Anwendungen, wo das Limit erst irgendwie vom mangelhaften OS vorgegeben ist - oder wegen weiterhin schlampiger Programmierung weit <16 Threads liegt. Aktuell.
Das Problem an "alle werden mehr Kerne brauchen", ist der Zeitraum. Multi-Cores und -Threads haben wir selbst im Desktop-Bereich schon extrem lange. Und wie lange hat es gedauert, bis Programme das halbwegs ernsthaft ausgenutzt haben?

Dass wir mehr 'Spezial-Prozessoren' bekommen werden, finde ich hochgradig amüsant, weil es der vorherigen Entwicklung komplett zuwider läuft. Bis hin zum SoC wurde immer mehr in die CPU integriert. Ob man es für den Anwendungsfall brauchte oder nicht. Mit Chiplets und Interposer kann man über die Definition natürlich streiten.

Gast
2022-04-11, 19:25:41
Naja, das ist halt auch immer relativ. In der IPC war Zen2 schon vor Skylake, nur deutlich niedriger getaktet und daher insgesamt auf ähnlichem Niveau als Skylake.

IPC alleine ist egal genauso wie Takt. Was zählt ist die Performance die rauskommt und da hatte Skylake am Ende mehr pro Thread gegenüber Zen2.

Ob die Performance durch extremen IPC oder extremen Takt zustande kommt ist am Ende egal.

Gast
2022-04-11, 20:12:50
Die IPC zu erhöhen ist aber ungleich schwerer als die Kernzahl zu erhöhen.


Ja und? Diese Konzerne geben Milliarden an Forschungsgeldern aus, und die Ingenieure sagen dann, ach was ist viel zu schwer klatschen wir einfach mit (fast) 0 effort noch ein paar Kerne dran?


Mit doppelt so viel Transistoren holst du halt blos +20% IPC raus ... oder halt +90% mit doppelt soviel gleichen Kernen.


Besser doppelt so viel Performancee für zuverlässige 20% Mehrleistung als doppelt so viel Transistoren für 0 Mehrleistung in 90% der Fälle.


Die Lösung ist das Software auf mehr Theads skalieren muss :-)
Oder halt was komplett anders als Silizium. Otisch oder Quanten oder so.

Immer das Märchen von den idiotischen Softwareentwicklern die einfach zu blöd sind, die vielen Kerne auch zu benutzen.
Die meisten Probleme lassen sich nicht beliebig parallelisieren, und es reicht schon sehr wenig serieller Code um sehr schnell die potentiell maximale Steigerung durch mehr Kerne nahe 0 gehen zu lassen.

Und selbst die Probleme die sich scheinbar gut parallelisieren lassen, lassen sich meistens gar nicht so toll parallelisieren, allerdings lassen sie die Problemgröße praktisch beliebig skalieren.

Und genau diese Probleme sind es die so viel besser mit Spezialhardware berechnet werden.

Bestes Beispiel dafür Grafik, würdest du nur 16x16 Pixel berechenen würde eine Grafikkarte nicht viel bringen, da du aber Millionen Pixel berechnest müsste eine CPU schon 1000 Kerne haben um nur ansatzweise mit einer GPU mithalten zu können.

Und so verhält es sich bei fast allem was sich gut skalieren lässt, dafür sind Spezialprozessoren einfach viel geeigneter. Für General Purpose Computing ist und bleibt die Leistung pro Thread dagegen das um und auf, und das wird sich auch nicht ändern.

Gast-On
2022-04-11, 20:54:52
IPC alleine ist egal genauso wie Takt. Was zählt ist die Performance die rauskommt und da hatte Skylake am Ende mehr pro Thread gegenüber Zen2.

Ob die Performance durch extremen IPC oder extremen Takt zustande kommt ist am Ende egal.
Ist nicht egal.

Weil die elektrische Leistung durch IPC-Steigerungen nahezu gleich bleibt, mit zunehmenden Takt aber nahezu quadratisch ansteigt.

Extremer Takt heißt (bei gleicher Fertigung) eben auch extremer Verbrauch, extreme Verlustwärme, extreme Kühlung nötig, extrem hochwertige Leistungselektronik nötig. Der Preis für das Board, das den extremen Takt langfristig mitmacht, wird dann eben auch ... extrem.

Gast
2022-04-11, 22:22:04
Weil die elektrische Leistung durch IPC-Steigerungen nahezu gleich bleibt, mit zunehmenden Takt aber nahezu quadratisch ansteigt.



Kompletter blödsinn, natürlich kosten auch IPC Steigerungen elektrische Leistung, teilweise sogar jede Menge.

Und Takt alleine sagt ohne die Architektur überhaupt nichts aus, die Transistoren einer Architektur können trotz höherem Takt langsamer schalten als jene einer anderen, deine Steigerung stimmt nur bei gleichbleibender Architektur, und auch da bei weitem nicht überall sondern nur im Extrembereich.

iamthebear
2022-04-11, 22:34:27
1.) Was zumindest Ende 2020 einen starken Effekt auf die durchschnittlichen GPU Preise hatte ist die Veränderung des Lineups. Es wurden zumindest Ende 2020 im Schnitt deutlich höhere Modelle (z.B. 3080) verkauft als zuvor (2060/70 Super oder 1660 Super)
Nvidia hat auch bereits Mitte 2020 schon massenhaft Turing GPUs direkt an Miner verkauft. Ist die Frage, ob die hier auch erfasst wurden bzw. das Ergebnis verzerrt haben (falls hier z.B. Nvidia Umsatz durch AIB Stückzahlen dividiert wurde).

2.) Falls AMD weiterhin bei 80mm² Compute Dies bleibt bedeutet dies:
.) Zen4 in 5nm verdoppelt Transistoren/Kern + 32MB L3 ergibt 25-30% mehr Performance als Zen3 (die restlichen 10% kommen durch die höhere TDP)
.) Zen4C in 5nm besteht aus Density optimierten Kernen. So schafft es AMD auf einem Compute Die 16 Kerne unter zu bringen. Ob der halbierte L3 pro Kern oder pro Die gemeint sind weiß ich nicht aber ich denke pro Kern (d.h. 16 Kerne + 2x16MB L3)
Meine Prognose: Bei gleicher TDP/Die ca. Zen3 Performance/Kern. Diese werden jedoch bei Zen4 nur für Serverprodukte eingesetzt.
.) Zen5 in 3nm bringt wieder 8 Big Cores pro Die weil sonst kommen die 30% IPC nicht hin.

Laut dem Video von MLID vor ein paar Monaten besteht Zen5 aus:
.) Einem Zen5 Big Core Die in 3nm
.) Und einem Zen4C core in 5nm

Ich sehe also Möglichkeiten wie AMD auf die 32 Kerne kommt:
a) 16+16: Es gibt 2 Dies mit je 8 Big Cores und einen mit 16 Little Cores. Dies bedeutet eine Erweiterung des Portfolios nach oben (z.B. 1200 Euro UVP).
Da AMD zumindest auch mit dem Gedanken einer 3 Die Variante spielt (24 Kerne) wäre dies durchaus möglich.
b) 8+24: Es könnte auch sein, dass AMD (entgegen den Infos von MLID) Zen4C doch auf 3nm shrinked. Dann könnten 24 Little Cores auf einen Compute Die passen.
Grundsätzlich sehe ich hier kein Problem wenn die Anzahl der Big Cores sinkt. Anwendungen mit weniger Threads werden durch die Big Cores profitieren, Anwendungen mit vielen Threads durch die 32 Kerne. Da müsste man schon ziemliches Rosinenpicken betreiben mit einer Anwendung die genau 16 Threads nutzt und selbst dann wäre maximal Gleichstand.

Da TSMC allerdings anscheinend extreme Schwierigkeiten mit ihrer 3nm Fertigung hat ist jedoch schwer fraglich, ob sich Zen5 überhaupt in der Form realisieren lässt.

Mooreslaw-was-auch immer und Redgamingtech, veröffentlichten nahezu nie interne Informationen (Leaks, Gerüchte, Informationen) sondern sind 98 % der Zeit nur Schwätzer die bereits veröffentlichte Informationen der "vertraulichen" Leaker etc. wieder aufwärmen (deshalb warten die immer bis bereits Informationen/Leaks etc. nach außen gedrungen sind) + mit ihren eigenen erfundenen Informationen/Angaben (damit es so aussieht als hätten sie was) + immer sehr großen "von - bis Angaben" (damit sie sich später immer herausreden können die "Quellen" wären sich unsicher und nichts sei in den Stein gemeißelt).
Also die höchsten Tratsch und Klatsch-Verbreiter und den bereits Tratsch und Klatsch-News-Verbreiter.

Bei Red Gaming Tech hast du hier vollkommen Recht. Zu 90% ist es noch dazu Clickbait. Liegt wohl daran, dass er meint alle 2 Tage ein neues Video bringen zu müssen, damit er auf seine Views kommt. Auch hat er kaum eigenen Quellen und wärmt fast ausschließlich die Tweets von Gremon55 etc. wieder neu auf.

Bei Moores Law is Dead ist das jedoch vollkommen anders. Dieser wiederholt wenn dann nur seine eigenen Leaks und nimmt auf andere Leaker nur indirekt Bezug. Es ist immer klar ersichtlich, was seine Quellen sind und was seine eigenen Meinung und bei seinen Quellen klassifiziert er auch noch einmal wie sicher es ist.
Ja er redet auch viel Schwachsinn wenn es um die eigene Meinung geht und ist eben ein AMD Fanboy aber zumindest seine Quellen sind echt gut.

Die Informationen wie schnell Desktop Zen4 wird wurden schon letztes Jahr von einem Mitarbeiter gegeben und die Angaben von "30 - 40 % schneller" verdichten sich nun auch als bewahrheitet.
https://www.reddit.com/r/GamingLeaksAndRumours/comments/jpmejf/amd_zen_cpus/

Habe in Erinnerung das von diesem Mitarbeiter auch ein anderer Beitrag kam, zu Zen 5, und dass hier gegenüber Zen 4 Desktop ein noch viel größerer Leistungszuwachs von 50 % und mehr im Raum steht.
Die Kernanzahl pro Cluster wird von 8 auf 12 erhöht.
Mit 32-Kernen im Konsumerbreich kann es also gar nicht stimmen. Zen4 bleibt bei 16 Kernen und Zen 5 steigt auf 24 Kerne auf.[/quote]

Wenn die Kernanzahl pro Die mit Zen5 ansteigt, dann gibt es entweder keine IPC Verbesserung oder die Die Size wächst enorm an, was ich im Moment beides ausschließen würde.
Den Reddit Link habe ich nicht gelesen, da Reddit gerade down ist.

Mehr Leistung pro Thread, anstatt Threads endlos zu erhöhen.

Das sagt sich so einfach ist aber deutlich komplizierter.
Taktsteigerungen sind so gut wie gar nicht mehr möglich also muss die IPC gesteigert werden. Das ist nur möglich, indem mehr Befehle out of Order ausgeführt werden. Das was aktuell die IPC limitiert ist die begrenzte Vorhersagbarkeit von Sprüngen und Abhängigkeiten. Sprünge werden z.B. schon zu ca. 99% richtig vorhergesagt. Ab einem gewissen Aufwand lässt sich das so gut wie nicht mehr verbessern.
Teilweise holt man sich Performance noch durch größere Caches nur das Problem ist dass dies wiederrum die Latenzen erhöht und man Wege finden muss diese durch intelligentes Prefetching zu verbessern. Natürlich ist die Anzahl an Transistoren immer noch ein wichtiger Faktor aber es ist nicht so einfach wie bei GPUs einfach ein paar Shader mehr dazu zu klatschen und schon ist die Performance höher.

Special-Cores dürften der Weg der Zukunft sein. Weil sich das lohnt, anstatt noch ein Dutzend mehr Mini-Cores daraufzulegen.

Das mag für bestimmte Anwendungen sicher der Fall sein und es gibt hier sicher einen Markt für das Zeug aber bei gewöhnlichem Alltagscode bringt das relativ wenig.
Bestes Beispiel sind z.B. die ganzen KI Beschleuniger im Smartphone. Huawei hat das damals als die große Errungenschaft in ihrem Mate 10 präsentiert. Fast 5 Jahre später ist der einzige Nutzen, dass mir die Kamera App sagt, dass meine Katze ein Hund ist.

Genau 1x, alles bis Zen3 war bei AMD nur den Rückstand gegenüber dem was Intel mit Skylake schon erreicht hat, und bei Intel gab es danach genau eine Architektur mit moderater Leistungssteigerung.

Was AMD angeht so hast du vermutlich Recht. Das war großteils der Aufholbedarf von früheren Problemen (speziell das Cache/Speichersystem).

Was Intel angeht: Es gab hier seit Skylake eben nur einen Shrink. Wenn man Comet Lake vs. Alder Lake vergleicht hat Intel es basierend auf einer guten Architektur mit ausgereifter Fertigung geschafft:
.) Die IPC um 40% zu erhöhen
.) Die Fläche/Kern um 30% zu senken (7mm² bei Golden Cove vs. 10mm² bei Comet Lake)
.) Die Verlustleistung trotzdem nicht zu erhöhen.

Das Problem von Intel sehe ich rein in der Fertigung, woran hauptsächlich die Entscheidung nicht auf EUV zu setzen Schuld sein dürfte.

Viel breitere Kerne, anstatt doppelt so viele Transistoren für doppelt so viele Kerne einzusetzen, mal doppelt so viele Transistoren pro Kern.
Apple machts vor, den Transistoraufwand/Kern sollten mal AMD/Intel investieren, anstatt immer mehr Kerne immer kleiner zu bauen.

Selbst "nur" den 3D-Cache von AMD eben nicht 3D sondern ganz normal in den DIE einzubauen wäre viel besser als die Kernanzahl noch weiter zu steigern.

Das Problem ist jedoch, dass solange Reviewer glaube die Welt besteht nur aus Spielen und Cinebench bleibt Intel und AMD nichts anderes übrig als auf mehr Kerne zu setzen ob es nun sinnvoll ist oder nicht.

Was Apple angeht:
Was machen die denn so viel besser außer dass sie viel Geld haben um den neuesten TSMC Node zu bezahlen wodurch sie sparsamer sind.

Was die Größe angeht habe ich das bei den M1 Die Shots nachgemessen. Die Performance Cores sind etwa 2mm² groß. Das entspricht etwa 3-3.5mm² in 7nm.
Zen Kerne (ohne L3) sind auch um die 3mm² groß
Alder Lake Kerne (ohne L2) sind glaube ich um die 5.5mm² also deutlich größer. Dafür haben diese auch deutlich mehr Performance, was sowohl Apple als auch AMD aber mit großen Mengen an Cache ausgleichen.

Die IPC zu erhöhen ist aber ungleich schwerer als die Kernzahl zu erhöhen.

Mit doppelt so viel Transistoren holst du halt blos +20% IPC raus ... oder halt +90% mit doppelt soviel gleichen Kernen.

Das ist schon etwas pessimistisch. Ich würde eher sagen 20% IPC für 40-50% mehr Transistoren wenn man auch 40-50% mehr TDP zur Verfügung hat.
Aber wenn ich sehe, dass in der Praxis nurmaximal 10-20% der Anwendungen überhaupt von mehr als 8 Kernen profitieren und diejenigen die es tun bei weitem nicht mehr linear skalieren wirft das natürlich auch Fragen auf, ob es nicht sinnvoller wäre einmal 2-3 Generationen mit der Kernanzahl Pause zu machen. Wenn man ein vernünftiges Little Core Design hat macht Big/Little jedoch durchaus Sinn. Bei Intel war es jedoch etwas enttäuschend. Versprochen wurde 50% Performance auf 25% Platz. In der Realität waren es 40% Performance auf 30% Platz, was das Ganze etwas sinnlos macht.

Gast
2022-04-12, 00:14:47
Das werden zwei GPU Dice sein, ein I/O und 4 Stacks HBM2 oder 3. Passt zu 16GiB, halt 4Hi. Möglich wären mit HBM3 1Hi bis 16Hi. Also dann bis 64GiB.

Gast
2022-04-12, 00:18:11
Das sagt sich so einfach ist aber deutlich komplizierter.
Taktsteigerungen sind so gut wie gar nicht mehr möglich also muss die IPC gesteigert werden.


Apple erreicht mit 3GHz knapp die Performance für welche die anderen 5GHz brauchen (gut Alderlake ist mit 5GHz wieder merklich vorne), also da liegt noch jede Menge IPC brach.


Das ist nur möglich, indem mehr Befehle out of Order ausgeführt werden. Das was aktuell die IPC limitiert ist die begrenzte Vorhersagbarkeit von Sprüngen und Abhängigkeiten. Sprünge werden z.B. schon zu ca. 99% richtig vorhergesagt. Ab einem gewissen Aufwand lässt sich das so gut wie nicht mehr verbessern.


Die Sprungvorhersage hat erstmal nicht viel damit zu tun wie viel man out of order machen kann. Man macht immer out of order über Sprünge hinweg, die Sprungvorhersage entscheidet nur ob das was man gemacht hat auch sinnvoll war und damit auch zur Performance beiträgt.

Um mehr Out of order zu machen braucht es ein größeres Out of Order Window, Reorder Buffer etc. Das sind aber alles Sachen die ziemlich stark auf den Verbrauch gehen.


Das Problem ist jedoch, dass solange Reviewer glaube die Welt besteht nur aus Spielen und Cinebench bleibt Intel und AMD nichts anderes übrig als auf mehr Kerne zu setzen ob es nun sinnvoll ist oder nicht.



Cinebench ist eines der sinnlosesten Dinge überhaupt. Genau das was dieser macht könnte man um Größenordnungen schneller auf GPUs machen, da würde keine CPU nur irgendein Licht sehen.

Aber Spiele versteh ich jetzt nicht, die profitieren ja gerade kaum von Kernen und enorm von single thread Leistung.


Was Apple angeht:
Was machen die denn so viel besser außer dass sie viel Geld haben um den neuesten TSMC Node zu bezahlen wodurch sie sparsamer sind.



Sie haben viel breitere Decoder und können daher viel mehr Durchsatz am Backend erreichen. Gut ein Teil davon wird natürlich dadurch aufgefressen, dass man mit ARM generell mehr Befehle braucht um das selbe zu machen, aber insgesamt sind sie immer noch deutlich besser.


Was die Größe angeht habe ich das bei den M1 Die Shots nachgemessen. Die Performance Cores sind etwa 2mm² groß. Das entspricht etwa 3-3.5mm² in 7nm.
Zen Kerne (ohne L3) sind auch um die 3mm² groß
Alder Lake Kerne (ohne L2) sind glaube ich um die 5.5mm² also deutlich größer. Dafür haben diese auch deutlich mehr Performance, was sowohl Apple als auch AMD aber mit großen Mengen an Cache ausgleichen.


Meiner Meinung darf man den L2 Cache hier nicht außen vor lassen.
Der Grund warum Apple so massiv auf riesige Caches setzt, ist dass größere Caches so ziemlich das einzige ist was sowohl IPC als auch die Energieeffizienz steigert. Alle anderen Maßnahmen die OOO Performance zu steigern kosten in der Regel mittlerweile mehr Energie als sie Performance bringen. Und Apples Design legt ja bekanntermaßen viel Wert darauf möglichst effizient zu sein, und die großen Caches sind genau deshalb eine Designentscheidung.

GerryB
2022-04-12, 09:20:03
meanwhile

https://www.techpowerup.com/293816/amd-ryzen-7-5800x3d-gets-full-set-of-gaming-benchmarks-ahead-of-launch

Gast
2022-04-12, 10:24:40
Aktuell sieht's ganz gut aus, aber sind immer noch zu wenige Games. Aber vor allem die Min FPS sind beim Ryzen schon echt nicht schlecht. Und in FF und W3 ist er auch verdammt gut unterwegs. Jetzt auch mit gleichem Ram getestet, also kein Nachteil bei Intel. Aber erst mal weitere Tests abwarten, ist aktuell immer noch wenig.

WedgeAntilles
2022-04-12, 10:25:30
meanwhile

https://www.techpowerup.com/293816/amd-ryzen-7-5800x3d-gets-full-set-of-gaming-benchmarks-ahead-of-launch

Gute Ergebnisse, insbesondere bei den LowFPS sind die Werte eindrucksvoll.
(Schade, dass ein "normaler" 5800X nicht als Vergleich mit dabei gewesen ist.)

WedgeAntilles
2022-04-12, 10:35:09
Das mag für bestimmte Anwendungen sicher der Fall sein und es gibt hier sicher einen Markt für das Zeug aber bei gewöhnlichem Alltagscode bringt das relativ wenig.

Blöde Frage, aber braucht man für "gewöhnlichen Alltagscode" überhaupt mehr Leistung?

Ein "normaler" User, der im Internet surft, Windows nutzt, Office nutzt kommt doch mit einer 7 Jahre alten CPU mit 4 Kernen und HT absolut super aus.
Und wenn man zweimal im Monat ein bisschen Bild- oder Videobearbeitung macht, ob man da jetzt 1 Minute länger rendert oder nicht, was solls.

Haben wir nicht genug Leistung für "normale" Anwendungen, so dass man sich durchaus stärker auf spezielle Anwendungen konzentrieren könnte?

AMDs 5800X mit 3D-Cache finde ich da einen interessanten Anhaltspunkt.
Bei Anwendungen bringt dir nix - wozu auch.
Er scheint aber da viel zu bringen, wo es in der Tat auch eine signifikante Gruppe gibt, die die Leistung nutzen kann. Eben Computerspiele.

Wenn sich CPUs da etwas mehr auffächern - z.B. eine CPU die besonders fürs zocken gut ist, eine zweite die für Videobearbeitung oder Coding oder was weiß ich besonders gut ist - könnte das durchaus sinnvoll sein.
Natürlich wird es keine zig unterschiedlichen CPUs geben, das wird zu aufwändig, aber ein paar Differenzierungen (AMDs neue CPU ist ja schon mal eine Differenzierung) will ich (als völliger Laie) nicht ausschließen.

Lehdro
2022-04-12, 14:28:13
(Schade, dass ein "normaler" 5800X nicht als Vergleich mit dabei gewesen ist.)
Das ist echt eine Todsünde, denn so kann man die Werte nicht quervergleichen zum Einordnen. Wenn man die Differenz vom 12900k zum 5800X bei xanox hätte, könnte man bei Igor, CB, PCGH oder ganz simpel mit Leonidas Launchroundup deutlich verlässlichere Abschätzungen über die Qualität der Benches machen.

Leonidas
2022-04-12, 16:26:15
Korrekt. So bleibt noch einiger Spielraum.