Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 6. Januar 2022
Leonidas
2022-01-07, 09:48:59
Link zur News:
https://www.3dcenter.org/news/news-des-6-januar-2022
Kleebl00d
2022-01-07, 10:00:07
Sollten die TDP-Settings tatsächlich so ungleich gewählt worden sein, wie ist dann die Folie bezüglich des niedrigeren Stromverbrauchs in mäßig fordernden Anwendungsfällen zu sehen?
Ist das auf eine Effizienzsteigerung durch den moderneren iGPU-Part zurückzuführen?
Oder aber der Worst-Case: Dort werden nicht der absolute sondern der (auf die jeweilig unterschiedliche TDP bezogene) relative Stromverbrauch verglichen, was diesen Vergleich vollends ad absurdum führen würde.
Leonidas
2022-01-07, 10:02:16
Wahrscheinlich nur der relative Stromverbrauch. Aber es ist zu ungenau ausgedrückt, deswegen habe ich diese Folie letztlich doch nicht verwendet. Zur Aufbrechung des Themas reichen diese drei Folien.
BlacKi
2022-01-07, 10:37:44
war ja abzusehen, das stromverbrauch bei 3dv cache steigen wird, weil man die cpu besser auslasten kann. auch die hitze würde dann logischerweiße erneut steigen. dem kann man mit niedrigeren taktraten entgegenkommen, aber dann kann man nicht die performance steigerungen halten, die man bei gleichem takt hätte.
wenn du das dann bei zen4 anwendest, dann ist das dieselbe geschichte.
mit dem cache kann man absolut zwar strom sparen, aber es verfrachtet den eingesparten teil weiter in richtung cpu, weg vom ram.
Kleebl00d
2022-01-07, 10:37:45
Wahrscheinlich nur der relative Stromverbrauch.
Wobei relativ da das "noch schlimmere" wäre - die -30% bezogen auf 100% (28W) wären knapp 20W, verglichen mit den max. 15W des Vorgängers.
Ich vermute, du meinst absolut, dann wäre das ein direkter Vergleich.
Hoschi75
2022-01-07, 10:51:20
Die Problematik von größeren Prozessoren-Modellen mit 3D V-Cache liegt dabei wohl schlicht beim Power-Limit: Der Zusatz-Cache samt dessen Anbindung verbraucht auch etwas, all dies muß dann noch mit ins gesetzten TDP-Limit passen. Selbst beim Ryzen 7 5800X3D führt dieser Punkt schon zu leicht abgesenkten Taktraten gegenüber dem regulären Ryzen 7 5800X (3.4/4.5 GHz anstatt 3.8/4.7 GHz). Bei noch größeren Prozessoren-Modellen müsste deren Takt wohl noch weiter reduziert werden, womit sich der Effekt des 3D V-Caches sogar egalisieren könnte.
Ich glaube eher an ein thermisches Problem. Der 5800x ist ohne von Hand gesetzem Powerlimit mit PBO bereits ein Hitzkopf. Wäre nur die TDP das Problem, könnte der 5800X3D zumindest den SingleCore-Boost von 4.7Ghz halten..
GerryB
2022-01-07, 10:59:12
"Von VideoCardz kommt eine klarere Bestätigung des Punkts, dass der Navi-24-Chip tatsächlich nur mit 4 Lanes von PCI Express 4.0 antritt"
Also würde man die 6500XT gar net mit nem AMD-prozzi verbauen, weil zu teuer, sondern eher mit nem 12400 für 208€.
(die preiswerten 5600G würden ja leider net richtig funzen, da nur PCiE 3.0)
Und man hätte AV1 von der iGPU, falls für 4k@HDR10-Videos erforderlich.
Booby
2022-01-07, 12:37:03
Wahrscheinlich nur der relative Stromverbrauch. Aber es ist zu ungenau ausgedrückt, deswegen habe ich diese Folie letztlich doch nicht verwendet. Zur Aufbrechung des Themas reichen diese drei Folien.
Nichts für ungut, aber ich bin mir zu 99% sicher, dass gleiche TDPs verglichen wurden.
Nur legst du in deiner typischen Art alles maximal möglich zu AMDs Ungunsten aus.
Sollte das wieder eintreffen, bin ich mit sicher, dass du wieder nichts daraus lernen wirst.
Auf der anderen Seite verschieben sich bei Intel die Grafikkarten von Q1/22 auf „22“ und natürlich kann damit nichts anderes als Q2 gemeint sein
iamthebear
2022-01-07, 12:56:29
Ich glaube eher an ein thermisches Problem. Der 5800x ist ohne von Hand gesetzem Powerlimit mit PBO bereits ein Hitzkopf. Wäre nur die TDP das Problem, könnte der 5800X3D zumindest den SingleCore-Boost von 4.7Ghz halten..
Das würde aber nicht erklären warum der 5950X keinen VCache bekommen hat, denn der hat dieselbe TDP wie der 5800X, kann die Wärme aber über 2 Compute Dies statt einem abführen.
Das Problem das ich sehe:
Der VCache bringt in Spielen beim 5800X 10-15% mehr IPC und in Anwendungen vermutlich um die 5%.
Wenn gleichzeitig der Takt um 5-10% sinkt bedeutet dies 5% mehr Performance in Spielen dafür aber im Schnitt 0-5% weniger in Anwendungen.
Und die Produktionskosten steigen auf ca. 5900X Niveau an.
Das ist so schon ziemlich zweifelhaft aber einen Nischenmarkt wird es wohl geben bzw. man word den 12700K vielleicht in Spielen knapp schlagen können.
Wenn beim 5950X der Takt nochmal etwas mehr sinkt dann wird der Vorteil in Spielen wohl noch bestenfalls 2-3% betragen. Gleichzeitig verliert man bei Multithreaded Anwendungen um die 10%. Da stellt sich mir die Frage was denn hier die Zielgruppe sein soll.
Dino-Fossil
2022-01-07, 13:06:03
Nichts für ungut, aber ich bin mir zu 99% sicher, dass gleiche TDPs verglichen wurden.
Naja, AMD war in der Präsentation schon sehr frei in der Wahl der TDPs, das muss man kritisieren. Es gibt zwar wohl auch eine 15W-vs-15W Folie, deren Werte immer noch recht gut aussehen, aber was soll man schon denken, wenn sie sowas abziehen?
Die Folie hätte man hier allerdings auch erwähnen können.
Das die neuen APUs selbst bei 28W TDP unter Teillast auch absolut weniger verbrauchen können, ist allerdings auch nicht undenkbar.
BlacKi
2022-01-07, 13:10:32
und preislich muss man das ja auch noch einsortieren. 7nm wafer preise haben sich verdreifacht, und die chipfläche erhöht sich. scheinbar war und ist man nicht bereit 7nm produkte günstiger zu machen.
lediglich mit oc und überschreitungen der powerlimits wird man vl noch an stock alderlakes vorbeischrammen.
naja, könnte schlimmer sein.
Hoschi75
2022-01-07, 13:20:26
Das würde aber nicht erklären warum der 5950X keinen VCache bekommen hat, denn der hat dieselbe TDP wie der 5800X, kann die Wärme aber über 2 Compute Dies statt einem abführen.
Das Problem das ich sehe:
Der VCache bringt in Spielen beim 5800X 10-15% mehr IPC und in Anwendungen vermutlich um die 5%.
Wenn gleichzeitig der Takt um 5-10% sinkt bedeutet dies 5% mehr Performance in Spielen dafür aber im Schnitt 0-5% weniger in Anwendungen.
Und die Produktionskosten steigen auf ca. 5900X Niveau an.
Das ist so schon ziemlich zweifelhaft aber einen Nischenmarkt wird es wohl geben bzw. man word den 12700K vielleicht in Spielen knapp schlagen können.
Wenn beim 5950X der Takt nochmal etwas mehr sinkt dann wird der Vorteil in Spielen wohl noch bestenfalls 2-3% betragen. Gleichzeitig verliert man bei Multithreaded Anwendungen um die 10%. Da stellt sich mir die Frage was denn hier die Zielgruppe sein soll.
Da bin ich absolut bei Dir.
Warum aber der reduzierte SingleCore-Boost? Könnte dafür nicht der schlechtere Wärmeübergang vom CCD (mit "aufgesetztem" Cache) in den Heatspreader verantwortlich sein?
WedgeAntilles
2022-01-07, 13:38:50
Nichts für ungut, aber ich bin mir zu 99% sicher, dass gleiche TDPs verglichen wurden.
Nur legst du in deiner typischen Art alles maximal möglich zu AMDs Ungunsten aus.
Klar, St. AMD würde ja NIEMALS sowas wie 15W vs 28W in Folien gegenüberstellen (und das nicht mal auf die Folien draufschreiben.)
Oder aus 15% Rückstand plötzlich 60% werden lassen. ;D
Wer nicht begreift, dass AMD seit einem knappen Jahr mindestens so stark mogelt bei seinen Folien wie Intel und Nvidia (IMO sogar mehr) dem ist nicht mehr zu helfen.
Schade eigentlich, das war davor anders gewesen.
Leonidas
2022-01-07, 13:45:18
Nur legst du in deiner typischen Art alles maximal möglich zu AMDs Ungunsten aus.
Naja, die Angaben in den Endnoten lassen eigentlich keinen Spielraum.
Sollte das wieder eintreffen, bin ich mit sicher, dass du wieder nichts daraus lernen wirst.
Zu lernen wäre, nicht sofort zu schiessen, sondern lieber nachzufragen. Das trift zu, egal ob meine Auslegung richtig oder falsch ist.
Auf der anderen Seite verschieben sich bei Intel die Grafikkarten von Q1/22 auf „22“ und natürlich kann damit nichts anderes als Q2 gemeint sein
Sehe ich nicht so. Irgendeine Bedeutung hat diese andere Kennzeichung. Man könnte freundlicherweise schreiben "Q1/Q2". Ja, das hätte man machen können. Dann wäre es aber trotzdem wenigstens eine potentielle Verschiebung.
eccle
2022-01-07, 14:51:37
Nur legst du in deiner typischen Art alles maximal möglich zu AMDs Ungunsten aus.
Es fällt auf, dass Leonidas in dieser Beziehung vielleicht nicht den notwendigen professionalen Abstand hat. Ich möchte AMD nicht verteidigen, die Präsentation war gewiss an mehreren Stellen irreführend. Wie Leonidas schreibt, wiederholt AMD hier "das Spiel" von Intel. Damals bei Tiger Lake war die TDP-Verschiebung jedoch nicht so dramatisch kommentiert:
Der Multithread-Wert ist ebenfalls nicht verkehrt für ein Vierkern-System, damit kann man sich sogar mit Sechskernern von AMD (knapp) anlegen. Selbiges Bild setzt sich im übrigen durch die weiteren Benchmarks einwandfrei fort: Die TDP nicht beachtend, reichen die Vierkerner von Tiger Lake aus, um mit den Sechskernern von AMD zu konkurrieren. Allerdings werden diese exzellenten Testergebnisse von Tiger Lake zumeist ausschließlich auf eben jener hohen TDP von 28 Watt erreicht. Selbige darf zudem bis auf 36 Watt überschritten werden, kurzzeitige Lastspitzen (PL2) dürfen sich sogar bis zu 64 Watt genehmigen.
WedgeAntilles
2022-01-07, 14:53:28
Sehe ich nicht so. Irgendeine Bedeutung hat diese andere Kennzeichung. Man könnte freundlicherweise schreiben "Q1/Q2". Ja, das hätte man machen können. Dann wäre es aber trotzdem wenigstens eine potentielle Verschiebung.
Nein nein, er meint, dass die auch erst am 30.12.2022 marktreif werden könnten.
Dein "2. Quartal" ist ihm viel zu positiv geschrieben.
Er hätte gerne gehabt, dass du schreibst Quartal 3, eher Quartal 4, wenn nicht gar gleich 2023 oder 2024...
Lehdro
2022-01-07, 15:05:20
Klar kann und muss man das AMD Folienspiel kritisieren.
Dann muss man aber wenigstens so ehrlich sein und einsehen das AMD hier jetzt "nur" mitspielt. Intel hat den Ton (wie immer) vorgegeben und ist nun einmal der Branchenprimus. Wenn ich da "U"-CPUs verkaufen will, sollten die schon in dieselben Kategorien wie die namensgleichen Vettern vom Konkurrenten fallen, sieht sonst doof aus wenn die TDP Spanne fast 100% ist - logisch das man dann leistungstechnisch leidet, wenn man sich an die 15W klammert, obwohl das Dickschiff der Konkurrenz mit 28W+ (Man bedenke PL1/2, MTP blabla) TDP aufwärts unterwegs ist. Warum dann aber in der News die 15W vs. 15W Folie (https://i.imgur.com/pegVes6.jpg) (Footnote) (https://media.discordapp.net/attachments/697380330864115792/928184094565732382/unknown-91.png) komplett weggelassen wird, obwohl sie hier schon in jedem Fred durchs Forum/Netz geistert ist schon komisch. AMD hat diese Werte immerhin geliefert, Intel nicht. Ist halt immer wieder krass zu sehen das Intel irgendwas macht was ein müdes "muss dass denn sein..." von der Fachpresse auslöst und wenn AMD dann dasselbe macht kommt ein "AMD hat einen Bock geschossen". Ein bisschen mehr Objektivität und Neutralität hilft da, vorallem wenn man noch dazu die durchaus existierende Folie zur "Ehrenrettung" AMDs komplett weglässt, sieht sonst echt doof aus.
Nichts für ungut, aber ich bin mir zu 99% sicher, dass gleiche TDPs verglichen wurden.
Warum schreibt dann AMD selbst, dass es nicht der Fall ist?
Nur legst du in deiner typischen Art alles maximal möglich zu AMDs Ungunsten aus.
Nur weil AMD bei 3DCenter den offensichtlichen Underdog-BIAS verloren hat, seit man nicht mehr Underdog ist, muss und kann man ihnen definitiv nicht vorwerfen irgendwas zuungunsten von AMD auszulegen, das erledigt AMD schon brav selbst.
Damals bei Tiger Lake war die TDP-Verschiebung jedoch nicht so dramatisch kommentiert:
Der große Unterschied war, dass Intel mit Tigerlake ihre Produktspezifikationen geändert hat, und cTDP keine Option sondern den Defaultzustand darstellt und es keine explizite Default-TDP mehr gab. Das wurde aber auch direkt in der Präsentation so kommuniziert, und nicht in einer Fußnote versteckt, die man in der Präsentation gar nicht zu sehen bekommt.
Es spricht ja grundsätzlich nichts dagegen unterschiedliche TDPs zu vergleichen, schließlich vergleicht man ja auch Grafikkarten mit der jeweiligen Vorgängergeneration, obwohl die TDP mit (fast) jeder Generation steigt, man muss es nur entsprechend kommunizieren.
Nur zu Gast
2022-01-07, 15:32:28
"Von VideoCardz kommt eine klarere Bestätigung des Punkts, dass der Navi-24-Chip tatsächlich nur mit 4 Lanes von PCI Express 4.0 antritt"
Also würde man die 6500XT gar net mit nem AMD-prozzi verbauen, weil zu teuer, sondern eher mit nem 12400 für 208€.
(die preiswerten 5600G würden ja leider net richtig funzen, da nur PCiE 3.0)
Und man hätte AV1 von der iGPU, falls für 4k@HDR10-Videos erforderlich.
Ich hatte es zur News gestern schon kommentiert, ich vermute die Verwertung von Navi24 als Desktop-Karte ist reine Zweitverwendung und dass das Design eigentlich für Notebooks ausgelegt ist:
-die CPUs/APUs bringen die bei Navi24 fehlenden Codecs mit
-AMDs neue 6000er APUs habend auch PCIe 4.0, vier Lanes wären also vertretbar
-Navi24 scheint nur zwei Displays bedienen zu können - für Laptops ok, für Desktops kann das schon eine GT710 besser
-Speicher und Rechenleistung passen auch besser zu Mobile-Lösungen
Die Problematik von größeren Prozessoren-Modellen mit 3D V-Cache liegt dabei wohl schlicht beim Power-Limit:
Der Grund dürfte wohl ein anderer sein, 3D-Cache ist teuer, und AMD sieht wohl den 5800er das einzige Modell mit dem man auch den gewünschten Preis bekommen kann.
Das Powerlimit, limitiert lediglich den Takt, und laut den Aussagen in dem Text wird das durch den zusätzlichen Cache mehr als ausgeglichen, andernfalls würde das Ganze ja auch überhaupt keinen Sinn machen.
Und davon würden natürlich auch alle anderen Modelle profitieren.
Corny
2022-01-07, 16:08:07
Klar kann und muss man das AMD Folienspiel kritisieren.
Dann muss man aber wenigstens so ehrlich sein und einsehen das AMD hier jetzt "nur" mitspielt. Intel hat den Ton (wie immer) vorgegeben und ist nun einmal der Branchenprimus. Wenn ich da "U"-CPUs verkaufen will, sollten die schon in dieselben Kategorien wie die namensgleichen Vettern vom Konkurrenten fallen, sieht sonst doof aus wenn die TDP Spanne fast 100% ist - logisch das man dann leistungstechnisch leidet, wenn man sich an die 15W klammert, obwohl das Dickschiff der Konkurrenz mit 28W+ (Man bedenke PL1/2, MTP blabla) TDP aufwärts unterwegs ist. Warum dann aber in der News die 15W vs. 15W Folie (https://i.imgur.com/pegVes6.jpg) (Footnote) (https://media.discordapp.net/attachments/697380330864115792/928184094565732382/unknown-91.png) komplett weggelassen wird, obwohl sie hier schon in jedem Fred durchs Forum/Netz geistert ist schon komisch. AMD hat diese Werte immerhin geliefert, Intel nicht. Ist halt immer wieder krass zu sehen das Intel irgendwas macht was ein müdes "muss dass denn sein..." von der Fachpresse auslöst und wenn AMD dann dasselbe macht kommt ein "AMD hat einen Bock geschossen". Ein bisschen mehr Objektivität und Neutralität hilft da, vorallem wenn man noch dazu die durchaus existierende Folie zur "Ehrenrettung" AMDs komplett weglässt, sieht sonst echt doof aus.
Sehe ich genauso!
Es war bestimmt nicht gut von AMD, die 15W vs. 28W Werte derart in den Vordergrund zu rücken. Aber wenigstens hat man die 15W vs. 15W Werte auch geliefert, das sollte wenigstens in den News erwähnt werden.
iamthebear
2022-01-07, 16:16:38
Da bin ich absolut bei Dir.
Warum aber der reduzierte SingleCore-Boost? Könnte dafür nicht der schlechtere Wärmeübergang vom CCD (mit "aufgesetztem" Cache) in den Heatspreader verantwortlich sein?
Ich weiß nicht, ob sich der aufgesetzte Cache negativ auf die Verlustleistung auswirkt. Die Gesamtdicke des Chips bleibt ja gleich.
Was den Single Core Boost angeht:
Unterscheidet hier AMD überhaupt zwischen Single Core und Multi Core so wie Intel?
Falls nein so sehe ich folgende Gefahr:
.) Eine Anwendung nutzt 8 Threads und schibt diese manuell auf Kern 1-4 (Zen2 Optimierung da sich 4 Kerne einen L3 teilen)
.) Die 4 Kerne sind voll ausgelastet und takten mit dem maximalen Boost von 4.9GHz
.) Die anderen 4 Kerne sind idle wodurch das TDP Limit von 140W nicht greift.
.) Jetzt hat man auf einer Seite des ohnehin schon relativ kleinen Compute Dies 4 Kerne die komplett auf Anschlag um die 100W rausballern. Daneben heizt nun der VCache auch noch einmal heftig drauf. Dann hat man das Problem, dass man die Hitze nicht mehr vom Die weg bekommt.
Was die 15W vs. 28W Diskussion angeht:
Bei Ice Lake vs. Tiger Lake war das eine ganz andere Situation. Ice Lake Notebooks waren damals so gut wie alle Quad Cores mit 15W. Die neuen Tiger Lake Quad Cores waren fast alles 28W+ Modelle mit entsprechend besserem Kühler, wodurch der Nutzer tatsächlich nur die 30% mehr Performance feststellt. Das ist im Prinzip dasselbe wie beim Launch des 8700K, 9900K und 10900K. Hier wurden ja auch keine TDP neutralen Benchmarks durchgeführt.
Bei AMD ist dies jedoch eine komplett andere Situation. Die haben ihre 8 Kern CPUs verglichen und wenn ich auf Geizhals schaue haben nur 22% der gelisteten 8 Kern Cezanne Geräte eine CPU TDP von 15W oder niedriger. 70% habe eine TDP von 40W oder höher.
Also warum wird da eine 15W CPU verglichen wenn das nicht die Konfiguration ist, die üblicherweise eingesetzt wird?
Lehdro
2022-01-07, 16:29:21
Ich weiß nicht, ob sich der aufgesetzte Cache negativ auf die Verlustleistung auswirkt. Die Gesamtdicke des Chips bleibt ja gleich.
Was den Single Core Boost angeht:
Unterscheidet hier AMD überhaupt zwischen Single Core und Multi Core so wie Intel?
Falls nein so sehe ich folgende Gefahr:
.) Eine Anwendung nutzt 8 Threads und schibt diese manuell auf Kern 1-4 (Zen2 Optimierung da sich 4 Kerne einen L3 teilen)
.) Die 4 Kerne sind voll ausgelastet und takten mit dem maximalen Boost von 4.9GHz
.) Die anderen 4 Kerne sind idle wodurch das TDP Limit von 140W nicht greift.
.) Jetzt hat man auf einer Seite des ohnehin schon relativ kleinen Compute Dies 4 Kerne die komplett auf Anschlag um die 100W rausballern. Daneben heizt nun der VCache auch noch einmal heftig drauf. Dann hat man das Problem, dass man die Hitze nicht mehr vom Die weg bekommt.
Also mein 5950X schafft auch mit 5 GHz keine 25W pro Kern, 15W/Kern (vorallem wenn es mehrere gleichzeitig sind) sind eigentlich schon absurd viel für AMD CPUs. Zudem hast du bei AMD nicht nur das PPT Limit, sondern auch EDC und TDC um solche Fälle abzugrenzen. EDC ist quasi peak current und TDC thermal sustained current limit. Zudem gibt AMD nur Single core Boosts an, ein spezifischer Multicoreboost wird nicht garantiert.
basix
2022-01-07, 16:32:22
@Leo:
Es gibt bei Rembrandt auch eine Folie mit 15W cTDP
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12889249#post12889249
6800U vs. 5800U:
- 1.17x MT Performance
- 1.81x iGPU Performance
15W --> 28W steigert die Leistung also um wahnsinnige +10% ;)
Warum dann aber in der News die 15W vs. 15W Folie (https://i.imgur.com/pegVes6.jpg) (Footnote) (https://media.discordapp.net/attachments/697380330864115792/928184094565732382/unknown-91.png) komplett weggelassen wird, obwohl sie hier schon in jedem Fred durchs Forum/Netz geistert ist schon komisch.
Vielleicht weil diese Folie ungefähr 0 Informationen beinhaltet?
@Leo:
Es gibt bei Rembrandt auch eine Folie mit 15W cTDP
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12889249#post12889249
6800U vs. 5800U:
- 1.17x MT Performance
- 1.81x iGPU Performance
Ja, mit wahnsinnig nichtssagenden up-to Angaben.
GerryB
2022-01-07, 19:22:31
Ich hatte es zur News gestern schon kommentiert, ich vermute die Verwertung von Navi24 als Desktop-Karte ist reine Zweitverwendung und dass das Design eigentlich für Notebooks ausgelegt ist....
Wird trotzdem interessant wie schnell AMD einen 6600G als Desktop-Konkurrent für den 12400 bringen kann!?
Sonst verkauft Intel derweil ne Menge kleine PC`s.
Und preislich muss sich AMD dann auch bewegen, wenn der 5600G derzeit 235€ kostet = >> 12400!
(das der 5600X total überteuert ist, dürfte ja klar sein, ... da hat halt immer ein nonX gefehlt)
Lehdro
2022-01-07, 19:39:30
Wird trotzdem interessant wie schnell AMD einen 6600G als Desktop-Konkurrent für den 12400 bringen kann!?
Sonst verkauft Intel derweil ne Menge kleine PC`s.
Und preislich muss sich AMD dann auch bewegen, wenn der 5600G derzeit 235€ kostet = >> 12400!
(das der 5600X total überteuert ist, dürfte ja klar sein, ... da hat halt immer ein nonX gefehlt)
Müssen tut AMD gar nichts solange eh alles abverkauft wird.
iamthebear
2022-01-07, 21:11:35
Der Grund dürfte wohl ein anderer sein, 3D-Cache ist teuer, und AMD sieht wohl den 5800er das einzige Modell mit dem man auch den gewünschten Preis bekommen kann.
Das Powerlimit, limitiert lediglich den Takt, und laut den Aussagen in dem Text wird das durch den zusätzlichen Cache mehr als ausgeglichen, andernfalls würde das Ganze ja auch überhaupt keinen Sinn machen.
Und davon würden natürlich auch alle anderen Modelle profitieren.
Das war die ursprüngliche Vermutung aber nun kam ja die Aussage von Frank Azor, dass es eben thermische bzw. TDP Gründe hat bzw. haben anscheinend viele (inkl. mir) ganz verdrängt, dass die 10-15% ja bei gleichem Takt gemeint waren und wenn mit VCache die Taktraten sinken dann hört sich das Ganze auf einmal gar nicht mehr so toll an.
Also mein 5950X schafft auch mit 5 GHz keine 25W pro Kern, 15W/Kern (vorallem wenn es mehrere gleichzeitig sind) sind eigentlich schon absurd viel für AMD CPUs. Zudem hast du bei AMD nicht nur das PPT Limit, sondern auch EDC und TDC um solche Fälle abzugrenzen. EDC ist quasi peak current und TDC thermal sustained current limit. Zudem gibt AMD nur Single core Boosts an, ein spezifischer Multicoreboost wird nicht garantiert.
Die 25W waren jetzt eine Hausnummer. Ich habe leider keine Daten wieviel ein voll ausgelasteter Zen3 Kern bei vollen Takt zieht. Soll ja nur zur Veranschaulichung des Problems dienen. Es ist auf jeden Fall der Takt und somit auch die Wärmeabgabe pro Kern höher wenn nur 4 statt 8 Kerne ausgelastet sind.
Was EDC/TDC angeht: Gelten diese pro Kern? Wenn nein so helfen die ja auch nichts gegen lokale Hotspots wenn die Last nur auf einer Seite der CPU ist.
@Leo:
Es gibt bei Rembrandt auch eine Folie mit 15W cTDP
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12889249#post12889249
6800U vs. 5800U:
- 1.17x MT Performance
- 1.81x iGPU Performance
15W --> 28W steigert die Leistung also um wahnsinnige +10% ;)
Bei einer 8 Core CPU unter MT Last zweifle ich das einmal stark an. In Cinebench würde ich hier eher 30%+ schätzen.
Eine mögliche Erklärung wäre, dass AMD bei Cinebench nur einen einzelnen Run gemacht hat und die 15W CPU in Wahrscheit die meiste Zeit auf 25W geboostet hat. Dann würde ich mich aber fragen was der ganze Vergleich eigentlich soll.
Müssen tut AMD gar nichts solange eh alles abverkauft wird.
Ich denke, dass der DIY Markt für AMD auch nicht wirklich viel Priorität hat. AMD konzentriert sich aktuell auf die Märkte wo man unter normalen Umständen nur relativ schwierig rein kommt: Server, Notebook, Embedded Devices usw.
Intel scheint derzeit primär den Desktop und Mobile Markt zu bedienen aber in anderen Sparten sieht es deutlich trauriger aus als es den Anschein hat.
BlacKi
2022-01-07, 22:18:59
Müssen tut AMD gar nichts solange eh alles abverkauft wird.+1 die diskussion darüber ist müßig. vad4r will auch nur noch nen amd egal ob intel nun schneller ist. und wenn die leute das wollen, dann sollen sie das tun.
bad_sign
2022-01-07, 22:42:10
wenn ich mich an HUBs Notebook Tests richtig zurück erinnere, dann skaliert Vega 8 von 15w auf 25w praktisch garnicht.
Also viel ausmachen wird es nicht.
Booby
2022-01-07, 23:00:30
Nein nein, er meint, dass die auch erst am 30.12.2022 marktreif werden könnten.
Dein "2. Quartal" ist ihm viel zu positiv geschrieben.
Er hätte gerne gehabt, dass du schreibst Quartal 3, eher Quartal 4, wenn nicht gar gleich 2023 oder 2024...
Es ist mir eigentlich egal wie Leonidas es interpretiert, hat ja keine Auswirkung auf das letztendliche Release-Datum.
Sicherlich hat Intel aber nicht ohne Grund das Q1 entfernt. Sollte es wirklich bald soweit sein, würde dort Q1/22 stehen oder April-May/22 oder eben H1/22.
Im Grunde merkte ich einfach immer mehr, das viele Zusammenfassungen hier mehr Meinungsmache als Tatsachen sind. Der Mehrwert für mich schwindet zusehendst.
Das war die ursprüngliche Vermutung aber nun kam ja die Aussage von Frank Azor, dass es eben thermische bzw. TDP Gründe hat bzw. haben anscheinend viele (inkl. mir) ganz verdrängt, dass die 10-15% ja bei gleichem Takt gemeint waren und wenn mit VCache die Taktraten sinken dann hört sich das Ganze auf einmal gar nicht mehr so toll an.
Die 10-15% sind laut AMD was beim 5800 am Ende rauskommt, nach Abzug des Taktverlustes.
Die Frage ist auch wie weit die realen Taktraten sinken, die "Maximalangaben" sind da nicht unbedingt aussagekräftig.
Vermutlich sind es auch hauptsächlich die maximalen Boosttaktraten die ja oft von der Energiedichte limitiert sind, welche am stärksten leiden, und diese liegen in der Praxis eh kaum an.
Aus thermischer Sicht wären auf jeden Fall 5600X und 5900X mit nur 6 aktiven Kernen pro DIE besser geeignet. Das Problem ist ja nicht die Wärmemenge, die bekommt man mit entsprechender Kühlung locker weg, das Problem ist die Wärmemenge auf dermaßen kleiner Fläche, und die wird durch den getstackten DIE natürlich nicht höher, im Gegenteil, die Wärme muss deutlich länger durch relativ schlecht leitendes Silizium bis sie endlich im gut leitenden Kupfer ist, und der Übergang zwischen den 2 Siliziumdies (bzw. eigentlich sogar 4, weil neben den Cache-DIEs sind ja 2 Dummy-DIEs um auf gleiche Höhe zu kommen) ist wahrscheinlich auch nicht perfekt.
Nur kann man schwer einen 56003D teurer als einen 5800 verkaufen, und mit 5900/5950 würden die Herstellungskosten nochmal in die Höhe schnellen, wenn man statt einem gleich 2 gestackte DIEs verbauen müsste.
Sollten die TDP-Settings tatsächlich so ungleich gewählt worden sein, wie ist dann die Folie bezüglich des niedrigeren Stromverbrauchs in mäßig fordernden Anwendungsfällen zu sehen?
Ist das auf eine Effizienzsteigerung durch den moderneren iGPU-Part zurückzuführen?
Oder aber der Worst-Case: Dort werden nicht der absolute sondern der (auf die jeweilig unterschiedliche TDP bezogene) relative Stromverbrauch verglichen, was diesen Vergleich vollends ad absurdum führen würde.
Das sind Verbessserungen im Niedriglastverbrauch, die TDP wird sowieso nicht ausgenutzt in den Szenarien.
Ich glaube um die 10% Performance Gewinn sind realistisch dank effizienteren 6nm, alles andere kommt vom höheren power budget und der Bandbreiten Benachteiligung von Cezanne (DDR vs LPDDR).
Denniss
2022-01-08, 01:13:20
Die 10-15% sind doch zum 5900X ?
Die Abwärme von den Prozessorkernen muß keiensfalls deutlich länger durchs Silizium durch, da kommt lediglich der möglicherweise etwas schlechtere Übergang vom Kern-Silizium zum Dummy-Silizium dazu. Beim 5800X ist das Kern-Silizium einfach höher und beim 3D ist das runtergeschliffen für den Cache und die Dummys
Die 10-15% sind doch zum 5900X ?
Ich rede vom 6800U zum 5800U.
Denniss
2022-01-08, 04:03:23
war auf das Geschwurbel vom Gast bezogen der über den 5800X/X3D herfiel
Leonidas
2022-01-08, 04:20:44
Warum dann aber in der News die 15W vs. 15W Folie (https://i.imgur.com/pegVes6.jpg) (Footnote) (https://media.discordapp.net/attachments/697380330864115792/928184094565732382/unknown-91.png) komplett weggelassen wird, obwohl sie hier schon in jedem Fred durchs Forum/Netz geistert ist schon komisch. AMD hat diese Werte immerhin geliefert, Intel nicht.
Ich hatte mich in der News auf den Fehler konzentriert, nicht auf die Performance.
Aber natürlich ist es besser, diese 15W-Folie zu nennen. Werde ich nachholen.
Bei AMD ist dies jedoch eine komplett andere Situation. Die haben ihre 8 Kern CPUs verglichen und wenn ich auf Geizhals schaue haben nur 22% der gelisteten 8 Kern Cezanne Geräte eine CPU TDP von 15W oder niedriger. 70% habe eine TDP von 40W oder höher.
Reine Manöver-Kritik: Du darfst nicht nach "Cezannne" schauen, denn da gibt es ja auch die H-Bauform. Du darfst nur nach Cezanne-U schauen. Und da haben die meisten eine TDP von 15W. Davon abgesehen liefert Geizhals im Mobile-Feld üblicherweise nur die offizielle Prozessoren-TDP - nicht aber diese TDP, welche im konkreten Notebook benutzt wurde.
Im Grunde merkte ich einfach immer mehr, das viele Zusammenfassungen hier mehr Meinungsmache als Tatsachen sind. Der Mehrwert für mich schwindet zusehendst.
Dann nimm bitte mit, dass ich auch immer die Original-Infos notiere oder wenigstens verlinke - so dass sich jeder seine eigene Meinung bilden kann. Und sich seine eigene Meinung zu bilden und dass diese (trotz gleicher Daten) abweichend von meiner sein kann – daran ist absolut nichts verkehrtes. Es wäre traurig, wenn wir aller gleicher Meinung sind.
Dann nimm bitte mit, dass ich auch immer die Original-Infos notiere oder wenigstens verlinke - so dass sich jeder seine eigene Meinung bilden kann.
Spätesten seit deinen AMD rBAR Artikeln ist das doch gar nicht mehr wahr.
Und allein die hier (wieder) stattfindende Diskussion zeigt auch ganz klar, das zwischen dem, was du behauptest und dem was du tätsächlich machst, ein riesen Unterschied ist.
Vieles ist bei dir einfach nur noch gerichtete Meinungsmache.
Absolut kein Mehrwert mehr vorhanden. Und kein Grund mehr sachlich und mit technischen Wissen zu Artikel / Forendiskussionen beizutragen.
Leonidas
2022-01-10, 05:34:55
Spätesten seit deinen AMD rBAR Artikeln ist das doch gar nicht mehr wahr.
Ich denke nicht, dass dies zutrifft. Wo habe ich jemals die Links zum Original weggelassen? Das kann sich nur um die bedauerliche Ausnahme von der Regel handeln - ein Fehler, aber keine Absicht.
Demzufolge frage ich: Beleg Deiner Behauptung?
Aus thermischer Sicht wären auf jeden Fall 5600X und 5900X mit nur 6 aktiven Kernen pro DIE besser geeignet. Das Problem ist ja nicht die Wärmemenge, die bekommt man mit entsprechender Kühlung locker weg, das Problem ist die Wärmemenge auf dermaßen kleiner Fläche, und die wird durch den getstackten DIE natürlich nicht höher, im Gegenteil, die Wärme muss deutlich länger durch relativ schlecht leitendes Silizium bis sie endlich im gut leitenden Kupfer ist, und der Übergang zwischen den 2 Siliziumdies (bzw. eigentlich sogar 4, weil neben den Cache-DIEs sind ja 2 Dummy-DIEs um auf gleiche Höhe zu kommen) ist wahrscheinlich auch nicht perfekt.
Es geht überhaupt nicht um die Abwärme, es geht um Latenzen die ein größerer Cache auf zwei CCD erzeugt. Da jedes CCD einen Cache erhalten muss, steigt die Latenz zwischen den Chiplets. Genau deshalb setzt man auf den 8 Core. Hat mit der Abwärme absolut überhaupt nichts zu tun.
Letztlich reden wir hier über Steigerungen in 1080p, in höheren Auflösungen und unter Anwendungen ist der 5800x3DV nicht schneller als ein 5900x, und der die deutlich bessere Wahl.
Was bisher niemand erwähnt ist, dass auch bei AMD in Zukunft der Verbrauch steigen wird. AM5 soll dann bei 170w liegen. Ein weiterer Negativrekord, Leistung wird also hauptsächlich durch Leistungsaufnahme generiert, obwohl geshrinkt wird. Man macht nichts besser als Intel und die Amis gehen alle den komplett falschen Weg (egal wer), wenn man bedenkt was Energie in Zukunft und in Europa kostet. Hauptsache man ist 1% vor der Konkurrenz und verkauft diesen Tant an die Deppen die das bezahlen.
Die 10% Mehrleistung und IPC Steigerungen von bis zu 25% gegenüber Zen3 (man lääst ja offen weche CPU), merkt man unter den meisten Szenarien im Gaming und selbst unter 1080 doch gar nicht, weil man zu 90% im GPU Limit hängt. Der 3D Cache ist reines Gemelke und nur dazu da, um vor Intel zu sein. Schwachsinn was AMD da für den Aufwand abliefert.
Kauft einen 5800x oder 5900x, dann macht man nichts falsch. Der 5800x wird wohl 40% preiswerter zu haben sein, als sein Bruder mit 3DV.
Es geht überhaupt nicht um die Abwärme, es geht um Latenzen die ein größerer Cache auf zwei CCD erzeugt. Da jedes CCD einen Cache erhalten muss, steigt die Latenz zwischen den Chiplets. Genau deshalb setzt man auf den 8 Core. Hat mit der Abwärme absolut überhaupt nichts zu tun.
Die Chiplets können immer nur auf den eigenen Cache zugreifen, niemals auf Caches anderer Chiplets, egal ob mit 3D-Stack oder ohne. Auf die Latenz zwischen den Chiplets hat dieser 0 Einfluss, lediglich die Latenz in den eigenen L3 Cache steigt mit der Größe. Wobei hier abzuwarten ist, ob AMD weiterhin eine konstante L3 Latenz verwendet, dann wird diese mit 3D Cache in jedem Fall steigen, oder ob man wie bei Intel für den L3 variable Latenzen verwendet. Falls letzteres der Fall ist, sollte es in keinem Fall Nachteile geben, da die Latenz auf den bisherigen on DIE L3 gleich ausfallen kann, und nur die Latenz auf den gestackten L3 höher ist, welche aber logischerweise immer noch um Größenordnungen geringer als jene in den RAM sind.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.