Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - AMDs CPU-Architekturen-Strategie (Skybridge, K12, Zen, ...)
Seiten :
1
2
3
4
5
6
7
8
9
10
[
11]
12
13
14
15
16
17
18
19
20
z3ck3
2016-01-26, 20:27:50
Das ist IMO das geringste Problem. Kein Mensch benötigt heute mehr als einen x16 PCIe-Slot.
Naja, bei Intel sind die 6 oder gar 8 Kerner halt auch erheblich teurer, und zwar nicht nur die CPUs sondern vor allem auch die Plattform. Klar sagen da viele, 4 Kerne sind genug für mich. Da hat man IMO nicht "im Prinzip dasselbe Ergebnis".
Falsch. Von einer Highend Plattform kann man schon erwarten das es 2x 16 sind. Egal ob SLI/Crossfire Sinn macht oder nicht. Dazu kommen dann noch mindestens 4x PCIEe für m.2 und einige 1x Slots etc. Wenn man das nicht noch über den Chipsatz realisieren will.
Edit: Wenn 24 Lanes das Maximum ist was AM4 zu bieten hat, dann kann AMD weiter im Billigpreis Segment rumwuseln und ich geh dann halt bei Intel shoppen ^^
fondness
2016-01-26, 20:45:01
Na dann viel Spaß mit Intels überteuerter Plattform. 2x x16 PCIe wirst du bei AM4 nicht bekommen. Ich sehe darin auch keinen Sinn, wer wirklich SLI/CF will (eine immer kleiner werdende Minderheit) kann auch Dual-GPU-Karten nehmen oder 2 x 8 Lanes.
Novum
2016-01-26, 20:45:22
Falsch. Von einer Highend Plattform kann man schon erwarten das es 2x 16 sind. Egal ob SLI/Crossfire Sinn macht oder nicht. Dazu kommen dann noch mindestens 4x PCIEe für m.2 und einige 1x Slots etc. Wenn man das nicht noch über den Chipsatz realisieren will.
Edit: Wenn 24 Lanes das Maximum ist was AM4 zu bieten hat, dann kann AMD weiter im Billigpreis Segment rumwuseln und ich geh dann halt bei Intel shoppen ^^
Err, Skylake fuehrt nur 16 PCIe lanes vom Socket nach aussen?
Was fuer ein Quatsch.
Falsch. Von einer Highend Plattform kann man schon erwarten das es 2x 16 sind. Egal ob SLI/Crossfire Sinn macht oder nicht. Dazu kommen dann noch mindestens 4x PCIEe für m.2 und einige 1x Slots etc. Wenn man das nicht noch über den Chipsatz realisieren will.
Edit: Wenn 24 Lanes das Maximum ist was AM4 zu bieten hat, dann kann AMD weiter im Billigpreis Segment rumwuseln und ich geh dann halt bei Intel shoppen ^^
Egal, ob du diese Lanes überhaupt brauchst? Sicher, daß deine Prioritäten nicht gaaanz leicht verschoben sind?
z3ck3
2016-01-26, 21:14:10
4x für M.2, 16x für dGPU, also insgesammt 20 Lanes, ist das mindeste was ich von einer Consumer/Performance CPU im Jahr 2017 erwarten werde. Für Highend sind es mindestens 40.
In einen x16 Slot kann man nicht nur eine zweite dGPU stecken. Es gibt auch noch Raidcontroller und andere Erweiterungskarten die x4, x8 oder x16 vorraus setzen. Bei einer Highend Plattform kann man erwarten das dieses von der CPU bereit gestellt wird. Sonst ist es kein Highend.
Und Haswell-E bietet 40 Lanes. Skylake ist kein Highend. AMD will ja mit AM4 Alle Segmente bedienen, also auch Highend. Das sie kein Highend auflegen wollen und nur Consumer und Low Power Ware rausbringen wollen, davon haben sie nichts gesagt.
Edit: und des weiteren wäre ein Sockel für alle Segmente auch Käse, wenn man alle 2 Jahre einen neuen Sockel braucht. Denn dann kann man sich das sparen und gleich drei Sockel auflegen für das jeweilige Segment.
YfOrU
2016-01-26, 21:22:46
Ich denke das AMD, da sie nur einen Sockel für alles anbieten, ähnlich wie bei Intel den CPU Support/OC an den Chipsatz binden werden. Immerhin muss man theoretisch von 25W bis 125W alles abdecken können.
Bei FM3/AM4 sind es nach letztem Stand maximal 95W TDP und ist damit vergleichbar zu LGA 1151 (91W TDP). Hier ist das Spektrum (Produkte mit unterschiedlicher TDP) durchaus sehr ähnlich. Den OC Support an den Premium Chipsatz zu binden ist für AMD kaum realisierbar da dadurch die APUs welche vorerst in deutlich niedrigeren Preisbereichen angesiedelt sein werden (Bristol Ridge) uninteressanter sind.
Boards die nur eine begrenzte TDP liefern konnten gab es gerade auch bei AMD auch schon in der Vergangenheit.
Der Grund war das AMD des öfteren notgedrungen an das absolute Limit der eigenen Spezifikationen und teilweise darüber hinaus gegangen ist. Das macht dann natürlich nicht mehr jedes Board mit und entsprechend sehen die CPU Support Listen aus. Das war weder gewünscht noch beabsichtigt und sollte bei einer neuen Plattform kein Problem darstellen.
Mir fällt nur keine Lösung für die Theoretische Limitierung der PCIe Lanes ein. Wenn AMD nur 24 Lanes vorsieht, lässt sich das nicht mehr bei diesem Sockel steigern. Der Highend Gedanke, das Highend CPUs eben auch über mindestens 40 Lanes verfügen, der ließe sich nicht mit dem Sockel umsetzen.
Ganz einfach: Mehr PCIe Lanes gibt es nur beim Opteron mit eigenem Sockel. Mit 16C/32T würde ich im übrigen auf AM4 nicht rechnen. Für solche Produkte gibt es wenn dann separate Workstation Opteron Boards.
Die Frage also wie AMD den AM4 für alle CPU Klassen realisieren will, ist für mich die spannendste. Wie einschneident werden die Kompromisse sein die man eingehen muss einen derartigen Sockel zu realisieren.
Es ist davon auszugehen das diese Folie grundsätzlich zutrifft:
https://benchlife.info/wp-content/uploads/2015/06/amd-soc-and-promontory-chipset-io-coverage-1024x724.jpg
Und Haswell-E bietet 40 Lanes. Skylake ist kein Highend.
Im Consumer-desktop eben doch.
AMD will ja mit AM4 Alle Segmente bedienen, also auch Highend. Das sie kein Highend auflegen wollen und nur Consumer und Low Power Ware rausbringen wollen, davon haben sie nichts gesagt.
Nein, ganz im Gegenteil. "high-end desktop first, then server" hiess es etwa in irgend einem Transkript von einer Veranstaltung. Der 8 Kerner der als erstes kommt wird sicher nicht mit einem 8-Kerner Broadwell-E konkurrieren, sondern eben die 4-6 Kerner angreifen. Es glaubt ja auch keiner ernsthaft, dass Zen Broadwells IPC Niveau erreicht, wie soll es also anders sein. Der FX wird ja wohl auch keine 4 Speicherkanaele haben und wahrscheinlich auch weniger PCIe Lanes. Ein bisschen was kann man ja dann auch fuer dementsprechend ausgerichtete Boards im Chipsatz machen.
Und den Rest uebernimmt dann der 16 Kerner.
Sunrise
2016-01-26, 21:37:25
Naja, bei Intel sind die 6 oder gar 8 Kerner halt auch erheblich teurer, und zwar nicht nur die CPUs sondern vor allem auch die Plattform. Klar sagen da viele, 4 Kerne sind genug für mich. Da hat man IMO nicht "im Prinzip dasselbe Ergebnis".
Die Relationen der IPC-Unterschiede sind bei AMD im Vergleich sogar noch schlechter als wenn du einen Mainstream-Quad mit aktueller Architektur und Fertigung nimmst und diesen mit einem Intel 6-10 Core der älteren Generation vergleichst. Der kleinste 6-Kerner von Intel liegt etwa bei 500 EUR. Der hat aber erwartungsgemäß auch erheblich mehr IPC pro Kern als Zen.
Wenn du jetzt Benchmarks mit der immernoch erheblichen Mehrzahl der Anwendungen durchführst, dann ist das Plus an IPC pro Core von Intel _immer_ auch weiterhin vorne. Da bringen dir 2 Kerne mehr absolut garnichts.
Das kannst du auch nicht dadurch ausgleichen, dass du evtl. am Board 100 EUR sparst, weil du dann eine schlechtere CPU für die Mehrzahl der Anwendungen kaufst.
Wo siehst du da einen Mehrwert?
Du hast also nur Spielraum über Takt und Preis. Und beides wird vom 6-Kerner bei Intel stark gedeckelt.
z3ck3
2016-01-26, 21:37:36
AMD muss den OC Support nicht auf den Premium Chipsatz einschränken, aber kann durchaus die erreichbaren Taktraten einschränken, nämlich mit der für die Plattform maximale TDP. Und im Low Power Segment bietet AMD auch jetzt keinen OC support.
Wenn AMD im Highend keine TDP über 95W anbieten wird, dann gibt es bei AMD kein echtes Highend, das gleiche gild aus meiner Sicht für die Anzahl der PCIe Lanes. Dann würde AMD Intel nur etwas auf Skylake Niveau entgegen setzen. Und Opterons sind keine Option, da sie garantiert keinen OC Support bieten werden. Opteron CPUs sind für mich CPUs die vor allem auf Stabilität und Robustheit optimiert werden mit hoher IO. Es ist zwar Highend aber eben nichts für Enthusiasten.
Was nützen dir 8C/16T wenn diese aufgrund der TDP Einschränkung nur auf dem Niveau einer 4C CPU rumdümpeln?
Na dann viel Spaß mit Intels überteuerter Plattform. 2x x16 PCIe wirst du bei AM4 nicht bekommen.
Sicher ist das nicht. Wie ich schon öfters schrieb, hoffe ich darauf, dass da mehr kommt. Selbst wenn der reale Nutzen nicht allzugroß wäre, will jemand, der 2x300 Euro für Grafikkarten ausgibt, das maximal Mögliche haben und seinen teuren Grafikkarten nicht die Bandbreite kürzen.
Der Mehraufwand hielte sich für AMD außerdem in engen Grenzen, denn da wieder Opterons geplant sind, verbauen sie sowieso mehr I/O-Lanes auf dem Die. Die dann durch einen low-cost Sockel zu kastrieren wäre marketingtechnisch ein Fehler.
Angenommen der vorherige Vergleich mit 6 AMD Kerne vs. 4 Intel-Kerne geht einigermaßen auf bzw. die Leistung sind in etwa gleich. Dann könnten die zusätzlichen Lanes eines AM4-Boards durchaus die Kaufentscheidung zu Gunsten AMDs ändern.
Ich sehe darin auch keinen Sinn, wer wirklich SLI/CF will (eine immer kleiner werdende Minderheit)
Da stellt sich die spannende Frage, ob die Minderheit immer kleiner wird, oder 2016 nicht doch weiter wächst. VR wird z.Zt. wieder stark propagiert, dafür ist es praktisch 2 GPUs zu haben - eine pro Auge. Eventuell macht es dann sogar mehr Sinn sich 2 Mittelklasse GPUs zu kaufen, als eine High-End-GPU. Da muss man mal die Tests abwarten.
Wie auch immer: AMD ist bei VR sehr aktiv, wenn da irgendeiner bei AMD 1+1 zusammenzählen kann, dann kommt ein AM4-Sockel mit >32 Lanes. In letzter Zeit geht bei AMD einiges in die richtige Richtung, von daher hoffe ich auch in diesem Fall. Der Sockelname wurde schließlich auch von FM3 auf AM4 geändert. Ob Umbenennung oder mehr ist halt die Frage.
Auch wenn es nicht viel bringt, spräche im Gegenzug noch weniger dagegen. Die Mehrkosten hielten sich in Grenzen, der User nähme die paar Prozentpunkte mehr sicherlich gerne mit und das Marketing hätte einen weiteren Sellingpoint.
PCIe4 steht demnächst auch vor der Tür. Bekanntlich ist Intel da immer die treibende Kraft und Erstanbieter, auch vor dem Hintergrund wäre es nicht verkehrt, wenn AMD etwas mehr PCIe3-Lanes in der Hinterhand hätte.
Was nützen dir 8C/16T wenn diese aufgrund der TDP Einschränkung nur auf dem Niveau einer 4C CPU rumdümpeln?
Für sowas gibts Turbo-Modi, das kann AMD mittlerweile richtig gut, siehe Carrizo.
Korvaun
2016-01-26, 21:43:56
Ist eigentlich schon bekannt wie die neuen Desktop-CPU heißen werden? Ich hoffe doch das AMD so schlau ist und "Zen+Nummer" nimmt, "FX+Nummer" ist ja nun nicht gerade positiv in Erinnerung...
z3ck3
2016-01-26, 21:51:20
@S940: Tja, nur muss AMD Intel auch etwas gegen die -E Prozessoren entgegen setzen. Selbst wenn diese nicht deren IPC Leistung erreichen, so wäre klar das ein 95W 8C AMD von einem 140W 6C Intel gnadenlos in den Boden gestampft werden würde. Da ist selbst mein konservativ angesetztes 125W TDP Limit für einen Highend AM4 noch etwas arg wenig.
YfOrU
2016-01-26, 21:53:40
AMD muss den OC Support nicht auf den Premium Chipsatz einschränken, aber kann durchaus die erreichbaren Taktraten einschränken, nämlich mit der für die Plattform maximale TDP. Und im Low Power Segment bietet AMD auch jetzt keinen OC support.
Könnte AMD machen aber dafür gibt es keinen sinnvollen Grund. Dürfte wie üblich eher so aussehen das 0815 Boards schlichtweg früher die Grätsche machen (Taktfrequenz reduzieren) um die VRMs zu schützen als explizite OC Boards. Mit OC bewegt man sich sowieso oberhalb der Spezifikationen und das schließt die TDP mit ein.
Was nützen dir 8C/16T wenn diese aufgrund der TDP Einschränkung nur auf dem Niveau einer 4C CPU rumdümpeln?
Sowohl der i7-6700 (4C+GT2) als auch der i7-5775C (4C+GT3e) haben eine TDP von 65W. Summit Ridge hat keine GPU und auch keine 40 PCIe Lanes (wie ein i7-5930K). Einfach mal ansehen was Intel mit Broadwell-DE (8C/16T) bei 45W so anstellt: http://www.anandtech.com/show/9185/intel-xeon-d-review-performance-per-watt-server-soc-champion
fondness
2016-01-26, 21:55:28
Wenn du jetzt Benchmarks mit der immernoch erheblichen Mehrzahl der Anwendungen durchführst, dann ist das Plus an IPC pro Core von Intel _immer_ auch weiterhin vorne. Da bringen dir 2 Kerne mehr absolut garnichts.
Das hängt von der Anwendung und der konkreten Leistung von Zen ab. Selbst manche Spielen profitieren schon von mehr als 4 Kernen. Das sehe ich nicht so eindeutig. Ich weiß ja nicht was du von Zen erwartest, aber Haswell-IPC wie von dir AFAIK vorher angedeutet plus zwei Kerne mehr wäre IMO kein schlechtes Angebot.
Das kannst du auch nicht dadurch ausgleichen, dass du evtl. am Board 100 EUR sparst, weil du dann eine schlechtere CPU für die Mehrzahl der Anwendungen kaufst.
Warum nicht? Wenn ich mir 100 EUR spare ist natürlich auch weniger Leistung gerechtfertigt. Respektive bekommt man zum selben Gesamtpreis bei Intel dann eben nur noch eine CPU in einer Leistungsklasse niedriger.
Sunrise
2016-01-26, 21:57:54
@z3cke3:
Sehr richtig, man kann nicht einerseits mit High-End-Desktop werben und dann kein High-End liefern. Jemand, der abseits dem Mainstream kauft und informiert ist und das Budget hat, mehr zu investieren, der sucht sich ganz genau die passende Plattform für die eigenen Anwendungen aus. Wenn es schlichtweg keine Vorteile als die reine Core-Anzahl gibt, die aber weit weniger schlagkräftig sind, muss AMD irgendwo ansetzen. Und da sind die Möglichkeiten bei max. 125W TDP begrenzt.
@fondness:
Ich rede von der Mehrzahl der Anwendungen, und auch die Mehrzahl der Spiele profitieren weit mehr bei 6 Kernen von höherer IPC als ein 8-Kerner mit deutlich niedrigerer IPC. Und das es Ausnahmen gibt, hilft uns bei der Kaufentscheidung nur insofern, als dass du für die Mehrzahl der Anwendungen kaufst, wenn du sowieso schon bereit bist, mehr als Mainstream-Preise zu bezahlen.
Alles abseits des Mainstreams braucht handfeste Argumente für Enthusiasten, ansonsten muss AMD über den Preis und Takt gehen. Und hier deckelt der 6-Kerner stark und der günstigere Preis mit niedrigerer TDP im Mainstream macht zusätzlich Druck. Bei x86 und gleichen Rahmenbedingungen und OS sind unsere Vergleichmöglichkeiten leider begrenzt, zu AMDs Nachteil.
z3ck3
2016-01-26, 21:59:59
Sowohl der i7-6700 (4C+GT2) als auch der i7-5775C (4C+GT3e) haben eine TDP von 65W.
Und entsprechend dem sind sie getaktet und ist ihre Leistung, bzw. OC potential.
Edit: btw. sind das beides keine Highend sondern Performance CPUs, und noch nicht mal deren Top Vertreter
5775C ist der groesste Broadwell den es gibt, 6700 der groesste Skylake, nur eben ohne offenen Multi, so what? der k hat einen hoeheren Takt, das macht aber nur ein paar Watt aus. Die TDP ist wegen dem offenen Multi so viel hoeher.
Der 5775C liegt auch auf dem Niveau vom 4790k (und damit auch dem des 6700k), obwohl letzterer viel hoeher taktet und eine deutlich hoehere TDP hat.
TDP != Verbrauch
und Leistung erst recht nicht
YfOrU
2016-01-26, 22:14:24
Und entsprechend dem sind sie getaktet und ist ihre Leistung, bzw. OC potential.
Edit: btw. sind das beides keine Highend sondern Performance CPUs, und noch nicht mal deren Top Vertreter
Dir ist also nicht aufgefallen das die TDP welche Intel angibt abseits der K SKUs beim Wechsel von 22 auf 14nm deutlich zurückgegangen ist. Auch ein nettes Beispiel: i7-6700T mit 35W TDP
http://geizhals.de/intel-core-i7-6700t-cm8066201920202-a1261888.html?hloc=at&hloc=de
Novum
2016-01-26, 22:16:03
Und Haswell-E bietet 40 Lanes. Skylake ist kein Highend. AMD will ja mit AM4 Alle Segmente bedienen, also auch Highend. Das sie kein Highend auflegen wollen und nur Consumer und Low Power Ware rausbringen wollen, davon haben sie nichts gesagt.
SLI + Sockel 2011 ist Nischenmarkt des Nischenmarkts.
24 PCIe Lanes reichen voellig aus. Selbst fuer SLI sind 8+8 PCIe 3.0 ausreichend und dann hat man im Gegensatz zu Skylake immer noch welche uebrig fuer die m.2-SSD.
@S940: Tja, nur muss AMD Intel auch etwas gegen die -E Prozessoren entgegen setzen. Selbst wenn diese nicht deren IPC Leistung erreichen, so wäre klar das ein 95W 8C AMD von einem 140W 6C Intel gnadenlos in den Boden gestampft werden würde. Da ist selbst mein konservativ angesetztes 125W TDP Limit für einen Highend AM4 noch etwas arg wenig.
AMDs Resourcen sind begrenzt. Sie sollten den Sweet-Spot besetzten und gute Leistung für gutes Geld liefern. Die -E CPUs sind überteuert, die Mainboards ebenfalls. Wenn AMD sich genau zw. Intels S115x und 2011 setzen würde, wär es optimal.
Intel kann die 2011er Linie nicht zu Dumpingpreisen anbieten, da dann keiner mehr 115x kaufen würde, für AMD wär es ohne größeren Aufwand zu bewerkstelligen, also wieso nicht? Es gibt sehr wenig Nachteile. Möglicherweise ist es sogar eine Sparmaßnahme, nämlich dann wenn AM4 mit dem Opteron-2P-Sockel identisch wäre. Damit würde AMD dann den Support und v.a. Tests einer weiteren Plattform einsparen.
Ein FM3-Sockel würde gegen die Intel-E-CPUs erst recht nichts ausrichten können.
z3ck3
2016-01-26, 22:33:29
@iuno: Der 5775C ist kastrierte Wurstware. Warum auch immer Intel das gemacht hat. Vermutlich weil es sonst Konkurenz wischen zwei Mainstream Plattformen im eigenen Haus gegeben hätte da Broadwell so spät kam. Und wie gesagt, beides sind nicht die Top Vertreter ihrer jeweiligen Plattform. Das sind der i7 6700K (91W TDP) und i7 4790K (88W TDP). Der i7-6700T hat nur 35W TDP, das interessiert genau so wenig wie das der Broadwell eine 65W TDP hat und der NoneK ebenso.
z3ck3
2016-01-26, 22:40:26
Dir ist also nicht aufgefallen das die TDP welche Intel angibt abseits der K SKUs beim Wechsel von 22 auf 14nm deutlich zurückgegangen ist. Auch ein nettes Beispiel: i7-6700T mit 35W TDP
http://geizhals.de/intel-core-i7-6700t-cm8066201920202-a1261888.html?hloc=at&hloc=de
Intel Core i7-4765T, 35W
War nur im Takt natürlich noch niedriger. Aber 35W i7 4C/8T CPUs gab es auch schon auf S1150.
Und was haben Low Power CPUs nun mit dem Performance Segment zu tun? Oder gar mit Highend? Wobei die CPUs für meinen Geschmack in dem Segment immer noch 10 Watt zu viel "verbrauchen".
YfOrU
2016-01-26, 23:07:22
Die TDP liegt wesentlich näher an der wirklichen Verlustleistung als wenn diese für eine ganze Serie an SKUs gültig ist. Um es mal zusammenzufassen: AM4 hat im Gegensatz zu LGA-2011-3 kein Quad Channel Interface, erheblich weniger PCIe Lanes und die Plattform wird nicht für 22nm Produkte (-> höhere Leistungsaufnahme) entwickelt. Samsung/GF werden zwar kaum ganz an Intels 14nm Prozess herankommen aber besser als 22nm sollte es schon sein.
Im übrigen liegt selbst die Leistungsaufnahme eines i7-5960X (8C/16T, 22nm) deutlich unter den spezifizierten 140W (->Package) und würde gerade noch in 95W passen: http://www.tomshardware.de/core-i7-5960x-haswell-e-cpu-prozessor-x99,testberichte-241630-8.html
z3ck3
2016-01-26, 23:27:29
Im übrigen liegt selbst die Leistungsaufnahme eines i7-5960X (8C/16T, 22nm) deutlich unter den spezifizierten 140W (->Package) und würde gerade noch in 95W passen: http://www.tomshardware.de/core-i7-5960x-haswell-e-cpu-prozessor-x99,testberichte-241630-8.html
Ohne OC, oder? :freak:
Edit: Jawohl. Bei 4Ghz sind es dann nämlich 125W und bei 4.5 sinds 192W :freak:
YfOrU
2016-01-26, 23:55:11
Eben. Deshalb sehe ich hier kein Problem. Bei brachial OC geht die Verlustleistung durch die Decke. Dafür braucht es immer ein Board welches dauerhaft weit mehr als die offiziell spezifizierte TDP der Plattform mitmacht.
Sunrise
2016-01-27, 00:06:28
...Im übrigen liegt selbst die Leistungsaufnahme eines i7-5960X (8C/16T, 22nm) deutlich unter den spezifizierten 140W (->Package) und würde gerade noch in 95W passen: http://www.tomshardware.de/core-i7-5960x-haswell-e-cpu-prozessor-x99,testberichte-241630-8.html
Sehr interessanter Test, vor allem im Hinblick der Emulation eines deaktivierten Octa-Cores mit nur noch 6 Kernen und 4GHz bei gerade noch 125W TDP aber schon optimierter Kernspannung für diese CPU.
Das heißt der Schnittpunkt für AMD ist hier die höhere IPC von Intels 6-Kernern auszugleichen, die dann aber auch aufgrund der besseren Fertigung schon auf Broadwell-E basieren.
Bei sagen wir mal 20% IPC-Unterschied müsste AMD mit etwa 4,4GHz (sehr konservativ) takten, damit man dies sowohl ausgleichen kann, als auch einen stärkeren Nutzen der zusätzlichen zwei Kerne hat (die alleine nicht die fehlende IPC ausgleichen können) und das alles bei 125W TDP.
Dies gilt aber nur im Vergleich mit 22nm, Broadwell-E wird die Messlatte für AMD noch deutlich höher legen.
Das wird mit Verlaub gesagt ein ziemlich schwieriges Unterfangen. Sollte es jedoch gelingen hätte AMD hier trotz niedrigerer IPC ordentlich Spielraum für ihre Marge. Gelingt es nicht, muss man sich jeweils über dem größten Quad im Mainstream richten, mit einem kleinen zu rechtfertigenden Aufpreis für mehr Kerne, die in Ausnahmefällen an den starken 6-Kernern vorbeiziehen könnten. Wohlgemerkt nur dann, wenn AMD diese Takte im TDP-Rahmen erreichen kann, sonst wird es nichtmehr vergleichbar.
Es gibt hier und in anderen Foren eher mehr Enthusiasten, die den kleineren 6-Kerner bei Taktspielraum und günstigerem Preis dem 8-Kerner klar vorgezogen haben. Nichts anderes wird bei AMD passieren, wenn sie die Dinger nicht richtig bepreisen.
YfOrU
2016-01-27, 00:18:42
Der Witz an vielen Kernen ist das diese bei entsprechender Last niedriger takten wodurch man sich näher am Sweet Spot bewegt. Damit ist die CPU effizienter und schlussendlich auch schneller. Bei Last auf einer geringeren Anzahl an Kernen braucht es dagegen eine Turboimplementierung welche den TDP Spielraum möglichst gut dynamisch ausquetscht. Für eine CPU wie Summit Ridge ist das essentiell.
Bei sagen wir mal 20% IPC-Unterschied müsste AMD mit etwa 4,4GHz (sehr konservativ) takten, damit man dies sowohl ausgleichen kann, als auch einen stärkeren Nutzen der zusätzlichen zwei Kerne hat (die alleine nicht die fehlende IPC ausgleichen können) und das alles bei 125W TDP.
Frequenzen um 4 Ghz bei Last auf 8 Kernen wird es kaum geben. Bei Broadwell-E liegt die Basisfrequenz mit 8C bei 3,2 Ghz und mit 10C bei 3,0 Ghz.
https://benchlife.info/wp-content/uploads/2015/11/broadwell-e.jpg
Wenn eine Software 8+ Kerne vernünftig auslasten kann sind hohe Frequenzen grundsätzlich kontraproduktiv.
BlacKi
2016-01-27, 00:33:17
ich sehe die 125w vom am4 sockel nicht so kritisch, die hatte der centurion ebenfalls und mit oc waren 220w möglich. amd ist da nicht zimperlich.
Sunrise
2016-01-27, 11:12:58
Frequenzen um 4 Ghz bei Last auf 8 Kernen wird es kaum geben. Bei Broadwell-E liegt die Basisfrequenz mit 8C bei 3,2 Ghz und mit 10C bei 3,0 Ghz.
https://benchlife.info/wp-content/uploads/2015/11/broadwell-e.jpg
Wenn eine Software 8+ Kerne vernünftig auslasten kann sind hohe Frequenzen grundsätzlich kontraproduktiv.
Das war eher am Beispiel, wenn man wie bei tomshardware gezeigt, die CPU-Kerne teilweise deaktiviert, manuell übertaktet und dabei auch alle Stromsparfeatures deaktiviert, damit man festere Verbrauchswerte hat. Das wird in der Regel auch bei stabilerem OC bevorzugt, weil du dann genauer deine Endtakte und deine Spannungen hast, währenddessen beim Turbo es nichtmehr genau festzumachen ist, was genau dort passiert (weil der Turbo variabel ist und du keine Kontrolle direkt hast, wann er eingreift).
Wenn wir über das "out-of-the-box"-Verhalten sprechen, müsste AMD abhängig von der Auslastung einen noch deutlich aggressiveren Turbomodus anbieten, und hoffen, dass der Spielraum auf 14LPP dafür da ist, damit man im Endeffekt auf ähnliche Endleistung der Anwendungen kommt.
Unicous
2016-01-29, 18:59:41
Habt ihr gecheckt, dass Summit Ridge ein SoC ist?:confused: Ich dachte nämlich die ganze Zeit, dass Promontory nötig ist. Im Endeffekt ist es aber nur
ein "port-multiplier".
UPDATE 1/28/16: I talked with AMD early this week and they confirmed that while products designed for the AM4 socket will contain DDR3 memory controllers they will not be enabled. Motherboard that use the AM4 socket will only support the use of DDR4 memory. Additionally both Bristol Ridge and Summit Ridge will be SoCs.
http://semiaccurate.com/2016/01/21/38060/
Aber die Folie ist eigentlich ziemlich eindeutig. Hatte ich wohl ein Brett vorm Kopf.
https://benchlife.info/wp-content/uploads/2015/05/AMD-Summit-Ridge-1024x481.jpg
fondness
2016-01-29, 19:08:32
Jap, das war klar, jeder AM4-Chip muss ein SoC sein. Ansonsten müsste man die ganze I/O Funktionalität bei den APUs deaktivieren oder ein externen Chipsatz in Notebooks wäre Pflicht. Sah man auch schon auf den älteren Folien.
Jap, das war klar, jeder AM4-Chip muss ein SoC sein. Ansonsten müsste man die ganze I/O Funktionalität bei den APUs deaktivieren oder ein externen Chipsatz in Notebooks wäre Pflicht. Sah man auch schon auf den älteren Folien.
Es gab aber die Info, dass der FCH in "Carrizo" fuer Bristol Ridge deaktiviert wird, bei AM4 dann also durchaus der externe Chipsatz notwendig ist. Warum habe ich nie verstanden (mich auch nicht damit befasst).
fondness
2016-01-29, 19:28:13
Nope, I/O setzt sich bei AM4 aus SoC plus optional den zusätzlichen Chipsatz zusammen. Der ist aber nicht Pflicht. Das Zeug soll in Notebooks ohne Chipsatz laufen und wenn man eine gemeinsame Plattform mit den APus will, muss auch Summit Ridge diese I/O-Funktionalität zur Verfügung stellen, ansonsten würde da diverse Controller in der Luft hängen^^
Ja, das hat mich ja gewundert. Ich muss mal die Quelle ausfindig machen, aber hatte das schon so im Kopf. Spaeter... ;)
Das Zeug soll in Notebooks ohne Chipsatz laufen
Tut es ja auch, aber FP4 != AM4
reaperrr
2016-01-29, 21:27:45
Es gab aber die Info, dass der FCH in "Carrizo" fuer Bristol Ridge deaktiviert wird, bei AM4 dann also durchaus der externe Chipsatz notwendig ist. Warum habe ich nie verstanden (mich auch nicht damit befasst).
Das galt meines Wissens nur für die geplanten FM2+ Carrizos, weil FM2+ nicht auf SoCs ausgelegt ist.
Der einzige Grund, warum der externe Chipsatz bei AM4 "nötig" ist, besteht darin, dass BR und SR zu wenig PCIe Lanes, SATA und USB Ports haben, jedenfalls für herkömmliche Desktop-Systeme. Speziell Summit Ridge ist außer bei den PCIe-Lanes extrem spartanisch ausgestattet.
Theoretisch könnte man aber sowohl Summit Ridge als auch Bristol Ridge komplett ohne externen Chipsatz verbauen. Wird in der Praxis bloß im Desktop-Bereich kaum jemand tun, weil die Zahl der Anschlüsse i.d.R. ein Verkaufsargument ist.
YfOrU
2016-01-30, 11:38:59
Das galt meines Wissens nur für die geplanten FM2+ Carrizos, weil FM2+ nicht auf SoCs ausgelegt ist.
Ja. Auf FM2+ hätte die integrierte Mini-Southbridge deaktiviert werden müssen.
Der einzige Grund, warum der externe Chipsatz bei AM4 "nötig" ist, besteht darin, dass BR und SR zu wenig PCIe Lanes, SATA und USB Ports haben, jedenfalls für herkömmliche Desktop-Systeme. Speziell Summit Ridge ist außer bei den PCIe-Lanes extrem spartanisch ausgestattet.
Theoretisch könnte man aber sowohl Summit Ridge als auch Bristol Ridge komplett ohne externen Chipsatz verbauen. Wird in der Praxis bloß im Desktop-Bereich kaum jemand tun, weil die Zahl der Anschlüsse i.d.R. ein Verkaufsargument ist.
Summit Ridge bietet praktisch das notwendige Minimum. Macht zum einen natürlich Sinn um die Kosten auf einer gemeinsamen Plattform mit den APUs zu reduzieren und zum anderen sind so kompakte Designs analog zu Broadwell-DE (Server SoC) ohne externe SB realisierbar.
Grundsätzlich sollte es am Desktop für OEMs auch möglich sein absolute Low Cost Boards ähnlich zu AM1 auf den Markt zu bringen. Dafür braucht es nur ein paar sehr günstige per PCIe angebundene Controller von Drittherstellern. Wobei es sowieso danach aussieht das Promontory kein "echter" AMD Chipsatz ist sondern von ASMedia entwickelt wurde. Ist zwar bis heute nicht offiziell bestätigt worden aber da AMD bezüglich (aktueller) I/O Komponenten schon länger auf externe IP zurückgreift und mit ASMedia zusammenarbeitet würde mich alles andere überraschen. Promontory entspricht 1:1 der bei ASMedia vorhandenen IP und AMD muss an allen möglichen Ecken sparen sowie die vorhandenen Ressourcen konzentrieren. Hat denke ich durchaus auch andere Vorteile denn was Features wie USB (3.0, 3.1 Gen 2) betrifft sind Dritthersteller wie ASMedia eigentlich immer deutlich flotter als AMD und Intel (Chipsätze) gewesen da es deren Kerngeschäft ist.
http://dresdenboy.blogspot.de/2016/02/amd-zeppelin-cpu-codename-confirmed-by.html
AMD nennt offiziell Zeppelin mit 32 Kernen pro Sockel.
Pcgh dazu:
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-Zen-32-Kerne-1184874/
z3ck3
2016-02-01, 13:22:51
Ich hoffe das AMD nicht zu sehr auf ihre iGPU und HBM für HPC setzen werden. Als Nieschenprodukt ok, dann auch gerne zu saftigen Preisen, aber 32 Kerne ohne iGPU sind für ein breites Anwendungsspektrum bei Serveranwendungen viel interessanter. 16 Kerne wären auch bei Workstations eine interessante Option wenn auch die Single Thread Performance im Rahmen ist. Auch und gerade für preiswerte Maschinen im Grafik Bereich (Adobe etc.).
Und ich hoffe weiter das AM4 mit CPUs ohne iGPU auch Multi CPU Systeme ermöglichen wird.
Grundsätzlich wäre das alles machbar. Genügend Pins vorrausgesetzt und das sich diese optimalerweise je nach CPU Typ anders belegen lassen.
Was weiß man eigentlich bisher konkret über den Sockel selbst, also über AM4? Gibt es da überhaupt mehr als Spekulationen?
Edit: Es wäre übrigens auch sehr hilfreich wenn die Kühlerbefestigung quadratisch ausfallen würde. Damit wären suboptimal ausgerichtete Kühler auch bei AMD Geschichte. Ggf. sogar gleich dem Intel S1151
Was weiß man eigentlich bisher konkret über den Sockel selbst, also über AM4? Gibt es da überhaupt mehr als Spekulationen?
Außer den Namen und dass Zen und APUs reinpassen sollen, weiss man nichts.
Meine Hoffnung geht in die gleiche Richtung wie Deine.
Ich spekuliere auf ein Zen-Die mit Dualchannel DDR4, welches in den Sockel AM4 passt.
Der Zeppelin wäre dann ein MCM aus 4 Dies mit Octo-Channel. Gerüchte über letzteres gabs ja schon mal.
Dazwischen gäbs 2P-Systeme/Workstation mit Quadchannel & 2x8 Kernen. Wenn AM4 2P-fähig wäre, käme AMD mit 2 Sockel aus.
Das wär aus meiner Sicht die beste Option. Das 2P-System hätte ggü. den Intel 2011 Single-CPUs den Vorteil, dass man die Kerne voll takten könnte - natürlich auf Kosten des Stromverbrauchs, aber bei ner Workstation interessiert das eigentlich Keinen.
Die schaffen das, einen solchen Sockel für 2P zu basteln und den trotzdem wieder µPGA zu machen :freak:. Na ja, solange die Dinger verlötet sind soll mir das egal sein :D.
YfOrU
2016-02-01, 18:25:50
Dazwischen gäbs 2P-Systeme/Workstation mit Quadchannel & 2x8 Kernen. Wenn AM4 2P-fähig wäre, käme AMD mit 2 Sockel aus.
Gibt es 2017 wirklich noch einen nennenswerten Markt für 2P-Systeme mit einer Limitierung auf maximal 2*8C ? Da halte ich einen G34 Nachfolger (MCM) als single und dual Socket für deutlich wahrscheinlicher. Ein zu Intel vergleichbares Lineup (Cores/Socket) wird man schon bringen müssen.
Da stellt sich mir direkt die Frage ob es für AMD überhaupt Sinn macht bei einem 8C SoC welcher abseits vom Desktop meist entweder als BGA, 2P oder MCM eingesetzt wird ähnlich viel I/O pro Chip zu integrieren wie Intel auf LGA 2011-3 (Xeon). Eigentlich nicht.
Ich hoffe das AMD nicht zu sehr auf ihre iGPU und HBM für HPC setzen werden. Als Nieschenprodukt ok, dann auch gerne zu saftigen Preisen, aber 32 Kerne ohne iGPU sind für ein breites Anwendungsspektrum bei Serveranwendungen viel interessanter.
Ein (noch hypothetischer) 32 Kerner kommt sicherlich nicht als APU. Wenn ueberhaupt, dann wird das ein MCM, imho.
fondness
2016-02-01, 18:48:44
Ich hoffe das AMD nicht zu sehr auf ihre iGPU und HBM für HPC setzen werden. Als Nieschenprodukt ok, dann auch gerne zu saftigen Preisen, aber 32 Kerne ohne iGPU sind für ein breites Anwendungsspektrum bei Serveranwendungen viel interessanter. 16 Kerne wären auch bei Workstations eine interessante Option wenn auch die Single Thread Performance im Rahmen ist. Auch und gerade für preiswerte Maschinen im Grafik Bereich (Adobe etc.).
Und ich hoffe weiter das AM4 mit CPUs ohne iGPU auch Multi CPU Systeme ermöglichen wird.
Grundsätzlich wäre das alles machbar. Genügend Pins vorrausgesetzt und das sich diese optimalerweise je nach CPU Typ anders belegen lassen.
Was weiß man eigentlich bisher konkret über den Sockel selbst, also über AM4? Gibt es da überhaupt mehr als Spekulationen?
Edit: Es wäre übrigens auch sehr hilfreich wenn die Kühlerbefestigung quadratisch ausfallen würde. Damit wären suboptimal ausgerichtete Kühler auch bei AMD Geschichte. Ggf. sogar gleich dem Intel S1151
Das wäre viel zu teuer. Das ganze Zeug muss ja dann bei jedem Board verdrahtet werden. AM4 wird max. Dual-Channel und 16 PCIe 3.0 Lanes von der CPU unterstützen, für alles darüber gibt es Server Sockel.
AnarchX
2016-02-01, 19:18:22
Bei Low-End-Board sind häufig auch nicht alle Speicher-/PCIe-Kanäle auf das PCB ausgeführt. Insofern wäre das schon möglich.
Es wird interessant sein, wie AMD das Server/Workstation-Geschäft mit Zen angehen wird.
z3ck3
2016-02-01, 21:12:58
@iuno: Wie du mich richtig zitierst schrieb ich explizit 32C ohne iGPU.
@fondness: Bei Low End werden zwangsläufig "tote" Pins dabei sein. 16 PCIe Lanes gesamt halte ich bei Low End für ausreichend. Aber 16 gesamt für Performance oder gar Highend wären viel zu wenig. Dualchannel DDR4 wird das maximum unter AM4 sein, davon gehe ich jedenfalls aus. Ich schätze mal das 40 PCIe Lanes (gesamt, also 2 mal x16, und 2x x4), Dualchannel Interface, diverse andere Anbindungen mit etwa 1300 Pins machbar wären. Lässt man für Dual Prozessorsysteme die iGPU grundsätzlich weg kann man u.a. diese für die iGPU wegfallenden Pins bei den Systemen für einen Interconnect nutzen. Das meinte ich mit Zitat "das sich diese optimalerweise je nach CPU Typ anders belegen lassen"
Ich weiss nicht welche Funktion genau wie viele Pins benötigen würde, jedoch kann man sich ja grob an dem was Intel bietet orientieren. "Aktuelle" AMD LGA CPUs haben an die 1500 Pins, Intel nutzt 1150 bzw. 2011. Der Großteil wird davon nicht für PCIe drauf gehen, sondern für das Quadchannel DDR4 Interface.
Ein Bedarf an preiswerten x86 Servern und Workstations mit 2x 8C/16T sehe ich definitiv. Und Preiswert ist es dann schon wieder weniger wenn man dafür einen anderen Sockel braucht und durch Einschränkungen die Enthusiasten wiederum aussperrt. Es kann ja auch durchaus interessant sein ein System mit 2x 4C/8T und damit entsprechend höheren Taktraten als mit nur einer 8C/16T CPU zu bestücken. AMD muss weniger Angst haben als Intel das bei Servern und Workstations Consumer Hardware verbaut wird, als es Intel hat. Denn AMD ist auf dem Markt quasi gar nicht vertreten.
Edit: Ich hatte einige Seiten vorher nicht umsonst auch angemerkt, das AMD die Features die das Board bereitstellt irgendwie darstellen muss. Dafür hatte ich z.b. die Unterscheidung durch den Chipsatz vorgeschlagen, wie es auch Intel in gewissem Maße macht. AM4 bedient Lowend, Performance und Highend. Also kombiniert die Klassen AM3+, FM2+ und AM1.
Edit2: Hatte mir zur Überlegung auch mal eine Tabelle gemacht, hab sie grad mal um Dual CPU Plattform Tauglichkeit ergänzt:
http://owja.de/am4-tabelle.png
Grundsätzlich würden alle CPUs und APUs auf jedem Board funktionieren. Aber eben teilweise nur eingeschränkt. Ein Low Power Board das nur 16 PCIe Lanes unterstützt nutzt halt von einer Performance CPU auch nur maximal 16 der 24. Und das TDP Limit wird ebenso auf 25W beschränkt wenn man eine Performance oder Highend CPU auf ein Low Power Board betreibt. Dynamische TDP ist ja durchaus machbar. OC Funktionalität hätten OC CPUs nur auf Performance und Highend Boards.
YfOrU
2016-02-02, 00:06:24
Ein Bedarf an preiswerten x86 Servern und Workstations mit 2x 8C/16T sehe ich definitiv. Und Preiswert ist es dann schon wieder weniger wenn man dafür einen anderen Sockel braucht und durch Einschränkungen die Enthusiasten wiederum aussperrt. Es kann ja auch durchaus interessant sein ein System mit 2x 4C/8T und damit entsprechend höheren Taktraten als mit nur einer 8C/16T CPU zu bestücken.
2P mit je 6-8C lassen sich auch auf einem dedizierten Sockel für Server bringen welchen AMD sowieso in jedem Fall entwickeln muss. Hat AMD bei G34 schon so realisiert und Intel macht es bei LGA 2011-3 genauso.
Bei professioneller Hardware ist das im Kontext der Kosten wesentlich unproblematischer als eine Mainstream Plattform (->AM4) nach oben umzubiegen. Die Kosten für die Plattform (Mainboard) sind bei einem 2P System von der Stange in Relation zum Gesamtpreis Kleingeld. Liegt auch daran das diese Systeme in hohen Volumen produziert werden. Endgültige Ausstattung (Anzahl verbauter CPUs etc.) flexibel nach Bedarf des Kunden (BTO). Ein passendes Beispiel wäre der Dell Poweredge R430. Ist in der Basisausstattung spottbillig aber am Ende sind dann trotzdem ganz schnell ein paar Tausender mehr fällig ;)
Deine Vorstellung bedeutet effektiv das AMD Ressourcen in Nischen stecken würde und das kann ich mir bei der aktuellen Lage nicht vorstellen. Bevor das passiert braucht AMD erst mal wieder solide Marktanteile und die sind nicht am oberen Ende von LGA 2011-3 für Desktops zu finden.
Gibt es 2017 wirklich noch einen nennenswerten Markt für 2P-Systeme mit einer Limitierung auf maximal 2*8C ? Da halte ich einen G34 Nachfolger (MCM) als single und dual Socket für deutlich wahrscheinlicher. Ein zu Intel vergleichbares Lineup (Cores/Socket) wird man schon bringen müssen.
Nein, da sehe ich eher Vorteile bei der von mir skizzierten Lösung. Schlicht aus dem Grund, dass man bei Workstation im Gegensatz zu Servern auch single-thread Leistung braucht. Sprich man braucht da Takt und muss deshalb auch den TDP-Spielraum ausnützen.
Je weniger Kerne man hat, desto besser geht das und 8 Kerne/16 Threads pro Sockel mit einem (sehr) guten Takt sind 2017 ganz sicher nicht übel.
2P mit je 6-8C lassen sich auch auf einem dedizierten Sockel für Server bringen welchen AMD sowieso in jedem Fall entwickeln muss. Hat AMD bei G34 schon so realisiert und Intel macht es bei LGA 2011-3 genauso.
Ja, aber AMD hat kein Geld für extra DIEs. Intel kann sich sowas aus der Portokasse finanzieren, bei AMD schaut es wieder nur nach einem Die plus MCM-Variationen aus.
Mit 8cores/dual Channel pro Die und 2 Sockel - einen mittleren(AM4) und einem sehr großen("G2016", ich nenn den mal so, Octo-Channel DDR4) - hätte man zusammen mit 2P-AM4-Systemen alle Segmente ausreichend gut abgedeckt. 4P-Systeme kann man sich wg. 2x2016 auch sparen. Das Marktsegment dafür ist auch schon verschwindend gering, rentiert nicht mehr.
Sowas wie Intels 2011 ist dagegen nichts Halbes und nichts Ganzes. Im High-End-Server zu wenig RAM-Channel und für den Desktop zuviel. Klar Intel hat dann auch noch Sockel 115x im Köcher und es gibt 4P-Systeme mit S2011, aber wie besagt - die können sich das leisten - die haben das Marktvolumen dafür.
Bei professioneller Hardware ist das im Kontext der Kosten wesentlich unproblematischer als eine Mainstream Plattform (->AM4) nach oben umzubiegen. Die Kosten für die Plattform (Mainboard) sind bei einem 2P System von der Stange in Relation zum Gesamtpreis Kleingeld.
Jein ... die Fixkosten zum Debuggen einer Plattform hat AMD immer. Schau Dir z.B. die PDFs zu den Bugs an. Da wird -trotz gleicher Kerne - immer zwischen den Sockel unterschieden. AMD fängt im Serversegment faktisch wieder bei 0 an, d.h. man hat eher nicht viel Kapital zur Verfügung, da der Erlös anfangs eher gering ausfällt.
Wenn AMD nun AM4 sowohl als High-End-Desktop Plattform verkaufen und auch die 2P-Systeme damit ausstatten könnte, würde man sich sehr viel Debugging-Aufwand und damit auch Kosten sparen. Das wäre ideal.
Schaut man sich den Socket C32 an, so könnte man das Teil doch so übernehmen. Dual-Channel und 4x2x16bit Hypertransport-Lanes. Vielleicht noch ein paar 100 Kontakte mehr in Richtung 1400-1500 für die GPU-Anschlüsse der APUs und bessere/feinere Stromversorgung, das wäre nun wirklich nicht die Welt.
Einzig das AM1-Segment bliebe außen vor, aber dort verdient man sowieso nix.
z3ck3
2016-02-02, 08:42:22
S940 versteht was ich meine. :D
Ich glaube kaum das es mit essentiellen Mehrkosten für die Performance und Low Power Plattform Verbunden wäre wenn der Sockel ein paar Pins mehr hat. Das sind Centbeträge.
Wenn die "FX" Prozessoren, also die Highend CPUs der AM4 Plattform Dual Prozessor fähig wären braucht man nur noch entsprechende Boards. Diese können ja auch entsprechend teurer sein. 400 Euro für ein Board, 300 Euro pro 8C CPU und man hat für 1000 Euro ein 16C/32T System das sich auch ansprechend Takten lässt.
Zu einer Zeit wo Dualcore noch kein Thema war, und so gut wie keine Software im Consumersegment von Dualsystemen profitieren konnte, von Spielen ganz zu schweigen, da war es möglich zwei Celeron auf einem Dual CPU Board zu nutzen. Genauso wie man Athlon XP Prozessoren mit einem Bleistift dazu bringen konnte als Athlon MP seinen Dienst auf einem Dualsockel Mainboard zu verrichten. Ich glaube kaum das die Logik die dafür in den CPUs nötig wäre einen spürbaren Einfluß auf den Preis der Chips hat.
AMD kann mit wenig Aufwand ein Feature anbieten das auf Interesse stoßen wird. Für Highend Server wird es trotzdem noch einen weiteren Sockel geben müssen, nämlich um Quad Channel (2 CPU Dies auf einem Träger) oder Oktochanel DDR4 (4 CPU Dies auf einem Träger) und große APUs mit HBM und leistungsfähiger iGPU zu unterstützen zu können (Stichwort HPC). Dieses wird aber im Consumersegment von Enthusiasten gar nicht benötigt. Da zählt Singlethread Leistung und Rohpower. Und auch für ISPs und als Workstation im SoHo Umfeld währe ein Dualtauglicher AM4 "FX" CPU wesentlich attraktiver als die üblichen Lösungen in Form des Xeon oder Opteron.
YfOrU
2016-02-02, 09:59:22
Nein, da sehe ich eher Vorteile bei der von mir skizzierten Lösung. Schlicht aus dem Grund, dass man bei Workstation im Gegensatz zu Servern auch single-thread Leistung braucht. Sprich man braucht da Takt und muss deshalb auch den TDP-Spielraum ausnützen.
Ist schon klar nur sind 2P Workstations ein Nischenprodukt. Ob das dann AM4 oder ein G34 Nachfolger ist spielt bezüglich der Kosten doch keine nennenswerte Rolle.
Je weniger Kerne man hat, desto besser geht das und 8 Kerne/16 Threads pro Sockel mit einem (sehr) guten Takt sind 2017 ganz sicher nicht übel.
Da sehe ich einen G34 Nachfolger gegenüber AM4 im Vorteil denn eine Plattform welche auch mit MCMs bestückt werden kann sollte grundsätzlich einen größeren spezifizierten TDP Spielraum haben.
Mit 8cores/dual Channel pro Die und 2 Sockel - einen mittleren(AM4) und einem sehr großen("G2016", ich nenn den mal so, Octo-Channel DDR4) - hätte man zusammen mit 2P-AM4-Systemen alle Segmente ausreichend gut abgedeckt. 4P-Systeme kann man sich wg. 2x2016 auch sparen. Das Marktsegment dafür ist auch schon verschwindend gering, rentiert nicht mehr.
Das es möglich wäre - keine Frage. Allerdings sehe ich hier einen großen Nachteil: Die Skalierbarkeit. Bei LGA 2011-3 lässt sich für OEMs und Kunden mit einem 2P Serverdesign ein sehr großes Spektrum flexibel abdecken. Aktuell von 4 bis 36C.
Sowas wie Intels 2011 ist dagegen nichts Halbes und nichts Ganzes. Im High-End-Server zu wenig RAM-Channel und für den Desktop zuviel. Klar Intel hat dann auch noch Sockel 115x im Köcher und es gibt 4P-Systeme mit S2011, aber wie besagt - die können sich das leisten - die haben das Marktvolumen dafür.
Acht Speicherkanäle pro Sockel wären meiner Ansicht nach für die Masse an Serverndesigns ziemlicher Overkill.
Wenn AMD nun AM4 sowohl als High-End-Desktop Plattform verkaufen und auch die 2P-Systeme damit ausstatten könnte, würde man sich sehr viel Debugging-Aufwand und damit auch Kosten sparen. Das wäre ideal.
Bezüglich Kosten und Time to Market wäre es für AMD kurzfristig sicherlich der effektivste Weg. Als Basis für ein auch nur halbwegs komplettes Portfolio ist es aber nicht ausreichend und würde es mangels Skalierbarkeit deutlich schwerer machen im Segment darüber wieder Marktanteile zu bekommen. Etwas wie 32C Zen MCM oder eine Kombination mit einer dGPU und HBM sehe ich eher auf einer separaten HPC Plattform.
z3ck3
2016-02-02, 10:03:45
2P Workstations sind idR ein Nieschenprodukt weil eine entsprechende CPU schweine teuer ist, wenn sie auch nur annähernd die Singlethreadperformance einer 1P Workstation erreichen soll.
Beispiel: Der Intel Xeon E5-2637 v3 (4x 3.50GHz, Turbo 3.7Ghz) kostet 1049,- € und der E5-2643 v3 (6x 3.40GHz, Turbo 3.7Ghz) ganze 1639,- €. Der Core i7-5820K kostet nur 400 Euro und ist unlocked. Welche Plattform nehm ich da wohl?
YfOrU
2016-02-02, 10:31:44
Einen den Anforderungen entsprechenden Xeon denn etwas wie ein i7-5820K steht bei einer Workstation im Regelfall nicht als Option zur Verfügung.
Die Massen an CPU Kernen welche eine 2P Workstation potentiell bietet braucht heute fast niemand mehr denn was sich gut parallelisieren lässt läuft mit 1 - 2 potenten Quadro/FirePro etc. meist noch schneller. Hinzu kommt das die Anschaffungskosten für die reine Hardware bei einer Workstation auch wenn auf den ersten Blick hoch nicht problematisch sind. An anderen Stellen (Softwarelizenzen, Wartungsverträge, Schulungen, Zertifizierungen und Equipment) gehen pro Arbeitsplatz derart hohe Beträge flöten das wegen 1000€ + für eine CPU keine Diskussion notwendig ist. Die Realität ist das die Hardware heute in Relation zum Rest selbst bei Workstations vergleichsweise sehr günstig ist.
z3ck3
2016-02-02, 11:00:08
Wieso müssen so viele Männer eigendlich gleich immer in einem so großen Maßstab denken. Wenn ich im SoHo Bereich für Video und Bildbearbeitung Massiv Power haben will, dann bau ich mir keine Quadro sondern eine GTX ein. Da will ich auch keine 10.000 Euro ausgeben sondern maximal 3.000 Euro. Workstations haben auch in kleinerem Maßstab eine Existenzberechtigung. Der Xeon bietet nichts, was nicht auch ein i7 hat.
In einem Betrieb wo die Stunde mit >300 Euro berechnet wird mag der Anschaffungspreis einer Workstation keine Rolle spielen. Aber wenn man nur 100 Euro pro Stunde Berechnen kann, oder wenn man die Tätigkeit vorrangig als Hobby ausübt, dann ist der Preis entscheident.
Das gleiche gilt auch bei preiswerten Massenhostern und Virtuellen Rootserver Anbietern. AMD hat mal bei Hetzner und anderen Anbietern eine große Rolle gespielt.
YfOrU
2016-02-02, 11:50:46
Eine Workstation baut man abseits davon wenn es in erster Linie ein Hobby ist nicht selbst. Die gibts für den kleineren Geldbeutel genauso fertig mit potenten Xeon und Service zu kaufen. Als Pro Argument für AM4 mit 2P sehe ich das einfach nicht denn der hierüber adressierbare Markt ist am Ende winzig.
1P Low Budget Rack Server mit AM4 wird es vermutlich genauso geben wie heute mit LGA 1151. Da interessiert beispielsweise die Anzahl der PCIe Lanes aber auch nicht. Wobei die Kisten seit Broadwell-DE eigentlich angezählt sind. Das geht inzwischen für das gleiche Geld auf weniger Raum und mit höherer Effizienz. Mit Summit Ridge natürlich genauso da ebenfalls ein SoC. Womit man bei der nächsten Variante ist: Braucht AMD für kostengünstige und kompakte 2P Server überhaupt einen Sockel wie AM4 ? Eigentlich nicht denn als BGA wird es Summit Ridge in jedem Fall geben.
z3ck3
2016-02-02, 12:09:29
Der Markt ist aber vorhanden. Außerdem muss man auch mal über den Tellerand schauen in Inustrieregionen in denen man nicht mal eben für 10.000 Euro einen Aurbeitsplatz ausstattet.
Und wenn ein Anbieter wie Acer, Asus, Schenker oder Alienware etc. eine 2P SoHo Workstation/Gaming Maschine mit 16C/32T mit Singlethreadleistung einer 1P 8C/16T Consumer Maschine für 2000 bis 3000 Euro anbieten können, dann machen die das auch. So etwas wird auch von Leuten gekauft "weil sie es können".
Und im retail Markt: Wenn ich 1000 Euro hinlegen muss um 2x 8C/16T und zugehöriges Mainboard zu bekommen, für einen Preis wo man bei Intel noch nicht einmal den
i7-5960X für bekommt, dann kaufe ich mir das. Einfach weil ich das haben will und die nächsten 5-7 Jahre Ruhe ist und vielleicht sogar noch ein Upgrade möglich ist, wenn AM4 so Zukunfstauglich ist wie ich hoffe. Auch kann ich das System auch erst nur mit einer CPU fahren und nach 2 Jahren die Leistung verdoppeln. Noch interessanter wäre es wenn auch 4C/8T 2P fähig wäre. Weniger Kerne pro Die bedeuten idR mehr Takt, also bessere Singlethreadleistung. Ein 2P System mit zwei 4C/8T OC CPUs würde jeder 8C/16T CPU der gleichen Architektur und Generation davon rennen. Intel würde niemals OC auf ihren 2P Systemen erlauben. AMD könnte dieses jedoch ermöglichen ohne sich ein Bein abzuhacken.
YfOrU
2016-02-02, 12:19:33
Der Markt ist aber vorhanden. Außerdem muss man auch mal über den Tellerand schauen in Inustrieregionen in denen man nicht mal eben für 10.000 Euro einen Aurbeitsplatz ausstattet.
Selbst den Mac Pro gibt es schon für 3000€ und eine solide Dell Precision inkl. 24h nbd ist noch mal ein gutes Stück günstiger.
Und wenn ein Anbieter wie Acer, Asus, Schenker oder Alienware etc. eine 2P SoHo Workstation/Gaming Maschine mit 16C/32T mit Singlethreadleistung einer 1P 8C/16T Consumer Maschine für 2000 bis 3000 Euro anbieten können, dann machen die das auch. So etwas wird auch von Leuten gekauft "weil sie es können".
Die sind dann allein schon aufgrund der geringen Stückzahlen und Blingling Faktor exorbitant teuer.
Und im retail Markt: Wenn ich 1000 Euro hinlegen muss um 2x 8C/16T und zugehöriges Mainboard zu bekommen, für einen Preis wo man bei Intel noch nicht einmal den i7-5960X für bekommt, dann kaufe ich mir das.
Eben das kannst du doch komplett vergessen. Sobald AMD eine zu Intel halbwegs vergleichbare Performance erzielt wird das jeweilige Produkt auch das entsprechende Preisschild tragen. Kein Unternehmen verkauft CPUs mit 8C zu Preisen von 4C wenn die Performance stimmt.
Von CB gibt es mal wieder einen Teaser... Zur Einfuehrung des A10-7890K samt "Wraith-Cooler" habe AMD weitere "Überraschungen im Gepäck".
http://www.computerbase.de/2016-02/amd-meldungen-von-nur-12-tflops-fuer-fury-x2-und-max.-32-kernen-fuer-zen/
z3ck3
2016-02-02, 12:34:02
Ein Intel 2P Workstation Mainboard kostet etwa 500 Euro. Ohne "blingbling" kostet ein 2P Intel Board 350 Euro. Die CPUs sind aber schweine Teuer. Und ein niedrig getrakteter 2P fähiger Prozessor bringt mir wenig.
Ich kauf mir doch lieber zwei Prozessoren mit 8C, 3.5Ghz Takt und 4.2Ghz Turbo als einen Prozessor mit 16C, 2.5Ghz Takt und 3.5Ghz Turbo.
Ist schon klar nur sind 2P Workstations ein Nischenprodukt. Ob das dann AM4 oder ein G34 Nachfolger ist spielt bezüglich der Kosten doch keine nennenswerte Rolle.
Bezüglich der Kosten vielleicht nicht, aber bezüglich der single-thread Leistung machts den Unterschied.
Und wenn es das ganze für lau gäbe - bei AM4-Sockelrecycling, dann spräche auch nichts dagegen.
Da sehe ich einen G34 Nachfolger gegenüber AM4 im Vorteil denn eine Plattform welche auch mit MCMs bestückt werden kann sollte grundsätzlich einen größeren spezifizierten TDP Spielraum haben.
Das Argument sehe ich nicht als Problem, AM3+ hat AMD am Ende über 200W zugemutet. AM4 wär technisch dafür sicherlich auch in der Lage. Man könnte das ganz einfach so regeln, dass man den AM4-Herstellern für Desktop die Unterstützung von mind. 95W vorschreibt und auf 2P-Board höhere Anforderungen an die Spannungsversorgung des AM4-Sockels stellt.
Kurz: Eine höhere TDP-Spezifikation für den gleichen Sockel ist kein Hexenwerk.
Das es möglich wäre - keine Frage. Allerdings sehe ich hier einen großen Nachteil: Die Skalierbarkeit. Bei LGA 2011-3 lässt sich für OEMs und Kunden mit einem 2P Serverdesign ein sehr großes Spektrum flexibel abdecken. Aktuell von 4 bis 36C.
Kann AMD auch, wer sagt denn, dass der Zeppelin immer mind. 32 Kerne haben muss? AMD kann im unteren Bereich genauso die DIEs kastrieren, wie es Intel macht. Das Minimum läge wohl etwas höher, bei 4 Dies wären das mind. 4 Kerne pro Sockel und dann 8 pro 2P System. Aber ob das ein Vorteil für Intel wäre, dass sie 2P-Systeme mit nur 4 Kernen anbieten könnten? Wer kauft Dual-Cores für S2011? Sowas wird nur im Hochfrequenz-Aktienhandel gekauft, da hat Intel auch noch durch die - sicherlich immer noch gültige - bessere IPC Vorteile, von daher kann AMD den Markt ausklammern.
Edit: Außerdem gäbs für das Segment auch noch die AM4-2P-Plattform.
Vorteile ergeben sich dagegen im oberen Bereich, anstatt bis 36 Kerne kann das AMD-System bis 64 Kerne skalieren.
Unterm Strich sehe ich nur sehr geringe Nachteile im unteren Segment und Vorteile am oberen Ende.
Acht Speicherkanäle pro Sockel wären meiner Ansicht nach für die Masse an Serverndesigns ziemlicher Overkill.
Alle 2P-Server mit Sockel 2011 haben 8 Kanäle. Wieviel Server kennst Du, die nur die Hälfte der RAM-Sockel belegen?
Die Zahl kommt Dir nur aus Desktop-Sicht verdammt groß vor, aus Serversicht ist das nichts aufregendes.
Es geht bei Server auch weniger um die Anzahl der Speicherbandbreite als um den maximal möglichen RAM-Ausbau.
Kurz: Das Argument ist ebenfalls nicht schlüssig.
Bezüglich Kosten und Time to Market wäre es für AMD kurzfristig sicherlich der effektivste Weg. Als Basis für ein auch nur halbwegs komplettes Portfolio ist es aber nicht ausreichend und würde es mangels Skalierbarkeit deutlich schwerer machen im Segment darüber wieder Marktanteile zu bekommen.
Wieso im Segment "darüber"? Da wäre der neue Sockel-G mit 8 Kanälen doch bestens aufgestellt.
Etwas wie 32C Zen MCM oder eine Kombination mit einer dGPU und HBM sehe ich eher auf einer separaten HPC Plattform.
Klar sag ich doch Sockel "G2016", nicht Sockel AM4, war das nicht klar?
Ein weiterer Sockeltyp brächte doch nun überhaupt keinen Vorteil. Würde nur wieder Fixkosten verursachen, die bei AMDs mageren Marktanteil schlecht reinkämen, das würde ich vermeiden wollen.
YfOrU
2016-02-02, 14:11:26
Das Argument sehe ich nicht als Problem, AM3+ hat AMD am Ende über 200W zugemutet. AM4 wär technisch dafür sicherlich auch in der Lage. Man könnte das ganz einfach so regeln, dass man den AM4-Herstellern für Desktop die Unterstützung von mind. 95W vorschreibt und auf 2P-Board höhere Anforderungen an die Spannungsversorgung des AM4-Sockels stellt. Kurz: Eine höhere TDP-Spezifikation für den gleichen Sockel ist kein Hexenwerk.
Ist es natürlich nicht aber ein wirklich überzeugendes Argument für die Notwendigkeit von 2P mit AM4 auch nicht. Entsprechende SKUs lassen sich auf jedem Socket bringen.
Alle 2P-Server mit Sockel 2011 haben 8 Kanäle. Wieviel Server kennst Du, die nur die Hälfte der RAM-Sockel belegen?
Die Zahl kommt Dir nur aus Desktop-Sicht verdammt groß vor, aus Serversicht ist das nichts aufregendes.
8 Kanäle pro Socket gibt es nicht mal bei Oracles Sparc M7 mit 32C. Das ist schon eine andere Größenordnung als 4 pro Socket wie bei LGA 2011-3.
Es geht bei Server auch weniger um die Anzahl der Speicherbandbreite als um den maximal möglichen RAM-Ausbau.
Eben und sobald dahinter ein 4 Kanal Interface steht (beispielsweise 3DPC mit LRDIMM) landet man selbst mit einem 4 Chip MCM eher bei etwas wie G34/LGA 2011-3. Das halte ich für viel vernünftiger als die Komplexität derart in die Höhe zu treiben.
Aber ob das ein Vorteil für Intel wäre, dass sie 2P-Systeme mit nur 4 Kernen anbieten könnten? Wer kauft Dual-Cores für S2011? Sowas wird nur im Hochfrequenz-Aktienhandel gekauft, da hat Intel auch noch durch die - sicherlich immer noch gültige - bessere IPC Vorteile, von daher kann AMD den Markt ausklammern.
Praktisch wird das auch angeboten und bekommt man häufig zu sehen. Sind 2P LGA 2011-3 Server welche mit einer installierten CPU ausgeliefert werden. Ist bei vergleichbarer Ausstattung nur unwesentlich teurer als die LGA 1151 Low Budget Variante und deutlich flexibler. Die Skalierbarkeit der Plattform ist ein gutes Verkaufsargument, reduziert den Entwicklungsaufwand (OEMs, weniger Designs) und führt zu hohen Stückzahlen was sich wieder positiv auf die Kosten auswirkt.
z3ck3
2016-02-02, 15:02:30
Rein theoretische Frage: Wäre eine CPU <-> CPU Verbindung rein auf Basis PCIe 4.0 x16 machbar? 16 GT/s (Full Duplex, je Lane), 31 GB/s klingen ja gar nicht so schlecht. Man könnte die zweite CPU ja auch als Co Prozessor Steckkarte verbauen. :freak:
y33H@
2016-02-02, 15:44:10
Carrizo als Athlon X4 845 für Sockel FM2+ veröffentlicht: http://www.golem.de/news/athlon-x4-845-amd-veroeffentlicht-carrizo-fuer-sockel-fm2-1602-118745.html
4C mit 3,5 bis 3,8 GHz und DDR3-2133 bei 65W, allerdings nur 8 PCIe-3.0-Lanes und 2 MB L2
Unicous
2016-02-02, 16:05:04
Irgendwie nicht so der richtige Thread dafür oder?
Gibt doch einen extra Carrizo-Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10876248#post10876248
btw. Bei CB gerade zum Wraith-Lüfter das hier gelesen:
Wenngleich der Lüfter mit angepasster Lüftersteuerung im BIOS im Leerlauf sehr gute Werte und unter Maximallast immer noch akzeptable Ergebnisse abliefert, zieht er gegen Noctuas 45-Euro-Lösung NH-L12 in Extremszenarien weiterhin deutlich den kürzeren. AMDs Aussage, 50-US-Dollar-Kühler würden klar geschlagen, kann hier nicht nachvollzogen werden.
http://www.computerbase.de/2016-02/amd-wraith-kuehler-test/3/#abschnitt_fazit
Ist das eigentlich Volker Rißkas Ernst?:eek: Wie oft muss man deutschen Medien eigentlich noch verklickern, dass es völliger Unsinn ist, stupide Euro in Dollar umzurechnen und dann einen Vergleich anzustellen.
Mich hat es nicht einmal 1 Minute gekostet auf newegg zu gehen und zu sehen, dass der Noctua nicht 50, sondern 60 Dollar (mit "Rabatt") kostet.
http://www.newegg.com/Product/Product.aspx?Item=N82E16835608025&cm_re=NH-L12-_-35-608-025-_-Product
Ebenso der Scythe Kama Cross 2
http://www.newegg.com/Product/Product.aspx?Item=9SIA4RE3RM6790&cm_re=Scythe_Kama_Cross_2-_-13C-0004-00010-_-Product
Das mag vllt. nitpicking sein, aber 60 Dollar sind nun mal nicht 50 Dollar und das after market retail Geschäft in den USA funktioniert nicht so wie in Deutschland. Und "Wettbewerb" gibt es da im Großen und Ganzen auch nicht.
Ein Lüfter der hier 45 Euro kostet, kostet im Umkehrschluss eben nicht 45 Dollar in den USA.
Warum wird dieser Fehler eigentlich immer wieder aufs Neue begangen? Ist man zu faul? Ist man sich dem nicht bewusst? Ist es den IT-Journalisten egal?
Timbaloo
2016-02-02, 16:09:30
Ich denke an der Qualität des Kühlers wird sich AMDs Zukunft entscheiden. Zen ist lediglich ein Versuch davon abzulenken.
Gipsel
2016-02-02, 16:19:57
Bitte kommt zum Thema zurück!
Danke.
Unicous
2016-02-02, 20:30:02
Mir schwirrt der Kopf.
Talking about when the stuff gets confusing... AMD appears to be re-ramping 15h for some reason... Bristol Ridge is no longer just a Carrizo rename as it initially was.
While Bristol Ridge still has the same Excavator cores, the design has actually been altered. The GPU IPBs have received the same upgrade as introduced in Stoney Ridge (video capabilities). Also the L2 size has been increased back to 2MB as it was on Steamroller. The GPU is also pretty ************ quick (on paper, due bandwidth limitation)...
Nolan has also re-surfaced...
So basically AMD spent their non-existent funds on these, while Zen is on the way
- New Stoney Ridge 1 + 3 CU Excavator design (tiny)
- New Bristol Ridge 2 + 8 CU Excavator design
- Nolan 14nm LPP port
http://semiaccurate.com/forums/showpost.php?p=253750&postcount=285
Und dazu:
Arlene Soc auf Kingston Plattform
http://ranker.sisoftware.net/show_run.php?q=c2ffcdfadcbddce1d8efdae2d6f082bf8fa9cca994a482f1ccf4&l=de
https://www.linkedin.com/in/murali-kancham-04b99643
Appreciation Award got by AMD Arlene Project Manager Rampa Hemmige for Outstanding Contribution towards Arlene Physical Design in 16 nm.
Ist es natürlich nicht aber ein wirklich überzeugendes Argument für die Notwendigkeit von 2P mit AM4 auch nicht. Entsprechende SKUs lassen sich auf jedem Socket bringen.
Das war auch nur die Antwort auf Deinen Einwurf, dass größere Sockel einen höheren TDP-Wert haben müssten. Dem ist aber halt nicht so, sagst Du jetzt sogar selbst ;)
Der Sinn von 2P-AM4 wäre einfach etwas mit Quad-Channel zu haben um die Lücke zu einem eventuellen Octo-Channel Sockel nicht zu groß werden zu lassen.
8 Kanäle pro Socket gibt es nicht mal bei Oracles Sparc M7 mit 32C. Da bist Du leider einer Falschinformation aufgesessen:
Mussten sich beim M7 die 32 Kerne 4 Speicher-Controller mit 8 DDR4-Kanälen teilen, http://www.heise.de/newsticker/meldung/SPARC-Sonoma-erster-Prozessor-mit-integriertem-InfiniBand-2790065.html
Von daher seh ich das absolut entspannt. Aus heutiger (Desktop-)Sicht vielleicht etwas viel, aber das sind die 32 Kerne auch. Außerdem muss so eine Serverplattform mind. 5 Jahre halten, da wären 8 Kanäle schon nicht verkehrt.
Mit DDR4 wird auch das Routing deutlich einfacher, da man keinen Platinenplatz mehr für die üblichen Mäanderleiterbahnen vergeuden muss. D.h. es bleibt mit DDR4 mehr Platz für mehr Speicherkanäle.
Das halte ich für viel vernünftiger als die Komplexität derart in die Höhe zu treiben.
Was ist an 8 Kanälen denn Komplex? Angenommen das wäre so, dann musst Du aber auch die andere Seite der Medaille beachten. AMD spart sich durch seine MCMs ein (oder gar mehrere) spezielle Server-Dies. Die zu entwickeln wäre ebenfalls wieder eine teure Sache. Allein das könnte schon etwas komplizierter Sockel rechtfertigen. Den muss man so oder so entwickeln und selbst wenns teurer sein sollte, wären es nur Einmalkosten, die über die gesamte Sockellebensdauer ganz sicher wieder reinkommen.
Praktisch wird das auch angeboten und bekommt man häufig zu sehen. Sind 2P LGA 2011-3 Server welche mit einer installierten CPU ausgeliefert werden. Ist bei vergleichbarer Ausstattung nur unwesentlich teurer als die LGA 1151 Low Budget Variante und deutlich flexibler. Die Skalierbarkeit der Plattform ist ein gutes Verkaufsargument, reduziert den Entwicklungsaufwand (OEMs, weniger Designs) und führt zu hohen Stückzahlen was sich wieder positiv auf die Kosten auswirkt.
Also dass solche Kisten einen großen Markt haben bezweifle ich. Server werden aus meiner Erfahrung schlüsselfertig bestellt und gekauft. Dann stehen sie ~10 Jahre im Keller und dann werden sie komplett ersetzt. Aufrüstung wie beim Desktop wie Du sie schilderst finden da meines Wissens nicht statt.
Und selbst wenns so wäre, dann wäre in dem Fall die CPU-Leistung egal. Dann würde man bei AMD halt ein G-Brett mit einer Quad-Core-CPU anstatt einer Dual-Core-CPU von Intel kaufen. Den Riesenpreisunterschied würde das ganz nicht machen. Für Aufrüster wärs vermutlich sogar einen Aufpreis wert, schließlich ist die Plattform bis 64 Kerne skalierba, nicht nur bis ~36 und man hätte auch einen größeren max. Speicherausbau.
Rein theoretische Frage: Wäre eine CPU <-> CPU Verbindung rein auf Basis PCIe 4.0 x16 machbar? 16 GT/s (Full Duplex, je Lane), 31 GB/s klingen ja gar nicht so schlecht. Man könnte die zweite CPU ja auch als Co Prozessor Steckkarte verbauen. :freak:
Klar, Intels QPI ist quasi nur PCIe plus ein Koheränzprotokoll für die Datenintegrität in den verschiedenen Hauptspeicherbereichen sicherzustellen.
@Gipsel:
Plattformdiskussion ist ok, oder?
OBrian
2016-02-02, 21:21:14
Hmm, ich glaube nicht, daß AM4 2P-fähig wird. Das wäre nur was für die Leute, für die die hochpreisigste Consumer-CPU nicht mehr ausreicht. Aber wer 2000€ für CPUs ausgibt, der könnte auch 100€ mehr ausgeben für ein Board mit den richtigen Server-Sockeln, die es ja bestimmt auch geben wird (für 4P und 8P). Aber 2P-Fähigkeit erfordert einigen Aufwand zusätzlich und damit Kosten, die dann an jedem einzelnen AM4-Board hängenbleiben. Und AM4 soll auch für die Systeme sein, die knapp oberhalb AM1 ansetzen. Da ist kein Spielraum für einen Sockel, der um einige Cent teurer ist als nötig.
Hmm, ich glaube nicht, daß AM4 2P-fähig wird. Das wäre nur was für die Leute, für die die hochpreisigste Consumer-CPU nicht mehr ausreicht. Aber wer 2000€ für CPUs ausgibt, der könnte auch 100€ mehr ausgeben für ein Board mit den richtigen Server-Sockeln
Der Serversockel bringt mir aber rein gar nichts, wenn ich eine Workstation mit hoher IPC brauche ;)
die es ja bestimmt auch geben wird (für 4P und 8P).
Nein, 4 und 8P gäbs nach meiner Idee nicht, da das Volumen dafür zu klein ist. Wie schon erwähnt sagte das der damalige Marketingchef schon beim BD-Launch. Wenn überhaupt, dann werden 2P-Systeme gekauft. Nchdem AMD haushalten muss, dürften sie das Segment erstmal links liegen lassen, v.a. auch, da sie durch das MCM sowieso mehr Kerne pro Sockel anbieten können.
(Edit:Logisch gesehen wäre ein 2P-System aus CPUs mit 4 Dies pro Gehäuse auch ein 8P-System, sieht halt nur nicht so aus. Das würde dann auch gegen "echte" 8P Systeme sprechen, denn dann würde die Verbindung langsam etwas komplex werden. Idealerweise sollte man ja jedes DIE mit allen anderen verbinden ... das wird schon bei 2P & 4xMCM nicht trivial)
Aber 2P-Fähigkeit erfordert einigen Aufwand zusätzlich und damit Kosten, die dann an jedem einzelnen AM4-Board hängenbleiben.
Das Thema hatten wir doch auch schon durchgekaut. Soviel mehr kostet ein Sockel nicht, AMD kann die Pins zwischen dem neuen Hypertransport und PCIe umschalten, sodass der Käufer auch was davon hat und auf den ganz billigen Boards müssten die Hersteller auch nicht mehr als 20 Lanes anbinden.
Und AM4 soll auch für die Systeme sein, die knapp oberhalb AM1 ansetzen. Da ist kein Spielraum für einen Sockel, der um einige Cent teurer ist als nötig.Das ist die Knack-Frage. Muss AM4 wirklich so tief runter? Würde es nicht reichen einen Mobile-Sockel mit Lötkontakten zu verwenden?
Falls nicht, würde es sicher nichts mit einem "großen" AM4 werden.
Aber aus meiner Sicht ließe sich oberhalb von AM4 mehr Geld verdienen als darunter.
Im AM1-Segment macht einem Intel das Leben mit Dumpingpreisen schwer, der ausgeschiedene AMD-Chef meinte mal, dass einem Intel zu jedem verkauften Celeron ne $20 Note schenkt. Die wollen halt ARM raushalten, die es als AMD-Konkurrenz ja auch noch gibt.
Im Gegensatz dazu könnte man im 2P-Workstation-Segment nen Zen-Opteron für oberhalb 300 Euro verkaufen. Deutlich lukrativer.
z3ck3
2016-02-02, 22:58:38
Wenn eine normale Highend AM4 CPU (nicht APU), aktuell mit dem Namen FX, mit 4, 6 oder 8 Cores bereits die 2P Fähigkeit mitbringt (z.b. indem sie 16 PCIe 4.0 Lanes als Interconnect nutzt, oder HT 3.x mitbringt, irgendwas davon werden die Server CPUs eh haben müssen, das wird ja idR nicht aus Logik entfernt, sondern nur deaktiviert oder künstlich beschnitten), dann ist das eben keine 2000 Euro CPU, sondern eine normale 300 bis 500 Euro CPU. Man bezahlt dann als Endkunde nur den Mehrpreis für das Mainboard. Siehe auch meine "wünschdirwas" AM4 CPU/APU Tabelle (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10931297&postcount=2545)
Der Gedanke ist ja der, das AMD im Server und Workstation Markt eh nicht vertreten ist. Sie schneiden sich nicht ins Fleisch wenn sie sich erst mal wieder einen Namen machen indem sie eine preiswerte Möglichkeit für 2P Systeme schaffen. Später kann man dann immer noch einen Sockel für Server und Workstation CPUs (Opteron) bringen der dann Quad und/oder gar Octo Channel DDR4 unterstützt und andere für Highend Server und Workstations wichtige Funktionen, bzw. einfach nur noch mehr mögliche Kerne und den Platz für HBM und leistungsstarke iGPU mitbringt.
Western Digital hat vor einiger Zeit die Raptor HDD mit 10.000rpm raus gebracht. Das haben andere Hersteller nur aus einem Grund nicht gemacht: Sie waren bereits für sehr viel mehr Geld mit 10.000rpm SAS Platten im Serversegment vertreten. WD war das jedoch nicht und blieb damit der einzige Anbieter von SATA Platten mit 10.000rpm.
Edit: 15.000 in 10.000 geändert
sklave_gottes
2016-02-03, 18:22:14
Western Digital hat vor einiger Zeit die Raptor HDD mit 15000rpm raus gebracht. Das haben andere Hersteller nur aus einem Grund nicht gemacht: Sie waren bereits für sehr viel mehr Geld mit 15000rpm SAS Platten im Serversegment vertreten. WD war das jedoch nicht und blieb damit der einzige Anbieter von SATA Platten mit 15000rpm.
Nein, es gab und gibt keine 15.000upm Festplatten von WD
Gruß
Martin
z3ck3
2016-02-03, 20:51:11
Stimmt, es waren "nur" 10.000rpm, hab mich da schlicht falsch erinnert. Die Aussage stimmt trotzdem.
Lt. Wiki kam die erste SATA-Raptor noch vor dem SAS-Standard raus, WD hätte also jederzeit die Möglichkeit gehabt.
z3ck3
2016-02-03, 22:31:05
SAS Hardware ist aber für den Consumer Markt irrelevant. Und WD selbst war nie im Enterprice Markt vertreten. Es ging ja auch darum das es für Seagate, IBM und co definitiv möglich gewesen wäre 10.000 und 15.000rpm Platten auf dem Consumermarkt zu bringen. Sie haben es aber aus "Gründen" nicht gemacht. Genau die gleichen "Gründe" warum Intel bei Haswell-E die 2P Fähigkeit deaktiviert und sich 2P Haswell-EP vergolden lässt.
Ravenhearth
2016-02-04, 05:35:46
Mir schwirrt der Kopf.
http://semiaccurate.com/forums/showpost.php?p=253750&postcount=285
Und dazu:
Arlene Soc auf Kingston Plattform
http://ranker.sisoftware.net/show_run.php?q=c2ffcdfadcbddce1d8efdae2d6f082bf8fa9cca994a482f1ccf4&l=de
https://www.linkedin.com/in/murali-kancham-04b99643
Was ist Arlene? Ist das Nolan? :confused:
Zu BR:
For its part, AMD engineers showed smart ways of squeezing as much as 15% more performance out of its Carrizo PC processor, simply by applying more aggressive power management to the 28nm design. The Bristol Ridge design was a study in using power management to overcome performance limits tied to heat, voltage and current.
http://www.eetimes.com/author.asp?section_id=36&_mc=RSS_EET_EDT&doc_id=1328845&page_number=2
YfOrU
2016-02-04, 09:36:18
Was ist Arlene? Ist das Nolan? :confused:
Zumindest wohl etwas in der Art. Mit Blick auf das kommende Portfolio an APUs (Stony und Bristol Ridge) bleibt eine Lücke im Portfolio.
Thin Clients sind beispielsweise einer der wenigen Bereiche welcher bei AMD aktuell gut läuft (Marktanteil über 50%). Hierfür dürfte zum einen selbst Stony Ridge noch zu "fett" sein um die aktuelle G-Series (Puma, Embedded-SoCs) erfolgreich zu beerben und zum anderen gibt es früher oder später zwangsläufig stärkere Konkurrenz.
Ein winziger 14/16nm "Essentials" x86 SoC wäre da eine gute Lösung. Zen braucht es hier mittelfristig nicht und bis überhaupt ein solches Design zur Verfügung steht würde noch sehr viel Zeit vergehen. Hinzu kommt das es Jaguar/Puma aufgrund der Konsolen sowieso als 14/16nm FinFet geben wird.
Edit: Beim FAD 2015 stand auf den Folien für 2016 neben Semi-Custom auch Embedded Products Ramp. Ende 2013 sah die Roadmap für Embedded mal so aus: http://cdn.wccftech.com/wp-content/uploads/2014/09/AMD-Embedded-Solutions-2012-2016-Roadmap.jpg
Einiges wurde komplett gestrichen (20nm) und anderes (ARM R Series) teils deutlich nach hinten geschoben. Kann also gut sein das zumindest ein G-Series NG x86 LP SoC kommt.
fondness
2016-02-10, 17:36:31
Damit sind bis zu 32 Cores bei AMDs-Server-Zen-Chips plus 8 DDR4 Channels bestätigt:
Zumindest sofern Liviu Valsan (computing engineer am CERN) weiß wovon er spricht...er spricht auch wieder von einem MCM-Design.
http://s8.postimg.org/q42f3c2xx/AMD_Zen_Based_Opteron_Processor.jpg (http://postimg.org/image/y9kh1hr6p/full/)
https://cds.cern.ch/record/2128536?ln=ja
Nakai
2016-02-10, 17:55:55
Es spricht immer mehr dafür, dass Zen eher kleine Cores hat. Ich würde ein Zen Octacore mit Cache nicht mehr als 200mm2 zuschreiben. Dazu Dualchannel, ergo 4 solche Chips bieten dann 8 Channels.
Locuza
2016-02-10, 17:56:05
An der Stelle muss ich Fudzilla mal zur Abwechslung echt Credits geben.
Sie haben den 32 Kern Opteron, die HPC-APU etc., all die Pläne Monate vor irgendwelchen konkreten Details präsentiert und im Nachhinein hat sich bisher alles als wahr herausgestellt.
Nightspider
2016-02-10, 18:03:32
Es spricht immer mehr dafür, dass Zen eher kleine Cores hat. Ich würde ein Zen Octacore mit Cache nicht mehr als 200mm2 zuschreiben. Dazu Dualchannel, ergo 4 solche Chips bieten dann 8 Channels.
In 14nm sind auch Intel Cores winzig. Aktuell etwa 10,5mm2 pro Kern. Mit 10nm sind wir dann schon nur noch bei rund 6mm² pro Kern.
fondness
2016-02-10, 18:04:10
An der Stelle muss ich Fudzilla mal zur Abwechslung echt Credits geben.
Sie haben den 32 Kern Opteron, die HPC-APU etc., all die Pläne Monate vor irgendwelchen konkreten Details präsentiert und im Nachhinein hat sich bisher alles als wahr herausgestellt.
Wenn Fudzilla also wirklich gute Quellen hat, dann dürfte die High-End-APU mit 16 Cores / HBM plus 4 DDR4 Channels kommen.
http://s10.postimg.org/j8ufbodg9/84cbc506429ede06026d76e6de6651b2_XL.jpg (http://postimage.org/)
http://www.fudzilla.com/news/processors/37588-amd-x86-16-core-zen-apu-to-fight-core-i7
Nightspider
2016-02-10, 18:10:49
Diese HighEnd APU mit 16 Kernen ist dann für Server gedacht?
Beim Gaming braucht ja kein Schwein 16 Kerne. Da würden 6 Kerne mit SMT schon absolut ausreichen. Dann lieber eine GPU reinpacken die nochmal 50% größer ist.
*immer noch von einer highend CPU ohne IGP mit HBM oder eDRAM als L4 und 4 Channel DDR4 träum*
Sunrise
2016-02-10, 18:15:54
Diese HighEnd APU mit 16 Kernen ist dann für Server gedacht?
Ja, laut AMD war das rein für Server. Im Prinzip sowas wie die PS4-APU, nur sehr stark aufgebohrt und natürlich mit neuem Featureset und HSA aktiv. Also quasi alles, was AMD Leckeres im Petto hat, nur für eine viel höhere TDP ausgelegt.
Nightspider
2016-02-10, 18:20:12
Okay danke. Dann machen die 16 Kerne natürlich sinn.
Ich frage mich wie stark die Serverleistung von HSA profitieren kann. :uponder:
Wäre ja schon toll wenn man damit in einigen Anwendungen vor Intel landen könnte.
fondness
2016-02-10, 18:24:13
Es spricht immer mehr dafür, dass Zen eher kleine Cores hat. Ich würde ein Zen Octacore mit Cache nicht mehr als 200mm2 zuschreiben. Dazu Dualchannel, ergo 4 solche Chips bieten dann 8 Channels.
Das wäre vielleicht die reine Die-Größe ohne fabric. Wenn AMD da aber wirklich bis zu vier 8-Core Dies on-Package verbinden will, und dann zusätzlich auch noch Dual oder gar Quad-Sockel-Systeme unterstützen will, dann bräuchte es da schon eine extrem aufwändige next-gen-fabric, die defacto bis zu 16 Dies zusammen schalten kann, idealerweise jeweils single hop, oder man macht zumindest einen Art Ringbus. Ich tippe aber aktuell eher auf ein zusätzliches Die in Form eine 16 Core Zens für Server, den man dann zu einem 32 Core Zen zusammen schaltet. Ansonsten müsste der 8 Core Zen schon sehr viel Ballast mitschleppen.
Ravenhearth
2016-02-10, 18:33:33
In 14nm sind auch Intel Cores winzig. Aktuell etwa 10,5mm2 pro Kern. Mit 10nm sind wir dann schon nur noch bei rund 6mm² pro Kern.
Broadwell liegt schon bei 7mm². Zen dürfte ähnlich klein werden. Ein ganzer Achtkerner bei 120mm²?
Undertaker
2016-02-10, 19:07:44
Nur die Kerngröße ist nicht einmal die halbe Wahrheit, das Umfeld wächst mit jedem weiteren Kern ja auch beträchtlich. Ein Skylake-Quad ist auch schon bei über 120 mm², trotz der winzigen Kerne. Und das ohne sonderlich viele PCIe-Lanes oder gigantisch große Caches.
Ravenhearth
2016-02-10, 19:11:01
Ein Skylake-Quad besteht aber auch zu >40% aus GPU...
fondness
2016-02-10, 19:20:24
Jap, ein Octa-Core Skylake ohne GPU wäre wohl auch nicht größer. Der Zen-Octa-Core könnte schon deutlich unter 200mm² liegen. Sollte er eigentlich auch, wenn AMD 32 Kerne pro Sockel verbauen will.
Kriton
2016-02-10, 19:25:28
Das wäre vielleicht die reine Die-Größe ohne fabric. Wenn AMD da aber wirklich bis zu vier 8-Core Dies on-Package verbinden will, und dann zusätzlich auch noch Dual oder gar Quad-Sockel-Systeme unterstützen will, dann bräuchte es da schon eine extrem aufwändige next-gen-fabric, die defacto bis zu 16 Dies zusammen schalten kann, idealerweise jeweils single hop, oder man macht zumindest einen Art Ringbus. Ich tippe aber aktuell eher auf ein zusätzliches Die in Form eine 16 Core Zens für Server, den man dann zu einem 32 Core Zen zusammen schaltet. Ansonsten müsste der 8 Core Zen schon sehr viel Ballast mitschleppen.
Eine vermutlich dumme Frage, aber warum die Cores nicht ggf. mittels Interposer verbinden?
fondness
2016-02-10, 19:29:18
Egal ob Interposer oder nicht, jede Schnittstelle benötigt ein entsprechendes Interface on-Die. Extern dann mit entsprechend großzügig ausgelegten Treibern/Pinout.
Undertaker
2016-02-10, 19:35:02
Ein Skylake-Quad besteht aber auch zu >40% aus GPU...
Kommt denn ein Zen-8-Kerner ohne GPU? :confused: Ehrliche Frage.
fondness
2016-02-10, 19:35:38
Kommt denn ein Zen-8-Kerner ohne GPU? :confused: Ehrliche Frage.
Jaa. Intel hat ja bei allem >4 Cores auch keine GPU onboard. Für Notebooks kommt ein Quad-APU. Der Octacore ist Server und Desktop High-End.
AnarchX
2016-02-10, 19:40:51
Kommt denn ein Zen-8-Kerner ohne GPU? :confused: Ehrliche Frage.
Laut Benchlife Roadmaps: http://benchlife.info/amd-apu-platform-will-add-zen-cpu-architecture-in-2017-06182015/
Jaa. Intel hat ja bei allem >4 Cores auch keine GPU onboard. Für Notebooks kommt ein Quad-APU. Der Octacore ist Server und Desktop High-End.
6/8 Cores würden wohl 50-80mm² auf SKL/KBL(16nm) kosten und es ist ja nicht so, dass Intel sich nicht Unmengen an Masken leisten kann.
Es wird interessant sein, wie AMD sich preislich positioniert.
Undertaker
2016-02-10, 19:41:00
Jaa. Intel hat ja bei allem >4 Cores auch keine GPU onboard. Für Notebooks kommt ein Quad-APU. Der Octacore ist Server und Desktop High-End.
Alles über 4 Kerne kostet bei Intel aber auch >600 Euro für CPU und Board und ist damit im High-End/Enthusiast-Bereich angesiedelt, wo eine IGP verzichtbar ist. Je nach Positionierung der Zen-Modelle (noch kennen wir die Pro-Thread-Leistung, also das Produkt aus IPC und Takt noch nicht) hätte ich mir abseits des Server-Segmentes darum auch ausschließlich Modelle mit GPU vorstellen können. Aber OK, wenn das schon so fest steht ist ja gut.
fondness
2016-02-10, 19:44:30
Laut Benchlife Roadmaps: http://benchlife.info/amd-apu-platform-will-add-zen-cpu-architecture-in-2017-06182015/
Auch die offizielle AMD-Roadmap ist da eigentlich eindeutig. Immerhin spricht man von "FX CPU", während die Chips darunter klar als "APU" bezeichnet werden.
Alles über 4 Kerne kostet bei Intel aber auch >600 Euro für CPU und Board und ist damit im High-End/Enthusiast-Bereich angesiedelt, wo eine IGP verzichtbar ist. Je nach Positionierung der Zen-Modelle (noch kennen wir die Pro-Thread-Leistung, also das Produkt aus IPC und Takt noch nicht) hätte ich mir abseits des Server-Segmentes darum auch ausschließlich Modelle mit GPU vorstellen können. Aber OK, wenn das schon so fest steht ist ja gut.
Ich sehe keinen plausiblen Zusammenhang zwischen Preis und der Notwendigkeit einer GPU, es sei denn, man will Billigssysteme zimmern. Gerade für Enthusiasten könnte man argumentieren, dass eine iGPU Sinn machen könnte, zB als Co-Prozessor oder wenn man mehr Display-Outputs benötigt, etc. Alles was nicht für Notebooks kommt -> keine GPU. Das sich der Octa-Core-Zen nicht gerade im Lowend ansiedelt, sollte allerdings auch klar sein.
AnarchX
2016-02-10, 19:49:32
Sinnvoll wäre es da eigentlich schon eine kleine GPU (6CUs ~ 40mm²@16nm) dranzupappen.
Bei Intel ist es durchaus ein Kritikpunkt, dass man kein QuickSync auf den teueren E-Modellen hat. Mit so einer iGPU könnte man Dies mit kaputten Kernen auch als 4C-APUs verkaufen und eine Mobile-APU mit 8/6C wäre auch sehr werbewirksam.
Ravenhearth
2016-02-10, 19:49:43
Kann mir aber gut vorstellen, dass eine Quadcore-APU nicht kleiner wird als eine Octacore-CPU.
AnarchX
2016-02-10, 19:54:13
Kann mir aber gut vorstellen, dass eine Quadcore-APU nicht kleiner wird als eine Octacore-CPU.
Raven Ridge könnte durchaus einen ~100mm²/16CU GPU-Part haben, dann gibt es noch die Spekulationen über ein HBM-Interface.
Undertaker
2016-02-10, 19:59:34
Ich sehe keinen plausiblen Zusammenhang zwischen Preis und der Notwendigkeit einer GPU. Gerade für Enthusiasten könnte man argumentieren, dass eine iGPU Sinn machen könnte, zB als Co-Prozessor oder wenn man mehr Display-Outputs benötigt, etc. Alles was nicht für Notebooks kommt -> keine GPU. Das sich der Octa-Core-Zen nicht gerade im Lowend ansiedelt, sollte allerdings auch klar sein.
Der Zusammenhang ist relativ klar: Alles, was u.U. in Notebooks (bei einem 8-Kerner eher unwahrscheinlich), Office-Rechnern oder günstigeren PCs landen könnte, sollte im Zweifelsfall eine GPU dabei haben, um eine in diesen Fällen gar nicht gewünschte dedizierte GPU einsparen zu können.
Enthusiasten, die 600 Euro für CPU und Board zahlen, haben in der großen Masse auch eine dicke Grafikkarte verbaut, gegenüber der jegliche iGPU eh unter den Tisch fällt (da frisst der Verwaltungs-Overhead die erwartbaren Zugewinne viel zu schnell wieder auf). Zudem opfert man halt kostbare Fläche, die besser in Caches o.ä. investiert wäre.
Da wir wie gesagt das Preis- und Leistungspotential eines Zen 8-Kerners noch nicht kennen, war das für mich kein von vornherein eindeutiger Punkt. Konkurrenzvergleiche schlicht auf Basis von Kernzahlen, das sollte nun wirklich jedem klar sein, verbieten sich natürlich – gegen was für ein Intel-Modell ein solcher Chip irgendwann einmal antritt, wird sich erst nach Bekanntwerden von Benchmarks zeigen.
Sinnvoll wäre es da eigentlich schon eine kleine GPU (6CUs ~ 40mm²@16nm) dranzupappen.
Bei Intel ist es durchaus ein Kritikpunkt, dass man kein QuickSync auf den teueren E-Modellen hat. Mit so einer iGPU könnte man Dies mit kaputten Kernen auch als 4C-APUs verkaufen und eine Mobile-APU mit 8/6C wäre auch sehr werbewirksam.
Quick Sync wäre schön, imo aber vor allem wenn man das auch komplett entkoppelt von einer GPU integrieren könnte. GPU-Support würde halt schon wieder einiges an zusätzlicher Komplexität und Pins für den ohnehin schon großen Sockel bedeuten.
:eek: shut up and take my money! ;D
Das Teil hoert sich mal hoechst spannend an. Wie da wohl die Taktraten ausfallen werden?
Interessant faende ich jetzt auch das 'drum herum'. Ob es dann ein Pendant zum Sockel 2011 gibt (fuer alles was noch kein MCM ist), ob es dafuer ueberhaupt Boards mit Displayanschluess gibt bzw. ob die APU ueberhaupt einen Ausgang hat oder nur fuer computing ist.
fondness
2016-02-10, 20:38:37
Quick Sync wäre schön, imo aber vor allem wenn man das auch komplett entkoppelt von einer GPU integrieren könnte. GPU-Support würde halt schon wieder einiges an zusätzlicher Komplexität und Pins für den ohnehin schon großen Sockel bedeuten.
Für 1000 EUR sollte das schon machbar sein^^
Das wäre vielleicht die reine Die-Größe ohne fabric. Wenn AMD da aber wirklich bis zu vier 8-Core Dies on-Package verbinden will,
Der Cern-Präsentator sprach eindeutig von einem High-End 16Core Chip von denen zwei zusammengeschalten werden.
Da stellt sich nun die Frage wie AMD das macht.
a) Wie Intel mit 2 Dies & 2 Sockel: Ein Die mit 8core für AM4 und nächstes Jahr bei besseren 14nm Yields eins mit 16core plus neuen Quad-/Octo-Channel-Server-Sockel.
b) AM4 ist der Quad-Channel Sockel und Summit-Ridge mit 8cores nur ein teildefektes Abfallprodukt eines größeren 16core Dies.
z3ck3
2016-02-11, 02:39:42
Für Server muss es so oder so einen anderen Sockel geben. Ich hoffe nur das AM4 so gestaltet ist das es auch problemlos einige Zeit überleben wird und auch wirklich kompromislos alles von Highend bis Low Power abdecken kann. Server mit ihren Ansprüchen auch noch unter zu bringen wäre IMO too much. Ich befürchte ja aktuell das AMDs ausrichtung auf APUs und Low Power schon negative Auswirkungen auf die Highend Prozessoren auf Zen Basis haben werden. Das das eben kein Highend ist, sondern maximal durchschnittliche Performance Prozessoren (egal ob nun 4C oder 8C).
Knuddelbearli
2016-02-11, 09:03:56
Werden also minimal 3 Sockel eher 4
MCM Sockel mit Octachannel
Server Sockel mit Quadchannel
Consumer Sockel Dualchannel
Eventuell Low end mit weniger PCI-E usw
Hübie
2016-02-11, 10:21:16
Was mich stutzig macht: Da steht Socket FM3 compatibility. Die FM-Sockel definieren sich über pinout für Videosignale und keinen Hypertransport Bus. :| Dann wird Summit Ridge mit Zen Cores also deutlich weniger Pins haben als die APU-Pendants oder es wird echt überall eine iGPU verbaut.
So richtig steige ich noch nicht durch...
Ist eigentlich etwas über die Cachemenge bekannt?
Wenn ich mich selber zitieren darf aus dem Pascal Thread...
Thyristoren (http://www.hotchips.org/wp-content/uploads/hc_archives/hc19/3_Tues/HC19.05/HC19.05.02.pdf)
sowie nach http://www.eetimes.com/document.asp?doc_id=1253788
verfügt GF über diese RAM-Technologie. Insofern wären Speicherdichten im Bereich von eDRAM zu SRAM-ähnlichen Latenzen möglich. Vielleicht wurde es auch schon eingesetzt?
z3ck3
2016-02-11, 11:08:14
Afaik ist über Cachemengen noch nichts bekannt. Jedoch werte ich die erste Meldung, die als gesichert gilt, das es keinen L3 gibt, als Bestätigung meiner Befürchtung das es kein echtes Highend geben wird. ;) Dann gibt es in 10 Jahren AMD CPUs nur noch als APU für Toaster XD
Locuza
2016-02-11, 11:26:18
http://dresdenboy.blogspot.de/2015/10/amds-zen-core-family-17h-to-have-ten.html
http://dresdenboy.blogspot.de/2016/02/amd-zeppelin-cpu-codename-confirmed-by.html
Pro Kern:
32KB L1$
512KB L2$
Pro 4-Kern Modul:
8192KB L3$
Summit-Ridge hat zwei Kern-Komplexe, insgesamt 8 Kerne, 16 Threads mit SMT.
und 16MB L3$.
Zeppelin entsprechend das doppelte und der Opteron MCM analog wieder das doppelte.
Was mich stutzig macht: Da steht Socket FM3 compatibility. Die FM-Sockel definieren sich über pinout für Videosignale und keinen Hypertransport Bus. :| Dann wird Summit Ridge mit Zen Cores also deutlich weniger Pins haben als die APU-Pendants oder es wird echt überall eine iGPU verbaut.
So richtig steige ich noch nicht durch...
Welche Folie genau meinst Du? Die alten Leaks wo Summit-Ridge als FM3-Chip angekündigt wurde, sind veraltet, der neue Sockel heißt bekanntlich AM4. Preisfrage ist nun, ob das nur ein umbenannter FM3 ist, oder der Server-Quad-Channel-Sockel. Quasi so was ähnliches wie anno dazumal S940 :)
Ist eigentlich etwas über die Cachemenge bekannt?
verfügt GF über diese RAM-Technologie. Insofern wären Speicherdichten im Bereich von eDRAM zu SRAM-ähnlichen Latenzen möglich. Vielleicht wurde es auch schon eingesetzt?
Zur Cachemenge gibts nur die recht alte Leak-Folie von Fudzilla, die vor ein paar Seite gepostet wurde, weil sie sich zu bewahrheiten scheint. Das wären demnach 8 MB L3 pro Quad-Core-Cluster, bei 16Kernen also 32 MB L3.
An T-Ram glaub ich nicht mehr, deren Webseite ist mittlerweile auch abgeschaltet: www.t-ram.com
Sunrise
2016-02-11, 11:41:57
Afaik ist über Cachemengen noch nichts bekannt. Jedoch werte ich die erste Meldung, die als gesichert gilt, das es keinen L3 gibt, als Bestätigung meiner Befürchtung das es kein echtes Highend geben wird. ;) Dann gibt es in 10 Jahren AMD CPUs nur noch als APU für Toaster XD
Damit wäre ich sehr vorsichtig, IMHO viel zu kurzsichtig.
AMDs Ziel für neue High-Performance Cores sollte sein, diese nicht unnötig mit Ballast, der für die Geschwindigkeit abträglich ist aufzublasen und diesen garnicht erst einzubauen, damit du am Ende nicht nur deine vorhandene Fläche optimal nutzt (mit FinFET kannst du extrem dichte, super-schnelle Kerne bauen), sondern auch nur das verbaust, was der Geschwindigkeit zuträglich ist und dich nicht unbedingt auf die letzten 2-5% konzentrierst, sofern die damit deinen Transistorenertrag negativ beeinflusst und das an anderer Stelle evtl. besser aufgehoben wäre.
Keller, der vor allem spitzenklasse ARM-Cores in der letzten Zeit entworfen hat wird von dort auch diverse Dinge übernehmen, die er und sein Team aus diesen Erfahrungen mitgenommen haben, wie er in Interviews auch gesagt hat.
Der L3 bei Bulldozer ist vor allem ziemlich langsam (Latenz) ggü. Intels Designs, was in dieser Form wohl auch mit das Erste ist, was gestrichen werden sollte, sofern das überhaupt den Tatsachen entspricht, was ich nicht unbedingt glaube. L3 wird sicher verbaut werden.
Schau dir aber mal (auch wenn nicht direkt vergleichbar, da ARM, aber geerbt von Keller) den A9X (Twister) an, der gerademal bei um die 2GHz taktet. Der braucht überhaupt garkeinen L3 für diese enorme Rechenleistung und Apple hat damit mit Abstand das grundlegend schnellste Design was es aktuell auf dem Markt gibt. Wie gesagt, natürlich kannst du auch noch einen schnellen L3 dazubauen, aber AMD muss besonders auf Kosten/Nutzen achten, wenn die Kerngröße sich auch an Intel messen lassen muss, ansonsten liegt AMD auch hier wieder zurück.
Wenn AMD mehr Kerne verbauen kann, die hoch taktbar sind dann kann man Intel auch in mehreren Märkten angreifen. Wenn du die Kerne jetzt unnötig groß machst, dann leidet am Ende deine Skalierung nach oben immens, weil du dann evtl. an Kernen sparen musst.
AMD will aber vor allem im Server-Markt (SMT und viele schnelle Kerne) mitspielen und das gleiche lässt sich auch sehr gut für den Desktop und andere Märkte nutzen, wenn sie wirklich auch von Grund auf auf wenig Ballast ausgelegt sind und schnell sind.
Bei APUs hast du zudem ganz andere Möglichkeiten, da AMD ja HBM integrieren kann. Dann brauchst du wahrscheinlich auch keinen großen L3 noch einen L4, weil du mehr als genug Bandbreite und vor allem Speicherkapazität hast, damit hier auch zwischen CPU und GPU geteilt (HSA) werden kann.
Also ich sehe darin überhaupt keinen Indikator, dass das schlecht wäre, eher im Gegenteil. Das würde mich sogar darin bestärken, dass AMD endlich auf das baut, auf was es ankommt, und nicht einen erneuten Bulldozer (der lustigerweise auch fett und langsam ist), nur in "besser" baut.
reaperrr
2016-02-11, 16:25:55
Ich persönlich rechne mit zwei Zen-CPUs.
Summit Ridge primär für Desktop und günstigere Server mit 8 Kernen, 8 MB L3, und DualChannel SI, und Zeppelin für Server mit 16 Kernen, 32 MB L3, Quad-Channel-SI und GMI, wobei letzterer dann 1x auf der HPC APU und 2x auf dem 32-Kern-MCM verbaut wird.
Dass es nur einen 8C-Chip gibt, der bis zu 4x verbaut wird, glaube ich nicht, mehr als zwei Chips auf einem MCM halte ich für technisch problematisch, sonst würde es auch öfter gemacht werden.
Und dass Summit Ridge nur ein salvage part eines einzigen 16C-Chips ist bei dem die Hälfte des Chips deaktiviert ist glaube ich auch nicht, da würde AMD im Desktop zu viel Marge verschenken.
Sicherlich sind Masken teuer und so, aber die Anforderungen an Kern-Zahl und Cache-Menge klaffen zu weit zwischen Desktop und Server auseinander, als dass AMD mit einem einzigen Chip alles vernünftig abdecken könnte.
Summit Ridge kommt zuerst, weil ein kleinerer Chip sich in Sachen Yields und Volumen schneller in Massenproduktion bringen lässt.
Hübie
2016-02-11, 17:22:34
Welche Folie genau meinst Du? Die alten Leaks wo Summit-Ridge als FM3-Chip angekündigt wurde, sind veraltet, der neue Sockel heißt bekanntlich AM4. Preisfrage ist nun, ob das nur ein umbenannter FM3 ist, oder der Server-Quad-Channel-Sockel. Quasi so was ähnliches wie anno dazumal S940 :)
Ähm, auf benchlife war das. Kann sein dass die älter ist und es schon besprochen wurde. Bin da nicht ganz im Bilde.
Ich gehe davon aus dass ein "Modul" aus 4 physischen Kernen samt Frontend und Backend besteht und ein dual-channel interface hat. Somit skaliert das beim 8 Kerner auf Quadchannel hoch (okay Wunschtraum :D). Gerade mit SMT ist es doch essentiell mehr Bandbreite zu haben. Glaube kaum dass da noch dual channel zu rechtfertigen ist.
Bin echt sehr gespannt.
Nightspider
2016-02-11, 17:25:08
Nur Dualchannel fände ich auch etwas schade.
fondness
2016-02-11, 17:26:33
http://dresdenboy.blogspot.de/2015/10/amds-zen-core-family-17h-to-have-ten.html
http://dresdenboy.blogspot.de/2016/02/amd-zeppelin-cpu-codename-confirmed-by.html
Pro Kern:
32KB L1$
512KB L2$
Pro 4-Kern Modul:
8192KB L3$
Summit-Ridge hat zwei Kern-Komplexe, insgesamt 8 Kerne, 16 Threads mit SMT.
und 16MB L3$.
Zeppelin entsprechend das doppelte und der Opteron MCM analog wieder das doppelte.
Jap, das sollte auch schon sogut wie fix sein. Ein "Quad-Modul" sollte dabei eine relativ fixe Einheit bilden, AMD kann Zen also Quad-weise skalieren. Die Cache-Größen deuten auch schon sehr stark auf ein inklusives Cache Design hin, die Daten von L1- und L2-Cache müssen also auch im L3-Cache liegen, der gesamt-verfügbare Cache pro Quad-Core beträgt 8MB. Das ermöglicht kürzere Latenzen und damit in letzter Konsequenz mehr IPC.
... Bulldozer (der lustigerweise auch fett und langsam ist...
Das ist nicht wirklich lustig, mehr Pipeline-Stages sind natürlich aufwändiger und Transistorenintensiver. Bulldozer war vieles, aber sicher kein simples Design.
Ich persönlich rechne mit zwei Zen-CPUs.
Summit Ridge primär für Desktop und günstigere Server mit 8 Kernen, 8 MB L3, und DualChannel SI, und Zeppelin für Server mit 16 Kernen, 32 MB L3, Quad-Channel-SI und GMI, wobei letzterer dann 1x auf der HPC APU und 2x auf dem 32-Kern-MCM verbaut wird.
Dass es nur einen 8C-Chip gibt, der bis zu 4x verbaut wird, glaube ich nicht, mehr als zwei Chips auf einem MCM halte ich für technisch problematisch, sonst würde es auch öfter gemacht werden.
Und dass Summit Ridge nur ein salvage part eines einzigen 16C-Chips ist bei dem die Hälfte des Chips deaktiviert ist glaube ich auch nicht, da würde AMD im Desktop zu viel Marge verschenken.
Sicherlich sind Masken teuer und so, aber die Anforderungen an Kern-Zahl und Cache-Menge klaffen zu weit zwischen Desktop und Server auseinander, als dass AMD mit einem einzigen Chip alles vernünftig abdecken könnte.
Summit Ridge kommt zuerst, weil ein kleinerer Chip sich in Sachen Yields und Volumen schneller in Massenproduktion bringen lässt.
Ich glaube nicht, dass es sich für AMD rechnet einen eigenen Die nur für den Servermakt herzustellen. Aber vielleicht gehen sie das Risiko wirklich ein um Marktanteile zu gewinnen.
Nur Dualchannel fände ich auch etwas schade.
Mehr wird mit AM4 nicht möglich sein. Ich sehe da im Desktop auch nicht wirklich ein Bottleneck.
AnarchX
2016-02-11, 17:34:58
Nur Dualchannel fände ich auch etwas schade.
Mehr braucht es nicht bei einem HBM2-Cache. :D
Wenn die Zen-IP sich als brauchbar erweist, kann man nur hoffen, dass AMD 2017/2018 ein paar interessante Designs auf die Beine stellt.
Sunrise
2016-02-11, 18:08:20
Das ist nicht wirklich lustig, mehr Pipeline-Stages sind natürlich aufwändiger und Transistorenintensiver. Bulldozer war vieles, aber sicher kein simples Design.
Ich finde das schon lustig, weil der Name genau auf die entsprechenden Kerne passt. Dabei war es Intel, die eigentlich schon Jahre vorher gezeigt haben, dass die Kerne mit deutlich mehr Pipeline-Stages auszustatten um somit die Taktraten ins Unermessliche zu steigern ein fataler Fehler war.
Und wer macht es Jahre später, nachdem Hammer so erfolgreich wurde, nach? Richtig, AMD.
Als i-Tüpfelchen gibt man dem Ding dann den Namen "Bulldozer" mit, als ob man sich bereits eingestanden hat, dass das Ding "fett und lahm" (viel Transistoren für wenig IPC) ist.
Ist schon irgendwie lustig. Das hat jetzt hoffentlich bald ein Ende.
fondness
2016-02-11, 18:15:19
Ich finde das schon lustig, weil der Name genau auf die entsprechenden Kerne passt. Dabei war es Intel, die eigentlich schon Jahre vorher gezeigt haben, dass die Kerne mit deutlich mehr Pipeline-Stages auszustatten um somit die Taktraten ins Unermessliche zu steigern ein fataler Fehler war.
Und wer macht es Jahre später, nachdem Hammer so erfolgreich wurde, nach? Richtig, AMD.
Ist schon irgendwie lustig. Das hat jetzt hoffentlich bald ein Ende.
Okay dann habe ich dich falsch verstanden, das war natürlich von außen betrachtet nicht wirklich eine Glanzleistung. Allerdings zeigt es, dass Entwicklungszyklen bei CPU-Designs eben extrem lange sind. Bulldozer hat aber schon deutlich weniher Pipeline-Stages wie so mancher P4. Ich hörte von Besprechungsprotokolle von AMD ein Jahr vor der offiziellen Bulldozer-Vorstellung. Jeder dort wusste, dass Bulldozer keine Rakete wird, nur hatte man schlicht nichts anderes/besseres, nachdem wohl vorher schon einige noch "mutigere" Designs entsorgt werden musste. Man machte damals IMO den Fehler, irgendwas "außergewöhnliches" schaffen zu wollen, um Intel weiter zu schlagen. Die Aussagen des damaligen CEO Dirk Meyers "wer dasselbe wie Intel macht, ist nur zweiter Sieger" wurde wohl zu stark gewichtet und dafür ein viel zu großes Riskio eingegangen. Jetzt macht man im Grunde dasselbe wie Intel, man wird voraussichtlich auch nur zweiter Sieger sein, aber mit einem soliden Design kann man zumindest etwas Geld verdienen und so vielleicht in Zukunft wieder da sein, falls Intel Fehler macht.
BTw, man könnte in diesem Thread eigentlich auch mal K12 thematisieren: Der ARM-Servermakrt ist weiter nicht existent, mich würde es nicht überraschen, wenn K12 gar nicht mehr erscheint.
Loeschzwerg
2016-02-11, 18:50:05
Ich glaube nicht, dass es sich für AMD rechnet einen eigenen Die nur für den Servermakt herzustellen. Aber vielleicht gehen sie das Risiko wirklich ein um Marktanteile zu gewinnen.
Wenn man im Serversegment wieder durchstarten will (aktuell ist man quasi inexistent), dann MUSS AMD diesen Schritt wagen.
Ehrlich gesagt sehe ich hier auch mehr Chancen als mit irgendwelchen 08/15 FX Consumer Produkten, wo fast eh nur die AMD Fans zugreifen.
Hübie
2016-02-11, 20:20:52
Mehr braucht es nicht bei einem HBM2-Cache. :D
Wenn die Zen-IP sich als brauchbar erweist, kann man nur hoffen, dass AMD 2017/2018 ein paar interessante Designs auf die Beine stellt.
So wie ich das verstanden habe kommt HBM2 nur dann zum Einsatz wenn da auch ne GPU drauf sitzt. :confused:
Loeschzwerg
2016-02-12, 12:04:07
http://vrworld.com/2016/02/12/cern-confirms-amd-zen-high-end-specifications/
ZEN High End ‘Exascale’ CPU, 1-4 Socket (1P-4P) – specs as per CERN
•32 ZEN x86 Core, 6-wide
•12 8KB L0 Cache (4KB per core)
•2 MB L1 D-Cache (64KB per core)
•2 MB L1 I-Cache (64 KB per core)
•16 MB L2 Cache (512 KB per core)
•64? MB L3 Cache (8MB cluster per quad unit)
•576-bit Memory Controller (8×72-bit, 64-bit + 8-bit ECC)
•204.8 GB/s via DDR4-3200 (ECC Off)
•170.6 GB/s via DDR4-2666 (ECC On)
ZEN High End Exascale APU, 1-2 Socket (1P-2P) – rumored specs from Fast Forward
•16 ZEN x86 Core, 6-wide
•64 KB L0 Cache (4KB per core)
•1 MB L1 D-Cache (64KB per core)
•1 MB L1 I-Cache (64 KB per core)
•8 MB L2 Cache (512 KB per core)
•No L3 Cache
•288-bit CPU Memory Controller (4×72-bit, 64-bit + 8-bit ECC)
•102.4 GB/s via DDR4-3200 (ECC Off)
•85.3 GB/s via DDR4-2666 (ECC On)
•102.4 GB/s between CPU and GPU via GMI
•~2000-core Polaris GPU
•2048-bit GPU Memory Controller
•8 GB HBM2 SGRAM Memory (2 chips at 4GB)
•512 GB/s GPU Bandwidth
Knuddelbearli
2016-02-12, 12:23:12
Die APU sieht doch mal lecker aus auch für Konsolen
Loeschzwerg
2016-02-12, 12:27:48
Gesetz dem Fall die Angaben stimmen, definitiv :)
Ravenhearth
2016-02-12, 12:47:48
Die GPU fände ich mit ~2000 ALUs etwas schwach, vor allem angesichts der Speicherbandbreite. Das doppelte müsste unter 14nm schon drin sein.
Was soll das denn bitteschön, ein 16core-Chip OHNE L3 und dann auch noch mit kleinerem L2?
Sorry, aber das glaub ich nicht.
Das sieht für mich nach nem Amateuer aus, der mitbekommen hat, dass AMDs APUs keinen L3 wegen den GPU-Shadern haben, aber bei nem MCM wär das ja mal wirklich nicht nötig, da hat man schließlich Platz da es 2 eigenständige Dies sind.
Wer/was ist eigentlich die Quelle, da steht CERN, aber der Verwantwortliche machte dort keine Aussagen zur Cachekonfiguration.
Der_Korken
2016-02-12, 13:57:17
Wieso kleinerer L2-Cache? Ist doch jeweils 512kB pro Core. Zur verbauten GPU wissen wir noch gar nicht, wie leistungsfähig die Shader sind. Der GM204 hat auch "nur" 2048 Shader cores. Ich finde es schon eine Leistung eine 16-Kern-CPU und eine 2048-Shader-GPU auf einem Die unterzubringen. Da frage ich mich schon fast, wer davon eigentlich die Zielgruppe ist. Wer sich einen Highend-PC hinstellt, greift schließlich sowieso so einer dGPU, da wäre die iGPU mit dem HBM-Speicher ziemlich vergeudet.
Complicated
2016-02-12, 14:05:05
Das sieht für mich nach nem Amateuer aus, der mitbekommen hat, dass AMDs APUs keinen L3 wegen den GPU-Shadern haben, aber bei nem MCM wär das ja mal wirklich nicht nötig, da hat man schließlich Platz da es 2 eigenständige Dies sind.
Die 16 Kern APU ist kein MCM, sondern ein Interposerdesign, welches laut den Daten auch 8GB HBM verbaut hat für die GPU und nur 4 DDR4-Speicherkanäle. L3 Cache bei APUs macht kaum Sinn.
Da frage ich mich schon fast, wer davon eigentlich die Zielgruppe ist. Wer sich einen Highend-PC hinstellt, greift schließlich sowieso so einer dGPU, da wäre die iGPU mit dem HBM-Speicher ziemlich vergeudet.
Das sind Exascale Produkte die in keinem Desktop Sockel auftauchen werden - HPC only. Zudem ist diese Entwicklung subventioniert durch die US-Regierung.
reaperrr
2016-02-12, 14:15:54
Die Specs halte ich für Quatsch, es wurde anhand von Patches von AMD-Ingenieuren für Software (ich glaube es war Linux oder ein Compiler) schon quasi bestätigt, dass Zen "nur" 4-wide ist und die L1 Caches wohl auch nur 32 KB klein sind. Zen ist nach bisherigen Infos nicht auf brachiale IPC, sondern auf ein optimales Verhältnis von IPC zu Fläche/Verbrauch ausgelegt, daher "nur" 4-wide, nur 2 AGUs, 32KB L1 Caches, 128-bit FPU pipes.
Bei CPUs skaliert die IPC nicht so linear mit den Ausführungseinheiten wie bei GPUs, wohl aber die Transistorzahl und der Verbrauch. Bzw. steigt die Transistorzahl eher überproportional, weil z.B. der Dekoder ² mit der Breite des Designs skaliert (bei diesen Fake-Specs wäre der Dekoder also mehr als doppelt so groß/komplex (6x6) wie bei 4-wide (4x4)), und die doppelten L1 würden auch doppelt so viel verbrauchen für niedrige 1-stellige Performance-Gewinne (zumal größere L1 wohl auch um mindestens 1 Cycle Latenz langsamer sein müssten, um das Design nicht takt-/verbrauchsmäßig auszubremsen, wodurch dann wieder viel von der gewonnenen IPC verloren ginge).
Die HPC APU klingt als ob jemand die alte Folie mit Zeppelin + Greenland gesehen und falsch interpretiert hätte. 4 TFLOPs SP wären definitiv zu wenig für HPC, und 16 Kerne ohne L3 klingt auch merkwürdig.
Also ich glaube diese Specs erst, wenn AMD selbst sie so rausgeben.
Wieso kleinerer L2-Cache? Ist doch jeweils 512kB pro Core.
Ach sorry, ja sind ja nur die Hälfte der Cores ;)
Da frage ich mich schon fast, wer davon eigentlich die Zielgruppe ist. Wer sich einen Highend-PC hinstellt, greift schließlich sowieso so einer dGPU, da wäre die iGPU mit dem HBM-Speicher ziemlich vergeudet.
In der Roadmap stand sie mal als HPC-APU drin. Also dicke Numbercrunsher-Anwendungen im professionellen Bereich, GPGPU halt.
Die 16 Kern APU ist kein MCM, sondern ein Interposerdesign, welches laut den Daten auch 8GB HBM verbaut hat für die GPU und nur 4 DDR4-Speicherkanäle. L3 Cache bei APUs macht kaum Sinn.
Bei APUs auf einem Die ja, aber nicht bei 2 seperaten Designs.
Den Interposer gibts, aber auch nur für die GPU. Es macht doch noch weniger Sinn erstens ein extra Die für nen 16(!) core aufzulegen und zweitens einen neuen Interposer zu konstruieren, wenn man beides schon im Regal hat. Da wird einfach der passende Polaris-HBM-Chip - den man auch einzeln auf Grafikkarten verkauft - zusammen mit dem üblichen 16core Die, welches im Doppelpack in den 32C-Sockel wandert, in einem Gehäuse integriert. PCIe und Hypertransport wollte AMD schon vor Jahren umschaltbar machen, ergo wird das jetzt sicherlich funktionieren.
Oder anders gesagt, statt eines zweiten 16Core Dies bekommt der Chip halt einen GPU-Interposer mit ins Gehäuse.
@reaperrr:
Ja, aber die Compiler-Patches kann man auch nicht für 100% nehmen, das wäre also kein finales Gegenargument. Zumindest bei den Cachegrößen könnte es Unterschiede geben. Die Pipelinebeschreibungen sollten allerdings stimmen, in dem Fall wär "6way" ebenfalls fraglich. Zen ist je nach Sichtweise entweder 4way oder 8 way, aber nicht 6way. Das gabs nur einmal auf den gefälschten Folien bei P3D letztes Jahr.
Ravenhearth
2016-02-12, 15:30:48
Zen ist je nach Sichtweise entweder 4way oder 8 way, aber nicht 6way. Das gabs nur einmal auf den gefälschten Folien bei P3D letztes Jahr.
Deckt sich die gefälschte Folie denn nicht mit der Compiler-Angabe? Da war schlicht von 6 Integer-Pipelines die Rede und Zen scheint ja auch 4 ALUs + 2 AGUs zu haben, dazu halt FP.
Deckt sich die gefälschte Folie denn nicht mit der Compiler-Angabe? Da war schlicht von 6 Integer-Pipelines die Rede und Zen scheint ja auch 4 ALUs + 2 AGUs zu haben, dazu halt FP.
Ne AGUs rechnet man nicht mit. Wenns danach ginge, dann wär schon der K7 "6way" gewesen ^^
fondness
2016-02-12, 16:40:49
Kein L3-Cache wird nicht passieren. Bei einem inklusiven Cache-Design kann man nicht einfach so eine Cache-Ebene streichen.
Ravenhearth
2016-02-12, 17:35:31
Ne AGUs rechnet man nicht mit. Wenns danach ginge, dann wär schon der K7 "6way" gewesen ^^
AMD schon. Bulldozer und Nachfolger haben auch nur 2 ALUs + 2 AGUs je Integer-"Kern" und AMD schreibt einfach 4 "Pipelines" auf die Folien mit den Blockdiagrammen. Mit dieser Zählweise widersprechen auch die gefälschten Folien den Compiler-Infos nicht.
AMD schon. Bulldozer und Nachfolger haben auch nur 2 ALUs + 2 AGUs je Integer-"Kern" und AMD schreibt einfach 4 "Pipelines" auf die Folien mit den Blockdiagrammen. Mit dieser Zählweise widersprechen auch die gefälschten Folien den Compiler-Infos nicht.
Richtig, sie rechnen es als Pipe, aber nicht als "way". Die angebliche Info schreibt aber 6way. Jemand der an solche Infos kommt, sollte den Unterschied kennen.
Jemand der sie fälscht hat dagegen höchstwahrscheinlich keine Ahnung ^^
AnarchX
2016-02-12, 19:30:16
So wie ich das verstanden habe kommt HBM2 nur dann zum Einsatz wenn da auch ne GPU drauf sitzt. :confused:
Bei CPUs würde es doch auch Sinn machen. Das Pinout für 1024-Bit HBM sollte doch bei einem 8C-Die kein Problem sein und man könnte die CPU auch ohne Interposer/HBM verkaufen.
AMD sollte diese Know-How kombinieren.
Bei CPUs würde es doch auch Sinn machen. Das Pinout für 1024-Bit HBM sollte doch bei einem 8C-Die kein Problem sein und man könnte die CPU auch ohne Interposer/HBM verkaufen.
AMD sollte diese Know-How kombinieren.
Das Pinout nicht, aber du bräuchtest auch noch nen komplett anderen Speicherkontroller. Das würde sich bei AMDs Marktvolumen vermutlich nicht rechnen.
AnarchX
2016-02-12, 19:49:41
Das Pinout nicht, aber du bräuchtest auch noch nen komplett anderen Speicherkontroller. Das würde sich bei AMDs Marktvolumen vermutlich nicht rechnen.
Zusätzlich wie es IBM schon lange macht oder auch Intel mit Crystalwell mittlerweile im Endkundensegment. Ob man es dann nutzt, ist eine andere Frage. Die GDDR5M-Fähigkeiten konnte AMD ja auch nie nutzen.;D
Zusätzlich wie es IBM schon lange macht oder auch Intel mit Crystalwell mittlerweile im Endkundensegment. Ob man es dann nutzt, ist eine andere Frage. Die GDDR5M-Fähigkeiten konnte AMD ja auch nie nutzen.;D
Hmm ok ... Crystalwell zwackt dafür L3-Segmente ab. Das ginge bei AMD vielleicht sogar auch, wenn mans im Design von Anfang an berücksichtigen würde. Natürlich wieder auf Kosten der L3-Größe. Aber: Die Zugriffszeit würde dadurch nicht besser werden, HBM taktet doch relativ niedrig. Deshalb ists ja ggü. GDDR5 so stromsparend. Ok wäre nur ein L4 ... müsste man halt abwägen, ob es was bringt, oder nicht.
Locuza
2016-02-12, 21:56:23
Seit Skylake kostet der eDRAM kein LLC-Volumen mehr.
http://www.anandtech.com/show/9582/intel-skylake-mobile-desktop-launch-architecture-analysis/5
Ich bin gespannt darauf, wie AMD in Zukunft ihre APUs verbessern möchte.
Ich persönlich habe keine Ahnung, woher die Vorstellung mit HBM als Cache-Configuration kommt.
Halte ich für unwahrscheinlich.
Hübie
2016-02-12, 23:19:25
Du meinst fürs tagging kein "Volumen" (unpassender Begriff)?
Cache als solcher ist latenzkritisch. Das schließt sich mit HBM also schon aus, da Bandbreite pro Sekunde beim Cache weniger wichtig ist, als Zugriffe pro Sekunde.
Ich kann mir aber gut vorstellen, dass für bestimmte Zugriffe der HBM als onpackage DRAM Daten schneller vorhalten kann als offchip-Lösungen (konventioneller DRAM). Wird wohl im Zuge von HSA und gemeinsamen Adressraum möglich sein (nur wie:confused:).
Nightspider
2016-02-13, 01:32:16
Wobei L1 und L2 deutlich latenzkritischer sind.
L3 könnte sich durchaus bis zu einem gewissen Grad durch HBM ablösen lassen.
HBM könnte eben viel mehr Daten vorhalten als ein winziger L3 Cache.
Den L3 aus dem RAM zu füttern kostet schließlich auch Zeit. Die Daten liegen dann einfach schon incl. fetter Bandbreite im HBM vor.
L3 hat ja auch schon deutlich höhere Latenzen als L1 und L2 und eDRAM bringt trotz noch größerer Latenzen (ähnliche wie RAM) einen deutlichen Vorteil in einigen Anwendungen. Wenn HBM dann nochmal 5*höhere Bandbreite hat als eDRAM könnte das schon gut etwas bringen.
Alphatier meinte zwar das man nicht einfach HBM als Cache verwenden könnte aber vllt gibts da speziellere HBM Varianten 2017 für solche Anwendungsfälle bzw. die APUs haben spezielle Anpassungen.
Da stochere ich dann aber auch im Trüben mit meinem Wissen.
z3ck3
2016-02-13, 02:11:51
Bei 16GB HBM bräuchte man gar keinen DDR4 Arbeitsspeicher mehr. Aber mit der iGPU kann man auch dann wenig anfangen. Und ohne iGPU kein HBM. HBM seh ich nur bei HPC Opterons und vielleicht bei "Highend" APUs. Teure APUs die keiner braucht. ^^
Ravenhearth
2016-02-13, 03:52:54
Richtig, sie rechnen es als Pipe, aber nicht als "way". Die angebliche Info schreibt aber 6way. Jemand der an solche Infos kommt, sollte den Unterschied kennen.
Jemand der sie fälscht hat dagegen höchstwahrscheinlich keine Ahnung ^^
Auf den gefälschten Folien war allerdings niemals von 6-way die Rede, da standen nur die 6 Pipelines drauf :D
Complicated
2016-02-13, 08:21:15
Den Interposer gibts, aber auch nur für die GPU.
Wie kommst du darauf?
Bei CPUs würde es doch auch Sinn machen. Das Pinout für 1024-Bit HBM sollte doch bei einem 8C-Die kein Problem sein und man könnte die CPU auch ohne Interposer/HBM verkaufen.
AMD sollte diese Know-How kombinieren.
Ein Chip kann entweder im Flip-Chip Verfahren hergestellt werden damit er auf einem Interposer Kopfüber verbaut wird, oder eben auf die konventionelle Art damit er auf einen normalen Träger für einen Sockel kommt.
Welche Packages für Flip-Chips funktionieren ist hier von Amkor ausgeführt:
http://www.amkor.com/go/Flip-Chip-Packaging
Hübie
2016-02-13, 08:29:26
Wobei L1 und L2 deutlich latenzkritischer sind.
L3 könnte sich durchaus bis zu einem gewissen Grad durch HBM ablösen lassen.
HBM könnte eben viel mehr Daten vorhalten als ein winziger L3 Cache.
Den L3 aus dem RAM zu füttern kostet schließlich auch Zeit. Die Daten liegen dann einfach schon incl. fetter Bandbreite im HBM vor.
L3 hat ja auch schon deutlich höhere Latenzen als L1 und L2 und eDRAM bringt trotz noch größerer Latenzen (ähnliche wie RAM) einen deutlichen Vorteil in einigen Anwendungen. Wenn HBM dann nochmal 5*höhere Bandbreite hat als eDRAM könnte das schon gut etwas bringen.
Alphatier meinte zwar das man nicht einfach HBM als Cache verwenden könnte aber vllt gibts da speziellere HBM Varianten 2017 für solche Anwendungsfälle bzw. die APUs haben spezielle Anpassungen.
Da stochere ich dann aber auch im Trüben mit meinem Wissen.
Ich kenne zugegebenermaßen weder die Latenz des eDRAM und HBM, aber ich denke dass HBM (da eine Einheit in der Schicht im Grunde einem DRAM entspricht) da doch doppelt so lange für read / write / refresh benötigt. Ich schaue nachher mal was L3$ im SB-E für Latenzen raushaut.
fondness
2016-02-13, 09:57:36
Was ist eigentlich der Maximalausbau an Kernen, den Intel pro Sockel im Serversegment bietet?
Hübie
2016-02-13, 09:58:19
18 Kerne, 36 Threads.
fondness
2016-02-13, 10:03:49
Danke, sehe gerade Broadwell-EX kommt mit bis zu 24 Kernen. Auf jeden Fall hat da AMD mit 32 mehr als genug.
AnarchX
2016-02-13, 10:46:24
Ein Chip kann entweder im Flip-Chip Verfahren hergestellt werden damit er auf einem Interposer Kopfüber verbaut wird, oder eben auf die konventionelle Art damit er auf einen normalen Träger für einen Sockel kommt.
Da verwechselst du etwas, Flipchip wird nahezu von jedem aktuellen Chip genutzt. Wie sollte man auch sonst einige tausend Pins nach außen führen.
Mit Interposern kann man halt noch kleinere Kontaktpunkte (Bumps) verwenden. Und AMD hat ja bei Ihrem "Way to HBM" gezeigt, dass man auch herkömmliche GDDR-GPUs auf einen Interposer packen kann.
Complicated
2016-02-13, 10:50:02
@AnarchX
Ja ist mir eben beim recherchieren auch aufgefallen. Danke für den Hinweis.
Es war keine Verwechslung, doch ich ging von wirebonding als Standard aus, was sich von mir unbemerkt schon geändert hatte vor einigen Jahren.
y33H@
2016-02-13, 11:08:40
Danke, sehe gerade Broadwell-EX kommt mit bis zu 24 Kernen. Auf jeden Fall hat da AMD mit 32 mehr als genug.Die Zen-basierten Opterons könnten zeitlich zwischen Broadwell-EP/EX (24C) und Skylake-EP/EX (28C) landen.
Hübie
2016-02-13, 11:10:14
Wenn ich es richtig deute hat HBM höhere read als write latencies? :confused: Read=8-33 nCK und write=1-8 nCK :|
Undertaker
2016-02-13, 11:42:00
Danke, sehe gerade Broadwell-EX kommt mit bis zu 24 Kernen. Auf jeden Fall hat da AMD mit 32 mehr als genug.
Ein Vergleich der Kernzahlen nützt nichts, wenn IPC und Takt (der gerade bei diesen Modellen praktisch nur an der Effizienz hängt) noch unbekannt sind. Da können 32 Zen-Kerne bei gleicher TDP konkurrenzlos schnell, in etwa gleichwertig oder hoffnungslos unterlegen sein, wir wissen es einfach nicht. Und ich dachte, spätestens seit dem P4 sind wir vom simplen Zählen einer einzigen Kenngröße abgekommen...
Hübie
2016-02-13, 11:43:17
Da hast du schon Recht, aber wenn etwas gut parallelisierbar ist, wäre dies die wichtige Kenngröße.
Knuddelbearli
2016-02-13, 11:55:21
Intel i7-4770 (Haswell), 3.4 GHz (Turbo Boost off), 22 nm. RAM: 32 GB (PC3-12800 cl11 cr2).
L1 Data Cache Latency = 4 cycles for simple access via pointer
L1 Data Cache Latency = 5 cycles for access with complex address calculation (size_t n, *p; n = p[n]).
L2 Cache Latency = 12 cycles
L3 Cache Latency = 36 cycles
RAM Latency = 36 cycles + 57 ns
. .
Der_Korken
2016-02-13, 12:01:44
Wobei L1 und L2 deutlich latenzkritischer sind.
L3 könnte sich durchaus bis zu einem gewissen Grad durch HBM ablösen lassen.
HBM könnte eben viel mehr Daten vorhalten als ein winziger L3 Cache.
Den L3 aus dem RAM zu füttern kostet schließlich auch Zeit. Die Daten liegen dann einfach schon incl. fetter Bandbreite im HBM vor.
Es kann sein, dass man nicht jeden Speicher einfach als Cache verwenden kann. Ein Cache ist erheblich kleiner als der maximale Adressraum, d.h. jedes Cache-Element braucht nicht nur den Wert, den es speichert, sondern auch die Information, welche Speicheradresse eigentlich an genau dieser Stelle gecached liegt (heißt glaube ich "tag"). Sowas müsste der verwendete HBM-Speicher samt Logik dahinter unterstützen. Vielleicht ist das leicht gemacht, aber wenn jemand sagt, das ginge nicht so leicht, glaube ich das gern.
fondness
2016-02-13, 12:19:04
Und ich dachte, spätestens seit dem P4 sind wir vom simplen Zählen einer einzigen Kenngröße abgekommen...
Entschuldigung das ich die Kernanzahl wissen wollte, eure Hoheit.
Da hast du schon Recht, aber wenn etwas gut parallelisierbar ist, wäre dies die wichtige Kenngröße.
Im weiten Bereichen des Servermaktes ist Parallelisierung kein Problem, denn genau für solche gut parallelisierbaren Aufgaben hat man Server. Daher sind mehr Kerne natürlich ein Vorteil, sonst würde die Hersteller auch nicht so viele wie möglich verbauen. Das macht alleine schon Sinn, da man dadurch den Takt senken kann und damit die Effizienz steigern.
Undertaker
2016-02-13, 12:36:14
Da hast du schon Recht, aber wenn etwas gut parallelisierbar ist, wäre dies die wichtige Kenngröße.
Vorhandene Parallelisierung setze ich natürlich zwingend voraus, sonst machen diese CPUs ohnehin keinen Sinn. ;) Es sollte sich nur langsam einmal durchsetzen, dass x Kerne vom Typ A nicht gleich x Kernen vom Typ B sein müssen, wenn ansonsten jegliche Informationen fehlen. Dafür muss man nicht einmal ins ARM-Segment schielen, wo mancher Apple 2-Kerner die meisten 8-Kerner in Grund und Boden dominiert – und das auch bei Multithreading.
fondness
2016-02-13, 12:53:22
Es sollte sich nur langsam einmal durchsetzen, dass x Kerne vom Typ A nicht gleich x Kernen vom Typ B sein müssen, wenn ansonsten jegliche Informationen fehlen. Dafür muss man nicht einmal ins ARM-Segment schielen, wo mancher Apple 2-Kerner die meisten 8-Kerner in Grund und Boden dominiert – und das auch bei Multithreading.
Das hat niemand behauptet, nur du musst dich wieder mal künstlich aufblasen. Die Kernanzahl ist eben die erste halbwegs gesicherte Information, die wir haben.
Hübie
2016-02-13, 13:25:38
Der Vergleich mit Apple hinkt an einigen Ecken, aber ich denke jeder weiß wie was gemeint ist, also sparen wir es uns weiter OT zu sein. :smile:
Nach wie vor blicke ich optimistisch in AMDs Zukunft.
Nightspider
2016-02-13, 14:37:13
Ich kenne zugegebenermaßen weder die Latenz des eDRAM und HBM, aber ich denke dass HBM (da eine Einheit in der Schicht im Grunde einem DRAM entspricht) da doch doppelt so lange für read / write / refresh benötigt. Ich schaue nachher mal was L3$ im SB-E für Latenzen raushaut.
Hier hatten wir vor einigen Seiten auch schon mal drüber diskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10919649#post10919649
Viel zu langsam scheint HBM definitiv nicht zu sein und spielt wohl sogar in einer etwas schnelleren Liga als Intels eDRAM (L4).
Windi
2016-02-13, 16:12:07
Das viele über APUs mit HBM Speicher reden ist vielleicht auch einfach wunschdenken.
AMD hat einfach das Problem, das die Hersteller ihre Prozessoren absolut grottig verbauen.
Die beste APU nützt nichts, wenn man nur langsam getakteten Singelchannel Arbeitsspeicher verbaut.
Bei fest verlöteten 8 - 16GB HBM Speicher können die Hersteller nicht mehr viel falsch machen. Wahrscheinlich wäre es aber zu teuer.
Wenn man nun etwas HBM Speicher als Cache nutzt, dann bleiben die Kosten hoffentlich im Rahmen. Und es wäre wohl nicht mehr so katastrophal, wenn nur singelchannel DDR4 verbaut würde.
Aber nichts genaues weiß man nicht.
Da muss man wohl auf AMD warten und hoffen.
Kriton
2016-02-13, 16:22:36
Es kann sein, dass man nicht jeden Speicher einfach als Cache verwenden kann. Ein Cache ist erheblich kleiner als der maximale Adressraum, d.h. jedes Cache-Element braucht nicht nur den Wert, den es speichert, sondern auch die Information, welche Speicheradresse eigentlich an genau dieser Stelle gecached liegt (heißt glaube ich "tag"). Sowas müsste der verwendete HBM-Speicher samt Logik dahinter unterstützen. Vielleicht ist das leicht gemacht, aber wenn jemand sagt, das ginge nicht so leicht, glaube ich das gern.
Das verstehe ich nicht. Der HBM wäre ja bereits der maximale Adressraum (abgesehen davon wie HSA das regelt, da habe ich keine Ahnung), warum dann noch ein tag?
Das hat niemand behauptet, nur du musst dich wieder mal künstlich aufblasen. Die Kernanzahl ist eben die erste halbwegs gesicherte Information, die wir haben.
Ganz ruhig :wink:
Seine Aussagen waren nun wirklich nicht wild.
Der_Korken
2016-02-13, 16:41:57
Das verstehe ich nicht. Der HBM wäre ja bereits der maximale Adressraum (abgesehen davon wie HSA das regelt, da habe ich keine Ahnung), warum dann noch ein tag?
Ich dachte wir reden hier von CPU-Caches? Der Adressraum ist dann bei physikalischen Adressen das, was die CPU maximal ansprechen kann. Im Extremfall muss man von 64bit ausgehen.
Knuddelbearli
2016-02-13, 16:46:48
Weiss man den was 8-16gb HBM den ca kosten?
finde schon das das Sinn ergibt den da spart man dann schon einiges an Kosten am Mainboard ( und natürlich Speicher )
Kriton
2016-02-13, 16:49:07
Ich dachte wir reden hier von CPU-Caches? Der Adressraum ist dann bei physikalischen Adressen das, was die CPU maximal ansprechen kann. Im Extremfall muss man von 64bit ausgehen.
Vielleicht verstehe ich etwas falsch, aber ich dachte es ging darum, dass der HBM den L3-Cache praktisch überflüssig macht?
Wenn man natürlich zusätzlichen Hauptspeicher auf DDR4-Basis einbauen würde, wäre mir klar was Du meinst. Wobei mich dann interessieren würde, ob ein tag unter Verwendung von HSA noch notwendig wäre, oder das über die Speicherverwaltung als solcher läuft.
Der_Korken
2016-02-13, 16:52:37
Vielleicht verstehe ich etwas falsch, aber ich dachte es ging darum, dass der HBM den L3-Cache praktisch überflüssig macht?
Wenn man natürlich zusätzlichen Hauptspeicher auf DDR4-Basis einbauen würde, wäre mir klar was Du meinst. Wobei mich dann interessieren würde, ob ein tag unter Verwendung von HSA noch notwendig wäre, oder das über die Speicherverwaltung als solcher läuft.
OK, jetzt verstehe ich den Einwand. Allerdings würde der HBM dann nicht nur den L3-Cache ersetzen, sondern auch den ganzen RAM ersetzen, denn zusätzlicher DDR4-Speicher ließe sich nicht sinnvoll parallel betreiben.
Windi
2016-02-13, 17:08:54
Ich glaube HBM Speicher ist dafür noch zu teuer.
Dieses Jahr werden nur die teuersten Highend Karten HBM bekommen.
Selbst 2017 wird HBM wohl noch nicht im Mainstream ankommen. Bis sich HBM wirklich vom Lowend bis zum Highend durchgesetzt hat wird es wohl noch eine Weile dauern.
Genau deshalb gibt es ja auch GDDR5x.
Eine APU mit 16GB HBM ist in naher Zukunft wohl viel zu teuer.
Aber ein einziger Stack HBM-Speicher dürfte die Bandbreite genügend aufbohren, damit die Hersteller problemlos Singelchannel DDR4 verbauen könnten.
Complicated
2016-02-13, 18:15:54
Bei fest verlöteten 8 - 16GB HBM Speicher können die Hersteller nicht mehr viel falsch machen. Wahrscheinlich wäre es aber zu teuer.
Hier stellt sich die Frage ob das Gesamtdesign für den Hersteller nicht sogar günstiger kommt unterm Strich. Ein Mainboard auf dem keine Anbindung für DDR und auch keine Slots dafür benötigt werden. Keine Evaluierung von dutzenden verschiedenen Speicherriegeln und Kompatibilitätslisten - das alles ist OnChip wie bei Fury und lässt kleinere Formfaktoren zu, wo ja gerade der Lowend hin will. AMD hat nicht umsonst eine Speicher-Sparte ins Leben gerufen unter dem Radeon Brand. In Mobilen Geräten der Notebookklasse könnte es sogar noch schneller günstiger sein und vor allem Platz schaffen in den Chassis.
Allerdings würde der HBM dann nicht nur den L3-Cache ersetzen, sondern auch den ganzen RAM ersetzen, denn zusätzlicher DDR4-Speicher ließe sich nicht sinnvoll parallel betreiben.Warum nicht? Intel macht das selbe mit langsamerem eDRAM und nennt es LLC (Last Level Cache). Schon die 2. Generation.
Knuddelbearli
2016-02-13, 18:39:19
Ich glaube HBM Speicher ist dafür noch zu teuer.
Dieses Jahr werden nur die teuersten Highend Karten HBM bekommen.
Selbst 2017 wird HBM wohl noch nicht im Mainstream ankommen. Bis sich HBM wirklich vom Lowend bis zum Highend durchgesetzt hat wird es wohl noch eine Weile dauern.
Genau deshalb gibt es ja auch GDDR5x.
Eine APU mit 16GB HBM ist in naher Zukunft wohl viel zu teuer.
Aber ein einziger Stack HBM-Speicher dürfte die Bandbreite genügend aufbohren, damit die Hersteller problemlos Singelchannel DDR4 verbauen könnten.
Naja der HBM muss ja nicht umbedingt das teure aktuell sein. Sondern das ganze drum herum. und da ist dann fast egal welche Stapelgröße man nimmt.
Dazu ist HBM + DDR halt wieder mehr Aufwand auch auf Software Seite
Der_Korken
2016-02-13, 19:19:09
Warum nicht? Intel macht das selbe mit langsamerem eDRAM und nennt es LLC (Last Level Cache). Schon die 2. Generation.
Ja Moment. Entweder ist der eDRAM ein Cache oder Teil des Hauptspeichers. Falls ersteres, dann muss er getagged sein, wie jeder andere Cache auch. Falls er Teil des Hauptspeichers ist, dann könnte man ihn auch explizit ansprechen. Das wäre aber in meinen Augen ziemlich verkorkst, weil ich dann zwei Speicherbereiche hätte, die zwar beides RAM sind, aber unterschiedlich schnell. Da das Betriebssystem den Speicher verwaltet, kann ich als Programmierer einer Anwendung gar nicht steuern, was in den schnellen und was in den langsamen RAM kommt (abgesehen davon, dass ich mir als Programmierer über sowas überhaupt Gedanken machen müsste). Klärt mich auf, wenn ich falsch liege, aber ich kann mir nicht vorstellen, dass Intel/AMD so ein System konstruieren würden.
Complicated
2016-02-13, 20:34:53
Also dass Programmierer sich keinen Gedanken über Speicherbereiche machen müssen ist mit HSA abgedeckt. Das Unified Memory Modell fordert da keinen Programmieraufwand. Auch gibt es das schon lange in Multisockel-Systemen, dass CPUs auf Speicher einer anderen CPU zugreifen können der langsamer angebunden ist und höhere Latenz hat. NUMA: https://de.wikipedia.org/wiki/Non-Uniform_Memory_Access
Kriton
2016-02-14, 12:48:49
OK, jetzt verstehe ich den Einwand. Allerdings würde der HBM dann nicht nur den L3-Cache ersetzen, sondern auch den ganzen RAM ersetzen
Genau das war mein Gedanke.
Ich glaube HBM Speicher ist dafür noch zu teuer.
Dieses Jahr werden nur die teuersten Highend Karten HBM bekommen.
Selbst 2017 wird HBM wohl noch nicht im Mainstream ankommen. Bis sich HBM wirklich vom Lowend bis zum Highend durchgesetzt hat wird es wohl noch eine Weile dauern.
Genau deshalb gibt es ja auch GDDR5x.
Eine APU mit 16GB HBM ist in naher Zukunft wohl viel zu teuer.
Aber ein einziger Stack HBM-Speicher dürfte die Bandbreite genügend aufbohren, damit die Hersteller problemlos Singelchannel DDR4 verbauen könnten.
Ich denke, dass könnte AMD gerade durchaus helfen, weil dann (wie bei Grafikkartenreferenzdesigns) mehr Umsatz und Gewinn bei ihnen übrig bleiben dürfte. Außerdem dürften sie andere Einkaufskonditionen haben. Bei der dadurch größeren Menge auch noch einmal bessere, was sich auch bei den Grafikkarten auszahlen sollte.
Knuddelbearli
2016-02-14, 13:22:26
ob wohl mittelfristig auch was Xeon Phi mäßiges kommen wird?
Complicated
2016-02-14, 13:47:58
Selbst 2017 wird HBM wohl noch nicht im Mainstream ankommen. Bis sich HBM wirklich vom Lowend bis zum Highend durchgesetzt hat wird es wohl noch eine Weile dauern.
Genau deshalb gibt es ja auch GDDR5x.
Hier gibt es nur einen Unterschied zu allen vorangegangenen Speichertechniken: Die OEMs entscheiden nicht mehr was verbaut wir, sondern der GPU-Hersteller. Waren zuvor die SIs kompatibel auch zu DDR3, so bestimmt nun das Chipdesign welcher Speicher verbaut wird und auch die Speichermenge ist schon onBoard. OEMs können hier nicht mehr diversifizieren.
Wenn man bedenkt, dass das SI für 1024 bit HBM Anbindung nur wenig größer ist als das SI für 64 bit GDDR5 Anbindung, so entsteht schon ab 128-bit GDDR5 SI ein doppelt so großer Platzbedarf auf dem GPU-Die. Durchaus möglich, dass der Platz auf 14nm-Dies teuer genug ist, damit er die Mehrkosten durch HBM ausgleicht in der Flächeneinsparung. Zumindest in der 256-Bit GDDR5 Klasse aktueller GPUs könnte schon HBM rentabel werden, selbst wenn nur ein 4 GB Stack HBM2 verbaut wird, da das SI nur 1/4 der Fläche auf dem GPU Die benötigt. Auch die Interposer Fertigung wird günstiger je mehr man fertigt. Ich bin gespannt wo der wirtschaftliche Balance-Punkt sein wird.
Flusher
2016-02-22, 16:55:46
Im P3D Forum hat jemand einen Athlon X4 845 (Excavator auf FM2+) durchgebencht - sieht sehr vernünftig aus!
http://www.planet3dnow.de/vbulletin/threads/419036-Carrizo-volles-HSA-UVD6-VCE3-1-ACP2-HDMI-2-0-und-SOC-aber-immernoch-DDR3?p=5072214&viewfull=1#post5072214
Hübie
2016-02-22, 17:03:37
Leider völlig ohne Vergleiche und nur SuperPI. Toll :freak: Da ist mir eine Fakefolie lieber...
Lies halt mal weiter, da sind auch Cinebench Werte
Hübie
2016-02-22, 17:24:38
Ebenfalls ohne Vergleichswerte. Nutzlos.
robbitop
2016-02-22, 18:48:21
Cinebench und SuperPI. :(
Spieleperformance inkl. Vergleich wäre interessant.
w0mbat
2016-02-22, 19:50:46
Sieht echt ziemlich gut aus, vor allem ohne L3 und mit halbiertem L2. Wenn Zen auf den IPC +40% drauflegt wird das gut werden!
Achill
2016-02-22, 20:01:14
Sieht echt ziemlich gut aus, vor allem ohne L3 und mit halbiertem L2. Wenn Zen auf den IPC +40% drauflegt wird das gut werden!
Ja, leider ist Zen aber eine komplett neue Architektur - was man hoffen / ableiten könnte für Zen, das die Design-Schwächen bei BD erkannt wurden (siehe Verbesserungen bis jetzige Excavator Ergebnisse) und damit bei Zen auch mit eingeflossen/berücksichtigt wurden.
Noch gibt es zu wenig Benchmarks und leider kann ich überhaupt nicht einschätzen wie Lange es gedauert hätte (ohne Pause / gute Verfügbarkeit von Geldmittlen/Personal), um von BD zu Excavator zu kommen - aber diese Architektur/Effizienz (+L3) hätte man zum Zeitpunkt von Piledriver gebraucht.
robbitop
2016-02-22, 20:37:47
Schön wären mal ein paar Vergleichsmessungen mit Spielen ggü K10, Trinity, Kaveri und ein paar Intel Cores.
Ein FX8150 mit Excavator Cores + höher getakteter NB wäre 2011 sicherlich genug gewesen, um halbwegs konkurrenzfähig zu Sandy zu sein.
Flusher
2016-02-22, 23:40:19
Ebenfalls ohne Vergleichswerte. Nutzlos.
SuperPI Werte sind für verschiedene CPUs problemlos vorhanden und Cinebench liefert Vergleichswerte direkt mit - was ist daran nutzlos?
Schön wären mal ein paar Vergleichsmessungen mit Spielen ggü K10, Trinity, Kaveri und ein paar Intel Cores.
Ein FX8150 mit Excavator Cores + höher getakteter NB wäre 2011 sicherlich genug gewesen, um halbwegs konkurrenzfähig zu Sandy zu sein.
Guckt man sich heutige Benchmarks an (beispielsweise in der PCGH) schneidet Vishi gar nicht mal so schlecht ab wie man denken könnte. Mich wundert immer wieder, dass Vishi gut mit Sandy (2600k) mithalten kann bei heutigen Anwendungen und auch in überraschend vielen neuen Spielen. Natürlich gibt es krasse Ausreißer nach unten, die gabs aber bei allen AMD-CPUs. Vishi ist allerdings eindeutig Sandy-Bridge-Generation. Das ist natürlich heute nicht mehr Konkurrenzfähig. Meiner Ansicht nach hätte ein 28nm SR-Quadmoduler bei Haswell durchaus mitspielen können, aber daraus wurde ja nichts.
Knuddelbearli
2016-02-23, 11:44:54
Das war doch von vornherein klar. Heutige Spiele können einen I7 gut Auslasten ( also 8 Threads ) nur sind 4+4 CMT halt besser als 4+4 SMT. Als Sandy rauskam nutzen die meisten Spiele aber nur 2 Threads, allerhöchstens mal 4 Threads.
beim Thuban ( Phenom II x6 ) war es ja ähnlich, heute zieht der jeden Q9550 ab.
Da wo Bulldozer abkackt sind das ja fast immer Spiele mit wenigen Threads.
Bei AMD hat man ihmo nie das beste dafür hält es verdammt lange. zB auch bei den GPUs eine 290X zieht heute öfters eine 780TI ab, oder früher die 5850/5870 oder 4870 usw usf. Für uns Kunden ist das super, für AMD aber natürlich schlecht. Marktanteil beim Besitz mag zwar zB 30:70 sein bei GPU. Aber NV Käufer wechseln einfach öfters die Karte wodurch es beim Verkauf eher 20:80 ist
Und wieso sollte ein Sandy nicht mehr Konkurrenzfähig sein? oO
*streichelt seinen 5Gz I7 2600K*
Duplex
2016-02-23, 13:29:27
Und wieso sollte ein Sandy nicht mehr Konkurrenzfähig sein? oO
*streichelt seinen 5Gz I7 2600K*
Ich wette das mein 2700k @5Ghz im Durchschnitt noch besser als ZEN 4C/8T abschneiden wird, so lange hatte ich wirklich noch keine CPU :biggrin:
Von solchen Ergebnissen kann AMD nur träumen http://www.abload.de/image.php?img=superpim6ji1.jpg
Knuddelbearli
2016-02-23, 13:35:42
Super Pi war schon immer Intel Domäne selbst zu P4 Zeiten
Und Sandy lies sich halt echt gut OCen Vergleich das aber mal mit den aktuellen CPUs ... Standardtakt doch ein ganzes Stück gestiegen OC Takt aber sogar gesunken ...
Duplex
2016-02-23, 13:50:20
Bei ZEN müssen die FPS in Games stimmen, natürlich in jeder Situation.
Bulldozer war fast in jeder Situation schwach, Winrar Test bringen nichts...
Sind die 4 ALUs + 2 AGUs jetzt gesichert oder handelt es sich doch um ein 3 ALU + 3 AGU Design ?
w0mbat
2016-02-23, 14:02:40
Ich wette das mein 2700k @5Ghz im Durchschnitt noch besser als ZEN 4C/8T abschneiden wird, so lange hatte ich wirklich noch keine CPU :biggrin:
Von solchen Ergebnissen kann AMD nur träumen http://www.abload.de/image.php?img=superpim6ji1.jpg
2700k@5GHz vs Zen@? Oder ist deine Wette wertlos?
deekey777
2016-02-23, 14:16:55
Im P3D Forum hat jemand einen Athlon X4 845 (Excavator auf FM2+) durchgebencht - sieht sehr vernünftig aus!
http://www.planet3dnow.de/vbulletin/threads/419036-Carrizo-volles-HSA-UVD6-VCE3-1-ACP2-HDMI-2-0-und-SOC-aber-immernoch-DDR3?p=5072214&viewfull=1#post5072214
Es gibt doch einen Carrizo-Thread.
Screemer
2016-02-23, 15:04:37
2700k@5GHz vs Zen@? Oder ist deine Wette wertlos?
noch besser 1,55v
N0Thing
2016-02-23, 15:07:41
Ich wette das mein 2700k @5Ghz im Durchschnitt noch besser als ZEN 4C/8T abschneiden wird, so lange hatte ich wirklich noch keine CPU :biggrin:
Von solchen Ergebnissen kann AMD nur träumen http://www.abload.de/image.php?img=superpim6ji1.jpg
Von solchen Ergebnissen träumen alle, auch Sandy Bridge Besitzer, wenn man mal bedenkt, dass der Durchschnitt afaik bei 4,5GHz OC liegt.
Knuddelbearli
2016-02-23, 18:09:13
also mit spannungskeule und wakü sind die 5ghz recht einfach erreichbar bei sandy
meiner ist zumindest kein besonders guter
Von wo hast die 4,5GHz her? Sicher von einer Umfrage wie hoch habt ihren euren Sandy übertakten. wo auch Leute mitmachen die ihn nur bei Standardspannung übertakten
w0mbat
2016-02-23, 18:23:01
Interessant, aber OT.
Nakai
2016-02-23, 18:42:01
Bei ZEN müssen die FPS in Games stimmen, natürlich in jeder Situation.
Bulldozer war fast in jeder Situation schwach, Winrar Test bringen nichts...
Sind die 4 ALUs + 2 AGUs jetzt gesichert oder handelt es sich doch um ein 3 ALU + 3 AGU Design ?
Ziemlich sicher.
Das Design ist darauf ausgelegt 4x64Bit Werte zu verarbeiten. Jeweils 4 64Bit ALUs und FPUs und eben 256Bit Read und 128 Bit Write (an den L1-Cache).
Man sollte erstmal Benches abwarten. Bulldozer hatte bei deutlich weniger Ausführungsressourcen auch diese Anbindung an den L1-Cache.
Intel hat zwar eine deutlich größere Anzahl an AGUs (4 Stück mittlerweile), dann kann aber nicht jede AGU Read und Write. Auch ist diese Bandbreite doppelt so hoch, also 512 Bit Read und 256 Bit Write. Diese wird auch benötigt, da Intel fette FPUs hat. Die müssen auch gefüttert werden.
Zen braucht das alles nicht bzw. das ist nicht das Designziel. Die Kerne haben gute INT-Resssourcen und passable FPU-Ressourcen. Wenn man mehr will, ab damit in die GPU.
Dadurch wird Zen wohl ein sehr kleiner Kern werden. Mich würde es nicht wundern, wenn ein Zen-Kern (ohne L2) die 5mm² nicht überschreitet.
Korvaun
2016-02-24, 09:29:53
Gibt es eigentlich irgendwo Untersuchungen wie stark die FPU heutiger Prozessoren beispielsweise bei Spielen genutzt wird? Wie stark wird MMX/AVX etc. genutzt? Und wieviel bringt das oder ist es heute nicht besser gleich die GPU zu nutzten für alles was irgendwie sinnvoll ist?
Knuddelbearli
2016-02-24, 21:50:05
AVX in Spielen bezweifle ich mal noch stark. Was ist inzwischen eigentlich der kleinste gemeinsamer Nenner den die, meisten, Spiele nutzen? War ja sicher über ein Jahrzehnt lang SSE2
AVX in Spielen bezweifle ich mal noch stark. Was ist inzwischen eigentlich der kleinste gemeinsamer Nenner den die, meisten, Spiele nutzen? War ja sicher über ein Jahrzehnt lang SSE2
Das wird sich nur im Promillebereich geändert haben, vermutlich wird der Nenner aktuell bei SSE3/SSSE3/SSE4 liegen. Mit Glück vielleicht schon AVX, aber nur in der 128bit-Sparvariante, da die Konsolen-APUs von AMD das haben. Mit mehr würde ich aber nach wie vor nicht rechnen.
Die Frage ist auch, welches Studios überhaupt auf so nem hardwarenahem Niveau optimieren. Eventuell könnten die neuen Programmierschnittstellen Vulkan&DX12 dabei etwas nachhelfen, immerhin muss man sich schon GPU-seitig mit der Hardware auseinandersetzen, vielleicht gibts damit auch etwas besser optimierten CPU-Code.
dargo
2016-02-27, 15:08:04
Was ist inzwischen eigentlich der kleinste gemeinsamer Nenner den die, meisten, Spiele nutzen? War ja sicher über ein Jahrzehnt lang SSE2
AVX "1".
Mit den neuen APIs gehen die Vorteile von AVX aber vollkommen unter. Das wirkt im Vergleich höchstens wie ein kleiner "200Mhz Turbo". :tongue:
AnarchX
2016-02-28, 19:40:29
Bristol Ridge vielleicht schon mit 16 CUs?
www.bitsandchips.it/english/52-english-news/6676-rumor-bristol-bridge-could-have-a-16cu-gpu
Da geht man wohl über 300mm², was unter 28nm verkraftbar sein sollte. Mit >50GB/s und Speicherkompression sollte man da 1024SPs im Sweetspot von ~700-800MHz wohl durchaus füttern können.
Complicated
2016-02-28, 20:14:05
Opteron hat das bei P3D recht gut analysiert:
http://www.planet3dnow.de/cms/22714-indirekter-hinweis-auf-am4-mit-quad-channel-ddr4/
Nun gibt es ein neues Gerücht, das indirekt die AM4-Version stützt. Einer ungenannten Quelle der italienischen Hardwareseite bitsandchips zufolge sollen bei der zusammen mit Zen für den AM4-Sockel angekündigten APU „Bristol Ridge” die Grafikeinheiten verdoppelt werden. Der Sprung von 8 auf 16 Compute Units wäre mit nur zwei Speicherkanälen allerdings ziemlich sinnlos, selbst wenn man die Verbesserung von DDR4-3200 gegenüber DDR3-2133 einrechnet, schließlich werden schon die 8 CUs der aktuellen APUs durch die zweikanalige Speicheranbindung ausgebremst. Mit einem Quad-Channel-Speicherinterface allerdings sähe das Ganze naturgemäß anders aus. Durch den gleichzeitigen Umstieg auf DDR4 würde sich die verfügbare Bandbreite mehr als verdoppeln und läge bei über 100 GB/s, was damit gut zur Verdopplung der Grafikeinheiten passen würde.
Ich denke das ist recht interessant und das würde große Auswirkungen haben wenn ein Quad-Interface tatsächlich möglich wäre für AM4
Complicated
2016-02-28, 20:25:16
Zen braucht das alles nicht bzw. das ist nicht das Designziel. Die Kerne haben gute INT-Resssourcen und passable FPU-Ressourcen. Wenn man mehr will, ab damit in die GPU.
Das finde ich ist ein sehr wichtiger Punkt. Aus technischer Sicht ist das die eleganteste Lösung. Aus der Sicht des Marketings für AMD wohl das größte Problem:
Da wo Benchmarks für den Mainstreammarkt gemessen werden sind die FPU Anforderungen nicht groß genug, als dass auf GPU optimierte Software zum Einsatz kommt. So werden Benchmarks gemessen die das maximale Ergebnis unter FPU-Last einen viel größeren Vorsprung suggerieren als er in der Realität ankommt. Gutes Beispiel Cinebench.
Nutzt Zen GPU Beschleunigung, wird das in keinem Cinebench Test (und einigen ähnlichen beliebten Benchmarks) offensichtlich. Umgesetzt wird die Mehrleistung der Intel-CPUs aus diesem Test auch in keiner Desktop-Anwendung. Doch die Diskussionen um IPC drehen sich dennoch meist um eben diese Ergebnisse. Auch wenn eben überall wo dieses mehr an Floating Leistung benötigt wird die GPU zum Einsatz kommt.
Ich denke hier müssen Tests, die seriös bleiben wollen, einen Mehraufwand in Kauf nehmen mittlerweile, der die genutzte Software genauestens mit beleuchtet.
z3ck3
2016-02-28, 20:56:16
Quadchannel bei APUs, halte ich für reines Wunschdenken. Eine APU ist kein Highend und wird es auch wohl nie sein. Eine APU wird typischerweise bei Notebooks, billigen Desktops und ITX Systemen eingesetzt. Dort ist entweder aus Platzmangel kein Quad Channel Interface möglich, oder aus reinen Kostengründen. Selbst wenn AM4 ein Quad Channel Interface bereitstellen könnte, würden somit 98% der OEM Systeme nur ein Dualchannel haben, und wo im Retailmarkt eine leistungsstarke APU interessant wäre, nämlich bei Mini ITX, da ist es aus Platzgründen nicht machbar.
Somit behaupte ich: AM4 wird Dualchannel sein. Denkbar halte ich nur mittelfristig eine Lösung für das Topmodell der APUs mit HBM für sinnvoll und logisch, auch eDRAM halte ich für eine Option, zumindest als Übergangslösung.
Complicated
2016-02-28, 21:34:32
Ja Opteron beziffert selber die Wahrscheinlichkeit bei 30%, ich halte sie für eher niedriger. Doch ohne dieses Quad-Channel ergeben 16CUs nur auf einer HBM bestückten APU Sinn, wie du ja schon schriebst. Allerdings halte ich eine Interposer-APU (dazu braucht es HBM) für AM4 in dieser Generation noch nicht für wahrscheinlich. AMD hat recht deutlich die Zen-CPUs in den Vordergrund gestellt. APUs mit HBM werden zuerst in den HPC-Markt kommen und erst bei anderen Kostenpunkten in den Mainstream sickern.
fondness
2016-02-28, 21:42:06
Die Wahrscheinlichkeit liegt bei exakt 0.
z3ck3
2016-02-28, 22:34:21
Ich zweifel da auch an einer Verdoppelung der CU. Jedenfalls für Gen 1 Zen. Das wären immerhin 50% einer R9 380X. Alleine aus Marketinggründen so viel Platz zu verschwenden ist irgendwie unlogisch. Vermutlich würde schon Dualchannel DDR4 3200 und eine Anhebung der iGPU Taktfrequenz von 720 auf 900 Mhz schon in 30 - 40% Spiele Mehrperformance enden. Gen 2 Zen könnte dann 1 Stack (4GB, 500Mhz, 128GB/s) HBM2 und 16 CU mitbringen. Jedenfalls für das Flagschiff der APUs. Vielleicht sogar mit gleich zwei Stacks oder 1Ghz Taktfrequenz (256GB/s), dann könnte man sogar 32 CU, also eine vollwertige 380X (192GB/s) unterbringen. Bei 16GB HBM2, 16CU, 500Mhz, 256GB/s kann man dann auch auf den normalen DDR4 RAM verzichten. Derartiges wäre sicherlich für OEMs interessant, vor allem für Spiele Nettops und Notebooks. Für derartige Systeme lohnt sich auch der Mehrpreis für Interposer und HBM.
Ich denke das für OEMs der Preis für das Mainboard und das Kühlsystem und der Aufwand für die Bestückung der Systeme eine wesentlich größere Rolle spielt als der Preis der APUs selbst.
Botcruscher
2016-02-28, 23:11:11
Für eine Gurke die in der nächsten Gen nur noch oberes Lowend ist soll also ein teurer Interposer her und die CPU auf lächerliche 16gig beschränkt werden?
HBM wird nur als L4 interessant wenn die CPUs profitieren und/oder die iGPU als CO-Prozessor für Physik oder sonstiges herhalten.
Quadinterface ist schon durch die Layer und einhergehenden Boardkosten ausgeschlossen.
z3ck3
2016-02-28, 23:42:34
Eine 380X ist auch 2017 noch keine Gurke und für FullHD Gaming ausreichend. Erst recht als iGPU.
25% der Leistung einer 380X ist allerdings 2017 absolut nicht mehr ausreichend, 50% wären Low End. Aktuelle iGPUs bewegen sich im unteren Lowend Bereich. "Oberes Lowend" im Jahr 2017 wäre ein absoluter Fortschritt. AMD muss sich da von Intel absetzen. In dem Bereich wo sie aktuell mit Intel konkurieren, da wären sogar 4CU ausreichend.
Und die Leistung erreicht man nur mit mehr Speicherbandbreite. Wesentlich mehr.
Complicated
2016-02-29, 10:54:26
Vielleicht sogar mit gleich zwei Stacks oder 1Ghz Taktfrequenz (256GB/s), dann könnte man sogar 32 CU, also eine vollwertige 380X (192GB/s) unterbringen.
Dem sind dann eher thermische Grenzen gesetzt. 32 CU benötigten wohl deutlich zu viel TDP bei dieser Geräteklasse.
Botcruscher
2016-02-29, 11:05:27
Was soll in der 16nm Generation ausreichend sein? Die 380 hat einen Leistungsindex von 360. Die nächsten Performancekarten werden nicht unter 1200 aufschlagen. Jeder Euro für die iGPU ist für den überwältigenden Teil der Nutzer pure Geldverbrennung.
AMD braucht genau zwei Dinge für Erfolg: CPU Leistung und Stromverbrauch auf dem Level von Intel.
Complicated
2016-02-29, 11:17:39
Jeder Euro für die iGPU ist für den überwältigenden Teil der Nutzer pure Geldverbrennung.
Der überwältigende Teil der Nutzer spielt auf der IGP. Die meisten sogar auf Intels Produkten.
Ich zweifel da auch an einer Verdoppelung der CU. Jedenfalls für Gen 1 Zen.
Die Rede ist ohnehin von BR (Excavator), also macht es sowieso keinen Sinn.
Bei RR sieht das mglw. anders aus, aber das ist noch lange hin.
Der überwältigende Teil der Nutzer spielt auf der IGP. Die meisten sogar auf Intels Produkten.
Und kannst du den Unsinn auch belegen? :rolleyes:
Fuer Farmville braucht man keine 16 CUs
Die Zen-APU wird sicherlich 16CUs+ haben, mit HBM, weil die Speicherbandbreite schlicht benötigt wird. Kleinere Varianten (OEM-Zeug) dann ohne HBM.
z3ck3
2016-02-29, 12:22:44
"Sicherlich" bestimmt nicht. Es muss preislich auch passen. Wenn man es genau nimmt sind 16CU sowohl zu viel (für Office und Low End) als auch zu wenig (für oberes Low End, Tendenz unteres Performance Segment). Wenn AMD keine preiswerte Lösung für das Bandbreitenproblem hat, dann ist das nur Siliziumverschwendung 1024 Shadereinheiten zur Verfügung zu stellen. Und eine APU über 200 Euro kauft keine Sau, wenn er mit einer 100 Euro Grafikkarte und einer 100 Euro CPU wesentlich mehr Leistung fürs Geld erhält (und man sich auch noch teureren Ram sparen kann)
Ich finde übrigens nirgens irgendwelche Zahlen zu HBM Preisen und den Kosten für Interposer etc. Hat da jemand evt. einen Link?
Es gibt keine Preise zu HBM, da tappen wir schon laenge im Dunkeln. Auch was die Ausbeute angeht oder die Kosten des Zusammensetzens angeht gibt es keine Daten. Der Interposer selbst wird bei UMC in einer relativ grossen Strukturgroesse (65nm?) gefertigt und ist dementsprechend guenstig.
Ich denke, wenn man ordentlich konkurrieren will, ist es unumgaenglich. Intel verbaut schon seit ein paar Generationen eDRAM. Das gibt es aber auch nicht geschenkt und fuer die Iris Pro varianten koennen sie auch entsprechend viel verlangen. Aber wieso sollte man die Entwicklung der APUs da jetzt einstellen?
Man braeuchte halt ein extra die mit HBM Interface, denn ich glaube nicht, dass man das auch wahlweise auf einen Interposer oder direkt auf das Substrat packen kann.
Quadinterface ist schon durch die Layer und einhergehenden Boardkosten ausgeschlossen.
Jein, ggf. braucht es mehr als die üblichen 4 Layer, aber die Intelbretter sind v.a. auch durch den Chipsatz zu teuer, bei dem Intel kräftig zugreift und >50$ haben will.
DDR4 vereinfacht auch das Routing, so dass man pro Lage mehr Leitungen unterbringen kann was günstigstenfalls 1-2 Layer einsparen könnte, Details erfährt man in dem Bereich aber leider nicht wirklich.
Bei nem Spar-Board z.B. in µATX könnte man ggf. auch noch Lagen einsparen, indem man nicht alle PCIe-Lanes anbietet.
So teuer sind zusätzliche Platinenlagen außerdem auch nicht, AsRock hatte ein 1366 Brett mit 4 Lagen im Angebot, das damals zwar das billigste 1366-Board war, aber auch "nur" um ca. 20 Euro.
Für den Low-Cost-Bereich sind selbstverständlich 20 Euro 20 Euro zuviel, aber für den Bereich könnte man auch nen FP4-Chip fest verlöten. CPU-Upgrades sind mit den ganzen Sockelspielchen sowieso aus der Mode gekommen, das macht man höchstens noch im oberen Preissegment, wo die 20 Euro dann aber wieder egal wären.
Es gibt keine Preise zu HBM, da tappen wir schon laenge im Dunkeln. Auch was die Ausbeute angeht oder die Kosten des Zusammensetzens angeht gibt es keine Daten. Der Interposer selbst wird bei UMC in einer relativ grossen Strukturgroesse (65nm?) gefertigt und ist dementsprechend guenstig.
Es gibt ne Aussage von Lisa Su Stand Januar 2016, die HBM als "still very costly" bezeichnet:
http://venturebeat.com/2016/01/14/advanced-micro-devices-ceo-lisa-su-says-2016-is-the-year-amd-is-back/
dargo
2016-02-29, 13:00:12
"Sicherlich" bestimmt nicht. Es muss preislich auch passen. Wenn man es genau nimmt sind 16CU sowohl zu viel (für Office und Low End) als auch zu wenig (für oberes Low End, Tendenz unteres Performance Segment). Wenn AMD keine preiswerte Lösung für das Bandbreitenproblem hat, dann ist das nur Siliziumverschwendung 1024 Shadereinheiten zur Verfügung zu stellen. Und eine APU über 200 Euro kauft keine Sau, wenn er mit einer 100 Euro Grafikkarte und einer 100 Euro CPU wesentlich mehr Leistung fürs Geld erhält (und man sich auch noch teureren Ram sparen kann)
Bei HBM fällt der Preis für zusätzlichen Speicher ja weg. Ob sich so eine APU für den Endkunden lohnt oder nicht ist auch eine große Frage der Software. Hast du HSA Software wird das System mit der dGPU vernichtet.
http://media.bestofmicro.com/K/M/446566/original/10-LibreOffice-HSA.png
http://www.tomshardware.com/reviews/amd-a10-7800-kaveri-apu-efficiency,3899-5.html
mboeller
2016-02-29, 13:03:29
Die Rede ist ohnehin von BR (Excavator), also macht es sowieso keinen Sinn.
Bei RR sieht das mglw. anders aus, aber das ist noch lange hin.
Und kannst du den Unsinn auch belegen? :rolleyes:
Fuer Farmville braucht man keine 16 CUs
http://store.steampowered.com/hwsurvey/videocard/
deekey777
2016-02-29, 13:05:49
Bristol Bridge basiert doch auf dem Carrizo, nicht wahr? Dafür gibt es doch einen Thread.
16 CUs bei einer Fertigung in 28 nm? Klar doch.
Aus dem P3D-Link:
Der Sprung von 8 auf 16 Compute Units wäre mit nur zwei Speicherkanälen allerdings ziemlich sinnlos, selbst wenn man die Verbesserung von DDR4-3200 gegenüber DDR3-2133 einrechnet, schließlich werden schon die 8 CUs der aktuellen APUs durch die zweikanalige Speicheranbindung ausgebremst.
Ja, die Bandbreite ist aktuell nicht überragend, trotzdem würde ich schon die nackten Zahlen sehen, wie eine R7 so verhungert. Dass die GPUs von der Bandbreite nie genug bekommen, will ich gar nicht bestreiten. Ein Test einer HD7750 mit ensprechendem AMD-Prozessor gegen einen A10-7870K wäre schon interessant, insbesondere weil die R7 des A10-7870K nur acht ROPs hat.
YfOrU
2016-02-29, 13:07:28
Ich denke, wenn man ordentlich konkurrieren will, ist es unumgaenglich. Intel verbaut schon seit ein paar Generationen eDRAM. Das gibt es aber auch nicht geschenkt und fuer die Iris Pro varianten koennen sie auch entsprechend viel verlangen. Aber wieso sollte man die Entwicklung der APUs da jetzt einstellen?packen kann.
Um mit Intel konkurrieren zu können muss AMD sowohl 2C/4T als auch 4C/8T APUs mit integrierter GPU liefern welche bei gleicher Verlustleistung zumindest die CPU Performance der Core i3 und Core i5 erreichen (sowohl Mobile als auch Desktop).
Die GPU Performance ist wie die Vergangenheit mehr als deutlich gezeigt hat dagegen nur zweitrangig. Da AMDs GPU Architektur in jedem Fall effizienter mit der Bandbreite umgeht reicht gegenüber einer GPU wie Intels GT3e ein DDR4 Interface ohne HBM. Das AMD heute gegen eine mobile GT3e GPU wenig ausrichten kann liegt in erster Linie am Powerlimit.
AMD hatte über Jahre integrierte GPUs welche um die entsprechenden Intel Produkte Kreise gedreht haben. Trotzdem war kaum jemand bereit dafür hohe Aufpreise (wie für CPU Performance) zu bezahlen. Dedizierte GPUs werden hier auf absehbare Zeit auch weiterhin das Spektrum (maximaler Verkaufspreis der APUs aufgrund der GPU Performance) stark begrenzen. Es reicht wenn AMD ein vergleichbares GPU Performance Niveau zu Intel bietet. Hier deutlich mehr zu liefern ist mit Blick auf die Herstellungskosten problematisch. Das geht grundsätzlich nur dann vernünftig wenn AMD mehrere APUs entwickeln würde und das ist unwahrscheinlich. Der Maßstab liegt heute bei einer SoC TDP von 15W. Sich bei der Dimensionierung der integrierten GPU am ATX Desktop mit 65W+ zu orientieren ist alles andere als sinnvoll.
z3ck3
2016-02-29, 13:10:31
@dargo: Ja, aber auch nur wenn mindestens 8GB, oder besser mindestens 16GB HBM zur Verfügung stehen. Bei der dann zur Verfügung stehenden Speicherbandbreite macht aber dann 16CU wiederum keinen Sinn, denn dann kann man locker 32CU beschäftigen.
Und was HSA und Software etc. angeht, das sind ja Ausnahmeerscheinungen. Es bringt einem auch nicht viel das eine A10 einer i7 in einigen synthetischen Photoshop Szenarien davon rennt, wenn sie im normalen Workflow klar unterlegen ist.
dargo
2016-02-29, 13:15:10
Und was HSA und Software etc. angeht, das sind ja Ausnahmeerscheinungen. Es bringt einem auch nicht viel das eine A10 einer i7 in einigen synthetischen Photoshop Szenarien davon rennt, wenn sie im normalen Workflow klar unterlegen ist.
HSA dürfte in weiter Zukunft Standard sein. Erstmal muss es eine breite(re) Hardwarebasis dafür geben. ;)
z3ck3
2016-02-29, 13:25:03
Ja, falls ich mir Zen kaufe, wird das dann vielleicht in 6 Jahren etwas sein was dann ein Vorteil ist. XD XD XD
Complicated
2016-02-29, 13:31:42
Und kannst du den Unsinn auch belegen? :rolleyes:
Fuer Farmville braucht man keine 16 CUs
30% der PCs sind noch mit einer diskreten GPU bestückt.
http://jonpeddie.com/images/uploads/news/AIBPR1.JPG
81% der 14-29 jährigen sind Gamer:
https://www.bitkom.org/Presse/Pressegrafik/2015/Juli/150729-Gamer.jpg
http://store.steampowered.com/hwsurvey/videocard/Die Statistik dort ist irgendwie kaputt derzeit, wie an dem 66% Rückgang von DX11 GPUs innerhalb eines Monats zu erkennen ist.
http://store.steampowered.com/hwsurvey/videocard/
Ja und jetzt?
Steam hw survey? Na wenn es sein muss. Gut dass das Ergebnis voellig der aufgestellten Behauptung widerspricht :rolleyes:
@Complicated: really? dir ist schon klar, dass die Bitkom-Umfrage jeden Kram von Smartphone uber Tablets, Konsolen bis zum PC erfasst? Da werden sogar Smartwatches als Gaming-Plattform bezeichnet. Das laesst jetzt natuerlich eine statistisch fundierte Aussage zu Gaming-PC Hardware zu...
Und Jon Peddie schraenkt die "Desktop PCs" so wie ich das sehe nicht ein. Also sind da auch alle Arbeitsgeraete, Thin Clients und aller moeglicher Schrott dabei. Bezug zu Gaming-PC? null
Der Einbruch von DX11 bei Steam ruehrt daher, dass die Karten jetzt unter DX12 fallen. Im Graph ist das schoen zu erkennen, in der verlinkten Tabelle werden sie natuerlich faelschlicherweise zu <8 (laeuft vmtl. unter "sonstige") genommen.
Damit deine Zahlen auch einen Wert haben koenntest du den Kram auch verlinken anstat hier je nur ein Bild reinzuklatschen. Aber das ist eh OT
Bristol Bridge basiert doch auf dem Carrizo, nicht wahr? Dafür gibt es doch einen Thread.
Das ist die Frage, ob das mit den kolportierten 16 CUs und Quadchannel auch noch so wäre. In jedem Fall ists aber ein AM4-Chip, das ist die einzig gesicherte Info, von daher hier zumindest nicht völlig verkehrt.
dargo
2016-02-29, 14:09:07
Ja, falls ich mir Zen kaufe, wird das dann vielleicht in 6 Jahren etwas sein was dann ein Vorteil ist. XD XD XD
Du denkst viel zu kurzsichtig.
Wieso? ist doch schoen, wenn er einen Zen kauft und sich in 6 Jahren dann nochmal freuen darf ;)
Spass beiseite.. ich hoffe mal schon, dass es in 6 Jahren breite HSA Unterstuetzung gibt, sodass eine APU dann auch endlich eine APU ist und keine CPU + iGPU. Die CPU Kerne koennen dadurch ja einfacher/kleiner bleiben, dafuer mehr
Jein, ggf. braucht es mehr als die üblichen 4 Layer
Nur 4 Layer? Kann ich mir gerade überhaupt nicht vorstellen, allein für das 1k+ Pin BGA brauchst du doch schon 6-8 Layer?
dargo
2016-02-29, 14:57:39
Wieso? ist doch schoen, wenn er einen Zen kauft und sich in 6 Jahren dann nochmal freuen darf ;)
Spass beiseite.. ich hoffe mal schon, dass es in 6 Jahren breite HSA Unterstuetzung gibt, sodass eine APU dann auch endlich eine APU ist und keine CPU + iGPU. Die CPU Kerne koennen dadurch ja einfacher/kleiner bleiben, dafuer mehr
Im Prinzip ist das doch das selbe wie jetzt mit einer low level API. Daran hatte noch vor wenigen Jahren auch keiner am PC gedacht. ;)
Complicated
2016-02-29, 18:16:52
@Complicated: really? dir ist schon klar, dass die Bitkom-Umfrage jeden Kram von Smartphone uber Tablets, Konsolen bis zum PC erfasst?
Es ist zum wiederholten male so, dass du mich zitierst und dann einfach mal falsche Behauptungen los lässt.
Etwa sieben von zehn Gamern (67 Prozent) nutzen einen Laptop und vier von zehn (39 Prozent) einen Tablet Computer. Jeder Dritte spielt mit einer mobilen Spielkonsole (33 Prozent). Stationäre Geräte bleiben trotzdem beliebt: Gut zwei Drittel der Gamer (69 Prozent) spielt auf dem stationären PC
Nur weil alles erfasst wird, bedeutet das nicht, dass man die detaillierten Zahlen die benötigt werden nicht hat.
Um bei dem ursprünglichen Argument zu bleiben: Die Zocker auf iGPU sind alles andere als eine vernachlässigbare Größe. Ob sie jetzt tatsächlich schon mehr sind oder noch immer nur 40% der PC-Nutzer keine diskrete GPU nutzen zum Zocken, ändert nichts an der Relevanz der Zielgruppe.
Botcruscher
2016-02-29, 19:23:30
Um bei dem ursprünglichen Argument zu bleiben: Die Zocker auf iGPU sind alles andere als eine vernachlässigbare Größe. Ob sie jetzt tatsächlich schon mehr sind oder noch immer nur 40% der PC-Nutzer keine diskrete GPU nutzen zum Zocken, ändert nichts an der Relevanz der Zielgruppe.
Grafikleistung hat für diese Gruppe schlicht keine Relevanz. Die spielen mit dem was da ist.
Betriebswirtschaftlich stellt sich die Frage ob diese Zielgruppe zu höheren Ausgaben von sagen wir mal 50€ bereit ist.
Eine brauchbare Nische dafür sind Gamerlaptops. Ein Markt der bereit ist für mittelklassige Leistung fett Kohle zu löhnen.
Nur 4 Layer? Kann ich mir gerade überhaupt nicht vorstellen, allein für das 1k+ Pin BGA brauchst du doch schon 6-8 Layer? Wie besagt, beim Sockel 1366 hatte es AsRock geschafft.
Ansonsten mal wieder was zur Zen-Architektur:
Das Wichtigste auf Deutsch bei P3D:
Zen mit L0-Cache und µOp-Puffer | Planet 3DNow!
(http://www.planet3dnow.de/cms/22728-zen-mit-l0-cache-und-%c2%b5op-puffer/)
Ausführlicher bei Dresdenboy auf Englisch:
http://dresdenboy.blogspot.se/2016/02/new-amd-zen-core-details-emerged.html
Godmode
2016-03-01, 17:55:33
GMI-Link dürfte dann das Pendant zu NV-Link sein. CPU+GPU dann auf einem Modul und mit GMI-Link breit angebunden? NV kann hier ja nur auf IBM setzen, da Intel wohl eher kein NV-Link in ihren CPUs verbauen wird.
mboeller
2016-03-01, 19:24:33
im semiaccurate-Forum habe ich übrigens 1 gute Erklärung für die 16 CU's gelesen: 4x CPU + 12 x GPU-CU's... AMD vermauschelt beim Marketing ja gerne GPU und CPU - Kerne miteinander.
niedrig getaktete 12 CU's also 768 ALU's könnten sogar funktionieren. Persönlich halte ich das Gerücht, auch wenn sie von Fottemberg kommt für Humbug. 28nm + 12-16 CU's ergibt ca. 300mm² Die Area. Macht keinen Sinn.
link vergessen: http://semiaccurate.com/forums/showpost.php?p=256543&postcount=370
M4xw0lf
2016-03-01, 19:32:30
Nintendo NX, anyone? :naughty:
Das ist die Frage, ob das mit den kolportierten 16 CUs und Quadchannel auch noch so wäre. In jedem Fall ists aber ein AM4-Chip, das ist die einzig gesicherte Info, von daher hier zumindest nicht völlig verkehrt.
Ich glaub nicht an QuadChannel. Wenn sowas, dann gleich HBM, aber QuadChannel ist einfach zuviel.
im semiaccurate-Forum habe ich übrigens 1 gute Erklärung für die 16 CU's gelesen: 4x CPU + 12 x GPU-CU's... AMD vermauschelt beim Marketing ja gerne GPU und CPU - Kerne miteinander.
Ja wäre auch ne Möglichkeit.
niedrig getaktete 12 CU's also 768 ALU's könnten sogar funktionieren. Persönlich halte ich das Gerücht, auch wenn sie von Fottemberg kommt für Humbug. 28nm + 12-16 CU's ergibt ca. 300mm² Die Area. Macht keinen Sinn.
Wieso? Der X6 hatte damals auch 346 mm² und 28nm ist mittlerweile gut abgehangen, sprich selbst GloFo sollte sehr gute Yields haben. Dazu ist das ein Bulk-Prozess mit billigen Wafern. Da seh ich kein Preisproblem für einen ~350 mm² Chip.
Ich glaub nicht an QuadChannel. Wenn sowas, dann gleich HBM, aber QuadChannel ist einfach zuviel.
Quadchannel kommt aber in jedem Fall für die Server-CPUs, warum also nicht ausnützen? HBM ist aktuell immer noch sehr teuer, wäre für eine Mittelklasse-APU also erst recht keine (Preis)Option.
Dagegen sind die DDR4-Preise gefallen und bei Neukäufen würde sicherlich sowieso jeder 16GB kaufen. Ob jetzt 2x8 oder 4x4 GB wäre egal.
deekey777
2016-03-01, 22:19:10
12 CUs hat welche Konsole?
Im Ernst: 12 CUs mit 50 GB/s könnten funktionieren.
Complicated
2016-03-01, 22:47:50
Der RMB und der FCH Bus werden oft vergessen wenn es um AMD APUs geht. Schaut man sich die PS4 an, so hat AMD da auch andere Möglichkeiten:
http://2.bp.blogspot.com/-G7MqDF6oKh8/Uk_OHuX6sXI/AAAAAAAABc4/9_1-BUMb_Tc/s1600/lvp2.jpg
Vielleicht gibt es ein Zeitfenster wie lange die dortige IP nicht verwendet werden durfte in eigenen Produkten und dieses Zeitfenster ist abgelaufen.
Das ist ein 28nm Produkt. Nimm 4 Excavator Module (oder nur 2) anstatt den 8 Jaguar Cores...und so viel muss man nicht neu erfinden.
Locuza
2016-03-02, 03:41:24
Der RMB und der FCH Bus werden oft vergessen wenn es um AMD APUs geht. Schaut man sich die PS4 an, so hat AMD da auch andere Möglichkeiten:
???
Standard-IP, so sieht die Implementierung auch bei Kaveri aus.
Carrizo geht da weiter und hat die Implementierung so verbessert, dass jedenfalls auf der APU Cache-Kohärenz mit maximaler DRAM-Bandbreite möglich ist.
Aber was das mit "anderen Möglichkeiten" zu tun hat, weiß ich nicht.
Complicated
2016-03-02, 07:54:08
Onion+ ist PS4 Exklusiv.
Locuza
2016-03-02, 08:07:45
Nein:
http://1.bp.blogspot.com/-AXBc57ku98s/Uk_NjnegL3I/AAAAAAAABcw/8k3872bAC5E/s1600/Kaveri+Onion+++.jpg
http://www.pcgameshardware.de/screenshots/970x546/2014/01/Kaveri_HSA_Features_20140115153728-pcgh.PNG
Standard-Stuff.
Beim Xbox One Chip sieht das anders aus, dort wurde einiges verändert, die PS4 ist aber praktisch genauso aufgebaut wie Kaveri.
Wie gesagt, Carrizo/Bristol-Ridge ist allgemein schon ein Level weiter.
Was mit "anderen Möglichkeiten" gemeint ist, willst du auch nicht ausführen oder?
Undertaker
2016-03-02, 08:49:53
Wieso? Der X6 hatte damals auch 346 mm² und 28nm ist mittlerweile gut abgehangen, sprich selbst GloFo sollte sehr gute Yields haben. Dazu ist das ein Bulk-Prozess mit billigen Wafern. Da seh ich kein Preisproblem für einen ~350 mm² Chip.
Quadchannel kommt aber in jedem Fall für die Server-CPUs, warum also nicht ausnützen? HBM ist aktuell immer noch sehr teuer, wäre für eine Mittelklasse-APU also erst recht keine (Preis)Option.
Dagegen sind die DDR4-Preise gefallen und bei Neukäufen würde sicherlich sowieso jeder 16GB kaufen. Ob jetzt 2x8 oder 4x4 GB wäre egal.
Die Frage ist erst einmal: Was bringen mehr CUs? Mobil wäre ein solcher Chip nutzlos, da im zentralen 15W Segment schon 384 zu 512 ALUs keine Mehrleistung mehr bringen, weil der Takt indirekt proportional dazu abfällt. Ein größerer Chip wäre nur teurer, nicht aber schneller.
Zweites Problem ist die Speicherbandbreite. Quad-Channel ist utopisch, die Boards wären viel zu teuer und kein OEM verbaut 4 Speichermodule. Schon gar nicht in der Mittelklasse, wo es dann auf 4x 2GB oder gar 4x 1GB hinaus laufen würde. :freak: 16GB sind heute definitiv kein Mainstream. Man scheitert ja aktuell schon daran, das zumindest mal durchgängig Dual-Channel ausgenutzt wird, weil die Hersteller selbst bei 8 GB nur ein Modul verbauen wollen.
Edit: Um das mit der Speichermenge mal mit Daten zu untermauern: Hier einfach mal eine Liste mit Komplettrechnern des Jahres 2016 von Lenovo:
http://geizhals.de/?cat=sysdiv&xf=451_Lenovo~3320_2016#xf_top
66 Systeme, nur 11 davon mit 16 GB oder mehr. Von diesen 11 sind wiederum 8 mit einem Core i7, also dem High-End zugeordnet.
Complicated
2016-03-02, 10:34:29
Mit anderen Möglichkeiten meinte ich die zusätzlichen Anbindungen Onion und Garlic die ja über die Standard Bandbreite des DDR hinausgehen. Danke für die Info mit Garlic+
Locuza
2016-03-02, 11:09:30
Garlic bzw. der Radeon Memory Bus ist einfach die Verbindung zum DRAM-Controller.
Bei der PS4 die ganze Bandbreite von 176 GB/s zum GDDR5.
Bei Onion/+ bzw. Fusion Compute Link/+ liegt die Bandbreite bei eher mageren 10 GB/s.
Die CPU-Anbindung zum DRAM liegt bei unter 20 GB/s.
Ab Carrizo hat AMD das ganze so umgestellt, dass theoretisch immer die volle DRAM-Bandbreite zur Verfügung steht, egal ob non-coherent oder coherent.
Über die DDR-Bandbreite geht es nicht hinaus.
y33H@
2016-03-06, 04:40:08
Da es hier um Stoney Ridge geht ... WTF-Tech macht nun Leser-Artikel :ulove:
http://wccftech.com/amds-stoney-ridge-performance-market-positioning-detailed/
Die Meldung an sich vergleicht die Geekbench-Scores dreier ES mit diversen Carrizo-L und Low-End-Intels.
Inhaltlich weit besser als das, was WTF-Tech selbst idR produziert.
Complicated
2016-03-06, 09:47:14
Das war auch mein erster Gedanke beim lesen. Wesentlich besser geschrieben und recherchiert.
fondness
2016-03-13, 19:28:47
Ich lasse das mal bewusst umkommentiert so stehen:
Functional untethered 8-core znver1 Summit Ridge A0 engineering samples with an estimated 95W TDP have now taped out on Samsung’s 14nm FinFET and are undergoing validation.
It’s not yet clear how well they will clock (but Samsung’s 14nm FinFET process is slightly better than Intel’s – Intel haven’t pulled ahead with 10nm yet as that EUV process is very late, hence their Kaby Lake). IPC efficiency is very roughly equal with Broadwell, very slightly behind Skylake, but it’s push and shove.
They are currently targeting October 2016 (ish) for release. AM4 motherboards compatible with Summit Ridge have chipsets already shipping and should be coming out around about March 2016 (ish).
Subject to change. They may dual-source on GF14A.
https://arch.b4k.co/g/thread/52492812/#52493743
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.