Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Raven Ridge APU: Zen-Cores, Vega-GPU, DDR4, 65W, 2017
Seiten :
[
1]
2
3
4
5
6
7
8
9
10
Ich dachte, wir koennten einen neuen Thread machen, um das vom bisherigen "Zen-Thread", der ja nur fuer CPUs gedacht ist und auch Skybridge und K12 beinhaltet, abzugrenzen (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=553190).
Wir koennten hier auch die Infos zu der Exascale Heterogeneous Processor (EHP) sammeln.
Aber zunaechst zu Raven Ridge:
http://www.fudzilla.com/news/processors/41037-zen-apu-to-have-polaris-gpu
- 4C Zen
- 11 CUs auf Polaris-Niveau
- TDP von 45-65 Watt auf AM4
- TDP von 12-45 Watt auf FP4; eine Embedded-Version soll neben einer fuer Notebooks auch kommen.
Zurzeit spekulierte Daten:
- SoC mit integrierten Chipsatz und GPU
- Zen Quad-Core (8 Threads)
- 2 MB L2 Cache (512 KB pro Core)
- 8 MB shared L3-Cache
- 12 GCN Gen5 CUs (768 SPs)
- Dual-Channel DDR4 bis zu 3200Mhz
- Sockel AM4
- HBM memory?
- 14nm FinFET GF
AM4 Chipsatzkonfiguration:
http://s21.postimg.org/3keoooivr/amd_soc_and_promontory_chipset_io_coverage_1024x.jpg
Inoffizielle AMD Roadmap:
http://i.imgur.com/LFaWnyI.png
http://i.imgur.com/XA3NPwx.png
deekey777
2016-07-05, 10:30:34
Bis zu 11 CUs ist schon eine Ansage. Die Xbox One hat 12 CUs.
Ich haette ehrlich gesagt mit 12 gerechnet, aber gut, das war nur geraten ;D
Zumal bei 65 W und mit DDR4 schon auch mehr (theoretische) Leistung raus kommen sollte als bei der Xbox.
Aber bis dahin gibt es ja vielleicht schon die Scorpio. Einen genaueren Termin als "2017" gibt es ja auch in dieser Meldung nicht.
deekey777
2016-07-05, 11:27:31
11 ist auch eine krumme Zahl, das klingt so, als hätte man noch Probleme mit der Fertigung.
Was den Speicherdurchfluss angeht, so wird DDR4 nich so viel bringen (trotzdem zählt jedes GB/s). Und an Quadchannel glaube ich weder in Notebooks noch in gewöhnlichen Desktops.
Das wird ganz einfach asymmetrisch gebaut sein, es passte halt so am besten auf das Die. Das hat nix mit der Fertigung zu tun. Das Teil wird mMn auch Vega-IP sein.
Unicous
2016-07-05, 11:51:53
11 ist auch eine krumme Zahl, das klingt so, als hätte man noch Probleme mit der Fertigung.
Seit wann hat man in der Designphase Probleme mit der Fertigung?
Also manchmal... :facepalm:
y33H@
2016-07-05, 13:14:24
Doch, das geht, weil GloFo so güllig ist, dass AMD schon in der Design-Phase die Anzahl der CUs reduzieren muss :P
Unicous
2016-07-05, 13:38:37
Wenn das mit der knapp 30%igen Yield-Rate bei Polaris 10 wirklich stimmt dann frage ich mich langsam warum GF überhaupt noch im Geschäft ist.:facepalm:
Hinzu kommt die anscheinend große Varianz beim VCore die ja eigentlich ausgemerzt werden sollte.
http://images.anandtech.com/doci/9886/Radeon%20Technologies%20Group_Graphics%202016-page-011.jpg
Da können die APUs schon froh sein, dass sie erst später produziert werden.
11 CUs wären dennoch eine krumme Zahl, da fragt man sie sich bewusst dazu entschlossen haben um ein Designziel einer bestimmten Die-Größe zu erreichen und dafür den Takt höher ansetzen oder was es da für Überlegungen gab. Ihre Symmetrie-OCD muss die Engies doch bei der Zahl 11 um den Verstand bringen.;D
Oder Fudzilla erzählt Quatsch... was immer im Bereich des Möglichen ist.
Windi
2016-07-05, 13:50:04
Leider gibt es noch keine Informationen über Modelle mit HBM Speicher.
DDR3 ist schon seit langem ein Flaschenhals für die APUs.
2017 wird auch DDR4 ein Flaschenhals sein.
Schon 1GB HBM Speicher sollte die begrenzte Bandbreite deutlich entlasten. Da reicht dann wahrscheinlich auch Singelchannel DDR4 im Notebook aus, den ja leider so einige Herstellter verbauen.
Ich gehe mal davon aus, das Singelchannel DDR4 + Singelchannel HBM (ein Stapel) schneller ist als Dualchannel DDR4.
deekey777
2016-07-05, 14:16:58
Doch, das geht, weil GloFo so güllig ist, dass AMD schon in der Design-Phase die Anzahl der CUs reduzieren muss :P
Der Gedanke war der gleiche wie bei den Konsolen-APUs:
AMD wird bereits schätzen können, wie die Ausbeute 2017 bei GloFo sein wird, also designt man einen Chip mit 12 CUs mit der Prognose, dass von denen eine CU oder Teile dieser fehlerhaft sein werden, um so die Ausbeute zu erhöhen.
Dafür spricht die These, dass die Xbox Scorpio nur deswegen erst Ende 2017 kommt, weil GloFo noch nicht in der Lage ist, solche Monster-APUs früher zu liefern. Eine andere Erklärung ist, dass man die Kapazitäten sinnvoller nutzen will.
There will be many versions of the Zen but the one that caught our eyes has four Zen CPU cores and up to 11 GCN cores. This will result with an APU for notebooks as well as embedded systems with up to 704 stream cores.
Oder es sind immer maximal 11 CUs und es passt einfach so gut in den Chip (siehe HOT).
Oder es sind doch 12 CUs, nur bekommen die mobilen Ableger und die embeded APUs eben nur 11 davon aktiviert (warum nicht? mehr CUs bedeuten auch mehr Verbrauch).
Und eigentlich sind die 11 CUs nicht das Ende der Fahnenstange, wenn man den Artikel etwas wilder interpretiert.
Da sich ja zu erhärten scheint, dass 36CUs bei P10 Vollausbau ist, sehe ich diese ganzen GloFo-Gerüchte mal einfach als Quatsch an. Man produziert soviel OEM-Ware nicht, wenn der Yield schlecht ist, das sicher kompletter Unsinn.
Wenn es 11CUs sind, hat das andere Gründe: Die-Größe, gut passend zum Die-Aufbau usw.
Was den Speicherdurchfluss angeht, so wird DDR4 nich so viel bringen (trotzdem zählt jedes GB/s). Und an Quadchannel glaube ich weder in Notebooks noch in gewöhnlichen Desktops.
Quad-Channel wird auch keine so "normale" APU haben.
Trotzdem hast du mit DDR4 deutlich mehr Durchsatz. Nicht nur weil es weiter nach oben geht, sondern weil es ueberhaupt erst weiter oben anfaengt. Es gibt ja viele Geraete, die noch mit single-channel und 1333 MHz kommen.
Das Teil wird mMn auch Vega-IP sein.
Daran dachte ich zunaechst auch, aber ob Vega nicht doch nur Polaris mit HBM ist ist noch gar nicht klar. Viel wuerde ich da in der APU nicht erwarten. Natuerlich ggue. P10 per cu power-gating, aber das hat schon Carrizo.
Der Gedanke war der gleiche wie bei den Konsolen-APUs:
AMD wird bereits schätzen können, wie die Ausbeute 2017 bei GloFo sein wird, also designt man einen Chip mit 12 CUs mit der Prognose, dass von denen eine CU oder Teile dieser fehlerhaft sein werden, um so die Ausbeute zu erhöhen.
Das ergibt bei der handelsueblichen Ware aber absolut keinen Sinn.
Eine Konsole kann nur einen SoC gebrauchen, eine APU wird sowieso zusaetzlich als Salvage verkauft.
Leider gibt es noch keine Informationen über Modelle mit HBM Speicher.
[...]
Schon 1GB HBM Speicher sollte die begrenzte Bandbreite deutlich entlasten. Da reicht dann wahrscheinlich auch Singelchannel DDR4 im Notebook aus, den ja leider so einige Herstellter verbauen.
Ich gehe mal davon aus, das Singelchannel DDR4 + Singelchannel HBM (ein Stapel) schneller ist als Dualchannel DDR4.
Ist durchaus denkbar, hatten wir ja auch schon im Forum.
http://www.golem.de/1604/sp_120098-117145-i_rc.jpg
Man sieht auch bei Intel schon, wie viel alleine 64/128 MiB schnellerer Speicher bringen kann. 1 GiB HBM waere schoen, muss aber auch erstmal gemacht werden.
[...]
Daran dachte ich zunaechst auch, aber ob Vega nicht doch nur Polaris mit HBM ist ist noch gar nicht klar. Viel wuerde ich da in der APU nicht erwarten. Natuerlich ggue. P10 per cu power-gating, aber das hat schon Carrizo.
[...]
:confused: ist doch schon klar, dass Vega IP v9 ist während Polaris nur 8.1 ist. Also ist doch schon von vornherein klar, dass Vega > Polaris ist von den Features her.
Zudem muss ja das Frontend komplett neu designt werden, sollte > 64CUs möglich sein. Ob Vega einen 12_1-fähigen Rasterizer bekommt ist jedoch bislang natürlich nicht gesetzt.
Unicous
2016-07-05, 14:45:21
@deekey777
Damit verunglimpfst du gleichzeitig die Fertigung von TSMC, denn die haben die gleichen Chips (sogar noch vor GF, iirc) hergestellt.:uup:
Die Redundanz haben sie offensichtlich eingebaut, damit sie bei einer oder mehreren defekten CUs nicht den gesamten Chip wegschmeißen müssen, denn sie brauchten diese anfangs in rauen Mengen.
Außerdem ist totes Silizium gut für die Wärmeabfuhr.
Dein Abschätzen der Prozessqualität kannst du dir in die Haare schmieren, wie sich ein Prozess verhält und wie sich ein Produkt in selbigen herstellen lässt weiß man erst wenn man selbiges in die risk production bringt.
Da Scorpio nicht sehr weit von Polaris entfernt ist (jedenfalls bei der TFLOP-Angabe) wird das Ding geschätzt nicht größer als 300mm² sein, vorausgesetzt sie verabschieden sich vom riesigen on-die SRAM der beim XO SoC schon ca. 25% der Fläche belegt hat und ersetzen ihn durch GDDR5(X?).
Ein "Monster" wäre das mMn nicht.:wink:
edit: Zur Verständlichkeit noch der die shot:
http://www.extremetech.com/wp-content/uploads/2013/11/XB1SOC-2.jpg
btw. Project Kingston könnte die Xbox Slim sein und laut einem linkedin-Eintrag wäre es ein shrink, wie vermutet.
AMD Kingston ( 16nm FF+ )
Kingston Design (AMD)
Responsibility: Netlist to GDS implementation of TWO BLOCKS. It includes floorplan, power planning , place & route, clock tree synthesis, timing ECOs, fixing DRC & LVS, formal verification, crosstalk glitch analysis, extraction and timing closure.
Design Details:
Technology : 16 nm FF+, 11 Metal Layers
Tools: SOC Encounter, IC Compiler, Formality, Star-RC, Calibre, Redhawk.
Block1 Design Statistics: 15 Macros, 1.20Million instances. Max Frequency : 1.4 GHz
Block2 Design Statistics: 2 Macros, 390k instances. Max Frequency : 1.4 GHz
Einen AotS-Eintrag gibt es dazu lustigerweise auch:
http://www.ashesofthesingularity.com/metaverse#/personas/37bc97c1-44d2-4946-919f-3254b94726f0/match-details/47867dd3-344c-4c17-a20b-04feeadaa5aa
Arlene SOC
DG4010T3G87E1
Crashtest hat bei P3D die entsprechenden SoC-Namen von PS4 und XO korreliert.
http://www.planet3dnow.de/vbulletin/threads/412508-Prognose-Board-Wie-geht-es-bei-AMD-weiter-Entwicklungen-Strategien-Massnahmen-die-AMD-betreffen-bzw-die-AMD-treffen-koennte?p=5100742&viewfull=1#post5100742
Die Namen Arlene und Kingston sind auch schon vor ein paar Monaten bei Sisoft aufgetaucht.
@iuno
Nein Carrizo hat kein per CU power gating... maximal Bristol Ridge hat es. :tongue:
@HOT: ja, aber Graphics IP v9 sagt erstmal gar nichts.
Klar wird Polaris weiter entwickelt sein, welche Features letztendlich implementiert werden ist voellig offen. Genauso wie die Frage, ob es mehr als 64 CUs geben wird. Diesbezueglich gaebe es ja bei der APU ja auch keine Probleme. Aber das ist auch nicht der Vega Thread ;)
Abwarten, was RR da bringt, ich gehe aber wie gesagt nicht von mehr aus als P11 Niveau, in der Hoffnung dass das Teil auch "bald" erscheint...
@Unicous: schon klar :uban: :P
mczak
2016-07-05, 16:03:41
Zumal bei 65 W und mit DDR4 schon auch mehr (theoretische) Leistung raus kommen sollte als bei der Xbox.
Das sehe ich ueberhaupt nicht. Die XBox hat 256bit ddr3 gegenüber 128bit ddr4 (zudem hat die XBox 2133Mhz ddr3, das ist noch nicht mal langsamer als die OEM-ueblichen verbauten low-end ddr4-2133). Und die XBox hat noch esram. Diesen insgesamt Riesenbandbreitennachteil der Zen-APU rettet auch keine FBC.
Gut die theoretische flop-Leistung könnte ähnlich hoch sein (bei 11 CUs würde ein Takt etwas über 900Mhz reichen, das ist möglicherweise machbar bei 65W), das ist aber auch schon alles.
Unicous
2016-07-05, 16:18:30
Du hast zwar einerseits recht, andererseits wird auch von Fudzilla behauptet, das MI würde 3200MHz unterstützen, das wäre zumindest ein Fortschritt gegenüber dem Status Quo von 2400MHz DDR3/DDR4 für Carrizo/Bristol Ridge.
Und für den SRAM muss man auch entsprechend coden um ihn effizient einsetzen zu können und er hilft auch nur in wenigen Anwendungsfällen bzw. müssen die Texturen eine entsprechende Größe besitzen um gebuffert zu werden. Hinzu kommt dann eben DCC und z.B. auch einen unified address space den man bei der XO nicht hat.
Gut die theoretische flop-Leistung könnte ähnlich hoch sein (bei 11 CUs würde ein Takt etwas über 900Mhz reichen, das ist möglicherweise machbar bei 65W), das ist aber auch schon alles.
Genau, die theoretische Leistung habe ich ja auch angesprochen.
Es ging bei der Aussage auch offensichtlich nicht darum, was OEMs verbauen, sonder was man mit der 65 Watt Variante auf AM4 machen kann. Was die Bandbreite betrifft war das weiterhin nicht so gemeint, dass man die X1 uebertrifft. Das waeren aber bei DC DDR4-3200 trotzdem schon 51 ggue. 68 GBps. Die X1 sehe ich irgendwo zw. GCN Gen1-2, ich bin mir also nicht einmal sicher ob die ueberhaupt DCC hat, insofern waere man auch da 2 Schritte weiter.
Unicous
2016-07-05, 16:46:50
Hat afaik kein DCC und liegt wie du sagtest zwischen Gen1 und 2 bzw. hatte iirc zu der Zeit sogar noch ein paar Dinge die erst mit Gen3 kamen, bin mir aber nicht mehr sicher, irgendwer hatte das mal aufgedröselt.
mczak
2016-07-05, 18:18:57
Du hast zwar einerseits recht, andererseits wird auch von Fudzilla behauptet, das MI würde 3200MHz unterstützen, das wäre zumindest ein Fortschritt gegenüber dem Status Quo von 2400MHz DDR3/DDR4 für Carrizo/Bristol Ridge.
Und für den SRAM muss man auch entsprechend coden um ihn effizient einsetzen zu können und er hilft auch nur in wenigen Anwendungsfällen bzw. müssen die Texturen eine entsprechende Größe besitzen um gebuffert zu werden. Hinzu kommt dann eben DCC und z.B. auch einen unified address space den man bei der XO nicht hat.
Ok mit ddr4-3200 wäre man dann immerhin nicht mehr so weit entfernt.
Ich bin aber ziemlich sicher dass der esram deutlich mehr bringt als DCC - klar der ist unbequem zum Programmieren, nur macht das eben jeder auf der Konsole. Dass der nur in wenigen Anwendungsfällen hilft bezweifle ich sehr, sehr stark - irgendwas das ordentlich Bandbreite braucht und da reinpasst findest du doch immer (z.B. z-buffer oder RTs). DCC hilft im Uebrigen genausowenig "immer".
Aber vielleicht können wir uns ja einigen dass eine solche APU (bei 65W TDP und dual-channel ddr4-3200) immerhin in der Nähe einer XBox One wäre, das ist ja auch nicht so schlecht. Wem das zuwenig ist kann ja eine RX 460 nehmen dann erübrigen sich die Diskussionen was schneller ist (wobei die jetzt auch nicht gerade eine Wahnsinnsbandbreite hat...).
Locuza
2016-07-05, 19:56:05
Hat afaik kein DCC und liegt wie du sagtest zwischen Gen1 und 2 bzw. hatte iirc zu der Zeit sogar noch ein paar Dinge die erst mit Gen3 kamen, bin mir aber nicht mehr sicher, irgendwer hatte das mal aufgedröselt.
Beide Konsolen verwenden GCN Gen 2 IP-Blocks.
Die PS4 scheint gar nicht oder kaum modifiziert zu sein.
Auch die High-Priority 3D Graphics-Pipe scheint bei AMDs üblichen GPUs dabei zu sein:
Pipe Priority
* Identifies the pipe relative priority when this queue is connected
* to the pipeline. The pipe priority is against the GFX pipe and HP3D.
* In KFD we are using a fixed pipe priority set to CS_MEDIUM.
* 0 = CS_LOW (typically below GFX)
* 1 = CS_MEDIUM (typically between HP3D and GFX
* 2 = CS_HIGH (typically above HP3D)
https://git.zx2c4.com/linux/plain/drivers/gpu/drm/amd/amdkfd/kfd_mqd_manager_cik.c
Anders dagegen die Xbox One wo MS mit ehemaligen IBM-Ingenieuren und einigen anderen viel an der MMU gebastelt hat, dem Kohärenz-Interconnect und auch der Command-Processor scheint besser zu sein, als der Vanilla CP unter GCN Gen 2.
Xbox One has custom command processor
microcode support
http://frostbite-wp-prd.s3.amazonaws.com/wp-content/uploads/2016/03/29204330/GDC_2016_Compute.pdf
Ja, custom von gen1?! :usad: die mecs hat die one offenbar noch nicht.
Die Grafik queue ist sowieso priorisiert, ist doch klar. Sehe daran nichts besonderes. Es muss aber auch nicht so wie im kfd gelöst sein (das ist der kernel Treiber für den compute stack)
Locuza
2016-07-07, 00:39:20
Custom von GCN Gen 2, genauso wie Bonaire besitzt die Xbox One zwei Pipes mit jeweils 8 Compute-Queues, wie auch immer AMD das hier implementiert hat.
Wer mag kann ja nachforschen, wie sich Bonaire gegenüber den anderen Ablegern im code präsentiert.
Das mit der GFX-Queue bezieht sich auf die zweite GFX-Pipe.
Man konnte nämlich die Frage stellen, ob die zusätzliche HP3D-Queue eine exklusive Modifikation für die PS4 (und möglicherweise für die Xbox One) war oder auch AMDs eigene Produkte solch eine besitzen und so wie es aussieht besitzen auch die Produkte von AMD über eine zweite GFX-Pipe.
Bei VGleaks gibt es ein Bild dazu wie es bei GCN Gen 1 vs. 2 aussieht:
http://www.vgleaks.com/wp-content/uploads/2013/02/ring.jpg
http://www.vgleaks.com/wp-content/uploads/2013/02/gpu_queues.jpg
Ah, jetzt. Die extra HP3D Queue der PS4 hatte ich nicht mehr im Kopf. Die Erkenntnis ist tatsaechlich neu, wenn das auch im kfd code ist.
Bonaire hat aber nicht mehr den alten CP von Gen1 und damit auch nicht zwei Pipes sondern wie Hawaii schon zwei MECs (nicht ganz sicher ob wirklich 2 aber ganz sicher eine MEC). Und eine MEC hat nicht 1 oder 2 sondern je 4 Pipes zu je 8 Queues. Das gilt genauso fuer die PS4, die mit 8 ACEs oder auch mal 64 Queues angegeben wird.
Ja, Bonaire war damals auch mit 2 ACEs angegeben, aber diese Bezeichnung ist sowieso inkonsistent und bedeutet auch bei Gen1 noch etwas voellig anderes als bei Gen2. AMD kann damals auch die erstmals verwendete MEC "ACE" genannt haben.
Die Xbox wird aber afaik mit 2 ACEs angegeben, das deutet fuer mich klar auf den alten CP mit nur 2 Pipes/Rings hin. Wie viele Queues diese gefasst haben habe ich gerade aber nicht mehr im Kopf (1?!), dahingehend koennte es aber meinetwegen Anpassungen gegeben haben (8).
Wenn die One custom Gen 2 sein soll, waere es also eine abgespeckte MEC und nicht eine aufgewertete (vermutlich 2 statt 4 Pipes mit weiterhin je 8 Queues). Ansonsten ist das fuer mich eher custom Gen 1 mit dem alten CP und mehr compute queues
Locuza
2016-07-07, 02:58:09
Bei GCN Gen 1 war es nur eine Queue, pro Pipe.
Bezüglich der Xbox One:
Digital Foundry: When you look at the specs of the GPU, it looks very much like Microsoft chose the AMD Bonaire design and Sony chose Pitcairn - and obviously one has got many more compute units than the other. Let's talk a little bit about the GPU - what AMD family is it based on: Southern Islands, Sea Islands, Volcanic Islands?
Andrew Goossen: Just like our friends we're based on the Sea Islands family.
Digital Foundry: The GPU compute comparison seems to be about Xbox One's high coherent read bandwidth vs. raw ALU on PS4. But don't the additional ACEs added to PS4 aim to address that issue?
Andrew Goossen: The number of asynchronous compute queues provided by the ACEs doesn't affect the amount of bandwidth or number of effective FLOPs or any other performance metrics of the GPU. Rather, it dictates the number of simultaneous hardware "contexts" that the GPU's hardware scheduler can operate on any one time. You can think of these as analogous to CPU software threads - they are logical threads of execution that share the GPU hardware. Having more of them doesn't necessarily improve the actual throughput of the system - indeed, just like a program running on the CPU, too many concurrent threads can make aggregate effective performance worse due to thrashing. We believe that the 16 queues afforded by our two ACEs are quite sufficient.
http://www.eurogamer.net/articles/digitalfoundry-the-complete-xbox-one-interview
Schimi1983
2016-07-08, 21:22:03
da ich die entwickung in der hinsicht bei AMD nicht mehr verfolgt habe....
Bringt AMD sowas vergleichbares zu Intel QuickSync? was auch unterstützung in den communitys findet (FFMPEG?)?
AMD hat schon so etwas in ihren GPUs, nennt sich VCE: http://developer.amd.com/community/blog/2014/02/19/introducing-video-coding-engine-vce/
Lisa Su hat beim earnings call offiziell bestaetigt, dass sie an einer HPC APU arbeiten
It's fair to say we do believe we can combine a high-performance CPU with the high-performance GPU.
Obviously, it'll come in time. It's an area where combining the two technologies makes a lot of sense.
Su's comment was in response to a question on whether AMD would ultimately combine its Zen CPU with a GPU based on the upcoming Vega architecture into one big chip for enterprise servers and supercomputing.
http://www.pcworld.com/article/3099190/hardware/amd-mulls-a-cpugpu-super-chip-in-a-server-reboot.html
Leonidas
2016-07-30, 10:33:21
Ich denke, sie hat bestätigt, das man dies bei AMD für "interessant" hält. Die Bestätigung einer laufenden Arbeit an so einem Projekt sieht noch etwas anders aus.
y33H@
2016-07-30, 11:47:26
Wieso muss Lisa Su bestätigen, was seit Mai 2015 (!) auf der öffentlichen Roadmap steht?
Leonidas
2016-07-30, 16:10:20
Link?
Locuza
2016-07-30, 16:24:55
Seitdem Analyst Day 2015 steht die HPC-APU auf der Roadmap:
http://www.nextplatform.com/wp-content/uploads/2015/05/amd-fad-datacenter-roadmap.jpg
Davor gab es ein Event in Japan welches praktisch schon zuvor die HPC APU bestätigt hat:
http://www.3dcenter.org/news/weitere-amd-roadmap-zeigt-langfristige-grafik-entwicklung-bis-zum-jahr-2020
fondness
2016-09-23, 14:06:10
Zurzeit spekulierte Daten:
- SoC mit integrierten Chipsatz und GPU
- Zen Quad-Core (8 Threads)
- 2 MB L2 Cache (512 KB pro Core)
- 8 MB shared L3-Cache
- 12 GCN Gen5 CUs (768 SPs)
- Dual-Channel DDR4 bis zu 3200Mhz
- Sockel AM4
- HBM memory?
- 14nm FinFET GF
http://www.fudzilla.com/news/processors/41037-zen-apu-to-have-polaris-gpu
AM4 Chipsatzkonfiguration:
http://s21.postimg.org/3keoooivr/amd_soc_and_promontory_chipset_io_coverage_1024x.jpg
Inoffizielle AMD Roadmap:
http://i.imgur.com/LFaWnyI.png
http://i.imgur.com/XA3NPwx.png
Dazu hatte ich aber schon mal einen Versuch gestartet: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=574338
fondness
2016-09-24, 22:18:28
Angeblich Custom Zen SoC in nächsten Macbook PRO:
http://www.bitsandchips.it/9-hardware/7477-apu-zen-custom-nei-macbook-pro-tra-il-2017-e-il-2018
Undertaker
2016-09-24, 22:24:12
Entweder ich übersehe da was oder das ist ein reines Gedankenspiel des Autors, irgendein Indiz wird jedenfalls nicht genannt.
StefanV
2016-09-25, 00:17:00
macht aber Sinn, da sich Apple so was exklusives bauen kann, was nur sie und sonst niemand hat.
Zumindest wenn Zen auch nur halbwegs brauchbar wird, wird das genau so kommen.
Denn bei Intel heißts friß oder stirb, da gibts keine Extrawürste, AMD baut das auf Wunsch aber schon. Dazu kommt, dass die wohl auch die Iris Pro Grafikeinheiten kicken.
Von daher schreibt er nichts, was man nicht von Apple erwarten würde, ganz im Gegenteil...
Foobar2001
2016-09-25, 02:46:54
Ich find auch, dass das Sinn ergeben wuerde. Intel kann von der Grafik-Performance einfach nicht mal ansatzweise mit GCN konkurieren.
Falls die CPU wirklich konkurrenzfaehig ist.
=Floi=
2016-09-25, 03:14:24
welche extrawünsche soll apple denn haben? die intel chips sind auch nahezu perfekt für die apple produkte und deren einsatzgebiet.
Foobar2001
2016-09-25, 04:12:30
Ordentliche Grafik- und Compute-Performance.
Undertaker
2016-09-25, 09:55:16
Iris und Iris Pro sind seit Jahren praktisch ausschließlich Extrawürste für Apple, kein anderer Hersteller verbaut die in auch nur annähernd relevanten Stückzahlen. Das größte Problem sehe ich für AMD hier hinsichtlich der Energieeffizienz, da gibt Intel auch bei den GPUs im Mobile-Segment seit einiger Zeit klar den Ton an (15W GT3e auf dem Level der 35W Konkurrenz). Die Gerüchte um APUs bei Apple gibt es ja schon seit Llano, aber genau aus diesem Grund ist wohl nie etwas daraus geworden. Von der CPU ganz zu schweigen, aber da braucht es bzgl. Zen einfach noch mehr Infos.
Insofern: Same procedure as every year. Solange zum Thema Apple keine handfesteren Infos kommen, ist das wohl nicht mehr als das alljährliche Neuaufwärmen des gleichen Themas.
Foobar2001
2016-09-25, 09:57:00
Das ist doch nur die CPU-Seite. Intel braucht die Haelfte ihres 14nm-Dies fuer ihre GPU-Rotze und zusaetzlich ein 128MB eDRAM Die um die Leistung von AMD zu erreichen.
Die 14nm-AMD-APUs werden den Boden damit aufwischen, wenn Zen einigermassen konkurrenzfaehig ist.
Apple hatte eigentlich immer zwei Zulieferer fuer CPUs (IBM und Motorola) und auch beim iPhone lassen sie bei Samsung und TSMC fertigen und verwenden Qualcomm- und Intel-Modems.
fondness
2016-09-25, 09:59:52
Das größte Problem sehe ich für AMD hier hinsichtlich der Energieeffizienz, da gibt Intel auch bei den GPUs im Mobile-Segment seit einiger Zeit klar den Ton an (15W GT3e auf dem Level der 35W Konkurrenz).
Das ist in keinster Weise isoliert messbar, da bei einem SoC immer auch die CPU mitspielt. Im übrigen vergleichst du hier natürlich mit alten 28nm Produkten und unterschlägst ernsthaft die 128 MB eDRAM bei Intel.
Locuza
2016-09-25, 10:00:28
http://i.imgur.com/LFaWnyI.png
http://i.imgur.com/XA3NPwx.png
Beide Folien sind aus einer geleakten Produktroadmap und Präsentation die ich irgendwo (:redface:) unter reddit auch mal heruntergeladen habe.
Es waren über 30 Seiten.
Ich denke nicht das es gefaked ist.
Foobar2001
2016-09-25, 10:02:21
12 GCN-Cores sind 768 ALUs, also ungefaehr 1.5 TFLOPS bei 1 Ghz GPU-Takt. Mehr als eine Xbox One.
Undertaker
2016-09-25, 10:03:39
Das ist doch nur die CPU-Seite. Intel braucht die Haelfte ihres 14nm-Dies fuer ihre GPU-Rotze und zusaetzlich ein 128MB eDRAM Die um die Leistung von AMD zu erreichen.
Die 14nm-AMD-APUs werden den Boden damit aufwischen, wenn Zen einigermassen konkurrenzfaehig ist.
Ich weiß nicht ob du trollen willst oder es nicht besser weißt, aber im ULV-Segment liefert schon die GT2 mehr Leistung als die größte GPU-Ausbaustufe aktueller APUs. Die GT3e spielt in ihrer ganz eigenen Liga und müsste zunächst erst einmal mit einem gewaltigen Leistungs- und Effizienzsprung eingeholt werden, bevor man ans Boden wischen denken kann. Problematisch ist diesbezüglich sicher auch, dass AMD vom gleichen TDP-Budget einen größeren Teil für den CPU-Part abzweigen muss, was letztlich zum Bremsklotz für die GPU wird.
Noch am stärksten sehe ich AMD im höheren TDP-Bereich, z.B. einem 45-W-Chip für das MBP aufgestellt. Neue MacBook Pros kommen allerdings schon in Kürze (mit Intel-Hardware) und wenn man Apples Entwicklungszyklen kennt weiß man, dass AMD hier für die nächsten gut 2 Jahre keine Chance auf einen Fuß in der Tür hat.
fondness
2016-09-25, 10:04:26
Hm, seltsam dass Fudzilla von 11 GCN CUs spricht, aber ich bessere das mal aus und füge die Roadmap im Startposting ein. :)
Neue MacBook Pros kommen allerdings schon in Kürze (mit Intel-Hardware) und wenn man Apples Entwicklungszyklen kennt weiß man, dass AMD hier für die nächsten gut 2 Jahre keine Chance auf einen Fuß in der Tür hat.
Zu deiner typischen Intel Huldigung schreibe ich mal nichts mehr, aber Zen Custom-SoCs kommen laut AMD nicht vor 2018, insofern wäre ohnehin erst der übernächste Produktzyklus interessant.
dargo
2016-09-25, 10:08:17
12 GCN-Cores sind 768 ALUs, also ungefaehr 1.5 TFLOPS bei 1 Ghz GPU-Takt. Mehr als eine Xbox One.
Die Frage ist bloß wie man den Flaschenhals Bandbreite umgeht? Mit max. 51,2GB/s kommt man da nicht weit. HBM2 als zusätzlichen Cache?
Undertaker
2016-09-25, 10:08:57
Hm, seltsam dass Fudzilla von 11 GCN CUs spricht, aber ich bessere das mal aus und füge die Roadmap im Startposting ein. :)
12 physische, max. 11 tatsächlich aktivierte?
Zu deiner typischen Intel Huldigung schreibe ich mal nichts mehr, aber Zen Custom-SoCs kommen laut AMD nicht vor 2018, insofern wäre ohnehin erst der übernächste Produktzyklus interessant.
Nachdem genau diese Apple-Diskussion nun wirklich seit 5 Jahren immer wieder kommt sollte man zumindest etwas Realismus bewahren. Einen Schwenk von Intel auf AMD wird es bei Apple nur geben, wenn weder CPU- noch GPU-Leistung noch Energieeffizienz/Laufzeiten absinken. Und 2018 ist der Vergleichsmaßstab dann schon ein 10nm Konkurrent – ich will deine Euphorie ja nicht bremsen, aber ja: Das klingt mir nach aktuellem Stand eher unwahrscheinlich, wenn Intel keinen neuen Willamette raushaut. Günstigere Preise sind bei Apple nicht alles, siehe die aktuell verbauten CPU-Modelle und deren Preisklassen.
fondness
2016-09-25, 10:10:08
12 physische, max. 11 tatsächlich aktivierte?
Deaktivierte CUs würden wohl kaum in der Roadmap stehen...
Skysnake
2016-09-25, 10:14:01
macht aber Sinn, da sich Apple so was exklusives bauen kann, was nur sie und sonst niemand hat.
Zumindest wenn Zen auch nur halbwegs brauchbar wird, wird das genau so kommen.
Denn bei Intel heißts friß oder stirb, da gibts keine Extrawürste, AMD baut das auf Wunsch aber schon. Dazu kommt, dass die wohl auch die Iris Pro Grafikeinheiten kicken.
Von daher schreibt er nichts, was man nicht von Apple erwarten würde, ganz im Gegenteil...
DAs ist so nicht richtig. Intel macht wohl für Hyperscaler ala Google/Facebook durchaus Extrawürste. Man hört darüber nur so gut wie nichts.
fondness
2016-09-25, 10:44:14
Die Frage ist bloß wie man den Flaschenhals Bandbreite umgeht? Mit max. 51,2GB/s kommt man da nicht weit. HBM2 als zusätzlichen Cache?
Ich hoffe, dass die Option auf einen HBM2 Stack besteht, wie es ein altes AMD Paper schon gezeigt hatte.
Das würde bis zu 8 GB exklusiven VRAM und 256Gb/s Bandbreite reichen, was zwar fast wieder etwas overkill wäre, aber die 51,2GB/s mit Dual Channel DDR4 3200 wären auf alle Fälle zu wenig.
Wenn die Roadmap stimmt, kommen die wahrscheinlich erst 2018, siehe Zen. Außer sie liefern gegen Jahresmitte aus, was ich nicht glaube.
fondness
2016-09-25, 10:50:44
Wenn die Roadmap stimmt, kommen die wahrscheinlich erst 2018, siehe Zen. Außer sie liefern gegen Jahresmitte aus, was ich nicht glaube.
Die APUs wurden bis jetzt eigentlich immer Mitte des Jahres upgedatet. Von daher gehe ich davon aus, dass auch diesmal das Ziel ist, rechtzeitig zur Back to school Periode die Zen APU am Markt zu haben.
dargo
2016-09-25, 10:55:22
Ich hoffe, dass die Option auf einen HBM2 Stack besteht, wie es ein altes AMD Paper schon gezeigt hatte.
Das würde bis zu 8 GB exklusiven VRAM und 256Gb/s Bandbreite reichen, was zwar fast wieder etwas overkill wäre, aber die 51,2GB/s mit Dual Channel DDR4 3200 wären auf alle Fälle zu wenig.
Naja... ich hätte jetzt eher an einen 1-2GB L4 Cache @HBM2 gedacht um den Preis nicht zu sprengen und für 12 CUs wird kaum mehr notwendig sein. Ich meine eine XBox One hat lächerliche 32MB ESRAM um die niedrige Bandbreite etwas zu kompensieren. Intel verwendet auch nur 128MB eDRAM.
Fliwatut
2016-09-25, 11:10:07
Günstigere Preise sind bei Apple nicht alles, siehe die aktuell verbauten CPU-Modelle und deren Preisklassen.
Für Apple zählt nur eins: Profit. Mit welcher CPU/GPU die den machen, ist denen völlig wurscht. Wenn AMD das bessere Preisleistungsverhältnis auf ähnlichem Leistungsniveau bietet, nehmen die auch AMD-CPUs/APUs.
Hübie
2016-09-25, 11:23:55
Wetten nicht. Die Akkulaufzeit und Akkukapazität will man sicher nicht überproportional anpassen. ;)
Botcruscher
2016-09-25, 11:27:24
Naja... ich hätte jetzt eher an einen 1-2GB L4 Cache @HBM2 gedacht um den Preis nicht zu sprengen und für 12 CUs wird kaum mehr notwendig sein. Ich meine eine XBox One hat lächerliche 32MB ESRAM um die niedrige Bandbreite etwas zu kompensieren. Intel verwendet auch nur 128MB eDRAM.
HBM hat aber ganz andere Latenzen. Als L4 fällt der auf jeden Fall flach. Im Grunde ist es ja nur ein Ersatz für RAM mit mehr Bandbreite.
Die Grundkosten aus Interposer und zusammensetzen sind fix. Bleibt die Frage wie die Kosten pro Lage im HBM skalieren. Bei den Größen sind 2 und 4GB mit 3 respektive 5 Lagen am wahrscheinlichsten.
PS: Wobei mir eh der Glaube an HBM fehlt. Für den Massenmarkt ist es zu teuer und für Extrawürste fehlt AMD die Kohle. Da müsste Aplle schon exklusiv eine Bestellung aufgeben.
reaperrr
2016-09-25, 14:02:48
- 4MB L2 Cache (512 KB pro Core)
4x512KB = 2MB :wink:
- 8 MB shared L3-Cache
Leider weiß ich nicht mehr, wo ich es gelesen habe, aber angeblich soll RR nur 2 MB L3 haben.
Halte ich insofern für recht glaubwürdig, weil der GPU-Teil von RR wahrscheinlich schon größer ist als ein CCX und RR ohne irgendwelche Einschnitte größer als SR ausfallen würde.
Der L3 ist der einzige Bereich, wo Einschnitte relativ einfach sind, wenig Performance kosten und die Ersparnis an Verbrauch und Fläche recht ordentlich ausfallen sollte. Und ein kleiner L3 ist immer noch besser als gar kein L3.
Locuza
2016-09-25, 14:42:59
http://www.extremetech.com/wp-content/uploads/2016/08/CPU-Complex.png
Ich könnte mir höchstens 4 MB L3$ als sinnvolle Alternative vorstellen.
Persönlich pflege ich aber die Einstellung das RR entweder keinen L3$ besitzt oder ebenso über 8 MB L3$ verfügt.
Ein CCX ist nicht besonders gross, das hat man auch auf dem dieshot gesehen. Und weniger I/O hat man auch noch, weil RR im Gegensatz zu Summit/Zeppelin wohl keine GMI Links bekommt. Ich wuerde daher schon annehmen, dass sich das mit dem CCX durchzieht sonst leistet ja auch ein 4C "Modul" auf RR ja auch ganz andere Leistung ab als auf SR.
Ansonsten ist es fuer Apple sicher interessant. Wir reden ja hier nicht von RR sondern 1-2 Generationen spaeter. Da koennte man vielleicht schon ueber Zen+ und Navi sprechen, dazu HBM. Apple verbaut auch schweineteure Iris Pro mit eDRAM. Man koennte sich dann langfristig auch die MB Variante mit dGPU sparen, was wiederum Vorteile fuer Platzbedarf bringt, was Apple ja offensichtlich sehr wichtig ist. Und dann noch das Thema SoCs: haben aktuelle MacBooks noch Southbridges verbaut? Koennte man Thunderbolt auch direkt von der APU aus anbieten? Aktuell werden auch max. 16 GiB RAM im MBP verbaut. Mit 2 8Hi Stacks bekommt man das auch...
Und ansonsten: wie viele Mio. MacBooks verkauft Apple pro Generation? Wie viele Mac Mini und iMacs? Da koennte sich Custom vielleicht schon lohnen. Die Bausteine sind ja alle da, man muss sie nur zusammenpacken.
Die CPU sollte halt nicht bedeutend langsamer sein als die der letzten Generation.
fondness
2016-09-25, 14:51:49
4x512KB = 2MB :wink:
C&P Fehler, thx.
Foobar2001
2016-09-25, 21:02:18
Ich weiß nicht ob du trollen willst oder es nicht besser weißt, aber im ULV-Segment liefert schon die GT2 mehr Leistung als die größte GPU-Ausbaustufe aktueller APUs. Die GT3e spielt in ihrer ganz eigenen Liga und müsste zunächst erst einmal mit einem gewaltigen Leistungs- und Effizienzsprung eingeholt werden, bevor man ans Boden wischen denken kann. Problematisch ist diesbezüglich sicher auch, dass AMD vom gleichen TDP-Budget einen größeren Teil für den CPU-Part abzweigen muss, was letztlich zum Bremsklotz für die GPU wird.
Sie brauchen ungefaehr 65% von ihrem GT4e-Die also 135mm^2 in 14nm fuer diesen Stunt UND ein 75mm^2 EDRAM-Die obendrauf und erreichen damit gerade mal 1.1 TFLOPs.
Da passt mehr als eine komplette RX 460 rein mit GDDR5-Speicherinterface! Sorry, aber Intel und Effizienz bei den GPUs in einem Satz ist komplett laecherlich. Und damit das der 14nm-Intel-Prozess wahrscheinlich sogar besser Packdichte erreicht als TSMCs 16FF brauch ich gar nicht anfangen.
Ausserdem moechte ich gerne Benchmarks sehen von der ULV GT2. Die HD 520 hat gerade mal 384 GFLOPs und beschissene Intel-Treiber.
Ich finde zum Beispiel das hier:
http://icdn8.digitaltrends.com/image/intelhdbattlefield4-1500x1000.jpg
Und noch dazu hat Intel Grafikfehler laut Review. In anderen Benchmarks ist es ausgeglichener, aber Skylake hat auch deutlich mehr Bandbreite durch DDR4. Das faellt jetzt auch weg.
YfOrU
2016-09-26, 10:42:50
Beispiel:
http://www.notebookcheck.com/Test-HP-EliteBook-745-G3-Notebook.157955.0.html
Im Vergleich mit der HD Graphics 520 können wir der Radeon R7 insgesamt nur einen Gleichstand attestieren, was zum einen auf gelegentliche CPU-Limits (z.B. Sims 4, Thief), zum anderen aber auf die bei Carrizo stärker limitierende TDP zurückzuführen ist. So wird der maximale GPU-Takt von 800 MHz praktisch kaum ausgereizt – je nach Auslastung des CPU-Parts liegen tatsächlich nur etwa 500 bis 550 MHz an.
Bei 15W wird die IGP nahezu immer eingebremst. Entweder CPU oder (GPU) TDP Limit.
Ist auch gut bei Prime + Furmark zu sehen: 1,4 Ghz CPU - 300 Mhz GPU. Derart stark brechen Skylake/Kaby Lake-U im Regelfall nicht ein.
Sie brauchen ungefaehr 65% von ihrem GT4e-Die also 135mm^2 in 14nm fuer diesen Stunt UND ein 75mm^2 EDRAM-Die obendrauf und erreichen damit gerade mal 1.1 TFLOPs.
Was heißt hier brauchen? Eine GT2 mit ca 400 Gflops liegt bei 40 mm². Das reicht für ULV. Eine GT3 wäre eine Klasse über AMD.
Ausserdem moechte ich gerne Benchmarks sehen von der ULV GT2. Die HD 520 hat gerade mal 384 GFLOPs und beschissene Intel-Treiber.
Schau dich auf Notebookcheck um.
http://www.notebookcheck.com/Kaby-Lake-Core-i7-7500U-im-Test-Skylake-auf-Steroiden.172422.0.html
http://www.notebookcheck.com/Bristol-Ridge-im-Test-AMDs-A10-9600P-gegen-die-Konkurrenz.168172.0.html
Wenn du die games vergleichst, wirst du feststellen müssen, dass Intel fast immer vorne liegt.
Ich finde zum Beispiel das hier:
http://icdn8.digitaltrends.com/image/intelhdbattlefield4-1500x1000.jpg
Du pickst dir das raus, was dir am besten gefällt. Wäre das nicht so schön gewesen?
http://icdn6.digitaltrends.com/image/intehdworldofwarcraft-2-1500x1000.jpg
http://www.digitaltrends.com/computing/three-generations-intel-hd-graphics-tested/
Und wieso suchst du dir eine 95W Version bei AMD aus? Was hat das mit ULV zu tun?
Und noch dazu hat Intel Grafikfehler laut Review. In anderen Benchmarks ist es ausgeglichener, aber Skylake hat auch deutlich mehr Bandbreite durch DDR4. Das faellt jetzt auch weg.
Die halten es nichtmal für nötig, die Treiberversionen anzugeben.
w0mbat
2016-09-26, 11:03:10
Ich hatte das Vergbügen eine Weile sowohl auf einer Intel iGPU als auch auf einer AMD iGPU zu spielen. Das der CPU-Teil der Intel Combo deutlich schneller ist hat man eindeutig gemerkt, es gab Spiele wo das wichtiger war. Aber in den meisten Spielen war die AMD-Lösung deutlich besser.
Intels iGPUs haben immer noch große Probleme, z.B. wollten bei mir einfach manche CoD Maps nicht laden und nach etwas Internetrecherche war sehr schnell ersichtlich, dass das ein weitgreifendes Problem ist. Auf aktuellen Intel iGPUs laufen vielen Spiele nicht so wie sie sollten, Intel liegt da noch weit zurück.
Setsul
2016-09-26, 12:29:16
@gmb: Laut den WoW Testergebnissen sind HD 520, 530 und 540 alle gleich schnell. Liegt also ganz offensichtlich am GPU-Limit, der ideale Test.
Schau dir doch den Bristol Ridge Test an, den du verlinkt hast. Der Unterschied zwischen 9600P und HD 540 sind entweder <30% oder fast 100%. Woran liegt das? Ich tippe darauf, dass Excavator einfach einen zu großen Anteil der TDP klaut. Die Spiele, die auf Intel überhaupt nicht liefen, ignorieren wir mal, aber in der Praxis ist das natürlich ein enormer Nachteil.
Dann bitte nicht vergessen, dass erstens der 9600P nur 550 GFlops Rohleistung hat, also sind fast 50% zu erwarten, wenn es an der Rohleistung liegt, zweitens hat der 9800P 40% mehr Rohleistung, bei ebenfalls 15W TDP, also wäre zu erwarten, dass sich das ganze Verhältnis damit stark verschiebt, und drittens vergleichen wir hier immernoch 28nm und 14nm.
Also wenn man davon ausgeht, dass der 9800P nochmal 40% drauflegt, bräuchte man 50% höhere Effizienz, ausgehend vom 9600P 100% höhere Effizienz. Jetzt schau dir bitte an, wie sich der Wechsel von 28nm zu 14nm auswirkt. Wo ist jetzt das Problem?
Ein reiner Shrink + mehr CUs läge schon problemlos vorne, da müsste Zen schon weniger effizient sein als Excavator, damit Intel irgendeine Chance hat.
Und bitte nicht mit Fläche argumentieren, selbst wenn man sagt, die HD 540 wäre durchgehend 100% schneller als der 9600P mit seinen 6 CUs, dann stünde AMD mit den 70mm² für 6 CUs immernoch nicht schlecht da. Wie gesagt 28nm gegen 14nm.
Undertaker
2016-09-26, 13:01:55
Also wenn man davon ausgeht, dass der 9800P nochmal 40% drauflegt
Tut er nicht. Schon bei Carrizo hat man gesehen, dass schon zwischen 256 und 384 ALUs wenige, zwischen 384 und 512 ALUs in Spielen nahzu überhaupt keine Leistungsunterschiede mehr liegen. Gilt übrigens auch für den CPU-Part. Die Dinger sind so stark TDP-limitiert, das bei 15W weder mehr Einheiten noch höhere theoretische Boostfrequenzen irgendetwas bringen. Ähnlich wie bei Intels Core M, wenn die TDP bei 4,5W festgetackert wird.
Ergo: Entscheidend wird, wie Raven Ridge bei der Energieeffizienz zulegen kann. Hier braucht es in der ULV Klasse einen Sprung von etwa 100% zu Skylake/Kaby Lake. Aber auch wenn es nur 50% werden sollten, sollte das bei attraktiven Preisen für einige gute Designwins reichen, nur eben halt nicht Apple/Dell XPS/etc.
YfOrU
2016-09-26, 13:46:06
Ich tippe darauf, dass Excavator einfach einen zu großen Anteil der TDP klaut.
Ja. Siehe: http://www.notebookcheck.com/fileadmin/_processed_/csm_prime95_4617097566.png
Mit Prime95 ist beim AMD Pro A12-8800B bei 1,8 Ghz das TDP Limit von 15W erreicht. Ein i5-6200U (Beispiel XPS 13) kann hier durchaus den maximalen DC Turbo (2,7 Ghz) halten.
Entsprechend ist der Spielraum bei Intel für die IGP (dynamische Verteilung) wesentlich größer.
Setsul
2016-09-26, 13:50:03
Ich bin mir nicht sicher, ob sich das mit der Aufteilung in 9830P und 9800P nicht etwas verbessert hat.
Es geht mehr darum einen gewissen Bereich zu haben.
Bei Pascal und Polaris war eine Effizienzsteigerung um 100% dank 14nm kein Problem, würde Zen also genauso viel von der TDP verbrauchen wie Excavator, wäre man schon gleichauf.
Im Idealfall lässt sich selbst Excavator im 9800P noch etwas drücken und man kommt mit einem CCX, sprich 4 Kerne + SMT auf eine ähnliche TDP wie 2 Excavator Module, dann könnte man ganz ohne EDRAM und ähnliche Spielereien mit 15W APUs bestenfalls mit den 45W Iris Pro 580 i7s (4C/8T) konkurrieren. Da sehe ich schon ein gewisse Interesse von Seiten Apples.
HBM wäre natürlich auch interessant, man hätte dann ein echtes SoC, alles was man braucht auf einem Package und das Mobo macht nur noch I/O.
Undertaker
2016-09-26, 14:02:37
Im Idealfall lässt sich selbst Excavator im 9800P noch etwas drücken und man kommt mit einem CCX, sprich 4 Kerne + SMT auf eine ähnliche TDP wie 2 Excavator Module, dann könnte man ganz ohne EDRAM und ähnliche Spielereien mit 15W APUs bestenfalls mit den 45W Iris Pro 580 i7s (4C/8T) konkurrieren.
Mit einer 15W APU der Iris Pro 580 Konkurrenz machen? Selbst wenn man einmal annimmt, dass die CPU im betrachteten Spiel nicht übermäßig limitiert, stehen da vielleicht 7-8W gegen 35W Powerbudget für die GPU. Woher soll die mehr als vierfache Energieeffizienz plötzlich kommen, wenn man bedenkt, dass Intel im ULV aktuell mindestens 50 Prozent vorne liegt (Annahme auf Basis von derzeit rund 100% Leistungsvorsprung bei allerdings mutmaßlich etwas größerer TDP-Nutzung der GPU, da effizienterer CPU-Part)?
YfOrU
2016-09-26, 14:16:13
Ich bin mir nicht sicher, ob sich das mit der Aufteilung in 9830P und 9800P nicht etwas verbessert hat.
A10-9600P
http://www.notebookcheck.com/Bristol-Ridge-im-Test-AMDs-A10-9600P-gegen-die-Konkurrenz.168172.0.html
CPU Last jeweils nach 5 Min (TDP Limit greift vollständig)
Cinebench R15 (Single): 2,9 GHz (30,7 Watt)
Cinebench R15 (Multi): 2,1 GHz (30,8 Watt)
Prime95: 1,7 GHz (31,1 Watt)
FPS Verlauf, Diablo III
http://www.notebookcheck.com/fileadmin/Notebooks/HP/Pavilion_15-aw004ng/fpsdiablo.png
Praktisch äußert sich das beispielsweise in Diablo III so, dass zu Beginn CPU- und GPU-Taktraten von rund 1.800 respektive 550 MHz anliegen, die im weiteren Spielverlauf auf 1.100 - 1.200 (CPU) beziehungsweise 380 - 420 MHz (GPU) abfallen. Parallel dazu sinkt die Framerate in unserer statischen Spielszene von 72 auf 49 fps.
Die CPU ist trotz der mit Excavator erzielten Fortschritte auch bei BR weiterhin das große Problem. Derart geringe Frequenzen wirken sich vor allen auch mit Blick auf die recht schwache IPC absolut negativ aus (CPU Limit).
Mit 14nm FF und einer effizienteren CPU Architektur sollte sich das bei RR zumindest deutlich entschärfen lassen.
deekey777
2016-09-26, 16:53:35
Sie brauchen ungefaehr 65% von ihrem GT4e-Die also 135mm^2 in 14nm fuer diesen Stunt UND ein 75mm^2 EDRAM-Die obendrauf und erreichen damit gerade mal 1.1 TFLOPs.
Da passt mehr als eine komplette RX 460 rein mit GDDR5-Speicherinterface! Sorry, aber Intel und Effizienz bei den GPUs in einem Satz ist komplett laecherlich. Und damit das der 14nm-Intel-Prozess wahrscheinlich sogar besser Packdichte erreicht als TSMCs 16FF brauch ich gar nicht anfangen.
Ausserdem moechte ich gerne Benchmarks sehen von der ULV GT2. Die HD 520 hat gerade mal 384 GFLOPs und beschissene Intel-Treiber.
Ich finde zum Beispiel das hier:
http://icdn8.digitaltrends.com/image/intelhdbattlefield4-1500x1000.jpg
Und noch dazu hat Intel Grafikfehler laut Review. In anderen Benchmarks ist es ausgeglichener, aber Skylake hat auch deutlich mehr Bandbreite durch DDR4. Das faellt jetzt auch weg.
Du bist voll in die TDP-Falle getappt. Diese wird hier gern gestellt. :uup:
Foobar2001
2016-09-26, 17:06:22
Whatever, ich diskutier nich mehr rum hier. Wer meint, das eine Architektur die 2x Fläche für die gleichen ALU-Leistung braucht "effizient" ist soll es tun.
Fakt ist, AMD hat eindeutig die wesentlich bessere GPU-IP. Das ändern auch die ULV-Intel-Astroturfer hier nicht. Wenn Zen die CPU-Effizienz auf Intel-Niveau steigert wird das auch voll durchschlagen.
Verstehe die Diskussion eh nicht. Gerade der Grafik Teil der APUs haelt doch auch bei ULP und bei TDP-gedrosselten Chips noch vergleichsweise gut mit :confused:. Dabei ist man immer noch auf 28 nm gegen Intels zweite 14 nm Generation. Und edram gibt es bei 15W CPUs auch nicht. Ich sehe da eigentlich keine schlechten Vorzeichen fuer RR.
Da wuerde mir eher zu denken geben, dass Nvidia neuerdings Metal/OCL devs fuer MacOS und kommende Apple Produkte sucht :ulol: https://nvidia.wd5.myworkdayjobs.com/en-US/NVIDIAExternalCareerSite/job/US-CA-Santa-Clara/METAL-COMPUTE-AND-OPENCL-SOFTWARE-ENGINEER---MAC_JR1897400-5
Die massiven Abstürze des CPU-Bereichs auf sehr niedrige Taktraten killt jedes Spielerlebnis. Das verzerrt das Bild ggü. der Intel-GPU erheblich. Die GPU sieht hingegen extrem gut aus, wenn man die schwache CPU-Leistung bedenkt. Da kann Intel nicht mithalten. Sollte RavenRidge das auch nur ein bisschen verändern, sieht Intel nur noch die Rücklichter im APU-Bereich. BD ist die Schwäche, nicht GCN. Nicht umsonst will man GT3e zum Standard machen bei CoffeeLake.
Undertaker
2016-09-26, 18:21:33
Wer meint, das eine Architektur die 2x Fläche für die gleichen ALU-Leistung braucht "effizient" ist soll es tun.
Flächen-/Transistoreffizienz != Energieeffizienz. Übrigens hat Carrizo grob doppelt(!) so viele Transistoren wie Skylake 2C+GT2 und vermutlich etwa 50% mehr als Skylake 2C+GT3e. Die Packdichte von AMD in 28nm ist gar nicht einmal so viel niedriger.
Fakt ist, AMD hat eindeutig die wesentlich bessere GPU-IP. Wenn Zen die CPU-Effizienz auf Intel-Niveau steigert wird das auch voll durchschlagen.
Ob AMDs GPU-IP bezogen auf das IGP-Low-Power-Segment noch groß besser ist, muss man seit Skylake mit einem großen Fragezeichen versehen. In den unteren TDP-Bereichen und bei begrenzter Speicherbandbreite steht AMD aktuell nicht gut da, da wird Zen einiges aufholen (müssen). Und das die CPU-Effizienz mit einem Schlag auf Intel-Niveau steigt ist ebenfalls recht optimistisch, vorsichtig vormuliert. Verliert doch mal den gigantischen Unterschied in den Entwicklungsbudgets nicht aus dem Auge. Wenn der große Fisch da nicht gerade völlig patzt, wird der kleinere immer etwas hinterherschwimmen. Das wird dann über günstigere Preise kompensiert und kann trotzdem ein attraktives Angebot ergeben. :)
Die GPU sieht hingegen extrem gut aus, wenn man die schwache CPU-Leistung bedenkt. Da kann Intel nicht mithalten.
Schau dir entsprechende GPU-Benchmarks ohne nennenswerte CPU-Belastung an. Die sehen etwas besser als Spielebenches aus, sind aber in der 15W Klasse nicht in Schlagdistanz zur Leistungsspitze. Prozessbereinigt ist das sicher ordentlich, absolut gesehen (und in Relation zum Transistoraufwand) aber nichts was ich "extrem gut" nennen würde.
@iuno: Doch, es gibt 15W mit eDRAM.
deekey777
2016-09-26, 18:24:13
Whatever, ich diskutier nich mehr rum hier. Wer meint, das eine Architektur die 2x Fläche für die gleichen ALU-Leistung braucht "effizient" ist soll es tun.
Fakt ist, AMD hat eindeutig die wesentlich bessere GPU-IP. Das ändern auch die ULV-Intel-Astroturfer hier nicht. Wenn Zen die CPU-Effizienz auf Intel-Niveau steigert wird das auch voll durchschlagen.
Gib doch nicht gleich auf.
Der Ausgang der Diskussion ist dieser Link:
http://www.bitsandchips.it/9-hardware/7477-apu-zen-custom-nei-macbook-pro-tra-il-2017-e-il-2018
Und im letzten Absatz spekuliert der Auto über einen Custom-SoC mit 35/45 W TDP, also nix mit ULV. Aber ohne die Einschränkung auf ULV klappt es nicht aufzuzeigen, dass die GT2 ihren AMD-Konkurrenten in 28 nm überlegen ist.
Apple ist zuzutrauen, dass sie auf AMD setzen. Sie haben ihr eigenes Betriebssystem und entwickeln ihre Apps selbst, die an die eigene HW angepasst sind. Nur zählt für Apple nicht nur die reine Leistung. Apple hat sein iMovie und setzt auf Quicksync. Und da hat Intel nicht nur einen großen Vorsprung, sondern scheint die beste Qualität zu bieten. Sprich:
Wenn ein MBP mit einer Intel-CPU unter iMovie bessere Bildqualität liefert und dafür schneller und länger läuft, wird Apple nicht blind umsatteln.
Undertaker
Was ist das denn für ne Argumentation?
Wenn AMD es schafft in 28nm mit fast doppelt sovielen Transistoren schafft einigermaßen mitzuhalten ist das ein Armutszeugnis für Intel, sonst gar nix. Noch schlimmer ist, dass man das eDRAM benötigt um AMD zu schlagen in dem Bereich. AMD ist Jedi-Meister was Grafik angeht, Intel noch Padawan. Immerhin sind sie über den Jüngling-Status hinausgekommen. Wie soll das denn werden, wenn AMD 14nm und ne ordentliche CPU mitbringt und zusätzlich noch 50% mehr CUs? Mahlzeit.
Undertaker
2016-09-26, 18:40:08
Undertaker
Was ist das denn für ne Argumentation?
Wenn AMD es schafft in 28nm mit fast doppelt sovielen Transistoren schafft einigermaßen mitzuhalten ist das ein Armutszeugnis für Intel, sonst gar nix. Noch schlimmer ist, dass man das eDRAM benötigt um AMD zu schlagen in dem Bereich. AMD ist Jedi-Meister was Grafik angeht, Intel noch Padawan. Immerhin sind sie über den Jüngling-Status hinausgekommen. Wie soll das denn werden, wenn AMD 14nm und ne ordentliche CPU mitbringt und zusätzlich noch 50% mehr CUs? Mahlzeit.
Ein Effizienzunterschied von rund 100% bei CPU und GPU bei obendrein halber Transistorzahl ist weit mehr, als ein 28 vs. 14nm Shrink bringt. Wenn Raven Ridge 50% mehr CUs und knapp 50% mehr Takt schafft und das Bandbreitenproblem löst, wird man damit GPU-seitig auf Skylake aufschließen. Das ist imo ein realistisches Ziel, eine tolle Leistung in Anbetracht der begrenzten Ressourcen und sicher auch 2017 noch ein vernünftiges Produkt. :)
Bzgl. Speicherbandbreite sehe ich übrigens für mobile Zwecke 2x DDR4-2133/2400 als absolut ausreichend an, wenn eine vernünftige Komprimierung vorliegt. Nvidia holt mit GM108 aus 1x 64 Bit DDR3-2000 etwa die gleiche Leistung wie die GT3e heraus bzw. fast das doppelte von Carrizo. Leider nutzen aktuell weder Intel noch AMD die Bandbreite auch nur annähernd so effektiv aus.
Setsul
2016-09-26, 20:17:23
@Undertaker: Ich glaube das ist ein Tippfehler. Ich habe aber keine Ahnung mehr ob ich 25, 35 oder 45W gemeint habe.
Reines Gedankenspiel hier für einen Best Case, da ich die tatsächlichen Taktraten nicht kenne. Alle Zahlen sind geraten, ich versuche nur herauszufinden, wo ich wahrscheinlich ursprünglich gelandet bin.
Wie gesagt, alles absoluter best case.
Leistung ~ Takt
Leistungsaufnahme ~ Takt^2, nehme ich jetzt einfach mal für alles an.
Jeweils der langsamte 2C/4T HD 540 und 4C/8T Iris Pro 580, das wären der i5-6260U und der i7-6770HQ mit 1,8 bzw 2,6 GHz Basistakt. Wieder völlig aus der Luft gegriffen nehme ich jetzt einfach an, dass die tatsächlichen Taktraten das gleiche Verhältnis haben, also 1,44. Mit den Topmodellen (i7-6660U und i7-6970HQ) würde es sich auf 1,17 verbessern, aber wie gesagt, erstmal best case.
Dann jetzt einfach mal die Annahme, dass das Verhältnis CPU/GPU TDP bei 15W 2:1 ist bei AMD und 1:2 bei Intel, bei 100% GPU Geschwindigkeitsvorteil für Intel, Effizienz wäre also exakt gleich.
Nominell 10W für die HD 540, 5W für 2 Kerne. 10W für 4 Kerne, dann noch die Taktraten dazu und es sind 21W. Beim Intel best case nur knapp 14W. Damit bleiben ungefähr 24 bzw. 31W für die GPU. 50% mehr sollte die Iris Pro 580 durch reine Größe verbrauchen, damit bleibt noch ein Faktor von etwa 1,6 bzw. 2,1. Also ungefähr 27% bzw. 45% höhere Taktraten.
Jetzt für AMD den wirklich absoluten CPU best case: 8C/16T Zen bräuchte auf 32nm ähnlich viel Fläche wie 4M/8T Bulldozer, also nehme ich jetzt einfach mal an, ob das wirklich erreicht wird ist eine andere Frage, aber etwas besseres kann ich mir kaum vorstellen, dass man 4C/8T Zen in der gleichen TDP wie Excavator unterbringen könnte und auf 14nm dann in der halben. Entsprechend niedriger müssten Taktraten und Leistung sein im Vergleich zu Skylake, aber man bräuchte nur 5W für die CPU.
Auf zur GPU. Auf 28nm halbe Leistung von Intel mit 10W mit 5W, also für ein Patt auf 14nm reichen 5W. Nachdem die 60mm², die man für 6 CUs bei 28nm braucht, lächerlich sind, gebe ich AMD lineare Skalierung (Taktraten gleich, mehr CUs), denn wenn Intel 135mm² in 14nm für die GPU verbraten darf, kann man AMD wirklich mehr als 30mm² zugestehen. Also 50% für die 50% mehr EUs von der 540 zur 580 -> 7,5W und dann nochmal 27% bzw. 45% drauf ergeben 9,5W bzw. 11W. 14,5-16W insgesamt.
Schönrechnen kann man sich eben alles.
Falls jemand brauchbare Zahlen hat bezüglich des tatsächlichen Vebrauchs, würde ich das gerne nochmal mit echten Zahlen durchrechnen.
Ich bin mir aber ziemlich sicher, dass die Intel GPUs immernoch erbärmlich sind in der Effizienz, so viel Fläche kann man nicht verbauen ohne dass es sich auf den Verbrauch auswirkt.
Realistisch wären wohl 20% weniger CPU Leistung, dafür gleiche oder bessere GPU Leistung bei 25-35W. Nachdem Zen weder die hohen Boost Taktraten noch die single threaded IPC erreichen wird, wäre das wohl auch eine gute Strategie. Man zwingt Intel Vergleiche auf, die sie nicht gewinnen können. Bei gleicher GPU Leistung hat man niedrigere TDP, bei gleicher TDP kann man bestenfalls gleiche CPU Leistung und dafür höhere GPU Leistung bieten. Dazu sollte man auch noch einen kleineren Die haben und ohne EDRAM auskommen, also bleibt auch ein netter Gewinn übrig.
Nachtrag: Was hängt ihr euch denn an der Transistorenzahl auf? Wenn man auf gleicher Fläche mehr Transistoren unterbringt, heißt das nicht, dass man automatisch mehr verbraucht. Kleinere Transistoren müssen weniger verbrauchen, sonst funktioniert das ganze System nicht.
Und wenn man die doppelte Fläche investiert, aber nicht die doppelte Leistung erreicht, dann hat man entweder viel zu viel dark silicon oder man fährt viel niedrigere Taktraten oder man braucht mehr Leistung. Aber außer die realen Taktraten weichen massiv von den nominellen ab, sollte Intel eigentlich die höheren haben und wenn bei einer GPU unter Vollast die Hälfte powergated ist, läuft irgendetwas falsch.
@Undertaker: Rechne doch bitte mal vor wieviel mehr Effizienz der Shrink von 28 auf 14nm bringt. Wir kommen da anscheinend auf völlig andere Ergebnisse und ich weiß nicht wieso.
fondness
2016-09-27, 08:37:27
Ein Effizienzunterschied von rund 100% bei CPU und GPU bei obendrein halber Transistorzahl ist weit mehr, als ein 28 vs. 14nm Shrink bringt. Wenn Raven Ridge 50% mehr CUs und knapp 50% mehr Takt schafft und das Bandbreitenproblem löst, wird man damit GPU-seitig auf Skylake aufschließen. Das ist imo ein realistisches Ziel, eine tolle Leistung in Anbetracht der begrenzten Ressourcen und sicher auch 2017 noch ein vernünftiges Produkt. :)
Jede Diskussion mit dir läuft in die selbe Richtung, ich bin es mittlerweile müßig, dass hier sämtliche AMD-Threads geshreddet werden. Du ignorierst wie immer mehrere Fakten: Erstens wird AMD den Vorteil in der Packdichte auch bei 14nm mitnehmen, dein Transistorenvergleich ist also bestenfalls Intel-Marketing, bezahlen tut man für Chipfläche. Zweitens geht Intel bei steigender TDP völlig die Luft aus, Intel hat eben den Vorteil, dass Geld keine Rolle spielt und man mehrere Dies mit unterschiedlich großer GPU bauen kann. AMD muss alles mit einem Die abdecken, was im ULV-Bereich dann natürlich zu Effizienzverlusten führt. Das CPU-Argument wurde ja schon gebracht, die CPU schnappt sich bei AMDs APUs mit hoher wahrscheinlichkeit einen größeren Teil der TDP-Kuchens als bei Intel. Dabei ist es völig egal, ob ein relatives CPU- oder GPU-Limit vorliegt. Denn bei einem GPU-Limit taktet die Intel-CPU natürlich ebenfalls so weit runter wie möglich und braucht dementsprechend in Relation weiterhin weniger TDP.
YfOrU
2016-09-27, 12:05:08
Zweitens geht Intel bei steigender TDP völlig die Luft aus
Meiner Ansicht nach deckt Intel mit 2C+GT2 und 2C+GT3e (5 - 28W) den für APUs (mit Fokus auf die GPU Performance) wirklich interessanten Bereich ganz gut ab. Also Mobile und SFF.
AMD skaliert aktuell mehr oder weniger freiwillig deutlich darüber hinaus. Adressieren lassen sich damit aber nur klassische Desktop Systeme und mehr als Entry Level ist es in Relation zu dem hier vorhandenen TDP Spielraum (dGPU) am Ende trotzdem nicht. Die Konkurrenzsituation am (ATX) Desktop von APUs zu CPUs + Entry Level dGPUs mit dedizierten Speicher (und damit höherer Bandbreite) besteht schon immer. Sonderlich groß ist der Kostenvorteil der APUs (Vollausbau + flotter Speicher) selten gewesen. Entsprechend sind der Marktpositionierung in Bezug auf die integrierte GPU meist enge Grenzen gesetzt.
Als problematisch sehe ich deshalb die immer weitere Entwicklung hin zu SFF bei Desktops ohne dGPU. Da sind auch 45W TDP schon eher das obere Ende der Fahnenstange. Tendenziell wird das Segment für APUs im gehobenen TDP Bereich damit noch kleiner. Zur Klarstellung: Als "APU" betrachte ich hier eine in Relation zur gesamten SoC TDP potente integrierte GPU. Also nicht etwas wie 4C+GT2 bei 65W+ ;)
Ein Effizienzunterschied von rund 100% bei CPU und GPU bei obendrein halber Transistorzahl ist weit mehr, als ein 28 vs. 14nm Shrink bringt. Wenn Raven Ridge 50% mehr CUs und knapp 50% mehr Takt schafft und das Bandbreitenproblem löst, wird man damit GPU-seitig auf Skylake aufschließen. Das ist imo ein realistisches Ziel, eine tolle Leistung in Anbetracht der begrenzten Ressourcen und sicher auch 2017 noch ein vernünftiges Produkt. :)
Bzgl. Speicherbandbreite sehe ich übrigens für mobile Zwecke 2x DDR4-2133/2400 als absolut ausreichend an, wenn eine vernünftige Komprimierung vorliegt. Nvidia holt mit GM108 aus 1x 64 Bit DDR3-2000 etwa die gleiche Leistung wie die GT3e heraus bzw. fast das doppelte von Carrizo. Leider nutzen aktuell weder Intel noch AMD die Bandbreite auch nur annähernd so effektiv aus.
Na ja, die größeren, teuren, mobilen RavenRidge-Modelle werden um einen HBM-Stack nicht drumherum kommen und die werden ihn sicherlich auch bekommen. Einen NV-Vergleich kannst du dir aber sparen, weil an diese Bandbreiteneffizienz beide nicht herankommen und das für dieses Diskussion 100% irrelevant ist. Wenn du NV promoten willst, mach das woanders ;).
Undertaker
2016-09-27, 13:10:13
Du verstehst die Intention dahinter nicht: Aktuell wird bei beiden Herstellern zuviel kostbare Bandbreite verschenkt bzw. nicht genutzt, die sich – deshalb das Beispiel – sehr viel besser nutzen lassen könnte. :) Hinter HBM sehe ich die Kosten als großes Problem, zumindest insofern, als dass diese zusammen mit dem Interposer auch 2017/2018 für den Massenmarkt zu hoch sein dürften. Das wäre eine Option für den High-End-Bereich, in den man wiederum aber nur hineinkommt, wenn auch CPU-Leistung und Energieeffizienz an der absoluten Spitze liegen. Die Erwartungshaltung schießt bei einigen schon wieder in Richtung Mond, aber ich kann nur wiederholen das man mit Blick auf die Entwicklungsbudgets und die Ausgangsposition realistisch bleiben sollte.
Als wahrscheinlicher erachte ich deshalb derzeit ein ganz normales 2x 64 Bit DDR4-Interface. Und deshalb wäre es auch immens wichtig, dass es endlich einen merklichen Fortschritt bei der Bandbreiteneffizienz gibt, um eine höhere Rechenleistung auch real umsetzen zu können. Imo einer der wichtigsten Punkte überhaupt für Raven Ridge.
HBM ist eh nur für die hochpreisigen Mobilprodukte interessant, da sind die Kosten kein Problem und dort wäre es fahrlässig HBM nicht einzusetzen. Für die popelige OEM-Desktop-Variante ist HBM natürlich unsinnig. Dort muss aber sowieso noch eine kleinere Variante mit 2 Kernen und 4-5CUs kommen, um Carrizo und StoneyRidge zu ersetzen. Das kann RavenRidge nicht leisten. Des weiteren konnte mir immer noch niemand irgeneinen Nachweis für die Behauptung bringen, dass HBM ach so teuer ist. Das wird einfach ne Frage der Produktionsmenge sein.
Wenn die CPU-Leistung auch bei niedriger TDP stimmt, ermordet GCN @14nm-Sweetspot die Intel-Grafik einfach, die haben keine Chance mMn. Da liegt der Knackpunkt. Das bei eher grafikintensiven Anwendungen 28nm Carrizo schon so verdammt nah an den FF-Intels ist, spricht eine deutliche Sprache. NV ist hier völlig außen vor, darum gehts hier nicht.
Undertaker
2016-09-27, 15:23:55
Wenn die CPU-Leistung auch bei niedriger TDP stimmt, ermordet GCN @14nm-Sweetspot die Intel-Grafik einfach, die haben keine Chance mMn.
Um das zu konkretisieren: Welche Zuwächse erwartest du genau? Meine Prognose läuft bei 50% mehr ALUs, knapp der Hälfte mehr (realem) Takt, DDR4-2400+ und verbesserter Bandbreitennutzung auf etwa Faktor 2 gegenüber dem aktuellen Level hinaus (d.h. etwa Kaby Lake GT3e). Zu Cannonlake will ich mir noch kein Urteil erlauben (zu wenig Infos zu den 10nm Fortschritten und Verbesserungen der GPU-Architektur); wenn du von "Ermordung" sprichst, müsste das aber mindestens eine Vervierfachung der aktuellen Leistung bedeuten. Das wäre dann doppelt so schnell wie die Kaby Lake GT3e und imo wohl auch noch klar vor Cannonlake. Entspricht das deiner Erwartungshaltung?
Hübie
2016-09-27, 15:26:36
Ich hoffe ihr kauft das Teil auch; soviel wie ihr schreibt... :D
@Undertaker: kannst du mal konkreter damit werden, was du ueberhaupt genau vergleichen willst?
Entweder sprechen wir von einem bestimmten TDP Ziel, dem maximal Moeglichen oder hypothetischen Produkten, aber bitte nicht alles durcheinander.
Undertaker
2016-09-27, 15:43:51
Zunächst einmal die mit Abstand zahlenmäßig wichtigste Klasse, 15 Watt. Bei der Skalierung darüber wird es noch entscheidender, welche Bandbreite zur Verfügung steht.
Setsul
2016-09-27, 15:53:15
Ein Effizienzunterschied von rund 100% bei CPU und GPU bei obendrein halber Transistorzahl ist weit mehr, als ein 28 vs. 14nm Shrink bringt.
Ich meins ernst, zeig mir wie du darauf kommst.
TSMC behauptet das:
TSMC's 16FF+ (FinFET Plus) technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology.
Samsung das:
14LPE offers 40% faster performance; 60% less power consumption; and, 50% smaller chip area scaling as compared to its 28LPP process.
14LPP (Performance boosted edition) is the 2nd FinFET generation which the performance is enhanced up to 10%.
Maxwell zu Pascal und GCN3 zu GCN4 lässt sich auch leicht durchrechnen.
In welcher Welt ist das weit von 100% entfernt? Wieviel bringt der Shrink denn deiner Meinung nach? 30%? 50%? 90%?
15 Watt.
Na dann
Faktor 2 gegenüber dem aktuellen Level hinaus (d.h. etwa Kaby Lake GT3e).
Kaby Lake GT3e soll also mal so um die 80% schneller sein als Skylake GT3e? Wo kann man das nachlesen?
Undertaker
2016-09-27, 16:07:38
Ich meins ernst, zeig mir wie du darauf kommst.
[...]
Wieviel bringt der Shrink denn deiner Meinung nach? 30%? 50%? 90%?
Mal ein Beispiel:
GP104 vs. GM204 im Vollausbau:
+38% Transistoren
+65% Performance
+9% Leistungsaufnahme
--> 51% bessere Effizienz inklusive Architekturverbesserungen bei 38% höherem Transistorbudget
Da die Packdichte bei AMD und Nvidia um jeweils rund 75% gestiegen ist, könnte man bei gleicher Chipfläche wie in 28nm auch noch mehr Transistoren unterbringen und die Effizienz damit noch etwas steigern. In Anbetracht der gestiegenen Kosten werden die Chipfläche im Vergleich zu 28nm allerdings wohl überall etwas sinken.
Wer will kann das Gleiche auch mal bei den AMD-GPUs durchrechnen, u.U. kommt da vielleicht auch mehr als die obigen 51% heraus. Aber selbst inklusive Architekturverbesserungen wird das mit Faktor 2 schwierig. Ohne diese reden wir wohl tatsächlich über <<50% nur durch den Prozess, ja.
Kaby Lake GT3e soll also mal so um die 80% schneller sein als Skylake GT3e? Wo kann man das nachlesen?
Hat keiner geschrieben. Skylake GT3e ist in 15W etwa doppelt so schnell wie Carrizo 15W. Bristol Ridge und Kaby Lake legen je rund 25% auf ihre Vorgänger drauf, d.h. gleichbleibendes Kräfteverhältnis.
Man darf hier nicht den Fehler machen und von Polaris ausgehen, da Polaris weit vom Sweetspot entfernt ist. Schon bei Hawaii hat man gesehen, was passiert, wenn man dort TDP und Takt beschränkt. Zudem wird RavenRidge sicherlich auch auf Vega basieren (Jaguar und Kaveri war auch GCN gen2, Carrizo GCN gen3) und zudem wird man das agressive Powergating des P11 einbauen und man weiss ebenfalls nicht, ob RavenRidge in 14LPP, 14LPP+ oder 14HP kommen soll, es gibt verdammt viele Fragezeichen. Doch selbst im Worstcase, also mit Polaris DCC und 14LPP wird es mMn locker reichen, sofern da nicht die CPU einen Strich durch die TDP-Rechnung macht. 12CUs mit 800-900MHz sind ne echte Hausnummer und brauchen nach Adam Riese weniger Saft als die 8 Carrizo CUs.
Auch Pascal mit Maxwell zu vergleichen bringt dich nicht weiter. Selbst wenn man davon absieht, dass NV hier echt keine Rolle spielt und das nicht vergleichbar ist (also etwas Äpfel mit Erbsen vergleichst), musst du Maxwell mit Pascal @ Maxwell-Taktraten vergleichen, da kommst du auf sinnvollere Werte.
Hat keiner geschrieben. Skylake GT3e ist in 15W etwa doppelt so schnell wie Carrizo 15W. Bristol Ridge und Kaby Lake legen je rund 25% auf ihre Vorgänger drauf, d.h. gleichbleibendes Kräfteverhältnis.
Im CPU Limit, bei Spielen mit niedrigsten Settings vielleicht. Bei reiner Grafikleistung ist es weit weniger. Und nur um nochmal daran zu erinnern, was die Ausgangslage war:
Wenn die CPU-Leistung auch bei niedriger TDP stimmt
Man darf nicht den Fehler machen und einfach nur FPS von Games auf 15 Watt Laptops vergleichen. Grafikeinstellungen inkl. Aufloesung werden auf das Minimum reduziert, um spielbare Performance zu erreichen, wenn ueberhaupt. Der CPU Teil wird mit Zen eh auf 0 gestellt. Und dann ist die Diskussion irgendwo an der falschen Stelle. Ich erwarte zumindest zeitnah keine RR APU mit 15 Watt. Dafuer haelt BR/SR noch eine Weile her, wurde ja auch eben erst inkl. der neuen Plattform eingefuehrt. RR ist ein Quadcore mit >8 CUs. Das dann mit einer 15 W 2C CPU und eDRAM vergleichen zu wollen ist schon etwas weit hergeholt. Insofern sind wir schon wieder bei Spekulationen zu hypothetischen Produkten, naemlich einer eventuellen Dual-Core Zen APU mit <8 CUs oder sowas. Und wo wir schon dabei sind: eDRAM koennte AMD auch, wenn sie wollten... oder halt HBM.
Undertaker
2016-09-27, 16:52:27
Im CPU Limit, bei Spielen mit niedrigsten Settings vielleicht. Bei reiner Grafikleistung ist es weit weniger. Und nur um nochmal daran zu erinnern, was die Ausgangslage war:
Nein, nicht nur im CPU-Limit, sondern auch in (sehr) hohen Einstellungen (auch wenn ich die mangels Spielbarkeit für unsinnig halte). Generell verschiebt sich da zwischen verschiedenen Settings relativ wenig; in niedrigen Einstellungen bremst die CPU, in hohen Einstellungen die Bandbreite. Bristol Ridge kommt im GPU-Limit kaum auf die HD 620 (Kaby Lake GT2), schau doch selbst (http://www.notebookcheck.com/Kaby-Lake-Core-i7-7500U-im-Test-Skylake-auf-Steroiden.172422.0.html) die Benchmarks an (http://www.notebookcheck.com/Bristol-Ridge-im-Test-AMDs-A10-9600P-gegen-die-Konkurrenz.168172.0.html). Etwas besser siehts nur im 3DMark aus, wer sich denn daran aufgeilen möchte. :)
@Hot: Wenn selbst inklusive neuer Architektur nur 50% Effizienzsteigerung herausspringen, was genau sagt uns das dann über den Anteil des reinen Fertigungsprozesses daran? Richtig: Der hat offensichtlich noch (weit) weniger als 50% gebracht. Darum auch meine Prognose von etwa 100% mehr GPU-Leistung im gleichen TDP-Bereich für Raven Ridge, wovon allerdings mehr als die Hälfte durch Architekturverbesserungen kommen muss.
Setsul
2016-09-27, 17:06:19
Schlechte Idee auf die Transistoren zu gehen, aber wenn dann muss man auch die Fläche miteinbeziehen.
Pascal kommt auf 75% höhere Packdichte, aber ziemlich genau 100% mehr Leistung pro Fläche. Pascal läuft mMn weiter oben in seiner Leistung vs Leistungsaufnahme Kurve als Maxwell.
Bei niedrigerem Takt kann man sehr wohl die 100% erreichen.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1070-8gb-pascal-performance,4585-8.html
Techpowerup kommt auf ziemlich genau gleiche Leistungsaufnahme, also minimal bessere Ergebnisse.
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/27.html
Jetzt schauen wir uns doch mal an wie AMD abschneidet.
https://www.techpowerup.com/reviews/AMD/RX_480/25.html
Also inklusive Architekturverbesserungen sehe ich keine wirklichen Probleme mit Faktor 2. Bei knapp 170W läuft die 480 auch wirklich nicht im Sweetspot und ist trotzdem im Verleich zur 285 fast da, wenn AMD also will, können sie definitiv 100% höhere Effizienz bei den APUs erreichen.
EDIT: Nicht vergessen, da ist immer der Speicher noch mit drin. Relevant für komplette Grafikkarten, erstmal nicht relevant für diese Berechnungen bei APUs. Bei gleicher Leistung und gleicher Architektur wird sich die Leistungsaufnahme des Speicher nicht halbieren sondern fast gleich bleiben. Also selbst wenn der Prozess +100% Effizienz bringt, wird die gesamte Karte das nicht erreichen.
Wie du schon sagst: das ist fast alles komplett unspielbar und dementsprechend unsinnig heranzuziehen. Was juckt es mich ob ich 15 oder 8 FPS habe.
9600P ist zudem Salvage (6 statt 8 CUs) und liegt im 3DMark trotzdem nur 10% hinter GT3e.
Dass der i5 so oft so viel schneller ist als der i7 spricht eine klare Sprache und dann sind die Ergebnisse inkonsistent ohne Ende. Da spielt die CPU insgesamt einfach eine viel zu grosse Rolle.
Also nicht alles schlechtreden, sondern erstmal abwarten.
Und was Architekturverbesserungen betrifft ist noch hinzuzufuegen, dass RR auf Vega- und nicht auf Polaris-Niveau ist.
YfOrU
2016-09-27, 20:31:50
Dass der i5 so oft so viel schneller ist als der i7 spricht eine klare Sprache und dann sind die Ergebnisse inkonsistent ohne Ende.
Liegt daran das Lenovo in Relation zu den meisten anderen Herstellern in dieser Geräteklasse niedrigere Oberflächentemperaturen präferiert. Ganz krass ist das bei den Convertibles mit Core M.
Wirklich inkonsistent sind die Ergebnisse zur GT3e nicht:
http://www.notebookcheck.com/Intel-Iris-Graphics-540.149868.0.html
XPS 13
IdeaPad 710S-13ISK
NUC6i5SYH / Surface Pro 4
Die Reihenfolge definiert sich nicht über die CPU (i5 / i7) sondern über die Leistungsfähigkeit der Kühlung sowie die vom Hersteller gewählten zulässigen Temperaturen. Das XPS 13 schneidet deshalb auch deutlich schlechter ab als alle anderen Geräte. Die Kühlung ist unterdimensioniert. Das SP 4 ist für ein mobiles Gerät dagegen ein echtes Vorzeigeprodukt.
Aufgrund der vielen Variablen (Kühlung, Limits) und der heute üblichen hohen Differenz von Basis zu Turbo Frequenz ist die CPU Bezeichnung zwar ein Anhaltspunkt aber eben kein Garant für die tatsächliche Performance eines Gerätes bei konstanter Last.
deekey777
2016-09-30, 09:55:36
Dieses Bitsding hat nachgelegt: http://www.pcgameshardware.de/AMD-Zen-Codename-261795/News/Apple-AMD-Custom-APU-Macbooks-1209177/
fondness
2016-10-01, 13:21:29
SemiAccurate hat man wieder ein paar Codenamen und Infos über zukünftige AMD-APUs geleaket, die über WCCFtech zum teil öffentlich zugänglich sind:
http://wccftech.com/amd-avian-apu-roadmap-2017-2018-2019/
https://semiaccurate.com/2016/09/08/amd-prepares-field-great-horned-owl-banded-kestrel/
Für eigene Threads ist es IMO noch zu bald, deshalb poste ich es hier.
Leonidas
2016-10-04, 06:52:16
Lisa Su hat beim earnings call offiziell bestaetigt, dass sie an einer HPC APU arbeiten
Ich denke, sie hat bestätigt, das man dies bei AMD für "interessant" hält. Die Bestätigung einer laufenden Arbeit an so einem Projekt sieht noch etwas anders aus.
Wieso muss Lisa Su bestätigen, was seit Mai 2015 (!) auf der öffentlichen Roadmap steht?
Link?
Seitdem Analyst Day 2015 steht die HPC-APU auf der Roadmap:
Mein Fehler, hatte die selbst hier auf 3DC veröffentlichte Roadmap nicht mehr im Kopf.
Hm Snowy Owl based on Naples? 2 Zepplin weg dafür ein Vega11 drauf oder was?
Aus Raven Ridge wird also Horned Owl. Ich nehme an, das wird schon das gleiche Ding sein in einem anderen Prozess (14HP). Banded Kestrel würde demnach Carrizo ersetzen. StoneyRidge dürfte preislich und leistungstechnisch darunter liegen und neben der APU bestehen bleiben.
Aus Raven Ridge wird also Horned Owl. Ich nehme an, das wird schon das gleiche Ding sein in einem anderen Prozess (14HP).
Horned Owl is a variant of next year’s Raven Ridge mainstream APU
Es ist nun auch wirklich nichts neues, dass embedded SoCs nach Voegeln benannt werden. Raven Ridge wird also Raven Ridge bleiben, genauso wie Bristol Ridge Bristol Ridge geblieben ist, obwohl es Merlin Falcon vorher schon gab.
Banded Kestrel würde demnach Carrizo ersetzen.
Eher Merlin Falcon
StoneyRidge dürfte preislich und leistungstechnisch darunter liegen und neben der APU bestehen bleiben.
Banded Kestrel waere offensichtlich genau das fuer Horned Owl, was Stoney Ridge fuer Bristol Ridge ist. Warum soll man Stoney Ridge mit 1 XC Modul noch mitschleppen? Braucht und will doch keiner mehr :P
Lowkey
2016-10-04, 14:14:06
Bristol Ridge sollte doch heute oder in den nächsten Tagen getestet werden?
Es ist nun auch wirklich nichts neues, dass embedded SoCs nach Voegeln benannt werden. Raven Ridge wird also Raven Ridge bleiben, genauso wie Bristol Ridge Bristol Ridge geblieben ist, obwohl es Merlin Falcon vorher schon gab.
Eher Merlin Falcon
Banded Kestrel waere offensichtlich genau das fuer Horned Owl, was Stoney Ridge fuer Bristol Ridge ist. Warum soll man Stoney Ridge mit 1 XC Modul noch mitschleppen? Braucht und will doch keiner mehr :P
ah ok, danke für die Aufklärung :D.
Klar braucht man Stoney weiterhin, das ist ein absolutes Billigstprodukt und nicht ersetzbar mit einem FF-Chip denke ich.
Locuza
2016-10-28, 13:22:36
Bits and Chips möchte paar Gerüchte bezüglich Raven-Ridge aufgeschnappt haben:
http://www.bitsandchips.it/52-english-news/7622-rumor-two-versions-of-raven-ridge-under-development
Angeblich soll es diese Runde sogar zwei dies geben, einmal ~170mm² groß mit 12 CUs und einmal nur etwas größer mit ~210mm², ausgestattet mit 16 CUs und DDR4 + HBM.
fondness
2016-10-28, 13:35:34
Macht Sinn das mit den 2 Dies, auch wenn die Unterschiede durchaus noch größer sein könnten IMO. Ich würde das allerdings nicht in Desktop und mobile trennen wollen. Eine HBM2 APU macht auch für mobile Sinn.
Gipsel
2016-10-28, 13:36:41
Bits and Chips möchte paar Gerüchte bezüglich Raven-Ridge aufgeschnappt haben:
http://www.bitsandchips.it/52-english-news/7622-rumor-two-versions-of-raven-ridge-under-development
Angeblich soll es diese Runde sogar zwei dies geben, einmal ~170mm² groß mit 12 CUs und einmal nur etwas größer mit ~210mm², ausgestattet mit 16 CUs und DDR4 + HBM.
Das ist verdammt dicht zusammen, das lohnt doch nicht. Entweder die Variante mit mehr CUs kann auch sonst noch irgendwas mehr, oder das waere aus meiner Sicht Verschwendung.
M4xw0lf
2016-10-28, 13:46:12
Produkt für die Semi-custom Sparte vielleicht.
StefanV
2016-10-28, 15:11:53
Ja, absolut.
Das wird was für die Semi Custom Sparte sein. Alles andere macht keinen Sinn...
Die 16CU version mit HBM werden wir wohl in den 2017er Macbooks sehen...
deekey777
2016-10-28, 16:18:33
Die 16CU version mit HBM werden wir wohl in den 2017er Macbooks sehen...
Der war gut.
Raspo
2016-10-28, 17:35:53
Das Zweite könnte der Chip der Scorpio sein.
StefanV
2016-10-28, 18:01:45
Der war gut.
weil??
Das Zweite könnte der Chip der Scorpio sein.
Mit 16 CUs ganz sicher nicht. Zumal das dann sicher auch nicht als "Raven Ridge" laeuft.
Wenn die Tabelle stimmt, verstehe ich es wieder einmal nicht. Das Ding mit HBM ist wie praedestiniert fuers Notebook. Bei den neuen P11 Pro Dingern sieht man, welche Effizienz mit Polaris moeglich ist, dafuer muss man aber den Takt vor allem auch beim Speicher runternehmen. Die Pro Serie skaliert von der 450 zur 460 um 86% bei der Rechenleistung, aber rein gar nicht beim Speicher.
Vielleicht ist das nur eine Art Testlauf fuer eine APU mit HBM. Ansonsten macht das doch keinen Sinn, am Desktop braucht das Ding mit 4C, 16 CUs und HBM wirklich keiner.
Naitsabes
2016-10-28, 21:33:57
Da in meinem Gehäuse keine Grafikkarte passt (und ich das Gehäuse nicht wechseln möchte!), würde ich bei so einer APU nicht nein sagen.
Es gibt sie eben doch, die Zielgruppe für spielefähige APUs. Auch wenn diese Gruppe nur aus mir bestehen mag :D
dargo
2016-10-28, 22:13:18
Ansonsten macht das doch keinen Sinn, am Desktop braucht das Ding mit 4C, 16 CUs und HBM wirklich keiner.
Najo... ich könnte mir schon paar lustige Sachen wie sowas am Desktop vorstellen sofern es richtig funktioniert.
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Windows-10-iGPU-und-Grafikarte-arbeiten-an-einem-Frame-1157931/
Das ist verdammt dicht zusammen, das lohnt doch nicht.
Von der Die-Size ja, beim IMC gibts aber größere Unterschiede. Bei den Taktraten von CPU/GPU gehe ich auch von größeren Unterschieden aus wenn ich mir die TDP anschaue.
Najo... ich könnte mir schon paar lustige Sachen wie sowas am Desktop vorstellen sofern es richtig funktioniert.
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Windows-10-iGPU-und-Grafikarte-arbeiten-an-einem-Frame-1157931/
Ich pers. finde das zwar auch interessant, stufe das aber eher unter Wunschdenken ein. Das ist wohl zu viel Aufwand fuer zu wenig Gewinn. Und dann gibt es auch wahnsinnig viele Konfigurationen. Die wenigsten Devs interessieren sich ja ueberhaupt schon fuer implizite mGPU Nutzung.
Ich lasse mich aber gerne auch vom Gegenteil ueberzeugen ;) Es bliebe dann fuer mich aber wohl trotzdem nur eine sekundaeres Einsatzszenario fuer die APU.
@Naitsabes: Verstehe ich schon. Das ist dann aber ein sehr kleines Gehaeuse und dementsprechend wuerde ich auch in die Laptop Kategorie stecken.
Es ist ja auch nicht so, dass alle Notebooks nur CPUs+GPUs verbaut haben, die zusammen unter 35 Watt bleiben, gerade wenn wir von spieletauglichen Geraeten sprechen.
dargo
2016-10-29, 09:24:32
Ich pers. finde das zwar auch interessant, stufe das aber eher unter Wunschdenken ein. Das ist wohl zu viel Aufwand fuer zu wenig Gewinn. Und dann gibt es auch wahnsinnig viele Konfigurationen. Die wenigsten Devs interessieren sich ja ueberhaupt schon fuer implizite mGPU Nutzung.
Ich lasse mich aber gerne auch vom Gegenteil ueberzeugen ;)
In dieser Demo wurde eine mickrige Intel-IGP verwendet, womöglich sieht man deshalb dort nur +~10%. Schauen wir mal wie das dann bei vernünftigen APUs aussieht.
Es bliebe dann fuer mich aber wohl trotzdem nur eine sekundaeres Einsatzszenario fuer die APU.
Für dich vielleicht. Aber mit dieser 16CUs APU könnte man praktisch jeden E-Sports Spieler bedienen. Diese 16 CUs mit Vega IP sollten eine RX460/GTX1050 vollkommen überflüssig machen sofern die Taktraten nicht weit unter 1Ghz liegen. Also ich sehe da schon einen Markt für.
Edit:
Ein großes Fragezeichen ist für mich dabei noch... wie gut wurde DCC bei Vega gegenüber Polaris verbessert und wie stark kann HBM der "mickrigen" Speicherbandbreite von DDR4 unter die Arme greifen. Zusätzlich ob HBM nun als Vram dienen soll (hier reden wir bei 16 CUs von maximal 4GB, alles andere wäre sinnfrei) oder kleiner ausfällt und eine Art L4 Cache darstellen soll.
Gipsel
2016-10-29, 09:24:48
Das ist verdammt dicht zusammen, das lohnt doch nicht. Entweder die Variante mit mehr CUs kann auch sonst noch irgendwas mehr, oder das waere aus meiner Sicht Verschwendung.Von der Die-Size ja, beim IMC gibts aber größere Unterschiede. Bei den Taktraten von CPU/GPU gehe ich auch von größeren Unterschieden aus wenn ich mir die TDP anschaue.Da rächt sich, daß ich nicht auf den Link geklickt habe :redface:. Wie ich sagte, muß es mehr Unterschiede geben als nur der kleine bei der CU-Zahl, damit sich ein zweites Die lohnt. Mit einem HBM-Interface ist das der Fall.
Locuza
2016-10-29, 13:00:42
Das mit der die-size ist aber weiterhin ein Argument, bei so einem geringen Unterschied frage ich mich auch, ob es sich lohnt zwei unterschiedliche Chips zu designen.
Die CUs kann AMD schließlich einfach deaktivieren und auch so die yield erhöhen, daneben müssen sie natürlich auch nicht das HBM-Interface verwenden.
Stellt sich die Frage, ob AMD bei dem etwas kleineren Chip noch irgendwie mehr Aufwand hineinstecken möchte, ähnlich wie bei Polaris?
Vielleicht ist der chip weniger hoch und ebenso mit Power-Gating ausgestattet und bei dem anderem wird kein die thinning betrieben?
Rein von der Kostenrechnung kann ich das als Laie natürlich nicht einschätzen.
Fudzilla sprach aber auch mal von mehreren Raven-Ridge Versionen, damals bin ich einfach von unterschiedlichen SKUs ausgegangen, aber vielleicht wird es tatsächlich zwei unterschiedliche chips geben.
sulak
2016-10-29, 13:51:42
Das Zweite könnte der Chip der Scorpio sein.
Nope, Scorpio wird weiterhin ein Jaguar CPU Core haben.
http://digiworthy.com/2016/09/11/amd-zen-custom-socs-project-scorpio/
At a recent press conference, AMD CEO Lisa Su is quoted saying they will work closely with Microsoft and Sony to jointly develop new custom-design SoCs that would be out in 2018. For now, the PS4 Pro and the upcoming Xbox Scorpio will use AMD’s latest 14nm graphics chip coupled with the existing CPU core.
StefanV
2016-10-29, 13:55:46
Wenn der eine auf Low Power und der andere auf Performance ausgelegt ist, kann sich das durchaus lohnen.
Eben weil man so das eine Die auf wenig Leckströme und co designen kann, dafür aber niedrigere Taktraten in Kauf nimmt, was hier erst mal egal ist...
Wäre zum Beispiel ein Grund, der mir einfallen würde.
Rente
2016-10-29, 13:55:57
Nope, Scorpio wird weiterhin ein Jaguar CPU Core haben.
http://digiworthy.com/2016/09/11/amd-zen-custom-socs-project-scorpio/ Den Artikel kannst du getrost ignorieren, genauso wie die Quelle dafür - diese Aussage von AMD existiert so nicht und ist mehr oder minder zusammengereimt.
Das heißt natürlich nicht, dass Scorpio definitiv Zen bekommt, aber es ist immerhin noch möglich.
Sunrise
2016-10-29, 13:58:32
Wenn die Apple-Rechnung aufgeht, dann lohnt sich immer auch ein zweiter Die. Wobei ich mir aktuell noch nicht sicher bin, ob Apple jemals auf AMD umstellen würde. Und ohne Apple sind die Stückzahlen wohl wieder zu gering.
sulak
2016-10-29, 14:12:31
Den Artikel kannst du getrost ignorieren, genauso wie die Quelle dafür - diese Aussage von AMD existiert so nicht und ist mehr oder minder zusammengereimt.
Das heißt natürlich nicht, dass Scorpio definitiv Zen bekommt, aber es ist immerhin noch möglich.
Ja die Quellen sind leider etwas untergegangen in den Artikeln, bei Computerbase steht aber etwas ähnliches.
https://www.computerbase.de/2016-08/amd-naples-32-kerne-zen-plus/
Im zweiten Halbjahr 2017 folgt die APU der Desktop- und Server-Lösung, später dann wird Zen auch für Semi Custom freigegeben – dies aber vermutlich frühestens 2018.
€: Wenn die ersten ZENs in Notebooks auftauchen, werden wir sehen, ob die in das Powerbudget einer Konsole passen, neben einer 6GFLOP GPU in 16/14nm wird das "eng". Für volle Abwärtskompatibilität wird es umso schwerer.
deekey777
2016-10-29, 14:13:26
weil??
Machen wir einen Schritt zurück:
Du hast das Wörtchen "wohl" verwendet, also ist es überwiegend wahrscheinlich, dass Apple auf RR setzen wird: Quelle für deine Behauptung?
Sonst:
Warum soll Apple auf AMD wechseln?
fondness
2016-10-29, 14:22:21
Den Artikel kannst du getrost ignorieren, genauso wie die Quelle dafür - diese Aussage von AMD existiert so nicht und ist mehr oder minder zusammengereimt.
Das heißt natürlich nicht, dass Scorpio definitiv Zen bekommt, aber es ist immerhin noch möglich.
Lisa Su hat definitiv gesagt, dass es vor 2018 keine Zen Custom Cores geben wird. Ich habe die Präsentation damals live mitverfolgt.
Den Artikel kannst du getrost ignorieren
Voellig unabhaengig von der Zen oder nicht Diskussion ist es fuer diesen Chip trotzdem ausgeschlossen. Mit 16 CUs bekommst du keine 6 TFLOPs.
Wobei ich mir aktuell noch nicht sicher bin, ob Apple jemals auf AMD umstellen würde.
Warum soll Apple so an Intel haengen? Das juckt die doch nicht die Bohne. Als Intel fuers erste iPhone keinen Chip geliefert hat, haben sie halt auf ARM gesetzt und haben heute mobile ARM Chips auf einem Niveau von denen Intel traeumen kann. :P Apple ist von PowerPC auf x86 gewechselt, von AMD auf Nvidia und zurueck. Ein Wechsel von Skylake auf Zen(+) juckt da doch keinen.
Warum soll Apple auf AMD wechseln?
Warum nicht?
Bei der CPU gibt es Mittelfristig nicht mehr viel zu holen. Schau doch mal die Fortschritte ueber die Jahre an. Wenn AMD da mit Zen(+) annaehernd ran kommt, ist das Gesamtpaket inkl. IGP halt einfach besser, erst recht wenn man mit HBM rechnen kann. Und preislich koennte das sogar auch noch attraktiv sein.
Schau doch einfach mal an, womit Apple die neuen Books bewirbt: schnellere SSD, besseres Display, mehr Grafikleistung. Die neuen Skylakes sind nicht mehr als eine Randnotiz.
Gipsel
2016-10-29, 14:25:00
Lisa Su hat definitiv gesagt, dass es vor 2018 keine Zen Custom Cores geben wird. Ich habe die Präsentation damals live mitverfolgt.Und Microsoft selber deutet an, daß in Scorpio keine Jaguar-Cores mehr stecken (übrigens laut gleicher oben verlinkter Seite (http://digiworthy.com/2016/10/10/phil-spencer-xbox-scorpio-not-use-amd-jaguar/), auf die ich aber nicht so viel geben würde).
Auflösung? Weihnachten 2017 als Starttermin von Scorpio zählt bei AMD vielleicht schon als 2018? Ist doch bei den GPU-Roadmaps bei Starts zum Ende des Jahres auch schon öfter so gewesen. Und wenn MS oder Sony fragen, bekommen die Sachen auch schon mal vor den Zeitpunkten auf öffentlichen Roadmaps, siehe dem offenbar bereits aus Vega entliehenden FP16 mit doppelter Rate in der PS4 Pro.
dargo
2016-10-29, 14:28:21
Warum nicht?
Bei der CPU gibt es Mittelfristig nicht mehr viel zu holen. Schau doch mal die Fortschritte ueber die Jahre an. Wenn AMD da mit Zen(+) annaehernd ran kommt, ist das Gesamtpaket inkl. IGP halt einfach besser, erst recht wenn man mit HBM rechnen kann. Und preislich koennte das sogar auch noch attraktiv sein.
Verstehe auch nicht was dagegen sprechen sollte? :confused: Gerade so eine APU mit Zen/Vega wäre für Apple sehr interessant wenn die doch immer so auf die Kosten achten. Ich kann mir nicht wirklich vorstellen, dass Intel Skylakes günstiger an Apple verkauft als AMD mit Zen.
Und Microsoft selber deutet an, daß in Scorpio keine Jaguar-Cores mehr stecken (übrigens laut gleicher oben verlinkter Seite (http://digiworthy.com/2016/10/10/phil-spencer-xbox-scorpio-not-use-amd-jaguar/), auf die ich aber nicht so viel geben würde).
Ich sehe keinen entsprechenden Hint. Und wenn schon. "nicht Jaguar" = x-beliebige Katze = Jaguar@FinFET. Ich hatte auch im Kopf, dass die PS4 Pro Kerne wegen dem Shrink einen neuen Namen bekommen hatten, finde aber dazu gerade nichts mehr.
8 CPU Kerne sind doch bestaetigt. 8*Zen ist voellig OP fuer die Konsole. Es sei denn, es waere wirklich das Premium-Ding als das MS es verkaufen will. Dann passt es aber nicht zu den GPU Daten mit (fuer "Premium") geradezu laecherlichen 6 TF und ~320 GBps.
Vielleicht heben sie den Takt staerker an als Sony, war ja bei den jeweiligen Vorgaengern auch schon so. Ein 8C Zen hat aber in dieser Konsole imho nichts verloren.
dildo4u
2016-10-29, 14:53:50
AMD braucht ein neuen Low Power Core,selbst Intel hat noch Atom Modelle.
Natürlich bekommt die Konsole keine 8 Desktop Core's,Zen mit 8 Core's erwarte ich bei 500€+.
dargo
2016-10-29, 15:00:53
Was spricht denn gegen 4C/8T @Zen in Scorpio?
Emperator
2016-10-29, 15:26:27
Verstehe auch nicht was dagegen sprechen sollte? :confused: Gerade so eine APU mit Zen/Vega wäre für Apple sehr interessant wenn die doch immer so auf die Kosten achten. Ich kann mir nicht wirklich vorstellen, dass Intel Skylakes günstiger an Apple verkauft als AMD mit Zen.
Nur sind die einigen Axx CPUs wohl noch einiges billiger, als Intel/AMD ;)
Aktuell wird MacOS und die passende X86 Hardware doch nur noch am Leben erhalten für die ganzen IOS/WatchOS/TvOS-Entwickler.
Gipsel
2016-10-29, 15:26:56
Ich sehe keinen entsprechenden Hint.Der ist genauso gut oder schlecht, wie deren erster Artikel dazu. ;)
8 CPU Kerne sind doch bestaetigt. 8*Zen ist voellig OP fuer die Konsole. Es sei denn, es waere wirklich das Premium-Ding als das MS es verkaufen will.Nun, die 8 Jaguar-Kerne sind ja schon heute ein wenig schwachbrüstig (weniger, als ein mäßiger Quadcore auf dem Desktop schafft), die CPU-Leistung limitiert doch schon häufiger. Die CPU-Leistung zu verdoppeln (oder noch ein wenig mehr), würde also sicher nicht schaden. Ich sehe nicht, daß das dann "völlig overpowered" wäre, zumal der Takt aus Verbrauchgründen sicher nicht so hoch wie bei den Desktopexemplaren gewählt wird (da würde wohl nur eine low power Version mit <3GHz reinpassen, womit der Leistungssprung nicht wesentlich über Faktor 2 zu den 2,1GHz Jaguars/Pumas in der PS4 Pro zu beziffern wäre und Scorpio ist bei GPU und Bandbreite wohl grob +50% schneller [+weitere Verbesserungen], die Pro leidet aber bereits unter den langsamen Kernen, da sollte Scorpio am Besten also mehr als 50% draufpacken).
Dann passt es aber nicht zu den GPU Daten mit (fuer "Premium") geradezu laecherlichen 6 TF und ~320 GBps.
Vielleicht heben sie den Takt staerker an als Sony, war ja bei den jeweiligen Vorgaengern auch schon so. Ein 8C Zen hat aber in dieser Konsole imho nichts verloren.Und mit 12TF in FP16 (ähnlich wie PS4 Pro kommt Scorpio doch vermutlich mit doppelter FP16 Rate), weiteren internen Verbesserungen von Vega (die z.B. die Bandbreitenanforderungen etwas verringern könnten), über die man noch gar nichts weiß? Wer sagt denn, daß da aus Kompatibilitätsgründen nicht 64MB eSRAM (verdoppelt) mit vervielfachter Bandbreite drin stecken (glaube ich ehrlich gesagt nicht)? Wieviel wissen wir denn schon über Scorpio, daß Du sowas mit Sicherheit sagen kannst? Ich kann es nicht.
PS:
Im Übrigen hat z.B. eine 1080 mit ~9TFlop/s (und genau in dem Bereich wäre Scorpio ja mit 6/12 TFLOPs/s) auch 320GB/s Bandbreite, die Scorpio mindestens erreichen wird.
dargo
2016-10-29, 15:43:00
Nur sind die einigen Axx CPUs wohl noch einiges billiger, als Intel/AMD ;)
Mit vergleichbarer Leistung?
Locuza
2016-10-29, 16:05:05
Prinzipiell würde ich bei Zen auch keine Probleme sehen, wenn das die von Summit-Ridge sogar ein gutes Stück unter 200mm² landen sollte, mit dem DDR4-Interface, PCIe, GMI und weiterem Krimskrams.
Falls AMD dann noch den L3$ entfernen könnte, wäre das vom Platzverbrauch definitiv kein Problem und die Effizienz sollte dank neuer Architektur und niedrigem Takt auch hinhauen.
@Gipsel: wie gross soll das Ding denn deiner Meinung nach werden? Mit >40 CUs, 8C Zen, eSRAM, 384 Bit GDDR5 SI?
"voellig overpowered" war vielleicht der falsche Ausdruck, trotzdem finde ich es etwas unnoetig. Mehr GPU Leistung ist viel dringender und auch einfacher umzusetzen als mehr CPU Leistung. Zumal die meisten Konsolen Spiele eh wieder nur mit 30 Hz laufen sollen. Vielleicht macht es aber Sinn, wenn MS mit der Scorpio in erster Linie auf VR abzielt. Ansonsten ist es imho schon etwas verschwenderisch.
Zumal die Sache mit der Kompatibilitaet gewaehrleistet sein soll, genau wie bei Sony. Wenn die CPU derart besser ist, fuehlen sich die vorigen Kunden umso mehr zweitklassig eingestuft. Dann sieht man auch mal 30 vs 60 Hz und nicht nur bessere Bildqualitaet.
Nun, die 8 Jaguar-Kerne sind ja schon heute ein wenig schwachbrüstig (weniger, als ein mäßiger Quadcore auf dem Desktop schafft), die CPU-Leistung limitiert doch schon häufiger.
Verstehe das Argument nicht. Die GPUs sind auch schwaecher als eine maessige Desktop GPU. Und es gibt Spiele/Engines, die auch auf dem PC bei relativ wenig CPU perf. (aber vielen Kernen/Threads) auch mit starken GPUs noch gut funktionieren (Doom oder SWBF z.B.). Man muss also nicht immer alles mit Hardware totschlagen.
Und mit 12TF in FP16 (ähnlich wie PS4 Pro kommt Scorpio doch vermutlich mit doppelter FP16 Rate), weiteren internen Verbesserungen von Vega (die z.B. die Bandbreitenanforderungen etwas verringern könnten), über die man noch gar nichts weiß? Wer sagt denn, daß da aus Kompatibilitätsgründen nicht 64MB eSRAM (verdoppelt) mit vervielfachter Bandbreite drin stecken (glaube ich ehrlich gesagt nicht)? Wieviel wissen wir denn schon über Scorpio, daß Du sowas mit Sicherheit sagen kannst? Ich kann es nicht.
Natuerlich kann ich das auch nicht. Es erscheint mir nur unwahrscheinlich, ist aber selbstverstaendlich nur meine laienhafte Einschaetzung.
PS:
Im Übrigen hat z.B. eine 1080 mit ~9TFlop/s (und genau in dem Bereich wäre Scorpio ja mit 6/12 TFLOPs/s) auch 320GB/s Bandbreite, die Scorpio mindestens erreichen wird.
Ich sage auch nicht, dass die Bandbreite insgesamt zu niedrig ist. Ich sage nur, dass die GPU Daten nicht zu einer 8C Zen CPU passen. 6TF und 320 GBps ist etwa die RX480 Referenz (+ Bandbreite fuer die CPU). Wer paart eine RX480 mit einem Octa? AMD baut wohl mit Vega vielleicht auch keinen Paxwell, der mal mit deutlich niedrigerem Speicherdurchsatz auskommt.
Andererseits kann es natuerlich sein, dass man kleinere Kerne auf Zen-Basis entwickelt. Z.B. ohne HT und L3 (wie Locuza vorschlaegt) und gleich auf niedrigere Taktraten abzielt. Das ist aber was anderes, als das, woran ich bei "8C Zen" denke.
Locuza
2016-10-29, 17:25:36
ESRAM wird es wahrscheinlich nicht mehr geben und für die Leute die bezüglich Leistungsunterschiede sensibel reagieren, für die gibt es allgemein kein anderes Gefühl außer die zweite Klasse zu sein, wenn schon von 1,3TF auf 6 TF gesprungen wird.
Ein Zen-Kern ohne SMT steht sehr wahrscheinlich nicht als Option offen, da die extra Logik dafür gering sein sollte und das ganze Design damit validiert wurde.
Die Entfernung vom L3$ könnte aber eine valide Option darstellen, da die Patches für GCC den L3$ nicht als Bestandteil vom Kern ansehen und das möglicherweise ohne viel Aufwand in dem Bezug entfernt werden könnte.
Als gutes Argument sehe aber den Einwand mit dem Budget, weil es wird sich im Schnitt weiterhin mehr lohnen mehr in Richtung GPU, als CPU zu investieren.
Offen ist eben, welches die-size MS vorschwebt, welcher Endkundenpreis und ebenso, was MS aus kurzer und langer Sicht mit der Scorpio vorhat?
Je nachdem könnte es starke Argumente für ordentliche ST-Leistung geben.
StefanV
2016-10-29, 18:01:57
Warum soll Apple auf AMD wechseln?
Weil der Grafikteil bei Intel einfach Mist ist.
Und man bei AMD alles bestellen kann, was man will.
Wenn man eine 8 Core APU mit 32CU GPU + (Grafik) HBM will, bekommt man das.
Wenn man eine 2 Core APU mit 8 CU und unified HBM Speicher will, bekommt man das.
Du scheinst auszublenden, dass mit AMD kleinere, aber leistungsstärkere Produkte möglich sind, so denn man will.
deekey777
2016-10-29, 19:17:56
Weil der Grafikteil bei Intel einfach Mist ist.
Und man bei AMD alles bestellen kann, was man will.
Wenn man eine 8 Core APU mit 32CU GPU + (Grafik) HBM will, bekommt man das.
Wenn man eine 2 Core APU mit 8 CU und unified HBM Speicher will, bekommt man das.
Du scheinst auszublenden, dass mit AMD kleinere, aber leistungsstärkere Produkte möglich sind, so denn man will.
Also doch "ich mach die Welt so, wie sie mir gefällt".
deekey777
2016-10-29, 19:46:38
Warum nicht?
Bei der CPU gibt es Mittelfristig nicht mehr viel zu holen. Schau doch mal die Fortschritte ueber die Jahre an. Wenn AMD da mit Zen(+) annaehernd ran kommt, ist das Gesamtpaket inkl. IGP halt einfach besser, erst recht wenn man mit HBM rechnen kann. Und preislich koennte das sogar auch noch attraktiv sein.
Schau doch einfach mal an, womit Apple die neuen Books bewirbt: schnellere SSD, besseres Display, mehr Grafikleistung. Die neuen Skylakes sind nicht mehr als eine Randnotiz.
Apple wirbt doch nicht nur mit Hardware, sondern mit den Fähigkeiten der Software im Zusammenspiel mit der Hardware. Erinnerst du dich noch, womit Appe bei der Präsentation des iPad Pro warb? Mit Videoencoding. Und das funktionierte so gut, dass eine gewisse Person hier die absolute Überlegenheit gegenüber Surface Pro 3/4 sah. Hinzu kommen weitere Features, die schnell sein müssen (zB Gesichtererkennung und Zuordnung von Fotos bestimmten Personen).
Bei Videoencoding hat AMD bisher mit VCE nichts reißen können. Und nicht einmal Apple wird einen Käufer überzeugen können, ein MacBook Pro mit AMD APU (oder überhaupt einen Mac damit) zu holen, wenn das Resultat schlechter ist oder das Rendering deutlich länger dauert.
dargo
2016-10-29, 19:58:14
Was spricht denn gegen 4C/8T @Zen in Scorpio?
Wenn ich schon sehe was ein Haswell 2C/4T mit 3,7Ghz (L3 allerdings 8MB) unter low level liefert...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11198009&postcount=4431
... dann würde ich darauf tippen, dass ein Zen mit 4C/8T vollkommen für eine Scorpio reicht. Besonders auch unter dem Aspekt, dass man auf Konsole noch paar Prozent mehr aus der CPU rausholen kann.
Locuza
2016-10-29, 20:55:10
Microsoft hat schon 8 Kerne für die Scorpio bestätigt, ich traue dem Marketing schon einiges zu, aber Threads als Kerne zu verkaufen wäre zuviel Gymnastik aus meiner Sicht.
dargo
2016-10-29, 21:00:14
Wer weiß, wer weiß... :D
Bei 8 "echten" Kernen wird das kein Zen. Jedenfalls nicht wie wir ihn am Desktop kennen.
Sunrise
2016-10-29, 22:17:13
Warum soll Apple so an Intel haengen? Das juckt die doch nicht die Bohne. Als Intel fuers erste iPhone keinen Chip geliefert hat, haben sie halt auf ARM gesetzt und haben heute mobile ARM Chips auf einem Niveau von denen Intel traeumen kann. :P Apple ist von PowerPC auf x86 gewechselt, von AMD auf Nvidia und zurueck. Ein Wechsel von Skylake auf Zen(+) juckt da doch keinen.
Die meisten Wechsel hatten handfeste Gründe bzw. waren auch zwingend nötig (PowerPC war quasi tot, daher der Wehsel auf Intel). Ich erkenne aktuell noch keinen Grund, auf AMD zu wechseln. Apple ist schließlich auch nicht zu AMD nach PowerPC gegangen, sondern zu Intel.
Natürlich hängt Apple nicht an Intel, aber AMD müsste da schon was anbieten, wo Apple quasi sonst keine Nachteile ggü. Intel entstehen, und auch sonst will dieser Schritt wohl überlegt sein.
Gipsel
2016-10-29, 23:17:30
@Gipsel: wie gross soll das Ding denn deiner Meinung nach werden? Mit >40 CUs, 8C Zen, eSRAM, 384 Bit GDDR5 SI?Wie gesagt glaube ich nicht an eSRAM. Und ansonsten denke ich schon, daß MS durchaus mit sagen wir mal ~400mm² planen könnte.
36 CUs mit 256bit Interface sind 232mm². Tausche 5 der 6 Display Engines und das PCI-Express-Interface gegen die Southbridge, schlage +30% CUs dazu (dürften bei Scorpio vielleicht 48 werden, es sei denn die Vega-Architektur wird taktfreudiger), +50% Speicherinterface, noch ein bißchn für Vega-Extras, dann noch ein wenig Uncore. Dann bleiben vielleicht 40mm² pro Quadcore-Modul. Wenn Zen da reinpaßt, ist es drin.
"voellig overpowered" war vielleicht der falsche Ausdruck, trotzdem finde ich es etwas unnoetig. Mehr GPU Leistung ist viel dringender und auch einfacher umzusetzen als mehr CPU Leistung. Zumal die meisten Konsolen Spiele eh wieder nur mit 30 Hz laufen sollen. Vielleicht macht es aber Sinn, wenn MS mit der Scorpio in erster Linie auf VR abzielt. Ansonsten ist es imho schon etwas verschwenderisch.Du willst also von 1.3TFlop/s auf 6/12 TFlop/s gehen und die CPU-Leistung vielleicht 30% anheben? Das nenne ich ziemlich unbalanced, zumal die Konsolen heutzutage schon mehr CPU-Leistung vertragen könnten.
Zumal die Sache mit der Kompatibilitaet gewaehrleistet sein soll, genau wie bei Sony. Wenn die CPU derart besser ist, fuehlen sich die vorigen Kunden umso mehr zweitklassig eingestuft.Zumindest binäre Kompatibilität ist auf CPU-Seite sowieso gegeben (x64). Und wenn die vermutlich locker 5-6fache Grafikleistung nicht zur besseren Klasse reicht, wird es ein Faktor 2,5 bei der CPU auch nicht. ;)
Dann sieht man auch mal 30 vs 60 Hz und nicht nur bessere Bildqualitaet.Ja. Hat MS nicht gerade gesagt, daß sie das deutlich bessere Erlebnis und einen wirklichen Sprung hinlegen wollen, anders als mit der PS4 Pro (die bereits jetzt 70% der Grafikleistung bieten kann, das kann es also nicht sein)?
Verstehe das Argument nicht. Die GPUs sind auch schwaecher als eine maessige Desktop GPU. Und es gibt Spiele/Engines, die auch auf dem PC bei relativ wenig CPU perf. (aber vielen Kernen/Threads) auch mit starken GPUs noch gut funktionieren (Doom oder SWBF z.B.). Man muss also nicht immer alles mit Hardware totschlagen.Es limitiert aber die Menge an Details, die Güte der KI und noch eine ganze Menge mehr.
Ich sage auch nicht, dass die Bandbreite insgesamt zu niedrig ist. Ich sage nur, dass die GPU Daten nicht zu einer 8C Zen CPU passen. 6TF und 320 GBps ist etwa die RX480 Referenz (+ Bandbreite fuer die CPU). Wer paart eine RX480 mit einem Octa?Scorpio dürfte sicher eine ganze Ecke schneller als eine RX480 werden, nicht nur wegen der 12TFlop FP16. Außerdem dürfte der Octacore wie schon gesagt aus Stromspargründen recht niedrig getaktet sein (<~3GHz). In der PS4Pro hält man sich bei den Taktraten ja auch zurück (911 MHz für die GPU, Polaris-Desktop läuft mit >1,2 GHz, auch wenn das nicht identisch ist; auch die Puma-Kerne liefen schon in 28nm schneller als mit den 2,1GHz in der PS4Pro). Das kann schon passen.
AMD baut wohl mit Vega vielleicht auch keinen Paxwell, der mal mit deutlich niedrigerem Speicherdurchsatz auskommt.Bandbreiteneffizienter als Polaris sollte das aber schon werden. Mühsam nährt sich das Eichhörnchen. Du erwartest sicher keine GP102 Performance. Aber am GP104 kratzt man vielleicht schon.
Andererseits kann es natuerlich sein, dass man kleinere Kerne auf Zen-Basis entwickelt. Z.B. ohne HT und L3 (wie Locuza vorschlaegt) und gleich auf niedrigere Taktraten abzielt. Das ist aber was anderes, als das, woran ich bei "8C Zen" denke.Für mich wäre das immer noch Zen, nur halt auf den entsprechenden Einsatzzweck zugeschnitten. Wieso sollte das was Anderes sein, wenn man z.B. den L3 kürzt (oder ganz rausschmeißt). Das gab es bei den früheren APUs ja auch bereits und da hat keiner gesagt, das wäre ein anderer CPU-Kern.
Eventuell sehen wir das in Ansätzen bei RavenRidge ja auch, wenn die Gerüchte über die zwei sehr ähnlich großen Dies stimmen. Also um mal wieder auf das Thema zu kommen.
Du willst also von 1.3TFlop/s auf 6/12 TFlop/s gehen und die CPU-Leistung vielleicht 30% anheben? Das nenne ich ziemlich unbalanced, zumal die Konsolen heutzutage schon mehr CPU-Leistung vertragen könnten.
Ich will gar nichts, die Frage ist doch, was MS macht. Wenn es nach mir ginge, wuerde eine Konsole voellig anders aussehen ;p Und "vertragen" koennen sie doch von allem mehr: mehr Speicher, mehr und schnellerer Massenspeicher, mehr CPU und mehr GPU Leistung.
Zumindest binäre Kompatibilität ist auf CPU-Seite sowieso gegeben (x64). Und wenn die vermutlich locker 5-6fache Grafikleistung nicht zur besseren Klasse reicht, wird es ein Faktor 2,5 bei der CPU auch nicht. ;)
Ja. Hat MS nicht gerade gesagt, daß sie das deutlich bessere Erlebnis und einen wirklichen Sprung hinlegen wollen, anders als mit der PS4 Pro (die bereits jetzt 70% der Grafikleistung bieten kann, das kann es also nicht sein)?
Das meinte ich nicht als moegliche Probleme mit der Kompatibilitaet, sondern dass die Titel auch auf der alten XB1 laufen sollen. Entwickler stecken erfahrungsgemaess mehr in Qualitaet als in Bildrate. Also entweder muss sich das fuer Scorpio aendern, sodass das Target ploetzlich bei 60 Hz liegt (und dementsprechend 30 fuer die One), oder man visiert weiterhin 30 FPS an und bekommt auf der One halt nur noch voelligen Schrott. Und bei Multiplayer Titeln, die man online gegeneinander spielt, sehe ich das auch problematisch.
Für mich wäre das immer noch Zen, nur halt auf den entsprechenden Einsatzzweck zugeschnitten. Wieso sollte das was Anderes sein, wenn man z.B. den L3 kürzt (oder ganz rausschmeißt). Das gab es bei den früheren APUs ja auch bereits und da hat keiner gesagt, das wäre ein anderer CPU-Kern.
Ja, da muss ich zustimmen, es ist aber eben wie gesagt nicht das, woran ich zuerst denke, wenn ich "Zen" hoere, daher auch die anfaengliche Ablehnung.
Aber jetzt besser Schluss mit dem OT oder?! ;)
Apple wirbt doch nicht nur mit Hardware, sondern mit den Fähigkeiten der Software im Zusammenspiel mit der Hardware. Erinnerst du dich noch, womit Appe bei der Präsentation des iPad Pro warb? Mit Videoencoding. [...]
Bei Videoencoding hat AMD bisher mit VCE nichts reißen können. Und nicht einmal Apple wird einen Käufer überzeugen können, ein MacBook Pro mit AMD APU (oder überhaupt einen Mac damit) zu holen, wenn das Resultat schlechter ist oder das Rendering deutlich länger dauert.
Natuerlich bewerben sie auch die Hardware. Und was du bzgl. der neuen Features oder Leistungssteigerungen ansprichst, wird hauptsaechlich durch was erreicht? Richtig, durch Hardwarebeschleunigung
https://pics.computerbase.de/7/5/2/4/9/64-1080.20869650.jpg
Auch der letzte Absatz ergibt fuer mich keinen Sinn. AMD verbaut auch moderne Videohardware und wer sagt dass etwas schlechter ist oder laenger dauert?
AMD müsste da schon was anbieten, wo Apple quasi sonst keine Nachteile ggü. Intel entstehen
Das hatte ich ja auch als Voraussetzung genannt, daher verstehe ich deinen Punkt nicht.
deekey777
2016-10-30, 00:01:17
Die meisten Wechsel hatten handfeste Gründe bzw. waren auch zwingend nötig (PowerPC war quasi tot, daher der Wehsel auf Intel). Ich erkenne aktuell noch keinen Grund, auf AMD zu wechseln. Apple ist schließlich auch nicht zu AMD nach PowerPC gegangen, sondern zu Intel.
Natürlich hängt Apple nicht an Intel, aber AMD müsste da schon was anbieten, wo Apple quasi sonst keine Nachteile ggü. Intel entstehen, und auch sonst will dieser Schritt wohl überlegt sein.
Wobei die erste Intel-CPU der Core Duo für das MacBook Pro war und AMD nichts vergleichbares anzubieten hatte.
StefanV
2016-10-30, 02:06:17
Wobei die erste Intel-CPU der Core Duo für das MacBook Pro war und AMD nichts vergleichbares anzubieten hatte.
Die Phenom II (die mit L3 Cache) waren damals sehr konkurenzfähig, insbesondere in diesen Tagen.
=Floi=
2016-10-30, 02:23:59
Die Phenom II (die mit L3 Cache) waren damals sehr konkurenzfähig, insbesondere in diesen Tagen.
wie lange, ein halbes jahr bis intel nachlegte?
das anheben des nb taktes hat man dann auch verpennt.
StefanV
2016-10-30, 02:56:34
wie lange, ein halbes jahr bis intel nachlegte?
Bis zum Nehalem/Bloomfeld.
Naitsabes
2016-10-30, 11:16:12
Leider kam Nehalem paar Tage vor dem PhII…
w0mbat
2016-10-30, 11:51:59
Naja, Phenom II X4 920 und 940 hatten ja nicht umsonst die Bezeichnungen, sie schlugen sich sehr gut gegen den i7 920 und 940 und das bei einem deutlich geringeren Preis.
Und heute ist ein Phenom II X6 deutlich besser als ein i5 750.
Naitsabes
2016-10-30, 13:09:23
Dafuq
Die hatten gegen Nehalem keine Chance.
Die waren den C2Q ebenbürtig (Yorkfield).
Mit Deneb hatte AMd nur Glück, dass Nehalem so verdammt teuer war. Lynnfield als Mainstream CPU kam ja erst später. Und gegen die war AMD mit dem Thuban auch sehr gut aufgestellt.
w0mbat
2016-10-30, 13:45:29
Dadurch hat AMD wieder einen Prozessor im Programm, der im heutigen Markt sicher mithalten kann. Dies geht in einigen Bereich sogar so weit, dass ein Phenom II X4 940 dem Core i7-940 gefährlich werden kann – die auf die Intel-CPUs abgestimmte Namensgebung kommt also doch nicht von ungefähr.
https://www.computerbase.de/2009-01/test-amd-phenom-ii-x4-920-und-940-black-edition/38/
Klar hatten die eine Chance. Im Gesamtrating lag der i7 940 mit DDR3 gerade mal 10% vor dem X4 940 mit DDR2, in Spielen waren sie gleich auf.
Screemer
2016-10-30, 13:54:26
Da muss man aber schon sagen, dass das rating ziemlich zusammengepresst ist bei der spiele auswahl. Alleine einen c2d 8400@3ghz vor den beiden 940ern zu sehen ist irgendwie befremdlich.
w0mbat
2016-10-30, 14:58:40
Genau, wenns nicht ins Weltbild passt, darf es nicht wahr sein.
SavageX
2016-10-30, 16:56:37
Na, beim Spieleranking knubbelt es sich schon sehr stark, womöglich gab es da irgendwo in der Testplattform eine Limitierung. Ich sehe keinen architektonischen Grund, warum ein C2D oder C2Q bei ähnlichem Takt schneller als ein i7 sein sollte, das Gesamtranking sieht da IMO realistischer aus.
Schreibe ich übrigens auf einem Phenom II X4 945, der sich über die Jahre doch ganz wunderbar gehalten hat.
edit:
Ach, das Limit diskutieren die übrigens auch:
Doch der Core i7 kann in anderen Spielen wiederum deutlich zurückschlagen, so dass es am Ende in der Kategorie Spiele quasi ein Unentschieden zwischen den beiden Prozessoren gibt – Grafikkartenlimitierung sei Dank.
https://www.computerbase.de/2009-01/test-amd-phenom-ii-x4-920-und-940-black-edition/38/
Klar hatten die eine Chance. Im Gesamtrating lag der i7 940 mit DDR3 gerade mal 10% vor dem X4 940 mit DDR2, in Spielen waren sie gleich auf.
Der i7-920 liegt 20% vorm schnellsten AMD. Beim i7-940 sind es 28%. Mit Tendenz nach oben bei den Spielen, denn die sind in 5:4 mit low Details. Die regulären dagegen sind völlig GPU limitiert.
Screemer
2016-10-30, 17:07:44
Genau, wenns nicht ins Weltbild passt, darf es nicht wahr sein.
Ich hab von eben diesen e8400@3,6ghz auf nen 940er i7 upgegraded und das waren welten. Das sag ich als amd freund. Deswegen finde ich das geknubbel im gameranking halt komisch.
StefanV
2016-10-30, 17:45:24
Der i7-920 liegt 20% vorm schnellsten AMD. Beim i7-940 sind es 28%. Mit Tendenz nach oben bei den Spielen, denn die sind in 5:4 mit low Details. Die regulären dagegen sind völlig GPU limitiert.
..was sich auch im Preis widerspiegelt, denn der i7-940 kostete 10/2009 auch mal eben ~400€ (https://www.computerbase.de/preisvergleich/eu/?phist=366184), während der Phenom 940 bei weniger als der Hälfte lag (https://www.computerbase.de/preisvergleich/eu/?phist=389214).
Den Preis beim ganzen darf man immer nicht außer acht lassen!
Mag sein, dass die Nehalems flotter waren, die waren aber auch deutlich teurer, vorallen die Boards, da es nur die teuren X58 gab.
..was sich auch im Preis widerspiegelt, denn der i7-940 kostete 10/2009 auch mal eben ~400€ (https://www.computerbase.de/preisvergleich/eu/?phist=366184), während der Phenom 940 bei weniger als der Hälfte lag (https://www.computerbase.de/preisvergleich/eu/?phist=389214).
Den Preis beim ganzen darf man immer nicht außer acht lassen!
Was für ein Schöngerede. Da wird sich extra der teure i7-940 rausgesucht. Versuche das ganze nochmal mit dem i7-920.
Als kleine Stütze:
https://www.computerbase.de/2009-01/test-amd-phenom-ii-x4-920-und-940-black-edition/36/
Die haben gleich viel gekostet, dabei ist der i7-920 die schnellere CPU gewesen.
w0mbat
2016-10-30, 19:33:53
Die haben gleich viel gekostet, dabei ist der i7-920 die schnellere CPU gewesen.
LOL, so ein Blödsinn! Schau dir mal die Kosten für die Plattform an... :freak:
Sunrise
2016-10-30, 19:35:07
Gegen den 920 hatte damals keine CPU eine Chance, da extrem billig (teuer war das Board und vor allem der Speicher) und mit OC auf 4 GHz bei 2,66GHz Basistakt. Das System lief bei mir mehr als 5 Jahre mit absolut brachialer Leistung. Eine bessere Basis gab es nie, vor allem nicht für den Preis.
kunibätt
2016-10-30, 19:41:12
Gegen den 920 hatte damals keine CPU eine Chance, da extrem billig (teuer war das Board und vor allem der Speicher) und mit OC auf 4 GHz bei 2,66GHz Basistakt. Das System lief bei mir mehr als 5 Jahre mit absolut brachialer Leistung. Eine bessere Basis gab es nie, vor allem nicht für den Preis. 2600K kennste?
StefanV
2016-10-30, 19:46:07
Was für ein Schöngerede. Da wird sich extra der teure i7-940 rausgesucht. Versuche das ganze nochmal mit dem i7-920..
Auch der war deutlicht teurer, aber warum machst das nicht selbst?!
Oh und vergiss nicht die ~170€ billigen Boards, wo du bei AMD schon gute für 70€ bekämest...
z.B. ein MSI K9N2 Platinum, 11/09 für ~80€ gelistet.
https://www.computerbase.de/preisvergleich/eu/?phist=389214
Ein MSI X58 war bei ~180€ für September 2009, guggsu:
http://geizhals.eu/?phist=522071
http://geizhals.eu/?phist=449088
http://geizhals.eu/?phist=400003
Dazu kommt, dass das Boardlayout bei den meisten X58 Boards einfach nur Müll war -> keine 2 Slots zwischen 2 Karten, bei den meisten Boards. Nur sehr wenige Boards haben das gehabt (ASUS P6T, Intel DX58SO)
Und der sehr niedrig getaktete i7-920 war auch bei über 200€, in dem Zeitraum:
http://geizhals.eu/?phist=366185
Also hör auf, dein Intel Zeugs schön zu reden!!
Dass LGA 1366 nicht billig war, sollte einleuchten, ist ja auch der Vorgänger vom LGA2011!!
Oder wo siehst sonst noch 2x16 Lanes und 3 Speicherkanäle?!
Gegen den 920 hatte damals keine CPU eine Chance, da extrem billig (teuer war das Board und vor allem der Speicher) und mit OC auf 4 GHz bei 2,66GHz Basistakt
Na, dann mal viel Spass mit deinen 4GHz bei einem C-Step i7-920...
Das ist damit nämlich schlicht unmöglich!
LOL, so ein Blödsinn! Schau dir mal die Kosten für die Plattform an... :freak:
Das ist kein Blödsinn, sondern Fakt, ich habe vom CPU Preis gesprochen.
Auch der war deutlicht teurer, aber warum machst das nicht selbst?!
Und der sehr niedrig getaktete i7-920 war auch bei über 200€, in dem Zeitraum:
http://geizhals.eu/?phist=366185
Na was denn nun? Du bestätigt mich doch selber.
StefanV
2016-10-30, 19:48:16
Das ist kein Blödsinn, sondern Fakt, ich habe vom CPU Preis gesprochen.
...welcher dir ohne Board jetzt genau was nutzt?!
Westmeres gibts ja auch schon für 20-30€, gebraucht.
Nur ohne Board kannst die dir an die Wand nageln und einrahmen.
Und, wie erwähnt, ist das Layout der meisten X58 Boards einfach Schrott.
Gibt nur sehr sehr wenig von denen, die brauchbare, durchdachte Layouts haben...
Und bei den ASUS P6T kannst z.B. keine S-ATA 2 Kabel mit Einrastfunktion nutzen, die meisten MSI, Gigabyte, ASUS Boards haben gerad mal einen Slot zwischen den beiden X16 Slots - yeah, super...
Da fallen mir gleich einige alte AMD Boards ein. ASUS A8R, ASUS A8R32, ASUS M2R, ASUS M2R32, ASUS A8N-SLI in den meisten Geschmacksrichtungen, MSI K9N2 Platinum, MSI K9A und so weiter und so fort. Hier sind 2 Slots zwischen beiden x16ern sogar eher die Regel...
Gipsel
2016-10-30, 20:08:25
Könnten wir mal bitte wieder zum Thema kommen?
Danke.
deekey777
2016-10-31, 09:44:34
...
Natuerlich bewerben sie auch die Hardware. Und was du bzgl. der neuen Features oder Leistungssteigerungen ansprichst, wird hauptsaechlich durch was erreicht? Richtig, durch Hardwarebeschleunigung
https://pics.computerbase.de/7/5/2/4/9/64-1080.20869650.jpg
Auch der letzte Absatz ergibt fuer mich keinen Sinn. AMD verbaut auch moderne Videohardware und wer sagt dass etwas schlechter ist oder laenger dauert?
.
Ist das jetzt Pro oder Contra?
Wenn schon, denn schon:
https://abload.de/img/wennschtyvu9c.jpg
Die Tests wurden von Apple im Oktober 2016 durchgeführt mit Prototypen von 15" MacBook Pro Systemen mit 2,9 GHz Quad‑Core Intel Core i7 Prozessor, Radeon Pro 460 Grafikprozessor, 4 GB Grafikspeicher und 2 TB SSD sowie mit handelsüblichen 15" MacBook Pro Systemen mit 2,8 GHz Quad‑Core Intel Core i7 Prozessor, Radeon R9 M370X Grafikprozessor, 2 GB Grafikspeicher und 1 TB SSD. Alle Systeme waren mit 16 GB Arbeitsspeicher konfiguriert. Getestet mit Autodesk Maya 2017 und einer 1,9 GB großen Szene. Getestet mit der Grid 2 Reloaded Edition v1.0.2 mit integriertem Benchmark bei einer Auflösung von 2560 x 1600 und hohen Qualitätseinstellungen. Getestet mit der Vorabversion von Final Cut Pro 10.3 mit einem 4096 x 2160 30p Projekt. Das MacBook Pro überwacht die thermischen Bedingungen und die Stromversorgung des Systems kontinuierlich und passt die Leistung nach Bedarf an, um einen optimalen Betrieb des Systems sicherzustellen.
Apple warb schon beim PowerMac G4 oder G5 damit, dass die MPEG2-Codierung komplizierter ist als die Mondlandung und der Vergleichs-PC mit Windows nicht mithalten kann. Auf dem Bild von oben sehen wir aber Haswell gegen Skylake, und beim Skylake wurde QuickSync abermals verbessert, wobei schon Haswells QS entsprechend gute Ergebnisse liefert.
Der Ursprung meines Einwandes war, dass AMDs VCE QuickSync unterlegen ist und Apple schon deswegen nicht von Intel CPUs auf AMD CPUs wechseln wird, wenn zu befürchten ist, dass Käufer beim Einsatz von iMovie schlechtere Ergebnisse bekommen oder die Umwandlung länger dauert. Eigentlich hättest du einfach einwenden können, dass der VCE der RR-APUs mindestens auf dem Level der Polaris-GPUs sein wird und damit auch 2-Pass-Encoding unterstützt.
Das Blöde ist aber, dass keine Sau VCE interessiert, die letzten vernüntigen Tests sind mindestens ein Jahr alt, eigentlich zwei (wie der von Heise). Sprich:
Polaris VCE wurde bisher nie richtig getestet, obwohl es kostenlose Software (und damit zB MediaShow Espresso überlegen ist), weil VCE vorbelastet ist. Und AMD tut nichts, um die Vorurteile aus der Welt zu schaffen. Natürlich muss man sich auch bei Microsoft bedanken, weil Windows 10 kein Äquivalent zu iMovie liefert.
Wenn man sich in einschlägigen Foren wie Doom9 oder Gleitz so umschaut, dann ist das Ergebnis:
AMD VCE < Nvidias NVEnc <<<<<<<<<<<<<<<<<<<<<<<<<<< QuickSync.
Natürlich platzt mein Einwand, wenn Apple es zulässt, dass iMovie, FCP oder auch Drittanbieter auf VCE zugreifen können (sofern es überhaupt unter macOS möglich ist) und der Nutzer besseres Ergebnis bekommt.
Ich verstehe ehrlich gesagt dein Problem nicht. Warum soll ich etwas einwenden, was jedem völlig klar ist, inklusive dir selbst? Implizit habe ich übrigens durchaus darauf hingewiesen.
Die vce wird durch dxva und vaapi unterstützt. Soweit ich weiß hat Windows 10 ein Aufnahme und encoding tool am Bord, das die vce nutzt. Amd hat jüngst libs bereitgestellt, die die Nutzung der Videojardware vereinfachen sollen. Der Vorwurf geht also one Leere. Dass es keiner testet mag dagegen durchaus stimmen, zu 2-pass neu polaris habe ich auch noch nichts gesehen.
Selbstverständlich wird man uvd/vce am mac nutzen können wenn das die Entscheidung sein sollte. Ist ja nun auch kein Hexenwerk
Eigentlich hättest du einfach einwenden können, dass der VCE der RR-APUs mindestens auf dem Level der Polaris-GPUs sein wird und damit auch 2-Pass-Encoding unterstützt.
AMD hat es bis jetzt nicht geschafft, den versprochenen 2-pass Modus in ihr Advanced Media Framework nachzuliefern. Sie sind auch ein Schritt zurückgegangen mit Polaris, es gibt kein B-Frame Support mehr.
Naja, was 2-pass angeht weiss ich nicht was das soll. Immerhin sollte man aber zumindest auf dem Blatt mit Kaby mithalten koennen. HEVC Main10 4k wird bei Intel gerade gefeiert
Ausschnitt von Computerbase: "Der Ultrabook-Prozessor Core i7-7500U auf Basis von Kaby Lake stellt das Testvideo Jellyfish (HEVC Main10, Ultra HD, 400 Mbit/s) bei zwei bis drei Prozent Auslastung absolut flüssig dar" :eek:
das gibt es bei AMD seit Stoney.
Geht eigentlich inzwischen vp9 mit Polaris?
Nightspider
2016-11-02, 00:34:36
Wird im Grunde in ~9 Monaten eh keine Rolle mehr spielen wenn alle auf den AV1 Codec umstellen und sämtliche Hardware schon wieder veraltet ist.^^
StefanV
2016-11-02, 00:58:54
Wer der Meinung ist, dass man AMD nicht nutzen wollen würde, der werfe doch mal ein Blik auf diesen Link:
http://www.cmizapper.com/board/820-3787.html
Und jetzt möge man sich das ganze mal mit einem Chip mit HBM vorstellen, der auch noch die SB im Chip integriert hat...
Und auch den HBM als Hauptspeicher nutzt.
Man muss aber zugeben dass 16GiB bei einem Gerät dieser Preisklasse das Minimum sind. Da erwartet man teilweise schon mehr und allein mit hbm kommt man da noch nicht so schnell hin.
Gorkon
2016-11-02, 12:11:11
AMD hat es bis jetzt nicht geschafft, den versprochenen 2-pass Modus in ihr Advanced Media Framework nachzuliefern. Sie sind auch ein Schritt zurückgegangen mit Polaris, es gibt kein B-Frame Support mehr.
Nichts persönliches...aber bitte bitte bitte solche Aussagen auch mit Beweisen belegen. Quellenlose Aussagen haben mir an der Uni schon gereicht :frown:
https://github.com/GPUOpen-LibrariesAndSDKs/AMF/issues/8
Consulted with HW team: we do not have H264 B-frame encode support in RX480 GPU.
Ist zwar wirklich schade, aber evtl. ja noch für H265 möglich in Zukunft...
StefanV
2016-11-02, 13:30:42
Man muss aber zugeben dass 16GiB bei einem Gerät dieser Preisklasse das Minimum sind. Da erwartet man teilweise schon mehr und allein mit hbm kommt man da noch nicht so schnell hin.
naja, schau dir mal die aktuell vorgestellten Geräte mal an. Dort hat man ja auch nicht sooo große Speichermengen drin verlötet.
mboeller
2017-01-10, 07:42:12
Kam grade rein ...
https://abload.de/thumb/2017-01-09_2318247ukfb.jpg (http://abload.de/image.php?img=2017-01-09_2318247ukfb.jpg)
Kaffeesatzleserei... der RR hat ein paar anders gefärbte "Tiles" als SR und VEGA. Was könnte das sein?
StefanV
2017-01-10, 08:05:35
Kaffeesatzleserei... der RR hat ein paar anders gefärbte "Tiles" als SR und VEGA. Was könnte das sein?
Laut den anderen Slides Networking?! oO :O
Screemer
2017-01-10, 09:56:54
also braucht man für rr quasi gar keine extra chips mehr. auch nett. soc trifft es dann mal wirklich.
Gipsel
2017-01-10, 10:02:41
Laut den anderen Slides Networking?! oO :ODie Slides sind sehr symbolisch, da kann man nicht so viel drauf geben. Wenn AM4 kein Netzwerk über den Sockel unterstützt (dann müssen jetzt tote LAN-Ports auf den Boards existieren), dann kommt das auch nicht mit RR.
Botcruscher
2017-01-10, 10:10:02
Wenn ich mir die Folien zur IP anschaue würde ich eher an den universellen Einsatz in den Produktgruppen denken. Da ist bestimmt kein LAN gemeint.:freak:
Screemer
2017-01-10, 10:15:49
ersthaft? das sind die bausteine aus folgender folie und die zusammensetzung ergibt durchaus sinn bei den einzelenen chips:
http://abload.de/img/2017-01-09_231813i5jpt.jpg
@gipsel: warum sollte auf am4 jetzt tote lanports verbaut sein? mit rr kommen in nem 3/4tel jahr dann neue boards mit voller integration. machts für oems, die häufig ihr eigenes süppchen kochen, doch nicht schwerer.
Gipsel
2017-01-10, 10:25:03
@gipsel: warum sollte auf am4 jetzt tote lanports verbaut sein? mit rr kommen in nem 3/4tel jahr dann neue boards mit voller integration. machts für oems, die häufig ihr eigenes süppchen kochen, doch nicht schwerer.Damit man auf einem morgen gekauften AM4-Board auch AM4-APUs von übermorgen betreiben kann? Nennt sich Komapatibilität. ;)
Bei den auf der CES gezeigten High-End-Boards für Ryzen sind auch jede Menge Display-Ausgänge zu sehen (DVI, HDMI, DP), die mit Ryzen brachliegen und nur mit APUs befeuert werden können. Wenn der AM4-Sockel auch vorsieht, daß LAN von der CPU/APU kommt, hätte vermutlich zumindest ein Hersteller auch einen LAN-Port verbaut, der jetzt noch tot wäre. Sind immerhin HighEnd-Boards, da kann man einen zweiten LAN-Port schon vertragen (einer jetzt mit Ryzen vom Chipsatz, mit einer späteren APU funktioniert dann auch der zweite). Gibt es aber soweit ich weiß nicht.
Aber mal sehen, vielleicht sind ja noch ein paar Pins für die zukünftige Nutzung mit einem vor- und rückwärtskompatiblen AM4+ oder sowas reserviert. Leider gibt es das Pinout von AM4 ja nicht öffentlich von AMD. Dann könnte man das sicher sagen.
Screemer
2017-01-10, 13:10:48
das ist doch für sr völlig wurscht, da muss eh ein zusatzchip aufgepflanzt werden. imho ein nice to have für oems in kombination mit sr. ich kann mir nämlich ehrlich gesagt kaum vorstellen, dass jemand von sr auf rr wechselt und wenn doch, dann hat er lan durch den schon vorhandenen zusatzchip.
wir werden sehen. vielleicht bezieht sich das network ja auch auf was ganz anderes.
StefanV
2017-01-10, 18:50:37
Die Slides sind sehr symbolisch, da kann man nicht so viel drauf geben. Wenn AM4 kein Netzwerk über den Sockel unterstützt (dann müssen jetzt tote LAN-Ports auf den Boards existieren), dann kommt das auch nicht mit RR.
Naja, das würde ich so nicht sehen wollen.
Denn _DIE_ Frage ist ja erst einmal, was AMD unter 'Networking' so versteht. Und was sie damit meinen.
Wenn man mir Networking vor die Nase setzt, ohne Context, dann verstehe ich darunter die Verbindung von mehreren Komponenten.
Also auch solche Dinge wie Infiniband, Verbindung mehrerer CPUs und so weiter.
Und da hier ja auch '3rd Party IP' erwähnt wurde, kann man auch davon ausgehen, dass AMD entsprechendes lizensiert hat oder wird, wenn sie es denn einbauen...
Da das ganze ja 'nen SOC ist, sollte man schon davon ausgehen können, dass das ganze auch in Blades und co eingesetzt wird...
Und dafür kann es sich eben schon lohnen, Networking IP zu verbauen, in welcher Weise auch immer...
Wenn der AM4-Sockel auch vorsieht, daß LAN von der CPU/APU kommt, hätte vermutlich zumindest ein Hersteller auch einen LAN-Port verbaut, der jetzt noch tot wäre.
Nicht zwangsläufig.
Denn dort ist von _SOC_ die Rede, nicht von AM4...
Kann also möglich sein, dass das ganze 'nur' auf Server Sockeln passt oder eben auf irgendwelchen anderen Packages, die nicht AM4 sind...
Und eben auch die Frage, wie solche Teile in Blades verbaut werden würden...
cyrusNGC_224
2017-01-10, 20:39:45
Ein Grund für fehlenden Ethernet Controller auf dem SoC (und AM4) könnte schlicht die fehlende Notwendigkeit dafür sein:
http://www.planet3dnow.de/vbulletin/threads/427096-AMD-Ryzen-ausschliesslich-unlocked-mehrere-Modelle-Start-Termin-Februar?p=5133431&viewfull=1#post5133431
Ultron
2017-03-08, 09:09:18
Weiß jemand wieso keine 8C/16T APUs geplant sind?
Wäre technisch ohne Probleme bei 0,85V VCore mit 40-50W TDP machbar.
Gerade für Gaming-Notebooks wäre es sehr schön.
deekey777
2017-03-08, 09:46:31
Weiß jemand wieso keine 8C/16T APUs geplant sind?
Wäre technisch ohne Probleme bei 0,85V VCore mit 40-50W TDP machbar.
Gerade für Gaming-Notebooks wäre es sehr schön.
Selbst wenn man hohen Aufwand bei der Kühlung und Stromversorgung betreibt: Der Aufwand, eine solche APU zu entwickeln und zu fertigen, würde wohl in keinem Verhältnis zur Nachfrage stehen. Eher kommen Exoten mit Desktop-CPUs.
Wobei man das nicht absolut sehen kann:
Aktuell wird der Markt von Intels Zweikernern mit HTT dominiert, die HQs findet man überwiegend in schwereren Geräten, die man früher als gewöhnliche Notebooks bezeichnet hat (X-D). Mit der RR-APU kann wirklich Bewegung kommen. Vielleicht bastelt AMD eine Plattform zusammen, mit der man schnell eine nackte CPU mit einer dedizierten Grafikkarte kombinieren kann, so dass den Herstellern die Entwicklung solcher Platinen abgenommen wird.
Knuddelbearli
2017-03-08, 11:31:35
na eventuel kommt ja die große Server APU auch in den OEM Markt, kommt drauf an ob man die auch für AM4 verbauen kann, aber wohl eher nicht :-/
deekey777
2017-04-03, 12:22:21
Bin recht begeistert von dem A10-9600P in meinem Billiglaptop.
Was ich mich frage, ist, wie AMD die mobile RR-Version vertreiben wird. AMD hat aktuell ein Problem: Die 15W-TDP-Klasse dominiert den Markt* der günstigeren Geräte. Und AMD schafft es gar den A12-9800B als 15W-Version anzubieten (http://www.notebookcheck.com/Test-HP-EliteBook-725-G4-A12-9800B-Full-HD-Laptop.203474.0.html). Das Ding hat volle 8 CUs, die mit den beiden CPU-Modulen die 15W einhalten müssen. Leider gibt es kaum/keine Geräte, die die 35W-Modelle verbauen. Daher werden die APUs doppelt bestraft: Einerseits ist die CPU-Leistung für aktuellere Titel nicht immer ausreichend, dann wird der CPU-Takt auf 2 GHz und niedriger abgebremst, wenn die Grafikkarte gefordert wird.
Was meint ihr: Bleibt AMD bei der Politik, dass für den 15W-Bereich (auch) leistungsstarke APUs gebaut werden, die ggf. abgebremst werden müssen, um die TDP-Grenze einzuhalten? Oder wird AMD vernünftig und bietet solche APUs an, die sich auch preislich für AMD rentieren? Sprich: Für die 15W-TDP-Klasse nur 2C/4T und maximal 6 CUs, für die 35-W-TDP-Klasse 4C/8T mit bis zu 8 CUs. Und darüber noch eine 4C/8T-APU mit 10 CUs (oder gar 12) und HBM.
*Stimmt nicht ganz, es gibt auch nur etwas teurere Geräte mit 24W-Prozessoren von Intel, also mit Iris Graphics 540/550, aber weniger gut ausgestattet (nur 4 GB, 128 GB SDD).
mczak
2017-04-03, 13:06:24
Daher werden die APUs doppelt bestraft: Einerseits ist die CPU-Leistung für aktuellere Titel nicht immer ausreichend, dann wird der CPU-Takt auf 2 GHz und niedriger abgebremst, wenn die Grafikkarte gefordert wird.
Nicht nur das auch die GPU dümpelt bei ~400Mhz herum - die 8 CUs bringen da nur minimal was.
Was meint ihr: Bleibt AMD bei der Politik, dass für den 15W-Bereich (auch) leistungsstarke APUs gebaut werden, die ggf. abgebremst werden müssen, um die TDP-Grenze einzuhalten? Oder wird AMD vernünftig und bietet solche APUs an, die sich auch preislich für AMD rentieren? Sprich: Für die 15W-TDP-Klasse nur 2C/4T und maximal 6 CUs, für die 35-W-TDP-Klasse 4C/8T mit bis zu 8 CUs. Und darüber noch eine 4C/8T-APU mit 10 CUs (oder gar 12) und HBM.
Ich habe schon den Stoney-Ridge Refresh kritisiert, da hätte es tatsächlich imho massenhaft Platz für einen "Raven Ridge Junior" stattdessen.
So wie's aussieht wird es bloss RR geben - ich vermute stark dann eben für die billigeren Modelle mehr oder weniger zur Hälfte (CPU + GPU) deaktiviert. Es sollte ja nicht so sein dass bei 15W gar kein Vorteil für einen vollen RR resultiert gegenüber einem halben (zumindest bei nur-CPU Last oder fast ausschliesslicher Grafik-Last), nur wird sich der eben in Grenzen halten.
Für einen dritten Chip sehe ich allerdings keine Chance, wegen bloss ein paar mehr CUs mehr lohnt sich sowas nicht, und HBM wäre zwar eine nette Idee aber das wird wohl nichts.
*Stimmt nicht ganz, es gibt auch nur etwas teurere Geräte mit 24W-Prozessoren von Intel, also mit Iris Graphics 540/550, aber weniger gut ausgestattet (nur 4 GB, 128 GB SDD).
Es gibt mittlerweile auch ein paar Hersteller die die 15W intel Chips mit TDP up (25W) betreiben. Es bringt allerdings nur bedingt etwas, weil a) manchmal die Kühlung nicht wirklich mitmacht, b) bei nur-CPU oder nur-GPU-Last die Kaby-Lake (2+2) Modelle mittlerweile doch durchgehend relativ nahe bei den Maximaltaktraten agieren.
Ziemlich sicher bei Carrizo würden die 25W TDP viel mehr bringen (wenn die Kühlung mitmacht), das habe ich aber da noch nirgends gesehen... Aber AMD hofft da vielleicht darauf dass RR in einigen wirklich für 25W ausgelegten Designs landet, da wäre der Vorteil gegenüber den gepushten 15W core-i Chips sicher enorm (wobei intel natürlich niemand davon abhält auch mobile 4-Kerner + GT3 Chips unter 45W anzubieten - im Prinzip geht das auch schon mit TDP-down wobei das nur bis 35W runtergeht).
robbitop
2017-04-03, 13:38:44
Egal in welcher Konfiguration. Ich denke, dass RR ggü dem Vorgänger grob 2x so viel leistet. Taktnormiert.
2x Shrinks + je bei GPU als auch CPU eine deutlich moderneres, effizienteres Design.
Damit werden 15" Billignotebooks für 400-500 € sicherlich so ziemlich alle modernen Spiele in 1080p spielbar machen.
deekey777
2017-04-03, 19:43:09
Das ist es ja: 2 Ryzen-Kerne mit SMT dürften schneller sein als 2 Exc-Module, bei der Grafikabteilung wäre es in erster Linie der Shrink auf 14 nm und damit höherer Takt mehr wert als die Vega-Verbesserungen (trotzdem gilt: Neu ist immer besser). Auf der anderen Seite will AMD - gerade mit mobilen APUs - endlich Geld verdienen.
So oder so: Mein Bauchgefühl sagt, dass Intel mit den kleineren mobilen Prozessoren (2/4T) und HD 620 gegen eine APU mit 2C/4T+6 nicht bestehen wird.
dargo
2017-04-03, 20:26:57
Wie kommst du zu der Annahme, dass es RR überhaupt mit 2C/4T geben wird? Ich möchte es natürlich nicht ausschließen, aber gab es in diese Richtung schon irgendwelche Hinweise?
deekey777
2017-04-03, 20:41:17
Wie kommst du zu der Annahme, dass es RR überhaupt mit 2C/4T geben wird? Ich möchte es natürlich nicht ausschließen, aber gab es in diese Richtung schon irgendwelche Hinweise?
Gute Frage.
Erinnerst du dich an das Buchstabensalatbild, wie die Bezeichnung der Ryzen-CPUs zustande kommt?
http://www.eteknix.com/amd-talks-raven-ridge-zen-23-ryzen-and-more/
Anscheinend kommen noch zahlen, die kleiner als 4 sind (TBA). Die 4 dürfte für einen reinen Vierkerner ohne SMT stehen. Aber ja, es könnte mindestens ein Dreikerner mit und ohne SMT sein, der mit i3/i5 der 15W-Klasse konkurriert.
Es sei denn, TBA steht für eine "9" X-D
Von dem Zahlenschema kann man wahrscheinlich wieder ueberhaupt nichts ableiten, das hat man bei Polaris schon wieder gesehen.
Und selbst wenn; irgendwann wird auch Ersatz fuer die richtigen Entry Level Teile wie Bristol oder Stoney Ridge kommen muessen, also noch genug Potenzial fuer kleine Nummern.
reaperrr
2017-04-03, 22:44:00
Gute Frage.
Es gab definitiv schon irgendwo Roadmap-Folien, auf denen ein Zen(+?)-basierter 2c/4t als Nachfolger von Stoney aufgeführt wurde, aber halt erst irgendwann in 2018.
Aber ja, es könnte mindestens ein Dreikerner mit und ohne SMT sein, der mit i3/i5 der 15W-Klasse konkurriert.
Ohne SMT auf keinen Fall. Es gibt schon heute Anwendungen, die nur auf CPUs mit mindestens 4 Threads überhaupt starten, ein höher taktender 2c/4t wäre da noch sinnvoller.
3c/6t könnte je nach Yield-Rate aber tatsächlich Sinn machen, weil a) halt auch Chips mit 1 defektem Kern verwendet werden können, und b) über etwas höheren Takt und SMT evtl. in einigen Anwendungen bessere Ergebnisse als bei einem 4c/4t rauskommen könnten.
robbitop
2017-04-04, 11:59:54
Wie kommst du zu der Annahme, dass es RR überhaupt mit 2C/4T geben wird? Ich möchte es natürlich nicht ausschließen, aber gab es in diese Richtung schon irgendwelche Hinweise?
Die Skalierung nach unten (TDP, Preis) wird man IMO durch Abschaltung von Kernen / CUs machen. Hat bis auf die größere Die-Size keine Nachteile. Bei AMDs Stückzahlen macht wohl ein weiteres 2C/4T Modell finanziell keinen Sinn und es ist billiger, teildeaktivierte Cores aufzulegen.
dargo
2017-04-04, 12:15:10
Darum gings mir nicht. 4C/4T sollte mit weniger Takt effizienter sein als 2C/4T und hohem Takt. Gerade im Mobile Bereich ist Effizienz alles.
robbitop
2017-04-04, 12:19:33
Darum gings mir nicht. 4C/4T sollte mit weniger Takt effizienter sein als 2C/4T und hohem Takt. Gerade im Mobile Bereich ist Effizienz alles.
Theoretisch sollte das so sein. Dann müsste 4C/4T aber deutlich (!) geringer getaktet sein als der 2C/4T, damit er effizienter ist. Da viele Anwendungen aber nicht linear mit der Anzahl der Kerne aber linear mit dem Takt skalieren, ist es offenbar nicht immer so der Fall.
Intel liefert ja nicht umsonst alle </=15W Modelle bis dato mit 2C/4T aus.
Ab KBL-R kommen zumindest in den 15W Bereich auf 4C/8T IIRC.
deekey777
2017-04-04, 14:32:49
Darum gings mir nicht. 4C/4T sollte mit weniger Takt effizienter sein als 2C/4T und hohem Takt. Gerade im Mobile Bereich ist Effizienz alles.
Das kommt darauf an, welche TDP-Klasse bedient werden soll. Und wie.
Aktuell steckt AMD in einer ausweglosen Situation: Sie müssen eine APU mit 2 Modulen und R7 bzw. R5 anbieten, um überhaupt Beachtung zu finden. Intel bietet seine mobilen Prozessoren stufenweise an: 2C/4T mit HD615/620 bis 15W, 2C/4T mit Iris-Grafik für 25W, richtige Vierkerner (aber ohne HTT) mit HD620 für 35W und für 45W dann die Vierkerner mit Iris-Grafik. Meine Frage ist: Welchem Schema folgt AMD mit RR: dem von Intel (gefährlich, weil die CPU-Leistung immer noch höher ist) oder aber gleiches Schema wie zuvor (mehr Kerne und ggf. mehr Grafikleistung, aber TDP-Bremse).
AMD kann auch einen RR mit 2C/4T und einen Stoney-Ridge-Nachfolger mit 2/4T anbieten, die deutlich niedrigere Grafikleistung haben (R3/R2). Das macht Intel genauso.
robbitop
2017-04-04, 16:21:34
Zen hat ja gezeigt, dass die Kerne relativ energieeffizient sind. Was Perf/W angeht sicherlich knapp vergleichbar mit Intels. Sicherlich ein wenig weniger Perf -> dafür aber auch ein wenig weniger W. ;)
Für das GPU IP gilt das doppelt. Bisher lag man 2x Fertigungsprozessgenerationen zurück. Nun liegt man quasi gleich auf. Die GPU IP ist bei gleichem Fertigungsprozess bereits mit Polaris vermutlich deutlich besser in Bezug auf Perf/W. Vega packt da nochmal eine Schippe drauf.
Am Ende wird bei gleicher TDP die CPU ein kleines Bisschen langsamer und dafür die GPU schneller. Oder man investiert die gesparte TDP aus der GPU (also opfert seine Überlegenheit in diesem Belang) - zieht mit der GPU Leistung nur gleich und packt dafür 2 Kerne drauf.
Insgesamt wird sich bei APUs die Situation deutlich verbessern. IMO wieder konkurrenzfähig, so dass man auch wieder bessere Preise verlangen kann.
AMD wird IMO mit einem Kern über Deaktivierung alle Möglichkeiten mit mehreren SKUs abdecken können. Viel GPU Leistung oder viel CPU Leistung oder beides ausbalanciert. Ist ja nur eine Konfigurationsfrage der jeweiligen SKU.
FlashBFE
2017-04-28, 15:50:10
http://www.eteknix.com/amd-talks-raven-ridge-zen-23-ryzen-and-more/
Anscheinend kommen noch zahlen, die kleiner als 4 sind (TBA).
Wie wahrscheinlich ist es eigentlich, dass die "M"-Modelle (Low Power Mobile) lüfterlos sein könnten? Ich habe noch ein altes Bobcat-Netbook, was eigentlich noch ok wäre, wenn nur der Lüfter nicht so nerven würde. Ist RR ganz unten auch gegen Core-M & Atom zu gebrauchen?
Denke ich schon, bis die auftauchen wird es aber noch dauern. RR kommt zunaechst mal als Quadcore APU, das wird wohl eher die Suffixe U, H und S abdecken.
Inoffizielle AMD Roadmap:
http://i.imgur.com/LFaWnyI.png
http://i.imgur.com/XA3NPwx.png
Ich habe gerade zufaellig die Quelle gefunden. Ich bin nicht sicher ob wir die schon mal hatten, hatte aber im Kopf dass es Diskussion gab ob mit irgendwo aufgetauchten "12 Compute Units" 4 CPU Kerne + 8 GCN CUs oder eben doch 12 CUs gemeint waren.
http://ps-philgeps.gov.ph/home/images/BAD/PHILIPPINES_PS-DBM%20Event%20July%2015,%202016.pdf
Da steht auch 4-35 Watt, also offenbar doch schon Geraete mit M-suffix mit RR.
Mir war uebrigens auch nicht aufgefallen (oder wieder entfallen?), dass es da mit FP5 eine neue Plattform gibt. Im Gegensatz zum Desktop teilt man die also nicht mit Bristol Ridge. Vielleicht ein Grund, dass es auch mit BR kaum Notebooks gab.
deekey777
2017-05-01, 11:27:21
Wie wahrscheinlich ist es eigentlich, dass die "M"-Modelle (Low Power Mobile) lüfterlos sein könnten? Ich habe noch ein altes Bobcat-Netbook, was eigentlich noch ok wäre, wenn nur der Lüfter nicht so nerven würde. Ist RR ganz unten auch gegen Core-M & Atom zu gebrauchen?
Das weiß noch niemand. Grundsätzlich ja (siehe Roadmaps, solche Geräte lassen sich passiv kühlen), die eigentliche Frage ist, ob Generation M (core m bzw. Y-Prozessoren mit TDP von ~ 4,5 W) noch verbaut wird. Viele Hersteller wechseln von core m auf U (also 15W) bzw. bieten bei neueren Modellen nur U an, andere (wenige) wiederum von U auf core M.
Aktuell scheinen Notebooks mit APUs eine Art Gefälligkeitsdienst zu sein, damit AMD auf dem mobilen Markt nicht vergessen wird (wobei sich die Lage spätestens mit BR-APUs verbessert hat), damit aber mobile RR-APUs wirklich erfolgreich werden, muss AMD die Hersteller davon überzeugen, dass die Notebooks/2in1-Geräte ähnlich ausgestattet werden wie die mit Intel Prozessoren. Mein HP mit A10-9600P hat weder schnelles WLAN noch Gigabit-LAN und nur einen USB-Port mit 3.1 Gen. 1.
Nicht vergessen: https://www.3dcenter.org/news/namensschema-von-amds-ryzen-prozessoren-offengelegt
Ich weiß nicht, warum da AM4 steht.
Da steht auch 4-35 Watt, also offenbar doch schon Geraete mit M-suffix mit RR.
Mir war uebrigens auch nicht aufgefallen (oder wieder entfallen?), dass es da mit FP5 eine neue Plattform gibt. Im Gegensatz zum Desktop teilt man die also nicht mit Bristol Ridge. Vielleicht ein Grund, dass es auch mit BR kaum Notebooks gab.
Wurde nicht FP4 für RR versprochen?
FP4 für Carrizo/BR und FP5 für RR: https://www.heise.de/newsticker/meldung/AMD-Roadmap-Hinweise-auf-Zen-APU-3290009.html
deekey777
2017-05-02, 17:57:46
https://www.computerbase.de/2017-05/amd-ryzen-notebook-termin/
So we are on track to launch the rest of the Ryzen portfolio in PCs. We'll launch Ryzen 3 earlier in the second half, and then we will launch Ryzen mobile towards the holiday cycle for the second half.
Moment: Und was ist mit RR-APUs für Destop?
Emperator
2017-05-02, 18:08:44
Anfang 2018, die mobilen APUs haben erstmal höhere Priorität.
mboeller
2017-05-02, 20:19:01
https://www.computerbase.de/2017-05/amd-ryzen-notebook-termin/
also IMHO spätestens Ende Oktober sollten die ersten Notebooks verfügbar sein. Ansonsten verpasst man den "Black Friday" am 24. Nov. 2017 ... und damit zumindest in den USA den "holiday cycle for the second half"
deekey777
2017-05-02, 22:49:41
also IMHO spätestens Ende Oktober sollten die ersten Notebooks verfügbar sein. Ansonsten verpasst man den "Black Friday" am 24. Nov. 2017 ... und damit zumindest in den USA den "holiday cycle for the second half"
Also recht spät.
Aber was kann AMD dafür, dass Apple die neuen MacBooks mit RR-APUs erst im Oktober vorstellt. ;D
(Ja, das ist aus den Fingern gesaugt. Es wäre ein Prestige-Win, wenn APUs in Apple-Geräte kommen würden.)
Edith treibt es auf die Spitze: Die RR-APUs kommen deswegen so spät, weil sie auf Zen+ basieren. X-D
BoMbY
2017-05-09, 13:04:30
Raven Ridge (http://ranker.sisoftware.net/show_system.php?q=cea598ab9faa9eaa9cbadde0cdfcdaa895a583ead7e6c0a895a086fec3f2d4 b1d4e9d9ff8cb189&l=de).
Unicous
2017-05-09, 13:33:14
Ein mobile ES mit 3 GHz Base Takt und vermutlich 3,3 GHz Turbo.
Ob das mit den 11 CUs der Wahrheit entspricht kann man ja leider nicht abschließend klären, weil Sisoft immer Blödsinn ausliest.:(
Normalerweise steht ja bei bei der OPN hinten der String für die GPU, hier aber wird man mit einem N abgespeist.:confused:
Fraglich ob F2 auf ein B0 Stepping hinweist oder es gar kein festes Schema für die Kodifizerung gibt.
C3 wird wohl die TDP-Angabe sein und ich schätze mal je weiter man im Alphabet hinabschreitet desto geringer die TDP.:freak:
BoMbY
2017-05-09, 13:48:58
Das mit der GPU-PCI-Device ID im Namen hat AMD ja scheinbar seit Zen geändert. Die GPU Device ID von Raven Ridge ist jedenfalls 0x15DD, was ich schon vor längerem gesagt habe, und hier ja auch auftaucht. Bei Summit Ridge wurde auch _N und _Y zum Schluss verwendet - keine Ahnung was man damit sagen will, eventuell heißt _Y Final Sample, oder so.
RR kann verdammt stark werden, ich freue mich sehr darauf. Ryzen kann bei 3 GHz ja schon unter 1,0 Volt laufen und ein 8C braucht dann unter Volllast gerade mal noch ~50 Watt? Auch durch SP4 und SP3 ist klar, dass die Effizienz nach unten sehr gut skaliert. Fuer Ryzen wurde da mit XFR ja schon wieder dije Brechstange ausgepackt.
Was mir Sorgen macht ist, dass man bei Notebooks noch mehr auf die Partner angewiesen als schon am Desktop. Und da war es schon laecherlich mit den Boards. Und wenn ich mir anschaue, was die letzten Jahre so lief, bin ich nicht besonders optimistisch :usad:
deekey777
2017-05-09, 15:31:54
Raven Ridge (http://ranker.sisoftware.net/show_system.php?q=cea598ab9faa9eaa9cbadde0cdfcdaa895a583ead7e6c0a895a086fec3f2d4 b1d4e9d9ff8cb189&l=de).
11 CUs? Da geht :cop:fuad:cop: bestimmt ab! X-D
...
Was mir Sorgen macht ist, dass man bei Notebooks noch mehr auf die Partner angewiesen als schon am Desktop. Und da war es schon laecherlich mit den Boards. Und wenn ich mir anschaue, was die letzten Jahre so lief, bin ich nicht besonders optimistisch :usad:
Das ist der Punkt, der mir Sorgen macht. Es gibt wirklich kaum Spitzengeräte. Und die "Billigteile" ab 400,00 EUR sind zwar günstiger als die gleichen Modelle mit Intel-Prozessoren, aber abgemagert bei der Ausstattung (mieses Display, lahmes WLAN, lahmes LAN, lahme SD-Cardreader, vielleicht 1 USB 3.0 und dazu noch knapp bemessene Akkus).
AMD muss auch noch die Notebooks der TDP 35W-Klasse erobern.
davidzo
2017-05-10, 16:05:25
Das ist der Punkt, der mir Sorgen macht. Es gibt wirklich kaum Spitzengeräte. Und die "Billigteile" ab 400,00 EUR sind zwar günstiger als die gleichen Modelle mit Intel-Prozessoren, aber abgemagert bei der Ausstattung (mieses Display, lahmes WLAN, lahmes LAN, lahme SD-Cardreader, vielleicht 1 USB 3.0 und dazu noch knapp bemessene Akkus).
Da kann ich leider voll zustimmen dass das so war.
AMD muss auch noch die Notebooks der TDP 35W-Klasse erobern.
Das sehe ich nicht so. Die Exklusivste Klasse von Notebooks findet man mittlerweile mit 15W und 28Watt CPUs ausgestattet.
Das lässt einfach viel mehr Spielraum bei Design(Größe, Gewicht) und Akkulaufzeit, was den meisten Käufern wichtiger ist also die theoretischen Leistungsdaten. Man sieht es ja am Macbook pro, dem stereotyp eines Oberklasse Notebooks.
Gaming-orientierte Notebooks bei denen es um möglichst viel CPU und Grafikleistung, für möglichst wenig Geld geht, egal in was für einem Plastikgehäuse das steckt, sind zwar auch eine große Nische, aber nicht der mainstream markt den AMD mit einer APU anvisiert.
Solche Geräte á la Lenovo Legion oder Asus ROG werden aber sowieso immer mit einer diskreten Grafikkarte kombiniert, sind also nicht die Zielgruppe der APU.
Man sehe sich mal die Amazon und die Geizhals Bestseller Listen an, da sind nur zwei von den ersten zehn Geräten tatsächlich mit 35+ Watt Prozessor ausgestattet, alle anderen darunter.
Selbst wenn man Intel wirklich nicht trauen kann bei transparenter Preisgestaltung, so geben die Listenpreise doch eine ungefähre Tendenz wieder, wo hier wieviel Kohle gemacht wird:
281$ i5-7200U (15W)
250$ i5-7300HQ (45W)
393$ i7-7500U (15W)
378$ i7-7700HQ (45W)
Ich denke die APU wird genau wie mit den 8C/16T Desktop Ryzen 7 zuerst in eine Lücke oberhalb der bisherigen Bestseller vorstoßen die Intel offen gelassen hat: Quadcore-APUs (8T+4T) mit 25Watt und klar mehr MT- und Grafik-Leistung als intels Dualcore+HT U-Modelle.
Das ist eine Klasse, die noch einfach in 13 und 14" Geräten oder sogar convertibles eingesetzt werden kann. Intel kann dann mit den HQ Modellen nicht nachziehen. Gleichzeitig greift man damit Intels Cashcow, die 15Watt U-Modelle von oben her an und muss dabei nichtmal preislich günstiger sein um attraktiver zu sein.
Zusätzlich eine konfigurierbare TDPdown von 15W würde wiederum den OEMs sehr entgegenkommen, weil die dann die physischen Designs (Kühlung, Chassisformat, Akku, Energieversorgung...) von den aktuellen Intel Designs übernehmen könnte und RD und time-to-market geringer wären.
Unicous
2017-05-10, 16:37:14
Deine Argumentation empfinde ich als reichlich seltsam.
Du sprichst vom MacBook Pro als HighEnd Laptop vergisst aber dabei, dass bei der 15"-Variante 45W Skylake Chips verbaut sind und dass auch in den Generationen davor das top of the line MBP einen 45/47W Chip verbaut hatte und dann ist noch "Platz" für eine dGPU mit mindestens 35 Watt Verlustleistung.
Dass die U-Variante vermutlich teurer ist als die HQ-Variante ist dem Umstand geschuldet, dass man mit den Taktraten an die 45Watt-Modelle herankommt, wenn auch nur mit zwei "echten" Kernen. Das lässt sich Intel seit Jahr und Tag vergolden, im Desktop-Bereich ist das bei den T-Modellen nicht anders.
Ich weiß auch nicht welche Bestenliste du bei gh genau meinst, aber bei der die ich hier gerade auf habe (Top-10 in Notebooks) sind es lustigerweise 4 von 10 Produkten mit 35+Chip und eines der Produkte ist ein Dock für das Surface. 4 von 9 ist also eine mehr als ordentliche Zahl... aber auch bedeutunglos weil man daraus nicht ableiten kann was und wieviel davon gekauft wird. Bei gh sind es ja nur die Klicks die zählen.
Bei amazon hingegen liegt der Großteil der beliebtesten Notebooks (Bestseller in Notebooks) unter der 400 Euro Marke (13 von 20).
Wenn dann muss AMD auf breiter Front angreifen und sich eben nicht die paar Nischen greifen, die Intel vermeintlich noch nicht besetzt hat. Mit Ryzen machen sie genau das, warum sollten sie sich im Mobile-Bereich zurückhalten?
davidzo
2017-05-10, 17:28:05
Du sprichst vom MacBook Pro als HighEnd Laptop vergisst aber dabei, dass bei der 15"-Variante 45W Skylake Chips verbaut sind und dass auch in den Generationen davor das top of the line MBP einen 45/47W Chip verbaut hatte und dann ist noch "Platz" für eine dGPU mit mindestens 35 Watt Verlustleistung.
Eben, das 15" Modell ist ja auch das Nischenmodell, die 13" Variante ist der Bestseller und immer noch teuer genug um als Exklusiv zu gelten. Und die haben nunmal 28Watt und 15Watt CPUs...
Auch sprach ich nicht von "Highend", sondern von "Exklusivste Klasse", das eine ist technisch, das andere kaufmännisch gemeint (Lifestlye & Marge), daher wohl das Missverständnis :wink:
Ich hab selbst das 15" HQ-CPU + GT750m Macbook pro und kann dir versichern das ist nicht cool oder Hipp sondern ein langweiliges Arbeitsgerät ;) - Die Kollegen haben alle das 13" Modell bevorzugt.
Wenn dann muss AMD auf breiter Front angreifen und sich eben nicht die paar Nischen greifen, die Intel vermeintlich noch nicht besetzt hat. Mit Ryzen machen sie genau das, warum sollten sie sich im Mobile-Bereich zurückhalten?
Genau, das wird man! Die breiteste Front ist derzeit der 15-28Watt Bereich. Und natürlich wird man auch in die Nischen rein, wie 45Watt CPUs und 7.5Watt Convertible/Ultra mobile Teile... das 3.0/3,3Ghz Sample zeigt das ja schon. Das war wohl entweder eine S oder eine H-CPU.
Unicous
2017-05-10, 17:55:05
Um mal weiterhin deine Quellen gegen dich zu verwenden. Eines der Top 10 Modelle bei geizhals ist ein (2015er) MBP mit 47W Haswell Modell.
Verkaufszahlen von Apple aufgeschlüsselt in die einzelnen Modelle kannst du sicherlich auch noch liefern, da du ja offensichtlich weißt, welches Modell sich am Besten verkauft, oder?:wink:
Anekdotische Beweise genügen leider keinen statistischen Standards von daher interessiert mich eher wenig, was in deinem Arbeitskreis für Laptops genutzt werden.
Ich wüsste auch nicht was an Oberklasse missverständlich wäre. Es bedeutet das "beste" und teuerste Modell einer Produktlinie.
Die breite Front sind von sub 10W bis mindestens 35W. Unter 10W sollte vorerst eigentlich von Stoney Ridge bedient werden, daraus ist aber bislang nichts geworden.
fondness
2017-05-10, 19:47:17
Raven Ridge (http://ranker.sisoftware.net/show_system.php?q=cea598ab9faa9eaa9cbadde0cdfcdaa895a583ead7e6c0a895a086fec3f2d4 b1d4e9d9ff8cb189&l=de).
Schade nur 4 MB L3 Cache. Da hätte man IMO besser ein paar CUs einsparen sollen, anstatt die CPU zu beschneiden.
Unter 10W sollte vorerst eigentlich von Stoney Ridge bedient werden, daraus ist aber bislang nichts geworden.
Laut Roadmap sollte RR sogar bis 4 Watt runter gehen. Damals stand aber auch noch was von 12 CUs drauf...
Complicated
2017-05-10, 21:08:08
Schade nur 4 MB L3 Cache. Da hätte man IMO besser ein paar CUs einsparen sollen, anstatt die CPU zu beschneiden.Wie kommst du darauf, dass die CPU dadurch beschnitten wurde? Da es bisher noch nie eine APU mit L3 Cache gab ist das ein Novum und eine deutliche Verbesserung. Man darf gespannt sein welche Auswirkungen dies haben wird für die iGPU-Leistung und auch für die HSA-Funktionalität.
das_Apo
2017-05-10, 22:43:50
Wie kommst du darauf, dass die CPU dadurch beschnitten wurde? Da es bisher noch nie eine APU mit L3 Cache gab ist das ein Novum und eine deutliche Verbesserung. Man darf gespannt sein welche Auswirkungen dies haben wird für die iGPU-Leistung und auch für die HSA-Funktionalität.
Evtl. in Bezug auf die derzeit kleinste Ryzen Desktop CPU (Ryzen 5 1400 mit 8 MB L3 Cache)?
Wobei da noch die Ryzen 3 Modelle kommen. Ist für die schon bekannt, über wieviel L3 Cache die verfügen?
Complicated
2017-05-10, 22:57:56
Raven Ridge basiert auf einem völlig anderen Die mit 4 Zen-Kernen und integrierter GPU. Und wie schon gesagt gab es bisher noch nie eine APU mit L3 Cache - das wird die erste sein. Die Ryzen CPUs basieren alle auf 8-Kern-Dies mit 2x8MB Cache. Nur weil es größere CPUs gibt sind doch nicht alle anderen plötzlich beschnitten.
Nur hat RR weniger mit alten APUs zu tun als mit SR. Es ist schon seltsam, dass man hier kein CCX wie in Zeppelin sehen soll.
mczak
2017-05-10, 23:28:38
Interessant, Raven Ridge scheint (gegenüber Vega10) einen neuen VideoEncoder/Decoder zu haben. Nennt sich jetzt "vcn" statt "uvd/vce":
https://lists.freedesktop.org/archives/mesa-dev/2017-May/155138.html (die Patch-Serie ist bloss Decode, aber es gibt schon die enums for Encode)
Auch beim DisplayController scheint's Aenderungen zu geben ("dcn1"). Sonst aber scheinbar mehr oder weniger einfach ein weiterer GFX9 Chip:
https://lists.freedesktop.org/archives/mesa-dev/2017-May/155115.html
Triskaine
2017-05-10, 23:55:03
Nur hat RR weniger mit alten APUs zu tun als mit SR. Es ist schon seltsam, dass man hier kein CCX wie in Zeppelin sehen soll.
Was ist jetzt an einer einfachen Flächenoptimierung so überraschend? Damit spart man ~8mm², für ein High Volume Design absolut sinnvoll.
davidzo
2017-05-10, 23:57:49
Schade nur 4 MB L3 Cache. Da hätte man IMO besser ein paar CUs einsparen sollen, anstatt die CPU zu beschneiden.
Wenn ich mir die Geschwindigkeit und Latenzen des L3 bei Summit Ridge so angucke ist es nicht so traurig drum.
Es gibt aber immer noch die Möglichkeit dass es sich bei dem getesteten Modell um eine Salvage Variante handelt, was eine S CPU mit 45W sein könnte (Low Power Desktop with GFX). Es macht Sinn die guten DIEs für die teureren Mobilprozessoren zu reservieren und den teildeaktivierten Rest als Desktop zu verkloppen.
Complicated
2017-05-10, 23:57:50
@iuno
Der CCX-Aufbau hilft ja beim skalieren nach oben für die größeren MCM bis zu Naples. Das ist hier ja nicht nötig und ich bin sicher es wurde entsprechend anders designed für mobile und APUs. Vor allem bzgl. hUMA mit der GPU. APUs nutzen bisher ja den FCL und den RMB für das kohärente Memory Management und nutzten keinen L3 Cache. Hier muss es gravierende Änderungen geben, da bisher die Bandbreite ja einen größeren Ausbau der GPU verhindert hat.
Unicous
2017-05-10, 23:58:56
@Triskaine
Ob man die spart oder eher für andere Dinge nutzt wird sich noch zeigen. Ich könnte mir zum Beispiel vorstellen, dass das Data Fabric nochmals deutlich breiter ausgelegt ist um die Kommunikation mit den CUs zu verbessern.
vinacis_vivids
2017-05-11, 00:07:40
Evtl. in Bezug auf die derzeit kleinste Ryzen Desktop CPU (Ryzen 5 1400 mit 8 MB L3 Cache)?
Wobei da noch die Ryzen 3 Modelle kommen. Ist für die schon bekannt, über wieviel L3 Cache die verfügen?
Ryzen 3 1200, 4C/4T, 8MB L3, 3,1-3,4?Ghz, 65W TDP, <150$
Schaffe89
2017-05-11, 00:17:39
Schade nur 4 MB L3 Cache. Da hätte man IMO besser ein paar CUs einsparen sollen, anstatt die CPU zu beschneiden.
Jup, das ist nochmal halb soviel wie bei dem Ryzen 1400 der durch den beschnittenen L3 pro CCX schon bei gleichem Takt 5 bis 10% hinter einem Ryzen 1500x in Spielen hängt.
Ich hätte erwartet dass man bei dem eh schon sehr schmalen Die wenigstens 8mbL3 draufpackt, so wird der RR in Spielen von der CPU Leistung eher etwas schwächer werden, dafür in Anwendungen glänzen.
Wie kommst du darauf, dass die CPU dadurch beschnitten wurde? Da es bisher noch nie eine APU mit L3 Cache gab ist das ein Novum und eine deutliche Verbesserung.
Raven Ridge ist ja auch kein Bulldozer, sondern Zen, von daher wohl "beschnitten". Was stört dich an der Formulierung?
Werden ja sehen wieviel es ausmachen wird. Halte ich für keinen guten Schachzug, da gerade was die Gaming Leistung angeht ende 2017 dann auch neue Intel Produkte kommen sollten.
Vielleicht ist es ja ein beschnittener RR.
Man darf gespannt sein welche Auswirkungen dies haben wird für die iGPU-Leistung
Der L3 soll also als unified memory Stichwort HUMA von der IGP und CPU genutzt werden?
Schöne Spekulation, wird denke ich kaum so eintreten. Was will man denn mit nur 4mb groß anfangen? AMD sprach damals von embedded DRam als L4 Cache, der hätte dann eine ordentliche Größe.
Complicated
2017-05-11, 00:27:49
RR mit dem CCX-Aufbau zu vergleichen bringt gar nichts. Ein völlig anderes Design ganz besonders der Cache Aufbau. Ein Summit Ridge hat weder einen FCL noch einen RMB die für Cache Koheränz sorgen.
mboeller
2017-05-11, 07:25:36
@iuno
Der CCX-Aufbau hilft ja beim skalieren nach oben für die größeren MCM bis zu Naples. Das ist hier ja nicht nötig und ich bin sicher es wurde entsprechend anders designed für mobile und APUs. Vor allem bzgl. hUMA mit der GPU. APUs nutzen bisher ja den FCL und den RMB für das kohärente Memory Management und nutzten keinen L3 Cache. Hier muss es gravierende Änderungen geben, da bisher die Bandbreite ja einen größeren Ausbau der GPU verhindert hat.
Warum?
RR würde sich doch gut für MCM SoC's eignen.
4 Dies auf einem MCM mit zusammen 140W und unter der Annahme, dass RR wie BR 1:2 DP schafft:
12 CU x ~1200MHz* x 4 = 3,7 TFlops DP incl. 16 X86 Kernen
*= 900MHz schafft AMD ja schon mit 28nm
Gipsel
2017-05-11, 08:09:10
Wenn ich mir die Geschwindigkeit und Latenzen des L3 bei Summit Ridge so angucke ist es nicht so traurig drum.Wieso? Ist doch sogar einen Tick schneller als der L3 bei intel!
deekey777
2017-05-11, 09:20:30
Argh, hatte keine Zeit die Sandra-Werte meines HPs mit A10-9600P in die Diskussion reinzuwerfen, hole heute Abend nach.
Das sehe ich nicht so. Die Exklusivste Klasse von Notebooks findet man mittlerweile mit 15W und 28Watt CPUs ausgestattet.
Das lässt einfach viel mehr Spielraum bei Design(Größe, Gewicht) und Akkulaufzeit, was den meisten Käufern wichtiger ist also die theoretischen Leistungsdaten. Man sieht es ja am Macbook pro, dem stereotyp eines Oberklasse Notebooks.
Gaming-orientierte Notebooks bei denen es um möglichst viel CPU und Grafikleistung, für möglichst wenig Geld geht, egal in was für einem Plastikgehäuse das steckt, sind zwar auch eine große Nische, aber nicht der mainstream markt den AMD mit einer APU anvisiert.
Solche Geräte á la Lenovo Legion oder Asus ROG werden aber sowieso immer mit einer diskreten Grafikkarte kombiniert, sind also nicht die Zielgruppe der APU.
Man sehe sich mal die Amazon und die Geizhals Bestseller Listen an, da sind nur zwei von den ersten zehn Geräten tatsächlich mit 35+ Watt Prozessor ausgestattet, alle anderen darunter.
Selbst wenn man Intel wirklich nicht trauen kann bei transparenter Preisgestaltung, so geben die Listenpreise doch eine ungefähre Tendenz wieder, wo hier wieviel Kohle gemacht wird:
281$ i5-7200U (15W)
250$ i5-7300HQ (45W)
393$ i7-7500U (15W)
378$ i7-7700HQ (45W)
Ich denke die APU wird genau wie mit den 8C/16T Desktop Ryzen 7 zuerst in eine Lücke oberhalb der bisherigen Bestseller vorstoßen die Intel offen gelassen hat: Quadcore-APUs (8T+4T) mit 25Watt und klar mehr MT- und Grafik-Leistung als intels Dualcore+HT U-Modelle.
Das ist eine Klasse, die noch einfach in 13 und 14" Geräten oder sogar convertibles eingesetzt werden kann. Intel kann dann mit den HQ Modellen nicht nachziehen. Gleichzeitig greift man damit Intels Cashcow, die 15Watt U-Modelle von oben her an und muss dabei nichtmal preislich günstiger sein um attraktiver zu sein.
Zusätzlich eine konfigurierbare TDPdown von 15W würde wiederum den OEMs sehr entgegenkommen, weil die dann die physischen Designs (Kühlung, Chassisformat, Akku, Energieversorgung...) von den aktuellen Intel Designs übernehmen könnte und RD und time-to-market geringer wären.
Ja, nein, doch.
Ob gewollt oder ungewollt:
Intels U-Prozessoren finden sich in allen Preisklassen. Vor langer Zeit waren U-Intels den Ultrabooks und teureren Geräten vorbehalten, heute findet man den gleichen i5-U in einem Laptop für 500-600 und dann für das Doppelte und mehr. Zweikerner mit 48 EUs und einer TDP von ~28W findet man kaum, obwohl solche SoCs eigentlich ideal für Notebooks sind, die auch als Desktopersatz dienen können, Vierkerner-HQs mit 24 EUs ohne dedizierte Grafik sind auch selten.
Der Markt ist irgendwie kaputt bzw. durcheinander gewirbelt worden. Um nicht noch mehr Anteile an Tablets zu verlieren, bietet Intel für die Us gute Rabatte, damit halbwegs günstige Geräte angeboten werden können, die relativ dünn, leise sind und lange Laufzeiten bieten. Für die aktuellen APUs sieht es düster aus. AMD wird sich an Intel orientieren müssen: Bauchgefühl sagt, dass die 15W-Klasse weiterhin dominiert und soche APUs überall verbaut werden.
Und das wird interessant. Die CPU-Leistung der Intelprozessoren ist und bleibt dominant. Aktuell werden die APUs wie A10-9600P oder A12-9700P (A12-9800P mit 512 SPs sowieso) durch die TDP von 15W extrem eingebremst (daher ist es wünschenswert, dass kommende APUs endlich in 35W-Geräten verbaut werden), aber auch durch die mangelnde CPU-Leistung, die noch gedrosselt wird.
Wenn AMD bei der RR-Generation alles richtig macht, so würde es mich nicht wundern, dass Kabylakes und kommende Coffeelakes in Cinebench dominieren, in 3DMark aber die RR-APUs. Natürlich darf man nicht vergessen, dass im mobilen Bereich andere Werte zählen, sprich flüssiges und leises Arbeiten und langes Arbeiten.
Complicated
2017-05-11, 12:19:58
Warum?
RR würde sich doch gut für MCM SoC's eignen.
4 Dies auf einem MCM mit zusammen 140W und unter der Annahme, dass RR wie BR 1:2 DP schafft:
Inwiefern sollten 4xiGPU für ein MCM geeignet sein? Das ist wohl der am wenigsten geeignete Chip für MCM. Da hst du dann 4xonboard Crossfire das du managen musst so ganz nebenbei zu der CPU Anbindung.
reaperrr
2017-05-11, 13:11:33
Schade nur 4 MB L3 Cache. Da hätte man IMO besser ein paar CUs einsparen sollen, anstatt die CPU zu beschneiden.
Ääh, nein.
Der halbierte L3 kostet vielleicht 2-3% IPC, reduziert aber die Fläche um 8mm², den Verbrauch pro MHz um das eine oder andere Watt und erlaubt dadurch wahrscheinlich 100-200 MHz mehr Takt innerhalb von <=65W, was den IPC-Verlust vollständig ausgleicht, bei geringeren Produktionskosten.
BoMbY
2017-05-11, 13:31:26
Ich verstehe die Diskussion eigentlich nicht. Raven Ridge ist ein halber Summit Ridge plus GPU. Raven Ridge hat ein CCX, Summit Ridge hat zwei CCX - folglich hat Raven Ridge maximal auch nur den halben Cache von Summit Ridge.
Unicous
2017-05-11, 13:45:42
Dir ist aber schon klar, dass 4 von 16 (MB L3 Cache) nicht die Hälfte ist, oder?:eek:
mboeller
2017-05-11, 16:31:48
Inwiefern sollten 4xiGPU für ein MCM geeignet sein? Das ist wohl der am wenigsten geeignete Chip für MCM. Da hst du dann 4xonboard Crossfire das du managen musst so ganz nebenbei zu der CPU Anbindung.
wer redet von Spielen? HPC war gemeint.
Complicated
2017-05-11, 18:58:44
@mboeller
Wie kommst du darauf, dass ich von Spielen rede? "4xonboard Crossfire" ist lediglich ein Platzhalter für die Anbindung der 4 GPUs, oder kennst du noch ein anderes derzeit genutztes Verfahren um 4 OnChip GPUs miteinander zu verbinden?
@Bomby
Ob Raven Ridge einen CCX hat ist soweit noch nicht gesichert. Prinzipiel kann man einges weg lassen was in einem CCX Platz und Strom benötigt wenn man nur 4 Cores auf den Die bringt, die sich auch nicht mit anderen in einem MCM verbinden müssen sondern statt dessen mit einer iGPU zusammenarbeiten müssen -> hUMA/HSA
Und wie Unicous schon schrieb, beinhaltet ein CCX 8MB L3 Cache.
BoMbY
2017-05-11, 21:17:21
Dir ist aber schon klar, dass 4 von 16 (MB L3 Cache) nicht die Hälfte ist, oder?:eek:
Es könnte sein das Sandra das falsch erkennt (wie so vieles anderes auch).
GHO sollte bis auf das Package eigentlich Raven Ridge entsprechend, und da steht 8 MB:
http://i.imgur.com/gnJ00Z1.jpg
Unicous
2017-05-11, 21:40:47
Was nichts an deiner falschen Aussage ändert.:wink:
Und ob diese Folie noch aktuell ist, wird sich im Lauf der nächsten Monate zeigen.
Viele Szenarien sind vorstellbar. Plausibel wäre auch, dass es sich um Produktdifferenzierung handelt und bei Sisoft Sandra gar nicht das Flaggschiff sondern ein Mittelklasse-Chip getestet wurde. Oder im Mobile-Bereich generell nur 4MB aktiv sind.
Die Folien tragen jedenfalls nicht zur Klärung bei, weil sie einfach zu alt sind.
Sie zeigen aber (davon ausgehend sie sind nicht gefälscht), dass AMD deutlich früher mit Zen starten wollte.
YfOrU
2017-05-11, 23:20:52
Die Folien tragen jedenfalls nicht zur Klärung bei, weil sie einfach zu alt sind.
Eigentlich schon denn es ist eine ES Roadmap und die trifft bis jetzt auch zu (Samples, Production):
https://videocardz.com/69428/amd-snowy-owl-naples-starship-grey-hawk-river-hawk-great-horned-owl
Naples Production Q2/17 und Great Horned Owl (Raven Ridge) Q4/17.
Unicous
2017-05-11, 23:55:35
Hmmm. Da könntest du Recht haben, ich habe um ehrlich zu sein nicht darauf geachtet was das für eine Präsentation ist.:freak:
Jedenfalls wäre Banded Kestrel der Stoney Ridge-Nachfolger mit 2 Zen Kernen und 3 Vega CUs. Und damit ein eigener Die.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.